久久久久久久av_日韩在线中文_看一级毛片视频_日本精品二区_成人深夜福利视频_武道仙尊动漫在线观看

  • <small id='zRYqC'></small><noframes id='zRYqC'>

  • <i id='zRYqC'><tr id='zRYqC'><dt id='zRYqC'><q id='zRYqC'><span id='zRYqC'><b id='zRYqC'><form id='zRYqC'><ins id='zRYqC'></ins><ul id='zRYqC'></ul><sub id='zRYqC'></sub></form><legend id='zRYqC'></legend><bdo id='zRYqC'><pre id='zRYqC'><center id='zRYqC'></center></pre></bdo></b><th id='zRYqC'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='zRYqC'><tfoot id='zRYqC'></tfoot><dl id='zRYqC'><fieldset id='zRYqC'></fieldset></dl></div>

  • <tfoot id='zRYqC'></tfoot>

      <bdo id='zRYqC'></bdo><ul id='zRYqC'></ul>
  • <legend id='zRYqC'><style id='zRYqC'><dir id='zRYqC'><q id='zRYqC'></q></dir></style></legend>

      1. SQLITE_ERROR:通過 JDBC 從 Spark 連接到 SQLite 數據庫時

        SQLITE_ERROR: Connection is closed when connecting from Spark via JDBC to SQLite database(SQLITE_ERROR:通過 JDBC 從 Spark 連接到 SQLite 數據庫時,連接已關閉)

            <tbody id='4G5zC'></tbody>
          <i id='4G5zC'><tr id='4G5zC'><dt id='4G5zC'><q id='4G5zC'><span id='4G5zC'><b id='4G5zC'><form id='4G5zC'><ins id='4G5zC'></ins><ul id='4G5zC'></ul><sub id='4G5zC'></sub></form><legend id='4G5zC'></legend><bdo id='4G5zC'><pre id='4G5zC'><center id='4G5zC'></center></pre></bdo></b><th id='4G5zC'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='4G5zC'><tfoot id='4G5zC'></tfoot><dl id='4G5zC'><fieldset id='4G5zC'></fieldset></dl></div>

            <bdo id='4G5zC'></bdo><ul id='4G5zC'></ul>
            <legend id='4G5zC'><style id='4G5zC'><dir id='4G5zC'><q id='4G5zC'></q></dir></style></legend>

            <small id='4G5zC'></small><noframes id='4G5zC'>

                <tfoot id='4G5zC'></tfoot>

                  本文介紹了SQLITE_ERROR:通過 JDBC 從 Spark 連接到 SQLite 數據庫時,連接已關閉的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我正在使用 Apache Spark 1.5.1 并嘗試連接到名為 clinton.db 的本地 SQLite 數據庫.從數據庫表創建數據框工作正常,但是當我對創建的對象執行某些操作時,我收到以下錯誤消息,其中顯示SQL 錯誤或丟失的數據庫(連接已關閉)".有趣的是,我還是得到了手術的結果.知道我可以做些什么來解決問題,即避免錯誤嗎?

                  I am using Apache Spark 1.5.1 and trying to connect to a local SQLite database named clinton.db. Creating a data frame from a table of the database works fine but when I do some operations on the created object, I get the error below which says "SQL error or missing database (Connection is closed)". Funny thing is that I get the result of the operation nevertheless. Any idea what I can do to solve the problem, i.e., avoid the error?

                  spark-shell 的啟動命令:

                  Start command for spark-shell:

                  ../spark/bin/spark-shell --master local[8] --jars ../libraries/sqlite-jdbc-3.8.11.1.jar --classpath ../libraries/sqlite-jdbc-3.8.11.1.jar
                  

                  從數據庫中讀取:

                  val emails = sqlContext.read.format("jdbc").options(Map("url" -> "jdbc:sqlite:../data/clinton.sqlite", "dbtable" -> "Emails")).load()
                  

                  簡單計數(失敗):

                  emails.count
                  

                  錯誤:

                  15/09/30 09:06:39 WARN JDBCRDD:異常結束語句java.sql.SQLException: [SQLITE_ERROR] SQL 錯誤或缺少數據庫(連接已關閉)在 org.sqlite.core.DB.newSQLException(DB.java:890)在 org.sqlite.core.CoreStatement.internalClose(CoreStatement.java:109)在 org.sqlite.jdbc3.JDBC3Statement.close(JDBC3Statement.java:35)在 org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$$anon$1.org$apache$spark$sql$execution$datasources$jdbc$JDBCRDD$$anon$$close(JDBCRDD.scala:454)在 org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$$anon$1$$anonfun$8.apply(JDBCRDD.scala:358)在 org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$$anon$1$$anonfun$8.apply(JDBCRDD.scala:358)在 org.apache.spark.TaskContextImpl$$anon$1.onTaskCompletion(TaskContextImpl.scala:60)在 org.apache.spark.TaskContextImpl$$anonfun$markTaskCompleted$1.apply(TaskContextImpl.scala:79)在 org.apache.spark.TaskContextImpl$$anonfun$markTaskCompleted$1.apply(TaskContextImpl.scala:77)在 scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:59)在 scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:47)在 org.apache.spark.TaskContextImpl.markTaskCompleted(TaskContextImpl.scala:77)在 org.apache.spark.scheduler.Task.run(Task.scala:90)在 org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:214)在 java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)在 java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)在 java.lang.Thread.run(Thread.java:745)res1:長 = 7945

                  推薦答案

                  我遇到了同樣的錯誤 今天,并且重要的一行就在異常之前:

                  I got the same error today, and the important line is just before the exception:

                  15/11/30 12:13:02 INFO jdbc.JDBCRDD:關閉連接

                  15/11/30 12:13:02 INFO jdbc.JDBCRDD: closed connection

                  15/11/30 12:13:02 WARN jdbc.JDBCRDD:異常結束語句java.sql.SQLException: [SQLITE_ERROR] SQL 錯誤或缺少數據庫(連接已關閉)在 org.sqlite.core.DB.newSQLException(DB.java:890)在 org.sqlite.core.CoreStatement.internalClose(CoreStatement.java:109)在 org.sqlite.jdbc3.JDBC3Statement.close(JDBC3Statement.java:35)在 org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$$anon$1.org$apache$spark$sql$execution$datasources$jdbc$JDBCRDD$$anon$$close(JDBCRDD.scala:454)

                  15/11/30 12:13:02 WARN jdbc.JDBCRDD: Exception closing statement java.sql.SQLException: [SQLITE_ERROR] SQL error or missing database (Connection is closed) at org.sqlite.core.DB.newSQLException(DB.java:890) at org.sqlite.core.CoreStatement.internalClose(CoreStatement.java:109) at org.sqlite.jdbc3.JDBC3Statement.close(JDBC3Statement.java:35) at org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$$anon$1.org$apache$spark$sql$execution$datasources$jdbc$JDBCRDD$$anon$$close(JDBCRDD.scala:454)

                  所以Spark成功關閉JDBC連接,然后關閉JDBC語句

                  So Spark succeeded to close the JDBC connection, and then it fails to close the JDBC statement

                  看源碼,close()被調用了兩次:

                  第 358 行(org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD,Spark 1.5.1)

                  Line 358 (org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD, Spark 1.5.1)

                  context.addTaskCompletionListener{ context => close() }
                  

                  第 469 行

                  override def hasNext: Boolean = {
                    if (!finished) {
                      if (!gotNext) {
                        nextValue = getNext()
                        if (finished) {
                          close()
                        }
                        gotNext = true
                      }
                    }
                    !finished
                  }
                  

                  如果您查看 close() 方法(第 443 行)

                  If you look at the close() method (line 443)

                  def close() {
                    if (closed) return
                  

                  您可以看到它檢查了變量 closed,但該值從未設置為 true.

                  you can see that it checks the variable closed, but that value is never set to true.

                  如果我沒看錯的話,這個bug還在master里面.我已提交錯誤報告.

                  If I see it correctly, this bug is still in the master. I have filed a bug report.

                  • 來源:JDBCRDD.scala(行號略有不同)
                  • Source: JDBCRDD.scala (lines numbers differ slightly)

                  這篇關于SQLITE_ERROR:通過 JDBC 從 Spark 連接到 SQLite 數據庫時,連接已關閉的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                  【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調用 o23.load 時發生錯誤 沒有合適的驅動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)
                  In Apache Spark 2.0.0, is it possible to fetch a query from an external database (rather than grab the whole table)?(在 Apache Spark 2.0.0 中,是否可以從外部數據庫獲取查詢(而不是獲取整個表)?) - IT屋-程序員軟件開
                    <legend id='OfZ5w'><style id='OfZ5w'><dir id='OfZ5w'><q id='OfZ5w'></q></dir></style></legend>

                          <tfoot id='OfZ5w'></tfoot>
                          • <bdo id='OfZ5w'></bdo><ul id='OfZ5w'></ul>
                          • <i id='OfZ5w'><tr id='OfZ5w'><dt id='OfZ5w'><q id='OfZ5w'><span id='OfZ5w'><b id='OfZ5w'><form id='OfZ5w'><ins id='OfZ5w'></ins><ul id='OfZ5w'></ul><sub id='OfZ5w'></sub></form><legend id='OfZ5w'></legend><bdo id='OfZ5w'><pre id='OfZ5w'><center id='OfZ5w'></center></pre></bdo></b><th id='OfZ5w'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='OfZ5w'><tfoot id='OfZ5w'></tfoot><dl id='OfZ5w'><fieldset id='OfZ5w'></fieldset></dl></div>

                            <small id='OfZ5w'></small><noframes id='OfZ5w'>

                              <tbody id='OfZ5w'></tbody>

                            主站蜘蛛池模板: 久久伊人精品 | 国产在线精品一区二区三区 | 色视频网站免费 | 四虎国产 | 成人黄色在线 | 国产1区在线 | 国产精品18久久久久久久 | 精品96久久久久久中文字幕无 | 国内精品视频在线观看 | 中文在线观看视频 | 中文字幕1区2区3区 亚洲国产成人精品女人久久久 | 日本成人片在线观看 | 免费精品一区 | 蜜桃五月天 | 人妖一区 | 成人精品国产一区二区4080 | 91在线精品视频 | 久久精品亚洲精品国产欧美kt∨ | 亚洲综合在线一区 | 欧美一区二区三区在线播放 | 成人一区二区三区 | 亚洲激情第一页 | 亚洲精品一区二区三区在线 | 亚洲精品自在在线观看 | 欧美一区不卡 | 久久久久成人精品亚洲国产 | 国产精品久久久久久久久图文区 | 四虎在线播放 | 97精品国产97久久久久久免费 | 高清黄色毛片 | 日韩不卡在线 | 国产欧美精品一区二区色综合朱莉 | 免费日韩网站 | 日韩精品在线看 | 亚洲精品一区二区三区 | 亚洲成人精品 | 亚洲国产精品91 | 日韩欧美第一页 | 欧美视频在线播放 | 日韩在线免费视频 | 精品久久精品 |