久久久久久久av_日韩在线中文_看一级毛片视频_日本精品二区_成人深夜福利视频_武道仙尊动漫在线观看

<small id='tJMOL'></small><noframes id='tJMOL'>

  • <tfoot id='tJMOL'></tfoot>
      <bdo id='tJMOL'></bdo><ul id='tJMOL'></ul>

    1. <legend id='tJMOL'><style id='tJMOL'><dir id='tJMOL'><q id='tJMOL'></q></dir></style></legend>
        <i id='tJMOL'><tr id='tJMOL'><dt id='tJMOL'><q id='tJMOL'><span id='tJMOL'><b id='tJMOL'><form id='tJMOL'><ins id='tJMOL'></ins><ul id='tJMOL'></ul><sub id='tJMOL'></sub></form><legend id='tJMOL'></legend><bdo id='tJMOL'><pre id='tJMOL'><center id='tJMOL'></center></pre></bdo></b><th id='tJMOL'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='tJMOL'><tfoot id='tJMOL'></tfoot><dl id='tJMOL'><fieldset id='tJMOL'></fieldset></dl></div>

        spark從mysql并行讀取數(shù)據(jù)

        spark reading data from mysql in parallel(spark從mysql并行讀取數(shù)據(jù))
          <bdo id='j3z6h'></bdo><ul id='j3z6h'></ul>

        • <legend id='j3z6h'><style id='j3z6h'><dir id='j3z6h'><q id='j3z6h'></q></dir></style></legend>
          • <small id='j3z6h'></small><noframes id='j3z6h'>

            <tfoot id='j3z6h'></tfoot>
          • <i id='j3z6h'><tr id='j3z6h'><dt id='j3z6h'><q id='j3z6h'><span id='j3z6h'><b id='j3z6h'><form id='j3z6h'><ins id='j3z6h'></ins><ul id='j3z6h'></ul><sub id='j3z6h'></sub></form><legend id='j3z6h'></legend><bdo id='j3z6h'><pre id='j3z6h'><center id='j3z6h'></center></pre></bdo></b><th id='j3z6h'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='j3z6h'><tfoot id='j3z6h'></tfoot><dl id='j3z6h'><fieldset id='j3z6h'></fieldset></dl></div>
              <tbody id='j3z6h'></tbody>

                  本文介紹了spark從mysql并行讀取數(shù)據(jù)的處理方法,對(duì)大家解決問(wèn)題具有一定的參考價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)吧!

                  問(wèn)題描述

                  我正在嘗試從 mysql 讀取數(shù)據(jù)并將其寫回 s3 中具有特定分區(qū)的 parquet 文件,如下所示:

                  Im trying to read data from mysql and write it back to parquet file in s3 with specific partitions as follows:

                  df=sqlContext.read.format('jdbc')\
                     .options(driver='com.mysql.jdbc.Driver',url="""jdbc:mysql://<host>:3306/<>db?user=<usr>&password=<pass>""",
                           dbtable='tbl',
                           numPartitions=4 )\
                     .load()
                  
                  
                  df2=df.withColumn('updated_date',to_date(df.updated_at))
                  df2.write.parquet(path='s3n://parquet_location',mode='append',partitionBy=['updated_date'])
                  

                  我的問(wèn)題是它只打開一個(gè)到 mysql 的連接(而不是 4 個(gè)),并且在它從 mysql 獲取所有數(shù)據(jù)之前它不會(huì)寫入 parquert,因?yàn)槲以?mysql 中的表很大(100M 行)進(jìn)程失敗內(nèi)存不足.

                  My problem is that it open only one connection to mysql (instead of 4) and it doesn't write to parquert until it fetches all the data from mysql, because my table in mysql is huge (100M rows) the process failed on OutOfMemory.

                  有沒有辦法配置Spark打開多個(gè)mysql連接并將部分?jǐn)?shù)據(jù)寫入parquet?

                  Is there a way to configure Spark to open more than one connection to mysql and to write partial data to parquet?

                  推薦答案

                  你應(yīng)該設(shè)置這些屬性:

                  partitionColumn, 
                  lowerBound, 
                  upperBound, 
                  numPartitions
                  

                  正如這里記錄的那樣:http://spark.apache.org/docs/latest/sql-programming-guide.html#jdbc-to-other-databases

                  這篇關(guān)于spark從mysql并行讀取數(shù)據(jù)的文章就介紹到這了,希望我們推薦的答案對(duì)大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來(lái)源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問(wèn)題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請(qǐng)聯(lián)系我們刪除處理,感謝您的支持!

                  相關(guān)文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數(shù)根據(jù) N 個(gè)先前值來(lái)決定接下來(lái)的 N 個(gè)行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達(dá)式的結(jié)果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數(shù)的 ignore 選項(xiàng)是忽略整個(gè)事務(wù)還是只是有問(wèn)題的行?) - IT屋-程序員軟件開發(fā)技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時(shí)出錯(cuò),使用 for 循環(huán)數(shù)組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調(diào)用 o23.load 時(shí)發(fā)生錯(cuò)誤 沒有合適的驅(qū)動(dòng)程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數(shù)據(jù)庫(kù)表作為 Spark 數(shù)據(jù)幀讀取?)
                      <legend id='ULyWG'><style id='ULyWG'><dir id='ULyWG'><q id='ULyWG'></q></dir></style></legend>

                      • <small id='ULyWG'></small><noframes id='ULyWG'>

                        <tfoot id='ULyWG'></tfoot>

                            <tbody id='ULyWG'></tbody>
                            <bdo id='ULyWG'></bdo><ul id='ULyWG'></ul>

                            <i id='ULyWG'><tr id='ULyWG'><dt id='ULyWG'><q id='ULyWG'><span id='ULyWG'><b id='ULyWG'><form id='ULyWG'><ins id='ULyWG'></ins><ul id='ULyWG'></ul><sub id='ULyWG'></sub></form><legend id='ULyWG'></legend><bdo id='ULyWG'><pre id='ULyWG'><center id='ULyWG'></center></pre></bdo></b><th id='ULyWG'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='ULyWG'><tfoot id='ULyWG'></tfoot><dl id='ULyWG'><fieldset id='ULyWG'></fieldset></dl></div>
                          • 主站蜘蛛池模板: 免费黄色录像视频 | 亚洲啪啪 | 久久久久久久久久久久久久国产 | 99精品国产一区二区三区 | 羞羞视频免费在线观看 | 久久机热| av第一页 | 日韩久久成人 | 成人精品免费视频 | 欧美小视频在线观看 | 国产欧美精品一区二区色综合朱莉 | 欧美日韩亚洲成人 | 亚洲精品福利在线 | 一级黄a视频 | 亚洲精品乱码久久久久v最新版 | 国产偷自视频区视频 | 精品在线一区二区 | www.youjizz.com日韩 | 99色综合| 国产精品69毛片高清亚洲 | 日日夜夜天天久久 | 美女高潮网站 | 午夜精品 | 亚洲一一在线 | 亚洲精品天堂 | 免费观看a级毛片在线播放 黄网站免费入口 | 色网站入口| 青青久在线视频 | 亚洲精品一区中文字幕 | 伊人天堂网 | 久久视频一区 | 日韩欧美电影在线 | 久久99精品国产 | 国产一区二区中文字幕 | 国产精品高清在线 | 激情一区二区三区 | 午夜婷婷激情 | 免费99视频| 欧美国产日韩在线观看 | 久久国产精品一区二区三区 | 国产三区视频在线观看 |