久久久久久久av_日韩在线中文_看一级毛片视频_日本精品二区_成人深夜福利视频_武道仙尊动漫在线观看

  1. <i id='bQFW8'><tr id='bQFW8'><dt id='bQFW8'><q id='bQFW8'><span id='bQFW8'><b id='bQFW8'><form id='bQFW8'><ins id='bQFW8'></ins><ul id='bQFW8'></ul><sub id='bQFW8'></sub></form><legend id='bQFW8'></legend><bdo id='bQFW8'><pre id='bQFW8'><center id='bQFW8'></center></pre></bdo></b><th id='bQFW8'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='bQFW8'><tfoot id='bQFW8'></tfoot><dl id='bQFW8'><fieldset id='bQFW8'></fieldset></dl></div>

    <legend id='bQFW8'><style id='bQFW8'><dir id='bQFW8'><q id='bQFW8'></q></dir></style></legend>

    <tfoot id='bQFW8'></tfoot>

        <bdo id='bQFW8'></bdo><ul id='bQFW8'></ul>

      <small id='bQFW8'></small><noframes id='bQFW8'>

    1. 如何更改 max_allowed_pa??cket 大小

      How to change max_allowed_packet size(如何更改 max_allowed_pa??cket 大小)
    2. <tfoot id='vSsfR'></tfoot>

        <bdo id='vSsfR'></bdo><ul id='vSsfR'></ul>
          <tbody id='vSsfR'></tbody>

            <small id='vSsfR'></small><noframes id='vSsfR'>

            • <legend id='vSsfR'><style id='vSsfR'><dir id='vSsfR'><q id='vSsfR'></q></dir></style></legend>
              <i id='vSsfR'><tr id='vSsfR'><dt id='vSsfR'><q id='vSsfR'><span id='vSsfR'><b id='vSsfR'><form id='vSsfR'><ins id='vSsfR'></ins><ul id='vSsfR'></ul><sub id='vSsfR'></sub></form><legend id='vSsfR'></legend><bdo id='vSsfR'><pre id='vSsfR'><center id='vSsfR'></center></pre></bdo></b><th id='vSsfR'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='vSsfR'><tfoot id='vSsfR'></tfoot><dl id='vSsfR'><fieldset id='vSsfR'></fieldset></dl></div>
                本文介紹了如何更改 max_allowed_pa??cket 大小的處理方法,對大家解決問題具有一定的參考價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)吧!

                問題描述

                我的 MySQL 數(shù)據(jù)庫中的 BLOB 字段有問題 - 當(dāng)上傳大于約 1MB 的文件時(shí),我收到一個(gè)錯(cuò)誤 不允許大于 max_allowed_pa??cket 的數(shù)據(jù)包.

                I am having a problem with BLOB fields in my MySQL database - when uploading files larger than approx 1MB I get an error Packets larger than max_allowed_packet are not allowed.

                這是我嘗試過的:

                在 MySQL 查詢?yōu)g覽器中,我運(yùn)行了一個(gè) show variables like 'max_allowed_pa??cket' 這給了我 1048576.

                In MySQL Query Browser I ran a show variables like 'max_allowed_packet' which gave me 1048576.

                然后我執(zhí)行查詢 set global max_allowed_pa??cket=33554432 后跟 show variables like 'max_allowed_pa??cket' - 它按預(yù)期給了我 33554432.

                Then I execute the query set global max_allowed_packet=33554432 followed by show variables like 'max_allowed_packet' - it gives me 33554432 as expected.

                但是當(dāng)我重新啟動(dòng) MySQL 服務(wù)器時(shí),它神奇地回到了 1048576.我在這里做錯(cuò)了什么?

                But when I restart the MySQL server it magically goes back to 1048576. What am I doing wrong here?

                額外的問題,是否可以壓縮 BLOB 字段?

                Bonus question, is it possible to compress a BLOB field?

                推薦答案

                my.ini~/.my.cnf 文件中更改,包括單行在文件中的 [mysqld][client] 部分下:

                Change in the my.ini or ~/.my.cnf file by including the single line under [mysqld] or [client] section in your file:

                max_allowed_packet=500M
                

                然后重啟 MySQL 服務(wù)就大功告成了.

                then restart the MySQL service and you are done.

                有關(guān)詳細(xì)信息,請參閱文檔.

                See the documentation for further information.

                這篇關(guān)于如何更改 max_allowed_pa??cket 大小的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                【網(wǎng)站聲明】本站部分內(nèi)容來源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請聯(lián)系我們刪除處理,感謝您的支持!

                相關(guān)文檔推薦

                How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數(shù)根據(jù) N 個(gè)先前值來決定接下來的 N 個(gè)行)
                reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達(dá)式的結(jié)果;條款?)
                Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數(shù)的 ignore 選項(xiàng)是忽略整個(gè)事務(wù)還是只是有問題的行?) - IT屋-程序員軟件開發(fā)技
                Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時(shí)出錯(cuò),使用 for 循環(huán)數(shù)組)
                pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調(diào)用 o23.load 時(shí)發(fā)生錯(cuò)誤 沒有合適的驅(qū)動(dòng)程序)
                How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數(shù)據(jù)庫表作為 Spark 數(shù)據(jù)幀讀取?)

                <small id='A2UGD'></small><noframes id='A2UGD'>

                1. <i id='A2UGD'><tr id='A2UGD'><dt id='A2UGD'><q id='A2UGD'><span id='A2UGD'><b id='A2UGD'><form id='A2UGD'><ins id='A2UGD'></ins><ul id='A2UGD'></ul><sub id='A2UGD'></sub></form><legend id='A2UGD'></legend><bdo id='A2UGD'><pre id='A2UGD'><center id='A2UGD'></center></pre></bdo></b><th id='A2UGD'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='A2UGD'><tfoot id='A2UGD'></tfoot><dl id='A2UGD'><fieldset id='A2UGD'></fieldset></dl></div>
                  <tfoot id='A2UGD'></tfoot>
                    <bdo id='A2UGD'></bdo><ul id='A2UGD'></ul>

                      <tbody id='A2UGD'></tbody>

                          <legend id='A2UGD'><style id='A2UGD'><dir id='A2UGD'><q id='A2UGD'></q></dir></style></legend>
                          主站蜘蛛池模板: 亚洲精品欧美一区二区三区 | 999精品在线 | 亚洲美女视频 | 国产精品中文字幕在线观看 | 日日日干干干 | 日韩成人在线看 | 成人午夜影院 | 狠狠干天天干 | 日韩亚洲视频 | 在线免费观看日本视频 | 91精品国产色综合久久 | 夜夜夜久久久 | 蜜桃在线一区二区三区 | av免费网站在线观看 | 久草视频网站 | 九九九久久国产免费 | 男女黄网站 | a级片在线观看 | 日韩欧美精品一区 | 高清一区二区 | 日本一二区视频 | 国产精品久久久久免费 | 日本色婷婷 | 国产一区二区精品在线观看 | 欧美午夜一区 | 国产精品一区二区不卡 | 亚洲精精品 | 在线视频亚洲 | 97精品超碰一区二区三区 | 99热播精品 | 国产精品久久久久久久久久免费看 | 免费一区二区 | 精品综合久久久 | 日韩免| 国产精品免费在线 | 九九伦理电影 | 一区二区三区四区不卡 | 久久精品欧美一区二区三区不卡 | 国产一级特黄aaa大片评分 | 久久久精品一区 | 久久精品色欧美aⅴ一区二区 |