久久久久久久av_日韩在线中文_看一级毛片视频_日本精品二区_成人深夜福利视频_武道仙尊动漫在线观看

      <legend id='RFptX'><style id='RFptX'><dir id='RFptX'><q id='RFptX'></q></dir></style></legend>

      1. <small id='RFptX'></small><noframes id='RFptX'>

        • <bdo id='RFptX'></bdo><ul id='RFptX'></ul>
      2. <tfoot id='RFptX'></tfoot>
        <i id='RFptX'><tr id='RFptX'><dt id='RFptX'><q id='RFptX'><span id='RFptX'><b id='RFptX'><form id='RFptX'><ins id='RFptX'></ins><ul id='RFptX'></ul><sub id='RFptX'></sub></form><legend id='RFptX'></legend><bdo id='RFptX'><pre id='RFptX'><center id='RFptX'></center></pre></bdo></b><th id='RFptX'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='RFptX'><tfoot id='RFptX'></tfoot><dl id='RFptX'><fieldset id='RFptX'></fieldset></dl></div>

        龐大的 SQL Server 數(shù)據(jù)庫(kù)中的 Blob 數(shù)據(jù)

        Blob data in huge SQL Server database(龐大的 SQL Server 數(shù)據(jù)庫(kù)中的 Blob 數(shù)據(jù))

        <legend id='T6vp9'><style id='T6vp9'><dir id='T6vp9'><q id='T6vp9'></q></dir></style></legend>

            <bdo id='T6vp9'></bdo><ul id='T6vp9'></ul>
            • <tfoot id='T6vp9'></tfoot>

              <i id='T6vp9'><tr id='T6vp9'><dt id='T6vp9'><q id='T6vp9'><span id='T6vp9'><b id='T6vp9'><form id='T6vp9'><ins id='T6vp9'></ins><ul id='T6vp9'></ul><sub id='T6vp9'></sub></form><legend id='T6vp9'></legend><bdo id='T6vp9'><pre id='T6vp9'><center id='T6vp9'></center></pre></bdo></b><th id='T6vp9'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='T6vp9'><tfoot id='T6vp9'></tfoot><dl id='T6vp9'><fieldset id='T6vp9'></fieldset></dl></div>
                  <tbody id='T6vp9'></tbody>

                  <small id='T6vp9'></small><noframes id='T6vp9'>

                1. 本文介紹了龐大的 SQL Server 數(shù)據(jù)庫(kù)中的 Blob 數(shù)據(jù)的處理方法,對(duì)大家解決問題具有一定的參考價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)吧!

                  問題描述

                  我們每年生成 20.000.000 個(gè)文本文件,每個(gè)平均大小約為 250 Kb(35 Kb 壓縮).

                  We have 20.000.000 generated textfiles every year, average size is approx 250 Kb each (35 Kb zipped).

                  我們必須將這些文件放入某種存檔中 10 年.不需要在文本文件中搜索,但我們必須能夠通過(guò)搜索 5-10 個(gè)元數(shù)據(jù)字段(例如productname"、creationdate"等)來(lái)找到一個(gè) texfile.

                  We must put these files in some kind of archive for 10 years. No need to search inside textfiles, but we must be able to find one texfile by searching on 5-10 metadata fields such as "productname", "creationdate", etc.

                  我正在考慮壓縮每個(gè)文件并將它們存儲(chǔ)在 SQL Server 數(shù)據(jù)庫(kù)中,該數(shù)據(jù)庫(kù)具有 5-10 個(gè)可搜索(索引)列和一個(gè)用于壓縮文件數(shù)據(jù)的 varbinary(MAX) 列.

                  I'm considering zipping each file and storing them in a SQL Server database with 5-10 searchable (indexed) columns and a varbinary(MAX) column for the zipped file data.

                  數(shù)據(jù)庫(kù)會(huì)隨著時(shí)間的推移變得龐大;5-10 TB.所以我認(rèn)為我們需要對(duì)數(shù)據(jù)進(jìn)行分區(qū),例如每年保留一個(gè)數(shù)據(jù)庫(kù).

                  The database will be grow huge over the years; 5-10 Tb. So I think we need to partition data for example by keeping one database per year.

                  我一直在研究在 SQL Server 中對(duì)包含數(shù)據(jù)的 varbinary 列使用 FILESTREAM,但似乎這更適合大于 1 Mb 的 blob?

                  I've been looking into using FILESTREAM in SQL Server for the varbinary column that holds the data, but it seems this is more suitable for blobs > 1 Mb?

                  有關(guān)如何管理此類數(shù)據(jù)量的任何其他建議?

                  Any other suggestions on how to manage such data volumes?

                  推薦答案

                  Filestream 絕對(duì)更適合更大的 blob (750kB-1MB),因?yàn)榇蜷_外部文件所需的開銷開始影響讀寫性能 vs. vb(max) 小文件的 blob 存儲(chǔ).如果這不是什么大問題(即,在初始寫入后讀取 blob 數(shù)據(jù)的頻率很低,并且 blob 實(shí)際上是不可變的),那么這絕對(duì)是一個(gè)選擇.

                  Filestream is definitely more suited to larger blobs (750kB-1MB) as the overhead required to open the external file begins to impact read and write performance vs. vb(max) blob storage for small files. If this is not so much of an issue (ie. reads of blob data after the initial write are infrequent, and the blobs are effectively immutable) then it's definitely an option.

                  我可能會(huì)建議將文件直接保存在 vb(max) 列中,如果您可以保證它們的大小不會(huì)變大,但是使用 TEXTIMAGE_ON 選項(xiàng)將此表存儲(chǔ)在單獨(dú)的文件組中,這將允許您如有必要,將其從元數(shù)據(jù)的其余部分移至不同的存儲(chǔ).此外,請(qǐng)確保設(shè)計(jì)您的架構(gòu),以便可以使用分區(qū)或通過(guò)某些多表方案將 blob 的實(shí)際存儲(chǔ)拆分到多個(gè)文件組,以便您可以在將來(lái)必要時(shí)擴(kuò)展到不同的磁盤.

                  I would probably suggest keeping the files directly in a vb(max) column if you can guarantee they won't get much larger in size, but have this table stored in a seperate filegroup using the TEXTIMAGE_ON option which would allow you to move it to different storage from the rest of the metadata if necessary. Also, make sure to design your schema so the actual storage of blobs can be split over multiple filegroups either using partitions or via some multiple table scheme so you can scale to different disks if necessary in the future.

                  通過(guò) Filestream 或直接 vb(max) 存儲(chǔ)使 blob 與 SQL 元數(shù)據(jù)直接相關(guān)比處理文件系統(tǒng)/SQL 不一致具有許多優(yōu)勢(shì),不僅限于易于備份和其他管理操作.

                  Keeping the blobs directly associated with the SQL metadata either via Filestream or direct vb(max) storage has many advantages over dealing with filesystem / SQL inconsistencies not limited to ease of backup and other management operations.

                  這篇關(guān)于龐大的 SQL Server 數(shù)據(jù)庫(kù)中的 Blob 數(shù)據(jù)的文章就介紹到這了,希望我們推薦的答案對(duì)大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來(lái)源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請(qǐng)聯(lián)系我們刪除處理,感謝您的支持!

                  相關(guān)文檔推薦

                  Break down a table to pivot in columns (SQL,PYSPARK)(分解表以按列進(jìn)行透視(SQL、PYSPARK))
                  Spark giving Null Pointer Exception while performing jdbc save(Spark在執(zhí)行jdbc保存時(shí)給出空指針異常)
                  execute query on sqlserver using spark sql(使用 spark sql 在 sqlserver 上執(zhí)行查詢)
                  How can I compare the one line in one CSV with all lines in another CSV file?(如何將一個(gè) CSV 中的一行與另一個(gè) CSV 文件中的所有行進(jìn)行比較?)
                  NIFI - QueryDatabaseTable processor. How to query rows which is modified?(NIFI - QueryDatabaseTable 處理器.如何查詢被修改的行?)
                  How to map the column wise data in flowfile in NiFi?(如何在 NiFi 中映射流文件中的列數(shù)據(jù)?)
                  <i id='4nGgn'><tr id='4nGgn'><dt id='4nGgn'><q id='4nGgn'><span id='4nGgn'><b id='4nGgn'><form id='4nGgn'><ins id='4nGgn'></ins><ul id='4nGgn'></ul><sub id='4nGgn'></sub></form><legend id='4nGgn'></legend><bdo id='4nGgn'><pre id='4nGgn'><center id='4nGgn'></center></pre></bdo></b><th id='4nGgn'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='4nGgn'><tfoot id='4nGgn'></tfoot><dl id='4nGgn'><fieldset id='4nGgn'></fieldset></dl></div>

                      <small id='4nGgn'></small><noframes id='4nGgn'>

                      <tfoot id='4nGgn'></tfoot>

                        1. <legend id='4nGgn'><style id='4nGgn'><dir id='4nGgn'><q id='4nGgn'></q></dir></style></legend>
                            <tbody id='4nGgn'></tbody>

                            <bdo id='4nGgn'></bdo><ul id='4nGgn'></ul>
                            主站蜘蛛池模板: 搞黄视频免费看 | 亚洲视频观看 | 狠狠干狠狠插 | 一级毛片免费视频 | 日韩视频一区 | 天天爽天天干 | 麻豆久久久9性大片 | 成人影院免费视频 | 在线免费观看黄a | 亚洲乱码国产乱码精品精的特点 | 久久国产成人 | 免费一区二区三区 | 久www| 亚洲精品电影在线观看 | 欧美一区二区久久 | 国产成人久久精品一区二区三区 | 亚州综合一区 | 中文字幕高清免费日韩视频在线 | 麻豆91精品91久久久 | 国产免费一区二区三区 | 毛片网在线观看 | 视频羞羞 | 国产一区二区精 | 天天射天天干 | 国产美女一区二区三区 | 国产一区二区三区色淫影院 | 日干夜干 | 免费的av| 一区二区三区在线播放 | 日韩av在线中文字幕 | 日日日干干干 | 夜夜草| 福利久久| 99精品国产一区二区三区 | 久久久精 | 日韩精品一区二区三区中文字幕 | 国产高清在线精品 | 羞羞视频在线观免费观看 | 成人精品鲁一区一区二区 | 精精国产xxxx视频在线播放 | 日韩在线一区二区 |