久久久久久久av_日韩在线中文_看一级毛片视频_日本精品二区_成人深夜福利视频_武道仙尊动漫在线观看

    <bdo id='Z7FCS'></bdo><ul id='Z7FCS'></ul>
    1. <i id='Z7FCS'><tr id='Z7FCS'><dt id='Z7FCS'><q id='Z7FCS'><span id='Z7FCS'><b id='Z7FCS'><form id='Z7FCS'><ins id='Z7FCS'></ins><ul id='Z7FCS'></ul><sub id='Z7FCS'></sub></form><legend id='Z7FCS'></legend><bdo id='Z7FCS'><pre id='Z7FCS'><center id='Z7FCS'></center></pre></bdo></b><th id='Z7FCS'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='Z7FCS'><tfoot id='Z7FCS'></tfoot><dl id='Z7FCS'><fieldset id='Z7FCS'></fieldset></dl></div>
    2. <small id='Z7FCS'></small><noframes id='Z7FCS'>

      <tfoot id='Z7FCS'></tfoot>

      1. <legend id='Z7FCS'><style id='Z7FCS'><dir id='Z7FCS'><q id='Z7FCS'></q></dir></style></legend>

        使用帶有 Helm 安裝的 Kafka/Confluent 的連接器

        Using a connector with Helm-installed Kafka/Confluent(使用帶有 Helm 安裝的 Kafka/Confluent 的連接器)

        <small id='9DOMe'></small><noframes id='9DOMe'>

        <i id='9DOMe'><tr id='9DOMe'><dt id='9DOMe'><q id='9DOMe'><span id='9DOMe'><b id='9DOMe'><form id='9DOMe'><ins id='9DOMe'></ins><ul id='9DOMe'></ul><sub id='9DOMe'></sub></form><legend id='9DOMe'></legend><bdo id='9DOMe'><pre id='9DOMe'><center id='9DOMe'></center></pre></bdo></b><th id='9DOMe'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='9DOMe'><tfoot id='9DOMe'></tfoot><dl id='9DOMe'><fieldset id='9DOMe'></fieldset></dl></div>

            <bdo id='9DOMe'></bdo><ul id='9DOMe'></ul>
            <legend id='9DOMe'><style id='9DOMe'><dir id='9DOMe'><q id='9DOMe'></q></dir></style></legend>
            1. <tfoot id='9DOMe'></tfoot>

                  <tbody id='9DOMe'></tbody>

                  本文介紹了使用帶有 Helm 安裝的 Kafka/Confluent 的連接器的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我使用 Helm charts 在本地 Minikube 上安裝了 Kafka

                  我想連接 MySQL 和 Kafka,使用連接器之一(如 例如 Debezium MySQL CDC).在說明中,它說:

                  <塊引用>

                  安裝連接器

                  使用 Confluent Hub 客戶端安裝這個連接器:

                  confluent-hub install debezium/debezium-connector-mysql:0.9.2

                  聽起來不錯,除了 1) 我不知道在哪個 pod 上運行此命令,2) 似乎沒有一個 pod 有可用的 confluent-hub 命令.

                  問題:

                  1. confluent-hub 不是通過這些 Helm 圖表安裝的嗎?
                  2. 我必須自己安裝 confluent-hub 嗎?
                  3. 如果是這樣,我必須將它安裝在哪個 pod 上?

                  解決方案

                  理想情況下,這應該作為 helm 腳本的一部分進行配置,但不幸的是,目前還沒有.解決此問題的一種方法是從 Confluent 的 Kafka Connect Docker 映像構建一個新的 Docker.手動下載連接器并將內容解壓縮到一個文件夾中.將其內容復制到容器中的路徑.像下面這樣的東西.

                  Dockerfile 的內容

                  FROM confluentinc/cp-kafka-connect:5.2.1復制<連接器目錄>/usr/share/java

                  /usr/share/java 是 Kafka Connect 尋找插件的默認位置.您還可以在 helm 安裝期間使用不同的位置并提供新位置 (plugin.path).

                  構建此映像并將其托管在可訪問的地方.您還必須在 helm 安裝期間提供/覆蓋圖像和標簽詳細信息.

                  Here> 是 values.yaml 文件的路徑.您可以在此處找到 imageplugin.path 值.

                  I have installed Kafka on a local Minikube by using the Helm charts https://github.com/confluentinc/cp-helm-charts following these instructions https://docs.confluent.io/current/installation/installing_cp/cp-helm-charts/docs/index.html like so:

                  helm install -f kafka_config.yaml confluentinc/cp-helm-charts --name kafka-home-delivery --namespace cust360
                  

                  The kafka_config.yaml is almost identical to the default yaml, with the one exception being that I scaled it down to 1 server/broker instead of 3 (just because I'm trying to conserve resources on my local minikube; hopefully that's not relevant to my problem).

                  Also running on Minikube is a MySQL instance. Here's the output of kubectl get pods --namespace myNamespace:

                  I want to connect MySQL and Kafka, using one of the connectors (like Debezium MySQL CDC, for instance). In the instructions, it says:

                  Install your connector

                  Use the Confluent Hub client to install this connector with:

                  confluent-hub install debezium/debezium-connector-mysql:0.9.2

                  Sounds good, except 1) I don't know which pod to run this command on, 2) None of the pods seem to have a confluent-hub command available.

                  Questions:

                  1. Does confluent-hub not come installed via those Helm charts?
                  2. Do I have to install confluent-hub myself?
                  3. If so, which pod do I have to install it on?

                  解決方案

                  Ideally this should be configurable as part of the helm script, but unfortunately it is not as of now. One way to work around this is to build a new Docker from Confluent's Kafka Connect Docker image. Download the connector manually and extract the contents into a folder. Copy the contents of this to a path in the container. Something like below.

                  Contents of Dockerfile

                  FROM confluentinc/cp-kafka-connect:5.2.1
                  COPY <connector-directory> /usr/share/java
                  

                  /usr/share/java is the default location where Kafka Connect looks for plugins. You could also use different location and provide the new location (plugin.path) during your helm installation.

                  Build this image and host it somewhere accessible. You will also have to provide/override the image and tag details during the helm installation.

                  Here is the path to the values.yaml file. You can find the image and plugin.path values here.

                  這篇關于使用帶有 Helm 安裝的 Kafka/Confluent 的連接器的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                  【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環數組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調用 o23.load 時發生錯誤 沒有合適的驅動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)

                  <small id='2PzQ4'></small><noframes id='2PzQ4'>

                    • <i id='2PzQ4'><tr id='2PzQ4'><dt id='2PzQ4'><q id='2PzQ4'><span id='2PzQ4'><b id='2PzQ4'><form id='2PzQ4'><ins id='2PzQ4'></ins><ul id='2PzQ4'></ul><sub id='2PzQ4'></sub></form><legend id='2PzQ4'></legend><bdo id='2PzQ4'><pre id='2PzQ4'><center id='2PzQ4'></center></pre></bdo></b><th id='2PzQ4'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='2PzQ4'><tfoot id='2PzQ4'></tfoot><dl id='2PzQ4'><fieldset id='2PzQ4'></fieldset></dl></div>
                        <tfoot id='2PzQ4'></tfoot>

                        • <bdo id='2PzQ4'></bdo><ul id='2PzQ4'></ul>
                          <legend id='2PzQ4'><style id='2PzQ4'><dir id='2PzQ4'><q id='2PzQ4'></q></dir></style></legend>

                              <tbody id='2PzQ4'></tbody>
                          • 主站蜘蛛池模板: 亚洲激情一区二区 | 欧美99久久精品乱码影视 | 91婷婷韩国欧美一区二区 | 欧美福利影院 | 久久99国产精一区二区三区 | 精品美女在线观看视频在线观看 | 国产午夜亚洲精品不卡 | 成人国产在线观看 | 国产在线播放一区二区三区 | 中文字幕1区2区 | 一区免费视频 | 国产综合视频 | 日韩在线日韩 | 久久国产精品网 | 欧美一区二区三区在线观看视频 | 欧美一级黄视频 | 精品国产一区一区二区三亚瑟 | 色综合久久天天综合网 | 在线视频a| 国产精品欧美一区二区 | 欧美一区二区三区四区五区无卡码 | 99re视频在线观看 | 天天干天天想 | 国产ts人妖系列高潮 | 夜夜爽99久久国产综合精品女不卡 | www.色婷婷| 亚洲人在线观看视频 | 一区二区三区四区在线视频 | 久久精品屋 | 精品欧美一区二区在线观看视频 | 欧美一区视频 | 午夜免费视频观看 | 国产成人精品免高潮在线观看 | 国产男女精品 | 国产一级片一区二区 | 欧美精品一区二区三区视频 | 国产欧美精品一区二区三区 | 国产精品久久久爽爽爽麻豆色哟哟 | 女生羞羞网站 | com.色.www在线观看 | 成人超碰在线 |