数据流(使用PostgreSQL)utilizando Kafka | Debezium(v1)

O Kafka允许消费者使用实时字体(式),pode ser de um arquivo,de umrepositóriode dados(S3 da Amazon,por exemplo),de banco de dados ou outras diversas fontes。 可以从Java的背景或应用程序中获取Java的乐趣,也可以在安装卡夫卡,mas sim,abordar naprática或其他配置文件后使用um banco relacional PostgreSQL earmazená-losno S3 da Amazon。 在互联网上存在顺便说一句,但在互联网上却存在通行证。

Qual Kafkaseráutilizado吗?

Para este artigo,Confluent Kafka开放源代码(www.confluent.io),Apache Kafka连续性算法论(kafka.apache.org),instalação安装过程,diretóriodeinstalafão安装过程,接口无参参数与Kafka Connect和alguns进行配置。

Qual Sistema Operacionalseráutilizado?

可配置的Docker配置文件,理想的配置文件,可选的配置文件,配置文件或服务的配置文件。daccess-ods.un.org daccess-ods.un.org Dockeréérééré合法,masssóquandovocéjáse cansou de configurar mesma coisaváriasvezes ejásabe muito bem,ou quandoéalgoesporádicoque raramente precisaremos fazer denovo,enfim,enutils,opiniõesa OSini在Amazon EC2(Amazon Elastic Compute Cloud)上,虚拟化了vontade para utilizar qualqueer out of sisistema operationc ou maquina virtual,atéum docker,mas nestscasos alguns comandos utilizadosterãoque ser alterados devido as devidades de cada sist。

术前准备

请在安装,安装/etc/hosts维护/etc/hosts名后,在/etc/hosts名,并在Kafka上使用该实用程序。 在Kafka上配置localhost的重要性。

否,请在/etc/yum.repos.d中关闭Confluent,或在Confluent中关闭存储。

  [Confluent.dist] 
name =汇合的存储库(dist)
baseurl = https://packages.confluent.io/rpm/4.0/7
gpgcheck = 1
gpgkey = https://packages.confluent.io/rpm/4.0/archive.key
已启用= 1
  [汇合] 
name =融合库
baseurl = https://packages.confluent.io/rpm/4.0
gpgcheck = 1
gpgkey = https://packages.confluent.io/rpm/4.0/archive.key
已启用= 1

塞古达(Es seguida),需要安装餐巾纸的场所,必须要进行安装,以免发生卡夫卡(tafém)监控器的损坏。

yum install -y nano java-1.8.0-openjdk.x86_64 nc

推荐使用Kafka软件,建议您使用linux进行互换,使用动机,使用isso,seráalterado或vm.swappiness 0,例如,安装了CentOS,使用了esano操作系统。 o英勇精神1。

不可更改的图像,可交换的内容,可复制的配置文件,可复制的数据,数据的可重复性,可转换的文件,可转换的文件数量,可转换的文件数量,500个文件,不包含任何fstab。

  $ sysctl vm.swappiness = 0 
$ echo'vm.swappiness = 0'| sudo tee —附加/etc/sysctl.conf
$ mkfs.xfs -f / dev / xvdb
$ mkdir /数据
$ mount -t xfs / dev / xvdb / data
$ echo'/ dev / xvdb / data xfs默认为0 0'>> / etc / fstab

通过fim,可以按需更改hard nofilesoft nofile并可以无限制地在Linux上配置/etc/security/limits.conf

  $ echo“ *硬nofile 100000 
*软nofile 100000” | sudo tee —附加/etc/security/limits.conf

进行必要的系统操作,称为Realizadas。

在Amazon EC2上安装估算器,在sim卡中配置cas,在assim上嵌套ponto模,在cas上显示所需的配置,并在AMI上存储从卡夫卡到周围环境的配置文件。

Para quem curte Docker,从检查点到docker-file de tudo que foi mostradoatéagora。

因斯塔兰多·卡夫卡

可以使用服务程序,也可以在汇合的Kafka平台上安装(Zookeeper,Kafka,Schema-Registry…)实用程序:

yum install -y confluent-platform-oss-2.11

可配置的安装目录(.properties)不能配置/ etc ,不可配置的映像。8.按配置文件的定义,可以配置Kafka,Zookeeper,Schema-Registry和Rest API。

/ etc上配置服务的配置文件,在/ kafka上执行配置的文件管理/ usr / bin

安装一个现实的应用程序,在Kafka上进行格式化,然后在执行confluent start ,然后在Zookeeper,Kafka,Schema-Registry和Kafka Rest e Connect中建立连接:

实际操作中的嵌套设置,初始格式的设置,平台的服务设置,最佳产品的配置,理想的配置和配置的服务。环境,示例,环境集群(超级推荐),序列2或3的副本? SerãoquantosnóscomZookeeper(mínimo3érecomendado)? O Kafka-Connectutilizaráformato AVRO或JSON? E assim por diante。 Nospróximoscapítulos,serãomostrados alguns arquivos deconfiguração。 Caso queira parar o Kafka,利用confluent stop

Arquivos deconfiguração.properties

动物园管理员,卡夫卡,架构注册表和快速入门 “汇合”,实用程序“ .properties”( 作为文件的副标题或 等价物 ) de finidas de cadaserviço。 Nestecapítulo,serámostrado onde ficam estas arquivos e asconfiguraçõesbásicasde cada um,e comonãoestamos configurando um cluster,nãohánecessidade se alterar praticamente nada dos arquivosjécaçãodesacéqueques.properties,aconfiguraç例举不同的服务,例如,动物园服务员X和卡夫卡服务Y。

  • Zookeeper-/etc/kafka/zookeeper.properties
  • Kafka-/etc/kafka/server.properties
  • 架构注册表-/etc/schema-registry/schema-registry.properties
  • Kafka Rest-/etc/kafka-rest/kafka-rest.properties
  • 连接-/etc/schema-registry/connect-avro-distributed.properties(AVRO格式)或/etc/kafka/connect-distributed.properties(JSON格式)

卡夫卡(Camo Primeiro contato com)卡夫卡(Kafka),卡索卡(caso)的重要销售商,动物园管理员和卡夫卡(arofokeeper)卡夫卡(arquivos)物业的重要存在,arquivo zookeeper.properties(续),阿佩纳斯(conpenémapenas)3个参数,列表列表

  dataDir = /数据/动物园管理员 
clientPort = 2181
maxClientCnxns = 0

产品的环境参数,交互设置的参数“ dataDir” ,数据隔离区的参数,数据嵌套的参数,数据格式的性能,XFS格式的格式。

可以在arquivo server.properties上进行主要配置,而无需进行任何配置就可以简单地进行配置:

  broker.id = 0 
num.network.threads = 3
num.io.threads = 8
socket.send.buffer.bytes = 102400
socket.receive.buffer.bytes = 102400
socket.request.max.bytes = 104857600
log.dirs = /数据/ kafka
num.partitions = 1
num.recovery.threads.per.data.dir = 1
offsets.topic.replication.factor = 1
transaction.state.log.replication.factor = 1
transaction.state.log.min.isr = 1
log.retention.hours = 168
log.segment.bytes = 1073741824
log.retention.check.interval.ms = 300000
zookeeper.connect =本地主机:2181
zookeeper.connection.timeout.ms = 6000
confluent.support.metrics.enable = true
group.initial.rebalance.delay.ms = 0
confluent.support.customer.id =匿名

您可以通过broker.id进行重要的交易,也可以选择保留卡夫卡的服务,也可以选择保留2张卡夫卡的服务,还可以购买卡夫卡的服务。 从另一个方面来看,在公共事务之外可以使用公用程序。 观察和配置卡夫卡和日志文件的目录,并保存有关卡夫卡的名称,卡夫卡塞罗卡洛卡多卡洛,阿奎·坦贝姆·瓦莱·莱姆布雷卡·卡洛卡·卡洛卡·卡洛卡artigo,deixamos Zookeeper和Kafka no mesmo迪斯科。 一个可配置的zookeeper.connect连接到服务Zookeeper的目的执行器。

架构注册管理人和架构注册人之间的关系,以及信息服务,信息服务和嵌套嵌套等方面的知识。

德比兹

Debezium的站点上的Antes de tudo,de onde veio和nome segundo

“ Debezium”这个名字是从哪里来的?

该名称是“ DBs ”(如多个数据库的缩写)和元素周期表中许多元素的名称中使用的“ -ium ”后缀的组合。 快速地说:“ DBs-ium ”。 如果有帮助,我们说它像“ dee-BEE-zee-uhm ”。

Vamos,请访问Debezium acessa,或通过WAL进行PostgreSQL发行,请使用插件chamado“ wal2json”(https://github.com/eulerto/wal2json)。 您可以在Debezium上购买UM插件,也可以使用wal2json嵌套Artigo插件,在RDAS亚马逊上购买dados银行,在Amazon RDS上购买RDS插件,无需配置RDS插件o wal2json。

实用程序Debezium,Precisamos fazer o下载Debezium的任何站点,嵌套链接:

中央存储库:io / debezium / debezium-connector-postgres
0.4.0 / 2017-02-07 20:28 -0.4.1 / 2017-03-17 20:48 -0.5.0 / 2017-03-27 16:35 -0.5.1 / 2017-06-09 16: 36 -0.5.2 / 2017-08-17… repo1.maven.org 安装Debezium
Debezium使用(通过Kafka Connect或直接)使用多个主题来存储数据。 主题必须是…… debezium.io

没有卡夫卡(Kafka),塞拉克里亚多(casácriado umdiretório),塞德·德·斯帕克(compade descompactado esse arquivo)等服从的图像都符合其吸引力。

Eéisso,安装了debeziumestáfinalizada,并创建了bem simples。 在Debezium上进行配置的权限过高,在parametro插件前的备用路径。没有路径/etc/kafka/connect-distributed.properties:

  plugin.path = / usr / share / java,/ etc / kafka-connect-postgresql 

在Kafka-Connect上进行操作,在Debezium上执行seja carregado o插件,在executado上执行“ confluent stop / confluent start”,在c​​omando中执行“ confluent list plugins”,在Debeziumjáconfigurado中执行以下操作:

Configuraçãodo Debezium

在Debezium中安装应用程序, /etc/kafka-connect-postgresql ,将banado deconexão配置为banco de adas,然后在kafka Connect中配置。 O jsonteráas seguintes chaves / valores:

  { 
“名称”:“ postgres_debezium”,
“配置”:{
“ connector.class”:“ io.debezium.connector.postgresql.PostgresConnector”,
“ database.hostname”:“ kafka.cvdmxqjt8mb2.sa-east-1.rds.amazonaws.com”,
“ database.port”:“ 5432”,
“ database.user”:“ usuario-postgres”,
“ database.password”:“ senha-postgres”,
“ database.dbname”:“ banco-de-dados-postgres”,
“ database.server.name”:“ banco-de-dados-postgres”,
“ database.whitelist”:“ banco-de-dados-postgres”,
“ schema.whitelist”:“ schema-postgres”,
“ database.history.kafka.bootstrap.servers”:“ localhost:9092”,
“ database.history.kafka.topic”:“ schema-changes.banco-de-dados-postgres”,
“ plugin.name”:“ wal2json”,
“ snapshot.mode”:“初始”,
“ snapshot.lock.timeout.ms”:“ 10000”
}
}

Vamos参与者具有重要意义,因为chaves做json acima是:

  • 名称= Nome do Conector
  • connector.class =类Baixamos做Debezium网站
  • database.hostname = DNS / IP /终端节点postgres
  • database.port =达科斯州国会大厦
  • database.user =使用用户复制属性,不存在任何限制,并且具有“ rds_superuser”角色(对于PostgreSQL,没有RDS)
  • database.dbname =印度邮政银行
  • database.server.name =卡夫卡·阿皮纳斯分公司,卡夫卡·阿皮纳斯分公司,西班牙卡夫卡分公司,卡夫卡分公司,Veremos mais adiante
  • database.whitelist =卡夫卡银行和银行业的发展水平。 Vale lembrar,存在于白名单中,存在于database.blacklist,table.whitelist / table.blacklist,e da mesma forma,para“ table”和“ column”,verifique qualserámaisconvene,caso sejanecessárioexcluir apenas um达科斯银行,简单易用,可在数据库中使用。黑名单,示例。
  • database.history.kafka.bootstrap.servers =印度服务器Kafka queserárealizada一个相关的内容。
  • database.history.kafka.topic =将卡夫卡·阿马泽纳拉(Uspico do Kafka quearmazenará)定义为dados银行
  • plugin.name =seráutilizado o“ wal2json”对连接器ao banco
  • snapshot.mode = uma chave bem Importante,存在quatroopções,“ initial” em queseráfeito umaconexãoJDBC no banco de dados para“ transferir” todo oconteúdodo banco,um快照初始mesmo,assim queconluídoseráiniciada a utiliza de um slot decopyçãocriado no banco de dados。 JDBC的“从不”,“永久性”,“复制”,“复制”和“复制”都不会发生。 可以“始终”对快照进行快照,然后再将其发送给任何银行。 通过último,可以通过JDBC和处理过程来实现唯一的一个初始快照快照。 Utilizaremos一个“初始”选项。
  • snapshot.lock.timeout.ms =快照速度,快照启动后将继续执行。 Este tempo deve variar com or enviromente em que est Est utilizando,jcas visos em que que 10 seg age bom,ecasos em que sque 10segnãoage sufficiente。

可以使用arquivo criado,próximopassoécriar或arquivo json queseráutilizado para configurar o S3。

S3配置

在AmazonRepositóriode arquivos中使用Iremos utilizar,或者在S3上添加或删除任何内容。 在S3上使用Quosnãoquiser utilizar或在Kafka上使用tambémserámostrado como armazenar os dados dostópicosnopróprioservidor dostópicos。

没有S3的关键桶,可以简单地在“创建桶”中操作,可以在没有罐头的情况下使用,例如,“ kafka-debezium”,或者可以在criado上创建桶, e como os arquivosserãotratados,pode ser escolhida aopção“默认加密”,eo tipo de criptografia,neste exemplo,foi escolhido“ none”。 由ultimo,qualusuárioteráacesso,seserápublico或privado提供。

使用Kafka odiretório的服务程序/etc/kafka-connect-s3 para criar o json com作为S3的配置,lembrando que o conector做S3 jave vem configurado no Kafka quando baixamos plataforma conflureto kaf一个配置。

  { 
“名称”:“ kafka-debezium”,
“配置”:{
“ connector.class”:“ io.confluent.connect.s3.S3SinkConnector”,
“ tasks.max”:“ 1”,
“ topics”:“ banco-de-dados-postgres.schema-postgres.tabela-postgres”,
“ s3.region”:“ sa-east-1”,
“ s3.bucket.name”:“ kafka-debezium”,
“ s3.part.size”:“ 5242880”,
“ flush.size”:“ 3”,
“ storage.class”:“ io.confluent.connect.s3.storage.S3Storage”,
“ format.class”:“ io.confluent.connect.s3.format.json.JsonFormat”,
“ schema.generator.class”:“ io.confluent.connect.storage.hive.schema.DefaultSchemaGenerator”,
“ partitioner.class”:“ io.confluent.connect.storage.partitioner.DefaultPartitioner”,
“ schema.compatibility”:“无”
}
}

Agora vamos诱因为原理性研究:

  • connector.class =不存在S3汇合的Kafka para acesso ao
  • task.max =执行命令的同时执行的任务。
  • 主题= S3的质量标准。
  • s3.region = S3区域内的桶,SãoPaulo。
  • s3.bucket.name = Nome做桶
  • s3.part.size = tamanho de cada parte做分段上传
  • flush.size =通过Viz ao S3评估linhas环境
  • storage.class =配置S3的参数(备用)
  • format.class = basicamente,pod ser escolhido json或avro。

作为最终结果, schema.generator.classpartitioner.classschema.compatibility将配置为默认默认值。

Banco de dados PostgreSQL

在Amazon的PostgreSQL发行版中,RMS就是这样。 Pode ser utilizado um banco de dados PostgreSQL常规服务商,optei pelo RDS porémais simples de um banco de dados pronto e vffrapidamente。

PostgreSQL包含了一些建议:

banco de dados: "banco-de-dados-postgres"

schema: "schema-postgres"

tabela: "tabela-postgres"

usuario: "usuario-postgres"

senha: "senha-postgres"

paremetro wal_level = logical

 插入“ tabela-postgres”值(1,'texto1','texto2-1'); 
插入“ tabela-postgres”值(2,“ texto2”,“ texto2-2”);
插入“ tabela-postgres”值(3,“ texto3”,“ texto2-3”);
插入“ tabela-postgres”值(4,'texto4','texto2-4');
插入“ tabela-postgres”值(5,“ texto5”,“ texto2-5”);
插入“ tabela-postgres”值(6,'texto6','texto2-6');
插入“ tabela-postgres”值(7,'texto7','texto2-7');
插入“ tabela-postgres”值(8,'texto8','texto2-8');
插入“ tabela-postgres”值(9,'texto9','texto2-9');
插入“ tabela-postgres”值(10,'texto10','texto2-10');
插入“ tabela-postgres”值(11,'texto11','texto2-11');
插入“ tabela-postgres”值(12,'texto12','texto2-12');
插入“ tabela-postgres”值(13,'texto13','texto2-13');
插入“ tabela-postgres”值(14,'texto14','texto2-14');
插入“ tabela-postgres”值(15,'texto15','texto2-15');
插入“ tabela-postgres”值(16,'texto16','texto2-16');
插入“ tabela-postgres”值(17,'texto17','texto2-17');
插入“ tabela-postgres”值(18,'texto18','texto2-18');
插入“ tabela-postgres”值(19,'texto19','texto2-19');
插入“ tabela-postgres”值(20,'texto20','texto2-20');

十个国家的公共论坛,“制表者”一词,“卡夫卡·杜兰特”一等奖,“西班牙之声”。

Conectando o Kafka no PostgreSQL

一家由巴西银行共同发行的商品,其中包括卡夫卡公用事业公司或汇合的卡夫卡pode ser feita de 2礼盒,通常用于“汇合”。 或使用curé或seguinte:

  curl -X POST -H“内容类型:应用程序/ json” — data @ caminho-do-arquivo-json    servidor-do-kafka-connect  porta-do-kafka-connect /连接器|  jq -r 

O pipe jq(“ | jq -r”)可以在nãoéobrigatório处使用。 Quanto ao restante da linha,Acredito quejáficou um tantoQuanto explicativo da forma que foi escrito🙂

  curl -X POST -H“内容类型:应用程序/ json” --data @ / etc / kafka-connect-postgresql / postgres.json localhost:8083 / connectors |  jq -r 

请执行以下命令,使用utilizando或curl abaixo,并确认pos status的状态,例如“ executando”或“ parado”:

  curl本地主机:8083 /连接器/ postgres_debezium /状态|  jq -r 

注释:不做任何配置文件 ,不做任何事例,不做任何配置 ,不做事,不做事,不做任何事,不做任何事情 ,不做作, 不做做配置文件 ,不做任何事,不做作postgres_debezium

Agora que oserviçoestádepé,e rodando,podemos verificar log em tempo real para verificar como and aoserviçoutilizando:

 汇合日志连接-f 

Neste Momento,estamos verificando seconconãoaconteceu e comoestãoos dados,utilizando o“ -f”(comoépara o tail -f )para em o log em tempo real,mas depois,com mais tempo,ébem interessante ver todo在卡夫卡,贝西姆斯延伸区,西姆岛,马萨诸塞州的重要竞争者之间进行交易,在贝加尔州的贝加尔湖,延伸性地区和无政府主义地区,都将在此举行。

在Kafka Connect上进行验证,然后在以下位置进行验证:包括Kafka,执行命令:

 融合日志卡夫卡 
融合日志动物园管理员
融合日志架构注册表

在平台上没有“汇合开始”的地方汇合:

  [root @ ip-10-111-19-133〜]# 汇合开始 
启动动物园管理员
动物园管理员是[UP]
开始卡夫卡
kafka是[UP]
启动架构注册表
模式注册表为[UP]
开始卡夫卡休息
kafka-rest是[UP]
开始连接
连接是[UP]

在巴西的卡斯蒂利亚举行的决赛,在巴西的卡夫卡举行的比赛中,在巴西举行的足球比赛中:

OS comandos utilizados论坛:

  #listar ostópicos 
kafka-topics --zookeeper本地主机:2181 / kafka --list
  #乐于继续 
kafka-console-consumer --bootstrap-server localhost:9092 --topic servidor-postgres.schema-postgres.tabela-postgres --from-beginning

Enviando dados ao S3

S3平台上的插件可用于安装Kafka融合器,可用于JSON或JSON,可用于连接S3插件。 Esse processo tem que ser realizadotópicoatópico,para o nosso exemplo,temos apenas uma tabela,mas caso tenha mais de uma tabela(consecessementetópicoa mais),seránecessáriocriar um arquivo para cada tabela /tópico。

向配置文件中的Kafka Connect进行卷曲:

  curl -X POST -H“内容类型:应用程序/ json” --data @ / etc / kafka-connect-s3 / kafka-debezium.json本地主机:8083 /连接器|  jq -r 

Utilizando或“ confluent log connect -f”,可通过以下方式验证配置:

Agora,Baixando os arquivos gerados do S3,temos o seguinte resultado:

而已! 可以随时随地查询,在dados gerados no banco de dados上进行的运输,在Kafka utilizando Debezium上进行的运输,在sincronizado com或S3上进行运输。 Veremos mais adiante sobre como enviar os dados do AWS.com或当地的AWS,S3 da AWS。

Sincronizandotópicocom arquivo当地

总理普里图罗·波托(Soprimtra ponto)的一个创始者,是“ 来源 ”或“ 下沉 ”,这是什么意思? Seguinte,séarquivoseráutilizado como a fonte(source)dos dados queseráenviado para otópico,ouseráo destino dos dados dotópico(沉思-顺便说一句,destinonãoétradução理想的水槽。 达科斯州的圣地,圣达科斯州的原住民,达科斯州的iremos utilizar或arquivo como“ 水槽 ”。

删除/ etc 的文件连接到文件,或删除本地文件-sink.json 。 哦,这真是太棒了:

  { 
“名称”:“本地文件接收器”,
“配置”:{
“ connector.class”:“ FileStreamSinkConnector”,
“ tasks.max”:“ 1”,
“ file”:“ / etc / kafka-connect-file / test.sink.txt”,
“主题”:“ banco-de-dados-postgres.schema-postgres.tabela-postgres”
}
}

一个描述性的描述/价值的解释 ,一个“ 连接器。类 ”的描述,一个可重复使用的属性,“ FileStreamSinkConnector”或“ FileStreamSourceConnector”。

Executando o curl abaixo…:

  curl -X POST -H“内容类型:应用程序/ json” --data @ / etc / kafka-connect-file / local-file-sink.json本地主机:8083 /连接器|  jq -r 

Antes de executar…卷毛的执行者,卷曲的消息,ar quivo的消息,mas sim的消息,ja消息的json目录没有参数数据

  curl -X POST -H“内容类型:application / json” --data'{“ name”:“本地文件接收器”,“ config”:{“ connector.class”:“ FileStreamSinkConnector”,“任务。 max“:” 1“,” file“:” / etc / kafka-connect-file / test.sink.txt“,” topics“:” banco-de-dados-postgres.schema-postgres.tabela-postgres“} }'http:// localhost:8083 / connectors 

卡夫卡和卡夫卡连接原则(curl)

集市,集市,集散,公用事业,合作社,企业:

  #criar um topico 
kafka-topics --zookeeper本地主机:2181 --create --topic nome_do_topico --replication-factor 1 --partitions 1
  #escrever notópico 
kafka-console-producer --broker-list localhost:9092 --topic nome_do_topico
  #ler umtópico 
kafka-console-consumer --bootstrap-server localhost:9092 --topic nome_do_topico --from-beginning
  #listar ostópicosexistentes no Kafka 
kafka-topics --zookeeper本地主机:2181-列表
  #Apagar umtópicodo Kafka 
kafka-topics --zookeeper本地主机:2181-删除--topic nome_do_topico

Kafka-connect的参数,列表,正当状态和命令状态,Kafka的Rest API或Procedimentos utilizando的存在性:

  #Verificar sehá“alguémouvindo nesta porta” 
curl本地主机:8083 / | jq -r
  #Lista os plugins configurados no Confluent Kafka 
curl本地主机:8083 / connector-plugins | jq -r
  #Lista os conectores configurados(3个conectores foram configurados neste artigo) 
curl本地主机:8083 / connectors / | jq -r
  #Adicionar um conector ao Kafka 
curl -X POST -H“内容类型:应用程序/ json” --data @ / etc / kafka-connect-postgresql / postgres.json本地主机:8083 /连接器| jq -r
  #Status de um conector 
curl本地主机:8083 /连接器/ postgres_debezium /状态| jq -r
  #执行任务和执行任务的数量 
curl本地主机:8083 /连接器/ postgres_debezium /任务| jq -r
  #Apagar um conector,nãoháConfirmação 
curl -X DELETE localhost:8083 / connectors / postgres_debezium | jq -r

最终定稿在S3上运行PostgreSQL或更高版本,在Kafka / Debezium上进行传输

卡夫卡集群

最理想的产品配置,昆布·萨贝·埃姆·布里夫·阿帕雷塞·阿帕雷塞·乌玛·诺瓦的故事 sobre como configurar seu cluster de Kafka😉

Data do Artigo:Março/ 2018

Atualização— Abril / 2019:

Novo artigodisponível可以在PostgreSQL的Debezium e Confluent Platform em v2中使用

🇧🇷