当前位置:网站首页 > 数据科学与大数据 > 正文

tidb数据库教程(tinydb数据库)



在上篇文章中我们介绍了使用TiDB Binlog将数据同步至下游的Mysql 中,本篇我们学习下使用TiDB Binlog工具将数据同步至Kafka中自定义业务逻辑,比如可以做TIDB和ES、MongoDB 或 Redis的数据同步,这功能就和Canal解析Mysql的binlog功能相差不大。如果还不了解TiDB Binlog工具的也可以参考我的上篇博客:

注意:在做实验前,请确保已经配置好Kafka环境:不了解的可以参考下面一篇我的博客:

消息中间件KafKa集群搭建与使用:

在上篇文章中,我们使用tiup 扩容出了一个pump 和 一个 drainer,我们先看下现在的集群架构:

springboot 集成acitivit7设计_更新数据

springboot 集成acitivit7设计_kafka_02

下面我们再讲下扩容的方式,没有安装pump 和 drainer的就用看下面的方式:

编写扩容配置

写入以下内容:

注意 storage.stop-write-at-available-space 这个参数表示存储空间低于指定值时不再接收 binlog 写入请求,默认为10G ,如果硬盘没这么大,就调小一点。

开始扩容:

等待一会就可以看到集群中已经有pump 和 drainer了:

springboot 集成acitivit7设计_TIDB_03

修改 server_configs 的配制:

springboot 集成acitivit7设计_更新数据_04

使用mysql 客户端连接tidb,查看bnlog是否已经开启:

springboot 集成acitivit7设计_TIUP_05

看下pump和drainer的状态:

springboot 集成acitivit7设计_kafka_06

springboot 集成acitivit7设计_更新数据_07

下载官方demo

https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/driver/example/kafkaReader

官方demo是直接用的Java Kafka Api,本篇我们使用SpringBoot 的 spring-kafka 。

springboot 集成acitivit7设计_kafka_08

POM文件引入的主要依赖:

application配制信息:

注意consumer.value-deserializer这个要使用ByteArrayDeserializer,主要发送端就是byte[],我们只能配合:

日志监听:

springboot 集成acitivit7设计_TIUP_09

添加数据:

BinLogInfo.Binlog toString信息:

springboot 集成acitivit7设计_kafka_10

springboot 集成acitivit7设计_TIUP_11

springboot 集成acitivit7设计_kafka_12

BinLogInfo.Binlog toString信息:

springboot 集成acitivit7设计_更新数据_13

到此这篇tidb数据库教程(tinydb数据库)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!

版权声明


相关文章:

  • sql的数据文件是什么(sql 数据文件)2025-03-31 16:27:10
  • 达梦连接数据库jdbc(达梦数据库jdbc连接方式)2025-03-31 16:27:10
  • oracle数据库客户端安装教程(oracle客户端安装教程11g)2025-03-31 16:27:10
  • 数据库基础知识整理方法(数据库基础知识整理方法有哪几种)2025-03-31 16:27:10
  • 前端埋点和后端埋点的区别(前端数据埋点实现)2025-03-31 16:27:10
  • 大数据学习(大数据学什么)2025-03-31 16:27:10
  • 中文学术数据库(中文学术数据库有哪些类型)2025-03-31 16:27:10
  • orcale数据库下载(orcal数据库安装)2025-03-31 16:27:10
  • 大数据培训大数据(大数据培训真的有用吗)2025-03-31 16:27:10
  • 大数据算法网课超星尔雅章节答案(大数据算法超星尔雅网课答案2020)2025-03-31 16:27:10
  • 全屏图片