如果我理解正确,你想要从Hive读取事件,然后推送到Kafka。我没有使用存储处理程序的经验,但我宁愿建议编写适当的代码来生成Kafka,然后将这些事件提供给Hadoop / Hive。
在Kafka中有一个名为Kafka Connect的框架,它写入外部系统.Confluent编写了这样一个HDFS连接器,通过在文件写入HDFS时更新Hive Metastore来提供Hive支持。
在不编写存储处理程序的情况下,您可以尝试使用JDBC Source连接器,或者使用Spark / Flink从Hive读取数据并推送到Kafka。
但一般来说,Hadoop是CDC事件的目的地,而不是它的生成源。主要是因为查询速度很慢...如果你想在插入上创建事件,它通常需要一些表扫描,所以从Cassandra / Hbase生成事件可能是更好的选择