当Kafka消费者写入HDFS时,它首先写入WAL。 +tmp dir包含所有临时文件,这些文件一起压缩成更大的HDFS文件。然后将其移动到实际定义的位置。
+tmp
事实上,您可以参考实际的实现来深入理解。
https://github.com/confluentinc/kafka-connect-hdfs/blob/121a69133bc2c136b6aa9d08b23a0799a4cd8799/src/main/java/io/confluent/connect/hdfs/TopicPartitionWriter.java#L611