17.6. 卡夫卡命令行工具

GeoMesa Kafka发行版包括一组命令行工具,用于功能管理、获取、导出和调试。

要安装这些工具,请参阅 设置Kafka命令行工具

安装后,应该可以通过命令使用这些工具 geomesa-kafka **

$ geomesa-kafka
INFO  Usage: geomesa-kafka [command] [command options]
  Commands:
    ...

中介绍了多个后端通用的命令 命令行工具 。这里的命令是卡夫卡特有的。

17.6.1. 一般论据

大多数命令都要求您指定到Kafka的连接。这通常包括卡夫卡经纪人和ZooKeeper服务器的列表。使用指定的代理 --brokers (或 -b )参数,并使用指定动物园管理员 --zookeepers (或 -z )。

Kafka将元数据存储在ZooKeeper中的特定路径下--可以将其视为要素类型的命名空间。使用 --zkpath (或 -p )覆盖默认路径。

要连接到 Confluent Schema Registry 主题,使用 --schema-registry 以提供注册表URL。

17.6.2. 指令

17.6.2.1. create-schema

看见 create-schema 有关此命令的概述,请参阅。

除了常规选项外,Kafka还允许指定Kafka主题的分区数量和复制因子。

论据

描述

--partitions

用于Kafka主题的分区数量

--replication

卡夫卡话题的复制因素

17.6.2.2. export

看见 export 有关此命令的概述,请参阅。

不同于标准 export ,则此命令不会终止,直到取消(通过Shell中断)或直到 --max-features 已被阅读。因此,它可以用来监控一个话题。

此命令不同于 listen 命令(下图),因为它允许以各种格式进行过滤和输出。它还将忽略 dropclear 功能删除生成的消息。

除了常规选项外,卡夫卡还允许控制消费者的行为:

论据

描述

--from-beginning

从卡夫卡主题的开头开始阅读,而不是从结尾开始

--num-consumers

过去阅读该主题的消费者数量

这个 --num-consumers 参数可用于提高读取速度。但是,每个主题分区最多只能有一个使用者。

这个 --from-beginning 论点可以用来从头开始阅读卡夫卡的主题。否则,将只读取在调用此命令后发送的新消息。

17.6.2.3. ingest

看见 ingest 有关此命令的概述,请参阅。

除了常规选项外,Kafka还允许指定Kafka主题的分区数量和复制因子。此外,还可以插入人工延迟来模拟实时数据流。

论据

描述

--partitions

用于Kafka主题的分区数量

--replication

卡夫卡话题的复制因素

--serialization

要使用的序列化格式

--delay

消息之间插入的延迟

这个 --delay 参数应该用通俗易懂的语言指定为持续时间。例如, 100 millis1 second 。接收将在创建每个 SimpleFeature 用于指定的延迟。这可用于模拟实时数据流。

17.6.2.4. listen

此命令的行为类似于 export 命令,但它不提供过滤或输出格式的选项。它将显示关于卡夫卡主题的每条消息,包括 dropclear 从功能删除生成的消息。

该命令在被取消之前不会终止(通过Shell中断)。

论据

描述

-f, --feature-name *

架构的名称

--from-beginning

从卡夫卡主题的开头开始阅读,而不是从结尾开始

--num-consumers

过去阅读该主题的消费者数量

这个 --num-consumers 参数可用于提高读取速度。但是,每个主题分区最多只能有一个使用者。

这个 --from-beginning 论点可以用来从头开始阅读卡夫卡的主题。否则,将只读取在调用此命令后发送的新消息。

17.6.2.5. migrate-zookeeper-metadata

该命令将把模式元数据从ZooKeeper中迁移出来。有关其他信息,请参阅 无动物园饲养员使用

论据

描述

--delete

迁移后将元数据从ZooKeeper中删除