Přeskočit obsah

Sběr událostí z Apache Kafka

Tato volba je k dispozici od verze v22.32

TeskaLabs LogMan.io Collector umí sbírat události z Apache Kafka, konkrétně z jeho témat. Události uložené v Kafce mohou obsahovat jakákoli data kódovaná v bajtech, například protokoly o různých akcích uživatelů, správců, systému, zařízení a zásad.

Předpoklady

Pro vytvoření konzumenta Kafka je třeba znát boostrap_servers, tedy umístění uzlů Kafka, a také topic, odkud se mají data číst.

Vstupní nastavení kolektoru LogMan.io

LogMan.io Collector poskytuje vstupní sekci input:Kafka:, kterou je třeba zadat v konfiguraci YAML. Konfigurace vypadá následovně:

input:Kafka:KafkaInput:
  bootstrap_servers: <BOOTSTRAP_SERVERS>
  topic: <TOPIC>
  group_id: <GROUP_ID>
  ...

Vstup vytvoří konzumenta Kafky pro konkrétní .topic(y).

Možnosti konfigurace související s navázáním spojení:

bootstrap_servers: # uzly Kafka, ze kterých se mají zprávy číst (například `kafka1:9092,kafka2:9092,kafka3:9092`)

Konfigurační možnosti související s nastavením Kafka Consumer:

topic:  # Název témat, ze kterých se mají zprávy číst (například `lmio-events` nebo `^lmio.*`)
group_id:  # Název skupiny spotřebitelů (například: `collector_kafka_consumer`)
refresh_topics:  # (nepovinné) Pokud se očekává, že během konzumace bude vytvořeno více témat odpovídajících názvu tématu, tato volba určuje v sekundách, jak často se mají obnovovat odběry témat (například: `300`).

Volby bootstrap_servers, topic a group_id jsou vždy povinné.

topic může být jméno, seznam jmen oddělených mezerami nebo jednoduchý regex (pro porovnání všech dostupných témat použijte ^.*)

Další možnosti konfigurace naleznete v https://github.com/edenhill/librdkafka/blob/master/CONFIGURATION.md.