[Webinar] How to Implement Data Contracts: A Shift Left to First-Class Data Products | Register Now

Demo

On-Demand-Demo: Kafka-Streaming in 10 Minuten auf Confluent Cloud

Jetzt für den Workshop „Getting Started with Stream Processing and Confluent Cloud“ am 6. Oktober 2021 um 11:00 UHR (PDT)/14:00 UHR (EDT) registrieren.

HINWEIS: Dies ist eine kurze Demo zur Vorstellung von Confluent Cloud. Umfassendere Einblicke geben wir in unserem virtuellen Hands-on-Workshop „Getting Started with Stream Processing and Confluent Cloud“ – Anmeldung im Formular rechts.

In dieser 30-minütigen Session erklären führende Kafka-Experten, wie eigene Kafka-Cluster mühelos erstellt und sofort einsatzbereite Komponenten wie ksqlDB zur schnellen Entwicklung von Event-Streaming-Anwendungen genutzt werden können. Erfahren, wie:

Kafka-Cluster mit nur wenigen Klicks schnell in Confluent Cloud bereitgestellt und Event-Streaming-Workloads elastisch skaliert werden können

  • Die Confluent Cloud CLI und Metrics API installiert und konfiguriert werden
  • Data Flow für visuelle Workflow-Darstellungen und Schema Registry genutzt werden, um fortlaufende Datenkompatibilität sicherzustellen
  • Kritische Datenquellen und -Sinks mühelos mit Kafka verbunden werden, um eine umfassende Daten-Pipeline für Echtzeit-Apps zu entwickeln
  • Streaming-Daten mithilfe einer einfachen interaktiven SQL-Schnittstelle mit ksqlDB verarbeitet werden
  • Scale-to-Zero-Pricing und nutzungsbasierte Abrechnung die Account- und Kostenverwaltung vereinfachen

Mehr über den Einstieg in die Stream-Verarbeitung und in Confluent Cloud

Im Workshop zeigen wir die:

  • Erstellung von Clustern zur Stream-ETL-Datenverarbeitung
  • Verbindung zu Quell- und Zielsystemen mithilfe von Connectors
  • Erstellung einer ersten Streaming-App auf ksqlDB, zum Aufbau einer Daten-Pipeline

Dieser virtuelle Workshop ist ideal, um mit Confluent Cloud loszulegen und gemeinsam mit unseren erfahrenen Engineers die Grundlage für individuelle Anwendungsfälle zu schaffen. Vorherige Registrierung ist erforderlich, da die Anzahl der Plätze begrenzt ist.

Related Links

How Confluent Completes Apache Kafka eBook

Leverage a cloud-native service 10x better than Apache Kafka

Confluent Developer Center

Spend less on Kafka with Confluent, come see how