OSS Kafka couldn’t save them. See how data streaming came to the rescue! | Watch now

Online Talk

So wird ein Streaming-Data Mesh mit Confluent aufgebaut (1)

Watch The Data Streaming Use Case Show On-Demand!

On-demand ansehen

Bereit, Datenchaos in ein Data Mesh zu verwandeln? Es wurde viel über die Grundlagen von Data Mesh diskutiert, aber wie wird es praktisch umgesetzt? Und wie können Streaming-Daten-Pipelines in der gesamten Architektur genutzt werden?

Wir zeigen die Implementierung der vier zentralen Data-Mesh-Prinzipien mit Confluent und wie die benötigten organisatorischen und technischen Änderungen gelingen, um die Einführung von Daten-Features zu beschleunigen und schneller Mehrwerte zu erzielen.

Das Webinar umfasst:

  • Wie Confluent-Connectors, Stream-Verarbeitung und Stream Governance zur Implementierung eines erfolgreichen Data Mesh genutzt werden.

– Wie Echtzeit-Rohdaten in hochwertige Datenprodukte umgewandelt und im gesamten Unternehmen einfach auffindbar und zugänglich gemacht werden. – Wie organisatorische Best Practices und ein Daten-Streaming Center of Excellence eingeführt werden. – Wie eine erfolgreiche Strategie erstellt wird, um eine breite Nutzung des Streaming-Data Mesh zu fördern.

Kai ist Global Field CTO bei Confluent. Zu seinen Fachgebieten gehören Big Data Analytics, maschinelles Lernen, Messaging, Integration, Microservices, das Internet der Dinge, Stream-Verarbeitung und Blockchain. Er ist außerdem Verfasser von Fachartikeln, hält Vorträge auf internationalen Konferenzen und teilt seine Erfahrungen mit neuen Technologien in seinem Blog (www.kai-waehner.de/blog).