Eine Echtzeit-Brücke in die Cloud bauen – mit Confluent Platform 7.0 und Cluster Linking | Blog lesen

Online Talk

Online Talk: Wir bringen Kafka ins Jahr 2021 - Confluent Cloud auf AWS

Daten müssen über das komplette Unternehmen hinweg kontinuierlich gesammelt, verarbeitet und in Applikationen reaktiv genutzt werden - manche in Echtzeit, manche im Batch-Modus. Mit anderen Worten: Wenn ein Unternehmen zunehmend software-definiert wird, braucht es eine Datenplattform, die primär für „Data in Motion” ausgelegt ist und weniger für „Data at Rest”.

Apache Kafka ist heute Mainstream wenn es um Daten in Bewegung geht! Die Kafka API wurde zum De-facto-Standard für event-getriebene Architekturen und Event-Streaming. Leider sind die Kosten des eigenen Betriebs sehr oft zu kostspielig, wenn man Faktoren wie Skalierung addiert, Verwaltung, Support, Security, Erstellung von Connectors...und alles andere, was dazugehört. Ressourcen in Unternehmen sind knapp: Dies betrifft sowohl die besten Teammitglieder als auch das Budget.

Die Cloud – das wissen wir alle – bietet für solche Herausforderungen die perfekte Lösung.

Sehr wahrscheinlich sind bereits fully-managed Cloud-Services wie S3, DynamoDB oder Redshift im Einsatz. Nun ist es an der Zeit, “fully-managed” auch für Kafka umzusetzen – mit Confluent Cloud auf AWS.

  • Aufbau eines zentralen Integration Layers, dem es egal ist, woher und wie viele Daten kommen
  • Umsetzung von skalierbarer Daten-Stream-Verarbeitung, um Erkenntnisse in Echtzeit zu gewinnen
  • Nutzung von vollständig verwalteten Connectors (wie S3, Redshift, Kinesis, MongoDB Atlas & mehr) um schnell auf Daten zugreifen zu können
  • Confluent Cloud in action? Wir zeigen, wie ao.com das umgesetzt hat!

Sprecher: Kai Waehner, Field CTO & Global Technology Advisor, Confluent Jürgen Wirtgen, GTM Lead Analytics & Big Data - DACH, Amazon Web Services (AWS)

Webinar ansehen