Level Up Your Kafka Skills in Just 5 Days | Join Season of Streaming
Daten müssen über das komplette Unternehmen hinweg kontinuierlich gesammelt, verarbeitet und in Applikationen reaktiv genutzt werden - manche in Echtzeit, manche im Batch-Modus. Mit anderen Worten: Wenn ein Unternehmen zunehmend software-definiert wird, braucht es eine Datenplattform, die primär für „Data in Motion” ausgelegt ist und weniger für „Data at Rest”.
Apache Kafka ist heute Mainstream wenn es um Daten in Bewegung geht! Die Kafka API wurde zum De-facto-Standard für event-getriebene Architekturen und Event-Streaming. Leider sind die Kosten des eigenen Betriebs sehr oft zu kostspielig, wenn man Faktoren wie Skalierung addiert, Verwaltung, Support, Security, Erstellung von Connectors...und alles andere, was dazugehört. Ressourcen in Unternehmen sind knapp: Dies betrifft sowohl die besten Teammitglieder als auch das Budget.
Die Cloud – das wissen wir alle – bietet für solche Herausforderungen die perfekte Lösung.
Sehr wahrscheinlich sind bereits fully-managed Cloud-Services wie S3, DynamoDB oder Redshift im Einsatz. Nun ist es an der Zeit, “fully-managed” auch für Kafka umzusetzen – mit Confluent Cloud auf AWS.
Aufbau eines zentralen Integration Layers, dem es egal ist, woher und wie viele Daten kommen
Umsetzung von skalierbarer Daten-Stream-Verarbeitung, um Erkenntnisse in Echtzeit zu gewinnen
Nutzung von vollständig verwalteten Connectors (wie S3, Redshift, Kinesis, MongoDB Atlas & mehr) um schnell auf Daten zugreifen zu können
Confluent Cloud in action? Wir zeigen, wie ao.com das umgesetzt hat!
Sprecher: Kai Waehner, Field CTO & Global Technology Advisor, Confluent Jürgen Wirtgen, GTM Lead Analytics & Big Data - DACH, Amazon Web Services (AWS)