Rise of the Kafka Heroes! Join the Data Streaming Revolution | Read the Comic
Durch die Skalierung von Kafka wird auch dessen Verwaltung riskanter und kostspieliger. Daher hat Confluent Kafka neu entwickelt. Der Cloud-Service bietet 10-mal mehr Elastizität, Speicherplatz und Ausfallsicherheit.
Daten-Streaming bietet eine genaue Echtzeitansicht des Unternehmens. In diesem Guide stellen wir das Daten-Streaming-Ökosystem vor, alle Vorteile und wie Echtzeit-Erkenntnisse und -Analytics beschleunigt werden können.
In unserem E-Book „Neue Daten-Pipenlines für eine echte Business-Transformation: 3 Wege für den Einstieg“ mehr über die Herausforderungen, die mit alten Datenpipelines verbunden sind erfahren und wie Streaming-Pipelines Datenfluss und -zugang in Unternehmen verbessern.
Eine Cloud-native Daten-Streaming-Plattform aufbauen bedeutet nicht nur, Kafka in der Cloud zu hosten. Wir dokumentierten unser Design von Kora, der Apache Kafka-Engine für die Cloud, und wurden auf der renommierten Tech-Konferenz Very Large Data Bases (VLDB) mit „Best Industry Paper“ ausgezeichnet.
Warum ein Event-getriebenes, auf Apache Kafka entwickeltes Datennetz die beste Möglichkeit bietet, auf wichtige Geschäftsdaten zuzugreifen und die betriebliche und analytische Ebene in Einklang zu bringen.
Diese Forrester-Studie zum Herunterladen enthält Informationen über die wirtschaftlichen Vorteile von Confluent Cloud.
Mehr Informationen über die Herausforderungen herkömmlicher Messaging-Middleware: Innovationshemmung, geringe Fehlertoleranz bei der Skalierung, ephemere Persistenz als Einschränkung der Datennutzung für Analysen sowie steigende technische Schulden und Betriebskosten.
Das E-Book „Kafka in der Cloud: 10x effizienter mit Confluent“ bietet umfassende Einblicke in die Art und Weise, wie Confluent mithilfe der Cloud eine Daten-Streaming-Plattform entwickelt hat, die zehnmal besser als Apache Kafka ist – so entfallen alle Probleme mit dem Management von Kafka.
Mit Kafka in die Cloud? Mehr über die drei Best Practices für den Aufbau Cloud-nativer Systeme, die Daten-Streaming skalierbar, zuverlässig und kostengünstig machen.
Das Leben ist Echtzeit, warum also nicht auch die Daten? Wenn Unternehmen die Vorteile von Echtzeit-Datenströmen voll ausschöpfen, sind die Möglichkeiten nahezu unbegrenzt. Erfahren Sie, wie unsere Daten-Streaming-Plattform Unternehmen verändert.
In diesem Whitepaper führen wir Sie durch alle Schritte, wie Sie MQTT-Daten aus einem HiveMQ-Broker-Cluster in einen Apache Kafka-Cluster auf der Confluent Cloud integrieren.
In unserem E-Book „Erfolgreiche Betrugserkennung im Kontext", gehen wir auf die Komplexität der Betrugserkennung ein und erklären, warum die derzeitigen Erkennungs-Tools oft nicht ausreichen und wie Confluent helfen kann.
Ist es sinnvoll, Open-Source-Technologien wie Apache Kafka® selbst zu verwalten (Build) oder in einen Managed Service zu investieren (Buy)? Wir sehen uns die Faktenlage genauer an!
Unser neuestes E-Book befasst sich mit den Herausforderungen von Legacy-Daten-Pipelines und zeigt, wie Streaming-Pipelines und unsere Technologiepartner den Datenfluss optimieren und einen unternehmensweiten Daten-Zugriff erleichtern.
Moderne Betrugstechnologie erfordert einen modernen Ansatz zur Betrugserkennung, und das erfordert Echtzeitdaten. Branchenführende Unternehmen wie Capital One, RBC und andere erkennen Betrug mithilfe von Daten-Streaming, um Kunden in Echtzeit zu schützen.
Dieses Whitepaper beschäftigt sich mit den tatsächlichen Kosten von Open Source Kafka und MSK und demonstriert den vollen Wert, der mit Confluent erzielt werden kann.
Wer mehr über Event-Streaming erfahren und wissen möchten, wie damit höhere Kundenbindung, KI-Automatisierung, Echtzeitanalytik und vieles mehr möglich werden, kann dieses kostenlose E-Book von Confluent herunterladen.
Wer mehr darüber erfahren möchte, wie Confluent Cloud die Entwicklung von Anwendungen beschleunigt, Mitarbeiter entlastet und das Budget schont, kann sich das kostenlose Tech-E-Book "Kafka-Nutzung im Jahr 2022" herunterladen.
So vereinfacht und beschleunigt Confluent die Migration zu Amazon Aurora
Confluent ist 10x effizienter als Apache Kafka, so dass Echtzeitanwendungen in der Google Cloud kostengünstig erstellt werden können
Confluent ist 10x effizienter als Apache Kafka, so dass Echtzeitanwendungen mit Microsoft Azure kostengünstig erstellt werden können.
Die Studienergebnisse zeigen, dass es noch immer sehr viele monolithische Bestandssysteme im operativen Betrieb in den Unternehmen gibt
In diesem Whitepaper werden einige der Finanzunternehmen, die sich auf Confluent verlassen, sowie die bahnbrechenden geschäftlichen Ergebnisse, welche mithilfe von Daten-Streaming-Technologie erzielt werden können, beschrieben.
Neue Wege für den Unternehmenserfolg mithilfe einer Data-in-Motion-Strategie – mit einem Download des neuen E-Books „Nutzung von Data in Motion in einer hybriden und Multi-Cloud-Architektur“.
Überblick über das zentrale Produktportfolio von Confluent
In diesem IDC-Tech-Überblick präsentieren wir unsere Forschungsergebnisse zu Streaming-Daten-Plattformen und erklären, wie diese Plattformen innovative Entwicklungen, eine höhere betriebliche Effizienz, einen gesteigerten ROI und weitere positive geschäftliche Ergebnisse unterstützen.
Laut dieser Studie nehmen 44 % der Unternehmen einen höheren Aufwand für Wartung und Betrieb in Kauf, weil mindestens die Hälfte der Bestandssysteme “schon lange” im produktiven Einsatz sind.
In diesem Whitepaper zeigen wir, wie Innovation von IT-Infrastrukturen in Unternehmen vorangetrieben und Daten aus Legacy-Systemen in Echtzeit verfügbar gemacht werden können.
In diesem IDC-Tech-Überblick präsentieren wir unsere Forschungsergebnisse zu Streaming-Daten-Plattformen und erklären, wie diese Plattformen innovative Entwicklungen, eine höhere betriebliche Effizienz, einen gesteigerten ROI und weitere positive geschäftliche Ergebnisse unterstützen.
Das US-amerikanische Verteidigungsministerium setzt verstärkt auf Programme im Rahmen von Joint All-Domain Command and Control. (JADC2). Folglich arbeitet die Air Force an der Bereitstellung von Technologiezentren, die sowohl das Teilen von Daten als auch das Teilen von Data in Motion ermöglichen.
Dieses umfassende E-Book enthält eine detaillierte Einführung in Apache Kafka® , die verteilte Publish-Subscribe-Queue zur Verarbeitung von Echtzeit-Datenfeeds.
Mehr Informationen über die Implementierung einer Echtzeit-Datenplattform, die alle Teile eines globalen Unternehmens verbindet, bietet dieses kostenlose Whitepaper von Confluent über Hybrid- und Multi-Cloud-Referenzarchitektur.
Das Potenzial von Echtzeit-Kundendaten nutzen
Unternehmen benötigen Zugang zu “Data in Motion”. Um die Erwartungen moderner Kunden zu erfüllen, muss ihnen ein ganzheitliches Echtzeit-Erlebnis geboten werden.
Dieses ausführliche Whitepaper nennt die häufigsten Anwendungsfälle von Echtzeit-Daten-Streaming mit Cloud-nativem Apache Kafka® auf einer AWS-Infrastruktur und zeigt am konkreten Beispiel, wie eine verwaltete Echtzeit-Architektur im Unternehmen eingeführt werden kann
Erfahren Sie mehr über drei entscheidende Geschäftsanwendungsfälle für Event-Streaming im Einzelhandel: Umsatzsteigerung durch Echtzeit-Personalisierung, Schaffung einheitlicher Omnichannel-Erlebnisse für Kunden und Steigerung der operativen Agilität mit Echtzeit-Bestandsdaten.
Erfahren Sie mehr über drei entscheidende Anwendungsfälle im Versicherungswesen für Event-Streaming: Reduzierung der operativen Kosten durch automatisierte digitale Erlebnisse, Personalisierung des Kundenerlebnisses und Risikominderung durch Echtzeit-Betrugs- und -Sicherheitsanalyse.
Bei Interesse an einem vollständig verwalteten Cloud-Service, der in noch höherem Umfang Kosten senkt und die Wertschöpfung beschleunigt, empfehlen wir das folgende Whitepaper: Confluent Cloud kosteneffizient einsetzen
In diesem E-Book erklären wir, wie Finanzinstitute Google Cloud im Zusammenspiel mit Event-Streaming von Confluent nutzen können, um ein digitales Fundament für die Transformation des Kundenerlebnisses, die Effizienzsteigerung und Wachstumsbeschleunigung aufbauen können.
Dieses COMPUTERWOCHE-Whitepaper stellt Streaming-Plattformen vor, zeigt deren Business-Nutzen und präsentiert eine Reihe von Anwendungen.
In diesem E-Book erklären wir, wie Finanzinstitute Google Cloud im Zusammenspiel mit Event-Streaming von Confluent nutzen können, um ein digitales Fundament für die Transformation des Kundenerlebnisses, die Effizienzsteigerung und Wachstumsbeschleunigung aufbauen können.
In diesem E-Book erklären wir, wie Versicherer Google Cloud mit Event-Streaming von Confluent nutzen können, um ein modernes Versicherungserlebnis zu bieten und gleichzeitig die Kontrolle über Kosten und Risiko zu behalten.
In diesem E-Book erklären wir, wie Einzelhändler Google Cloud mit der umfassenden Event-StreamingPlattform von Confluent für Apache Kafka.
Wie Now-Marketing die Zukunft des Marketings und Vertriebs verändert
Bürger erwarten reaktionsschnellen, personalisierten und effizienten Service von Behörden - in Echtzeit. Dieser 2-Seiter erklärt, wie Echtzeit-Bürger-Service aussehen kann.
IDC Perspective wirft einen Blick auf die Highlights von Confluent Platform 6.0 und erklärt die Bedeutung von Event-Streaming für das moderne Unternehmen.
In diesem E-Book werden die fünf häufigsten Use Cases für Event-Streaming vorgestellt, inklusive Kundenbeispielen aus der Praxis und Best Practices für die unternehmensinterne Transformation.
Dieses E-Book stellt die typische Adoptionskurve von Event-Streaming im Unternehmen vor und zeigt Beispiele, wie Schritt für Schritt Veränderungen in der Organisation umgesetzt werden könne
In diesem E-Book erfahren Sie, wie viel strategisches Potenzial für Unternehmen jeder Größe in einer Event-Streaming-Plattform steckt
Damit agile Prozesse sowie Echtzeit-Entscheidungen möglich werden, ist eine Event-Streaming-Architektur zwingend erforderlich.
Apache Kafka® ist eine Streaming-Plattform, die entscheidende Geschäftsereignisse aus jeglichen Bereichen eines Unternehmens zu einer Art zentralem Nervensystem vereint, das sämtliche relevanten Aktivitäten in Form von Event-Datenströmen zusammenfasst.
Wer in einem Unternehmen tätig ist, das von Automatisierung, IoT und Echtzeitdaten profitieren kann oder es bereits tut, sollte jetzt weiterlesen. Das Herzstück der Industrie 4.0 sind die Streaming-Daten.
Hopp Hopp, ab in die Cloud - Wie Daten-Streaming die Migration in die Cloud schneller und effizienter macht
In dieser 30‑minütigen Sitzung erklären leitende Kafka-Experten, wie eigene Kafka Cluster einfach erstellt und sofort einsatzbereite Komponenten wie ksqlDB zur schnellen Entwicklung von Event-Streaming-Anwendungen verwendet werden können.
Microservices haben sich zu einem dominanten architektonischen Paradigma für die Entwicklung von Systemen im Unternehmen entwickelt – sie bringen jedoch gewisse Nachteile mit sich.
Eine Daten-Streaming-Plattform muss wirklich elastisch sein, um sich der Kundennachfrage anzupassen. Sie sollte bei zunehmendem Datenaufkommen im Unternehmen mitwachsen und bei sinkender Nachfrage wieder reduziert werden.
In diesem Webinar zeigen wir, wie Confluent Cloud diese operativen Herausforderungen erleichtert, mit unbegrenztem Kafka-Speicher, der 10-mal besser skalierbar und leistungsfähiger ist.
Angereicherte Echtzeit-Daten in der Cloud-Datenbank nutzen
Hier haben Interessierte die Möglichkeit, noch einmal einen Blick auf die Präsentationen der „Data in Motion“-Tour 2022 – EMEA zu werfen.
Heterogene Assets, lückenhafte Umgebungen und große Datenmengen sind Herausforderungen voll vernetzter Industrieumgebungen. Erfahren Sie, wie Sie diese Herausforderungen meistern und IT-Daten und Erkenntnisse durch den Einsatz von Cloud-Technologien verfügbar machen können.
Dieser Use Case soll aufzeigen, wie einfach es ist, reale und performante Umgebungen in der Confluent Cloud in kurzer Zeit zur Verfügung zu stellen und Analysen sofort zu starten
Der Aufbau und die Skalierung event-getriebener Anwendungen ist eine echte Herausforderung, da sich die Quellen für Event-Daten oft über mehrere Rechenzentren, Clouds, Microservices und stark verteilte Umgebungen erstrecken.
In diesem Webinar wird vorgestellt, wie die DATEV den Weg hin zum cloud-nativen Datacenter und einer modernen Microservices-Architektur unter Einsatz von Apache Kafka und Confluent.
Anfang März 2021 wurde bekannt, dass die Bundesregierung zur Bekämpfung der Corona-Pandemie, neben der Impfstrategie, verstärkt auf die Bürgertestung durch zertifizierte Corona-Schnelltest setzen wird. In diesem Zuge ist in Rekordzeit das Projekt dm Schnelltestzentren entstanden.
Ihr habt Apache Kafka on-prem laufen und möchtet es jetzt nutzen, um Daten nach AWS, GCP oder Azure zu replizieren? Oder ihr möchtet eure Confluent Installation in die Cloud heben? Ein Cloud-natives Rechenzentrum ist euer Ziel? Dann zeigen wir euch in diesem Webinar gerne, wie dies funktioniert.
Anhand unseres Beispiels aus der Praxis stellen Microsoft und Confluent vor, welche Vorteile innovatives Echtzeit Daten-Streaming in der Cloud eurem Unternehmen bieten kann.
Hier haben Interessierte die Möglichkeit, noch einmal einen Blick auf die Präsentationen der „Data in Motion“-Tour 2021 – EMEA zu werfen.
Confluent has rearchitected Apache Kafka for AWS to help get your data securely to the cloud in real time. Learn what helps enterprises accelerate migrations and application development to power new real-time experiences.
Selbstfahrende Autos sind schon lange nicht mehr nur Fiktion, sondern werden aktiv im Rahmen von Smart-City-Projekten getestet. In unserer Live-Demo zeigen wir, wie Daten in Echtzeit korreliert werden um kontextsensitive Entscheidungen treffen zu können.
Die Digital Banking Suite ist die neue eBanking Lösung von mimacom, welche die digitalen Touchpoints von Banken auf ein neues Level bringt. Diese vereint innovative Funktionen mit bewährten Banking Standards. Confluent ist mit "Data in Motion" ein essenzieller Bestandteil dieser Lösung.
Eine Kafka-basierte Event-Streaming-Architektur, welche als intelligentes Bindegewebe konzipiert ist, ermöglicht, dass Echtzeitdaten aus verschiedenen Quellen kontinuierlich durch das Unternehmen fließen und das Data Mesh-Paradigma unterstützten.
TDWI Webinar "Data-Warehouse-Modernisierung zur Continuous Intelligence; Innovativer Ansatz bei Kunden in der Medienbranche" mit Confluent & Data Reply
In einer interaktiven Panel-Diskussionen wollen wir gemeinsam mit Daten-Verantwortlichen von Allianz Technology, HDI und der Gothaer Versicherung diskutieren, wie der Weg hin zu einem zentralen Nervensystem für Daten aussehen kann.
Gemeinsam mit unserem Partner MongoDB und der idealo werden wir das Thema Legacy Modernisierung durchleuchten.
Die Cloud – das wissen wir alle – bietet für viele Herausforderungen die perfekte Lösung. Sehr wahrscheinlich sind bereits fully-managed Cloud-Services wie S3, DynamoDB oder Redshift im Einsatz. Nun ist es an der Zeit, “fully-managed” auch für Kafka umzusetzen – mit Confluent Cloud auf AWS.
Die Anpassung an die Echtzeit-Anforderungen unternehmenskritischen Anwendungen ist nur mit einer Architektur möglich, die sich elastisch skalieren lässt.
Die sieben häufigsten Use Cases, die OEMs und Zulieferer in Deutschland und der ganzen Welt bereits umsetzen, indem sie auf ihre Daten als Echtzeit-Streams zugreifen, Legacy-Daten erschließen und Datensilos integrieren. ... und wenn die Daten nicht gelöscht wurden, dann streamen sie noch heute!
In 10-15 Minuten zeigen euch unsere Kafka-Experten, wie schnell ihr eure Daten in Bewegung bringen könnt: Von der Erstellung der on-demand Cluster über die Daten-Erstellung via Echtzeit-Stream-Processing bis hin zum Account-Management gehen wir durch die wichtigsten Schritte
In diesem Webinar zeigen wir, wie Audi mithilfe von Kafka und Confluent eine Fast Data IoT-Plattform umgesetzt hat, die den Bereich "Connected Car“ revolutioniert.
Daten werden auch im Mittelstand immer häufiger in Bewegung verarbeitet. BAADER zeigt in diesem Vortrag, wie dies erfolgreich umgesetzt wurde.
Anwendungsfälle für Echtzeit-Event-Streaming im IoT- und IIoT-Bereich mit Live-Demo eines Integrationsbeispiels von Apache Kafka & Confluent mit IBM-Lösungen
Anwendungsfälle für Echtzeit-Event-Streaming im Bankensektor mit Live-Demo eines Integrationsbeispiels von Apache Kafka & Confluent mit IBM-Lösungen
Anwendungsfälle für Echtzeit-Event-Streaming im öffentlichen Sektor mit Live-Demo eines Integrationsbeispiels von Apache Kafka & Confluent mit IBM-Lösungen.
Im Webinar wird eine bewährte Softwarearchitektur vorgestellt, die ihre Bewährungsprobe mit einer konkreten Praxisumsetzung in einer Landeshauptstadt bestanden hat.
Banken und Finanzdienstleister stehen vor Architekturherausforderungen, die über Jahrzehnte gewachsen sind. Mit “Data in Motion” können Silos aufgebrochen und innovative Services ermöglicht werden.
Kein Bereich ist so auf große Datenmengen ausgelegt wie das Internet of Things und daher ist der Siegeszug der “Data in Motion” in diesem Umfeld nicht verwunderlich. Anhand einiger Use Cases zeigt Marcus Urbatschek, wie skalierbare Umgebungen entstehen und flexible Architekturen umgesetzt werden.
Die Handelsbranche ist im Umbruch, denn die Erwartungshaltung der Kunden heißt: Echtzeit! Hierfür setzen sowohl stationärer Handel als auch eCommerce auf “Data in Motion” mit Confluent und Apache Kafka.
Kai Waehner gibt einen Überblick über die Trends für “Data in Motion” und daraus entstehenden Use Cases für Unternehmen aller Branchen. Dieses Webinar sollte man nicht verpassen!
Dieses Webinar in Kooperation mit HiveMQ und Computerwoche zeigt unter anderem, wie Unternehmen Fabriken, Produkte & Services in Echtzeit miteinander vernetzen und warum Edge übergreifend gedacht werden muss.
Basierend auf dem Überblicks-Webinar zeigen wir einen detaillierten Einblick in drei neue Funktionalitäten von Confluent Platform 6.0
Im gemeinsamen Online Talk von Confluent und Attunity zeigen wir, wie die Bereitstellung von Daten beschleunigt werden kann, um Echtzeitanalysen mit Live-Daten aus vielen Quellen zu ermöglichen.
Confluent Platform 5.3 ist GA und wir freuen uns über viele neue Funktionen. Wir sprechen unter anderem über den Confluent Operator (also Kafka auf Kubernetes), Ansible Playbooks und die neue UI des Confluent Control Centers.
Eine weitere neue sicherheitsrelevante Funktion in Confluent Platform 5.4 sind Structured Audit Logs. Jetzt ist natürlich alles in Kafka ein Log, aber Kafka protokolliert nicht, was Kafka mit Kafka macht - nur das, was in einen Topics geschrieben wird.
Erfahren Sie in diesem Online Talk von unserem Kafka-Experten wie leicht man Apache Kafka und Confluent Platform auf Kubernetes.
In unserem digitalen Zeitalter von Big Data und IoT, in dem täglich mehrere Trillionen Byte an Daten produziert werden, ist es für Unternehmen von ganz erheblicher Bedeutung, die richtigen Daten, zur richtigen Zeit bereit zu haben – egal in welcher Applikation und unabhängig davon, ob in der Cloud oder on-premise.
Im zweiten Teil der Deep Dive Sessions besprechen wir den Aufbau eines logischen Clusters über mehrere Regionen, der alle Ihre HA SLAs (Bronce, Silver, Gold) abdeckt. Außerdem behandeln wir das große Potenzial zum Hochladen aller Ihrer Anwendungsfälle in einem Multi-Tenant-Cluster Ihrer Organisation.
Thomas Trepper, Training Delivery Manager EMEA, zeigt in diesem kurzen Webinar die Trainings-Optionen für Kafka-Entwickler und -Operator sowie die Möglichkeiten zur Zertifizierung. Alle Online-Trainings und Details findet ihr hier: https://www.confluent.io/training/
Confluent Technology Evangelist Kai Waehner zeigt in diesem Online Talk die wichtigsten Änderungen in den Bereichen Sicherheit, Disaster Recovery und Skalierbarkeit.
Dank Apache Kafka® können Unternehmen Echtzeitdaten optimal nutzen. Im Webinar erfahrt ihr mehr über Daten-Streaming und wie es Entwicklungskosten reduzieren kann.
In diesem Online Talk zeigen wir gibt eine kurze Einführung in Apache Kafka und die Verwendung als Daten-Streaming-Plattform.
In diesem Online Talk werden die wichtigsten Funktionalitäten der neuesten Version Confluent Platform 6.0 behandelt, darunter viele Bestandteile des Project Metamorphosis.
Mit Confluent Platform 5.5 machen wir es Entwicklern noch einfacher, Zugang zu Kafka zu finden und mit der Erstellung von Event-Streaming-Anwendungen zu beginnen, unabhängig von der bevorzugten Programmiersprache oder den zugrunde liegenden Datenformaten, die in ihren Anwendungen verwendet werden.
Die schnell wachsende Welt der Datenstromverarbeitung kann entmutigend sein, da neue Konzepte wie verschiedene Arten von Zeitsemantiken, Aggregationen, Change Logs und Frameworks zu beherrschen sind. KSQL ist eine Open-Source, Apache 2.0 lizenzierte Streaming-SQL-Engine basierend auf Apache Kafka, die all dies vereinfacht und die Stream-Verarbeitung für jeden verfügbar macht, ohne dass Source Code geschrieben werden muss.
In Live-Demos erklären wir, welchen Mehrwert Audit Logs in Confluent Platform 6.0
Die Bereitstellung und der Betrieb eines verteilten und skalierbaren Datensystems kann eine Herausforderung darstellen. Im ersten Teil der Deep Dive Sessions werfen wir einen detaillierten Blick auf die Centralized ACLs und Role Based Access Control, inklusive einer Live-Demo im Confluent Control Center (C3).
In diesem Webinar stellen wir die neuen Security-Komponenten (Role Based Access Control -RBAC und Secret Protection) von Confluent Platform live vor und gehen auch auf die Best Practices in diesem Umfeld ein.
Einzelhändler können ab sofort die Kaufabsicht der Kunden vorhersehen, als Reaktion auf einen Verkauf sofort den Bestand nachbestellen und neue Geschäfte in einem Bruchteil der Zeit integrieren. Und das ist nur die Spitze des Eisbergs...in diesem Vortrag wird Carsten einige Ideen rund um die Apache Kafka Streaming-Plattform im Einzelhandel vorstellen und einige davon auch live zeigen.
Basierend auf dem Überblicks-Webinar zeigen wir einen detaillierten Einblick in weitere neue Funktionalitäten von Confluent Platform 6.0.