Register for Demo | Confluent Terraform Provider, Independent Network Lifecycle Management and more within our Q3’22 launch!
bietet Confluent Unternehmen eine vollständige und sichere Bereitstellung von Kafka und macht es überall dort, wo sich Apps und Daten befinden, verfügbar.
Dieses umfassende E-Book enthält eine detaillierte Einführung in Apache Kafka® , die verteilte Publish-Subscribe-Queue zur Verarbeitung von Echtzeit-Datenfeeds.
Unternehmen benötigen Zugang zu “Data in Motion”. Um die Erwartungen moderner Kunden zu erfüllen, muss ihnen ein ganzheitliches Echtzeit-Erlebnis geboten werden.
Dieses ausführliche Whitepaper nennt die häufigsten Anwendungsfälle von Echtzeit-Daten-Streaming mit Cloud-nativem Apache Kafka® auf einer AWS-Infrastruktur und zeigt am konkreten Beispiel, wie eine verwaltete Echtzeit-Architektur im Unternehmen eingeführt werden kann
Wenn Sie mehr über Event-Streaming erfahren und wissen möchten, wie damit höhere Kundenbindung, KI-Automatisierung, Echtzeitanalytik und vieles mehr möglich werden, laden Sie dieses kostenlose E-Book von Confluent herunter.
Erfahren Sie mehr über drei entscheidende Geschäftsanwendungsfälle für Event-Streaming im Einzelhandel: Umsatzsteigerung durch Echtzeit-Personalisierung, Schaffung einheitlicher Omnichannel-Erlebnisse für Kunden und Steigerung der operativen Agilität mit Echtzeit-Bestandsdaten.
Erfahren Sie mehr über drei entscheidende Anwendungsfälle im Versicherungswesen für Event-Streaming: Reduzierung der operativen Kosten durch automatisierte digitale Erlebnisse, Personalisierung des Kundenerlebnisses und Risikominderung durch Echtzeit-Betrugs- und -Sicherheitsanalyse.
Bei Interesse an einem vollständig verwalteten Cloud-Service, der in noch höherem Umfang Kosten senkt und die Wertschöpfung beschleunigt, empfehlen wir das folgende Whitepaper: Confluent Cloud kosteneffizient einsetzen
Dieses COMPUTERWOCHE-Whitepaper stellt Streaming-Plattformen vor, zeigt deren Business-Nutzen und präsentiert eine Reihe von Anwendungen.
Dieses Whitepaper gibt Antworten auf diese und mehr Fragen für Confluent Cloud, indem es unseren Ansatz für TCO und ROI beschreibt, konkrete Kundenbeispiele aufzeigt und Erkenntnisse aus eigener Erfahrung vermittelt.
In diesem E-Book erklären wir, wie Finanzinstitute Google Cloud im Zusammenspiel mit Event-Streaming von Confluent nutzen können, um ein digitales Fundament für die Transformation des Kundenerlebnisses, die Effizienzsteigerung und Wachstumsbeschleunigung aufbauen können.
In diesem E-Book erklären wir, wie Versicherer Google Cloud mit Event-Streaming von Confluent nutzen können, um ein modernes Versicherungserlebnis zu bieten und gleichzeitig die Kontrolle über Kosten und Risiko zu behalten.
In diesem E-Book erklären wir, wie Einzelhändler Google Cloud mit der umfassenden Event-StreamingPlattform von Confluent für Apache Kafka.
Wer mehr darüber erfahren möchte, wie Confluent Cloud die Entwicklung von Anwendungen beschleunigt, Mitarbeiter entlastet und das Budget schont kann sich das kostenlose Tech-E-Book So läuft Kafka im Jahr 2021
Wie Now-Marketing die Zukunft des Marketings und Vertriebs verändert
Bürger erwarten reaktionsschnellen, personalisierten und effizienten Service von Behörden - in Echtzeit. Dieser 2-Seiter erklärt, wie Echtzeit-Bürger-Service aussehen kann.
IDC Perspective wirft einen Blick auf die Highlights von Confluent Platform 6.0 und erklärt die Bedeutung von Event-Streaming für das moderne Unternehmen.
In diesem E-Book werden die fünf häufigsten Use Cases für Event-Streaming vorgestellt, inklusive Kundenbeispielen aus der Praxis und Best Practices für die unternehmensinterne Transformation.
Dieses E-Book stellt die typische Adoptionskurve von Event-Streaming im Unternehmen vor und zeigt Beispiele, wie Schritt für Schritt Veränderungen in der Organisation umgesetzt werden könne
In diesem E-Book erfahren Sie, wie viel strategisches Potenzial für Unternehmen jeder Größe in einer Event-Streaming-Plattform steckt
Damit agile Prozesse sowie Echtzeit-Entscheidungen möglich werden, ist eine Event-Streaming-Architektur zwingend erforderlich.
Apache Kafka® ist eine Streaming-Plattform, die entscheidende Geschäftsereignisse aus jeglichen Bereichen eines Unternehmens zu einer Art zentralem Nervensystem vereint, das sämtliche relevanten Aktivitäten in Form von Event-Datenströmen zusammenfasst.
Wer in einem Unternehmen tätig ist, das von Automatisierung, IoT und Echtzeitdaten profitieren kann oder es bereits tut, sollte jetzt weiterlesen. Das Herzstück der Industrie 4.0 sind die Streaming-Daten.
Anhand unseres Beispiels aus der Praxis stellen Microsoft und Confluent vor, welche Vorteile innovatives Echtzeit Daten-Streaming in der Cloud eurem Unternehmen bieten kann.
Hopp Hopp, ab in die Cloud - Wie Daten-Streaming die Migration in die Cloud schneller und effizienter macht
Confluent has rearchitected Apache Kafka for AWS to help get your data securely to the cloud in real time. Learn what helps enterprises accelerate migrations and application development to power new real-time experiences.
Selbstfahrende Autos sind schon lange nicht mehr nur Fiktion, sondern werden aktiv im Rahmen von Smart-City-Projekten getestet. In unserer Live-Demo zeigen wir, wie Daten in Echtzeit korreliert werden um kontextsensitive Entscheidungen treffen zu können.
Die Digital Banking Suite ist die neue eBanking Lösung von mimacom, welche die digitalen Touchpoints von Banken auf ein neues Level bringt. Diese vereint innovative Funktionen mit bewährten Banking Standards. Confluent ist mit "Data in Motion" ein essenzieller Bestandteil dieser Lösung.
Eine Kafka-basierte Event-Streaming-Architektur, welche als intelligentes Bindegewebe konzipiert ist, ermöglicht, dass Echtzeitdaten aus verschiedenen Quellen kontinuierlich durch das Unternehmen fließen und das Data Mesh-Paradigma unterstützten.
TDWI Webinar "Data-Warehouse-Modernisierung zur Continuous Intelligence; Innovativer Ansatz bei Kunden in der Medienbranche" mit Confluent & Data Reply
In einer interaktiven Panel-Diskussionen wollen wir gemeinsam mit Daten-Verantwortlichen von Allianz Technology, HDI und der Gothaer Versicherung diskutieren, wie der Weg hin zu einem zentralen Nervensystem für Daten aussehen kann.
Gemeinsam mit unserem Partner MongoDB und der idealo werden wir das Thema Legacy Modernisierung durchleuchten.
Die Cloud – das wissen wir alle – bietet für viele Herausforderungen die perfekte Lösung. Sehr wahrscheinlich sind bereits fully-managed Cloud-Services wie S3, DynamoDB oder Redshift im Einsatz. Nun ist es an der Zeit, “fully-managed” auch für Kafka umzusetzen – mit Confluent Cloud auf AWS.
Die Anpassung an die Echtzeit-Anforderungen unternehmenskritischen Anwendungen ist nur mit einer Architektur möglich, die sich elastisch skalieren lässt.
Die sieben häufigsten Use Cases, die OEMs und Zulieferer in Deutschland und der ganzen Welt bereits umsetzen, indem sie auf ihre Daten als Echtzeit-Streams zugreifen, Legacy-Daten erschließen und Datensilos integrieren. ... und wenn die Daten nicht gelöscht wurden, dann streamen sie noch heute!
In 10-15 Minuten zeigen euch unsere Kafka-Experten, wie schnell ihr eure Daten in Bewegung bringen könnt: Von der Erstellung der on-demand Cluster über die Daten-Erstellung via Echtzeit-Stream-Processing bis hin zum Account-Management gehen wir durch die wichtigsten Schritte
In diesem Webinar zeigen wir, wie Audi mithilfe von Kafka und Confluent eine Fast Data IoT-Plattform umgesetzt hat, die den Bereich "Connected Car“ revolutioniert.
Daten werden auch im Mittelstand immer häufiger in Bewegung verarbeitet. BAADER zeigt in diesem Vortrag, wie dies erfolgreich umgesetzt wurde.
Anwendungsfälle für Echtzeit-Event-Streaming im IoT- und IIoT-Bereich mit Live-Demo eines Integrationsbeispiels von Apache Kafka & Confluent mit IBM-Lösungen
Anwendungsfälle für Echtzeit-Event-Streaming im Bankensektor mit Live-Demo eines Integrationsbeispiels von Apache Kafka & Confluent mit IBM-Lösungen
Anwendungsfälle für Echtzeit-Event-Streaming im öffentlichen Sektor mit Live-Demo eines Integrationsbeispiels von Apache Kafka & Confluent mit IBM-Lösungen.
Der Aufbau und die Skalierung event-getriebener Anwendungen ist eine echte Herausforderung, da sich die Quellen für Event-Daten oft über mehrere Rechenzentren, Clouds, Microservices und stark verteilte Umgebungen erstrecken.
Dieser Use Case soll aufzeigen, wie einfach es ist, reale und performante Umgebungen in der Confluent Cloud in kurzer Zeit zur Verfügung zu stellen und Analysen sofort zu starten
Im Webinar wird eine bewährte Softwarearchitektur vorgestellt, die ihre Bewährungsprobe mit einer konkreten Praxisumsetzung in einer Landeshauptstadt bestanden hat.
Banken und Finanzdienstleister stehen vor Architekturherausforderungen, die über Jahrzehnte gewachsen sind. Mit “Data in Motion” können Silos aufgebrochen und innovative Services ermöglicht werden.
Kein Bereich ist so auf große Datenmengen ausgelegt wie das Internet of Things und daher ist der Siegeszug der “Data in Motion” in diesem Umfeld nicht verwunderlich. Anhand einiger Use Cases zeigt Marcus Urbatschek, wie skalierbare Umgebungen entstehen und flexible Architekturen umgesetzt werden.
Die Handelsbranche ist im Umbruch, denn die Erwartungshaltung der Kunden heißt: Echtzeit! Hierfür setzen sowohl stationärer Handel als auch eCommerce auf “Data in Motion” mit Confluent und Apache Kafka.
Kai Waehner gibt einen Überblick über die Trends für “Data in Motion” und daraus entstehenden Use Cases für Unternehmen aller Branchen. Dieses Webinar sollte man nicht verpassen!
Dieses Webinar in Kooperation mit HiveMQ und Computerwoche zeigt unter anderem, wie Unternehmen Fabriken, Produkte & Services in Echtzeit miteinander vernetzen und warum Edge übergreifend gedacht werden muss.
Basierend auf dem Überblicks-Webinar zeigen wir einen detaillierten Einblick in drei neue Funktionalitäten von Confluent Platform 6.0
Im gemeinsamen Online Talk von Confluent und Attunity zeigen wir, wie die Bereitstellung von Daten beschleunigt werden kann, um Echtzeitanalysen mit Live-Daten aus vielen Quellen zu ermöglichen.
Confluent Platform 5.3 ist GA und wir freuen uns über viele neue Funktionen. Wir sprechen unter anderem über den Confluent Operator (also Kafka auf Kubernetes), Ansible Playbooks und die neue UI des Confluent Control Centers.
Eine weitere neue sicherheitsrelevante Funktion in Confluent Platform 5.4 sind Structured Audit Logs. Jetzt ist natürlich alles in Kafka ein Log, aber Kafka protokolliert nicht, was Kafka mit Kafka macht - nur das, was in einen Topics geschrieben wird.
Erfahren Sie in diesem Online Talk von unserem Kafka-Experten wie leicht man Apache Kafka und Confluent Platform auf Kubernetes.
In unserem digitalen Zeitalter von Big Data und IoT, in dem täglich mehrere Trillionen Byte an Daten produziert werden, ist es für Unternehmen von ganz erheblicher Bedeutung, die richtigen Daten, zur richtigen Zeit bereit zu haben – egal in welcher Applikation und unabhängig davon, ob in der Cloud oder on-premise.
Im zweiten Teil der Deep Dive Sessions besprechen wir den Aufbau eines logischen Clusters über mehrere Regionen, der alle Ihre HA SLAs (Bronce, Silver, Gold) abdeckt. Außerdem behandeln wir das große Potenzial zum Hochladen aller Ihrer Anwendungsfälle in einem Multi-Tenant-Cluster Ihrer Organisation.
Thomas Trepper, Training Delivery Manager EMEA, zeigt in diesem kurzen Webinar die Trainings-Optionen für Kafka-Entwickler und -Operator sowie die Möglichkeiten zur Zertifizierung. Alle Online-Trainings und Details findet ihr hier: https://www.confluent.io/training/
Confluent Technology Evangelist Kai Waehner zeigt in diesem Online Talk die wichtigsten Änderungen in den Bereichen Sicherheit, Disaster Recovery und Skalierbarkeit.
Dank Apache Kafka® können Unternehmen Echtzeitdaten optimal nutzen. Im Webinar erfahrt ihr mehr über Daten-Streaming und wie es Entwicklungskosten reduzieren kann.
In diesem Online Talk zeigen wir gibt eine kurze Einführung in Apache Kafka und die Verwendung als Daten-Streaming-Plattform.
In diesem Online Talk werden die wichtigsten Funktionalitäten der neuesten Version Confluent Platform 6.0 behandelt, darunter viele Bestandteile des Project Metamorphosis.
Mit Confluent Platform 5.5 machen wir es Entwicklern noch einfacher, Zugang zu Kafka zu finden und mit der Erstellung von Event-Streaming-Anwendungen zu beginnen, unabhängig von der bevorzugten Programmiersprache oder den zugrunde liegenden Datenformaten, die in ihren Anwendungen verwendet werden.
Die schnell wachsende Welt der Datenstromverarbeitung kann entmutigend sein, da neue Konzepte wie verschiedene Arten von Zeitsemantiken, Aggregationen, Change Logs und Frameworks zu beherrschen sind. KSQL ist eine Open-Source, Apache 2.0 lizenzierte Streaming-SQL-Engine basierend auf Apache Kafka, die all dies vereinfacht und die Stream-Verarbeitung für jeden verfügbar macht, ohne dass Source Code geschrieben werden muss.
In Live-Demos erklären wir, welchen Mehrwert Audit Logs in Confluent Platform 6.0
Die Bereitstellung und der Betrieb eines verteilten und skalierbaren Datensystems kann eine Herausforderung darstellen. Im ersten Teil der Deep Dive Sessions werfen wir einen detaillierten Blick auf die Centralized ACLs und Role Based Access Control, inklusive einer Live-Demo im Confluent Control Center (C3).
In diesem Webinar stellen wir die neuen Security-Komponenten (Role Based Access Control -RBAC und Secret Protection) von Confluent Platform live vor und gehen auch auf die Best Practices in diesem Umfeld ein.
Einzelhändler können ab sofort die Kaufabsicht der Kunden vorhersehen, als Reaktion auf einen Verkauf sofort den Bestand nachbestellen und neue Geschäfte in einem Bruchteil der Zeit integrieren. Und das ist nur die Spitze des Eisbergs...in diesem Vortrag wird Carsten einige Ideen rund um die Apache Kafka Streaming-Plattform im Einzelhandel vorstellen und einige davon auch live zeigen.
Basierend auf dem Überblicks-Webinar zeigen wir einen detaillierten Einblick in weitere neue Funktionalitäten von Confluent Platform 6.0.