Don’t miss out on Current in New Orleans, October 29-30th — save 30% with code PRM-WEB | Register today
Confluent Cloud ist das vollständig verwaltete Deployment unserer Daten-Streaming-Plattform. Die serverlose Apache Kafka-Engine® bietet die effizienteste Lösung, Echtzeit-Datenströme in der Cloud bereitzustellen und zu skalieren. Aber das Streamen der Daten ist nur der Anfang.
Jetzt erfahren, wie Confluent Cloud hilft, die Kafka-Kosteneinsparungen zu maximieren, die Sicherheit zu optimieren und hybride Deployments zu integrieren.
Überprovisionierte und nicht ausgelastete Kafka-Cluster waren einmal. Angetrieben von Kora, unserer Cloud-nativen Kafka-Engine, skaliert Confluent Cloud automatisch, um sicherzustellen, dass die Infrastruktur immer optimal auf den Workload abgestimmt ist. Nur noch für die Kapazitäten zahlen, die tatsächlich benötigt werden und dadurch die Infrastrukturausgaben halbieren.
Basic- und Standard-Cluster
Jetzt mit Basic-Clustern ohne Risiko loslegen oder produktionsreife Anwendungsfälle auf Standard-Clustern einrichten, um von unbegrenztem Speicherplatz, Audit-Protokollen zur Threat Detection und über 20 % Durchsatz-Einsparungen zu profitieren.
Enterprise-Cluster
Enterprise-Cluster für unternehmenskritische Anwendungsfälle ermöglichen, vertrauliche Daten im privaten Netzwerk optimal zu schützen, automatische Skalierung im GBps+ Bereich und Durchsatz-Einsparungen von über 32 %.
Freight Cluster
Mit Freight Clustern bis zu 90 % Durchsatz-Einsparungen bei hochvolumigen Workloads wie Logging, Observability und KI/ML-Dateneisspeisung erzielen.
Multi-Region- und Multicloud-Cluster
Mit Cluster Linking können Daten direkt von einem Confluent Cloud-Cluster zu einem anderen repliziert, synchronisiert und weitergegeben werden – auch wenn sich die Cluster in unterschiedlichen Regionen, öffentlichen Clouds oder Unternehmen befinden.
Skalierungs-, Budget- und Zeit-Limits beseitigen und gesamten operativen Aufwand an Confluent Cloud auslagern, mit ausfallsicherem, serverlosem Daten-Streaming, verfügbar in den drei großen Public Clouds. Mit nutzungsabhängiger Abrechnung und kosteneffizienten Clustern für jeden Workload reduziert Confluent Cloud die Gesamtbetriebskosten (TCO) für self-managed Kafka um bis zu 60 % – und verschafft die Freiheit und den Fokus für die wichtigen Aufgaben.
Die flexiblen Clusteroptionen von Confluent Cloud maximieren die Kosteneinsparungen zusätzlich. Cluster-Typen basierend auf den individuellen Anforderungen des Anwendungsfalls kombinieren und gleichzeitig die Verfügbarkeit von unternehmenskritischen Workloads mit unserem 99,99 % Uptime-SLA sicherstellen.
Dank der richtigen Kombination von Funktionen hilft eine umfassende Daten-Streaming-Plattform, unzuverlässige Punkt-zu-Punkt-Integrationen unternehmensweit abzulösen, um einen sicheren und zuverlässigen Echtzeitzugriff auf hochwertige Daten zu ermöglichen.
Regulatorische Compliance mit zuverlässigen Sicherheitskontrollen gewährleisten
Authentifizierung mühelos verwalten, Zugriffe auf Cloud-Ressourcen steuern, Datenströme verschlüsseln und Sicherheitsrisiken überwachen und bewerten. Alle Security-Features – einschließlich RBAC, selbst verwaltete Encryption Keys, Client-Side Field Level Encryption und Audit-Logs – wurden konzipiert, um höchste Datenschutzanforderungen zu erfüllen.
Mühelose Integration von Datensystemen dank vollständig verwalteten Connectors
Kafka Connectors zu entwerfen, zu erstellen, zu testen und zu warten, dauert oft Monate – und sie selbst zu verwalten noch länger. Confluent kann dank mehr als 120 vorgefertigten und über 80 vollständig verwalteten Kafka Connectors mühelos mit allen Quellen und Sinks wie Datenbanken, Data Lakes und Data Warehouses verbunden werden.
Daten nah an der Quelle steuern und verarbeiten zur Wiederverwendung downstream
Confluent Cloud für Apache Flink® und Stream Governance ermöglichen ein Shift Left der Datenverarbeitung und Governance, um fehlerhafte Daten zu verhindern und Rechenkosten zu senken. Dadurch lassen sich Analysen erstellen und KI-fähige Datenprodukte entwickeln, die unternehmensweit weitergegeben, entdeckt und für Anwendungsfälle wiederverwendet werden k önnen.
Mit Tableflow Datenströme in Analysetabellen umwandeln
Mit nur wenigen Klicks ermöglicht Tableflow, Kafka-Topics und -Schemata als Apache Iceberg™- und Delta Lake-Tabellen zu erstellen. So können Data Lakes, Data-Warehouses und Analyse-Engines, die KI-Anwendungsfälle antreiben, mit aktuellen, vertrauenswürdigen und angereicherten Daten versorgt und in die Lösungen unserer Partner integriert werden.
Die Daten-Streaming-Plattform ist überall dort einsetzbar, wo sich die Daten befinden – vollständig verwaltet in über 100 Regionen von Amazon Web Services, Microsoft Azure und Google Cloud, im eigenen Cloud-Account verwaltet über WarpStream oder self-managed in On-Prem- und Private-Cloud-Umgebungen mit Confluent Platform.
Und mit Cluster Linking können Daten in hybriden und Multi-Cloud-Deployments integriert werden, sowohl über öffentliche als auch private Netzwerke, um eine einzige globale Datenebene bereitzustellen, auf der alle Umgebungen verbunden sind. Dies ermöglicht einheitliche Überwachung und Verwaltung und macht komplexe Punkt-zu-Punkt-Verbindungen überflüssig. Dadurch lassen sich mühelos: – Confluent Platform- und Confluent Cloud-Cluster miteinander verbinden – Daten zwischen Confluent Platform- und Confluent Cloud-Clustern migrieren – Daten auf Confluent Cloud über Cluster, Regionen und Clouds hinweg weitergeben
Neue Entwickler erhalten Credits im Wert von 400 $ für die ersten 30 Tage – kein Kontakt zum Vertrieb erforderlich.
Confluent bietet alles Notwendige zum: – Entwickeln mit Client-Libraries für Sprachen wie Java und Python, Code-Beispielen, über 120 vorgefertigten Connectors und einer Visual Studio Code-Extension. – Lernen mit On-Demand-Kursen, Zertifizierungen und einer globalen Experten-Community. – Betreiben mithilfe einer CLI, IaC-Unterstützung für Terraform und Pulumi und OpenTelemetry-Observability.
Die Registrierung ist über das Cloud-Marketplace-Konto unten möglich oder direkt bei uns.
Confluent Cloud ist branchenweit die einzige vollständig verwaltete Daten-Streaming-Plattform. Confluent Cloud ermöglicht eine zukunftssichere Dateninfrastruktur, umfassenden Datenzugriff, massive Skalierbarkeit, hohe Datenbeständigkeit und -verfügbarkeit sowie Stream-Verarbeitungs- und Analyse-Anwendungsfälle.
Jetzt direkt über die Cloud Console loslegen oder von den Vorteilen einer integrierten Abrechnung über den eigenen Cloud-Provider profitieren, durch Registrierung über den AWS, Google CloudGoogle Cloud oder Microsoft Azure Marketplace. Nach der Registrierung hilft unser Quick-Start-Guide dabei, die Web-UI oder der Confluent-CLI kennenzulernen, um Cluster und Topics zu verwalten.
Apache Kafka® ist eine verteilte Streaming-Engine, die hochdurchsatzfähige, fehlertolerante und hoch skalierbare Echtzeit-Daten-Pipelines, Stream-Verarbeitung und Event-getriebene Datenintegration antreibt. Confluent, hingegen, ist eine umfassende Daten-Streaming-Plattform, die über Kafka hinausgeht. Confluent bietet Funktionen zur Sicherung, Verbindung, Steuerung und Verarbeitung von Datenströmen mit Cloud-nativer automatischer Skalierung, Sicherheit auf Enterprise-Niveau und vorgefertigten und vollständig verwalteten Integrationen.
Confluent Cloud ist ein vollständig verwaltetes Deployment unserer Plattform, das von einem Cloud-nativen Kafka-Service angetrieben wird, der für nahtlose Skalierbarkeit und hybride Cloud-Integration komplett neu konzipiert wurde. Jetzt den umfassenden Vergleich von Confluent und Apache Kafka ansehen oder mehr erfahren über Kora, unsere Cloud-native Kafka-Engine.
Confluent Cloud includes:
Das Confluent Cloud-Pricing ist abhängig von den genutzten Features (d. h. von den Streaming-, Verbindungs-, Steuerungs- und Verarbeitungsfunktionen), der ausgewählten Stufe sowie der spezifischen Aufgabe und deren Kosten pro Verarbeitungseinheit, dem Durchsatz und der Umgebung. Monatliche Rechnungen werden auf Basis der verbrauchten Ressourcen innerhalb der Cloud-Organisation berechnet.
Für Confluent Cloud können jährliche Commitments mit Mindestverbrauch vereinbart werden. Bei den Commitments skalieren Rabatte mit der Nutzung im gesamten Confluent Cloud-Stack, einschließlich Cluster, Connectors, Stream Governance, Stream-Verarbeitung und technischem Support.