Confluent Cloud ist das vollständig verwaltete Deployment unserer Daten-Streaming-Plattform. Die serverlose Apache Kafka-Engine® bietet die effizienteste Lösung, Echtzeit-Datenströme in der Cloud bereitzustellen und zu skalieren. Aber das Streamen der Daten ist nur der Anfang.
Jetzt erfahren, wie Confluent Cloud hilft, die Kafka-Kosteneinsparungen zu maximieren, die Sicherheit zu optimieren und hybride Deployments zu integrieren.
Überprovisionierte und nicht ausgelastete Kafka-Cluster waren einmal. Angetrieben von Kora, unserer Cloud-nativen Kafka-Engine, skaliert Confluent Cloud automatisch, um sicherzustellen, dass die Infrastruktur immer optimal auf den Workload abgestimmt ist. Nur noch für die Kapazitäten zahlen, die tatsächlich benötigt werden und dadurch die Infrastrukturausgaben halbieren.
Basic- und Standard-Cluster
Jetzt mit Basic-Clustern ohne Risiko loslegen oder produktionsreife Anwendungsfälle auf Standard-Clustern einrichten, um von unbegrenztem Speicherplatz, Audit-Protokollen zur Threat Detection und über 20 % Durchsatz-Einsparungen zu profitieren.
Enterprise-Cluster
Enterprise-Cluster für unternehmenskritische Anwendungsfälle ermöglichen, vertrauliche Daten im privaten Netzwerk optimal zu schützen, automatische Skalierung im GBps+ Bereich und Durchsatz-Einsparungen von über 32 %.
Freight Cluster
Mit Freight Clustern bis zu 90 % Durchsatz-Einsparungen bei hochvolumigen Workloads wie Logging, Observability und KI/ML-Dateneisspeisung erzielen.
Multi-Region- und Multicloud-Cluster
Mit Cluster Linking können Daten direkt von einem Confluent Cloud-Cluster zu einem anderen repliziert, synchronisiert und weitergegeben werden – auch wenn sich die Cluster in unterschiedlichen Regionen, öffentlichen Clouds oder Unternehmen befinden.
Skalierungs-, Budget- und Zeit-Limits beseitigen und gesamten operativen Aufwand an Confluent Cloud auslagern, mit ausfallsicherem, serverlosem Daten-Streaming, verfügbar in den drei großen Public Clouds. Mit nutzungsabhängiger Abrechnung und kosteneffizienten Clustern für jede Workload reduziert Confluent Cloud die Gesamtbetriebskosten (TCO) für self-managed Kafka um bis zu 60 % – und verschafft die Freiheit und den Fokus für die wichtigen Aufgaben.
Die flexiblen Cluster-Optionen von Confluent Cloud maximieren die Kosteneinsparungen zusätzlich. Cluster-Typen basierend auf den individuellen Anforderungen des Anwendungsfalls kombinieren und gleichzeitig die Verfügbarkeit von unternehmenskritischen Workloads mit unserem 99,99 % Uptime-SLA sicherstellen.
Dank der richtigen Kombination von Funktionen hilft eine umfassende Daten-Streaming-Plattform, unzuverlässige Punkt-zu-Punkt-Integrationen unternehmensweit abzulösen, um einen sicheren und zuverlässigen Echtzeitzugriff auf hochwertige Daten zu ermöglichen.
Regulatorische Compliance mit zuverlässigen Sicherheitskontrollen gewährleisten
Authentifizierung mühelos verwalten, Zugriffe auf Cloud-Ressourcen steuern, Datenströme verschlüsseln und Sicherheitsrisiken überwachen und bewerten. Alle Security-Features – einschließlich RBAC, selbst verwaltete Encryption Keys, Client-Side Field Level Encryption und Audit-Logs – wurden konzipiert, um höchste Datenschutzanforderungen zu erfüllen.
Mühelose Integration von Datensystemen dank vollständig verwalteten Connectors
Kafka Connectors zu entwerfen, zu erstellen, zu testen und zu warten, dauert oft Monate – und sie selbst zu verwalten noch länger. Confluent kann dank mehr als 120 vorgefertigten und über 80 vollständig verwalteten Kafka Connectors mühelos mit allen Quellen und Sinks wie Datenbanken, Data Lakes und Data Warehouses verbunden werden.
Daten nah an der Quelle steuern und verarbeiten zur Wiederverwendung downstream
Confluent Cloud für Apache Flink® und Stream Governance ermöglichen ein Shift Left der Datenverarbeitung und Governance, um fehlerhafte Daten zu verhindern und Rechenkosten zu senken. Dadurch lassen sich Analysen erstellen und KI-fähige Datenprodukte entwickeln, die unternehmensweit weitergegeben, entdeckt und für Anwendungsfälle wiederverwendet werden können.
Mit Tableflow Datenströme in Analysetabellen umwandeln
Mit nur wenigen Klicks ermöglicht Tableflow, Kafka Topics und -Schemata als Apache Iceberg™- und Delta Lake-Tabellen zu erstellen. So können Data Lakes, Data Warehouses und Analyse-Engines, die KI-Anwendungsfälle antreiben, mit aktuellen, vertrauenswürdigen und angereicherten Daten versorgt und in die Lösungen unserer Partner integriert werden.
Die Daten-Streaming-Plattform ist überall dort einsetzbar, wo sich die Daten befinden – vollständig verwaltet in über 100 Regionen von Amazon Web Services, Microsoft Azure und Google Cloud, im eigenen Cloud-Account verwaltet über WarpStream oder self-managed in On-prem und Private-Cloud-Umgebungen mit Confluent Platform.
Und mit Cluster Linking können Daten in hybriden und Multi-Cloud-Deployments integriert werden, sowohl über öffentliche als auch private Netzwerke, um eine einzige globale Datenebene bereitzustellen, auf der alle Umgebungen verbunden sind. Dies ermöglicht einheitliches Monitoring und Verwalten und komplexe Punkt-zu-Punkt-Verbindungen werden überflüssig. Dadurch lassen sich mühelos:
-Daten zwischen Confluent Platformund Confluent Cloud Clustern migrieren
Jetzt Vorsprung für Kafka- und Flink-Anwendungsfälle sichern. Noch heute ein Confluent Cloud-Konto erstellen und aktivieren und Credits im Wert von 400 $ erhalten, die in den ersten 30 Tagen genutzt werden können.
Confluent Cloud is the industry's only fully managed data streaming platform. With Confluent Cloud, you can future-proof your data architecture and unlock data access, massive scalability, high data durability and availability, and stream processing and analytics use cases.
You can get started directly in the cloud console or take advantage of integrated billing with your cloud service provider by signing up in the AWS, Google CloudGoogle Cloud or Microsoft Azure marketplace. After you sign up, use the Quick Start Guide to get familiar with using the web UI or Confluent CLI to manage clusters and topics.
Apache Kafka® ist eine verteilte Streaming-Engine, die hochdurchsatzfähige, fehlertolerante und hoch skalierbare Echtzeit-Daten-Pipelines, Stream-Verarbeitung und Event-getriebene Datenintegration antreibt. Confluent, hingegen, ist eine umfassende Daten-Streaming-Plattform, die über Kafka hinausgeht. Confluent bietet Funktionen zur Sicherung, Verbindung, Steuerung und Verarbeitung von Datenströmen mit Cloud-nativer automatischer Skalierung, Sicherheit auf Enterprise-Niveau und vorgefertigten und vollständig verwalteten Integrationen.
Confluent Cloud ist ein vollständig verwaltetes Deployment unserer Plattform, das von einem Cloud-nativen Kafka-Service angetrieben wird, der für nahtlose Skalierbarkeit und hybride Cloud-Integration komplett neu konzipiert wurde. Jetzt den umfassenden Vergleich von Confluent und Apache Kafka ansehen oder mehr erfahren über Kora, unsere Cloud-native Kafka-Engine.
Confluent Cloud includes:
Das Confluent Cloud-Pricing ist abhängig von den genutzten Features (d. h. von den Streaming-, Verbindungs-, Steuerungs- und Verarbeitungsfunktionen), der ausgewählten Stufe sowie der spezifischen Aufgabe und deren Kosten pro Verarbeitungseinheit, dem Durchsatz und der Umgebung. Monatliche Rechnungen werden auf Basis der verbrauchten Ressourcen innerhalb der Cloud-Organisation berechnet.
Für Confluent Cloud können jährliche Commitments mit Mindestverbrauch vereinbart werden. Bei den Commitments skalieren Rabatte mit der Nutzung im gesamten Confluent Cloud-Stack, einschließlich Cluster, Connectors, Stream Governance, Stream-Verarbeitungerarbeitung und technischem Support.