[Hands-On Workshop] How to Build Streaming Agents with Flink, Claude LLM & Anthropic’s MCP | Register Now

Confluent erweitert Tableflow für KI-gestützte und Cloud-übergreifende Echtzeitanalysen

Die Integration von Delta-Lake- und Databricks-Unity-Catalog- erleichtert es Streaming-Daten in verwaltete, analysefähige Tabellen umzuwandeln.

Neue Enterprise-Funktionen und die Verfügbarkeit von Microsoft OneLake erhöhen Zuverlässigkeit, Sicherheit und Flexibilität in Multi-Cloud-Umgebungen.

München, 12. November 2025Confluent, Inc. (Nasdaq:CFLT), Pionier im Bereich Daten-Streaming, hat die allgemeine Verfügbarkeit (AV) der Integrationen von Delta Lake und dem Databricks Unity Catalog in Confluent Tableflow sowie den Early Access (EA) auf Microsoft OneLake angekündigt. Mit diesen Erweiterungen wird Tableflow zu einer vollständig verwalteten End-to-End-Lösung, die operative, analytische und KI-Systeme in hybriden und Multi-Cloud-Umgebungen verbindet. Confluent bringt Apache-Kafka®-Topics jetzt direkt in Delta-Lake- oder Apache-Iceberg™-Tabellen – inklusive automatisierter Qualitätsprüfungen, Katalogsynchronisierung und Sicherheit auf Enterprise-Niveau.

Produktionsreif im Enterprise-Maßstab

Die AV-Version führt neue Funktionen auf Enterprise-Niveau ein, die Tableflow zu einer besonders vollständigen, zuverlässigen und sicheren Stream-to-Table-Lösungen machen. Unternehmen können damit:

  • Analysen vereinfachen: Die Unterstützung für Delta Lake (AV) konvertiert Kafka-Topics direkt in Delta-Lake-Tabellen, die in Cloud-Objektspeichern wie Amazon S3 oder Azure Data Lake Storage abgelegt sind. Delta Lake und Iceberg lassen sich jetzt gleichzeitig pro Topic aktivieren, um flexible Analysen über Formatgrenzen hinweg zu ermöglichen.
  • Governance vereinheitlichen: Die Integration mit Unity Catalog (AV) synchronisiert Metadaten, Schemata und Zugriffsrichtlinien automatisch zwischen Tableflow und dem Databricks Unity Catalog. Dadurch entsteht eine zentralisierte Governance mit konsistenter Datenverwaltung.
  • Zuverlässigkeit erhöhen: Eine Dead Letter Queue erfasst fehlerhafte Datensätze und isoliert sie, ohne den Datenfluss zu unterbrechen. Diese schemabasierte Fehlerbehandlung schafft Transparenz, beschleunigt die Wiederherstellung und sorgt für durchgängig hohe Datenqualität.
  • Zeit sparen und Komplexität reduzieren: Die Upsert-Funktion aktualisiert und ergänzt bei Änderungen die Datensätze automatisch. So bleiben Delta-Lake- und Iceberg-Tabellen konsistent, dedupliziert und jederzeit ohne manuellen Aufwand analysierbar.
  • Sicherheit stärken: Die Funktion „Bring Your Own Key“ erweitert den Einsatz kundenseitig verwalteter Encryption-Schlüssel auf Tableflow. Dadurch erhalten Unternehmen vollständige Kontrolle über ruhende Daten. Gleichzeitig wird die Einhaltung regulatorischer Vorgaben in Branchen wie Finanzdienstleistungen, Gesundheitswesen oder im öffentlichen Sektor unterstützt.

Tableflow erweitert bestehende Funktionen wie Schema-Management, Datenkomprimierung, automatische Tabellenpflege und Integrationen mit Apache Iceberg, AWS Glue und dem Snowflake Open Catalog zu einer vollständigen End-to-End-Lösung.Teams analysieren damit ihre Streaming-Daten sofort, behalten die Kontrolle und sichern Ausfallsicherheit über alle Komponenten hinweg.

Jetzt verfügbar auf Microsoft OneLake

Tableflow ist ab sofort im Early Access (EA) auf Azure verfügbar und in OneLake integriert. Damit wächst die Reichweite der Plattform, und Unternehmen erhalten mehr Flexibilität für Multi-Cloud-Deployments. Besonders relevant ist das für Organisationen, die Azure Databricks und Microsoft Fabric einsetzen. Dort werden die Integrationen mit Delta Lake und Unity Catalog jetzt vollständig unterstützt. Zusammen ermöglichen sie eine nahtlos integrierte Analyseumgebung mit zentraler Governance – von Echtzeit-Streams bis zu Cloud-basierten Lakehouses.

Unternehmen können jetzt:

  • Die Zeit bis zur Erkenntnis verkürzen: Kafka-Topics lassen sich unmittelbar als offene Tabellen in Microsoft OneLake materialisieren und per Microsoft Fabric oder einem beliebigen Tool über die OneLake Table APIs abfragen. Manuelle ETL-Prozesse oder aufwendige Schemaanpassungen entfallen.
  • Komplexität und Betriebskosten senken: Tableflow automatisiert Schema-Zuordnung, Typkonvertierung und Tabellenpflege für Daten-Streaming-Workflows. So entsteht eine zuverlässige, Azure-native Analyseinfrastruktur mit klaren Governance-Vorgaben.
  • Azure-KI- und Analysefunktionen aktivieren: Die Microsoft OneLake Table APIs ermöglichen eine nahtlose Integration mit den KI- und Analysefunktionen von Azure. Unternehmen erhalten Echtzeit-Einblicke und setzen KI-Anwendungsfälle direkt um. Die Verwaltung erfolgt über die Benutzeroberfläche der Confluent Cloud, die CLI oder per Terraform.

Diese Early-Access-Version ist ein wichtiger Schritt für die Erweiterung der Multi-Cloud-Präsenz von Tableflow und vertieft die Partnerschaften von Confluent mit Microsoft und Databricks.

Die Einführung von Tableflow hat grundlegend verändert, wie Unternehmen Streaming-Daten für Analysen nutzbar machen. Anfällige ETL-Prozesse und manuelle Lakehouse-Integrationen, die Teams ausbremsen, gehören damit der Vergangenheit an. Mit der allgemeinen Verfügbarkeit der Integrationen für Delta Lake und Unity Catalog sowie der Unterstützung von OneLake baut Confluent seine Multi-Cloud-Präsenz weiter aus. Diese Neuerungen schaffen eine einheitliche Lösung, die Echtzeit- und Analysedaten mit zentraler Governance verbindet. Unternehmen können dadurch einfacher Anwendungen für Echtzeit-KI und Analysen entwickeln. Das verschafft einen klaren Wettbewerbsvorteil.

„Viele Unternehmen wollen mehr aus ihren Echtzeitdaten herausholen, doch die Hürden zwischen Streaming und Analyse standen dem bisher im Weg“, sagt Shaun Clowes, Chief Product Officer bei Confluent. „Mit Tableflow schließen wir diese Lücke. Kafka lässt sich jetzt direkt mit verwalteten Lakehouses verbinden.So stehen hochwertige Daten unmittelbar nach ihrer Entstehung für Analysen und KI-Anwendungen bereit.“

„Bei Attune ist es zentraler Bestandteil unserer Mission, Echtzeit-Erkenntnisse aus IoT-Daten für intelligente Gebäude bereitzustellen“, sagt David Kinney, Principal Solutions Architect bei Attune. „Mit Confluent Tableflow setzen wir wichtige Kafka-Topics in wenigen Klicks in vertrauenswürdige, analysierbare Tabellen um. Sie liefern präzise Einblicke in Nutzerverhalten und Geräteleistung. Diese hochwertigen Datensätze treiben unsere Analysen, Machine-Learning-Modelle und generativen KI-Anwendungen an. Alles basiert auf einer stabilen, verlässlichen Datenstruktur. Tableflow vereinfacht unsere Architektur und erschließt neue Wege, Daten wertschöpfend einzusetzen.“

„Der Zugriff auf Echtzeitdaten ist entscheidend, damit Unternehmen schnell und präzise Entscheidungen treffen können“, sagt Dipti Borkar, Vice President and GM of Microsoft OneLake and ISV Ecosystem. „Mit der Verfügbarkeit von Confluent Tableflow auf Microsoft Azure lassen sich Kafka-Events direkt als Apache-Iceberg- oder Delta-Lake-Tabellen nach OneLake streamen. Die Abfrage erfolgt unmittelbar über Microsoft Fabric oder gängige externe Engines mithilfe der OneLake Table APIs. Dadurch sinkt die Komplexität, und Entscheidungen lassen sich schneller treffen.“

Weitere Ressourcen

  • Informationen zu Tableflow mit Delta Lake, Unity Catalog in Azure Databricks, Microsoft Azure und Microsoft OneLake bietet der Launch-Blog.
  • Eine Übersicht des Produkts zeigt das Video oder die Lightboard-Erklärung von Tim Berglund.
  • Beginnen Sie mit Confluent Cloud und navigieren Sie zum Abschnitt „Tableflow“ für Ihren Cluster. Neue Benutzer können sich kostenlos für Confluent Cloud registrieren und die Funktionen von Tableflow erkunden.
  • Für eine individuelle Demo stehen Experten bereit, die zeigen, wie sich das volle Potenzial von Echtzeit-Daten-Streaming mit Tableflow ausschöpfen lässt.

Über Confluent

Confluent ist die Daten-Streaming-Plattform, die eine grundlegend neue Kategorie von Dateninfrastrukturen entwickelt, die Daten in Bewegung setzen. Das Cloud-native Angebot von Confluent ist die grundlegende Plattform für Data in Motion, die als intelligentes Bindegewebe dafür sorgt, dass Echtzeitdaten aus verschiedenen Quellen kontinuierlich durch das Unternehmen fließen. Mit Confluent können Unternehmen den neuen geschäftlichen Anforderungen gerecht werden, ein reichhaltiges, digitales Kundenerlebnis im Front-End-Bereich zu bieten und auf anspruchsvolle, softwaregesteuerte Back-End-Abläufe in Echtzeit umzustellen. Um mehr zu erfahren, besuchen Sie gerne www.confluent.io.

Confluent® und die damit verbundenen Marken sind Marken oder eingetragene Marken von Confluent, Inc.