Zehn Minuten Live-Demo: Kafka-Streaming auf Confluent | Jetzt ansehen

Was ist Kafka?

Apache Kafka ist ein verteiltes Streaming-System mit Open-Source-Lizenz, das für Stream-Verarbeitung, Echtzeit-Daten-Pipelines und Datenintegration im hohen Maßstab verwendet wird. Kafka wurde 2011 bei LinkedIn für den Umgang mit Echtzeit-Daten-Feeds entwickelt. Seitdem hat es sich schnell von einer Messaging-Queue zur vollwertigen Event-Streaming-Plattform entwickelt, die mehr als eine Million Nachrichten pro Sekunde bzw. Billionen von Nachrichten pro Tag verarbeiten kann.

Was spricht für Kafka?

Kafka bietet zahlreiche Vorteile. Kafka wird heutzutage von mehr als 80 % aller Fortune-100-Unternehmen in nahezu allen Branchen für unzählige kleine und große Anwendungsfälle eingesetzt. Es ist die De-facto-Technologie, die Entwickler und Architekten nutzen, um die neueste Generation skalierbarer Streaming-Anwendungen mit Echtzeit-Daten zu entwickeln. Dies lässt sich zwar mit verschiedenen auf dem Markt verfügbaren Technologien erreichen, doch untenstehend sind die Hauptgründe für die hohe Beliebtheit von Kafka aufgeführt.

High Throughput

Capable of handling high-velocity and high-volume data, Kafka can handle millions of messages per second.

High Scalability

Scale Kafka clusters up to a thousand brokers, trillions of messages per day, petabytes of data, hundreds of thousands of partitions. Elastically expand and contract storage and processing.

Low Latency

Can deliver these high volume of messages using a cluster of machines with latencies as low as 2ms

Permanent Storage

Safely, securely store streams of data in a distributed, durable, reliable, fault-tolerant cluster

High Availability

Extend clusters efficiently over availability zones or connect clusters across geographic regions, making Kafka highly available and fault tolerant with no risk of data loss.

How Kafka Works

Apache Kafka consists of a storage layer and a compute layer that combines efficient, real-time data ingestion, streaming data pipelines, and storage across distributed systems. In short, this enables simplified, data streaming between Kafka and external systems, so you can easily manage real-time data and scale within any type of infrastructure.

Skalierbare Echtzeitverarbeitung

Eine Daten-Streaming-Plattform würde ihrem Namen nicht gerecht, wenn die Daten nicht direkt nach dem Generieren verarbeitet und analysiert werden könnten. Die Kafka Streams API ist eine leistungsstarke, schlanke Bibliothek, welche eine On-the-fly-Verarbeitung ermöglicht. Hier können Sie aggregieren, Windowing-Parameter erstellen, Daten innerhalb eines Streams zusammenführen und vieles mehr. Doch das ist noch nicht alles: Sie wurde als Java-Anwendung auf Kafka erstellt, sodass Ihr Workflow unbeeinträchtigt bleibt und Sie sich nicht um zusätzliche Cluster kümmern müssen.

Langlebiger, dauerhafter Speicher

Durch die Abstraktion eines verteilten Commit-Logs, wie es üblicherweise in verteilten Datenbanken zu finden ist, bietet Apache Kafka dauerhafte Speichermöglichkeiten. Kafka kann als zuverlässige Informationsquelle genutzt werden, da hier Daten auf mehrere Nodes verteilt werden können. So kann eine Bereitstellung mit hoher Verfügbarkeit in einem einzigen Rechenzentrum oder über mehrere Verfügbarkeitsbereiche hinweg erzielt werden.

Übertragen und Abrufen

Alles beginnt mit dem einfachen, unveränderlichen Commit-Log. Diesen können Sie abonnieren und Daten auf beliebig vielen Systemen oder Echtzeit-Anwendungen veröffentlichen. Im Gegensatz zu Nachrichten-Queues ist Kafka ein in hohem Maße skalierbares und fehlertolerantes verteiltes System. So kann es für Anwendungen wie die Verwaltung von Fahrgast- und Fahrerzuordnung bei Uber, Echtzeit-Analytics und vorausschauende Wartung für Smart Home von British Gas und die Erbringung zahlreicher Echtzeit-Dienste überall auf LinkedIn eingesetzt werden. Diese Performance ist unerreicht und eignet es sich ideal für die Skalierung von einer einzigen App bis hin zur unternehmensweiten Verwendung.

What is Kafka Used For?

Commonly used to build real-time streaming data pipelines and real-time streaming applications, today, there are hundreds of Kafka use cases. Any company that relies on, or works with data can find numerous benefits.

Data Pipelines

In the context of Apache Kafka, a streaming data pipeline means ingesting the data from sources into Kafka as it's created and then streaming that data from Kafka to one or more targets.

Stream Processing

Stream processing includes operations like filters, joins, maps, aggregations, and other transformations which enterprises leverage to power many use-cases. Kafka Streams is a stream processing library built for Apache Kafka enabling enterprises to process data in real-time.Learn more

Streaming Analytics

Kafka provides high throughput event delivery, and when combined with open-source technologies such as Druid can form a powerful Streaming Analytics Manager (SAM). Druid consumes streaming data from Kafka to enable analytical queries. Events are first loaded in Kafka, where they are buffered in Kafka brokers before they are consumed by Druid real-time workers.

Streaming ETL

Real-time ETL with Kafka combines different components and features such as Kafka Connect source and sink connectors to consume and produce data from/to any other database, application, or API, Single Message Transform (SMT) – an optional Kafka Connect feature, Kafka Streams for continuous data processing in real-time at scale.

Event-Driven Microservices

Apache Kafka is the most popular tool for microservices because it solves many of the issues of microservices orchestration while enabling attributes that microservices aim to achieve, such as scalability, efficiency, and speed. It also facilitates inter-service communication while preserving ultra-low latency and fault tolerance.

Apache Kafka in Action

Wer nutzt Kafka?

Airbnb logo
Netflix
Goldman Sachs
Linkedin
Microsoft
New York Times
Intuit

To Maximize Kafka, You Need Confluent

Founded by the original developers of Kafka, Confluent delivers the most complete distribution of Kafka with Confluent, improving Kafka with additional community and commercial features designed to enhance the streaming experience of both operators and developers in production, at massive scale.

You love Apache Kafka®, but not managing it. Confluent's cloud-native, complete, and fully managed service goes above & beyond Kafka so your best people can focus on what they do best - delivering value to your business.

Cloud Kafka

Cloud-Native

We’ve re-engineered Kafka to provide a best-in-class cloud experience, for any scale, without the operational overhead of infrastructure management. Confluent offers the only truly cloud-native experience for Kafka—delivering the serverless, elastic, cost-effective, highly available, and self-serve experience that developers expect.

Complete Kafka

Complete

Creating and maintaining real-time applications requires more than just open source software and access to scalable cloud infrastructure. Confluent makes Kafka enterprise ready and provides customers with the complete set of tools they need to build apps quickly, reliably, and securely. Our fully managed features come ready out of the box, for every use case from POC to production.

Kafka Everywhere

Everywhere

Distributed, complex data architectures can deliver the scale, reliability, and performance that unlocks use cases previously unthinkable, but they're incredibly complex to run. Confluent's complete, multi-cloud data streaming platform makes it easy to get data in and out of Kafka Connect, manage the structure of data using Confluent Schema Registry, and process it in real time using ksqlDB. Confluent meets our customers everywhere they need to be — powering and uniting real-time data across regions, clouds, and on-premises environments.

In wenigen Minuten loslegen

Indem historische und Echtzeit-Daten in eine einzige, zentrale Informationsquelle integriert werden, sorgt Confluent dafür, dass völlig neue Arten von modernen, Event-getriebenen Anwendungen erstellt, universelle Daten-Pipelines entwickelt und leistungsstarke neue Anwendungsfälle mit voller Skalierbarkeit, Sicherheit und Leistung möglich gemacht werden können.

Jetzt mit 400 $ Gratis-Guthaben für die ersten vier Monate ausprobieren. Keine Kreditkarte notwendig.

Apache Kafka ist bei Entwicklern beliebt, da es sich schnell erlernen lässt und eine leistungsstarke Event-Streaming-Plattform mit 4 APIs bietet: Producer, Consumer, Streams und Connect.

Entwickler gehen häufig zunächst von einem einzigen Anwendungsfall aus. Dabei könnte z. B. Apache Kafka als Zwischenspeicher für Nachrichten zum Schutz einer veraltete Datenbank, die mit den heutigen Workloads nicht Schritt halten kann, eingesetzt werden. Oder aber man könnte eine solche Datenbank über die Connect API mit einer passenden Such-Indizierungs-Engine synchronisieren, damit Daten direkt bei deren Eintreffen mit Streams API verarbeitet und aggregiert sofort wieder an Ihre Anwendung zurückgeschickt werden können.Kurz gesagt: Apache Kafka und seine APIs machen die Erstellung datengestützter Apps und die Verwaltung komplexer Backend-Systeme ganz einfach. Mit Kafka kann ganz beruhigt darauf vertraut werden, dass Daten stets fehlertolerant, wiedergabefähig und in Echtzeit verfügbar sind. Jetzt können über eine einzige Event-Streaming-Plattform Echtzeit-Daten verarbeitet, gespeichert und mit Anwendungen und Systemen im Unternehmen verknüpft werden – und so die Entwicklung beschleunigen.