Build your real-time bridge to the cloud with Confluent Platform 7.0 and Cluster Linking | Read the blog

¿Qué es Apache Kafka®?

Apache Kafka es una plataforma de event streaming distribuida por la comunidad que es capaz de manejar billones de eventos al día. De forma inicial, Kafka fue concebida como una cola de mensajería ( messaging queue ) y tiene su base en una representación de commits log distribuidos. Desde que LinkedIn la creó y la puso a disposición del público en 2011, Kafka ha evolucionado de forma rápida. Ha pasado de ser una cola de mensajería a una plataforma event streaming completa.

Confluent fue fundada por los desarrolladores originales de Apache Kafka y ofrece la distribución más completa de Kafka con Confluent Platform. Confluent Platform mejora Kafka con funciones adicionales comunitarias y comerciales diseñadas para enriquecer la experiencia de streaming tanto de operadores como de desarrolladores en producción, a escala masiva.

Dónde implementar Apache Kafka

Miles de empresas tienen su base en Kafka

¿Cómo puede ayudarte Kafka?

Publicar y suscribir

En su núcleo se encuentra el humilde e inmutable commit log, que permite suscribir (subscribe) y publicar (publish) datos a cualquier número de sistemas o aplicaciones en tiempo real. A diferencia de las colas de mensajería (messaging queues), Kafka es un sistema distribuido altamente escalable y resistente a fallos, lo que permite implementarlo para aplicaciones que se encarguen de gestionar la búsqueda de pasajeros y conductores en Uber, proporcionar análisis en tiempo real y mantenimiento predictivo para la domótica de British Gas y realizar numerosos servicios en tiempo real en LinkedIn. Este nivel de rendimiento único lo hace ideal para pasar de una aplicación a un uso en toda la empresa.

Almacenar

Apache Kafka proporciona un almacenamiento duradero para una abstracción commit log distribuida que se encuentra habitualmente en las bases de datos repartidas. Kafka puede servir como «fuente de información fiable», ya que es capaz de distribuir los datos a través de múltiples nodos para una implementación de alta disponibilidad en un único centro de datos o a través de múltiples áreas de disponibilidad.

Procesar

Event streaming platform no estaría completa sin la capacidad de manipular esos datos a medida que llegan. La API streams de Apache Kafka es una biblioteca potente y ligera que facilita el procesamiento al instante, lo que permite añadir, crear ventanas con parámetros, realizar uniones de datos dentro de stream y mucho más. Lo mejor de todo es que está creada como una aplicación Java que se apoya en Kafka, manteniendo tu flujo de trabajo intacto sin clusters adicionales que mantener.

Kafka: The Definitive Guide

Learn how to take full advantage of Apache Kafka, the distributed, publish-subscribe queue for handling real-time data feeds. With this comprehensive book, you'll understand how Kafka works and how it's designed.

A toolset for streaming

Apache Kafka is a popular tool for developers because it is easy to pick up and provides a powerful event streaming platform complete with 4 APIs: Producer, Consumer, Streams, and Connect.

Often, developers will begin with a single use case. This could be using Apache Kafka as a message buffer to protect a legacy database that can’t keep up with today’s workloads, or using the Connect API to keep said database in sync with an accompanying search indexing engine, to process data as it arrives with the Streams API to surface aggregations right back to your application.

In short, Apache Kafka and its APIs make building data-driven apps and managing complex back-end systems simple. Kafka gives you peace of mind knowing your data is always fault-tolerant, replayable, and real-time. Helping you quickly build by providing a single event streaming platform to process, store, and connect your apps and systems with real-time data.