Kafka dans le cloud : 10 fois plus efficace avec Confluent | Télécharger l'eBook

Qu'est qu'Apache Kafka® ?

Apache Kafka est une plateforme de streaming d’événements distribuée capable de gérer des trillions d'événements chaque jour. Initialement conçue comme une file d'attente de messagerie, Kafka est basée sur une abstraction d'un journal de validation distribué. Depuis sa création et sa mise en open source par LinkedIn en 2011, Kafka a rapidement évolué de file d'attente de messagerie à une plateforme de streaming à part entière.

Fondé par les développeurs originaux d'Apache Kafka, Confluent développe la distribution la plus complète de Kafka avec la plateforme Confluent. La plateforme Confluent améliore Kafka avec des fonctionnalités communautaires et commerciales supplémentaires conçues pour améliorer l'expérience de streaming des opérateurs et des développeurs en production, à très grande échelle.

Pourquoi choisir Kafka ?

Kafka présente de nombreux avantages. Aujourd'hui, Kafka est utilisé par plus de 80 % des entreprises du Fortune 100 dans pratiquement tous les secteurs, pour d'innombrables cas d'utilisation, petits et grands. Il s'agit de la technologie privilégiée par les développeurs et les architectes pour créer la nouvelle génération d'applications de flux de données en temps réel et évolutives. Bien que cela puisse être réalisé avec une large gamme de technologies disponibles sur le marché, vous trouverez ci-dessous les raisons principales de la popularité de Kafka.

High Throughput

Capable of handling high-velocity and high-volume data, Kafka can handle millions of messages per second.

High Scalability

Scale Kafka clusters up to a thousand brokers, trillions of messages per day, petabytes of data, hundreds of thousands of partitions. Elastically expand and contract storage and processing.

Low Latency

Can deliver these high volume of messages using a cluster of machines with latencies as low as 2ms

Permanent Storage

Safely, securely store streams of data in a distributed, durable, reliable, fault-tolerant cluster

High Availability

Extend clusters efficiently over availability zones or connect clusters across geographic regions, making Kafka highly available and fault tolerant with no risk of data loss.

How Kafka Works

Apache Kafka consists of a storage layer and a compute layer that combines efficient, real-time data ingestion, streaming data pipelines, and storage across distributed systems. In short, this enables simplified, data streaming between Kafka and external systems, so you can easily manage real-time data and scale within any type of infrastructure.

Traitement en temps réel à grande échelle

Une plateforme de streaming de données ne serait pas complète si elle ne permettait pas de traiter et d'analyser des données dès qu'elles sont générées. L'API Kafka Streams est une bibliothèque puissante et légère qui autorise un traitement à la volée, vous permettant de regrouper, de créer des paramètres de fenêtrage, d'effectuer des jointures au sein d'un flux, et bien plus encore. Par-dessus tout, elle est conçue comme une application Java s'appuyant sur Kafka qui garde votre workflow intact sans avoir à assurer la maintenance de clusters supplémentaires.

Stockage durable et persistant

Apache Kafka offre un stockage durable, une abstraction de journal de validation distribué que l'on trouve généralement dans des bases de données distribuées. Kafka peut agir en tant que « source de données fiable », en étant en mesure de distribuer les données entre plusieurs nœuds pour un déploiement à haute disponibilité, que ce soit dans un centre de données unique ou entre plusieurs zones de disponibilité.

Publier + s'abonner

Il renferme un journal de validation inaltérable et vous permet de vous abonner et de publier des données à travers un nombre illimité de systèmes ou d'applications en temps réel. Contrairement aux files d'attente de messagerie, Kafka est un système distribué hautement évolutif, tolérant aux défaillances, capable d'être déployé pour des applications telles que gérer les correspondances entre les passagers et les chauffeurs Uber, fournir des données analytiques en temps réel et assurer une maintenance préventive pour la maison intelligente de British Gas, ou encore offrir de nombreux services en temps réel à travers LinkedIn. Ce degré de performance unique s'avère donc idéal pour passer d'une seule application à une utilisation dans l'ensemble de l'entreprise.

What is Kafka Used For?

Commonly used to build real-time streaming data pipelines and real-time streaming applications, today, there are hundreds of Kafka use cases. Any company that relies on, or works with data can find numerous benefits.

Data Pipelines

In the context of Apache Kafka, a streaming data pipeline means ingesting the data from sources into Kafka as it's created and then streaming that data from Kafka to one or more targets.

Stream Processing

Stream processing includes operations like filters, joins, maps, aggregations, and other transformations which enterprises leverage to power many use-cases. Kafka Streams is a stream processing library built for Apache Kafka enabling enterprises to process data in real-time.Learn more

Streaming Analytics

Kafka provides high throughput event delivery, and when combined with open-source technologies such as Druid can form a powerful Streaming Analytics Manager (SAM). Druid consumes streaming data from Kafka to enable analytical queries. Events are first loaded in Kafka, where they are buffered in Kafka brokers before they are consumed by Druid real-time workers.

Streaming ETL

Real-time ETL with Kafka combines different components and features such as Kafka Connect source and sink connectors to consume and produce data from/to any other database, application, or API, Single Message Transform (SMT) – an optional Kafka Connect feature, Kafka Streams for continuous data processing in real-time at scale.

Event-Driven Microservices

Apache Kafka is the most popular tool for microservices because it solves many of the issues of microservices orchestration while enabling attributes that microservices aim to achieve, such as scalability, efficiency, and speed. It also facilitates inter-service communication while preserving ultra-low latency and fault tolerance.

Apache Kafka in Action

Qui utilise Kafka ?

Airbnb logo
Netflix
Goldman Sachs
Linkedin
Microsoft
New York Times
Intuit

To Maximize Kafka, You Need Confluent

Founded by the original developers of Kafka, Confluent delivers the most complete distribution of Kafka with Confluent, improving Kafka with additional community and commercial features designed to enhance the streaming experience of both operators and developers in production, at massive scale.

You love Apache Kafka®, but not managing it. Confluent's cloud-native, complete, and fully managed service goes above & beyond Kafka so your best people can focus on what they do best - delivering value to your business.

Cloud Kafka

Cloud-Native

We’ve re-engineered Kafka to provide a best-in-class cloud experience, for any scale, without the operational overhead of infrastructure management. Confluent offers the only truly cloud-native experience for Kafka—delivering the serverless, elastic, cost-effective, highly available, and self-serve experience that developers expect.

Complete Kafka

Complete

Creating and maintaining real-time applications requires more than just open source software and access to scalable cloud infrastructure. Confluent makes Kafka enterprise ready and provides customers with the complete set of tools they need to build apps quickly, reliably, and securely. Our fully managed features come ready out of the box, for every use case from POC to production.

Kafka Everywhere

Everywhere

Distributed, complex data architectures can deliver the scale, reliability, and performance that unlocks use cases previously unthinkable, but they're incredibly complex to run. Confluent's complete, multi-cloud data streaming platform makes it easy to get data in and out of Kafka Connect, manage the structure of data using Confluent Schema Registry, and process it in real time using ksqlDB. Confluent meets our customers everywhere they need to be — powering and uniting real-time data across regions, clouds, and on-premises environments.

Lancez-vous en quelques minutes

En intégrant les données en temps réel et historiques dans une même source d'informations, Confluent permet de concevoir facilement une catégorie entièrement nouvelle d'applications modernes axées sur les événements, d'obtenir un pipeline de données universel et d'accéder à de nouveaux cas d'utilisation avec une évolutivité, une sécurité et une performance complètes.

Faites l'essai gratuitement en profitant d'un bon de 400 $ à dépenser pendant vos quatre premiers mois. Aucune carte bancaire requise.

Apache Kafka est un outil populaire auprès des développeurs parce qu'il est facile à prendre en main et qu'il offre une Event Streaming Platform puissante et complète, dotée de 4 API : Producer, Consumer, Streams et Connect.Bien souvent, les développeurs se focalisent en premier sur un seul cas d’utilisation. Par exemple, utiliser Apache Kafka comme un tampon de messages pour protéger une ancienne base de données qui ne parvient pas à suivre les charges de travail d’aujourd'hui, ou utiliser l’API Connect pour garder ladite base de données synchronisée avec un moteur connexe d'indexation de recherche, afin de traiter les données au fur et à mesure qu'elles arrivent avec l'API Streams pour faire ressortir directement les agrégations dans votre application.

En bref, Apache Kafka et ses API facilitent le développement d'applications axées sur les données ainsi que la gestion de systèmes back-end complexes. Kafka vous offre la tranquillité d'esprit en sachant que vos données sont toujours tolérantes aux défaillances, peuvent être relues et évoluent en temps réel. Nous vous aidons à développer rapidement en fournissant une Event Streaming Platform unique pour traiter, stocker et connecter vos applications et systèmes avec des données en temps réel.