[Webinaire] Maîtriser les principes fondamentaux d’Apache Kafka avec Confluent | S'inscrire
REMARQUE : ceci est une courte démonstration pour vous présenter Confluent Cloud. Pour en savoir plus, inscrivez-vous à notre atelier virtuel « Getting Started with Stream Processing and Confluent Cloud » en remplissant le formulaire à droite.
Dans cette vidéo de 30 minutes, vous découvrirez comment créer votre propre cluster Kafka et utiliser des composants prêts à l’emploi (comme ksqlDB) pour développer des applications de streaming événementiel rapidement et en toute facilité. Découvrez comment :
– Déployer votre cluster Kafka dans Confluent Cloud en quelques clics et faire évoluer vos charges de travail de streaming événementiel – Installer et configurer le CLI de Confluent Cloud et l’API d’indicateurs – Utiliser Data Flow pour les représentations visuelles des workflows et Schema Registry pour assurer une compatibilité continue des données – Connecter sans effort vos sources et puits de données critiques à Kafka afin de construire un pipeline de données complet pour vos applications en temps réel – Traiter facilement les données de streaming avec une simple interface SQL interactive en utilisant ksqlDB entièrement géré – Gérer votre compte et vos coûts avec une tarification à l’utilisation
En savoir plus sur les premiers pas avec Stream Processing et Confluent Cloud
Participez à l’atelier et découvrez comment :
– Mettre en place des clusters pour le traitement des données ETL – Connecter les systèmes sources et cibles en utilisant les connecteurs – Construire votre première application de streaming sur ksqlDB pour créer un pipeline de données
Cet atelier virtuel est conçu pour les personnes qui cherchent à se lancer avec Confluent Cloud et à construire les bases de leur cas d’usage aux côté de nos ingénieurs. Le nombre de places étant limité, vous devez vous inscrire à l’avance.