[Demo+Webinar] New Product Updates to Make Serverless Flink a Developer’s Best Friend | Watch Now
Les données doivent être collectées, traitées et utilisées de manière réactive en permanence dans toutes les applications de l'entreprise - certaines en temps réel, d'autres en "mode batch". En d'autres termes : À mesure qu'une entreprise devient de plus en plus définie par des logiciels, elle a besoin d'une plateforme de données conçue principalement pour les "données en mouvement" plutôt que pour les "données au repos".
Apache Kafka est désormais un courant dominant en matière de données en mouvement ! L'API Kafka est devenue la norme de facto pour les architectures axées sur les événements et le streaming événementiel. Malheureusement, les coûts de gestion sont souvent très élevés si l'on ajoute des facteurs tels que la mise à l'échelle, l'administration, le support, la sécurité, la création de connecteurs... et tout ce qui en découle. Dans les entreprises, les ressources sont rares : tant pour les besoins en ressources humaines qualifiées que pour le budget.
Le "Cloud", comme nous le savons tous, offre la solution parfaite à de tels défis.
Il est fort probable que des services entièrement gérés dans le Cloud tels que S3, DynamoDB ou Redshift soient déjà utilisés au sein de l'entreprise. Il est maintenant temps de mettre en œuvre la gestion intégrale pour Kafka également - avec Confluent Cloud sur AWS.
Créez une couche d'intégration centrale qui ne se soucie pas de l'origine ou de la quantité des données.
Mise en œuvre d'un traitement évolutif des flux de données pour fournir des informations en temps réel.
Exploitez des connecteurs entièrement gérés (tels que S3, Redshift, Kinesis, MongoDB Atlas, etc.) pour accéder rapidement aux données.
Confluent Cloud en action ? Montrons comment ao.com y est parvenu !
Speakers: Remi Forest, Solutions Engineering Manager, Confluent Thierry Pierre, GTM Data & Analytics Principal, Amazon Web Services (AWS)