Ahorra un 25 % (o incluso más) en tus costes de Kafka | Acepta el reto del ahorro con Kafka de Confluent
Una pipeline de datos traslada datos sin procesar de varias fuentes a un almacén de datos para poder analizarlos al detalle. Los sistemas de pipelines de datos más modernos automatizan el proceso ETL (por las siglas en inglés de «extracción, transformación y carga») a través de la ingesta, el tratamiento, el filtrado, la transformación y el traslado de datos en cualquier arquitectura de la nube y añaden capas adicionales de resiliencia contra los fallos.
Aprende a crear una pipeline de datos en tiempo real en cuestión de minutos.