Ahorra un 25 % (o incluso más) en tus costes de Kafka | Acepta el reto del ahorro con Kafka de Confluent

Confluent presenta nuevas funcionalidades que facilitan y agilizan la conexión, el procesamiento y el intercambio de datos fiables en todas partes

Data Quality Rules, parte de la primera solución de governance para Apache Kafka totalmente gestionada, ayuda a los equipos a cumplir con la integridad de los datos y resolver rápidamente los problemas de calidad de los mismos

Confluent anuncia Custom Connectors y Stream Sharing para facilitar la conexión de aplicaciones personalizadas y el intercambio interno y externo de datos en tiempo real

Kora Engine de Confluent alimenta a Confluent Cloud para ofrecer un rendimiento mayor y una latencia más baja que Apache Kafka

Asimismo, Confluent abre un programa de acceso temprano a Apache Flink para clientes selectos para dar forma a la hoja de ruta de producto

Londres, RU – 16 de mayo de 2023Confluent, Inc. (NASDAQ: CFLT), líder en data streaming, ha anunciado hoy las nuevas funcionalidades de Confluent Cloud que brindan a los clientes la confianza de que los datos que utilizan son fiables y se pueden procesar y compartir de manera fácil y segura. Con Data Quality Rules, una expansión de la suite Stream Governance, las organizaciones pueden resolver fácilmente los problemas de calidad de los datos para que se pueda confiar en ellos, de cara a procesos de toma de decisiones críticas para el negocio. Además, las nuevas soluciones de Confluent Custom Connectors, Stream Sharing, Kora Engines, así como un programa de acceso temprano a Apache Flink, facilitan que las empresas obtengan insights de sus datos en una sola plataforma, lo que reduce las cargas operativas y garantiza un rendimiento líder en la industria.

“Los datos en tiempo real son el elemento vital de toda organización, pero es extremadamente desafiante gestionar los datos provenientes de diferentes fuentes en tiempo real y garantizar que sean fiables”, asegura Shaun Clowes, Chief Product Officer en Confluent. “Como resultado, muchas organizaciones construyen un mosaico de soluciones plagado de silos e ineficiencias empresariales. Las nuevas capacidades de Confluent Cloud solucionan estos problemas al proporcionar un camino sencillo para garantizar que los datos fiables se puedan compartir con las personas adecuadas en los formatos correctos”.

Tener datos de alta calidad que se pueden compartir rápidamente entre equipos, clientes y socios ayuda a las empresas a tomar decisiones más rápido. Sin embargo, este es un reto al que se enfrentan muchas empresas al gestionar una infraestructura de código abierto altamente distribuida como Apache Kafka. De acuerdo con el nuevo informe 2023 Data Streaming Report de Confluent, el 72 % de los líderes de TI mencionan el uso inconsistente de los métodos y estándares de integración como un desafío o un obstáculo importante para su infraestructura de data streaming. El anuncio de hoy aborda estos retos con las siguientes capacidades:

Data Quality Rules refuerza la suite Stream Governance de Confluent para contar con datos aún más fiables Los contratos de datos son acuerdos formales entre componentes upstream y downstream en torno a la estructura y la semántica de los datos que están en movimiento. Un componente crítico para hacer cumplir los contratos de datos son las reglas o políticas que garantizan que los streams de datos sean de alta calidad, aptos para el consumo y resilientes de cara a la evolución del esquema a lo largo del tiempo.

Para abordar la necesidad de contratos de datos más completos, Data Quality Rules de Confluent, una nueva funcionalidad disponible en Stream Governance, permite a las organizaciones obtener streams datos fiables y de alta calidad en toda la organización utilizando reglas personalizables que garantizan la integridad y compatibilidad de los datos. Con Data Quality Rules, los esquemas almacenados en Schema Registry ahora se pueden aumentar con varios tipos de reglas para que los equipos puedan:

  • Garantizar una alta integridad de los datos validando y restringiendo los valores de los campos individuales dentro de stream de datos.
  • Resolver rápidamente problemas de calidad de datos con acciones de seguimiento personalizables sobre mensajes incompatibles
  • Simplificar la evolución de un esquema utilizando reglas de migración para transformar mensajes de un formato de datos a otro.

“Los altos niveles de calidad y fiabilidad de los datos mejoran los resultados del negocio, y esto es especialmente importante para el data streaming donde el análisis, las decisiones y las acciones se activan en tiempo real”, afirma Stewart Bond, Vicepresidente de Data Intelligence and Integration Software en IDC. “Hemos descubierto que la satisfacción del cliente se beneficia principalmente de los datos de alta calidad. Y, cuando hay falta de confianza causada por datos de baja calidad, los costes operativos son los más impactados. Las capacidades como las reglas de calidad de datos ayudan a las organizaciones a garantizar que se pueda confiar en los streams de datos al validar su integridad y resolver rápidamente los problemas de calidad”.

Los Custom Connectors permiten que cualquier connector de Kafka se ejecute en Confluent Cloud sin necesidad de gestionar la infraestructura Muchas organizaciones tienen arquitecturas de datos únicas y necesitan crear sus propios conectores para integrar sus sistemas de datos y aplicaciones personalizadas en Apache Kafka. Sin embargo, estos conectores personalizados deben autogestionarse y requieren un proceso manual de aprovisionamiento, actualización y monitorización, lo que supone una pérdida de tiempo y recursos de gran valor para otras actividades críticas del negocio. Al ampliar el ecosistema de conectores de Confluent, Custom Connectors permite a los equipos:

  • Conectarse rápidamente a cualquier sistema de datos utilizando los propios plugins de Kafka Connect del equipo sin cambios en el código.
  • Garantizar una alta disponibilidad y rendimiento utilizando logs y métricas para supervisar el estado de los conectores y de los trabajadores del equipo.
  • Eliminar la carga operativa derivada de proporcionar y gestionar continuamente la infraestructura de conectores de bajo nivel.

"Para proporcionar datos precisos y actuales en toda la plataforma de Trimble, se requieren pipelines de data streaming que conecten nuestros servicios internos y sistemas de datos en todo el mundo", afirma Graham Garvin, Product Manager de Trimble. "Custom Connectors nos permitirá conectar rápidamente nuestro servicio de eventos interno y Kafka sin necesidad de configurar y gestionar la infraestructura de conectores subyacente. Podremos subir fácilmente nuestros conectores personalizados para transmitir datos sin problemas a Confluent, lo que va a permitirnos centrarnos en actividades de más valor."

Custom Connectors de Confluent está disponible en AWS en regiones seleccionadas. La compatibilidad con otras regiones y otros proveedores de cloud estará disponible en el futuro.

Stream Sharing facilita el intercambio de datos con una seguridad de nivel empresarial Ninguna organización existe de forma aislada. Las empresas que realizan actividades como la gestión de inventarios, entregas y trading financiero necesitan intercambiar constantemente datos en tiempo real, tanto interna como externamente en todo su ecosistema para tomar decisiones informadas, crear customer experience únicas y mejorar las operaciones. Hoy en día, muchas organizaciones siguen dependiendo de transmisiones de archivos planos o API de sondeo para el intercambio de datos, lo que provoca retrasos en los datos, riesgos de seguridad y complicaciones adicionales de integración. Stream Sharing de Confluent ofrece la alternativa más sencilla y segura para compartir data streaming entre organizaciones. Con Stream Sharing, los equipos pueden:

  • Intercambiar fácilmente datos en tiempo real sin retraso directamente desde Confluent a cualquier cliente Kafka.
  • Compartir y proteger sus datos de forma segura con sólidos controles de uso compartido autenticado, gestión de acceso y cifrado por capas.
  • Confiar en la calidad y compatibilidad de los datos compartidos aplicando esquemas compatibles entre usuarios, equipos y organizaciones.

Se anunciarán más innovaciones en el Kafka Summit London:

Organizado por Confluent, el Kafka Summit London es el principal evento para desarrolladores, arquitectos, ingenieros de datos, profesionales de DevOps y aquellos que buscan aprender más sobre data streaming y Apache Kafka. Este evento se centra en las buenas prácticas, cómo construir sistemas de próxima generación y cuál será el futuro de las tecnologías de streaming.

Otras novedades de la plataforma líder de data streaming de Confluent son:

  • Kora alimenta Confluent Cloud para ofrecer insights y experiencias más rápidas: Desde 2018, Confluent ha invertido más de 5 millones de horas de ingeniería para crear Kora, un motor Apache Kafka construido para el cloud. Con su capacidad de abstracción multi-tenancy y serverless, y gracias a que cuenta con capas desacopladas de networking-almacenamiento-computación, así como operaciones automatizadas y disponibilidad global, Kora permite a los clientes de Confluent Cloud escalar 30 veces más rápido, almacenar datos sin límites de retención, estar protegidos con un SLA del 99,99 % y alimentar cargas de trabajo con latencia ultrabaja.

  • Apache Flink de Confluent ofrece un programa de acceso anticipado a las funcionalidades avanzadas de procesamiento de data streaming: El stream processing desempeña un papel fundamental en la infraestructura de data streaming filtrando, agrupando y añadiendo datos en tiempo real, lo que permite que las aplicaciones y los sistemas downstream ofrezcan información instantánea. Los clientes recurren a Flink para gestionar data streaming a gran escala, de alto rendimiento y baja latencia, gracias a sus funcionalidades avanzadas de procesamiento de streams y a sus sólidas comunidades de desarrolladores. Tras la adquisición de Immerok por parte de Confluent, se ha abierto el programa de acceso anticipado de Apache Flink gestionado para clientes selectos de Confluent Cloud, con la finalidad de que prueben el servicio y contribuyan a dar forma a la hoja de ruta colaborando con los equipos de producto e ingeniería de la compañía.

Visita el stand de Confluent en el Kafka Summit London para obtener más información. Regístrese aquí para ver la presentación del CEO y cofundador de Confluent, Jay Kreps, sobre el futuro del procesamiento de flujos con Apache Flink hoy, 16 de mayo a las 10 am BST.

Recursos adicionales

Acerca de Confluent

Confluent encabeza una nueva categoría de infraestructura de datos centrada en el data in motion. Con su oferta cloud-native, Confluent se convierte en la plataforma fundamental para el data in motion, facilitando las conexiones que permiten que los datos de múltiples fuentes fluyan en tiempo real sin interrupción por toda la empresa. Con Confluent, las empresas pueden cumplir las nuevas exigencias empresariales de ofrecer experiencias de cliente agradables y fluidas, así como lograr la transición de su back end a operaciones más sofisticadas, en tiempo real y software-driven. Para obtener más información, visita www.confluent.es.

Confluent y las marcas asociadas son marcas comerciales o marcas comerciales registradas de Confluent, Inc.

Apache® y Apache Kafka® son marcas comerciales registradas o marcas comerciales de Apache Software Foundation en los Estados Unidos y/o en otros países. El uso de estas marcas no implica ningún respaldo por parte de Apache Software Foundation. Todas las demás marcas comerciales son propiedad de sus respectivos dueños.

Este comunicado de prensa contiene declaraciones prospectivas. Las palabras “creer”, “puede”, “hará”, “adelante”, “estimar”, “continuar”, “anticipar”, “pretender”, “esperar”, “buscar”, “planificar”, “proyectar”, y expresiones similares tienen por objeto identificar declaraciones prospectivas. Estas declaraciones prospectivas están sujetas a riesgos, incertidumbres y suposiciones. Si los riesgos se materializan o las suposiciones resultan incorrectas, los resultados reales podrían diferir materialmente de los resultados implícitos en estas declaraciones prospectivas. Confluent no asume ninguna obligación y actualmente no tiene la intención de actualizar dichas declaraciones prospectivas después de la fecha de este comunicado.