OSS Kafka は役に立ちませんでした。データストリーミングによって解決した方法をご覧ください。| 今すぐ視聴

Generic

Steps to Building a Streaming ETL Pipeline with Apache Kafka and KSQL

今すぐ登録

Tuesday, July 30

10:30am Bangkok / 11:30am Singapore / 12:30pm Tokyo / 1:30pm Sydney

Moderated by Mark Teehan, Sales Engineer at Confluent Asia Pacific, this online talk is part two of a three part series called Streaming ETL - The New Data Integration.

Mark will run a video talk by Robin Moffat, Developer Advocate at Confluent which covers building a streaming data pipeline using nothing but bare hands, the Kafka Connect API and KSQL. The video shows how to stream data in from MySQL, transform it with KSQL and stream it out to Elasticsearch. Options for integrating databases with Kafka using CDC and Kafka Connect will be covered as well.

Mark will then be available for a Q&A session. Register now for this 60 minute session.

Also check out the next talk in the series:

Part 3: Streaming Transformations - Putting the T in Streaming ETL

Robin は Confluent の DevRel チームで働いています。彼のデータエンジニアリングのキャリアは、COBOL を使ってメインフレーム上にデータウェアハウスを構築するところから始まりました。その後 Oracle のアナリティクスソリューションの開発を経て、近年では Kafka エコシステムとモダンなデータストリーミングの分野で活躍しています。仕事以外では、ランニングやおいしいビール、揚げ物中心の朝食が大好きです(もっとも、これらを同時に楽しむことはめったにありませんが)。

Mark Teehan is a Sales Engineer at Confluent, covering APAC, based in Singapore. His focus is on enterprise connectivity to Apache Kafka: how organisations can set up secure, scalable, scripted streaming data pipelines across the enterprise.