[ウェビナー] Confluent と Microsoft Azure による AI を活用したイノベーション | 今すぐ登録

logo-GEP-Worldwide

GEP Boosts AI-Powered Supply Chain, Processing 1B Events per Month

Scaled from 500K to one billion events per month

0% data loss in streaming 1 billion events

Connected 500 microservices

GEP improved predictive performance by 1,400%

Watch the Video

GEP はサプライチェーンと調達ソリューションを専門とする AI ファーストの組織として、リアルタイムデータに依存して業務を推進しています。以前は、四半期ごとのバッチ処理に依存していたため、顧客に対する報告と意思決定が遅れていました。

「GEP のようなサプライチェーン企業にとって、1日遅れで洞察を提供することは許されません。「時間どおりに確実にデータを配信するには、多くの決定を迅速に行う必要があります」と、GEP Worldwide のシニアエンジニアリングマネージャーである Nithin Prasad 氏は述べています。

5つの主要なビジネス要件を満たす技術ソリューション

データインフラストラクチャの課題と処理時間の遅延による多額のコストを解決するために、GEP は従来のデータ配信パイプラインと自己管理型の Apache Kafka® 環境に代わるものを見つける必要がありました。Prasad 氏のチームは、データアーキテクチャ全体で運用、分析、AI システムを接続するために、Confluent の完全マネージド型のクラウドネイティブのストリーミングプラットフォームを採用することを決定しました。

Confluent への移行は、信頼性、スケーラビリティ、価格、ストレージ、顧客エンゲージメントにおける人的要素という5つの主要なビジネス要件によって推進されました。「Confluent は、これら5つのポイントすべてにおいて当社に最適です。「これまでのすべての顧客エンゲージメントで、常に肯定的なフィードバックをいただいています。」

Prasad 氏が特に興味を持ったのは、Confluent の事前構築された完全マネージド型コネクターで、これにより統合を独自に構築する必要がなくなりました。その結果、同氏のチームはパイプラインの無秩序な拡大とポイント間接続を削減し、データパイプラインの管理を簡素化することで、開発者がデータロジスティクスの細部の管理ではなくコア機能の構築に集中できるようにしました。

Confluent の継続的なデータ配信により、GEP は主要なデータストレージシステムを含むすべてのシステムを接続する信頼性の高いデータパイプラインを構築することができました。

システム間でのシームレスなスケーリングと統合

GEP は当初、単一のクラスターで50万件のイベントを処理することから始めました。Confluent の導入後、同社はすぐに規模を拡大し、複数のクラスターにわたって毎月10億件のイベントを処理できるようになりました。しかも、データが損失することはまったくありません。こうした飛躍的なスケーラビリティの向上により、GEP の500件におよぶマイクロサービスのシームレスな運用が保証されました。「GEP を通過するすべてのデータは Confluent を通過します」と Prasad 氏は言います。

Confluent のマルチクラウドサポートにより、GEP は SQL データベース、MongoDB、Elasticsearch などの複数のシステムからのリアルタイムデータを AI スタックに直接統合しました。これらのリアルタイムデータストリームにより、GEP は、以前のリードタイム(2分前)よりも1,400%早い段階(30分前)に障害を予測できるようになりました。こうした障害防止への積極的なアプローチが、ダウンタイムを最小限に抑え、データへの顧客のアクセスを強化し、GEP の顧客満足度(CSAT)スコアを向上させるための鍵となりました。

Confluent の完全マネージド型データストリーミングプラットフォームの採用で、GEP はメンテナンス時間とコストの両方を削減しました。インフラストラクチャ監視などのタスクを自動化することで GEP のチームは新しい機能の構築に集中できるようになり、リソースの割り当てが最適化されました。

リアルタイムデータストリーミングで生成 AI のイノベーションを強化

Prasad 氏は、GEP の AI ファーストソリューションはリアルタイムデータに依存していると説明し、次のように述べています。「Confluent は当社のデータスタックにシームレスにフィットし、Azure Open AI サービスやその他の GPT モデルとネイティブに統合されています。」

GEP は AI を日常業務に組み込むことに成功しました。チームや経営陣にまたがる社内の AI 主導の取り組みとして始まったものが、今ではドキュメントの概要や洞察を提供し、顧客に調達やサプライチェーン業務におけるリスクを示す生成 AI チャットボットへと進化しました。

GEP は、自然言語で入力するだけで、生成 AI を使用して独自のツールを構築する機能を顧客に提供しています。Confluent のリアルタイムストリーミングデータパイプラインを導入することで、GEP はモデルにリアルタイムのコンテキストをフィードし、ユーザーの特定の瞬間のニーズに応えて、ユーザー固有の課題を解決できるようになります。「これは GEP の顧客にとって大きなプラスであり、ユーザーエクスペリエンス、顧客エクスペリエンス、CSAT スコアが大幅に向上します」と Prasad 氏は強調します。

適切なデータを適切な形式で、適切なタイミングで入手することが重要です。同氏はこう説明します。「データ配信は機械学習と同じくらい重要です。AI を使ったあらゆる取り組みは、適切なデータが整って初めて可能になるのです。Confluent の真の価値はまさにここにあります。」

データストリーミングプラットフォームの選択について他の企業にアドバイスする際に、同氏は「複数年にわたるプロセスで並走してくれるパートナー」を選ぶことを推奨し、コアバリューと顧客エンゲージメントを一致させることの重要性を強調しています。

GEP は、Confluent を使用してデータ管理機能を変革することで、より高速で信頼性が高く、拡張性の高い AI を活用したソリューションを顧客に提供できるようになりました。

GEP Worldwide の詳細を見る

その他の顧客事例を見る

logo-Generali

Generali

Driving Modernization and Digital Transformation at Generali Switzerland with an Event-Based Architecture.

Confluent Platform
Globe Group Logo (1)

Globe Group

Globe Group Slashes Infra Costs and Fuels Personalized Marketing with Confluent

Confluent Cloud
Confluent Platform
logo-Humana

Humana

Humana is at the forefront of an industry-wide effort to raise health outcomes and create the best possible patient experience while keeping costs in check through improved interoperability

Confluent Platform