Google Cloud Next Tokyo:7/30、31 東京ビッグサイトにて開催!

Gemini を活用したデータ分���移行サービスでデータを AI に対応させる

業界の代替ソリューションよりも低い TCO と高性能な Spark エクスペリエンスを備えた Google のデータクラウドは、特に要求の厳しい ML や生成 AI ワークロードを効率的かつ費用対効果の高い方法で実行するのに役立ちます。データ、コンピューティング、インフラストラクチャを Google Cloud に統合することで、データサイロを解消し、費用を最適化し、プロトタイプから本番環境に至るまで AI イニシアチブを大幅に加速できます。

BigQuery 上に構築した新しい統合データ プラットフォームは、PayPal の次なるイノベーションを支える基盤となっています。これにより、エコシステム全体にわたって、より直感的でパーソナライズされた体験を提供できるようになり、生成 AI の力も最大限に活用��きるようになりました。

Mani Iyer 氏

PayPal、SVP 兼データ、AI、ML テクノロジー担当グローバル ヘッド

PayPal の事例を読む

Google では、TPU やグローバル ネットワークから、モデル、データクラウドに至るまで、技術スタック全体で AI をネイティブに統合しています。Gemini モデルと AI デベロッパー ツールをデータ インフラストラクチャに直接接続することで、余分なネットワーク ホップを排除し、費用、スケーリング、セキュリティの管理を簡素化します。

Google のデータクラウドは、オープンデータ レイクハウスをサポートし、オープン フォーマット(Apache Iceberg)とエンタープライズ グレードのエンジン(BigQueryGoogle Cloud Managed Service for Apache Spark など)を融合します。このインフラストラクチャは、包括的なガバナンスとエージェントのコンテキストを提供する Knowledge Catalog と組み合わせることで、AI エージェントが組織全体のデータに安全にアクセスして有効化できるようにします。

Google Cloud は、AI、ベクトル検索、グラフ推論を BigQuery に直接組み込むことでデータを有効活用し、データが存在する場所でモデルを実行できるようにします。このアーキテクチャは、自然言語ツールとサーバーレス コンピューティングを使用してエージェント ワークフローを迅速にデプロイする、エージェント ファーストのライフサイクルをサポートします。Antigravity は、自律的な自動化を導入することでこのプロセスをさらに効率化し、手動による介入を最小限に抑えて Spark と SQL のワークロードを検出、作成、最適化します。

AI を活用した移行サービス

Google Cloud のデータ分析移行サービスでは、移行のあらゆるステップに AI が組み込まれています。AI は、発見から検証に至るまでの移行プロセス全体を通じて、インテリジェントなパートナーとしてシームレスに機能します。この AI ファーストのアプローチは、手作業を大幅に削減することで移行を加速し、予測可能な移行計画を提供して、プロジェクトのリスクを軽減します。

移行評価サービスでは、お客様固有のクエリパターンやデータ使用量に基づいて、Google Cloud での実際の運用コストをモデル化します。スピード、アジリティ、AI の活用を考慮して財務的影響を定義し、モダナイゼーションに向けた説得力のあるビジネスケースの構築を支援します。

BigQuery 移行サービスには、18 種類の言語からの BigQuery SQL への移行をサポートする SQL 変換機能があります。標準的なツールでは見逃されがちな複雑な手続き型 SQL を Gemini が変換することで、自動化を 100% に近づけます。Gemini は、スキーマとコード全体を分析することで、単に構文的に正しいだけでなく、機能的にも同一の変換を作成します。Gemini は、Databricks ノートブックの自動分析と変換も提供し、Spark SQL や PySpark のコードを Google Cloud と完全に互換性のあるものに変換します。このサービスでは、ライブラリの依存関係の処理や構成の調整も行います。

Gemini は、スキーマ、データ、セマンティック ロジック全体にわたる包括的な検証を提供することで、移行の検証を効率化し、完全な精度を確保します。従来のクエリとモダナイズされたクエリの結果を比較することで、コード構造ではなく一貫したビジネス成果に焦点を当て、誤検知を効果的に排除します。この自動化されたアプローチにより、ユーザー受��入れテストが数か月から数週間に大幅に短縮され、価値実現までの時間が短縮されるとともに、技術専門家を優先度の高い業務に充てることが可能になります。

Gemini CLI は、AI が移行サービスをインテリジェントに統合し、タスクに最適なツールを選択する、デベロッパーにとって使いやすい環境を提供することで、移行作業をエージェント ワークフローへと変換します。既存のコードベース内で直接作業して「クローンを作成してすぐに実行」できるため、効率が大幅に向上し、Google Cloud への移行を加速できます。

エンタープライズ データ ウェアハウス(EDW)の移行

従来のエンタープライズ データ ウェアハウス(EDW)を、最新の統合データ レイクハウス アーキテクチャへと移行することは、もはや、かつてのようなリスクが高く、数年を要するような困難な作業ではありません。現在では、AI を活用したエンドツーエンドの移行サービスにより、移行プロセスの中でも特に複雑で手間のかかるフェーズが自動化されています。

まず、データに基づくビジネスケースと明確なロードマップを構築します。自動検出と評価により、Teradata、Snowflake、Redshift などの既存の EDW を分析して、データリネージ、依存関係、クエリパターンを特定できます。現在の費用と BigQuery の予測 TCO を比較した詳細なレポートにより、潜在的な節約額と ROI を把握できます。

綿密な計画を立てることが、移行を成功させる鍵となります。「短期間で実現できる成果」を特定し、依存関係をマッピングし、ワークロードを論理的な移行ウェーブにグループ化することで、迅速に価値を提供し、リスクを低減します。

Gemini を活用したコード変換、データとメタデータの自動転送、エンドツーエンドの検証により、AI ドリブンの移行アプローチを実現し、時間、費用、人為的ミスを大幅に削減します。

データレイクと Spark の移行

従来のデータレイクでは、AI の基盤となる大量の非構造化データを効率的に保存および処理することができません。 多くの場合、ウェアハウス、レイク、クラウドにわたりデータサイロは残ります。そして、多くの組織には、AI モデルの構築とサービングに必要なコンピューティング リソースが不足しています。Google Cloud では、AI を活用したサービスでデータレイクの移行を加速できます。

Spark と Hadoop のワークロードの中断とリスクを最小限に抑えつつ、Cloudera からフルマネージドのエンタープライズ エコシステムへの迅速な移行を開始しま��ょう。オンプレミスのデータレイクをクラウドで再構築しない場合でも、リフト&シフトでデータを Google Cloud に移行することで、費用削減とスケーリングを実現できます。

Google Cloud に慣れてきたら、データチームのアジリティとスピードを向上させることができます。Google Managed Service for Apache Spark は Lightning Engine を活用して、標準ベンチマークよりも 4.5 倍高速に Spark ワークロードを実行します。

管理と運用を簡素化します。既存のデータレイクを移行した後、クラウドネイティブな最適化(自動化されたストレージ階層化など)を導入して TCO、管理、速度、スケーリングの向上を図ります。

オープン レイクハウスをモダナイズ

レイクハウスの移行は非常に複雑で、さまざまなコンピューティング エンジン、Apache Iceberg などのオープン フォーマット、断片化されたセキュリティ モデルを組み合わせることを余儀なくされます。Google Cloud は、統合されたフルマネージドの基盤でこの悩みを解消します。Google の LakehouseManaged Service for Apache SparkKnowledge Catalog をシームレスに接続することで、オープンで相互運用可能なレイクハウスへの移行を加速し、インフラストラクチャの管理ではなく AI の活用に集中できるようにします。

Databricks の新しい移行評価では、既存の Databricks 環境を分析して、移行の労力と TCO の推定削減額を把握できるため、移行の判断に自信を持つことができます。

オープンデータとテーブル形式の利点を維持しつつ、マルチエンジン アクセスを実現し、優れたコスト パフォーマンスを提供する統合レイクハウス アーキテクチャのメリットを享受できます。データ、メタデータ、アクセス権限を Delta Lake から Lakehouse for Apache Iceberg に移行する際は、シンプルな自動化された手順を利用できます。これにより、統合ガバナンス、エンタープライズ規模のスケーリング、優れた費用対効果、AI モデルやツールへのアクセスといったメリットを最大限に活用できます。

Cloudera 環境や Hadoop 環境を Google Cloud に直接移行するプロセスを自動化することで、時間と手作業を大幅に削減できます。テーブルとメタデータを Cloud Storage やマネージド Lakehouse カタログにシームレスに移動することで、データを取り込んだ瞬間から SQL、Spark、Python のワークロードで即座に利用できるようになります。

移行を支援するパートナーのエコシステム

Google のパートナーと連携して移行を開始しましょう。Google Cloud プロフェッショナル サービスをご利用いただくこともできます。

Google Cloud は、AccentureCapgeminiDeloitteKPMGPwCTata Consultancy Services などのグローバル システム インテグレーターと緊密に連携して、エンドツーエンドの移行を戦略的に計画して実行します。

移行の専門知識を有するパートナー(CognizantDatatonicDevoteamEPAM SystemsHCLTechInfosysKyndrylLTIMindtreeOnixPersistent SystemsPublicisSapientQodeaQuantiphiSearceTechMahindraTEKsystemsTredenceWiproZencore)と連携して作業を進めることができます。

EDWデータレイクの移行の計画、実行は、Google Cloud プロフェッショナル サービスにお任せください。高度な技術的専門知識を持つエキスパートがお客様の移行をサポートします。詳細は、Google Cloud コンサルティング サービスのページをご覧ください。

今すぐ移行に着手しましょう

AI を活用した移行サービスで Google Cloud への移行を加速しましょう。Spark ワークロードから企業のコアデータに至るまで幅広く対応します。

データ移行に関する質問

移行をご検討中ですか?Google のデータクラウドへの移行を検討しているお客様からよく寄せられる質問をいくつかご紹介します。

データ ワークロードを Google Cloud に移行すると、どのようなメリットがありますか?

データ ウェアハウスを BigQuery に移行することで、マルチモーダル データから最大限の価値を引き出すことができます。ユーザー フレンドリーなインターフェースで多様なデータ分析とレイクハウス ワークロードをサポートし、データ アナリスト、データ エンジニア、データ サイエンティストが同じ一連の管理対象データで作業できます。他のソリューションよりも費用対効果が高いため、AI でのエンタープライズ データの利用を検討している企業にとって賢明な選択肢となります。

Google が提供している移行支援サービスはありますか?

Google Cloud のデータ移行サービスは、最高水準の自動化、予測可能で上限のある費用で移行を合理化します。TCO を考慮した完全に自動化された評価により、データ プラットフォームの移行後の状態を予測し、移行計画を策定できます。Gemini で強化されたバッチ トランスレータインタラクティブ トランスレータを使用することで、15 以上のソースからコードを変換できます。インテリジェントなデータ移行検証により、モダナイズされたワークロードをすぐに利用できます。

Snowflake から BigQuery に移行するにはどうすればよいですか?

BigQuery は、費用対効果に優れた AI 対応のサーバーレスな統合データ プラットフォームを提供します。自動スケーリングにより、インフラストラクチャ管理のオーバーヘッドを排除し、費用を削減します。BigQuery は、Google Cloud の AI モデルやデベロッパー ツールとネイティブに���合されているため、AI を効率的にデータに適用でき、AI ユースケースを本番環境に確実に導入できます。Snowflake から BigQuery に移行する方法の詳細は、こちらのガイドをご覧ください。

Databricks から Google の Lakehouse に移行するにはどうすればよいですか?

Apache Iceberg 上に構築された Google Lakehouse に Databricks から移行し、BigQuery と Google Cloud Service for Managed Spark を単一の信頼できる情報源に統合することで、データ戦略を進化させます。この移行により、PySpark ワークロードを柔軟なサーバーレス インフラストラクチャ上でシームレスに実行できるようになるほか、データのサイロ化も解消できます。Spark SQL を BigQuery 標準 SQL にモダナイズすることで、パフォーマンスとガバナンスがより強化され、真にスケーラブルな次世代エコシステムが実現します。

Teradata から BigQuery に移行するにはどうすればよいですか?

BigQuery に移行することで、高度な分析、ML、リアルタイムの分析情報を実現する最新のスケーラブルで費用対効果の高いソリューションが得られます。BigQuery は、インフラストラクチャ管理が不要であり、需要に応じて自動的にスケールするため、チームはシステム メンテナンスではなくデータ分析に注力できます。さらに、BigQuery の従量課金制の料金モデルにより費用を削減できます。Teradata から BigQuery への移行のプロセスをまとめた包括的なガイドもご覧ください。


Cloudera から Spark ワークロードを移行するにはどうすればよいですか?

Cloudera Spark ワークロードを Google Managed Service for Apache Spark に移行することで、データ インフラストラクチャをモダナイズしましょう。この移行では、柔軟なサーバーレス クラスタや専用クラスタを通じて Hadoop のオーバーヘッドを解消し、Lightning Engine を利用して従来の JVM 実行速度を大幅に向上させます。秒単位の課金と自動スケーリングにより、バッチ パイプラインとストリーミング パイプラインが、エンタープライズ分析のための堅牢で費用対効果の高い基盤となります。

既存のレイクハウスを Google Cloud に移行するにはどうすればよいですか?

Google Cloud は、オープンかつ AI ネイティブなデータ レイクハウスの構築を可能にする、垂直統合された AI インフラストラクチャとエンドツーエンドのアーキテクチャを提供しています。レイクハウスを Google Cloud に移行するには、まず元データとオープン テーブル形式(Delta や Iceberg など)を Google Cloud Storage に移行することから着手します。Google Cloud Lakehouse を利用すれば、BigQuery と連携した高度な分析と優れた費用対効果を実現する、包括的なテーブル管理機能を利用できます。また、同じ Iceberg テーブル上で、Google の Managed Service for Apache Spark を利用して Spark ワークロードを実行できます。Knowledge Catalog を使用すると、メタデータを一元化でき、エージェント向けのエンドツーエンドのデータ ガバナンスとコンテキストを作成できます。

Google Cloud