Serverless Data Processing with Dataflow: Pipelines - 日本語版
Instructor: Google Cloud Training
What you'll learn
Skills you'll gain
There are 10 modules in this course
Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。
Beam のコンセプトの復習
ウィンドウ、ウォーターマーク、トリガー
ソースとシンク
スキーマ
State と Timer
ベスト プラクティス
Dataflow SQL と DataFrame
Beam ノートブック
概要
©2025 ementorhub.com. All rights reserved