Serverless Data Processing with Dataflow: Pipelines - 日本語版

Instructor: Google Cloud Training

What you'll learn

  •   Beam SDK を使用したパイプラインの開発
  • Skills you'll gain

  •   Dataflow
  •   Data Pipelines
  •   Jupyter
  •   Google Cloud Platform
  •   Data Processing
  •   Business Logic
  •   SQL
  •   Real Time Data
  •   Scalability
  •   Performance Tuning
  •   Data Transformation
  • There are 10 modules in this course

    Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。

    Beam のコンセプトの復習

    ウィンドウ、ウォーターマーク、トリガー

    ソースとシンク

    スキーマ

    State と Timer

    ベスト プラクティス

    Dataflow SQL と DataFrame

    Beam ノートブック

    概要

    ©2025  ementorhub.com. All rights reserved