Enroll Course: https://www.coursera.org/learn/batch-data-pipelines-gcp-br
こんにちは、皆さん!今日はCourseraで提供されている「Building Batch Data Pipelines on GCP em Português Brasileiro」コースについてご紹介します。このコースは、データエンジニアリングに関心がある方々にとって非常に役立つ内容です。
コースの概要
このコースでは、データパイプラインがどのように機能するか、そしてそれぞれのパラダイム(抽出・ロード、抽出・ロード・変換、抽出・変換・ロード)が適切に適用される状況について詳しく学びます。また、Google Cloudでデータを変換するためのさまざまな技術(BigQuery、DataprocでのSpark実行、Cloud Data Fusionでのパイプライン作成など)についても触れます。
シラバスの詳細
1. はじめに:コースの紹介とスケジュール
2. バッチデータパイプラインの作成の導入:EL、ELT、ETLの方法の違いと使用シーン
3. DataprocでのSparkの実行:Hadoopの実行方法、Cloud Storageの使用法、Dataprocジョブの最適化
4. Dataflowを使ったサーバーレスデータ処理:データ処理パイプラインの作成
5. Cloud Data FusionとCloud Composerによるデータパイプラインの管理:パイプラインの管理方法
6. コースのまとめ:学んだ内容の振り返り
推奨する理由
このコースは、実務に即した内容で、特にデータ処理やパイプラインの構築に必要なスキルを身につけるのに最適です。Google Cloudの技術を活用することで、実際のビジネスシーンでの適用が可能となるでしょう。また、ポルトガル語での講義も安心感があります。
このコースが気になる方は、ぜひCourseraで詳細を確認してみてください!
Enroll Course: https://www.coursera.org/learn/batch-data-pipelines-gcp-br