トレーニング概要

受講日数 4日間
受講時間 09:30-17:30
受講形式
  • クラスルーム
  • オンライン
受講料(税込) 352,000円
(コースコード:GC-DEGCP)
言語 インストラクタ: 日本語
テキスト: 日本語
ラボガイド: English

トレーニング開催日時を確認

トレーニング内容

クラウド/仮想化

この 4 日間のクラスでは、Google Cloud でデータ パイプラインの設計および実践的な構築をハンズオンで学習します。講義、デモ、ハンズオンラボの組み合わせにより、データ処理システムの設計方法、データ パイプラインの構築方法、データの分析方法、およびインサイトの引き出し方を学びます。
Google Cloud でのデータ分析と機械学習について詳細に学ぶことができるコースですが、他の 2 コースに比べ内容はやや難しく、理解するためにはデータ分析や機械学習についての基礎知識が必要です。
基礎知識に自信がなければ、Google Cloud Big Data & Machine Learning Fundamentals もしくは From Data to Insights with Google Cloud を先にご受講されることをお勧めします。

トレーニング内容(PDF)

ここに注目!!

ワンポイントアドバイス

Google Cloud でデータ パイプラインの設計および実践的な構築をハンズオンで学習します。

受講対象者

このコースの受講対象者は次の通りです。
    このクラスは、次のようなビッグデータ分析を担当する開発者を対象としています。
    ・データの抽出、読み込み、変換、クリーニング、検証。
    ・データ処理のためのパイプラインとアーキテクチャの設計。
    ・機械学習と統計モデルの作成と維持。
    ・データセットのクエリ、クエリ結果の視覚化、レポートの作成。

前提条件

このコースを受講する前に受講者が習得しておく必要がある知識およびスキルは次のとおりです。
    このコースを最大限に活用するには、参加者は次の条件を満たしている必要があります。
    ・Google Cloud Big Data & Machine Learning Fundamentals を受講しているか、同等の経験があること。
    ・データモデリング、抽出、変換などのSQLエクスペリエンスの基本的な知識。
    ・Python などの一般的なプログラミング言語を使用した開発知識。
    学習内容の詳細

目的

このコースを修了すると次のことができるようになります。
  • ● Google Cloud でデータ処理システムを設計して構築する
    ● BigQuery を使用して非常に大規模なデータセットからビジネスインサイトを引き出す
    ● Cloud Dataflow で自動スケーリングデータパイプラインを実装し、バッチデータとストリーミングデータを処理する
    ● Cloud Dataproc を使用して、既存の Hadoop ワークロードをクラウドにリフト&シフトする
    ● BigQuery ML を使用してさまざまな種類の ML モデルを構築する方法を学ぶ
    ● 構築済み ML API を使用して非構造化データを活用する方法を学ぶ
    ● Cloud AutoML を使用してコーディングなしで高度なモデルを作成する方法を学ぶ

アウトライン

    学習内容
    モジュール1:データエンジニアリングの概要
    モジュール2:データレイクの構築
    モジュール3:データウェアハウスの構築
    モジュール4:バッチデータパイプラインの構築の概要
    モジュール5:Dataproc での Spark の実行
    モジュール6:Dataflow を使用したサーバーレスデータ処理
    モジュール7:Cloud Data Fusion と Cloud Composer を使用したデータパイプラインの管理
    モジュール8:ストリーミングデータの処理の概要
    モジュール9:Pub / Sub を使用したサーバーレスメッセージング
    モジュール10:Dataflow のストリーミング機能
    モジュール11:高スループットの BigQuery と Bigtable ストリーミング機能
    モジュール12:高度な BigQuery の機能とパフォーマンス
    モジュール13:分析と AI:はじめに
    モジュール14:非構造化データ用の事前構築済み ML モデル API
    モジュール15:Notebooks を使用したビッグデータ分析
    モジュール16:Kubeflow を使用した本番環境の ML パイプライン
    モジュール17:BigQuery ML で SQL を使用したカスタムモデルの構築
    モジュール18:AutoML を使用したカスタムモデルの構築

    実習/演習内容詳細
    演習/デモ内容
    ラボ1:BigQuery を使用したデータの分析
    ラボ2:Cloud SQL へのタクシーデータの読み込み
    ラボ3:BigQuery へのデータの読み込み
    ラボ4:BigQuery での JSON や配列データの操作
    ラボ5:Dataproc での Apache Spark ジョブを実行
    ラボ6:Cloud Data Fusion でパイプライングラフを作成して実行する
    ラボ7:Cloud Composerの概要
    ラボ8:シンプルな Dataflow パイプライン(Python / Java)
    ラボ9:Beam での MapReduce(Python / Java)
    ラボ10:副入力(Python / Java)
    ラボ11:Pub/Sub へのストリーミングデータのパブリッシュ
    ラボ12:ストリーミングデータ パイプライン
    ラボ13:ストリーミング分析とダッシュボード
    ラボ14:Bigtable へのストリーミングデータパイプライン
    ラボ15:BigQuery クエリを最適化してパフォーマンスを高める
    ラボ(オプション):BigQuery のパーティション分割テーブル
    ラボ16:Natural Language API を使用した非構造化テキストの分類
    ラボ17:Vertex AIの JupyterLab で BigQuery を利用する
    ラボ18:Kubeflow での ML パイプラインの実行
    ラボ(オプション):BQML の回帰モデルを使用した自転車レンタル時間の予測
    ラボ(オプション):BigQuery ML を使用した映画のレコメンデーション

    重要なご連絡・ご確認事項
    ※下記の事前必須手続きが完了していない場合は、ご受講頂けませんのでご注意ください。本手続きが完了しておらず、当日ご受講頂けなかった際は有償キャンセルとなります※

    【ご受講前の必須手続き】
    ご受講日までに、下記リンクよりプライバシーポリシー及び利用規約にご同意の上、トレーニングシステム「Qwiklabs」のアカウントを作成ください。
    Qwiklabsアカウントとコース申込時の受講者メールアドレスは、同一のメールアドレスをご使用ください。
    https://trainocate.qwiklabs.com/?locale=ja
    自動返信メールにはglobalknowledge-jp.qwiklabs.comからアクセスしてくださいと表示される場合がありますが、同じサイトであるため問題ありません。
    既にtrainocate.qwiklabs.comのQwiklabsアカウントをお持ちの方は再作成の必要はございません。

    ※受講証明書発行条件は、全日程の80%以上の出席率または、最低80%以上のラボの完了が必須となりますのでご注意ください※

    【本コースはオンライン対応です】※一部日程をオンラインで開催しています
    会場が「オンラインLive」または「教室Live配信」の日程は、PCやタブレット等を通してオンラインでご参加いただけます。

    オンラインLive:受講者の方はオンラインのみとなります。
    教室Live配信:教室・オンラインから受講される方が混在します。

    ★オンラインLiveトレーニングの詳細はこちら
    https://www.trainocate.co.jp/gkservices/online-training.html

試験や資格との関連

ご注意・ご連絡事項

本トレーニングコースには、申し込み手続き期限、キャンセル、日程変更に関する扱いが定められています。
  • 申し込み手続き期限: コース開始日の12営業日前までとします。期限後のお申し込みを検討されている場合は 「お問い合わせ」(https://www.topout.co.jp/inquiry) からご相談ください。
  • キャンセル: コース開始日の11営業日前以降のお申し出の場合は、代金を全額お支払いいただきます。
  • 日程変更: コース開始日の11営業日前以降のお申し出は、受付いたしかねます。

トレーニング開催日時

コースの日程が決定次第、ご案内いたします。
詳しくはお問い合わせください。

サポートコンテンツ