Cloud Composer で実行されている有向非巡回グラフ (DAG) のコード用の CI'CD サイクルを作成しています。チームには 2 つの Cloud Composer インスタンスがあります。1 つは開発用、もう 1 つは本番環境用です。チームは Git リポジトリを使用して DAG のコードを保守および開発しています。特定のタグが Git リポジトリにプッシュされたときに、DAG を Cloud Composer に自動的にデプロイしたいと考えています。どうすればよいでしょうか。
A. 1 Cloud Build を使用して、DAG のコードを開発インスタンスの Cloud Storage バケットにコピーし、DAG テストを行います。
2. テストに合格したら、Cloud Build を使用して DAG のコードを含むコンテナをビルドし、KubernetesPodOperator を使用してコンテナを本番環境インスタンスの Google Kubernetes Engine(GKE)クラスタにデプロイします。
B. 1 Cloud Build を使用して、DAG のコードを開発インスタンスの Cloud Storage バケットにコピーし、DAG テストを行います。
2. テストに合格したら、Cloud Build を使用してコードを本番環境インスタンスのバケットにコピーします。
C. 1. Cloud Build を使用してコンテナを構築し、Kubemetes Pod Operator を使用して DAG のコードを開発インスタンスの Google Kubernetes Engine (GKE) クラスタにデプロイしてテストします。
2. テストに合格したら、コードを本番環境インスタンスの Cloud Storage バケットにコピーします。
D. 1 Cloud Build を使用して、DAG のコードと KubernetesPodOperator を含むコンテナを構築し、開発インスタンスの Google Kubernetes Engine(GKE)クラスタにコードをデプロイしてテストします。
2. テストに合格したら、KubernetesPodOperator を使用してコンテナを本番インスタンスの GKE クラスターにデプロイします。
正解:D
質問 2:
米国リージョンにあるすべてのデータを使用して、Google Cloud 上の BigQuery でリレーショナル データを保存して分析しています。また、米国リージョンにある Microsoft Azure と Amazon Web Services (AWS) にもさまざまなオブジェクト ストアがあります。データの移動をできるだけ少なくして、BigQuery のすべてのデータを毎日クエリしたいと考えています。どうすればよいでしょうか。
A. Azure と AWS から BigQuery にファイルを取り込むための Dataflow パイプラインを作成します。
B. BigQuery Omni 機能と BigLake テーブルを使用して、Azure および AWS 内のファイルをクエリします。
C. BigQuery Data Transfer Service を使用して、Azure および AWS から BigQuery にファイルを読み込みます。
D. Cloud Shell gautil rsync 引数を使用して、AWS および Azure から Cloud Storage にファイルを読み込みます。
正解:A
解説: (Pass4Test メンバーにのみ表示されます)
質問 3:
BigQuery オンデマンド環境を管理しています。ビジネス インテリジェンス ツールは、日レベルと月レベルで大規模な (50 TB) 販売履歴ファクト テーブルを集計するクエリを毎日何百も送信しています。これらのクエリの応答時間は遅く、コストの予想を超えています。応答時間を短縮し、クエリ コストを削減し、メンテナンスを最小限に抑える必要があります。どうすればよいでしょうか。
A. スケジュールされたクエリを作成して、売上日と売上月を 1 時間ごとに集計テーブルを作成します。
B. 売上テーブルの上に承認済みビューを構築し、日レベルと月レベルでデータを集計します。
C. 売上テーブルの上にマテリアライズド ビューを構築し、日レベルと月レベルでデータを集計します。
D. Bl Engine を有効にし、販売テーブルを優先テーブルとして追加します。
正解:C
解説: (Pass4Test メンバーにのみ表示されます)
質問 4:
組織では、マルチクラウド データ ストレージ戦略を採用しており、Cloud Storage にデータを保存し、Amazon Web Services (AWS) の S3 ストレージ バケットにデータを保存しています。すべてのデータは米国リージョンにあります。データがどのクラウドに保存されているかに関係なく、BigQuery を使用して最新のデータをクエリしたいと考えています。ストレージ バケット内のデータに直接アクセスすることなく、ユーザーが BigQuery からテーブルをクエリできるようにする必要があります。どうすればよいでしょうか。
A. Storage Transfer Service を使用して、AWS S3 バケットから Cloud Storage バケットにデータをコピーします。Cloud Storage データ上に BigLake テーブルを作成し、BigQuery を使用して直接データをクエリします。
B. Storage Transfer Service を使用して、AWS S3 バケットから Cloud Storage バケットにデータをコピーします。Cloud Storage データに対して外部テーブルを作成し、BigQuery を使用して直接データをクエリします。
C. AWS S3 バケット データへの BigQuery Omni 接続を設定し、Cloud Storage および S3 データ上に BigLake テーブルを作成し、BigQuery を使用して直接データをクエリします。
D. AWS S3 バケット データへの BigQuery Omni 接続を設定します。Cloud Storage および S3 データ上に外部テーブルを作成し、BigQuery を使用して直接データをクエリします。
正解:D
解説: (Pass4Test メンバーにのみ表示されます)
質問 5:
金融サービス会社はクラウド テクノロジーに移行しており、50 TB の金融時系列データをクラウドに保存したいと考えています。このデータは頻繁に更新され、常に新しいデータがストリーミングされます。また、このデータから洞察を得るために、既存の Apache Hadoop ジョブをクラウドに移行したいと考えています。
データを保存するためにどの製品を使用すればよいでしょうか?
A. Google クラウド ストレージ
B. クラウド ビッグテーブル
C. Google BigQuery
D. Google Cloud データストア
正解:B
質問 6:
「person」という列の中に「city」というネストされた列を含むテーブルがあり、BigQuery で次のクエリを送信しようとするとエラーが発生するとします。
`project1.example.table1` から person を選択し、city = "London" を指定します。
どのようにしてエラーを修正しますか?
A. 「person」を「city.person」に変更します。
B. WHERE 句の前に ", UNNEST(city)" を追加します。
C. WHERE句の前に「, UNNEST(person)」を追加します。
D. 「person」を「person.city」に変更します。
正解:C
解説: (Pass4Test メンバーにのみ表示されます)
質問 7:
外部の顧客が、データベースから毎日データをダンプして提供します。データは、カンマ区切り値 (CSV) ファイルとして Google Cloud Storage GCS に流れ込みます。このデータを Google BigQuery で分析したいのですが、データに形式が誤っている行や破損している行が含まれている可能性があります。このパイプラインをどのように構築すればよいでしょうか。
A. Google Cloud Dataflow バッチ パイプラインを実行してデータを BigQuery にインポートし、エラーを別のデッドレター テーブルにプッシュして分析します。
B. gcloud CLI を使用してデータを BigQuery にインポートし、max_bad_records を 0 に設定します。
C. Google Stackdriver で BigQuery モニタリングを有効にし、アラートを作成します。
D. フェデレーション データ ソースを使用し、SQL クエリでデータをチェックします。
正解:A
質問 8:
YARN ResourceManager と HDFS NameNode インターフェースは、Cloud Dataproc クラスタで利用できます ____。
A. 条件ノード
B. アプリケーションノード
C. ワーカーノード
D. マスターノード
正解:D
解説: (Pass4Test メンバーにのみ表示されます)
質問 9:
BigOuery の会社の customer_order テーブルには、1,000 万人の顧客の注文履歴が保存されており、テーブル サイズは 10 PB です。サポート チームが注文履歴を表示できるようにダッシュボードを作成する必要があります。ダッシュボードには、countryname と username の 2 つのフィルターがあります。どちらも BigQuery テーブル内の文字列データ型です。フィルターを適用すると、ダッシュボードはテーブルから注文履歴を取得し、クエリ結果を表示します。ただし、次のクエリにフィルターを適用すると、ダッシュボードに結果が表示されるまでに時間がかかります。

より高速なアクセスをサポートするには、BigQuery テーブルをどのように再設計すればよいでしょうか?
A. テーブルを国フィールドでクラスタ化し、ユーザー名フィールドでパーティション化します。
B. 国とユーザー名のフィールドごとにテーブルをクラスタ化する
C. テーブルを _PARTITIONTIME でパーティション分割します。
D. テーブルを国とユーザー名のフィールドでパーティション分割します。
正解:B
解説: (Pass4Test メンバーにのみ表示されます)
Misaki -
この問題集を購入し、約3週間ほぼ毎日学習し本日見事合格しました!
一通り、問題を解いて、模擬試験を繰り返しやりました。
次はProfessional-Data-Engineer日本語版に挑戦します!またよろしくお願いします。