Technology Blogs by SAP
Learn how to extend and personalize SAP applications. Follow the SAP technology blog for insights into SAP BTP, ABAP, SAP Analytics Cloud, SAP HANA, and more.
cancel
Showing results for 
Search instead for 
Did you mean: 
akaney
Product and Topic Expert
Product and Topic Expert
350

**本ブログはこちらのブログを参考に書かれたものです。

こちらは複製フローに関するブログシリーズの第3弾になります。

Part 1 : 複製フロー概要

Part 2 : デルタキャプチャと変換フロー

Part3:Google BigQueryをターゲットととした複製フロー(本ブログ)

Part4:Amazon S3をターゲットとした複製フロー 

Part5:複製フローのサイジング


SAP Datasphereではプレミアムアウトバウンドを使用することで、複製フローのターゲットにSAP以外のシステムを使用しデータを出力することが出来ます。

ブログシリーズ第1弾では複製フローの概要としてS/4HANAからSAP Datasphereへのテーブルの複製を行いましたが、本ブログではプレミアムアウトバウンドを使用してGoogle BigQueryをターゲットとしたデータの複製を行います。

Google BigQueryと連携した複製フローの作成


*複製フロー概要に関してはこちらのブログをご確認ください。

本ブログでは以下のようにSAP Datasphereをソースシステムとし、出力を行うソースオブジェクトを選択します。こちらではCustomerテーブル単体をソースオブジェクトとして選択していますが、複数テーブルを選択することも可能です。

ターゲット接続選択では既に作成されたGoogle BigQueryへの接続を使用します。Google BigQuery接続の作成に関してはこちらのブログをご参考下さい。

ターゲットシステムの選択に併せてターゲットコンテナを指定する必要がありますが、ここで参照しているターゲットコンテナは Google BigQueryでは「データセット」を指します。そのため、こちらでは接続を作成したGoogle BigQueryのプロジェクトに含まれるどのデータセットにデータを転送させるのかを選択します。

本ブログではmy_first_datasetを選択しています。
「設定メニュー」では複製フローのロードタイプの選択が可能ですが、「切り詰め」の設定はサポートされておりません。
ターゲットテーブルを選択すると、射影の「追加」が可能です。
ターゲットテーブルのスキーマには変更キャプチャを記録する以下の3つの列が自動的に追加されます。これらの列名や設定を変更することはできません。

    • Operation_flag
    • Recordstamp
    • Is_deleleted

 

デプロイおよび実行

左上の「一般」メニューより複製フローのデプロイおよび実行を開始します。

以下のようにフローモニタでの監視も可能です。フローモニタに関してはこちらのブログで紹介しておりますので、併せてご確認ください。

Google BigQuery エクスプローラでの確認

複製フローが正常終了すれば、Google BigQueryエクスプローラにアクセスし出力データを確認します。

ターゲットコンテナとして指定したmy_first_datasetを選択するとSAP Datapshereから複製したCustomerテーブルが生成されているのが確認できます。

「プレビュー」タブよりデータの確認をすると、データ転送に関する情報が記録されている3つの項目にもデータが挿入されているのがご確認頂けます。

SAP S/4HANAからの複製


SAP S/4HANAをソースシステムとして選択し、CDS viewの複製をGoogle BigQueryに作成することも可能です。作成方法や仕様はSAP Datasphereをソースシステムとする場合と同様です。

 

Tipsおよび制約など

    1. ターゲットコンテナの選択時にデータセットが表示されない場合は、接続情報にデータセットの「ロケーション」を追加していないことが1つの原因と考えられます。

以下のように、Google BigQueryでデータセット作成時に指定したリージョン名を控えておき、SAP Datasphereの接続情報に追加する必要があります。

既に作成された接続を編集する場合は「接続」メニューより編集したい接続を選択して「編集」をクリックすると編集画面へ遷移できます。

「ロケーション」欄に先程確認したデータのロケーション情報をコピー&ペーストで追加し「保存」します。

これによりターゲットコンテナの選択が可能となりますが、こちらで指定したロケーションのデータセットにのみ複製を作成することが可能となるため、異なるロケーションのデータセットをターゲットコンテナとする場合は①再度接続の編集を行うあるいは②新たな接続を作成する必要があります。

リモートテーブルの作成は指定したロケーションに依らず同じプロジェクト内であれば可能です。

    1. 他のスペースに共有されているデータを複製させることは出来ません。
    2. その他の考慮するべきいくつかの事項や制限はこちらをご確認ください。

さいごに

最後までご覧いただきありがとうございました!

本ブログは第3弾としてGoogle BigQueryをターゲットとした複製フローについてご紹介しました。複製フローシリーズは全5回でご紹介しております。そちらも併せてご確認頂けますと幸いです。

Part 1 : 複製フロー概要

Part 2 : デルタキャプチャと変換フロー

Part3:Google BigQueryをターゲットととした複製フロー(本ブログ)

Part4:Amazon S3をターゲットとした複製フロー 

Part 5:複製フローのサイジング

SAP Help Portal