
複製フローに関するブログシリーズの第四弾です。
このブログでは、Part4 : Amazon S3をターゲットとした複製フロー についてご紹介します。
Part 1 : 複製フロー概要
Part 2 : デルタキャプチャと変換フロー
Part3:Google BigQueryをターゲットととした複製フロー
Part 4 : Amazon S3をターゲットとした複製フロー(本ブログ)
Part 5 : 複製フローのサイジング
SAP Datasphereではプレミアムアウトバウンドを使用することで、複製フローのターゲットにSAP以外のシステムを使用しデータを出力することが出来ます。
本ブログではプレミアムアウトバウンドを使用してAmazon S3をターゲットとしたデータの複製を行います。
*複製フロー概要に関してはこちらのブログをご確認ください。
本ブログでは以下のようにSAP Datasphereをソースシステムとし、出力を行うソースオブジェクトを選択します。今回はCustomers_2024テーブルとOrders_2023テーブルをソースオブジェクトとして選択しています。
ターゲット接続選択を押し、既に作成されたAmazon S3への接続を使用します。Amazon S3接続の作成に関してはこちらのブログをご参考ください。
ターゲットシステムの選択を押しターゲットコンテナを指定する必要がありますが、ここで参照しているターゲットコンテナは Amazon S3では「バケット」を指します。そのため、こちらでは接続を作成したAmazon S3のどのバケットにデータを転送させるのかを選択します。
今回はaws-s3-saptestを選択します。
「設定メニュー」では複製フローのロードタイプの選択(初期のみ or 初期およびデルタ)と、「切り詰め」の設定が可能です。
ターゲットテーブルを選択すると、射影の「追加」が可能です。
設定ボタンを押すと出力ファイル形式を選択できます。今回はCSVを選択します。
左上の「一般」メニューより複製フローのデプロイおよび実行を開始します。
データ統合モニタのフローモニタでの監視も可能です。フローモニタに関してはこちらのブログで紹介しておりますので、併せてご確認ください。
複製フローが正常終了すれば、Amazon S3にアクセスし出力データを確認できます。
ターゲットコンテナとして指定したaws-s3-saptestを選択するとCustomer_2024フォルダとOrders_2023フォルダが生成され、各フォルダ内にSAP Datapshereから複製したCSVファイルが作成されているのが確認できます。
SAP S/4HANAをソースシステムとして選択し、CDS viewの複製をAmazon S3に作成することも可能です。作成方法や仕様はSAP Datasphereをソースシステムとする場合と同様です。
今回はAmazon S3をターゲットとした複製フローについてご紹介しました。
シリーズの他のブログもお読みいただければ幸いです。
最後までご覧いただきありがとうございました!
SAP Help Portal ターゲットとしてのクラウドストレージプロバイダの使用
You must be a registered user to add a comment. If you've already registered, sign in. Otherwise, register and sign in.
User | Count |
---|---|
14 | |
13 | |
12 | |
9 | |
9 | |
6 | |
6 | |
6 | |
6 | |
5 |