Sap-bods-quick-guide
DW-概要
データウェアハウスは、1つまたは複数の異種データソースからのデータを格納する中央リポジトリとして知られています。 データウェアハウスは、情報のレポートと分析に使用され、履歴データと現在のデータの両方を保存します。 DWシステムのデータは分析レポートに使用され、後でビジネスアナリスト、セールスマネージャー、またはナレッジワーカーが意思決定に使用します。
DWシステムのデータは、営業、マーケティング、HR、SCMなどの運用トランザクションシステムからロードされます。 情報処理のためにDWシステムにロードされる前に、運用データストアまたはその他の変換を通過する場合があります。
データウェアハウス-主な機能
DWシステムの主要な機能は次のとおりです-
- これは、1つ以上の異種データソースからデータが保存される中央データリポジトリです。
- DWシステムは、現在のデータと履歴データの両方を保存します。 通常、DWシステムは5〜10年の履歴データを保存します。
- DWシステムは、常に操作可能なトランザクションシステムから分離されています。
- DWシステムのデータは、四半期ごとの比較から年次の比較まで、さまざまなタイプの分析レポートに使用されます。
DWシステムの必要性
マーケティング、販売、ERP、HRM、MMなどの複数のアプリケーションからデータが送られてくる住宅ローン会社があるとします。 このデータは抽出され、変換され、データウェアハウスにロードされます。
たとえば、製品の四半期/年次売上を比較する必要がある場合、業務トランザクションデータベースを使用することはできません。トランザクションデータベースがハングするためです。 したがって、この目的にはデータウェアハウスが使用されます。
DWとODBの違い
データウェアハウスと運用データベース(トランザクションデータベース)の違いは次のとおりです-
- トランザクションシステムは、ユーザーレコードの更新、レコードの検索などの既知のワークロードおよびトランザクション用に設計されています。 ただし、データウェアハウストランザクションはより複雑で、一般的な形式のデータを提供します。
- トランザクションシステムには組織の現在のデータが含まれ、データウェアハウスには通常、履歴データが含まれます。
- トランザクションシステムは、複数のトランザクションの並列処理をサポートしています。 データベースの一貫性を維持するには、同時実行制御とリカバリのメカニズムが必要です。
- オペレーションデータベースクエリでは、操作の読み取りと変更(削除と更新)が可能ですが、OLAPクエリでは、保存されたデータの読み取り専用アクセスのみが必要です(Selectステートメント)。
DWアーキテクチャ
データウェアハウジングには、データクリーニング、データ統合、およびデータ統合が含まれます。
データウェアハウスには、データソースレイヤー、統合レイヤー、*プレゼンテーションレイヤー*の3層アーキテクチャがあります。 上記の図は、データウェアハウスシステムの一般的なアーキテクチャを示しています。
DW-タイプ
データウェアハウジングシステムには4つのタイプがあります。
- データ市場
- オンライン分析処理(OLAP)
- オンライントランザクション処理(OLTP)
- 予測分析(PA)
データ市場
データマートは、データウェアハウスシステムの最も単純な形式として知られており、通常、販売、財務、マーケティングなどの組織内の単一の機能領域で構成されています。
組織内のデータマートであり、単一の部門によって作成および管理されます。 単一の部門に属しているため、通常、部門は少数または1つのタイプのソース/アプリケーションからのみデータを取得します。 このソースは、内部運用システム、データウェアハウス、または外部システムです。
オンライン分析処理
OLAPシステムでは、トランザクションシステムに比べてトランザクションの数が少なくなります。 実行されるクエリは本質的に複雑であり、データの集約を伴います。
集約とは何ですか?
年(1行)、四半期(4行)、月(12行)などの集計データでテーブルを保存します。誰かが年ごとの比較を行う必要がある場合、1行のみが処理されます。 ただし、非集計テーブルでは、すべての行を比較します。
SELECT SUM(salary)
FROM employee
WHERE title = 'Programmer';
OLAPシステムでの効果的な測定
応答時間は、 OLAP システムで最も効果的で重要な指標の1つとして知られています。 集計された保存データは、スタースキーマなどの多次元スキーマで保持されます(データは、多くの場合ディメンションと呼ばれる階層グループ、およびファクトと集計ファクトに配置される場合、スキーマと呼ばれます)。
OLAPシステムの待ち時間は、1日近くの待ち時間が予想されるデータマートと比較して、数時間です。
オンライントランザクション処理
OLTPシステムには、INSERT、UPDATE、DELETEなどの多数の短いオンライントランザクションがあります。
OLTPシステムでは、効果的な尺度は短いトランザクションの処理時間であり、非常に短いです。 マルチアクセス環境でデータの整合性を制御します。 OLTPシステムの場合、1秒あたりのトランザクション数は*有効性*を測定します。 OLTPデータウェアハウスシステムには、現在の詳細データが含まれており、エンティティモデル(3NF)のスキーマで維持されます。
例
顧客レコードが毎日挿入、更新、削除される小売店の日々の取引システム。 非常に高速なクエリ処理を提供します。 OLTPデータベースには、詳細で最新のデータが含まれています。 OLTPデータベースの保存に使用されるスキーマは、エンティティモデルです。
OLTPとOLAPの違い
次の図は、 OLTP システムと OLAP システムの主な違いを示しています。
- インデックス-OLTPシステムにはインデックスがほとんどありませんが、OLAPシステムにはパフォーマンスを最適化するためのインデックスが多数あります。
- 結合-OLTPシステムでは、多数の結合とデータが正規化されます。 ただし、OLAPシステムでは結合が少なくなり、非正規化されます。
- 集計-OLTPシステムでは、データは集計されませんが、OLAPデータベースではより多くの集計が使用されます。
予測分析
予測分析は、さまざまな数学関数を使用して将来の結果を予測することにより、DWシステムに格納されたデータの隠れたパターンを見つけることとして知られています。
Predictive Analysisシステムは、OLAPシステムとは使用方法が異なります。 将来の結果に焦点を合わせるために使用されます。 OALPシステムは、分析レポートの現在および過去のデータ処理に焦点を当てています。
DW-製品およびベンダー
市場には、DWシステムの機能を満たすさまざまなデータウェアハウス/データベースシステムがあります。 データウェアハウスシステムの最も一般的なベンダーは次のとおりです-
- Microsoft SQL Server
- Oracle Exadata
- IBM Netezza
- 寺田
- Sybase IQ
- SAPビジネスウェアハウス(SAP BW)
SAPビジネスウェアハウス
*SAP Business Warehouse* は、SAP NetWeaverリリースプラットフォームの一部です。 NetWeaver 7.4より前は、SAP NetWeaver Business Warehouseと呼ばれていました。
SAP BWのデータウェアハウジングとは、データの統合、変換、データのクレンジング、保存、およびデータのステージングを意味します。 DWプロセスには、BWシステムでのデータモデリング、ステージング、および管理が含まれます。 BWシステムでDWタスクを管理するために使用されるメインツールは、管理ワークベンチです。
主な機能
- SAP BWは、分析サービスと事業計画、分析レポート、クエリ処理と情報、エンタープライズデータウェアハウジングなどのビジネスインテリジェンスなどの機能を提供します。
- 意思決定に役立つデータベースとデータベース管理ツールの組み合わせを提供します。
- BWシステムの他の主要な機能には、非SAP R/3アプリケーションへの接続をサポートするビジネスアプリケーションプログラミングインターフェース(BAPI)、自動化されたデータ抽出および読み込み、統合OLAPプロセッサ、メタデータリポジトリ、管理ツール、多言語サポート、およびWeb対応インターフェース。
- SAP BWは、1998年にドイツの会社であるSAPによって初めて導入されました。 SAP BWシステムは、モデル駆動型のアプローチに基づいており、SAP R3データに対してエンタープライズデータウェアハウスを簡単、シンプル、より効率的にしています。
- 過去16年間、SAP BWは、多くの企業がエンタープライズデータウェアハウジングのニーズを管理するための重要なシステムの1つとして進化してきました。 Business Explorer (BEx)*は、社内での柔軟なレポート作成、戦略的分析、運用レポート作成のオプションを提供します。
- BIシステムでレポート、クエリ実行、分析機能を実行するために使用されます。 また、WebおよびExcel形式で、さまざまな詳細度までの現在および過去のデータを処理できます。
- BEx 情報ブロードキャストを使用すると、BIコンテンツをドキュメントとして電子メールで共有したり、ライブデータとしてリンクの形式で共有したり、SAP EP機能を使用して公開したりできます。
ビジネスオブジェクトと製品
SAP Business Objectsは最も一般的なビジネスインテリジェンスツールとして知られており、さまざまなプラットフォームでデータの操作、ユーザーアクセス、分析、フォーマット、および情報の公開に使用されます。 フロントエンドベースのツールセットであり、ビジネスユーザーと意思決定者がビジネスインテリジェンスの現在および過去のデータを表示、並べ替え、分析できるようにします。
それは次のツールで構成されています-
Web Intelligence
Web Intelligence(WebI)は、ドリル、階層、チャート、計算メジャーなどのデータ分析のさまざまな機能をサポートする最も一般的なBusiness Objects詳細レポートツールと呼ばれます。 エンドユーザーはクエリパネルでアドホッククエリを作成し、オンラインとオフラインの両方でデータ分析を実行できます。
SAP Business Objects Xcelsius/ダッシュボード
ダッシュボードは、データの視覚化とダッシュボード機能をエンドユーザーに提供し、このツールを使用してインタラクティブなダッシュボードを作成できます。
また、さまざまな種類のチャートやグラフを追加したり、データを視覚化するための動的なダッシュボードを作成したりできます。これらは主に組織の財務会議で使用されます。
クリスタルレポート
Crystal Reportsは、ピクセル単位の完全なレポートに使用されます。 これにより、ユーザーはレポートを作成および設計し、後で印刷目的で使用できます。
冒険者
Explorerを使用すると、ユーザーはBIリポジトリのコンテンツを検索でき、最適な一致がチャートの形式で表示されます。 検索を実行するためにクエリを書き留める必要はありません。
詳細なレポート、データの視覚化、ダッシュボードの目的で導入されたその他のさまざまなコンポーネントとツールは、Design Studio、Microsoft Office用のAnalysisエディション、BIリポジトリ、およびBusiness Objectsモバイルプラットフォームです。
ETL-はじめに
ETLはExtract、Transform、Loadの略です。 ETLツールは、さまざまなRDBMSソースシステムからデータを抽出し、計算の適用、連結などのデータを変換します。 データをデータウェアハウスシステムにロードします。 データは、ディメンションテーブルとファクトテーブルの形式でDWシステムにロードされます。
抽出
- ETLロード時にはステージング領域が必要です。 ステージング領域が必要な理由はさまざまです。
- ソースシステムは、データを抽出するために特定の期間のみ利用可能です。 この期間は、データのロード時間の合計よりも短くなります。 したがって、ステージング領域を使用すると、ソースシステムからデータを抽出し、タイムスロットが終了する前にステージング領域に保持できます。
- 複数のデータソースからデータを取得する場合、または2つ以上のシステムを結合する場合は、ステージング領域が必要です。 たとえば、物理的に異なる2つのデータベースの2つのテーブルを結合するSQLクエリを実行することはできません。
- 異なるシステムのデータ抽出のタイムスロットは、タイムゾーンと運用時間によって異なります。
- ソースシステムから抽出されたデータは、複数のデータウェアハウスシステム、オペレーションデータストアなどで使用できます。
- ETLを使用すると、複雑な変換を実行でき、データを保存するための追加の領域が必要になります。
変換する
データ変換では、抽出されたデータに一連の関数を適用して、ターゲットシステムにロードします。 変換を必要としないデータは、直接移動またはパススルーデータとして知られています。
ソースシステムから抽出したデータにさまざまな変換を適用できます。 たとえば、カスタマイズした計算を実行できます。 売上合計が必要で、これがデータベースにない場合は、変換中に SUM 式を適用してデータをロードできます。
たとえば、テーブルに異なる列の名と姓がある場合、ロードする前に連結を使用できます。
Load
ロード段階では、データはエンドターゲットシステムにロードされ、フラットファイルまたはデータウェアハウスシステムになります。
SAP BODS-概要
SAP BO Data Servicesは、データ統合、データ品質、データプロファイリング、およびデータ処理に使用されるETLツールです。 分析レポートのために、信頼できるデータからデータウェアハウスシステムを統合、変換できます。
BO Data Servicesは、UI開発インターフェイス、メタデータリポジトリ、ソースおよびターゲットシステムへのデータ接続、ジョブのスケジューリング用の管理コンソールで構成されています。
データ統合とデータ管理
SAP BO Data Servicesはデータ統合および管理ツールであり、Data Integrator Job ServerおよびData Integrator Designerで構成されています。
主な機能
- Data Integrator言語を使用してさまざまなデータ変換を適用し、複雑なデータ変換を適用し、カスタマイズされた機能を構築できます。
- Data Integrator Designerを使用して、リアルタイムおよびバッチジョブと新しいプロジェクトをリポジトリに保存します。
- DI Designerは、中央リポジトリにすべての基本機能を提供することにより、チームベースのETL開発のオプションも提供します。
- Data Integratorジョブサーバーは、DI Designerを使用して作成されたジョブを処理します。
Web管理者
Data Integrator Web管理者は、システム管理者およびデータベース管理者がData Servicesのリポジトリを管理するために使用します。 Data Servicesには、メタデータリポジトリ、チームベース開発用の中央リポジトリ、Job ServerおよびWebサービスが含まれます。
DI Web Administratorの主な機能
- バッチジョブのスケジュール、監視、および実行に使用されます。
- これは、リアルタイムサーバーの構成と起動と停止に使用されます。
- Job Server、Access Server、およびリポジトリの使用を構成するために使用されます。
- アダプタの構成に使用されます。
- BO Data Servicesのすべてのツールを構成および制御するために使用されます。
データ管理機能は、データ品質を重視しています。 DWシステムで正しいデータを取得するために、データのクレンジング、強化、統合が含まれます。
SAP BODS-アーキテクチャ
この章では、SAP BODSアーキテクチャについて学習します。 この図は、ステージング領域を備えたBODSシステムのアーキテクチャを示しています。
ソースレイヤー
ソースレイヤーには、SAPアプリケーションや非SAP RDBMSシステムなどのさまざまなデータソースが含まれ、データ統合はステージングエリアで行われます。
SAP Business Objects Data Servicesには、Data Service Designer、Data Services Management Console、Repository Manager、Data Services Server Manager、Work benchなどのさまざまなコンポーネントが含まれています。 ターゲットシステムは、SAP HANA、SAP BW、または非SAPデータウェアハウスシステムなどのDWシステムにすることができます。
次のスクリーンショットは、SAP BODSのさまざまなコンポーネントを示しています。
また、次の層でBODSアーキテクチャを分割することができます-
- Webアプリケーション層
- データベースサーバー層 *データサービスサービスレイヤー
次の図は、BODSアーキテクチャを示しています。
製品の進化– ATL、DI、DQ
Acta Technology Inc. SAP Business Objects Data Servicesを開発し、後にBusiness Objects Companyが買収しました。 Acta Technology Inc. 米国に拠点を置く会社であり、最初のデータ統合プラットフォームの開発を担当しました。 Acta Inc.が開発した2つのETLソフトウェア製品* データ統合(DI)ツールと*データ管理*または*データ品質( DQ )ツールでした。
フランスの企業であるBusiness Objectsは、Acta Technology Incを買収しました。 2002年以降、両製品は* Business Objects Data Integration(BODI)ツールおよび Business Objects Data Quality(BODQ)*ツールに名前が変更されました。
SAPは2007年にBusiness Objectsを買収し、両製品はSAP BODIおよびSAP BODQに名前が変更されました。 2008年、SAPは両方の製品をSAP Business Objects Data Services(BODS)という名前の単一のソフトウェア製品に統合しました。
SAP BODSは、データ統合およびデータ管理ソリューションを提供し、BODSの以前のバージョンには、テキストデータ処理ソリューションが含まれていました。
BODS –オブジェクト
BO Data Services Designerで使用されるすべてのエンティティは、*オブジェクト*と呼ばれます。 プロジェクト、ジョブ、メタデータ、システム関数などのすべてのオブジェクトは、ローカルオブジェクトライブラリに保存されます。 すべてのオブジェクトは本質的に階層的です。
オブジェクトには主に次のものが含まれています-
- プロパティ-オブジェクトを説明するために使用され、その操作には影響しません。 例-オブジェクトの名前、作成された日付など
- オプション-オブジェクトの操作を制御します。
オブジェクトの種類
システムには、再利用可能なオブジェクトと使い捨てのオブジェクトの2種類のオブジェクトがあります。 オブジェクトのタイプによって、そのオブジェクトの使用方法と取得方法が決まります。
再利用可能なオブジェクト
リポジトリに格納されているほとんどのオブジェクトは再利用できます。 再利用可能なオブジェクトが定義され、ローカルリポジトリに保存されると、定義への呼び出しを作成してオブジェクトを再利用できます。 各再利用可能なオブジェクトには1つの定義しかなく、そのオブジェクトへのすべての呼び出しはその定義を参照します。 これで、ある場所でオブジェクトの定義が変更された場合、そのオブジェクトが表示されるすべての場所でオブジェクト定義を変更することになります。
オブジェクトライブラリを使用してオブジェクト定義を格納し、オブジェクトをライブラリからドラッグアンドドロップすると、既存のオブジェクトへの新しい参照が作成されます。
シングルユースオブジェクト
ジョブまたはデータフロー専用に定義されているすべてのオブジェクトは、使い捨てオブジェクトと呼ばれます。 たとえば、データロードで使用される特定の変換。
BODS –オブジェクト階層
すべてのオブジェクトは本質的に階層的です。 次の図は、SAP BODSシステムのオブジェクト階層を示しています-
BODS-ツールと機能
以下に示すアーキテクチャに基づいて、SAP Business Objects Data Servicesには多くのツールが定義されています。 各ツールには、システムランドスケープごとに独自の機能があります。
上部には、ユーザーおよび権利のセキュリティ管理用にインストールされた情報プラットフォームサービスがあります。 BODSは、ユーザーアクセスとセキュリティ機能を中央管理コンソール( CMC )に依存しています。 これは、4.xバージョンに適用されます。 前のバージョンでは、管理コンソールで行われていました。
SAP BODS-データサービスデザイナー
Data Services Designerは、データマッピング、変換、およびロジックで構成されるオブジェクトを作成するために使用される開発者ツールです。 GUIベースであり、Data Servicesのデザイナーとして機能します。
リポジトリ
リポジトリは、BO Data Servicesで使用されるオブジェクトのメタデータを格納するために使用されます。 各リポジトリは、セントラル管理コンソールに登録する必要があり、作成されたジョブを実行する単一または複数のジョブサーバーにリンクされます。
リポジトリの種類
リポジトリには3つのタイプがあります。
- ローカルリポジトリ-プロジェクト、ジョブ、データフロー、ワークフローなど、Data Services Designerで作成されたすべてのオブジェクトのメタデータを格納するために使用されます。
- 中央リポジトリ-オブジェクトのバージョン管理を制御するために使用され、多目的開発に使用されます。 中央リポジトリには、アプリケーションオブジェクトのすべてのバージョンが格納されます。 したがって、以前のバージョンに移行できます。
- プロファイラリポジトリ-これは、SAP BODSデザイナーで実行されるプロファイラタスクに関連するすべてのメタデータを管理するために使用されます。 CMSリポジトリには、BIプラットフォームのCMCで実行されるすべてのタスクのメタデータが保存されます。 Information Steward Repositoryは、Information Stewardで作成されたプロファイリングタスクおよびオブジェクトのすべてのメタデータを保存します。
Job Server
Job Serverは、ユーザーが作成したリアルタイムおよびバッチジョブを実行するために使用されます。 各リポジトリからジョブ情報を取得し、データエンジンを開始してジョブを実行します。 Job Serverは、リアルタイムジョブまたはスケジュールされたジョブを実行でき、メモリキャッシングでのマルチスレッドと並列処理を使用してパフォーマンスを最適化します。
アクセスサーバー
Data ServicesのAccess Serverはリアルタイムメッセージブローカーシステムと呼ばれ、メッセージリクエストを受け取り、リアルタイムサービスに移動して、特定の時間枠でメッセージを表示します。
データサービス管理コンソール
データサービス管理コンソールは、ジョブのスケジューリング、DSシステムでの品質レポートの生成、データ検証、ドキュメント化などの管理アクティビティを実行するために使用されます。
BODS –命名基準
すべてのシステムのすべてのオブジェクトに標準の命名規則を使用することをお勧めします。これにより、リポジトリ内のオブジェクトを簡単に識別できるようになります。
この表は、すべてのジョブおよびその他のオブジェクトに使用する推奨命名規則のリストを示しています。
Prefix | Suffix | Object |
---|---|---|
DF_ | n/a | Data Flow |
EDF_ | _Input | Embedded data flow |
EDF_ | _Output | Embedded data flow |
RTJob_ | n/a | Real-time job |
WF_ | n/a | Work flow |
JOB_ | n/a | Job |
n/a | _DS | Datastore |
DC_ | n/a | Data configuration |
SC_ | n/a | System configuration |
n/a | _Memory_DS | Memory datastore |
PROC_ | n/a | Stored procedure |
SAP BODS-リポジトリの概要
BO Data Serviceの基本には、プロジェクト、ジョブ、ワークフロー、データフロー、リポジトリなどのワークフローの設計における主要なオブジェクトが含まれます。
BODS –リポジトリとタイプ
リポジトリは、BO Data Servicesで使用されるオブジェクトのメタデータを格納するために使用されます。 各リポジトリは、セントラル管理コンソール(CMC)に登録する必要があり、作成されたジョブを実行する単一または多数のジョブサーバーにリンクされます。
リポジトリの種類
リポジトリには3つのタイプがあります。
- ローカルリポジトリ-プロジェクト、ジョブ、データフロー、ワークフローなど、Data Services Designerで作成されたすべてのオブジェクトのメタデータを格納するために使用されます。
- 中央リポジトリ-オブジェクトのバージョン管理を制御するために使用され、多目的開発に使用されます。 中央リポジトリには、アプリケーションオブジェクトのすべてのバージョンが格納されます。 したがって、以前のバージョンに移行できます。
- プロファイラリポジトリ-これは、SAP BODSデザイナーで実行されるプロファイラタスクに関連するすべてのメタデータを管理するために使用されます。 CMSリポジトリには、BIプラットフォームのCMCで実行されるすべてのタスクのメタデータが保存されます。 Information Steward Repositoryは、Information Stewardで作成されたプロファイリングタスクおよびオブジェクトのすべてのメタデータを保存します。
SAP BODS-リポジトリの作成と更新
BODSリポジトリを作成するには、データベースをインストールする必要があります。 SQL Server、Oracleデータベース、My SQL、SAP HANA、Sybaseなどを使用できます。
リポジトリの作成
BODSのインストール中にデータベースに次のユーザーを作成し、リポジトリを作成する必要があります。 これらのユーザーは、CMSサーバー、監査サーバーなどのさまざまなサーバーにログインする必要があります。
Bodsserver1によって識別されるユーザーBODSの作成
- BODSへの接続を許可します。
- BODSにセッション作成を許可します。
- BOAにDBAを付与します。
- BODSにテーブルの作成を許可します。
- ビューの作成をBODSに付与します。
- BODSに任意のテーブルのドロップを許可します。
- BODSに任意のビューのドロップを許可します。
- BODSにInsert Anyテーブルを付与します。
- BODSに任意のテーブルの更新を許可します。
- BODSにテーブルの削除を許可します。
- USER BODS QUOTA UNLIMITED USERSを変更します。
CMSserver1によって識別されるユーザーCMSの作成
- CMSへの接続を許可します。
- セッションの作成をCMSに許可します。
- CMSにDBAを付与します。
- CMSにテーブルの作成を許可します。
- ビューの作成をCMSに許可します。
- 任意のテーブルのドロップをCMSに許可します。
- ビューのドロップをCMSに許可します。
- 任意のテーブルの挿入をCMSに許可します。
- すべてのテーブルの更新をCMSに許可します。
- CMSにテーブルの削除を許可します。
- USER CMS QUOTA UNLIMITED USERSを変更します。
CMSAUDITserver1によって識別されるユーザーCMSAUDITの作成
- CMSAUDITへの接続を許可します。
- CMSAUDITにセッション作成を許可します。
- CMSAUDITにDBAを付与します。
- CMSAUDITにテーブルの作成を許可します。
- ビューの作成をCMSAUDITに付与します。
- CMSAUDITに任意のテーブルのドロップを許可します。
- CMSAUDITに任意のビューのドロップを許可します。
- CMSAUDITにInsert Anyテーブルを付与します。
- CMSAUDITに任意のテーブルの更新を許可します。
- CMSAUDITにテーブルの削除を許可します。
- USER CMSAUDIT QUOTA UNLIMITED USERSを変更します。
インストール後に新しいリポジトリを作成するには
ステップ1 *-データベース *Local_Repo を作成し、Data Services Repository Managerに移動します。 データベースをローカルリポジトリとして構成します。
新しいウィンドウが開きます。
- ステップ2 *-次のフィールドに詳細を入力します-
リポジトリタイプ、データベースタイプ、データベースサーバー名、ポート、ユーザー名、パスワード。
- ステップ3 *-*作成*ボタンをクリックします。 次のメッセージが表示されます-
ステップ4 *-ユーザー名とパスワードを使用して、 SAP BIプラットフォーム*のセントラル管理コンソールCMCにログインします。
ステップ5 *-CMCホームページで、[*データサービス]をクリックします。
ステップ6 *- *Data Services メニューから、 Configure a new Data Services Repositoryをクリックします。
- ステップ7 *-新しいウィンドウに表示される詳細を入力します。
- リポジトリ名:Local_Repo
- データベースタイプ:SAP HANA
- データベースサーバー名:最高
- データベース名:LOCAL_REPO
- ユーザー名:
- パスワード:*
- ステップ8 *-ボタン*テスト接続*をクリックし、成功したら*保存*をクリックします。 保存すると、CMCの[リポジトリ]タブに表示されます。
ステップ9 *- CMC→ユーザーとグループ*のローカルリポジトリにアクセス権とセキュリティを適用します。
- ステップ10 *-アクセスが与えられたら、Data Services Designer→リポジトリの選択→ログインするユーザー名とパスワードを入力します。
リポジトリの更新
リポジトリを更新するには、所定の手順に従います。
ステップ1 *-インストール後にリポジトリを更新するには、データベース *Local_Repo を作成し、Data Services Repository Managerに移動します。
- ステップ2 *-ローカルリポジトリとしてデータベースを構成します。
新しいウィンドウが開きます。
- ステップ3 *-次のフィールドに詳細を入力します。
リポジトリタイプ、データベースタイプ、データベースサーバー名、ポート、ユーザー名、パスワード。
次のスクリーンショットに示すように、出力が表示されます。
データサービス管理コンソール
データサービス管理コンソール(DSMC)は、ジョブのスケジューリング、DSシステムでの品質レポートの生成、データ検証、ドキュメント化などの管理アクティビティを実行するために使用されます。
次の方法でData Services管理コンソールにアクセスできます-
- スタート→すべてのプログラム→データサービス→データサービス管理コンソール*に移動して、データサービス管理コンソールにアクセスできます。
すでにログインしている場合は、 Designer を介してデータサービス管理コンソールにアクセスすることもできます。
- Designerホームページ*を介してデータサービス管理コンソールにアクセスするには、以下の手順に従います。
ツールを介してデータサービス管理コンソールにアクセスするには、所定の手順に従ってください-
- ステップ1 *-次の画像に示すように、[ツール]→[データサービス管理コンソール]に移動します。
ステップ2 *- *Data Services Management Console にログインすると、以下のスクリーンショットに示すようにホーム画面が開きます。 上部には、ログインに使用したユーザー名が表示されます。
ホームページでは、次のオプションが表示されます-
- 管理者
- 自動ドキュメンテーション
- データ検証
- 影響および系統分析
- 運用ダッシュボード
- データ品質レポート
SAP BODS-DSMCモジュール
この章では、Data Services管理コンソールの各モジュールの主要な機能について説明します。
管理者モジュール
管理者オプションを使用して管理します-
- ユーザーとロール
- アクセスサーバーとリポジトリへの接続を追加するには
- Webサービス用に公開されたジョブデータにアクセスするには
- バッチジョブのスケジューリングと監視用
- アクセスサーバーのステータスとリアルタイムサービスを確認するには。
[管理者]タブをクリックすると、左側のペインに多くのリンクが表示されます。 それらは、ステータス、バッチ、Webサービス、SAP接続、サーバーグループ、プロファイラリポジトリ管理、およびジョブ実行履歴です。
ノード
管理者モジュールの下にあるさまざまなノードについては、以下で説明します。
状態
ステータスノードは、バッチジョブとリアルタイムジョブのステータス、アクセスサーバーのステータス、アダプタとプロファイラリポジトリ、およびその他のシステムステータスを確認するために使用されます。
ステータス→リポジトリの選択をクリックします
右側のペインには、次のオプションのタブが表示されます-
バッチジョブステータス-バッチジョブのステータスを確認するために使用されます。 トレース、モニター、エラー、パフォーマンスモニター、開始時間、終了時間、期間などのジョブ情報を確認できます。
バッチジョブ設定-バッチジョブ設定は、個々のジョブのスケジュールを確認するために使用されます。または、実行、スケジュールの追加、実行コマンドのエクスポートなどのアクションを追加できます。
リポジトリスケジュール-リポジトリ内のすべてのジョブのスケジュールを表示および構成するために使用されます。
バッチノード
[バッチジョブ]ノードの下に、上記と同じオプションが表示されます。
Sr. No. | Option & Description |
---|---|
1 |
Batch Job Status 最後の実行のステータスと各ジョブに関する詳細な情報を表示します。 |
2 |
Batch Job Configuration 個々のジョブの実行およびスケジューリングオプションを構成します。 |
3 |
Repository Schedules リポジトリ内のすべてのジョブのスケジュールを表示および構成します。 |
Webサービスノード
Webサービスは、リアルタイムジョブとバッチジョブをWebサービス操作として公開し、これらの操作のステータスを確認するために使用されます。 これは、Webサービスとして公開されたジョブのセキュリティを維持し、 WSDL ファイルを表示するためにも使用されます。
SAP接続
SAP接続を使用して、ステータスを確認したり、Data Services管理コンソールで* RFCサーバーインターフェイス*を構成したりします。
RFCサーバーインターフェイスのステータスを確認するには、[RFCサーバーインターフェイスのステータス]タブに移動します。 新しいRFCサーバーインターフェイスを追加するには、構成タブで[追加]をクリックします。
新しいウィンドウが開いたら、RFCサーバー構成の詳細を入力し、[適用]をクリックします。
サーバーグループ
これは、同じリポジトリに関連付けられているすべてのジョブサーバーを1つのサーバーグループにグループ化するために使用されます。 このタブは、データサービスでジョブを実行する際の負荷分散に使用されます。
ジョブが実行されると、対応するJob Serverをチェックし、ダウンしている場合は同じグループ内の他のJob Serverにジョブを移動します。 主に実稼働環境でロードバランシングに使用されます。
プロファイルリポジトリ
プロファイルリポジトリを管理者に接続すると、プロファイルリポジトリノードを展開できます。 [プロファイルタスク]ステータスページに移動できます。
管理ノード
[管理者]タブの機能を使用するには、管理ノードを使用してデータサービスに接続を追加する必要があります。 管理ノードは、管理アプリケーションのさまざまな構成オプションで構成されています。
ジョブ実行履歴
これは、ジョブまたはデータフローの実行履歴を確認するために使用されます。 このオプションを使用すると、1つのバッチジョブまたは自分が作成したすべてのバッチジョブの実行履歴を確認できます。
ジョブを選択すると、リポジトリ名、ジョブ名、開始時間、終了時間、実行時間、ステータスなどで構成される情報が表形式で表示されます。
SAP BODS-DS Designerの紹介
Data Service Designerは、データマッピング、変換、およびロジックで構成されるオブジェクトを作成するために使用される開発者ツールです。 GUIベースであり、Data Servicesのデザイナーとして機能します。
プロジェクト、ジョブ、ワークフロー、データフロー、マッピング、変換など、Data Services Designerを使用してさまざまなオブジェクトを作成できます。
Data Services Designerを開始するには、以下の手順に従います。
- ステップ1 *-[スタート]→[すべてのプログラム]→[SAP Data Services 4.2]→[Data Services Designer]をポイントします。
- ステップ2 *-リポジトリを選択し、ログインするためのパスワードを入力します。
リポジトリを選択してData Services Designerにログインすると、下の画像に示すようにホーム画面が表示されます。
左ペインには、新しいプロジェクト、ジョブ、データフロー、ワークフローなどを作成できるプロジェクト領域があります。 プロジェクト領域には、Data Servicesで作成されたすべてのオブジェクトで構成されるローカルオブジェクトライブラリがあります。
下のペインで、プロジェクト、ジョブ、データフロー、ワークフローなどの特定のオプションに移動して、既存のオブジェクトを開くことができます。 下のペインからオブジェクトを選択すると、ローカルオブジェクトライブラリの下のリポジトリにすでに作成されているすべての類似オブジェクトが表示されます。
右側には、ホーム画面があり、これを使用して-
- プロジェクトを作成
- プロジェクトを開く
- データストアを作成する
- リポジトリを作成する
- フラットファイルからインポート
- データサービス管理コンソール
SAP BODS-DS DesignerのETLフロー
ETLフローを開発するには、最初にソースシステムとターゲットシステムのデータストアを作成する必要があります。 ETLフローを開発するために与えられた手順に従ってください-
- ステップ1 *-[データストアの作成]をクリックします。
新しいウィンドウが開きます。
- ステップ2 *-以下に示すように、*データストア*名、*データストア*タイプ、およびデータベースタイプを入力します。 以下のスクリーンショットに示すように、ソースシステムとして別のデータベースを選択できます。
ステップ3 *-ECCシステムをデータソースとして使用するには、データストアタイプとしてSAPアプリケーションを選択します。 ユーザー名とパスワードを入力し、 *Advance タブでシステム番号とクライアント番号を入力します。
- ステップ4 *-[OK]をクリックすると、データストアがローカルオブジェクトライブラリリストに追加されます。 Datastoreを展開すると、テーブルは表示されません。
- ステップ5 *-ECCシステムからテーブルを抽出してターゲットシステムにロードするには、[テーブル]→[名前でインポート]を右クリックします。
- ステップ6 *-テーブル名を入力し、*インポート*をクリックします。 ここでは、Table–Maraが使用されます。これは、ECCシステムのデフォルトのテーブルです。
- ステップ7 *-同様の方法で、ターゲットシステムの*データストア*を作成します。 この例では、HANAがターゲットシステムとして使用されます。
[OK]をクリックすると、この Datastore がローカルオブジェクトライブラリに追加され、その中にテーブルはなくなります。
ETLフローを作成する
ETLフローを作成するには、新しいプロジェクトを作成します。
- ステップ1 *-オプション*プロジェクトの作成*をクリックします。 プロジェクト名を入力し、*作成*をクリックします。 プロジェクトエリアに追加されます。
- ステップ2 *-プロジェクト名を右クリックして、新しいバッチジョブ/リアルタイムジョブを作成します。
- ステップ3 *-ジョブの名前を入力し、Enterを押します。 これにワークフローとデータフローを追加する必要があります。 ワークフローを選択し、作業領域をクリックしてジョブに追加します。 ワークフローの名前を入力し、ダブルクリックしてプロジェクト領域に追加します。
- ステップ4 *-同様の方法で、データフローを選択し、プロジェクトエリアに移動します。 データフローの名前を入力し、ダブルクリックして新しいプロジェクトの下に追加します。
- ステップ5 *-データストアの下のソーステーブルを作業領域にドラッグします。 これで、同様のデータ型のターゲットテーブルを作業領域にドラッグするか、新しいテンプレートテーブルを作成できます。
新しいテンプレートテーブルを作成するには、ソーステーブルを右クリックし、[新規追加]→[テンプレートテーブル]をクリックします。
- ステップ6 *-テーブル名を入力し、ターゲットデータストアとしてリストからデータストアを選択します。 所有者名は、テーブルを作成する必要があるスキーマ名を表します。
テーブルは、このテーブル名で作業領域に追加されます。
- ステップ7 *-行をソーステーブルからターゲットテーブルにドラッグします。 上部の[すべて保存]オプションをクリックします。
これで、Data Service Management Consoleを使用してジョブをスケジュールできます。または、ジョブ名を右クリックして[実行]を選択すると、ジョブを手動で実行できます。
SAP BODS-データストアの概要
データストアは、アプリケーションとデータベース間の接続をセットアップするために使用されます。 データストアを直接作成することも、アダプターを使用して作成することもできます。 Datastoreを使用すると、アプリケーション/ソフトウェアは、アプリケーションまたはデータベースからメタデータを読み書きしたり、そのデータベースまたはアプリケーションに書き込むことができます。
Business Objects Data Servicesでは、Datastoreを使用して次のシステムに接続できます-
- メインフレームシステムとデータベース
- ユーザー作成のアダプターを備えたアプリケーションとソフトウェア
- SAPアプリケーション、SAP BW、Oracle Apps、Siebelなど。
SAP Business Objects Data Servicesには、 Attunity コネクタを使用してメインフレームインターフェイスに接続するオプションがあります。 Attunity を使用して、データストアを以下に示すソースのリストに接続します-
- OS/390用のDB2 UDB
- OS/400用のDB2 UDB
- IMS/DB
- VSAM
- アダバ
- OS/390およびOS/400のフラットファイル
Attunityコネクタを使用すると、ソフトウェアの助けを借りてメインフレームデータに接続できます。 このソフトウェアは、ODBCインターフェイスを使用して、メインフレームサーバーとローカルクライアントジョブサーバーに手動でインストールする必要があります。
ホストの場所、ポート、Attunityワークスペースなどの詳細を入力します。
データベースのデータストアを作成する
データベースのデータストアを作成するには、以下の手順に従います。
- ステップ1 *-以下の画像に示すように、データストア名、データストアタイプ、データベースタイプを入力します。 リストにあるソースシステムとして別のデータベースを選択できます。
ステップ2 *-ECCシステムをデータソースとして使用するには、データストアタイプとしてSAPアプリケーションを選択します。 ユーザー名とパスワードを入力します。 [*詳細]タブをクリックして、システム番号とクライアント番号を入力します。
- ステップ3 *-[OK]をクリックすると、データストアがローカルオブジェクトライブラリリストに追加されます。 データストアを展開すると、表示するテーブルはありません。
SAP BODS-データストアの変更
この章では、データストアを編集または変更する方法を学びます。 データストアを変更または編集するには、以下の手順に従ってください。
- ステップ1 *-データストアを編集するには、データストア名を右クリックして[編集]をクリックします。 Datastoreエディターが開きます。
現在のデータストア構成の接続情報を編集できます。
- ステップ2 *-*アドバンス*ボタンをクリックすると、クライアント番号、システムID、その他のプロパティを編集できます。
- ステップ3 *-*編集*オプションをクリックして、構成を追加、編集、および削除します。
- ステップ4 *-[OK]をクリックすると、変更が適用されます。
SAP BODS-メモリデータストア
データベースタイプとしてメモリを使用してデータストアを作成できます。 メモリデータストアは、データをメモリに保存して迅速なアクセスを可能にし、元のデータソースに移動する必要がないため、リアルタイムジョブのデータフローのパフォーマンスを向上させるために使用されます。
メモリデータストアは、メモリテーブルスキーマをリポジトリに格納するために使用されます。 これらのメモリテーブルは、リレーショナルデータベースのテーブルからデータを取得するか、XMLメッセージやIDocなどの階層データファイルを使用してデータを取得します。 メモリテーブルは、ジョブが実行され、メモリテーブル内のデータを異なるリアルタイムジョブ間で共有できない限り、生きたままになります。
メモリデータストアの作成
メモリデータストアを作成するには、以下の手順に従います。
ステップ1 *-[データストアの作成]をクリックし、データストアの名前を入力します“ Memory_DS_TEST” *。 メモリテーブルは通常のRDBMSテーブルで表示され、命名規則で識別できます。
- ステップ2 *-[データストアタイプ]で[データベース]を選択し、データベースタイプで[メモリ]を選択します。 OKをクリックしてください。
- ステップ3 *-次のスクリーンショットに示すように、プロジェクト→新規→プロジェクトに進みます。
- ステップ4 *-右クリックして新しいジョブを作成します。 以下に示すように、ワークフローとデータフローを追加します。
- ステップ5 *-テンプレートテーブルを選択し、作業領域にドラッグアンドドロップします。 [テーブルの作成]ウィンドウが開きます。
ステップ6 *-テーブルの名前を入力し、[データストア]で[メモリデータストア]を選択します。 システムで生成された行IDが必要な場合は、[*行IDを作成]チェックボックスをオンにします。 OKをクリックしてください。
- ステップ7 *-このメモリテーブルをデータフローに接続し、上部の[すべて保存]をクリックします。
ソースおよびターゲットとしてのメモリテーブル
メモリテーブルをターゲットとして使用するには-
- ステップ1 *-ローカルオブジェクトライブラリに移動し、[データストア]タブをクリックします。 メモリデータストア→テーブルを展開します。
- ステップ2 *-ソースまたはターゲットテーブルとして使用するメモリテーブルを選択し、ワークフローにドラッグします。 このメモリテーブルをデータフローのソースまたはターゲットとして接続します。
- ステップ3 *-*保存*ボタンをクリックして、ジョブを保存します。
SAP BODS-リンクされたデータストア
1つのデータベースから別のデータベースへの一方向の通信パスのみを提供するさまざまなデータベースベンダーがあります。 これらのパスは、データベースリンクと呼ばれます。 SQL Serverでは、リンクサーバーにより、1つのデータベースから他のデータベースへの一方向の通信パスが許可されます。
例
「Product」*という名前のローカルデータベースサーバーが、 *Customer というリモートデータベースサーバー上の情報にアクセスするためのデータベースリンクを保存するとします。 現在、リモートデータベースサーバーCustomerに接続しているユーザーは、同じリンクを使用してデータベースサーバーProductのデータにアクセスできません。 *“ Customer” *に接続しているユーザーは、製品データベースサーバーのデータにアクセスするために、サーバーのデータディクショナリに個別のリンクが必要です。
2つのデータベース間のこの通信パスは、データベースリンクと呼ばれます。 これらのリンクされたデータベースの関係の間に作成されるデータストアは、リンクされたデータストアと呼ばれます。
あるデータストアを別のデータストアに接続し、データストアのオプションとして外部データベースリンクをインポートする可能性があります。
SAP BODS-アダプターデータストア
アダプタデータストアを使用すると、アプリケーションメタデータをリポジトリにインポートできます。 アプリケーションメタデータにアクセスし、異なるアプリケーションとソフトウェア間でバッチデータとリアルタイムデータを移動できます。
アダプタソフトウェア開発キット-SAPが提供するSDKがあり、カスタマイズされたアダプタの開発に使用できます。 これらのアダプターは、アダプターデータストアによってData Servicesデザイナーに表示されます。
アダプタを使用してデータを抽出またはロードするには、この目的のために少なくとも1つのデータストアを定義する必要があります。
アダプタデータストア-定義
適応データストアを定義するには、指定された手順に従います-
ステップ1 *-*データストアの作成→データストアの名前を入力します。 アダプタとしてデータストアタイプを選択します。 リストと「アダプタインスタンス名」から「ジョブサーバー」を選択し、「OK」をクリックします。
アプリケーションメタデータを参照するには
データストア名を右クリックし、[開く]をクリックします。 新しいウィンドウが開き、ソースメタデータが表示されます。 +記号をクリックしてオブジェクトを確認し、インポートするオブジェクトを右クリックします。
SAP BODS-ファイル形式
ファイル形式は、フラットファイルの構造を表す一連のプロパティとして定義されます。 メタデータ構造を定義します。 ファイル形式は、データがデータベースではなくファイルに保存されるときに、ソースデータベースとターゲットデータベースに接続するために使用されます。
ファイル形式は、次の機能に使用されます-
- ファイル形式のテンプレートを作成して、ファイルの構造を定義します。
- データフローで特定のソースおよびターゲットファイル形式を作成します。
次の種類のファイルは、ファイル形式を使用してソースファイルまたはターゲットファイルとして使用できます-
- 区切り文字
- SAP Transport
- 非構造化テキスト
- 非構造化バイナリ
- 固定幅
ファイル形式エディター
ファイル形式エディターを使用して、ファイル形式テンプレートとソースおよびターゲットファイル形式のプロパティを設定します。
次のモードは、ファイル形式エディタで利用可能です-
- 新しいモード-新しいファイル形式のテンプレートを作成できます。
- 編集モード-既存のファイル形式テンプレートを編集できます。
- ソースモード-特定のソースファイルのファイル形式を編集できます。
- ターゲットモード-特定のターゲットファイルのファイル形式を編集できます。
ファイル形式エディタには3つの作業領域があります-
- プロパティ値-ファイル形式のプロパティの値を編集するために使用されます。
- 列属性-ファイルの列またはフィールドを編集および定義するために使用されます。
- データプレビュー-設定がサンプルデータにどのように影響するかを表示するために使用されます。
ファイル形式の作成
ファイル形式を作成するには、以下の手順に従います。
- ステップ1 *-ローカルオブジェクトライブラリ→フラットファイルに移動します。
- ステップ2 *-[フラットファイル]オプション→[新規]を右クリックします。
ファイル形式エディターの新しいウィンドウが開きます。
- ステップ3 *-ファイル形式のタイプを選択します。 ファイル形式テンプレートを説明する名前を入力します。 区切りおよび固定幅ファイルの場合、カスタム転送プログラムを使用して読み取りおよびロードできます。 他のプロパティを入力して、このテンプレートが表すファイルを記述します。
いくつかの特定のファイル形式の列属性ワークエリアで列の構造を指定することもできます。 すべてのプロパティを定義したら、[保存]ボタンをクリックします。
ファイル形式の編集
ファイル形式を編集するには、以下の手順に従ってください。
- ステップ1 *-ローカルオブジェクトライブラリで、*フォーマット*タブに移動します。
- ステップ2 *-編集するファイル形式を選択します。 [編集]オプションを右クリックします。
ファイル形式エディターで変更を行い、[保存]ボタンをクリックします。
SAP BODS-COBOL Copybookファイル形式
COBOL Copybookファイル形式を作成すると、形式だけを作成するのが遅くなります。 データフローに形式を追加したら、後でソースを構成できます。
ファイル形式を作成し、同時にデータファイルに接続できます。 以下の手順に従ってください。
- ステップ1 *-ローカルオブジェクトライブラリ→ファイル形式→COBOLコピーブックに移動します。
- ステップ2 *-*新規*オプションを右クリックします。
ステップ3 *-フォーマット名を入力します。 「フォーマット」タブに移動し、インポートするCOBOLコピーブックを選択します。 ファイルの拡張子は *.cpy です。
ステップ4 *- *OK をクリックします。 このファイル形式はローカルオブジェクトライブラリに追加されます。 [COBOL Copybookスキーマ名]ダイアログボックスが開きます。 必要に応じて、スキーマの名前を変更し、[OK]をクリックします。
データベーステーブルからデータを抽出する
データベースデータストアを使用することにより、データベースのテーブルと関数からデータを抽出できます。 メタデータのデータインポートを実行すると、 Tool を使用して列名、データタイプ、説明などを編集できます。
次のオブジェクトを編集できます-
- テーブル名
- 列名
- テーブルの説明
- 列の説明
- 列データ型
- 列コンテンツタイプ
- テーブル属性
- 主キー
- 所有者名
メタデータのインポート
メタデータをインポートするには、以下の手順に従ってください-
- ステップ1 *-ローカルオブジェクトライブラリに移動→使用するデータストアに移動します。
- ステップ2 *-[データストア]→[開く]を右クリックします。
ワークスペースに、インポート可能なすべてのアイテムが表示されます。 メタデータをインポートするアイテムを選択します。
オブジェクトライブラリで、データストアに移動して、インポートされたオブジェクトのリストを表示します。
Excelワークブックからのデータ抽出
Data Servicesのファイル形式を使用して、Microsoft Excelブックをデータソースとして使用できます。 Excelブックは、WindowsファイルシステムまたはUnixファイルシステムで使用できる必要があります。
Sr.No. | Access & Description |
---|---|
1 |
In the object library, click the Formats tab. Excelブック形式は、Excelブックで定義された構造(拡張子.xlsで表される)を記述します。 Excelデータ範囲の形式テンプレートをオブジェクトライブラリに保存します。 テンプレートを使用して、データフロー内の特定のソースの形式を定義します。 SAP Data Servicesは、Excelブックをソースとしてのみアクセスします(ターゲットとしてではありません)。 |
下のスクリーンショットに示すように、新規*オプションを右クリックして Excelワークブック*を選択します。
XML FILE DTD、XSDからのデータ抽出
XMLまたはDTDスキーマファイル形式をインポートすることもできます。
- ステップ1 *-[ローカルオブジェクトライブラリ]→[形式]タブ→[ネストされたスキーマ]に移動します。
- ステップ2 *-*新規*をポイントします(DTDファイル、XMLスキーマ、またはJSONファイル形式を選択できます)。 ファイル形式の名前を入力し、インポートするファイルを選択します。 OKをクリックしてください。
COBOLコピーブックからのデータ抽出
COBOLコピーブックにファイル形式をインポートすることもできます。 [ローカルオブジェクトライブラリ]→[形式]→[COBOL Copybooks]に移動します。
SAP BODS-データフローの概要
データフローを使用して、ソースからターゲットシステムにデータを抽出、変換、ロードします。 すべての変換、ロード、およびフォーマットはデータフローで発生します。
プロジェクトでデータフローを定義したら、これをワークフローまたはETLジョブに追加できます。 データフローは、パラメータを使用してオブジェクト/情報を送信または受信できます。 データフローは、 DF_Name 形式で名前が付けられます。
データフローの例
ソースシステムの2つのテーブルのデータを使用して、DWシステムのファクトテーブルをロードすると仮定します。
データフローには、次のオブジェクトが含まれています-
- 2つのソーステーブル
- 2つのテーブルを結合し、Queryトランスフォームで定義します
- ターゲット表
データフローに追加できるオブジェクトには3つのタイプがあります。 彼らは-
- ソース
- ターゲット
- 変換
- ステップ1 *-ローカルオブジェクトライブラリに移動し、両方のテーブルを作業スペースにドラッグします。
- ステップ2 *-クエリ変換を追加するには、右側のツールバーからドラッグします。
- ステップ3 *-クエリボックス→新規追加→新規テンプレートテーブルを右クリックして、両方のテーブルを結合し、テンプレートターゲットテーブルを作成します。
- ステップ4 *-ターゲットテーブルの名前、データストア名、およびテーブルを作成する所有者(スキーマ名)を入力します。
- ステップ5 *-ターゲットテーブルを前にドラッグし、Queryトランスフォームに結合します。
パラメータを渡す
データフローにさまざまなパラメータを渡すこともできます。 パラメーターをデータフローに渡す間、データフロー内のオブジェクトはそれらのパラメーターを参照します。 パラメーターを使用して、さまざまな操作をデータフローに渡すことができます。
例-最終更新に関するパラメータをテーブルに入力したとします。 最後の更新以降に変更された行のみを抽出できます。
SAP BODS-データフロー変更プロパティ
一度実行、キャッシュタイプ、データベースリンク、並列処理などのデータフローのプロパティを変更できます。
- ステップ1 *-データフローのプロパティを変更するには、[データフロー]→[プロパティ]を右クリックします。
データフローのさまざまなプロパティを設定できます。 以下にプロパティを示します。
Sr. No. | Properties & Description |
---|---|
1 |
Execute only once データフローが一度だけ実行されるように指定すると、データフローが正常に完了した後、データフローが再実行するリカバリユニットであるワークフローに含まれている場合を除き、バッチジョブはそのデータフローを再実行しません回復ユニット以外の場所で正常に完了していません。 親ワークフローがリカバリユニットである場合、データフローを一度だけ実行としてマークしないことをお勧めします。 |
2 |
Use database links データベースリンクは、1つのデータベースサーバーと別のデータベースサーバー間の通信パスです。 データベースリンクを使用すると、ローカルユーザーはリモートデータベース上のデータにアクセスできます。リモートデータベースは、同じデータベースタイプまたは異なるデータベースタイプのローカルコンピューターまたはリモートコンピューター上にあります。 |
3 |
Degree of parallelism 並列度(DOP)は、データフロー内の各変換がデータの並列サブセットを処理するために複製する回数を定義するデータフローのプロパティです。 |
4 |
Cache type データをキャッシュして、結合、グループ、並べ替え、フィルタリング、ルックアップ、テーブル比較などの操作のパフォーマンスを向上させることができます。 データフローの[プロパティ]ウィンドウで[キャッシュタイプ]オプションに次の値のいずれかを選択できます-
|
- ステップ2 *-1回だけ実行、並列度、キャッシュタイプなどのプロパティを変更します。
ソースおよびターゲットオブジェクト
データフローは、次のオブジェクトを使用してデータを直接抽出またはロードできます-
- ソースオブジェクト-ソースオブジェクトは、データの抽出元またはデータの読み取り元を定義します。
- ターゲットオブジェクト-ターゲットオブジェクトは、データをロードまたは書き込むターゲットを定義します。
次のタイプのソースオブジェクトを使用でき、ソースオブジェクトにはさまざまなアクセス方法が使用されます。
Table | A file formatted with columns and rows as used in relational databases | Direct or through adapter |
Template table | A template table that has been created and saved in another data flow(used in development) | Direct |
File | A delimited or fixed-width flat file | Direct |
Document | A file with an application-specific format(not readable by SQL or XML parser) | Through adapter |
XML file | A file formatted with XML tags | Direct |
XML message | Used as a source in real-time jobs | Direct |
次のターゲットオブジェクトを使用でき、さまざまなアクセス方法を適用できます。
Table | A file formatted with columns and rows as used in relational databases | Direct or through adapter |
Template table | A table whose format is based on the output of the preceding transform(used in development) | Direct |
File | A delimited or fixed-width flat file | Direct |
Document | A file with an application-specific format(not readable by SQL or XML parser) | Through adapter |
XML file | A file formatted with XML tags | Direct |
XML template file | An XML file whose format is based on the preceding transform output(used in development, primarily for debugging data flows) | Direct |
SAP BODS-ワークフローの概要
ワークフローは、実行するプロセスを決定するために使用されます。 ワークフローの主な目的は、データフローの実行が完了すると、データフローの実行を準備し、システムの状態を設定することです。
ETLプロジェクトのバッチジョブはワークフローに似ていますが、ジョブにパラメーターがない点が異なります。
さまざまなオブジェクトをワークフローに追加できます。 彼らは-
- ワークフロー
- データフロー
- スクリプト
- ループ
- 条件
- ブロックを試すまたはキャッチする
ワークフローから他のワークフローを呼び出すことも、ワークフローが自分自身を呼び出すこともできます。
注-ワークフローでは、ステップは左から右の順序で実行されます。
ワークフローの例
更新するファクトテーブルがあり、変換を使用してデータフローを作成したとします。 ここで、ソースシステムからデータを移動する場合は、ファクトテーブルの最後の変更を確認して、最後の更新後に追加された行のみを抽出する必要があります。
これを実現するには、最終更新日を決定するスクリプトを1つ作成し、これを入力パラメーターとしてデータフローに渡す必要があります。
また、特定のファクトテーブルへのデータ接続がアクティブかどうかを確認する必要があります。 アクティブでない場合は、catchブロックを設定する必要があります。このブロックは、管理者にこの問題を通知する電子メールを自動的に送信します。
SAP BODS-ワークフローの作成
ワークフローは、次の方法を使用して作成できます-
- オブジェクトライブラリ
- ツールパレット
オブジェクトライブラリを使用したワークフローの作成
オブジェクトライブラリを使用してワークフローを作成するには、以下の手順に従います。
- ステップ1 *-[オブジェクトライブラリ]→[ワークフロー]タブに移動します。
- ステップ2 *-*新規*オプションを右クリックします。
- ステップ3 *-ワークフローの名前を入力します。
ツールパレットを使用してワークフローを作成する
ツールパレットを使用してワークフローを作成するには、右側のアイコンをクリックして、ワークスペースにワークフローをドラッグします。
ワークフローのプロパティに移動して、ワークフローを1回だけ実行するように設定することもできます。
条件付き
ワークフローに条件を追加することもできます。 これにより、ワークフローにIf/Else/Thenロジックを実装できます。
Sr.No. | Conditional & Description |
---|---|
1 |
If TRUEまたはFALSEに評価されるブール式。 式を作成するには、関数、変数、および標準演算子を使用できます。 |
2 |
Then
|
3 |
Else (オプション) If 式がFALSEと評価された場合に実行するワークフロー要素。 |
条件付きを定義するには
- ステップ1 *-ワークフローに移動→右側のツールパレットの[条件付き]アイコンをクリックします。
ステップ2 *-条件付きの名前をダブルクリックして、 *If-Then–Else 条件付きエディターを開きます。
- ステップ3 *-条件を制御するブール式を入力します。 OKをクリックしてください。
ステップ4 *-IF条件の式に従って、 *Then and Else ウィンドウを実行するデータフローをドラッグします。
条件を完了したら、条件をデバッグおよび検証できます。
SAP BODS-変換タイプ
変換は、データセットを入力として操作し、1つまたは複数の出力を作成するために使用されます。 Data Servicesで使用できるさまざまな変換があります。 変換のタイプは、購入したバージョンと製品によって異なります。
次の種類の変換が利用可能です-
データ統合
データ統合変換は、データの抽出、変換、およびDWシステムへのロードに使用されます。 データの整合性を確保し、開発者の生産性を向上させます。
- Data_Generator
- データ転送
- Effective_Date
- Hierarchy_flattening
- Table_Comparisionなど
データ品質
データ品質変換は、データ品質を改善するために使用されます。 ソースシステムから解析、修正、標準化、強化されたデータセットを適用できます。
- アソシエイト
- データクレンジング
- DSF2 Walk Sequencerなど
プラットフォーム
プラットフォームは、データセットの移動に使用されます。 これを使用して、2つ以上のデータソースから行を生成、マッピング、およびマージできます。
- Case
- マージ
- クエリなど
テキストデータ処理
テキストデータ処理を使用すると、大量のテキストデータを処理できます。
SAP BODS-データフローへの変換の追加
この章では、 Transform をデータフローに追加する方法を説明します。
- ステップ1 *-[オブジェクトライブラリ]→[変換]タブに移動します。
- ステップ2 *-データフローに追加する変換を選択します。 構成を選択するオプションを持つ変換を追加すると、プロンプトが開きます。
- ステップ3 *-データフロー接続を描画して、ソースをトランスフォームに接続します。
- ステップ4 *-変換名をダブルクリックして、変換エディターを開きます。
定義が完了したら、[OK]をクリックしてエディターを閉じます。
SAP BODS-クエリ変換
これは、Data Servicesで使用される最も一般的な変換であり、次の機能を実行できます-
- ソースからのデータフィルタリング
- 複数のソースからのデータを結合する
- データに対して関数と変換を実行する
- 入力スキーマから出力スキーマへの列マッピング
- 主キーの割り当て
- 結果のスキーマに新しい列、スキーマ、および関数を追加します
クエリ変換は最も一般的に使用される変換なので、ツールパレットでこのクエリのショートカットが提供されます。
クエリ変換を追加するには、以下の手順に従ってください-
- ステップ1 *-クエリ変換ツールパレットをクリックします。 データフローワークスペースの任意の場所をクリックします。 これを入力および出力に接続します。
Queryトランスフォームアイコンをダブルクリックすると、クエリ操作の実行に使用されるクエリエディタが開きます。
Queryトランスフォームには次の領域があります-
- 入力スキーマ
- 出力スキーマ
- パラメーター
入力および出力スキーマには、列、ネストされたスキーマおよび関数が含まれます。 スキーマインとスキーマアウトは、現在選択されている変換中のスキーマを示します。
出力スキーマを変更するには、リストでスキーマを選択し、右クリックして[現在にする]を選択します。
データ品質変換
データ品質変換は、ネストされたテーブルを含むアップストリーム変換に直接接続できません。 これらの変換を接続するには、ネストされたテーブルからの変換とデータ品質変換の間にクエリ変換またはXMLパイプライン変換を追加する必要があります。
データ品質変換の使用方法
- ステップ1 *-[オブジェクトライブラリ]→[変換]タブに移動します
- ステップ2 *-Data Qualityトランスフォームを展開し、データフローに追加するトランスフォームまたはトランスフォーム構成を追加します。
- ステップ3 *-データフロー接続を描画します。 変換の名前をダブルクリックすると、変換エディターが開きます。 入力スキーマで、マップする入力フィールドを選択します。
注意-変換の関連付けを使用するには、ユーザー定義フィールドを入力タブに追加できます。
テキストデータ処理変換
テキストデータ処理変換を使用すると、大量のテキストから特定の情報を抽出できます。 組織に固有のファクトおよび顧客、製品、財務ファクトなどのエンティティを検索できます。
この変換は、エンティティ間の関係もチェックし、抽出を許可します。 テキストデータ処理を使用して抽出されたデータは、ビジネスインテリジェンス、レポート、クエリ、および分析で使用できます。
エンティティ抽出変換
Data Servicesでは、非構造化データからエンティティとファクトを抽出するエンティティ抽出を使用してテキストデータ処理が行われます。
これには、大量のテキストデータの分析と処理、エンティティの検索、適切なタイプへのエンティティの割り当て、標準形式でのメタデータの提示が含まれます。
Entity Extractionトランスフォームは、テキスト、HTML、XML、または特定のバイナリ形式(PDFなど)のコンテンツから情報を抽出し、構造化された出力を生成できます。 ワークフローに基づいて、いくつかの方法で出力を使用できます。 別の変換への入力として使用したり、データベーステーブルやフラットファイルなどの複数の出力ソースに書き込むことができます。 出力はUTF-16エンコードで生成されます。
エンティティ抽出変換は、次のシナリオで使用できます-
- 大量のテキストボリュームから特定の情報を見つける。
- 既存の情報を含む非構造化テキストから構造化情報を検索して、新しい接続を作成します。
- 製品品質のレポートと分析。
TDPとデータクレンジングの違い
テキストデータ処理は、非構造化テキストデータから関連情報を見つけるために使用されます。 ただし、データクレンジングは、構造化データの標準化とクレンジングに使用されます。
Parameters | Text Data Processing | Data Cleansing |
---|---|---|
Input Type | Unstructured Data | Structured Data |
Input Size | More than 5KB | Less than 5KB |
Input Scope | Broad domain with many variations | Limited variations |
Potential Usage | Potential meaningful information from unstructured data | Quality of data for storing in to Repository |
Output | Create annotations in form of entities, type, etc. Input is not changed | Create standardized fields, Input is changed |
SAP BODS-データサービスの概要
Data Servicesの管理には、リアルタイムジョブとバッチジョブの作成、ジョブのスケジュール、埋め込みデータフロー、変数とパラメーター、回復メカニズム、データプロファイリング、パフォーマンスチューニングなどが含まれます。
リアルタイムジョブ
Data Services Designerでリアルタイムメッセージを処理するリアルタイムジョブを作成できます。 バッチジョブと同様に、リアルタイムジョブはデータを抽出し、変換してロードします。
各リアルタイムジョブは、単一のメッセージからデータを抽出できます。 テーブルやファイルなどの他のソースからデータを抽出することもできます。
リアルタイムジョブは、バッチジョブとは異なり、トリガーを使用して実行されません。 これらは、管理者によってリアルタイムサービスとして実行されます。 リアルタイムサービスは、アクセスサーバーからのメッセージを待ちます。 アクセスサーバーはこのメッセージを受信し、メッセージタイプを処理するように構成されたリアルタイムサービスに渡します。 リアルタイムサービスはメッセージを実行し、結果を返し、実行を停止する命令を受け取るまでメッセージの処理を続けます。
リアルタイムvsバッチジョブ
ブランチや制御ロジックなどの変換はリアルタイムジョブでより頻繁に使用されますが、デザイナーのバッチジョブの場合はそうではありません。
リアルタイムジョブは、バッチジョブとは異なり、スケジュールまたは内部トリガーに応答して実行されません。
リアルタイムジョブの作成
リアルタイムジョブは、データフロー、ワークフロー、ループ、条件、スクリプトなどの同じオブジェクトを使用して作成できます。
次のデータモデルを使用して、リアルタイムジョブを作成できます-
- 単一データフローモデル
- 複数のデータフローモデル
単一データフローモデル
リアルタイム処理ループ内の単一のデータフローを使用して、単一のメッセージソースと単一のメッセージターゲットを含むリアルタイムジョブを作成できます。
単一データモデルを使用したリアルタイムジョブの作成-
単一データモデルを使用してリアルタイムジョブを作成するには、以下の手順に従います。
- ステップ1 *-Data Services Designer→Project New→Project→Enter the Project Nameに移動します
- ステップ2 *-[プロジェクト]エリアの空白を右クリック→[新しいリアルタイムジョブ]。
ワークスペースには、リアルタイムジョブの2つのコンポーネントが表示されます-
- RT_Process_begins
- Step_ends
リアルタイムジョブの開始と終了を示しています。
- ステップ3 *-単一のデータフローでリアルタイムジョブを作成するには、右ペインのツールパレットからデータフローを選択し、ワークスペースにドラッグします。
ループ内をクリックすると、リアルタイム処理ループで1つのメッセージソースと1つのメッセージターゲットを使用できます。 開始マークと終了マークをデータフローに接続します。
- ステップ4 *-必要に応じてデータフローに設定オブジェクトを追加し、ジョブを保存します。
複数のデータフローモデル
これにより、リアルタイム処理ループで複数のデータフローを持つリアルタイムジョブを作成できます。 また、次のメッセージに移動する前に、各データモデルのデータが完全に処理されていることを確認する必要があります。
リアルタイムジョブのテスト
サンプルメッセージをファイルからソースメッセージとして渡すことにより、リアルタイムジョブをテストできます。 Data Servicesが予想されるターゲットメッセージを生成するかどうかを確認できます。
ジョブで期待どおりの結果が得られるように、データを表示モードで実行できます。 このモードを使用すると、出力データをキャプチャして、リアルタイムジョブが正常に機能していることを確認できます。
埋め込みデータフロー
埋め込みデータフローはデータフローと呼ばれ、デザイン内の別のデータフローから呼び出されます。 埋め込みデータフローには複数のソースとターゲットを含めることができますが、メインデータフローへの入力または出力パスデータは1つだけです。
次の種類の埋め込みデータフローを使用できます-
- * 1つの入力*-データフローの最後に埋め込みデータフローが追加されます。
- * 1つの出力*-データフローの先頭に埋め込みデータフローが追加されます。
- 入力または出力なし-既存のデータフローを複製します。
埋め込みデータフローは、次の目的に使用できます-
- データフローの表示を簡素化します。
- 制御ロジックを保存し、他のデータフローで再利用する場合。
- デバッグ用。データフローのセクションを埋め込みデータフローとして作成し、個別に実行します。
SAP BODS-埋め込みデータフローの作成
既存のデータフローでオブジェクトを選択できます。 埋め込みデータフローを作成できる方法は2つあります。
オプション1
オブジェクトを右クリックし、選択して埋め込みデータフローにします。
オプション2
完全で検証済みのデータフローをオブジェクトライブラリからワークスペースの開いているデータフローにドラッグします。 次に、作成されたデータフローを開きます。 入力および出力ポートとして使用するオブジェクトを選択し、そのオブジェクトの[ポートの作成]をクリックします。
Data Servicesは、そのオブジェクトを埋め込みデータフローの接続ポイントとして追加します。
変数とパラメーター
データフローとワークフローでローカル変数とグローバル変数を使用できます。これにより、ジョブをより柔軟に設計できます。
主な機能は次のとおりです-
- 変数のデータ型は、数字、整数、小数、日付、または文字のようなテキスト文字列です。
- Where 句の関数として、データフローおよびワークフローで変数を使用できます。
- データサービスのローカル変数は、それらが作成されるオブジェクトに制限されます。
- グローバル変数は、それらが作成されたジョブに制限されます。 グローバル変数を使用すると、実行時にデフォルトのグローバル変数の値を変更できます。
- ワークフローとデータフローで使用される式は、*パラメータ*と呼ばれます。
- ワークフローとデータフローのすべての変数とパラメーターは、変数とパラメーターウィンドウに表示されます。
変数とパラメータを表示するには、以下の手順に従ってください-
[ツール]→[変数]に移動します。
新しいウィンドウ*変数とパラメーター*が表示されます。 定義と呼び出しの2つのタブがあります。
*Definitions* タブでは、変数とパラメーターを作成および表示できます。 ワークフローおよびデータフローレベルでローカル変数とパラメーターを使用できます。 グローバル変数はジョブレベルで使用できます。
Job |
Local variables グローバル変数 a |
ジョブ内のスクリプトまたは条件付き ジョブ内のオブジェクト |
Work flow |
Local variables パラメーター a |
このワークフロー、またはパラメーターを使用して他のワークフローまたはデータフローに渡されます。 ローカル変数を渡す親オブジェクト。 ワークフローは、変数またはパラメーターを親オブジェクトに返すこともあります。 |
Data flow | Parameters | A WHERE clause, column mapping, or a function in the dataflow. Data flow. Data flows cannot return output values. |
[呼び出し]タブで、親オブジェクトの定義内のすべてのオブジェクトに定義されているパラメーターの名前を確認できます。
ローカル変数の定義
ローカル変数を定義するには、リアルタイムジョブを開きます。
- ステップ1 *-[ツール]→[変数]に移動します。 新しい[変数とパラメーター]ウィンドウが開きます。
- ステップ2 *-変数に移動→右クリック→挿入
新しいパラメーター $ NewVariable0 が作成されます。
- ステップ3 *-新しい変数の名前を入力します。 リストからデータ型を選択します。
定義したら、ウィンドウを閉じます。 同様に、データフローとワークフローのパラメーターを定義できます。
デバッグとリカバリのメカニズム
ジョブが正常に実行されない場合は、エラーを修正してジョブを再実行する必要があります。 ジョブが失敗した場合、一部のテーブルがロード、変更、または部分的にロードされている可能性があります。 すべてのデータを取得し、重複または欠落しているデータを削除するには、ジョブを再実行する必要があります。
回復に使用できる2つの手法は次のとおりです-
- 自動回復-これにより、失敗したジョブを回復モードで実行できます。
- 手動回復-これにより、前回の部分的な再実行を考慮せずにジョブを再実行できます。
- Designerでリカバリオプションを有効にしてジョブを実行するには*
- ステップ1 *-ジョブ名を右クリック→実行。
- ステップ2 *-すべての変更を保存し、実行→はい。
- ステップ3 *-[実行]タブ→[リカバリを有効にする]チェックボックスに移動します。 このボックスがチェックされていない場合、データサービスは失敗した場合、ジョブを回復しません。
- Designerからリカバリモードでジョブを実行するには*
- ステップ1 *-右クリックして、上記のようにジョブを実行します。 変更内容を保存。
- ステップ2 *-実行オプションに移動します。 [*最後に失敗した実行から回復する] *オプションがチェックされていることを確認する必要があります。
注意-ジョブがまだ実行されていない場合、このオプションは有効になりません。 これは、失敗したジョブの自動回復と呼ばれます。
データ評価とデータプロファイリング
Data Services Designerは、データプロファイリングの機能を提供して、ソースデータの品質と構造を保証および改善します。
データプロファイラを使用すると、次のことができます-
- ソースデータ、検証、修正アクション、およびソースデータの品質の異常を見つけます。
- ジョブ、ワークフロー、データフローの実行を改善するために、ソースデータの構造と関係を定義します。
- ソースおよびターゲットシステムのコンテンツを検索して、ジョブが期待される結果を返すことを確認します。
Data Profilerは、Profilerサーバーの実行に関する次の情報を提供します-
カラム分析
- 基本プロファイリング-最小、最大、平均などの情報を含む
- 詳細プロファイリング-個別のカウント、個別のパーセント、中央値などの情報が含まれます。
関係分析
- 関係を定義する2つの列間のデータの異常。
データプロファイリング機能は、次のデータソースからのデータで使用できます-
- SQLサーバー
- オラクル
- DB2
- Attunityコネクタ
- Sybase IQ
- 寺田
プロファイラーサーバーへの接続
プロファイルサーバーに接続するには-
- ステップ1 *-[ツール]→[プロファイラーサーバーログイン]に移動します
- ステップ2 *-システム、ユーザー名、パスワード、認証などの詳細を入力します。
- ステップ3 *-*ログオン*ボタンをクリックします。
接続すると、プロファイラリポジトリのリストが表示されます。 *リポジトリ*を選択し、*接続*をクリックします。
SAP BODS-チューニング手法
ETLジョブのパフォーマンスは、Data Servicesソフトウェアを使用しているシステム、移動数などに依存します。
ETLタスクのパフォーマンスに寄与する他のさまざまな要因があります。 彼らは-
- ソースデータベース-ソースデータベースは、 Select ステートメントをすばやく実行するように設定する必要があります。 これは、データベースI/Oのサイズを増やし、共有バッファのサイズを増やしてより多くのデータをキャッシュし、小さなテーブルなどの並列化を許可しないことで実現できます。
- ソースオペレーティングシステム-ソースオペレーティングシステムは、ディスクからデータをすばやく読み取るように設定する必要があります。 先読みプロトコルを64KBに設定します。
- ターゲットデータベース-ターゲットデータベースは、 INSERT および UPDATE を迅速に実行するように設定する必要があります。 これは以下によって行うことができます-
- アーカイブログを無効にします。
- すべてのテーブルのREDOロギングを無効にします。
- 共有バッファのサイズを最大化します。
- ターゲットオペレーティングシステム-データをディスクにすばやく書き込むには、ターゲットオペレーティングシステムを設定する必要があります。 非同期I/Oをオンにして、入出力操作を可能な限り高速にすることができます。
- ネットワーク-ネットワーク帯域幅は、ソースシステムからターゲットシステムにデータを転送するのに十分でなければなりません。
- * BODSリポジトリデータベース*-BODSジョブのパフォーマンスを向上させるために、以下を実行できます-
- サンプルレートの監視-ETLジョブで大量のデータセットを処理している場合は、サンプルレートをより高い値に監視して、ログファイルへのI/O呼び出しの数を減らし、パフォーマンスを改善します。
- Job Serverでウイルススキャンが設定されている場合、パフォーマンスの低下を引き起こす可能性があるため、ウイルススキャンからData Servicesログを除外することもできます。
- ジョブサーバーOS *-Data Servicesでは、ジョブの1つのデータフローが1つの *'al_engine' プロセスを開始し、4つのスレッドを開始します。 最大のパフォーマンスを得るには、CPUごとに1つの*「al_engine」*プロセスを実行する設計を検討してください。 Job Server OSは、すべてのスレッドが利用可能なすべてのCPUに分散されるように調整する必要があります。
SAP BODS-中央リポジトリとローカルリポジトリ
SAP BO Data Servicesは、各ユーザーが独自のローカルリポジトリ内のアプリケーションで作業できるマルチユーザー開発をサポートしています。 各チームは中央リポジトリを使用して、アプリケーションのメインコピーとアプリケーション内のオブジェクトのすべてのバージョンを保存します。
主な機能は次のとおりです-
- SAP Data Servicesでは、アプリケーションのチームコピーを保存するための中央リポジトリを作成できます。 これには、ローカルリポジトリでも利用可能なすべての情報が含まれています。 ただし、オブジェクト情報の保存場所を提供するだけです。 変更を加えるには、ローカルリポジトリで作業する必要があります。
- オブジェクトを中央リポジトリからローカルリポジトリにコピーできます。 ただし、変更が必要な場合は、中央リポジトリでそのオブジェクトをチェックアウトする必要があります。 このため、他のユーザーは中央リポジトリでそのオブジェクトをチェックアウトできないため、同じオブジェクトを変更できません。
- オブジェクトに変更を加えたら、オブジェクトをチェックインする必要があります。 これにより、Data Servicesは新しい変更されたオブジェクトを中央リポジトリに保存できます。
- Data Servicesでは、ローカルリポジトリを持つ複数のユーザーが同時に中央リポジトリに接続できますが、特定のオブジェクトをチェックアウトして変更できるのは1人のユーザーのみです。 *中央リポジトリは、各オブジェクトの履歴も保持します。 変更が必要に応じて行われない場合は、オブジェクトの以前のバージョンに戻すことができます。
複数のユーザー
SAP BO Data Servicesを使用すると、複数のユーザーが同じアプリケーションで同時に作業できます。 次の用語は、マルチユーザー環境で考慮する必要があります-
Sr.No. | Multi-user & Description |
---|---|
1 |
最高レベルのオブジェクトは、オブジェクト階層内のどのオブジェクトにも依存しないオブジェクトです。 たとえば、ジョブ1がワークフロー1とデータフロー1で構成される場合、ジョブ1は最高レベルのオブジェクトです。 |
2 |
Object dependents オブジェクト依存は、階層の最上位オブジェクトの下に関連付けられたオブジェクトです。 たとえば、ジョブ1がデータフロー1を含むワークフロー1で構成される場合、ワークフロー1とデータフロー1の両方がジョブ1に依存します。 さらに、データフロー1はワークフロー1に依存しています。 |
3 |
Object version オブジェクトバージョンは、オブジェクトのインスタンスです。 オブジェクトを中央リポジトリに追加またはチェックインするたびに、ソフトウェアはオブジェクトの新しいバージョンを作成します。 オブジェクトの最新バージョンは、作成された最新バージョンまたは最新バージョンです。 |
マルチユーザー環境でローカルリポジトリを更新するには、中央リポジトリから各オブジェクトの最新のコピーを取得できます。 オブジェクトを編集するには、チェックアウトおよびチェックインオプションを使用できます。
SAP BODS-中央リポジトリのセキュリティ
安全にするために中央リポジトリに適用できるさまざまなセキュリティパラメータがあります。
さまざまなセキュリティパラメータがあります-
- 認証-これにより、認証されたユーザーのみが中央リポジトリにログインできます。
- 許可-これにより、ユーザーはオブジェクトごとに異なるレベルの権限を割り当てることができます。
- 監査-これは、オブジェクトに加えられたすべての変更の履歴を維持するために使用されます。 以前のバージョンをすべて確認し、古いバージョンに戻すことができます。
非セキュア中央リポジトリの作成
マルチユーザー開発環境では、中央リポジトリ方式で作業することを常にお勧めします。
安全でない中央リポジトリを作成するには、指定された手順に従ってください-
- ステップ1 *-データベース管理システムを使用して、中央リポジトリとして機能するデータベースを作成します。
- ステップ2 *-リポジトリマネージャーに移動します。
- ステップ3 *-リポジトリタイプとしてCentralを選択します。 ユーザー名やパスワードなどのデータベースの詳細を入力し、[作成]をクリックします。
ステップ4 *-セントラルリポジトリへの接続を定義するには、*ツール→セントラルリポジトリ。
- ステップ5 *-セントラルリポジトリ接続でリポジトリを選択し、*追加*アイコンをクリックします。
- ステップ6 *-中央リポジトリのパスワードを入力し、[アクティブ化]ボタンをクリックします。
安全な中央リポジトリの作成
安全な中央リポジトリを作成するには、リポジトリマネージャーに移動します。 リポジトリタイプとしてCentralを選択します。 [セキュリティを有効にする]チェックボックスをクリックします。
マルチユーザー環境の作成
マルチユーザー環境で開発を成功させるには、チェックインやチェックアウトなどのプロセスを実装することをお勧めします。
あなたは、マルチユーザー環境で次のプロセスを使用することができます-
- フィルタリング
- オブジェクトのチェックアウト
- チェックアウトを取り消す
- オブジェクトのチェックイン
- オブジェクトのラベル付け
フィルタリングは、オブジェクトを中央リポジトリに追加、チェックイン、チェックアウト、ラベル付けするときに適用できます。
マルチユーザージョブの移行
SAP Data Servicesでは、ジョブの移行をさまざまなレベルで適用できます。 アプリケーションレベル、リポジトリレベル、アップグレードレベル。
1つの中央リポジトリのコンテンツを他の中央リポジトリに直接コピーすることはできません。ローカルリポジトリを使用する必要があります。
最初のステップは、すべてのオブジェクトの最新バージョンを中央リポジトリからローカルリポジトリに取得することです。 コンテンツをコピーする中央リポジトリをアクティブ化します。 ローカルリポジトリから中央リポジトリにコピーするすべてのオブジェクトを追加します。
中央リポジトリの移行
SAP Data Servicesのバージョンを更新する場合、リポジトリのバージョンも更新する必要があります。
バージョンをアップグレードするために中央リポジトリを移行する場合、次の点を考慮する必要があります-
- すべてのテーブルとオブジェクトの中央リポジトリのバックアップを取ります。
- データサービスのオブジェクトのバージョンを維持するには、各バージョンの中央リポジトリを維持します。 新しいバージョンのData Servicesソフトウェアを使用して新しい中央履歴を作成し、すべてのオブジェクトをこのリポジトリにコピーします。
- Data Servicesの新しいバージョンをインストールする場合、常に推奨されます。中央リポジトリをオブジェクトの新しいバージョンにアップグレードする必要があります。
- セントラルリポジトリとローカルリポジトリの異なるバージョンが同時に機能しない場合があるため、ローカルリポジトリを同じバージョンにアップグレードします。
- 中央リポジトリを移行する前に、すべてのオブジェクトをチェックインします。 中央リポジトリとローカルリポジトリを同時にアップグレードしないため、すべてのオブジェクトをチェックインする必要があります。 中央リポジトリを新しいバージョンにアップグレードすると、古いバージョンのData Servicesがあるローカルリポジトリからオブジェクトをチェックインできなくなります。