このページは機械翻訳したものです。

考慮事項およびサポート情報

データ統合でデータ・アセットを作成する前に、何がサポートされているか、および現在の制限、依存関係および必要なタスクを理解していることを確認してください。

OCI VaultのシークレットおよびOracle Wallet

Oracle Cloud Infrastructureデータ統合はOracle Cloud Infrastructure Vaultと統合されており、ボールト、キーおよびシークレットを使用して機密情報を管理できます。

ボールトとは、キーおよびシークレットのためのコンテナです。シークレットには、データ・ソースへの接続に必要なパスワードなどの資格証明が格納されます。ボールトの暗号化キーを使用して、シークレット・コンテンツを暗号化し、ボールトにインポートします。シークレット・コンテンツはbased64でエンコードされます。Oracle Cloud Infrastructure Data Integrationは、データ・アセットの作成とデータ・ソースへの接続時に、同じキーを使用してシークレットを取得および復号化します。

ほとんどのデータ・ソース・タイプでは、OCI Vaultのシークレットを使用して、データ・アセット内のデフォルト接続のパスワードを格納できます。ボールトとシークレットを作成するには、Vaultの作成およびVaultでのシークレットの作成を参照してください。

データ・アセットを作成するときに、接続詳細でシークレットのOCIDを指定するため、実際のパスワードを入力する必要はありません。シークレットOCIDをコピーするには、シークレットの詳細の取得を参照してください。

Oracle Database、Oracle Autonomous Data WarehouseおよびOracle Autonomous Transaction Processingソースの場合、データ・アセットの作成時にウォレットをアップロードしてウォレット・パスワードを入力するのではなく、Oracle Walletおよびパスワードにシークレットを使用するというオプションがあります。

Oracle WalletをOCI Vaultのシークレットとともに使用するには、次のようにする必要があります:

  1. ウォレットをダウンロードするときに、ウォレット・パスワードを指定します。
  2. ダウンロードしたウォレットzipから.p12ファイルを削除します。
  3. 任意のbase64エンコーダを使用して、変更したウォレットzipをbase64にエンコードします。
  4. base64でエンコードしたデータをボールトのシークレットにコピーします。
  5. ウォレット・パスワードにシークレットを作成します。
  6. データベース・パスワードにシークレットを作成します。

OCI Vaultのシークレットを使用するには、次のポリシーがあることを確認します:

allow any-user to read secret-bundles in compartment <compartment-name> where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace-ocid>'}

次のポリシーを使用して、管理者ではないユーザーのグループがOracle Autonomous Data WarehouseおよびOracle Autonomous Transaction Processingでシークレットを使用できるようにします:

allow group <group-name> to read secret-bundles in compartment <compartment-name>

データ・アセットでサポートされるデータ・ソース

次の表に、データ統合で使用できるデータ・ソースを示します。

データ・ソース・タイプ バージョン ソース ターゲット
Amazon RDS for SQL Server 2019 Yes No
2017 Yes No
2016サービス・パック2 Yes No
2014サービス・パック3 Yes No
2012 Service Pack 4 Yes No
Amazon Redshift Amazon Redshift Yes No
Apache Hive CDH 5.4以上 Yes No
Apache 1.0、2.0および3.0以上 Yes Yes
Hadoop分散ファイル・システム(HDFS) 3.1.2 Yes Yes
Azure SQL Database 11.0 以上 Yes No
12.0 以上 Yes No
Microsoft Azure Synapse Analytics 12.0 以上 Yes No
Microsoft SQL Server 2022 Yes No
2019 Yes No
2017 Yes No
2016サービス・パック2 Yes No
2014サービス・パック3 Yes No
2012 Service Pack 4 Yes No
MySQL 5.7.xおよび8.0.x Yes Yes
MySQL HeatWave 8.0 以上 Yes No
Amazon RDS上のMySQL 5.7.xおよび8.0.x Yes No
Amazon S3 Amazon S3 Yes No
Autonomous Data Warehouse 18c/19c Yes Yes
Autonomous Transaction Processing 18c/19c Yes Yes
Oracle Database 11g ○(SQLタスク・ストアド・プロシージャ以外) Yes
12.1 Yes Yes
12.2 Yes Yes
18 Yes Yes
19 Yes Yes
21 Yes Yes

Oracle Cloud Infrastructure上のOracle Database

11g ○(SQLタスク・ストアド・プロシージャ以外) Yes
12.1 Yes Yes
12.2 Yes Yes
18 Yes Yes
19 Yes Yes
Oracle Peoplesoft

CRM 8.4以上

PeopleTools 8.49以上

Yes No
Oracle Siebel 8.0 以上 Yes No
Oracle E-Business Suite 12.0.4 以上 Yes No
Exadata DBシステム 11g ○(SQLタスク・ストアド・プロシージャ以外) Yes
12.1 Yes Yes
12.2 Yes Yes
18 Yes Yes
19 Yes Yes
Oracle Cloud Infrastructure Object Storage 最新 Yes Yes
Amazon RDS上のOracle 12.1 Yes No
12.2 Yes No
18 Yes No
19 Yes No
21 Yes No
Oracle Business Intelligence Cloud Connector (BICC)を使用したOracle Fusion Applications

BICC APIバージョン13.20.10以上

Fusion Applicationsバージョン13.20.10 (20 Oct)以上

YesNo
Oracle Business Intelligence Publisher (BIP)を使用したOracle Fusion Applications 11.1.1.9以上 Yes No
PostgreSQL 12.0 以上 Yes No
11.0 以上 Yes No
10.1 Yes No
9.6、9.5、9.4、9.3、9.2、9.1および9.0 Yes No
8.4、8.3および8.2 Yes No
IBM DB2 DB2 V11.1以上(Linux、UNIX、Windows) Yes No
DB2 V10.1以上(Linux、UNIX、Windows) Yes No
DB2 V9.1以上(Linux、UNIX、Windows) Yes No
DB2 V8.x以上(Linux、UNIX、Windows) Yes No
DB2 V12以上(z/OS) Yes No
DB2 V11以上(z/OS) Yes No
DB2 V10以上(z/OS) Yes No
DB2 V9.1以上(z/OS) Yes No
DB2 UDB V8.1 (z/OS) Yes No
DB2 i 7.1以上 Yes No
DB2 i 6.1以上 Yes No
DB2 V5R4以上(i5/OS) Yes No
Amazon Web Services (AWS) Aurora PostgreSQL 1.0 以上 Yes No
Influx DB 1.8および2.x Yes No
REST OpenAPI 3.0.0以上 Yes No
Snowflake 適用なし Yes No
Salesforce Salesforce API 56.0 Yes No

サポートされるオブジェクト・タイプ

Oracle Cloud Infrastructure Object StorageおよびAmazon S3データ・アセットの場合、データ統合では次のオブジェクト・タイプがサポートされます:

  • CSV
  • JSON
  • Parquet
  • Avro
  • Excel (現在、XLSXファイルのみがサポートされています。)

プリミティブ・データ型の読取りおよび書込みのみがサポートされています。

サポートされる圧縮タイプ

Oracle Cloud Infrastructure Object Storageデータ・アセットの場合、データ統合では、ソース演算子またはターゲット演算子でCSVまたはJSONオブジェクト・ファイル・タイプを使用できるように、次の圧縮タイプまたは圧縮方法がサポートされています:

  • 自動(デフォルト)
  • Gzip
  • Bzip2
  • Deflate
  • Lz4
  • Snappy

ParquetおよびAvroファイル・タイプの場合は、「自動(デフォルト)」のみがサポートされます。

ソース・ファイルが圧縮されている場合、圧縮タイプは、使用されている圧縮アルゴリズムです。圧縮アルゴリズムが不明な場合は、「自動(デフォルト)」圧縮タイプを使用してください。

サポートされないデータ型

データソース サポートされないデータ型
Oracle Database
  • RAW
  • ROWID
  • UROWID
  • BFILE
  • TIMESTAMP WITH LOCAL TIMEZONE
  • INTERVAL DAY TO SECOND
  • INTERVAL YEAR TO MONTH
  • XMLTYPE
  • SDO_GEOMETRY
  • NCHAR
  • NVARCHAR

階層データ型

データ統合では、ソースおよびターゲットのデータ・エンティティで階層データ型がサポートされます。

階層データ型のデータの読取りおよび書込みを行うには、現在、汎用RESTデータ・アセットおよびOCI Object Storage、Amazon S3、HDFSなどのファイル・ストレージ・データ・アセットのみを使用できます。JSONファイル形式は、汎用RESTデータ・アセットでサポートされています。ファイル・ストレージ・データ・アセットでは、次のファイル形式がサポートされています:

  • JSONおよび複数行JSON
  • Avro
  • Parquet

サポートされる階層データ型は、Array、StructおよびMap複合型です。JSONからAvroまたはAvroからJSONなど、任意のファイル・タイプ間の変換を実行できます。

階層データ・エンティティおよび複合型を使用する前に、コンポーネントの操作やタスクの実行を行う際にデータ統合でサポートされている機能について理解しておく必要があります。

タスク/コンポーネントサポート制限事項
データ・ソースの準備
  • 汎用RESTデータ・アセットおよびJSONファイル形式
  • OCI Object Storageデータ・アセットおよびJSON、複数行JSON、AvroおよびParquetファイル形式
  • Array、StructおよびMap複合型
  • ArrayはAvroおよびParquetファイル形式ではサポートされていません
ソース演算子の追加および構成
  • JSON、AvroおよびParquetファイル・タイプ
  • ARRAY_TYPECOMPOSITE_TYPE (Struct)およびMAP_TYPEの第1レベル・フィールドに対する除外ルールおよび名前変更ルール
  • 複合型が簡略化されたデータ構造で表示されます
  • 「属性」タブ: ネストされたフィールドにルールを適用できません
  • 「データ」タブ: 複合型にはデータ・プロファイルが表示されません
ターゲット演算子の追加および構成

「新規データ・エンティティの作成」チェック・ボックスを選択します。

  • JSON、AvroおよびParquet階層ファイル形式
  • Array、StructおよびMap複合型

既存のデータ・エンティティを選択します:

  • ファイル: JSON、AvroおよびParquet階層ファイル形式
  • データベース: Oracle DatabaseおよびOracle Cloud Infrastructure上のOracle Databaseのみ
整形演算子の使用
  • ArrayおよびStruct複合型はすべての演算子でサポートされます
  • 和集合演算子では、Union All (重複行を含める)のみがArrayおよびStruct複合型でサポートされます
  • Union All、マイナス、論理積、フィルタおよび分割演算子の場合: Map複合型はサポートされていません
  • Union (重複行を除外)はサポートされていません
  • 属性の一括選択およびパターンは複合型ではサポートされていません。たとえば、属性の一括選択のための%MACRO_INPUT%は、式ビルダーではサポートされていません。
マップ属性
  • JSON、AvroおよびParquet階層データ・エンティティの第1レベル・フィールドをマップできます
  • ネストされたフィールドをマップするには、ネストされたフィールドの式を作成し、導出されたフィールドをマップします
  • 階層データ・エンティティのネストされたフィールドは直接マップできません

たとえば、NAMEおよびEMAILはマップできます。NAMEF_NAMEおよびL_NAMEは直接マップできません。EMAILEMAILIDおよびEMAILTYPEは直接マップできません:

{
   "CUST_ID":1333,
   "NAME":{
      "F_NAME":"Sam",
      "L_NAME":"Smith"
   },
   "EMAIL":[
      {
         "EMAILID":"abc@oracle.com",
         "EMAILtype":"work"
      },
      {
         "EMAILID":"abc@othermail.com",
         "EMAILtype":"personal"
      }
   ],
   "GENDER":"Male"
}
データ変換の使用(データ・タブ)
  • ARRAY_TYPECOMPOSITE_TYPEおよびMAP_TYPEの第1レベル・フィールドに対する除外変換および名前変更変換
  • その他の変換およびバルク変換は、複合型ではサポートされていません

Unicodeのサポート

データ統合では、Unicode標準がサポートされています。これは、任意の言語で記述された文字およびテキストの汎用文字エンコーディング標準です。Unicode標準では、プラットフォーム、デバイスまたはアプリケーションに関係なく、すべての文字に対して一意の番号が提供されています。たとえば、英字「A」に対応するUnicode文字は0041です。

データ統合では、データおよびメタデータ内でUnicode文字(マルチバイト文字を含む)がサポートされています。

データにおけるUnicodeサポートとは、ソース・データ・アセットとターゲット・データ・アセットの属性および属性値にUnicode文字とマルチバイト文字を使用できることを意味します。また、式にUnicode文字およびマルチバイト文字を入力することもできます。JSONおよびCSVのオブジェクト・ストレージ・データ・アセットの場合、デフォルトのエンコーディングはUTF-8であり、変更できません。

メタデータにおけるUnicodeのサポートとは、データ・アセットのデータ・エンティティおよびスキーマの名前にUnicode文字とマルチバイト文字を使用できることを意味します。また、データ統合でオブジェクトの作業中に、名前と説明にUnicodeおよびマルチバイト文字を入力することもできます。

Unicode標準では、Unicode文字に割り当てられた一意の番号がコード・ポイントです。現在、データ統合では、次のUnicodeコード・ポイントおよびコード・ポイント範囲がサポートされています:

コード・ポイントまたは範囲文字サポートされる文字数
Basic Latin文字
0024$ (ドル記号)1
0041 - 005AAからZ26
005F_ (アンダースコア)1
0061 - 007Aaからz26
Latin-1 Supplement文字
00C0 - 00D6Latin-1 Supplement文字(アクセント付き)23
00D8 - 00F631
00F8 - 00FF8
Latin Extended-AからGreek Extendedまでの46範囲の文字
0100 - 1FFF次の名前付き範囲の文字: Latin Extended-A、Latin Extended-B、IPA Extensions、Spacing Modifier Letters、Combining Diacritical Marks、Greek and Coptic、Cyrillic、Cyrillic Supplementary、Armenian、Hebrew、Arabic、Syriac、Thaana、Devanagari、Bengali、Gurmukhi、Gujarati、Oriya、Tamil、Telugu、Kannada、Malayalam、Sinhala、Thai、Lao、Tibetan、Myanmar、Georgian、Hangul Jamo、Ethiopic、Cherokee、Unified Canadian Aboriginal Syllabics、Ogham、Runic、Tagalog、Hanunoo、Buhid、Tagbanwa、Khmer、Mongolian、Limbu、Tai Le、Khmer Symbols、Phonetic Extensions、Latin Extended Additional、Greek Extended7936
ヒラガナからハングル互換性ジャモまでの4範囲の文字
3040 - 318F次の名前付き範囲の文字: Hiragana、Katakana、Bopomofo、Hangul Compatibility Jamo336
4CJK (中国語、日本語および韓国語)範囲の文字
3300 - 337FCJK互換文字128
3400 - 3D2DCJK統合漢字拡張A文字2350
4E00 - 9FFFCJK統合漢字20992
F900 - FAFFCJK互換漢字512

データ型マッピングの理解

使用するソース・システムおよびターゲット・システムのデータ型は、Oracle Cloud Infrastructureデータ統合の汎用データ型のコア・セットとの間でマップされます。

汎用データ型のセットのうち、一部の型には長さ、スケールおよびその他のプロパティがあり、データ型をさらに制限するために使用できます。

データ統合における式演算子では、まだすべての汎用データ型はサポートされていません。ある汎用データ型に基づいて新しい属性を作成できるのは、その汎用型がサポートされている場合のみです。

ネットワーク構成

ネットワーク構成は、データ統合サービスで使用しているソース・データ・アセットとターゲット・データ・アセット、およびアセットが配置されている場所によって異なります。

データ統合のVCN構成の理解ブログを参照して、ニーズに応じたオプションを特定してください。

ワークスペースには、仮想クラウド・ネットワーク(VCN)をアタッチできます。プライベート・ネットワークのデータ・ソースの場合は、少なくとも1つのリージョン・サブネットを含むVCNを作成します。リージョン・サブネットのみがサポートされます。サブネットでDNSホスト名を使用する必要があります。データ・ソースの場所によっては、他のネットワーク・オブジェクト(サービス・ゲートウェイ、ネットワーク・セキュリティ・グループ、ネットワーク・アドレス変換(NAT)ゲートウェイなど)を作成する必要があります。

一般に、インターネットからアクセス可能なデータ・ソースについては:

  • ワークスペースにアタッチされたVCNがある場合: データ統合は、ワークスペースのVCN上のNAT (Network Address Translation)ゲートウェイを介して直接接続できます。
  • ワークスペースにVCNがアタッチされていない場合: データ統合はパブリックIPアドレスを使用して直接接続できます。

サブネット内でプライベートIPが定義されているリソース(ワークスペースなど)は、ローカルまたはリモートのピアリング・ゲートウェイを使用し、サービス・ゲートウェイまたはNATゲートウェイを介して、様々な仮想クラウド・ネットワークおよびリージョン内の他のプライベート・リソースにアクセスできます。

オブジェクト・ストレージとAutonomous Data Warehouseの両方にアクセスする必要がある場合は、ゲートウェイを組み合わせることもできます。たとえば、パブリック接続には、オブジェクト・ストレージ用のサービス・ゲートウェイとAutonomous Data Warehouse用のNATゲートウェイの両方が必要です。

インターネットからアクセスできないデータ・ソースについては、他に次のようなオプションがあります:

  • データ・ソースと同じサブネット内にプライベート・エンドポイントがあり、そのプライベート・エンドポイントが有効になったワークスペースを作成します。

  • Oracle Cloud Infrastructure FastConnectを使用します。

  • Oracle Cloud Infrastructure VPN接続(IPSec VPNとも呼ばれる)を使用します。

ただし、次のソースがプライベート・ドメイン内にある場合は、Oracle Cloud Infrastructure FastConnectおよびOracle Cloud Infrastructure VPN接続を使用する必要があります:

  • Amazon RDS上のOracle
  • Amazon RDS上のMySQL
  • Amazon RDS for SQL Server
  • Microsoft Azure SQL Database

Oracle Cloud Infrastructure Networkingドキュメント: