製品をチェック

Apache Spark Driver の30日間無償トライアルをダウンロード

 30日間の無償トライアルへ

製品の詳細

Apache Spark アイコン Apache Spark JDBC Driver 相談したい

Apache Spark 連携のパワフルなJava アプリケーションを素早く作成して配布。

Oracle Data Integrator でSpark のデータをETL する方法

この記事では、Oracle Data Integrator を使ってSpark のデータをデータウェアハウスに転送する方法を説明します。

加藤龍彦
デジタルマーケティング

最終更新日:2022-01-31
spark ロゴ

CData

jdbc ロゴ画像
Oracle Data Integrator ロゴ

こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。

Oracle Data Integrator(ODI)はOracle エコシステムのハイパフォーマンスなデータ統合プラットフォームです。CData JDBC Driver for SparkSQL を使えば、OCI をはじめとするETL ツールからSpark のデータにJDBC 経由で簡単に読み取りと書き込みを実現できます。リアルタイムSpark のデータをデータウェアハウス、BI・帳票ツール、CRM、基幹システムなどに統合すれば、データ活用もぐっと楽に。

CData のコネクタを使えば、Spark API にリアルタイムで直接接続して、ODI 上で通常のデータベースと同じようにSpark のデータを操作できます。Spark エンティティのデータモデルを構築、マッピングを作成し、データの読み込み方法を選択するだけの簡単なステップでSpark のデータのETL が実現できます。

ドライバーのインストール

ドライバーをインストールするには、インストールフォルダにあるドライバーのJAR ファイルと.lic ファイルをODI の適切なディレクトリにコピーします。

  • UNIX/Linux(Agent なし):~/.odi/oracledi/userlib
  • UNIX/Linux(Agent):$ODI_HOME/odi/agent/lib
  • Windows(Agent なし):%APPDATA%\Roaming\odi\oracledi\userlib
  • Windows(Agent):%APPDATA%\Roaming\odi\agent\lib

ODI を再起動してインストールを完了します。

モデルのリバースエンジニアリング

ODI の機能を使ってモデルをリバースエンジニアリングすることで、ドライバー側で取得したSpark のデータのリレーショナルビューに関するメタデータが取得できます。リバースエンジニアリング後、リアルタイムSpark のデータにクエリを実行してSpark テーブルのマッピングを作成できます。

  1. ODI でリポジトリに接続し、「New」->「Model and Topology Objects」をクリックします。 新しいモデルを作成
  2. 表示されるダイアログの「Model」画面で、以下の情報を入力します。
    • Name:SparkSQL と入力します。
    • Technology:Technology:Generic SQL(ODI がVersion 12.2+ の場合はMicrosoft SQL Server)を選択します。
    • Logical Schema:SparkSQL と入力します。
    • Context:Global を選択します。
    モデルを設定
  3. 表示されるダイアログの「Data Server」画面で、以下の情報を入力します。
    • Name:SparkSQL と入力します。
    • Driver List:Oracle JDBC Driver を選択します。
    • Driver:cdata.jdbc.sparksql.SparkSQLDriver と入力します。
    • URL:接続文字列を含むJDBC URL を入力します。

      SparkSQL への接続

      SparkSQL への接続を確立するには以下を指定します。

      • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
      • Port:SparkSQL インスタンスへの接続用のポートに設定。
      • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
      • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

      Databricks への接続

      Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

      • Server:Databricks クラスターのサーバーのホスト名に設定。
      • Port:443
      • TransportMode:HTTP
      • HTTPPath:Databricks クラスターのHTTP パスに設定。
      • UseSSL:True
      • AuthScheme:PLAIN
      • User:'token' に設定。
      • Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。

      組み込みの接続文字列デザイナー

      JDBC URL の作成の補助として、Spark JDBC Driver に組み込まれている接続文字列デザイナーが使用できます。JAR ファイルをダブルクリックするか、コマンドラインからjar ファイルを実行します。

      java -jar cdata.jdbc.sparksql.jar

      接続プロパティを入力し、接続文字列をクリップボードにコピーします。

      組み込みの接続文字列デザイナーを使ってJDBC URL を生成(Salesforce の場合)

      一般的な接続文字列は次のとおりです。

      jdbc:sparksql:Server=127.0.0.1;
    Data Server を設定
  4. Physical Schema 画面で、以下の情報を入力します。
    • Name:ドロップダウンメニューから選択します。
    • Database (Catalog):CData と入力します。
    • Owner (Schema):Spark にSchema を選択した場合は、選択したSchema を入力し、それ以外の場合はSparkSQL と入力します。
    • Database (Work Catalog):CData と入力します。
    • Owner (Work Schema):Spark にSchema を選択した場合は、選択したSchema を入力し、それ以外の場合はSparkSQL と入力します。
    Physical Schema を設定
  5. 開いたモデルで「Reverse Engineer」をクリックしてSpark テーブルのメタデータを取得します。 モデルをリバースエンジニアリング

Spark のデータの編集と保存

リバースエンジニアリング後、ODI でSpark のデータを操作できるようになります。 Spark のデータを編集し保存するには、Designer ナビゲーターでモデルアコーディオンを展開し、テーブルを右クリックして「Data」をクリックします。「Refresh」をクリックしてデータの変更を取得します。変更が完了したら「Save Changes」をクリックします。 データを表示

ETL プロジェクトの作成

次の手順に従って、Spark からETL を作成します。Customers エンティティをODI Getting Started VM に含まれているサンプルデータウェアハウスにロードします。

  1. SQL Developer を開き、Oracle データベースに接続します。Connections ぺインでデータベースのノードを右クリックし、「New SQL Worksheet」をクリックします。

    もしくは、SQLPlus を使用することもできます。コマンドプロンプトから、以下のように入力します。

    sqlplus / as sysdba
  2. 以下のクエリを入力し、ODI_DEMO スキーマにあるサンプルデータウェアハウスに新しいターゲットテーブルを作成します。以下のクエリは、Spark のCustomers テーブルに一致するいくつかのカラムを定義します。 CREATE TABLE ODI_DEMO.TRG_CUSTOMERS (BALANCE NUMBER(20,0),City VARCHAR2(255));
  3. ODI でDesigner ナビゲーターのModels アコーディオンを展開し、ODI_DEMO フォルダの「Sales Administration」ノードをダブルクリックします。Model Editor でモデルが開きます。
  4. 「Reverse Engineer」をクリックします。TRG_CUSTOMERS テーブルがモデルに追加されます。
  5. プロジェクトの「Mappings」ノードを右クリックし、「New Mapping」をクリックします。マッピングの名前を入力し、「Create Empty Dataset」オプションを無効にします。Mapping Editor が表示されます。
  6. TRG_CUSTOMERS テーブルをSales Administration モデルからマッピングにドラッグします。
  7. Customers テーブルをSpark モデルからマッピングにドラッグします。
  8. ソースコネクタポイントをクリックしてターゲットコネクタポイントにドラッグします。Attribute Matching ダイアログが表示されます。ここでは、デフォルトオプションを使用します。その場合、目的の動作はターゲットカラムのプロパティに表示されます。
  9. Mapping Editor のPhysical タブを開き、TARGET_GROUP の「CUSTOMERS_AP」をクリックします。
  10. CUSTOMERS_AP プロパティで、Loading Knowledge Module タブの「LKM SQL to SQL (Built-In)」を選択します。 Spark へのSQL ベースのアクセスには、標準データベース間のナレッジモジュールを使用できます

これで、マッピングを実行してSpark のデータをOracle にロードできます。

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。