こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Oracle Data Integrator(ODI)はOracle エコシステムのハイパフォーマンスなデータ統合プラットフォームです。CData JDBC Driver for SparkSQL を使えば、OCI をはじめとするETL ツールからSpark のデータにJDBC 経由で簡単に読み取りと書き込みを実現できます。リアルタイムSpark のデータをデータウェアハウス、BI・帳票ツール、CRM、基幹システムなどに統合すれば、データ活用もぐっと楽に。
CData のコネクタを使えば、Spark API にリアルタイムで直接接続して、ODI 上で通常のデータベースと同じようにSpark のデータを操作できます。Spark エンティティのデータモデルを構築、マッピングを作成し、データの読み込み方法を選択するだけの簡単なステップでSpark のデータのETL が実現できます。
ドライバーのインストール
ドライバーをインストールするには、インストールフォルダにあるドライバーのJAR ファイルと.lic ファイルをODI の適切なディレクトリにコピーします。
- UNIX/Linux(Agent なし):~/.odi/oracledi/userlib
- UNIX/Linux(Agent):$ODI_HOME/odi/agent/lib
- Windows(Agent なし):%APPDATA%\Roaming\odi\oracledi\userlib
- Windows(Agent):%APPDATA%\Roaming\odi\agent\lib
ODI を再起動してインストールを完了します。
モデルのリバースエンジニアリング
ODI の機能を使ってモデルをリバースエンジニアリングすることで、ドライバー側で取得したSpark のデータのリレーショナルビューに関するメタデータが取得できます。リバースエンジニアリング後、リアルタイムSpark のデータにクエリを実行してSpark テーブルのマッピングを作成できます。
-
ODI でリポジトリに接続し、「New」->「Model and Topology Objects」をクリックします。
- 表示されるダイアログの「Model」画面で、以下の情報を入力します。
- Name:SparkSQL と入力します。
- Technology:Technology:Generic SQL(ODI がVersion 12.2+ の場合はMicrosoft SQL Server)を選択します。
- Logical Schema:SparkSQL と入力します。
- Context:Global を選択します。
- 表示されるダイアログの「Data Server」画面で、以下の情報を入力します。
- Name:SparkSQL と入力します。
- Driver List:Oracle JDBC Driver を選択します。
- Driver:cdata.jdbc.sparksql.SparkSQLDriver と入力します。
- URL:接続文字列を含むJDBC URL を入力します。
SparkSQL への接続
SparkSQL への接続を確立するには以下を指定します。
- Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
- Port:SparkSQL インスタンスへの接続用のポートに設定。
- TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
- AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
Databricks への接続
Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、
「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。
- Server:Databricks クラスターのサーバーのホスト名に設定。
- Port:443
- TransportMode:HTTP
- HTTPPath:Databricks クラスターのHTTP パスに設定。
- UseSSL:True
- AuthScheme:PLAIN
- User:'token' に設定。
- Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。
組み込みの接続文字列デザイナー
JDBC URL の作成の補助として、Spark JDBC Driver に組み込まれている接続文字列デザイナーが使用できます。JAR ファイルをダブルクリックするか、コマンドラインからjar ファイルを実行します。
java -jar cdata.jdbc.sparksql.jar
接続プロパティを入力し、接続文字列をクリップボードにコピーします。
一般的な接続文字列は次のとおりです。
jdbc:sparksql:Server=127.0.0.1;
- Physical Schema 画面で、以下の情報を入力します。
- Name:ドロップダウンメニューから選択します。
- Database (Catalog):CData と入力します。
- Owner (Schema):Spark にSchema を選択した場合は、選択したSchema を入力し、それ以外の場合はSparkSQL と入力します。
- Database (Work Catalog):CData と入力します。
- Owner (Work Schema):Spark にSchema を選択した場合は、選択したSchema を入力し、それ以外の場合はSparkSQL と入力します。
- 開いたモデルで「Reverse Engineer」をクリックしてSpark テーブルのメタデータを取得します。
Spark のデータの編集と保存
リバースエンジニアリング後、ODI でSpark のデータを操作できるようになります。
Spark のデータを編集し保存するには、Designer ナビゲーターでモデルアコーディオンを展開し、テーブルを右クリックして「Data」をクリックします。「Refresh」をクリックしてデータの変更を取得します。変更が完了したら「Save Changes」をクリックします。
ETL プロジェクトの作成
次の手順に従って、Spark からETL を作成します。Customers エンティティをODI Getting Started VM に含まれているサンプルデータウェアハウスにロードします。
SQL Developer を開き、Oracle データベースに接続します。Connections ぺインでデータベースのノードを右クリックし、「New SQL Worksheet」をクリックします。
もしくは、SQLPlus を使用することもできます。コマンドプロンプトから、以下のように入力します。
sqlplus / as sysdba
- 以下のクエリを入力し、ODI_DEMO スキーマにあるサンプルデータウェアハウスに新しいターゲットテーブルを作成します。以下のクエリは、Spark のCustomers テーブルに一致するいくつかのカラムを定義します。
CREATE TABLE ODI_DEMO.TRG_CUSTOMERS (BALANCE NUMBER(20,0),City VARCHAR2(255));
- ODI でDesigner ナビゲーターのModels アコーディオンを展開し、ODI_DEMO フォルダの「Sales Administration」ノードをダブルクリックします。Model Editor でモデルが開きます。
- 「Reverse Engineer」をクリックします。TRG_CUSTOMERS テーブルがモデルに追加されます。
- プロジェクトの「Mappings」ノードを右クリックし、「New Mapping」をクリックします。マッピングの名前を入力し、「Create Empty Dataset」オプションを無効にします。Mapping Editor が表示されます。
- TRG_CUSTOMERS テーブルをSales Administration モデルからマッピングにドラッグします。
- Customers テーブルをSpark モデルからマッピングにドラッグします。
- ソースコネクタポイントをクリックしてターゲットコネクタポイントにドラッグします。Attribute Matching ダイアログが表示されます。ここでは、デフォルトオプションを使用します。その場合、目的の動作はターゲットカラムのプロパティに表示されます。
- Mapping Editor のPhysical タブを開き、TARGET_GROUP の「CUSTOMERS_AP」をクリックします。
- CUSTOMERS_AP プロパティで、Loading Knowledge Module タブの「LKM SQL to SQL (Built-In)」を選択します。
これで、マッピングを実行してSpark のデータをOracle にロードできます。