製品をチェック

Apache Spark Driver の30日間無償トライアルをダウンロード

 30日間の無償トライアルへ

製品の詳細

Apache Spark アイコン Apache Spark JDBC Driver 相談したい

Apache Spark 連携のパワフルなJava アプリケーションを素早く作成して配布。

国産BI ツールのActionista! からSpark に直接連携してビジュアライズ

Actionista! からリアルタイムSpark のデータに直接連携して分析を実施。

桑島義行
テクニカルディレクター

最終更新日:2022-07-20
spark ロゴ

CData

jdbc ロゴ画像
Actionista! ロゴ

こんにちは!テクニカルディレクターの桑島です。

CData Driver for SparkSQL を使って、国産BIツールのActionista!(https://www.justsystems.com/jp/products/actionista/) からSpark のデータをノーコードで連携して利用できます。この記事では、間にETL/EAI ツールをはさむ方法ではなく、CData JDBC Driver for SparkSQL をActionista! 側に組み込むだけで連携を実現できます。

Actionista! からSpark のデータへの連携を設定

CData JDBC Driver for SparkSQL をActionista! に配置

  • CData JDBC Driver for SparkSQL をActionista! と同じマシンにインストールします。
  • 次にインストールした.jar ファイルを以下のパスに格納します:
    ドライバー.jar ファイルのディレクトリ C:\Program Files\CData\CData JDBC Driver for SparkSQL 2019J\lib\cdata.jdbc.sparksql.jar
    Actionista! 側のコピー先ディレクトリ C:\JUST\JustBI\jdbc
  • 次に、C:\JUST\JustBI\conf にあるdatamanager.properties プロパティファイルに今回使用するSpark のドライバークラスなどを以下のように指定します:
  • # SparkSQL loader.jdbc.displayName.SparkSQL = SparkSQL loader.jdbc.initJdbcUrl.SparkSQL = jdbc:sparksql: loader.jdbc.url.SparkSQL = jdbc:sparksql: loader.jdbc.driver.SparkSQL = cdata.jdbc.sparksql.SparkSQLDriver loader.jdbc.dbmsInfo.SparkSQL = cdata.jdbc.sparksql.SparkSQLDriver
  • これでActionista! へのドライバーの配置が完了しました。

Spark のデータをActionista! のキューブに取り込み

Actionista! ではデータの保持をキューブという単位で保存します。また、クエリでデータソースからデータを取得するのではなく、キューブに対してクエリを行います。このステップでは、Spark のデータをキューブに取り込み、分析で使えるようにします。

  • Actionista! にログインします。
  • 「DataManager」-> 「+キューブの新規作成」をクリックします。
  • CData JDBC ドライバはRDB データソースとしてActionista! から利用できるので、「RDB」を選択します。
  • 設定情報にSpark への接続に必要なプロパティを入れます:
    • RDB の種類:には、上のステップでdisplayName で指定した名前をドロップダウンで選びます。
    • 接続URL:Spark に接続するための認証情報をセミコロン区切りで入力します。

      SparkSQL への接続

      SparkSQL への接続を確立するには以下を指定します。

      • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
      • Port:SparkSQL インスタンスへの接続用のポートに設定。
      • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
      • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

      Databricks への接続

      Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

      • Server:Databricks クラスターのサーバーのホスト名に設定。
      • Port:443
      • TransportMode:HTTP
      • HTTPPath:Databricks クラスターのHTTP パスに設定。
      • UseSSL:True
      • AuthScheme:PLAIN
      • User:'token' に設定。
      • Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。

      jdbc:sparksql:Server=127.0.0.1;
    • ユーザー名:接続するアカウントのユーザー名(URL に含めることも可)
    • パスワード:接続するアカウントのパスワード(URL に含めることも可)
  • Actionista! のキューブにSpark を設定(Salesforce is shown.)
  • 「接続」ボタンを押してSpark に接続します。
  • Spark への接続が完了すると、JDBC Driver がSpark のスキーマを取得して、テーブル・ビューをプルダウンメニューに表示します。分析キューブで使用するテーブル・ビューを選択して、OK ボタンを押します。
  • Spark のテーブルを選択(Salesforce is shown.)
  • 選択したオブジェクトのカラムが表示されます。JDBC Driver は、Spark のデータのスキーマを検出してActionista! に渡すので、カラム名だけでなく、データ型の推定がすでになされています。ここで細かい型修正やデータの抽出条件を必要があれば設定して保存します。
  • Spark オブジェクトを選択してスキーマ修正(Salesforce is shown.)
  • データマネージャー画面でSpark のデータを選択して、「+取り込み」ボタンを押すとデータがキューブに保存されます。これでキューブへのデータ登録が完了です。

Actionista! 上にSpark のデータのダッシュボードを作成する

それでは簡単なダッシュボードを作成していきます。

  • 「Dashboard」-> 「ダッシュボードの新規作成」-> 「キューブから作成」をクリックします。
  • Spark キューブを選択(Salesforce is shown.)
  • 先ほど作成したSpark のデータのキューブを選択して、ダッシュボード名を任意で入力して、OK を押します。
  • 左側にある明細パネルを右側のエリアにドラッグ&ドロップしますと、明細パネルの作成ウィンドウが表示されるので、Spark キューブから表示させる項目を選択します。
  • Spark キューブから分析で使用するカラムを選択(Salesforce is shown.)
  • そのままキューブのデータが表示することができます。ドリルダウンなどを行いたい場合は、サイドメニューにある分析パネルで作成してください。
  • Spark のデータをActionista! でビジュアライズ(Salesforce is shown.)

CData JDBC Driver for SparkSQL をActionista! で使うことで、ノーコードでSpark のデータをビジュアライズできました。ぜひ、30日の無償評価版をお試しください。

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。