製品をチェック

Business b-ridge Driver の30日間無償トライアルをダウンロード

 30日間の無償トライアルへ

製品の詳細

Business b-ridge アイコン Business b-ridge JDBC Driver 相談したい

多様なBusiness b-ridge アカウントデータを組み込んだ強力なJava アプリケーションを短時間・低コストで作成して配布できます。

Apache Airflow でBusiness b-ridge のデータに連携したワークフローを作る

CData JDBC Driver を使ってApache Airflow からBusiness b-ridge のデータにアクセスして操作します。

古川えりか
コンテンツスペシャリスト

最終更新日:2022-09-07
businessbridge ロゴ

CData

jdbc ロゴ画像
Apache Airflow ロゴ

こんにちは!ドライバー周りのヘルプドキュメントを担当している古川です。

Apache Airflow を使うと、データエンジニアリングワークフローの作成、スケジューリング、および監視を行うことができます。CData JDBC Driver for BusinessBridge と組み合わせることで、Airflow からリアルタイムBusiness b-ridge のデータに連携できます。 この記事では、Apache Airflow インスタンスからBusiness b-ridge のデータに接続してクエリを実行し、結果をCSV ファイルに保存する方法を紹介します。

最適化されたデータ処理が組み込まれたCData JDBC Driver は、リアルタイムBusiness b-ridge のデータを扱う上で高いパフォーマンスを提供します。 Business b-ridge にSQL クエリを発行すると、CData ドライバーはフィルタや集計などのBusiness b-ridge 側でサポートしているSQL 操作をBusiness b-ridge に直接渡し、サポートされていない操作(主にSQL 関数とJOIN 操作)は組み込みSQL エンジンを利用してクライアント側で処理します。 組み込みの動的メタデータクエリを使用すると、ネイティブのデータ型を使ってBusiness b-ridge のデータを操作および分析できます。

Business b-ridge への接続を構成する

組み込みの接続文字列デザイナー

JDBC URL の作成の補助として、Business b-ridge JDBC Driver に組み込まれている接続文字列デザイナーが使用できます。JAR ファイルをダブルクリックするか、コマンドラインからjar ファイルを実行します。

java -jar cdata.jdbc.businessbridge.jar

接続プロパティを入力し、接続文字列をクリップボードにコピーします。

Business b-ridge 接続プロパティの取得・設定方法

B b-ridge への接続には、Company Key、Project Key、Subscription Key が必要となります。それぞれWeb API 利用申請時に取得できます。取得したKey を接続プロパティに設定して接続します。

  • CompanyKey:Business b-ridge のCompany Key に設定。
  • ProjectKey:Business b-ridge のProject Key に設定。
  • SubscriptionKey:控えておいたSubscription Key に設定。
組み込みの接続文字列デザイナーを使ってJDBC URL を生成(business b-ridge の場合)

クラスタ環境またはクラウドでJDBC ドライバーをホストするには、ライセンス(フルまたはトライアル)およびランタイムキー(RTK)が必要です。本ライセンス(またはトライアル)の取得については、こちらからお問い合わせください。

以下は、JDBC 接続で要求される必須プロパティです。

プロパティ
Database Connection URL jdbc:businessbridge:RTK=5246...;InitiateOAuth=GETANDREFRESH
Database Driver Class Namecdata.jdbc.businessbridge.BusinessBridgeDriver

Airflow でJDBC 接続を確立する

  1. Apache Airflow インスタンスにログインします。
  2. Airflow インスタンスのナビゲーションバーで、「Admin」にカーソルを合わせ、「Connections」をクリックします。 connections をクリック
  3. 次の画面で「+」マークをクリックして新しい接続を作成します。
  4. Add Connection フォームで、必要な接続プロパティを入力します。
    • Connection Id:接続の名前:businessbridge_jdbc
    • Connection Type:JDBC Connection
    • Connection URL:上記のJDBC 接続URL:jdbc:businessbridge:RTK=5246...;InitiateOAuth=GETANDREFRESH
    • Driver Class:cdata.jdbc.businessbridge.BusinessBridgeDriver
    • Driver Path:PATH/TO/cdata.jdbc.businessbridge.jar
    JDBC 接続フォームを追加
  5. フォームの下にある「Test」ボタンをクリックし、新規の接続をテストします。
  6. 新規接続を保存すると、新しく表示される画面に、接続リストに新しい行が追加されたことを示す緑のバナーが表示されます。 新規接続が追加

DAG を作成する

Airflow におけるDAG は、ワークフローのプロセスを格納するエンティティであり、DAG にトリガーを設定することでワークフローを実行することができます。 今回のワークフローでは、シンプルにBusiness b-ridge のデータに対してSQL クエリを実行し、結果をCSV ファイルに格納します。

  1. はじめに、Home ディレクトリにある「airflow」フォルダに移動します。その中に新しいディレクトリを作成し、タイトルを「dags」とします。 ここに、UI に表示されるAirflow のDAG を構築するPython ファイルを格納します。
  2. 次に新しいPython ファイルを作成し、タイトルをbusiness b-ridge_hook.py にします。この新規ファイル内に、次のコードを挿入します。
    		import time
    		from datetime import datetime
    		from airflow.decorators import dag, task
    		from airflow.providers.jdbc.hooks.jdbc import JdbcHook
    		import pandas as pd
    
    		# Dag の宣言
    		@dag(dag_id="business b-ridge_hook", schedule_interval="0 10 * * *", start_date=datetime(2022,2,15), catchup=False, tags=['load_csv'])
    
    		# Dag となる関数を定義(取得するテーブルは必要に応じて変更してください)
    		def extract_and_load():
    		# Define tasks
    			@task()
    			def jdbc_extract():
    				try:
    					hook = JdbcHook(jdbc_conn_id="jdbc")
    					sql = """ select * from Account """
    					df = hook.get_pandas_df(sql)
    					df.to_csv("/{some_file_path}/{name_of_csv}.csv",header=False, index=False, quoting=1)
    					# print(df.head())
    					print(df)
    					tbl_dict = df.to_dict('dict')
    					return tbl_dict
    				except Exception as e:
    					print("Data extract error: " + str(e))
    
    			jdbc_extract()
    
    		sf_extract_and_load = extract_and_load()
    	
  3. このファイルを保存し、Airflow インスタンスをリフレッシュします。DAG リストの中に、「business b-ridge_hook」というタイトルの新しいDAG が表示されるはずです。 新しいDAG が追加
  4. このDAG をクリックし、新しく表示される画面で一時停止解除スイッチをクリックして青色にし、トリガー(=play)ボタンをクリックしてDAG を実行します。この操作で、business b-ridge_hook.py ファイルのSQL クエリを実行し、結果をCSV としてコード内で指定したファイルパスにエクスポートします。 DAG を実行
  5. 新規のDAG を実行後、Downloads フォルダ(またはPython スクリプト内で選択したフォルダ)を確認し、CSV ファイルが作成されていることを確認します(本ワークフローの場合はaccount.csv です)。 CSV が作成される
  6. CSV ファイルを開くと、Apache Airflow によってBusiness b-ridge のデータがCSV 形式で利用できるようになったことが確認できます。 Business b-ridge のデータのCSV ファイル

詳細と無償トライアル

CData JDBC Driver for BusinessBridge の 30日間無償トライアル をダウンロードして、Apache Airflow でリアルタイムBusiness b-ridge のデータの操作をはじめましょう!ご不明な点があれば、サポートチームにお問い合わせください。

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。