各製品の資料を入手。
詳細はこちら →CData
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Pythonエコシステムには多くのモジュールがあり、システム構築を素早く効率的に行うことができます。本記事では、CData Python Connector for GoogleDataCatalog とpetl フレームワークを使って、Google Data Catalog データにPython から接続してデータを変換、CSV に出力するETL 変換を実装してみます。
CData Python Connector は効率的なデータ処理によりGoogle Data Catalog データ にPython から接続し、高いパフォーマンスを発揮します。Google Data Catalog にデータをクエリする際、ドライバーはフィルタリング、集計などがサポートされている場合SQL 処理を直接Google Data Catalog 側に行わせ、サポートされていないSQL 処理については、組み込みのSQL エンジンによりクライアント側で処理を行います(JOIN やSQL 関数など)。
pip で必要なモジュールおよびフレームワークをインストールします:
pip install petl pip install pandas
モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。
CData Connector を含むモジュールをインポートします。
import petl as etl import pandas as pd import cdata.googledatacatalog as mod
接続文字列で接続を確立します。connect 関数を使って、CData Google Data Catalog Connector からGoogle Data Catalog への接続を行います
cnxn = mod.connect("ProjectId=YourProjectId;InitiateOAuth=GETANDREFRESH;OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")")
認証プロパティを追加する前に、次の接続プロパティを設定してください。
CData 製品は、認証にユーザーアカウント、サービスアカウント、およびGCP インスタンスアカウントの使用をサポートします。
OAuth の設定方法については、ヘルプドキュメントの「OAuth」セクションを参照してください。
Google Data Catalog にはSQL でデータアクセスが可能です。Schemas エンティティからのデータを読み出します。
sql = "SELECT Type, DatasetName FROM Schemas WHERE ProjectId = 'bigquery-public-data'"
DataFrame に格納されたクエリ結果を使って、petl でETL(抽出・変換・ロード)パイプラインを組みます。この例では、Google Data Catalog データ を取得して、DatasetName カラムでデータをソートして、CSV ファイルにデータをロードします。
table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'DatasetName') etl.tocsv(table2,'schemas_data.csv')
CData Python Connector for GoogleDataCatalog を使えば、データベースを扱う場合と同感覚で、Google Data Catalog データ を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。
Google Data Catalog Python Connector の30日の無償トライアル をぜひダウンロードして、Google Data Catalog データ への接続をPython アプリやスクリプトから簡単に作成しましょう。
import petl as etl import pandas as pd import cdata.googledatacatalog as mod cnxn = mod.connect("ProjectId=YourProjectId;InitiateOAuth=GETANDREFRESH;OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")") sql = "SELECT Type, DatasetName FROM Schemas WHERE ProjectId = 'bigquery-public-data'" table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'DatasetName') etl.tocsv(table2,'schemas_data.csv')