pandas.read_gbq 便利ですよね。
クレデンシャルファイルを認証画面からコピペすれば Jupyter Notebook 上で簡単に認証され、Google BigQuery が実行されてその結果がそのままデータフレームとして扱えます。
Jupyter Notebook と Google BigQuery を連携させたいときは愛用していました(過去形)。
問題点
-
そこそこ大きなデータを持ってこようとすると、めちゃくちゃ遅くてストレスが凄い
解決方法として、Google BigQuery で巨大なデータをダウンロードする方法について書きます。
実は Google の公式ドキュメントでも推奨されています。
方法は以下の2つ。
-
google-cloud-bigquery
をインストールして、マジックコマンドで Google BQ を実行 -
BQ 実行 →BigQuery table として保存 →GCS へ保存 →
gsutil
でマシンへコピー
1 番目は、Jupyter 上でマジックコマンドで Google BQ が実行できて、速度も pandas.rad_gbq
よりも高速です
2 番目はそもそも実行結果が巨大な場合で、目安としては1GB以上
なら 2 番目の方法を使えば楽です。
1, google-cloud-bigquery
をインストールして、Jupyter Notebook のマジックコマンドで Google BQ を実行
magic command を実行
後は Jupyter Notebook のセルで以下のコマンドを実行すれば、
df
にマジックコマンドで実行した SQL の実行結果が格納されます!
便利ですね
2, BQ 実行 →BigQuery table として保存 →GCS へ保存 → gsutil
でマシンへコピー
-
BigQuery でクエリを実行、実行結果を BigQuery Table へ保存
-
注)実行結果の容量が巨大なので、保存先は基本的に Big Query Table へ保存するしか選択肢が無い
-
BigQuery table から GCS へテーブルを CSV として保存
Big Query table からエクスポート時に、ファイルサイズが大きいとエクスポートできないので、分割が必要です。
https://cloud.google.com/bigquery/docs/exporting-data
保存ファイル名を file-*
のようにワイルドカードを指定すると、自動的にひとつのテーブルを複数ファイルに分割して保存してくれる
gsutil
commands で任意のマシンへダウンロードする。
-m
オプションを付け足すと並列ダウンロードが始まるので、複数ファイルダウンロードする場合はおすすめです
ストレスレスなデータ分析ライフを!