Documentation Index
Fetch the complete documentation index at: https://wb-21fd5541-john-wbdocs-2044-rename-serverless-products.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
W&B Python ライブラリを使用して CSV ファイルをログし、W&B ダッシュボードで可視化します。W&B ダッシュボード は、機械学習モデルの結果を整理して可視化するための中心となる場所です。これは特に、W&B にログされていない過去の機械学習実験に関する情報を含む CSV ファイルがある場合や、データセットを含む CSV ファイルがある場合に便利です。
データセットのCSVファイルをインポートしてログする
CSV ファイルの内容を再利用しやすくするには、W&B Artifacts の使用をお勧めします。
- まず、CSV ファイルをインポートします。次のコード スニペットでは、
iris.csv をご利用の CSV ファイル名に置き換えてください。
import wandb
import pandas as pd
# CSVを新しいDataFrameに読み込む
new_iris_dataframe = pd.read_csv("iris.csv")
- CSV ファイルを W&B Table に変換して、W&B ダッシュボードで活用します。
# DataFrameをW&B Tableに変換する
iris_table = wandb.Table(dataframe=new_iris_dataframe)
- 次に、W&B Artifact を作成し、そこに表を追加します。
# 表をArtifactに追加して行数の上限を
# 200000に増やし、再利用しやすくする
iris_table_artifact = wandb.Artifact("iris_artifact", type="dataset")
iris_table_artifact.add(iris_table, "iris_table")
# データを保持するためにartifact内の生のCSVファイルをログする
iris_table_artifact.add_file("iris.csv")
W&B Artifacts の詳細については、Artifacts の章を参照してください。
- 最後に、
wandb.init() を使用して W&B でトラッキングとログ記録を行うため、新しい W&B Run を開始します:
# データをログするためにW&B runを開始する
with wandb.init(project="tables-walkthrough") as run:
# runで可視化するために表をログする...
run.log({"iris": iris_table})
# Artifactとしてログして利用可能な行数の上限を増やす!
run.log_artifact(iris_table_artifact)
wandb.init() API は、Run にデータをログするための新しいバックグラウンドプロセスを起動し、 (デフォルトでは) データを wandb.ai と同期します。ライブの可視化は W&B Workspace ダッシュボードで確認できます。次の画像は、コードスニペットの実行結果を示しています。
前述のコードスニペットを含む完全なスクリプトを以下に示します。
import wandb
import pandas as pd
# CSVを新しいDataFrameに読み込む
new_iris_dataframe = pd.read_csv("iris.csv")
# DataFrameをW&B Tableに変換する
iris_table = wandb.Table(dataframe=new_iris_dataframe)
# Artifactに表を追加して行数の上限を
# 200000に増やし、再利用しやすくする
iris_table_artifact = wandb.Artifact("iris_artifact", type="dataset")
iris_table_artifact.add(iris_table, "iris_table")
# データを保持するためにArtifact内に生のCSVファイルをログする
iris_table_artifact.add_file("iris.csv")
# データをログするW&B runを開始する
with wandb.init(project="tables-walkthrough") as run:
# runで可視化するために表をログする...
run.log({"iris": iris_table})
# Artifactとしてログして利用可能な行数の上限を増やす!
run.log_artifact(iris_table_artifact)
Experiments の CSV をインポートしてログする
場合によっては、Experiment の詳細を CSV ファイルに保存していることがあります。こうした CSV ファイルによく含まれる情報は、次のとおりです。
| Experiment | モデル名 | メモ | Tags | レイヤー数 | 最終トレーニング精度 | 最終検証精度 | トレーニング損失 |
|---|
| Experiment 1 | mnist-300-layers | トレーニングデータに対して過学習しすぎた | [latest] | 300 | 0.99 | 0.90 | [0.55, 0.45, 0.44, 0.42, 0.40, 0.39] |
| Experiment 2 | mnist-250-layers | 現在の best model | [prod, best] | 250 | 0.95 | 0.96 | [0.55, 0.45, 0.44, 0.42, 0.40, 0.39] |
| Experiment 3 | mnist-200-layers | ベースラインモデルより悪かった。デバッグが必要です | [debug] | 200 | 0.76 | 0.70 | [0.55, 0.45, 0.44, 0.42, 0.40, 0.39] |
| … | … | … | … | … | … | … | |
| Experiment N | mnist-X-layers | メモ | … | … | … | … | […, …] |
W&B では、Experiment の CSV ファイルを W&B Experiment Run に変換できます。次の code snippet とコードスクリプトでは、Experiment の CSV ファイルをインポートしてログする方法を示します。
- まず、CSV ファイルを読み込み、Pandas DataFrame に変換します。
"experiments.csv" は実際の CSV ファイル名に置き換えてください。
import wandb
import pandas as pd
FILENAME = "experiments.csv"
loaded_experiment_df = pd.read_csv(FILENAME)
PROJECT_NAME = "Converted Experiments"
EXPERIMENT_NAME_COL = "Experiment"
NOTES_COL = "Notes"
TAGS_COL = "Tags"
CONFIG_COLS = ["Num Layers"]
SUMMARY_COLS = ["Final Train Acc", "Final Val Acc"]
METRIC_COLS = ["Training Losses"]
# Pandas DataFrameを扱いやすい形式に整形する
for i, row in loaded_experiment_df.iterrows():
run_name = row[EXPERIMENT_NAME_COL]
notes = row[NOTES_COL]
tags = row[TAGS_COL]
config = {}
for config_col in CONFIG_COLS:
config[config_col] = row[config_col]
metrics = {}
for metric_col in METRIC_COLS:
metrics[metric_col] = row[metric_col]
summaries = {}
for summary_col in SUMMARY_COLS:
summaries[summary_col] = row[summary_col]
-
次に、新しい W&B Run を開始し、
wandb.init() を使用して W&B へのトラッキングとログを開始します。
with wandb.init(
project=PROJECT_NAME, name=run_name, tags=tags, notes=notes, config=config
) as run:
実験の実行中は、メトリクスの各値をログしておくと、W&B で表示、クエリ、分析できるようになります。これを行うには、run.log() コマンドを使用します。
define_metric API を使用すると、必要に応じて最終的な summary メトリクスをログし、run の結果を定義できます。この例では、run.summary.update() を使用して summary メトリクスを run に追加します。
run.summary.update(summaries)
サマリーメトリクスの詳細については、サマリーメトリクスをログするを参照してください。
以下は、上記のサンプル表を W&B ダッシュボード に変換する完全なスクリプト例です。
FILENAME = "experiments.csv"
loaded_experiment_df = pd.read_csv(FILENAME)
PROJECT_NAME = "Converted Experiments"
EXPERIMENT_NAME_COL = "Experiment"
NOTES_COL = "Notes"
TAGS_COL = "Tags"
CONFIG_COLS = ["Num Layers"]
SUMMARY_COLS = ["Final Train Acc", "Final Val Acc"]
METRIC_COLS = ["Training Losses"]
for i, row in loaded_experiment_df.iterrows():
run_name = row[EXPERIMENT_NAME_COL]
notes = row[NOTES_COL]
tags = row[TAGS_COL]
config = {}
for config_col in CONFIG_COLS:
config[config_col] = row[config_col]
metrics = {}
for metric_col in METRIC_COLS:
metrics[metric_col] = row[metric_col]
summaries = {}
for summary_col in SUMMARY_COLS:
summaries[summary_col] = row[summary_col]
with wandb.init(
project=PROJECT_NAME, name=run_name, tags=tags, notes=notes, config=config
) as run:
for key, val in metrics.items():
if isinstance(val, list):
for _val in val:
run.log({key: _val})
else:
run.log({key: val})
run.summary.update(summaries)