Python学習編38回目です。
東京大学のPython学習ページで学んでいます。今回は7-2. scikit-learnライブラリ
前回は何もわからなかったが、ChatGPTに貰ったコードを眺めていたら、わからなさを2つに分解できた。
①インポートされたライブラリがわからない
②行いたい操作内容のために実行する関数が分からない
①②とも解決法は知識量になってくる。どの分析にどのライブラリを使うべきで、ライブラリにどんな関数が含まれているのか。ライブラリの中身を使うとどんな分析ができるのか。
逆に必要な知識量が少ないのは手順で、
# データセットのロード
# トレーニングセットとテストセットに分割
# 特徴量データの標準化
# モデルのインスタンス化
# モデルのトレーニング
# トレーニングセットとテストセットでの予測
# 精度の計算
# 混同行列の計算
# 混同行列の可視化
の流れは割と共通だろうから、ここ覚えるだけで、「上の9手順のこの位置の作業するのに、このライブラリからこの関数呼び出し手こういう操作させてるのか」と理解、記憶していく手掛かりにできそうだ。
となるとあとはデータセットから分析する中で知識を身に着けていく工程になっていきそうだ。
次回に続く