重回帰の精度を高めるべくリッジ回帰をやってみます。
普通のロジスティック回帰モデルでは最小2乗誤差を目指しますが、入力に対して出力が敏感に変化してしまう場合は、過学習によって訓練Scoreと検証Scoreが一致しない場合があります。
そこで、正則化項 を新たに追加して訓練を緩慢にします。
正則化項は1次のときラッソ回帰、2次のときリッジ回帰といいます。
今回は正則化項なしである重回帰に対して、大きな改善は見られませんでしたので重回帰でも十分な結果が得られていることがわかりました。
スクリプト
data_scientist_chapter_8_Ridge
The following two tabs change content below.
Keita N
最新記事 by Keita N (全て見る)
- Freenove ESP32-WROVER Board CAMを購入しました。その2 - 2023年11月4日
- Freenove ESP32-WROVER Board CAMを購入しました。 - 2023年11月4日
- ANOGAN 第一話 - 2023年6月16日