【ラビットチャレンジ】機械学習:その2 非線形回帰モデル
非線形回帰モデル
正則化
過学習と未学習 学習データに対して、十分小さな誤差が得られない:未学習 小さな誤差は得られたけど、テスト集合誤差との差が大きい場合:過学習
汎化性能(Generalization)
- 学習に使用した入力だけでなく、これまで見たことのない新たな入力に対する予測性能
正則化法
Ridgeはなるべく原点に近づけるように推定しようとする → 縮小推定 Lassoはパラメータが0になりやすい、予測に関係しないパラメータを無視できる → スパース推定
※ 成約の幾何学図が何を意味しているのか? → 複雜なモデルでは、バリアンスが高い状態になってしまう → 縮小推定をするとバリアンスを下げる
※ 線形回帰についても過学習が発生する可能性はある → パラメータが複数ある場合にモデル選択に失敗する可能性がある
モデル選択
ホールドアウト法
- 手元のデータを2つに分割して学習用とテスト用に使い予測精度や誤り率を推定するために使用する方法
- 有限のデータだと分割データ数が足りない
- データが大量にないと厳しい
クロスバリデーション(交差検証)
- データを学習用とテスト用に分割するセットを複数回繰り返す
- 少ないデータでも精度を上げることが可能
※ ML08での正則化の質問は何回か見て理解したいかもしれない