複雑度の高いモデルは、訓練誤差は抑えられるがテスト誤差は大きくなる。 そこで、モデルに対する知識で複雑さを制御することでテスト誤差を制御する正則化を導入する。
両者が矛盾するような f(x),g(x) の両方を最小化するような問題を考える。
minimizeh(x)=f(x)+λg(x)
回帰問題に対しては、訓練誤差の最小化と複雑さの最小化をトレードオフパラメータλによって制御して、汎化誤差が小さくなることを期待する。