nanoseeingの技術系ブログ

機械学習・競プロなど。アウトプットが目的。

機械学習アウトプット

ロジスティック回帰【機械学習アウトプット第5回】

ロジスティック回帰とは 回帰と名前がついているが、実際には(2値)分類問題。 どのクラスに所属するかの確率を計算することで分類する。 単回帰・重回帰分析と基本構造は同じで、 次元の説明変数: 目的変数: パラメータ: 予測値: を用いて、との誤差を…

ラッソ回帰(L1ノルム)による正則化【機械学習アウトプット第4回】

復習 重回帰分析において、損失関数は下記で表された。 この損失関数にパラメータが小さくなるように罰則項を与えることが、「正則化」の一種であった。 また、 ノルムとは、 で表され、 損失関数に、L2ノルム(いわゆるユークリッド距離) を罰則項として与…

リッジ回帰(L2ノルム)による正則化【機械学習アウトプット第3回】

正則化とは 前提として、重回帰分析がある。 重回帰分析については第2回記事を参照。 nanoseeing.hatenablog.com 重回帰分析における二乗和誤差による損失関数は、 下記で表せる。 この損失関数に、ある罰則項を与え、求めるべきパラメーターの値を小さくす…

重回帰分析を実装する【機械学習アウトプット第2回】

重回帰分析とは 教師データとして、次元の説明変数と、 それに対応する目的変数が与えられたとき、 と近似できるパラメータ、 ] を求める問題。 自作データをプロットしてみる import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3…

回帰分析を実装する【機械学習アウトプット第1回】

初心に帰って、機械学習の全体像を勉強していきます。 1日目は回帰分析から。 今回は、2次関数 のパラメーター、を予測してみます。 まずは、データを用意してプロットしてみます。 import numpy as np import matplotlib.pyplot as plt %matplotlib inline …