nanoseeingの技術系ブログ

機械学習・競プロなど。アウトプットが目的。

2021-01-01から1年間の記事一覧

Google Colab上でKaggleのダウンロードからサブミッションをするまで

Kaggleの実行環境は何かと不便(週あたりの制限時間があるなど)。 そのため、Google Colab上でダウンロードからサブミッションまでを全てやってみる。 コンペは、タイタニックで試す。 www.kaggle.com Google Driveに接続 入力データなどは、全てDrive上に…

統計検定2級 合格体験記

統計検定2級に合格したので、これから合格を目指す方の参考になるように、勉強法などをメモしておきます。 目安 勉強時間:〜50時間程度(高校数学は理解している前提) 費用:1万円(CBT方式受験料7000円、公式問題集2000円、電卓なければ1000円) おすすめ…

ロジスティック回帰【機械学習アウトプット第5回】

ロジスティック回帰とは 回帰と名前がついているが、実際には(2値)分類問題。 どのクラスに所属するかの確率を計算することで分類する。 単回帰・重回帰分析と基本構造は同じで、 次元の説明変数: 目的変数: パラメータ: 予測値: を用いて、との誤差を…

ラッソ回帰(L1ノルム)による正則化【機械学習アウトプット第4回】

復習 重回帰分析において、損失関数は下記で表された。 この損失関数にパラメータが小さくなるように罰則項を与えることが、「正則化」の一種であった。 また、 ノルムとは、 で表され、 損失関数に、L2ノルム(いわゆるユークリッド距離) を罰則項として与…

行列の積の種類(行列の積・アダマール積・フロベニウス積)とnumpyでの書き方

単なる行列の積のことを「内積」とか書いてる記事をみつけて混乱したので、まとめてみた。 行列の積 単に、行列の「積」というと、下記のこと。 , これが、一般的に思いつく「積」のはずで、間違っても内積だの外積だのとは言わないはず。左行列の行ベクトル…

リッジ回帰(L2ノルム)による正則化【機械学習アウトプット第3回】

正則化とは 前提として、重回帰分析がある。 重回帰分析については第2回記事を参照。 nanoseeing.hatenablog.com 重回帰分析における二乗和誤差による損失関数は、 下記で表せる。 この損失関数に、ある罰則項を与え、求めるべきパラメーターの値を小さくす…

重回帰分析を実装する【機械学習アウトプット第2回】

重回帰分析とは 教師データとして、次元の説明変数と、 それに対応する目的変数が与えられたとき、 と近似できるパラメータ、 ] を求める問題。 自作データをプロットしてみる import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3…

はてなブログで数式を書くときのメモ

よく使う記法のメモ 参考サイト: はてなブログのTeX記法で数式を書く時用のチートシートと注意点 - ぴよぴよ.py 【はてなブログ】中央寄せ・右寄せ・左寄せ~Markdown~(2018年3月25日更新) - kharukaのブログ~お金と技術とキャリア~ はてなブログでTex記…

回帰分析を実装する【機械学習アウトプット第1回】

初心に帰って、機械学習の全体像を勉強していきます。 1日目は回帰分析から。 今回は、2次関数 のパラメーター、を予測してみます。 まずは、データを用意してプロットしてみます。 import numpy as np import matplotlib.pyplot as plt %matplotlib inline …

【AtCoder】メモリ領域の話(C++)

メモリ領域に関する知識が怪しかったので調べてみた。 スタック領域に気をつける 以下のようなコードは危険 int main() { int dp[10000000]; //ローカル変数に巨大サイズの配列を宣言 } ローカル変数を宣言すると、メモリ内の「スタック領域」と呼ばれる領域…