回帰(6/8 9回目)

テーマ 回帰

 

導入

今日も回帰なのですが、Codexaで勉強しました。基礎的な学習は無料でしかもかなりボリュームあるし分かりやすいです!動画形式で、かなりおすすめ。

www.codexa.net

同じ分野でも、微妙にアルゴリズムの式が違ったり、説明の仕方が違うので新たな発見があって面白かったです。

あと、英語で単語の説明をしてくれるのが、かなりありがたい。

 

メイン

chap1 ~ 10までのアウトプット

 

機械学習の定義は大学や企業でも違う

 

教師あり学習 Supervised Learning
教師なし学習 Unsupervised Learning

 

クラスタリングの用途

顔のクラスタリング

 

Linear Regression(回帰)

変数の相関関係を直線モデルによって説明する分析手法

 

ターゲットを説明する変数
 特徴量、説明変数

予測する変数
 ターゲット、目的変数

 

単回帰分析

特徴量が1つの線形回帰

 *パラメータの数と間違えそう

 

重回帰分析 multiple linear regression

複数の特徴量から回帰を用いて値を予測する方法

 

教師データの数 m

 

コストとは

予測値と実際値の差のこと残差(コスト/residuals_cost)

 

線形モデルの求め方の流れ

1 パラメーターを決める

2 コスト関数

3 最適化モデル

1,2,3を繰り返す

 

最急降下法(Grandient Descent)

最適化アルゴリズムの1つ

 

感想

別の教材から勉強するって、理解がかなり深まる。

線形モデルの流れを見て、最小二乗法と最急降下法の関係性がスッキリした。

最近、ブログにただ書いてる気がする。思い返すと言う作業をもっとしよう。