回帰(6/8 9回目)
テーマ 回帰
導入
今日も回帰なのですが、Codexaで勉強しました。基礎的な学習は無料でしかもかなりボリュームあるし分かりやすいです!動画形式で、かなりおすすめ。
同じ分野でも、微妙にアルゴリズムの式が違ったり、説明の仕方が違うので新たな発見があって面白かったです。
あと、英語で単語の説明をしてくれるのが、かなりありがたい。
メイン
chap1 ~ 10までのアウトプット
機械学習の定義は大学や企業でも違う
教師あり学習 Supervised Learning
教師なし学習 Unsupervised Learning
クラスタリングの用途
顔のクラスタリング
Linear Regression(回帰)
変数の相関関係を直線モデルによって説明する分析手法
ターゲットを説明する変数
特徴量、説明変数
予測する変数
ターゲット、目的変数
単回帰分析
特徴量が1つの線形回帰
*パラメータの数と間違えそう
重回帰分析 multiple linear regression
複数の特徴量から回帰を用いて値を予測する方法
教師データの数 m
コストとは
予測値と実際値の差のこと残差(コスト/residuals_cost)
線形モデルの求め方の流れ
1 パラメーターを決める
2 コスト関数
3 最適化モデル
1,2,3を繰り返す
最急降下法(Grandient Descent)
最適化アルゴリズムの1つ
感想
別の教材から勉強するって、理解がかなり深まる。
線形モデルの流れを見て、最小二乗法と最急降下法の関係性がスッキリした。
最近、ブログにただ書いてる気がする。思い返すと言う作業をもっとしよう。