回帰(6/9 10回目)

テーマ

回帰

 

 www.codexa.net

今日もCodexaを使って勉強。

現在やっている講座は線形回帰をスクラッチ開発する事を目標にしています。

 

メモ

numpyのメソッドや使い方がわからなかったのでメモ。

dot ベクトルの内積や行列の積

loadtxt でファイルの読み込み

 delimiter 値と値を区切る文字が何であるかの指定、デフォルトはスペース。
 skiprows ファイルを読み込み始める行、デフォルトは0

 

 

感想

ライブラリの使い方で分からない事が多々出てきましたが、その都度使い方に慣れていく勉強法にします。matplotlibでCSVの可視化したりしましたが面白い。

遂に10回目になりました。アウトプットしていると定着率が全然違いますね。
勉強もPDCAを回しながらやっていきます!

回帰(6/8 9回目)

テーマ 回帰

 

導入

今日も回帰なのですが、Codexaで勉強しました。基礎的な学習は無料でしかもかなりボリュームあるし分かりやすいです!動画形式で、かなりおすすめ。

www.codexa.net

同じ分野でも、微妙にアルゴリズムの式が違ったり、説明の仕方が違うので新たな発見があって面白かったです。

あと、英語で単語の説明をしてくれるのが、かなりありがたい。

 

メイン

chap1 ~ 10までのアウトプット

 

機械学習の定義は大学や企業でも違う

 

教師あり学習 Supervised Learning
教師なし学習 Unsupervised Learning

 

クラスタリングの用途

顔のクラスタリング

 

Linear Regression(回帰)

変数の相関関係を直線モデルによって説明する分析手法

 

ターゲットを説明する変数
 特徴量、説明変数

予測する変数
 ターゲット、目的変数

 

単回帰分析

特徴量が1つの線形回帰

 *パラメータの数と間違えそう

 

重回帰分析 multiple linear regression

複数の特徴量から回帰を用いて値を予測する方法

 

教師データの数 m

 

コストとは

予測値と実際値の差のこと残差(コスト/residuals_cost)

 

線形モデルの求め方の流れ

1 パラメーターを決める

2 コスト関数

3 最適化モデル

1,2,3を繰り返す

 

最急降下法(Grandient Descent)

最適化アルゴリズムの1つ

 

感想

別の教材から勉強するって、理解がかなり深まる。

線形モデルの流れを見て、最小二乗法と最急降下法の関係性がスッキリした。

最近、ブログにただ書いてる気がする。思い返すと言う作業をもっとしよう。

 

回帰(6/7 8回目)

テーマ 回帰

今日のテーマも回帰なのですが、いつもとやり方を変えてみました。

How

最初に勉強時間を固定して、どんな事をやるかを見積もり勉強する。

今日の例で言うと

 

勉強時間

40分

目標

回帰を初心者向けに説明する様に、復習。

その後にAidemyで回帰をやる

 

実際は説明の段階でタイムアップ。実際に説明していると、自分の理解できてない所が分かりその都度調べていて時間がかかった。


What

<平均値>

全ての数値を足し、数値の個数で割る。

メリット:全ての値が反映される

デメリット:極端な値があった場合、大きく影響受ける

 

<中央値>

数値を小さい方から並べたとき、真ん中にくるもの

メリット:極端な値の影響を受けづらい

デメリット:データ全体の変化や比較には向かない

 

感想

自分の能力の見積もるのは難しい。PDCA回して修正していく。

勉強するって楽しい。勉強する事だけが目的になってもよくないとは思うけど、趣味としてならいいと思う。

ドラクエのレベルをあげてる感じ。

回帰(6/6 7回目)

テーマ 回帰

今日はネットの記事で回帰について勉強しました。少し知識が断片的になってきて、俯瞰できてない様に感じます。

 

単回帰分析

説明変数が1つのもの。

 

重回帰分析

2つ以上の説明変数があるもの

 

最小二乗法の事をOLS(Ordinary Least Squares)と言う。

 

線形回帰の前提

線形回帰で行われるOLSはデータが正規分布であることが前提。

 

正規分布

平均値の近くに多くの数があり、平均値から離れるほど数が少なくなる様なデータを表す確率分布

 

中央値と平均値は違う

 

感想

断片的な知識が集まってきている感じ。ピースは当てはまるんだろうけど、どこに当てはめられるか自分で気づけていない。まぁ少しずつやりますか。

機械学習 回帰(6/5 6日目)

テーマ 回帰

 

へ〜!と思ったのは関数に関数を代入しても良いらしい。

関数には数字しか代入できないと思い込んでました。

合成関数って言うのかな?

 

流れ

1.誤差を最小化する際に最小二乗法を使うが、その際に最急降下法を使う。

2.二変数関数なため、偏微分をする

3.正攻法だと大変なため合成関数の微分


の様な感じですかね。。段々と理解が追いつかなくなって来ました。明日また復習します。

 

あとは多項式回帰、重回帰について流し読みしました。

 

 

感想
文章にすると意外と勉強できてない気がします。根気強く勉強を続けます。
回帰もそろそろ終盤に差しかかって来ました。段々と理解できて楽しいのですが、そもそもなんで回帰を勉強しようと思ったのか忘れました笑。まあいっか笑