学習の記録 12回目 回帰と分類 2018/06/09
これからはnoteの方に学習の記録を書いていきたいと思います!
学習の記録 12回目 回帰と分類 2018/06/09|ちひろ|note(ノート) https://note.mu/chihirokun/n/n03d28aab5148
回帰 6/10(11連続)
テーマ 回帰の実装
今日は線形回帰を実装の途中までやりました。
メモ
matplotlib
plt.legend()
凡例(ラベル)を適切な場所に表示してくれる
感想
Gradient descentが少し理解があやふや。偏微分ってワードから逃げてるので、もう一度理解してみる。
回帰(6/9 10回目)
テーマ
回帰
今日もCodexaを使って勉強。
現在やっている講座は線形回帰をスクラッチ開発する事を目標にしています。
メモ
numpyのメソッドや使い方がわからなかったのでメモ。
dot ベクトルの内積や行列の積
loadtxt でファイルの読み込み
delimiter 値と値を区切る文字が何であるかの指定、デフォルトはスペース。
skiprows ファイルを読み込み始める行、デフォルトは0
感想
ライブラリの使い方で分からない事が多々出てきましたが、その都度使い方に慣れていく勉強法にします。matplotlibでCSVの可視化したりしましたが面白い。
遂に10回目になりました。アウトプットしていると定着率が全然違いますね。
勉強もPDCAを回しながらやっていきます!
回帰(6/8 9回目)
テーマ 回帰
導入
今日も回帰なのですが、Codexaで勉強しました。基礎的な学習は無料でしかもかなりボリュームあるし分かりやすいです!動画形式で、かなりおすすめ。
同じ分野でも、微妙にアルゴリズムの式が違ったり、説明の仕方が違うので新たな発見があって面白かったです。
あと、英語で単語の説明をしてくれるのが、かなりありがたい。
メイン
chap1 ~ 10までのアウトプット
機械学習の定義は大学や企業でも違う
教師あり学習 Supervised Learning
教師なし学習 Unsupervised Learning
クラスタリングの用途
顔のクラスタリング
Linear Regression(回帰)
変数の相関関係を直線モデルによって説明する分析手法
ターゲットを説明する変数
特徴量、説明変数
予測する変数
ターゲット、目的変数
単回帰分析
特徴量が1つの線形回帰
*パラメータの数と間違えそう
重回帰分析 multiple linear regression
複数の特徴量から回帰を用いて値を予測する方法
教師データの数 m
コストとは
予測値と実際値の差のこと残差(コスト/residuals_cost)
線形モデルの求め方の流れ
1 パラメーターを決める
2 コスト関数
3 最適化モデル
1,2,3を繰り返す
最急降下法(Grandient Descent)
最適化アルゴリズムの1つ
感想
別の教材から勉強するって、理解がかなり深まる。
線形モデルの流れを見て、最小二乗法と最急降下法の関係性がスッキリした。
最近、ブログにただ書いてる気がする。思い返すと言う作業をもっとしよう。
回帰(6/7 8回目)
テーマ 回帰
今日のテーマも回帰なのですが、いつもとやり方を変えてみました。
How
最初に勉強時間を固定して、どんな事をやるかを見積もり勉強する。
今日の例で言うと
勉強時間
40分
目標回帰を初心者向けに説明する様に、復習。
その後にAidemyで回帰をやる
実際は説明の段階でタイムアップ。実際に説明していると、自分の理解できてない所が分かりその都度調べていて時間がかかった。
What
<平均値>
全ての数値を足し、数値の個数で割る。
メリット:全ての値が反映される
デメリット:極端な値があった場合、大きく影響受ける
<中央値>
数値を小さい方から並べたとき、真ん中にくるもの
メリット:極端な値の影響を受けづらい
デメリット:データ全体の変化や比較には向かない
感想
自分の能力の見積もるのは難しい。PDCA回して修正していく。
勉強するって楽しい。勉強する事だけが目的になってもよくないとは思うけど、趣味としてならいいと思う。
ドラクエのレベルをあげてる感じ。
回帰(6/6 7回目)
テーマ 回帰
今日はネットの記事で回帰について勉強しました。少し知識が断片的になってきて、俯瞰できてない様に感じます。
単回帰分析
説明変数が1つのもの。
重回帰分析
2つ以上の説明変数があるもの
最小二乗法の事をOLS(Ordinary Least Squares)と言う。
線形回帰の前提
線形回帰で行われるOLSはデータが正規分布であることが前提。
平均値の近くに多くの数があり、平均値から離れるほど数が少なくなる様なデータを表す確率分布
中央値と平均値は違う
感想
断片的な知識が集まってきている感じ。ピースは当てはまるんだろうけど、どこに当てはめられるか自分で気づけていない。まぁ少しずつやりますか。
機械学習 回帰(6/5 6日目)
テーマ 回帰
へ〜!と思ったのは関数に関数を代入しても良いらしい。
関数には数字しか代入できないと思い込んでました。
合成関数って言うのかな?
流れ
1.誤差を最小化する際に最小二乗法を使うが、その際に最急降下法を使う。
2.二変数関数なため、偏微分をする
3.正攻法だと大変なため合成関数の微分
の様な感じですかね。。段々と理解が追いつかなくなって来ました。明日また復習します。
あとは多項式回帰、重回帰について流し読みしました。
感想
文章にすると意外と勉強できてない気がします。根気強く勉強を続けます。
回帰もそろそろ終盤に差しかかって来ました。段々と理解できて楽しいのですが、そもそもなんで回帰を勉強しようと思ったのか忘れました笑。まあいっか笑