UT-HACKsさん主催の「DeepLearningに先立つ機械学習講習会」参加メモ

LINEで送る
Pocket

UT-HACKsさん主催の「DeepLearningに先立つ機械学習講習会」に参加してきました。

DeepLearningに先立つ機械学習講習会 – 機械学習・ディープラーニング勉強会 | Doorkeeper

満員御礼で部屋が結構窮屈でしたが、内容自体はとても分かりやすく、機械学習初心者には最適な内容でした。しかし最近は機械学習とかDeepLearningというキーワードは注目度高いっすね。

以下雑多なメモです。

講習会でできるようになること

  • 機械学習が分かる
  • Pythonでデータ解析ができる

Deep Learningとは

Googleが猫を発見した

GoogleがYoutubeの映像からDeep Leaningを使って猫を見つけたというのは有名な話。

カリフォルニア州マウンテンヴューの研究所で、スーパーコンピューター自身がYouTube上の猫の画像を認識することを学習した。秘密は、莫大な量のデータをアルゴリズムにかけることだ。

via:猫を認識できるGoogleの巨大頭脳 « WIRED.jp

一般物体認識

  • 写真に写っているものを当てるコンテスト

    間違え方も自然

Deep Learinigは無限の可能性があるが、誤解されている。 
セミナーの目的は、機械学習を丁寧にやさしく、数式少なめで解説するとともに、機械学習やDeepLearningにまつわるズレたイメージを解いていきたい。

機械学習のタイプ

教師あり学習

正解のあるデータから規則性を見つける

Googleの年齢当て

教師なし学習

正解のないデータから規則性を見つける

以下のサービスは、講師が関わっている「人工知能を使った簡単アフィリエイトツール」。

Linkplaza(リンクプラザ)

強化学習

試行錯誤を通じて環境に適応する学習

回数を重ねることで学んでいく

Deep Q networkが有名

ブロック崩しを強化学習させてみた話

最初は全然ダメだけど、最後は戦略を見つけるまで強化された。

教師あり学習

正解となる値;Target(目的変数)

予測のもとになる値:Feature(特徴量)

教師あり学習の目的

TargetをFeatureの関数で書き表したい

分類と回帰

分類

  • 正解が離散的
  • 明日の天気は晴れ?曇り?雨?

回帰

  • 正解が連続的
  • 明日の気温は何度?

教師あり学習のアルゴリズム

  • 線形回帰
  • ロジステック回帰
  • k-近傍方
  • ニューラルネットワーク
  • ランダムフォレスト

などなど

一番良い手法って何?

絶対的に良い手法はない

世の中そんなに甘くない

常に優れているアルゴリズムは存在しない

各問題にあった手法を採用しなくてはいけない

どうやって選ぶかというと、人の手による試行錯誤

Under fittingとOver fitting

単純すぎても複雑すぎてもダメ

* Under Fitting

学習誤差大、予測誤差大

* Over Fiting

学習誤差小、予測誤差大

丁度良い誤差を探すしかない

では、使う手法が全てなのか

使うデータが全てである

  • 手法の改良で精度の改善は数%程度
  • 良いFeatureであれば、最低15%程度の改善

じゃあ良いFeatureって何?

それが分かれば苦労しない

そこで登場したのがDeep Leaning

Deep Leaningの強み

自動的に有用なFeatureの抽出

画像処理、自然言語、音声認識などでも自動でFeature抽出に成功

Deep Leaningは脳を模倣したから凄いのか?

決してそんなことはなく、Featureの自動抽出が革命的だった。

Deep Leaningで全部大丈夫?

世の中そんなに甘くない。なぜなら、

  • 学習の際のパラメータが多すぎ

    通常は10ぐらいだけど、DLの場合は100以上
  • パラメータ調整に独特のコツが必要

実際にPythonを使った機械学習演習も実施しましたがそちらは省略。

関連記事:

  • トラックバック 停止中
  • コメント (0)
  1. コメントはまだありません。