UT-HACKsさん主催の「DeepLearningに先立つ機械学習講習会」参加メモ

UT-HACKsさん主催の「DeepLearningに先立つ機械学習講習会」に参加してきました。

DeepLearningに先立つ機械学習講習会 – 機械学習・ディープラーニング勉強会 | Doorkeeper

満員御礼で部屋が結構窮屈でしたが、内容自体はとても分かりやすく、機械学習初心者には最適な内容でした。しかし最近は機械学習とかDeepLearningというキーワードは注目度高いっすね。

以下雑多なメモです。

講習会でできるようになること

  • 機械学習が分かる
  • Pythonでデータ解析ができる

Deep Learningとは

Googleが猫を発見した

GoogleがYoutubeの映像からDeep Leaningを使って猫を見つけたというのは有名な話。

カリフォルニア州マウンテンヴューの研究所で、スーパーコンピューター自身がYouTube上の猫の画像を認識することを学習した。秘密は、莫大な量のデータをアルゴリズムにかけることだ。

via:猫を認識できるGoogleの巨大頭脳 « WIRED.jp

一般物体認識

  • 写真に写っているものを当てるコンテスト
    間違え方も自然

Deep Learinigは無限の可能性があるが、誤解されている。 
セミナーの目的は、機械学習を丁寧にやさしく、数式少なめで解説するとともに、機械学習やDeepLearningにまつわるズレたイメージを解いていきたい。

機械学習のタイプ

教師あり学習

正解のあるデータから規則性を見つける
Googleの年齢当て

教師なし学習

正解のないデータから規則性を見つける

以下のサービスは、講師が関わっている「人工知能を使った簡単アフィリエイトツール」。

Linkplaza(リンクプラザ)

強化学習

試行錯誤を通じて環境に適応する学習
回数を重ねることで学んでいく
Deep Q networkが有名

ブロック崩しを強化学習させてみた話

最初は全然ダメだけど、最後は戦略を見つけるまで強化された。

教師あり学習

正解となる値;Target(目的変数)
予測のもとになる値:Feature(特徴量)

教師あり学習の目的

TargetをFeatureの関数で書き表したい

分類と回帰

分類

  • 正解が離散的
  • 明日の天気は晴れ?曇り?雨?

回帰

  • 正解が連続的
  • 明日の気温は何度?

教師あり学習のアルゴリズム

  • 線形回帰
  • ロジステック回帰
  • k-近傍方
  • ニューラルネットワーク
  • ランダムフォレスト

などなど

一番良い手法って何?

絶対的に良い手法はない
世の中そんなに甘くない
常に優れているアルゴリズムは存在しない
各問題にあった手法を採用しなくてはいけない

どうやって選ぶかというと、人の手による試行錯誤

Under fittingとOver fitting

単純すぎても複雑すぎてもダメ
* Under Fitting
学習誤差大、予測誤差大
* Over Fiting
学習誤差小、予測誤差大

丁度良い誤差を探すしかない

では、使う手法が全てなのか

使うデータが全てである

  • 手法の改良で精度の改善は数%程度
  • 良いFeatureであれば、最低15%程度の改善

じゃあ良いFeatureって何?

それが分かれば苦労しない

そこで登場したのがDeep Leaning

Deep Leaningの強み

自動的に有用なFeatureの抽出
画像処理、自然言語、音声認識などでも自動でFeature抽出に成功

Deep Leaningは脳を模倣したから凄いのか?

決してそんなことはなく、Featureの自動抽出が革命的だった。

Deep Leaningで全部大丈夫?

世の中そんなに甘くない。なぜなら、

  • 学習の際のパラメータが多すぎ
    通常は10ぐらいだけど、DLの場合は100以上
  • パラメータ調整に独特のコツが必要

実際にPythonを使った機械学習演習も実施しましたがそちらは省略。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください