須山敦志 Suyama Atsushi(@sammy_suyama)さんの人気ツイート(新しい順)

同じことは実は人間でも起こっています。人種差別なんかがそう。対象となる人自体の本質を見ずに、表面的な特性だけで判断をする。こうすることによって人類は予測の「省力化」を行っています。表面的な相関や過去の事例だけで物事を判断すると未来(=学習に使っていないデータ)で大間違いを起こす。
機械学習や深層学習が「ズル」して学習データセットで良い成績を出すという話は結構根深いです。例えば画像中の猫・犬を分類するタスクで、DNNで誤って犬と判定された猫は芝生の上にいたり。学習データ中では屋外の芝生にいるのは犬の方が圧倒的に多かったということなんでしょう。
Juliaを使うとガウス過程回帰が実質10行程度で実験できる。
「扱っている現象が複雑な非線形でモデル化が困難なため、機械学習のXXX法を使って自動で関係性を抽出して予測します」みたいなモチベをよく見ますが、やめておいた方が良いと思います。多くの場合、困難を避けているだけで解決していません。ラボ環境だけで良い数値を叩き出して、本番で失敗します。
じゃあもう決定木でいいじゃん、ていう twitter.com/ai_scholar/sta…
何度も主張していますが、未だに数値目標でしか組織・取り組みを評価できないリーダーは引退すべきです。数値目標というのは、あらゆる詳細を隠蔽して単一のスカラー値に無理矢理収めるもの。多様な観点で物事を判断できない、バカの、バカによる、バカのための評価手段です。
あんまり「XXXするな」みたいな言い方は良くないですが,機械学習・ディープラーニングを使って感染者数を予測するとかは筋悪なのでやめた方が良いと思います.サーモグラフィから体温高い人を効率良くスクリーニングするとか,そういうのにしてね.
記事書きました.Pythonでベイズ統計始めたい人向けの入門記事です. Pythonで作って学ぶ統計モデリング|AIdrops bigdata-navi.com/aidrops/2726/
近年のベイズ・機械学習・深層学習を俯瞰します. ベイズ統計・ベイズ機械学習を始めよう|AIdrops bigdata-navi.com/aidrops/2423/
「サイコロの目で1が出る確率は1/6」は正しくない。そういう風に数学的に抽象化あるいはモデル化しているだけ。実際、精緻な物理シミュレーションが可能であればもっと正確に出目を予測できる可能性がある。すべてのモデルは間違っており、「正しい確率」というのはそもそも意味を成さない。
先日某所でお話しさせていただいた内容.統計ユーザーはややこしい数理や計算機の知識から解放されるべきと思います.
AIに大量データを食わせればガシャガシャポンで人間が気付かない「真実」を出してくれるみたいに勘違いされがちですが,今人気のAI技術はむしろ因果関係を無視して相関だけ抽出するようなものばかりなので,人間以上に結果が差別的になりがちです.
これ、マジでセンスないアプローチなので医療に問わずやめといた方が良いです。 >近年、GANで少ないデータをData Augmentation(DA)をする研究が医療では多いが twitter.com/sammy_suyama/s…
機械学習・深層学習が実応用上でコケる最大の理由のひとつ。 [論文メモ] AIの診断を信じられますか? qiita.com/kaco/items/f18… #Qiita
MLPシリーズ「ベイズ深層学習」8/8に発売予定です。Amazonで予約開始しています。よろしくお願いいたします。 amazon.co.jp/dp/4065168708
内容のほんの一部ですが、「ベイズ深層学習」で取り扱うモデルたちの関係性です。線形回帰からスタートして深層ガウス過程(教師なし)までスッキリ繋がります。
近日MLPシリーズで刊行予定の「ベイズ深層学習」の目次を貼ります. 1章,はじめに 2章,ニューラルネットワークの基礎 3章,ベイズ推論の基礎 4章,近似推論手法 5章,深層学習モデルのためのベイズ推論 6章,深層生成モデルとベイズ推論 7章,深層学習とガウス過程
機械学習は大量に計算資源を投入して誤った発見を量産しまくっていますね。残念ながらp値ハッキングと全く同じ構造。 BBC News - AAAS: Machine learning 'causing science crisis' bbc.com/news/science-e…
著者の持橋先生から「ガウス過程と機械学習」をいただきました。本当に冗談ではなく、「ガウス過程を基軸に統計・機械学習が入門できてしまう」というくらいの丁寧な内容です。
そういう意味で、個人的には統計解析というのは「偶然を扱う科学」ではなく、「限られた情報と計算資源の中で意思決定を行うための科学」の方がしっくりします。長いですが。。。
確率分布を使って解析する理由は、「現実世界には偶然のものがあるから」ではなく「まだ情報が足らずに決定的に扱えないから」の方が近いですね。
現実のデータ解析では例えば「リーマンショック以前のデータを使ってリーマンショック後を予測できるか?」みたいな難しさがあり、限られたデータセットで交差検証ガリガリやりながら精度上げるのって本質的に意味がない気がしています。
高校の数学の先生が「トランプを5枚引いて出たポーカーの役を100回記録しろ」っいう宿題を出してきて、どうやら学年全員集計して大数の法則を確認したかったらしいのですが、僕はプログラム書いて1憶回やった結果を提出しました twitter.com/sammy_suyama/s…
「機械学習が簡単にできるようになった」というよりか,「簡単にできる部分だけを指して機械学習と呼ぶようになった」の方が感覚的に近いです.
ディープラーニングっていうのは主に画像認識の分野で長年悩みに悩みを重ねた研究者たちがようやく見つけた一つの解法なわけでして... 目的意識に根ざした「悩み」がないところに先端技術だけ持ってきて当てはめたところであんま意味がないんじゃないかと思います.