須山敦志 Suyama Atsushi(@sammy_suyama)さんの人気ツイート(いいね順)

記事書きました.Pythonでベイズ統計始めたい人向けの入門記事です. Pythonで作って学ぶ統計モデリング|AIdrops bigdata-navi.com/aidrops/2726/
Kevin Murphy先生の新しい機械学習の教科書のドラフトがPDFでダウンロードできます。1000ページ近い大作ですが、これでintroductionですか Probabilistic Machine Learning: An Introduction probml.github.io/pml-book/book1…
じゃあもう決定木でいいじゃん、ていう twitter.com/ai_scholar/sta…
完全に僕のスライド貼ってあるので僕の名前も入れていただけると嬉しい。 topgate.co.jp/google-cloud-d…
「役に立たないから大切」ってのは意味わからんですね。誰がそれに納得して投資するのか。 「役に立つかどうかを評価軸にしない」ならわかります。僕だって宇宙の果てがどうなってるか知りたい。
これは正しいです。AIのアルゴリズムやソフトウェア単品を売ろうとするのは現実の課題をナメすぎています。 twitter.com/isip_tkg/statu…
確率分布を使って解析する理由は、「現実世界には偶然のものがあるから」ではなく「まだ情報が足らずに決定的に扱えないから」の方が近いですね。
ディープラーニングっていうのは主に画像認識の分野で長年悩みに悩みを重ねた研究者たちがようやく見つけた一つの解法なわけでして... 目的意識に根ざした「悩み」がないところに先端技術だけ持ってきて当てはめたところであんま意味がないんじゃないかと思います.
「過去の研究成果より機械学習や深層学習の方が予測精度が良かった」というのはおおよそ課題設定や評価方法が甘い場合が多いので一度出直した方が無難です。
昨日の第1回ベイズ分科会の録画ビデオはこちらで見れます。 youtube.com/watch?v=7rBI11… 発表資料などはコチラ tfug-tokyo.connpass.com/event/184984/ #tfug #MCが途中からビール飲み始める
同じことは実は人間でも起こっています。人種差別なんかがそう。対象となる人自体の本質を見ずに、表面的な特性だけで判断をする。こうすることによって人類は予測の「省力化」を行っています。表面的な相関や過去の事例だけで物事を判断すると未来(=学習に使っていないデータ)で大間違いを起こす。
「深層学習」を「再帰的一般化線形モデル」って呼んでしまったらブームが終わりそうな気がしている
近年のベイズ・機械学習・深層学習を俯瞰します. ベイズ統計・ベイズ機械学習を始めよう|AIdrops bigdata-navi.com/aidrops/2423/
機械学習・深層学習が実応用上でコケる最大の理由のひとつ。 [論文メモ] AIの診断を信じられますか? qiita.com/kaco/items/f18… #Qiita
すごい! >CIFAR-10で訓練されたDLモデルは、95%が欠けた全く無意味な画像でも自信たっぷりの予測を出す。 news.mit.edu/2021/nonsense-…
何度も主張していますが、未だに数値目標でしか組織・取り組みを評価できないリーダーは引退すべきです。数値目標というのは、あらゆる詳細を隠蔽して単一のスカラー値に無理矢理収めるもの。多様な観点で物事を判断できない、バカの、バカによる、バカのための評価手段です。
機械学習の悪いところが全部詰まったような図 twitter.com/ImAI_Eruel/sta…
AIに大量データを食わせればガシャガシャポンで人間が気付かない「真実」を出してくれるみたいに勘違いされがちですが,今人気のAI技術はむしろ因果関係を無視して相関だけ抽出するようなものばかりなので,人間以上に結果が差別的になりがちです.
「サイコロの目で1が出る確率は1/6」は正しくない。そういう風に数学的に抽象化あるいはモデル化しているだけ。実際、精緻な物理シミュレーションが可能であればもっと正確に出目を予測できる可能性がある。すべてのモデルは間違っており、「正しい確率」というのはそもそも意味を成さない。
あんまり「XXXするな」みたいな言い方は良くないですが,機械学習・ディープラーニングを使って感染者数を予測するとかは筋悪なのでやめた方が良いと思います.サーモグラフィから体温高い人を効率良くスクリーニングするとか,そういうのにしてね.
これ、マジでセンスないアプローチなので医療に問わずやめといた方が良いです。 >近年、GANで少ないデータをData Augmentation(DA)をする研究が医療では多いが twitter.com/sammy_suyama/s…
現実のデータ解析では例えば「リーマンショック以前のデータを使ってリーマンショック後を予測できるか?」みたいな難しさがあり、限られたデータセットで交差検証ガリガリやりながら精度上げるのって本質的に意味がない気がしています。
MLPシリーズ「ベイズ深層学習」8/8に発売予定です。Amazonで予約開始しています。よろしくお願いいたします。 amazon.co.jp/dp/4065168708
「必要なルールを全部システムに記述できればいい」が前回のAIブームの失敗で,「必要なデータを全部システムに食わせればいい」が今回のAIブームの失敗になるかもしれないですね.
そういう意味で、個人的には統計解析というのは「偶然を扱う科学」ではなく、「限られた情報と計算資源の中で意思決定を行うための科学」の方がしっくりします。長いですが。。。