須山敦志 Suyama Atsushi(@sammy_suyama)さんの人気ツイート(古い順)

Juliaを使うとガウス過程回帰が実質10行程度で実験できる。
機械学習や深層学習が「ズル」して学習データセットで良い成績を出すという話は結構根深いです。例えば画像中の猫・犬を分類するタスクで、DNNで誤って犬と判定された猫は芝生の上にいたり。学習データ中では屋外の芝生にいるのは犬の方が圧倒的に多かったということなんでしょう。
同じことは実は人間でも起こっています。人種差別なんかがそう。対象となる人自体の本質を見ずに、表面的な特性だけで判断をする。こうすることによって人類は予測の「省力化」を行っています。表面的な相関や過去の事例だけで物事を判断すると未来(=学習に使っていないデータ)で大間違いを起こす。
昔先生から指導を受けてたとき「進捗を確認したいから定期MTGをしたい」ではなく「自分の言ったことが間違っている可能性があるから定期的に話したい」と言われたのが好きで、自分でも真似して使っている
コインを1回振ったら表が出て、そのまま100回振ったことにしたら100%表が出るコインってことですか? >今回見られた差のままサンプルサイズを200人程度に拡大した場合、有意差が出る計算だという アビガン臨床研究で結果、有意差無しも「有効な可能性」 bio.nikkeibp.co.jp/atcl/news/p1/2…
これは正しいです。AIのアルゴリズムやソフトウェア単品を売ろうとするのは現実の課題をナメすぎています。 twitter.com/isip_tkg/statu…
計算量で殴るやり方には限界が来ている。 AIの進歩は頭打ちに? このままでは「膨大な計算量」が壁になるという研究結果が意味すること #SmartNews wired.jp/2020/07/28/pre…
たぶんベイズ全然わかっていないのにここまで熱く語れるってなんかそういう才能ってすごいですね twitter.com/genroncafe/sta…
機械学習の悪いところが全部詰まったような図 twitter.com/ImAI_Eruel/sta…
前にもちょっと触れましたが、今AIや機械学習を学ぶ理由って皮肉なことに「活用すること」と同じくらい「騙されないこと」が重要になってきており、「騙されないためのAI学」みたいな本を書きたいと思っています。思っているだけです。
昨日の第1回ベイズ分科会の録画ビデオはこちらで見れます。 youtube.com/watch?v=7rBI11… 発表資料などはコチラ tfug-tokyo.connpass.com/event/184984/ #tfug #MCが途中からビール飲み始める
個人的な感触としてディープラーニングは、一部の特定の応用領域を除き、ビジネス面では完全に終わっています。 twitter.com/yutakashino/st…
Kevin Murphy先生の新しい機械学習の教科書のドラフトがPDFでダウンロードできます。1000ページ近い大作ですが、これでintroductionですか Probabilistic Machine Learning: An Introduction probml.github.io/pml-book/book1…
Julia実装による「意思決定のためのアルゴルズム」。PDF無料です。ベイズから始まり強化学習、マルチエージェントシステムまでカバーしていますね。 Algorithms for Decision Making algorithmsbook.com
極言すれば、「人間のやっていることを置き換える」という発想しかできないから今のAI応用は頭打ちな場合が多いんですね。もっと技術自体の特性を理解し、人間の認知能力や情報処理能力をaugmentすることによる価値を追求しないと。
高校で物理や化学などは実験の授業があるのに、数学に実験の授業があまりないのはなぜだろう。まずプログラミングの導入を行なって、ちょっとグラフを描いてみたり数列の挙動を調べてみたりする。組み合わせを数え上げたり確率を計算してみても良さそう。
完全に僕のスライド貼ってあるので僕の名前も入れていただけると嬉しい。 topgate.co.jp/google-cloud-d…
「役に立たないから大切」ってのは意味わからんですね。誰がそれに納得して投資するのか。 「役に立つかどうかを評価軸にしない」ならわかります。僕だって宇宙の果てがどうなってるか知りたい。
↓機械学習、思考停止ツールになっている気配があるのが恐ろしい。「人が考えなくても、大量データと処理能力が圧倒的に高い計算アルゴリズムが全部うまくやってくれる」っていう主張も聞きますが、実際うまくやってくれているかどうかすらまともに判断できていないケースがほとんどです。
「ルールベース」って偽物AIの代名詞みたいに言われてますが、本来理想とすべきは明確なルールや法則を抜き出すことなんであり、それができないから機械学習やら確率やら使って何とかその場をしのいでいる、という見方もできます。
「過去の研究成果より機械学習や深層学習の方が予測精度が良かった」というのはおおよそ課題設定や評価方法が甘い場合が多いので一度出直した方が無難です。
すごい! >CIFAR-10で訓練されたDLモデルは、95%が欠けた全く無意味な画像でも自信たっぷりの予測を出す。 news.mit.edu/2021/nonsense-…
そもそも統計手法や機械学習で何かを「立証する」「保証する」っていうのはできなくて、深く考え始めると何もできない感覚がしてきます。個人的には「限られたデータ・情報・時間・費用・計算リソースを活用して精いっぱい妥当な意思決定を行うための方法」くらいに考えています。
新著出ます。様々な確率的プログラミング言語を紹介しつつ、階層ベイズ、潜在変数モデル、ガウス過程、ベイズ深層学習あたりのPython実装を解説します。 Pythonではじめるベイズ機械学習入門 (KS情報科学専門書) amazon.co.jp/dp/406527978X/
↓これまで「人間には全く解釈できないがニューラルネットが見つけた良い特徴量」などというものは見たことがありません。囲碁などのタスクで人知を超えた解を出すことはありますが、それも比較的closedな世界で計算量に物を言わせているというだけで、計算機の能力からしたら昔から普通にある例です。