51
まさか、まさか、そんな、そんなことが…?そんな。
ChatGPT言語モデルはコマンドプロンプトをエミュレートでき、その中に別のある意味宇宙のインターネット世界があり、そして、そして、「 chat.openai.com/chat」にアクセスし、仮想宇宙内のChatGPT自身と話せる?!!
engraved.blog/building-a-vir…
52
53
これ相当やばい研究では??
新しいタスクそのもので学習し続けるニューラルネットワーク「液体」ネットワークは以下の記事で「時系列データの処理を飛躍期待されて、はるかに少ないパラメータで、最先端の性能発揮」とのこと。
そしてこの研究で桁違いに高速にスケーラブルに
deepsquare.jp/2021/02/mit-li… twitter.com/ramin_m_h/stat…
54
AI進展早すぎだけど、個人的に今年のAI5つくらいまとめるなら、
○NvidiaのVIMA
→ロボティクスAI
○DeepMindの強化学習のAlgorithm distillation
○DeepMind GATO
→マルチモーダルAI
○AdeptのACT-1
→PC画面上の全ての操作を自然言語処理で自動化
○Flan-U-PaLM
→最強の自然言語処理AI
になるかな
55
待て待て待て、DeepMindが新しい強化学習手法、Algorithm Distillationを発表している!!
ざっと論文読んだところ、「様々なタスク」の「観測、行動、報酬の履歴」をトランスフォーマーモデルでタスクを超えて予測学習して、シングルタスクのみの強化学習より良いデータ効率を実現!メタ強化学習だ。 twitter.com/_akhaliq/statu…
56
人間は30歳までに10^25Flops程度の学習をすると見積もられている。そして現状の大規模AIモデルは最大10^24Flops程度。
2倍になる期間は10ヶ月程度。なので4年以内(2026年まで)には人間レベルの学習量に到達する可能性が高い。
lesswrong.com/posts/3nMpdmt8…
人間レベルの知能がすぐに誕生する可能性あり。