やまかず(@Yamkaz)さんの人気ツイート(古い順)

1
🖋 書きました。 やばすぎるAI画像生成サービス「Stable Diffusion」始まる。【簡単解説 & 応用 & Prompt付生成事例集】#note #stablediffusion #midjourney note.com/yamkaz/n/n9fd5…
2
かわいい動物同士をかけ合わせるの楽しい。 1. 犬ねこ 2. アンゴラねこ 3. パンダねこ #stablediffusion #aiart
3
最新画像生成AI #stablediffusion で生成したスニーカーのグラフィックや、プロダクト。 かなりやばい。 これがPC上で無料で利用できるようになるってかなりやばい。PinterestやGoogleで調べてた時代がもうすぐ変わる。しかも生成画像はCC0で商用OK。あらゆるクリエイティブ業界に激震が走ると思う。
4
やばいやばいやばい #stablediffusion を導入したFigmaプラグイン登場した。パスとプロンプトを入力したらそれに合わせた画像を生成する。素晴らしすぎる。こういう革命が色んなデザインツールで起こりそうだな..
5
#stablediffusion が使えるPhotoshopプラグイン登場。早い笑 巨大なイラスト、巨大なグラフィックも作れちゃいますね。しかもこれならクリエイター全員が使いやすい。
6
画像生成AI #stablediffusion で、 「三宅一生」「深澤直人」「吉岡徳仁」のワードを加えて、椅子のプロダクトデザインを生成してみました。 ヤベェ... 無限に伝説のデザイナーさん達が 数秒でプロダクトデザインしてくれる... (続く)
7
感動…。 誰でも神レタッチャーになれる時代がすぐそこまできてる。 ざっくり合成して、あとは #stablediffusion#img2img で整えてもらう最新ワークフローの事例。
8
画像をインプットしたらそのバリエーションを生成するように改良された #stablediffusion が先程公開されました。 github.com/justinpinkney/…
9
これはやばい... AIで画風変換された画像 + 画像を動画に適用 + 声変換でここまでいけるのか。(仕組みは、#stablediffusion のimg2imgと、 #ebsynth と、@koe_recast の組み合わせ。)
10
テキスト入力だけであらゆる動画編集が可能に。 「Text to Video」がRunwayに近日公開予定。 編集の面倒な作業、繰り返し、時間を圧倒的に簡素化する。次世代のAI映像制作ツール。 https://t.co/X6LwIT6qky
11
🚀Blenderで #stablediffusion が使えるアドオン「dream-textures」がv0.4.0にアップデート ・img2img ・タイル化 ・inpainting ・過去の生成物の履歴 ・NVIDIA & Apple Silicon GPU のサポート ・Shader Editor, Image Editor対応 ・無料 (インストール方法はリプ欄に)
12
え..このクオリティはやばい。 テキストから動画を生成するAI「Make-A-Video」をMetaの機械学習エンジニアチームが発表。 makeavideo.studio
13
なんて日..。 テキストから動画を生成するAIの後に、3Dを生成するAIが出てきた。(両方とも過去のものより質が高い) 名前は「DreamFusion」。作者は匿名。 ええ、速すぎる ほんとに何が起きてるの dreamfusionpaper.github.io
14
こっちもやばい。 テキストから動画を生成するAI「Phenaki」が公開。 こちらは一連のテキスト、ストーリーを入力すると最大数分の長さの動画生成が可能。 すご...AIによる映画, アニメ, CM制作も現実になりそう.. phenaki.video
15
無限のキャンバスに生成が可能な 「stablediffusion-infinity」が更新。 優れたUIのWebアプリにアップデート。 かなりDALL・E2のOutpaintingに近い様子です。 Source: github.com/lkwq007/stable… Colab: colab.research.google.com/github/lkwq007… reddit.com/r/StableDiffus…
16
🚀 #NovelAIDiffusion がついに公開! 主な機能 ・入力内容に基づくタグ提案。知識量表記 ・これまで以上に長いプロンプト入力が可能 (231トークン) ・任意のアスペクト比の画像を生成が可能 (トリミングなしの学習) ・CLIPモデルの言語理解の改善 ・Furryモデルも搭載 twitter.com/novelaiofficia…
17
おお..またきた 1枚の画像から高品質の3Dモデルを生成できる「3DiM」をGoogle Researchが公開。 3d-diffusion.github.io 信じられないペースで進化してる。やばすぎる twitter.com/watson_nn/stat…
18
おぉぉ...また テキストからHD動画(1280x768 24fps)を生成する「Imagen Video」をGoogle Researchが発表。 懸念が軽減されるまでモデルやソースコードは公開しないとのこと。 #ImagenVideo imagen.research.google/video/
19
きた! テキストから3Dを生成する「DreamFusion」がStable Diffusionで実装されました。 github.com/ashawkey/stabl… 公開されてから1週間で実装。速い。 twitter.com/_akhaliq/statu…
20
約半分の確率で完璧な手が描ける「Custom Hand model」が開発中。 DreamBoothで手を学習したとのこと。 より多くの手を学習させて近日公開予定。 #stablediffusion reddit.com/r/StableDiffus…
21
NovelAIでも絵文字が有効か検証。 1.🧚⭐️🌈🌌 2.👩‍❤️‍👩🌕 3.🐱🍵 4.🎇🎆👘👫🇯🇵 テキストより絵文字の方が認識しやすくて入力も簡単。macの人は「⌘+cotrol+space」で絵文字パネル出せるよ。 #NovelAI #NovelAIDiffusion
22
🚀Windows、MacOS、LinuxとGPU、CPUでも動作する「InvokeAI 2.0.0: A Stable Diffusion Toolkit」がリリース! ポイント ・512x768の画像生成に3.5GBVRAM ・全く新しいWebUIフロントエンドorCLI操作 ・ほぼ全ての機能搭載 ・MacはM1,M2でも動作 ・急速に進化中 github.com/invoke-ai/Invo…
23
スマホで撮影した画像から、画像生成AIで広告クリティブや、高品質な製品画像を制作している事例。 「撮影→合成」だった制作プロセスが数年でかなり変わると思う。超高速で生成された膨大な量の最終アウトプットから選ぶ未来が見える。 #stablediffusion #Dreambooth twitter.com/StrangeNative/…
24
スタジオジブリモデルというのを発見した。 Waifu Diffusion 1.3を335枚のスタジオジブリ画像で約20000stepで再トレーニングしたとのこと。個人的にはこれを元に他の概念と融合させてジブリに影響された独自画風を模索するのがいいと思う。 reddit.com/r/sdforall/com…
25
大きいニュースきた テキストからデザインを生成する「Microsoft Designer」が公開。 テキストから画像を生成し、画像とテキストのレイアウト案も複数生成してくれる様子。中身はDALL-E2が搭載されているようです。 designer.microsoft.com https://t.co/x6CWEzIzSZ