176
177
これ魔法みたいで凄かった。。Blender上でデプス使用してテクスチャや画像を生成できるdream-textures試した。ダイレクトにモデルにテクスチャが投影できる。未来を少しだけ体験した気分になった
178
UE5のPath Tracer試してた。昔のデータを流用してUEのGroomがPath Tracerでどんな感じか確認。毛のsimがリアルタイムなのはやっぱり良い。オフライン用途でPath Tracerを使うことを考えていきたい
179
Cloth simulation in Blender。Blenderの標準クロスシミュレーションってリアル系の服がどのくらいいけるのか気になってたからテスト。アニメーションはマーベラスとか別ツールでやってる人が多い印象。設定が難しかったけど予想よりもまともに機能した。#b3d
180
181
C4Dでプロシージャルなスタイライズした崖(岩)を作りたかったのでテスト。まあ自分で使う分には使える気はするかな。C4Dでもボリューム機能がついてから以前より大分色々出来るようになった。
182
Maxtreeで90個の植物が無料ダウンロードできるみたいだったからとりあえずダウンロードした。blenderファイルもあるからcyclesとeeveeでそのまま使えた。植物はいっぱい持ってるけど好きに使っていいみたいだからこれもストックしておくmaxtree.org/products/plant…
183
モーキャプで遊ぶ準備。とりあえずVRoidのキャラ使って動作のテスト
184
ビニールテープと骸骨。X-ParticlesのxpDynamicsテストついでの動画。公式のデモをベースに弄ってた。使えない機能だと勝手に思い込んでたけど手軽で便利。#C4D #XParticles
185
Unreal Engineのipad使ったバーチャルカメラUnreal Remote 2テスト2。昔作った動いているキャラありのシーン。望遠寄りになると手振れ補正の設定はあるけどそもそも無線の遅延が結構気になる。Vive Trackerとか使ったガチなやつも試してみたくなるね。
186
さっきのティファの投稿のインスタに見に行ったらコレも面白かった。多分実写をフィギュアへ変換してるっぽい。というかwingfoxは何でAIの投稿してるの?AI動画作成チュートリアル販売でもするの?
187
Blender用のオープンソースのキャラ作成アドオンMB-Labていうの教えてもらって初めて知った。性別,人種,体形などカスタム出来て骨やフェイシャルも入ってる。これ系で有名なdaz3Dは顔とかの種類が絶妙にいい感じなんでMB-Labもいい感じの顔が増えればBlender上でのスカルプト素体としてありかも。
188
アニメーション作成ソフトCascade試した。確かに凄い!左の緑が物理的な挙動が追加された結果表示。自分で適当に付けたクソみたいなモーションでも重心バランスとか追加して自然にしてくれてる。無料版もあるしコレ便利かも。
189
AIで動画生成テスト5。以前作ったリアル系のCG動画をイラスト風に変換。今回はi2iを多段階で処理してみた。元動画が低画質なので不要な揺れが出てる気がする
190
しかし近頃のAI生成の絵、細部などは歪んで整合性がとれてないとしても全体としては人の目から見て魅力的に見えるっていう点がホントに凄い。以前は魅力はないけど綺麗に生成できるって方が先に訪れると思ってた。人が魅力的に感じる感覚部分って意外と単純だったりするのかな
191
AIで音声ソースから自動でリップシンク作成するAudio2Face。自作のモデルで試して最終的にBlenderへインポートしてみた。ブレンドシェイプやボーンも無しでメッシュ一つだけ入れればこんな感じでリップシンクしたデータが出来る。結構使えそう。
192
BlenderアドオンScatter購入。表面にオブジェクトを散布するアドオン。シンプルな草でテスト。設定も色々あるしそれなりの広さに散布するのにちょうど良さそう。そこそこ値段は高い。
193
Blenderで久しぶりにCycles X触ってるけどコレ本当に快適だな。使い易くて誰でもリアルでいい感じにレンダリングできる。今からCGはじめる人が羨ましい
194
Unreal Engine5のNiagara Fluidsで赤と青の炎を振り回す。いずれゲームも全部こういったシミュレーションベースになるのかな。引き続き3Dモデルはユキちゃん
197
EmberGenパラメータ弄って遊んでるだけで楽しい。せっかくリアルタイムsimなのでマウスジェスチャーで操作出来たりすると面白そう。次のベータリリースでUpResやオブジェクトのコリジョン、オブジェクトからの放出などがつくっぽい。
198
この1か月くらいのAI動画生成テストまとめ。古い順。先月出遅れて勉強し始めて最初はControlNet覚えるところからだった。段々良くはなってきたので次はより実践的に応用したものをテストしたい。最初の動画のみt2i。あとはi2i
199
ClipsでこのARエフェクト使うにはLiDARスキャナ対応のiPhone12 Pro等とiOS 14.5が必要。普段仕事で時間かけて映像をトラッキングしてCGとか合成してるけど、そういう専門的だったものがどんどんリアルタイムで誰でも表現として取り入れられる時代が近づいてるね。
200
カメラトラッキングは一切やりたくないから、iPhoneで撮影とトラッキング同時にやってくれるアプリ久しぶりに触ってた。撮影するだけでblender上にカメラとガイドと動画を自動配置してくれて最高なんだけどやっぱり滑る。プリビス用程度かな。趣味VFX作りたい人には良いかも