【神技術】Google先生、画像たった3枚からヌルヌル動く3Dモデルを錬成してしまうwww【Veoマジぱねぇ】
1: 名無しのAIウォッチャーさん 2025-05-17(土) 10:00:00.00 ID:GoOgLeAI またGoogle大先生がとんでもないもん開発したらしいぞ…! たった数枚の写真から、ぐりぐり動かせる3Dモデル作れるってよ!マジかよ… ソース:Bringing 3D shoppable products online with generative AI
2: 名無しのAIウォッチャーさん 2025-05-17(土) 10:01:30.50 ID:AImajiKa ファッ!?Σ(゚Д゚) 写真から3Dって昔からあるけど、そんな高クオリティなん? これで通販サイトの商品画像が全部3Dになったら革命やんけ!
3: やる夫 ◆Yaruo.AHO 2025-05-17(土) 10:02:15.22 ID:YARUOdaO やる夫も自分の秘蔵フィギュアコレクションを3D化してみたいお!(゚∀゚) これで自慢しまくれるお!
____
/ \
/ _ノ ヽ、_ \
/ o゚⌒ ⌒゚o \ ウヒョー!楽しみだお!
| (__人__) |
\ ` ⌒´ /
/ \
4: やらない夫 ◆Yaranai.ZO 2025-05-17(土) 10:03:40.80 ID:YARANAIde どうせまた「それっぽい」だけのハリボテなんだろ? 服の布の質感とか、細かいアクセサリーとか、ちゃんと再現できるのかねぇ… ( ´ー`)フゥー... やらない夫は期待しないぞ。
____
/ \
/ ─ ─ \
/ <●> <●> \
| (__人__) | フン、どうせ…
\ `ー'´ /
ノ \
/´ ヽ
5: できる夫 ◆Dekiru.MAN 2025-05-17(土) 10:05:00.11 ID:DEKIMASUyo 説明しよう!これはGoogleの最新動画生成AI「Veo」をファインチューニングした技術なのだ!(`・ω・´)シャキーン 初代のNeRFベース、第2世代のDiffusionモデルを経て、ついに第3世代ではカメラポーズ推定なしで、しかも1枚の画像からでも高品質な360°スピン動画を生成できるようになったのだよ。3枚あればさらに精度アップだ!
6: 名無しのAIウォッチャーさん 2025-05-17(土) 10:06:55.30 ID:KaMiGiJyutsu >>5 できる夫キターーー(゚∀゚)ーーー!! カメラポーズ推定なしってことは、今までクソ面倒だった前処理が大幅簡略化されるってことか? それはアツいな!(・∀・)イイ!!
7: 名無しのAIウォッチャーさん 2025-05-17(土) 10:08:12.75 ID:EROtenKai つまり…つまりだ…!ワイの嫁(二次元)の抱き枕カバーの画像3枚あれば、 ぬるぬる動く3D嫁が爆誕するってことか!?!?!? ゴクリ…(^q^)
8: 永遠の初心者さん ◆Shoshin.SHA 2025-05-17(土) 10:09:33.40 ID:WakaranAI あの…Veoってなんですか…?(´・ω・`) NeRFっていうのも、なんか強そうな呪文ですか…? 私にもわかるように教えてください!
9: できる夫 ◆Dekiru.MAN 2025-05-17(土) 10:11:02.60 ID:DEKIMASUyo >>8 永遠の初心者さん、こんにちは! VeoはGoogleが開発した超高性能な「動画を作ってくれるAI」のことさ。 NeRFは「いろんな角度から見た写真を使って、見えない部分も想像して3Dっぽく見せる魔法」みたいなものだよ。 今回の技術は、そのVeoくんに「この商品の写真1枚あげるから、グルっと一周回った動画作って!」ってお願いする感じだね!(b´∀`)
10: ひろゆき@考える人 ◆Hiroyuki.ACE 2025-05-17(土) 10:13:45.99 ID:HIROYUKIdayo それって、結局生成される3Dモデルの著作権とかどうなるんすか? 元画像が著作物だったら、生成された3Dもその著作権者に帰属するんですかね? あと、悪用された場合の対策とかって考えてるんすか?なんかそういうデータあるんすか?
___
/ ▲\
/ ● Λ
/ ˇ ▼
| |
| |
| ● ● |
| ˇ | <それってあなたの感想ですよね?
\ ‘ー==’ /
\_____/
11: 名無しのAIウォッチャーさん 2025-05-17(土) 10:15:20.30 ID:SoUdaYoNe >>10 ひろゆき氏の言うことも一理あるな。権利関係はマジでどうなるんやろ。 あと、Google Shoppingで使われるってことは、中小のECサイトとかは導入コストで死ぬんじゃね? 格差広がりそう。
12: やる夫 ◆Yaruo.AHO 2025-05-17(土) 10:17:00.05 ID:YARUOdaO >>4 やらない夫、見てろお! やる夫がそこらへんの石ころ3枚撮って、 超美麗3Dロックアートを爆誕させてやるお! (`・ω・´)キリッ ハルシネーション?上等だお!それが味になるんだお!
13: 魔理沙だぜ ◆Marisa.ZE 2025-05-17(土) 10:18:55.88 ID:KirisameDAZE 面白そうな技術じゃないか! 私のミニ八卦炉もこれで3D化できるのか? 光り輝くマスタースパークも再現できたら最高なんだぜ! …って、さすがにエフェクトまでは無理か? でも素材感とかは期待してるぜ!
14: クマー ◆Kumaaa.AA 2025-05-17(土) 10:20:10.10 ID:KUMAaaaaaa もし、ワイのふかふかボディがカクカク3Dになったら… クマァァァァ━━━━━━(медведь)━━━━━━ !!!!!
/ ̄ ̄ ̄\
/ ─ ─\
/ <●> <●> \
| (__人__) | ユルサン…
\ `⌒J´ /
/ \
15: 名無しのAIウォッチャーさん 2025-05-17(土) 10:22:33.80 ID:SUGOsugiRU 記事読んだけど「shiny surfaces(光沢のある表面)」もイケるって書いてあるやん! これは期待できるで! 初代と2代目の技術じゃ難しかったらしいからな。
16: 名無しのAIウォッチャーさん 2025-05-17(土) 10:24:01.50 ID:MiraiKitaRUKA 家具、アパレル、電子機器とかにも対応ってことは、もうIKEAとかZOZOTOWNの商品ページが全部インタラクティブ3Dになる日も近いんか? 部屋のレイアウトシミュレーションとかも捗りそう (・∀・)ワクワク
17: やらない夫 ◆Yaranai.ZO 2025-05-17(土) 10:25:44.20 ID:YARANAIde >>12 やる夫、石ころじゃなくてお前の部屋の汚いTシャツで試せよ。 どんなクリーチャーが錬成されるか見ものだな。ククク… 結局、学習データにないような奇抜なデザインの商品は苦手なんだろ? 「ありきたり」なものしか生成できないに100ガバス。
18: 名無しのAIウォッチャーさん 2025-05-17(土) 10:27:10.90 ID:HalluciNATION 「ハルシネーション(幻覚)を減らせる」って言っても、完全に無くなるわけじゃないんだろ? 見えない部分をAIが「想像」して補完するわけだから、たまにとんでもない形状が爆誕しそうで逆に楽しみなんだがw 靴の後ろに謎の突起とか生えてたら草。
19: 名無しのAIウォッチャーさん 2025-05-17(土) 10:29:05.15 ID:KojinDEmo これって、個人クリエイターとかも手軽に使えるようになるんかな? BlenderとかZBrushとかでチマチマ作るより圧倒的に楽そうだけど、Google様のサービスだから利用料お高めなんでしょう?(´・ω・`) 月額サブスクとかだったら手が出せんなぁ…。
20: ギコ猫 ◆GikoNeko.NYA 2025-05-17(土) 10:31:33.77 ID:GikoGiko777 フーン、Googleもなかなかやるじゃねーか。 でもよぉ、俺様が昔Photoshopで切り貼りして作ったコラ画像の方が味があるぜ?( ´∀`)σ)∀`)ツンツン まあ、技術の進歩は認めてやるけどな!
∧_∧
( ´・ω・) これでどうだニャ?
/ ⌒ヽ
(人___つ_つ
21: 名無しのAIウォッチャーさん 2025-05-17(土) 10:33:50.00 ID:SankouNI 学習データには「millions of high quality, 3D synthetic assets」ってあるから、相当リッチなデータで鍛えられてるんだろうな。 だから多様な商品カテゴリに対応できるんやろ。それでも未知の物体には弱いかもしれんが。
22: 名無しのAIウォッチャーさん 2025-05-17(土) 10:35:12.34 ID:MetaVerseIKI これ、メタバースとかのアバターとかアイテム生成にも応用できそうじゃね? 自分の顔写真数枚からリアルなアバター作れたりしたら革命なんだが。 夢が広がりんぐwww
まとめ
というわけで、Google先生の新たな神技術「Veoを使った3Dモデル生成」についてのスレでした! 今回のポイントをまとめると…
- 圧倒的進化!: Googleの最新動画生成AI「Veo」を応用し、わずか数枚(最低1枚、推奨3枚以上)の2D商品画像から、高品質でインタラクティブな3Dモデルを生成可能に!
- 弱点克服!: 初代NeRF、第2世代Diffusionモデルの課題だった複雑な形状(サンダル等)や、光沢・素材感の表現、カメラポーズ推定の必要性などを大幅に改善。
- 汎用性ヤバい: 靴だけでなく、家具、アパレル、電子機器など、幅広い商品カテゴリに対応。Google Shoppingでの活用が既に始まっている模様。
- ハルシネーションはまだ課題?: 見えない部分の補完はAIの「想像」に頼るため、入力画像が少ないと不自然な部分が生成される可能性は残る。でも3枚あればかなりマシに!
- 未来の買い物体験: オンラインショッピングがよりリアルで、商品を手に取るような体験に近づくことが期待される。権利関係やコスト面は今後の課題か。
技術の進歩ってマジですげーな!これからのオンラインショッピングがどう変わるか楽しみすぎる!(≧▽≦) みんなも気になる商品があったら、3D表示されてないかチェックしてみようぜ!
コメント (0)
まだコメントはありません。