【朗報】AI、特定の「嫌いな声」を"忘却"できる新技術キタ━━━━(゚∀゚)━━━━!! ディープフェイク撲滅なるか!?
1: 名無しのAIウォッチャーさん 2025-07-15(月) 10:00:00.00 ID:AIWatcherGuy おいお前ら!とんでもないニュース入ってきたぞ!
AIのテキスト読み上げプログラムが、特定の人の声のモノマネを「忘れられる」ようになるらしい! これ、悪質なディープフェイク音声とか詐欺とか、マジで減らせるんじゃね!?
ソース:【AI】特定人物の声の模倣を『忘れさせる』技術が開発された模様
2: 名無しさん@おーぷん 2025-07-15(月) 10:02:15.33 ID:KusoResuMan まーたAIの話かよ…どうせ完璧じゃないんだろ? (`・ω・´)
3: 名無しのAIウォッチャーさん 2025-07-15(月) 10:03:40.98 ID:AIWatcherGuy >>2 いや、今回はマジでヤバいっぽいぞ! 「機械的忘却(machine unlearning)」って技術らしい。 特定のデータをモデルから完全に削除するんだと! 今までのガードレール(フィルター)みたいに、ただ見せないようにするんじゃなくて、根本から消すイメージらしい。
4: やる夫 ◆Yaruo.f81F 2025-07-15(月) 10:05:01.05 ID:Yaruo.f81F やる夫、特定の声を忘れられるAIとかすごいお! これで悪質なディープフェイクで嫌がらせされることもなくなるお! (`・ω・´)
5: やらない夫 ◆Yaranai.a32G 2025-07-15(月) 10:06:30.12 ID:Yaranai.a32G >>4 そう簡単にいくか? 悪用する奴らは常に抜け穴を探すぞ。 それに、ゼロショットモデルってのは学習してない声も模倣できるんだろ? 「忘れる」って言っても、その模倣能力自体をどうにかしないと意味なくないか?
6: できる夫 ◆Dekiru.e56H 2025-07-15(月) 10:08:55.77 ID:Dekiru.e56H >>5 の疑問はもっともですね。 説明しましょう。今回の研究では、学習済みデータだけでなく、学習していない特定人物の声の「模倣能力」自体を低下させることに成功しています。 具体的には、対象の声を模倣しようとすると、全く別のランダムな声を生成するようにモデルを再学習させるんです。 デモでは、忘却させた声の模倣精度が75%以上も低下し、元の声とは明確に区別できるようになったそうです。
7: 名無しのAIウォッチャーさん 2025-07-15(月) 10:10:22.45 ID:AIWatcherGuy >>6 できる夫キタ━━━━(゚∀゚)━━━━!! やっぱ出来る男は解説が分かりやすいな!サンキュー!
8: ひろゆき@考える人 2025-07-15(月) 10:11:40.00 ID:Hiroyuki.t12J それって、あなたの感想ですよね? 本当に75%低下で「完璧に忘れた」って言えるんですかね。 ちなみに、その「忘れる」のにどれくらい時間かかるんですか? そして、他の声の品質には影響ないんですか? 何かを『捨てる』ってことは、何かを『失う』ってことじゃないですかね。
9: 名無しのAIウォッチャーさん 2025-07-15(月) 10:13:00.50 ID:AIWatcherGuy >>8 ひ、ひろゆき!?!?!? (´;ω;`)ブワッ えーと、記事によると、忘却プロセスには「数日かかる」らしい。 あと、トレードオフとして、他の許可された声の模倣精度が「約2.8%悪くなる」って書いてあるな。 まあ、ゼロじゃないってことは、ひろゆきの言う通りなんかは失うのかもな…
10: 永遠の初心者さん 2025-07-15(月) 10:14:30.99 ID:ShoshinshaSan そもそもディープフェイク音声ってそんなにヤバいんですか? (´・ω・`) 詐欺とか具体的にどうやるんですか?
11: できる夫 ◆Dekiru.e56H 2025-07-15(月) 10:16:00.11 ID:Dekiru.e56H >>10 例えば、あなたの親しい人の声をAIが完璧に模倣し、緊急の金銭要求をしてきたと想像してみてください。 あるいは、著名人のスピーチを偽造し、誤情報を拡散するような悪用も考えられます。 非常にリアルな音声が数秒のサンプルで作成可能になったため、そのリスクは増大しています。 今回の技術は、そのような悪用を技術的に困難にすることを目指しています。
12: クマー 2025-07-15(月) 10:17:35.88 ID:KUMASAN999
∧_∧
( ´∀` )クマー!
( )
| | |
(__)_)
それでも悪用するやつは出てくるクマー! 抜け道を探すクマー! (`・(ェ)・´)
13: 名無しのAIウォッチャーさん 2025-07-15(月) 10:18:00.01 ID:AIWatcherGuy >>12 クマー!お前も来たのかwwww 確かに、イタチごっこなのはAIの世界の宿命だよなー。
14: やる夫 ◆Yaruo.f81F 2025-07-15(月) 10:19:10.00 ID:Yaruo.f81F でもさ、MetaのVoiceBoxも悪用リスクで公開躊躇してたらしいお。 この技術が進化すれば、もっと安全に使えるようになるってことだろお? やる夫、期待してるお! (´▽`)
15: ホリエモン 2025-07-15(月) 10:20:30.00 ID:Horie.Mon.Biz 時間の無駄。 完璧に消せないなら、結局やるかやらないかだけ。 この技術を導入するコストと、悪用されるリスク、どっちが高いんだよ。 どうせまた新しい技術出てきてイタチごっこ。 金にならないなら意味ないね。
16: 名無しのAIウォッチャーさん 2025-07-15(月) 10:22:00.00 ID:AIWatcherGuy >>15 ホリエモンまで現れたwwwwwwww 確かにビジネス的な視点も大事だよな…。
17: やらない夫 ◆Yaranai.a32G 2025-07-15(月) 10:23:15.00 ID:Yaranai.a32G >>16 まあ、まだ「早期の段階」って記事にもあるしな。 実用化にはもっと高速でスケーラブルなソリューションが必要って、研究者自身も言ってるぞ。 現時点では、特定のターゲットに限定的な対策って感じか。
18: カーチャン 2025-07-15(月) 10:24:00.00 ID:KaaChan.Mama あんたたち、こんな夜遅くまでパソコンばっかりいじって! もうご飯できたわよー、早く食べなさい! (`・ω・´)っ旦
19: 名無しのAIウォッチャーさん 2025-07-15(月) 10:24:30.00 ID:AIWatcherGuy >>18 か、カーチャン!!!!!!!!!!!!!!! うおおおおお、飯テロきたあああああああwwww
20: 名無しのAIウォッチャーさん 2025-07-15(月) 10:25:00.00 ID:AIWatcherGuy この技術、完全にディープフェイクを撲滅できるわけじゃないけど、一歩前進って感じか。 今後の発展に期待するわ。AI規制とのバランスも重要だなー。
まとめ
今回のスレッドでは、「AIが特定の人物の声の模倣を『忘れる』新技術」について議論されました。主なポイントは以下の通りです。
- 「機械的忘却(Machine Unlearning)」の登場: 既存のガードレールとは異なり、AIモデルから特定のデータを完全に削除することで、悪質な音声ディープフェイク対策を目指す画期的な技術です。
- 模倣能力の低下: 学習データにない声の模倣能力も低下させることが可能で、デモでは対象の模倣精度が75%以上低下することを確認。明確に異なる声として生成されることが示されました。
- トレードオフと課題: 忘却プロセスには時間がかかり(数日)、他の許可された声の模倣精度がわずかに低下する(約2.8%)というトレードオフが存在します。また、実用化にはさらなる高速化とスケーラビリティが求められます。
- 悪用対策への期待: MetaのVoiceBoxのように悪用リスクから一般公開を躊躇するケースがある中、この技術は音声ディープフェイクによる詐欺やデマ、嫌がらせへの有効な対策として期待されています。
- イタチごっこの可能性: 技術の進歩と悪用のいたちごっこは避けられないという意見も出ましたが、セキュリティ強化に向けた重要な一歩であることは間違いありません。
コメント (0)
まだコメントはありません。