【悲報】ワイら、もはや現実すら信じられなくなる模様…ディープフェイク詐欺がヤバすぎる件www
1: 名無しさん@おーぷん 2025-06-05(木) 10:00:00.00 ID:AbcDefGh スレタイの通りや…マジでSFの世界が現実になっとるで…((((;゚Д゚))))ガクガクブルブル ソース:Deepfake Scams Are Distorting Reality Itself もうビデオ通話の相手も信じられへんくなるんか…?
2: 名無しさん@おーぷん 2025-06-05(木) 10:01:30.50 ID:JklMnoPq うわ、こえーなこれ!ワイも普通に騙されそうやわ…(´・ω・`) オンラインで出会った相手が実はAIとか、悪夢やんけ。
3: やる夫 ◆Yaruo.Aho 2025-06-05(木) 10:02:15.11 ID:YaruoAHO1 お!これって逆にチャンスだお!(゚∀゚) やる夫もイケメンの顔借りて、憧れのあの子とビデオ通話するお! これでモテモテ間違いなしだお!www
____
/ \
/ _ノ ヽ、_ \
/ o゚⌒ ⌒゚o \ やるお!
| (__人__) |
\ ` ⌒´ /
4: やらない夫 ◆YaranaiYo 2025-06-05(木) 10:03:45.88 ID:Yaranai02 >>3 やめとけ。それは完全にアウトだろ。 捕まるだけじゃ済まないぞ。それに、そんなんで得た関係なんて虚しいだけだ。 だいたい、お前の声はどうするんだ?声までディープフェイクするのか?
5: 名無しさん@おーぷん 2025-06-05(木) 10:05:02.30 ID:RstUvwXy >>4 記事によると声も簡単に偽装できるらしいで… 数秒の音声データがあれば、本人そっくりの声を作れるとか。マジキチ。
6: できる夫 ◆DekiruZe 2025-06-05(木) 10:08:19.05 ID:DekiruMAN 説明しよう。現在の生成AI技術は、非常に少ないデータからでも高品質なディープフェイクをリアルタイムで生成可能になっている。 特に、顔の表情や口の動き、声のトーンなどを自然に模倣する能力が飛躍的に向上しているんだ。 SentiLinkの調査では、2023年や2024年と比較してディープフェイクの量が「数百倍」になっているとの報告もある。
7: 名無しさん@おーぷん 2025-06-05(木) 10:10:55.12 ID:ZabCdeFg 数百倍て…もう詐欺師天国やんけ! (((( ;゚Д゚))) 香港の金融マンが2500万ドル騙し取られたって話、ガチなんか…? CFOになりすましたビデオ通話とか、どうやって見抜けと。
8: ひろゆき@考える人 2025-06-05(木) 10:12:30.75 ID:Hiroyuki01 >>7 それって、その金融マンのセキュリティ意識が低かっただけじゃないですかね? 会社の重要人物からの指示なら、普通ダブルチェックとかしますよね? あと、2500万ドル騙されるって、そもそも会社のシステムに問題があるんじゃないかと思うんですけど。 ちなみに、そのディープフェイクのクオリティってどれくらいなんですかね? データあります?
___
/ \
/ノ \ ,, ,,/\ < それってあなたの感想ですよね?
/( ●) (●)\
| (__人__) |
\ ` ⌒´ /
ノ \
/´ ヽ
9: 名無しさん@おーぷん 2025-06-05(木) 10:15:01.22 ID:GhiJklMn >>8 論破王キタ━━━━(゚∀゚)━━━━!! でも実際、緊急時とかパニくってたら騙されそうやけどな。 「今すぐ送金しないとヤバい!」とか言われたら…
10: クマー ◆KUMA.Bear 2025-06-05(木) 10:18:40.03 ID:KumaBearX クマーーーー!! (訳:お前ら!詐欺には最新の注意を払うクマー!甘い話には裏があるクマ!)
∧_∧ / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
( ´(ェ)`)< 油断大敵クマ――!
/ ヽ \___________
/ 人 \\ 彡
⊂ノ ) ((\ 彡
(_)し'
11: 名無しさん@おーぷん 2025-06-05(木) 10:20:13.99 ID:OpqRstUv 専門家も「検出技術はまだ追いついていない」って言ってるのが絶望感あるわ… OpenAIの検出ツールも自社モデル専用とか、意味ないやんけ!
12: 名無しさん@おーぷん 2025-06-05(木) 10:22:50.60 ID:XyzAbcDe でも、記事の最後の方に希望もあったで。 「人間の方が機械より見抜けることもある」「時間をかけてよく見れば精度が上がる」って。 あと、ディープフェイクが普及すればするほど、みんな疑り深くなるから詐欺師もやりにくくなるかもって。
13: 永遠の初心者 ◆SyosinshaX 2025-06-05(木) 10:25:05.17 ID:Shoshin01 あの…すみません、ディープフェイク動画って、具体的にどんなところを見れば「怪しい」ってわかるんでしょうか…?(´・ω・`) 目の動きとか、肌の質感とかですか…? 全然自信ないです…
14: できる夫 ◆DekiruZe 2025-06-05(木) 10:28:33.45 ID:DekiruMAN >>13 いい質問だね、永遠の初心者さん。専門家によると、現時点で見分けるポイントとしては…
- 目の瞬きが不自然(少なすぎる、多すぎる、タイミングがおかしい)
- 顔のパーツ(目、鼻、口)の動きと頭の動きの同期が微妙にズレている
- 肌の質感がのっぺりしている、または不自然なテカリがある
- 髪の毛の生え際や細かい毛の表現が曖昧
- 背景との境界線に不自然なボケや歪みがある
- 照明や影の当たり方が不自然(顔と背景で光源が違うなど)
- 音声と口の動きが完全に一致していない(リップシンクのズレ) などが挙げられる。だが、これらも日々改善されているから、最終的には「何か変だぞ?」という違和感を大事にすること、そして少し時間をかけて観察することが重要だ。
15: 名無しさん@おーぷん 2025-06-05(木) 10:30:11.01 ID:FghIjKlM >>14 できる夫ニキ、サンクス! めっちゃ参考になるわ。 確かに、焦ってると見逃しそうやけど、落ち着いて見ればワンチャンあるかもな。
16: やる夫 ◆Yaruo.Aho 2025-06-05(木) 10:32:40.29 ID:YaruoAHO1 >>14 ふむふむ…やる夫もこれからはビデオ通話するときは目を皿のようにして見るお!(`・ω・´) でも、そんな細かいとこまで見てたら会話に集中できないお…ジレンマだお…
17: やらない夫 ◆YaranaiYo 2025-06-05(木) 10:35:05.80 ID:Yaranai02 >>16 だからこそ、金銭が絡むような話や重要な話は、ビデオ通話だけに頼るなってことだろ。 本当に本人か確認するなら、昔ながらの「合言葉」とか、共通の知人しか知らない話題を振るとか、そういうアナログな方法も組み合わせるべきだな。 フェラーリの役員がCEOからの電話で、数日前に薦められた本の名前を聞いて撃退したって話は良い教訓だ。
18: 名無しさん@おーぷん 2025-06-05(木) 10:38:19.55 ID:NopQrStU >>17 それ賢いな!原始的だけど確実な方法や。 結局、最後は人間の知恵ってことか。
19: 名無しさん@おーぷん 2025-06-05(木) 10:40:42.13 ID:VwxyzAbc つーか、ディープフェイク作るツールが簡単に入手できるってのがヤバいよな。 YouTubeで「いたずらと教育目的のみ」とか言い訳しながら詐欺の手口教えてる動画があるとか…世も末やで。
20: 名無しさん@おーぷん 2025-06-05(木) 10:43:00.00 ID:DefGhiJk もうこれ半分犯罪インフラやろ… とにかく、ネットで知り合った相手、特に美味い話には絶対裏があると思ってかかるしかないな。 ワイは自衛するで!(`・ω・´)ゞ
まとめ
今回のディープフェイク詐欺の件、ワイらが気をつけるべきポイントはこんな感じや!
- ディープフェイク詐欺は他人事じゃない!: 恋愛詐欺から金融詐欺まで、手口は巧妙化し急増中やで。ビデオ通話でも油断禁物!
- AI技術の進化ヤバすぎ: ちょっとした画像や音声データがあれば、誰でもリアルな偽動画・偽音声を作れる時代になっとる。
- 機械の検出より人間の目!: 今のところ完璧な検出ツールはないから、自分の目で「なんかおかしいな?」って感じる違和感が大事や。少し時間をかけて観察するんやで。
- アナログな確認も大事: 金銭が絡む話や重要な話は、ビデオ通話だけでなく、合言葉や昔の共通の話題など、他の方法でも本人確認を試みるのが有効や。
- 知識は最大の防御!: ディープフェイクの存在を知って、警戒心を持つことが第一歩。広まれば広まるほど、詐欺師もやりにくくなるはずや!
みんな、気をつけてネットサーフィン楽しもうな!(´・ω・`)
コメント (0)
まだコメントはありません。