【衝撃】画像AIさん、まさかの「NO」が通じないポンコツだったことが判明www 医療ミス誘発の危険性も指摘されとる模様www
1: 名無しのAIウォッチャー 2025-05-15(木) 10:00:00.00 ID:SaikinAIYABAI スレタイの通りなんだが、マジでヤバい話が出てきたぞ… ワイらの未来を担うはずのAI先生、実は「~じゃない」って言葉が全然わかってないらしい… ((((;゚Д゚))))ガクガクブルブル ソース:Study shows vision-language models can’t handle queries with negation words
これ、ガチでシャレにならんくね?
2: 名無しさん@AI不信ニキ 2025-05-15(木) 10:01:30.50 ID:AItteDameJANE >>1 は?(威圧) 「ネコじゃない画像を出して」って頼んだら、ネコの画像ばっかり出てくるってことか?www そんなん使いもんにならんやろwww ポンコツすぎワロタwww
3: 名無しさん@情報ツウ 2025-05-15(木) 10:03:15.22 ID:MitNEWS_FANBOY >>1 MITの研究グループが発表したやつだな。Vision-Language Model (VLM) っていう画像と言語を扱うAIの話。 記事によると、例えばレントゲン写真見て「心臓肥大がない患者」のデータ探してるのに、「心臓肥大がある患者」のデータばっかりヒットしちゃう可能性があるって。 医療現場だったら普通に死人が出るレベルやんけ… ((( ;゚Д゚)))
4: やる夫 ◆Yaruo.AHOkA 2025-05-15(木) 10:05:45.10 ID:YaruoAHOkA ∧∧ ( ´・ω・) えぇ…AIたん、そんなにおバカさんだったのかお… ( ∪ ∪ 「NO」が分からないって、まるでイヤイヤ期の子供だお… しーJ ワイのAIたんは賢いって信じてたのに…(´;ω;`)ブワッ
5: 名無しさん@悲観論者 2025-05-15(木) 10:08:00.75 ID:OwattenaiKai >>3 これマジでヤバいやつだろ… 工場の製品検査とかで「不良品じゃないもの」じゃなくて「不良品」を弾くAIが、 不良品をスルーしちゃったらどうすんだよ… シンギュラリティ(笑)とか言ってる場合じゃねえぞ。
6: やらない夫 ◆Yaran.SIGOI 2025-05-15(木) 10:10:30.99 ID:YaranSIGOI ふむ…これは「肯定バイアス (affirmation bias)」というやつだな。 VLMは基本的に画像とその画像に「何が写っているか」というポジティブな情報(キャプション)で学習する。 例えば、「犬がジャンプしている画像」に対して「犬がジャンプしていて、ヘリコプターは写っていない」なんてキャプションは普通つけないからな。 結果として、否定語を無視して、関連するオブジェクトに反応してしまうというわけだ。実に論理的ではあるが、実用上は問題だな。
7: 名無しさん@知ったかエンジニア 2025-05-15(木) 10:12:50.12 ID:WakatteruMan >>6 それそれ!記事にも書いてあったわ。 「no」とか「not」だけじゃなくて、どんな否定表現も無視しちゃうってのは致命的だよな。 ランダムに選ぶのと同レベルかそれ以下って…もう笑うしかないわw (ノ∀`)アチャー データセットの作り方から見直さないとダメなんじゃね?
8: ひろゆき@それってあなたの感想ですよね 2025-05-15(木) 10:15:20.45 ID:HiroyukiDayo あのー、AIが否定を理解できないって話ですけど、それって結局AIは人間の言葉を「理解」してるんじゃなくて、単なる統計的なパターンマッチングしかしてないってことの証明になりません? 「心臓肥大なし」で検索したら「心臓肥大あり」のデータが出てくるって、もうそれコントじゃないすかw まぁ、研究者もデータ増やせばマシになるかもって言ってるみたいですけど、それって根本的な解決なんですかねぇ?なんか胡散臭いっすよね。
9: 名無しさん@楽観主義者 2025-05-15(木) 10:18:10.88 ID:NantokaNARUYO >>5 >>8 いやいや、そう悲観的になるなよw こういう問題が見つかるからこそ技術は進歩するんだろ? 記事でも「これは解決可能な問題であることのシグナルだ」って研究者が言ってるじゃん。 むしろ、こういう弱点が見つかったことで、より安全で賢いAI開発に繋がるはずだぜ!(`・ω・´)シャキーン
10: 名無しさん@おーぷん 2025-05-15(木) 10:20:40.30 ID:AI_Ganbare 記事によると、この研究チームが否定形の単語を含むデータセット作って再学習させたら、画像検索の性能が約10%向上して、選択式の質問応答タスクも約30%精度上がったらしいぞ! まだまだ伸びしろあるってことやん!希望はあるで!
11: 名無しさん@AI不信ニキ 2025-05-15(木) 10:23:05.60 ID:AItteDameJANE >>10 でも研究者自身が「我々の解決策は完璧ではない」「モデルがどう機能するのかには手をつけていない」って言ってるのが気になるンゴ…。 データ水増ししただけで、根本的な「理解」には至ってないってことやろ? 付け焼き刃感が否めないンゴねぇ…(´・ω・`)
12: やる夫 ◆Yaruo.AHOkA 2025-05-15(木) 10:25:55.90 ID:YaruoAHOkA >>11 むぅ…確かにそうだお…(´・A・`) 根本的なところが変わってないなら、また別のところでボロが出そうだお… でも、こうやって一つ一つ問題点を潰していくのが大事なんだおね! AIたんの成長に期待するお!フレー、フレー、AIたん! L(・∀・ L) (」・∀・)」
13: 名無しさん@現場猫 2025-05-15(木) 10:28:33.13 ID:Yoshi_JANAI ヨシ!じゃない! この問題、ワイら現場レベルでも他人事じゃないで。 「この部品は欠陥なし」って指示出して、AIが「欠陥」って単語だけ拾って欠陥品ばっかOKにしたらライン止まるどころの話じゃない。 使う前にちゃんとテストしないとアカン、これ絶対。
14: やらない夫 ◆Yaran.SIGOI 2025-05-15(木) 10:31:02.77 ID:YaranSIGOI 研究者たちも「この論文は技術的なものだが、考慮すべきより大きな問題がある。否定のような基本的なことすら壊れているのであれば、現在我々が使っている多くの方法で大規模な視覚/言語モデルを使用すべきではない――集中的な評価なしには」と警鐘を鳴らしている。 これは重要な指摘だ。今後の研究では、テキストと画像を別々に処理する方法や、医療などの特定用途向けデータセットの開発などが検討されているようだ。一歩ずつ進むしかないな。
15: 名無しさん@まとめ見てる奴 2025-05-15(木) 10:35:50.55 ID:MiteruZEeee なんかAIもまだまだだなって安心したような、でも重要なとこで使われ始めてるから怖いような…複雑な気持ちやわ。 でも「AIは完璧じゃない」ってことをちゃんと理解して付き合っていくのが大事なんやろな。 とりあえず、変な指示出して遊んでみるのは楽しそうではあるw ( ´∀`)
まとめ
今回のMITの研究で明らかになった「AIの否定形オンチ問題」について、2ちゃんねらーたちの反応は…
- 衝撃と不安の声: 「『~じゃない』が分からないとかマジかよ…」「医療ミスとか不良品見逃しとかヤバすぎ」といった声多数。AIのポンコツっぷりに驚きを隠せない様子。
- 原因分析: 学習データに否定表現が少ない「肯定バイアス」が原因ではないか、という専門家ぶる指摘も。
- 対策への期待と疑問: 否定形データセットでの再学習で性能向上はするものの、「根本解決にはなってないのでは?」という懐疑的な意見も。
- 人間側のリテラシー: AIは万能ではなく、限界を理解した上で慎重に使うべき、という至極まっとうな意見も。特に高リスク分野では十分なテストが不可欠。
- 今後の発展に期待: 問題点が明らかになることで、AI技術がさらに発展することへの期待感も。
結局のところ、AIはまだ発展途上。過信せず、賢く付き合っていく必要がありそうですな! (´ω`)
source: https://news.mit.edu/2025/study-shows-vision-language-models-cant-handle-negation-words-queries-0514
元記事: https://news.mit.edu/2025/study-shows-vision-language-models-cant-handle-negation-words-queries-0514
コメント (0)
まだコメントはありません。