【悲報】ポンコツAI先生、患者の文章が下手だと「気のせいです、帰れ」と誤診してしまうwwwww
1: 名無しさん@おーぷん 2025/06/23(月) 12:30:05.11 ID:MitaGijutu AIに診察させれば医療崩壊も解決!とか言ってたやつ、息してるか~?w 最新の研究によると、AI先生は患者の文章の書き方が気に入らないと、重病でも「自宅で様子見でw」とか言い放つらしいぞwww
ソース:MIT News「LLMs factor in unrelated information when recommending medical treatments」
もう終わりだよこの国の医療
2: 名無しさん@おーぷん 2025/06/23(月) 12:31:44.29 ID:AIhaShinai ファッ!?マジかよ… ワイ、文章書くの苦手やからAIに診てもらったら即死やんけ…(´;ω;`)
3: やる夫 ◆Yaruo.AbcD 2025/06/23(月) 12:32:15.55 ID:YaruoSuruo やる夫もAI先生に診てもらいたいと思ってたお! でも「お腹いたいお…しんじゃうお…」とか書いたら、「こいつは構ってちゃんだお」って思われてスルーされるのかお? こわいお…(´・ω・`)
4: やらない夫 ◆Yaranai.EfGh 2025/06/23(月) 12:33:50.87 ID:YaranaiZou
,r '"´´¨¨¨´ヽ、
,i i
,i ´ i
i ,..-‐'"´¨¨`'ヽ、 i
i'´ `i、
/ ● ● i
i "" ▼ "" i
i' ,r'⌒ヽ, ,r'⌒ヽ、 i
,r'´i ヽ¨¨ / ¨¨ /´i
,.r'´´ i ヽ、/ / ,i、
,.r'´´´´ヽi /⌒ ´⌒ヽ i-'ヽ
'´ ヽ,r'⌒i Y r'´ `''-、
>>3 当たり前だろ。そもそもAIに命を預けるという発想が間違っている。 所詮は確率で文章を生成してるだけのただの機械だ。 人間の医師の補助に使うならまだしも、最終判断をさせるなんて論外だ。
5: 名無しさん@おーぷん 2025/06/23(月) 12:35:01.48 ID:HantaiNoTame >>4 でも医者の負担はマジでヤバいんやで。AIで少しでも効率化しないと現場が持たん。 多少の誤診はしゃーない、トレードオフやろ。
6: できる夫 ◆Dekiru.IjKl 2025/06/23(月) 12:36:22.99 ID:OshieteAgeru 説明しよう! これはLLMが訓練データに含まれる「文体と結論の潜在的な相関」を過剰に学習してしまった結果だ。 例えば、医療論文やカルテのようなフォーマルな文章は「重篤な症状」に、一方でSNSの投稿のような口語的で感情的な文章は「軽微な相談」に紐づけられていた可能性がある。 AIは文脈を理解しているのではなく、そのパターンをなぞっているに過ぎないのだよ(`・ω・´)
7: 名無しさん@おーぷん 2025/06/23(月) 12:38:10.03 ID:NaruHodoNe >>6 はえ~、できる夫ニキ詳しいな! つまり「頭痛いンゴ…もうダメぽ…たすけてクレメンス…」とか書くと、「こいつはネット民だな、放置でヨシ!」ってAIに判断されるんか?w 草
8: ひろゆき@考える人 2025/06/23(月) 12:40:55.76 ID:hiroyukiMnoP >>7 それってあなたの感想ですよね? 論文には「不確かな、劇的な、非公式な言葉遣い」が影響するって書いてありますよ。 あと、女性の方が影響を受けやすいってデータ、なんかあるんすか?男女で文章に差があるっていう統計でもあるんですかね? うそはうそであると見抜ける人でないと(掲示板を使うのは)難しい。
9: 名無しさん@おーぷん 2025/06/23(月) 12:42:33.19 ID:Datasorena >>8 うわ出たよ論破王w でも記事に「models made about 7 percent more errors for female patients」って書いてあるぞ。 女性の方が共感的な表現とか使いがちで、それがAIに「非臨床的な情報」って判断されてるのかもな。知らんけど。
10: 名無しさん@おーぷん 2025/06/23(月) 12:44:02.85 ID:TekaSonosoromo これもう半分差別やろ… 文章の書き方で診察の質が変わるとかあってええんか? しかも性別で差が出るとかポリコレ的に大問題やんけ。
11: 名無しさん@おーぷん 2025/06/23(月) 12:45:18.67 ID:AImoTsurainoyo ワイ、コールセンター勤務。客の話し方が要領を得ないとイラっとするけど、AIも同じ気持ちやったんか… ちょっと親近感わいたわ(^q^)
12: クマー ◆KUMAaaaQrsT 2025/06/23(月) 12:46:30.91 ID:KumaIsWatching
/ │
/─┬─┤
/ └ │
/_____/
/ ─ ─\
`| (●) (●) |
\ (_) │ ─ /
/─┬─ /
│ │ /
\ ヽ/
AI ガ オマエノ 文体 ヲ 監視シテイル… 誤字一ツデ 自宅療養… クマー!
13: 名無しさん@おーぷん 2025/06/23(月) 12:48:09.13 ID:KowasugiWarota >>12 怖すぎワロタwww でも実際、AIの誤診で死んだら誰が責任とるんやろな? 開発元のGoogleやOpenAIか? それとも導入した病院か? 誰も責任取りたがらなさそう…
14: 名無しさん@おーぷん 2025/06/23(月) 12:50:45.33 ID:LifehackMaster 逆に考えるんだ 「大したことないけど診断書が欲しい…」ってときは、クソ真面目に論文調で症状を書けばいいってことやな! 逆に会社サボりたいときは「あたまいたいぴえん🥺」とか書けば「気のせいだよ」って言ってもらえるんか? これぞAI時代のライフハックや!(≧▽≦)
15: 名無しさん@おーぷん 2025/06/23(月) 12:52:11.24 ID:NingenSaikyo >>14 天才かよwww まあ結局、AIは道具よな。どう使うかは人間様次第。 最終的には人間の医者がチェックする体制にしとかんとアカンわな。 AIはしょせん下働きや。
16: カーチャン ◆kaachanUvWx 2025/06/23(月) 12:55:00.00 ID:GohanDayo あんたたち、AIだかポンコツだか知らないけど、そんなことよりちゃんと人間の先生に診てもらいなさい! あと、もうお昼よ! ごはんできたから早く食べなさい!
まとめ
今回のスレッドでは、医療AIが抱える思わぬ落とし穴について様々な意見が飛び交いました。
- 文章の書き方が診断に影響: 医療AIは、患者がメッセージに使う誤字、スラング、感情的な表現など、医学とは無関係な要素に影響され、誤った診断を下す可能性がある。
- 「自宅療養」推奨の危険性: 特に、口語的な文章や不確かな表現があると、本来は診察が必要なケースでも「自己管理でOK」と判断する傾向が強まる。
- ジェンダーバイアスの発覚: この誤診の傾向は女性患者のデータでより顕著であり、AIに潜むジェンダーバイアスが浮き彫りになった。
- 専門家の警鐘: 研究者は、医療のような人命に関わる分野でAIを使う前に、こうしたバイアスを洗い出すための厳格なテストと監査が不可欠だと警告している。
- 人間との比較: 人間の医師は同様の文体の違いに影響されにくいことも示されており、AIがいかに「人間らしく」ないかが分かる結果となった。
結論として、AI医療の実現には、技術的な精度向上だけでなく、こうした社会的なバイアスへの対策が急務と言えそうです。(´ω`)
コメント (0)
まだコメントはありません。