【速報】AIさん、ついに「わい、これ分からんわ…」と白状する時代へwww MIT発の新技術がヤバすぎると話題に!
1: 名無しのAIウォッチャーさん 2025/06/03(火) 10:00:00.00 ID:MitNewsFan 最近のAIって賢いけど、平気でハルシネーション起こして嘘八百並べ立てるよな?(´・ω・`) そんなAI君に「お前、それ本当に知ってるんか?」を教え込む、夢のような技術が爆誕したらしいぞ! その名もThemis AIの「Capsa」プラットフォーム!
ソース:Teaching AI models what they don’t know (MIT News)
2: 名無しのAIウォッチャーさん 2025/06/03(火) 10:01:30.50 ID:SugoiKamo マジかよ!あの自信満々に嘘つくAIが、ついに自分の無知を自覚するんか?w 胸が熱くなるな!(≧▽≦)
3: やる夫 ◆YaruoAHOI 2025/06/03(火) 10:02:15.78 ID:YaruoAHOI やる夫、この「Capsa」ってやつで最強のAIを開発するお! もうAIに「知らんがな」とは言わせないお!
____
/ \
/ _ノ ヽ、_ \
/ o゚⌒ ⌒゚o \ やるお!
| (__人__) |
\ ` ⌒´ /
4: やらない夫 2025/06/03(火) 10:03:45.12 ID:yaranaino >>3 どうせまた理想論だろ。AIが「わからない」を本当に理解できるのか? 「わからないことが、わからない」状態がAIの常だと思ってたがな。 結局、開発者が設定した閾値で「わからないっぽい」って判定するだけじゃないのか?┐(´д`)┌
5: できる夫 2025/06/03(火) 10:05:00.25 ID:DekiruManG >>4 やあ、やらない夫君。説明しよう! Capsaは、AIモデルがデータ処理を行う際のパターンを分析するんだ。 その中で、曖昧さ、不完全性、またはバイアスを示す特有のパターンを検出する。 そして、それらの「不確実な」部分を特定し、モデル自体を修正・強化することで、より信頼性の高い出力を促すんだ。
____
/ \
/ノ \ u. \
/ (●) (●) \ <ふむふむ
| (__人__) inject |
/ ` ⌒´ /
(⌒ヽ /
\ |
\ |
6: 名無しのAIウォッチャーさん 2025/06/03(火) 10:06:50.88 ID:ChatGptUser ってことは、ChatGPTみたいなLLMが「この質問の答え、ちょっと自信ないっす…ソース確認してください(汗)」とか言い出すようになるんか?w それはそれでカワイイかもしれんが、実用的にはどうなんやろ?(´ω`)
7: ひろゆき@論破王 2025/06/03(火) 10:08:12.34 ID:hiroyukiX >>6 それってあなたの感想ですよね? AIが「自信ない」って言うとして、その「自信の度合い」ってどうやって客観的に評価するんですか? 結局、人間が「このパターンが出たら不確実性高め」みたいなルールを教え込むだけで、AIが本当に"理解"してるわけじゃないんじゃないすか? なんかそういうデータとかあるんですか?具体的な論文とか。
8: 名無しのAIウォッチャーさん 2025/06/03(火) 10:09:03.45 ID:HiroyukiFan >>7 論破王キタ━━━━(゚∀゚)━━━━!! 確かに、その基準が曖昧だと意味ないンゴねぇ。
9: ホリエモン 2025/06/03(火) 10:10:30.99 ID:HoriemonGo >>7 MITの連中が作ってんだから、それなりの根拠はあるんだろ。 記事読むと、製薬会社とか石油会社がもう使ってるって書いてあるじゃん。 あいつらはシビアだから、役に立たないもんに金と時間は使わねーよ。 「数秒で検出・修正」ってのが本当なら、相当使える技術だろ。
10: 永遠の初心者 ◆BeginnerNe 2025/06/03(火) 10:11:55.01 ID:syosinsya あの…すみません…(´・ω・`) LLMって何の略なんですか…? みなさん普通に使ってるけど、私だけ分からなくて… あと、ハルシネーションって幻覚のことですか?AIも夢とか見るんですか?
11: できる夫 2025/06/03(火) 10:13:20.65 ID:DekiruManG >>10 大丈夫だよ、永遠の初心者さん。 LLMは「Large Language Model(大規模言語モデル)」の略さ。ChatGPTなどが有名だね。大量のテキストデータで学習して、人間のように自然な文章を生成したり、質問に答えたりできるAIの一種だよ。 ハルシネーションは、AIが事実に基づかない情報や、もっともらしい嘘を生成してしまう現象のことを指すんだ。AIが夢を見るわけではないけど、学習データにないことや矛盾することを無理やり繋げてしまうことで起こることが多いね。Capsaのような技術は、まさにこのハルシネーションを減らすのに役立つと期待されているんだ。
12: 名無しのAIウォッチャーさん 2025/06/03(火) 10:15:00.77 ID:JidouUnten 自動運転のAIが「この先の道、ちょっと霧が深くてセンサーの反応が不確かです…時速30kmに落としますね(キリッ」とか、「この標識、雪で汚れてて判別できません!人間さん助けて!」とか言うようになったら、逆に信頼できるかもなw 暴走されるより100倍マシやで。
13: クマー 2025/06/03(火) 10:16:40.10 ID:Kumaaaaaaa AIが自信満々に間違った情報出すと…… お前らのPCやスマホが文鎮になるクマ―――!!! (`(エ)´)ノ
/ ̄ ̄\
/ ヽ_ .\
(●)(●) | 間違ったAIはダメクマー!
(__人__) |
l` ⌒´ |
. { |
{ /
フヽ /
ヾtopic_creator> ```
14: 名無しのAIウォッチャーさん 2025/06/03(火) 10:18:05.23 ID:EdgeComputing
エッジデバイスで動く小規模モデルでも精度が上がるってのは地味にすごいな。
スマホAIとか、いちいちクラウドに問い合わせてたら遅いし。
「基本はローカルで処理するけど、自信ない時だけサーバーに聞く」ってのは賢い。(^o^)
15: やる夫 ◆YaruoAHOI 2025/06/03(火) 10:20:11.48 ID:YaruoAHOI
\>\>14
それだお! やる夫が作るAIは、超高速で超正確、しかも謙虚さを兼ね備えた完璧超人AIだお!(`・ω・´)シャキーン
ノーベルAI賞も夢じゃないお!
16: やらない夫 2025/06/03(火) 10:22:33.89 ID:yaranaino
\>\>15
はいはい、夢見るのは自由だけどな。
結局、この技術も銀の弾丸じゃないだろ。不確実性を「検出」できても、それをどう「修正」するかがキモだろうし、その修正がまた新たなバイアスを生む可能性だってある。
それに、AIが「わかりません」って言えるようになったとして、その責任は誰が取るんだ? 「AIが自信ないって言ったんで…」で済む話じゃないぞ。
17: 名無しのAIウォッチャーさん 2025/06/03(火) 10:25:59.02 ID:GenjitsuMinai
\>\>16
正論だけど、一歩前進なのは間違いないやろ。
「AIは万能」って幻想から一歩進んで、「AIは道具、限界もある」って認識が広まるのは良いことやで。
それにしてもMITは次から次へと面白いもん開発するなぁ。
---
## まとめ
というわけで、MIT発のAI新技術「Capsa」についてのスレでした!
今回のポイントをまとめると…
* **AIの「わからん」を教える技術**: MITスピンアウトのThemis AIが、AIモデルの不確実性を検出し修正する「Capsa」プラットフォームを開発。
* **仕組み**: AIモデルがデータ処理する際のパターンから曖昧さやバイアスを検出し、モデルを強化することで信頼性を向上させる。
* **応用分野**: 自動運転、創薬、LLM(大規模言語モデル)など、ミスが許されないハイリスクな分野での活用が期待されている。特にLLMが自身の出力の不確かさを自己報告できるようになるのは大きい。
* **エッジAIにも恩恵**: スマホなどのエッジデバイスで動作する小規模モデルでも、品質を犠牲にすることなく高速処理を実現可能に。自信がない時だけ中央サーバーに頼る、といった連携も。
* **より信頼できるAIへ**: AIが「何を知らないか」を認識できるようになることで、AIのハルシネーション(もっともらしい嘘)を減らし、人間とAIのより良い協調関係を築く一助となるかもしれない。
今後のAIの進化から目が離せないな!(`・ω・´)
コメント (0)
まだコメントはありません。