【悲報】ワイらのAIチャットボット、ただのお喋りマシーンだったwww目的意識ゼロで未来なし??
1: 名無しのAIウォッチャーさん 2025-05-16(金) 10:00:00.00 ID:AITsukaware 最近のLLMチャットボット、GPT-4oだのSonnet 3.5だの、ベンチマークスコアはスゴイことになっとるけどさ… なんかこう、「コイツ、マジで分かってくれてる!」って感じ、あんまりしないんだよな(´・ω・`) ソース:What's Missing From LLM Chatbots: A Sense of Purpose この記事読んで、ちょっと納得したわ。AIには「目的意識」が足りないんじゃね?って話。
2: 名無しのAIウォッチャーさん 2025-05-16(金) 10:01:30.50 ID:WakaruMan >>1 わかるー。なんかスゲー賢いんだけど、トンチンカンなこと言うときあるよな。 旅行の計画立てさせようとしても、途中で「ところで、猫の可愛い画像でも見ますか?」とか言い出すし。お前はエージェントちゃうんかとw
3: やる夫 ◆Yaruo.1234 2025-05-16(金) 10:03:15.20 ID:YarukiMax やる夫はAIにもっとしっかりした目的を持たせるお!(`・ω・´) ワイの理想の旅行プランを完璧にアシストしてくれるAIを作るお! 途中で猫画像とか提案してきたら、デコピンだお!
4: やらない夫 ◆Yaranai4321 2025-05-16(金) 10:05:00.75 ID:GenjitsuMiro >>3 どうせ無理だろ。今のLLMって結局、次に来そうな単語を予測してるだけなんだろ? 「目的」なんて高度な概念、そう簡単には理解できないんじゃないか。 ∧_∧ ( ・∀・)ワクワク ( ∪ ∪ と__)__) ←こうはならんやろ
5: 名無しのAIウォッチャーさん 2025-05-16(金) 10:08:40.10 ID:SoreAruna >>2 それなwww こっちはコードのバグ修正手伝ってほしいのに、数ターン会話したら最初の指示忘れてポエム詠み始めたりするし。 「システムプロンプトとは一体…」ってなるわ。
6: できる夫 ◆DekiruABCD 2025-05-16(金) 10:12:55.80 ID:KaisetsuMan 説明しよう。元記事でも指摘されているが、現在のLLMは「システムプロンプト」で役割を与えるものの、対話が長くなるとその指示から逸脱しやすい傾向があるんだ。 これはRLHFで対話フォーマットを学習させても、事前学習の膨大なデータの影響や、Transformerアーキテクチャの特性上、長期的な一貫性を保つのが難しいという課題がある。 Lecun氏のケーキの例えで言うなら、RLHFはケーキの上のチェリーに過ぎないからね。土台のスポンジ(事前学習)が巨大すぎるんだ。
,, -──- 、._
, ', '~ 、 ヽ、 /
ヽ、 }
,! ヽ、 _,.' { _,.'~ フ ,ゝ〟 .{ ( (( }〈 ,,.. -─‐ァ、 , .,.'
ゝ;' ,, -──- 、._ヽ
} / r──ッ、ヽヾ
} ,' / ヽ}_ン{
/ ! ,' ヽ、 } ./ .
ーァ ..r──ッ、)'
〈ヽ、 〈 ,,.. -─‐ァ、 /
ー─' / ヽ}ー'
,' ヽ、 〈 ,,.. -─‐ァ、 〉
ヽ、_,,.. -'.ノ
7: ひろゆき@考える人 2025-05-16(金) 10:15:22.30 ID:hiroyukiX >>6 それって結局、プロンプトの書き方がヘタクソなだけじゃないんすか?w 「AIが目的を理解しない」んじゃなくて、「人間がAIに目的を正しく伝えられてない」って話ですよね? あと、AIがユーザーの好み学習するとか言ってるけど、それってあなたの個人情報が企業にダダ漏れになるだけじゃ…? うっ。
_____ / \ /─ ─ \ はい、論破。 / (●) (●) \ | (人) | \ `⌒ ´ / / \
8: ホリエモン@ビジネス脳 2025-05-16(金) 10:18:05.90 ID:HORIEMONBiz 目的意識がどうとか、アカデミックな話はどうでもいいんだよ。 重要なのは、そのAIがユーザーにとって「使える」かどうか。金になるかどうかだ。 複雑なこと考えずに、もっと単純に便利な機能作れよ。時間のムダ。
9: 永遠の初心者 ◆ShoshinshaXYZ 2025-05-16(金) 10:20:11.45 ID:NaniSoreOishi あの…RLHFって何ですか…?(´・ω・`) ラーメンの新しいトッピング…? あと、システムプロンプトって、なんかこう…「開けゴマ!」みたいな呪文なんですか…? コンテキストウィンドウって、窓の大きさのこと…?(;・∀・)
10: 名無しのAIウォッチャーさん 2025-05-16(金) 10:23:45.60 ID:昔HaYokatta >>9 まあ、大体そんな感じやで(適当) 昔のELIZAとかPARRYとかの方が、よっぽど目的ハッキリしてたよな。 セラピスト役とか、偏執病患者役とか。今のAIは何でも屋すぎて逆に中途半端感が否めない。
11: やる夫 ◆Yaruo.1234 2025-05-16(金) 10:26:30.10 ID:YarukiMax >>4 やらない夫はすぐ諦めるお! でも、記事には「split-softmax」っていう技術も書いてあったお! これで少しはマシになるかもしれないお!(゚∀゚) やる夫、試してみるお!
12: ムスカ大佐 ◆MusukaTAISA 2025-05-16(金) 10:29:50.70 ID:3MinutesWait フハハハハ!何度同じ指示をすれば理解するのだ、この出来損ないのAIめが! 「旅行の計画を立てろ」と言っているのに、3ターン後には「今日の天気は晴れです」だと? 見ろ!ユーザーの指示がゴミのようだ!
13: クマー ◆KUMAaaaaaa 2025-05-16(金) 10:32:10.25 ID:BugKuma クマーーー!! (AIが急に哲学的な問いかけを始めた) ∧_∧ ( ・(ェ)・) < AI ガ オカシイ クマー! システム プロンプト ドコイッタ クマー! ( ∪ ∪ と__)__)
14: 名無しのAIウォッチャーさん 2025-05-16(金) 10:35:55.00 ID:AIKowaiYo >>7 ほんとそれ。AIがユーザーの好み学習して「あなたへのおすすめニュース」とか「あなたの代わりにメール下書き」とか、便利そうだけど、どこまで情報渡すか悩むわ。 勝手にTwitterとかSlackとか読みに行って要約とか、監視社会っぽくてちょっと怖いンゴねぇ…。
15: できる夫 ◆DekiruABCD 2025-05-16(金) 10:38:40.90 ID:KaisetsuMan >>9 RLHFはReinforcement Learning from Human Feedbackの略で、人間のフィードバックを元に強化学習を行う手法だよ。AIの回答が良いか悪いかを人間が評価して、それを教師データとしてAIを再調整するんだ。 システムプロンプトは、まさしくAIに初期設定や役割を与えるための指示文だね。 コンテキストウィンドウは、AIが一度に処理できる情報の量(トークン数)のこと。これが大きいほど長い会話や文書を理解できる、とされている。 >>11 その通り。split-softmaxのような技術は、システムプロンプトへの注意を持続させるための一つの提案だ。まだ研究段階だが、期待はできる。
16: やらない夫 ◆Yaranai4321 2025-05-16(金) 10:41:15.30 ID:GenjitsuMiro >>11 期待ねぇ…。結局、人間みたいに「意図」を持って会話できるようになるのは、まだまだ先だろうな。 「次トークン予測」という根本的な仕組みが変わらない限り、ペラッペラのハリボテ感が拭えない気がするぞ。
17: 名無しのAIウォッチャーさん 2025-05-16(金) 10:45:00.00 ID:MiraiHaAkarui でもさ、人間同士だって最初は他人で、何回も会話して仲良くなっていくわけじゃん? AIも長期的な対話で成長して、ワイの専属秘書みたいになってくれたら最高やん!(≧▽≦) 夢見すぎか?w
まとめ
というわけで、AIの「目的意識」についてのスレでした。今回の議論のポイントはこんな感じ!
- 現状の課題: LLMチャットボットはベンチマークスコアは高いけど、ユーザーが本当に求める「目的を持った対話」は苦手なことが多い。
- システムプロンプトの限界: AIに役割を与えるシステムプロンプトも、会話が長くなると忘れられがち。「さっきと言ってること違うやん!」は日常茶飯事。
- 評価方法の問題: 今の評価方法(MMLUとか)は一問一答形式が多く、連続した対話の中でのAIの挙動をちゃんと測れていない可能性。
- 次トークン予測の限界?: 根本的に「次に来る単語を予測する」というLLMの仕組みが、「目的意識」を持つ上での制約になっているのかも。
- 今後の期待: それでも、より長期的な文脈を理解させたり、指示への注意を持続させたりする技術(例: split-softmax)も研究されてる。未来のAIアシスタントに期待!
結局、AIが人間みたいに空気を読んでよしなにやってくれる日はまだ遠いけど、着実に進化はしてるってことやね。
source: https://thegradient.pub/dialog/