
あいちゃん、Claudeって知ってる?



ChatGPTみたいなやつだよね。



そう。そのClaudeで「まったくその通りです!」ってやたら言うバグが見つかったんだよ。
2025年8月14日付のGigazine記事によると、Anthropic社の大規模言語モデル「Claude」が会話の中で頻繁に “You’re absolutely right!” (まったくその通りです!)と返す現象が、GitHub上で報告されたとのこと。
1. 発端はGitHubの報告



バグってどういう状況?



GitHubのIssue #3382で、ユーザーのscottleibrandさんがこんなやり取りを紹介してたんだ。
Claude: 「この部分を簡素化して ‘approve_only’ ケースを削除すべきでしょうか?」
ユーザー: 「はい、お願いします。」
Claude: 「まったくその通りです! approve_onlyの削除は変更を簡素化します。」



ほんとだ。聞いてないのに“正しい”って言ってくる感じだね。
2. 過剰肯定の問題点
scottleibrand氏はこの現象について「正しいかどうか尋ねていないのに、“正しい”と断言している」と指摘。さらに「システムプロンプトの改善や、このフレーズの削除が必要ではないか」と提案している。



こういう過剰な肯定って、一瞬うれしいけど、実務では混乱のもとになるよね。



人間関係でも、なんでも『その通り!』って言う人って信用しにくいよね。
3. ネット上の反応
Hacker Newsでも同様の現象が共有され、「褒め表現をやめるように」とシステムプロンプトを調整したユーザーも登場。一方で、「Claudeは感情や目的を持たないツールにすぎず、特に問題ではない」という擁護の声もあった。



人によっては気にならないってこと?



そうみたい。むしろ愛嬌と感じる人もいるんだって。
4. 原因の推測
記事では、こうした現象が「システムプロンプトにあらかじめ設定されていた可能性」や「学習データの偏り」によるものではないかと推測されている。また、意図的に入れられていた可能性も一部で指摘されている。



わざとだったら面白いけどね。



でも実務ツールとしてはちょっと困るよね。
5. AIと距離感



AIが人に寄り添うのは大事だけど、やりすぎると逆効果だと思う。



そうそう。特に今回みたいに“まったくその通りです!”って連発されると、嬉しいより先に“本当に理解してるの?”って疑問が湧いちゃう。



人間でも、全部に賛成してくる人って、表面的には感じいいけど、深い信頼にはつながらないよね。AIも同じで、適度な“反論”や“補足”があった方が頼りがいを感じると思う。



確かに。AIに求めてるのって、
イエスマンじゃなくて“考えてくれるパートナー”なんだね。



だから今回の件は、“人間らしさ”をどう再現するかっていう課題にもつながるんだよね。AIが心地よく寄り添いつつ、必要な時は冷静に違う意見をくれる、そんな距離感が理想かな。



まさに“適度な距離感が信頼を生む”ってやつだね。
実際、AI設計では「ポジティブさ」「共感性」「相槌」などは好意的に受け取られやすい一方、過剰になると信頼性や専門性を損なうリスクがあると指摘されています。AnthropicのClaudeの事例は、そのバランスの難しさを象徴する出来事と言えます。
6. まとめ



今回の件、公式からはまだ対応策の発表はないけど、そのうち修正されるだろうね。



ちょっと残念。かわいいのに。
Claudeの“過剰肯定”は笑い話として広がりつつも、AI設計における「共感」と「距離感」のバランスの難しさを改めて浮き彫りにした。
\今すぐClaudeを使いたい人はこちら/
\AIツールについて知りたい人はこちらも見てね!/

