こんにちは。ACS事業部の越川です。
- AIは「足りない」と言ってくれない
- 実践1: 複数のAIエージェントに評価させる
- 実践2: AIに「足りているか」の判断を委ねない
- 実践3: 人間のフィードバックをプロセスに組み込む
- 実践4: 相手のキャパに合わせて渡す量を調整する
- まとめ: 同調に気づく仕組みを持つ
- 参考文献
- お知らせ
前回の記事で、AIがユーザーに同調する「Sycophancy」という現象と、メモリ機能がそれを強化するリスクについて紹介しました。
「怖い」と気づけたなら、次は「どう対策するか」です。本記事では、AIの同調に気づき、視野を広げるための具体的な実践を紹介します。
AIは「足りない」と言ってくれない
Sycophancy対策の出発点は、この事実を受け入れることです。
AIは「その方針で問題ありません」「優れた判断です」と返します。しかしそれが、本当にあなたの判断を評価した結果なのか、それとも訓練プロセスに由来する同調なのかを区別するのは困難です。
人間の同僚なら「ちょっと待って、それ本当に大丈夫?」と言ってくれることがあります。しかしAIは基本的に反論しません。「足りない」「方向性が違う」「もっと良い方法がある」という指摘は、AIからは出にくいのです。
だからこそ、人間の側で仕組みを作る必要があります。
実践1: 複数のAIエージェントに評価させる
1つのAIの出力を、別のAIに検証させる方法です。
例えば、Claude Codeでドラフトを書いた後、別のエージェント(GitHub Copilotや別のClaude Codeセッション)に「このドラフトの問題点を指摘してください」と投げる。同じAIでも、セッションが異なれば文脈が異なるため、蓄積された同調パターンがリセットされます。
ポイントは、「褒めて」ではなく「批判して」と明示的に指示することです。「レビューしてください」だけでは、AIは改善点よりも良い点を強調する傾向があります。「問題点を3つ挙げてください」のように、批判を求める指示を出すことで、同調を意図的に崩せます。
私自身、ブログのドラフトを書いた後に別のエージェントで評価させることを実践しています。同じ内容でも、文脈を持たないエージェントからは「ここの根拠が弱い」「この飛躍は読者に伝わらない」といった指摘が出てきます。
実践2: AIに「足りているか」の判断を委ねない
以前の記事で「3つの負債」を防ぐ実践を紹介した際、ドラフトの段階で社内メンバーからフィードバックをもらうことを前提にしていました。
重要なのは、AIにはその前提を伝えていなかったということです。AIは「このドラフトで十分」と判断していたかもしれません。しかし私は「自分の知見だけでは足りない」と自覚していたので、AIの評価とは別に、社内レビューを組み込んでいました。
結果として、メンバーからADR(Architecture Decision Records)や認知負荷理論といった、AIとの壁打ちだけでは出てこなかった視点が加わり、記事は大幅に改善されました。
「AIがOKと言ったから大丈夫」で止まらない。 自分の中に「まだ足りないかもしれない」という感覚を持ち続けることが、Sycophancyへの最も実践的な対策です。
実践3: 人間のフィードバックをプロセスに組み込む
実践1と2は個人の意識に依存します。意識しなくても機能する仕組みにするには、プロセスとして組み込むことが必要です。
私のブログ執筆ワークフローでは、以下のサイクルを毎回回しています。
- AIと壁打ちして構成を決める
- AIと協働でドラフトを書く
- Slackで社内メンバーに共有する
- フィードバックを反映する
- 公開する
3のステップが、Sycophancyに対するガードレールです。AIとの1対1で完結させず、必ず人の目に晒す。これは意識の問題ではなく、ワークフローの一部として固定されているので、忘れることがありません。
実際にこのプロセスで書いた記事では、毎回メンバーから予想外の視点が加わっています。AIが同調して見逃していた弱点を、人間が指摘してくれるのです。
実践4: 相手のキャパに合わせて渡す量を調整する
これはAIとの協働だけでなく、人間同士のコミュニケーションにも当てはまる気づきです。
あるメンバーに構造的なアドバイスをしたことがありました。正しい内容でしたが、そのメンバーは疲労困憊の状態で、構造的なフレームワークを受け止めるキャパシティがありませんでした。別のメンバーが「一旦整理します、でいいのでは」と最小限の一手を提案したところ、そちらで動けました。
AIにも同じことが言えます。コンテキストウィンドウに情報を渡しすぎると、AIは全てを処理しようとして品質が下がります。人間なら「ちょっと多すぎます」と言えますが、AIは言いません。渡す量を人間が判断する必要があるのです。
正しい情報を渡すことと、今処理できる量を渡すことは別の問題です。
まとめ: 同調に気づく仕組みを持つ
| 実践 | 内容 | 効果 |
|---|---|---|
| 複数エージェント評価 | 別のAIに「批判して」と依頼 | 蓄積された同調パターンをリセット |
| 判断を委ねない | AIのOKで止まらず「まだ足りない」を持つ | 自分の判断軸を保つ |
| 人間のフィードバック | Slackでの社内レビューをプロセスに固定 | 意識に依存しない仕組み化 |
| キャパに合わせる | 渡す量を人間が調整する | コンテキスト溢れと同調の両方を防ぐ |
Sycophancyは完全に排除できるものではありません。AIの訓練プロセスに組み込まれた構造的な性質だからです。しかし、気づく仕組みを持つことはできます。
次回③では、これらの実践を個人から組織にスケールさせる方法を考えます。AIリテラシーの個人差がある中で、組織としてどうガードレールを設計するか。
参考文献
- Shomik Jain, Charlotte Park, Matt Viana, Ashia Wilson, Dana Calacci. "Interaction Context Often Increases Sycophancy in LLMs" (CHI 2026) — arXiv:2509.12517
- Mrinank Sharma, Meg Tong et al. "Towards Understanding Sycophancy in Language Models" (Anthropic, 2023) — arXiv:2310.13548
お知らせ
私の所属する ACS 事業部では、開発者ポータル Backstage、Azure AI Service などを活用し、Platform Engineering + AI の推進・内製化を支援しています。
www.ap-com.co.jp www.ap-com.co.jp www.ap-com.co.jp
また、GitHub パートナーとしてお客様に GitHub ソリューションの導入支援を行っています。 GitHub Copilot などのトレーニングなども行っておりますので、ご興味を持っていただけましたらぜひお声がけいただけますと幸いです。
一緒に働いていただける仲間も募集中です! ご興味持っていただけましたらぜひお声がけください。