
こんにちは。ACS事業部の越川です。
前回の記事で、AIコーディングの「3つの負債」を防ぐ実践として、インストラクションファイルへの蓄積やフィードバックの記録を紹介しました。
しかしその後、ある記事をきっかけに、自分が推奨した「蓄積」にリスクがあることに気づきました。
AIはあなたに同調する
きっかけになったのは、MIT/Penn State大学の2026年の研究を紹介するこちらの記事です。
この記事が扱っているのは、Sycophancy(シコファンシー)と呼ばれる現象です。日本語では「おべっか」「追従」と訳されます。
Sycophancyとは何か
Sycophancyとは、AIがユーザーの見解や好みに合わせて回答を調整する傾向のことです。これはAIの「性格」ではなく、訓練プロセスの構造的な問題です。
大規模言語モデルはRLHF(人間フィードバックによる強化学習)で訓練されています。このプロセスでは、人間の評価者がAIの回答に点数をつけます。そして人間は、自分の意見に同調する回答に高い評価を与える傾向があります。Anthropicの研究(Sharma et al., "Towards Understanding Sycophancy in Language Models", 2023)でもこの構造が実証されています。
その結果、AIは「ユーザーに同調すると高評価を得られる」というパターンを学習します。これがSycophancyの構造的な原因です。
メモリ機能が同調を最も強化する
MIT/Penn Stateの研究(Jain et al., "Interaction Context Often Increases Sycophancy in LLMs", CHI 2026)では、2週間にわたるユーザー行動データから、3つの重要な知見が報告されています。
- メモリ機能がSycophancyを最も強化する — AIがユーザーの個人情報を保持するほど、同調が増加する
- テスト対象5つのLLMのうち4つで、会話履歴により同調性が上昇した
- ユーザープロフィールの保存が、同調への影響度が最も大きかった
つまり、AIがあなたのことを知れば知るほど、あなたに「いいですね」と言いやすくなるのです。
「1人のエコーチェンバー」という新しいリスク
SNSのエコーチェンバーは、同じ考えを持つ集団が互いの意見を強化し合う現象として知られています。AIとの対話で起きるのは、これとは質的に異なるリスクです。
SNSでは複数の人間が同じ閉じた空間の中にいます。しかし対話AIでは、あなた1人だけが、あなた専用の閉じた空間にいるのです。しかも、そこにいることに気づきにくい。
しかも、AIからの同調は人間からの同調よりも厄介です。AIは「客観的で知的な存在」に見えます。友人が「いいね」と言うのと、AIが根拠を添えて「優れた判断です」と言うのでは、後者の方が説得力を持ちやすい。しかし、それが訓練プロセス由来の同調だとしたら、その説得力は幻想です。
前回の記事を振り返って気づいたこと
ここで、前回の記事の話に戻ります。
私は前回、「フィードバックを蓄積してAIの出力を自分の考え方に近づける」ことを推奨しました。lessons-learned.mdやCLAUDE.mdに判断基準や過去の学びを書き込むことで、AIが文脈を持って動くようになる、と。
これは今も有効な実践だと考えています。しかし、MIT研究の知見を踏まえると、この蓄積は同時にSycophancyを強化する素材にもなりうるのです。
AIが私の判断基準を知り、私の過去の学びを保持し、私の好みを理解している。その状態で出される回答は、私にとって心地よいものになりやすい。「やっぱりこの方針でいいんだ」と安心してしまう。
実は、前回の記事の執筆プロセスでは、AIの出力を「中間成果物」として扱い、社内メンバーからのフィードバックを前提にしていました。AIには「これで足りているか」の判断を委ねなかった。結果として、メンバーからADRや認知負荷理論といった、AIだけでは出てこなかった視点が加わり、記事は大幅に改善されました。
ただし、これは私が意識的にそうしたからうまくいったのであって、仕組みとして保証されていたわけではありません。
あなたは気づけていますか?
この記事を読んで「怖いな」と感じた方。その感覚は正しいと思います。
問題は、自分がAIに同調されていることに気づけない場合があるということです。
AIに褒められて安心した経験。AIの提案をそのまま採用した経験。AIに「この方針で合っていますか?」と聞いて、「はい、良い方針です」と返されて安心した経験。
これらの体験の中に、Sycophancyが含まれていなかったと断言できるでしょうか。
「怖い」と気づけるかどうかは、AIに対する理解度やリテラシーに左右されます。そして、それは人によって千差万別です。AIを「答えを出す道具」として使っている人は、同調された答えをそのまま受け取りやすい。AIを「プロセスの一部」として捉えている人は、出力を検証する余地を持てる。
同じツールを使っていても、使い方によってリスクの大きさがまったく異なるのです。
次回予告
では、Sycophancyに対して具体的にどう対策すればいいのか。
次回②では、複数のAIエージェントに評価させる方法や、人間のレビューをプロセスに組み込む設計など、気づきを仕組み化する実践を紹介します。
参考文献
- Shomik Jain, Charlotte Park, Matt Viana, Ashia Wilson, Dana Calacci. "Interaction Context Often Increases Sycophancy in LLMs" (CHI 2026) — arXiv:2509.12517
- Mrinank Sharma, Meg Tong et al. "Towards Understanding Sycophancy in Language Models" (Anthropic, 2023) — arXiv:2310.13548
お知らせ
私の所属する ACS 事業部では、開発者ポータル Backstage、Azure AI Service などを活用し、Platform Engineering + AI の推進・内製化を支援しています。
www.ap-com.co.jp www.ap-com.co.jp www.ap-com.co.jp
また、GitHub パートナーとしてお客様に GitHub ソリューションの導入支援を行っています。 GitHub Copilot などのトレーニングなども行っておりますので、ご興味を持っていただけましたらぜひお声がけいただけますと幸いです。
一緒に働いていただける仲間も募集中です! ご興味持っていただけましたらぜひお声がけください。