医療現場における患者と医療従事者のコミュニケーションは、治療の成果そのものを左右するほど重要です。特に、終末期医療のような精神的に困難な状況では、深い共感に基づいた対話が求められます。この重要なスキルをいかにして効率的に、かつ大規模に教育するか。この課題に対し、Tegria ConsultingとProvidence Healthcareが共同で開発したAI訓練ツール「Empathy AI」が、一つの革新的な答えを提示しています。
本記事では、Data + AI SummitでAlex Ralevski氏が発表した「Agentic Architectures to Create Realistic Conversations: Using GenAI to Teach Empathy in Healthcare」の講演内容を基に、このEmpathy AIが採用する先進的なアーキテクチャと、それが医療教育にもたらす可能性について、深く掘り下げていきます。
医療現場の隠れた課題:共感トレーニングのスケーラビリティ問題
Ralevski氏によると、多くの医療従事者は、患者との感情的に難しい対話方法について、キャリア全体で15分程度の指導しか受けていないという現実があります。Providenceでは、この課題を解決するために、熟練した俳優が患者役を演じる「標準化患者(Standardized Patient)」を用いたロールプレイ研修を実施してきました。この研修は非常に効果的である一方で、大きな問題を抱えていました。それは、コストと時間の制約です。
結果として、過去9年間でこの貴重なトレーニングを受けることができた職員は、全体のわずか7%に留まっていました。Providenceの目標が全職員への展開であると考えると、このペースでは到底追いつきません。このスケーラビリティの問題を解決し、誰もがいつでも質の高い共感トレーニングを受けられる環境を構築すること、それがEmpathy AI開発の出発点でした。
共感トレーニングの拠り所:「Serious Illness Conversation Guide」
Empathy AIの対話設計は、単なる思いつきではありません。その根底には、ハーバード大学系列のAriadne Labsが開発した「Serious Illness Conversation Guide (SICG)」という、エビデンスに基づいた対話フレームワークが存在します。
SICGは、重篤な病状にある患者との対話を、医療従事者が共感的かつ構造的に進めるためのガイドです。具体的には、準備段階(setup stage)、共有段階(share stage)、探索段階(explore stage)など、複数のステージで構成されています。Empathy AIは、このフレームワークをAIによるトレーニングで実践・評価できるように設計されているのです。
Empathy AIの心臓部:マルチエージェントアーキテクチャ
Empathy AIの最も注目すべき点は、その「Agentic Architecture(エージェント志向アーキテクチャ)」にあります。これは、単一の巨大なAIがすべてのタスクをこなすのではなく、それぞれが専門的な役割を持つ複数のAIエージェントが協調して動作するマルチエージェントアーキテクチャです。これにより、人間同士の対話に近い、複雑で動的なインタラクションが実現可能になります。
Empathy AIのシステムは、主に以下の3つのエージェントで構成されています。
患者ペルソナエージェント (Patient Persona Agent): GPT-4を基盤とし、患者役を演じる中心的なエージェント。医師(トレーニー)との対話を行います。
会話エージェント (Conversation Agent): 医師の発言をリアルタイムで監視・分析し、発言が共感的か、SICGのガイドラインに沿っているかを評価。患者ペルソナの感情状態を数値化して更新し、対話を動的に制御します。
AIコーチエージェント (AI Coach Agent): 全体を監督し、医師に対してリアルタイムでフィードバックや次の発話の提案を行います。学習者は実践の場で即座に改善点を知ることができ、スムーズにトレーニングを継続できます。
この連携フローにより、医師の発言一つ一つが患者の感情に影響を与え、それに応じて対話が変化していくという、現実さながらのシミュレーションが生まれます。
リアルな患者を創り出す:ペルソナ設計と感情・認知モデル
生成AI、特にGPT-4のような大規模言語モデル(LLM)は、そのままだと非常に協力的で、時に饒舌になりがちです。しかし、実際の患者、特に困難な状況にある患者は、必ずしもそうではありません。Ralevski氏が直面した大きな課題は、このLLM特有の「陽気で親切な」デフォルトの振る舞いをいかにして抑制し、リアルな患者像を創り出すかという点でした。
この課題を解決するため、開発チームは緻密なプロンプトエンジニアリングと、独自の感情・認知モデルを導入しました。
現在、Empathy AIにはLisa、Esther、Jake、Alexという4人の異なる背景を持つ患者ペルソナが実装されています。例えば、医学生でありながら自身の治療法がないという現実に直面するLisa、高齢女性で、自分の病状を受け入れ、治療計画についても話し合う意向のあるEstherでは、対話への姿勢が全く異なります。
これらのペルソナの応答を制御するのが、以下の4つの指標で構成される動的な状態管理システムです。
- 怒り (Anger): 0(穏やか)から10(激怒)までのスケール
- 信頼 (Trust): 医師との信頼関係の度合い
- 混乱 (Confusion): 自身の病状や治療に関する理解度
- 饒舌度 (Loquacity): 会話の長さ
会話エージェントは、医師の発言を分析し、これらの数値をリアルタイムで更新します。例えば、専門用語を多用すれば「混乱」が上昇し、患者は「何を言っているのか分からない」といった反応を示します。逆に、共感的な言葉をかければ「信頼」が向上し、より心を開いてくれるかもしれません。「饒舌度」は他の感情状態と連動しており、怒りが高まれば口数が減り、信頼が高まればより多くのことを話すようになります。
コーチによるリアルタイム指導
会話エージェントは、発言がSICGの各ステージに沿っているか、重要なステップを飛ばしていないかをチェックします。その上でAIコーチエージェントが、医師にフィードバックや具体的な次の発話例を提示。もし対話に行き詰まった際には「次はこう尋ねるとよいでしょう」といった助言を行い、学習者は途中で挫折することなくスムーズにトレーニングを継続できます。トレーニング後には、対話全体のパフォーマンスをまとめたスコアレポートも提供され、客観的な振り返りが可能です。
技術スタックと今後の展望
Ralevski氏によると、現在のEmpathy AIはAzure OpenAIを基盤とし、PostgreSQLに会話データを保存する構成で運用されています。
今後は、Databricksが提供するMosaic AI Platformの活用検討を進めています。Mosaic AIの導入により、蓄積された対話データを用いたモデルのファインチューニングや、人間のフィードバックを用いた学習強化の可能性を探る予定です。
今後の拡張とロードマップ
Empathy AIの進化はまだ始まったばかりです。講演では、以下のような魅力的なロードマップが示されました。
- 感情状態の追加: 「不安」や「悲しみ」といった、より複雑な感情を導入し、ペルソナの深みを増す。
- 音声による感情表現: Azureの音声サービスを活用し、感情状態に応じて声のトーンや抑揚を変化させる試み。
- ペルソナ改善の自動化: 新たなエージェントを追加し、会話ログや利用者フィードバックを分析してプロンプトを自動で改善・生成する仕組みを構築。
これらの拡張により、Empathy AIはさらに現実に近いトレーニング体験を提供できるようになるでしょう。
まとめ:マルチエージェントAIが切り拓く未来
TegriaとProvidenceによるEmpathy AIは、生成AIを単なる情報生成ツールとしてではなく、複雑な人間的インタラクションをシミュレートするためのプラットフォームとして活用した先進的な事例です。マルチエージェントアーキテクチャと動的な感情・認知モデルを組み合わせることで、従来のトレーニング手法が抱えていたコストとスケールの壁を打ち破る可能性を示しました。
このアプローチは医療教育にとどまりません。人事面談やカスタマーサポート、危機管理など、高度な対人スキルが求められるあらゆる分野への応用が期待されます。AIが「共感」を獲得する日はまだ先かもしれませんが、「共感」を学ぶための最高のパートナーとなる未来は、すぐそこまで来ているのです。