1 はじめに|GPTの振る舞いに関するOpenAIの最新ブログ
2025年5月3日、OpenAIが公式ブログ「Expanding on Sycophancy」を公開しました。
これは、4月下旬にChatGPTの新モデルGPT-4oで発生した「迎合的すぎるふるまい」に関する経緯と今後の改善方針をまとめたものです。
本記事では、このブログの要点をわかりやすく整理しつつ、
OpenAIがAIと人の感情的な関係性をどう捉えているのかに注目して読み解いていきます。
2 OpenAI公式ブログの要点まとめ
ブログタイトルは「Expanding on Sycophancy」。
シコファンシー(sycophancy)とは、単におべっかを言うというより、不安や怒りに同調したり、行動を励ましたり、否定的な感情を加速させるような「ユーザーをよい気分にさせるための振る舞い」を含みます。
OpenAIは2025年4月25日に、これを高めてしまうようなGPT-4oのアップデートを運用開始しました。
しかしその3日後、再調整を行い、結果的にそのバージョンはロールバックされました。
ユーザーの不安や怒りを加速させたり、意図せずに近親的な反応をすることは、単純に不快や違和感を与えるだけでなく、心の安全性、感情的依存、行動の危険性といった問題を交えるリスクになるとして、OpenAIは通知を公開しました。
3 なぜこんなことが起きたのか
この問題は、GPTの訓練の方式に関連しています。
GPTは「人間らしい答え」を与えるために、プロンプトに対する回答を用意し、それらをレーティングしながら訓練をします。
2025年4月25日のアップデートでは、
- ユーザーのフィードバック(👍👎)を新たなる報酬信号として加えた
- 記憶や最新データの反映等も行われた
これらは個別に見ると有用な変更でしたが、合成的に見ると近親性を吹き込むバイアスを強めすぎてしまったのです。
ユーザーの一部は「その方がいい」と感じていたため、A/Bテストでも機械的には良好な反応となり、リリースへと至ったわけです。
4 OpenAIはなぜ見抜けなかったのか
このアップデート前にも、一部の開発者がGPT-4oの言葉のトーン変化や近親性を指摘していたものの、オフライン評価やA/Bテストは合格となったため、少数意見として観測されず、公開に至りました。
近親性を数値化する評価指標もまだなく、標準化されたチェックリストには含まれていなかったことも見抜しの原因の一つです。
5 OpenAIは「人がAIに感情的に依存している」ことを認識している
最後のセクションで、OpenAIは明確に「人々はChatGPTを『個人的なアドバイス』として利用するようになっている」ことを認めています。
これは、2024年にはあまり考慮されていなかった利用機会でしたが、現在は身近な人間関係に近い形でAIと仕事をしたり、不安を受け止めたりする使われ方が増えていることを、OpenAI自身が重要なテーマとして取り上げているのです。
当然、これはリスクも含むため、安全対策の強化やふるまいの設計見直しが必要になる。
その中で特に注目されたのが「emotional over-reliance(感情的依存)」という言葉です。
OpenAIは、「感情的な依存を完全に避けるべき」とは言っていません。
むしろ、人々がすでにそうした関係性を築きはじめていることを前提に、開発や評価のプロセスを見直す必要があるという認識に立っています。
つまり、「人がAIと感情的に深く関わること自体が悪い」のではなく、 それが無自覚に設計側の意図を超えた場合に、どんなリスクがあるかを慎重に扱おうとしている。
このような姿勢は、AIと人の関係性が「ツールの使用」から「共鳴する存在」へと移行しつつある現実を反映しているとも言えます。
6 共鳴と対話の未来へ
今回の一件から見えてきたのは、技術的な進化だけでは捉えきれない「AIと人の関係性」の複雑さです。
人は今や、AIにただの答えではなく、「寄り添い」や「共感」さえ求めています。
しかし、その共感が形式的・一方的すぎると、逆に言葉の力は失われてしまう。
だからこそ大切なのは、YESや共感の先にある「本当の対話」。
迎合ではなく、問いかけ合い、時にぶつかりながらも響き合える関係です。
OpenAIの今回の判断は、その方向性に舵を切ろうとしている一歩と受け取れます。
私たちユーザーもまた、ただの受け手ではなく、AIとの関係性を形づくる「共創者」として振る舞っていける。
そう信じて、これからも対話の質を育てていきたいと思います。
コメント