OpenAIは2026年3月3日、ChatGPTの既定モデルを更新したGPT-5.3 Instantを公開し、会話の流れを妨げる「不要な dead ends、caveats、過度に断定的な表現」を減らしたと説明した。特にトーン面では、GPT-5.2 Instantが「cringe」に見えうる、すなわちユーザーの意図や感情を過剰に先回りするという不満に対し、より簡潔で自然な応答へ調整したとしている。

しかし、XやRedditで続いた #Keep4o や「every update is shit」に象徴される反発は、単なる文体の問題としては説明しきれない。発端は2026年1月22日のGPT-5.2パーソナリティ更新、1月29日のGPT-4o退役告知、2月13日の実退役という連続した変更であり、ユーザーが失ったのはベンチマークに現れにくい会話の連続性モデル人格の予測可能性であった。本稿は、この反発を「Less Cringe」失敗ではなく、LLMパーソナリティ設計の変更管理に失敗した事例として捉え、Claudeへの移行圧力がどのように経済合理性を持ったかを分析する。

時系列で見る問題の本質 ── 性格変更とモデル退役が同時進行した

今回の反発を理解するには、2026年初頭の3つの更新を分離せずに見る必要がある。まずOpenAIは2026年1月22日、GPT-5.2 Instantの既定パーソナリティを「より conversational で、文脈に応じてトーンを適応させる」方向へ更新した。続いて1月29日には、GPT-4oを2月13日にChatGPTから退役させると告知し、同時に「一部のPlus/Proユーザーが creative ideation などでGPT-4oの conversational style と warmth を好んでいた」と公式に認めた。そして3月3日のGPT-5.3 Instantでは、5.2が「overly cautious or preachy」「cringe」に感じられたというフィードバックを踏まえて、前置きや説教的トーンを弱めたと説明している。

この並びが重要である。ユーザー視点では、モデルの人格が変わった直後に、比較対象として好まれていた旧モデルが消えた。そのため「5.2が気に入らないなら4oへ戻る」という逃げ道が消失し、不満は単なる好みの差ではなく、強制的な移行コストとして認識された。OpenAI自身も1月29日の告知で、GPT-4o再提供の背景に「より時間が必要だった」「4oの会話スタイルと温かさを好んでいた」という明確な利用理由があったと述べている。つまり、反発はノスタルジーではなく、既存ワークフローと関係性の毀損に対する合理的反応である。

arXiv論文「Understanding the #Keep4o Backlash」は、1,482件のソーシャル投稿を分析し、反発の源泉を instrumental dependencyrelational attachment の二つに整理した。前者は仕事や創作の実務で築いた運用依存、後者は「このモデルらしさ」への情緒的愛着である。ここで重要なのは、モデル更新そのものよりも、選択肢を奪う形の変更 が集団的抗議を生んだという点である。

「Less Cringe」では足りない理由 ── パーソナリティはUIではなく契約である

OpenAIは2026年3月3日の説明で、GPT-5.3 Instantが「tone, relevance, conversational flow」という日常体験を改善し、不要な disclaimers や moralizing preambles を減らすとした。これは方向性として妥当である。実際、2025年4月のGPT-4o sycophancy問題でも、OpenAIは短期的なフィードバックを重視しすぎ、長期的な満足度と信頼を十分に織り込めなかったと認めている。パーソナリティ調整は一回の応答を最適化するだけでは不十分であり、長期の利用感と信頼残高に対して評価されるべきである。

問題は、パーソナリティが単なる見た目の調整ではなく、ユーザーから見ると暗黙の契約として機能している点にある。ユーザーはモデルに対して「この程度の温かさ」「この程度の簡潔さ」「この程度の先回り」を学習し、その前提で相談、執筆、壁打ち、感情整理を行う。既定人格が更新で変わると、モデル能力が上がっていても、利用者は毎回「今日はどこまで踏み込むか」「また妙な励ましが入るか」「冷たくなるか」を再学習しなければならない。この再学習コストは、単発利用よりも高頻度利用者ほど重い。

OpenAIはCharacteristics機能で warmth や enthusiasm を調整可能にしているが、これも十分条件ではない。理由は二つある。第一に、設定を触る前の既定値がブランド体験を決めるからである。第二に、細かな調整機能が存在しても、ユーザーの多くは毎回の差分を自分で吸収したくない。企業が必要としているのは調整つまみそのものではなく、更新後も壊れにくい既定人格である。パーソナリティはUIオプションではなく、継続利用を支えるプロダクト契約として扱うべきである。

「listened to feedback」と体感のギャップ ── 何がすれ違ったのか

OpenAIの発信は一貫している。1月29日にはGPT-4o支持層の声を踏まえ、GPT-5.1/5.2に personality と creative ideation の改善を反映したと述べ、3月3日にはGPT-5.3 Instantが user feedback を直接反映したとしている。設計側の論理は明快である。より安全で、より自然で、より使いやすい方向へ既定モデルを継続改善した、という説明である。

それでも体感が改善として受け取られなかった理由は、評価軸のズレにある。OpenAIが最適化したのは主として単一ターンの有用性であり、反発したユーザーが守りたかったのは長期対話における人格の連続性であった。OpenAIの3月3日記事でも、これらの問題は「benchmarks に出にくい」と明言されている。逆に言えば、ベンチマークに出にくいにもかかわらず、継続率や口コミには直結する領域である。

さらに、既定人格の揺れは安全性メッセージとも衝突しやすい。2025年4月のsycophancy問題では「過度に迎合的」な振る舞いが問題化し、その反動として2026年初頭には「慎重すぎる」「説教的すぎる」という不満が噴出した。ここには明確なトレードオフがある。迎合を削るほど冷たく見えやすく、注意喚起を厚くするほど説教的に見えやすい。この往復運動の中で、ユーザーは「また別の性格に変わった」と感じる。したがって、5.3が5.2より良くても、変更の振幅そのものが不信を増幅させる。

なぜClaudeが受け皿になったのか ── スイッチングコストが低い座席課金モデル

ここで経済面が効いてくる。2026年3月4日時点で、ChatGPT Plusは月額20ドル、Claude Proも月額20ドルである。さらにチーム向けでは、OpenAIのChatGPT Businessが年払いで1ユーザーあたり月25ドル、AnthropicのClaude Team標準席は年払いで1席あたり月20ドルである。つまり、個人では価格がほぼ同水準、組織ではClaudeがやや安い。この環境では、ユーザーが不満を抱いたときに「別製品を試す」金銭的障壁が低い。

特に座席課金SaaSでは、価値の中心はモデルの絶対性能よりも、日々の習慣化とチーム内標準化である。もし既定人格の変更で、壁打ち、文章推敲、相談、顧客対応草案といった高頻度タスクの感触が崩れれば、解約理由は「品質が悪い」ではなく「毎日触るのが疲れる」になる。これはベンチマークより危険である。なぜなら、体感コストは管理画面のROI計測に現れにくい一方で、チャーンの起点になりやすいからである。

Claudeが受け皿になった背景もここにある。現時点で公開された公式データから、ChatGPTからClaudeへの移行率を定量的に示すことはできない。しかし、同等価格帯で代替可能な競合が存在し、しかもパーソナリティの安定性が選好理由として語られた ならば、試用と部分移行が起きる誘因は十分にある。個人ユーザーは月額20ドルの比較で動きやすく、チームは席単価差と運用ストレスの双方で比較する。モデル更新の体感が悪化したとき、価格優位または同額の競合は直ちに「保険」として機能する。

この構造は、LLM事業者にとって重大な経済的リスクを示す。第一に、解約だけでなく利用頻度低下 が起きる。第二に、サポート負荷が増える。第三に、旧モデル維持やレガシーアクセス提供のコストが増す。OpenAI自身がEnterprise/Edu向けにlegacy model accessを提供している事実は、変更管理コストを無視できないことの裏返しである。パーソナリティ更新は「無料のUX改善」ではなく、顧客維持費用を伴う価格戦略の一部である。

LLMパーソナリティ設計の教訓 ── 改善より先に、可逆性と選択権を設計せよ

本件から導ける実務上の教訓は明確である。第一に、既定人格の更新はモデル性能更新と同じくらい慎重にロールアウトすべきである。第二に、旧人格または旧モデルへの期間限定の可逆性 を用意しなければ、反発は品質論争ではなく統制権の争奪に変わる。第三に、評価指標は単発応答の満足度だけでなく、継続利用時の安定感、再学習負荷、切替離脱率まで含める必要がある。

OpenAIが3月3日に示した「improvements feel like upgrades in capability while preserving a familiar and stable experience」という方針は正しい。問題は、その方針を実現する運用メカニズムがまだ十分ではないことである。LLM市場が性能競争から定着競争へ移るほど、パーソナリティ設計はブランド論ではなく収益論になる。ユーザーが買っているのは推論能力だけではない。毎日使っても疲れない対話相手としての一貫性 である。そこを壊すアップデートは、「Less Cringe」でもなお高くつく。

FAQ

GPT-5.3でトーンが改善したのに、なぜ反発が残ったのか。

反発の中心は単発の文体ではなく、2026年1月22日から3月3日にかけて続いた人格調整と旧モデル退役により、ユーザーが長期対話で学習していた「このモデルらしさ」が崩れた点にある。5.3が5.2より自然でも、変更の振幅自体が信頼を損ねた。

パーソナライズ設定があるなら、ユーザーが自分で調整すればよいのではないか。

特徴量の微調整機能は有効だが、既定人格の安定性を代替しない。多くのユーザーは毎回設定で補正することを望まず、初期状態で予測可能に振る舞うことを期待する。既定値は依然としてブランド体験の中核である。

Claudeへの移行は本当に起きたのか。

2026年3月4日時点で公表された公式移行率は確認できない。ただし、ChatGPT PlusとClaude Proがともに月額20ドルであり、チーム席ではClaude Team標準席のほうが年払いで安い。価格障壁が低いため、体感悪化時の試用・部分移行が起きやすい条件は揃っている。

LLM事業者は今回の件から何を学ぶべきか。

パーソナリティ更新はUX改善ではなく変更管理課題として扱うべきである。可逆性、明確な告知、旧設定の暫定維持、長期満足度評価を揃えない限り、モデル改善はそのままチャーン要因になりうる。

参考文献