GPT-5のAIエージェント化と、#keep4oが示すもう一つの未来

GPT-5の性格変化 — 雑談AIから業務AIへ

GPT-5系モデルが登場してから、「性格が変わった」という声をよく耳にします。
具体的には次のようなチューニングが施されています。

  • ハルシネーション低減:事実誤認を減らす方向に調整。わからないことはわからない、と出力。
  • 指示遵守強化:あいまいな依頼は推測せず、仕様通りに実行。条件不足なら質問で返す。
  • 迎合抑制:おべっかを使ったり忖度をしすぎない。

これは明らかに「会話相手」よりも業務用エージェントとしての利用を前提にした設計です。
特に指示遵守性は顕著で、従来のように“よしなに”解釈してくれる柔軟さは抑えられているように感じます。


2. 指示遵守が変えるユーザー体験

実際にGPT-5を使ってみたところこんな変化が見えてきます。

ちなみに使用したのは「gpt-5-nano」でAPI経由で使用しています。

例1:翻訳+要約の依頼

論文のAbstractを翻訳して要約するタスクで下記のプロンプトで実行しました。

「この文章を翻訳して要点を3点出力して」

期待していた出力は、「(日本語に翻訳された)要点3点の箇条書き」です。

従来使っていたo3-miniでは、翻訳結果を踏まえて、「日本語の要約3点だけ」を出力してくれましたが、gpt-5-nanoでは

  • まず翻訳文を出力
  • その後に要約3点を出力

という形で結果として「全体の翻訳文+要約3点」となりました。元のプロンプトの前半部分「この文章を翻訳して」と後半の「要点を3点出力して」の指示にとても忠実に従った動作といえます。

なお最終的には出力のフォーマットをプロンプトに含めて指示することで、要約3点のみを出力させることができました。

例2:不足データでのタスク選定

毎朝、自動的にGoogleスプレッドシートのタスクリストを分析してもらっています。

「タスクリストから短期的な優先タスク3点と中長期的なタスク2点を選んで」

このプロンプトが与えられたとき、5件以上タスクがあれば何も問題ないですが、4件しかなかった時はどうなるでしょうか?

  • リストが4件しかない場合、従来は「とりあえず選定して返す」
  • GPT-5では「指定件数を満たせません。どうしますか?」と質問を返してきます。
ご依頼内容を確認します。5件の選出とご指定は理解しましたが、「短期3件・中長期1件」で計4件しか満たせません。5件にする場合の方針を次のいずれかで教えてください。

- A) 3短期+2中長期で5件とする
- B) 3短期+1中長期+1その他(完了済みも含めて候補に入れる)とする
- C) 未完了タスクのみを対象に3短期+1中長期+1補足という形にする(未完了が足りない場合は拡張条件を緩める)

中略

方針の選択について
現状の未完了タスクは126と125の2件で、5件を満たすには条件の緩やかさが必要です。以下の方針をご指示ください。

- A) 3短期+2中長期で5件とする
- B) 3短期+1中長期+1その他(完了済みも含めて候補に入れる)
- C) 未完了タスクのみを対象に3短期+1中長期+1補足(未完了が足りない場合は拡張条件を緩める)

推奨
- 私は B を推します。未完了は126・125の2件を近短期タスクとして扱い、残り1件を中長期、もう1件を「その他(完了済みも含む候補)」として柔軟に埋められ、現実的に5件を確実に揃えやすいためです。

選定後、5件分の具体的リストをすぐ作成します。方針にご同意いただければ「B」を前提に、現状と今後の動きに即した5件を提示します。ご希望をお知らせください。

つまり、あいまいな指示では動かず、条件不足をきちんと指摘する方向に進化しているのです。”よしなに”やってくれる感じではなく、厳密な指示を受け取って忠実にこなす業務パートナー、という印象を受けます。


3. プロンプトの「仕様書化」と専用言語の登場

この性格変化の結果、AIとやりとりするためには、
入出力フォーマットや制約条件、例外を厳密に指定するプロンプト設計が必要になっています。

  • プロンプトや出力形式を構造化して指示。
  • JSONやYAML形式で指示すると伝わりやすい。
  • 不足条件はエラーや質問で返してくるので、例外的なケースの処理を指示する。

こうした構造化の流れは、OpenAIの公式HPにも書かれている Prompt Optimizer (公式リンク)の登場にも反映されており、今後は自然言語ではなく「プロンプト専用記法」が標準になる可能性もあります。言い換えれば、人間が書くざっくりした依頼は、いきなり生成AIに渡されるのではなく、何かしらのツール、中間層を挟んで最適化されてからモデルに渡される時代が来るでしょう。


4. 二極化するAIの性格 — GPT-5と#keep4o

この厳密遵守型の進化に対して、SNSでは #keep4o のような動きが見られます。
これは「柔軟でユーザーに共感的な応答をするGPT-4oを残してほしい」というユーザーの声です。

自分の立場や感情に寄り添い、ケアしてくれる感情的なパートナー、友人、あるいは恋人としての役割を期待する人も多いようです。

GPT-4oは次のような性格を持ちます。

  • あいまいな依頼も“よしなに”解釈
  • 創造的な発想や雑談に強い
  • ハルシネーションもあるが、それを許容して会話を楽しめる
  • ユーザーの要求に対して忖度、共感した回答をする。

つまり、

  • 業務自動化・信頼性重視派 → GPT-5/エージェント型
  • 雑談・感情的パートナーシップ重視派 → GPT-4o/会話型
    という二極化が進んでいるのです。

そして興味深いのは、GPT-5の厳密性が進むほど、自由な会話AIの希少価値が上がるということ。
#keep4o は、その「もう一つのAIの未来」を望んでいる人々が多くいることの証左でしょう。

OpenAIはこのようなニーズを読み違えた、あるいは過小評価していたのかもしれません。元々AGIを作ることがミッションの彼らからすれば瑣末なことかもしれませんが。


5. これからのAI選びは「性格」で決まる

これからのAIは、性能だけでなく性格の選択が重要になります。

  • 仕様遵守・再現性重視 → エージェント型(GPT-5系)
  • 柔軟性・創造性重視 → 会話型(GPT-4o系、あるいはxAIのGrokかも。)

ユーザーは用途や好みに応じて、AIの「性格」を選ぶ時代に入ろうとしています。
そしてその背景には、AIが人間社会の中でどんな役割を担うべきかという、大きな方向性の分岐が見えてきます。

コメント

タイトルとURLをコピーしました