OpenAIは3月18日、GPT-5.4ファミリーの新しい軽量モデル「GPT-5.4 mini」と「GPT-5.4 nano」を正式リリースした。
GPT-5.4 mini — コーディング特化の高速モデル
GPT-5.4 miniは、GPT-5 miniの2倍以上の速度を実現しつつ、フルサイズのGPT-5.4に迫る性能を持つ。
ベンチマーク:
- SWE-Bench Pro: 54.4%(GPT-5 mini: 45.7%、GPT-5.4: 57.7%)
- OSWorld-Verified: 72.1%(GPT-5.4: 75.0%、GPT-5 mini: 42.0%)
テキスト・画像入力、ツール使用、関数呼び出し、Web検索、ファイル検索に対応し、40万トークンのコンテキストウィンドウを備える。ChatGPTではFree/Plusユーザーが「Thinking」機能から利用可能。Codexでは標準GPT-5.4の約30%のクオータ消費で動作する。
GPT-5.4 nano — API専用の超軽量モデル
GPT-5.4 nanoは、分類・データ抽出・ランキング・簡易コーディングなどのシンプルなタスクに特化した超低コストモデル。
料金: 入力$0.20/100万トークン、出力$1.25/100万トークン
現時点ではAPI経由でのみ利用可能で、ChatGPTやCodexには未対応。
個人開発者への影響
今回のリリースで注目すべきは マルチモデル構成の実用化 だ。GPT-5.4がメインの推論を行い、miniやnanoがコードベース検索やデータ処理などの軽いタスクを分担する。この「大きなモデルが計画し、小さなモデルが実行する」パターンは、API利用コストの最適化に直結する。
個人開発者にとっての具体的なアクション:
- コスト削減: 分類やデータ前処理をnanoに任せることで、月額API費用を大幅に抑えられる
- レスポンス改善: ユーザー向けの即応性が求められる箇所にminiを使うことで体験を向上できる
- Codex統合: Codex内でminiを活用すれば、開発ワークフローのコストパフォーマンスが改善する
一次ソース: OpenAI公式ブログ
💡 エキスパートコメント
AI Solo Craft 編集部のエキスパートが、今日のニュースを専門視点で読み解きます。
レスポンス速度が2倍以上になるということは、ユーザー体験が根本的に変わる。AIチャットUIで「考え中...」の待ち時間が半分以下になれば、対話のリズムが人間同士の会話に近づく。特にモバイルアプリでの即応性改善は大きい。
OpenAIの戦略が鮮明になった。フラグシップで技術リードを取りつつ、Mini/Nanoで「安くて速い」市場を押さえる。個人開発者にとっては、月額のAPI予算が同じでも使える機能が増えるということ。競合のClaude HaikuやGemini Flashとの価格競争も激化しそう。
📋 デスクコメント
今回のリリースは「AIモデルの使い分け」が前提の時代に入ったことを示している。エンジニアが指摘する通りminiの性能はフルサイズに肉薄しており、マネージャーの言う価格競争もこの流れを加速させる。個人開発者は、まずは既存のGPT-5.4呼び出しのうち「重い推論が不要な箇所」を洗い出し、miniやnanoへの置き換えを検討するのが第一歩だ。
SWE-Bench Proでminiが54.4%というのは、フルサイズの57.7%との差がわずか3.3ポイント。これはコーディングタスクの大半でminiが十分実用的ということ。nanoの$0.20/Mトークンは分類API呼び出しを大量に回す用途で圧倒的に安い。マルチモデル構成を本気で組む段階に入った。