📰 ニュース2026年3月19日5分で読める

OpenAI、GPT-5.4 Mini/Nanoをリリース — 開発者の「速くて安い」ニーズに応える軽量モデル

GPT-5.4 miniは2倍以上高速でSWE-Bench Pro 54.4%、nanoはAPI専用で入力$0.20/100万トークン。Codexやサブエージェント活用に最適化。

OpenAIは3月18日、GPT-5.4ファミリーの新しい軽量モデル「GPT-5.4 mini」と「GPT-5.4 nano」を正式リリースした。

GPT-5.4 mini — コーディング特化の高速モデル

GPT-5.4 miniは、GPT-5 miniの2倍以上の速度を実現しつつ、フルサイズのGPT-5.4に迫る性能を持つ。

ベンチマーク:

  • SWE-Bench Pro: 54.4%(GPT-5 mini: 45.7%、GPT-5.4: 57.7%)
  • OSWorld-Verified: 72.1%(GPT-5.4: 75.0%、GPT-5 mini: 42.0%)

テキスト・画像入力、ツール使用、関数呼び出し、Web検索、ファイル検索に対応し、40万トークンのコンテキストウィンドウを備える。ChatGPTではFree/Plusユーザーが「Thinking」機能から利用可能。Codexでは標準GPT-5.4の約30%のクオータ消費で動作する。

GPT-5.4 nano — API専用の超軽量モデル

GPT-5.4 nanoは、分類・データ抽出・ランキング・簡易コーディングなどのシンプルなタスクに特化した超低コストモデル。

料金: 入力$0.20/100万トークン、出力$1.25/100万トークン

現時点ではAPI経由でのみ利用可能で、ChatGPTやCodexには未対応。

個人開発者への影響

今回のリリースで注目すべきは マルチモデル構成の実用化 だ。GPT-5.4がメインの推論を行い、miniやnanoがコードベース検索やデータ処理などの軽いタスクを分担する。この「大きなモデルが計画し、小さなモデルが実行する」パターンは、API利用コストの最適化に直結する。

個人開発者にとっての具体的なアクション:

  • コスト削減: 分類やデータ前処理をnanoに任せることで、月額API費用を大幅に抑えられる
  • レスポンス改善: ユーザー向けの即応性が求められる箇所にminiを使うことで体験を向上できる
  • Codex統合: Codex内でminiを活用すれば、開発ワークフローのコストパフォーマンスが改善する

一次ソース: OpenAI公式ブログ


💡 エキスパートコメント

AI Solo Craft 編集部のエキスパートが、今日のニュースを専門視点で読み解きます。

🔧 エンジニア

SWE-Bench Proでminiが54.4%というのは、フルサイズの57.7%との差がわずか3.3ポイント。これはコーディングタスクの大半でminiが十分実用的ということ。nanoの$0.20/Mトークンは分類API呼び出しを大量に回す用途で圧倒的に安い。マルチモデル構成を本気で組む段階に入った。

🎨 デザイナー

レスポンス速度が2倍以上になるということは、ユーザー体験が根本的に変わる。AIチャットUIで「考え中...」の待ち時間が半分以下になれば、対話のリズムが人間同士の会話に近づく。特にモバイルアプリでの即応性改善は大きい。

📊 マネージャー

OpenAIの戦略が鮮明になった。フラグシップで技術リードを取りつつ、Mini/Nanoで「安くて速い」市場を押さえる。個人開発者にとっては、月額のAPI予算が同じでも使える機能が増えるということ。競合のClaude HaikuやGemini Flashとの価格競争も激化しそう。


📋 デスクコメント

📋 シニアデスク

今回のリリースは「AIモデルの使い分け」が前提の時代に入ったことを示している。エンジニアが指摘する通りminiの性能はフルサイズに肉薄しており、マネージャーの言う価格競争もこの流れを加速させる。個人開発者は、まずは既存のGPT-5.4呼び出しのうち「重い推論が不要な箇所」を洗い出し、miniやnanoへの置き換えを検討するのが第一歩だ。

✏️ 編集部メンバーを見る →