OpenAIがGpt-oss-120bとGpt-oss-20bを展開し、最先端のモデルをローカルデバイスに提供します

概要

OpenAIは、インターネットに接続せずに高度なローカルAI性能を実現する2つの強力なオープンウェイトモデル、gpt-oss-120bとgpt-oss-20bをリリースしました。これは、開発者のアクセス可能性において大きな一歩を示しています。

OpenAIはgpt-oss-120bとgpt-oss-20bを展開し、最先端のモデルをローカルデバイスに導入

人工知能研究機関のOpenAIは、gpt-oss-120bとgpt-oss-20bという2つの高度なオープンウェイト言語モデルのリリースを発表しました。これらのモデルは、実用的なアプリケーションにおいて強力なパフォーマンスを提供しつつ、低い運用コストを維持しています。柔軟なApache 2.0ライセンスの下でリリースされ、同様のサイズの他のオープンモデルを推論タスクで上回り、堅牢なツール使用能力を示し、コンシューマー向けハードウェアでの効率的な運用に最適化されています。トレーニングプロセスには、強化学習技術とOpenAIの最先端の内部モデル、o3を含むその他の最先端システムから得られた洞察が組み合わされています。

gpt-oss-120bモデルは、基本的な推論ベンチマークにおいてOpenAIのo4-miniモデルとほぼ同等のパフォーマンスを発揮し、単一の80 GB GPU上で効率的に動作します。一方、gpt-oss-20bモデルは一般的なベンチマークでOpenAIのo3-miniに匹敵する結果を達成し、わずか16 GBのメモリでエッジデバイス上で動作することができ、デバイス上のアプリケーション、ローカル推論、または高価なインフラストラクチャを必要とせずに迅速なテストに適しています。両方のモデルは、ツール使用、少数ショット関数呼び出し、思考の連鎖(CoT)推論において強力な能力を示し、Tau-Benchエージェント評価やHealthBenchにおいて、時にはOpenAI o1やGPT-4oといった専有モデルを上回ることがあります。

これらのモデルはResponses APIと互換性があり、エージェントワークフロー内で統合するように設計されており、高度な指示追従、ウェブ検索やPythonコードの実行を含むツールの使用、および推論機能を提供します。これには、複雑な推論を必要としないタスクや最終出力の低遅延を優先するタスクに最適化するための調整可能な推論努力が含まれます。両方のモデルは完全にカスタマイズ可能であり、完全な思考過程の推論をサポートし、構造化された出力形式に対応しています。

これらのモデルのリリースにおいて、安全性に関する考慮事項は中心的な役割を果たしています。特に、そのオープンな性質を考慮すると、包括的な安全トレーニングと評価に加えて、OpenAIの準備フレームワークの下でgpt-oss-120bの敵対的に微調整されたバージョンを通じて追加のテストが適用されました。gpt-ossモデルは、OpenAIの最新の専有モデルと同等の安全性ベンチマーク性能を達成しており、開発者に類似の安全性保証を提供します。詳細な結果とさらなる情報は、研究論文およびモデルカードにて利用可能であり、方法論は外部の専門家によってレビューされており、オープンウェイトモデルの新しい安全基準を確立するための進展を示しています。

OpenAIは、AI Sweden、Orange、Snowflakeなどの初期パートナーと協力し、これらのオープンモデルの実世界での利用法を探求しています。これには、データセキュリティのためのオンプレミスホスティングや、専門的なデータセットに基づくファインチューニングが含まれます。これらのオープンモデルの提供は、個々の開発者から大企業、政府機関に至るまで、幅広いユーザーが自分のインフラ上でAIを運用し、カスタマイズできるようにすることを目的としています。他のモデルと組み合わせてOpenAIのAPIを通じてアクセスすることで、開発者はパフォーマンス、コスト、レイテンシのバランスを考慮し、さまざまなAIワークフローをサポートするための選択肢を選ぶことができます。

Gpt-oss-120b と Gpt-oss-20b が現在、広範なプラットフォームおよびハードウェアサポートとともに無料で利用可能

gpt-oss-120bおよびgpt-oss-20bの重みは、Hugging Faceでダウンロード可能であり、MXFP4形式でネイティブ量子化が提供されています。これにより、gpt-oss-120bモデルは80GBのメモリ容量で動作できる一方、gpt-oss-20bモデルは16GBのみを必要とします。両モデルはハーモニープロンプト形式を用いて後処理が行われており、採用を促進するためにPythonとRustでオープンソースのハーモニーレンダラーが利用可能です。さらに、PyTorchおよびAppleのMetalプラットフォームを使用して推論を実行するための参照実装が提供されており、実用的なアプリケーションのための一連の例ツールも用意されています。

これらのモデルは、柔軟性と使いやすさを考慮して設計されており、ローカル、デバイス上、またはサードパーティの推論プロバイダーを通じての展開をサポートしています。アクセシビリティを向上させるために、Azure、Hugging Face、vLLM、Ollama、llama.cpp、LM Studio、AWS、Fireworks、Together AI、Baseten、Databricks、Vercel、Cloudflare、OpenRouterなどの主要な展開プラットフォームとのパートナーシップが、ローンチ前に確立されました。NVIDIA、AMD、Cerebras、Groqなどのハードウェアメーカーとのコラボレーションも行われ、さまざまなシステムにおいて最適なパフォーマンスを確保しています。

このリリースに伴い、MicrosoftはWindowsデバイス向けにGPU最適化されたgpt-oss-20bモデルのバージョンを提供しています。ONNX Runtimeによって動作するこれらのバージョンは、ローカル推論をサポートし、Foundry LocalおよびVS Code用のAI Toolkitを介してアクセスできるため、Windowsプラットフォーム上の開発者にとって統合プロセスが簡素化されます。

開発者が自分の環境内での微調整とデプロイメントが可能な完全にカスタマイズ可能なモデルを求めている場合、gpt-ossモデルは適切なソリューションを提供します。逆に、マルチモーダル機能、組み込みツール、およびシームレスなプラットフォーム統合を必要とする場合、APIプラットフォームを通じて提供されるモデルが好ましい選択肢です。開発者のフィードバックは引き続き監視されており、gpt-ossモデルの将来のAPIサポートについての検討が行われる可能性があります。

gpt-oss-120bおよびgpt-oss-20bの導入は、オープンウェイトモデルの分野における顕著な進展を表しており、そのスケールにおいて推論能力と安全性の大幅な改善を提供しています。これらのオープンモデルは、開発者に最先端の研究を促進し、革新を刺激し、さまざまなアプリケーションにわたってより安全で透明性のあるAI開発を促進するためのより広範なツールの選択肢を提供することにより、専有ホストモデルを補完します。

さらに、これらのオープンモデルは、新興市場、リソースが限られたセクター、および独自のソリューションの採用に制約を受ける可能性のある小規模な組織にとって、参入障壁を低減するのに役立ちます。アクセス可能で強力なツールを提供することで、世界中のユーザーは開発、革新、新しい機会の創出を行うことができます。アメリカで生産されたこれらの能力のあるオープンウェイトモデルの広範な利用可能性は、公平なAIアクセスの拡大に寄与しています。

オープンモデルの信頼できるエコシステムは、広範で包括的なAIアクセスを促進するための重要な要素です。開発者や研究者は、これらのモデルを利用して実験、コラボレーション、達成可能な限界を押し広げることが奨励されています。この分野における進展は興味を持って期待されています。

GPT-7.6%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)