本日発売されたモデルは、Satya NadellaがMicrosoftのIgnite 2023イベントでその性能を示し、トレーニングデータの一部でありながら最先端のパフォーマンスを実現する能力について初めて公開されました。GPTやGeminiなどの大規模言語モデル(LLM)とは異なり、SLMは限られたデータセットでトレーニングされ、より少ないパラメータで実行に必要な計算も少なくなります。その結果、このモデルは大規模言語モデルほど一般化はできませんが、特定のタスク(Phiの場合は数学や計算など)において非常に優れた効率を発揮することができます。
2.7 billionのパラメータを持つPhi-2は、Microsoftによれば、25倍のサイズの他のモデルに匹敵する良好な推論能力と言語理解力を備えています。これはMicrosoft Researchが高品質なトレーニングデータと高度なスケーリング技術に焦点を当てた結果であり、数学、コーディング、常識的な推論など、さまざまなベンチマークにおいて従来のモデルを上回る性能を発揮しています。
「たった2.7 billionのパラメータで、Phi-2はMistralやLlama-2モデル(7Bおよび13Bのパラメータ)をさまざまな集計ベンチマークで上回る」とMicrosoftは述べており、さらに「さらに、Phi-2は最近発表されたGoogle Gemini Nano 2と同等もしくはそれを上回る性能を示し、そのサイズは小さい」とGoogleの最新のAIモデルをけなしています。Gemini Nano 2は、ローカルで実行可能なマルチモダルLLMを提供するGoogleの最新の取り組みであり、Geminiファミリーの一部であり、Googleのサービスの大部分でPaLM-2の代わりとして使用される予定です。
ただし、MicrosoftのAIに対するアプローチはモデルの開発以上のものです。Decryptによると、MaiaとCobaltというカスタムチップの導入は、AIとクラウドコンピューティングの完全な統合に向けた同社のビジョンをサポートしており、これはGoogle TensorやAppleの新しいMシリーズのチップに直接競合しています。重要なことは、Phi-2という非常に小さな言語モデルは、低価格の機器、さらにはスマートフォンでもローカルで実行可能であるということです。これは新しいアプリケーションやユースケースの可能性を切り拓くものであります。
Phi-2がAI研究開発の領域に参入するにつれて、Azure AI Studioのモデルカタログでの提供もAI研究の民主化に向けた一歩です。MicrosoftはオープンソースのAI開発において最も活発な企業の一つです。AIの世界は常に大きく考えることではないことを示すMicrosoftのPhi-2は、AIの景色が進化し続ける中で、時には小さくても賢いことに最も強大な力があることを証明しています。
編集:Ryan Ozawa
取得する!