NVIDIAは、AI分野における革新的な取り組みを加速させています。同社は、「AIハードウェア」セグメントで既に支配的な地位を確立した後、Metaと協力してオープンソースのLLMモデルの開発に注力しています。NVIDIAの最新LLM「Llama-3.1-Nemotron-70B-Instruct」は、まだ大きな注目を集めていませんが、初期情報とベンチマークに基づくと、業界をリードする存在になる可能性があります。
ユーザーの要求に沿った精度の高い応答を目指す「Llama-3.1-Nemotron-70B-Instruct」
NVIDIAによると、「Llama-3.1-Nemotron-70B-Instruct」LLMは、事実の正確性や問題解決の一貫性など、ユーザーの好みに合わせてAIの応答をより具体的に調整することを目的に設計されています。このモデルは、Metaが700億のパラメーターを対象に開発した「Llama-3.1-70B-Instruct Base」をベースに、NVIDIAのファインチューニングを施して作られました。
「SteerLM Regression Reward Modelling」により、ユーザーの要求に近い応答を実現
「SteerLM Regression Reward Modelling」は、回帰モデルを使用してデータセットを洗練し、明確な応答を生成するために、LLMの学習プロセスを導く報酬関数を定義します。これにより、データの品質とモデルの複雑さが大幅に改善され、最終的にNVIDIAはユーザーの要求に近い応答を生成できるようになります。
興味深いことに、HuggingFaceにある「Llama-3.1-Nemotron-70B-Instruct」LLMモデルカードによると、このモデルは従来のAIモデルでは解決できなかった「いちご」問題(単語内の「R」の数を数える問題)を解決できるそうです。
各種ベンチマークでトップの性能を達成
NVIDIAの「Llama-3.1-Nemotron-70B-Instruct」LLMは、命令チューニングされたLLMの自動評価ツールである「Arena Hard」をはじめ、数多くのベンチマークでトップクラスの性能を達成しています。
モデル名 | Arena Hard (95% CI) | AlpacaEval (2 LC, SE) | MT-Bench (GPT-4-Turbo) | 平均応答長 (# of Characters for MT-Bench) |
---|---|---|---|---|
Llama-3.1-Nemotron-70B-Instruct | 85.0 (-1.5, 1.5) | 57.6 (1.65) | 8.98 | 2199.8 |
Llama-3.1-70B-Instruct | 55.7 (-2.9, 2.7) | 38.1 (0.90) | 8.22 | 1728.6 |
Llama-3.1-405B-Instruct | 69.3 (-2.4, 2.2) | 39.3 (1.43) | 8.49 | 1664.7 |
Claude-3-5-Sonnet-20240620 | 79.2 (-1.9, 1.7) | 52.4 (1.47) | 8.81 | 1619.9 |
GPT-4o-2024-05-13 | 79.3 (-2.1, 2.0) | 57.5 (1.47) | 8.74 | 1752.2 |
注目すべきは、「Llama-3.1-Nemotron-70B-Instruct」がOpenAIの「GPT-4o」など業界の主要なLLMを上回ったことです。これは、NVIDIAのファインチューニングが「Llama-3.1-70B-Instruct Base」に与える影響の大きさを考えると、重要なマイルストーンといえます。
まとめ:
NVIDIAの最新LLM「Llama-3.1-Nemotron-70B-Instruct」は、オープンソースモデルでありながら、業界をリードする性能を示しています。複雑なコーディングタスクや推論に特化した問題での性能はまだ明らかになっていませんが、初期のベンチマークは、このLLMが高い能力を備えていることを示唆しています。NVIDIAは、AI業界の主要セグメントを征服し、ドミナントな存在になる道を歩んでいます。
「Llama-3.1-Nemotron-70B-Instruct」LLMにアクセスしたい方は、NVIDIAの「NIM」プラットフォームまたはHuggingFaceで入手可能です。