2024年9月26日、Metaが最新AIモデル「Llama3.2」を発表しました。Metaがリリースしている大規模言語モデル(LLM)の「Llama」シリーズは、オープンソースLLMとして注目されていますが、どのような機能が追加されたのでしょうか。
今回の記事では「Llama3.2」の概要や、今後の展望などを紹介します。ぜひ最後まで記事をご覧いただき、参考にしてください。
Llama3.2の概要
Llama3.2は、Metaが開発した最新のオープンソースLLMです。従来モデルとの違いとして、画像認識機能の追加と軽量モデルの導入が挙げられます。大規模モデルの「Llama 3.2 90B」と「Llama 3.2 11B」では、テキストと画像を同時に処理できるマルチモーダル機能が実現しました。
一方、軽量モデルの「Llama 3.2 3B」と「Llama 3.2 1B」は、スマートフォンでの動作に最適化されています。さらに、開発者向けの統合ツールチェーン「Llama Stack」も提供され、さまざまな環境でLlamaモデルを利用できるようになりました。
大規模モデルのLlama3.2
大規模モデルのLlama3.2(90Bと11B)は、画像認識機能を新たに搭載しています。グラフや図表の理解、画像へのキャプション付け、画像内のオブジェクト特定などが可能になりました。
ベンチマークテストでは「Claude 3 Haiku」や「GPT4o-mini」といった競合モデルと比較しても高いスコアを記録しており、特に「Llama 3.2 90B」は多くのテストで他のモデルを上回る性能を示しています。
軽量モデルのLlama3.2
軽量モデルのLlama3.2(3Bと1B)は、スマートフォン上での動作を念頭に置いて開発されました。これらのモデルは、要約やリライト、文章生成などの操作を、スマートフォンのチップ上で直接実行できます。
ベンチマークテストでは「Phi 3.5 3.8B」や「Gemma 2 2.6B」といった他の軽量モデルと比較しても高い性能を示しているため、Llama3.2のスマートフォンアプリが登場する日も近いかもしれません。
【Llama3.2】今後の展望
Llama3.2の登場により、AIの応用範囲がさらに広がることが期待されます。というのも、Metaがリリースしている「Llama」シリーズはオープンソースモデルなので、誰でもダウンロードして利用可能。また、AI関連企業やサービスは、APIを通じてLlamaモデルを簡単に利用できます。
特に、スマートフォン向けの軽量モデルがあるため、Llama3.2を活用したアプリがリリースされる可能性も高いでしょう。
まとめ
今回の記事では、Metaが発表したLlama3.2の特徴や、今後の展望を解説しました。画像認識機能の追加や軽量モデルの導入により、AIの応用範囲が大きく広がる可能性があるといえるでしょう。
特に、スマートフォン上で動作するオープンソースの軽量モデルが登場したことで、スマートフォン向けのAIアプリ開発が活発になると予想されます。
Llama3.2は無料で利用できるのにもかかわらず、ChatGPTの「GPT-4」と近い性能を持っているため、生成AIの勢力図が変わってしまう可能性もあります。今後のMeta社に注目です。
AIメディアライター・植田遊馬
Webライター歴4年目。ChatGPTの登場で生成AIの可能性に衝撃を受け「生成AIオタク」に。さまざまな生成AIを駆使しながらライター業を営む傍ら「多くの人に生成AIの魅力を伝えたい!」という想いで、生成AI系メディアでの記事執筆を行っている。
生成AIによる専門文書の精密な翻訳ソリューション
T-4OOは、LLM (大規模言語モデル) を用いた画期的な翻訳アルゴリズムにより、従来のNMTモデルとの比較で文脈や語調・書き振りをより自然に反映しながら、専門用語や参考文献に基づいた高い翻訳精度を実現。
細分化された2000の分野に対応し、ビジネス・研究開発の専門文書の翻訳など、様々なシーンで活用されてます。
「T-4OO」の機能と特徴
- 専門2000分野・100言語をカバー
- スキャン画像PDFも丸ごと翻訳
- 社内・業界フレーズを自動学習
- Web上でラクラク訳文編集
- その場で解決 電話でサポート
単に文字を翻訳するだけでいいというわけではありません。
T-4OOは、業務フローにこだわった多彩な便利機能で業務効率化を強力にサポートします。