今日は Gemma 2のどの部分が改良されたかを見てみましょう。
概要
去年の12月まで専有モデルでのみ達成できた性能を実現しています(GPT-4について述べているように感じます)。NVIDIA H100 Tensor Core GPU や TPU ホスト上で動作可能であり、展開コストを大幅に削減しています。
特徴
:27B パラメータの Gemma 2は最高の性能を提供し、容量が2倍以上のモデルを上回ります。9B パラメータの Gemma 2も Llama 3 8B および他の同種のオープンモデルを凌駕します。
:27B パラメータの Gemma 2は Google Cloud TPU、NVIDIA A100 80GB または H100 上で効率的に動作し、低コストを維持しながら高性能を保ち、AIの展開をより経済的にします。
:Gemma 2は最適化され、ゲーム用ノートパソコンからクラウド設定まで様々なハードウェア上で高速に動作します。Google AI Studioでフル精度を体験し、Gemma.cppを使用してCPU上のローカル性能を解き放ち、または NVIDIA RTX や GeForce RTX を使用して家庭用コンピュータで利用できます。
評価
公式に提供されたベンチマーク結果:
LMSYS Chatbot Arena Leaderboard:
Gemmaファミリーの他の製品
:PaLI-3にインスピレーションを得たマルチモーダルで軽量な視覚言語モデル(VLM)で、SigLIP視覚モデルやGemma言語モデルなどのオープンソースコンポーネントに基づいて構築されています。 :長セクエンスに対する高速推論に適した固定状態サイズを持つオープンモデルです。 :Gemmaベースのオープンコードモデルです。
試用
前述のGoogle AI Studioだけでなく、Hugging Face、NVIDIA、Ollamaなどのプラットフォームとの統合により、Gemma 2は簡単に入手可能です。
Ollama
9B パラメータ
ollama run gemma2
27B パラメータ
ollama run gemma2:27b
オーケストレーションツールで Gemma 2を使用する
LangChain
from langchain_community.llms import Ollama
llm = Ollama(model="gemma2")
llm.invoke("Why is the sky blue?")
LlamaIndex
from llama_index.llms.ollama import Ollama
llm = Ollama(model="gemma2")
llm.complete("Why is the sky blue?")