Gemma 2がリリースされました

今日は Gemma 2のどの部分が改良されたかを見てみましょう。

概要

去年の12月まで専有モデルでのみ達成できた性能を実現しています(GPT-4について述べているように感じます)。NVIDIA H100 Tensor Core GPU や TPU ホスト上で動作可能であり、展開コストを大幅に削減しています。

特徴

  • :27B パラメータの Gemma 2は最高の性能を提供し、容量が2倍以上のモデルを上回ります。9B パラメータの Gemma 2も Llama 3 8B および他の同種のオープンモデルを凌駕します。

  • :27B パラメータの Gemma 2は Google Cloud TPU、NVIDIA A100 80GB または H100 上で効率的に動作し、低コストを維持しながら高性能を保ち、AIの展開をより経済的にします。

  • :Gemma 2は最適化され、ゲーム用ノートパソコンからクラウド設定まで様々なハードウェア上で高速に動作します。Google AI Studioでフル精度を体験し、Gemma.cppを使用してCPU上のローカル性能を解き放ち、または NVIDIA RTX や GeForce RTX を使用して家庭用コンピュータで利用できます。


評価

公式に提供されたベンチマーク結果:

LMSYS Chatbot Arena Leaderboard:

Gemmaファミリーの他の製品

  • :PaLI-3にインスピレーションを得たマルチモーダルで軽量な視覚言語モデル(VLM)で、SigLIP視覚モデルやGemma言語モデルなどのオープンソースコンポーネントに基づいて構築されています。
  • :長セクエンスに対する高速推論に適した固定状態サイズを持つオープンモデルです。
  • :Gemmaベースのオープンコードモデルです。

試用

前述のGoogle AI Studioだけでなく、Hugging Face、NVIDIA、Ollamaなどのプラットフォームとの統合により、Gemma 2は簡単に入手可能です。

Ollama

  • 9B パラメータ
ollama run gemma2
  • 27B パラメータ
ollama run gemma2:27b

オーケストレーションツールで Gemma 2を使用する

LangChain

from langchain_community.llms import Ollama
llm = Ollama(model="gemma2")
llm.invoke("Why is the sky blue?")

LlamaIndex

from llama_index.llms.ollama import Ollama
llm = Ollama(model="gemma2")
llm.complete("Why is the sky blue?")