Gemma - グーグルの最新オープンモデル

Googleは最近、Gemmaを公開し、その重み情報を発表しました。

Gemmaはオープンウェイトモデルです。オープンウェイトとは、モデルの重み(つまりトレーニング後のパラメータ)が公開されており、ユーザーがそれらの重みを使用してモデルを実行したり、推論やファインチューニングを行うことができるという意味です。他のオープンソースモデルと比較すると、オープンソースはさらに広範な開放性を提供します。モデルの重みだけでなく、コード、アーキテクチャ、トレーニングプロセスも完全にオープンソース化されており、ユーザーは自由にアクセスして変更することができます。

Gemmaは、Vertex AIまたはGoogle Kubernetes Engine (GKE)を使用してGoogle Cloud上で展開およびトレーニングでき、テキスト生成の推論とTransformersによって実現されます。

また、Google Colabを使用することもでき、これは公式に提供されているコードです:

https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lora_tuning.ipynb

他のオープンモデルと比較した場合:

Gemma は、7B パラメータと 2B パラメータのバージョンの2つの規模で提供されています。

  • Gemma 7B は非常に強力なモデルで、消費級 GPU や TPU での効率的な展開と開発を目的としており、Mistral 7B を含む 7B パラメータクラスのモデルの中で最高性能と競うことができます。
  • Gemma 2B はそのサイズ範囲内では興味深いモデルであり、CPU およびデバイスエンドアプリケーションに適していますが、ランキングでのスコアは Phi 2 などの同クラスの最良モデルほど高くありません。

直接試してみたい場合は、こちらからアクセスできます:https://huggingface.co/chat?model=google/gemma-7b-it

以下は、Gemma モデルを使用して私がまとめた Gemma のパフォーマンスに関する回答です:

Googleの公式発表によると、Gemmaは新しい大規模言語モデルであり、テキスト要約、コード翻訳、質問応答などのタスクを完了することができます。以下はその性能の概要です:

特長:

  • 高い正確性:
    • テキスト要約、コード翻訳、質問応答などを含むさまざまなタスクで最先端のパフォーマンスを達成します。
    • T5とQNLGの評価において、PaLMやMegatron-Turing NLGなどの以前のモデルよりも優れたパフォーマンスを発揮します。
  • マルチモーダル能力:
    • テキスト、コード、画像を処理でき、さまざまなタスクに適用可能です。
    • Pythonと他のプログラミング言語の間でコードを翻訳できます。
  • 特定のトレーニングなしに:
    • 大量のトレーニングを必要とせずに、スムーズにタスクを遂行できます。
    • タスク間の知識をより効率的に転移することができます。

課題:

  • リソース占有:
    • 大量の計算リソースが必要であり、それがアクセス可能性を制限するかもしれません。
    • Googleは、その効率を向上させるために技術を開発していると述べています。
  • 偏見:
    • トレーニングデータからバイアスを継承する可能性があります。
    • Googleは、公平性を考慮したトレーニング技術を使用するなど、さまざまな方法でバイアスの軽減に努めています。

全体的に:

Gemmaはパフォーマンスが素晴らしく、多くのアプリケーションを進歩させる強力な言語モデルです。しかし、リソースの消費と潜在的なバイアスは解決すべき課題です。