人工知能用語集(AI用語集)

AIの世界には常にさまざまな用語があり、意味が分からず混同してしまいます。今日はそれらをまとめることにしました。これにより、今後調べたいときに役立てたいと思います。

  1. :人工知能の異なるタイプや発展段階について説明します。


  • 人工知能(Artificial Intelligence、AI):人間によって作られたシステムが示す「知能」で、学習、理解、推論、感知、言語認識などを含みます。
  • 人工一般知能(Artificial General Intelligence、AGI):これは、人間と同じレベルのすべての知的能力を持つ機械のことを指します。
  • 人工スーパー知能(Artificial Super Intelligence、ASI):人間の最も賢く、創造的なレベルを超えた機械の知能。
  • 説明可能なAI(Explainable AI、XAI):その決定に対する明確で理解しやすい説明を提供する透明なモデルを作成することに焦点を当てたAIの一分野。
  • チャットボット(Chatbot):テキストまたは音声を使用して人間と通信できるプログラム。
  • エージェント(Agents):環境の中で行動し、環境と相互作用する実体。例:強化学習におけるエージェント。
  • エキスパートシステム(Expert Systems):専門家の知識や判断能力を模倣するコンピューターシステム。
  • エマージェンス(エマージェント行動):複雑系において新たに現れる行動や特性で、この行動はシステムの各部分には存在しないもの。
  • ジェネラティブAI(生成型AI):音楽、文章、画像などの新しいコンテンツを作成できるAIの一種。
  • :さまざまな種類の機械学習手法と技術が関与する。


    • 機械学習(Machine Learning):データを学習し理解することで自身のパフォーマンスを向上させる人工知能の実現方法の一つ。
    • 教師あり学習(Supervised Learning):機械学習の一種で、モデルにラベル付きの訓練データが提供されるタイプです。
    • 教師なし学習(Unsupervised Learning):モデルにラベル付きの訓練データが提供されず、データ内のパターンを独自に識別する必要がある機械学習のタイプです。
    • 強化学習(Reinforcement Learning):環境の中で行動をとり、特定の報酬を最大化することによって意思決定を学ぶ機械学習のタイプです。
    • 深層学習(Deep Learning):人間の脳のニューロンネットワークを模倣して学習を行う技術で、機械学習を実現する方法の一つです。
    • 転移学習(Transfer Learning):事前に学習されたモデルを新しい問題に適用する機械学習の手法です。
    • ゼロショット学習(Zero-shot Learning):訓練中に見たことのない条件を予測する機械学習の一種で、チューニングは不要です。
  • :機械学習モデルを構築および訓練するための具体的なフレームワークとモデル。


    • TensorFlow:Googleが開発したオープンソースの機械学習プラットフォームで、機械学習モデルの構築と訓練に使用されます。
    • 大規模言語モデル(Large Language Model, LLM):大量のテキストデータを使用して訓練されたモデルで、人間の言語を理解し生成するために用いられます。
    • ニューラルネットワーク(Neural Network):人間の脳の働きを模倣した計算モデルで、データ分析や予測に使用されます。
    • アテンション機構(Attention):情報処理時に異なる重要性を割り当てるために使用されるニューラルネットワークリモデル内の一種のメカニズムです。
    • トランスフォーマー(Transformer):自然言語などのシーケンスデータを処理するために主に使用される特定の種類のニューラルネットワークロケートです。
    • 畳み込みニューラルネットワーク(Convolutional Neural Network, CNN):深層学習の一種であり、画像処理分野で広く使用されています。畳み込み演算を通じて局所的な画像特徴を自動的かつ効果的に学習します。

    • 再帰型ニューラルネットワーク(Recurrent Neural Network, RNN):系列データの処理と予測に特に適した機械学習における一種のネットワーク構造です。RNNのニューロンは現在の入力だけでなく、以前の入力の履歴情報を記憶し、「記憶」機能を持つネットワーク構造を形成します。

    • 生成対抗ネットワーク(Generative Adversarial Network、GAN):これはディープラーニングモデルであり、近年の複雑な分布における非監督学習で最も有望な方法の一つです。二つのニューラルネットワークが相互に競争しながら学習する訓練方法です。
    • GPT(Generative Pretrained Transformer):OpenAIが開発した事前学習済みの生成型Transformerモデルで、さまざまな自然言語処理タスクに対応します。
    • CLIP(Contrastive Language-Image Pre-Training):OpenAIが開発したモデルで、自然言語の指示を理解し、それに応じた画像を生成することができます。
  • :機械学習モデルをどのように訓練し、最適化するかに関する技術や手法を説明します。


    • 訓練データ(Training Data):機械学習モデルを訓練するために使用されるデータセット。
    • テストデータ(Test Data):モデルの構築検証に使用されるデータで、モデル検証時にのみ使用され、モデルの精度を評価するために使われます。モデル構築プロセスでは絶対に使用してはいけません。それを行うと過学習が発生します。
    • 検証データ(Validation Data):機械学習において、ハイパーパラメータを調整するためのモデルのデータセットのサブセットであり、このサブセットは訓練データセットやテストデータセットとは分離されています。
    • 勾配降下法(Gradient Descent):関数の最小値を見つけるための最適化アルゴリズムで、機械学習やディープラーニングモデルの訓練プロセスで一般的に使用されます。
    • 逆伝播法(Back Propagation):ニューラルネットワークにおける勾配を計算する方法で、主にニューラルネットワークの訓練に使用されます。
    • 微調整(ファインチューニング):事前学習モデルを新しいタスクに適応させるためのプロセス。
    • アラインメント(整合性):AIの行動がその設計者の意図とどれだけ一致しているかを示す度合い。
    • プロンプト(提示):AIモデルが特定の出力を生成するために使用される入力情報。
    • 思考連鎖(チェーン・オブ・サウンド):AIモデルが情報を処理し、意思決定を行う際の思考プロセスを指します。
  • :機械学習モデルのパフォーマンスを評価する方法について説明し、遭遇する可能性のある問題についても述べます。


    • 過学習(Overfitting):統計モデルや機械学習アルゴリズムが訓練データに過剰に適合し、新しいデータでのモデルの性能が低下する現象。
    • 学習不足(Underfitting):統計モデルや機械学習アルゴリズムがデータの基本的な構造を十分に捉えられないために発生するモデリングエラー。
    • データ拡張(Data Augmentation):訓練データを変換や拡充することでモデルの汎化能力を向上させ、モデルの過学習を減らす手法。
    • 正則化(Regularization):機械学習において、モデルの損失関数に罰則項を追加して過学習を防ぐ技術。
  • :機械学習モデルの構成要素を説明し、これらの要素をどのように調整してモデルの性能を向上させるかを解説します。

    • パラメータ(Parameters):モデルの学習過程でデータから学習される変数で、例えばニューラルネットワークの重みなどです。
    • ハイパーパラメータチューニング(Hyperparameter Tuning):モデルの性能を最適化するためのハイパーパラメータを探すプロセスです。
    • 隠れ層(Hidden Layer):ニューラルネットワークにおける入力層と出力層の間の層で、入力から様々な特性を抽出します。
  • :計算集約的なタスク(例:機械学習)を加速するために設計されたハードウェアデバイス。

    • GPU(Graphics Processing Unit):グラフィックスや画像処理タスクを加速するためのハードウェアデバイスで、深層学習計算にも頻繁に使用されます。
    • TPU(Tensor Processing Unit):Googleが開発した、機械学習ワークロードを加速するために特別に設計されたマイクロプロセッサタイプです。
    • アクセラレータ(Accelerator):AIアプリケーションの加速のために設計されたマイクロプロセッサで、処理速度と効率を大幅に向上させます。
    • 算(Compute):AIタスクを実行するための計算リソース。
  • Stable Diffusion 関連

    • 安定拡散(Stable Diffusion):CompVisが2022年に発表した画像生成モデルで、U-Net、VAE、およびテキストエンコーダーから構成され、特定タイプの画像を作成するために使用されます。
    • モデル(チェックポイント):チェックポイントファイルとも呼ばれ、事前に学習された安定した拡散の重みで、一般的な画像または特定のタイプの画像を作成することを目的としています。
    • (低ランク適応、LoRA):LoRAは比較的小さなファイル(通常10-200MB)であり、既存の安定した拡散チェックポイントモデルと組み合わせて使用され、新しいテーマ(キャラクターからアートスタイル、ポーズに至るまであらゆるもの)を画像に導入します。
    • VAE美学埋め込み(VAE Aesthetic Embedding):画像の詳細や彩度などを改善・修復するための手法です。
    • 超ネットワーク(Hypernetwork):スタイルモデルとも呼ばれ、これは微調整技術の一種で、スタイルを変更するために小型のニューラルネットワークが追加されます。
    • ):2022年にGoogleリサーチとボストン大学によって発表された深層学習モデルで、既存の画像生成モデルを調整するために使用されます。
    • テキストインバージョン(Text inversion):テキスト情報の抽出と学習に用いられる埋め込みの訓練方法です。
    • セーフティテンソル(safetensors):Huggingfaceが開発したモデル形式で、テンソルデータを安全に保存するために使用されます。