生成AI・AI機能分類の全体像と到達目標
はじめに
この節の目的は、第1章で学んだ生成AIの理解を整理し、そのうえで「AI全体をどう分類して捉えるか」という第2章の入口をつくることです。
NIST は、AI を信頼できる形で使うには、有効性、安全性、セキュリティ、透明性、説明責任など複数の観点で捉える必要があると整理しています。つまり、AI をひとつの曖昧な塊として見るのではなく、役割や機能ごとに分けて理解することが重要です。
第1章では、生成AIとは何か、LLM がどのような位置づけにあるのか、何が得意で、どこに限界があるのか、人間とどう役割分担するべきかを学びました。
ここで次に必要になるのは、「生成AIは AI 全体の中でどこにあるのか」「分類AI、予測AI、推薦AIとは何が違うのか」を整理することです。OECD も、AI は人間中心の価値、透明性、説明責任、人による監督と結びつけて考えるべきだとしています。
10代、20代の感覚で言えば、いま私たちはすでに複数の AI に囲まれています。たとえば、
- ChatGPTは文章作成やコード支援のような生成系の体験を代表し、
- Grammarlyは文章改善や下書き支援のような文章支援系として使われ、
- Midjourneyは画像や動画の生成というビジュアル生成系 の代表例です。こうしたサービスを一括りに「AI」と呼ぶことはできますが、実際には役割も入力も出力も違います。
この節では、その違いを見失わないための全体像を把握することを目的とします。全体像を把握しておくと、このあとの「AI機能分類」「生成AIと識別AIの違い」「AIの選び方」「リスク理解」へスムーズにつながります。
この節で学ぶこと
- 第1章で学んだ生成AI理解の整理
- なぜ AI を分類して理解する必要があるのか
- AI分類の代表的な見方
- 第2章全体で何を学ぶのか
- この節の到達目標
1. 第1章の振り返り:生成AI理解の整理
第1章で学んだ中心テーマは、生成AIとは何かでした。生成AIは、入力された情報をもとに、新しいテキスト、画像、音声、コードなどを作り出す仕組みです。
OpenAI のChatGPT 概要でも、ChatGPT は writing、coding、data analysis、image understanding などを支援する AI として紹介されています。つまり、生成AIの本質は、何かを「判定する」ことよりも、新しい出力を組み立てて返すことにあります。
一方で、第1章では、生成AIが万能ではないことも確認しました。文章の下書き、要約、アイデア出し、画像生成のような場面では非常に強いですが、出力の正確性保証、責任判断、ルール最終確定は苦手です。
NIST の AI RMF も、AI の信頼性は単なる性能だけでなく、リスク管理や説明責任まで含めて考える必要があるとしています。これは、「それっぽい答えが返る」ことと、「安心して任せられる」ことが別だという意味です。
第1章ではさらに、AI を使うときは「AI ありき」で考えず、まず課題を定義し、その課題に対して AI をどう使うかを考えるべきだと学びました。これはとても重要です。なぜなら、生成AIが流行しているからといって、すべての課題に生成AIが向くわけではないからです。
たとえば、文章を作るなら生成AIが向いていても、不正な取引を見つけたいなら異常検知や分類に適したAIが必要です。ここで、第2章の「AI分類」が必要になります。
まとめ
- 第1章で学んだのは、主に生成AIの仕組みと使い方の初歩的な部分です。
- 生成AIは、テキスト、画像、コードなどを新しく作ることに強いです。
- ただし、正確性保証や責任判断は人間の役割として残りやすいです。
- 第2章では、生成AIを AI 全体の中へ位置づけ直すことが必要になります。
2. なぜAIを分類して理解する必要があるのか
「AI」という言葉は便利ですが、便利すぎるぶん、意味が広すぎます。いま世の中には、
-
文章を書くAI
-
画像を作るAI
-
音声を認識するAI
-
文章を分類するAI
-
商品や動画を推薦するAI
-
数値を予測するAI など まったく性格の違う技術が同じ「AI」という言葉で呼ばれています。NIST も OECD も、AI を責任ある形で扱うには、その機能やリスクを文脈ごとに見分ける必要があるとしています。もし AI を分類せずに理解しようとすると、いくつかの問題が起こります。
-
第一に、生成AIですべて解決できると誤解しやすくなります。
-
第二に、課題に合わない AI を選びやすくなります。
-
第三に、評価基準が曖昧になります。 たとえば、要約AIを評価するときと、推薦AIを評価するときでは、見るべきポイントが違います。要約なら意味保持や簡潔さが重要ですが、推薦なら関連性や多様性が重要です。同じ「AI」でも、見方が変わるのです。
SNSのおすすめ表示、ECサイトのレコメンド、チャットAI、画像生成AIは、全部「AIっぽい」ですが、実際には役割が違います。
だからこそ、AI を使う側は「何の AI なのか」「何をさせる AI なのか」を言葉で区別できる必要があります。そこができると、流行に振り回されず、冷静に選べるようになります。
まとめ
- 「AI」は広すぎる言葉なので、分類して理解しないと誤解しやすいです。
- 分類しないと、課題に合わないAIを選びやすくなります。
- AI分類は、機能の違い、評価基準の違い、リスクの違いを見抜くために必要です。
3. AI分類の全体像
AI はいくつかの軸で分類できます。ここでは、初学者にとって分かりやすく、実務にもつながりやすい四つの軸を紹介します。
それは、目的で分ける方法、入力と出力で分ける方法、業務上の役割で分ける方法、判断の性質で分ける方法です。NIST や OECD のような枠組みが重要視しているのも、単一の分類ではなく、複数観点から AI を捉えることです。
flowchart TD
A[AI分類] --> B[目的で分ける]
A --> C[入力と出力で分ける]
A --> D[業務上の役割で分ける]
A --> E[判断の性質で分ける]
B --> B1[生成]
B --> B2[分類]
B --> B3[予測]
B --> B4[推薦]
C --> C1[テキスト入力]
C --> C2[画像入力]
C --> C3[音声入力]
D --> D1[業務効率化]
D --> D2[意思決定支援]
D --> D3[クリエイティブ支援]
E --> E1[生成系]
E --> E2[識別系]
3-1. 目的で分ける
目的で分けると、たとえば次のようになります。
- 何かを作る → 生成
- ラベルを付ける → 分類
- 必要情報を抜き出す → 抽出
- 次を予測する → 予測
- 合いそうなものを出す → 推薦
- 必要情報を探しやすくする → 検索支援
- 会話しながら返す → 対話 この分類は、業務で「何をしたいのか」を考えるときに使いやすいです。
3-2. 入力と出力で分ける
入力と出力で見ると、AI の振る舞いが見えやすくなります。
- テキスト → テキスト
例: ChatGPT、Grammarly。文章生成、要約、言い換え。
- テキスト → 画像
例: Midjourney。文章から画像や映像表現を作る。
- 画像 → テキスト
例: 画像理解系 AI。アップロード画像を説明する。
- 音声 → テキスト 例: 音声認識系 AI。
- 数値や履歴 → 推薦
例: おすすめ表示やランキング。 この軸を持つと、「どんなデータを入れて、何が返るAIなのか」を整理しやすくなります。
3-3. 生成AIはどこに位置づくのか
生成AIは、AI 全体の中では 生成系 という一分類です。つまり、生成AIは AI の代表例ではありますが、AI 全体そのものではありません。ここを区別できるかどうかが、第2章の入口としてとても大切です。
たとえば
広い意味では生成系の側に入ります。一方で、推薦アルゴリズムや不正検知システムは、必ずしも「何かを新しく作る」わけではありません。そこが生成AIとの違いです。
まとめ
- AI は一つの軸ではなく、複数の軸で分類したほうが理解しやすいです。
- 目的で分けると、業務課題と結びつけやすくなります。
- 入出力で分けると、AI が何を受け取り、何を返すのかが明確になります。
- 生成AIは AI 全体の中の一分類であり、AI 全体そのものではありません。
4. AI分類を理解すると何ができるようになるのか
AI分類を理解すると、まず 課題に応じて AI を選びやすくなります。
たとえば、TikTok や YouTube のような「次に何を見せるか」が重要なサービスを考えるとき、中心になるのは生成ではなく推薦やランキングの発想です。
逆に、レポート下書きや企画案作成のような場面では、生成系が強くなります。この違いを見抜けると、「流行っているから生成AIを入れる」ではなく、「この課題にはこの型が向いている」と考えられるようになります。
なお、ここで挙げたプラットフォーム名は一般的なイメージ例であり、この段落の主な論点は分類の考え方そのものです。
次に、限界とリスクを見抜きやすくなります。生成AIなら誤生成やもっともらしい誤答が問題になりやすく、分類AIなら誤判定が問題になりやすいです。
推薦AIなら偏りやフィルターバブル、予測AIなら不確実性や外れ値への弱さが課題になります。NIST や OECD が透明性、説明責任、人間監督を重視するのは、まさにこの違いを無視できないからです。
さらに、人間との役割分担も設計しやすくなります。生成系は下書きやアイデア展開に強い一方、最終承認や責任判断は人間に残りやすいです。
分類や抽出でも、補助的な前処理は AI に任せつつ、最終確認は人が行う設計が有効なことがあります。こうした見方は、次章以降のプロンプト設計や活用設計にもつながります。
まとめ
- AI分類を理解すると、課題に合う AI を選びやすくなります。
- 同時に、AI ごとに異なるリスクも見抜きやすくなります。
- 分類理解は、人間と AI の役割分担を考える前提になります。
5. 第2章の全体像
この節は、第2章全体の入口になります。第2章は、次の流れで説明していきます。
- AI機能分類の基本軸を知る
- 生成AIと識別AIの違いを知る
- 主要な AI 機能分類を具体的に見る
- 業務課題から AI の選び方を考える
- データ構造との関係を整理する
- 精度・限界・リスクを理解する
- 実践と演習で言語化する この順番にしている理由は、いきなり個別技術へ飛び込まず、まず分類の全体像を把握するためです。
地図がない状態で学ぶと、サービス名やモデル名だけが増えて、頭の中が散らかりやすくなります。
逆に、全体像を把握すると、新しいサービスが出てきても「これは生成系だな」「これは推薦や検索支援に近いな」と整理しやすくなります。
6. 到達目標
この節を読み終えた時点で、次のことができるようになるのが目標です。
-
第1章で学んだ生成AIの位置づけを説明できる
-
なぜ AI を分類して理解する必要があるのか説明できる
-
生成AIが AI 全体の中の一分類であると説明できる
-
第2章で何を学ぶのか見通しを持てる また、次の区別ができることも大切です。
-
生成AIとAI全体
-
生成系と識別系
-
サービス名と機能分類
-
理解できたことと、次節で詳しく学ぶべきこと
まとめ
- この節のゴールは、AI分類の必要性を言葉で説明できるようになることです。
- 第1章の知識を、第2章の学習へつなぎ直せる状態を目指します。
- ここで地図を持つと、次の節以降で迷いにくくなります。
7. 考えてみよう
- なぜ生成AIだけを知っていても、AI全体を理解したことにはならないのでしょうか。
- なぜ AI は「何ができるか」だけでなく、「何をさせるべきか」で分類する必要があるのでしょうか。
- なぜ AI分類の理解が、業務活用の判断につながるのでしょうか。
- いま自分が普段使っているサービスの中で、生成系、推薦系、分類系に近いものは何でしょうか。
参考文献
- AI Risk Management Framework | NIST
- Artificial Intelligence Risk Management Framework (AI RMF 1.0) PDF | NIST
- Trustworthy and Responsible AI | NIST
- AI principles | OECD
- Recommendation of the Council on Artificial Intelligence | OECD
- ChatGPT Overview | OpenAI
- ChatGPT Capabilities Overview | OpenAI Help
- AI Writing Assistant | Grammarly
- Getting Started Guide | Midjourney Docs
- MDN Curriculum
- Getting started modules | MDN Curriculum