AI活用と意思決定デザイン

AIによる意思決定支援

前の節では、意思決定をフローとして設計する考え方を学びました。ここで、疑問が出てきます。

そのフローのどこを、AIは手伝えるのか。

この節では、AIを「人間の代わりに全部決める存在」としてではなく、人間の意思決定を支援する道具として理解します。この見方には歴史があります。

1955年のダートマス会議提案では、ジョン・マッカーシー、マービン・ミンスキー、ナサニエル・ロチェスター、クロード・シャノンが、知能の側面は原理的には精密に記述でき、機械でシミュレートできるかもしれないという構想を示しました。

さらに、ハーバート・サイモンは1960年に意思決定を Intelligence・Design・Choice に整理し、後の意思決定支援システムの考え方に大きな影響を与えました。1970年代には MYCIN のような専門知識ベースのシステムが登場し、AIが人間の判断を補助できる具体例が現れました。

ここで先に線を引いておきます。AIは便利です。ですが、便利と最終責任は同じではありません。 NIST の AI Risk Management Framework は、AIのリスク管理において組織的なガバナンス、説明可能性、監視、評価を重視しています。OECD の AI Principles も、人権や民主的価値を守る「信頼できるAI」と人間中心の統治を掲げています。つまり現代の公式な整理でも、AIは「勝手に決める王様」ではなく、「人間の監督の下で使う支援技術」として位置づけられています。

本節で学ぶこと

この節では、次のことを身につけます。

  1. AIによる意思決定支援とは何かを理解する。
  2. AIが得意な支援と、苦手な支援を区別できるようになる。
  3. 歴史的に、AIがどのように意思決定支援へ使われてきたかを知る。
  4. AI時代に、人間がどの部分で責任を持つべきかを考えられるようになる。

【結論】AIは「判断の補助線」は引けるが、「人生の責任者」にはなれない

AIによる意思決定支援とは、情報を集める、整理する、比較する、候補を出す、見落としを減らす、説明を助ける といった形で、人間の判断を助けることです。

これは、1978年の Decision Support Systems: An Organizational Perspective や、Michael S. Scott Morton の研究で広がった「意思決定支援システム」の発想ともつながります。そこでは、コンピュータは管理者や意思決定者の代替ではなく、判断を支えるための仕組みとして位置づけられました。

言い換えると、AIは次のような役割を担いやすいです。

  • 情報収集の補助
  • 要約
  • 比較表の作成
  • 複数案の提示
  • 条件分岐の整理
  • 過去事例の検索
  • リスク観点の洗い出し

一方で、その人が何を大切にしたいのか失敗の責任を誰が負うのか倫理的にどこまで許されるのか といった点は、AIだけでは決めきれません。これは制度面でも強調されています。たとえばFDAの2026年の Clinical Decision Support Guidance では、医療の意思決定支援ソフトは医療者の判断を「高める、知らせる、影響する」ものであって、医療者の判断を置き換えるものではないと整理されています。

1. AIによる意思決定支援は、どこから始まったのか

1-1. 1955年のダートマス提案と「人工知能」という名前

AIという言葉の出発点としてよく挙げられるのが、1955年8月31日付のダートマス夏季研究計画の提案です。この提案書はジョン・マッカーシー、マービン・ミンスキー、ナサニエル・ロチェスター、クロード・シャノンによって書かれ、1956年夏にダートマス大学で研究会を行う計画を示しました。

そこでは、「学習や知能のあらゆる側面は、原理的には機械がシミュレートできるほど精密に記述できるかもしれない」という構想が掲げられています。ここで “artificial intelligence” という名称が明示的に使われました。

この段階では、まだ「AIが進学先を比較してくれる」ような話ではありません。もっと根本的な問いでした。つまり、そもそも機械は知的な処理を担えるのか という問いです。ここが、後の意思決定支援の出発点になります。知的な処理ができるなら、比較や推論や提案も支援できるはずだ、という流れです。

1-2. サイモンと意思決定の構造化

ハーバート・サイモンは1960年の The New Science of Management Decision で、意思決定を Intelligence・Design・Choice に整理しました。これは、まず問題を見つけて情報を集め、次に解決案を設計し、最後に選ぶ、という流れです。この構造は、現代のAI支援を考えるうえでもとても便利です。なぜなら、AIがどこを支援できるかを切り分けやすいからです。

たとえば就職先を選ぶなら、

  • Intelligence:求人情報、勤務地、給与、福利厚生を集める
  • Design:応募候補を複数パターンに整理する
  • Choice:何を優先して応募先を決めるか選ぶ

という流れになります。ここでAIは、特に Intelligence と Design を強く支援しやすい。Choice の一部も助けられますが、最後の責任ある選択は人間側に残りやすいのです。

2. AIによる意思決定支援の古典例

2-1. 意思決定支援システム(DSS)

1970年代後半には、コンピュータを経営判断や管理判断の支援に使う「Decision Support Systems」という考え方が広まりました。Peter G. W. Keen と Michael S. Scott Morton の 1978年の本はその代表例です。また Scott Morton の研究は、コンピュータが判断を自動化するだけでなく、管理者の意思決定を支える役割を持つことを示しました。

ここで大事なのは、DSS が「人を消す仕組み」ではなく、人がより良く考えるための仕組みとして構想されたことです。たとえば売上予測、在庫判断、価格設定、投資配分などで、人間が全部を頭の中で処理するのは大変です。そこでコンピュータが数値を整理し、選択肢を示し、比較を助ける。この発想は、まさに今のAI支援と地続きです。

2-2. MYCIN と専門家知識のルール化

1972年にスタンフォード大学で開発が始まった MYCIN は、初期の代表的なエキスパートシステムです。Britannica によれば、MYCIN は患者の症状や検査結果にもとづいて血液感染症の診断候補や治療提案を行うことを目指したシステムでした。必要に応じて追加情報や追加検査も問い合わせる設計が取られていました。

これはかなり象徴的です。医療は判断の重みが大きい領域ですが、そこでさえ MYCIN の考え方は「医師を消す」ではなく、専門家の判断を支える でした。つまり、AI的システムは昔から「支援」という形で実装されることが多かったのです。今の生成AIも、本来はこの延長線上で見ると理解しやすい。診断を断定する神託ではなく、整理・比較・候補提示の補助役です。

3. AIは意思決定のどこを支援しやすいのか

3-1. 情報収集の支援

AIがかなり得意なのは、まず情報を集めてまとめることです。求人票、学校案内、商品比較、会議メモ、レビュー、規約、FAQ など、大量のテキストを素早く要約できます。これはサイモンの IDC モデルで言えば Intelligence を支える役割です。

たとえば「就職先を選ぶ」場面なら、AIに次のような支援を頼めます。

  • 求人票の比較
  • 福利厚生の違いの整理
  • 職種ごとの特徴まとめ
  • 残業や勤務地条件の抜け漏れ確認

人間がゼロから全部読むと、どうしても疲れます。疲れると、バイアスが入りやすい。だからAIにまず下ごしらえをさせるのは理にかなっています。

3-2. 比較と見える化の支援

AIは、条件を表にしたり、比較軸を提案したり、メリット・デメリットを並べたりするのも得意です。これは Decision Support Systems の核心に近い役割です。コンピュータは、複数条件を人間より安定して並べ続けられます。そこが強い。

たとえばノートPCを選ぶなら、

  • 価格
  • 重さ
  • バッテリー持ち
  • 画面サイズ
  • ソフトとの相性
  • 保証

といった比較軸を出し、候補を一覧にできます。人間は「なんかこれ好き」で動きがちですが、AIが表にすると、急に冷静になれます。少しだけ大人の会議みたいになります。

3-3. 複数案の生成支援

AIは「AかBか」だけでなく、「C案」「条件つき案」「保留案」も出しやすいです。これは人間が見落としがちな利点です。なぜなら、人は急ぐと二択にしがちだからです。AIは候補を広げる補助役になれます。NIST の AI RMF でも、AI利用には組織的な評価とリスク管理が必要だとされており、複数の選択肢や前提条件を明示することは、その管理の一部と相性が良い考え方です。

4. AIが苦手なこと、任せすぎると危ないこと

4-1. 価値判断

AIは「どちらが給料が高いか」は整理できます。ですが、「多少給料が低くても、自分は創造的な仕事を重視したい」のような価値判断は、人間本人の人生観にかかわります。ここは計算だけでは済みません。OECD の AI Principles が人間中心の価値や権利を強調しているのは、この点と深く関係します。

たとえば、A社は給与が高いが転勤が多い、B社は給与は少し低いが勤務地が安定している。このとき「どちらが正しいか」は、数式だけでは決まりません。家族観、働き方観、人生設計が入ります。AIは整理役にはなれても、あなたの人生を代理してくれるわけではありません。

4-2. 文脈の読み取り

AIは文章の表面を扱うのは得意でも、現場の空気、表情、沈黙、場の緊張感のようなものは苦手です。面接で受けた「なんとなく違和感がある」「この会社、説明は丁寧だが妙に急かしてくる」といった感覚は、まだ人間の重要な資源です。これは制度文書にも通じます。FDAの整理でも、臨床判断支援は医療者の判断を置き換えるものではないとされています。つまり、高リスク領域では特に、人間が文脈と責任を担う前提が崩れていません。

4-3. もっともらしい誤り

生成AIの怖いところは、間違っていても、堂々としていることです。文は整っている。表も整っている。だから少し信じやすい。NIST の Generative AI Profile でも、生成AI特有のリスク管理が必要だと整理されています。つまり、出力の見た目が良いことと、内容が正しいことは別です。

これは、少し笑えますが、笑って済まない場面もあります。たとえば就職先比較で、存在しない福利厚生をAIが書き足したら困ります。医療や金融なら、なおさら困る。だからAIは「最終回答機」ではなく、「下書き生成機」「比較補助機」として扱うほうが安全です。

5. 具体例で見る:就職先を決めるときのAI支援

では、身近な例で通してみます。テーマは 「就職先を決める」 です。

ステップ1 問題・目的

自分に合う就職先を決めたい。

ステップ2 条件・制約

  • 給与は最低でも月収○円以上
  • 通勤は片道60分以内
  • 関わりたい仕事は IT・デザイン・企画系
  • 福利厚生や働き方も確認する
  • 転勤の有無を確認する

ステップ3 AIにできる支援

ここでAIに頼めるのは、たとえば次のようなことです。

  • 求人票を比較表にする
  • 各社の事業内容を要約する
  • 面接前に確認すべき質問を整理する
  • 「自分が重視している条件」を言語化する
  • 給与、勤務地、仕事内容の優先順位を可視化する

これは Intelligence と Design の支援です。

ステップ4 人間が担う部分

一方で、人間側が最後に決めるべきなのは次の部分です。

  • 自分は安定を重視するのか、挑戦を重視するのか
  • 少し給料が低くても、仕事内容の一致を取るのか
  • 面接や説明会で感じた違和感をどう扱うか
  • 入社後の自分の生活をどう描くか

ここはAIだけでは決まりません。整理はできても、引き受けるのは本人です。

ステップ5 決定

最終的に「B社を第一志望にする」と決めるのは、人間です。

AIはそこまでの材料整理を助ける。ここが、AIによる意思決定支援のいちばん実務的な理解です。

6. 高リスク領域では、なぜ人間の監督が強く求められるのか

AI支援は便利ですが、医療、採用、教育、金融、公共サービスのような分野では、判断が人の人生に直接影響します。そのため、現代の制度や原則では「human oversight」が繰り返し強調されています。EU AI Act の Article 14 は、高リスクAIシステムに対する人間の監督を明確に求めています。OECD の AI Principles も、人間中心の価値と説明責任を重視しています。

これは単に慎重だからではありません。理由は単純で、AIの判断ミスは「ちょっと変なおすすめ」では済まないことがあるからです。採用なら不当な選別になり得る。医療なら健康被害につながり得る。金融なら生活基盤を揺らし得る。だから高リスク領域ほど、AIは決め手ではなく、検討を支援する装置として使われやすいのです。

7. AIを使うときの実践ルール

ここまでを、高校卒業程度の読者向けにかなり実用的にまとめると、次の5つが重要です。

7-1. まず目的を人間が決める

何を決めたいのか。何を優先したいのか。ここが曖昧だと、AIは立派に迷子になります。サイモンの枠組みで言えば、Intelligence の最初が曖昧なままだと、その後全部がぶれます。

7-2. AIには整理を頼み、断定はうのみにしない

比較、要約、質問案づくりは相性が良いです。

断定、予言、責任の肩代わりは相性が悪い。

7-3. 元データを確認する

AIの表がきれいでも、元の求人票、元の制度説明、元の一次情報を確認する。

これは少し面倒ですが、かなり大事です。

7-4. 反対案も出させる

自分がA案に傾いているなら、「A案の弱点を出して」「B案が向いている人の条件を出して」とAIに聞く。これは確証バイアスを少し和らげる使い方です。NIST のリスク管理の考え方とも相性が良い実践です。

7-5. 最後は人間が理由を言える形で決める

「AIがそう言ったから」ではなく、「私は○○を重視したので、この案を選んだ」と言えること。これが、支援と依存の境目です。

本節のまとめ

この節では、AIによる意思決定支援を学びました。

  • 1955年のダートマス提案で、マッカーシーらは人工知能という名称のもと、知的機能を機械でシミュレートできる可能性を掲げた。
  • ハーバート・サイモンは1960年に、意思決定を Intelligence・Design・Choice に整理し、後のAI支援の整理枠としても使える構造を示した。
  • 1970年代後半には Decision Support Systems が広まり、コンピュータは人の判断を支援する仕組みとして位置づけられた。
  • 1972年に開発が始まった MYCIN は、専門家知識を使って医療判断を支援する初期の代表例だった。
  • 現代の公式文書でも、NIST、OECD、FDA、EU AI Act はいずれも、人間の監督、説明責任、リスク管理を重視している。

要するに、AIは「全部決めてくれる代物」ではありません。

むしろ、人間の判断を少し賢く、少し速く、少し抜け漏れ少なくする補助するツールです。補助ツールとしてはかなり優秀です。ただし、人生の意思決定まで渡してしまうと、急に信頼性が怪しくなる。そこを見抜くのが、この章で育てたい力です。

次の節では、この理解を踏まえて、実際に意思決定フローを設計する演習へ進みます。ここからは、読むだけでなく、自分の判断を図にしてみる段階です。少し手を動かすぶん、理解もぐっと深くなります。

参考文献

  • John McCarthy, Marvin L. Minsky, Nathaniel Rochester, Claude E. Shannon, “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence” (1955).
  • Herbert A. Simon, The New Science of Management Decision (1960).
  • Peter G. W. Keen, Michael S. Scott Morton, Decision Support Systems: An Organizational Perspective (1978).
  • MYCIN に関する解説(『Encyclopaedia Britannica』).
  • NIST, Artificial Intelligence Risk Management Framework (AI RMF 1.0) (2023).
  • NIST, Generative AI Profile (NIST AI 600-1, 2024).
  • OECD, OECD AI Principles
  • U.S. Food and Drug Administration, Clinical Decision Support Software: Guidance for Industry and Food and Drug Administration Staff (2026年改訂).
  • EU AI Act, Article 14 “Human Oversight”.
教材トップへ戻る