経済ニュースまとめ録

日本経済新聞の一面をマトリクス形式でまとめて整理

AIが出した判断の責任は人間にあるという事のマトリクス

「AIがそう言ってたから・・・」
こんな言葉を言っちゃだめだよ。

AIを使う事業者に対してそう促すための取り決めが決まりつつあるようです。

www.nikkei.com

人間には説明できない答えを出してくれるのがAIの価値であり魅力です。

そのAIの回答の因果関係を人間が理解できるなら、とっくに人間はその答えを出しているんじゃないの?と思ってしまうのですが。

それでも、”責任”という観点から見ると、AIのせいにしちゃだめですよという取り決めを作るほうが良いのかな・・・という事をマトリクスで整理してみました。

 

AIはそれを説明できない

f:id:takeshi1127:20181129152415j:plain

膨大なデータから、適切な答えを瞬時に導き出すのがAI。

そのAIの答えは、人間の出す答えの枠の外に軽々と飛び越えていきますので、少々突飛な印象も受けますが、過去のデータからするとそう。

それがAIの持つ個性であり強みなのですが、AIをビジネスに取り入れて「過去のデータからAIが導いた答えはこうなので」で終わりとするのはあまりにも乱暴だということのようです。

それに、万が一にでも何か被害が出た時に「知りません」と突っぱねる事ができる状況というのは、後々取り返しがつかない事にもなりかねないよねって事で、AIを利用する上での7原則を政府が取り決めました。

  1. AIは人間の基本的人権を侵さない
  2. 誰もがAIを利用できるよう教育を充実
  3. 個人情報を慎重管理
  4. AIのセキュリティーの確保
  5. 公正な競争環境の維持
  6. AIを利用した企業に決定過程の説明責任
  7. 国境を越えてデータを利用できる環境を整備

この中の「AIを利用した企業に決定過程の説明責任」の部分について、ちゃんとしましょうねって事です。

色々な企業がAIの開発をしているため、その利用に関してはその企業の自主規制に任せるというのが今まででしたが、そうじゃなくて、みんなお互いが納得しあえるルールの中で活用しましょうって事のようです。

特に「責任の所在」を明確にしましょう、と。

AIの判断の責任マトリクス

AIの判断の責任はAIにある。
そう言い切ってしまい、それがまかり通ると、無秩序な状態になるかもしれません。

何をしても「AIの判断だから」で済ます事ができるのですからね。

そうならないようにするためには「責任」を明確にしなくちゃですねって事のようで、その責任を問うために、なぜそう判断したのかの根拠も示しましょうね、と。

それをマトリクス表にするとこうなります。

  AIの責任 人間の責任
判断基準を説明する
判断基準を説明しない

AIの判断基準を明確にする。
その上で、それを採用するのかどうかを決めるのは人間なので、人間に責任があるんですよ。

そういうルール作りをしましょうって動きです。

実際に、他のマス目は心がゾワゾワするような不安に駆られるものばかりで、まかり通ると怖い世の中になりそうな気がします。

各マス目を少しだけ具体的に説明すると、こうなります。

A AIの判断基準を明確にし、それを採用する人間に責任が発生する

AIがなぜその答えを出したのかを知り、その上で、そのAIの判断を採用するのかを人間が決める。だから、責任は人間にあるんだよとする考え方です。

AIの答えが常に正しいとしても、それが倫理観でみると、違和感があるものもあるかもしれません。

また、金融などのリスクがある行為にAIを活用し、それを鵜呑みにして経済的ダメージを受けたとしても、それはそう判断した人間に責任があるとする考え方です。

AIを使うというのは、責任をAIに渡さないという事なのかもしれません。

B AIの判断基準を明確にせず、しかし採用する人間に責任が発生する

AIが出した答えの基準がよく分からないが、そのAIの答えを採用した人間に責任が発生する。

この状態を好む人はまずいないと思います。
なぜかわからないが、何かあったらあなたが責任を取ってねと言われると、「ちょっと待って!」となるはずです。

恐らく、今はこの状態に近いものがあると思います。

ただ、人間が責任を取るとなると、ちゃんとした理由を知った上で判断をしたい。

だから、AIの判断基準を明確にしなければいけないよねって事になっているのだと思われます。

C AIの判断基準を明確にするが、AIに責任が発生する

AIの判断基準を明確にし、その責任はAIにあるとする。

AIの考えを理解し受け容れている状態とも言えますが、人間には責任がないという、不思議な状態です。

AIが出した答えの理屈はわかるが、そのAIの答えによって人間が被害を被った。AIを罰しよう。そんな論調がまかり通る状態とも言えます。

人間がAIを使っているようで、AIに人間が使われている状態とも言えるかもしれませんし、かぎりなく無秩序な状態とも言えます。

D AIの判断基準を明確にせず、AIに責任が発生する

AIがなぜその判断を下したのか理由はわからないが、その判断の責任はAIにあるとする。

これはもはや、AIに服従した状態に近いとも言えます。

AIが赤と言えば、赤である。
なぜ赤なのかはわからないが赤であるし、それが間違っていたとしてもAIの責任であり、人間には責任が一切ないということですからね。

AIの従順な下僕としての人間状態になりますので、これはAIを使っているのではなく、AIに使われている状態です。

避けたい状態ですよね。

AIの答え合わせにより新しい知が得られる

もしかしたらではありますが、AIが出した答えの恩恵にあずかるよりも、AIが出した答えの根拠を解きながら、新しい解法を見出していくという、新しい知を得る事が人間の次の進歩なのかな・・・とも思います。

今までは常識と思っていた解法よりもスマートなものが見つかったり、更にバージョンアップした考えが生まれたり。

そのキッカケやヒントをAIが出してくれるのかな・・・と。

そういう進歩を経てAIと人間が上手に融合する未来が来るのかな・・・と思っていて、そこに行くのはまだまだ先なのかな・・・と思っています。

AIの判断の責任を企業が持つという事は、人間の理解力の範囲でしかAIは活用されないという事でもあると思いますから、人間の平均レベルが上がらないことにはAIによって世の中が変わる事は無いのかもしれません。

とはいえ、そんな未来予想図は学のない一個人の僕が出したただの思い付きレベルの発想。

AIなら、今までの僕の書いてきた内容を一気に根底から変えるような新しい視点での何かを締めの言葉としてただき出してくれるんだろうな・・・。

とか思ったり。

そんなAIと人間の関わり方は、”責任の所在”が人間にあると明記され、徹底される流れになりそうです。

 

AI原論 神の支配と人間の自由 (講談社選書メチエ)

AI原論 神の支配と人間の自由 (講談社選書メチエ)