前回はAIについて、バックアップと不死にまで話が及んでしまった(別稿「カーテン開けて」参照)。

 考えていくと、AIには様々な問題点が出てくる。単なるカーテンの開け閉めだけなら、別にAIまで持ち出す必要はない。音声認識装置とモーターを連結させるだけで足りると思うからである。

 ところで現在のAI機能は、ディープラーニングというプログラムで構成されていると聞いている。だがこのデイープラーニングなるシステムは、判断された思考経過をAIも私たちも追跡できないと言われている。つまりAIの判断はブラックボックスで、中味を追跡することなど誰にもできないと言うのである。どんなに優秀で結果が正しいと思われる判断であっても、AIは自らの思考経過、つまりどのようにしてこうした結論が出されたかを示すことができないと言うのである。

 「信用」については前回でも触れたけれど、そんな追跡不能な人工知能の判断を、私たちはどこまで信用できるだろうか。例えばAIが裁判を担当し、判決を下す場面を考えてみよう。まず主文が読み上げられ、ついで判決文が述べられることになる。

 主文は裁判の結論であるから、AIの最も得意とする分野である。どんな裁判官の判断よりも、公平で公正で信頼できる主文が読み上げられることだろう。何たって、AIとはそうしたものなのだから・・・。

 ところが、判決理由に入ったとたんに、その雰囲気は一変する。事実関係などは述べられるかもしれない。だが、判決に至る経過はまるで説明できないことになる。

 AIの登場する裁判所の構成、つまり裁判官、検察官、被告人、傍聴人などの参集する法廷がどのようなるか分からない。しかし、判決理由を述べるAI裁判官のこんな音声が聞こえてくるような気がする。声すらなくて、単にスーパーのレジのペーパーのような印刷文字かもしれないけれど、こんな風景である。

 「主文、被告人を死刑に処す」、「理由、私は○○テラバイト、××ピコバイトのAIです、この判決に間違いはありません」。もしくは、「私は間違うことのない人工知能です」。

 こんな判決理由に、私たちはどこまで納得できるだろうか。確かにAIは優秀かもしれない。AIは間違わないのかもしれない。でも主文に至った経過を一言も説明できず、またその経過を追跡することもできないブラックボックスの結論を、私たちはどこまできちんと受けとめることができるだろうか。

 もちろんそれは現在のAIにおけるディプラーニングというプログラムシステムの責任に過ぎないと言われるかもしれない。AIそのものは、これから理由が追跡できるように進化すると言われてしまうかもしれない。それでも、現在は経過を追跡できないと言う問題点は、少しも解決できないでいる。私にはむしろ、ブラックボックスであることに、AIの本質があるのではないかと思え、追跡できるような進化は不可能のように思える。

 さて、問題はブラックボックス性にあるだけではない。人間は失敗から学ぶことで進化してきた。失敗は成功の元とか、危機管理手法の開発など、人は失敗を修正することで将来の危険を回避する手段なり方法を探ってきた。

 それは、誤解を恐れずに言うなら、危機回避によって得られる利益の方が、失敗によって失う損失を上回ると考えられていたからである。犠牲による被害よりも、次の事故を回避したり軽減したりするほうが、トータルとして人類の利益になると考えたからである。

 ところが現代社会のシステムは、人間のコントロールを超えるまでの進化を遂げている。仮に原子力発電所の管理をAIに委ねるようになったとするなら、そこには「失敗から学ぶ」という私たちの経験則は、何の役にも立たないことくらい、すぐにも気づくだろう。

 なぜならその失敗は、数万人の人の死であり、一つの町や集落の永久的な破壊であり、もっと言うなら一つの国の消滅までをも意味するかもしれないからである。失敗は最終的な失敗となり、やり直しであるとか、次回の危険の回避などまるで無意味になってしまうことだって起きうるからである。現代社会の進化は、「一度の失敗たりとも許されない」ところまで、既に来ているのである。

 そしてAIの管理は、「カーテン開けて」や「明かりを点けて」、「テレビを消して」などの身近な範囲をあっさりと超え、防衛や経済予測などなど、グローバルな方面にも広がろうとしている。

 こんな風に考えてくると、「社会の進化」と「AIの判断」の競合というか優劣というか、人間の愚かさとの境界が少しずつ分からなくなってくる。

 AIも人類も共に理解すべき、「普遍的な倫理」みたいなものがどこかにあるのだろうか。もしくは、「進化をストップさせる仕組み」みたいな発想が、どこかで普遍的に存在するのだろうか。

 もしあるとするなら、それはプログラムなのだろうか。超人的な「神の領域」を求めるものなのだろうか。そしてそれはつまり、AIに神を学ばせることを意味するものなのだろうか。AIはそのとき、どうやって神を学ぶのだろうか。学ぶこともまた、製作者の意図したプログラムによらざるを得ないのだろうか。

 それともAIは自らを律するプログラムを、自力で開発していけるのだろうか。開発していくのだろうか。それがAIの進んでいく道なのだろうか。


     AIが自ら学ぶことの意味が分からなくなってきました。「倫理とAI」に続けます。


                               2019.7.10        佐々木利夫


                   トップページ   ひとり言   気まぐれ写真館    詩のページ
 
 
 

人工知能とブラックボックス