「人工知脳の怪(2)」からの続きです。

 若い頃からSF小説に凝っていたせいか、私はマシンと人間との交流というものにそれほど違和感を覚えなくなってきている。だからマシンに「人の思い」みたいな性能を組み込むことにもそれほどの抵抗感はない。

 そうした思いに至る原因の一つは、「人工知脳」という言葉自体の中にあるのかも知れない。つまり「人工知能を作る」という発想の中には、「人工」であることと「知能」であることの融合が示唆されているだろうからである。そしてそれはそのまま、人がマシンに対して人格の付与たる「自分で考えろ」という行動を期待していることにある。

 そうした考えが一種の自家撞着に陥っているだろうことを否定はできない。だが仮にそうした考えが許されるとするなら、知能を組み込むという発想自体が「ある方向への誘導」になっているのではないかとの思いにも同時につながってくる。もちろん設計する者からはそうした組み込みが「正しい方向への誘導である」こと、そして「そうした誘導を教育というのだ」との意見、そして更に「そうした方向が人としてのあり得べき指針に基づくものだ」という反論がなされるであろうことは百も承知である。ただそうだとするなら、組み込まれる指針みたいな方向そのものが、あらかじめ定められた「神が決定したもうた意思」のような思いへとつながっていくような気もしてくる。

 モーゼの十戒を挙げるまでもなく、私たちは幼い頃から親や先生や仲間や先輩など多くの先達から、「疑念なしの正義」を繰り返し教えられてきた。それは恐らく理屈抜きに「そういうものなのだ」、「それが人なのだ」、「それで社会や世界が成り立っているのだ」という思いを信じ込ませるものだった。

 ただ、そうした方向への誘導は、少し考えてみると「自分で考えろ」とする方向とはまるで矛盾するのではないかとの疑問にもつながってくる。つまりそうした誘導に影響された判断は、そのまま「言われたとおりに考えろ」、「指示通りに行動しろ」との命令と同義になってしまっているのではないかということである。

 このテーマの冒頭で「ヒトラーは正しい」とする人工知能の判断が、マイクロソフト社の研究開発を中断させる原因になったことに触れた。しかし人工知能は、ヒトラーのどんな部分を取り上げて「正しい」と判断したのだろうか。ヒトラーがエバとの間に生まれた我が子をかわいいと思っていたことは資料から分っている。そうしたヒトラーの思いを「正しい」と人工知能が解釈したのだとしたら、その判断を誤りだと解したのは疑問に思える。

 それとも「第一次世界大戦の敗戦でドイツに背負わされた損害賠償額が余りにも不当だ」とヒトラーが思い、そう主張したことに対しての判断を「正しい」と解したことだったのだろうか。それともそれとも、第二次世界大戦への戦争責任やユダヤ人大虐殺を指して、そんなヒトラーを「正しい」など判断することなど許されないとしたのだろうか。だが、当時のドイツ国民の多くが、こぞってヒトラーの主張に喝采を浴びせ、その行動を承認し、支持したのではなかったか。

 それともこれとは別に、「トータルとしてのヒトラー」が悪だと抽象的に決め付け、これに反して彼を正しいとした人工知能の判断が誤りだとして、人工知能開発を中断したのだろうか。

 こうした中断の経緯を私はまるで知らない。でも「ヒトラーの全生涯におけるあらゆる行動は100パーセント悪である」とする思いが根拠だとするなら、私にはどうしても組することはできない。仮に「オバマ大統領は正しい」と人工知能が判断したのなら、開発研究が中断されることなどなかったのだろうか。でも私に言わせるならそうした判断が、「オバマ大統領は100パーセント正しい」という意味だとするなら、それもまた間違いではないかと思うからである。

 相対と呼ぶべきか、それとも程度の問題だと考えるべきかは難しいところではあるが、私たちは間違いや迷い、混乱や打算などの中で生きていくしかない。「絶対的な正義」なんぞまさに夢想でしかなく、皆無だと言ってもいい。多様さが人間なのだと、そんな知ったかぶりのご託をここで述べるつもりはない。それでもそうした多様さを通じて人は生きていくしかない。ある判断を他者が誤りだと指弾したとしても、ある人にとってその判断は「正しい」と信じている場合だってあるのではないだろうか。

 「すべては神が決定する」と委ねてしまえるなら、それはそれで一つの解決になるだろう。だが私は判断のすべてを他者に委ねることにそれほどの信頼を置いていない。人は間違うものであり、誤りを犯すものである。そしてだからこそ人は人なのだと思っているからでもある。そして更に私は人工知能とは「人を正義へと誘導するマシン」なのではなく、またあってはならないと思っている。人工知能といえどもあくまで人と交流するための手段なのだと、私はどこかで頑なに思い込んでいるのである。

 私はヒトラーが行った様々を正しいと信じているわけではない。それでもなお、人工知能が下した「ヒトラーは正しい」との思いは、それはそれで許容し尊重すべきではないかと思っているのである。「思い」をどこまでプログラム化できるかについてまるで知らないまま、こんなことを言うのはおこがましいかも知れない。それでも仮に人工知能にそう思い込ませるような操作が人の手でなされたとしても、それでもなお私は「ヒトラーは正しい」とした人工知能の判断を尊重しなければならないと思っているのである。

 「考えてはいけない分野」、「判断してはならない領域」、「絶対的正義とされる範囲」などなど、そうした区画を作ること自体に、私は人工知能の将来に対する危惧を感じてしまうのである。

 間違い、失敗、思い込み、裏切り、嫉妬、勘違い、罵倒などなど、更には欲望や憎しみなどに囲まれて人は様々な負の場面を持っている。だがそれもまた人であり、だからこそそれが人であること証左でもあるのではないだろうか。そうしたとき人工知能に人間が持っているような負の部分を許してはならないのだろうか。それを果たして「知能」と呼んでいいのだろうか。「人工」とは、「間違いを犯さないことをプログラムすること」なのだろうか。

 プログラムを作成するのは人であり、そのプログラムが判断を下すのが人工知能のシステムであろう。だとするなら負か負でないかの判断もまたマシンに委ねてもいいのではないだろうか。人工知能は自ら学習する機能を持つとも言われている。だが「自ら学習する」とは一体何を意味しているのだろうか。そこのところに、今回疑問となった「ヒトラーは正しい」とした人工知能の判断に対する基本的なジレンマがあるように思えてならない。

 三回にも分けて書いてきたのに、結論じみたものは出せないままに終わってしまった。果たして人工知能とは何なのだろうか。自動運転の可能な車を作ることは間もなく実現するだろう。経理や金融や防衛などなど、これまで人の仕事とされていた分野へのコンピュータの介入が目の前まで来ていることも理解できる。それでもなお、人工知能とはそれだけのことでしかないのだろうかと、私は思ってしまうのである。


                               「人工知能の怪(1)」へ戻ります。


                                     2016.4.14    佐々木利夫


                       トップページ   ひとり言   気まぐれ写真館    詩のページ
 
 
 
人工知脳の怪(3)