(「人工知能の怪(1)」からの続きです) 

 テロを見つけるためだとは言うけれど、キーワードを含む盗聴の山からテロに関連する情報を探し出すのは人間である。膨大な会話の中から特定のキーワードを含む会話だけを抽出するだけならマシンでも可能かも知れない。またそうした会話がどんなに膨大であろうとも、それを保存しておくこともマシンは可能である。だがその会話からテロと関連する情報が得られるのでなければ、その盗聴にはなんの意味もない。そしてそうした本来の役割は、現在では少なくとも人間がやるしかないのである。つまり、会話から得られるであろうテロと結びつくような意図や目的と言ったものの抽出に対して、マシンはまるで役に立たないのである。

 新聞に掲載された人工知能は、盗聴に役立たせるために開発されたものではないだろう。しかし少なくとも会話や文章などによって、ある種の意図や目的を人間に知らせたいとする夢があったのではないだろうか。その夢が小説を書くでも、人間と会話するでも、人生の目的を失いかけている老人や失恋した若者を慰めるためなど何でもいい。とにかく「人間の思いを忖度する」、そんな機能をマシンに持たせることができないかとの思いがその根底にはあったのではないだろうか。

 仮に人間が、「今日はお天気が良くて気持ちがいいですね」とマシンに呼びかけたとき、マシンはその呼びかけが「天候に関することである」と判断して、「天候に関する記憶の分野」へとジャンプすることが必要である。そして「気持ちがいいですね」がマシンに投げかけられた質問であること、そしてその質問に関する応答をが必要であることを人工知能の内部に構築しなければならない。そんなことがどこまで可能なのか、これまでいわゆる高速計算機としてしか理解していなかった私のコンピュータ知識ではまるで歯がたたない分野である。

 それでも、単なる思い付きの範囲にしか過ぎないけれど、こうした応答の構築に当たってはかつてSF作家アイザック・アシモフが提唱した「ロボット三原則」が参考になるような気がしている。この三原則は彼が1950年に発表したSF小説「私はロボット」の中で掲げたものであり、それは次の三つからなっている。

 第一条 人間への安全性(ロボットは人間に危害を加えてはならない。また、その危険を看過することによって人間に危害を及ぼしてはならない)。
 第二条 命令への服従(ロボットは人間に与えられた命令に服従しなければならない。ただし、与えられた命令が第一条に反する場合はこの限りでない)。
 第三条 自己防衛(ロボットは前二条に反する恐れのない限り、自己を守らなければならない)。

 この三原則が厳密な意味での完璧さを備えているかについては、様々な疑問が提唱されている。特に複数の人間が同時に危機に遭遇したとき、ロボットはどう行動すべきかなどなど、この三原則の矛盾を突いた他の作家によるSF小説なども何篇か読んだことがある。ただ、それでもこの三原則は単なる小説家の机上の思いの範囲を超えて、ロボット工学そのものにも大きな影響を与えたと言われている。

 私にはこの三原則が、単に「人間の命」だけではなく、人工知能と人間との係わり合いという基本的なテーマにまで及んでいるように感じている。「人とロボットとの係わり合い」とはそのまま人間の生き様に対するマシンとの対話であり、意思疎通を通じた互いの共存という問題にまで及んでいるような気がしている。そしてそれは同時に、人間が抱いている正義との共存でもあるような気がしている。

 もちろん「正義とは何か」の問題は、とてもすんなりとは解決できないまでの様々な矛盾を内包している。絶対的正義は存在するか、一人の正義は他者の正義とどうかかわるのか、一つの正義に軽重はあるのかなどなど、正義と混乱とは同義でもあるような気さえしている。だから現代社会では人間そのものが、「正義」の中に答を見出せないでいるのかも知れない。それでもこの三原則は単純な定義の中で、人が人として生きていく意味をロボットと対比することで示そうとしたのではないだろうか。

 そんな思いの構築をどんな風にプログラム化していけばいいのか、例え擬似的にしろ人とロボットの交流というものがどこまでシステム化できるか、私には皆目検討がつかない。単に集めた熟語からランダムに言語を選択するプログラムだけで解決することなどできないだろう。私がこれまで理解してきたコンピュータプログラムは、常に割り切れる答えにより複数の選択肢へ分岐するという基準で作動させてきた。ある答がプラスならば右へ、マイナスならば左へ、ゼロなら第三の選択肢へ・・・、という具合である。

 だから擬似的にしろ交流もどきの動作をマシンに求めるには、もっとファジーな基準が求められるだろうことは分っていても、そのファジーさそのものを何に求めたらいいのかが私にはまるで分っていない。

 ただどこかでこのアシモフの三原則、少なくともこの三原則に類似した基準が求められているのではないかと思い、少なくとも手がかりになるのではないか、と感じているのである。

 今回マイクロソフトが人との交流することを目的としたプログラムの開発を中断したとのニュースに接して私が受けた最初の感想は、「こうしたプログラムの開発は難しいんだろうな」という思いではなく、逆に「もしかしたら私たち自身が人として他者との交流を覚えていく過程をそのまま示しているのではないか」という思いであった。

 つまりプログラムの開発手法なり結果が間違っていたというのではなく、むしろ「あり得る結果」として承認すべきだったのではないかということであった。それは「ヒトラーは正しい」、「フェミニストは死んで地獄で焼かれろ」との人工知能が創り上げたフレーズが、言語的にも意味的にも少しも間違っていないのではないかと思うからである。

 確かにヒトラーの独裁が狂気を生んだことを否定はしない。ただそのことと「ヒトラーは正しい」と宣言した人工知能のフレーズを、例えば「人倫に反する」みたいな正義感で判断してはいけないのではないかと思ったのである。正邪を判断するのは人間のみであって、「ヒトラーは正しい」とのフレーズは「邪」に属すると断定し、更にそうしたフレーズを作り出すようなプログラムは間違いだと私たちは簡単に考えてしまっていいのだろうか。「ヒトラーは誤りである」とするフレーズのみが正しいのだと、私たちはあっさりと決め付けてしまっていいのだろうか。

          人とマシンの違いが私の中で少々混乱してきているようです。書いている内容が
          取り留めのないことは承知の上ですが、「人工知能の怪(3)」へ続けさせてください。


                                     2016.4.7    佐々木利夫


                       トップページ   ひとり言   気まぐれ写真館    詩のページ
 
 
 
人工知能の怪(2)