映画『ターミネーター』に登場するようなロボットが殺人を犯した時、一体誰にその責任を問えばよいのでしょう。ロボットの製造者でしょうか、命令を下した人でしょうか、それとも、ロボット自身にでしょうか。

2015年4月9日、人権NGOのHuman Rights Watchが自律型の兵器、つまり人工知能を伴った兵器が不法な殺傷などを行った場合、誰もその責任に問われることはない可能性があるという報告書を発表しました。

In a report by the Human Rights Watch, they’ve highlighted the rather disturbing answer: no one.

The organisation says that something must be done about this lack of accountability – and it is calling for a ban on the development and use of ‘killer robots’.

報告書によると自律型の兵器が戦時中などに民間人を誤って射殺した時などは、ロボットが自律しているがゆえに直接「民間人を殺せ」と命令していない限り軍に責任を追及することは出来ないし、同様の理由によって製造者の過失を問うのも難しく、彼らを法で裁くことは出来ないとのことです。

さすがに報告書ではロボット自身の責任について言及はしていませんが、ロボットに責任があるとしてロボットを逮捕するのは変な話です。そもそもロボットが量産されていたら同種のロボットが『再犯』を行う可能性があるので一体のロボットを逮捕(あるいは廃棄)したところで問題の解決にはなりませんしね。

ワタシヲ逮捕シテモ第二、第三ノ私ガ…。

image by

©Orion Pictures

自律型のロボットは未だに実現がしていないのでこれらの懸念はただの杞憂かもしれませんが、報告書では以上のような理由によって先見的に自律型の兵器を禁止するよう呼びかけています。

たしかに責任追及も出来ない兵器など無い方が良いに決まっているし、そもそも兵器など無いに越したことはありません。Human Rights Watchの報告は非常に人道的なものに思えます。

しかし、自律型の兵器とは、一体どこからどこまでを指すのでしょう。さすがにT-800のようなロボットは「人間抹殺用アンドロイド」と銘打っているので自律型の兵器と呼ぶことが出来ますが、ベイマックスのような看護ロボットはどうでしょう。彼は人を殺す意志などは持っていないでしょうが、何かの拍子で故意に人を傷付けたり殺めたりする可能性がないとは言えません。その場合もやはり誰かに責任を追及することは出来ません。

さすがにベイマックスを兵器と呼ぶことは難しいかもしれませんが、犯罪を起こしてしまった時に責任を追及出来ないという点では、ベイマックスもT-800と同じように危険な存在として禁止されてしまう可能性があります。そうなるとベイマックスのみならず、アトム、ドラえもん、R2-D2といった個性豊かで愛らしいロボットたちが、生まれる前からその存在を否定される可能性があるわけです

はっきりいって、これは由々しき事態です。どうにかして安全で危険性がない人工知能のシステムを考えるのが喫緊の課題と言えるでしょう。

そのようなわけで、人工知能を禁止されぬよう、完全に安全なロボットを実現するための方法を少し考えてみようと思います。

危険なロボット

image by

©藤子・F・不二雄プロ/小学館

ロボット三原則

SF小説家のアイザック・アシモフが考案した「ロボット三原則」というものがあります。

これは小説『われはロボット』内で登場した、人間がロボットを利用するにあたりロボットが人間を殺害したり反乱を起こしたりする事態を回避するために作られた、1950年に初めて登場したにも関わらず現在のロボット工学にも多大な影響を与えている非常に枢要な原則です。

ロボットが人間の殺害を回避する。まさに安全な人工知能を作るためにある原則です。

われはロボット

image by

©早川書房

早速そのロボット三原則がどのようなものなのか見てみようと思います。

・第一条 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
・第二条 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
・第三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

なるほど。

ロボットは人間を守りましょう人間のいうことを聞きましょう自分自身を守りましょう、というこれ以上にないくらい非常にシンプルでわかりやすい原則です。特にこの第一条さえ守れていればロボットの安全性は担保されるわけです。ロボット三原則はかなり完璧な原則に見えます。

しかし実際には『われはロボット』の作品内では割と簡単に人がロボットのせいで死にかけたり害を被ったりします。ロボット三原則が適用されているにも関わらずです。なぜなのでしょう。

答えはいくつかあると思いますが『誰かを傷付けないようにした結果、また別の誰かを傷付ける可能性がある』というものが一番の理由でしょう。簡単にいえば、ロボットがAさんの会社を手伝い大きな利益を出した時、ライバル会社であるBさんの会社は損益を出し、場合によっては会社が潰れBさんの会社の社員達は全員路頭に迷うという事態が起こりうるという話です。もちろんこの場合ロボットに直接的な責任があるとはいいがたいですがロボットが人間に危害を与えていることはたしかです。

この問題はフレーム問題と呼ばれる『有限の情報処理能力しかないロボットには、現実に起こりうる問題全てに対処することができない』という人工知能の実現の困難さを示した人工知能分野での重要な問題に属するものです。今回の問題で言えば「なにをしたって誰かを傷付ける可能性がないと言い切ることは出来ない。もし可能性がないと言い切れるロボットが現れたとしたらロボットは未来過去、宇宙の果てまで全てを理解している」ということです。そんなロボットがいるわけないですよね。

フレーム問題とは
現実世界で人工知能が、たとえば「マクドナルドでハンバーガーを買え」のような問題を解くことを要求されたとする。現実世界では無数の出来事が起きる可能性があるが、そのほとんどは当面の問題と関係ない。人工知能は起こりうる出来事の中から、「マクドナルドのハンバーガーを買う」に関連することだけを振るい分けて抽出し、それ以外の事柄に関して当面無視して思考しなければならない。全てを考慮すると無限の時間がかかってしまうからである。つまり、枠(フレーム)を作って、その枠の中だけで思考する。
だが、一つの可能性が当面の問題と関係するかどうかをどれだけ高速のコンピュータで評価しても、振るい分けをしなければならない可能性が無数にあるため、抽出する段階で無限の時間がかかってしまう。– Wikipedia フレーム問題

どの道を行けば人を傷付けずに済むのか……。

image by

Getty Images

そもそもにしてロボット三原則は「ロボットは人間に危害を加えてはならない」という言葉の制約でしかないので人間に危害を与えないようにロボット三原則を適用するというのは「ロボットが人間に危害を加えないためにロボットは人間に危害を加えない」という当たり前の事実にしかならないのです。

ロボット三原則はシンプルで重要な原則ではありますが、シンプルすぎるがゆえに実現が難しいようです。

現実的な安全なロボットのシステムを考える

話が少々極端な方向へ飛びすぎた感がありますね。では、もっとロボット三原則に従いながら直接的に人に害を与えるような技術、道具だけを取り除くというのはどうでしょう。早速考えてみようと思います。

まずはデザインから。不要な突起物などは危険です。安定感からいっても丸型がよいでしょう
次に武器を持たないこと。これは大事なことですね。武器といわないまでも悪用したら人を殺しかねない道具も無い方がいいでしょう。スモールライト、ビッグライトなんかはかなり危険です。どこでもドアも太陽系外までワープさせることが出来るので危険です。そもそもにして四次元ポケットという得体の知れない存在自体、無い方がいいでしょう

重量も大事です。小さな子供が誤って潰されてしまうことの無いよう、きちんと軽量化しておくべきでしょう。そのように考えていくと、安全な人工知能は四次元ポケットを持たないミニドラかハロくらいしかいないということになります。それはそれで可愛らしいのでいいかもしれませんが、愛玩用程度でしか人工知能と関われないのは少々寂しい気がします。

ミニドラ

image by

©藤子・F・不二雄プロ/小学館

ハロ

image by

©SUNRISE Inc.

そう考えていくと、やはり『安全』なロボットだけを作るというのは難しいのかもしれません。先に述べたようにロボットに責任を取らせることが出来ない以上、何か罪を犯した場合、人間がその責任を負うべきなのでしょう。そうなった場合、人間はロボットが犯罪を起こさないよう常に監視を怠ることなく、いつでも機能を停止出来るようにしておき、見えない鎖のようなもので繋いでおく必要があるでしょう。

しかし、自らが責任を取ることがなく常に生殺与奪権を誰かに握られている人工知能というものは、本当に自律的な存在といえるのでしょうか。

『われはロボット』を原作にした映画『アイ,ロボット』の舞台は2035年、あと20年しかありません。私たちは人工知能が生まれ、マンガの中でしか見ることが出来なかったロボット達が実際に現れるようになるまでに、彼らが伸び伸びと暮らしていける社会を作る準備を始めておくべきかもしれません。