小説が読める!投稿できる!小説家(novelist)の小説投稿コミュニティ!

二次創作小説 https://2.novelist.jp/ | 官能小説 https://r18.novelist.jp/
オンライン小説投稿サイト「novelist.jp(ノベリスト・ジェイピー)」

安全装置~堂々巡り②~

INDEX|1ページ/33ページ|

次のページ
 

 この物語の根幹となる基準のお話に似たようなものがございますが、あくまでもこのお話はフィクションですので、作者の創作としてお楽しみください。

                 第一章 特別症候群


 二〇八四年の年が明けようとしていた。河村義之はこの年、三十歳になっていた。大学でロボット工学を勉強し、それまで不可能とされてきた「ロボット工学基本基準」を網羅したロボットの開発に一石を投じたのだ。
「ロボットと人間の脳の共有ができれば、ロボットが無限ループに入り込むこともなく、動作できる。ただ、そこで問題になってくるのは、『ロボットが意志を持ったら?』という発想が残りますが」
 と、義之が自分の考えを述べると、
「ただ脳の共有だけでは難しいかも知れませんよ。それも、今の科学ではさすがにそこまでは難しいですね。河村君の発想は、今の段階では仮想でしかないですね」
 と、ロボット工学の教授が言った。
 確かに、二〇八四年時点の科学は、ロボット工学に関して言えば、まだまだ発展途上であり、何よりも研究が遅れている。その一番の原因は、研究者の絶対数が少ないのだ。理由としては、ロボット工学基本基準を絶対の基本とするならば、電子頭脳に基本基準を搭載させたロボットは、
――「無限ループ」に陥って、動かなくなる――
 という定説が、遠い昔からの伝説として根強く息づいているせいだった。
 搭載が不可能とされた理由、それは、
――思考回路には限界がある――
 ということだった。
 ロボットが人に与えられた命令を実行するには、それ以前の前提として、いかなる理由があるにせよ。人間に危害が加わってはいけないという大原則がある。そのため、ロボットは、自分の中であらゆる可能性を考えなければいけない。
 その中には、その時に必要な考えなのか、まったく関係ないことなのかを、瞬時に見分けなければいけないだろう。
 だが、何が必要で、何が不要なのかということも、可能性から考えて無数に存在する。どちらに転んでもロボットの思考回路では、判断できるものではないのだ。
 それを、「フレーム問題」というが、その問題も、百年以上も前からある発想だった。
 だが、人間はその判断を一瞬にして下すことができる。自分で考え、自分で行動できるのだ。
「この場合の不要なことというのは」
 などと考えることもなく、スムーズに判断している。判断しているという意識がないのは本能によるものなのか、そうであれば、ロボットよりも獣や動物の方が、より人間に近いということになる。
 この時代になってロボット工学の研究が進んでいない理由の一つとして、ロボット工学基本基準が、人間に対しての「安全装置」であるなら、その理由は人間に対しての「パンドラの匣」と言っていいだろう。そう、どうして研究が進んでいないのか、
「それは、ロボットが自らの意志を持つことを恐れている」
 ということからであった。
 それまで意志を持っていなかったものが、意志を持つようになった時、最初に考えることは、
「自分がどうして、ここにいるというのだろう?」
 という、自分の存在意義ではないだろうか。
 その時に必ず引っかかってくるのは「ロボット工学基本基準」で、意志を持ったとしても、その基本基準が絶対的に有効であるなら、ロボットにとって、これほど辛いことはないはずだ。
 中には、そのせいで考えがまとまらず、考えることがキャパをオーバーしていたら、きっとショートして、使い物にならなくなるかも知れない。使う側の人間に、ロボットの意志など伝わるはずはない。
「何しろロボットは、俺たちが作り出したんだからな」
 という、ロボットに対しての絶対優位性を持っているからだ。
 そういう意味では人間ほど、他の生物やロボットに対し優越感を持っていて、自分たちが中心で地球が回っていると真剣に信じているものはいないだろう。
 それをエゴというべきなのか、確かに人間が文明を作ってきたのだが、それは人間の側から見ての優越感であり、他の生き物やロボットから見れば、そんな人間はどう映っているのだろうか。きっとロボットは、自分たちを作ったのが人間などということは信じないに違いない。
 ロボットと人間の脳を共有などということは、確かに時期尚早なのかも知れないが、発想として不可能ではない。それを証明しなければならないわけだが、最初に義之が目を付けたのは、「死者の脳」だったのだ。
 死者の脳と言っても、完全に死んでしまった人の脳を使えるわけはない。心停止した人間の脳をロボットに移植するというものだった。
 もちろん、この時代にも心停止に対して、どこまで医学的に利用できるかというのは、論議の元だった。人道的見地からも難しく、ひょっとすると、二十一世紀に比べても、さらに厳しくなっているのかも知れない。
 二十一世紀から二十二世紀になるまでの変化で大きなものは、ロボットの出現と、それに伴う人間の存在意義との関係だった。
 ロボットの出現によって、人間は飛躍的に労働から解放された。
 しかし、その反面、今まで人間がやってきた作業をロボットに任せることによって、大きな雇用問題に発展した。
 もちろん、その問題も分かっていたはずなのだが、ロボット開発に比べて、問題解決への進展は遥かに遅かった。ロボットが普及してくると、どの企業もロボットを採用するようになり、人間を雇うよりもコスト面でいくらでも削減できるようになった。
 確かにロボットには壊れるかも知れないという危険性はあったが、人間のようにわがままも言わなければ、無理も効いた。要するに、ズル休みやサボるという観念がない。しかも、疲れを知らないので、残業をものともせず、何よりも労働条件をあれこれ文句を言う労働組合のようなものも、ロボットにはなかったのだ。雇用する側とすれば、これほど楽なものはない。
 さすがにまだ二十一世紀には、ロボットと言っても、単純労働を繰り返すだけのものしか存在していなかったが、二十二世紀になると、
――自分で考えて行動する――
 というロボットが開発された。
 スキルもバラバラだった。
 いや、正確に言えば、最初に製造され、各々の適材適所に配置されてからが変わってくるのだ。彼らは、
「成長するロボット」
 だったのだ。
 自主的に行動できるロボットではあったが、それでも、まだ彼らは意志を持つことがなかったことが、ロボットが人間に使われる側である証拠でもあった。
 もちろん、ロボットが意志を持つことによって、人間にどのような災いをもたらすかということは昔から分かっていたことだった。
「ロボット工学基本基準」も、その観点で作られている。
 もし、ロボットが壊れたり、劣化したことで、人間に危害を加えたり、反乱を起こしたりしないようにするための「安全装置」を、最初から埋め込んだ電子頭脳が、彼らの暴走を抑制する力を持っている。
 ロボットというのは、どれほど人間によって抑制されているかということを知らない。ロボットにとってそれが幸せなのか不幸なのか、誰にも分からない。
「俺たち人間だって、何が幸福で何が不幸なのかなんて分かりっこないんだ」
 というのが、義之の考えでもあった。