小説が読める!投稿できる!小説家(novelist)の小説投稿コミュニティ!

二次創作小説 https://2.novelist.jp/ | 官能小説 https://r18.novelist.jp/
オンライン小説投稿サイト「novelist.jp(ノベリスト・ジェイピー)」

無限の可能性への冒涜

INDEX|4ページ/25ページ|

次のページ前のページ
 

 というのだった。
 そこで生まれたのが、
「ロボット工学三原則」
 という発想であり、さらに、ロボット開発の最大の問題として考えられているのは、
「フレーム問題」
 と言われるものであり、それが解決しないと、人工知能を持ったロボットが、最低限必要とされる、
「ロボット工学三原則」
 を守ることのできないものになってしまうという発想である。
「フレーム問題」
 と呼ばれるものが、相対的に、異次元といy発想にあるのであり、ここに、
「無限」
 という発想が絡んでくるのである。
 異次元の場合もフレーム問題の場合も、無限という発想は、
「可能性」
 という問題であり、逆に、可能性だからこそ、無限に広がるものなのだ。
 ここでいう可能性というものが、不確実なものだといえるのかどうか、曖昧な発想をいかに紡げるかというのが、時系列での発想となるのではないだろうか。

               前門の……、後門の……

 ロボット開発において、
「ロボット工学三原則」
 と双璧を担う難しい問題は、
「フレーム問題」
 と呼ばれるものである。
 フレーム問題とは、タイムマシンの次の瞬間の可能性から、過去を変えることの危険性を予見することと、発想は似ている。同じだといってもいいかも知れない。
 ロボットにおける人工知能というものを、コンピュータとして、ロボットに組み込んだとしよう。
 たとえば、人工知能を持ったロボットに、
「穴の中に燃料があるから、それを持ってくるように」
 と命令したとしよう。
 しかし、その下には、燃料の入った箱を浮かせると起爆装置が入り、爆発するという装置が施されていた。
 その装置の仕掛けはロボットの知能の中には入っていた。それでも、ロボットは、その箱を動かして、そのまま、爆発して果てたのだ。要するに、
「箱を浮かせると爆発するという知識はあったが、ロボットの頭には命令を素直に実行するということが最優先で、予見ができていなかった」
 と言えるだろう。
 そこで、次のロボットには、
「予見する能力」
 を組み込んだものを二号として製作し、同じようにロボットに行動させようと考えたが、今度はロボットは、装置を見た瞬間、まったく動けなくなってしまった。
 ロボットは、どうすれば、箱を動かしても、爆発しないかということを考えたから動けなくなったわけではない。ロボットの人工知能にある、思考能力のログを解析してみると、そこには、まったく関係のないことが、高速で考えられていた。
 それは無限に広がる可能性を一つ一つ拾い集めているかのようだった。
 そう、ロボットは、
「次の瞬間に広がった無限の可能性を、一つ一つもれなく考えようとしていた」
 ということであった。
 つまり、ロボットには、人間であれば容易に考えられる、
「その場において、必要な考え、不要な考え」
 というものを整理することができないのだ。
 それは当たり前と言えば、当たり前尾ことで、人工知能には、その場における、
「考えなければいけないこと」
 であったり、
「考えるべきこと」
 というのが、当て嵌められていなかったのだ。
 人間であれば、普通にできる条件判断のようなことも、人工知能ではできないのだ。無限の可能性を、考えられることすべてに当て嵌めてしまうので、どれだけ時間があっても、どれだけの処理スピードが優秀であっても、無限である以上、解釈も無限なのだ。
 つまり、
「無限は、いくら何で割っても、無限しかないのだ」
 と言えるのではないだろうか。
 ただ、最初に考えられたこととして、
「それぞれのパターンを分析して、その分をまるで、額のようなフレームとして当てはめることはできないか?」
 というものだったが、これこそ、
「無限をいくらパターン化しても、パターンも無限にある」
 ということを考えると、不可能なことであった。
 これが、ロボット開発において、一番の難関である。
 この「フレーム問題」が解決してこその、
「ロボット工学三原則」
 なのだ。
 したがって、最初に一番の難関である問題が立ち塞がっていることから、ロボット開発は、まったく進展しない。この問題があるから、
「無限というのは、恐ろしいのだ」
 と言えるのではないだろうか。
 だが、もしフレーム問題というの解決したとしても、フレーム問題以上に、sらに問題になるのは、
「ロボット工学三原則」
 である。
 しかし、なぜそんなにフレーム問題の解決ができると思っているその根拠が何かと聞かれたら、
「人間には、フレーム問題を苦にしない」
 という頭の構造があるからだ。
 ということは、人工知能を開発する中で、すでに開発者の方とすれば、このことは理解できているだろうから、いち早く、人間の頭脳の構造を解明しようと動いている人がいるはずだ。
 しかし、それが本当に可能なのかどうか、はっきりと分からない。フレーム問題の一番の問題点を分かってから、きっとすぐに人間んお頭脳の構造までは考えが及んでいるはずなのに、それをいまだに解決できないということは、それだけ人間の頭脳の解析が難しいということであろう、
 それでも、逆を考えると、
「今は、すべてがうまくいっていないということであって、逆に一つ歯車が合えば、それまでの問題は一気に解決できるということはできないだろうか?」
 ともいえるような気がする。
「ロボット工学三原則」
 についても同じことがいえるのではないだろうか。
 ちなみに、この三原則は、
「ロボットは、人間を傷つけてはいけない。さらに、予見できる危険を見て見ぬふりをしてはいけない」」
「ロボットは、前述に抵触しない状態で、人間の命令に従わなければいけない」
「ロボットは、やはり前述伊項目に抵触しない状態で、自分の身は自分で守らなければならない」
 というのが、三原則であるが、この三原則には厳密な優先順位があり、前者ほど、優先順位は高いのだ。
 つまりは、ロボットの絶対条件は、
「人間を守る」
 ということだ。
 この優先順位がしっかりロボットの中で理解されていなければ、一切何も解決できないだろう。
 なぜなら、この三原則に優先順位がないとすれば、その時の状況によって、ロボットが考えた時、その矛盾に必ず苦しむからだ。
 例えば、ライバルを抹殺したいと思った人間の悪意から、
「ライバルである人間を殺せ」
 という命令を受けた時、ロボットは。まず命令に従おうとするだろう。
 しかし、これは、人を傷つけてはいけないという条文に逆らうことになる。優先順位がなければ、まずは命令を守ろうとするから、そう考えるのだ。
 でも、優先順位があるじことで、
「いくら命令でも、従うわけにはいかない」
 とロボットは判断し、悪意のある命令に従わなくてもよくなるだろう。
 もし、ロボットの中に、良心回路が埋め込まれていないとすれば、すべては、ロボット三原則にしたがうことになるだろう。
 そして、良心回路を作るとすれば、
「まずは、三原則を遵守するという回路の開発が必要であり、その際に、フレーム問題をも解決できる回路でなければ、良心回路というものは、机上の空論でしかないに違いない」
作品名:無限の可能性への冒涜 作家名:森本晃次