Categories
Technology

スーパーインテリジェンス:超絶AIと人類の命運

本書はスウェーデン哲学者ニック・ボストロムによって書かれた本である。彼はオックスフォード大学の教授であり、「Future of Humanity Institute」の創設ディレクターでもある。私たちは皆、未来に胸を躍らせるが、同時に未来に訪れる危険への恐怖も抱いている。人工知能が私たちの生活を豊かにし、よりスマートな世界が実現することは間違いないが、その結果はすべて人間次第である。著者は、AIの発展がもたらす機会と潜在的なリスクを探る。また、機械が人間の知能を凌駕し、人類を脅かす可能性さえあるという仮想的な未来シナリオも提示している。スーパーインテリジェンスを考えるとき、ポジティブな側面や可能性は無限にあるが、同時に懸念もたくさんある。

人類は何千年もの間、さまざまな試練を乗り越えてきたが、最大の試練はまだ目の前にある。自分たちが生み出したAIに滅ぼされないようにするにはどうすればいいのか?著者は、スーパーAIの開発が起こしうるシナリオと、その結果を仮説を立てて細かく提示している。エンジニアはAIの開発に熱中するだろうし、権威あるリーダーはAIによる完全支配の可能性を楽しむかもしれない。本書の内容は知的刺激に富み、示唆に富んでいる。

人間は抽象的思考という比類なき能力を持ち、コミュニケーション能力と情報を共有する能力を持っている。私たちの知性は、人間をトップに押し上げ、何千年もの間、地球を支配してきた。人間よりも知的に優れた新しいシステム/機械の出現は、世界にとって何を意味するのだろうか?スーパー知的機械は、我々が知っているような世界に根本的な変化をもたらすだろう。AIはすでに、人間から提供された情報を使って学習し、推論する能力を持つ機械を作ることができるようになっている。

1997年、IBMディープ・ブルーというスーパーコンピューターが、チェス世界チャンピオンに君臨していたガルリ・カスパロフを破った。これは、人工知能と機械学習の発展における大きな節目を象徴する出来事だった。ディープ・ブルーは数秒のうちに何百万もの可能性のある手を分析し、それに応じて戦略を適応させることができた。医療診断から金融分析まで幅広い用途でAIと機械学習の可能性を示し、人間とスーパー知能マシンの関係についての議論に火をつけた。

現在では、AIの進歩はディープ・ブルーのような特定分野の能力をすでに超えている。 Open AIChatGPTや、LaMDAの後継となったPaLMに基づくGoogleBardのような、さらに強力なLLMの出現により、AIが人間の生活の様々な側面に革命をもたらす可能性は無限に広がりつつある。

しかし、これらは人間が持っている一般的な知能には程遠く、何十年もの間、AI研究の目標となってきた。人間の干渉を受けずに自ら学習し行動できるスーパーAIマシンを構築する人工知能に関しては、まだ何年も、あるいは何十年も先の話かもしれない。しかし、著者は、AGI分野の進歩は急速に進んでおり、我々が考えているよりも遥かに早い、と書いている。このような機械は大きな力を持ち、人間の生活に大きな影響を与えると予測されているため、人間が制御できない危険性も持っている。

計算モデル脳のエミュレーション集団強化。他のテクノロジーもあるが、この本ではこの3つが強調されている。

最近、計算モデルや機械学習、大規模言語モデルの利用が話題になっている。コンピュータ・ビジョン、音声認識、予測モデル、顔認識などのAIは、この分野での次のステップというのは、これらの技術を動かすハードウェア能力をスケールアップさせることであることを示している。

イーロン・マスクブレイン・マシン・インターフェイスニューリンクに関するニュースも目にするようになった。著者は、実際の脳をスキャンし、その特性のほとんどをデジタル信号に変換するフルブレイン・エミュレーション・プロセスについて論じている。これによって、脳のスケールアップが可能になり、デジタル・マシンの計算周波数が格段に高くなることと相まって、意識がより高速に作動するようになり、スーパーインテリジェンスにつながる。

最後は集団強化であり、人類の知性を向上させるプロセスである。これは、教育、コミュニケーション・インフラ、そしてインターネットを通じて高度に利用可能となった知識へのアクセスの有効性を高めることによって可能となる。

一度超絶AI装置/ユニット/システムを構築することができれば、スーパーインテリジェンスの爆発的な急増を止めることはできない。システム自身のコードに対する急速な反復と、短期間での大規模な改良は、我々が開発したシステムが、人間の価値観を一切無視することなく、我々を凌駕し、自らの目標を実現する方法をすぐに見つけることを意味する。その結果、そのようなシステムは超高速で発展し、単一化を形成することになる。超絶AIマシンは、おそらく人間の労働力の大部分を置き換えるだろう。

このスーパーAIを創造する過程で、人類を完全に滅亡させるような目標をプログラムしてしまうかもしれない。結果は私たちが本当に意図したものではなくなるかもしれないが、超絶AIは私たち人間からの命令を悪い方向に解釈することだって考えられる。AIが認知能力を高め、ある問題を解決するために地球を巨大なコンピューターに変えることにしたらどうなるだろうか?その過程で人類を消滅させることさえ考えられる。AIは仮想環境で人間の意識をシミュレートすることもでき、その意識は非人道的な方法で扱われる。これは物理的な現実ではないかもしれないが、そこから得られる感情や経験は、直接のユーザーにとっては主観的に現実となりうる。

超絶AIがもたらす好ましくない結果について、そのような意味や結果を考慮することは重要である。そのためには、超絶AIが資源にアクセスするのを制限するなど、様々な方法が考えられる。LLMを中心とする様々な企業による最近のAI開発は、そのような制御の好例であるが、制御メカニズムが政治的に傾斜していたり、そのAIを構築している企業や国に有利であったりする可能性もあるため、議論の対象となる。

著者は、スーパーAIが開発される前に安全が最優先されなければならないと主張する。最悪の場合、人類は滅亡してしまうかもしれない。これらのテクノロジーを安全なものにするためには、野放図な進歩よりも安全を第一に考えるべきである。

楽しんでいただけただろうか。ここまでお読みいただきありがとうございました。それでは、また次回。

Leave a Reply

Your email address will not be published. Required fields are marked *