シンギュラリティ教徒への論駁の書

シンギュラリティは宗教だ!

目次

第一部 「シンギュラリティ」

  1. 序文
  2. シンギュラリティとは何か?
  3. ほとんどのテクノロジー成長は指数関数的ではない
  4. 収穫加速の幻影
  5. ムーアの法則と人工知能
    5.1. ムーアの法則
    5.2. 精神転送
    5.3. 人工知能研究と機械学習
    5.4. 全脳アーキテクチャ
  6. 知能の拡大と思考主義批判
  7. 宇宙の覚醒
  8. 予言は外れた
  9. なぜシンギュラリティは問題か
  10. 後書き

第二部 「進歩と崩壊と没落の未来史」

  1. 序文
  2. ハバートの法則と没落加速の法則
  3. 進歩教と崩壊教
  4. 没落の路

(以下構想中…)

 

本ブログは、カーツワイル氏のシンギュラリティ説と「収穫加速の法則」を批判的に検証するものです。もともと書籍の企画として執筆し始めたものであるため、序文から順番に議論を展開していますが、各エントリは独立して読めるように構成しています。

人工知能研究小史

ここでは、簡単に人工知能機械学習の研究に関する歴史を振りかえっておきます。

第一次人工知能ブーム 〜「演繹」の時代〜

近代的な人工知能研究は、広く普及している見方によれば、1956年に開催された「ダートマス会議」で始まったと言われることが多いようです。確かに、「人工知能 (Artificial Intelligence)」という用語が考案されたのはこの会議ですが、実際は計算機はそもそもの目的からして「人工の知能を実現する機械」を目指して作られたと言えます。ここには、計算機科学と人工知能研究の前史として、人間の思考と科学的な営為、その全てを「論理」へと還元することを目指した、科学と哲学にまたがる思想的運動が存在しています。

 

現代の汎用的なコンピュータの理論的基礎を築いたのは、イギリスの数学者であるアラン・チューリングです。そして、チューリングが考案した理論を具体的に実現するEDVACというコンピュータを設計したのは、ハンガリー出身のユダヤ系アメリカ人であるジョン・フォン・ノイマンです。

彼ら2人は、数学の中でも数学基礎論と呼ばれる分野の研究者でした。数学基礎論とは、端的に言えば、厳密な論理学の基礎の上に数学の全てを構築するための試みであると表現できます。数学基礎論においては、人間の直感を排除し、厳密に定義された記号と論理的 (形式的) な操作によって、あらゆる数学的な公理を基礎づけることが目標とされました。

数学基礎論の中心となったのは、現代数学の父とも呼ばれるドイツの天才的な数学者、ダーフィト・ヒルベルトです。彼は、人間の精神活動から独立した、矛盾の無い公理系から厳格に定められた論理的規則を元にあらゆる命題を導くことで、数学それ自体の完全性と無矛盾性を示そうとしたのです。すなわち、完全性とは「真である定理は必ず証明できる」、無矛盾性とは「公理に対してどれだけ形式的な推論規則を適用しても、矛盾する命題が示されることがない」ということです。

実際のところ、「数学の完全性と無矛盾性を示す」というヒルベルトの野心的な試みは、オーストリア生まれの数学者クルト・ゲーデルが証明した「不完全性定理」によって潰え、当初の目標は果たされなかったと言えます。けれども、限定された前提条件を元に、形式的な規則から数学的命題を導くという研究活動は、計算機科学やアルゴリズム研究へと発展し、コンピュータの開発へと継がっていきました。

更にその背景には、19世紀後半から20世紀初頭には、ゴットロープ・フレーゲバートランド・ラッセル、ルートヴィヒ・ウィトゲンシュタインなど、記号論理学を用いて人間のあらゆる思考を記号と論理へと還元し、その2つを用いて世界を分析することで真理へと至ろうとした哲学的な思想の潮流が控えています。

このような論理主義の時代背景を元にしてコンピュータは作成されました。実際のところ、コンピュータは単なる「計算機」ではなく、記号を規則 (プログラム) に基いて操作する論理機械であるとみなされていたのです。当時、記号操作は人間の高度な思考と同等であり、正しい規則に基いた論理的な記号操作は「思考」そのものであると信じられていました。つまり、人間の思考をコンピュータで再現することを目指す「人工知能」という研究分野が生まれたことは、ある種時代の必然であったと言えます。


最初期の人工知能研究は、一部では目覚ましい成果を挙げました。最初にも取り上げた、1956年のダートマス会議では、アレン・ニューウェルとハーバート・サイモンによって、バートランド・ラッセルの著書『数学原理』の定理を証明するプログラムのデモが行なわれています。数学的な定理の証明など、高度に知的な精神活動とみなされていたタスクをコンピュータがうまく実行するなど、驚異的な成果を目の当たりにして、多くの研究者はすぐにでも人工知能が人間の思考を超えるだろうと予想し、1960年代の第一次人工知能ブームが始まりました。
第一次人工知能ブームの時代には、探索木という方法を用いて迷路やボードゲームを解くプログラムや、限定された環境の中で人間の言語を理解し、シミュレーション中の世界で積み木を操作することができるプログラムなどが開発されています。

かなり乱暴に言えば、第一次人工知能ブームの時代とは、「論理」あるいは「演繹」によって人間の思考を再現することが目標であったと言えます。確かに、当時いくつかの画期的な成果も上がり、現在まで利用されている要素技術も開発されましたが、当初目的とされていた「人間の思考を再現する」という目標は、完全に失敗したと言えます。ごく限定された環境内であったり、ルールが明確なボードゲームに対しては有用であっても、現実の世界で私たちが遭遇する問題、たとえば病気を診断して治療法を検討したり、外国語を別の言語へ翻訳するなどの実用的で複雑なタスクに対しては、全く太刀打ちできなかったのです。

もちろんここには、当時のコンピュータの性能が限られたものであったという理由もあります。けれども、第一次人工知能ブームが失敗した最大の問題は、人間の思考はあまり「論理的」、「演繹的」ではないからという理由が大きいのではないかと考えています。

進化論の観点からは、人間の論理的思考能力はかなり最近になって獲得されたものです。また、認知科学における実験から、人間の日常的な推論は、抽象的で一般的な形式論理に沿って行なわれるのではなく、領域固有性を持っていることが示されています。つまり、それぞれの問題領域ごとの固有の知識を使って、前提を解釈したり推論を補ったりしているのです。そのため、領域が違うと形式的には完全に異なる推論をすることがしばしばあります。

考えることの科学―推論の認知心理学への招待 (中公新書)

考えることの科学―推論の認知心理学への招待 (中公新書)

 

 

また、人間が問題解決や推論をする際には、大量の事例記憶やアナロジーが重要な役割を果たしていることが分かっています。一つ例を挙げるなら、私たちが外国語を学ぶとき、文法自体は集中すれば半年から1年程度で学べるでしょうが、実際に外国語を読んだり話したりする上では、例外的な語法・用法や慣用句であったり、ものごとを表現する単語を知らないことが問題になることが多いものです。実際に、人間の言語知識は、「文法」と呼ばれる規則の体系で特徴付けられる度合いよりも、むしろ膨大な事例記憶に依存している度合いのほうが、かつて考えられていたよりも大きいということが示されています。

限られた前提と論理によって解決できる問題は、実際のところごくわずかです。最初期の人工知能研究に対しては当初の期待が大きかったために幻滅も深く、そうしてブームは下火になりました。


第二次人工知能ブーム 〜「知識」の時代〜

第一次人工知能ブームが「演繹」をもとにして人間の知能を再現するための試みであったとすれば、その後に続いた第二次人工知能ブームでは、「知識」をもとにしてコンピュータに人間らしい推論を行なわせようとしたと言えます。

1960年代に過熱した人工知能ブームが一旦去った後、1970年代後半から1980年代にかけて、「知識工学」あるいは「知識表現」という分野が盛んに研究されました。上述した通り、知的な行動や判断には、特定の領域における詳細かつ膨大な知識が関わっています。そこで、人間の専門家が持つ知識を書き出し、その知識間の関連性を何らかの形で表現することで、「論理+知識」をもとに知的な推論をするコンピュータを実現できるだろう、と考えられたのです。1980年代には、半導体素子の性能が向上し、処理速度や記憶容量の面で実用的なコンピュータ (メインフレーム) が利用できるようになったことによって、この種のアプローチが可能となりました。

第二次人工知能ブームにおいて盛んに研究されたアプリケーションの実例には、エキスパートシステムがあります。エキスパートシステムは、特定領域における問題について、専門家 (エキスパート) の代わりに質問に応えたり問題を解くことができるプログラムです。エキスパートシステムでは、人間の専門家が入力したルールを利用していました。
初期のエキスパートシステムの事例としては、伝染性血液疾患を診断するMycin(マイシン) が挙げられます。このシステムには、患者の症状など500程度のルールが記憶されており、システムから提示される質問に対して順番に答えていくことで病気の原因となる細菌を特定し、処方するべき抗生物質を提案するものです。Mycinは、感染症の専門医よりは劣るものの、一般の医師よりも優れた診断を下すことができたと言われています。(ただし、実際は誤診断発生時の責任問題から、実用はされなかったようです)

エキスパートシステムは一定の成功を収め、特定領域においては実用化も進みました。けれども、二度目の人工知能ブームにおいても、やはり「人間の知能を再現する」という目的は果たすことができず、人工知能研究は袋小路へと入ってしまったと評価できるでしょう。


人間の知識を書き下すというアプローチには、2つの問題が存在していました。1つは、前述の通り、人間の推論は厳密な形式的パターンに従っておらず、また、あいまいさや相互に矛盾する知識も含まれているため、コンピュータで扱える形式的な論理の表現とは相性が良くないからです。

もう1つの問題は、知識獲得のボトルネック (Knowledge Acquisition Bottleneck) と呼ばれる、膨大な知識を入手し表現することの困難さにまつわるものです。医療や法律など、特定の分野に限ったとしても、人間の持つ知識を書き下すことは膨大な手間とコストが必要とされます。前述の通り、知識には確率的にあいまいなものや相互に矛盾するものも含まれています。そのため、知識データベース維持には、かなりの手間と費用が必要となります。
そして、分野を限定せず、一般的な人間が現実の世界で直面する問題に対応させようとした場合には、膨大な一般常識が必要となってしまいます。それら全てを書き出すことは、もはや現実的には非常に困難です。『ポスト・ヒューマン誕生』の中でも取り挙げられているCycプロジェクトのように、人間の持つ常識的な知識を全て書き出すことを目標とした計画もありますが、このプロジェクトは開始から30年以上経過して現在でも継続されています。

人間であれば簡単に理解できる「常識的な推論」と「言語の意味理解」は非常に困難であるということが示されたことが、二回に渡る人工知能ブームの最大の成果と呼べるでしょう。


第三次人工知能ブーム 〜「帰納」「統計」の時代〜

さて、第一次と第二次の人工知能ブームの特徴を、それぞれ「論理 (演繹)」と「知識」で表すとするならば、現在まで続いている第三次人工知能ブームを表す言葉は帰納あるいは「統計」であると言えます。第一次、第二次の人工知能ブームにおいては、人間の「知能」あるいは「思考プロセス」そのものを直接再現ないしシミュレーションすることが目標に掲げられていました。けれども、二度に渡るブームの頓挫と、その反動である冬の時代の後、人間の「思考プロセス」を再現するという目標はほとんど放棄されてしまったように見えます。

その代わりに、機械学習という形で、人間の思考プロセスとは直接関係なく実用的な問題を解決する手法が注目を集めるようになりました。

機械学習

機械学習とは、「明示的にプログラミングすることなしに、コンピュータに学ぶ能力を与えようとする研究分野*1」です。コンピュータに学習能力を与えるという研究は、1950年代から60年代にかけての『古き良き』人工知能研究とほぼ同時に開始されており、当初機械学習の研究は人工知能研究の下位分野に位置付けられていました。けれども、既に述べた通り「人間と同等の思考ができるコンピュータを作る」という目標が破綻した後では、記号操作による論理や知識の実現とは離れて、むしろ統計学や確率論との結び付きを強めていきました。この背景には、1990年代から現在にかけて、インターネットの普及により大量の文章・画像・音声データ (ビッグデータ) が入手できるようになったことも挙げられます。

近年注目されているディープラーニングのように、特定タスクに対して優れた結果を出すことのできる手法も存在しています。けれども、現代の「人工知能」研究は、初期の人工知能研究のように、人間の知能そのものを実現することはもはや目的としていません。結局のところ、現在の「人工知能」、というよりも「機械学習」や「パターン認識」の手法は、何らかの制約付き最適化問題を解き、事前に定義された目的関数に従って所与のデータを分類するという、言ってしまえばそれだけの数学的技法です。

日本人工知能学会は「人工知能」に関する研究の2つの立場を区別しています。一方は、人間の知能そのものをもつ機械を作ろうとする立場であり、もう一方は、「人間が知能を使ってすること――とりわけ「推論」と「学習」――を機械にさせようとする」立場です。実際の研究のほとんどは後者の立場に立っており、直接的に知能を解明・構築しようという研究とは、研究の目的もアプローチも異なります。

現在「人工知能」として盛んに喧伝されている機械学習の技術は、ごく限定された範囲での人間の認知タスクに対応する「特化型」人工知能です。過去の人工知能研究が直面した「常識的な推論」や「言語の意味理解」という難問を迂回することで新たな成果を生んだと言えます。端的に言えば、第三次人工知能ブームは、人工的な「知能」を実現することを諦めたからこそ、有用な技法が実現したと言えます。


けれども、私は現在の機械学習技術が役に立たないものであるとか将来性がないと主張しているわけではない、ということは明記しておきたいと思います。現在広く報道されている通り、さまざまな分野で機械学習の手法は導入されています。今後もこの傾向は続くでしょう。

そして、ディープラーニングによって、画像や音声など、過去の「人工知能」がうまく扱えなかった外界の刺激をコンピュータで処理できるようになり、新たな応用分野が生まれています。また、多くの人が懸念している通り、特化型人工知能が人間の労働と雇用に莫大な影響を与えることも確実でしょう*2

けれども、最近盛んに語られているような「ディープラーニングとかいう凄い機械学習アルゴリズムビッグデータを与えて学習させると、人間レベルの知能や意識や自律性が創発して自身の知性を再帰的に向上させ、人間には理解できない科学技術を高速で発達させ人間を支配するようになる」というものではありません。

「一方、冷静にみたときに、人工知能にできることは現状ではまだ限られている。基本的には、決められた処理を決められたように行うことしかできず、『学習』と呼ばれる技術も、決められた範囲内で適切な値をみつけ出すだけだ。例外に弱く、汎用性や柔軟性がない。人工知能が人間を支配するなどという話は笑い話にすぎない。*3

事象の地平線派ないし知能爆発派のシンギュラリティが発生するためには、機械が知能を持つのみならず、自身の意思と自律性を持って目標を定めることができ、また自身と同等以上の存在を自己再生産ができる必要があります。幸か不幸か、現在の「人工知能」研究においては「自律性」や「自己再生産能力」どころか、日常的な「言語の意味理解」すら実現の目処が立っていない状態であり、機械に自律性や自己再生産能力を持たせる研究は現在の「人工知能」研究においては全く主流のテーマではありません。

将来において、自律性や自己再生産能力を持つ人工物ができることは、私は必ずしも否定しませんが、その技術は現在の機械学習技術の延長線上には全く存在しません。

 

 参考文献

人工知能の研究史については、下記の書籍を参照しました。

人工知能が変える仕事の未来

人工知能が変える仕事の未来

 

 

*1:A.L.Samuel 1959

*2:私は、シンギュラリティ論には極めて懐疑的ですが、一方で技術的失業は既に現実に発生している問題であると考えており、同時に語られることの多いこの2つの問題を切り離したいと考えています。

*3:松尾豊 『人工知能は人間を超えるか』p.8

人工知能研究と機械学習

前節では、精神転送 (マインドアップローディング) の実現可能性を検討することを通して、人間の脳の再現によって人工的な知能を構成する方法について検討しました。条件を緩和して、「ある個人の人格そのものの複製」という方法ではなく「一般的なヒトの脳のモデリングによる人工的な知能の実現」を考えたとしても、必要となる脳と知能の機能が解明されるまでには相当の時間を要します。少なくとも、カーツワイル氏が主張するように、ここ10年程度の単位で可能だとはあまり考えられません。

 

けれども、「人工的な知能」を作成するため方法は、脳の再現のみではありません。というよりも、過去半世紀ほど実践されてきた「人工知能」の研究では、必ずしも人間の脳を再現するというアプローチを取っていたわけではありません。人間の「思考」プロセスそのものを再現することを目指していたり、あるいは人間の思考とは全く関係のない形で、実用的な機械学習の技術が実現されてきました。

そこで、本節では過去の「人工知能」研究の歴史を簡単に振り返り、また「機械学習」の手法を通した人工的な知能の実現可能性について検討します。

序文から何度か書いてきている通り、私は人間と同程度の知能を持つ「人工物」ができうることは否定しません。けれども、その「人工的な知能」は、現在の技術の延長線上にはない可能性が高いこと、その実現時期に関するカーツワイル氏の見積りは過少である可能性が高いことを説明したいと考えています。

nanoMRIに関する覚書

 私の記事を読んだ方から、「IBMスタンフォード大の共同研究で、既にMRIナノメートル単位の解像度が実現されている」という指摘がありました。

結論から言えば、nanoMRIと呼ばれるこの手法は、微小組織片に対するスキャンの手法であり、私が議論の対象としている生体脳に対する非侵襲的スキャンの手法ではありませんでした。

 

続きを読む

強いAI/弱いAI、汎用人工知能

人工知能 (Artificial Intelligence)」という言葉は、ドミニク・チェン氏が指摘している通り、人間に対して2種類の問いを投げかけるものです。すなわち、「知能」を人工的に再構築することができるのかという問いと、そもそも「知能」とは一体何であるのか、という問いです。

未だ人間は「人間の知能」とは何であるかを、厳密な意味において定義できていません。それゆえに、「人工知能」という言葉自体も、「知能」と「人工知能」の研究の進捗に従って、その意味は変化を続けています。


さて、人工知能に関わる言葉の中でも、大きな混乱と意味の変化と誤用(?)が生じている言葉があります。タイトルでも取り上げた、「強いAI/弱いAI (Strong AI/Weak AI)」と「汎用人工知能 (Artificial General Intelligence; AGI)」という単語です。これらの言葉は、サイエンスフィクションや一般向けの科学解説記事などでは、「人間に匹敵するすごいAI」くらいの意味で使われているように見えます。

強いAIというのは「本当の」AIで、フィクションでいえば HAL9000 とかスカイネットターミネーターとか ドラえもんとか鉄腕アトムとか、そういった存在です。*1

けれども、これらの言葉の元々の意味を調べていくと、現在一般的に使われている意味とはやや異なる意味を持っていたということが分かります。

 ジョン・サールと「中国語の部屋」論文

まず、「強いAI/弱いAI」という分類は、アメリカの哲学者ジョン・サールが1980年に発表した「Minds, Brains, and Programs(脳、心、プログラム)*2」という論文の中で提示した言葉です。一般的には、「中国語の部屋」という思考実験を提案した論文として知られています。

サールがこの論文の中で「強いAI/弱いAI」を定義している記述は、次の通りです。

I find it useful to distinguish what I will call "strong" AI from "weak" or "cautious" AI (Artificial Intelligence).

According to weak AI, the principal value of the computer in the study of the mind is that it gives us a very powerful tool. For example, it enables us to formulate and test hypotheses in a more rigorous and precise fashion.

But according to strong AI, the computer is not merely a tool in the study of the mind; rather, the appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states. In strong AI, because the programmed computer has cognitive states, the programs are not mere tools that enable us to test psychological explanations; rather, the programs are themselves the explanations.

(私訳) 私は、「強い」 AIと私が呼ぶものと「弱い」または「慎重な」AIを区別することは有用であると思う。
弱いAIによると、心の研究におけるコンピュータの主要な価値は、それが私たちにとって有用な道具であることなのだ。たとえば、コンピュータを使えば、より厳格で正確な形で仮説を定式化したり検証することができる。
けれども、強いAIによれば、コンピュータは心の研究における単なる道具などではない。むしろ、適切にプログラムされたコンピュータは、本当に心となるのだ。つまりは、適切なプログラムを与えられたコンピュータは、文字通り理解したり他の種類の認知的な状態を持つと言えるという意味において。強いAIにおいては、プログラムされたコンピュータは認知的状態を持つため、プログラムは心理学的な仮説の検証を可能にする単なる道具ではない。むしろ、プログラムそれ自体が仮説なのである。

ここでは、「強いAI/弱いAI」の区別は、「何かが可能なAI」や「何かの状態を持つAI」として定義されているのではなく、むしろAIを研究する人の主張ないし立場を指しているように読めます。つまり、弱いAIとは、心の研究において、コンピュータを道具として扱う立場ないし主張であり、強いAIとは、適切にプログラムされたコンピュータが「心 *3」を持つと考える立場ないし主張、仮説を指しています。

サールはAIに関する「強い主張(立場)」と「弱い主張」を区別し、「弱い主張」を取る研究者によって実現された成果の実用性と有用性を素直に賞賛しており、(弱い) AI技術の成功や今後の発展可能性については特に疑問を挟んでいません。

その上で、サールは論文では「強い主張」のみを検討すると明確に宣言しています。つまりは、現時点で実用化された科学技術の成果と、それよりも深遠な哲学的な主張、プログラムが「心」を持つかという問題を明確に区別していると読めます。

そしてこの後、有名な「中国語の部屋」の思考実験を取り上げ、「強いAI」の主張は成立しえないと論駁しています。つまり、認知主義的な、人間の精神を記号の論理的操作に還元する主張は誤りであり、いかなる手法を用いても、どれほど洗練されたプログラムを使用しても人間の「理解」に相当することは実現できない、と主張しています。

サールの議論の詳細を検討することはできませんが、私はこの主張は一定の説得力を持っているように感じました。

汎用人工知能 (Artificial General Intelligence)

「強いAI/弱いAI」の区別は、もともとは哲学分野で使われたものですが、汎用人工知能 (Artificial General Intelligence) の用語は、軍事と外交政策において、自律兵器がもたらす影響に関する議論から生まれたもののようで*4、比較的近年(1990年代)に提案されたものです。つまり、「汎用人工知能」という言葉は、哲学的・工学的に厳密に定義されたものではなく、むしろAIの社会的影響を論じる文脈で登場したものです。

実際のところ、多少調べた限りでは、AGIという言葉の明確な定義はあまり分かりませんでした。けれども、必ずしもAGIは「人間と同等」ということを意味するわけでも、「意識」、「心」を持つものを指すわけではないようです。また、「汎用性」はどれだけ多様な認知タスクに対応できるか、という指標として工学的に定義しうる指標です。言うなれば、「汎用性」は連続量であり、どこまでが特化型人工知能であり、どこからが汎用人工知能であるか、という線引きは難しいように思われます。

現在広く使われている意味においては、「汎用人工知能」とは、実用化、商用化が進んでいる人工知能技術 (機械学習) と区別し、人間レベルの「知能」の実現を目指す研究全般を指す言葉となっています。

実際問題として、意識や心は持たなくとも、それなりに広範なタスクに対応できる「汎用人工知能」の実現は近い将来において不可能ではないと想定され、またそれは社会的・経済的に大きなインパクトを持つだろうと考えられます。

まとめ

冒頭で述べた通り、人工知能の研究とは「知能」の再現を通して「知能」の定義自体にフィードバックをもたらすものです。そのため、「人工知能(AI)」という言葉が意味する対象は常に移り代わってきましたし、言葉の意味が変化してくことは自然な成り行きであるとも言えます。けれども、「人工知能」という言葉で表される「何か」を実現しようと検討し、その可能性と限界について議論する際には、言葉のもともとの定義に立ち返って考えることが必要となるように感じられます。

 

シンギュラリティ:人工知能から超知能へ

シンギュラリティ:人工知能から超知能へ

不可能、困難、未解決

これまでの私の議論では、「できない」「不可能である」または「難しい」という言葉を安易に使用してきましたが、改めてこれらの言葉が何を意味しているのかを明確に定義しておきたいと思います。

 

「できない」という言葉は、次の3つの意味に分類できます。すなわち、不可能困難未解決です。

まず、「不可能」であるとは、言葉の意味や論理、形式的手法、物理法則などの原理から絶対に「できない」ということが示されているものです。たとえば、「円である三角形」や「独身の既婚者」の存在が不可能であることは、円や三角形の性質や現実世界の既婚者を調べなくても (「円」、「三角形」や「既婚者」という単語の意味さえ定義されていれば) 分かります。あるいは、永久機関が不可能であることは熱力学の法則から明言することができます。

次に、「困難」であるとは、原理的には否定されていないものの、コスト、資源、規模、工数などの観点から、実現する上での課題が存在するために「できない」ことを意味しています。具体例としては、超音速飛行機のコンコルドのように一度は実現された後で廃止されたものから、核融合炉の建設や地球外惑星の植民のように、未だ実現の目処すら立っていないものまで、幅広い範囲の問題が存在しています。

最後に、「未解決」であるとは、証明も反証もされていない問題、存在しないことが明確に示せない問題 (いわゆる悪魔の証明)、原理的にも実際的にもできないとは言い切れないものの、未だ実現されていない問題です。この種の問題の具体例としては、地球外生命体の存在証明や汎用人工知能の作成などが挙げられます。


ここで、現在私が論じている問題との関連について述べておきます。

私は「マインドアップロード」は「不可能」であると考えています。正確に言えば、マインドアップロードの成功判定については、原理的に「不可能」であり、脳神経科学の知見獲得と脳を再現するハードウェアの実現については、相当に高いレベルで「困難」であると捉えています。

また、現状の「機械学習」技術を延長して「汎用人工知能」が実現できるか、という問題については、私は「困難」寄りの「未解決」であると考えています。理由は後で述べますが、人間と同水準の「知能」や「言語の意味理解」ができるアルゴリズムを設計的・構成的に作る方法が全く存在しないからです。

そして、何らかのアルゴリズムと人間の脳の構成を組み合わせたアプローチによる「汎用人工知能」の実現については、現在のところ「未解決」の問題であると言えるでしょう。

小鳥遊りょうさんへの返信 -「20世紀全体」と「2000年〜2014年」で等しい量

以下の私の記事に対して意見がありましたので、返信します。

この記事の中で私が検討したカーツワイル氏の主張は次の通りです。

わたしのモデルを見れば、パラダイム・シフトが起こる率が10年ごとに2倍になっていることがわかる。(中略) 20世紀の100年に達成されたことは、西暦2000年の進歩率に換算すると20年で達成されたことに相当する。この先、この西暦2000年の進歩率による20年分の進歩をたったの14年でなしとげ(2014年までに)、その次の20年分の進歩をほんの7年でやってのけることになる。別の言い方をすれば、21世紀では、100年分のテクノロジーの進歩を経験するのではなく、およそ2万年分の進歩をとげるのだ(これも今日の進歩率で計算する)。もしくは、20世紀で達成された分の1000倍の発展をとげるとも言える。

ここで、「わたしのモデル」と呼ばれているものは「収穫加速の法則」を指しています。カーツワイル氏が原著を発表した時点の2005年では、まだこの主張は未来の予測でしかありませんでした。けれども、発表後12年経過した2017年現在においては、既にこの主張は過去のものです。それゆえ、実証的な根拠にもとづいて、定量的に「収穫加速の法則」の成否に関する議論が可能であるはずだと考えています。

私は、人類のパラダイム・シフトの総量を間接的に推定できる量からは、この主張の成立は確認できないと述べました。

なお、私の立場を明確に述べておきます。私は、科学技術の進歩に対して反対するラッダイトではありませんし、現在でも科学技術は進んでいると考えています。ただし、その速度はカーツワイル氏やシンギュラリタリアンが主張するような指数関数的な速度ではない、と考えています。

続きを読む