シンギュラリティ教徒への論駁の書

"Unending exponential growth? What drugs are those people on?" - Linus Torvalds

人工知能研究小史

(9/26追記 この記事は多数誤りを指摘されていますので、後で全面的に改稿する予定です。)

 

ここでは、簡単に人工知能機械学習の研究に関する歴史を振りかえっておきます。

第一次人工知能ブーム 〜「演繹」の時代〜

近代的な人工知能研究は、広く普及している見方によれば、1956年に開催された「ダートマス会議」で始まったと言われることが多いようです。確かに、「人工知能 (Artificial Intelligence)」という用語が考案されたのはこの会議ですが、実際は計算機はそもそもの目的からして「人工の知能を実現する機械」を目指して作られたと言えます。ここには、計算機科学と人工知能研究の前史として、人間の思考と科学的な営為、その全てを「論理」へと還元することを目指した、科学と哲学にまたがる思想的運動が存在しています。

 

現代の汎用的なコンピュータの理論的基礎を築いたのは、イギリスの数学者であるアラン・チューリングです。そして、チューリングが考案した理論を具体的に実現するEDVACというコンピュータを設計したのは、ハンガリー出身のユダヤ系アメリカ人であるジョン・フォン・ノイマンです。

彼ら2人は、数学の中でも数学基礎論と呼ばれる分野の研究者でした。数学基礎論とは、端的に言えば、厳密な論理学の基礎の上に数学の全てを構築するための試みであると表現できます。数学基礎論においては、人間の直感を排除し、厳密に定義された記号と論理的 (形式的) な操作によって、あらゆる数学的な公理を基礎づけることが目標とされました。

数学基礎論の中心となったのは、現代数学の父とも呼ばれるドイツの天才的な数学者、ダーフィト・ヒルベルトです。彼は、人間の精神活動から独立した、矛盾の無い公理系から厳格に定められた論理的規則を元にあらゆる命題を導くことで、数学それ自体の完全性と無矛盾性を示そうとしたのです。すなわち、完全性とは「真である定理は必ず証明できる」、無矛盾性とは「公理に対してどれだけ形式的な推論規則を適用しても、矛盾する命題が示されることがない」ということです。

実際のところ、「数学の完全性と無矛盾性を示す」というヒルベルトの野心的な試みは、オーストリア生まれの数学者クルト・ゲーデルが証明した「不完全性定理」によって潰え、当初の目標は果たされなかったと言えます。けれども、限定された前提条件を元に、形式的な規則から数学的命題を導くという研究活動は、計算機科学やアルゴリズム研究へと発展し、コンピュータの開発へと継がっていきました。

更にその背景には、19世紀後半から20世紀初頭には、ゴットロープ・フレーゲバートランド・ラッセル、ルートヴィヒ・ウィトゲンシュタインなど、記号論理学を用いて人間のあらゆる思考を記号と論理へと還元し、その2つを用いて世界を分析することで真理へと至ろうとした哲学的な思想の潮流が控えています。

このような論理主義の時代背景を元にしてコンピュータは作成されました。実際のところ、コンピュータは単なる「計算機」ではなく、記号を規則 (プログラム) に基いて操作する論理機械であるとみなされていたのです。当時、記号操作は人間の高度な思考と同等であり、正しい規則に基いた論理的な記号操作は「思考」そのものであると信じられていました。つまり、人間の思考をコンピュータで再現することを目指す「人工知能」という研究分野が生まれたことは、ある種時代の必然であったと言えます。


最初期の人工知能研究は、一部では目覚ましい成果を挙げました。最初にも取り上げた、1956年のダートマス会議では、アレン・ニューウェルとハーバート・サイモンによって、バートランド・ラッセルの著書『数学原理』の定理を証明するプログラムのデモが行なわれています。数学的な定理の証明など、高度に知的な精神活動とみなされていたタスクをコンピュータがうまく実行するなど、驚異的な成果を目の当たりにして、多くの研究者はすぐにでも人工知能が人間の思考を超えるだろうと予想し、1960年代の第一次人工知能ブームが始まりました。
第一次人工知能ブームの時代には、探索木という方法を用いて迷路やボードゲームを解くプログラムや、限定された環境の中で人間の言語を理解し、シミュレーション中の世界で積み木を操作することができるプログラムなどが開発されています。

かなり乱暴に言えば、第一次人工知能ブームの時代とは、「論理」あるいは「演繹」によって人間の思考を再現することが目標であったと言えます。確かに、当時いくつかの画期的な成果も上がり、現在まで利用されている要素技術も開発されましたが、当初目的とされていた「人間の思考を再現する」という目標は、完全に失敗したと言えます。ごく限定された環境内であったり、ルールが明確なボードゲームに対しては有用であっても、現実の世界で私たちが遭遇する問題、たとえば病気を診断して治療法を検討したり、外国語を別の言語へ翻訳するなどの実用的で複雑なタスクに対しては、全く太刀打ちできなかったのです。

もちろんここには、当時のコンピュータの性能が限られたものであったという理由もあります。けれども、第一次人工知能ブームが失敗した最大の問題は、人間の思考はあまり「論理的」、「演繹的」ではないからという理由が大きいのではないかと考えています。

進化論の観点からは、人間の論理的思考能力はかなり最近になって獲得されたものです。また、認知科学における実験から、人間の日常的な推論は、抽象的で一般的な形式論理に沿って行なわれるのではなく、領域固有性を持っていることが示されています。つまり、それぞれの問題領域ごとの固有の知識を使って、前提を解釈したり推論を補ったりしているのです。そのため、領域が違うと形式的には完全に異なる推論をすることがしばしばあります。

考えることの科学―推論の認知心理学への招待 (中公新書)

考えることの科学―推論の認知心理学への招待 (中公新書)

 

 

また、人間が問題解決や推論をする際には、大量の事例記憶やアナロジーが重要な役割を果たしていることが分かっています。一つ例を挙げるなら、私たちが外国語を学ぶとき、文法自体は集中すれば半年から1年程度で学べるでしょうが、実際に外国語を読んだり話したりする上では、例外的な語法・用法や慣用句であったり、ものごとを表現する単語を知らないことが問題になることが多いものです。実際に、人間の言語知識は、「文法」と呼ばれる規則の体系で特徴付けられる度合いよりも、むしろ膨大な事例記憶に依存している度合いのほうが、かつて考えられていたよりも大きいということが示されています。

限られた前提と論理によって解決できる問題は、実際のところごくわずかです。最初期の人工知能研究に対しては当初の期待が大きかったために幻滅も深く、そうしてブームは下火になりました。


第二次人工知能ブーム 〜「知識」の時代〜

第一次人工知能ブームが「演繹」をもとにして人間の知能を再現するための試みであったとすれば、その後に続いた第二次人工知能ブームでは、「知識」をもとにしてコンピュータに人間らしい推論を行なわせようとしたと言えます。

1960年代に過熱した人工知能ブームが一旦去った後、1970年代後半から1980年代にかけて、「知識工学」あるいは「知識表現」という分野が盛んに研究されました。上述した通り、知的な行動や判断には、特定の領域における詳細かつ膨大な知識が関わっています。そこで、人間の専門家が持つ知識を書き出し、その知識間の関連性を何らかの形で表現することで、「論理+知識」をもとに知的な推論をするコンピュータを実現できるだろう、と考えられたのです。1980年代には、半導体素子の性能が向上し、処理速度や記憶容量の面で実用的なコンピュータ (メインフレーム) が利用できるようになったことによって、この種のアプローチが可能となりました。

第二次人工知能ブームにおいて盛んに研究されたアプリケーションの実例には、エキスパートシステムがあります。エキスパートシステムは、特定領域における問題について、専門家 (エキスパート) の代わりに質問に応えたり問題を解くことができるプログラムです。エキスパートシステムでは、人間の専門家が入力したルールを利用していました。
初期のエキスパートシステムの事例としては、伝染性血液疾患を診断するMycin(マイシン) が挙げられます。このシステムには、患者の症状など500程度のルールが記憶されており、システムから提示される質問に対して順番に答えていくことで病気の原因となる細菌を特定し、処方するべき抗生物質を提案するものです。Mycinは、感染症の専門医よりは劣るものの、一般の医師よりも優れた診断を下すことができたと言われています。(ただし、実際は誤診断発生時の責任問題から、実用はされなかったようです)

エキスパートシステムは一定の成功を収め、特定領域においては実用化も進みました。けれども、二度目の人工知能ブームにおいても、やはり「人間の知能を再現する」という目的は果たすことができず、人工知能研究は袋小路へと入ってしまったと評価できるでしょう。


人間の知識を書き下すというアプローチには、2つの問題が存在していました。1つは、前述の通り、人間の推論は厳密な形式的パターンに従っておらず、また、あいまいさや相互に矛盾する知識も含まれているため、コンピュータで扱える形式的な論理の表現とは相性が良くないからです。

もう1つの問題は、知識獲得のボトルネック (Knowledge Acquisition Bottleneck) と呼ばれる、膨大な知識を入手し表現することの困難さにまつわるものです。医療や法律など、特定の分野に限ったとしても、人間の持つ知識を書き下すことは膨大な手間とコストが必要とされます。前述の通り、知識には確率的にあいまいなものや相互に矛盾するものも含まれています。そのため、知識データベース維持には、かなりの手間と費用が必要となります。
そして、分野を限定せず、一般的な人間が現実の世界で直面する問題に対応させようとした場合には、膨大な一般常識が必要となってしまいます。それら全てを書き出すことは、もはや現実的には非常に困難です。『ポスト・ヒューマン誕生』の中でも取り挙げられているCycプロジェクトのように、人間の持つ常識的な知識を全て書き出すことを目標とした計画もありますが、このプロジェクトは開始から30年以上経過して現在でも継続されています。

人間であれば簡単に理解できる「常識的な推論」と「言語の意味理解」は非常に困難であるということが示されたことが、二回に渡る人工知能ブームの最大の成果と呼べるでしょう。


第三次人工知能ブーム 〜「帰納」「統計」の時代〜

さて、第一次と第二次の人工知能ブームの特徴を、それぞれ「論理 (演繹)」と「知識」で表すとするならば、現在まで続いている第三次人工知能ブームを表す言葉は帰納あるいは「統計」であると言えます。第一次、第二次の人工知能ブームにおいては、人間の「知能」あるいは「思考プロセス」そのものを直接再現ないしシミュレーションすることが目標に掲げられていました。けれども、二度に渡るブームの頓挫と、その反動である冬の時代の後、人間の「思考プロセス」を再現するという目標はほとんど放棄されてしまったように見えます。

その代わりに、機械学習という形で、人間の思考プロセスとは直接関係なく実用的な問題を解決する手法が注目を集めるようになりました。

機械学習

機械学習とは、「明示的にプログラミングすることなしに、コンピュータに学ぶ能力を与えようとする研究分野*1」です。コンピュータに学習能力を与えるという研究は、1950年代から60年代にかけての『古き良き』人工知能研究とほぼ同時に開始されており、当初機械学習の研究は人工知能研究の下位分野に位置付けられていました。けれども、既に述べた通り「人間と同等の思考ができるコンピュータを作る」という目標が破綻した後では、記号操作による論理や知識の実現とは離れて、むしろ統計学や確率論との結び付きを強めていきました。この背景には、1990年代から現在にかけて、インターネットの普及により大量の文章・画像・音声データ (ビッグデータ) が入手できるようになったことも挙げられます。

近年注目されているディープラーニングのように、特定タスクに対して優れた結果を出すことのできる手法も存在しています。けれども、現代の「人工知能」研究は、初期の人工知能研究のように、人間の知能そのものを実現することはもはや目的としていません。結局のところ、現在の「人工知能」、というよりも「機械学習」や「パターン認識」の手法は、何らかの制約付き最適化問題を解き、事前に定義された目的関数に従って所与のデータを分類するという、言ってしまえばそれだけの数学的技法です。

日本人工知能学会は「人工知能」に関する研究の2つの立場を区別しています。一方は、人間の知能そのものをもつ機械を作ろうとする立場であり、もう一方は、「人間が知能を使ってすること――とりわけ「推論」と「学習」――を機械にさせようとする」立場です。実際の研究のほとんどは後者の立場に立っており、直接的に知能を解明・構築しようという研究とは、研究の目的もアプローチも異なります。

現在「人工知能」として盛んに喧伝されている機械学習の技術は、ごく限定された範囲での人間の認知タスクに対応する「特化型」人工知能です。過去の人工知能研究が直面した「常識的な推論」や「言語の意味理解」という難問を迂回することで新たな成果を生んだと言えます。端的に言えば、第三次人工知能ブームは、人工的な「知能」を実現することを諦めたからこそ、有用な技法が実現したと言えます。


けれども、私は現在の機械学習技術が役に立たないものであるとか将来性がないと主張しているわけではない、ということは明記しておきたいと思います。現在広く報道されている通り、さまざまな分野で機械学習の手法は導入されています。今後もこの傾向は続くでしょう。

そして、ディープラーニングによって、画像や音声など、過去の「人工知能」がうまく扱えなかった外界の刺激をコンピュータで処理できるようになり、新たな応用分野が生まれています。また、多くの人が懸念している通り、特化型人工知能が人間の労働と雇用に莫大な影響を与えることも確実でしょう*2

けれども、最近盛んに語られているような「ディープラーニングとかいう凄い機械学習アルゴリズムビッグデータを与えて学習させると、人間レベルの知能や意識や自律性が創発して自身の知性を再帰的に向上させ、人間には理解できない科学技術を高速で発達させ人間を支配するようになる」というものではありません。

「一方、冷静にみたときに、人工知能にできることは現状ではまだ限られている。基本的には、決められた処理を決められたように行うことしかできず、『学習』と呼ばれる技術も、決められた範囲内で適切な値をみつけ出すだけだ。例外に弱く、汎用性や柔軟性がない。人工知能が人間を支配するなどという話は笑い話にすぎない。*3

事象の地平線派ないし知能爆発派のシンギュラリティが発生するためには、機械が知能を持つのみならず、自身の意思と自律性を持って目標を定めることができ、また自身と同等以上の存在を自己再生産ができる必要があります。幸か不幸か、現在の「人工知能」研究においては「自律性」や「自己再生産能力」どころか、日常的な「言語の意味理解」すら実現の目処が立っていない状態であり、機械に自律性や自己再生産能力を持たせる研究は現在の「人工知能」研究においては全く主流のテーマではありません。

将来において、自律性や自己再生産能力を持つ人工物ができることは、私は必ずしも否定しませんが、その技術は現在の機械学習技術の延長線上には全く存在しません。

 

 参考文献

人工知能の研究史については、下記の書籍を参照しました。

人工知能が変える仕事の未来

人工知能が変える仕事の未来

 

 

*1:A.L.Samuel 1959

*2:私は、シンギュラリティ論には極めて懐疑的ですが、一方で技術的失業は既に現実に発生している問題であると考えており、同時に語られることの多いこの2つの問題を切り離したいと考えています。

*3:松尾豊 『人工知能は人間を超えるか』p.8