シンギュラリティ教徒への論駁の書

“Anyone who believes that exponential growth can go on forever in a finite world is either a madman or an economist.” - Kenneth Boulding

フェルミのパラドックスに対する最もシンプルな答え

f:id:liaoyuan:20180107072726j:plain

引用元:Hubble Space Telescope Images | NASA 

カーツワイル氏によれば、知的生命体がシンギュリティを迎えた後、機械と融合した知性が光速ないし亜光速、もしくは超光速で宇宙へと拡大していき、宇宙が「精霊」で満たされると言われています。この「予測」は、あまり真面目に考える必要があるような主張ではないかもしれません。けれども、この予測を真剣に捉えた場合、一つの大きな問題が生じます。既にシンギュリティを迎え宇宙へ拡散していく地球外知的生命体の存在どころか、宇宙に何らかの知的生命体が存在しているという兆候が、これまでのところ一切発見されていないことです。

 

この宇宙には、10^24 (1𥝱、1兆x1兆) 個の恒星が存在しており、私たちの銀河系に限っても10^11 (1000億) 個の恒星が存在しています。そして、各々の恒星系にどれだけの惑星が存在するかは明確には分かっていませんが、けれども、合計すればとてつもなく膨大な数となり、生命の誕生に適した惑星も多数存在することは間違いありません。地球で知的生命体が発生したことは事実であり、その背後に何らかの奇跡の存在を認めないのであれば、必然的に他の惑星でも知能を持つ生命が発生しているはずだという推測は、妥当なものであると言えるでしょう。ところが、現在の人類の知識の範囲内において、地球以外に生命が存在するという実証的な根拠は存在しません。

1950年代に、イタリア人物理学者エンリコ・フェルミは、「みんなはどこにいるんだ?」という疑問を発したと伝えられています。ここで言う「みんな」というのは、宇宙人のことです。フェルミの計算によれば、かなり控え目な前提を置いてさえ、宇宙のどこかで発生した知的生命体が、既に銀河の星々を植民地化し、人類と接触するほどに進歩していなければならないと推定されるからです。高度に発達した地球外知的生命体が、統計的には、既に存在すると推定されるにもかかわらず、実証的にはその存在を確認できないという問題は、フェルミの質問にちなんで「フェルミのパラドックス」と呼ばれています。

このパラドックスは、60年以上に渡って科学者たちを悩ませてきました。宇宙文明の探索プロジェクトであるSETIの研究者は、これを「大いなる沈黙 (the Great Silence)」と呼んでいます。シンギュラリティの物語ナラティブにおいても、宇宙における知的生命体の誕生は (統計的に) 必然であり、かつ、知的生命体のシンギュラリティ到達は必然であるとされているため、このパラドックスについて種々の考察がされています。その中には、宇宙人は他文明と接触することによる悪影響を懸念しているのだという主張から、各国の政府機関や宇宙の権威者が他の宇宙文明との接触を妨害しているのだという陰謀論めいたものまで様々な主張があります。

けれども、フェルミパラドックスに対する最もシンプルな答えは、(現時点の、観測可能な範囲において) 高度な文明を発達させた知的生命体は存在していないからだ、という説明であると考えています。

元アーカンソー大学教授の天文学者、ダニエル・ウィットマイヤー氏は、人類が宇宙における典型的な知的生命体であり、基本的な物理法則や生命体の原理が宇宙のどこでも適用可能で、地球と人類には何ら特別性が無いという「平凡原理 (Principle of mediocrity)」または「コペルニクスの原理」を前提とするならば、星間通信や宇宙航行を可能とするような高度に発展した文明の持続時間は、ごく短いものであることが示唆されると主張しています。

平凡原理は、現代物理学と宇宙論の基本的な前提です。基本的には、地球も含めた宇宙全体に「特別な場所」はどこにも存在せず、知的生命体としての人類も全く特別な存在ではない、という仮定です。この仮定が妥当である一つの傍証は、たとえば、地球とリンゴ、地球と太陽との間に働く重力の法則は同じであり、まったく同一の重力の法則が100億光年離れた銀河同士にも適用できることが挙げられるでしょう。

ウィットマイヤー氏の主張は、宇宙の中において、人類が例外的な、発達の初期段階にある文明だという仮定が誤りであるというものです。人類が特異的ではなく、宇宙における典型的な文明であると仮定するならば、数百万年間発展を続け恒星間飛行を可能とするほどに進歩する宇宙文明の存在確率は、極めて低いものであると推定されます。

つまりは、人類が典型的なものであるならば、(これまでのところ) 工業文明は約1世紀程度しか持続しておらず、文明の持続期間は他の地球外生命体でも同等であると見なせば、今現在我々が観測できる範囲内において地球外文明は存在しないことに対する説明が付けられると言います。

そして、ウィットマイヤー氏は、高度な文明は短期間で絶滅を迎えるものであるかもしれないとも述べています。

けれども、私はここには論理の飛躍があると感じます。知的生命体の絶滅が必然的であるという根拠は存在しないからです。実際のところ、より妥当な理由は、今現在我々自身が直面している事象と同様のものでしょう。すなわち、知的生命体がひとたび工業文明を発達させる段階に達すると、せいぜい数世紀で濃縮されたエネルギー資源と非再生可能資源を減耗させ、生存基盤である惑星の環境を乱し、その後恒久的に工業化以前の文明レベルに留まるという理由です。

この結論が、私たちが信じる自明の前提、すなわち、進歩は必然であり不可逆であるという信念と真っ向から対立することは理解しています。けれども、これは「平凡原理」すなわち「人類は何ら特別な存在ではない」という仮定と、「宇宙に地球外知的生命体の存在が確認できない」という観察事実から論理的に導かれる、一番確からしい結論であると考えています。

 

広い宇宙に地球人しか見当たらない50の理由―フェルミのパラドックス

広い宇宙に地球人しか見当たらない50の理由―フェルミのパラドックス

カーツワイルの「宇宙の覚醒」とは何か

f:id:liaoyuan:20180105124208j:plain

引用元:Hubble Space Telescope Images | NASA

人類がシンギュラリティを迎えた後、カーツワイル氏は、機械と融合した人類の知性が光速 (ないし亜光速)であらゆる物質を計算装置に変化させながら、宇宙へ拡大していくと述べています。そして、いずれは宇宙が「覚醒」し、宇宙全体が"spirit"で満たされると主張しています。

そして人類の文明は、われわれが遭遇する物言わぬ物質とエネルギーを、崇高でインテリジェントな――すなわち、超越的な――物質とエネルギーに転換しながら、外へ外へと拡張していくだろう。それゆえある意味、シンギュラリティは最終的に宇宙を魂で満たす、と言うこともできるのだ。

率直に言えば、この章は本当に書く必要があるのかどうか迷いました。「宇宙の覚醒」という、好意的に表現すれば、「壮大なサイエンスフィクション的スペクタクル」を、悪意を持って言えば「馬鹿げた与太話」を真剣に捉えている人は、ごく僅かだろうからです。

私は、カーツワイル氏のこの記述を文字通りに読むべきなのか、何らかの暗喩として捉えるべきなのか、それとも単に (リーナス・トーヴァルスが言う通り) LSDをキめている最中に見た幻覚を表現した芸術作品であるのか、よく分かりません。そして、人工知能のシンギュラリティを好意的に取り上げている人であっても、「宇宙の覚醒」について真面目に論じている人はほとんど存在していないように見えます。おそらく、あまりに壮大な話であるために、現在の投資資金や研究資金獲得には何の役にも立たず、むしろ正気を疑われる可能性すらあるからでしょう。

実際のところ、こんな遠い未来に関する壮大な予測が存在することによる社会への悪影響はごく僅かですし、そもそも誰もこの予測を真剣に信じていないでしょう。そのため、私もここで「宇宙の覚醒」に関して詳細に論じるつもりはありません。

ただし、ここには1点だけ非常に重要な論点が含まれていると考えているので、少しだけ検討しておきたいと考えています。それは、「なぜ既にシンギュラリティを迎えた地球外生命体が確認できないのか」あるいは「そもそも地球外知的生命体の存在が全く確認できないのはなぜか」という「フェルミパラドックス」と呼ばれる問題です。

 

この項続きます

書評:『Deep Learning with Python』は、人工知能と人間の知能への深い洞察を含んだ良書だった

Deep Learning with Python

Deep Learning with Python

 本書は、Kerasを用いたディープラーニングの基礎への入門書です。著者のフランソワ・ショレ氏 (@fchollet)は、Googleで働くソフトウェアエンジニア、機械学習研究者であり、Kerasは彼が開発しているディープラーニングモデル記述用のPythonフレームワークです。

以前、このブログでもショレ氏によるシンギュラリティへの懐疑論を翻訳して紹介しました。

この本自体、ディープラーニングとKerasへの優れた入門書です。それだけではなく、上記のエッセイと同様、機械学習ディープラーニングの展望と限界、そして人間の知能に関する深い洞察を含んだ本であると思うので、ここで紹介します。まだざっと全体を流し読みして、環境を構築し一部のサンプルコードを動かした程度ですが、日本語でもこの書籍が紹介&翻訳されてほしいと考えています。*1

技術書としての側面について

機械学習に関しては前提知識は必要なく、必要な知識はほぼ書籍の中で網羅されているようです。Python言語については、脱初心者レベル*2の基礎知識は必要になるでしょう。実務家や趣味レベルの学習者にとって助かる点は、数式があまり無くサンプルコードで数学的概念と操作が示されていることです。(私は数式を見ても実装のイメージが湧かず、動作するコードをいじくり回しながらでないと理解が進まないので…) とは言っても、大学教養レベルの線形代数の基礎知識はやはり必要かと思います。

プラクティカルな解説書は概して皮相的なものになりがちですが、この本は実践的でありながら深く高度な例まで説明されており、非常に良いバランスだと思いました。

コンテンツ

以下は目次レベルの項目です。

  1. ディープラーニングとは何か?
    人工知能研究の歴史、機械学習ニューラルネットに関する概説
  2. ニューラルネットの数学的基礎
    テンソルの操作など
  3. 環境構築
    Kerasの紹介、ローカル/AWS上でディープラーニングを扱う環境構築
  4. 機械学習の基礎
    データ準備、評価、汎化誤差、過学習などの機械学習の基礎について
  5. コンピュータビジョンへのディープラーニング
    主にCNNの説明、"畳み込み" 操作の説明が分かりやすい
  6. テキストと時系列データへのディープラーニング
    RNN, CNNの両方
  7. 発展的なディープラーニングのベストプラクティス
    Kerasのfunction APIの使用方法やベストプラクティスなど
  8. ディープラーニングの生成モデル
    有名なDeepDreamやスタイル変換、DCGANの初歩を扱う
  9. 結論
    ディープラーニングの将来と限界について

 

ディープラーニングの将来性と限界、人間の知能について

本書の表向きのコンテンツはPythonとKerasを使ったディープラーニングの入門です。けれども、本書の裏には著者からの別の、重要なメッセージが存在しているように感じました。それは、『近年の人工知能ハイプに騙されず、しっかりと人工知能の問題に向き合って学んでほしい』というメッセージです。

そして、この問題、ディープラーニングの将来性と限界、人間の知能について論じた9章「結論」は、独立した論考としても価値があると感じます。


ディープラーニングが、10年前コンピュータには不可能だと思われていた問題、画像認識、音声認識や生成、自然言語処理機械翻訳(の一部) などの問題を解決し、大きく進歩させたことには疑いがありません。そして、潜在的ディープラーニングで解決できるものの未だ手が付けられていない問題は、無数に存在しています。そんな問題に対して光が当てられ、ディープラーニングが実世界で真価を発揮するまでにはまだ多数の人手と長い時間が求められるため、もっと多くの人がディープラーニングを学ぶことが必要となります。

そして、近年の急速な進歩にもかかわらず、人間の知能と人工知能研究における根本的な問題は未だ未解決のままであると著者は述べています。現在の人工知能 (機械学習) がうまく対応できない問題には、たとえば以下のような問題があります。

  • 意味理解、特に言語の意味や人間の意図を理解すること
  • 過去のデータ内に全く存在しない問題を扱うこと
  • 明示的な規則として書き下せない、常識的推論と抽象化が必要となること

これらの問題を解決するためには、現在とは異なるアプローチからの研究といくつものブレイクスルーが必要となります。マーケティングのために繰り出される、不誠実な「人工知能は○○を解決した」などという宣伝文句に惑わされることなく、機械学習人工知能研究と人間の認知・知能に対して向き合い、その可能性と限界を正しく認識し、各々が学ぶことを止めないでほしい。私はそんな著者からのメッセージを感じました。

 

英語も平易でサンプルコードも公開されており、独学に向いた本であると思うので、AIやディープラーニングに興味はあるけど、これまで手を出せていなかった人にぜひ本書を薦めたいと思います。

学ぶことは生涯に渡る旅路である。とりわけ、AIの分野においては。この分野では、確実なことよりも分かっていないことのほうがはるかに多い。だから、学び、質問し、研究を続けてほしい。決して止まってはいけない。なぜならば、これまでに成された進歩にもかかわらず、AIに関するほとんどの根本的な疑問は、未解決のままであるからだ。多くの人は正しく問うことさえできていない。(p.339)

リンク

*1:なお、私は5年以上前に卒論で機械学習ライブラリをほんの少し使った程度の素人です。

*2:ライブラリインストールなどの環境構築、基本的なデータ構造と操作

「人工知能」は人間の利害対立を解決できるか

既に述べてきた通り、たとえ超人的な人工知能が作られたとしても、科学やテクノロジーがすぐに超越的な進歩を遂げるわけではなく、また既に存在する物理的な資本を更新するためには時間とコストを要するため、シンギュラリティ論において想定されているような高速の進歩が発生するわけではありません。

それ以外にも、超人的人工知能でも解決できないであろう問題は存在します。人々の利害対立の調整や、あるいはゲーム理論で「協調問題」と呼ばれる問題です。

たとえば、ゴミ処理施設、原発、墓地や火葬場の建設などの問題、徴税制度の設計などがあります。これらの施設は社会に必ず必要となるものですが、誰しも自分の家の裏庭にこのような施設が存在することは望まないでしょう。また、公共的なサービス提供のためには税金の徴収が必要となりますが、税金が上がることを喜ぶ人はいないと思います。

社会の広い範囲の人々が利益を享受する一方、その負担は特定の人に集中するような問題の場合、感情的・情緒的な説得と納得のプロセスが必要であり、知能の高ければ簡単に解決できるというわけではありません。

このタイプの問題は、テクニカルには、負担を受ける人を最小化し社会全体の利益を最大化するような最適化問題として設定することも想定できますし、他人を説得する技法において人間よりも優れた人工知能を想定することも可能でしょう。けれども、それによって負担を強いられる人間が説得されるかどうかは、また別の問題です。

負担を強いられる特定の層の人々が、その決定に納得できない場合には、サボタージュや裁判といった合法的な方法から暴力的な武力闘争に至るまで、様々な抵抗の手段があります。そして、この種の実力行使に対して人工知能がうまく対処できると考える理由は特にありません --ターミネーターのような戦闘ロボットが現れると考えるのでもない限りは。

これ以外にも、テクノロジーの進歩だけでは解決できそうにない、政治・経済・社会的な利害対立は無数に存在します。知能の高い存在に『「今の中東情勢を解決する施策を出せ」と言って何らかの答えを出したとしても、逆に人間の社会は大混乱に陥ってしまうのではないかと思います』そもそもそれ以前の問題として、考案されたその施策を中東において実行に移す手法は存在しません。


むしろ、短中期的な将来において私たちが警戒しなければならないのは、特定の立場の人や企業の価値感が、公平無私で中立不偏を装った「人工知能アルゴリズム」によって、社会の政策や制度に侵入することです。

 

アルゴリズムはプログラムと数学に埋め込まれた誰かの価値観であり、公平性や正義について考慮することはできず、統計データに従って過去の傾向に沿った予測を返すのみのものです。

アルゴリズムはプログラムと数学に埋め込まれた誰かの価値観であり、公平性や正義について考慮することはできず、統計データに従って過去の傾向に沿った予測を返すのみのものです。

人工知能という名の統計と機械学習アルゴリズムを過度に擬人化し、ことさらに「人間」vs.「人工知能」という対立を強調する言説は、現状の統計と機械学習アルゴリズムの機能を過大評価し、現在存在する利害の対立を覆い隠すという点で、きわめて望ましくないものであると考えています。(この議論については、後の章でなぜ私がシンギュラリティ論を問題視するのかを説明する際にもう一度取り上げようと思います)

社会の慣性の法則:変化には長い時間を要する

シンギュラリティ論においては、ひとたび人間を超える人工知能が作られると、その人工知能は自身の知能を再帰的に指数関数的に成長させるのみならず、物質的貧困や紛争といった社会のさまざまな問題までもたちどころに解決できると主張されています。

この種の根拠のない信念、すなわち、「知能の高さや思考の量のみが進歩におけるボトルネックである」という「思考主義」の考え方について、前回のエントリで検討し批判しました。

もちろん、純粋な思考力のみによっては科学研究や技術開発を進歩させることは不可能です。それだけではなく、開発されたテクノロジーを社会に展開し、テクノロジーが社会を変化させるためにも、やはり長い時間を要します。物理的な物体を置き換えるには時間とエネルギーを要し、現に存在する過去の進歩の成果が未来の進歩への障壁となるからです。

 

先進的なIT企業におけるプロダクト開発の事例においては、1年や1ヶ月といった単位ではなく、1週間、1日、あるいは1時間単位で新たなコードがデプロイされることが一般的になっています。たとえば、Amazon.comでは、多いときには一時間に1000回以上ものデプロイが行なわれたと公表されています。

このようなソフトウェア産業界の高速の発展が、他の産業においても同じように適用でき、同様の高速の進歩が発生することが期待されているようです。けれども、ソフトウェアにおける高速の進歩は、ソフトウェアの限界費用がほぼゼロであることから生じる、ごく特殊な事例に過ぎません。

対称的に、ハードウェアは、比較的大きな限界費用を必要とし、長期間に渡って利用されるため、進歩の速度はごく低速です。たとえば、現在普通に販売されている自動車の大多数は、自動運転車ではなくソフトウェア制御もされていないものです。この先、自動運転車の開発と普及がどれほど高速で進んだとしても、同種の自動車は今後10年以上に渡って販売が続くことは確実です。そして、現在の自動車の耐用年数 (10〜15年) を考慮すれば、2045年になっても相当の数の非自動運転車が走行していることに疑いはありません。この在来型自動車の存在によって、将来の自動運転車の普及速度は本質的な限界を定められます。

同様に、今年建設された家屋やビル、道路や鉄道、上下水道といったインフラは、(巨大災害でも無い限り) 半世紀後にも変わらず建っていることは確実でしょう。私が今住んでいる借家は、1970年代に建設された築50年近く経過している建物です。階段が急である、一部の扉の高さが私の身長よりも低いなどの構造上の古さはあるものの、何度かリフォームされているため内装や機能上の問題はありません。他のインフラも同様に長期間使用されるため、私たちの暮らしの本質的な部分は、50年後、100年後も変化していないでしょう。

 

物理的な物体に対する資本コストが、テクノロジーの展開速度に対する根本的な限界を定めます。そして、これは私たちの日常生活のみならず、企業、国家や軍事の分野でも同様に適用されます。

MIT人工知能研究所の元所長であるロドニー・ブルックス氏は、戦略爆撃機や核ミサイル発射装置といった国家の存続に関わる兵器でさえ、旧式のテクノロジーを使用していると指摘しています。

アメリカ空軍は、未だにB-52の派生型であるB-52H型爆撃機を飛行させている。このバージョンは1961年に導入され、既に56年間運用されている。最新版は1963年に生産され、機齢はたったの54歳である。現在のところ、これらの爆撃機は2040年、あるいはもっと先までの運用が予定されており、100歳に達するのではないかと言われている 。

地上発射型の大陸間弾道ミサイル (ICBM) はミニットマンIIIの派生型を利用しており、1970年に導入された。現在450基が存在する。発射システムは8インチフロッピードライブに頼っており、発射手順のデジタル通信はアナログの有線電話回線を使用するものも存在している。

[FoR&AI] The Seven Deadly Sins of Predicting the Future of AI 

 シンギュラリティの提唱者たちが信じている世界の中では、既に世間はデジタル化・ソフトウェア化されており、あとは超知能を持った人工知能が作られさえすれば、ソフトウェアアップデートのみでAIをデプロイすることができ、そのAIが社会の指数関数的な変化をもたらすと考えられているようです。

もちろん、それは誤りです。ブルックス氏も取り上げている自動運転車の歴史が好例でしょう。多くの人は、ここ数年でいきなり自動運転技術が進歩したかのような印象を受けているかもしれません。けれども、実際のところ、自動運転技術の研究には半世紀近い歴史があります。1980年代には欧州でEUREKAプロメテウス計画として自動運転の研究が開始されており、1987年には自動で時速90kmで高速道路を20kmに渡り走行するデモが行なわれています。1995年には、アメリカ、カーネギーメロン大学の研究チームが、ピッツバーグからサンディエゴまでの3000kmを、人間の運転なしで走破し北アメリカ大陸横断を実現しています。GoogleとWaymoは8年間に渡って大規模な自動運転車の社会実験を行なっていますが、未だ社会経済的に意味のある規模での自動運転は普及していません。完全な自動運転の実用化と普及、在来型自動車の置き換えまでには、まだ数十年を要するという予測は、何ら悲観的な予測ではありません。

 

すなわち、どんな超テクノロジーが存在しようと、あるいはどのような超知能であろうとも、社会には固有の慣性が存在するため、物理世界への働きかけには時間とエネルギーを要し、現に存在する資本の更新は政治・経済・社会的な要因によって制限を受けます。その進歩の速度は爆発的で不連続なものではなく、連続的で比較的低速の、現在の進歩の速度とさほど変わらないものになるでしょう。

ゆえに、知能爆発説のシンギュラリティ論の根本的な仮定、超知能の出現により不連続な爆発的な進歩が起こるという仮定は、完全な誤りです。

思考主義批判:知能は問題解決のごく小さな部分に過ぎない

シンギュラリティ論、特に知能爆発説のシンギュラリティ仮説においては、ひとたび人間を超える人工知能が作られると、その人工知能は自身の知能を再帰的に指数関数的に成長させることができると主張されています。

更には、その超人的人工知能は、自身の知能を指数関数的に成長させるのみならず、科学やテクノロジーの未解決問題、果ては貧困や紛争といった社会問題までもを、短期間のうちに解決することができると信じられているようです。

けれども、この信念、すなわち「進歩の障害となるものは思考力の量、あるいは知能の高さのみである」という考え方は、論理的には完全な誤りであり、ケヴィン・ケリー氏はこれに「思考主義(Thinkism)」という名前を付けています。実際のところ、科学やテクノロジーの進歩においては思考以外の要素が必要となるからです。

少し長くなりますが、ケヴィン・ケリー氏の言葉を引用します。

ガンを治す、あるいは寿命を延ばすことを考えてみよう。これは思考だけで解決できる問題ではない。どれだけ思考主義が頑張っても、どのように細胞が老化するのか、どのようにテロメアが脱落するのかわからない。どの知能でも、たとえどんなにすごい知能であっても、世界中の既知の科学文献をすべて読んで熟考するだけで、人体がどのように機能しているかを解明することはできない。どんな超越した人工知能でも、過去と現在の核分裂実験について思考するだけでは、すぐに核融合を実用化することはできない。

物事の仕組みがわからないところから始めて、仕組みがわかるまでには、思考主義では越えられないほどの差がある。実用に耐える正しい仮説を構築するためには、現実世界での大量の実験と、さらにその実験から得られる山ほどのデータが必要である。予測したデータについて考えても、正しいデータは生まれてこない。思考は科学の一部分、もしかしたら、ごく小さい部分であるにすぎない。私たちは死の問題の解決に近づくことができるほどの正確なデータを十分には持っていない。しかも生物の場合には、このような実験はたいていカレンダー単位の時間がかかる。結果が出るまでに何年か、何ヶ月か、あるいは少なくとも何日か必要になる。思考主義は超越した人工知能にとって瞬時のことかもしれないが、実験結果は瞬時には得られない。


最も優秀な物理学者が今の千倍賢くなったとしても、コライダー(衝突型加速器)がなければ何も新しい発見はできない。たしかに、原子の計算機シミュレーションは可能である(いつかは細胞も)。しかし、そのシミュレーションのいろいろな要素を速くすることはできても、モデルの実験や調査や検証は、その対象物の変化速度に合わせて、やはりカレンダー単位の時間がかかる。

有用であるためには、人工知能は実世界に構築されなければならない。そして、たいていの場合、人工知能による進歩の速度はその世界によって決まる。思考主義だけでは十分ではない。実験を実施し、プロトタイプを構築し、失敗を重ねて、現実に立脚していなければ、知能が思考しても結果を得ることはありえない。知能は実世界の問題を解決するための方法を考えることができない。人間よりも賢い人工知能が現れたその時間に、その日に、その年に、ただちに発見があるわけではない。うまくいけば、発見の速度は著しく速くなるだろう。もっとうまくいけば、超越した人工知能は、人間には思いつかない疑問を発するだろう。しかし、一例を挙げれば、不死を得るという困難な成果を得るまでに、人間に限らず、生物についての実験にはいくつもの世代を要する。

「思考主義」: 七左衛門のメモ帳

 

また、私が以前に翻訳して取り上げたフランソワ・ショレ氏は、非常にIQの高い人が専門分野で高い業績を挙げられるという根拠はなく、また、IQと社会的成功の間の相関はIQが一定値を超えると成立しなくなることを指摘しています。また、ファインマンやジェイムズ・ワトソンといった科学史に名を残す研究者のIQは120〜130程度である一方、今日生きているIQ170以上の人々はさして突出した問題解決者ではないことを述べています。

 

ここから示唆される事実は、思考力は問題解決における一つの要素でしかなく、おそらくごく小さな部分を占めるに過ぎないということです。科学の進歩、あるいは機能するテクノロジーの構築には、実験と観測と測定を通した仮説の立案、そして仮説検証のために更に洗練された実験を必要とします。そして、実験には対象の反応速度や規模に合わせた時間やエネルギーを要し、どれほど高速で深い思考力があったとしても、必ずしも進歩は高速化できません。


序文から何度か書いている通り、私は汎用人工知能の実現は決して不可能ではないと思っていますし、おそらく人間を超える人工知能も (いつかは) 実現できるでしょう。そして、仮に汎用人工知能ができれば、科学の進歩が高速化されることに疑いはありません。知能の無いコンピュータによるシミュレーションでさえ科学の進歩を加速させているのですから。

シミュレーションによる加速

確かに、私たちはコンピュータで原子核反応や分子や細胞のシミュレーションを行うことができ、またシミュレーション自体も計算力の向上によって高速化することが可能です。とあるシンギュラリタリアンは、スーパーコンピュータを用いた仮説の立案と検証により、科学技術研究を高速で進歩させることができると主張しています。けれども、次に挙げる2つの要因によって、現実の問題解決に対するシミュレーションの有用性は本質的に制限されています。

以前に、精神転送と「脳のシミュレーション」について検討した記事の中で、私は「モデルを用いたシミュレーション」と「決定論的シミュレーション」、すなわち「基礎方程式を数値計算するシミュレーション」ないし「現象をそのまま再現するシミュレーション」を分類して取り上げました。

1点目の「モデルを用いたシミュレーション」は、現実を捨象したモデルを使用します。このシミュレーションは高速に実行することができ、パラメータを変化させることで最も有望な方向を発見し、現実世界での試行錯誤の回数を減らすことができるため、進歩の速度を高速化できます。けれども、モデルそのものを構築するためには、現実世界を観察しモデルを検証することが必要であり、この検証作業はやはり現実世界の時間によって制限されます。更には、単純化されたモデルによる検証は、何らかの影響を見落としてしまう可能性があります。一例を挙げれば、新薬の副作用や遺伝子改変の長期的影響は、コンピュータシミュレーションのみでは確認できず、必ず臨床実験を通して検証する必要があります。(この検証もやはり時間を要します)

それでは、シミュレーションを詳細化することで、「現象をそのまま再現するシミュレーション」を構築すれば良いのではないか、という疑問があるかもしれません。
けれども、モデルとシミュレーションを詳細化し強化するにつれて、シミュレーションは現実と同じ程度の速度でしか動作しなくなってしまいます。100%完全なシミュレーションは、現実の世界よりも高速で動作することはありません。(これが「現実」の定義の一つです) もしも仮に、細胞内の分子と人体の細胞全てをシミュレーションすることができたとしても、このシミュレーションは現実の人体程度の速度しか持ちません。

つまり、現実であろうとシミュレーションであろうと、その実験と検証には長い時間を必要とします。そもそもそれ以前の話として、たとえば人体の細胞内の分子と全ての細胞をシミュレーションできるほどに生物のメカニズムは理解されていないのですから。


つまりは、問題解決には知能の高さのみならず現実の世界における実験、検証を必要とし、それには時間とエネルギーを要します。すなわち、どれほど強力な思考力があったとしても、それだけで直ちに高速の、指数関数的な進歩が約束されるわけではなく、「思考主義」の基本的な前提は根本的に誤りです。

参考文献

以下はどちらもwired誌の創刊編集者、ケヴィン・ケリー氏によるエッセイです

ケヴィン・ケリー著作選集 1

ケヴィン・ケリー著作選集 1

〈インターネット〉の次に来るもの 未来を決める12の法則

〈インターネット〉の次に来るもの 未来を決める12の法則

翻訳:AlphaZeroは本当にAI分野の科学的ブレークスルーなのか?

この記事は、Google社の博士研究員であるJose Camacho Collados氏がサイトMedium上で公表した "Is AlphaZero really a scientific breakthrough in AI?" の翻訳です。

 

AlphaZeroは本当にAI分野の科学的ブレークスルーなのか?

おそらくご存じの通り、DeepMind社は最近AlphaZeroに関する論文*1を公表した。AlphaZeroは、自己学習によりチェスや将棋といったゲームをマスターできるシステムである。

詳細に入る前に、私の自己紹介をさせてほしい。
私は広い意味での人工知能(AI)分野の研究者であり、自然言語処理を専門としている。また私はチェスのインターナショナルマスターでもあり、現在韓国のトップ棋士である。しかし、ここ数年間はフルタイムの研究者としての仕事があるために、ほとんど活動できていない。

私の背景知識を基に、この問題に対してできる限り建設的に、合理的な意見を提示したいと思う。明白な理由によりチェスに焦点を当てるものの、いくつかの議論は一般的なものであり、将棋や囲碁にも同様に適用できると考えている。この投稿は私個人の意見を表すものであり、私が専門ではない特定の技術的詳細について誤って解釈している部分があるかもしれないが、予めご了承いただきたいと思う。

チェスは、「人間vs.機械」というコンテキスト、そしてAI研究一般において、疑いなく最も広く研究対象となったゲームである。コンピュータチェス分野における最初のブレークスルーは、1997年にIBM社のディープ・ブルーが当時の世界チャンピオン、ガルリ・カスパロフに勝利したことであろう。*2 当時のコンピュータは、チェスのプレイにおいて人間よりも劣ると見なされていたものの、それ以降の「対戦」では明白にコンピュータが勝利するようになっていった。

f:id:liaoyuan:20171223132648j:plain

写真:1997年のガルリ・カスパロフディープ・ブルーの対戦。引用元:ロイター通信

 

関連した項目としては、数年前にDeepMind社はAlphaGoをリリースしたことが挙げられるだろう。これは、人間界最高の棋士に勝利することもできる囲碁エンジンである。*3 囲碁の複雑性は、チェスよりも大幅に大きいということに注意してほしい。近年利用可能となった高度な計算能力をもってしても、未だ囲碁では人間がコンピュータに勝てると考えられていたが、その大きな理由の一つはこの複雑性である。それゆえ、AlphaGoの勝利はそれ自体がブレークスルーと考えられるだろう。当初の印象的な結果は、AlphaGo Zeroによって更に大きなものとなった。

AlphaGo Zeroは、論文の著者たちの主張によれば、完全な自己対局*4のみで囲碁をマスターしたとされている。そして、更に最近のAlphaZeroは、AlphaGoと類似した汎用的な強化学習アルゴリズムを用いてニューラルネットワークアーキテクチャーを訓練するモデルを用いて、いくつかの最強の将棋・チェスエンジンに対して勝利を収めたとされている。

この業績は、マスメディア*5とチェス専門*6メディアの両方において、ブレークスルーの重大性についての仰々しい誇張を伴って広く報道されている。ところが、AlphaZeroの論文を慎重に読んでみると、主要な主張の妥当性に関して合理的な疑いが生じるのである。

これらの懸念の中には、それほど重要ではないと考えられているものもあるかもしれないし、後に著者らによって説明される可能性があるかもしれない。それにもかかわらず、全ての疑念を合算すると、全体的な主張の科学的妥当性に対して合理的な疑いが生じるのである。

  • 入手可能性/再現性
    DeepMind社によって開発されたAlphaZeroシステムは、どれも一般に公開されていない。ソースコードは公開されておらず、ユーザがテストできる商用バージョンさえ存在していない。これは重大な障害である。
    科学的な観点から見ると、これらのアプローチは他の専門家によって検証されることもできず、他者が成果を利用することもできない。また、この透明性の欠如によって、彼らの実験を再現することも同様に不可能である。
  • 4時間の学習
    AlphaZeroの学習時間の量は、一般のメディアによる説明において最も誤解されている部分だろう。論文によれば、5000個のTPUを用いた4時間の学習の後、AlphaZeroは既にオープンソースのチェスエンジンであるStockfishを超えていたという。(学習完了までには更に数時間を要した) つまりは、1個のTPUを用いた場合の所要時間はおよそ2年であることを意味しており*7、通常のCPUの場合は更に長い時間となるだろう。そのため、4時間という時間は印象的に見えるが (そして実際のところ印象的であるものの)、これは主に最近数年の間に利用可能となった巨大な計算力のキャパシティによるものであり、特にDeepMind社のような企業が巨大な投資を行なったことによるものである。たとえば、2012年までに、チェスの7つ以下の駒による全ての配置は、かなり小さな計算力のみで数学的に完全に解析されている。*8
  • 対Stockfish戦の実験設定
    既存チェスエンジンに対するAlphaZeroの優位性を証明するために、Stockfishとの100回の対戦が行なわれた。(AlphaZeroがStockfishに64-36で勝利した) 対戦相手としてStockfishを選択したことは妥当だろうと思う。オープンソースであり、今日世界最強クラスのチェスエンジンであるからだ。コンピュータチェスの世界チャンピオンシップと見なされている TCEC (Top Chess Engine Competition) の直近の大会では、Stockfishは (KomodoとHoudiniに続いて) 3位の成績を残している。*9
    しかし、実験条件の設定は公平ではないように見える。Stockfishのバージョンは最新版ではなく、更に重要なことにPC用のバージョンを使用していたことだ。AlphaZeroは、かなり高い処理能力を与えられていたにもかかわらずである。たとえば、TCECの大会では、それぞれのエンジンはみな同じプロセッサを使用して対戦する。
    そして、持ち時間の選択も奇妙なものであるようだ。それぞれのエンジンは、1手ごとに1分の持ち時間を与えられている。しかし、大半の人間とコンピュータのチェス大会においては、各プレイヤーは1回のゲーム全体に対してある一定の時間を与えられ、その持ち時間をどう配分するかはプレイヤーに任されている。Stockfishの開発者の1人であるTord Romstadは、これはStockfishの能力を損なう、疑問のある決定であると述べている。「Stockfishの開発においては、ゲームの重要な局面を判定して、いつ追加の検討時間を消費するかを決定するために、大きな労力が割かれている」ためである。*10 また、Tord Romstadは、Stockfishは「これまで受けたどんなテストよりも、多数の検索スレッドが"遊んでいた"」と指摘している。概して、AlphaZeroのStockfishに対する勝率の高さは、トップレベルのチェスプレイヤーから大きな驚きをもって迎えられた。チェスエンジンは、既にほとんど負けることのない強さに達しているという一般的な通念に反するものであったからだ。(たとえば、世界ランキング第9位のヒカル・ナカムラは、AlphaZero対Stockfish戦の低い引き分け率について疑問を唱えている。)*11*12
  • 対Stockfish戦の10試合
    論文中では、たった10個の棋譜のみしか提供されておらず、全てはAlphaZeroが勝利したものである。*13
    これらの棋譜は、概してあらゆるチェスコミュニティで賞賛されている。AlphaZeroがこれらのゲームにおいてチェスに対する深い理解を示しているように見えるからだ。グランドマスターであり、世界チャンピオンのMagnus Carlsenの指導者Peter Heine Nielsen*14、あるいは世界ランキング5位のMaxime Vachier Lagraveは、AlphaZeroのStockfishに対する成績に関して肯定的に評価している事例である*15。しかし、たった10件の、AlphaZeroの勝利した棋譜のみしか公開しないという決定は、新たな疑問を生じさせる。学術論文においては、提案したシステムの弱点や、あまり上手く動作しない事例をいくつか示すことが慣例となっている。そうすれば、提案手法の包括的な理解を得ることができ、また他の研究者がそれを改善できるからだ。他の疑問としては、論文からは明白ではないのだが、ゲームが特定のオープニングから開始されたのか、それとも完全に最初から始められたのか不明であるということだ。これら10件の棋譜の中で使われたオープニングの多様性を見ると、いくつかの初期状態が予め決められていたのではないかと思われる。

    f:id:liaoyuan:20171223132815p:plain
    AlphaZero対Stockfish戦。最終手 Qh1(クイーンをH-1へ移動)。トップグランドマスターのFrancisco Vallejo Ponsは、このゲームは「サイエンス・フィクション」だと評価している。引用元:chess24

  • 自己学習
    AlphaZeroは、完全に自己学習によって学ぶのだろうか。論文中で示された技術的な詳細によれば、これは真実であるらしい。しかし、2点、重要な言葉のニュアンスの違いが存在する。それぞれのゲームのルール、およびゲーム終了までの平均的な手数は、自己対局を開始する前にシステムへ教えておく必要がある。
    1件目の、ゲームのルールに関しては、一見明白であるように見えるかもしれないが、しかし決してささいな問題ではない。これらのゲームのルールを表現する適切なニューラルネットの構造を発見するためには、多大な労力が必要とされる。これは、AlphaZeroの論文で説明されている通りである。AlphaGoで使われていた畳み込みニューラルネット (CNN) をベースとした初期のアーキテクチャは、囲碁に対しては適していたが、他のゲームについてはそうではなかった。たとえば、囲碁とは異なり、チェスや将棋は盤面が非対象であり、いくつかの駒はその位置に応じて振る舞いが変化する。新しいAlphaZeroにおいては、AlphaGoのアルゴリズムをより汎用化したものが導入されており、チェスや将棋といったゲームも含められるようになった。
    2件目のゲーム終了までの平均的な手数 (すなわち、「探索のノイズに対してスケールするように」AlphaZeroに対して平均的な手数が与えられている) についても、対象のゲームに対する何らかの事前知識を必要とする。同様に、手数が最大値を超えたゲームについては、結果を引き分けとして対局を強制終了させるとされている。(この手数の最大値は論文中に示されていない)
    このヒューリスティック手法が、Stockfishとの対戦の際にも使用されたのか、それとも学習中にのみ用いられたのかも明らかではない。
  • 一般化
    一つの汎用強化学習手法を用いて多数の領域で成功を収められるということが、AlphaZeroの大きな主張である。しかし、自己対局に関する前述の指摘点により、AlphaGoとAlphaZeroシステムを他の領域へ一般化することができるのか、多数の議論が起こっている*16。現実世界の多数の状況を、たとえばチェス、囲碁や将棋のように、事前に定義された不変のルールの集合へ単純化できると想定することは、非現実的な仮定であるように思われる。加えて、これらのゲームでは固定のルールが与えられているのみならず、複雑さの違いはあるけれども、これらのゲームは有限である。すなわち、ありうる状況は有界である。固定されたルールの集合を定義できるゲームであっても、状況は異なる場合がある。たとえば、テニスの場合は、考慮しなければならない変数の数は数え上げることが難しいほど多い。そこで、たとえば風向きと風速、ボールの速度、ボールの角度や表面、表面の種類、ラケットの素材、コートの穴などまで考慮に入れなければならない。

我々は、慎重に、疑わしいブレークスルーを科学的に精査しなければならない。とりわけ、我々が現在生きているAIハイプの時代においては。実際のところ、我々自身の業績を正確に説明し宣伝することはAI分野の研究者の責任であり、成長しつつある (しばしば利己的な) AIに対する誤解と神秘化を助長する行為に加担するべきではない。事実、今年12月初頭に開催されたNIPS、間違いなく最も名高いAIカンファレンスにおいて、何名かの研究者がAI科学コミュニティの厳格性の欠如に対して重大な懸念を表明している*17

この件に関しては、主張の妥当性が考慮され、私の懸念が明確化されて解決され、AlphaZeroの功績に関する正確な科学的貢献を判断することができるようになれば良いと望んでいる。現状では、判断を下すことさえ不可能であるからだ。おそらく、より良い実験設計と再現性の向上に向けた努力によって、結論は最初の主張よりも弱くなるだろう。あるいはその逆の結果となるかもしれないが、DeepMind社がこの方向へと力を入れなければ、そのように評価することは困難である。個人的には、DeepMind社のポテンシャルには大きな期待を持っており、AIの分野で重要な発見を成し遂げてほしいと願っている。しかし、彼らの貢献が他の研究者から容易に検討でき、社会に貢献できる方法で提示されてほしいと思う。

*1:原注1:Silver et al. “Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm.” arXiv preprint arXiv:1712.01815 (2017). https://arxiv.org/pdf/1712.01815.pdf

*2:原注2:https://en.wikipedia.org/wiki/Deep_Blue_versus_Garry_Kasparov

*3:原注3:https://www.theguardian.com/technology/2016/mar/15/googles-alphago-seals-4-1-victory-over-grandmaster-lee-sedol

*4:原注4:Silver et al. “Mastering the game of go without human knowledge.” Nature 550.7676 (2017): 354–359. https://www.gwern.net/docs/rl/2017-silver.pdf

*5:原注5: https://www.theguardian.com/technology/2017/dec/07/alphazero-google-deepmind-ai-beats-champion-program-teaching-itself-to-play-four-hours ,原注6:http://www.bbc.com/news/technology-42251535

*6:原注7:https://chess24.com/en/read/news/deepmind-s-alphazero-crushes-chess,原注8:https://www.chess.com/news/view/google-s-alphazero-destroys-stockfish-in-100-game-match

*7:訳注:4時間x5000=2.2年を意味する

*8:原注9:http://chessok.com/?page_id=27966

*9:原注10:https://hunonchess.com/houdini-is-tcec-season-10-champion/

*10:原注10

*11:原注11:https://www.chess.com/news/view/alphazero-reactions-from-top-gms-stockfish-author

*12:訳注:チェスは、将棋と異なり一度盤面から取り除かれた駒を再利用できないため、終盤では盤上の駒数が少なくなり、互いにチェックメイトできない状況になることが多い。そのため、強豪同士の対戦では引き分けが多くなる傾向がある。たとえば、近年の世界大会の試合では6割以上が引き分けとなっている

*13:原注12:AlphaZero対Stockfish戦10試合の再現へのリンク: https://chess24.com/en/watch/live-tournaments/alphazero-vs-stockfish/1/1/1

*14:原注13:https://www.twitch.tv/videos/207257790

*15:原注11

*16:原注14:https://medium.com/@karpathy/alphago-in-context-c47718cb95a5

*17:原注15:Ali Rahimi氏は、2017年のNIPSのテスト・オブ・タイム賞受賞スピーチにおいて、現在の機械学習の実践を「錬金術」と表現している: https://www.youtube.com/watch?v=ORHFOnaEzPc