シンギュラリティ教徒への論駁の書

"It's tough to make predictions, especially about the future." - Yogi Berra

思考主義批判:知能は問題解決のごく小さな部分に過ぎない

シンギュラリティ論、特に知能爆発説のシンギュラリティ仮説においては、ひとたび人間を超える人工知能が作られると、その人工知能は自身の知能を再帰的に指数関数的に成長させることができると主張されています。

更には、その超人的人工知能は、自身の知能を指数関数的に成長させるのみならず、科学やテクノロジーの未解決問題、果ては貧困や紛争といった社会問題までもを、短期間のうちに解決することができると信じられているようです。

けれども、この信念、すなわち「進歩の障害となるものは思考力の量、あるいは知能の高さのみである」という考え方は、論理的には完全な誤りであり、ケヴィン・ケリー氏はこれに「思考主義(Thinkism)」という名前を付けています。実際のところ、科学やテクノロジーの進歩においては思考以外の要素が必要となるからです。

少し長くなりますが、ケヴィン・ケリー氏の言葉を引用します。

ガンを治す、あるいは寿命を延ばすことを考えてみよう。これは思考だけで解決できる問題ではない。どれだけ思考主義が頑張っても、どのように細胞が老化するのか、どのようにテロメアが脱落するのかわからない。どの知能でも、たとえどんなにすごい知能であっても、世界中の既知の科学文献をすべて読んで熟考するだけで、人体がどのように機能しているかを解明することはできない。どんな超越した人工知能でも、過去と現在の核分裂実験について思考するだけでは、すぐに核融合を実用化することはできない。

物事の仕組みがわからないところから始めて、仕組みがわかるまでには、思考主義では越えられないほどの差がある。実用に耐える正しい仮説を構築するためには、現実世界での大量の実験と、さらにその実験から得られる山ほどのデータが必要である。予測したデータについて考えても、正しいデータは生まれてこない。思考は科学の一部分、もしかしたら、ごく小さい部分であるにすぎない。私たちは死の問題の解決に近づくことができるほどの正確なデータを十分には持っていない。しかも生物の場合には、このような実験はたいていカレンダー単位の時間がかかる。結果が出るまでに何年か、何ヶ月か、あるいは少なくとも何日か必要になる。思考主義は超越した人工知能にとって瞬時のことかもしれないが、実験結果は瞬時には得られない。


最も優秀な物理学者が今の千倍賢くなったとしても、コライダー(衝突型加速器)がなければ何も新しい発見はできない。たしかに、原子の計算機シミュレーションは可能である(いつかは細胞も)。しかし、そのシミュレーションのいろいろな要素を速くすることはできても、モデルの実験や調査や検証は、その対象物の変化速度に合わせて、やはりカレンダー単位の時間がかかる。

有用であるためには、人工知能は実世界に構築されなければならない。そして、たいていの場合、人工知能による進歩の速度はその世界によって決まる。思考主義だけでは十分ではない。実験を実施し、プロトタイプを構築し、失敗を重ねて、現実に立脚していなければ、知能が思考しても結果を得ることはありえない。知能は実世界の問題を解決するための方法を考えることができない。人間よりも賢い人工知能が現れたその時間に、その日に、その年に、ただちに発見があるわけではない。うまくいけば、発見の速度は著しく速くなるだろう。もっとうまくいけば、超越した人工知能は、人間には思いつかない疑問を発するだろう。しかし、一例を挙げれば、不死を得るという困難な成果を得るまでに、人間に限らず、生物についての実験にはいくつもの世代を要する。

「思考主義」: 七左衛門のメモ帳

 

また、私が以前に翻訳して取り上げたフランソワ・ショレ氏は、非常にIQの高い人が専門分野で高い業績を挙げられるという根拠はなく、また、IQと社会的成功の間の相関はIQが一定値を超えると成立しなくなることを指摘しています。また、ファインマンやジェイムズ・ワトソンといった科学史に名を残す研究者のIQは120〜130程度である一方、今日生きているIQ170以上の人々はさして突出した問題解決者ではないことを述べています。

 

ここから示唆される事実は、思考力は問題解決における一つの要素でしかなく、おそらくごく小さな部分を占めるに過ぎないということです。科学の進歩、あるいは機能するテクノロジーの構築には、実験と観測と測定を通した仮説の立案、そして仮説検証のために更に洗練された実験を必要とします。そして、実験には対象の反応速度や規模に合わせた時間やエネルギーを要し、どれほど高速で深い思考力があったとしても、必ずしも進歩は高速化できません。


序文から何度か書いている通り、私は汎用人工知能の実現は決して不可能ではないと思っていますし、おそらく人間を超える人工知能も (いつかは) 実現できるでしょう。そして、仮に汎用人工知能ができれば、科学の進歩が高速化されることに疑いはありません。知能の無いコンピュータによるシミュレーションでさえ科学の進歩を加速させているのですから。

シミュレーションによる加速

確かに、私たちはコンピュータで原子核反応や分子や細胞のシミュレーションを行うことができ、またシミュレーション自体も計算力の向上によって高速化することが可能です。とあるシンギュラリタリアンは、スーパーコンピュータを用いた仮説の立案と検証により、科学技術研究を高速で進歩させることができると主張しています。けれども、次に挙げる2つの要因によって、現実の問題解決に対するシミュレーションの有用性は本質的に制限されています。

以前に、精神転送と「脳のシミュレーション」について検討した記事の中で、私は「モデルを用いたシミュレーション」と「決定論的シミュレーション」、すなわち「基礎方程式を数値計算するシミュレーション」ないし「現象をそのまま再現するシミュレーション」を分類して取り上げました。

1点目の「モデルを用いたシミュレーション」は、現実を捨象したモデルを使用します。このシミュレーションは高速に実行することができ、パラメータを変化させることで最も有望な方向を発見し、現実世界での試行錯誤の回数を減らすことができるため、進歩の速度を高速化できます。けれども、モデルそのものを構築するためには、現実世界を観察しモデルを検証することが必要であり、この検証作業はやはり現実世界の時間によって制限されます。更には、単純化されたモデルによる検証は、何らかの影響を見落としてしまう可能性があります。一例を挙げれば、新薬の副作用や遺伝子改変の長期的影響は、コンピュータシミュレーションのみでは確認できず、必ず臨床実験を通して検証する必要があります。(この検証もやはり時間を要します)

それでは、シミュレーションを詳細化することで、「現象をそのまま再現するシミュレーション」を構築すれば良いのではないか、という疑問があるかもしれません。
けれども、モデルとシミュレーションを詳細化し強化するにつれて、シミュレーションは現実と同じ程度の速度でしか動作しなくなってしまいます。100%完全なシミュレーションは、現実の世界よりも高速で動作することはありません。(これが「現実」の定義の一つです) もしも仮に、細胞内の分子と人体の細胞全てをシミュレーションすることができたとしても、このシミュレーションは現実の人体程度の速度しか持ちません。

つまり、現実であろうとシミュレーションであろうと、その実験と検証には長い時間を必要とします。そもそもそれ以前の話として、たとえば人体の細胞内の分子と全ての細胞をシミュレーションできるほどに生物のメカニズムは理解されていないのですから。


つまりは、問題解決には知能の高さのみならず現実の世界における実験、検証を必要とし、それには時間とエネルギーを要します。すなわち、どれほど強力な思考力があったとしても、それだけで直ちに高速の、指数関数的な進歩が約束されるわけではなく、「思考主義」の基本的な前提は根本的に誤りです。

参考文献

以下はどちらもwired誌の創刊編集者、ケヴィン・ケリー氏によるエッセイです

ケヴィン・ケリー著作選集 1

ケヴィン・ケリー著作選集 1

〈インターネット〉の次に来るもの 未来を決める12の法則

〈インターネット〉の次に来るもの 未来を決める12の法則

翻訳:AlphaZeroは本当にAI分野の科学的ブレークスルーなのか?

この記事は、Google社の博士研究員であるJose Camacho Collados氏がサイトMedium上で公表した "Is AlphaZero really a scientific breakthrough in AI?" の翻訳です。

 

AlphaZeroは本当にAI分野の科学的ブレークスルーなのか?

おそらくご存じの通り、DeepMind社は最近AlphaZeroに関する論文*1を公表した。AlphaZeroは、自己学習によりチェスや将棋といったゲームをマスターできるシステムである。

詳細に入る前に、私の自己紹介をさせてほしい。
私は広い意味での人工知能(AI)分野の研究者であり、自然言語処理を専門としている。また私はチェスのインターナショナルマスターでもあり、現在韓国のトップ棋士である。しかし、ここ数年間はフルタイムの研究者としての仕事があるために、ほとんど活動できていない。

私の背景知識を基に、この問題に対してできる限り建設的に、合理的な意見を提示したいと思う。明白な理由によりチェスに焦点を当てるものの、いくつかの議論は一般的なものであり、将棋や囲碁にも同様に適用できると考えている。この投稿は私個人の意見を表すものであり、私が専門ではない特定の技術的詳細について誤って解釈している部分があるかもしれないが、予めご了承いただきたいと思う。

チェスは、「人間vs.機械」というコンテキスト、そしてAI研究一般において、疑いなく最も広く研究対象となったゲームである。コンピュータチェス分野における最初のブレークスルーは、1997年にIBM社のディープ・ブルーが当時の世界チャンピオン、ガルリ・カスパロフに勝利したことであろう。*2 当時のコンピュータは、チェスのプレイにおいて人間よりも劣ると見なされていたものの、それ以降の「対戦」では明白にコンピュータが勝利するようになっていった。

f:id:liaoyuan:20171223132648j:plain

写真:1997年のガルリ・カスパロフディープ・ブルーの対戦。引用元:ロイター通信

 

関連した項目としては、数年前にDeepMind社はAlphaGoをリリースしたことが挙げられるだろう。これは、人間界最高の棋士に勝利することもできる囲碁エンジンである。*3 囲碁の複雑性は、チェスよりも大幅に大きいということに注意してほしい。近年利用可能となった高度な計算能力をもってしても、未だ囲碁では人間がコンピュータに勝てると考えられていたが、その大きな理由の一つはこの複雑性である。それゆえ、AlphaGoの勝利はそれ自体がブレークスルーと考えられるだろう。当初の印象的な結果は、AlphaGo Zeroによって更に大きなものとなった。

AlphaGo Zeroは、論文の著者たちの主張によれば、完全な自己対局*4のみで囲碁をマスターしたとされている。そして、更に最近のAlphaZeroは、AlphaGoと類似した汎用的な強化学習アルゴリズムを用いてニューラルネットワークアーキテクチャーを訓練するモデルを用いて、いくつかの最強の将棋・チェスエンジンに対して勝利を収めたとされている。

この業績は、マスメディア*5とチェス専門*6メディアの両方において、ブレークスルーの重大性についての仰々しい誇張を伴って広く報道されている。ところが、AlphaZeroの論文を慎重に読んでみると、主要な主張の妥当性に関して合理的な疑いが生じるのである。

これらの懸念の中には、それほど重要ではないと考えられているものもあるかもしれないし、後に著者らによって説明される可能性があるかもしれない。それにもかかわらず、全ての疑念を合算すると、全体的な主張の科学的妥当性に対して合理的な疑いが生じるのである。

  • 入手可能性/再現性
    DeepMind社によって開発されたAlphaZeroシステムは、どれも一般に公開されていない。ソースコードは公開されておらず、ユーザがテストできる商用バージョンさえ存在していない。これは重大な障害である。
    科学的な観点から見ると、これらのアプローチは他の専門家によって検証されることもできず、他者が成果を利用することもできない。また、この透明性の欠如によって、彼らの実験を再現することも同様に不可能である。
  • 4時間の学習
    AlphaZeroの学習時間の量は、一般のメディアによる説明において最も誤解されている部分だろう。論文によれば、5000個のTPUを用いた4時間の学習の後、AlphaZeroは既にオープンソースのチェスエンジンであるStockfishを超えていたという。(学習完了までには更に数時間を要した) つまりは、1個のTPUを用いた場合の所要時間はおよそ2年であることを意味しており*7、通常のCPUの場合は更に長い時間となるだろう。そのため、4時間という時間は印象的に見えるが (そして実際のところ印象的であるものの)、これは主に最近数年の間に利用可能となった巨大な計算力のキャパシティによるものであり、特にDeepMind社のような企業が巨大な投資を行なったことによるものである。たとえば、2012年までに、チェスの7つ以下の駒による全ての配置は、かなり小さな計算力のみで数学的に完全に解析されている。*8
  • 対Stockfish戦の実験設定
    既存チェスエンジンに対するAlphaZeroの優位性を証明するために、Stockfishとの100回の対戦が行なわれた。(AlphaZeroがStockfishに64-36で勝利した) 対戦相手としてStockfishを選択したことは妥当だろうと思う。オープンソースであり、今日世界最強クラスのチェスエンジンであるからだ。コンピュータチェスの世界チャンピオンシップと見なされている TCEC (Top Chess Engine Competition) の直近の大会では、Stockfishは (KomodoとHoudiniに続いて) 3位の成績を残している。*9
    しかし、実験条件の設定は公平ではないように見える。Stockfishのバージョンは最新版ではなく、更に重要なことにPC用のバージョンを使用していたことだ。AlphaZeroは、かなり高い処理能力を与えられていたにもかかわらずである。たとえば、TCECの大会では、それぞれのエンジンはみな同じプロセッサを使用して対戦する。
    そして、持ち時間の選択も奇妙なものであるようだ。それぞれのエンジンは、1手ごとに1分の持ち時間を与えられている。しかし、大半の人間とコンピュータのチェス大会においては、各プレイヤーは1回のゲーム全体に対してある一定の時間を与えられ、その持ち時間をどう配分するかはプレイヤーに任されている。Stockfishの開発者の1人であるTord Romstadは、これはStockfishの能力を損なう、疑問のある決定であると述べている。「Stockfishの開発においては、ゲームの重要な局面を判定して、いつ追加の検討時間を消費するかを決定するために、大きな労力が割かれている」ためである。*10 また、Tord Romstadは、Stockfishは「これまで受けたどんなテストよりも、多数の検索スレッドが"遊んでいた"」と指摘している。概して、AlphaZeroのStockfishに対する勝率の高さは、トップレベルのチェスプレイヤーから大きな驚きをもって迎えられた。チェスエンジンは、既にほとんど負けることのない強さに達しているという一般的な通念に反するものであったからだ。(たとえば、世界ランキング第9位のヒカル・ナカムラは、AlphaZero対Stockfish戦の低い引き分け率について疑問を唱えている。)*11*12
  • 対Stockfish戦の10試合
    論文中では、たった10個の棋譜のみしか提供されておらず、全てはAlphaZeroが勝利したものである。*13
    これらの棋譜は、概してあらゆるチェスコミュニティで賞賛されている。AlphaZeroがこれらのゲームにおいてチェスに対する深い理解を示しているように見えるからだ。グランドマスターであり、世界チャンピオンのMagnus Carlsenの指導者Peter Heine Nielsen*14、あるいは世界ランキング5位のMaxime Vachier Lagraveは、AlphaZeroのStockfishに対する成績に関して肯定的に評価している事例である*15。しかし、たった10件の、AlphaZeroの勝利した棋譜のみしか公開しないという決定は、新たな疑問を生じさせる。学術論文においては、提案したシステムの弱点や、あまり上手く動作しない事例をいくつか示すことが慣例となっている。そうすれば、提案手法の包括的な理解を得ることができ、また他の研究者がそれを改善できるからだ。他の疑問としては、論文からは明白ではないのだが、ゲームが特定のオープニングから開始されたのか、それとも完全に最初から始められたのか不明であるということだ。これら10件の棋譜の中で使われたオープニングの多様性を見ると、いくつかの初期状態が予め決められていたのではないかと思われる。

    f:id:liaoyuan:20171223132815p:plain
    AlphaZero対Stockfish戦。最終手 Qh1(クイーンをH-1へ移動)。トップグランドマスターのFrancisco Vallejo Ponsは、このゲームは「サイエンス・フィクション」だと評価している。引用元:chess24

  • 自己学習
    AlphaZeroは、完全に自己学習によって学ぶのだろうか。論文中で示された技術的な詳細によれば、これは真実であるらしい。しかし、2点、重要な言葉のニュアンスの違いが存在する。それぞれのゲームのルール、およびゲーム終了までの平均的な手数は、自己対局を開始する前にシステムへ教えておく必要がある。
    1件目の、ゲームのルールに関しては、一見明白であるように見えるかもしれないが、しかし決してささいな問題ではない。これらのゲームのルールを表現する適切なニューラルネットの構造を発見するためには、多大な労力が必要とされる。これは、AlphaZeroの論文で説明されている通りである。AlphaGoで使われていた畳み込みニューラルネット (CNN) をベースとした初期のアーキテクチャは、囲碁に対しては適していたが、他のゲームについてはそうではなかった。たとえば、囲碁とは異なり、チェスや将棋は盤面が非対象であり、いくつかの駒はその位置に応じて振る舞いが変化する。新しいAlphaZeroにおいては、AlphaGoのアルゴリズムをより汎用化したものが導入されており、チェスや将棋といったゲームも含められるようになった。
    2件目のゲーム終了までの平均的な手数 (すなわち、「探索のノイズに対してスケールするように」AlphaZeroに対して平均的な手数が与えられている) についても、対象のゲームに対する何らかの事前知識を必要とする。同様に、手数が最大値を超えたゲームについては、結果を引き分けとして対局を強制終了させるとされている。(この手数の最大値は論文中に示されていない)
    このヒューリスティック手法が、Stockfishとの対戦の際にも使用されたのか、それとも学習中にのみ用いられたのかも明らかではない。
  • 一般化
    一つの汎用強化学習手法を用いて多数の領域で成功を収められるということが、AlphaZeroの大きな主張である。しかし、自己対局に関する前述の指摘点により、AlphaGoとAlphaZeroシステムを他の領域へ一般化することができるのか、多数の議論が起こっている*16。現実世界の多数の状況を、たとえばチェス、囲碁や将棋のように、事前に定義された不変のルールの集合へ単純化できると想定することは、非現実的な仮定であるように思われる。加えて、これらのゲームでは固定のルールが与えられているのみならず、複雑さの違いはあるけれども、これらのゲームは有限である。すなわち、ありうる状況は有界である。固定されたルールの集合を定義できるゲームであっても、状況は異なる場合がある。たとえば、テニスの場合は、考慮しなければならない変数の数は数え上げることが難しいほど多い。そこで、たとえば風向きと風速、ボールの速度、ボールの角度や表面、表面の種類、ラケットの素材、コートの穴などまで考慮に入れなければならない。

我々は、慎重に、疑わしいブレークスルーを科学的に精査しなければならない。とりわけ、我々が現在生きているAIハイプの時代においては。実際のところ、我々自身の業績を正確に説明し宣伝することはAI分野の研究者の責任であり、成長しつつある (しばしば利己的な) AIに対する誤解と神秘化を助長する行為に加担するべきではない。事実、今年12月初頭に開催されたNIPS、間違いなく最も名高いAIカンファレンスにおいて、何名かの研究者がAI科学コミュニティの厳格性の欠如に対して重大な懸念を表明している*17

この件に関しては、主張の妥当性が考慮され、私の懸念が明確化されて解決され、AlphaZeroの功績に関する正確な科学的貢献を判断することができるようになれば良いと望んでいる。現状では、判断を下すことさえ不可能であるからだ。おそらく、より良い実験設計と再現性の向上に向けた努力によって、結論は最初の主張よりも弱くなるだろう。あるいはその逆の結果となるかもしれないが、DeepMind社がこの方向へと力を入れなければ、そのように評価することは困難である。個人的には、DeepMind社のポテンシャルには大きな期待を持っており、AIの分野で重要な発見を成し遂げてほしいと願っている。しかし、彼らの貢献が他の研究者から容易に検討でき、社会に貢献できる方法で提示されてほしいと思う。

*1:原注1:Silver et al. “Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm.” arXiv preprint arXiv:1712.01815 (2017). https://arxiv.org/pdf/1712.01815.pdf

*2:原注2:https://en.wikipedia.org/wiki/Deep_Blue_versus_Garry_Kasparov

*3:原注3:https://www.theguardian.com/technology/2016/mar/15/googles-alphago-seals-4-1-victory-over-grandmaster-lee-sedol

*4:原注4:Silver et al. “Mastering the game of go without human knowledge.” Nature 550.7676 (2017): 354–359. https://www.gwern.net/docs/rl/2017-silver.pdf

*5:原注5: https://www.theguardian.com/technology/2017/dec/07/alphazero-google-deepmind-ai-beats-champion-program-teaching-itself-to-play-four-hours ,原注6:http://www.bbc.com/news/technology-42251535

*6:原注7:https://chess24.com/en/read/news/deepmind-s-alphazero-crushes-chess,原注8:https://www.chess.com/news/view/google-s-alphazero-destroys-stockfish-in-100-game-match

*7:訳注:4時間x5000=2.2年を意味する

*8:原注9:http://chessok.com/?page_id=27966

*9:原注10:https://hunonchess.com/houdini-is-tcec-season-10-champion/

*10:原注10

*11:原注11:https://www.chess.com/news/view/alphazero-reactions-from-top-gms-stockfish-author

*12:訳注:チェスは、将棋と異なり一度盤面から取り除かれた駒を再利用できないため、終盤では盤上の駒数が少なくなり、互いにチェックメイトできない状況になることが多い。そのため、強豪同士の対戦では引き分けが多くなる傾向がある。たとえば、近年の世界大会の試合では6割以上が引き分けとなっている

*13:原注12:AlphaZero対Stockfish戦10試合の再現へのリンク: https://chess24.com/en/watch/live-tournaments/alphazero-vs-stockfish/1/1/1

*14:原注13:https://www.twitch.tv/videos/207257790

*15:原注11

*16:原注14:https://medium.com/@karpathy/alphago-in-context-c47718cb95a5

*17:原注15:Ali Rahimi氏は、2017年のNIPSのテスト・オブ・タイム賞受賞スピーチにおいて、現在の機械学習の実践を「錬金術」と表現している: https://www.youtube.com/watch?v=ORHFOnaEzPc

分子ナノテクノロジー

ここまでのナノテクノロジーに関する議論において、私は「分子ナノテクノロジーはそもそも可能なのか」という議論を避けてきましたが、このビジョンの実現可能性を改めて検討してみたいと思います。

確かに、我々は、ごく限られた状況において、個々の分子の位置を観測し、操作・配置することもできます。私も以前に取り上げた走査型電子顕微鏡のように、分子スケールにおける計測手法は既に実現されています。また、分子の操作に関する有名な事例としては、IBM社の研究者であるドン・アイグラー氏による1989年の実験が挙げられます。これは、35個のキセノン原子を使って、微小サイズの「IBM」のロゴを作成したデモンストレーションです。

f:id:liaoyuan:20171220234049g:plain

キセノン分子で描かれた「IBM」のロゴ。図はWikipediaより

けれども、現在実用化されている「ナノテクノロジー」と、シンギュラリタリアンやトランスヒューマニストによる想像上の「分子ナノテクノロジー (Molecular nanotechnology; MNT)」との間には、馬車と宇宙船との間にある以上の巨大な隔りが存在しているように見えます。

MNTの構想は、工学者であるK・エリック・ドレクスラーの1992年の書籍『ナノシステムズ』によって拓かれました。その基礎をなすアイデアは、端的に言えば「機械工学の原理を化学に適用する」ことであると言えます。
なるほど確かに、生物の身体構造はそれほど合理的であるとは言えません。たとえば、「車輪」という非常に効率的な移動方法は、進化を通して生物が獲得することはできませんでした。また、人間が設計し製造した飛行機は、どんな鳥類よりも速く遠くまで飛ぶことができます。これと同様に、分子サイズの機構においても、人間の設計を通して合理的で高効率な「分子機械」ができるだろうとドレクスラーは主張していました。

この想定は、決して根拠を欠いた荒唐無稽なものではありません。MNTの提唱者は、生物の細胞は分子レベルの機械的な機構を用いてタンパク質や細胞を構成していることを例として挙げています。典型的な事例は、RNAからタンパク質を合成する翻訳の機構でしょう。このプロセスは、細胞内に存在する器官であるリボソームが、メッセンジャーRNAから情報を読み取り、遺伝子のコードをアミノ酸の配列へと変換するもので、このアミノ酸から複雑なタンパク質の三次元構造が作成されます。(Wikipediaにこのメカニズムを表現した模式図とアニメーションがあります。)

分子の合成において、自然淘汰と進化に由来する生物的な脂質やタンパク質のような柔らかい素材を使うのではなく、ダイヤモンドのような「固い」素材を用いることによって、生物的な限界を超えた分子機械を作ることが提案されています。ちょうど、自動車や飛行機が馬や鷹の能力を肥えているように。すなわち、強固なアームを用いて原子や分子を任意の位置へと移動することで望みの分子を作り上げることによって、薬品や食料や電気製品どころか身体や臓器までも作成することが可能になるのだ、と主張されています。

このような分子機械は、既知の物理や化学法則には違反しておらず、原理的には、不可能であることを示す根拠は存在しません。

けれども、MNTはドレクスラーらの想像よりも非常に困難なものであるかもしれないという指摘は、実際のところ、『ナノシステムズ』出版直後から存在していました。代表的な批判としては、以下に挙げたような指摘があります。

  • 微小な世界においては、水などの流体のレイノルズ数は低い値となる。
    すなわち、液体の粘性が高くなり蜂蜜のようなドロドロしたものとなるため、巨視的な環境においては動作する機構が働かなくなる。
  • ファンデルワールス力(分子間力)など、巨視的な環境では無視しうる力が支配的となり、近接した物体同士が付着する傾向がある。
  • 酸素による酸化、分子のブラウン運動などにより、分子スケールの構造が破壊されて機能を失なう。
  • 巨視的な視点からは、正常な分子機械と故障した分子機械を区別する方法がない。


イギリス、シェフィールド大学物理学科教授であり、ナノテクノロジーを専門とするリチャード・ジョーンズ氏は、2008年の記事で以下のように述べています。

…最終的には、「ハードな」ナノマシンパラダイムを採用することに対して、分子生物学の知見が疑問を投げかけている。しかし、もしこの種の機械工学的なアプローチが身体内で働くことがあったとしても、私の見解では、その提唱者はいくつかの問題について深刻に過小評価している。

 

最初に、分子機械の構成要素 --シンギュラリタリアンの見解を支持するものとして、無数のシミュレーションで有名になった歯車など-- は、やや疑わしい化学的性質を持っている。これらの分子機械は、本質的には奇妙で特殊な形状をした分子クラスターであり、安定した原子配列であるか、より安定した形状へと自発的に変形してしまうことが無いのかどうかはまったく明らかではない。これらの結晶格子は、分子モデリングソフトウェアを用いて設計されたものであり、原子価が満たされ、通常の結合角からの歪みが大きくないのであれば、形成された構造が化学的に安定であるという原則に基いている。しかし、これは問題を含んだ仮定である。

規則的な結晶格子は、原子や分子による三次元構造であり、それぞれの間の結合角は明確に定まっている。自然ではない結晶格子 --たとえば、平面ではなく曲面を持つような結晶-- を作る場合は、原子間の自然な距離と角度を歪め、結合に強烈な負荷をかけなければならない。モデリングソフトウェアは、結合が維持されえることを教えてくれるかもしれない。しかし、現実の世界はコンピュータモデルよりも複雑である。たとえば、極小の球形のダイアモンド結晶を作ろうとすると、表面の炭素原子の1つか2つの層が自発的に再配列して、ダイアモンドではなくグラファイトへと変化してしまう。

 

次の問題は、表面力およびこれらのナノボットが持つと思われる広い表面積である。既存の微小な電気機械システムをナノスケールに縮小することを試みた研究者たちは、摩擦と固着の組み合わせが壊滅的な影響をもたらすことを既に発見している。ナノロボットは非常に高いエネルギー密度で動作することが想定されているため、摩擦力がごく小さいものであったとしても、ナノロボットは蒸発ないし炎上してしまう可能性がある。少なくとも、摩擦と固着によって分子機械の化学的安定性は損なわれるだろう。

 

それ以外にも、反応性の物質 --たとえば、水や酸素-- がナノロボットの露出した表面に付着して化学的な性質が乱された場合、ナノロボットに不可逆的な損傷を与える可能性もある。これらの反応性分子を避けるためには、ナノデバイスは完全にコントロールされた環境下で製造されなければならない。医療用のナノロボットを、人体という高温で混雑した外乱の大きな環境においてどのようにすれば保護することができるのか誰も分からない。

 

最後に、高い作業精度と剛性に必要となる複雑な機械的機構が、室温における熱雑音とブラウン運動によってどのような影響を受けるのだろうかという疑問がある。ナノロボットが受ける外乱は、工学的に設計された巨視的構造が受ける外乱を遥かに超える。そのため、ダイアモンドのような固い物質であっても、外乱の影響により曲げられ揺さぶられてしまう。たとえて言うなら、ゴムで作った時計を乾燥機の中に入れて回転させた後、どうして動いていないのかと考えるようなものだろう。つまりは、複雑で固い機械的なシステムがナノ世界で生きのびられるのかどうか、全く分からないということである。

 

これら全ての複雑さをまとめると、私には、ハードなナノマシンが動作できる環境の範囲は、まったく存在しないか、もしくは極めて限られたものであることを示唆しているように思える。もしも、たとえば、このようなデバイスが低温・真空中でしか機能しないのであれば、その影響と経済的な意義は、事実上ゼロであろう。

Rupturing The Nanotech Rapture - IEEE Spectrum

もちろん、ここで挙げられた指摘はMNTの提唱者も認識しており、上記の制約を克服する理論上の手法も提案されています。(そのうちのいくつかはカーツワイル氏も『ポスト・ヒューマン誕生』の中で取り上げています) けれども、当然、MNTの実現可能性に対する真の証明は、実験によるデモンストレーションで実際に示すことです。

ところが、ドレクスラーのデビュー作『創造する機械』の出版から約30年が経過していますが、この分野においては、指数関数的な成長はおろか、MNTに直接的に関連する成果はほとんど見られませんでした。(半導体産業における30年前との差異を比較すると、隔世の感があります) 現在存在する「ナノテクノロジー」の研究室からは目覚ましい進歩が起こっていますが、これはドレクスラー型のビジョンとはほとんど関連の無いものです。

 

もちろん、遠い未来において、ドレクスラーをはじめとするMNTの提唱者たちが描き出した技術が、最終的に何らかの形で実現される可能性までも否定するものではありません。長期的なタイムスパンにおいては、MNTの提唱者が想像したビジョンが、異なる形で実現されるかもしれません。

けれども、上記の事実と過去のナノテクノロジー研究の経緯を考慮する限りにおいて、カーツワイル氏の『ポスト・ヒューマン誕生』の中での予測、つまり、2025年までに分子ナノテクノロジーが「完全な普及」を迎えるという予測を真剣に受け止めることは、極めて困難であると言わざるを得ないでしょう。

参考文献

Nano-nonsense: 25 years of charlatanry - Locklin on science

Soft Machines: Nanotechnology and Life

Soft Machines: Nanotechnology and Life

創造する機械―ナノテクノロジー

創造する機械―ナノテクノロジー

  • 作者: K.エリックドレクスラー,K.Eric Drexler,相沢益男
  • 出版社/メーカー: パーソナルメディア
  • 発売日: 1992/01
  • メディア: 単行本
  • 購入: 1人 クリック: 7回
  • この商品を含むブログ (4件) を見る

リスクアセスメントの特異点 無限大x微小値問題あるいはパスカルの賭け (2)

リスクアセスメントの考え方について議論した前回の記事で、私の議論は『パスカルの賭け』をベースにしていることを述べました。そこで、今回はリスクマネジメントと意思決定理論の観点から見た『パスカルの賭け』について検討してみたいと思います。

パスカルの賭け

ブレーズ・パスカルは、17世紀フランスに生きた数学者、哲学者、神学者であり、物理学の世界では、流体の圧力に関する「パスカルの原理」や圧力単位の「(ヘクト)パスカル」に、数学では「パスカルの三角形」や幾何学の「パスカルの定理」にその名を残しています。また、パスカルは信仰心篤いクリスチャンでもあり、キリスト教の護教論に関するメモを残していました。パスカルは39歳で早逝したため、生前、護教論はまとまった形で発表されることはありませんでしたが、彼の死後、さまざまな編者によって整理されたメモが『パンセ』として出版されています。有名な「人間は考える葦である」というフレーズも、この本の中に含まれているものです。

続きを読む

リスクアセスメントの特異点 無限大x微小値問題あるいはパスカルの賭け (1)

以前の記事で、私は遠い将来の不確かな未来予測に対して、リスクマネジメントの考え方を適用することを批判しました。

この論点は重要だと考えるので、再度、該当する議論をまとめておきます。


標準的なリスクマネジメントの方法論において、「リスク」とは「(リスク)=(事象の発生確率)×(事象のインパクト)」という期待値によって定義されます。この評価により、「影響が些細ではあっても日常的に頻発するミス」と「めったに発生しない稀な重大事故」の両方に同様の注意を払うべきであるという結論が得られます。このリスク計算は、有限の範囲内においては妥当なものです。(たとえば、東日本大震災における原発事故の「発生確率」と「インパクト」を考えてみてください)

続きを読む

翻訳:シンギュラリティは来ない 〜進歩の速度に関して

この文章は、Google社のソフトウェアエンジニア、機械学習研究者 François Chollet氏が、2012年にサイトSphere Engineeringのブログで公開したエッセイ "The Singularity is not coming On the speed of progress" の翻訳です。なお、原文はリンク切れのためアーカイブを用いました。

続きを読む

翻訳:知能爆発の不可能性

この文章は、Google社のソフトウェアエンジニア、機械学習研究者 François Chollet氏がサイトMedium上で公開したエッセイ "The impossibility of intelligence explosion" の翻訳です。

知能爆発の不可能性

1965年、I.J.グッドは、人工知能 (AI) に関連して、「知能爆発」に関する考えを初めて提示した。

超知能機械を、いかなる賢い人間もはるかに凌ぐ知的な機械であると仮定する。そのような機械の設計も知的活動に他ならないので、超知能機械はさらに知的な機械を設計することができるだろう。それによって、必然的に知能の爆発的発展が起こり、人類の知能は置き去りにされるだろう。ゆえに、最初の超知能機械が人類の最後の発明となる。その機械が、我々に機械を制御し続ける方法を教えてくれるほどに素直なものであると考えるならば。

数十年後、「知能爆発」の概念 --「超知能」の突発的な出現を招き、偶発的な人類の終焉をもたらす-- が、AIコミュニティを支配している。著名なビジネスリーダーが、核戦争や気候変動よりも大きなリスクであると主張している。機械学習分野の一般的な大学院生も、「知能爆発」を支持している。2015年にAI研究者に対してメールで行なわれた調査では、回答者の29%は知能爆発が「ありえる (likely)」または「非常にありえる (highly likely)」と答えた。さらに、21%は「深刻な可能性がある(serious possibility)」と考えていた。

知能爆発説の基本的な前提は、近い将来において、人間の知能をわずかに上回る汎用的な問題解決能力を備えた、最初の「シードAI」が創造されるというものだ。このシードAIは、より優れたAIの設計を開始し、再帰的な自己改善ループを開始するだろうと考えられており、即座に人間を置き去りにして、短時間のうちに桁違いに人間の知能を追い抜いていくだろうと考えられている。この理論の提唱者たちは、超知能を一種の超能力のように捉えており、周囲の環境を変えてしまう超自然的な能力に近いものと考えているようだ。 --たとえば、サイエンスフィクション映画『トランセンデンス (2014)』 に見られるように。超知能は、それゆえ万能に近い能力を持つことが想定されており、人類の生存に対する脅威となると考えられている。

この種のサイエンスフィクション的な物語によって、AIのリスクと規制の必要性に関する現在進行中の公的な議論が、危険なまでに歪められている。この記事で、私は知能爆発は起こりえないと主張したい。 --つまり、知能爆発の考え方は、知能の性質と再帰的な自己改善システムの振る舞いに関する深刻な誤解に由来しているのだと。私は、知能システムと再帰的システムの具体的な観察に基づき、この誤解を指摘してみたい。

続きを読む