シンギュラリティ教徒への論駁の書

“Anyone who believes that exponential growth can go on forever in a finite world is either a madman or an economist.” - Kenneth Boulding

分子ナノテクノロジー

ここまでのナノテクノロジーに関する議論において、私は「分子ナノテクノロジーはそもそも可能なのか」という議論を避けてきましたが、このビジョンの実現可能性を改めて検討してみたいと思います。

確かに、我々は、ごく限られた状況において、個々の分子の位置を観測し、操作・配置することもできます。私も以前に取り上げた走査型電子顕微鏡のように、分子スケールにおける計測手法は既に実現されています。また、分子の操作に関する有名な事例としては、IBM社の研究者であるドン・アイグラー氏による1989年の実験が挙げられます。これは、35個のキセノン原子を使って、微小サイズの「IBM」のロゴを作成したデモンストレーションです。

f:id:liaoyuan:20171220234049g:plain

キセノン分子で描かれた「IBM」のロゴ。図はWikipediaより

けれども、現在実用化されている「ナノテクノロジー」と、シンギュラリタリアンやトランスヒューマニストによる想像上の「分子ナノテクノロジー (Molecular nanotechnology; MNT)」との間には、馬車と宇宙船との間にある以上の巨大な隔りが存在しているように見えます。

MNTの構想は、工学者であるK・エリック・ドレクスラーの1992年の書籍『ナノシステムズ』によって拓かれました。その基礎をなすアイデアは、端的に言えば「機械工学の原理を化学に適用する」ことであると言えます。
なるほど確かに、生物の身体構造はそれほど合理的であるとは言えません。たとえば、「車輪」という非常に効率的な移動方法は、進化を通して生物が獲得することはできませんでした。また、人間が設計し製造した飛行機は、どんな鳥類よりも速く遠くまで飛ぶことができます。これと同様に、分子サイズの機構においても、人間の設計を通して合理的で高効率な「分子機械」ができるだろうとドレクスラーは主張していました。

この想定は、決して根拠を欠いた荒唐無稽なものではありません。MNTの提唱者は、生物の細胞は分子レベルの機械的な機構を用いてタンパク質や細胞を構成していることを例として挙げています。典型的な事例は、RNAからタンパク質を合成する翻訳の機構でしょう。このプロセスは、細胞内に存在する器官であるリボソームが、メッセンジャーRNAから情報を読み取り、遺伝子のコードをアミノ酸の配列へと変換するもので、このアミノ酸から複雑なタンパク質の三次元構造が作成されます。(Wikipediaにこのメカニズムを表現した模式図とアニメーションがあります。)

分子の合成において、自然淘汰と進化に由来する生物的な脂質やタンパク質のような柔らかい素材を使うのではなく、ダイヤモンドのような「固い」素材を用いることによって、生物的な限界を超えた分子機械を作ることが提案されています。ちょうど、自動車や飛行機が馬や鷹の能力を肥えているように。すなわち、強固なアームを用いて原子や分子を任意の位置へと移動することで望みの分子を作り上げることによって、薬品や食料や電気製品どころか身体や臓器までも作成することが可能になるのだ、と主張されています。

このような分子機械は、既知の物理や化学法則には違反しておらず、原理的には、不可能であることを示す根拠は存在しません。

けれども、MNTはドレクスラーらの想像よりも非常に困難なものであるかもしれないという指摘は、実際のところ、『ナノシステムズ』出版直後から存在していました。代表的な批判としては、以下に挙げたような指摘があります。

  • 微小な世界においては、水などの流体のレイノルズ数は低い値となる。
    すなわち、液体の粘性が高くなり蜂蜜のようなドロドロしたものとなるため、巨視的な環境においては動作する機構が働かなくなる。
  • ファンデルワールス力(分子間力)など、巨視的な環境では無視しうる力が支配的となり、近接した物体同士が付着する傾向がある。
  • 酸素による酸化、分子のブラウン運動などにより、分子スケールの構造が破壊されて機能を失なう。
  • 巨視的な視点からは、正常な分子機械と故障した分子機械を区別する方法がない。


イギリス、シェフィールド大学物理学科教授であり、ナノテクノロジーを専門とするリチャード・ジョーンズ氏は、2008年の記事で以下のように述べています。

…最終的には、「ハードな」ナノマシンパラダイムを採用することに対して、分子生物学の知見が疑問を投げかけている。しかし、もしこの種の機械工学的なアプローチが身体内で働くことがあったとしても、私の見解では、その提唱者はいくつかの問題について深刻に過小評価している。

 

最初に、分子機械の構成要素 --シンギュラリタリアンの見解を支持するものとして、無数のシミュレーションで有名になった歯車など-- は、やや疑わしい化学的性質を持っている。これらの分子機械は、本質的には奇妙で特殊な形状をした分子クラスターであり、安定した原子配列であるか、より安定した形状へと自発的に変形してしまうことが無いのかどうかはまったく明らかではない。これらの結晶格子は、分子モデリングソフトウェアを用いて設計されたものであり、原子価が満たされ、通常の結合角からの歪みが大きくないのであれば、形成された構造が化学的に安定であるという原則に基いている。しかし、これは問題を含んだ仮定である。

規則的な結晶格子は、原子や分子による三次元構造であり、それぞれの間の結合角は明確に定まっている。自然ではない結晶格子 --たとえば、平面ではなく曲面を持つような結晶-- を作る場合は、原子間の自然な距離と角度を歪め、結合に強烈な負荷をかけなければならない。モデリングソフトウェアは、結合が維持されえることを教えてくれるかもしれない。しかし、現実の世界はコンピュータモデルよりも複雑である。たとえば、極小の球形のダイアモンド結晶を作ろうとすると、表面の炭素原子の1つか2つの層が自発的に再配列して、ダイアモンドではなくグラファイトへと変化してしまう。

 

次の問題は、表面力およびこれらのナノボットが持つと思われる広い表面積である。既存の微小な電気機械システムをナノスケールに縮小することを試みた研究者たちは、摩擦と固着の組み合わせが壊滅的な影響をもたらすことを既に発見している。ナノロボットは非常に高いエネルギー密度で動作することが想定されているため、摩擦力がごく小さいものであったとしても、ナノロボットは蒸発ないし炎上してしまう可能性がある。少なくとも、摩擦と固着によって分子機械の化学的安定性は損なわれるだろう。

 

それ以外にも、反応性の物質 --たとえば、水や酸素-- がナノロボットの露出した表面に付着して化学的な性質が乱された場合、ナノロボットに不可逆的な損傷を与える可能性もある。これらの反応性分子を避けるためには、ナノデバイスは完全にコントロールされた環境下で製造されなければならない。医療用のナノロボットを、人体という高温で混雑した外乱の大きな環境においてどのようにすれば保護することができるのか誰も分からない。

 

最後に、高い作業精度と剛性に必要となる複雑な機械的機構が、室温における熱雑音とブラウン運動によってどのような影響を受けるのだろうかという疑問がある。ナノロボットが受ける外乱は、工学的に設計された巨視的構造が受ける外乱を遥かに超える。そのため、ダイアモンドのような固い物質であっても、外乱の影響により曲げられ揺さぶられてしまう。たとえて言うなら、ゴムで作った時計を乾燥機の中に入れて回転させた後、どうして動いていないのかと考えるようなものだろう。つまりは、複雑で固い機械的なシステムがナノ世界で生きのびられるのかどうか、全く分からないということである。

 

これら全ての複雑さをまとめると、私には、ハードなナノマシンが動作できる環境の範囲は、まったく存在しないか、もしくは極めて限られたものであることを示唆しているように思える。もしも、たとえば、このようなデバイスが低温・真空中でしか機能しないのであれば、その影響と経済的な意義は、事実上ゼロであろう。

Rupturing The Nanotech Rapture - IEEE Spectrum

もちろん、ここで挙げられた指摘はMNTの提唱者も認識しており、上記の制約を克服する理論上の手法も提案されています。(そのうちのいくつかはカーツワイル氏も『ポスト・ヒューマン誕生』の中で取り上げています) けれども、当然、MNTの実現可能性に対する真の証明は、実験によるデモンストレーションで実際に示すことです。

ところが、ドレクスラーのデビュー作『創造する機械』の出版から約30年が経過していますが、この分野においては、指数関数的な成長はおろか、MNTに直接的に関連する成果はほとんど見られませんでした。(半導体産業における30年前との差異を比較すると、隔世の感があります) 現在存在する「ナノテクノロジー」の研究室からは目覚ましい進歩が起こっていますが、これはドレクスラー型のビジョンとはほとんど関連の無いものです。

 

もちろん、遠い未来において、ドレクスラーをはじめとするMNTの提唱者たちが描き出した技術が、最終的に何らかの形で実現される可能性までも否定するものではありません。長期的なタイムスパンにおいては、MNTの提唱者が想像したビジョンが、異なる形で実現されるかもしれません。

けれども、上記の事実と過去のナノテクノロジー研究の経緯を考慮する限りにおいて、カーツワイル氏の『ポスト・ヒューマン誕生』の中での予測、つまり、2025年までに分子ナノテクノロジーが「完全な普及」を迎えるという予測を真剣に受け止めることは、極めて困難であると言わざるを得ないでしょう。

参考文献

Nano-nonsense: 25 years of charlatanry - Locklin on science

Soft Machines: Nanotechnology and Life

Soft Machines: Nanotechnology and Life

創造する機械―ナノテクノロジー

創造する機械―ナノテクノロジー

  • 作者: K.エリックドレクスラー,K.Eric Drexler,相沢益男
  • 出版社/メーカー: パーソナルメディア
  • 発売日: 1992/01
  • メディア: 単行本
  • 購入: 1人 クリック: 7回
  • この商品を含むブログ (4件) を見る

リスクアセスメントの特異点 無限大x微小値問題あるいはパスカルの賭け (2)

リスクアセスメントの考え方について議論した前回の記事で、私の議論は『パスカルの賭け』をベースにしていることを述べました。そこで、今回はリスクマネジメントと意思決定理論の観点から見た『パスカルの賭け』について検討してみたいと思います。

パスカルの賭け

ブレーズ・パスカルは、17世紀フランスに生きた数学者、哲学者、神学者であり、物理学の世界では、流体の圧力に関する「パスカルの原理」や圧力単位の「(ヘクト)パスカル」に、数学では「パスカルの三角形」や幾何学の「パスカルの定理」にその名を残しています。また、パスカルは信仰心篤いクリスチャンでもあり、キリスト教の護教論に関するメモを残していました。パスカルは39歳で早逝したため、生前、護教論はまとまった形で発表されることはありませんでしたが、彼の死後、さまざまな編者によって整理されたメモが『パンセ』として出版されています。有名な「人間は考える葦である」というフレーズも、この本の中に含まれているものです。

続きを読む

リスクアセスメントの特異点 無限大x微小値問題あるいはパスカルの賭け (1)

以前の記事で、私は遠い将来の不確かな未来予測に対して、リスクマネジメントの考え方を適用することを批判しました。

この論点は重要だと考えるので、再度、該当する議論をまとめておきます。


標準的なリスクマネジメントの方法論において、「リスク」とは「(リスク)=(事象の発生確率)×(事象のインパクト)」という期待値によって定義されます。この評価により、「影響が些細ではあっても日常的に頻発するミス」と「めったに発生しない稀な重大事故」の両方に同様の注意を払うべきであるという結論が得られます。このリスク計算は、有限の範囲内においては妥当なものです。(たとえば、東日本大震災における原発事故の「発生確率」と「インパクト」を考えてみてください)

続きを読む

翻訳:シンギュラリティは来ない 〜進歩の速度に関して

この文章は、Google社のソフトウェアエンジニア、機械学習研究者 François Chollet氏が、2012年にサイトSphere Engineeringのブログで公開したエッセイ "The Singularity is not coming On the speed of progress" の翻訳です。なお、原文はリンク切れのためアーカイブを用いました。

続きを読む

翻訳:知能爆発の不可能性

この文章は、Google社のソフトウェアエンジニア、機械学習研究者 François Chollet氏がサイトMedium上で公開したエッセイ "The impossibility of intelligence explosion" の翻訳です。

知能爆発の不可能性

1965年、I.J.グッドは、人工知能 (AI) に関連して、「知能爆発」に関する考えを初めて提示した。

超知能機械を、いかなる賢い人間もはるかに凌ぐ知的な機械であると仮定する。そのような機械の設計も知的活動に他ならないので、超知能機械はさらに知的な機械を設計することができるだろう。それによって、必然的に知能の爆発的発展が起こり、人類の知能は置き去りにされるだろう。ゆえに、最初の超知能機械が人類の最後の発明となる。その機械が、我々に機械を制御し続ける方法を教えてくれるほどに素直なものであると考えるならば。

数十年後、「知能爆発」の概念 --「超知能」の突発的な出現を招き、偶発的な人類の終焉をもたらす-- が、AIコミュニティを支配している。著名なビジネスリーダーが、核戦争や気候変動よりも大きなリスクであると主張している。機械学習分野の一般的な大学院生も、「知能爆発」を支持している。2015年にAI研究者に対してメールで行なわれた調査では、回答者の29%は知能爆発が「ありえる (likely)」または「非常にありえる (highly likely)」と答えた。さらに、21%は「深刻な可能性がある(serious possibility)」と考えていた。

知能爆発説の基本的な前提は、近い将来において、人間の知能をわずかに上回る汎用的な問題解決能力を備えた、最初の「シードAI」が創造されるというものだ。このシードAIは、より優れたAIの設計を開始し、再帰的な自己改善ループを開始するだろうと考えられており、即座に人間を置き去りにして、短時間のうちに桁違いに人間の知能を追い抜いていくだろうと考えられている。この理論の提唱者たちは、超知能を一種の超能力のように捉えており、周囲の環境を変えてしまう超自然的な能力に近いものと考えているようだ。 --たとえば、サイエンスフィクション映画『トランセンデンス (2014)』 に見られるように。超知能は、それゆえ万能に近い能力を持つことが想定されており、人類の生存に対する脅威となると考えられている。

この種のサイエンスフィクション的な物語によって、AIのリスクと規制の必要性に関する現在進行中の公的な議論が、危険なまでに歪められている。この記事で、私は知能爆発は起こりえないと主張したい。 --つまり、知能爆発の考え方は、知能の性質と再帰的な自己改善システムの振る舞いに関する深刻な誤解に由来しているのだと。私は、知能システムと再帰的システムの具体的な観察に基づき、この誤解を指摘してみたい。

続きを読む

グレイ・グーとシンギュラリティのリスクマネジメント論

シンギュラリタリアンやトランスヒューマニストが (分子) ナノテクノロジーの重要な応用先としてみなしているのは、医療分野であるということをこの連載の最初に述べました。

そこでは、分子スケールで動作するナノマシンを体内に注入することによって、たとえば、内臓疾患を体内から検査したり、病原菌や癌細胞を個別に破壊して治療すること、更には、身体や臓器そのものを作り替えることで寿命を劇的に延長したり、脳をスキャンすることで自分の自我をコンピュータ上にアップロードすることなどが想像されています。

ここで1つ大きな問題となるのは、ヒトの1つの細胞は約10^14個の原子から構成されており、個々の臓器には10億〜100億もの細胞が存在するということです。個々の細胞や臓器をナノスケールで操作することは (もし可能だとしても) 途方もない時間を要するでしょう。

 アセンブラーと指数関数的製造

この問題に対して、分子ナノテクノロジーの提唱者が仮説上の解決策として提案しているアイデアに、「自己増殖型のアセンブラー(レプリケーター)」があります。すなわち、ナノマシン自体に自身と同等のナノマシンを作成する能力を持たせることによってナノマシン自体を倍々で増加させ、巨視的な物体を操作するに足る大量のナノマシンを作り出すというものです。

そもそも「レプリケーター」を実際に作ることが可能なのかという工学的な問題はさておき、「自己増殖型のナノマシンが自己増殖型のナノマシンを作成する」というアイデアナノマシンが一定時間のうちに倍々に、指数関数的に増えていくという考え方は、ある種の破滅的な未来像へと即座に継がるということは理解できるでしょう。暴走し制御不能となったアセンブラーが、指数関数的に周囲のあらゆる物質をアセンブラーへと作り替えていき、短時間のうちに地球上のあらゆる物質がアセンブラーと変えられてしまうという、一種の終末論的な未来予想です。

この仮説上の終末予測は「グレイ・グー」、原義では「灰色のドロドロ」と呼ばれています。分子ナノテクノロジーの提唱者エリック・ドレクスラーが著書『創造する機械』の中で議論し、またビル・ジョイ氏の『ワイアード』誌の記事「なぜ未来は我々を必要としないのか?*1」の中でも取り上げられており、特に米国では (サイエンスフィクション作家や未来学者を中心に) 非常に活発に可能性と危険性が議論され、科学者や政府関係者がその可能性を打ち消すために発言が必要なまでの状況となったようです。ナノ・ハイプの記述によれば、『グレイ・グーのシナリオは「ばい菌や病原菌に対する人間の原始的な恐怖を引き出した」』ためであると記載されています。

リスク、確率、期待値

ここで私が議論したいことは、グレイ・グーのシナリオの妥当性や蓋然性の高低ではありません。(実際のところ、グレイ・グーどころか「自己増殖しないナノマシン」でさえ本当に可能であるのかすらまだ実証されていないのですから) そもそも、ナノテクに対するハイプ自体が下火の現在、グレイ・グーを大真面目に心配している人もごく少数でしょう。

けれども、注目するべきは、破滅的で終末論的な将来予測を持ち出すことを正当化するための論理です。


グレイ・グーに限らず極端な将来予測を取り上げる論者は、議論の必要性を述べるために、しばしばリスク評価に関する期待値を持ち出しています。
(リスク)=(事象の発生確率)x(予想される損害) 」として定義される「リスク=期待値」を考慮すると、発生確率が微小であっても損害が巨大であるのならば「リスク」はある一定の値を取ります。ゆえに、ありふれた些細なミスも、ごく稀にしか発生しない重大な事故も、双方に同様の注意を払うべきであるという結論が得られます。

このリスク計算の考え方は、ある範囲内では合理的なものです。2011年に発生した東日本大震災原発事故の際、政府・東京電力関係者は「想定外」、「予見不可能」という言葉を繰り返し発していました。けれども、原発事故によって発生することが予想される被害は甚大なものになるということは、過去の原発事故から既に広く知られていた事実でした。つまり、地震津波といった天災の確率がいかに低いものであり予測不可能であったとしても、原発事故を想定した対策を事前に準備できなかったことに対して政府・電力会社が不作為の責任を負うことは避けられないでしょう。

同様の論理が、ナノテクのグレイ・グーの議論にも、そして人工知能のシンギュラリティに関する議論を正当化するためにも使われています。このような極端な未来を考慮すると、そこで予測される損害は不可逆的かつ無限大 (ないし極めて巨大な値)であるために、どれほど発生確率が小さくとも、リスクの値「事象の発生確率 (有限の正の値)」x「損害 (無限大)」から計算される値は、無限大の (ないし極めて巨大な) 値を取ります。ゆえに、蓋然性が高いと思われる平凡な未来よりも、極端で破滅的な (またはユートピア的な) 未来像を考慮し、議論することが必要なのである、と主張されることがあります。

この主張は、一見、地震原発事故のリスク計算と同様の論理構造を持っているかのように見えます。けれども、私はこの主張はあまり妥当ではないと考えています。


まず、「事象の発生確率」について言えば、天災や戦乱のような人類史において度々起きた「ありふれた」出来事と異なり、グレイ・グーやシンギュラリティの「発生確率」を明確に定義することはできません。そもそも、ジャン=ガブリエル・ガナシア氏が言うところの「蓋然性や可能性を論じる前に信憑性すら疑われる話」なのですから。

また、人類史において前例がなく、発生確率は極小と考えられる事象であっても、人類に対して不可逆かつ甚大な影響をもたらすと考えられる出来事は多数存在しています。たとえば、巨大隕石の衝突、破局噴火、核戦争、巨大磁気嵐、ガンマ線バースト、宇宙人の地球侵略、アセンションなどいくらでも挙げられるでしょう。(これらの事象が起きないということを明確に証明することは困難です) ここで挙げたような、可能性を否定することができず、グレイ・グーやシンギュラリティよりも蓋然性が高いと思われる、あらゆる破滅的な終末を考慮せず、自分が好む特定の説だけに注目することは、論理整合的な態度であるとは言い難いものです。

そして、「予想される損害」に関して言えば、この項に無限大 (または極めて巨大な値)  が入ることは、リスク評価の計算をひどく歪めてしまいます*2

一等の賞金が無限大であるような宝くじの存在を仮定してみます。すると、たとえ一等の確率がどれほど小さいものであったとしても、それがゼロでない限りは全財産をつぎ込んででも宝くじを買うことが「合理的」であるという、パラドックスめいた状況に陥ります。想定被害が無限大の場合も同様であり、被害を避けるためには現時点の全てのリソースをつぎ込んででも回避することが必要であるという、これまたとんでもなく馬鹿げた話となってしまいます。セントルイスワシントン大学の哲学教授であるロイ・ソーレンセンは、意思決定モデルとしての『パスカルの賭け』を検討した論文の中で、サンクトペテルブルクの逆説を例に挙げて、無限大の期待値を含む意思決定理論の妥当性について注意を促しています*3

極端な未来予想のリスク計算においては、「事象の発生確率」と「予想される損害」のそれぞれについて、非常に重大な問題が隠れていると言えます。

なぜこの議論は問題か

さて、このようなリスク推定の議論が問題であるのは、しばしばこの論理が立証責任を懐疑論者に転嫁するために用いられる手段であるからです。既に何度か、私はシンギュラリタリアンが立証責任を放棄し、むしろ懐疑論者へと立証責任を押し付ける傾向について論じてきました。

ここでは、トランスヒューマニストとして著名な哲学者、ニック・ボストロム氏の論文から一例を紹介します。

…to assume that artificial intelligence is impossible or will take thousands of years to develop seems at least as unwarranted as to make the opposite assumption. At a minimum, we must acknowledge that any scenario about what the world will be like in 2050 that postulates the absence of human-level artificial intelligence is making a big assumption that could well turn out to be false. It is therefore important to consider the alternative possibility: that intelligent machines will be built within 50 years.*4

(試訳) 人工知能が不可能である、または開発に数千年かかると推定するのは、少なくとも、その逆の仮定をすることと同じくらい不当であるように思われる。最低でも、ヒトレベルの人工知能が存在しないことを前提とする2050年の世界に関するシナリオは、誤っている可能性の高い仮定であることを認めなければならない。したがって、別の可能性を考えることが重要である:知能機械は50年以内に構築される。

この議論は、無知論証の一種であると言えます。すなわち、可能性を否定する根拠がないのだからそれは可能である (議論に値する)、と主張する論理的な誤りです*5

論理的に、あるいは物理法則からは予測を否定できないため可能性はゼロではないのだから、あとは極端な被害や利益をもたらす予測を提示しさえすれば、期待値は巨大となる。ゆえに、その予測は議論に値する、それを否定するのであれば懐疑論者が不可能である根拠を示せ、というわけです。

実際のところ、何らかの未来予測について語る場合には、普通は予測者自身に予測の妥当性を立証する責任がある、と考えられます。たとえば、地球温暖化の人為説を論じるのであれば、通常は人為説を唱える側が人間の活動と温暖化との関連を立証する責任が発生します。ところが、この種の誤ったリスク計算の観点からは、むしろ懐疑論者が根拠を立証する責任を負わされ、否定の根拠を示せないのであれば、懐疑論の主張自体が無責任だと非難されてしまうのです。

このような責任転嫁は、シンギュラリティ論に限らず、ナイーブな反原発運動や代替医療など疑似科学的な主張において広く見られます。

 

もう一件、この種の議論が問題である実際的な理由は、現在現実に発生している問題、または近い将来発生しうる蓋然性の高い問題への注目を下げてしまう可能性があることです。

ナノテクの例を挙げれば、カーボンナノチューブが発ガン性を持つ可能性が指摘されていますし、脳に蓄積した微小粒子とアルツハイマー病の関連を疑う研究もあります。人工知能機械学習の問題について言えば、たとえばビッグデータの利用にからむプライバシー権の問題、中立を装ったアルゴリズムによって人々が眼にする記事やSNSの投稿が巧妙に操作され、特定の企業、政党や国家へ有利なように意見が誘導される問題などが挙げられるでしょう。

このような問題は、科学技術的な観点からの議論のみならず、法的な制度設計も含めた広範な議論を必要としますが、極端な未来予測によってそれが覆い隠される危険性も存在しています。それどころか、この種の極端な未来予測は、ガナシア氏が指摘する通り現在起きている何らかの問題から世間の注目を遠ざけるための目くらましとして使用されている可能性さえあります。この種の問題は、遠い将来に起きる可能性があるごく小さな発生確率の問題ではなく、今の時点で既に起きている現実の問題です。

ドイツ ダルムシュタット工科大学の哲学・科学哲学教授のアルフレッド・ノルドマン教授は、哲学や倫理学の思考のために用いられる思考実験において、科学技術を乱用することを戒めています。それは、我々の倫理的な関心や公共的な議論は希少な有限の資源であり、現在においてすらテクノロジーに由来する問題が生じている状況で、遠い未来の不確かな予測に対して、資源を乱用するべきではない、という理由からです。ノルドマン教授が主に対象としているのはナノテクノロジーですが、これは人工知能に関する昨今の議論にも全く同様に当てはまります*6

 

もちろん、改めて言うまでもなく未来は不確実であり、未来のリスクを評価しマネジメントすることは重要なプロセスです。けれども、この種の極端な未来予測が、私たちの将来に関する議論と政策を歪めることは望ましくない、と私は考えています。

*1:ビル・ジョイなぜ未来は我々を必要としないのか?

*2:これは原義のシンギュラリティ、無限大の発生により論理や規則が破綻することですね。

*3:Roy Sorensen(1994) "Infinite decision theory" Gambling on God: Essays on Pascal's Wager, p.139-159

*4:Nick Bostrom (2006), Welcome to a world of exponential change

*5:ホメオパシーなどの代替医療に効果があることは否定できないのだから、それは議論に値する、否定するのであればその根拠を示せ、という疑似科学的主張と論理的に同等。

*6:Alfred Nordmann (2007), If and Then: A Critique of Speculative NanoEthics https://www.americanbar.org/content/dam/aba/administrative/bioethics/nordmann-if-and-then-a-critique-of-speculative-nanoethics.authcheckdam.pdf

人工知能とサイエンスフィクション

前回のエントリでは、ナノテクノロジー概念の起源を探っていく中で、その系譜がサイエンスフィクションと魔術へと辿れることを指摘しました。

そして、ここで私が問題にしている人工知能とシンギュラリティ論の起源が、サイエンスフィクションに由来することは、今更改めて指摘するまでもなく、広く知られた事実でしょう。

現代的なシンギュラリティ論を唱えたヴァーナー・ヴィンジ氏は、数学者であると同時にサイエンスフィクション作家でもありました。初期のシンギュラリティ論は、研究者よりはむしろサイエンスフィクションの作品を通して議論が進められていたものです。

人工知能そのものに関しても、実用的な技術開発よりもサイエンスフィクション的な想像力が先行して大衆的なイメージが作られたと言えますし、人造人間や人工的な生命体の創造という観点で考えれば、メアリー・シェリーの『フランケンシュタイン』から錬金術パラケルススホムンクルスに至るまで、人間のイマジネーションの中において非常に長い歴史が存在しています。

もちろん、現代の人工知能 (機械学習) の真摯な研究者は、現代の人工知能研究はそのようなオカルト的/サイエンスフィクション的な想像力からは離れたものであると主張するでしょう。けれども、前回のエントリで取り上げたナノテクノロジーの場合と同様、シンギュラリタリアン/トランスヒューマニストのビジョンの中では、魔術的な思考は極めて一般的なものであるように見えます。

 

第2回シンギュラリティシンポジウム ⑥ パネルディスカッション「日本からシンギュラリティを起こすには〜その具体的な方策」 | シンギュラリティサロン

「シンギュラリティ」を題したシンポジウムにおいて、松田卓也氏、山川宏氏や高橋恒一氏といったシンギュラリティ論に親和的な研究者たちが、「地球派」や「宇宙派」といったサイエンスフィクションと見まごうばかりの語彙を使いながら人工知能の未来について語っている姿を見ると、オカルト/サイエンスフィクション的な発想と汎用人工知能の研究の現場は、さほどの隔たりが存在しないように感じられます。

これまで私が延々と述べてきた通り、シンギュラリティ論は「あまりにありそうもないことであるため、真面目に検討するに値しない」議論であり、この種の議論に参加する研究者は、残念ながら研究者としての能力と資質に疑問を感じざるを得ません。もしも彼らがこの種の議論を全て信じ込んでいるのであれば彼らの能力と知性を疑わざるを得ませんし、研究資金や投資獲得のために自分ですら信じていない与太話を利用しているのであれば、今度は研究者としての知的誠実さに対する問題となります。

このような大風呂敷を広げた未来予測と、伝統的な科学的・学問的価値観との葛藤が、科学技術研究そのものに対するある種の冷笑主義を招きかねないという懸念は、おそらく理解できるだろうと思います。端的に言えば、学者は論文以外の場所、研究提案や自身の成果のメディア向けリリースなどでは、ホラを吹くものだと見なされかねません。

 

このブログでも度々取り上げているナノテクノロジー研究者のリチャード・ジョーンズ氏は、90年代から2000年代に広まったナノテクに対するハイプ、つまり非現実的な期待と恐怖を煽る誇大広告が、ナノテク分野の健全な発展を損なったとして、シンギュラリタリアニズム/トランスヒューマニズムに対して非常に強い調子で批判を加えています。

現在の(汎用)人工知能研究も、ナノテクのハイプ、そしてかつての「人工知能の冬」と同様の運命を辿る可能性は非常に高いと考えています。そして、おそらく、その実現しなかった約束に対する支払いは、人工知能機械学習のコミュニティ自身が負うことになるでしょう。