シンギュラリティ教徒への論駁の書

“Anyone who believes that exponential growth can go on forever in a finite world is either a madman or an economist.” - Kenneth Boulding

生物の情報処理の原理は分子の相互作用である

生物の情報処理において、何らかの統一的な基礎原理が存在するとすれば、それは分子の相互作用であると言えます。すなわち、生体内の分子同士と外部の環境に存在する分子が相互に作用し合い、巨視的な行動や記憶の保持を担っているのです。実際に、分子レベルの情報処理こそが、脳どころか神経細胞すら持たない単細胞生物ですら記憶や知能のある振る舞いを見せる理由です。また、生体の分子が論理回路として働きうる可能性を示す研究が存在しています。

分子が生物の情報処理を担っていると仮定した場合、分子レベルで脳の動作を再現するハードウェアの実現も、シミュレーションに必要な初期状態の取得も、どちらも今生きている私たちの寿命のタイムスパンで実現可能だとは考えにくいと言えます。

続きを読む

コネクトーム:脳の中をのぞきこむ?

前回のエントリでは、カーツワイル氏の脳に対する理解が誤っており、脳の複雑さに対する推定が過少であるという生物学者からの指摘を紹介しました。

けれども、公平のため述べておくと、カーツワイル氏も脳を再現するためには脳自体を観察する必要があることを認識しており、そのための手法についても述べています。そこで、今回は脳を観察するための手法と、脳の「配線図」の解明について検討します。

脳の機能の研究と精神転送のためにまず必要となるのは、脳の「配線図」すなわち神経科学者が「コネクトーム」と呼ぶ、ニューロンや領野間の接続状態を明らかにすることです。次回述べようと思いますが、コネクトームの解明は人間の精神現象の理解と精神転送の十分条件ではありません。けれども、コネクトームの解明が人間の脳と精神活動の解明のために必要となる一つのステップであることは間違いありません。

続きを読む

脳の複雑さ:カーツワイル対PZマイヤーズ論争

脳の複雑性に対するカーツワイル氏の理解は非常に問題が多く、生物学者から批判を受けています。彼は、脳の複雑性を著しく過小評価しており、脳のリバースエンジニアリングと精神転送のために必要な研究の労力に対する見積もりは過少であると言えます。

まず、『ポスト・ヒューマン誕生』におけるカーツワイル氏の議論を引用します。

…脳の初期設計は、かなりコンパクトなヒトゲノムに基づいている。ゲノムの全体量は八億バイトだが、そのほとんどは反復に過ぎず、独自の情報を持っているのは三〇〇〇万から一億バイトだけで(圧縮後)、マイクロソフト・ワードのプログラムよりも少ない。公正を期すには、リボソームや多数の酵素などといったタンパク質の複製機構全体だけでなく、「エピジェネティック(後成的)」なデータ、すなわち遺伝形質の発現を制御するタンパク質に保存された情報を考慮に入れる必要もある。だが、こうした情報が付加されても、この計算値の桁数が大きく変わることはない。人間の脳の初期状態を特徴づけているのは、遺伝情報とエピジェネティック情報の半分強にすぎないのだ。
もちろん、脳の複雑さは、われわれが世界と関わり合うにつれ増大していく(ゲノムの約一〇億倍)。しかし、脳のどの特定の領域にも反復性の高いパターンが認められるため、個々の詳細を把握しなくても、関連するアルゴリズムリバースエンジニアリングをうまく行うことができる。(中略) 小脳の基本的な配線パターンは、ゲノムの中で記述されるのは一回だけだが、実際には何十億回も反復されている。*1

 

ここでカーツワイル氏が挙げている2つの論点、すなわち「ゲノムから見積もられる脳の複雑さは小さい」「脳自体に冗長性が存在するため詳細を把握する必要はない」という主張について、生物学者からの批判を紹介します。

*1:『ポスト・ヒューマン誕生』p.170

続きを読む

エミュレーション、シミュレーション、モデリング

科学者は、物理現象を理解し説明するために「モデル」を作成します。あるいは、工学においては現象の予測や複雑な構造物の設計のために「シミュレーション」を行ないます。コンピュータを用いた数値シミュレーションは、既に科学や工学における確固たる手法として確立されており、数理的モデリングや数値シミュレーションそれ自体を扱う分野も存在しています。

モデリングやシミュレーションは極めて有用な方法であり、微視的な現象、応力、化学反応、天気予報や惑星の形成に至るまで、さまざまな数値シミュレーションが利用されています。現象を「理解・説明」あるいは「予測」するために、数理モデルを作ったり数値シミュレーションすることは、科学・工学の活動において当然の活動となっています。

けれども、モデリングやシミュレーションの意味や意義は大きく誤解されており、特に脳神経科学の分野ではそれが顕著です。そこで、シミュレーションの方法論を分類し、「脳のシミュレーション」と呼ばれ現在実践されている研究が、実際には何を行っているのかを解説したいと考えています。

続きを読む

精神転送は不可能である「はじめに」

今回から、6, 7回の連載を通して「精神転送」あるいは「マインドアップロード」の実現可能性について検討します。検討を始めるにあたって、最初に議論対象の定義と私の主張、および議論の前提を整理しておきます。

 

ここで扱う「精神転送」の定義としては、「コンピュータあるいは何らかの人工的な機械の上で、現在実在している人間の脳の状態を再現し、対象者本人の精神、つまり、内的・主観的な意識も含め、記憶や認知において元の人間の脳と区別のできない機能と出力を得る手法」であるとします。

実際のところ、この定義の中で使用したそれぞれの言葉の意味を厳密に考えようとすると、即座にとてつもない認識論上の難問が生じることは私も理解しています。けれども、精神転送は古くからサイエンスフィクション小説、映画やアニメにおける典型的なテーマとして扱われており、近年では2014年の映画『トランセンデンス』でも中心的なテーマとして用いられていました。そのため、精神転送のイメージは多数の人に共有されているだろうと考えて、哲学的な諸問題は後のエントリに回し、共有されたイメージに沿って議論を進めます。

私の主張は、「原理的には精神転送は不可能ではないにせよ、カーツワイル氏やシンギュラリタリアンの議論においては、その実現の困難さが相当に低く見積もられており、今生きている私たちの寿命のタイムスパンで実現される可能性は相当に低い」というものです。

なお、タイトルでは「不可能である」と述べていますが、不可能であることは証明できないため、「精神転送の提唱者は、それが可能であるという十分な証拠を挙げていない、または議論に見落しがある」という意味だと捉えてください。

続きを読む

汎用人工知能に関するカーツワイル氏の将来予測

前節において、半導体集積回路に関する「ムーアの法則」を取り上げ、近年では停滞しつつあることを指摘しました。また、カーツワイル氏の主張する「収穫加速の法則 = 拡張ムーアの法則」についても、実証的・論理的に、今後も必然的に継続されると信じる根拠は存在しないことを述べました。

 

実際のところ、コンピューティングにおいて今後、半導体集積回路からの「パラダイム・シフト」が発生するかしないかは不明ですし、計算力のコスト効率の指数関数的な向上が今後どれだけの期間続いていくかも不明であると言えます。けれども、計算能力の向上によって汎用人工知能を実現することができるのかについては、今のところ未解決の問題です。

もしも、計算力のみが人工知能の実現に対する制約であるのならば、既に並列コンピューティングという形で、人類は必要な計算力を手にすることができます。私たちが汎用的な人工知能を未だ実装できていないのは、結局のところ、汎用的な人工知能の作り方を知らないからです。計算能力が足りないことが直接の理由ではありません。と言うよりも、「十分な計算力さえ存在すれば汎用人工知能を作ることができるのか」という質問に対して解答できるほどの知識を、まだ人類は得ていないと言えます。

あくまでも可能性の問題としては、脳全体をシミュレーションせずとも汎用人工知能を実現できるかもしれませんし、また逆に、どれほど高機能な計算機を使っても、汎用的な知能の実現は不可能であると示される可能性も、どちらもありえます。

そこで、この節では「人工知能」の実現方法に関して検討します。

カーツワイル氏の将来予測の根拠

さて、汎用人工知能の実現可能性を検討するにあたって、カーツワイル氏の将来予測の根拠を改めて確認しておきましょう。彼は、2029年までには1台のPC (約1000ドルで購入可能なコンピュータ) で1人の人間の脳を模倣できる*1ようになり、2045年には全人類100億人の知能が1台のPCに収められると予想しています。

この予測の年自体は、メディアでもよく取り上げられるものですし、私も何度か言及していますが、この予測の根拠を改めて確認します。

カーツワイル氏が、人工知能に関する時期予測の基盤としている仮定は、次の2つです。

  1. 「拡張ムーアの法則」による計算能力のコスト効率の指数関数的な成長が、今後も継続されること
  2. 大脳新皮質のリアルタイムシミュレーションまたはエミュレーションに必要な計算力の見積り

1. については、前節で既に取り上げました。
2. について、カーツワイル氏は、脳の機能の一部を模倣するために必要な計算能力から見積って、一秒間に10の14乗から15乗回の計算(CPS)ができるコンピュータが存在すれば、脳機能のリアルタイムなシミュレーションが可能であると推定しています。やや保守的な見積りを取り、カーツワイル氏は10の16乗CPSが脳機能の模倣のために十分な計算力であると主張しています*2

また、人間の脳全体をエミュレーション、またはある人の人格を「アップロード」するために必要な計算力は、10の19乗CPSであると主張しています。
この根拠は、ニューロンのレベルでの処理を捉えるために必要な計算力です。この推定のロジックは、今後の議論において重要であるため、やや長く引用します。

その一方、ある特定の人の人格を「アップロード」しようとするのなら、個々のニューロンや細胞体、軸索や樹状突起シナプスなどの、ニューロン各部のレベルでの神経のプロセスをシミュレートする必要がある。(中略)ニューロンひとつあたりの「ファンアウト」は10^3と推定されている。ニューロンの数が10^11として、約10^14の結合があることになる。リセット時間が五ミリ秒なので、シナプスの処理数は毎秒およそ10^16となる。
ニューロンをモデルとするシミュレーションから、樹状突起などニューロン各部における非線形性(複雑な相互作用)を捉えるためには、シナプスの処理一回あたり10^3の計算が必要であることが示され、人間の脳をこうしたレベルでシミュレートするには、およそ10^19cpsが必要だという全体的な推算に行き着いた。*3

この推定の妥当性には、現在は立ち入りません。けれども、2012年に完成した日本産スパコンの京によって、既に脳をシミュレーションするために必要とされる計算力の最も保守的な値(10^16乗cps)は達成されていることを指摘しておきます。おそらく、GoogleAmazonなど、巨大インターネット企業が持つコンピューター能力の合計も、現在ではこの数値をはるかに超えていると思われます。

①1人の人間のの機シミュレーション

1014~1016

②人間のアップロード (=器質的シミュレーション) 1019
地球上の人間全員の 1026


よって、もしカーツワイル氏の推定が正しければ、脳のシミュレーションと汎用人工知能の実現に必要となるのは、計算機の規模を問題としないのであれば、あとはソフトウェアだけであると言えます。 

関連項目

*1:ポスト・ヒューマン p.137

*2:ポスト・ヒューマン p.130-132

*3:ポスト・ヒューマン p.133-134

コンピュータ産業の未来

本論では、技術開発の将来性に対するネガティブな見通しばかり述べていますので、少しばかり前向きな話もしておきましょう。

 私は、おそらく2020年代初頭に半導体ロジックメーカー各社が微細化と集積化のペース (狭義のムーアの法則) の維持を断念し、公式に放棄を宣言することになると予測しています。そして、拡張ムーアの法則を維持するようなパラダイムが、その時期にちょうど出現すると信じる根拠は特にありません。

けれども、私はそれが半導体とコンピュータ産業の停滞と終焉を意味するものになるとは考えていません。

既に、微細化のプロセスルールの値が物理的・技術的に意味を持たない値となっていることを述べました。私たちは、あまりに長い時間半導体プロセスの微細化と集積化が進んでいくことに慣れてしまったため、それ以外の進歩のあり方を考えられなくなってしまっています。

 

単一の基準で、ある一つの目的へ邁進していくことを「進歩」と捉えるのであれば、確かにそれは停滞であると言えます。

けれども、私は進歩に対してやや異なる捉え方をしています。樹の枝がさまざまな方向へ広がるように、多様な可能性の存在と、多数の問題解決手法を実装する多様性、その実現こそが真の意味での進歩ではないでしょうか。

コンピュータアーキテクチャだけを取ってみても、現在さまざまな手法が学術・産業界の両方で研究、実現されています。

ヘテロジニアスプロセッサ、不揮発性メモリや大容量メモリを利用した新たなアーキテクチャ、三次元積層プロセッサ*1、特定用途向けのアクセラレータ (GPU、AI向けチップや量子コンピュータもここに含まれるでしょう) など、これ以外にも多数の事例を挙げられます。

思い出してほしいのですが、技術の研究から商品化までは10年〜15年程度の時間を必要とします。また、これらの技術は特有の利点と欠点を持っており、特定の状況下においては有効かもしれませんが、物理的限界に達しつつある半導体の計算能力の向上を更に継続させられるものではありません。技術開発は進めば進むほど困難になりますが、それでも新たなイノベーションの速度がゼロになることはありません。

 

けれども、おそらくそのイノベーションの形は、カーツワイル氏が主張しているような「人間の知能レベルの計算能力実現」に向かう一直線の階梯を指数関数的な速度で邁進するようなものではないはずです。

私の大学院時代の研究テーマがこの辺りだったので少し思い入れがあるのですが、現在、産業界の研究の関心は、低性能化・低消費電力化に向かっています。一般消費者向けのデバイスにおいては、一部の用途を除いて既に計算能力は制約ではなく、消費電力や排熱が大きな問題になっているからです。デバイスが低消費電力化されれば、さまざまな用途に対してセンサやプロセッサを使用することができるはずです。

そして、さまざまな方向へ向かって広がっていくテクノロジーの進歩が、現在の私たちには思いもよらないような異なる場所へと進んでいく。ちょうど、1960年代の人々が飛行機や宇宙開発の将来性を過大評価し、半導体技術や情報処理の将来性をあまりに過小評価していたように。

そう考えるのが、テクノロジーの進歩の実体をよく捉えているのではないかと思います。

*1:半導体の三次元積層技術は、既に活性度と排熱の少ないDRAMでは一般的に使われています