シンギュラリティ教徒への論駁の書

“Anyone who believes that exponential growth can go on forever in a finite world is either a madman or an economist.” - Kenneth Boulding

自然法則と歴史性

自然科学や工学分野には、さまざまな法則や経験則が存在しています。けれども、「ムーアの法則」と一般的な科学・工学法則とを比較すると、やや異なる性質を持っていることが分かります。ムーアの法則は歴史性を、つまり人間の意思や目的、外的環境によって左右される一回限りの事象を扱うものであるため、常に成立する必然性があるとは言いがたい「法則」であるからです。


(情報)工学分野でよく使われる法則の例としては、たとえば、これまでにも言及した並列処理に関するアムダールの法則や、デナードのスケーリング則、パレートの法則などが挙げられるでしょう。

並列処理に関するアムダールの法則は、一部分が並列処理可能なタスクを並列処理した際に、全体としてどれだけ性能向上 (処理時間の短縮) が期待できるかを数理的に考察したものです。この法則は、「並列化可能なタスク」など定義から導かれる演繹的な法則であり、数学的な定理に近い性質を持っていると言えます。

次に、パレートの法則デナードのスケーリング則を例に取ります。情報工学分野では、パレートの法則は「プログラムの処理にかかる時間の80%は、コード全体の20%の部分が占める。」として述べられることが多いものです。プログラムの処理においては重要な処理とそうではない処理が存在し、偏りが存在するため、全体の中の一部分が重要性を持っていることが多いという経験的な傾向を述べたものです。デナードのスケーリング則も、トランジスタを縮小した際に観察される性能向上や消費電力低下を定量的に表現したものです。

これらの法則は、多数観測された事実をもとにして、その傾向を法則として述べた帰納的な経験則であると言えます。


さて、ここまでに取り上げた演繹的な法則や帰納的な経験則と「ムーアの法則」を比較してみると、ムーアの法則は特殊な性質を持っていることが明らかになります。ムーアの法則は、帰納的経験則の一種ではあるものの、本質的に1回限りの時間的な発展が明示的に含まれており、またそれが人間の意思や目的によって左右されるからです。要するに、ムーアの法則は歴史を扱うものです。

続きを読む

半導体微細化の限界

ここで、(狭義の)ムーアの法則の限界、すなわち半導体プロセスの微細化の限界について述べておきます。予め断わっておきますが、このエントリは、集積回路トランジスタ密度向上について述べた(狭義の)ムーアの法則に関する限界であり、カーツワイル氏が主張する「パラダイムシフト」を含む拡張されたムーアの法則を扱うものではありません。

フォトリソグラフィ

現代の半導体業界における製造技術について簡単に解説しておきます。半導体のマイクロプロセッサは、シリコンや半導体からできています。その製造原理自体は比較的簡単で、端的に言えば写真と同じであり、フォトリソグラフィと呼ばれています。

フォトリソグラフィの工程は次の通りです。ウェハーと呼ばれるシリコン製の円盤の上に、フォトレジストと呼ばれる薬剤を散布します。それとは別に、透明なガラス製のフォトマスクの上に、半導体上で作成したい回路のパターンを作成します。フォトレジストは光に反応して溶ける、または硬化する性質があるため、フォトマスクを通して強力なレーザー光線を当てると、フォトマスク上の影のパターンがウェハー上に投影されます。
この後、形成された回路パターンに従ってウェハーの表面を溶かし、別の半導体を添加してトランジスタの素子を作成したり、あるいは素子同士を配線することによってプロセッサを製造します。

実際のところ、一つ一つの工程自体が最先端技術の塊なのですが、ごく単純化して述べればこの通りに半導体は作られています。

 

極端紫外線リソグラフ

上記の通り、半導体フォトリソグラフィでは光線を使用します。そのため、使用する光の波長によって回路の線幅、プロセスルールの下限が決定されます。微細化が進めば、より短波長の光線を使わなければ回路のパターンを形成することができません。

現在は、このリソグラフィの露光のため、波長の短い紫外線を用いる極端紫外線リソグラフィ (Extream Ultraviolet Lithography) と呼ばれる次世代技術の開発が進められています。
けれども、EUVLの技術開発はあまり上手く進捗していません。高いエネルギーを持っている紫外線を安定して発する光源の開発が難しいこと、紫外線のような短波長の光線はレンズや鏡といった光学系内部どころか空気中でさえ著しく減衰する*1ことがその理由として挙げられています。2017年現在、EUVLはまだ量産プロセスには導入されておらず、リソグラフィ機器メーカーから半導体ロジックメーカーに出荷が始まった段階です。2016年現在の半導体メーカーのロードマップでは、2020年頃の10nmプロセス以降からの量産プロセスでの本格利用開始が見込まれているようです。

 

実は、私はこの分野に近い領域の学生でした。私が学生だった頃の約10年前からずっと「あと2〜3年でEUVLは実用化される」と言われ続けてきた記憶があります。5, 6年前には、半導体メーカー各社は20nmプロセス以降でEUVLを導入するロードマップを描いていたはずであり、その開発は大きく遅延しています。

個人的な感覚を述べます。EUVLに関する技術的な問題は解決され、数年以内に量産プロセスでの利用は始まるでしょう。けれども、その設備投資に見合う規模の市場が果たして本当に存在するのかは疑問があると考えています。PCやスマートフォン市場は成熟しつつありますし、次世代のIoT (Internet of Things) で使われる半導体は、微細化、高性能化よりもむしろ安価、低機能、低消費電力が求められるものです。

そして、5〜7nmよりも先の微細化は、量子効果が顕在化するため相当に困難であると考えています。そもそもゴードン・ムーア氏自身でさえ2005年のインタビューで「ムーアの法則は永遠に続くものではない」と述べています。最新のIRDSロードマップでは、2024年ごろに微細化が限界に達すると想定されています*2

また、既に半導体製造プロセスルールの値は技術的・物理的な意味を失なっていること、微細化それ自体は計算性能向上とコスト低下をもたらさなくなっていることを指摘しました。

 

いずれにせよ微細化が物理的限界に達して停止することは自明ですが、ただしカーツワイル氏は (狭義の) ムーアの法則2045年まで継続されるとは主張していませんし、私の議論もその前提のもとで構成しています。

それを考える前に、次回は「工学における『法則』とは一体何なのか」について検討します。

*1:そのため、EUVリソグラフィ装置内部は真空とされます

*2:http://irds.ieee.org/images/files/pdf/2016_MM.pdf

小鳥遊りょうさんへの返信

小鳥遊りょうさん (@jaguring1) から、何件か私の記事へのコメントを頂きましたので、いくつかの点、主に「特異点へのカウントダウン」のグラフと「収穫加速の法則」について返信します。

f:id:liaoyuan:20170614234239j:plain

べき関数か指数関数か

まず、「両対数グラフでの直線は指数関数ではなくべき関数」という点は、私の誤認ですのでご指摘の通り修正します。
けれども、少し弁解をしておくと、これはカーツワイル氏自身が指数関数とべき関数を区別せず使っていることが理由です。つまり、「指数関数とべき関数を混同している」という批判は、そのままカーツワイル氏に対しても適用できることになります。(原文を確認していないので、翻訳の問題である可能性はあります)

特異点はいつも近い」について

『「未来のどんな時点でもシンギュラリティと言えてしまう」という批判は間違い』と言われていますが、挙げられている事例は過去のもの (ホモ・サピエンス) となっています。ここでは、「(過去から見た) 未来」を意図していると私は解釈しました。

さて、これらのツイートの主張には、「現在」つまり西暦2017年時点の視点が既に含まれてしまっています。仮に現在がホモ・サピエンスがいた時代 (30万年前) だとすると、次の事象がホモ・サピエンス・サピエンスだということは、30万年前現在の時点では分かりようがありません。「ホモ・サピエンスの存在した時点」から次の事象までの時間が10^5年であるということは、(2017年時点の)現在から過去を見返しているからこそ分かることです。

実際に、ホモ・サピエンスが登場した時代の直後において、次のパラダイムが分からない状態で、宇宙と生命の指数関数的な成長が続くという前提でグラフを描けば、次の通りになります。

f:id:liaoyuan:20170714002014p:plain


けれども、生命の進化現象は時間的にかなり大きな広がりを持った事象なので、反例としてはやや不適切でしょう。そこで、人類の歴史時代において、同等の前提のもとに「カウントダウン」グラフを描いてみます。約2000年前の古代ローマ人にとっては、グラフはこんな形になるはずです。

f:id:liaoyuan:20170714002314p:plain


あるいは、ベンジャミン・フランクリンが1800年ごろにグラフを描けば、こうなります。

f:id:liaoyuan:20170714002357p:plain

 

指数関数に特異点は存在しないため、宇宙が常に指数関数的な (あるいはべき関数的な) 成長を遂げているという前提のもとでこのグラフを描けば、常に「原点= (その時点での) 現在」において、無限大へと向かうグラフが得られます。すなわち、(その時点での)「現在あるいはごく直近の未来」において「特異点」が発生するかのように見えます。

この論点は私のオリジナルではなく、ケヴィン・ケリー氏による指摘が元になっていますので、もう一度彼のエッセイを引用しておきます。

驚いたことに、それは今現在が特異点であることを示唆している。さらに不思議なことは、そのグラフに沿ってほとんどすべての時点で、同じ見解が正しいように思われる。もしも、ベンジャミン・フランクリン(昔のカーツワイルみたいな人)が1800年に同じグラフを描いたとしたら、フランクリンのグラフも、そのときの「たった今」の時点で、特異点が発生していることを示すだろう。同じことはラジオの発明のとき、あるいは都市の出現のとき、あるいは歴史のどの時点でも起こるだろう。グラフは直線であって、その「曲率」すなわち増加率はグラフ上のどこでも同じなのだから。

特異点とは、指数関数的増加を過去にさかのぼって観察するときに、いつでも現れる幻影に過ぎない。グラフは宇宙の始まりに向かって、正確に指数関数的増加をさかのぼっているから、これは何百万年にもわたって、特異点はまもなく起ころうとしていることになる!言い換えれば、特異点はいつも近い。今までいつも「近い」ままであったし、将来もいつも「近い」のだ。

「特異点はいつも近い」: 七左衛門のメモ帳

結局このグラフから言える予想は何?

 私は、このグラフが非科学的だから問題であるとは考えていません。ムーアの法則のように、科学的根拠が明確でなくても有用な予測を述べられる経験則は存在します。ここで問題としているは、結局このグラフは何を予測しているのかということです。前節で述べた通り、このグラフ上のあらゆる点において「今現在が特異点である」と言うことができます。また、次に来る「パラダイム」が何かということも分かりません。「パラダイム」の定義は「心理学的なデータ」であると主張しても、結局何の有用な予測を述べられないということに変化はありません。(それどころか、更に悪化しています)

もちろん、やはり約30年後にシンギュラリティが発生する可能性自体は否定できません。けれども、もし仮にシンギュラリティと呼べる事象が発生しなかったとしても、到来時期を後倒しして、いくつか新しいパラダイムを選んで追加すれば、「なおこのグラフは成立している」と主張することができます。

私の主張は、このカウントダウンのグラフの情報量は0であり、ここから未来を予測することはできないということです。

「20世紀全体vs2000年~2014年までの進歩が等しい」とは何を意味するのか

この論点に一切触れてもらえなかったので私から取り上げますが、カーツワイル氏は、「20世紀全体の100年に達成されたこと」と「西暦2000年から2014年までの進歩」が等しいと主張しています。けれども、何の量が等しいのかは私にはよく分かりません。

わたしのモデルを見れば、パラダイム・シフトが起こる率が10年ごとに2倍になっていることがわかる。(中略) 20世紀の100年に達成されたことは、西暦2000年の進歩率に換算すると20年で達成されたことに相当する。この先、この西暦2000年の進歩率による20年分の進歩をたったの14年でなしとげ(2014年までに)、その次の20年分の進歩をほんの7年でやってのけることになる。別の言い方をすれば、21世紀では、100年分のテクノロジーの進歩を経験するのではなく、およそ2万年分の進歩をとげるのだ(これも今日の進歩率で計算する)。もしくは、20世紀で達成された分の1000倍の発展をとげるとも言える。(『ポスト・ヒューマン誕生』p.22-23)

素直にカーツワイル氏の言葉を読めば、これはコンピュータや機械学習などの単独のテクノロジーについて述べているのではなく、人類文明全体に亘るパラダイムシフトについて述べているものと考えられます。既に2014年を過ぎた現在においては、この主張は実証的に検証できるものです。

人類文明全体の進歩の量を間接的に推定できる量として、私はエネルギー消費量、発表論文数、GDP推計値や科学的発見などを調べましたが、この主張を肯定するデータを見つけることができませんでした。私自身はこの主張の成立は疑わしいと考えていますが、何か実証的データをお持ちでしたら教えてください。

 

この項続きます

空飛ぶ不可視のティーポット

シンギュラリティに関する懐疑論を書いていると、しばしば「シンギュラリティが発生しないという証拠を示せ」「○○という技術が実現不可能であるという根拠を、あなたは挙げられないじゃないか」という反論を受け取ることがあります。

けれども、このような主張は論理的に誤っています。存在しない、あるいは不可能であることは証明できない以上、立証責任は懐疑派にではなく肯定派の側に存在するからです。

続きを読む

ムーアの法則には既に意味はない

前回のエントリでは、「ムーアの法則」の定義を確認し、半導体業界による「プロセスルール」の微細化はこの法則を論じる上では不適切な値であることを述べました。

 

ムーアの法則を「トランジスタの集積密度の指数関数的向上」という意味として捉えるならば法則は近年に至るまで成立し続けていると言えますが、けれども、2000年代〜2010年代には「トランジスタ集積密度の向上」自体は「プロセッサの性能向上」や「コスト低下」に繋がらなくなっています。つまり、ムーアの法則は現在でも成立しているものの、性能とコスト効率という実際上重要な指標において、法則は既に意味を成していないということです。

そもそも、なぜ微細化が半導体の性能向上をもたらしてきたのかと言うと、デナードのスケーリング則が働いてきたからであると言えます*1。この法則は、(MOSFET)トランジスタのサイズが1/kになれば、速度はk倍、面積密度はk^2倍、消費電力は1/k倍となることを述べるものです。

やや単純化してスケーリング則の原理を述べると次のように言えます。トランジスタは、たとえて言えば電気を溜めたり放出したりできる微小なスイッチであると言えます。スイッチ自体のサイズが小さくなれば、充電や放電に要する時間や信号の伝達距離はサイズに反比例して減少し、同じ面積に詰め込めるスイッチの数はサイズの二乗に比例して増大します。それゆえに、微細化が進めば処理速度は向上し、同じ面積の中に複雑な回路を集積することができ、消費電力が低下し、コストも低下していったのです。

2000年代の半ばごろまでは、スケーリング則は完全に成立しており、微細化が性能向上と消費電力減少をもたらしていました。けれども、現在ではスケーリング則は破綻しており、微細化がもたらすメリットは低下しています。

続きを読む

ムーアの法則とは何か

ここで、今までも何度か取り上げた「ムーアの法則」について、改めて検討します。


この言葉も、「シンギュラリティ」や「収穫加速の法則」といった用語と同様にさまざまな意味で用いられており、コンピュータの性能やコスト効率が指数関数的に向上するという傾向を曖昧に表現するために用いられていることもあります。実際のところ、ムーアの法則は「ほとんど常に誤って解釈されてきており、成立していたことなどない*1」 とさえ主張する論者も存在しています*2


そこで、まずは「ムーアの法則」という用語の定義を確認します。

この法則は、アメリカの半導体メーカーであるインテル社創業者の1人であるゴートン・ムーア氏が、1965年に発表した雑誌記事の中で示したものです。以下に、ムーア氏の主張を引用します。

コンポーネントあたりのコストが最小になるような複雑さは、1年あたりおよそ2倍の割合で増大してきた。短期的には、確実に、この増加率は上昇しないとしても維持されるだろう。より長期的には、やや不確実であるとはいえ、少なくとも今後10年間ほぼ一定の増加率を維持できないと考える理由は無い。

f:id:liaoyuan:20170711003651p:plain

図1:ゴードン・ムーアの1965年の論文 (Cramming more components onto integrated circuits ) より

 

ここで述ベられている「複雑さ」は、コンポーネント (トランジスタ) の数とサイズ、すなわちトランジスタの集積密度と言い換えることができます。簡単にムーアの法則を言い換えると、次のように表現できます。

「コスト効率を最大化するトランジスタの集積密度は、1年に約2倍となる」

その後、ムーア氏は1975年に、「2年ごとにおよそ2倍」になると予測を修正しています。また、この法則を「ムーアの法則」と命名したのは、ムーア氏自身ではなく、カリフォルニア工科大学教授のカーバー・ミード氏であると言われています。

2件、よくある誤りを指摘しておきます。まず、上記の通り、ムーアの法則は「コストを最小化するトランジスタ集積密度」について述べるものであり、マイクロプロセッサの計算性能について直接述べるものではありません。もちろん、過去集積密度が上昇すれば計算性能が向上する傾向にあったことは確かですが、計算性能についての予測を直接述べるものではありません。

また、しばしば期間が「18ヶ月」で倍増すると言われることがありますが、これはインテルの幹部であったデビット・ハウス氏が述べたものと言われており、ムーア氏は「自分は『18ヶ月で倍になる』とは主張していない*3」と繰り返し訂正しています。


法則の定義はともかく、ムーア氏の論文発表以来50年以上が経過していますが、最近に至るまでほぼこの法則は妥当なまま成り立ち続けており、この法則から予測される通りにプロセッサ上のトランジスタ数は増加し続けています。また、この法則はコンピュータの性能に関して直接述べるものではないとは言え、微細化と高集積化に伴ってプロセッサの性能も向上し続けてきました。

半導体を設計・実装するための手法は変化し続けており、また、ムーアの法則は、法則の背後にある原理について何も述べていない経験則であるにもかかわらず、かなりの長期間に渡って成立し続けていることは、驚愕するべき事実です。

私自身も、コンピューター産業の末席で糊口を凌いでいる者としてムーアの法則の妥当性を肌で感じていますし、近い将来には、広い意味でのコンピューター関連技術で何らかの指数関数的成長が続いていくだろうと信じています。 

プロセスルールの数値は物理的に何の意味もない

けれども、ここで1件重要な指摘をしておきます。半導体の微細化傾向を表す単位として、プロセスルールの値、16nmや14nmプロセスといった数値が用いられていることがあります。この値は、現在では単なるラベルであり、プロセッサ上の物理的なトランジスタのゲート長や配線長とはもはや何の関係もありません

もともと、平面上に形成されるトランジスタであるプレーナ型トランジスタでは、プロセスルールの値はゲート長という物理的な意味を持っていました。けれども、22nmプロセス以降主流となったFinFETやTri-Gateと呼ばれる立体的な構造を持つトランジスタでは、この値はいかなる物理的な意味も持っていません。

 

f:id:liaoyuan:20170711004029p:plain


上記の図は、「IEEE International Roadmap for Devices and Systems(IRDS:国際デバイスおよびシステムロードマップ)」が発表している2016年のロードマップ*4から引用したものです。「Logic Industry “Node Range” Labeling (nm)」と表記されている値が、プロセスルールの値です。表の下部「LOGIC DEVICE GROUND RULES」の項目を見れば、物理的に対応する長さが存在しないことが分かります。


これとは別に日本語の解説記事もありましたので引用します。

近年、ゲート長の微細化に陰りが見えてきた。…そこで、最近は、2~3年ごとに新材料や新構造を導入し、ある程度加工寸法が縮小されるたびに、前の世代の技術ノードの0.7 倍の値を便宜的に新技術ノードとして採用するようになった。
…最近のロジックデバイスでは、もはや物理的な長さとは無関係に、数字だけ独り歩きしてしまっている。表1の最上段に「ロジック業界で使われているノード名を示すラベル」と記されているのはそのためである。もはや物理的な意味がないので表1では、"16/14"のように無名数(単位のない数値)で表示されているが、これに習うケースは少なく、これまでの延長線上で"nm"という長さの単位をつけて使っているのが実情である。しかし、表1からもわかるように、そのような長さの個所は存在しない。

第1回:今年は14nm半導体決戦の年〜ところで14nmとはどこの長さ?|物理長と無関係に独り歩きし始めた微細化の指標 | Telescope Magazine

もちろん、言うまでもなく半導体技術においてイノベーションは続いていますし、微細化も (ペースは低下したとは言え) 継続されています。けれども、プロセスルールの値に関しては、物理的・技術的な意味はもはや存在しません。

ある半導体企業のCEOが述べている通り、マーケティング上のあるいは投資家向けの説明としての意味しか持っていないと言えます*5

よって、プロセスルールの値を元にムーアの法則を論じることは誤りです。

ムーアの法則と人工知能

ここまで、第3章でカーツワイル氏の指数関数的なテクノロジーの成長に対する事実認識の誤りを、第4章では「収穫加速の法則」の定義のあいまいさ非論理性実証的基盤の欠如に関して批判してきました。

けれども、その一方で、情報テクノロジーが指数関数的に成長を続けていることは、やはり疑いようの無い事実です。既に何度か述べてきた通り、人類文明全体の進歩が指数関数的ではなかったとしても、なお超人的人工知能の登場と「シンギュラリティ」の時期予測が直ちに誤りであると断言することはできません。彼の予測の直接的な根拠は、「(拡張)ムーアの法則」の継続と「人間の脳のリバースエンジニアリングによる知能に対する知見獲得 (汎用人工知能の作成)」であるからです。

そこで本章では、カーツワイル氏の未来予測の根拠であるこの2点を検討します。

本件に関する『ポスト・ヒューマン誕生』の議論は難解であるため、本章の立論自体も込み入っています。また、私は部分的にはカーツワイル氏に賛同し、一部に反対するつもりです。そのため、本章の私の立論は必ず誤解されると予想しているので、最初に概要を説明しておきます。

ポスト・ヒューマン誕生 コンピュータが人類の知性を超えるとき

ポスト・ヒューマン誕生 コンピュータが人類の知性を超えるとき

 

第一に、「(拡張)ムーアの法則」を再考するため、オリジナルのムーアの法則の定義を確認します。この法則には物理的な限界が存在すること、そして、2000年代半ばには既にこの法則が持っていた経済的・コンピュータの性能向上への意味は失われていることを指摘し、量子コンピュータなど他の方法も代替手段になる可能性が低そうであることを述べます。

 

第二に、「汎用人工知能」の構築に対する見通しに関して検討します。

カーツワイル氏の未来予測の前提と推論について簡単に確認した後、「脳全体のリバースエンジニアリング」と「脳全体のエミュレーションと精神転送」について検討し、彼の議論には見落しがあるため脳エミュレーションの困難さが過少に見積られており、遠い将来に渡って実現される可能性は小さいことを述べます。その根拠は次の6点です。

  • 脳のモデル化、シミュレーションとエミュレーション (精神転送) は異なること
  • 脳の複雑性に対しての前提に誤りがあり、脳を単純化しすぎていること
  • 高解像度かつ広範囲で脳を観察する手段が現状存在しないこと
  • 生命の情報処理の基本単位は、神経細胞シナプスではなく分子であること
  • 脳は完全に階層化されていないこと
  • 仮に精神転送が技術的に可能であったとしても、成功を判定する操作的な手続きが存在しえないこと

 

第三として、既存の機械学習アルゴリズムが発展した先には、汎用人工知能は存在しない (可能性が高い) ことを説明します。そのために、これまでの人工知能 (機械学習) 研究を大づかみで解説します。また、人間の知能と機械学習アルゴリズムは異なり、現在の機械学習の手法の延長線上には、ヒトと同等の人工知能は存在しなさそうであるということを述べたいと思います。

 

最後に第四として、脳の部分的なモデリング、シミュレーションおよび機械学習アルゴリズムの統合による汎用人工知能 (全脳アーキテクチャ) の実現可能性は、私も必ずしも否定するわけではないことを述べます。ただし、物理的、エネルギー的、計算的、経済的制約が存在するため、汎用人工知能が短期間で人間の知能をはるかに超越したものになることは否定します。

 

以上が本章の概要であり、この流れに沿って議論を展開していきます。