シンギュラリティ教徒への論駁の書

"Enjoying science fiction is not the same thing as doing science or making science policy." - Dale Carrico

目次

第一部 「シンギュラリティ」

  1. 序文
  2. シンギュラリティとは何か?
    - カーツワイルのシンギュラリティ説とその批判 
  3. ほとんどのテクノロジー成長は指数関数的ではない
  4. 収穫加速の幻影
  5. ムーアの法則と人工知能
    5.1. ムーアの法則
    5.2. 精神転送
    5.3. 人工知能研究と機械学習
    5.4. 全脳アーキテクチャ
  6. 知能の拡大と思考主義批判
  7. 宇宙の覚醒
    - まとめ
  8. 予言は外れた
  9. テクノ・ハイプ論:なぜシンギュラリティは問題か
  10. 後書き

第二部 「進歩と崩壊と没落の未来史」

  1. 序文
  2. ハバートの法則と没落加速の法則
  3. 没落してゆく世界のスケッチ
  4. 崩壊概論
  5. 進歩の神話
  6. 崩壊教と進歩教
  7. ディセンサスの流儀
  8. 後書き

(執筆中…)

第三部 「技術的超越の思想史(仮題)」

(構想中…)

 

本ブログは、カーツワイル氏のシンギュラリティ説と「収穫加速の法則」を批判的に検証するものです。もともと書籍の企画として執筆し始めたものであるため、序文から順番に議論を展開していますが、各エントリは独立して読めるように構成しています。

初めての方向けの概要としては、カーツワイルのシンギュラリティ説とその批判 (短め) およびまとめ (やや長め)、および雑記ブログの自選10記事もご覧ください。

シンギュラリティ論を真剣に捉えて批判するべき10個の理由

  1. シンギュラリタリアン/トランスヒューマニストはバカで間違っているとしても、バカの間違いを公然と指摘することは必ずしもバカげてはおらず、間違いでもない。
  2. 科学技術の成果の過剰誇張と将来の可能性に対する誇大広告は、現状の技術的アチーブメントの到達水準を深刻に見誤らせている。この種の誤解と過信は、自動運転車 (実際は運転支援機能付き自動車) の事故でも見られるように、それ自体が危険である。また、その結果として本当に必要となる地味で長期的な投資を必要とする研究開発への関心と投資を削ぐ。
  3. 現在、情報テクノロジーの発展により現実に様々な問題が発生している。我々の倫理的関心と公的な議論空間は希少な資源であるため、願望成就ファンタジーに耽りそれらを乱費するのではなく、テクノロジーの現実の姿と妥当な将来見通しをベースにして公的な議論が行なわれる必要がある。特に、一部のテック系超巨大企業は、現在生じている問題から世間の眼を逸らすため、意図的に夢想的/破滅的な未来像を利用しているとも見なせる。
  4. トランスヒューマニズム/シンギュラリタリアニズム的なナラティブは、困難で、曖昧で、複雑な現実の科学技術の研究開発の実体よりもはるかに魅力的であり、皮相的でセンセーショナリスティックなマスメディアの報道で注目を集める傾向がある。更に、一部の研究者・技術者・企業経営者は、一般大衆の注目と支持とをベースにして政策決定者へ働きかけ科学技術政策をねじ曲げるために、また資金を集めるためにこれらのストーリーを利用している。
  5. トランスヒューマニズム/シンギュラリタリアニズム的なナラティブは、アメリカ的な理念、すなわち世俗的でプラグマティックなテクノロジーの発展と社会変革を通して、千年王国の超越的理想社会をこの現世において打ち立てることができるという半ば宗教的な信念を反映している。そのため、シンギュラリティ的なナラティブの分析は、アメリカの動作原理に関する分析と理解に役立つ。
  6. 日本の科学技術を取り巻く状況--かつての科学技術立国というイメージと、今やその立場から滑り落ちつつあるという危機感--は、悪辣な詐欺師の欺瞞的なセールスピッチに対して極めて脆弱である。(ところで、「負けが込んだ状態での一発逆転狙いの乾坤一擲の勝負」は、第二次大戦での日本の負けパターンを連想する)
  7. 世界を変革するという狂った信念を強固に信じた発信力のある狂信的エリート集団により、世界にどれほどの悪影響がもたらされるかを決して過小評価するべきではない。
  8. 危険な詐欺を詐欺として告発することは何ら誤りではない。
  9. 科学を疑似科学から守護し、真なる信念に対する懐疑精神を推奨することは良いことである。
  10. 必ずしも必要ではないときでさえ、バカをおちょくることはしばしば楽しい。

***

この記事は、デール・キャリコによる"Ten Reasons to Take Seriously the Transhumanists, Singularitarians, Techno-Immortalists, Nano-Cornucopiasts and Other Assorted Robot Cultists and White Guys of "The Future" を参照し、一部を翻訳し改変したものです。

追記あり:レイ・カーツワイル新刊情報 『Danielle』および『Singularity is Nearer』について

レイ・カーツワイル氏が、2019年1月1日に新刊『Danielle: Chronicles of a Superheroine(ダニエル:スーパーヒロイン物語)』を発売するとのことです。「ダニエル」という名前の女の子が、自身の知性と勇気とテクノロジーの力を使い世界の難問に挑戦していく成長物語だそうです。

 

本書の特設サイト上では、小説の一部が公開されています。

https://www.danielleworld.com/

なお、本書の特設サイトから予約した場合の特典として、約数年前から発売が予告されているカーツワイル氏の次回作『The Singularity is Nearer』のサイン入りコレクターズエディションがあります。(ただし、『The Singularity is Nearer』の発売時期についての情報は得られませんでした)

どちらの本も、発売されたらこのサイトでレビューしてみたいと思います。

追記

上記特設サイトPC版からは、『The Singularity is Nearer』の特典に関する記述が確認できないという指摘がありました。スマートフォン版サイトには現在でも記載があります。(2018/11/19 20:00頃 確認済み)

f:id:liaoyuan:20181119200410p:plain

サイト上では『The Singularity is Nearer』の書影も確認できます。

f:id:liaoyuan:20181119200402j:plain

なお、本エントリの投稿時、『ダニエル』の公式Twitterアカウント宛てに質問をしていたのですが、回答がありませんでした。

 引き続き、更新があれば追記します。

レイ・カーツワイル『スピリチュアル・マシーン』を読んで、シンギュラリティ論への違和感の原因が理解できた

私が『ポスト・ヒューマン誕生』でのカーツワイル氏のシンギュラリティ論を読んだ時、疑問を感じたことがあります。

カーツワイルの未来予測において根幹を成す仮定は、「宇宙の"秩序"が指数関数的に加速する」という原理、「収穫加速の法則」です。一方で、「特異点(シンギュラリティ)」とは、原義を辿れば、既存の法則が破綻するような特別な点を意味しています。ところが、指数関数のグラフはなめらかで連続した自己相似形の曲線を描くため、「特異点」と呼べるような特別な点はどこにも存在しません

仮に、カーツワイル氏の予測の根拠である「ムーアの法則の外挿による計算力のコスト効率の指数関数的な成長予測」と「ヒトの脳機能を、ないしニューロンとシナプスを、リアルタイムでシミュレーションするために必要な計算力の見積り」を受け入れるとしても「1000ドルのコンピュータが全人類(100億人)と等しい"知能"を持つ時期」において、そのような「劇的な転換点」が到来するという設定は、あまりに恣意的すぎると感じました。他のシンギュラリタリアンよるシンギュラリティの定義でも、「"秩序" の形成 (ないしは「科学技術」や「知能」の成長速度と言われることも) が (主観的に) 無限大となるとき」といったような、木に竹を継いだような主張が見られます。

もしも仮に、ヒトの脳の機能を完全に模倣できるソフトウェアが作成できるならば、実質的に無制限のコピーが可能であるため、その「人数」はあまり大きな意味を持たないはずです。実際に、I.J.グッド、ヴァーナー・ヴィンジやエリエゼル・ユドカウスキーなどによって唱えられてきたシンギュラリティ論はこのタイプ (知能爆発説) ですし、日本でも、齋藤元章氏や山川宏氏のように、カーツワイル説からの影響を受けながらも"先祖返り"しているような主張も見られます。知能爆発説においては、人間の完全な上位互換である汎用人工知能が作られると、以降の宇宙の進歩は人類の後継者たる汎用人工知能たちによって担われるようになるため、その後は一切見通せないのだと主張されています。こちらの考え方は「特異点」のイメージによく合致しているように感じられます。

この「指数関数的な成長論」と「特異点」の不整合の原因は、『スピリチュアル・マシーン』を読めば理解できます。端的に言えば、カーツワイル氏の議論で「シンギュラリティ」は後付けであり、元々の主張は「指数関数的成長論」のみであるからです。

スピリチュアル・マシーン―コンピュータに魂が宿るとき

スピリチュアル・マシーン―コンピュータに魂が宿るとき

既にこのブログでも何度か取り上げていますが、本書『スピリチュアル・マシーン』の原書は1999年に発表されました。日本語版は2001年に発売されています。

彼の主張の根底を成す世界観は、「秩序」と「カオス」の二元論的な対立です。カーツワイル氏の信奉者の間ですら現在ではほとんど言及されることはありませんが、彼は「カオス増大の法則」を提示しています。

カオス増大の法則--カオスが指数関数的に増大すると、時間は指数関数的に遅くなる。(つまり、新たに大きな出来事が起きるまでの時間感覚は時間の経過とともに長くなる)。 (p.43)

宇宙におけるカオス増大を統べる原理である「熱力学第二法則」、「エントロピー増大の法則」は知られているものの、それだけしか存在しないのであれば、秩序立った「知能」が発生することはできないはずである。しかるに、生命と知能という秩序は事実存在するのであるから、「秩序」を統べる創造主たる原理が存在しなければならない。そこから、「秩序」の原理である「収穫加速の法則」の存在が論証?されています。(第1章) そして、知能とはDNAの信号であるため、優れたテクノロジーがあれば脳をスキャンし、知能を再構築できるとされています。更に、知能を再現するための構成要素として既存のテクノロジーを論じています。

彼の主張が妥当であるかはともかく(というより、推測や仮定、論理の飛躍があまりに多く、議論展開はかなり怪しいのですが)、感情的に訴えかける非常に強い力があり、少なくとも「面白い」ものであることは確かです。

本書の第III部には、「未来」という題が付けられており、カーツワイルは未来の予測を提示しています。当初彼が「シンギュラリティ」に注目していなかった一つの傍証としては、彼の予測は2099年まで続いていることが挙げられます。少なくともこの本では、現在言われている通りの「2045年」という年には特別な注意は払われていません。

実際に予測の内容を確認してみても、あくまで指数関数的な成長が継続されることにより社会が変化していくという主張であり、いずれかの時点で急激な転換点が訪れるとは考えていなかったようです。

ミハイル・アニシモフといった別の (カーツワイル以前の) シンギュラリタリアンの中には、カーツワイルは「シンギュラリタリアン」という語を乗っ取」り、「将来予測と平行して霊的で神秘的な哲学を押し進め、必然的・宿命論的な雰囲気をまとわせて」、「当然の嘲笑を引きつけた」としてカーツワイルを批判する人もいます。

シンギュラリティに関する議論では、各々がさまざまに異なる定義にもとづいているため巨大な混乱が引き起こされていますが、その原因の一端はカーツワイルによる「シンギュラリティ」という語の誤用にあると考えています。

合わせて読みたい

本書『スピリチュアルマシーン』の中でのカーツワイル氏の予測 (1999年時点で2009年と2019年を予測したもの) の検証は、以下の記事をご覧ください。

 

日米シンギュラリティ論比較 知能爆発説 vs. 収穫加速説

過去数年間、日本とアメリカの (英語で書かれた) シンギュラリティ論を追っていくなかで気がついた、興味深い若干の差異があります。

アメリカのシンギュラリティ論では、知能爆発説、つまり「将来のある時点で人間を超えるシードAIが作成される。そのAIは爆発的に成長し、創造主たる人間が想像可能な範疇を超越する」というロジックを取る人が多いようです。そして、私も紹介したフランソワ・ショレ氏ケヴィン・ケリー氏をはじめとする懐疑論者も、知能爆発説を前提として反論の論理を組み立てています。確かに、彼ら2人も「指数関数的な成長論」について多少言及していますが、指数関数的成長論への懐疑は必ずしも主張の根幹ではなく、どちらかと言えば「知能」の捉え方に対する誤解の指摘がメインであると言えます。

一方で、日本におけるシンギュラリティ論の場合では、しばらく前に話題になった斎藤元章氏などを筆頭に『科学技術は指数関数的に加速しており*1 、将来のある時点で速度が「垂直(無限大)」に発散する*2』というタイプの主張、「収穫加速説」が多いように見えます。

f:id:liaoyuan:20161025144315j:plain

「最強の科学技術基盤出現と、到来する前特異点・特異点」

そこで、私自身のシンギュラリティ懐疑論は「収穫加速」への検討から初めたわけです。また、「将来、シードAIが作られる」という主張は検証不能な未来の事象であり、証明も反証も原理的に困難であるのに対し、「過去、指数関数的に"収穫加速"してきている」という主張は、経験的根拠に基いて比較的容易に論駁可能だというテクニカルな理由もあります。

シンギュラリティ論は、ヴァーナー・ヴィンジから数えてもせいぜい30年程度の歴史しかありませんが、既にこのような分派が発生していることは面白いです。

*1:あるいは「計算力」や人工知能の「知能」が指数関数的に成長していると主張されることもある

*2:「主観的に」無限大という言い方がされる場合もある

論文紹介:ナノテクノロジーの20年 科学の未来をどう語るか (リチャード・ジョーンズ)

本ブログでも過去に何度か取り上げている、イギリス、シェフィールド大学の物理天文学科教授でナノテクノロジーの専門家であるリチャード・ジョーンズ氏が、過去のナノテクノロジーおよび科学技術一般の将来予測に関する論説を IEEE Nanotechnology Materials and Devices Conference (NMDC) に投稿し、自身のブログで一般公開しています。過去20年間のナノテクにまつわる言説を振り返りその予測を検証し、また科学技術の将来予測を語ることの困難さを述べるものです。ここでの対象はナノテクノロジーですが、ジョーンズ氏自身が述べている通り、近年のあらゆる新興テクノロジーについても同様の議論が当てはまるものであるため、ここで一部訳して紹介したいと思います。

Between promise, fear and disillusion: two decades of public engagement around nanotechnology – Soft Machines


科学のコミュニケーターと教育者は、ナノテクノロジーのような新興テクノロジーについて大衆に話す際にはジレンマに直面する。ナノテクノロジーの可能性について話す時、必然的に、未来を予測することに関わらなければならない。確立された科学について語る時には、比較的に確実さをもって扱うことができる。けれども、テクノロジーの未来について話す場合には、我々は、必然的に未来に対する人々の希望と恐怖に関わらなければならず、また我々が語ることは我々自身の見方の色合いを反映する。我々のテクノロジーの未来についての議論は、容易に極端な見方が最も注目を集めてしまう。-- ユートピア的あるいはディストピア的なビジョンが。地に足の付いた評価をすれば、現実を反映していないものであってさえである。

予測に挑戦することは難しい。なぜならば、いかなる瞬間においても、未来は文字通り不可知であるからだ。古いジョークがある。これは残念なことに現在でも正しいのだが、「核融合は20年後の未来である。そして常にそうあり続けるだろう。」というものだ。

ここでジョーンズ氏は、既存の科学やテクノロジーを語る場合と、未来の科学やテクノロジーについて語る場合には、異なる心構えと方法論が求められることを指摘しています。もちろん、ここには未来を知ることはできないために、未来予測は経験的な証拠を持ち出して決着を付けられないという理由もありますが、更に大きな理由として、未来のビジョンは人々の感情を強く刺激する傾向があり、また未来を語る科学者・技術者自身の感情も強く反映したものとなるからです。

20年間の科学コミュニケーションとパブリック・エンゲージメントを経て、おそらく我々は何らかの一般的な教訓を学べる場所にいるだろう。未来の教育とナノテクノロジーアウトリーチのみならず、ほかの新興テクノロジーにおいても、我々はこれらの教訓を心に留めておくべきである。さもなければ、新しい分野 --合成生物学、量子技術、計算論的神経科学、人工知能-- においても、同じ誤りが犯される危険がある。


これら新興テクノロジーの共通点としては、「約束の経済」と呼ばれるものの中で機能するという点が挙げられる。現在における資金供給は、必然的に、未来に関する主張によって正当化されなければならない。そして、これらの主張はあまりに容易く過剰誇張されてしまう。


これらの主張は、経済的インパクトであることもあるし、--3兆ドルのマーケット-- あるいは持続可能エネルギーや薬剤といった分野での革命と言われることもある。なぜ研究に対する資金供給が必要であるのか、何らかの議論ができることは不可欠であるし、我々がすることの影響を予期するための努力は健全である。しかし、おそらく不可避なのかもしれないが、これらの主張された利益のバブルを膨らませる不健全な傾向が存在する。


科学者は、これらの主張が助成金申請や論文には不可欠だと感じており、またメディアは壮大で根拠のない主張を注目を集めるために必要とする。研究の社会的・倫理的な側面を検討するプロセスや、パブリック・エンゲージメントに従事することでさえ、最もスペキュレーティブな可能性に対して信憑性を与える効果を持つことがある。


ナノテクノロジーのような分野では、既存技術の比較的漸進的な開発が、かなりラディカルな可能性と共存しており、この共存が緊張を導いている:将来の約束は、壮大なビジョンと壮大なメタファーを元に売り込まれる。しかしそのアチーブメントは、大部分が過去からの延長線上にあるテクノロジーに基づいている。

未来を語る上での本質的な困難さに加えて、更にこの問題を複雑にする傾向があります。近年では、研究への助成や企業への投資において、しばしば科学者・技術者自身が途方もなく壮大な未来のビジョンを主張する場合があることです。これには様々な複合的要因があり、項を改めて書きたいと思いますが、現在の科学研究・技術開発の場では、将来の可能性への過大な売り込みは常態化しています。

すべてのバブルにまつわる問題は、当然、果たされなかった約束に現実が追い付くということだ(…)、またこんな環境では、人々は、いかなるテクノロジーであれ直面するハードな制約の現実をあまり許容してくれなくなる。"約束" を過剰摂取した場合、資金供給者、政府関係者、投資家や大衆の間に幻滅が生じる。これは、テクノロジーが可能とするであろう真正のアチーブメントに対する信用を失なわせさえするかもしれない。たぶん、革命的イノベーションに対する絶え間ない注目によって、漸進的なイノベーションの本当のアチーブメントに対して盲目的になっているのかもしれない。

このような途方もない将来のビジョンが起こす問題としては、当然、科学者や技術者の発言が「オオカミ少年」化するという点が挙げられます。また、当該分野そのものに対する信頼を失なわせ、より微妙で長期的な投資を必要とする分野への注目を削ぐという問題もあります。

一般に流通する、科学界のコンセンサスを反映していない壮大なビジョンに対するアプローチとして、ジョーンズ氏は単に無視するのでも却下するのでもなく、敬意を持って応対することを提唱しています。

ナノテクノロジーの事例では、エリック・ドレクスラーが提唱したナノテクのスペキュレーティブなビジョンにいかにして関わるべきか、という特有の問題が存在する。そのようなビジョンが、妥当なタイムスケールの範囲で実現可能であるとみなしておらず、科学界のコンセンサスを反映させたいと望む者にとっては、3つのアプローチが存在する。


最初のアプローチは、単純にそれを無視するというものだ。ナノテクノロジーを扱う一般向け書籍や記事のなかには、ドレクスラーをこのテーマの歴史から排除するものもある。これは満足のいく方法とは言い難いと思う --一般大衆はこれらのアイデアに激しく晒されているため、省略は混乱を招くかもしれない。2つ目のアプローチは、科学の権威に訴えてそれらを却下するというものだ。晩年のリチャード・スモーリーによるコメントが、しばしばこの方法として用いられる場合がある。これまで以上に専門家の権威に対して疑問が抱かれるようになった世界では、これはサイエンスコミュニケーションの賢明なアプローチではないように思える。


私自身のアプローチ、2004年の書籍『ソフト・マシーンズ』、多数の公開講義、ブログ投稿や記事で取っている方法は、その主張に正面から向き合って、必要であれば技術的ディテールにも関わり、またその主張の支持者にも敬意を払う(そうあることを願う)ことである。これは、科学の性質をより誠実に反映しているように私には思える。

この記事では取り上げませんでしたが、ナノテクノロジーに関する過去の予測とその評価も一読の価値があると思いますので、ぜひ原文を確認してみてください。

関連項目

ジョーンズ氏は、専門分野のナノテクだけではなく、科学コミュニケーション・科学技術政策のあり方についても提言しており、シンギュラリタリアニズム/トランスヒューマニズムについても、やや懐疑的な立場から考察した小冊子を公表しています。

Against Transhumanism – the e-book – Soft Machines

過去に私が紹介したジョーンズ氏による記事です。

ロドニー・ブルックス氏の『超知能へ向けたステップ』の翻訳

いちおうの告知ですが、ロドニー・ブルックス氏のブログ記事合計4件を翻訳してQiitaに投稿しました。

安易で安直な人工知能ユートピア/ディストピア的なシンギュラリティ論に与せず、また人工知能研究の第一人者としてのオプティミズムを保ちながら人工知能において本当に困難な問題に取り組むように鼓舞する素晴しい論考ですので、人工知能に興味のある方は読んでほしいと思います。

ここでは、ちょっとした訳者後書き的に、訳しながら考えたことを散漫に書いてみようと思います。

確率統計的・機械学習的な知能観について

シンボリックAIに対して極めて批判的なことで知られるブルックス氏ですが、このエッセイでは確率統計的、ビッグデータ的、機械学習的な「人工知能」観に対してもやや懐疑的なスタンスを取っています。

よく考えてみると、「統計と知能は別物」というのは当然で、天然知能は必ずしも確率統計的なアプローチを取っていません。色一貫性に関する人間の認知は、それを示す非常に良い事例ではないかと思います。

私が色一貫性を取り上げたポイントは、単にオンラインの画像を大量に閲覧することだけから、知的な機能が自然に発生するわけではないことを示すためである。色一貫性は、現実世界で自然淘汰のビルディングメカニズムから生じたものであり、物体の本質的な色は、たとえその物体に当たる光の色が変わったとしても、実際には不変であるという事実を補償するものである。

超知能へ向けたステップ Part 4 「汎用人工知能実現のために今やるべきこと」

 

我々が当然と思う認識は、実は人間としての認知的な制約に強く依存しています。そこで、現在耳目を集めている確率統計的、ビッグデータ的な人工知能技術だけではなく、生得的な知能モジュールのあり方にも注目するべきであり、それが汎用人工知能実現のための近道なのだという指摘は極めて説得力があると感じました *1

ただし、その一方でペドロ・ドミンゴス氏が『The Master Algorithm』の中で指摘している通り、「データは知能を代替できないが、知能もデータを代替できない」ことも事実です。

そもそも人間は確率・統計的な思考が極めて不得手であり、まさにそれがビッグデータ機械学習を有用な技術にしている理由です。そして、近年では医療から商業から教育に至るまで、さまざまな分野でデータと統計の利用が変革を起こしつつあります。一方で、世論操作のために悪用されたり社会的な不平等の原因となるなど、統計、データと機械学習の誤用によるマイナスの影響も生じています。

ゆえに、データの利用や機械学習技術に対して注目しなければならないことに疑問はありません。それでも、(マイケル・ジョーダン氏の用語を使うなら)、未だ想像上の存在でしかない、将来の「人間に似た人工知能」に関する議論と、今現在の現実として出現しつつある「知能インフラ (II)」の議論は区別するべきであると言えます。

自律的な知能観とその裏の世界観について

そして、もう一点、ブルックス氏の議論の特徴としては、「自律的なエージェント」としての知能観を強調していることが挙げられます。不完全で不確実な情報な情報しかなくても、世界の中で自律的に自己完結した行動を取れる、それこそが「知能」であるのだという考えを持っているようです。

ここには、裏を返すと、「シンボリックAI/統計的機械学習型AI」と、「振る舞いに基づくアプローチ型のAI」それぞれの、いわば世界観の違いが存在しているように感じます。

  • シンボリックAI/統計的機械学習型AI
    知的エージェント(人間)は、世界の「客観的実在」とその基本法則を完全に認識でき、その正確なモデルが構築できる。または、大量のデータを取得すればいくらでもそこに漸近できる。ゆえに、不完全で非自律的な知的エージェントであったとしても、正確なモデルや大量のデータが存在すれば「正しい」行動と予測が可能である。
  • 振る舞いに基づくアプローチ型のAI
    知的エージェントは、世界の「客観的実在」を認識することはできず、どれほど大量のデータがあってもなお未来の予測はできない。それでも、知的なエージェントは低レベルの刺激に対する反応をもとにして「ロバストな」行動と予測が可能である。

おそらくこれが、Part1の文中で述べられている、「暗黙的に基礎を成す哲学的な立場」ではないかと考えているのですが、ブルックス氏の次回のエッセイを待ちたいと思います。

関連記事

過去、私が訳したブルックス氏のエッセイです。 

 

ブルックスの知能ロボット論―なぜMITのロボットは前進し続けるのか?

ブルックスの知能ロボット論―なぜMITのロボットは前進し続けるのか?

 

*1:当然、この議論には、「生物は、自然淘汰と進化を通して、統計的に知能を発達させてきたのだ」という反論がありうると思いますが、おそらく進化を通して入力されるデータの量は昨今の「ビッグデータ」とは比較にならないほどに多いでしょう