シンギュラリティ教徒への論駁の書

“Anyone who believes that exponential growth can go on forever in a finite world is either a madman or an economist.” - Kenneth Boulding

翻訳:AIについて私は何を心配しているか

この文章は、Google社のソフトウェアエンジニア、機械学習研究者 François Chollet氏がサイトMedium上で公開したエッセイ "What worries me about AI" の翻訳です。

AIについて私は何を心配しているか

免責事項:これは私の個人的見解であり、雇用主の立場を表すものではない。この記事を引用する場合は、誠実さを保ってこの文の意図を保って提示してほしい。つまり、個人的で、スペキュレーティブな意見であり、読者自身の判断材料とするためのものである。

1980年代と1990年代ごろの人であれば、今や絶滅した「コンピュータ恐怖症」現象を記憶しているかもしれない。個人的には、2000年代始めごろまでは何度かそんな現象を目撃したことがある。-- 我々の生活に、職場と家庭にパーソナル・コンピュータが導入されるにつれて、少なくない人が不安や恐怖を示し、攻撃的な反応をする人さえも存在していた。我々のなかには、コンピュータに魅了され、コンピュータが垣間見せた可能性に畏敬の念を抱いた人もいたものの、ほとんどの人はそれを理解できなかった。普通の人は異質さ、不気味さを感じ、また多くの点で脅威を感じていた。人々はテクノロジーに代替されることを恐れていたのだ。

テクノロジーの変化は、たいていの人に良くて落ち着かない気分を覚えさせ、最悪の場合はパニックを引き起こす。おそらくそれはすべての変化にあてはまるのだろう。けれども、注目すべきは、我々が心配することの大半は結局のところ決して起こらないということだ。

何年か経ってみれば、コンピュータ嫌いの人たちもコンピュータと共に生きることを学び、自身の目的のためにコンピュータの使用方法を学んでいった。コンピュータは我々を置き換えなかったし、大量失業の引き金も引かなかった。--今日では、ラップトップ、タブレットスマートフォンなしの生活は想像できない。脅威をもたらす変化は、心地良い現状となった。けれども、予期された恐怖は遂に現実化しなかったのと同時に、コンピュータとインターネットは、1980年代と1990年代にはほとんど誰も警告していなかった脅威を生み出した。ユビキタスな大量監視。我々のインフラストラクチャと個人情報を追い求めるハッカーたち。ソーシャルメディア上での心理的疎外感。忍耐力と集中力の喪失。オンライン上で影響を受けやすい人々の政治的・宗教的な過激化。西洋のデモクラシーを混乱させるための、敵対的な国家機関によるソーシャルネットワークのハイジャック。

我々の恐怖のほとんどは不合理であると判明した。ということは逆に、過去のテクノロジー変化の結果生じた真に懸念すべき脅威は、実際に生じるまでほとんど誰も気にかけていなかったことから生じているのだ。100年前には、当時開発されつつあった輸送技術と製造技術が、新たな形の工業化された戦争を可能にし、二度の世界大戦において数千万人を殲滅するとは本当に誰も予測していなかっただろう。ラジオの発明当初には、それが新たな形の大衆プロパガンダを可能にし、イタリアとドイツでファシズムの台頭を促進するとは認識されていなかった。1920年代から1930年代にかけて、理論物理学が進歩したときには、これらの進歩がすぐにでも熱核兵器を生み出し、恒久的に世界全体を即時の絶滅の危機に晒し続けるだろうという不安な報道は伴っていなかった。そして今日、気候変動という巨大な問題に対する警告音は10年以上も前から鳴り響いているのに、大部分 (44%) のアメリカ人は未だそれを無視している。文明全体として、人間は将来の危機を判定し正しく恐れることが不得手なようだ。それは、不合理な恐怖によって極めてパニックを起こしやすいのと同じである。

今日、過去何度も発生した通り、我々は抜本的な変化に直面している: すなわち、認知機能の自動化(コグニティブ・オートメーション)であり、大まかには「AI」というキーワードのもとに括られる技術である。そして、過去何度も発生した通り、この種の新しいテクノロジーが害を成すかもしれないと心配されている。--AIが大量失業を引き起こす、あるいはAIが独自の意思を持ち、超人的になり、そして我々を滅ぼすかもしれない、と。

けれども、毎度おなじみのように、もしも我々が間違ったことを心配しているとしたら? もしも、AIの真の危険性は、今日多くの人がパニックを起こしている「超知能」や「シンギュラリティ」の物語(ナラティブ)ではないとしたら?

この記事で、AIについて私が何を心配しているか注意喚起したいと思う: AIによって可能となる、極めて効果的で極めてスケーラブルな人間の行動操作であり、また企業や国家によるその悪用である。もちろん、これはコグニティブ・テクノロジーの発展によって引き起こされる唯一の現実的リスクというわけではない。-- 他にも多数のリスクがある。特に関連するものとしては、機械学習モデルの有害なバイアスが挙げられるだろう。これらの問題については、他の人々が私よりもうまく問題提起している。私がここで特に大衆操作について書くことを選択したのは、この問題は切迫しており、また恐ろしく過小評価されているからである。

このリスクは、今日既に現実のものとなっている。そして、今後数十年に渡って、多数の長期的な技術開発トレンドがこのリスクを大きく増幅させるだろう。我々の生活がよりデジタル化されていくにつれて、ソーシャルメディア企業は我々の生活と精神に対して大きな影響を及ぼすようになるだろう。同時に、ソーシャルメディア企業は行動制御ベクトルに対するアクセスを増加させていく。--特に、我々の情報消費をコントロールする、アルゴリズム的なニュースフィードを通して。ここでは、人間の行動が最適化問題として捉えられている。ちょうど、AIの問題と同じように。ソーシャルメディア企業は、自身の制御ベクトルを段階的に調整し、特定の行動の実現を可能にする。まさに、ゲームのAIがスコアのフィードバックによって段階的に戦略を調整し、勝利を達成するのと同じである。このプロセスの唯一のボトルネックは、ループ内のアルゴリズムの知能のみである。--そして、折よく、現在超巨大ソーシャルネットワーク企業は、AIの基礎研究に何十億ドルも投資している。

詳細を説明しよう。

心理的パノプティコンとしてのソーシャルメディア

過去20年間、我々の私的・公的な生活はオンライン上へと移動していった。皆が毎日長時間スクリーンを凝視して過ごすようになっている。我々が行なうことの大部分は、デジタル情報の消費、変更や創造によって構成される状態となっている。

この長期的トレンドの副作用は、企業や政府が、特にソーシャルネットワークサービスを通して、我々について驚くべき量のデータを収集していることである。私たちが誰とコミュニケーションするか。私たちが何を言うか。私たちがどんなコンテンツを消費しているか--画像、動画、音楽、ニュースなど。ある特定の時点において、私たちがどんな気分なのか。究極的には、我々が感じるすべてのことと、我々が行うすべてのことが、どこかのリモートサーバに記録されるだろう。

このデータによって、理論上、データを収集する機関は、個人とグループの両方について非常に正確な心理的プロファイルを構築できる。あなたの意見と行動は、幾千もの類似した人々との相互相関を計算できるので、何があなたの気を引くかについて驚異的なまでの理解を達成できる。--おそらく、あなた自身の単純な内観よりも正確な予測かもしれない (たとえば、Facebookの「いいね」を使ったアルゴリズムを利用して、性格を友達よりも正しく評価できる) このデータは、新しい交際関係が始まる時期 (および誰と交際するか) を数日前に予測でき、また現在の関係が終了する時期を予測できる。あるいは、誰に自殺の危険があるか。あるいは、選挙でどの政党に投票するか、自分自身ですら未だ決めかねているうちに予測できる。そしてこれは、単に個人レベルのプロファイリング能力のみに限らない。--大きなグループは更に予測可能性が高い。集計されたデータポイントが、ランダム性と個人の外れ値を消去するためである。

心理的制御ベクトルとしてのデジタル情報消費

受動的データ収集だけに留まることはない。ソーシャルネットワークサービスは、ますます我々の情報消費をコントロールするようになっている。ニュースフィードで眼にする情報は、アルゴリズム的に「キュレーション」されている。どのような政治記事を読むか、どんな映画予告を見るか、誰と接触するか、表明した意見に誰からフィードバックを受けるのか。不透明なソーシャルメディアアルゴリズムによって決定される領域は、ますます拡大している。

長期間に渡って暴露された情報を統合した、我々が消費する情報のアルゴリズム的なキュレーションによって、このアルゴリズムは我々の生活を左右する大きな力を持つようになった。--私たちが誰であるか、私たちが何になるかを。もしも、Facebookが何年もの期間に渡って、あなたにどんなニュース (リアルであれフェイクであれ) を見せるか、誰が政治的立場を変更したかを見せるか、誰があなたの変更を見るかを決定したとしたら、Facebookは実質的にあなたの世界観と政治的信念をコントロールできるだろう。

Facebookのビジネスは、人々に影響を与えることにある。それこそがFacebookが顧客に販売しているサービスである。--顧客とは広告主であり、政治的広告主も含む。であるため、Facebookはまさにそれを行うため精細に調整されたアルゴリズムエンジンを構築している。このエンジンは、単にあなたのブランド観や次のスマートスピーカーの購入に影響を与えられるだけではない。あなたを怒らせたり幸福な気分になるようコンテンツを調整し、望みのままに、あなたの気分にも影響を与えられるのだ。選挙結果を左右することすらできるかもしれない。

最適化問題としての人間行動

簡単に言えば、ソーシャルネットワーク企業は、我々に関するすべての情報を観測し、また同時に我々が消費する情報を制御できる。そして、この傾向は加速するだろう。知覚と行動の両方にアクセスできる場合、これはAIの問題として捉えられる。人間行動に対する最適化ループを構築し始められるのだ。そこでは、ターゲットの現在の状況を観察し、いかなる情報を与えるかを調整し続ける。それはターゲットから望ましい意見や行動の出力が観察されるまで続く。AI研究の大きな下位分野--特に、「強化学習」--は、このような最適化問題を、可能な限り効率的に解決する方法を開発する分野である。ループを閉じて、対象となるターゲット--この場合は、私たち-- の完全なるコントロールを実現するのである。我々の生活がデジタル領域に移行するに従い、我々はそこを支配するものに対して脆弱になるだろう。--つまり、AIのアルゴリズムである。

人間の精神は単純なパターンの社会的操作に対しても非常に脆弱であるという事実によって、この操作はより容易になる。たとえば、以下のような攻撃ベクトルについて考えてほしい。

  • アイデンティティ強化
    これは、歴史上初めての広告から利用されてきた古いトリックであり、現在でも最初と同じように機能する。あなたが自分のアイデンティティと考える (あるいは、そうありたいと思う) マーカーに、ある見解を関連付けて提示する。すると、あなたは自動的に対象となる見解を支持するようになる。 AI最適化されたソーシャルメディア消費の文脈においては、コントロールアルゴリズムがあなたに支持させたい意見と、あなた自身のアイデンティティマーカーが同居するコンテンツ (ニュースであれ友人の投稿であれ) のみを提示し、その逆の場合は表示しないように仕向ける。
  • ネガティブな社会的強化
    もし、あなたが何らかの意見を投稿し、その意見が制御アルゴリズムによって望ましくないと見なされた場合、システムはその投稿を反対意見を持つ人 (知人、他人、ボットかもしれない) 、そして、その意見を激しく批判するであろう人のみに提示するよう選択する。これが何度も繰り返されれば、この種のソーシャルバックラッシュによって、あなたは当初の見解から離れていくかもしれない。
  • ポジティブな社会的強化
    もし、あなたが何らかの意見をポストし、その意見は制御アルゴリズムが拡散したいと望むものであった場合、システムはそれを「いいね」する人 (ボットでも可) のみに見せるように選択する。これによりあなたの信念は強化され、自分は多数派の一部であるという印象を与える。
  • サンプリングバイアス
    このアルゴリズムにおいては、システムが望ましいと考える意見を持つ友人 (あるいはメディア一般) からの投稿のみを表示する。このような情報のフィルターバブルの中に置かれ、自身の意見は実際よりもはるかに広い支持を得ているような印象を持つことになる。
  • アーギュメント・パーソナライゼーション
    あなたと似た心理的プロファイルのユーザが、特定のコンテンツを閲覧した時、どのような変化を起こしたかをアルゴリズムは観察する。そこで、このアルゴリズムは、あなた特有の見解と人生経験を備えた人間に対して、最大限の効果を持つと期待されるコンテンツを提示できるようになる。将来的には、このアルゴリズムはあなた個人に向けてあつらえた、最大限の効果を持つコンテンツをゼロから生成することすら可能になるかもしれない。

情報セキュリティの観点からは、これらは脆弱性と呼べるだろう。システムを乗っ取るために利用される、既知の攻撃手段(エクスプロイト)である。人間の精神の場合、これらの脆弱性にはパッチが当てられることはない。これらは、単に我々の機能そのものであり、DNAに書き込まれている。人間精神はスタティックで脆弱なシステムであり、より賢くなるAIアルゴリズムからますます攻撃を受けるようになるだろう。それらのアルゴリズムは、我々の行動と信念の両方を同時に完全に観察しており、我々が消費する情報に対する完全なコントロールを持つようになる。

現在の光景

注目するべきは、AIアルゴリズムを通じた情報摂取によって引き起こされる大衆操作 --特に政治的コントロール-- においては、必ずしも非常に高度なAIを必要としないということだ。自己認識を持つような超知能AI抜きでも恐しい脅威をもたらしうる。--現在のテクノロジーでさえ十分だろう。ソーシャルネットワーク企業は何年間もこの活動に取り組んできており、目覚しい成果を挙げている。これらの企業の目的は、ユーザの「エンゲージメント」を最大化して商品購入への意思決定に影響を与えることだけで、実際にはユーザの世界観に影響を与えるなどというつもりはないのかもしれない。けれども、SNS企業が開発したツールは、既に敵対的な国家主体によって政治目的でハイジャックされている。-- 2016年のイギリスのEU脱退に関する国民投票、あるいは2016年のアメリカ大統領選挙で見られたように。これは既に現実なのである。けれども、もしも大衆操作が既に--理論上は--今日でも可能なのだとしたら、なぜ世界は未だそれを放置しているのだろうか?

一言で言えば、AIが未成熟だったからだと思う。しかし、それは変わりつつあるかもしれない。

2015年まで、業界全体のあらゆる広告ターゲティングアルゴリズムは、単なるロジスティック回帰で実行されていた。実際のところ、今日でさえ大部分においてそれは正しい。--ただ巨大プレイヤーだけが、より先進的なモデルに切り替えている。ロジスティック回帰はコンピュータ時代以前のアルゴリズムであり、パーソナライゼーションに使用可能な最も基本的な手法の1つである。これがオンラインで眼にする広告の多数が絶望的なまでに的外れな理由でもある。同様に、敵対的な国家主体が世論を動かすためにソーシャルメディアのボットも、AIを使用しているものはほとんどない。ボットは極めて原始的である。今のところは。

機械学習とAIは、近年著しい進歩を遂げた。そして、この進歩はようやくターゲティングアルゴリズムソーシャルメディアのボットへの導入が始まったばかりである。ディープラーニングがニュースフィードと広告ネットワークに進出し始めたのは、2016年である。次が何であるか誰も知らない。Facebook社が、AI分野のリーダーになるという明確なゴールを掲げてAI研究に莫大な額の投資を投げていることは、非常に印象的である。自社製品がソーシャルニュースフィードである場合、果たして自然言語処理と強化学習をどのように使用するだろうか?

我々が眼にしつつある企業は、およそ20億人の詳細な心理的プロフィールを構築し、多数の人の主要なニュースソースとして機能しており、巨大な規模の人間の行動操作実験を行ない、かつて世界に存在しなかった最高のAI技術の開発を目論んでいる。個人的に、これには恐怖を感じる。更には、Facebook社は最も不安な脅威ではないかもしれないと考えてほしい。例えば、中国による情報コントロールの利用は、前例の無い形態の全体主義国家を可能たらしめている。たとえば、「ソーシャルクレジットシステム」などだ。多くの人々は、大企業が現代世界のあらゆる権力を持つ支配者であるかのように考えるのを好むようだが、企業が持つ力は政府に比べれば矮小である。もしも、我々の精神に対するアルゴリズム的コントロールを持ったとしたら、政府は企業より最悪のアクターとなるかもしれない。

それでは、我々は何ができるだろうか? どのように自分自身を守れば良いのだろうか? 技術者として、ソーシャルニュースフィードを通した大衆操作のリスクを低減するために何ができるだろう?

コインの裏側:AIが我々にできること

重要なことは、この危険性の存在は、すべてのアルゴリズム的キュレーションが悪である、あるいはすべてのターゲット広告が悪であると意味するのではないということだ。まったく逆である。両者とも、価値ある目的のために貢献できる。

インターネットとAIの台頭に従って、情報摂取を担当するAIの利用は不可避のトレンドであるというだけではない。--むしろ、望ましいものでさえある。我々の生活がますますデジタル化され接続されていくに従い、また世界がますます情報集約的になるにつれて、世界へのインターフェイスとして機能するAIが必要とされるだろう。長期的には、教育と自己啓発がAIの最も影響力あるアプリケーションとなるかもしれない。

そしてこれは、AIニュースフィードによる心理操作とは、ほとんど完全な正反対のダイナミクスを通して実現されうる。アルゴリズム的な情報マネジメントは、人々を支援する巨大なポテンシャルを秘めている。自身のポテンシャルを発揮するための力を与え、社会をより良くマネジメントするための支援ができる。

問題は、AI自体ではない。問題はコントロールである。

ニュースフィードのアルゴリズムによるユーザの操作を許容して、政治的意見を揺さぶったり、最大限に時間を浪費させるなど不明確な目標を達成するのではなく、アルゴリズムを最適化する目標の設定をユーザに任せるべきである。ここで話しているのは、結局のところ、あなたのニュース、あなたの世界観、あなたの友達、あなたの人生についてである--テクノロジーがあなたに及ぼす影響は、当然あなたの管理下に置かれるべきであろう。情報マネジメントアルゴリズムは、我々自身の関心と対立する目的をもたらす神秘的な力となるべきではない。そうではなく、我々の手のなかにある道具であるべきだ。我々自身の目的のために使用できる道具であり、エンターテインメントではなく、教育や個人のための道具である。

以下はアイデアである--重大な最適化を含むいかなるアルゴリズム的ニュースフィードも、以下のような特長を持つものでなければならない。

  • 透明性を保ち、そのフィードアルゴリズムが現在どんな目的のために最適化されているか、またそれらの目的が情報摂取にどんな影響を与えているかを伝える。
  • 直感的なツールを提供し、これらの目的を自分自身で設定できる。たとえば、ニュースフィードを、学習や個人的成長など特定の方向へ最大化できるように設定可能とする。
  • どれだけの時間をフィード上で過ごしたか、常時目に見える形で表示する。
  • どれだけの時間をフィード上で過ごすか、管理し続けられるツールを持つ。たとえば、日次の目標時間など。時間を超過するとアルゴリズムはフィードから離れるように促す。

我々はAIを人間に資するよう構築するべきであり、企業の金銭的収益や政治的利益のために人間を操作するべきではない。もしも、ニュースフィードのアルゴリズムが、カジノ運営者や扇動者(プロパガンディスト)のようにふるまうことを止めたらどうなるだろうか?その代わりに、メンターや良き図書館員に近づいていくとしたら? あなたの心理--また、何百万人もの類似の人々の心理--に対する鋭い理解を用いて、あなたの目標と成長のために最も合致した、次に読むべき本をレコメンドしてくれるとしたら?

あなたの人生のための、ある種のナビゲーションツール -- あなたが行きたいところに行くために、経験空間で最適な道順を案内できるAIである。数百万の人生が展開されているシステムのレンズを通して、自分自身の人生を眺めることを想像できるだろうか?または、あらゆる本を読んだシステムと一緒に本を執筆することは? あるいは、現在の人類の知識全範囲を視野に入れたシステムと共同研究を行うことは?

あなたと交流するAIに対して完全なコントロールを持つ製品においては、より洗練されたアルゴリズムは、脅威ではなく正味のポジティブとなり、あなた自身の目標を効率的に達成できるようになるだろう。

フェイスブックの構築

要約すれば、未来においてはAIが世界--デジタル情報で作られた世界へのインターフェイスとなるだろう。これは個人に自身の人生に対する大きな力を与えるものにも、逆に完全に力を奪うものにもなりうる。不幸にも、ソーシャルメディアは現在間違った道に進んでいる。けれども、まだ十分方向を変えられる時期である。

IT業界として、ユーザ自身が自分に影響を与えるアルゴリズムに責任を持てるような種類のプロダクトと市場を発展させる必要がある。AIを利用して、金銭的収益や政治的利益のためにユーザの精神をエクスプロイトするのであってはならない。我々は反Facebook的な製品に向けて努力する必要があるのだ。

遠い将来において、そのような製品はおそらくAIアシスタントの形を取るだろう。デジタルメンターはあなたを支援するようにプログラムされており、あなたとのインタラクションにおいて追求する目的は、あなたがコントロールする。そして現在のところ、検索エンジンは、メンタルスペースのハイジャックを目論むAIとは異なった、初期の原始的なAIドリブン情報インターフェイスの実例と見なせるだろう。検索は、特定の目的を達成するために意識的に使用する道具である。人々に何を見せるか選択する、パッシブな常時オンのフィードではない。ユーザは、検索エンジンが何をするべきかを伝える。そして、ユーザの時間を最大限に浪費しようとするのではなく、検索エンジンは質問から解答へ、問題から解決策へ至るまでの時間を最小限に抑えようとする。

読者はこう思うかもしれない。検索エンジンも私たちと私たちが消費する情報の間のAIレイヤーであることに変わりはないのだから、検索エンジンも結果にバイアスを掛けて私たちを操作しようとたくらむ可能性があるのではないだろうか、と。イエス。そのリスクは、あらゆる情報マネジメントアルゴリズム潜在的に存在している。けれども、ソーシャルネットワークとの際立った違いは、検索エンジンの場合市場インセンティブは実際のユーザのニーズと合致しているため、可能な限り関連性が高く客観的なものになるよう作られているということだ。もしも、検索エンジンが最大限に役に立たない場合、ユーザが競合製品へ移動することには実質的に何の摩擦もない。更に重要なことは、検索エンジンソーシャルネットワークよりも相対的に小さな心理的攻撃面しか持たないのである。この記事において描き出した脅威は、プロダクトが次のような特徴を持っている必要がある。

  • 知覚と行動の両方:そのプロダクトは、提示する情報 (ニュースや友人の投稿) のコントロールを持つだけでは不十分である。ユーザの「いいね」、チャットメッセージやステータスの更新を通して、ユーザの精神状態を「知覚」できる必要がある。知覚と行動の双方が無ければ強化学習ループは構築できない。読み取り専用のフィードは、潜在的には古典的なプロパガンダの道具としてのみ危険である。
  • 生活の中心性:そのプロダクトは、少なくとも一部のユーザに対する主要な情報源でなければならず、典型的なユーザが一日数時間使用するようなものでなければならない。補助的で特殊なフィード (たとえば、Amazonの商品リコメンド) は、深刻な脅威ではない。
  • 極めて広範で効果的な心理的制御ベクトルを実現する、ソーシャルな要素 (特に、社会的強化)。 個人的ではないニュースフィードは、我々の精神のごくわずかな部分しか利用できない。
  • ユーザを操作し、プロダクト上でユーザが過ごす時間を増加させようとするビジネス上のインセンティブ。

ほとんどのAIドリブン情報マネジメントプロダクトは、これらの必要条件を満たさない。ソーシャルネットワークは、その一方で、リスク要素の危険な組み合せである。技術者として、我々はこれらの特徴を持たないプロダクトへと向かうべきである。また、これらすべてのリスク要素の組み合せであるプロダクトには反対するべきだ。もしも、危険な乱用の可能性がある場合には。

ソーシャルニュースフィードではなく、検索エンジンとデジタルアシスタントを構築せよ。リコメントエンジンは、透明で、設定可能で、建設的なものにしなければならない。スロットマシーン的に「エンゲージメント」を最大化し、人間の時間を浪費させるものであってはならない。UI、UXおよびAIの専門知識を活用して、アルゴリズムに対する優れた設定画面を構築し、ユーザが自分自身の意図通りに使用できるプロダクトを作るべきだ。

そして重要なことは、ユーザに対してこれらの問題を教育しなければならない。ユーザが心理操作的なプロダクトを拒否できるように、またテック業界のインセンティブとユーザのインセンティブを一致させるために、十分な市場の圧力を生み出すべきである。

結論:目前にある分かれ道

  • ソーシャルメディアは、個人とグループ両方の強力な心理的モデルを構築するために十分なデータを持っているだけではない。我々の情報摂取に対するコントロールを増しつつある。
  • 十分に発達したAIアルゴリズムは、我々の精神状態に対する知覚、我々の精神状態に対する行動の両方に対してアクセスし、連続的なループにおいて使用することで、信念と行動を効果的にハイジャックできる。
  • 情報へのインターフェイスとしてAIを使用すること自体は問題ではない。そのようなAIインターフェイスは、もしうまく設計されていれば、我々全員に巨大な利益を与え、力を与える可能性を持っている。キーファクターは、ユーザが完全にアルゴリズムの目的をコントロールし続けられること、そのツールを使って自分自身の目標を追求することである (検索エンジンを使う方法と同様である)
  • 技術者として、我々はコントロールを奪うプロダクトを拒否する責任がある。そして、ユーザが責任を持つ情報インターフェイスを構築する努力をしなければならない。AIを、ユーザを操作するツールとして使用してはいけない。そうではなく、ユーザ自身の環境に対して大きな力を与えるツールとしてAIを提供せよ。

一方の道は、本当に恐ろしい場所へと繋がっている。もう一方は、より人道的な未来に繋がる。より良い選択を取る時間はまだ残されている。もしも読者がこれらのテクノロジーに対して働いているのなら、この点に留意してほしい。あなたは悪意を持っていないかもしれないし、単に気にしないかもしれない。あなたは、皆の未来よりも、単にRSU*1の価格を評価するかもしれない。

けれども、気にしようとしまいと、あなたはデジタル世界のインフラを形作っているため、あなたの選択は私たちすべてに影響を与えるだろう。そして、最終的にはその責任を負うかもしれない。

Deep Learning with Python

Deep Learning with Python

*1:訳注:譲渡制限株式。従業員へのインセンティブとして与えられる自社株。