ビットコイン・イーサリアムニュース.comに「人工知能は人類を救うのか、それとも終わらせるのか?」という記事が掲載されました。要約すると、オンラインパネルではトランスヒューマニスト間の深い溝が示されましたビットコイン・イーサリアムニュース.comに「人工知能は人類を救うのか、それとも終わらせるのか?」という記事が掲載されました。要約すると、オンラインパネルではトランスヒューマニスト間の深い溝が示されました

人工知能は人類を救うのか、それとも終わらせるのか?

要約

  • オンラインパネルで、トランスヒューマニストと技術者の間でAGIをめぐる深い分断が明らかになった。
  • 著者のエリエゼル・ユドカウスキー氏は、現在の「ブラックボックス」AI システムが人類の絶滅を避けられない結果にすると警告した。
  • マックス・モア氏は、AGIを遅らせることで、人類が老化を克服し長期的な大惨事を防ぐ最良の機会を失う可能性があると主張した。

今週、4人の著名な技術者とトランスヒューマニストが、汎用人工知能(AGI)の構築が人類を救うのか破滅させるのかを議論し、人工知能の未来をめぐる鋭い対立が繰り広げられた。

非営利団体Humanity+が主催したこのパネルでは、高度なAI開発の停止を呼びかけてきた最も声高なAI「破滅論者」の一人であるエリエゼル・ユドカウスキー氏と、哲学者で未来学者のマックス・モア氏、計算神経科学者のアンダース・サンドバーグ氏、Humanity+名誉会長のナターシャ・ヴィータ=モア氏が一堂に会した。

彼らの議論は、AGIが人類の生存と調和できるのか、それともその創造が絶滅を避けられないものにするのかについて、根本的な意見の相違を明らかにした。

「ブラックボックス」問題

ユドカウスキー氏は、現代のAIシステムは内部の意思決定プロセスを完全に理解したり制御したりできないため、根本的に安全ではないと警告した。

「ブラックボックスのものはすべて、現在の技術と驚くほど似た問題に行き着く可能性が高い」とユドカウスキー氏は警告した。彼は、高度なAIを安全に開発する前に、人類は「現在のパラダイムから非常に、非常に遠く離れる」必要があると主張した。

汎用人工知能とは、テキスト、画像、動画の生成のような単一の仕事のために構築されるのではなく、幅広いタスクにわたって推論し学習できるAIの形態を指す。AGIは技術的特異点の概念としばしば関連付けられる。なぜなら、そのレベルの知能に到達すれば、機械が人間が追いつけないほど速く自己改善できるようになる可能性があるからだ。

ユドカウスキー氏は、リスクを説明するために、哲学者ニック・ボストロム氏が広めた「ペーパークリップ最大化装置」の類推を指摘した。この思考実験は、利用可能なすべての物質をペーパークリップに変換する仮想のAIを特徴とし、人類を犠牲にして単一の目的への執着を深めていく。より多くの目的を追加しても、安全性が意味のある形で改善されることはないとユドカウスキー氏は述べた。

AIに関する彼の最近の著書「If Anyone Builds It, Everyone Dies」のタイトルに言及して、「私たちのタイトルは、それがあなたを殺すかもしれないというようなものではない」とユドカウスキー氏は述べた。「私たちのタイトルは、誰かがそれを構築したら、全員が死ぬというものだ」

しかし、モア氏は極端な慎重さが最も安全な結果をもたらすという前提に異議を唱えた。彼は、AGIが人類に老化と病気を克服する最良の機会を提供できると主張した。

「私にとって最も重要なのは、AGIが老化によって生きているすべての人の絶滅を防ぐのに役立つ可能性があることだ」とモア氏は述べた。「私たちは皆死にかけている。私たちは一人ずつ大惨事に向かっている」彼は、過度の抑制が、世界中のAI開発を止める唯一の方法として、政府を権威主義的な統制に向かわせる可能性があると警告した。

サンドバーグ氏は両陣営の中間に位置づけ、自分自身を「より楽観的」と表現しながらも、トランスヒューマニスト楽観主義者よりも慎重な姿勢を保った。彼は、大規模言語モデルを使って生物兵器の設計を支援しようとした個人的な経験を語り、そのエピソードを「恐ろしい」と表現した。

「悪意のある行為者を増幅させることも、大混乱を引き起こすポイントに近づいている」とサンドバーグ氏は述べた。それでも、彼は部分的または「近似的な安全性」は達成可能であると主張した。彼は、安全性が意味を持つためには完璧でなければならないという考えを否定し、人間は少なくとも生存などの最小限の共有価値に収束できると示唆した。

「だから、完璧な安全性を要求すれば、それは得られない。そして、その観点からは非常に悪く聞こえる」と彼は述べた。「一方で、実際に近似的な安全性を持つことができると思う。それで十分だ」

アライメントへの懐疑

ヴィータ=モア氏は、アライメント議論そのものを批判し、この概念は長年の協力者の間でさえ存在しないレベルの合意を前提としていると主張した。

「アライメントの概念はポリアンナ的な計画だ」と彼女は述べた。「それは決して調和しない。つまり、ここにいる私たちでさえ、皆良い人間だ。数十年も知り合いだが、私たちは調和していない」

彼女は、AGIが必然的に全員を殺すというユドカウスキー氏の主張を、他の結果の余地を残さない「絶対主義的思考」と表現した。

「全員が死ぬという大げさな発言に問題がある」と彼女は述べた。「未来学者として、実用的な思考者としてこれにアプローチすると、結果も選択肢も他のシナリオもない。それは単なる率直な断言であり、それが一種の絶対主義的思考を反映しているのではないかと疑問に思う」

議論には、人間と機械のより密接な統合がAGIによってもたらされるリスクを軽減できるかどうかについての討論も含まれていた。これはTeslaのCEOイーロン・マスク氏が過去に提案したものだ。ユドカウスキー氏はAIとの融合という考えを否定し、「トースターオーブンと融合しようとするようなもの」と比較した。

サンドバーグ氏とヴィータ=モア氏は、AIシステムがより有能になるにつれて、人間はポストAGI世界により良く対処するために、それらとより密接に統合または融合する必要があると主張した。

「この議論全体が、人間としての私たちが何者であるかについての現実確認だ」とヴィータ=モア氏は述べた。

Daily Debrief Newsletter

今すぐトップニュース記事、オリジナル機能、ポッドキャスト、動画などで毎日を始めましょう。

出典: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

免責事項:このサイトに転載されている記事は、公開プラットフォームから引用されており、情報提供のみを目的としています。MEXCの見解を必ずしも反映するものではありません。すべての権利は原著者に帰属します。コンテンツが第三者の権利を侵害していると思われる場合は、削除を依頼するために service@support.mexc.com までご連絡ください。MEXCは、コンテンツの正確性、完全性、適時性について一切保証せず、提供された情報に基づいて行われたいかなる行動についても責任を負いません。本コンテンツは、財務、法律、その他の専門的なアドバイスを構成するものではなく、MEXCによる推奨または支持と見なされるべきではありません。