イーサリアム共同創設者のヴィタリック・ブテリン氏は、超高度な人工知能(AI)が野放しにしてしまえば、人間を越えて地球の生態系の頂点に立つ可能性が「真剣に」あると指摘した。ただし、それは人間がAIの発展にどう介入するかにかかっていると彼は付け加える。
仮想通貨分野の思想的リーダーとみなされているブテリン氏は11月27日のブログ投稿で、AIはソーシャルメディアや避妊具、飛行機、銃、車輪、印刷機などの他の近代発明と「根本的に異なる」と主張する。「急速に知能を高めている新しいタイプの心」を生み出す可能性があると言い、「AIは人間の精神能力を追い越し、地球上の新たな頂点種になる可能性がある」と述べる。
ブテリン氏は、気候変動、パンデミック、核戦争とは異なり、超知能AIが人間をAI自身の生存に対する脅威とみなした場合、人類を絶滅させてしまう可能性があると論じた。「AIが誤って世界を悪化させる可能性の1つは、文字通り人類の絶滅を引き起こすことであり、これは(ほぼ)最悪の可能性だ」と彼は述べた。「火星でさえ安全ではないかもしれない」とブテリン氏は付け加えた。
ブテリン氏は4270人以上の機械学習研究者を対象にした2022年8月の調査を引用し、AIが人類を滅ぼす可能性を5〜10%と推定する。しかし、ブテリン氏はこのような主張が「極端」であると強調しつつ、人類が勝利する方法もあると強調した。
テクノオプティミズム
ブテリン氏は、脳とコンピューター間のインターフェース(BCI)を統合することで、強力なAIに基づく計算と認識をよりコントロールできるようにすることを提案した。
BCIは、脳の電気活動とコンピューターやロボットの手足などの外部デバイスとの間の通信経路である。これにより、人間と機械間の双方向通信ループを秒単位からミリ秒単位に短縮し、さらに重要なことに、人間が世界に対して「意味のある主体性」を保持することを確実にするとブテリン氏は言う。
ブテリンは、AIマシンが下す各決定に人間が関与できるため、このルートの方が「より安全」になると示唆した。
イーサリアムの共同創設者はまた、利益を最大化することが常に人間を望ましい道へと導くわけではないため、「積極的な人間の意図」をもってAIを人類に利益をもたらす方向に導くことを提案した。
ブテリン氏は、何千年もの間、私たち人類がその可能性を拡大するための技術を開発してきたことから、「私たち人間は宇宙で最も輝かしい星」であると結論付けた。これからもそうあることを願っていると、ブテリン氏は付け加えた。
「今から20億年後、地球上または宇宙のどこかで、地球の生命の美しさが残っているとすれば、それは宇宙旅行や地球工学のような人間の技術によって実現されるだろう」。
参考資料:https://jp.cointelegraph.com/news/ethereum-vitalik-buterin-ai-surpass-humans-apex-species
●テレグラム始めました!
https://t.me/joinchat/F-7ftRCH5u_8J7k2JUM1rw
●無料でLINE@で有益情報を随時流しています。
https://t.me/joinchat/F-7ftRCH5u_8J7k2JUM1rw
●無料でLINE@で有益情報を随時流しています。
■トレードするならバイナンス!
https://www.binance.com/
■yobit net
https://yobit.net/en/
Source: 仮想通貨情報局