この警告は、「汎用人工知能」(AGI)という用語を普及させたことで知られる数学博士で未来学者のベン・ゲルツェル氏によるもので、今月のサミットで彼は次のように述べた。たとえば今後 3 年から 8 年以内に。」
同氏は、私たちが人間レベルの汎用人工知能を達成したら、根本的に超人的なバージョンが出現するまでにわずか数年かかるだろうと付け加えた。同氏は、自分の予測が正しくない可能性があることを認めたものの、人間の作成者よりも知能においてはるかに優れているAIを阻止できる唯一のことは、AIボットの「独自の保守主義」によって慎重に作業を進めざるを得ない場合だと述べた。彼は、人工知能テクノロジーの指数関数的な進化は避けられないと信じています。
ゲルツェル氏は、人類文明のすべてのコンピューティング能力と頭脳能力に匹敵する AI を指す用語、人工超知能を研究してきました。同氏は、Googleのコンピュータ科学者で未来学者のレイ・カーツワイル氏が開発した予測モデルは、この種のインテリジェンスが2029年までに可能になることを示唆していると指摘した。
この概念は、過去数年間に大規模な言語モデルで行われた大きな進歩によってさらに裏付けられています。このテクノロジーは急速に進化しており、今や世界中の多くの人がこのテクノロジーの可能性を十分に認識しています。
皆様の寛大なご支援のおかげで、私たちは人間の自由のインフラを構築し、独立した出版社、著者、家庭教育団体にテクノロジーを積極的に寄付しています。革新的な非営利 AI プロジェクトについては、こちらをご覧ください。HealthRangerStore.comで買い物をすることで、人類の知識を保存し向上させるための継続的な取り組みを支援してください。
未来学者の最新の警告は、このテクノロジーに関して彼が近年行ったいくつかの警告のうちの 1 つにすぎません。同氏は昨年5月、今後数年以内に人間の仕事の80%が人工知能に取って代わられる可能性があると警告し、事務処理を伴うあらゆる仕事は自動化できる可能性があると述べた。
AI業界のリーダーら、リスクはパンデミックや核戦争と同等だと警告
昨年、業界リーダーのグループは、AI技術はいつか人類に存亡の脅威をもたらす可能性があり、核戦争や致命的なパンデミックのリスクと同じくらい危険であると考えるべきだと警告した。
非営利の Center for AI Safety は、「AI による絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきである」という一文の声明を発表しました。
人工知能に携わるエンジニア、研究者、幹部など、この分野の専門家350人以上が署名した。署名した人の中には、GoogleのDeepMindの最高経営責任者であるデミス・ハサビス、Anthropicの最高経営責任者であるダリオ・アモデイ、OpenAIの最高経営責任者であるサム・アルトマンが含まれている。
この文書には、現代の AI の「ゴッドファーザー」と考えられている 2 人の研究者、ヨシュア ベンジオとジェフリー ヒントンも署名しました。
世界は、この業界に深く関与し、そこから最も利益を得ようとしている同じ人々が、潜在的な危害を考慮して政府にこのテクノロジーの規制を迫っていることを非常に懸念する必要があります。
Center for AI Safety エグゼクティブディレクターのダン・ヘンドリックスは、多くの内部関係者がこの事態がどこへ向かうのかを恐れているとニューヨーク・タイムズに次のように語った。しかし実際には、多くの人がこれらのことについて密かに懸念を表明しているでしょう。」
Google Gemini のようなツールが最近見出しを飾っているような偏った回答や幻覚が、私たちの心配でなくなる日もそう遠くないかもしれません。
AI の先駆者エリーザー・ユドコウスキーも、機械による終末は数年先に来ると考えています。彼は、「もしあなたが私を壁に突きつけて、物事に確率を当てはめるように強制するなら、私たちの現在の残りのタイムラインは50年というよりは5年に近いような気がします。」
この記事の出典は次のとおりです。
ガーディアン.com
https://www.naturalnews.com/2024-03-15-ai-could-exceed-human-intelligence-scientist-warns.html