カテゴリー: ITニュース

テクノロジーの専門家が AI 実験の中止を要求

技術リーダーと著名な AI 研究者が署名 公開状、AI ラボや企業に作業を「直ちに停止」するよう呼びかけています。

スティーブ・ウォズニアックとイーロン・マスクを含む署名者は、リスクが範囲を超える技術の生産から少なくともヶ月の中断を必要とすることに同意します GPT-4. これは、現在存在する AI システムから喜びと満足を得て、人々がそれらに適応し、それらが有用であることを理解できるようにするためです。

書簡では、AIシステムの安全性を確保するには注意と先見性が必要であるが、それらは無視されていると付け加えている。企業がこの技術を使用して洗練されたチャット システムの構築を競う中、書かれたメッセージまたは視覚的なメッセージにテキストで応答できる新しい OpenAI モデルである GPT-4 への言及が行われました。例、 Microsoft 最近、更新された Bing 検索エンジンが GPT-4 モデルで 7 週間以上実行されていることを確認し、Google は最近正式に導入しました 吟遊詩人 – LaMDA に基づく独自の生成型人工知能システム。

AI への懸念は以前からありましたが、最先端技術の採用競争は明らかです 人工知能 最初のものはすでに驚くべきものです。 「ここ数か月、AI ラボは、誰も、作成者でさえも理解、予測、または確実に制御できない、ますます強力なデジタルマインドを開発および実装するための制御不能な競争に巻き込まれています」と書簡は述べています。

この書簡は、世界的な壊滅的リスクと実存的リスク、および新技術、特に AI の誤用を最小限に抑えるために活動する非営利団体 Future of Life Institute (FLI) によって発行されました。 以前、マスクは AI セキュリティ研究のために 10 万ドルを FLI に寄付しました。 彼とウォズニアックに加えて、署名者には、AI およびデジタル ポリシー センターのマーク ローゼンバーグ所長、MIT 物理学者で FLI 所長のマックス テグマーク、作家のユヴァル ノア ハラリなど、AI 分野の世界的リーダーが多数含まれています。

ハラリはまた、先週、ニューヨーク・タイムズに論説を共同執筆し、それに伴うリスクについて警告した。 人工知能、人道的技術センターの創設者と公開書簡の他の署名者であるトリスタン・ハリスとアザ・ラスキンが彼と協力しました。

この呼びかけは、700 人以上の機械学習研究者を対象とした昨年の調査に続くものであり、半数近くが AI が人間の絶滅を含む「非常に悪い結果」をもたらす可能性が約 10% あると述べています。 AI 研究におけるセキュリティについて尋ねられたとき、回答者の 68% が、より多くの、またはより多くのことを行う必要があると答えました。

また読む:

シェアする
Svitlana Anisimova

オフィスフリーク、狂った読者、マーベル・シネマティック・ユニバースのファン。 私は 80% 罪悪感の喜びです。

コメントを残す

あなたのメールアドレスは公開されません。 必須フィールドは、マークされています*