Root NationニュースITニュース超知的人工知能を管理することは不可能になる

超知的人工知能を管理することは不可能になる

-

人工知能が人類を打倒するという考えは何十年にもわたって議論されてきました.2021年月、科学者たちは、高度なコンピューターの超知能を制御できるかどうかについて評決を下しました. 返事? ほぼ確実にそうではありません。

問題は、人間の理解をはるかに超えたスーパーマインドを制御するには、分析可能なスーパーマインドのシミュレーションが必要になることです。 しかし、それを理解できなければ、そのようなシミュレーションを作成することはできません。

2021 年に発表された論文の著者は、人工知能 (AI) がどのようなシナリオを思いつくかを理解しない限り、「人間に危害を加えない」などのルールを確立することはできないと考えています。 コンピューター システムがプログラマーの能力を超えるレベルで動作するようになるとすぐに、制限を設定できなくなります。

Artificial Intelligence

「超知能は、『ロボット倫理』の旗印の下で通常研究されている問題とは根本的に異なる問題です」と研究者は書いています。 「これは、スーパーマインドが多面的であり、したがって、制御可能どころか、人間には計り知れない可能性のある目標を達成するために、さまざまなリソースを動員できる可能性があるためです。」

チームの推論の一部は、 停止の問題、1936 年にアラン チューリングによって提案されました。 課題は、コンピューター プログラムが結論を出して回答する (そして停止する) か、それとも答えを見つけようとして永遠にぶらぶらするだけかを判断することです。

チューリングが助けを借りて証明したように 知的な数学、いくつかの特定のプログラムについてこれを知っているかもしれませんが、これまでに作成される可能性のあるすべての潜在的なプログラムについてこれを知ることができる方法を見つけることは論理的に不可能です. これは、AI に話を戻します。AI は超知能状態で、考えられるすべてのコンピューター プログラムを同時にメモリに保存できます。

また興味深い:

たとえば、AI が人間に危害を加えて世界を破壊するのを阻止するために作成されたプログラムは、結論に達する (そして停止する) 場合もあれば、そうでない場合もあります。 ドイツのマックス・プランク人間開発研究所のコンピューター科学者イヤド・ラーワン氏は月、「基本的に抑止アルゴリズムを使えなくしている」と述べた。

研究者によると、AI の倫理と世界を破壊することの禁止を教える代わりに、どのアルゴリズムも絶対に確実とは言えませんが、スーパーマインドの能力を制限することです。 たとえば、インターネットの一部または特定のネットワークから切断される場合があります。

最近の研究の著者も、人工知能の範囲を制限するだろうと信じて、この考えを拒否しています - 彼らは、人間の能力を超えた問題を解決するためにそれを使用しないのであれば、なぜそれを作成する必要があるのでしょうか?

Artificial Intelligence

私たちが人工知能を進化させようとしても、私たちの制御を超えた超知性がいつ現れるかさえ分からないかもしれません。 これは、私たちがどこに向かっているのかについて真剣な質問をし始める必要があることを意味します.

マックス・プランク人間開発研究所のコンピューター科学者マヌエル・ケブリアンは、「世界を動かしている超知能機械は、SF のように聞こえます。 しかし、いくつかの重要なタスクを独立して実行するマシンがすでに存在しますが、プログラマーはこれをどのように学習したかを完全には理解していません。

したがって、ある時点で制御不能になり、人類にとって危険になる可能性があるかどうかという疑問が生じます...

また読む:

サインアップ
について通知する
ゲスト

0 コメント
埋め込まれたレビュー
すべてのコメントを表示