Root Nation記事分析人工知能の六つの戒め

人工知能の六つの戒め

-

次の年は、人工知能技術の急速な発展によって特徴付けられます。 AIの作成と使用のために明確に定義されたフレームワークを導入する必要があるのではないでしょうか? まだラボを出ていない技術を規制するには、6 か月の経験で十分ですか? この質問は、人工知能に関して、専門家やジャーナリストの口からますます出されています。 ユーザーレベルとプロジェクト開発レベルの両方で、人工知能を規制するための措置を講じる声と呼びかけがますます頻繁に聞かれています。 そのような訴えの歴史はかなり前に始まりました。

デジタル空間における人工知能の遍在的な存在、そして何よりも、人間が作成したものと変わらないコンテンツを作成できるモデルの存在は、非常に異なる感情を呼び起こします. 一方では、AI の未来を見ており、その能力が比較的限られているにもかかわらず (AI は考えず、多くの場合、インターネットから情報を取得するだけであるため)、AI に多くのタスクを任せることを恐れない熱狂的なグループがいます。 . バリケードの反対側には、人工知能の開発における現在の傾向に対する懐疑と懸念を表明するグループがあります。

AIの仮説

47 つのグループの橋渡しをするのは人工知能の研究者であり、一方では、人工知能が周囲の現実にどのようにプラスの影響を与えたかについて、数多くの例を挙げています。 同時に、彼らは自分たちの栄光に安住するのは時期尚早であることを理解しており、大きな技術的飛躍は多くの課題と大きな責任をもたらします。 この姿勢の明確な例は、セントラル フロリダ大学の Ozlem Garibay 博士が率いる人工知能と機械学習の研究者の国際グループです。 世界中の 26 人の科学者によって書かれた ページの出版物は、研究機関、企業、および企業がモデル (およびそれらを使用するソフトウェア) を安全にするために対処しなければならない つの課題を特定し、説明しています。

はい、これは人工知能の未来を理解するための重要な説明を含む深刻な科学的研究です。 誰が興味を持っているか、独立してできる この科学レポートを読む そして、あなた自身の結論を導き出してください。 簡単に言えば、科学者は人工知能の 6 つの戒めを特定しました。 すべての AI の開発と行動は、人々と世界にとって安全であるように、それらに準拠する必要があります。

AIの仮説

この科学的研究に基づいて正確に書かれた私の記事では、人工知能が存在し発展するための主な仮定、法則を定式化しようとします。 はい、これは、人工知能の開発に関する科学者の結論の私のほぼ自由な解釈であり、いわば聖書のバージョンでそれらを提示しようとする試みです。 しかし、これが、尊敬される科学者のこの科学的研究を紹介したかった方法です.

また興味深い: AI の構築: レースをリードしているのは誰?

第一法則:人間の幸福

研究者の最初の仮定は、人工知能の仕事を人間の幸福に集中させることです。 「人間の価値観、常識、倫理」が欠如しているため、人工知能は人間の幸福を著しく損なうような行動をとる可能性があります。 問題は、AI の超人的な能力の結果である可能性があります (たとえば、チェスだけでなく、AI が人間をいかに簡単に打ち負かすか) だけでなく、AI が自分で考えないため、偏見や偏見を「取り除く」ことができないという事実もあります。明らかな間違い。

AI ポスチュレート

- 広告 ​​-

研究者は、人工知能技術に対する過度の信頼が人々の幸福に悪影響を及ぼす可能性があると指摘しています。 人工知能アルゴリズムが実際にどのように機能するかをほとんど理解していない社会は、人工知能アルゴリズムを過信する傾向があるか、逆に、特定のモデル、特にチャットボットによって生成されたコンテンツに対して否定的な態度をとる傾向があります. これらの要因やその他の要因を考慮して、Garibay のチームは、人間の幸福を将来の AI と人間の相互作用の中心に置くことを求めています。

また読む: ChatGPT: シンプルなユーザーガイド

第二法則:責任

説明責任とは、AI の世界で機械学習を使用する目的や、AI モデルとアルゴリズムが正確にどのように開発およびトレーニングされるかという文脈で頻繁に使用される用語です。 国際チームは、人工知能の設計、開発、および実装は、善意のみで行われるべきであることを強調しています。

AI ポスチュレート

彼らの意見では、責任は技術的な面だけでなく、法的および倫理的な文脈でも考慮されるべきです。 技術は、その有効性の観点からだけでなく、その使用の文脈においても考慮されなければなりません。

高度な機械学習技術の導入により、意思決定がどのように行われ、誰が責任を負うのかを理解することがますます重要になっています。」 -研究者を書いてください。

第 の法則: 守秘義務

プライバシーは、テクノロジーに関するあらゆる言説にブーメランとなるトピックです。 特に、すべてがソーシャルネットワークで議論されている場合. ただし、これはデータベースなしでは存在しない人工知能にとって非常に重要です。 データベースとは?

科学者は、それらを「私たちが世界を見る方法を構成する基本的な構成要素の抽象化」と表現しています。 これらのブロックは、通常、色、形状、テクスチャ、距離、時間などのありふれた値です。 特定の光強度でシャッターが開く程度など、単一の目標に焦点を当てた狭い AI は、公的に入手可能な客観的データを使用しますが、AI はより幅広い用途に使用されます (たとえば、Midjourney などのテキストから画像へのモデル、または ChatGPT などの言語モデル) は、人々に関するデータや人々によって作成されたデータを使用できます。 インターネット上で公開された新聞、書籍、イラスト、写真の記事も言及する必要があります。 人工知能アルゴリズムは、私たち自身がそれらに与えたので、すべてにアクセスできます。 そうでなければ、彼は何も知らず、どんな質問にも答えません。

AI ポスチュレート

ユーザーデータは、基本的に、このデータが収集される人々と、人工知能アルゴリズムが実装されるシステム内の人々の両方に影響を与えます。

したがって、第 の課題は、プライバシーの幅広い理解と、一人でいる権利、自分自身へのアクセスを制限する権利、個人の生活や仕事の秘密を守る権利、個人のプライバシーを管理する権利などの権利の規定に関連しています。情報、つまり、自分の人格、個性、尊厳を守る権利。 これらすべてをアルゴリズムに書き込む必要があります。そうしないと、プライバシーがまったく存在せず、AI アルゴリズムが不正なスキームや犯罪に使用される可能性があります。

また読む: ChatGPT を使用する 7 つの最もクールな方法

第 法則: プロジェクト構造

人工知能は非常に単純で単一目的の場合がありますが、大規模でマルチタスクの性質を持つ大規模なモデルの場合、問題はデータのプライバシーだけでなく、設計構造にもあります。

たとえば、OpenAI の最新の人工知能モデルである GPT-4 は、そのサイズと AI の世界 (およびそれ以降) への影響にもかかわらず、完全に公開されたドキュメントはありません。 つまり、開発者にとって最終的な目標が何であるか、最終結果で何を得たいのかを理解していません。 したがって、この AI モデルの使用に伴うリスクを完全に評価することはできません。 一方、3chan フォーラムのデータでトレーニングされた GPT-4 は、絶対にやり取りしたくないモデルです。 4chan フォーラムは、インターネット上で最も興味深い現象の 4 つです。 これは絶対的で完全なアナーキーの例であり、実際にはいかなる枠組みにも制限されていません。 これは、Anonymous や LulzSec などのハッキング グループが作成された場所です。 最も人気のある多くのミームのソースであり、物議を醸すトピックについて議論し、さらに物議を醸す意見を公開する場所です。 英語版の画像掲示板には「今のところ合法」と書かれていますが、chan が時折、人種差別主義者、ナチス主義者、性差別主義者のコンテンツを含むメディアの報道に関与していることを考えると、これにはやや疑問があります。

AI ポスチュレート

- 広告 ​​-

ガリベイ教授のチームは、人工知能の各モデルが明確に定義されたフレームワーク内で機能することを望んでいます。 AIが相互作用する人の幸福だけでなく、モデルの使用に関連するリスクを評価する能力のためでもあります. プロジェクトの構造には、さまざまな文化グループや利害関係者のニーズ、価値観、希望を尊重することが含まれている必要があります。 AI の作成、トレーニング、および微調整のプロセスは、人間の幸福に焦点を当てる必要があり、最終的な製品である AI モデルは、人間のコミュニティ自体の生産性の強化と改善に焦点を当てる必要があります。 リスクを特定できないモデルは、アクセスを制限または制御する必要があります。 それらは人類への脅威であってはなりませんが、逆に、人間と社会全体の発展に貢献するものでなければなりません。

また読む: Twitter イーロン・マスクの手に - 脅威か「改善」か?

第 の法則: ガバナンスと独立した監視

人工知能アルゴリズムは文字通り、わずか 1 年で世界を変えました。 Google と Bing による Bard のプレミア公開 Microsoft 証券取引所における両巨人の株価に大きな影響を与えた。ちなみに、彼らは株価を背景にしてもこれらの企業の株価の成長に貢献しました Apple. ChatGPT は学校の生徒によって積極的に使用され始めており、彼らはそれと通信し、調べ、質問します。 最も重要なことは、彼が自己学習し、間違いを修正する能力を持っていることです。 一部の国の政府では、人工知能が機能し始めています。 これはルーマニアのニコラエ・チュカ首相の場合です。 仮想を雇った 社会のニーズについて彼に知らせるアシスタント。 つまり、人工知能は私たちの生活においてますます重要な役割を果たしています。

AI

人工知能、人間、環境の間の相互依存性がますます高まっていることを考えると、科学者は、その開発を管理する機関と独立した監視を作成する必要があると考えています。 これらの機関は、アイデアから開発、実装まで、人工知能のライフサイクル全体を管理します。 当局は、AI のさまざまなモデルを適切に定義し、人工知能と社会生活の主題に関連するケースを検討します。 つまり、人工知能は訴訟だけでなく、訴訟の対象になる可能性があります。 もちろん、彼個人ではなく、彼の開発者です。

また読む: ニューラリンクのすべて: サイバーパンクの狂気の始まり?

第六法則:人間と人工知能の相互作用

人工知能プログラムでは、テキストの生成、画像内のコンテンツの検出、質問への回答、画像の生成、写真内の人物の認識、データの分析など、誰もが自分で何かを見つけることができます。 これらの複数の用途は、人工知能を法的および倫理的基準に適応させようとする人々にとって懸念事項であるだけではありません。 多くの人が、AI モデルによって労働市場から追い出されることを恐れています。 人工知能アルゴリズムは同じことをより速く、より安く、そしておそらく人間よりもうまく行うことができるからです. 同時に、仕事で AI に頼っている人もいます。つまり、今日、人工知能はすでに彼らにとって不可欠なアシスタントです。

AI

しかし、科学者が言及した研究から、安価な人工労働が人々に取って代わられるのはまだかなり先であることは明らかです。 それにもかかわらず、彼らはすでに、人間と人工知能の間の相互作用の厳密な階層を確立する必要性を主張しています. 彼らの意見では、人間は人工知能の上に置かれるべきです。 人工知能は、人の感情、社会的相互作用、アイデア、計画、およびオブジェクトとの相互作用を考慮して、人の認知能力を尊重して作成する必要があります。 つまり、あらゆる状況において、人工知能を監視し、モデルによって作成された動作とコンテンツを制御し、責任を負うのは人です。 簡単に言えば、最も高度な AI でさえ、その作成者を傷つけないように、人に従う必要があり、許可されている範囲を超えてはなりません。

また読む: ウクライナが戦時中にスターリンクをどのように使用し、適応させるか

結論

はい、誰かが科学者が彼らの報告書で重要なことや新しいことを何も示さなかったと言うでしょう. 誰もがこれについて長い間話してきました。 しかし、すでにAIを何らかの法律の枠組みに入れる必要があります。 GPT-4 に到達することは、やみくもにナイフに到達するようなものです。 彼らは私たちから重要な情報を隠しています。 人工知能のすべての開発、特に Open AI の ChatGPT プロジェクトは、小さな子供を育てることを思い出させることがよくあります。 これはエイリアン起源の子供のように見えることがあります。 はい、エイリアンですが、彼はまだ子供であり、学び、間違いを犯し、時には不適切な行動をとり、イライラし、両親と議論します。 それは非常に急速に成長し、発達しますが。

AI

人類はその発展に追いつけず、制御不能になるかもしれません。 したがって、人類は、最終的な目標を知り、「責任ある親」になるために、なぜこれらすべてを開発しているのかを理解する必要があります。

また読む: 

Yuri Svitlyk
Yuri Svitlyk
カルパティア山脈の息子、知られざる数学の天才、「弁護士」Microsoft、実践的な利他主義者、左右
- 広告 ​​-
サインアップ
について通知する
ゲスト

0 コメント
埋め込まれたレビュー
すべてのコメントを表示