人工知能 (AI) 技術の作成と開発を専門とする教授、開発者、エンジニアの会議が、5 月 8 日から 日までカリフォルニアで開催されました。 日間の活発な議論の中で、現在既に使用されており、将来適用されるべき AI 原則のリストがまとめられました。 実際、過去数十年にわたる機械学習の分野における人類の成果の特定の概要がまとめられています。
一般的に、「人工知能」は人間の脳や知性そのものとは直接関係ありません。 この用語の著者であるアメリカのコンピューター科学者ジョン・マッカーシーは、この概念を次のように解釈しています。この科学の範囲内の知性の下では、世界で目標を達成する能力の計算要素のみが理解されます。 これは、1956 年にダートマス大学で開催された会議で発表されました。
時間はマッカーシーの言葉を確認しました。 今日、私たちは目標を達成するために情報ツールを使用しており、世界を単純化することや未来について考えるという私たちの考えは、ソフトウェア コードとますます密接に関連しています。 はい、同じ作品のアイデアを変更しましたが、遍在性を完全に排除しませんでした。
そのため、編集された 23 の「未来の法則」はすべて、科学研究の問題、倫理と価値、技術的展望の つのグループに分けられました。
人工知能の構成
研究部門
- 人工知能研究の目標は、対象を絞ったデバイスを作成するだけでなく、社会全体に利益をもたらすことです。
2. AI への投資は、情報学、経済学、法律、倫理学、社会科学のこれらの問題に対してより正確で一般化された答えを与えることができるように、技術の有用性を確保するための研究分野に投資する必要があります。
- AI の高い信頼性を確保し、ハッカーの攻撃にうまく抵抗し、誤動作を簡単に防止するにはどうすればよいでしょうか?
- 自動化の助けを借りて、リソースを最小限に抑えながら、どのように望ましい目標を達成できるでしょうか?
- AIの出現を考慮して、現代の規範に従って正義を確保し、法制度を有能に更新するにはどうすればよいですか?
- AI はどのような法的および民族的地位を取得しますか?
3. 研究者と政治家の建設的かつ平等な交流を確保する。
4. AI のさらなる使用のための文化的成果の完全なオープン性と透明性。
5. 激しい競争を避けるための AI 研究者間の交流と協力。
道徳的価値観
6. 人工知能システムは、運用期間全体にわたって安全で信頼できるものでなければなりません。
7.問題の原因とその後の解決策をできるだけ早く見つけます。
8. 裁判所の決定における自律システムの介入は、委員会の有能なメンバー (人物) による検証の場合には、承認され、報告の対象となる必要があります。
9. 設計またはソフトウェアのエラーによって引き起こされた損害、意図的な危険な状況の作成に対する責任は、開発者およびエンジニアの肩にあります。
10. すべての自律型 AI システムは、普遍的な人間の価値に関する知識を得るために努力する必要があります。
11. AI は、人間の尊厳、権利、自由、および文化的多様性の理想に適合する方法で設計および運用されなければなりません。
12. 人が AI を使用する過程で生成された情報は、将来同じ人が利用できる必要があります (結果と収集されたデータを管理する可能性)。
13. AI は、個人データを扱う際に、人々の現実または想像上の自由を不当に制限してはなりません。
14. AI テクノロジーは、できるだけ多くの人々に利益をもたらし、アクセスできるようにする必要があります。
15. AI の経済的および社会的成果は世界的であり、人類の利益を目指すべきである。
16. 人には常に選択肢があります。自分で決定を下すか、AI に任せるかです。
17. AI の目的は、破壊や大惨事をもたらすことなく、社会を改善し、豊かにすることです。
18. 軍拡競争で AI 技術を使用する可能性をゼロに減らす必要があります。
長期的な問題
19. リソースの不合理な支出を避けるために、AI 機能の限界を絶対に冷静に評価する必要があります。
20. AI の開発は集中的に行われるため、不可逆的な反応を引き起こさないように技術を制御する必要があります。
21. リスク、特に大規模なものは、起こり得る損失を最小限に抑えるように計画されるべきである。
22. AI システムは、AI 活動の質を低下させる可能性がある自己開発および自己複製が可能であるため、重要な指標の定期的な管理を実施する必要があります。
23. スーパーインテリジェンスは、特定の民間組織や国家に服従することなく、すべての人類の利益のために役立つテクノロジーです。
また読む: ハイパーループ: 真空列車レースはどうですか?
レポートの主な論文を簡単に思い出してみましょう。 スペシャリストは、AI の開発が集中している現在、自分自身の後進性を心配しているため、技術を完全に制御できるように努めています。 AI の世界的な公共的価値とその人間文化への統合も繰り返し強調されています。 ただし、この計画が実行されるかどうかはすぐにわかります。 人工知能は子犬のようなもので、今では走ったり遊んだりしていますが、最終的にどのような犬になるかは主に飼い主次第です。
現時点では、この「法案」は地球市民による承認の段階にあるため、安全で幸せで技術的な未来が必要な場合は、お気軽に」投票」 これらの絶対に合理的で必要な原則を採用したことに対して。
チューリングテストと人工知能
偉大な数学者のアラン・チューリングも AI 技術に携わっていたので、非常に興味深いテストを思いつきました。 チューリング テストは、1950 年に哲学雑誌 Mind の記事「Computing machines and the mind」で初めて発表されました。 テストのアイデアは、機械思考の能力と、一般的にその存在自体を判断することです。
標準的な解釈は次のとおりです。 コンピューター プログラムの役割は、人を誤解させ、間違った選択を強いることです。」 テストの目的は音声認識デバイスの技術的能力をテストすることではなく、人間の思考を模倣する能力をテストすることであるため、すべての参加者はお互いを見ることができず、コミュニケーションはテスト形式で行われます。
また、対応の速さで「判断」が判断できないように、対応は一定間隔で行われます。 このテストの作成時に、コンピューターの反応が人よりも遅くなったという事実のために、このルールが発明されたのは興味深いことです。
また、このテストに基づいて、対話者の性別を決定するための同様のテストが作成されました。 レフリーの役割で、プレイヤー C はプレイヤー A と B、実際には男性と女性とコミュニケーションをとらなければなりません。
ある AI 研究論文は、次のようなコメントを残しています。 ? これらの質問は、元の質問「機械は考えることができるか」に取って代わります。
つまり、 つの絶対に大げさな質問の代わりに、より簡単な質問に答えて一貫して行うことで、人工知能の精神的能力に関する主な質問に対する待望の答えにどんどん近づいていきます。
ここでは、人々は本当に重要な仕事で忙しいです。 AIの権利と義務が綴られています。 地球はコントラストの惑星です。 一方では、私たちは信じられないほど急速に発展するテクノロジーの時代に生きており、他方では、飢餓、人道的災害、軍事侵略の時代に生きています。 特徴的なのは、何らかの理由で進歩が西から来て、隠蔽が東から忍び寄るということです。 ウクライナに住んでいると、これに特に鋭く気づきます...力を合わせて、「宇宙船が宇宙の広がりを耕す」時間に近づける代わりに。
+1 非常に正確に説明