Root NationニュースITニュース中国が人工知能を規制するための倫理原則を導入

中国が人工知能を規制するための倫理原則を導入

-

中国では、人工知能 (AI) の規制に関する最初の一連の倫理原則が発表されました。この原則では、ユーザーの権利を保護し、グローバルな技術者の影響に関連するリスクを防止することが最重要視されています。 このイニシアチブのもう 2030 つの目標は、 年までに AI の分野で世界のリーダーになるという中国の願望です。

このガイダンスでは、人は完全な行動の自由と、選択を行う権利、AI のサービスを使用する権利、または AI の作業をいつでも停止する権利を保持する必要があると述べています。 この文書の公式の目標は、「AI が常に人間の制御下にあるという確信を与える」ことです。 このマニュアルは「次世代人工知能の倫理仕様書」と呼ばれています。 この文書は、2019 年 月に省内に設置された AI 管理委員会によって作成されました。 同年 月、委員会は、より短く、より広い文言を含むガイドラインの予備版を発行しました。

このドキュメントでは、主に「管理性と信頼性」を確保する、AI システムの つの基本原則が述べられています。 さらに、人間の福利の改善、公平性と正義の確保、プライバシーとセキュリティの保護、倫理的リテラシーの向上が注目されました。 ユーザーを保護し、権限を与えることの最優先事項は、中国の技術部門に対する統制を強化しようとする北京の取り組みを反映しています。 少し前に、コンテンツ推奨アルゴリズムの原則が中国で公開されました。このようなアルゴリズムは、多くの場合、大量のユーザー データの収集と分析に基づいて構築された人工知能システムに基づいています。

AI

いずれの場合も、技術革新にはユーザーの権利の拡大が含まれます。ユーザーは、インターネット上の AI システムとのやり取りをより詳細に制御できるようになります。 データ セキュリティ、個人のプライバシー、および AI ベースの意思決定からオプトアウトする権利の問題が言及されています。 この文書によると、リスク防止には、人工知能システムの技術的脆弱性の特定と排除、業界団体の説明責任の確保、AI ベースの製品の管理と品質管理の最適化が含まれます。 この原則は、AI ベースの製品やサービスのサプライヤーが違法行為に参加したり、国や公共の安全や生産のセキュリティに脅威を与えることを禁じています。 そのようなシステムは公共の利益を損なうべきではありません。

2017年、中華人民共和国政府は、中国が米国を追い越し、人工知能の分野で世界のリーダーになるための計画を発表しました。 政府が主導的な役割を担う計画の第 2020 段階では、 年までに、国の産業が世界をリードする AI 技術、その実用化、倫理原則、政策基盤に劣っていてはならないと言われています。

また読む:

ソースsmp
サインアップ
について通知する
ゲスト

0 コメント
埋め込まれたレビュー
すべてのコメントを表示