起動 ディープマインド 過去 年間、人工知能 (AI) 研究のパイオニアであり、 年前に Google に買収されました。 ただし、その後 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 DeepMind の CEO である Demis Hassabis 氏は Time に対し、同社は Sparrow と呼ばれる独自のチャットボットを 2023 年に「プライベート ベータ版」としてリリースすることを検討していると語った。
Sparrow は昨年、研究論文の概念実証として世界に紹介され、「危険で不適切な応答のリスクを軽減する有用な対話エージェント」と説明されました。
DeepMind によると、「不正確または捏造された情報」を含むチャットボットの潜在的な危険性についての懸念があるにもかかわらず、Sparrow はすぐにベータ版を開始する準備ができているようです。 DeepMind と Google との緊密な関係を考えると、これは事実上、ChatGPT に対する検索大手の答えになる可能性があります。
Demis Hassabis 氏によると、Sparrow のリリースがわずかに遅れているのは、特定のソースへのリンクなど、ChatGPT にはない重要な機能を DeepMind が確実に備えたいと考えているためです。 Hassabis が Time とのインタビューで言ったように、「この面では慎重であることは正しいことです。」
DeepMind の調査によると、Sparrow は最初は ChatGPT よりも限定的で保守的であることが示唆されています。 後者は、プログラマーからソファの詩人まですべての人を助ける印象的な能力で口コミで広まりましたが、差別的なコメントとマルウェア作成スキルの能力についても眉をひそめました.
DeepMind は、Sparrow が構築されている行動を制限するルールと、「人々にアプローチするのが適切な状況」での質問への回答を拒否する意思について話しました。 初期のテストでは、Sparrow は明らかに信頼できる回答を示し、重要なことに、「事実に基づいた質問をした場合の 78% の確率で」その回答を裏付けていました。 しかし、このパブリック ベータ版がリリースされると、その真の能力が明らかになります。
ChatGPT を使用したことがある人なら誰でも、ChatGPT がさまざまな問題についてインテリジェンスをシミュレートするのに非常に優れていることを知っています。 しかし、それは確かに楽しいものですが、AI チャットボットには道徳的知性と情報源を引用する能力も必要です。DeepMind は、Sparrow の「会話型エージェント」が優れていると述べています。
次のレベルに進むには、多くの外部データが必要になるため、Sparrow のパブリック ベータ版は避けられません。 DeepMind は、AI アシスタントのより良いルールを開発するには、「幅広い問題 (政治家、社会学者、倫理学者を含む) からの専門家の意見と、幅広いユーザーや利益団体からの協力的な意見の両方が必要になる」と述べています。
OpenAI (ChatGPT を作成した) の CEO である Sam Altman も同様に、巻き添え被害を引き起こすことなく AI チャットボットを開くことの難しさについて語っています。 の Twitter 彼は、「時間の経過とともに OpenAI テクノロジに重大な問題が発生する可能性があります。最善を尽くしますが、すべての問題をうまく予測することはできないでしょう」と認めました。
言い換えれば、ChatGPT と DeepMind Sparrow の両方の開発者は、好奇心旺盛な幼児を持つ親のようなものです。これは、特に幼稚園の先生が事実上インターネット全体である場合、同じように楽しく危険です。
また興味深い: