Root NationニュースITニュースFigure AIが人型AIロボットの新スキルを披露

Figure AIが人型AIロボットの新スキルを披露

-

人型ロボットの開発は、ここ 2024 年間の大部分にわたってゆっくりとしたペースで進んできましたが、最近、この分野でますます多くの進歩が見られています。最近書いたように、AI ロボットが MWC で発表されました アメリカ、そして別の展開、 ユニツリー H1、人型ロボットの速度記録を破りました。そして今、Figure AI 企業と OpenAI 企業のコラボレーションの素晴らしい結果がインターネット上に登場しました。人々と会話できるようになった人型ロボットの驚くべきビデオです。

Figure AI と OpenAI が AI を搭載した新しい人型ロボットを発表

Startup Figure AI は、新しい Visual Language Model (VLM) を使用して動作する Figure 01 ロボットを示すビデオを公開しました。その中で、Figure 01 は皿、リンゴ、カップが置かれたテーブルに立っています。左側に乾燥機があります。そして、ロボットが彼の目の前で何を見たのかという人の質問に対して、彼はテーブルの上にあるすべてのものを詳細に説明することで答えます。

そして男性が「何か食べてもいいですか?」と尋ねると、ロボットは「もちろんです」と答え、器用で滑らかな動きでリンゴを取り、男性に手渡します。その後、別の驚くべきデモンストレーションが行われます。男性は図 01 の前のかごからくしゃくしゃになったゴミを注ぎ、ロボットになぜそのようなことをしたのか説明するよう求め、同時にゴミをかごに集めます。そして紙をゴミ箱に戻しながら自分の「考え」を説明する。 「それで、リンゴをあげたのは、テーブルの上であなたにあげられる唯一の食べられるものだからです」とロボットは言いました。

企業の代表者は、図 01 では事前トレーニングされたマルチモーダル モデルが使用されていると説明しました。 OpenAI、VLM は画像とテキストを理解し、音声プロンプトに依存して応答を生成します。これは、たとえば、書面によるプロンプトに焦点を当てた OpenAI の GPT-4 とは異なります。

また、同社が「学習された低レベルの両手操作」と呼ぶものも使用します。このシステムは、モーション制御のためのニューラル ネットワークを使用して、正確な画像キャリブレーション (ピクセル レベルまで) を調整します。 「これらのネットワークは10 Hzで画像を受信し、24 Hzで200自由度のアクション(手首のポーズと指の関節の角度)を生成します」とFigure AIは声明で述べた。

同社は、ビデオ内のすべての動作はシステム学習に基づいており、舞台裏で図 01 の糸を引いている者はいないと主張しています。もちろん、ニュアンスがあります。ロボットがこの手順を何回行ったかは不明です。おそらく回目ということもあり、彼の動きは正確だったのだろう。しかし、いずれにせよ、この成果は壮観であり、少し素晴らしいものに見えます。

また読む:

サインアップ
について通知する
ゲスト

0 コメント
埋め込まれたレビュー
すべてのコメントを表示