Root NationニュースITニュースメタはビデオ作成と編集に AI を導入しました

メタはビデオ作成と編集に AI を導入しました

-

Meta は、人工知能アルゴリズムに基づいた つの新しいツールを導入しました。これらのツールを使用すると、簡単なテキストの説明に基づいてビデオを生成および編集できます。 その後、これらの資料はプラットフォーム上で公開される場合があります。 Instagram або Facebook、会社に所属。

最初のツールは Emu Video と呼ばれ、簡単なテキストの説明、写真、画像、またはこれらの入力の組み合わせに基づいて、長さ 秒までのビデオを生成します。 つ目は Emu Edit と呼ばれるもので、ユーザーがテキストの説明に従って既存のビデオを同じ方法で編集するのに役立ちます。

Meta

どちらのツールも Emu の AI モデルに基づいており、元々はテキストの説明から画像を生成するように設計されていました。 Emu のニューラル ネットワークは、画像を公開する前に編集できる生成 AI 機能の一部も支えています。 Instagram – たとえば、写真の視覚スタイルや背景を変更できます。

ところで、最近、MediaTekが次世代メタスマートARグラス用のチップを開発することが明らかになりました。 MediaTek 2023 Summit で、MediaTek の CEO である Vince Hu 氏は、Meta Corporation との協力開始を正式に発表しました。 この取り組みは、複合現実とのユーザー インタラクションを大幅に改善できる次世代スマート グラスの開発を目的としています。

メタ社は、ビューファインダーディスプレイを搭載した次世代スマートグラスの開発を計画している。 これにより、このようなメガネのユーザーは、QR コードをスキャンしてメッセージを読み取るだけでなく、仮想世界と物理世界の要素を同時に操作できるようになります。

Meta

最近のリークによると、ビューファインダーディスプレイを備えたスマートグラスは 2025 年に登場する予定で、拡張現実にさらに深く没入できる、より高度なバージョンの AR グラスが 2027 年に計画されています。 Ray-Ban Meta スマート グラスの現行モデルは、Snapdragon AR1 Gen 1 チップ、カメラ、マイクを搭載しており、モバイル AR テクノロジーの分野ではすでに注目すべき進歩であるメッセージングを可能にします。 ただし、これらのメガネでは、拡張現実を操作する完全な体験を提供することはできません。

日常的に使用できる AR メガネを作成するには、デザインとテクノロジーの大幅な革新が必要です。 現在の複合現実デバイスはかさばる場合が多いです。 一方、Meta は、より薄く、よりエレガントで快適な AR グラスの作成に努めています。 その結果、そのようなメガネは、見た目も感触も普通のメガネやサングラスと同じになるはずです。 この提携において、MediaTek は Meta AR グラス用の特殊チップの開発に重点を置きます。

また読む:

ソースロイター
サインアップ
について通知する
ゲスト

0 コメント
埋め込まれたレビュー
すべてのコメントを表示