クラウドストリーミングのグローバルリーダーである株式会社ユビタスは、11月12日~13日に東京で開催されるNVIDIA AI Summit Japan 2024において、様々な革新的AIソリューションを展示します。
イベント期間中、ユビタスはNVIDIAテクノロジーを活用した3つのAI主導型イノベーションを発表し、ゲームからより広範な事業領域への変革を目指します。
以下、リリース原文を掲載します。
ユビタス、NVIDIA AI Summit Japan 2024で革新的な次世代AIソリューションを発表
LLM連携のロボットAI:人間とロボットのインタラクションの先駆け
ユビタスは、ロボットのコアとしてNVIDIA Jetsonを搭載し、高性能H100 GPU上で動作する大規模言語モデルとシームレスに統合されたLLM連携AIロボット技術を発表しました。
ユーザーはロボットに自然言語で命令を出すことができ、複雑なプログラミングをすることなくロボットを理解し応答することができるようになります。
こちらは視覚認識機能も組み込まれており、ロボットはコマンドを受け取るとカメラを通して特定の物体を識別することができます。
この画期的な技術は、セキュリティ、ヘルスケア、小売業など幅広い分野での応用が可能であり、直感的でリアルタイムなロボットアプリケーションの新たな標準となるものです。
NVIDIA ACEを搭載したUE5のメタヒューマン:リアルなバーチャルインタラクションの再構築
またユビタスは、NVIDIA ACEを搭載したUnreal Engine 5 (UE5)で作成されたメタヒューマンを展示しており、インタラクティブなデジタル体験の著しい進歩を実現しています。
このメタヒューマンは、会話記憶、検索拡張生成(RAG)、多言語機能を備えており、複雑な文脈にも対応するインタラクションを可能にします。
彼らの表情や感情的な反応は、リアルで没入感のある体験を提供します。これらの先進的なインタラクション機能とクラウドストリーミングを組み合わせることで、ユビタスは様々なデバイスからアクセス可能なシームレスで没入感のある体験を提供し、ユーザーエンゲージメントを革新します。
Apple Vision ProによるAI Vtuber展開:新たなデバイスで没入型インタラクション体験を強化
AI Vtuber「ユビちゃん」はNVIDIA Rivaの音声合成技術とAudio-to-Faceリップシンク技術を搭載しており、音声プロンプトに即座に反応し、完璧なリップシンクとともにリアルなパフォーマンスを実現します。
NVIDIAの自動音声認識(ASR)と高度なハンドトラッキング技術により、ユーザーはユビちゃんと対話し、タッチなどジェスチャーに対するユビちゃんのリアルな反応を見ることができます。
この画期的な技術は、AIバーチャル・キャラクターに新たな生命を吹き込み、バーチャル・インタラクティブ体験に新しい基準を確立します。
ユビタスCEOのウェスリー・クオは、このイベントに対し以下のようなコメントを寄せています。
「AIとクラウドゲーミングのリーダーとして、ユビタスはAI主導のインタラクションの未来を紹介することに尽力しています。NVIDIA AI Summit Japanは、当社のソリューションが複数の業界でどのようにイノベーションを促進できるかを強調するための完璧なプラットフォームを提供します」
ユビタスは、ゴールドスポンサーセクションのブース19にて、これらの革新的なAI技術のライブデモンストレーションをご覧いただき、それらがどのように人間とコンピュータのインタラクションの未来を形成しているかを探求していただくよう、来場の皆様をお待ちしています。