Virtual Human Toolkit

Virtual Human Toolkit

ICT Virtual Human Toolkitは、研究者や開発者を支援するために設計されたモジュール、ツール、およびライブラリーのコレクションであり、仮想人間会話キャラクターの作成を支援します。このツールキットは、南カリフォルニア大学(USC)クリエイティブテクノロジー研究所(ICT)とそのパートナーで実施された基礎研究によって強化された、絶えず変化し続ける、革新的なシステムです。このツールキットは、研究プロジェクトのプロプライエタリまたはサードパーティのソフトウェアと簡単に混合およびマッチングできるように設計されており、新しいテクノロジーを構築できる広く受け入れられているプラ​​ットフォームを提供します。研究コミュニティとして一緒に、仮想人間の研究と技術をさらに開発し、探求できることを願っています。ICT Virtual Human Toolkitは、ユーザーがすべてのモジュールをそのまま使用できるようにする共通のモジュラーアーキテクチャに基づいて構築されています。私たちの技術は、自然言語の相互作用、非言語的行動と知覚を強調しています。その主なモジュールを以下にリストします。アーキテクチャ、メッセージングAPI、およびその他のコンポーネントの概要については、ドキュメントを参照してください。MultiSense:センサーテクノロジーを統合および融合し、人間の行動認識の確率モデルを開発するためのプラットフォームとして作成されたマルチモーダルセンシングフレームワーク。MultiSenseは、ユーザーの顔の表情、体の姿勢、音響特性、言語パターン、およびより高いレベルの行動記述子(注意、そわそわなど)を追跡および分析します。Perception Markup Language(PML)を使用します。NPCEditor:NPCEditorの中核となるのは、ユーザーの発話に基づいてキャラクターの応答を選択する統計的テキスト分類アルゴリズムです。キャラクターデザイナーは、提供されたオーサリングツールを通じて各応答を生成する一連の応答と一連のサンプル発話を指定します。NPCEditorには、分類結果の使用方法を指定するダイアログマネージャーも含まれています。
virtual-human-toolkit

ウェブサイト:

カテゴリー

商用ライセンスを使用するすべてのプラットフォーム用のVirtual Human Toolkitの代替