JP5956002B2 - 仮想世界処理装置および方法 - Google Patents

仮想世界処理装置および方法 Download PDF

Info

Publication number
JP5956002B2
JP5956002B2 JP2015037251A JP2015037251A JP5956002B2 JP 5956002 B2 JP5956002 B2 JP 5956002B2 JP 2015037251 A JP2015037251 A JP 2015037251A JP 2015037251 A JP2015037251 A JP 2015037251A JP 5956002 B2 JP5956002 B2 JP 5956002B2
Authority
JP
Japan
Prior art keywords
virtual world
world object
type
event
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015037251A
Other languages
English (en)
Other versions
JP2015146194A (ja
Inventor
リー,ヒョン−ジョン
ハン,ジェ−ジュン
ハン,スン−ジュ
パク,ジュン−ア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2015146194A publication Critical patent/JP2015146194A/ja
Application granted granted Critical
Publication of JP5956002B2 publication Critical patent/JP5956002B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/448Execution paradigms, e.g. implementations of programming paradigms
    • G06F9/4488Object-oriented
    • G06F9/4492Inheritance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/08Animation software package

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)

Description

本発明は仮想世界処理装置および方法に関し、より具体的には、仮想世界の仮想オブジェクトに関する情報を処理する装置および方法に関する。
最近、体感型ゲームに関する関心が高まっている。マイクロソフト社は「E3 2009」の記者会見においてゲームコンソールであるXbox360に深さ/カラーカメラとマイクアレイから構成された別途のセンサデバイスを結合し、ユーザの全身モーションキャプチャ、顔認識、音声認識技術を提供して別途のコントローラなしで仮想世界と相互作用させる「Project Natal」を発表した。また、ソニー社は、自社ゲームコンソールである「Play Station3」にカラーカメラとマーカー、超音波センサを結合した位置/方向センシング技術を適用して、コントローラのモーション軌跡を入力することで仮想世界と相互作用できる体感型ゲームモーションコントローラ「Wand」を発表した。
現実世界と仮想世界の相互作用は2種類の方向を有する。第1に、現実世界のセンサから得られたデータ情報を仮想世界に反映する方向、第2に、仮想世界から得られたデータ情報をアクチュエータ(actuator)を介して現実世界に反映する方向である。
本発明は、現実世界と仮想世界の相互作用を実現するため、現実世界のセンサから得られたデータを仮想世界に適用し、仮想世界のオブジェクトに対する情報を制御する装置、方法、および命令構造を提供する。
本発明に係る仮想世界と現実世界の相互動作、または仮想世界間の相互動作を可能にする仮想世界処理装置は、前記仮想世界の仮想世界オブジェクトを制御する制御部を備え、前記仮想世界オブジェクトはアバターおよび仮想オブジェクトに分類され、前記仮想オブジェクトは、前記仮想世界オブジェクトの基本タイプの拡張と共に、外形およびアニメーションの要素をさらに含む。
仮想世界の仮想オブジェクトに対するデータ構造を定義し、仮想世界の仮想世界オブジェクトを制御することによって、現実世界のオブジェクトを仮想世界に反映することができる。
また、定義されたデータ構造を用いることによって、仮想世界間に仮想世界オブジェクトを移動させることができる。
本発明の一実施形態に係るセンサを用いて仮想世界のオブジェクトを操作する動作を示す図である。 本発明の一実施形態に係る現実世界と仮想世界との間の情報およびデータ交換に関するシステムの構造を示す図である。 本発明の一実施形態に係る仮想世界処理装置を用いる動作を示す図である。 本発明の一実施形態に係る仮想世界のオブジェクトが変形する動作を示す図である。 本発明の一実施形態に係る仮想世界オブジェクトのデータ構造を示す図である。 本発明の一実施形態に係る認識表のデータ構造を示す図である。 本発明の一実施形態に係るVWOサウンドリストタイプのデータ構造を示す図である。 本発明の一実施形態に係るVWO匂いリストタイプのデータ構造を示す図である。 本発明の一実施形態に係るVWO制御リストタイプのデータ構造を示す図である。 本発明の一実施形態に係るVWOイベントリストタイプのデータ構造を示す図である。 本発明の一実施形態に係るVWO行動モデルリストタイプのデータ構造を示す図である。 本発明の一実施形態に係るVWOサウンドタイプのデータ構造を示す図である。 本発明の一実施形態に係るVWO匂いタイプのデータ構造を示す図である。 本発明の一実施形態に係るVWO制御タイプのデータ構造を示す図である。 本発明の一実施形態に係るVWOイベントタイプ1010のデータ構造を示す図である。 本発明の一実施形態に係るVWO行動モデルタイプのデータ構造を示す図である。 本発明の一実施形態に係るVWO触覚特性タイプのデータ構造を示す図である。 本発明の一実施形態に係る物質特性タイプのデータ構造を示す図である。 本発明の一実施形態に係るダイナミック力効果タイプのデータ構造を示す図である。 本発明の一実施形態に係る触知タイプのデータ構造を示す図である。 本発明の一実施形態に係る叙述タイプのデータ構造を示す図である。 本発明の一実施形態に係るアニメーション叙述タイプのデータ構造を示す図である。 本発明の一実施形態に係るアニメーションリソース叙述タイプのデータ構造を示す図である。 本発明の一実施形態に係る仮想オブジェクトタイプのデータ構造を示す図である。 本発明の一実施形態に係るVOアニメーションタイプのデータ構造を示す図である。 本発明の一実施形態に係る仮想世界処理装置の仮想世界のオブジェクトを制御する方法を示すフローチャートである。 本発明の一実施形態に係る仮想世界処理装置の仮想世界のオブジェクトに対するオブジェクト変更を実行する方法を示すフローチャートである。 本発明の一実施形態に係る仮想世界処理装置が同一のオブジェクトを異なる仮想世界に変換して適用する動作を示す図である。 本発明の一実施形態に係る仮想世界処理装置の構成を示す図である。
以下、本発明に係る好適な実施形態を添付する図面を参照しながら詳説する。しかし、本発明が実施形態によって制限されたり限定されることはない。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、本発明の一実施形態に係るセンサを用いて仮想世界のオブジェクトを操作する動作を示す図である。
図1を参照すれば、一実施形態に係るセンサ100を用いて現実世界のユーザ110は、仮想世界の仮想世界オブジェクト120を操作する。現実世界のユーザ110は、自身の動作、状態、意図、形態などをセンサ100を通して入力し、センサ100は、ユーザ110の動作、状態、意図、形態などに関する制御情報(control information、CI)をセンサ信号に含んで仮想世界処理装置に送信する。
実施形態に係る現実世界のユーザ110は、人間、動物、植物、および無生物(例えば、物)であってもよく、また、ユーザの周辺環境まで含んでもよい。
図2は、本発明の一実施形態に係る現実世界と仮想世界との間の情報およびデータ交換に関するシステムの構造を示す図である。
図2を参照すれば、現実世界装置(例えば、モーションセンサ)を介して現実世界のユーザが自身の意図を入力すれば、現実世界ユーザの意図に関する制御情報(CI)を含むセンサ信号は仮想世界処理装置に送信される。
制御情報(CI)は、現実世界装置を介して入力した値による命令および前記命令に関連する情報であってもよい。制御情報(CI)はSIDC(sensory input device capabilities、センサ入力装置特性)、USIP(user sensory input preferences、ユーザセンサ入力選好)、SDICmd(sensory input device commands、センサ入力装置命令)を含んでもよい。
適応RV(adaptation real world to virtual world)はRVエンジン(real world to virtual world engine、RV engine)に実現されてもよい。適応RVは、センサ信号に含まれている現実世界のユーザの動作、状態、意図、形態などに関する制御情報(CI)を用いて現実世界装置を介して入力された現実世界の情報を仮想世界に適応できる情報に変換する。前記適応過程によって仮想世界情報(Virtual World Information、VWI)に影響を与える。
仮想世界情報(VWI)は仮想世界に関する情報である。例えば、仮想世界オブジェクトやアバターなど、仮想世界を構成する要素に関する情報であってもよい。仮想世界情報(VWI)に対する変化は、RVエンジンでVWEM(virtual world effect metadata、仮想世界効果メタデータ)、VWP(virtual world preferences、仮想世界選好)、VWC(virtual world capabilities、仮想世界特性)形態の命令からなり得る。
表1は図2に表示されている構成を説明する。
Figure 0005956002
図3は、本発明の一実施形態に係る仮想世界処理装置を用いる動作を示す図である。図3を参照すれば、本発明の一実施形態に係るセンサ301を用いて現実世界のユーザ310は自身の意図を入力する。実施形態に係るセンサ301は、現実世界のユーザ310の動作を測定するモーションセンサおよびユーザ310の腕と足先に着用されて腕と足先が指している方向および位置を測定するリモートポインタ(remote pointer)を備える。
センサ301を介して入力された現実世界のユーザ310の腕を広げる動作、止まって立っている状態、手と足の位置、および手が開かれている角度などに関する制御情報(control information、CI)302を含むセンサ信号は仮想世界処理装置に送信される。
実施形態に係る制御情報302は、センサ入力装置特性(SIDC)、ユーザセンサ入力選好(USIP)、およびセンサ入力装置命令(SIDCmd)を含んでもよい。
実施形態に係る制御情報302は、ユーザ310の腕と足に対する位置情報をx、y、z軸の値であるXreal、Yreal、Zreal値とx、y、z軸との角度の値であるΘXreal、ΘYreal、ΘZreal値のように表して含んでもよい。
一実施形態に係る仮想世界処理装置はRVエンジン320を含んでもよい。RVエンジン320は、センサ信号に含まれている制御情報302を用いて現実世界の情報を仮想世界に適用される情報に変換する。
実施形態に係るRVエンジン320は、制御情報302を用いてVWI(virtual world information、仮想世界情報)303を変換する。
VWI303は仮想世界に関する情報である。例えば、VWI303は、仮想世界のオブジェクトまたはオブジェクトを構成する要素に関する情報を含んでもよい。
実施形態に係るVWI303は、仮想世界オブジェクト情報304およびアバター情報305を含んでもよい。
仮想世界オブジェクト情報304は、仮想世界のオブジェクトに関する情報である。実施形態に係る仮想世界オブジェクト情報304は、仮想世界のオブジェクトのアイデンティティを区分するためのID情報であるオブジェクトIDおよび仮想世界のオブジェクトの状態、大きさなどを制御するための情報であるオブジェクト制御/スケール(object control/scale)を含んでもよい。
RVエンジン320は、制御情報302を用いてVWI303に腕を広げる動作、止まって立っている状態、手と足の位置、および手が開かれている角度などに関する情報を適用してVWI303を変換する。
RVエンジン320は、変換されたVWIに関する情報306を仮想世界に送信する。実施形態に係る変換されたVWIに関する情報306は、仮想世界のアバターの腕と足に対する位置情報をx、y、z軸の値であるXvirtual、Yvirtual、Zvirtual値とx、y、z軸との角度の値であるΘXvirtual、ΘYvirtual、ΘZvirtual値のように表して含んでもよい。また、仮想世界のオブジェクトの大きさに関する情報をオブジェクトの横、縦、深度の値であるscale(w、d、h)virtual値に表して含んでもよい。
実施形態に係る変換されたVWIに関する情報306が送信される前の仮想世界330において、アバターはオブジェクトをもっている状態であり、変換されたVWIに関する情報306が送信され後の仮想世界340では現実世界のユーザ310の腕を広げる動作、止まって立っている状態、手と足の位置、および手が開かれている角度などが反映され、仮想世界のアバターが腕を広げてオブジェクトを大きくすることができる。
すなわち、現実世界のユーザ310がオブジェクトをとらえて拡大させるモーションを取れば、センサ301を介して現実世界のユーザ310の腕を広げる動作、止まって立っている状態、手と足の位置、および手が開かれている角度などに関する制御情報302が生成される。また、RVエンジン320は、現実世界で測定されたデータの現実世界のユーザ310に関する制御情報302を仮想世界に適用され得る情報に変換する。変換された情報は、仮想世界のアバターおよびオブジェクトに関する情報の構造に適用され、アバターにはオブジェクトをとらえて広げる動作が反映され、オブジェクトは大きさが拡大されることができる。
図4は、本発明の一実施形態に係る仮想世界のオブジェクトが変形する動作を示す図である。図4を参照すれば、本発明の一側面によると、センサを介して現実世界のユーザの意図が入力され、前記ユーザの意図が仮想世界に反映されて仮想世界のアバターの手401が物を押す動作を行う。仮想世界のアバターの手401が物を押して、仮想世界の球402に力(例えば、ベクトル(vector))を加えることで、仮想世界の球402は力によって歪んでいる形態403になる。
本発明の一実施形態に係る仮想世界処理装置は、仮想世界と現実世界の相互動作または仮想世界の間の相互動作を制御する。
ここで、仮想世界は仮想環境および仮想世界オブジェクトに分類される。
仮想世界オブジェクトは、仮想環境内の様々な種類のオブジェクトを表す。また、仮想世界オブジェクトは仮想環境内で相互作用を提供する。
仮想世界オブジェクトは、アバターおよび仮想オブジェクトに分類されてもよい。アバターは、仮想環境のうちユーザの表現(Representation)で用いられてもよい。
以下、図5から図23を参照して仮想世界オブジェクトについて詳説する。
図5は、本発明の一実施形態に係る仮想世界オブジェクトのデータ構造を示す図である。図5を参照すれば、本発明の一実施形態に係る仮想世界オブジェクトの基本的なデータ構造を示す仮想世界オブジェクト基本タイプ(Virtual World Object Base Type、VWOBaseType)510は、属性520および複数の特性530、540、550を含む。
仮想世界オブジェクト基本タイプ510の属性520および特性530、540、550は、アバターおよび仮想オブジェクトの全てによって共有される。すなわち、仮想世界オブジェクト基本タイプ510は、各メタデータの特定の側面を拡張するため、アバターメタデータおよび仮想オブジェクトメタデータに継承(Inherit)されてもよい。ここで、仮想環境内の仮想オブジェクトの表現としての仮想オブジェクトメタデータは仮想環境内の様々な種類のオブジェクトを表してもよい。また、仮想オブジェクトメタデータは、仮想オブジェクトとアバターとの間の相互作用を提供してもよい。また、仮想オブジェクトメタデータは仮想環境との相互作用を提供してもよい。
実施形態に係るソース1のようにXML(eXtensible Markup Language)を用いて仮想世界オブジェクト基本タイプ510を示す。しかし、下記のソース1のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
属性520はid521を含んでもよい。
id521は、個別的な仮想世界オブジェクト情報のアイデンティティを識別するための固有の識別子を表す。
一実施形態に係る仮想世界オブジェクト基本タイプ510は、認識表(Identification)530、VWOC540、および行動モデルリスト(BehaviorModelList)550の特性を含んでもよい。
認識表530は仮想世界オブジェクトの認識表を示す。
VWOC540は仮想世界オブジェクトの特性のセットを表す。一実施形態に係るVWOC540は、サウンドリスト541、匂いリスト542、制御リスト543、およびイベントリスト544を含んでもよい。サウンドリスト541は、仮想世界オブジェクトに関連するサウンド効果のリストを表す。また、匂いリスト542は、仮想世界オブジェクトに関連する匂い効果のリストを表す。また、制御リスト543は、仮想世界オブジェクトに関連する制御のリストを表す。また、イベントリスト544は、仮想世界オブジェクトに関連する入力イベントのリストを表す。
行動モデルリスト550は、仮想世界オブジェクトに関連する行動モデルのリストを表す。
例示1は、仮想世界オブジェクト基本タイプ510の例示を表す。しかし、例示1は仮想世界オブジェクト基本タイプ510の一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図6は、本発明の一実施形態に係る認識表のデータ構造を示す図である。図6を参照すれば、本発明の一実施形態に係る認識表のデータ構造を示す認識表タイプ610は、属性620および複数の要素631、632、633、634を含む。
認識表タイプ610は仮想世界オブジェクトの認識表を示す。
属性620は名(Name)621およびファミリー(Family)622を含んでもよい。
名621は仮想世界オブジェクトの名を表す。
ファミリー622は他の仮想世界オブジェクトとの関係を表す。
一実施形態に係る認識表タイプ610は、ユーザID631、所有権632、権利633、およびクレジット634を含んでもよい。
ユーザID631は、仮想世界オブジェクトに関連するユーザ識別子を含んでもよい。
所有権632は仮想世界オブジェクトの所有権を表す。
権利633は仮想世界オブジェクトの権利を表す。
クレジット634は年代順に仮想オブジェクトの寄付者を表す。
実施形態に係るソース2のように、XMLを用いて認識表タイプ610を表しても。しかし、下記のソース2のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図7は本発明の一実施形態に係るVWOサウンドリストタイプのデータ構造を示す図である。図7を参照すれば、本発明の一実施形態に係るVWOサウンドリストタイプ640はサウンド641の要素を含んでもよい。
VWOサウンドリストタイプ640は、図5に示すサウンドリスト541のデータ形式を表す。
また、VWOサウンドリストタイプ640は、仮想世界オブジェクトに関連するサウンド効果の多重発生を許容するラッパー要素タイプ(Wrapper Element Type)を表す。
サウンド641は、仮想世界オブジェクトに関連するサウンド効果を表す。
実施形態に係るソース3のように、XMLを用いてVWOサウンドリストタイプ640を表してもよい。しかし、下記のソース3のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図8は、本発明の一実施形態に係るVWO匂いリストタイプのデータ構造を示す図である。図8を参照すれば、本発明の一実施形態に係るVWO匂いリストタイプ650は匂い651の要素を含んでもよい。
VWO匂いリストタイプ650は、図5に示す匂いリスト542のデータ形式を表す。
また、VWO匂いリストタイプ650は、仮想世界オブジェクトに関連する匂い効果の多重発生を許容するラッパー要素タイプを表す。
匂い651は仮想世界オブジェクトに関連する匂い効果を表す。
実施形態に係るソース4のように、XMLを用いてVWO匂いリストタイプ650を表してもよい。しかし、下記のソース4のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図9は、本発明の一実施形態に係るVWO制御リストタイプのデータ構造を示す図である。図9を参照すれば、本発明の一実施形態に係るVWO制御リストタイプ660は制御661の要素を含んでもよい。
VWO制御リストタイプ660は、図5に示す制御リスト543のデータ形式を表す。
また、VOW制御リストタイプ660は、仮想世界オブジェクトに関連する制御の多重発生を許容するラッパー要素タイプを表す。
制御661は仮想世界オブジェクトに関連する制御を表す。
実施形態に係るソース5のように、XMLを用いてVWO制御リストタイプ660を表してもよい。しかし、下記のソース5のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図10は、本発明の一実施形態に係るVWOイベントリストタイプのデータ構造を示す図である。図10を参照すれば、本発明の一実施形態に係るVWOイベントリストタイプ670はイベント671の要素を含んでもよい。
VWOイベントリストタイプ670は、図5に示すイベントリスト544のデータ形式を表す。
また、VWOイベントリストタイプ670は、仮想世界オブジェクトに関連する入力イベントの多重発生を許容するラッパー要素タイプを表す。
イベント671は、仮想世界オブジェクトに関連する入力イベントを表す。
実施形態に係るソース6のように、XMLを用いてVWOイベントリストタイプ670を表してもよい。しかし、下記のソース6のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図11は、本発明の一実施形態に係るVWO行動モデルリストタイプのデータ構造を示す図である。図11を参照すれば、本発明の一実施形態に係るVWO行動モデルリストタイプ680は、行動モデル681の要素を含んでもよい。
VWO行動モデルリストタイプ680は、図5に示す行動モデルリスト550のデータ形式を表す。
また、VWO行動モデルリストタイプ680は、仮想世界オブジェクトに関連する入力行動モデルの多重発生を許容するラッパー要素タイプを表す。
行動モデル681は、仮想世界オブジェクトに関連する入力行動モデルを示す。
実施形態に係るソース7のように、XMLを用いてVWO行動モデルリストタイプ680を表してもよい。しかし、下記のソース7のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図12は、本発明の一実施形態に係るVWOサウンドタイプのデータ構造を示す図である。図12を参照すれば、VWOサウンドタイプ710は、属性720およびリソースURL830の要素を含んでもよい。
VWOサウンドタイプ710は、仮想世界オブジェクトに関連するサウンド効果のタイプ情報を示す。
実施形態に係るソース8のように、XMLを用いてVWOサウンドタイプ710を表してもよい。しかし、下記のソース8のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
属性720は、サウンドID721、強度722、持続期間723、ループ724、およびの名725を含んでもよい。
サウンドID721は、オブジェクトサウンドの固有な識別子を表す。
強度722はサウンドの強度を表す。
持続723はサウンドが持続する時間の長さを表す。
ループ724はサウンドの反復数を表す。
名725はサウンドの名を表す。
リソースURL730は、サウンドファイルに対するリンクを含む要素である。実施形態に係るサウンドファイルはMP4ファイルの形態であってもよい。
例示2はVWOサウンドタイプ710の例示を表す。しかし、例示2は、VWOサウンドタイプ710の一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
例示2を参照すれば、「BigAlarm」の名725を有するサウンドリソースは「http://sounddb.com/alarmsound_0001.wav」に格納され、サウンドID721は「SoundID3」である。例示2のサウンドの長さは30秒であり、サウンドの強度722は50%であってもよい。
図13は、本発明の一実施形態に係るVWO匂いタイプのデータ構造を示す図である。図13を参照すれば、VWO匂いタイプ810は、属性820およびリソースURL830の要素を含んでもよい。
VWO匂いタイプ810は、仮想世界オブジェクトに関連する匂い効果のタイプ情報を示す。
実施形態に係るソース9のように、XMLを用いてVWO匂いタイプ810を表してもよい。しかし、下記のソース9のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
属性820は、匂いID821、強度822、持続期間823、ループ824、およびの名825を含んでもよい。
匂いID821は、オブジェクトの匂いの固有の識別子を表す。
強度822は匂いの強度を表す。
持続823は匂いが持続する時間の長さを表す。
ループ824は匂いの反復数を表す。
名825は匂いの名を表す。
リソースURL830は匂いファイルに対するリンクを含む要素である。
例示3は、VWO匂いタイプ810の例示を表す。しかし、例示3はVWO匂いタイプ810の一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図14は、本発明の一実施形態に係るVWO制御タイプのデータ構造を示す図である。図14を参照すれば、本発明の一実施形態に係るVWO制御タイプ910は、属性920およびモーション特徴制御930を含んでもよい。
VWO制御タイプ910は、仮想世界オブジェクトに関連する制御のタイプ情報を示す。
実施形態に係るソース10のようにXMLを用いてVWO制御タイプ910を表してもよい。しかし、下記のソース10のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
属性920は、制御ID921を含んでもよい。
制御ID921は、制御の固有な識別子を表す。
モーション特徴制御930は、仮想オブジェクトの位置、方位、およびスケールを制御する要素のセットを表す。一実施形態に係るモーション特徴制御930は、位置941、方位942、および倍率943の要素を含んでもよい。
位置941はシーン(scene)におけるオブジェクトの位置を表す。実施形態に係る位置941は、3D浮動小数点ベクトル(3D Floating Point Vector)x、y、z方式のように表してよい。
方位942はシーンでのオブジェクトの方位を示す。実施形態に係る方位942は、オイラー角を用いる3D浮動小数点ベクトル(ヨー、ピッチ、ロール)((yaw、pitch、roll))の方式に表してもよい。
倍率943は、シーンでのオブジェクトのスケールを表す。実施形態に係る倍率943は、3D浮動小数点ベクトル(Sx、Sy、Sz)方式のように表してもよい。
図15は、本発明の一実施形態に係るVWOイベントタイプ1010のデータ構造を示す図である。図15を参照すれば、本発明の一実施形態に係るVWOイベントタイプ1010は、属性1020、および複数の要素1031、1032、1033、1034を含んでもよい。
VWOイベントタイプ1010は、仮想世界オブジェクトに関連するイベントのタイプ情報を示す。
実施形態に係るソース11のようにXMLを用いてVWOイベントタイプ1010を表してもよい。しかし、下記のソース11のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
属性1020はイベントID1021を含んでもよい。
イベントID1021はイベントの固有な識別子を表す。
一実施形態に係るVWOイベントタイプ101は、マウス1031、キーボード1032、センサ入力1033、およびユーザ定義入力1034の要素を含んでもよい。
マウス1031はマウスイベントを表す。すなわち、マウス1031は、マウスの操作による入力に基づいて発生するイベントを表してもよい。実施形態に係るマウス1031は表2に示す要素を含んでもよい。
Figure 0005956002
キーボード1032は、キーボードイベントを表す。すなわち、キーボード1032は、キーボードの操作による入力に基づいて発生するイベントを表してもよい。実施形態に係るキーボード1032は表3に示す要素を含んでもよい。
Figure 0005956002
センサ入力1033はセンサ入力を表す。すなわち、センサ入力1033は、センサの操作による入力に基づいて発生するイベントを表してもよい。
ユーザ定義入力1034は、ユーザによって定義された入力イベントを表す。
図16は、本発明の一実施形態に係るVWO行動モデルタイプのデータ構造を示す図である。図16を参照すれば、本発明の一実施形態に係るVWO行動モデルタイプ1110は、行動入力1120、および行動出力1130を含んでもよい。
VWO行動モデルタイプ1110は、仮想世界オブジェクトに関連する行動モデルのタイプ情報を示す。
実施形態に係るソース12のように、XMLを用いてVWO行動モデルタイプ1110を表してもよい。しかし、下記のソース12のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
行動入力1120は、オブジェクト行動を作るための入力イベントを表してもよい。実施形態に係る行動入力1120は属性1121を含んでもよい。
属性1121は、イベントID参照1122を含んでもよい。イベントID参照1122は、入力イベントの固有な識別子を表す。
行動出力1130は、入力イベントに対応するオブジェクト行動の出力を表す。実施形態に係る行動出力1130は属性1131を含んでもよい。
属性1131は、サウンドID参照1132、匂いID参照1133、アニメーションID参照1134、および制御ID参照1135を含んでもよい。
サウンドID参照1132は、オブジェクトのサウンド効果を提供するためにサウンドIDを参照する。
匂いID参照1133は、オブジェクトの匂い効果を提供するために匂いIDを参照する。
アニメーションID参照1134は、オブジェクトのアニメーションクリップを提供するためにアニメーションIDを参照する。
制御ID参照1135は、オブジェクトの制御を提供するために制御IDを参照する。
本発明の一実施形態に係る仮想世界オブジェクトは、アバターメタデータおよび仮想オブジェクトメタデータのための共通データタイプを含んでもよい。共通データタイプは、基本的なビルディングブロック(Basic Building Block)に用いられてもよい。共通データタイプは、触覚特性タイプ、叙述タイプ、アニメーション叙述タイプ、アニメーションリソース叙述タイプ、共通シンプルデータタイプを含んでもよい。
以下、図17から18を参照して共通データタイプについて詳説する。
図17は、本発明の一実施形態に係るVWO触覚特性タイプのデータ構造を示す図である。図17を参照すれば、本発明の一実施形態に係るVWO触覚特性タイプ1210は、属性1220および複数の要素1230、1240、1250を含んでもよい。
VWO触覚特性タイプ1210は、仮想世界オブジェクトの触覚特性に対するタイプ情報を示す。
実施形態に係るソース13のようにXMLを用いてVWO触覚特性タイプ1210を表してもよい。しかし、下記のソース13のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
属性1220は触覚ID1221を含んでもよい。
触覚ID1221は触覚特性の固有な識別子を表す。
一実施形態に係るVWO触覚特性タイプ1210は物質特性タイプ1230、ダイナミック力効果タイプ1240、および触知タイプ1250の要素を含んでもよい。
物質特性タイプ1230は、物質特性を特徴づけるパラメータを含んでもよい。
ダイナミック力タイプ1240は、力効果を特徴づけるパラメータを含んでもよい。
触知タイプ1250は、接触特性を特徴づけるパラメータを含んでもよい。
図18は、本発明の一実施形態に係る物質特性タイプのデータ構造を示す図である。図18を参照すれば、本発明の一実施形態に係る物質特性タイプ1310は属性1320を含んでもよい。
属性1320は剛性(Stiffness)1321、静止摩擦(StaticFriction)1322、動摩擦(DynamicFriction)1323、湿っぽさ(Damping)1324、質感(Texture)1325、および質量(Mass)1326を含んでもよい。
剛性1321は、仮想世界オブジェクトの丈夫さを示す。実施形態に係る剛性1321はN/mmの単位を有してもよい。
静止摩擦1322は仮想世界オブジェクトの停止摩擦を表す。
動摩擦1323は仮想世界オブジェクトの動摩擦を表す。
湿っぽさ1324は仮想世界オブジェクトの湿っぽい程度を表す。
質感1325は仮想世界オブジェクトの質感を表す。実施形態に係る質感1325は触覚質感ファイルに対するリンクを含んでもよい。
質量1326は仮想世界オブジェクトの質量を表す。
実施形態に係るソース14のように、XMLを用いてVWO物質特性タイプ1310を表してもよい。しかし、下記のソース14のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図19は、本発明の一実施形態に係るダイナミック力効果タイプのデータ構造を示す図である。図19を参照すれば、本発明の一実施形態に係るダイナミック力効果タイプ1410は属性1420を含んでもよい。
属性1420は、力フィールド1421および動き軌道1422を含んでもよい。
力フィールド1421は、力フィールドベクトルファイルに対するリンクを含んでもよい。
動き軌図1422は力軌道ファイルに対するリンクを含んでもよい。
実施形態に係るソース15のようにXMLを用いてVWOダイナミック力効果タイプ1410を表してもよい。しかし、下記のソース15のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図20は、本発明の一実施形態に係る触知タイプのデータ構造を示す図である。図20を参照すれば、本発明の一実施形態に係る触知タイプ1510は属性1520を含んでもよい。
属性1520は、温度1521、振動1522、電流1523、および触知パターン1524を含んでもよい。
温度1521は仮想世界オブジェクトの温度を表す。
振動1522は仮想世界オブジェクトの振動程度を表す。
電流1523は仮想世界オブジェクトの前記電流を表す。実施形態に係る電流1523はmA単位を用いてもよい。
触知パターン1524は、触知パターンファイルに対するリンクを含んでもよい。
実施形態に係るソース16のように、XMLを用いてVWO触知タイプ1510を表してもよい。しかし、下記のソース16のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図21は、本発明の一実施形態に係る叙述タイプのデータ構造を示す図である。図21を参照すれば、本発明の一実施形態に係る叙述タイプ1610は、名1621およびUri1622の要素を含んでもよい。
Uri1622は、任意のリソースファイルに対するリンクを含んでもよい。
実施形態に係るソース17のようにXMLを用いて叙述タイプ1610を表してもよい。しかし、下記のソース17のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図22は、本発明の一実施形態に係るアニメーション叙述タイプのデータ構造を示す図である。図22を参照すれば、本発明の一実施形態に係るアニメーション叙述タイプ1710は、属性1720および複数の要素1731、1732を含んでもよい。
属性1720は、アニメーションID1721、持続時間1722、およびループ1723を含んでもよい。
アニメーションID1721はアニメーションの固有な識別子を表す。
持続時間1722はアニメーションが持続する時間の長さを表す。
ループ1723はアニメーションの反復数を表す。
一実施形態に係るアニメーション叙述タイプ1710は、名1731およびUri1732の要素を含んでもよい。
Uri1722は、アニメーションファイルに対するリンクを含んでもよい。実施形態に係るアニメーションファイルはMP4ファイル形式であってもよい。
実施形態に係るソース18のように、XMLを用いてアニメーション叙述タイプ1710を表してもよい。しかし、下記のソース18のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図23は本発明の一実施形態に係るアニメーションリソース叙述タイプのデータ構造を示す図である。図23を参照すれば、本発明の一実施形態に係るアニメーションリソース叙述タイプ1810は、属性1820および複数の要素1831、1832を含んでもよい。
属性1820は、アニメーションID1821、持続時間1822、およびループ1823を含んでもよい。
アニメーションID1821はアニメーションの固有な識別子を表す。
持続時間1822はアニメーションが持続する時間の長さを表す。
ループ1823はアニメーションの反復数を表す。
一実施形態に係るアニメーションリソース叙述タイプ1810は叙述1831およびUri1832の要素を含んでもよい。
叙述1831はアニメーションリソースの叙述を含んでもよい。
Uri1822は、アニメーションファイルに対するリンクを含んでもよい。実施形態に係るアニメーションファイルはMP4ファイル形式であってもよい。
実施形態に係るソース19のように、XMLを用いてアニメーションリソース叙述タイプ1810を表してもよい。しかし、下記のソース19のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
本発明の一側面によれば、シンプルデータタイプは、LHタイプの表示、LMHタイプの表示、SMBタイプの表示、SMLタイプの表示、DMUタイプの表示、DUタイプの表示、MNタイプの表示、RCタイプの表示、LRタイプの表示、LMRタイプの表示、測定単位LMHタイプ、測定単位SMBタイプ、5タイプのレベル、アングルタイプ、パーセンテージタイプ、無制限パーセンテージタイプ、およびポイントタイプを含んでもよい。
LHタイプの表示は値が高いか低いかを表すタイプである。
実施形態に係るソース20のように、XMLを用いてLHタイプの表示を表してもよい。しかし、下記のソース20のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
LMHタイプの表示は値の高中低を表すタイプである。
実施形態に係るソース21のようにXMLを用いてLMHタイプの表示を表してもよい。しかし、下記のソース21のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
SMBタイプの表示は値が小さいか、中間であるか、大きいかを表すタイプである。
実施形態に係るソース22のようにXMLを用いてSMBタイプの表示を表してもよい。しかし、下記のソース22のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
SMLタイプの表示は値が短いか、中間であるか、長いかを表すタイプである。
実施形態に係るソース23のようにXMLを用いてSMLタイプの表示を表してもよい。しかし、下記のソース23のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
DMUタイプの表示は値が低いか、中間であるか、高いかを示すタイプである。
実施形態に係るソース24のようにXMLを用いてDMUタイプの表示を表してもよい。しかし、下記のソース24のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
DUタイプの表示は値が低いか高いかを表すタイプである。
実施形態に係るソース25のように、XMLを用いてDUタイプの表示を表してもよい。しかし、下記のソース25のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
PMNタイプの表示は値が尖っているか、中間であるか、とがっていないか(Pointed、Middle、Not Pointed)を表すタイプである。
実施形態に係るソース26のように、XMLを用いてPMNタイプの表示を表してもよい。しかし、下記のソース26のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
RCタイプの表示は値が丸いか、凹んでいるか(Round、Cleft)を表すタイプである。
実施形態に係るソース27のように、XMLを用いてRCタイプの表示を表してもよい。しかし、下記のソース27のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
LRタイプの表示は値が左側であるか、右側であるかを表すタイプである。
実施形態に係るソース28のように、XMLを用いてLRタイプの表示を表してもよい。しかし、下記のソース28のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
LMRタイプの表示は値が左側であるか、中間であるか、右側であるかを表すタイプである。
実施形態に係るソース29のように、XMLを用いてLMRタイプの表示を表してもよい。しかし、下記のソース29のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
測定単位LMHタイプは、LMHタイプの表示またはフロート(Float)を表すタイプである。
実施形態に係るソース30のように、XMLを用いて測定単位LMHタイプを表してもよい。しかし、下記のソース30のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
測定単位SMBタイプは、SMBタイプの表示またはフロートを表すタイプである。
実施形態に係るソース31のように、XMLを用いて測定単位SMBタイプを表してもよい。しかし、下記のソース31のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
5タイプのレベルは1から5までの整数値のタイプを表す。
実施形態に係るソース32のように、XMLを用いて5タイプのレベルを表してもよい。しかし、下記のソース32のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
アングルタイプは0から360度までのフローティング値のタイプを表す。
実施形態に係るソース33のようにXMLを用いてアングルタイプを表してもよい。しかし、下記のソース33のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
パーセンテージタイプは、0から100パーセントまでのフローティング値のタイプを表す。
実施形態に係るソース34のように、XMLを用いてパーセンテージタイプを表してもよい。しかし、下記のソース34のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
無制限パーセンテージタイプは、0パーセントからのフローティング値のタイプを表す。
実施形態に係るソース35のように、XMLを用いて無制限パーセンテージタイプを表してもよい。しかし、下記のソース35のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。

Figure 0005956002
ポイントタイプは0パーセントからのフローティング値のタイプを表す。
ポイントタイプは顔特徴制御(Face Feature Control)のための特徴点を明示する論理ポイントタイプと物理的3Dポイントタイプという2種類のポイントタイプに対するルートを提供するためのタイプである。
論理ポイントタイプは特徴点の名を提供するタイプである。
物理的3Dポイントタイプは3次元ポイントベクトル値を提供するタイプである。
実施形態に係るソース36のように、XMLを用いてポイントタイプを表してもよい。しかし、下記のソース36のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
本発明の一実施形態に係る仮想環境内の仮想オブジェクトは仮想オブジェクトメタデータのように表現される。
仮想オブジェクトメタデータは、仮想環境内の様々な種類のオブジェクトを特徴づける。また、仮想オブジェクトメタデータは、仮想オブジェクトとアバターとの間の相互作用を提供する。また、仮想オブジェクトメタデータは仮想環境内で相互作用を提供する。
本発明の一実施形態に係る仮想オブジェクトは、仮想世界オブジェクトの基本タイプの拡張と共に、外形およびアニメーションの要素をさらに含んでもよい。以下、図24を参照して仮想オブジェクトについて詳説する。
図24は、本発明の一実施形態に係る仮想オブジェクトタイプのデータ構造を示す図である。図24を参照すれば、本発明の一実施形態に係る仮想オブジェクトタイプ1910は、VWO基本タイプ1920の拡張と共に、複数の要素1931、1932、1933、1934をさらに含んでもよい。
仮想オブジェクトタイプ1910は、仮想オブジェクトに対するデータタイプを表す。
VWO基本タイプ1920は、図5に示す仮想世界オブジェクト基本タイプ510を示す。すなわち、VWO基本タイプ1920は、仮想世界オブジェクト基本タイプ510が仮想オブジェクトに対する仮想オブジェクトメタデータの特定の側面を拡張するために仮想オブジェクトメタデータに継承されたものを表す。
一実施形態に係る仮想オブジェクトタイプ1910は、外形1931、アニメーション1932の要素を含んでもよい。実施形態に係る仮想オブジェクトタイプ1910は、触覚特性1933および仮想オブジェクト構成1934をさらに含んでもよい。
外形1931は、仮想オブジェクトの触知およびビジュアルの要素を描写する外形ファイルに対する少なくとも1つのリソースリンクを含む要素である。
アニメーション1932は、仮想オブジェクトに関連する予め記録されたアニメーションを描写するメタデータのセットを含む要素である。
触覚特性1933は、図17に示すVWO触覚特性タイプ1210で定義された触覚特性の記述語(Descriptors)のセットを含む要素である。
仮想オブジェクト構成1934は、仮想オブジェクトを構成要素に結び付ける仮想オブジェクトのリストを含む要素である。
実施形態に係るソース37のように、XMLを用いて仮想オブジェクトタイプ1910を表してもよい。しかし、下記のソース37のプログラムソースは一実施形態に過ぎず、本発明がこれに制限されることはない。
Figure 0005956002
図25は、本発明の一実施形態に係るVOアニメーションタイプ2010のデータ構造を示す図である。図25を参照すれば、本発明の一実施形態に係るVOアニメーションタイプ2010は、モーション2020、変形2030、および追加アニメーション2040の要素を含んでもよい。
モーション2020は、厳格な動作(Rigid Motion)のように定義されたアニメーションのセットを表す。実施形態に係るモーション2020は、アニメーション叙述タイプ2021を含んでもよい。アニメーション叙述タイプ2021は図22に示すアニメーション叙述タイプ1710を示す。
表4はモーション2020の具体的な実施形態を表す。
Figure 0005956002
変形2030は変形アニメーションのセットを表す。実施形態に係る変形2030はアニメーション叙述タイプ2031を含んでもよい。アニメーション叙述タイプ2031は図22に示すアニメーション叙述タイプ1710を示す。
表5は変形2030の具体的な実施形態を表す。
Figure 0005956002
追加アニメーション2040は、アニメーションファイルに対する少なくとも1つのリンクを含む要素である。実施形態に係る追加アニメーション2040は、アニメーションリソース叙述タイプ2041を含んでもよい。アニメーションリソース叙述タイプ2041は、図23に示すアニメーションリソース叙述タイプ1810を示す。
図26は、本発明の一実施形態に係る仮想世界処理装置の仮想世界のオブジェクトを制御する方法を示すフローチャートである。図26を参照すれば、本発明の一実施形態に係る仮想世界処理装置は、仮想世界のオブジェクトを制御するモード(すなわち、オブジェクト制御モード)を実行する(S2110)。
また、仮想世界のオブジェクトを制御するための制御特徴ユニットを選択する(S2120)。実施形態に係る制御特徴ユニットは、仮想世界のオブジェクトをオブジェクト全体の形状、オブジェクトの胴体部分、オブジェクトの平面、オブジェクトの線、オブジェクトの点、およびオブジェクトのアウトラインのうちいずれか1つを制御するための制御特徴であってもよい。
選択された制御特徴ユニットが仮想世界のオブジェクトの全てに関連する形状特徴を制御する形状特徴制御であるかを判断する(S2131)。
形状特徴制御である場合、入力信号を認識して入力信号が有効な信号であるかを判断する(S2140)。
有効な信号である場合、仮想世界のオブジェクトに対して形状単位の制御を実行する(S2151)。
選択された制御特徴ユニットが形状特徴制御ではない場合、選択された制御特徴ユニットが仮想世界のオブジェクトの胴体部分に関連する特徴を制御する胴体部分特徴制御であるかを判断する(S2132)。
胴体部分特徴制御である場合、入力信号を認識して入力信号が有効な信号であるかを判断する(S2140)。
有効な信号である場合、仮想世界のオブジェクトに対して胴体部分単位の制御を実行する(S2152)。
選択された制御特徴ユニットが胴体部分特徴制御ではない場合、選択された制御特徴ユニットが仮想世界のオブジェクトの平面に関連する特徴を制御する平面特徴制御であるかを判断する(S2133)。
平面特徴制御である場合、入力信号を認識して入力信号が有効な信号であるかを判断する(S2140)。
有効な信号である場合、仮想世界のオブジェクトに対して平面単位の制御を実行する(S2153)。
選択された制御特徴ユニットが平面特徴制御ではない場合、選択された制御特徴ユニットが仮想世界のオブジェクトの線と関連される特徴を制御する線特徴制御であるかを判断する(S2134)。
線特徴制御である場合、入力信号を認識して入力信号が有効な信号であるかを判断する(S2140)。
有効な信号である場合、仮想世界のオブジェクトに対して線単位の制御を実行する(S2154)。
選択された制御特徴ユニットが線特徴制御ではない場合、選択された制御特徴ユニットが仮想世界のオブジェクトの点に関連する特徴を制御する点特徴制御であるかを判断する(S2135)。
点特徴制御である場合、入力信号を認識して入力信号が有効な信号であるかを判断する(S2140)。
有効な信号である場合、仮想世界のオブジェクトに対して点単位の制御を実行する(S2155)。
選択された制御特徴ユニットが点特徴制御ではない場合、選択された制御特徴ユニットが仮想世界のオブジェクトに対してユーザの指定した特定のアウトラインに関連する特徴を制御するアウトライン特徴制御であるかを判断する(S2136)。
アウトライン特徴制御である場合、入力信号を認識して入力信号が有効な信号であるかを判断する(S2140)。
有効な信号である場合、仮想世界のオブジェクトに対して仮想世界のオブジェクトに対してユーザが指定した特定のアウトライン単位の制御を実行する(S2156)。
選択された制御特徴ユニットが仮想世界のオブジェクトに対してユーザが指定した特定のアウトライン特徴制御ではない場合、制御特徴ユニットを再び選択する(S2120)。
図27は、本発明の一実施形態に係る仮想世界処理装置の仮想世界のオブジェクトに対するオブジェクト変更を実行する方法を示すフローチャートである。
図27を参照すれば、本発明の一実施形態に係る仮想世界処理装置は、仮想世界のオブジェクトに対するオブジェクト変更が活性化するための条件(すなわち、活性状態条件)をモニタリングする(S2210)。仮想世界のオブジェクトに対するオブジェクト変更活性状態条件は予め設定してもよい。例えば、活性状態条件は、仮想世界のオブジェクトに向かってアバターが一定の距離内にある場合、仮想世界のオブジェクトを接触する場合、および仮想世界のオブジェクトを持ち上げる場合であり得る。
活性状態条件をモニタリングして活性状態条件が満足される有効な活性状態条件であるかを判断する(S2220)。
活性状態条件が満足されない場合、再びステップS2210に戻ってオブジェクト変更活性状態条件をモニタリングする。
活性状態条件を満足する場合、前記活性状態条件に関連するオブジェクト変更を判断する(S2230)。実施形態に係る仮想世界処理装置は、オブジェクト変更内容およびオブジェクト変更活性状態条件を格納するデータベースを含み、前記データベースから満足された活性状態条件に対応するオブジェクト変更を識別する。
仮想世界処理装置は活性状態条件に関連するオブジェクト変更を判断した後、仮想世界のオブジェクトに対するオブジェクト変更を実行する(S2240)。
仮想世界処理装置は、仮想世界のオブジェクトを制御するための制御入力の有無をモニタリングする(S2250)。
仮想世界処理装置は制御入力として、仮想世界のオブジェクトに対するオブジェクト変更を中止させる中止制御入力が発生したかを判断する(S2261)。
中止制御入力が発生した場合、仮想世界のオブジェクトに対するオブジェクト変更を実行中止する(S2271)。
中止制御入力が発生していない場合、制御入力として仮想世界のオブジェクトに対するオブジェクト変更を一時停止させる一時停止制御入力が発生したかを判断する(S2262)。
一時停止制御入力が発生した場合、仮想世界のオブジェクトに対するオブジェクト変更実行を一時停止する(S2272)。
一時停止制御入力が発生しない場合、制御入力として仮想世界のオブジェクトに対するオブジェクト変更を反復実行させる反復制御入力が発生したかを判断する(S2263)。
反復制御入力が発生した場合、仮想世界のオブジェクトに対するオブジェクト変更実行を反復実行する(S2273)。
反復制御入力が発生しない場合、ステップS2240に戻って仮想世界のオブジェクトに対するオブジェクト変更を実行する。
図28は、本発明の一実施形態に係る仮想世界処理装置が同一のオブジェクトを異なる仮想世界に変換して適用する動作を示す図である。
図28を参照すれば、第1仮想世界2310は自動車2330および楽器2340を含んでもよい。
自動車2330は仮想世界のオブジェクトとして、自動車2330に関する情報2331であるエンジン、警笛、ブレーキペダルのサウンド情報、およびガソリンの匂い情報を含んでもよい。
楽器2340は仮想世界のオブジェクトとして、楽器2340に関する情報2341である、a、b、cのサウンド情報、ジョージマイケルの所有者情報、および5ドルの価格情報を含んでもよい。
本発明の一実施形態に係る仮想世界処理装置は、1つの仮想世界から他の仮想世界へ仮想オブジェクトを移動させてもよい。
例えば、一実施形態に係る仮想世界処理装置は、第1仮想世界2310で具現されたオブジェクトである自動車2330および楽器2340に関する情報2331、2341に基づいて、第1仮想世界2310と異なる仮想世界である第2仮想世界2320に自動車2330および楽器2340に対応するオブジェクトを生成する。
実施形態に係る第2仮想世界2320のオブジェクトは、第1仮想世界2310で具現されたオブジェクトである自動車2330および楽器2340に関する情報2331、2341と同一の情報を有してもよい。または、オブジェクトの自動車2330および楽器2340に関する情報2331、2341を変形した情報を有してもよい。
図29は、本発明の一実施形態に係る仮想世界処理装置の構成を示す図である。図29を参照すれば、本発明の一実施形態に係る仮想世界処理装置2400は制御部2410および処理部2420を備える。
制御部2410は仮想世界の仮想世界オブジェクトを制御する。ここで、仮想世界オブジェクトは、アバターおよび仮想オブジェクトに分類される。仮想世界オブジェクトおよび仮想オブジェクトには図5〜図25で説明したデータ構造が適用される。
したがって、仮想オブジェクトは、仮想世界オブジェクトの基本タイプの拡張と共に外形およびアニメーションの要素をさらに含んでもよい。
一実施形態に係る仮想世界オブジェクトは、アイデンティティ、サウンド、匂い、制御、イベント、行動モデルの特性、およびIDの属性を含んでもよい。
ここで、サウンドは、オブジェクトサウンドの固有な識別子を表すサウンドID、オブジェクトサウンドの強さを表す強度、オブジェクトサウンドが持続する時間の長さを表す持続時間、オブジェクトサウンドの反復数を表すループ、およびオブジェクトサウンドの名を表す名の属性を含んでもよい。
また、匂いは、オブジェクトの匂いの固有な識別子を表す匂いID、前記オブジェクトの匂いの強さを表す強度、前記オブジェクトの匂いが持続する時間の長さを表す持続時間、前記オブジェクトの匂いの反復数を表すループ、および前記オブジェクトの匂いの名を表す名の属性を含んでもよい。
また、制御は制御の固有な識別子を表す制御IDの属性を含み、位置、方位、および倍率の要素を含んでもよい。
また、イベントはイベントの固有な識別子を表すイベントIDの属性を含み、マウス、キーボード、センサ入力、およびユーザ定義入力の要素を含んでもよい。
また、行動モデルは行動入力および行動出力を含んでもよい。ここで、行動入力は、イベントID参照(Event ID Reference)の属性を含んでもよい。また、行動出力は、サウンドID参照、匂いID参照、アニメーションID参照、および制御ID参照の属性を含んでもよい。
アニメーションはモーション、変形、および追加アニメーションの要素を含んでもよい。
本発明の一側面によれば、仮想世界処理装置は処理部2420をさらに含んでもよい。
処理部2420は仮想世界で他の仮想世界へ仮想オブジェクトを移動させてもよい。
本発明に係る実施形態は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうちの1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コード(machine code)だけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コード(higher level code)を含む。上述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアのレイヤで動作するように構成されてもよい。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
上記の実施形態につき以下の付記を残しておく。
(付記1)
仮想世界と現実世界の相互動作、または仮想世界間の相互動作を可能にする仮想世界処理装置において、
前記仮想世界の仮想世界オブジェクトを制御する制御部を備え、
前記仮想世界オブジェクトはアバターおよび仮想オブジェクトに分類され、
前記仮想オブジェクトは、前記仮想世界オブジェクトの基本タイプの拡張と共に、外形およびアニメーションの要素をさらに含むことを特徴とする仮想世界処理装置。
(付記2)
前記仮想世界オブジェクトは、アイデンティティ、サウンド、匂い、制御、イベント、行動モデルの特性、およびIDの属性を含むことを特徴とする付記1に記載の仮想世界処理装置。
(付記3)
前記仮想世界から他の仮想世界へ前記仮想オブジェクトを移動させる処理部をさらに備えることを特徴とする付記1に記載の仮想世界処理装置。
(付記4)
前記アニメーションは、モーション、変形および、追加アニメーションの要素を含むことを特徴とする付記1に記載の仮想世界処理装置。
(付記5)
前記サウンドは、
オブジェクトサウンドの固有な識別子を表すサウンドIDと、
前記オブジェクトサウンドの強さを表す強度と、
前記オブジェクトサウンドが持続する時間の長さを表す持続時間と、
前記オブジェクトサウンドの反復数を表すループと、
前記オブジェクトサウンドの名を表す名と、
の属性を含むことを特徴とする付記2に記載の仮想世界処理装置。
(付記6)
前記の匂いは、
オブジェクトの匂いの固有な識別子を表す匂いIDと、
前記オブジェクトの匂いの強さを表す強度と、
前記オブジェクトの匂いが持続する時間の長さを表す持続時間と、
前記オブジェクトの匂いの反復数を表すループと、
前記オブジェクトの匂いの名を表す名と、
の属性を含むことを特徴とする付記2に記載の仮想世界処理装置。
(付記7)
前記制御は、前記制御の固有な識別子を表す制御IDの属性を含み、
位置、方位、および倍率の要素を含むことを特徴とする付記2に記載の仮想世界処理装置。
(付記8)
前記イベントは、前記イベントの固有な識別子を表すイベントIDの属性を含み、
マウス、キーボード、センサ入力、およびユーザ定義入力の要素を含むことを特徴とする付記2に記載の仮想世界処理装置。
(付記9)
前記行動モデルは、
行動入力と、
行動出力と、
を含み、
前記行動入力は、イベントID参照の属性を含み、
前記行動出力は、サウンドID参照、匂いID参照、アニメーションID参照、および制御ID参照の属性を含むことを特徴とする付記2に記載の仮想世界処理装置。
100 センサ
110 現実世界のユーザ
120 仮想世界オブジェクト

Claims (15)

  1. 仮想世界と現実世界の相互作用、または仮想世界間の相互作用を可能にする仮想世界処理装置において、
    前記仮想世界の仮想世界オブジェクトを制御する制御部を備え、
    前記仮想世界オブジェクトの基本タイプは、
    仮想世界オブジェクト特性と、
    仮想世界オブジェクト行動モデルと、
    を含む第1基本データ構造から選択される要素を含み、
    前記仮想世界オブジェクト特性は、
    前記仮想世界オブジェクトに関する少なくとも1つの入力イベントを含む仮想世界オブジェクトイベント
    前記仮想世界オブジェクトに関する少なくとも1つのサウンド効果を含む仮想世界オブジェクトサウンド
    前記仮想世界オブジェクトに関する少なくとも1つの匂い効果を含む仮想世界オブジェクト匂い
    前記仮想世界オブジェクトに関する少なくとも1つの制御を含む仮想世界オブジェクト制御
    を含む第2データ構造から選択される少なくとも1つの要素を含み、
    前記仮想世界オブジェクト行動モデルは、
    前記仮想世界オブジェクトイベントに含まれた入力イベントの識別子を参照するイベントID参照と、
    前記仮想世界オブジェクトサウンドに含まれたサウンド効果のIDを参照するサウンドID参照
    前記仮想世界オブジェクト匂いに含まれた匂い効果のIDを参照する匂いID参照
    前記仮想世界オブジェクト制御に含まれた制御のIDを参照する制御IDと、
    を含む第3データ構造から選択される少なくとも1つの要素を含み、
    前記制御部は、前記仮想世界オブジェクトの基本タイプを用いて前記仮想世界オブジェクトを制御する、ことを特徴とする仮想世界処理装置。
  2. 前記基本タイプは、
    前記仮想世界オブジェクトを区分するための識別をさらに含み、
    前記識別は、
    前記仮想世界オブジェクトに関するユーザ識別のためのユーザID、仮想世界オブジェクトの所有権、権利、およびクレジットのうち少なくとも1つを構成要素として含み、仮想世界オブジェクトの名および他の仮想世界オブジェクトとの関係のうち少なくとも1つを属性として含む
    ことを特徴とする請求項1に記載の仮想世界処理装置。
  3. 前記仮想世界オブジェクトサウンドは、
    サウンドファイルとしての1つ以上のリンクを含むサウンドリソースURLを構成要素として含み、オブジェクトサウンドの固有な識別子であるサウンドID、サウンドの強度を表す強度、サウンドが持続する時間の長さを表す持続時間、再生オプションを表すループ、およびサウンド名のうち少なくとも1つを属性として含む
    ことを特徴とする請求項1に記載の仮想世界処理装置。
  4. 前記仮想世界オブジェクト匂いは、
    匂いファイルとしての1つ以上のリンクを含む匂いリソースURLを構成要素として含み、オブジェクト匂いの固有な識別子である匂いID、匂いの強度を表す強度、匂いが持続する時間の長さを示す持続時間、再生オプションを示すループ、およびの匂いの名のうち少なくとも1つを属性として含む
    ことを特徴とする請求項1に記載の仮想世界処理装置。
  5. 前記仮想世界オブジェクト制御は、
    仮想世界オブジェクトの位置、方位、およびスケールを制御する構成要素のセットであるモーション特徴制御を構成要素として含み、制御の固有な識別子である制御IDを属性として含む
    ことを特徴とする請求項1に記載の仮想世界処理装置。
  6. 前記モーション特徴制御は、
    3次元フローティングポインティングベクトルを有するシーンでオブジェクトの位置、オイラー角度で3次元フローティングポインティングベクトルを有するシーンでオブジェクトの方向、および3次元フローティングポインティングベクトルで表現されるシーンでオブジェクトのスケールのうち少なくとも1つを構成要素として含む
    ことを特徴とする請求項5に記載の仮想世界処理装置。
  7. 前記仮想世界オブジェクトイベントは、
    マウスイベント構成要素のセットであるマウス、キーボードイベント構成要素のセットであるキーボード、センサ入力、およびユーザ定義入力のうち少なくとも1つを構成要素として含み、イベントの固有な識別子であるイベントIDを属性として含む
    ことを特徴とする請求項1に記載の仮想世界処理装置。
  8. 前記マウスは、
    クリック、ダブルクリック、マウス左側ボタンを押している瞬間に発生するイベントである左側ボタンダウン、マウス左側ボタンを離す瞬間に発生するイベントである左側ボタンアップ、マウス右側ボタンを押している瞬間に発生するイベントである右側ボタンダウン、マウス左側、マウス右側ボタンを離す瞬間に発生するイベントである右側ボタンアップ、およびマウス位置を変更する間に発生するイベントである移動のうち少なくとも1つを構成要素として含む
    ことを特徴とする請求項7に記載の仮想世界処理装置。
  9. 前記キーボードは、
    キーボードボタンを押している瞬間に発生するイベントであるキーダウン、およびキーボードボタンを離す瞬間に発生するイベントであるキーアップのうち少なくとも1つを構成要素として含む
    ことを特徴とする請求項7に記載の仮想世界処理装置。
  10. 前記仮想世界オブジェクト行動モデルは、
    オブジェクト行動を生成するための入力イベントである行動入力および入力イベントによるオブジェクト行動出力である行動出力のうち少なくとも1つを構成要素として含む
    ことを特徴とする請求項1に記載の仮想世界処理装置。
  11. 前記行動入力は、前記イベントID参照を属性として含み、
    前記行動出力は、前記のサウンドID参照、前記匂いID参照、および前記制御ID参照のうち少なくとも1つを属性として含む
    ことを特徴とする請求項10に記載の仮想世界処理装置。
  12. 前記仮想世界オブジェクトの触覚特性タイプは、
    触覚特性を特徴づけるパラメータである物質特性、力効果を特徴づけるパラメータであるダイナミック力効果、および触知特性を特徴づけるパラメータである触知特性のうち少なくとも1つを構成要素として含む
    ことを特徴とする請求項1に記載の仮想世界処理装置。
  13. 前記物質特性は、
    仮想世界オブジェクトの剛性、仮想世界オブジェクトの静止摩擦、仮想世界オブジェクトの動摩擦、仮想世界オブジェクトの湿っぽさ、触覚質感ファイルとしてのリンクを含む質感、および仮想世界オブジェクトの質量のうち少なくとも1つを属性として含む
    ことを特徴とする請求項12に記載の仮想世界処理装置。
  14. 前記ダイナミック力効果は、
    力フィールドベクトルファイルとしてのリンクを含む力フィールドおよび力軌道ファイルとしてのリンクを含む動き軌道のうち少なくとも1つを属性として含む
    ことを特徴とする請求項12に記載の仮想世界処理装置。
  15. 前記触知特性は、
    仮想世界オブジェクトの温度、仮想世界オブジェクトの振動、仮想世界オブジェクトの電流、および触知パターンファイルとしてのリンクを含む触知パターンのうち少なくとも1つを属性として含む
    ことを特徴とする請求項12に記載の仮想世界処理装置。
JP2015037251A 2009-06-25 2015-02-26 仮想世界処理装置および方法 Expired - Fee Related JP5956002B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2009-0057312 2009-06-25
KR20090057312 2009-06-25
KR1020090100365A KR20100138700A (ko) 2009-06-25 2009-10-21 가상 세계 처리 장치 및 방법
KR10-2009-0100365 2009-10-21
KR10-2009-0103038 2009-10-28
KR1020090103038A KR20100138704A (ko) 2009-06-25 2009-10-28 가상 세계 처리 장치 및 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012517391A Division JP5706408B2 (ja) 2009-06-25 2010-06-25 仮想世界処理装置および方法

Publications (2)

Publication Number Publication Date
JP2015146194A JP2015146194A (ja) 2015-08-13
JP5956002B2 true JP5956002B2 (ja) 2016-07-20

Family

ID=43512135

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012517391A Expired - Fee Related JP5706408B2 (ja) 2009-06-25 2010-06-25 仮想世界処理装置および方法
JP2015037251A Expired - Fee Related JP5956002B2 (ja) 2009-06-25 2015-02-26 仮想世界処理装置および方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012517391A Expired - Fee Related JP5706408B2 (ja) 2009-06-25 2010-06-25 仮想世界処理装置および方法

Country Status (6)

Country Link
US (1) US20120188256A1 (ja)
EP (1) EP2453414A4 (ja)
JP (2) JP5706408B2 (ja)
KR (3) KR20100138700A (ja)
CN (1) CN102483856A (ja)
WO (1) WO2010151070A2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106984041B (zh) * 2011-02-11 2021-07-06 漳州市舟锋电子科技有限公司 一种人机互动控制系统
US9767720B2 (en) * 2012-06-25 2017-09-19 Microsoft Technology Licensing, Llc Object-centric mixed reality space
US10163420B2 (en) 2014-10-10 2018-12-25 DimensionalMechanics, Inc. System, apparatus and methods for adaptive data transport and optimization of application execution
US10062354B2 (en) 2014-10-10 2018-08-28 DimensionalMechanics, Inc. System and methods for creating virtual environments
US9846968B2 (en) 2015-01-20 2017-12-19 Microsoft Technology Licensing, Llc Holographic bird's eye view camera
WO2016199451A1 (ja) * 2015-06-12 2016-12-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
US10127725B2 (en) 2015-09-02 2018-11-13 Microsoft Technology Licensing, Llc Augmented-reality imaging
US9711015B2 (en) * 2015-09-16 2017-07-18 Immersion Corporation Customizing haptic feedback in live events
US10962780B2 (en) 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
US10338687B2 (en) * 2015-12-03 2019-07-02 Google Llc Teleportation in an augmented and/or virtual reality environment
DE102016106993A1 (de) 2016-04-15 2017-10-19 Carl Zeiss Microscopy Gmbh Steuer- und Konfiguriereinheit sowie Verfahren zum Steuern und Konfigurieren eines Mikroskops
US11468111B2 (en) 2016-06-01 2022-10-11 Microsoft Technology Licensing, Llc Online perspective search for 3D components
US9980078B2 (en) * 2016-10-14 2018-05-22 Nokia Technologies Oy Audio object modification in free-viewpoint rendering
KR20180096937A (ko) * 2017-02-22 2018-08-30 삼성전자주식회사 전자 장치 및 그 제어 방법
US10861221B2 (en) * 2017-07-14 2020-12-08 Electronics And Telecommunications Research Institute Sensory effect adaptation method, and adaptation engine and sensory device to perform the same
KR101987090B1 (ko) * 2017-10-31 2019-06-10 용비에이티(주) 드론을 제어하는 방법 및 이를 위한 증강현실 관광 시스템
JP2019139465A (ja) * 2018-02-09 2019-08-22 ソニー株式会社 制御装置、制御方法及びプログラム
JP6778227B2 (ja) * 2018-03-05 2020-10-28 株式会社スクウェア・エニックス 映像表示システム、映像表示方法及び映像表示プログラム
CN110348198B (zh) 2019-06-21 2024-04-12 华为技术有限公司 仿真对象的身份识别方法、相关装置及系统
WO2023100618A1 (ja) * 2021-11-30 2023-06-08 富士フイルム株式会社 画像ファイル、生成装置、及びデータ処理方法

Family Cites Families (168)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0677187B1 (en) * 1990-11-30 2002-09-18 Sun Microsystems, Inc. Improved method and apparatus for creating virtual worlds
US5602564A (en) * 1991-11-14 1997-02-11 Hitachi, Ltd. Graphic data processing system
JP3251738B2 (ja) * 1993-09-29 2002-01-28 富士通株式会社 コンピュータグラフィックスによるシミュレーション装置
US5712964A (en) * 1993-09-29 1998-01-27 Fujitsu Limited Computer graphics data display device and method based on a high-speed generation of a changed image
US5615132A (en) * 1994-01-21 1997-03-25 Crossbow Technology, Inc. Method and apparatus for determining position and orientation of a moveable object using accelerometers
JP3578491B2 (ja) * 1994-09-05 2004-10-20 富士通株式会社 Cgアニメーション編集装置
US6473083B1 (en) * 1995-02-03 2002-10-29 Fujitsu Limited Computer graphics data generating apparatus, computer graphics animation editing apparatus, and animation path generating apparatus
JPH08279054A (ja) * 1995-04-07 1996-10-22 Hitachi Ltd 映像生成/表示システム
RU2109336C1 (ru) * 1995-07-14 1998-04-20 Нурахмед Нурисламович Латыпов Способ погружения пользователя в виртуальную реальность и устройство для его реализации
US6031549A (en) * 1995-07-19 2000-02-29 Extempo Systems, Inc. System and method for directed improvisation by computer controlled characters
US6437777B1 (en) * 1996-09-30 2002-08-20 Sony Corporation Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
JPH10208073A (ja) * 1997-01-16 1998-08-07 Hitachi Ltd 仮想現実作成装置
EP0890926A1 (en) * 1997-01-24 1999-01-13 Sony Corporation Device, method, and medium for generating graphic data
WO1998033146A1 (fr) * 1997-01-24 1998-07-30 Sony Corporation Generateur de donnees de formes, procede de generation de donnees de formes et moyens associes
DE69835314T2 (de) * 1997-04-15 2007-05-10 Hewlett-Packard Development Co., L.P., Houston Verfahren und Vorrichtung zur formatgesteuerten Interaktion zwischen Geräten
JP3042974U (ja) * 1997-04-28 1997-11-04 株式会社タカラ ペット飼育ゲーム装置
RU2120664C1 (ru) * 1997-05-06 1998-10-20 Нурахмед Нурисламович Латыпов Система для погружения пользователя в виртуальную реальность
US6377263B1 (en) * 1997-07-07 2002-04-23 Aesthetic Solutions Intelligent software components for virtual worlds
US6023270A (en) * 1997-11-17 2000-02-08 International Business Machines Corporation Delivery of objects in a virtual world using a descriptive container
US6188403B1 (en) * 1997-11-21 2001-02-13 Portola Dimensional Systems, Inc. User-friendly graphics generator using direct manipulation
JPH11212934A (ja) * 1998-01-23 1999-08-06 Sony Corp 情報処理装置および方法、並びに提供媒体
US6088698A (en) * 1998-02-27 2000-07-11 Oracle Corporation Method and apparatus for incrementally generating a virtual three-dimensional world
JP3715435B2 (ja) * 1998-06-30 2005-11-09 株式会社東芝 情報加工方法および情報加工装置および記録媒体
US6915301B2 (en) * 1998-08-25 2005-07-05 International Business Machines Corporation Dynamic object properties
JP2000113220A (ja) * 1998-09-30 2000-04-21 Sony Corp 情報処理装置および方法、並びに提供媒体
JP4232231B2 (ja) * 1998-09-30 2009-03-04 ソニー株式会社 情報処理装置および方法、並びに記録媒体
US6414679B1 (en) * 1998-10-08 2002-07-02 Cyberworld International Corporation Architecture and methods for generating and displaying three dimensional representations
JP2000207578A (ja) * 1998-11-09 2000-07-28 Sony Corp 情報処理装置および方法、並びに提供媒体
US9183306B2 (en) * 1998-12-18 2015-11-10 Microsoft Technology Licensing, Llc Automated selection of appropriate information based on a computer user's context
JP2000250688A (ja) * 1999-02-25 2000-09-14 Atsushi Matsushita 実感可能な仮想空間システム
JP4006873B2 (ja) * 1999-03-11 2007-11-14 ソニー株式会社 情報処理システム、情報処理方法及び装置、並びに情報提供媒体
US6563503B1 (en) * 1999-05-07 2003-05-13 Nintendo Co., Ltd. Object modeling for computer simulation and animation
US6507353B1 (en) * 1999-12-10 2003-01-14 Godot Huard Influencing virtual actors in an interactive environment
US6452598B1 (en) * 2000-01-18 2002-09-17 Sony Corporation System and method for authoring and testing three-dimensional (3-D) content based on broadcast triggers using a standard VRML authoring tool
US6545682B1 (en) * 2000-05-24 2003-04-08 There, Inc. Method and apparatus for creating and customizing avatars using genetic paradigm
US6952716B1 (en) * 2000-07-12 2005-10-04 Treehouse Solutions, Inc. Method and system for presenting data over a network based on network user choices and collecting real-time data related to said choices
US20020024517A1 (en) * 2000-07-14 2002-02-28 Komatsu Ltd. Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space
US20030097657A1 (en) * 2000-09-14 2003-05-22 Yiming Zhou Method and system for delivery of targeted programming
US7409647B2 (en) * 2000-09-19 2008-08-05 Technion Research & Development Foundation Ltd. Control of interactions within virtual environments
JP2002207685A (ja) * 2000-10-12 2002-07-26 Sony Computer Entertainment Inc 仮想世界システム、サーバコンピュータおよび情報処理装置
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP2002197376A (ja) 2000-12-27 2002-07-12 Fujitsu Ltd ユーザに応じてカストマイズされた仮想世界を提供する方法および装置
US6959114B2 (en) * 2001-02-28 2005-10-25 Samsung Electronics Co., Ltd. Encoding method and apparatus of deformation information of 3D object
US6765569B2 (en) * 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
ES2187353B1 (es) * 2001-06-15 2004-08-16 Consultores Ub 57, S.L. Interfaz dinamico de navegacion.
US20040243424A1 (en) * 2001-08-10 2004-12-02 Young-Seok Jeong Method and system for providing consulting service using virtual item and incentive
JP3732168B2 (ja) * 2001-12-18 2006-01-05 株式会社ソニー・コンピュータエンタテインメント 仮想世界におけるオブジェクトの表示装置、表示システム及び表示方法、ならびにそれらを利用可能な仮想世界における地価及び広告料の設定方法
US7271809B2 (en) * 2002-02-19 2007-09-18 Eastman Kodak Company Method for using viewing time to determine affective information in an imaging system
US20150135214A1 (en) * 2002-05-10 2015-05-14 Convergent Media Solutions Llc Method and apparatus for browsing using alternative linkbases
KR20030088694A (ko) * 2002-05-14 2003-11-20 (주) 인포웹 동시표현이 가능한 아바타와 이것을 적용한아이템/개인가상공간 구현 방법
KR100443553B1 (ko) * 2002-12-06 2004-08-09 한국전자통신연구원 가상 캐릭터 제어 방법 및 시스템과 기록 매체
US20040041818A1 (en) * 2002-08-29 2004-03-04 Jvolution Limited Design system for website text graphics
JP2004135051A (ja) * 2002-10-10 2004-04-30 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、記録媒体、並びにプログラム
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP3880504B2 (ja) * 2002-10-28 2007-02-14 インターナショナル・ビジネス・マシーンズ・コーポレーション 構造化・階層化コンテンツ用処理装置、構造化・階層化コンテンツ用処理方法、及びプログラム
CN100428218C (zh) * 2002-11-13 2008-10-22 北京航空航天大学 一种实现通用虚拟环境漫游引擎的方法
US7173623B2 (en) * 2003-05-09 2007-02-06 Microsoft Corporation System supporting animation of graphical display elements through animation object instances
US8072470B2 (en) * 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
GB2404315A (en) * 2003-07-22 2005-01-26 Kelseus Ltd Controlling a virtual environment
EP1665075A4 (en) * 2003-09-27 2010-12-01 Korea Electronics Telecomm PACKET METADATA AND TARGETING / SYNCHRONIZING SERVICE DELIVERY SYSTEM USING THE SAME
US7719563B2 (en) * 2003-12-11 2010-05-18 Angus Richards VTV system
JP2007521588A (ja) * 2004-02-06 2007-08-02 セコイア メディア グループ、エルシー 自動マルチメディアオブジェクトモデル
US20050198617A1 (en) * 2004-03-04 2005-09-08 Vivcom, Inc. Graphically browsing schema documents described by XML schema
US7937253B2 (en) * 2004-03-05 2011-05-03 The Procter & Gamble Company Virtual prototyping system and method
KR20070043993A (ko) * 2004-08-02 2007-04-26 코닌클리케 필립스 일렉트로닉스 엔.브이. 가상 객체를 모델링하는 것을 가능하게 하는 방법
US7411590B1 (en) * 2004-08-09 2008-08-12 Apple Inc. Multimedia file format
CA2578479A1 (en) * 2004-08-31 2006-03-09 Information In Place, Inc. Object oriented mixed reality and video game authoring tool system and method
WO2006050198A2 (en) * 2004-10-28 2006-05-11 Accelerated Pictures, Llc Client/server-based animation software, systems and methods
GB0425987D0 (en) * 2004-11-26 2004-12-29 Tv Sports Network Ltd Surround vision
US8096882B2 (en) * 2005-02-04 2012-01-17 The Invention Science Fund I, Llc Risk mitigation in a virtual world
US7468729B1 (en) * 2004-12-21 2008-12-23 Aol Llc, A Delaware Limited Liability Company Using an avatar to generate user profile information
US20070118420A1 (en) * 2005-02-04 2007-05-24 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Context determinants in virtual world environment
CN102281465B (zh) * 2005-03-02 2014-12-24 松下电器产业株式会社 分发系统、分发装置及分发系统中的发送方法和接收方法
US7412389B2 (en) * 2005-03-02 2008-08-12 Yang George L Document animation system
US20090066641A1 (en) * 2005-03-10 2009-03-12 Motus Corporation Methods and Systems for Interpretation and Processing of Data Streams
US7707547B2 (en) * 2005-03-11 2010-04-27 Aptana, Inc. System and method for creating target byte code
US7844958B2 (en) * 2005-03-11 2010-11-30 Aptana, Inc. System and method for creating target byte code
JP4856168B2 (ja) * 2005-04-08 2012-01-18 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート ツールパック構造及びコンテンツ実行デバイス
GB0510890D0 (en) * 2005-05-27 2005-07-06 Overview Ltd Apparatus, system and method for processing and transferring captured video data
JP4890552B2 (ja) * 2005-08-29 2012-03-07 エブリックス・テクノロジーズ・インコーポレイテッド モバイル画像認識を介した双方向性
US7775885B2 (en) * 2005-10-14 2010-08-17 Leviathan Entertainment, Llc Event-driven alteration of avatars
US7806758B2 (en) * 2005-10-14 2010-10-05 Leviathan Entertainment, Llc Video game including child character generation using combination of parent character attributes
CA2631412A1 (en) * 2005-11-28 2007-05-31 L-3 Communications Corporation Distributed physics based training system and methods
US20080005194A1 (en) * 2006-05-05 2008-01-03 Lockheed Martin Corporation System and method for immutably cataloging and storing electronic assets in a large scale computer system
WO2008005946A2 (en) * 2006-06-30 2008-01-10 Imagemovers Digital Llc Capturing and rendering dynamic surface deformations in human motion
KR100661052B1 (ko) * 2006-09-01 2006-12-22 (주)큐텔소프트 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법
US20080120558A1 (en) * 2006-11-16 2008-05-22 Paco Xander Nathan Systems and methods for managing a persistent virtual avatar with migrational ability
JP5177560B2 (ja) * 2006-12-13 2013-04-03 独立行政法人産業技術総合研究所 反力提示方法、および力覚提示システム
US20080162548A1 (en) * 2006-12-29 2008-07-03 Zahid Ahmed Object oriented, semantically-rich universal item information model
US8321797B2 (en) * 2006-12-30 2012-11-27 Kimberly-Clark Worldwide, Inc. Immersive visualization center for creating and designing a “total design simulation” and for improved relationship management and market research
US8341022B2 (en) * 2006-12-30 2012-12-25 Red Dot Square Solutions Ltd. Virtual reality system for environment building
US20080162261A1 (en) * 2006-12-30 2008-07-03 Velazquez Herb F Virtual reality system including personalized virtual environments
WO2008081412A1 (en) * 2006-12-30 2008-07-10 Kimberly-Clark Worldwide, Inc. Virtual reality system including viewer responsiveness to smart objects
KR100956825B1 (ko) * 2007-01-04 2010-05-11 엘지전자 주식회사 프리뷰 컨텐츠 수신방법 및 iptv 수신기
US8819079B2 (en) * 2007-02-02 2014-08-26 Rogers Family Trust System and method for defining application definition functionality for general purpose web presences
GB0703974D0 (en) * 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
US8601386B2 (en) * 2007-04-20 2013-12-03 Ingenio Llc Methods and systems to facilitate real time communications in virtual reality
US20090099474A1 (en) * 2007-10-01 2009-04-16 Pineda Jaime A System and method for combined bioelectric sensing and biosensory feedback based adaptive therapy for medical disorders
US7814154B1 (en) * 2007-06-26 2010-10-12 Qurio Holdings, Inc. Message transformations in a distributed virtual world
US8675017B2 (en) * 2007-06-26 2014-03-18 Qualcomm Incorporated Real world gaming framework
JP4989383B2 (ja) * 2007-09-10 2012-08-01 キヤノン株式会社 情報処理装置、情報処理方法
US20090079745A1 (en) * 2007-09-24 2009-03-26 Wey Fun System and method for intuitive interactive navigational control in virtual environments
US8429533B2 (en) * 2007-09-25 2013-04-23 At&T Intellectual Property I, L.P. Systems, methods, and computer readable storage media for providing virtual media environments
US8370370B2 (en) * 2007-10-15 2013-02-05 International Business Machines Corporation Bridging real-world web applications and 3D virtual worlds
US8577203B2 (en) * 2007-10-16 2013-11-05 Electronics And Telecommunications Research Institute Sensory effect media generating and consuming method and apparatus thereof
US8881254B2 (en) * 2007-11-02 2014-11-04 Magtek, Inc. Method and system for managing virtual objects in a network
US20090128555A1 (en) * 2007-11-05 2009-05-21 Benman William J System and method for creating and using live three-dimensional avatars and interworld operability
KR100993801B1 (ko) * 2007-12-05 2010-11-12 에스케이커뮤니케이션즈 주식회사 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로읽을 수 있는 기록 매체
WO2009070892A1 (en) * 2007-12-07 2009-06-11 Tom Chau Method, system, and computer program for detecting and characterizing motion
US20090158161A1 (en) * 2007-12-18 2009-06-18 Samsung Electronics Co., Ltd. Collaborative search in virtual worlds
US20090186694A1 (en) * 2008-01-17 2009-07-23 Microsoft Corporation Virtual world platform games constructed from digital imagery
US20090225075A1 (en) * 2008-03-06 2009-09-10 Bates Cary L Sharing Virtual Environments Using Multi-User Cache Data
US7962611B2 (en) * 2008-03-27 2011-06-14 International Business Machines Corporation Methods, systems and computer program products for detecting flow-level network traffic anomalies via abstraction levels
GB0806183D0 (en) * 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
US7801686B2 (en) * 2008-04-24 2010-09-21 The Invention Science Fund I, Llc Combination treatment alteration methods and systems
US8423478B2 (en) * 2008-04-24 2013-04-16 International Business Machines Corporation Preferred customer service representative presentation to virtual universe clients
US8584025B2 (en) * 2008-05-02 2013-11-12 International Business Machines Corporation Virtual world teleportation
US7870074B2 (en) * 2008-05-14 2011-01-11 International Business Machines Corporation Dynamic transferring of avatars between virtual universes
JP5246258B2 (ja) * 2008-05-30 2013-07-24 富士通株式会社 ファイル生成プログラム、ファイル生成装置およびファイル生成方法
US8161397B2 (en) * 2008-06-05 2012-04-17 Samsung Electronics Co., Ltd. Interaction between real-world digital environments and virtual worlds
US8187067B2 (en) * 2008-06-13 2012-05-29 International Business Machines Corporation Automatic transformation of inventory items in a virtual universe
US8414399B2 (en) * 2008-06-23 2013-04-09 International Business Machines Corporation User value transport mechanism across multiple virtual world environments
US20090327934A1 (en) * 2008-06-26 2009-12-31 Flypaper Studio, Inc. System and method for a presentation component
US8471843B2 (en) * 2008-07-07 2013-06-25 International Business Machines Corporation Geometric and texture modifications of objects in a virtual universe based on real world user characteristics
US20100005028A1 (en) * 2008-07-07 2010-01-07 International Business Machines Corporation Method and apparatus for interconnecting a plurality of virtual world environments
US8446414B2 (en) * 2008-07-14 2013-05-21 Microsoft Corporation Programming APIS for an extensible avatar system
KR101078641B1 (ko) * 2008-07-14 2011-11-01 명지대학교 산학협력단 감각 재생 장치에 관계된 메타데이터를 이용한 멀티미디어 응용 시스템 및 방법
US8957914B2 (en) * 2008-07-25 2015-02-17 International Business Machines Corporation Method for extending a virtual environment through registration
KR20100033954A (ko) * 2008-09-22 2010-03-31 한국전자통신연구원 실감 효과 표현 방법 및 장치
KR101562827B1 (ko) * 2008-10-23 2015-10-23 삼성전자주식회사 가상 객체 조작 장치 및 그 방법
US8411086B2 (en) * 2009-02-24 2013-04-02 Fuji Xerox Co., Ltd. Model creation using visual markup languages
US8570325B2 (en) * 2009-03-31 2013-10-29 Microsoft Corporation Filter and surfacing virtual content in virtual worlds
WO2010120137A2 (ko) * 2009-04-15 2010-10-21 한국전자통신연구원 감각 효과를 위한 메타데이터 제공 방법 및 장치, 감각 효과를 위한 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 감각 재생 방법 및 장치
US20100274817A1 (en) * 2009-04-16 2010-10-28 Bum-Suk Choi Method and apparatus for representing sensory effects using user's sensory effect preference metadata
US8363051B2 (en) * 2009-05-07 2013-01-29 International Business Machines Corporation Non-real-time enhanced image snapshot in a virtual world system
KR101671900B1 (ko) * 2009-05-08 2016-11-03 삼성전자주식회사 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체
US8469819B2 (en) * 2009-06-04 2013-06-25 Michael Parker McMain Game apparatus and game control method for controlling and representing magical ability and power of a player character in an action power control program
KR101640458B1 (ko) * 2009-06-25 2016-07-18 삼성전자주식회사 영상 장치 및 컴퓨터 판독 기록매체
KR20100138725A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
US8417660B2 (en) * 2009-07-10 2013-04-09 Medimpact Healthcare Systems, Inc. Modifying a patient adherence score
US20110010636A1 (en) * 2009-07-13 2011-01-13 International Business Machines Corporation Specification of a characteristic of a virtual universe establishment
US8682945B2 (en) * 2009-07-24 2014-03-25 Ensequence, Inc. Method and system for authoring multiple application versions based on audience qualifiers
JP5409268B2 (ja) * 2009-10-30 2014-02-05 株式会社日立ソリューションズ 情報提示装置及び携帯端末
US20110107216A1 (en) * 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
CA2686991A1 (en) * 2009-12-03 2011-06-03 Ibm Canada Limited - Ibm Canada Limitee Rescaling an avatar for interoperability in 3d virtual world environments
US8655964B2 (en) * 2009-12-14 2014-02-18 At&T Intellectual Property I, Lp Unified location and presence, communication across real and virtual worlds
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
US20110276659A1 (en) * 2010-04-05 2011-11-10 Electronics And Telecommunications Research Institute System and method for providing multimedia service in a communication system
KR101685922B1 (ko) * 2010-04-05 2016-12-13 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101835413B1 (ko) * 2010-04-13 2018-03-09 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101640043B1 (ko) * 2010-04-14 2016-07-15 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101677718B1 (ko) * 2010-04-14 2016-12-06 삼성전자주식회사 가상 세계 처리 장치 및 방법
US20120117490A1 (en) * 2010-11-10 2012-05-10 Harwood William T Methods and systems for providing access, from within a virtual world, to an external resource
US20120162372A1 (en) * 2010-12-22 2012-06-28 Electronics And Telecommunications Research Institute Apparatus and method for converging reality and virtuality in a mobile environment
WO2012166581A2 (en) * 2011-05-27 2012-12-06 Ctc Tech Corp. Creation, use and training of computer-based discovery avatars
US9053571B2 (en) * 2011-06-06 2015-06-09 Microsoft Corporation Generating computer models of 3D objects
US8892252B1 (en) * 2011-08-16 2014-11-18 The Boeing Company Motion capture tracking for nondestructive inspection
EP2745462B1 (en) * 2011-08-18 2021-10-20 Pfaqutruma Research LLC Systems and methods of virtual world interaction
ES2656868T3 (es) * 2011-10-05 2018-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dispositivo portátil, sistema y método de realidad virtual
KR101944846B1 (ko) * 2011-10-28 2019-02-01 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
WO2013119221A1 (en) * 2012-02-08 2013-08-15 Intel Corporation Augmented reality creation using a real scene
US20140015931A1 (en) * 2012-07-12 2014-01-16 Samsung Electronics Co., Ltd. Method and apparatus for processing virtual world
US20140331135A1 (en) * 2013-01-04 2014-11-06 SookBox LLC Digital content connectivity and control via a plurality of controllers that are treated as a single controller
US9497137B2 (en) * 2013-01-04 2016-11-15 Sookbox, LLC Digital content connectivity and control via a plurality of controllers that are treated discriminatively
US9230368B2 (en) * 2013-05-23 2016-01-05 Microsoft Technology Licensing, Llc Hologram anchoring and dynamic positioning
US9235051B2 (en) * 2013-06-18 2016-01-12 Microsoft Technology Licensing, Llc Multi-space connected virtual data objects
US10139623B2 (en) * 2013-06-18 2018-11-27 Microsoft Technology Licensing, Llc Virtual object orientation and visualization
US9361732B2 (en) * 2014-05-01 2016-06-07 Microsoft Technology Licensing, Llc Transitions between body-locked and world-locked augmented reality

Also Published As

Publication number Publication date
KR20100138700A (ko) 2010-12-31
EP2453414A2 (en) 2012-05-16
KR20100138704A (ko) 2010-12-31
JP2015146194A (ja) 2015-08-13
WO2010151070A2 (ko) 2010-12-29
US20120188256A1 (en) 2012-07-26
KR101710958B1 (ko) 2017-03-02
JP2012531659A (ja) 2012-12-10
JP5706408B2 (ja) 2015-04-22
CN102483856A (zh) 2012-05-30
KR20100138829A (ko) 2010-12-31
WO2010151070A3 (ko) 2011-03-31
EP2453414A4 (en) 2013-11-20

Similar Documents

Publication Publication Date Title
JP5956002B2 (ja) 仮想世界処理装置および方法
KR101671900B1 (ko) 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체
EP3040807B1 (en) Virtual sensor in a virtual environment
JP5859456B2 (ja) プレゼンテーション用カメラ・ナビゲーション
CN102184020B (zh) 用于操纵用户界面的姿势和姿势修改
CN102129551B (zh) 基于关节跳过的姿势检测
JP2019520154A (ja) ゲーミングアプリケーション中に特定のタスクをプレイするための制御モード
JP2012531658A (ja) 仮想世界処理装置および方法
CN114630738B (zh) 用于模拟感测数据和创建感知的系统和方法
US20220327755A1 (en) Artificial intelligence for capturing facial expressions and generating mesh data
KR20110114979A (ko) 가상 세계 처리 장치 및 방법
KR20100088094A (ko) 다중 입력 소스를 이용한 오브젝트 조작 장치
JP6138043B2 (ja) データ送信装置及び方法
JPH11250283A (ja) オブジェクト表現システム
JP6863678B2 (ja) プログラム及びゲーム装置
JP2000512415A (ja) コンピュータ制御システム
JP6945699B2 (ja) プログラム及びゲーム装置
US20220319088A1 (en) Facial capture artificial intelligence for training models
JP7001719B2 (ja) コンピュータプログラム、サーバ装置、端末装置、及び方法
US20230267669A1 (en) Method for generating joint-based facial rig and apparatus therefor
US20240091650A1 (en) Systems and methods for modifying user sentiment for playing a game
JP2008079748A (ja) 映像音声出力装置、映像音声出力方法、映像音声出力プログラム
Carr et al. Shadow Puppetry Using the Kinect
KR20200001871A (ko) 가상 공간의 인터랙션 3차원 가시화 시스템 및 방법
CN116774835A (zh) 基于vr手柄的虚拟环境中交互方法、设备和存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160615

R150 Certificate of patent or registration of utility model

Ref document number: 5956002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees