JP2013529097A - 仮想世界の情報処理装置及び方法 - Google Patents

仮想世界の情報処理装置及び方法 Download PDF

Info

Publication number
JP2013529097A
JP2013529097A JP2013504804A JP2013504804A JP2013529097A JP 2013529097 A JP2013529097 A JP 2013529097A JP 2013504804 A JP2013504804 A JP 2013504804A JP 2013504804 A JP2013504804 A JP 2013504804A JP 2013529097 A JP2013529097 A JP 2013529097A
Authority
JP
Japan
Prior art keywords
value
metadata
data
flag
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013504804A
Other languages
English (en)
Other versions
JP5838196B2 (ja
Inventor
ジュ ハン,スン
ジュン ハン,ジェ
チョル パン,ウォン
ギュン キム,ド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013529097A publication Critical patent/JP2013529097A/ja
Application granted granted Critical
Publication of JP5838196B2 publication Critical patent/JP5838196B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/327Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections using wireless networks, e.g. Wi-Fi® or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00381Input by recognition or interpretation of visible user gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

仮想世界の情報処理装置及び方法が開示される。実施形態は、センサの特性に関する情報であるセンサ特性を用いて現実世界から測定した情報を仮想世界に送信して現実世界と仮想世界の相互作用を実現することができる。前記測定された情報のうち、以前に測定された情報と相異なるものだけを選択的に送信する仮想世界の情報処理装置及び方法が開示される。前記測定された情報が以前に測定された情報と多くの差がある場合、前記測定された情報全体を送信し、差の大きくない場合に前記測定された情報のうち、前記以前に測定された情報と相異なるものだけを選択的に送信する仮想世界の情報処理装置及び方法が開示される。

Description

実施形態は仮想世界の情報処理装置及び方法に関し、より具体的には、現実世界の情報を仮想世界に適用する装置及び方法に関する。
最近、体感型ゲームに関する関心が高まっている。マイクロソフト社は「E3 2009」の記者会見においてゲームコンソールであるXbox360に深度/色彩カメラとマイクアレイから構成された別途のセンサ・デバイスを結合し、ユーザの全身モーションキャプチャ、顔認識、音声認識技術を提供して別途のコントローラなしで仮想世界と相互作用させる「Project Natal」を発表した。また、ソニー社は、自社ゲームコンソールである「Play Station3」にカラーカメラとマーカー、超音波センサを結合した位置/方向センシング技術を適用して、コントローラのモーション軌跡を入力することで仮想世界と相互作用できる体感型ゲームモーションコントローラ「Wand」を発表した。
現実世界と仮想世界の相互作用は2種類の方向を有する。第1に、現実世界のセンサから得られたデータ情報を仮想世界に反映する方向、第2に、仮想世界から得られたデータ情報をアクチュエータ(actuator)を介して現実世界に反映する方向である。実施形態は、現実世界と仮想世界の相互作用を実現するため、現実世界のセンサから得られたデータを仮想世界に適用する制御システム、制御方法及び命令構造を提供する。
センサの特性に関する情報であるセンサ特性を用いて現実世界から測定した情報を仮想世界に送信して現実世界と仮想世界の相互作用を実現する実施形態を提供する。
前記測定された情報のうち、以前に測定された情報と相異なるものだけを選択的に送信する実施形態を提供する。
前記測定された情報が以前に測定された情報と多くの差がある場合、前記測定された情報全体を送信し、差の大きくない場合に前記測定された情報のうち、前記以前に測定された情報と相異なるものだけを選択的に送信する実施形態を提供する。
一実施形態に係る仮想世界の情報処理装置は、センサ特性に関する情報を出力するセンサと、前記情報に基づいてバイナリ形式のメタデータを出力するエンコーダとを含み、前記エンコーダは前記バイナリ形式のメタデータをモードに応じて第1形態または第2形態に符号化して出力し、前記第1形態のメタデータは前記情報内の項目を含み、前記第2形態のメタデータは前記情報内の項目のうち以前と異なる値を有する項目を含むことが可能である。
一実施形態に係る仮想世界の情報処理装置は、バイナリ形式のメタデータに基づいて情報を出力するデコーダと、前記情報に基づいて仮想世界に適用される情報を生成する処理部とを備え、前記デコーダは前記バイナリ形式のメタデータをモードに応じて第1形態または第2形態に復号化して出力し、前記第1形態のメタデータは前記情報内の項目を含み、前記第2形態のメタデータは前記情報内の項目のうち以前と異なる値を有する項目を含むことが可能である。
一実施形態に係る仮想世界の情報処理方法は、センサ特性に関する情報を出力するセンシングステップと、前記情報に基づいてバイナリ形式のメタデータを出力する符号化ステップとを含み、前記符号化ステップは前記バイナリ形式のメタデータをモードに応じて第1形態または第2形態に符号化して出力し、前記第1形態のメタデータは前記情報内の項目を含み、前記第2形態のメタデータは前記情報内の項目のうち以前と異なる値を有する項目を含むことが可能である。
一実施形態に係る仮想世界の情報処理方法は、バイナリ形式のメタデータに基づいて情報を出力する復号化ステップと、前記情報に基づいて仮想世界に適用される情報を生成する処理ステップとを含み、前記復号化ステップは前記バイナリ形式のメタデータをモードに応じて第1形態または第2形態に復号化して出力し、前記第1形態のメタデータは前記情報内の項目を含み、前記第2形態のメタデータは前記情報内の項目のうち以前と異なる値を有する項目を含むことが可能である。
本発明によると、実施形態は、センサの特性に関する情報であるセンサ特性を用いて現実世界から測定した情報を仮想世界に送信して現実世界と仮想世界の相互作用を実現することができる。
本発明によると、実施形態は、前記測定された情報のうち、以前に測定された情報と相異なるものだけを選択的に送信することができる。
本発明によると、実施形態は、前記測定された情報が以前に測定された情報と多くの差がある場合、前記測定された情報全体を送信し、差が大きくない場合に前記測定された情報のうち、前記以前に測定された情報と相異なるものだけを選択的に送信することができる。
一実施形態に係るセンサを用いて仮想世界のオブジェクトを操作する動作を示す図である。 一実施形態に係るセンサを用いて仮想世界のオブジェクトを操作するシステムを示す図である。 本発明の他の一実施形態に係るセンサを用いて仮想世界のオブジェクトを操作するシステムを示す図である。 本発明の一実施形態に係るセンサ及び適応RVを示す図である。 本発明の一実施形態に係るセンサ及び適応RVを示す図である。 本発明の一実施形態に係るセンサ及び適応RVを示す図である。 本発明の一実施形態に係る適応VRエンジン及びアクチュエータを示す図である。 本発明の一実施形態に係る適応VRエンジン及びアクチュエータを示す図である。 本発明の一実施形態に係る適応VRエンジン及びアクチュエータを示す図である。 一実施形態に係る仮想世界の情報処理装置の構成を示す図である。 本発明の一実施形態に係る仮想世界の情報処理装置の構成を示す図である。 本発明の一実施形態に係るノーマルモード及びアップデートモードをサポートするバイナリ形式エンコーダ及びバイナリ形式デコーダの構造図である。 本発明の一実施形態に係るバイナリ形式エンコーダから前記バイナリ形式デコーダに送信される情報メタデータの構造を示す。 本発明の一実施形態に係る仮想世界の情報処理方法の手続を説明する。
以下、本発明に係る実施形態を添付する図面を参照しながら詳説する。しかし、本発明が実施形態によって制限されたり限定されることはない。各図面に提示された同一の参照符号は同一の部材を示す。
本明細書で用いられる「オブジェクト(object)」は仮想世界で実現及び表現される事物、物体、アバター(avatar)などを含んでもよい。
以下、実施形態を添付する図面を参照しながら詳細に説明する。
図1は、一実施形態に係るセンサを用いて仮想世界のオブジェクトを操作する動作を示す図である。図1を参照すれば、一実施形態に係るセンサ100を用いて現実世界のユーザ110は、仮想世界のオブジェクト120を操作する。現実世界のユーザ110は、センサ100を通して自身の動作、状態、意図、形態などを入力し、センサ100は、ユーザ110の動作、状態、意図、形態などに関する制御情報(control information、CI)をセンサ信号に含めて仮想世界の情報処理装置送信する。
実施形態に係る現実世界のユーザ110は、人間、動物、植物、および無生物(例えば、物)とすることも可能であり、また、ユーザの周辺環境まで含むことも可能である。
図2は、一実施形態に係るセンサを用いて仮想世界のオブジェクトを操作するシステムを示す図である。図2を参照すれば、一実施形態に係る現実世界210の装置のセンサを介して入力された、現実世界210のユーザの動作、状態、意図、形態などに関する制御情報201を含むセンサ信号は仮想世界の情報処理装置に送信される。実施形態に係る現実世界210のユーザの動作、状態、意図、形態などに関する制御情報201は、センサ特性、センサ適応選好および検出情報を含む。
一実施形態に係る仮想世界の情報処理装置は、適応RV(adaptation real world to virtual world)220を含む。実施形態に係る適応RV220は、RVエンジン(real world to virtual world engine、RV engine)で実現されてもよい。適応RV220は、センサ信号に含まれている現実世界210のユーザの動作、状態、意図、形態などに関する制御情報(CI)201を用いて、現実世界210の情報を仮想世界240に適用され得る情報に変換する。
実施形態に係る適応RV220は、現実世界210のユーザの動作、状態、意図、形態などに関する制御情報201を用いてVWI(virtual world information、仮想世界情報)202を変換してもよい。
VWI202は、仮想世界240に関する情報である。例えば、VWI202は、仮想世界240のオブジェクトまたは前記オブジェクトを構成する要素に関する情報を含んでもよい。
仮想世界の情報処理装置は、適応RV220によって変換された情報203を、適応RV/VR(adaptation real world to virtual world/virtual world to real world)230を介して仮想世界240に送信する。
一実施形態に係る仮想世界の情報処理装置は、適応RV(adaptation real world to virtual world)220を含んでもよい。実施形態に係る適応RV220は、RVエンジン(real world to virtual world engine、RV engine)に実現されてもよい。適応RV220は、センサ信号に含まれている現実世界210のユーザの動作、状態、意図、形態などに関する制御情報(CI)201を用いて現実世界210の情報を仮想世界240に適用できる情報に変換する。
実施形態に係る適応RV220は、現実世界210のユーザの動作、状態、意図、形態などに関する制御情報201を用いてVWI(virtual world information、仮想世界情報)202を変換する。
VWI202は仮想世界240に関する情報である。例えば、VWI202は、仮想世界240のオブジェクトまたはオブジェクトを構成する要素に関する情報を含んでもよい。
仮想世界の情報処理装置は適応RV220によって変換された情報203を適応RV/VR(adaptation real world to virtual world/virtual world to real world)230を介して仮想世界240に送信する。
表1は図2に表示されている構成について説明する。
Figure 2013529097
図3は、本発明の他の一実施形態に係るセンサを用いて仮想世界のオブジェクトを操作するシステムを示す図である。図3を参照すると、一実施形態に係るセンサ250は、現実世界のユーザの動作、状態、意図、形態などに関する情報を収集する。センサ250から収集された情報は検出情報を含んでもよい。
実施形態に係るセンサ250は入力部を備えてもよい。入力部はセンサ適応選好を現実世界のユーザから入力される。
センサ250は、収集された情報をメタデータに符号化するメタデータエンコーダ(metadata encoder)251を含む。
メタデータエンコーダ251は、収集された情報を第1メタデータに符号化し、センサ250は第1メタデータを適応RV255に送信する。
適応RV255に含まれたメタデータデコーダ256は、センサ250から受信した第1メタデータを復号化する。
実施形態に係るメタデータエンコーダ251は、収集された情報をXML形態のデータに符号化するXMLエンコーダまたは2進(Binary)形態のデータに符号化するバイナリ形式エンコーダのうち少なくとも1つを含んでもよい。また、メタデータデコーダ256は、受信したXML形態のデータを復号化するXMLデコーダ、または受信したバイナリ形式のデータを復号化するバイナリ形式デコーダのうち少なくとも1つを含む。
以下、図4〜図6を参照して、センサ250が収集した情報を符号化する実施形態及び適応RV255が受信したデータを復号化する実施形態について説明する。
図4〜図6は、本発明の一実施形態に係るセンサ及び適応RVを示す図である。
図4を参照すると、本発明の一実施形態に係るセンサ271はXMLエンコーダ272を含む。XMLエンコーダ272は、センサ271が収集した情報(例えば、検出情報)をXML形態のデータに符号化してもよい。
また、センサ271は、XMLエンコーダ272が符号化したデータを適応RV274に送信する。
適応RV274はXMLデコーダ273を含んでもよく、XMLデコーダ273はセンサ271から受信したデータを復号化してもよい。
図5を参照すると、本発明の一実施形態に係るセンサ275は、XMLエンコーダ276及びバイナリ形式エンコーダ277を含む。XMLエンコーダ276は、センサ275が収集した情報(例えば、検出情報)をXML形態のデータに符号化してもよい。バイナリ形式エンコーダ277は、XMLエンコーダ276が符号化したデータをバイナリ形式のデータに符号化してもよい。
また、センサ275は、XMLエンコーダ276及びバイナリ形式エンコーダ277が符号化したデータを適応RV280に送信する。
適応RV280はバイナリ形式デコーダ278及びXMLデコーダ279を含んでもよく、バイナリ形式デコーダ278はセンサ275から受信したデータをXML形態のデータに復号化してもよい。また、XMLデコーダ279は、バイナリ形式デコーダ278がXML形態のデータに復号化したデータを再び復号化してもよい。
図6を参照すると、本発明の一実施形態に係るセンサ281はバイナリ形式エンコーダ282を含む。バイナリ形式エンコーダ282は、センサ281が収集した情報(例えば、検出情報)を2進形態のデータに符号化してもよい。
また、センサ281は、バイナリ形式エンコーダ282が符号化したデータを適応RV284に送信する。
適応RV284はバイナリ形式デコーダ283を含んでもよく、バイナリ形式デコーダ283はセンサ281から受信したデータを復号化してもよい。
再び図3を参照すると、適応RV255に含まれたメタデータデコーダ258は、適応VR260から受信した第2メタデータを復号化する。第2メタデータは、適応VR260に含まれたメタデータエンコーダ262が仮想世界265に関する情報を符号化したメタデータであってもよい。
実施形態に係るメタデータエンコーダ262は、仮想世界265に関する情報をXML形態のメタデータに符号化するXMLエンコーダ、または2進(Binary)形態のメタデータに符号化するバイナリ形式エンコーダのうち少なくとも1つを含んでもよい。
実施形態に係るメタデータエンコーダ262はXMLエンコーダを含み、XMLエンコーダは仮想世界265に関する情報をXML形態のデータに符号化してもよい。
また、メタデータエンコーダ262はXMLエンコーダ及びバイナリ形式エンコーダを含み、XMLエンコーダ仮想世界265に関する情報をXML形態のデータに符号化し、バイナリ形式エンコーダがXML形態のデータを再びバイナリ形式のデータに符号化してもよい。
また、メタデータエンコーダ262はバイナリ形式エンコーダを含み、バイナリ形式エンコーダは仮想世界265に関する情報をバイナリ形式のデータに符号化してもよい。
適応RV255は、メタデータデコーダ256が第1メタデータを復号化した情報及びメタデータデコーダ258が第2メタデータを復号化した情報に基づいて、仮想世界265に適用される情報を生成する。ここで、適応RV255は、第2メタデータに含まれる仮想世界オブジェクト属性(virtual world object characteristics)及び検出情報に対応するように、仮想世界265に適用される情報を生成する。
メタデータエンコーダ257は、適応RV255が生成した仮想世界265に適用される情報を第3メタデータに符号化する。また、適応RV255は第3メタデータを適応VR260に送信する。
適応VR260に含まれたメタデータデコーダ261は第3メタデータを復号化する。適応VR260は、デコードされた情報に基づいて仮想世界265のオブジェクトの属性を変換してもよい。また、適応VR260は変換された属性を仮想世界265に適用してもよい。
本発明の一側面によれば、仮想世界の情報処理のシステムは、仮想世界265に関する情報を現実世界のアクチュエータに送信し、仮想世界265の情報が現実世界に反映されるようにする。以下、図7〜図9を参照して仮想世界265の情報が現実世界に反映される実施形態について詳細に説明する。
図7〜図9は、本発明の一実施形態に係る適応VRエンジン及びアクチュエータを示す図である。
図7を参照すると、本発明の一実施形態に係る適応VRエンジン285はXMLエンコーダ286を含む。適応VRエンジン285は、図3に示す適応RV255の一実施形態として、仮想世界265に関する情報が現実世界に反映されるように仮想世界265に関する情報を現実世界のアクチュエータ288に送信する。
適応VR260は、仮想世界265のオブジェクトの属性の変化に関する情報を収集し、収集された情報を適応VRエンジン285に送信してもよい。適応VRエンジン285はXMLエンコーダ286を含み、XMLエンコーダ286は、受信した仮想世界265に関する情報をXML形態のデータに符号化してもよい。また、適応VRエンジン285は、XMLエンコーダ286が符号化したデータをアクチュエータ288に送信してもよい。
アクチュエータ288はXMLデコーダ287を含み、XMLデコーダ287は、適応VRエンジン285から受信したXML形態のデータを復号化してもよい。
アクチュエータ288は、XMLデコーダ287が復号化した情報に対応して動作する。
図8を参照すると、本発明の一実施形態に係る適応VRエンジン290は、XMLエンコーダ291及びバイナリ形式エンコーダ292を含む。
適応VR260は、仮想世界265のオブジェクトの属性の変化に関する情報を収集し、収集された情報を適応VRエンジン290に送信してもよい。適応VRエンジン290は、XMLエンコーダ291及びバイナリ形式エンコーダ292を含み、XMLエンコーダ291は、受信した仮想世界265に関する情報をXML形態のデータに符号化してもよく、バイナリ形式エンコーダ292は、XMLエンコーダ291が符号化したデータを再びバイナリ形式のデータに符号化してもよい。また、適応VRエンジン290は、バイナリ形式エンコーダ292が符号化したデータをアクチュエータ295に送信してもよい。
アクチュエータ295は、バイナリ形式デコーダ293及びXMLデコーダ294を含み、バイナリ形式デコーダ293は適応VRエンジン290から受信したバイナリ形式のデータをXML形態のデータに復号化してもよく、XMLデコーダ294は、バイナリ形式デコーダ293がXML形態に復号化したデータを復号化してもよい。
アクチュエータ295は、XMLデコーダ294が復号化した情報に対応して動作する。
図9を参照すると、本発明の一実施形態に係る適応VRエンジン296はバイナリ形式エンコーダ297を含む。
適応VR260は、仮想世界265のオブジェクトの属性の変化に関する情報を収集し、収集された情報を適応VRエンジン296に送信してもよい。適応VRエンジン296はバイナリ形式エンコーダ297を含み、バイナリ形式エンコーダ297は、受信した仮想世界265に関する情報をバイナリ形式のデータに符号化してもよい。また、適応VRエンジン296は、バイナリ形式エンコーダ297が符号化したデータをアクチュエータ299に送信してもよい。
アクチュエータ299はバイナリ形式デコーダ298を含み、バイナリ形式デコーダ298は、適応VRエンジン296から受信したバイナリ形式のデータを復号化してもよい。
アクチュエータ299は、バイナリ形式デコーダ298が復号化した情報に対応して動作する。
図10は、一実施形態に係る仮想世界の情報処理装置の構成を示す図である。図10を参照すると、一実施形態に係る仮想世界の情報処理装置300は格納部310及び処理部320を備える。格納部310はセンサの特性に関するセンサ特性を格納する。
センサは現実世界のユーザの動作、状態、意図または形態などを測定する装置である。センサはセンサ入力装置のように表してもよい。実施形態に係るセンサを(1)音響、音声、振動、(2)自動車、運送手段、(3)化学物、(4)電流、電位、磁気、ラジオ、(5)環境、天気、(6)フロー、(7)電離放射線、亜原子粒子、(8)ナビゲーション装置、(9)位置、角度、変位、距離、速度、加速度、(10)視覚、光、映像、(11)圧力、力、密度、レベル、(12)熱、ヒート、温度、(13)近接、存在、(14)センサ技術のようにタイプごとに分類してもよい。
表2は、センサタイプに係るセンサの実施形態を示す。下記の表に示すセンサは一実施形態に過ぎず、本発明が下記の表に示すセンサのみによって実現されるものと制限されて解釈されてはならない。
Figure 2013529097
Figure 2013529097
Figure 2013529097
Figure 2013529097
Figure 2013529097
例えば、センサタイプ(1)音響、音声、振動のマイク(Microphone)は現実世界ユーザの音声およびユーザ周辺の音声を収集する。センサタイプ(2)自動車、運送手段の速度センサは、現実世界のユーザの速度および現実世界の物体(例えば、運送手段)の速度を測定する。センサタイプ(3)化学物の酸素センサは、現実世界ユーザ周辺の空気の中の酸素比率および現実世界のユーザ周辺の液体の中の酸素比率を測定する。センサタイプ(4)電流、電位、磁気、ラジオの金属探知器は、現実世界ユーザおよび周辺の金属有無を測定する。センサタイプ(5)環境、天気のレインセンサは現実世界で雨が降るか否かを測定する。センサタイプ(6)フローのフローセンサは、現実世界における流体流動の比率を測定する。センサタイプ(7)電離放射線、亜原子粒子のシンチレータ(scintillator)は、現実世界のユーザおよびユーザ周辺の放射線比率を測定する。センサタイプ(8)ナビゲーション装置の昇降計は、現実世界のユーザおよびユーザ周辺の昇降速度を測定する。センサタイプ(9)位置、角度、変位、距離、速度、加速度の走行記録計は、現実世界の物体(例えば、運送手段)の走行距離を測定する。センサタイプ(10)視覚、光、映像の光トランジスタは、現実世界の光を測定する。センサタイプ(11)圧力、力、密度、レベルの気圧計は、現実世界の気圧を測定する。センサタイプ(12)熱、ヒート、温度のボロメータは、現実世界の輻射線を測定する。センサタイプ(13)近接、存在のモーション探知器は、現実世界のユーザの動きを測定する。センサタイプ(14)センサ技術のバイオセンサは、現実世界のユーザの生物学的な性質を測定する。
図11は、本発明の一実施形態に係る仮想世界の情報処理装置の構成を示す図である。図11を参照すれば、一実施形態に係る入力装置360は、現実世界のユーザからセンサ適応選好361が入力される。実施形態に係る入力装置360は、センサ370または仮想世界の情報処理装置350にモジュールの形態に挿入されるよう実現されてもよい。センサ適応選好361について図7から図9を参照して後述する。
センサ370は、センサ特性371および検出情報372を仮想世界の情報処理装置350に送信してもよい。
本発明の一実施形態に係る仮想世界の情報処理装置350は信号処理部351および適応部352を備える。
信号処理部351は、センサ370からセンサ特性371および検出情報372を受信し、受信したセンサ特性371および検出情報372に対する信号処理作業を行う。実施形態に係る信号処理部351は、センサ特性371および検出情報372に対してフィルタリング作業および検証作業を行う。
適応部352は入力装置360からセンサ適応選好361を受信し、受信したセンサ適応選好361に基づいて仮想世界380に適用されるように信号処理部351で信号処理した情報について適応作業を行う。また、仮想世界の情報処理装置350は、適応部352で適応作業を行った情報を仮想世界380に適用する。
センサ特性はセンサの特性に関する情報である。センサ特性基本タイプはセンサ特性の基本タイプである。実施形態に係るセンサ特性基本タイプはセンサ特性に対するメタデータの一部分として、全てのセンサに共通して適用されるセンサ特性に関するメタデータの基本タイプである。
仮想世界と現実世界との間の情報送信において、ある時点で送信されなければならない現在情報が既に送信された過去情報と大きく相異しなければ、前記現在情報のうち、前記過去情報と相異なる部分のみが送信されてもよい。一方、前記現在情報が前記過去情報と多くの部分で異なると、前記現在情報の全体が送信されてもよい。このような方式は、前記仮想世界及び前記現実世界間で送信される全体情報量を減らすための方法である。
例えば、ユーザがモーションセンサを装着した場合、前記モーションセンサに関する情報が無線に送信されることになる。ここで、ユーザが動かなければ、すなわち、前記モーションセンサに対する現在情報及び過去情報は互いに大きく異ならない。ここで、前記モーションセンサに対する全ての現在情報が送信されれば、フレームごとに前記モーションセンサに関連する全ての情報が送信されなければならない。しかし、アップデートスキーム(update scheme)、すなわち、前記現在情報及び前記過去情報間に互いに相異なる部分のみが送信される方式が使用されれば、前記モーションセンサは動かないため、前記モーションセンサに関連する命令(command)のうち、タイムスタンプを除いた異なる情報は送信されないことがある。すなわち、フレームごとにposition、orientation、velocity、angularvelocity及びacceleration、angularaccelerationに関連する情報は送信されない。したがって、無線通信送信ロード(load)が相当減少し得る。
前述の本発明の実施形態において、前記バイナリ形式エンコーダ277、282、292及び297は、前記バイナリ形式デコーダ278、283、293及び298に仮想世界と現実世界との間の情報を送信する。
前記バイナリ形式エンコーダ277、282、292及び297は前記ノーマルモード及び前記アップデートモードで作動する。
前記ノーマルモードで前記バイナリ形式エンコーダ277、282、292及び297は自身が送信された全ての情報を符号化して出力してもよい。
前記アップデートモードで前記バイナリ形式エンコーダ277、282、292及び297は、自身が送信された現在情報のうち、過去情報と相異なる部分のみを符号化して出力してもよい。
また、前記アップデートモードで前記以前形態エンコーダ277、282、292及び297は、自身が送信された現在情報と自身が以前に送信された過去情報とを比較して、前記現在情報と前記過去情報が大きく異なる場合、前記現在情報の全体を符号化して出力し、前記現在情報と前記過去情報が大きく異ならない場合、前記現在情報のうち、前記過去情報と相異なる部分のみを符号化して出力してもよい。
前記バイナリ形式デコーダ278、283、293及び298は前記ノーマルモード及び前記アップデートモードで作動する。
前記ノーマルモードで前記バイナリ形式デコーダ278、283、293及び298は、前記バイナリ形式エンコーダ277、282、292及び297から全ての情報が送信されたため、前記全ての情報を復号化して出力する。
前記アップデートモードで前記バイナリ形式デコーダ278、283、293及び298は、前記バイナリ形式エンコーダ277、282、292及び297から現在情報のうち、過去情報と相異なる部分のみが送信されてもよい。このような場合、前記バイナリ形式デコーダ278、283、293及び298は自身が送信された一部情報のみを復号化して出力してもよい。この場合、前記情報の送信された本発明の実施形態に係るシステムの他の部分が自身が以前に送信された残りの情報を用いて必要な機能を行うことになる。
また、前記バイナリ形式デコーダ278、283、293及び298は、自身が送信された一部情報を復号化し、これに自身が以前に送信された異なる情報を付加して出力してもよい。この場合、前記情報を送信される本発明の実施形態に係るシステムの他の部分は、前記ノーマルモード及び前記アップデートモードに応じる送信情報の差に対して透明に作動する。
また、前述したように、前記エンコーダ277、282、292及び297は前記アップデートモードでも現在情報の全体を出力できるため、前記デコーダ278、283、293及び298も前記アップデートモードにおいても前記現在情報の全体を復号化して出力してもよい。
図12は、本発明の一実施形態に係る前記ノーマルモード及び前記アップデートモードをサポートするバイナリ形式エンコーダ及びバイナリ形式デコーダの構造図である。
前記バイナリ形式エンコーダ410は、スイッチ420、ノーマルモード2進形態エンコード部430及びアップデートモード2進形態エンコード部440を備える。
前記スイッチ420は複数の出力ポートを備える。前記出力ポートのうちの1つは前記ノーマルモード2進形態エンコード部430の入力に、他の1つは前記アップデートモード2進形態エンコード部430の入力に接続される。前記スイッチ420は、前記バイナリ形式エンコーダ部410から入力される情報を現在のモードに応じて、前記ノーマルモード2進形態エンコード部430または前記アップデートモード2進形態エンコード部440にスイッチング(switching)して送信する。
前記ノーマルモード2進形態エンコード部430は、前述したノーマルモードにおける前記バイナリ形式エンコーダ277、282、292及び297の動作を行う。すなわち、前記ノーマルモード2進形態エンコード部430は入力された情報をノーマルモードに符号化して出力する。前記アップデートモード2進形態エンコード部440は、前述したアップデートモードにおける前記バイナリ形式エンコーダ277、282、292及び297の動作を行う。すなわち、前記アップデートモード2進形態エンコード部430は入力された情報をアップデートモードに符号化して出力する。
前記バイナリ形式デコーダ450は、ノーマルモード2進形態デコード部460、アップデートモード2進形態デコード部470及びスイッチ480を備える。
前記ノーマルモード2進形態デコード部430は、前述したノーマルモードにおける前記バイナリ形式デコーダ278、283、293及び298の動作を行う。すなわち、前記ノーマルモード2進形態デコード部460は、前記ノーマルモード2進形態エンコード部430から入力された情報をノーマルモードに復号化して出力する。前記アップデートモード2進形態デコード部470は、前述したアップデートモードにおける前記バイナリ形式デコーダ278、283、293及び298の動作を行う。すなわち、前記アップデートモード2進形態デコード部470は、前記ノーマルモード2進形態エンコード部440から入力された情報をアップデートモードに復号化して出力する。前記スイッチ480は複数の入力ポートを備えてもよい。前記入力ポートのうち1つは前記ノーマルモード2進形態デコード部460の出力に、他の1つは前記アップデートモード2進形態デコード部470の出力に接続される。前記スイッチ480は、現在のモードに応じて前記ノーマルモード2進形態デコード部460出力及び前記アップデートモード2進形態デコード部470の出力のうちの1つにスイッチングして出力する。
図13は、本発明の一実施形態に係る前記バイナリ形式エンコーダ277、282、292、297及び430から前記バイナリ形式デコーダ278、283、293、298及び460に送信される情報メタデータ500の構造を示す。前記メタデータはセンサによって収集された情報のアップデートを示すセンサアップデートメタデータであってもよい。前記メタデータは、装置によって収集された情報のアップデートを示すセンサリ(sensory)アップデートメタデータであってもよい。
前記メタデータ500は、命令タイプ(command type)510、個別タイプ(individual type)520、更新モード(updating mode)530、リストアップデート(list update)540、フラグフィールド(flag field)550及びデータフィールド(data field)560を含んでもよい。
前記命令タイプ510は、前記メタデータのタイプ(type of metadata)を示す。前記命令タイプは、例えば、4ビットの固定された長さを有してもよい。
前記個別タイプ520は、個別装置及びセンサのタイプを示す。前記個別タイプは、例えば、5ビットの固定された長さを有してもよい。
前記更新モード530は、前記バイナリ形式エンコーダ278、283、293、298及び460、及び前記バイナリ形式デコーダのモード278、283、293、298及び460を示す。すなわち、前記更新モード530の値によって前記バイナリ形式エンコーダ278、283、293、298及び460及び前記バイナリ形式デコーダのモード278、283、293、298及び460が変更される。前記モードは、ノーマルモードまたはアップデートモードであるため、1ビットの情報でモードが区分され得る。
前記更新モード530は、前記命令タイプ510の一部として含まれてもよい。すなわち、前記命令タイプ510が特定値を有する場合、前記更新モード530の役割を行うようにした実施形態が構成されてもよく、前記命令タイプ510のうち、特定ビットが前記更新モード530のビットとしての役割を行うようにした実施形態が構成されてもよい。
前記フラグフィールド550は、前記メタデータ500に含まれるフラグフィールドを示す。前記データフィールド560は、前記メタデータ500に含まれるデータフィールドを示す。
前記データは、必須(mandatory)または選択的(optional)であってもよい。選択的なデータの場合、前記データがメタデータに含まれるか否かが示されなければならない。前記フラグは、特定データがメタデータに含まれたか否かを示す。すなわち、フラグAの値が1であれば、それに対応するデータBがメタデータCに含まれ、前記フラグAの値が0であれば、前記データBがメタデータCに含まれないことがある。
前述した表現を2進表現シンタックスに表すと、下記の数式(1)の通りである。
Figure 2013529097
フラグAに対応するデータは複数であってもよい。例えば、メタデータCのフラグAに対応するデータがB及びCであれば、下記の数式(2)のような2進表現シンタックスに示す。
Figure 2013529097
フラグAに対応するデータBは下位フィールドを有してもよい。前記データBの下位データフィールドも他の下位フィールドを有してもよい。
例えば、メタデータCのフラグAにデータBが対応し、前記データBが下位フィールドとしてフラグDを有し、前記フラグDはデータEに対応する場合に下記の数式(3)のような2進表現シンタックスに示す。
Figure 2013529097
ここで、選択的データEが存在するためにはA及びDが1でなければならない。
同じ名前のフラグまたはデータが前記メタデータ500内に複数存在してもよい。このような場合、フラグまたはデータはアレイ(array)して存在して、アレイ内でエレメント(element)を特定するためのインデックス(index)を用いる。また、前記インデックスには初期化及び加減演算が適用される。
数式(4)はフラグアレイA、A[0]に対応するデータB及びA[1]に対応するデータCを含むメタデータDを示す。
Figure 2013529097
前記数式(4)をインデックスするための変数Eを用いて表すと、下記の数式(5)の通りである。
Figure 2013529097
前記数式(5)でEはまず0に初期化され、次にインデックス1を示すために1が増加された。
本発明の一実施形態に係る第1ノーマルモードは下記の説明の通りである。
送信側では全てのフラグ及び全ての必須データを含むメタデータを送信する。選択的データの場合、前記選択的データに対応するフラグの値が1である場合のみ前記メタデータに含まれて送信される。受信側では、受信した前記メタデータで全てのフラグ及び全ての必須データを抽出する。選択的データの場合、それに対応するフラグの値を検査して前記フラグの値が1である場合のみ前記選択的データを抽出する。前記フラグ、必須データ、及び選択的データの相対的な順序は予め決定されている。
本発明の一実施形態に係る第2ノーマルモードは下記の説明の通りである。
送信側では、全てのフラグ、全ての必須データ及び全ての選択的データを含むメタデータを送信する。
もし、対応するフラグの値からみると、実際に存在しない選択的データは、固定された値または任意の値を有するまま送信されるのであろう。受信側では前記選択的データのうち実際に存在しないものなどを区分して廃棄する。
本発明の一実施形態に係る第1アップデートモードは下記の説明の通りである。
送信側では、まず前記リストアップデート540のビット数を決定する。
前記ビット数は全てのフラグ及び全てのデータの個数の和になり得る。すなわち、フラグが3個、データが4個がある場合、前記リストアップデート540は7ビットで構成される。各ビットは前記フラグまたはデータに対応する。但し、常にメタデータに含まれなければならないフラグまたはデータがある場合、前記フラグまたはデータに対応するビットは除外されてもよい。
送信側では、フラグが過去の値に変更された場合、前記フラグをメタデータ500のフラグフィールド550に含ませ、リストアップデート540の前記フラグに対応するビットを1にする。前記フラグが過去の値と同じである場合、前記リストアップデート540の対応するビットは0になる。送信側では必須データが過去の値に変更された場合、前記必須データをメタデータ500のデータフィールド560に含ませ、リストアップデート540の前記必須データに対応するビットを1にする。前記必須データが過去の値と同じである場合、前記リストアップデート540の対応するビットは0になる。また、送信側では選択的データが存在して(すなわち、対応するフラグが1であり)過去の値に変更されれば、前記選択的データを前記データフィールド560に含ませ、リストアップデート540の前記選択的データに対応するビットを1にする。前記必須データが過去の値と同じである場合、前記リストアップデート540の対応するビットは0になる。
送信側は上記のように構成されたメタデータ500を受信側に送信する。
受信側ではフラグまたはデータに対応するリストアップデート540のビットが1であるかを確認する。前記ビットが1であれば、前記フラグまたはデータは変更され、前記フラグまたはデータをフラグフィールド550またはデータフィールド560で抽出する。但し、前記データが選択的データの場合、まず、前記選択的データに対応するリストアップデート540のビットが1であるかを確認した後、前記ビットが1であれば、再び前記選択的データに対応するフラグが1であるかを確認する。前記フラグの値が1であれば、受信側は前記データフィールド560から前記選択的データを抽出する。
上記のような過程において受信側は、値の変更されたフラグまたはデータを判別してもよく、前記変更されたフラグまたはデータの以前値との組合によってフラグまたはデータの値を出力する。
この場合、常に変更されたり変更が多いなどの理由によって常にメタデータに含まれなければならないフラグまたはデータ(例えば、タイムスタンプ)は、前記リストアップデート540のビットを占めることなく、常に前記フラグフィールド550またはデータフィールド560から抽出されてもよく、または、前記リストアップデート540のビットを占めるものの、前記送信側及び前記受信側は前記ビットの値を無視して常に前記フラグまたはデータが前記フラグフィールド550またはデータフィールド560に含まれたものと見なすことができる。
本発明の一実施形態に係る第2アップデートモードは下記の説明の通りである。
前記第2アップデートモードは、現在のフラグ及び過去のフラグとが一致することを前提とする。すなわち、フラグのうち、過去の値と異なるものがある場合に前述したノーマルモードに変更され、送信側及び受信側は前記ノーマルモードとして動作する。また、前記メタデータ500に含まれる選択的データは、ノーマルモードからアップデートモードに進入する時点に決定される。
フラグ及び必須データは、前記フラグフィールド550またはデータフィールド560に含まれる。ここで、フラグは、それに対応する選択的データが含まれるか否かを示すために前記フラグフィールド550に含まれるものの、前述したように前記アップデートモード中には続けて過去の値と一致するため(すなわち、変更されないため)、リストアップデート540のビットを占めない。必須データは変更されるためにリストアップデート540のビットを取得してもよく、選択的データのうち対応するフラグの値が1であることは、変更有無を示すために前記リストアップデート540のビットを占めることができる。前記ビット数は、アップデートモード進入時点で1の値を有するフラグの個数に必須データの個数を加えた数になり得る。
送信側は前記フラグを前記フラグフィールド550に含む。また、必須データのうち値が変更されたものを前記データフィールド560に含み、前記必須データに対応する前記リストアップデート540のビットを1にする。必須データのうち、値が変更されないものは前記データフィールド560に含むことなく、前記必須データに対応する前記リストアップデート540のビットは0になる。
送信側は、対応するフラグの値が1である選択的データのうち値が変更されたものを前記データフィールド560に含み、前記選択的データに対応する前記リストアップデート540のビットを1にする。前記対応するフラグの値が1である選択的データのうち、値が変更されないものは前記データフィールド560に含むことなく、前記選択的データに対応する前記リストアップデート540のビットは0になる。
受信側は、前記メタデータ500のフラグフィールド550からフラグの値を抽出する。前記抽出されたフラグの値から前記受信側は前記リストアップデート540のビットを占めるデータを確認することができる。また、受信側は、前記リストアップデート540のビットの値によって値の変更された必須データが確認され、前記リストアップデート540のビットの値及び前記抽出されたフラグの値によって値の変更された選択的データが確認される。
上記のような過程において受信側は、値が変更されたフラグまたはデータを判別してもよく、前記変更されたフラグまたはデータの以前値との組合によってフラグまたはデータの値を出力する。
図14は、本発明の一実施形態に係る仮想世界の情報処理方法の手続を説明する。まず、送信側は2進形態エンコードを行うために、現在の2進形態エンコードモードがノーマルモードであるか否かを判断する(S610)。もし、前記モードがノーマルモードであれば、前記送信側はノーマルモード2進形態符号化を行い(S620)、前記モードがアップデートモードであれば、アップデートモード2進形態符号化を行なう(S630)。送信側は前記符号化の結果であるメタデータを受信側に送信する(S640)。
受信側は、前記メタデータを受信する(S650)。受信側は、2進形態デコードがノーマルモードで行われるべきかを判断する(S660)。前記判断は前記メタデータの内容に基づく。もし、ノーマルモードで行われなければならない場合、前記受信側はノーマルモード2進形態復号化を行い(S670)、アップデートモードで行われなければならない場合はアップデートモード2進形態復号化(S680)を行ってその結果を出力する。
前述の前記送信側は、前記バイナリ形式エンコーダ278、283、293、298及び460、または前記バイナリ形式エンコーダ278、283、293、298及び460を含む仮想世界の情報処理装置であってもよく、前述の前記受信側は、前記バイナリ形式デコーダ278、283、293、298及び460または前記バイナリ形式デコーダ278、283、293、298及び460を含む仮想世界の情報処理装置であってもよい。
以下で、本発明の一実施形態で用いるメタデータの例示的な構造を記述する。前記構造は、XML表現シンタックス及び2進表現シンタックスとして記述されてもよく、前記XML表現シンタックス及び2進表現シンタックス内のエントリ(entry)は記述語構成セマンティック(descriptor components semantics)で説明される。
下記の表3は、前記命令タイプ510の用語情報及び2進表現を例示する。
Figure 2013529097
前記命令タイプ510は送信される情報、すなわち、メタデータがどのような情報を示すメタデータであるかを示す。例えば、実感情報(sensory information)は、現実世界の実感装置で実現される効果イベントに関する情報を示す。装置命令(device command)は、現実世界の実感装置の動作を制御する命令に関する情報を示す。実感装置特性(sensory device capabilities)は実感装置の特性に関する情報を示す。ユーザ実感選好(user sensory preference)はユーザの実感選好に関する情報を示す。仮想世界オブジェクト特性(virtual world object characteristics)は仮想世界上のオブジェクトの特性を示す。検出情報(sensed information)はセンサが現実世界を検出した情報を示す。センサ特性(sensor capability)はセンサの特性に関する情報を示す。
前述したように、前記の表3のReservedの2進表現のうち一部がモードを示すために用いられてもよい。すなわち、前記命令タイプ510が2進表現として0111から1111の間の特定値を有すれば、前記モードが指定されることによって本発明の一実施形態が構成される。
下記の表4は、前記命令タイプ510が装置命令、センサ特性、またはユーザセンサ選好であるとき、前記個別タイプ520が示す装置を例示する。
Figure 2013529097
下記の表5は前記命令タイプ510が検出情報または検出特性であるとき、前記個別タイプ520が示すセンサを例示する。
Figure 2013529097
下記の表6は前記更新モード530の2進表現を例示し、表7は前記更新モード530の2進表現シンタックス(syntax)を例示する。
Figure 2013529097
Figure 2013529097
前記の表7でifはupdateの値が1であれば、UpdateModeを、そうでなければNormalModeを設定する。
次に、ノーマルモードでの個別装置に対するメタデータについて説明する。下記の表8、表9及び表10はそれぞれ装置命令ベースタイプ(device command base type)のXML表現シンタックス(XML representation syntax)、2進表現シンタックス及び記述語構成セマンティック(descriptor components semantics)を例示する。
Figure 2013529097
前記の表8及び本明細書の表で用いられるXML表現は<schema xmlns=“http://www.w3.org/2001/XMLSchema”xmlns:mpeg7=“urn:mpeg:mpeg7:schema:2004”xmlns:iidl=“urn:mpeg:mpeg−v:2010:01−IIDL−NS”targetNamespace=“urn:mpeg:mpeg−v:2010:01−IIDL−NS”elementFormDefault=“qualified”attributeFormDefault=“unqualified”version=“ISO/IEC23005−x”id=“MPEG−V−IIDL.xsd”>スキーマによるのであってもよい。
Figure 2013529097
前記の表9でDeviceCommandBaseTypeはTimeStamp及びDeviceCmdBaseAttributesデータを有し、TimeStampTypeはTimeStampSelectの値に応じてAbsoluteTimeStamp、ClockTickTimeStampまたはCLockTIckTimeDeltaStampデータを有する。
前記の表9の形式で、bslbfはビットストリング左側ビット優先(bit string left bit first)を示す。ここで、左側はビットがISO/IEC15938−3で用いられる順序である。UTF−8(Unicode Transformation Format−8は、ユニコードのための可変長手文字の符号化方式によりISO10646/IETF RFC 2279に定義された。UTF−8は、ユニコード一文字を示すために1バイト〜4バイトを用いる。その他に、vluimsbf5は2つの部分に構成される最上位ビット優先可変長手の自然数(variable length unsigned integer most significant bit first)である。第1部分は、値の表現のために用いられる4−ビットビットフィールドの個数nを定義する。前記個数は「0」が最後にくるn−1個の連続的な「1」として符号化される。第2部分は、前記第1部分で特定された個数のビットフィールドを用いて符号化された整数である。uimbsfは、最上位ビット優先自然数(unsigned integer、most significant bit first)である。fsbfは浮動小数(float)(32ビット)であり、サイン(sign)ビットが最初にくる。float内のビットのセマンティックスはANSI/IEEE標準754−1985によるものである。
Figure 2013529097
下記の表11、表12及び表13は、それぞれ装置命令ベース属性(device command base attributes)のXML表現シンタックス、2進表現シンタックス、及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
前記の表12でDeviceCmdBaseAttributesTypeはidFlag、deviceIdRefFlag及びactivateFlagを有し、前記idFlagの値が1であれば、idデータを有し、前記deviceIdRefFlagの値が1であれば、deviceIdRefLengthデータ及びdeviceIdRefデータを有し、前記activateFlagの値が1であれば、activateデータを有する。
Figure 2013529097
次に、装置命令ボキャブラリー(vocabulary)について説明する。すなわち、本発明の一実施形態に係る装置命令それぞれの例示的な構成を説明する。
下記の表14、表15及び表16は、それぞれ色訂正タイプ(color correction type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
前記の表15でColorCorrectionTypeは、LoopSpatialLocatorの値kだけのSpatialLocator[i](0≦i<k)を有する。
Figure 2013529097
下記の表17、表18及び表19は、それぞれ剛体胴体タイプ(rigid body motion type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
Figure 2013529097
Figure 2013529097
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表20、表21及び表22は、それぞれ触覚タイプ(tactile type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表23、表24及び表25は、それぞれ運動感覚タイプ(kinesthetic type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
次に、ノーマルモードにおける個別センサに対するメタデータについて説明する。
下記の表26、表27及び表28は、それぞれセンサ情報ベースタイプ(sensed information base type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表29、表30及び表31は、それぞれセンサ情報ベース属性(sensed information base attribute)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表32、表33及び表34は、それぞれ位置センサタイプ(position sensor type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表35、表36及び表37は、それぞれ方位センサタイプ(orientation sensor type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表38、表39及び表40は、それぞれの速度センサタイプ(velocity sensor type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表41、表42及び表43は、それぞれ角速度センサタイプ(angular velocity sensor type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表44、表45及び表46は、それぞれ加速度センサタイプ(acceleration sensor type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表47、表48及び表49は、それぞれ角加速度センサタイプ(angular acceleration sensor type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表50、表51及び表52は、それぞれモーションセンサタイプ(motion acceleration sensor type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表53、表54及び表55は、それぞれ知能カメラタイプ(intelligent camera type)のXML表現シンタックス、2進表現シンタックス及び記述語構成セマンティックを例示する。
Figure 2013529097
Figure 2013529097
Figure 2013529097
次に、前述した第1アップデートモードにおける個別装置及びセンサに対するメタデータについて説明する。
装置命令ボキャブラリー(device command vocabulary)について説明する。
下記の表56は色訂正タイプの例示である。
Figure 2013529097
Figure 2013529097
前記ColorCorrectionDeviceUpdateは10ビットのリストアップデート540を含む。前記リストアップデート540の各ビットは、前記ColorCorrectionDeviceUpdateの特定フラグまたはデータに対応する。例えば、前記リストアップデート540の最下位ビット(ListUpdate[0])が1であれば、前記ColorCorrectionDeviceUpdateにidFlagを含み、そうでなければ前記idFlagを含まない。また、フラグidFlagに従属する選択的なデータidの場合、まず、リストアップデート540の最下位から6回目ビット(ListUpdate[5])が1であり、前記idFlagが1であれば、前記ColorCorrectionDeviceUpdateに含まれる。
また、SpitialLocatorの場合、LoopSpatialLocatorの値に応じて複数が存在することがあるが、複数のSpitialLocatorそれぞれを含む否かを示すためにUpdateMaskが含まれた。すなわち、前記UpdataMaskの複数のビットのうち、その値が1であるk番目ビットに対応するSpatialLocatior[k]が前記ColorCorrectionDeviceUpdateに含まれる。
下記の表57は剛体胴体モーションタイプの例示である。
Figure 2013529097
Figure 2013529097
Figure 2013529097
Figure 2013529097
Figure 2013529097
前記の表57でdirectionXFlagは、優先ListUpdate[11]が1であるため、MoveTowardFlagがRigidBodyMotionDeviceUpdateModeTypeに含まれ、また、ListUpdate[12]が1の値を有することでRigidBodyMotionDeviceUpdateModeTypeに含まれる。
下記の表58は触覚タイプ例示である。
Figure 2013529097
下記の表59は運動感覚タイプの例示である。
Figure 2013529097
Figure 2013529097
検出情報ボキャブラリー(sensed information vocabulary)について説明する。
下記の表60は位置センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表61は方位センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表62は速度センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表63は角速度センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表64は加速度センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表65は角加速度センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表66はモーションセンサタイプの例示である。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表67は知能カメラタイプの例示である。
Figure 2013529097
Figure 2013529097
Figure 2013529097
次に、前述した第2アップデートモードにおける個別装置及びセンサに対するメタデータについて説明する。
装置命令ボキャブラリー(device command vocabulary)について説明する。
下記の表68は色訂正タイプの例示である。
Figure 2013529097
Figure 2013529097
ColorCorrectionDeviceUpdateModeTypeはフラグを含む。すなわち、idFlag、deviceIdRefFlag、activateFlag及びintensityFlagがそれぞれ1ビットを占める。ノーマルモードでアップデートモードに変更される時点に前記フラグのうち1の値を有するフラグのためにそれぞれ1つのビットが前記ListUpdate540に割り当てられる。また、TimeStampデータのために1つのビットが前記ListUpdate540に割り当てられる。すなわち、アップデートモードに変更される時点における前記フラグの値に応じて前記ListUpdate540の長さが変わる。
idデータがColorCorrectionDeviceUpdateModeTypeに含まれたかの可否を判断しなければならない。前記idFlagの値が1であれば、前記idFlag及び前記idFlagに対応するidデータのためにListUpdate540で1ビットが割り当てられたものである。したがって、まず前記idFlagが1であるか否かが検査される。次に、前記idデータが変更されたか否かを判断するために前記idFlagに対応するListUpdate540のビットが1であるか否かを検査する。すなわち、前記idFlagが1であり、前記idFlagに対応するListUpdate540のビットが1であれば、前記idFlagに対応する前記idデータの値がメタデータに含まれる。ListUpdateのビット列のうちの1つを示すために0に初期化されたListItemNumが用いられた。
また、前記idFlagが1であれば、前記idFlagのために割り当てられた前記ListUpdate540の1ビットが検査されたものであるため、前記ListUpdate540の次のビットを検査対象にするため前記ListItemNumの値を1つ増加させる。もし、前記idFlagが0であれば、前記ListUpdate540には初めから前記idFlagのために割り当てられたビットがないものであるため、前記ListItemNumが増加しない。
下記の表69は剛体胴体モーションタイプの例示である。
Figure 2013529097
Figure 2013529097
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表70は触覚タイプの例示である。
Figure 2013529097
下記の表71は運動感覚タイプ例示である。
Figure 2013529097
Figure 2013529097
検出情報ボキャブラリー(sensed information vocabulary)について説明する。
下記の表72は位置センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表73は方位センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表74は速度センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表75は角速度センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表76は加速度センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表77は角加速度センサタイプの例示である。
Figure 2013529097
Figure 2013529097
下記の表78はモーションセンサタイプの例示である。
Figure 2013529097
Figure 2013529097
Figure 2013529097
下記の表79は知能型カメラタイプの例示である。
Figure 2013529097
Figure 2013529097
Figure 2013529097
本発明に係る実施形態は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうちの1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コード(machine code)だけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コード(higher level code)を含む。上述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアのレイヤで動作するように構成されてもよい。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
100 センサ
110 ユーザ
120 仮想世界のオブジェクト

Claims (17)

  1. センサ特性に関する情報を出力するセンサと、
    前記情報に基づいてバイナリ形式のメタデータを出力するエンコーダと、
    を含み、
    前記エンコーダは前記バイナリ形式のメタデータをモードに応じて第1形態または第2形態に符号化して出力し、前記第1形態のメタデータは前記情報内の項目を含み、前記第2形態のメタデータは前記情報内の項目のうち以前と異なる値を有する項目を含むことを特徴とする仮想世界の情報処理装置。
  2. 前記エンコーダは、
    前記情報が入力されて前記モードに応じて複数の出力ポートのうちの1つに前記情報を出力するスイッチと、
    前記スイッチの出力ポートのうちの1つに接続されて前記第1形態のメタデータを出力する第1エンコーダ部と、
    前記スイッチに出力ポートのうちの1つに接続されて前記第2形態のメタデータを出力する第2エンコーダ部と、
    を備えることを特徴とする請求項1に記載の仮想世界の情報処理装置。
  3. 前記項目はフラグ及び前記フラグに対応するデータを含み、前記第2形態のメタデータは、前記フラグ及びデータそれぞれの値が変更されたか否かを示すビットを含み、
    前記フラグは、対応するデータが存在すれば第1値を有し、そうでなければ第2値を有し、
    前記ビットは、対応する前記フラグまたは前記データが変更されれば第3値を有し、そうでなければ第4値を有し、
    前記第2形態のメタデータは対応する前記ビットの値が第3値であるフラグを含み、前記第2形態のメタデータは対応する前記ビットの値が第3値であり、対応する前記フラグの値が第1値である前記データを含むことを特徴とする請求項1に記載の仮想世界の情報処理装置。
  4. 前記項目はフラグ及び前記フラグに対応するデータを含み、
    前記フラグは、対応するデータが存在すれば第1値を有し、そうでなければ第2値を有し、
    前記第2形態のメタデータは前記フラグを含み、前記第2形態のメタデータは前記データのうち自身に対応するフラグが第1値を有するデータに対応するビットを含み、
    前記ビットは、対応する前記データが変更されれば第3値を有し、そうでなければ第4値を有し、
    前記第2形態のメタデータは、前記データのうち対応するビットが第3値を有するデータを含むことを特徴とする請求項1に記載の仮想世界の情報処理装置。
  5. バイナリ形式のメタデータに基づいて情報を出力するデコーダと、
    前記情報に基づいて仮想世界に適用される情報を生成する処理部と、
    を備え、
    前記デコーダは前記バイナリ形式のメタデータをモードに応じて第1形態または第2形態に復号化して出力し、前記第1形態のメタデータは前記情報内の項目を含み、前記第2形態のメタデータは前記情報内の項目のうち以前と異なる値を有する項目を含むことを特徴とする仮想世界の情報処理装置。
  6. 前記デコーダは、
    前記バイナリ形式のメタデータが入力されて前記第1形態に復号化して出力する第1デコーダ部と、
    前記バイナリ形式のメタデータが入力されて前記第2形態に復号化して出力する第2デコーダ部と、
    前記第1デコーダ部及び前記第2デコーダ部の出力が入力されて前記モードに応じて両出力のうちの1つを出力するスイッチと、
    を備えることを特徴とする請求項5に記載の仮想世界の情報処理装置。
  7. 前記項目はフラグ及び前記フラグに対応するデータを含み、前記第2形態のメタデータは、前記フラグ及びデータそれぞれの値が変更されたか否かを示すビットを含み、
    前記フラグは、対応するデータが存在すれば第1値を有し、そうでなければ第2値を有し、
    前記ビットは、対応する前記フラグまたは前記データが変更されれば第3値を有し、そうでなければ第4値を有し、
    前記第2形態のメタデータは対応する前記ビットの値が第3値であるフラグを含み、前記第2形態のメタデータは対応する前記ビットの値が第3値であり、対応する前記フラグの値が第1値である前記データを含むことを特徴とする請求項5に記載の仮想世界の情報処理装置。
  8. 前記項目はフラグ及び前記フラグに対応するデータを含み、
    前記フラグは、対応するデータが存在すれば第1値を有し、そうでなければ第2値を有し、
    前記第2形態のメタデータは前記フラグを含み、前記第2形態のメタデータは前記データのうち自身に対応するフラグが第1値を有するデータに対応するビットを含み、
    前記ビットは、対応する前記データが変更されれば第3値を有し、そうでなければ第4値を有し、
    前記第2形態のメタデータは、前記データのうち対応するビットが第3値を有するデータを含むことを特徴とする請求項5に記載の仮想世界の情報処理装置。
  9. センサ特性に関する情報を出力するセンシングステップと、
    前記情報に基づいてバイナリ形式のメタデータを出力する符号化ステップと、
    を含み、
    前記符号化ステップは前記バイナリ形式のメタデータをモードに応じて第1形態または第2形態に符号化して出力し、前記第1形態のメタデータは前記情報内の項目を含み、前記第2形態のメタデータは前記情報内の項目のうち以前と異なる値を有する項目を含むことを特徴とする仮想世界の情報処理方法。
  10. 前記符号化ステップは、
    前記情報が入力されて前記モードに応じて複数の出力ポートのうちの1つに前記情報を出力するスイッチングステップと、
    前記出力された情報に基づいて前記第1形態のメタデータを出力する第1符号化ステップと、
    前記出力された情報に基づいて前記第2形態のメタデータを出力する第2符号化ステップと、
    を含むことを特徴とする請求項9に記載の仮想世界の情報処理方法。
  11. 前記項目はフラグ及び前記フラグに対応するデータを含み、前記第2形態のメタデータは、前記フラグ及びデータそれぞれの値が変更されたか否かを示すビットを含み、
    前記フラグは、対応するデータが存在すれば第1値を有し、そうでなければ第2値を有し、
    前記ビットは、対応する前記フラグまたは前記データが変更されれば第3値を有し、そうでなければ第4値を有し、
    前記第2形態のメタデータは対応する前記ビットの値が第3値であるフラグを含み、前記第2形態のメタデータは対応する前記ビットの値が第3値であり、対応する前記フラグの値が第1値である前記データを含むことを特徴とする請求項9に記載の仮想世界の情報処理方法。
  12. 前記項目はフラグ及び前記フラグに対応するデータを含み、
    前記フラグは、対応するデータが存在すれば第1値を有し、そうでなければ第2値を有し、
    前記第2形態のメタデータは前記フラグを含み、前記第2形態のメタデータは前記データのうち自身に対応するフラグが第1値を有するデータに対応するビットを含み、
    前記ビットは、対応する前記データが変更されれば第3値を有し、そうでなければ第4値を有し、
    前記第2形態のメタデータは、前記データのうち対応するビットが第3値を有するデータを含むことを特徴とする請求項9に記載の仮想世界の情報処理方法。
  13. バイナリ形式のメタデータに基づいて情報を出力する復号化ステップと、
    前記情報に基づいて仮想世界に適用される情報を生成する処理ステップと、
    を含み、
    前記復号化ステップは前記バイナリ形式のメタデータをモードに応じて第1形態または第2形態に復号化して出力し、前記第1形態のメタデータは前記情報内の項目を含み、前記第2形態のメタデータは前記情報内の項目のうち以前と異なる値を有する項目を含むことを特徴とする仮想世界の情報処理方法。
  14. 前記復号化ステップは、
    前記バイナリ形式のメタデータが入力されて前記第1形態に復号化して出力する第1復号化ステップと、
    前記バイナリ形式のメタデータが入力されて前記第2形態に復号化して出力する第2復号化ステップと、
    前記第1復号化ステップの出力及び前記第2復号化ステップの出力が入力され、前記モードに応じて両出力のうちの1つを出力するスイッチングステップと、
    を含むことを特徴とする請求項13に記載の仮想世界の情報処理方法。
  15. 前記項目はフラグ及び前記フラグに対応するデータを含み、前記第2形態のメタデータは、前記フラグ及びデータそれぞれの値が変更されたか否かを示すビットを含み、
    前記フラグは、対応するデータが存在すれば第1値を有し、そうでなければ第2値を有し、
    前記ビットは、対応する前記フラグまたは前記データが変更されれば第3値を有し、そうでなければ第4値を有し、
    前記第2形態のメタデータは対応する前記ビットの値が第3値であるフラグを含み、前記第2形態のメタデータは対応する前記ビットの値が第3値であり、対応する前記フラグの値が第1値である前記データを含むことを特徴とする請求項13に記載の仮想世界の情報処理方法。
  16. 前記項目はフラグ及び前記フラグに対応するデータを含み、
    前記フラグは、対応するデータが存在すれば第1値を有し、そうでなければ第2値を有し、
    前記第2形態のメタデータは前記フラグを含み、前記第2形態のメタデータは、前記データのうち自身に対応するフラグが第1値を有するデータに対応するビットを含み、
    前記ビットは、対応する前記データが変更されれば第3値を有し、そうでなければ第4値を有し、
    前記第2形態のメタデータは、前記データのうち対応するビットが第3値を有するデータを含むことを特徴とする請求項13に記載の仮想世界の情報処理方法。
  17. 請求項9〜請求項16のいずれか一項の方法を行うプログラムを記録したコンピュータで読み出し可能な記録媒体。
JP2013504804A 2010-04-14 2011-04-06 仮想世界の情報処理装置及び方法 Active JP5838196B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2010-0034125 2010-04-14
KR1020100034125A KR101677718B1 (ko) 2010-04-14 2010-04-14 가상 세계 처리 장치 및 방법
PCT/KR2011/002407 WO2011129542A2 (ko) 2010-04-14 2011-04-06 가상 세계 처리 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2013529097A true JP2013529097A (ja) 2013-07-18
JP5838196B2 JP5838196B2 (ja) 2016-01-06

Family

ID=44799126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013504804A Active JP5838196B2 (ja) 2010-04-14 2011-04-06 仮想世界の情報処理装置及び方法

Country Status (6)

Country Link
US (1) US9612737B2 (ja)
EP (1) EP2559462A4 (ja)
JP (1) JP5838196B2 (ja)
KR (1) KR101677718B1 (ja)
CN (2) CN102869415B (ja)
WO (1) WO2011129542A2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101746453B1 (ko) * 2010-04-12 2017-06-13 삼성전자주식회사 실감 효과 처리 시스템 및 방법
KR101410410B1 (ko) * 2011-12-21 2014-06-27 주식회사 케이티 체감형 학습 장치 및 방법
TW201329877A (zh) * 2012-01-05 2013-07-16 李福文 執行虛擬人物的執行方法及應用該方法的可攜式電子裝置
US10133470B2 (en) 2012-10-09 2018-11-20 Samsung Electronics Co., Ltd. Interfacing device and method for providing user interface exploiting multi-modality
US10861221B2 (en) * 2017-07-14 2020-12-08 Electronics And Telecommunications Research Institute Sensory effect adaptation method, and adaptation engine and sensory device to perform the same
CN108121405B (zh) * 2018-01-19 2023-09-19 深圳市亿道数码技术有限公司 360度二合一笔记本控制系统
CN111507361B (zh) * 2019-01-30 2023-11-21 富士通株式会社 基于微波雷达的动作识别装置、方法及系统
KR20200131641A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상 현실 시스템의 촉감 피드백 장치
KR20200131626A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상현실 촉감 전달 글러브
KR20200131651A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상현실 반력 제공장치
KR20200131607A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상현실 촉감 전달 글러브
KR20200131630A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상현실 시스템용 글러브
KR20200131615A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상현실 촉감 전달 글러브의 위치측정장치
KR20200131637A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상 현실 시스템의 피드백 장치
KR20200131596A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상현실 반력 제공장치
KR20200131601A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상 현실 글러브의 반력 제어 액츄에이터
KR20200131647A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상현실 촉감 전달 장치
KR20200131591A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상현실 촉감 전달 장치
KR20200131587A (ko) 2019-05-14 2020-11-24 (주) 풀다이브테크놀로지 가상현실 촉감 전달 글러브
KR20220153396A (ko) * 2021-05-11 2022-11-18 삼성전자주식회사 Ar 원격 렌더링 프로세스를 위한 방법 및 장치
CN114770571B (zh) * 2022-04-01 2024-01-05 苏州大学 气动反馈机械手

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003525719A (ja) * 2000-03-06 2003-09-02 イレヴン エンジニアリング インコーポレイテッド 無線周波数遠隔ゲームコントローラ
WO2009146250A1 (en) * 2008-05-27 2009-12-03 Qualcomm Incorporated Method and system for automatically updating avatar status to indicate user's status
JP2010086400A (ja) * 2008-10-01 2010-04-15 Sharp Corp 情報処理装置、情報処理方法、および情報処理プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995020788A1 (en) * 1994-01-27 1995-08-03 Exos, Inc. Intelligent remote multimode sense and display system utilizing haptic information compression
JP3631151B2 (ja) * 2000-11-30 2005-03-23 キヤノン株式会社 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
KR100965881B1 (ko) * 2003-10-10 2010-06-24 삼성전자주식회사 비디오 데이터 인코딩 시스템 및 디코딩 시스템
US8547401B2 (en) * 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
US20060262120A1 (en) * 2005-05-19 2006-11-23 Outland Research, Llc Ambulatory based human-computer interface
US7806777B2 (en) * 2006-04-18 2010-10-05 World Golf Tour, Inc. Automatically adapting virtual equipment model
US7636645B1 (en) * 2007-06-18 2009-12-22 Ailive Inc. Self-contained inertial navigation system for interactive control using movable controllers
US20080125224A1 (en) * 2006-09-26 2008-05-29 Pollatsek David Method and apparatus for controlling simulated in flight realistic and non realistic object effects by sensing rotation of a hand-held controller
US7460725B2 (en) * 2006-11-09 2008-12-02 Calista Technologies, Inc. System and method for effectively encoding and decoding electronic information
US8675017B2 (en) 2007-06-26 2014-03-18 Qualcomm Incorporated Real world gaming framework
US8902227B2 (en) * 2007-09-10 2014-12-02 Sony Computer Entertainment America Llc Selective interactive mapping of real-world objects to create interactive virtual-world objects
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US8386918B2 (en) * 2007-12-06 2013-02-26 International Business Machines Corporation Rendering of real world objects and interactions into a virtual universe
CN101520884A (zh) * 2008-02-29 2009-09-02 国际商业机器公司 获取和回放虚拟世界中发生的事件的方法和系统
CN101639974B (zh) * 2008-07-31 2011-06-22 鸿富锦精密工业(深圳)有限公司 遥控器、电视系统及利用电视系统进行游戏的方法
US20100268745A1 (en) * 2009-04-16 2010-10-21 Bum-Suk Choi Method and apparatus for representing sensory effects using sensory device capability metadata
US8448153B1 (en) * 2009-10-29 2013-05-21 Ning Wang Encoding data and metadata for run-time checking of computer code and data serialization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003525719A (ja) * 2000-03-06 2003-09-02 イレヴン エンジニアリング インコーポレイテッド 無線周波数遠隔ゲームコントローラ
WO2009146250A1 (en) * 2008-05-27 2009-12-03 Qualcomm Incorporated Method and system for automatically updating avatar status to indicate user's status
JP2010086400A (ja) * 2008-10-01 2010-04-15 Sharp Corp 情報処理装置、情報処理方法、および情報処理プログラム

Also Published As

Publication number Publication date
CN104391638B (zh) 2018-05-08
KR101677718B1 (ko) 2016-12-06
CN104391638A (zh) 2015-03-04
US9612737B2 (en) 2017-04-04
EP2559462A2 (en) 2013-02-20
EP2559462A4 (en) 2017-05-31
WO2011129542A2 (ko) 2011-10-20
US20130088424A1 (en) 2013-04-11
KR20110114793A (ko) 2011-10-20
CN102869415A (zh) 2013-01-09
JP5838196B2 (ja) 2016-01-06
WO2011129542A3 (ko) 2012-02-02
CN102869415B (zh) 2014-12-03

Similar Documents

Publication Publication Date Title
JP5838196B2 (ja) 仮想世界の情報処理装置及び方法
JP6216512B2 (ja) 仮想世界処理装置および方法
US10529197B2 (en) Offline haptic conversion system
US20120239396A1 (en) Multimodal remote control
US20050233859A1 (en) Electronic apparatus, input device, and input method
JP2016026342A (ja) 仮想世界処理装置及び方法
JP2008516478A (ja) データストリーム内のデータを認識して処理するシステム及び方法
KR20110111781A (ko) 가상 세계 처리 장치 및 방법
EP2193427A2 (en) Platform independent communication protocol
KR101686139B1 (ko) 가상 세계 처리 장치 및 방법
WO2021205742A1 (ja) 情報処理装置及び情報処理方法、並びにコンピュータプログラム
CN108550088A (zh) 基于虚拟现实的虚拟旅游管理方法和系统
CN107071541A (zh) 用于外围上下文管理的方法和设备
KR20160133305A (ko) 제스쳐 인식 방법, 컴퓨팅 장치 및 제어 장치
Sivakumar et al. Virtual vision architecture for VIP in ubiquitous computing
Alam et al. Designing and implementation of a wireless gesture controlled robot for disabled and elderly people
US20080186220A1 (en) Terminal apparatus, electronic apparatus and multi-byte character code transmission system
CN110720089B (zh) 由用户的物理环境所触发的空间音频
KR101211622B1 (ko) 햅틱 피드백 생성장치, 햅틱 피드백 제공장치, 햅틱 피드백 제공방법, 이를 이용한 휴대용 기기 및 그 기록매체
KR101986608B1 (ko) 가상 세계 처리 장치 및 방법
Son et al. Proposal of Descriptive Approach for XR Device Sensor Data Handling and Compatibility
KR20070050283A (ko) 지능형 서비스 로봇 및 지능형 서비스 로봇의 음성 데이터전송 방법
KR20110108060A (ko) 가상 세계 처리 장치 및 방법
KR101748194B1 (ko) 통신 시스템에서 멀티미디어 서비스 제공 시스템 및 방법
Farella Ambient Intelligence, Smart Objects and Sensor Networks: Practical Experiences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151109

R150 Certificate of patent or registration of utility model

Ref document number: 5838196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250