JP5801872B2 - 仮想世界処理装置及び方法 - Google Patents

仮想世界処理装置及び方法 Download PDF

Info

Publication number
JP5801872B2
JP5801872B2 JP2013504805A JP2013504805A JP5801872B2 JP 5801872 B2 JP5801872 B2 JP 5801872B2 JP 2013504805 A JP2013504805 A JP 2013504805A JP 2013504805 A JP2013504805 A JP 2013504805A JP 5801872 B2 JP5801872 B2 JP 5801872B2
Authority
JP
Japan
Prior art keywords
virtual world
bending
sensor
bending sensor
detection position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013504805A
Other languages
English (en)
Other versions
JP2013535039A (ja
Inventor
ジュン ハン,ジェ
ジュン ハン,ジェ
ジュ ハン,スン
ジュ ハン,スン
チョル パン,ウォン
チョル パン,ウォン
ギュン キム,ド
ギュン キム,ド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013535039A publication Critical patent/JP2013535039A/ja
Application granted granted Critical
Publication of JP5801872B2 publication Critical patent/JP5801872B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character

Description

本発明の実施形態は仮想世界処理装置及び方法に関し、より詳しくは、ベンディングセンサが測定した検出情報を仮想世界に適用する装置及び方法に関する。
最近、体感型ゲームに関する関心が高まっている。マイクロソフト社は「E3 2009」の記者会見においてゲームコンソールであるXbox360に深さ/カラーカメラとマイクアレイから構成された別途のセンサデバイスを結合し、ユーザの全身モーションキャプチャ、顔認識、音声認識技術を提供して別途のコントローラなしで仮想世界と相互作用させる「Project Natal」を発表した。また、ソニー社は、自社ゲームコンソールである「Play Station3」にカラーカメラとマーカー、超音波センサを結合した位置/方向センシング技術を適用して、コントローラのモーション軌跡を入力することで仮想世界と相互作用できる体感型ゲームモーションコントローラ「Wand」を発表した。
現実世界と仮想世界の相互作用は2種類の方向を有する。第1に、現実世界のセンサから得られたデータ情報を仮想世界に反映する方向、第2に、仮想世界から得られたデータ情報をアクチュエータ(actuator)を介して現実世界に反映する方向である。
本明細書では、ベンディングセンサを用いて現実世界からセンシングした仮想世界に適用する装置及び方法に対する新しい方案を提示する。
一実施形態に係る仮想世界処理装置は、ベンディングセンサから検出位置の角度値及び前記ベンディングセンサの特性を示すセンサ特性を受信する受信部と、前記角度値及び前記センサ特性に基づいて、前記検出位置に対応する仮想世界のオブジェクトを制御する制御情報を生成する処理部と、前記生成された制御情報を仮想世界に送信する送信部と、を備えることを特徴とする。
実施形態は、ベンディングセンサの特性に関する情報のセンサ特性を用いて、現実世界のユーザの身体部位の角度を測定した角度値を仮想世界へ伝達して現実世界と仮想世界の相互作用を実現することができる。
また、実施形態は、センサ特性及び身体部位の角度をセンシングした角度値に基づいて、身体部位に対応する仮想世界のアバターの部位を制御する制御情報を生成し、仮想世界へ伝達して現実世界と仮想世界の相互作用を実現することができる。
一実施形態に係る現実世界と仮想世界との間の情報交換を制御する仮想世界処理システムを示す図である。 本発明の一実施形態に係る仮想世界処理装置の構成を示す図である。 本発明の一実施形態に係る複数のベンディングセンサが検出位置を測定する動作を示す。 本発明の一実施形態に係る仮想世界処理装置が角度値を計算する動作を示す。 本発明の一実施形態に係るアバター制御特徴点タイプの構造を示す図である。 本発明の一実施形態に係る仮想世界処理方法を示すフローチャートである。
以下、本発明に係る実施形態を添付する図面を参照しながら詳細に説明する。しかし、本発明が実施形態によって制限されたり限定されることはない。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、一実施形態に係る現実世界と仮想世界との間の情報交換を制御する仮想世界処理システムを示す図である。図1を参照すると、本発明の一実施形態に係る仮想世界処理システムは、現実世界110、仮想世界処理装置及び仮想世界140を含む。
現実世界110は、現実世界110に関する情報を検出するセンサ、または仮想世界140に関する情報を現実世界110で実現する実感装置を示すことができる。
また、仮想世界140は、プログラムによって実現される仮想世界140それ自体、または現実世界110で実現される実感効果情報の含まれたコンテンツを再生する実感メディア再生装置を示す。
一実施形態に係るセンサは、現実世界110のユーザの動作、状態、意図、形態などに関する情報を検出して仮想世界処理装置に送信する。
実施形態に係るセンサは、センサ特性(Sensor Capability)101、センサ適応嗜好(Sensor Adaptation Preference)102、及び検出情報(Sensed Information)103を仮想世界処理装置に送信する。
センサ特性101は、センサの特性に関する情報である。センサ適応嗜好102は、センサのユーザがセンサの特性に対して嗜好の程度を示す情報である。検出情報103はセンサが現実世界110を検出した情報である。
一実施形態に係る仮想世界処理装置は、適応RV(Adaptation Real World to Virtual World)120、VWI(Virtual World Information、仮想世界情報)104、及び適応RV/VR(Adaptation Real World to Virtual World/Virtual World to Real World)130を含んでもよい。
適応RV120は、センサ特性101及びセンサ適応嗜好102に基づいてセンサが現実世界110に対して検出した検出情報103を仮想世界140に適用できる情報に変換してもよい。実施形態に係る適応RV120は、RVエンジン(real world to virtual world engine、RV engine)で実現され得る。
一実施形態に係る適応RV120は、変換された検出情報103を更に変換してVWI(Virtual World Information、仮想世界情報)104を生成してもよい。
VWI104は、仮想世界140の仮想オブジェクト(Virtual Object)に関する情報である。
適応RV/VR130は、生成されたVWI104を符号化して仮想世界140に適用される効果に対するメタデータのVWEM(Virtual World Effect Metadata、仮想世界効果メタデータ)107を生成する。実施形態に係る適応RV/VR130は、VWC(Virtual World Capabilities、仮想世界特性)105及びVWP(Virtual World Preferences、仮想世界嗜好)106に基づいてVWEM107を生成する。
VWC105は、仮想世界140の特性に関する情報である。また、VWP106は、仮想世界140の特性に対するユーザの嗜好の程度を示す情報である。
また、適応RV/VR130は、VWEM107を仮想世界140に送信する。ここで、VWEM107が仮想世界140に適用され、検出情報103に対応する効果が仮想世界140で実現され得る。
本発明の一側面によれば、仮想世界140で発生した効果イベントが現実世界110でアクチュエータ(Actuator)である実感装置によって駆動されてもよい。
仮想世界140は、仮想世界140で発生した効果イベントに関する情報の実感効果情報(Sensory Effect Information)を符号化してSEM(Sensory Effect Metadata、実感効果メタデータ)111を生成する。実施形態に係る仮想世界140は、実感効果情報を含むコンテンツを再生する実感メディア再生装置を備えてもよい。
適応RV/VR130は、SEM111に基づいて実感情報(Sensory Information)112を生成する。実感情報112は、現実世界110の実感装置で実現される効果イベントに関する情報である。
適応VR150は、現実世界110の実感装置の動作を制御するSDCmd(Sensory Device Command、実感装置命令)115に関する情報を生成する。実施形態に係る適応VR150は、SDCap(Sensory Device Capabilities、実感装置特性)113に関する情報及びUSP(User Sensory Preference、ユーザ実感嗜好)114に関する情報に基づいてSDCmd115に関する情報を生成する。
SDCap113は、実感装置の特性に関する情報である。また、USP114は、実感装置で実現される効果に対するユーザの嗜好の程度を示す情報である。
図2は、本発明の一実施形態に係る仮想世界処理装置の構成を示す図である。図2を参照すると、本発明の一実施形態に係る仮想世界処理装置200は受信部210、処理部220及び送信部230を備える。
受信部210は、ベンディングセンサ260からベンディングセンサ260が測定する検出位置の角度値及びベンディングセンサ260の特性を示すセンサ特性を受信する。
ベンディングセンサ(Bending Sensor)260は、現実世界のオブジェクトの曲がった程度を測定し検出情報(Sensed Information)を出力するセンサである。検出情報は、ベンディングセンサ260が測定した検出位置の曲がった程度(すなわち、角度)に対する測定値である。
実施形態に係るベンディングセンサ260は、検出位置に付着/結合されて検出位置の曲がった程度(すなわち、角度値)を測定する。例えば、ユーザ250がベンディングセンサ260をヒジに付着する場合、ベンディングセンサ260は、ユーザ250のヒジの曲がった程度(すなわち、ヒジの角度)を検出する。ここで、ベンディングセンサ260は、ヒジの角度値及びベンディングセンサ260のセンサ特性を仮想世界処理装置200に送信する。
一実施形態に係るベンディングセンサ260は、ユーザ250のヒジ、指関節、首、肩など、その他の関節部位に結合されて曲がった程度を測定する。
センサ特性(Sensor Capability)は、ベンディングセンサ260の特性に関する情報である。
一実施形態に係るベンディングセンサ260のセンサ特性は、最大値(maxValue)、最小値(minValue)、位置個数(Num of Locations)、位置間の距離(Distance between Location)、軸個数(numOfAxes)及びセンサ個数(numOfSensors)を含んでもよい。
最大値は、ベンディングセンサ260が測定できる最大角度値である。最小値は、ベンディングセンサ260が測定できる最小角度値である。一実施形態に係るベンディングセンサ260は最大値よりも小さく、最小値よりも大きい範囲内で検出位置の角度を測定する。
位置個数は、ベンディングセンサ260が検出する検出位置の個数を示す。本発明の一側面によれば、1つのベンディングセンサ260は、同時に複数の検出位置の曲がった程度を検出してもよく、このときの位置個数は1つのベンディングセンサ260が測定する複数の検出位置の個数であってもよい。また、実施形態に係る複数のベンディングセンサ260が複数の検出位置を測定してもよく、このときの位置個数は複数のベンディングセンサ260が測定する複数の検出位置の個数であってもよい。
位置間の距離は、ベンディングセンサ260が検出する検出位置間の距離を示す。本発明の一側面によれば、複数のベンディングセンサ260が複数の検出位置を検出してもよい。
軸個数は、ベンディングセンサが検出できる角度値の次元(Dimension)を示す。
センサ個数は、複数のベンディングセンサ260が複数の検出位置を測定する場合、複数のベンディングセンサ260が検出できるセグメント(segments)を示す。
実施形態に係るベンディングセンサ260のセンサ特性は、精度(Accuracy)及びオフセット(Offset)をさらに含んでもよい。
精度は、ベンディングセンサ260の測定誤差に関する情報である。
オフセットは、ベンディングセンサ260が測定する角度値のゼロポイント調整のための値である。
表1は、本発明の一実施形態に係るベンディングセンサ特性タイプ(Bending Sensor Capability Type)に対するXMLシンタックス(eXtensible Markup Language Syntax)を示す。ベンディングセンサ特性タイプは、ベンディングセンサ260の基本的なセンサ特性に関する情報を示す。
Figure 0005801872
表2は、一実施形態に係るベンディングセンサ特性タイプに対するセマンティック(Semantics)を示す。
Figure 0005801872
本発明の一側面によれば、センサ特性は2進数フォーマット(binary format)に符号化されたメタデータであってもよい。詳しく説明すると、一実施形態に係るベンディングセンサは、センサ特性を2進数フォーマットに符号化してメタデータを生成し、生成されたメタデータを仮想世界処理装置200に送信する。ここで、受信部210は、2進数フォーマットに符号化されたメタデータのセンサ特性を受信してもよい。
表2−2は、本発明の一実施形態に係るベンディングセンサ特性タイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 0005801872
表2−3は、本発明の一実施形態に係るベンディングセンサ特性タイプの2進符号化に対するセマンティック(Semantics)を示す。
Figure 0005801872
表2−3を参照すると、2進数フォーマットに符号化されたメタデータは位置個数(Num of Locations)、軸個数(numOfAxes)及びセンサ個数(numOfSensors)のうち少なくとも1つの属性(Attribute)に対するデータフィールド(Data Field)を含んでもよい。したがって、2進数フォーマットに符号化されたメタデータのセンサ特性は、位置個数、軸個数及びセンサ個数のうち少なくとも1つの属性に対するデータフィールドを含むことによって、データの大きさを限定することができる。
表3は、ベンディングセンサ260のセンサ特性の一例示を示す。
Figure 0005801872
表3を参照すると、一実施形態に係るベンディングセンサ260の識別子(ID)は「BS001」であってもよい。また、ベンディングセンサ260が測定できる検出位置の曲がった程度(すなわち角度)の最大値は「90.0度(Degree)」であり、最小値は「−30.0度」であってもよい。また、Number of Levelsは「2500レベル(Level)」であり、ベンディングセンサ260の精度は「0.1度」であってもよい。また、ベンディングセンサ260のオフセットは「0.05度」であってもよい。
表4は、本発明の第1実施形態に係るベンディングセンサタイプ(Bending Sensor Type)に対するXMLシンタックスを示す。ベンディングセンサタイプは、ベンディングセンサ260の検出情報に関する情報を示す。
Figure 0005801872
一実施形態に係るベンディングセンサタイプは、タイムスタンプ(TimeStamp)、単位(Unit)及び値(Value)を含んでもよい。
タイムスタンプは、ベンディングセンサ260が検出位置の角度値を測定した時の時間情報である。実施形態に係るタイムスタンプは、ベンディングセンサ260が角度値を測定する時間間隔に関する情報であってもよい。
単位は、ベンディングセンサ260が測定する角度の単位である。実施形態に係る値は「度(degree)」を含んでもよい。
値は、ベンディングセンサ260が測定した角度の値である。実施形態に係る1つの検出位置に対して複数のベンディングセンサ260が角度値を測定する場合、検出位置に対する角度値は複数のベンディングセンサ260が測定した複数の角度値の和であってもよい。
以下、図3を参照して複数のベンディングセンサ260が角度値を測定する動作に対して詳細に説明する。
図3は、本発明の一実施形態に係る複数のベンディングセンサが検出位置を測定する動作を示す。図3を参照すると、複数のベンディングセンサ310が検出位置320の曲がった程度(すなわち、角度値)を測定する。
ここで、複数のベンディングセンサ310が測定した個々の角度値の総和が検出位置320に対する角度値であってもよい。例えば、10個のベンディングセンサ310が検出位置320の角度値を測定する場合として、10個のベンディングセンサ310が測定した個々の角度値がそれぞれ1度、3度、5度、10度、12度、12度、9度、5度、2度及び1度の場合、検出位置320に対する角度値は、10個のベンディングセンサ310が測定した個々の角度値の総和である60度であってもよい。
再び図2を参照すると、表4−2は、第1実施形態に係るベンディングセンサタイプに対するセマンティック(Semantics)を示す。
Figure 0005801872
表4−3は、本発明の第1実施形態に係るベンディングセンサタイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 0005801872
表4−4は、本発明の第1実施形態に係るベンディングセンサタイプの2進符号化に対するセマンティック(Semantics)を示す。
Figure 0005801872
表5は、第2実施形態に係るベンディングセンサタイプ(Bending Sensor Type)に対するXMLシンタックスを示す。
Figure 0005801872
表5−2は、第2実施形態に係るベンディングセンサタイプに対するセマンティック(Semantics)を示す。
Figure 0005801872
表6は、第3実施形態に係るベンディングセンサタイプ(Bending Sensor Type)に対するXMLシンタックスを示す。
Figure 0005801872
表6−2は、第3実施形態に係るベンディングセンサタイプに対するセマンティック(Semantics)を示す。
Figure 0005801872
表7は、本発明の一実施形態に係るベンディングセンサタイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 0005801872
表7−2は、本発明の一実施形態に係るベンディングセンサタイプの2進符号化に対するセマンティック(Semantics)を示す。
Figure 0005801872
表8は、ベンディングセンサ260の検出情報の一例示を示す。
Figure 0005801872
表8を参照すると、検出情報の識別子は「bending01」であり、ベンディングセンサ260の識別子は「bendingID01」であってもよい。すなわち、「bendingID01」のベンディングセンサ260の検出情報は「bending01」であってもよい。また、ベンディングセンサ260のタイムスタンプは1秒に100クロック(100Clock Ticks per Second)の精度を有する値である「60000」であってもよい。
処理部220は、受信部210がベンディングセンサ260から受信した角度値及びセンサ特性に基づいて、検出位置に対応する仮想世界270のオブジェクト280を制御する制御情報を生成する。
例えば、ユーザ250のヒジの角度が180度から90度に変化すると、ベンディングセンサ260は角度値を測定して仮想世界処理装置200に送信する。ここで、処理部260は、角度値及びセンサ特性に基づいて検出位置(すなわち、ヒジ)に対応する仮想世界270のオブジェクト280(例えば、アバター)もヒジを動かすように制御する制御情報を生成する。
本発明の一側面によれば、ベンディングセンサ260が測定した角度値がベンディングセンサ260が測定することのできる最大値よりも小さいか同一であり、最小値よりも大きいか同一である場合、処理部220は制御情報を生成する。
実施形態に係る角度値が最大値を超過すると、処理部220は角度値として最大値を用いて制御情報を生成する。また、角度値が最小値の未満である場合、処理部220は角度値として最小値を用いて制御情報を生成する。
送信部230は、生成された制御情報を仮想世界270に送信する。
実施形態に係る送信部230は、制御情報をXML形態のメタデータに符号化して仮想世界270に送信してもよい。また、送信部230は、制御情報を2進数フォーマットのメタデータに符号化して仮想世界270に送信してもよい。また、送信部230は、制御情報をXML形態の第1メタデータに符号化し、第1メタデータを2進数フォーマットの第2メタデータに符号化して仮想世界270に送信してもよい。
本発明の一側面によれば、仮想世界処理装置200は演算部240をさらに備えてもよい。
演算部240は、第1検出位置に対する第1角度値及び第2検出位置に対する第2角度値に基づいて、前記第1検出位置と前記第2検出位置との間に位置する第3検出位置に対する第3角度値を計算する。
ここで、処理部220は、第1角度値、第2角度値、第3角度値及びセンサ特性に基づいて制御情報を生成する。
以下、図4を参照して第3角度値を計算する動作に対して詳細に説明する。
図4は、本発明の一実施形態に係る仮想世界処理装置が角度値を計算する動作を示す。図4を参照すると、本発明の一実施形態に係るベンディングセンサ410は、第1検出位置401(例えば、肩)に対する第1角度値を測定する。また、ベンディングセンサ420は第2検出位置403(例えば、手首)に対する第2角度値を測定する。
本発明の一側面によれば、仮想世界処理装置は、第1角度値及び第2角度値に基づいてベンディングセンサ410、420が測定できない第3検出位置402の第3角度値を計算してもよい。
実施形態に係る仮想世界処理装置は、第1角度値及び第2角度値の平均を第3角度値にしてもよい。
実施形態に係る仮想世界処理装置は、第1角度値及び第2角度値を格納したデータベースをさらに含み、データベースに格納された第1角度値及び第2角度値に基づいて第3角度値を計算してもよい。
図5は、本発明の一実施形態に係るアバター制御特徴点タイプの構造を示す図である。図5を参照すると、本発明の一実施形態に係るアバター制御特徴点タイプ(Avatar Control Features Type)510は、属性(Attributes)520、制御胴体部特徴点(Control Body Features)530及び制御の顔特徴点(Control Face Features)540を含んでもよい。
アバター制御特徴点情報は、仮想世界のアバターを制御するために用いられるアバターの特徴点に関する情報である。ここで、アバター制御特徴点タイプ510は、アバター制御特徴点情報の類型(Type)に関する情報である。
属性520は、アバター制御特徴点情報の属性に関する情報である。実施形態に係る属性520は、アバターを制御するために用いられる特徴点に対する名前(Name)情報を含んでもよい。
制御胴体部特徴点530は、アバターを制御するために用いられる特徴点としてアバターの胴体部の部分に含まれる特徴点を示す。
実施形態に係る制御胴体部特徴点530は、頭骨(HeadBones)531、上体骨組み(UpperBodyBones)532、下半身骨組み(DownBodyBones)533及び中体骨組み(MiddleBodyBones)534に分類される。
例えば、上体骨組み532は、アバターの手構造に対応する特徴点に関する情報を含んでもよい。
また、手構造は中首、指関節など下位構造を含んでもよい。
表9は、一実施形態に係る手構造の下位構造を示す。
Figure 0005801872
本発明の一側面によれば、仮想世界処理装置は、ベンディングセンサの検出情報に基づいて検出位置に対応するアバター制御特徴点を制御する制御情報を生成する。すなわち、ベンディングセンサが測定する検出位置は、アバター制御特徴点のうち少なくともいずれか1つに対応する。
例えば、ベンディングセンサが現実世界のユーザの手首の曲がった程度を測定する場合、仮想世界処理装置は、測定された角度値に基づいてユーザの手首に対応する仮想世界のアバターの手首の動作を制御する制御情報を生成する。
図6は、本発明の一実施形態に係る仮想世界処理方法を示すフローチャートである。図6を参照すると、本発明の一実施形態に係る仮想世界処理方法は、ベンディングセンサから検出位置の角度値及びベンディングセンサに対するセンサ特性を受信する(S610)。
ベンディングセンサ(Bending Sensor)は、現実世界のオブジェクトの曲がった程度に対する検出情報(Sensed Information)を測定するセンサである。検出情報は、ベンディングセンサが測定した検出位置の曲がった程度(すなわち、角度)に対する測定値である。
実施形態に係るベンディングセンサは、検出位置に付着/結合されて検出位置の曲がった程度(すなわち、角度値)を測定する。例えば、ユーザがベンディングセンサをヒジに付着する場合、ベンディングセンサは、ユーザのヒジの曲がった程度(すなわち、ヒジの角度)を検出してもよい。ここで、仮想世界処理方法は、ベンディングセンサからヒジの角度値及びベンディングセンサのセンサ特性を受信してもよい。
一実施形態に係るベンディングセンサは、ユーザのヒジ、指関節、首、肩など、その他関節部位に結合されて曲がった程度を測定する。
センサ特性(Sensor Capability)は、ベンディングセンサの特性に関する情報である。
一実施形態に係るベンディングセンサに対するセンサ特性は、最大値(maxValue)、最小値(minValue)、位置個数(Num of Locations)、位置間の距離(Distance between Location)、軸個数(numOfAxes)及びセンサ個数(numOfSensors)を含んでもよい。
最大値は、ベンディングセンサが測定できる最大角度値である。最小値は、ベンディングセンサが測定できる最小角度値である。一実施形態に係るベンディングセンサは最大値よりも小さく、最小値よりも大きい範囲内で検出位置の角度を測定する。
位置個数は、ベンディングセンサが検出する検出位置の個数を示す。本発明の一側面によれば、1つのベンディングセンサは、同時に複数の検出位置の曲がった程度を検出してもよく、このときの位置個数は1つのベンディングセンサが測定する複数の検出位置の個数であってもよい。また、実施形態に係る複数のベンディングセンサが複数の検出位置を測定してもよく、このときの位置個数は複数のベンディングセンサが測定する複数の検出位置の個数であってもよい。
位置間の距離は、ベンディングセンサが検出する検出位置の間の距離を示す。本発明の一側面によれば、複数のベンディングセンサが複数の検出位置を検出してもよい。
軸個数は、ベンディングセンサが検出できる角度値の次元(Dimension)を示す。
センサ個数は、複数のベンディングセンサが複数の検出位置を測定する場合、複数のベンディングセンサが検出できるセグメント(segments)を示す。
実施形態に係るベンディングセンサのセンサ特性は、精度(Accuracy)及びオフセット(Offset)をさらに含んでもよい。
精度は、ベンディングセンサの測定誤差に関する情報である。
オフセットは、ベンディングセンサが測定する角度値の零点調整のための値である。
本発明の一側面によれば、センサ特性は2進数フォーマット(binary format)に符号化されたメタデータであってもよい。一実施形態に係る2進数フォーマットに符号化されたメタデータは位置個数(Num of Locations)、軸個数(numOfAxes)及びセンサ個数(numOfSensors)のうち少なくとも1つの属性(Attribute)に対するデータフィールド(Data Field)を含んでもよい。
ベンディングセンサタイプは、ベンディングセンサが測定する検出情報に関する情報を示す。
一実施形態に係るベンディングセンサタイプは、タイムスタンプ(TimeStamp)、単位(Unit)及び値(Value)を含んでもよい。
タイムスタンプは、ベンディングセンサが検出位置の角度値を測定したときの時間情報である。実施形態に係るタイムスタンプは、ベンディングセンサが角度値を測定する時間間隔に関する情報であってもよい。
単位は、ベンディングセンサが測定する角度の単位である。実施形態に係る値は「度(degree)」を含んでもよい。
値は、ベンディングセンサが測定した角度の値である。実施形態に係る1つの検出位置に対して複数のベンディングセンサが角度値を測定する場合、検出位置に対する角度値は複数のベンディングセンサが測定した複数の角度値の和であってもよい。
仮想世界処理方法は、ベンディングセンサから受信した角度値及びセンサ特性に基づいて検出位置に対応する仮想世界のオブジェクトを制御する制御情報を生成する(S620)。
例えば、ユーザのヒジの角度が180度から90度に変化すると、ベンディングセンサは角度値を測定する。ここで、仮想世界処理方法は、角度値及びセンサ特性に基づいて、検出位置(すなわち、ヒジ)に対応する仮想世界のオブジェクト(例えば、アバター)もヒジを動かすように制御する制御情報を生成する。
本発明の一側面によれば、ベンディングセンサが測定した角度値がベンディングセンサが測定できる最大値よりも小さいか同一であり、最小値よりも大きいか同一である場合、仮想世界処理方法は制御情報を生成する。
実施形態に係る角度値が最大値を超過すると、仮想世界処理方法は角度値として最大値を用いて制御情報を生成する。また、角度値が最小値の未満である場合、仮想世界処理方法は角度値として最小値を用いて制御情報を生成する。
仮想世界処理方法は、生成された制御情報を仮想世界へ送信する(S630)。
実施形態に係る仮想世界処理方法は、制御情報をXML形態のメタデータに符号化して仮想世界に送信する。また、仮想世界処理方法は、制御情報を2進数フォーマットのメタデータに符号化して仮想世界に送信する。また、仮想世界処理方法は、制御情報をXML形態の第1メタデータに符号化し、第1メタデータを2進数フォーマットの第2メタデータに符号化して仮想世界に送信する。
本発明の一側面によれば、仮想世界方法は、第1検出位置に対する第1角度値及び第2検出位置に対する第2角度値に基づいて、前記第1検出位置と前記第2検出位置との間に位置する第3検出位置に対する第3角度値を計算してもよい。ここで、仮想世界処理方法は第1角度値、第2角度値、第3角度値及びセンサ特性に基づいて制御情報を生成する。
本発明に係る実施形態は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうちの1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コード(machine code)だけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コード(higher level code)を含む。上述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアのレイヤで動作するように構成されてもよい。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
110 現実世界
120 適応RV
130 適応RV/VR
140 仮想世界

Claims (7)

  1. 第1のベンディングセンサから第1の検出位置の第1の角度値及び第2のベンディングセンサから第2の検出位置の第2の角度値を受信する受信部と、
    前記第1及び第2の角度値に基づいて、前記第1及び第2のベンディングセンサの間にある第3の検出位置の第3の角度値を計算する演算部と、
    前記第3の検出位置に対応する仮想世界のオブジェクトを制御する制御情報を生成する処理部と、
    前記生成された制御情報を仮想世界に送信する送信部と、
    を備えることを特徴とする仮想世界処理装置。
  2. 前記受信部は、前記第1のベンディングセンサの特性を示す第1のセンサ特性を前記第1のベンディングセンサから、及び前記第2のベンディングセンサの特性を示す第2のセンサ特性を前記第2のベンディングセンサから受信し、前記第1及び第2のセンサ特性は、それぞれ前記第1及び第2のベンディングセンサが測定することのできる角度値の最大値及び最小値を含み、
    前記処理部は、前記第1及び第2の角度値がそれぞれ前記第1及び第2のベンディングセンサが測定できる角度値の最大値よりも小さいか同一であり、最小値よりも大きいか同一である場合に前記制御情報を生成する
    ことを特徴とする請求項1に記載の仮想世界処理装置。
  3. 前記第1及び第2の角度値は、それぞれ前記第1及び第2の検出位置に対して複数の前記第1及び第2のベンディングセンサが前記第1及び第2の角度値を測定する場合、前記複数の第1及び第2のベンディングセンサが測定した複数の角度値の和であることを特徴とする請求項1に記載の仮想世界処理装置。
  4. 前記第1及び第2のセンサ特性は、2進数フォーマットに符号化されたメタデータであることを特徴とする請求項1に記載の仮想世界処理装置。
  5. 第1のベンディングセンサから第1の検出位置の第1の角度値及び第2のベンディングセンサから第2の検出位置の第2の角度値を受信するステップと、
    前記第1及び第2の角度値に基づいて、前記第1及び第2のベンディングセンサの間にある第3の検出位置の第3の角度値を計算するステップと
    前記第3の検出位置に対応する仮想世界のオブジェクトを制御する制御情報を生成するステップと、
    前記生成された制御情報を仮想世界に送信するステップと、
    を含むことを特徴とする仮想世界処理方法。
  6. 前記第1及び第2の角度値は、それぞれ前記第1及び第2の検出位置に対して複数の前記第1及び第2のベンディングセンサが前記第1及び第2の角度値を測定する場合、前記複数の第1及び第2のベンディングセンサが測定した複数の角度値の和であることを特徴とする請求項に記載の仮想世界処理方法。
  7. コンピュータにより実行されると、該コンピュータに請求項5又は6の方法を実行させるプログラム。
JP2013504805A 2010-04-13 2011-04-06 仮想世界処理装置及び方法 Active JP5801872B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20100033947 2010-04-13
KR10-2010-0033947 2010-04-13
KR10-2011-0024448 2011-03-18
KR1020110024448A KR101835413B1 (ko) 2010-04-13 2011-03-18 가상 세계 처리 장치 및 방법
PCT/KR2011/002408 WO2011129543A2 (ko) 2010-04-13 2011-04-06 가상 세계 처리 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015167901A Division JP6316251B2 (ja) 2010-04-13 2015-08-27 仮想世界処理装置及び方法

Publications (2)

Publication Number Publication Date
JP2013535039A JP2013535039A (ja) 2013-09-09
JP5801872B2 true JP5801872B2 (ja) 2015-10-28

Family

ID=45029517

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013504805A Active JP5801872B2 (ja) 2010-04-13 2011-04-06 仮想世界処理装置及び方法
JP2015167901A Active JP6316251B2 (ja) 2010-04-13 2015-08-27 仮想世界処理装置及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015167901A Active JP6316251B2 (ja) 2010-04-13 2015-08-27 仮想世界処理装置及び方法

Country Status (6)

Country Link
US (1) US9597592B2 (ja)
EP (1) EP2559463B1 (ja)
JP (2) JP5801872B2 (ja)
KR (1) KR101835413B1 (ja)
CN (2) CN104281262B (ja)
WO (1) WO2011129543A2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101685922B1 (ko) * 2010-04-05 2016-12-13 삼성전자주식회사 가상 세계 처리 장치 및 방법
US8610663B2 (en) 2012-02-06 2013-12-17 Lg Electronics Inc. Portable device and method for controlling the same
KR101367412B1 (ko) * 2013-06-18 2014-02-24 우석 계 가상공간에서의 물리적 효과 제어 장치 및 그 방법
CN105056525A (zh) * 2015-08-17 2015-11-18 联想(北京)有限公司 一种信息处理方法及电子设备
US20170259167A1 (en) * 2016-03-14 2017-09-14 Nathan Sterling Cook Brainwave virtual reality apparatus and method
US10627909B2 (en) * 2017-01-10 2020-04-21 Disney Enterprises, Inc. Simulation experience with physical objects
CN107344019B (zh) * 2017-07-28 2023-11-21 歌尔科技有限公司 一种虚拟现实系统
CN109579689B (zh) * 2017-09-29 2020-12-08 西门子公司 曲率测量装置
GB2569603B (en) 2017-12-21 2020-04-01 Sony Interactive Entertainment Inc Position tracking apparatus and method
JP7070245B2 (ja) * 2018-08-27 2022-05-18 富士通株式会社 情報処理装置、動作制御プログラム、及び動作制御方法
JP7359422B2 (ja) * 2018-11-07 2023-10-11 学校法人法政大学 仮想体の動作制御システム、人体拘束治具、及び仮想体の動作制御方法
CN110822661B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822642B (zh) * 2019-11-25 2021-09-14 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822641A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822643B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822647B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822649B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822646B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822645B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822644B (zh) * 2019-11-25 2021-12-03 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
JP2021089691A (ja) * 2019-12-06 2021-06-10 未來市股▲ふん▼有限公司 動作追跡システム及び動作追跡方法
EP4119308A4 (en) * 2020-03-11 2023-08-30 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228092A (ja) * 1990-02-02 1991-10-09 Hitachi Ltd 文字パターン生成方法
JPH09153151A (ja) * 1995-11-30 1997-06-10 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き生成装置
JP3862348B2 (ja) * 1997-03-19 2006-12-27 東京電力株式会社 モーションキャプチャシステム
WO1998047426A1 (en) * 1997-04-21 1998-10-29 Virtual Technologies, Inc. Goniometer-based body-tracking device and method
US6049327A (en) * 1997-04-23 2000-04-11 Modern Cartoons, Ltd System for data management based onhand gestures
US5963891A (en) * 1997-04-24 1999-10-05 Modern Cartoons, Ltd. System for tracking body movements in a virtual reality system
JPH1157212A (ja) * 1997-08-24 1999-03-02 Sony Computer Entertainment:Kk ゲーム装置、ゲーム機用操作装置、ゲームシステム及びゲーム装置の双方向通信方法
US6154199A (en) * 1998-04-15 2000-11-28 Butler; Craig L. Hand positioned mouse
US6304840B1 (en) * 1998-06-30 2001-10-16 U.S. Philips Corporation Fingerless glove for interacting with data processing system
JP2000132305A (ja) 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
CN2358435Y (zh) * 1999-03-10 2000-01-12 中国科学院自动化研究所 柔性角度传感器
JP2000329511A (ja) * 1999-05-19 2000-11-30 Sony Corp データグローブ及びこれを用いた形状認識方法
US6577952B2 (en) * 2001-01-08 2003-06-10 Motorola, Inc. Position and heading error-correction method and apparatus for vehicle navigation systems
JP3584229B2 (ja) 2001-09-28 2004-11-04 キヤノン株式会社 映像体験システムおよび情報処理方法
US20030062675A1 (en) 2001-09-28 2003-04-03 Canon Kabushiki Kaisha Image experiencing system and information processing method
US7033281B2 (en) * 2002-03-22 2006-04-25 Carnahan James V Augmented kinematic feedback device and method
CN1167996C (zh) * 2002-07-11 2004-09-22 庄胜雄 可形成虚拟追踪球的手套滑鼠
JP2004192325A (ja) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> ユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体
JP2004213350A (ja) 2002-12-27 2004-07-29 Seiko Epson Corp 力覚提示装置及び画像補正方法
CN2725994Y (zh) * 2004-05-13 2005-09-14 中国科学院自动化研究所 一种触觉反馈数据手套
JP2005337983A (ja) * 2004-05-28 2005-12-08 Spice:Kk モーションキャプチャー方法及びシステム
CN101316630A (zh) * 2005-07-15 2008-12-03 鲍尔格力德健身器材公司 等长锻炼系统和便于用户在视频游戏期间训练的方法
JP2007041660A (ja) * 2005-08-01 2007-02-15 Nec Corp センサネットワーク、センサノード及びそのプログラムと、センサ情報検索方法
US7602301B1 (en) * 2006-01-09 2009-10-13 Applied Technology Holdings, Inc. Apparatus, systems, and methods for gathering and processing biometric and biomechanical data
US20080125224A1 (en) * 2006-09-26 2008-05-29 Pollatsek David Method and apparatus for controlling simulated in flight realistic and non realistic object effects by sensing rotation of a hand-held controller
JP4647632B2 (ja) * 2007-03-06 2011-03-09 日本電信電話株式会社 センサデータ制御システム及びセンサデータ制御方法
US8675017B2 (en) 2007-06-26 2014-03-18 Qualcomm Incorporated Real world gaming framework
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
JP5108032B2 (ja) * 2008-02-01 2012-12-26 旭光電機株式会社 多関節構造体教示装置
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
JP5529400B2 (ja) * 2008-07-11 2014-06-25 任天堂株式会社 拡張操作装置

Also Published As

Publication number Publication date
KR101835413B1 (ko) 2018-03-09
JP6316251B2 (ja) 2018-04-25
JP2016026342A (ja) 2016-02-12
CN102858413A (zh) 2013-01-02
KR20110114439A (ko) 2011-10-19
EP2559463A4 (en) 2014-02-26
WO2011129543A2 (ko) 2011-10-20
CN104281262A (zh) 2015-01-14
WO2011129543A3 (ko) 2012-02-02
US20130093665A1 (en) 2013-04-18
CN104281262B (zh) 2017-08-01
EP2559463A2 (en) 2013-02-20
JP2013535039A (ja) 2013-09-09
CN102858413B (zh) 2014-10-29
US9597592B2 (en) 2017-03-21
EP2559463B1 (en) 2020-10-07

Similar Documents

Publication Publication Date Title
JP5801872B2 (ja) 仮想世界処理装置及び方法
JP4567805B2 (ja) 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置
JP5465948B2 (ja) ゲームプログラムの実行を制御するための入力を取得する方法
JP2012531658A (ja) 仮想世界処理装置および方法
Tanaka et al. A comparison of exergaming interfaces for use in rehabilitation programs and research
US8475300B2 (en) Method of evaluating a golf club
CN101438340B (zh) 用于三维输入控制的系统、方法和设备
US20060287086A1 (en) Scheme for translating movements of a hand-held controller into inputs for a system
JP2005032245A (ja) 画像に基づいたビデオゲームの制御
JP2011526192A (ja) チルト機能の感度の動的選択
US20090322888A1 (en) Integrated circuit for detecting movements of persons
KR20100138827A (ko) 가상 세계 처리 장치 및 방법
EP2022039A2 (en) Scheme for detecting and tracking user manipulation of a game controller body and for translating movements thereof into inputs and game commands
TWI476733B (zh) 運動軌跡重建方法及其裝置
KR102438347B1 (ko) 스마트 웨어러블 장치와 스마트 웨어러블 장비
US20110208494A1 (en) Method and system for simulating a handle&#39;s motion
US20150335271A1 (en) A system and method for evaluating range of motion of a subject
KR101367269B1 (ko) Psd 센서를 이용한 3차원 위치 측정 시스템 및 그의제어 방법과 발광 마커 유닛
WO2008059614A1 (fr) Programme pour commander le mouvement d&#39;un objet affiché exécuté dans un dispositif de jeu à l&#39;aide d&#39;un dispositif de pointage direct
JP5934865B2 (ja) 反復動作のパラメータをリアルタイムに決定するシステムおよび方法
KR20210022354A (ko) 가상 현실 영상 제공 방법
Rafiuzzaman et al. Distance physical rehabilitation system framework with multi-kinect motion captured data
KR101986608B1 (ko) 가상 세계 처리 장치 및 방법
WO2023176210A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
CN102058976A (zh) 用于跟踪环境中的用户操纵的系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150827

R150 Certificate of patent or registration of utility model

Ref document number: 5801872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250