JP2016026342A - 仮想世界処理装置及び方法 - Google Patents

仮想世界処理装置及び方法 Download PDF

Info

Publication number
JP2016026342A
JP2016026342A JP2015167901A JP2015167901A JP2016026342A JP 2016026342 A JP2016026342 A JP 2016026342A JP 2015167901 A JP2015167901 A JP 2015167901A JP 2015167901 A JP2015167901 A JP 2015167901A JP 2016026342 A JP2016026342 A JP 2016026342A
Authority
JP
Japan
Prior art keywords
sensor
bending
detection information
value
indicating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015167901A
Other languages
English (en)
Other versions
JP6316251B2 (ja
Inventor
ジュン ハン,ジェ
Jae Joon Han
ジュン ハン,ジェ
ジュ ハン,スン
Seung Ju Han
ジュ ハン,スン
チョル パン,ウォン
Won Chul Bang
チョル パン,ウォン
ギュン キム,ド
Do Kyoon Kim
ギュン キム,ド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2016026342A publication Critical patent/JP2016026342A/ja
Application granted granted Critical
Publication of JP6316251B2 publication Critical patent/JP6316251B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character

Abstract

【課題】仮想世界処理装置及び方法を提供する。
【解決手段】仮想世界と現実世界との間の相互動作のための方法は、センサ260から検出情報を受信するステップと、前記検出情報を仮想世界に適用される情報に変換するステップと、を含む。前記検出情報は、ベンディングによって検出された値の集合を示すアレイベンディング値要素を含み、検出された値の単位を示す単位属性を選択的にさらに含む。アレイベンディング値要素は、軸数及び検出位置数によって定義される。
【選択図】図2

Description

本発明の実施形態は仮想世界処理装置及び方法に関し、より詳しくは、ベンディングセンサが測定した検出情報を仮想世界に適用する装置及び方法に関する。
最近、体感型ゲームに関する関心が高まっている。マイクロソフト社は「E3 2009」の記者会見においてゲームコンソールであるXbox360に深さ/カラーカメラとマイクアレイから構成された別途のセンサデバイスを結合し、ユーザの全身モーションキャプチャ、顔認識、音声認識技術を提供して別途のコントローラなしで仮想世界と相互作用させる「Project Natal」を発表した。また、ソニー社は、自社ゲームコンソールである「Play Station3」にカラーカメラとマーカー、超音波センサを結合した位置/方向センシング技術を適用して、コントローラのモーション軌跡を入力することで仮想世界と相互作用できる体感型ゲームモーションコントローラ「Wand」を発表した。
現実世界と仮想世界の相互作用は2種類の方向を有する。第1に、現実世界のセンサから得られたデータ情報を仮想世界に反映する方向、第2に、仮想世界から得られたデータ情報をアクチュエータ(actuator)を介して現実世界に反映する方向である。
本明細書では、ベンディングセンサを用いて現実世界からセンシングした仮想世界に適用する装置及び方法に対する新しい方案を提示する。
一実施形態に係る仮想世界処理装置は、ベンディングセンサから検出位置の角度値及び前記ベンディングセンサの特性を示すセンサ特性を受信する受信部と、前記角度値及び前記センサ特性に基づいて、前記検出位置に対応する仮想世界のオブジェクトを制御する制御情報を生成する処理部と、前記生成された制御情報を仮想世界に送信する送信部と、を備えることを特徴とする。
実施形態は、ベンディングセンサの特性に関する情報のセンサ特性を用いて、現実世界のユーザの身体部位の角度を測定した角度値を仮想世界へ伝達して現実世界と仮想世界の相互作用を実現することができる。
また、実施形態は、センサ特性及び身体部位の角度をセンシングした角度値に基づいて、身体部位に対応する仮想世界のアバターの部位を制御する制御情報を生成し、仮想世界へ伝達して現実世界と仮想世界の相互作用を実現することができる。
一実施形態に係る現実世界と仮想世界との間の情報交換を制御する仮想世界処理システムを示す図である。 本発明の一実施形態に係る仮想世界処理装置の構成を示す図である。 本発明の一実施形態に係る複数のベンディングセンサが検出位置を測定する動作を示す。 本発明の一実施形態に係る仮想世界処理装置が角度値を計算する動作を示す。 本発明の一実施形態に係るアバター制御特徴点タイプの構造を示す図である。 本発明の一実施形態に係る仮想世界処理方法を示すフローチャートである。
以下、本発明に係る実施形態を添付する図面を参照しながら詳細に説明する。しかし、本発明が実施形態によって制限されたり限定されることはない。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、一実施形態に係る現実世界と仮想世界との間の情報交換を制御する仮想世界処理システムを示す図である。図1を参照すると、本発明の一実施形態に係る仮想世界処理システムは、現実世界110、仮想世界処理装置及び仮想世界140を含む。
現実世界110は、現実世界110に関する情報を検出するセンサ、または仮想世界140に関する情報を現実世界110で実現する実感装置を示すことができる。
また、仮想世界140は、プログラムによって実現される仮想世界140それ自体、または現実世界110で実現される実感効果情報の含まれたコンテンツを再生する実感メディア再生装置を示す。
一実施形態に係るセンサは、現実世界110のユーザの動作、状態、意図、形態などに関する情報を検出して仮想世界処理装置に送信する。
実施形態に係るセンサは、センサ特性(Sensor Capability)101、センサ適応嗜好(Sensor Adaptation Preference)102、及び検出情報(Sensed Information)103を仮想世界処理装置に送信する。
センサ特性101は、センサの特性に関する情報である。センサ適応嗜好102は、センサのユーザがセンサの特性に対して嗜好の程度を示す情報である。検出情報103はセンサが現実世界110を検出した情報である。
一実施形態に係る仮想世界処理装置は、適応RV(Adaptation Real World to Virtual World)120、VWI(Virtual World Information、仮想世界情報)104、及び適応RV/VR(Adaptation Real World to Virtual World/Virtual World to Real World)130を含んでもよい。
適応RV120は、センサ特性101及びセンサ適応嗜好102に基づいてセンサが現実世界110に対して検出した検出情報103を仮想世界140に適用できる情報に変換してもよい。実施形態に係る適応RV120は、RVエンジン(real world to virtual world engine、RV engine)で実現され得る。
一実施形態に係る適応RV120は、変換された検出情報103を更に変換してVWI(Virtual World Information、仮想世界情報)104を生成してもよい。
VWI104は、仮想世界140の仮想オブジェクト(Virtual Object)に関する情報である。
適応RV/VR130は、生成されたVWI104を符号化して仮想世界140に適用される効果に対するメタデータのVWEM(Virtual World Effect Metadata、仮想世界効果メタデータ)107を生成する。実施形態に係る適応RV/VR130は、VWC(Virtual World Capabilities、仮想世界特性)105及びVWP(Virtual World Preferences、仮想世界嗜好)106に基づいてVWEM107を生成する。
VWC105は、仮想世界140の特性に関する情報である。また、VWP106は、仮想世界140の特性に対するユーザの嗜好の程度を示す情報である。
また、適応RV/VR130は、VWEM107を仮想世界140に送信する。ここで、VWEM107が仮想世界140に適用され、検出情報103に対応する効果が仮想世界140で実現され得る。
本発明の一側面によれば、仮想世界140で発生した効果イベントが現実世界110でアクチュエータ(Actuator)である実感装置によって駆動されてもよい。
仮想世界140は、仮想世界140で発生した効果イベントに関する情報の実感効果情報(Sensory Effect Information)を符号化してSEM(Sensory Effect Metadata、実感効果メタデータ)111を生成する。実施形態に係る仮想世界140は、実感効果情報を含むコンテンツを再生する実感メディア再生装置を備えてもよい。
適応RV/VR130は、SEM111に基づいて実感情報(Sensory Information)112を生成する。実感情報112は、現実世界110の実感装置で実現される効果イベントに関する情報である。
適応VR150は、現実世界110の実感装置の動作を制御するSDCmd(Sensory Device Command、実感装置命令)115に関する情報を生成する。実施形態に係る適応VR150は、SDCap(Sensory Device Capabilities、実感装置特性)113に関する情報及びUSP(User Sensory Preference、ユーザ実感嗜好)114に関する情報に基づいてSDCmd115に関する情報を生成する。
SDCap113は、実感装置の特性に関する情報である。また、USP114は、実感装置で実現される効果に対するユーザの嗜好の程度を示す情報である。
図2は、本発明の一実施形態に係る仮想世界処理装置の構成を示す図である。図2を参照すると、本発明の一実施形態に係る仮想世界処理装置200は受信部210、処理部220及び送信部230を備える。
受信部210は、ベンディングセンサ260からベンディングセンサ260が測定する検出位置の角度値及びベンディングセンサ260の特性を示すセンサ特性を受信する。
ベンディングセンサ(Bending Sensor)260は、現実世界のオブジェクトの曲がった程度を測定し検出情報(Sensed Information)を出力するセンサである。検出情報は、ベンディングセンサ260が測定した検出位置の曲がった程度(すなわち、角度)に対する測定値である。
実施形態に係るベンディングセンサ260は、検出位置に付着/結合されて検出位置の曲がった程度(すなわち、角度値)を測定する。例えば、ユーザ250がベンディングセンサ260をヒジに付着する場合、ベンディングセンサ260は、ユーザ250のヒジの曲がった程度(すなわち、ヒジの角度)を検出する。ここで、ベンディングセンサ260は、ヒジの角度値及びベンディングセンサ260のセンサ特性を仮想世界処理装置200に送信する。
一実施形態に係るベンディングセンサ260は、ユーザ250のヒジ、指関節、首、肩など、その他の関節部位に結合されて曲がった程度を測定する。
センサ特性(Sensor Capability)は、ベンディングセンサ260の特性に関する情報である。
一実施形態に係るベンディングセンサ260のセンサ特性は、最大値(maxValue)、最小値(minValue)、位置個数(Num of Locations)、位置間の距離(Distance between Location)、軸個数(numOfAxes)及びセンサ個数(numOfSensors)を含んでもよい。
最大値は、ベンディングセンサ260が測定できる最大角度値である。最小値は、ベンディングセンサ260が測定できる最小角度値である。一実施形態に係るベンディングセンサ260は最大値よりも小さく、最小値よりも大きい範囲内で検出位置の角度を測定する。
位置個数は、ベンディングセンサ260が検出する検出位置の個数を示す。本発明の一側面によれば、1つのベンディングセンサ260は、同時に複数の検出位置の曲がった程度を検出してもよく、このときの位置個数は1つのベンディングセンサ260が測定する複数の検出位置の個数であってもよい。また、実施形態に係る複数のベンディングセンサ260が複数の検出位置を測定してもよく、このときの位置個数は複数のベンディングセンサ260が測定する複数の検出位置の個数であってもよい。
位置間の距離は、ベンディングセンサ260が検出する検出位置間の距離を示す。本発明の一側面によれば、複数のベンディングセンサ260が複数の検出位置を検出してもよい。
軸個数は、ベンディングセンサが検出できる角度値の次元(Dimension)を示す。
センサ個数は、複数のベンディングセンサ260が複数の検出位置を測定する場合、複数のベンディングセンサ260が検出できるセグメント(segments)を示す。
実施形態に係るベンディングセンサ260のセンサ特性は、精度(Accuracy)及びオフセット(Offset)をさらに含んでもよい。
精度は、ベンディングセンサ260の測定誤差に関する情報である。
オフセットは、ベンディングセンサ260が測定する角度値のゼロポイント調整のための値である。
表1は、本発明の一実施形態に係るベンディングセンサ特性タイプ(Bending Sensor Capability Type)に対するXMLシンタックス(eXtensible Markup Language Syntax)を示す。ベンディングセンサ特性タイプは、ベンディングセンサ260の基本的なセンサ特性に関する情報を示す。
Figure 2016026342
表2は、一実施形態に係るベンディングセンサ特性タイプに対するセマンティック(Semantics)を示す。
Figure 2016026342
本発明の一側面によれば、センサ特性は2進数フォーマット(binary format)に符号化されたメタデータであってもよい。詳しく説明すると、一実施形態に係るベンディングセンサは、センサ特性を2進数フォーマットに符号化してメタデータを生成し、生成されたメタデータを仮想世界処理装置200に送信する。ここで、受信部210は、2進数フォーマットに符号化されたメタデータのセンサ特性を受信してもよい。
表2−2は、本発明の一実施形態に係るベンディングセンサ特性タイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2016026342
表2−3は、本発明の一実施形態に係るベンディングセンサ特性タイプの2進符号化に対するセマンティック(Semantics)を示す。
Figure 2016026342
表2−3を参照すると、2進数フォーマットに符号化されたメタデータは位置個数(Num of Locations)、軸個数(numOfAxes)及びセンサ個数(numOfSensors)のうち少なくとも1つの属性(Attribute)に対するデータフィールド(Data Field)を含んでもよい。したがって、2進数フォーマットに符号化されたメタデータのセンサ特性は、位置個数、軸個数及びセンサ個数のうち少なくとも1つの属性に対するデータフィールドを含むことによって、データの大きさを限定することができる。
表3は、ベンディングセンサ260のセンサ特性の一例示を示す。
Figure 2016026342
表3を参照すると、一実施形態に係るベンディングセンサ260の識別子(ID)は「BS001」であってもよい。また、ベンディングセンサ260が測定できる検出位置の曲がった程度(すなわち角度)の最大値は「90.0度(Degree)」であり、最小値は「−30.0度」であってもよい。また、Number of Levelsは「2500レベル(Level)」であり、ベンディングセンサ260の精度は「0.1度」であってもよい。また、ベンディングセンサ260のオフセットは「0.05度」であってもよい。
表4は、本発明の第1実施形態に係るベンディングセンサタイプ(Bending Sensor Type)に対するXMLシンタックスを示す。ベンディングセンサタイプは、ベンディングセンサ260の検出情報に関する情報を示す。
Figure 2016026342
一実施形態に係るベンディングセンサタイプは、タイムスタンプ(TimeStamp)、単位(Unit)及び値(Value)を含んでもよい。
タイムスタンプは、ベンディングセンサ260が検出位置の角度値を測定した時の時間情報である。実施形態に係るタイムスタンプは、ベンディングセンサ260が角度値を測定する時間間隔に関する情報であってもよい。
単位は、ベンディングセンサ260が測定する角度の単位である。実施形態に係る値は「度(degree)」を含んでもよい。
値は、ベンディングセンサ260が測定した角度の値である。実施形態に係る1つの検出位置に対して複数のベンディングセンサ260が角度値を測定する場合、検出位置に対する角度値は複数のベンディングセンサ260が測定した複数の角度値の和であってもよい。
以下、図3を参照して複数のベンディングセンサ260が角度値を測定する動作に対して詳細に説明する。
図3は、本発明の一実施形態に係る複数のベンディングセンサが検出位置を測定する動作を示す。図3を参照すると、複数のベンディングセンサ310が検出位置320の曲がった程度(すなわち、角度値)を測定する。
ここで、複数のベンディングセンサ310が測定した個々の角度値の総和が検出位置320に対する角度値であってもよい。例えば、10個のベンディングセンサ310が検出位置320の角度値を測定する場合として、10個のベンディングセンサ310が測定した個々の角度値がそれぞれ1度、3度、5度、10度、12度、12度、9度、5度、2度及び1度の場合、検出位置320に対する角度値は、10個のベンディングセンサ310が測定した個々の角度値の総和である60度であってもよい。
再び図2を参照すると、表4−2は、第1実施形態に係るベンディングセンサタイプに対するセマンティック(Semantics)を示す。
Figure 2016026342
表4−3は、本発明の第1実施形態に係るベンディングセンサタイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2016026342
表4−4は、本発明の第1実施形態に係るベンディングセンサタイプの2進符号化に対するセマンティック(Semantics)を示す。
Figure 2016026342
表5は、第2実施形態に係るベンディングセンサタイプ(Bending Sensor Type)に対するXMLシンタックスを示す。
Figure 2016026342
表5−2は、第2実施形態に係るベンディングセンサタイプに対するセマンティック(Semantics)を示す。
Figure 2016026342
表6は、第3実施形態に係るベンディングセンサタイプ(Bending Sensor Type)に対するXMLシンタックスを示す。
Figure 2016026342
表6−2は、第3実施形態に係るベンディングセンサタイプに対するセマンティック(Semantics)を示す。
Figure 2016026342
表7は、本発明の一実施形態に係るベンディングセンサタイプに対する2進符号化シンタックス(Binary Representation Syntax)を示す。
Figure 2016026342
表7−2は、本発明の一実施形態に係るベンディングセンサタイプの2進符号化に対するセマンティック(Semantics)を示す。
Figure 2016026342
表8は、ベンディングセンサ260の検出情報の一例示を示す。
Figure 2016026342
表8を参照すると、検出情報の識別子は「bending01」であり、ベンディングセンサ260の識別子は「bendingID01」であってもよい。すなわち、「bendingID01」のベンディングセンサ260の検出情報は「bending01」であってもよい。また、ベンディングセンサ260のタイムスタンプは1秒に100クロック(100Clock Ticks per Second)の精度を有する値である「60000」であってもよい。
処理部220は、受信部210がベンディングセンサ260から受信した角度値及びセンサ特性に基づいて、検出位置に対応する仮想世界270のオブジェクト280を制御する制御情報を生成する。
例えば、ユーザ250のヒジの角度が180度から90度に変化すると、ベンディングセンサ260は角度値を測定して仮想世界処理装置200に送信する。ここで、処理部260は、角度値及びセンサ特性に基づいて検出位置(すなわち、ヒジ)に対応する仮想世界270のオブジェクト280(例えば、アバター)もヒジを動かすように制御する制御情報を生成する。
本発明の一側面によれば、ベンディングセンサ260が測定した角度値がベンディングセンサ260が測定することのできる最大値よりも小さいか同一であり、最小値よりも大きいか同一である場合、処理部220は制御情報を生成する。
実施形態に係る角度値が最大値を超過すると、処理部220は角度値として最大値を用いて制御情報を生成する。また、角度値が最小値の未満である場合、処理部220は角度値として最小値を用いて制御情報を生成する。
送信部230は、生成された制御情報を仮想世界270に送信する。
実施形態に係る送信部230は、制御情報をXML形態のメタデータに符号化して仮想世界270に送信してもよい。また、送信部230は、制御情報を2進数フォーマットのメタデータに符号化して仮想世界270に送信してもよい。また、送信部230は、制御情報をXML形態の第1メタデータに符号化し、第1メタデータを2進数フォーマットの第2メタデータに符号化して仮想世界270に送信してもよい。
本発明の一側面によれば、仮想世界処理装置200は演算部240をさらに備えてもよい。
演算部240は、第1検出位置に対する第1角度値及び第2検出位置に対する第2角度値に基づいて、前記第1検出位置と前記第2検出位置との間に位置する第3検出位置に対する第3角度値を計算する。
ここで、処理部220は、第1角度値、第2角度値、第3角度値及びセンサ特性に基づいて制御情報を生成する。
以下、図4を参照して第3角度値を計算する動作に対して詳細に説明する。
図4は、本発明の一実施形態に係る仮想世界処理装置が角度値を計算する動作を示す。図4を参照すると、本発明の一実施形態に係るベンディングセンサ410は、第1検出位置401(例えば、肩)に対する第1角度値を測定する。また、ベンディングセンサ420は第2検出位置403(例えば、手首)に対する第2角度値を測定する。
本発明の一側面によれば、仮想世界処理装置は、第1角度値及び第2角度値に基づいてベンディングセンサ410、420が測定できない第3検出位置402の第3角度値を計算してもよい。
実施形態に係る仮想世界処理装置は、第1角度値及び第2角度値の平均を第3角度値にしてもよい。
実施形態に係る仮想世界処理装置は、第1角度値及び第2角度値を格納したデータベースをさらに含み、データベースに格納された第1角度値及び第2角度値に基づいて第3角度値を計算してもよい。
図5は、本発明の一実施形態に係るアバター制御特徴点タイプの構造を示す図である。図5を参照すると、本発明の一実施形態に係るアバター制御特徴点タイプ(Avatar Control Features Type)510は、属性(Attributes)520、制御胴体部特徴点(Control Body Features)530及び制御の顔特徴点(Control Face Features)540を含んでもよい。
アバター制御特徴点情報は、仮想世界のアバターを制御するために用いられるアバターの特徴点に関する情報である。ここで、アバター制御特徴点タイプ510は、アバター制御特徴点情報の類型(Type)に関する情報である。
属性520は、アバター制御特徴点情報の属性に関する情報である。実施形態に係る属性520は、アバターを制御するために用いられる特徴点に対する名前(Name)情報を含んでもよい。
制御胴体部特徴点530は、アバターを制御するために用いられる特徴点としてアバターの胴体部の部分に含まれる特徴点を示す。
実施形態に係る制御胴体部特徴点530は、頭骨(HeadBones)531、上体骨組み(UpperBodyBones)532、下半身骨組み(DownBodyBones)533及び中体骨組み(MiddleBodyBones)534に分類される。
例えば、上体骨組み532は、アバターの手構造に対応する特徴点に関する情報を含んでもよい。
また、手構造は中首、指関節など下位構造を含んでもよい。
表9は、一実施形態に係る手構造の下位構造を示す。
Figure 2016026342
本発明の一側面によれば、仮想世界処理装置は、ベンディングセンサの検出情報に基づいて検出位置に対応するアバター制御特徴点を制御する制御情報を生成する。すなわち、ベンディングセンサが測定する検出位置は、アバター制御特徴点のうち少なくともいずれか1つに対応する。
例えば、ベンディングセンサが現実世界のユーザの手首の曲がった程度を測定する場合、仮想世界処理装置は、測定された角度値に基づいてユーザの手首に対応する仮想世界のアバターの手首の動作を制御する制御情報を生成する。
図6は、本発明の一実施形態に係る仮想世界処理方法を示すフローチャートである。図6を参照すると、本発明の一実施形態に係る仮想世界処理方法は、ベンディングセンサから検出位置の角度値及びベンディングセンサに対するセンサ特性を受信する(S610)。
ベンディングセンサ(Bending Sensor)は、現実世界のオブジェクトの曲がった程度に対する検出情報(Sensed Information)を測定するセンサである。検出情報は、ベンディングセンサが測定した検出位置の曲がった程度(すなわち、角度)に対する測定値である。
実施形態に係るベンディングセンサは、検出位置に付着/結合されて検出位置の曲がった程度(すなわち、角度値)を測定する。例えば、ユーザがベンディングセンサをヒジに付着する場合、ベンディングセンサは、ユーザのヒジの曲がった程度(すなわち、ヒジの角度)を検出してもよい。ここで、仮想世界処理方法は、ベンディングセンサからヒジの角度値及びベンディングセンサのセンサ特性を受信してもよい。
一実施形態に係るベンディングセンサは、ユーザのヒジ、指関節、首、肩など、その他関節部位に結合されて曲がった程度を測定する。
センサ特性(Sensor Capability)は、ベンディングセンサの特性に関する情報である。
一実施形態に係るベンディングセンサに対するセンサ特性は、最大値(maxValue)、最小値(minValue)、位置個数(Num of Locations)、位置間の距離(Distance between Location)、軸個数(numOfAxes)及びセンサ個数(numOfSensors)を含んでもよい。
最大値は、ベンディングセンサが測定できる最大角度値である。最小値は、ベンディングセンサが測定できる最小角度値である。一実施形態に係るベンディングセンサは最大値よりも小さく、最小値よりも大きい範囲内で検出位置の角度を測定する。
位置個数は、ベンディングセンサが検出する検出位置の個数を示す。本発明の一側面によれば、1つのベンディングセンサは、同時に複数の検出位置の曲がった程度を検出してもよく、このときの位置個数は1つのベンディングセンサが測定する複数の検出位置の個数であってもよい。また、実施形態に係る複数のベンディングセンサが複数の検出位置を測定してもよく、このときの位置個数は複数のベンディングセンサが測定する複数の検出位置の個数であってもよい。
位置間の距離は、ベンディングセンサが検出する検出位置の間の距離を示す。本発明の一側面によれば、複数のベンディングセンサが複数の検出位置を検出してもよい。
軸個数は、ベンディングセンサが検出できる角度値の次元(Dimension)を示す。
センサ個数は、複数のベンディングセンサが複数の検出位置を測定する場合、複数のベンディングセンサが検出できるセグメント(segments)を示す。
実施形態に係るベンディングセンサのセンサ特性は、精度(Accuracy)及びオフセット(Offset)をさらに含んでもよい。
精度は、ベンディングセンサの測定誤差に関する情報である。
オフセットは、ベンディングセンサが測定する角度値の零点調整のための値である。
本発明の一側面によれば、センサ特性は2進数フォーマット(binary format)に符号化されたメタデータであってもよい。一実施形態に係る2進数フォーマットに符号化されたメタデータは位置個数(Num of Locations)、軸個数(numOfAxes)及びセンサ個数(numOfSensors)のうち少なくとも1つの属性(Attribute)に対するデータフィールド(Data Field)を含んでもよい。
ベンディングセンサタイプは、ベンディングセンサが測定する検出情報に関する情報を示す。
一実施形態に係るベンディングセンサタイプは、タイムスタンプ(TimeStamp)、単位(Unit)及び値(Value)を含んでもよい。
タイムスタンプは、ベンディングセンサが検出位置の角度値を測定したときの時間情報である。実施形態に係るタイムスタンプは、ベンディングセンサが角度値を測定する時間間隔に関する情報であってもよい。
単位は、ベンディングセンサが測定する角度の単位である。実施形態に係る値は「度(degree)」を含んでもよい。
値は、ベンディングセンサが測定した角度の値である。実施形態に係る1つの検出位置に対して複数のベンディングセンサが角度値を測定する場合、検出位置に対する角度値は複数のベンディングセンサが測定した複数の角度値の和であってもよい。
仮想世界処理方法は、ベンディングセンサから受信した角度値及びセンサ特性に基づいて検出位置に対応する仮想世界のオブジェクトを制御する制御情報を生成する(S620)。
例えば、ユーザのヒジの角度が180度から90度に変化すると、ベンディングセンサは角度値を測定する。ここで、仮想世界処理方法は、角度値及びセンサ特性に基づいて、検出位置(すなわち、ヒジ)に対応する仮想世界のオブジェクト(例えば、アバター)もヒジを動かすように制御する制御情報を生成する。
本発明の一側面によれば、ベンディングセンサが測定した角度値がベンディングセンサが測定できる最大値よりも小さいか同一であり、最小値よりも大きいか同一である場合、仮想世界処理方法は制御情報を生成する。
実施形態に係る角度値が最大値を超過すると、仮想世界処理方法は角度値として最大値を用いて制御情報を生成する。また、角度値が最小値の未満である場合、仮想世界処理方法は角度値として最小値を用いて制御情報を生成する。
仮想世界処理方法は、生成された制御情報を仮想世界へ送信する(S630)。
実施形態に係る仮想世界処理方法は、制御情報をXML形態のメタデータに符号化して仮想世界に送信する。また、仮想世界処理方法は、制御情報を2進数フォーマットのメタデータに符号化して仮想世界に送信する。また、仮想世界処理方法は、制御情報をXML形態の第1メタデータに符号化し、第1メタデータを2進数フォーマットの第2メタデータに符号化して仮想世界に送信する。
本発明の一側面によれば、仮想世界方法は、第1検出位置に対する第1角度値及び第2検出位置に対する第2角度値に基づいて、前記第1検出位置と前記第2検出位置との間に位置する第3検出位置に対する第3角度値を計算してもよい。ここで、仮想世界処理方法は第1角度値、第2角度値、第3角度値及びセンサ特性に基づいて制御情報を生成する。
本発明に係る実施形態は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうちの1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コード(machine code)だけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コード(higher level code)を含む。上述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアのレイヤで動作するように構成されてもよい。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
110 現実世界
120 適応RV
130 適応RV/VR
140 仮想世界

Claims (10)

  1. センサから検出情報を受信するステップと、
    前記検出情報を仮想世界に適用される情報に変換するステップと、
    を含み、
    前記検出情報は、ベンディングによって検出された値の集合を示すアレイベンディング値要素を含み、前記検出情報は、前記検出された値の単位を示す単位属性を選択的にさらに含み、
    前記アレイベンディング値要素は、軸数及び検出位置数によって定義される、仮想世界と現実世界との間の相互動作のための方法。
  2. 前記検出情報は、前記検出情報内で前記単位属性が用いられるか否かを示す単位フラグフィールド、前記検出情報の基本タイプを示す検出情報基本タイプフィールド、ベンディングセンサによって測定されるセグメント数を示すセンサ数フィールド、前記検出位置でデータのディメンションを示す軸数フィールド、及び前記検出位置数を示す位置数フィールドをさらに含み、
    前記アレイベンディング値要素は、前記センサ数フィールドが0以上の値に設定され、前記軸数フィールドが0以上の値に設定され、前記位置数フィールドが0以上の値に設定される場合、アレイベンディング値要素フィールドを含み、
    前記単位成分は、前記単位フラグフィールドが1に設定される場合に単位フィールドを含む、請求項1に記載の仮想世界と現実世界との間の相互動作のための方法。
  3. 検出情報をセンサの出力に生成するステップを含み、
    前記検出情報は、ベンディングによって検出された値の集合を示すアレイベンディング値要素を含み、前記検出情報は、前記検出された値の単位を示す単位属性を選択的に含み、
    前記アレイベンディング値要素は、軸数及び検出位置数によって定義される、仮想世界と現実世界との間の相互動作のための方法。
  4. 前記検出情報は、前記検出情報内で前記単位属性が用いられるか否かを示す単位フラグフィールド、前記検出情報の基本タイプを示す検出情報基本タイプフィールド、ベンディングセンサによって測定されるセグメント数を示すセンサ数フィールド、前記検出位置でデータのディメンションを示す軸数フィールド、及び前記検出位置数を示す位置数フィールドをさらに含み、
    前記アレイベンディング値要素は、前記センサ数フィールドが0以上の値に設定され、前記軸数フィールドが0以上の値に設定され、前記位置数フィールドが0以上の値に設定される場合、アレイベンディング値要素フィールドを含み、
    前記単位成分は、前記単位フラグフィールドが1に設定される場合に単位フィールドを含む、請求項3に記載の仮想世界と現実世界との間の相互動作のための方法。
  5. センサから検出情報及びセンサ特性を受信するステップと、
    前記センサ特性に基づいて前記検出情報を仮想世界に適用される情報に変換するステップと、
    を含み、
    前記センサ特性は、ベンディングセンサがベンディング角度を検出できる位置の数を示す位置数要素、隣接する検出位置の間の距離を示す位置距離要素、及びベンディングセンサがベンディング角度を検出できるディメンションを示す軸数要素を含む予め決定した特性タイプから選択された少なくとも1つの要素を含む、仮想世界と現実世界との間の相互動作のための方法。
  6. 前記センサ特性は、ベンディングセンサのアレイが検出できるセグメント数を示すセンサ数要素をさらに含む、請求項に5に記載の仮想世界と現実世界との間の相互動作のための方法。
  7. 前記検出情報は、ベンディングによって検出された値の集合を示すアレイベンディング値要素を含み、前記検出情報は、前記検出された値の単位を示す単位属性を選択的に含む、請求項5または請求項6に記載の仮想世界と現実世界との間の相互動作のための方法。
  8. センサから検出情報及びセンサ特性を受信するステップと、
    前記センサ特性に基づいて前記検出情報を仮想世界に適用される情報に変換するステップと、
    を含み、
    前記センサ特性は、要素、前記要素に対応するフラグ、前記フラグの順序、前記フラグのビット数、前記要素の順序、及び前記要素のビット数を定義する2進符号化シンタックスに基づいて生成され、
    前記要素は、ベンディングセンサがベンディング角度を検出できる位置の数を示す位置数要素、隣接する検出位置の間の距離を示す位置距離要素、及びベンディングセンサがベンディング角度を検出できるディメンションを示す軸数要素を含み、
    前記センサ特性は、前記フラグ及び予め決定した論理値を有する少なくとも1つのフラグに対応する少なくとも1つの要素を含む、仮想世界と現実世界との間の相互動作のための方法。
  9. 前記検出情報は、前記検出情報内で前記単位属性が用いられるか否かを示す単位フラグフィールド、前記検出情報の基本タイプを示す検出情報基本タイプフィールド、ベンディングセンサによって測定されるセグメント数を示すセンサ数フィールド、前記検出位置でデータのディメンションを示す軸数フィールド、及び前記検出位置数を示す位置数フィールドを含み、
    前記検出情報は、前記センサ数フィールドが0以上の値に設定され、前記軸数フィールドが0以上の値に設定され、前記位置数フィールドが0以上の値に設定される場合、アレイベンディング値要素フィールドをさらに含み、
    前記検出情報は、前記単位フラグフィールドが1に設定される場合に単位フィールドをさらに含む、請求項8に記載の仮想世界と現実世界との間の相互動作のための方法。
  10. 請求項1〜請求項9のいずれか一項に記載の方法を実行させるためのプログラムが記録されたコンピュータで読み出し可能な記録媒体。
JP2015167901A 2010-04-13 2015-08-27 仮想世界処理装置及び方法 Active JP6316251B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2010-0033947 2010-04-13
KR20100033947 2010-04-13
KR10-2011-0024448 2011-03-18
KR1020110024448A KR101835413B1 (ko) 2010-04-13 2011-03-18 가상 세계 처리 장치 및 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013504805A Division JP5801872B2 (ja) 2010-04-13 2011-04-06 仮想世界処理装置及び方法

Publications (2)

Publication Number Publication Date
JP2016026342A true JP2016026342A (ja) 2016-02-12
JP6316251B2 JP6316251B2 (ja) 2018-04-25

Family

ID=45029517

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013504805A Active JP5801872B2 (ja) 2010-04-13 2011-04-06 仮想世界処理装置及び方法
JP2015167901A Active JP6316251B2 (ja) 2010-04-13 2015-08-27 仮想世界処理装置及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013504805A Active JP5801872B2 (ja) 2010-04-13 2011-04-06 仮想世界処理装置及び方法

Country Status (6)

Country Link
US (1) US9597592B2 (ja)
EP (1) EP2559463B1 (ja)
JP (2) JP5801872B2 (ja)
KR (1) KR101835413B1 (ja)
CN (2) CN102858413B (ja)
WO (1) WO2011129543A2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101685922B1 (ko) * 2010-04-05 2016-12-13 삼성전자주식회사 가상 세계 처리 장치 및 방법
US8610663B2 (en) * 2012-02-06 2013-12-17 Lg Electronics Inc. Portable device and method for controlling the same
KR101367412B1 (ko) * 2013-06-18 2014-02-24 우석 계 가상공간에서의 물리적 효과 제어 장치 및 그 방법
CN105056525A (zh) * 2015-08-17 2015-11-18 联想(北京)有限公司 一种信息处理方法及电子设备
US20170259167A1 (en) * 2016-03-14 2017-09-14 Nathan Sterling Cook Brainwave virtual reality apparatus and method
US10627909B2 (en) * 2017-01-10 2020-04-21 Disney Enterprises, Inc. Simulation experience with physical objects
CN107344019B (zh) * 2017-07-28 2023-11-21 歌尔科技有限公司 一种虚拟现实系统
CN109579689B (zh) * 2017-09-29 2020-12-08 西门子公司 曲率测量装置
GB2569603B (en) 2017-12-21 2020-04-01 Sony Interactive Entertainment Inc Position tracking apparatus and method
JP7070245B2 (ja) * 2018-08-27 2022-05-18 富士通株式会社 情報処理装置、動作制御プログラム、及び動作制御方法
JP7359422B2 (ja) * 2018-11-07 2023-10-11 学校法人法政大学 仮想体の動作制御システム、人体拘束治具、及び仮想体の動作制御方法
CN110822647B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822646B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822643B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822641A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822642B (zh) * 2019-11-25 2021-09-14 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822645B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822644B (zh) * 2019-11-25 2021-12-03 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822649B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822661B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
JP2021089691A (ja) * 2019-12-06 2021-06-10 未來市股▲ふん▼有限公司 動作追跡システム及び動作追跡方法
WO2021182264A1 (ja) * 2020-03-11 2021-09-16 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228092A (ja) * 1990-02-02 1991-10-09 Hitachi Ltd 文字パターン生成方法
US5963891A (en) * 1997-04-24 1999-10-05 Modern Cartoons, Ltd. System for tracking body movements in a virtual reality system
JP2002303533A (ja) * 2001-01-08 2002-10-18 Motorola Inc 車両ナビゲーション・システムの位置およびヘッディング・エラーを修正する方法および装置
JP2004213350A (ja) * 2002-12-27 2004-07-29 Seiko Epson Corp 力覚提示装置及び画像補正方法
JP2007041660A (ja) * 2005-08-01 2007-02-15 Nec Corp センサネットワーク、センサノード及びそのプログラムと、センサ情報検索方法
JP2008217612A (ja) * 2007-03-06 2008-09-18 Nippon Telegr & Teleph Corp <Ntt> センサデータ制御システム及びセンサデータ制御方法
JP2010014712A (ja) * 2008-06-30 2010-01-21 Samsung Electronics Co Ltd モーションキャプチャー装置及びモーションキャプチャー方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09153151A (ja) * 1995-11-30 1997-06-10 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き生成装置
JP3862348B2 (ja) * 1997-03-19 2006-12-27 東京電力株式会社 モーションキャプチャシステム
AU7161598A (en) * 1997-04-21 1998-11-13 Virtual Technologies, Inc. Goniometer-based body-tracking device and method
US6049327A (en) * 1997-04-23 2000-04-11 Modern Cartoons, Ltd System for data management based onhand gestures
JPH1157212A (ja) * 1997-08-24 1999-03-02 Sony Computer Entertainment:Kk ゲーム装置、ゲーム機用操作装置、ゲームシステム及びゲーム装置の双方向通信方法
US6154199A (en) * 1998-04-15 2000-11-28 Butler; Craig L. Hand positioned mouse
US6304840B1 (en) * 1998-06-30 2001-10-16 U.S. Philips Corporation Fingerless glove for interacting with data processing system
JP2000132305A (ja) 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
CN2358435Y (zh) * 1999-03-10 2000-01-12 中国科学院自动化研究所 柔性角度传感器
JP2000329511A (ja) * 1999-05-19 2000-11-30 Sony Corp データグローブ及びこれを用いた形状認識方法
US20030062675A1 (en) 2001-09-28 2003-04-03 Canon Kabushiki Kaisha Image experiencing system and information processing method
JP3584229B2 (ja) * 2001-09-28 2004-11-04 キヤノン株式会社 映像体験システムおよび情報処理方法
US7033281B2 (en) * 2002-03-22 2006-04-25 Carnahan James V Augmented kinematic feedback device and method
CN1167996C (zh) * 2002-07-11 2004-09-22 庄胜雄 可形成虚拟追踪球的手套滑鼠
JP2004192325A (ja) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> ユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体
CN2725994Y (zh) * 2004-05-13 2005-09-14 中国科学院自动化研究所 一种触觉反馈数据手套
JP2005337983A (ja) * 2004-05-28 2005-12-08 Spice:Kk モーションキャプチャー方法及びシステム
CN101316630A (zh) * 2005-07-15 2008-12-03 鲍尔格力德健身器材公司 等长锻炼系统和便于用户在视频游戏期间训练的方法
US7978081B2 (en) * 2006-01-09 2011-07-12 Applied Technology Holdings, Inc. Apparatus, systems, and methods for communicating biometric and biomechanical information
US20080125224A1 (en) 2006-09-26 2008-05-29 Pollatsek David Method and apparatus for controlling simulated in flight realistic and non realistic object effects by sensing rotation of a hand-held controller
US8675017B2 (en) 2007-06-26 2014-03-18 Qualcomm Incorporated Real world gaming framework
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
JP5108032B2 (ja) 2008-02-01 2012-12-26 旭光電機株式会社 多関節構造体教示装置
JP5529400B2 (ja) * 2008-07-11 2014-06-25 任天堂株式会社 拡張操作装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228092A (ja) * 1990-02-02 1991-10-09 Hitachi Ltd 文字パターン生成方法
US5963891A (en) * 1997-04-24 1999-10-05 Modern Cartoons, Ltd. System for tracking body movements in a virtual reality system
JP2002303533A (ja) * 2001-01-08 2002-10-18 Motorola Inc 車両ナビゲーション・システムの位置およびヘッディング・エラーを修正する方法および装置
JP2004213350A (ja) * 2002-12-27 2004-07-29 Seiko Epson Corp 力覚提示装置及び画像補正方法
JP2007041660A (ja) * 2005-08-01 2007-02-15 Nec Corp センサネットワーク、センサノード及びそのプログラムと、センサ情報検索方法
JP2008217612A (ja) * 2007-03-06 2008-09-18 Nippon Telegr & Teleph Corp <Ntt> センサデータ制御システム及びセンサデータ制御方法
JP2010014712A (ja) * 2008-06-30 2010-01-21 Samsung Electronics Co Ltd モーションキャプチャー装置及びモーションキャプチャー方法

Also Published As

Publication number Publication date
JP2013535039A (ja) 2013-09-09
WO2011129543A2 (ko) 2011-10-20
JP5801872B2 (ja) 2015-10-28
KR101835413B1 (ko) 2018-03-09
JP6316251B2 (ja) 2018-04-25
CN102858413A (zh) 2013-01-02
CN104281262B (zh) 2017-08-01
CN102858413B (zh) 2014-10-29
WO2011129543A3 (ko) 2012-02-02
US9597592B2 (en) 2017-03-21
EP2559463A4 (en) 2014-02-26
CN104281262A (zh) 2015-01-14
KR20110114439A (ko) 2011-10-19
EP2559463A2 (en) 2013-02-20
US20130093665A1 (en) 2013-04-18
EP2559463B1 (en) 2020-10-07

Similar Documents

Publication Publication Date Title
JP6316251B2 (ja) 仮想世界処理装置及び方法
JP6216512B2 (ja) 仮想世界処理装置および方法
JP5714695B2 (ja) 仮想世界処理装置及び方法
KR102141288B1 (ko) 홈 트레이닝 제공 방법 및 시스템
JP5465948B2 (ja) ゲームプログラムの実行を制御するための入力を取得する方法
JP4567805B2 (ja) 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置
JP5706408B2 (ja) 仮想世界処理装置および方法
CN101438340B (zh) 用于三维输入控制的系统、方法和设备
CN102129551A (zh) 基于关节跳过的姿势检测
CN102184009A (zh) 跟踪系统中的手位置后处理精炼
US11175729B2 (en) Orientation determination based on both images and inertial measurement units
US20090322888A1 (en) Integrated circuit for detecting movements of persons
US20200387227A1 (en) Length Calibration for Computer Models of Users to Generate Inputs for Computer Systems
KR20100138827A (ko) 가상 세계 처리 장치 및 방법
CN109395375A (zh) 一种基于增强现实与移动交互的三维游戏接口设计方法
US20110208494A1 (en) Method and system for simulating a handle&#39;s motion
CN106062680A (zh) 具有改进的用户体验的空中指示器
JP5934865B2 (ja) 反復動作のパラメータをリアルタイムに決定するシステムおよび方法
KR20210022354A (ko) 가상 현실 영상 제공 방법
KR101986608B1 (ko) 가상 세계 처리 장치 및 방법
Rafiuzzaman et al. Distance physical rehabilitation system framework with multi-kinect motion captured data
JP2001062145A5 (ja)
JP2018505018A5 (ja)
KR20120106369A (ko) 가상 세계 처리 장치 및 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180327

R150 Certificate of patent or registration of utility model

Ref document number: 6316251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250