CN102481487A - 虚拟世界处理装置和方法 - Google Patents
虚拟世界处理装置和方法 Download PDFInfo
- Publication number
- CN102481487A CN102481487A CN2010800383390A CN201080038339A CN102481487A CN 102481487 A CN102481487 A CN 102481487A CN 2010800383390 A CN2010800383390 A CN 2010800383390A CN 201080038339 A CN201080038339 A CN 201080038339A CN 102481487 A CN102481487 A CN 102481487A
- Authority
- CN
- China
- Prior art keywords
- sensor
- information
- virtual world
- metadata
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/216—Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/217—Input arrangements for video game devices characterised by their sensors, purposes or types using environment-related information, i.e. information generated otherwise than by the player, e.g. ambient temperature or humidity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/218—Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/219—Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/44—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/825—Fostering virtual characters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/53—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
- A63F2300/534—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for network load management, e.g. bandwidth optimization, latency reduction
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Environmental & Geological Engineering (AREA)
- Biodiversity & Conservation Biology (AREA)
- Ecology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Environmental Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Computer And Data Communications (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
公开了一种虚拟世界处理装置和方法。在实施例中,将从现实世界收集的信息变换为二进制形式的数据来进行传送,或者将信息变换为XML形式的数据并将变换的XML数据再次变换为二进制形式的数据来进行传送,从而能够提高数据的传送速度并使用较低的频带,而且在接收数据的适应RV引擎的情况下,可不包括XML解释器,从而能够减少适应RV引擎的复杂度。
Description
技术领域
实施例涉及一种虚拟世界处理装置和方法(Method and Apparatus forProcessing Virtual World),更具体地讲,涉及一种将现实世界的信息应用到虚拟世界的装置和方法。
背景技术
近年来,对于体感型游戏的关注逐渐增加。微软公司在“E3.2009.新闻发布会”中发布了“Project Natal“,在作为其游戏控制台的Xbox360上结合由深度/色彩相机和多点阵列麦克风组成的专门的传感器设备而提供采集用户全身运动、面部识别、声音识别技术,从而无需专门的控制器就可以与虚拟世界进行交互。而且,索尼公司发布了体感型游戏运动控制器“Wand”,其在作为该公司的游戏控制台的PS3中采用色彩摄像头、麦克风、超声波传感器的位置/方向传感技术,从而能够通过控制器的运动轨迹输入与虚拟世界进行交互。
现实世界和虚拟世界的相互作用具有两种方向。第一种是将从现实世界的传感器获得的数据信息反映到虚拟世界的方向,第二种是将从虚拟世界获得的数据信息通过致动器(actuator)反映到现实世界的方向。多个实施例提供为了实现现实世界与虚拟世界的相互作用而将从现实世界的传感器获得的数据应用到虚拟世界的控制系统、控制方法和命令结构。
发明内容
技术方案
根据示例性实施例的一方面,一种虚拟世界处理装置,可包括:传感器,将从现实世界收集的信息编码为第一元数据;适应VR单元,将关于虚拟世界的信息编码为第二元数据;适应RV单元,基于所述第一元数据和第二元数据产生将应用于虚拟世界的信息,并将所述产生的信息编码为第三元数据。所述适应VR单元可通过将关于所述虚拟世界的信息编码为二进制形式,来产生所述第二元数据,并将以所述二进制形式编码的所述第二元数据传递到所述适应RV单元。这里,以所述二进制形式编码的所述第二元数据可包括二进制编码语法、所述二进制编码语法的属性的比特数以及所述属性的形式。所述适应VR单元可通过将关于所述虚拟世界的信息编码为XML形式,来产生所述第二元数据,并将以所述XML形式编码的所述第二元数据传递到所述适应RV单元。所述适应VR单元可通过将关于所述虚拟世界的信息编码为XML形式以及将以所述XML形式编码的信息编码为二进制形式来产生所述第二元数据,并将所述以二进制形式编码的第二元数据传递到所述适应RV单元。
根据示例性实施例的另一方面,所述传感器可通过将从所述现实世界收集的所述信息编码为二进制形式来产生所述第一元数据,并将以所述二进制形式编码的所述第一元数据传递到所述适应RV单元。以所述二进制形式编码的所述第一元数据可包括二进制编码语法、所述二进制编码语法的属性的比特数以及所述属性的形式。
根据示例性实施例的另一方面,所述传感器可通过将从所述现实世界收集的所述信息编码为XML形式来产生所述第一元数据,并将以所述XML形式编码的所述第一元数据传递到所述适应RV单元。
根据示例性实施例的另一方面,所述传感器可通过将从所述现实世界收集的所述信息编码为XML形式以及将以所述XML形式编码的信息编码为二进制形式来产生所述第一元数据,并将以所述二进制形式编码的所述第一元数据传递到所述适应RV单元。根据示例性实施例的另一方面,提供一种虚拟世界处理方法,可包括如下步骤:将从现实世界收集的信息编码为第一元数据;将关于虚拟世界的信息编码为第二元数据;基于所述第一元数据和所述第二元数据,产生将应用于所述虚拟世界的信息;将所述产生的信息编码为第三元数据。
在所述将从现实世界收集的信息编码为第一元数据的步骤中,可通过将从所述现实世界收集的所述信息编码为二进制形式来产生所述第一元数据,其中,所述二进制形式包括二进制编码语法、所述二进制编码语法的属性的比特数以及所述属性的形式。
根据示例性实施例的另一方面,在所述将从现实世界收集的信息编码为第一元数据的步骤中,可通过将从所述现实世界收集的所述信息编码为XML形式并将以所述XML形式编码的信息编码为二进制形式,来产生所述第一元数据。
根据示例性实施例的另一方面,在所述将关于虚拟世界的信息编码为第二元数据的步骤中,可通过将所述关于虚拟世界的信息编码为二进制形式来产生所述第二元数据,其中,所述二进制形式包括二进制编码语法、所述二进制编码语法的属性的比特数以及所述属性的形式。
根据示例性实施例的另一方面,在所述将关于虚拟世界的信息编码为第二元数据的步骤中,可通过将所述关于虚拟世界的信息编码为XML形式并将以所述XML形式编码的信息编码为二进制形式,来产生所述第二元数据。
发明效果
在实施例中,利用作为关于传感器的特性的信息的传感器特性来将从现实世界测量的信息传递到虚拟世界,从而能够实现现实世界与虚拟世界的交互作用。
另外,在实施例中,利用传感器特性从作为从现实世界测量的信息的第一值产生第三值,利用传感器适应偏好来从第三值产生能够应用于虚拟世界的第二值并将该第二值传递到虚拟世界,从而能够实现现实世界与虚拟世界的相互作用。
另外,在实施例中,将感测信息变换为二进制形式来进行传送,或者将感测信息变换为XML形式并将变换的XML数据进一步变换为二进制形式来进行传送,从而能够提高数据的传送速度并使用较低的频带,而且在接收数据的适应RV引擎的情况下,可不包括XML解释器,从而能够减少适应RV引擎的复杂程度。
附图说明
图1是示出根据一实施例的利用传感器来操作虚拟世界的客体的动作的图。
图2是示出根据一实施例的利用传感器来操作虚拟世界的客体的系统的图。
图3是示出根据本发明的另一实施例的利用传感器来操作虚拟世界的客体的虚拟世界处理装置的图。
图4至图6是示出根据本发明的一实施例的传感器和适应RV单元的图。
图7至图9是示出根据本发明的一实施例的适应VR引擎和致动器的图。
图10是示出根据一实施例的虚拟世界处理装置的配置的图。
图11是示出根据本发明的一实施例的虚拟虚拟世界处理装置的配置的图
图12是示出根据一实施例的传感器特性基本类型的图。
图13是示出根据一实施例的传感器特性基本类型(sensor capability basetype)的语法(syntax)的图。
图14是示出根据一实施例的传感器特性基本属性的语法的图。
图15是根据一实施例的传感器适应偏好基本类型的图。
图16是示出根据一实施例的传感器适应偏好基本类型的语法的图。
图17是示出根据一实施例的传感器适应偏好基本属性的语法的图。
图18是示出根据一实施例的感测信息基本类型的图。
图19是示出根据一实施例的虚拟世界处理方法的流程图的图。
图20是示出根据另一实施例的虚拟世界处理方法的流程图的图。
图21是示出根据一实施例的利用虚拟世界处理装置的操作的图。
具体实施方式
以下,参照附图详细说明根据本发明的多个实施例。但是,本发明并不受限制或限定于所述多个实施例。各个附图所示的相同的标号表示相同的部件。
本说明书中使用的“客体(object)”可包括在虚拟世界上实现、表现的事物、物体、虚拟角色(avatar)等。
以下,参照附图来详细说明书多个实施例。
图1是示出根据一实施例的利用传感器来操作虚拟世界的客体的动作的图。
参照图1,现实世界(real world)的用户110可利用根据一实施例的传感器100来操作虚拟世界(virtual world)的客体(object)120。现实世界的用户110可通过传感器100输入自己的动作、状态、意图、形态等,传感器100可将关于用户110的动作、状态、意图、形态等的控制信息(CI:controlinformation)包括在传感器信号中并传送到虚拟世界处理装置。
根据实施例,现实世界的用户110可以是人类、动物、植物和非生物(例如,物体),且还可包括用户周围环境。
图2是示出根据一实施例的利用传感器来操作虚拟世界的客体的系统的图。
参照图2,根据一实施例的通过作为现实世界210的装置(real worlddevice)的传感器输入的、包括关于现实世界210的用户的动作、状态、意图、形态等的控制信息(CI:control information)201的传感器信号可被传送到虚拟世界处理装置。根据一实施例,关于现实世界210的用户的动作、状态、意图、形态等的控制信息201可包括传感器特性(sensor capability)、传感器适应偏好(sensor adaptation preference)和感测信息(sensed information)。后面将参照图12至图21来详细说明传感器特性、传感器适应偏好和感测信息。
根据一实施例的虚拟世界处理装置可包括现实世界到虚拟世界的适应(适应RV,adaptation real world to virtual world)220。根据一实施例,适应RV 220可被实现为RV引擎(RV engine:real world to virtual world engine)。适应RV 220利用包括在传感器信号中的关于现实世界210的用户的动作、状态、意图、形态等的控制信息(CI)201来将现实世界210的信息变换为可应用到虚拟世界(virtual world)240的信息。
根据实施例,适应RV 220可利用关于现实世界210的用户的动作、状态、意图、形态等的控制信息201来变换虚拟世界信息(VWI:virtual worldinformation)202。
VWI 202是关于虚拟世界240的信息。例如,VWI 202可包括关于虚拟世界240的客体的信息或关于构成所述客体的元素的信息。
虚拟世界处理装置通过现实世界到虚拟世界的适应/虚拟世界到现实世界的适应(适应RV/VR:adaptation real world to virtual world/virtual world toreal world)230来将由适应RV 220变换的信息203传递到虚拟世界240。
表1用于说明图2所示出的各个构成。
表1
图3是示出根据本发明的另一实施例的利用传感器来操作虚拟世界的客体的虚拟世界处理装置的图。
参照图3,根据本发明的一实施例的虚拟世界处理装置包括传感器250、适应RV单元255和适应VR单元260。
传感器250收集关于现实世界的用户的动作、状态、意图、形态等的信息。传感器250所收集的信息可包括感测信息。
根据实施例,传感器250可包括输入单元。输入单元可从现实世界的用户接收传感器适应偏好。
传感器250可将从现实世界收集的信息编码为第一元数据。传感器250可将第一元数据传递到适应RV单元255。
根据一实施例的传感器250可通过将从现实世界收集的信息编码为二进制形式来产生第一元数据。此时,编码为二进制形式的第一元数据可包括二进制编码语法、二进制编码语法的属性的比特数和二进制编码语法的属性的形式。传感器250可将编码为二进制形式的第一元数据传递到适应RV单元255。
此外,传感器250可通过将从现实世界收集的信息编码为XML形式来产生第一元数据。传感器250可将编码为XML形式的第一元数据传递到适应RV单元255。
此外,传感器250可通过将从现实世界收集的信息编码为XML形式,并将编码为XML形式的信息编码为二进制形式来产生第一元数据。传感器250可将编码为二进制形式的第一元数据传递到适应RV单元255。
根据实施例,传感器250可包括将收集的信息编码为元数据的元数据编码器(metadata encoder)251。
元数据编码器251将收集的信息编码为第一元数据,传感器250将第一元数据传送到适应RV单元255。包括在适应RV单元255中的元数据解码器(metadata decoder)256对从传感器250接收的第一元数据进行解码。
根据实施例,元数据编码器251可包括将收集的信息编码为XML形式的数据的XML编码器和将收集的信息编码为二进制形式的数据的二进制形式编码器中的至少一个。此外,元数据解码器256可包括对接收的XML形式的数据进行解码的XML解码器和对接收的二进制形式的数据进行解码的二进制形式解码器中的至少一个。
以下,参照图4至图6来说明对传感器250收集的信息进行编码的实施例和适应RV单元255对接收的数据进行解码的实施例。
图4至图6示出根据本发明的一实施例的传感器和适应RV单元的图。
参照图4,根据本发明的一实施例的传感器271可包括XML编码器272。XML编码器272可将传感器271从现实世界收集的信息(例如,感测信息)编码为XML形式的元数据。
而且,传感器271可将XML编码器272编码的元数据传送到适应RV274。
适应RV 274可包括XML解码器273,XML解码器273可对从传感器271接收的元数据进行解码。
参照图5,根据本发明的一实施例的传感器275可包括XML编码器276和二进制形式编码器277。XML编码器276可以对将传感器275从现实世界收集的信息(例如,感测信息)编码为XML形式。二进制形式编码器277可将XML编码器276编码的数据编码为二进制形式的元数据。
此外,传感器275可将XML编码器276和二进制形式编码器277编码的元数据传送到适应RV 280。
适应RV 280可包括二进制形式解码器278和XML解码器279。二进制形式解码器278可以将从传感器275接收的元数据解码为XML形式。而且,XML解码器279可对二进制形式解码器278解码为XML形式的数据进行进一步解码。
参照图6,根据本发明的一实施例的传感器281可包括二进制形式编码器282。二进制形式编码器282可将传感器281从现实世界收集的信息(例如,感测信息)编码为二进制形式的元数据。
而且,传感器281将二进制形式编码器282编码的元数据传送到适应RV284。
适应RV 284可包括二进制形式解码器283,二进制形式解码器283可对从传感器281接收的元数据进行解码。
再次参照图3,适应VR单元260可将关于虚拟世界265的信息编码为第二元数据。
根据一实施例的适应VR单元260可通过将关于虚拟世界265的信息编码为二进制形式来产生第二元数据。此时,编码为二进制形式的第二元数据可包括二进制编码语法、二进制编码语法的属性的比特数和二进制编码语法的属性的形式。适应VR单元260可将编码为二进制形式的第二元数据传递到适应RV单元255。
而且,适应VR单元260可通过将从虚拟世界265收集的信息编码为XML形式来产生第二元数据。适应VR单元260可将编码为XML形式的第二元数据传递到适应RV单元255。
而且,适应VR单元260可通过将从虚拟世界265收集的信息编码为XML形式并将编码为XML形式的信息编码为二进制形式来产生第二元数据。适应VR单元260可将编码为二进制形式的第二元数据传递到适应RV单元255。
根据一实施例,适应VR单元260可包括元数据编码器262。此时,元数据编码器262可将关于虚拟世界265的信息编码为第二元数据。
根据实施例,元数据编码器262可包括将关于虚拟世界265的信息编码为XML形式的元数据的XML编码器和将关于虚拟世界265的信息编码为二进制形式的元数据的二进制形式编码器中的至少一个。
根据实施例,元数据编码器262包括XML编码器,XML编码器可将关于虚拟世界的信息编码为XML形式的数据。
而且,元数据编码器262包括XML编码器和二进制形式编码器,XML编码器将关于虚拟世界265的信息编码为XML形式的数据,二进制形式编码器可将XML形式的数据进一步编码为二进制形式的数据。
而且,元数据编码器262包括二进制形式编码器,二进制形式编码器可将关于虚拟世界265的信息编码为二进制形式的数据。
适应RV单元255可基于从传感器250接收的第一元数据和从适应VR单元260接收的第二元数据产生将被应用于虚拟世界265的信息。此时,适应RV单元255可将产生的信息编码为第三元数据。
根据实施例,适应RV单元255可包括元数据解码器256、元数据解码器258和元数据编码器257。
适应RV单元255基于元数据解码器256对第一元数据解码的信息和元数据解码器258对第二元数据解码的信息,产生将被应用于虚拟世界265的信息。此时,适应RV单元255可产生将被应用于虚拟世界265的信息,以对应于包括在第二元数据中的虚拟世界客体属性(virtual world objectcharacteristics)和感测信息。
元数据编码器257可将适应RV单元255产生的将被应用与虚拟世界265的信息编码为第三元数据。而且,适应RV单元255可将第三元数据传送到适应VR单元260。
根据本发明的一方面,适应VR单元260可包括元数据解码器261。此时,元数据解码器261可对第三元数据进行解码。适应VR单元260可基于解码的信息变换虚拟世界265的客体的属性。而且,适应VR单元260可将变换的属性应用于虚拟世界265。
根据本发明的一方面,虚拟世界处理系统将关于虚拟世界265的信息传送到现实世界的致动器(Actuator),从而使虚拟世界265的信息反映到现实世界。以下,参照图7至图9来详细说明虚拟世界265的信息反映到现实世界的实施例。
图7至图9是示出根据本发明的一实施例的适应VR引擎和致动器的图。
参照图7,根据本发明的一实施例的适应VR引擎285可包括XML编码器286。适应VR引擎285作为图3的适应RV单元255的一实施例,可将关于虚拟世界的信息传送到现实世界的致动器288,以使得关于虚拟世界的信息反映到现实世界。
适应VR单元260可收集关于虚拟世界265的客体的属性的变化的信息,并将收集的信息传送到适应VR引擎285。适应VR引擎285包括XML编码器286,XML编码器286可将接收的关于虚拟世界265的信息编码为XML形式的数据。而且,适应VR引擎285可将XML编码器286编码的数据传送到致动器288。
致动器288可包括XML解码器287,XML解码器287可对从适应VR引擎285接收的XML形式的数据进行解码。
致动器288可做出与XML解码器解码的信息对应的动作。
参照图8,根据本发明的一实施例的适应VR引擎290可包括XML编码器291和二进制形式编码器292。
适应VR单元260可收集关于虚拟世界265的客体的属性的变化的信息,并将收集的信息传送到适应VR引擎290。适应VR引擎290包括XML编码器291和二进制形式编码器292,XML编码器291可将接收的关于虚拟世界265的信息编码为XML形式的数据,二进制形式编码器292可将XML编码器291编码的数据进一步编码为二进制形式的数据。而且,适应VR引擎290可将二进制形式编码器292编码的数据传送到致动器295。
致动器295包括二进制形式解码器293和XML解码器294,二进制形式解码器293可将从适应VR引擎290接收的二进制形式的数据解码为XML形式的数据,XML解码器294可对二进制形式解码器293解码为XML形式的数据进行解码。
致动器295可做出与XML解码器294解码的信息对应的动作。
参照图9,根据本发明的一实施例的适应VR引擎296可包括二进制形式编码器297。
适应VR单元260收集关于虚拟世界265的客体的属性的变化的信息,并将收集的信息传送到适应VR引擎296。适应VR引擎296包括二进制形式编码器297,二进制形式编码器297可将接收的关于虚拟世界的265的信息编码为二进制形式的数据。而且,适应VR引擎296可将二进制形式编码器297编码的数据传送到致动器299。
致动器299包括二进制形式解码器298,二进制形式解码器298可对从适应VR引擎296接收的二进制形式的数据进行解码。
致动器299可作出与二进制形式解码器298解码的信息对应的动作。
图10是示出根据一实施例的虚拟世界处理装置的配置的图。
参照图10,根据一实施例的虚拟世界处理装置300包括存储单元310和处理单元320。
存储单元310存储关于传感器的特性的传感器特性。
传感器是测量现实世界的用户的动作、状态、意图和形态等的装置。传感器可被表示为传感器输入装置(sensorinputdevice)。根据实施例,传感器可按诸如:(1)音响、声音、震动(acoustic、sound、vibration);(2)汽车、运输手段(automotive、transportation);(3)化学物质(chemical);(4)电流、电势、磁、无线电(electric current、electric potential、magnetic、radio);(5)环境、天气(environment、weather);(6)流(flow);(7)电离辐射、亚原子粒子(ionizing radiation、subatomic particles);(8)导航装置(navigationinstruments);(9)位置、角度、位移、距离、速度、加速度(position、angle、displacement、distance、speed、acceleration);(10)视角、光、影像(optical、light、imaging);(11)压力、力、密度、程度(pressure、force、density、level);(12)热、热度、温度(thermal、heat、temperature);(13)接近、存在(proximity、presence);(14)传感器技术(sensortechnology)的类型进行分类。
表2表示基于传感器类型的传感器的实施例。下表所示的传感器仅是一实施例,不应解释为本发明只能由下表所示的传感器来实现。
表2
例如,传感器类型(1)音响、声音、振动的麦克风可收集现实世界用户的声音和用户周围的声音。传感器类型(2)汽车、运输手段的速度传感器可测量现实世界的用户的速度和现实世界的物体(例如,运输手段(vehicle))的速度。传感器类型(3)化学物质的氧传感器可测量现实世界用户周围的空气中的氧含量比以及现实世界的用户周围的液体中的氧含量比。传感器类型(4)电流、电势、磁、无线电的金属探测器可测量现实世界用户及周围是否存在金属。传感器类型(5)环境、天气的雨传感器可测量现实世界是否下雨。传感器类型(6)流的流传感器可测量现实世界中的流体流动的比率。传感器类型(7)电力辐射、亚原子粒子的闪烁体可测量现实世界的用户和用户周围的辐射线的比率。传感器类型(8)导航装置的升降计可测量现实世界的用户和用户周围的升降速度。传感器类型(9)位置、角度、位移、距离、速度、加速度的里程表可测量现实世界的物体(例如,运输手段(vehicle))的运行距离。传感器类型(10)视觉、光、影像的光电晶体管可测量现实世界的光。传感器类型(11)压力、力、密度、程度的气压计可测量现实世界的气压。传感器类型(12)热、热度、温度的辐射热测定器可测量现实世界的辐射线。传感器类型(13)接近、存在的动作探测器可测量现实世界的用户的动作。传感器类型(14)传感器技术的生物传感器可测量现实世界的用户的生物学性质。
图11是示出根据本发明的一实施例的虚拟世界处理装置的配置的图。
参照图11,根据一实施例的输入装置360从现实世界的用户接收传感器适应偏好361。根据实施例,输入装置361可被实现为以一个模块的形态插入到传感器370或虚拟世界处理装置350。对于传感器适应偏好361,后面将参照图15至图17来详细说明。
传感器370可将传感器特性371和感测信息372传送到虚拟世界处理装置350。对于传感器特性371和感测信息372,后面将参照图12至图14和图18来详细说明。
根据本发明的一实施例的虚拟世界处理装置350包括信号处理单元351和适应单元352。
信号处理单元351从传感器370接收传感器特性371和感测信息372,并执行对于接收的传感器特性371和感测信息372的信号处理作业。根据实施例,信号处理单元351可以对传感器特性371和感测信息372执行滤波(filtering)作业和验证(validation)作业。
适应单元352从输入装置360接收传感器适应偏好361,基于接收的传感器适应偏好361对经信号处理单元351信号处理的信息执行适应(adaptation)作业,以使得所述信息能够被应用于虚拟世界380。而且,虚拟世界处理装置350将在适应单元352执行适应作业的信息应用到虚拟世界380。
传感器特性(sensor capability)是关于传感器的特性的信息。
传感器特性基本类型(sensor capability base type)是传感器特性的基本类型。根据实施例,传感器特性基本类型是关于传感器特性的元数据(metadata)的一部分,可以是关于能够共同应用于所有传感器的传感器特性的元数据的基本类型(传感器特性基本类型提供定义为传感器输入装置特性元数据类型的一部分的类型的子集的基本抽象类型)。
以下,参照图12至图14来详细说明传感器特性和传感器特性基本类型。
图12是示出根据一实施例的传感器特性基本类型的图。
参照图12,根据一实施例的传感器特性基本类型400可包括传感器基本属性(sensor capability base attribute)410和特殊属性(any attribute)420。
传感器特性基本属性410是传感器基本类型400基本包括的传感器特性的组(传感器特性基本属性描述输入装置特性的属性的组)。
特殊属性420是传感器具有的附加的传感器特性的组。特殊属性420可以是应用于任意的传感器的固有的附加传感器特性。特殊属性420可提供用于包括除基本属性之外的其它属性的扩展性(特殊属性允许包括除目标名称空间之外的名称空间中定义的任意属性)。
图13是示出根据一实施例的传感器特性基本类型的语法的图。
参照图13,根据一实施例的传感器特性基本类型的语法500可包括示意图(diagram)510、属性(attribute)520和源(source)530。
示意图510可包括传感器特性基本类型的图表。
属性520可包括传感器特性基本属性和特殊属性。
源530可包括利用可扩展标记语言(XML:eXtensible Markup Language)来表示传感器特性基本类型的程序。但是,图13所示的源530仅为一实施例,本发明并不限于此。
图14是示出根据一实施例的传感器特性基本属性的语法的图。
参照图14,根据一实施例的传感器特性基本属性的语法600可包括示意图610、属性620和源630。
示意图610可包括传感器特性基本属性的图表。
属性620可包括单位(unit)601、最大值(maxValue)602、最小值(minValue)603、偏移(offset)604、分辨力(numOflevels)605、灵敏度(sensitivity)606、信噪比(SNR:signal to noise ratio)607、和准确度(accuracy)608。
单位601是传感器测量的值的单位。根据实施例,当传感器是温度计时,单位601可以是摄氏度(℃)和华氏度(℉),当传感器为速度传感器时,单位601可以是时速(km/h)和秒速(m/s)。
最大值602和最小值603是传感器能够测量的最大值和最小值。根据实施例,当传感器是温度计时,最大值602可以是50℃,最小值603可以是0℃。而且,即使传感器是相同的温度计,最大值602和最小值603可根据传感器的用途和性能而不同。
偏移604是为了获得绝对值而与传感器所测量的值相加的偏移值。根据实施例,当传感器是速度传感器,现实世界的用户或事物停止且测量到非0的速度的值时,传感器可将偏移604确定为用于将速度调整到0的值。例如,当对于停止的现实世界的汽车,测量到-1km/h的速度时,偏移604可以是1km/h。
分辨力605是传感器能够测量的值的数量。根据实施例,当传感器是温度计,最大值是50℃且最小值是0℃时,如果分辨力605是5,则传感器可测量10℃、20℃、30℃、40℃、50℃的5个温度。根据实施例,不仅在现实世界的温度是20℃的情况,在27℃的情况下通过进行向下舍入来将温度测量为20℃,或者通过进行向上舍入来将温度测量为30℃。
灵敏度606是传感器为了测量输出值而需要的最小输入值。根据实施例,当传感器是温度计且灵敏度606是1℃时,传感器无法测量1℃以下的温度变化,只能测量1℃以上的温度变化。例如,当在现实世界,温度从15℃上升到15.5℃时,传感器仍会将温度测量为15℃。
SNR 607是传感器测量的值的信号对噪音的相对大小。根据实施例,在传感器是麦克风的情况下,在测量现实世界的用户的嗓音时,如果周围的噪音较多,则传感器的SNR 607可以是较小值。
准确度608是传感器的误差。根据实施例,当传感器是麦克风时,基于测量时的温度、湿度等的音响的传播速度之差引起的测量误差可成为准确度608。而且,通过以往该传感器测量的值的统计误差程度来确定所述传感器的准确度。
根据实施例,属性620还可包括位置(position)。位置是传感器的位置。根据实施例,当传感器是温度计时,现实世界的用户的腋窝可成为传感器的位置。位置可以是经度/维度、从地面的高度/方向等
可如表3一样地整理根据一实施例的传感器特性基本属性的单位601、最大值602、最小值603、偏移604、分辨力605、灵敏度606、SNR 607、准确度608和位置。
表3
源630可包括利用XML来表示传感器特性基本属性的程序。
附图标号631是以XML表示的对最大值602的定义。根据附图标号631,最大值602具有“单精度浮点(float)”形式的数据,可以选择性地(optional)被使用。
附图标号632是以XML表示的对最小值603的定义。根据附图标号632,最小值603具有“单精度浮点(float)”形式的数据,可以选择性地(optional)被使用。
附图标号633是以XML表示的对分辨力605的定义。根据附图标号644,分辨力605具有“nonNegativeInteger”类型的数据,可以选择性地(optional)被使用。
但是,图14所示的源640仅是一实施例,本发明并不局限于此。
再次参照图10,处理单元320基于传感器特性对从传感器接收的第一值进行判断,将与第一值对应的第二值传递到虚拟世界。
根据实施例,当从传感器接收的第一值小于或等于传感器能够测量的最大值且大于最小值时,处理单元320将与第一值对应的第二值传递到虚拟世界。
根据实施例,当从传感器接收的第一值大于传感器能够测量的最大值时,处理单元320可将第一值识别为最大值并将与第一值对应的第二值传递到虚拟世界。而且,当第一值小于最小值时,处理单元320可将第一值识别为最小值并将与第一值对应的第二值传递到虚拟世界。
根据一实施例的虚拟世界处理装置300还可包括存储用于处理从传感器接收的第一值的传感器适应偏好的第二存储单元(未示出)。处理单元320可基于传感器特性从第一值产生第三值,并基于传感器适应偏好从第三值产生第二值。
根据实施例,通过传感器测量的关于现实世界的用户的动作、状态、意图、形态等的信息可直接反映到虚拟世界。
以下,说明对于传感器的具体实施例的传感器特性。传感器可以是位置传感器、方位传感器、加速度传感器、光传感器、声音传感器、温度传感器、湿度传感器、距离传感器、动作传感器、智能相机传感器、环境噪音传感器、气压传感器、速度传感器、角速度传感器、角加速度传感器、力传感器、扭矩传感器和压力传感器,但本发明不限于此。
表4利用XML来表示关于位置传感器(position sensor)的传感器特性。但是,下面的表4的程序源仅是一实施例,本发明不限于此。
表4
位置传感器特性类型(position sensor capability type)是用于说明关于位置传感器的传感器特性的工具(tool)。
位置传感器特性类型可包括关于位置传感器的传感器特性基本属性。
关于位置传感器的传感器特性基本属性可包括范围(range)、范围类型(range type)、x最大值(xmaxValue)、x最小值(xminValue)、y最大值(ymaxValue)、y最小值(yminValue)、z最大值(zmaxValue)和z最小值(zminValue)。
范围是位置传感器能够测量的范围。例如,可利用范围类型和全局坐标(global coordinate)系统来表示位置传感器能够测量的范围。
全局坐标的原点可位于左上边缘。全局坐标可应用右手坐标系统。全局坐标的x轴以屏幕的右上侧边缘方向为正方向,y轴以重量方向(屏幕的下方向)为正方向,z轴以用户位置的相反方向(进入屏幕的方向)为正方向。
范围类型是基于x、y、z轴的全局坐标系统的范围。
x最大值是位置传感器能够以位置坐标单位(例如,米)测量的x轴的最大值。
x最小值是位置传感器能够以位置坐标单位(例如,米)测量的x轴的最小值。
y最大值是位置传感器能够以位置坐标单位(例如,米)测量的y轴的最大值。
y最小值是位置传感器能够以位置坐标单位(例如,米)测量的y轴的最小值。
z最大值是位置传感器能够以位置坐标单位(例如,米)测量的z轴的最大值。
z最小值是位置传感器能够以位置坐标单位(例如,米)测量的z轴的最小值。
表5利用XML来表示关于方位传感器(orientation sensor)的传感器特性。但是,下面的表5的程序源仅是一实施例,本发明不限于此。
表5
方位传感器特性类型(orientation sensor capability type)是用于说明关于方位传感器的传感器特性的工具。
方位传感器特性类型可包括关于方位传感器的传感器特性基本属性。
关于方位传感器的传感器特性基本属性可包括方位范围(orientationrange)、方位范围类型(orientation range type)、x最大值(xmaxValue)、x最小值(xminValue)、y最大值(ymaxValue)、y最小值(yminValue)、z最大值(zmaxValue)和z最小值(zminValue)。
范围是方位传感器能够测量的范围。例如,可利用方位范围类型和全局坐标系统来表示方位传感器能够测量的范围。
方位类型是基于x、y、z轴的全局坐标系统的方位范围。
x最大值是方位传感器能够以方位坐标单位(例如,弧度(radian))测量的x轴的最大值。
x最小值是方位传感器能够以方位坐标单位(例如,弧度)测量的x轴的最小值。
y最大值是方位传感器能够以方位坐标单位(例如,弧度(radian))测量的y轴的最大值。
y最小值是方位传感器能够以方位坐标单位(例如,弧度)测量的y轴的最小值。
z最大值是方位传感器能够以方位坐标单位(例如,弧度(radian))测量的z轴的最大值。
z最小值是方位传感器能够以方位坐标单位(例如,弧度)测量的z轴的最小值。
表6利用XML来表示关于加速度传感器(Acceleration sensor)的传感器特性。但是,下面的表6的程序源仅是一实施例,本发明不限于此。
表6
加速度传感器特性类型(orientation sensor capability type)是用于说明关于加速度传感器的传感器特性的工具。
加速度传感器特性类型可包括关于加速度传感器的传感器特性基本属性。
关于加速度传感器的传感器特性基本属性可包括最大值(maxValue)和最小值(minValue)。
最大值是加速度传感器能够以加速度单位(例如,m/s2)测量的最大值。
最小值是加速度传感器能够以加速度单位(例如,m/s2)测量的最小值。
表7利用XML来表示关于光传感器(light sensor)的传感器特性。但是,下面表7的程序源仅是一实施例,本发明不限于此。
表7
光传感器特性(light sensor capability type)是用于说明关于光传感器的传感器特性的工具。
光传感器特性类型可包括关于光传感器的传感器特性基本属性。
关于方位传感器的传感器特性基本属性可包括最大值(maxValue)、最小值(minValue)、颜色(color)和位置(location)。
最大值是光传感器能够以光的强度单位(例如,勒克斯(LUX))测量的最大值。
最小值是光传感器能够以光的强度单位(例如,LUX)测量的最小值。
颜色是光传感器能够提供的颜色。例如,颜色可以是RGB值。
位置是光传感器的位置。例如,可利用基于x、y、z轴的全局坐标系统来表示光传感器的位置。
表8利用XML来表示关于声音传感器(sound sensor)的传感器特性。但是,下面的表8的程序源仅是一实施例,本发明不限于此。
表8
声音传感器特性类型(sound sensor capability type)是用于说明关于声音传感器的传感器特性的工具。
声音传感器特性类型可包括关于声音传感器的传感器特性基本属性。
关于声音传感器的传感器特性基本属性可包括最大值(maxValue)和最小值(minValue)。
最大值是声音传感器能够以声音大小单位(例如,分贝(dB))测量的最大值。
最小值是声音传感器能够以声音大小单位(例如,分贝(dB))测量的最小值。
表9利用XML来表示关于温度传感器(Temperature sensor)的传感器特性。但是,下面表9的程序源仅是一实施例,本发明不限于此。
表9
温度传感器特性类型(Temperature sensor capability type)是用于说明关于温度传感器的传感器特性的工具。
温度传感器特性类型可包括关于温度传感器的传感器特性基本属性。
关于温度传感器的传感器特性基本属性可包括最大值(maxValue)、最小值(minValue)和位置。
最大值是温度传感器能够以温度单位(例如,摄氏度(℃))和华氏度(℉))测量的最大值。
最小值是温度传感器能够以温度单位(例如,摄氏度(℃))和华氏度(℉))测量的最小值。
位置是温度传感器的位置。例如,可利用基于x、y、z轴的全局坐标系统来表示温度传感器的位置。
表10利用XML来表示关于湿度传感器(Humidity sensor)的传感器特性。但是,下面的表10的程序源仅是一实施例,本发明不限于此。
表10
湿度传感器特性类型(Humidity sensor capability type)是用于说明关于湿度传感器的传感器特性的工具。
湿度传感器特性类型可包括关于湿度传感器的传感器特性基本属性。
关于湿度传感器的传感器特性基本属性可包括最大值(maxValue)、最小值(minValue)和位置。
最大值是湿度传感器能够以湿度单位(例如,%)测量的最大值。
最小值是湿度传感器能够以湿度单位(例如,%)测量的最小值。
位置是湿度传感器的位置。例如,可利用基于x、y、z轴的全局坐标系统来表示湿度传感器的位置。
表11利用XML来表示关于距离传感器(Distance Sensor)的传感器特性。但是,下面表11的程序源仅是一实施例,本发明不限于此。
表11
距离传感器特性类型(Distance Sensor capability type)是用于说明关于距离传感器的传感器特性的工具。
距离传感器特性类型可包括关于距离传感器的传感器特性基本属性。
关于距离传感器的传感器特性基本属性可包括最大值(maxValue)、最小值(minValue)和位置。
最大值是距离传感器能够以距离单位(例如,米)测量的最大值。
最小值是距离传感器能够以距离单位(例如,米)测量的最小值。
位置是距离传感器的位置。例如,可利用基于x、y、z轴的全局坐标系统来表示距离传感器的位置。
表12用XML来表示关于动作传感器(Motion sensor)的传感器特性。但是,下面的表12程序源仅是一实施例,本发明不限于此。
表12
动作传感器特性类型(Motion sensor capability type)是用于说明关于动作传感器的传感器特性的工具。
动作传感器可以是通过多个传感器的结合而形成的综合传感器。例如,动作传感器可通过位置传感器、速度传感器、加速度传感器、方位传感器、加速度传感器和角加速度传感器的结合而形成。
动作传感器特性类型可包括关于动作传感器的传感器特性基本属性。
关于动作传感器的传感器特性基本属性可包括位置特性(positioncapability)、速度特性(velocity capability)、加速度特性(acceleration capability)、方位特性(orientation capability)、角速度特性(angular velocity capability)和角加速度特性(angular acceleration capability)。
位置特性是关于位置位置的特性。
速度特性是关于速度的特性。
加速度特性是关于加速度的特性。
方位特性是关于方位的特性。
角速度特性是关于角速度的特性。
角加速度特性是关于角加速度的特性。
表13利用XML来表示关于智能相机传感器(Intelligent camera sensor)的传感器特性。但是,下面的表13的程序源仅是一实施例,本发明不限于此。
表13
智能相机特性类型(intelligent camera capability type)是用于说明关于智能相机传感器的传感器特性的工具。
智能相机传感器特性类型可包括关于智能相机传感器的传感器特性基本属性。
关于智能相机传感器的传感器特性基本属性可包括特征点跟踪状态(feature tracking status)、表情跟踪状态(expression tracking status)、身体动作跟踪状态(body movement tracking status)、最大身体特征点(max BodyFeature Point)、最大脸部特征点(max Face Feature Point)、特征点跟踪(TrackedFeature)、脸部特征跟踪点(tracked facial feature points)、身体特征跟踪点(tracked body feature points)、特征点类型,(feature type)、脸部特征点掩码(facialfeature mask)和身体特征点掩码(body feature mask)。
特征点跟踪状态是关于智能相机能够跟踪特征点的信息。
表情状态跟踪是关于智能相机能否提取关于脸部表情的动画的信息。
身体动作跟踪状态是关于智能相机能否提取关于身体的动画的信息。
最大身体特征点是智能相机传感器能够跟踪身体的特征点的最大值。
最大脸部特征点是智能相机传感器能够跟踪脸部的特征点的最大值。
特征点跟踪是关于能否跟踪身体和脸部的特征点的信息。
脸部特征跟踪点是关于每个脸部特征点是否是激活状态或者是否没有基于脸部特征掩码的信息。
身体特征跟踪点是关于每个身体特征点是否为激活状态或者是否基于脸部特征标记的信息。
特征点类型是关于特征点的类型的列表。例如,特征点类型可包括1.脸部;2.身体;3.脸部和身体等。
脸部特征点标记是关于脸部特征点的列表。
身体特征点标记是关于身体特征点的列表。
表14利用XML来表示关于环境噪音传感器(Ambient noise Sensor)的传感器特性。但是,下面的表14的程序源仅是一实施例,本发明不限于此。
表14
环境噪音传感器类型(Ambient noise Sensor)是用于说明关于环境噪音传感器的传感器特性的工具。
环境噪音传感器特性类型可包括关于环境噪音传感器的传感器特性基本属性。
关于环境噪音传感器的传感器特性基本属性可包括最大值(maxValue)、最小值(minValue)和位置。
最大值是环境噪音传感器能够测量的最大值。例如,单位可以是dB。
最小值是环境噪音传感器能够测量的最小值。例如,单位可以是dB。
位置是环境噪音传感器的位置。例如,可利用基于x、y、z轴的全局坐标系统来表示环境噪音传感器的位置。
表15利用XML来表示关于气压传感器(Atmospheric Pressure Sensor)的传感器特性。但是,下面的表15的程序源仅是一实施例,本发明不限于此。
表15
气压传感器特性类型(Atmospheric Pressure Sensor capability type)是用于说明关于气压传感器的传感器特性的工具。
气压传感器特性类型可包括关于气压传感器的传感器特性基本属性。
关于气压传感器的传感器特性基本属性可包括最大值(maxValue)、最小值(minValue)和位置。
最大值是气压传感器能够以气压单位(例如,hPa)测量的最大值。
最小值是气压传感器能够以气压单位(例如,hPa)测量的最小值。
位置是气压传感器的位置。例如,可利用基于x、y、z轴的全局坐标系统来表示气压传感器的位置。
表16利用XML来表示关于速度传感器类型(Velocity Sensor)的传感器特性。但是,下面表16的程序源仅是一实施例,本发明不限于此。
表16
速度传感器特性类型(Velocity Sensor capability type)是用于说明关于速度传感器的传感器特性的工具。
速度传感器特性类型可包括关于速度传感器的传感器特性基本属性。
关于速度传感器的传感器特性基本属性可包括最大值(maxValue)和最小值(minValue)。
最大值是速度传感器能够以速度单位(例如,m/s)测量的最大值。
最小值是速度传感器能够以速度单位(例如,m/s)测量的最小值。
表17利用XML来表示关于角速度传感器类型(Angular Velocity)的传感器特性。但是,下面的表17的程序源仅是一实施例,本发明不限于此。
表17
角速度传感器特性类型(Angular Velocity capability type)是用于说明关于角速度传感器的传感器特性的工具。
角速度传感器特性类型可包括关于角速度传感器的传感器特性基本属性。
关于角速度传感器的传感器特性基本属性可包括最大值(maxValue)和最小值(minValue)。
最大值是角速度传感器能够以角速度单位(例如,radian/s)测量的最大值。
最小值是角速度传感器能够以角速度单位(例如,radian/s)测量的最小值。
表18利用XML来表示关于角加速度传感器(Angular Acceleration)类型的传感器特性。但是,下面的表18的程序源仅是一实施例,本发明不限于此。
表18
角加速度传感器特性类型(Angular Acceleration capability type)是用于说明关于角加速度传感器的传感器特性的工具。
角加速度传感器特性类型可包括关于角加速度传感器的传感器特性基本属性。
关于角加速度传感器的传感器特性基本属性可包括最大值(maxValue)和最小值(minValue)。
最大值是角加速度感器能够以角加速度单位(例如,radian/s2)测量的最大值。
最小值是角加速度感器能够以角加速度单位(例如,radian/s2)测量的最小值。
表19利用XML来表示关于力传感器(Force Sensor)类型的传感器特性。但是,下面的表19的程序源仅是一实施例,本发明不限于此。
表19
力传感器特性类型(Force Sensor capabilitytype)是用于说明关于力传感器的传感器特性的工具。
力传感器特性类型可包括力传感器的传感器特性基本属性。
关于力传感器的传感器特性基本属性可包括最大值(maxValue)和最小值(minValue)。
最大值是力传感器能够以力单位(例如,牛顿)测量的最大值。
最小值是力传感器能够以力单位(例如,牛顿)测量的最小值。
表20利用XML来表示关于扭矩传感器(Torque Sensor)类型的传感器特性。但是,下面的表20的程序源仅是一实施例,本发明不限于此。
表20
扭矩传感器特性类型(Torque Sensor capability type)是用于说明关于扭矩传感器的传感器特性的工具。
扭矩传感器特性类型可包括关于扭矩传感器的传感器特性基本属性。
关于扭矩传感器的传感器特性基本属性可包括最大值(maxValue)、最小值(minValue)和位置。
最大值是扭矩传感器能够以扭矩单位(例如,牛毫米(N-mm))测量的最大值。
最小值是扭矩传感器能够以扭矩单位(例如,牛毫米(N-mm))测量的最小值。
表21利用XML来表示关于压力传感器(Pressure Sensor)类型的传感器特性。但是,下面的表21的程序源仅是一实施例,本发明不限于此。
表21
压力传感器特性类型(Pressure Sensor capability type)是用于说明关于压力传感器的传感器特性的工具。
压力传感器特性类型可包括关于压力传感器的传感器特性基本属性。
关于压力传感器的传感器特性基本属性可包括最大值(maxValue)、最小值(minValue)和位置。
最大值是压力传感器能够以压力单位(例如,m/s)测量的最大值。
最小值是压力传感器能够以压力单位(例如,m/s)测量的最小值。
以下,详细数码传感器适应偏好。
传感器适应偏好(sensor adaption preference)是用于处理从传感器接收的值的信息。
传感器适应偏好基本类型(sensor adaptation preference base type)是用户的操作信息的基本类型。根据实施例,传感器适应偏好基本类型是关于传感器适应偏好的元数据的一部分,可以是关于能够共同应用于所有传感器的传感器适应偏好的元数据的基本类型(传感器适应偏好基本类型提供定义为传感器装置特性元数据类型的一部分的类型的子集的基本抽象类型)。
以下,参照图15至图17来详细说明传感器适应偏好和传感器适应偏好基本类型。
图15是示出根据一实施例的传感器适应偏好基本类型的图。
参照图15,根据一实施例的传感器适应偏好基本类型700可包括传感器适应偏好基本属性(sensor adaptation preference base attributes)710和特殊属性(any attributes)720
传感器适应偏好基本属性710是传感器适应信号基本类型70所基本包括的传感器基本偏好的组(传感器适应偏好基本属性描述传感器适应偏好的属性的组)。
特殊属性720是附加的传感器适应偏好的组。特殊属性720可以是可应用于任意的传感器的固有的附件的传感器适应偏好。特殊属性720可提供用于包括除基本属性之外的其它属性的扩展性(特殊属性允许包括除目标名称空间之外的名称空间中定义的特殊属性)。
图16是示出根据一实施例的传感器适应偏好基本类型的语法的图。
参照图16,根据一实施例的传感器适应偏好基本类型的语法800可包括示意图810、属性820和源830。
示意图(diagram)810可包括传感器适应偏好基本类型的图表。
属性(attribute)820可包括传感器适应偏好基本属性和特殊属性。
源830可包括利用XML来表示传感器适应偏好基本类型的程序。但是图16所示的源830仅是一实施例,本发明不限于此。
图17是示出根据一实施例的传感器适应偏好基本属性的语法的图。
参照图17,根据一实施例的传感器适应偏好基本属性的语法900可包括示意图910、属性920和源930。
示意图910可包括传感器适应偏好基本属性的图表。
属性920可包括传感器参照ID(SensorIdRef)901、传感器适应模式(sensoradaptation mode)902、激活状态(activate)903、单位(unit)904、最大值(maxValue)905、最小值(minValue)906和分辨力(numOflevels)907。
传感器参照ID 901是参照产生特定的感测信息的个别传感器的标识符(ID)的信息。
传感器适应模式902是关于传感器的应用方法的用户的偏好信息。根据实施例,传感器适应模式902可以是关于适应方法的传感器适应偏好,其中,所述适应方法用于对关于通过传感器测量的现实世界的用户的动作、状态、意图、形态等的信息进行提炼以反映到虚拟世界。例如,“严格(strict)”值表示将感测的现实世界的信息直接应用到虚拟世界的用户的偏好,“可扩展(scalable)”值可表示基于用户的偏好变化所感测的现实世界的信息并应用到虚拟世界的用户的偏好。
激活状态903是关于在虚拟世界是否激活传感器的的信息。根据实施例,激活状态903可以是判别传感器是否启动的传感器适应偏好。
单位904是在虚拟世界中使用的值的单位。例如,单位904可以是像素。根据实施例,单位904是与从传感器接收的值对应的值的单位。
最大值905和最小值906是在虚拟世界中使用的值的最大值和最小值。根据实施例,最大值905和最小值906可以是与从传感器接收的值对应的值的单位。
分辨力907是在虚拟世界中使用的值的数量。根据实施例,分辨力907可以是用于划分在虚拟世界中使用的值的最大值与最小值之间的阶段数量的值。
可以如下面的表22一样地整理作为根据一实施例的传感器适应偏好基本属性的传感器参照ID 901、适应模式902、激活状态903、单位904、最大值905、最小值906和分辨力907。
表22
源930可包括利用XML来表示传感器适应偏好基本属性的程序。
附图标号931是以XML表示的对于激活状态903的定义。根据附图标号931,激活状态903具有“布尔(boolen)”类型的数据,且可被选择性地使用。
附图标号932是以XML表示的对于最大值905的定义。根据附图标号932,最大值905具有“浮点(float)”类型的数据,且可被选择性地使用。
附图标号933是以XML表示的对于最小值906的定义。根据附图标号933,最小值906具有“浮点(float)”类型的数据,且可被选择性地使用。
附图标号934是以XML表示的对于分辨力907定义。根据附图标号934,分辨力907具有“非负整数(nonNegativeInteger)”类型的数据,且可被选择性地使用。
但是,图17所示的源930仅是一实施例,本发明不限于此。
以下,说明对于传感器的具体实施例的传感器适应偏好。
表23利用XML来表示关于位置传感器(Position sensor)的传感器适应偏好。但是,下面的表23的程序源仅是一实施例,本发明不限于此。
表23
位置传感器类型(Position sensor type)是用于说明关于位置传感器的的传感器适应偏好的工具。
位置传感器特性类型是可包括关于位置传感器的传感器适应偏好基本属性。
关于位置传感器的传感器适应偏好基本属性可包括范围(range)和分辨力(numOflevels)。
范围是对于位置传感器所测量的位置信息的用户的偏好范围。
分辨力是对于位置传感器所测量的位置信息的用户的偏好分辨力。
表24利用XML来表示关于方位传感器(orientation sensor)的传感器适应偏好。但是下面的表24的程序源仅是一实施例,本发明不限于此。
表24
方位传感器类型(Orientation sensor type)是用于说明关于方位传感器的传感器适应偏好的工具。
方位传感器特性类型可包括关于方位传感器的传感器适应偏好基本属性。
关于方位传感器的传感器适应偏好基本属性可包括方位范围(range)和分辨力(numOflevels)。
方位范围是对于方位传感器所测量的方位范围的用户的偏好范围。
分辨力是对于方位传感器所测量的方位信息的用户的偏好分辨力。
表25利用XML来表示关于加速度传感器(Acceleration sensor)的传感器适应偏好。但是下面的表25的程序源仅是一实施例,本发明不限于此。
表25
加速度传感器类型(Acceleration sensor type)是用于说明关于加速度传感器的传感器适应偏好的工具。
加速度传感器特性类型可包括关于加速度传感器的传感器适应偏好基本属性。
关于加速度传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于加速度传感器所测量的加速度信息的用户的偏好最大值。
最小值是对于加速度传感器所测量的加速度信息的用户的偏好最小值。
分辨力是关于加速度传感器所测量的加速度信息的用户的偏好分辨力。
表26利用XML来表示关于光传感器(Light sensor)的传感器适应偏好。但是下面的表26的程序源仅是一实施例,本发明不限于此。
表26
光传感器类型(Light sensor type)是用于说明关于光传感器的传感器适应偏好的工具。
光传感器特性类型可包括关于光传感器的传感器适应偏好基本属性。
关于光传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)、分辨力(numOflevels)和不喜好颜色(unfavorable color)。
最大值是对于光传感器的测量值的用户的偏好最大值。
最小值是对于光传感器的测量值的用户的偏好最小值。
分辨力是对于光传感器的测量值的用户的偏好分辨力。
不喜好颜色是对于光传感器的测量值的用户的不喜好颜色。例如,不喜好颜色可以是作为RGB值或者分类参照的用户的不喜好颜色的列表。
表27利用XML来表示关于声音传感器(Sound sensor)的传感器适应偏好。但是下面的表27的程序源仅是一实施例,本发明不限于此。
表27
声音传感器类型(Sound sensor type)是用于说明关于声音传感器的传感器适应偏好的工具。
声音传感器特性类型可包括关于声音传感器的传感器适应偏好基本属性。
关于声音传感器的传感器适应偏好基本属性可包括最大值(maxValue)和最小值(minValue)。
最大值是用户所允许的声音传感器的测量值的最大值。
最小值是用户所允许的声音传感器的测量值的最小值。
表28利用XML来表示关于温度传感器(Temperature sensor)的传感器适应偏好。但是下面的表28的程序源仅是一实施例,本发明不限于此。
表28
温度传感器类型(Temperature sensor type)是用于说明关于温度传感器的传感器适应偏好的工具。
温度传感器特性类型可包括关于温度传感器的传感器适应偏好基本属性。
关于温度传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于温度传感器所测量的温度信息的用户的偏好最大值。
最小值是对于温度传感器所测量的温度信息的用户的偏好最小值。
分辨力是对于温度传感器所测量的温度信息的用户的偏好分辨力。
表29利用XML来表示关于湿度传感器(Humidity sensor)的传感器适应偏好。但是下面的表29的程序源仅是一实施例,本发明不限于此。
表29
湿度传感器类型(Humidity sensor type)是用于说明关于湿度传感器的传感器适应偏好的工具。
湿度传感器特性类型可包括关于湿度传感器的传感器适应偏好基本属性。
关于湿度传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于湿度传感器所测量的湿度信息的用户的偏好最大值。
最小值是对于湿度传感器所测量的湿度信息的用户的偏好最小值。
分辨力是对于湿度传感器所测量的湿度信息的用户的偏好分辨力。
表30利用XML来表示关于距离传感器(Distance Sensor)的传感器适应偏好。但是,下面的表30的程序源仅是一实施例,本发明不限于此。
表30
距离传感器类型(Distance Sensor type)是用于说明关于距离传感器的传感器适应偏好的工具。
距离传感器特性类型可包括关于距离传感器的传感器适应偏好基本属性。
关于距离传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于距离传感器所测量的距离信息的用户的偏好最大值。
最小值是对于距离传感器所测量的距离信息的用户的偏好最小值。
分辨力是对于距离传感器所测量的距离信息的用户的偏好分辨力。
表31利用XML来表示关于动作传感器(Motion sensor)的传感器适应偏好。但是下面的表31的程序源仅是一实施例,本发明不限于此。
表31
动作传感器特性类型(Motion sensor capability type)是用于说明关于动作传感器的传感器适应偏好的工具。
动作传感器特性类型可包括关于动作传感器的传感器适应偏好基本属性。
关于动作传感器的传感器适应偏好基本属性可包括偏好位置(positionpreference)、偏好速度(velocity preference)、偏好加速度(accelerationpreference)、偏好方位(orientation preference)、偏好角速度(angular velocitypreference)和偏好角加速度(angular acceleration preference)。
偏好位置是用户偏好位置(user preference with respect to the position)。
偏好速度是用户偏好速度(user preference with respect to the velocity)。
偏好加速度是用户偏好加速度(user preference with respect to theacceleration)。
偏好方位是用户偏好方位(user preference with respect to the orientation)。
偏好角速度是用户偏好角速度(user preference with respect to theangular)。
偏好角加速度是用户偏好角加速度(user preference with respect to theangular acceleration)。
表32利用XML来表示关于智能相机传感器(Intelligent camera sensor)的传感器适应偏好。但是下面的表32的程序源仅是一实施例,本发明不限于此。
表32
智能相机传感器特性类型(intelligent camera sensor capability type)是用于说明关于智能相机传感器的传感器适应偏好的工具。
智能相机传感器特性类型可包括关于智能相机传感器的传感器适应偏好基本属性。
关于智能相机传感器的传感器适应偏好基本属性可包括脸部特征点跟踪开启(Face Feature Tracking On)、身体特征点跟踪开启(Body Feature TrackingOn)、脸部表情跟踪开启(Facial Expression Tracking On)、姿态跟踪开启(Gesture Tracking On)、脸部跟踪地图(Face Tracking Map)和身体跟踪地图(Body Tracking Map)。
脸部特征点跟踪开启是关于是否激活智能相机传感器跟踪用户脸部的特征点的脸部特征点跟踪模式的信息。
身体特征点跟踪开启是关于是否激活智能相机传感器跟踪用户身体的特征点的身体特征点跟踪模式的信息。
脸部表情跟踪开启是对于智能相机传感器跟踪用户的脸部表情的用户的偏好信息。
姿态跟踪开始是对于智能相机传感器跟踪用户的姿态的用户的偏好信息。
脸部跟踪地图提供对于脸部跟踪地图类型的布尔地图(Boolean Map)。布尔地图提供用户期望跟踪的脸部的部分。根据实施例,关于脸部跟踪地图类型的布尔地图可将眼睛(Eyes)、嘴(Mouth)、鼻子(Nose)和耳朵(Ears)作为脸部部分提供。
身体跟踪地图提供对于身体跟踪类型的布尔地图。布尔地图提供用户期望跟踪的身体的部分。根据实施例,关于身体跟踪地图类型的布尔地图可将头部(Head)、胳膊(Arms)、手(Hands)、腿(Legs)、脚(Feet)和中间身体(MiddleBody)作为身体部分提供。
表33利用XML来表示关于环境噪音传感器(Ambient Noise Sensor)的传感器适应偏好。但是,下面的表33的程序源仅是一实施例,本发明不限于此。
表33
环境噪音传感器类型(Ambient Noise Sensor)类型是用于说明关于环境噪音传感器的传感器适应偏好的工具。
环境噪音传感器特性类型可包括关于环境噪音传感器的传感器适应偏好基本属性。
关于环境噪音传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于环境噪音传感器所测量的环境噪音信息的用户的偏好最大值。
最小值是对于环境噪音传感器所测量的环境噪音信息的用户的偏好最小值。
分辨力是对于环境噪音传感器所测量的环境噪音信息的用户的偏好分辨力。
表34利用XML来表示关于气压传感器(Atmospheric Pressure)的传感器适应偏好。但是下面的表34的程序源仅是一实施例,本发明不限于此。
表34
气压传感器类型(Atmospheric Pressure)是用于说明关于气压传感器的传感器适应偏好的工具。
气压传感器特性类型可包括关于气压传感器的传感器适应偏好基本属性。
关于气压传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于气压传感器所测量的气压信息的用户的偏好最大值。
最小值是对于气压传感器所测量的气压信息的用户的偏好最小值。
分辨力是对于气压传感器所测量的气压信息的用户的偏好分辨力。
表35利用XML来表示关于速度传感器(Velocity Sensor)的传感器适应偏好。但是,下面的表35的程序源仅是一实施例,本发明不限于此。
表35
[440]速度传感器类型(Velocity Sensor)是用于说明关于速度传感器的传感器适应偏好的工具。
[441]速度传感器特性类型可包括关于速度传感器的传感器适应偏好基本属性。
关于速度传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于速度传感器所测量的速度信息的用户的偏好最大值。
最小值是对于速度传感器所测量的速度信息的用户的偏好最小值。
分辨力是对于速度传感器所测量的速度信息的用户的偏好分辨力。
表36利用XML来表示关于角速度传感器(Angular Velocity Sensor)的传感器适应偏好。但是,下面的表36的程序源仅是一实施例,本发明不限于此。
表36
角速度传感器类型(Angular Velocity Sensor)是用于说明关于角速度传感器的传感器适应偏好的工具。
角速角度传感器特性类型可包括关于角速度传感器的传感器适应偏好基本属性。
关于角速度传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于角速度传感器所测量的角速度信息的用户的偏好最大值。
最小值是对于角速度传感器所测量的角速度信息的用户的偏好最小值。
分辨力是对于角速度传感器所测量的角速度信息的用户的偏好分辨力。
表37利用XML来表示关于角加速度传感器((Angular AccelerationSensor)的传感器适应偏好。但是,下面的表37的程序源仅是一实施例,本发明不限于此。
表37
角加速度传感器类型(Angular Acceleration Sensor)是用于说明关于角加速度传感器的传感器适应偏好的工具。
角加速度传感器特性类型可包括关于角加速度传感器的传感器适应偏好基本属性。
关于角加速度传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于角加速度传感器所测量的角加速度信息的用户的偏好最大值。
最小值是对于角加速度传感器所测量的角加速度信息的用户的偏好最小值。
分辨力是对于角加速度传感器所测量的角加速度信息的用户的偏好分辨力。
表38利用XML来表示关于力传感器(Force sensor)的传感器适应偏好。但是,下面的表38的程序源仅是一实施例,本发明不限于此。
表38
力传感器类型(Force sensor)是用于说明关于力传感器的的传感器适应偏好的工具。
力传感器特性类型可包括关于力传感器的传感器适应偏好基本属性。
关于力传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于力传感器所测量的力信息的用户的偏好最大值。
最小值是对于力传感器所测量的力信息的用户的偏好最小值。
分辨力是对于力传感器所测量的力信息的用户的偏好分辨力。
表39利用XML来表示关于扭矩传感器(Torque Sensor)的传感器适应偏好。但是,下面的表39的程序源仅是一实施例,本发明不限于此。
表39
扭矩传感器类型(Torque Sensor)是用于说明关于扭矩传感器的传感器适应偏好的工具。
扭矩传感器特性类型可包括关于扭矩传感器的传感器适应偏好基本属性。
关于扭矩传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于扭矩传感器所测量的扭矩信息的用户的偏好最大值。
最小值是对于扭矩传感器所测量的扭矩信息的用户的偏好最小值。
分辨力是对于扭矩传感器所测量的扭矩信息的用户的偏好分辨力。
表40利用XML来表示关于压力传感器(Pressure Sensor)的传感器适应偏好。但是,下面的表40的程序源仅是一实施例,本发明不限于此。
表40
压力传感器类型(Pressure Sensor)是用于说明关于压力传感器的传感器适应偏好的工具。
压力传感器特性类型可包括关于压力传感器的传感器适应偏好基本属性。
关于压力传感器的传感器适应偏好基本属性可包括最大值(maxValue)、最小值(minValue)和分辨力(numOflevels)。
最大值是对于压力传感器所测量的压力信息的用户的偏好最大值。
最小值是对于压力传感器所测量的压力信息的用户的偏好最小值。
分辨力是对于压力传感器所测量的压力信息的用户的偏好分辨力。
根据本发明的一实施例的虚拟世界处理装置可包括感测信息(sensedinformation)。
感测信息是控制传感器的命令。根据实施例,感测信息可以是为了将关于通过传感器测量的现实世界的用户的动作、状态、意图、形态等的信息反映到现实世界而控制传感器的指令。
根据实施例,感测信息可以是关于感测信息的元数据的根构成元素(sensed information serves as the root element for sensed information metadata)。
以下,参照图18来详细说明感测信息。
图18是示出根据一实施例的感测信息基本类型的图。
参照图18,根据一实施例的感测信息基本类型1000可包括感测信息基本属性(sensed information base attributes)1010和特殊属性(any attributes)1020。
感测信息基本类型1000是能够继承个别感测信息的最佳的基本类型(topmost type of the base type)。
感测信息基本属性1010是用于命令的属性的组。
特殊属性1020是附加的感测信息的组。特殊属性1020可以是应用于任意的传感器的固有的附加感测信息。特殊属性1020可提供用于包括除基本属性之外的其它属性的扩展性(特殊属性允许包括除目标名称空间之外的名称空间中定义的特殊属性)。
表41可包括利用XML表示感测信息基本类型的程序。但是,表41仅是一实施例,本发明不限于此。
表41
感测信息基本属性1010可包括id1011、传感器参照ID(sensorIdRef)1012、组ID(groupID)1013、优先权(priority)1014、激活状态(activate)1015和链接列表(linkedlist)1016。
id 1011是用于区分传感器的各自身份的标识符信息。
传感器参照ID 1012是参照产生包括在特定的感测信息中的信息的传感器的标识符的信息。
组ID 1013是用于区分特定传感器所属的多传感器组(multi-sensorstructure)的各自身份的标识符信息。
优先权1014是关于在感测信息被应用的时间上共享相同点的同一组内的传感器的感测信息的优先权信息。根据实施例,1可表示最高的优先权,值越大则优先权越低。
激活状态1015是判别传感器是否启动的信息。
链接列表1016是用于将多个传感器分组的链接信息。根据实施例,链接列表1016可以是关于以包括关于相邻传感器的标识符的参照信息的方法对传感器进行分组的多传感器组的信息。
根据实施例,感测信息基本属性1010还可包括值(value)、时间戳(timestamp)和有效期间(Life Span)。
值是传感器测量值。值可以是从传感器接收的值。
时间戳是传感器进行感测时的时间信息。
有效期间是关于传感器命令的有效期间的信息。根据实施例,有效时间可以以秒(second)为单位。
可如下面的表42一样地整理根据实施例的作为感测信息基本属性的id1101、传感器参照ID 1012、组ID 1013、优先权1014、激活状态1015、链接列表1016、值、时间戳(time stamp和有效期间(Life Span)。
表42
表43可以是利用XML来表示感测信息基本属性的程序。
表43
以下,对于传感器的具体实施例的感测信息进行说明。
表44利用XML来表示关于位置传感器(position sensor)的感测信息。但是,下面的表44的程序源仅是一实施例,本发明不限于此。
表44
位置传感器类型(position sensor type)是用于说明关于位置传感器的感测信息的工具。
位置传感器类型可包括时间戳、有效期间、位置、位置值类型(positionvalue type)、Px、Py和Pz的属性。
时间戳是关于位置传感器的感测时间的信息。
有效期间是关于位置传感器的命令的有效期间的信息。例如,有效期间可以是以秒为单位。
位置是关于以距离为单位(例如,米)的位置传感器的三维值的信息。
位置值类型是用于表示三维位置矢量的工具。
Px是关于位置传感器的x轴值的信息。
Py是关于位置传感器的y轴值的信息。
Pz是位置传感器的z轴值的信息。
表45和表46示出根据本发明的一实施例的与关于位置传感器的感测信息对应的二进制编码语法(Binary Representation Syntax)。
表45
表46
Float3DVectorType{ | 比特数(Number of bits) | 形式(Mnemonic) |
X | 32 | fsbf |
Y | 32 | fsbf |
Z | 32 | fsbf |
} |
表45和表46可包括关于位置传感器的感测信息的二进制编码语法、二进制编码语法的属性所占的比特数(Number of bits)和所述属性的形式(Mnemonic)。
例如,与关于位置传感器的感测信息对应的二进制编码语法可包括表示位置传感器的优先权的优先权(Priority)。此时,优先权所占的比特数是可以是8比特。而且,优先权的形式可以是uimsbf。uimsbf表示无符号整数高位优先(Unsigned integer Most Significant Bit First)。
根据实施例,形式还可包括bslbf和UTF-8。bslbf表示比特串左位优先。UTF-8(Unicode Transformation Format-8)表示用于统一码(unicode)的可变长度文字编码方式。UTF-8为了表示统一的文字而能够使用1字节至4字节。
表47表示数据形式。
表47
表48是示出根据本发明的一实施例的位置传感器的描述语构成语法(Descriptor components semantics)。
表48
表49利用XML来表示关于方位传感器(orientation sensor)的感测信息。但是,下面的表49的程序源仅是一实施例,本发明不限于此。
表49
方位传感器类型(orientation sensor type)是用于说明关于方位传感器的感测信息的工具。
方位传感器类型可包括时间戳、有效期间、方位、方位值类型、Ox、Oy和Oz的属性。
时间戳是关于方位传感器的感测时间的信息。
有效期间是关于方位传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
方位是的关于以方位为单位(例如,弧度)的方位传感器的值的信息。
方位值类型是用于说明表示三维方位矢量的工具。
Ox是关于方位传感器的x轴旋转角值的信息。
Oy是关于方位传感器的y轴旋转角值的信息。
Oz是关于方位传感器的z轴旋转角值的信息。
表50示出根据本发明的一实施例的与关于方位传感器的感测信息对应的二进制编码语法。
表50
表51示出根据本发明的一实施例的方位传感器的描述语构成语法。
表51
表52是利用XML来表示关于加速度传感器(Acceleration Sensor)的感测信息。但是,下面的表52的程序源仅是一实施例,本发明不限于此。
表52
加速度传感器类型(Acceleration sensor typ)是用于说明关于加速度传感器的感测信息的工具。
加速度传感器类型可包括时间戳、有效期间、加速度、加速度值类型、Ax、Ay和Az的属性。
时间戳是关于加速度传感器的感测时间的信息。
有效期间是关于加速度传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
加速度是关于以加速度为单位(例如,m/s2)的加速度传感器的值的信息。
加速度值类型用于表示三维加速度矢量的工具。
Ax是关于加速度传感器的x轴值的信息。
Ay是关于加速度传感器的y轴值的信息。
Az是关于加速度传感器的z轴值的信息。
表53示出根据本发明的一实施例的与关于加速度传感器的感测信息对应的二进制编码语法。
表53
表54示出根据本发明的一实施例的加速度传感器的描述语构成语法。
表54
表55是利用XML来表示关于光传感器(light sensor)的感测信息。但是,下面的表55的程序源仅是一实施例,本发明不限于此。
表55
光传感器类型(light sensor type)是用于说明关于光传感器的感测信息的工具。
光传感器类型可包括时间戳、有效期间、值和颜色的属性。
时间戳是关于光传感器的感测时间的信息。
有效期间是关于光传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
值是关于光的强度单位(例如,勒克斯(LUX))的光传感器的信息。
颜色是光传感器能够提供的颜色。例如,颜色可以是RGB值。
表56示出根据本发明的一实施例的与关于光传感器的感测信息对应的二进制编码语法。
表56
表57示出根据本发明的一实施例的与光传感器对应的单位CS(Unit CS)的二进制编码。表57可包括单位类型(Unit Type)和单位的术语标识符(Term IDof Unit)。
表57
单位类型 | 单位的术语ID |
00000000 | micrometer |
00000001 | mm |
00000010 | cm |
00000011 | meter |
00000100 | km |
00000101 | inch |
00000110 | yard |
00000111 | mile |
00001000 | mg |
00001001 | gram |
00001010 | kg |
00001011 | ton |
00001100 | micrometerpersec |
00001101 | mmpersec |
00001110 | cmpersec |
00001111 | meterpersec |
00010000 | Kmpersec |
00010001 | inchpersec |
00010010 | yardpersec |
00010011 | milepersec |
00010100 | micrometerpermin |
00010101 | mmpermin |
00010110 | cmpermin |
00010111 | meterpermin |
00011000 | kmpermin |
00011001 | inchpermin |
00011010 | yardpermin |
00011011 | milepermin |
00011100 | micrometerperhour |
00011101 | mmperhour |
00011110 | cmperhour |
00011111 | meterperhour |
00100000 | kmperhour |
00100001 | inchperhour |
00100010 | yardperhour |
00100011 | mileperhour |
00100100 | micrometerpersecsquare |
00100101 | mmpersecsquare |
00100110 | cmpersecsquare |
00100111 | meterpersecsquare |
00101000 | kmpersecsquare |
00101001 | inchpersecsquare |
00101010 | yardpersecsquare |
00101011 | milepersecsquare |
00101100 | micormeterperminsquare |
00101101 | mmperminsquare |
00101110 | cmperminsquare |
00101111 | meterperminsquare |
00110000 | kmpersminsquare |
00110001 | inchperminsquare |
00110010 | yardperminsquare |
00110011 | mileperminsquare |
00110100 | micormeterperhoursquare |
00110101 | mmperhoursquare |
00110110 | cmperhoursquare |
00110111 | meterperhoursquare |
00111000 | kmperhoursquare |
00111001 | inchperhoursquare |
00111010 | yardperhoursquare |
00111011 | mileperhoursquare |
00111100 | Newton |
00111101 | Nmm |
00111110 | Npmm |
00111111 | Hz |
01000000 | KHz |
01000001 | MHz |
01000010 | GHz |
01000011 | volt |
01000100 | millivolt |
01000101 | ampere |
01000110 | milliampere |
01000111 | milliwatt |
01001000 | watt |
01001001 | kilowatt |
01001010 | lux |
01001011 | celsius |
01001100 | fahrenheit |
01001101 | radian |
01001110 | degree |
01001111 | radpersec |
01010000 | degpersec |
01010001 | radpersecsquare |
01010010 | degpersecsquare |
01010011 | Npermmsquare |
01011100-11111111 | 保留 |
表58示出根据本发明的一实施例的与光传感器对应的颜色CS(colorCS)的二进制编码。表58可包括颜色类型(color Type)和颜色的术语标识符(Term ID of color)。
表58
颜色类型 | 颜色的术语ID |
000000000 | alice_blue |
000000001 | alizarin |
000000010 | amaranth |
000000011 | amaranth_pink |
000000100 | amber |
000000101 | amethyst |
000000110 | apricot |
000000111 | aqua |
000001000 | aquamarine |
000001001 | army_green |
000001010 | asparagus |
000001011 | atomic_tangerine |
000001100 | auburn |
000001101 | azure_color_wheel |
000001110 | azure_web |
000001111 | baby_blue |
000010000 | beige |
000010001 | bistre |
000010010 | black |
000010011 | blue |
000010100 | blue_pigment |
000010101 | blue_ryb |
000010110 | blue_green |
000010111 | blue-green |
000011000 | blue-violet |
000011001 | bondi_blue |
000011010 | brass |
000011011 | bright_green |
000011100 | bright_pink |
000011101 | bright_turquoise |
000011110 | brilliant_rose |
000011111 | brink_pink |
000100000 | bronze |
000100001 | brown |
000100010 | buff |
000100011 | burgundy |
000100100 | burnt_orange |
000100101 | burnt_sienna |
000100110 | burnt_umber |
000100111 | camouflage_green |
000101000 | caput_mortuum |
000101001 | cardinal |
000101010 | carmine |
000101011 | carmine_pink |
000101100 | carnation_pink |
000101101 | Carolina_blue |
000101110 | carrot_orange |
000101111 | celadon |
000110000 | cerise |
000110001 | cerise_pink |
000110010 | cerulean |
000110011 | cerulean_blue |
000110100 | champagne |
000110101 | charcoal |
000110110 | chartreuse_traditional |
000110111 | chartreuse_web |
000111000 | cherry_blossom_pink |
000111001 | chestnut |
000111010 | chocolate |
000111011 | cinnabar |
000111100 | cinnamon |
000111101 | cobalt |
000111110 | Columbia_blue |
000111111 | copper |
001000000 | copper_rose |
001000001 | coral |
001000010 | coral_pink |
001000011 | coral_red |
001000100 | corn |
001000101 | cornflower_blue |
001000110 | cosmic_latte |
001000111 | cream |
001001000 | crimson |
001001001 | cyan |
001001010 | cyan_process |
001001011 | dark_blue |
001001100 | dark_brown |
001001101 | dark_cerulean |
001001110 | dark_chestnut |
001001111 | dark_coral |
001010000 | dark_goldenrod |
001010001 | dark_green |
001010010 | dark_khaki |
001010011 | dark_magenta |
001010100 | dark_pastel_green |
001010101 | dark_pink |
001010110 | dark_scarlet |
001010111 | dark_salmon |
001011000 | dark_slate_gray |
001011001 | dark_spring_green |
001011010 | dark_tan |
001011011 | dark_turquoise |
001011100 | dark_violet |
001011101 | deep_carmine_pink |
001011110 | deep_cerise |
001011111 | deep_chestnut |
001100000 | deep_fuchsia |
001100001 | deep_lilac |
001100010 | deep_magenta |
001100011 | deep_magenta |
001100100 | deep_peach |
001100101 | deep_pink |
001100110 | denim |
001100111 | dodger_blue |
001101000 | ecru |
001101001 | egyptian_blue |
001101010 | electric_blue |
001101011 | electric_green |
001101100 | elctric_indigo |
001101101 | electric_lime |
001101110 | electric_purple |
001101111 | emerald |
001110000 | eggplant |
001110001 | falu_red |
001110010 | fern_green |
001110011 | firebrick |
001110100 | flax |
001110101 | forest_green |
001110110 | french_rose |
001110111 | fuchsia |
001111000 | fuchsia_pink |
001111001 | gamboge |
001111010 | gold_metallic |
001111011 | gold_web_golden |
001111100 | golden_brown |
001111101 | golden_yellow |
001111110 | goldenrod |
001111111 | grey-asparagus |
010000000 | green_color_wheel_x11_green |
010000001 | green_html/css_green |
010000010 | green_pigment |
010000011 | green_ryb |
010000100 | green_yellow |
010000101 | grey |
010000110 | han_purple |
010000111 | harlequin |
010001000 | heliotrope |
010001001 | Hollywood_cerise |
010001010 | hot_magenta |
010001011 | hot_pink |
010001100 | indigo_dye |
010001101 | international_klein_blue |
010001110 | international_orange |
010001111 | Islamic_green |
010010000 | ivory |
010010001 | jade |
010010010 | kelly_green |
010010011 | khaki |
010010100 | khaki_x11_light_khaki |
010010101 | lavender_floral |
010010110 | lavender_web |
010010111 | lavender_blue |
010011000 | lavender_blush |
010011001 | lavender_grey |
010011010 | lavender_magenta |
010011011 | lavender_pink |
010011100 | lavender_purple |
010011101 | lavender_rose |
010011110 | lawn_green |
010011111 | lemon |
010100000 | lemon_chiffon |
010100001 | light_blue |
010100010 | light_pink |
010100011 | lilac |
010100100 | lime_color_wheel |
010100101 | lime_web_x11_green |
010100110 | lime_green |
010100111 | linen |
010101000 | magenta |
010101001 | magenta_dye |
010101010 | magenta_process |
010101011 | magic_mint |
010101100 | magnolia |
010101101 | malachite |
010101110 | maroon_html/css |
010101111 | marron_x11 |
010110000 | maya_blue |
010110001 | mauve |
010110010 | mauve_taupe |
010110011 | medium_blue |
010110100 | medium_carmine |
010110101 | medium_lavender_magenta |
010110110 | medum_purple |
010110111 | medium_spring_green |
010111000 | midnight_blue |
010111001 | midnight_green_eagle_green |
010111010 | mint_green |
010111011 | misty_rose |
010111100 | moss_green |
010111101 | mountbatten_pink |
010111110 | mustard |
010111111 | myrtle |
011000000 | navajo_white |
011000001 | navy_blue |
011000010 | ochre |
011000011 | office_green |
011000100 | old_gold |
011000101 | old_lace |
011000110 | old_lavender |
011000111 | old_rose |
011001000 | olive |
011001001 | olive_drab |
011001010 | olivine |
011001011 | orange_color_wheel |
011001100 | orange_ryb |
011001101 | orange_web |
011001110 | orange_peel |
011001111 | orange-red |
011010000 | orchid |
011010001 | pale_blue |
011010010 | pale_brown |
011010011 | pale_carmine |
011010100 | pale_chestnut |
011010101 | pale_cornflower_blue |
011010110 | pale_magenta |
011010111 | pale_pink |
011011000 | pale_red-violet |
011011001 | papaya_whip |
011011010 | pastel_green |
011011011 | pastel_pink |
011011100 | peach |
011011101 | peach-orange |
011011110 | peach-yellow |
011011111 | pear |
011100000 | periwinkle |
011100001 | persian_blue |
011100010 | persian_green |
011100011 | persian_indigo |
011100100 | persian_orange |
011100101 | persian_red |
011100110 | persian_pink |
011100111 | persian_rose |
011101000 | persimmon |
011101001 | pine_green |
011101010 | pink |
011101011 | pink-orange |
011101100 | platinum |
011101101 | plum_web |
011101110 | powder_blue_web |
011101111 | puce |
011110000 | prussian_blue |
011110001 | psychedelic_purple |
011110010 | pumpkin |
011110011 | purple_html/css |
011110100 | purple_x11 |
011110101 | purple_taupe |
011110110 | raw_umber |
011110111 | razzmatazz |
011111000 | red |
011111001 | red_pigment |
011111010 | red_ryb |
011111011 | red-violet |
011111100 | rich_carmine |
011111101 | robin_egg_blue |
011111110 | rose |
011111111 | rose_madder |
100000000 | rose_taupe |
100000001 | royal_blue |
100000010 | royal_purple |
100000011 | ruby |
100000100 | russet |
100000101 | rust |
100000110 | safety_orange_blaze_orange |
100000111 | saffron |
100001000 | salmon |
100001001 | sandy_brown |
100001010 | sangria |
100001011 | sapphire |
100001100 | scarlet |
100001101 | school_bus_yellow |
100001110 | sea_green |
100001111 | seashell |
100010000 | selective_yellow |
100010001 | sepia |
100010010 | shamrock_green |
100010011 | shocking_pink |
100010100 | silver |
100010101 | sky_blue |
100010110 | slate_grey |
100010111 | smalt_dark_powder_blue |
100011000 | spring_bud |
100011001 | spring_green |
100011010 | steel_blue |
100011011 | tan |
100011100 | tangerine |
100011101 | tangerine_yellow |
100011110 | taupe |
100011111 | tea_green |
100100000 | tea_rose_orange |
100100001 | tea_rose_rose |
100100010 | teal |
100100011 | tenne tawny |
100100100 | terra_cotta |
100100101 | thistle |
100100110 | tomato |
100100111 | turquoise |
100101000 | tyrian_purple |
100101001 | ultramarine |
100101010 | ultra_pink |
100101011 | united_nation_blue |
100101100 | vegas_gold |
100101101 | vermilion |
100101110 | violet |
100101111 | violet_web |
100110000 | violet_ryb |
100110001 | viridian |
100110010 | wheat |
100110011 | white |
100110100 | wisteria |
100110101 | yellow |
100110110 | yellow_process |
100110111 | yellow_ryb |
100111000 | yellow_green |
100111001-111111111 | 保留 |
表59示出根据本发明的一实施例的光传感器的描述语构成语法。
表59
表60利用XML来表示关于声音传感器(sound sensor)的感测信息。但是,下面的表60的程序源仅是一实施例,本发明不限于此。
表60
声音传感器命令类型(sound sensor command type)是用于说明关于加速度传感器的感测信息的工具。
表61利用XML来表示关于温度传感器(Temperature sensor)的感测信息。但是,下面的表61的程序源仅是一实施例,本发明不限于此。
表61
温度传感器类型(Temperature sensor type)是用于说明关于温度传感器的感测信息的工具。
温度传感器类型可包括时间戳、有效期间和值的属性。
时间戳是关于温度传感器的感测时间的信息。
有效期间是关于温度传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
值是关于温度单位(例如,摄氏度(℃)和华氏度(℉))的温度传感器值的信息。
表62示出根据本发明的一实施例的与关于温度传感器的感测信息对应的二进制编码语法。
表62
表63示出根据本发明的一实施例的温度传感器的描述语构成语法。
表63
表64利用XML来表示关于湿度传感器(Humidity sensor)的感测信息。但是,下面的表64的程序源仅是一实施例,本发明不限于此。
表64
湿度传感器类型(Humidity sensor type)是用于说明关于湿度传感器的感测信息的工具。
湿度传感器类型可包括时间戳、有效期间和值的属性。
时间戳是关于湿度传感器的感测时间。
有效期间是关于湿度传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
值是关于以湿度为单位(例如,%)的湿度传感器值的信息。
表65示出根据本发明的一实施例的与关于湿度传感器的感测信息对应的二进制编码语法。
表65
表66示出根据本发明的一实施例的湿度传感器的描述与构成语法。
表66
表67利用XML来表示关于距离传感器(Distance Sensor)的传感器特性。但是,下面的表67的程序源仅是一实施例,本发明不限于此。
表67
距离传感器类型(Distance Sensor type)是用于说明关于距离传感器的感测信息的工具。
距离传感器类型可包括时间戳、有效期间和值的属性。
时间戳是关于距离传感器的感测时间的信息。
有效期间是关于距离传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
值是以距离为单位(例如,米)的距离传感器值的信息。
表68示出根据本发明的一实施例的与关于距离传感器的感测信息对应的二进制编码语法。
表68
表69示出根据本发明的一实施例的距离传感器的描述语构成语法。
表69
表70利用XML来示出关于动作传感器(Motion sensor)的感测信息。但是,下面的表70的程序源仅是一实施例,本发明不限于此。
表70
动作传感器类型(Motion sensor type)是用于说明关于动作传感器的感测信息的工具(tool)。
动作传感器类型可包括id、idref、位置、速度、加速度、方位、角速度和角加速度。
id是用于区分动作传感器的各自身份的ID信息。
idref是对于用于区分动作传感器的各自身份的id的附加信息。
位置是关于以位置为单位(例如,米)的位置矢量值的信息。
速度是关于以速度为单位的(例如,m/s)的速度矢量值的信息。
加速度是关于以速度为单位(例如,m/s2)的加速度矢量值的信息。
方位是关于以方位为单位(例如,弧度(radian))的方位矢量值的信息。
角速度是关于以速度为单位(例如,radian/s)的角速度值的信息。
角加速度是关于以速度为单位(例如,radian/s2)的速度矢量值的信息。
表71示出根据本发明一实施例的与关于动作传感器的感测信息对应的二进制编码语法(Binary Representation Syntax)。
表71
表72示出根据本发明一实施例的动作传感器的描述语构成语法(Descriptor components semantics)。
表72
表73利用XML来表示关于智能相机传感器(Intelligent Camera sensor)的感测信息。但是,下面的表73的程序源仅是一实施例,本发明不限于此。
表73
智能相机传感器类型(intelligent camera sensor type)是用于说明关于智能相机传感器的感测信息的工具(tool)。
智能相机传感器类型可包括脸部动画id(Facial Animation ID)、身体动画id(Body Animation ID)、脸部特征点(Face Feature)和身体特征点(BodyFeature)。
脸部动画id是用于参照关于脸部表情的动画剪辑的标识符。
身体动画id是用于参照关于身体的动画剪辑的标识符。
脸部特征点是关于智能相机所感测的各个脸部特征点的三维位置的信息。
身体特征点是关于智能相机所感测的各个身体特征点的三维位置的信息。
表74示出根据本发明一实施例的与关于智能相机传感器的感测信息对应的二进制编码语法(Binary Representation Syntax)。
表74
表75示出根据本发明一实施例的智能相机传感器的描述语构成语法(Descriptor components semantics)。
表75
表76利用XML来表示关于环境噪音传感器(Ambient Noise Sensor)的感测信息。但是,下面的表76的程序源仅是一实施例,本发明不限于此。
表76
环境噪音传感器类型是用于说明环境噪音传感器的感测信息的工具。
环境噪音传感器类型可包括时间戳、有效期间和值的属性。
时间戳是关于环境噪音传感器的感测时间的信息。
有效期间是关于环境噪音传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
值是关于以声音的强度为单位(例如,dB)的环境噪音传感器值的信息。
表77示出根据本发明的一实施例的与关于环境噪音传感器的感测信息对应的二进制编码语法。
表77
表78示出根据本发明的一实施例的环境噪音传感器的描述语构成语法。
[654]表78
表79利用XML来表示关于气压传感器(Atmospheric pressure Sensor)的感测信息。但是,下面的表79的程序源仅是一实施例,本发明不限于此。
表79
气压传感器类型是用于说明关于气压传感器的感测信息的工具。
气压传感器类型可包括时间戳、有效期间和值的属性。
时间戳是关于气压传感器的感测时间的信息。
有效期间是关于气压传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
值是关于以气压为单位(例如,hPa)的气压传感器值的信息。
表80示出根据本发明的一实施例的与关于气压传感器的感测信息对应的二进制编码语法。
表80
表81示出根据本发明的一实施例的气压传感器的描述与构成语法。
表81
表82利用XML来表示关于速度传感器(Velocity Sensor)的感测信息。但是,下面的表82的程序源仅是一实施例,但是本发明不限于此。
表82
速度传感器类型(Velocity Sensor type)是用于说明关于速度传感器的感测信息的工具。
速度传感器类型可包括时间戳、有效期间、速度、速度值类型、Vx、Vy和Vz的属性。
时间戳是关于速度传感器的感测时间的信息。
有效期间是关于速度传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
速度是关于以速度为单位(例如,m/s)的速度传感器至的信息。
速度值类型是用于表示三维速度矢量的工具。
Vx是关于速度传感器x轴值的信息。
Vy是关于速度传感器y轴值的信息。
Vz是关于速度传感器z轴值的信息。
表83示出根据本发明的一实施例的与关于速度传感器的感测信息对应的二进制编码语法。
表83
表84示出根据本发明的一实施例的速度传感器的描述语构成语法(Descriptor components semantics)。
表84
表85利用XML来示出关于角速度传感器(Angular Velocity Sensor)的感测信息。但是,下面的表85的程序源仅是一实施例,但是本发明不限于此。
表85
角速度传感器类型(Angular Velocity Sensor type)是用于说明关于角速度传感器的感测信息。
角速度传感器类型可包括时间戳、有效期间、角速度、角速度值类型、AVx、AVy和AVz的属性。
时间戳是关于加速度传感器的感测时间的信息。
有效期间是关于角速度传感器的命令的有效期间的信息。例如,有效期间是以秒为单位。
角速度是关于以角速度为单位(例如,radian/s)的角速度传感器的值的信息。
角速度值类型是用于表示三维角速度的工具。
AVx是关于角速度传感器的x轴旋转角速度值的信息。
AVy是关于角速度传感器的x轴旋转角速度值的信息。
AVz是关于角速度传感器的x轴旋转角速度值的信息。
表86示出根据本发明的一实施例的与关于角速度传感器的感测信息对应的二进制编码语法(Binary Representation Syntax)。
表86
表87示出根据本发明的一实施例的角速度传感器的描述语构成语法(Descriptor components semantics)。
表87
表87利用XML来表示关于角加速度传感器(Angular Acceleration Sensor)的感测信息。但是,下面的表88的程序源仅是一实施例,本发明不限于此。
表88
角加速度传感器类型(Angular Acceleration Sensor type)是用于说明关于角加速度传感器的感测信息的工具。
角加速度传感器类型可包括时间戳、有效期间、角加速度、角加速度值类型、AAx、AAy和AAz的属性。
时间戳是关于角加速度传感器的感测时间的信息。
有效期间是关于角加速度传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
角加速度是关于以角加速度为单位(例如,radian/s2)的角加速度传感器的值的信息。
角加速度值类型是用于示出三维角加速度适量的工具。
AAx是关于角加速度传感器的x轴角加速度值的信息。
AAy是关于角加速度传感器的y轴角加速度值的信息。
AAz是关于角加速度传感器的z轴角加速度值的信息。
表89示出根据本发明的一实施例的与关于角加速度传感器的感测信息对应的二进制编码语法(Binary Representation Syntax)。
表89
表90示出根据本发明的一实施例的角加速度传感器的描述语构成语法(Descriptor components semantics)。
表90
表91利用XML来表示关于力传感器(Force Sensor)的感测信息。但是,下面的表91的程序源仅是一实施例,但是本发明不限于此。
表91
力传感器类型(Force Sensor type)是用于说明关于力传感器的感测信息的工具。
力传感器类型可包括时间戳、有效期间、力、力值类型、FSx、FSy和FSz的属性。
时间戳是关于力传感器的感测时间的信息。
有效期间是关于力传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
力是关于以力为单位的(例如,N)的力传感器的值的信息。
力值类型是用于表示三维力矢量的工具。
FSx是关于力传感器的x轴力值的信息。
FSy是关于力传感器的y轴力值的信息。
FSz是关于力传感器的z轴力值的信息。
表92示出根据本发明的一实施例的与关于力传感器的感测信息对应的二进制编码语法。
表92
表93示出根据本发明的一实施例的力传感器的描述语构成语法。
表93
表94利用XML来表示关于扭矩传感器(Torque Sensor)的感测信息。但是,下面的表94的程序源仅是一实施例,但是本发明不限于此。
表94
扭矩传感器类型(Torque Sensor type)是用于说明关于扭矩传感器的感测信息的工具。
扭矩传感器类型可包括时间戳、有效期间、扭矩、扭矩值类型、TSx、TSy和TSz的属性。
时间戳是关于扭矩传感器的感测时间的信息。
有效期间是关于扭矩传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
扭矩是关于以扭矩为单位(例如,N-mm)的扭矩传感器的值的信息。
扭矩值类型是用于示出三维扭矩矢量的工具。
TSx是关于扭矩传感器的x轴扭矩值的信息。
TSy是关于扭矩传感器的y轴扭矩值的信息。
TSz是关于扭矩传感器的z轴扭矩值的信息。
表95示出根据本发明的一实施例的与关于扭矩传感器的感测信息对应的二进制编码语法。
表95
表96示出根据本发明的一实施例的扭矩传感器的描述与构成语法(Descriptor components semantics)。
表96
表97利用XML来表示关于压力传感器(Pressure Sensor)的感测信息。但是,下面的表97的程序源仅是一实施例,但是本发明不限于此。
表97
压力传感器类型(Pressure Sensor type)是用于说明关于压力传感器的感测信息的工具。
压力传感器类型可包括时间戳、有效期间和值的属性。
时间戳是关于压力传感器的感测时间的信息。
有效期间是关于压力传感器的命令的有效期间的信息。例如,有效期间可以以秒为单位。
值是关于以压力为单位(例如,N/mm2)的压力传感器值的信息。
表98表示根据本发明的一实施例的与关于压力传感器的感测信息对应的二进制编码语法(Binary Representation Syntax)。
表98
表99表示根据本发明的一实施例的压力传感器的描述语构成语法(Descriptor components semantics)。
表99
表100是利用XML来表示时间戳(Time Stamp Type)类型的程序。但是,下面的表100的程序源仅是一实施例,本发明不限于此。
表100
表101表示根据本发明的一实施例的对于时间戳类型的二进制编码语法(BinaryRepresentation Syntax)。
表101
图19是示出根据一实施例的虚拟世界处理方法的流程图的图。
参照图19,根据一实施例的虚拟世界处理方法可存储关于传感器的特性的传感器特性(S1110)。
另外,可基于传感器特性对从传感器接收的第一值进行判断,并将与第一值对应的第二值传递到虚拟世界(S1120)。
根据实施例,传感器特性可包括传感器能够测量的最大值和最小值。在虚拟世界处理方法中,当第一值小于或等于最大值且大于或等于最小值时,可将与第一值对应的第二值传递到虚拟世界。
根据实施例,传感器可包括由传感器测量的第一值的单位。另外,传感器特性可包括为了获得绝对值而相加到由传感器测量的第一值的偏移值。另外,传感器特性可包括传感器能够测量的值的数量。另外,传感器特性可包括传感器为了能够测量输出值而需要的最小输入值。另外,传感器特性可包括传感器的SNR。另外,传感器特性可包括传感器的误差。另外,传感器特性可包括传感器的位置。
根据一实施例的虚拟世界处理方法还可包括用于处理从传感器接收的第一值的传感器适应偏好的步骤(未示出),所述传递的步骤中,可基于传感器特性从第一值产生第三值,并可基于传感器适应偏好从第三值产生第二值。
根据实施例,传感器适应偏好可包括关于将传感器适应偏好应用于第一值的方法的信息。另外,传感器适应偏好可包括关于在虚拟世界是否激活传感器的信息。另外,传感器适应偏好可包括在虚拟世界使用的第二值的单位。另外,传感器适应偏好可包括在虚拟世界使用的第二值的最大值和最小值。另外,传感器适应偏好可包括在虚拟世界使用的第二值的数量。
图20是示出根据另一实施例的虚拟世界处理方法的流程图的图。
参照图20,根据一实施例的虚拟世界处理方法,为了从传感器接收现实世界的信息而进行初始设置(initial setting)(S1210)。根据实施例,初始设置的步骤(S1210)可以是激活传感器的动作。
另外,可存储作为关于传感器的特性的信息的传感器特性和作为用于处理从传感器接收的值的信息的传感器适应偏好(S1220)。
另外,可通过传感器测量关于现实世界的用户的动作、状态、意图、形态等的感测信息(S1230)。当传感器不能测量关于现实世界的用户的动作、状态、意图、形态等的信息时,可重复步骤S1230,直到可测量信息。
另外,当通过传感器测量了关于现实世界的用户的动作、状态、意图、形态等的信息时,可应用对于所述信息的预处理过程(S1240)。
另外,可利用作为控制传感器的命令的感测信息来控制传感器(S1250)。
另外,适应RV可基于传感器特性对于从传感器接收的第一值进行判断,并将与第一值对应的第二值传递到虚拟世界(S1260)。根据实施例,可基于传感器特性从第一值产生第三值,基于传感器适应偏好从第三值产生第二值,并将所述第二值传递到虚拟世界。
图21是示出根据一实施例的利用虚拟世界处理装置的动作的图。
参照图21,现实世界的用户1310可利用根据一实施例的传感器1301来输入自己的意图。根据实施例,传感器1301可包括测量现实世界的用户1310的动作的动作传感器(motion sensor)和佩戴于用户1310的胳膊和腿的末端以测量胳膊和腿的末端所指向的方向和位置的远程指示器(remote pointer)。
包括关于通过传感器1301输入的现实世界的用户1310的张开胳膊的动作、站在原地的状态、手和脚的位置和手张开的角度等的控制信息(CI:controlinformation)1302的传感器信号可被传送到虚拟世界处理装置。
根据实施例,控制信息1302可包括传感器特性、传感器适应偏好和感测信息。
根据一实施例,控制信息1302可将关于用户1310的胳膊和腿的位置信息表示为作为x轴、y轴、z轴的值的Xreal、Yreal、Zreal值和作为与x轴、y轴、z轴之间的角度的值的ΘXreal、ΘYreal、ΘZreal值来包括该关于用户1310的胳膊和腿的位置信息。
根据一实施例的虚拟世界处理装置可包括RV引擎1320。RV引擎1320利用包括在传感器信号中的控制信息1302来将现实世界的信息变换为能够应用于虚拟世界的信息。
根据实施例,RV引擎1320可利用控制信息1302来变换虚拟世界信息(VWI)1303。
VWI 1303是关于虚拟世界的信息。例如,VWI 1303可包括关于虚拟世界的客体或构成所述客体的元素的信息。
根据实施例,VWI 1303可包括虚拟世界客体信息(virtual world objectinformation)1304和虚拟角色(avatar information)信息1305。
虚拟世界客体信息1304是关于虚拟世界的客体的信息。根据实施例,虚拟世界客体信息1304可包括作为用于区分虚拟世界的客体的身份的标识符信息的客体ID(object ID)和作为用于控制虚拟世界的客体的状态、大小等的信息的客体控制/比例缩放(object control/scale)。
根据实施例,虚拟世界处理装置可通过控制命令来控制虚拟世界客体信息1304和虚拟角色信息1305。控制命令可包括生成、消除、复制等命令。虚拟世界处理装置在选择控制命令的同时选择虚拟世界客体信息1304或虚拟角色信息1305中的需要处理的其中一个信息,并且指定关于所选择的信息的ID,从而产生命令语句。
表102利用XML来表示控制命令的构成方法。但是,下面的表102的程序源仅是一实施例,本发明不限于此。
表102
RV引擎1320利用控制信息1302并应用关于张开胳膊的动作、站在原地的状态、手和脚的位置和手张开的角度等的信息从而变换出VWI 1303.
RV引擎13020可将关于变换出的VWI的信息1306传递到虚拟世界。根据实施例,关于变换出的VWI的信息1306可通过将关于虚拟世界的虚拟角色的胳膊和腿的位置信息表示为作为x、y、z轴的值的Xvirtual、Yvirtual、Zvirtual以及作为与x、y、z轴的角度的值的ΘXvirtual、ΘYvirtual、ΘZvirtual值,来包括该关于虚拟世界的虚拟角色的胳膊和腿的位置信息。而且,可以将关于虚拟世界的客体的信息表示成作为客体的横向、竖向、深度值的比例虚拟值(scale(w,d,h)virtual),来包括该关于虚拟世界的客体的信息。
根据实施例,在接收关于变换出的VWI的信息1306之前的虚拟世界1330中,虚拟角色为拿起客体的状态;在接收关于变换出的VWI的信息1306之后的虚拟世界1340中,由于反映了现实世界的用户1310的张开胳膊的动作、站在原地的状态、手和脚的位置和手张开的角度等,所以虚拟世界的虚拟角色张开胳膊,从而使客体变大。
即,当现实世界的用户1310采取抓住客体并放大的动作时,可通过传感器1301产生关于现实世界的用户1310的张开胳膊的动作、站在原地的动作、手和脚的位置以及手张开的角度等的控制信息1302。另外,RV引擎1320可将作为在现实世界测量的数据的关于现实世界的用户1310的控制信息1302变换为可应用于虚拟世界的信息。变换后的信息应用于关于虚拟世界的虚拟角色和客体的信息的结构中,因此在虚拟角色上反映了抓住客体并张开的动作,从而客体的大小可被放大。
根据本发明实施例的被实现为通过计算机手段执行的程序命令形式,从而可记录到计算机可读记录介质。所述计算机可读介质可包括单独的程序命令、数据文件、数据结构等或程序命令、数据文件、数据结构等的组合。所述记录于介质上的程序命令可以是为了本发明而专门设计和形成的程序命令,或者计算机软件领域的技术人员所公知且可以使用的程序命令。计算机可读记录介质的示例包括存储程序命令并执行程序命令的专门设计的硬件装置,所述硬件装置包括:诸如影片、软盘和磁带的磁介质(magnetic media)、诸如CD-ROM、DVD的光记录介质(optical media)、诸如软光盘(Floptical disk)磁光介质(magneto-optical media)、只读存储器(ROM)、随机访问存储器(RAM)、闪存等。程序命令的示例不仅包括诸如由编译器创建的机器代码,还包括利用解释器等来通过计算机执行的高级语言代码。上述的硬件装置可实现为用于执行本发明的动作的一个以上的软件模块,反之亦然。
虽然如上所述,通过有限的实施例和附图来说明了本发明,但是本发明不限于上述实施例,本发明所属领域的具有普通知识的技术人员可从这些记载进行各种修改和变形。
所以,本发明的范围不局限于所说明的实施例,而是由权利要求及其等同物所限定。
Claims (15)
1.一种虚拟世界处理装置,包括:
传感器,将从现实世界收集的信息编码为第一元数据;
虚拟世界到现实世界的适应单元(适应VR单元),将关于虚拟世界的信息编码为第二元数据;
现实世界到虚拟世界的适应单元(适应RV单元),基于所述第一元数据和第二元数据产生将应用于虚拟世界的信息,并将所述产生的信息编码为第三元数据。
2.根据权利要求1所述的虚拟世界处理装置,其中,所述传感器通过将从所述现实世界收集的所述信息编码为二进制形式来产生所述第一元数据,并将以所述二进制形式编码的所述第一元数据传递到所述适应RV单元。
3.根据权利要求2所述的虚拟世界处理装置,其中,以所述二进制形式编码的所述第一元数据包括二进制编码语法、所述二进制编码语法的属性的比特数以及所述属性的形式。
4.根据权利要求1所述的虚拟世界处理装置,其中,所述传感器通过将从所述现实世界收集的所述信息编码为可扩展标记语言XML形式来产生所述第一元数据,并将以所述XML形式编码的所述第一元数据传递到所述适应RV单元。
5.根据权利要求1所述的虚拟世界处理装置,其中,所述传感器通过对将从所述现实世界收集的所述信息编码为XML形式以及将所述编码为XML形式的信息进行编码为二进制形式来产生所述第一元数据,并将被编码为所述二进制形式的第一元数据传递到所述适应RV单元。
6.根据权利要求1所述的虚拟世界处理装置,其中,所述适应VR单元通过将关于所述虚拟世界的信息编码为二进制形式来产生所述第二元数据,并将以所述二进制形式编码的所述第二元数据传递到所述适应RV单元。
7.根据权利要求6所述的虚拟世界处理装置,其中,以所述二进制形式编码的所述第二元数据包括二进制编码语法、所述二进制编码语法的属性的比特数以及所述属性的形式。
8.根据权利要求1所述的虚拟世界处理装置,其中,所述适应VR单元通过将关于所述虚拟世界的信息编码为XML形式来产生所述第二元数据,并将以所述XML形式编码的所述第二元数据传递到所述适应RV单元。
9.根据权利要求1所述的虚拟世界处理装置,其中,所述适应VR单元通过将关于所述虚拟世界的信息编码为XML形式以及将以所述XML形式编码的信息编码为二进制形式来产生所述第二元数据,并将所述以二进制形式编码的第二元数据传递到所述适应RV单元。
10.一种虚拟世界处理方法,包括如下步骤:
将从现实世界收集的信息编码为第一元数据;
将关于虚拟世界的信息编码为第二元数据;
基于所述第一元数据和所述第二元数据,产生将应用于所述虚拟世界的信息;
将所述产生的信息编码为第三元数据。
11.根据权利要求10所述的虚拟世界处理方法,其中,在所述将从现实世界收集的信息编码为第一元数据的步骤中,通过将从所述现实世界收集的所述信息编码为二进制形式来产生所述第一元数据,其中,所述二进制形式包括二进制编码语法、所述二进制编码语法的属性的比特数以及所述属性的形式。
12.根据权利要求10所述的虚拟世界处理方法,其中,在所述将从现实世界收集的信息编码为第一元数据的步骤中,通过将从所述现实世界收集的所述信息编码为XML形式并将以所述XML形式编码的信息编码为二进制形式来产生所述第一元数据。
13.根据权利要求10所述的虚拟世界处理方法,其中,在所述将关于虚拟世界的信息编码为第二元数据的步骤中,通过将所述关于虚拟世界的信息编码为二进制形式来产生所述第二元数据,其中,所述二进制形式包括二进制编码语法、所述二进制编码语法的属性的比特数以及所述属性的形式。
14.根据权利要求10所述的虚拟世界处理方法,其中,在所述将关于虚拟世界的信息编码为第二元数据的步骤中,通过将所述关于虚拟世界的信息编码为XML形式并将以所述XML形式编码的信息编码为二进制形式来产生所述第二元数据。
15.一种记录有用于执行权利要求10至14中的任意一项所记录的方法的程序的计算机可读记录介质。
Applications Claiming Priority (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20090057313 | 2009-06-25 | ||
KR10-2009-0057313 | 2009-06-25 | ||
KR10-2009-0101434 | 2009-10-23 | ||
KR1020090101434A KR20100138702A (ko) | 2009-06-25 | 2009-10-23 | 가상 세계 처리 장치 및 방법 |
US25563609P | 2009-10-28 | 2009-10-28 | |
US61/255,636 | 2009-10-28 | ||
KR1020090104474A KR20100138706A (ko) | 2009-06-25 | 2009-10-30 | 가상 세계 처리 장치 및 방법 |
KR10-2009-0104474 | 2009-10-30 | ||
KR1020100003607A KR20100138722A (ko) | 2009-06-25 | 2010-01-14 | 가상 세계 처리 장치 및 방법 |
KR10-2010-0003607 | 2010-01-14 | ||
KR1020100006119A KR20100138725A (ko) | 2009-06-25 | 2010-01-22 | 가상 세계 처리 장치 및 방법 |
KR10-2010-0006119 | 2010-01-22 | ||
PCT/KR2010/004087 WO2010151051A2 (ko) | 2009-06-25 | 2010-06-23 | 가상 세계 처리 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102481487A true CN102481487A (zh) | 2012-05-30 |
CN102481487B CN102481487B (zh) | 2016-05-11 |
Family
ID=43387048
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080037696.5A Active CN102481486B (zh) | 2009-06-25 | 2010-06-23 | 虚拟世界处理装置及方法 |
CN201080038339.0A Active CN102481487B (zh) | 2009-06-25 | 2010-06-23 | 虚拟世界处理装置和方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080037696.5A Active CN102481486B (zh) | 2009-06-25 | 2010-06-23 | 虚拟世界处理装置及方法 |
Country Status (6)
Country | Link |
---|---|
US (4) | US9566506B2 (zh) |
EP (2) | EP2446942A4 (zh) |
JP (3) | JP2012531658A (zh) |
KR (1) | KR20100138725A (zh) |
CN (2) | CN102481486B (zh) |
WO (2) | WO2010151051A2 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI663871B (zh) * | 2016-10-07 | 2019-06-21 | 聯發科技股份有限公司 | 視訊編解碼方法及裝置 |
US10380715B2 (en) | 2016-12-07 | 2019-08-13 | Mediatek Inc. | Method and apparatus for generating and encoding projection-based frame with 360-degree content represented by triangular projection faces packed in octahedron projection layout |
US10643370B2 (en) | 2016-10-07 | 2020-05-05 | Mediatek Inc. | Method and apparatus for generating projection-based frame with 360-degree image content represented by triangular projection faces assembled in octahedron projection layout |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3117768B1 (en) | 2006-05-19 | 2019-11-06 | The Queen's Medical Center | Motion tracking system and method for real time adaptive imaging and spectroscopy |
KR20100138725A (ko) * | 2009-06-25 | 2010-12-31 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
KR20100138700A (ko) * | 2009-06-25 | 2010-12-31 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
KR101685922B1 (ko) * | 2010-04-05 | 2016-12-13 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
KR101746453B1 (ko) * | 2010-04-12 | 2017-06-13 | 삼성전자주식회사 | 실감 효과 처리 시스템 및 방법 |
US9821224B2 (en) * | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Driving simulator control with virtual skeleton |
US20120192088A1 (en) * | 2011-01-20 | 2012-07-26 | Avaya Inc. | Method and system for physical mapping in a virtual world |
CN103608749B (zh) * | 2011-04-26 | 2016-12-07 | 加利福尼亚大学董事会 | 用于记录和重现感觉的系统和装置 |
CN102707804B (zh) * | 2011-05-23 | 2015-03-25 | 中国科学院软件研究所 | 一种基于加速度传感器的角色动作控制方法 |
EP2747641A4 (en) | 2011-08-26 | 2015-04-01 | Kineticor Inc | METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9782141B2 (en) | 2013-02-01 | 2017-10-10 | Kineticor, Inc. | Motion tracking system for real time adaptive motion compensation in biomedical imaging |
US10004462B2 (en) | 2014-03-24 | 2018-06-26 | Kineticor, Inc. | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
US10222953B2 (en) * | 2014-04-30 | 2019-03-05 | Disney Enterprises, Inc. | Systems and methods for editing virtual content of a virtual space |
WO2016014718A1 (en) | 2014-07-23 | 2016-01-28 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
WO2016036425A1 (en) * | 2014-09-05 | 2016-03-10 | Ballcraft, Llc | Motion detection for portable devices |
EP3099030A1 (en) * | 2015-05-26 | 2016-11-30 | Thomson Licensing | Method and device for encoding/decoding a packet comprising data representative of a haptic effect |
CN105118044B (zh) * | 2015-06-16 | 2017-11-07 | 华南理工大学 | 一种轮形铸造产品缺陷自动检测方法 |
WO2016203282A1 (en) | 2015-06-18 | 2016-12-22 | The Nielsen Company (Us), Llc | Methods and apparatus to capture photographs using mobile devices |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
CN108697367A (zh) | 2015-11-23 | 2018-10-23 | 凯内蒂科尓股份有限公司 | 用于在医学成像扫描期间跟踪并补偿患者运动的系统、装置和方法 |
JP6311695B2 (ja) | 2015-12-16 | 2018-04-18 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
JP6187623B1 (ja) * | 2016-03-14 | 2017-08-30 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
US10092827B2 (en) * | 2016-06-16 | 2018-10-09 | Disney Enterprises, Inc. | Active trigger poses |
US20180285644A1 (en) * | 2017-03-29 | 2018-10-04 | Electronics And Telecommunications Research Institute | Sensor information processing method and system between virtual world and real world |
US10154360B2 (en) * | 2017-05-08 | 2018-12-11 | Microsoft Technology Licensing, Llc | Method and system of improving detection of environmental sounds in an immersive environment |
US10948450B2 (en) | 2018-07-23 | 2021-03-16 | Genmark Diagnostics, Inc. | Electrochemical measurements of components in coatings |
US10957112B2 (en) | 2018-08-13 | 2021-03-23 | Magic Leap, Inc. | Cross reality system |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
KR20200019486A (ko) | 2018-08-14 | 2020-02-24 | 삼성전자주식회사 | 전자 장치, 그 제어 방법 및 전자 시스템 |
WO2020072985A1 (en) | 2018-10-05 | 2020-04-09 | Magic Leap, Inc. | Rendering location specific virtual content in any location |
GB2586059B (en) * | 2019-08-01 | 2023-06-07 | Sony Interactive Entertainment Inc | System and method for generating user inputs for a video game |
CN114616534A (zh) | 2019-10-15 | 2022-06-10 | 奇跃公司 | 具有无线指纹的交叉现实系统 |
CN114600064A (zh) | 2019-10-15 | 2022-06-07 | 奇跃公司 | 具有定位服务的交叉现实系统 |
CN110633013B (zh) * | 2019-10-17 | 2022-12-20 | 于生明 | 一种全方位万向行动平台的控制方法 |
JP2023504775A (ja) | 2019-11-12 | 2023-02-07 | マジック リープ, インコーポレイテッド | 位置特定サービスおよび共有場所ベースのコンテンツを伴うクロスリアリティシステム |
WO2021118962A1 (en) | 2019-12-09 | 2021-06-17 | Magic Leap, Inc. | Cross reality system with simplified programming of virtual content |
US11562525B2 (en) | 2020-02-13 | 2023-01-24 | Magic Leap, Inc. | Cross reality system with map processing using multi-resolution frame descriptors |
EP4103910A4 (en) * | 2020-02-13 | 2024-03-06 | Magic Leap, Inc. | CROSS-REALLY SYSTEM WITH ACCURATE COMMON MAPS |
CN115398484A (zh) | 2020-02-13 | 2022-11-25 | 奇跃公司 | 具有用于定位的地理定位信息优先级的交叉现实系统 |
US11551430B2 (en) | 2020-02-26 | 2023-01-10 | Magic Leap, Inc. | Cross reality system with fast localization |
US11900547B2 (en) | 2020-04-29 | 2024-02-13 | Magic Leap, Inc. | Cross reality system for large scale environments |
CN112842670B (zh) * | 2021-01-28 | 2022-07-08 | 吉林大学第一医院 | 一种肾病患者水肿明显时的皮肤护理装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1206007C (zh) * | 2002-10-31 | 2005-06-15 | 威盛电子股份有限公司 | 压力感应式虚拟实境跑步机 |
US20060262120A1 (en) * | 2005-05-19 | 2006-11-23 | Outland Research, Llc | Ambulatory based human-computer interface |
US20080114710A1 (en) * | 2006-11-09 | 2008-05-15 | Pucher Max J | Method For Training A System To Specifically React On A Specific Input |
US20090076791A1 (en) * | 2007-09-18 | 2009-03-19 | Disney Enterprises, Inc. | Method and system for converting a computer virtual environment into a real-life simulation environment |
Family Cites Families (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2026082A (en) * | 1935-08-31 | 1935-12-31 | Parker Brothers Inc | Board game apparatus |
EP0578692B1 (en) * | 1991-04-03 | 1995-06-14 | Hewlett-Packard Company | Position-sensing apparatus |
US5597373A (en) * | 1991-11-08 | 1997-01-28 | Cedaron Medical, Inc. | Physiological evaluation and exercise system |
US5330980A (en) * | 1992-08-25 | 1994-07-19 | Shin Jae S | Medicament for the topical treatment of skin |
US5577981A (en) * | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
US5583795A (en) * | 1995-03-17 | 1996-12-10 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for measuring eye gaze and fixation duration, and method therefor |
RU2109336C1 (ru) * | 1995-07-14 | 1998-04-20 | Нурахмед Нурисламович Латыпов | Способ погружения пользователя в виртуальную реальность и устройство для его реализации |
AU2978397A (en) | 1996-06-05 | 1998-01-05 | Sega Enterprises, Ltd. | Image processor for games |
US6542081B2 (en) * | 1996-08-19 | 2003-04-01 | William C. Torch | System and method for monitoring eye movement |
USRE39539E1 (en) * | 1996-08-19 | 2007-04-03 | Torch William C | System and method for monitoring eye movement |
KR100221335B1 (ko) * | 1996-12-26 | 1999-09-15 | 전주범 | 가상 현실 시스템에서 글러브 센서값 전송 시스템 및 그 방법 |
TW458974B (en) | 1997-07-17 | 2001-10-11 | Kuraray Co | Process for producing chromans |
US6137403A (en) * | 1998-12-10 | 2000-10-24 | Phoenix Controls Corporation | Sash sensor and method of sensing a sash using an array of multiplexed elements |
US20100045816A1 (en) * | 1999-05-19 | 2010-02-25 | Rhoads Geoffrey B | User Feedback in Connection with Object Recognition |
US6792165B1 (en) * | 1999-05-25 | 2004-09-14 | Silverbrook Research Pty Ltd | Sensing device |
US6120461A (en) * | 1999-08-09 | 2000-09-19 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for tracking the human eye with a retinal scanning display, and method thereof |
CA2646789A1 (en) * | 1999-12-28 | 2001-07-05 | Sony Corporation | Signal processing device and method, and recording medium |
JP2002159004A (ja) * | 2000-04-21 | 2002-05-31 | Sony Corp | 符号化装置および方法、記録媒体、並びにプログラム |
WO2002007000A2 (en) * | 2000-07-13 | 2002-01-24 | The Belo Company | System and method for associating historical information with sensory data and distribution thereof |
JP2002305758A (ja) | 2001-04-04 | 2002-10-18 | Nippon Telegr & Teleph Corp <Ntt> | 臨場感通信装置及び臨場感通信システム |
US7149691B2 (en) * | 2001-07-27 | 2006-12-12 | Siemens Corporate Research, Inc. | System and method for remotely experiencing a virtual environment |
KR100452917B1 (ko) * | 2001-10-09 | 2004-10-14 | 주식회사 제노프릭스 | 색 마커를 이용한 3차원 신체 동작 인식방법 및 시스템 |
US7225343B1 (en) * | 2002-01-25 | 2007-05-29 | The Trustees Of Columbia University In The City Of New York | System and methods for adaptive model generation for detecting intrusions in computer systems |
US20040001734A1 (en) * | 2002-02-07 | 2004-01-01 | Burrell James W. | Virtual keyboard and control means |
JP4447823B2 (ja) | 2002-06-14 | 2010-04-07 | ソニー株式会社 | 携帯情報機器 |
WO2007130793A2 (en) * | 2006-05-04 | 2007-11-15 | Sony Computer Entertainment America Inc. | Obtaining input for controlling execution of a game program |
JP4144374B2 (ja) * | 2003-02-25 | 2008-09-03 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
US8566292B2 (en) * | 2003-04-14 | 2013-10-22 | Schneider Electric It Corporation | Method and system for journaling and accessing sensor and configuration data |
US7217224B2 (en) * | 2003-08-14 | 2007-05-15 | Tom Thomas | Virtual exercise system and method |
US7752544B2 (en) | 2003-11-17 | 2010-07-06 | International Business Machines Corporation | Method, system, and apparatus for remote interactions |
US20050168485A1 (en) * | 2004-01-29 | 2005-08-04 | Nattress Thomas G. | System for combining a sequence of images with computer-generated 3D graphics |
DE102004012072A1 (de) * | 2004-03-12 | 2005-09-29 | Robert Bosch Gmbh | Ortungsgerät |
CN1973508B (zh) * | 2004-06-30 | 2010-09-08 | 诺基亚公司 | 数据对象的传送 |
JP2006065518A (ja) | 2004-08-25 | 2006-03-09 | Asahi Kasei Electronics Co Ltd | ポインティングデバイス、および、信号処理方法 |
US20070044539A1 (en) * | 2005-03-01 | 2007-03-01 | Bryan Sabol | System and method for visual representation of a catastrophic event and coordination of response |
US8239162B2 (en) * | 2006-04-13 | 2012-08-07 | Tanenhaus & Associates, Inc. | Miniaturized inertial measurement unit and associated methods |
US8156232B2 (en) * | 2005-09-12 | 2012-04-10 | Rockwell Automation Technologies, Inc. | Network communications in an industrial automation environment |
JP4794957B2 (ja) | 2005-09-14 | 2011-10-19 | 任天堂株式会社 | ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法 |
JP2007156779A (ja) * | 2005-12-05 | 2007-06-21 | Hitachi Ltd | センサネットシステム、基地局及びセンシングデータの中継方法 |
KR100838181B1 (ko) | 2005-12-08 | 2008-06-16 | 한국전자통신연구원 | 초소형 절대 위치 센서를 이용한 핸드 인터페이스 글로브및 이를 이용한 핸드 인터페이스 시스템 |
US20070132722A1 (en) * | 2005-12-08 | 2007-06-14 | Electronics And Telecommunications Research Institute | Hand interface glove using miniaturized absolute position sensors and hand interface system using the same |
JP2007206746A (ja) * | 2006-01-30 | 2007-08-16 | Canon Inc | 情報処理装置及びその制御方法、プログラム、記憶媒体 |
JP4719034B2 (ja) * | 2006-03-07 | 2011-07-06 | 株式会社日立製作所 | センサネットシステム、基地局及びセンシングデータの中継方法 |
JP5196515B2 (ja) | 2006-04-25 | 2013-05-15 | 任天堂株式会社 | ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法 |
JP4567805B2 (ja) * | 2006-05-04 | 2010-10-20 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | 1つ以上の視覚、音響、慣性およびミックスデータに基づく入力にギアリング効果を与える方法ならびに装置 |
JP5089079B2 (ja) | 2006-05-08 | 2012-12-05 | 任天堂株式会社 | プログラム、情報記憶媒体及び画像生成システム |
US7794142B2 (en) * | 2006-05-09 | 2010-09-14 | Tsi Technologies Llc | Magnetic element temperature sensors |
KR100770890B1 (ko) * | 2006-08-18 | 2007-10-26 | 삼성전자주식회사 | 디지털 비디오 방송 단말기의 파일타입 검출장치 및 방법 |
US9317110B2 (en) * | 2007-05-29 | 2016-04-19 | Cfph, Llc | Game with hand motion control |
US20080310707A1 (en) * | 2007-06-15 | 2008-12-18 | Microsoft Corporation | Virtual reality enhancement using real world data |
JP4916390B2 (ja) * | 2007-06-20 | 2012-04-11 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
KR20090002292A (ko) | 2007-06-26 | 2009-01-09 | 삼성전자주식회사 | 가상 캐릭터를 동기화하고 공유하는 장치 및 방법 |
US8572155B2 (en) * | 2007-08-23 | 2013-10-29 | Applied Materials, Inc. | Virtual sensors |
JP2009140107A (ja) * | 2007-12-04 | 2009-06-25 | Sony Corp | 入力装置及び制御システム |
US8386918B2 (en) | 2007-12-06 | 2013-02-26 | International Business Machines Corporation | Rendering of real world objects and interactions into a virtual universe |
EP2247998B1 (en) * | 2008-02-28 | 2019-04-10 | New York University | Method and apparatus for providing input to a processor, and a sensor pad |
JP4571198B2 (ja) * | 2008-03-07 | 2010-10-27 | 京セラ株式会社 | 携帯通信端末 |
WO2009136325A1 (en) * | 2008-05-09 | 2009-11-12 | Koninklijke Philips Electronics N. V. | System and method for processing application logic of a virtual and a real-world ambient intelligence environment |
JPWO2010026843A1 (ja) * | 2008-09-08 | 2012-02-02 | 株式会社日立製作所 | 慣性センサ |
JP5334595B2 (ja) * | 2009-01-09 | 2013-11-06 | 任天堂株式会社 | ゲーム装置およびゲームプログラム |
KR20100138725A (ko) * | 2009-06-25 | 2010-12-31 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
-
2010
- 2010-01-22 KR KR1020100006119A patent/KR20100138725A/ko unknown
- 2010-06-23 CN CN201080037696.5A patent/CN102481486B/zh active Active
- 2010-06-23 JP JP2012517386A patent/JP2012531658A/ja active Pending
- 2010-06-23 US US13/380,318 patent/US9566506B2/en active Active
- 2010-06-23 EP EP10792336.9A patent/EP2446942A4/en not_active Ceased
- 2010-06-23 WO PCT/KR2010/004087 patent/WO2010151051A2/ko active Application Filing
- 2010-06-23 US US13/380,743 patent/US9108106B2/en active Active
- 2010-06-23 EP EP10792333.6A patent/EP2446941A4/en not_active Withdrawn
- 2010-06-23 CN CN201080038339.0A patent/CN102481487B/zh active Active
- 2010-06-23 WO PCT/KR2010/004091 patent/WO2010151054A2/ko active Application Filing
- 2010-06-23 JP JP2012517384A patent/JP6216512B2/ja active Active
-
2015
- 2015-08-13 US US14/825,784 patent/US20160030851A1/en not_active Abandoned
-
2016
- 2016-01-29 JP JP2016016649A patent/JP2016137248A/ja active Pending
-
2017
- 2017-02-10 US US15/429,811 patent/US9987553B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1206007C (zh) * | 2002-10-31 | 2005-06-15 | 威盛电子股份有限公司 | 压力感应式虚拟实境跑步机 |
US20060262120A1 (en) * | 2005-05-19 | 2006-11-23 | Outland Research, Llc | Ambulatory based human-computer interface |
US20080114710A1 (en) * | 2006-11-09 | 2008-05-15 | Pucher Max J | Method For Training A System To Specifically React On A Specific Input |
US20090076791A1 (en) * | 2007-09-18 | 2009-03-19 | Disney Enterprises, Inc. | Method and system for converting a computer virtual environment into a real-life simulation environment |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI663871B (zh) * | 2016-10-07 | 2019-06-21 | 聯發科技股份有限公司 | 視訊編解碼方法及裝置 |
US10462484B2 (en) | 2016-10-07 | 2019-10-29 | Mediatek Inc. | Video encoding method and apparatus with syntax element signaling of employed projection layout and associated video decoding method and apparatus |
US10643370B2 (en) | 2016-10-07 | 2020-05-05 | Mediatek Inc. | Method and apparatus for generating projection-based frame with 360-degree image content represented by triangular projection faces assembled in octahedron projection layout |
US10825229B2 (en) | 2016-10-07 | 2020-11-03 | Mediatek Inc. | Method and apparatus for generating projection-based frame with 360-degree image content represented by triangular projection faces assembled in triangle-based projection layout |
US10380715B2 (en) | 2016-12-07 | 2019-08-13 | Mediatek Inc. | Method and apparatus for generating and encoding projection-based frame with 360-degree content represented by triangular projection faces packed in octahedron projection layout |
US10679324B2 (en) | 2016-12-07 | 2020-06-09 | Mediatek Inc. | Method and apparatus for decoding projection-based frame with 360-degree content represented by triangular projection faces packed in octahedron projection layout |
US10963987B2 (en) | 2016-12-07 | 2021-03-30 | Mediatek Inc. | Method and apparatus for decoding projection based frame with 360-degree content represented by triangular projection faces packed in triangle-based projection layout |
Also Published As
Publication number | Publication date |
---|---|
CN102481486B (zh) | 2015-05-20 |
EP2446941A4 (en) | 2014-03-19 |
US20120188237A1 (en) | 2012-07-26 |
CN102481486A (zh) | 2012-05-30 |
US9108106B2 (en) | 2015-08-18 |
JP6216512B2 (ja) | 2017-10-18 |
EP2446941A2 (en) | 2012-05-02 |
US9987553B2 (en) | 2018-06-05 |
KR20100138725A (ko) | 2010-12-31 |
WO2010151054A2 (ko) | 2010-12-29 |
CN102481487B (zh) | 2016-05-11 |
WO2010151051A3 (ko) | 2011-04-21 |
US9566506B2 (en) | 2017-02-14 |
US20160030851A1 (en) | 2016-02-04 |
WO2010151051A2 (ko) | 2010-12-29 |
US20120191737A1 (en) | 2012-07-26 |
JP2012531657A (ja) | 2012-12-10 |
EP2446942A4 (en) | 2017-06-21 |
JP2016137248A (ja) | 2016-08-04 |
EP2446942A2 (en) | 2012-05-02 |
US20170246532A1 (en) | 2017-08-31 |
JP2012531658A (ja) | 2012-12-10 |
WO2010151054A3 (ko) | 2011-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102481487A (zh) | 虚拟世界处理装置和方法 | |
CN102822769B (zh) | 虚拟世界处理装置和方法 | |
CN102869415B (zh) | 用于处理虚拟世界的装置和方法 | |
KR101686139B1 (ko) | 가상 세계 처리 장치 및 방법 | |
CN104035556A (zh) | 触觉效果的自动适配 | |
Tsaramirsis et al. | Navigating virtual environments using leg poses and smartphone sensors | |
CN110222730A (zh) | 基于惯性传感器的用户身份识别方法及识别模型构建方法 | |
Qu et al. | Spiking Neural Network for Ultralow-Latency and High-Accurate Object Detection | |
KR20110108060A (ko) | 가상 세계 처리 장치 및 방법 | |
Wang | Data feature extraction method of wearable sensor based on convolutional neural network | |
Cheng et al. | Combined hand gesture—Speech model for human action recognition | |
CN208999971U (zh) | 一种具有鼠标功能的智能笔 | |
Tong et al. | Exploiting Serialized Fine‐Grained Action Recognition Using WiFi Sensing | |
Han et al. | Controlling virtual world by the real world devices with an MPEG-V framework | |
Wang et al. | Research on Multiperson Motion Capture System Combining Target Positioning and Inertial Attitude Sensing Technology | |
Li et al. | Correction Algorithm of Tennis Dynamic Image Serving Path Based on Symmetric Algorithm | |
Zhang et al. | Skeleton‐Guided Action Recognition with Multistream 3D Convolutional Neural Network for Elderly‐Care Robot | |
KR20130057390A (ko) | 가상 세계 처리 장치 및 방법 | |
Marchesi | Advanced Technologies for Human-Computer Interfaces in Mixed Reality | |
CN116956057A (zh) | 一种数据处理方法和相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |