CN102858413A - 虚拟世界处理装置及方法 - Google Patents

虚拟世界处理装置及方法 Download PDF

Info

Publication number
CN102858413A
CN102858413A CN2011800186490A CN201180018649A CN102858413A CN 102858413 A CN102858413 A CN 102858413A CN 2011800186490 A CN2011800186490 A CN 2011800186490A CN 201180018649 A CN201180018649 A CN 201180018649A CN 102858413 A CN102858413 A CN 102858413A
Authority
CN
China
Prior art keywords
virtual world
angle value
sensor
sense position
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011800186490A
Other languages
English (en)
Other versions
CN102858413B (zh
Inventor
韩在濬
韩承周
方远喆
金道均
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN201410484088.9A priority Critical patent/CN104281262B/zh
Publication of CN102858413A publication Critical patent/CN102858413A/zh
Application granted granted Critical
Publication of CN102858413B publication Critical patent/CN102858413B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character

Abstract

公开了虚拟世界处理装置及方法。根据本发明的实施例,可利用作为关于弯曲传感器的特性的信息的传感器特性,将测量现实世界的用户的身体部位的角度而得到的角度值传递到虚拟世界,从而实现现实世界与虚拟世界的交互作用。此外,在实施例中,基于传感器特性和感测身体部位的角度而得到的角度值产生用于控制与身体部位对应的虚拟世界的虚拟形象的部位的控制信息,并将产生的控制信息传递到虚拟世界,从而可实现现实世界与虚拟世界的交互作用。

Description

虚拟世界处理装置及方法
技术领域
本发明的实施例涉及虚拟世界处理装置及方法,更具体地讲,涉及一种将弯曲传感器测量的感测信息应用到虚拟世界的装置及方法。
背景技术
近年来,对于体感型游戏的关注逐渐增加。微软公司在“E3.2009.新闻发布会”中发布了“Project Natal”,其中,所述“Project Natal”为,在作为其游戏控制台的Xbox360上结合由深度/色彩相机和多点阵列麦克风组成的专门的传感器设备而提供采集用户全身运动、面部识别、声音识别技术,从而无需专门的控制器就可以与虚拟世界进行交互。而且,索尼公司发布了体感型游戏运动控制器“Wand”,其在作为该公司的游戏控制台的PS3中采用色彩相机、麦克风、超声波传感器的位置/方向传感技术,从而能够通过控制器的运动轨迹输入与虚拟世界进行交互。
现实世界与虚拟世界的相互作用具有两种方向。第一种是将从现实世界的传感器获得的数据信息反映到虚拟世界的方向,第二种是将从虚拟世界获得的数据信息通过致动器(actuator)反映到现实世界的方向。
本说明书提供了针对利用弯曲传感器将从现实世界感测的信息应用于虚拟世界的装置及方法的新的方案。
发明内容
技术方案
根据一实施例的一种虚拟世界处理装置,包括:接收单元,从弯曲传感器接收感测位置的角度值和关于所述弯曲传感器的特性的传感器特性;处理单元,基于所述角度值和所述传感器特性,产生用于控制虚拟世界的与所述感测位置对应的客体的控制信息;传送单元,将所述产生的控制信息传送到虚拟世界。
根据一实施例的一种虚拟世界处理方法,包括如下步骤:从弯曲传感器接收感测位置的角度值和关于所述弯曲传感器的特性的传感器特性;基于所述角度值和所述传感器特性,产生用于控制虚拟世界的与所述感测位置对应的客体的控制信息;将所述产生的控制信息传送到虚拟世界。
有益效果
在实施例中,利用作为关于弯曲传感器的特性的信息的传感器特性,将测量现实世界的用户的身体部位的角度而得到的角度值传递到虚拟世界,从而实现现实世界与虚拟世界的交互作用。
此外,在实施例中,基于传感特性和感测身体部位的角度而得到的角度值,产生用于控制与身体部位对应的虚拟世界的虚拟形象的部位的控制信息,并将产生的控制信息传递到虚拟世界,从而可实现现实世界与虚拟世界的交互作用。
附图说明
图1是示出根据一实施例的控制现实世界与虚拟世界之间的信息交换的虚拟世界处理系统的图。
图2是示出根据本发明的一实施例的虚拟世界处理装置构成的图。
图3示出根据本发明的一实施例的多个弯曲传感器测量感测位置的操作。
图4示出根据本发明的一实施例的虚拟世界处理装置计算角度值的操作。
图5是示出根据本发明的一实施例的虚拟形象控制特征点类型的结构的图。
图6是示出根据本发明的一实施例的虚拟世界处理方法的流程图。
具体实施方式
下面,结合附图详细说明根据本发明的实施例。但是,本发明不是由实施例所限制或限定,各个附图所示出的相同标号表示相同的部件。
图1是示出根据一实施例的控制现实世界与虚拟世界之间的信息交换的虚拟世界处理系统的图。
参照图1,根据本发明的实施例的虚拟世界处理系统可包括现实世界110、虚拟世界处理装置及虚拟世界140。
现实世界110可表示感测关于现实世界110的信息的传感器或在现实世界110上实现关于虚拟世界140的信息的实感装置(sensory device)。
另外,虚拟世界140可表示通过程序实现的虚拟世界140其自身或再现包括能够在现实世界110实现的实感效果信息的内容的实感媒体再现装置。
根据一实施例的传感器可感测关于现实世界110的用户的动作、状态、意图、形态等的信息,并将所感测的信息传送到虚拟世界。
根据一实施例,传感器可将传感器特性(Sensor Capabitlity)101、传感器适应偏好(Sensor Adaptation Preference)102和感测信息(Sensed Information)103传送到虚拟世界处理装置。
传感器特性101是关于传感器的特性的信息。传感器适应偏好102是表示传感器的用户对传感器的特性所偏好的程度的信息。感测信息103是传感器感测现实世界110的信息。
根据一实施例,虚拟世界处理装置可包括现实世界到虚拟世界的适应(适应RV,adaptation real world to virtual world)120、虚拟世界信息(VWI:virtualworld information)104和现实世界到虚拟世界的适应/虚拟世界到现实世界的适应(适应RV/VR:adaptation real world to virtual world/virtual world to realworld)130。
适应RV 120可基于传感器特性101和传感器适应偏好102,将传感器对于现实世界110感测的感测信息103变换为可应用于虚拟世界140的虚拟信息103。根据实施例,适应RV 120可被实现为现实世界到虚拟世界引擎(RV引擎:real world to virtual world engine)。
根据一实施例的适应RV 120可利用变换的感测信息103来变换VWI104。
VWI 104是关于虚拟世界140的虚拟对客体(Virtual Object)的信息。
适应RV/VR 130可通过对变换的VWI 140进行编码,来产生作为关于应用于虚拟世界140的效果的元数据的虚拟世界效果元数据(VWEM:VirtualWorld Effect Metadata)107。根据实施例,适应RV/VR 130可基于虚拟世界特性(VWC:Virtual World Capabilities)105和虚拟世界偏好(VWP:Virtual WorldPreference)106,产生VWEM 107。
VWC 105是关于虚拟世界的特性的信息。而且,VWP 106是表示用户对虚拟世界的140的特性的偏好程度的信息。
而且,适应RV/VR 130可将VWEM 107传送到虚拟世界140。此时,由于VWEM 107被应用于虚拟世界140,因此与感测信息103对应的效果可实现于虚拟世界140。
根据本发明的一方面,在虚拟世界140发生的效果事件可在现实世界110被作为实感装置的致动器(Actuator)所驱动。
虚拟世界140可通过对作为虚拟世界140上发生的效果事件的信息的实感效果信息(Sensory Effect Information)进行编码,来产生实感效果元数据(SEM:Sensory Effect Metadata)111。根据实施例,虚拟世界140可包括再现包括实感效果信息的内容的实感媒体再现装置。
适应RV/VR 130可基于SEM 111产生实感信息(Sensory Information)112。实感信息112是关于在现实世界110的实感装置上实现的效果事件的信息。
适应VR 150可产生控制现实世界110的实感装置的动作的实感装置命令(SDCmd:Sensory Device Command)115。根据实施例,适应VR 150可基于关于实感装置特性(SDCap:Sensory Device Capabilities)113的信息和关于用户实感偏好(USP:User Sensory Preference)114的信息,产生关于SDCmd 115的信息。
SDCap 113是关于实感装置的特性的信息。而且,USP 114是表示用户对在实感装置上实现的效果的偏好程度的信息。
图2是表示根据本发明的一实施例的虚拟世界处理装置的构成的图。
参照图2,根据本发明的一实施例的虚拟世界处理装置200包括接收单元210、处理单元220和传送单元230。
接收单元210从弯曲传感器260接收弯曲传感器260所测量的感测位置的角度值和关于弯曲传感器260的特性的传感器特性。
弯曲传感器260是用于测量关于现实世界的客体的弯曲程度的感测信息的传感器。感测信息是关于感测传感器260所测量的感测位置的弯曲程度(即,角度)的测量值。
根据实施例,弯曲传感器260可通过附着/结合到感测位置来测量感测位置的弯曲程度(即,角度值)。例如,当用户将弯曲传感器260附着到肘部时,弯曲传感器260可感测用户250的肘部的弯曲程度(即,肘部的角度)。此时,弯曲传感器260可将肘部的角度值和弯曲传感器260的传感器特性传送到虚拟世界处理装置200。
根据一实施例,弯曲传感器260可通过结合到用户250的诸如肘部、手指关节、颈部、肩部等其它关节部位,来测量弯曲的程度。
传感器特性(Sensor Capability)是关于弯曲传感器260的特性的信息。
根据实施例的关于弯曲传感器260的传感器特性可包括最大值(maxValue)、最小值(minValue)、位置数量(Num of Locations)、位置间距离(Distance between Location)、轴数量(numOfAxes)和传感器数量(numOfSensors)。
最大值是弯曲传感器260能够测量的最大角度值。最小值是弯曲传感器260能够测量的最小角度值。根据一实施例的弯曲传感器260可在小于最大值且大于最小值的范围内测量感测位置的角度。
位置数量表示弯曲传感器260感测的感测位置的数量。根据本发明的一方面,一个弯曲传感器260可同时感测多个感测位置的弯曲程度,此时,位置数量可以是一个弯曲传感器260所测量的多个感测位置的数量。而且,根据实施例,多个弯曲传感器260可测量多个感测位置,此时,位置数量可以是多个弯曲传感器260所测量的多个感测位置的数量。
位置间距离表示弯曲传感器260所感测的感测位置之间的距离。根据本发明的一方面,多个弯曲传感器260可感测多个感测位置。
轴数量表示弯曲传感器可感测的角度值的维数(Dimension)。
传感器数量表示当多个弯曲传感器260测量多个感测位置时的多个弯曲传感器260可感测的分段(segment)。
根据实施例,弯曲传感器260的传感器特性还可包括精确度(Accuracy)和偏移(Offset)。
精确度是关于弯曲传感器260的测量误差的信息。
偏移是用于调整弯曲传感器260测量的角度值的零点的值。
表1表示根据本发明的一实施例的关于弯曲传感器特性类型(BendingSensor Capability Type)的可扩展标记语言语法(eXtensible Markup LanguageSyntax)。弯曲传感器特性类型表示关于弯曲传感器260的基本的传感器特性的信息。
表1
Figure BDA00002245916000051
Figure BDA00002245916000061
表2表示根据一实施例的弯曲传感器特性类型的语义。
表2
Figure BDA00002245916000062
根据本发明的一方面,传感器特性可以是以二进制形式编码的元数据。若详细说明,则根据一实施例的弯曲传感器可通过将传感器特性编码为二进制形式来产生元数据,并将产生的元数据传送到虚拟世界处理装置200。此时,接收单元210可接收作为编码为二进制形式的元数据的传感器特性。
表2-2表示根据本发明的一实施例的关于弯曲传感器特性类型的二进制编码语法。
表2-2
Figure BDA00002245916000071
表2-3表示关于根据本发明的一实施例的弯曲传感器特性类型的二进制编码的语义。
表2-3
Figure BDA00002245916000072
参照表2-3,编码为二进制形式的元数据可包括关于位置数量(Num ofLocations)、轴数量(the numOfAxes)和传感器数量(numOfSensors)中的至少一个属性的数据字段。因此,作为编码为二进制形式的元数据的传感器特性包括关于位置数量、轴数量和传感器数量中的至少一个属性的数据字段,因此能够限定数据的大小。
表3示出关于弯曲传感器260的传感器特性的一示例。
表3
Figure BDA00002245916000081
参照表3,根据一实施例的弯曲传感器260的标识符(ID)可以是“BS001”。而且,弯曲传感器260可测量的感测位置的弯曲程度(即,角度)的最大值可以为“90.0度”,最小值可以为“-30.0度”。而且,等级的数量(Number ofLevels)可以是“2500等级”,弯曲传感器260的精确度可以是“0.1度”。
而且,关于弯曲传感器260的偏移可以是“0.05度”。
表4表示根据本发明的第一实施例的关于弯曲传感器类型(BendingSensor Type)的XML语法。弯曲传感器类型表示关于弯曲传感器260所测量的感测信息的信息。
表4
Figure BDA00002245916000082
根据一实施例的弯曲传感器类型可包括时间戳(TimeStamp)、单位(Unit)和值。
时间戳是弯曲传感器260测量感测位置的角度值时的时间信息。根据实施例,时间戳可以是关于弯曲传感器260测量角度值的时间间隔的信息。
单位是关于弯曲传感器260测量的角度的单位。根据实施例,值可包括“度”。
值是弯曲传感器260测量的角度的值。根据实施例,当对于一个位置,由多个弯曲传感器260测量角度值时,关于感测位置的角度值可以是多个弯曲传感器260所测量的多个角度值之和。
下面,参照图3来详细描述多个弯曲传感器260测量角度值的操作。
图3表示根据本发明的一实施例的多个弯曲传感器测量感测位置的操作。
参照图3,多个弯曲传感器310可测量感测位置320的弯曲的程度(即,角度值)。
此时,由多个弯曲传感器310所测量的各个角度值之和可以是关于感测位置320的角度值。例如,当由10个弯曲传感器310测量感测位置320的角度值,且10个弯曲传感器310所测量的各个角度值为1度、3度、5度、10度、12度、12度、9度、5度、2度和1度时,关于感测位置320的角度值可以是10个弯曲传感器310所测量的各个角度值的总和的60度。
再次参照图2,表4-2表示根据第一实施例的关于弯曲传感器类型的语义。
表4-2
表4-3表示根据本发明的第一实施例的关于弯曲传感器类型的二进制编码语法。
表4-3
Figure BDA00002245916000101
表4-4表示根据本发明的第一实施例的弯曲传感器类型的二进制编码语义。
表4-4
表5表示根据第二实施例的关于弯曲传感器类型的XML语法。
表5
Figure BDA00002245916000103
表5-2表示根据本发明的第二实施例的关于弯曲传感器类型的语法。
表5-2
Figure BDA00002245916000111
表6表示根据本发明的第三实施例的弯曲传感器类型的XML语法。
表6
表6-2表示根据本发明的第三实施例的关于弯曲传感器类型的语义。
表6-2
Figure BDA00002245916000113
表7表示根据本发明的一实施例的关于弯曲传感器类型的二进制编码语法。
表7
Figure BDA00002245916000122
表7-2表示根据本发明的一实施例的关于弯曲传感器类型的二进制编码的语义。
表7-2
Figure BDA00002245916000123
表8表示弯曲传感器260所测量的感测信息的一示例。
表8
Figure BDA00002245916000124
Figure BDA00002245916000131
参照表8,感测信息的标识符可以是“bending01”,弯曲传感器260的标识符可以是“bendingID01”。即,“bendingID01”的弯曲传感器260所测量的感测信息可以是“bending01”。而且,弯曲传感器260的时间戳在1秒钟进行100次时钟检测(100Clock Ticks per Second)的值可以是“60000”。
处理单元220可基于接收单元210从弯曲传感器260接收的角度值和传感器特性,产生用于控制与感测位置对应的虚拟世界270的客体280的控制信息。
例如,当用户250的肘部的角度从180度变换为90度时,弯曲传感器260可测量角度值,并将测量值传送到虚拟世界处理装置200。此时,处理单元260可基于角度值和传感器特性产生用于控制与感测位置(即,肘部)对应的虚拟世界270的虚拟形象280也移动肘部的控制信息。
根据本发明的一方面,当弯曲传感器260测量的角度值小于或等于弯曲传感器260可测量的最大值且大于或等于弯曲传感器260可测量的最小值时,处理单元220可产生控制信息。
根据实施例,当角度值超过最大值时,处理单元220可通过将角度值作为最大值,来产生控制信息。而且,当角度值未达到最小值时,处理单元220可通过将角度值作为最小值,来产生控制信息。
传送单元230可将产生的控制信息传送到虚拟世界270。
根据实施例,传送单元230可将控制信息编码为XML形式的元数据来传送到虚拟世界270。而且,传送单元230可将控制信息编码为二进制形式的元数据来传送到虚拟世界270。而且,传送单元230可将控制信息编码为XML形式的第一元数据,且将第一元数据编码为二进制形式的第二元数据并传送到虚拟世界270。
根据本发明的一方面,虚拟世界处理装置200还可包括计算单元240。
计算单元240可基于关于第一感测位置的第一角度值和关于第二感测位置的第二角度值,计算关于位于所述第一感测位置与所述第二感测位置之间的第三感测位置的第三角度值。
此时,处理单元220可基于第一角度值、第二角度值、第三角度值和传感器特性,产生控制信息。
下面,参照图4来详细描述计算第三角度值的操作。
图4表示根据本发明的一实施例的虚拟世界处理装置计算角度值的操作。
参照图4,根据本发明的弯曲传感器410可测量关于第一感测位置(例如,肩部)401的第一角度值。而且,基于弯曲传感器420可测量关于第二感测位置(例如,手腕)403的第二角度值。
根据本发明的一方面,虚拟世界处理装置可基于第一角度值和第二角度值,计算弯曲传感器410、420无法测量的第三感测位置402的第三角度值。
根据实施例,虚拟世界处理装置可将第一角度值和第二角度值的平均值作为第三角度值。
根据实施例,虚拟世界处理装置还可包括收集并存储基于第一角度值和第二角度值的第三角度值的数据库,并且可基于存储于数据库中的信息、第一角度值和第二角度值计算第三角度值。
图5表示根据本发明的一实施例的虚拟形象控制特征点类型的结构的图。
参照图5,根据本发明的一实施例的虚拟形象控制特征点类型(AvatarControl Features Type)510可包括属性(Attribute)520、控制身体特征点(ControlBody Features)530和控制脸部特征点(Control Face Features)540。
虚拟形象控制特征点类型是关于在控制虚拟世界的虚拟形象时使用的虚拟形象的特征点的信息。此时,虚拟形象控制特征点类型510是关于虚拟形象控制特征点信息的类型的信息。
属性520关于虚拟形象控制特征点信息的属性的信息。根据实施例,属性520可包括关于在控制虚拟形象时使用的特征点的名称(Name)的信息。
控制身体特征点530表示作为用于控制虚拟形象的特征点而包括在虚拟形象的身体部分的特征点。
根据实施例,控制身体特征点530可被分类为头骨(HeadBones)531、上身骨(UpperBodyBones)532、下身骨(DownBodyBones)533和中间身体骨(MiddleBodyBones)534。
例如,上身骨532可包括关于与虚拟形象的手结构对应的特征点的信息。
而且,手结构可包括手腕、手指关节等下层结构。
表9示出根据一实施例的手结构的下层结构。
  LWrist   左手腕
  LHand   左手
  LThumb   拇指内侧指骨
  LPhalanges1   拇指近端指节
  LThumb2   拇指第二指骨
  LPhalanges2   拇指末端指节
  LIndex   食指手背指骨
  LPhalanges3   食指近端指节
  LPhalanges4   食指中间指节
  LPhalanges5   食指末端指节
  LMiddle   中指手背指骨
  LPhalanges6   中指近端指骨
  LPhalanges7   中指之间指节
  LPhalanges8   中指末端指节
  LRing   无名指手背指骨
  LPhalanges9   无名指近端指节
  LPhalanges 10   无名指中间指节
  LPhalanges 11   无名指末端指节
  LPinky   小拇指手背指骨
  LPhalanges 12   小拇指近端指节
  LPhalanges 13   小、拇指中间指节
  LPhalanges 14   小拇指末端指节
根据本发明的一方面,虚拟世界处理装置可基于弯曲传感器所测量的感测信息,产生用于控制与感测位置对应的虚拟形象控制特征点的控制信息。即,弯曲传感器所测量的感测位置可对应于虚拟形象控制特征点中的至少一个。
例如,当弯曲传感器测量现实世界的用户的手腕弯曲的程度时,虚拟世界处理装置可基于测量的角度值,产生用于控制与用户的手腕对应的虚拟世界的虚拟形象的手腕的动作的控制信息。
图6是表示根据本发明的一实施例的虚拟世界处理方法的流程图。
参照图6,根据本发明的一实施例的虚拟世界处理方法中,可从弯曲传感器接收感测位置的角度值和关于弯曲传感器的传感器特性(S610)。
弯曲传感器是用于测量关于现实世界的客体的弯曲程度的感测信息的传感器。感测信息关于感测传感器所测量的感测位置的弯曲程度(即,角度)的测量值。
根据实施例,弯曲传感器可通过附着/结合到感测位置来测量感测位置的弯曲程度(即,角度值)。例如,当用户将弯曲传感器附着到肘部时,弯曲传感器可测量用户的肘部的弯曲程度(即,肘部的角度)。此时,虚拟世界处理方法中,可从弯曲传感器接收肘部的角度值和弯曲传感器的传感器特性。
根据一实施例,弯曲传感器可通过结合到用户的肘部、手指关节、颈部、肩部等其它关节部位,来测量弯曲的程度。
传感器特性(Sensor Capability)是关于弯曲传感器的特性的信息。
根据实施例的关于弯曲传感器的传感器特性可包括最大值(maxValue)、最小值(minValue)、位置数量(Num of Locations)、位置间距离(Distance betweenLocation)、轴数量(numOfAxes)和传感器数量(numOfSensors)。
最大值是弯曲传感器能够测量的最大角度值。最小值是弯曲传感器能够测量的最小角度值。根据一实施例的弯曲传感器可在小于最大值且大于最小值的范围内测量感测位置的角度。
位置数量表示弯曲传感器感测的感测位置的数量。根据本发明的一方面,一个弯曲传感器可同时测量多个感测位置的弯曲程度,此时,位置数量可以是一个弯曲传感器所测量的多个感测位置的数量。而且,根据实施例,多个弯曲传感器可测量多个感测位置,此时,位置数量可以是多个弯曲传感器所测量的多个感测位置的数量。
位置间距离表示弯曲传感器所测量的感测位置之间的距离。根据本发明的一方面,多个弯曲传感器可测量多个感测位置。
轴数量表示弯曲传感器可感测的角度值的维数(Dimension)。
传感器数量表示当多个弯曲传感器测量多个感测位置时的多个弯曲传感器可感测的分段(segment)。
根据实施例,弯曲传感器的传感器特性还可包括精确度(Accuracy)和偏移(Offset)。
精确度是关于弯曲传感器的测量误差的信息。
偏移是用于调整弯曲传感器测量的角度值的零点的值。
根据本发明的一方面,传感器特性可以是编码为二进制形式的元数据。根据一实施例的编码为二进制形式的元数据可包括关于位置数量(Num ofLocations)、轴数量(the numOfAxes)和传感器数量(numOfSensors)中的至少一个属性的数据字段。
弯曲传感器类型表示关于弯曲传感器测量的感测信息的信息。
根据一实施例的弯曲传感器类型可包括时间戳(TimeStamp)、单位(Unit)和值。
时间戳是弯曲传感器测量感测位置的角度值时的时间信息。根据实施例,时间戳可以是关于弯曲传感器测量角度值的时间间隔的信息。
单位是关于弯曲传感器测量的角度的单位。根据实施例,值可包括“度”。
值是弯曲传感器测量的角度的值。根据实施例,当对于一个位置,由多个弯曲传感器测量角度值时,关于感测位置的角度值可以是多个弯曲传感器所测量的多个角度值之和。
在虚拟世界处理方法中,可基于从弯曲传感器接收的角度值和传感器特性,产生用于控制与感测位置对应的虚拟世界的客体的控制信息(S620)。
例如,当用户的肘部的角度从180度变换为90度时,弯曲传感器可测量角度值。此时,虚拟世界处理方法可基于角度值和传感器特性产生用于控制与感测位置(即,肘部)对应的虚拟世界的客体(例如,虚拟形象)也移动肘部的控制信息。
根据本发明的一方面,当弯曲传感器测量的角度值小于或等于弯曲传感器可测量的最大值且大于或等于弯曲传感器可测量的最小值时,虚拟世界处理方法可产生控制信息。
根据实施例,当角度值超过最大值时,虚拟世界处理方法可通过将角度值作为最大值,来产生控制信息。而且,当角度值未达到最小值时,虚拟世界处理方法可通过将角度值作为最小值,来产生控制信息。
虚拟世界处理方法可将产生的控制信息传送到虚拟世界(S630)。
根据实施例,虚拟世界处理方法可将控制信息编码为XML形式的元数据来传送到虚拟世界。而且,虚拟世界处理方法可将控制信息编码为二进制形式的元数据来传送到虚拟世界。而且,虚拟世界处理方法可将控制信息编码为XML形式的第一元数据,将第一元数据编码为二进制形式的第二元数据并传送到虚拟世界。
根据本发明的一方面,虚拟世界处理方法可基于关于第一感测位置的第一角度值和关于第二感测位置的第二角度值,计算关于位于所述第一感测位置与所述第二感测位置之间的第三感测位置的第三角度值。此时,虚拟世界处理方法可基于第一角度值、第二角度值、第三角度值和传感器特性,产生控制信息。
根据本发明实施例可被实现为通过计算机手段执行的程序命令形式,从而可被记录到计算机可读记录介质。所述计算机可读介质可包括单独的程序命令、数据文件、数据结构等或程序命令、数据文件、数据结构等的组合。所述记录于介质上的程序命令可以是为了本发明而专门设计和形成的程序命令,或者计算机软件领域的技术人员所公知且可以使用的程序命令。计算机可读记录介质的示例包括存储程序命令并执行程序命令的专门设计的硬件装置,所述硬件装置包括:诸如影片、软盘和磁带的磁介质(magnetic media)、诸如CD-ROM、DVD的光记录介质(optical media)、诸如软光盘(Floptical disk)磁光介质(magneto-optical media)、只读存储器(ROM)、随机访问存储器(RAM)、闪存等。程序命令的示例不仅包括诸如由编译器创建的机器代码,还包括利用解释器等来通过计算机执行的高级语言代码。上述的硬件装置可实现为用于执行本发明的动作的一个以上的软件模块,反之亦然。
虽然如上所述,通过有限的实施例和附图来说明了本发明,但是本发明不限于上述实施例,本发明所属领域的具有普通知识的技术人员可从这些记载进行各种修改和变形。
所以,本发明的范围不局限于所说明的实施例,而是由权利要求及其等同物所限定。

Claims (13)

1.一种虚拟世界处理装置,包括:
接收单元,从弯曲传感器接收感测位置的角度值和关于所述弯曲传感器的特性的传感器特性;
处理单元,基于所述角度值和所述传感器特性,产生用于控制与所述感测位置对应的虚拟世界的客体的控制信息;
传送单元,将产生的所述控制信息传送到虚拟世界。
2.根据权利要求1所述的虚拟世界处理装置,其中,所述传感器特性包括所述传感器能够测量的所述角度值的最大值和最小值。
3.根据权利要求2所述的虚拟世界处理装置,其中,所述处理单元在所述角度值小于或等于所述最大值且大于或等于所述最小值时产生所述控制信息。
4.根据权利要求1所述的虚拟世界处理装置,其中,所述传感器特性包括所述感测位置的数量。
5.根据权利要求1所述的虚拟世界处理装置,其中,所述传感器特性包括所述感测位置之间的距离。
6.根据权利要求1所述的虚拟世界处理装置,其中,当对于所述感测位置,由多个所述弯曲传感器测量所述角度值时,所述角度值为所述多个弯曲传感器测量的多个角度值之和。
7.根据权利要求1所述的虚拟世界处理装置,还包括:计算单元,基于关于第一感测位置的第一角度值和关于第二感测位置的第二角度值计算关于位于第一位置与第二位置之间的第三感测位置的第三角度值,
所述处理单元基于所述第一角度值、所述第二角度值、所述第三角度值和所述传感器特性,产生所述控制信息。
8.根据权利要求1所述的虚拟世界处理装置,其中,所述传感器特性为编码为二进制形式的元数据。
9.根据权利要求8所述的虚拟世界处理装置,其中,所述编码为二进制形式的元数据包括关于位置数量、轴数量和传感器数量中的至少一个属性的数据字段。
10.一种虚拟世界处理方法,包括如下步骤:
从弯曲传感器接收感测位置的角度值和关于所述弯曲传感器的特性的传感器特性;
基于所述角度值和所述传感器特性,产生用于控制与所述感测位置对应的虚拟世界的客体的控制信息;
将产生的所述控制信息传送到虚拟世界。
11.根据权利要求10所述的虚拟世界处理方法,其中,当对于所述感测位置,由多个所述弯曲传感器测量所述角度值时,所述角度值为所述多个弯曲传感器测量的多个角度值之和。
12.根据权利要求10所述的虚拟世界处理方法,还包括步骤:基于关于第一感测位置的第一角度值和关于第二感测位置的第二角度值计算关于位于第一位置与第二位置之间的第三感测位置的第三角度值,
其中,所述产生控制信息的步骤为:基于所述第一角度值、所述第二角度值、所述第三角度值和所述传感器特性,产生所述控制信息。
13.一种记录有用于执行权利要求10至12中的任一项所述的方法的程序的计算机可读记录介质。
CN201180018649.0A 2010-04-13 2011-04-06 虚拟世界处理装置及方法 Active CN102858413B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410484088.9A CN104281262B (zh) 2010-04-13 2011-04-06 用于虚拟世界与现实世界之间的相互动作的方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20100033947 2010-04-13
KR10-2010-0033947 2010-04-13
KR10-2011-0024448 2011-03-18
KR1020110024448A KR101835413B1 (ko) 2010-04-13 2011-03-18 가상 세계 처리 장치 및 방법
PCT/KR2011/002408 WO2011129543A2 (ko) 2010-04-13 2011-04-06 가상 세계 처리 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201410484088.9A Division CN104281262B (zh) 2010-04-13 2011-04-06 用于虚拟世界与现实世界之间的相互动作的方法

Publications (2)

Publication Number Publication Date
CN102858413A true CN102858413A (zh) 2013-01-02
CN102858413B CN102858413B (zh) 2014-10-29

Family

ID=45029517

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201410484088.9A Active CN104281262B (zh) 2010-04-13 2011-04-06 用于虚拟世界与现实世界之间的相互动作的方法
CN201180018649.0A Active CN102858413B (zh) 2010-04-13 2011-04-06 虚拟世界处理装置及方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201410484088.9A Active CN104281262B (zh) 2010-04-13 2011-04-06 用于虚拟世界与现实世界之间的相互动作的方法

Country Status (6)

Country Link
US (1) US9597592B2 (zh)
EP (1) EP2559463B1 (zh)
JP (2) JP5801872B2 (zh)
KR (1) KR101835413B1 (zh)
CN (2) CN104281262B (zh)
WO (1) WO2011129543A2 (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105339869A (zh) * 2013-06-18 2016-02-17 桂宇硕 控制网络空间中物理效果的装置和方法
CN107344019A (zh) * 2017-07-28 2017-11-14 歌尔科技有限公司 一种虚拟现实系统
CN108283802A (zh) * 2017-01-10 2018-07-17 迪斯尼企业公司 利用物理对象的仿真体验
CN109313486A (zh) * 2016-03-14 2019-02-05 内森·斯特林·库克 脑波虚拟现实设备和方法
CN110822644A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822647A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822646A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822661A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822641A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822642A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822643A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822649A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822645A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101685922B1 (ko) * 2010-04-05 2016-12-13 삼성전자주식회사 가상 세계 처리 장치 및 방법
US8610663B2 (en) 2012-02-06 2013-12-17 Lg Electronics Inc. Portable device and method for controlling the same
CN105056525A (zh) * 2015-08-17 2015-11-18 联想(北京)有限公司 一种信息处理方法及电子设备
CN109579689B (zh) * 2017-09-29 2020-12-08 西门子公司 曲率测量装置
GB2569603B (en) 2017-12-21 2020-04-01 Sony Interactive Entertainment Inc Position tracking apparatus and method
JP7070245B2 (ja) * 2018-08-27 2022-05-18 富士通株式会社 情報処理装置、動作制御プログラム、及び動作制御方法
JP7359422B2 (ja) * 2018-11-07 2023-10-11 学校法人法政大学 仮想体の動作制御システム、人体拘束治具、及び仮想体の動作制御方法
JP2021089691A (ja) * 2019-12-06 2021-06-10 未來市股▲ふん▼有限公司 動作追跡システム及び動作追跡方法
EP4119308A4 (en) * 2020-03-11 2023-08-30 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2358435Y (zh) * 1999-03-10 2000-01-12 中国科学院自动化研究所 柔性角度传感器
US6049327A (en) * 1997-04-23 2000-04-11 Modern Cartoons, Ltd System for data management based onhand gestures
CN1273649A (zh) * 1998-06-30 2000-11-15 皇家菲利浦电子有限公司 用于与数据处理系统交互作用的无指手套
US6154199A (en) * 1998-04-15 2000-11-28 Butler; Craig L. Hand positioned mouse
CN1388441A (zh) * 2002-07-11 2003-01-01 庄胜雄 可形成虚拟追踪球的手套滑鼠
CN2725994Y (zh) * 2004-05-13 2005-09-14 中国科学院自动化研究所 一种触觉反馈数据手套

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228092A (ja) * 1990-02-02 1991-10-09 Hitachi Ltd 文字パターン生成方法
JPH09153151A (ja) * 1995-11-30 1997-06-10 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き生成装置
JP3862348B2 (ja) * 1997-03-19 2006-12-27 東京電力株式会社 モーションキャプチャシステム
WO1998047426A1 (en) * 1997-04-21 1998-10-29 Virtual Technologies, Inc. Goniometer-based body-tracking device and method
US5963891A (en) * 1997-04-24 1999-10-05 Modern Cartoons, Ltd. System for tracking body movements in a virtual reality system
JPH1157212A (ja) * 1997-08-24 1999-03-02 Sony Computer Entertainment:Kk ゲーム装置、ゲーム機用操作装置、ゲームシステム及びゲーム装置の双方向通信方法
JP2000132305A (ja) 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
JP2000329511A (ja) * 1999-05-19 2000-11-30 Sony Corp データグローブ及びこれを用いた形状認識方法
US6577952B2 (en) * 2001-01-08 2003-06-10 Motorola, Inc. Position and heading error-correction method and apparatus for vehicle navigation systems
JP3584229B2 (ja) 2001-09-28 2004-11-04 キヤノン株式会社 映像体験システムおよび情報処理方法
US20030062675A1 (en) 2001-09-28 2003-04-03 Canon Kabushiki Kaisha Image experiencing system and information processing method
US7033281B2 (en) * 2002-03-22 2006-04-25 Carnahan James V Augmented kinematic feedback device and method
JP2004192325A (ja) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> ユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体
JP2004213350A (ja) 2002-12-27 2004-07-29 Seiko Epson Corp 力覚提示装置及び画像補正方法
JP2005337983A (ja) * 2004-05-28 2005-12-08 Spice:Kk モーションキャプチャー方法及びシステム
CN101316630A (zh) * 2005-07-15 2008-12-03 鲍尔格力德健身器材公司 等长锻炼系统和便于用户在视频游戏期间训练的方法
JP2007041660A (ja) * 2005-08-01 2007-02-15 Nec Corp センサネットワーク、センサノード及びそのプログラムと、センサ情報検索方法
US7602301B1 (en) * 2006-01-09 2009-10-13 Applied Technology Holdings, Inc. Apparatus, systems, and methods for gathering and processing biometric and biomechanical data
US20080125224A1 (en) * 2006-09-26 2008-05-29 Pollatsek David Method and apparatus for controlling simulated in flight realistic and non realistic object effects by sensing rotation of a hand-held controller
JP4647632B2 (ja) * 2007-03-06 2011-03-09 日本電信電話株式会社 センサデータ制御システム及びセンサデータ制御方法
US8675017B2 (en) 2007-06-26 2014-03-18 Qualcomm Incorporated Real world gaming framework
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
JP5108032B2 (ja) * 2008-02-01 2012-12-26 旭光電機株式会社 多関節構造体教示装置
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
JP5529400B2 (ja) * 2008-07-11 2014-06-25 任天堂株式会社 拡張操作装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6049327A (en) * 1997-04-23 2000-04-11 Modern Cartoons, Ltd System for data management based onhand gestures
US6154199A (en) * 1998-04-15 2000-11-28 Butler; Craig L. Hand positioned mouse
CN1273649A (zh) * 1998-06-30 2000-11-15 皇家菲利浦电子有限公司 用于与数据处理系统交互作用的无指手套
CN2358435Y (zh) * 1999-03-10 2000-01-12 中国科学院自动化研究所 柔性角度传感器
CN1388441A (zh) * 2002-07-11 2003-01-01 庄胜雄 可形成虚拟追踪球的手套滑鼠
CN2725994Y (zh) * 2004-05-13 2005-09-14 中国科学院自动化研究所 一种触觉反馈数据手套

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105339869A (zh) * 2013-06-18 2016-02-17 桂宇硕 控制网络空间中物理效果的装置和方法
CN109313486A (zh) * 2016-03-14 2019-02-05 内森·斯特林·库克 脑波虚拟现实设备和方法
CN108283802A (zh) * 2017-01-10 2018-07-17 迪斯尼企业公司 利用物理对象的仿真体验
US11132067B2 (en) 2017-01-10 2021-09-28 Disney Enterprises, Inc. Simulation experience with physical objects
CN108283802B (zh) * 2017-01-10 2021-09-24 迪斯尼企业公司 利用物理对象的仿真体验
CN107344019A (zh) * 2017-07-28 2017-11-14 歌尔科技有限公司 一种虚拟现实系统
CN107344019B (zh) * 2017-07-28 2023-11-21 歌尔科技有限公司 一种虚拟现实系统
CN110822645A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822644B (zh) * 2019-11-25 2021-12-03 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822642A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822643A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822649A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822661A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822642B (zh) * 2019-11-25 2021-09-14 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822646A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822647A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822641A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822661B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822649B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822643B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822647B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822646B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822645B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822644A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质

Also Published As

Publication number Publication date
KR101835413B1 (ko) 2018-03-09
JP5801872B2 (ja) 2015-10-28
JP6316251B2 (ja) 2018-04-25
JP2016026342A (ja) 2016-02-12
KR20110114439A (ko) 2011-10-19
EP2559463A4 (en) 2014-02-26
WO2011129543A2 (ko) 2011-10-20
CN104281262A (zh) 2015-01-14
WO2011129543A3 (ko) 2012-02-02
US20130093665A1 (en) 2013-04-18
CN104281262B (zh) 2017-08-01
EP2559463A2 (en) 2013-02-20
JP2013535039A (ja) 2013-09-09
CN102858413B (zh) 2014-10-29
US9597592B2 (en) 2017-03-21
EP2559463B1 (en) 2020-10-07

Similar Documents

Publication Publication Date Title
CN102858413B (zh) 虚拟世界处理装置及方法
WO2021129064A9 (zh) 姿态获取方法、关键点坐标定位模型的训练方法和装置
US8229226B2 (en) Real-time motion recognition method and inertia-sensing and trajectory-reconstruction device using the same
CN102481486B (zh) 虚拟世界处理装置及方法
CN112926423B (zh) 捏合手势检测识别方法、装置及系统
US9165404B2 (en) Method, apparatus, and system for processing virtual world
Vu et al. Smartwatch-based early gesture detection 8 trajectory tracking for interactive gesture-driven applications
US20130102387A1 (en) Calculating metabolic equivalence with a computing device
Chen et al. Using real-time acceleration data for exercise movement training with a decision tree approach
KR101636734B1 (ko) 가상 세계 처리 장치 및 방법
Lu et al. Hand and foot gesture interaction for handheld devices
CN112232258A (zh) 一种信息处理方法、装置及计算机可读存储介质
CN112541377A (zh) 一种笔迹还原方法
Kim et al. Human motion reconstruction from sparse 3D motion sensors using kernel CCA‐based regression
CN111800693A (zh) 一种基于蓝牙耳机的运动姿态判断方法与系统
CN110909687A (zh) 动作特征有效性判定方法、计算机存储介质和电子装置
CN104346090B (zh) 一种手写输入的声音交互方法和装置
CN111126294B (zh) 一种基于移动终端数据识别终端用户步态的方法和服务器
TWM469929U (zh) 平衡反應訓練裝置
CN109200562A (zh) 体感瑜珈实现方法及系统
JP7433504B1 (ja) 判定装置、判定方法及びコンピュータープログラム
KR102606862B1 (ko) 메타버스 공간에서 사용자의 감정에 근거한 인터렉션 처리수행을 위한 서비스 운영서버 및 동작방법
CN107823864A (zh) 一种基于运动轨迹的乒乓球对局发球识别系统及方法
CN116077922A (zh) 一种射击游戏的瞄准系统、方法、设备和计算机存储介质
CN102058976A (zh) 用于跟踪环境中的用户操纵的系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant