CN102541260A - 一种人机互动的控制方法及其运用 - Google Patents

一种人机互动的控制方法及其运用 Download PDF

Info

Publication number
CN102541260A
CN102541260A CN2011104581683A CN201110458168A CN102541260A CN 102541260 A CN102541260 A CN 102541260A CN 2011104581683 A CN2011104581683 A CN 2011104581683A CN 201110458168 A CN201110458168 A CN 201110458168A CN 102541260 A CN102541260 A CN 102541260A
Authority
CN
China
Prior art keywords
user
role
self
human
virtual world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011104581683A
Other languages
English (en)
Other versions
CN102541260B (zh
Inventor
黄得锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhangzhou Asixinggu Electronic Technology Co ltd
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN2011104581683A priority Critical patent/CN102541260B/zh
Application filed by Individual filed Critical Individual
Priority to EP21188983.7A priority patent/EP3950076A1/en
Priority to PCT/CN2012/000108 priority patent/WO2012106978A1/zh
Priority to JP2013552821A priority patent/JP6193764B2/ja
Priority to KR1020137023483A priority patent/KR101679805B1/ko
Priority to EP12745158.1A priority patent/EP2674204A4/en
Publication of CN102541260A publication Critical patent/CN102541260A/zh
Application granted granted Critical
Publication of CN102541260B publication Critical patent/CN102541260B/zh
Priority to US13/963,666 priority patent/US10058773B2/en
Priority to JP2017156017A priority patent/JP6722624B2/ja
Priority to JP2018226182A priority patent/JP6749384B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • A63F2300/6054Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands by generating automatically game commands to assist the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种人机互动的控制方法及其运用,用户通过实施用户允许微动作以控制虚拟环境中的自我角色实施相应的虚拟允许动作,它包括以下步骤:1)在虚拟世界中创建自我角色;2)用户身体无需离开用户所在位置执行微动作;3)跟踪并识别用户执行微动作;并使用户执行任意微动作时,其身体都无需离开用户所在位置;4)使自我角色放大执行用户的微动作。本发明介绍的“动作放大系统”,可使用户身体无需发生位移或者仅发生微小位移就可以实现全部虚拟世界赋予的全部功能或能力,使得用户在虚拟世界全程中均只在同一处操控位上,同时还便于实现用户的运动部位和虚拟世界人物运动部位一致,使用户容易上手。

Description

一种人机互动的控制方法及其运用
技术领域
本发明涉及一种可使人机互动的仿生虚拟世界的控制方法及运用。
背景技术
现有技术中已给出了可人机互动的仿生虚拟世界的多种控制方法及其设备,但均存在一缺陷:需要用户运动空间大,且运动存在局限性,如:当用户已移动到墙壁,但游戏化身下一动作还需要用户向墙壁的背向前进。有些现有技术为了避免这种情况,缩小化身的活动空间(注意,这里说的是化身而非用户),以使用户控制过程中不用移动或尽量减小活动,但这样的方法使游戏的可玩性大大降低,其运用价值也非常有限。还有些现有技术通过跑步机等方案,使用户至在同个位置移动,但也存在着:用户需要持续体能消耗,因此很难长时间持续进行人机互动,同时用户也很难随心运动。缩小化身活动空间的现有技术还包括操控移动工具,如战车,但战车上的各控制件其实都不用再联接的,但这种传统方式,除了上述缺陷外,显然还存在机械控件多、成本高,而且携带不便等问题。
发明内容
本发明的目的是提供一种让用户可身临其境进入虚拟世界的方法及设备;该方法可让用户不受时长、不受自身体能限制进行持续控制自我角色。
为了便于理解本发明,特对所涉及的各术语进行如下名词解释:
自我角色:指在虚拟世界中,可被用户操控的,并被用户认为是自己的虚拟角色,可是人类或任意活动物方。
用户允许微动作方案:当用户实施某一个或一个组符合条件的微动作时,可以对计算机发出一控制指令;这里的微动作尤其指用户小幅度的动作,如:相应的任意关节移动位移小于20cm,具体表现如:手臂微动、脚微曲;本发明的上述条件,尤其包括限定不发出命令的情形。
虚拟允许动作方案:虚拟世界赋予自我角色或虚拟世界中器具可以进行的动作或动作方案,所述动作方案包括连续的动作组合、动作力度、速度等。
活动关节:用户并非全部关节的活动都可以控制我自我角色相部位的活动,尤其自我角色为非人类时,并没有用户身上的某些关节,因此本发明所指的“活动关节”是指虚拟世界赋予自我角色可活动部位而对应于用户实际身体上的关节。另一方面,当自我角色的活动部多于用户实际的活动关节数时,则采用本发明介绍的其他方法;另外 本文所称的活动关节并非仅限于骨架连接处,它泛指人体上可活动的任何部位,如整个上臂上的任一点。
反向动作:自我角色所在的虚拟世界场景执行与用户发出的指令具有矢量值相同但方向相反的矢量动作;所述矢量动作本发明尤其特指任意时间点上的位移变化、体积变化,如图1所示:以矢量动作为纵坐标,以时间为横坐标建立坐标系,则用户发出的指令与自我角色所在的虚拟世界场景对应曲线图以横坐标呈轴对称关系,如:从时间点t1到时间点t2,用户要朝东南方向前进5米时,只要在该时间段上使自我角色所在场景向西北方向移动5米就可实现;再如:从时间点t1到时间点t2,用户要自己全身等比例变大2倍,则自我角色所在场景在相同时间段缩小两倍,这里尤其指出:用户的变身或变形指令里,可优先判断是否包括眼睛及双眼间距的变化,如果眼睛及双眼间距没有变化,则场景在体积上不会变化,即 场景的体积矢量动作与自我角色的眼睛及双眼间距离的体积矢量动作具有:矢量值相同、方向相反的关系。所述用户指令可优选关联于自我角色头部的运动矢量和视觉矢量,所述运动矢量如:速度、位移;所述视觉矢量如:自我角色的体积变化。
手掌:如图2所示手掌1包括手腕11在内的所有手掌1上的关节,如手指12。
脚掌:如图2所示脚掌2包括脚腕21在内的所有脚掌2上的关节,如脚指头22。
评价运动幅度的指标:可以是被跟踪部位发生的位移及方向、被跟踪部位在两个时间点上的夹角等。
动作放大:为了力求用户的真实感受,及在互动过程的同步需求,设定以下两个规则:
1、  在人体感知能力范围内,动作放大优选仅对用户的动作幅度、力度进行放大;
2、  当超过人体感知能力范围,动作放大还可以对用户的动作速度进行放大。
为实现上述目的,本发明技术方案为:
一、   用户无需发生位移而在同一“操控位”连续执行各种控制,且不受虚拟世界空间和时间限制:
本发明采用动作放大方法实现上述技术效果,所述的动作放大方法包括:
1) 在虚拟世界中创建自我角色; 
2) 用户身体无需离开用户所在位置执行微动作; 
3) 跟踪并识别用户执行微动作; 并使用户执行任意微动作时,其身体都无需离开用户所在位置; 
4) 使自我角色放大执行用户的微动作。 
优化方案1:
设定用户或虚拟世界道具执行任一用户允许动作的最大幅度M、对应虚拟世界中自我角色的虚拟允许动作的最大幅度为N、在t时间点上用户或虚拟世界道具执行该允许动作的幅度为Mt,对应虚拟世界中人或物的执行相应的允许动作的幅度为Nt,则该系统满足:当Mt≥M时,Nt=N;当Mt<M时,N>Nt>Mt,如:用户手臂抬起5度时,自我角色则完全抬起手臂,当用户抬手臂的角度大于5度,自我角色均完全抬起手臂,这里,我们称5度为用户执行抬手臂的最大幅度,显然用户手臂不仅可以抬5度。
这里尤其指出:用户执行某允许动作时,实际的运动极限均大于该允许动作的最大幅度,而为了更有效实现本技术效果,虚拟世界过程采用动作放大系统时,最好通过对用户肢体的限制只允许其进行小幅度的微动作。
所述用户允许微动作方案满足:当用户以最大幅度M完成任一微动作时,躯干上除手掌和脚掌外的任意相邻的两部份的角度变化值小于30度。如:某允许微动作方案涉及上臂和下臂的角度,在实施该动作的前后角度为120度和140度,则该相邻两部份的夹角变化值就为+20度。显然用户和自我角色的形态(姿势)并不要求相同或类似。
另外 本发明可提供持续动作命令,当用户持续对弹性装置作用时,用户可保持转身等动作。因此用户可在任意姿势下控制自我角色的任意动作方案。本发明所述最大幅度M优选正负5度以内。
另外经实验我们发现,当自我角色与用户在头部、包括手腕的手掌、包括脚腕的脚掌其中的一处或多处部位执行相同运动幅度的动作,用户更容易掌握本发明的控制方法。
优化方案2:
限制用户肢体的活动幅度,使被限制的相应部分能完全执行微动作而身体不离开所在位置,对所述限制方案还可作以下一个或多个优化:
1)  当虚拟世界中的任一物方作用于自我角色的某部位或某些部位时,用户的相应部位会根据该物方动作特征被作用; 
2)  当自我角色作用于虚拟世界任一物方时,首先根据自我角色的动作特征及该物方的即时状态,判断的自我角色被反作用的部位及反作用效果,使用户相应的部位以等因子效果被作用;
3)  可根据自我角色的疲劳程度或最大运动能力,使用户的相应部位受到相应比例且用户能接受的载荷作用。
二、   虚拟世界接收用户指令的方法:
它是通过动作定位点控制系统确定用户进行的动作,通过相关动作确定用户发出的指令内容,继而控制自我角色对就活动部位的活动。
所述动作定位点控制系统:是在用户身上或道具上设有1个或1个以上的定位感应件,通过各定位感应件的位置(三维坐标)随时间的变化,从而可确定用户在任意时间上的姿势或在某段时间内的动作变化。
 以下逐一介绍本技术方案所涉及“定位感应件位置的变化确定方法”、“通过定位感应件位置变化控制自我角色动作的方法”和“定位感应件或其变化与自我角色动作或活动部位的对应方法”。
(一)    定位感应件位置的变化确定方法包括以下骤:
1)  建一虚拟三维坐标系,并确定三个或三个以上的且不在同一直线上的距离测定点在该坐标系中的坐标;
2)  测定定位感应件分别到上述各距离测定点的距离,从而计算出各定位感应件在任意时间点上的三维坐标。
(二)    通过定位感应件位置变化控制自我角色动作的方法是针对虚拟世界赋予自我角色A1、A2…An共计n个可单独活动部位,按以下两种情形控制:
1)  当该N个活动部位均可在用户身上找到对应活动关节进行对应,则在用户在各对应活动关节上分别设置N1、N2…Nn共N个定位感应件,并跟踪在任意时间点t时,N1、N2…Nn三维位置变化; 使各定位感应件的三维位置变化,控制自我角色相应部位进行相关动作;
2)  当该N个活动部位不能完全在用户身上找到对应活动关节进行对应时,假设存在若干不能找到对应关系的活动部位Mx,先使用户的活动关节Nx可选择控制自我角色的Mx1、Mx1 …Mxs共s个活动部位,并采用选择法和组合法中一种或全部来选择控制具体的活动部位Mx;所述选择法是指活动关节Nx确定对应控制活动部位后,可以单独直接控制;所述组合法是指,当需更换活动部位时,可通过第3命令或利用其他活动关节共同选择执行不同的活动部位,如:用户的手臂可以选择控制自我角色的手臂和翅膀,所述活动关节设为脚指,当脚指蜷起时,则用户控制翅膀,松开则控制手臂;所述第3命令指某命令菜单时,会跳出选择界面,通过选择确定要控制活动部位。
“通过定位感应件位置变化控制自我角色动作的方法”还包括对用户的身体和道具上划分可动部和不可动部,并对可动部分别设定位感应件;其中道具和虚拟世界中物品或器具对应,使得操做道具时,就可使虚拟世界中的相应物品或器具被相应操做,其实 换句话说 就是用定位感应件控制相应虚拟世界中的东西(人或物)。
(三)    定位感应件或其变化与自我角色动作或活动部位的对应方法是使用户不同关节上的定位感应件均具有不同的区别特征,并通过不同的区别特征对应自我角色的活动部位或不同动作。
所述区别特征是在定位感应件上的不同涂点密度或涂点规则。
三、   它还包括嗅觉系统、触觉系统和体力疲劳的随机设障系统中一种或多种:
当系统识别自我角色的越疲劳,则相应部位上的设障机构对该部位的负载就越大,用户执行该动作就越难,实之具有类同的感觉,游戏更真实。
四、   本发明还介绍了一种适用于上述虚拟世界方法的穿套式定点控制设备”:
它包括手掌套件、手臂套件、头部套件、脚掌套件、腿部套件、臀部套件和腰部套件;各套件上均设有一个或一个以上感应定位点。
它还满足:每根手指头的三个关节、手腕关节、手肘关节、肩膀关节、头上任意不在同一直线上的三点、每根脚指头的一个关节、脚脖子关节、小腿、大腿、臀部、脊椎中点上均设有一个或一个以上感应定位点。
本设备旨在通过定位于用户身上的各感应定位点的位置完全确定任一时间点上用户的位置和姿势,本设备也局限于上述感应定位点在上述关节的分配方案。
五、   本发明还提供了一种用户看到自己的身体进入虚拟世界的方法:
实现方法是同时采用置身系统、全景系统和场景移动系统,以下逐一介绍各系统。
(一)  所述场景移动系统,利用虚拟世界中自我角色所在场景的反向矢量动作,使用户有正进行各种移动或变身(身体缩小或放大或形状变化)的错觉;
所述自我角色所在场景的确定方法包括:
1)  直接或间接在用户头部设有能与头部同步发生位移的定位件;所述定位件上至少有不在同一直线的三点在虚拟世界的位置可确定,从而确定出用户的头部在虚拟世界中的位置及面部朝向;
2)  通过用户头部在虚拟世界中的位置及面部朝向确定虚拟世界画面;
所述反向动作,是使虚拟世界中自我角色所在场景执行与自我角色头部方向相反而矢量值相同的矢量动作,且两者在分别以同一矢量动作和时间为坐标轴的坐标系中,其矢量动作时间图以时间坐标轴呈轴对称关系。
(二)  所述全景系统,使用户只能看到虚拟世界中的场景,而看不到现实中的场景,且虚拟世界场景覆盖用户的全部视觉范围;本系统尤其指用户配带全3D眼镜,眼镜上屏幕及其虚拟世界画面均覆盖用户的全部视觉范围。
(三)  所述置身系统,满足用户和自我角色在虚拟世界中的位置相同且用户身体与自我角色活动同步,使用户想看自己身体时,均能看到虚拟世界中自己的各种动作。
上述技术方案的有益之处在于:
本发明因为用户的身体无需离开所在位置,因此在操作过程中,均可躺着或坐着,因而用户可长时间轻松自如完成各项操控,而不会因为体力不支,而被迫中止;因此适应人群极广,凡身体有活动肌能的人都可以通过本发明进行相应的人机互动;尤其是本发明采用了选择法和组合法,使身体残疾的人士,通过有活动肌能的部位经组合应用,以达到控制自我角色自由活动用户本已缺失活动肌能的部位。
因用户采用微动作控制自我角色,因此可以完成各种现实中无法完成的各种动作,如使自我角色执行如图3所示的下腰时,同时还出拳的动作。
本发明介绍的“动作放大系统”,可使用户身体无需发生位移或者仅发生微小位移就可以实现全部虚拟世界赋予的全部功能或能力,使得用户在虚拟世界全程中均只在同一处操控位上,同时还便于实现用户的运动部位和虚拟世界人物运动部位一致,使用户容易上手。
本发明介绍的三点定位法,使机算机能人体无法感知的速度,使自我角色与用户同步实施各项动作,因此解决画面滞后的问题,继而使用户更自如长时间完成人机互动,当然更不会出现用户头晕的情形。
本发明介绍的“穿套式定点控制设备”,可使用户直接穿戴后,身体各部份的动作,均可控制对应“感应定位点”进行相关命令,从而使用户看到自己或自己在虚拟世界中操控的器械进行相关动作,该设备的运用,有效缩短用户在进入虚拟世界前的准备时间,简易所需的准备工序,从而用户通过很便捷的方式就可进行虚拟世界。
本发明介绍的“感应定位点系统”,可使系统通过跟踪各定位点发生的各矢量变化(包括:位移、速度、方向)以控制自我角色动作;本方案可有效简化“穿套式定点控制设备”,使之纯以机械结构,而无需配备任何电子系统,可避免电子短路给用户带来身体伤害;同时 由于用户在使用过程中,各定位点均被定位于用户身上的各对应部位,且用户只实施微动作,因此各定位点移动位移因非常小,因此可实现设备零损害,以保证设备的使用寿命。
本发明介绍的“选择法”和“组合法”,可实现自我角色上活动部位数大于感应定位点数。
下面结合附图和具体实施例对本发明作进一步的说明。
附图说明
图1为虚拟世界中自我角色所在场景与自我角色头部就同一矢量动作的矢量动作时间图,
其中 t:时间、  V:体积、  S:位移
     曲线A是虚拟世界中自我角色所在场景的位移或体积矢量动作时间图
曲线B是自我角色头部的位移或体积矢量动作时间图。
图2为用户关节示意图。
图3为虚拟允许动作示意图。
具体实施方式
实施例1 一种人机互动的控制方法
一种人机互动的控制方法,它建立了《用户微动作数据库》与《自我角色虚拟动作数据》;并规定了《动作放大规则》和《人机互动规则》。
所述《用户微动作数据库》还包括《用户允许微动作方案数据库》。
用户微动作数据库:
1.1)  以头部、脖子、腰部、上臂、下臂、宽部、上腿、下腿、手掌和脚掌为关键字建立数据库;旨在确定用户身上可控制自我角色动作的活动部位;
1.2)  规定就活动关节描述参数,包括:位移、相邻关节角度变化值、移动速度;旨在具体规定活动部位发出命令的形式;
1.3)  规定描述参数的上限;确定微动作幅度上限,以确保用户无需离开“操控位”而可而连续执行任意控制动作。
用户允许微动作方案数据库:
2.1)规定不发出控制命令的情形;
2.2)规定发出特技的情形条件;指当用户执行符合条件的动作或动作组合时,自我角色执行特技动作等;尤其指出条件规定的权限可开放,以便不同用户根据自己习惯制定。
自我角色虚拟动作数据库
3.1)对应于用户活动部位规定自我角色的虚拟动作部位,即自我角色身上可被控制的部位;
3.2)虚拟动作部位的动作参数:移位、速度、力度;确定各虚拟动作部位的动作幅度相对用户活动部位运动幅度的放大倍数。
动作互动规则
使《用户微动作数据库》与《自我角色虚拟动作数据》以如下关系关联:
4.1)  《用户微动作数据库》的“活动部位”关联于《自我角色虚拟动作数据》的“虚拟动作部位”;
4.2)  《用户微动作数据库》的“活动关节描述参数”关联于《自我角色虚拟动作数据》的“虚拟动作部位的动作参数”。
人机放大规则
5.1)  通过《用户微动作数据库》的“规定描述参数的上限”的限制《动作互动规则》的4.1)条款;
5.2)  设定用户或虚拟世界道具执行任一允许动作的最大幅度M、对应虚拟世界中人或物的执行相应的允许动作的最大幅度为N、在t时间点上用户或虚拟世界道具执行该允许动作的幅度为Mt,对应虚拟世界中人或物的执行相应的允许动作的幅度为Nt,则该系统满足:当Mt≥M时,Nt=N;当Mt<M时,N>Nt>Mt。
6.  为了确保人机互动的同步,本实施例还提供了一人机同步系统,所述人机同步系统包括:用户微动作识别系统、微动作匹配命令规则系统。
6.1)  所述用户微动作识别系统:它就用户身体或道具规定活动部位和非活动部位,并在不同活动部位分别设有具有区别特征的定位感应件 ;建一虚拟三维坐标系,并在三个或三个以上的且不在同一直线上的已知坐标点上固置测距装置;具体识别方法如下:
a)  在任意时间点上,测量定位感应件分别到上述各距离测定点的距离,从而计算出各定位感应件的三维坐标;
b)  通过跟踪各定位感应件的位置(三维坐标)随时间的变化,以确定用户在任意时间上的姿势或在某段时间内的动作变化。
本实施例中所述用户微动作识别系统旨在对用户肢体运动的时时跟踪,它也可以在任一活动部位上设有2个或 2个以上定位感应件,其中至少两点在x、y、z轴上的坐标值均不相同,使该活动部位在某时间段内的水平转角或竖直转角可确定。
6.2)  所述微动作匹配命令规则系统:用户通过控制肢体动作,而使肢体上感应定位点发生一定规则的位移变化,而匹配于自我角色的动作方案,它包括:
规则1:
具体包括:“定位感应件或其变化与自我角色动作或活动部位的对应方法”和“定位感应件或其变化与自我角色动作或活动部位的对应方法”,以下逐一介绍。
规则1.1  通过定位感应件的位置变化控制自我角色动作的方法:
是针对虚拟世界赋予自我角色A1、A2…An共计n个可单独活动部位A,就其中任一可单独活动部位Ax设有Ax1、Ax2…Axm共计m种允许动作,Axx为其中任一允许动作,按以下两种情形控制。
情形1  当该n个活动部位均可在用户身上找到对应活动关节进行对应时:
1)  在用户身上的n个可单独活动部位上分别固定A1’、A2’…An’共计n个感应定位点A’, 跟踪在任意时间点t时,任一感应定位点Ax’的三维位置变化,并匹配属于Ax1’、Ax2’…Axm’共计m种中的哪种活动规则,设Axx’为其中任一活动规则; 
2)  使自我角色的可单独活动部位A一一对应于用户身上的感应定位点A’,任一可单独活动部位Ax的允许动作Axx可在并仅在感应定位点Ax’按Axx’活动规则动作时被启动,如:Ax发生的位移随在各时间点上的变化一一对应于Ax’ 发生的位移随在各时间点上的变化,再如:Ax实施的力度强弱对应于Ax’所对应关节弯曲度及该关节抖动频率,Ax使用力度达最大值的条件在于:当用户的Ax’达到最大幅度;另外 Ax还应考虑对应于Ax’的紧张程度、运动速度和执行时间,以实现用户更自然操控虚拟世界,且使自我角色的运动尽量符合自然规律;
3)  本实施例所述的关节旨在通过定位于用户身上的各感应定位点的位置完全确定任一时间点上用户的位置和姿势,这里本发明人特别列举其中之一可以满足此目的的关节总和:每根手指头的三个关节、手腕关节、手肘关节、肩膀关节、头上任意不在同一直线上的三点、每根脚指头的一个关节、脚脖子关节、小腿、大腿、臀部、脊椎中点。
情形2  当该n个活动部位不能完全在用户身上找到对应活动关节进行对应时:
假设存在若干不能找到对应关系的活动部位Ay,先使用户的活动关节Ay’可选择控制其中的Ay1、Ay2…Ays共s个活动部位Ay,并采用选择法和组合法中一种或全部来选择控制具体的活动部位Ay;所述选择法是指活动关节Ay’确定对应控制活动部位后,可以单独直接控制;所述组合法是指,当需更换活动部位时,可通过第3命令或利用其他活动关节共同选择执行不同的活动部位,如:用户的手臂可以选择控制自我角色的手臂和翅膀,所述活动关节设为脚指,当脚指蜷起时,则用户控制翅膀,松开则控制手臂;所述第3命令指某命令菜单时,会跳出选择界面,通过选择确定要控制活动部位。
另外 通过定位感应件位置变化控制自我角色动作的方法还包括对用户的身体和道具上划分可动部和不可动部,并对可动部分别设定位感应件;其中道具和虚拟世界中物品或器具对应,使得操做道具时,就可使虚拟世界中的相应物品或器具被相应操做,其实 换句话说 就是用定位感应件控制相应虚拟世界中的东西(人或物)。
规则1.2  定位感应件或其变化与自我角色动作或活动部位的对应方法:
使用户不同关节上的定位感应件均具有不同的区别特征,并通过不同的区别特征对应自我角色的活动部位或不同动作。
所述区别特征是在定位感应件上的不同涂点密度或涂点规则,如涂点密度为d或具有涂点规则1的定位感应件发生位置变化时,自我角色的某活动部位就执行相应的允许动作;涂点密度或涂点规则可以通过盖章实现。
规则2:
不促发命令的规则。
本实施例中优选不促发命令的规则,当然也可以是促发命令的规则
本实施例所述的感应定位点可以适用以下两种方案:
1)  将能被探测涂料作为感应定位点涂在肌肉的敏感点上,通过肌肉的紧张程度和运动速度,使各股肉上的感应定位点能判断用户的意图,从而有效对虚拟世界发出相应指令;
2)  将感应定位点固设于穿套式定点控制设备的各活动部位上,可使用户直接穿戴后,身体各部份的动作,均可控制对应“感应定位点”进行相关命令,从而使用户看到自己或自己在虚拟世界中操控的器械进行相关动作,该设备的运用,有效缩短用户在进入虚拟世界前的准备时间,简易所需的准备工序,从而用户通过很便捷的方式就可进行虚拟世界。
上述两方案并不局限于“动作放大系统”,尤其针对不要求用户身体发生位移的玩虚拟世界,如:赛车虚拟世界。
本实施例中穿套式定点控制设备也可以在设备中植入控制器,使操控器感知各定位点发生的各矢量变化(包括:位移、速度、方向);但结合本发明介绍的“感应定位点系统”,可可有效简化“穿套式定点控制设备”,使之纯以机械结构,而无需配备任何电子系统,由于虚拟世界过程中,用户各部位仅进行微动作,因此可做设备零损害,即保证设备的使用寿命,又可避免所电子系统中可能的电子短路给用户带来身体伤害。
本实施例中穿套式定点控制设备包括手掌套件、手臂套件、头部套件、脚掌套件、腿部套件、臀部套件和腰部套件;各套件上均设有一个或一个以上感应定位点。
它还满足:每根手指头的三个关节、手腕关节、手肘关节、肩膀关节、头上任意不在同一直线上的三点、每根脚指头的一个关节、脚脖子关节、小腿、大腿、臀部、脊椎中点上均设有一个或一个以上感应定位点。
本设备旨在通过定位于用户身上的各感应定位点的位置完全确定任一时间点上用户的位置和姿势,本设备也局限于上述感应定位点在上述关节的分配方案。
.为提高仿生效果,本实施例还提供了一人机互动系统,它包括:反作用感知装置和被作用感知装置;所述人机互动系统主要用于修正:用户的最大允许微动作幅度Mm,与自我角色的最大虚拟允许动作幅度Nm的比值Mm/Nm;并使Mm/Nm值比常态大 即反作用感知装置和被作用感知装置工作时,Nm根据以下情形等因子减小。
7.1)   当人机互动由自我角色促发,则按以下方法实现:
7.1.1)锁定用户想要作用的目标
方法一:
利用户眼睛定位装置,当用户的视线方向经过某物方且肢体或道具的作用方向朝向该物方时,给系统作出该肢体或道具要作用于该物方的指令;则系统发出提令,自我角色已锁定该目标;其中用户的视线方向的跟踪可采用本发明人申请的申请号为:“201110411809.X”的《一定识别眼观物方的方法》,或者任意的现有技术,如:专利号为“02829315.0”的《跟踪扭转的眼睛的方向和位置》;
方法二:
通过对眼睛图像采集装置准确判断用户锁定的主要目标,其中眼睛图像采集装置可能过多种现有技术实现,如专利号为“200610072961.9”的《眼睛图像采集装置》;
7.1.2) 该动作作用于目标后,自我角色因被反作用而必然存在的“动作速度”“动作幅度”变化;系统通过反作用感知装置提搞对用户相应的限制负载向用户反馈,或者改变相应部位的虚拟最大幅度,使用户看到自我角色的效果,而通过视觉产生反作用感知装置相同或类似的错觉;
7.1.3) 计算目标被作用后的形态变化,包括形变(姿势变化,不可还原的变形,尤其指破坏)、动能变化情况(动能值+动能方向)。
7.2) 当人机互动由虚拟世界中的其他物方作用于自我角色,而使自我角色被动进入互动,则按以下方法实现:
7.2.1) 当自我角色被作用并产生作用效果时,自动锁定实施作用的物方为目标;
7.2.2) 自我角色被作用而产生的作用效果指:自我角色被作用后的形态变化、动能变化;自我角色被作用而产生的作用效果通过被作用感觉装置反馈给用户,或者改变相应部位的虚拟最大幅度,使用户看到自我角色的效果,而通过视觉产生被作用感知装置相同或类似的错觉。
以下以实例介绍:
如自我角色要攻击一个游戏角色,首先锁定目标,当自我角色打出一拳,作用到对方运动的手臂,而受到对方手臂的反作力,这里尤其指出:不管对方有没朋格挡,只要自我角色碰到目标,根据作用力与反作用力的原理,自我角色必然会受到反作用力;这里当目标进行格挡时,自我角色还受到目标格挡用手臂的作用,则叠加被作用感知装置的设置效果。 
尤其指出:
1)  为确保动作放大系统的有效性,自我角色的允许动作执行条件并非感应定位点在某时间上的位置,而是相对上一时间点上的位置变化;
2)  距离测定点是固定不动的,或者其坐标可计算而确定;
3)  有些虚拟世界,为了减小电脑资源的占用,只给自我角色很特定的几个动作,这种情况下,应满足用户某些部位的动作或组合动作,就应可以控制自我角色进行一连惯的允许动作;
4)  动作放大系统和动作定位点控制系统可以组合运用,也可单独使用;
5)  本发明还包括语音控制系统,使得用户可以通过语音发出指令以控制自我角色的允许动作及虚拟世界的各项基本操作,如:退出、保存。本系统还包括语音识别系统,如可以对用户的声音预先录入,并匹配各项指令。
其他说明:
用户准备就绪后,睁眼会发现自已在上一次退出虚拟世界时所在的位置,各种动作所带来的场景的变化,完全从该位置为起始点。
本虚拟世界允许自我角色具有变形能力当变形后需要控制的部位大于人的关节数 怎么办?可以采用“选择法”,当执行选择命令动作时,可以选择某关节控制虚拟世界中对像的具体运动部位;也可以采用“组合法”,即 两个或两个以上关节同时执行某特定动作时,也可以起到相同效果。
本虚拟世界方法还允许用户具有隔空取物等超能力,该指令的启动条件是: 用户手臂上的感应定位点集在同一直线上,手掌上的感应定位点集成爪状并朝向该物品;而虚拟世界判断吸力的大小,则可先预定自我角色吸力最大值,而取值的条件可以是手指抖动的频率,当频率减小,则吸力对应减小。
当虚拟世界接到用户这一意图,就会计算并比较吸力与物品被吸的难度,当物品的重力太大或被原所在位置的吸附力太大,就要求用户“抓的力度”加大,这时手指的弯曲程度就会加强,而手指的抖动加剧,而使手指上的感应定位点抖动加剧,电脑就会接到用户吸力加强,从而进一步判断能否完成吸收。
定位感应件与所要控制的部位如何对应?如果每个关节都对应一个定位感应件,在有丰富允许动作的虚拟世界里就需要用户进行长时间的准备才可能进入虚拟世界,为此 本发明还提供了穿套式定点控制设备”,用户只需配带对应的手套、脚套、支架套和头盔,就可以操控绑覆在全身的每处关节上的感应定位点,因此极具实用性。
由于采用动作放大法,用户有身体和自我角色各肢体位置和姿势并没有完全对应,因此不能单以感应定位点的位置确定,但两者的头部(由其是眼睛)在虚拟世界中的位置和朝向是相同的。那如何说明用户也能在虚拟世界确定坐标?首先 用户的视觉通过眼镜获得,那眼镜在虚拟世界的坐标是可确定的,因为眼球与眼镜的相对位置始终不变,因此,用户眼球在虚拟世界的坐标可定。
实施例2  一种虚拟设备
它包括:置身系统、全景系统、场景移动系统、动作判断系统和动作放大系统。
A.  动作判断系统:可采用现有技术,如申请号“97198214.7”所介绍的技术方案。
B.  动作放大系统:详见实施例1。 
C.  全景系统
所述全景系统是指虚拟世界过程中,虚拟世界画面始终覆盖用户的全部视觉范围,使用户只能看到虚拟世界中的场景,而看不到现实中的场景;眼镜上屏幕及其虚拟世界画面均覆盖用户的全部视觉范围;该技术可采用现有技术如专利号为为“200810066897.2”的《一种集成了CMMB接收模块的移动视频眼镜》。
D.   置身系统
所述置身系统,满足用户和自我角色在虚拟世界中的位置相同,且用户身体活动与自我角色活动同步,使用户看自我角色的身体时,会误以为是自己的现实中的身体;用户身体活动与自我角色活动同步的方法是通过动作定位点控制系统确定用户进行的动作,通过相关动作确定用户发出的指令内容,继而控制自我角色对就活动部位的活动。
E.  场景移动系统
所述场景移动系统,利用虚拟世界中自我角色所在场景的反向动作,使用户有正进行各种移动或变身(身体缩小或放大或形状变化)的错觉;所述自我角色所在场景的确定方法包括:
1)  直接在用户头部设有能与头部同步发生位移的定位件;所述定位件上设有不在同一直线的三个定位感应件,所述定位感应件满足在虚拟世界的位置可确定,从而确定出用户的头部在虚拟世界中的位置及面部朝向;
2)  通过用户头部在虚拟世界中的位置及面部朝向确定虚拟世界画面。
本实施例中定位件的安装位置重点在满足可与头部同步发生位置,因此还可以安装在用户头部上的各种器具。
本实施例中用户与自我角色在脸部运用的同步关系也可以采用动作放大系统。
本实施例为使虚拟世界更逼真,包括嗅觉系统、触觉系统和体力疲劳等随机设障系统中一种或多种;
所述体力疲劳的随机设障系统,可结合穿套式定点控制设备,如脚掌套件上连接一可伸缩的推进机构、 手掌套件内设一可收缩的手握器。
所述设障系统包括反作用感知装置和被作用感知装置;所述被作用感知装置满足:当虚拟世界中的任一物方作用于自我角色的某部位或某些部位时,设障系统会根据该物方动作特征作用于用户的相应部位上;反作用感知装置满足:当自我角色作用于虚拟世界任一物方时,系统首先根据自我角色的动作特征及该物方的即时状态,判断的自我角色被反作用的部位及反作用效果,所述设障系统则以等因子效果作用于用户相应的部位上。所述设障系统根据自我角色的疲劳程度或最大运动能力,改变反作用感知装置和被作用感知装置对用户的荷载。
以下通过实例介绍:
虚拟世界前要先将用户固定在某操控位上(如:床上),用户动作任一肢体,在虚拟世界中的对应人物则执行完全的动作,目的 在于用户执行任何一动作都可以在同一处操控位进行,动作后,身体所在位置也不会变化,从而减少用户的运动空间。
让用户躺在或坐在控制台上,使设障系统限制用户各躯干的最大活动范围,如:脚板装置弹性接触用户的脚板;手臂限位装置以过盈配合套于用户手臂上。
所述设障机构设于在用户允许动作的部位上方,在常态下使设障机构与用户的躯干保持一定距离(称为自由空间),使用户各部位在不接触到设障机构的情况下,可不受作用进行任意微动作;所述设障机构设有弹性荷载活动区(称为荷载空间),当用户的躯干与设障机构接触,并继续往弹力反方向运动时,相应部位需克服弹力做功。它的功能对应如下:
1)  用户在自由空间和荷载空间的可移动的总和对应于用户的最大允许微动作幅度;
2)  当用户躯干作用于设障机构,同时其动作符合机算机识别命令时;自我角色持续执行虚拟允许动作,如:连续转身;
3)  当用户促发人机互动时,设障机构表现为目标对用户的反作用;
4)  当自我角色被虚拟世界中的物方作用时,设障机构缩小自由空间,并作用于用户的相应躯干;
5)  当自我角色运动能力值提升时,设障机构的负载减小;
6)当自我角色运动能力值减弱时,如:疲劳时,设障机构的负载提高。
本发明的视频设备并不限于通过眼睛观看的设施,如专利号为“00820024.6”的“人体电子植入体及其人工视觉系统”已经给出了通非眼睛使大脑获得图像的方法。
实施例3  一种游戏方法
一种游戏方法,它付于自我角色具有超能力的方法,包括以下步骤:
1)  创建自我角色除放大用户体能以外的超能力虚拟允许动作方案;
2)  跟踪用户允许微动作变化,确定自我角色超能力虚拟允许动作的作用目标;
3)  评价在实施超能力虚拟允许动作时,自我角色的超能力机能值,使被作用目标等因子作形态变化。
本实施例所述的形态变化包括位置、形状、状态、物质变化,其中形状包括变形、流状、颗粒状间的变化等;状态变化包括:气态、固态、液态间的转变等;位置包括:位移、运动速度、加速度等运动情况变化。
本发明所述虚拟环境至少还设有未来环境、过去环境、梦境其中一种或多种虚拟环境。
本发明可开放用户在虚拟环境中重设物方参数的权限,使用户可自行构建、调整、删除虚拟环境。因此使用户极易现将想像物实体化,相对于传统工具具有不可想象的超越。
实施例4:一种空间设计或空间样品的观摩方法
一种空间设计或空间样品的观摩方法,它包括以下步骤:
1)  就空间设计或空间样品进行3d建模;
2)  使用户运用如权利要求1-4所述的人机互动的控制方法,控制自我角色在空间设计或空间样品的3D建模内实施虚拟动作。
实施例5:一种电影拍摄方法
一种电影拍摄方法:
1)  对电影场景进行3D建模;
2)  使演员运用权利要求1-4所述的人机互动的控制方法,控制自我角色在1)所述的3D建模内实施虚拟动作;
3)  录制3D建模内所需场景及自我角色实施虚拟动作的画面。
实施例6:一种模拟实验的方法
一种模拟实验的方法:
1)  收录已知自然规律,并建立运算法则f[x1(x11、x12…x1n)、x2(x21、x22…x2n)…xn(xn1、xn2…xnn)]= y1(y11、y12…y1n)、y2(y21、y22…y2n)…yn(yn1、yn2…ynn),其中xn是规律发生前的反应主体,xnn 是xn的计算参数;yn是规律发生后的新主体,ynn 是yn的计算参数;f是规律是运算公式;
2)  用户根据如权利要求20所述的人机互动的控制方法:调整xn的xnn值至用户设定值;
3)  使用户根据如权利要求1-3所述的人机互动的控制方法,控制自我角色在虚拟环境中就xn进行f1动作;
4)  根据步聚1所述运算法则计算并记录yn及其ynn值。
本实施例中,当实验需要就一个规律的多次反应,或多个规律的多次反应,则根据需要重复执行步骤2)-4)。
该实验方法,不仅不会产生伤害用户风险,而且零成本、实验精度极高。
实施例7:一种旅游方法
一种旅游方法:
1)  对旅游区进行3d建模;
2)使用户运用如权利要求1-4所述的游戏方法,控制自我角色在1)所述3D建模内实施虚拟动作。

Claims (25)

1.一种人机互动的控制方法,其特征在于,用户通过实施用户允许微动作以控制虚拟环境中的自我角色实施相应的虚拟允许动作,它包括以下步骤: 
1)在虚拟世界中创建自我角色; 
2)用户身体无需离开用户所在位置执行微动作; 
3)跟踪并识别用户执行微动作; 并使用户执行任意微动作时,其身体都无需离开用户所在位置; 
4)使自我角色放大执行用户的微动作。
2.如权利要求1所述的一种人机互动的控制方法,其特征在于:限制用户肢体的活动幅度,使被限制的相应部分能完全执行微动作而身体不离开所在位置。
3.如权利要求1或2所述的一种人机互动的控制方法,其特征在于:所述用户允许微动作方案设有用户或道具执行该微动作的最大幅度M、对应自我角色执行相应允许动作的最大幅度为N,设在t时间点上用户执行该微动作的幅度为Mt,对应自我角色执行相应允许动作的幅度为Nt,则该系统满足:当Mt≥M时,Nt=N;当Mt<M时,N>Nt>Mt。
4.如权利要求3所述的一种人机互动的控制方法,其特征在于:限制所述用户允许微动作方案,使用户以所述最大幅度M完成任一微动作时,躯干上除手掌和脚掌外的任意相邻的两部份的角度变化值小于30度。
5.如权利要求1任一权利要求所述的一种人机互动的控制方法,其特征在于:使自我角色与用户在头部、包括手腕的手掌、包括脚腕的脚掌其中的一处或多处部位执行相同运动幅度的动作。
6.如权利要求1所述的一种人机互动的控制方法,它至少还包括以下一个或多个步骤特征:
1)当虚拟世界中的任一物方作用于自我角色的某部位或某些部位时,用户的相应部位会根据该物方动作特征被作用; 
2)当自我角色作用于虚拟世界任一物方时,首先根据自我角色的动作特征及该物方的即时状态,判断的自我角色被反作用的部位及反作用效果,使用户相应的部位以等因子效果被作用;
3)创建可被机算机识别的一套或一套以上的用户允许微动作方案和一套或一套以上的虚拟允许动作方案;
4)使用户在人机互动过程中只能看到虚拟世界的动画而看不到自己的身体;
5)使虚拟世界的画面覆盖用户的视角。
7.如权利要求6所述的一种人机互动的控制方法,其特征在于:可根据自我角色的疲劳程度或最大运动能力,使用户的相应部位受到相应比例且用户能接受的载荷作用。
8.如权利要求1所述的一种人机互动的控制方法,其特征在于:它还采用了选择法和/或组合法;所述是选择法是当用户不具有自我角色相应活动部位时,允许用户自行选择其他活动部位以代替;所述组合法是当用户活动部位数量少于自我角色的活动部位数量时,在用户身上设共享活动位以控制自我角色身上一个以上的活动部位。
9.如权利要求8所述的一种人机互动的控制方法,其特征在于:所述组合法还包括以下一个或多个步骤特征:
1)当需切换自我角色活动部位时,可通过第3命令或利用其他活动关节共同选择执行不同的活动部位; 
2)使共享活动位与其他一个或多个活动部位组合,共同控制自我角色的活动方案。
10.如权利要求1所述的一种人机互动的控制方法,其特征在于:它至少还包括跟踪用户微动作方法、自我角色所在场景的确定方法和反向动作控制方法其中之一个或多个方法;
1)所述跟踪用户微动作方法是在用户的N1、N2…Nn部位上分别设置定位感应件,在用户所在环境内的不在同一直线上的位置设三个或三个以上测距装置,并执行以下步骤: 
1.1建一虚拟三维坐标系,并确定各测距装置的坐标,测出任意时间上每个任意定位感应件到三个测距装置上的距离,从出计算出每个定位感应件在该时间点的三维坐标; 
1.2跟踪在任意时间段t内,定位感应件N1、N2…Nn三维坐标变化; 
1.3根据不同定位感应件的三维坐标随时间的变化,描述在t时段内用户相应部位的活动情况,并使自我角色的相应部位同步放大执行活动幅度; 
2)所述自我角色所在场景的确定方法包括以下步骤:
2.1先确定设在用户头部或间接设于用户头部的,能与头部同步发生位移的定位件;所述定位件上至少有不在同一直线的三点在虚拟世界的位置可确定,使得用户的头部在虚拟世界中的位置及面部朝向均可确定; 
2.2跟踪用户头部在虚拟世界中的位置及面部朝向,并通过用户头部在虚拟世界中的位置及面部朝向确定虚拟世界画面 ,即成像设备的显示画面; 
3)所述反向动作控制方法,是使虚拟世界中自我角色所在场景执行与自我角色头部方向相反而矢量值相同的矢量动作,且两者在分别以同一矢量动作和时间为坐标轴的坐标系中,其矢量动作时间图以时间坐标轴呈轴对称关系。
11.一种人机互动的控制系统,用户通过实施微动作以控制虚拟环境中的自我角色实施相应的虚拟允许动作,其特征在于:它包括:显示虚拟世界的成像设备、用户允许微动作方案的识别捕捉设备和控制用户与自我角色动作同步的同步控制系统。
12.如权利要求11所述的一种人机互动的控制系统,其特征在于:显示虚拟世界的成像设备使虚拟世界的画面覆盖用户的视角,并且用户在人机互动过程中只能看到虚拟世界的动画而看不到自己的身体。
13.如权利要求11所述的一种人机互动的控制系统,其特征在于:所述识别捕捉设备设有多个具有不同的区别特征的定位感应件,以使计算机可识别定位点所对应用户部位。
14.如权利要求13所述的一种人机互动的控制系统,其特征在于:它还包括一穿套式定点控制设备,包括手掌套件、手臂套件、头部套件、脚掌套件、腿部套件、臀部套件和腰部套件中一种或多种;各套件上均设有一个或一个以上定位感应件。
15.如权利要求11或12或13或14所述的一种人机互动的控制系统,其特征在于:它设有一设障系统,所述设障系统设有限位机构,通过限位机构限制用户肢体的活动幅度,使被限制的相应部位能以最大幅度M实施允许动作,并满足用户执行任意允许动作时,身体无需离开所在位置。
16.如权利要求15所述的一种人机互动的控制系统,其特征在于:所述设障系统还设有反作用感知装置和/或被作用感知装置;
通过所述被作用感知装置,使虚拟世界中的任一物方作用于自我角色的某部位或某些部位时,设障系统会根据该物方动作特征作用于用户的相应部位上;
通过所述反作用感知装置,使自我角色作用于虚拟世界任一物方时,设障系统首先根据自我角色的动作特征及该物方的即时状态,判断的自我角色被反作用的部位及反作用效果,所述设障系统则以等因子效果作用于用户相应的部位上。
17.如权利要求16所述的一种人机互动的控制系统,其特征在于:所述设障系统可根据自我角色的疲劳程度或最大运动能力,改变所述反作用感知装置和所述被作用感知装置对用户的荷载。
18.如权利要求16或17所述的一种人机互动的控制系统,其特征在于: 它至少还具有以下一个或多个特征:
1)所述识别捕捉设备设有不同的区别特征的定位感应件,以使计算机可识别定位点所对应用户部位;
2)它还包括嗅觉系统、触觉系统和体力疲劳的随机设障系统中一种或多种;
3)它还设有一穿套式定点控制设备,包括手掌套件、手臂套件、头部套件、脚掌套件、腿部套件、臀部套件和腰部套件;各套件上均设有一个或一个以上感应定位件。
19.一种游戏方法,其特征在于:如权利要求1所述虚拟环境至少还设有未来环境、过去环境、梦境其中一种或多种虚拟环境。
20.一种游戏方法,其特征在于:它付于自我角色具有超能力的方法,包括以下步骤:
1)创建自我角色除放大用户体能以外的超能力虚拟允许动作方案;
2)跟踪用户允许微动作变化,确定自我角色超能力虚拟允许动作的作用目标;
3)评价在实施超能力虚拟允许动作时,自我角色的超能力机能值,使被作用目标等因子作形态变化。
21.如权利要求19或20所述的一种游戏方法,其特征在于:它开放了用户在虚拟环境中重设物方参数的权限,使用户可自行构建、调整、删除虚拟环境。
22.一种空间设计或空间样品的观摩方法,其特征在于它包括以下步骤:
1)就空间设计或空间样品进行3d建模;
2)使用户运用如权利要求1-4所述的人机互动的控制方法,控制自我角色在空间设计或空间样品的3D建模内实施虚拟动作。
23.一种电影拍摄方法:
1)对电影场景进行3D建模;
2)使演员运用权利要求1-4所述的人机互动的控制方法,控制自我角色在1)所述的3D建模内实施虚拟动作;
3)录制3D建模内所需场景及自我角色实施虚拟动作的画面。
24.一种模拟实验的方法:
1)收录已知自然规律,并建立运算法则f[x1(x11、x12…x1n)、x2(x21、x22…x2n)…xn(xn1、xn2…xnn)]= y1(y11、y12…y1n)、y2(y21、y22…y2n)…yn(yn1、yn2…ynn),其中xn是规律发生前的反应主体,xnn 是xn的计算参数;yn是规律发生后的新主体,ynn 是yn的计算参数;f是规律是运算公式;
2)用户根据如权利要求21所述的人机互动的控制方法:调整xn的xnn值至用户设定值;
3)使用户根据如权利要求1-3所述的人机互动的控制方法,控制自我角色在虚拟环境中就xn进行f1动作;
4)根据步聚1所述运算法则计算并记录yn及其ynn值。
25.一种旅游方法:
1)对旅游区进行3d建模;
2)使用户运用如权利要求1-4所述的游戏方法,控制自我角色在1)所述3D建模内实施虚拟动作。
CN2011104581683A 2011-02-11 2011-12-30 一种人机互动的控制方法及其运用 Active CN102541260B (zh)

Priority Applications (9)

Application Number Priority Date Filing Date Title
CN2011104581683A CN102541260B (zh) 2011-02-11 2011-12-30 一种人机互动的控制方法及其运用
PCT/CN2012/000108 WO2012106978A1 (zh) 2011-02-11 2012-01-20 一种人机互动的控制方法及其运用
JP2013552821A JP6193764B2 (ja) 2011-02-11 2012-01-20 ヒューマンコンピュータインタラクションの制御方法及びその運用
KR1020137023483A KR101679805B1 (ko) 2011-02-11 2012-01-20 인간과 컴퓨터가 인터랙티브하는 제어방법 및 그의 응용
EP21188983.7A EP3950076A1 (en) 2011-02-11 2012-01-20 Method for controlling man-machine interaction and application thereof
EP12745158.1A EP2674204A4 (en) 2011-02-11 2012-01-20 METHOD FOR CONTROLLING MAN-MACHINE INTERACTION AND APPLICATION OF SAID METHOD
US13/963,666 US10058773B2 (en) 2011-02-11 2013-08-09 Man-machine interaction controlling method and applications thereof
JP2017156017A JP6722624B2 (ja) 2011-02-11 2017-08-10 ヒューマンコンピュータインタラクションの制御方法及びその運用
JP2018226182A JP6749384B2 (ja) 2011-02-11 2018-12-03 ヒューマンコンピュータインタラクションの制御方法及びその運用

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201110036356 2011-02-11
CN201110036356.7 2011-02-11
CN2011104581683A CN102541260B (zh) 2011-02-11 2011-12-30 一种人机互动的控制方法及其运用

Publications (2)

Publication Number Publication Date
CN102541260A true CN102541260A (zh) 2012-07-04
CN102541260B CN102541260B (zh) 2013-04-03

Family

ID=46348299

Family Applications (8)

Application Number Title Priority Date Filing Date
CN201710113697.7A Active CN106984041B (zh) 2011-02-11 2011-12-09 一种人机互动控制系统
CN201710112621.2A Active CN106943743B (zh) 2011-02-11 2011-12-09 一种人机互动控制方法
CN201110408355.0A Active CN102631781B (zh) 2011-02-11 2011-12-09 一种游戏方法
CN201710113698.1A Pending CN107050852A (zh) 2011-02-11 2011-12-09 一种游戏系统及其穿套式定点控制设备
CN201710112620.8A Active CN106943742B (zh) 2011-02-11 2011-12-09 一种动作放大系统
CN201710112619.5A Active CN106964150B (zh) 2011-02-11 2011-12-09 一种动作定位点控制系统及其穿套式定点控制设备
CN201110420386.8A Active CN102681655B (zh) 2011-02-11 2011-12-15 一种放大系统及其运用
CN2011104581683A Active CN102541260B (zh) 2011-02-11 2011-12-30 一种人机互动的控制方法及其运用

Family Applications Before (7)

Application Number Title Priority Date Filing Date
CN201710113697.7A Active CN106984041B (zh) 2011-02-11 2011-12-09 一种人机互动控制系统
CN201710112621.2A Active CN106943743B (zh) 2011-02-11 2011-12-09 一种人机互动控制方法
CN201110408355.0A Active CN102631781B (zh) 2011-02-11 2011-12-09 一种游戏方法
CN201710113698.1A Pending CN107050852A (zh) 2011-02-11 2011-12-09 一种游戏系统及其穿套式定点控制设备
CN201710112620.8A Active CN106943742B (zh) 2011-02-11 2011-12-09 一种动作放大系统
CN201710112619.5A Active CN106964150B (zh) 2011-02-11 2011-12-09 一种动作定位点控制系统及其穿套式定点控制设备
CN201110420386.8A Active CN102681655B (zh) 2011-02-11 2011-12-15 一种放大系统及其运用

Country Status (6)

Country Link
US (1) US10058773B2 (zh)
EP (2) EP3950076A1 (zh)
JP (3) JP6193764B2 (zh)
KR (1) KR101679805B1 (zh)
CN (8) CN106984041B (zh)
WO (1) WO2012106978A1 (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103019386A (zh) * 2011-12-24 2013-04-03 黄得锋 一种人机互动的控制方法及其运用
CN103544636A (zh) * 2013-11-08 2014-01-29 梁涛 基于虚拟商场的互动方法及设备
CN104914992A (zh) * 2014-04-11 2015-09-16 黄得锋 一种人机互动的控制方法
CN105488834A (zh) * 2015-12-01 2016-04-13 网易(杭州)网络有限公司 角色面部朝向的调整方法及装置
CN105892754A (zh) * 2016-05-27 2016-08-24 北京小鸟看看科技有限公司 一种手指动作识别方法和系统
WO2017075992A1 (zh) * 2015-11-06 2017-05-11 乐视控股(北京)有限公司 一种交互方法和设备
CN106943743A (zh) * 2011-02-11 2017-07-14 漳州市爵晟电子科技有限公司 一种人机互动控制系统
CN108139804A (zh) * 2015-10-15 2018-06-08 索尼公司 信息处理装置与信息处理方法
CN108553893A (zh) * 2018-04-28 2018-09-21 网易(杭州)网络有限公司 赛车游戏中车辆转向的控制方法和装置
CN110214301A (zh) * 2017-03-31 2019-09-06 索尼公司 信息处理设备、信息处理方法和程序

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10827268B2 (en) 2014-02-11 2020-11-03 Apple Inc. Detecting an installation position of a wearable electronic device
WO2015122879A1 (en) * 2014-02-11 2015-08-20 Bodhi Technology Ventures Llc Detecting the limb wearing a wearable electronic device
JP6756236B2 (ja) 2016-10-31 2020-09-16 富士通株式会社 アクション指示プログラム、アクション指示方法及び画像生成装置
US10901494B2 (en) 2017-03-28 2021-01-26 Wipro Limited Method and a system for providing gesture-based interaction with a virtual product
CN107158709A (zh) * 2017-05-16 2017-09-15 杭州乐见科技有限公司 一种基于游戏引导运动的方法和设备
EP4252632A3 (en) 2017-09-05 2024-05-01 Apple Inc. Wearable electronic device with electrodes for sensing biological parameters
EP3459447A3 (en) 2017-09-26 2019-07-10 Apple Inc. Optical sensor subsystem adjacent a cover of an electronic device housing
DE102017009169A1 (de) 2017-10-02 2019-04-04 Holger Wild Interaktives Oberkörperabbildgerät
KR101967072B1 (ko) * 2017-12-14 2019-04-08 김민철 사용자 활동 기반 가상 객체 관리 방법, 이를 수행하는 가상 객체 관리 장치 및 이를 기록한 기록매체
CN110908568B (zh) * 2018-09-18 2022-11-04 网易(杭州)网络有限公司 一种虚拟对象的控制方法和装置
CN111221416B (zh) * 2020-01-06 2021-12-07 腾讯科技(深圳)有限公司 一种虚拟道具分配的方法、服务器及终端设备
US11055891B1 (en) 2020-03-10 2021-07-06 Microsoft Technology Licensing, Llc Real time styling of motion for virtual environments
CN112527109B (zh) * 2020-12-04 2022-05-17 上海交通大学 基于坐姿的vr全身动作控制方法、系统及计算机可读介质
US20240085987A1 (en) * 2022-09-12 2024-03-14 Apple Inc. Environmentally Aware Gestures
JP7372717B1 (ja) 2023-03-30 2023-11-01 mirrorX株式会社 プログラム、情報処理装置及び方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US7205979B2 (en) * 1987-03-17 2007-04-17 Sun Microsystems, Inc. Computer data entry and manipulation apparatus and method
CN101890237A (zh) * 2010-07-16 2010-11-24 叶尔肯·拜山 游戏控制器及其控制方法

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6408289B1 (en) * 1993-06-11 2002-06-18 Mri Devices Daum Gmbh Shapeable elastic body with master unit and method of controlling
US5577981A (en) * 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
JP2840923B2 (ja) * 1994-11-11 1998-12-24 富士通株式会社 プロダクションシステム
WO1996020767A1 (fr) * 1994-12-30 1996-07-11 Sega Enterprises Ltd. Dispositif pour jeu video simulant une bande dessinee
GB9525047D0 (en) * 1995-12-07 1996-02-07 Philips Electronics Nv Virtual body control device
JP2001504605A (ja) * 1996-08-14 2001-04-03 ラティポフ,ヌラフメド,ヌリスラモビチ 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム
JPH10302083A (ja) * 1997-04-30 1998-11-13 Yamaha Corp Cgモデルの動作制御システム
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP4332254B2 (ja) * 1999-04-28 2009-09-16 株式会社アミテック インテリジェント型手袋型手形入力装置
EP1060772B1 (en) * 1999-06-11 2012-02-01 Canon Kabushiki Kaisha Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof
US6377281B1 (en) * 2000-02-17 2002-04-23 The Jim Henson Company Live performance control of computer graphic characters
JP2002032788A (ja) * 2000-07-14 2002-01-31 Nippon Telegr & Teleph Corp <Ntt> 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
JP2002123840A (ja) * 2000-10-17 2002-04-26 Nippon Telegr & Teleph Corp <Ntt> 臨場感型仮想現実提供処理方法および装置
WO2007130793A2 (en) * 2006-05-04 2007-11-15 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
JP2004129180A (ja) * 2002-09-30 2004-04-22 Atsusato Fujii 仮想空間体験のためのシステム
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
JP4048999B2 (ja) * 2003-04-15 2008-02-20 セイコーエプソン株式会社 画像処理装置及び画像処理方法
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
MX2007002011A (es) * 2004-08-23 2007-08-07 Gamecaster Inc Aparato, metodos, y sistemas para observacion y manipulacion de un ambiente virtual.
JP2006163886A (ja) * 2004-12-08 2006-06-22 Canon Inc 情報入力方法及び情報入力装置
JP4406693B2 (ja) * 2005-01-28 2010-02-03 学校法人立命館 バルーンアクチュエータ、エンドエフェクタ、及び医療用器具
JP4848515B2 (ja) * 2006-06-12 2011-12-28 国立大学法人九州工業大学 アバター動作制御システム、そのプログラム及び方法
JP4148281B2 (ja) * 2006-06-19 2008-09-10 ソニー株式会社 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
US8336078B2 (en) * 2006-07-11 2012-12-18 Fmr Corp. Role-based access in a multi-customer computing environment
CN101110102A (zh) * 2006-07-20 2008-01-23 中国科学院自动化研究所 基于玩家拳头的游戏场景和角色控制方法
EP2059315A4 (en) * 2006-08-24 2011-10-26 Howard W Lutnick COMPUTER TERMINAL SYSTEM WITH MULTIPLE DISPLAY SCREENS
JP5557529B2 (ja) * 2006-09-19 2014-07-23 マイオモ インコーポレイテッド 動力で作動する矯正デバイス
EP2132650A4 (en) * 2007-03-01 2010-10-27 Sony Comp Entertainment Us SYSTEM AND METHOD FOR COMMUNICATING WITH A VIRTUAL WORLD
US8706914B2 (en) * 2007-04-23 2014-04-22 David D. Duchesneau Computing infrastructure
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
JPWO2009093461A1 (ja) * 2008-01-22 2011-05-26 新世代株式会社 撮像装置、オンラインゲームシステム、操作物、入力方法、画像解析装置、画像解析方法、及び記録媒体
CN101256673A (zh) * 2008-03-18 2008-09-03 中国计量学院 用于在实时视频跟踪系统中跟踪手臂运动的方法
JP2009276996A (ja) * 2008-05-14 2009-11-26 Canon Inc 情報処理装置、情報処理方法
US8130207B2 (en) * 2008-06-18 2012-03-06 Nokia Corporation Apparatus, method and computer program product for manipulating a device using dual side input devices
US8793498B2 (en) * 2008-08-11 2014-07-29 Nbcuniversal Media, Llc System and method for forensic analysis of media works
US8868373B2 (en) * 2008-08-25 2014-10-21 Universitat Zurich Prorektorat Mnw Adjustable virtual reality system
TWI373361B (en) * 2008-10-09 2012-10-01 Univ Nat Chiao Tung Glove puppet manipulation system
CN101732858B (zh) * 2008-11-11 2013-10-30 盛乐信息技术(上海)有限公司 现实与虚拟结合的联网游戏系统及实现方法
US8253801B2 (en) * 2008-12-17 2012-08-28 Sony Computer Entertainment Inc. Correcting angle error in a tracking system
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
JP2010231290A (ja) * 2009-03-26 2010-10-14 National Institute Of Advanced Industrial Science & Technology 頭部運動による入力装置及び方法
US9067097B2 (en) * 2009-04-10 2015-06-30 Sovoz, Inc. Virtual locomotion controller apparatus and methods
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US20100302253A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Real time retargeting of skeletal data to game avatar
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
TW201104494A (en) * 2009-07-20 2011-02-01 J Touch Corp Stereoscopic image interactive system
JP5613236B2 (ja) * 2009-07-22 2014-10-22 イマージョン コーポレーションImmersion Corporation 複数のプラットフォームを越える触覚フィードバックを用いた対話式タッチスクリーンゲーミング比喩
CN102141685B (zh) * 2009-11-29 2016-02-24 黄得锋 一种3d成像装置
US8284157B2 (en) * 2010-01-15 2012-10-09 Microsoft Corporation Directed performance in motion capture system
US20110221755A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
US20110289455A1 (en) * 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
CN106984041B (zh) * 2011-02-11 2021-07-06 漳州市舟锋电子科技有限公司 一种人机互动控制系统
CN202120199U (zh) * 2011-06-13 2012-01-18 深圳市远望落星山科技有限公司 一种光影跟踪系统
CN102253713B (zh) * 2011-06-23 2016-10-12 康佳集团股份有限公司 面向三维立体影像显示系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7205979B2 (en) * 1987-03-17 2007-04-17 Sun Microsystems, Inc. Computer data entry and manipulation apparatus and method
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
CN101890237A (zh) * 2010-07-16 2010-11-24 叶尔肯·拜山 游戏控制器及其控制方法

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106964150B (zh) * 2011-02-11 2021-03-02 漳州市爵晟电子科技有限公司 一种动作定位点控制系统及其穿套式定点控制设备
CN106943743B (zh) * 2011-02-11 2024-04-26 漳州市阿思星谷电子科技有限公司 一种人机互动控制方法
CN106943742B (zh) * 2011-02-11 2024-04-26 漳州市阿思星谷电子科技有限公司 一种动作放大系统
CN106984041B (zh) * 2011-02-11 2021-07-06 漳州市舟锋电子科技有限公司 一种人机互动控制系统
CN106943743A (zh) * 2011-02-11 2017-07-14 漳州市爵晟电子科技有限公司 一种人机互动控制系统
CN106943742A (zh) * 2011-02-11 2017-07-14 漳州市爵晟电子科技有限公司 一种动作放大系统
CN106964150A (zh) * 2011-02-11 2017-07-21 漳州市爵晟电子科技有限公司 一种动作定位点控制系统及其穿套式定点控制设备
CN106984041A (zh) * 2011-02-11 2017-07-28 漳州市爵晟电子科技有限公司 一种人机互动控制系统
CN103019386A (zh) * 2011-12-24 2013-04-03 黄得锋 一种人机互动的控制方法及其运用
CN103544636A (zh) * 2013-11-08 2014-01-29 梁涛 基于虚拟商场的互动方法及设备
CN104914992A (zh) * 2014-04-11 2015-09-16 黄得锋 一种人机互动的控制方法
CN108139804A (zh) * 2015-10-15 2018-06-08 索尼公司 信息处理装置与信息处理方法
WO2017075992A1 (zh) * 2015-11-06 2017-05-11 乐视控股(北京)有限公司 一种交互方法和设备
CN105488834B (zh) * 2015-12-01 2019-03-19 网易(杭州)网络有限公司 角色面部朝向的调整方法及装置
CN105488834A (zh) * 2015-12-01 2016-04-13 网易(杭州)网络有限公司 角色面部朝向的调整方法及装置
CN105892754A (zh) * 2016-05-27 2016-08-24 北京小鸟看看科技有限公司 一种手指动作识别方法和系统
CN110214301A (zh) * 2017-03-31 2019-09-06 索尼公司 信息处理设备、信息处理方法和程序
CN110214301B (zh) * 2017-03-31 2022-03-11 索尼公司 信息处理设备、信息处理方法和程序
CN108553893A (zh) * 2018-04-28 2018-09-21 网易(杭州)网络有限公司 赛车游戏中车辆转向的控制方法和装置
CN108553893B (zh) * 2018-04-28 2021-11-16 网易(杭州)网络有限公司 赛车游戏中车辆转向的控制方法和装置

Also Published As

Publication number Publication date
CN106964150A (zh) 2017-07-21
CN102631781A (zh) 2012-08-15
CN102631781B (zh) 2017-04-05
JP6193764B2 (ja) 2017-09-06
US20130331964A1 (en) 2013-12-12
CN106943742A (zh) 2017-07-14
WO2012106978A1 (zh) 2012-08-16
CN106964150B (zh) 2021-03-02
JP2014510336A (ja) 2014-04-24
CN107050852A (zh) 2017-08-18
JP2019061707A (ja) 2019-04-18
EP2674204A1 (en) 2013-12-18
KR101679805B1 (ko) 2016-11-25
CN106943743B (zh) 2024-04-26
CN106943742B (zh) 2024-04-26
KR20140049503A (ko) 2014-04-25
US10058773B2 (en) 2018-08-28
CN106984041B (zh) 2021-07-06
CN106943743A (zh) 2017-07-14
EP3950076A1 (en) 2022-02-09
CN106984041A (zh) 2017-07-28
JP6749384B2 (ja) 2020-09-02
CN102681655A (zh) 2012-09-19
JP6722624B2 (ja) 2020-07-15
EP2674204A4 (en) 2015-01-28
CN102541260B (zh) 2013-04-03
JP2018022498A (ja) 2018-02-08
CN102681655B (zh) 2017-07-07

Similar Documents

Publication Publication Date Title
CN102541260B (zh) 一种人机互动的控制方法及其运用
CN103019386A (zh) 一种人机互动的控制方法及其运用
CN107349594B (zh) 一种虚拟舞蹈系统的动作评价方法
CN109453509A (zh) 一种基于肌电和运动捕捉的虚拟上肢控制系统及其方法
CN100557639C (zh) 基于关键帧和时空约束的三维虚拟人体运动生成方法
Ishigaki et al. Performance-based control interface for character animation
JP2014510336A5 (zh)
CN107281728B (zh) 配合传感器的增强现实滑雪辅助训练系统及方法
CN105107200A (zh) 基于实时深度体感交互与增强现实技术的变脸系统及方法
KR101948660B1 (ko) 가상현실 체험용 시뮬레이션 보드 장치
CN106358024A (zh) 泳姿监控系统和泳姿监控方法
Cohn et al. Snapmove: Movement projection mapping in virtual reality
Gruenbaum et al. Implementation of dynamic robotic graphics for a virtual control panel
Wang et al. Intuitive and versatile full-body teleoperation of a humanoid robot
CN208422160U (zh) Vr运动状态模拟装置
Kim et al. Foot-pedal: Haptic feedback human interface bridging sensational gap between remote places
Santamato et al. Anywhere is possible: An Avatar Platform for Social Telepresence with Full Perception of Physical Interaction
Guo et al. A control system of human-computer interaction based on Kinect somatosensory equipment
Ni et al. A Solution of Human-Computer Remote Interaction with Tactile Feedback

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230106

Address after: 509, 5th floor, building 1, women's and children's activity center, No. 20, Nanchang East Road, Longwen District, Zhangzhou City, Fujian Province, 363000

Patentee after: Zhangzhou Asixinggu Electronic Technology Co.,Ltd.

Address before: 363000 Fujian city of Zhangzhou province Yanan Plaza 4 Building No. 1511 Xiangcheng Ming

Patentee before: Huang Defeng