CN103019386A - 一种人机互动的控制方法及其运用 - Google Patents

一种人机互动的控制方法及其运用 Download PDF

Info

Publication number
CN103019386A
CN103019386A CN2012105660507A CN201210566050A CN103019386A CN 103019386 A CN103019386 A CN 103019386A CN 2012105660507 A CN2012105660507 A CN 2012105660507A CN 201210566050 A CN201210566050 A CN 201210566050A CN 103019386 A CN103019386 A CN 103019386A
Authority
CN
China
Prior art keywords
user
role
self
action
fine motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012105660507A
Other languages
English (en)
Other versions
CN103019386B (zh
Inventor
黄得锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhangzhou Asixinggu Electronic Technology Co ltd
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201210566050.7A priority Critical patent/CN103019386B/zh
Publication of CN103019386A publication Critical patent/CN103019386A/zh
Application granted granted Critical
Publication of CN103019386B publication Critical patent/CN103019386B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明提供了一种人机互动的控制方法及其运用,用户通过实施用户允许微动作以控制虚拟环境中的自我角色实施相应的虚拟允许动作,它包括以下步骤:1)在虚拟世界中创建自我角色;2)用户身体无需离开用户所在位置执行微动作;3)跟踪并识别用户执行微动作;并使用户执行任意微动作时,其身体都无需离开用户所在位置;4)使自我角色放大执行用户的微动作。本发明介绍的“动作放大系统”,可使用户身体无需发生位移或者仅发生微小位移就可以实现全部虚拟世界赋予的全部功能或能力,使得用户在虚拟世界全程中均只在同一处操控位上,同时还便于实现用户的运动部位和虚拟世界人物运动部位一致,使用户容易上手。

Description

一种人机互动的控制方法及其运用
技术领域
本发明涉及一种可使人机互动的仿生虚拟世界的控制方法及运用。
背景技术
现有技术中已给出了可人机互动的仿生虚拟世界的多种控制方法及其设备,但均存在一缺陷:需要用户运动空间大,且运动存在局限性,如:当用户已移动到墙壁,但游戏自我角色下一动作还需要用户向墙壁的背向前进,就会使用户“撞墙”且无法继续实施上述控制。而现有技术为了避免这种情况,一般采用如下方法:
1)缩小自我角色的活动空间(注意,这里说的是自我角色而非用户),以使用户控制过程中不用移动或尽量减小活动,但这样的方法使游戏的可玩性大大降低,其运用价值也非常有限。
2)限定自我角色所在环境,如:申请号为201110065915的《仿生学运动》。
3)限定自我角色活动形式,如仅只能在指定路线内驾驶汽车等移动工具;该形式的目的在于避免,“虚拟角色通过肢体发生位移时,用户在现实空间中也需要发生位移”。
4)利用空载控制台,如:跑步机等方案,使用户至在同个位置移动,但也存在着:用户需要持续体能消耗,因此很难长时间持续进行人机互动;另外这样的控制台“空载”的路径非常有限,如用户只能在跑步机传送带上的同一方向跑动,而无法朝任意方向活动,用户也很难随心运动。
现有技术除了无法实现自我角色如现实般可充分进行自由活动外,还存在机械控件多、成本高,而且携带不便等问题。
发明内容
本发明的目的是提供一种不必为保证自我角色和用户的配合,而对虚拟世界进行空间、环境、人机互动形式等进行限制的人机互动方法及设备;或不必为保证自我角色如现实般可充分进行自由活动,而对虚拟世界进行空间限制、环境限制、人机互动形式等进行限制的人机互动方法及设备。
为了便于理解本发明,特对所涉及的各术语进行如下名词解释。
(一)自我角色:指在虚拟世界中,可被用户操控的,并被用户认为是自己的虚拟角色,可是人类或任意活动物方。
(二)活动部位:在某些情况下,用户并非全部部位的活动都可以控制我自我角色相应部位的活动,尤其当自我角色为非人类时,并没有用户身上的某些部位,因此本发明所指的“活动部位”是指用户身体上的部位,该部位对应于自我角色可被控制的部位。另一方面,当自我角色的活动部位数多于用户实际的活动部位数时,则采用本发明介绍的其他方法;另外 本文所称的活动部位也可指活动关节,所述活动关节并非仅限于骨架连接处,它泛指人体上可活动的任何部位,如整个上臂上的任一点或点组合。
特别指出本发明所称的
手掌:如图2所示手掌1包括手腕11在内的所有手掌上的关节,如手指12,在评估手掌动作时,手掌中的各关节可以单独评估控制指令,同时可以使其中一个或多个关节可以控制自我角色的手掌的相应关节进行动作。
脚掌:如图2所示脚掌2包括脚腕21在内的所有脚掌2上的关节,如脚指头22,在评估脚掌动作时,脚掌中的各关节可以单独评估控制指令,同时可以使其中一个或多个关节可以控制自我角色的脚掌的相应关节进行动作。
另外经实验我们发现,当自我角色与用户在头部、包括手腕的手掌、包括脚腕的脚掌其中的一处或多处部位执行相同运动幅度的动作,用户更容易掌握本发明的控制方法。
(三)用户允许微动作方案:当用户实施的动作方案中包含一个或一个组微动作时,可以对虚拟角色发出一控制指令,则该动作方案称之为用户允许微动作方案;这里可对动作方案进行条件限制,所述条件尤其包括限定不发出命令的情形(即 用户动作符合不发出命令情形的或不符合发出命令情形的,该动作不对自我角色发出命令);当用户的多个部位动作时,可优选关联于自我角色头部的运动矢量和视觉矢量,所述运动矢量如:速度、位移等;所述视觉矢量如:自我角色的体积变化、视野篇幅大小变化等。
使确保实现本发明目的的前提下,使用户在操控过程中,不离开操控台的方法主要包括:
1、至少考虑两个或以上不同部位的命令发出顺序,即 当多个活动部位的符合发出动作指令时,尤其考虑1个或1个以上部位的命令发出。
(四)微动作:用户发出比自己期望幅度值小的动作,且该动可让自我角色发出与用户期望值相同幅度的动作,具体表现为:先规定一动作幅度上限为Mm,且使Mm小于用户的运动极限; 就该动作规定自我角色对应的虚拟动作幅度上限为Nm(一般情况下,使Nm≥用户的运动极限),且Nm>Mm;设在t时间点上用户执行该动作的幅度为Mt,对应自我角色的虚拟动作幅度为Nt,则满足:当Mt≥M时Nt=N、当Mt<M时N>Nt>Mt;当系统通过上述规则放大用户动作的,称被依上述规则放大的用户动作为微动作。
如先规定:用户手臂抬起5度时,自我角色则完全抬起手臂,当用户抬手臂的角度大于5度,自我角色均完全抬起手臂,这里,我们称5度为用户执行抬手臂的最大幅度,显然用户手臂不仅可以抬5度;再规定:用户期望将手抬高30度,而实际上只抬高1度的动作;所述微动作一般表现如:手臂微动、脚微曲,另外应针对不同部位规定幅度上限(即 不同部位的幅度上限有所不同),再者 优选使相应部位相对于默认位置的位移上限小于10cm。
动作放大:为了力求用户的真实感受,及在互动过程的同步需求,设定以下三个规则:
一、 命令优先规则
至少使两个指标具有不同的优先级(如:位移指标和力度指标),本发明优选方案中,使力度指标的放大指令优先于位移指标的放大命令。
二、与人体感动能力匹配规则
1、在人体感知能力范围内, 使自我角色至少放大执行微动作的位移指标和力度指标;
2、 当超过人体感知能力范围,使自我角色至少放大执行微动作的速度指标、位移指标和力度指标。
这里尤其指出:
1)用户执行某允许动作时,实际的运动极限均大于该允许动作的最大幅度,而为了更有效实现本技术效果,虚拟世界过程采用动作放大系统时,最好通过对用户肢体的限制只允许其进行小幅度的微动作;
2)某些部位,有时需执行微动作,有时不需要执行微动作;
3)为了使用户动作都不离开操控台,可使用户的幅度上限规定小至满足:位移指标小于3cm。
三、 其他规则
1、至少有一个活动部位,当用户朝背向操控位方向的动作被放大的比例不小于其他方向被放大的比例,优先选择大于其他方向被放大的比例。
(五)虚拟允许动作方案:虚拟世界赋予自我角色或虚拟世界中器具可以进行的动作或动作方案,所述动作方案包括连续的动作组合、动作力度、速度等。
(六)评价动作幅度的指标可以是涉及执行允许微动作方案的活动部位的位移、角度、速度、弧度、振动频率(反复执行某同一动作的频率)、姿势变化等,特别指出:评价一个动作幅度可以同时涉及两个或以上指标;上述各指标可以根据任意现有技术或公识常识规定,如:所述角度可以是被跟踪部位在两个时间点上的夹角等,对应的用户允许微动作方案可规定:当用户以最大幅度M完成任一微动作时,躯干上除手掌和脚掌外的任意相邻的两部份的角度变化值小于30度。如:某允许微动作方案涉及上臂和下臂的角度,在实施该动作的前后角度为120度和140度,则该相邻两部份的夹角变化值就为+20度。显然用户和自我角色的形态(姿势)并不要求相同或类似。
(七)反向动作:自我角色所在的虚拟世界场景执行与用户发出的指令具有矢量值相同但方向相反的矢量动作;所述矢量动作可以是任意时间点上相对于默认点的位移变化、相对于默认体积值的体积变化,如图1所示:以矢量动作为纵坐标,以时间为横坐标建立坐标系,则用户发出的指令与自我角色所在的虚拟世界场景对应曲线图以横坐标呈轴对称关系,如:从时间点t1到时间点t2,用户要自我角色朝东南方向前进5米时,只要在该时间段上使自我角色所在场景向西北方向移动5米就可实现;再如:从时间点t1到时间点t2,用户要自我角色全身等比例变大2倍,则自我角色所在场景在相同时间段缩小两倍,这里尤其指出:用户的变身或变形指令里,判断原则可以是包括眼睛大小和\或双眼间距的变化,这里的眼睛大小变化可以从所获得视野变化进行评估;如果眼睛及双眼间距没有变化,则场景在体积上不会变化,即 场景的体积矢量动作与自我角色的眼睛及双眼间距离的体积矢量动作具有:矢量值相同、方向相反的关系。
为实现上述发明目的,本发明技术方案为:
一、 提供一种用户无需离开控制台,尤其无需在“操控位”上发生位移,而连续执行对自我角色进行各种控制的方法,该方法可满足:不必为保证自我角色和用户的配合,而对虚拟世界进行空间、环境、人机互动形式等进行限制。
本发明是对用户动作通过“先限制而后放大”的方法实现上述技术效果,该方法包括:
使用户通过实施用户允许微动作方案以控制虚拟环境中的自我角色实施相应的虚拟允许动作方案; 
在以下部位中至少有两个或以上部位涉及执行允许微动作方案:头部、脖子、腰部、上臂、下臂、宽部、上腿、下腿、手掌和脚掌;
控制用户身上至少两处不同部位被放大比例方案,以实现虚拟角色的任意活动,用户都无需离开控制台。
优化方案1:
本发明可提供持续动作命令,当用户持续对弹性装置作用时,用户可保持转身等动作。因此用户可在任意姿势下控制自我角色的任意动作方案。本发明所述最大幅度M优选正负5度以内。
优化方案2:
限制用户肢体的活动幅度,使被限制的相应部分能完全执行微动作而身体不离开所在位置,对所述限制方案还可作以下一个或多个优化:
1)  当虚拟世界中的任一物方作用于自我角色的某部位或某些部位时,用户的相应部位会根据该物方动作特征被作用; 
2)  当自我角色作用于虚拟世界任一物方时,首先根据自我角色的动作特征及该物方的即时状态,判断的自我角色被反作用的部位及反作用效果,使用户相应的部位以等因子效果被作用;
3)  可根据自我角色的疲劳程度或最大运动能力,使用户的相应部位受到相应比例且用户能接受的载荷作用。
二、   虚拟世界接收用户指令的方法:
它是通过动作定位点控制系统确定用户进行的动作,通过相关动作确定用户发出的指令内容,继而控制自我角色对就活动部位的活动。
所述动作定位点控制系统:是在用户身上或道具上设有1个或1个以上的定位感应件,通过各定位感应件的位置(三维坐标)随时间的变化,从而可确定用户在任意时间上的姿势或在某段时间内的动作变化。
 以下逐一介绍本技术方案所涉及“定位感应件位置的变化确定方法”、“通过定位感应件位置变化控制自我角色动作的方法”和“定位感应件或其变化与自我角色动作或活动部位的对应方法”。
(一)   定位感应件位置的变化确定方法包括以下骤:
1)  建一虚拟三维坐标系,并确定三个或三个以上的且不在同一直线上的距离测定点在该坐标系中的坐标;
2)  测定定位感应件分别到上述各距离测定点的距离,从而计算出各定位感应件在任意时间点上的三维坐标。
(二)  通过定位感应件位置变化控制自我角色动作的方法是针对虚拟世界赋予自我角色A1、A2…An共计n个可单独活动部位,按以下两种情形控制:
1)  当该N个活动部位均可在用户身上找到对应活动部位进行对应,则在用户在各对应活动部位上分别设置N1、N2…Nn共N个定位感应件,并跟踪在任意时间点t时,N1、N2…Nn三维位置变化; 使各定位感应件的三维位置变化,控制自我角色相应部位进行相关动作;
2)  当该N个活动部位不能完全在用户身上找到对应活动部位进行对应时,假设存在若干不能找到对应关系的活动部位Mx,先使用户的活动部位Nx可选择控制自我角色的Mx1、Mx1 …Mxs共s个活动部位,并采用选择法和组合法中一种或全部来选择控制具体的活动部位Mx;所述选择法是指活动部位Nx确定对应控制活动部位后,可以单独直接控制;所述组合法是指,当需更换活动部位时,可通过第3命令或利用其他活动部位共同选择执行不同的活动部位,如:用户的手臂可以选择控制自我角色的手臂和翅膀,所述活动部位设为脚指,当脚指蜷起时,则用户控制翅膀,松开则控制手臂;所述第3命令指某命令菜单时,会跳出选择界面,通过选择确定要控制活动部位。
“通过定位感应件位置变化控制自我角色动作的方法”还包括对用户的身体和道具上划分可动部和不可动部,并对可动部分别设定位感应件;其中道具和虚拟世界中物品或器具对应,使得操做道具时,就可使虚拟世界中的相应物品或器具被相应操做,其实 换句话说 就是用定位感应件控制相应虚拟世界中的东西(人或物)。
(三)  定位感应件或其变化与自我角色动作或活动部位的对应方法是使用户不同关节上的定位感应件均具有不同的区别特征,并通过不同的区别特征对应自我角色的活动部位或不同动作。
所述区别特征是在定位感应件上的不同涂点密度或涂点规则。
三、 它还包括嗅觉系统、触觉系统和体力疲劳的随机设障系统中一种或多种:
当系统识别自我角色的越疲劳,则相应部位上的设障机构对该部位的负载就越大,用户执行该动作就越难,实之具有类同的感觉,游戏更真实。
四、 本发明还介绍了一种适用于上述虚拟世界方法的穿套式定点控制设备”:
它包括手掌套件、手臂套件、头部套件、脚掌套件、腿部套件、臀部套件和腰部套件;各套件上均设有一个或一个以上感应定位点。
它还满足:每根手指头的三个关节、手腕关节、手肘关节、肩膀关节、头上任意不在同一直线上的三点、每根脚指头的一个关节、脚脖子关节、小腿、大腿、臀部、脊椎中点上均设有一个或一个以上感应定位点。
本设备旨在通过定位于用户身上的各感应定位点的位置完全确定任一时间点上用户的位置和姿势,本设备也未局限于上述感应定位点在上述关节的分配方案。
五、 本发明还提供了一种用户看到自己的身体进入虚拟世界的方法:
实现方法是同时采用置身系统、全景系统和场景移动系统,以下逐一介绍各系统。
(一)  所述场景移动系统,利用虚拟世界中自我角色所在场景的反向矢量动作,使用户有正进行各种移动或变身(身体缩小或放大或形状变化)的错觉。
所述自我角色所在场景的确定方法包括:
1)  直接或间接在用户头部设有能与头部同步发生位移的定位件;所述定位件上至少有不在同一直线的三点在虚拟世界的位置可确定,从而确定出用户的头部在虚拟世界中的位置及面部朝向;
2)  通过用户头部在虚拟世界中的位置及面部朝向确定虚拟世界画面。
所述反向动作,是使虚拟世界中自我角色所在场景执行与自我角色头部方向相反而矢量值相同的矢量动作,且两者在分别以同一矢量动作和时间为坐标轴的坐标系中,其矢量动作时间图以时间坐标轴呈轴对称关系。
(二)  所述全景系统,使用户只能看到虚拟世界中的场景,而看不到现实中的场景,且虚拟世界场景覆盖用户的全部视觉范围;本系统尤其指用户配带全3D眼镜,眼镜上屏幕及其虚拟世界画面均覆盖用户的全部视觉范围。
(三)  所述置身系统,满足用户和自我角色在虚拟世界中的位置相同且用户身体与自我角色活动同步,使用户想看自己身体时,均能看到虚拟世界中自己的各种动作。
上述技术方案的有益之处在于:
本发明因为用户的身体无需离开所在位置,因此在操作过程中,均可躺着或坐着,因而用户可长时间轻松自如完成各项操控,而不会因为体力不支,而被迫中止;因此适应人群极广,凡身体有活动肌能的人都可以通过本发明进行相应的人机互动;尤其是本发明采用了选择法和组合法,使身体残疾的人士,通过有活动肌能的部位经组合应用,以达到控制自我角色自由活动用户本已缺失活动肌能的部位。
该方法可极大延长用户活动时间或减小运动能耗,这里的活动尤其指用户能实现且生活中可经常执行的复杂动作,如跳健美操,打蓝球等而非仅含单一动作(如:跑步),假设一用户的跳某一健美操只能坚持20分钟,而通过本发明控制自我角色跳相同健美操的,该用户可坚持远超超过20分钟。
因用户采用微动作控制自我角色,因此可以完成各种现实中无法完成的各种动作,如使自我角色执行如图3所示的下腰时,同时还出拳的动作。
本发明介绍的“动作放大系统”,可使用户身体无需发生位移或者仅发生微小位移就可以实现全部虚拟世界赋予的全部功能或能力,使得用户在虚拟世界全程中均只在同一处操控位上,同时还便于实现用户的运动部位和虚拟世界人物运动部位一致,使用户容易上手。
本发明介绍的三点定位法,使机算机能人体无法感知的速度,使自我角色与用户同步实施各项动作,因此解决画面滞后的问题,继而使用户更自如长时间完成人机互动,当然更不会出现用户头晕的情形。
本发明介绍的“穿套式定点控制设备”,可使用户直接穿戴后,身体各部份的动作,均可控制对应“感应定位点”进行相关命令,从而使用户看到自己或自己在虚拟世界中操控的器械进行相关动作,该设备的运用,有效缩短用户在进入虚拟世界前的准备时间,简易所需的准备工序,从而用户通过很便捷的方式就可进行虚拟世界。
本发明介绍的“感应定位点系统”,可使系统通过跟踪各定位点发生的各矢量变化(包括:位移、速度、方向)以控制自我角色动作;本方案可有效简化“穿套式定点控制设备”,使之纯以机械结构,而无需配备任何电子系统,可避免电子短路给用户带来身体伤害;同时 由于用户在使用过程中,各定位点均被定位于用户身上的各对应部位,且用户只实施微动作,因此各定位点移动位移因非常小,因此可实现设备零损害,以保证设备的使用寿命。
本发明介绍的“选择法”和“组合法”,可实现自我角色上活动部位数大于感应定位点数。
通过本发明可实现自我角色“可如用户在现实般”充分、自由动作。
下面结合附图和具体实施例对本发明作进一步的说明。
附图说明
图1为虚拟世界中自我角色所在场景与自我角色头部就同一矢量动作的矢量动作时间图,
其中 t:时间、  V:体积、  S:位移
曲线A是虚拟世界中自我角色所在场景的位移或体积矢量动作时间图
曲线B是自我角色头部的位移或体积矢量动作时间图。
图2为用户关节示意图。
图3为虚拟允许动作示意图。
具体实施方式
实施例1 一种人机互动的控制方法
一种人机互动的控制方法,它建立了《用户微动作数据库》与《自我角色虚拟动作数据库》;并规定了《动作放大规则》和《人机互动规则》。
所述《用户微动作数据库》还包括《用户允许微动作方案数据库》。
1、用户微动作数据库
1.1)以头部、脖子、腰部、上臂、下臂、宽部、上腿、下腿、手掌和脚掌为关键字建立数据库;旨在确定用户身上可控制自我角色动作的活动部位。
1.2)就活动部位的动作幅度规定评价指标,包括:位移、相邻关节角度变化值、移动速度、抖动频率等;旨在具体规定活动部位发出命令的形式。
1.3)规定各评价指标的上限;通过规定不同部位的幅度上限,以协助确保用户无需离开“操控位”而可而连续执行任意控制动作。
2、用户允许微动作方案数据库
2.1)规定不发出控制命令的情形。
2.2)规定发出特技的情形条件;指当用户执行符合条件的动作或动作组合时,自我角色执行特技动作等;尤其指出条件规定的权限可开放,以便不同用户根据自己习惯制定。
3、自我角色虚拟动作数据库
3.1)对应于用户活动部位规定自我角色的虚拟动作部位,即自我角色身上可被控制的部位。
3.2)虚拟动作部位的动作参数:移位、速度、力度;根据不同虚拟动作部位的动作幅度确定相对用户活动部位运动幅度的放大倍数。
4、人机互动规则
使《用户微动作数据库》与《自我角色虚拟动作数据库》以如下关系关联:
4.1) 《用户微动作数据库》的“活动部位”关联于《自我角色虚拟动作数据库》的“虚拟动作部位”。
4.2) 《用户微动作数据库》的“活动部位评价指标”关联于《自我角色虚拟动作数据库》的“虚拟动作部位的动作参数”。
5、动作放大规则
5.1) 通过《用户微动作数据库》的“规定不同评价指标的上限”的限制《人机互动规则》的4.1)条款。
5.2) 微动作规则:设定用户或虚拟世界道具执行任一允许动作的最大幅度Mm、对应虚拟世界中人或物的执行相应的允许动作的最大幅度为Nm、在t时间点上用户或虚拟世界道具执行该允许动作的幅度为Mt,对应虚拟世界中人或物的执行相应的允许动作的幅度为Nt,则该系统满足:当Mt≥Mm时,Nt=Nm;当Mt<Mm时,Nm>Nt>Mt。
5.3) 用户不离开操控台的执行方案:
1) 确定用户身上可发出命令的部位N集合,确定其中需执行微动作的活动部位N1集合;并规定N1集合中各部位执行微动作的情形X1; 
2) 确定自我角色可被控制的部位M集合,及M集合中各部位与N集合中各部位的对应关系;
3) 确定在一种或多种X1情形下, N1集合中各部位被 M集合中相应部位的放大比例方案(所述部位可以是组合形式,如:两个或多个部位组成一个部位组,可通过对其形状或分布或移动速度进行评价幅度);
4) 跟踪并识别N集合中的各部位执行允许微动作方案; 并根据步骤3)使自我角色执行虚拟允许动作。
至少有一套允许微动作方案规定了用户身上n1个活动部位需执行微动作,n2个活动部位不执行微动作,其中n1≥2, n2≥0;相应的
步骤1)在部位N集合中,增加规定不需执行微动作的部位N2集合;
步骤3)增加就N2集合中各个部位确定M集合中的对应部位,并规定N2集合中各部位与M集中相应部位执行相同动作幅度或缩小动作幅度;
步骤2)中就N1集合中的部位还规定了不执行微动作的情形X2;
步骤3)还规定了在X2情形下,各个部位N1对相应部位M应执行相同动作幅度或缩小动作幅度;
步骤4)中跟踪并识别N集合执行允许微动作方案的方法是:跟踪识别N集合中各活动部位对应的肌肉的活动情况,以确定用户的活动意图。
至少有两处可以实施微动作的活动部位在实施同一套允许微动作方案时,至少具有以下一个特征:
1)  被自我角色放大的比例方案不同;
2)  可执行微动作的动作幅度上限不同;
3)  评价可执行微动作的动作幅度的指标不同;
4)  对应自我角色允许动作的最大幅度不同;
5)  对应自我角色的动作幅度上限不同;
6)  评价对应自我角色的动作幅度的指标不同。
为实现用户不离开操控台,应首先考虑自我角色与虚拟环境中的物方(如地面)接触时,而可以使自我角色发生位移的部位(腿或脚掌),并通过微动作规则放大用户相应部位的动作。
上述可以一套允许微动作方案中规定了不同部位的放大比例。
上述可以有多套允许微动作,各套允许微动作就相同活动部位规定了不同的方大比例。
5.4)根据动作组合、自我角色状态及虚拟世界环境共同触发情形命令:
动作组合为函数M1,函数M1的变量为活动部位的动作幅度;
自我角色状态为函数M2,函数M2的变量包括自我角色的动能或动量;
虚拟世界环境为函数M3,函数M2的变量包括与自我角色接触的物方动能或动量,所述物方包括地面等可以使自我角色发生位移的接触环境。
通过计算X(M1、M2、M3)判断虚拟角色应执行的放大比例方案;
以任意部位Sn规定进行微动作的情形X1集合,即 符合X1集合中任意情形xn的,系统都将根据微动作放大方案使自我角角色执行虚拟动作;
规定任意xn情形下,评价S动作的幅度指标位移s,如:当X(M1、M2、M3)符合“走路情形”,自我角色对Sn的放大比例为x1或f(x1);当X(M1、M2、M3)符合“后踢情形”,自我角色对Sn的放大比例为x2或f(x2)。用户通过坐在控制台上进行人机互动与躺在控制台上的放大方案可不以同,上述函数中设有可调参数,该可调参数由用户自行调整。
6、为了确保人机互动的同步,本实施例还提供了一人机同步系统,所述人机同步系统包括:用户微动作识别系统、微动作匹配命令规则系统。
6.1)所述用户微动作识别系统:它就用户身体或道具规定活动部位和非活动部位,并在不同活动部位分别设有具有区别特征的定位感应件 ;建一虚拟三维坐标系,并在三个或三个以上的且不在同一直线上的已知坐标点上固置测距装置;具体识别方法如下:
a) 在任意时间点上,测量定位感应件分别到上述各距离测定点的距离,从而计算出各定位感应件的三维坐标;
b) 通过跟踪各定位感应件的位置(三维坐标)随时间的变化,以确定用户在任意时间上的姿势或在某段时间内的动作变化。
本实施例中所述用户微动作识别系统旨在对用户肢体运动的时时跟踪,它也可以在任一活动部位上设有2个或 2个以上定位感应件,其中至少两点在x、y、z轴上的坐标值均不相同,使该活动部位在某时间段内的水平转角或竖直转角可确定。
6.2)所述微动作匹配命令规则系统:用户通过控制肢体动作,而使肢体上感应定位点发生一定规则的位移变化,而匹配于自我角色的动作方案,它包括:
规则1:
具体包括:“定位感应件或其变化与自我角色动作或活动部位的对应方法”和“定位感应件或其变化与自我角色动作或活动部位的对应方法”,以下逐一介绍。
规则1.1  通过定位感应件的位置变化控制自我角色动作的方法:
是针对虚拟世界赋予自我角色A1、A2…An共计n个可单独活动部位A,就其中任一可单独活动部位Ax设有Ax1、Ax2…Axm共计m种允许动作,Axx为其中任一允许动作,按以下两种情形控制。
情形1  当该n个活动部位均可在用户身上找到对应活动部位进行对应时:
1)  在用户身上的n个可单独活动部位上分别固定A1’、A2’…An’共计n个感应定位点A’, 跟踪在任意时间点t时,任一感应定位点Ax’的三维位置变化,并匹配属于Ax1’、Ax2’…Axm’共计m种中的哪种活动规则,设Axx’为其中任一活动规则。 
2)  使自我角色的可单独活动部位A一一对应于用户身上的感应定位点A’,任一可单独活动部位Ax的允许动作Axx可在并仅在感应定位点Ax’按Axx’活动规则动作时被启动,如:Ax发生的位移随在各时间点上的变化一一对应于Ax’ 发生的位移随在各时间点上的变化,再如:Ax实施的力度强弱对应于Ax’所对应关节弯曲度及该关节抖动频率,Ax使用力度达最大值的条件在于:当用户的Ax’达到最大幅度;另外 Ax还应考虑对应于Ax’的紧张程度、运动速度和执行时间,以实现用户更自然操控虚拟世界,且使自我角色的运动尽量符合自然规律。
3)  本实施例所述的关节旨在通过定位于用户身上的各感应定位点的位置完全确定任一时间点上用户的位置和姿势,这里本发明人特别列举其中之一可以满足此目的的关节总和:每根手指头的三个关节、手腕关节、手肘关节、肩膀关节、头上任意不在同一直线上的三点、每根脚指头的一个关节、脚脖子关节、小腿、大腿、臀部、脊椎中点。
情形2  当该n个活动部位不能完全在用户身上找到对应活动部位进行对应时:
假设存在若干不能找到对应关系的活动部位Ay,先使用户的活动部位Ay’可选择控制其中的Ay1、Ay2…Ays共s个活动部位Ay,并采用选择法和组合法中一种或全部来选择控制具体的活动部位Ay;所述选择法是指活动部位Ay’确定对应控制活动部位后,可以单独直接控制;所述组合法是指,当需更换活动部位时,可通过第3命令或利用其他活动部位共同选择执行不同的活动部位,如:用户的手臂可以选择控制自我角色的手臂和翅膀,所述活动部位设为脚指,当脚指蜷起时,则用户控制翅膀,松开则控制手臂;所述第3命令指某命令菜单时,会跳出选择界面,通过选择确定要控制活动部位。
另外 通过定位感应件位置变化控制自我角色动作的方法还包括对用户的身体和道具上划分可动部和不可动部,并对可动部分别设定位感应件;其中道具和虚拟世界中物品或器具对应,使得操做道具时,就可使虚拟世界中的相应物品或器具被相应操做,其实 换句话说 就是用定位感应件控制相应虚拟世界中的东西(人或物)。
规则1.2  定位感应件或其变化与自我角色动作或活动部位的对应方法:
使用户不同关节上的定位感应件均具有不同的区别特征,并通过不同的区别特征对应自我角色的活动部位或不同动作。
所述区别特征是在定位感应件上的不同涂点密度或涂点规则,如涂点密度为d或具有涂点规则1的定位感应件发生位置变化时,自我角色的某活动部位就执行相应的允许动作;涂点密度或涂点规则可以通过盖章实现。
规则2:
不促发命令的规则。
本实施例中优选不促发命令的规则,当然也可以是促发命令的规则。
本实施例所述的感应定位点可以适用以下两种方案:
1)  将能被探测涂料作为感应定位点涂在肌肉的敏感点上,通过肌肉的紧张程度和运动速度,使各股肉上的感应定位点能判断用户的意图,从而有效对虚拟世界发出相应指令;
2)  将感应定位点固设于穿套式定点控制设备的各活动部位上,可使用户直接穿戴后,身体各部份的动作,均可控制对应“感应定位点”进行相关命令,从而使用户看到自己或自己在虚拟世界中操控的器械进行相关动作,该设备的运用,有效缩短用户在进入虚拟世界前的准备时间,简易所需的准备工序,从而用户通过很便捷的方式就可进行虚拟世界。
上述两方案并不局限于“动作放大系统”,尤其针对不要求用户身体发生位移的玩虚拟世界,如:赛车虚拟世界。
本实施例中穿套式定点控制设备也可以在设备中植入控制器,使操控器感知各定位点发生的各矢量变化(包括:位移、速度、方向);但结合本发明介绍的“感应定位点系统”,可可有效简化“穿套式定点控制设备”,使之纯以机械结构,而无需配备任何电子系统,由于虚拟世界过程中,用户各部位仅进行微动作,因此可做设备零损害,即保证设备的使用寿命,又可避免所电子系统中可能的电子短路给用户带来身体伤害。
本实施例中穿套式定点控制设备包括手掌套件、手臂套件、头部套件、脚掌套件、腿部套件、臀部套件和腰部套件;各套件上均设有一个或一个以上感应定位点。
它还满足:每根手指头的三个关节、手腕关节、手肘关节、肩膀关节、头上任意不在同一直线上的三点、每根脚指头的一个关节、脚脖子关节、小腿、大腿、臀部、脊椎中点上均设有一个或一个以上感应定位点。
本设备旨在通过定位于用户身上的各感应定位点的位置完全确定任一时间点上用户的位置和姿势,本设备也局限于上述感应定位点在上述关节的分配方案。
7、为提高仿生效果,本实施例还提供了一人机互动系统,它包括:反作用感知装置和被作用感知装置;所述人机互动系统主要用于修正:用户的最大允许微动作幅度Mm,与自我角色的最大虚拟允许动作幅度Nm的比值Mm/Nm;并使Mm/Nm值比常态大 即反作用感知装置和被作用感知装置工作时,Nm根据以下情形等因子减小。
7.1) 当人机互动由自我角色促发,则按以下方法实现:
7.1.1)锁定用户想要作用的目标
方法一:
利用用户眼睛定位装置,当用户的视线方向经过某物方且肢体或道具的作用方向朝向该物方时,给系统作出该肢体或道具要作用于该物方的指令;则系统发出提令,自我角色已锁定该目标;其中用户的视线方向的跟踪可采用如:专利号为“02829315.0”的《跟踪扭转的眼睛的方向和位置》,或者任意的现有技术。
方法二:
通过对眼睛图像采集装置准确判断用户锁定的主要目标,其中眼睛图像采集装置可能过多种现有技术实现,如专利号为“200610072961.9”的《眼睛图像采集装置》。
7.1.2)该动作作用于目标后,自我角色因被反作用而必然存在的“动作速度”“动作幅度”变化;系统通过反作用感知装置提搞对用户相应的限制负载向用户反馈,或者改变相应部位的虚拟最大幅度,使用户看到自我角色的效果,而通过视觉产生反作用感知装置相同或类似的错觉。
7.1.3)计算目标被作用后的形态变化,包括形变(姿势变化,不可还原的变形,尤其指破坏)、动能变化情况(动能值+动能方向)。
7.2)当人机互动由虚拟世界中的其他物方作用于自我角色,而使自我角色被动进入互动,则按以下方法实现:
7.2.1)当自我角色被作用并产生作用效果时,自动锁定实施作用的物方为目标;
7.2.2)自我角色被作用而产生的作用效果指:自我角色被作用后的形态变化、动能变化;自我角色被作用而产生的作用效果通过被作用感觉装置反馈给用户,或者改变相应部位的虚拟最大幅度,使用户看到自我角色的效果,而通过视觉产生被作用感知装置相同或类似的错觉。
以下以实例介绍:
如自我角色要攻击一个游戏角色,首先锁定目标,当自我角色打出一拳,作用到对方运动的手臂,而受到对方手臂的反作力,这里尤其指出:不管对方有没朋格挡,只要自我角色碰到目标,根据作用力与反作用力的原理,自我角色必然会受到反作用力;这里当目标进行格挡时,自我角色还受到目标格挡用手臂的作用,则叠加被作用感知装置的设置效果。
尤其指出:
1)  为确保动作放大系统的有效性,自我角色的允许动作执行条件并非感应定位点在某时间上的位置,而是相对上一时间点上的位置变化。
2)  距离测定点是固定不动的,或者其坐标可计算而确定。
3)  有些虚拟世界,为了减小电脑资源的占用,只给自我角色很特定的几个动作,这种情况下,应满足用户某些部位的动作或组合动作,就应可以控制自我角色进行一连惯的允许动作。
4)  动作放大系统和动作定位点控制系统可以组合运用,也可单独使用。
5)  本发明还包括语音控制系统,使得用户可以通过语音发出指令以控制自我角色的允许动作及虚拟世界的各项基本操作,如:退出、保存。本系统还包括语音识别系统,如可以对用户的声音预先录入,并匹配各项指令。
其他说明:
用户准备就绪后,睁眼会发现自己在上一次退出虚拟世界时所在的位置,各种动作所带来的场景的变化,完全从该位置为起始点。
本虚拟世界允许自我角色具有变形能力当变形后需要控制的部位大于人的关节数 怎么办?可以采用“选择法”,当执行选择命令动作时,可以选择某关节控制虚拟世界中对像的具体运动部位;也可以采用“组合法”,即 两个或两个以上关节同时执行某特定动作时,也可以起到相同效果。
本虚拟世界方法还允许用户具有隔空取物等超能力,该指令的启动条件是: 用户手臂上的感应定位点集在同一直线上,手掌上的感应定位点集成爪状并朝向该物品;而虚拟世界判断吸力的大小,则可先预定自我角色吸力最大值,而取值的条件可以是手指抖动的频率,当频率减小,则吸力对应减小。
当虚拟世界接到用户这一意图,就会计算并比较吸力与物品被吸的难度,当物品的重力太大或被原所在位置的吸附力太大,就要求用户“抓的力度”加大,这时手指的弯曲程度就会加强,而手指的抖动加剧,而使手指上的感应定位点抖动加剧,电脑就会接到用户吸力加强,从而进一步判断能否完成吸收。
定位感应件与所要控制的部位如何对应?如果每个关节都对应一个定位感应件,在有丰富允许动作的虚拟世界里就需要用户进行长时间的准备才可能进入虚拟世界,为此 本发明还提供了穿套式定点控制设备”,用户只需配带对应的手套、脚套、支架套和头盔,就可以操控绑覆在全身的每处关节上的感应定位点,因此极具实用性。
由于采用动作放大法,用户有身体和自我角色各肢体位置和姿势并没有完全对应,因此不能单以感应定位点的位置确定,但两者的头部(由其是眼睛)在虚拟世界中的位置和朝向是相同的。那如何说明用户也能在虚拟世界确定坐标?首先 用户的视觉通过眼镜获得,那眼镜在虚拟世界的坐标是可确定的,因为眼球与眼镜的相对位置始终不变,因此,用户眼球在虚拟世界的坐标可定。
实施例2  一种人机互动的控制方法
赋予自我角色具有超能力,包括以下步骤:
1)  创建自我角色除放大用户体能以外的超能力虚拟允许动作方案;
2)  跟踪用户允许微动作变化,确定自我角色超能力虚拟允许动作的作用目标;
3)  评价在实施超能力虚拟允许动作时,自我角色的超能力机能值,使被作用目标等因子作形态变化。
本实施例所述的形态变化包括位置、形状、状态、物质变化,其中形状包括变形、流状、颗粒状间的变化等;状态变化包括:气态、固态、液态间的转变等;位置包括:位移、运动速度、加速度等运动情况变化。
本发明所述虚拟环境至少还设有未来环境、过去环境、梦境其中一种或多种虚拟环境。
本发明可开放用户在虚拟环境中重设物方参数的权限,使用户可自行构建、调整、删除虚拟环境。因此使用户极易现将想像物实体化,相对于传统工具具有不可想象的超越。
实施例3:在空间设计或空间样品的观摩的运用
包括以下步骤:
1)  就空间设计或空间样品进行3d建模;
2)  控制自我角色在空间设计或空间样品的3D建模内实施虚拟动作。
实施例4:在电影拍摄的运用
包括以下步骤:
1)  对电影场景进行3D建模;
2)  使演员控制自我角色在所述的3D建模内实施虚拟动作;
3)  录制3D建模内所需场景及自我角色实施虚拟动作的画面。
实施例5:在模拟实验上的运用
包括以下步骤:
1)  收录已知自然规律,并建立运算法则f[x1(x11、…x1m…x1n)、x2(x21、x22…x2m…x2n)…xk(xn1、xn2…xkm…xnn)]= y1(y11、y12…y1m…y1n)、y2(y21、y22…y2m…y2n)…ys(yn1、yn2…ysm…ynn),其中xk是规律发生前的反应主体,xnn 是xk的计算参数;ys是规律发生后的新主体,ynn 是ys的计算参数;k、m、s均取值1到n,f是规律是运算公式;
2)  使自我角色调整xk的xnn值至用户设定值;
3)  控制自我角色在虚拟环境中就xk进行f1动作;
4)  根据所述运算法则计算并记录ys及其ynn值。
本实施例中,当实验需要就一个规律的多次反应,或多个规律的多次反应,则根据需要重复执行步骤2)-4)。
该实验方法,不仅不会产生伤害用户风险,而且零成本、实验精度极高。
实施例6:在旅游上的运用
包括如下步骤:
1)  对旅游区进行3d建模;
2)控制自我角色在所述3D建模内实施虚拟动作。
实施例7 :一种人机互动控制系统
它包括:显示虚拟世界的成像设备、操控台、用户允许微动作方案的识别捕捉设备和控制用户与自我角色动作同步的同步控制系统。
所述操控台设有操控位和设障系统,所述设障系统设有限位机构,通过限位机构限制用户肢体的活动幅度,使被限制的相应部位能以最大幅度M实施允许动作,同时确保用户无需离开“操控位”而可连续执行任意控制动作。
所述用户允许微动作方案的识别捕捉设备,满足本系统可跟踪并识别用户执行微动作。
所述同步控制系统满足:
1)   对应于用户活动部位规定自我角色的虚拟动作部位,并确定各虚拟动作部位的动作幅度相对于用户活动部位运动幅度的放大倍数;
2)   规定用户允许微动作方案设有用户或道具执行该微动作的最大幅度M、对应自我角色执行相应允许动作的最大幅度为N,且M小于用户相应活动部位的运动极限,设在t时间点上用户执行该微动作的幅度为Mt,对应自我角色执行相应允许动作的幅度为Nt,则满足:当Mt≥M时,Nt=N;当Mt<M时,N>Nt>Mt; 所述用户允许微动作方案还满足:用户在虚拟世界全程中均只在同一处操控位上而无需离开操控位;
3)  所述虚拟允许动作方案是指虚拟世界赋予自我角色或虚拟世界中器具进行的动作或动作方案。
显示虚拟世界的成像设备使虚拟世界的画面覆盖用户的视角,并且用户在人机互动过程中只能看到虚拟世界的动画而看不到自己的身体。
所述识别捕捉设备设有多个具有不同的区别特征的定位感应件,以使计算机可识别定位点所对应用户部位。
它还包括一穿套式定点控制设备,包括手掌套件、手臂套件、头部套件、脚掌套件、腿部套件、臀部套件和腰部套件中一种或多种;各套件上均设有一个或一个以上定位感应件。
所述设障系统还设有反作用感知装置和/或被作用感知装置。
通过所述被作用感知装置,使虚拟世界中的任一物方作用于自我角色的某部位或某些部位时,设障系统会根据该物方动作特征作用于用户的相应部位上。
通过所述反作用感知装置,使自我角色作用于虚拟世界任一物方时,设障系统首先根据自我角色的动作特征及该物方的即时状态,判断的自我角色被反作用的部位及反作用效果,所述设障系统则以等因子效果作用于用户相应的部位上。
所述设障系统满足可根据自我角色的疲劳程度或最大运动能力,改变所述反作用感知装置和所述被作用感知装置对用户的荷载。
它还包括嗅觉系统、触觉系统和体力疲劳的随机设障系统中一种或多种。
实施例8 :一种人机互动的控制系统
它包括:置身系统、全景系统、场景移动系统、动作判断系统和动作放大系统。
A. 动作判断系统:可采用现有技术,如申请号“97198214.7”所介绍的技术方案。
B. 动作放大系统:详见实施例1 。
C. 全景系统:
所述全景系统是指虚拟世界过程中,虚拟世界画面始终覆盖用户的全部视觉范围,使用户只能看到虚拟世界中的场景,而看不到现实中的场景;眼镜上屏幕及其虚拟世界画面均覆盖用户的全部视觉范围;该技术可采用现有技术如专利号为为“200810066897.2”的《一种集成了CMMB接收模块的移动视频眼镜》。
D. 置身系统:
所述置身系统,满足用户和自我角色在虚拟世界中的位置相同,且用户身体活动与自我角色活动同步,使用户看自我角色的身体时,会误以为是自己的现实中的身体;用户身体活动与自我角色活动同步的方法是通过动作定位点控制系统确定用户进行的动作,通过相关动作确定用户发出的指令内容,继而控制自我角色对就活动部位的活动。
E. 场景移动系统:
所述场景移动系统,利用虚拟世界中自我角色所在场景的反向动作,使用户有正进行各种移动或变身(身体缩小或放大或形状变化)的错觉;所述自我角色所在场景的确定方法包括:
1)  直接在用户头部设有能与头部同步发生位移的定位件;所述定位件上设有不在同一直线的三个定位感应件,所述定位感应件满足在虚拟世界的位置可确定,从而确定出用户的头部在虚拟世界中的位置及面部朝向;
2)  通过用户头部在虚拟世界中的位置及面部朝向确定虚拟世界画面。
本实施例中定位件的安装位置重点在满足可与头部同步发生位置,因此还可以安装在用户头部上的各种器具。
本实施例中用户与自我角色在脸部运用的同步关系也可以采用动作放大系统。
本实施例为使虚拟世界更逼真,包括嗅觉系统、触觉系统和体力疲劳等随机设障系统中一种或多种。
所述体力疲劳的随机设障系统,可结合穿套式定点控制设备,如脚掌套件上连接一可伸缩的推进机构、 手掌套件内设一可收缩的手握器。
所述设障系统包括反作用感知装置和被作用感知装置;所述被作用感知装置满足:当虚拟世界中的任一物方作用于自我角色的某部位或某些部位时,设障系统会根据该物方动作特征作用于用户的相应部位上;反作用感知装置满足:当自我角色作用于虚拟世界任一物方时,系统首先根据自我角色的动作特征及该物方的即时状态,判断的自我角色被反作用的部位及反作用效果,所述设障系统则以等因子效果作用于用户相应的部位上。所述设障系统根据自我角色的疲劳程度或最大运动能力,改变反作用感知装置和被作用感知装置对用户的荷载。
以下通过实例介绍:
虚拟世界前要先将用户固定在某操控位上(如:床上),用户动作任一肢体,在虚拟世界中的对应人物则执行完全的动作,目的 在于用户执行任何一动作都可以在同一处操控位进行,动作后,身体所在位置也不会变化,从而减少用户的运动空间。
让用户躺在或坐在控制台上,使设障系统限制用户各躯干的最大活动范围,如:脚板装置弹性接触用户的脚板;手臂限位装置以过盈配合套于用户手臂上。
所述设障机构设于在用户允许动作的部位上方,在常态下使设障机构与用户的躯干保持一定距离(称为自由空间),使用户各部位在不接触到设障机构的情况下,可不受作用进行任意微动作;所述设障机构设有弹性荷载活动区(称为荷载空间),当用户的躯干与设障机构接触,并继续往弹力反方向运动时,相应部位需克服弹力做功。它的功能对应如下:
1)  用户在自由空间和荷载空间的可移动的总和对应于用户的最大允许微动作幅度;
2)  当用户躯干作用于设障机构,同时其动作符合机算机识别命令时;自我角色持续执行虚拟允许动作,如:连续转身;
3)  当用户促发人机互动时,设障机构表现为目标对用户的反作用;
4)  当自我角色被虚拟世界中的物方作用时,设障机构缩小自由空间,并作用于用户的相应躯干;
5)  当自我角色运动能力值提升时,设障机构的负载减小;
6)  当自我角色运动能力值减弱时,如:疲劳时,设障机构的负载提高。
本发明的视频设备并不限于通过眼睛观看的设施,如专利号为“00820024.6”的《人体电子植入体及其人工视觉系统》已经给出了通非眼睛使大脑获得图像的方法。
实现对用户动作的捕捉,及通过捕捉到的信息对自我角色进行控制,还可以申请号:201110065915.7的现有技术实现(特别指出该现有技术并不能解决本发明目的,也未披露本发明的关键技术:1、规定微动作的上限,2、规定不同部位的不同放大比例,以使用户无需离开操控台而实现对自我角色的任意操制)。
 上述实施例尽管用结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。相反,上述具体特征和动作是作为实现权利要求的示例形式公开的。本发明的范围旨在由所附权利要求书来定义。

Claims (10)

1.一种人机互动的控制方法,专门针对用户置身于控制台上而进行的人机互动,专门针对在虚拟世界中建立自我角色,通过用户动作控制自我角色实施一个或以上虚拟允许动作,并要求至少有一个或一组虚拟允许动作可使自我角色仅通过肢体与虚拟世界物方的作用,实现自我角色在虚拟世界中位置发生变化且与该物方发生相对位移;所述人机互动控制方法至少包括如下情形:通过用户的脚参与控制自我角色的脚,并使自我角色走路;其特征在于:使用户通过实施用户允许微动作方案以控制虚拟环境中的自我角色实施相应的虚拟允许动作方案; 
所述允许微动作方案至少包括一个或以上的微动作;
所述微动作是指按如下规则控制自我角色的用户动作:规定一用户动作的幅度上限为Mm,且使Mm小于用户的运动极限; 就该动作规定自我角色对应的虚拟动作幅度上限为Nm且Nm>Mm;设在t时间点上用户执行该动作的幅度为Mt,对应自我角色执行相应的虚拟动作幅度为Nt,则满足:当Mt≥Mm时Nt=Nm、当Mt<Mm时Nm>Nt>Mt;
在以下部位中至少有两个或以上部位涉及执行允许微动作方案:头部、脖子、腰部、上臂、下臂、宽部、上腿、下腿、手掌和脚掌;
控制用户身上至少两处不同部位被放大比例方案不同,以实现虚拟角色的任意活动,用户都无需离开控制台。
2.如权利要求1所述的一种人机互动的控制方法,其特征在于它包括以下步骤: 
1) 确定用户身上可发出命令的部位N集合,确定其中需执行微动作的活动部位N1集合;并规定N1集合中各部位执行微动作的情形X1; 
2) 确定自我角色可被控制的部位M集合,及M集合中各部位与N集合中各部位的对应关系;
3) 确定在一种或多种X1情形下, N1集合中各部位被 M集合中相应部位的放大比例方案;
4) 跟踪并识别N集合中的各部位执行允许微动作方案; 并根据步骤3)使自我角色执行虚拟允许动作。
3.如权利要求2所述的一种人机互动的控制方法,其特征在于:至少有一套允许微动作方案规定了用户身上n1个活动部位需执行微动作,n2个活动部位不执行微动作,其中n1≥2, n2≥0;相应的
步骤1)在部位N集合中,增加规定不需执行微动作的部位N2集合;
步骤3)增加就N2集合中各个部位确定M集合中的对应部位,并规定N2集合中各部位与M集中相应部位执行相同动作幅度或缩小动作幅度。
4.如权利要求2或3所述的一种人机互动的控制方法,其特征在于:步骤2)中就N1集合中的部位还规定了不执行微动作的情形X2;步骤3)还规定了在X2情形下,N1中各个部位对相应M中的部位应执行相同动作幅度或缩小动作幅度。
5.如权利要求2所述的一种人机互动的控制方法,其特征在于:步骤4)中跟踪并识别N集合执行允许微动作方案的方法是:跟踪识别N集合中各活动部位对应的肌肉的活动情况,以确定用户的活动意图。
6.如权利要求1所述的一种人机互动的控制方法,其特征在于:至少有两处可以实施微动作的活动部位在实施同一套允许微动作方案时,至少具有以下一个特征:
1) 被自我角色放大的比例方案不同;
2) 可执行微动作的动作幅度上限不同;
3) 评价可执行微动作的动作幅度的指标不同;
4) 对应自我角色允许动作的最大幅度不同;
5) 对应自我角色的动作幅度上限不同;
6) 评价对应自我角色的动作幅度的指标不同。
7.  如权利要求1所述的一种人机互动的控制方法,其特征在于:它还采用了选择法和/或组合法;所述是选择法是当用户不具有自我角色相应活动部位时,允许用户自行选择其他活动部位以代替;所述组合法是当用户活动部位数量少于自我角色的活动部位数量时,在用户身上设共享活动位以控制自我角色身上一个以上的活动部位。
8.如权利要求7所述的一种人机互动的控制方法,其特征在于:所述组合法还包括以下一个或多个步骤特征:
1) 当需切换自我角色活动部位时,可通过第3命令或利用其他活动部位共同选择执行不同的活动部位; 
2) 使共享活动位与其他一个或多个活动部位组合,共同控制自我角色的活动方案。
9.如权利要求1所述的一种人机互动的控制方法,其特征在于:它至少还包括跟踪用户微动作方法、自我角色所在场景的确定方法和反向动作控制方法其中之一个或多个方法;
1) 所述跟踪用户微动作方法是在用户的N1、N2…Nn部位上分别设置定位感应件,在用户所在环境内的不在同一直线上的位置设三个或三个以上测距装置,并执行以下步骤: 
1.1建一虚拟三维坐标系,并确定各测距装置的坐标,测出任意时间上每个任意定位感应件到三个测距装置上的距离,从出计算出每个定位感应件在该时间点的三维坐标; 
1.2跟踪在任意时间段t内,定位感应件N1、N2…Nn三维坐标变化; 
1.3根据不同定位感应件的三维坐标随时间的变化,描述在t时段内用户相应部位的活动情况,并使自我角色的相应部位同步放大执行活动幅度; 
2) 所述自我角色所在场景的确定方法包括以下步骤:
2.1先确定设在用户头部或间接设于用户头部的,能与头部同步发生位移的定位件;所述定位件上至少有不在同一直线的三点在虚拟世界的位置可确定,使得用户的头部在虚拟世界中的位置及面部朝向均可确定; 
2.2跟踪用户头部在虚拟世界中的位置及面部朝向,并通过用户头部在虚拟世界中的位置及面部朝向确定虚拟世界画面 ,即成像设备的显示画面; 
3) 所述反向动作控制方法,是使虚拟世界中自我角色所在场景执行与自我角色头部方向相反而矢量值相同的矢量动作,且两者在分别以同一矢量动作和时间为坐标轴的坐标系中,其矢量动作时间图以时间坐标轴呈轴对称关系。
10.如权利要求1所述的一种人机互动的控制方法,其特征在于:控制用户身上至少两处不同部位被放大比例方案,以实现虚拟角色的任意活动,用户的身体始终位于控制台的同一范围区间内。
CN201210566050.7A 2011-12-24 2012-12-24 一种人机互动的控制方法及其运用 Active CN103019386B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210566050.7A CN103019386B (zh) 2011-12-24 2012-12-24 一种人机互动的控制方法及其运用

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201110438933.5 2011-12-24
CN2011104389335 2011-12-24
CN201110438933 2011-12-24
CN201210566050.7A CN103019386B (zh) 2011-12-24 2012-12-24 一种人机互动的控制方法及其运用

Publications (2)

Publication Number Publication Date
CN103019386A true CN103019386A (zh) 2013-04-03
CN103019386B CN103019386B (zh) 2018-03-23

Family

ID=47968070

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201210566050.7A Active CN103019386B (zh) 2011-12-24 2012-12-24 一种人机互动的控制方法及其运用
CN201210567001.5A Active CN103207667B (zh) 2011-12-24 2012-12-24 一种人机互动的控制方法及其运用

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201210567001.5A Active CN103207667B (zh) 2011-12-24 2012-12-24 一种人机互动的控制方法及其运用

Country Status (1)

Country Link
CN (2) CN103019386B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103207667A (zh) * 2011-12-24 2013-07-17 黄得锋 一种人机互动的控制方法及其运用
WO2017075992A1 (zh) * 2015-11-06 2017-05-11 乐视控股(北京)有限公司 一种交互方法和设备
CN106730813A (zh) * 2016-11-30 2017-05-31 宇龙计算机通信科技(深圳)有限公司 虚拟人物指标设定方法、装置、处理器及游戏设备
CN109005209A (zh) * 2018-06-27 2018-12-14 深圳市趣动互联科技有限公司 游戏活跃度展示方法、装置及服务器

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108776541A (zh) * 2014-04-11 2018-11-09 黄得锋 一种人机互动的控制方法
GB2517069B (en) * 2014-06-23 2015-09-02 Liang Kong Autostereoscopic virtual reality platform
CN106114519A (zh) * 2016-08-05 2016-11-16 威马中德汽车科技成都有限公司 一种通过操作虚拟按钮对车辆进行控制的装置及方法
CN106226777A (zh) * 2016-08-17 2016-12-14 乐视控股(北京)有限公司 红外探测定位方法及系统
CN106527736A (zh) * 2016-12-02 2017-03-22 中国矿业大学(北京) 一种基于虚拟现实设备体验外部伤害导致伤残的方法
CN111514584B (zh) * 2019-02-01 2022-07-26 北京市商汤科技开发有限公司 游戏控制方法及装置、游戏终端及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US7205979B2 (en) * 1987-03-17 2007-04-17 Sun Microsystems, Inc. Computer data entry and manipulation apparatus and method
CN101697199A (zh) * 2009-08-11 2010-04-21 北京盈科成章科技有限公司 头面部动作检测方法及应用该方法操控计算机的助残系统
CN101890237A (zh) * 2010-07-16 2010-11-24 叶尔肯·拜山 游戏控制器及其控制方法
CN102541260A (zh) * 2011-02-11 2012-07-04 黄得锋 一种人机互动的控制方法及其运用
CN103207667A (zh) * 2011-12-24 2013-07-17 黄得锋 一种人机互动的控制方法及其运用

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7205979B2 (en) * 1987-03-17 2007-04-17 Sun Microsystems, Inc. Computer data entry and manipulation apparatus and method
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
CN101697199A (zh) * 2009-08-11 2010-04-21 北京盈科成章科技有限公司 头面部动作检测方法及应用该方法操控计算机的助残系统
CN101890237A (zh) * 2010-07-16 2010-11-24 叶尔肯·拜山 游戏控制器及其控制方法
CN102541260A (zh) * 2011-02-11 2012-07-04 黄得锋 一种人机互动的控制方法及其运用
CN103207667A (zh) * 2011-12-24 2013-07-17 黄得锋 一种人机互动的控制方法及其运用

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103207667A (zh) * 2011-12-24 2013-07-17 黄得锋 一种人机互动的控制方法及其运用
CN103207667B (zh) * 2011-12-24 2018-10-23 漳州市科达企业咨询有限公司 一种人机互动的控制方法及其运用
WO2017075992A1 (zh) * 2015-11-06 2017-05-11 乐视控股(北京)有限公司 一种交互方法和设备
CN106730813A (zh) * 2016-11-30 2017-05-31 宇龙计算机通信科技(深圳)有限公司 虚拟人物指标设定方法、装置、处理器及游戏设备
CN109005209A (zh) * 2018-06-27 2018-12-14 深圳市趣动互联科技有限公司 游戏活跃度展示方法、装置及服务器
CN109005209B (zh) * 2018-06-27 2021-05-14 深圳市趣动互联科技有限公司 游戏活跃度展示方法、装置及服务器

Also Published As

Publication number Publication date
CN103207667A (zh) 2013-07-17
CN103019386B (zh) 2018-03-23
CN103207667B (zh) 2018-10-23

Similar Documents

Publication Publication Date Title
CN102541260B (zh) 一种人机互动的控制方法及其运用
CN103019386A (zh) 一种人机互动的控制方法及其运用
CN107349594B (zh) 一种虚拟舞蹈系统的动作评价方法
CN106648116B (zh) 一种基于动作捕捉的虚拟现实综合系统
Caserman et al. A survey of full-body motion reconstruction in immersive virtual reality applications
CN103488291B (zh) 一种基于运动捕捉的浸入式虚拟现实系统
US9690376B2 (en) Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
US20170178411A1 (en) Mobile tele-immersive gameplay
CN206497423U (zh) 一种具有惯性动作捕捉装置的虚拟现实综合系统
CN106066688B (zh) 一种基于穿戴式手套的虚拟现实交互方法及装置
CN105107200A (zh) 基于实时深度体感交互与增强现实技术的变脸系统及方法
CN109634427A (zh) 基于头部追踪的ar眼镜控制系统及控制方法
CN208422160U (zh) Vr运动状态模拟装置
Capin et al. Integration of avatars and autonomous virtual humans in networked virtual environments
Ni et al. A Solution of Human-Computer Remote Interaction with Tactile Feedback
Liang et al. A motion-based user interface for the control of virtual humans performing sports
Liu et al. A substation virtual environment based on motion capture

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20180129

Address after: Changtai Wuan County town of Guan Shan Industrial Zone Fujian city Zhangzhou province 363900 sea (Changtai) innovation center project 507 unit

Applicant after: ZHANGZHOU JUESHENG ELECTRONIC TECHNOLOGY Co.,Ltd.

Address before: 363000 Fujian city of Zhangzhou province Yanan Plaza 4 Building No. 1511 Xiangcheng Ming

Applicant before: Huang Defeng

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210419

Address after: 509, 5th floor, building 1, women's and children's activity center, No. 20, Nanchang East Road, Longwen District, Zhangzhou City, Fujian Province, 363000

Patentee after: Zhangzhou Zhoufeng Electronic Technology Co.,Ltd.

Address before: Changtai Wuan County town of Guan Shan Industrial Zone Fujian city Zhangzhou province 363900 sea (Changtai) innovation center project 507 unit

Patentee before: ZHANGZHOU JUESHENG ELECTRONIC TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right
CP01 Change in the name or title of a patent holder

Address after: 509, 5th floor, building 1, women's and children's activity center, No. 20, Nanchang East Road, Longwen District, Zhangzhou City, Fujian Province, 363000

Patentee after: Zhangzhou Asixinggu Electronic Technology Co.,Ltd.

Address before: 509, 5th floor, building 1, women's and children's activity center, No. 20, Nanchang East Road, Longwen District, Zhangzhou City, Fujian Province, 363000

Patentee before: Zhangzhou Zhoufeng Electronic Technology Co.,Ltd.

CP01 Change in the name or title of a patent holder