CN110766804B - 一种vr场景下人机协同抓取物体的方法 - Google Patents
一种vr场景下人机协同抓取物体的方法 Download PDFInfo
- Publication number
- CN110766804B CN110766804B CN201911041939.1A CN201911041939A CN110766804B CN 110766804 B CN110766804 B CN 110766804B CN 201911041939 A CN201911041939 A CN 201911041939A CN 110766804 B CN110766804 B CN 110766804B
- Authority
- CN
- China
- Prior art keywords
- virtual
- scene
- human
- hand
- active
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000033001 locomotion Effects 0.000 claims abstract description 22
- 230000005236 sound signal Effects 0.000 claims abstract description 20
- 238000006243 chemical reaction Methods 0.000 claims abstract description 13
- 239000013598 vector Substances 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 7
- 230000009471 action Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 3
- 230000003993 interaction Effects 0.000 description 12
- 210000003811 finger Anatomy 0.000 description 10
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 210000004247 hand Anatomy 0.000 description 4
- 238000010438 heat treatment Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Artificial Intelligence (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供了一种VR场景下人机协同抓取物体的方法,属于虚拟现实技术领域。该方法包括:同时进行手势识别和语音识别,其中,所述手势识别是采集人手的视频信号,根据所述视频信号驱动虚拟场景中的虚拟人手的运动,并获得手势识别结果;所述语音识别是采集用户的音频信号,对音频信号进行识别和语义分析,根据语义分析得到语音识别结果;根据所述手势识别结果和语音识别结果进行场景主动转换,协助用户完成操作。利用本发明能够协助用户准确高效地操作自己想要交互的虚拟物体。
Description
技术领域
本发明属于虚拟现实技术领域,具体涉及一种VR场景下人机协同抓取物体的方法。
背景技术
虚拟现实(VR)技术是当今时代技术发展的产物,结合多种人机交互接口技术,可以为用户提供多通道输入和感知的接口。然而,在人们真正使用虚拟现实技术进行交互的过程中,往往存在3D虚拟物体由于距离过远和遮挡的原因使得用户并不能准确高效的操作自己想要交互的虚拟物体。
发明内容
本发明的目的在于解决上述现有技术中存在的难题,提供一种VR场景下人机协同抓取物体的方法,能够协助用户准确高效地操作自己想要交互的虚拟物体。
本发明是通过以下技术方案实现的:
一种VR场景下人机协同抓取物体的方法,包括:
同时进行手势识别和语音识别,其中,所述手势识别是采集人手的视频信号,根据所述视频信号驱动虚拟场景中的虚拟人手的运动,并获得手势识别结果;所述语音识别是采集用户的音频信号,对音频信号进行识别和语义分析,根据语义分析得到语音识别结果;
根据所述手势识别结果和语音识别结果进行场景主动转换,协助用户完成操作。
具体的,所述采集人手的视频信号,根据视频信号驱动虚拟场景中的虚拟人手的运动,并获得手势识别结果的操作包括:
步骤A1,采集人手的视频信号,从所述视频信号中获取人手的深度图像以及人手的三维估计,将人手的三维估计中的各个节点映射到虚拟场景中的虚拟人手上,驱动虚拟人手的运动;
步骤A2.通过虚拟人手的运动方向和虚拟人手的手掌垂直向量获得虚拟人手的抓取方向,以及虚拟人手与虚拟物体的位置关系,即手势识别结果。
所述步骤A2的操作包括:
利用下式计算t帧的抓取方向:
其中为虚拟场景中的虚拟人手的运动方向,Pt表示t帧时刻的手掌节点P的坐标,/>表示虚拟场景中的虚拟人手的手掌的垂直向量,I0t和M0t表示t帧时刻的虚拟人手的食指的第一个关节点、中指的第一个关节点的坐标;θ为/>和/>之间的夹角;
判断θ是否小于10,如果是,则利用下式计算抓取方向Dir:
如果否,则不做任何处理;
假设虚拟场景中一个虚拟物体的重心坐标为O,其与虚拟人手之间的向量表示为两者之间的距离为/>
利用下式计算出抓取方向与向量之间的夹角,即虚拟人手与虚拟物体之间的位置关系:
所述采集用户的音频信号,对音频信号进行识别和语义分析,根据语义分析得到语音识别结果的操作包括:
步骤B1.采集用户的音频信号;
步骤B2.对所述音频信号进行语音识别和语义分析获得语音识别结果,所述语音识别结果包括:主动对象、动作、属性和被动对象。
所述根据所述手势识别结果和语音识别结果进行场景主动转换的操作包括:
步骤C1,情景感知:判断虚拟人手当前是否处于抓取物体状态,如果是,则当前虚拟人手所指向的主动对象为绑定的虚拟物体,如果否,则虚拟人手指向的主动对象为虚拟人手本身;
步骤C2.主动对象感知:判断虚拟人手和语音识别结果中的主动对象是否为同一个,如果是,则进入步骤C3,如果否,则进行主动对象转换,然后再返回步骤C2;
步骤C3.接近对象关系感知:判断虚拟场景中是否存在想要接近的物体,如果是,则将虚拟场景的视角随着主动对象的移动向该物体拉近,拉近到设定距离时,转入步骤C4,如果否,则返回步骤C3;
步骤C4.判断在虚拟场景中是否存在虚拟物体将被动对象遮挡住,如果是,则该虚拟物体为遮挡物体,将被动对象的坐标与遮挡物体的坐标进行互换,然后转入步骤C5,如果否,则转入步骤C5;
步骤C5.用户与虚拟场景进行交互。
所述步骤C2中的所述主动对象转换的操作包括:
将语音识别结果中的主动对象作为被动对象;
将虚拟人手指向的主动对象作为语音识别结果中的主动对象。
所述步骤C3中的判断虚拟场景中是否存在想要接近的物体的操作包括:
判断虚拟场景中的物体O(x1,y1,z1)是否满足以下条件:
γt<10且
如果是,则判定存在想要接近的物体,如果否,则判定不存在想要接近的物体。
所述步骤C3中的所述将虚拟场景的视角随着主动对象的移动向该物体拉近的操作包括:
设虚拟场景中的摄像机的原坐标为C(x2,y2,z2),随着主动对象的移动,视角也向着想要接近的物体移动,利用下式计算摄像机的新坐标Ct(x,y,z):
所述步骤C3中的所述设定距离为:摄像机的新坐标与想要接近的物体的距离小于等于10。
所述步骤C4中的判断在虚拟场景中是否存在虚拟物体将被动对象遮挡住的操作包括:
为虚拟场景中的每一个物体设置一个包围盒;
从摄像机的坐标沿z轴方向扫描,直到被动对象的坐标点,在扫描过程中判断是否存在一个虚拟物体的包围盒在z轴方向上的投影与被动对象的包围盒相交,如果是,则判定存在虚拟物体将被动对象遮挡住,如果否,则判定不存在虚拟物体将被动对象遮挡住。
与现有技术相比,本发明的有益效果是:利用本发明能够协助用户准确高效地操作自己想要交互的虚拟物体。
附图说明
图1为本发明方法的步骤框图;
图2为本发明方法所使用的虚拟人手;
图3为本发明方法的语法规则;
图4为本发明方法中的虚拟场景主动转换步骤框图。
具体实施方式
下面结合附图对本发明作进一步详细描述:
本发明通过Inter RealSense进行手势估计并驱动虚拟人手,利用科大讯飞语音识别SDK识别用户的语音输入,即音频信号,然后对识别出的语音进行语法分割得到用户的操作意图,通过对3D虚拟场景的情景感知使场景主动变换协助用户完成操作。本发明方法的步骤如图1所示,包括:
同时进行手势识别和语音识别,其中,所述手势识别是采集人手的视频信号,根据视频信号驱动虚拟场景中的虚拟人手的运动,并获得手势识别结果,即图1中的场景感知;所述语音识别是采集用户的音频信号,对音频信号进行识别和语义分析,根据语义分析得到语音识别结果,即图1中的用户意图推理;
根据所述手势识别结果和语音识别结果进行场景主动转换,协助用户完成操作。
具体的,所述手势识别是采集人手的视频信号,根据视频信号驱动虚拟场景中的虚拟人手的运动,并获得手势识别结果的操作包括:
步骤A1.通过Inter RealSense获取人手的深度图像,通过Inter RealSense本身自带的SDK得到真实人手的三维估计,然后将真实人手的三维估计中的21个节点(如图2所示,21个节点包括每根手指的4个节点和一个手掌节点,所有的手指均是从手掌节点延伸出来的,21个节点具体如下:手掌节点P、拇指上从手掌节点向指尖方向依次为第一个节点T0到第4个节点T3,食指上从手掌节点向指尖方向依次为第一个节点I0到第4个节点I3,中指上的从手掌节点向之间方向依次为第一个节点M0到第4个节点M3,无名指上从手掌节点向指尖方向依次为第一个节点R0到第4个节点R3,小指上的从手掌节点向之间方向依次为第一个节点L0到第4个节点L3。)映射到虚拟场景中的虚拟人手上,驱动虚拟人手的运动,具体的,通过Inter RealSense所获取的21个坐标点是在相机坐标系下的坐标点,而虚拟人手是在虚拟场景下的,因此需要将相机坐标系下的点转换成虚拟场景坐标系下的坐标点。对于不同的虚拟场景需要做的映射关系不同,在Unity下相机坐标系的坐标点和Unity坐标系下坐标点的比例关系为1:100。得到虚拟场景下的坐标点后就可以驱动虚拟人手的每一个结点按照虚拟场景下的坐标点运动;这些采用现有技术即可实现,在此不再赘述;
步骤A2.通过虚拟人手的运动方向和虚拟人手的手掌垂直向量能够反映用户想要抓取物体的大致方位,能一定程度上表达用户抓取意图,当人手的运动方向和手掌垂直向量大致一致(即θ<10)时才是用户想要真正的抓取方向,计算t帧的抓取方向公式如下:
其中为虚拟场景中的虚拟人手的运动方向,Pt表示t帧时刻的手掌节点P的坐标,/>表示虚拟场景中的虚拟人手的手掌的垂直向量,I0t和M0t表示t帧时刻I0与M0(即虚拟人手的食指的第一个关节点、中指的第一个关节点)的坐标。θ为/>和/>之间的夹角,当θ<10时,抓取方向Dir为:
如果θ大于等于10,就认为虚拟人手可能是在任意运动,即运动方向和手掌方向不一致,因此不认为是想要抓取某一物体,只是在场景中任意移动,即不计算抓取方向,不做任何处理。
假设虚拟场景中某一虚拟物体的重心坐标为O,其与虚拟人手之间的向量表示为两者之间的距离为/>与(3)相同可以计算出抓取方向与/>向量之间的夹角为:
所述采集用户的音频信号,对音频信号进行识别和语义分析,根据语义分析得到语音识别结果的操作包括:
步骤B1.对输入的音频信号进行语音识别,本发明采用命令控制方的语音识别进行搭建,即采用科大讯飞语音识别SDK识别用户的语音输入,以此增加系统的可靠性。手势识别和语音识别是同时进行的。
步骤B2.使用语法规则库进行语音识别:建立语法规则库(这个规则库是在使用本发明方法之前已经建立的,使用该方法时直接使用该规则库就可以了),不同的3D虚拟场景需要建立语法规则库不同,但是可以按照如下规则进行建立(不同的虚拟场景具体的语音命令会有所不同,但是都可以通过图3的规则进行语法划分),首先,将场景中可能出现的短语或关键词作为元素并将其进行分类,然后存入到语法规则词汇库中,限制语音识别的文本范围,有利于提高语音识别的准确率。在语音识别过程中,语音识别根据语法规则中预定义的词汇和结构组成生成识别结果。例如语音“用酒精灯加热那个圆底烧瓶”可以按照表1所示的方式进行解读:
主动对象(AO) | 动作(A) | 属性(P) | 被动对象(PO) |
酒精灯 | 加热 | 那个 | 圆底烧瓶 |
表1
其中主动对象“酒精灯”和属性“那个”都是可选识别项,因为有可能存在主动对象和属性词汇省略的情况出现,“加热”、“酒精灯”作为语义的关键词,一般情况下即可明确操作者的操作意图。但当关键词在场景中构成的语义命令产生歧义的时候,属性则作为必要识别项,来补充语义命令的完整性,避免歧义,用这种方式建立的语法规则如图3所示。语音识别的结果包括主动对象、动作、属性和被动对象。
所述根据所述手势识别结果和语音识别结果进行场景主动转换,协助用户完成操作的操作包括:
对于虚拟环境中的基本交互任务,可以看成是在某些情景条件以及相关规则得以匹配的情况下才会触发。因此,通过情景感知技术,预测虚拟交互过程中可能的任务,虚拟场景主动进行转换协助用户完成交互操作,具体转换的流程如图4所示,包括:情景感知、主动对象感知、场景拉近和场景旋转,具体如下
步骤C1,情景感知:判断虚拟人手当前是否处于抓取物体状态(根据虚拟手的形状与虚拟手与虚拟物体之间的距离来进行判断,采用现有的多种方法即可实现),如果是,则当前虚拟人手所指向的主动对象为绑定的虚拟物体,如果否,则虚拟人手指向的主动对象为虚拟人手本身。
步骤C2.主动对象感知:判断虚拟人手和语音识别结果所指向的主动对象是否为同一个,如果虚拟人手指向的对象AOh与语音识别结果中的主动对象AOs为同一个,则进入步骤C3,否则,需要进行主动对象转换。例如,经过步骤B2识别出的语音意图如表2所示:
主动对象(AO) | 动作(A) | 属性(P) | 被动对象(PO) |
NULL | 加热 | 那个 | 圆底烧瓶 |
表2
从表2可以看出,主动对象内容缺省,此时,需要将识别出的语音意图结合情景知识库来识别隐含的信息(通过科大讯飞语音识别SDK识别出的语义和情景知识库获得语音意图所指向的主动对象),即从场景知识库中得到语音识别结果中的主动对象AOs为“酒精灯”。而此时虚拟人手中没有任何物体,即虚拟人手指向的对象为虚拟人手本身,那么就需要进行主动对象的转换,即将原先语音识别结果中的主动对象“酒精灯”转换为被动对象PO,将语音识别结果中的主动对象AOs转换为虚拟人手,然后再进行主动对象是否一致的判断。
所述主动对象转换过程可以描述如下:
if AOs≠AOh:
PO←AOs
AOs←AOh
步骤C3.接近对象关系感知:如果虚拟场景中存在一个物体O(x1,y1,z1)使得γt<10且则判断为想要接近该物体,那么场景的视角会主动拉近,设虚拟场景中的摄像机的原坐标为C(x2,y2,z2),随着主动对象的移动,视角也向着想接近物体移动,摄像机的新坐标Ct(x,y,z)为:
当相机坐标与想要接近物体的距离小于等于10时相机不再拉近,进入步骤C4,如果不满足上述条件则继续进行接近对象关系感知的判断,即返回步骤C3;
步骤C4.判断被动对象在虚拟场景中是否存在被遮挡的情况,此处的遮挡一般来说是深度上的遮挡,即z轴方向上的遮挡。利用AABB算法为每一个虚拟场景中的物体设置一个包围盒,假设被动对象的坐标为B(x,y,z),其AABB包围盒的两个顶点为(xa min,ya min,za min)和(xa max,ya max,za max),遮挡检测即为从相机坐标沿z轴方向向内扫描,直到被动对象的坐标点,判断是否存在一个虚拟物体的包围盒(xp min,yp min,zp min),(xp max,yp max,zp max)在z轴方向上的投影与被动对象的包围盒相交,具体如表3所示:
表3
如果返回true,即相交,则设所述虚拟物体为遮挡物体,将被动对象的位置与遮挡物体位置互换,即将两者的坐标点进行互换,实现被动物体的前置,然后转入步骤C5,如果没有遮挡,则直接进入步骤C5
步骤C5.进行接下来的.用户与虚拟场景的交互动作。具体的交互方法采用现有的多种交互方法即可,不在本发明的保护范围内。
需要说明的是,所述主动对象有可能是虚拟人手或者虚拟人手所抓取的物体,所述虚拟物体是指除了主动对象和被动对象之外的虚拟场景中的所有物体,所述遮挡物体是指如果存在一个虚拟物体满足“遮挡”(遮挡条件由“判断遮挡算法”决定),那么该物体为遮挡物体。
本发明能够通过融合用户的手势输入和语音输入感知用户的真实意图,即计算机能够知道用户想要对哪个物体进行操作。然后,通过对虚拟场景的感知了解到用户将要操作的行为是否存在交互困难(具体是指主动对象与被动对象是否距离过远,或者被动对象与主动对象之间存在遮挡的情况),如果存在交互困难那么场景会主动的进行拉近摄像头或者交换遮挡物与被动交互对象的位置,从而降低交互难度,使得交互的过程更加高效准确。
上述技术方案只是本发明的一种实施方式,对于本领域内的技术人员而言,在本发明公开了应用方法和原理的基础上,很容易做出各种类型的改进或变形,而不仅限于本发明上述具体实施方式所描述的方法,因此前面描述的方式只是优选的,而并不具有限制性的意义。
Claims (8)
1.一种VR场景下人机协同抓取物体的方法,其特征在于:所述方法包括:
同时进行手势识别和语音识别,其中,所述手势识别是采集人手的视频信号,根据所述视频信号驱动虚拟场景中的虚拟人手的运动,并获得手势识别结果;所述语音识别是采集用户的音频信号,对音频信号进行识别和语义分析,根据语义分析得到语音识别结果;
根据所述手势识别结果和语音识别结果进行场景主动转换,协助用户完成操作;
所述采集人手的视频信号,根据视频信号驱动虚拟场景中的虚拟人手的运动,并获得手势识别结果的操作包括:
步骤A1,采集人手的视频信号,从所述视频信号中获取人手的深度图像以及人手的三维估计,将人手的三维估计中的各个节点映射到虚拟场景中的虚拟人手上,驱动虚拟人手的运动;
步骤A2.通过虚拟人手的运动方向和虚拟人手的手掌垂直向量获得虚拟人手的抓取方向,以及虚拟人手与虚拟物体的位置关系,即手势识别结果;
所述步骤A2的操作包括:
利用下式计算t帧的抓取方向:
其中为虚拟场景中的虚拟人手的运动方向,Pt表示t帧时刻的手掌节点P的坐标,表示虚拟场景中的虚拟人手的手掌的垂直向量,I0t和M0t表示t帧时刻的虚拟人手的食指的第一个关节点、中指的第一个关节点的坐标;θ为/>和/>之间的夹角;
判断θ是否小于10°,如果是,则利用下式计算抓取方向Dir:
=/>+/> (4)
如果否,则不做任何处理;
假设虚拟场景中一个虚拟物体的重心坐标为O,其与虚拟人手之间的向量表示为两者之间的距离为/>
利用下式计算出抓取方向向量与/>向量之间的夹角,即虚拟人手与虚拟物体之间的位置关系:
2.根据权利要求1所述的VR场景下人机协同抓取物体的方法,其特征在于:所述采集用户的音频信号,对音频信号进行识别和语义分析,根据语义分析得到语音识别结果的操作包括:
步骤B1.采集用户的音频信号;
步骤B2.对所述音频信号进行语音识别和语义分析获得语音识别结果,所述语音识别结果包括:主动对象、动作、属性和被动对象。
3.根据权利要求1所述的VR场景下人机协同抓取物体的方法,其特征在于:所述根据所述手势识别结果和语音识别结果进行场景主动转换的操作包括:
步骤C1,情景感知:判断虚拟人手当前是否处于抓取物体状态,如果是,则当前虚拟人手所指向的主动对象为绑定的虚拟物体,如果否,则虚拟人手指向的主动对象为虚拟人手本身;
步骤C2.主动对象感知:判断虚拟人手和语音识别结果中的主动对象是否为同一个,如果是,则进入步骤C3,如果否,则进行主动对象转换,然后再返回步骤C2;
步骤C3.接近对象关系感知:判断虚拟场景中是否存在想要接近的物体,如果是,则将虚拟场景的视角随着主动对象的移动向该物体拉近,拉近到设定距离时,转入步骤C4,如果否,则返回步骤C3;
步骤C4.判断在虚拟场景中是否存在虚拟物体将被动对象遮挡住,如果是,则该虚拟物体为遮挡物体,将被动对象的坐标与遮挡物体的坐标进行互换,然后转入步骤C5,如果否,则转入步骤C5;
步骤C5.用户与虚拟场景进行交互。
4.根据权利要求3所述的VR场景下人机协同抓取物体的方法,其特征在于:所述步骤C2中的所述主动对象转换的操作包括:
将语音识别结果中的主动对象作为被动对象;
将虚拟人手指向的主动对象作为语音识别结果中的主动对象。
5.根据权利要求4所述的VR场景下人机协同抓取物体的方法,其特征在于:所述步骤C3中的判断虚拟场景中是否存在想要接近的物体的操作包括:
判断虚拟场景中的物体O(x1,y1,z1)是否满足以下条件:
γt<10个像素且
如果是,则判定存在想要接近的物体,如果否,则判定不存在想要接近的物体。
6.根据权利要求5所述的VR场景下人机协同抓取物体的方法,其特征在于:所述步骤C3中的所述将虚拟场景的视角随着主动对象的移动向该物体拉近的操作包括:
设虚拟场景中的摄像机的原坐标为C(x2,y2,z2),随着主动对象的移动,视角也向着想要接近的物体移动,利用下式计算摄像机的新坐标Ct(x,y,z):
7.根据权利要求5所述的VR场景下人机协同抓取物体的方法,其特征在于:所述步骤C3中的所述设定距离为:摄像机的新坐标与想要接近的物体的距离小于等于10个像素。
8.根据权利要求5所述的VR场景下人机协同抓取物体的方法,其特征在于:所述步骤C4中的判断在虚拟场景中是否存在虚拟物体将被动对象遮挡住的操作包括:
为虚拟场景中的每一个物体设置一个包围盒;
从摄像机的坐标沿z轴方向扫描,直到被动对象的坐标点,在扫描过程中判断是否存在一个虚拟物体的包围盒在z轴方向上的投影与被动对象的包围盒相交,如果是,则判定存在虚拟物体将被动对象遮挡住,如果否,则判定不存在虚拟物体将被动对象遮挡住。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911041939.1A CN110766804B (zh) | 2019-10-30 | 2019-10-30 | 一种vr场景下人机协同抓取物体的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911041939.1A CN110766804B (zh) | 2019-10-30 | 2019-10-30 | 一种vr场景下人机协同抓取物体的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110766804A CN110766804A (zh) | 2020-02-07 |
CN110766804B true CN110766804B (zh) | 2023-08-18 |
Family
ID=69334781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911041939.1A Active CN110766804B (zh) | 2019-10-30 | 2019-10-30 | 一种vr场景下人机协同抓取物体的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110766804B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112346564B (zh) * | 2020-10-26 | 2021-12-03 | 江南大学 | 一种手抓取释放虚拟物体方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106980383A (zh) * | 2017-03-31 | 2017-07-25 | 哈尔滨工业大学 | 一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统 |
CN108874126A (zh) * | 2018-05-30 | 2018-11-23 | 北京致臻智造科技有限公司 | 基于虚拟现实设备的交互方法及系统 |
-
2019
- 2019-10-30 CN CN201911041939.1A patent/CN110766804B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106980383A (zh) * | 2017-03-31 | 2017-07-25 | 哈尔滨工业大学 | 一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统 |
CN108874126A (zh) * | 2018-05-30 | 2018-11-23 | 北京致臻智造科技有限公司 | 基于虚拟现实设备的交互方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110766804A (zh) | 2020-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li | Human–robot interaction based on gesture and movement recognition | |
Harris et al. | Applying hand gesture recognition for user guide application using MediaPipe | |
CN108453742B (zh) | 基于Kinect的机器人人机交互系统及方法 | |
Garg et al. | Vision based hand gesture recognition | |
Park et al. | Real-time 3D pointing gesture recognition for mobile robots with cascade HMM and particle filter | |
CN110941328A (zh) | 基于手势辨认的互动显示方法和装置 | |
CN105787471A (zh) | 一种应用于助老助残移动服务机器人控制的手势识别方法 | |
CN110603122B (zh) | 用于交互式学习应用的自动个性化反馈 | |
CN102253713A (zh) | 面向三维立体影像显示系统 | |
Fransen et al. | Using vision, acoustics, and natural language for disambiguation | |
CN113961067A (zh) | 基于深度学习的非接触式涂鸦绘制方法与识别交互系统 | |
CN110766804B (zh) | 一种vr场景下人机协同抓取物体的方法 | |
Zhang | Computer-assisted human-computer interaction in visual communication | |
Gao et al. | Parallel dual-hand detection by using hand and body features for robot teleoperation | |
CN110427945A (zh) | 一种基于实物及手势的交互方法和计算机设备 | |
Barber et al. | Sketch-based robot programming | |
Demirdjian et al. | Untethered gesture acquisition and recognition for virtual world manipulation | |
Du et al. | A novel natural mobile human-machine interaction method with augmented reality | |
Saremi et al. | Optimisation Algorithms for Hand Posture Estimation | |
Han et al. | Structuring human-robot interactions via interaction conventions | |
Moustakas et al. | Masterpiece: physical interaction and 3D content-based search in VR applications | |
Leite et al. | A system to interact with CAVE applications using hand gesture recognition from depth data | |
Jayasurya et al. | Gesture controlled AI-robot using Kinect | |
CN110895684A (zh) | 一种基于Kinect的手势动作识别方法 | |
Paul et al. | Simultaneous Integration of Multimodal Interfaces for Generating Structured and Reliable Robotic Task Configurations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |