CN105302294B - 一种交互式虚拟现实演示装置 - Google Patents

一种交互式虚拟现实演示装置 Download PDF

Info

Publication number
CN105302294B
CN105302294B CN201510563538.8A CN201510563538A CN105302294B CN 105302294 B CN105302294 B CN 105302294B CN 201510563538 A CN201510563538 A CN 201510563538A CN 105302294 B CN105302294 B CN 105302294B
Authority
CN
China
Prior art keywords
hand
user
sequence
characteristic point
virtual reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510563538.8A
Other languages
English (en)
Other versions
CN105302294A (zh
Inventor
朱磊
韩琦
杨晓光
李建英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Yishe Technology Co Ltd
Original Assignee
Harbin Yishe Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Yishe Technology Co Ltd filed Critical Harbin Yishe Technology Co Ltd
Priority to CN201510563538.8A priority Critical patent/CN105302294B/zh
Publication of CN105302294A publication Critical patent/CN105302294A/zh
Application granted granted Critical
Publication of CN105302294B publication Critical patent/CN105302294B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种交互式虚拟现实演示装置,该交互式虚拟现实演示装置包括3D摄像组件、头盔式虚拟现实显示器以及计算处理组件,3D摄像组件连接至计算处理组件,计算处理组件连接至头盔式虚拟现实显示器;3D摄像组件用于捕获含有深度信息的使用者手部的待测图像序列,并将待测图像序列发送给计算处理组件,计算处理组件用于基于待测图像序列获得使用者的手势,以执行与该手势对应的操作指令,头盔式虚拟现实显示器用于将计算处理组件的当前用户界面以虚拟现实显示方式呈现于预定成像区域。本发明的上述技术能够利用手势识别技术进行人机交互,丰富了输入方式,且操作较为简便。

Description

一种交互式虚拟现实演示装置
技术领域
本发明涉及人机交互技术,尤其涉及一种交互式虚拟现实演示装置。
背景技术
随着移动计算设备从笔记本电脑到手机、平板电脑的演化,移动计算设备的操控方式也经历了从键盘、鼠标到手机按键、手写板,再到触摸屏、虚拟键盘的进化,可以看到,移动设备的操控方式是朝着越来越直观、简便,并且符合人的自然习惯的方向进化的。
目前在移动计算设备上广泛使用的基于触摸屏的操控方式,技术上是将一块透明的触摸感应屏和显示屏贴合在一起,触摸感应屏实质上是一个定位装置,能够捕捉到屏幕上的触摸动作并获取其位置,同时结合时间轴信息,将动作识别其为点触、长触、滑动等动作之一。进而将位置和动作信息作为指令传递给移动计算设备,移动计算设备基于该指令做出相应的操作反应。由于触摸感应屏与显示屏是叠加在一起的,因此带给使用者“所点即所想”的使用感受,相比鼠标、触控板等定位设备需要通过光标反馈位置的输入方式,屏幕触控方式带来更好的使用体验。
屏幕触控方式相比键盘加鼠标的方式,更加符合人的直观反应、更容易学习,但是屏幕触控方式毕竟只捕捉到了人体手指的动作,在一些需要更多使用者本体信息输入的场合,比如运动游戏、模拟训练、复杂操控、远距离操控等,屏幕触控方式就显示出其捕获人体信息过于单一的局限性了。
目前,现有的虚拟现实交互技术通常是利用诸如鼠标、按键等常规输入方式来与设备进行交互,使得输入方式过于有限,由此导致用户在进行功能选择或执行时,操作较为繁琐,用户体验较差。
发明内容
在下文中给出了关于本发明的简要概述,以便提供关于本发明的某些方面的基本理解。应当理解,这个概述并不是关于本发明的穷举性概述。它并不是意图确定本发明的关键或重要部分,也不是意图限定本发明的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
鉴于此,本发明提供了一种交互式虚拟现实演示装置,以至少解决现有的虚拟现实交互技术的输入方式有限以及用户在进行功能选择或执行时操作较为繁琐的问题。
根据本发明的一个方面,提供了一种交互式虚拟现实演示装置,交互式虚拟现实演示装置包括3D摄像组件、头盔式虚拟现实显示器以及计算处理组件,所述3D摄像组件连接至所述计算处理组件,所述计算处理组件连接至所述头盔式虚拟现实显示器;所述3D摄像组件用于捕获含有深度信息的使用者手部的待测图像序列,并将所述待测图像序列发送给所述计算处理组件,所述计算处理组件用于基于所述待测图像序列获得所述使用者的手势,以执行与该手势对应的操作指令,所述头盔式虚拟现实显示器用于将所述计算处理组件的当前用户界面以虚拟现实显示方式呈现于预定成像区域。
进一步地,所述头盔式虚拟现实显示器包括:佩戴部,所述佩戴部可佩戴在使用者头部;采集成像部,所述采集成像部设置于所述佩戴部上,并连接至所述计算处理组件以采集所述计算处理组件的用户界面信号,来将该用户界面信号对应的当前用户界面以虚拟现实显示方式呈现于所述预定成像区域,所述采集成像部包括显示屏和两组镜片组,其中所述显示屏为透明材质并用于根据所述用户界面信号来显示对应的当前用户界面,所述两组镜片组被设置成:当所述交互式虚拟现实演示装置被使用者佩戴于头部时,所述两组镜片组分别位于使用者对应的视线正前方,以对所述当前用户界面在所述预定成像区域成虚像。
进一步地,所述计算处理组件包括:存储单元,用于存储多媒体数据和应用;轮廓检测单元,用于根据图像深度信息和图像颜色信息,在所述待测图像序列的每帧图像中检测出所述使用者的手部轮廓;特征点序列确定单元,用于针对所述使用者的每只手,利用预设的手部结构模板,在所述待测图像序列的每帧图像中确定该只手的待测特征点序列;动作识别单元,用于针对所述使用者的每只手,在多个预设特征点序列中确定该只手的待测特征点序列的匹配序列,以根据所述匹配序列确定该只手的动作名称和位置;手势识别单元,用于在预设手势表中选择与所述使用者双手的动作名称和位置相匹配的手势,作为已识别手势;指令确定单元,用于根据预设操作指令表,确定与所述已识别手势对应的操作指令;执行单元,用于对当前执行的与所述指令确定单元确定的操作指令对应的应用或多媒体数据执行该操作指令。
进一步地,所述特征点序列确定单元包括:模板存储子单元,用于存储预设的手部结构模板;模板匹配子单元,用于针对所述使用者的每只手,利用预设的手部结构模板,在所述待测图像序列的每帧图像的手部轮廓中确定该只手的预定数目个特征点;序列生成子单元,用于针对所述使用者的每只手,利用该只手在所述待测图像序列的各帧图像中对应的预定数目个特征点,获得该只手的待测特征点序列。
进一步地,所述模板匹配子单元包括:定位基点确定模块,其用于针对所述待测图像序列的每帧图像,根据该图像中的轮廓线的曲率找到该轮廓线中的指尖点和指根关节点,以将所述指尖点作为定位基点;缩放基准确定模块,其用于针对所述定位基点确定模块处理后的每帧图像,基于该帧图像中已找到的所述定位基点,匹配每个单指的指根关节点,得到各单指的长度来作为尺度缩放的基准;缩放及形变模块,其用于针对所述缩放基准确定模块处理后的每帧图像,基于已找到的所述指尖点和所述指根关节点的位置以及各单指的长度来对相应的所述手部结构模板进行缩放和形变,通过匹配得到每只手的各指关节特征点和手腕中点特征点;其中,所述模板存储子单元存储的所述手部结构模板包括左手结构模板和右手结构模板,所述左手结构模板和右手结构模板各自包括:各手指的指尖特征点、各指关节特征点、各指根关节特征点、手腕中点特征点以及各特征点之间的拓扑关系。
进一步地,所述动作识别单元包括:分割子单元,用于针对每只手的待测特征点序列,根据预定时间窗将该待测特征点序列分割为多个子序列,并获得每个子序列对应的平均位置;匹配序列确定子单元,用于针对每只手对应的每个子序列,将该子序列与所述多个预设特征点序列中的每一个分别进行匹配,在所述多个预设特征点序列中选择与该子序列的匹配程度高于预设的匹配阈值、并且最大的预设特征点序列,作为该子序列的匹配序列;关联子单元,用于将每个子序列对应的平均位置与该子序列的匹配序列对应的动作名称相关联;动作名称确定子单元,用于针对每只手,将该只手对应的各子序列的匹配序列作为该只手对应的多个匹配序列,并将该多个匹配序列各自对应的动作名称作为该只手的多个动作名称。
进一步地,所述手势识别单元包括:手势表存储子单元,用于存储如下映射列表来作为所述预设手势表:该映射列表中的每个映射的左端是一组动作名称对及每个动作名称对的位置;该映射列表中的每个映射的右端是一个手势;手势表匹配子单元,用于将所述预设手势表中的每个映射的左端与所述使用者双手的动作名称和位置进行匹配,其中,动作名称的匹配执行严格匹配,而位置则是通过使用者双手各自的平均位置计算得到相对位置信息,进而计算该相对位置信息与映射左端的位置之间的相似度来实现的。
进一步地,所述计算处理组件还用于:基于所述使用者每只手的位置获得所述使用者手部的模拟图形,以在所述当前用户界面上显示该模拟图形。
进一步地,所述计算处理组件用于:根据所述使用者每只手对应的待测特征点序列,通过连接骨骼后外延得到该只手的外轮廓图形,作为该只手的模拟图形;通过对所述使用者双手的相对位置进行平移校准和比例缩放,确定所述使用者的每只手在所述当前用户界面中的显示位置;基于所述使用者每只手的模拟图形和显示位置来在所述当前用户界面中显示所述使用者手部的模拟图形。
上述根据本发明实施例的交互式虚拟现实演示装置,利用3D摄像组件捕获使用者手部的待测图像序列,以识别使用者的手势,进而根据已识别手势来进行对应的操作控制,例如在虚拟现实设备(即本发明的交互式虚拟现实演示装置)中实现菜单选择等设备操作,或者在其中安装的游戏或相关软件操作中通过手势实现场景导航,以及对象的缩放、旋转、平移等操作。该交互式虚拟现实演示装置将当前用户界面以虚拟现实显示方式呈现于预定成像区域,当使用者头戴该交互式虚拟现实演示装置时,能够在位于其视场之内的预定成像区域内看到当前用户界面的虚像,并通过手势识别的方式与演示装置之间进行人机交互,操控该演示装置。与现有技术不同,本发明的交互式虚拟现实演示装置除了可以利用已有的鼠标、按键等传统输入方式进行人机交互之外,还可以利用上述手势识别技术来进行人机交互,丰富了输入方式种类,且操作较为简便。
此外,本发明的交互式虚拟现实演示装置在进行手势识别的过程中,采用动作模版匹配和动作对与手势匹配的方式来实现,识别处理的精度高、速度快。
本发明的上述交互式虚拟现实演示装置采用层次化设计算法,算法复杂度低,便于实现。
此外,应用本发明的交互式虚拟现实演示装置,当需要改变(例如修改、增加或减少等)对动作和/或手势的定义时,可以仅通过调整模板(即,通过修改预设特征点序列对应的动作名称来改变动作的定义,通过增加或减少预设特征点序列及其对应动作名称来增、减动作)以及预设手势表(即,通过修改预设手势表中手势对应的多个动作来改变手势的定义,通过增加或减少预设手势表中的手势及其对应动作来增、减手势),而不需改变算法或者重新训练分类器,大大提高了算法的适应性。
此外,本发明的交互式虚拟现实演示装置的实时性强,能够适合即时交互需求的场合。
通过以下结合附图对本发明的最佳实施例的详细说明,本发明的这些以及其他优点将更加明显。
附图说明
本发明可以通过参考下文中结合附图所给出的描述而得到更好的理解,其中在所有附图中使用了相同或相似的附图标记来表示相同或者相似的部件。所述附图连同下面的详细说明一起包含在本说明书中并且形成本说明书的一部分,而且用来进一步举例说明本发明的优选实施例和解释本发明的原理和优点。在附图中:
图1A是示出本发明的一种交互式虚拟现实演示装置的一个示例的三维结构示意图,图1B-1F分别是图1A所示的虚拟现实交互设备的主视图、俯视图、仰视图、左视图和右视图;
图2A和图2B是示出将图1A所示的交互式虚拟现实演示装置佩戴在使用者头部的示意图;
图3是示出计算处理组件130的一个示例的结构示意图;
图4是示出图3中的特征点序列确定单元320的一个示例的结构示意图;
图5是示出图4中的模板匹配子单元420的一个示例的结构示意图;
图6是示出图3中的动作识别单元330的一个示例的结构示意图;
图7是示出图3中的手势识别单元340的一个示例的结构示意图。
本领域技术人员应当理解,附图中的元件仅仅是为了简单和清楚起见而示出的,而且不一定是按比例绘制的。例如,附图中某些元件的尺寸可能相对于其他元件放大了,以便有助于提高对本发明实施例的理解。
具体实施方式
在下文中将结合附图对本发明的示范性实施例进行描述。为了清楚和简明起见,在说明书中并未描述实际实施方式的所有特征。然而,应该了解,在开发任何这种实际实施例的过程中必须做出很多特定于实施方式的决定,以便实现开发人员的具体目标,例如,符合与系统及业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。此外,还应该了解,虽然开发工作有可能是非常复杂和费时的,但对得益于本公开内容的本领域技术人员来说,这种开发工作仅仅是例行的任务。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与根据本发明的方案密切相关的装置结构和/或处理步骤,而省略了与本发明关系不大的其他细节。
本发明的实施例提供了一种交互式虚拟现实演示装置,交互式虚拟现实演示装置包括3D摄像组件、头盔式虚拟现实显示器以及计算处理组件,所述3D摄像组件连接至所述计算处理组件,所述计算处理组件连接至所述头盔式虚拟现实显示器;所述3D摄像组件用于捕获含有深度信息的使用者手部的待测图像序列,并将所述待测图像序列发送给所述计算处理组件,所述计算处理组件用于基于所述待测图像序列获得所述使用者的手势,以执行与该手势对应的操作指令,所述头盔式虚拟现实显示器用于将所述计算处理组件的当前用户界面以虚拟现实显示方式呈现于预定成像区域。
图1A-图1F示出了本发明的交互式虚拟现实演示装置的一个示例的结构。如图1A-图1F所示,交互式虚拟现实演示装置100包括3D摄像组件110、头盔式虚拟现实显示器120(例如包括下文所描述的佩戴部210和采集成像部220)以及计算处理组件130。其中,3D摄像组件110连接(此处为电信号连接)至计算处理组件130,计算处理组件130连接(此处为电信号连接)至头盔式虚拟现实显示器120。需要说明的是,在该示例中,信号处理组件130是设置在头盔式虚拟现实显示器120内部的。此外,图2A和图2B示出了将图1A所示的虚拟现实交互设备佩戴在使用者头部的示意图。
3D摄像组件110用于捕获含有深度信息的使用者手部的待测图像序列,并将该待测图像序列发送给计算处理组件130。其中,3D摄像组件110例如可以包括两个3D摄像头。3D摄像头为包括可见光图像传感器和红外图像传感器的深度摄像头,可见光图像传感器用于获得可见光图像序列而红外图像传感器的深度摄像头则用于获得红外图像序列
根据一种实现方式,信号处理组件130设置在头盔式虚拟现实显示器120内部,可以将3D摄像组件110设置在一个连接件内,该连接件与头盔式虚拟现实显示器120连接、并且可以绕头盔式虚拟现实显示器120进行旋转(参考图2A和图2B)。由此,用户通过旋转上述连接件,能够使得设置在其上的3D摄像组件110所面对的方向(也即,3D摄像头对应的光轴方向)朝向使用者的手势。当调整好上述连接件的方向之后,使用者只需在舒适的位置做手势,并且可以根据不同场合各自的舒适位置来分别调整连接件适应的方向。
根据一种实现方式,3D摄像组件110可以用于:通过捕获预定成像区域内的使用者手部的图像,(例如可以利用深度摄像头上的可见光图像传感器和红外图像传感器)获得可见光图像序列和红外图像序列为可见光图像序列第i帧图像坐标(x,y)处的像素值,而为红外图像序列第i帧图像坐标(x,y)处的像素值,根据如下公式可以得到抽取使用者双手信息的图像序列:
其中,α、β、λ为预设参数阈值,这些预设参数阈值可以根据经验值来设定,也可以通过试验的方法来确定(例如通过实际使用特定型号的深度摄像头采集到的样本图像训练得到),这里不再赘述。为获取的含有深度信息的使用者双手的图像序列,作为上述待测图像序列。此外,i=1,2,…,M,M为待测图像序列中所包括的图像帧数。
需要说明的是,根据使用者手势所使用的手数量的不同(单只或双只),在预定成像区域内所捕获的图像可能是包含使用者双手的图像,也可能是仅包含使用者单只手的图像。另外,获取的待测图像序列可以是在一个时间段内获得的,该时间段可以预先根据经验值设置,例如可为10秒。
计算处理组件130用于基于上述待测图像序列来获得使用者的手势,以执行与该手势对应的操作指令。
头盔式虚拟现实显示器120用于将计算处理组件130的当前用户界面以虚拟现实显示方式呈现于预定成像区域。计算处理组件130中例如可集成CPU等处理单元来实现计算处理等功能,并且其中可集成各类存储单元来存储各种多媒体数据和各种应用(例如用于播放多媒体数据的应用等)。计算处理组件130的当前用户界面可以是当前执行的单个应用的用户界面,也可能是当前执行的多个应用中排在最前(即最优先执行)的第一个应用的用户界面。需要说明的是,计算处理组件130中可集成显示屏用以显示上述当前用户界面,或者,计算处理组件130中可以在不设置显示屏的情况下仅将用于显示当前用户界面的信号(即上文所述的用户界面信号)发送给头盔式虚拟现实显示器120,而由头盔式虚拟现实显示器120内的显示屏显示。
这样,将3D摄像组件110安装在头盔式虚拟现实显示器上,不需借助任何手持设备,即可实现基于双手手势的设备操作和场景操作。
上述根据本发明实施例的交互式虚拟现实演示装置,利用3D摄像组件捕获使用者手部的待测图像序列,以识别使用者的手势,进而根据已识别手势来进行对演示装置的操控。该交互式虚拟现实演示装置将当前用户界面以虚拟现实显示方式呈现于预定成像区域,当使用者头戴该交互式虚拟现实演示装置时,能够在位于其视场之内的预定成像区域内看到该界面的虚像,并通过手势识别的方式操控该装置内部安装的应用或多媒体数据,实现与该演示装置之间的人机交互。与现有技术不同的是,本发明的交互式虚拟现实演示装置除了可以利用已有的鼠标、按键等传统输入方式进行人机交互之外,还可以利用上述手势识别技术来进行人机交互,丰富了输入方式种类,且操作较为简便。
根据一种实现方式,头盔式虚拟现实显示器120可以包括佩戴部210和采集成像部220。
其中,佩戴部210可佩戴在使用者头部,其上设置有采集成像部220。采集成像部220连接(此处为电信号连接)至计算处理组件130以采集计算处理组件130的用户界面信号,来将该用户界面信号对应的当前用户界面以虚拟现实显示方式呈现于预定成像区域。采集成像部220可包括显示屏和两组镜片组,其中显示屏用于根据用户界面信号来显示对应的当前用户界面,而两组镜片组被设置成:当交互式虚拟现实演示装置100被使用者佩戴于头部时,这两组镜片组分别位于使用者对应的视线正前方(即左侧镜片组位于使用者左眼视线正前方,而右侧镜片组位于使用者右眼视线正前方),以对显示屏上的显示内容在预定成像区域成虚像。这种情况下,预定成像区域例如是这两组镜片组的虚像成像区域。
采集成像部220连接至计算处理组件130来采集计算处理组件130的用户界面信号,该用户界面信号即用于在显示屏上显示用户界面的信号,类似于台式计算机显示器所接收的显示信号。采集成像部220接收上述用户界面信号后,通过其内部的显示使用者佩戴上述交互式虚拟现实演示装置后,通过上述两组镜片组看到的即是上述虚像。屏根据该用户界面信号来显示对应的当前用户界面,并通过上述两组镜片组对显示屏上显示的当前用户界面成虚像。需要说明的是,本领域的技术人员能够根据本领域公知常识和公开资料等获知如何设置镜片组中镜片的数量和参数,这里不再赘述。
根据一种实现方式,采集成像部220内部的显示屏例如可以是透明材质的显示屏,使用者佩戴交互式虚拟现实演示装置后,能够透过该显示屏看到自己的手势,以准确掌握自己所做手势及手势位置。
图3示意性地示出了计算处理组件130的一种示例性结构。如图3所示,计算处理组件130可以包括轮廓检测单元310、特征点序列确定单元320、动作识别单元330、手势识别单元340、指令确定单元350、执行单元360以及存储单元370。
存储单元370可用于存储多媒体数据和应用。存储单元370例如可以是诸如硬盘等集成设置于计算处理组件130中的存储器,也可以是诸如安全数码卡(SD卡)、U盘(USBflash disk)等可拆卸式的存储器。存储单元370中可以预存有一些待演示的多媒体数据(比如视频数据、图像数据等),另外还预存有播放这些多媒体数据的应用以及其他应用。
轮廓检测单元310用于根据图像深度信息和图像颜色信息,在待测图像序列的每帧图像中检测出使用者的手部轮廓。其中,检测出的手部轮廓可能是双手轮廓,也可能是单手轮廓。
特征点序列确定单元320用于针对使用者的每只手,利用预设的手部结构模板,在待测图像序列的每帧图像中确定该只手的待测特征点序列
动作识别单元330用于针对使用者的每只手,在多个预设特征点序列中确定该只手的待测特征点序列的匹配序列,以根据匹配序列确定该只手的动作名称和位置。
手势识别单元340用于在预设手势表中选择与使用者双手的动作名称和位置相匹配的手势,作为已识别手势。
指令确定单元350用于根据预设操作指令表,确定与已识别手势对应的操作指令。
执行单元360用于对当前执行的与指令确定单元350所确定的操作指令相对应的应用或多媒体数据执行该指令,能够实现对交互式虚拟现实演示装置的拟人化、自然化、非接触的操作与控制。
通过以上描述可知,本发明的交互式虚拟现实演示装置在进行手势识别的过程中,采用动作模版匹配和动作对与手势匹配的方式来实现,识别处理的精度高、速度快。
根据一种实现方式,轮廓检测单元310可以用于:针对待测图像序列中的每帧图像,结合颜色信息删除该帧图像中的噪声点及非肤色区域,利用边缘检测算子E(·)对删除噪声点和非肤色区域后所得到的图像进行边缘检测,从而得到边缘图像
边缘图像即为仅包含使用者手部轮廓的图像。
其中,在“结合颜色信息删除该帧图像中的噪声点及非肤色区域”的处理过程中,可以利用现有的去噪方法来删除图像中的噪声点,并可以通过计算图像的均值来得到肤色区域,则肤色区域之外的区域即为非肤色区域,即可实现对非肤色区域的删除。例如,得到图像的均值之后,在该均值上下浮动一个范围,得到包含该均值的一个颜色范围,当图像中某点的颜色值落在这个颜色范围之内,则将该点确定是肤色点,否则认为不是肤色点;所有肤色点构成肤色区域,其余为非肤色区域。
由此,通过轮廓检测单元310的处理,能够快速检测出使用者的手部轮廓,提高了整个处理的速度和效率。
根据一种实现方式,特征点序列确定单元320可以包括如图4所示的模板存储子单元410、模板匹配子单元420和序列生成子单元430。
其中,模板存储子单元410可以用于存储预设的手部结构模板。
根据一种实现方式,手部结构模板可以包括左手结构模板和右手结构模板,左手结构模板和右手结构模板各自包括预定数目个特征点以及各特征点之间的拓扑关系。
在一个例子中,左手结构模板和右手结构模板可以各自包括如下20(作为预定数目的示例,但预定数目并不限于20,也可为19、21等数值)个特征点:各手指的指尖特征点(5个)、各指关节特征点(9个)、各指根关节特征点(5个)、手腕中点特征点(1个)。
如图4所示,模板匹配子单元420可以针对使用者的每只手,利用上述预设的手部结构模板,分别将待测图像序列的每帧图像中的手部轮廓与手部结构模板(左右结构模板和右手结构模板)进行匹配、对齐,得到该帧图像手部轮廓中的预定数目个(例如20个)特征点。
然后,序列生成子单元430可以针对使用者的每只手,利用该只手在待测图像序列的各帧图像中对应的预定数目个特征点(即特征点集),获得该只手的待测特征点序列。
这样,通过手部结构模板与之前获得的每个手部轮廓(即待测图像序列的每帧图像中的手部轮廓)进行匹配等处理,能够快速、准确地获得每个手部轮廓中的预定数目个特征点。由此,能够使得后续处理利用这些轮廓中的所述预定数目个特征点来进一步实现手势识别,相比于现有技术,提高了整个人机交互处理的速度和准确度。
在现有技术中,当根据不同应用场景需要改变(例如修改、增加或减少等)对动作的定义时,需要修改算法以及重新训练分类器;在本发明中,可以仅通过调整动作模板(即预设特征点序列)来实现对动作定义的改变,大大提高了手势识别技术的适应性。
在一个例子中,模板匹配子单元420可以包括如图5所示的定位基点确定模块510、缩放基准确定模块520和缩放及形变模块530。
根据人类双手的生理结构特征,可以通过定位基点确定模块510、缩放基准确定模块520和缩放及形变模块530对每只手提取20(作为预定数目的示例)个特征点。
针对待测图像序列的每帧图像执行以下处理:首先,通过定位基点确定模块510根据该图像中的轮廓线的曲率找到该轮廓线中的指尖点和指根关节点;接着,缩放基准确定模块520基于定位基点确定模块510已找到的该帧图像的轮廓线中的定位基点,匹配每个单指的指根关节点,得到各单指的长度作为尺度缩放的基准;最后,缩放及形变模块530基于已找到的指尖点和指根关节点的位置以及得到的各单指的长度两方面的参数对相应的手部结构模板进行缩放和形变,通过匹配得到每只手其余的10个特征点,即每只手的各指关节特征点和手腕中点特征点。
例如,在找轮廓线中的指尖点和指根关节点的过程中,可以将其中曲率最大的凸点作为指尖点,将曲率最大的凹点作为指缝最低点,并将每个指尖点到该指尖点相邻的指缝最低点之间的距离定义为该指尖点对应的单位长度。对每两个相邻的指缝最低点,将此二点的中点再往手掌方向延伸三分之一单位长度(此时的单位长度为此二点之间的指尖点对应的单位长度)的点,定义为该指尖点对应的指根关节点,由此可以得到每只手的中间3个指根关节点。除此之外,对于每只手来说,可以通过在后续缩放和形变的过程中获得该只手的首尾两个指根关节点;或者,也可以将该只手的两个(例如任意选两个)相邻的指缝最低点之间的距离作为手指参考宽度,然后将该只手的首尾两个指缝最低点各沿切线方向、向外延伸半个手指参考宽度,得到的点分别作为该只手的首尾两个指根关节点。
需要说明的是,如果对于单只手所找到的凸点多于5个,可以在将其与手部结构模板进行匹配对齐的过程中将多余的凸点去除。
由此,通过定位基点确定模块510、缩放基准确定模块520和缩放及形变模块530,可以匹配得到每一帧图像对应的左手的20个特征点Pl={pl1,pl2,…,pl20}和右手的20个特征点Pr={pr1,pr2,…,pr20}。需要说明的是,若使用者手势仅包含单只手,则通过以上匹配所得到的是该单只手在每帧图像中的20个特征点(称为特征点集),即Pl={pl1,pl2,…,pl20}或Pr={pr1,pr2,…,pr20}。其中,pl1,pl2,…,pl20分别为左手20个特征点的位置,而pr1,pr2,…,pr20分别为右手20个特征点的位置。
若使用者手势包含双手,则通过以上处理可以得到左手的待测特征点序列{Pli,i=1,2,...,M}和右手的待测特征点序列{Pri,i=1,2,...,M}。其中,Pli为使用者左手在待测图像序列的第i帧图像中对应的20(作为预定数目的示例)个特征点,而Pri为使用者右手在待测图像序列的第i帧图像中对应的20(作为预定数目的示例)个特征点。
若使用者手势仅包含单只手,则捕获的待测图像序列中的每帧图像均是仅包含该单只手的图像,从而通过以上处理之后能够得到该单只手的待测特征点序列,即{Pli,i=1,2,...,M}或{Pri,i=1,2,...,M}。
根据一种实现方式,动作识别单元330可以包括如图6所示的分割子单元610、匹配序列确定子单元620、关联子单元630和动作名称确定子单元640。
如图6所示,分割子单元610可以针对每只手的待测特征点序列,根据预定时间窗将该待测特征点序列分割为多个子序列,并获得每个子序列对应的平均位置。其中,每个子序列对应的平均位置可以选取指定特征点(如手腕中点,或者也可为其他特征点)在该子序列中的平均位置。其中,预定时间窗约为一个单手基本动作(即单手的握、抓等)从开始到结束的时间,可根据经验值来设定,或可以通过试验的方法来确定,例如可以为2.5秒。
在一个例子中,假设待测特征点序列是在10秒内采集的,分割子单元610利用2.5秒的时间窗可以将左手的待测特征点序列以及右手的待测特征点序列分别分割成4个子序列。以左手的待测特征点序列{Pli,i=1,2,...,M}为例(右手的待测特征点序列{Pri,i=1,2,...,M}与其类似,这里不再详述),假设每秒采集10帧图像,则待测特征点序列对应的是100帧图像,即M=100,也就是说,{Pli,i=1,2,...,M}包括100组特征点集Pl1、Pl2、…、Pl100。这样,通过上述2.5秒的时间窗,可以将{Pli,i=1,2,...,M}分割为{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}和{Pli,i=76,77,...,100}4个子序列,且每个子序列各对应25帧图像,也即,每个子序列各包括25组特征点集。指定特征点选取手腕中点,以子序列{Pli,i=1,2,...,25}为例(其余三个子序列与其处理相似,这里不再详述),手腕中点在{Pli,i=1,2,...,25}对应的25组特征点集中的位置分别为位置p1、p2、…、p25,于是手腕中点在子序列{Pli,i=1,2,...,25}中的平均位置为(p1+p2+…+p25)/25,作为子序列{Pli,i=1,2,...,25}对应的平均位置。
然后,匹配序列确定子单元620可以针对每只手对应的每个子序列,将该子序列与多个预设特征点序列中的每一个分别进行匹配,在多个预设特征点序列中选择与该子序列的匹配程度高于预设的匹配阈值(该匹配阈值可以根据经验值来设定,或者也可以通过试验的方法来确定)、并且最大的那个预设特征点序列,作为该子序列的匹配序列。其中,匹配序列确定子单元620可以计算子序列与预设特征点序列之间的相似度,来作为二者之间的匹配程度。
其中,多个预设特征点序列可以预先设置在一个手部动作名列表中,该手部动作名列表包括基本的手部动作,例如:挥、推、拉、张、合、转等,每个动作都有唯一的名称标识以及用归一化的用手部特征点序列(即预设特征点序列)表示的模板。需要说明的是,对于使用者的双手来说,每只手都具有一个上述的手部动作名列表。也就是说,对于左手来说,左手的手部动作名列表(简称左手动作名列表)中包括的每个动作除了分别具有各自的名称之外,还具有一个左手模板(即左手的一个预设特征点序列);对于右手来说,右手的手部动作名列表(简称右手动作名列表)中包括的每个动作除了分别具有各自的名称之外,还具有一个右手模板(即右手的一个预设特征点序列)。
例如,单只手的多个预设特征点序列分别记为序列A1、序列A2、…、序列AH,其中,H为该单只手的上述多个预设特征点序列所包含的序列数,则在该单只手的手部动作名列表中:动作1的名称标识为“挥”且对应的模板(即预设特征点序列)为序列A1;动作2的名称标识为“推”且对应的模板为序列A1;…;动作H的名称标识为“转”且对应的模板为序列A1
需要说明的是,对于每个子序列,并非一定能够在多个预设特征点序列中找到该子序列对应的匹配序列。当对于单只手的某个子序列并未找到其匹配序列时,则将该子序列的匹配序列记为“空”,但该子序列的平均位置可以不为“空”。根据一种实现方式,若子序列的匹配序列为“空”,则将该子序列的平均位置设为“空”;根据另一种实现方式,若子序列的匹配序列为“空”,该子序列的平均位置为该子序列中指定特征点的实际平均位置;根据其他一种实现方式,若子序列的匹配序列为“空”,将该子序列的平均位置设为“+∞”。
此外,根据一种实现方式,若子序列中不存在指定特征点(也即不存在该指定特征点的实际平均位置),可以将该子序列的平均位置设为“+∞”。
然后,如图6所示,关联子单元630可以将每个子序列对应的平均位置与该子序列的匹配序列对应的动作名称相关联。
这样,动作名称确定子单元640可以针对每只手,将该只手对应的各子序列的匹配序列作为该只手对应的多个匹配序列,并将该多个匹配序列各自对应的动作名称(按时间顺序排序后)作为该只手的多个动作名称。
例如,假设对于左手的待测特征点序列的多个子序列为{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}和{Pli,i=76,77,...,100},分别在左手的多个预设特征点序列中找到{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}的匹配序列依次为Pl1'、Pl2'、Pl3',而未找到{Pli,i=76,77,...,100}的匹配序列。假设Pl1'、Pl2'、Pl3'在左手动作名列表中对应的动作名称依次分别为“挥”、“推”、“拉”,{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}和{Pli,i=76,77,...,100}各自的平均位置分别为pm1、pm2、pm3和pm4,则由此得到的左手的动作名称和位置包括:“挥”(位置pm1);“推”(位置pm2);“拉”(位置pm3);“空”(位置“pm4”)。需要注意到是,在不同实施例中,pm4可能是真实位置值,也可能是“空”或“+∞”等。
由此,通过分割子单元610、匹配序列确定子单元620、关联子单元630和动作名称确定子单元640的处理,能够得到使用者每只手对应的多个动作名称(作为该只手的动作名称,也就是说,该只手的动作名称),且每个动作名称分别关联有一个平均位置(作为该只手的位置,“该只手的位置”中包括一个或多个平均位置,数量与动作名称的数量相同)。相比于单单识别单个动作作为手势的识别技术来说,采用如图6所示的组成的处理所识别的双手各自的多个动作和位置,提供了更灵活的组合方式,一方面使得手势的识别精度更高,另一方面使得能够识别的手势更多样、丰富。
此外,根据一种实现方式,可以通过如图7所示的结构来实现手势识别单元340的处理。如图7所示,手势识别单元340可以包括手势表存储子单元710和手势表匹配子单元720。
如图7所示,手势识别单元340可以将预定义的一个从两只手动作和位置两个要素到手势的映射列表存储为预设手势表:每个映射的左端是一组动作名称对及每个动作名称对的位置;每个映射的右端是一个手势HandSignal。
其中,“一组动作名称对”包括多个动作名称对,每个动作名称对包括左手动作名称ActNameleft和右手动作名称ActNameright,每个动作名称对的位置包括两只手的相对位置。
例如,在预设手势表中,映射一为{(“拉”,“空”)、(“拉”,“拉”)、(“空”,“合”)、(“空”,“空”)}(作为要素一)、{(x1,y1),(x2,y2),(x3,y3),(x4,y4)}(相对位置,作为要素二)到手势“开关”的映射;映射二为{(“拉”,“拉”)、(“张”,“张”)、(“空”,“空”)、(“空”,“空”)}、{(x5,y5),(x6,y6),(x7,y7),(x8,y8)}到手势“爆炸”的映射;等等。其中,每个动作对(如(“拉”,“空”))中左边的动作名称对应于左手动作,而右边的动作名称对应于右手动作。
以映射一为例,(x1,y1)表示的是左手第一个动作“拉”与右手第一个动作“空”之间的相对位置(即动作对(“拉”,“空”)中左手动作和右手动作对应的两只手的相对位置);(x2,y2)表示的是左手第二个动作“拉”与右手第二个动作“拉”之间的相对位置;(x3,y3)表示的是左手第三个动作“空”与右手第三个动作“合”之间的相对位置;而(x4,y4)表示的是左手第四个动作“空”与右手第四个动作“空”之间的相对位置。其他映射中的表述意义与此类似,不再赘述。
这样,手势表匹配子单元720可以将预设手势表中的每个映射的左端与使用者双手的动作名称和位置进行匹配,以将与使用者双手动作名称和位置匹配的手势作为已识别手势。
其中,动作名称的匹配执行严格匹配,也即,在两个动作名称之间一字不差的情况下判定这两个动作名称是匹配的;而位置则是通过使用者双手各自的平均位置计算得到相对位置信息,进而计算该相对位置信息与映射左端的位置之间的相似度来实现的(如可以设定一个相似度阈值,当计算的相似度大于或等于该相似度阈值时判定位置是匹配的)。
例如,假设通过动作识别单元330得到使用者双手各自的动作名称为{(“拉”,“拉”)、(“张”,“张”)、(“空”,“空”)、(“空”,“空”)},位置为{(x11,y12)、(x21,y22)、(x31,y32)、(x41,y42)(对应左手);(x’11,y’12)、(x’21,y’22)、(x’31,y’32)、(x’41,y’42)(对应左手)}。
这样,手势表匹配子单元720将使用者双手的动作名称与预设手势表中的每个映射的左端进行匹配。
当与映射一进行匹配时,可以得出,使用者双手的动作名称与映射一的左端的动作名称不匹配,因此忽略映射一,继续匹配映射二。
当与映射二进行匹配时,可以得出,使用者双手的动作名称与映射二的左端的动作名称完全匹配,然后再将使用者双手的位置与映射二的左端的相对位置进行匹配。
在将使用者双手的位置与映射二的左端的相对位置进行匹配的过程中,首先计算使用者双手的相对位置如下:{(x’11-x11,y’12-y12)、(x’21-x21,y’22-y22)、(x’31-x31,y’32-y32)、(x’41-x41,y’42-y42)(对应左手)}。然后,将计算得到的使用者双手的上述相对位置与映射二左端的相对位置{(x5,y5),(x6,y6),(x7,y7),(x8,y8)}进行匹配,也即,计算{(x’11-x11,y’12-y12)、(x’21-x21,y’22-y22)、(x’31-x31,y’32-y32)、(x’41-x41,y’42-y42)(对应左手)}与{(x5,y5),(x6,y6),(x7,y7),(x8,y8)}之间的相似度,假设计算得到的相似度为95%。在该例子中,设相似度阈值为80%,于是判定计算得到的使用者双手的相对位置与映射二左端的相对位置是匹配的。由此,在该例子中,人机交互的结果为“爆炸”。
由此,利用手势表匹配子单元720,通过双手各自的多个动作和位置与预定手势表之间的匹配来确定使用者的手势,使得识别的精度较高;当根据不同应用场景需要改变(例如修改、增加或减少等)对手势的定义时,不需要修改算法或重新训练分类器,可以仅通过调整预定手势表中的手势名称或者手势对应的动作名称等方式来实现对手势定义的改变,大大提高了算法的适应性。
根据一种实现方式,指令确定单元350可以建立一个手势名称和操作指令之间的一个映射关系表,作为上述预设操作指令表。该预设操作指令表包括多个映射,每个映射的左边为一个预设手势的名称,而右边为与该预设手势对应的操作指令(比如用于移动计算设备图形界面操作的基本操作指令,例如焦点移动、点击、双击、点击拖动、放大、缩小、旋转、长触等)。由此,通过查表操作即可获得与已识别手势HandSignal对应的那个操作指令OptCom。
此外,根据另一种实现方式,计算处理组件130可以基于使用者每只手的位置获得使用者手部的模拟图形,以在当前用户界面上显示该模拟图形。
例如,计算处理组件130可用于:根据使用者每只手在待测图像序列的每帧图像中对应的待测特征点序列(例如每帧图像中每只手的20个特征点),通过连接骨骼后外延得到该只手的外轮廓图形,作为该只手的模拟图形;通过对使用者双手的相对位置进行平移校准和比例缩放,确定使用者的每只手在所述当前用户界面中的显示位置;基于使用者每只手的模拟图形和显示位置来在当前用户界面中显示使用者手部的模拟图形。
这样,通过头盔式虚拟现实显示器120将当前用户界面以虚拟现实显示方式呈现于预定成像区域,能够使得使用者在该预定成像区域看到包含以上手部的模拟图形的当前用户界面的图像(虚像),从而能够根据手部模拟图形来确定其手势是否准确,以继续操作手势或调整手势等。
由此,可以通过在当前用户界面上显示半透明的手部图形来给用户提供视觉反馈,并帮助用户调整手部位置和操作。需要说明的是,在执行“通过对使用者双手的相对位置进行平移校准和比例缩放”的处理时,如果已识别手势中只包含使用者的单只手,则不存在相对位置(或者相对位置被记为无穷大),此时,可以在一个指定的初始位置显示对应的单只手。此外,在执行“基于使用者每只手的模拟图形和显示位置来在当前用户界面中显示使用者手部的模拟图形”的处理时,若已识别手势中包括双手,则显示双手的模拟图形;若已识别手势仅包含单只手,则仅显示该只手的模拟图形。
例如,在实际应用中,3D摄像组件安装在头盔式虚拟现实显示器上,视场朝下,使用者抬起双手的自然位置正处于视场中央。使用者抬起双手做出相关手势操作,即可:1、在虚拟现实设备中实现菜单选择等设备操作;2、在游戏或相关软件操作中通过手势实现场景导航,以及对象的缩放、旋转、平移等操作
尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的,而非限制性的,本发明的范围由所附权利要求书限定。

Claims (7)

1.一种交互式虚拟现实演示装置,其特征在于,所述交互式虚拟现实演示装置包括3D摄像组件、头盔式虚拟现实显示器以及计算处理组件,所述3D摄像组件连接至所述计算处理组件,所述计算处理组件连接至所述头盔式虚拟现实显示器;
所述3D摄像组件用于捕获含有深度信息的使用者手部的待测图像序列,并将所述待测图像序列发送给所述计算处理组件,
所述计算处理组件用于基于所述待测图像序列获得所述使用者的手势,以执行与该手势对应的操作指令,
所述头盔式虚拟现实显示器用于将所述计算处理组件的当前用户界面以虚拟现实显示方式呈现于预定成像区域;
所述计算处理组件包括:存储单元,用于存储多媒体数据和应用;轮廓检测单元,用于根据图像深度信息和图像颜色信息,在所述待测图像序列的每帧图像中检测出所述使用者的手部轮廓;特征点序列确定单元,用于针对所述使用者的每只手,利用预设的手部结构模板,在所述待测图像序列的每帧图像中确定该只手的待测特征点序列;动作识别单元,用于针对所述使用者的每只手,在多个预设特征点序列中确定该只手的待测特征点序列的匹配序列,以根据所述匹配序列确定该只手的动作名称和位置;手势识别单元,用于在预设手势表中选择与所述使用者双手的动作名称和位置相匹配的手势,作为已识别手势;指令确定单元,用于根据预设操作指令表,确定与所述已识别手势对应的操作指令;执行单元,用于对当前执行的与所述指令确定单元确定的操作指令对应的应用或多媒体数据执行该操作指令;
所述手势识别单元包括:手势表存储子单元,用于存储如下映射列表来作为所述预设手势表:该映射列表中的每个映射的左端是一组动作名称对及每个动作名称对的位置,该映射列表中的每个映射的右端是一个手势;手势表匹配子单元,用于将所述预设手势表中的每个映射的左端与所述使用者双手的动作名称和位置进行匹配,其中,动作名称的匹配执行严格匹配,而位置则是通过使用者双手各自的平均位置计算得到相对位置信息,进而计算该相对位置信息与映射左端的位置之间的相似度来实现的。
2.根据权利要求1所述的交互式虚拟现实演示装置,其特征在于,所述头盔式虚拟现实显示器包括:
佩戴部,所述佩戴部可佩戴在使用者头部;
采集成像部,所述采集成像部设置于所述佩戴部上,并连接至所述计算处理组件以采集所述计算处理组件的用户界面信号,来将该用户界面信号对应的当前用户界面以虚拟现实显示方式呈现于所述预定成像区域,所述采集成像部包括显示屏和两组镜片组,其中所述显示屏为透明材质并用于根据所述用户界面信号来显示对应的当前用户界面,所述两组镜片组被设置成:当所述交互式虚拟现实演示装置被使用者佩戴于头部时,所述两组镜片组分别位于使用者对应的视线正前方,以对所述当前用户界面在所述预定成像区域成虚像。
3.根据权利要求1或2所述的交互式虚拟现实演示装置,其特征在于,所述特征点序列确定单元包括:
模板存储子单元,用于存储预设的手部结构模板;
模板匹配子单元,用于针对所述使用者的每只手,利用预设的手部结构模板,在所述待测图像序列的每帧图像的手部轮廓中确定该只手的预定数目个特征点;
序列生成子单元,用于针对所述使用者的每只手,利用该只手在所述待测图像序列的各帧图像中对应的预定数目个特征点,获得该只手的待测特征点序列。
4.根据权利要求3所述的交互式虚拟现实演示装置,其特征在于,所述模板匹配子单元包括:
定位基点确定模块,其用于针对所述待测图像序列的每帧图像,根据该图像中的轮廓线的曲率找到该轮廓线中的指尖点和指根关节点,以将所述指尖点作为定位基点;
缩放基准确定模块,其用于针对所述定位基点确定模块处理后的每帧图像,基于该帧图像中已找到的所述定位基点,匹配每个单指的指根关节点,得到各单指的长度来作为尺度缩放的基准;
缩放及形变模块,其用于针对所述缩放基准确定模块处理后的每帧图像,基于已找到的所述指尖点和所述指根关节点的位置以及各单指的长度来对相应的所述手部结构模板进行缩放和形变,通过匹配得到每只手的各指关节特征点和手腕中点特征点;
其中,所述模板存储子单元存储的所述手部结构模板包括左手结构模板和右手结构模板,所述左手结构模板和右手结构模板各自包括:各手指的指尖特征点、各指关节特征点、各指根关节特征点、手腕中点特征点以及各特征点之间的拓扑关系。
5.根据权利要求1或2所述的交互式虚拟现实演示装置,其特征在于,所述动作识别单元包括:
分割子单元,用于针对每只手的待测特征点序列,根据预定时间窗将该待测特征点序列分割为多个子序列,并获得每个子序列对应的平均位置;
匹配序列确定子单元,用于针对每只手对应的每个子序列,将该子序列与所述多个预设特征点序列中的每一个分别进行匹配,在所述多个预设特征点序列中选择与该子序列的匹配程度高于预设的匹配阈值、并且最大的预设特征点序列,作为该子序列的匹配序列;
关联子单元,用于将每个子序列对应的平均位置与该子序列的匹配序列对应的动作名称相关联;
动作名称确定子单元,用于针对每只手,将该只手对应的各子序列的匹配序列作为该只手对应的多个匹配序列,并将该多个匹配序列各自对应的动作名称作为该只手的多个动作名称。
6.根据权利要求1或2所述的交互式虚拟现实演示装置,其特征在于,所述计算处理组件还用于:
基于所述使用者每只手的位置获得所述使用者手部的模拟图形,以在所述当前用户界面上显示该模拟图形。
7.根据权利要求6所述的交互式虚拟现实演示装置,其特征在于,所述计算处理组件用于:根据所述使用者每只手对应的待测特征点序列,通过连接骨骼后外延得到该只手的外轮廓图形,作为该只手的模拟图形;通过对所述使用者双手的相对位置进行平移校准和比例缩放,确定所述使用者的每只手在所述当前用户界面中的显示位置;基于所述使用者每只手的模拟图形和显示位置来在所述当前用户界面中显示所述使用者手部的模拟图形。
CN201510563538.8A 2015-09-07 2015-09-07 一种交互式虚拟现实演示装置 Expired - Fee Related CN105302294B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510563538.8A CN105302294B (zh) 2015-09-07 2015-09-07 一种交互式虚拟现实演示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510563538.8A CN105302294B (zh) 2015-09-07 2015-09-07 一种交互式虚拟现实演示装置

Publications (2)

Publication Number Publication Date
CN105302294A CN105302294A (zh) 2016-02-03
CN105302294B true CN105302294B (zh) 2018-08-03

Family

ID=55199646

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510563538.8A Expired - Fee Related CN105302294B (zh) 2015-09-07 2015-09-07 一种交互式虚拟现实演示装置

Country Status (1)

Country Link
CN (1) CN105302294B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107450717B (zh) * 2016-05-31 2021-05-18 联想(北京)有限公司 一种信息处理方法及穿戴式设备
CN106060670A (zh) * 2016-06-02 2016-10-26 北京光子互动科技有限公司 多媒体的处理方法、装置和系统
CN106249882B (zh) 2016-07-26 2022-07-12 华为技术有限公司 一种应用于vr设备的手势操控方法与装置
US10652647B2 (en) 2016-09-14 2020-05-12 Shenzhen Royole Technologies Co., Ltd. Head-mounted display device
CN106873778B (zh) * 2017-01-23 2020-04-28 深圳超多维科技有限公司 一种应用的运行控制方法、装置和虚拟现实设备
CN109426473B (zh) * 2017-08-25 2023-07-28 微软技术许可有限责任公司 无线可编程媒体处理系统
CN114115544B (zh) * 2021-11-30 2024-01-05 杭州海康威视数字技术股份有限公司 人机交互方法、三维显示设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102629155A (zh) * 2011-11-08 2012-08-08 北京新岸线网络技术有限公司 实现非接触式操作的方法及装置
CN103777748A (zh) * 2012-10-26 2014-05-07 华为技术有限公司 一种体感输入方法及装置
US9024842B1 (en) * 2011-07-08 2015-05-05 Google Inc. Hand gestures to signify what is important
CN104598915A (zh) * 2014-01-24 2015-05-06 深圳奥比中光科技有限公司 一种手势识别方法与装置
CN104750397A (zh) * 2015-04-09 2015-07-01 重庆邮电大学 一种基于体感的虚拟矿井自然交互方法
CN205080497U (zh) * 2015-09-07 2016-03-09 哈尔滨市一舍科技有限公司 一种交互式虚拟现实演示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9024842B1 (en) * 2011-07-08 2015-05-05 Google Inc. Hand gestures to signify what is important
CN102629155A (zh) * 2011-11-08 2012-08-08 北京新岸线网络技术有限公司 实现非接触式操作的方法及装置
CN103777748A (zh) * 2012-10-26 2014-05-07 华为技术有限公司 一种体感输入方法及装置
CN104598915A (zh) * 2014-01-24 2015-05-06 深圳奥比中光科技有限公司 一种手势识别方法与装置
CN104750397A (zh) * 2015-04-09 2015-07-01 重庆邮电大学 一种基于体感的虚拟矿井自然交互方法
CN205080497U (zh) * 2015-09-07 2016-03-09 哈尔滨市一舍科技有限公司 一种交互式虚拟现实演示装置

Also Published As

Publication number Publication date
CN105302294A (zh) 2016-02-03

Similar Documents

Publication Publication Date Title
CN105045398B (zh) 一种基于手势识别的虚拟现实交互设备
CN105302294B (zh) 一种交互式虚拟现实演示装置
CN105045399B (zh) 一种具有3d摄像组件的电子设备
CN105302295B (zh) 一种具有3d摄像组件的虚拟现实交互设备
US10394334B2 (en) Gesture-based control system
CN113238650B (zh) 手势识别和控制的方法、装置及虚拟现实设备
US10001838B2 (en) Feature tracking for device input
CN105160323B (zh) 一种手势识别方法
RU2439653C2 (ru) Виртуальный контроллер для визуальных отображений
CN105068662B (zh) 一种用于人机交互的电子设备
RU2708027C1 (ru) Способ передачи движения субъекта из видео на анимированного персонажа
CN105068646B (zh) 终端的控制方法和系统
CN105069444B (zh) 一种手势识别装置
JP2012059271A (ja) ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法
CN105046249B (zh) 一种人机交互方法
CN104364733A (zh) 注视位置检测装置、注视位置检测方法和注视位置检测程序
CN205080499U (zh) 一种基于手势识别的虚拟现实交互设备
WO2022227393A1 (zh) 图像拍摄方法及装置、电子设备和计算机可读存储介质
CN112585566A (zh) 用于与具有内置摄像头的设备进行交互的手遮脸输入感测
CN112115894B (zh) 手部关键点检测模型的训练方法、装置及电子设备
US20240249640A1 (en) Virtual tutorials for musical instruments with finger tracking in augmented reality
CN103543825B (zh) 摄像机光标系统
CN113168221A (zh) 信息处理设备、信息处理方法和程序
CN205080498U (zh) 一种具有3d摄像组件的虚拟现实交互设备
Abdallah et al. An overview of gesture recognition

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 150016 Heilongjiang Province, Harbin Economic Development Zone haping Road District Dalian road and Xingkai road junction

Applicant after: HARBIN YISHE TECHNOLOGY Co.,Ltd.

Address before: 150016 Heilongjiang City, Harbin province Daoli District, quiet street, unit 54, unit 2, layer 4, No. 3

Applicant before: HARBIN YISHE TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180803