CN107066081A - 一种虚拟现实系统的交互控制方法和装置及虚拟现实设备 - Google Patents

一种虚拟现实系统的交互控制方法和装置及虚拟现实设备 Download PDF

Info

Publication number
CN107066081A
CN107066081A CN201611208772.XA CN201611208772A CN107066081A CN 107066081 A CN107066081 A CN 107066081A CN 201611208772 A CN201611208772 A CN 201611208772A CN 107066081 A CN107066081 A CN 107066081A
Authority
CN
China
Prior art keywords
image
user
action
foot
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611208772.XA
Other languages
English (en)
Other versions
CN107066081B (zh
Inventor
张茜
张绍谦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Goertek Techology Co Ltd
Original Assignee
Goertek Techology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Techology Co Ltd filed Critical Goertek Techology Co Ltd
Priority to CN201611208772.XA priority Critical patent/CN107066081B/zh
Publication of CN107066081A publication Critical patent/CN107066081A/zh
Application granted granted Critical
Publication of CN107066081B publication Critical patent/CN107066081B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种虚拟现实系统的交互控制方法和装置及一种虚拟现实设备,该方法包括:接收用户对识别模式的选择:仅手部模式、仅脚部模式、手脚并用模式;当选择仅手部模式时,利用第一深度摄像头采集用户手部的图像;当选择仅脚部模式时,利用第二深度摄像头采集用户脚部的图像;当选择手脚并用模式时,同时利用这两个深度摄像头分别采集用户手部和脚部的图像;根据采集的图像识别用户的动作,若存在对应的控制指令,则发送给虚拟现实系统,并执行该控制指令。用户可以实际需求选择仅使用双手、或仅使用双脚、或手脚并用地与虚拟现实系统进行交互,满足了需要多重控制的应用场景,也便于一些不能使用手部动作进行操控的用户使用虚拟现实设备。

Description

一种虚拟现实系统的交互控制方法和装置及虚拟现实设备
技术领域
本发明涉及虚拟现实技术领域,具体涉及一种虚拟现实系统的交互控制方法、一种虚拟现实系统的交互控制装置及一种虚拟现实设备。
背景技术
随着虚拟现实技术的发展,体感技术作为与虚拟场景进行交互的关键技术,得到了科技巨头的普遍重视,无论是微软的Kinect,还是谷歌的Tango,都希望在人机交互上获得突破式创新,引领用户体验变革。
但是,目前与虚拟现实系统的人机交互方式主要是按键控制和手势控制等方面,无法满足某些需要用户脚部操作的应用场景的需求,也使得某些有特殊要求的用户,例如不能使用手部动作来操作虚拟现设备的残疾用户,无法使用虚拟现实设备。
发明内容
本发明提供了一种虚拟现实系统的交互控制方法和装置及一种虚拟现实设备,以解决现有的虚拟现实系统的交互控制方式无法满足某些需要用户脚部操作的应用场景的需求,也使得某些有特殊要求的用户无法使用虚拟现实设备的问题。
根据本发明的一个方面,本发明提供了一种虚拟现实系统的交互控制装置,包括模式选择单元、第一深度摄像头、第二深度摄像头、动作识别单元和指令发送单元;
所述模式选择单元,用于根据应用场景选择对用户肢体动作的识别模式,所述识别模式包括:仅手部模式、仅脚部模式、手脚并用模式;
所述第一深度摄像头,用于当所述模式选择单元选择仅手部模式或手脚并用模式时,按预设的频率采集用户手部的图像;
所述第二深度摄像头,用于当所述模式选择单元选择仅脚部模式或手脚并用模式时,按预设的频率采集用户脚部的图像;
所述动作识别单元,用于根据所述第一深度摄像头采集的图像识别用户手部的动作;以及根据所述第二深度摄像头采集的图像识别用户脚部的动作;
所述指令发送单元,用于对所述动作识别单元识别出的用户手部和/或脚部的某一动作,若存在与该动作对应的预先定义的控制指令时,则向所述虚拟现实系统的虚拟场景发送该控制指令,在所述虚拟场景中执行该控制指令。
根据本发明的另一个方面,本发明提供了一种虚拟现实设备,包括显示屏,还包括模式选择单元、第一深度摄像头、第二深度摄像头、动作识别单元和指令发送单元;
所述模式选择单元,用于根据应用场景选择对用户肢体动作的识别模式,所述识别模式包括:仅手部模式、仅脚部模式、手脚并用模式;
所述第一深度摄像头,用于当所述模式选择单元选择仅手部模式或手脚并用模式时,按预设的频率采集用户手部的图像;
所述第二深度摄像头,用于当所述模式选择单元选择仅脚部模式或手脚并用模式时,按预设的频率采集用户脚部的图像;
所述动作识别单元,用于根据所述第一深度摄像头采集的图像识别用户手部的动作;以及根据所述第二深度摄像头采集的图像识别用户脚部的动作;
所述指令发送单元,用于对所述动作识别单元识别出的用户手部和/或脚部的某一动作,若存在与该动作对应的预先定义的控制指令时,则向所述显示屏播放的虚拟场景发送该控制指令,在所述虚拟场景中执行该控制指令。
根据本发明的又一个方面,本发明提供了一种虚拟现实系统的交互控制方法,包括:
根据应用场景选择对用户肢体动作的识别模式,所述识别模式包括:仅手部模式、仅脚部模式、手脚并用模式;
当选择仅手部模式时,利用第一深度摄像头按预设的频率采集用户手部的图像;当选择仅脚部模式时,利用第二深度摄像头按预设的频率采集用户脚部的图像;当选择手脚并用模式时,同时利用第一深度摄像头和第二深度摄像头按预设的频率分别采集用户手部和脚部的图像;
根据采集到的图像识别用户手部和/或脚部的动作;
对识别出的用户手部和/或脚部的某一动作,若存在与该动作对应的预先定义的控制指令,则向虚拟现实系统的虚拟场景发送该控制指令,在所述虚拟场景中执行该控制指令。
本发明的有益效果是:本发明实施例可以根据应用场景选择对用户肢体动作的识别模式,并利用两个深度摄像头分别采集用户手部和脚部的图像,从而识别用户手部和/或脚部的动作,若存在与用户动作对应的预先定义的控制指令,则向虚拟现实系统发送相应的控制指令,并在虚拟场景中执行该控制指令。用户可以实际需求选择仅使用双手、或仅使用双脚、或手脚并用地与虚拟现实系统进行交互,满足了需要多重控制的应用场景。由于用户可以通过脚部的动作控制虚拟现实系统,因而对于某些不便于使用手部动作进行操作的特殊用户,也可以通过双脚方便地使用虚拟现实设备。
附图说明
图1是本发明一个实施例提供的一种虚拟现实系统的交互控制装置的功能框图;
图2是本发明一个实施例提供的一种虚拟现实设备的功能框图;
图3是本发明一个实施例提供的一种虚拟现实系统的交互控制方法的流程图。
具体实施方式
本发明的设计构思是:现有的虚拟现实系统人机交互方式比较单一,主要是按键控制和手势控制,无法满足某些需要用户脚部操作的应用场景,也使得某些有特殊要求的用户,例如残疾用户,无法使用虚拟现实设备。针对这种情况,本发明通过两个深度摄像头分别采集用户手部和脚部的图像,从而识别用户和脚部的动作,用户可以根据选择的动作识别模式,仅使用双手、或仅使用双脚、或手脚并用地与虚拟现实系统进行交互,满足了需要多重控制的应用场景。由于用户可以通过脚部的动作控制虚拟现实系统,因而对于某些不便于使用手部动作进行操作的特殊用户,也可以通过双脚方便地使用虚拟现实设备。
实施例一
图1是本发明一个实施例提供的一种虚拟现实系统的交互控制装置的功能框图,如图1所示,本实施例提供的虚拟现实系统的交互控制装置包括模式选择单元110、第一深度摄像头120、第二深度摄像头130、动作识别单元140和指令发送单元150。
模式选择单元110选择用户肢体动作的识别模式,包括:仅手部模式、仅脚部模式和手脚并用模式。用户可以通过操作设备外部的硬件开关或虚拟现实场景的操作界面与模式选择单元110进行交互。
本实施例中的第一深度摄像头120和第二深度摄像头130均为TOF(Time ofFlying)摄像头,通过给目标连续发送光脉冲,然后用传感器接收从目标返回的光脉冲,通过探测光脉冲的飞行时间可以得到目标物的距离。
当模式选择单元110选择仅手部模式时,第一深度摄像头120按预设的频率采集用户手部的图像,第二深度摄像头130不工作。当模式选择单元110选择仅脚部模式时,第一深度摄像头120不工作,第二深度摄像头130按预设的频率采集用户脚部的图像。当模式选择单元110选择手脚并用模式时,第一深度摄像头120按预设的频率采集用户手部的图像,同时,第二深度摄像头130按预设的频率采集用户脚部的图像。
每当第一深度摄像头120或第二深度摄像头130采集了一帧图像,动作识别单元140根据第一深度摄像头120采集的图像识别用户手部的动作,根据第二深度摄像头130采集的图像识别用户脚部的动作。
第一深度摄像头120和第二深度摄像头130以特定的频率采集图像,通常两个摄像头的频率相同,也就是说在相同的时间内可以采集到相同数量的图像。当选择手脚并用模式时,两个摄像头采集到的图像都需要动作识别单元140进行处理,此时动作识别单元140需要处理的图像是仅手部模式或仅脚部模式的两倍,在处理资源比较紧张的情况下,有可能无法满足系统实时性的需要。针对这种情况,在一个优选实施例中,交互控制装置还包括图像选择单元160,当模式选择单元110选择手脚并用模式时,图像选择单元160按照预设的权重从第一深度摄像头120采集的图像中和第二深度摄像头130采集的图像中各选择若干图像输入到动作识别单元140。权重可以根据应用场景设定,例如对于弹钢琴这种虚拟应用场景,需要用户手脚并用,手部动作比较复杂,而脚部的动作相对简单,此时可以从第一深度摄像头120采集的图像中选择80%并从第二深度摄像头130采集的图像选择20%,例如根据图像采集时间的先后顺序,先选取第一深度摄像头120采集的4帧图像,然后选择第二深度摄像头130采集的1帧图像,以此类推。然后将选择的图像输入到动作识别单元140。动作识别单元140仅根据图像选择单元160选择的图像识别用户手部和脚部的动作,根据图像的时间戳,可以将识别出的用户手部和脚部动作组合起来,提高了动作识别的速度,满足了系统实时性需求,提高了用户的沉浸感。
优选地,本实施例中动作识别单元140包括训练模块141和匹配模块142。训练模块141使用预先采集的用户手部各种动作的图像和用户脚部各种动作的图像对一卷积神经网络(CNN)模型进行训练,建立用于识别用户手部和/或脚部动作的识别模型。本实施例采用如caffe、tensorflow等CNN的算法架构,这些CNN架构内部都已经存在图像处理模块。也就是说在进行训练或进行识别的时候CNN内部会首先进行图片处理。完成训练后,得到的模型可以用于识别用户手部和脚部的动作。
匹配模块142将第一深度摄像头120采集到的图像和第二深度摄像头130采集到的图像与训练模块141建立的识别模型进行匹配,从而识别出用户手部和/或脚部的动作。采集到的图片经过CNN内部的图像处理,提取特征后会和模型进行匹配,如果匹配成功,匹配模块142会输出识别的是用户手部还是脚部,并且判定是哪一种动作。
动作识别单元140识别出的用户手部或脚部的某一动作之后,若存在与该动作对应的预先定义的控制指令,则指令发送单元150向虚拟现实系统的虚拟场景发送该控制指令,在虚拟场景中执行该控制指令。
例如,预先定义“以脚跟为支点滑动”的动作控制页面滑动,当动作识别单元140根据第二深度摄像头130采集的图像识别出用户脚部“以脚跟为支点滑动”的动作时,指令发送单元150向虚拟现实系统的虚拟场景发送页面滑动的控制指令,且页面滑动的距离以脚部滑动的角度大小为依据。
再例如,预先定义“以脚跟为支点点动”的动作控制鼠标点击,当动作识别单元140根据第二深度摄像头130采集的图像识别出用户脚部“以脚跟为支点点动”的动作时,指令发送单元150向虚拟现实系统的虚拟场景发送鼠标点击的控制指令,脚部点动一次对应鼠标单击,脚部快速点动两次次对应鼠标双击。
本实施例通过深度摄像头采集用户手部和脚部的图像,从而识别用户的动作,使得用户可以根据需要使用手部动作或脚部动作与虚拟现实系统进行交互,满足了需要多重控制的应用场景。由于用户可以通过脚部的动作控制虚拟现实系统,因而对于某些不便于使用手部动作进行操作的特殊用户,也可以通过双脚方便地使用虚拟现实设备。
实施例二
图2是本发明一个实施例提供的一种虚拟现实设备的功能框图,如图2所示,本实施例提供的虚拟现实设备包括显示屏210、模式选择单元220、第一深度摄像头230、第二深度摄像头240、动作识别单元250和指令发送单元260。本实施例中的虚拟现实设备可以为头戴设备,此时第一深度摄像头230可以设置在虚拟现实头戴设备的前方,便于向前采集用户手部的图像;第二深度摄像头230可以设置在虚拟现实头戴设备的下方,便于向下采集用户脚部的图像。
模式选择单元220用于选择用户肢体动作的识别模式,包括:仅手部模式、仅脚部模式、手脚并用模式。第一深度摄像头230用于当模式选择单元220选择仅手部模式或手脚并用模式时,按预设的频率采集用户手部的图像。第二深度摄像头240用于当模式选择单元220选择仅脚部模式或手脚并用模式时,按预设的频率采集用户脚部的图像。模式选择单元220可以是虚拟现实设备外部设置的硬件开关,也可以是显示屏210显示的用户操作界面中设置的软件开关。
动作识别单元250根据第一深度摄像头230采集的图像识别用户手部的动作;以及根据第二深度摄像头240采集的图像识别用户脚部的动作。指令发送单元260对动作识别单元250识别出的用户手部和/或脚部的某一动作,若存在与该动作对应的预先定义的控制指令时,则向显示屏210的虚拟场景发送该控制指令,在虚拟场景中执行该控制指令。
优选地,本实施例提供的虚拟现实设备还包括图像选择单元270,当模式选择单元220选择手脚并用模式时,图像选择单元270按照预设的权重从第一深度摄像头230采集的图像中和第二深度摄像头240采集的图像中各选择若干图像;动作识别单元250仅根据图像选择单元270选择的图像识别用户手部和/或脚部的动作。
动作识别单元250包括训练模块251和匹配模块252。训练模块251使用预先采集的用户手部各种动作的图像和用户脚部各种动作的图像对一卷积神经网络模型进行训练,建立用于识别用户手部和/或脚部动作的识别模型。匹配模块252将第一深度摄像头230采集到的图像和/或第二深度摄像头240采集到的图像与训练模块251建立的识别模型进行匹配,从而识别出用户手部和/或脚部的动作。
实施例三
图3是本发明一个实施例提供的一种虚拟现实系统的交互控制方法的流程图。如图3所示,本实施例提供的虚拟现实系统的交互控制方法包括:
步骤S310:根据应用场景选择对用户肢体动作的识别模式。
步骤S320:判断识别模式为仅手部模式、仅脚部模式、或手脚并用模式。当识别模式为仅手部模式时,执行步骤S330;当识别模式为仅脚部模式时,执行步骤S340;当识别模式为手脚并用模式时,执行步骤S350。
步骤S330:利用第一深度摄像头按预设的频率采集用户手部的图像。
步骤S340:利用第二深度摄像头按预设的频率采集用户脚部的图像。
步骤S350:同时利用第一深度摄像头和第二深度摄像头按预设的频率分别采集用户手部和脚部的图像。
步骤S360:根据采集到的图像识别用户手部和/或脚部的动作。
在优选实施例中,步骤S360具体包括:使用预先采集的用户手部各种动作的图像和用户脚部各种动作的图像对一卷积神经网络模型进行训练,建立用于识别用户手部和/或脚部动作的识别模型;将第一深度摄像头采集到的图像和/或第二深度摄像头采集到的图像与识别模型进行匹配,从而识别出用户手部和/或脚部的动作。
考虑到系统的实时性需求,优选地,在步骤S360之前还包括:当选择手脚并用模式时,按照预设的权重从第一深度摄像头采集的图像中和第二深度摄像头采集的图像中各选择若干图像,仅根据选择的图像识别用户手部和/或脚部的动作,从而提高动作识别的速度,提高了用户的沉浸感。
步骤S370:对识别出的用户手部和/或脚部的某一动作,若存在与该动作对应的预先定义的控制指令时,则向虚拟现实系统的虚拟场景发送该控制指令,在虚拟场景中执行该控制指令。用户可以根据实际需要使用手部动作或脚部动作与虚拟现实系统进行交互,满足了需要多重控制的应用场景,由于用户可以通过脚部的动作控制虚拟现实系统,因而对于某些不便于使用手部动作进行操作的特殊用户,也可以通过双脚方便地使用虚拟现实设备。
以上所述,仅为本发明的具体实施方式,在本发明的上述教导下,本领域技术人员可以在上述实施例的基础上进行其他的改进或变形。本领域技术人员应该明白,上述的具体描述只是更好的解释本发明的目的,本发明的保护范围应以权利要求的保护范围为准。
需要说明的是:
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
本发明的虚拟现实系统的交互控制装置传统上包括处理器和以存储器形式的计算机程序产品或者计算机可读介质。存储器可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。存储器具有用于执行上述方法中的任何方法步骤的程序代码的存储空间。例如,用于程序代码的存储空间可以包括分别用于实现上面的方法中的各种步骤的各个程序代码。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘,紧致盘(CD)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为便携式或者固定存储单元。该存储单元可以类似布置的存储段、存储空间等。程序代码可以例如以适当形式进行压缩。通常,存储单元包括用于执行根据本发明的方法步骤的计算机可读代码,即可以由例如处理器读取的代码,这些代码被运行时,导致该虚拟现实系统的交互控制装置执行上面所描述的方法中的各个步骤。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。单词“包括”不排除存在未列在权利要求中的元件或步骤。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下被实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。

Claims (10)

1.一种虚拟现实系统的交互控制装置,其特征在于,包括模式选择单元、第一深度摄像头、第二深度摄像头、动作识别单元和指令发送单元;
所述模式选择单元,用于根据应用场景选择对用户肢体动作的识别模式,所述识别模式包括:仅手部模式、仅脚部模式、手脚并用模式;
所述第一深度摄像头,用于当所述模式选择单元选择仅手部模式或手脚并用模式时,按预设的频率采集用户手部的图像;
所述第二深度摄像头,用于当所述模式选择单元选择仅脚部模式或手脚并用模式时,按预设的频率采集用户脚部的图像;
所述动作识别单元,用于根据所述第一深度摄像头采集的图像识别用户手部的动作;以及根据所述第二深度摄像头采集的图像识别用户脚部的动作;
所述指令发送单元,用于对所述动作识别单元识别出的用户手部和/或脚部的某一动作,若存在与该动作对应的预先定义的控制指令时,则向所述虚拟现实系统的虚拟场景发送该控制指令,在所述虚拟场景中执行该控制指令。
2.如权利要求1所述的交互控制装置,其特征在于,所述交互控制装置还包括图像选择单元,当所述模式选择单元选择手脚并用模式时,
所述图像选择单元,用于按照预设的权重从所述第一深度摄像头采集的图像中和所述第二深度摄像头采集的图像中各选择若干图像;
所述动作识别单元,具体用于仅根据所述图像选择单元选择的图像识别用户手部和/或脚部的动作。
3.如权利要求1所述的交互控制装置,其特征在于,所述动作识别单元包括训练模块和匹配模块;
所述训练模块,用于使用预先采集的用户手部各种动作的图像和用户脚部各种动作的图像对一卷积神经网络模型进行训练,建立用于识别用户手部和/或脚部动作的识别模型;
所述匹配模块,用于将所述第一深度摄像头采集到的图像和/或所述第二深度摄像头采集到的图像与所述训练模块建立的识别模型进行匹配,从而识别出用户手部和/或脚部的动作。
4.一种虚拟现实设备,包括显示屏,其特征在于,还包括模式选择单元、第一深度摄像头、第二深度摄像头、动作识别单元和指令发送单元;
所述模式选择单元,用于根据应用场景选择对用户肢体动作的识别模式,所述识别模式包括:仅手部模式、仅脚部模式、手脚并用模式;
所述第一深度摄像头,用于当所述模式选择单元选择仅手部模式或手脚并用模式时,按预设的频率采集用户手部的图像;
所述第二深度摄像头,用于当所述模式选择单元选择仅脚部模式或手脚并用模式时,按预设的频率采集用户脚部的图像;
所述动作识别单元,用于根据所述第一深度摄像头采集的图像识别用户手部的动作;以及根据所述第二深度摄像头采集的图像识别用户脚部的动作;
所述指令发送单元,用于对所述动作识别单元识别出的用户手部和/或脚部的某一动作,若存在与该动作对应的预先定义的控制指令时,则向所述显示屏播放的虚拟场景发送该控制指令,在所述虚拟场景中执行该控制指令。
5.如权利要求4所述的虚拟现实设备,其特征在于,还包括图像选择单元,当所述模式选择单元选择手脚并用模式时,
所述图像选择单元,用于按照预设的权重从所述第一深度摄像头采集的图像中和所述第二深度摄像头采集的图像中各选择若干图像;
所述动作识别单元,具体用于仅根据所述图像选择单元选择的图像识别用户手部和/或脚部的动作。
6.如权利要求4所述的虚拟现实设备,其特征在于,所述动作识别单元包括训练模块和匹配模块;
所述训练模块,用于使用预先采集的用户手部各种动作的图像和用户脚部各种动作的图像对一卷积神经网络模型进行训练,建立用于识别用户手部和/或脚部动作的识别模型;
所述匹配模块,用于将所述第一深度摄像头采集到的图像和/或所述第二深度摄像头采集到的图像与所述训练模块建立的识别模型进行匹配,从而识别出用户手部和/或脚部的动作。
7.如权利要求4所述的虚拟现实设备,其特征在于,所述模式选择单元为在所述虚拟现实设备外部设置的硬件开关,或者在所述显示屏显示的用户操作界面中设置的软件开关。
8.一种虚拟现实系统的交互控制方法,其特征在于,包括:
根据应用场景选择对用户肢体动作的识别模式,所述识别模式包括:仅手部模式、仅脚部模式、手脚并用模式;
当选择仅手部模式时,利用第一深度摄像头按预设的频率采集用户手部的图像;当选择仅脚部模式时,利用第二深度摄像头按预设的频率采集用户脚部的图像;当选择手脚并用模式时,同时利用第一深度摄像头和第二深度摄像头按预设的频率分别采集用户手部和脚部的图像;
根据采集到的图像识别用户手部和/或脚部的动作;
对识别出的用户手部和/或脚部的某一动作,若存在与该动作对应的预先定义的控制指令,则向虚拟现实系统的虚拟场景发送该控制指令,在所述虚拟场景中执行该控制指令。
9.如权利要求8所述的交互控制方法,其特征在于,当选择手脚并用模式时,所述方法还包括:
按照预设的权重从第一深度摄像头采集的图像中和第二深度摄像头采集的图像中各选择若干图像;
仅根据选择的图像识别用户手部和/或脚部的动作。
10.如权利要求8所述的交互控制方法,其特征在于,所述根据采集到的图像识别用户手部和/或脚部的动作,具体包括:
使用预先采集的用户手部各种动作的图像和用户脚部各种动作的图像对一卷积神经网络模型进行训练,建立用于识别用户手部和/或脚部动作的识别模型;
将第一深度摄像头采集到的图像和/或第二深度摄像头采集到的图像与所述识别模型进行匹配,从而识别用户手部和/或脚部的动作。
CN201611208772.XA 2016-12-23 2016-12-23 一种虚拟现实系统的交互控制方法和装置及虚拟现实设备 Active CN107066081B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611208772.XA CN107066081B (zh) 2016-12-23 2016-12-23 一种虚拟现实系统的交互控制方法和装置及虚拟现实设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611208772.XA CN107066081B (zh) 2016-12-23 2016-12-23 一种虚拟现实系统的交互控制方法和装置及虚拟现实设备

Publications (2)

Publication Number Publication Date
CN107066081A true CN107066081A (zh) 2017-08-18
CN107066081B CN107066081B (zh) 2023-09-15

Family

ID=59623216

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611208772.XA Active CN107066081B (zh) 2016-12-23 2016-12-23 一种虚拟现实系统的交互控制方法和装置及虚拟现实设备

Country Status (1)

Country Link
CN (1) CN107066081B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107527033A (zh) * 2017-08-25 2017-12-29 歌尔科技有限公司 摄像头模组和社交系统
CN107831890A (zh) * 2017-10-11 2018-03-23 北京华捷艾米科技有限公司 基于ar的人机交互方法、装置及设备
CN108469900A (zh) * 2018-03-29 2018-08-31 北京微播视界科技有限公司 信息触发方法、装置、系统及服务器
CN111026277A (zh) * 2019-12-26 2020-04-17 深圳市商汤科技有限公司 一种交互控制方法及装置、电子设备和存储介质
CN111880643A (zh) * 2019-06-26 2020-11-03 广州凡拓数字创意科技股份有限公司 导航方法和装置
CN112764546A (zh) * 2021-01-29 2021-05-07 重庆子元科技有限公司 一种虚拟人物位移控制方法、装置及终端设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134152A (ja) * 2008-12-04 2010-06-17 Brother Ind Ltd ヘッドマウントディスプレイ
CN102033607A (zh) * 2009-09-29 2011-04-27 德信互动科技(北京)有限公司 人机交互信息系统及实现人机交互的方法
CN102580312A (zh) * 2012-03-13 2012-07-18 刘阳 射击游戏仿真系统
CN103116857A (zh) * 2013-02-01 2013-05-22 武汉百景互动科技有限责任公司 一种基于体感控制的虚拟样板房漫游系统
CN103389794A (zh) * 2012-05-08 2013-11-13 联发科技股份有限公司 交互显示系统及其方法
US20140160055A1 (en) * 2012-12-12 2014-06-12 Jeffrey Margolis Wearable multi-modal input device for augmented reality
CN104407694A (zh) * 2014-10-29 2015-03-11 山东大学 一种结合人脸和手势控制的人机交互方法及装置
CN105653037A (zh) * 2015-12-31 2016-06-08 张小花 一种基于行为分析的交互系统及方法
CN206411612U (zh) * 2016-12-23 2017-08-15 歌尔科技有限公司 一种虚拟现实系统的交互控制装置及虚拟现实设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134152A (ja) * 2008-12-04 2010-06-17 Brother Ind Ltd ヘッドマウントディスプレイ
CN102033607A (zh) * 2009-09-29 2011-04-27 德信互动科技(北京)有限公司 人机交互信息系统及实现人机交互的方法
CN102580312A (zh) * 2012-03-13 2012-07-18 刘阳 射击游戏仿真系统
CN103389794A (zh) * 2012-05-08 2013-11-13 联发科技股份有限公司 交互显示系统及其方法
US20140160055A1 (en) * 2012-12-12 2014-06-12 Jeffrey Margolis Wearable multi-modal input device for augmented reality
CN103116857A (zh) * 2013-02-01 2013-05-22 武汉百景互动科技有限责任公司 一种基于体感控制的虚拟样板房漫游系统
CN104407694A (zh) * 2014-10-29 2015-03-11 山东大学 一种结合人脸和手势控制的人机交互方法及装置
CN105653037A (zh) * 2015-12-31 2016-06-08 张小花 一种基于行为分析的交互系统及方法
CN206411612U (zh) * 2016-12-23 2017-08-15 歌尔科技有限公司 一种虚拟现实系统的交互控制装置及虚拟现实设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107527033A (zh) * 2017-08-25 2017-12-29 歌尔科技有限公司 摄像头模组和社交系统
CN107831890A (zh) * 2017-10-11 2018-03-23 北京华捷艾米科技有限公司 基于ar的人机交互方法、装置及设备
CN108469900A (zh) * 2018-03-29 2018-08-31 北京微播视界科技有限公司 信息触发方法、装置、系统及服务器
CN111880643A (zh) * 2019-06-26 2020-11-03 广州凡拓数字创意科技股份有限公司 导航方法和装置
CN111026277A (zh) * 2019-12-26 2020-04-17 深圳市商汤科技有限公司 一种交互控制方法及装置、电子设备和存储介质
CN112764546A (zh) * 2021-01-29 2021-05-07 重庆子元科技有限公司 一种虚拟人物位移控制方法、装置及终端设备
CN112764546B (zh) * 2021-01-29 2022-08-09 重庆子元科技有限公司 一种虚拟人物位移控制方法、装置及终端设备

Also Published As

Publication number Publication date
CN107066081B (zh) 2023-09-15

Similar Documents

Publication Publication Date Title
CN107066081A (zh) 一种虚拟现实系统的交互控制方法和装置及虚拟现实设备
US10360715B2 (en) Storage medium, information-processing device, information-processing system, and avatar generating method
CN112198959A (zh) 虚拟现实交互方法、装置及系统
CN206411612U (zh) 一种虚拟现实系统的交互控制装置及虚拟现实设备
JP2012515968A (ja) 顔検出及びホットスポットの動きによりメディアを制御する方法
CN104239416A (zh) 一种用户识别方法和系统
CN106446569A (zh) 一种运动指导方法和终端
US20150379333A1 (en) Three-Dimensional Motion Analysis System
CN108096833B (zh) 基于级联神经网络的体感游戏控制方法及装置、计算设备
CN109165555A (zh) 基于图像识别的人机猜拳方法、装置与存储介质
CN103777748A (zh) 一种体感输入方法及装置
CN107357434A (zh) 一种虚拟现实环境下的信息输入设备、系统及方法
CN104991734B (zh) 一种对基于触屏方式的游戏实现操控的方法及装置
CN110363814A (zh) 一种视频处理方法、装置、电子装置和存储介质
CN114245155A (zh) 直播方法、装置及电子设备
JP2017037424A (ja) 学習装置、認識装置、学習プログラム、及び認識プログラム
CN114581535B (zh) 图像中用户骨关键点标注方法、装置、存储介质及设备
CN106502401B (zh) 一种图像控制方法及装置
WO2018006481A1 (zh) 一种移动终端的体感操作方法及装置
CN114513694A (zh) 评分确定方法、装置、电子设备和存储介质
CN114063784A (zh) 一种模拟化虚拟xr box体感互动系统及方法
CN108543308B (zh) 虚拟场景中的虚拟对象的选择方法和装置
CN109407826A (zh) 球类运动模拟方法、装置、存储介质及电子设备
CN108958690B (zh) 多屏互动方法、装置、终端设备、服务器及存储介质
CN111694427A (zh) Ar虚拟摇蜜互动体验系统、方法、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20201012

Address after: 261031 north of Yuqing East Street, east of Dongming Road, Weifang High tech Zone, Weifang City, Shandong Province (Room 502, Geer electronic office building)

Applicant after: GoerTek Optical Technology Co.,Ltd.

Address before: 266104 Laoshan Qingdao District North House Street investment service center room, Room 308, Shandong

Applicant before: GOERTEK TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20221116

Address after: 266104 No. 500, Songling Road, Laoshan District, Qingdao, Shandong

Applicant after: GOERTEK TECHNOLOGY Co.,Ltd.

Address before: 261031 east of Dongming Road, north of Yuqing East Street, Weifang High tech Zone, Weifang City, Shandong Province (Room 502, Geer electronics office building)

Applicant before: GoerTek Optical Technology Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant