CN204463031U - 一种3d场景中重现物体的系统和虚拟现实头戴设备 - Google Patents
一种3d场景中重现物体的系统和虚拟现实头戴设备 Download PDFInfo
- Publication number
- CN204463031U CN204463031U CN201420859459.2U CN201420859459U CN204463031U CN 204463031 U CN204463031 U CN 204463031U CN 201420859459 U CN201420859459 U CN 201420859459U CN 204463031 U CN204463031 U CN 204463031U
- Authority
- CN
- China
- Prior art keywords
- real
- body form
- information
- scene
- time change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本实用新型公开了一种3D场景中重现物体的系统和虚拟现实头戴设备,所述系统包括用于分别对待显示的物体实时采集至少两路视频流数据的物体采集单元;用于从所述至少两路视频流数据中识别出实时变化的物体形状的物体识别单元;用于根据所述实时变化的物体形状,获得对应的物体运动轨迹的物体追踪单元;用于将所述实时变化的物体形状和对应的物体运动轨迹处理成3D图像实时叠加投影在3D场景中的物体投影单元。本实用新型的技术方案能够将物体重现在3D场景中,达到3D场景中显示真实物体的目的。
Description
技术领域
本实用新型涉及虚拟现实技术领域,特别涉及一种3D场景中重现物体的系统和虚拟现实头戴设备。
背景技术
虚拟现实技术未来将会发展成为一种改变人们生活方式的新突破,目前,虚拟现实技术如何在虚拟世界中与目标进行互动是虚拟现实技术所面临的巨大挑战,因此虚拟现实技术想要真正进入消费级市场还有一段很长的路要走。
当前已有的各种虚拟现实装备依然阻挡着用户和虚拟世界之间的交流,在3D场景中并不能追踪身体的相关部位,比如用户的手部运动轨迹现在就无法真正模拟。
实用新型内容
本实用新型提供了一种3D场景中输入物体的系统和虚拟现实头戴设备,以解决现有技术在3D场景中无法真正重现物体的问题。
为达到上述目的,本实用新型的技术方案是这样实现的:
一方面,本实用新型提供了一种3D场景中输入物体的系统,包括:物体采集单元、物体识别单元、物体追踪单元和物体投影单元;
所述物体采集单元,用于分别对待显示的物体实时采集至少两路视频流数据;
所述物体识别单元,用于从所述至少两路视频流数据中识别出实时变化的物体形状;
所述物体追踪单元,用于根据所述实时变化的物体形状,获得对应的物体运动轨迹;
所述物体投影单元,用于将所述实时变化的物体形状和所述对应的物体运动轨迹处理成3D图像实时叠加投影在3D场景中。
优选地,所述物体识别单元包括:
采样模块,用于对所述至少两路视频流数据中的各路分别进行采样处理,获得每次采样的视频图像数据;
轮廓提取模块,用于判断所述视频图像数据中是否包含物体,若包含则对所述视频图像数据进行二值化处理,提取物体轮廓信息;
形状识别模块,用于在预先设定的物体模型数据库中识别出所述物体轮廓信息对应的物体形状;
形状合成模块,用于合成各路视频流数据的每次采样识别出的物体形状,得到实时变化的物体形状。
优选地,所述物体追踪单元包括:
位置信息获取模块,用于获得实时变化的物体形状的相对空间位置信息;
触点信息获取模块,用于根据实时变化的物体形状上确定出的触点,获得所述实时变化的物体形状上的触点的变化信息,所述触点为标识物体的特征关键点;
运动轨迹获取模块,用于根据所述相对空间位置信息和所述触点的变化信息,在预先设定的运动轨迹数据库中获得相应的物体运动轨迹。
优选地,所述位置信息获取模块具体用于,
从所述至少两路视频数据流的视频图像信息中获得物体形状变化的角度信息;
根据所述物体形状变化的角度信息获得物体的距离信息;
根据所述物体形状变化的角度信息和所述物体的距离信息获得物体的相对空间位置信息。
优选地,所述位置信息获取模块具体用于,
从所述至少两路视频数据流的视频图像信息中获得物体形状变化的角度信息;
通过距离传感器实时感应物体的距离信息;
根据所述物体形状变化的角度信息和所述物体的距离信息获得物体的相对空间位置信息。
优选地,所述物体投影单元,进一步用于将所述实时变化的物体形状和所述对应的物体运动轨迹处理成3D图像,根据分屏技术将所述3D图像投影到3D场景中。
优选地,所述物体采集单元包括两个摄像头;
所述两个摄像头,用于分别对待显示的物体实时采集两路视频流数据。
另一方面,本实用新型提供了一种虚拟现实头戴设备,所述虚拟现实头戴设备包括上述技术方案提供的3D场景中重现物体的系统。
优选地,所述3D场景中重现物体的系统的物体采集单元为设置在虚拟现实头戴设备上的一前置摄像头和一底置摄像头。
本实用新型实施例的有益效果是:本实用新型实施例公开了一种3D场景中重现物体的系统和虚拟现实头戴设备,所述系统的物体采集单元对待显示物体实时采集至少两路视频流数据,物体识别单元从所述至少两路视频流数据中识别出具有完整物体信息的物体形状,经物体追踪单元获得所述实时变化的物体形状相应的物体运动轨迹,通过物体投影单元将实时变化的物体形状和对应的物体运动轨迹处理成3D图像实时叠加投影在3D场景中,从而达到了在3D场景中显示真实物体的目的。相比于现有技术,本实用新型不需要根据数据库的物体形态进行重新绘制需显示的物体,可以直接将采集到的物体图像进行真实显示,以提高用户的使用体验。
附图说明
图1为本实用新型实施例提供的一种3D场景中重现物体的系统结构示意图;
图2为本实用新型实施例提供的一种将用户手势重现与虚拟现实头戴设备中的技术流程示意图。
具体实施方式
为使本实用新型的目的、技术方案和优点更加清楚,下面将结合附图对本实用新型实施方式作进一步地详细描述。
本实用新型的整体思路是:利用至少两个摄像头从不同角度实时采集物体,根据每个摄像头采集的视频流数据识别物体形状,根据识别出的物体形状进获得相应的物体运动轨迹,将实时变化的物体形状和对应的物体运动轨迹处理成3D图像实时叠加投影在3D场景中,从而在3D场景中重现真实物体。
本实用新型的一方面提供了一种3D场景中重现物体的系统,如图1所示,图1为本实用新型实施例提供的一种3D场景中重现物体的系统结构示意图,所述系统包括:物体采集单元11、物体识别单元12、物体追踪单元13和物体投影单元14。
物体采集单元11,用于分别对待显示的物体实时采集至少两路视频流数据。
其中,物体采集单元11可以通过多个摄像头,从不同角度实时采集待显示的物体,从而获得多路视频流数据。在实际应用中,可以根据系统的数据处理性能和系统精度要求,选择合适数量的摄像头采集相应路数的视频流数据。需要说明的是,物体采集单元11中的摄像头可以为普通性能的白光摄像头,也可以是红外摄像头,本实施例并不对物体采集单元做特别限定。优选地,物体采集单元11包括两个摄像头,用于分别对待显示的物体实时采集两路视频流数据。
物体识别单元12,用于从至少两路视频流数据中识别出实时变化的物体形状。
物体追踪单元13,用于根据实时变化的物体形状,获得对应的物体运动轨迹。
物体投影单元14,用于将实时变化的物体形状和对应的物体运动轨迹处理成3D图像实时叠加投影在3D场景中。
在实际应用中,物体投影单元14,用于将实时变化的物体形状和对应的物体运动轨迹处理成3D图像,根据分屏技术将所述3D图像投影到3D场景中。即采用主显示屏显示3D场景,将处理成3D图像的实时变化的物体形状和对应的物体运动轨迹通过另一显示屏进行显示,通过光学的相关原理,使呈现到人眼中的是包含物体的形状和运动姿态的3D场景。
本实施例的物体采集单元对物体实时采集至少两路视频流数据,物体识别单元从至少两路视频流数据中识别出具有完整物体信息的物体形状,经物体追踪单元获得相应的物体运动轨迹后,通过物体投影单元将实时变化的物体形状和对应的物体运动轨迹处理成3D图像实时叠加投影在3D场景中,从而达到了在3D场景中显示用户真实物体的目的。
优选地,在上述图1所示实施例中的物体识别单元12包括:采样模块、轮廓提取模块、形状识别模块和形状合成模块。
采样模块,用于对至少两路视频流数据中的各路分别进行采样处理,获得每次采样的视频图像数据。
轮廓提取模块,用于判断视频图像数据中是否包含物体,若包含则对视频图像数据进行二值化处理,提取物体轮廓信息。
形状识别模块,用于在预先设定的物体模型数据库中识别出物体轮廓信息对应的物体形状。
示例性的,上述物体模型数据库保存着各种物体模型,该物体模型即可以是具有生命特征的人体手部、头部等部位,也可以机械、电子等设备,此时形状识别模块则可以根据该物体模型数据库中的各种物体模型对该物体轮廓信息进行识别,获得相应的物体形状。
形状合成模块,用于合成各路视频流数据的每次采样后识别出的物体形状,得到实时变化的物体形状。
在实际应用中,由于每一路视频流数据采用到的都是物体的一部分,无法在同一时刻获得完整的物体,因此本实施例采用形状合成模块,将各路视频流数据的每次采样后识别出的物体形状进行合成处理,以获得更多信息的物体形状。
由上所述,识别单元根据各路视频流数据中的物体轮廓信息识别出相应的物体形状,并将多路视频流数据中已识别出的物体进行合成处理,得到包含物体全部信息的物体形状,从而加强重现在3D场景中的物体的真实效果,提高用户的使用体验。
优选地,在上述图1所示优选实施例中的物体追踪单元包括:位置信息获取模块、触点信息获取模块和运动轨迹获取模块。
位置信息获取模块,用于获得实时变化的物体形状的相对空间位置信息。
由于多个摄像头同一时刻对用户手势进行拍摄时,每个摄像头发出的光线会和用户手势形成一个夹角,如用户手势发生移动或变化则每个摄像头发出的光线与用户手势形成的夹角可能会发生变化,而这些夹角的变化反映在视频流图像数据中则表现为空间位置的变化,因此本技术方案基于该客观事实获取实时变化的手势形状的相对空间位置信息。
具体的,本实用新型示意性的示出两种获取实时变化的手势形状的相对空间位置信息。其中,第一种获得物体形状的相对空间位置信息的方式是:
位置信息获取模块从上述物体采集单元中的至少两路视频数据流的视频图像信息中获得物体形状变化的角度信息;根据物体形状变化的角度信息获得物体的距离信息,结合物体形状变化的角度信息和物体的距离信息获得物体的相对空间位置信息。
第二种获得物体形状的相对空间位置信息的方式是:
位置信息获取模块从上述物体采集单元中的至少两路视频数据流的视频图像信息中获得物体形状变化的角度信息;通过距离传感器实时感应物体的距离信息;结合物体形状变化的角度信息和物体的距离信息获得物体的相对空间位置信息。
上述两种方案均通过结合物体变化的角度信息和物体的实时距离信息提高获得的物体形状的相对空间位置信息的准确度。其中第一种方案不需要额外的传感器,只通过视频流数据本身提供的信息就可以获得物体形状的相对空间位置信息,但是需要通过高级算法实现,会增加系统的计算复杂度;而第二种方案通过距离传感器实时感应物体的距离变化,通过简单的算法就可获得较高的精度的相对空间位置信息。在实际使用时,可以根据具体设计要求选择合适的方案。
触点信息获取模块,用于根据实时变化的物体形状上确定出的触点,获得实时变化的物体形状上的触点的变化信息,所述触点为标识物体的特征关键点。
需要说明的是,本模块中的触点为标识物体的特征关键点,该关键点优选地为物体运动的各个关节点,从而更好的确定实时变化的物体形状。本技术方案并不对物体形状上的触点的数量和触点设的设置方式做特别限定,在设计过程中可以综合衡量系统精度和系统的数据处理能力等方面的要求具体设计。
运动轨迹获取模块,用于根据相对空间位置信息和触点的变化信息,在预先设定的运动轨迹数据库中获得相应的物体运动轨迹。
本实用新型的另一方面提供了一种虚拟现实头戴设备,该虚拟现实头戴设备包括上述技术方案提供的3D场景中重现物体的系统。
优选地,该3D场景中重现物体的系统的物体采集单元为设置在虚拟现实头戴设备上的一前置摄像头和一底置摄像头。
为更加详细的说明本技术方案的有益效果,现将用户手部重现在虚拟现实头戴设备为例进行说明。
该虚拟头戴设备包括:用于显示3D虚拟现实场景的显示屏和上述技术方案的3D场景中重现物体的系统,其中3D场景中重现物体的系统的物体采集单元为设置在虚拟现实头戴设备上的一前置摄像头和一底置摄像头。
该将用户手势重现于虚拟现实头戴设备中的工作原理是:通过前置摄像头和底置摄像头对用户的手部进行实时采集,获得两路视频流数据,从两路视频流数据中识别出手势形状,根据实时变化的手势形状获得相应的手势动作,将该手势动作处理成3D图像实时叠加投影在3D虚拟现实场景中。
其中,根据视频流数据获取手势动作,并将该手势动作重现于3D虚拟现实头戴设备的技术流程如图2所示:
S200,获取前置摄像头和底置摄像头采集到用户手势的视频流数据。
S201,对当前时刻的两路视频流数据分别进行视频采样处理,得到相应的视频图像。
S202,判断视频图像中是否有用户的手势,如果有,则跳转到步骤S202,如果没有,则获取下一时刻的视频流数据。
S203,对视频图像数据进行二值化处理,提取手部轮廓信息。
S204,根据预先设定的手势模型从手部轮廓信息中识别出当前的手势形状。
S205,合成两路视频流数据采样后识别出的手势形状,获得包含更多手部信息的手势形状。
S206,获取手势的空间位置变化信息。
S207,根据手势触点的变化信息和手势空间位置变化信息,利用HMM(Hidden Markov Model,隐马尔可夫模型)动态手势识别方法,获得实时变化的手势形状的相应手势动作。
S208,将上述手势动作叠加投影到3D虚拟现实场景中。
本实施例将3D场景中重现物体的系统应用在虚拟现实头戴设备中,能够通过该3D场景中重现物体的系统将用户自己手部重现于虚拟现实头戴设备中,使虚拟现实头戴设备显示用户的真实手部,从而提高用户的体验。
综上所述,本实用新型实施例公开了一种3D场景中重现物体的系统和虚拟现实头戴设备,所述系统的物体采集单元对待显示物体实时采集至少两路视频流数据,物体识别单元从所述至少两路视频流数据中识别出具有完整物体信息的物体形状,经物体追踪单元获得所述实时变化的物体形状相应的物体运动轨迹,通过物体投影单元将实时变化的物体形状和对应的物体运动轨迹处理成3D图像实时叠加投影在3D场景中,从而达到了在3D场景中显示真实物体的目的。相比于现有技术,本实用新型不需要根据数据库的物体形态进行重新绘制需显示的物体,可以直接将采集到的物体图像进行真实显示,以提高用户的使用体验。
以上所述仅为本实用新型的较佳实施例而已,并非用于限定本实用新型的保护范围。凡在本实用新型的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本实用新型的保护范围内。
Claims (9)
1.一种3D场景中重现物体的系统,其特征在于,包括:物体采集单元、物体识别单元、物体追踪单元和物体投影单元;
所述物体采集单元,用于分别对待显示的物体实时采集至少两路视频流数据;
所述物体识别单元,用于从所述至少两路视频流数据中识别出实时变化的物体形状;
所述物体追踪单元,用于根据所述实时变化的物体形状,获得对应的物体运动轨迹;
所述物体投影单元,用于将所述实时变化的物体形状和所述对应的物体运动轨迹处理成3D图像实时叠加投影在3D场景中。
2.根据权利要求1所述的系统,其特征在于,所述物体识别单元包括:
采样模块,用于对所述至少两路视频流数据中的各路分别进行采样处理,获得每次采样的视频图像数据;
轮廓提取模块,用于判断所述视频图像数据中是否包含物体,若包含则对所述视频图像数据进行二值化处理,提取物体轮廓信息;
形状识别模块,用于在预先设定的物体模型数据库中识别出所述物体轮廓信息对应的物体形状;
形状合成模块,用于合成各路视频流数据的每次采样识别出的物体形状,得到实时变化的物体形状。
3.根据权利要求1所述的系统,其特征在于,所述物体追踪单元包括:
位置信息获取模块,用于获得实时变化的物体形状的相对空间位置信息;
触点信息获取模块,用于根据实时变化的物体形状上确定出的触点,获得所述实时变化的物体形状上的触点的变化信息,所述触点为标识物体的特征关键点;
运动轨迹获取模块,用于根据所述相对空间位置信息和所述触点的变化信息,在预先设定的运动轨迹数据库中获得相应的物体运动轨迹。
4.根据权利要求3所述的系统,其特征在于,所述位置信息获取模块具体用于,
从所述至少两路视频数据流的视频图像信息中获得物体形状变化的角度信息;
根据所述物体形状变化的角度信息获得物体的距离信息;
根据所述物体形状变化的角度信息和所述物体的距离信息获得物体的相对空间位置信息。
5.根据权利要求3所述的系统,其特征在于,所述位置信息获取模块具体用于,
从所述至少两路视频数据流的视频图像信息中获得物体形状变化的角度信息;
通过距离传感器实时感应物体的距离信息;
根据所述物体形状变化的角度信息和所述物体的距离信息获得物体的相对空间位置信息。
6.根据权利要求1所述的系统,其特征在于,所述物体投影单元,进一步用于将所述实时变化的物体形状和所述对应的物体运动轨迹处理成3D图像,根据分屏技术将所述3D图像投影到3D场景中。
7.根据权利要求1所述的系统,其特征在于,所述物体采集单元包括两个摄像头;
所述两个摄像头,用于分别对待显示的物体实时采集两路视频流数据。
8.一种虚拟现实头戴设备,其特征在于,所述虚拟现实头戴设备包括上述权利要求1-7任一项所述的3D场景中重现物体的系统。
9.根据权利要求8所述的设备,其特征在于,所述3D场景中重现物体的系统的物体采集单元为设置在虚拟现实头戴设备上的一前置摄像头和一底置摄像头。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201420859459.2U CN204463031U (zh) | 2014-12-30 | 2014-12-30 | 一种3d场景中重现物体的系统和虚拟现实头戴设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201420859459.2U CN204463031U (zh) | 2014-12-30 | 2014-12-30 | 一种3d场景中重现物体的系统和虚拟现实头戴设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN204463031U true CN204463031U (zh) | 2015-07-08 |
Family
ID=53669891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201420859459.2U Active CN204463031U (zh) | 2014-12-30 | 2014-12-30 | 一种3d场景中重现物体的系统和虚拟现实头戴设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN204463031U (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104571511A (zh) * | 2014-12-30 | 2015-04-29 | 青岛歌尔声学科技有限公司 | 一种3d场景中重现物体的系统和方法 |
CN105915818A (zh) * | 2016-05-10 | 2016-08-31 | 网易(杭州)网络有限公司 | 一种视频处理方法和装置 |
CN105955455A (zh) * | 2016-04-15 | 2016-09-21 | 北京小鸟看看科技有限公司 | 一种在虚拟场景中添加对象的装置和方法 |
US10482670B2 (en) | 2014-12-30 | 2019-11-19 | Qingdao Goertek Technology Co., Ltd. | Method for reproducing object in 3D scene and virtual reality head-mounted device |
-
2014
- 2014-12-30 CN CN201420859459.2U patent/CN204463031U/zh active Active
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104571511A (zh) * | 2014-12-30 | 2015-04-29 | 青岛歌尔声学科技有限公司 | 一种3d场景中重现物体的系统和方法 |
WO2016107230A1 (zh) * | 2014-12-30 | 2016-07-07 | 青岛歌尔声学科技有限公司 | 一种3d场景中重现物体的系统和方法 |
US9842434B2 (en) | 2014-12-30 | 2017-12-12 | Qingdao Goertek Technology Co., Ltd. | System and method for reproducing objects in 3D scene |
US10482670B2 (en) | 2014-12-30 | 2019-11-19 | Qingdao Goertek Technology Co., Ltd. | Method for reproducing object in 3D scene and virtual reality head-mounted device |
CN105955455A (zh) * | 2016-04-15 | 2016-09-21 | 北京小鸟看看科技有限公司 | 一种在虚拟场景中添加对象的装置和方法 |
CN105915818A (zh) * | 2016-05-10 | 2016-08-31 | 网易(杭州)网络有限公司 | 一种视频处理方法和装置 |
CN105915818B (zh) * | 2016-05-10 | 2019-07-02 | 网易(杭州)网络有限公司 | 一种视频处理方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104571511A (zh) | 一种3d场景中重现物体的系统和方法 | |
CN204463032U (zh) | 一种3d场景中输入手势的系统和虚拟现实头戴设备 | |
Rhodin et al. | Egocap: egocentric marker-less motion capture with two fisheye cameras | |
CN105930767B (zh) | 一种基于人体骨架的动作识别方法 | |
CN104571510A (zh) | 一种3d场景中输入手势的系统和方法 | |
Zhang et al. | Real-time human motion tracking using multiple depth cameras | |
CN105739702B (zh) | 用于自然人机交互的多姿态指尖跟踪方法 | |
CN204463031U (zh) | 一种3d场景中重现物体的系统和虚拟现实头戴设备 | |
Cui et al. | 3D semantic map construction using improved ORB-SLAM2 for mobile robot in edge computing environment | |
CN102243687A (zh) | 一种基于动作识别技术的体育教学辅助系统及其实现方法 | |
CN110544301A (zh) | 一种三维人体动作重建系统、方法和动作训练系统 | |
CN202662011U (zh) | 一种基于动作识别技术的体育教学辅助系统 | |
CN105912985A (zh) | 基于能量函数的人体骨架关节点的行为动作表示方法 | |
CN104821010A (zh) | 基于双目视觉的人手三维信息实时提取方法及系统 | |
CN110211222A (zh) | 一种ar沉浸式旅游导览方法、装置、存储介质及终端设备 | |
CN104766345A (zh) | 基于衣服特征点的身体扫描及运动捕捉方法 | |
Zhu et al. | Real-time motion capture: An overview | |
CN105225270A (zh) | 一种信息处理方法及电子设备 | |
Jo et al. | Tracking and interaction based on hybrid sensing for virtual environments | |
Kopinski et al. | A time-of-flight-based hand posture database for human-machine interaction | |
Rett et al. | Laban Movement Analysis using a Bayesian model and perspective projections | |
Tian et al. | Multi-view 3D human pose reconstruction based on spatial confidence point group for jump analysis in figure skating | |
Seo et al. | Stereo feature learning based on attention and geometry for absolute hand pose estimation in egocentric stereo views | |
Ding et al. | Combining adaptive hierarchical depth motion maps with skeletal joints for human action recognition | |
Zhu et al. | Computer-Aided Hierarchical Interactive Gesture Modeling Under Virtual Reality Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20201010 Address after: 261031 north of Yuqing street, east of Dongming Road, high tech Zone, Weifang City, Shandong Province (Room 502, Geer electronic office building) Patentee after: GoerTek Optical Technology Co.,Ltd. Address before: International Exhibition Center of wealth 18 No. 266061 Shandong province Qingdao city Laoshan District No. 3 Qinling Mountains Road, building 5 floor Patentee before: Qingdao GoerTek Technology Co.,Ltd. |
|
TR01 | Transfer of patent right |