CN106842219B - 一种用于混合现实设备的空间测距方法和系统 - Google Patents
一种用于混合现实设备的空间测距方法和系统 Download PDFInfo
- Publication number
- CN106842219B CN106842219B CN201710037828.8A CN201710037828A CN106842219B CN 106842219 B CN106842219 B CN 106842219B CN 201710037828 A CN201710037828 A CN 201710037828A CN 106842219 B CN106842219 B CN 106842219B
- Authority
- CN
- China
- Prior art keywords
- point
- under test
- object under
- distance
- gray scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
Abstract
本发明涉及一种用于混合现实设备的空间测距方法和系统,该方法包括以下步骤:选择待测物体;选择所述待测物体上的任一点作为参照点,测量所述参照点与所述混合现实设备之间的距离,得到参照距离;获取所述待测物体的灰度景深图;根据所述参照距离和所述灰度景深图得到所述待测物体上任一点与所述混合现实设备之间的距离。本发明提供的一种用于混合现实设备的空间测距方法和系统,可以快速地获得待测物体表面上任一点的距离,具有测距速度快,测距精度高的优点。
Description
技术领域
本发明涉及混合现实领域,尤其涉及一种用于混合现实设备的空间测距方法和系统。
背景技术
混合现实产品就是将计算机生成的图像与真实的世界相叠加,将虚拟空间的图像显示在现实空间中,使人眼可以在现实世界中看到虚拟的物体。其中,比较有代表性的产品是微软公司发布的可穿戴式混合现实计算设备HoloLens。
目前,用于混合现实产品的测距方式主要有以下几种:
1)通过立体视觉技术测距。
通过两个摄像头获取周围环境的深度图,从两个摄像头的图像数据中得到真实场景中的物体离摄像头的距离,但是这种方法只测一张深度图是不够的,它只是某一时刻真实的场景在摄像头中的映射,因此,要想得到完整的三维场景,需要获得并分析一系列的深度图,同时,在测距之前还需要进行摄像头矫正、图像对齐、左右图像匹配等一系列处理,这些都会造成测距效率低下,无法满足即时测距的需求。
2)红外光测距。
红外发射器按照一定的角度发射红外光束,当遇到物体以后,光束会反射回来,反射回来的红外光线被CCD检测器检测到以后,会获得一个偏移值,利用三角关系,传感器到物体的距离就可以通过几何关系计算出来了,但是红外传感器检测的距离随着距离的远近变化具有非线性的缺点,导致得到的距离不准确。
3)超声波测距。
超生波传感器检测距离原理是发出超声波再检测到发出的超声波,同时根据声速计算出物体的距离,但是超声波测距具有以下缺点:声音的速度易受温度和风向的干扰;超声波有可能被吸音面给吸收;在封闭空间内测距不准确等。
因此,现有的测距方法或装置应用于混合现实设备时都具有一定的缺陷,亟需一种能够快速准确测距,迅速获得不规则物体表面任一点距离的测距技术。
发明内容
本发明所要解决的技术问题是针对现有技术的不足,提供一种用于混合现实设备的空间测距方法和系统。
本发明解决上述技术问题的技术方案如下:
一种用于混合现实设备的空间测距方法,包括以下步骤:
步骤1,选择待测物体;
步骤2,选择所述待测物体上的任一点作为参照点,测量所述参照点与所述混合现实设备之间的距离,得到参照距离;
步骤3,获取所述待测物体的灰度景深图;
步骤4,根据所述参照距离和所述灰度景深图得到所述待测物体上任一点与所述混合现实设备之间的距离。
本发明的有益效果是:本发明通过获得不规则待测物体表面上任一点的距离,并以此距离作为参照距离,然后获得待测物体的灰度景深图,可以快速地获得待测物体表面上任一点的距离,具有测距速度快,测距精度高的优点。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步地,步骤1包括:
步骤11,对所述混合现实设备的周围环境进行建模,得到环境模型;
步骤12,从所述环境模型中选择所述待测物体。
进一步地,步骤2中,选择所述待测物体上的任一点作为参照点,获取所述参照点的空间向量坐标,根据所述空间向量坐标得到所述参照点与所述混合现实设备之间的参照距离。
进一步地,步骤3包括:
步骤31,向所述待测物体发射红外光点阵,并接收所述待测物体返回的所述红外光点阵;
步骤32,获取返回的所述红外光点阵的光强信息;
步骤33,将所述光强信息转化为与所述待测物体景深相对应的灰度值;
步骤34,根据所述灰度值得到所述待测物体的灰度景深图。
进一步地,步骤4包括:
步骤41,从所述灰度景深图中定位所述参照点的位置;
步骤42,获取所述参照点处的灰度值,得到标准灰度值;
步骤43,选取所述灰度景深图中任一点a,获取任一点a的灰度值;
步骤44,根据所述任一点a的灰度值和所述标准灰度值得到所述任一点a与所述参照点的灰度差;
步骤45,将所述灰度差转换为深度差;
步骤46,根据所述深度差与所述参照距离得到所述任一点a与所述混合现实设备之间的距离。
采用上述进一步方案的有益效果是:通过使用灰度景深图比对参照距离测距,可以快速地获得待测物体表面任一点的距离,进而可以帮助混合现实设备对待测物体进行空间建模和其他操作,具有测距速度快等优点。
本发明解决上述技术问题的另一种技术方案如下:
一种用于混合现实设备的空间测距系统,包括:
选取模块,用于选择待测物体;
第一测距模块,用于选择所述待测物体上的任一点作为参照点,测量所述参照点与所述混合现实设备之间的距离,得到参照距离;
第二测距模块,用于获取所述待测物体的灰度景深图,并根据所述参照距离和所述灰度景深图得到所述待测物体上任一点与所述混合现实设备之间的距离。
进一步地,所述选取模块具体包括:
建模单元,用于对所述混合现实设备的周围环境进行建模,得到环境模型;
选取单元,用于从所述环境模型中选择所述待测物体。
进一步地,所述第一测距模块具体包括:
参照点选取单元,用于选择所述待测物体上的任一点作为参照点;
第一获取单元,用于获取所述参照点的空间向量坐标;
第一计算单元,用于根据所述空间向量坐标得到所述参照点与所述混合现实设备之间的参照距离。
进一步地,所述第二测距模块具体包括:
红外光发射器,用于向所述待测物体发射红外光点阵;
红外光接收器,用于接收所述待测物体返回的所述红外光点阵;
第二获取单元,用于获取返回的所述红外光点阵的光强信息;
第一转换单元,用于将所述光强信息转化为与所述待测物体景深相对应的灰度值;
制图单元,用于根据所述灰度值得到所述待测物体的灰度景深图。
进一步地,所述第二测距模块还包括:
定位单元,用于从所述灰度景深图中定位所述参照点的位置;
第三获取单元,用于获取所述参照点处的灰度值,得到标准灰度值;
随机选取单元,用于选取所述灰度景深图中任一点a,获取所述任一点a的灰度值;
第二计算单元,用于根据所述任一点a的灰度值和所述标准灰度值得到所述任一点a与所述参照点的灰度差;
第二转换单元,用于将所述灰度差转换为深度差;
第三计算单元,用于根据所述深度差与所述参照距离得到所述任一点a与所述混合现实设备之间的距离。
本发明附加的方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明实践了解到。
附图说明
图1为本发明实施例提供的一种用于混合现实设备的空间测距方法的流程示意图;
图2为本发明另一实施例提供的一种用于混合现实设备的空间测距系统的结构框架图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
如图1所示,为本发明实施例提供的一种用于混合现实设备的空间测距方法的流程示意图,该方法包括以下步骤:
S101,通过选取模块选择待测物体,该待测物体可以为表面不规则的待测物体;
S102,第一测距模块随机选择待测物体上的任一点作为参照点,测量参照点与混合现实设备之间的距离,得到参照距离;
S103,第二测距模块获取待测物体的灰度景深图,可以通过Kinect技术得到待测物体的灰度景深图,Kinect技术通过一个CMOS红外传感器以黑白光谱的方式来感知环境,灰度图中纯黑代表无穷远,纯白代表无穷近,黑白间的灰色地带对应物体到传感器的物理距离,CMOS红外传感器收集视野范围内的每一点,并形成一幅代表周围环境的景深图像;
S104,第二测距模块根据参照距离和灰度景深图得到待测物体上任一点与混合现实设备之间的距离。
上述实施例中提供的一种用于混合现实设备的空间测距方法,通过获得不规则待测物体表面上任一点的距离,并以此距离作为参照距离,然后获得待测物体的灰度景深图,可以快速地获得待测物体表面上任一点的距离,具有测距速度快,测距精度高的优点。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步地,S101包括:
通过建模单元对混合现实设备的周围环境进行三维空间建模,得到周围环境的环境模型;
通过选取单元从环境模型中选择待测物体。
进一步地,S102中,通过参照点选取单元随机选择待测物体上的任一点作为参照点,通过第一获取单元获取参照点的空间向量坐标,通过第一计算单元根据空间向量坐标得到参照点与混合现实设备之间的参照距离。
进一步地,S103包括:
通过红外光发射器向待测物体发射红外光点阵,并通过红外光接收器接收待测物体返回的红外光点阵;
通过第二获取单元获取返回的红外光点阵的光强信息;
通过第一转换单元将光强信息转化为与待测物体景深相对应的灰度值;
通过制图单元根据灰度值得到待测物体的灰度景深图。
进一步地,S104包括:
通过定位单元从灰度景深图中定位参照点的位置;
通过第三获取单元获取参照点处的灰度值,得到标准灰度值;
通过随机选取单元选取灰度景深图中任一点a,获取任一点a的灰度值;
通过第二计算单元根据任一点a的灰度值和标准灰度值得到任一点a与参照点的灰度差;
通过第二转换单元将灰度差转换为深度差,当任一点a的灰度值和参照点的灰度值相同时,深度差为0,当任一点a为纯白且参照点为纯黑时,深度差为无穷大,或,当当任一点a为纯黑且参照点为纯白时,深度差亦为无穷大,当灰度差越大时,表明深度差越大,当灰度差越小时,表明深度差越小;
通过第三计算单元根据深度差与参照距离得到任一点a与混合现实设备之间的距离。
在另一实施例中,如图2所示,为本发明另一实施例提供的一种用于混合现实设备的空间测距系统的结构框架图,该系统包括:
选取模块210,用于选择待测物体;
第一测距模块220,用于选择待测物体上的任一点作为参照点,测量参照点与混合现实设备之间的距离,得到参照距离;
第二测距模块230,用于获取待测物体的灰度景深图,并根据参照距离和灰度景深图得到待测物体上任一点与混合现实设备之间的距离。
进一步地,选取模块210具体包括:
建模单元211,用于对混合现实设备的周围环境进行建模,得到环境模型;
选取单元212,用于从环境模型中选择待测物体。
进一步地,第一测距模块220具体包括:
参照点选取单元221,用于选择待测物体上的任一点作为参照点;
第一获取单元222,用于获取参照点的空间向量坐标;
第一计算单元223,用于根据空间向量坐标得到参照点与混合现实设备之间的参照距离。
进一步地,第二测距模块230具体包括:
红外光发射器2301,用于向待测物体发射红外光点阵;
红外光接收器2302,用于接收待测物体返回的红外光点阵;
第二获取单元2303,用于获取返回的红外光点阵的光强信息;
第一转换单元2304,用于将光强信息转化为与待测物体景深相对应的灰度值;
制图单元2305,用于根据灰度值得到待测物体的灰度景深图。
进一步地,第二测距模块230还包括:
定位单元2306,用于从灰度景深图中定位参照点的位置;
第三获取单元2307,用于获取参照点处的灰度值,得到标准灰度值;
随机选取单元2308,用于选取灰度景深图中任一点a,获取任一点a的灰度值;
第二计算单元2309,用于根据任一点a的灰度值和标准灰度值得到任一点a与参照点的灰度差;
第二转换单元2310,用于将灰度差转换为深度差;
第三计算单元2311,用于根据深度差与参照距离得到任一点a与混合现实设备之间的距离。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或单元可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种用于混合现实设备的空间测距方法,其特征在于,包括以下步骤:
步骤1,选择待测物体;
步骤2,选择所述待测物体上的任一点作为参照点,测量所述参照点与所述混合现实设备之间的距离,得到参照距离;
步骤3,获取所述待测物体的灰度景深图;
步骤4,根据所述参照距离和所述灰度景深图得到所述待测物体上任一点与所述混合现实设备之间的距离。
2.根据权利要求1所述的空间测距方法,其特征在于,步骤1包括:
步骤11,对所述混合现实设备的周围环境进行建模,得到环境模型;
步骤12,从所述环境模型中选择所述待测物体。
3.根据权利要求1所述的空间测距方法,其特征在于,步骤2中,选择所述待测物体上的任一点作为参照点,获取所述参照点的空间向量坐标,根据所述空间向量坐标得到所述参照点与所述混合现实设备之间的参照距离。
4.根据权利要求1至3任一项所述的空间测距方法,其特征在于,步骤3包括:
步骤31,向所述待测物体发射红外光点阵,并接收所述待测物体返回的所述红外光点阵;
步骤32,获取返回的所述红外光点阵的光强信息;
步骤33,将所述光强信息转化为与所述待测物体景深相对应的灰度值;
步骤34,根据所述灰度值得到所述待测物体的灰度景深图。
5.根据权利要求4所述的空间测距方法,其特征在于,步骤4包括:
步骤41,从所述灰度景深图中定位所述参照点的位置;
步骤42,获取所述参照点处的灰度值,得到标准灰度值;
步骤43,选取所述灰度景深图中任一点a,获取任一点a的灰度值;
步骤44,根据所述任一点a的灰度值和所述标准灰度值得到所述任一点a与所述参照点的灰度差;
步骤45,将所述灰度差转换为深度差;
步骤46,根据所述深度差与所述参照距离得到所述任一点a与所述混合现实设备之间的距离。
6.一种用于混合现实设备的空间测距系统,其特征在于,包括:
选取模块,用于选择待测物体;
第一测距模块,用于选择所述待测物体上的任一点作为参照点,测量所述参照点与所述混合现实设备之间的距离,得到参照距离;
第二测距模块,用于获取所述待测物体的灰度景深图,并根据所述参照距离和所述灰度景深图得到所述待测物体上任一点与所述混合现实设备之间的距离。
7.根据权利要求6所述的空间测距系统,其特征在于,所述选取模块具体包括:
建模单元,用于对所述混合现实设备的周围环境进行建模,得到环境模型;
选取单元,用于从所述环境模型中选择所述待测物体。
8.根据权利要求6所述的空间测距系统,其特征在于,所述第一测距模块具体包括:
参照点选取单元,用于选择所述待测物体上的任一点作为参照点;
第一获取单元,用于获取所述参照点的空间向量坐标;
第一计算单元,用于根据所述空间向量坐标得到所述参照点与所述混合现实设备之间的参照距离。
9.根据权利要求6至8任一项所述的空间测距系统,其特征在于,所述第二测距模块具体包括:
红外光发射器,用于向所述待测物体发射红外光点阵;
红外光接收器,用于接收所述待测物体返回的所述红外光点阵;
第二获取单元,用于获取返回的所述红外光点阵的光强信息;
第一转换单元,用于将所述光强信息转化为与所述待测物体景深相对应的灰度值;
制图单元,用于根据所述灰度值得到所述待测物体的灰度景深图。
10.根据权利要求9所述的空间测距系统,其特征在于,所述第二测距模块还包括:
定位单元,用于从所述灰度景深图中定位所述参照点的位置;
第三获取单元,用于获取所述参照点处的灰度值,得到标准灰度值;
随机选取单元,用于选取所述灰度景深图中任一点a,获取所述任一点a的灰度值;
第二计算单元,用于根据所述任一点a的灰度值和所述标准灰度值得到所述任一点a与所述参照点的灰度差;
第二转换单元,用于将所述灰度差转换为深度差;
第三计算单元,用于根据所述深度差与所述参照距离得到所述任一点a与所述混合现实设备之间的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710037828.8A CN106842219B (zh) | 2017-01-18 | 2017-01-18 | 一种用于混合现实设备的空间测距方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710037828.8A CN106842219B (zh) | 2017-01-18 | 2017-01-18 | 一种用于混合现实设备的空间测距方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106842219A CN106842219A (zh) | 2017-06-13 |
CN106842219B true CN106842219B (zh) | 2019-10-29 |
Family
ID=59123466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710037828.8A Active CN106842219B (zh) | 2017-01-18 | 2017-01-18 | 一种用于混合现实设备的空间测距方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106842219B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596969B (zh) * | 2018-04-28 | 2020-06-19 | 上海宝冶集团有限公司 | 一种受力钢筋间距验收方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101110125A (zh) * | 2007-07-25 | 2008-01-23 | 西北师范大学 | 基于数字图像技术构建金属表面层三维宏观形貌的方法 |
CN103424112A (zh) * | 2013-07-29 | 2013-12-04 | 南京航空航天大学 | 一种基于激光平面辅助的运动载体视觉导航方法 |
CN103456007A (zh) * | 2013-08-09 | 2013-12-18 | 华为终端有限公司 | 一种获取深度信息的方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104299261B (zh) * | 2014-09-10 | 2017-01-25 | 深圳大学 | 人体三维成像方法及系统 |
-
2017
- 2017-01-18 CN CN201710037828.8A patent/CN106842219B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101110125A (zh) * | 2007-07-25 | 2008-01-23 | 西北师范大学 | 基于数字图像技术构建金属表面层三维宏观形貌的方法 |
CN103424112A (zh) * | 2013-07-29 | 2013-12-04 | 南京航空航天大学 | 一种基于激光平面辅助的运动载体视觉导航方法 |
CN103456007A (zh) * | 2013-08-09 | 2013-12-18 | 华为终端有限公司 | 一种获取深度信息的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106842219A (zh) | 2017-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Giancola et al. | A survey on 3D cameras: Metrological comparison of time-of-flight, structured-light and active stereoscopy technologies | |
CN1238691C (zh) | 组合立体视像、彩色3d数字化和运动捕捉的系统 | |
KR101809067B1 (ko) | 마이크로파워 임펄스 레이더를 사용한 모바일 디스플레이 포지션 및 배향의 판정 기법 | |
WO2019179417A1 (zh) | 数据融合方法以及相关设备 | |
US9432593B2 (en) | Target object information acquisition method and electronic device | |
CN106772431A (zh) | 一种结合tof技术和双目视觉的深度信息获取装置及其方法 | |
CN105190703A (zh) | 使用光度立体来进行3d环境建模 | |
CN206348456U (zh) | 一种固态面阵探测装置 | |
CN104390633B (zh) | 一种非接触式机构空间运动测量装置及实现方法 | |
CN109490899A (zh) | 一种基于激光雷达和红外热成像仪的隧道内火源定位方法 | |
CN106326930A (zh) | 一种确定虚拟现实中被跟踪物体位置的方法、装置及系统 | |
CN106526573A (zh) | 一种固态多线测距装置及测距方法 | |
CN109313263A (zh) | 用于运行激光距离测量仪的方法 | |
CN109032329B (zh) | 面向多人增强现实交互的空间一致性保持方法 | |
CN206311755U (zh) | 一种固态多线测距装置 | |
CN108269310A (zh) | 一种交互展示系统、方法及装置 | |
CN106772408A (zh) | 一种固态面阵探测装置及探测方法 | |
CN106842219B (zh) | 一种用于混合现实设备的空间测距方法和系统 | |
CN107564051A (zh) | 一种深度信息采集方法及系统 | |
CN105571491A (zh) | 基于双目视觉的汽车底盘数据测量系统及其方法 | |
CN101776452A (zh) | 基于主动立体全景视觉的河道宽度测量装置 | |
CN113888702A (zh) | 基于多tof激光雷达和rgb摄像头的室内高精度实时建模和空间定位的装置和方法 | |
CN107861615A (zh) | 数字展览中捕捉参观者活动轨迹的跟踪模块 | |
CN113597534B (zh) | 测距成像系统、测距成像方法和程序 | |
CN101930071A (zh) | 侦测物体运动的装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |