CN107478227B - 交互式大型空间的定位算法 - Google Patents
交互式大型空间的定位算法 Download PDFInfo
- Publication number
- CN107478227B CN107478227B CN201710562148.8A CN201710562148A CN107478227B CN 107478227 B CN107478227 B CN 107478227B CN 201710562148 A CN201710562148 A CN 201710562148A CN 107478227 B CN107478227 B CN 107478227B
- Authority
- CN
- China
- Prior art keywords
- points
- image
- cameras
- matching
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明提出交互式大型空间的定位算法,空间定位技术领域,具体步骤如下:具体步骤如下:1、摄像机发出外触发信号使三台摄像机同时采集一帧数据,这些数据通过线传入电脑;2、调用畸变处理函数和求取重心函数分别求出三帧图像内所有标记点的二维坐标;3、立体视觉匹配的方法对所有标记点进行立体视觉匹配,并把匹配的二维点带入到三角法中的到所有标记点的三维坐标;4、调用函数显示对所有标记点进行显示;5、判断是否结束定位,如果没有收到结束指令,就跳转到第一步继续采集图像。本发明在定位范围、设备成本、系统实时性上有很大的提高,算法的实时性和精确性都能满足交互式大型空间多质点的定位要求。
Description
技术领域
本发明涉及空间定位技术领域,尤其是一种交互式大型空间的定位算法。
背景技术
物体的立体视觉技术近些年来是计算机视觉所研究的重点和热点之一,它的目标是将由摄像机采集的二维图像转化为三维的立体信息。利用这些三维数据,我们可以仿真各种模拟场景和智能系统,例如游戏和场景中的虚拟物体演示等等。随着计算机科学发展和日常生活日益增长的需求,快速而准确地三维重建技术将会不断地向前发展。而现有的交互式大型空间(800m2以上)空间定位采用激光扫描和光感应器接收的方式来确定物体的空间位置,这一类空间定位方法往往有测量设备较为庞大,测量时间长和无法实时测量的问题,应用范围受到较大的局限。
发明内容
本发明提供一种交互式大型空间的定位算法,定位范围广、成本低。
本发明具体采用如下技术方案实现:
一种交互式大型空间的定位算法,具体步骤如下:
步骤1,摄像机发出外触发信号使三台摄像机同时采集一帧数据,这些数据通过线传入电脑;
步骤2,调用畸变处理函数和求取重心函数分别求出三帧图像内所有标记点的二维坐标;
步骤3,立体视觉匹配的方法对所有标记点进行立体视觉匹配,并把匹配的二维点带入到三角法中的到所有标记点的三维坐标;
步骤4,调用函数显示对所有标记点进行显示;
步骤5,判断是否结束定位,如果没有收到结束指令,就跳转到第一步继续采集图像。
作为优选,所述标记点采用红外反光膜作为标记点。
作为优选,所述步骤3立体视觉匹配的方法,进行两步的匹配:
步骤31、需要确定同一摄像机不同帧之间点的匹配情况;
步骤32、进行不同摄像机相同帧的匹配。
本发明提供的交互式大型空间的定位算法,其有益效果在于:利用被动红外反射技术对人体运动进行定位,提高了系统的鲁棒性,并且避免可见光对获得的图像信息的影响;利用立体视觉匹配方法,匹配来自不同相机的不同红外点,使系统在红外动点的一般运动速度下能保持较好地匹配精度,提高了系统的实时性。本发明在定位范围、设备成本、系统实时性上有很大的提高,算法的实时性和精确性都能满足交互式大型空间多质点的定位要求。
附图说明
图1是人体模型的示意图;
图2是本发明定位算法的流程图;
图3是红外标志点的匹配示意图;
图4是相邻响的点匹配示意图。
具体实施方式
为进一步说明各实施例,本发明提供有附图。这些附图为本发明揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理。配合参考这些内容,本领域普通技术人员应能理解其他可能的实施方式以及本发明的优点。图中的组件并未按比例绘制,而类似的组件符号通常用来表示类似的组件。
现结合附图和具体实施方式对本发明进一步说明。
本实施例提供的交互式大型空间的定位算法,通过摄像机拍摄人体模型,人体模型的头部、躯干及四肢由六个apar条带组成,如图1所示,且图中黑点代表标记点,分别贴附在前额、手腕、肘部、肩膀、髋部、膝盖、脚踝这些特征位置,用来准确表达人体关节的位置的,本实施例的标记点采用红外反光膜作为标记点,红外反光膜是一种只向红外光源处反射红外光的材料,使用这种反光膜的好处是只要把摄像头与红外发射管放在一起,摄像头就一定会捕捉到红外光,这样做不会给用户带来任何额外负重而且简单方便。图中实线代表着人体四肢的长度,在理论上它们是不变的,这可以用来作为人体约束来辅助标记点的跟踪。
本实施例对一个画面同时选用3台摄像机进行拍摄,首先,对3台摄像机的位置进行标定,可以求出3台摄像机的内参数和外参数;接着把它们保存为文件和实时定位程序放在一起,以供系统调用;然后就可以进行各项参数的初始化,同时读入摄像机的参数,这样就可以幵始实时定位程序,如图2所示,具体步骤如下:
步骤1,摄像机发出外触发信号使三台摄像机同时采集一帧数据,这些数据通过线传入电脑;
步骤2,调用畸变处理函数和求取重心函数分别求出三帧图像内所有标记点的二维坐标;
步骤3,立体视觉匹配的方法对所有标记点进行立体视觉匹配,并把匹配的二维点带入到三角法中的到所有标记点的三维坐标;
步骤4,调用函数显示对所有标记点进行显示;
步骤5,判断是否结束定位,如果没有收到结束指令,就跳转到第一步继续采集图像。
其中,步骤3中的立体视觉匹配的方法,如图3所示,进行两步的匹配:步骤31、需要确定同一摄像机不同帧之间点的匹配情况;步骤32、进行不同摄像机相同帧的匹配(只有在同一帧里做点匹配才有意义,因为它们是同时产生的)。
步骤31先进行同一摄像机不同帧的匹配,这个过程相当于让计算机“知道”不同帧的点是怎样对应的,也相当于完成了点的跟踪。具体方法为根据前后两帧的像点距离来进行匹配,如图4所示,设1、2、3点为前一帧的三个像点,1·、2·、3·为后一帧的像点,并且可以求出11·的距离P1、12·的距离P2、13·的距离P3,而P1远远小于P2和P3,因为由摄像机得到的图像大小为像素,一般情况下摄像机外触发频率为50Hz(相当于每秒钟可以得到张图像),当点在空间中的运动速度为1m/s时,在对应像点相邻帧之间移动的距离大约为像素,相比于空间两点在图像中的距离,它是一个很小的值,因而可以根据这个很小的值来作为相邻帧点匹配的依据。同样对于其它点做相同的操作,就可以跟踪同一摄像机的所有像点的运动。
当成功跟踪了在同一摄像机的运动的像点之后,就可以进行不同相机之问的点的匹配。步骤32具体的方法如下:
假设空间点的坐标为X,三个摄像机的投影矩阵为P1P2P3,那么
x1=P1X
x2=P2X
x3=P3X
于是得出,X=P1 +x1,P1 +是伪逆矩阵,x2 ·=P2P1 +x1,x3 ·=P3P1 +x1。其中x2 ·和x3 ·是反投影到第二摄像机和第三摄像机的像点,那么在第二摄像机的三个像点当中,最接近于x2 ·的点就是x1的匹配点,同理,在第三摄像机的三个像点当中,最接近于x3 ·的点就是的x1匹配点。而x2和x2 ·的距离就叫做重投影误差。这样,就完成了在三台摄像机中所有点的匹配。
通过上述步骤不断循环的时候,红外反光点的运动就在OpenGL中显示了出来,从而完成了其在空间中的定位。
尽管结合优选实施方案具体展示和介绍了本发明,但所属领域的技术人员应该明白,在不脱离所附权利要求书所限定的本发明的精神和范围内,在形式上和细节上可以对本发明做出各种变化,均为本发明的保护范围。
Claims (2)
1.一种交互式大型空间的定位算法,其特征在于,具体步骤如下:
步骤1,摄像机发出外触发信号使三台摄像机同时采集一帧数据,这些数据通过线传入电脑;
步骤2,调用畸变处理函数和求取重心函数分别求出三帧图像内所有标记点的二维坐标;
步骤3,立体视觉匹配的方法对所有标记点进行立体视觉匹配,并把匹配的二维点带入到三角法中的到所有标记点的三维坐标;
步骤31、需要确定同一摄像机不同帧之间点的匹配情况,完成点的跟踪,具体方法为根据前后两帧的像点距离来进行匹配,点1、2、3为前一帧的三个像点,点1·、2·、3·为后一帧的像点,并求出11·的距离P1、12·的距离P2、13·的距离P3,P1小于P2和P3;同样对于其它点做相同的操作,跟踪同一摄像机的所有像点的运动;
步骤32、进行不同摄像机相同帧的匹配,空间点的坐标为X,三个摄像机的投影矩阵为P1、P2、P3,那么
x1=P1X
x2=P2X
x3=P3X
于是得出,X=P1 +x1,P1 +是伪逆矩阵,x2 ·=P2P1 +x1,x3 ·=P3P1 +x1,其中x2 ·和x3 ·是反投影到第二摄像机和第三摄像机的像点,那么在第二摄像机的三个像点当中,最接近于x2 ·的点就是x1的匹配点,同理,在第三摄像机的三个像点当中,最接近于x3 ·的点就是的x1匹配点,而x2和x2 ·的距离就叫做重投影误差,这样,就完成了在三台摄像机中所有点的匹配;
步骤4,调用函数显示对所有标记点进行显示;
步骤5,判断是否结束定位,如果没有收到结束指令,就跳转到第一步继续采集图像。
2.根据权利要求1所述的交互式大型空间的定位算法,其特征在于:所述标记点采用红外反光膜作为标记点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710562148.8A CN107478227B (zh) | 2017-07-11 | 2017-07-11 | 交互式大型空间的定位算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710562148.8A CN107478227B (zh) | 2017-07-11 | 2017-07-11 | 交互式大型空间的定位算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107478227A CN107478227A (zh) | 2017-12-15 |
CN107478227B true CN107478227B (zh) | 2020-06-16 |
Family
ID=60596184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710562148.8A Active CN107478227B (zh) | 2017-07-11 | 2017-07-11 | 交互式大型空间的定位算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107478227B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110728713B (zh) * | 2018-07-16 | 2022-09-30 | Oppo广东移动通信有限公司 | 测试方法及测试系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2474950B1 (en) * | 2011-01-05 | 2013-08-21 | Softkinetic Software | Natural gesture based user interface methods and systems |
CN103337071B (zh) * | 2013-06-19 | 2016-03-30 | 北京理工大学 | 基于结构重建的皮下静脉三维可视化装置及方法 |
CN103927016B (zh) * | 2014-04-24 | 2017-01-11 | 西北工业大学 | 一种基于双目视觉的实时三维双手手势识别方法及其系统 |
CN204578692U (zh) * | 2014-12-29 | 2015-08-19 | 深圳超多维光电子有限公司 | 立体显示系统 |
CN105809654B (zh) * | 2014-12-29 | 2018-11-23 | 深圳超多维科技有限公司 | 目标对象跟踪方法、装置和立体显示设备及方法 |
CN106503605A (zh) * | 2015-09-01 | 2017-03-15 | 南京理工大学 | 基于立体视觉技术的人体目标识别方法 |
CN106773080B (zh) * | 2015-12-25 | 2019-12-10 | 深圳超多维光电子有限公司 | 立体显示装置及显示方法 |
-
2017
- 2017-07-11 CN CN201710562148.8A patent/CN107478227B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107478227A (zh) | 2017-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109000582B (zh) | 跟踪式三维扫描装置的扫描方法及系统、存储介质、设备 | |
CN110599540B (zh) | 多视点相机下的实时三维人体体型与姿态重建方法及装置 | |
CN111060023B (zh) | 一种高精度3d信息采集的设备及方法 | |
EP3067861B1 (en) | Determination of a coordinate conversion parameter | |
Klein | Visual tracking for augmented reality | |
JP6293110B2 (ja) | 点群データ取得システム及びその方法 | |
CN106371281A (zh) | 基于结构光多模块360度空间扫描和定位的3d相机 | |
KR20150013709A (ko) | 컴퓨터 생성된 3d 객체들 및 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하기 위한 시스템 | |
WO2018028152A1 (zh) | 一种图像采集设备、虚拟现实设备 | |
Frahm et al. | Markerless augmented reality with light source estimation for direct illumination | |
Oskiper et al. | Augmented reality binoculars | |
KR20000017755A (ko) | 몸 동작에 대한 데이터 획득 방법 | |
CN113514008A (zh) | 三维扫描方法、三维扫描系统和计算机可读存储介质 | |
CN110337674A (zh) | 三维重建方法、装置、设备及存储介质 | |
CN108257177A (zh) | 基于空间标识的定位系统与方法 | |
CN110544278B (zh) | 刚体运动捕捉方法及装置、agv位姿捕捉系统 | |
CN111739137A (zh) | 一种三维姿态估计数据集的生成方法 | |
CN111340959B (zh) | 一种基于直方图匹配的三维模型无缝纹理贴图方法 | |
JP2023546739A (ja) | シーンの3次元モデルを生成するための方法、装置、およびシステム | |
CN206378680U (zh) | 基于结构光多模块360度空间扫描和定位的3d相机 | |
CN107864372A (zh) | 立体拍照方法、装置及终端 | |
CN113487726B (zh) | 动作捕捉系统和方法 | |
McIlroy et al. | Kinectrack: 3d pose estimation using a projected dense dot pattern | |
CN112991457B (zh) | 手术导航中投影仪空间位置和内外参标定方法、装置 | |
CN114494582A (zh) | 一种基于视觉感知的三维模型动态更新方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |