CN101777182B - 坐标循环逼进式正交摄像机系统视频定位方法及系统 - Google Patents
坐标循环逼进式正交摄像机系统视频定位方法及系统 Download PDFInfo
- Publication number
- CN101777182B CN101777182B CN2010101023708A CN201010102370A CN101777182B CN 101777182 B CN101777182 B CN 101777182B CN 2010101023708 A CN2010101023708 A CN 2010101023708A CN 201010102370 A CN201010102370 A CN 201010102370A CN 101777182 B CN101777182 B CN 101777182B
- Authority
- CN
- China
- Prior art keywords
- axle
- coordinate
- target
- camera
- optical axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000001351 cycling effect Effects 0.000 title abstract 3
- 230000003287 optical effect Effects 0.000 claims abstract description 22
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 abstract description 7
- 230000004807 localization Effects 0.000 description 11
- 238000013459 approach Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012804 iterative process Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公布了一种坐标循环逼进式正交摄像机系统视频定位方法及系统,本发明通过布置光轴正交排列的摄像机,在视觉空间定位中提出了坐标循环逼近的方法,构造迭代算法,且具有优良的收敛性,使得粗糙的初始值很快收敛到准确值,方法简单,从而可实现对目标的快速精确定位。
Description
技术领域
本发明涉及一种基于视频的三维信息定位方法及摄影系统装置。特别涉及一种光轴按正交方式配置的摄像机系统及其三维定位方法。该方法使平面摄像机光轴按照正交方式布置,可通过坐标循环逼进的迭代方式迅速准确地逼近静止目标或跟踪动态目标的三维位置,可用于多种需要三维测量定位的场合。
背景技术
视觉空间定位技术是建立在计算机视觉理论上的三维测量方法。它利用若干位置相对固定的相机,从不同角度获取同一场景的多幅图象,通过计算空间点在两幅图象中的视差来获得其三维坐标。基于摄像机系统的视觉定位具有非接触性、速度快、自动化程度高的特点,其方便性、低成本性使它得到了非常广泛的应用。
实现视觉空间定位的摄像机系统分为单目、双目和多目摄像机系统。单目视觉及双目视觉的研究较为透彻,大部分已有的定位方法都是基于单目摄像机系统或双目摄像机系统,或者在多目摄像机环境下运用单目视觉算法[1];这种视觉测量方法在测量过程中必须先确定各视角图象坐标系之间的位置关系,才能确定各个视角的投影矩阵,进而获取三维信息。因此双目视觉系统一般是将两个相机平行布置,保证光轴平行,利用三角形测量原理对图像特征点进行匹配和定位,由解析几何建立线性方程进行求解,其定位精度也与视差大小有关。
多目视觉技术正在发展当中,一般的多目视觉系统的摄像机布置方案与双目视觉系统相似,多摄像机布置的目的是为了获得更大的视场角。目前国内外也有按照正交布置的多摄像机系统,国外一些最新的研究提出了基于正交摄像机系统提取图像特征进行三维跟踪的方法,如Enrique Munoz[2]等人在通过估算表征摄像机与目标相对位置函数参数的基础上提出的正交摄像机下的高效3D跟踪。但现有的基于正交摄像机系统的目标定位方法仍是沿用单目摄像机系统的目标定位方法,使用复杂的立体视觉模型,采用复杂的 计算方法试图在同一步计算中同时确定目标的三维坐标值。
在计算机视觉系统中,也有采用正交迭代思想进行位姿估计[3],但这种算法是仍属于基于点特征的单目视觉算法,摄像机布置并没有采用正交方式。
[1]游素亚,徐光佑,立体视觉研究的现状与进展,中国图形图象学报
[J].1997,2(1):17~23.
[2]Enrique Munoz,Efficient Tracking of 3D Objects Using Multiple OrthogonalCameras[C],Electronic Proceedings of the 19th British Machine Vision Conference,Leeds,UK,2008.
[3]许允喜,蒋云良,陈方,多摄像机系统位姿估计的广义正交迭代算法,光学学报[J].2009,29(1):72~77.
发明内容
本发明的目的是克服现有目标定位技术中模型复杂、计算繁琐、速度慢以及大量消耗计算机资源的缺点,提供一种应用正交摄像机系统的视频定位方法及系统,系统中采用坐标循环逼近的方法,构造具有优良收敛性的迭代算法,实现了快速精确的定位。此方法可提高定位的效率、精度和灵敏度,可用于机器人视觉、智能人机交互,虚拟现实和智能监控等领域。
本发明为实现上述目的,采用如下技术方案:
本发明坐标循环逼进式正交摄像机系统视频定位方法,其特征在于,X轴、Y轴、Z轴上各有一台摄像机,坐标原点位于三个摄像机光轴交点,可得到目标成像平面位置U、目标距相机光心距离L、目标与光轴的垂直距离H以及摄像机对应焦距F间存在如下比值关系:
L/F=H/U (1)
所述方法包括如下步骤:
第一步,初始化:给定目标的位置初值(x0,y0,z0),其中x0,y0,z0分别为目标在X轴、Y轴、Z轴上的空间坐标值;
第二步,对应于X轴上的摄像机S1,根据x0坐标,求出目标沿此摄像机光轴的距离L1=|P1-x0|,按(1)式可求出目标与此摄像机光轴相对于Y轴和Z轴的两个垂直距离H值,也即目标在Y轴上的坐标值y1和Z轴上的坐标值z1;
第三步,对应于Y轴上的摄像机S2,根据第二步中计算得到的目标坐标值y1,求出目标沿此摄像机光轴的距离L2=|P2-y1|,按(1)式可求出目标与此摄像机光轴相对于X轴和Z轴的两个垂直距离H值,也即目标在X轴上的坐标值x2和Z轴上的坐标值z2;
第四步,对应于Z轴上的摄像机S3,根据步骤3中计算得到的z2坐标,可求出目标沿此摄像机光轴距离的L3=|P3-z2|,按(1)式可求出目标与此摄像机光轴相对于X轴和Y轴的两个垂直距离H值,也即目标在X轴上的坐标值x3和Y轴上的坐标值y3;
第五步,对第二步至第四步骤所获的目标在X轴、Y轴、Z轴上的坐标值求平均,即
一种坐标循环逼进式正交摄像机系统视频定位系统,包括图像采集装置、计算机以及三个摄像机,Y轴、Z轴上各有一台摄像机,坐标原点位于三个摄像机光轴交点,三个摄像机的输出端串接图像采集装置后接计算机的输入端。
附图说明
本发明的有益效果在于在视觉定位中通过布置正交摄像机提出了坐标循环逐次逼近的方法。首先,避免了使用复杂的立体视觉模型和复杂的计算方法,具有优秀的效率和误差稳定性,即每一步中任何一个坐标值的误差不会放大传播到下一步结果中;其次,方法具有优良的收敛性,可以实现对静止目标的快速精确定位;再次,对运动目标,由于定位方法的迭代算法始终在改进精度,可以保证跟踪的及时性和灵敏性;再其次,无论对静止还是运动目标,本发明的定位方法均相同,不用引入判断、切换之类操作。最后,由于算法只涉及加减乘除四则运算,有利于在简单芯片上用硬件实现。总之,本发明的定位方法高效、精确且灵敏。
图1小孔成像原理示意图;
图2正交摄像机视频定位方法原理图;
图3采用正交摄像机系统定位手指指尖原理图;
具体实施方式
图4定位系统中各坐标系示意图。
以虚拟现实系统中的手指指尖定位为例,叙述本发明的实施方案。
如图1所示,为小孔成像原理示意图。
如图2,三台摄像机S1、S2、S3光轴沿X、Y、Z轴布置,均指向原点,光心距原点的距离均为P。根据虚拟现实系统中人手的运动范围,摄像机光心与原点间距离可设为120厘米左右。对摄像机进行标定,确定摄像机参数,得到摄像机焦距。手指指尖贴上颜色标记,采用基于颜色标记的方法检测目标的图像位置。设:ximg·1、ximg·2、ximg·3分别为摄像机S1、S2、S3上的目标图像x轴坐标,yimg·1、yimg·2、yimg·3分别为摄像机S1、S2、S3上的目标图像y轴坐标,zimg·1、zimg·2、zimg·3分别为摄像机S1、S2、S3上的目标图像z轴坐标,每个摄像机内的目标图像坐标均以光心为原点,坐标轴方向与空间坐标轴X、Y、Z轴方向保持一致,如图4所示。
以单个指尖定位为例,具体实施步骤如下:
1.初始化:给定目标的初值(x0 y0 z0)=(0,0,0),并令x2=x3=x0,y1=y3=y0,z1=z2=z0。其中y1、z1为迭代过程中对应摄像机S1计算出的目标在Y、Z轴上的坐标值,x2、z2为迭代过程中对应摄像机S2计算出的目标在X、Z轴上的坐标值,x3、y3为迭代过程中对应摄像机S3计算出的目标在X、Y轴上的坐标值。启动视频采集,转2。
2.对本采样周期内的视频图像,启动指尖检测(如图3),确定图像坐标中的指尖位置:
采用基于颜色标记的分块算法对指尖进行检测。方法描述如下:首先由图像采集装置采集原始视频图像,应用计算机将原始视频图像转换到HSV空间。然后对图像进行分块,对块内所有像素点H分量进行检测,如果图像块内像素点H分量在一定阈值范围内, 则对块内满足条件的像素点进行计数,将像素个数大于一定阈值的图像块保留,图像中所有满足条件的相邻图像块进行连通得到的最大区域就是目标图像。通过求此区域内所有像素点的横坐标、纵坐标的平均值就可以得到目标图像位置。如果至少有一个摄像头检测到目标图像,则转下步3;否则等待下一个采样周期,重复本步。
3.采用坐标循环逼近方法,包括图像采集装置、计算机以及三个摄像机,Y轴、Z轴上各有一台摄像机,坐标原点位于三个摄像机光轴交点,三个摄像机的输出端串接图像采集装置后接计算机的输入端。迭代计算指尖空间位置:
①根据目标沿X轴坐标值x0,由摄像机S1所获目标图像坐标计算目标的Y、Z轴坐标
y1=L1·yimg·1/fy1 (2)
[0037] z1=L1·zimg·1/fz1 (3)
[0038] 其中,L1=|P-x0|,fy1,fz1为摄像机对应的焦距。如果摄像机S1未能检测目标,则保留原y1,z1不变。
②应用y1,由摄像机S2所获图像坐标计算目标的X、Z轴坐标
x2=L2·ximg·2/fx2 (4)
[0041] z2=L2·zimg·2/fz2 (5)
[0042] 其中,L2=|P-y1|,fx2,fz2为摄像机对应的焦距。如果摄像机S2未能检测目标,则保留原x2,z2不变。
③应用z2,由摄像机S3所获图像坐标计算目标的X、Y轴坐标
x3=L3·ximg·3/fx3 (6)
y3=L3·yimg·3/fy3 (7)
其中,L3=|P-z2|,fx3,fy3为摄像机对应的焦距。如果摄像机S3未能检测目标,则保留原x3,y3不变。
④取平均,令
x=(x2+x3)/2 (8)
y=(y1+y3)/2 (9)
z=(z1+z2)/2 (10)
⑤若④坐标值平均值x,y,z与迭代开始的初值x0,y0,z0收敛到给定精度ε,则坐标值平均值x,y,z作为最终目标位置值,迭代结束。否则令x2=x3=x0,y1=y3=y0,z1=z2=z0转①
实验表明,本系统中通过5步左右的迭代就可得到指尖位置,迭代快速,且稳定收敛,定位迭代可以在视频采样周期内完成。验证了本发明所述方法和系统的正确性。
Claims (1)
1.一种坐标循环逼进式正交摄像机系统视频定位方法,其特征在于,X轴、Y轴、Z轴上各有一台摄像机,坐标原点位于三个摄像机光轴交点,可得到目标成像平面位置U、目标距相机光心距离L、目标与光轴的垂直距离H以及摄像机对应焦距F间存在如下比值关系:
L/F=H/U (1)
所述方法包括如下步骤:
第一步,初始化:给定目标的位置初值(x0,y0,z0),其中x0,y0,z0分别为目标在X轴、Y轴、Z轴上的空间坐标值;
第二步,对应于X轴上的摄像机S1,根据x0坐标,求出目标沿此摄像机光轴的距离L1=|S1-x0|,按(1)式可求出目标与此摄像机光轴相对于Y轴和Z轴的两个垂直距离H值,也即目标在Y轴上的坐标值y1和Z轴上的坐标值z1;
第三步,对应于Y轴上的摄像机S2,根据第二步中计算得到的目标坐标值y1,求出目标沿此摄像机光轴的距离L2=|S2-y1|,按(1)式可求出目标与此摄像机光轴相对于X轴和Z轴的两个垂直距离H值,也即目标在X轴上的坐标值x2和Z轴上的坐标值z2;
第四步,对应于Z轴上的摄像机S3,根据步骤3中计算得到的z2坐标,可求出目标沿此摄像机光轴距离的L3=|S3-z2|,按(1)式可求出目标与此摄像机光轴相对于X轴和Y轴的两个垂直距离H值,也即目标在X轴上的坐标值x3和Y轴上的坐标值y3;
第五步,对第二步至第四步骤所获的目标在X轴、Y轴、Z轴上的坐标值求平均,即
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010101023708A CN101777182B (zh) | 2010-01-28 | 2010-01-28 | 坐标循环逼进式正交摄像机系统视频定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010101023708A CN101777182B (zh) | 2010-01-28 | 2010-01-28 | 坐标循环逼进式正交摄像机系统视频定位方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101777182A CN101777182A (zh) | 2010-07-14 |
CN101777182B true CN101777182B (zh) | 2012-02-29 |
Family
ID=42513637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010101023708A Active CN101777182B (zh) | 2010-01-28 | 2010-01-28 | 坐标循环逼进式正交摄像机系统视频定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101777182B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102168954B (zh) * | 2011-01-14 | 2012-11-21 | 浙江大学 | 基于单目摄像机的深度、深度场及物体大小的测量方法 |
CN107274449B (zh) * | 2017-05-22 | 2020-11-13 | 陕西科技大学 | 一种光学照片对物体的空间定位系统及方法 |
CN107274400B (zh) * | 2017-06-21 | 2021-02-12 | 歌尔光学科技有限公司 | 空间定位装置、定位处理方法及装置、虚拟现实系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1804541A (zh) * | 2005-01-10 | 2006-07-19 | 北京航空航天大学 | 一种摄像机空间三维位置姿态测量方法 |
CN101033963A (zh) * | 2007-04-10 | 2007-09-12 | 南京航空航天大学 | 基于指端标记的视频手指定位系统及其定位方法 |
CN101448090A (zh) * | 2007-11-26 | 2009-06-03 | 新奥特(北京)视频技术有限公司 | 虚拟演播室中初始定位方法 |
CN101582165A (zh) * | 2009-06-29 | 2009-11-18 | 浙江大学 | 基于灰度图像与空间深度数据的摄像机阵列标定算法 |
-
2010
- 2010-01-28 CN CN2010101023708A patent/CN101777182B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1804541A (zh) * | 2005-01-10 | 2006-07-19 | 北京航空航天大学 | 一种摄像机空间三维位置姿态测量方法 |
CN101033963A (zh) * | 2007-04-10 | 2007-09-12 | 南京航空航天大学 | 基于指端标记的视频手指定位系统及其定位方法 |
CN101448090A (zh) * | 2007-11-26 | 2009-06-03 | 新奥特(北京)视频技术有限公司 | 虚拟演播室中初始定位方法 |
CN101582165A (zh) * | 2009-06-29 | 2009-11-18 | 浙江大学 | 基于灰度图像与空间深度数据的摄像机阵列标定算法 |
Also Published As
Publication number | Publication date |
---|---|
CN101777182A (zh) | 2010-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102999910B (zh) | 一种图像深度计算方法 | |
US10260862B2 (en) | Pose estimation using sensors | |
CN111914715B (zh) | 一种基于仿生视觉的智能车目标实时检测与定位方法 | |
Clipp et al. | Robust 6dof motion estimation for non-overlapping, multi-camera systems | |
Cai et al. | An effective method for camera calibration in defocus scene with circular gratings | |
CN103886107B (zh) | 基于天花板图像信息的机器人定位与地图构建系统 | |
CN113888639B (zh) | 基于事件相机与深度相机的视觉里程计定位方法及系统 | |
CN104539934A (zh) | 图像采集装置和图像处理方法、系统 | |
CN110889873A (zh) | 一种目标定位方法、装置、电子设备及存储介质 | |
Xia et al. | Global calibration of non-overlapping cameras: State of the art | |
CN102519434A (zh) | 一种用于立体视觉三维恢复数据精度测量的试验验证方法 | |
CN116222543B (zh) | 用于机器人环境感知的多传感器融合地图构建方法及系统 | |
Li et al. | Binocular vision positioning for robot grasping | |
Shahnewaz et al. | Color and depth sensing sensor technologies for robotics and machine vision | |
Li et al. | A binocular MSCKF-based visual inertial odometry system using LK optical flow | |
Yang et al. | Vision system of mobile robot combining binocular and depth cameras | |
CN101777182B (zh) | 坐标循环逼进式正交摄像机系统视频定位方法及系统 | |
CN105719290A (zh) | 一种使用时域视觉传感器的双目立体深度匹配方法 | |
Yamauchi et al. | Calibration of a structured light system by observing planar object from unknown viewpoints | |
CN101794444B (zh) | 坐标循环逼进式对偶型正交摄像机系统视频定位方法及系统 | |
Chang et al. | YOLOv4‐tiny‐based robust RGB‐D SLAM approach with point and surface feature fusion in complex indoor environments | |
CN116128966A (zh) | 一种基于环境物体的语义定位方法 | |
Perera et al. | Towards realtime handheld monoslam in dynamic environments | |
Zhang et al. | Passive 3D reconstruction based on binocular vision | |
Li et al. | A real-time indoor visual localization and navigation method based on tango smartphone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |