CN104236468A - 目标空间坐标计算方法、系统及移动机器人 - Google Patents

目标空间坐标计算方法、系统及移动机器人 Download PDF

Info

Publication number
CN104236468A
CN104236468A CN201410503254.5A CN201410503254A CN104236468A CN 104236468 A CN104236468 A CN 104236468A CN 201410503254 A CN201410503254 A CN 201410503254A CN 104236468 A CN104236468 A CN 104236468A
Authority
CN
China
Prior art keywords
image
pixel
coordinate
camera
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410503254.5A
Other languages
English (en)
Inventor
庞作伟
刘统安
黄佳晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xpartner Robotics Co Ltd
Original Assignee
Shanghai Xpartner Robotics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Xpartner Robotics Co Ltd filed Critical Shanghai Xpartner Robotics Co Ltd
Priority to CN201410503254.5A priority Critical patent/CN104236468A/zh
Publication of CN104236468A publication Critical patent/CN104236468A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种目标空间坐标计算方法、系统及移动机器人,方法包括:第一摄像头摄取第一图像,第二摄像头摄取第二图像;FPGA分别计算目标物体在第一图像中的第一图像坐标及在第二图像中的第二图像坐标,FPGA根据该分辨率、该焦距、该第一图像坐标和该第二图像坐标计算该目标物体在实体空间中的空间三维坐标。本发明在获取两个摄像头的图像数据后,执行图像坐标算法以求出目标物体在两幅图像中的图像坐标,再利用视差的原理求出目标物体的空间三维坐标,相比于传统方案,本发明求取目标物体的空间三维坐标更加快速高效,能以较低成本达到实时性的要求。

Description

目标空间坐标计算方法、系统及移动机器人
技术领域
本发明涉及一种对目标物体的空间三维坐标的计算方法及系统,特别涉及一种基于FPGA(现场可编程门阵列)的目标空间坐标计算方法和目标空间坐标计算系统以及包含该目标空间坐标计算系统的移动机器人。
背景技术
立体视觉的研究具有重要的应用价值,其应用于移动机器人的自主导航系统、航空遥感测量、工业自动化系统以及国防现代化等应用环境中。但立体视觉中要求的图像匹配算法是其中的难点,同时也制约了立体视觉系统获取感兴趣物体的空间三维坐标的实时性。目前大部分双目立体视觉系统便是基于图像匹配的算法,重构场景的三维信息,进而求出感兴趣物体的空间三维坐标。部分研究人员已使用FPGA在硬件上实现图像匹配算法并计算出目标物体的三维空间坐标,但大部分获取目标物体的空间三维坐标的速度达不到60帧每秒,在对成本及实时性要求非常高的领域仍有些力不从心。
参考图1所示,其为传统的计算目标物体的三维空间坐标的方案,设一个摄像头为主摄像头,另一个摄像头为从摄像头,该方案中的像素点匹配算法一般为FPGA选中主摄像头摄取的主图像中的一个像素点,扫描从摄像头摄取的从图像对应的该像素点极线上的所有像素点(极线是所观测物体与两个摄像头投影中心形成的平面极面与成像平面相交的线),对每个像素点为中心的指定窗口内所有像素点与主图像中要匹配像素点为中心的指定窗口内所有像素点求差值平方和,然后取差值平方和最小的像素点为最优匹配点,进而利用视差原理求出该像素点的深度信息,然后重复以上步骤求出主图像中各个像素点的深度信息。最后在所求出的深度图像中找出物体匹配的像素点,进而利用该像素点的深度信息求出物体的空间坐标。
发明内容
本发明要解决的技术问题是为了克服现有技术中获取目标物体的空间三维坐标的速度慢,实时性差以及成本高的缺陷,提供一种能够快速高效地获取目标物体的空间三维坐标的目标空间坐标计算方法、系统及移动机器人。
本发明是通过下述技术方案来解决上述技术问题的:
本发明提供一种目标空间坐标计算方法,其特点在于,其包括以下步骤:
S1、一第一摄像头摄取一包含目标物体的第一图像,一第二摄像头摄取一包含该目标物体的第二图像,该第一摄像头和该第二摄像头的分辨率和焦距均相同;
S2、一FPGA计算该目标物体在该第一图像中的第一图像坐标(x1、y1)以及该目标物体在该第二图像中的第二图像坐标(x2、y2);
S3、该FPGA根据该分辨率、该焦距、该第一图像坐标和该第二图像坐标计算该目标物体在实体空间中的空间三维坐标。
本方案中不需要对图像中的各个像素点进行图像匹配,而是先计算目标物体在第一图像中的第一图像坐标、在第二图像中的第二图像坐标,然后根据第一图像坐标和第二图像坐标计算出目标物体的空间三维坐标,进而能够快速的获取到目标物体的空间三维坐标。
由于本方案的目标物体的空间三维坐标的计算过程简化,对FPGA的硬件性能及资源的要求没有那么高,所以本方案的成本相比于其他图像处理算法要低一些,而且正是由于计算过程简化,不需要进行图像匹配及计算每个像素点的深度,所以本方案的目标物体空间三维坐标的求取速度比传统方案要快很多。
较佳地,在步骤S3中,该FPGA利用公式X=d*(x1’+x2’)/(x1’-x2’+2d),Y=f*(X-x1’)/(x1’+d),Z=((y1+y2)/2-Py/2)*(f+Y)/f计算该目标物体在实体空间中的空间三维坐标;
其中,x1’=x1-d-Px/2,x2’=x2+d-Px/2;
设两个摄像头之间的中心点为坐标原点,该两个摄像头的连线方向定义为X轴,垂直于纸面的垂直方向定义为Y轴,与X轴和Y轴所在平面垂直的方向定义为Z轴,(X、Y、Z)为该目标物体的空间三维坐标,d为该第一摄像头与坐标原点的距离,Px、Py为该分辨率的行数、列数,f为该焦距。
较佳地,在步骤S2中,该FPGA接收该第一图像中的每一像素点的像素坐标和RGB(代表红、绿、蓝三个通道的颜色)值,判断该第一图像中的每一像素点的RGB值是否分别在该目标物体的RGB值的范围内,若该第一图像中的一像素点的RGB值在该范围内,则将该第一图像中的该像素点对应的像素坐标存储至一第一数据库中,分别计算该第一数据库中的所有像素坐标的横坐标的第一平均值x1和纵坐标的第二平均值y1,该第一平均值x1和该第二平均值y1构成该第一图像坐标(x1、y1);
该FPGA接收该第二图像中的每一像素点的像素坐标和RGB值,判断该第二图像中的每一像素点的RGB值是否分别在该范围内,若该第二图像中的一像素点的RGB值在该范围内,则将该第二图像中的该像素点对应的像素坐标存储至一第二数据库中,分别计算该第二数据库中的所有像素坐标的横坐标的第三平均值x2和纵坐标的第四平均值y2,该第三平均值x2和该第四平均值y2构成该第二图像坐标(x2、y2)。
较佳地,该第一摄像头摄取该第一图像,同时该第二摄像头摄取该第二图像。
较佳地,该第一摄像头和该第二摄像头的成像平面位于同一平面上。
本发明还提供一种目标空间坐标计算系统,其特点在于,其包括一第一摄像头、一第二摄像头、一FPGA、一第一数据库和一第二数据库,该目标空间坐标计算系统还存储该目标物体的RGB值的范围;
该第一摄像头用于摄取一包含该目标物体的第一图像,该第二摄像头用于摄取一包含该目标物体的第二图像,该第一摄像头和该第二摄像头的分辨率和焦距均相同;
该FPGA用于计算该目标物体在该第一图像中的第一图像坐标(x1、y1)以及该目标物体在该第二图像中的第二图像坐标(x2、y2);
该FPGA还用于根据该分辨率、该焦距、该第一图像坐标和该第二图像坐标计算该目标物体在实体空间中的空间三维坐标。
较佳地,该FPGA用于利用公式X=d*(x1’+x2’)/(x1’-x2’+2d),Y=f*(X-x1’)/(x1’+d),Z=((y1+y2)/2-Py/2)*(f+Y)/f计算该目标物体在实体空间中的空间三维坐标;
其中,x1’=x1-d-Px/2,x2’=x2+d-Px/2;
设两个摄像头之间的中心点为坐标原点,该两个摄像头的连线方向定义为X轴,垂直于纸面的垂直方向定义为Y轴,与X轴和Y轴所在平面垂直的方向定义为Z轴,(X、Y、Z)为该目标物体的空间三维坐标,d为该第一摄像头与坐标原点的距离,Px、Py为该分辨率的行数、列数,f为该焦距。
较佳地,该FPGA用于接收该第一图像中的每一像素点的像素坐标和RGB值,并判断该第一图像中的每一像素点的RGB值是否分别在该范围内,若该第一图像中的一像素点的RGB值在该范围内,则将该第一图像中的该像素点对应的像素坐标存储至该第一数据库中,分别计算该第一数据库中的所有像素坐标的横坐标的第一平均值x1和纵坐标的第二平均值y1,该第一平均值x1和该第二平均值y1构成该目标物体在该第一图像中的第一图像坐标(x1、y1);
该FPGA用于接收该第二图像中的每一像素点的像素坐标和RGB值,判断该第二图像中的每一像素点的RGB值是否分别在该范围内,若该第二图像中的一像素点的RGB值在该范围内,则将该第二图像中的该像素点对应的像素坐标存储至该第二数据库中,分别计算该第二数据库中的所有像素坐标的横坐标的第三平均值x2和纵坐标的第四平均值y2,该第三平均值x2和该第四平均值y2构成该目标物体在该第二图像中的第二图像坐标(x2、y2)。
较佳地,该第一摄像头用于摄取该第一图像,同时该第二摄像头用于摄取该第二图像。
较佳地,该第一摄像头和该第二摄像头的成像平面位于同一平面上。
本发明还提供一种移动机器人,其特点在于,其包括上述的目标空间坐标计算系统。
在符合本领域常识的基础上,上述各优选条件,可任意组合,即得本发明各较佳实例。
本发明的积极进步效果在于:
本发明在获取两个摄像头的图像数据后,执行图像坐标算法以求出目标物体在两幅图像中的图像坐标,再利用视差的原理求出目标物体的空间三维坐标,相比于传统方案,本发明求取目标物体的空间三维坐标更加快速高效,能以较低成本达到实时性的要求。
附图说明
图1为现有技术中的目标空间坐标计算方法的流程图。
图2为本发明的较佳实施例的目标空间坐标计算方法的流程图。
图3为本发明的较佳实施例的目标空间坐标计算系统的结构框图。
图4为本发明的较佳实施例的双目立体视觉数学模型图。
图5为本发明的较佳实施例的包含目标物体的第一图像和第二图像的示意图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
参考图2所示,本实施例提供一种目标空间坐标计算方法,其包括以下步骤:
步骤101、一第一摄像头摄取一包含目标物体的第一图像,同时一第二摄像头摄取一包含该目标物体的第二图像,其中,该第一摄像头和该第二摄像头的成像平面位于同一平面上,该第一摄像头的分辨率和该第二摄像头的分辨率相同,该第一摄像头的焦距和该第二摄像头的焦距也相同。
步骤102、一FPGA接收该第一图像中的每一像素点的像素坐标和RGB值,判断该第一图像中的每一像素点的RGB值是否分别在一预设范围(即该目标物体的RGB值的范围)内,若该第一图像中的一像素点的RGB值在该预设范围内,则表明该像素点为该目标物体中的像素点,该FPGA将该第一图像中的该像素点对应的像素坐标存储至一第一数据库中,若该第一图像中的一像素点的RGB值不在该预设范围内,则表明该像素点不是该目标物体中的像素点,该FPGA并不将该第一图像中的该像素点对应的像素坐标存储至该第一数据库中,即剔除该第一图像中的该像素点,该FPGA分别计算该第一数据库中的所有像素坐标的横坐标的第一平均值x1和纵坐标的第二平均值y1,该第一平均值x1和该第二平均值y1构成该目标物体在该第一图像中的第一图像坐标(x1、y1)。
同时,该FPGA接收该第二图像中的每一像素点的像素坐标和RGB值,判断该第二图像中的每一像素点的RGB值是否分别在该预设范围内,若该第二图像中的一像素点的RGB值在该预设范围内,则将该第二图像中的该像素点对应的像素坐标存储至一第二数据库中,若该第二图像中的一像素点的RGB值不在该预设范围内,则剔除该第二图像中的该像素点,分别计算该第二数据库中的所有像素坐标的横坐标的第三平均值x2和纵坐标的第四平均值y2,该第三平均值x2和该第四平均值y2构成该目标物体在该第二图像中的第二图像坐标(x2、y2);
步骤103、该FPGA利用公式X=d*(x1’+x2’)/(x1’-x2’+2d),Y=f*(X-x1’)/(x1’+d),Z=((y1+y2)/2-Py/2)*(f+Y)/f计算该目标物体在实体空间中的空间三维坐标;
其中,x1’=x1-d-Px/2,x2’=x2+d-Px/2;
设两个摄像头之间的中心点为坐标原点,该两个摄像头的连线方向定义为X轴,垂直于纸面的垂直方向定义为Y轴,与X轴和Y轴所在平面垂直的方向定义为Z轴,(X、Y、Z)为该目标物体的空间三维坐标,d为该第一摄像头与坐标原点的距离,Px、Py为该分辨率的行数、列数,f为该焦距。
如图3所示,本实施例还提供一种目标空间坐标计算系统,该目标空间坐标计算系统可以应用于移动机器人的自主导航系统、航空遥感测量以及工业自动化系统中。
继续见图3,该目标空间坐标计算系统包括一第一摄像头1、一第二摄像头2、一FPGA 3、一第一数据库4和一第二数据库5,该目标空间坐标计算系统还存储一预设范围,该第一摄像头1的分辨率和该第二摄像头2的分辨率相同,该第一摄像头1的焦距和该第二摄像头2的焦距也相同。
其中,该第一摄像头1用于摄取一包含目标物体的第一图像,同时该第二摄像头2用于摄取一包含该目标物体的第二图像,该第一摄像头1和该第二摄像头2的成像平面位于同一平面上。
该FPGA 3用于接收该第一图像中的每一像素点的像素坐标和RGB值,并判断该第一图像中的每一像素点的RGB值是否分别在该预设范围内,若该第一图像中的一像素点的RGB值在该预设范围内,则将该第一图像中的该像素点对应的像素坐标存储至该第一数据库4中,分别计算该第一数据库4中的所有像素坐标的横坐标的第一平均值x1和纵坐标的第二平均值y1,该第一平均值x1和该第二平均值y1构成该目标物体在该第一图像中的第一图像坐标(x1、y1)。
该FPGA 3还用于接收该第二图像中的每一像素点的像素坐标和RGB值,判断该第二图像中的每一像素点的RGB值是否分别在该预设范围内,若该第二图像中的一像素点的RGB值在该预设范围内,则将该第二图像中的该像素点对应的像素坐标存储至该第二数据库5中,分别计算该第二数据库5中的所有像素坐标的横坐标的第三平均值x2和纵坐标的第四平均值y2,该第三平均值x2和该第四平均值y2构成该目标物体在该第二图像中的第二图像坐标(x2、y2)。
该FPGA 3还用于利用公式X=d*(x1’+x2’)/(x1’-x2’+2d),Y=f*(X-x1’)/(x1’+d),Z=((y1+y2)/2-Py/2)*(f+Y)/f计算该目标物体在实体空间中的空间三维坐标。
其中,x1’=x1-d-Px/2,x2’=x2+d-Px/2;
设两个摄像头之间的中心点为坐标原点,该两个摄像头的连线方向定义为X轴,垂直于纸面的垂直方向定义为Y轴,与X轴和Y轴所在平面垂直的方向定义为Z轴,(X、Y、Z)为该目标物体的空间三维坐标,d为该第一摄像头与坐标原点的距离,Px、Py为该分辨率的行数、列数,f为该焦距。
下面举一具体的例子来说明本发明,以使得本领域的技术人员能够更好地理解本发明:
设第一摄像头1和第二摄像头2的分辨率均为640*480,第一摄像头1和第二摄像头2的焦距均为600μm,第一摄像头1和第二摄像头2之间的距离为32*103μm。
图4为双目立体视觉数学模型图,该第一摄像头1位于左面,该第二摄像头2位于右面,设该第一摄像头1和该第二摄像头2之间的中心点为坐标原点0,两个摄像头的连线方向定义为X轴,垂直于纸面的垂直方向定义为Y轴,与X轴和Y轴所在平面垂直的方向定义为Z轴,d为该第一摄像头1与坐标原点0的距离,即d=16*103μm。
该第一摄像头1摄取一包含目标物体的第一图像,同时该第二摄像头2摄取一包含该目标物体的第二图像(见图5),该第一图像和该第二图像均具有640*480个像素点,每一个像素点均对应有唯一的一个像素坐标和RGB值。
该FPGA 3接收该第一图像中的每一像素点的像素坐标和RGB值,并判断该第一图像中的每一像素点的RGB值是否分别在该目标物体的RGB值的范围(20-35、80-100、200-230)内,若该第一图像中的某一个像素点的RGB值在该范围内,则表明该像素点为该目标物体的像素点,在该FPGA 3对该第一图像中的每一像素点的RGB值均进行判断后,判断出该第一图像中共有1100个像素点为该目标物体的像素点,对应地,该第一数据库4中存储有这1100个像素点对应的像素坐标。然后该FPGA 3分别计算该第一数据库4中的1100个像素坐标的横坐标的第一平均值x1和纵坐标的第二平均值y1,该第一平均值x1和该第二平均值y1构成该目标物体在该第一图像中的第一图像坐标(x1、y1)。
同时,该FPGA 3接收该第二图像中的每一像素点的像素坐标和RGB值,判断该第二图像中的每一像素点的RGB值是否分别在该范围(20-35、80-100、200-230)内,若该第二图像中的某一个像素点的RGB值在该范围内,则表明该像素点为该目标物体的像素点,在该FPGA 3对该第二图像中的每一像素点的RGB值均进行判断后,判断出该第二图像中共有1500个像素点为该目标物体的像素点,对应地,该第二数据库5中存储有这1500个像素点对应的像素坐标。然后该FPGA 3分别计算该第二数据库5中的1500个像素坐标的横坐标的第三平均值x2和纵坐标的第四平均值y2,该第三平均值x2和该第四平均值y2构成该目标物体在该第二图像中的第二图像坐标(x2、y2)。
其中,x1、y1、x2、y2的计算结果为:
x1=(px11+px12+……+px11100)/1100,px1i为该第一图像中第i个像素点的横坐标,i=1、2、3…1100;
y1=(py11+py12+……+py11100)/1100,py1i为该第一图像中第i个像素点的纵坐标,i=1、2、3…1100;
x2=(px21+px22+……+px21500)/1500,px2j为该第二图像中第j个像素点的横坐标,j=1、2、3…1500;
y2=(py21+py22+……+py21500)/1500,py2j为该第二图像中第j个像素点的纵坐标,j=1、2、3…1500。
假设计算出的x1、y1、x2、y2的数值分别为:x1=520,y1=400,x2=500,y2=400。
该FPGA 3计算x1’=x1-d-Px/2=520-16*103-320=-15800um,x2’=x2+d-Px/2=500+16*103-320=16180um,X=d*(x1’+x2’)/(x1’-x2’+2d)=16*103*(-15800+16180)/(-15800-16180+32*103)=304000um,Y=f*(X-x1’)/(x1’+d)=600*(19+15800)/(-15800+16*103)=959400um,Z=((y1+y2)/2-Py/2)*(f+Y)/f=((400+400)/2-240)*(600+47457)/600=256000um,即该FPGA3计算出该目标物体在实体空间中的空间三维坐标(X、Y、Z)。
本发明中不需要对图像中的各个像素点进行图像匹配,而是先计算目标物体在第一图像中的第一图像坐标、在第二图像中的第二图像坐标,然后根据第一图像坐标和第二图像坐标计算出目标物体的空间三维坐标,进而能够快速的获取到目标物体的空间三维坐标。由于本方案的目标物体的空间三维坐标的计算过程简化,对FPGA的硬件性能及资源的要求没有那么高,所以本方案的成本相比于其他图像处理算法要低一些,而且正是由于计算过程简化,不需要进行图像匹配及计算每个像素点的深度,所以本方案的目标物体空间三维坐标的求取速度比传统方案要快很多。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。

Claims (11)

1.一种目标空间坐标计算方法,其特征在于,其包括以下步骤:
S1、一第一摄像头摄取一包含目标物体的第一图像,一第二摄像头摄取一包含该目标物体的第二图像,该第一摄像头和该第二摄像头的分辨率和焦距均相同;
S2、一FPGA计算该目标物体在该第一图像中的第一图像坐标(x1、y1)以及该目标物体在该第二图像中的第二图像坐标(x2、y2);
S3、该FPGA根据该分辨率、该焦距、该第一图像坐标和该第二图像坐标计算该目标物体在实体空间中的空间三维坐标。
2.如权利要求1所述的目标空间坐标计算方法,其特征在于,在步骤S3中,该FPGA利用公式X=d*(x1’+x2’)/(x1’-x2’+2d),Y=f*(X-x1’)/(x1’+d),Z=((y1+y2)/2-Py/2)*(f+Y)/f计算该空间三维坐标;
其中,x1’=x1-d-Px/2,x2’=x2+d-Px/2;
设两个摄像头之间的中心点为坐标原点,该两个摄像头的连线方向定义为X轴,垂直于纸面的垂直方向定义为Y轴,与X轴和Y轴所在平面垂直的方向定义为Z轴,(X、Y、Z)为该目标物体的空间三维坐标,d为该第一摄像头与坐标原点的距离,Px、Py为该分辨率的行数、列数,f为该焦距。
3.如权利要求1所述的目标空间坐标计算方法,其特征在于,在步骤S2中,该FPGA接收该第一图像中的每一像素点的像素坐标和RGB值,判断该第一图像中的每一像素点的RGB值是否分别在该目标物体的RGB值的范围内,若该第一图像中的一像素点的RGB值在该范围内,则将该第一图像中的该像素点对应的像素坐标存储至一第一数据库中,分别计算该第一数据库中的所有像素坐标的横坐标的第一平均值x1和纵坐标的第二平均值y1,该第一平均值x1和该第二平均值y1构成该第一图像坐标(x1、y1);
该FPGA接收该第二图像中的每一像素点的像素坐标和RGB值,判断该第二图像中的每一像素点的RGB值是否分别在该范围内,若该第二图像中的一像素点的RGB值在该范围内,则将该第二图像中的该像素点对应的像素坐标存储至一第二数据库中,分别计算该第二数据库中的所有像素坐标的横坐标的第三平均值x2和纵坐标的第四平均值y2,该第三平均值x2和该第四平均值y2构成该第二图像坐标(x2、y2)。
4.如权利要求1所述的目标空间坐标计算方法,其特征在于,该第一摄像头摄取该第一图像,同时该第二摄像头摄取该第二图像。
5.如权利要求1所述的目标空间坐标计算方法,其特征在于,该第一摄像头和该第二摄像头的成像平面位于同一平面上。
6.一种目标空间坐标计算系统,其特征在于,其包括一第一摄像头、一第二摄像头、一FPGA、一第一数据库和一第二数据库,该目标空间坐标计算系统还存储一目标物体的RGB值的范围;
该第一摄像头用于摄取一包含该目标物体的第一图像,该第二摄像头用于摄取一包含该目标物体的第二图像,该第一摄像头和该第二摄像头的分辨率和焦距均相同;
该FPGA用于计算该目标物体在该第一图像中的第一图像坐标(x1、y1)以及该目标物体在该第二图像中的第二图像坐标(x2、y2);
该FPGA还用于根据该分辨率、该焦距、该第一图像坐标和该第二图像坐标计算该目标物体在实体空间中的空间三维坐标。
7.如权利要求6所述的目标空间坐标计算系统,其特征在于,该FPGA用于利用公式X=d*(x1’+x2’)/(x1’-x2’+2d),Y=f*(X-x1’)/(x1’+d),Z=((y1+y2)/2-Py/2)*(f+Y)/f计算该空间三维坐标;
其中,x1’=x1-d-Px/2,x2’=x2+d-Px/2;
设两个摄像头之间的中心点为坐标原点,该两个摄像头的连线方向定义为X轴,垂直于纸面的垂直方向定义为Y轴,与X轴和Y轴所在平面垂直的方向定义为Z轴,(X、Y、Z)为该目标物体的空间三维坐标,d为该第一摄像头与坐标原点的距离,Px、Py为该分辨率的行数、列数,f为该焦距。
8.如权利要求6所述的目标空间坐标计算系统,其特征在于,该FPGA用于接收该第一图像中的每一像素点的像素坐标和RGB值,判断该第一图像中的每一像素点的RGB值是否分别在该目标物体的RGB值的范围内,若该第一图像中的一像素点的RGB值在该范围内,则将该第一图像中的该像素点对应的像素坐标存储至一第一数据库中,分别计算该第一数据库中的所有像素坐标的横坐标的第一平均值x1和纵坐标的第二平均值y1,该第一平均值x1和该第二平均值y1构成该第一图像坐标(x1、y1);
该FPGA用于接收该第二图像中的每一像素点的像素坐标和RGB值,判断该第二图像中的每一像素点的RGB值是否分别在该范围内,若该第二图像中的一像素点的RGB值在该范围内,则将该第二图像中的该像素点对应的像素坐标存储至一第二数据库中,分别计算该第二数据库中的所有像素坐标的横坐标的第三平均值x2和纵坐标的第四平均值y2,该第三平均值x2和该第四平均值y2构成该第二图像坐标(x2、y2)。
9.如权利要求6所述的目标空间坐标计算系统,其特征在于,该第一摄像头用于摄取该第一图像,同时该第二摄像头用于摄取该第二图像。
10.如权利要求6所述的目标空间坐标计算系统,其特征在于,该第一摄像头和该第二摄像头的成像平面位于同一平面上。
11.一种移动机器人,其特征在于,其包括权利要求6-10中任意一项所述的目标空间坐标计算系统。
CN201410503254.5A 2014-09-26 2014-09-26 目标空间坐标计算方法、系统及移动机器人 Pending CN104236468A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410503254.5A CN104236468A (zh) 2014-09-26 2014-09-26 目标空间坐标计算方法、系统及移动机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410503254.5A CN104236468A (zh) 2014-09-26 2014-09-26 目标空间坐标计算方法、系统及移动机器人

Publications (1)

Publication Number Publication Date
CN104236468A true CN104236468A (zh) 2014-12-24

Family

ID=52225020

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410503254.5A Pending CN104236468A (zh) 2014-09-26 2014-09-26 目标空间坐标计算方法、系统及移动机器人

Country Status (1)

Country Link
CN (1) CN104236468A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107449432A (zh) * 2016-05-31 2017-12-08 华为终端(东莞)有限公司 一种利用双摄像头导航方法、装置和终端
CN108257181A (zh) * 2016-12-29 2018-07-06 深圳超多维光电子有限公司 一种空间定位方法及装置
WO2019007038A1 (zh) * 2017-07-05 2019-01-10 广东宝乐机器人股份有限公司 扫地机器人、扫地机器人系统及其工作方法
CN112446901A (zh) * 2020-11-20 2021-03-05 浙江大华技术股份有限公司 目标跟踪方法、装置、设备及计算机存储介质
CN115950436A (zh) * 2023-03-13 2023-04-11 南京汽车人信息技术有限公司 运动物体于既定空间内的定位方法及系统、存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542294A (zh) * 2011-12-29 2012-07-04 河海大学常州校区 双视觉信息融合的集控式足球机器人识别系统及识别方法
CN102890785A (zh) * 2011-07-19 2013-01-23 上海上大海润信息系统有限公司 一种服务机器人目标识别与定位的方法
US20130272600A1 (en) * 2010-10-15 2013-10-17 Iee International Electronics & Engineering S.A. Range image pixel matching method
CN103400392A (zh) * 2013-08-19 2013-11-20 山东鲁能智能技术有限公司 基于变电站巡检机器人的双目视觉导航系统及方法
CN103868460A (zh) * 2014-03-13 2014-06-18 桂林电子科技大学 基于视差优化算法的双目立体视觉自动测量方法
CN104061876A (zh) * 2014-07-17 2014-09-24 宏峰集团(福建)有限公司 基于数字图像测量原理的建筑模板施工监测系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130272600A1 (en) * 2010-10-15 2013-10-17 Iee International Electronics & Engineering S.A. Range image pixel matching method
CN102890785A (zh) * 2011-07-19 2013-01-23 上海上大海润信息系统有限公司 一种服务机器人目标识别与定位的方法
CN102542294A (zh) * 2011-12-29 2012-07-04 河海大学常州校区 双视觉信息融合的集控式足球机器人识别系统及识别方法
CN103400392A (zh) * 2013-08-19 2013-11-20 山东鲁能智能技术有限公司 基于变电站巡检机器人的双目视觉导航系统及方法
CN103868460A (zh) * 2014-03-13 2014-06-18 桂林电子科技大学 基于视差优化算法的双目立体视觉自动测量方法
CN104061876A (zh) * 2014-07-17 2014-09-24 宏峰集团(福建)有限公司 基于数字图像测量原理的建筑模板施工监测系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘洪霞: "番茄自动收获中目标识别的一种简便算法", 《中国优秀博硕士学位论文全文数据库(硕士) 农业科技辑》 *
熊俊涛等: "采摘机械手对扰动荔枝的视觉定位", 《农业工程学报》 *
胡山等: "基于彩色色标的服务机器人定位研究", 《制造业自动化》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107449432A (zh) * 2016-05-31 2017-12-08 华为终端(东莞)有限公司 一种利用双摄像头导航方法、装置和终端
CN108257181A (zh) * 2016-12-29 2018-07-06 深圳超多维光电子有限公司 一种空间定位方法及装置
WO2019007038A1 (zh) * 2017-07-05 2019-01-10 广东宝乐机器人股份有限公司 扫地机器人、扫地机器人系统及其工作方法
CN109213137A (zh) * 2017-07-05 2019-01-15 广东宝乐机器人股份有限公司 扫地机器人、扫地机器人系统及其工作方法
CN112446901A (zh) * 2020-11-20 2021-03-05 浙江大华技术股份有限公司 目标跟踪方法、装置、设备及计算机存储介质
CN115950436A (zh) * 2023-03-13 2023-04-11 南京汽车人信息技术有限公司 运动物体于既定空间内的定位方法及系统、存储介质

Similar Documents

Publication Publication Date Title
CN108520536B (zh) 一种视差图的生成方法、装置及终端
CN109446892B (zh) 基于深度神经网络的人眼注意力定位方法及系统
CN104236468A (zh) 目标空间坐标计算方法、系统及移动机器人
CN105389543A (zh) 基于全方位双目视觉深度信息融合的移动机器人避障装置
CN104539934A (zh) 图像采集装置和图像处理方法、系统
US20160232705A1 (en) Method for 3D Scene Reconstruction with Cross-Constrained Line Matching
CN112150518B (zh) 一种基于注意力机制的图像立体匹配方法及双目设备
CN111179330A (zh) 一种基于卷积神经网络的双目视觉场景深度估计方法
CN112288815B (zh) 一种目标模位置测量方法、系统、存储介质及设备
CN105469386A (zh) 一种确定立体相机高度与俯仰角的方法及装置
CN110675436A (zh) 基于3d特征点的激光雷达与立体视觉配准方法
Ann et al. Study on 3D scene reconstruction in robot navigation using stereo vision
Hamzah et al. An obstacle detection and avoidance of a mobile robot with stereo vision camera
CN110702015B (zh) 输电线路覆冰厚度测量方法及装置
Li et al. Feature point extraction and tracking based on a local adaptive threshold
CN106447709A (zh) 一种快速高精度双目视差匹配方法
CN103200417B (zh) 一种2d转3d的方法
CN105447007A (zh) 一种电子设备及数据处理方法
CN109341530B (zh) 一种双目立体视觉中物点定位方法及系统
CN106548482A (zh) 一种基于稀疏匹配与图像边缘的稠密匹配方法及系统
Rahmani et al. Grid-edge-depth map building employing sad with sobel edge detector
Kurka et al. Automatic estimation of camera parameters from a solid calibration box
Yu et al. Registration and fusion for ToF camera and 2D camera reading
CN113837981B (zh) 一种多端设备获取三维点云的自动化融合方法
Anwer et al. Calculating real world object dimensions from Kinect RGB-D image using dynamic resolution

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20141224

WD01 Invention patent application deemed withdrawn after publication