CN116996657A - 一种适用于割草机器人的双目相机视差校正方法 - Google Patents
一种适用于割草机器人的双目相机视差校正方法 Download PDFInfo
- Publication number
- CN116996657A CN116996657A CN202311012355.8A CN202311012355A CN116996657A CN 116996657 A CN116996657 A CN 116996657A CN 202311012355 A CN202311012355 A CN 202311012355A CN 116996657 A CN116996657 A CN 116996657A
- Authority
- CN
- China
- Prior art keywords
- parallax
- binocular camera
- value
- preset
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 title claims abstract description 91
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000005070 sampling Methods 0.000 claims abstract description 90
- 238000004364 calculation method Methods 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 19
- 238000001914 filtration Methods 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 6
- 238000013459 approach Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 239000011295 pitch Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种适用于割草机器人的双目相机视差校正方法,包括以下步骤:步骤1、获取双目相机采集到的采样图像;步骤2、检测采样图像中包含的预设目标,并计算任两个预设目标之间的当前目标距离,其中,采样图像中包括割草机充电桩,预设目标为割草机充电桩中的刚性特征;步骤3、判断当前目标距离与初始目标距离的相对差值是否大于或等于校正阈值N3,若是,根据当前目标距离、初始目标距离以及对应的视差值,计算双目相机的视差补偿值,若否,重新执行步骤1。本发明能有效利用割草机器人充电桩本身固有的刚性特征作为视差校正的媒介,实现机器人双目相机实时在线高精度的自动化校正。
Description
技术领域
本申请涉及图像处理技术领域,更具体地说,尤其涉及一种适用于割草机器人的双目相机视差校正方法。
背景技术
随着智能割草机器人市场智能化升级需求,智能割草机器人正在向无边界自主导航的方向发展。
由于现有的室内3DTOF、3D结构光等传感器无法适用于光照复杂的室外场景,故无边界智能割草机器人需要通过纯视觉传感器实现定位和3D环境感知。而双目相机因为其输出的高精度深度图像和彩色图像能够用于检测、感知周围环境目标信息,所以在割草机器人上安装双目相机可以很好地满足智能化割草机方案需求。
但双目相机在使用过程中会受振动、冲击、温度变化等因素影响,长期以往可能会导致双目相机的视差精度产生退化。因此,当双目相机视差精度产生退化时,需要及时对其进行视差校正,以满足环境感知与目标检测的精度误差要求。
现有的双目相机视差校正方法通常是针对已封装但未安装的双目相机,且在校正过程中需要精密的标靶(如棋盘格)和相应的环境、设备,标定过程比较复杂,通常仅有专业的双目相机厂商才具备这些设备、环境和标定能力。因此,现有的双目相机视差校正方法无法满足出厂后双目相机的视差校正需求,也无法进行实时校正。
所以,出厂后双目相机的视差校正工作需将双目相机拆卸后返厂或者由经专业培训后的技术人员到现场进行视差校正,这种双目相机视差校正方法无疑增加了售后成本,降低了品牌价值。
现有技术中也有不少专利提出了双目相机的自校正或自标定方法,如专利CN111862235A就提供了一种双目相机自标定方法及系统,包括:1)获取左右原始图像;2)校正左右原始图像;3)从左右校正图像中提取特征点并匹配;4)统计左右图像纵坐标偏差的平均值,若大于对应阈值则修正估计第一参数组,反复迭代修正,直至小于对应阈值;5)找到静态物体及车道线;6)处于移动状态时,追踪静态物体的视差及车轮运动信息;7)得到车轮运动距离与静态物体的三维距离变化值的距离偏差及车道线的宽度偏差,若大于对应阈值则修正估计第二参数组,反复迭代校正,直至小于对应阈值,完成自标定。该专利能够利用实时图像追踪、车体运动信息及车道宽度信息,对内外参进行优化标定,完成图像校正工作,为车体提供准确的三维识别数据。但该专利所提出的双目相机自标定方法及系统适用于镜头焦距未知的定焦双目相机及变焦双目相机,具有一定的局限性,且其自标定方法也是较为复杂的。
因此,有必要对双目相机视差校正方法进行进一步深入的研究,且如何提出一种无需返厂即可实现双目相机实时在线自动视差校正是具有重要意义的。
发明内容
本申请所要解决的技术问题是:在无需返厂或拆卸双目相机的情况下,如何对割草机器人上安装的双目相机进行实时在线视差校正。
为了解决上述技术问题,本申请提供如下技术方案:
一种适用于割草机器人的双目相机视差校正方法,包括以下步骤:步骤1、获取双目相机采集到的采样图像;步骤2、检测采样图像中包含的预设目标,并计算任两个预设目标之间的当前目标距离,其中,采样图像中包括割草机充电桩,预设目标为割草机充电桩中的刚性特征;步骤3、判断当前目标距离与初始目标距离的相对差值是否大于或等于校正阈值N3,若是,根据当前目标距离、初始目标距离以及对应的视差值,计算双目相机的视差补偿值,若否,重新执行步骤1。
在一些实施例中,步骤2中,包括:步骤2.1.1、对采样图像进行目标检测,确定预设目标对应的ROI区域;步骤2.1.2、判断任一个ROI区域的尺寸是否大于或等于对应的尺寸阈值R1;若是,计算当前目标距离并保存记录;若否,剔除该帧采样图像,重新执行步骤1。
在一些实施例中,步骤2中,还包括:步骤2.1.3、统计保存记录的当前目标距离对应的采样图像帧数N1;步骤2.1.4、基于割草机器人的运行速度、设定距离范围和双目相机的预设帧率,计算数量阈值N2;步骤2.1.5、判断当前目标距离的数量N1是否大于或等于数量阈值N2,若是,执行步骤3,若否,重新执行步骤1。
在一些实施例中,步骤2中,包括:步骤2.2.1、对采样图像进行目标检测,确定各个预设目标的最小外接矩形框的位置坐标和各个预设目标的中心位置图像的像素坐标(u,v);步骤2.2.2、将各个预设目标的最小外接矩形框的位置坐标映射到采样图像对应的视差图像,确定视差范围坐标;步骤2.2.3、提取视差范围坐标内的视差数据并进行滤波处理,对处理后的视差数据进行均值计算,将均值计算结果记作预设目标的均值视差值disp;步骤2.2.4、根据均值视差值disp以及坐标变换公式,将预设目标的中心位置图像的像素坐标(u,v)转换为世界坐标系下的空间坐标(Xw,Yw,Zw);步骤2.2.5、基于预设目标的中心位置图像在世界坐标系下的空间坐标,计算任两个预设目标之间的当前目标距离。
在一些实施例中,步骤2.2.3中,对视差数据进行滤波处理的过程,包括:
步骤2.2.3.1、按照视差值的取值大小,对视差图像中预设目标对应的视差范围坐标内的视差数据进行排序;步骤2.2.3.2、分别剔除掉排序后的视差数据中占比为P0的大端值视差数据和小端值视差数据。
在一些实施例中,步骤2.2.4中,坐标变换公式为:
式中,B为双目相机的基线距离,f为双目相机的焦距,disp为均值视差值,(u0,v0)为双目相机的光心坐标。
在一些实施例中,步骤2.2.5中,当前目标距离的计算方法为:
根据第i个预设目标与第i+1个预设目标中心位置图像在世界坐标系下的空间坐标,计算相邻两个预设目标之间的当前目标距离,对应的计算公式为:
式中,(Xw_i,Yw_i,Zw_i)为第i个预设目标中心位置图像在世界坐标系下的空间坐标,(Xw_i+1,Yw_i+1,Zw_i+1)为第i+1个预设目标中心位置图像在世界坐标系下的空间坐标,ΔLi+1,i为第i个预设目标与第i+1个预设目标之间的当前目标距离,i=1,2,…,n,n为设定的预设目标的数量。
在一些实施例中,步骤3中,还包括:步骤3.1、当判定相对差值大于或等于校正阈值N3时,将不达标距离帧数的计数加1;步骤3.2、统计并计算多帧采样图像中的不达标距离帧数的占比,当不达标距离帧数的占比大于或等于预设占比P1时,根据当前目标距离、初始目标距离以及对应的视差值,计算双目相机的视差补偿值;否则,重新执行步骤1。
在一些实施例中,步骤3.2中,根据当前目标距离、初始目标距离以及对应的视差值,计算双目相机的视差补偿值,还包括:获取多帧采样图像中的样本帧图像,其中,样本帧图像为多帧采样图像中相对差值大于或等于校正阈值N3的采样图像;在样本帧图像中等间隔抽取N4帧抽样图像,并根据N4帧抽样图像中的当前目标距离的平均值、初始目标距离以及对应的视差值,计算双目相机的视差补偿值。
在一些实施例中,步骤3中,双目相机的视差补偿值为相对差值平方的累加和值取值最小情况下的视差补偿值,对应计算公式为:
式中,ΔLi+1,i(Δdj)为视差补偿后第i个预设目标与第i+1个预设目标之间的当前目标距离,为第i个预设目标与第i+1个预设目标之间的初始目标距离,i=1,2,…,n,n为设定的预设目标的数量,n=N4,Δdj为第j个预设视差取值范围[Δd1,Δd2,…,Δdm]中第j个视差补偿值,(Xw_i,Yw_i,Zw_i)为第i个预设目标中心位置图像在世界坐标系下的空间坐标,(ui,vi)为第i个预设目标中心位置图像的像素坐标,B为双目相机的基线距离,f为双目相机的焦距,(u0,v0)为双目相机的光心坐标,dispi为第i个预设目标对应的视差值。
与现有技术相比,本申请具有以下有益效果:
本申请所提供的一种适用于割草机器人的双目相机视差校正方法,能有效利用割草机器人充电桩本身固有的刚性特征(不会发生形状尺寸变化)作为视差校正的媒介。通过设定双目相机首次安装时满足机器人出厂精度误差,并将此时双目相机所获取的采样图像中的充电桩刚性特征间宽度/长度/间距尺寸作为初始值保存记录;在割草机器人每次返回或靠近充电桩时,自动开启视差校正功能,利用此过程中连续获取的多帧采样图像中的充电桩刚性特征间宽度/长度/间距尺寸分别与初始值进行判定,以实现双目相机的实时在线视差精度校正。
本申请所设计的一种适用于割草机器人的双目相机视差校正方法无需将退化的双目相机返厂标定、无需利用特定靶标标定、更无需专业人员参与,即可实现其实时在线高精度的自动化校正,从而有效地减少了售后成本,在提高产品使用价值的同时提升了客户体验。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,从而可依照说明书的内容予以实施,并且为了让本申请的上述和其他目的、特征和优点能够更明显易懂,以下以本申请的较佳实施例并配合附图详细说明如后。
根据下文结合附图对本申请具体实施例的详细描述,本领域技术人员将会更加明了本申请的上述及其他目的、优点和特征。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1是本申请实施例中一种适用于割草机器人的双目相机视差校正方法的流程示意图;
图2是本申请实施例中另一种适用于割草机器人的双目相机视差校正方法的的流程示意图;
图3是本申请实施例中割草机器人双目相机获取的采样图像;
图4是本申请实施例中对割草机器人双目相机获取的采样图像进行目标检测的示意图;
图5是本申请实施例中割草机器人双目相机获取的视差图像;
图6是本申请实施例中又一种适用于割草机器人的双目相机视差校正方法的流程示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。在下面的描述中,提供诸如具体的配置和组件的特定细节仅仅是为了帮助全面理解本申请的实施例。因此,本领域技术人员应该清楚,可以对这里描述的实施例进行各种改变和修改而不脱离本申请的范围和精神。另外,为了清楚和简洁,实施例中省略了对已知功能和构造的描述。
本申请中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,单独存在B,同时存在A和B三种情况,本申请中术语“/和”是描述另一种关联对象关系,表示可以存在两种关系,例如,A/和B,可以表示:单独存在A,单独存在A和B两种情况,另外,本申请中字符“/”,一般表示前后关联对象是一种“或”关系。
还需要说明的是,在本申请中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含。
实施例1
如图1所示,本实施例提供了一种适用于割草机器人的双目相机视差校正方法,该方法包括以下步骤:
步骤1、获取双目相机采集到的采样图像;
步骤2、检测采样图像中包含的预设目标,并计算任两个预设目标之间的当前目标距离,其中,采样图像中包括割草机充电桩,预设目标为割草机充电桩中的刚性特征;
步骤3、判断当前目标距离与初始目标距离的相对差值是否大于或等于校正阈值N3,
若是,根据当前目标距离、初始目标距离以及对应的视差值,计算双目相机的视差补偿值,该视差补偿值用于补偿双目相机的视差,以使通过补偿后的视差计算出的当前目标距离趋近于或等于初始目标距离,即,使两者的相对差值等于或趋近于0,
若否,重新执行步骤1。
具体的,本实施例中将双目相机安装到割草机器人的预设位置处之后,对该双目相机进行标定,确定双目相机的相关参数,该参数中包括视差值,此时,标定后的双目相机即可实时采集割草机器人充电时其前方/周围充电桩装置的图像图形信息和目标距离信息,以便作为测距、盲区检测、碰撞预警等自主导航功能的数据。因此,本实施例中将标定后的双目相机的视差值作为准确值,进行双目相机的初始采样,进而确定相应的初始目标距离并进行保存,以便作为双目相机视差校正的基准值。
可以根据割草机充电桩的不同结构,对应选择用于双目相机视差校正的预设目标,并设置双目相机的视野朝向,以保证双目相机视野范围内可获得较为完整的割草机充电桩的图像。该图像中包含割草机充电桩的多个固有刚性特征,可挑选一个或多个充电桩装置中的固有刚性特征作为预设目标,例如充电桩中的立柱及其边缘、上挡板及其边缘等。相应的,当前目标距离以及初始目标距离可以为立柱宽度、两个立柱之间的间距、上挡板宽度、立柱竖直中线与上挡板边缘竖直边线之间的间距等。
本实施例中,在割草机器人出厂交付用户使用后,即可在每次割草机器人返回或靠近充电桩过程中进行双目相机的实时视差校正,以保证双目相机视差精度。在校正过程中,双目相机连续获取多帧采样图像并进行目标检测,识别出各帧采样图像中预设目标,并确定该预设目标在各帧图像中像素坐标信息。
需要说明的是,本实施例对目标检测的实现方式并不限定。
之后,再根据预设目标在各帧图像中像素坐标信息、双目相机的相关参数(含视差值),基于坐标变换的方式确定各个当前目标距离,将各个当前目标距离分别与初始目标距离进行比较,判断相对差值是否大于或等于校正阈值N3。
如果当前目标距离与初始目标距离之间的差值较大,即大于或等于校正阈值N3,则表明基于初始状态下双目相机相关参数计算出的目标距离信息存在偏差,此时双目相机发生了退化,影响了图像采集精度和准确性,特别是导致了双目相机测距的不准确。
而由于本实施例中所选定的预设目标为充电桩装置的固有结构特征,这些特征并不会随着割草机器人的使用而发生结构性的变化,因此,可以通过如视差补偿的方式,将当前目标距离修正至初始目标距离,实现对双目相机的视差校正,减小双目相机退化对图像采集精度和准确性的影响。
而如果当前目标距离与初始目标距离之间的差值较小,即小于校正阈值N3,则表明双目相机未发生退化或发生的退化并不影响图像采集精度和准确性,此时无需进行视差校正,等待下一次视差精度检测开启,重新执行上述步骤即可。
因此,通过本实施例中的上述技术方案,无需拆卸双目相机,即可实现对双目相机视差的实时校正。
为了进一步保证视差精度检测校正的鲁棒性、准确性,预设目标至少选取2个。
可以看出,本申请可以针对不同的割草机充电桩选择不同的预设位置,并对应地选择合适的预设目标。即本申请能够结合实际应用中双目相机不同的使用情况来做出对应的选择判断,考虑得十分全面周到,能够便于后续视差校正工作的进行。
在一些实施例中,考虑到双目相机在图像采集过程中不可避免的会受到一些噪声干扰,影响预设目标识别以及预设目标在图像中像素坐标信息的确定,因此,为了保证双目相机视差校正的准确性,如图2所示,步骤2中,包括:
步骤2.1.1、对采样图像进行目标检测,确定预设目标对应的ROI区域;
步骤2.1.2、判断任一个ROI区域的尺寸是否大于或等于对应的尺寸阈值R1;
若是,计算当前目标距离并保存记录;
若否,剔除该帧采样图像,重新执行步骤1。
具体的,在本实施例中,当割草机器人靠近充电桩时,双目相机视差校正功能随即开启。随着割草机器人不断移动靠近充电桩,双目相机开始不断对其所获取的各帧采样图像进行特征处理,确定ROI区域。由于当双目相机距离充电桩过远时,所确定的ROI区域过小,此时,对应视差图中有效视差点数量过少,若存在视差噪点,则会影响视差值计算,因此,需提前设定ROI区域大小的阈值范围,以对双目相机获取到的采样图像进行筛选。其中,仅在ROI区域大小小于或等于设定阈值范围R1时,判定预设目标检测成功。预设目标每检测成功一次,就会基于当前帧采样图像中确定的ROI区域的视差值和预设目标中心坐标计算一次当前目标距离并保存记录。在割草机器人逐渐靠近充电桩的过程中,预设目标会被多次成功检测,相应就会有多组数据结果。
在一些实施例中,为了保证能够采集到足够的数据量,提高视差补偿值的准确性,步骤2中,还包括:
步骤2.1.3、统计保存记录的当前目标距离对应的采样图像帧数N1;
步骤2.1.4、基于割草机器人的运行速度、设定距离范围和双目相机的预设帧率,计算数量阈值N2;在计算数量阈值N2时,可以根据双目相机的预设帧率,计算其在设定的运行速度下,当其向充电桩靠近时,在设定距离范围内能够采集到的图像的总帧数,之后再按照一定的比例(如80%)即可计算出数量阈值N2,以保证能够采集到足够的、用于视差校正的数据量。
步骤2.1.5、判断当前目标距离的数量N1是否大于或等于数量阈值N2,若是,执行步骤3,若否,重新执行步骤1。
在一些实施例中,步骤2中,包括:
步骤2.2.1、对采样图像进行目标检测,确定各个预设目标的最小外接矩形框的位置坐标和各个预设目标的中心位置图像的像素坐标(u,v);
步骤2.2.2、将各个预设目标的最小外接矩形框的位置坐标映射到采样图像对应的视差图像,确定视差范围坐标;
步骤2.2.3、提取视差范围坐标内的视差数据并进行滤波处理,对处理后的视差数据进行均值计算,将均值计算结果记作预设目标的均值视差值disp;
步骤2.2.4、根据均值视差值disp以及坐标变换公式,将预设目标的中心位置图像的像素坐标(u,v)转换为世界坐标系下的空间坐标(Xw,Yw,Zw);
步骤2.2.5、基于预设目标的中心位置图像在世界坐标系下的空间坐标,计算任两个预设目标之间的当前目标距离。
具体的,先对采样图像进行目标检测,确定各个预设目标的最小外接矩形框的位置坐标和各个预设目标中心位置图像的像素坐标;
再将各个预设目标的最小外接矩形框的位置坐标映射到对应的视差图像中,得到对应的视差数据并进行滤波处理,将处理后的视差数据进行均值计算,计算结果即为视差值disp;
之后,基于公式完成各个预设目标中心位置图像的像素坐标(u,v)到世界坐标(Xw,Yw,Zw)的变换;
式中,B为双目相机的基线距离,f为双目相机的焦距,disp为均值视差值,(u0,v0)为双目相机的光心坐标;
最后,基于各个预设目标中心位置图像在世界坐标系下的空间坐标,进行当前目标距离以及初始目标距离的计算。
需要说明的是,本实施例中当前目标距离与初始目标距离的计算方式相同。
以当前目标距离为例:
根据第i个预设目标与第i+1个预设目标中心位置图像在世界坐标系下的空间坐标,计算相邻两个预设目标之间的当前目标距离,对应的计算公式为:
式中,(Xw_i,Yw_i,Zw_i)为第i个预设目标中心位置图像在世界坐标系下的空间坐标,(Xw_i+1,Yw_i+1,Zw_i+1)为第i+1个预设目标中心位置图像在世界坐标系下的空间坐标,ΔLi+1,i为第i个预设目标与第i+1个预设目标之间的当前目标距离,i为预设目标的标号,i=1,2,…,n,n为设定的预设目标的数量。
在一些实施例中,为了保证数据的有效性,减小无效或小量数据对算力的影响,步骤2.2.3中,对视差数据进行滤波处理的过程,包括:
步骤2.2.3.1、按照视差值的取值大小,对视差图像中预设目标对应视差范围坐标内的视差数据进行排序;
步骤2.2.3.2、分别剔除掉排序后的视差数据中占比为P0的大端值视差数据和小端值视差数据。
在一些实施例中,考虑到双目相机在图像采集过程中不可避免的会受到一些噪声干扰,因此,为了避免频繁的进行机器人双目视差校正,减少对机器人数据处理设备算力的占用,步骤3中,还包括:
步骤3.1、当判定相对差值大于或等于校正阈值N3时,将不达标距离帧数的计数加1;
步骤3.2、统计并计算多帧采样图像中的不达标距离帧数的占比,当不达标距离帧数的占比大于或等于预设占比P1时,根据当前目标距离、初始目标距离以及对应的视差值,计算双目相机的视差补偿值;
否则,重新执行步骤1。
具体的,在计算视差补偿值时,可以基于当前帧的采样图像中的当前目标距离进行视差补偿值的计算,也可以采用多帧采样图像中相应的当前目标距离的平均值。
现以当前帧采样图像中的当前目标距离为例,对视差补偿值的计算过程进行说明。在存在多个(大于等于3)预设目标时,对应的每一个当前目标距离均可对应于一个视差补偿值,以使当前目标距离与初始目标距离之间的相对差值等于或趋近于0。
因此,可以选择上述计算出的多个视差补偿值中的最大值、最小值、中间值或者平均值中的任一个,作为视差补偿值输出,也可以选择其他运算方式(如最小二乘法)计算出的视差补偿值,对双目相机的视差值进行补偿,以保证双目相机的测距精度。
在一些实施例中,为了保证视差校正的可靠性,选择采用求取距离差和值最小的方式,计算距离差平方的累加和值取值最小情况下的视差补偿值Δd,该距离差为当前目标距离与初始目标距离之间的相对差值,对应的计算公式如下:
式中,ΔLi+1,i(Δdj)为视差补偿后第i个预设目标与第i+1个预设目标之间的当前目标距离,为第i个预设目标与第i+1个预设目标之间的初始目标距离,i=1,2,…,n,n为设定的预设目标的数量,n=N4,Δdj为第j个预设视差取值范围[Δd1,Δd2,…,Δdm]中第j个视差补偿值,(Xw_i,Yw_i,Zw_i)为第i个预设目标中心位置图像在世界坐标系下的空间坐标,(ui,vi)为第i个预设目标中心位置图像的像素坐标,B为双目相机的基线距离,f为双目相机的焦距,(u0,v0)为双目相机的光心坐标,dispi为第i个预设目标对应的视差值。
本实施例中,预设视差取值范围[Δd1,Δd2,…,Δdm]的取值可以人为设定。采用遍历的方式,每一个选取出视差补偿值Δdj均对应于一个距离差平方的累加和值,选取该累加和值取值最小时对应的视差补偿值,作为最终输出的车载双目相机的视差补偿值,对视差进行补偿。
需要说明的是,如果采用当前目标距离的平均值作为视差校正的依据时,将上述当前目标距离ΔLi+1,i(Δdj)替换为当前目标距离的平均值即可,具体计算过程不再赘述。
在一些实施例中,考虑到双目相机在割草机器人返回充电过程中获取的采样图像数量较多,为了保证视差校正的准确性,并减小数据计算量,在步骤3.2中,计算双目相机的视差补偿值,还包括:
获取多帧采样图像中的样本帧图像,其中,样本帧图像为多帧采样图像中相对差值大于或等于校正阈值N3的采样图像;
在样本帧图像中等间隔抽取N4帧抽样图像,并根据N4帧抽样图像中当前目标距离的平均值、初始目标距离以及对应的视差值,计算双目相机的视差补偿值。
本实施例所提供的一种适用于割草机器人的双目相机视差校正方法,基于割草机器人返回充电过程中双目相机连续不断获取的多帧采样图像中预设目标间的相对距离计算,以实现双目相机精度在线检测校正。该方法无需将退化的双目相机返厂标定、无需利用特定靶标标定、更无需专业人员参与,即可实现其实时在线高精度的自动化校正,从而有效地减少了售后成本,在提高产品使用价值的同时提升了客户体验。
实施例2
基于实施例1,本实施例提供的适用于割草机器人的双目相机视差校正方法,以图3所示型号充电桩为例来进行说明。
本实施例将双目相机安装在割草机器人的正前方,从而使得割草机器人在返回充电时,双目相机视野范围内可获得较为完整的充电桩装置的图像,图像中包含充电桩多个固有刚性特征。其中,刚性特征选用中间区域的两根立柱。由于这两根立柱不易变形且图像特征明显,故以双立柱间相对间距作为视差精度校正的特征媒介,能够有效保证双目相机视差精度校正的准确性和鲁棒性。
需要说明的是,预设目标的选择并不局限于中间区域的两根立柱,还可以为充电桩装置中的其他结构。
本实施例所提供的适用于割草机器人的双目相机视差校正方法具体包括以下步骤:
S1、割草机器人出厂前在合适位置获取初始状态下充电桩的采样图像,完成充电桩立柱特征的检测和左右两立柱间相对间距的计算,间距计算结果记作初始立柱间距并进行保存,以便后期视差校正时使用。
在一些实施例中,S1中,完成充电桩立柱特征的检测和左右两立柱间相对间距的计算,包括以下步骤:
S101、首先对初始状态下充电桩的采样图像进行自适应二值化,然后进行连通域提取和特征计算,再基于Blob分析方法完成充电桩立柱特征的检测,获取左、右两立柱在初始状态下充电桩的采样图像中最小外接矩形框的位置坐标信息Rect(top,left,width,height)和对应中心点的像素坐标(ul,vl)和(ur,vr);
其中,S101中初始状态下充电桩的采样图像如图4所示。
S102、获取视差值:将左、右两立柱所在初始状态下充电桩的采样图像中最小外接矩形框的位置坐标信息映射到对应的视差图像中,得到对应的视差数据;
对视差图像中最小外接矩形框内的视差数据进行排序,分别剔除掉排序后的视差数据中占比P0(如10%)的大端值视差数据和小端值视差数据;
对剩余视差数据进行均值计算,计算结果即为立柱所在区域对应的视差值disp;
其中,S102中的视差图像如图5所示。
S103、坐标系变换:基于公式完成图像像素坐标(u,v)到世界坐标(Xw,Yw,Zw)的变换;
式中,B为双目相机的基线距离,f为双目相机的焦距,disp为视差值,(u0,v0)为双目相机的光心坐标;
即基于上述坐标变换公式可得到S101中左立柱中心点的像素坐标(ul,vl)对应世界坐标(Xl,Yl,Zl)和右立柱中心点的像素坐标(ur,vr)对应世界坐标(Xr,Yr,Zr)。
S104、初始立柱间距计算:基于左、右立柱对应中心点在世界坐标系下的空间坐标,左右两立柱间相对间距,即初始立柱间距的计算公式为:
式中,w为初始立柱间距,(Xl,Yl,Zl)为左立柱中心点在世界坐标系下的空间坐标,(Xt,Yr,Zr)为右立柱中心点在世界坐标系下的空间坐标。
S2、割草机器人返回或靠近充电桩时,开启视差校正功能,机器人在不断移动靠近充电桩的过程中,双目相机不断获取采样图像,并不断完成充电桩立柱特征的检测和双立柱间相对间距的计算,间距计算结果记作当前立柱间距。
在一些实施例中,S2中,完成充电桩立柱特征的检测和双立柱间相对间距的计算,包括以下步骤:
S201、对每一帧采样图像进行充电桩立柱特征的检测及处理,确定充电桩立柱特征对应的ROI区域;
S202、判断任一个ROI区域的尺寸是否大于或等于对应的尺寸阈值R1;
若是,判定当前帧采样图像充电桩立柱特征检测成功,计算当前立柱间距并保存记录;
若否,判定当前帧采样图像充电桩立柱特征检测失败,剔除该帧采样图像,重新执行S2。
其中,S202中当前立柱间距所采用的计算方法与S1中初始立柱间距所采用的计算方法相同,即与S101-S104一致,在此不作赘述。
S3、判断当前立柱间距与初始立柱间距的相对差值是否大于或等于校正阈值N3;
若是,根据当前立柱间距、初始立柱间距以及对应的视差值,计算双目相机的视差补偿值;
若否,重新执行S2。
在一些实施例中,S3之前,还包括:
S301、统计保存记录的当前立柱间距对应的采样图像的个数N1;
S302、基于割草机器人的运行速度、设定距离范围和双目相机的帧率,计算数量阈值N2;
S303、判断N1是否大于或等于数量阈值N2;若是,继续执行S3;若否,重新执行S2。
在一些实施例中,S3中,还包括:
S311、当判定相对差值大于或等于校正阈值N3时,判定当前立柱间距为不达标间距,并将不达标间距帧数的计数加1;
S322、连续统计N1个当前立柱间距中不达标间距帧数的占比,当不达标间距帧数的占比大于或等于预设占比P1时,根据当前立柱间距、初始立柱间距以及对应的视差值,计算双目相机的视差补偿值;
否则,重新执行S2。
在一些实施例中,S322中,在计算双目相机的视差补偿值之前,会在所有不达标间距中等间隔抽取N4个当前立柱间距,对应的视差补偿值计算公式为:
式中,wi(Δdj)为视差补偿后第i个当前立柱间距,为初始立柱间距,wi为第i个当前立柱间距,i为当前立柱间距的标号,i=1,2,…,n,n为抽取的当前立柱间距的数量,n=N4,Δdj为第j个预设视差取值范围[Δd1,Δd2,…,Δdm]中第j个视差补偿值,(Xl-i,Yl-i,Zl-i)与(Xr-i,Yr-i,Zr-i)为第i个当前立柱间距对应的左、右两个立柱中心点在世界坐标系下的空间坐标,;(ul-i,vl-i)与(ur-i,vr-i)为第i个当前立柱间距对应的左、右两个立柱中心点的像素坐标;B为双目相机的基线距离;f为双目相机的焦距;(u0,v0)为双目相机的光心坐标,displ-i与dispr-i为第i个当前立柱间距对应的左、右两个立柱所在区域对应的视差值。
本实施例所提供的适用于割草机器人的双目相机视差校正方法,能有效利用割草机器人充电桩本身固有的刚性特征(不会发生形状尺寸变化)作为视差校正的媒介。通过设定双目相机首次安装时满足机器人出厂精度误差,并将此时双目相机所获取的采样图像中的充电桩刚性特征间宽度/长度/间距尺寸作为初始值保存记录;在割草机器人每次返回或靠近充电桩时,自动开启视差校正功能,利用此过程中连续获取的多帧采样图像中的充电桩刚性特征间宽度/长度/间距尺寸分别与初始值进行判定,以实现双目相机的实时在线视差精度校正。
实施例3
实施例1和实施例2介绍了基于割草机器人返回充电过程中双目相机连续不断获取的多帧采样图像中预设目标间的相对距离计算来进行的双目相机精度在线检测校正的方法。本实施例基于实施例1和2,在割草机器人返回充电桩的过程中,设定割草机器人在距离充电桩某一位置时停止移动,将该位置记作预设位置,双目相机在该距离下连续采集多帧图像,并计算相应的目标距离,来进行双目相机精度在线检测校正。
如图6所示,本实施例所提供的适用于割草机器人的双目相机视差校正方法具体包括以下步骤:
S1、割草机器人出厂前在预设位置处获取双目相机初始采样时刻的采样图像,记作初始采样图像;并对初始采样图像进行目标检测,获取初始目标距离并保存,以便后期视差校正时使用。
在一些实施例中,S1中,对初始采样图像进行目标检测,包括以下步骤:
S101、获取定位框信息:基于Blob分析、模板匹配、深度学习等方法对初始采样图像进行目标检测,确定各个预设目标的最小外接矩形框的位置坐标并对其进行滤波处理,获取各个预设目标所在初始采样图像中的最小外接矩形框的位置坐标信息Rect(top,left,width,height)和各个预设目标中心位置图像的像素坐标(u,v);
S102、获取视差值:将各个预设目标所在初始采样图像中的最小外接矩形框的位置坐标信息映射到对应的视差图像中,得到对应的视差数据;
对映射到视差图像中各个预设目标的最小外接矩形框内的视差数据进行排序,分别剔除掉排序后的视差数据中占比P0(如10%)的大端值视差数据和小端值视差数据;
对剩余视差数据进行均值计算,计算结果即为各个预设目标所在区域对应的视差值disp;
S103、坐标系变换:基于公式完成各个预设目标中心位置图像的像素坐标(u,v)到世界坐标(Xw,Yw,Zw)的变换;
式中,B为双目相机的基线距离,f为双目相机的焦距,disp为视差值,(u0,v0)为双目相机的光心坐标。
S2、每当割草机器人到达预设位置处时,获取双目相机当前采样时刻的采样图像,记作当前采样图像;并对当前采样图像进行目标检测,获取当前目标距离并保存。
在一些实施例中,S2中,对当前采样图像进行目标检测,包括以下步骤:
S201、基于Blob分析、模板匹配、深度学习等方法对当前采样图像进行目标检测,确定各个预设目标的最小外接矩形框的位置坐标并对其进行滤波处理;
S202、将当前帧当前采样图像中各个预设目标的最小外接矩形框的位置坐标与初始采样图像中各个预设目标相应的最小外接矩形框的初始位置坐标进行比较,计算位置偏移;
当判定位置偏移大于或等于位置偏移阈值N5时,剔除该最小外接矩形框;
当判定位置偏移小于位置偏移阈值N5时,保留该最小外接矩形框并将最小外接矩形框的计数加1;
S203、连续统计N6帧第一采样图像中最小外接矩形框的计数值,当计数值大于或等于数量阈值N7时,计算N6帧第一采样图像中各个最小外接矩形的位置坐标的均值坐标并保存;
当计数值小于数量阈值N7时,说明双目相机姿态发生了大幅度的变化,则提示用户需要重新调整双目相机安装姿态,视差检测停止。
S204、对下一帧第一采样图像进行目标检测,确定各个预设目标的最小外接矩形框的位置坐标,记作待定位置坐标;
S205、判断S204中待定位置坐标与S203中对应的均值坐标之间的坐标偏移是否小于或等于偏移阈值N8;
若是,计算并输出当前目标距离;
若否,重新执行S204,直至割草机器人下一次到达预设位置。
需要说明的是,本实施例中当前目标距离与初始目标距离的计算方式相同。
以当前目标距离为例:当前目标距离为采样图像中任两个预设目标之间的距离时,当前目标距离的计算方法为:
根据第i个预设目标与第i+1个预设目标中心位置图像在世界坐标系下的空间坐标,计算相邻两个预设目标之间的当前目标距离,对应的计算公式为:
式中,(Xw_i,Yw_i,Zw_i)为第i个预设目标中心位置图像在世界坐标系下的空间坐标,(Xw_i+1,Yw_i+1,Zw_i+1)为第i+1个预设目标中心位置图像在世界坐标系下的空间坐标,ΔLi+1,i为第i个预设目标与第i+1个预设目标之间的当前目标距离,i为预设目标的标号,i=1,2,…,n,n为设定的预设目标的数量。
S3:判断当前目标距离与初始目标距离的相对差值是否大于或等于校正阈值P2;
若是:统计当前帧采样图像中大于或等于校正阈值P2的预设目标个数,当统计出的预设目标个数的占比大于或等于预设占比P3时,不达标图像帧数的计数加1;连续统计N6帧采样图像的不达标图像帧数的计数值,当计数值在N6帧采样图像的占比大于或等于预设占比P4时,根据当前目标距离以及初始目标距离,计算双目相机的视差补偿值;当计数值在N6帧采样图像的占比小于预设占比P4时,等待割草机器人下一次到达预设位置;
若否:等待割草机器人下一次到达预设位置。
在一些实施例中,与前文对应的,S3中“计算双目相机的视差补偿值”需连续计算N9帧当前采样图像,获取N10个Δd,然后进行数据滤波处理,即对视差补偿值Δd进行排序处理,分别删除占比P5的大端值和小端值,然后对剩余数据做均值计算,计算结果即为最终的视差校正值,并将该值写入双目相机,完成视差精度校正工作,等待割草机器人下一次到达预设位置。
在一些实施例中,为了保证视差校正的可靠性,选择采用求取距离差和值最小的方式,计算距离差平方的累加和值取值最小情况下的视差补偿值Δd,S3中,双目相机的视差补偿值的计算公式为:
式中,ΔLi+1,i(Δdj)为视差补偿后第i个预设目标与第i+1个预设目标之间的当前目标距离,为第i个预设目标与第i+1个预设目标之间的初始目标距离,i为预设目标的标号,i=1,2,…,n,n为设定的预设目标的数量,Δdj为第j个预设视差取值范围[Δd1,Δd2,…,Δdm]中第j个视差补偿值,(Xw_i,Yw_i,Zw_i)为第i个预设目标中心位置图像在世界坐标系下的空间坐标,(ui,vi)为第i个预设目标中心位置图像的像素坐标,B为双目相机的基线距离,f为双目相机的焦距,(u0,v0)为双目相机的光心坐标,dispi为第i个预设目标对应的视差值。
本实施例中,预设视差取值范围[Δd1,Δd2,…,Δdm]的取值可以人为设定。采用遍历的方式,每一个选取出视差补偿值Δdj均对应于一个距离差平方的累加和值,选取该累加和值取值最小时对应的视差补偿值,作为最终输出的双目相机的视差补偿值,对视差进行补偿。
本实施例所提供的一种适用于割草机器人的双目相机视差校正方法,通过对同一距离下、不同采样时刻双目相机所获取的多帧采样图像进行目标检测和目标距离计算,以实现对双目相机的实时在线校正。该方法还可以根据选择的预设目标对象或个数对应选用目标特征到双目相机距离计算或目标特征间距离计算来进行双目相机视差精度在线检测校正。
以上仅为本申请的优选实施例而已,其并非因此限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,通过常规的替代或者能够实现相同的功能在不脱离本申请的原理和精神的情况下对这些实施例进行变化、修改、替换、整合和参数变更均落入本申请的保护范围内。
Claims (10)
1.一种适用于割草机器人的双目相机视差校正方法,其特征在于,包括以下步骤:
步骤1、获取双目相机采集到的采样图像;
步骤2、检测所述采样图像中包含的预设目标,并计算任两个所述预设目标之间的当前目标距离,其中,所述采样图像中包括割草机充电桩,所述预设目标为所述割草机充电桩中的刚性特征;
步骤3、判断所述当前目标距离与初始目标距离的相对差值是否大于或等于校正阈值N3,
若是,根据所述当前目标距离、初始目标距离以及对应的视差值,计算所述双目相机的视差补偿值,
若否,重新执行所述步骤1。
2.根据权利要求1所述的适用于割草机器人的双目相机视差校正方法,其特征在于,所述步骤2中,包括:
步骤2.1.1、对所述采样图像进行目标检测,确定所述预设目标对应的ROI区域;
步骤2.1.2、判断任一个所述ROI区域的尺寸是否大于或等于对应的尺寸阈值R1;
若是,计算所述当前目标距离并保存记录;
若否,剔除该帧采样图像,重新执行所述步骤1。
3.根据权利要求2所述的适用于割草机器人的双目相机视差校正方法,其特征在于,所述步骤2中,还包括:
步骤2.1.3、统计所述保存记录的当前目标距离对应的采样图像帧数N1;
步骤2.1.4、基于所述割草机器人的运行速度、设定距离范围和所述双目相机的预设帧率,计算数量阈值N2;
步骤2.1.5、判断所述当前目标距离的数量N1是否大于或等于所述数量阈值N2,
若是,执行所述步骤3,
若否,重新执行所述步骤1。
4.根据权利要求1所述的适用于割草机器人的双目相机视差校正方法,其特征在于,所述步骤2中,包括:
步骤2.2.1、对所述采样图像进行目标检测,确定各个所述预设目标的最小外接矩形框的位置坐标和各个所述预设目标的中心位置图像的像素坐标(u,v);
步骤2.2.2、将所述各个预设目标的最小外接矩形框的位置坐标映射到所述采样图像对应的视差图像,确定视差范围坐标;
步骤2.2.3、提取所述视差范围坐标内的视差数据并进行滤波处理,对处理后的视差数据进行均值计算,将均值计算结果记作所述预设目标的均值视差值disp;
步骤2.2.4、根据所述均值视差值disp以及坐标变换公式,将所述预设目标的中心位置图像的像素坐标(u,v)转换为世界坐标系下的空间坐标(Xw,Yw,Zw);
步骤2.2.5、基于所述预设目标的中心位置图像在世界坐标系下的所述空间坐标,计算任两个预设目标之间的所述当前目标距离。
5.根据权利要求4所述的适用于割草机器人的双目相机视差校正方法,其特征在于,所述步骤2.2.3中,对所述视差数据进行滤波处理的过程,包括:
步骤2.2.3.1、按照视差值的取值大小,对所述视差图像中所述预设目标对应的所述视差范围坐标内的视差数据进行排序;
步骤2.2.3.2、分别剔除掉排序后的视差数据中占比为P0的大端值视差数据和小端值视差数据。
6.根据权利要求4所述的适用于割草机器人的双目相机视差校正方法,其特征在于,所述步骤2.2.4中,所述坐标变换公式为:
式中,B为所述双目相机的基线距离,f为所述双目相机的焦距,disp为均值视差值,(u0,v0)为所述双目相机的光心坐标。
7.根据权利要求4所述的适用于割草机器人的双目相机视差校正方法,其特征在于,所述步骤2.2.5中,所述当前目标距离的计算方法为:
根据第i个预设目标与第i+1个预设目标中心位置图像在世界坐标系下的空间坐标,计算相邻两个预设目标之间的当前目标距离,对应的计算公式为:
式中,(Xw_i,Yw_i,Zw_i)为第i个预设目标中心位置图像在世界坐标系下的空间坐标,(Xw_i+1,Yw_i+1,Zw_i+1)为第i+1个预设目标中心位置图像在世界坐标系下的空间坐标,ΔLi+1,i为第i个预设目标与第i+1个预设目标之间的当前目标距离,i=1,2,…,n,n为设定的所述预设目标的数量。
8.根据权利要求1-7中任一项所述的适用于割草机器人的双目相机视差校正方法,其特征在于,所述步骤3中,还包括:
步骤3.1、当判定所述相对差值大于或等于所述校正阈值N3时,将不达标距离帧数的计数加1;
步骤3.2、统计并计算多帧采样图像中的所述不达标距离帧数的占比,当所述不达标距离帧数的占比大于或等于预设占比P1时,根据所述当前目标距离、所述初始目标距离以及对应的视差值,计算所述双目相机的所述视差补偿值;
否则,重新执行所述步骤1。
9.根据权利要求8所述的适用于割草机器人的双目相机视差校正方法,其特征在于,所述步骤3.2中,根据所述当前目标距离、所述初始目标距离以及对应的视差值,计算所述双目相机的所述视差补偿值,还包括:
获取所述多帧采样图像中的样本帧图像,其中,所述样本帧图像为所述多帧采样图像中所述相对差值大于或等于所述校正阈值N3的采样图像;
在所述样本帧图像中等间隔抽取N4帧抽样图像,并根据N4帧所述抽样图像中的所述当前目标距离的平均值、初始目标距离以及对应的视差值,计算所述双目相机的所述视差补偿值。
10.根据权利要求8所述的适用于割草机器人的双目相机视差校正方法,其特征在于,所述步骤3中,所述双目相机的所述视差补偿值为所述相对差值平方的累加和值取值最小情况下的视差补偿值,对应的计算公式为:
式中,ΔLi+1,i(Δdj)为视差补偿后第i个预设目标与第i+1个预设目标之间的当前目标距离,为第i个预设目标与第i+1个预设目标之间的初始目标距离,i=1,2,…,n,n为设定的所述预设目标的数量,n=N4,Δdj为第j个预设视差取值范围[Δd1,Δd2,…,Δdm]中第j个视差补偿值,(Xw_i,Yw_i,Zw_i)为第i个预设目标中心位置图像在世界坐标系下的空间坐标,(ui,vi)为第i个预设目标中心位置图像的像素坐标,B为所述双目相机的基线距离,f为所述双目相机的焦距,(u0,v0)为所述双目相机的光心坐标,dispi为第i个预设目标对应的视差值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311012355.8A CN116996657A (zh) | 2023-08-11 | 2023-08-11 | 一种适用于割草机器人的双目相机视差校正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311012355.8A CN116996657A (zh) | 2023-08-11 | 2023-08-11 | 一种适用于割草机器人的双目相机视差校正方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116996657A true CN116996657A (zh) | 2023-11-03 |
Family
ID=88533719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311012355.8A Pending CN116996657A (zh) | 2023-08-11 | 2023-08-11 | 一种适用于割草机器人的双目相机视差校正方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116996657A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117516594A (zh) * | 2024-01-08 | 2024-02-06 | 元橡科技(北京)有限公司 | 一种双目相机测距自校正方法、系统及存储介质 |
-
2023
- 2023-08-11 CN CN202311012355.8A patent/CN116996657A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117516594A (zh) * | 2024-01-08 | 2024-02-06 | 元橡科技(北京)有限公司 | 一种双目相机测距自校正方法、系统及存储介质 |
CN117516594B (zh) * | 2024-01-08 | 2024-03-22 | 元橡科技(北京)有限公司 | 一种双目相机测距自校正方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109631896B (zh) | 一种基于车辆视觉和运动信息的停车场自主泊车定位方法 | |
CN110988912B (zh) | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 | |
US9965870B2 (en) | Camera calibration method using a calibration target | |
CN111830953B (zh) | 车辆自定位方法、装置及系统 | |
US8457384B2 (en) | Universal counting and measurement system | |
CN110647850A (zh) | 一种基于逆透视原理的车道偏移自动测量方法 | |
CN107330376A (zh) | 一种车道线识别方法及系统 | |
CN113903011B (zh) | 一种适用于室内停车场的语义地图构建及定位方法 | |
CN116996657A (zh) | 一种适用于割草机器人的双目相机视差校正方法 | |
CN110992424B (zh) | 基于双目视觉的定位方法和系统 | |
CN107016348A (zh) | 结合深度信息的人脸检测方法、检测装置和电子装置 | |
CN112115913B (zh) | 图像处理方法、装置及设备、存储介质 | |
CN114280582A (zh) | 激光雷达的标定校准方法、装置、存储介质及电子设备 | |
CN114037762A (zh) | 基于图像与高精度地图配准的实时高精度定位方法 | |
CN115113206A (zh) | 井下有轨车辅助驾驶的行人与障碍物检测方法 | |
CN117061719B (zh) | 一种车载双目相机视差校正方法 | |
CN112150448A (zh) | 图像处理方法、装置及设备、存储介质 | |
CN116358486A (zh) | 基于单目相机的目标测距方法、装置及介质 | |
CN115937325B (zh) | 一种结合毫米波雷达信息的车端摄像头标定方法 | |
CN111898552A (zh) | 一种判别人员关注目标物的方法、装置及计算机设备 | |
CN110864670A (zh) | 目标障碍物位置的获取方法和系统 | |
CN116403183A (zh) | 一种障碍物位置测定方法及存储介质 | |
US20240085448A1 (en) | Speed measurement method and apparatus based on multiple cameras | |
CN112146647B (zh) | 一种地面纹理的双目视觉定位方法及芯片 | |
CN113066133A (zh) | 一种基于路面标识几何特征的车载摄像头在线自标定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |