CN115761684A - 基于机器视觉的agv目标识别与姿态角解算方法及系统 - Google Patents
基于机器视觉的agv目标识别与姿态角解算方法及系统 Download PDFInfo
- Publication number
- CN115761684A CN115761684A CN202310031071.7A CN202310031071A CN115761684A CN 115761684 A CN115761684 A CN 115761684A CN 202310031071 A CN202310031071 A CN 202310031071A CN 115761684 A CN115761684 A CN 115761684A
- Authority
- CN
- China
- Prior art keywords
- target
- agv
- camera
- coordinate system
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 239000013598 vector Substances 0.000 claims abstract description 93
- 238000001514 detection method Methods 0.000 claims abstract description 34
- 238000005457 optimization Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 12
- 239000011159 matrix material Substances 0.000 claims description 48
- 238000003384 imaging method Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 7
- 238000007493 shaping process Methods 0.000 claims description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 4
- 239000003550 marker Substances 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 21
- 238000012360 testing method Methods 0.000 description 11
- 238000005259 measurement Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于机器视觉的AGV目标识别与姿态角解算方法及系统,包括AGV运行过程中进行目标检测,确定包含目标特征点的ROI区域;采用双目立体视觉系统对目标进行实时成像;分别对投射后的椭圆锥面进行拟合,同时对法向量进行优化求解;通过最优法向量解算AGV和目标之间的方位角。通过改进YOLOV3的主干网络模型,并搭建跨层连接网络结构实现对微小目标特征的有效学习和融合,提升目标检测的准确率和稳定性。完成目标识别后,接着选定包含圆形特征点的ROI区域,分别对投射后的椭圆锥面法向量进行优化求解,保证解的唯一性,进而实现目标相对于AGV自主导航载具姿态角的精确、快速解算。
Description
技术领域
本发明属于AGV载具方位角感知技术领域,本发明涉及一种基于机器视觉的AGV目标识别与姿态角解算方法,实现AGV(Automated Guided Vehicle)自主导航载具对目标方位角的实时量测。
背景技术
当前工业应用中的自主导航载具大多以固定的轨迹、预先设定的方式进行工作,能够胜任单一性、保准性、重复性较强的任务。然而该类运动载具缺乏对跨场景环境、目标状态、以及末端执行器实际位姿变化的自主感知能力,因此工作环境中的对象如果发生了超出预期的变化,就会影响载具末端姿态角的解算精度,导致运行状态下的载具无法进行下一步的操作,严重限制了自主导航载具功能的智能化以及可延展性。
激光雷达是AGV载具在方位角感知上技术较为成熟的一种方式,通过单线或者多线激光雷达,扫描环境空间的三维点云信息进行感知计算,精度高且实时性较强,但激光感知囿于其硬件成本和信息维度,在日常生活中无法得到广泛的应用。相比之下,通过相机成像的视觉模式可以获取目标特征信息来感知环境,其特点是成本较为低廉,传感信息也更为丰富,一般应用于移动载具的室内导航与定位。基于视觉实现目标姿态角量测的方法有多种,通过RGB-D相机获取目标点云信息的量测方式应用较为广泛,可以将RGB-D点特征和线段特征、平面特征进行结合,但由于点云信息数据量大,导致算法的效率较低。而采用面阵相机构成的视觉系统实现目标姿态角量测具有很高的实时性,同时精度也较高。但是该技术需要借助大量的人工标志点或配合目标点,这在实际应用中难以保障目标如托盘、箱体、堆垛具有较多的标志点,因此限制了机器视觉技术在实际工业场景中的应用。此外,当前采用深度学习的方式进行目标检测与定位取得了很好的实用效果。深度学习模型通过一层一层地抽象可以将原始数据变为另一种可以代表原始数据的展现形式。但是传统的卷积网络通常是自上而下的模式,随着网络层数的增加,感受野会增大,语义信息也更为丰富。这种自上而下的结构本身对于多尺度的物体检测就存在弊端,尤其是小物体,其特征可能会随着深度的增加而渐渐丢失,从而导致检测性能的降低。
公开号CN114549637A公开了一种运动目标识别以及实时定位与姿态解算方法及系统,基于包含关系的轮廓识别方法提取预处理后的图像的图像轮廓以及轮廓对应的特征点的位置坐标;基于轮廓对应的特征点的位置坐标完成动态目标的位姿解算以及ID识别。基于图像处理算法,需要计算特征点的位置坐标,计算方法复杂,无法进行快速响应,实时性不足;并且位姿解算的精度并不是很高。
为了提升AGV自主导航载具执行任务的灵活性,实现对目标的精准操作,那么关键的要素是能够实现对目标方位角的精确解算,这样AGV自主导航载具才能稳定地朝向目标移动,进而完成后续的连续操作任务。本发明因此而来。
发明内容
本发明的目的在于提供一种基于机器视觉的AGV目标识别与姿态角解算方法,通过改进YOLOV3的主干网络模型,并搭建跨层连接网络结构实现对微小目标特征的有效学习和融合,提升目标检测的准确率和稳定性。完成目标识别后,接着选定包含圆形特征点的ROI区域,分别对投射后的椭圆锥面法向量进行优化求解,保证解的唯一性,进而实现目标相对于AGV自主导航载具姿态角的精确、快速解算。
实现本发明目的的技术解决方案为:
一种基于机器视觉的AGV目标识别与姿态角解算方法,包括以下步骤:
S01:AGV运行过程中进行目标检测,确定包含目标特征点的ROI区域;
S02:采用双目立体视觉系统对目标进行实时成像;
S03:分别对投射后的椭圆锥面进行拟合,同时对法向量进行优化求解;
S04:通过最优法向量解算AGV和目标之间的方位角。
优选的技术方案中,所述S01中目标检测方法包括:
S11:对YOLOv3的主干网络进行重新搭建,搭建连续并行主干网络模型架构,通过连续少量的3×3接收器域提升对微弱特征的学习能力,利用局部响应归一化层降低数据之间的差异,增大特征层中单个元素的感受野来增强特征局部辨识度、以及弱化特征噪声能力,将四个并行残差块卷积层得到的特征图在通道方向进行自适应池化,依次通过全连接层、激活函数进行分类输出;
S12:构建改进型特征融合跨层连接网络结构模型,对深层特征进行卷积逆运算,并与浅层特征相乘,得到多层特征图。
优选的技术方案中,所述S12中改进型特征融合跨层连接网络结构模型包括:
模型最底层输出通道数是的特征层,通过多层逆向塑形后的卷积在通道维
度上实现逐层和跨层的耦合,将特征生成器最后卷积层得到的特征图在通道方向进行池
化,池化层输出的特征继续与其他特征再次融合,并将这些信息与特征一起传播到下一层
网络中。
优选的技术方案中,所述S03中分别对投射后的椭圆锥面进行拟合包括以下步骤:
S31:基于二维图像像素坐标系,建立像平面的椭圆方程表达式:
S32:图像像素坐标系和图像实际物理坐标系通过下式进行转换:
S33:将像素坐标系下的坐标转换到目标图像实际物理坐标下,得:
其中:
S34:构建圆形特征面成像后在图像实际物理坐标下椭圆拟合方程:
优选的技术方案中,所述S03中对法向量进行优化求解的方法包括:
S031:将右相机投射锥面下的圆截面特征向量和变换到左相机的相机坐标
系下,得到两个法向量与,其中是圆截面相对于相机坐标系的旋
转矩阵。对于左相机而言法向量,;和是左相机投射锥面下的圆截
面特征向量。
S032:当椭圆特征点成像时不存在干扰因素时,基于右相机解算出的两个法向量中一定有一个与左相机解算出的两个法向量中的某一个相等,且这一个即为空间圆面的单位法向量,即:
S033:计算目标所在圆面前后两次的法向量夹角,求得AGV与目标之间的相对方位信息。
优选的技术方案中,所述S03中对法向量进行优化求解的方法包括:
优选的技术方案中,所述S04通过最优法向量解算AGV和目标之间的方位角的方法包括:
本发明又公开了一种基于机器视觉的AGV目标识别与姿态角解算系统,包括:
目标检测模块,AGV运行过程中进行目标检测,确定包含目标特征点的ROI区域;
双目立体视觉系统,采用双目立体视觉系统对目标进行实时成像;
拟合优化模块,分别对投射后的椭圆锥面进行拟合,同时对法向量进行优化求解;
姿态角解算模块,通过最优法向量解算AGV和目标之间的方位角。
本发明还公开了一种基于机器视觉的AGV,包括AGV本体,所述AGV本体内设置有控制器,所述控制器内置有计算机程序,所述计算机程序被执行时实现上述的基于机器视觉的AGV目标识别与姿态角解算方法。
本发明与现有技术相比,其显著优点为:
本发明基于机器视觉技术,通过非接触的方式实现对目标的识别和姿态角解算功能。首先改进了YOLOV3主干网络模型,并搭建跨层连接网络结构实现对微小目标特征的有效学习和融合,保留微弱目标关键的局部特征,增强图像的细粒度识别能力,从而提升目标检测的准确率和稳定性。完成目标识别后便可确定包含圆形特征点的ROI区域,分别对投射后的椭圆锥面进行拟合,同时对法向量进行优化求解,避免传统方法求解法向量的二重性以及姿态角误差较大的问题,保证夹角信息计算的唯一性,进而实现目标相对于AGV自主导航载具姿态角的精确、快速解算,为自主导航载具运行过程中动态响应能力弱和转向决策实时性不足的问题提供了技术支持和参考。
附图说明
图1为坐标系定义与航向角示意图;
图2为连续并行主干网络模型架构;
图3为基于改进的跨层连接网络结构模型;
图4为空间圆双目成像示意图;
图5为椭圆检测步骤流程;
图6为托盘圆形标志点检测结果;
图7为一方位角测量结果对照;
图8为另一方位角测量结果对照;
图9为平均处理帧率示意图;
图10为圆盘图像采集示意图;
图11为动态方位角实时测量结果;
图12为动态测试整体平均帧率。
具体实施方式
本发明的原理是:针对AGV自主导航载具的方位角测量问题,本发明设计了基于机器视觉的目标识别和姿态角解算方法。考虑到圆形标志点占据的像幅尺寸很小,有效像素数较低,首先通过改进YOLOV3的主干网络模型,并搭建跨层连接网络结构实现对微小目标特征的有效学习和融合,提升目标检测的准确率和稳定性。完成目标识别后,接着选定包含圆形特征点的ROI(Region of Interest)区域,分别对投射后的椭圆锥面法向量进行优化求解,保证解的唯一性,进而实现目标相对于AGV自主导航载具姿态角的精确、快速解算。
实施例1:
如图1所示,一种基于机器视觉的AGV目标识别与姿态角解算方法,包括以下步骤:
S01:AGV运行过程中进行目标检测,确定包含目标特征点的ROI区域;
S02:采用双目立体视觉系统对目标进行实时成像;
S03:分别对投射后的椭圆锥面进行拟合,同时对法向量进行优化求解;
S04:通过最优法向量解算AGV和目标之间的方位角。
一实施例中,步骤S01中目标检测方法包括:
S11:对YOLOv3的主干网络进行重新搭建,搭建连续并行主干网络模型架构,通过连续少量的3×3接收器域提升对微弱特征的学习能力,利用局部响应归一化层降低数据之间的差异,增大特征层中单个元素的感受野来增强特征局部辨识度、以及弱化特征噪声能力,将四个并行残差块卷积层得到的特征图在通道方向进行自适应池化,依次通过全连接层、激活函数进行分类输出;
S12:构建改进型特征融合跨层连接网络结构模型,对深层特征进行卷积逆运算,并与浅层特征相乘,得到多层特征图。
具体的,步骤S12中改进型特征融合跨层连接网络结构模型包括:
模型最底层输出通道数是的特征层,通过多层逆向塑形后的卷积在通道维
度上实现逐层和跨层的耦合,将特征生成器最后卷积层得到的特征图在通道方向进行池
化,池化层输出的特征继续与其他特征再次融合,并将这些信息与特征一起传播到下一层
网络中。
一实施例中,步骤S03中分别对投射后的椭圆锥面进行拟合包括以下步骤:
S31:基于二维图像像素坐标系,建立像平面的椭圆方程表达式:
S32:图像像素坐标系和图像实际物理坐标系通过下式进行转换:
S33:将像素坐标系下的坐标转换到目标图像实际物理坐标下,得:
其中:
S34:构建圆形特征面成像后在图像实际物理坐标下椭圆拟合方程:
一实施例中,步骤S03中对法向量进行优化求解的方法包括:
S031:将右相机投射锥面下的圆截面特征向量和变换到左相机的相机坐标
系下,得到两个法向量与,其中是圆截面相对于相机坐标系的旋
转矩阵。对于左相机而言法向量,;和是左相机投射锥面下的圆截
面特征向量。
S032:当椭圆特征点成像时不存在干扰因素时,基于右相机解算出的两个法向量中一定有一个与左相机解算出的两个法向量中的某一个相等,且这一个即为空间圆面的单位法向量,即:
S033:计算目标所在圆面前后两次的法向量夹角,求得AGV与目标之间的相对方位信息。
一实施例中,步骤S03中对法向量进行优化求解的方法包括:
一实施例中,步骤S04通过最优法向量解算AGV和目标之间的方位角的方法包括:
另一实施例中,一种基于机器视觉的AGV目标识别与姿态角解算系统,包括:
目标检测模块,AGV运行过程中进行目标检测,确定包含目标特征点的ROI区域;
双目立体视觉系统,采用双目立体视觉系统对目标进行实时成像;
拟合优化模块,分别对投射后的椭圆锥面进行拟合,同时对法向量进行优化求解;
姿态角解算模块,通过最优法向量解算AGV和目标之间的方位角。
另一实施例中,一种基于机器视觉的AGV,包括AGV本体,AGV本体内设置有控制器,控制器内置有计算机程序,计算机程序被执行时实现上述的基于机器视觉的AGV目标识别与姿态角解算方法。
下面以一较佳的实施例为例进行详细说明基于机器视觉的AGV的工作流程:
为了验证本发明中所提方法的有效性,通过AGV叉车实现对附有圆形标志点的托盘进行姿态角解算与精度验证,叉车与托盘之间坐标系的建立以及航向角关系如图1所示。从图1中可知,在托盘设置两个人工标志点,采用半径为50mm的圆形特征,通过配合目标的方式,利用机器视觉技术实现对AGV叉车和托盘之间的方位角信息解算功能。
步骤一:AGV配合目标检测算法。YOLO算法将目标检测设计为一个回归问题,包括对多个边框和相关类别概率的回归,可以直接进行端到端的优化。然而对于面向多场景下AGV目标检测,存在目标遮挡、交错等情况,传统的YOLOV3算法容易导致虚警;而若设置过高的判断条件,则会导致漏检。此外,远距离情况下的目标识别需要保证特征学习的充分性和有效性。为了保证在AGV叉车运行过程中对目标检测的实时性和稳定性,本发明通过对YOLOv3的主干网络进行重新搭建。
步骤11:考虑到圆形标志点占据的像幅尺寸很小,有效像素数较低,因此可以看成是微小目标的识别范畴。针对该特点,搭建如图2所示的连续并行主干网络模型架构。所构建的模型通过连续少量的3×3接收器域提升对微弱特征的学习能力。图2中模型利用局部响应归一化层来降低数据之间的差异,提升训练速度和模型的泛化能力。依据目标特征像素分布特点,通过增大特征层中单个元素的感受野来增强特征局部辨识度、以及弱化特征噪声能力。为了保留微弱目标更多关键特征信息,与常用的最大池化不同,所搭建的网络模型将四个并行残差块卷积层得到的特征图在通道方向进行自适应池化,这样可以避免局部感受野上无法准确学习前景目标特征信息,依次通过全连接层、激活函数进行分类输出。
步骤12:特征融合网络模型构建。通过对原始卷积核的行列分布进行逆向塑形,通过运算能够把底层图像尺寸扩充亦或还原至初始的图像尺寸,从而保证目标特征层细节不丢失。本发明设计的改进型特征融合跨层连接网络结构模型如图3所示,对深层特征进行卷积逆运算,并与浅层特征相乘,得到多层特征图,提升对托盘上人工标志点的检测能力。
在改进的网络模型中,行列逆向塑形后的卷积模块是由两个大小的卷积层
组成,计算可以追溯和保留微弱目标关键的局部特征,增强图像的细粒度识别能力。每一层
均采用ReLU激活函数增加网络的非线性,避免了饱和死区的出现。接着进行批归一化,使得
梯度变化平缓,训练过程稳定,从而通过较大的学习率加快收敛速度。此外,在进行卷积逆
运算时将步长的值设为1,规避卷积核大小不是步长整倍数时导致的不均匀重叠问题。
改进的跨层连接网络模型最底层输出通道数是的特征层,通过多层逆向塑
形后的卷积在通道维度上实现逐层和跨层的耦合。此外,为了保留更多细节特征信息,与常
用的最大池化不同,将特征生成器最后卷积层得到的特征图在通道方向进行池化,避免局
部感受野上无法准确学习目标微弱特征信息。池化层输出的特征继续与其他特征再次融
合,并将这些信息连同与特征一起传播到下一层网络中,从而保证目标特征学习的有效性
与多样性。
步骤二:AGV叉车与托盘目标方位角解算,本发明采用SmartFLY ZED2i双目深度传感立体相机Stereolabs,配有camera/mini摄像头对目标进行成像。
步骤21:通过ZED相机对叉车上的圆形标志点成像,得到左右两幅图像,如图4所
示。记左右摄像机的光心分别为与,左右相机间的旋转矩阵为,平移向量为,
即左相机外参与右相机外参关系为。为了方便计算和表述,后续坐标计算
都统一在左相机坐标系下进行。
步骤22:根据透视投影原理,由于相机光轴与成像目标面之间存在一定的夹角,因此托盘上的圆形标志点经过投射变换后会形成椭圆。首先基于二维图像像素坐标系,建立像平面的椭圆方程表达式:
图像像素坐标系和图像实际物理坐标系可通过下式进行转换:
接着把像素坐标系下的坐标转换到目标图像实际物理坐标下,可得:
步骤23:将右相机投射锥面下的圆截面特征向量和变换到左相机的相机坐
标系下,可以得到两个法向量与,对于左相机而言,。由于托盘上的两个空间圆位置固定,在理想条件下,基于右相机解算出的两个法
向量中一定有一个与左相机解算出的两个法向量中的某一个相等,且这一个即为空间圆面
的单位法向量。即:
因此,计算目标前后两次的法向量的夹角,便可求得AGV叉车与托盘目标之间的相
对方位信息。然而由于椭圆特征点成像时存在噪声以及环境干扰因素的存在,致使法向量和是不重合的,假设共有对椭圆标志点,因此通过进一步优化得到稳健的法向量。
然后通过实验测试验证本发明方法的有效性。在近距离精配准阶段主要是对标志点的识别与检测。因此标志点的正确识别与检测是姿态角精确求解的关键,对数据集的采集与训练主要针对标志点进行。将托盘放置于不同高度、不同场景、不同光强等地点,并在不同时间对托盘进行数据集的采集,一共采集600张图像。其中500张图像作为训练集,剩余100张作为验证集。
在目标特征点检测步骤中,分别运用传统的YOLOv3以及改进的网络模型进行训练与测试。实验所用计算机显卡配置为GTX3080,操作系统是Ubuntu 20.04,并基于PyTorch1.6.1平台运行程序。将初始学习率的值设定为0.001,并通过StepLR机制实时调整学习变化率;交并比阈值设定为0.5。通过重复性测试,对托盘上圆形目标点的检测指标FP(FalsePositive)、TP(True Positive)与N(Negative)的值如表1所示。此外,计算得到其查准率(precision)、召回率(recall)、AP(Average Precision)以及FPS(Frames Per Second)的值如表2所示。
表1 FP、TP与N结果比较
表2 查准率、召回率、AP值与FPS结果比较
根据表1和表2可知,本发明改进的检测模型在精度上要优于传统的YOLOv3算法。首先,在时间上两者差异并不大,可以说都具有高效性。在精度上,本发明的方法总体上达到了93.43%的查准率以及94.74%的召回率,优于传统的YOLOv3模型。另外,对标志点的识别与距离有很大的关系,当距离小于3m时,本发明检测模型识别的准确率可达99.0%。
目标检测过程中设置相机高度为1.03m;托盘高度为0.82m;相机与托盘之间的距离为2.4m。可测量范围:左偏1.9m,右偏1.2m。测试效果如图6所示。从图中可以看出,托盘相对于相机的角度变换较大的情况下,也就是圆形标志点成像严重畸变时,本发明构建的检测模型依然能够实现对较小圆形标志点的稳定检测,准确框出圆形特征点的像素位置。
当目标识别完成后,可以选取包含圆形特征点的ROI图像区域。接着进行圆弧提取、候选椭圆拟合以及椭圆聚类,如图5所示。
接着进行方位角静态测试,当相机距离托盘距离为2m时进行实验1、实验2和实验3,分别保持偏航角度为0°、20°和-20不变,静态测试结果如图7所示。接着调整相机与托盘之间的距离为5m,进行实验4,与实验1一样对0°偏航角进行解算,如图8所示。通过对比图7、8发现本发明算法实现姿态角求解具有很好的精度和稳定性,重复性测量结果一致性较好。
图9是静态测试下的检测、方位角解算处理的平均帧率,从图9中可以看出处理速度均能保持在每秒10帧以上,能够满足AGV自主导航载具实时姿态解算的应用需求。
为了定量分析姿态角解算精度,将附有圆形标志点的平板放置在分度仪上,运用ZED相机进行拍摄,接着将圆盘顺时针旋转5度、10度以及15度,然后分别运用左右相机进行成像。采集到的图像如图10所示。其中上部分为左相机拍摄的图像,从左到右依次为0度,5度,10度,15度。下半部分为右相机拍摄的图像,从左到右依次为0度,5度,10度,15度。
根据本发明的方法进行姿态角的解算,得到的结果如表3所示。从表3中可以看出,偏航角求取误差能够被控制在0.7°以内,在精度上能够满足视觉方位解算的要求。
表3 偏航角解算结果
下一步进行方位角动态测试,采取随机改变相机和目标相对姿态的方式,记录测量结果的动态变化,验证系统工作的连续性和稳定性。在动态测试过程中,将相机位置固定,将托盘初始位置放置于相机正前方约3.5m位置,并连续改变相机与托盘之间的相对姿态,通过相机连续触发模式实现图像的实时采集与处理。得到的动态角度解算结果如图11、12所示。
图11中基于视觉的姿态角解算结果与相机实时调整的位姿是一致的;此外,图11中有角度值间断和跳跃较大的点,这些对应AGV自主导航载具调整姿态频率和幅度都很大,但是结果显示均能实时解算出角度信息,说明本发明基于机器视觉的目标识别与姿态角解算技术能够解决自主导航类载具运行过程中动态响应能力偏弱的问题。从图12中可以看出动态测试过程中,解算的效率依然高于每秒10帧,解算的实时性能够满足AGV自主导航载具控制转向决策系统输入对速度的要求。
上述实施例为本发明优选地实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (9)
1.一种基于机器视觉的AGV目标识别与姿态角解算方法,其特征在于,包括以下步骤:
S01:AGV运行过程中进行目标检测,确定包含目标特征点的ROI区域;
S02:采用双目立体视觉系统对目标进行实时成像;
S03:分别对投射后的椭圆锥面进行拟合,同时对法向量进行优化求解;
S04:通过最优法向量解算AGV和目标之间的方位角。
2.根据权利要求1所述的基于机器视觉的AGV目标识别与姿态角解算方法,其特征在于,所述S01中目标检测方法包括:
S11:对YOLOv3的主干网络进行重新搭建,搭建连续并行主干网络模型架构,通过连续少量的3×3接收器域提升对微弱特征的学习能力,利用局部响应归一化层降低数据之间的差异,增大特征层中单个元素的感受野来增强特征局部辨识度、以及弱化特征噪声能力,将四个并行残差块卷积层得到的特征图在通道方向进行自适应池化,依次通过全连接层、激活函数进行分类输出;
S12:构建改进型特征融合跨层连接网络结构模型,对深层特征进行卷积逆运算,并与浅层特征相乘,得到多层特征图。
4.根据权利要求1所述的基于机器视觉的AGV目标识别与姿态角解算方法,其特征在于,所述S03中分别对投射后的椭圆锥面进行拟合包括以下步骤:
S31:基于二维图像像素坐标系,建立像平面的椭圆方程表达式:
S32:图像像素坐标系和图像实际物理坐标系通过下式进行转换:
S33:将像素坐标系下的坐标转换到目标图像实际物理坐标下,得:
其中:
S34:构建圆形特征面成像后在图像实际物理坐标下椭圆拟合方程:
8.一种基于机器视觉的AGV目标识别与姿态角解算系统,其特征在于,包括:
目标检测模块,AGV运行过程中进行目标检测,确定包含目标特征点的ROI区域;
双目立体视觉系统,采用双目立体视觉系统对目标进行实时成像;
拟合优化模块,分别对投射后的椭圆锥面进行拟合,同时对法向量进行优化求解;
姿态角解算模块,通过最优法向量解算AGV和目标之间的方位角。
9.根据权利要求8所述的基于机器视觉的AGV目标识别与姿态角解算系统,其特征在于,所述拟合优化模块中分别对投射后的椭圆锥面进行拟合包括以下步骤:
S31:基于二维图像像素坐标系,建立像平面的椭圆方程表达式:
S32:图像像素坐标系和图像实际物理坐标系通过下式进行转换:
S33:将像素坐标系下的坐标转换到目标图像实际物理坐标下,得:
其中:
S34:构建圆形特征面成像后在图像实际物理坐标下椭圆拟合方程:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310031071.7A CN115761684B (zh) | 2023-01-10 | 2023-01-10 | 基于机器视觉的agv目标识别与姿态角解算方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310031071.7A CN115761684B (zh) | 2023-01-10 | 2023-01-10 | 基于机器视觉的agv目标识别与姿态角解算方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115761684A true CN115761684A (zh) | 2023-03-07 |
CN115761684B CN115761684B (zh) | 2023-06-16 |
Family
ID=85348824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310031071.7A Active CN115761684B (zh) | 2023-01-10 | 2023-01-10 | 基于机器视觉的agv目标识别与姿态角解算方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115761684B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116242366A (zh) * | 2023-03-23 | 2023-06-09 | 广东省特种设备检测研究院东莞检测院 | 一种球罐内壁爬壁机器人行走空间跟踪与导航方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105955259A (zh) * | 2016-04-29 | 2016-09-21 | 南京航空航天大学 | 基于多窗口实时测距的单目视觉agv的精确定位方法及系统 |
US20190079537A1 (en) * | 2016-03-17 | 2019-03-14 | Honda Motor Co., Ltd. | Automatic guided vehicle |
CN109766775A (zh) * | 2018-12-18 | 2019-05-17 | 四川大学 | 一种基于深度卷积神经网络的车辆检测系统 |
CN110989579A (zh) * | 2019-11-25 | 2020-04-10 | 长春理工大学 | 室内agv导引方法、装置、计算机设备及其存储介质 |
CN112066879A (zh) * | 2020-09-11 | 2020-12-11 | 哈尔滨工业大学 | 基于计算机视觉的气浮运动模拟器位姿测量装置及方法 |
CN112788110A (zh) * | 2020-12-29 | 2021-05-11 | 山东大学 | 一种基于云边协同模型优化的产品外观检测方法及其实现系统 |
CN113177565A (zh) * | 2021-03-15 | 2021-07-27 | 北京理工大学 | 一种基于深度学习的双目视觉位置测量系统及方法 |
CN113469948A (zh) * | 2021-06-08 | 2021-10-01 | 北京安德医智科技有限公司 | 左心室节段识别方法及装置、电子设备和存储介质 |
CN114283117A (zh) * | 2021-11-24 | 2022-04-05 | 广西大学 | 一种基于改进YOLOv3卷积神经网络的绝缘子缺陷检测方法 |
CN114331831A (zh) * | 2021-11-19 | 2022-04-12 | 长春理工大学 | 一种轻量化的单张图像超分辨率重建方法 |
-
2023
- 2023-01-10 CN CN202310031071.7A patent/CN115761684B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190079537A1 (en) * | 2016-03-17 | 2019-03-14 | Honda Motor Co., Ltd. | Automatic guided vehicle |
CN105955259A (zh) * | 2016-04-29 | 2016-09-21 | 南京航空航天大学 | 基于多窗口实时测距的单目视觉agv的精确定位方法及系统 |
CN109766775A (zh) * | 2018-12-18 | 2019-05-17 | 四川大学 | 一种基于深度卷积神经网络的车辆检测系统 |
CN110989579A (zh) * | 2019-11-25 | 2020-04-10 | 长春理工大学 | 室内agv导引方法、装置、计算机设备及其存储介质 |
CN112066879A (zh) * | 2020-09-11 | 2020-12-11 | 哈尔滨工业大学 | 基于计算机视觉的气浮运动模拟器位姿测量装置及方法 |
CN112788110A (zh) * | 2020-12-29 | 2021-05-11 | 山东大学 | 一种基于云边协同模型优化的产品外观检测方法及其实现系统 |
CN113177565A (zh) * | 2021-03-15 | 2021-07-27 | 北京理工大学 | 一种基于深度学习的双目视觉位置测量系统及方法 |
CN113469948A (zh) * | 2021-06-08 | 2021-10-01 | 北京安德医智科技有限公司 | 左心室节段识别方法及装置、电子设备和存储介质 |
CN114331831A (zh) * | 2021-11-19 | 2022-04-12 | 长春理工大学 | 一种轻量化的单张图像超分辨率重建方法 |
CN114283117A (zh) * | 2021-11-24 | 2022-04-05 | 广西大学 | 一种基于改进YOLOv3卷积神经网络的绝缘子缺陷检测方法 |
Non-Patent Citations (3)
Title |
---|
ENXIU SHI 等: "Study on AGV Posture Estimating Based on Distributed Kalman Fusion for Multi-Sensor" * |
史恩秀 等: "基于分步式Kalman滤波器的AGV姿态角估计方法实验研究" * |
黄慧敏: "基于旋翼飞行机器人的车辆检测与跟踪方法研究" * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116242366A (zh) * | 2023-03-23 | 2023-06-09 | 广东省特种设备检测研究院东莞检测院 | 一种球罐内壁爬壁机器人行走空间跟踪与导航方法 |
CN116242366B (zh) * | 2023-03-23 | 2023-09-12 | 广东省特种设备检测研究院东莞检测院 | 一种球罐内壁爬壁机器人行走空间跟踪与导航方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115761684B (zh) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111311689B (zh) | 一种激光雷达与相机相对外参的标定方法及系统 | |
Lv et al. | LCCNet: LiDAR and camera self-calibration using cost volume network | |
CN109598765B (zh) | 基于球形标定物的单目相机与毫米波雷达外参联合标定方法 | |
US9805294B2 (en) | Method for denoising time-of-flight range images | |
CN107679537B (zh) | 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法 | |
CN103065323B (zh) | 一种基于单应性变换矩阵的分段空间对准方法 | |
US20240013505A1 (en) | Method, system, medium, equipment and terminal for inland vessel identification and depth estimation for smart maritime | |
CN106651942A (zh) | 基于特征点的三维旋转运动检测与旋转轴定位方法 | |
CN109887028A (zh) | 一种基于点云数据配准的无人车辅助定位方法 | |
Li et al. | Automatic targetless LiDAR–camera calibration: a survey | |
CN103559711A (zh) | 基于三维视觉系统图像特征和三维信息的运动估计方法 | |
CN111273312B (zh) | 一种智能车辆定位与回环检测方法 | |
CN101839722A (zh) | 一种中低空下目标自动识别及载体高精度定位方法 | |
CN114998448B (zh) | 一种多约束双目鱼眼相机标定与空间点定位的方法 | |
US11704825B2 (en) | Method for acquiring distance from moving body to at least one object located in any direction of moving body by utilizing camera-view depth map and image processing device using the same | |
CN115761684B (zh) | 基于机器视觉的agv目标识别与姿态角解算方法及系统 | |
CN114413958A (zh) | 无人物流车的单目视觉测距测速方法 | |
CN110095123A (zh) | 不规则小天体表面路标观测信息评价优化方法 | |
CN113012238B (zh) | 一种多深度相机快速标定与数据融合的方法 | |
CN116679314A (zh) | 融合点云强度的三维激光雷达同步建图与定位方法及系统 | |
Duan et al. | Image digital zoom based single target apriltag recognition algorithm in large scale changes on the distance | |
Winarno et al. | Object detection for KRSBI robot soccer using PeleeNet on omnidirectional camera | |
CN116051629B (zh) | 面向自主导航机器人的高精度视觉定位方法 | |
Su | Vanishing points in road recognition: A review | |
Shi et al. | Vision Sensor for Measuring Aerial Refueling Drogue Using Robust Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |