CN111292261A - 一种基于多传感器融合的集装箱检测及锁定方法 - Google Patents

一种基于多传感器融合的集装箱检测及锁定方法 Download PDF

Info

Publication number
CN111292261A
CN111292261A CN202010055138.7A CN202010055138A CN111292261A CN 111292261 A CN111292261 A CN 111292261A CN 202010055138 A CN202010055138 A CN 202010055138A CN 111292261 A CN111292261 A CN 111292261A
Authority
CN
China
Prior art keywords
container
plane
coordinate
image
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010055138.7A
Other languages
English (en)
Other versions
CN111292261B (zh
Inventor
杨宇翔
叶健
高明煜
朱晓靖
孙延志
李怀壮
潘耀辉
叶瑶坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Huacha Logistics Technology Co ltd
Zhejiang Huacha Intelligent Equipment Co ltd
Hangzhou Dianzi University
Original Assignee
Sinofork Equipment Co ltd
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sinofork Equipment Co ltd, Hangzhou Dianzi University filed Critical Sinofork Equipment Co ltd
Priority to CN202010055138.7A priority Critical patent/CN111292261B/zh
Publication of CN111292261A publication Critical patent/CN111292261A/zh
Application granted granted Critical
Publication of CN111292261B publication Critical patent/CN111292261B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于多传感器融合的集装箱检测及锁定方法。实际工业环境中需要利用叉车对搬运设备对集装箱搬运。自动搬运首先需要对集装箱及底部角件的位置进行定位,再操纵搬运设备对集装箱进行锁定、抬升,最后将集装箱搬运到目的地。传统的检测锁定方法通过人工进行锁定效率低、人工成本高。本发明通过多传感器采集不同的环境信息,通过神经网络检测出集装箱在图像中的位置,再通过主成分分析法粗略估计集装箱正面姿态,直至靠近集装箱后,再对其姿态进行精细化估计,最后将集装箱锁定。

Description

一种基于多传感器融合的集装箱检测及锁定方法
技术领域
本发明属于计算机视觉领域,具体涉及一种基于多传感器融合的集装箱检测及锁定方法。
背景技术
在目前的集装箱搬运方法中,大部分都是使用括岸边集装装卸桥、轨道式集装箱龙门起重机、轮胎式集装箱龙门起重机、集装箱跨运车和集装箱正面吊运机等大型机械设备配合人工操作。也有一小部分是应用在小型搬运场景下的设备。集装箱搬运方法中,首先需要对集装箱进行角件锁定,再运输到目标位置。目前,对集装箱进行角件锁定的方法主要有:1)人工对集装箱进行角件锁定;2)通过自动化方法进行角件锁定。
人工对集装箱进行锁定的方法在技术上比较简单,对设备要求不高。但是其工作效率因人而异,熟练与不熟练的工人工作效率相差较大。同时人工成本较高。
自动锁定方法是指集装箱搬运设备结合现有的计算机视觉技术、传感器技术等替代人工操作的方法。集装箱自动锁定方法通过传感器获取集装箱环境信息,通过计算机处理器对传感器采集的信息进行计算,提取出有用信息,再对集装箱进行定位,最后对集装箱进行角件锁定。相对于人工锁定的方法,自动锁定的方法工作效率高,不会受到外界因素影响,可以24小时工作,同时减少了人工开支。
发明内容
本发明通过彩色变焦相机与TOF深度相机组成的多传感器系统采集集装箱所在环境信息,使用目标检测神经网络检测出集装箱在相机拍摄图像中的位置,在根据其位置选择对应的三维点云计算集装箱相对于搬运设备的姿态,最后引导叉车对集装箱进行锁定。
具体步骤是:
步骤(1)使用TOF深度相机获取环境的灰度图和深度图;其中灰度图即为G,深度图即为D;
步骤(2)使用训练好的YOLO-v3神经网络检测灰度图中是否存在集装箱;具体如下:
①将灰度图G输入到训练好的YOLO-v3神经网络中;通过神经网络对灰度图的图像特征进行提取,然后利用提取出的图像特征对集装箱在灰度图中的坐标进行预测,输出多个可能的坐标,最后对多个坐标进行筛选,选择置信度最高的坐标并将坐标保存到内存中;坐标的表示方法为(left,right,top,bottom),其中left,right,top,bottom分别表示集装箱正面在灰度图中最左、最右、最上、最下的像素坐标;
②判断网络输出是否有效;通过与内存中前5帧图像中的集装箱坐标进行比较,比较方式如下:
Figure BDA0002372549530000021
其中,flag表示结果是否有效,xnow表示当前的left,right,top,bottom坐标,xlast表示前帧的left,right,top,bottom坐标,d表示突变阈值;
如果flag为1,则直接进行步骤(4);如果flag为0,表示集装箱位置出现突变,需要进行优化,进行步骤(3);
步骤(3)对集装箱坐标进行优化;优化方式以left坐标为例,如下:
leftnow=0.4×left1+0.3×left2+0.2×left3+0.05×left4+0.05×left5
其中,leftnow为当前帧的左边界坐标值,leftk为k帧前的左边界坐标值;
步骤(4)根据步骤(2)得到的坐标框或步骤(3)优化后的坐标框,再在深度图中选取对应位置的三维点云数据,并通过主成分分析算法计算集装箱正面法向量,再与搬运设备平面的法向量计算两平面夹角,并将当前夹角与中心点云坐标发送给下位机;具体计算步骤如下:
对平面建立平面模型:
Ax+By+Cz+D=0
其中A、B、C、D为平面的参数,x、y、z为平面上点的坐标值;
利用主成分分析算法求解平面法向量的参数,计算方法如下:
(a)求解平面上所有点的协方差矩阵;公式为:
Σ=E(xxT)-E(x)E(xT)
(b)求解协方差矩阵的特征向量与特征值,其中最小特征值对应的特征向量就是平面对应的法向量,也就是平面方程中的参数A、B、C;
(c)将点云中的所有有效数据代入方程,求得多个D值,对D值求平均,得到一个较为准确的D;
(d)在获得了平面在深度相机坐标系的方程后,利用立体几何中的方法,计算出深度相机所在垂直平面与角件平面的夹角;使用公式如下:
Figure BDA0002372549530000031
其中,θ为两平面之间的夹角,
Figure BDA0002372549530000032
Figure BDA0002372549530000033
分别为相机垂直于地面平面的法向量与角件平面的法向量;
步骤(5)搬运设备接收到位置信息后,开始向目标位置进行移动;
步骤(6)重复步骤(1)至(5),不断矫正位置,直至搬运设备移动到集装箱正面2m处,进行步骤(7);
步骤(7)彩色相机开始采集图像,记为I;将I输入到训练好的YOLO-v3神经网络中检测角件在彩色图片中的位置;具体检测过程与步骤(2)相同;
步骤(8)通过集装箱角件位置计算集装箱角件的水平偏差距离diff;具体步骤如下:
(i)计算图片I中单个像素代表的现实距离;计算公式如下:
Figure BDA0002372549530000034
其中,pix代表每个像素的距离,d代表集装箱角件的实际宽度,r和l分别是角件通过步骤(7)检测出来的右边界坐标和左边界坐标;
(ii)计算水平偏差距离;计算公式如下:
diff=pix×(center-correct)
其中diff为水平偏差距离,center为步骤(7)检测出来的集装箱中心的水平坐标
Figure BDA0002372549530000035
correct为记录的对准时中心的水平坐标;
步骤(9)通过图像处理算法对深度相机灰度图G进行处理获取集装箱正面的可靠点云区域,再使用主成分分析法求取准确的搬运设备平面与集装箱正面的夹角;将获取的水平偏移与夹角发送给下位机;其中,主成分分析法与步骤(4)相同;获取点云区域的具体步骤如下:
①、使用高斯滤波器对灰度图进行滤波,滤去图片中的噪声,滤波后的图像记为G';因为高斯滤波器的卷积核是旋转对称的,所以不会对图像的边缘特征造成偏移;在本方案中,卷积核的尺寸具体参数为
Figure BDA0002372549530000041
②、使用Sobel算子对G'进行计算,求取G'中每个像素点的梯度,并且将其水平梯度图与垂直梯度图分别记为Gx与Gy;Gx与Gy的求取公式如下:
Figure BDA0002372549530000042
Figure BDA0002372549530000043
Figure BDA0002372549530000044
③、对Gx与Gy先使用腐蚀操作滤去一些因为噪声等因素造成的干扰像素,再对其使用闭操作,使Gx与Gy中一些因为被某些干扰因素干扰而未被合理计算出梯度的闭合区域进行填充,记操作后的Gx和Gy为Gx’与Gy’;其中,腐蚀操作选取的核函数大小为3×3,闭操作选取的核函数大小为17×17;
④、对Gx’与Gy’进行均值滤波,选取的卷积核大小为5×5;再逐个遍历像素,按照设定的阈值进行挑选,将大于阈值的像素设置为255,小于等于阈值的像素设置为0;经过此步操作后,Gx’与Gy’的边缘的毛刺会明显减少,使边缘信息更加明显;其中,本次阈值选择为245;
⑤、对Gx’按照每列像素统计像素值为255的个数,对Gy’按照每行像素统计像素值的个数,因为如果是边缘所在的行列区域,则该区域的行列中,像素值为255的像素个数与平滑区域有明显数值上的差距,通过记录两个峰值之间的坐标范围,认为此处为该方向上平滑区域;
⑥、分别统计Gx’与Gy’的峰值坐标,选取两者交汇区域作为集装箱前平面的平滑区域;
步骤(10)重复步骤(7)至(9),直至搬运设备根据步骤(9)提供的水平偏移与法向量夹角移动,保证将集装箱角件锁定为止;至此,集装箱被搬运设备锁定。
本发明的有益效果:本发明利用多传感器的强大的环境信息采集能力,通过神经网络检测出集装箱在图像中的位置,再通过主成分分析法粗略估计集装箱正面姿态,直至靠近集装箱后,对其姿态进行精细化估计,最后将集装箱锁定。本方法对集装箱检测位置准确,姿态估计准确。
具体实施方式
步骤(1)使用TOF深度相机获取环境的灰度图和深度图;其中灰度图即为G,深度图即为D;
步骤(2)使用训练好的YOLO-v3神经网络检测灰度图中是否存在集装箱;具体如下:
①将灰度图G输入到训练好的YOLO-v3神经网络中;通过神经网络对灰度图的图像特征进行提取,然后利用提取出的图像特征对集装箱在灰度图中的坐标进行预测,输出多个可能的坐标,最后对多个坐标进行筛选,选择置信度最高的坐标并将坐标保存到内存中;坐标的表示方法为(left,right,top,bottom),其中left,right,top,bottom分别表示集装箱正面在灰度图中最左、最右、最上、最下的像素坐标;
②判断网络输出是否有效;通过与内存中前5帧图像中的集装箱坐标进行比较,比较方式如下:
Figure BDA0002372549530000051
其中,flag表示结果是否有效,xnow表示当前的left,right,top,bottom坐标,xlast表示前帧的left,right,top,bottom坐标,d表示突变阈值;
如果flag为1,则直接进行步骤(4);如果flag为0,表示集装箱位置出现突变,需要进行优化,进行步骤(3);
步骤(3)对集装箱坐标进行优化;优化方式以left坐标为例,如下:
leftnow=0.4×left1+0.3×left2+0.2×left3+0.05×left4+0.05×left5
其中,leftnow为当前帧的左边界坐标值,leftk为k帧前的左边界坐标值;
步骤(4)根据步骤(2)得到的坐标框或步骤(3)优化后的坐标框,再在深度图中选取对应位置的三维点云数据,并通过主成分分析算法计算集装箱正面法向量,再与搬运设备平面的法向量计算两平面夹角,并将当前夹角与中心点云坐标发送给下位机;具体计算步骤如下:
对平面建立平面模型:
Ax+By+Cz+D=0
其中A、B、C、D为平面的参数,x、y、z为平面上点的坐标值;
利用主成分分析算法求解平面法向量的参数,计算方法如下:
(a)求解平面上所有点的协方差矩阵;公式为:
Σ=E(xxT)-E(x)E(xT)
(b)求解协方差矩阵的特征向量与特征值,其中最小特征值对应的特征向量就是平面对应的法向量,也就是平面方程中的参数A、B、C;
(c)将点云中的所有有效数据代入方程,求得多个D值,对D值求平均,得到一个较为准确的D;
(d)在获得了平面在深度相机坐标系的方程后,利用立体几何中的方法,计算出深度相机所在垂直平面与角件平面的夹角;使用公式如下:
Figure BDA0002372549530000061
其中,θ为两平面之间的夹角,
Figure BDA0002372549530000062
Figure BDA0002372549530000063
分别为相机垂直于地面平面的法向量与角件平面的法向量;
步骤(5)搬运设备接收到位置信息后,开始向目标位置进行移动;
步骤(6)重复步骤(1)至(5),不断矫正位置,直至搬运设备移动到集装箱正面2m处,进行步骤(7);
步骤(7)彩色相机开始采集图像,记为I;将I输入到训练好的YOLO-v3神经网络中检测角件在彩色图片中的位置;具体检测过程与步骤(2)相同;
步骤(8)通过集装箱角件位置计算集装箱角件的水平偏差距离diff;具体步骤如下:
(i)计算图片I中单个像素代表的现实距离;计算公式如下:
Figure BDA0002372549530000064
其中,pix代表每个像素的距离,d代表集装箱角件的实际宽度,r和l分别是角件通过步骤(7)检测出来的右边界坐标和左边界坐标;
(ii)计算水平偏差距离;计算公式如下:
diff=pix×(center-correct)
其中diff为水平偏差距离,center为步骤(7)检测出来的集装箱中心的水平坐标
Figure BDA0002372549530000071
correct为记录的对准时中心的水平坐标;
步骤(9)通过图像处理算法对深度相机灰度图G进行处理获取集装箱正面的可靠点云区域,再使用主成分分析法求取准确的搬运设备平面与集装箱正面的夹角;将获取的水平偏移与夹角发送给下位机;其中,主成分分析法与步骤(4)相同;获取点云区域的具体步骤如下:
①、使用高斯滤波器对灰度图进行滤波,滤去图片中的噪声,滤波后的图像记为G';因为高斯滤波器的卷积核是旋转对称的,所以不会对图像的边缘特征造成偏移;在本方案中,卷积核的尺寸具体参数为
Figure BDA0002372549530000072
②、使用Sobel算子对G'进行计算,求取G'中每个像素点的梯度,并且将其水平梯度图与垂直梯度图分别记为Gx与Gy;Gx与Gy的求取公式如下:
Figure BDA0002372549530000073
Figure BDA0002372549530000074
Figure BDA0002372549530000075
③、对Gx与Gy先使用腐蚀操作滤去一些因为噪声等因素造成的干扰像素,再对其使用闭操作,使Gx与Gy中一些因为被某些干扰因素干扰而未被合理计算出梯度的闭合区域进行填充,记操作后的Gx和Gy为Gx’与Gy’;其中,腐蚀操作选取的核函数大小为3×3,闭操作选取的核函数大小为17×17;
④、对Gx’与Gy’进行均值滤波,选取的卷积核大小为5×5;再逐个遍历像素,按照设定的阈值进行挑选,将大于阈值的像素设置为255,小于等于阈值的像素设置为0;经过此步操作后,Gx’与Gy’的边缘的毛刺会明显减少,使边缘信息更加明显;其中,本次阈值选择为245;
⑤、对Gx’按照每列像素统计像素值为255的个数,对Gy’按照每行像素统计像素值的个数,因为如果是边缘所在的行列区域,则该区域的行列中,像素值为255的像素个数与平滑区域有明显数值上的差距,通过记录两个峰值之间的坐标范围,认为此处为该方向上平滑区域;
⑥、分别统计Gx’与Gy’的峰值坐标,选取两者交汇区域作为集装箱前平面的平滑区域;
步骤(10)重复步骤(7)至(9),直至搬运设备根据步骤(9)提供的水平偏移与法向量夹角移动,保证将集装箱角件锁定为止;至此,集装箱被搬运设备锁定。

Claims (1)

1.一种基于多传感器融合的集装箱检测及锁定方法,其特征在于该方法的具体步骤是:
步骤(1)使用TOF深度相机获取环境的灰度图和深度图;其中灰度图即为G,深度图即为D;
步骤(2)使用训练好的YOLO-v3神经网络检测灰度图中是否存在集装箱;具体如下:
①将灰度图G输入到训练好的YOLO-v3神经网络中;通过神经网络对灰度图的图像特征进行提取,然后利用提取出的图像特征对集装箱在灰度图中的坐标进行预测,输出多个可能的坐标,最后对多个坐标进行筛选,选择置信度最高的坐标并将坐标保存到内存中;坐标的表示方法为(left,right,top,bottom),其中left,right,top,bottom分别表示集装箱正面在灰度图中最左、最右、最上、最下的像素坐标;
②判断网络输出是否有效;通过与内存中前5帧图像中的集装箱坐标进行比较,比较方式如下:
Figure FDA0002372549520000011
其中,flag表示结果是否有效,xnow表示当前的left,right,top,bottom坐标,xlast表示前帧的left,right,top,bottom坐标,d表示突变阈值;
如果flag为1,则直接进行步骤(4);如果flag为0,表示集装箱位置出现突变,需要进行优化,进行步骤(3);
步骤(3)对集装箱坐标进行优化;优化方式以left坐标为例,如下:
leftnow=0.4×left1+0.3×left2+0.2×left3+0.05×left4+0.05×left5
其中,leftnow为当前帧的左边界坐标值,leftk为k帧前的左边界坐标值;
步骤(4)根据步骤(2)得到的坐标框或步骤(3)优化后的坐标框,再在深度图中选取对应位置的三维点云数据,并通过主成分分析算法计算集装箱正面法向量,再与搬运设备平面的法向量计算两平面夹角,并将当前夹角与中心点云坐标发送给下位机;具体计算步骤如下:
对平面建立平面模型:
Ax+By+Cz+D=0
其中A、B、C、D为平面的参数,x、y、z为平面上点的坐标值;
利用主成分分析算法求解平面法向量的参数,计算方法如下:
(a)求解平面上所有点的协方差矩阵;公式为:
Σ=E(xxT)-E(x)E(xT)
(b)求解协方差矩阵的特征向量与特征值,其中最小特征值对应的特征向量就是平面对应的法向量,也就是平面方程中的参数A、B、C;
(c)将点云中的所有有效数据代入方程,求得多个D值,对D值求平均,得到一个较为准确的D;
(d)在获得了平面在深度相机坐标系的方程后,利用立体几何中的方法,计算出深度相机所在垂直平面与角件平面的夹角;使用公式如下:
Figure FDA0002372549520000021
其中,θ为两平面之间的夹角,
Figure FDA0002372549520000022
Figure FDA0002372549520000023
分别为相机垂直于地面平面的法向量与角件平面的法向量;
步骤(5)搬运设备接收到位置信息后,开始向目标位置进行移动;
步骤(6)重复步骤(1)至(5),不断矫正位置,直至搬运设备移动到集装箱正面2m处,进行步骤(7);
步骤(7)彩色相机开始采集图像,记为I;将I输入到训练好的YOLO-v3神经网络中检测角件在彩色图片中的位置;具体检测过程与步骤(2)相同;
步骤(8)通过集装箱角件位置计算集装箱角件的水平偏差距离diff;具体步骤如下:
(i)计算图片I中单个像素代表的现实距离;计算公式如下:
Figure FDA0002372549520000024
其中,pix代表每个像素的距离,d代表集装箱角件的实际宽度,r和l分别是角件通过步骤(7)检测出来的右边界坐标和左边界坐标;
(ii)计算水平偏差距离;计算公式如下:
diff=pix×(center-correct)
其中diff为水平偏差距离,center为步骤(7)检测出来的集装箱中心的水平坐标
Figure FDA0002372549520000031
correct为记录的对准时中心的水平坐标;
步骤(9)通过图像处理算法对深度相机灰度图G进行处理获取集装箱正面的可靠点云区域,再使用主成分分析法求取准确的搬运设备平面与集装箱正面的夹角;将获取的水平偏移与夹角发送给下位机;其中,主成分分析法与步骤(4)相同;获取点云区域的具体步骤如下:
①、使用高斯滤波器对灰度图进行滤波,滤去图片中的噪声,滤波后的图像记为G';因为高斯滤波器的卷积核是旋转对称的,所以不会对图像的边缘特征造成偏移;在本方案中,卷积核的尺寸具体参数为
Figure FDA0002372549520000032
②、使用Sobel算子对G'进行计算,求取G'中每个像素点的梯度,并且将其水平梯度图与垂直梯度图分别记为Gx与Gy;Gx与Gy的求取公式如下:
Figure FDA0002372549520000033
Figure FDA0002372549520000034
Figure FDA0002372549520000035
③、对Gx与Gy先使用腐蚀操作滤去一些因为噪声等因素造成的干扰像素,再对其使用闭操作,使Gx与Gy中一些因为被某些干扰因素干扰而未被合理计算出梯度的闭合区域进行填充,记操作后的Gx和Gy为Gx’与Gy’;其中,腐蚀操作选取的核函数大小为3×3,闭操作选取的核函数大小为17×17;
④、对Gx’与Gy’进行均值滤波,选取的卷积核大小为5×5;再逐个遍历像素,按照设定的阈值进行挑选,将大于阈值的像素设置为255,小于等于阈值的像素设置为0;经过此步操作后,Gx’与Gy’的边缘的毛刺会明显减少,使边缘信息更加明显;其中,本次阈值选择为245;
⑤、对Gx’按照每列像素统计像素值为255的个数,对Gy’按照每行像素统计像素值的个数,因为如果是边缘所在的行列区域,则该区域的行列中,像素值为255的像素个数与平滑区域有明显数值上的差距,通过记录两个峰值之间的坐标范围,认为此处为该方向上平滑区域;
⑥、分别统计Gx’与Gy’的峰值坐标,选取两者交汇区域作为集装箱前平面的平滑区域;
步骤(10)重复步骤(7)至(9),直至搬运设备根据步骤(9)提供的水平偏移与法向量夹角移动,保证将集装箱角件锁定为止;至此,集装箱被搬运设备锁定。
CN202010055138.7A 2020-01-17 2020-01-17 一种基于多传感器融合的集装箱检测及锁定方法 Active CN111292261B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010055138.7A CN111292261B (zh) 2020-01-17 2020-01-17 一种基于多传感器融合的集装箱检测及锁定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010055138.7A CN111292261B (zh) 2020-01-17 2020-01-17 一种基于多传感器融合的集装箱检测及锁定方法

Publications (2)

Publication Number Publication Date
CN111292261A true CN111292261A (zh) 2020-06-16
CN111292261B CN111292261B (zh) 2023-04-18

Family

ID=71017555

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010055138.7A Active CN111292261B (zh) 2020-01-17 2020-01-17 一种基于多传感器融合的集装箱检测及锁定方法

Country Status (1)

Country Link
CN (1) CN111292261B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114612939A (zh) * 2022-03-25 2022-06-10 珠海视熙科技有限公司 一种基于tof相机的坐姿识别方法、装置及智能台灯

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101200266A (zh) * 2007-12-06 2008-06-18 三一重工股份有限公司 集装箱吊具自动旋锁装置
CN105905809A (zh) * 2016-06-28 2016-08-31 浙江华叉搬运设备有限公司 一种集装箱搬运小车控制方法
CN105947888A (zh) * 2016-07-11 2016-09-21 江苏工力重机有限公司 一种集装箱岸桥用新型小车锚定装置
CN107680092A (zh) * 2017-10-12 2018-02-09 中科视拓(北京)科技有限公司 一种基于深度学习的集装箱锁扣检测及预警方法
CN108960318A (zh) * 2018-06-28 2018-12-07 武汉市哈哈便利科技有限公司 一种用于无人售货柜的采用双目视觉技术的商品识别算法
EP3492944A1 (en) * 2017-12-01 2019-06-05 Origin Wireless, Inc. Apparatus, systems and methods for event detection and recognition based on a wireless signal
US20190265714A1 (en) * 2018-02-26 2019-08-29 Fedex Corporate Services, Inc. Systems and methods for enhanced collision avoidance on logistics ground support equipment using multi-sensor detection fusion
CN110276371A (zh) * 2019-05-05 2019-09-24 杭州电子科技大学 一种基于深度学习的集装箱角件识别方法
WO2019206273A1 (zh) * 2018-04-28 2019-10-31 深圳市商汤科技有限公司 碰撞控制方法及装置、电子设备和存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101200266A (zh) * 2007-12-06 2008-06-18 三一重工股份有限公司 集装箱吊具自动旋锁装置
CN105905809A (zh) * 2016-06-28 2016-08-31 浙江华叉搬运设备有限公司 一种集装箱搬运小车控制方法
CN105947888A (zh) * 2016-07-11 2016-09-21 江苏工力重机有限公司 一种集装箱岸桥用新型小车锚定装置
CN107680092A (zh) * 2017-10-12 2018-02-09 中科视拓(北京)科技有限公司 一种基于深度学习的集装箱锁扣检测及预警方法
EP3492944A1 (en) * 2017-12-01 2019-06-05 Origin Wireless, Inc. Apparatus, systems and methods for event detection and recognition based on a wireless signal
US20190265714A1 (en) * 2018-02-26 2019-08-29 Fedex Corporate Services, Inc. Systems and methods for enhanced collision avoidance on logistics ground support equipment using multi-sensor detection fusion
WO2019206273A1 (zh) * 2018-04-28 2019-10-31 深圳市商汤科技有限公司 碰撞控制方法及装置、电子设备和存储介质
CN108960318A (zh) * 2018-06-28 2018-12-07 武汉市哈哈便利科技有限公司 一种用于无人售货柜的采用双目视觉技术的商品识别算法
CN110276371A (zh) * 2019-05-05 2019-09-24 杭州电子科技大学 一种基于深度学习的集装箱角件识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈景琳等: ""集装箱正面起重机装载检测及分拣监测系统设计"", 《内燃机与配件》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114612939A (zh) * 2022-03-25 2022-06-10 珠海视熙科技有限公司 一种基于tof相机的坐姿识别方法、装置及智能台灯
CN114612939B (zh) * 2022-03-25 2023-01-10 珠海视熙科技有限公司 一种基于tof相机的坐姿识别方法、装置及智能台灯

Also Published As

Publication number Publication date
CN111292261B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN106067023B (zh) 基于图像处理的集装箱箱号及集卡车号识别系统及方法
CN112418103B (zh) 一种基于动态双目视觉的桥式起重机吊装安全防撞系统及方法
US20170308103A1 (en) Flight device, flight control system and method
CN110245663B (zh) 一种用于钢卷信息识别的方法
CN111598952B (zh) 一种多尺度合作靶标设计与在线检测识别方法及系统
CN110110608B (zh) 一种全景监控下基于视觉的叉车速度监测方法和系统
CN114331986A (zh) 一种基于无人机视觉的坝体裂纹识别与测量方法
CN111814739B (zh) 快递包裹体积的检测方法、装置、设备及存储介质
WO2021000948A1 (zh) 配重重量的检测方法与系统、获取方法与系统及起重机
KR20180098945A (ko) 고정형 단일 카메라를 이용한 차량 속도 감지 방법 및 장치
CN115546202B (zh) 一种用于无人叉车的托盘检测与定位方法
CN110807765A (zh) 一种基于图像处理的悬垂绝缘子串倾斜检测方法与系统
WO2023087877A1 (zh) 一种基于双目视觉和对称性的偏移量检测方法
CN111292261B (zh) 一种基于多传感器融合的集装箱检测及锁定方法
CN114463357B (zh) 一种在重介质选煤中实时确定介质堆动态信息的方法
CN116309882A (zh) 一种面向无人叉车应用的托盘检测和定位方法及系统
CN111273701A (zh) 一种云台视觉控制系统以及控制方法
CN112116644B (zh) 一种基于视觉的障碍物检测方法和装置、障碍物距离计算方法和装置
CN116573366B (zh) 基于视觉的皮带跑偏检测方法、系统、设备及存储介质
US20240005548A1 (en) Information processing apparatus, three-dimensional position estimation method, and a non-transitory computer-readable medium
CN110276371B (zh) 一种基于深度学习的集装箱角件识别方法
CN116805332A (zh) 一种基于霍夫变换的型钢姿态判别方法
CN115792912A (zh) 一种弱观测条件下基于视觉与毫米波雷达融合的水面无人艇环境感知方法及系统
CN115909216A (zh) 一种基于激光雷达和单目相机的货船舱口检测方法及系统
CN111932576B (zh) 一种基于深度相机的物体边界测量方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang

Patentee after: HANGZHOU DIANZI University

Country or region after: China

Patentee after: Zhejiang Huacha Intelligent Equipment Co.,Ltd.

Address before: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang

Patentee before: HANGZHOU DIANZI University

Country or region before: China

Patentee before: SINOFORK EQUIPMENT CO.,LTD.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240722

Address after: Room 1911, Unit 2, Building 4, Blue Diamond Sky City, Gongshu District, Hangzhou City, Zhejiang Province 310000

Patentee after: Hangzhou Huacha Logistics Technology Co.,Ltd.

Country or region after: China

Patentee after: Zhejiang Huacha Intelligent Equipment Co.,Ltd.

Address before: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang

Patentee before: HANGZHOU DIANZI University

Country or region before: China

Patentee before: Zhejiang Huacha Intelligent Equipment Co.,Ltd.