CN113554706A - 基于深度学习的小车包裹位置检测方法 - Google Patents
基于深度学习的小车包裹位置检测方法 Download PDFInfo
- Publication number
- CN113554706A CN113554706A CN202110864462.8A CN202110864462A CN113554706A CN 113554706 A CN113554706 A CN 113554706A CN 202110864462 A CN202110864462 A CN 202110864462A CN 113554706 A CN113554706 A CN 113554706A
- Authority
- CN
- China
- Prior art keywords
- trolley
- area
- package
- information
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 66
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 210000000056 organ Anatomy 0.000 claims description 22
- 238000012546 transfer Methods 0.000 claims description 21
- 238000012216 screening Methods 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 13
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 230000005764 inhibitory process Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 7
- 238000011217 control strategy Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000011900 installation process Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010992 reflux Methods 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
Abstract
本发明涉及一种小车包裹位置检测方法,尤其是一种基于深度学习的小车包裹位置检测方法。按照本发明提供的技术方案,一种基于深度学习的小车包裹位置检测方法,所述小车包裹位置检测方法包括如下步骤:步骤S1、实时获取传送小车的图像;步骤S2、对上述获取的图像进行所需的预处理,以能得到获取图像中ROI区域,所述ROI区域包括风琴板区域以及皮带面区域;步骤S3、利用深度学习方法对上述获取的ROI区域进行检测,以能得到传送小车上包裹的位置信息,其中,深度学习方法采用基于YOLO的目标检测模型。
Description
技术领域
本发明涉及一种小车包裹位置检测方法,尤其是一种基于深度学习的小车包裹位置检测方法。
背景技术
近年来,随着电商的井喷式发展,快递行业的业务量呈几何式增长,快递分拣的效率直接影响物流配送速度和企业管理的效果。交叉带式分拣系统包括主驱动带式输送机以及由小型带式输送机的台车(简称“传送小车”),传送小车移动到所规定的分拣位置时,转动皮带,实现将包裹分拣送出的任务。由于主驱动带式输送机与传送小车上的带式输出机呈交叉状,故称作交叉带式分拣机。
目前,现有的交叉带分拣技术中存在普遍的撞包以及分拣口包裹错分的问题。因此,为了保证包裹分拣的效率以及准确率,准确判别传送小车上面包裹的位置信息已经成为急需解决的问题。
发明内容
本发明的目的是克服现有技术中存在的不足,提供一种基于深度学习的小车包裹位置检测方法,其保证检测结果的稳定性和准确性,从而大大降低包裹运输过程中的错分率。
按照本发明提供的技术方案,一种基于深度学习的小车包裹位置检测方法,所述小车包裹位置检测方法包括如下步骤:
步骤S1、实时获取传送小车的图像;
步骤S2、对上述获取的图像进行所需的预处理,以能得到获取图像中ROI区域,所述ROI区域包括风琴板区域以及皮带面区域;
步骤S3、利用深度学习方法对上述获取的ROI区域进行检测,以能得到传送小车上包裹的位置信息,其中,深度学习方法采用基于YOLO的目标检测模型。
步骤S1中,通过安装于传送小车上方的相机能采集获取传送小车的图像,其中,当光电检测开关检测到所述传送小车时,发送触发信号至检测控制器,以由所述检测控制器触发所述相机拍照,以能获取传送小车的图像;或者由检测控制器设置帧率信息定时触发所述相机,以能获取传送小车的图像。
步骤S2中,在预处理时,包括如下步骤:
步骤S2.1、通过人工标定的方式对图像进行水平校正,并获取得到ROI区域;
步骤S2.2、通过高斯滤波函数对ROI区域进行滤波,并通过梯度阈值分割方法提取风琴板区域的位置信息;
步骤S2.3、结合上述梯度信息遍历风琴板区域,以对风琴板的边缘位置进行定位;
步骤S2.4、根据上述定位的风琴板的边缘位置,将ROI区域划分为风琴板区域与皮带面区域。
步骤S2.1中,在水平校正时,手动选取传送小车上两个水平点的坐标信息,并根据所所述坐标信息确定水平角度以及图像中心点的坐标信息确定仿射变换矩阵,根据仿射变换矩阵对图像进行旋转,以实现对图像的水平校正。
步骤S3中,包括如下步骤:
步骤S3.1、在训练后得到基于YOLO的目标检测模型,利用所述基于YOLO的目标检测模型对ROI区域进行检测,以能获取当前传送小车上包含包裹信息的所有目标框。通过设定得分初步筛选阈值,对所得目标框进行初步筛选,以删除小于得分初步筛选阈值的目标框;
步骤S3.2、利用非极大值抑制对获取的目标框进行融合,以能获取包裹的位置信息。
步骤S3.2中,包括如下步骤:
步骤S3.2.1、将所有目标框的得分排序,选择排序后得分最高的目标框;
步骤S3.2.2、在选定得分最高的目标框后,遍历其余的目标框,在遍历其余目标框时,当所遍历的目标框与所选定得分最高目标框的重叠面积大于设定的重叠面积阈值时,将当前所遍历的目标框删除。
还包括步骤S4,其中,步骤S4中,根据步骤S3中得到包裹的位置信息,判断包裹的状态信息,所述包裹的状态信息包括包裹的数量信息和/或包裹的位置状态信息。
根据获得包含包裹信息的目标框个数,能得到包裹的个数信息,所述包裹的个数信息为0件、单件或多件;
将风琴板区域划分为上半风琴板区域与下半风琴板区域,并计算包裹的位置信息与所述上半风琴板区域、下半风琴板区域以及皮带面区域相应的面积交比,将计算得到的面积交比与面积交比阈值比较,以能确定包裹的位置状态信息。
还包括步骤S5,其中,根据包裹的状态信息,通过传送小车控制包裹的运输。
所述检测控制器包括FPGA。
本发明的优点:在获取传送小车的图像数据后,对图像进行预处理获取ROI区域,ROI区域包括风琴板区域与皮带面区域,利用基于YOLO的目标检测模型对ROI区域检测后,能得到包裹的位置信息,保证检测结果的稳定性和准确性,从而大大降低包裹运输过程中的错分率。
附图说明
图1为本发明的流程图。
具体实施方式
下面结合具体附图和实施例对本发明作进一步说明。
如图1所示:为了能保证检测结果的稳定性和准确性,本发明的小车包裹位置检测方法包括如下步骤:
步骤S1、实时获取传送小车的图像;
具体地,传送小车可以为常用的形式,通过安装于传送小车上方的相机能采集获取传送小车的图像,其中,当光电检测开关检测到所述传送小车时,发送触发信号至检测控制器,以由所述检测控制器触发所述相机拍照,以能获取传送小车的图像;或者由检测控制器设置帧率信息定时触发所述相机,以能获取传送小车的图像。
本发明实施例中,检测控制器包括FPGA(现场可变成逻辑门阵列),相机、光电检测开关可以采用现有常用的形式,相机安装于传送小车的上方,相机、光电检测开关、检测控制器与传送小车间的位置关系等均可与现有相一致,具体为本技术领域人员所熟知,此处不再赘述。通过本技术领域常用的技术手段,能在检测控制器内设置帧率信息,从而能定时触发相机,具体定时信息可以根据实际需要等选择,具体以能满足获取图像的需求为准,此处不再赘述。
步骤S2、对上述获取的图像进行所需的预处理,以能得到获取图像中ROI区域,所述ROI区域包括风琴板区域以及皮带面区域;
具体地,在预处理时,包括如下步骤:
步骤S2.1、通过人工标定的方式对图像进行水平校正,并获取得到ROI区域;
考虑到相机在安装过程中存在角度偏差的问题,需要通过人工标定的方式对图像进行水平校正,一般地,只需要在相机安装位置确定后进行一次人工标定,后续的图像可以根据标定结果直接进行水平校正即可,具体为本技术领域人员所熟知,此处不再赘述。本发明实施例中,在水平校正时,手动选取传送小车上能代表小车水平性的两个标记点的坐标信息,并根据所述坐标信息确定水平角度以及图像中心点的坐标信息确定仿射变换矩阵,根据仿射变换矩阵对图像进行旋转,以实现对图像的水平校正,从而降低因安装角度偏差带来的检测结果的误差。通过人工标定获取图像中的ROI区域(感兴趣区域),从而能减少非感兴趣区域对最终检测结果的干扰。
具体实施时,水平校准时,手动选取的两个水平点一般为能代表传送小车水平性的任意两个位置点,而传送小车上的两个能代表小车水平性的标记点能满足水平校准的要求,可以根据需要选取。图像的中心点即为ROI区域的中心点,可以根据ROI区域的大小确定,具体为本技术领域人员所熟知,此处不再赘述。
步骤S2.2、通过高斯滤波函数对ROI区域进行滤波,并通过梯度阈值分割方法提取风琴板区域的位置信息;
本发明实施例中,通过高斯滤波函数对ROI区域进行滤波后,能降低噪声对后续步骤的干扰。高斯滤波函数为常用的滤波去噪函数,具体实施时,可以根据需要选择滑动窗口模板的大小,具体实施时,滑动窗口模板大小可以为5*5。
步骤S2.3、结合上述梯度信息遍历风琴板区域,以对风琴板的边缘位置进行定位;
具体实施时,所述梯度信息即为利用梯度阈值分割法得到的梯度信息。
步骤S2.4、根据上述定位的风琴板的边缘位置,将ROI区域划分为风琴板区域与皮带面区域。
具体实施时,利用梯度阈值分割方法提取风琴板区域的位置信息主要过程:首先利用sobel算子对ROI区域进行x方向和y方向的梯度检测,滑动窗口模板大小为7*7,然后,根据得到的梯度信息进一步计算ROI区域的梯度幅值和梯度方向。根据设定的梯度幅值阈值参数(经验值)完成ROI区域的梯度阈值分割,从而提取出风琴板区域的边缘信息(这部分相比其他区域的梯度信息比较明显),最后,利用梯度阈值分割后的二值化图像结合梯度方向,对风琴板区域进行膨胀填充,从而提取出完整的风琴板区域,完成风琴板区域和皮带面区域的划分。
本发明实施例中,sobel算子为常用的梯度检测算子,在选定sobel算子的滑动窗口模板大小后,可以利用sobel算子进行梯度检测,具体检测过程与现有相一致,具体为本技术领域人员所熟知,此处不再赘述。具体计算ROI区域的梯度幅值以及梯度方向的过程也与现有相一致,具体为本技术领域人员所熟知,此处不再赘述。
在提取得到完整的风琴板区域时,结合梯度方向具体是指在垂直方向上对风琴板区域进行膨胀填充,具体膨胀填充的过程以及方式均与现有相一致,具体为本技术领域人员所熟知,此处不再赘述。
步骤S3、利用深度学习方法对上述获取的ROI区域进行检测,以能得到传送小车上包裹的位置信息,其中,深度学习方法采用基于YOLO的目标检测模型。
具体地,包括如下步骤:
步骤S3.1、在训练后得到基于YOLO的目标检测模型,利用所述基于YOLO的目标检测模型对ROI区域进行检测,以能获取当前传送小车上包含包裹信息的所有目标框,通过设定得分初步筛选阈值,对所得目标框进行初步筛选,以删除小于得分初步筛选阈值的目标框;
本发明实施例中,基于YOLO的目标检测模型可以采用现有的模型方式,为了能适应对小车的位置信息检测,需要对选定的模型进行训练。在初步筛选时,对于大于得分初步筛选阈值的目标框进行保留,实现初步筛选。得分初步筛选阈值一般为经验值,如可以设置为0.5,即得分大于0.5的目标框保留,否则,删除所述目标框。
在进行训练时,需要提供训练样本;其中,训练样本是通过相机采集包含了空车(即没有包裹的情况),单个包裹,多个包裹以及皮带面污染情况的原始图像数据,对这些原始数据进行图像预处理(即水平标定),获取ROI区域后,通过lablimg工具手动标注每个样本的包裹位置信息,制成标准格式的数据集格式。lablimg工具为现有常用的标准工具,具体为本技术领域人员所熟知,此处不再赘述。具体实施时,训练样本可包括9500张处理后的ROI区域的图像,其中,6500张图片作为训练集,3000张图片作为验证集。
训练时,输入模型图像大小设为214*214*3的RGB数据,训练的批次batch设为64,subdivisions设为8,即训练将一次性加载64张图片进内存,然后分8次完成前向传播,完成64张前向传播后进行一次反向传播。采用带有动量的随机梯度下降算法,动量设置为0.949,权重衰减正则项设置为0.005,学习率设为0.001,学习率调整策略采用steps来改变,steps设为16000,18000,scales设为0.1,0.1,即在达到16000,18000迭代次数的时候学习率乘以对应的scale进行调整,最大迭代次数设为20000。在训练后,能得到所需基于YOLO的目标检测模型,具体训练过程可以为本技术领域人员所熟知,此处不再赘述。
在得到基于YOLO的目标检测模型后,对上述的ROI区域检测后,能得到包含包裹信息的目标框。步骤S3.2、利用非极大值抑制对获取的目标框进行融合,以能获取包裹的位置信息。
本发明实施例中,利用非极大值抑制对获取的目标框进行融合具体是指根据目标框的得分情况对目标框进行筛选,再次筛选后得到的目标框才是最终的包裹的位置信息。具体地,利用非极大值抑制对目标框融合的过程包括如下步骤:
步骤S3.2.1、将所有目标框的得分排序,选择排序后得分最高的目标框;
本发明实施例中,在通过基于YOLO的目标检测模型处理后,能得到目标框以及每个目标框的得分情况,从而可以直接对目标框的得分进行排序。
步骤S3.2.2、在选定得分最高的目标框后,遍历其余的目标框,当所遍历的目标框与所选定得分最高目标框的重叠面积大于设定的重叠面积阈值时,将当前所遍历的目标框删除。
本发明实施例中,采用基于YOLO的目标检测模型时,目标模型的输出层会有(B*(5+C))输出参数,其中,B表示的是每个单元可以预测的边界框的数量,在本发明的YOLO目标检测模型中B可选取3,每个边界框都有5+C个属性,分别描述每个边框的中心点坐标、尺寸、目标框得分(objectness score)和C个类的置信度。因此,非极大值抑制判别是用到的目标框的得分是有基于YOLO的目标检测模型预测后输出的结果,目标分数代表边界框内包含目标的概率,得分越大其预测正确的概率越大。
重叠面积阈值一般可以根据需要选择,如可以设置为0.4,具体大小可以根据实际情况选择确定。
进一步地,还包括步骤S4,其中,步骤S4中,根据步骤S3中得到包裹的位置信息,判断包裹的状态信息,所述包裹的状态信息包括包裹的数量信息和/或包裹的位置状态信息。
本发明实施例中,根据获得包含包裹信息的目标框个数,能得到包裹的个数信息,所述包裹的个数信息为0件、单件或多件;具体地,当目标框个数为0时,代表当前小车没有检测到包裹,即包裹的个数信息为0,当目标框的数据为1时,代表当前小车包裹数目为1,即为单件,当目标框数目大于等于2的时候,即为多件。
将风琴板区域划分为上半风琴板区域与下半风琴板区域,并计算包裹的位置信息与所述上半风琴板区域、下半风琴板区域以及皮带面区域相应的面积交比,将计算得到的面积交比与面积交比阈值比较,以能确定包裹的位置状态信息。
具体地,通过在y方向上(即小车的运动方向)对半分割将风琴板区域自动划分为上半风琴板区域和下半分琴板区域。划分后,原先的风琴板区域+皮带面区域即分割为三个独立的部分:上半风琴板区域、下半风琴板区域、皮带面区域,通过分别计算包裹落在上半风琴板区域、下半风琴板区域、皮带面区域的面积S分别占上半风琴板区域、下半风琴板区域、皮带面区域相对应的面积比,结合面积交比阈值,判别该包裹分别在上半风琴板区域、下半风琴板区域、皮带面区域相对应的超边情况,大于面积比阈值的话则判别为对应区域内超边,否则,不超边。
设定的面积交比阈值,是根据实际现场的错分以及回流率的情况设定的经验值。面积交比阈值偏大会降低包裹的回流率,同时会增加包裹错分的风险,偏小的话可能会增加包裹的回流率。
本发明实例中,具体可采用本技术领域常用的技术手段计算得到包裹落在上半风琴板区域、下半风琴板区域、皮带面区域的面积S,从而能得到相应的面积交比。通过设定面积交比阈值,将包裹的超边情况划分为,不超边,上超边以及下超边信息,同时给出当前小车的包裹数目信息(空车,单件,多包)。
进一步地,还包括步骤S5,其中,根据包裹的状态信息,通过传送小车控制包裹的运输。
本发明实施列中,通过TCP/UDP协议,将所述图像检测的数据实时发送给可编程逻辑控制器PLC,PLC结合不同的包裹位置信息,以及包裹的状态信息进行不同的控制策略,从而完成包裹的快速分拣。其中,图像检测的数据即为上述确定得到的包裹的位置信息与状态信息,在PLC内预先存储一种或多种控制策略,所述控制策略的目的是能有效实现对包裹的分拣,控制策略可以为现有常用的分拣控制方式,具体为本技术领域人员所熟知,此处不再赘述。
以上所述仅为本发明的较佳实施案例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改,等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的小车包裹位置检测方法,其特征是,所述小车包裹位置检测方法包括如下步骤:
步骤S1、实时获取传送小车的图像;
步骤S2、对上述获取的图像进行所需的预处理,以能得到获取图像中ROI区域,所述ROI区域包括风琴板区域以及皮带面区域;
步骤S3、利用深度学习方法对上述获取的ROI区域进行检测,以能得到传送小车上包裹的位置信息,其中,深度学习方法采用基于YOLO的目标检测模型。
2.根据权利要求1所述的基于深度学习的小车包裹位置检测方法,其特征是:步骤S1中,通过安装于传送小车上方的相机能采集获取传送小车的图像,其中,当光电检测开关检测到所述传送小车时,发送触发信号至检测控制器,以由所述检测控制器触发所述相机拍照,以能获取传送小车的图像;或者由检测控制器设置帧率信息定时触发所述相机,以能获取传送小车的图像。
3.根据权利要求1所述的基于深度学习的小车包裹位置检测方法,其特征是:步骤S2中,在预处理时,包括如下步骤:
步骤S2.1、通过人工标定的方式对图像进行水平校正,并获取得到ROI区域;
步骤S2.2、通过高斯滤波函数对ROI区域进行滤波,并通过梯度阈值分割方法提取风琴板区域的位置信息;
步骤S2.3、结合上述梯度信息遍历风琴板区域,以对风琴板的边缘位置进行定位;
步骤S2.4、根据上述定位的风琴板的边缘位置,将ROI区域划分为风琴板区域与皮带面区域。
4.根据权利要求3所述的基于深度学习的小车包裹位置检测方法,其特征是:步骤S2.1中,在水平校正时,手动选取传送小车上两个水平点的坐标信息,并根据所所述坐标信息确定水平角度以及图像中心点的坐标信息确定仿射变换矩阵,根据仿射变换矩阵对图像进行旋转,以实现对图像进行的水平校正。
5.根据权利要求1所述的基于深度学习的小车包裹位置检测方法,其特征是:步骤S3中,包括如下步骤:
步骤S3.1、在训练后得到基于YOLO的目标检测模型,利用所述基于YOLO的目标检测模型对ROI区域进行检测,以能获取当前传送小车上包含包裹信息的所有目标框,通过设定得分初步筛选阈值,对所得目标框进行初步筛选,以删除小于得分初步筛选阈值的目标框;
步骤S3.2、利用非极大值抑制对获取的目标框进行融合,以能获取包裹的位置信息。
6.根据权利要求5所述的基于深度学习的小车包裹位置检测方法,其特征是:步骤S3.2中,包括如下步骤:
步骤S3.2.1、将所有目标框的得分排序,选择排序后得分最高的目标框;
步骤S3.2.2、在选定得分最高的目标框后,遍历其余的目标框,在遍历其余目标框时,当所遍历的目标框与所选定得分最高目标框的重叠面积大于设定的重叠面积阈值时,将当前所遍历的目标框删除。
7.根据权利要求5或6所述的基于深度学习的小车包裹位置检测方法,其特征是:还包括步骤S4,其中,步骤S4中,根据步骤S3中得到包裹的位置信息,判断包裹的状态信息,所述包裹的状态信息包括包裹的数量信息和/或包裹的位置状态信息。
8.根据权利要求7所述的基于深度学习的小车包裹位置检测方法,其特征是:根据获得包含包裹信息的目标框个数,能得到包裹的个数信息,所述包裹的个数信息为0件、单件或多件;
将风琴板区域划分为上半风琴板区域与下半风琴板区域,并计算包裹的位置信息与所述上半风琴板区域、下半风琴板区域以及皮带面区域相应的面积交比,将计算得到的面积交比与面积交比阈值比较,以能确定包裹的位置状态信息。
9.根据权利要求7所述的基于深度学习的小车包裹位置检测方法,其特征是:还包括步骤S5,其中,根据包裹的状态信息,通过传送小车控制包裹的运输。
10.根据权利要求2所述的基于深度学习的小车包裹位置检测方法,其特征是:所述检测控制器包括FPGA。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110864462.8A CN113554706B (zh) | 2021-07-29 | 2021-07-29 | 基于深度学习的小车包裹位置检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110864462.8A CN113554706B (zh) | 2021-07-29 | 2021-07-29 | 基于深度学习的小车包裹位置检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113554706A true CN113554706A (zh) | 2021-10-26 |
CN113554706B CN113554706B (zh) | 2024-02-27 |
Family
ID=78104888
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110864462.8A Active CN113554706B (zh) | 2021-07-29 | 2021-07-29 | 基于深度学习的小车包裹位置检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113554706B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114137984A (zh) * | 2021-11-29 | 2022-03-04 | 江苏科技大学 | 一种模块化传输平台及其控制方法和路径规划方法 |
CN116167991A (zh) * | 2023-02-15 | 2023-05-26 | 中科微至科技股份有限公司 | 一种基于DeepLabv3+的皮带边缘线检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991435A (zh) * | 2019-11-27 | 2020-04-10 | 南京邮电大学 | 一种基于深度学习的快递运单关键信息定位方法和装置 |
CN111597857A (zh) * | 2019-02-20 | 2020-08-28 | 中科院微电子研究所昆山分所 | 一种物流包裹检测方法、装置、设备及可读存储介质 |
CN111968181A (zh) * | 2020-08-21 | 2020-11-20 | 中科微至智能制造科技江苏股份有限公司 | 一种基于图像处理的包裹位置实时检测方法及系统 |
US20210064001A1 (en) * | 2019-08-27 | 2021-03-04 | Kyocera Document Solutions, Inc. | Rapid Packaging Prototyping Using Machine Learning |
-
2021
- 2021-07-29 CN CN202110864462.8A patent/CN113554706B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111597857A (zh) * | 2019-02-20 | 2020-08-28 | 中科院微电子研究所昆山分所 | 一种物流包裹检测方法、装置、设备及可读存储介质 |
US20210064001A1 (en) * | 2019-08-27 | 2021-03-04 | Kyocera Document Solutions, Inc. | Rapid Packaging Prototyping Using Machine Learning |
CN110991435A (zh) * | 2019-11-27 | 2020-04-10 | 南京邮电大学 | 一种基于深度学习的快递运单关键信息定位方法和装置 |
CN111968181A (zh) * | 2020-08-21 | 2020-11-20 | 中科微至智能制造科技江苏股份有限公司 | 一种基于图像处理的包裹位置实时检测方法及系统 |
Non-Patent Citations (2)
Title |
---|
JIA-PING LIN, MIN-TE SUN: "A YOLO-Based Traffic Counting System", 2018 CONFERENCE ON TECHNOLOGIES AND APPLICATIONS OF ARTIFICIAL INTELLIGENCE * |
罗建坤: "基于深度学习的包裹检测追踪计数系统的研究设计", 中国优秀硕士学位论文全文数据库 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114137984A (zh) * | 2021-11-29 | 2022-03-04 | 江苏科技大学 | 一种模块化传输平台及其控制方法和路径规划方法 |
CN114137984B (zh) * | 2021-11-29 | 2024-02-27 | 江苏科技大学 | 一种模块化传输平台及其控制方法和路径规划方法 |
CN116167991A (zh) * | 2023-02-15 | 2023-05-26 | 中科微至科技股份有限公司 | 一种基于DeepLabv3+的皮带边缘线检测方法 |
CN116167991B (zh) * | 2023-02-15 | 2023-09-08 | 中科微至科技股份有限公司 | 一种基于DeepLabv3+的皮带边缘线检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113554706B (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107617573B (zh) | 一种基于多任务深度学习的物流编码识别和分拣方法 | |
US10984378B1 (en) | Profiling pallets and goods in a warehouse environment | |
CN108229307B (zh) | 用于物体检测的方法、装置和设备 | |
CN113554706A (zh) | 基于深度学习的小车包裹位置检测方法 | |
EP2915596B1 (en) | Delivery sorting processing system | |
CN110991435A (zh) | 一种基于深度学习的快递运单关键信息定位方法和装置 | |
CN111191611B (zh) | 基于深度学习的交通标志标号识别方法 | |
CN111968181B (zh) | 一种基于图像处理的包裹位置实时检测方法及系统 | |
CN111597857B (zh) | 一种物流包裹检测方法、装置、设备及可读存储介质 | |
CN111570309A (zh) | 一种物流包裹分拣方法、装置及相关设备 | |
CN112085024A (zh) | 一种罐表面字符识别方法 | |
CN109753841B (zh) | 车道线识别方法和装置 | |
CN111461133B (zh) | 快递面单品名识别方法、装置、设备及存储介质 | |
CN111178119A (zh) | 路口状态检测方法、装置、电子设备及车辆 | |
CN115063618B (zh) | 一种基于模板匹配的缺陷定位方法、系统、设备及介质 | |
CN109523549B (zh) | 一种用于压力容器气密性试验的漏气区域检测方法 | |
CN112926903A (zh) | 基于多源异构数据的物料传输与调度控制方法和系统 | |
CN113361657A (zh) | 用于识别烟箱箱号的装置、方法、烟丝装箱设备和工控机 | |
CN116245882A (zh) | 电路板电子元件检测方法、装置及计算机设备 | |
CN116128907A (zh) | 一种基于激光扫描图像的敞车侧墙检修精准定位切割方法 | |
CN111626982A (zh) | 识别待检测货箱批次码的方法和装置 | |
CN114819821A (zh) | 货物出库校验方法、装置、计算机设备和存储介质 | |
CN114267032A (zh) | 一种集装箱定位识别方法、装置、设备及存储介质 | |
CN112288372A (zh) | 一种可同时识别一维条码和三段码字符的快递单识别方法 | |
CN110598697A (zh) | 一种基于粗细字符定位的集装箱箱号定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: No. 979, Antai Third Road, Xishan District, Wuxi City, Jiangsu Province, 214000 Applicant after: Zhongke Weizhi Technology Co.,Ltd. Address before: 299 Dacheng Road, Xishan District, Wuxi City, Jiangsu Province Applicant before: Zhongke Weizhi intelligent manufacturing technology Jiangsu Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |