CN114708295B - 一种基于Transformer的物流包裹分离方法 - Google Patents

一种基于Transformer的物流包裹分离方法 Download PDF

Info

Publication number
CN114708295B
CN114708295B CN202210346880.2A CN202210346880A CN114708295B CN 114708295 B CN114708295 B CN 114708295B CN 202210346880 A CN202210346880 A CN 202210346880A CN 114708295 B CN114708295 B CN 114708295B
Authority
CN
China
Prior art keywords
image
package
feature
covariance
packages
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210346880.2A
Other languages
English (en)
Other versions
CN114708295A (zh
Inventor
谢巍
秦奕
别业泉
谭淏
周雅静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202210346880.2A priority Critical patent/CN114708295B/zh
Publication of CN114708295A publication Critical patent/CN114708295A/zh
Application granted granted Critical
Publication of CN114708295B publication Critical patent/CN114708295B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Transformer的物流包裹分离方法,包括以下步骤:将图像送入改进的Transformer语义分割模型,将接收的图像划分为多个图块并将图块传入分层编码器,该编码器利用重叠特征合并操作、前馈神经网络结合自注意力机制输出不同分辨率的多级图像特征;使用轻量级的基于多层感知机的解码器进行特征拼接和融合,预测出图像的包裹分割掩码信息;对于该掩码信息进行图像形态学后处理,提取出所有包裹的边缘信息,获取当前包裹的分布情况后对包裹在传送带上的分布情况进行统计,获取在传送带最前方的包裹作为目标包裹,将此目标包裹信息作为卡尔曼滤波目标跟踪环节的更新输入,从而实现对于物流包裹的单件分拣。

Description

一种基于Transformer的物流包裹分离方法
技术领域
本发明属于物流系统包裹分拣领域,涉及一种基于Transformer的物流包裹分离方法。
背景技术
随着互联网技术的普及和我国电子商务的繁荣,物流仓储行业获得了快速发展。由于我国人口众多,网上购物的客户不断增加,物流仓库的包裹分拣工作日益繁重。人工智能尤其是计算机视觉技术的发展让人工分拣的场合越来越少,使用智能算法辅助物流仓库进行包裹分拣以实现仓储自动化、智能化已成为趋势。
目前用于包裹识别分拣的计算机视觉方法主要为深度学习语义分割算法,一般基于卷积神经网络或Transformer模型。卷积神经网络作为经典的深度学习方法曾经主导了计算机视觉领域,但在2021年Transformer被引入视觉领域后逐渐被取代。目前主流应用的视觉Transformer模型主要包括ViT、SETR、Deeplab系列、PSPNet和Swin Transformer等(Dosovitskiy,Alexey,et al."An image is worth 16x16 words:Transformers forimage recognition at scale."arXiv preprint arXiv:2010.11929(2020).),尽管此类Transformer模型能够在分类任务上表现很好,但在语义分割上仍存在一些局限性:在将图像分成图块并进行嵌入操作的时候是对每个独立的图块分别操作的,并没有考虑到不同图块之间的局部连续性;SETR(Strudel,Robin,et al."Segmenter:Transformer forsemantic segmentation."Proceedings of the IEEE/CVF International Conferenceon Computer Vision.2021.)采用ViT-large作为编码器,参数和计算量非常大,对于系统的实时性有较大影响;网络结构为柱状结构,只能输出固定分辨率的特征图,分辨率较低,在轮廓等细节要求比较精细的场景效果一般;尽管Swin Transformer(Swin Transformer:Liu,Ze,et al."Swin transformer:Hierarchical vision transformer using shiftedwindows."Proceedings of the IEEE/CVF International Conference on ComputerVision.2021.)在这些局限性上做了改进,可以输出高分辨率的粗粒度特征和低分辨率的细粒度特征,但仍然采用位置编码,当测试图像与训练图像的尺寸不一致时需要使用双线性插值,导致性能损耗,或者做固定分辨率的滑动窗口测试,效率较低且不灵活;而在Deeplab系列、PSPNet等模型中,解码器设计的较为臃肿,结构复杂,也会带来计算复杂度的提高。
发明内容
本发明旨在利用目标检测和语义分割技术,提出一种基于Transformer的物流包裹分离方法用于包裹识别和分离的计算机视觉方法,实现物流系统中包裹的单件分离、流量监测与负载均衡等,主要应用于物流仓储环境的智能自动化。针对物流包裹分拣这一任务在分割精度和模型计算复杂度两个指标下进行改进。采用重叠的特征合并操作充分考虑图像的局部连续性,并且舍弃位置编码,使用基于卷积核和多层感知机的前馈网络结构来引入位置信息,最后在扩大有效感受野的前提下简化解码器结构,使得模型参数和计算复杂度大大降低,在物流包裹分拣这一任务上获得了更高的分割精度和实时性,有利于实现物流仓储环境的智能自动化。
一种基于Transformer的物流包裹分离方法,包括以下步骤:
(1)实时采集物流包裹的原始图像,选取原始包裹图像的感兴趣区域;
(2)将原始图像的感兴趣区域作为输入特征传入具有分层结构的改进的Transformer语义分割模型中,每个层级均进行如下步骤:
(21)使用重叠特征合并操作使特征图的尺度随着语义分割模型的加深而缩减,将输出的特征图映射为特征序列后传入到自注意力模块;
(22)通过自注意力模块计算注意力特征,通过线性层对序列长度进行缩减;
(23)将自注意力模块的输出特征传入前馈神经网络;所述前馈神经网络使用卷积核进行卷积操作,采用高斯误差线性单元作为激活函数,并经过全连接线性层得到多级特征;
(24)将多级特征通过线性层统一通道维数;将各级特征上采样并进行特征拼接;通过线性层融合拼接后的各级特征;
(25)将融合特征输入至感知机层,预测得到分割掩膜;
(26)对于获得的特征掩膜进行形态学开运算,得到去除噪声的二值图像;使用边缘检测算法提取用于分离的包裹边缘信息;
(3)建立运动模型,运用相关滤波方法,综合运动模型和检测模型的信息,对图像中最前方的包裹进行追踪。
进一步地,所述原始输入图像的尺寸为H×W×C,其中H为图像宽度,W为图像高度,C为图像通道数;将每张图像划分为不同的图块,图块的尺寸为7×7,划分之后的特征图维度为
进一步地,所述步骤(21)的重叠特征合并操作是将原始图像上不同的区域图块特征以尺寸为K,步长为S,填充尺寸为P进行合并,分层结构输出的特征图的维度分别为
进一步地,所述步骤(22)中当原来的特征图的序列长度为N且缩减比设定为R时,序列长度将变为注意力机制中的key键的维度变为/>C为通道数,视觉Transformer使用的多头注意力机制计算公式如下:
其中,Q、K、V分别为注意力机制中的查询Query、键Key、值Value,dhead为头部特征图维度,计算复杂度为O(n2),而经过自注意力模块的序列长度缩减操作后复杂度降为O(·)表示时间复杂度评估,n为输入特征序列的维度。
进一步地,所述步前馈神经网络如下:
Output=Linear(GELU(Conv3×3(MLP(Input))))+Input
其中,Input和Output表示该前馈神经网络的输入和输出,输入来自于自注意力模块输出的特征图,MLP表示多层感知机,Conv3×3表示使用3×3的卷积核进行卷积操作,GELU为高斯误差线性单元。
进一步地,高斯误差线性单元公式如下:
其中,x为激活函数的输入值,为高斯分布的概率函数,X为随机变量,P为概率函数,tanh为双曲正切函数。
进一步地,步骤(24)由基于多层感知机的解码器模块完成,在获取编码器输出的多级特征Fi后,经过一个线性层将各级特征图的通道数统一为C:
Fi,c=Linear(Ci,C)(Fi),i=1,2,3
其中Ci为原来的特征图Fi的通道数,Fi,c为统一通道数为C后的特征图;之后上采样为原特征图尺寸的
其中H为图像宽度,W为图像高度,为经过上采样操作后的特征图;
将上采样得到的特征拼接起来并通过一个线性层进行融合,将拼接后的特征维度重新压缩至C:
其中Ffuse表示为该线性层输出的融合特征;
融合后的特征通过一个全连接线性层输出预测的分割掩码M:
M=Linear(C,Np)(Ffuse)
其中Np为包裹个数。
进一步地,所述步骤(3)具体包括:
在传送带匀速运动的情况下建立运动模型:
其中,xi表示待追踪包裹第i时刻的位置和速度,Δt表示捕获两帧图像之间的时间间隔,取状态量/>则包裹状态的先验估计/>及其协方差Pt -
Pt -=FPt-1FT+Q
其中,ωt为过程噪声,且ωt~N(0,Q),Q为过程噪声的协方差,N(0,Q)表示均值为0、协方差为Q的高斯分布,F为状态转移矩阵,Pt-1为t-1时刻包裹状态估计xt的协方差,根据分割结果获取最前方包裹的位置,得到观测量zt
zt=xt+Rt=Hxt+vt
其中,vt为测量噪声,且vt~N(0,R),R为测量噪声的协方差,N(0,Q)表示均值为0、协方差为R的高斯分布,H为状态到观测的转移矩阵。
进一步地,所述的相关滤波的方式采用一阶卡尔曼滤波:
建立一阶卡尔曼滤波模型,有F=H=1,卡尔曼增益Kt为:
Q为过程噪声的协方差,权衡预测状态协方差矩阵P和观测量协方差矩阵R的大小,对包裹位置作出最优估计:
基于此最优估计更新预测状态的协方差:
Pt=(I-KtH)Pt -
最后,为保证一阶卡尔曼滤波的线性约束,逐帧对图像进行上述迭代,完成对包裹位置的追踪。
进一步地,根据输出的包裹边缘信息,以前一帧包裹边缘为边界框,在当前帧图像f上进行相关运算,设相关核为h,输出图像p,根据卷积定理可计算输出图像的频域响应图P:
其中,F(·)表示傅里叶变换,F为图像f的傅里叶变换,F(h)*表示对相关核h先做傅里叶变换再取共轭,H*为相关核傅里叶变换取共轭的结果,也即目标滤波器,⊙表示点积运算,表示相关互运算;对视频第一帧的跟踪窗口施加随机的仿射扰动,产生多组图像以对滤波器H*进行初始化:
其中,Fi为第i组仿射扰动前原图的傅里叶变换,Pi为第i组仿射扰动后图片的傅里叶变换,Hi *为第i组仿射扰动得到的滤波器,
由最小二乘法求取闭式解:
其中,Fi *表示Fi的共轭;
对滤波器H*进行在线更新:
Ai=ηPi⊙Fi *+(1-η)Ai-1
Bi=ηPi⊙Fi *+(1-η)Bi-1
Ai、Bi分别都代表利用第i时刻的信息对滤波器Hi *进行更新;
对于当前帧图像,将频域响应图P变换回到时域,时域响应图中最大值对应的位置即为当前时刻预测的目标位置。
与现有的技术相比,本发明的有益效果为:
本发明提供的基于改进的Transformer算法的物流包裹分离方法与现有技术相比,具有以下优点:使用改进的Transformer算法进行语义分割,其分割性能要优于传统的卷积神经网络语义分割算法,尤其对于密集包裹的识别分割精度大大提升;在Transformer模型的基础上,使用一种不需要位置编码的具有分层结构的编码器,能够输出多尺度特征,避免了现有技术在针对实际应用时图像尺寸与训练图像尺寸不同的问题上使用位置编码插值带来的性能精度下降;在基于较大有效感受野的基础上,采用了一种新的基于多层感知机的解码器结构,大大降低模型的计算复杂度,提升了物流计算机系统对于包裹图像的分割处理速度,在时间性能上有明显优势。
附图说明
图1本发明一种基于改进的Transformer模型的物流包裹单件分离方法流程示意图;
图2本发明改进的Transformer语义分割模型结构示意图;
图3本发明输入图像分块过程示意图;
图4本发明重叠特征图分块融合过程示意图;
图5本发明一阶卡尔曼滤波追踪包裹位置过程示意图;
图6本发明实施例利用改进的Transformer模型进行图像分割的结果示意图;
图7本发明实施例利用一阶卡尔曼滤波进行包裹跟踪的结果示意图
图8本发明实施例使用MOG算法得到的分割结果示意图;
图9本发明实施例使用工业3D相机捕获的包裹深度图像示意图。
具体实施方式
下面结合实施例和说明书附图对本发明作进一步的说明。
实施例1
请参阅图1和图2,本发明提供一种基于Transformer的物流包裹分离方法,包括以下步骤:
步骤1、使用相机实时采集传送带物流包裹图像,在系统内完成对于感兴趣区域的选取。在本实施例中,所述相机类型为内置深度计算芯片的工业3D相机。
步骤2、将尺寸为H×W×C的图像传入包裹分离方法的改进的Transformer语义分割模型中,如图3所示,将原始图像划分为多个图块,不同图块之间具有局部连续性。所述原始输入图像的尺寸为H×W×C,其中H为图像宽度,W为图像高度,C为图像通道数,当原始图像的为RGB图像时C=3;将每张图像划分为不同的图块,图块的尺寸为7×7(像素),划分之后的特征图维度为 相比于传统视觉Transformer使用的16×16的图块尺寸,本模型采用更小的图块尺寸以适应包裹分拣这种更加密集的分割任务。
在本实施例中,输入图像分块大小K=7,填充大小P=3,分块步长S=4,图像尺寸变为将图像送入Transformer的分层结构中,每经过一个Transformer模块,都将当前的特征图作为输出传入解码器,共采用三个Transformer模块(即三个层级),即共计算三级不同的分辨率特征图,每个层级均进行如下步骤:
步骤3、使用重叠特征合并操作使特征图的尺度随着网络的加深而缩减,扩大有效感受野,将输出的特征图映射为特征序列后传入到自注意力模块;
所述步骤(3)的重叠特征合并操作将原始图像上不同的区域图块特征以尺寸为K,步长为S,填充尺寸为P进行合并,从而减小特征图的宽度和高度,增加深度,三个层级输出的特征图的维度分别为重叠特征合并操作充分考虑了特征图上不同区域之间的局部连续性,同时随着网络的加深增大有效感受野。
步骤4、通过Transformer自注意力模块计算注意力特征。在传统的视觉Transformer的注意力机制上通过线性层对序列长度进行缩减,降低计算复杂度;
步骤5、将自注意力模块的输出特征传入前馈神经网络,并使用一个3×3的卷积核进行卷积操作代替传统视觉Transformer中使用的位置编码,采用高斯误差线性单元(GELU)作为激活函数,并经过一个全连接线性层得到编码特征;编码器分层操作结束;以下步骤由解码器部分完成:
步骤6、将编码器输出的多级特征Fi通过一层线性层统一通道维数;将各级特征上采样并进行特征拼接;通过一层线性层融合拼接后的各级特征;
步骤7、将融合特征输入至一层感知机层,预测得到分割掩膜M,其维度大小为Np为包裹个数;
步骤8、对于获得的特征掩膜进行形态学开运算,得到去除噪声的二值图像;使用边缘检测算法提取用于分离的包裹边缘信息。
步骤9、建立传送带运动模型,如图5所示,运用卡尔曼滤波方法,综合运动模型和本发明改进的Transformer语义分割模型的信息,对图像中最前方的包裹进行追踪,提高包裹分割的精度和分拣的鲁棒性。
本发明所述的重叠特征合并操作是对特征图进行边缘填充,以一定的大小和步长将特征图划分为多个图块以进行合并,所述步骤3的特点如下:
如图4所示,对自注意力模块输出的序列进行分块融合。在本实施例中,三个Transformer模块均使用参数K=3,S=2,P=1,逐层减小特征图的宽度和高度,增加深度,三个层级输出的特征图的维度分别为 重叠特征合并操作充分考虑了特征图上不同区域之间的局部连续性,同时随着网络的加深增大有效感受野。
所述步骤4中,当原来的序列长度为N且缩减比设定为R时,序列长度将变为注意力机制中的键(key)的维度变为/>C为通道数,视觉Transformer使用的多头注意力机制计算公式如下:
其中,Q、K、V分别为注意力机制中的查询Query、键Key、值Value,dhead为头部特征图维度,计算复杂度为O(n2),而经过自注意力模块)的序列长度缩减操作后复杂度降为O(·)为大O表示法,是国际通用的时间复杂度评估方法,n为输入特征序列的维度。
所述步骤5中使用前馈神经网络代替传统视觉Transformer中的位置编码,可以避免由于位置编码而需要进行插值带来的精度下降问题,该前馈神经网络的计算公式如下:
Output=Linear(GELU(Conv3×3(MLP(Input))))+Input
其中,Input和Output表示该前馈神经网络的输入和输出,输入来自于自注意力模块输出的特征图,MLP表示多层感知机,由多个线性层组成,Conv3×3表示使用3×3的卷积核进行卷积操作,GELU为高斯误差线性单元,公式如下:
其中,x为激活函数的输入值,此处为前馈神经网络的输入经过多层感知机后的输出,为高斯分布的概率函数,X为随机变量,P为概率函数,tanh为双曲正切函数;
所述步骤6由基于多层感知机的解码器模块完成,在获取编码器输出的各级特征Fi,(i=1,2,3)后,经过一个线性层将各级特征图的通道数统一为C:
Fi,c=Linear(Ci,C)(Fi),i=1,2,3
其中Ci为原来的特征图Fi的通道数,Fi,c为统一通道数为C后的特征图;之后上采样为原特征图尺寸的
其中H为图像宽度,W为图像高度,为经过上采样操作后的特征图;
将上采样得到的特征拼接起来并通过一个线性层进行融合,将拼接后的特征维度重新压缩至C:
其中Ffuse表示为该线性层输出的融合特征;
融合后的特征通过一个全连接线性层输出预测的分割掩码M:
M=Linear(C,Np)(Ffuse)
其中Np为包裹个数。本实施例通过改进的Transformer算法得到的分割掩码M的效果如图6所示。
最后,本实施例中借助OpenCV开源工具,对分割结果M进行开运算去噪处理,并使用边缘检测算法提取出包裹的边缘信息。本实施例对分割算法进行了精度评估,结果如表1。
表1分割精度评估
所述步骤(9)在传送带匀速运动的情况下建立运动模型:
其中,xi表示待追踪包裹第i时刻的位置和速度,Δt表示捕获两帧图像之间的时间间隔。取状态量/>则包裹状态的先验估计/>及其协方差Pt -
Pt -=FPt-1FT+Q
其中,ωt为过程噪声,且ωt~N(0,Q),Q为过程噪声的协方差,N(0,Q)表示均值为0、协方差为Q的高斯分布,F为状态转移矩阵,Pt-1为t-1时刻包裹状态估计xt的协方差。
系统由分割结果获取最前方包裹的位置,得到观测量zt
zt=xt+Rt=Hxt+vt
其中,vt为测量噪声,且vt~N(0,R),R为测量噪声的协方差,N(0,Q)表示均值为0、协方差为R的高斯分布,H为状态到观测的转移矩阵。
由于传送带匀速运动,建立一阶卡尔曼滤波模型,有F=H=1,卡尔曼增益Kt为:
如图5所示,权衡预测状态协方差矩阵P和观测量协方差矩阵R的大小,对包裹位置作出最优估计:
基于此最优估计更新预测状态的协方差:
Pt=(I-KtH)Pt -
在本实施例中,使用高精度的工业3D相机,因此观测器精度较高,调优参数时适当减小超参数R,使得卡尔曼增益Kt增大,模型更偏向高精度的观测结果。
最后,为保证一阶卡尔曼滤波的线性约束,逐帧对图像进行上述迭代,对状态变量赋予初值为第一帧检测到包裹的位置,协方差P0=1,完成对包裹位置的追踪。本实施例通过一阶卡尔曼滤波进行包裹追踪的效果如图7所示。
实施例2
在部分物流包裹分拣系统中,传送带的状态是保持不变的,由顶部相机捕捉到的视频流中,相邻帧组成的图片组中背景几乎不变,故可将上述步骤2~步骤7的分割方式更换为高斯混合模型分离算法(MOG),以增强包裹检测的实时性。本实施例借助OpenCV开源库实现,通过调节参数以适应算法对阴影的检测,排除图像中阴影区域的干扰,从而更关注包裹实际的特征,具体有如下步骤:1)对实施例1中由相机捕获的图像进行中值滤波去除噪声;2)将图像矩阵置入GPU以加速检测过程;3)使用MOG算法分割图像,得到分割掩码M′;4)对M′做二值化处理,并通过形态学开运算减少轮廓间的粘连;5)使用边缘检测算法提取出包裹的边缘信息。
由边缘信息进行包裹跟踪的流程与实施例1保持一致。上述过程使用混合高斯模型拟合图像的概率分布,代替了实例1中基于深度学习的分割模型,图8所示为MOG算法得到的分割掩码M′,可见在背景稳定的情况下达到良好的检测精度。通过上述改进,本发明提供的一种基于改进的Transformer的物流包裹单件分离方法能够应用传统的图像处理技术对包裹进行实时分割,在硬件设备难以高效完成深度学习推理的情况下,本方法依然能够精准地完成物流包裹的单件分离任务。
实施例3
由于本实施例使用内置深度计算芯片的工业3D相机,故可以利用图像的深度信息进行前景分割,增强包裹检测的鲁棒性。本实施例使用的工业3D相机可自动计算深度信息,输出深度图像。如图9所示,为本实施例中使用深度相机捕获的包裹深度图像。使用深度信息进行包裹分割的基本思路是通过深度图的梯度来判别轮廓,若相邻两个区域内深度差异较大,则边界处的梯度将会很大,可提取为轮廓。本实施例借助OpenCV开源库实现,具体有如下步骤:1)对深度图做形态学闭运算,减少图像中的空洞;2)利用Sobel算子求取深度图像在X、Y方向的梯度,并做绝对值处理以消除负梯度的影响,得到梯度图像;3)对梯度图像做二值化处理,将梯度超过阈值的像素检测为边缘,得到包裹的边缘信息。
由边缘信息进行包裹跟踪的流程与实施例1保持一致。经实验调试,本实施例在二值化处理中,以60为阈值可以取得良好的效果。本实施例中的Sobel算子不仅集合了高斯平滑和一阶微分的功能,还兼备处理速度快的优点,使用深度信息进行分割可达到良好的实时性。通过上述改进,本发明提供的一种基于改进的Transformer的物流包裹单件分离方法能够应用于装配有深度相机的仓储系统,在硬件设备难以高效完成深度学习推理的情况下,本方法依然能够精准地完成物流包裹的单件分离任务。
实施例4
本实施例的一种基于Transformer的物流包裹分离方法,首先使用深度相机实时采集包裹图像,选取感兴趣区域,随后将图像送入一个改进的Transformer语义分割模型。模型将接收的图像划分为多个图块并将图块传入分层编码器,该编码器利用重叠特征合并操作、前馈神经网络结合自注意力机制输出不同分辨率的多级图像特征。在获得多级图像特征后,使用一个轻量级的基于多层感知机的解码器进行特征拼接和融合,预测出图像的包裹分割掩码信息。对于该掩码信息进行图像形态学后处理,提取出所有包裹的边缘信息,获取当前时刻包裹在传送带上的分布情况。最后,对包裹在传送带上的分布情况进行统计,获取在传送带最前方的包裹作为目标包裹,将此目标包裹信息作为卡尔曼滤波目标跟踪环节的更新输入,并将目标包裹的位置等信息按上下位机约定的通信协议发送给流水线分离方法,从而实现对于物流包裹的单件分拣。
在部分物流包裹分拣系统中,传送带并非匀速运动,当传送带进行加速运动时,若使用实施例1中的一阶卡尔曼滤波,则无法考虑加速度输入带来的影响,影响包裹追踪的效果,对于小件包裹的后续分拣工作造成困难。针对这种情况,将实施例1中的一阶卡尔曼滤波改为MOSSE算法,使用相关滤波的方式对包裹进行追踪。
在大多数物流包裹分离应用场景中,包裹的大小、形状几乎不产生变化,因此基于信号相关性的滤波算法具有很强的鲁棒性。具体地,结合实施例1中输出的包裹边缘信息,以前一帧包裹边缘为边界框,在当前帧图像f上进行相关运算,设相关核为h,输出图像p,根据卷积定理可计算输出图像的频域响应图P:
其中,F(·)表示傅里叶变换,F为图像f的傅里叶变换,F(h)*表示对相关核h先做傅里叶变换再取共轭,H*为相关核傅里叶变换取共轭的结果,也即目标滤波器,⊙表示点积运算,表示相关互运算。对视频第一帧的跟踪窗口施加随机的仿射扰动,产生多组图像以对滤波器H*进行初始化:
其中,Fi为第i组仿射扰动前原图的傅里叶变换,Pi为第i组仿射扰动后图片的傅里叶变换,Hi *为第i组仿射扰动得到的滤波器,
由最小二乘法求取闭式解:
其中,Fi *表示Fi的共轭。
之后,由于目标包裹会不断发生改变,因此对滤波器H*进行在线更新:
Ai=ηGi⊙Fi *+(1-η)Ai-1
Bi=ηFi⊙Fi *+(1-η)Bi-1
Ai、Bi分别都代表利用第i时刻的信息对滤波器Hi *进行更新。
在本实施例中,取更新率η=0.125。最后,对于当前帧图像,将频域响应图P变换回到时域,时域响应图中最大值对应的位置即为当前时刻预测的目标位置。迭代上述过程,即可实现对目标包裹的跟踪。通过上述改进,本发明提供的一种基于改进的Transformer的物流包裹单件分离方法能够应用于多种传送带运动状态的情况,即使传送带进行非匀速运动,本方法依然能够精准地完成对目标包裹的跟踪。
上述实施例仅用于详细阐述以帮助理解本发明的技术方案,对本领域技术人员而言,在不脱离本发明原理的前提下做出的任何改进与替换,均属于本发明的保护范围。

Claims (8)

1.一种基于Transformer的物流包裹分离方法,其特征在于,包括以下步骤:
(1)实时采集物流包裹的原始图像,选取原始包裹图像的感兴趣区域;
(2)将原始图像的感兴趣区域作为输入特征传入具有分层结构的改进的Transformer语义分割模型中,每个层级均进行如下步骤:
(21)使用重叠特征合并操作使特征图的尺度随着语义分割模型的加深而缩减,将输出的特征图映射为特征序列后传入到自注意力模块;
(22)通过自注意力模块计算注意力特征,通过线性层对序列长度进行缩减;
(23)将自注意力模块的输出特征传入前馈神经网络;所述前馈神经网络使用卷积核进行卷积操作,采用高斯误差线性单元作为激活函数,并经过全连接线性层得到多级特征;高斯误差线性单元公式如下:
其中,x为激活函数的输入值,为高斯分布的概率函数,X为随机变量,P为概率函数,tanh为双曲正切函数;
(24)将多级特征通过线性层统一通道维数;将各级特征上采样并进行特征拼接;通过线性层融合拼接后的各级特征;
具体由基于多层感知机的解码器模块完成,在获取编码器输出的多级特征Fi后,经过一个线性层将各级特征图的通道数统一为C:
Fi,c=Linear(Ci,C)(Fi),i=1,2,3
其中Ci为原来的特征图Fi的通道数,Fi,c为统一通道数为C后的特征图;之后上采样为原特征图尺寸的
其中H为图像宽度,W为图像高度,为经过上采样操作后的特征图;
将上采样得到的特征拼接起来并通过一个线性层进行融合,将拼接后的特征维度重新压缩至C:
其中Ffuse表示为该线性层输出的融合特征;
融合后的特征通过一个全连接线性层输出预测的分割掩码M:
M=Linear(C,Np)(Ffuse)
其中Np为包裹个数;
(25)将融合特征输入至感知机层,预测得到分割掩膜;
(26)对于获得的特征掩膜进行形态学开运算,得到去除噪声的二值图像;使用边缘检测算法提取用于分离的包裹边缘信息;
(3)建立运动模型,运用相关滤波方法,综合运动模型和检测模型的信息,对图像中最前方的包裹进行追踪。
2.根据权利要求1所述的一种基于Transformer的物流包裹分离方法,其特征在于,原始输入图像的尺寸为H×W×C,其中H为图像宽度,W为图像高度,C为图像通道数;将每张图像划分为不同的图块,图块的尺寸为7×7,划分之后的特征图维度为
3.根据权利要求1所述的一种基于Transformer的物流包裹分离方法,其特征在于,所述步骤(21)的重叠特征合并操作是将原始图像上不同的区域图块特征以尺寸为K,步长为S,填充尺寸为P进行合并,分层结构输出的特征图的维度分别为
4.根据权利要求1所述的一种基于Transformer的物流包裹分离方法,其特征在于,所述步骤(22)中当原来的特征图的序列长度为N且缩减比设定为R时,序列长度将变为注意力机制中的key键的维度变为/>C为通道数,视觉Transformer使用的多头注意力机制计算公式如下:
其中,Q、K、V分别为注意力机制中的查询Query、键Key、值Value,dhead为头部特征图维度,计算复杂度为O(n2),而经过自注意力模块的序列长度缩减操作后复杂度降为O(·)表示时间复杂度评估,n为输入特征序列的维度。
5.根据权利要求1所述的一种基于Transformer的物流包裹分离方法,其特征在于,所述前馈神经网络如下:
OUtput=Linear(GELU(Conv3×3(MLP(Input))))+Input
其中,Input和Output表示该前馈神经网络的输入和输出,输入来自于自注意力模块输出的特征图,MLP表示多层感知机,Conv3×3表示使用3×3的卷积核进行卷积操作,GELU为高斯误差线性单元。
6.根据权利要求1所述的一种基于Transformer的物流包裹分离方法,其特征在于,所述步骤(3)具体包括:
在传送带匀速运动的情况下建立运动模型:
其中,xi表示待追踪包裹第i时刻的位置和速度,Δt表示捕获两帧图像之间的时间间隔,取状态量/>则包裹状态的先验估计/>及其协方差Pt -
Pt -=FPt-1FT+Q
其中,ωt为过程噪声,且ωt~N(0,Q),Q为过程噪声的协方差,N(0,Q)表示均值为0、协方差为Q的高斯分布,F为状态转移矩阵,Pt-1为t-1时刻包裹状态估计xt的协方差,根据分割结果获取最前方包裹的位置,得到观测量zt
zt=xt+Rt=Hxt+vt
其中,vt为测量噪声,且vt~N(0,R),R为测量噪声的协方差,N(0,Q)表示均值为0、协方差为R的高斯分布,H为状态到观测的转移矩阵。
7.根据权利要求6所述的一种基于Transformer的物流包裹分离方法,其特征在于,所述的相关滤波的方式采用一阶卡尔曼滤波:
建立一阶卡尔曼滤波模型,有F=H=1,卡尔曼增益Kt为:
Q为过程噪声的协方差,权衡预测状态协方差矩阵P和观测量协方差矩阵R的大小,对包裹位置作出最优估计:
基于此最优估计更新预测状态的协方差:
Pt=(I-KtH)Pt -
最后,为保证一阶卡尔曼滤波的线性约束,逐帧对图像进行上述迭代,完成对包裹位置的追踪。
8.根据权利要求6所述的一种基于Transformer的物流包裹分离方法,其特征在于,根据输出的包裹边缘信息,以前一帧包裹边缘为边界框,在当前帧图像f上进行相关运算,设相关核为h,输出图像p,根据卷积定理可计算输出图像的频域响应图P:
其中,F(·)表示傅里叶变换,F为图像f的傅里叶变换,F(h)*表示对相关核h先做傅里叶变换再取共轭,H*为相关核傅里叶变换取共轭的结果,也即目标滤波器,⊙表示点积运算,表示相关互运算;对视频第一帧的跟踪窗口施加随机的仿射扰动,产生多组图像以对滤波器H*进行初始化:
其中,Fi为第i组仿射扰动前原图的傅里叶变换,Pi为第i组仿射扰动后图片的傅里叶变换,Hi *为第i组仿射扰动得到的滤波器,
由最小二乘法求取闭式解:
其中,Fi *表示Fi的共轭;
对滤波器H*进行在线更新:
Ai=ηPi⊙Fi *+(1-η)Ai-1
Bi=ηPi⊙Fi *+(1-η)Bi-1
Ai、Bi分别都代表利用第i时刻的信息对滤波器Hi *进行更新;
对于当前帧图像,将频域响应图P变换回到时域,时域响应图中最大值对应的位置即为当前时刻预测的目标位置。
CN202210346880.2A 2022-04-02 2022-04-02 一种基于Transformer的物流包裹分离方法 Active CN114708295B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210346880.2A CN114708295B (zh) 2022-04-02 2022-04-02 一种基于Transformer的物流包裹分离方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210346880.2A CN114708295B (zh) 2022-04-02 2022-04-02 一种基于Transformer的物流包裹分离方法

Publications (2)

Publication Number Publication Date
CN114708295A CN114708295A (zh) 2022-07-05
CN114708295B true CN114708295B (zh) 2024-04-16

Family

ID=82172372

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210346880.2A Active CN114708295B (zh) 2022-04-02 2022-04-02 一种基于Transformer的物流包裹分离方法

Country Status (1)

Country Link
CN (1) CN114708295B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115984146B (zh) * 2023-03-16 2023-07-07 中国海洋大学 基于全局一致性的海洋叶绿素浓度图像的补全方法及网络
CN117522925B (zh) * 2024-01-05 2024-04-16 成都合能创越软件有限公司 注意力机制下移动相机中判断物体运动状态方法及系统
CN117649430A (zh) * 2024-01-29 2024-03-05 中国石油大学(华东) 基于卡尔曼滤波和关联匹配的多目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020047738A1 (zh) * 2018-09-04 2020-03-12 安徽中科智能感知大数据产业技术研究院有限责任公司 多尺度特征融合网络结合定位模型的害虫自动计数方法
WO2021088300A1 (zh) * 2019-11-09 2021-05-14 北京工业大学 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN113709455A (zh) * 2021-09-27 2021-11-26 北京交通大学 一种使用Transformer的多层次图像压缩方法
CN113947680A (zh) * 2021-10-12 2022-01-18 哈尔滨理工大学 一种基于级联多尺度视觉Transformer的图像语义分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020047738A1 (zh) * 2018-09-04 2020-03-12 安徽中科智能感知大数据产业技术研究院有限责任公司 多尺度特征融合网络结合定位模型的害虫自动计数方法
WO2021088300A1 (zh) * 2019-11-09 2021-05-14 北京工业大学 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN113709455A (zh) * 2021-09-27 2021-11-26 北京交通大学 一种使用Transformer的多层次图像压缩方法
CN113947680A (zh) * 2021-10-12 2022-01-18 哈尔滨理工大学 一种基于级联多尺度视觉Transformer的图像语义分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于编码-解码卷积神经网络的遥感图像语义分割;张哲晗;方薇;杜丽丽;乔延利;张冬英;丁国绅;;光学学报;20200210(03);第46-55页 *

Also Published As

Publication number Publication date
CN114708295A (zh) 2022-07-05

Similar Documents

Publication Publication Date Title
CN114708295B (zh) 一种基于Transformer的物流包裹分离方法
CN110097568B (zh) 一种基于时空双分支网络的视频对象检测与分割方法
CN109840471B (zh) 一种基于改进Unet网络模型的可行道路分割方法
Soleimanitaleb et al. Object tracking methods: a review
Ju et al. A simple and efficient network for small target detection
Hong et al. A traffic surveillance multi-scale vehicle detection object method base on encoder-decoder
CN108764244B (zh) 基于卷积神经网络和条件随机场的潜在目标区域检测方法
CN112016461A (zh) 一种多目标的行为识别方法及系统
CN113888461A (zh) 基于深度学习的小五金件缺陷检测方法、系统及设备
CN111612825B (zh) 基于光流与多尺度上下文的图像序列运动遮挡检测方法
CN116402850A (zh) 一种面向智能驾驶的多目标跟踪方法
Wu et al. Real‐time running detection system for UAV imagery based on optical flow and deep convolutional networks
Murugan et al. Automatic moving vehicle detection and classification based on artificial neural fuzzy inference system
Ho et al. Vehicle detection at night time
Roy et al. A comprehensive survey on computer vision based approaches for moving object detection
Wasala et al. Real-time HOG+ SVM based object detection using SoC FPGA for a UHD video stream
CN113240023A (zh) 基于变化图像分类和特征差值先验的变化检测方法及装置
Dahirou et al. Motion Detection and Object Detection: Yolo (You Only Look Once)
Karaoglu et al. Dynamon: Motion-aware fast and robust camera localization for dynamic nerf
Cao et al. Vehicle detection in remote sensing images using deep neural networks and multi-task learning
Nguyen et al. Bin-picking solution for industrial robots integrating a 2d vision system
Abutaleb et al. FPGA-based object-extraction based on multimodal Σ-Δ background estimation
Uke et al. Efficient method for detecting and tracking moving objects in video
Nagy et al. Particle filter based on joint color texture histogram for object tracking
Saad et al. FPGA-based implementation of a low cost and area real-time motion detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant