CN112434710A - 一种基于目标检测技术的智能货架商品识别方法 - Google Patents
一种基于目标检测技术的智能货架商品识别方法 Download PDFInfo
- Publication number
- CN112434710A CN112434710A CN202011321602.9A CN202011321602A CN112434710A CN 112434710 A CN112434710 A CN 112434710A CN 202011321602 A CN202011321602 A CN 202011321602A CN 112434710 A CN112434710 A CN 112434710A
- Authority
- CN
- China
- Prior art keywords
- layer
- goods
- pictures
- target detection
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000001514 detection method Methods 0.000 title claims abstract description 27
- 238000005516 engineering process Methods 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000011176 pooling Methods 0.000 claims description 23
- 230000004913 activation Effects 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 239000004793 Polystyrene Substances 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 4
- 238000013506 data mapping Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 229920002223 polystyrene Polymers 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 12
- 238000011161 development Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于目标检测技术的智能货架商品识别方法,具体为:首先,在官网下载COCO预处理数据集,选取4000张图片作为预训练集;制作样本集:在超市通过移动设备采集包含不同商品的货架图片;手工标注货架图片中所有商品的位置以及类别,根据形状和用途对商品目标分类;之后将样本集图片进行处理;使用MASK‑RCNN来进行模型搭建;对模型进行训练与调优;最后,将货架商品数据放入到模型中进行预测,最终生成商品类别、商品位置以及相似度。本发明的方法,能够快速准确的识别出货架商品的类别,准确的分析出商品的类别,而且设计的系统操作方便,可移植性高,可以广泛应用于超市等商业领域,减少人力的开销。
Description
技术领域
本发明属于计算机视觉处理技术领域,具体涉及一种基于目标检测技术的智能货架商品识别方法。
背景技术
计算机视觉是指通过各种手段或技术输入所需的数据,使机器能够直观地捕捉、解释、理解和处理物体。在人力资源有限时,可以帮助我们提供更便捷的服务。现如今,计算机视觉系统被广泛应用于各个领域,如从预测性维护到质量控制和产业安全。计算机视觉是使用计算机及相关技术和设备对生物视觉的一种模拟。它的主要任务就是首先通过对采集的图片或视频加以处理,以获得相应场景的三维信息,就像人类和许多其他类生物每天所看到的那样。
随着近几年互联网的快速发展,大数据和云计算快速发展,无人超市的研究风头正猛。使用人工智能的技术来实现零售场景的自动化无人化已经成为了一种趋势,且越演越烈。
众所周知,人们接收信息、传递并处理信息主要是通过视觉和听觉来完成。如在超市中进行选购时,人们认识这些商品。在购物时,人们知道自己需要哪些商品,并通过视觉进行查找并识别这些商品。在结算时,收银员普遍是通过扫码结算方式或者输入条形码来进行结算。随着近几年人工智能在目标检测领域的发展,机器可以像人类一样认识这些常见物体。比如道路状态检测、行人识别、老人跌倒识别、车辆识别等等。但是在特定的环境中,超市售货,尤其的无人超市,如何判断客人取了哪些商品,又放回了哪些?如何在客人离开后自动扣费,而不需要我们人工进行干预,已经成为目前人工智能领域乃至计算机视觉领域的研究热点。计算机视觉技术具有以下优点:1、具有更快更简单的过程。计算机视觉系统可以很快地完成单调和重复的任务,使整个过程更加简单。2、每次都可以输出预期的准确结果。计算机会按照人类设定好的程序执行任务并输出预期的结果,具有图像处理能力的计算机视觉系统也不例外。最终,所提供的产品或服务不仅速度快而且质量高。3、计算成本低,因为机器负责执行繁重的任务,一个计算机可以实现成百上千的重复的流水工作。因此,使用计算机视觉系统可以为企业节省大量的资金和人力,为公司减少成本。
目标检测是计算机视觉领域的热门方向之一,被广泛应用到视频监控、自动驾驶、新零售、人脸检测、医学图像等领域。因此,目标检测也称为了近几年理论和应用的热点。它是计算机视觉的重要分支。由于近年来深度学习的快速发展,目标检测算法得到了较为快速的应用。当然目标检测算法也不是完美的,会受到很多因素的影响。比如拍摄的不同姿势、角度会出现遮挡、同时还要考虑到拍摄的分辨率、光照强弱和场景的多样性等到因素。因此,在技术快速发展的今天,目标检测仍然具有很大的挑战性,具有很大的潜力和上升空间。对这些问题进行了一些处理,能够在一定程度上提高目标检测的准确度和效率。
发明内容
本发明的目的是提供一种基于目标检测技术的智能货架商品识别方法,提高了目标检测的准确度和效率。
本发明所采用的技术方案是,一种基于目标检测技术的智能货架商品识别方法,具体按照以下步骤实施:
步骤1,在官网下载COCO预处理数据集,选取4000张图片作为预训练集;制作样本集:在超市通过移动设备采集包含不同商品的货架图片;手工标注货架图片中所有商品的位置以及类别,根据形状和用途对商品目标分类;
步骤2,将经步骤1后得到的样本集图片进行处理;
步骤3,使用MASK-RCNN来进行模型搭建;
步骤4,对模型进行训练与调优;
步骤5,将货架商品数据放入到模型中进行预测,最终生成商品类别、商品位置以及相似度。
本发明的特点还在于,
步骤2中,具体为:
步骤2.1,将所有样本集图片进行结构化处理,将所有图片统一缩放至1920*1080像素,并将所有图片转换为PNG格式;
步骤2.2,对于样本集中倾斜的图片使用PS进行拉直,对于存在商品摆放角度问题的图片,使用工具将图片进行旋转,对于不够的像素进行填充,多余像素进行舍弃,统一格式为1920*1080像素;再将样本集中模糊的图片,采用高斯滤波方法进行处理。
步骤3中,具体为:
步骤3.1,首先设置输入数据图像的接口;
步骤3.2,进行卷积神经网络处理,卷积神经网络共有十三层,分别是:输入层→第一个卷积层→第一个最大池化层→第一个正则层→Dropout→第二个卷积层→第二个最大池化层→第二个正则层→Dropout→第三个卷积层→第三个最大池化层→第三个正则层→Dropout;
步骤3.3,在特征图中找出候选ROI,使用固定大小的滑动窗口的方式在特征图上进行遍历;
步骤3.4,获取ROI的候选集,该步骤使用上一步设定的ROI标准进行获取;
步骤3.5,对这些剩下的ROI进行ROIAlign操作,即先将原图和特征图的像素对应起来,然后将特征图和固定的特征对应起来;
步骤3.6,将经步骤3.5处理后的数据放入到全连接网络中进行N分类;
步骤3.7,对步骤3.5的池化结果使用反卷积反池化技术,当输出的图片大小与原始图片大小相同时,结束。
步骤3.2中,具体各层参数如下:
输入层,将步骤2生成的数据按照比例8:1:1分为训练集、验证集和测试集;用数组保存各个类别标签所代表含义;
卷积层,设置卷积层的参数,卷积核大小kernel_size=5、步长strides=1、过滤器层数,设置激活函数activation='relu';
池化层,选取最大池化函数,池化大小pool_size=2,步长strides=2;
设置正则化函数BatchNormalization,需要标准化的轴参数axis=-1;
设置Dropout函数,丢失率Dropout=0.25,最终生成图片的特征图。
步骤3.3中,具体为:根据图片大小设置候选区域大小,共有5个候选区域分别为:左上角、右上角、左下角、右下角以及中间;判断5个候选区域是否存在完整特征,如果不存在则此时为最优候选区域,候选区域选择结束;否则存在完整特征的区域即为下一次的候选区域;迭代执行上述过程。
步骤4中,具体训练方法如下;
步骤4.1,将预训练集输入到模型中进行执行,查看是否可以准确输出商品位置信息;如果无法准确输出则调整参数,直到可以准确输出结果;
步骤4.2,对网络模型进行权值的初始化,即将各个参数设置为默认值;
步骤4.3,将训练集数据经过卷积层、下采样层、全连接层的向前传播得到输出值;
步骤4.4,求出网络的输出值与目标值之间的误差;
步骤4.5,当误差大于期望值0.05时,将误差传回网络中,依次求得全连接层,下采样层,卷积层的误差;各层的误差为对于网络的总误差,并执行步骤4.6;当误差等于或小于期望值时,进入步骤4.7;
步骤4.6,根据求得误差进行权值更新;然后在进入到步骤4.2;
步骤4.7,根据网络输出的特征图进行ROI迭代筛选,并进行位置计算;
步骤4.8,进入全连接网络进行数据映射,最终会生成映射成一维向量;
步骤4.9,进行二值掩码操作生成掩码。
本发明的有益效果是,
本发明的方法,能够快速准确的识别出货架商品的类别,由于采用上述方法,准确的分析出商品的类别,而且设计的系统操作方便,可移植性高,可以广泛应用于超市等商业领域,减少人力的开销。
附图说明
图1是本发明一种基于目标检测技术的智能货架商品识别方法的流程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于目标检测技术的智能货架商品识别方法,流程图如图1所示,具体按照以下步骤实施:
步骤1,下载并处理相关数据集,具体操作步骤如下:
步骤1.1,模型的预训练;在官网下载COCO预处理数据集,包括训练集和验证集,选取4000张图片作为预训练集;
步骤1.2,制作样本集:在超市通过移动设备采集包含不同商品的货架图片;手工标注货架图片中所有商品的位置以及类别,根据形状和用途对商品目标分类;
步骤2,将经步骤1后得到的样本集图片进行处理,具体按照以下步骤实施:
步骤2.1,将所有样本集图片进行结构化处理,将所有图片统一缩放至1920*1080像素,并将所有图片转换为PNG格式;
步骤2.2,图片角度变换,对于样本集中倾斜的图片可以使用PS进行拉直,对于存在商品摆放角度问题的图片,使用工具将图片进行旋转,对于不够的像素进行填充,多余像素进行舍弃,统一格式为1920*1080像素;
步骤2.3,将样本集中模糊的图片,采用高斯滤波方法进行处理,具体为:
1).利用邻域内其他像素点到邻域中心的距离,带入二维高斯函数,计算出高斯模板,常见3×3或5×5大小的高斯模板。
2).若模板为小数形式,进行归一化处理,将模板左上角值归一为1。
3).将高斯模板的中心对准待处理的图像矩阵,然后对应元素相乘后相加,没有元素的地方补零(例如3×3高斯模板,需要对待处理图像最外层补一圈零)。
4).每个元素分别进行上述计算,得到的输出矩阵就是高斯滤波的结果。
步骤3,使用MASK-RCNN来进行模型搭建,具体为:
步骤3.1,首先设置输入数据图像的接口;
步骤3.2,进行卷积神经网络处理,卷积神经网络共有十三层,分别是:输入层→第一个卷积层→第一个最大池化层→第一个正则层→Dropout→第二个卷积层→第二个最大池化层→第二个正则层→Dropout→第三个卷积层→第三个最大池化层→第三个正则层→Dropout,具体各层参数如下:
1)输入层,将步骤2生成的数据按照比例8:1:1分为训练集、验证集和测试集;用数组保存各个类别标签所代表含义。
2)卷积层,设置卷积层的参数,包括卷积核大小kernel_size=5、步长strides=1、过滤器层数,然后设置激活函数activation='relu';
3)池化层,其作用是逐渐降低数据体的空间尺寸,选取最大池化函数,池化大小pool_size=2,步长strides=2;
4)设置正则化函数BatchNormalization,需要标准化的轴参数axis=-1;
5)设置Dropout函数,丢失率Dropout=0.25,从而消除过拟合的影响,最终生成图片的特征图;
步骤3.3,在特征图中找出候选ROI,这里对常用的方法进行改进,使用固定大小的滑动窗口的方式在特征图上进行遍历,固定的滑动窗口在实际使用中可能存在一定的限制,因为目标可能大也可能小,同时窗口的滑动会到来很多重复的估计目标。使用固定大小的滑动窗口能够产生更少的ROI,效率更高,更节省时间。具体方法如下:
1)根据图片大小设置候选区域大小,共有5个候选区域分别为:左上角、右上角、左下角、右下角以及中间。候选区域为上一层的长宽的80%。如上层为1920*1080像素,则候选区域大小为1536*864像素。
2)判断5个候选区域是否存在完整特征,如果不存在则此时为最优候选区域,候选区域选择结束。否则存在完整特征的区域即为下一次的候选区域。
3)迭代执行1-2步骤。
步骤3.4,获取ROI的候选集,该步骤使用上一步设定的ROI标准进行获取;
步骤3.5,对这些剩下的ROI进行ROIAlign操作,即先将原图和特征图的像素对应起来,然后将特征图和固定的特征对应起来;
1)遍历每一个候选区域,保持浮点数边界不做量化。
2)将候选区域分割成k*k个单元,每个单元的边界也不做量化,k=8。
3)在每个单元中计算固定四个坐标位置,用双线性内插的方法计算出这四个位置的值,然后进行最大池化操作。
步骤3.6,将经步骤3.5处理后的数据放入到全连接网络中进行N分类,具体操作如下:
1)设置节点数Dense;
2)设置正则化函数,需要标准化的轴参数axis=-1;
3)设置激活函数Activation='relu';
全连接网络共设置4层,第一层结点数Dense=128,第二层结点数Dense=256,第三层结点数Dense=512,第四层结点数Dense=n,此处n=20,因为共有20类商品数据,最终商品信息会被映射到这n种商品,最大的相似度即为商品类别;
步骤3.7,对步骤3.5的池化结果使用反卷积反池化技术,当输出的图片大小与原始图片大小相同时,算法结束,
具体步骤如下:
1)将候选区域位置进行反池化,将该位置元素还放在原来位置,其他位置补0;
2)对步骤3.5的池化结果进行扩充,每行每列扩充元素0,例如:3*3元素扩充为7*7。
3)使用卷积核大小kernel_size=5、步长strides=1,进行再次卷积。激活函数activation='relu';
在对3.5步骤进行三次反池化、反卷积后的大小与原始图片大小相同,此时中间部分即为二值掩码部分,该部分即为商品详细位置,程序结束。
步骤4,对模型进行训练与调优,具体训练方法如下;
步骤4.1,通过预训练操作确定位置,具体操作步骤如下:
1)将预训练集输入到模型中进行执行,查看是否可以准确输出商品位置信息;
2)如果无法准确输出则调整参数,直到可以准确输出结果。
以下步骤的训练为步骤2生成的数据,
步骤4.2,对网络模型进行权值的初始化,即将各个参数设置为默认值;
步骤4.3,将训练集数据经过卷积层、下采样层、全连接层的向前传播得到输出值;
步骤4.4,求出网络的输出值与目标值之间的误差;
步骤4.5,当误差大于期望值0.05时,将误差传回网络中,依次求得全连接层,下采样层,卷积层的误差。各层的误差为对于网络的总误差,网络应承担多少,并执行步骤4.6;当误差等于或小于期望值时,进入步骤4.7;
步骤4.6,根据求得误差进行权值更新。然后在进入到步骤4.2;
步骤4.7,根据网络输出的特征图进行ROI迭代筛选,并进行位置计算。
步骤4.8,进入全连接网络进行数据映射,最终会生成映射成一维向量;
步骤4.9,进行二值掩码操作生成掩码。
步骤5,货架商品类别预测:将测试集图片导入到模型中进行预测;模型根据优化后的参数进行计算,得出各个分类的准确度,边框位置以及掩码所在位置,最终输出最大准确度的类别作为商品类别。
通过本发明方法,输出的商品类别、相似度及商品位置,能够快速的应用到超市等场景中,并取得良好的效果,能够快速的找出每个商品的信息,有助于对商品进行后续的数据分析和处理。
本发明的方法,将一张含有商品的货架照片输入到训练好的模型中进行检测,模型可以自动识别该图片中有哪些商品及该商品的数量。该模型应用广泛,可以应用与无人超市等商品检测分类领域中。
本发明的方法,根据数据和数据之间的差异性来解析商品特征的,对于差异性大的数据,该数据训练后进行预测的准确度越高。对于模糊的数据,使用图像增强策略对数据中包含的信息进行强化。本发明依照目标检测和人工智能的方式提出智能货架商品识别方法,能够快速准确的识别出货架商品的类别,由于采用上述方法,准确的分析出想要知道的商品的类别,而且设计的系统操作方便,可移植性高,可以广泛应用于超市等商业领域,减少人力的开销。
Claims (6)
1.一种基于目标检测技术的智能货架商品识别方法,其特征在于,具体按照以下步骤实施:
步骤1,在官网下载COCO预处理数据集,选取4000张图片作为预训练集;制作样本集:在超市通过移动设备采集包含不同商品的货架图片;手工标注货架图片中所有商品的位置以及类别,根据形状和用途对商品目标分类;
步骤2,将经步骤1后得到的样本集图片进行处理;
步骤3,使用MASK-RCNN来进行模型搭建;
步骤4,对模型进行训练与调优;
步骤5,将货架商品数据放入到模型中进行预测,最终生成商品类别、商品位置以及相似度。
2.根据权利要求1所述的一种基于目标检测技术的智能货架商品识别方法,其特征在于,所述步骤2中,具体为:
步骤2.1,将所有样本集图片进行结构化处理,将所有图片统一缩放至1920*1080像素,并将所有图片转换为PNG格式;
步骤2.2,对于样本集中倾斜的图片使用PS进行拉直,对于存在商品摆放角度问题的图片,使用工具将图片进行旋转,对于不够的像素进行填充,多余像素进行舍弃,统一格式为1920*1080像素;再将样本集中模糊的图片,采用高斯滤波方法进行处理。
3.根据权利要求2所述的一种基于目标检测技术的智能货架商品识别方法,其特征在于,所述步骤3中,具体为:
步骤3.1,首先设置输入数据图像的接口;
步骤3.2,进行卷积神经网络处理,卷积神经网络共有十三层,分别是:输入层→第一个卷积层→第一个最大池化层→第一个正则层→Dropout→第二个卷积层→第二个最大池化层→第二个正则层→Dropout→第三个卷积层→第三个最大池化层→第三个正则层→Dropout;
步骤3.3,在特征图中找出候选ROI,使用固定大小的滑动窗口的方式在特征图上进行遍历;
步骤3.4,获取ROI的候选集,该步骤使用上一步设定的ROI标准进行获取;
步骤3.5,对这些剩下的ROI进行ROIAlign操作,即先将原图和特征图的像素对应起来,然后将特征图和固定的特征对应起来;
步骤3.6,将经步骤3.5处理后的数据放入到全连接网络中进行N分类;
步骤3.7,对步骤3.5的池化结果使用反卷积反池化技术,当输出的图片大小与原始图片大小相同时,结束。
4.根据权利要求3所述的一种基于目标检测技术的智能货架商品识别方法,其特征在于,所述步骤3.2中,具体各层参数如下:
输入层,将步骤2生成的数据按照比例8:1:1分为训练集、验证集和测试集;用数组保存各个类别标签所代表含义;
卷积层,设置卷积层的参数,卷积核大小kernel_size=5、步长strides=1、过滤器层数,设置激活函数activation='relu';
池化层,选取最大池化函数,池化大小pool_size=2,步长strides=2;
设置正则化函数BatchNormalization,需要标准化的轴参数axis=-1;
设置Dropout函数,丢失率Dropout=0.25,最终生成图片的特征图。
5.根据权利要求3所述的一种基于目标检测技术的智能货架商品识别方法,其特征在于,所述步骤3.3中,具体为:根据图片大小设置候选区域大小,共有5个候选区域分别为:左上角、右上角、左下角、右下角以及中间;判断5个候选区域是否存在完整特征,如果不存在则此时为最优候选区域,候选区域选择结束;否则存在完整特征的区域即为下一次的候选区域;迭代执行上述过程。
6.根据权利要求3所述的一种基于目标检测技术的智能货架商品识别方法,其特征在于,所述步骤4中,具体训练方法如下;
步骤4.1,将预训练集输入到模型中进行执行,查看是否可以准确输出商品位置信息;如果无法准确输出则调整参数,直到可以准确输出结果;
步骤4.2,对网络模型进行权值的初始化,即将各个参数设置为默认值;
步骤4.3,将训练集数据经过卷积层、下采样层、全连接层的向前传播得到输出值;
步骤4.4,求出网络的输出值与目标值之间的误差;
步骤4.5,当误差大于期望值0.05时,将误差传回网络中,依次求得全连接层,下采样层,卷积层的误差;各层的误差为对于网络的总误差,并执行步骤4.6;当误差等于或小于期望值时,进入步骤4.7;
步骤4.6,根据求得误差进行权值更新;然后在进入到步骤4.2;
步骤4.7,根据网络输出的特征图进行ROI迭代筛选,并进行位置计算;
步骤4.8,进入全连接网络进行数据映射,最终会生成映射成一维向量;
步骤4.9,进行二值掩码操作生成掩码。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011321602.9A CN112434710A (zh) | 2020-11-23 | 2020-11-23 | 一种基于目标检测技术的智能货架商品识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011321602.9A CN112434710A (zh) | 2020-11-23 | 2020-11-23 | 一种基于目标检测技术的智能货架商品识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112434710A true CN112434710A (zh) | 2021-03-02 |
Family
ID=74693609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011321602.9A Pending CN112434710A (zh) | 2020-11-23 | 2020-11-23 | 一种基于目标检测技术的智能货架商品识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112434710A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385723A (zh) * | 2023-04-11 | 2023-07-04 | 特斯联科技集团有限公司 | 基于室内定位的智能零售系统和方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764313A (zh) * | 2018-05-17 | 2018-11-06 | 西安电子科技大学 | 基于深度学习的超市商品识别方法 |
CN111444973A (zh) * | 2020-03-31 | 2020-07-24 | 西安交通大学 | 一种无人零售购物台商品检测方法 |
-
2020
- 2020-11-23 CN CN202011321602.9A patent/CN112434710A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764313A (zh) * | 2018-05-17 | 2018-11-06 | 西安电子科技大学 | 基于深度学习的超市商品识别方法 |
CN111444973A (zh) * | 2020-03-31 | 2020-07-24 | 西安交通大学 | 一种无人零售购物台商品检测方法 |
Non-Patent Citations (1)
Title |
---|
L. LIU等: ""A Smart Unstaffed Retail Shop Based on Artificial Intelligence and IoT"", 《2018 IEEE 23RD INTERNATIONAL WORKSHOP ON COMPUTER AIDED MODELING AND DESIGN OF COMMUNICATION LINKS AND NETWORKS (CAMAD)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385723A (zh) * | 2023-04-11 | 2023-07-04 | 特斯联科技集团有限公司 | 基于室内定位的智能零售系统和方法 |
CN116385723B (zh) * | 2023-04-11 | 2023-09-15 | 特斯联科技集团有限公司 | 基于室内定位的智能零售系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN111328396B (zh) | 用于图像中的对象的姿态估计和模型检索 | |
CN109886066B (zh) | 基于多尺度和多层特征融合的快速目标检测方法 | |
CN111462120B (zh) | 一种基于语义分割模型缺陷检测方法、装置、介质及设备 | |
CN110298387A (zh) | 融入像素级attention机制的深度神经网络目标检测方法 | |
Zhang et al. | Toward new retail: A benchmark dataset for smart unmanned vending machines | |
CN111626176B (zh) | 一种基于动态注意力机制的遥感目标快速检测方法及系统 | |
CN110084817B (zh) | 基于深度学习的数字高程模型生产方法 | |
Özkanoğlu et al. | InfraGAN: A GAN architecture to transfer visible images to infrared domain | |
CN111126385A (zh) | 一种可变形活体小目标的深度学习智能识别方法 | |
CN111507357B (zh) | 一种缺陷检测语义分割模型建模方法、装置、介质及设备 | |
CN111553949A (zh) | 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法 | |
CN109977834B (zh) | 从深度图像中分割人手与交互物体的方法和装置 | |
Xing et al. | Traffic sign recognition using guided image filtering | |
EP4174792A1 (en) | Method for scene understanding and semantic analysis of objects | |
Cho et al. | Semantic segmentation with low light images by modified CycleGAN-based image enhancement | |
CN114037640A (zh) | 图像生成方法及装置 | |
CN115049821A (zh) | 一种基于多传感器融合的三维环境目标检测方法 | |
Su et al. | Potato quality grading based on depth imaging and convolutional neural network | |
CN115222896A (zh) | 三维重建方法、装置、电子设备及计算机可读存储介质 | |
CN114820463A (zh) | 点云检测和分割方法、装置,以及,电子设备 | |
CN113496148A (zh) | 一种多源数据融合方法及系统 | |
Shit et al. | An encoder‐decoder based CNN architecture using end to end dehaze and detection network for proper image visualization and detection | |
CN112434710A (zh) | 一种基于目标检测技术的智能货架商品识别方法 | |
CN116758419A (zh) | 针对遥感图像的多尺度目标检测方法、装置和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210302 |
|
RJ01 | Rejection of invention patent application after publication |