CN113191320A - 一种基于深度学习的食品安全指标监测方法 - Google Patents

一种基于深度学习的食品安全指标监测方法 Download PDF

Info

Publication number
CN113191320A
CN113191320A CN202110560942.5A CN202110560942A CN113191320A CN 113191320 A CN113191320 A CN 113191320A CN 202110560942 A CN202110560942 A CN 202110560942A CN 113191320 A CN113191320 A CN 113191320A
Authority
CN
China
Prior art keywords
food safety
data
video
layer
safety index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110560942.5A
Other languages
English (en)
Inventor
陈恺
王雅洁
杨冰
杨鑫
张成梅
郝淼
于杰
杨红
黄伟
王明慧
秦梅元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guizhou Food Safety Testing Application Engineering Technology Research Center Co ltd
Guizhou Guike Big Data Co ltd
Original Assignee
Guizhou Food Safety Testing Application Engineering Technology Research Center Co ltd
Guizhou Guike Big Data Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guizhou Food Safety Testing Application Engineering Technology Research Center Co ltd, Guizhou Guike Big Data Co ltd filed Critical Guizhou Food Safety Testing Application Engineering Technology Research Center Co ltd
Priority to CN202110560942.5A priority Critical patent/CN113191320A/zh
Publication of CN113191320A publication Critical patent/CN113191320A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/018Certifying business or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes

Abstract

本发明公开了一种基于深度学习的食品安全指标监测方法。按下述步骤完成,a.对现场采集数据按照食品安全指标进行数据标注,构建场景数据集;b.利用场景数据集训练Faster‑RCNN深度学习模型,构建目的识别模型;c.利用目的识别模型对现场实时数据进行食品安全指标监测。本发明具有监测范围广,监测效率高,追溯性好的特点。

Description

一种基于深度学习的食品安全指标监测方法
技术领域
本发明涉及食品安全监测技术领域,特别是一种基于深度学习的食品安全指标监测方法。
背景技术
随着经济的发展,人们对食品安全正变得越来越重视。而食品安全中,食品的安全生产环节更是重中之重。目前针对食品安全生产的相关指标检测,如:工人服饰合规、食品添加剂摆放、老鼠等活体检测问题,主要都还是采用人工监测管控。该方式主要存在下述缺点:传统的人工监测用人成本高,且一般情况下监测人员活动范围小,容易疏漏、可视化差、问题无法回溯。
发明内容
本发明的目的在于,提供一种基于深度学习的食品安全指标监测方法。本发明具有监测范围广,监测效率高,追溯性好的特点。
本发明的技术方案:一种基于深度学习的食品安全指标监测方法,按下述步骤完成:
a.对现场采集数据按照食品安全指标进行数据标注,构建场景数据集;
b.利用场景数据集训练Faster-RCNN深度学习模型,构建目的识别模型;
c.利用目的识别模型对现场实时数据进行食品安全指标监测。
前述的基于深度学习的食品安全指标监测方法的步骤a中,所述的现场采集数据为视频数据。
前述的基于深度学习的食品安全指标监测方法的步骤a中,数据标注步骤具体如下:
a1.视频分割:将一个视频数据分割成一个以上的2000帧片段,并从中间隔选取10~20个作为采集片段;
a2.视频发布:将采集片段重新整理成视频片段,并导入vatic的内部数据库中生成视频片段——网页链接的序对;
a3.视频标注:通过视频片段——网页链接的序对调取视频片段,再通过vatic内部的算法,根据视频的前后帧关系,对视频片段进行标注;
a4.标注数据导出:利用python将已标注的视频片段的数据格式由txt格式转换为xml格式,并提取视频片段中已对应标注的图像文件构建场景数据集。
前述的基于深度学习的食品安全指标监测方法的步骤b中,目的识别模型的构建步骤具体如下:
b1.输入的来自场景数据集的图像文件经过缩放后,得到固定大小的图像;然后经过多层卷积层,包括13个卷积层,以及13个激活层和4个池化层,经过卷积计算后得到高层的抽象的feature map;
b2.RPN层对步骤b1中得到的高层的抽象的feature map进行学习,具体包括:使用一个n*n的滑动窗口,每个滑动窗口都映射到一个低位的特征;将所述高层的抽象的feature map输入到2个平行的全连接层中,其中一个全连接层为reg层,另一个为cls层;通过滑动窗口滑动,能够预测多个region proposals,将每个位置的最大可能建议的数量表示为k,则对于W*H大小的特征图,共有W*H*k个锚点;通过锚点与ground truth之间的IoU,用NMS对同一锚点进行筛选,学习reg层和cls层的参数,得到RPN网络;
b3.将原始的feature map和经过RPN输出的proposal boxes输入到ROI Pooling层,得到更高层的特征图,经过卷积和全连接层后,分别学习分类模型参数和预测模型参数;
b4.通过上述步骤构建得到完整的Faster-RCNN模型。
前述的基于深度学习的食品安全指标监测方法的步骤c中,具体监测步骤如下:
利用Faster-RCNN模型识别出现场实时数据中的人、工作服、食品添加剂、影响食品安全卫生的动物这些特征,以及相应特征对应的bounding box坐标边界;
当现场实时数据中所述影响食品安全卫生的动物出现频率超过预设标准时,食品安全指标不合格;
当现场实时数据中食品添加剂种类或使用量超过预设标准时,食品安全指标不合格;
当在现场实时数据中检测到人的bounding box和工作服之间的IoU的值为0,或人物边界内没有工作服,代表该工作人员没有穿工作服,食品安全指标不合格。
前述的基于深度学习的食品安全指标监测方法中,当场景数据集中需识别的某一特征的数据样本不足时,利用One-Shot learning中的Siamese网络对数据样本中该特征的相似图像进行平行学习,从而定义所述该特征与非该特征间编码差值,进而将识别该特征转变为识别除该特征外的其他特征。
前述的基于深度学习的食品安全指标监测方法中,食品安全指标监测经可视化绘制实时显示。
有益效果:与现有技术相比,本发明充分利用了大数据技术,通过运用Faster-RCNN深度学习模型对食品安全指标(食品安全指标包括食品生产中工作人员的工作服装规范、食品添加剂摆放规范,有无需要检疫的活体规范)进行识别检测,通过IoU算法,前后帧相关算法对数据进行处理,在数据量不足、数据场景复杂情况下,尽可能提升识别准确率和有效性,从而加大对食品生产过程环节的监管。
本发明提供了一套完整的标注系统,大大减少了前期数据处理相关的时间成本,并部署成web端,更加方便人员进行操作,也为后续模型进一步优化提供可能。此外,采用Faster-RCNN模型,通过模型加识别算法(即IoU算法),对检测数据做到了可视化功能,帮助系统操作人员快速、准确定位到食品生产人员的行为是否规范,即使没有及时识别,也可以将结果保存以供后续回溯。
综上,本发明提供一套前期数据处理标注的web服务,可以做到协同标注、检视,解决了视频标注过程中人员分散工作、视频标注工作量大等问题。
在实际应用中,本发明针对可能出现的场景数据集中某一特征数据样本(如:影响食品安全卫生的动物(如老鼠、蟑螂等)这一特征的数据样本)不足的情况,采用ont-shotLearning中Siamese网络的平行学习方法,将识别该特征转变为识别除该特征外的其他特征,有效解决了实际过程中可能出现的老鼠等特征样本不足的问题。
附图说明
图1是本发明流程示意图;
图2是数据标注流程图;
图3是Faster-RCNN模型图;
图4是RPN结构图;
图5是包含ROI pooling的结构图;
图6是回归窗口;
图7是IoU算法示意图;
图8是本发明可视化示意图。
具体实施方式
下面结合实施例对本发明作进一步的说明,但并不作为对本发明限制的依据。
实施例1。一种基于深度学习的食品安全指标监测方法,参见图1,按下述步骤完成,
a.对现场采集数据按照食品安全指标进行数据标注,构建场景数据集;
b.利用场景数据集训练Faster-RCNN深度学习模型,构建目的识别模型;
c.利用目的识别模型对现场实时数据进行食品安全指标监测。
步骤a中,所述的现场采集数据为视频数据。
步骤a中,数据标注,参见图2,步骤具体如下:
a1.视频分割:将一个视频数据分割成一个以上的2000帧片段,并从中间隔选取10~20个作为采集片段;
a2.视频发布:将采集片段重新整理成视频片段,并导入vatic的内部数据库中生成视频片段——网页链接的序对;Vatic是一个带有目标跟踪的半自动化视频标注工具;
a3.视频标注:通过视频片段——网页链接的序对调取视频片段,再通过vatic内部的算法,根据视频的前后帧关系,对视频片段进行标注;
a4.标注数据导出:利用python将已标注的视频片段的数据格式由txt格式转换为xml格式,并提取视频片段中已对应标注的图像文件构建场景数据集。
以下举例对所述的数据标注过程进行进一步说明:
数据的相关文件格式包括了avi、mp4、mpv等。数据标注具体可分为:视频分割;视频发布;视频标注;标注数据导出等步骤,下面给出具体含义:
视频分割:由于监控数据的格式保存时可能会出现不同的格式,且一般监控视频数据保存时往往是以小时(h)为单位进行保存,导致保存下来的视频很大。这样的数据不适合标注,因此,通过opencv加ffmepg的方式对视频进行分割,将视频分割成2000帧的小片段(约2min左右),由于一段监控视频中场景比较单一,为了减少冗余,每段监控选取10~20个片段即可,可以在分割过程中设置间隔,进而尽可能包含这段监控视频的全部特征。
视频发布:视频发布指的是通过vatic工具,将视频片段重新整理并导入vatic的内部数据库中。整理后,vatic给出了一组对应的网页链接。至此,视频发布生成了视频片段——网页链接的序对。
视频标注:现在工具主要是对图像进行标注,虽然视频可以理解成图像的序列,但是使用标注图像的方式标注视频会产生巨大的工作量。本发明中的视频发布指的是通过vatic工具,将分割的视频小片段生成对应的网页链接,链接中包含了这个小片段的所有信息。通过内部的算法,根据视频的前后帧关系,半自动的对视频进行标注,大大减少了标注的时间和用人成本。
标注数据导出:深度学习网络使用的数据和上述方法产生的数据格式可能不一致,本发明中通过python,提供了一种转换数据的方法,将导出的txt数据变成对应的xml数据,并提取对应的图像文件,供给模型训练。
步骤b中,目的识别模型的构建步骤具体如下:
b1.输入的来自场景数据集的图像文件经过缩放后,得到固定大小的图像;然后经过多层卷积层,包括13个卷积层,以及13个激活层和4个池化层,经过卷积计算后得到高层的抽象的feature map;
b2.RPN层对步骤b1中得到的高层的抽象的feature map进行学习,具体包括:使用一个n*n的滑动窗口,每个滑动窗口都映射到一个低位的特征;将所述高层的抽象的feature map输入到2个平行的全连接层中,其中一个全连接层为reg层,另一个为cls层;通过滑动窗口滑动,能够预测多个region proposals,将每个位置的最大可能建议的数量表示为k,则对于W*H大小的特征图,共有W*H*k个锚点;通过锚点与ground truth之间的IoU,用NMS对同一锚点进行筛选,学习reg层和cls层的参数,得到RPN网络;
b3.将原始的feature map和经过RPN输出的proposal boxes输入到ROI Pooling层,得到更高层的特征图(即前述的高层的抽象的feature map的递进),经过卷积和全连接层后,分别学习分类模型参数和预测模型参数;
b4.通过上述步骤构建得到完整的Faster-RCNN模型。
以下举例对所述的目的识别模型的构建进行进一步说明:
本发明采用Faster-RCNN深度学习模型训练目的识别模型,模型结果如下图3所示。Faster R-CNN模型现在是一个典型的基于深度学习的目标检测模型,现在介绍其中的几个主要概念:Region Proposal Network、ROI pooling、bounding box回归。
Region Proposal Network(RPN)
Faster-RCNN模型其核心部分是Region Proposal Network(以下简称RPN),RPN的核心思想是使用卷积神经网络直接产生region proposal,使用的方法本质上就是滑动窗口。RPN网络结构图如图4所示,假设给定600*1000的输入图像,经过卷积操作得到最后一层的卷积特征图(大小约为40*60),最后一层卷积层共有256个特征图(feature map)。在这个特征图上使用3*3的卷积核(滑动窗口)与特征图进行卷积,那么这个3*3的区域卷积后可以获得一个256维的特征向量。因为这个3*3的区域上,每一个特征图上得到一个1维向量,256个特性图即可得到256维特征向量。3*3滑动窗口中心点位置,对应预测输入图像3种尺度(128,256,512),3种长宽比(1:1,1:2,2:1)的region proposal,这种映射的机制称为锚(以下称之为anchor)。经过卷积一共产生了k=9个anchor。即每个3*3区域可以产生9个regionproposal。所以对于这个40*60的feature map,总共有约20000(40*60*9)个anchor,也就是预测20000个region proposal。后边接入到两个全连接层,即(分类层)Cls layer和(回归层)Reg layer分别用于分类和边框回归。cls layer包含2个元素,用于判别目标和非目标的估计概率。Reg layer包含4个坐标元素(x,y,h,w),用于确定目标位置。cls:正样本,与真实区域重叠大于0.7,负样本,与真实区域重叠小于0.3。Reg:返回区域位置。最后根据region proposal得分高低,选取前300个region proposal,作为Fast R-CNN的输入进行目标检测。
ROI pooling,参见图5,目标检测框架通常可以分为两个阶段:
(1)region proposal:给定一张输入image找出objects可能存在的所有位置。这一阶段的输出应该是一系列object可能位置的bounding box。这些通常称之为regionproposals或者regions of interest(ROI),在这一过程中用到的方法是基于滑动窗口的方式和selective search。
(2)final classification:确定上一阶段的每个region proposal是否属于目标一类或者背景。
这个框架存在的一些问题是:产生大量的region proposals会导致performanceproblems,很难达到实时目标检测。在处理速度方面是suboptimal。无法做到end-to-endtraining。这就是ROI pooling提出的根本原因,ROI pooling层能实现training和testing的显著加速,并提高检测准确率。该层有两个输入:
从具有多个卷积核池化的深度网络中获得的固定大小的feature maps;
一个表示所有ROI的N*5的矩阵,其中N表示ROI的数目。第一列表示图像index,其余四列表示其余的左上角和右下角坐标;
ROI pooling具体操作如下:
a.根据输入image,将ROI映射到feature map对应位置;
b.将映射后的区域划分为相同大小的sections(sections数量与输出的维度相同);
c.对每个sections进行max pooling操作;
d.这样我们就可以从不同大小的方框得到固定大小的相应的feature maps。值得一提的是,输出的feature maps的大小不取决于ROI和卷积feature maps大小。ROIpooling最大的好处就在于极大地提高了处理速度。
步骤c中,具体监测步骤如下:
利用Faster-RCNN模型识别出现场实时数据中的人、工作服、食品添加剂、影响食品安全卫生的动物这些特征,以及相应特征对应的bounding box坐标边界;影响食品安全卫生的动物包括老鼠、蟑螂等。
当现场实时数据中所述影响食品安全卫生的动物出现频率超过预设标准时,食品安全指标不合格;
当现场实时数据中食品添加剂种类或使用量超过预设标准时,食品安全指标不合格;
当在现场实时数据中检测到人的bounding box和工作服之间的IoU的值为0,或人物边界内没有工作服,代表该工作人员没有穿工作服,食品安全指标不合格。
以下举例对步骤c进行进一步说明:
bounding box(bbox)回归
对于窗口一般使用思维向量来表示,分别表示窗口的中心点坐标和宽高。对于图4-6,红色的框P代表原始的proposal,绿色的框代表目标的Ground Truth,我们的目标是寻找一种关系使得输入原始的窗口P经过映射得到一个跟真实窗口G更接近的回归窗口G′。
那么经过何种变换才能从图6中的窗口P变为G呢?下面给出一种思路:
Step1:先做平移(Δx,Δy),Δx=Pw*dx(P),Δy=Ph*dy(P)。即:
Figure BDA0003072235640000081
Step2:再做尺度缩放(Sw,Sy),Sw=Pw*dw(P),Sh=Ph*dh(P),即:
Figure BDA0003072235640000082
由上述四个公式可以看出,我们需要学习dx(P),dy(P),dw(P),dh(P)这四个变换。接下来再使用相关算法得到这四个映射——当输入的Proposal与Ground Truth相差较小时(R-CNN设置的是IoU>0.6),可以任务这种变换是一种线性变化,那么我们就可以用线性回归来建模并对窗口进行微调。
检测结果是对每一个模型中的类别进行检测和识别。本文采用matplotlib库对结果进行绘制,并通过IoU算法原理对相关指标进行判断。
matplotlib绘制
绘制包括识别到的bbox以及对应的类别标签。例如,模型识别到了图像中包含人以及他所穿着的服装,则可以将人物的bbox绘制出来,模型还识别到了人物的衣服的bbox。考虑食品生产人员的衣着规范,相关人员必须穿着统一、规范的服装。如果检测见过中,人员只穿着了衣物,没有佩戴帽子,则是一个不合规范的行为。我们可以通过改变对应绘制框的颜色进行分辨。
IoU(Intersection over Union)算法
IoU是一种测量在特定数据集中检测相应物体准确度的一个标准。IoU是一个简单的测量标准,只要是在输出中得出一个预测范围(bounding box)的任务都可以用IoU来进行测量。IoU具体计算见图7。
IoU是两个区域重叠的部分除以两个区域的集合部分得出的结果,通过设定的阈值,与这个IoU计算结果比较。
当场景数据集中需识别的某一特征的数据样本不足时,利用One-Shot learning中的Siamese网络对数据样本中该特征的相似图像进行平行学习,从而定义所述该特征与非该特征间编码差值,进而将识别该特征转变为识别除该特征外的其他特征。
以影响食品安全卫生的动物中的老鼠为例,对One-Shot learning进行进一步说明:
针对老鼠数据集不足的情况,采用One-Shot learning方法,其基本思想如下:传统的深度学习模型往往需要大量的数据支持,而对于收集样本不足的时候,可以利用如下方法进行学习。假设我们现在只有10张老鼠的图像以及一系列其他物体的图像(比如老虎、狮子、猫等),One-Shot learning中的Siamese网络对2张相似的图像进行平行学习,得到2组特征,Siamese定义了2者之间的编码差值,这样问题从识别该物体是老鼠变成了该物体是除老鼠外的其他动物。另外一个例子,假设有A、B、C、D 4个人,我们要知道待识别的X是其中的A,可以通过对比X和B、C、D的编码值差,验证X不是B、C和D,从而达到X是A的结论。
食品安全指标监测经可视化绘制实时显示。
图像经过目的识别模型后,得到的是图像中物体的种类便签label以及相应的bounding box坐标边界和对应的识别概率。我们通过python的matplotlib库,对相应的bounding box进行可视化绘制,得到图像中实际的框,并对不同的结果(衣着规范与否、摆放位置规范与否、有无老鼠等)进行不同的显示。具体结果参见图8。
上述方法提供了一套完整的标注系统,大大减少了前期数据处理相关的时间成本,并部署成web端,更加方便人员进行操作,也为后续模型进一步优化提供可能。
此外,采用Faster-RCNN模型,这是一个高效的模型,通过模型加识别算法,对检测数据做到了可视化功能,帮助系统操作人员快速、准确定位到食品生产人员的行为是否规范,即使没有及时识别,也可以将结果保存以供后续回溯。
前述涉及的英文翻译如下:
所述的Faster-RCNN的中文意思为:更快的区域卷积神经网络;
所述的feature map的中文意思为:图像特征;
所述的reg层即为box-regression层,box-regression层的中文意思为:
边界框回归层;
所述的cls层即为box-classification层,box-classification层的中文意思为:边界框分类层;
所述的region proposals的中文意思为:(经过筛选后的)候选区域;
所述的ground truth的中文意思为:真值;
所述的IoU的中文意思为:交并比;
所述的NMS的中文意思为:非极大值抑制;
所述的RPN的中文意思为:候选区域生成网络;
所述的RPN的中文意思为:候选区域生成网络;
所述的proposal boxes的中文意思为:候选的边界框;
所述的ROI Pooling的中文意思为:感兴趣区域池化;
所述的bounding box的中文意思为:边界框;
所述的One-Shot learning的中文意思为:一次性学习;
所述的Siamese的中文意思为:孪生。

Claims (7)

1.一种基于深度学习的食品安全指标监测方法,其特征在于:按下述步骤完成,
a.对现场采集数据按照食品安全指标进行数据标注,构建场景数据集;
b.利用场景数据集训练Faster-RCNN深度学习模型,构建目的识别模型;
c.利用目的识别模型对现场实时数据进行食品安全指标监测。
2.根据权利要求1所述的基于深度学习的食品安全指标监测方法,其特征在于:步骤a中,所述的现场采集数据为视频数据。
3.根据权利要求2所述的基于深度学习的食品安全指标监测方法,其特征在于:步骤a中,数据标注步骤具体如下:
a1.视频分割:将一个视频数据分割成一个以上的2000帧片段,并从中间隔选取10~20个作为采集片段;
a2.视频发布:将采集片段重新整理成视频片段,并导入vatic的内部数据库中生成视频片段——网页链接的序对;
a3.视频标注:通过视频片段——网页链接的序对调取视频片段,再通过vatic内部的算法,根据视频的前后帧关系,对视频片段进行标注;
a4.标注数据导出:利用python将已标注的视频片段的数据格式由txt格式转换为xml格式,并提取视频片段中已对应标注的图像文件构建场景数据集。
4.根据权利要求1所述的基于深度学习的食品安全指标监测方法,其特征在于:步骤b中,目的识别模型的构建步骤具体如下:
b1.输入的来自场景数据集的图像文件经过缩放后,得到固定大小的图像;然后经过多层卷积层,包括13个卷积层,以及13个激活层和4个池化层,经过卷积计算后得到高层的抽象的feature map;
b2.RPN层对步骤b1中得到的高层的抽象的feature map进行学习,具体包括:使用一个n*n的滑动窗口,每个滑动窗口都映射到一个低位的特征;将所述高层的抽象的featuremap输入到2个平行的全连接层中,其中一个全连接层为reg层,另一个为cls层;通过滑动窗口滑动,能够预测多个region proposals,将每个位置的最大可能建议的数量表示为k,则对于W*H大小的特征图,共有W*H*k个锚点;通过锚点与ground truth之间的IoU,用NMS对同一锚点进行筛选,学习reg层和cls层的参数,得到RPN网络;
b3.将原始的feature map和经过RPN输出的proposal boxes输入到ROI Pooling层,得到更高层的特征图,经过卷积和全连接层后,分别学习分类模型参数和预测模型参数;
b4.通过上述步骤构建得到完整的Faster-RCNN模型。
5.根据权利要求1所述的基于深度学习的食品安全指标监测方法,其特征在于:步骤c中,具体监测步骤如下:
利用Faster-RCNN模型识别出现场实时数据中的人、工作服、食品添加剂、影响食品安全卫生的动物这些特征,以及相应特征对应的bounding box坐标边界;
当现场实时数据中所述影响食品安全卫生的动物出现频率超过预设标准时,食品安全指标不合格;
当现场实时数据中食品添加剂种类或使用量超过预设标准时,食品安全指标不合格;
当在现场实时数据中检测到人的bounding box和工作服之间的IoU的值为0,或人物边界内没有工作服,代表该工作人员没有穿工作服,食品安全指标不合格。
6.根据权利要求5所述的基于深度学习的食品安全指标监测方法,其特征在于:当场景数据集中需识别的某一特征的数据样本不足时,利用One-Shot learning中的Siamese网络对数据样本中该特征的相似图像进行平行学习,从而定义所述该特征与非该特征间编码差值,进而将识别该特征转变为识别除该特征外的其他特征。
7.根据权利要求1所述的基于深度学习的食品安全指标监测方法,其特征在于:食品安全指标监测经可视化绘制实时显示。
CN202110560942.5A 2021-05-18 2021-05-18 一种基于深度学习的食品安全指标监测方法 Pending CN113191320A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110560942.5A CN113191320A (zh) 2021-05-18 2021-05-18 一种基于深度学习的食品安全指标监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110560942.5A CN113191320A (zh) 2021-05-18 2021-05-18 一种基于深度学习的食品安全指标监测方法

Publications (1)

Publication Number Publication Date
CN113191320A true CN113191320A (zh) 2021-07-30

Family

ID=76984617

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110560942.5A Pending CN113191320A (zh) 2021-05-18 2021-05-18 一种基于深度学习的食品安全指标监测方法

Country Status (1)

Country Link
CN (1) CN113191320A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863371A (zh) * 2022-07-11 2022-08-05 济南大学 一种基于深度学习的食品粗加工违规检测方法
CN117313984A (zh) * 2023-08-31 2023-12-29 中国标准化研究院 一种粮情监测方法、装置与系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863371A (zh) * 2022-07-11 2022-08-05 济南大学 一种基于深度学习的食品粗加工违规检测方法
CN117313984A (zh) * 2023-08-31 2023-12-29 中国标准化研究院 一种粮情监测方法、装置与系统

Similar Documents

Publication Publication Date Title
Tabernik et al. Deep learning for large-scale traffic-sign detection and recognition
Bevandić et al. Simultaneous semantic segmentation and outlier detection in presence of domain shift
CN110717534B (zh) 一种基于网络监督的目标分类和定位方法
CN107766933B (zh) 一种解释卷积神经网络的可视化方法
US20230289979A1 (en) A method for video moving object detection based on relative statistical characteristics of image pixels
Dong et al. Tablesense: Spreadsheet table detection with convolutional neural networks
CN106446933B (zh) 基于上下文信息的多目标检测方法
CN112241762B (zh) 一种用于病虫害图像分类的细粒度识别方法
CN112380952A (zh) 基于人工智能的电力设备红外图像实时检测及识别方法
CN103049763B (zh) 一种基于上下文约束的目标识别方法
CN109919177B (zh) 基于层次化深度网络的特征选择方法
CN107346420A (zh) 一种基于深度学习的自然场景下文字检测定位方法
CN104778470B (zh) 基于组件树和霍夫森林的文字检测和识别方法
CN111402224B (zh) 一种用于电力设备的目标识别方法
CN109671068B (zh) 一种基于深度学习的腹部肌肉标注方法及装置
CN109919106B (zh) 渐进式目标精细识别与描述方法
CN111209864B (zh) 一种电力设备目标识别方法
CN113191320A (zh) 一种基于深度学习的食品安全指标监测方法
CN106845513A (zh) 基于条件随机森林的人手检测器及方法
CN110533100A (zh) 一种基于机器学习进行cme检测和跟踪的方法
Zhao et al. Real-time moving pedestrian detection using contour features
CN109523514A (zh) 对逆合成孔径雷达isar的批量成像质量评估方法
CN105404682B (zh) 一种基于数字图像内容的图书检索方法
CN113128329A (zh) 用于在自主驾驶应用中更新对象检测模型的视觉分析平台
Pohudina et al. Method for identifying and counting objects

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination