CN112699762A - 一种适用于嵌入式设备的食材识别方法 - Google Patents

一种适用于嵌入式设备的食材识别方法 Download PDF

Info

Publication number
CN112699762A
CN112699762A CN202011556474.6A CN202011556474A CN112699762A CN 112699762 A CN112699762 A CN 112699762A CN 202011556474 A CN202011556474 A CN 202011556474A CN 112699762 A CN112699762 A CN 112699762A
Authority
CN
China
Prior art keywords
food material
mobilenet
target detection
detection model
final
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011556474.6A
Other languages
English (en)
Inventor
曾碧
黄颖康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202011556474.6A priority Critical patent/CN112699762A/zh
Publication of CN112699762A publication Critical patent/CN112699762A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供的一种适用于嵌入式设备的食材识别方法,通过将YOLOv3的主干网络Darknet‑53替换为轻量级网络MobileNet和采用DIoU‑NMS算法代替传统NMS算法,满足食材多类别检测同时,极大提高检测速度,满足食材的实时性检测需求;且在满足实时性检测需求的同时,提高了检测的精确度,满足了检测的精确度要求。通过实现检测模型在服务器与嵌入式平台之间的快速移植,能够有效确保检测模型在基于嵌入式系统的小型化设备(尤其是移动设备)上的检测性能,具有更加广阔的应用前景。

Description

一种适用于嵌入式设备的食材识别方法
本发明涉及计算机和深度学习技术领域,更具体的,涉及一种适用于嵌入式设备的食材识别方法。
背景技术
随着社会发展使得生活水平不断提高,人们对衣食住行的要求逐渐增高。吃,是体现生活质量的一个重要方面,所谓民以食为天,人们不再满足于自己日常所食的菜式,开始注重饮食的多元化,而物流领域的快速发展为此提供了物质基础,人们能够接触更广泛多样的食材,食材的种类,这是什么食材,这个食材能烹饪什么菜式,基本通过人的经验来认知。因此,人们能够通过对食材的识别来使生活更加便利,并且美食应用通过互联网搭建起有关美食的生活社区,优化食谱的内容,提高了用户的体验从而提升了用户的粘性,为嵌入式设备相关的美食应用带来了广阔的前景。
目前主流的深度学习目标检测方法主要分为以候选框和以回归方法为基础的两大类方法。基于候选框的方法主要有R-CNN[2]、Fast RCNN[3]等,这类方法参数多,计算量多,检测速度慢,无法实时检测目标;基于回归的目标检测方法,主要有SSD[4]和YOLO[5]两大系列,其中YOLOv3采用FPN结构,利用多尺寸特征融合进行预测,可同时预测检测对象的类别和位置,但YOLOv3对小目标检测准确率不高,且训练参数较大,耗费计算资源,在移动端和嵌入式端无法直接使用。
CNN已经普遍应用在计算机视觉领域,并且已经取得了不错的效果。随着CNN的发展,其模型深度越来越深,模型复杂度也越来越高。公开号为CN109425190A的中国发明专利申请于2019年3月5日公开了一种冰箱食材管理方法,其中公开了一种深度卷积神经网络的分类算法模型,采用GoogleNet模型、VGG16模型、ResNet模型或者其他卷积网络模型对图像区域进行分类识别。然而,在某些真实的应用场景如移动或者嵌入式设备,如此大而复杂的模型是难以被应用的。首先是模型过于庞大,面临着内存不足的问题,其次这些场景要求低延迟,或者说响应速度要快,
发明内容
本发明为克服现有的基于深度卷积神经网络的食材识别模型在应用过程中,存在复杂度高、识别效率低的技术缺陷,提供一种适用于嵌入式设备的食材识别方法。
为解决上述技术问题,本发明的技术方案如下:
一种适用于嵌入式设备的食材识别方法,包括以下步骤:
S1:在不同环境下采集各种类的食材图片,制作初始样本数据集;
S2:对初始样本数据集进行预处理和数据增强,得到最终样本数据集;
S3:对最终样本数据集进行标注,并划分为训练集和测试集;
S4:用MobileNet网络代替Darknet-53网络,对YOLOv3的主干网络进行改进,得到YOLOv3-MobileNet目标检测模型;
S5:用DIoU-NMS算法代替NMS算法,对YOLOv3-MobileNet目标检测模型进行改进,得到改进YOLOv3-MobileNet目标检测模型;
S6:在训练集上对改进YOLOv3-MobileNet目标检测模型进行训练,并在测试集上测试改进YOLOv3-MobileNet目标检测模型的算法性能,得到最终目标检测模型;
S7:将最终目标检测模型移植到嵌入式平台上;
S8:在嵌入式平台中获取待检测的食材图片,并把图片作为最终目标检测模型的输入参数,对食材图片进行识别检测。
其中,所述步骤S1包括以下步骤:
S11:通过爬虫技术在互联网上或者现场拍照获取各种食材图片;
S12:筛选出各种食材图片中不同环境、不同种类适合作为样本的食材图片,得到初始样本数据集。
其中,在所述步骤S2中,所述预处理和数据增强具体为:对初始样本数据集进行处理操作,扩充数据集,得到最终样本数据集;所述处理操作包括平移处理、旋转处理、调整饱和度处理和增加噪声处理。
其中,在所述步骤S3中,通过Labelimg标注软件对最终样本数据集进行标注,根据情况设定种类数及种类名,并制成VOC2007标准数据集的格式,然后利用voc_annotation.py文件程序划分训练集和测试集。
其中,在所述步骤S4中,运用pycharm集成环境中的keras/tensorflow深度学习框架构建YOLOv3-mobilenet目标检测模型,用轻量化mobilenet网络代替原Darknet-53进行特征提取,得到YOLOv3-MobileNet目标检测模型。
其中,所述步骤S6具体包括以下步骤:
S61:调取MobileNet网络的初始权重并设置超参数;
S62:将训练集输入到改进YOLOv3-MobileNet目标检测模型中进行训练,直到损失值达到预设条件或达到最大预设迭代次数后,停止训练,保存最终训练权重;
S63:将测试集输入到训练完毕的改进YOLOv3-MobileNet目标检测模型中,经过卷积层、池化层、MobileNet网络及上采样层,得到多尺度特征图;
S64:将多尺度特征图中的预测结果使用DIoU-NMS算法进行处理,挑选出IoU阈值最大的预测框作为最终的识别结果;
S65:验证识别结果的准确性,若符合要求,则完成步骤S6,得到最终目标检测模型;否则,重新执行步骤S61。
其中,在所述步骤S61中,所述超参数包括学习率、步长、迭代次数。
其中,所述步骤S64具体为:将多尺度特征图分别与真实框计算IoU值,并与IoU阈值进行对比,筛选出大于IoU阈值的预测框,将IoU阈值最大的预测框作为最终的识别结果。
其中,在所述步骤S65中,将测试集分别输入改进YOLOv3-MobileNet目标检测模型中进行性能测试,得到最终对于模型的平均精度均值mAP、每秒检测帧率FPS和召回率的评价指标;分别判断精度均值mAP、每秒检测帧率FPS和召回率的评价指标是否满足实际应用要求。
其中,在所述步骤S7中,通过搭建CAFFE框架实现最终目标检测模型在服务器与嵌入式平台之间的快速移植。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供的一种适用于嵌入式设备的食材识别方法,通过将YOLOv3的主干网络Darknet-53替换为轻量级网络MobileNet和采用DIoU-NMS算法代替传统NMS算法,满足食材多类别检测同时,极大提高检测速度,满足食材的实时性检测需求;且在满足实时性检测需求的同时,提高了检测的精确度,满足了检测的精确度要求。通过实现检测模型在服务器与嵌入式平台之间的快速移植,能够有效确保检测模型在基于嵌入式系统的小型化设备(尤其是移动设备)上的检测性能,具有更加广阔的应用前景。
附图说明
图1为本发明所述的方法流程图;
图2为MobileNet结构中主要构成单元深度可分离卷积的结构图;
图3为YOLOv3-MobileNet网络结构图;
图4为DIoU-NMS中惩罚项的直观图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本发明的实施方式涉及一种适用于嵌入式设备的食材识别方法,包括:获取图像,构建基于YOLOv3的基准网络时,使用K-Means算法设置AnchorBox参数;使用Darknet-53网络作为主干网络;引入特征金字塔结构对多尺度目标进行特征提取;将Darknet-53网络替换为MobileNet网络;使用DIoU-NMS对NMS算法进行改进,得到改进后的YOLOv3的模型,把模型移植到嵌入式设备中,在嵌入式设备中输入图片对食材目标进行识别。
更具体的,如图1为本发明实施方式中结构流程示意图。在训练之前,首先通过爬虫技术或者现场拍照收集各种食材图片,筛选出适合作为数据集的照片作为初始样本数据集,对初始样本数据集进行处理生成最终样本数据集,对最终样本数据集进行标注,并划分为训练集、测试集和验证集,构建YOLOv3-MobileNet目标检测模型并对NMS算法进行改进,训练和测试改进YOLOv3-MobileNet目标检测模型,得到最终的模型,把模型移植到嵌入式设备中,在嵌入式设备中输入图片,完成食材图片的识别。
在具体实施过程中,本发明提供一种适用于嵌入式设备的食材识别方法,包括以下步骤:
S1:在不同环境下采集各种类的食材图片,制作初始样本数据集;
S2:对初始样本数据集进行预处理和数据增强,得到最终样本数据集;
S3:对最终样本数据集进行标注,并划分为训练集和测试集;
S4:用MobileNet网络代替Darknet-53网络,对YOLOv3的主干网络进行改进,得到YOLOv3-MobileNet目标检测模型;
S5:用DIoU-NMS算法代替NMS算法,对YOLOv3-MobileNet目标检测模型进行改进,得到改进YOLOv3-MobileNet目标检测模型;
S6:在训练集上对改进YOLOv3-MobileNet目标检测模型进行训练,并在测试集上测试改进YOLOv3-MobileNet目标检测模型的算法性能,得到最终目标检测模型;
S7:将最终目标检测模型移植到嵌入式平台上;
S8:在嵌入式平台中获取待检测的食材图片,并把图片作为最终目标检测模型的输入参数,对食材图片进行识别检测。
更具体的,所述步骤S1包括以下步骤:
S11:通过爬虫技术在互联网上或者现场拍照获取各种食材图片;
S12:筛选出各种食材图片中不同环境、不同种类适合作为样本的食材图片,得到初始样本数据集。
更具体的,在所述步骤S2中,所述预处理和数据增强具体为:对初始样本数据集进行处理操作,扩充数据集,得到最终样本数据集;所述处理操作包括平移处理、旋转处理、调整饱和度处理和增加噪声处理。
更具体的,在所述步骤S3中,通过Labelimg标注软件对最终样本数据集进行标注,根据情况设定种类数及种类名,并制成VOC2007标准数据集的格式,然后利用voc_annotation.py文件程序划分训练集和测试集。
更具体的,利用K-means聚类方法进行食材图片的AnchorBox值的计算,步骤如下:读取已标注好的训练数据集,随机取出其中一个图片的宽度和高度值作为坐标点并作为初始聚类中心,再使用K-means聚类方法进行迭代计算得到具体的AnchorBox值;
更具体的,在所述步骤S4中,运用pycharm集成环境中的keras/tensorflow深度学习框架构建YOLOv3-mobilenet目标检测模型,用轻量化mobilenet网络代替原Darknet-53进行特征提取,得到YOLOv3-MobileNet目标检测模型。
在具体实施过程中,使用MobileNet作为主干网络能减少计算量的原因是MobileNet用深度可分离卷积替代原卷积层,其基本单位对比图如图2所示。将一层普通卷积改为一层深度卷积和一层可分离卷积,假设一次卷积计算量变为原来的L倍,则
Figure BDA0002858462070000061
其中N为通道数,DK为深度卷积的卷积核大小。
在具体实施过程中,YOLOv3-MobileNet网络结构如图3所示,图中CBR为图2中的普通卷积,DBR为深度可分离卷积,y1、y2、y3为最后所得的三种尺寸的特征图。由图可知,若把深度卷积和点卷积看作同一层的话,MobileNet包含14层网络,第一个卷积为普通卷积,之后全部使用Depthwise Convolution和Pointwise Convolution。用MobileNet替代Darknet-53作为YOLOv3主干网络,并保留YOLOv3的FPN结构,分别从MobileNet的第6、12和14层输出52*52、26*26、13*13的特征图,通过当前特征图经上采样后与上层特征图融合,提高多重scale目标的识别精度。
更具体的,所述步骤S6具体包括以下步骤:
S61:调取MobileNet网络的初始权重并设置超参数;
S62:将训练集输入到改进YOLOv3-MobileNet目标检测模型中进行训练,直到损失值达到预设条件或达到最大预设迭代次数后,停止训练,保存最终训练权重;
S63:将测试集输入到训练完毕的改进YOLOv3-MobileNet目标检测模型中,经过卷积层、池化层、MobileNet网络及上采样层,得到多尺度特征图;
S64:将多尺度特征图中的预测结果使用DIoU-NMS算法进行处理,挑选出IoU阈值最大的预测框作为最终的识别结果;
S65:验证识别结果的准确性,若符合要求,则完成步骤S6,得到最终目标检测模型;否则,重新执行步骤S61。
在具体实施过程中,DIoU-NMS能使模型更精确的原因是使用了惩罚项
Figure BDA0002858462070000062
如图4所示,d为两边界框的中心距离,c为最小包围两个边界框的对角线长度。在NMS算法中IoU项可以改为IoU-RDIoU,当IoU-RDIoU小于阈值时,分类置信si不变,保留边界框;当IoU-RDIoU大于或等于阈值时,分类置信si变0,删除边界框。在原始的NMS中,IoU指标用于抑制多余的检测框,但由于仅考虑了重叠区域,经常会造成错误的抑制,特别是在边界框包含的情况下。因此,可以使用DIoU作为NMS的标准,不仅考虑重叠区域,还考虑了中心点距离。
更具体的,在所述步骤S61中,所述超参数包括学习率、步长、迭代次数。
在具体实施过程中,在步骤S2中,对于训练集中标注的待识别目标的真实目标边框进行聚类,采用IOU值作为评价指标以获得训练集中的预测目标的初始候选框,将初始候选框作为初始参数输入到改进YOLOv3-MobileNet网络模型中,其中采用K-means方法,以距离公式D=1-IOU对训练数据的真实边框聚类当两框IOU值不小于0.5时,将此时预测的候选框作为初始目标边框。
更具体的,所述步骤S64具体为:将多尺度特征图分别与真实框计算IoU值,并与IoU阈值进行对比,筛选出大于IoU阈值的预测框,将IoU阈值最大的预测框作为最终的识别结果。
在具体实施过程中,采用logistic函数对网络预测的x、y、置信度、类别概率进行激活,并与真实框计算IOU值,经阈值判断,得到所有预测框坐标、置信度和类别概率;将得到的结果通过DIoU-NMS去除冗余检测框,产生最终目标检测框和识别结果。
更具体的,在所述步骤S65中,将测试集分别输入改进YOLOv3-MobileNet目标检测模型中进行性能测试,得到最终对于模型的平均精度均值mAP、每秒检测帧率FPS和召回率的评价指标;分别判断精度均值mAP、每秒检测帧率FPS和召回率的评价指标是否满足实际应用要求。
更具体的,在所述步骤S7中,通过搭建CAFFE框架实现最终目标检测模型在服务器与嵌入式平台之间的快速移植。并且在嵌入式设备中获取待检测的食材图片,图片的获取途径可以有很多种,比如采用相机获取,然后通过USB端口将图片传输至嵌入式平台。然后把图片作为模型的输入参数,对食材图片进行检测。
在具体实施过程中,本发明提出的目标识别方法泛化能力强,实现了对食材的有效检测,为嵌入式设备后续的服务提供了基础,减小参数计算量的同时,提高了原YOLOv3目标检测模型的检测速度及准确度。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种适用于嵌入式设备的食材识别方法,其特征在于,包括以下步骤:
S1:在不同环境下采集各种类的食材图片,制作初始样本数据集;
S2:对初始样本数据集进行预处理和数据增强,得到最终样本数据集;
S3:对最终样本数据集进行标注,并划分为训练集和测试集;
S4:用MobileNet网络代替Darknet-53网络,对YOLOv3的主干网络进行改进,得到YOLOv3-MobileNet目标检测模型;
S5:用DIoU-NMS算法代替NMS算法,对YOLOv3-MobileNet目标检测模型进行改进,得到改进YOLOv3-MobileNet目标检测模型;
S6:在训练集上对改进YOLOv3-MobileNet目标检测模型进行训练,并在测试集上测试改进YOLOv3-MobileNet目标检测模型的算法性能,得到最终目标检测模型;
S7:将最终目标检测模型移植到嵌入式平台上;
S8:在嵌入式平台中获取待检测的食材图片,并把图片作为最终目标检测模型的输入参数,对食材图片进行识别检测。
2.根据权利要求1所述的一种适用于嵌入式设备的食材识别方法,其特征在于,所述步骤S1包括以下步骤:
S11:通过爬虫技术在互联网上或者现场拍照获取各种食材图片;
S12:筛选出各种食材图片中不同环境、不同种类适合作为样本的食材图片,得到初始样本数据集。
3.根据权利要求1所述的一种适用于嵌入式设备的食材识别方法,其特征在于,在所述步骤S2中,所述预处理和数据增强具体为:对初始样本数据集进行处理操作,扩充数据集,得到最终样本数据集;所述处理操作包括平移处理、旋转处理、调整饱和度处理和增加噪声处理。
4.根据权利要求1所述的一种适用于嵌入式设备的食材识别方法,其特征在于,在所述步骤S3中,通过Labelimg标注软件对最终样本数据集进行标注,根据情况设定种类数及种类名,并制成VOC2007标准数据集的格式,然后利用voc_annotation.py文件程序划分训练集和测试集。
5.根据权利要求1所述的一种适用于嵌入式设备的食材识别方法,其特征在于,在所述步骤S4中,运用pycharm集成环境中的keras/tensorflow深度学习框架构建YOLOv3-mobilenet目标检测模型,用轻量化mobilenet网络代替原Darknet-53进行特征提取,得到YOLOv3-MobileNet目标检测模型。
6.根据权利要求1所述的一种适用于嵌入式设备的食材识别方法,其特征在于,所述步骤S6具体包括以下步骤:
S61:调取MobileNet网络的初始权重并设置超参数;
S62:将训练集输入到改进YOLOv3-MobileNet目标检测模型中进行训练,直到损失值达到预设条件或达到最大预设迭代次数后,停止训练,保存最终训练权重;
S63:将测试集输入到训练完毕的改进YOLOv3-MobileNet目标检测模型中,经过卷积层、池化层、MobileNet网络及上采样层,得到多尺度特征图;
S64:将多尺度特征图中的预测结果使用DIoU-NMS算法进行处理,挑选出IoU阈值最大的预测框作为最终的识别结果;
S65:验证识别结果的准确性,若符合要求,则完成步骤S6,得到最终目标检测模型;否则,重新执行步骤S61。
7.根据权利要求6所述的一种适用于嵌入式设备的食材识别方法,其特征在于,在所述步骤S61中,所述超参数包括学习率、步长、迭代次数。
8.根据权利要求6所述的一种适用于嵌入式设备的食材识别方法,其特征在于,所述步骤S64具体为:将多尺度特征图分别与真实框计算IoU值,并与IoU阈值进行对比,筛选出大于IoU阈值的预测框,将IoU阈值最大的预测框作为最终的识别结果。
9.根据权利要求8所述的一种适用于嵌入式设备的食材识别方法,其特征在于,在所述步骤S65中,将测试集分别输入改进YOLOv3-MobileNet目标检测模型中进行性能测试,得到最终对于模型的平均精度均值mAP、每秒检测帧率FPS和召回率的评价指标;分别判断精度均值mAP、每秒检测帧率FPS和召回率的评价指标是否满足实际应用要求。
10.根据权利要求1所述的一种适用于嵌入式设备的食材识别方法,其特征在于,在所述步骤S7中,通过搭建CAFFE框架实现最终目标检测模型在服务器与嵌入式平台之间的快速移植。
CN202011556474.6A 2020-12-24 2020-12-24 一种适用于嵌入式设备的食材识别方法 Pending CN112699762A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011556474.6A CN112699762A (zh) 2020-12-24 2020-12-24 一种适用于嵌入式设备的食材识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011556474.6A CN112699762A (zh) 2020-12-24 2020-12-24 一种适用于嵌入式设备的食材识别方法

Publications (1)

Publication Number Publication Date
CN112699762A true CN112699762A (zh) 2021-04-23

Family

ID=75510159

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011556474.6A Pending CN112699762A (zh) 2020-12-24 2020-12-24 一种适用于嵌入式设备的食材识别方法

Country Status (1)

Country Link
CN (1) CN112699762A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114898171A (zh) * 2022-04-07 2022-08-12 中国科学院光电技术研究所 一种适用于嵌入式平台的实时目标检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062282A (zh) * 2019-12-05 2020-04-24 武汉科技大学 基于改进yolov3模型的变电站指针式仪表识别方法
CN111178206A (zh) * 2019-12-20 2020-05-19 山东大学 一种基于改进yolo的建筑预埋件检测方法及系统
CN111325120A (zh) * 2020-02-09 2020-06-23 南通大学 一种适用于嵌入式系统的目标检测方法
CN111754498A (zh) * 2020-06-29 2020-10-09 河南科技大学 一种基于YOLOv3的传送带托辊检测方法
CN112051298A (zh) * 2020-09-09 2020-12-08 飞础科智慧科技(上海)有限公司 钢包表面故障诊断方法及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062282A (zh) * 2019-12-05 2020-04-24 武汉科技大学 基于改进yolov3模型的变电站指针式仪表识别方法
CN111178206A (zh) * 2019-12-20 2020-05-19 山东大学 一种基于改进yolo的建筑预埋件检测方法及系统
CN111325120A (zh) * 2020-02-09 2020-06-23 南通大学 一种适用于嵌入式系统的目标检测方法
CN111754498A (zh) * 2020-06-29 2020-10-09 河南科技大学 一种基于YOLOv3的传送带托辊检测方法
CN112051298A (zh) * 2020-09-09 2020-12-08 飞础科智慧科技(上海)有限公司 钢包表面故障诊断方法及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHAOHUI ZHENG ET AL.: "Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression", 《THE THIRTY-FOURTH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE (AAAI-20)》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114898171A (zh) * 2022-04-07 2022-08-12 中国科学院光电技术研究所 一种适用于嵌入式平台的实时目标检测方法
CN114898171B (zh) * 2022-04-07 2023-09-22 中国科学院光电技术研究所 一种适用于嵌入式平台的实时目标检测方法

Similar Documents

Publication Publication Date Title
CN112052787B (zh) 基于人工智能的目标检测方法、装置及电子设备
CN107808143B (zh) 基于计算机视觉的动态手势识别方法
CN111754498B (zh) 一种基于YOLOv3的传送带托辊检测方法
CN111460968B (zh) 基于视频的无人机识别与跟踪方法及装置
CN110929577A (zh) 一种基于YOLOv3的轻量级框架改进的目标识别方法
CN112926654B (zh) 预标注模型训练、证件预标注方法、装置、设备及介质
CN111368636B (zh) 目标分类方法、装置、计算机设备和存储介质
CN109815770A (zh) 二维码检测方法、装置及系统
CN112861575A (zh) 一种行人结构化方法、装置、设备和存储介质
CN111241992B (zh) 人脸识别模型构建方法、识别方法、装置、设备及存储介质
CN108564102A (zh) 图像聚类结果评价方法和装置
CN113516113A (zh) 一种图像内容识别方法、装置、设备及存储介质
CN111368634B (zh) 基于神经网络的人头检测方法、系统及存储介质
CN112183672A (zh) 图像分类方法、特征提取网络的训练方法和装置
CN108492301A (zh) 一种场景分割方法、终端及存储介质
CN113487610A (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN110070106A (zh) 烟雾检测方法、装置及电子设备
CN112766218A (zh) 基于非对称联合教学网络的跨域行人重识别方法和装置
CN117611549A (zh) 一种芯片焊接质量实时监测方法、系统、设备及存储介质
CN112052730A (zh) 一种3d动态人像识别监控设备及方法
CN118053027A (zh) 一种缺陷识别方法、装置、电子设备及存储介质
CN112699762A (zh) 一种适用于嵌入式设备的食材识别方法
CN111310531A (zh) 图像分类方法、装置、计算机设备及存储介质
CN116977271A (zh) 缺陷检测方法、模型训练方法、装置及电子设备
CN114330542A (zh) 一种基于目标检测的样本挖掘方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210423

RJ01 Rejection of invention patent application after publication