CN111161295A - 一种菜品图像背景剥离方法 - Google Patents

一种菜品图像背景剥离方法 Download PDF

Info

Publication number
CN111161295A
CN111161295A CN201911394280.8A CN201911394280A CN111161295A CN 111161295 A CN111161295 A CN 111161295A CN 201911394280 A CN201911394280 A CN 201911394280A CN 111161295 A CN111161295 A CN 111161295A
Authority
CN
China
Prior art keywords
dish
image
model
deep learning
vessel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911394280.8A
Other languages
English (en)
Other versions
CN111161295B (zh
Inventor
瞿晨非
方亮
许野平
王阔阔
凌桂婷
刘永悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Synthesis Electronic Technology Co Ltd
Original Assignee
Synthesis Electronic Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Synthesis Electronic Technology Co Ltd filed Critical Synthesis Electronic Technology Co Ltd
Priority to CN201911394280.8A priority Critical patent/CN111161295B/zh
Publication of CN111161295A publication Critical patent/CN111161295A/zh
Application granted granted Critical
Publication of CN111161295B publication Critical patent/CN111161295B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明公开一种菜品图像背景剥离方法,本方法采用深度学习与边缘检测结合的方法生成无菜品单器皿图像,再通过单菜品图像与无菜品单器皿图像做差的方式获取纯菜品区域图像,可以去除无效背景,提取核心目标区域内容,有利于机器学习进一步训练。从而可以解决在菜品识别数据获取阶段产生的数据不准确、不全面的问题,通过生成单一无器皿菜品数据信息增强菜品识别学习网络识别能力。

Description

一种菜品图像背景剥离方法
技术领域
本发明涉及智慧餐饮领域,具体的说,是一种菜品图像背景剥离方法。
背景技术
进行菜品图像识别过程中,通常对盛菜器皿整体进行目标抽取后进行目标识别,该过程中存在器皿对目标识别的噪音影响。同时由器皿自身问题导致的目标定位错误也会影响到紧接着的识别工作,因此通过对菜品区域的检测并提取,是识别过程的重要技术组成。
公开号为CN201910315763的专利公开了一种菜品识别方法,在进行样本学习过程中仅对目标菜品粗略定位后获得菜品器皿信息,然后进行特征提取比对,用来判断当前目标是哪种菜品。该方法虽然可以对菜品进行学习分类,但是在分类时使用的数据是带有器皿信息的,因此在进行学习过程中将会使分类网络倾向于当前器皿环境下的应用,而在更换器皿或数据库包含不充足情况下,会产生识别精度不足的问题。
发明内容
本发明要解决的技术问题是提供一种菜品图像背景剥离方法,解决在菜品识别数据获取阶段产生的数据不准确、不全面的问题,通过生成单一无器皿菜品数据信息增强菜品识别学习网络识别能力。
为了解决所述技术问题,本发明采用的技术方案是:一种菜品图像背景剥离方法,其特征在于:包括以下步骤:S01)、构建菜品定位样本数据库,菜品定位样本数据库中为具有多种来源并盛有菜品的器皿图像;S02)、构建深度学习目标定位模型,并基于步骤S01构建的菜品定位样本数据库对深度学习目标定位模型进行训练,训练后的深度学习目标定位模型能够实现对多变量条件下的真实菜品图像进行定位,提取图像中器皿的位置、大小信息;S03)、构建边缘检测算法模型,边缘检测算法模型对视野中器皿边缘进行粗略标记,获得器皿粗边缘;S04)、通过边缘检测算法模型和深度学习目标定位模型对真实菜品图像进行提取,获得单个菜品图像;S05)、针对单个菜品图像,构建对抗网络模型对其进行处理,获得无菜品单器皿图像,对抗网络模型包括深度学习生成器模型和深度学习判别器模型,深度学习生成器模型通过学习对输入的单个菜品图像生成无菜品单器皿图像,深度学习判别器模型基于深度学习生成器模型生成的单个无菜品单器皿图像和实际采集的单器皿无菜品图像,实现对真实图像和生成图像的合理区分;S06)、通过单个菜品图像与无菜品单器皿图像做差,获得纯菜品区域图像。
进一步的,菜品定位样本数据库的图像来源包括相机、摄像机拍摄的照片或者从拍摄视频中截取的图像、网络中获得的图像。
进一步的,对定位样本数据库中的数据进行数据清洗、数据增强,并通过旋转、镜像、扭曲、模糊的方式增加样本多样性。
进一步的,菜品定位样本数据库通过相机或者摄像机进行拍摄采集时,拍摄过程中提供各角度光照变化、拍摄角度位于正上方至垂直角度45度之间、拍摄距离30至50厘米处,形成拍摄视频,视频分辨率为1080p尺寸,视频采集过程中,每个菜品所占像素尺寸不小于50*50像素大小。
进一步的,深度学习目标定位模型为多尺度深度卷积神经网络模型,包括多尺度变换层、多卷积层、特征融合层和全连接层,将步骤S01中的菜品定位样本数据库作为数据集,将数据集分为训练集和测试集,通过学习经过人工标记的训练集数据特征,对图像中盛菜器皿部分进行标记,并通过测试集进行模型验证。
进一步的,所述深度学习目标定位模型采用多尺度感受野检测,通过不同感受野先验结果对目标进行检测判断。
进一步的,所述边缘加测算法模型采用Sobel算子、Canny算子或者Laplacian算子。
进一步的,深度学习目标定位模型提取器皿的矩形位置信息,如果边缘检测算法模型对该矩形位置信息无法形成闭合形状,则扩大深度学习目标定位模型获取的矩形位置信息,使边缘检测结果形成闭合空间为止。
进一步的,对深度学习判别器模型进行优化,优化方式为:将深度学习生成器模型固定,将生成图像数据标签设置为0、真实图像数据标签设置为1,通过反向传播方式,梯度调整判别器模型参数。
进一步的,对深度学习生成器模型进行优化,优化方式为:将深度学习判别器模型固定,将生成图像数据标签、真实图像数据标签均设置为1,通过反向传播方式,梯度调整串联的深度学习生成器模型和深度学习判别器模型的参数。
本发明的有益效果:本发明所述方法采用深度学习与边缘检测结合的方法生成无菜品单器皿图像,再通过单菜品图像与无菜品单器皿图像做差的方式获取纯菜品区域图像,可以去除无效背景,提取核心目标区域内容,有利于机器学习进一步训练。从而可以解决在菜品识别数据获取阶段产生的数据不准确、不全面的问题,通过生成单一无器皿菜品数据信息增强菜品识别学习网络识别能力。
附图说明
图1为对某一真实菜品图像进行背景剥离的流程图;
图2为训练深度学习目标定位模型的流程图;
图3为对抗网络模型的工作流程图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步的说明。
实施例1
本实施例公开一种菜品图像背景剥离方法,本方法包括以下步骤:
S01)、构建菜品定位样本数据库,菜品定位样本数据库中为具有多种来源并盛有菜品的器皿图像;
本实施例中,菜品定位样本数据库的图像来源包括相机、摄像机拍摄的照片或者从其拍摄视频中截取的图像、网络中获得的图像。
为了增加样本多样性,本实施例中对定位样本数据库中的数据进行数据清洗、数据增强,并进行旋转、镜像、扭曲、模糊操作。
为了方便下一步训练深度学习目标定位模型,本实施例中对样本数据库中的数据进行标注,标注内容为盛菜器皿所处空间的外接矩形。
本实施例中,通过相机或者摄像机进行菜品定位样本数据库的采集,拍摄采集过程中提供各角度光照变化、拍摄角度位于正上方至垂直角度45度之间、拍摄距离30至50厘米处,形成拍摄视频,视频分辨率为1080p尺寸,视频采集过程中,每个菜品所占像素尺寸不小于50*50像素大小。
S02)、构建深度学习目标定位模型,如图2所示,并基于步骤S01构建的菜品定位样本数据库对深度学习目标定位模型进行训练,训练后的深度学习目标定位模型能够实现对不同规格、尺寸、角度等变量条件下的真实菜品图像进行定位,提取不同尺度、模态下的图像中器皿的位置、大小信息;
本实施例中,深度学习目标定位模型为多尺度深度卷积神经网络模型,包括多尺度变换层、多卷积层、特征融合层和全连接层,将步骤S01中的菜品定位样本数据库作为数据集,将数据集分为训练集和测试集,通过学习经过人工标记的训练集数据特征,并通过测试集进行模型验证。
本实施例中,所述深度学习目标定位模型采用多尺度感受野检测,通过不同感受野先验结果对目标进行检测判断。
S03)、构建边缘检测算法模型,边缘检测算法模型对视野中器皿边缘进行粗略标记,获得器皿粗边缘;
本实施例中,所述边缘加测算法模型采用Sobel算子、Canny算子或者Laplacian算子。
S04)、通过边缘检测算法模型和深度学习目标定位模型对真实菜品图像进行提取,获得单个菜品图像;
真实菜品图像中可能包括多个有菜品餐盘,所以要经过深度学习目标检测和边缘检测算法获得单个菜品图像,针对真实菜品图像中的其他有盛有菜品的餐盘也要经过同样的步骤获得其中的单个菜品图像;
本实施例中,深度学习目标定位模型提取器皿的矩形位置信息,如果边缘检测算法模型对该矩形位置信息无法形成闭合形状,则扩大深度学习目标定位模型获取的矩形位置信息,使边缘检测结果形成闭合空间为止。
S05)、针对单个菜品图像,构建对抗网络模型对其进行处理,获得无菜品单器皿图像。
如图3所示,本实施例中,对抗网络模型包括深度学习生成器模型和深度学习判别器模型,深度学习生成器模型的输入数据为步骤S04获得的单菜品图像,目标为单器皿无菜品图像,深度学习生成器模型通过学习对输入的单个菜品图像生成无菜品单器皿图像。
本实施例中,深度学习判别器模型的输入分别为深度学习生成器模型生成的单个无菜品单器皿图像和实际采集的单器皿无菜品图像,深度学习判别器模型通过构造深度卷积神经网络模型,实现对真实图像和生成图像的合理区分;
本实施例中,对深度学习判别器模型进行优化,优化方式为:将深度学习生成器模型固定,将生成图像数据标签设置为0、真实图像数据标签设置为1,通过反向传播方式,梯度调整判别器模型参数。
本实施例中,对深度学习生成器模型进行优化,优化方式为:将深度学习判别器模型固定,将生成图像数据标签、真实图像数据标签均设置为1,通过反向传播方式,梯度调整串联的深度学习生成器模型和深度学习判别器模型的参数。
本步骤最终实现通过针对单个菜品图像,定向生成无菜品器皿图像,且该图像与原始图像差异仅存在于器皿内菜品信息。
S06)、通过单个菜品图像与无菜品单器皿图像做差,获得纯菜品区域图像,用于下一步的菜品识别。
真实菜品图像中的其他有菜品餐盘也要经过同样的步骤获得其中的单菜品无器皿数据本实施例中所述样本图像信息的颜色空间为RGB。
如图1所示,为针对某一真实菜品图像进行背景剥离的流程图:首先采集真实图像,然后基于深度学习定位模型获得器皿区域,再基于边缘检测算法获得器皿真实区域,使用对抗网络生成对应无菜品器皿数据,最后使用边缘检测算法得出的图像与无菜品器皿图像数据相减,获得菜品真实轮廓信息。
如图2所示,训练深度学习目标定位模型的流程为:1、获取菜品图像,本实施例中为菜品定位样本数据库;2、人工标注菜品图像的外接矩形;3、设定训练集和测试集,训练深度学习定位模型。
本实施所述方法采用深度学习与边缘检测结合的方法生成无菜品单器皿图像,再通过单菜品图像与无菜品单器皿图像做差的方式获取纯菜品区域图像,可以去除无效背景,提取核心目标区域内容,有利于机器学习进一步训练。从而可以解决在菜品识别数据获取阶段产生的数据不准确、不全面的问题,通过生成单一无器皿菜品数据信息增强菜品识别学习网络识别能力。
以上描述的仅是本发明的基本原理和优选实施例,本领域技术人员根据本发明做出的改机和替换,属于本发明的保护范围。

Claims (10)

1.一种菜品图像背景剥离方法,其特征在于:包括以下步骤:S01)、构建菜品定位样本数据库,菜品定位样本数据库中为具有多种来源并盛有菜品的器皿图像;S02)、构建深度学习目标定位模型,并基于步骤S01构建的菜品定位样本数据库对深度学习目标定位模型进行训练,训练后的深度学习目标定位模型能够实现对多变量条件下的真实菜品图像进行定位,提取图像中器皿的位置、大小信息;S03)、构建边缘检测算法模型,边缘检测算法模型对视野中器皿边缘进行粗略标记,获得器皿粗边缘;S04)、通过边缘检测算法模型和深度学习目标定位模型对真实菜品图像进行提取,获得单个菜品图像;S05)、针对单个菜品图像,构建对抗网络模型对其进行处理,获得无菜品单器皿图像,对抗网络模型包括深度学习生成器模型和深度学习判别器模型,深度学习生成器模型通过学习对输入的单个菜品图像生成无菜品单器皿图像,深度学习判别器模型基于深度学习生成器模型生成的单个无菜品单器皿图像和实际采集的单器皿无菜品图像,实现对真实图像和生成图像的合理区分;S06)、通过单个菜品图像与无菜品单器皿图像做差,获得纯菜品区域图像。
2.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:菜品定位样本数据库的图像来源包括相机、摄像机拍摄的照片或者从拍摄视频中截取的图像、网络中获得的图像。
3.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:对定位样本数据库中的数据进行数据清洗、数据增强,并通过旋转、镜像、扭曲、模糊的方式增加样本多样性。
4.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:菜品定位样本数据库通过相机或者摄像机进行拍摄采集时,拍摄过程中提供各角度光照变化、拍摄角度位于正上方至垂直角度45度之间、拍摄距离30至50厘米处,形成拍摄视频,视频分辨率为1080p尺寸,视频采集过程中,每个菜品所占像素尺寸不小于50*50像素大小。
5.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:深度学习目标定位模型为多尺度深度卷积神经网络模型,包括多尺度变换层、多卷积层、特征融合层和全连接层,将步骤S01中的菜品定位样本数据库作为数据集,将数据集分为训练集和测试集,通过学习经过人工标记的训练集数据特征,对图像中盛菜器皿部分进行标记,并通过测试集进行模型验证。
6.根据权利要求5所述的菜品图像背景剥离方法,其特征在于:所述深度学习目标定位模型采用多尺度感受野检测,通过不同感受野先验结果对目标进行检测判断。
7.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:所述边缘加测算法模型采用Sobel算子、Canny算子或者Laplacian算子。
8.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:深度学习目标定位模型提取器皿的矩形位置信息,如果边缘检测算法模型对该矩形位置信息无法形成闭合形状,则扩大深度学习目标定位模型获取的矩形位置信息,使边缘检测结果形成闭合空间为止。
9.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:对深度学习判别器模型进行优化,优化方式为:将深度学习生成器模型固定,将生成图像数据标签设置为0、真实图像数据标签设置为1,通过反向传播方式,梯度调整判别器模型参数。
10.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:对深度学习生成器模型进行优化,优化方式为:将深度学习判别器模型固定,将生成图像数据标签、真实图像数据标签均设置为1,通过反向传播方式,梯度调整串联的深度学习生成器模型和深度学习判别器模型的参数。
CN201911394280.8A 2019-12-30 2019-12-30 一种菜品图像背景剥离方法 Active CN111161295B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911394280.8A CN111161295B (zh) 2019-12-30 2019-12-30 一种菜品图像背景剥离方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911394280.8A CN111161295B (zh) 2019-12-30 2019-12-30 一种菜品图像背景剥离方法

Publications (2)

Publication Number Publication Date
CN111161295A true CN111161295A (zh) 2020-05-15
CN111161295B CN111161295B (zh) 2023-11-21

Family

ID=70559163

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911394280.8A Active CN111161295B (zh) 2019-12-30 2019-12-30 一种菜品图像背景剥离方法

Country Status (1)

Country Link
CN (1) CN111161295B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308156A (zh) * 2020-11-05 2021-02-02 电子科技大学 一种基于对抗学习的两阶段图像变化检测方法
CN112507942A (zh) * 2020-12-17 2021-03-16 神思电子技术股份有限公司 一种多尺度融合的菜品识别方法
CN112668529A (zh) * 2020-12-31 2021-04-16 神思电子技术股份有限公司 一种菜品样本图像增强识别方法
CN115356363A (zh) * 2022-08-01 2022-11-18 河南理工大学 一种基于宽离子束抛光-扫描电镜的孔隙结构表征方法

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778577A (zh) * 2013-08-30 2014-05-07 陈飞 一种依据餐具信息调控餐桌并记录用餐信息的方法及装置
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
JP2017211691A (ja) * 2016-05-23 2017-11-30 株式会社ツクタ技研 画像処理装置、画像処理方法、および画像処理プログラム
CN108074244A (zh) * 2017-09-07 2018-05-25 汉鼎宇佑互联网股份有限公司 一种融合深度学习与背景差法的平安城市车流统计方法
CN108830188A (zh) * 2018-05-30 2018-11-16 西安理工大学 基于深度学习的车辆检测方法
JP2018206260A (ja) * 2017-06-08 2018-12-27 国立大学法人 筑波大学 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
JP2019023850A (ja) * 2018-03-07 2019-02-14 クックパッド株式会社 情報処理システム、情報処理方法及び情報処理プログラム
CN109447083A (zh) * 2018-08-31 2019-03-08 广州市派客朴食信息科技有限责任公司 一种基于图像边缘特征的餐具识别方法
CN109508664A (zh) * 2018-10-26 2019-03-22 浙江师范大学 一种基于深度学习的菜品识别计价方法
WO2019057978A1 (fr) * 2017-09-24 2019-03-28 Guillaume Chican Procédé pour fournir une interface homme-machine à au moins un utilisateur se trouvant dans un lieu de consommation et dispositif pour la mise en œuvre du procédé
WO2019096179A1 (zh) * 2017-11-14 2019-05-23 深圳码隆科技有限公司 服装logo效果检测方法、装置及电子设备
US20190180443A1 (en) * 2017-11-07 2019-06-13 Align Technology, Inc. Deep learning for tooth detection and evaluation
FR3075376A1 (fr) * 2017-12-14 2019-06-21 Safran Procede de controle non-destructif pour une piece aeronautique
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN110084642A (zh) * 2019-04-19 2019-08-02 哈尔滨新中新电子股份有限公司 基于目标检测和图像检索的菜品识别方法
US20190272623A1 (en) * 2017-04-13 2019-09-05 Fractilia, Llc Edge detection system and its use for machine learning
WO2019176235A1 (ja) * 2018-03-12 2019-09-19 株式会社日立産業制御ソリューションズ 画像生成方法、画像生成装置及び画像生成システム

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778577A (zh) * 2013-08-30 2014-05-07 陈飞 一种依据餐具信息调控餐桌并记录用餐信息的方法及装置
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
JP2017211691A (ja) * 2016-05-23 2017-11-30 株式会社ツクタ技研 画像処理装置、画像処理方法、および画像処理プログラム
US20190272623A1 (en) * 2017-04-13 2019-09-05 Fractilia, Llc Edge detection system and its use for machine learning
JP2018206260A (ja) * 2017-06-08 2018-12-27 国立大学法人 筑波大学 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
CN108074244A (zh) * 2017-09-07 2018-05-25 汉鼎宇佑互联网股份有限公司 一种融合深度学习与背景差法的平安城市车流统计方法
WO2019057978A1 (fr) * 2017-09-24 2019-03-28 Guillaume Chican Procédé pour fournir une interface homme-machine à au moins un utilisateur se trouvant dans un lieu de consommation et dispositif pour la mise en œuvre du procédé
US20190180443A1 (en) * 2017-11-07 2019-06-13 Align Technology, Inc. Deep learning for tooth detection and evaluation
WO2019096179A1 (zh) * 2017-11-14 2019-05-23 深圳码隆科技有限公司 服装logo效果检测方法、装置及电子设备
FR3075376A1 (fr) * 2017-12-14 2019-06-21 Safran Procede de controle non-destructif pour une piece aeronautique
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
JP2019023850A (ja) * 2018-03-07 2019-02-14 クックパッド株式会社 情報処理システム、情報処理方法及び情報処理プログラム
WO2019176235A1 (ja) * 2018-03-12 2019-09-19 株式会社日立産業制御ソリューションズ 画像生成方法、画像生成装置及び画像生成システム
CN108830188A (zh) * 2018-05-30 2018-11-16 西安理工大学 基于深度学习的车辆检测方法
CN109447083A (zh) * 2018-08-31 2019-03-08 广州市派客朴食信息科技有限责任公司 一种基于图像边缘特征的餐具识别方法
CN109508664A (zh) * 2018-10-26 2019-03-22 浙江师范大学 一种基于深度学习的菜品识别计价方法
CN110084642A (zh) * 2019-04-19 2019-08-02 哈尔滨新中新电子股份有限公司 基于目标检测和图像检索的菜品识别方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308156A (zh) * 2020-11-05 2021-02-02 电子科技大学 一种基于对抗学习的两阶段图像变化检测方法
CN112308156B (zh) * 2020-11-05 2022-05-03 电子科技大学 一种基于对抗学习的两阶段图像变化检测方法
CN112507942A (zh) * 2020-12-17 2021-03-16 神思电子技术股份有限公司 一种多尺度融合的菜品识别方法
CN112668529A (zh) * 2020-12-31 2021-04-16 神思电子技术股份有限公司 一种菜品样本图像增强识别方法
CN115356363A (zh) * 2022-08-01 2022-11-18 河南理工大学 一种基于宽离子束抛光-扫描电镜的孔隙结构表征方法
CN115356363B (zh) * 2022-08-01 2023-06-20 河南理工大学 一种基于宽离子束抛光-扫描电镜的孔隙结构表征方法

Also Published As

Publication number Publication date
CN111161295B (zh) 2023-11-21

Similar Documents

Publication Publication Date Title
Scharr et al. Leaf segmentation in plant phenotyping: a collation study
CN111161295A (zh) 一种菜品图像背景剥离方法
CN102426649B (zh) 一种简单的高准确率的钢印数字自动识别方法
US8340420B2 (en) Method for recognizing objects in images
CN109409355B (zh) 一种新型变压器铭牌识别的方法及装置
CN107203990A (zh) 一种基于模板匹配与图像质量评估的标贴破损检测方法
CN109460735B (zh) 基于图半监督学习的文档二值化处理方法、系统、装置
CN107230203A (zh) 基于人眼视觉注意机制的铸件缺陷识别方法
CN106709500B (zh) 一种图像特征匹配的方法
CN110047063B (zh) 一种物料掉落的检测方法、装置、设备及存储介质
CN102704215A (zh) 基于dst文件解析与机器视觉结合的绣布自动切割方法
CN110533654A (zh) 零部件的异常检测方法及装置
CN108596176B (zh) 一种对提取的硅藻区域进行硅藻类型识别方法及装置
CN111553422A (zh) 手术器械自动识别回收方法及系统
CN112069985A (zh) 基于深度学习的高分辨率大田图像稻穗检测与计数方法
CN111695373B (zh) 斑马线的定位方法、系统、介质及设备
CN110458019B (zh) 稀缺认知样本条件下的排除倒影干扰的水面目标检测方法
CN111178405A (zh) 一种融合多种神经网络的相似物体识别方法
CN108022245A (zh) 基于面线基元关联模型的光伏面板模板自动生成方法
CN111476074A (zh) 基于毫米波图像的人体异物检测方法
CN109165611B (zh) 一种基于机器视觉和神经网络的碗碟识别智能结算方法
CN111738310B (zh) 物料分类方法、装置、电子设备和存储介质
CN108985294B (zh) 一种轮胎模具图片的定位方法、装置、设备及存储介质
CN111738264A (zh) 一种机房设备显示面板数据的智能采集方法
CN110853097A (zh) 一种应用于饼干表面图案打印设备的饼干识别定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant