CN111161295B - 一种菜品图像背景剥离方法 - Google Patents

一种菜品图像背景剥离方法 Download PDF

Info

Publication number
CN111161295B
CN111161295B CN201911394280.8A CN201911394280A CN111161295B CN 111161295 B CN111161295 B CN 111161295B CN 201911394280 A CN201911394280 A CN 201911394280A CN 111161295 B CN111161295 B CN 111161295B
Authority
CN
China
Prior art keywords
dish
image
model
deep learning
vessel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911394280.8A
Other languages
English (en)
Other versions
CN111161295A (zh
Inventor
瞿晨非
方亮
许野平
王阔阔
凌桂婷
刘永悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Synthesis Electronic Technology Co Ltd
Original Assignee
Synthesis Electronic Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Synthesis Electronic Technology Co Ltd filed Critical Synthesis Electronic Technology Co Ltd
Priority to CN201911394280.8A priority Critical patent/CN111161295B/zh
Publication of CN111161295A publication Critical patent/CN111161295A/zh
Application granted granted Critical
Publication of CN111161295B publication Critical patent/CN111161295B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种菜品图像背景剥离方法,本方法采用深度学习与边缘检测结合的方法生成无菜品单器皿图像,再通过单菜品图像与无菜品单器皿图像做差的方式获取纯菜品区域图像,可以去除无效背景,提取核心目标区域内容,有利于机器学习进一步训练。从而可以解决在菜品识别数据获取阶段产生的数据不准确、不全面的问题,通过生成单一无器皿菜品数据信息增强菜品识别学习网络识别能力。

Description

一种菜品图像背景剥离方法
技术领域
本发明涉及智慧餐饮领域,具体的说,是一种菜品图像背景剥离方法。
背景技术
进行菜品图像识别过程中,通常对盛菜器皿整体进行目标抽取后进行目标识别,该过程中存在器皿对目标识别的噪音影响。同时由器皿自身问题导致的目标定位错误也会影响到紧接着的识别工作,因此通过对菜品区域的检测并提取,是识别过程的重要技术组成。
公开号为CN201910315763的专利公开了一种菜品识别方法,在进行样本学习过程中仅对目标菜品粗略定位后获得菜品器皿信息,然后进行特征提取比对,用来判断当前目标是哪种菜品。该方法虽然可以对菜品进行学习分类,但是在分类时使用的数据是带有器皿信息的,因此在进行学习过程中将会使分类网络倾向于当前器皿环境下的应用,而在更换器皿或数据库包含不充足情况下,会产生识别精度不足的问题。
发明内容
本发明要解决的技术问题是提供一种菜品图像背景剥离方法,解决在菜品识别数据获取阶段产生的数据不准确、不全面的问题,通过生成单一无器皿菜品数据信息增强菜品识别学习网络识别能力。
为了解决所述技术问题,本发明采用的技术方案是:一种菜品图像背景剥离方法,其特征在于:包括以下步骤:S01)、构建菜品定位样本数据库,菜品定位样本数据库中为具有多种来源并盛有菜品的器皿图像;S02)、构建深度学习目标定位模型,并基于步骤S01构建的菜品定位样本数据库对深度学习目标定位模型进行训练,训练后的深度学习目标定位模型能够实现对多变量条件下的真实菜品图像进行定位,提取图像中器皿的位置、大小信息;S03)、构建边缘检测算法模型,边缘检测算法模型对视野中器皿边缘进行粗略标记,获得器皿粗边缘;S04)、通过边缘检测算法模型和深度学习目标定位模型对真实菜品图像进行提取,获得单个菜品图像;S05)、针对单个菜品图像,构建对抗网络模型对其进行处理,获得无菜品单器皿图像,对抗网络模型包括深度学习生成器模型和深度学习判别器模型,深度学习生成器模型通过学习对输入的单个菜品图像生成无菜品单器皿图像,深度学习判别器模型基于深度学习生成器模型生成的单个无菜品单器皿图像和实际采集的单器皿无菜品图像,实现对真实图像和生成图像的合理区分;S06)、通过单个菜品图像与无菜品单器皿图像做差,获得纯菜品区域图像。
进一步的,菜品定位样本数据库的图像来源包括相机、摄像机拍摄的照片或者从拍摄视频中截取的图像、网络中获得的图像。
进一步的,对定位样本数据库中的数据进行数据清洗、数据增强,并通过旋转、镜像、扭曲、模糊的方式增加样本多样性。
进一步的,菜品定位样本数据库通过相机或者摄像机进行拍摄采集时,拍摄过程中提供各角度光照变化、拍摄角度位于正上方至垂直角度45度之间、拍摄距离30至50厘米处,形成拍摄视频,视频分辨率为1080p尺寸,视频采集过程中,每个菜品所占像素尺寸不小于50*50像素大小。
进一步的,深度学习目标定位模型为多尺度深度卷积神经网络模型,包括多尺度变换层、多卷积层、特征融合层和全连接层,将步骤S01中的菜品定位样本数据库作为数据集,将数据集分为训练集和测试集,通过学习经过人工标记的训练集数据特征,对图像中盛菜器皿部分进行标记,并通过测试集进行模型验证。
进一步的,所述深度学习目标定位模型采用多尺度感受野检测,通过不同感受野先验结果对目标进行检测判断。
进一步的,所述边缘加测算法模型采用Sobel算子、Canny算子或者Laplacian算子。
进一步的,深度学习目标定位模型提取器皿的矩形位置信息,如果边缘检测算法模型对该矩形位置信息无法形成闭合形状,则扩大深度学习目标定位模型获取的矩形位置信息,使边缘检测结果形成闭合空间为止。
进一步的,对深度学习判别器模型进行优化,优化方式为:将深度学习生成器模型固定,将生成图像数据标签设置为0、真实图像数据标签设置为1,通过反向传播方式,梯度调整判别器模型参数。
进一步的,对深度学习生成器模型进行优化,优化方式为:将深度学习判别器模型固定,将生成图像数据标签、真实图像数据标签均设置为1,通过反向传播方式,梯度调整串联的深度学习生成器模型和深度学习判别器模型的参数。
本发明的有益效果:本发明所述方法采用深度学习与边缘检测结合的方法生成无菜品单器皿图像,再通过单菜品图像与无菜品单器皿图像做差的方式获取纯菜品区域图像,可以去除无效背景,提取核心目标区域内容,有利于机器学习进一步训练。从而可以解决在菜品识别数据获取阶段产生的数据不准确、不全面的问题,通过生成单一无器皿菜品数据信息增强菜品识别学习网络识别能力。
附图说明
图1为对某一真实菜品图像进行背景剥离的流程图;
图2为训练深度学习目标定位模型的流程图;
图3为对抗网络模型的工作流程图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步的说明。
实施例1
本实施例公开一种菜品图像背景剥离方法,本方法包括以下步骤:
S01)、构建菜品定位样本数据库,菜品定位样本数据库中为具有多种来源并盛有菜品的器皿图像;
本实施例中,菜品定位样本数据库的图像来源包括相机、摄像机拍摄的照片或者从其拍摄视频中截取的图像、网络中获得的图像。
为了增加样本多样性,本实施例中对定位样本数据库中的数据进行数据清洗、数据增强,并进行旋转、镜像、扭曲、模糊操作。
为了方便下一步训练深度学习目标定位模型,本实施例中对样本数据库中的数据进行标注,标注内容为盛菜器皿所处空间的外接矩形。
本实施例中,通过相机或者摄像机进行菜品定位样本数据库的采集,拍摄采集过程中提供各角度光照变化、拍摄角度位于正上方至垂直角度45度之间、拍摄距离30至50厘米处,形成拍摄视频,视频分辨率为1080p尺寸,视频采集过程中,每个菜品所占像素尺寸不小于50*50像素大小。
S02)、构建深度学习目标定位模型,如图2所示,并基于步骤S01构建的菜品定位样本数据库对深度学习目标定位模型进行训练,训练后的深度学习目标定位模型能够实现对不同规格、尺寸、角度等变量条件下的真实菜品图像进行定位,提取不同尺度、模态下的图像中器皿的位置、大小信息;
本实施例中,深度学习目标定位模型为多尺度深度卷积神经网络模型,包括多尺度变换层、多卷积层、特征融合层和全连接层,将步骤S01中的菜品定位样本数据库作为数据集,将数据集分为训练集和测试集,通过学习经过人工标记的训练集数据特征,并通过测试集进行模型验证。
本实施例中,所述深度学习目标定位模型采用多尺度感受野检测,通过不同感受野先验结果对目标进行检测判断。
S03)、构建边缘检测算法模型,边缘检测算法模型对视野中器皿边缘进行粗略标记,获得器皿粗边缘;
本实施例中,所述边缘加测算法模型采用Sobel算子、Canny算子或者Laplacian算子。
S04)、通过边缘检测算法模型和深度学习目标定位模型对真实菜品图像进行提取,获得单个菜品图像;
真实菜品图像中可能包括多个有菜品餐盘,所以要经过深度学习目标检测和边缘检测算法获得单个菜品图像,针对真实菜品图像中的其他有盛有菜品的餐盘也要经过同样的步骤获得其中的单个菜品图像;
本实施例中,深度学习目标定位模型提取器皿的矩形位置信息,如果边缘检测算法模型对该矩形位置信息无法形成闭合形状,则扩大深度学习目标定位模型获取的矩形位置信息,使边缘检测结果形成闭合空间为止。
S05)、针对单个菜品图像,构建对抗网络模型对其进行处理,获得无菜品单器皿图像。
如图3所示,本实施例中,对抗网络模型包括深度学习生成器模型和深度学习判别器模型,深度学习生成器模型的输入数据为步骤S04获得的单菜品图像,目标为单器皿无菜品图像,深度学习生成器模型通过学习对输入的单个菜品图像生成无菜品单器皿图像。
本实施例中,深度学习判别器模型的输入分别为深度学习生成器模型生成的单个无菜品单器皿图像和实际采集的单器皿无菜品图像,深度学习判别器模型通过构造深度卷积神经网络模型,实现对真实图像和生成图像的合理区分;
本实施例中,对深度学习判别器模型进行优化,优化方式为:将深度学习生成器模型固定,将生成图像数据标签设置为0、真实图像数据标签设置为1,通过反向传播方式,梯度调整判别器模型参数。
本实施例中,对深度学习生成器模型进行优化,优化方式为:将深度学习判别器模型固定,将生成图像数据标签、真实图像数据标签均设置为1,通过反向传播方式,梯度调整串联的深度学习生成器模型和深度学习判别器模型的参数。
本步骤最终实现通过针对单个菜品图像,定向生成无菜品器皿图像,且该图像与原始图像差异仅存在于器皿内菜品信息。
S06)、通过单个菜品图像与无菜品单器皿图像做差,获得纯菜品区域图像,用于下一步的菜品识别。
真实菜品图像中的其他有菜品餐盘也要经过同样的步骤获得其中的单菜品无器皿数据本实施例中所述样本图像信息的颜色空间为RGB。
如图1所示,为针对某一真实菜品图像进行背景剥离的流程图:首先采集真实图像,然后基于深度学习定位模型获得器皿区域,再基于边缘检测算法获得器皿真实区域,使用对抗网络生成对应无菜品器皿数据,最后使用边缘检测算法得出的图像与无菜品器皿图像数据相减,获得菜品真实轮廓信息。
如图2所示,训练深度学习目标定位模型的流程为:1、获取菜品图像,本实施例中为菜品定位样本数据库;2、人工标注菜品图像的外接矩形;3、设定训练集和测试集,训练深度学习定位模型。
本实施所述方法采用深度学习与边缘检测结合的方法生成无菜品单器皿图像,再通过单菜品图像与无菜品单器皿图像做差的方式获取纯菜品区域图像,可以去除无效背景,提取核心目标区域内容,有利于机器学习进一步训练。从而可以解决在菜品识别数据获取阶段产生的数据不准确、不全面的问题,通过生成单一无器皿菜品数据信息增强菜品识别学习网络识别能力。
以上描述的仅是本发明的基本原理和优选实施例,本领域技术人员根据本发明做出的改机和替换,属于本发明的保护范围。

Claims (10)

1.一种菜品图像背景剥离方法,其特征在于:包括以下步骤:S01)、构建菜品定位样本数据库,菜品定位样本数据库中为具有多种来源并盛有菜品的器皿图像;S02)、构建深度学习目标定位模型,并基于步骤S01构建的菜品定位样本数据库对深度学习目标定位模型进行训练,训练后的深度学习目标定位模型能够实现对多变量条件下的真实菜品图像进行定位,提取图像中器皿的位置、大小信息;S03)、构建边缘检测算法模型,边缘检测算法模型对视野中器皿边缘进行粗略标记,获得器皿粗边缘;S04)、通过边缘检测算法模型和深度学习目标定位模型对真实菜品图像进行提取,获得单个菜品图像;S05)、针对单个菜品图像,构建对抗网络模型对其进行处理,获得无菜品单器皿图像,对抗网络模型包括深度学习生成器模型和深度学习判别器模型,深度学习生成器模型通过学习对输入的单个菜品图像生成无菜品单器皿图像,深度学习判别器模型基于深度学习生成器模型生成的单个无菜品单器皿图像和实际采集的单器皿无菜品图像,实现对真实图像和生成图像的合理区分;S06)、通过单个菜品图像与无菜品单器皿图像做差,获得纯菜品区域图像。
2.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:菜品定位样本数据库的图像来源包括相机、摄像机拍摄的照片或者从拍摄视频中截取的图像、网络中获得的图像。
3.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:对定位样本数据库中的数据进行数据清洗、数据增强,并通过旋转、镜像、扭曲、模糊的方式增加样本多样性。
4.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:菜品定位样本数据库通过相机或者摄像机进行拍摄采集时,拍摄过程中提供各角度光照变化、拍摄角度位于正上方至垂直角度45度之间、拍摄距离30至50厘米处,形成拍摄视频,视频分辨率为1080p尺寸,视频采集过程中,每个菜品所占像素尺寸不小于50*50像素大小。
5.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:深度学习目标定位模型为多尺度深度卷积神经网络模型,包括多尺度变换层、多卷积层、特征融合层和全连接层,将步骤S01中的菜品定位样本数据库作为数据集,将数据集分为训练集和测试集,通过学习经过人工标记的训练集数据特征,对图像中盛菜器皿部分进行标记,并通过测试集进行模型验证。
6.根据权利要求5所述的菜品图像背景剥离方法,其特征在于:所述深度学习目标定位模型采用多尺度感受野检测,通过不同感受野先验结果对目标进行检测判断。
7.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:所述边缘加测算法模型采用Sobel算子、Canny算子或者Laplacian算子。
8.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:深度学习目标定位模型提取器皿的矩形位置信息,如果边缘检测算法模型对该矩形位置信息无法形成闭合形状,则扩大深度学习目标定位模型获取的矩形位置信息,使边缘检测结果形成闭合空间为止。
9.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:对深度学习判别器模型进行优化,优化方式为:将深度学习生成器模型固定,将生成图像数据标签设置为0、真实图像数据标签设置为1,通过反向传播方式,梯度调整判别器模型参数。
10.根据权利要求1所述的菜品图像背景剥离方法,其特征在于:对深度学习生成器模型进行优化,优化方式为:将深度学习判别器模型固定,将生成图像数据标签、真实图像数据标签均设置为1,通过反向传播方式,梯度调整串联的深度学习生成器模型和深度学习判别器模型的参数。
CN201911394280.8A 2019-12-30 2019-12-30 一种菜品图像背景剥离方法 Active CN111161295B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911394280.8A CN111161295B (zh) 2019-12-30 2019-12-30 一种菜品图像背景剥离方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911394280.8A CN111161295B (zh) 2019-12-30 2019-12-30 一种菜品图像背景剥离方法

Publications (2)

Publication Number Publication Date
CN111161295A CN111161295A (zh) 2020-05-15
CN111161295B true CN111161295B (zh) 2023-11-21

Family

ID=70559163

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911394280.8A Active CN111161295B (zh) 2019-12-30 2019-12-30 一种菜品图像背景剥离方法

Country Status (1)

Country Link
CN (1) CN111161295B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308156B (zh) * 2020-11-05 2022-05-03 电子科技大学 一种基于对抗学习的两阶段图像变化检测方法
CN112507942A (zh) * 2020-12-17 2021-03-16 神思电子技术股份有限公司 一种多尺度融合的菜品识别方法
CN112668529A (zh) * 2020-12-31 2021-04-16 神思电子技术股份有限公司 一种菜品样本图像增强识别方法
CN115356363B (zh) * 2022-08-01 2023-06-20 河南理工大学 一种基于宽离子束抛光-扫描电镜的孔隙结构表征方法

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778577A (zh) * 2013-08-30 2014-05-07 陈飞 一种依据餐具信息调控餐桌并记录用餐信息的方法及装置
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
JP2017211691A (ja) * 2016-05-23 2017-11-30 株式会社ツクタ技研 画像処理装置、画像処理方法、および画像処理プログラム
CN108074244A (zh) * 2017-09-07 2018-05-25 汉鼎宇佑互联网股份有限公司 一种融合深度学习与背景差法的平安城市车流统计方法
CN108830188A (zh) * 2018-05-30 2018-11-16 西安理工大学 基于深度学习的车辆检测方法
JP2018206260A (ja) * 2017-06-08 2018-12-27 国立大学法人 筑波大学 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
JP2019023850A (ja) * 2018-03-07 2019-02-14 クックパッド株式会社 情報処理システム、情報処理方法及び情報処理プログラム
CN109447083A (zh) * 2018-08-31 2019-03-08 广州市派客朴食信息科技有限责任公司 一种基于图像边缘特征的餐具识别方法
CN109508664A (zh) * 2018-10-26 2019-03-22 浙江师范大学 一种基于深度学习的菜品识别计价方法
WO2019057978A1 (fr) * 2017-09-24 2019-03-28 Guillaume Chican Procédé pour fournir une interface homme-machine à au moins un utilisateur se trouvant dans un lieu de consommation et dispositif pour la mise en œuvre du procédé
WO2019096179A1 (zh) * 2017-11-14 2019-05-23 深圳码隆科技有限公司 服装logo效果检测方法、装置及电子设备
FR3075376A1 (fr) * 2017-12-14 2019-06-21 Safran Procede de controle non-destructif pour une piece aeronautique
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN110084642A (zh) * 2019-04-19 2019-08-02 哈尔滨新中新电子股份有限公司 基于目标检测和图像检索的菜品识别方法
WO2019176235A1 (ja) * 2018-03-12 2019-09-19 株式会社日立産業制御ソリューションズ 画像生成方法、画像生成装置及び画像生成システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10664955B2 (en) * 2017-04-13 2020-05-26 Fractilia, Llc Edge detection system and its use for machine learning
US10997727B2 (en) * 2017-11-07 2021-05-04 Align Technology, Inc. Deep learning for tooth detection and evaluation

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778577A (zh) * 2013-08-30 2014-05-07 陈飞 一种依据餐具信息调控餐桌并记录用餐信息的方法及装置
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
JP2017211691A (ja) * 2016-05-23 2017-11-30 株式会社ツクタ技研 画像処理装置、画像処理方法、および画像処理プログラム
JP2018206260A (ja) * 2017-06-08 2018-12-27 国立大学法人 筑波大学 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
CN108074244A (zh) * 2017-09-07 2018-05-25 汉鼎宇佑互联网股份有限公司 一种融合深度学习与背景差法的平安城市车流统计方法
WO2019057978A1 (fr) * 2017-09-24 2019-03-28 Guillaume Chican Procédé pour fournir une interface homme-machine à au moins un utilisateur se trouvant dans un lieu de consommation et dispositif pour la mise en œuvre du procédé
WO2019096179A1 (zh) * 2017-11-14 2019-05-23 深圳码隆科技有限公司 服装logo效果检测方法、装置及电子设备
FR3075376A1 (fr) * 2017-12-14 2019-06-21 Safran Procede de controle non-destructif pour une piece aeronautique
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
JP2019023850A (ja) * 2018-03-07 2019-02-14 クックパッド株式会社 情報処理システム、情報処理方法及び情報処理プログラム
WO2019176235A1 (ja) * 2018-03-12 2019-09-19 株式会社日立産業制御ソリューションズ 画像生成方法、画像生成装置及び画像生成システム
CN108830188A (zh) * 2018-05-30 2018-11-16 西安理工大学 基于深度学习的车辆检测方法
CN109447083A (zh) * 2018-08-31 2019-03-08 广州市派客朴食信息科技有限责任公司 一种基于图像边缘特征的餐具识别方法
CN109508664A (zh) * 2018-10-26 2019-03-22 浙江师范大学 一种基于深度学习的菜品识别计价方法
CN110084642A (zh) * 2019-04-19 2019-08-02 哈尔滨新中新电子股份有限公司 基于目标检测和图像检索的菜品识别方法

Also Published As

Publication number Publication date
CN111161295A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
CN111161295B (zh) 一种菜品图像背景剥离方法
CN111667520B (zh) 红外图像和可见光图像的配准方法、装置及可读存储介质
Pape et al. 3-D histogram-based segmentation and leaf detection for rosette plants
US11704888B2 (en) Product onboarding machine
CN111325713A (zh) 基于神经网络的木材缺陷检测方法、系统及存储介质
CN106709950B (zh) 一种基于双目视觉的巡线机器人跨越障碍导线定位方法
US8699786B2 (en) 3D model generating apparatus, method and CRM by line pattern imaging
CN106709500B (zh) 一种图像特征匹配的方法
US9767383B2 (en) Method and apparatus for detecting incorrect associations between keypoints of a first image and keypoints of a second image
CN110533654A (zh) 零部件的异常检测方法及装置
WO2013030850A2 (en) Chemical structure recognition tool
CN111695373B (zh) 斑马线的定位方法、系统、介质及设备
CN111784675A (zh) 物品纹理信息处理的方法、装置、存储介质及电子设备
CN107004266A (zh) 检测轮胎表面上缺陷的方法
CN111126393A (zh) 车辆外观改装判断方法、装置、计算机设备及存储介质
CN109165611B (zh) 一种基于机器视觉和神经网络的碗碟识别智能结算方法
De Oliveira et al. Detecting modifications in printed circuit boards from fuel pump controllers
CN114119695A (zh) 一种图像标注方法、装置及电子设备
CN116580026B (zh) 精密零部件外观缺陷自动光学检测方法、设备及存储介质
CN111275756A (zh) 线轴定位方法及装置
Chen et al. Image segmentation in thermal images
CN114926635B (zh) 与深度学习方法相结合的多焦图像中目标分割方法
CN113591548B (zh) 靶环识别方法及系统
CN115131355A (zh) 利用电子设备数据检测防水布异常的智能方法
CN114677356A (zh) 一种基于多视角图像融合的酒瓶外观缺陷检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant