CN111626357B - 一种基于神经网络模型的图像识别方法 - Google Patents

一种基于神经网络模型的图像识别方法 Download PDF

Info

Publication number
CN111626357B
CN111626357B CN202010461402.7A CN202010461402A CN111626357B CN 111626357 B CN111626357 B CN 111626357B CN 202010461402 A CN202010461402 A CN 202010461402A CN 111626357 B CN111626357 B CN 111626357B
Authority
CN
China
Prior art keywords
image
neural network
network model
recognized
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010461402.7A
Other languages
English (en)
Other versions
CN111626357A (zh
Inventor
刘如君
陈乔
尚雪松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dongfang Tongwangxin Technology Co ltd
Original Assignee
Beijing Dongfang Tongwangxin Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dongfang Tongwangxin Technology Co ltd filed Critical Beijing Dongfang Tongwangxin Technology Co ltd
Priority to CN202010461402.7A priority Critical patent/CN111626357B/zh
Publication of CN111626357A publication Critical patent/CN111626357A/zh
Application granted granted Critical
Publication of CN111626357B publication Critical patent/CN111626357B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于神经网络模型的图像识别方法,包括:根据图像识别指令,获取待识别图像;对待识别图像进行预处理;从基于神经网络模型构建的查找表数据集合中,识别并确定预处理后的待识别图像的第一参数;根据预设标签对待识别图像进行标记识别,得到待识别图像的第二参数;根据待识别图像的第一参数与待识别图像的第二参数进行对比,获取待识别图像的最终参数,实现对待识别图像的图像识别。运用神经网络模型以及预设标签来识别图像,其是经过两次识别以及一次分析对比,来提高图像识别的准确性。

Description

一种基于神经网络模型的图像识别方法
技术领域
本发明涉及图像识别技术领域,特别涉及一种基于神经网络模型的图像识别方法。
背景技术
图像识别是指利用计算机对图像进行处理和分析,以识别各种不同模式的目标和对象的技术,运用神经网络模型、深度学习来进行识别。现有技术中对图像识别中,运用预先训练好的单一神经网络模型对图像进行识别,单一神经网络模型涉及的参数不在变化,对部分图像存在图像识别不准确的问题,因此本发明提出了一种基于神经网络模型的图像识别方法。
发明内容
本发明旨在至少一定程度上解决上述技术中的技术问题之一。为此,本发明的目的在于提出一种基于神经网络模型的图像识别方法,运用神经网络模型以及预设标签来识别图像,其是经过两次识别以及一次分析对比,来提高图像识别的准确性。
为达到上述目的,本发明实施例提出了一种基于神经网络模型的图像识别方法,包括:
本发明提供一种基于神经网络模型的图像识别方法,包括:
根据图像识别指令,获取待识别图像;
对所述待识别图像进行预处理;
从基于神经网络模型构建的查找表数据集合中,识别并确定预处理后的待识别图像的第一参数;
根据预设标签对所述待识别图像进行标记识别,得到所述待识别图像的第二参数;
根据所述待识别图像的第一参数与待识别图像的第二参数进行对比,获取所述待识别图像的最终参数,实现对所述待识别图像的图像识别。
在一种可能实现的方式中,
所述预处理包括数字化、图像去噪、灰度化和归一化。
在一种可能实现的方式中,
还包括:对所述神经网络模型进行训练,其训练方法包括:
对所述待识别图像进行预训练,得到训练图像;
对所述训练图像进行特征提取;
用预设标签对所述待识别图像进行标记,识别所述待识别图像的第二参数;
基于所述第二参数以及提取的特征对所述训练图像进行神经网络模型训练,获取用于深度学习的相关数据;
根据所述深度学习的相关数据训练所述神经网络模型。
在一种可能实现的方式中,
所述预处理后的待识别图像的第一参数,包括:
将所述预处理后的待识别图像分别输入训练后的神经网络模型,获取神经网络模型输出的预处理后的待识别图像的第一参数。
在一种可能实现的方式中,
所述神经网络模型包括:基于区域卷积神经网络模型CNN、循环神经网络模型RNN、多尺度全卷积神经网络模型MSFCN、基于区域卷积神经网络模型CNN与循环神经网络模型RNN的第一融合神经网络模型、多尺度全卷积神经网络模型MSFCN与循环神经网络模型RNN的第二融合神经网络模型。
在一种可能实现的方式中,
识别并确定预处理后的待识别图像的第一参数的步骤包括:
通过所述基于区域卷积神经网络模型CNN获得第一类的预处理后的待识别图像的识别参数;
通过所述循环神经网络模型RNN获得第二类的预处理后的待识别图像的识别参数;
通过所述多尺度全卷积神经网络模型MSFCN获得第三类的预处理后的待识别图像的识别参数;
通过基于区域卷积神经网络模型CNN与循环神经网络模型RNN的第一融合神经网络模型获得第四类的预处理后的待识别图像的识别参数;
通过多尺度全卷积神经网络模型MSFCN与循环神经网络模型RNN的第二融合神经网络模型获得第五类的预处理后的待识别图像的识别参数;
基于第一类、第二类、第三类、第四类以及第五类识别参数,确定预处理后的待识别图像的第一参数。
在一种可能实现的方式中,
根据所述待识别图像的第一参数与待识别图像的第二参数进行对比的过程中,包括:对所述待识别图像的第一参数与待识别图像的第二参数进行比较,直到对应参数的参数差值为最小时,确定所述待识别图像的最终参数。
在一种可能实现的方式中,
根据图像识别指令,获取待识别图像之前,还包括:构建神经网络模型,且构建步骤包括:
收集训练样本,且所述训练样本包括若干张样本图像;
抓取每张所述样本图像的图像焦点,并提取分析所述图像焦点,确定所述图像焦点的焦点信息;
获取每张所述样本图像的剩余区域,并确定所述剩余区域的区域信息,其中,所述剩余区域指的是所述样本图像上除去所述图像焦点的其他区域;
将所述焦点信息与对应样本图像上的剩余区域的区域信息进行融合处理,获得所述样本图像的图像融合特征,所述图像融合特征包括:所述样本图像中每个像素点的像素参数;
将所述图像融合特征输入到深度学习模型,并构建成所述神经网络模型。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是根据本发明一个实施例的一种基于神经网络模型的图像识别方法的流程图;
图2是根据本发明一个实施例的对神经网络模型训练的流程图;
图3是根据本发明一个实施例的实施例图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
下面参考图1至图2来描述本发明实施例提出的一种基于神经网络模型的图像识别方法。
图1是根据本发明一个实施例的一种基于多神经网络模型的图像识别方法的流程图;如图1所示,本发明实施例提出了一种基于神经网络模型的图像识别方法,包括步骤S1-S5:
步骤S1:根据图像识别指令,获取待识别图像;
步骤S2:对所述待识别图像进行预处理;
步骤S3:从基于神经网络模型构建的查找表数据集合中,识别并确定预处理后的待识别图像的第一参数;
步骤S4:根据预设标签对所述待识别图像进行标记识别,得到所述待识别图像的第二参数;
步骤S5:根据所述待识别图像的第一参数与待识别图像的第二参数进行对比,获取所述待识别图像的最终参数,实现对所述待识别图像的识别。
上述技术方案的工作原理是:接收用户输入的图像识别指令,从图像库中获取待识别图像,对该待识别图像进行数字化、图像去噪、灰度化、归一化等的处理,从神经网络模型构建的查找表数据集合(该查找表数据集合中包括若干与)中查找并识别与待识别图像相关的第一参数,基于预设标签(提前设置好的每个图像的图像标签,且预设标签中是包括图像相关信息在内的)对待识别图像进行标记识别,得到第二参数,将第一参数和第二参数进行对比分析(例如,基于第一参数和第二参数剔除异常参数,同时,将剔除后的剩余参数重新整合成新的参数,即为最终参数),获得最终参数。
该实施例中,对待识别图像进行预处理,有利于后续对图像的识别,提高图像识别的准确性。
上述技术方案的有益效果是:通过运用神经网络模型以及预设标签来识别图像,其是经过两次识别以及一次分析对比,来提高图像识别的准确性。
在本发明实施例中提供的一种基于神经网络模型的图像识别方法,还包括:从基于神经网络模型构建的查找表数据集合中,识别并确定预处理后的待识别图像的第一参数的过程中,还包括:
确定所述待识别图像的图像类别,且确定步骤包括:
根据预处理后的待识别图像及预先训练的神经网络模型,获得原始的待识别图像预测类别;根据预设标记库对原始的待识别图像进行标记,得到原始的待识别图像的真实类别;根据所述原始的待识别图像的预测类别与原始的待识别图像的真实类别进行对比,获取原始的待识别图像的最终类别。
上述技术方案的工作原理:原始的待识别图像可以是计算机设备接收到其他设备发送的待识别图像,如照相机、其他计算机设备;待识别图像可以是对晶圆的拍摄图像,晶圆用于制作电路和电子元件,一般基本步骤包括切片、研磨、抛光、化学气象沉淀、光刻、蚀刻、离子植入、化学机械研磨等反复步骤,最终在晶圆上完成数层电路及元件的加工和制作。在工艺过程中,在检测到的异常位置拍摄晶圆缺陷图像,作为待识别图像。
将预处理后得到的待识别图像分别输入预先训练的神经网络模型,神经网络模型输出原始的待识别图像预测类别,从原始的待识别图像预测类别中与原始的待识别图像的真实类别进行比较,最终输出原始的待识别图像的最终类别。
该实施例中,当输出最终类别后,从基于神经网络模型构建的查找表数据集合中,查找与该最终类别对应的图像类集合,便于确定待识别图像的图像类,为后续识别待识别图像的参数提供基础,提高其的效率。
例如,该查找表数据集合中,包含若干类图像。
其中,在获取待识别图像的类别的过程中,还包括如下步骤:
步骤A1,对预处理后的待识别图像进行神经网络特征学习,通过以下公式得到原始的待识别图像的预测类别如下:
Figure BDA0002511064430000061
其中,
Figure BDA0002511064430000062
代表的预处理后的待识别图像的像素值,w1、b1、w2、b2代表神经网络模型训练参数,h2代表的原始的待识别图像的预测类别,这里采用的2层的神经网络模型。
步骤A2,通过2层的神经网络模型选用代价函数,所述代价函数的表达式如下:
Figure BDA0002511064430000063
其中,J代表差距,m代表收集的预处理后的待识别图像的总数量,此时,h2代表非线性模型预测的原始的待识别图像的预测类别,当差距0≤J≤0.1时,h2代表原始的待识别图像的类别;y代表原始的待识别图像真实的类别;
步骤A3,根据上述步骤,对其神经网络模型进行训练步骤如下:
Figure BDA0002511064430000071
Figure BDA0002511064430000072
Figure BDA0002511064430000073
Figure BDA0002511064430000074
其中,m代表收集的预处理后的待识别图像的总数量,T相当于对其矩阵进行转置操作,y代表原始的待识别图像的真实类别,h2代表的原始的待识别图像的预测类别,
Figure BDA0002511064430000075
代表原始的待识别图像的像素值,dw1、db1、dw2、db2代表反向传播时神经网络模型的参数;
步骤A4,根据上述神经网络模型训练进行以下参数更新,其步骤如下:
w’1=w1-α*dw1
b’1=b1-α*db1
w’2=w2-α*dw2
b’2=b2-α*db2
其中,α代表学习率其值预设为0.01,w’1、b’1、w’2、b’2代表反向传播后更新后的神经网络模型的参数。
上述技术方案的有益效果是:利用以上算法采用了深度学习技术,使用神经网络模仿人脑进行参数的训练拟合,可以达到待识别图像数据特征的更好拟合;采用交叉熵函数使得待识别图像预测类别与待识别图像真实类别的误差率更小,可以使机器代替人脑进行分类操作,可以达到同步效果,当预处理后的待识别图像传输到模型中,就可以立刻确定出当前待识别图像的类别信息,解决了实时性能,提高了识别图片的识别信息更准确化,为后续深度学习项目打下了良好的基础,为通过识别类以及类中的图像提供识别基础。
根据本发明提出的一种基于神经网络模型的图像识别方法,对待识别图像进行类别识别的过程中,其类别包括:
1.例如人脸识别,当第一待识别图像为人脸时,对其待识别图像进行预处理得到预处理后的待识别图像,对预处理后的待识别图像进行模型训练后,模型就拥有了识别功能,可以根据不同的人脸识别出是不是之前的待处理图像。
2.例如交通灯的识别,当待识别图像为交通灯时,对其待识别图像进行预处理得到预处理后的待识别图像,对预处理后的待识别图像进行模型训练后,模型就拥有了识别功能,可以根据不同的待识别图像划分出红灯,绿灯,黄灯。
3.例如车道线的识别,当第待识别图像为车道线时,对其待识别图像进行预处理得到预处理后的待识别图像,对预处理后的待识别图像进行模型训练后,模型就拥有了识别功能,可以根据不同的待识别图像划分出是否是直行车道,左拐车道,右拐车道,人行横道。
上述技术方案的有益效果:运用神经网络模型对图像进行识别,可以识别不同类型的图像,应用范围更广,且通过确定待识别图像的图像类别,提高后续待识别图像的识别效率。
本发明实施例提出了一种基于神经网络模型的图像识别方法,所述预处理包括数字化、图像去噪、灰度化、归一化。
上述技术方案的工作原理:通过数字化和灰度化及归一化对待识别图像进行处理,每个点的像素用0-255的数值表示,通过图像去噪对待识别图像滤波,消除噪声。将待识别图像进行归一化处理,将待识别图像的长和宽缩放到预设图像的尺寸大小;示例的,可以是480像素×480像素。
上述技术方案的有益效果:通过预处理,可以使待识别图像的轮廓或线条变得清晰,可以对图像信息进行选择性的加强或抑制,以改善图像的视觉效果,将图像信息转变为更适合机器处理的形式,以便于数据的提取或图像信息的识别,有利于提高图像识别的准确性。
图2是根据本发明一个实施例的对神经网络模型训练的流程图;如图2所示,还包括:对所述神经网络模型进行训练,其训练方法包括:
步骤S31:对所述待识别图像进行预训练,得到训练图像;
步骤S32:对所述训练图像进行特征提取;
步骤S33:用预设标签对所述待识别图像进行标记,识别所述待识别图像的第二参数;
步骤S34:基于所述第二参数以及提取的特征对所述训练图像进行神经网络模型训练,获取用于深度学习的相关数据;
步骤S35:根据所述深度学习的相关数据训练所述神经网络模型。
上述技术方案的工作原理:通过对待识别图像进行预训练,得到训练图像,并对训练图像进行特征提取,同时,基于预设标签确定待识别图像的第二参数,之后基于第二参数和提取的特征对神经网络模型进行训练,获取用于深度学习的相关数据,提高训练神经网络模型的准确性及训练效率,便于为后续进行图像识别提供基础。
上述技术方案的有益效果:可以对神经网络模型进行有效训练,训练完成的神经网络模型各层参数更加准确,提高了训练效率。
根据本发明的一些实施例,在对所述神经网络模型的训练时,采用SMBO算法对神经网络模型进行优化,提升神经网络模型识别精度。
上述技术方案的有益效果:运用SMBO(Sequential Model Based Optimization)算法对神经网络模型的超参数进行优化,可以提升神经网络模型识别精度。
根据本发明的一些实施例,所述神经网络模型包括:基于区域卷积神经网络模型CNN、循环神经网络模型RNN、多尺度全卷积神经网络模型MSFCN、基于区域卷积神经网络模型CNN与循环神经网络模型RNN的第一融合神经网络模型、多尺度全卷积神经网络模型MSFCN与循环神经网络模型RNN的第二融合神经网络模型。
上述技术方案的工作原理:基于区域卷积神经网络模型(Convolutional NeuralNetworks,CNN),是以卷积层、池化层与全连接层为主搭建的网络结构,是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一;循环神经网络模型(Recurrent Neural Network,RNN),是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursiveneural network),循环神经网络具有记忆性、参数共享并且图灵完备(Turingcompleteness),因此在对序列的非线性特征进行学习时具有一定优势;多尺度全卷积神经网络模型(Multi-scale Fully Convolutional Neural Networks,MSFCN)是利用深度卷积网络提取图像特征,将具有不同特征信息的分层特征进行融合丰富图像特征信息,经过多轮训练形成的神经网络模型;第一融合神经网络模型是指由区域卷积神经网络和循环神经网络构建的预先训练的神经网络模型,具体的,先利用区域卷积神经网络对图像进行特征提取,将由区域卷积神经网络提取的特征输入循环神经网络,最后经过训练得到第一融合神经网络模型;第二融合神经网络模型是指由多尺度全卷积神经网络和循环神经网络构建的预先训练的神经网络模型,具体的,先利用多尺度全卷积神经网络对图像进行特征提取,将由多尺度全卷积神经网络提取的特征输入循环神经网络,最后经过训练得到第二融合神经网络模型。
上述技术方案的有益效果:预先训练神经网络模型对不图像进行识别,有利于提高对图像识别的准确性。
根据本发明的一些实施例,识别并确定预处理后的待识别图像的第一参数的步骤包括:
通过所述基于区域卷积神经网络模型CNN获得第一类的预处理后的待识别图像的识别参数;
通过所述循环神经网络模型RNN获得第二类的预处理后的待识别图像的识别参数;
通过所述多尺度全卷积神经网络模型MSFCN获得第三类的预处理后的待识别图像的识别参数;
通过基于区域卷积神经网络模型CNN与循环神经网络模型RNN的第一融合神经网络模型获得第四类的预处理后的待识别图像的识别参数;
通过多尺度全卷积神经网络模型MSFCN与循环神经网络模型RNN的第二融合神经网络模型获得第五类的预处理后的待识别图像的识别参数;
基于第一类、第二类、第三类、第四类以及第五类识别参数,确定预处理后的待识别图像的第一参数。
根据本发明的一些实施例,根据所述待识别图像的第一参数与待识别图像的第二参数进行对比的过程中,包括:对所述待识别图像的第一参数与待识别图像的第二参数进行比较,直到对应参数的参数差值为最小时,确定所述待识别图像的最终参数。
上述技术方案的有益效果:选择多个不同的神经网络模型获得对应的识别参数,便于获取最终参数,提高图像识别的准确性。
根据本发明的一些实施例,根据图像识别指令,获取待识别图像之前,还包括:构建神经网络模型,且构建步骤包括:
收集训练样本,且所述训练样本包括若干张样本图像;
抓取每张所述样本图像的图像焦点,并提取分析所述图像焦点,确定所述图像焦点的焦点信息;
获取每张所述样本图像的剩余区域,并确定所述剩余区域的区域信息,其中,所述剩余区域指的是所述样本图像上除去所述图像焦点的其他区域;
将所述焦点信息与对应样本图像上的剩余区域的区域信息进行融合处理,获得所述样本图像的图像融合特征,所述图像融合特征包括:所述样本图像中每个像素点的像素参数;
将所述图像融合特征输入到深度学习模型,并构建成所述神经网络模型。
上述技术方案的工作原理是:收集训练样本(如人脸识别类型的人脸图像、交通识别类型的交通图像、红绿灯识别类型的红绿灯图像等样本图像),抓取每张样本图像的图像焦点(如人脸图像中的人脸区域、交通图像中的事故区域、红绿灯图像中的红绿灯区域),并提取分析图像焦点,确定图像焦点的焦点信息(如人脸图像中的人脸区域的人脸表情、交通图像中的事故区域的事故等级、红绿灯图像中的红绿灯区域的红绿灯亮灭情况),获取每张样本图像的剩余区域(如人脸图像中除去人脸区域的其他区域、交通图像中除去事故区域的其他区域、红绿灯图像中除去红绿灯区域的其他区域),并确定剩余区域的区域信息,其中,剩余区域指的是样本图像上除去图像焦点的其他区域;将焦点信息与对应样本图像上的剩余区域的区域信息进行融合处理(如图3所示,该图中的区域a表示的是剩余区域,区域b表示的是焦点区域,但是区域a中可能存在残余信息a1,其残余信息与焦点区域相关联,此时,通过融合处理,便于将残余信息与焦点区域的焦点信息进行融合处理),获得样本图像的图像融合特征(是包括残余信息在内的)。
上述技术方案的有益效果是:通过确定同个图像的图像焦点的焦点信息以及剩余区域的区域信息,便于获取该图像的有效信息,且通过焦点信息与区域信息进行融合处理,便于得到图像融合特征,为构建神经网络模型提供训练基础。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (3)

1.一种基于神经网络模型的图像识别方法,其特征在于,包括:
根据图像识别指令,获取待识别图像;
对所述待识别图像进行预处理;
从基于神经网络模型构建的查找表数据集合中,识别并确定预处理后的待识别图像的第一参数;
根据预设标签对所述待识别图像进行标记识别,得到所述待识别图像的第二参数;其中,所述预设标签为提前设置好的每个图像的图像标签,且预设标签中是包括图像相关信息在内的;
根据所述待识别图像的第一参数与待识别图像的第二参数进行对比,获取所述待识别图像的最终参数,实现对所述待识别图像的图像识别;
其中,在获取待识别图像的类别的过程中,还包括如下步骤:
步骤A1,对预处理后的待识别图像进行神经网络特征学习,通过以下公式得到原始的待识别图像的预测类别如下:
Figure 336068DEST_PATH_IMAGE001
其中,
Figure 471514DEST_PATH_IMAGE002
代表的预处理后的待识别图像的像素值,
Figure 347066DEST_PATH_IMAGE003
Figure 500836DEST_PATH_IMAGE004
Figure 803641DEST_PATH_IMAGE005
Figure 426384DEST_PATH_IMAGE006
代表神经网络模型训练 参数,h2代表的原始的待识别图像的预测类别,这里采用的2层的神经网络模型;
步骤A2,通过2层的神经网络模型选用代价函数,所述代价函数的表达式如下:
Figure 466146DEST_PATH_IMAGE007
其中,
Figure 349788DEST_PATH_IMAGE008
代表差距,
Figure 964440DEST_PATH_IMAGE009
代表收集的预处理后的待识别图像的总数量,此时,
Figure 933533DEST_PATH_IMAGE010
代表非线 性模型预测的原始的待识别图像的预测类别,当差距
Figure 9943DEST_PATH_IMAGE011
时,
Figure 13671DEST_PATH_IMAGE012
代表原始的待识别图像 的类别;
Figure 533645DEST_PATH_IMAGE013
代表原始的待识别图像真实的类别;
步骤A3,根据上述步骤,对其神经网络模型进行训练步骤如下:
Figure 990034DEST_PATH_IMAGE014
其中,
Figure 637178DEST_PATH_IMAGE015
代表收集的预处理后的待识别图像的总数量,
Figure 105200DEST_PATH_IMAGE016
表示对其矩阵进行转置操作,
Figure 920709DEST_PATH_IMAGE017
代表原始的待识别图像的真实类别,h2代表的原始的待识别图像的预测类别,
Figure 989028DEST_PATH_IMAGE018
代表原始 的待识别图像的像素值,
Figure 548186DEST_PATH_IMAGE019
Figure 136293DEST_PATH_IMAGE020
Figure 857124DEST_PATH_IMAGE021
Figure 914204DEST_PATH_IMAGE022
代表反向传播时神经网络模型的参数;
步骤A4,根据上述神经网络模型训练进行以下参数更新,其步骤如下:
Figure 11473DEST_PATH_IMAGE023
其中,
Figure 719666DEST_PATH_IMAGE024
代表学习率其值预设为0.01,
Figure 876978DEST_PATH_IMAGE025
Figure 919889DEST_PATH_IMAGE026
Figure 820849DEST_PATH_IMAGE027
Figure 117969DEST_PATH_IMAGE028
代表反向传播后更新后的神经网络 模型的参数;
从基于神经网络模型构建的查找表数据集合中,识别并确定预处理后的待识别图像的第一参数的过程中,还包括:
确定所述待识别图像的图像类别,且确定步骤包括:
根据预处理后的待识别图像及预先训练的神经网络模型,获得原始的待识别图像预测类别;根据预设标记库对原始的待识别图像进行标记,得到原始的待识别图像的真实类别;根据所述原始的待识别图像的预测类别与原始的待识别图像的真实类别进行对比,获取原始的待识别图像的最终类别;
所述神经网络模型包括:基于区域卷积神经网络模型CNN、循环神经网络模型RNN、多尺度全卷积神经网络模型MSFCN、基于区域卷积神经网络模型CNN与循环神经网络模型RNN的第一融合神经网络模型、多尺度全卷积神经网络模型MSFCN与循环神经网络模型RNN的第二融合神经网络模型;
识别并确定预处理后的待识别图像的第一参数的步骤包括:
通过所述基于区域卷积神经网络模型CNN获得第一类的预处理后的待识别图像的识别参数;
通过所述循环神经网络模型RNN获得第二类的预处理后的待识别图像的识别参数;
通过所述多尺度全卷积神经网络模型MSFCN获得第三类的预处理后的待识别图像的识别参数;
通过基于区域卷积神经网络模型CNN与循环神经网络模型RNN的第一融合神经网络模型获得第四类的预处理后的待识别图像的识别参数;
通过多尺度全卷积神经网络模型MSFCN与循环神经网络模型RNN的第二融合神经网络模型获得第五类的预处理后的待识别图像的识别参数;
基于第一类、第二类、第三类、第四类以及第五类识别参数,确定预处理后的待识别图像的第一参数;
根据图像识别指令,获取待识别图像之前,还包括:构建神经网络模型,且构建步骤包括:
收集训练样本,且所述训练样本包括若干张样本图像;
抓取每张所述样本图像的图像焦点,并提取分析所述图像焦点,确定所述图像焦点的焦点信息;
获取每张所述样本图像的剩余区域,并确定所述剩余区域的区域信息,其中,所述剩余区域指的是所述样本图像上除去所述图像焦点的其他区域;
将所述焦点信息与对应样本图像上的剩余区域的区域信息进行融合处理,获得所述样本图像的图像融合特征,所述图像融合特征包括:所述样本图像中每个像素点的像素参数;
将所述图像融合特征输入到深度学习模型,并构建成所述神经网络模型。
2.如权利要求1所述的基于神经网络模型的图像识别方法,其特征在于,所述预处理包括数字化、图像去噪、灰度化和归一化。
3.如权利要求1所述的基于神经网络模型的图像识别方法,其特征在于,所述预处理后的待识别图像的第一参数,包括:
将所述预处理后的待识别图像分别输入训练后的神经网络模型,获取神经网络模型输出的预处理后的待识别图像的第一参数。
CN202010461402.7A 2020-05-27 2020-05-27 一种基于神经网络模型的图像识别方法 Active CN111626357B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010461402.7A CN111626357B (zh) 2020-05-27 2020-05-27 一种基于神经网络模型的图像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010461402.7A CN111626357B (zh) 2020-05-27 2020-05-27 一种基于神经网络模型的图像识别方法

Publications (2)

Publication Number Publication Date
CN111626357A CN111626357A (zh) 2020-09-04
CN111626357B true CN111626357B (zh) 2021-11-23

Family

ID=72272067

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010461402.7A Active CN111626357B (zh) 2020-05-27 2020-05-27 一种基于神经网络模型的图像识别方法

Country Status (1)

Country Link
CN (1) CN111626357B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112578646B (zh) * 2020-12-11 2022-10-14 上海集成电路装备材料产业创新中心有限公司 一种基于图像的离线的光刻工艺稳定性控制方法
CN112967267B (zh) * 2021-03-23 2024-01-23 湖南珞佳智能科技有限公司 一种全卷积神经网络的激光定向能量沉积溅射计数方法
CN113221642B (zh) * 2021-04-02 2024-04-05 哈尔滨鹏博普华科技发展有限责任公司 一种违章抓拍图像ai识别系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108319968A (zh) * 2017-12-27 2018-07-24 中国农业大学 一种基于模型融合的果蔬图像分类识别方法及系统
CN108664924A (zh) * 2018-05-10 2018-10-16 东南大学 一种基于卷积神经网络的多标签物体识别方法
CN111177446A (zh) * 2019-12-12 2020-05-19 苏州科技大学 一种用于足迹图像检索的方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11587304B2 (en) * 2017-03-10 2023-02-21 Tusimple, Inc. System and method for occluding contour detection
CN108364006B (zh) * 2018-01-17 2022-03-08 超凡影像科技股份有限公司 基于多模式深度学习的医学图像分类装置及其构建方法
CN110390251B (zh) * 2019-05-15 2022-09-30 上海海事大学 一种基于多神经网络模型融合处理的图像文字语义分割方法
CN110378408A (zh) * 2019-07-12 2019-10-25 台州宏创电力集团有限公司 基于迁移学习和神经网络的电力设备图像识别方法和装置
CN110363290B (zh) * 2019-07-19 2023-07-25 广东工业大学 一种基于混合神经网络模型的图像识别方法、装置及设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108319968A (zh) * 2017-12-27 2018-07-24 中国农业大学 一种基于模型融合的果蔬图像分类识别方法及系统
CN108664924A (zh) * 2018-05-10 2018-10-16 东南大学 一种基于卷积神经网络的多标签物体识别方法
CN111177446A (zh) * 2019-12-12 2020-05-19 苏州科技大学 一种用于足迹图像检索的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Fusion that matters: convolutional fusion networks for visual recognition;Yu Liu等;《Multimedia Tools and Applications》;20180227(第77期);第29407-29434页 *
基于张量化神经网络的多标签图片分类;陈欣琪;《中国优秀硕士学位论文全文数据库 信息科技辑》;20200215(第2期);第I138-1997页 *
基于神经网络模型融合的图像识别研究;寿质彬;《中国优秀硕士学位论文全文数据库 信息科技辑》;20151215(第12期);第I138-875页 *
基于神经网络模型融合的微笑识别系统;杨飞等;《工业控制计算机》;20190725;第32卷(第7期);第82-83+87页 *

Also Published As

Publication number Publication date
CN111626357A (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
CN111539370B (zh) 一种基于多注意力联合学习的图像行人重识别方法和系统
CN111626357B (zh) 一种基于神经网络模型的图像识别方法
CN111882620B (zh) 一种基于多尺度信息道路可行驶区域分割方法
CN107451616A (zh) 基于深度半监督迁移学习的多光谱遥感图像地物分类方法
CN107016405A (zh) 一种基于分级预测卷积神经网络的害虫图像分类方法
CN112488025B (zh) 基于多模态特征融合的双时相遥感影像语义变化检测方法
CN108665460A (zh) 基于组合神经网络和分类神经网络的图像质量评价方法
CN109766873B (zh) 一种混合可变形卷积的行人再识别方法
CN109871885A (zh) 一种基于深度学习和植物分类学的植物识别方法
CN112990282B (zh) 一种细粒度小样本图像的分类方法及装置
CN114782997B (zh) 基于多损失注意力自适应网络的行人重识别方法及系统
CN109740672B (zh) 多流特征距离融合系统与融合方法
CN117372881B (zh) 一种烟叶病虫害智能识别方法、介质及系统
CN108764287B (zh) 基于深度学习和分组卷积的目标检测方法及系统
CN114170511A (zh) 基于Cascade RCNN的路面裂缝病害识别方法
CN115393714A (zh) 一种融合图论推理的输电线路螺栓缺销钉检测方法
CN115170933A (zh) 基于双流深度神经网络的数字图像伪造区域定位方法
CN111242176A (zh) 计算机视觉任务的处理方法、装置及电子系统
CN112132839B (zh) 一种基于深度卷积级联网络的多尺度快速人脸分割方法
CN116704196B (zh) 一种训练图像语义分割模型的方法
CN112085164B (zh) 一种基于无锚框网络的区域推荐网络提取方法
CN111079585A (zh) 基于深度学习的图像增强与伪孪生卷积神经网络结合的行人再识别方法
CN114821174B (zh) 一种基于内容感知的输电线路航拍图像数据清洗方法
CN108345943B (zh) 一种基于嵌入编码与对比学习的机器学习识别方法
CN115393802A (zh) 一种基于小样本学习的铁路场景不常见入侵目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 100000 2201, block a, 19th floor, building 1, No. 2, Zhongguancun South Street, Haidian District, Beijing

Applicant after: Beijing Dongfang tongwangxin Technology Co., Ltd

Address before: 100000 2201, block a, 19th floor, building 1, No. 2, Zhongguancun South Street, Haidian District, Beijing

Applicant before: Beijing weizhixin Technology Co., Ltd

GR01 Patent grant
GR01 Patent grant