CN110705460B - 图像类别识别方法及装置 - Google Patents
图像类别识别方法及装置 Download PDFInfo
- Publication number
- CN110705460B CN110705460B CN201910935873.4A CN201910935873A CN110705460B CN 110705460 B CN110705460 B CN 110705460B CN 201910935873 A CN201910935873 A CN 201910935873A CN 110705460 B CN110705460 B CN 110705460B
- Authority
- CN
- China
- Prior art keywords
- image
- text
- module
- target image
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000004927 fusion Effects 0.000 claims abstract description 57
- 238000012549 training Methods 0.000 claims description 75
- 230000011218 segmentation Effects 0.000 claims description 42
- 239000013598 vector Substances 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 9
- 230000008014 freezing Effects 0.000 claims 1
- 238000007710 freezing Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 description 10
- 238000011176 pooling Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 208000001613 Gambling Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了图像类别识别方法及装置,涉及计算机领域,尤其涉及图像处理领域。具体实现方案为:将目标图像输入识别模型,所述识别模型包括图像子模块、文本子模块和特征融合子模块;利用所述图像子模块获得所述目标图像的图像特征,以及利用所述文本子模块获得所述目标图像的文本特征;利用所述特征融合子模块,根据所述目标图像的图像特征和文本特征获得所述目标图像为第一图像类别的第一概率。
Description
技术领域
本申请涉及计算机领域,尤其涉及图像处理领域。
背景技术
图片以其丰富的信息承载能力以及高效的传播能力,正被当今用户广泛地运用于各类互联网社交产品中,图片也日益成为吸引大众关注及传播各类信息的重要载体。但是,图片在方便人们获取及传播信息的同时,也被一些作弊者应用于传播赌博、色情等非法信息,因此如何有效的防范非法图片内容的传播正成为各类互联网社交产品建设中的重要一环。
发明内容
为了解决现有技术中的至少一个问题,本申请实施例提供一种图像类别识别方法及装置。
第一方面,本申请实施例提供一种图像类别识别方法,包括:
将目标图像输入识别模型,识别模型包括图像子模块、文本子模块和特征融合子模块;
利用图像子模块获得目标图像的图像特征,以及利用文本子模块获得目标图像的文本特征;
利用特征融合子模块,根据目标图像的图像特征和文本特征获得目标图像为第一图像类别的第一概率。
在本申请实施例中,识别目标图像的类别,结合了图像的图像特征和文本特征,既能够识别图像中具有较为明显特征区域的图像,又能够结合图像中留存的文字信息进行图像类别的有效感知和识别,提高图像类别识别的有效性。
在一种实施方式中,根据目标图像的图像特征和文本特征获得目标图像为第一图像类别的第一概率,包括:
合并图像特征和文本特征,得到合并特征;
对合并特征进行全连接操作,获得分类特征;
对分类特征进行归一化操作,获得目标图像为第一图像类别的概率。
在本申请实施例中,对图像特征和文本特征进行全连接和归一化操作,能够较为准确地获得目标图像属于第一图像类别的概率。
在一种实施方式中,获得目标图像的文本特征,包括:
获取目标图像的文本分词;
计算文本分词的词向量,根据词向量得到目标图像的文本特征图;
对文本特征图进行卷积计算,获得目标图像的文本特征。
在本申请实施例中,在分析图像类别时融合图像的文本特征,能够在识别图像类别时融合图像的文本信息,提高图像类别识别的有效性。
在一种实施方式中,获取目标图像的文本分词,包括:
若目标图像的内容包括文本,则根据目标图像的内容获得目标图像的文本分词;
若目标图像的内容不包括文本,则根据设定的默认文本获得目标图像的文本分词。
在本申请实施例中,考虑到目标图像的内容包括文本和不包括文本这两种情况,从而不仅能够对包括文本内容的图像进行分类处理,也能够对不包括文本内容的图像进行分类处理。
在一种实施方式中,方法还包括:
将样本图像输入识别模型,利用图像子模块获得样本图像的图像特征,以及利用文本子模块获得样本图像的文本特征;
利用特征融合子模块,根据样本图像的图像特征和文本特征获得样本图像为第二图像类别的第二概率;
根据样本图像的文本特征,获得样本图像为第二图像类别的第三概率;
根据第二概率和第三概率,计算损失值;
根据损失值,训练识别模型。
在本申请实施例中,根据文本特征和融合特征分别计算图像属于第二类别的两个概率,根据两个概率值计算损失值,能够对模型优化起到准确的指导作用。
在一种实施方式中,根据损失值,训练识别模型,包括:
根据损失值初步训练文本子模块和特征融合子模块;
在设定的第一学习率以下根据损失值训练图像子模块,以及在第一学习率以下根据损失值再次训练初步训练后的文本子模块和初步训练后的特征融合子模块;
在设定的第二学习率以下根据损失值训练再次训练后的文本子模块和再次训练后的特征融合子模块。
在本申请实施例中,考虑到特征融合子模块、文本子模块和图像子模块对图像进行处理的方式和效果不同,在训练阶段,采用不同的训练强度对二者进行训练,能够取得更好的训练效果。
在本申请实施例中,采用上述公式计算损失值,能够对模型优化起到更好的指导作用。识别模型通过融合计算得到的多个维度特征,并通过全连接的方式来自主地学习多维度特征的权重,能够有效的对多个维度的特征进行融合,实现对各个维度特征的有效利用。
第二方面,本申请实施例提供一种图像类别识别装置,包括:
输入模块:用于将目标图像输入识别模型,识别模型包括图像子模块、文本子模块和特征融合子模块;
特征提取模块:用于利用图像子模块获得目标图像的图像特征,以及利用文本子模块获得目标图像的文本特征;
特征融合模块:用于利用特征融合子模块,根据目标图像的图像特征和文本特征获得目标图像为第一图像类别的第一概率。
在一种实施方式中,根据目标图像的图像特征和文本特征判断目标图像的第一图像类别,包括:
合并单元:用于合并图像特征和文本特征,得到合并特征;
全连接单元:用于对合并特征进行全连接操作,获得分类特征;
归一化单元:用于对分类特征进行归一化操作,获得目标图像为第一图像类别的概率。
在一种实施方式中,特征提取模块包括:
文本分词单元:用于获取目标图像的文本分词;
词向量单元:用于计算文本分词的词向量,根据词向量得到目标图像的文本特征图;
文本特征图计算单元:用于对文本特征图进行卷积计算,获得目标图像的文本特征。
在一种实施方式中,文本分词单元包括:
第一子单元:用于若目标图像的内容包括文本,则根据目标图像的内容获得目标图像的文本分词;
第二子单元:用于若目标图像的内容不包括文本,则根据设定的默认文本获得目标图像的文本分词。
在一种实施方式中,图像类别识别装置还包括:
样本输入模块:用于将样本图像输入识别模型,利用图像子模块获得样本图像的图像特征,以及利用文本子模块获得样本图像的文本特征;
第二概率计算模块:用于利用特征融合子模块,根据样本图像的图像特征和文本特征获得样本图像为第二图像类别的第二概率;
第三概率计算模块:用于根据样本图像的文本特征,获得样本图像为第二图像类别的第三概率;
损失值计算模块:用于根据第二概率和第三概率,计算损失值;
训练模块:用于根据损失值,训练识别模型。
在一种实施方式中,训练模块包括:
初步训练单元:用于根据损失值初步训练文本子模块和特征融合子模块;
二次训练单元:用于在设定的第一学习率以下根据损失值训练图像子模块,以及在第一学习率以下根据损失值再次训练初步训练后的文本子模块和初步训练后的特征融合子模块;
三次训练单元:用于在设定的第二学习率以下根据损失值训练再次训练后的文本子模块和再次训练后的特征融合子模块。
上述申请中的一个实施例具有如下优点或有益效果:能够提高图像类别识别的准确率。因为采用结合图像的图像特征和文本特征进行图像类别的识别技术手段,所以克服了图像类别识别结果不够准确的技术问题,进而达到提高图像类别识别准确性的技术效果。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的图像类别识别方法示意图;
图2是根据本申请第二实施例的图像类别识别方法示意图;
图3是根据本申请第三实施例的识别模型示意图;
图4是根据本申请第四实施例的图像类别识别装置示意图;
图5是根据本申请第五实施例的图像类别识别装置示意图;
图6是用来实现本申请实施例的图像类别识别方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请实施例提供一种图像类别识别方法,如图1所示,包括:
步骤S11:将目标图像输入识别模型,识别模型包括图像子模块、文本子模块和特征融合子模块。
步骤S12:利用图像子模块获得目标图像的图像特征,以及利用文本子模块获得目标图像的文本特征。
步骤S13:利用特征融合子模块,根据目标图像的图像特征和文本特征获得目标图像为第一图像类别的第一概率。
在本申请实施例中,识别目标图像的类别,结合了图像的图像特征和文本特征,既能够识别图像中具有较为明显特征区域的图像,又能够结合图像中留存的文字信息进行图像类别的有效感知和识别,提高图像类别识别的有效性。
在本申请实施例中,第一图像类别可以包括作弊图像和非作弊图像。作弊图像可以是包含某些非法信息或者违规信息的图像。
在本申请实施例中,第一概率可以为第一图像属于第一图像类别的可能性,例如,第一图像有80%的可能是作弊图像。
在本申请实施例中,图像特征包括但不限于图像的颜色特征、文理特征、形状特征和空间关系特征中的至少一种。
在本申请实施例中,文本特征可以是根据目标图像识别出的文本的特征向量。
在本申请实施例中,根据目标图像的图像特征和文本特征获得目标图像为第一图像类别的第一概率,可以是根据目标图像的图像特征和目标图像的文本特征获得目标图像为第一图像类别的概率。
在本申请实施例中,识别模型可以采用端到端的模型结构,便于模型的学习与预测,可以有着多个维度的输入,分别是图像维度以及文本维度。因此,识别模型能够较好地学习并融合图片上多个维度的特征。
在本申请实施例中,图文融合模块用于根据目标图像的图像特征和文本特征获得目标图像为第一图像类别的第一概率。
在一种实施方式中,获得目标图像的文本特征,包括:
获取目标图像的文本分词;
计算文本分词的词向量,根据词向量得到目标图像的文本特征图;
对文本特征图进行卷积计算,获得目标图像的文本特征。
在本申请实施例中,在分析图像类别时融合图像的文本特征,能够在识别图像类别时融合图像的文本信息,提高图像类别识别的有效性。
在本申请实施例中,计算文本分词的词向量,根据词向量得到目标图像的文本特征图可以包括:
将文本输入文本嵌入层,得到文本分词向量;
将每个分词向量输入LSTM(Long-Short Term Memory,长短期记忆)神经网络进行序列化处理,得到图像文本特征;
将词向量组成文本特征图。在具体实施例中,文本特征图可以是由多个词向量组成的矩阵。
在一种实施方式中,获取目标图像的文本分词,包括:
若目标图像的内容包括文本,则根据目标图像的内容获得目标图像的文本分词;
若目标图像的内容不包括文本,则根据设定的默认文本获得目标图像的文本分词。
在本申请实施例中,考虑到目标图像的内容包括文本和不包括文本这两种情况,从而不仅能够对包括文本内容的图像进行分类处理,也能够对不包括文本内容的图像进行分类处理。
本申请实施例主要通过识别输入的目标图像中的文本内容,并训练识别模型来将识别到的文本内容转化为对应的文本特征并进行分类,从而识别出包含作弊文本内容的图像。
在具体实施例中,可以通过识别图像中的文本内容,再通过模式匹配的方式匹配出例如作弊内容或联系方式等内容,进而识别出图像类别。
在本申请实施例中,获取目标图像的文本分词,可以包括:
判断目标图像中是否存在文本内容;
若存在,则识别目标图像中的文本内容,获得目标图像的文本分词;
否则,根据设定的默认文本获得目标图像的文本分词。
在一种实施方式中,根据目标图像的图像特征和文本特征获得目标图像为第一图像类别的第一概率,包括:
合并图像特征和文本特征,得到合并特征;
对合并特征进行全连接操作,获得分类特征;
对分类特征进行归一化(Softmax)操作,获得目标图像为第一图像类别的概率。
在本申请实施例中,对图像特征和文本特征进行全连接和归一化操作,能够较为准确地获得目标图像属于第一图像类别的概率。
在本申请实施例中,能够提取图像特征并进行分类,从而识别出图像类别。对合并特征进行全连接操作时,可以对合并特征执行一次或一次以上的全连接操作。
在本申请实施例中,合并图像特征和文本特征,可以包括对图像特征和文本特征进行合并,例如,将n维图像特征和m维文本特征合在一起,获得n+m维合并特征。再如,将n×1维图像特征和m×1维文本特征合并为(n+m)维矩阵。
在本申请实施例中,对合并特征进行全连接操作,获得分类特征,可以包括将合并矩阵输入全连接层,进行全连接计算,获得输出特征。对合并特征进行全连接计算,可以是对合并特征对应的矩阵进行设定的乘法和加法计算。
在一种实施方式中,如图3所示,本方法还包括:
步骤S21:将样本图像输入识别模型,利用图像子模块获得样本图像的图像特征,以及利用文本子模块获得样本图像的文本特征。
步骤S22:利用特征融合子模块,根据样本图像的图像特征和文本特征获得样本图像为第二图像类别的第二概率。
步骤S23:根据样本图像的图像特征,获得样本图像为第二图像类别的第三概率。
步骤S24:根据第二概率和第三概率,计算损失值。
步骤S25:根据损失值,训练识别模型。
在本申请实施例中,根据文本特征和文本与图像的融合特征分别计算图像属于第二类别的两个概率,根据两个概率值计算损失值,能够对模型优化起到准确的指导作用。
在本申请实施例中,第二图像类别可以是作弊图像和非作弊图像中的一种。
根据样本图像的图像特征和文本特征获得样本图像为第二图像类别的第二概率,可以是根据样本图像的图像特征和样本图像的文本特征获得样本图像为第二图像类别的第二概率。
在一种实施方式中,根据损失值,训练识别模型,包括:
根据损失值初步训练文本子模块和特征融合子模块;
在设定的第一学习率以下根据损失值训练图像子模块,以及在第一学习率以下根据损失值再次训练初步训练后的文本子模块和初步训练后的特征融合子模块;
在设定的第二学习率以下根据损失值训练再次训练后的文本子模块和再次训练后的特征融合子模块。
在本申请实施例中,考虑到特征融合子模块、文本子模块和图像子模块对图像进行处理的方式和效果不同,在训练阶段,采用不同的训练强度对二者进行训练,能够取得更好的训练效果。
在本申请实施例中,根据损失值初步训练文本子模块和特征融合子模块时,冻结图像子模块,使得初步训练阶段不对图像子模块进行优化。
在本申请实施例中,在设定的第二学习率以下根据损失值训练再次训练后的文本子模块和再次训练后的特征融合子模块时,冻结图像子模块,使得在设定的第二学习率一下的再次训练阶段不对图像子模块进行优化。
在本申请实施例中,第一学习率、第二学习率可以为较低的学习率,即在训练时对相应的子模块仅进行微调。
在一种实施方式中,根据第二概率和第三概率,计算损失值,包括:
根据下述公式计算损失值:
L=-w1logpc-w2logpi;
其中,L为损失值,pc为第二概率,w1为与第二概率相应的权重,pi为第三概率,w2为与第三概率相应的权重。
在本申请实施例中,采用上述公式计算损失值,能够对模型优化起到更好的指导作用。识别模型通过融合计算得到的多个维度特征,并通过全连接的方式来自主地学习多维度特征的权重,能够有效的对多个维度的特征进行融合,实现对各个维度特征的有效利用。
在本申请一种示例中,采用的识别模型结构如图3所示,包括图像子模块31、文本子模块32、特征融合子模块33。其中,图像子模块31包括Resnet(Residual NeuralNetwork,残差神经网络)34和图像端特征输出单元35,文本子模块32包括文本输入单元36、文本嵌入层37、多个LSTM神经网络38、文本特征图单元39、卷积池化层310、文本端特征输出单元311。特征融合子模块33包括合并单元312、第一全连接单元313、第二全连接单元314和归一化单元315。本示例中识别模型中对图像特征和文本特征进行并行处理。目标图像从识别模型的输入端输入图像子模块31和文本子模块32,目标图像的规格可以采用224x 224x3,在图像子模块31中,采用Resnet34提取目标图像的图像维度的图像特征,通过图像端特征输出单元35输出2048维图像特征。在文本子模块32中,从文本输入单元36输入的是目标图像对应的文本内容,文本内容具体可以通过对目标图像进行文本识别获得,或者在目标图像没有文本的情况下可根据默认文本获得目标图像的文本内容。从文本输出单元36输出256个文本的分词,通过文本嵌入层37在大小为17256704维的词向量查找表中查找相应的词向量,查找到256个128维的向量,将这256个128维的向量输入LSTM神经网络38进行计算,获得256个512维的向量,在文本特征单元39,将256个512维的向量合并为256×512的文本特征图,对文本特征图分别在三个卷积池化层310依次进行卷积和最大池化操作,三个卷积池化层310均包括卷积单元和池化单元,三个卷积池化层的卷积单元的卷积核大小分别为3×512、5×512、7×512,卷积池化层310的卷积单元对文本特征图进行卷积操作后,分别输出128×254×1、128×252×1、128×250×1的向量,经过池化单元进行池化操作后,得到384维的文本特征,在文本端特征输出单元311输出。2048维的图像特征和384维的文本特征经过合并单元312合并后,输出2432维的图文特征,经过第一全连接单元313、第二全连接单元314的两次全连接操作后,输出2048为特征,然后经过归一化单元315进行归一化操作,获得目标图像属于第一类别的第一概率值。
Resnet可采用Resnet-50。
在识别模型训练阶段,将样本图像输入识别模型,在归一化计算单元314输出样本图像为第二类别的第二概率值。图像处理过程和处理模板图像以获得第一类别的第一概率值类似。同时,利用文本识别子模块输出的样本图像的文本特征,进行归一化操作,获得样本图像为第二类别的第三概率值,然后根据第二概率值和第三概率值联合训练识别模型。采用多维度cross-entropy损失函数计算损失值,根据计算的损失值对识别模型进行优化,实现网络的多维度分阶段训练,充分提升网络对不同维度特征的提取能力,同时提升网络的整体性能。
在本申请示例中,识别模型采用了并行网络模型结构设计,满足多维度输入的同时,能够并行的处理计算多个维度的特征,提升了模型的整体计算效率。
本申请示例提供的识别模型满足端到端的学习与预测,不仅可以自动学习图片维度特征的提取,同时满足对文本维度词向量的学习。此外,对于所输入的文本内容,模型嵌入了对文本内容的分词、词向量构建以及特征图构建操作。所以,使得识别模型在预测时无需对各个维度的输入进行预处理。
本申请实施例还提供一种图像类别识别装置,如图4所示,包括:
输入模块41:用于将目标图像输入识别模型,识别模型包括图像子模块、文本子模块和特征融合子模块;
特征提取模块42:用于利用图像子模块获得目标图像的图像特征,以及利用文本子模块获得目标图像的文本特征;
特征融合模块43:用于利用特征融合子模块,根据目标图像的图像特征和文本特征获得目标图像为第一图像类别的第一概率。
在一种实施方式中,特征提取模块包括:
文本分词单元:用于获取目标图像的文本分词;
词向量单元:用于计算文本分词的词向量,根据词向量得到目标图像的文本特征图;
文本特征图计算单元:用于对文本特征图进行卷积计算,获得目标图像的文本特征。
在一种实施方式中,文本分词单元包括:
第一子单元:用于若目标图像的内容包括文本,则根据目标图像的内容获得目标图像的文本分词;
第二子单元:用于若目标图像的内容不包括文本,则根据设定的默认文本获得目标图像的文本分词。
在一种实施方式中,根据目标图像的图像特征和文本特征判断目标图像的第一图像类别,包括:
合并图像特征和文本特征,得到合并特征;
对合并特征进行全连接操作,获得分类特征;
对分类特征进行归一化操作,获得目标图像为第一图像类别的概率。
在一种实施方式中,如图5所示,本申请提供的装置还包括:
样本输入模块51:用于将样本图像输入识别模型,利用图像子模块获得样本图像的图像特征,以及利用文本子模块获得样本图像的文本特征;
第二概率计算模块52:用于利用特征融合子模块,根据样本图像的图像特征和文本特征获得样本图像为第二图像类别的第二概率;
第三概率计算模块53:用于根据样本图像的文本特征,获得样本图像为第二图像类别的第三概率;
损失值计算模块54:用于根据第二概率和第三概率,计算损失值;
训练模块55:用于根据损失值,训练识别模型。
在一种实施方式中,训练模块包括:
初步训练单元:用于根据损失值初步训练文本子模块和特征融合子模块;
二次训练单元:用于在设定的第一学习率以下根据损失值训练图像子模块,以及在第一学习率以下根据损失值再次训练初步训练后的文本子模块和初步训练后的特征融合子模块;
三次训练单元:用于在设定的第二学习率以下根据损失值训练再次训练后的文本子模块和再次训练后的特征融合子模块。
在一种实施方式中,损失值计算模块根据下述公式计算损失值:
L=-w1logpc-w2logpi;
其中,L为损失值,pc为第二概率,w1为与第二概率相应的权重,pi为第三概率,w2为与第三概率相应的权重。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的图像类别识别方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示图形用户界面(Graphical User Interface,GUI)的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的图像类别识别方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的图像类别识别方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的图像类别识别方法对应的程序指令/模块(例如,附图4所示的输入模块41、特征提取模块42和特征融合模块43)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的图像类别识别方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据图像类别识别电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至图像类别识别电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
图像类别识别方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与图像类别识别电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(Liquid Crystal Display,LCD)、发光二极管(Light EmittingDiode,LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用集成电路(Application Specific Integrated Circuits,ASIC)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(programmable logic device,PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(Cathode Ray Tube,阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(Local Area Network,LAN)、广域网(Wide Area Network,WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,能够提高图像类别识别的准确率。因为采用结合图像的图像特征和文本特征进行图像类别的识别技术手段,所以克服了图像类别识别结果不够准确的技术问题,进而达到提高图像类别识别准确性的技术效果。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (10)
1.一种图像类别识别方法,其特征在于,包括:
将目标图像输入识别模型,所述识别模型包括图像子模块、文本子模块和特征融合子模块;
利用所述图像子模块获得所述目标图像的图像特征,以及利用所述文本子模块获得所述目标图像的文本特征,所述文本特征在所述目标图像包括文本的情况下,为根据所述目标图像中的文本内容进行识别获得的;
利用所述特征融合子模块,根据所述目标图像的图像特征和文本特征获得所述目标图像为第一图像类别的第一概率;所述第一图像类别包括作弊图像;
所述识别模型的训练方式包括:
根据损失值初步训练文本子模块和特征融合子模块;
在设定的第一学习率以下根据损失值训练图像子模块,以及在第一学习率以下根据损失值再次训练初步训练后的文本子模块和初步训练后的特征融合子模块;
在设定的第二学习率以下根据损失值训练再次训练后的文本子模块和再次训练后的特征融合子模块;
在初步训练阶段训练文本子模块和特征融合子模块时,冻结所述图像子模块,使得所述初步训练阶段不对图像子模块进行优化;
所述方法还包括:
将样本图像输入所述识别模型,利用所述图像子模块获得所述样本图像的图像特征,以及利用所述文本子模块获得所述样本图像的文本特征;
利用所述特征融合子模块,根据所述样本图像的图像特征和文本特征获得所述样本图像为第二图像类别的第二概率;
根据所述样本图像的文本特征,获得所述样本图像为第二图像类别的第三概率;
根据所述第二概率和第三概率,计算损失值;
根据所述损失值,训练所述识别模型。
2.根据权利要求1所述的方法,其特征在于,根据所述目标图像的图像特征和文本特征获得所述目标图像为第一图像类别的第一概率,包括:
合并所述图像特征和文本特征,得到合并特征;
对所述合并特征进行全连接操作,获得分类特征;
对所述分类特征进行归一化操作,获得所述目标图像为第一图像类别的概率。
3.根据权利要求1所述的方法,其特征在于,获得所述目标图像的文本特征,包括:
获取所述目标图像的文本分词;
计算所述文本分词的词向量,根据所述词向量得到所述目标图像的文本特征图;
对所述文本特征图进行卷积计算,获得所述目标图像的文本特征。
4.根据权利要求3所述的方法,其特征在于,获取所述目标图像的文本分词,包括:
若所述目标图像的内容包括文本,则根据目标图像的内容获得所述目标图像的文本分词;
若所述目标图像的内容不包括文本,则根据设定的默认文本获得所述目标图像的文本分词。
5.一种图像类别识别装置,其特征在于,包括:
输入模块:用于将目标图像输入识别模型,所述识别模型包括图像子模块、文本子模块和特征融合子模块;
特征提取模块:用于利用所述图像子模块获得所述目标图像的图像特征,以及利用所述文本子模块获得所述目标图像的文本特征,所述文本特征在所述目标图像包括文本的情况下,为根据所述目标图像中的文本内容进行识别获得的;
特征融合模块:用于利用所述特征融合子模块,根据所述目标图像的图像特征和文本特征获得所述目标图像为第一图像类别的第一概率;所述第一图像类别包括作弊图像;
用于训练所述识别模型的训练模块包括:
初步训练单元:用于根据损失值初步训练所述文本子模块和所述特征融合子模块;
二次训练单元:用于在设定的第一学习率以下根据所述损失值训练所述图像子模块,以及在所述第一学习率以下根据所述损失值再次训练所述初步训练后的文本子模块和初步训练后的特征融合子模块;
三次训练单元:用于在设定的第二学习率以下根据所述损失值训练所述再次训练后的文本子模块和再次训练后的特征融合子模块;
所述装置还包括:
样本输入模块:用于将样本图像输入所述识别模型,利用所述图像子模块获得所述样本图像的图像特征,以及利用所述文本子模块获得所述样本图像的文本特征;
第二概率计算模块:用于利用所述特征融合子模块,根据所述样本图像的图像特征和文本特征获得所述样本图像为第二图像类别的第二概率;
第三概率计算模块:用于根据所述样本图像的文本特征,获得所述样本图像为第二图像类别的第三概率;
损失值计算模块:用于根据所述第二概率和第三概率,计算损失值;
训练模块:用于根据所述损失值,训练所述识别模型。
6.根据权利要求5所述的装置,其特征在于,所述特征融合模块包括:
合并单元:用于合并所述图像特征和文本特征,得到合并特征;
全连接单元:用于对所述合并特征进行全连接操作,获得分类特征;
归一化单元:用于对所述分类特征进行归一化操作,获得所述目标图像为第一图像类别的概率。
7.根据权利要求5所述的装置,其特征在于,所述特征提取模块包括:
文本分词单元:用于获取所述目标图像的文本分词;
词向量单元:用于计算所述文本分词的词向量,根据所述词向量得到所述目标图像的文本特征图;
文本特征图计算单元:用于对所述文本特征图进行卷积计算,获得所述目标图像的文本特征。
8.根据权利要求7所述的装置,其特征在于,所述文本分词单元包括:
第一子单元:用于若所述目标图像的内容包括文本,则根据目标图像的内容获得所述目标图像的文本分词;
第二子单元:用于若所述目标图像的内容不包括文本,则根据设定的默认文本获得所述目标图像的文本分词。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910935873.4A CN110705460B (zh) | 2019-09-29 | 2019-09-29 | 图像类别识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910935873.4A CN110705460B (zh) | 2019-09-29 | 2019-09-29 | 图像类别识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110705460A CN110705460A (zh) | 2020-01-17 |
CN110705460B true CN110705460B (zh) | 2023-06-20 |
Family
ID=69197285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910935873.4A Active CN110705460B (zh) | 2019-09-29 | 2019-09-29 | 图像类别识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110705460B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626889A (zh) * | 2020-06-02 | 2020-09-04 | 小红书科技有限公司 | 社交内容对应的类目预测方法及装置 |
CN112101165B (zh) * | 2020-09-07 | 2022-07-15 | 腾讯科技(深圳)有限公司 | 兴趣点识别方法、装置、计算机设备和存储介质 |
CN112668608B (zh) * | 2020-12-04 | 2024-03-15 | 北京达佳互联信息技术有限公司 | 一种图像识别方法、装置、电子设备及存储介质 |
CN112581359B (zh) * | 2020-12-23 | 2023-06-09 | Oppo(重庆)智能科技有限公司 | 图像处理方法、装置、终端及存储介质 |
CN112926700B (zh) * | 2021-04-27 | 2022-04-12 | 支付宝(杭州)信息技术有限公司 | 针对目标图像的类别识别方法和装置 |
CN115909374B (zh) * | 2021-09-30 | 2024-06-18 | 腾讯科技(深圳)有限公司 | 一种信息识别方法、装置、设备及存储介质、程序产品 |
CN114140673B (zh) * | 2022-02-07 | 2022-05-20 | 人民中科(北京)智能技术有限公司 | 一种违规图像识别方法、系统及设备 |
CN114863182A (zh) * | 2022-05-23 | 2022-08-05 | 北京百度网讯科技有限公司 | 图像分类方法、图像分类模型的训练方法及装置 |
CN115050014A (zh) * | 2022-06-15 | 2022-09-13 | 河北农业大学 | 一种基于图像文本学习的小样本番茄病害识别系统及方法 |
CN114973294B (zh) * | 2022-07-28 | 2022-10-21 | 平安科技(深圳)有限公司 | 基于图文匹配方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5167442B2 (ja) * | 2011-02-17 | 2013-03-21 | 三洋電機株式会社 | 画像識別装置およびプログラム |
CN109522942A (zh) * | 2018-10-29 | 2019-03-26 | 中国科学院深圳先进技术研究院 | 一种图像分类方法、装置、终端设备和存储介质 |
CN109784424A (zh) * | 2019-03-26 | 2019-05-21 | 腾讯科技(深圳)有限公司 | 一种图像分类模型训练的方法、图像处理的方法及装置 |
CN110110715A (zh) * | 2019-04-30 | 2019-08-09 | 北京金山云网络技术有限公司 | 文本检测模型训练方法、文本区域、内容确定方法和装置 |
CN110188776A (zh) * | 2019-05-30 | 2019-08-30 | 京东方科技集团股份有限公司 | 图像处理方法及装置、神经网络的训练方法、存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8768050B2 (en) * | 2011-06-13 | 2014-07-01 | Microsoft Corporation | Accurate text classification through selective use of image data |
US20190065589A1 (en) * | 2016-03-25 | 2019-02-28 | Quad Analytix Llc | Systems and methods for multi-modal automated categorization |
CN108256549B (zh) * | 2017-12-13 | 2019-03-15 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及终端 |
CN108875779A (zh) * | 2018-05-07 | 2018-11-23 | 深圳市恒扬数据股份有限公司 | 神经网络的训练方法、装置及终端设备 |
CN109472209B (zh) * | 2018-10-12 | 2021-06-29 | 咪咕文化科技有限公司 | 一种图像识别方法、装置和存储介质 |
CN110222717B (zh) * | 2019-05-09 | 2022-01-14 | 华为技术有限公司 | 图像处理方法和装置 |
-
2019
- 2019-09-29 CN CN201910935873.4A patent/CN110705460B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5167442B2 (ja) * | 2011-02-17 | 2013-03-21 | 三洋電機株式会社 | 画像識別装置およびプログラム |
CN109522942A (zh) * | 2018-10-29 | 2019-03-26 | 中国科学院深圳先进技术研究院 | 一种图像分类方法、装置、终端设备和存储介质 |
CN109784424A (zh) * | 2019-03-26 | 2019-05-21 | 腾讯科技(深圳)有限公司 | 一种图像分类模型训练的方法、图像处理的方法及装置 |
CN110110715A (zh) * | 2019-04-30 | 2019-08-09 | 北京金山云网络技术有限公司 | 文本检测模型训练方法、文本区域、内容确定方法和装置 |
CN110188776A (zh) * | 2019-05-30 | 2019-08-30 | 京东方科技集团股份有限公司 | 图像处理方法及装置、神经网络的训练方法、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110705460A (zh) | 2020-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110705460B (zh) | 图像类别识别方法及装置 | |
US11341366B2 (en) | Cross-modality processing method and apparatus, and computer storage medium | |
US11899710B2 (en) | Image recognition method, electronic device and storage medium | |
CN111783870B (zh) | 人体属性的识别方法、装置、设备及存储介质 | |
CN111104514B (zh) | 文档标签模型的训练方法及装置 | |
CN111259671B (zh) | 文本实体的语义描述处理方法、装置及设备 | |
CN113094550B (zh) | 视频检索方法、装置、设备和介质 | |
CN112241452B (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
US20220067439A1 (en) | Entity linking method, electronic device and storage medium | |
CN112084366B (zh) | 用于检索图像的方法、装置、设备以及存储介质 | |
CN112001366B (zh) | 模型训练方法、人脸识别方法、装置、设备和介质 | |
CN111797216B (zh) | 检索项改写方法、装置、设备以及存储介质 | |
CN111241234B (zh) | 文本分类方法及装置 | |
CN113361344B (zh) | 视频事件识别方法、装置、设备及存储介质 | |
CN112001265B (zh) | 视频事件识别方法、装置、电子设备及存储介质 | |
CN112149741B (zh) | 图像识别模型的训练方法、装置、电子设备及存储介质 | |
WO2021012493A1 (zh) | 短视频关键词提取方法、装置及存储介质 | |
CN112749300B (zh) | 用于视频分类的方法、装置、设备、存储介质和程序产品 | |
CN114782722B (zh) | 图文相似度的确定方法、装置及电子设备 | |
US20240304015A1 (en) | Method of training deep learning model for text detection and text detection method | |
CN113887615A (zh) | 图像处理方法、装置、设备和介质 | |
CN111460791B (zh) | 文本分类方法、装置、设备以及存储介质 | |
WO2023178798A1 (zh) | 图像分类方法、装置、设备及介质 | |
CN112016523B (zh) | 跨模态人脸识别的方法、装置、设备和存储介质 | |
CN111932530B (zh) | 三维对象检测方法、装置、设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |