CN112308034A - 一种性别分类的方法、设备、终端及计算机存储介质 - Google Patents
一种性别分类的方法、设备、终端及计算机存储介质 Download PDFInfo
- Publication number
- CN112308034A CN112308034A CN202011337032.2A CN202011337032A CN112308034A CN 112308034 A CN112308034 A CN 112308034A CN 202011337032 A CN202011337032 A CN 202011337032A CN 112308034 A CN112308034 A CN 112308034A
- Authority
- CN
- China
- Prior art keywords
- model
- training
- feature extraction
- image
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种性别分类的方法、设备、终端及计算机存储介质,该方法包括:获取预先训练好的图像特征提取模型;将所述图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中进行迁移学习训练;基于训练完成的所述神经网络模型对待识别的眼周图像进行性别识别。本方案采用迁移学习,利用预先训练好的图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中,并利用迁移学习训练完成的神经网络模型进行性别的识别,不需要重新完全训练多个模型,提升了效率,实现了更快的分类速度以及更高的分类精度。
Description
技术领域
本发明涉及神经网络技术领域,特别涉及一种性别分类的方法、设备、终端及计算机存储介质。
背景技术
随着计算机科学技术的迅速发展,网络化与智能化已经成为信息领域的发展方向。由此,生物特征识别技术得到了迅速的发展。所谓生物识别技术是指,通过计算机与各种传感器和生物统计原理相结合,利用人体的生理结构和行为特征,进行个人身份认证,常用的有人脸、虹膜、指纹、语音等。对于特征的提取,卷积神经网络在图像识别领域越来越受到欢迎;现有的针对眼周图像分类的方法是传统的机器学习,通过支持向量机(SVM)等机器学习分类技术进行分类,缺点是步骤复杂,导致效率低,分类准确率低。
由此,目前需要一种更好的方法来解决这种问题。
发明内容
针对现有技术中的缺陷,本发明提出了一种性别分类的方法、设备、终端及计算机存储介质,实现了更快的分类速度以及更高的分类精度。
具体的,本发明提出了以下具体的实施例:
本发明实施例提出了一种性别分类的方法,包括:
获取预先训练好的图像特征提取模型;
将所述图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中进行迁移学习训练;
基于训练完成的所述神经网络模型对待识别的眼周图像进行性别识别。
在一个具体的实施例中,所述图像特征提取模型为在ImageNet上预先训练好的VGG模型和Resnet34模型。
在一个具体的实施例中,所述眼周图像为虹膜图像。
在一个具体的实施例中,所述迁移学习训练,包括:
获取样本数据作为训练数据库,并将所述图像特征提取模型的结构参数作为训练数据源;
基于所述训练数据库和所述训练数据源对所述神经网络模型的全连接层进行训练;
将训练得到的所述全连接层的结构参数作为下一阶段的特征提取输入源,并对所述神经网络模型的结构层数进行调整,以及采用Softmax分类器作为最后的分类输出层。
在一个具体的实施例中,所述样本数据为确定分类结果为男性或女性的眼周图像;
所述“获取样本数据作为训练数据库”,包括:
对所述样本数据中的眼周图像进行扩增,并基于扩增后的眼周图像生成训练数据库。
在一个具体的实施例中,所述扩增包括以下一个或多个的组合:水平翻转、旋转。
本发明实施例还提出了一种性别分类的设备,包括:
获取模块,用于获取预先训练好的图像特征提取模型;
训练模块,用于将所述图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中进行迁移学习训练;
分类模块,用于基于训练完成的所述神经网络模型对待识别的眼周图像进行性别识别。
在一个具体的实施例中,所述图像特征提取模型为在ImageNet上预先训练好的VGG模型和Resnet34模型。
本发明实施例还提出了一种终端,包括存储器以及处理器,所述处理器执行所述存储器中的代码时执行上述的方法。
本发明实施例一种计算机存储介质,所述计算机存储介质中存储有应用程序,所述应用程序用于执行上述的方法。
以此,本发明实施例提出了一种性别分类的方法、设备、终端及计算机存储介质,该方法包括:获取预先训练好的图像特征提取模型;将所述图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中进行迁移学习训练;基于训练完成的所述神经网络模型对待识别的眼周图像进行性别识别。本方案采用迁移学习,利用预先训练好的图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中,并利用迁移学习训练完成的神经网络模型进行性别的识别,不需要重新完全训练多个模型,提升了效率,实现了更快的分类速度以及更高的分类精度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提出的一种性别分类的方法的流程示意图;
图2为本发明实施例提出的一种性别分类的方法中基于VGG16模型提取虹膜特征的示意图;
图3为本发明实施例提出的一种性别分类的方法中残差结构的示意图;
图4为本发明实施例提出的一种性别分类的方法的示意图;
图5为本发明实施例提出的一种性别分类的设备的结构示意图。
具体实施方式
在下文中,将更全面地描述本公开的各种实施例。本公开可具有各种实施例,并且可在其中做出调整和改变。然而,应理解:不存在将本公开的各种实施例限于在此公开的特定实施例的意图,而是应将本公开理解为涵盖落入本公开的各种实施例的精神和范围内的所有调整、等同物和/或可选方案。
在本公开的各种实施例中使用的术语仅用于描述特定实施例的目的并且并非意在限制本公开的各种实施例。如在此所使用,单数形式意在也包括复数形式,除非上下文清楚地另有指示。除非另有限定,否则在这里使用的所有术语(包括技术术语和科学术语)具有与本公开的各种实施例所属领域普通技术人员通常理解的含义相同的含义。所述术语(诸如在一般使用的词典中限定的术语)将被解释为具有与在相关技术领域中的语境含义相同的含义并且将不被解释为具有理想化的含义或过于正式的含义,除非在本公开的各种实施例中被清楚地限定。
实施例1
本发明实施例1公开了一种性别分类的方法,如图1所示,包括以下步骤:
步骤101、获取预先训练好的图像特征提取模型;
具体的,所述图像特征提取模型为在ImageNet(是一个用于视觉对象识别软件研究的大型可视化数据库)上预先训练好的VGG(Visual Geometry Group Network)模型和Resnet34(残差网络,如图3所示)模型。其中具体的VGG16模型提取虹膜特征如图3所示。
步骤102、将所述图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中进行迁移学习训练;
具体的,所述迁移学习训练,包括:
获取样本数据作为训练数据库,并将所述图像特征提取模型的结构参数作为训练数据源;
基于所述训练数据库和所述训练数据源对所述神经网络模型的全连接层进行训练;
将训练得到的所述全连接层的结构参数作为下一阶段的特征提取输入源,并对所述神经网络模型的结构层数进行调整,以及采用Softmax分类器作为最后的分类输出层。
进一步的,所述样本数据为确定分类结果为男性或女性的眼周图像;
所述“获取样本数据作为训练数据库”,包括:
对所述样本数据中的眼周图像进行扩增,并基于扩增后的眼周图像生成训练数据库。
此外,所述扩增包括以下一个或多个的组合:水平翻转、旋转。
以此,例如采集的样本图像为近红外眼周图像,将数据分为男性、女性作为识别对象。两类实验样本图像共采集3300张,为了避免训练过拟合,对原始数据集进行扩增,通过Python脚本语言,将图片进行水平翻转、旋转,对样本量进行扩增5倍,共计16500张,其中男女各8250张。
而图像特征提取模型如ImageNet上预先训练好的VGG模型和Resnet34模型等均为卷积神经网络,卷积神经网络(简称CNN)结构有输入层、卷积层、池化层、全连接层、输出层。卷积神经网络存在几大特点:(1)自动提取特征,无需过多人工干预;(2)多卷积结构层,增强特征提取能力;(3)自动更新、共享权值,不断提高正确率。
而迁移学习属于机器学习的一种方法,是将一个任务训练得到的模型移植到其他任务的训练上来。大数据时代,要想训练深度学习模型,得到理想的结果,需要耗费巨大的资源,深度迁移学习很受欢迎和传统机器学习方法相比,深度迁移学习可以应用于多分类识别中,不需要训练多个模型,只需要直接应用到其他任务中即可。
如图4所示,本方案中利用在ImageNet上预先训练好的VGG模型和Resnet34模型,将具有自动提取图像特征能力的卷积、池化层迁移到本研究的模型中。当输入眼周图像时,对图像进行特征提取,用2048维张量表示,并存入缓存文件。对VGG与Resnet的全连接层重新训练,对参数进行微调,对图像进行分类。
具体的,迁移学习训练过程分为三个阶段:(1)数据集扩充后的数据作为训练数据库,预训练的模型自带的结构参数作为训练数据源;(2)重新训练完整的全连接层,并将最后的全连接层的结构参数作为下一阶段的特征提取输入源;(3)最后对整个模型结构层数进行微调,最后采用Softmax分类器,作为最后的分类输出层。
步骤103、基于训练完成的所述神经网络模型对待识别的眼周图像进行性别识别。具体的,所述眼周图像为虹膜图像。
本方案采用迁移学习,利用预先训练好的图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中,并利用迁移学习训练完成的神经网络模型进行性别的识别,不需要重新完全训练多个模型,提升了效率,实现了更快的分类速度以及更高的分类精度。
实施例2
为了对本发明进行进一步的说明,本发明实施例2还公开了一种性别分类的设备,如图5所示,包括:
获取模块201,用于获取预先训练好的图像特征提取模型;
训练模块202,用于将所述图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中进行迁移学习训练;
分类模块203,用于基于训练完成的所述神经网络模型对待识别的眼周图像进行性别识别。
在一个具体的实施例中,所述图像特征提取模型为在ImageNet上预先训练好的VGG模型和Resnet34模型。
在一个具体的实施例中,所述眼周图像为虹膜图像。
在一个具体的实施例中,所述迁移学习训练,包括:
获取样本数据作为训练数据库,并将所述图像特征提取模型的结构参数作为训练数据源;
基于所述训练数据库和所述训练数据源对所述神经网络模型的全连接层进行训练;
将训练得到的所述全连接层的结构参数作为下一阶段的特征提取输入源,并对所述神经网络模型的结构层数进行调整,以及采用Softmax分类器作为最后的分类输出层。
在一个具体的实施例中,所述样本数据为确定分类结果为男性或女性的眼周图像;
所述获取模块201,用于:
对所述样本数据中的眼周图像进行扩增,并基于扩增后的眼周图像生成训练数据库。
在一个具体的实施例中,所述扩增包括以下一个或多个的组合:水平翻转、旋转。
实施例3
本发明实施例3还公开了一种终端,包括存储器以及处理器,所述处理器执行所述存储器中的代码时执行实施例1中所述的方法。
具体的,本终端的运行环境可以为Windows server系统,处理器为E5-2699V4(2.20GHz)256GB RAM and aQuadro GP100 GPU。试验所有代码均采用python语言编写,在Pycharm平台、基于Tensorflow开源框架实现。
此外,本发明实施例3还公开有其他相关特征,出于简要的目的,其他相关特征请参见实施例1中的记载,在此不再进行赘述。
实施例4
本发明实施例4还公开了一种计算机存储介质,所述计算机存储介质中存储有应用程序,所述应用程序用于执行实施例1中所述的方法。具体的,本发明实施例4还公开有其他相关特征,出于简要的目的,其他相关特征请参见实施例1中的记载,在此不再进行赘述。
以此,本发明实施例提出了一种性别分类的方法、设备、终端及计算机存储介质,该方法包括:获取预先训练好的图像特征提取模型;将所述图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中进行迁移学习训练;基于训练完成的所述神经网络模型对待识别的眼周图像进行性别识别。本方案采用迁移学习,利用预先训练好的图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中,并利用迁移学习训练完成的神经网络模型进行性别的识别,不需要重新完全训练多个模型,提升了效率,实现了更快的分类速度以及更高的分类精度。
本领域技术人员可以理解附图只是一个优选实施场景的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
本领域技术人员可以理解实施场景中的装置中的模块可以按照实施场景描述进行分布于实施场景的装置中,也可以进行相应变化位于不同于本实施场景的一个或多个装置中。上述实施场景的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
上述本发明序号仅仅为了描述,不代表实施场景的优劣。
以上公开的仅为本发明的几个具体实施场景,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (10)
1.一种性别分类的方法,其特征在于,包括:
获取预先训练好的图像特征提取模型;
将所述图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中进行迁移学习训练;
基于训练完成的所述神经网络模型对待识别的眼周图像进行性别识别。
2.如权利要求1所述的方法,其特征在于,所述图像特征提取模型为在ImageNet上预先训练好的VGG模型和Resnet34模型。
3.如权利要求1所述的方法,其特征在于,所述眼周图像为虹膜图像。
4.如权利要求1所述的方法,其特征在于,所述迁移学习训练,包括:
获取样本数据作为训练数据库,并将所述图像特征提取模型的结构参数作为训练数据源;
基于所述训练数据库和所述训练数据源对所述神经网络模型的全连接层进行训练;
将训练得到的所述全连接层的结构参数作为下一阶段的特征提取输入源,并对所述神经网络模型的结构层数进行调整,以及采用Softmax分类器作为最后的分类输出层。
5.如权利要求4所述的方法,其特征在于,所述样本数据为确定分类结果为男性或女性的眼周图像;
所述“获取样本数据作为训练数据库”,包括:
对所述样本数据中的眼周图像进行扩增,并基于扩增后的眼周图像生成训练数据库。
6.如权利要求5所述的方法,其特征在于,所述扩增包括以下一个或多个的组合:水平翻转、旋转。
7.一种性别分类的设备,其特征在于,包括:
获取模块,用于获取预先训练好的图像特征提取模型;
训练模块,用于将所述图像特征提取模型中具有自动提取图像特征能力的卷积层和池化层迁移到用于性别分类的神经网络模型中进行迁移学习训练;
分类模块,用于基于训练完成的所述神经网络模型对待识别的眼周图像进行性别识别。
8.如权利要求7所述的设备,其特征在于,所述图像特征提取模型为在ImageNet上预先训练好的VGG模型和Resnet34模型。
9.一种终端,其特征在于,包括存储器以及处理器,所述处理器执行所述存储器中的代码时执行权利要求1-6中任意一项所述的方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有应用程序,所述应用程序用于执行权利要求1-6中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011337032.2A CN112308034A (zh) | 2020-11-25 | 2020-11-25 | 一种性别分类的方法、设备、终端及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011337032.2A CN112308034A (zh) | 2020-11-25 | 2020-11-25 | 一种性别分类的方法、设备、终端及计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112308034A true CN112308034A (zh) | 2021-02-02 |
Family
ID=74335529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011337032.2A Pending CN112308034A (zh) | 2020-11-25 | 2020-11-25 | 一种性别分类的方法、设备、终端及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112308034A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344089A (zh) * | 2021-06-17 | 2021-09-03 | 北京百度网讯科技有限公司 | 模型训练方法、装置及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140025624A1 (en) * | 2011-04-13 | 2014-01-23 | Tata Consultancy Services Limited | System and method for demographic analytics based on multimodal information |
CN105809090A (zh) * | 2014-12-30 | 2016-07-27 | 中国科学院深圳先进技术研究院 | 一种人脸性别特征提取的方法及系统 |
CN107220598A (zh) * | 2017-05-12 | 2017-09-29 | 中国科学院自动化研究所 | 基于深度学习特征和Fisher Vector编码模型的虹膜图像分类方法 |
CN107316015A (zh) * | 2017-06-19 | 2017-11-03 | 南京邮电大学 | 一种基于深度时空特征的高精度面部表情识别方法 |
CN110335269A (zh) * | 2018-05-16 | 2019-10-15 | 腾讯医疗健康(深圳)有限公司 | 眼底图像的类别识别方法和装置 |
CN111275107A (zh) * | 2020-01-20 | 2020-06-12 | 西安奥卡云数据科技有限公司 | 一种基于迁移学习的多标签场景图像分类方法及装置 |
CN111476283A (zh) * | 2020-03-31 | 2020-07-31 | 上海海事大学 | 基于迁移学习的青光眼眼底图像识别方法 |
US20200305709A1 (en) * | 2019-04-01 | 2020-10-01 | Bryan Hau-Ping CHIANG | System and method for predicting a blood glucose level of a user |
-
2020
- 2020-11-25 CN CN202011337032.2A patent/CN112308034A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140025624A1 (en) * | 2011-04-13 | 2014-01-23 | Tata Consultancy Services Limited | System and method for demographic analytics based on multimodal information |
CN105809090A (zh) * | 2014-12-30 | 2016-07-27 | 中国科学院深圳先进技术研究院 | 一种人脸性别特征提取的方法及系统 |
CN107220598A (zh) * | 2017-05-12 | 2017-09-29 | 中国科学院自动化研究所 | 基于深度学习特征和Fisher Vector编码模型的虹膜图像分类方法 |
CN107316015A (zh) * | 2017-06-19 | 2017-11-03 | 南京邮电大学 | 一种基于深度时空特征的高精度面部表情识别方法 |
CN110335269A (zh) * | 2018-05-16 | 2019-10-15 | 腾讯医疗健康(深圳)有限公司 | 眼底图像的类别识别方法和装置 |
US20200305709A1 (en) * | 2019-04-01 | 2020-10-01 | Bryan Hau-Ping CHIANG | System and method for predicting a blood glucose level of a user |
CN111275107A (zh) * | 2020-01-20 | 2020-06-12 | 西安奥卡云数据科技有限公司 | 一种基于迁移学习的多标签场景图像分类方法及装置 |
CN111476283A (zh) * | 2020-03-31 | 2020-07-31 | 上海海事大学 | 基于迁移学习的青光眼眼底图像识别方法 |
Non-Patent Citations (1)
Title |
---|
刘尚旺 等: "基于深度可分卷积神经网络的实时人脸表情和性别分类", 《计算机应用》, vol. 40, no. 4, pages 990 - 995 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344089A (zh) * | 2021-06-17 | 2021-09-03 | 北京百度网讯科技有限公司 | 模型训练方法、装置及电子设备 |
CN113344089B (zh) * | 2021-06-17 | 2022-07-01 | 北京百度网讯科技有限公司 | 模型训练方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dong et al. | Few-shot semantic segmentation with prototype learning. | |
WO2020238293A1 (zh) | 图像分类方法、神经网络的训练方法及装置 | |
Bartz et al. | See: towards semi-supervised end-to-end scene text recognition | |
US20200065563A1 (en) | Systems and/or methods for accelerating facial feature vector matching with supervised machine learning | |
CN111275046B (zh) | 一种字符图像识别方法、装置、电子设备及存储介质 | |
Sarabu et al. | Human action recognition in videos using convolution long short-term memory network with spatio-temporal networks | |
Sekaran et al. | Facial emotion recognition using transfer learning of AlexNet | |
CN111339343A (zh) | 图像检索方法、装置、存储介质及设备 | |
CN111860046B (zh) | 一种改进MobileNet模型的人脸表情识别方法 | |
CN113128591A (zh) | 基于自监督学习的旋转鲁棒的点云分类方法 | |
CN115035418A (zh) | 一种基于改进DeepLabV3+网络的遥感图像语义分割方法及系统 | |
US20220207865A1 (en) | Information processing apparatus and information processing method | |
CN112232395B (zh) | 一种基于联合训练生成对抗网络的半监督图像分类方法 | |
Yue et al. | Face recognition based on histogram equalization and convolution neural network | |
Khullar et al. | Investigating efficacy of deep trained soil classification system with augmented data | |
CN112364705A (zh) | 基于多层次特征融合的轻量型cnn的表情识别方法 | |
Opu et al. | A lightweight deep convolutional neural network model for real-time age and gender prediction | |
US20200167655A1 (en) | Method and apparatus for re-configuring neural network | |
Петросюк et al. | Deep learning technology of convolutional neural networks for facial expression recognition | |
CN111310820A (zh) | 基于交叉验证深度cnn特征集成的地基气象云图分类方法 | |
Sutramiani et al. | Transfer learning on balinese character recognition of lontar manuscript using MobileNet | |
CN110867225A (zh) | 字符级临床概念提取命名实体识别方法及系统 | |
Ben Mahjoub et al. | An efficient end-to-end deep learning architecture for activity classification | |
CN112308034A (zh) | 一种性别分类的方法、设备、终端及计算机存储介质 | |
CN111652320B (zh) | 一种样本分类方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |