CN111382791B - 深度学习任务处理方法、图像识别任务处理方法和装置 - Google Patents
深度学习任务处理方法、图像识别任务处理方法和装置 Download PDFInfo
- Publication number
- CN111382791B CN111382791B CN202010155364.2A CN202010155364A CN111382791B CN 111382791 B CN111382791 B CN 111382791B CN 202010155364 A CN202010155364 A CN 202010155364A CN 111382791 B CN111382791 B CN 111382791B
- Authority
- CN
- China
- Prior art keywords
- sample
- training
- preset
- network model
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 60
- 238000003672 processing method Methods 0.000 title claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 338
- 239000011159 matrix material Substances 0.000 claims abstract description 121
- 238000013507 mapping Methods 0.000 claims abstract description 118
- 238000000034 method Methods 0.000 claims abstract description 80
- 239000013598 vector Substances 0.000 claims description 74
- 238000012545 processing Methods 0.000 claims description 48
- 230000006870 function Effects 0.000 claims description 40
- 230000008569 process Effects 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 abstract description 16
- 238000013508 migration Methods 0.000 description 6
- 230000005012 migration Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种深度学习任务处理方法、图像识别任务处理方法和装置;其中,该深度学习任务处理方法包括:获取待处理对象,将待处理对象输入至预先训练完成的网络模型中,输出待处理对象对应的特征数据;基于特征数据,完成预设的深度学习任务;其中,网络模型根据第一样本特征和第二样本特征训练得到;预设的训练样本输入至网络模型后,网络模型输出第一样本特征;第一样本特征经预设的映射矩阵映射后,得到第二样本特征;映射矩阵根据第一样本特征对应的训练样本的类别标签和预设的目标类别确定。该方式可以在特征归一化的情况下,实现在特征层面的数据增强。
Description
技术领域
本发明涉及深度学习技术领域,尤其是涉及一种深度学习任务处理方法、图像识别任务处理方法和装置。
背景技术
数据增强可以有效增加深度学习网络的训练数据的多样性。常用的数据增强方式中,通常在源数据层面进行增强,例如对训练图像进行随机的旋转、平移、缩放等;但是这些方式通常都需要人工设计,导致增强后的数据种类有限。另一种方式中,可以在网络输出的特征层面进行增强,但是现有的在特征层面进行增强的方式,难以适用于特征归一化的情况,不利于从整体上提高网络训练的精确度。
发明内容
有鉴于此,本发明的目的在于提供一种深度学习任务处理方法、图像识别任务处理方法和装置,以在特征归一化的情况下,实现在特征层面的数据增强。
第一方面,本发明实施例提供了一种深度学习任务处理方法,方法包括:获取待处理对象,将待处理对象输入至预先训练完成的网络模型中,输出待处理对象对应的特征数据;基于特征数据,完成预设的深度学习任务;其中,网络模型根据第一样本特征和第二样本特征训练得到;预设的训练样本输入至网络模型后,网络模型输出第一样本特征;第一样本特征经预设的映射矩阵映射后,得到第二样本特征;映射矩阵根据第一样本特征对应的训练样本的类别标签和预设的目标类别确定。
进一步地,上述网络模型具体通过下述方式训练得到:将预设的多个训练样本输入至网络模型中,输出每个训练样本对应的第一样本特征;其中,每个训练样本携带有该训练样本的类别标签;针对每个训练样本,从预设的备选类别中确定目标类别;根据目标类别和该训练样本的类别标签,确定映射矩阵;根据映射矩阵和该训练样本对应的第一样本特征,确定该训练样本的第二样本特征;根据每个训练样本的第一样本特征和第二样本特征,确定损失值,根据损失值训练网络模型。
进一步地,上述根据目标类别和该训练样本的类别标签,确定映射矩阵的步骤,包括:映射矩阵 其中,A为映射矩阵;I为预设的单位矩阵;ni=μi;μi为该训练样本的类别标签的特征向量几何中心;/>为ni的转置;/>μj为目标类别的特征向量几何中心;/>为μj的转置;‖‖2代表二次范数;α为该训练样本的类别标签的特征向量几何中心与目标类别的特征向量几何中心之间的旋转角;/>
进一步地,上述根据映射矩阵和该训练样本对应的第一样本特征,确定该训练样本的第二样本特征的步骤,包括:该训练样本的第二样本特征其中,/>为该训练样本的第二样本特征;xi为该训练样本对应的第一样本特征;A为映射矩阵。
进一步地,上述根据每个训练样本的第一样本特征和第二样本特征,确定损失值的步骤,包括:损失值loss=L(X,Y)+λL(Xgen,Ygen);其中,loss为损失值;L()为预设的损失函数;X为每个训练样本的第一样本特征,Y为每个训练样本的类别标签;λ为预设的权重系数;Xgen为每个训练样本的第二样本特征;Ygen为每个训练样本对应的目标类别。
进一步地,上述备选类别包括多种;每个训练样本对应的类别标签,属于备选类别中的一种;上述根据映射矩阵和该训练样本对应的第一样本特征,确定该训练样本的第二样本特征的步骤之后,方法还包括:根据每个训练样本对应的第一样本特征,更新每种备选类别的特征向量几何中心。
进一步地,上述根据每个训练样本对应的第一样本特征,更新每种备选类别的特征向量几何中心的步骤,包括:针对每种备选类别,确定该备选类别的特征向量几何中心的更新量基于更新量,更新该备选类别的特征向量几何中心;其中,k为第k个备选类别;Δμk代表第k个备选类别的特征向量几何中心的更新量;m为训练样本的总量;i代表第i个训练样本;δ()为预设的指示函数,当yi=k为真时,δ()函数的取值为1,当yi=k为假时,δ()函数的取值为0;yi为第i个训练样本的类别标签;μk为第k个备选类别的特征向量几何中心;xi为第i个训练样本的第一样本特征。
进一步地,上述基于更新量,更新该备选类别的特征向量几何中心的步骤,包括:针对每种备选类别,该备选类别更新后的特征向量几何中心μk’=μk+Δμk。
进一步地,上述将预设的多个训练样本输入至网络模型中的步骤之前,方法还包括:基于预设的训练样本集合,确定多个训练样本;根据损失值训练网络模型的步骤之后,方法还包括:继续执行基于预设的训练样本集合,确定多个训练样本的步骤,直至迭代次数满足预设的次数阈值。
第二方面,本发明实施例提供了一种图像识别任务处理方法,该方法包括:获取待处理图像,将待处理图像输入至预先训练完成的网络模型中,输出待处理图像对应的特征数据;基于特征数据,完成预设的图像识别任务;其中,网络模型根据第一样本特征和第二样本特征训练得到;预设的训练样本图像输入至网络模型后,网络模型输出第一样本特征;第一样本特征经预设的映射矩阵映射后,得到第二样本特征;映射矩阵根据第一样本特征对应的训练样本图像的类别标签和预设的目标类别确定。
第三方面,本发明实施例提供了一种深度学习任务处理装置,该装置包括:对象特征提取模块,用于获取待处理对象,将待处理对象输入至预先训练完成的网络模型中,输出待处理对象对应的特征数据;深度学习任务处理模块,用于基于特征数据,完成预设的深度学习任务;其中,网络模型根据第一样本特征和第二样本特征训练得到;预设的训练样本输入至网络模型后,网络模型输出第一样本特征;第一样本特征经预设的映射矩阵映射后,得到第二样本特征;映射矩阵根据第一样本特征对应的训练样本的类别标签和预设的目标类别确定。
第四方面,本发明实施例提供了一种图像识别任务处理装置,该装置包括:图像特征提取模块,用于获取待处理图像,将待处理图像输入至预先训练完成的网络模型中,输出待处理图像对应的特征数据;图像识别任务处理模块,用于基于特征数据,完成预设的图像识别任务;其中,网络模型根据第一样本特征和第二样本特征训练得到;预设的训练样本图像输入至网络模型后,网络模型输出第一样本特征;第一样本特征经预设的映射矩阵映射后,得到第二样本特征;映射矩阵根据第一样本特征对应的训练样本图像的类别标签和预设的目标类别确定。
第五方面,本发明实施例提供了一种电子系统,电子系统包括:图像采集设备、处理设备和存储装置;图像采集设备,用于获取预览视频帧或图像数据;存储装置上存储有计算机程序,计算机程序在被处理设备运行时执行如上述深度学习任务处理方法,或者上述一种图像识别任务处理方法的步骤。
第六方面,本发明实施例提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理设备运行时执行如上述深度学习任务处理方法的步骤,或者上述一种图像识别任务处理方法的步骤。
本发明实施例带来了以下有益效果:
上述深度学习任务处理方法、图像识别任务处理方法和装置,用于提取待处理对象的特征数据的网络模型,根据第一样本特征和第二样本特征训练得到;其中的第一样本特征,由预设的训练样本输入至网络模型后,网络模型输出该第一样本特征;根据第一样本特征对应的训练样本的类别标签和预设的目标类别确定映射矩阵,该第一样本特征经预设的映射矩阵映射后,得到第二样本特征;该方式中,基于映射矩阵可以将训练样本的类别标签所对应的第一样本特征,映射得到目标类别对应的第二样本特征,从而增加了目标类别的特征数据,该方式可以在特征归一化的情况下,实现了在特征层面的数据增强,有利于从整体上提高网络训练的精确度。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种电子系统的结构示意图;
图2为本发明实施例提供的一种深度学习任务处理方法的流程图;
图3为本发明实施例提供的另一种深度学习任务处理方法的流程图;
图4为本发明实施例提供的另一种深度学习任务处理方法的流程图;
图5为本发明实施例提供的一种图像识别任务处理方法的流程图;
图6为本发明实施例提供的一种深度学习任务处理装置的结构意图;
图7为本发明实施例提供的一种图像识别任务处理装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
考虑到现有的在特征层面进行数据增强的方式,难以适用于特征归一化的情况,本发明实施例提供了一种深度学习任务处理方法、图像识别任务处理方法和装置;该技术可以应用于服务器、计算机、相机、手机、平板电脑、车辆中控设备等多种设备中,该技术可采用相应的软件和硬件实现,以下对本发明实施例进行详细介绍。
实施例一:
首先,参照图1来描述用于实现本发明实施例的深度学习任务处理方法、图像识别任务处理方法和装置的示例电子系统100。
如图1所示的一种电子系统的结构示意图,电子系统100包括一个或多个处理设备102、一个或多个存储装置104、输入装置106、输出装置108以及一个或多个图像采集设备110,这些组件通过总线系统112和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子系统100的组件和结构只是示例性的,而非限制性的,根据需要,所述电子系统也可以具有其他组件和结构。
所述处理设备102可以是网关,也可以为智能终端,或者是包含中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元的设备,可以对所述电子系统100中的其它组件的数据进行处理,还可以控制所述电子系统100中的其它组件以执行期望的功能。
所述存储装置104可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理设备102可以运行所述程序指令,以实现下文所述的本发明实施例中(由处理设备实现)的客户端功能以及/或者其它期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。
所述输出装置108可以向外部(例如,用户)输出各种信息(例如,图像或声音),并且可以包括显示器、扬声器等中的一个或多个。
所述图像采集设备110可以采集预览视频帧或图片数据,并且将采集到的预览视频帧或图片数据存储在所述存储装置104中以供其它组件使用。
示例性地,用于实现根据本发明实施例的深度学习任务处理方法、图像识别任务处理方法和装置的示例电子系统中的各器件可以集成设置,也可以分散设置,诸如将处理设备102、存储装置104、输入装置106和输出装置108集成设置于一体,而将图像采集设备110设置于可以采集到目标图像的指定位置。当上述电子系统中的各器件集成设置时,该电子系统可以被实现为诸如相机、智能手机、平板电脑、计算机、车载终端等智能终端。
实施例二:
本实施例提供了一种深度学习任务处理方法,该方法由上述电子系统中的处理设备执行;该处理设备可以是具有数据处理能力的任何设备或芯片。该处理设备可以独立对接收到的信息进行处理,也可以与服务器相连,共同对信息进行分析处理,并将处理结果上传至云端。
如图2所示,该方法包括如下步骤:
步骤S202,获取待处理对象,将待处理对象输入至预先训练完成的网络模型中,输出待处理对象对应的特征数据;
上述待处理对象可以是图像、音频、视频等数据,也可以使其他形式的单维度或多维度的数据。上述网络模型输出的特征数据与深度学习任务的内容相对应;例如,当深度学习任务是图像分类任务时,上述网络模型可以输出用于对待处理对象进行分类的特征数据。
在相关技术中,上述网络模型在训练过程中,通常将训练样本输入至网络模型后,由网络模型输出训练样本的特征数据,进而再基于网络模型输出的特征数据与训练样本的样本标签计算损失值,根据该损失值训练网络模型。
而本实施例中,为了在网络模型输出的特征层面进行数据增强,该网络模型根据第一样本特征和第二样本特征训练得到;预设的训练样本输入至网络模型后,网络模型输出上述第一样本特征;该第一样本特征经预设的映射矩阵映射后,得到上述第二样本特征;其中的映射矩阵根据第一样本特征对应的训练样本的类别标签和预设的目标类别确定。
首先,本实施例是为了在特征归一化的情况下实现特征层面的数据增强。特征归一化是指把网络输出的特征数据都除以特征数据本身的模长,使得所有特征数据的模长一致。特征归一化,是一种在机器学习中广泛使用的技巧。在特征归一化的情况下,所有的特征数据都被约束在一个高维球面上。基于此,上述映射矩阵可以基于该高维球面建立。
上述预设的目标类别的可以根据深度学习任务的具体任务类型确定;训练样本输入至网络模型后,网络模型输出第一样本特征;训练样本通常携带有类别标签,根据该类别标签和上述目标类别,可以得到从类别标签映射至目标类别的映射矩阵;当目标类别有多个时,可以按照预设顺序或随机选择一个目标类别,再计算类别标签映射至该目标类别的映射矩阵。
得到映射矩阵后,再通过该映射矩阵,对第一样本特征进行映射处理,得到上述第二样本特征。需要说明的是,由于第一样本特征对应的是训练样本的类别标签,上述映射矩阵用于将类别标签映射至目标类别,因此,通过该映射矩阵对第一样本特征进行映射处理后,得到的第二样本特征对应的是目标类别;因此,该方式可以增加目标类别的特征数据,从特征层面对目标类别的数据进行了数据增强。
步骤S204,基于特征数据,完成预设的深度学习任务;
具体而言,可以根据预设的深度学习任务的内容,设置对应的算法、模型或者网络结构对特征数据进行处理,得到该深度学习任务对应的结果。例如,当深度学习任务为对待处理对象进行分类时,可以通过预设的分类器对特征数据进行处理,从而得到待处理对象的类别,得到分类结果,从而完成该深度学习任务。
上述深度学习任务处理方法,用于提取待处理对象的特征数据的网络模型,根据第一样本特征和第二样本特征训练得到;其中的第一样本特征,由预设的训练样本输入至网络模型后,网络模型输出该第一样本特征;根据第一样本特征对应的训练样本的类别标签和预设的目标类别确定映射矩阵,该第一样本特征经预设的映射矩阵映射后,得到第二样本特征;该方式中,基于映射矩阵可以将训练样本的类别标签所对应的第一样本特征,映射得到目标类别对应的第二样本特征,从而增加了目标类别的特征数据,该方式可以在特征归一化的情况下,实现了在特征层面的数据增强,有利于从整体上提高网络训练的精确度。
实施例三:
本实施例提供了另一种深度学习任务处理方法,本实施例重点说明网络模型具体训练方式。如图3所示,该网络模型具体通过下述方式训练得到:
步骤S302,将预设的多个训练样本输入至网络模型中,输出每个训练样本对应的第一样本特征;其中,每个训练样本携带有该训练样本的类别标签;
在实际实现时,可以从训练样本集合中获取上述多个训练样本;该训练样本集合中通常包括大量的训练样本,每个训练样本携带有类别标签;可以以随机的方式或者按照预设的顺序,从训练样本集合中获取上述多个训练样本。
步骤S304,针对每个训练样本,从预设的备选类别中确定目标类别;根据目标类别和该训练样本的类别标签,确定映射矩阵;根据映射矩阵和该训练样本对应的第一样本特征,确定该训练样本的第二样本特征;
其中,预设的备选类别可以根据深度学习任务设置;该备选类别通常包括多种;针对每个训练样本,可以从备选类别中随机地或者按照预设的顺序选择一个类别,将该类别作为目标类别。
由前述实施例可知,网络输出的特征归一化后,特征被约束在一个高维球面(也称为超球面)上,基于此,可以利用高维旋转的方式对特征进行迁移,从而实现在特征层面数据增强的目的。在实际实现时,可以为备选类别中的每个类别确定该类别的特征分布的均值。训练样本的类别标签通常也属于备选类别中的一个类别;然后根据类别标签的特征分布的均值,和上述目标类别的特征分布的均值,确定高维旋转矩阵,即上述映射矩阵。然后利用该映射矩阵,将第一样本特征映射得到第二样本特征,从而实现对目标类别的特征数据进行增强。在特征层面进行数据增强,有利于解决传统的在源数据层面进行数据增强的增强方式有限,灵活性不足的问题。
具体地,上述类别的特征分布的均值,具体可以通过类别的特征向量几何中心实现。基于此,上述确定映射矩阵的步骤,可以通过下述公式实现:
映射矩阵
其中,A为映射矩阵,也可以称为旋转矩阵;I为预设的单位矩阵;ni=μi;μi为该训练样本的类别标签的特征向量几何中心;为ni的转置;/>μj为目标类别的特征向量几何中心;/>为μj的转置;‖‖2代表二次范数;α为该训练样本的类别标签的特征向量几何中心与目标类别的特征向量几何中心之间的旋转角;/>上述特征向量几何中心,也可以成为特征空间的几何中心。
具体的,上述确定该训练样本的第二样本特征的步骤,可以通过下述公式实现:该训练样本的第二样本特征其中,/>为该训练样本的第二样本特征;xi为该训练样本对应的第一样本特征;A为映射矩阵。其中的i和j均代表类别,i为第一样本特征对应的训练样本的类别标签,j为目标特征;得到第二样本特征后,该第二样本特征将作为目标类别j的一个特征数据参与网络模型的训练。
步骤S306,根据每个训练样本的第一样本特征和第二样本特征,确定损失值,根据该损失值训练网络模型。
在上述过程中,第一样本特征相当于训练样本对应的类别标签的样本特征,第二样本特征相当于目标类别的样本特征;对于目标类别而言,相当于增加了样本特征,从而实现了特征层面的数据增强。上述损失值,可以通过预设的损失函数实现,该损失函数可以根据具体的深度学习任务确定,例如,该损失函数可以为交叉熵损失函数、指数损失函数等。得到损失值后,可以根据该损失值计算网络模型中各个参数的梯度,从而完成网络模型中参数的反向传播和参数的更新。
具体地,在分类任务或度量学习任务中,损失函数输入的通常是一个批次的训练样本对应的样本特征和样本标签,进而输出一个标量,表示损失值。本实施例提出的网络模型的训练方式,适用于大多数的损失函数,用L(X,Y)可以表示一个一般化的损失函数,其中,X可以表示一个批次中训练样本对应的样本特征,Y可以表示该批次中训练样本对应的样本标签。
假如当前批次的多个训练样本共有m个,每个训练样本对应的第一样本特征,经映射矩阵处理后,得到m个第二样本特征,可以表示为,xgen,1,xgen,2,…xgen,m。设Xgen表示得到的第二样本特征,第二样本特征对应的目标类别为Ygen。
具体而言,上述确定损失值的步骤,具体可以通过下述公式实现:
损失值loss=L(X,X)+λL(Xgen,Ygen)
其中,loss为损失值;L()为预设的损失函数;X为每个训练样本的第一样本特征,Y为每个训练样本的类别标签;λ为预设的权重系数;该权重系数可以根据深度学习任务的内容具体设置;Xgen为每个训练样本的第二样本特征;Ygen为每个训练样本对应的目标类别。
另外,上述步骤S302-步骤S306,可以循环执行,在执行步骤S302之前,通常还需要基于预设的训练样本集合,确定多个训练样本;每次循环之前确定的多个训练样本,可以相同,也可以不同,或者仅有部分训练样本相同。在步骤S306之后,则继续执行基于预设的训练样本集合,确定多个训练样本的步骤,直至迭代次数满足预设的次数阈值。可以理解的是,一次迭代即代表一次循环,该次数阈值可以预先设置。
上述深度学习任务处理方法,在特征归一化的情况下,根据特征被约束的高维球面,确定各个类别之间的映射矩阵,基于该映射矩阵,可以将训练样本对应的类别的特征数据,迁移至目标类别,得到该目标类别的特征数据,从而实现了目标类别的特征数据的增强;该方式可以把一个类别的特征迁移到另一个类别,并作为该类别的特征训练网络模型,具体迁移的方式依赖于两个类别的特征向量几何中心。该方式可以在训练时对数据进行额外的增广,相比于其他在特征层面的数据增强方式,本实施例可以在特征归一化的情况下使用,且能获得更大的网络性能提升,有利于从整体上提高网络训练的精确度。
实施例四:
本实施例提供了另一种深度学习任务处理方法,本实施例重点说明各个类别的特征向量几何中心的确定方式。本实施例中,备选类别包括多种,每个训练样本对应的类别标签,属于备选类别中的一种。
在初始状态下,假设根据深度学习任务,预设了C个备选类别,则对这C个备选类别中每个类别对应的特征向量几何中心设置初始值,分别表示为μ1,μ2,…μC;初始值的设置方式可以为随机设置,也可以按照预设的顺序或算法设置。特征向量几何中心通常为高维向量,特征向量几何中心的维度数量通常与网络模型输出的特征数据的维度数量相同。
在网络模型的训练过程中,多个训练样本输入至网络模型后,得到每个训练样本对应的第一样本特征;然后根据映射矩阵和该训练样本对应的第一样本特征,确定该训练样本的第二样本特征之后,则可以根据每个训练样本对应的第一样本特征,更新每种备选类别的特征向量几何中心。
需要说明的是,该多个训练样本的类别标签,可以仅覆盖上述C个备选类别的一部分类别,也可能全部覆盖着C个备选类别。在训练过程中,通常会获取多批次的多个训练样本,随着批次的增加,每个备选类别都会覆盖到。
具体地,上述根据第一样本特征,更新每种备选类别的特征向量几何中心的过程,可以通过下述公式实现:针对每种备选类别,确定该备选类别的特征向量几何中心的更新量
基于上述更新量,更新该备选类别的特征向量几何中心;在实际实现时,针对每种备选类别,该备选类别更新后的特征向量几何中心μk’=μk+Δμk。
其中,k为第k个备选类别;Δμk代表第k个备选类别的特征向量几何中心的更新量;m为训练样本的总量;i代表第i个训练样本;δ()为预设的指示函数,当yi=k为真时,δ()函数的取值为1,当yi=k为假时,δ()函数的取值为0;yi为第i个训练样本的类别标签;μk为第k个备选类别的特征向量几何中心;xi为第i个训练样本的第一样本特征。
上述方式中,在网络模型的训练过程中,通过不断更新各个备选类别的特征向量几何中心,有利于类别之间的映射矩阵更加准确,进而基于该映射矩阵迁移得到的特征数据,与目标类别之间的匹配程度也更高,使得特征层面的数据增加更加有效,有利于从整体上提高网络训练的精确度。
实施例五:
本实施例提供了另一种深度学习任务处理方法,本实施例以基于深度学习的图像分类任务为例,说明用于提取图像分类特征的网络模型的训练过程,参见图4所示。
首先,从预设的训练样本集合中确定多个训练样本;该训练样本的具体形式为图片;每个训练样本输入至深度神经网络模型中,输出每个训练样本对应的第一样本特征;该第一样本特征经旋转矩阵迁移得到第二样本特征;其中的旋转矩阵相当于前述实施例中的映射矩阵,旋转矩阵的确定方式可参考前述实施例。
然后,基于每个训练样本对应的第一样本特征,通过预设的损失函数计算第一模型损失;基于每个第一样本特征迁移得到的第二样本特征,通过预设的损失函数计算第二模型损失。将第二模型损失融合至第一模型损失中,得到最终模型损失。其中,具体的融合方式可以是,第二模型损失可以乘以一个预设的权重系数,所得结果与第一模型损失相加,得到最终模型损失。图4中,虚线框以外的流程,相当于深度学习的常规过程;虚线内的过程,即得到第二样本特征、计算第二模型损失、以及第二模型损失与第一模型损失融合的过程,为本实施例新增的过程。
最后,根据上述最终模型损失,以反向传播的方式更新网络模型的参数,从而实现对网络模型的训练。
实施例六:
对应于上述实施例提供的深度学习任务处理方法,本实施例提供一种图像识别任务处理方法,如图5所示,该方法包括如下步骤:
步骤S502,获取待处理图像,将待处理图像输入至预先训练完成的网络模型中,输出待处理图像对应的特征数据;
其中,网络模型根据第一样本特征和第二样本特征训练得到;预设的训练样本图像输入至网络模型后,网络模型输出第一样本特征;第一样本特征经预设的映射矩阵映射后,得到第二样本特征;映射矩阵根据第一样本特征对应的训练样本图像的类别标签和预设的目标类别确定。
在相关技术中,上述网络模型在训练过程中,通常将训练样本图像输入至网络模型后,由网络模型输出训练样本图像的特征数据,进而再基于网络模型输出的特征数据与训练样本图像的样本标签计算损失值,根据该损失值训练网络模型。
而本实施例中,为了在网络模型输出的特征层面进行数据增强,该网络模型根据第一样本特征和第二样本特征训练得到;预设的训练样本图像输入至网络模型后,网络模型输出上述第一样本特征;该第一样本特征经预设的映射矩阵映射后,得到上述第二样本特征;其中的映射矩阵根据第一样本特征对应的训练样本图像的类别标签和预设的目标类别确定。
首先,本实施例是为了在特征归一化的情况下实现特征层面的数据增强。特征归一化是指把网络输出的特征数据都除以特征数据本身的模长,使得所有特征数据的模长一致。特征归一化,是一种在机器学习中广泛使用的技巧。在特征归一化的情况下,所有的特征数据都被约束在一个高维球面上。基于此,上述映射矩阵可以基于该高维球面建立。
上述预设的目标类别的可以根据图像识别任务的具体识别任务类型确定;训练样本图像输入至网络模型后,网络模型输出第一样本特征;训练样本图像通常携带有类别标签,根据该类别标签和上述目标类别,可以得到从类别标签映射至目标类别的映射矩阵;当目标类别有多个时,可以按照预设顺序或随机选择一个目标类别,再计算类别标签映射至该目标类别的映射矩阵。
得到映射矩阵后,再通过该映射矩阵,对第一样本特征进行映射处理,得到上述第二样本特征。需要说明的是,由于第一样本特征对应的是训练样本图像的类别标签,上述映射矩阵用于将类别标签映射至目标类别,因此,通过该映射矩阵对第一样本特征进行映射处理后,得到的第二样本特征对应的是目标类别;因此,该方式可以增加目标类别的特征数据,从特征层面对目标类别的数据进行了数据增强。
步骤S504,基于上述特征数据,完成预设的图像识别任务。
具体而言,可以根据预设的图像识别任务的内容,设置对应的算法、模型或者网络结构对特征数据进行处理,得到该图像识别任务对应的结果。例如,当图像识别任务为对待处理图像进行人脸识别时,可以通过预设的分类器对特征数据进行处理,从而得到待处理图像中人脸的识别结果,从而完成该图像识别任务。
上述图像识别任务处理方法,用于提取待处理图像的特征数据的网络模型,根据第一样本特征和第二样本特征训练得到;其中的第一样本特征,由预设的训练样本图像输入至网络模型后,网络模型输出该第一样本特征;根据第一样本特征对应的训练样本图像的类别标签和预设的目标类别确定映射矩阵,该第一样本特征经预设的映射矩阵映射后,得到第二样本特征;该方式中,基于映射矩阵可以将训练样本图像的类别标签所对应的第一样本特征,映射得到目标类别对应的第二样本特征,从而增加了目标类别的特征数据,该方式可以在特征归一化的情况下,实现了在特征层面的数据增强,有利于从整体上提高网络训练的精确度。
进一步地,下述重点说明网络模型具体训练方式。该网络模型具体通过下述方式训练得到:
步骤602,将预设的多个训练样本图像输入至网络模型中,输出每个训练样本图像对应的第一样本特征;其中,每个训练样本图像携带有该训练样本图像的类别标签;
在实际实现时,可以从训练样本图像集合中获取上述多个训练样本图像;该训练样本图像集合中通常包括大量的训练样本图像,每个训练样本图像携带有类别标签;可以以随机的方式或者按照预设的顺序,从训练样本图像集合中获取上述多个训练样本图像。
步骤604,针对每个训练样本图像,从预设的备选类别中确定目标类别;根据目标类别和该训练样本图像的类别标签,确定映射矩阵;根据映射矩阵和该训练样本图像对应的第一样本特征,确定该训练样本图像的第二样本特征;
其中,预设的备选类别可以根据图像识别任务设置;该备选类别通常包括多种;针对每个训练样本图像,可以从备选类别中随机地或者按照预设的顺序选择一个类别,将该类别作为目标类别。
由前述实施例可知,网络输出的特征归一化后,特征被约束在一个高维球面(也称为超球面)上,基于此,可以利用高维旋转的方式对特征进行迁移,从而实现在特征层面数据增强的目的。在实际实现时,可以为备选类别中的每个类别确定该类别的特征分布的均值。训练样本图像的类别标签通常也属于备选类别中的一个类别;然后根据类别标签的特征分布的均值,和上述目标类别的特征分布的均值,确定高维旋转矩阵,即上述映射矩阵。然后利用该映射矩阵,将第一样本特征映射得到第二样本特征,从而实现对目标类别的特征数据进行增强。在特征层面进行数据增强,有利于解决传统的在源数据层面进行数据增强的增强方式有限,灵活性不足的问题。
具体地,上述类别的特征分布的均值,具体可以通过类别的特征向量几何中心实现。基于此,上述确定映射矩阵的步骤,可以通过下述公式实现:
映射矩阵
其中,A为映射矩阵,也可以称为旋转矩阵;I为预设的单位矩阵;ni=μi;μi为该训练样本图像的类别标签的特征向量几何中心;为nj的转置;/>μj为目标类别的特征向量几何中心;/>为μj的转置;‖‖2代表二次范数;α为该训练样本图像的类别标签的特征向量几何中心与目标类别的特征向量几何中心之间的旋转角;上述特征向量几何中心,也可以成为特征空间的几何中心。
具体的,上述确定该训练样本图像的第二样本特征的步骤,可以通过下述公式实现:该训练样本图像的第二样本特征其中,/>为该训练样本图像的第二样本特征;xi为该训练样本图像对应的第一样本特征;A为映射矩阵。其中的i和j均代表类别,i为第一样本特征对应的训练样本图像的类别标签,j为目标特征;得到第二样本特征后,该第二样本特征将作为目标类别j的一个特征数据参与网络模型的训练。
步骤606,根据每个训练样本图像的第一样本特征和第二样本特征,确定损失值,根据该损失值训练网络模型。
在上述过程中,第一样本特征相当于训练样本图像对应的类别标签的样本特征,第二样本特征相当于目标类别的样本特征;对于目标类别而言,相当于增加了样本特征,从而实现了特征层面的数据增强。上述损失值,可以通过预设的损失函数实现,该损失函数可以根据具体的图像识别任务确定,例如,该损失函数可以为交叉熵损失函数、指数损失函数等。得到损失值后,可以根据该损失值计算网络模型中各个参数的梯度,从而完成网络模型中参数的反向传播和参数的更新。
具体地,在图像识别任务中的分类任务或度量学习任务中,损失函数输入的通常是一个批次的训练样本图像对应的样本特征和样本标签,进而输出一个标量,表示损失值。本实施例提出的网络模型的训练方式,适用于大多数的损失函数,用L(X,Y)可以表示一个一般化的损失函数,其中,X可以表示一个批次中训练样本图像对应的样本特征,Y可以表示该批次中训练样本图像对应的样本标签。
假如当前批次的多个训练样本图像共有m个,每个训练样本图像对应的第一样本特征,经映射矩阵处理后,得到m个第二样本特征,可以表示为,xgen,1,xgen,2,…xgen,m。设Xgen表示得到的第二样本特征,第二样本特征对应的目标类别为Ygen。
具体而言,上述确定损失值的步骤,具体可以通过下述公式实现:
损失值loss=L(X,Y)+λL(Xgen,Ygen)
其中,loss为损失值;L()为预设的损失函数;X为每个训练样本图像的第一样本特征,Y为每个训练样本图像的类别标签;λ为预设的权重系数;该权重系数可以根据图像识别任务的内容具体设置;Xgen为每个训练样本图像的第二样本特征;Ygen为每个训练样本图像对应的目标类别。
另外,上述步骤602-步骤606,可以循环执行,在执行步骤602之前,通常还需要基于预设的训练样本图像集合,确定多个训练样本图像;每次循环之前确定的多个训练样本图像,可以相同,也可以不同,或者仅有部分训练样本图像相同。在步骤606之后,则继续执行基于预设的训练样本图像集合,确定多个训练样本图像的步骤,直至迭代次数满足预设的次数阈值。可以理解的是,一次迭代即代表一次循环,该次数阈值可以预先设置。
上述图像识别任务处理方法,在特征归一化的情况下,根据特征被约束的高维球面,确定各个类别之间的映射矩阵,基于该映射矩阵,可以将训练样本图像对应的类别的特征数据,迁移至目标类别,得到该目标类别的特征数据,从而实现了目标类别的特征数据的增强;该方式可以把一个类别的特征迁移到另一个类别,并作为该类别的特征训练网络模型,具体迁移的方式依赖于两个类别的特征向量几何中心。该方式可以在训练时对数据进行额外的增广,相比于其他在特征层面的数据增强方式,本实施例可以在特征归一化的情况下使用,且能获得更大的网络性能提升,有利于从整体上提高网络训练的精确度。
进一步地,下述重点说明各个类别的特征向量几何中心的确定方式。本实施例中,备选类别包括多种,每个训练样本图像对应的类别标签,属于备选类别中的一种。
在初始状态下,假设根据图像识别任务,预设了C个备选类别,则对这C个备选类别中每个类别对应的特征向量几何中心设置初始值,分别表示为μ1,μ2,…μC;初始值的设置方式可以为随机设置,也可以按照预设的顺序或算法设置。特征向量几何中心通常为高维向量,特征向量几何中心的维度数量通常与网络模型输出的特征数据的维度数量相同。
在网络模型的训练过程中,多个训练样本图像输入至网络模型后,得到每个训练样本图像对应的第一样本特征;然后根据映射矩阵和该训练样本图像对应的第一样本特征,确定该训练样本图像的第二样本特征之后,则可以根据每个训练样本图像对应的第一样本特征,更新每种备选类别的特征向量几何中心。
需要说明的是,该多个训练样本图像的类别标签,可以仅覆盖上述C个备选类别的一部分类别,也可能全部覆盖着C个备选类别。在训练过程中,通常会获取多批次的多个训练样本图像,随着批次的增加,每个备选类别都会覆盖到。
具体地,上述根据第一样本特征,更新每种备选类别的特征向量几何中心的过程,可以通过下述公式实现:针对每种备选类别,确定该备选类别的特征向量几何中心的更新量
基于上述更新量,更新该备选类别的特征向量几何中心;在实际实现时,针对每种备选类别,该备选类别更新后的特征向量几何中心μk’=μk+Δμk。
其中,k为第k个备选类别;Δμk代表第k个备选类别的特征向量几何中心的更新量;m为训练样本图像的总量;i代表第i个训练样本图像;δ()为预设的指示函数,当yi=k为真时,δ()函数的取值为1,当yi=k为假时,δ()函数的取值为0;yi为第i个训练样本图像的类别标签;μk为第k个备选类别的特征向量几何中心;xi为第i个训练样本图像的第一样本特征。
上述方式中,在网络模型的训练过程中,通过不断更新各个备选类别的特征向量几何中心,有利于类别之间的映射矩阵更加准确,进而基于该映射矩阵迁移得到的特征数据,与目标类别之间的匹配程度也更高,使得特征层面的数据增加更加有效,有利于从整体上提高网络训练的精确度。
进一步地,下述以基于深度学习的图像分类任务为例,说明用于提取图像分类特征的网络模型的训练过程。
首先,从预设的训练样本图像集合中确定多个训练样本图像;该训练样本图像的具体形式为图片;每个训练样本图像输入至深度神经网络模型中,输出每个训练样本图像对应的第一样本特征;该第一样本特征经旋转矩阵迁移得到第二样本特征;其中的旋转矩阵相当于前述实施例中的映射矩阵,旋转矩阵的确定方式可参考前述实施例。
然后,基于每个训练样本图像对应的第一样本特征,通过预设的损失函数计算第一模型损失;基于每个第一样本特征迁移得到的第二样本特征,通过预设的损失函数计算第二模型损失。将第二模型损失融合至第一模型损失中,得到最终模型损失。其中,具体的融合方式可以是,第二模型损失可以乘以一个预设的权重系数,所得结果与第一模型损失相加,得到最终模型损失。
最后,根据上述最终模型损失,以反向传播的方式更新网络模型的参数,从而实现对网络模型的训练。
实施例六:
对应于上述方法实施例,参见图6所示的一种深度学习任务处理装置的结构意图,该装置包括:
对象特征提取模块60,用于获取待处理对象,将待处理对象输入至预先训练完成的网络模型中,输出待处理对象对应的特征数据;
深度学习任务处理模块62,用于基于特征数据,完成预设的深度学习任务;
其中,网络模型根据第一样本特征和第二样本特征训练得到;预设的训练样本输入至网络模型后,网络模型输出第一样本特征;第一样本特征经预设的映射矩阵映射后,得到第二样本特征;映射矩阵根据第一样本特征对应的训练样本的类别标签和预设的目标类别确定。
上述深度学习任务处理装置,用于提取待处理对象的特征数据的网络模型,根据第一样本特征和第二样本特征训练得到;其中的第一样本特征,由预设的训练样本输入至网络模型后,网络模型输出该第一样本特征;根据第一样本特征对应的训练样本的类别标签和预设的目标类别确定映射矩阵,该第一样本特征经预设的映射矩阵映射后,得到第二样本特征;该方式中,基于映射矩阵可以将训练样本的类别标签所对应的第一样本特征,映射得到目标类别对应的第二样本特征,从而增加了目标类别的特征数据,该方式可以在特征归一化的情况下,实现了在特征层面的数据增强,有利于从整体上提高网络训练的精确度。
进一步的,上述装置还包括训练模块,该训练模块具体通过下述方式训练得到:将预设的多个训练样本输入至网络模型中,输出每个训练样本对应的第一样本特征;其中,每个训练样本携带有该训练样本的类别标签;针对每个训练样本,从预设的备选类别中确定目标类别;根据目标类别和该训练样本的类别标签,确定映射矩阵;根据映射矩阵和该训练样本对应的第一样本特征,确定该训练样本的第二样本特征;根据每个训练样本的第一样本特征和第二样本特征,确定损失值,根据损失值训练网络模型。
进一步的,上述训练模块还用于确定映射矩阵:映射矩阵 其中,A为映射矩阵;I为预设的单位矩阵;ni=μi;μi为该训练样本的类别标签的特征向量几何中心;/>为ni的转置;μj为目标类别的特征向量几何中心;/>为μj的转置;‖‖2代表二次范数;α为该训练样本的类别标签的特征向量几何中心与目标类别的特征向量几何中心之间的旋转角;
进一步的,上述训练模块还用于确定该训练样本的第二样本特征:该训练样本的第二样本特征其中,/>为该训练样本的第二样本特征;xi为该训练样本对应的第一样本特征;A为映射矩阵。
进一步的,上述训练模块还用于确定损失值:损失值loss=L(X,Y)+
λL(Xgen,Ygen)其中,loss为损失值;L()为预设的损失函数;X为每个训练样本的第一样本特征,Y为每个训练样本的类别标签;λ为预设的权重系数;Xgen为每个训练样本的第二样本特征;Ygen为每个训练样本对应的目标类别。
进一步地,上述备选类别包括多种;每个训练样本对应的类别标签,属于备选类别中的一种;上述装置还包括更新模块,用于:根据每个训练样本对应的第一样本特征,更新每种备选类别的特征向量几何中心。
进一步地,上述更新模块还用于:针对每种备选类别,确定该备选类别的特征向量几何中心的更新量基于更新量,更新该备选类别的特征向量几何中心;其中,k为第k个备选类别;Δμk代表第k个备选类别的特征向量几何中心的更新量;m为训练样本的总量;i代表第i个训练样本;δ()为预设的指示函数,当yi=k为真时,δ()函数的取值为1,当yi=k为假时,δ()函数的取值为0;yi为第i个训练样本的类别标签;μk为第k个备选类别的特征向量几何中心;xi为第i个训练样本的第一样本特征。
进一步地,上述更新模块还用于:针对每种备选类别,该备选类别更新后的特征向量几何中心μk’=μk+Δμk。
进一步地,上述装置还包括样本确定模块,用于:基于预设的训练样本集合,确定多个训练样本;上述装置还包括迭代模块,用于:继续执行基于预设的训练样本集合,确定多个训练样本的步骤,直至迭代次数满足预设的次数阈值。
参见图7所示的一种图像识别任务处理装置的结构示意图,该装置包括:
图像特征提取模块70,用于获取待处理图像,将待处理图像输入至预先训练完成的网络模型中,输出待处理图像对应的特征数据;
图像识别任务处理模块72,用于基于特征数据,完成预设的图像识别任务;
其中,网络模型根据第一样本特征和第二样本特征训练得到;预设的训练样本图像输入至网络模型后,网络模型输出第一样本特征;第一样本特征经预设的映射矩阵映射后,得到第二样本特征;映射矩阵根据第一样本特征对应的训练样本图像的类别标签和预设的目标类别确定。
本发明实施例还提供一种电子系统,电子系统包括:图像采集设备、处理设备和存储装置;图像采集设备,用于获取预览视频帧或图像数据;存储装置上存储有计算机程序,计算机程序在被处理设备运行时执行如上述深度学习任务处理方法。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理设备运行时执行如上述深度学习任务处理方法的步骤。
本发明实施例所提供的深度学习任务处理方法、装置以及电子系统的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (14)
1.一种深度学习任务处理方法,其特征在于,所述方法包括:
获取待处理对象,将所述待处理对象输入至预先训练完成的网络模型中,输出所述待处理对象对应的特征数据;
基于所述特征数据,完成预设的深度学习任务;
其中,所述网络模型的训练过程包括:根据第一样本特征和第二样本特征,确定损失值,根据所述损失值训练所述网络模型;预设的多个训练样本输入至所述网络模型后,所述网络模型输出每个所述训练样本对应的所述第一样本特征;所述第一样本特征经预设的映射矩阵映射后,得到所述第二样本特征;所述映射矩阵根据所述第一样本特征对应的训练样本的类别标签和预设的目标类别的特征分布的均值所确定的。
2.根据权利要求1所述的方法,其特征在于,所述网络模型具体通过下述方式训练得到:
将预设的多个训练样本输入至所述网络模型中,输出每个所述训练样本对应的第一样本特征;其中,每个所述训练样本携带有该训练样本的类别标签;
针对每个所述训练样本,从预设的备选类别中确定目标类别;根据所述目标类别和该训练样本的类别标签,确定映射矩阵;根据所述映射矩阵和该训练样本对应的第一样本特征,确定该训练样本的第二样本特征;
根据每个所述训练样本的第一样本特征和第二样本特征,确定损失值,根据所述损失值训练所述网络模型。
3.根据权利要求2所述的方法,其特征在于,根据所述目标类别和该训练样本的类别标签,确定映射矩阵的步骤,包括:
所述映射矩阵
其中,A为所述映射矩阵;I为预设的单位矩阵;ni=μi;μi为该训练样本的类别标签的特征向量几何中心;为所述ni的转置;/> μj为所述目标类别的特征向量几何中心;/>为所述μj的转置;‖‖2代表二次范数;α为该训练样本的类别标签的特征向量几何中心与所述目标类别的特征向量几何中心之间的旋转角;/>
4.根据权利要求2所述的方法,其特征在于,根据所述映射矩阵和该训练样本对应的第一样本特征,确定该训练样本的第二样本特征的步骤,包括:
该训练样本的第二样本特征
其中,为该训练样本的第二样本特征;xi为该训练样本对应的第一样本特征;A为所述映射矩阵。
5.根据权利要求2所述的方法,其特征在于,根据每个所述训练样本的第一样本特征和第二样本特征,确定损失值的步骤,包括:
所述损失值loss=L(X,Y)+λL(Xgen,Ygen);
其中,loss为所述损失值;L()为预设的损失函数;X为每个所述训练样本的第一样本特征,Y为每个所述训练样本的类别标签;λ为预设的权重系数;Xgen为每个所述训练样本的第二样本特征;Ygen为每个所述训练样本对应的目标类别。
6.根据权利要求2所述的方法,其特征在于,所述备选类别包括多种;每个所述训练样本对应的类别标签,属于所述备选类别中的一种;
所述根据所述映射矩阵和该训练样本对应的第一样本特征,确定该训练样本的第二样本特征的步骤之后,所述方法还包括:根据每个所述训练样本对应的第一样本特征,更新每种所述备选类别的特征向量几何中心。
7.根据权利要求6所述的方法,其特征在于,根据每个所述训练样本对应的第一样本特征,更新每种所述备选类别的特征向量几何中心的步骤,包括:
针对每种备选类别,确定该备选类别的特征向量几何中心的更新量
基于所述更新量,更新该备选类别的特征向量几何中心;
其中,k为第k个备选类别;Δμk代表第k个备选类别的特征向量几何中心的更新量;m为所述训练样本的总量;i代表第i个训练样本;δ()为预设的指示函数,当yi=k为真时,δ()函数的取值为1,当yi=k为假时,δ()函数的取值为0;yi为第i个训练样本的类别标签;μk为第k个备选类别的特征向量几何中心;xi为第i个训练样本的第一样本特征。
8.根据权利要求7所述的方法,其特征在于,基于所述更新量,更新该备选类别的特征向量几何中心的步骤,包括:
针对每种备选类别,该备选类别更新后的特征向量几何中心μk’=μk+Δμk。
9.根据权利要求2-8任一项所述的方法,其特征在于,将预设的多个训练样本输入至所述网络模型中的步骤之前,所述方法还包括:基于预设的训练样本集合,确定多个训练样本;
根据所述损失值训练所述网络模型的步骤之后,所述方法还包括:继续执行基于预设的训练样本集合,确定多个训练样本的步骤,直至迭代次数满足预设的次数阈值。
10.一种图像识别任务处理方法,其特征在于,所述方法包括:
获取待处理图像,将所述待处理图像输入至预先训练完成的网络模型中,输出所述待处理图像对应的特征数据;
基于所述特征数据,完成预设的图像识别任务;
其中,所述网络模型的训练过程包括:根据第一样本特征和第二样本特征,确定损失值,根据所述损失值训练所述网络模型;预设的多个训练样本图像输入至所述网络模型后,所述网络模型输出每个所述训练样本对应的所述第一样本特征;所述第一样本特征经预设的映射矩阵映射后,得到所述第二样本特征;所述映射矩阵根据所述第一样本特征对应的训练样本图像的类别标签和预设的目标类别的特征分布的均值所确定的。
11.一种深度学习任务处理装置,其特征在于,所述装置包括:
对象特征提取模块,用于获取待处理对象,将所述待处理对象输入至预先训练完成的网络模型中,输出所述待处理对象对应的特征数据;
深度学习任务处理模块,用于基于所述特征数据,完成预设的深度学习任务;
其中,所述网络模型的训练过程包括:根据第一样本特征和第二样本特征,确定损失值,根据所述损失值训练所述网络模型;预设的多个训练样本输入至所述网络模型后,所述网络模型输出每个所述训练样本对应的所述第一样本特征;所述第一样本特征经预设的映射矩阵映射后,得到所述第二样本特征;所述映射矩阵根据所述第一样本特征对应的训练样本的类别标签和预设的目标类别的特征分布的均值所确定的。
12.一种图像识别任务处理装置,其特征在于,所述装置包括:
图像特征提取模块,用于获取待处理图像,将所述待处理图像输入至预先训练完成的网络模型中,输出所述待处理图像对应的特征数据;
图像识别任务处理模块,用于基于所述特征数据,完成预设的图像识别任务;
其中,所述网络模型的训练过程包括:根据第一样本特征和第二样本特征,确定损失值,根据所述损失值训练所述网络模型;预设的多个训练样本图像输入至所述网络模型后,所述网络模型输出每个所述训练样本对应的所述第一样本特征;所述第一样本特征经预设的映射矩阵映射后,得到所述第二样本特征;所述映射矩阵根据所述第一样本特征对应的训练样本图像的类别标签和预设的目标类别的特征分布的均值所确定的。
13.一种电子系统,其特征在于,所述电子系统包括:图像采集设备、处理设备和存储装置;
所述图像采集设备,用于获取预览视频帧或图像数据;
所述存储装置上存储有计算机程序,所述计算机程序在被所述处理设备运行时执行如权利要求1至9任一项所述的深度学习任务处理方法,或者权利要求10所述的一种图像识别任务处理方法的步骤。
14.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理设备运行时执行如权利要求1至9任一项所述的深度学习任务处理方法的步骤,或者权利要求10所述的一种图像识别任务处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010155364.2A CN111382791B (zh) | 2020-03-07 | 2020-03-07 | 深度学习任务处理方法、图像识别任务处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010155364.2A CN111382791B (zh) | 2020-03-07 | 2020-03-07 | 深度学习任务处理方法、图像识别任务处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111382791A CN111382791A (zh) | 2020-07-07 |
CN111382791B true CN111382791B (zh) | 2023-12-26 |
Family
ID=71219943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010155364.2A Active CN111382791B (zh) | 2020-03-07 | 2020-03-07 | 深度学习任务处理方法、图像识别任务处理方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111382791B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329915A (zh) * | 2020-10-27 | 2021-02-05 | 上海眼控科技股份有限公司 | 模型训练方法、装置、计算机设备和存储介质 |
CN112926621B (zh) * | 2021-01-21 | 2024-05-10 | 百度在线网络技术(北京)有限公司 | 数据标注方法、装置、电子设备及存储介质 |
CN112801221B (zh) * | 2021-03-24 | 2023-12-22 | 平安科技(深圳)有限公司 | 一种数据分类方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104700078A (zh) * | 2015-02-13 | 2015-06-10 | 武汉工程大学 | 一种基于尺度不变特征极限学习机的机器人场景识别方法 |
CN107766809A (zh) * | 2017-10-09 | 2018-03-06 | 平安科技(深圳)有限公司 | 电子装置、票据信息识别方法和计算机可读存储介质 |
WO2018120740A1 (zh) * | 2016-12-29 | 2018-07-05 | 深圳光启合众科技有限公司 | 图片分类方法和装置、机器人 |
CN109508655A (zh) * | 2018-10-28 | 2019-03-22 | 北京化工大学 | 基于孪生网络的不完备训练集的sar目标识别方法 |
CN109871896A (zh) * | 2019-02-26 | 2019-06-11 | 北京达佳互联信息技术有限公司 | 数据分类方法、装置、电子设备及存储介质 |
CN110197218A (zh) * | 2019-05-24 | 2019-09-03 | 绍兴达道生涯教育信息咨询有限公司 | 基于多源卷积神经网络的雷雨大风等级预测分类方法 |
CN110210555A (zh) * | 2019-05-29 | 2019-09-06 | 西南交通大学 | 基于深度学习的钢轨鱼鳞伤损检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6983800B2 (ja) * | 2016-03-15 | 2021-12-17 | イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ | ニューラルネットワークにおける強化学習によるユニーク/希少なケースの分類のための方法 |
CN106960219B (zh) * | 2017-03-10 | 2021-04-16 | 百度在线网络技术(北京)有限公司 | 图片识别方法及装置、计算机设备及计算机可读介质 |
-
2020
- 2020-03-07 CN CN202010155364.2A patent/CN111382791B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104700078A (zh) * | 2015-02-13 | 2015-06-10 | 武汉工程大学 | 一种基于尺度不变特征极限学习机的机器人场景识别方法 |
WO2018120740A1 (zh) * | 2016-12-29 | 2018-07-05 | 深圳光启合众科技有限公司 | 图片分类方法和装置、机器人 |
CN107766809A (zh) * | 2017-10-09 | 2018-03-06 | 平安科技(深圳)有限公司 | 电子装置、票据信息识别方法和计算机可读存储介质 |
CN109508655A (zh) * | 2018-10-28 | 2019-03-22 | 北京化工大学 | 基于孪生网络的不完备训练集的sar目标识别方法 |
CN109871896A (zh) * | 2019-02-26 | 2019-06-11 | 北京达佳互联信息技术有限公司 | 数据分类方法、装置、电子设备及存储介质 |
CN110197218A (zh) * | 2019-05-24 | 2019-09-03 | 绍兴达道生涯教育信息咨询有限公司 | 基于多源卷积神经网络的雷雨大风等级预测分类方法 |
CN110210555A (zh) * | 2019-05-29 | 2019-09-06 | 西南交通大学 | 基于深度学习的钢轨鱼鳞伤损检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111382791A (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106897658B (zh) | 人脸活体的鉴别方法和装置 | |
CN109829448B (zh) | 人脸识别方法、装置及存储介质 | |
WO2021036059A1 (zh) | 图像转换模型训练方法、异质人脸识别方法、装置及设备 | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
CN111382791B (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
CN110222573B (zh) | 人脸识别方法、装置、计算机设备及存储介质 | |
CN109583449A (zh) | 字符识别方法及相关产品 | |
CN111597884A (zh) | 面部动作单元识别方法、装置、电子设备及存储介质 | |
CN111754396B (zh) | 脸部图像处理方法、装置、计算机设备和存储介质 | |
CN111444826B (zh) | 视频检测方法、装置、存储介质及计算机设备 | |
US11126827B2 (en) | Method and system for image identification | |
CN112001932B (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
CN111401521B (zh) | 神经网络模型训练方法及装置、图像识别方法及装置 | |
CN112419170A (zh) | 遮挡检测模型的训练方法及人脸图像的美化处理方法 | |
CN104680119A (zh) | 图像身份识别方法和相关装置及身份识别系统 | |
CN111667001B (zh) | 目标重识别方法、装置、计算机设备和存储介质 | |
CN113449704B (zh) | 人脸识别模型训练方法、装置、电子设备及存储介质 | |
CN111222433B (zh) | 自动人脸稽核方法、系统、设备及可读存储介质 | |
CN108509994B (zh) | 人物图像聚类方法和装置 | |
CN112395979A (zh) | 基于图像的健康状态识别方法、装置、设备及存储介质 | |
CN112836625A (zh) | 人脸活体检测方法、装置、电子设备 | |
CN115050064A (zh) | 人脸活体检测方法、装置、设备及介质 | |
CN111553838A (zh) | 模型参数的更新方法、装置、设备及存储介质 | |
CN113298158A (zh) | 数据检测方法、装置、设备及存储介质 | |
CN111340213A (zh) | 神经网络的训练方法、电子设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |