CN111553428B - 用于训练判别模型的方法、装置、设备及可读存储介质 - Google Patents
用于训练判别模型的方法、装置、设备及可读存储介质 Download PDFInfo
- Publication number
- CN111553428B CN111553428B CN202010360406.6A CN202010360406A CN111553428B CN 111553428 B CN111553428 B CN 111553428B CN 202010360406 A CN202010360406 A CN 202010360406A CN 111553428 B CN111553428 B CN 111553428B
- Authority
- CN
- China
- Prior art keywords
- class
- intra
- loss function
- distance
- inter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 92
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000006870 function Effects 0.000 claims description 154
- 230000015654 memory Effects 0.000 claims description 19
- 238000005065 mining Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 9
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 6
- 210000000214 mouth Anatomy 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 210000000697 sensory organ Anatomy 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 210000005069 ears Anatomy 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了用于训练判别模型的方法、装置、电子设备及计算机可读存储介质,涉及人工智能技术领域。该方法的一具体实施方式包括:根据已知所属类别的图像特征数据确定每个类别的类中心;根据类中心进一步确定类内距离和类间距离;根据类内距离和类间距离来构建目标损失函数,并基于该目标损失函数训练得到图像类别判别模型。该实施方式基于由类中心确定出的类内距离和类间距离构建了新的损失函数,基于新的损失函数对原始判别模型的训练,可使得最终训练出的图像类别判别模型可以充分考虑到类内紧致程度和类间区别程度,从而尽可能的缩小类内距离、增大类间距离,提升图像类别判别模型判别出的待判别图像数据所属类别的准确性。
Description
技术领域
本申请实施例涉及数据分类技术领域,尤其涉及人工智能技术领域。
背景技术
一个物体在不同场景、不同角度下分别拍摄得到的图像,应当被计算机识别为相同的物体,或者属于相同的类别,才能够在后续处理中得到准确的结论,该技术广泛应用于人脸、车牌及车辆的跨场景识别方面。
为实现该目的,现有技术往往基于交叉熵损失函数和难样本挖掘三元组损失函数来训练得到判别模型,并基于训练得到的判别模型来完成对待判别数据所属类别的判断。
发明内容
本申请实施例提出了一种用于训练判别模型的方法、装置、电子设备及计算机可读存储介质。
第一方面,本申请实施例提出了一种用于训练判别模型的方法,包括:根据已知所属类别的图像特征数据确定每个类别的类中心;根据类中心确定类内距离和类间距离;根据类内距离和类间距离构建目标损失函数,并基于目标损失函数训练得到图像类别判别模型。
第二方面,本申请实施例提出了一种用于训练判别模型的装置,包括:类中心确定单元,被配置成根据已知所属类别的图像特征数据确定每个类别的类中心;类内/类间距离确定单元,被配置成根据类中心确定类内距离和类间距离;损失函数构建及训练单元,被配置成根据类内距离和类间距离构建目标损失函数,并基于目标损失函数训练得到图像类别判别模型。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,该指令被至少一个处理器执行,以使至少一个处理器执行时能够实现如第一方面中任一实现方式描述的用于训练判别模型的方法。
第四方面,本申请实施例提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行时能够实现如第一方面中任一实现方式描述的用于训练判别模型的方法。
本申请实施例提供的用于训练判别模型的方法、装置、电子设备及计算机可读存储介质,首先,根据已知所属类别的图像特征数据确定每个类别的类中心;接着,根据类中心进一步确定类内距离和类间距离;然后,根据类内距离和类间距离来构建目标损失函数,并基于该目标损失函数训练得到图像类别判别模型。相较于现有技术所使用的交叉熵损失函数和难样本挖掘三元组损失函数,本申请基于由类中心确定出的类内距离和类间距离构建了新的损失函数,基于新的损失函数对原始判别模型的训练,可使得最终训练出的图像类别判别模型可以充分考虑到类内紧致程度和类间区别程度,从而尽可能的缩小类内距离、增大类间距离,提升图像类别判别模型判别出的待判别图像数据所属类别的准确性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构;
图2是根据本申请的用于训练判别模型的方法的一个实施例的流程图;
图3是图2所示实施例中根据类内距离和类间距离构建目标损失函数的一个实施例的流程图;
图4是根据本申请的用于训练判别模型的方法的一个应用场景的流程图;
图5是根据本申请的用于训练判别模型的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的用于训练判别模型的方法的电子设备的框图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于训练判别模型的方法、装置、电子设备及计算机可读存储介质的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括存储设备101、网络102和服务器103。网络102为存储设备101和服务器103之间进行数据交换的通信介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以控制服务器103与存储设备101通过网络102进行数据交互,以接收或发送消息。存储设备101和服务器103上可以安装有各种应用,例如数据存储应用、数据传输类应用、数据处理类应用等。
存储设备101可以是硬件,也可以是软件。当存储设备101为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当存储设备101为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来存储已事先标记好所属类别的图像特征数据),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器103可以是提供各种服务的服务器,以判别模型训练服务为例,服务器103可以通过网络102从存储设备101中获取已事先标记好所属类别的图像特征数据,并根据这些图像特征数据确定类中心,然后根据确定出的类中心进一步确定出类内距离和类间距离,接着根据该类内距离和该类间距离构建目标损失函数,最后基于该目标损失函数训练得到图像类别判别模型,即服务器103通过基于类中心确定出的类内距离和类间距离,构建得到目标损失函数,并使用该目标损失函数来训练得到能够充分考虑类内紧致程度和类间差异的图像类别判别模型,从而提升对后续的待判别图像特征数据所属类别的判别准确度。
需要说明的是,本申请后续各实施例所提供的用于训练判别模型的方法一般由服务器103执行,相应地,用于训练判别模型的装置一般设置于服务器105中。
需要指出的是,已知所属类别的图像特征数据不仅可以存储在存储设备101,也可以直接存储在服务器103本地。当存储设备101为运行在服务器103上的虚拟机时,示例性系统架构100也可以不包括存储设备101和网络102。
还需要指出的是,在存储设备101具有满足要求的运算能力时,提供判别模型训练服务的应用也可以安装在存储设备101中,即存储设备101也可以根据已知所属类别的图像特征数据确定类中心,然后根据确定出的类中心进一步确定出类内距离和类间距离,接着根据该类内距离和该类间距离构建目标损失函数,最后基于该目标损失函数训练得到图像类别判别模型。此时,用于训练判别模型的方法也可以由存储设备101执行,相应地,用于训练判别模型的装置也可以设置于存储设备101中。此时,示例性系统架构100也可以不包括服务器103和网络102。
需要说明的是,服务器103可以是硬件,也可以是软件。当服务器103为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供判别模型训练服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的存储设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的存储设备、网络和服务器。
继续参考图2,其示出了根据本申请的用于训练判别模型的方法的一个实施例的实现流程200,包括以下步骤:
步骤201,根据已知所属类别的图像特征数据确定每个类别的类中心。
在本实施例中,用于训练判别模型的方法的执行主体(例如图1所示的服务器103)可以从存储设备(例如图1所示的存储设备101)中获取已知所属类别的图像特征数据,并根据这些不同类别的图像特征数据确定出每个类别的类中心。
其中,图像特征数据是指从图像中提取出能够体现其某方面特征的数据,例如当图像具体为人脸图像时,提取出的图像特征数据就可以是五官的图像特征数据,对应的,其类别的划分就可以按照用户的身份来划分,即哪些五官图像特征数据来自用户A、哪些五官图像特征数据来自用户B;当图像具体为车牌图像时,提取出的图像特征数据就可以是车牌的数字图像特征数据、车牌边框图像特征数据等,对应的,其类别的划分就可以按照唯一的车牌号来划分,即哪些数字或车牌边框图像特征数据来自车牌号X、哪些数字或车牌边框图像特征数据来自车牌号Y。
进一步的,图像特征数据的类别信息可以通过多种方式体现,例如附加不同的颜色标记、不同内容的类别标记、可表述不同类别的信息标志位,也可以作为额外信息对不包含类别信息的图像特征数据进行再封装等等,可根据实际情况灵活选择。
之所以要确定出每个类别的图像特征数据的类中心,是因为以取均值得到的类中心在一定程度上能够体现该类别的图像特征数据的平均程度,基于该类中心可以较为方便的确定出同一类内各图像特征数据之间的紧致程度和不同类之间的差异大小。此外,为了便于处理,在确定类中心时,还可以将图像特征数据转换为向量或其它便于运算的形式。
在一些实施例中,大量已知所属类别的图像特征数据可以通过将图像输入原始判别模型得到,即利用原始判别模型中的特征提取部分来得到图像特征数据。
步骤202,根据类中心确定类内距离和类间距离。
在步骤201的基础上,本步骤旨在由上述执行主体根据确定出的每个类的类中心,进一步确定出每个类内的类内距离和与其它类的类间距离。
其中,类内距离表征的是类内各特征数据之间的紧致程度,即同属一类的不同特征数据之间的关联性、紧密程度、聚合性,类间距离表征的则是不同类之间的差异性、偏差度。本申请之所以要计算得到类内距离和类间距离,是因为在使用判别模型对待判别特征数据判别其具体属于哪一类时,为了提升判别出的准确率,尤其是同一物体从多个角度拍摄得到图像时,就需要尽可能的缩小类内距离和增大类间距离,其中,类内距离越小就表征同类图像特征数据之间的紧密程度越高,在判别时就越容易准确的判别出待判别图像特征数据是否属于一个已知类;同理,类间距离越大就表征不同类图像特征数据之间存在的差异越大,也就是说越容易判别出待判别图像特征数据不属于哪一个已知类。
具体的,基于类中心可通过多种方式计算得到类内距离和类间距离,例如可以采用类内方差、类内标准差、距类中心的最远距离等作为类内距离,同理,可以采用类间方差、类间标准差、两个类中心之间的距离等作为类间距离。进一步的,上述计算方式的任意一种在实际计算时也可以存在多种变种,即结合实际应用场景下所有可能影响确定出类内距离或类间距离的特殊要求,灵活的增加基础值、修正值等参数,从而在计算方式基本一致的情况下得到略有差异的类内距离值或类间距离值。
步骤203,根据类内距离和类间距离构建目标损失函数,并基于目标损失函数训练得到图像类别判别模型。
在步骤S202的基础上,本步骤旨在由上述执行主体根据类内距离和类间距离来构建目标损失函数,并利用该目标损失函数来训练得到一个充分考虑到类内紧致程度和类间差异的图像类别判别模型。其中,利用目标损失函数训练原始图像类别判别模型得到图像类别判别模型的过程,实际上是一个在逐步迭代中让损失值变得越来越小的过程,损失值越小意味着在当前的损失函数的帮助下,判别模型得出的判别结果与真实结果的准确度越高。
需要说明的是,在构建目标损失函数时,其根据类内距离和类间距离都是针对当前类而言的,当前类不同,也就会存在相应的类内距离和类间距离,因此实际上是基于当前类、当前类的类内距离、当前类与其它类的类间距离这三个元素来构建目标损失函数,也可以称为构建目标三元组损失函数。
其中,基于目标损失函数训练得到图像类别判别模型并不限定仅能单一的使用该目标损失函数来对原始图像类别判别模型进行训练,也可以同时使用其它损失函数来加强最终训练出的图像类别判别模型在其它方面的性能。例如还可以同时并列的使用包括铰链损失函数、指数损失函数、交叉熵损失函数、难样本挖掘三元组损失函数在内的其它损失函数,来共同对原始图像类别判别模型进行训练。进一步的,在同时使用多种损失函数对原始图像类别判别模型进行训练时,可通过依次使用不同的损失函数进行训练或构成一个综合损失函数的方式来实现。
一种基于加权思想来构成一个综合损失函数的方式可通过下述步骤实现:
分别确定目标损失函数、交叉熵损失函数以及难样本挖掘三元组损失函数的权值;
按加权计算法对每个损失函数使用相应的权值进行加权,得到综合损失函数;
根据综合损失函数训练得到图像类别判别模型。
上述方式以本申请通过上述步骤构建得到的目标损失函数、常用的交叉熵损失函数和难样本挖掘三元组损失函数这三个不同的损失函数为例,通过预先为其确定出的与其对最终判别结果的影响程度对应的权值,通过加权计算法得到一个综合损失函数,通过该综合损失函数,仅通过一次完整的迭代训练即可完成对原始图像类别判别模型的训练。相较于对原始图像类别判别模型依次进行多次完整迭代训练的方式,可有效提升训练效率。
进一步的,考虑到即使构成了一个综合的损失函数,在迭代训练过程中,不同部分对训练效果的影响程度是不同的,因此为了尽可能的提升训练出的图像类别判别模型的判别准确度,还可以在训练过程中动态的调整不同损失函数在参与构成综合损失函数时的权值。仍以目标损失函数、交叉熵损失函数和难样本挖掘三元组损失函数这三个为例,在训练过程中,假设目标损失函数的损失值相较于其它两个变小的较快,因为损失值越小也就意味着其对最终训练效果的影响越小,若始终保持初始的权值至训练结束明显不合适,因此就可以按照与训练进度对应的当前损失值来动态的调整权值,例如分别获取目标损失函数、交叉熵损失函数以及难样本挖掘三元组损失函数的当前损失值,并按正比关系确定与当前损失值对应的权值,即当前损失值越小,权值越小,从而基于动态的权值实时调整综合损失函数。
进一步的,后续可通过下述步骤来使用训练好的图像类别判别模型,最终得到更准确的所属类别的判别结果:
获取待判别图像数据;
利用图像类别判别模型判别待判别图像数据所属的类别。
相较于现有技术所使用的交叉熵损失函数和难样本挖掘三元组损失函数,本申请实施例提供的用于训练判别模型的方法,基于由类中心确定出的类内距离和类间距离构建了新的损失函数,基于新的损失函数对原始判别模型的训练,可使得最终训练出的图像类别判别模型可以充分考虑到类内紧致程度和类间区别程度,从而尽可能的缩小类内距离、增大类间距离,提升图像类别判别模型判别出的待判别图像数据所属类别的准确性
在上述实施例的基础上,本申请还针对图2所示流程200中的步骤202,通过图3提供了一种根据类中心确定类内距离和类间距离的方法的流程300,主要针对当每个类别的图像特征数据由分属多个子类的图像子特征数据共同构成的情况,例如人脸图像特征数据由五官5个子类的图像子特征数据共同构成,又例如车牌图像特征数据由数字图像特征数据、车牌边框图像特征数据、细节图像特征数据三类共同构成,包括如下步骤:
步骤301,根据子类的图像子特征数据确定子类中心。
本步骤旨在有上述执行主体根据子类的图像子特征数据确定子类中心,以五官5个子类的图像子特征数据共同构成人脸图像特征数据为例,共存在眉、眼、耳、鼻、口5个子类,对于“口”这个子类而言,就是根据所有属于“口”这个子类的图像子特征数据确定“口”这个子类的子类中心。该子类中心的确定方式也可以与确定类中心的方式相同,即通过取均值的方式得到。同理,为了方便运算,也可以预先将其转换为向量或其它便于运算的形式。
步骤302,根据子类中心计算子类内方差。
在步骤301的基础上,本步骤旨在由上述执行主体根据子类中心计算子类内方差,类内方差的计算方式与传统计算方差的方式相同,区别为期望值为类中心、实际值为该子类的各图像子特征数据。
步骤303,根据子类内方差确定类内距离的初始值。
在步骤302的基础上,本步骤旨在由上述执行主体根据大类包含的子类的子类内方差确定出表征该大类的类内距离的初始值。
具体的,在根据子类内方差确定类内距离的初始值时,可以根据该大类的包含的所有子类的子类方差来确定该大类的类内距离的初始值,也可以从中选取几个具有代表性、具有较明显区别度的子类的子类内方差。以人脸图像特征数据中包含的眉、眼、耳、鼻、口5个子类为例,假定其中“眉”、“耳”这两个子类的区分程度不高,因此就可以仅基于“眼”、“鼻”、“口”这个三子类的类内方差来确定其类内距离的初始值,从而提升运算效率。
一种包括但不限于的具体实现方式包括:
将分别与每个子类对应的子类内方差中方差值较大的前K个子类方差选作目标子类方差;其中,K的数量小于所述子类的数量;
将各目标子类方差的和作为类别的类内距离的初始值。
应当理解的是,方差值越大也就表示这个子类中的各特征数据之间的紧密程度越弱,相互之间的差异越明显,因此可以基于方差值的大小来确定选取标准。
步骤304,根据不同类别的类中心间距确定类间距离的初始值。
本步骤旨在由上述执行主体根据不同类别的类中心间距确定类间距离的初始值。具体的,在没有其它要求的情况下,可以将当前类与任意一个其它类的类中心间距确定为类间距离的初始值,也可以将当前类与所有其它类的类中心间距的均值确定为类间距离的初始值。
为了尽可能的提升基于构建出的目标损失函数训练出的图像类别判别模型在近似度较高的两类之间的判别准确度,可以优选将当前类与距当前类最近的一个类的类中心间距作为类间距离的初始值,即将最近类中心间距作为类间距离的初始值。
步骤305,根据类内距离的初始值和类间距离的初始值构建目标损失函数。
在步骤303和步骤304的基础上,本步骤旨在由上述执行主体根据类内距离的初始值和类间距离的初始值构建目标损失函数。
基于初始值构建出的目标损失函数后续还将在训练过程中逐渐变化、调整,最终完成训练。初始值选取的越好将有助于缩短训练过程和优化训练结果。
如图2所示流程200中的步骤202,本实施例如图3所示的流程300针对每个大类的图像特征数据具体由分属多个子类的图像子特征数据共同构成的情况,提供了一种具体的实现方式,更加贴近实际情况。
应当理解的是,上述步骤301至步骤303提供的确定类内距离的初始值的部分,和步骤304提供的确定类间距离的初始值的部分,并不一定要按照流程300所示的步骤依次进行,由于两部分完全不存在依赖关系,因此完全可以并列、同步执行。
同时,由于本实施例仅是对流程200中的步骤202提供的一种下位方案,整个方案中的其它步骤仍得到保留。
进一步的,在根据类内距离的初始值和类间距离的初始值构建得到目标损失函数之前,还可以判断类内距离的初始值是否小于预设阈值,并在不小于预设阈值时,及时调整类内距离的初始值,直至其小于该预设阈值。即此处对将作为类内距离的初始值去构建目标损失函数的实际值的大小进行判断,该预设阈值可根据长期的经验确定得到,用于判别初始值是否合适,若不合适则可以通过多种方式来指导调整初始值,例如根据原始图像类别判别模型的相关参数、训练中的判别模型的参数等,以通过及时的调整尽可能的避免做无用功。
为加深理解,本申请还结合一个具体应用场景,给出了一种具体的实现方案,请参见如图4所示的流程400,流程400所处的应用场景为:对拍摄得到的人脸图像判断具体属于哪个用户。
如图4所示的流程400包括如下步骤:
步骤401,根据已知所属类别的人脸图像特征数据确定每个用户类别的类中心;
步骤402,根据人脸上的五官确定出5个子类,分别根据每个子类的人脸图像特征数据确定出5个子类中心;
步骤403,根据5个子类中心对应计算得到5个子类内方差;
步骤404,将5个子类内方差中出方差值排在前3的作为目标子类内方差;
步骤405,将3个目标子类内方差的和作为类内距离的初始值;
步骤406,将最近类中心间距作为类间距离的初始值;
步骤407,根据类内距离的初始值和类间距离的初始值构建目标损失函数;
步骤408:基于目标损失函数、交叉熵损失函数、难样本挖掘三元组损失函数训练得到用户人脸识别模型;
其中,交叉熵损失函数和难样本挖掘三元组损失函数可通过下述方式构建得到:首先使用在ImageNet(用于视觉对象识别软件研究的大型可视化数据库)上预训练的模型提取人脸图像中五官的基础特征,并使用全局池化操作得到卷积神经网络特征;在得到卷积神经网络特征之后,经过全连接层以及softmax(一种分类函数)层,与图片标签计算交叉熵损失函数;对当前批数据上每个样本来说,选定与其距离最远的正样本以及与其距离最近的负样本,组成三元组,并计算加上间隔之后正负样本对之间的距离差,作为难样本挖掘三元组损失函数的值。
步骤409:利用用户人脸识别模型判别待识别人脸图像所属的用户。
本实施例针对用户人脸识别这一场景,结合上述技术方案给出了适配这一场景的一种具体实现方案,具有较高的可实现性。
类似的,上述方案可以经适应性调整后使用在车牌识别领域。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于训练判别模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于训练判别模型的装置500可以包括:类中心确定单元501、类内/类间距离确定单元502、损失函数构建及训练单元503。其中,类中心确定单元501,被配置成根据已知所属类别的图像特征数据确定每个类别的类中心;类内/类间距离确定单元502,被配置成根据类中心确定类内距离和类间距离;损失函数构建及训练单元503,被配置成根据类内距离和类间距离构建目标损失函数,并基于目标损失函数训练得到图像类别判别模型。
在本实施例中,用于被配置成根据类内距离和类间距离构建目标损失函数,并基于目标损失函数训练得到图像类别判别模型:类中心确定单元501、类内/类间距离确定单元502、损失函数构建及训练单元503的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201-203的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,当每个类别的图像特征数据由分属多个子类的图像子特征数据共同构成时,类内/类间距离确定单元502可以包括:子类中心确定子单元,被配置成根据子类的图像子特征数据确定子类中心;子类内方差计算子单元,被配置成根据子类中心计算子类内方差;类内距离初始值确定子单元,被配置成根据子类内方差确定类内距离的初始值;类间距离初始值确定子单元,被配置成根据不同类别的类中心间距确定类间距离的初始值;目标损失函数构建子单元,被配置成根据类内距离的初始值和类间距离的初始值构建目标损失函数。
在本实施例的一些可选的实现方式中,类内距离初始值确定子单元可以进一步被配置成:将分别与每个子类对应的子类内方差中方差值较大的前K个子类方差选作目标子类方差;其中,K的数量小于子类的数量;将各目标子类方差的和作为类别的类内距离的初始值。
在本实施例的一些可选的实现方式中,类间距离初始值确定子单元可以进一步被配置成:将最近类中心间距作为类间距离的初始值。
在本实施例的一些可选的实现方式中,用于训练判别模型的装置500还可以包括:判断单元,被配置成在根据类内距离的初始值和类间距离的初始值构建得到目标损失函数之前,判断类内距离的初始值是否小于预设阈值;调整单元,被配置成若不小于预设阈值,则调整类内距离的初始值。
在本实施例的一些可选的实现方式中,损失函数构建及训练单元300可以包括:三损失函数综合训练子单元,被配置成基于目标损失函数、交叉熵损失函数和难样本挖掘三元组损失函数训练得到图像类别判别模型。
在本实施例的一些可选的实现方式中,三损失函数综合训练子单元包括:权值确定模块,被配置成分别确定目标损失函数、交叉熵损失函数以及难样本挖掘三元组损失函数的权值;加权模块,被配置成按加权计算法对每个损失函数使用相应的权值进行加权,得到综合损失函数;训练模块,被配置成根据综合损失函数训练得到图像类别判别模型。
在本实施例的一些可选的实现方式中,权值确定模块进一步被配置成:分别获取目标损失函数、交叉熵损失函数以及难样本挖掘三元组损失函数的当前损失值;按正比关系确定与当前损失值对应的权值。
在本实施例的一些可选的实现方式中,用于训练判别模型的装置500还可以包括:待判别图像数据获取单元,被配置成获取待判别图像数据;所属类别判别单元,被配置成利用图像类别判别模型判别待判别图像数据所属的类别。
本实施例作为对应于上述方法实施例的装置实施例存在,本实施例提供的用于训练判别图像的装置基于由类中心确定出的类内距离和类间距离构建了新的损失函数,基于新的损失函数对原始判别模型的训练,可使得最终训练出的图像类别判别模型可以充分考虑到类内紧致程度和类间区别程度,从而尽可能的缩小类内距离、增大类间距离,从而提升图像类别判别模型判别出的待判别图像数据所属类别的准确性。
根据本申请的实施例,本申请还提供了一种电子设备和一种计算机可读存储介质。
如图6所示,是根据本申请实施例的用于训练判别模型的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的用于训练判别模型的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的用于训练判别模型的方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的用于训练判别模型的方法对应的程序指令/模块(例如,附图5所示的类中心确定单元501、类内/类间距离确定单元502、损失函数构建及训练单元503)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的用于训练判别模型的方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储用于训练判别模型的电子设备在使用时所创建的各类数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至用于训练判别模型的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
用于训练判别模型的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生用于训练判别模型的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案可以看出,本申请基于由类中心确定出的类内距离和类间距离构建了新的损失函数,基于新的损失函数对原始判别模型的训练,可使得最终训练出的图像类别判别模型可以充分考虑到类内紧致程度和类间区别程度,从而尽可能的缩小类内距离、增大类间距离,从而提升图像类别判别模型判别出的待判别图像数据所属类别的准确性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (16)
1.一种用于训练判别模型的方法,包括:
根据已知所属类别的图像特征数据确定每个类别的类中心;
根据所述类中心确定类内距离和类间距离,其中,采用类内方差计算所述类内距离,采用类间方差计算所述类间距离,当每个类别包括多个子类时,选取每个所述子类对应的子类内方差中方差值较大的前K个子类方差计算所述类内距离,以及选取最近类中心间距计算所述类间距离;
根据所述类内距离和所述类间距离构建目标损失函数,并基于所述目标损失函数训练得到图像类别判别模型;
其中,基于所述目标损失函数训练得到图像类别判别模型,包括:
分别确定所述目标损失函数、交叉熵损失函数以及难样本挖掘三元组损失函数的权值,其中,在迭代训练过程中,按照与训练进度对应的当前损失值动态的调整不同损失函数在参与构成综合损失函数时的权值;
按加权计算法对每个损失函数使用相应的权值进行加权,得到综合损失函数;
根据所述综合损失函数训练得到所述图像类别判别模型。
2.根据权利要求1所述的方法,其中,当每个类别的图像特征数据由分属多个子类的图像子特征数据共同构成时,根据所述类内距离和所述类间距离构建目标损失函数,包括:
根据所述子类的图像子特征数据确定子类中心;
根据所述子类中心计算子类内方差;
根据所述子类内方差确定所述类内距离的初始值;
根据不同类别的类中心间距确定所述类间距离的初始值;
根据所述类内距离的初始值和所述类间距离的初始值构建所述目标损失函数。
3.根据权利要求2所述的方法,其中,根据所述子类内方差确定所述类内距离的初始值,包括:
将分别与每个所述子类对应的子类内方差中方差值较大的前K个子类方差选作目标子类方差;其中,K的数量小于所述子类的数量;
将各所述目标子类方差的和作为所述类别的类内距离的初始值。
4.根据权利要求2所述的方法,其中,根据不同类别的类中心间距确定所述类间距离的初始值,包括:
将最近类中心间距作为所述类间距离的初始值。
5.根据权利要求1所述的方法,其中,在根据所述类内距离的初始值和所述类间距离的初始值构建得到目标损失函数之前,还包括:
判断所述类内距离的初始值是否小于预设阈值;
若不小于所述预设阈值,则调整所述类内距离的初始值。
6.根据权利要求1所述的方法,其中,分别确定所述目标损失函数、所述交叉熵损失函数以及所述难样本挖掘三元组损失函数的权值,包括:
分别获取所述目标损失函数、所述交叉熵损失函数以及所述难样本挖掘三元组损失函数的当前损失值;
按正比关系确定与所述当前损失值对应的权值。
7.根据权利要求要求1至6任一项所述的方法,还包括:
获取待判别图像数据;
利用所述图像类别判别模型判别所述待判别图像数据所属的类别。
8.一种用于训练判别模型的装置,包括:
类中心确定单元,被配置成根据已知所属类别的图像特征数据确定每个类别的类中心;
类内/类间距离确定单元,被配置成根据所述类中心确定类内距离和类间距离,其中,采用类内方差计算所述类内距离,采用类间方差计算所述类间距离,当每个类别包括多个子类时,选取每个所述子类对应的子类内方差中方差值较大的前K个子类方差计算所述类内距离,以及选取最近类中心间距计算所述类间距离;
损失函数构建及训练单元,被配置成根据所述类内距离和所述类间距离构建目标损失函数,并基于所述目标损失函数训练得到图像类别判别模型;
其中,所述损失函数构建及训练单元包括:
权值确定模块,被配置成分别确定所述目标损失函数、交叉熵损失函数以及难样本挖掘三元组损失函数的权值,其中,在迭代训练过程中,按照与训练进度对应的当前损失值动态的调整不同损失函数在参与构成综合损失函数时的权值;
加权模块,被配置成按加权计算法对每个损失函数使用相应的权值进行加权,得到综合损失函数;
训练模块,被配置成根据所述综合损失函数训练得到所述图像类别判别模型。
9.根据权利要求8所述的装置,其中,当每个类别的图像特征数据由分属多个子类的图像子特征数据共同构成时,所述类内/类间距离确定单元包括:
子类中心确定子单元,被配置成根据所述子类的图像子特征数据确定子类中心;
子类内方差计算子单元,被配置成根据所述子类中心计算子类内方差;
类内距离初始值确定子单元,被配置成根据所述子类内方差确定所述类内距离的初始值;
类间距离初始值确定子单元,被配置成根据不同类别的类中心间距确定所述类间距离的初始值;
目标损失函数构建子单元,被配置成根据所述类内距离的初始值和所述类间距离的初始值构建所述目标损失函数。
10.根据权利要求9所述的装置,其中,所述类内距离初始值确定子单元进一步被配置成:
将分别与每个所述子类对应的子类内方差中方差值较大的前K个子类方差选作目标子类方差;其中,K的数量小于所述子类的数量;
将各所述目标子类方差的和作为所述类别的类内距离的初始值。
11.根据权利要求9所述的装置,其中,所述类间距离初始值确定子单元进一步被配置成:
将最近类中心间距作为所述类间距离的初始值。
12.根据权利要求8所述的装置,还包括:
判断单元,被配置成在根据所述类内距离的初始值和所述类间距离的初始值构建得到目标损失函数之前,判断所述类内距离的初始值是否小于预设阈值;
调整单元,被配置成若不小于所述预设阈值,则调整所述类内距离的初始值。
13.根据权利要求8所述的装置,其中,所述权值确定模块进一步被配置成:
分别获取所述目标损失函数、所述交叉熵损失函数以及所述难样本挖掘三元组损失函数的当前损失值;
按正比关系确定与所述当前损失值对应的权值。
14.根据权利要求要求8至13任一项所述的装置,还包括:
待判别图像数据获取单元,被配置成获取待判别图像数据;
所属类别判别单元,被配置成利用所述图像类别判别模型判别所述待判别图像数据所属的类别。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的用于训练判别模型的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的用于训练判别模型的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010360406.6A CN111553428B (zh) | 2020-04-30 | 2020-04-30 | 用于训练判别模型的方法、装置、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010360406.6A CN111553428B (zh) | 2020-04-30 | 2020-04-30 | 用于训练判别模型的方法、装置、设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111553428A CN111553428A (zh) | 2020-08-18 |
CN111553428B true CN111553428B (zh) | 2024-01-12 |
Family
ID=72004305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010360406.6A Active CN111553428B (zh) | 2020-04-30 | 2020-04-30 | 用于训练判别模型的方法、装置、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111553428B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561053B (zh) * | 2020-11-10 | 2023-09-08 | 北京百度网讯科技有限公司 | 图像处理方法、预训练模型的训练方法、装置和电子设备 |
CN112418303B (zh) * | 2020-11-20 | 2024-07-12 | 浙江大华技术股份有限公司 | 一种识别状态模型的训练方法、装置及计算机设备 |
CN112819008B (zh) * | 2021-01-11 | 2022-10-28 | 腾讯科技(深圳)有限公司 | 实例检测网络的优化方法、装置、介质及电子设备 |
CN113052246B (zh) * | 2021-03-30 | 2023-08-04 | 北京百度网讯科技有限公司 | 用于训练分类模型及图像分类的方法和相关装置 |
CN113052120B (zh) * | 2021-04-08 | 2021-12-24 | 深圳市华途数字技术有限公司 | 一种戴口罩人脸识别的门禁设备 |
CN113191461B (zh) * | 2021-06-29 | 2021-09-17 | 苏州浪潮智能科技有限公司 | 一种图片识别方法、装置、设备及可读存储介质 |
CN113505720A (zh) * | 2021-07-22 | 2021-10-15 | 浙江大华技术股份有限公司 | 图像处理方法及装置、存储介质、电子装置 |
CN115424053B (zh) * | 2022-07-25 | 2023-05-02 | 北京邮电大学 | 小样本图像识别方法、装置、设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570477A (zh) * | 2016-10-28 | 2017-04-19 | 中国科学院自动化研究所 | 基于深度学习的车型识别模型构建方法及车型识别方法 |
CN107038448A (zh) * | 2017-03-01 | 2017-08-11 | 中国科学院自动化研究所 | 目标检测模型构建方法 |
CN107679513A (zh) * | 2017-10-20 | 2018-02-09 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置及服务器 |
CN108009638A (zh) * | 2017-11-23 | 2018-05-08 | 深圳市深网视界科技有限公司 | 一种神经网络模型的训练方法、电子设备及存储介质 |
CN109766934A (zh) * | 2018-12-26 | 2019-05-17 | 北京航空航天大学 | 一种基于深度Gabor网络的图像目标识别方法 |
CN109784366A (zh) * | 2018-12-07 | 2019-05-21 | 北京飞搜科技有限公司 | 目标物体的细粒度分类方法、装置与电子设备 |
CN110188641A (zh) * | 2019-05-20 | 2019-08-30 | 北京迈格威科技有限公司 | 图像识别和神经网络模型的训练方法、装置和系统 |
CN110321862A (zh) * | 2019-07-09 | 2019-10-11 | 天津师范大学 | 一种基于紧致三元损失的行人再识别方法 |
CN110321451A (zh) * | 2019-04-25 | 2019-10-11 | 吉林大学 | 基于分布熵增益损失函数的图像检索算法 |
CN110717359A (zh) * | 2018-07-12 | 2020-01-21 | 浙江宇视科技有限公司 | 基于数理统计的反向传播优化方法、装置及电子设备 |
-
2020
- 2020-04-30 CN CN202010360406.6A patent/CN111553428B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570477A (zh) * | 2016-10-28 | 2017-04-19 | 中国科学院自动化研究所 | 基于深度学习的车型识别模型构建方法及车型识别方法 |
CN107038448A (zh) * | 2017-03-01 | 2017-08-11 | 中国科学院自动化研究所 | 目标检测模型构建方法 |
CN107679513A (zh) * | 2017-10-20 | 2018-02-09 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置及服务器 |
CN108009638A (zh) * | 2017-11-23 | 2018-05-08 | 深圳市深网视界科技有限公司 | 一种神经网络模型的训练方法、电子设备及存储介质 |
CN110717359A (zh) * | 2018-07-12 | 2020-01-21 | 浙江宇视科技有限公司 | 基于数理统计的反向传播优化方法、装置及电子设备 |
CN109784366A (zh) * | 2018-12-07 | 2019-05-21 | 北京飞搜科技有限公司 | 目标物体的细粒度分类方法、装置与电子设备 |
CN109766934A (zh) * | 2018-12-26 | 2019-05-17 | 北京航空航天大学 | 一种基于深度Gabor网络的图像目标识别方法 |
CN110321451A (zh) * | 2019-04-25 | 2019-10-11 | 吉林大学 | 基于分布熵增益损失函数的图像检索算法 |
CN110188641A (zh) * | 2019-05-20 | 2019-08-30 | 北京迈格威科技有限公司 | 图像识别和神经网络模型的训练方法、装置和系统 |
CN110321862A (zh) * | 2019-07-09 | 2019-10-11 | 天津师范大学 | 一种基于紧致三元损失的行人再识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111553428A (zh) | 2020-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111553428B (zh) | 用于训练判别模型的方法、装置、设备及可读存储介质 | |
CN113657465B (zh) | 预训练模型的生成方法、装置、电子设备和存储介质 | |
CN111209977B (zh) | 分类模型的训练和使用方法、装置、设备和介质 | |
CN112084366B (zh) | 用于检索图像的方法、装置、设备以及存储介质 | |
CN111598164B (zh) | 识别目标对象的属性的方法、装置、电子设备和存储介质 | |
CN111460384B (zh) | 策略的评估方法、装置和设备 | |
CN112241764A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN111709875B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN112288699B (zh) | 图像相对清晰度的评估方法、装置、设备和介质 | |
CN112487242A (zh) | 用于识别视频的方法、装置、电子设备及可读存储介质 | |
CN113033458A (zh) | 动作识别方法和装置 | |
CN110991551B (zh) | 样本处理方法、装置、电子设备和存储介质 | |
CN111126347A (zh) | 人眼状态识别方法、装置、终端及可读存储介质 | |
CN113313048B (zh) | 脸部表情识别方法和装置 | |
CN112016523B (zh) | 跨模态人脸识别的方法、装置、设备和存储介质 | |
CN111582139B (zh) | 一种排污口识别方法、装置、电子设备和存储介质 | |
CN111738325B (zh) | 图像识别方法、装置、设备以及存储介质 | |
CN110738261B (zh) | 图像分类和模型训练方法、装置、电子设备及存储介质 | |
US20230147202A1 (en) | Face recognization | |
CN114612725B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN112733879B (zh) | 针对不同场景的模型蒸馏方法和装置 | |
CN112508830B (zh) | 图像处理模型的训练方法、装置、设备及存储介质 | |
CN111209428A (zh) | 图像检索方法、装置、设备及计算机可读存储介质 | |
CN113096799B (zh) | 质控方法和装置 | |
CN111832609B (zh) | 图像处理模型的训练方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |