CN111523596A - 目标识别模型训练方法、装置、设备以及存储介质 - Google Patents
目标识别模型训练方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN111523596A CN111523596A CN202010327799.0A CN202010327799A CN111523596A CN 111523596 A CN111523596 A CN 111523596A CN 202010327799 A CN202010327799 A CN 202010327799A CN 111523596 A CN111523596 A CN 111523596A
- Authority
- CN
- China
- Prior art keywords
- sample set
- convolutional neural
- neural network
- deep convolutional
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了目标识别模型训练方法、装置、设备以及存储介质,涉及人工智能技术领域。该方法的一具体实施方式包括:获取训练样本集,其中,训练样本集中的训练样本是已标注目标样本图像;构建不同的第一深度卷积神经网络和第二深度卷积神经网络;利用第一深度卷积神经网络和第二深度卷积神经网络分别对训练样本集进行正负样本采样,得到正样本集和负样本集;基于正样本集和负样本集对第一深度卷积神经网络和第二深度卷积神经网络进行交叉训练,得到目标识别模型。该实施方式提供了一种基于正负学习的弱监督目标识别技术,能够充分利用错误标注样本进行弱监督学习,增加了模型的鲁棒性。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及人工智能技术领域。
背景技术
目标识别技术是指从图像或视频中识别或者比对出目标的技术。随着人工智能的发展,目标识别是计算机视觉和数字图像处理的一个热门方向,广泛应用于金融、安防、自动驾驶、机器人导航、智能视频监控等诸多领域,极大地方便了人们的生活。
工业级人脸识别技术往往依赖于监督学习,其中比较主流的监督学习方法是基于softmax与交叉熵损失函数以及其变种的监督学习方法,包括AM-softmax、L2-softmax、sphereface、arcface等。监督学习需要对每个样本中的目标的身份信息进行标注,而工业级的样本一般都是亿万级别,并且随着新的样本的回流,样本标注的成本和负担与日俱增。因此业界出现了大量代替人工标注的方案,比如利用已经训练的模型对未标注的样本进行聚类等。然而,这些标注方案不可避免地带来大量的错误标注样本。
目前,在基于错误标注样本进行目标识别模型的训练时,通常采用以下两种方式:其一,基于裁剪的方案,在模型早期对置信度低的样本进行剪裁,或者将错误标注样本作为异常点,利用异常点剪裁的方案去剪裁掉错误标注样本;其二,基于样本权重的方案,为错误标注样本设置很小的权重,这些权重的学习可以通过域适应的方案或验证数据的方案进行学习。
发明内容
本申请实施例提出了目标识别模型训练方法、装置、设备以及存储介质。
第一方面,本申请实施例提出了一种目标识别模型训练方法,包括:获取训练样本集,其中,训练样本集中的训练样本是已标注目标样本图像;构建不同的第一深度卷积神经网络和第二深度卷积神经网络;利用第一深度卷积神经网络和第二深度卷积神经网络分别对训练样本集进行正负样本采样,得到正样本集和负样本集;基于正样本集和负样本集对第一深度卷积神经网络和第二深度卷积神经网络进行交叉训练,得到目标识别模型。
第二方面,本申请实施例提出了一种目标识别模型训练装置,包括:样本获取模块,被配置成获取训练样本集,其中,训练样本集中的训练样本是已标注目标样本图像;网络构建模块,被配置成构建不同的第一深度卷积神经网络和第二深度卷积神经网络;样本采样模块,被配置成利用第一深度卷积神经网络和第二深度卷积神经网络分别对训练样本集进行正负样本采样,得到正样本集和负样本集;网络训练模块,被配置成基于正样本集和负样本集对第一深度卷积神经网络和第二深度卷积神经网络进行交叉训练,得到目标识别模型。
第三方面,本申请实施例提出了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面中任一实现方式描述的方法。
本申请实施例提供的目标识别模型训练方法、装置、设备以及存储介质,首先获取包括已标注目标样本图像的训练样本集;之后构建不同的第一深度卷积神经网络和第二深度卷积神经网络;然后利用第一深度卷积神经网络和第二深度卷积神经网络分别对训练样本集进行正负样本采样,得到正样本集和负样本集;最后基于正样本集和负样本集对第一深度卷积神经网络和第二深度卷积神经网络进行交叉训练,得到目标识别模型。提供了一种基于正负学习的弱监督目标识别技术,能够充分利用错误标注样本进行弱监督学习,增加了模型的鲁棒性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显。附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请可以应用于其中的示例性系统架构;
图2是根据本申请的目标识别模型训练方法的一个实施例的流程图;
图3是根据本申请的目标识别模型训练方法的又一个实施例的流程图;
图4是根据本申请的目标识别模型训练方法的另一个实施例的流程图;
图5是可以实现本申请实施例的目标识别模型训练方法的场景图;
图6是根据本申请的目标识别模型训练装置的一个实施例的结构示意图;
图7是用来实现本申请实施例的目标识别模型训练方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的目标识别模型训练方法或目标识别模型训练装置的实施例的示例性系统架构100。
如图1所示,系统架构100中可以包括存储设备101、网络102和服务器103。网络102用以在存储设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
存储设备101可以通过网络102与服务器103交互。存储设备101中可以提供训练样本集,包括但不限于数据库、用户终端等等。
服务器103可以是具有模型计算能力的独立服务器,也可以是具有计算能力的处理模块。例如,服务器103可以是模型服务器。模型服务器可以对从存储设备101获取到的训练样本集等数据进行分析等处理,并生成处理结果(例如目标识别模型)。
需要说明的是,服务器103可以是硬件,也可以是软件。当服务器103为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器103为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的目标识别模型训练方法一般由服务器103执行,相应地,目标识别模型训练装置一般设置于服务器103中。
应该理解,图1中的存储设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的存储设备、网络和服务器。在服务器103中存储有样本图像集的情况下,系统架构100可以不设置存储设备101和网络102。
继续参考图2,其示出了根据本申请的目标识别模型训练方法的一个实施例的流程200。该目标识别模型训练方法包括以下步骤:
步骤201,获取训练样本集。
在本实施例中,目标识别模型训练方法的执行主体(例如图1所示的服务器103)可以获取训练样本集。其中,训练样本集中可以包括大量训练样本。训练样本可以是已标注目标样本图像。已标注目标样本图像可以是经过目标标注的样本图像。在通常情况下,对样本图像中的目标进行人工标注可以得到已标注目标样本图像。在样本图像数目巨大的情况下,会采用机器标注代替人工标注,比如利用已经训练的模型对未标注的训练样本进行聚类等。无论人工标注还是机器标注都不可避免地带来错位标注样本。
步骤202,构建不同的第一深度卷积神经网络和第二深度卷积神经网络。
在本实施例中,上述执行主体可以构建不同的第一深度卷积神经网络和第二深度卷积神经网络。
通常,第一深度卷积神经网络和第二深度卷积神经网络可以是包含卷积计算且具有深度结构的神经网络,包括但不限于ResNet、DenseNet、AlexNet和VGGNet等等。第一深度卷积神经网络和第二深度卷积神经网络是不同的网络。在一些实施例中,第一深度卷积神经网络和第二深度卷积神经网络可以是网络结构相同,但初始参数不同的网络,例如初始参数不同的两个ResNet。在一些实施例中,第一深度卷积神经网络和第二深度卷积神经网络可以是网络结构不同的网络,例如第一深度卷积神经网络是ResNet,而第二深度卷积神经网络是DenseNet。
步骤203,利用第一深度卷积神经网络和第二深度卷积神经网络分别对训练样本集进行正负样本采样,得到正样本集和负样本集。
在本实施例中,上述执行主体可以利用第一深度卷积神经网络和第二深度卷积神经网络分别对训练样本集进行正负样本采样,得到正样本集和负样本集。其中,正样本集中可以包括第一深度卷积神经网络和第二深度卷积神经网络采样的正确标注样本。负样本集中可以包括第一深度卷积神经网络和第二深度卷积神经网络采样的错误标注样本。由于第一深度卷积神经网络和第二深度卷积神经网络是不同的网络,因此两个深度卷积神经网络采样的正样本或负样本并不会完全相同。
需要说明的是,第一深度卷积神经网络和第二深度卷积神经网络可以对训练样本集中的全部训练样本进行正负样本采样,也可以对训练样本集中的部分训练样本进行正负样本采样。当对全部训练样本采样时,第一深度卷积神经网络和第二深度卷积神经网络可以采样相同的一批训练样本。当对部分训练样本采样时,第一深度卷积神经网络和第二深度卷积神经网络既可以采样相同的一批训练样本,又可以采样不同的一批训练样本。
步骤204,基于正样本集和负样本集对第一深度卷积神经网络和第二深度卷积神经网络进行交叉训练,得到目标识别模型。
在本实施例中,上述执行主体可以基于正样本集和负样本集对第一深度卷积神经网络和第二深度卷积神经网络进行交叉训练,得到目标识别模型。例如,利用第二深度卷积神经网络采样的正样本和负样本对第一深度卷积神经网络进行训练。同时,利用第一深度卷积神经网络采样的正样本和负样本对第二深度卷积神经网络进行训练。
本申请实施例提供的目标识别模型训练方法,首先获取包括已标注目标样本图像的训练样本集;之后构建不同的第一深度卷积神经网络和第二深度卷积神经网络;然后利用第一深度卷积神经网络和第二深度卷积神经网络分别对训练样本集进行正负样本采样,得到正样本集和负样本集;最后基于正样本集和负样本集对第一深度卷积神经网络和第二深度卷积神经网络进行交叉训练,得到目标识别模型。提供了一种基于正负学习的弱监督目标识别技术,能够充分利用错误标注样本进行弱监督学习,增加了模型的鲁棒性。
此外,当本申请的技术方案应用人脸识别场景下,能够应用于人脸识别领域的人证、考勤、门禁、安防、金融支付等诸多场景,极大地方便了人们的生活,也保证了人们生活的社会环境的安全性。
进一步参考图3,其示出了根据本申请的目标识别模型训练方法的又一个实施例的流程300。该目标识别模型训练方法包括以下步骤:
步骤301,获取训练样本集。
步骤302,构建不同的第一深度卷积神经网络和第二深度卷积神经网络。
在本实施例中,步骤301-302具体操作已在图2所示的实施例中步骤201-202进行了详细的介绍,在此不再赘述。
步骤303,将训练样本集输入至第一深度卷积神经网络,输出第一概率。
在本实施例中,目标识别模型训练方法的执行主体(例如图1所示的服务器103)可以将训练样本集输入至第一深度卷积神经网络,输出第一概率。其中,第一概率可以是第一深度卷积神经网络输出的训练样本集中的训练样本中的目标属于每种类别的概率。
步骤304,将第一概率作为置信度与置信度阈值进行比较,确定第一正样本集和第一负样本集。
在本实施例中,上述执行主体可以将第一概率作为置信度与置信度阈值进行比较,确定第一正样本集和第一负样本集。模型训练初期会比较好地拟合正确标注样本,其置信度较高。而错误标注样本因其标注不是正确目标类别,其置信度比较低。将第一深度卷积神经网络输出的第一概率作为置信度,能够进行正负样本采样。此外,基于置信度采样正负样本,能够采样有效的正负样本,而避免非常难的样本,充分利用有效的样本进行学习。
在本实施例的一些可选的实现方式中,置信度阈值可以包括正置信度阈值和负置信度阈值。正置信度阈值通常高于负置信度阈值。在利用置信度阈值采样正负样本时,采用一种逐步变化的阈值,即正置信度阈值随训练迭代次数的增加而增大,负置信度阈值随训练迭代次数的增加而减小。这是因为在模型训练初期,模型会拟合正样本,此时正负样本的采样不是特别重要,可以利用尽量多的样本进行初期学习。随着学习的深入,模型逐渐有拟合错误样本的风险,可以逐步调整阈值采样比较确定的正负样本进行学习。
步骤305,将第二正样本集和第二负样本集输入至第一深度卷积神经网络进行训练。
在本实施例中,上述执行主体可以将第二正样本集和第二负样本集输入至第一深度卷积神经网络进行训练。由于不同的深度卷积神经网络对正确标注样本的输出具有相对一致性,而对错误标注样本的输出具有不一致性,因此可以利用不同的深度卷积神经网络进行正负样本采样。尤其是正样本的采样能够帮助其他深度卷积神经网络学习。同时,利用不同深度卷积神经网络采样比较确认的正样本和负样本,相比利用一个深度卷积神经网络进行同样的操作,能够有效避免对错误标注样本的过拟合。
步骤303',将训练样本集输入至第二深度卷积神经网络,输出第二概率。
步骤304',将第二概率作为置信度与置信度阈值进行比较,确定第二正样本集和第二负样本集。
步骤305',将第一正样本集和第一负样本集输入至第二深度卷积神经网络进行训练。
在本实施例中,步骤303'-305'具体操作可以参考步骤303-305,这里不再赘述。
需要说明的是,训练完成的第一深度卷积神经网络和第二深度卷积神经网络均可以作为目标识别模型。
从图3中可以看出,与图2对应的实施例相比,本实施例中的目标识别模型训练方法的流程300突出了训练步骤。由此,本实施例描述的方案利用第二深度卷积神经网络采样的正训练样本和负训练样本对第一深度卷积神经网络进行训练。同时,利用第一深度卷积神经网络采样的正训练样本和负训练样本对第二深度卷积神经网络进行训练,避免了对错误标注样本的过拟合,使得模型更加具有泛化性。
进一步参考图4,其示出了根据本申请的目标识别模型训练方法的另一个实施例的流程400。该目标识别模型训练方法包括以下步骤:
步骤401,获取训练样本集。
步骤402,构建不同的第一深度卷积神经网络和第二深度卷积神经网络。
步骤403,将训练样本集输入至第一深度卷积神经网络,输出第一概率。
步骤404,将第一概率作为置信度与置信度阈值进行比较,确定第一正样本集和第一负样本集。
在本实施例中,步骤401-404具体操作已在图3所示的实施例中步骤301-304进行了详细的介绍,在此不再赘述。
步骤405,将第二正样本集和第二负样本集分别输入至第一深度卷积神经网络,计算第一分类损失和第一补偿损失。
在本实施例中,目标识别模型训练方法的执行主体(例如图1所示的服务器103)可以将二正样本集输入至第一深度卷积神经网络,计算第一分类损失。同时,上述执行主体可以将二负样本集输入至第一深度卷积神经网络,计算第一补偿损失。
分来损失可以是通过深度卷积神经网络对正样本集处理得到的。例如,首先将第二正样本集输入至第一深度卷积神经网络,输出第二正样本集对应的预测目标类别;然后将第二正样本集对应的预测目标类别和标注目标类别输入至第一分类损失函数,得到第一分类损失。通常,对于正样本集,深度卷积神经网络可以连接各种分类损失函数来计算分类损失。深度卷积神经网络连接各种分类损失函数,能够充分利用正样本集进行学习。其中,分类损失函数可以是基于softmax与交叉熵的损失函数及其变种,包括但不限于AM-softmax、L2-softmax、sphereface、arcface等。
补偿损失可以是通过深度卷积神经网络对负样本集处理得到的。例如首先将第二负样本集输入至第一深度卷积神经网络,输出第二负样本集对应的预测目标类别;然后将第二负样本集对应的预测目标类别和标注目标类别输入至第一补偿损失函数,得到第一补偿损失。通常,对于负样本集,深度卷积神经网络可以连接各种补偿损失函数来计算补偿损失。深度卷积神经网络连接各种补偿损失函数,能够充分利用负样本集进行学习,从负样本集中学习到正确特征输出。其中,负样本集又被成为补偿样本集,具有补偿信息。补偿损失函数可以包括但不限于one-vs-all loss、pairwise-comparison loss等等。此外,补偿损失函数还可以通过对softmax进行修改得到。
下面提供一种补偿损失的计算方法。具体地,首先将第二负样本集对应的预测目标类别和标注目标类别输入至softmax损失函数,得到第二负样本集对应的正确目标类别标注为错误目标类别的概率;然后将第二负样本集对应的正确目标类别标注为错误目标类别的概率乘以转移矩阵,得到第二负样本集对应的错误目标类别转移为正确目标类别的概率。
步骤406,结合第一分类损失和第一补偿损失更新第一深度卷积神经网络的参数。
在本实施例中,上述执行主体可以结合第一分类损失和第一补偿损失更新第一深度卷积神经网络的参数。例如,先对第一分类损失和第一补偿损失求和,再通过梯度反转更新第一深度卷积神经网络的参数,使得第一分类损失和第一补偿损失的和最小,且第一深度卷积神经网络收敛。
步骤403',将训练样本集输入至第二深度卷积神经网络,输出第二概率。
步骤404',将第二概率作为置信度与置信度阈值进行比较,确定第二正样本集和第二负样本集。
步骤405',将第一正样本集和第一负样本集分别输入至第二深度卷积神经网络,计算第二分类损失和第二补偿损失。
在本实施例的一些可选的实现方式中,上述执行主体可以将第一正样本集输入至第二深度卷积神经网络,输出第一正样本集对应的预测目标类别;将第一正样本集对应的预测目标类别和标注目标类别输入至第二分类损失函数,得到第二分类损失.
在本实施例的一些可选的实现方式中,上述执行主体可以将第一负样本集输入至第二深度卷积神经网络,输出第一负样本集对应的预测目标类别;将第一负样本集对应的预测目标类别和标注目标类别输入至第二补偿损失函数,得到第二补偿损失。
在本实施例的一些可选的实现方式中,上述执行主体可以将第一负样本集对应的预测目标类别和标注目标类别输入至softmax损失函数,得到第一负样本集对应的正确目标类别标注为错误目标类别的概率,将第一负样本集对应的正确目标类别标注为错误目标类别的概率乘以转移矩阵,得到第一负样本集对应的错误目标类别转移为正确目标类别的概率。
步骤406',结合第二分类损失和第二补偿损失更新第二深度卷积神经网络的参数。
在本实施例中,步骤403'-406'具体操作可以参考步骤403-406,这里不再赘述。
从图4中可以看出,与图3对应的实施例相比,本实施例中的目标识别模型训练方法的流程400突出了训练步骤。由此,本实施例描述的方案结合第一分类损失和第一补偿损失更新第一深度卷积神经网络的参数。同时,结合第二分类损失和第二补偿损失更新第二深度卷积神经网络的参数。实现了对目标识别模型的基于正负学习的弱监督训练。
为了便于理解,下面提供可以实现本申请实施例的目标识别模型训练方法的场景。如图5所示,首先,构建模型A和模型B,并将样本人脸图像集分别输入至模型A和模型B。其中,模型A输出第一正样本集和第一负样本集。模型B输出第二正样本集和第二负样本集。随后,将第二正样本集和第二负样本集给模型A学习,计算第一分类损失和第一补偿损失。同时,将第一正样本集和第一负样本集给模型B学习,计算第二分类损失和第二补偿损失。最后,结合第一分类损失和第一补偿损失更新模型A的参数,结合第二分类损失和第二补偿损失更新模型B的参数,即可得到人脸识别模型。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种目标识别模型训练装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的目标识别模型训练装置600可以包括:样本获取模块601、网络构建模块602、样本采样模块603和网络训练模块604。其中,样本获取模块601,被配置成获取训练样本集,其中,训练样本集中的训练样本是已标注目标样本图像;网络构建模块602,被配置成构建不同的第一深度卷积神经网络和第二深度卷积神经网络;样本采样模块603,被配置成利用第一深度卷积神经网络和第二深度卷积神经网络分别对训练样本集进行正负样本采样,得到正样本集和负样本集;网络训练模块604,被配置成基于正样本集和负样本集对第一深度卷积神经网络和第二深度卷积神经网络进行交叉训练,得到目标识别模型。
在本实施例中,目标识别模型训练装置600中:样本获取模块601、网络构建模块602、样本采样模块603和网络训练模块604的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201-204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,第一深度卷积神经网络和第二深度卷积神经网络的网络结构相同,但初始参数不同,或者第一深度卷积神经网络和第二深度卷积神经网络的网络结构不同。
在本实施例的一些可选的实现方式中,样本采样模块603包括:第一样本采样子模块(图中未示出),被配置成将训练样本集输入至第一深度卷积神经网络,输出第一概率,将第一概率作为置信度与置信度阈值进行比较,确定第一正样本集和第一负样本集;以及第二样本采样子模块(图中未示出),被配置成将训练样本集输入至第二深度卷积神经网络,输出第二概率,将第二概率作为置信度与置信度阈值进行比较,确定第二正样本集和第二负样本集。
在本实施例的一些可选的实现方式中,置信度阈值包括正置信度阈值和负置信度阈值,正置信度阈值随训练迭代次数的增加而增大,负置信度阈值随训练迭代次数的增加而减小。
在本实施例的一些可选的实现方式中,网络训练模块604包括:第一网络训练子模块(图中未示出),被配置成将第二正样本集和第二负样本集输入至第一深度卷积神经网络进行训练;以及第二网络训练子模块(图中未示出),被配置成将第一正样本集和第一负样本集输入至第二深度卷积神经网络进行训练。
在本实施例的一些可选的实现方式中,第一网络训练子模块包括:第一参数更新单元(图中未示出),被配置成将第二正样本集和第二负样本集分别输入至第一深度卷积神经网络,计算第一分类损失和第一补偿损失,结合第一分类损失和第一补偿损失更新第一深度卷积神经网络的参数;以及第二网络训练子模块(图中未示出)包括:第二参数更新单元,被配置成将第一正样本集和第一负样本集分别输入至第二深度卷积神经网络,计算第二分类损失和第二补偿损失,结合第二分类损失和第二补偿损失更新第二深度卷积神经网络的参数。
在本实施例的一些可选的实现方式中,第一参数更新单元包括:第一类别预测子单元(图中未示出),被配置成将第二正样本集输入至第一深度卷积神经网络,输出第二正样本集对应的预测目标类别;第一损失计算子单元(图中未示出),被配置成将第二正样本集对应的预测目标类别和标注目标类别输入至第一分类损失函数,得到第一分类损失;第二类别预测子单元(图中未示出),被配置成将第二负样本集输入至第一深度卷积神经网络,输出第二负样本集对应的预测目标类别;第二损失计算子单元(图中未示出),被配置成将第二负样本集对应的预测目标类别和标注目标类别输入至第一补偿损失函数,得到第一补偿损失;以及第二参数更新单元包括:第三类别预测子单元(图中未示出),被配置成将第一正样本集输入至第二深度卷积神经网络,输出第一正样本集对应的预测目标类别;第三损失计算子单元(图中未示出),被配置成将第一正样本集对应的预测目标类别和标注目标类别输入至第二分类损失函数,得到第二分类损失;第四类别预测子单元(图中未示出),被配置成将第一负样本集输入至第二深度卷积神经网络,输出第一负样本集对应的预测目标类别;第四损失计算子单元(图中未示出),被配置成将第一负样本集对应的预测目标类别和标注目标类别输入至第二补偿损失函数,得到第二补偿损失。
在本实施例的一些可选的实现方式中,第二损失计算子单元进一步被配置成:将第二负样本集对应的预测目标类别和标注目标类别输入至softmax损失函数,得到第二负样本集对应的正确目标类别标注为错误目标类别的概率,将第二负样本集对应的正确目标类别标注为错误目标类别的概率乘以转移矩阵,得到第二负样本集对应的错误目标类别转移为正确目标类别的概率;以及第四损失计算子单元进一步被配置成:将第一负样本集对应的预测目标类别和标注目标类别输入至softmax损失函数,得到第一负样本集对应的正确目标类别标注为错误目标类别的概率,将第一负样本集对应的正确目标类别标注为错误目标类别的概率乘以转移矩阵,得到第一负样本集对应的错误目标类别转移为正确目标类别的概率。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图7所示,是根据本申请实施例目标识别模型训练方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的目标识别模型训练方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的目标识别模型训练方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的目标识别模型训练方法对应的程序指令/模块(例如,附图6所示的样本获取模块601、网络构建模块602、样本采样模块603和网络训练模块604)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的目标识别模型训练方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据目标识别模型训练方法的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至目标识别模型训练方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
目标识别模型训练方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与目标识别模型训练方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请的技术方案,首先获取包括已标注目标样本图像的训练样本集;之后构建不同的第一深度卷积神经网络和第二深度卷积神经网络;然后利用第一深度卷积神经网络和第二深度卷积神经网络分别对训练样本集进行正负样本采样,得到正样本集和负样本集;最后基于正样本集和负样本集对第一深度卷积神经网络和第二深度卷积神经网络进行交叉训练,得到目标识别模型。提供了一种基于正负学习的弱监督目标识别技术,能够充分利用错误标注样本进行弱监督学习,增加了模型的鲁棒性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (18)
1.一种目标识别模型训练方法,包括:
获取训练样本集,其中,所述训练样本集中的训练样本是已标注目标样本图像;
构建不同的第一深度卷积神经网络和第二深度卷积神经网络;
利用所述第一深度卷积神经网络和所述第二深度卷积神经网络分别对所述训练样本集进行正负样本采样,得到正样本集和负样本集;
基于所述正样本集和所述负样本集对所述第一深度卷积神经网络和所述第二深度卷积神经网络进行交叉训练,得到目标识别模型。
2.根据权利要求1所述的方法,其中,所述第一深度卷积神经网络和所述第二深度卷积神经网络的网络结构相同,但初始参数不同,或者所述第一深度卷积神经网络和所述第二深度卷积神经网络的网络结构不同。
3.根据权利要求1或2所述的方法,其中,所述利用所述第一深度卷积神经网络和所述第二深度卷积神经网络分别对所述训练样本集进行正负样本采样,得到正样本集和负样本集,包括:
将所述训练样本集输入至所述第一深度卷积神经网络,输出第一概率,将所述第一概率作为置信度与置信度阈值进行比较,确定第一正样本集和第一负样本集;以及
将所述训练样本集输入至所述第二深度卷积神经网络,输出第二概率,将所述第二概率作为置信度与所述置信度阈值进行比较,确定第二正样本集和第二负样本集。
4.根据权利要求3所述的方法,其中,所述置信度阈值包括正置信度阈值和负置信度阈值,所述正置信度阈值随训练迭代次数的增加而增大,所述负置信度阈值随训练迭代次数的增加而减小。
5.根据权利要求3所述的方法,其中,所述基于所述正样本集和所述负样本集对所述第一深度卷积神经网络和所述第二深度卷积神经网络进行交叉训练,得到目标识别模型,包括:
将所述第二正样本集和所述第二负样本集输入至所述第一深度卷积神经网络进行训练;以及
将所述第一正样本集和所述第一负样本集输入至所述第二深度卷积神经网络进行训练。
6.根据权利要求5所述的方法,其中,所述将所述第二正样本集和所述第二负样本集输入至所述第一深度卷积神经网络进行训练,包括:
将所述第二正样本集和所述第二负样本集分别输入至所述第一深度卷积神经网络,计算第一分类损失和第一补偿损失,结合所述第一分类损失和所述第一补偿损失更新所述第一深度卷积神经网络的参数;以及
所述将所述第一正样本集和所述第一负样本集输入至所述第二深度卷积神经网络进行训练,包括:
将所述第一正样本集和所述第一负样本集分别输入至所述第二深度卷积神经网络,计算第二分类损失和第二补偿损失,结合所述第二分类损失和所述第二补偿损失更新所述第二深度卷积神经网络的参数。
7.根据权利要求6所述的方法,其中,所述将所述第二正样本集和所述第二负样本集分别输入至所述第一深度卷积神经网络,计算第一分类损失和第一补偿损失,包括:
将所述第二正样本集输入至所述第一深度卷积神经网络,输出所述第二正样本集对应的预测目标类别;
将所述第二正样本集对应的预测目标类别和标注目标类别输入至第一分类损失函数,得到所述第一分类损失;
将所述第二负样本集输入至所述第一深度卷积神经网络,输出所述第二负样本集对应的预测目标类别;
将所述第二负样本集对应的预测目标类别和标注目标类别输入至第一补偿损失函数,得到所述第一补偿损失;以及
所述将所述第一正样本集和所述第一负样本集分别输入至所述第二深度卷积神经网络,计算第二分类损失和第二补偿损失,包括:
将所述第一正样本集输入至所述第二深度卷积神经网络,输出所述第一正样本集对应的预测目标类别;
将所述第一正样本集对应的预测目标类别和标注目标类别输入至第二分类损失函数,得到所述第二分类损失;
将所述第一负样本集输入至所述第二深度卷积神经网络,输出所述第一负样本集对应的预测目标类别;
将所述第一负样本集对应的预测目标类别和标注目标类别输入至第二补偿损失函数,得到所述第二补偿损失。
8.根据权利要求7所述的方法,其中,所述将所述第二负样本集对应的预测目标类别和标注目标类别输入至第一补偿损失函数,得到所述第一补偿损失,包括:
将所述第二负样本集对应的预测目标类别和标注目标类别输入至softmax损失函数,得到所述第二负样本集对应的正确目标类别标注为错误目标类别的概率,将所述第二负样本集对应的正确目标类别标注为错误目标类别的概率乘以转移矩阵,得到所述第二负样本集对应的错误目标类别转移为正确目标类别的概率;以及
所述将所述第一负样本集对应的预测目标类别和标注目标类别输入至第二补偿损失函数,得到所述第二补偿损失,包括:
将所述第一负样本集对应的预测目标类别和标注目标类别输入至softmax损失函数,得到所述第一负样本集对应的正确目标类别标注为错误目标类别的概率,将所述第一负样本集对应的正确目标类别标注为错误目标类别的概率乘以转移矩阵,得到所述第一负样本集对应的错误目标类别转移为正确目标类别的概率。
9.一种目标识别模型训练装置,包括:
样本获取模块,被配置成获取训练样本集,其中,所述训练样本集中的训练样本是已标注目标样本图像;
网络构建模块,被配置成构建不同的第一深度卷积神经网络和第二深度卷积神经网络;
样本采样模块,被配置成利用所述第一深度卷积神经网络和所述第二深度卷积神经网络分别对所述训练样本集进行正负样本采样,得到正样本集和负样本集;
网络训练模块,被配置成基于所述正样本集和所述负样本集对所述第一深度卷积神经网络和所述第二深度卷积神经网络进行交叉训练,得到目标识别模型。
10.根据权利要求9所述的装置,其中,所述第一深度卷积神经网络和所述第二深度卷积神经网络网络结构相同,但初始参数不同,或者所述第一深度卷积神经网络和所述第二深度卷积神经网络网络结构不同。
11.根据权利要求9或10所述的装置,其中,所述样本采样模块包括:
第一样本采样子模块,被配置成将所述训练样本集输入至所述第一深度卷积神经网络,输出第一概率,将所述第一概率作为置信度与置信度阈值进行比较,确定第一正样本集和第一负样本集;以及
第二样本采样子模块,被配置成将所述训练样本集输入至所述第二深度卷积神经网络,输出第二概率,将所述第二概率作为置信度与所述置信度阈值进行比较,确定第二正样本集和第二负样本集。
12.根据权利要求11所述的装置,其中,所述置信度阈值包括正置信度阈值和负置信度阈值,所述正置信度阈值随训练迭代次数的增加而增大,所述负置信度阈值随训练迭代次数的增加而减小。
13.根据权利要求11所述的装置,其中,所述网络训练模块包括:
第一网络训练子模块,被配置成将所述第二正样本集和所述第二负样本集输入至所述第一深度卷积神经网络进行训练;以及
第二网络训练子模块,被配置成将所述第一正样本集和所述第一负样本集输入至所述第二深度卷积神经网络进行训练。
14.根据权利要求13所述的装置,其中,所述第一网络训练子模块包括:
第一参数更新单元,被配置成将所述第二正样本集和所述第二负样本集分别输入至所述第一深度卷积神经网络,计算第一分类损失和第一补偿损失,结合所述第一分类损失和所述第一补偿损失更新所述第一深度卷积神经网络的参数;以及
所述第二网络训练子模块包括:
第二参数更新单元,被配置成将所述第一正样本集和所述第一负样本集分别输入至所述第二深度卷积神经网络,计算第二分类损失和第二补偿损失,结合所述第二分类损失和所述第二补偿损失更新所述第二深度卷积神经网络的参数。
15.根据权利要求14所述的装置,其中,所述第一参数更新单元包括:
第一类别预测子单元,被配置成将所述第二正样本集输入至所述第一深度卷积神经网络,输出所述第二正样本集对应的预测目标类别;
第一损失计算子单元,被配置成将所述第二正样本集对应的预测目标类别和标注目标类别输入至第一分类损失函数,得到所述第一分类损失;
第二类别预测子单元,被配置成将所述第二负样本集输入至所述第一深度卷积神经网络,输出所述第二负样本集对应的预测目标类别;
第二损失计算子单元,被配置成将所述第二负样本集对应的预测目标类别和标注目标类别输入至第一补偿损失函数,得到所述第一补偿损失;以及
所述第二参数更新单元包括:
第三类别预测子单元,被配置成将所述第一正样本集输入至所述第二深度卷积神经网络,输出所述第一正样本集对应的预测目标类别;
第三损失计算子单元,被配置成将所述第一正样本集对应的预测目标类别和标注目标类别输入至第二分类损失函数,得到所述第二分类损失;
第四类别预测子单元,被配置成将所述第一负样本集输入至所述第二深度卷积神经网络,输出所述第一负样本集对应的预测目标类别;
第四损失计算子单元,被配置成将所述第一负样本集对应的预测目标类别和标注目标类别输入至第二补偿损失函数,得到所述第二补偿损失。
16.根据权利要求15所述的装置,其中,所述第二损失计算子单元进一步被配置成:
将所述第二负样本集对应的预测目标类别和标注目标类别输入至softmax损失函数,得到所述第二负样本集对应的正确目标类别标注为错误目标类别的概率,将所述第二负样本集对应的正确目标类别标注为错误目标类别的概率乘以转移矩阵,得到所述第二负样本集对应的错误目标类别转移为正确目标类别的概率;以及
所述第四损失计算子单元进一步被配置成:
将所述第一负样本集对应的预测目标类别和标注目标类别输入至softmax损失函数,得到所述第一负样本集对应的正确目标类别标注为错误目标类别的概率,将所述第一负样本集对应的正确目标类别标注为错误目标类别的概率乘以转移矩阵,得到所述第一负样本集对应的错误目标类别转移为正确目标类别的概率。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010327799.0A CN111523596B (zh) | 2020-04-23 | 2020-04-23 | 目标识别模型训练方法、装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010327799.0A CN111523596B (zh) | 2020-04-23 | 2020-04-23 | 目标识别模型训练方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111523596A true CN111523596A (zh) | 2020-08-11 |
CN111523596B CN111523596B (zh) | 2023-07-04 |
Family
ID=71910851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010327799.0A Active CN111523596B (zh) | 2020-04-23 | 2020-04-23 | 目标识别模型训练方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111523596B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112084876A (zh) * | 2020-08-13 | 2020-12-15 | 宜通世纪科技股份有限公司 | 一种目标对象追踪方法、系统、装置及介质 |
CN112489676A (zh) * | 2020-12-15 | 2021-03-12 | 腾讯音乐娱乐科技(深圳)有限公司 | 模型训练方法、装置、设备及存储介质 |
CN112507833A (zh) * | 2020-11-30 | 2021-03-16 | 北京百度网讯科技有限公司 | 人脸识别及模型训练的方法、装置、设备和存储介质 |
CN112508300A (zh) * | 2020-12-21 | 2021-03-16 | 北京百度网讯科技有限公司 | 建立风险预测模型的方法、区域风险预测方法及对应装置 |
CN112560463A (zh) * | 2020-12-15 | 2021-03-26 | 中国平安人寿保险股份有限公司 | 文本多标注方法、装置、设备及存储介质 |
CN112580734A (zh) * | 2020-12-25 | 2021-03-30 | 深圳市优必选科技股份有限公司 | 目标检测模型训练方法、系统、终端设备及存储介质 |
CN112733807A (zh) * | 2021-02-22 | 2021-04-30 | 佳都新太科技股份有限公司 | 一种人脸比对的图卷积神经网络训练方法及装置 |
CN112766387A (zh) * | 2021-01-25 | 2021-05-07 | 海尔数字科技(上海)有限公司 | 一种训练数据的纠错方法、装置、设备及存储介质 |
CN112784883A (zh) * | 2021-01-07 | 2021-05-11 | 厦门大学 | 一种基于样本选择扩充的冷水珊瑚分布预测方法及系统 |
CN112836820A (zh) * | 2021-01-31 | 2021-05-25 | 云知声智能科技股份有限公司 | 用于图像分类任务的深度卷积网络训方法、装置及系统 |
CN113159209A (zh) * | 2021-04-29 | 2021-07-23 | 深圳市商汤科技有限公司 | 目标检测方法、装置、设备和计算机可读存储介质 |
CN113326852A (zh) * | 2021-06-11 | 2021-08-31 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备、存储介质及程序产品 |
CN113435525A (zh) * | 2021-06-30 | 2021-09-24 | 平安科技(深圳)有限公司 | 分类网络训练方法、装置、计算机设备及存储介质 |
CN113537309A (zh) * | 2021-06-30 | 2021-10-22 | 北京百度网讯科技有限公司 | 一种对象识别方法、装置及电子设备 |
CN113657411A (zh) * | 2021-08-23 | 2021-11-16 | 北京达佳互联信息技术有限公司 | 神经网络模型的训练方法、图像特征提取方法及相关装置 |
CN115701866A (zh) * | 2022-12-22 | 2023-02-14 | 荣耀终端有限公司 | 一种电商平台风险识别模型训练方法和装置 |
CN116912633A (zh) * | 2023-09-12 | 2023-10-20 | 深圳须弥云图空间科技有限公司 | 目标追踪模型的训练方法及装置 |
CN116245154B (zh) * | 2022-11-30 | 2024-06-11 | 荣耀终端有限公司 | 神经网络的训练方法、舆情危机识别方法及相关装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9400919B2 (en) * | 2014-05-27 | 2016-07-26 | Beijing Kuangshi Technology Co., Ltd. | Learning deep face representation |
CN106529565A (zh) * | 2016-09-23 | 2017-03-22 | 北京市商汤科技开发有限公司 | 目标识别模型训练和目标识别方法及装置、计算设备 |
CN109410184A (zh) * | 2018-10-09 | 2019-03-01 | 天格科技(杭州)有限公司 | 基于稠密对抗网络半监督学习的直播色情图像检测方法 |
CN110163234A (zh) * | 2018-10-10 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置和存储介质 |
CN110175671A (zh) * | 2019-04-28 | 2019-08-27 | 华为技术有限公司 | 神经网络的构建方法、图像处理方法及装置 |
CN110245645A (zh) * | 2019-06-21 | 2019-09-17 | 北京字节跳动网络技术有限公司 | 人脸活体识别方法、装置、设备及存储介质 |
CN110276346A (zh) * | 2019-06-06 | 2019-09-24 | 北京字节跳动网络技术有限公司 | 目标区域识别模型训练方法、装置和计算机可读存储介质 |
CN110288082A (zh) * | 2019-06-05 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 卷积神经网络模型训练方法、装置和计算机可读存储介质 |
CN110349147A (zh) * | 2019-07-11 | 2019-10-18 | 腾讯医疗健康(深圳)有限公司 | 模型的训练方法、眼底黄斑区病变识别方法、装置及设备 |
CN110427922A (zh) * | 2019-09-03 | 2019-11-08 | 陈�峰 | 一种基于机器视觉和卷积神经网络病虫害识别系统和方法 |
CN110569841A (zh) * | 2019-09-02 | 2019-12-13 | 中南大学 | 基于卷积神经网络的接触网关键部件目标检测方法 |
CN111046959A (zh) * | 2019-12-12 | 2020-04-21 | 上海眼控科技股份有限公司 | 模型训练方法、装置、设备和存储介质 |
-
2020
- 2020-04-23 CN CN202010327799.0A patent/CN111523596B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9400919B2 (en) * | 2014-05-27 | 2016-07-26 | Beijing Kuangshi Technology Co., Ltd. | Learning deep face representation |
CN106529565A (zh) * | 2016-09-23 | 2017-03-22 | 北京市商汤科技开发有限公司 | 目标识别模型训练和目标识别方法及装置、计算设备 |
CN109410184A (zh) * | 2018-10-09 | 2019-03-01 | 天格科技(杭州)有限公司 | 基于稠密对抗网络半监督学习的直播色情图像检测方法 |
CN110163234A (zh) * | 2018-10-10 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置和存储介质 |
CN110175671A (zh) * | 2019-04-28 | 2019-08-27 | 华为技术有限公司 | 神经网络的构建方法、图像处理方法及装置 |
CN110288082A (zh) * | 2019-06-05 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 卷积神经网络模型训练方法、装置和计算机可读存储介质 |
CN110276346A (zh) * | 2019-06-06 | 2019-09-24 | 北京字节跳动网络技术有限公司 | 目标区域识别模型训练方法、装置和计算机可读存储介质 |
CN110245645A (zh) * | 2019-06-21 | 2019-09-17 | 北京字节跳动网络技术有限公司 | 人脸活体识别方法、装置、设备及存储介质 |
CN110349147A (zh) * | 2019-07-11 | 2019-10-18 | 腾讯医疗健康(深圳)有限公司 | 模型的训练方法、眼底黄斑区病变识别方法、装置及设备 |
CN110569841A (zh) * | 2019-09-02 | 2019-12-13 | 中南大学 | 基于卷积神经网络的接触网关键部件目标检测方法 |
CN110427922A (zh) * | 2019-09-03 | 2019-11-08 | 陈�峰 | 一种基于机器视觉和卷积神经网络病虫害识别系统和方法 |
CN111046959A (zh) * | 2019-12-12 | 2020-04-21 | 上海眼控科技股份有限公司 | 模型训练方法、装置、设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
胡琼: "基于深度卷积神经网络的遥感图像目标识别与检测", 《宁夏师范学院学报》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112084876A (zh) * | 2020-08-13 | 2020-12-15 | 宜通世纪科技股份有限公司 | 一种目标对象追踪方法、系统、装置及介质 |
CN112084876B (zh) * | 2020-08-13 | 2024-05-03 | 宜通世纪科技股份有限公司 | 一种目标对象追踪方法、系统、装置及介质 |
CN112507833A (zh) * | 2020-11-30 | 2021-03-16 | 北京百度网讯科技有限公司 | 人脸识别及模型训练的方法、装置、设备和存储介质 |
CN112489676A (zh) * | 2020-12-15 | 2021-03-12 | 腾讯音乐娱乐科技(深圳)有限公司 | 模型训练方法、装置、设备及存储介质 |
CN112560463A (zh) * | 2020-12-15 | 2021-03-26 | 中国平安人寿保险股份有限公司 | 文本多标注方法、装置、设备及存储介质 |
CN112560463B (zh) * | 2020-12-15 | 2023-08-04 | 中国平安人寿保险股份有限公司 | 文本多标注方法、装置、设备及存储介质 |
CN112508300A (zh) * | 2020-12-21 | 2021-03-16 | 北京百度网讯科技有限公司 | 建立风险预测模型的方法、区域风险预测方法及对应装置 |
CN112508300B (zh) * | 2020-12-21 | 2023-04-18 | 北京百度网讯科技有限公司 | 建立风险预测模型的方法、区域风险预测方法及对应装置 |
CN112580734A (zh) * | 2020-12-25 | 2021-03-30 | 深圳市优必选科技股份有限公司 | 目标检测模型训练方法、系统、终端设备及存储介质 |
CN112580734B (zh) * | 2020-12-25 | 2023-12-29 | 深圳市优必选科技股份有限公司 | 目标检测模型训练方法、系统、终端设备及存储介质 |
CN112784883B (zh) * | 2021-01-07 | 2022-08-12 | 厦门大学 | 一种基于样本选择扩充的冷水珊瑚分布预测方法及系统 |
CN112784883A (zh) * | 2021-01-07 | 2021-05-11 | 厦门大学 | 一种基于样本选择扩充的冷水珊瑚分布预测方法及系统 |
CN112766387A (zh) * | 2021-01-25 | 2021-05-07 | 海尔数字科技(上海)有限公司 | 一种训练数据的纠错方法、装置、设备及存储介质 |
CN112766387B (zh) * | 2021-01-25 | 2024-01-23 | 卡奥斯数字科技(上海)有限公司 | 一种训练数据的纠错方法、装置、设备及存储介质 |
CN112836820A (zh) * | 2021-01-31 | 2021-05-25 | 云知声智能科技股份有限公司 | 用于图像分类任务的深度卷积网络训方法、装置及系统 |
CN112836820B (zh) * | 2021-01-31 | 2023-12-19 | 云知声智能科技股份有限公司 | 用于图像分类任务的深度卷积网络训练方法、装置及系统 |
CN112733807A (zh) * | 2021-02-22 | 2021-04-30 | 佳都新太科技股份有限公司 | 一种人脸比对的图卷积神经网络训练方法及装置 |
CN113159209A (zh) * | 2021-04-29 | 2021-07-23 | 深圳市商汤科技有限公司 | 目标检测方法、装置、设备和计算机可读存储介质 |
CN113159209B (zh) * | 2021-04-29 | 2024-05-24 | 深圳市商汤科技有限公司 | 目标检测方法、装置、设备和计算机可读存储介质 |
CN113326852A (zh) * | 2021-06-11 | 2021-08-31 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备、存储介质及程序产品 |
CN113435525A (zh) * | 2021-06-30 | 2021-09-24 | 平安科技(深圳)有限公司 | 分类网络训练方法、装置、计算机设备及存储介质 |
CN113537309A (zh) * | 2021-06-30 | 2021-10-22 | 北京百度网讯科技有限公司 | 一种对象识别方法、装置及电子设备 |
CN113537309B (zh) * | 2021-06-30 | 2023-07-28 | 北京百度网讯科技有限公司 | 一种对象识别方法、装置及电子设备 |
CN113657411A (zh) * | 2021-08-23 | 2021-11-16 | 北京达佳互联信息技术有限公司 | 神经网络模型的训练方法、图像特征提取方法及相关装置 |
CN116245154B (zh) * | 2022-11-30 | 2024-06-11 | 荣耀终端有限公司 | 神经网络的训练方法、舆情危机识别方法及相关装置 |
CN115701866B (zh) * | 2022-12-22 | 2023-10-27 | 荣耀终端有限公司 | 一种电商平台风险识别模型训练方法和装置 |
CN115701866A (zh) * | 2022-12-22 | 2023-02-14 | 荣耀终端有限公司 | 一种电商平台风险识别模型训练方法和装置 |
CN116912633B (zh) * | 2023-09-12 | 2024-01-05 | 深圳须弥云图空间科技有限公司 | 目标追踪模型的训练方法及装置 |
CN116912633A (zh) * | 2023-09-12 | 2023-10-20 | 深圳须弥云图空间科技有限公司 | 目标追踪模型的训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111523596B (zh) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111523596B (zh) | 目标识别模型训练方法、装置、设备以及存储介质 | |
CN111639710B (zh) | 图像识别模型训练方法、装置、设备以及存储介质 | |
CN111523597B (zh) | 目标识别模型训练方法、装置、设备以及存储介质 | |
CN111931591B (zh) | 用于构建关键点学习模型的方法、装置、电子设备及可读存储介质 | |
CN111710412B (zh) | 诊断结果的校验方法、装置及电子设备 | |
CN111626119A (zh) | 目标识别模型训练方法、装置、设备以及存储介质 | |
CN111539223A (zh) | 语言模型的训练方法、装置、电子设备及可读存储介质 | |
CN112036509A (zh) | 用于训练图像识别模型的方法和装置 | |
CN111737995A (zh) | 基于多种词向量训练语言模型的方法、装置、设备及介质 | |
CN111737994A (zh) | 基于语言模型获取词向量的方法、装置、设备及存储介质 | |
CN111767379A (zh) | 图像问答方法、装置、设备以及存储介质 | |
CN111667056B (zh) | 用于搜索模型结构的方法和装置 | |
CN112149741B (zh) | 图像识别模型的训练方法、装置、电子设备及存储介质 | |
CN111737996A (zh) | 基于语言模型获取词向量的方法、装置、设备及存储介质 | |
CN112270711B (zh) | 模型训练以及姿态预测方法、装置、设备以及存储介质 | |
CN111339759A (zh) | 领域要素识别模型训练方法、装置及电子设备 | |
CN110795569A (zh) | 知识图谱的向量表示生成方法、装置及设备 | |
CN111582185A (zh) | 用于识别图像的方法和装置 | |
CN111783760A (zh) | 文字识别的方法、装置、电子设备及计算机可读存储介质 | |
CN110852379B (zh) | 用于目标物体识别的训练样本生成方法及装置 | |
CN111666771B (zh) | 文书的语义标签抽取、装置、电子设备及可读存储介质 | |
CN112561056A (zh) | 神经网络模型的训练方法、装置、电子设备和存储介质 | |
CN112508004A (zh) | 一种文字识别方法、装置、电子设备及存储介质 | |
CN112101552A (zh) | 用于训练模型的方法、装置、设备以及存储介质 | |
CN111640103A (zh) | 图像检测方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |