CN109359689A - 一种数据识别方法及装置 - Google Patents
一种数据识别方法及装置 Download PDFInfo
- Publication number
- CN109359689A CN109359689A CN201811223397.5A CN201811223397A CN109359689A CN 109359689 A CN109359689 A CN 109359689A CN 201811223397 A CN201811223397 A CN 201811223397A CN 109359689 A CN109359689 A CN 109359689A
- Authority
- CN
- China
- Prior art keywords
- data
- unpaired
- classification
- training
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000012549 training Methods 0.000 claims abstract description 175
- 238000013480 data collection Methods 0.000 claims abstract description 44
- 230000006870 function Effects 0.000 claims description 117
- 230000004931 aggregating effect Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 8
- 230000008569 process Effects 0.000 description 21
- 238000012795 verification Methods 0.000 description 14
- 238000002372 labelling Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种识别模型的训练方法及装置,该方法包括:分别获取至少两个数据收集场景下的场景数据集合,其中,每个场景数据集合包括至少一个数据分类下的已配对数据和/或至少一个数据分组下的未配对数据,接着,可以利用获取到的至少两个数据收集场景下的场景数据集合进行模型训练,以训练得到一个识别模型,进而可以利用该识别模型对待识别数据进行识别。可见,本申请从不同数据收集场景获取已配对数据和未配对数据共同作为训练数据,进行识别模型的训练,由于包括未配对数据,可以减少数据标注工作,并且,由于训练数据包括不同数据收集场景下的场景数据集合,可以使训练得到的识别模型在不同场景下均具有较好的数据识别效果。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种数据识别方法及装置。
背景技术
目前,随着人脸识别精度的提高,人脸识别技术逐渐走进大众的视野,基于人脸识别的应用也层出不穷,它主要应用在身份识别和身份验证中。其中,身份识别包括失踪人口和嫌疑人追踪、智能交互场景中识别用户身份等场景;而身份验证包括身份证等证件查询、出入考勤查验、身份验证解锁、支付等场景。
整个人脸识别的流程包含人脸检测、人脸对齐、人脸识别三个过程,而对于人脸识别过程,需要对应训练一个人脸识别模型,但这需要大量的数据对模型训练进行支持,而数据获取以及数据标注是个耗时耗力的工作。此外,在一个场景下训练的模型在另一个场景下的使用效果可能会变差,不能适用于多场景。
发明内容
本申请实施例的主要目的在于提供一种数据识别方法及装置,能够减少数据标注工作并使模型在不同场景下均具有较好的数据识别效果。
本申请实施例提供了一种数据识别方法,包括:
利用预先训练得到的识别模型对待识别数据进行识别;
其中,按照下述方式训练得到所述识别模型;
分别获取至少两个数据收集场景下的场景数据集合,所述场景数据集合对应至少一个数据分类和/或至少一个数据分组,所述数据分类下包括经配对标注后的对应于同一识别对象的至少两个已配对数据,所述数据分组下包括未经配对标注的对应于同一识别对象的至少两个未配对数据;
利用所述至少两个数据收集场景下的场景数据集合进行模型训练,训练得到所述识别模型。
可选的,所述至少两个未配对数据是在连续时段内通过跟踪对应识别对象得到的。
可选的,所述利用所述至少两个数据收集场景下的场景数据集合进行模型训练,包括:
若所述场景数据集合对应至少一个数据分组,则将所述数据分组下的未配对数据分配至目标数据集合中,所述目标数据集合为不同于所述场景数据集合的另一场景数据集合;
利用数据分配后的各个场景数据集合进行模型训练。
可选的,所述利用数据分配后的各个场景数据集合进行模型训练,包括:
确定所述数据分组下的未配对数据在所述目标数据集合中对应的数据分类;
利用数据分配后的各个场景数据集合以及每一场景数据集合对应的数据分类,进行模型训练。
可选的,所述确定所述数据分组下的未配对数据在所述目标数据集合中对应的数据分类,包括:
将所述数据分组下的未配对数据,平均分配给所述目标数据集合中的每一已有数据分类;
或者,在所述目标数据集合下创建一个新的数据分类,并将所述数据分组下的未配对数据分配给所述新的数据分类;
或者,将所述数据分组下的未配对数据,分配给所述目标数据集合中一个已有数据分类。
可选的,所述进行模型训练,包括:
利用不同目标损失函数对所述已配对数据及所述未配对数据进行模型训练;
其中,在采用所述已配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据以及区分不同数据分类中的数据;在采用所述未配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据且不能区分不同数据分类中的数据。
本申请实施例还提供了一种数据识别装置,包括:
数据识别单元,用于利用预先训练得到的识别模型对待识别数据进行识别,其中,所述识别模型通过集合获取单元和模型训练单元训练得到;
集合获取单元,用于分别获取至少两个数据收集场景下的场景数据集合,所述场景数据集合对应至少一个数据分类和/或至少一个数据分组,所述数据分类下包括经配对标注后的对应于同一识别对象的至少两个已配对数据,所述数据分组下包括未经配对标注的对应于同一识别对象的至少两个未配对数据;
模型训练单元,用于利用所述至少两个数据收集场景下的场景数据集合进行模型训练,训练得到一所述识别模型。
可选的,所述至少两个未配对数据是在连续时段内通过跟踪对应识别对象得到的。
可选的,所述模型训练单元包括:
第一数据分配子单元,用于若所述场景数据集合对应至少一个数据分组,则将所述数据分组下的未配对数据分配至目标数据集合中,所述目标数据集合为不同于所述场景数据集合的另一场景数据集合;
第一模型训练子单元,用于利用数据分配后的各个场景数据集合进行模型训练。
可选的,所述第一模型训练子单元包括:
数据分类确定子单元,用于确定所述数据分组下的未配对数据在所述目标数据集合中对应的数据分类;
第二模型训练子单元,用于利用数据分配后的各个场景数据集合以及每一场景数据集合对应的数据分类,进行模型训练。
可选的,所述数据分类确定子单元包括:
第二数据分配子单元,用于将所述数据分组下的未配对数据,平均分配给所述目标数据集合中的每一已有数据分类;
或者,
第三数据分配子单元,用于在所述目标数据集合下创建一个新的数据分类,并将所述数据分组下的未配对数据分配给所述新的数据分类;
或者,
第四数据分配子单元,用于将所述数据分组下的未配对数据,分配给所述目标数据集合中一个已有数据分类。
可选的,所述第二模型训练子单元,具体用于利用不同目标损失函数对所述已配对数据及所述未配对数据进行模型训练;
其中,在采用所述已配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据以及区分不同数据分类中的数据;在采用所述未配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据且不能区分不同数据分类中的数据。
本申请实施例还提供了一种人脸识别方法,其特征在于,包括:
获取两张人脸图像,利用预先训练得到的识别模型对所述人脸图像进行识别;
所述识别模型根据所述人脸图像之间的特征向量是否小于预设阈值,判断所述人脸图像是否为同一人;
其中,按照下述方式训练得到所述识别模型;
分别获取至少两个数据收集场景下的场景数据集合,所述场景数据集合包括经标注的已配对数据和未经标注的未配对数据,将所述未配对数据进行伪标签处理,利用不同目标损失函数对所述已配对数据及所述未配对数据进行模型训练得到所述识别模型;
对于所述已配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据以及区分不同数据分类中的数据;对于所述未配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据且不能区分不同数据分类中的数据。
本申请实施例提供的一种识别模型的训练方法及装置,首先分别获取至少两个数据收集场景下的场景数据集合,其中,每个场景数据集合包括至少一个数据分类下的已配对数据和/或至少一个数据分组下的未配对数据,接着,可以利用获取到的至少两个数据收集场景下的场景数据集合进行模型训练,以训练得到一个识别模型,进而可以利用该识别模型对待识别数据进行识别。可见,本申请实施例从不同数据收集场景获取已配对数据和未配对数据共同作为训练数据,进行识别模型的训练,再利用训练好的模型对待识别数据进行识别,由于包括未配对数据,可以减少数据标注工作,并且,由于训练数据包括不同数据收集场景下的场景数据集合,可以使训练得到的识别模型适用于多个不同场景,即,使该识别模型在不同场景下均具有较好的数据识别效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种数据识别方法的流程示意图;
图2为本申请实施例提供的一种未配对数据分配示意图;
图3为本申请实施例提供的利用数据分配后的各个场景数据集合进行模型训练的流程示意图;
图4为本申请实施例提供的一种数据识别装置的组成示意图。
具体实施方式
在一些数据识别方法中,比如在对人脸进行识别时,通常是利用预先训练得到的识别模型进行识别,而在对识别模型进行训练时,通常是将大量的已配对数据作为训练数据,进行模型训练。其中,关于已配对数据,当利用多个不同摄像头或同一摄像头拍摄到同一人的多张人脸图像时,若将这多张人脸图像标记为同一人时,则这多张人脸图像中的每一张人脸图像均为已配对数据。例如,关于摄像头A拍摄到的人物R的人脸图像1以及摄像头B拍摄到的人物R的人脸图像2,当这两幅图像被标记为人物R时,则人脸图像1和人脸图像2均为已配对数据,后续简称其为摄像配对数据;又例如,在机场或火车站,关于某摄像头拍摄到的人物R的人脸图像以及人物R的证件(比如身份证、护照等)上的人脸图像,这两幅图像也均为配对图像,后续简称其为人证配对数据。需要说明的是,用于人脸识别模型的训练数据,应包括多个不同人物R的已配对数据,且每组已配对数据应至少包括同一人物R的至少两幅人脸图像。
当收集到大量已配对数据后,可以寻找一个合适的神经网络结构,比如,卷积神经网络(Convolutional Neural Network,简称CNN),然后再利用一个损失(Loss)函数对该神经网络进行训练,其中广泛使用的方法为人脸识别算法(DeepID)系列方案,该方案是将识别(Identification)和验证(Verification)联合训练,通过这种联合训练的方式,可以在识别过程中使得相同数据类之内更加聚合、不同数据类之间更加分散,这里的数据类指的是同一人物R的所有人脸图像。
在联合训练过程中,识别过程使用的损失函数为SoftmaxLoss,验证过程使用的损失函数是VerifyLoss,这两个损失函数的表达式分别如下:
其中,在公式(1)所示的SoftmaxLoss函数中,pj表示一个样本在预测时属于第j类的概率;yj是一个指示函数,表示该样本的真值类别,当样本属于第j类时,yj=1,当样本不属于第j类时,yj=0;L表示该样本在预测时产生的交叉熵损失。
其中,在公式(2)所示的VerifyLoss函数中,fi和fj分别表示样本i和样本j的特征;m表示一个人工设定的超参,用以调节对不同类别的样本特征的约束能力,m越大则使得不同类别的样本特征距离越远,反之则越近;而yij=1表示样本i和样本j属于同一类别,yij=-1表示样本i和样本j属于不同类别。
需要说明的是,上述“样本”指的是模型训练数据中的某个人脸图像;当模型训练数据中的各个人脸图像对应多个不同人物R时,上述“类”指的是多个不同人物R中的某个人物。还需要说明的是,上述公式(1)所示的SoftmaxLoss函数主要用于在模型训练数据中区分不同的类;上述公式(2)所示的VerifyLoss函数主要用于使模型训练数据中的同类样本的特征距离更近、使不同类样本的特征距离更远,即,可以聚合同一人物R的人脸图像以及区分不同人物R的人脸图像。
但是,关于模型训练数据中不同人物R分别对应的一组已配对数据,其可以包括上述提及的摄像配对数据和/或人证配对数据,在收集已配对数据时,人证配对数据的获取较为方便,但摄像配对数据的获取则较为困难,这是因为,对于不同摄像头或同一摄像头在不同时刻拍摄的人脸图像,需要对获取到的各个人脸图像进行标注,才能确定出各个人脸图像之间的关系,从而找出同一人物R对应的多张人脸图像,即找到同一人物R对应的一组已配对数据,但整个图像标注过程耗时耗力。
此外,当将某一场景下训练的人脸识别模型应用于另一场景时,其识别效果可能会变差,即,人脸识别模型的适应性较差。例如,在利用北京地区的多个摄像头拍摄的已配对数据进行模型训练,得到一个人脸识别模型后,基于各种因素的影响,比如不同地区的拍摄环境可能不同(比如光照不同)、不同摄像头的不同拍摄方式可能不同(比如拍摄角度不同)、以及不同摄像头设备之间的参数可能存在差异等等,当使用该人脸识别模型对上海地区的多个摄像头拍摄的人脸图像进行人脸识别时,其识别效果可能会变差。
为解决上述缺陷,本申请实施例提供了一种识别模型的训练方法,该方法使用不同数据收集场景下获取的已配对数据以及未配对数据,进行识别模型的训练,再利用训练好的识别模型对待识别数据进行识别。现举例说明已配对数据和未配对数据,例如,当该识别模型为人脸识别模型时,在不同数据收集场景下获取的数据可以是不同地区的摄像头拍摄的人脸图像,关于已配对数据,可以获取同一地区的不同或同一摄像头拍摄到的同一人物R的至少两张人脸图像,这些经配对标注后属于同一人物R的每一人脸图像即为已配对数据;关于未配对数据,可以将同一人物R作为跟踪目标,利用同一摄像头跟踪获取该人物R的至少两张人脸图像,这些未经配对标注的但属于同一人物R的每一人脸图像即为未配对数据。
可见,本申请实施例在模型训练过程中,是利用已配对数据和未配对数据共同作为训练数据,以进行识别模型的训练,然后再利用训练好的识别模型对待识别的数据进行识别,由于训练数据中包括未配对数据,可以减少数据标注工作,而且,由于未配对数据较为丰富,因此,在数据量层面上说,能够提升人脸识别模型的识别效果。此外,从场景丰富性角度来说,从不同数据收集场景获取数据能够去除特征层面的场景信息依赖,进而能够解决模型的泛化能力问题,使得识别模型能够适用于多个场景,即,使其在不同场景下均具有较好的数据识别效果。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
第一实施例
参见图1,为本实施例提供的一种识别模型的训练方法的流程示意图,该方法包括以下步骤:
S101:利用预先训练得到的识别模型对待识别数据进行识别。
在本实施例中,首先,将需要进行识别的数据定义为待识别数据,接着,可以利用预先训练好的识别模型对待识别数据进行识别。例如,假设待识别数据是在A地区通过某摄像头拍摄到的人物R的人脸图像,则可以利用本实施例预先训练得到的人脸识别模型对该人脸图像进行人脸识别,以识别出该人脸图像对应的人物,即人物R,进一步地,若预先已建立了一个包含人物R的人脸图像的数据分类,还可以进一步将识别出的该人脸图像归属于这个数据分类中。
在本实施例中,可以按照下述步骤S102-步骤S104训练得到识别模型。
S102:分别获取至少两个数据收集场景下的场景数据集合,其中,所述场景数据集合对应至少一个数据分类和/或至少一个数据分组,每一数据分类下包括经配对标注后的对应于同一识别对象的至少两个已配对数据,每一数据分组下包括未经配对标注的对应于同一识别对象的至少两个未配对数据。
在本实施例中,为了在训练识别模型时,能够减少数据的标注工作并使得训练后的模型能适用于多个场景,首先需要分别获取至少两个数据收集场景下的场景数据集合。例如,假设待训练的识别模型为人脸识别模型,则不同的数据收集场景可以指不同的数据收集地区,那么,可以收集不同地区拍摄到的人脸图像,比如,可以收集北京某些地区的多个不同摄像头拍摄到的人脸图像、以及上海某些地区的多个不同摄像头拍摄到的人脸图像等,从而收集到至少两个不同数据收集地区下的人脸图像集合,即,每一数据收集地区对应一个人脸图像集合。
在本实施例中,每一场景数据集合可以对应至少一个数据分类和/或至少一个数据分组。其中,每一数据分类下可以包括至少两个已配对数据,同一数据分类下的这些已配对数据是经配对后将其标注属于同一识别对象而得到的,比如,经配对标注得到的同一人物R的多张人脸图像;而每一数据分组下可以包括至少两个未配对数据,该至少两个未配对数据可以是在连续时段内通过跟踪对应识别对象得到的,具体来讲,同一数据分组下的这些未配对数据,不是经配对标注的方式形成的,而是将一个识别对象作为跟踪目标,在一个连续时间段内进行持续跟踪,从而获得的属于同一识别对象的至少两个未经配对标注的未配对数据,比如通过目标跟踪得到的同一人物R的多张人脸图像。
S103:利用所述至少两个数据收集场景下的场景数据集合进行模型训练,训练得到一个识别模型。
在本实施例中,通过步骤S101分别获取到至少两个数据收集场景下的场景数据集合后,可以将每一场景数据集合中包括的至少一个数据分类下的已配对数据和/或至少一个数据分组下的未配对数据共同作为训练数据,进行模型训练,以训练得到相应的识别模型。其中,由于训练数据中包括了未配对数据,可以减少数据标注工作,并且,通过从不同数据收集场景获取训练数据,也能够去除特征层面的场景信息依赖,进而提高训练得到的识别模型的泛化能力,使其能够适用于多个场景。
在本实施例的一种实现方式中,S102可以包括步骤A1-B1:
步骤A1:若场景数据集合对应至少一个数据分组,则将所述数据分组下的未配对数据分配至目标数据集合中,其中,目标数据集合为不同于所述未配对数据所属的场景数据集合的另一场景数据集合。
在本实施例中,对于通过步骤S101分别获取到的每一数据收集场景下的每一场景数据集合,其可以对应至少一个数据分类和/或至少一个数据分组,即,可以仅对应至少一个数据分类、或仅对应至少一个数据分组、或既对应至少一个数据分类也对应至少一个数据分组。
当确定出某个场景数据集合对应至少一个数据分组后,可以将每一数据分组下的未配对数据分配至目标数据集合中,其中,该目标数据集合指的是该数据分组所属场景数据集合以外的其它任一场景数据集合,需要说明的是,当场景数据集合对应两个或两个不同的数据分组时,可以这些数据分组全部分配给同一目标数据集合,也可以将这些数据分组分配给不同的目标数据集合,但同一数据分组下的全部未配对数据应分配至同一目标数据集合。例如,以数据收集场景为数据收集地区为例,当北京地区对应的场景数据集合中对应至少一个数据分组时,可以将这些数据分组下的未配对数据分配到非北京地区对应的场景数据集合中,比如可以将某一数据分组下的未配对数据分配到上海地区对应的场景数据集合中。
举例说明,如图2所示,其示出了本实施例提供的一种未配对数据分配示意图。A、B和C分别代表三个数据收集场景(比如北京、上海、合肥三个数据收集地区)对应的三个场景数据集合,每一场景数据集合包括已配对数据和未配对数据,可以将这些场景数据集合中的数据送入一个CNN网络中,以得到每一场景数据集合的数据特征FA、FB、FC,其中,FA包括场景数据集合A中每一已配对数据(简称FA配对数据)的数据特征以及每一未配对数据(简称FA非配对数据)的数据特征,FB包括场景数据集合B中每一已配对数据(简称FB配对数据)的数据特征以及每一未配对数据(简称FB非配对数据)的数据特征,FC包括场景数据集合C中每一已配对数据(简称FC配对数据)的数据特征以及每一未配对数据(简称FC非配对数据)的数据特征。
为了避免网络错分,以场景数据集合A中的“FA非配对数据”为例,由于场景数据集合A可能包括“FA非配对数据”实际所属的一个数据分类,但为了避免将“FA非配对数据”分配到场景数据集合A的其它数据分类中,且场景数据集合B或C不存在“FA非配对数据”所属的数据分类的可能性很大,可以将“FA非配对数据”所属的整个分组数据分配至场景数据集合B或C中。比如,如图2所示,可以将“FA非配对数据”所属的整个分组数据分配至场景数据集合B中,同理,可以将“FB非配对数据”所属的整个分组数据分配场景数据集合C中,将“FC非配对数据”所属的整个分组数据分配至场景数据集合A中。
步骤B1:利用数据分配后的各个场景数据集合进行模型训练。
在本实施例中,当通过步骤A1将各个场景数据集合的各个数据分组下的未配对数据进行重新分配后,可以利用分配后的各个场景数据集合作为训练数据,进行识别模型的训练,以训练得到识别模型。
需要说明的是,具体的利用数据分配后的各个场景数据集合进行模型训练的训练过程可参见后续第二实施例的相关介绍。
综上,本实施例提供的一种识别模型的训练方法,首先分别获取至少两个数据收集场景下的场景数据集合,其中,每个场景数据集合包括至少一个数据分类下的已配对数据和/或至少一个数据分组下的未配对数据,接着,可以利用获取到的至少两个数据收集场景下的场景数据集合进行模型训练,以训练得到一个识别模型,进而可以利用该识别模型对待识别数据进行识别。可见,本申请实施例从不同数据收集场景获取已配对数据和未配对数据共同作为训练数据,进行识别模型的训练,再利用训练好的模型对待识别数据进行识别,由于包括未配对数据,可以减少数据标注工作,并且,由于训练数据包括不同数据收集场景下的场景数据集合,可以使训练得到的识别模型适用于多个不同场景,即,使该识别模型在不同场景下均具有较好的数据识别效果。
第二实施例
本实施例将对第一实施例中步骤B1“利用数据分配后的各个场景数据集合进行模型训练”的具体实现过程进行介绍。
参见图3,其示出了本实施例提供的利用数据分配后的各个场景数据集合进行模型训练的流程示意图,该流程包括以下步骤:
S301:确定每一数据分组下的未配对数据在目标数据集合中对应的数据分类。
在本实施例中,在通过步骤A1将每一场景数据集合的数据分组下的未配对数据分配到一个目标数据集合后,为了利用所有未配对数据与已配对数据共同作为训练数据进行模型训练,需要将分配后的未配对数据划分到其所属目标数据集合中对应的数据分类中,这是由于未配对数据不存在标签(label)信息,从而不能直接使用现有的识别损失函数SoftmaxLoss和验证损失函数VerifyLoss来进行模型训练。
为此,需要确定出每一数据分组下的未配对数据在目标数据集合中对应的具体的数据分类,例如,如图2所示,当将“FA非配对数据”所属的整个分组数据分配至场景数据集合B中时,可以将“FA非配对数据”所属的整个分组数据分配至场景数据集合B的数据分类中。进而,可以根据未配对数据所属的数据分类,以某种方式为其配置标签信息,比如采用标签平滑正则化(Label Smooth Regularization,简称LSR)方法配置标签,以便后续根据未配对数据的标签信息,确定其对应的识别损失函数Llsr计算公式,用以进行模型训练。
具体地,在本实施例的一种实现方式中,S301具体可以包括步骤A2-C2中的任一步骤的实现方式:
步骤A2:对于每一数据分组下的未配对数据以及该数据分组被分配的目标数据集合,将该数据分组下的未配对数据,平均分配给该目标数据集合下的每一已有数据分类。
在本实现方式中,可以将该数据分组下的未配对数据,平均分配给目标数据集合中的每一已有数据分类,即,若目标数据集合中存在N个数据分类,则可以认为该数据分组下的未配对数据属于每一个数据分类的概率为1/N,因此,该未配对数据的标签可以为(1/N,1/N,…1/N),此时,目标数据集合中的数据分类仍为N类。
步骤B2:对于每一数据分组下的未配对数据以及该数据分组被分配的目标数据集合,在该目标数据集合下创建一个新的数据分类,并将该数据分组下的未配对数据分配给该新的数据分类。
在本实现方式中,可以在该目标数据集合下创建一个新的数据分类,假设目标数据集合中存在N个数据分类,则创建第N+1个数据分类,然后,可以将该数据分组下的未配对数据分配给该新创建的数据分类,同时,为该数据分组下的未配对数据设置的标签可以为(0,0,0…,1),其中,“1”代表第N+1个数据分类,此时,该目标数据集合中的数据分类为N+1类。
步骤C2:对于每一数据分组下的未配对数据以及该数据分组被分配的目标数据集合,将该数据分组下的未配对数据,分配给该目标数据集合中一个已有数据分类。
在本实现方式中,可以计算该数据分组下的未配对数据与目标数据集合中每一个数据分类数据之间的特征距离,距离最小的即为与其最相似的数据分类,此时,可以将该数据分组下的未配对数据分配给该最相似的数据分类中,同时,为该数据分组下的未配对数据设置的标签可以为(0,0,0,1,…0),其中,“1”代表未配对数据被分配的数据分类,此时,目标数据集合中的数据分类仍为N类。
S302:利用数据分配后的各个场景数据集合以及每一场景数据集合对应的数据分类,进行模型训练。
在本实施例中,当通过步骤S301确定出各个数据分组中的未配对数据在目标数据集合中对应的数据分类后,使得每一场景数据集合的每一数据分类中,既可以包含已配对数据、还可以包含未配对数据,此时,可以基于各个场景数据集合中每一数据分类下的已配对数据和未配对数据,对识别模型进行训练。
在一种可选的实现方式中,具体可以利用目标损失函数进行模型训练,其中,该目标损失函数包括已配对数据对应的损失函数以及未配对数据对应的损失函数。在本实现方式中,由于需要利用已配对数据和未配对数据共同进行模型训练,而已配对数据是经标注后的配对数据、未配对数据是未经标注的非配对数据,二者属于不同的数据类型,因此,可以分别为二者预设不同的损失函数,其中,由于每一数据分组下的未配对数据在对应的目标数据集合中,可以采用上述三种分类方式之一进行数据分类,因此,未配对数据对应的损失函数,可以是基于未配对数据实际对应的数据分类方式确定的。
具体地,目标损失函数可以包括识别损失函数Llsr以及验证损失函数Lverify,计算公式如下:
L=Llsr+λ*Lverify
其中,Llsr表示已配对数据对应的识别损失函数,Lverify表示已配对数据对应的验证损失函数;或者,Llsr表示未配对数据对应的识别损失函数,Lverify表示未配对数据对应的验证损失函数;λ表示损失调节系数,其取值范围可以是[0,1]的范围或是其它预设数值范围。
在进行模型训练时,需要从每一数据分类下依次提取一条训练数据(某已配对数据或某未配对数据),用于当前轮的模型训练,此时,需要确定该条训练数据对应的损失函数,再基于该条训练数据以及对应的损失函数进行模型训练。
具体来讲,在一种可选的实现方式中,在采用已配对数据进行模型训练时,上述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据以及区分不同数据分类中的数据,更具体地,若当前采用已配对数据进行模型训练,则利用目标损失函数中的第一损失函数和第二损失函数进行模型训练,其中,第一损失函数用于区别各个数据分类,第二损失函数用于聚合相同数据分类中的数据以及区分不同数据分类中的数据。
在本实现方式中,若当前采用已配对数据进行模型训练,则可以利用目标损失函数中的第一损失函数和第二损失函数进行模型训练。其中,第一损失函数可以是已配对数据对应的识别损失函数Llsr,具体可以是上述SoftmaxLoss函数,即公式(1);第二损失函数可以是已配对数据对应的验证损失函数Lverify,具体可以是上述VerifyLoss函数,即公式(2)。
在另一种可选的实现方式中,在采用未配对数据进行模型训练时,上述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据且不能区分不同数据分类中的数据,更具体地,若当前采用未配对数据进行模型训练,则可以利用目标损失函数中的第三损失函数和第四损失函数进行模型训练,其中,第三损失函数由未配对数据对应的数据分类方式确定且用于区别各个数据分类,第四损失函数用于聚合相同数据分类中的数据且不能区分不同数据分类中的数据。
在本实现方式中,若当前采用未配对数据进行模型训练,则可以利用目标损失函数中的第三损失函数和第四损失函数进行模型训练。其中,第三损失函数可以是未配对数据对应的识别损失函数Llsr,且第三损失函数是由未配对数据对应的数据分类方式确定的,第三损失函数具体可以由上述步骤A2-C2中的一种数据分类方式确定,此外,第四损失函数可以是未配对数据对应的验证损失函数Lverify,但由于未配对数据不是已配对数据,即,未配对数据没有与其它数据形成正确的数据分类,因此,与上述已配对数据对应的第二损失函数不同的是,该未配对数据对应的第四损失函数无法区别不同数据分类中的数据,但能够聚合相同数据分类中的数据。
接下来,对第三损失函数和第四损失函数的具体形式进行介绍。
具体来讲,若采用上述步骤A2确定一个数据分组下的未配对数据在目标数据集合中对应的数据分类,是将该数据分组下的未配对数据平均分配给目标数据集合的每一已有数据分类,基于此,可以确定出该未配对数据对应的第三损失函数的计算公式为:
其中,K表示该未配对数据所属的目标数据集合中的数据分类总数,p(k)表示该未配对数据属于第k个数据分类的概率。
若采用上述步骤B2确定一个数据分组下的未配对数据在目标数据集合中对应的数据分类,是在目标数据集合下创建一个新的数据分类,即第K+1个数据分类,并将该数据分组下的未配对数据分配给该新的数据分类,基于此,可以确定出该未配对数据对应的第三损失函数的计算公式为:
Llsr=-log(p(K+1)) (4)
其中,K+1表示该未配对数据所属的目标数据集合中的数据分类总数,p(K+1)表示该未配对数据属于第K+1个数据分类的概率。
若采用上述步骤C2确定一个数据分组下的未配对数据在目标数据集合中对应的数据分类,是将该数据分组下的未配对数据分配给目标数据集合中一个已有数据分类k,基于此,可以确定出该未配对数据对应的第三损失函数的计算公式为:
Llsr=-Z*log(p(k)) st.k∈[1,K] (5)
其中,k的取值范围是[1,K],且k为该未配对数据在目标数据集合中所属的数据分类,K表示该未配对数据所属的目标数据集合中的数据分类总数;p(k)表示该未配对数据属于第k个数据分类的概率。
此外,关于第四损失函数,具体可以采用上述公式(2)中上面的公式,即:
需要说明的是,通过上述方式确定出已配对数据和未配对数据分别对应的目标损失函数(比如识别损失函数Llsr以及验证损失函数Lverify)后,进一步的,可以将每一场景数据集合中的所有数据作为训练数据,并结合已配对数据和未配对数据对应的目标损失函数,进行识别模型的训练,比如可以采用人脸识别模型的训练过程进行训练,具体的训练过程如下:
(1)训练数据整合
在获取到每一场景数据集合中所有的已配对数据和未配对数据后,为了便于后续神经网络结构对训练数据进行快速读取,可以将这些训练数据进行打包整合,比如,可以将其打包生成LMDB格式的数据块。
(2)配置神经网络结构
在本实施例中,可以利用神经网络进行训练,比如可以利用50层的CNN网络(ResNet50)作为基础网络结构,再在网络的最后特征层pool5,分别连接通过上述步骤确定的识别损失函数Llsr以及验证损失函数Lverify。
具体来讲,在神经网络结构的配置过程中,可以使用多任务学习方法,分别使用已配对数据和未配对数据作为输入数据输入至输入层,共享CNN网络参数,在特征层,利用目标损失函数中的识别损失函数Llsr和验证损失函数Lverify对原有的识别损失函数SoftmaxLoss和验证损失函数VerifyLoss进行替换。
其中,当输入数据为已配对数据时,分类损失函数可以为上述第一损失函数,即Llsr,验证损失函数为上述第二损失函数,即Lverify;当输入数据为未配对数据时,分类损失函数可以为上述第三损失函数,即Llsr,验证损失函数为上述第四损失函数,即数Lverify。可见,目标损失函数所涉及的这四个损失函数,其可以覆盖输入为已配对数据和未配对数据两种不同情况,因此可用目标损失函数中的识别损失函数Llsr和验证损失函数Lverify直接替换原有的识别损失函数SoftmaxLoss和验证损失函数VerifyLoss。
(3)模型参数更新
在进行模型训练过程中,可以使用现有或将来出现的参数优化算法,比如随机梯度下降(Stochastic Gradient Descent,简称SGD)优化器,根据训练结果,调节模型的学习率、动量等参数,使之在进行多次迭代训练后,比如,在进行20~30次迭代训练后,可完成模型收敛,即完成识别模型的训练。
进一步的,在完成识别模型的训练后,可以去掉模型中的识别损失函数Llsr和验证损失函数Lverify,仅使用CNN中最后特征层pool5的特征,对模型接收的输入数据进行预测识别。
例如,在利用该模型判别两张人脸图像是不是同一个人时,可以将这两张人脸图像通过训练好的CNN模型,得到两个不同的pool5特征,再使用欧氏距离来度量这两张人脸的距离,若两张人脸距离小于某个固定阈值,则可确认此两张人脸图像为同一个人,反之则为不同的人。
需要说明的是,本申请实施例训练的识别模型,不仅可以进行人脸识别,还可以用于行人识别等领域,具体的识别过程可参考上述实施例的相关介绍,本申请在此不再赘述。
综上,本实施例利用LSR思想,修改了现有的识别损失函数SoftmaxLoss,并去除了验证损失函数VerifyLoss中的负例对损失,充分使用了从不同数据收集场景下获取的已配对数据和未配对数据,实现了半监督学习的识别模型的训练,不但减少了训练数据的标注工作,还使得识别模型在不同场景下均具有较好的数据识别效果。
第三实施例
本实施例将对一种数据识别装置进行介绍,相关内容请参见上述方法实施例。
参见图4,为本实施例提供的一种数据识别装置的组成示意图,该装置400包括:
数据识别单元401,用于利用预先训练得到的识别模型对待识别数据进行识别,其中,所述识别模型通过集合获取单元402和模型训练单元403训练得到;
集合获取单元402,用于分别获取至少两个数据收集场景下的场景数据集合,所述场景数据集合对应至少一个数据分类和/或至少一个数据分组,所述数据分类下包括经配对标注后的对应于同一识别对象的至少两个已配对数据,所述数据分组下包括未经配对标注的对应于同一识别对象的至少两个未配对数据;
模型训练单元403,用于利用所述至少两个数据收集场景下的场景数据集合进行模型训练,训练得到一个识别模型。
在本实施例的一种实现方式中,所述至少两个未配对数据是在连续时段内通过跟踪对应识别对象得到的。
在本实施例的一种实现方式中,所述模型训练单元403包括:
第一数据分配子单元,用于若所述场景数据集合对应至少一个数据分组,则将所述数据分组下的未配对数据分配至目标数据集合中,所述目标数据集合为不同于所述场景数据集合的另一场景数据集合;
第一模型训练子单元,用于利用数据分配后的各个场景数据集合进行模型训练。
在本实施例的一种实现方式中,所述第一模型训练子单元包括:
数据分类确定子单元,用于确定所述数据分组下的未配对数据在所述目标数据集合中对应的数据分类;
第二模型训练子单元,用于利用数据分配后的各个场景数据集合以及每一场景数据集合对应的数据分类,进行模型训练。
在本实施例的一种实现方式中,所述数据分类确定子单元包括:
第二数据分配子单元,用于将所述数据分组下的未配对数据,平均分配给所述目标数据集合中的每一已有数据分类;
或者,
第三数据分配子单元,用于在所述目标数据集合下创建一个新的数据分类,并将所述数据分组下的未配对数据分配给所述新的数据分类;
或者,
第四数据分配子单元,用于将所述数据分组下的未配对数据,分配给所述目标数据集合中一个已有数据分类。
在本实施例的一种实现方式中,所述模型训练单元403,具体用于利用目标损失函数进行模型训练;
其中,在采用所述已配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据以及区分不同数据分类中的数据;在采用所述未配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据且不能区分不同数据分类中的数据。
进一步地,本申请实施例还提供了一种数据识别装置,包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述数据识别方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述数据识别方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述数据识别方法的任一种实现方法。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如媒体网关等网络通信设备,等等)执行本申请各个实施例或者实施例的某些部分所述的方法。
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (13)
1.一种数据识别方法,其特征在于,包括:
利用预先训练得到的识别模型对待识别数据进行识别;
其中,按照下述方式训练得到所述识别模型;
分别获取至少两个数据收集场景下的场景数据集合,所述场景数据集合对应至少一个数据分类和/或至少一个数据分组,所述数据分类下包括经配对标注后的对应于同一识别对象的至少两个已配对数据,所述数据分组下包括未经配对标注的对应于同一识别对象的至少两个未配对数据;
利用所述至少两个数据收集场景下的场景数据集合进行模型训练,训练得到所述识别模型。
2.根据权利要求1所述的方法,其特征在于,所述至少两个未配对数据是在连续时段内通过跟踪对应识别对象得到的。
3.根据权利要求1或2所述的方法,其特征在于,所述利用所述至少两个数据收集场景下的场景数据集合进行模型训练,包括:
若所述场景数据集合对应至少一个数据分组,则将所述数据分组下的未配对数据分配至目标数据集合中,所述目标数据集合为不同于所述场景数据集合的另一场景数据集合;
利用数据分配后的各个场景数据集合进行模型训练。
4.根据权利要求3所述的方法,其特征在于,所述利用数据分配后的各个场景数据集合进行模型训练,包括:
确定所述数据分组下的未配对数据在所述目标数据集合中对应的数据分类;
利用数据分配后的各个场景数据集合以及每一场景数据集合对应的数据分类,进行模型训练。
5.根据权利要求4所述的方法,其特征在于,所述确定所述数据分组下的未配对数据在所述目标数据集合中对应的数据分类,包括:
将所述数据分组下的未配对数据,平均分配给所述目标数据集合中的每一已有数据分类;
或者,在所述目标数据集合下创建一个新的数据分类,并将所述数据分组下的未配对数据分配给所述新的数据分类;
或者,将所述数据分组下的未配对数据,分配给所述目标数据集合中一个已有数据分类。
6.根据权利要求4或5所述的方法,其特征在于,所述进行模型训练,包括:
利用不同目标损失函数对所述已配对数据及所述未配对数据进行模型训练;
其中,在采用所述已配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据以及区分不同数据分类中的数据;在采用所述未配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据且不能区分不同数据分类中的数据。
7.一种数据识别装置,其特征在于,包括:
数据识别单元,用于利用预先训练得到的识别模型对待识别数据进行识别,其中,所述识别模型通过集合获取单元和模型训练单元训练得到;
所述集合获取单元,用于分别获取至少两个数据收集场景下的场景数据集合,所述场景数据集合对应至少一个数据分类和/或至少一个数据分组,所述数据分类下包括经配对标注后的对应于同一识别对象的至少两个已配对数据,所述数据分组下包括未经配对标注的对应于同一识别对象的至少两个未配对数据;
所述模型训练单元,用于利用所述至少两个数据收集场景下的场景数据集合进行模型训练,训练得到所述识别模型。
8.根据权利要求7所述的装置,其特征在于,所述至少两个未配对数据是在连续时段内通过跟踪对应识别对象得到的。
9.根据权利要求7或8所述的装置,其特征在于,所述模型训练单元包括:
第一数据分配子单元,用于若所述场景数据集合对应至少一个数据分组,则将所述数据分组下的未配对数据分配至目标数据集合中,所述目标数据集合为不同于所述场景数据集合的另一场景数据集合;
第一模型训练子单元,用于利用数据分配后的各个场景数据集合进行模型训练。
10.根据权利要求9所述的装置,其特征在于,所述第一模型训练子单元包括:
数据分类确定子单元,用于确定所述数据分组下的未配对数据在所述目标数据集合中对应的数据分类;
第二模型训练子单元,用于利用数据分配后的各个场景数据集合以及每一场景数据集合对应的数据分类,进行模型训练。
11.根据权利要求10所述的装置,其特征在于,所述数据分类确定子单元包括:
第二数据分配子单元,用于将所述数据分组下的未配对数据,平均分配给所述目标数据集合中的每一已有数据分类;
或者,
第三数据分配子单元,用于在所述目标数据集合下创建一个新的数据分类,并将所述数据分组下的未配对数据分配给所述新的数据分类;
或者,
第四数据分配子单元,用于将所述数据分组下的未配对数据,分配给所述目标数据集合中一个已有数据分类。
12.根据权利要求10或11所述的装置,其特征在于,所述第二模型训练子单元,具体用于利用不同目标损失函数对所述已配对数据及所述未配对数据进行模型训练;
其中,在采用所述已配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据以及区分不同数据分类中的数据;在采用所述未配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据且不能区分不同数据分类中的数据。
13.一种人脸识别方法,其特征在于,包括:
获取两张人脸图像,利用预先训练得到的识别模型对所述人脸图像进行识别;
所述识别模型根据所述人脸图像之间的特征向量是否小于预设阈值,判断所述人脸图像是否为同一人;
其中,按照下述方式训练得到所述识别模型;
分别获取至少两个数据收集场景下的场景数据集合,所述场景数据集合包括经标注的已配对数据和未经标注的未配对数据,将所述未配对数据进行伪标签处理,利用不同目标损失函数对所述已配对数据及所述未配对数据进行模型训练得到所述识别模型;
对于所述已配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据以及区分不同数据分类中的数据;对于所述未配对数据进行模型训练时,所述目标损失函数用于区别各个数据分类、并用于聚合相同数据分类中的数据且不能区分不同数据分类中的数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811223397.5A CN109359689B (zh) | 2018-10-19 | 2018-10-19 | 一种数据识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811223397.5A CN109359689B (zh) | 2018-10-19 | 2018-10-19 | 一种数据识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109359689A true CN109359689A (zh) | 2019-02-19 |
CN109359689B CN109359689B (zh) | 2021-06-04 |
Family
ID=65345945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811223397.5A Active CN109359689B (zh) | 2018-10-19 | 2018-10-19 | 一种数据识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109359689B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110472663A (zh) * | 2019-07-15 | 2019-11-19 | 西北工业大学 | 基于内省学习的遥感图像分类方法 |
CN110543811A (zh) * | 2019-07-15 | 2019-12-06 | 华南理工大学 | 一种基于深度学习的非配合式考试人员管理方法及其系统 |
CN112541906A (zh) * | 2020-12-17 | 2021-03-23 | 上海鹰瞳医疗科技有限公司 | 一种数据处理的方法及装置、电子设备、存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8108539B2 (en) * | 2006-10-31 | 2012-01-31 | Siemens Aktiengesellschaft | Method for synchronising scene data files and media data flows in an unindirectional broadcast system |
CN102741840A (zh) * | 2010-02-03 | 2012-10-17 | 诺基亚公司 | 用于对个性化场景建模的方法和装置 |
CN103136533A (zh) * | 2011-11-28 | 2013-06-05 | 汉王科技股份有限公司 | 基于动态阈值的人脸识别方法及装置 |
CN105094981A (zh) * | 2014-05-23 | 2015-11-25 | 华为技术有限公司 | 一种数据处理的方法及装置 |
CN105354202A (zh) * | 2014-08-20 | 2016-02-24 | 阿里巴巴集团控股有限公司 | 数据推送方法及装置 |
CN105701482A (zh) * | 2016-02-29 | 2016-06-22 | 公安部第研究所 | 基于非平衡标签信息融合的人脸识别算法架构 |
CN107310550A (zh) * | 2016-04-27 | 2017-11-03 | 腾讯科技(深圳)有限公司 | 道路交通工具行驶控制方法和装置 |
CN107392125A (zh) * | 2017-07-11 | 2017-11-24 | 中国科学院上海高等研究院 | 智能模型的训练方法/系统、计算机可读存储介质及终端 |
CN107545241A (zh) * | 2017-07-19 | 2018-01-05 | 百度在线网络技术(北京)有限公司 | 神经网络模型训练及活体检测方法、装置及存储介质 |
CN108304890A (zh) * | 2018-03-16 | 2018-07-20 | 科大讯飞股份有限公司 | 一种分类模型的生成方法及装置 |
-
2018
- 2018-10-19 CN CN201811223397.5A patent/CN109359689B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8108539B2 (en) * | 2006-10-31 | 2012-01-31 | Siemens Aktiengesellschaft | Method for synchronising scene data files and media data flows in an unindirectional broadcast system |
CN102741840A (zh) * | 2010-02-03 | 2012-10-17 | 诺基亚公司 | 用于对个性化场景建模的方法和装置 |
CN103136533A (zh) * | 2011-11-28 | 2013-06-05 | 汉王科技股份有限公司 | 基于动态阈值的人脸识别方法及装置 |
CN105094981A (zh) * | 2014-05-23 | 2015-11-25 | 华为技术有限公司 | 一种数据处理的方法及装置 |
CN105354202A (zh) * | 2014-08-20 | 2016-02-24 | 阿里巴巴集团控股有限公司 | 数据推送方法及装置 |
CN105701482A (zh) * | 2016-02-29 | 2016-06-22 | 公安部第研究所 | 基于非平衡标签信息融合的人脸识别算法架构 |
CN107310550A (zh) * | 2016-04-27 | 2017-11-03 | 腾讯科技(深圳)有限公司 | 道路交通工具行驶控制方法和装置 |
CN107392125A (zh) * | 2017-07-11 | 2017-11-24 | 中国科学院上海高等研究院 | 智能模型的训练方法/系统、计算机可读存储介质及终端 |
CN107545241A (zh) * | 2017-07-19 | 2018-01-05 | 百度在线网络技术(北京)有限公司 | 神经网络模型训练及活体检测方法、装置及存储介质 |
CN108304890A (zh) * | 2018-03-16 | 2018-07-20 | 科大讯飞股份有限公司 | 一种分类模型的生成方法及装置 |
Non-Patent Citations (3)
Title |
---|
ARIENMACK 等: "Scene incongruity and attention", 《CONSCIOUSNESS AND COGNITION》 * |
LIXIN CHEN ET AL: "Detecting anomaly using the scene modeling based on time delayed statistical data", 《2015 IEEE INTERNATIONAL CONFERENCE ON INFORMATION AND AUTOMATION》 * |
王晗: "基于迁移学习的视频标注方法", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110472663A (zh) * | 2019-07-15 | 2019-11-19 | 西北工业大学 | 基于内省学习的遥感图像分类方法 |
CN110543811A (zh) * | 2019-07-15 | 2019-12-06 | 华南理工大学 | 一种基于深度学习的非配合式考试人员管理方法及其系统 |
CN110543811B (zh) * | 2019-07-15 | 2024-03-08 | 华南理工大学 | 一种基于深度学习的非配合式考试人员管理方法及其系统 |
CN112541906A (zh) * | 2020-12-17 | 2021-03-23 | 上海鹰瞳医疗科技有限公司 | 一种数据处理的方法及装置、电子设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109359689B (zh) | 2021-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108596277B (zh) | 一种车辆身份识别方法、装置和存储介质 | |
WO2020155939A1 (zh) | 图像识别方法、装置、存储介质和处理器 | |
CN110853033B (zh) | 基于帧间相似度的视频检测方法和装置 | |
US11495056B2 (en) | Intelligent gallery management for biometrics | |
CN109359689B (zh) | 一种数据识别方法及装置 | |
WO2020248780A1 (zh) | 活体检测方法、装置、电子设备及可读存储介质 | |
CN110414376B (zh) | 更新人脸识别模型的方法、人脸识别相机及服务器 | |
TWI712980B (zh) | 理賠資訊提取方法和裝置、電子設備 | |
CN106575280B (zh) | 用于分析用户关联图像以产生非用户生成标签以及利用该生成标签的系统和方法 | |
CN111191568A (zh) | 翻拍图像识别方法、装置、设备及介质 | |
CN111241932A (zh) | 汽车展厅客流检测与分析系统、方法及存储介质 | |
CN112597995B (zh) | 车牌检测模型训练方法、装置、设备及介质 | |
CN109993042A (zh) | 一种人脸识别方法及其装置 | |
CN113591603A (zh) | 证件的验证方法、装置、电子设备及存储介质 | |
CN111291627A (zh) | 人脸识别方法、装置及计算机设备 | |
CN108154199B (zh) | 一种基于深度学习的高精度快速单类目标检测方法 | |
CN112446428B (zh) | 一种图像数据处理方法及装置 | |
CN112489436A (zh) | 一种车辆身份识别方法、装置、系统、以及电子装置 | |
CN113128278B (zh) | 一种图像识别方法及装置 | |
CN116612498A (zh) | 一种鸟类识别模型训练方法、鸟类识别方法、装置及设备 | |
Sari Aslam et al. | Trip purpose identification using pairwise constraints based semi-supervised clustering | |
CN111382628B (zh) | 同行判定方法及装置 | |
CN111079526A (zh) | 一种信鸽亲缘关系分析方法、装置及存储介质 | |
CN114241238B (zh) | 一种基于改进PointNet的轨迹数据出行方式识别方法和装置 | |
CN113095110B (zh) | 人脸数据动态入库的方法、装置、介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231221 Address after: Room 409-2, 4th Floor, Building 5, East District, No. 10 Northwest Wangdong Road, Haidian District, Beijing, 100193 Patentee after: Beijing Xunfei Jizhi Technology Co.,Ltd. Address before: NO.666, Wangjiang West Road, hi tech Zone, Hefei City, Anhui Province Patentee before: IFLYTEK Co.,Ltd. |
|
TR01 | Transfer of patent right |