CN111680622B - 一种基于托育环境的身份识别方法 - Google Patents
一种基于托育环境的身份识别方法 Download PDFInfo
- Publication number
- CN111680622B CN111680622B CN202010507149.4A CN202010507149A CN111680622B CN 111680622 B CN111680622 B CN 111680622B CN 202010507149 A CN202010507149 A CN 202010507149A CN 111680622 B CN111680622 B CN 111680622B
- Authority
- CN
- China
- Prior art keywords
- face
- region
- sample
- result
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明涉及身份认证技术领域,尤其涉及一种基于托育环境的身份识别方法,其中,包括:步骤S1、采集同一时间的一普通图像以提取普通图像中的第一人脸区域和第一人体区域,并采集同一时间的一广角图像;步骤S2、对第一人脸区域人脸识别以获取身份识别结果并输出,将第一人脸区域与第一人体区域进行配对获取配对结果;步骤S3、提供识别模型,利用身份识别结果及配对结果对识别模型训练,并测试获取第一测试结果;步骤S4、利用识别模型对广角图像身份识别,以获取第二测试结果。有益效果:降低身份识别的漏检率和提高识别结果的召回率,并且将普通图像上的识别模型对广角图像识别,减少处理广角图像的计算消耗,且增加身份识别结果的容错性和说服力。
Description
技术领域
本发明涉及身份认证技术领域,尤其涉及一种基于托育环境的身份识别方法。
背景技术
现实社会中,对儿童的成长问题的关注度越来越高,一方面,很多儿童在很长时间后才能明显体现出异常行为或病症,例如儿童多动症、自闭症等,其在很小的时候会有不同程度的预兆,及时发现可能存在的隐患因而有着很大的实际意义;另一方面,儿童在托育时期的经历也对其未来的健康成长起到重要的作用,例如对于儿童的日常行为分析也能及时发现可能存在的潜在心理问题,并且父母也很关注孩子在托育环境中的行为表现。因此,研究儿童的行为特征很有必要。
为了研究儿童的行为特征,确定儿童的身份信息必不可少。现有技术中,通常采用可携带的识别设备给儿童佩戴以识别出儿童的身份信息,但是该方法的成本较高,且由于儿童顽皮的天性可能导致识别设备的损坏。因此,针对上述问题,成为本技术领域亟待解决的难题。
发明内容
针对现有技术中存在的上述问题,现提供一种基于托育环境的身份识别方法。
具体技术方案如下:
本发明提供一种基于托育环境的身份识别方法,其中,所述身份识别方法包括如下步骤:
步骤S1、采集同一时间的一普通图像以提取所述普通图像中的第一人脸区域和第一人体区域,并采集同一时间的一广角图像;
步骤S2、对所述第一人脸区域进行人脸识别以获取身份识别结果并输出,将所述第一人脸区域与所述第一人体区域进行配对以获取配对结果;
步骤S3、提供一识别模型,利用所述身份识别结果及所述配对结果对所述识别模型进行训练,并测试获取一第一测试结果;
步骤S4、利用所述识别模型对所述广角图像进行身份识别,以获取一第二测试结果。
优选的,所述步骤S1包括:
步骤S11、提取所述普通图像中的所述第一人脸区域;
步骤S12、提供一预训练的人脸识别模型获取每个所述第一人脸区域所对应的人脸区域特征,以识别所述第一人脸区域所对应的身份信息。
优选的,所述步骤S12包括:
步骤S121、计算所述第一人脸区域所对应的人脸区域特征与所述人脸识别模型中预存的样本特征之间的余弦距离;
步骤S122、判断所述余弦距离是否大于一第一阈值,若所述余弦距离大于所述第一阈值时,则所述第一人脸区域所对应的人脸区域特征和所述人脸识别模型中预存的样本特征指向同一人。
优选的,所述第一阈值为0.75。
优选的,所述步骤S2包括:
步骤S21、判断所述第一人脸区域与所述第一人体区域是否配对,
若是,则获取所述第一人脸区域对应的身份识别结果;
若否,则将未配对的所述第一人体区域作为测试数据。
优选的,所述步骤S3包括:
步骤S31、将已配对的所述第一人体区域作为训练数据,以训练所述识别模型,并将所述识别模型中的训练数据作为所述识别模型的样本库;
步骤S32、利用所述测试数据对所述识别模型进行测试,并与所述样本库进行比对,以得所述第一测试结果。
优选的,所述步骤S32包括:
步骤S321、将所述样本库中的每个样本划分为预定数量的样本区域特征;
步骤S322、将所述测试数据中的每个第一人体区域划分成所述预定数量的区域特征,与每个所述样本区域特征进行比对,以输出所述比对结果;
步骤S323、将所述测试数据中的每个第一人体区域的每个区域特征与所述样本库中的每个样本的每个样本区域特征进行比对,其中余弦距离最近的所述样本区域特征对应的身份信息输出为所述第一测试结果。
优选的,所述步骤S4包括:
步骤S41、提取所述广角图片中的多个第二人体区域;
步骤S42、提供一域自适应方法,获取所述第一人体区域和所述第二人体区域的域不变性特征;
步骤S43、利用所述识别模型根据所述域不变性特征对所述广角图像中的所述第二人体区域进行身份识别,以获取所述第二测试结果。
优选的,于所述第二测试结果中对每个所述身份信息增加可信度标识,于所述步骤S322中,当所述样本库中的所述样本区域特征的数量小于一第二阈值时,则将第二测试结果中对应的所述身份信息的可信度标识置为对应不可信的值。
优选的,所述第二阈值为0.68。
本发明的技术方案的有益效果在于:通过结合普通图像的第一人脸区域获得的身份识别结果和普通图像的第一人脸区域和第一人体区域进行配对获取的配对结果,判断出普通图像中的人的身份信息,降低漏检率和提高识别结果的召回率,并且通过将普通图像上的识别模型对广角图像识别,减少了处理广角图像的计算消耗,且增加了身份识别结果的容错性和说服力,且识别人的身份信息的成本较低。
附图说明
参考所附附图,以更加充分的描述本发明的实施例。然而,所附附图仅用于说明和阐述,并不构成对本发明范围的限制。
图1为本发明的实施例的步骤流程图;
图2为本发明的实施例的S1步骤图;
图3为本发明的实施例的S12步骤图;
图4为本发明的实施例的S2步骤图;
图5为本发明的实施例的S3步骤图;
图6为本发明的实施例的S32步骤图;
图7为本发明的实施例的S4步骤图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本发明提供一种基于托育环境的身份识别方法,其中,身份识别方法包括如下步骤:
步骤S1、采集同一时间的一普通图像以提取所述普通图像中的第一人脸区域和第一人体区域,并采集同一时间的一广角图像;
步骤S2、对第一人脸区域进行人脸识别以获取身份识别结果并输出,将第一人脸区域与第一人体区域进行配对以获取配对结果;
步骤S3、提供一识别模型,利用身份识别结果及配对结果对识别模型进行训练,并测试获取一第一测试结果;;
步骤S4、利用识别模型对广角图像进行身份识别,以获取一第二测试结果。
本实施例中,如图1所示,首先通过在托育环境的各个教室和房间中均匀布置至少一个第一类摄像机,该第一类摄像机可以进行自由移动转变摄像角度的摄像机,用于采集多个普通图像并同时提取该普通图像中的第一人脸区域和第一人体区域,并且还在每个第一类摄像机的下方设置第二类摄像机,该第二类摄像机是固定角度的摄像机,用于采集该摄像机面对同一方向的广角图像。
进一步地,对上述中采取的第一人脸区域进行识别,以获取该第一人脸区域所对应的身份识别结果,进一步再将第一人脸区域与上述中第一人体区域进行配对,将配对成功的第一人体区域用来在普通图像上进行训练获得识别模型,并且对未配对成功的第一人体区域进行测试从而获得第一测试结果。
进一步地,将上述获得的识别模型迁移至对应于普通图像在同一时间同一角度的广角图像中,以对广角图像中显示的人体进行身份识别,从而获取第二测试结果。
由于受到具体的应用场景的复杂性的影响,导致提取的第一人脸区域和第一人体区域受限,进而训练得到的识别模型的准确率会低于直接使用第一人脸区域进行人脸识别的身份识别结果,因此,本实施例中将在普通图像中获得的第一测试结果和在广角图像中获得的第二测试结果进行整合,若广角图像通过识别模型识别后预测得到某个人的身份,而同时在同一时间同一角度拍摄到的普通图像中出现了该人的身影,则认为识别模型具有很大的可能性测试出正确的第二测试结果。由此,通过将普通图像中获得的第一测试结果和广角图像中获得的第二测试结果进行结合评估,从而给出的最终评估身份结果具有可靠性,会在一定程度上补偿识别模型识别广角图像中的人体的身份信息的缺陷。
本实施例中,通过结合普通图像的第一人脸区域获得的身份识别结果和普通图像的第一人脸区域和第一人体区域进行配对获取的配对结果,判断出普通图像中的人的身份信息,降低漏检率和提高识别结果的召回率,并且通过将普通图像上的识别模型对广角图像识别,减少了处理广角图像的计算消耗,且增加了身份识别结果的容错性和说服力。
在一种较优的实施例中,步骤S1包括:
步骤S11、提取普通图像中的第一人脸区域;
步骤S12、提供一预训练的人脸识别模型获取每个第一人脸区域所对应的人脸区域特征,以识别第一人脸区域所对应的身份信息。
具体地,如图2所示,本实施例中首先需要提取普通图像中出现的第一人脸区域后,再通过第一人脸区域使用预训练的人脸识别模型提取每个第一人脸区域的人脸区域特征,通过该人脸区域特征从而识别出普通图像中的第一人脸区域所对应的身份信息。
在一种较优的实施例中,步骤S12包括:
步骤S121、计算第一人脸区域所对应的人脸区域特征与人脸识别模型中预存的样本特征之间的余弦距离;
步骤S122、判断余弦距离是否大于一第一阈值,若余弦距离大于第一阈值时,则第一人脸区域所对应的人脸区域特征和人脸识别模型中预存的样本特征指向同一人。
具体地,如图3所示,本实施例中所采用的人脸识别模型预存有大量的样本特征,通过计算采集到的普通图像中出现的第一人脸区域所对应的人脸区别特征与人脸识别模型预存的样本特征之间的余弦距离大于0.75时,来进一步判断普通图像中出现的第一人脸区域所对应的人脸区域特征和人脸识别模型中预存的样本特征是指向同一个人。
另外,由于后续需要在普通图像上进行训练获得识别模型,因此,本实施例中还需要通过预训练的目标检测模型提取普通图像中的第一人体区域。
在一种较优的实施例中,步骤S2包括:
步骤S21、判断第一人脸区域与第一人体区域是否配对,
若是,则获取第一人脸区域对应的身份识别结果;
若否,则将未配对的第一人体区域作为测试数据。
具体地,本实施例中,如图4所示,在上述普通图像上提取出第一人脸区域和第一人体区域,同时人工筛除部分分值过低的第一人体区域,将符合条件的第一人体区域与第一人脸区域进行配对,若某个第一人脸区域包含在某个第一人体区域之内,则预测该第一人脸区域和该第一人体区域指向的是同一人,则获取该人的身份识别结果,并将没有与第一人脸区域配对的第一人体区域作为测试数据,后续通过识别模型再对未配对的第一人体区域进行身份识别。
另外,需要说明的是,本实施例中由于获取的已配对成功的第一人体区域针对的都是可以看到正脸的图像,然而根据实际情况更期望识别模型能够识别出没有显露出正脸的测试数据,因此训练时需截取掉第一人体区域中的头部部分会取得更好的效果。
在一种较优的实施例中,步骤S3包括:
步骤S31、将已配对的第一人体区域作为训练数据,以训练识别模型,并将识别模型中的训练数据作为识别模型的样本库;
步骤S32、利用测试数据对识别模型进行测试,并与样本库进行比对,以得第一测试结果。
步骤S32包括:
步骤S321、将样本库中的每个样本划分为预定数量的样本区域特征;
步骤S322、将测试数据中的每个第一人体区域划分成预定数量的区域特征,与每个样本区域特征进行比对,以输出比对结果;
步骤S323、将测试数据中的每个第一人体区域的每个区域特征与样本库中的每个样本的每个样本区域特征进行比对,其中余弦距离最近的样本区域特征对应的身份信息输出为第一测试结果。
具体地,如图5-6所示,为了后续能够更好地将识别模型迁移到广角图像中,本实施例中可以采用基于分类损失函数的识别模型,将样本库中的每个样本划分为预定数量的样本区域特征,并最大化不同样本区域特征之间的距离,使得提取出的每一样本区域特征能够得到更好地区分。
本实施例中借鉴文件《Beyond Part Models:Person Retrieval with RefinedPart Pooling(and A Strong Convolutional Baseline)》,将样本库中的每个样本分成至少四个样本区域特征。进一步地,将上述测试数据中的每个第一人体区域划分成预定数量的区域特征与每个样本区域特征进行比对,并计算该测试数据中的每个第一人体区域划分成的区域特征与每个样本区域特征之间的余弦距离,且与其中哪个样本区域特征之间的余弦距离最近,就将该样本区域特征所对应的身份信息输出为测试数据的测试结果。
另外,在识别无脸的人体时,如果该人体改变其服饰则会难以避免对检测的结果造成很大的影响,但是,一般实际情况中,在同一天内单个人的身体特征、外貌特征以及服饰特征一般不会发生明显的变化,因此仅需要把每一天采集的样本库中的样本进行划分。
此外,上述是利用单张普通图像对识别模型进行训练的技术方案,可利用在一段时间内采集普通图像中的第一人体区域,并将已配对的第一人体区域作为训练数据,以扩充样本库,从而提高识别模型识别测试数据的身份信息的准确性。其中,一段时间可以为1天。
在一种较优的实施例中,步骤S4包括:
步骤S41、提取广角图片中的多个第二人体区域;
步骤S42、提供一域自适应方法,获取第一人体区域和第二人体区域的域不变性特征;
步骤S43、利用识别模型根据域不变性特征对广角图像中的第二人体区域进行身份识别,以获取第二测试结果。
具体地,如图7所示,在获取普通图像的识别模型后,需要将其同样能够应用到广角图像中,广角图像通常包含有更多的人物信息,因此将普通图像结合广角图像可以让最终的识别身份结果更加具有可靠性。本实施例中,若将广角图像仍然套用之前处理普通图像的方式,则一方面增加了处理广角图像的负担,另一方面由于两种图像的拍摄设备的不同,广角图像的分辨率、亮度、噪声等方面都与普通图像有所差异,且部分广角图像在图像的边缘部分也存在着细微变化,在实践中人脸的识别也并不能得到理想的准确率。因此,考虑将识别模型直接迁移至广角图像中进行身份识别。
本实施例中,采用基于神经网络的无监督的域自适应方法,将借助文件《Domain-Symmetric Networks for Adversarial Domain Adaptation》,从而更好地对齐源域和目标域的数据分布,使用源域标签获取更泛化的第一人体区域和第二人体区域中存在的域不变性特征。将普通图像中的识别模型迁移到广角图像中,在域自适应方法中,采用对抗思想的方法更加能获得准确的域不变性特征,该类方法包含三个部分,分别为特征提取器G、分类器C以及度量来自不同域差别的判别器,其中定义源域为目标域为其目标是对某种损失函数L,则最小化该损失函数L为/>本实施例中,在具体到实际应用时,将在普通图像中训练到的识别模型可作为特征提取器G,则分类器C和普通图像训练时的分类器相同,以样本库中的不同的训练数据作为不同的类目。这类识别模型的训练思想和训练步骤也与GAN(Generative Adversarial Nets生殖防御网)模型类似,期望能够得到一个优良的域判别器来得到输入的图像属于普通图像或者是广角图像,同时期望能够得到一个优良的特征提取器来混淆普通图像和广角图像提取到的域不变性特征,进而利用识别模型根据该域不变性特征对广角图像中的第二人体区域进行身份识别,以获取第二测试结果。
在一种较优的实施例中,于第二测试结果中对每个身份信息增加可信度标识,于步骤S422中,当样本库中的样本区域特征的数量小于一第二阈值时,则将第二测试结果中对应的身份信息的可信度标识置为对应不可信的值。
具体地,根据在实际应用中,由于样本库中的某类样本区域特征的数量可能较少,因此在第二测试结果中预先需要对每个身份信息增加可信度标识,对这些样本区域特征的数量设置一个最低的第二阈值,若某些样本区域特征的数量低于该第二阈值,则导致最终获得的第二测试结果对应的的身份信息很有可能不可靠。本实施例中设置的第二阈值为0.68。
本发明的技术方案的有益效果在于:通过结合普通图像的第一人脸区域获得的身份识别结果和普通图像的第一人脸区域和第一人体区域进行配对获取的配对结果,判断出普通图像中的人的身份信息,降低漏检率和提高识别结果的召回率,并且通过将普通图像上的识别模型对广角图像识别,减少了处理广角图像的计算消耗,且增加了身份识别结果的容错性和说服力,且识别人的身份信息的成本较低。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (10)
1.一种基于托育环境的身份识别方法,其特征在于,于执行步骤S1之前,预先在所述托育环境中布置至少一个第一类摄像机,所述第一类摄像机为可自由移动转变摄像角度的摄像机,用于采集多个普通图像;所述第一类摄像机下方还设置第二类摄像机,所述第二类摄像机为固定角度的摄像机,用于采集当前的所述第二类摄像机面对同一方向上的广角图像;
所述身份识别方法包括如下步骤:
步骤S1、采集同一时间的所述普通图像以提取所述普通图像中的第一人脸区域和第一人体区域,并采集同一时间的所述广角图像;
步骤S2、对所述第一人脸区域进行人脸识别以获取身份识别结果并输出,将所述第一人脸区域与所述第一人体区域进行配对以获取配对结果;
步骤S3、提供一识别模型,利用所述身份识别结果及所述配对结果对所述识别模型进行训练,并测试获取一第一测试结果;
步骤S4、利用所述识别模型对所述广角图像进行身份识别,以获取一第二测试结果。
2.如权利要求1所述的身份识别方法,其特征在于,所述步骤S1包括:
步骤S11、提取所述普通图像中的所述第一人脸区域;
步骤S12、提供一预训练的人脸识别模型获取每个所述第一人脸区域所对应的人脸区域特征,以识别所述第一人脸区域所对应的身份信息。
3.如权利要求2所述的身份识别方法,其特征在于,所述步骤S12包括:
步骤S121、计算所述第一人脸区域所对应的人脸区域特征与所述人脸识别模型中预存的样本特征之间的余弦距离;
步骤S122、判断所述余弦距离是否大于一第一阈值,若所述余弦距离大于所述第一阈值时,则所述第一人脸区域所对应的人脸区域特征和所述人脸识别模型中预存的样本特征指向同一人。
4.如权利要求3所述的身份识别方法,其特征在于,所述第一阈值为0.75。
5.如权利要求1所述的身份识别方法,其特征在于,所述步骤S2包括:
步骤S21、判断所述第一人脸区域与所述第一人体区域是否配对,
若是,则获取所述第一人脸区域对应的身份识别结果;
若否,则将未配对的所述第一人体区域作为测试数据。
6.如权利要求5所述的身份识别方法,其特征在于,所述步骤S3包括:
步骤S31、将已配对的所述第一人体区域作为训练数据,以训练所述识别模型,并将所述识别模型中的训练数据作为所述识别模型的样本库;
步骤S32、利用所述测试数据对所述识别模型进行测试,并与所述样本库进行比对,以得所述第一测试结果。
7.如权利要求6所述的身份识别方法,其特征在于,所述步骤S32包括:
步骤S321、将所述样本库中的每个样本划分为预定数量的样本区域特征;
步骤S322、将所述测试数据中的每个所述第一人体区域划分成所述预定数量的区域特征,与每个所述样本区域特征进行比对,以输出所述比对结果;
步骤S323、将所述测试数据中的每个所述第一人体区域的每个区域特征与所述样本库中的每个样本的每个样本区域特征进行比对,其中余弦距离最近的所述样本区域特征对应的身份信息输出为所述第一测试结果。
8.如权利要求7所述的身份识别方法,其特征在于,所述步骤S4包括:
步骤S41、提取所述广角图片中的多个第二人体区域;
步骤S42、提供一域自适应方法,获取所述第一人体区域和所述第二人体区域的域不变性特征;
步骤S43、利用所述识别模型根据所述域不变性特征对所述广角图像中的所述第二人体区域进行身份识别,以获取所述第二测试结果。
9.如权利要求8所述的身份识别方法,其特征在于,于所述第二测试结果中对每个所述身份信息增加可信度标识,于所述步骤S322中,当所述样本库中的所述样本区域特征的数量小于一第二阈值时,则将第二测试结果中对应的所述身份信息的可信度标识置为对应不可信的值。
10.如权利要求9所述的身份识别方法,其特征在于,所述第二阈值为0.68。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010507149.4A CN111680622B (zh) | 2020-06-05 | 2020-06-05 | 一种基于托育环境的身份识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010507149.4A CN111680622B (zh) | 2020-06-05 | 2020-06-05 | 一种基于托育环境的身份识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111680622A CN111680622A (zh) | 2020-09-18 |
CN111680622B true CN111680622B (zh) | 2023-08-01 |
Family
ID=72453950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010507149.4A Active CN111680622B (zh) | 2020-06-05 | 2020-06-05 | 一种基于托育环境的身份识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111680622B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1503194A (zh) * | 2002-11-26 | 2004-06-09 | 中国科学院计算技术研究所 | 利用身材信息辅助人脸信息的身份识别方法 |
CN105184254A (zh) * | 2015-09-02 | 2015-12-23 | 深圳先进技术研究院 | 一种身份认证方法及系统 |
CN106384087A (zh) * | 2016-09-05 | 2017-02-08 | 大连理工大学 | 一种基于多层网络人体特征的身份识别方法 |
CN107292240A (zh) * | 2017-05-24 | 2017-10-24 | 深圳市深网视界科技有限公司 | 一种基于人脸与人体识别的找人方法及系统 |
CN108334863A (zh) * | 2018-03-09 | 2018-07-27 | 百度在线网络技术(北京)有限公司 | 身份认证方法、系统、终端和计算机可读存储介质 |
CN109376717A (zh) * | 2018-12-14 | 2019-02-22 | 中科软科技股份有限公司 | 人脸对比的身份识别方法、装置、电子设备及存储介质 |
CN110135579A (zh) * | 2019-04-08 | 2019-08-16 | 上海交通大学 | 基于对抗学习的无监督领域适应方法、系统及介质 |
WO2020037937A1 (zh) * | 2018-08-20 | 2020-02-27 | 深圳壹账通智能科技有限公司 | 人脸识别的方法、装置、终端及计算机可读存储介质 |
CN110909651A (zh) * | 2019-11-15 | 2020-03-24 | 腾讯科技(深圳)有限公司 | 视频主体人物的识别方法、装置、设备及可读存储介质 |
-
2020
- 2020-06-05 CN CN202010507149.4A patent/CN111680622B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1503194A (zh) * | 2002-11-26 | 2004-06-09 | 中国科学院计算技术研究所 | 利用身材信息辅助人脸信息的身份识别方法 |
CN105184254A (zh) * | 2015-09-02 | 2015-12-23 | 深圳先进技术研究院 | 一种身份认证方法及系统 |
CN106384087A (zh) * | 2016-09-05 | 2017-02-08 | 大连理工大学 | 一种基于多层网络人体特征的身份识别方法 |
CN107292240A (zh) * | 2017-05-24 | 2017-10-24 | 深圳市深网视界科技有限公司 | 一种基于人脸与人体识别的找人方法及系统 |
CN108334863A (zh) * | 2018-03-09 | 2018-07-27 | 百度在线网络技术(北京)有限公司 | 身份认证方法、系统、终端和计算机可读存储介质 |
WO2020037937A1 (zh) * | 2018-08-20 | 2020-02-27 | 深圳壹账通智能科技有限公司 | 人脸识别的方法、装置、终端及计算机可读存储介质 |
CN109376717A (zh) * | 2018-12-14 | 2019-02-22 | 中科软科技股份有限公司 | 人脸对比的身份识别方法、装置、电子设备及存储介质 |
CN110135579A (zh) * | 2019-04-08 | 2019-08-16 | 上海交通大学 | 基于对抗学习的无监督领域适应方法、系统及介质 |
CN110909651A (zh) * | 2019-11-15 | 2020-03-24 | 腾讯科技(深圳)有限公司 | 视频主体人物的识别方法、装置、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111680622A (zh) | 2020-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109583342B (zh) | 基于迁移学习的人脸活体检测方法 | |
CN111325089B (zh) | 跟踪对象的方法和设备 | |
Gao et al. | Detecting emotional stress from facial expressions for driving safety | |
CN102804208B (zh) | 为视觉搜索应用自动挖掘名人的个人模型 | |
CN109919977B (zh) | 一种基于时间特征的视频运动人物跟踪与身份识别方法 | |
CN109558810B (zh) | 基于部位分割与融合目标人物识别方法 | |
CN106295313B (zh) | 对象身份管理方法、装置和电子设备 | |
CN109886068B (zh) | 基于运动数据的动作行为识别方法 | |
JP2021101384A (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN109190544B (zh) | 一种基于序列深度图像的人体身份识别方法 | |
KR102132722B1 (ko) | 영상 내 다중 객체 추적 방법 및 시스템 | |
Anishchenko | Machine learning in video surveillance for fall detection | |
JP2019057815A (ja) | 監視システム | |
CN108960142B (zh) | 基于全局特征损失函数的行人再识别方法 | |
CN114781463A (zh) | 一种跨场景鲁棒的室内摔倒无线检测方法及相关设备 | |
CN105844204B (zh) | 人体行为识别方法和装置 | |
Gurrala et al. | A new segmentation method for plant disease diagnosis | |
CN110929242A (zh) | 基于无线信号进行姿态无关的连续用户认证方法及系统 | |
CN114038062A (zh) | 一种基于联合关键点表征的考生异常行为分析方法及系统 | |
CN111680622B (zh) | 一种基于托育环境的身份识别方法 | |
CN113255531B (zh) | 活体检测模型的处理方法、装置、计算机设备和存储介质 | |
CN115761842A (zh) | 一种人脸底库自动更新方法、装置 | |
US20230230277A1 (en) | Object position estimation device, object position estimation method, and recording medium | |
CN111222374A (zh) | 测谎数据处理方法、装置、计算机设备和存储介质 | |
CN111767829B (zh) | 一种活体检测方法、装置、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |