CN116881886A - 身份识别方法、装置、计算机设备和存储介质 - Google Patents
身份识别方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN116881886A CN116881886A CN202310658590.6A CN202310658590A CN116881886A CN 116881886 A CN116881886 A CN 116881886A CN 202310658590 A CN202310658590 A CN 202310658590A CN 116881886 A CN116881886 A CN 116881886A
- Authority
- CN
- China
- Prior art keywords
- face
- target object
- dimensional
- dimensional feature
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 41
- 238000001514 detection method Methods 0.000 claims abstract description 40
- 238000004590 computer program Methods 0.000 claims abstract description 26
- 230000001815 facial effect Effects 0.000 claims description 138
- 238000012545 processing Methods 0.000 claims description 15
- 238000005259 measurement Methods 0.000 claims description 12
- FPIGOBKNDYAZTP-UHFFFAOYSA-N 1,2-epoxy-3-(4-nitrophenoxy)propane Chemical compound C1=CC([N+](=O)[O-])=CC=C1OCC1OC1 FPIGOBKNDYAZTP-UHFFFAOYSA-N 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 abstract description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 210000003128 head Anatomy 0.000 description 36
- 238000010586 diagram Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Security & Cryptography (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请涉及人工智能技术领域,特别是涉及一种身份识别方法、装置、计算机设备、存储介质和计算机程序产品。所述方法包括:基于面部检测算法对目标对象的待处理图像进行面部检测,得到目标对象的面部二维特征点;基于面部二维特征点在不同像素坐标系下的二维坐标,获取目标对象的面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标;当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度;获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,并基于面部正脸点云数据,对目标对象进行身份识别。采用本方法能够快速进行身份识别。
Description
技术领域
本申请涉及人工智能技术领域,特别是涉及一种身份识别方法、装置、计算机设备、存储介质和计算机程序产品。
背景技术
在用户运用线上服务进行自助交易时,一般需要在交易前对用户进行身份识别,且对身份识别的准确性要求较高。
传统技术中,一般通过识别用户的面部三维特征点,判断进行身份识别的用户是否为活体、是否为本人。考虑到身份识别的准确性要求,传统技术中可以通过构建用户的面部三维模型,例如,构建用户的3DMM(3D Morphable Model,三维可变形人脸模型),对用户面部进行拟合,得到用户的面部三维特征点,从而进行后续的识别操作。
然而,传统技术中的方法,前期需要针对复杂模型进行长时间训练,在获取用户面部三维特征点时,又涉及较为复杂的三维模型的构建。因此,传统技术无法快速对用户进行身份识别。
发明内容
基于此,有必要针对上述技术问题,提供一种能够快速对用户进行身份识别的身份识别方法、装置、计算机设备、计算机可读存储介质和计算机程序产品。
第一方面,本申请提供了一种身份识别方法。所述方法包括:
基于面部检测算法对目标对象的待处理图像进行面部检测,得到目标对象的面部二维特征点;
基于面部二维特征点在不同像素坐标系下的二维坐标,获取目标对象的面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标;
当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度;
获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,并基于面部正脸点云数据,对目标对象进行身份识别。
在其中一个实施例中,基于面部检测算法对目标对象的待处理图像进行面部检测,得到目标对象的面部二维特征点,包括:
基于面部检测算法,从已采集的目标对象的待处理图像中,框选出目标对象的面部区域;
从面部区域中,提取目标对象的初始面部点云数据;
对初始面部点云数据进行背景干扰去除处理,得到已去除背景干扰的面部点云数据;
从已去除背景干扰的面部点云数据中,提取目标对象的面部二维特征点。
在其中一个实施例中,获取目标对象的面部二维特征点在不同像素坐标系下的二维坐标,包括:
获取深度图像采集装置采集的目标对象的面部深度图像,以及彩色图像采集装置在相同时刻同步采集的目标对象的面部彩色图像;
针对目标对象的每一面部二维特征点,分别确定面部二维特征点在面部深度图像所对应第一像素坐标系下的第一像素坐标、以及在面部彩色图像所对应第二像素坐标系下的第二像素坐标;
将第一像素坐标、第二像素坐标,作为目标对象的面部二维特征点在不同像素坐标系下的二维坐标。
在其中一个实施例中,基于面部二维特征点在不同像素坐标系下的二维坐标,获取目标对象的面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标,包括:
构建相同面部二维特征点在第一像素坐标系下的第一像素坐标、在第二像素坐标系下的第二像素坐标之间的对应关系;
基于对应关系,将面部深度图像与面部彩色图像对齐,得到更新图像;
从更新图像中选取至少一部分像素点作为目标对象的面部三维特征点;
基于面部三维特征点在更新图像中的像素值,确定面部三维特征点的深度信息;
基于深度信息,确定目标对象的面部三维特征点在世界坐标系下的三维坐标。
在其中一个实施例中,基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度,包括:
对目标对象的面部三维特征点的三维坐标进行转换,得到面部三维特征点的空间坐标;
预设多个虚拟控制点的三维坐标与空间坐标;
基于EPNP算法,以及面部三维特征点、多个虚拟控制点各自的三维坐标与空间坐标,确定目标对象的头部偏转角度。
在其中一个实施例中,基于面部正脸点云数据,对目标对象进行身份识别,包括:
基于特征提取网络,从面部正脸点云数据中,提取目标对象的面部特征;
将目标对象的面部特征,与面部数据库中存储的不同对象的面部特征进行相似性度量;
基于相似性度量结果,对目标对象进行身份识别。
第二方面,本申请还提供了一种身份识别装置。所述装置包括:
二维特征点获取模块,用于基于面部检测算法对目标对象的待处理图像进行面部检测,得到目标对象的面部二维特征点;
三维特征点获取模块,用于基于面部二维特征点在不同像素坐标系下的二维坐标,获取目标对象的面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标;
头部偏转角度确定模块,用于当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度;
身份识别模块,用于获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,并基于面部正脸点云数据,对目标对象进行身份识别。
第三方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
基于面部检测算法对目标对象的待处理图像进行面部检测,得到目标对象的面部二维特征点;
基于面部二维特征点在不同像素坐标系下的二维坐标,获取目标对象的面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标;
当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度;
获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,并基于面部正脸点云数据,对目标对象进行身份识别。
第四方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
基于面部检测算法对目标对象的待处理图像进行面部检测,得到目标对象的面部二维特征点;
基于面部二维特征点在不同像素坐标系下的二维坐标,获取目标对象的面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标;
当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度;
获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,并基于面部正脸点云数据,对目标对象进行身份识别。
第五方面,本申请还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
基于面部检测算法对目标对象的待处理图像进行面部检测,得到目标对象的面部二维特征点;
基于面部二维特征点在不同像素坐标系下的二维坐标,获取目标对象的面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标;
当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度;
获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,并基于面部正脸点云数据,对目标对象进行身份识别。
上述身份识别方法、装置、计算机设备、存储介质和计算机程序产品,先获取目标对象的面部二维特征点,从而基于面部二维特征点在不同像素坐标系下的二维坐标,获取面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标,即不涉及面部复杂三维模型的重建,可以提高获取面部三维特征点的效率,当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于目标对象的面部三维特征点的三维坐标,确定目标对象的头部偏转角度,获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,从而基于目标对象的面部正脸点云数据,快速地对目标对象进行身份识别。
附图说明
图1为一个实施例中身份识别方法的应用环境图;
图2为一个实施例中身份识别方法的流程示意图;
图3为一个实施例中改进后的P-Net模型的结构示意图;
图4为一个实施例中对面部三维特征点进行转换的示意图;
图5为一个实施例中ResNet网络的结构示意图;
图6为另一个实施例中身份识别方法的流程示意图;
图7为一个实施例中身份识别装置的结构框图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供的身份识别方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。数据存储系统可以存储服务器104需要处理的数据。数据存储系统可以集成在服务器104上,也可以放在云上或其他网络服务器上。服务器104基于面部检测算法对目标对象的待处理图像进行面部检测,得到目标对象的面部二维特征点,从而基于面部二维特征点在不同像素坐标系下的二维坐标,获取目标对象的面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标,当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度,然后,获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,并基于面部正脸点云数据,对目标对象进行身份识别。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、物联网设备等。服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种身份识别方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤202,基于面部检测算法对目标对象的待处理图像进行面部检测,得到目标对象的面部二维特征点。
其中,面部检测算法具体可以为:对MTCNN(Multi-task convolutional neuralnetwork,多任务卷积神经网络)进行简化得到的算法,可以减少复杂模型带来的训练耗时、数据处理较慢等负面影响。
可选地,服务器可以先基于面部检测算法,对目标对象的待处理图像进行面部检测,从待处理图像中找出目标对象的面部区域,并用标记框标记出目标对象的面部区域,从而基于面部特征点提取算法,从面部区域中,提取目标对象的面部二维特征点。其中,面部特征点提取算法可以为ERT(One Millisecond Face Alignment with an Ensemble ofRegression Trees,基于回归树的人脸对齐算法)。
步骤204,基于面部二维特征点在不同像素坐标系下的二维坐标,获取目标对象的面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标。
其中,不同像素坐标系具体可以为:目标对象的面部深度图像对应的第一像素坐标系、目标对象在相同时刻被采集的面部彩色图像对应的第二像素坐标系。
可选地,服务器可以基于面部二维特征点在不同像素坐标系下的二维坐标,对齐目标对象的面部深度图像与面部彩色图像,得到目标对象在相同时刻下的面部深度图像与面部彩色图像的融合结果,即RGB-D图像。然后,服务器可以从RGB-D图像中,选取至少一部分关键特征点,作为目标对象的面部三维特征点,并基于所选取的面部三维特征点在RGB-D图像中的像素值,确定所选取的面部三维特征点的在世界坐标系下的三维坐标。
步骤206,当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度。
其中,表征目标对象为活体的面部空间条件具体可以为:纵向的多个面部三维特征点,不处于同一平面。
可选地,当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,服务器可以确定目标对象为活体,并继续下一步的动作,即基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度,以确保可以采集到目标对象的正脸数据,从而对目标对象进行准确的身份识别。
其中,可以通过面部三维特征点的三维坐标是否处于同一平面,判断目标对象是否为活体,而无需对目标对象发出左右摇头、上下点头、张嘴等动作指令,以此识别目标对象是否为活体,能够简化身份识别的程序,提高身份识别的效率。
可选地,当面部三维特征点的三维坐标不满足表征目标对象为活体的面部空间条件时,服务器向目标对象所对应终端返回人脸识别不通过的提示。
步骤208,获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,并基于面部正脸点云数据,对目标对象进行身份识别。
其中,点云是3D人脸数据的一种表征方式,每一个点都对应一个三维坐标,扫描设备使用这种数据格式存储采集的三维人脸信息,以更完善的反映人脸信息,以便可以基于正脸点云数据进行准确的身份识别。
可选地,在确定目标对象的头部偏转角度后,服务器可以向目标对象发送与头部偏转角度对应的位姿调整指令,在检测到目标对象已按照头部偏转角度进行位姿调整后,服务器可以获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,从而基于面部正脸点云数据,对目标对象进行身份识别。
上述身份识别方法中,先获取目标对象的面部二维特征点,从而基于面部二维特征点在不同像素坐标系下的二维坐标,获取面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标,即不涉及面部复杂三维模型的重建,可以提高获取面部三维特征点的效率,当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于目标对象的面部三维特征点的三维坐标,确定目标对象的头部偏转角度,获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,从而基于目标对象的面部正脸点云数据,快速地对目标对象进行身份识别。
在其中一个实施例中,基于面部检测算法对目标对象的待处理图像进行面部检测,得到目标对象的面部二维特征点,包括:
基于面部检测算法,从已采集的目标对象的待处理图像中,框选出目标对象的面部区域;
从面部区域中,提取目标对象的初始面部点云数据;
对初始面部点云数据进行背景干扰去除处理,得到已去除背景干扰的面部点云数据;
从已去除背景干扰的面部点云数据中,提取目标对象的面部二维特征点。
其中,面部检测算法具体可以为:对现有的MTCNN(Multi-task convolutionalneural network,多任务卷积神经网络)进行简化得到的算法。
可选地,服务器可以预先对现有的MTCNN模型进行改进,减少MTCNN模型中的模型参数量,以提高MTCNN模型的数据处理速度,并提高MTCNN模型的训练速度与稳定性,减少MTCNN模型的训练误差,得到改进后的MTCNN模型,从而基于改进后的、具备更快数据处理速度、更小误差的、更简化的MTCNN模型,确定应用于本实施例中的面部检测算法。
可选地,服务器可以基于面部检测算法,从已采集的目标对象的待处理图像中,确定目标对象的面部区域的四个角坐标,从而基于所确定的角坐标,框选出目标对象的面部区域,并从面部区域中,提取目标对象的初始面部点云数据,对初始面部点云数据进行背景干扰去除处理,得到已去除背景干扰的面部点云数据,进而从已去除背景干扰的面部点云数据中,提取目标对象的面部二维特征点。
示例性地,服务器具体可以通过以下步骤,对现有的MTCNN(Multi-taskconvolutional neural network,多任务卷积神经网络)进行简化、改进:
由于现有的MTCNN模型是由P-Net(proposal networks)模型、R-Net(refinenetworks)模型、O-Net(output networks)组成,MTCNN模型涉及较多的参数量,导致MTCNN模型的数据处理过程较为复杂。服务器可以分别将P-Net模型、R-Net模型、O-Net模型的卷积层中的标准卷积,替换深度可分离卷积,以减少MTCNN模型的模型参数量,并在P-Net模型、R-Net模型、O-Net模型的第一层卷积层后,均加入Batchnorm(Batch Nomalization或BN)层,以加速MTCNN模型的训练速度与稳定性。如图3所示,提供了一种改进后的P-Net模型的结构示意图。其中,改进后MTCNN模型的参数对比配置表,如表1所示:
表1改进后MTCNN模型的参数对比表
说明书
其中,以表1中的参数为例,改进前MTCNN模型的参数量为489026,改进后MTCNN模型的参数量为390153,约下降了20.22%,即采用本实施例中对MTCNN模型进行改进的方法,可以在不影响MTCNN模型功能的前提下,提高MTCNN模型的数据处理效率。
本实施例中,通过对现有的MTCNN模型进行改进,得到数据处理速度更快、训练误差更小的MTCNN模型,即避免了传统技术中复杂模型带来的问题,并基于改进后的MTCNN模型确定所要用到的面部检测算法,从而可以快速、准确地确定目标对象的面部区域,有利于后续快速、准确地获取目标对象的面部二维特征点。
在其中一个实施例中,获取目标对象的面部二维特征点在不同像素坐标系下的二维坐标,包括:
获取深度图像采集装置采集的目标对象的面部深度图像,以及彩色图像采集装置在相同时刻同步采集的目标对象的面部彩色图像;
针对目标对象的每一面部二维特征点,分别确定面部二维特征点在面部深度图像所对应第一像素坐标系下的第一像素坐标、以及在面部彩色图像所对应第二像素坐标系下的第二像素坐标;
将第一像素坐标、第二像素坐标,作为目标对象的面部二维特征点在不同像素坐标系下的二维坐标。
可选地,服务器可以响应于目标对象发起的身份识别请求,通过目标对象所对应终端的深度图像采集装置、彩色图像采集装置,获取深度图像采集装置采集的目标对象的面部深度图像,以及彩色图像采集装置在相同时刻同步采集的目标对象的面部彩色图像。进一步的,针对目标对象的每一面部二维特征点,服务器可以先确定相同面部二维特征点在面部深度图像所对应第一像素坐标系下的第一像素坐标、以及在面部彩色图像所对应第二像素坐标系下的第二像素坐标,并将第一像素坐标、第二像素坐标,作为目标对象的面部二维特征点在不同像素坐标系下的二维坐标。
示例性地,以深度图像采集装置为深度相机、彩色图像采集装置为彩色相机为例,在确定某一面部二维特征点在不同像素坐标系下的像素坐标的过程中,服务器可以先基于深度相机中默认的相机坐标系,确定该面部二维特征点在深度相机坐标系下的空间坐标PDE,并基于深度相机坐标系与彩色相机坐标系之间的转换关系,对该面部二维特征点在深度相机坐标系下的空间坐标PDE进行转换,得到该面部二维特征点在彩色相机坐标系下的空间坐标PRGB,进而基于深度相机的内参HDE对PDE进行转换,得到该面部二维特征点在面部深度图像所对应第一像素坐标系下的第一像素坐标pDE,并基于彩色相机的内参HRGB对PRGB进行转换,得到该面部二维特征点在面部彩色图像所对应第二像素坐标系下的第二像素坐标pRGB。
其中,基于深度相机坐标系与彩色相机坐标系之间的转换关系,对该面部二维特征点在深度相机坐标系下的空间坐标PDE进行转换,得到该面部二维特征点在彩色相机坐标系下的空间坐标PRGB的过程,具体可以如公式(1)所示:
PRGB=RPDE+T (1)
在公式(1)中,R为将深度相机坐标系中的空间坐标,转换到彩色相机坐标系中空间坐标时,所需的旋转矩阵。T为将深度相机坐标系中的空间坐标,转换到彩色相机坐标系中空间坐标时,所需的平移矩阵。R与T可以预先通过深度相机、彩色相机同时采集的图像,训练、拟合确定。
其中,通过相机内参,对相机默认坐标系下的空间坐标进行转换,得到像素坐标的过程,具体可以如公式(2)、(3)所示:
pDE=HDE·PDE (2)
pRGB=HRGB·PRGB (3)
在公式(2)、(3)中,深度相机的内参HHE、彩色相机的内参HRGB是与相机自身特性相关的参数。
本实施例中,通过对相同面部二维特征点,在不同相机坐标系下的空间坐标进行转换,得到相同面部二维特征点,在不同图像所对应像素坐标下的像素坐标,以便后续可以基于不同图像的像素坐标之间的对应关系,将不同图像对齐、融合。
在其中一个实施例中,基于面部二维特征点在不同像素坐标系下的二维坐标,获取目标对象的面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标,包括:
构建相同面部二维特征点在第一像素坐标系下的第一像素坐标、在第二像素坐标系下的第二像素坐标之间的对应关系;
基于对应关系,将面部深度图像与面部彩色图像对齐,得到更新图像;
从更新图像中选取至少一部分像素点作为目标对象的面部三维特征点;
基于面部三维特征点在更新图像中的像素值,确定面部三维特征点的深度信息;
基于深度信息,确定目标对象的面部三维特征点在世界坐标系下的三维坐标。
其中,深度信息指的是所检测物体的表面各个点的三维坐标信息,即物体表面各个点与相机/图像采集装置之间的距离。为了获取更详细的面部数据,一般是结合深度相机与彩色相机共同采集面部数据,但由于深度相机的原点是红外摄像头、彩色相机的原点是RGB摄像头,因此,即深度相机与彩色相机的相机坐标系存在差异,因此,需要将面部深度图像与面部彩色图像对齐,得到融合后的RGB-D图像,并基于RGB-D图像确定目标对象的面部三维特征点。
可选地,服务器可以构建相同面部二维特征点在第一像素坐标系下的第一像素坐标、在第二像素坐标系下的第二像素坐标之间的对应关系,并基于所构建的额对应关系,将面部深度图像与面部彩色图像对齐/融合,得到更新图像(RGB-D图像),并从更新图像中选取至少一部分像素点作为目标对象的面部三维特征点,其中,可以选取双眼、鼻子、嘴角等较为关键的点,作为目标对象的面部三维特征点。然后,服务器可以获取面部三维特征点在更新图像中的像素值,并基于所得像素值,确定面部三维特征点的深度信息,进而基于深度信息,确定目标对象的面部三维特征点在世界坐标系下的三维坐标。
示例性地,如图4所示,提供了一种对面部三维特征点进行转换的示意图,在图4中,“1”表征目标对象的头部,“2”表征所选取的面部三维特征点,“3”表征相机的采集方向,“4”表征相机坐标系,“5”表征面部三维特征点投影形成的图像平面,“6”表征面部三维特征点在世界坐标系中的参考位置。
本实施例中,通过将面部深度图像与面部彩色图像对齐,可以得到融合了更完善的面部数据的更新图像,进而从更新图像中,选取部分关键点作为面部三维特征点,有利于提高身份识别的准确性。
在其中一个实施例中,基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度,包括:
对目标对象的面部三维特征点的三维坐标进行转换,得到面部三维特征点的空间坐标;
预设多个虚拟控制点的三维坐标与空间坐标;
基于EPNP算法,以及面部三维特征点、多个虚拟控制点各自的三维坐标与空间坐标,确定目标对象的头部偏转角度。
其中,EPNP算法是一种计算精度较高的,针对PnP问题(Perspective-n-PointProblem,透视n点问题)的解析算法。
可选地,服务器可以基于深度相机的内参,对目标对象的面部三维特征点的三维坐标进行转换,得到面部三维特征点在深度相机坐标系下的空间坐标,然后,服务器还可以预设多个虚拟控制点的三维坐标与空间坐标,并基于EPNP算法,以及面部三维特征点、多个虚拟控制点各自的三维坐标与空间坐标,确定目标对象的头部偏转角度。
示例性地,以n个面部三维特征点在世界坐标系下的三维坐标为(i=1,2,…,n),n个面部三维特征点在深度相机坐标系下的空间坐标为/>(i=1,2,…,n)为例,服务器可以先假设4个虚拟控制点,并预设4个虚拟控制点在世界坐标系下的三维坐标为/>(j=1,2,3,4),4个虚拟控制点在深度相机坐标系下的空间坐标为/>(j=1,2,3,4),然后,服务器可以基于EPNP算法,以及面部三维特征点、多个虚拟控制点各自的三维坐标与空间坐标,对这4个虚拟控制点的空间坐标进行优化求解,从而根据求解结果确定目标对象的头部偏转角度。
其中,面部三维特征点、多个虚拟控制点各自的三维坐标与空间坐标之间的关系,可以表示为:
其中,aij为与第i个面部三维特征点对应的,第j个虚拟控制点的权重。为第i个面部三维特征点在世界坐标系下的三维坐标,/>为第i个面部三维特征点在深度相机坐标系下的空间坐标。/>为第j个虚拟控制点在世界坐标系下的三维坐标,/>为第j个虚拟控制点在深度相机坐标系下的空间坐标。
本实施例中,通过引入多个虚拟控制点,将求解三维到二维的PNP问题,转换为求解三维到三维的坐标刚体变换问题,从而可以准确、快速地确定目标对象的头部偏转角度。
在其中一个实施例中,基于面部正脸点云数据,对目标对象进行身份识别,包括:
基于特征提取网络,从面部正脸点云数据中,提取目标对象的面部特征;
将目标对象的面部特征,与面部数据库中存储的不同对象的面部特征进行相似性度量;
基于相似性度量结果,对目标对象进行身份识别。
可选地,服务器可以基于残差神经网络(ResNet),从面部正脸点云数据中,提取目标对象的面部特征,并基于欧式距离算法,将目标对象的面部特征,与面部数据库中存储的不同对象的面部特征进行相似性度量,从而基于相似性度量结果,对目标对象进行身份识别。其中,残差神经网络相比于传统的卷积神经网络,复杂度降低,所需的参数量下降,且网络深度更深,分类准确度更佳。
示例性地,本实施例中残差神经网络的网络结构如表2所示:
表2ResNet网络结构表
其中,在表2中,conv2_x、conv3_x、conv4_x与conv5_x表示四组残差块(ResidualBlock),每组分别由多个残差单元构成。在应用ResNet网络的过程中,面部正脸点云数据经过一层卷积操作之后,进行3×3的最大池化,而后经过ResNet网络中的4组残差块,进入平均池化层进行采样,最后进入全连接层,从而得到目标对象的面部特征。
示例性地,如图5所示,提供了本实施例中使用的一种ResNet网络的结构示意图,共包括29层卷积层、1层全连接层,可以获取目标对象面部的128维特征向量。
本实施例中,通过复杂度较低的ResNet,从目标对象的面部正脸点云数据中,提取目标对象的面部特征,可以提高提取特征的效率,还通过欧式距离算法,对目标对象的面部特征与数据库中存储众多对象的面部特征进行相似性度量,可以准确地对目标对象进行身份识别。
在一个实施例中,如图6所示,提供了另一种身份识别方法,主要包括以下步骤:
步骤602,基于面部检测算法,从已采集的目标对象的待处理图像中,框选出目标对象的面部区域,并从面部区域中,提取目标对象的初始面部点云数据;
步骤604,对初始面部点云数据进行背景干扰去除处理,得到已去除背景干扰的面部点云数据,并从已去除背景干扰的面部点云数据中,提取目标对象的面部二维特征点;
步骤606,获取深度图像采集装置采集的目标对象的面部深度图像,以及彩色图像采集装置在相同时刻同步采集的目标对象的面部彩色图像,分别确定每一面部二维特征点在面部深度图像所对应第一像素坐标系下的第一像素坐标、以及在面部彩色图像所对应第二像素坐标系下的第二像素坐标;
步骤608,将第一像素坐标、第二像素坐标,作为目标对象的面部二维特征点在不同像素坐标系下的二维坐标,并构建相同面部二维特征点在第一像素坐标系下的第一像素坐标、在第二像素坐标系下的第二像素坐标之间的对应关系;
步骤610,基于对应关系,将面部深度图像与面部彩色图像对齐,得到更新图像,从更新图像中选取至少一部分像素点作为目标对象的面部三维特征点;
步骤612,基于面部三维特征点在更新图像中的像素值,确定面部三维特征点的深度信息,基于深度信息,确定目标对象的面部三维特征点在世界坐标系下的三维坐标;
步骤614,当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,对目标对象的面部三维特征点的三维坐标进行转换,得到面部三维特征点的空间坐标;
步骤616,预设多个虚拟控制点的三维坐标与空间坐标,并基于EPNP算法,以及面部三维特征点、多个虚拟控制点各自的三维坐标与空间坐标,确定目标对象的头部偏转角度;
步骤618,获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,并基于特征提取网络,从面部正脸点云数据中,提取目标对象的面部特征;
步骤620,将目标对象的面部特征,与面部数据库中不同对象的面部特征进行相似性度量,基于相似性度量结果,对目标对象进行身份识别。
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的身份识别方法的身份识别装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个身份识别装置实施例中的具体限定可以参见上文中对于身份识别方法的限定,在此不再赘述。
在一个实施例中,如图7所示,提供了一种身份识别装置,包括:二维特征点获取模块、三维特征点获取模块、头部偏转角度确定模块和身份识别模块,其中:
二维特征点获取模块,用于基于面部检测算法对目标对象的待处理图像进行面部检测,得到目标对象的面部二维特征点;
三维特征点获取模块,用于基于面部二维特征点在不同像素坐标系下的二维坐标,获取目标对象的面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标;
头部偏转角度确定模块,用于当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于面部三维特征点的三维坐标,确定目标对象的头部偏转角度;
身份识别模块,用于获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,并基于面部正脸点云数据,对目标对象进行身份识别。
上述身份识别装置中,先获取目标对象的面部二维特征点,从而基于面部二维特征点在不同像素坐标系下的二维坐标,获取面部三维特征点,并确定面部三维特征点在世界坐标系下的三维坐标,即不涉及面部复杂三维模型的重建,可以提高获取面部三维特征点的效率,当面部三维特征点的三维坐标满足表征目标对象为活体的面部空间条件时,基于目标对象的面部三维特征点的三维坐标,确定目标对象的头部偏转角度,获取目标对象按照头部偏转角度进行位姿调整后的面部正脸点云数据,从而基于目标对象的面部正脸点云数据,快速地对目标对象进行身份识别。
在其中一个实施例中,二维特征点获取模块还用于基于面部检测算法,从已采集的目标对象的待处理图像中,框选出目标对象的面部区域,从面部区域中,提取目标对象的初始面部点云数据,对初始面部点云数据进行背景干扰去除处理,得到已去除背景干扰的面部点云数据,从已去除背景干扰的面部点云数据中,提取目标对象的面部二维特征点。
在其中一个实施例中,身份识别装置中还包括二维坐标获取模块,二维坐标获取模块用于获取深度图像采集装置采集的目标对象的面部深度图像,以及彩色图像采集装置在相同时刻同步采集的目标对象的面部彩色图像,针对目标对象的每一面部二维特征点,分别确定面部二维特征点在面部深度图像所对应第一像素坐标系下的第一像素坐标、以及在面部彩色图像所对应第二像素坐标系下的第二像素坐标,然后,将第一像素坐标、第二像素坐标,作为目标对象的面部二维特征点在不同像素坐标系下的二维坐标。
在其中一个实施例中,三维特征点获取模块还用于构建相同面部二维特征点在第一像素坐标系下的第一像素坐标、在第二像素坐标系下的第二像素坐标之间的对应关系,基于对应关系,将面部深度图像与面部彩色图像对齐,得到更新图像,从更新图像中选取至少一部分像素点作为目标对象的面部三维特征点,基于面部三维特征点在更新图像中的像素值,确定面部三维特征点的深度信息,基于深度信息,确定目标对象的面部三维特征点在世界坐标系下的三维坐标。
在其中一个实施例中,头部偏转角度确定模块还用于对目标对象的面部三维特征点的三维坐标进行转换,得到面部三维特征点的空间坐标,并预设多个虚拟控制点的三维坐标与空间坐标,基于EPNP算法,以及面部三维特征点、多个虚拟控制点各自的三维坐标与空间坐标,确定目标对象的头部偏转角度。
在其中一个实施例中,身份识别模块还用于基于特征提取网络,从面部正脸点云数据中,提取目标对象的面部特征,将目标对象的面部特征,与面部数据库中存储的不同对象的面部特征进行相似性度量,基于相似性度量结果,对目标对象进行身份识别。
上述身份识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括处理器、存储器、输入/输出接口(Input/Output,简称I/O)和通信接口。其中,处理器、存储器和输入/输出接口通过系统总线连接,通信接口通过输入/输出接口连接到系统总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储身份识别数据。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种身份识别方法。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (10)
1.一种身份识别方法,其特征在于,所述方法包括:
基于面部检测算法对目标对象的待处理图像进行面部检测,得到所述目标对象的面部二维特征点;
基于所述面部二维特征点在不同像素坐标系下的二维坐标,获取所述目标对象的面部三维特征点,并确定所述面部三维特征点在世界坐标系下的三维坐标;
当所述面部三维特征点的三维坐标满足表征所述目标对象为活体的面部空间条件时,基于所述面部三维特征点的三维坐标,确定所述目标对象的头部偏转角度;
获取所述目标对象按照所述头部偏转角度进行位姿调整后的面部正脸点云数据,并基于所述面部正脸点云数据,对所述目标对象进行身份识别。
2.根据权利要求1所述的方法,其特征在于,所述基于面部检测算法对目标对象的待处理图像进行面部检测,得到所述目标对象的面部二维特征点,包括:
基于面部检测算法,从已采集的目标对象的待处理图像中,框选出所述目标对象的面部区域;
从所述面部区域中,提取所述目标对象的初始面部点云数据;
对所述初始面部点云数据进行背景干扰去除处理,得到已去除背景干扰的面部点云数据;
从所述已去除背景干扰的面部点云数据中,提取所述目标对象的面部二维特征点。
3.根据权利要求1所述的方法,其特征在于,获取所述目标对象的面部二维特征点在不同像素坐标系下的二维坐标,包括:
获取深度图像采集装置采集的所述目标对象的面部深度图像,以及彩色图像采集装置在相同时刻同步采集的所述目标对象的面部彩色图像;
针对所述目标对象的每一面部二维特征点,分别确定所述面部二维特征点在所述面部深度图像所对应第一像素坐标系下的第一像素坐标、以及在所述面部彩色图像所对应第二像素坐标系下的第二像素坐标;
将所述第一像素坐标、所述第二像素坐标,作为所述目标对象的面部二维特征点在不同像素坐标系下的二维坐标。
4.根据权利要求3所述的方法,其特征在于,基于所述面部二维特征点在不同像素坐标系下的二维坐标,获取所述目标对象的面部三维特征点,并确定所述面部三维特征点在世界坐标系下的三维坐标,包括:
构建相同面部二维特征点在第一像素坐标系下的第一像素坐标、在第二像素坐标系下的第二像素坐标之间的对应关系;
基于所述对应关系,将所述面部深度图像与所述面部彩色图像对齐,得到更新图像;
从所述更新图像中选取至少一部分像素点作为所述目标对象的面部三维特征点;
基于所述面部三维特征点在所述更新图像中的像素值,确定所述面部三维特征点的深度信息;
基于所述深度信息,确定所述目标对象的面部三维特征点在世界坐标系下的三维坐标。
5.根据权利要求1所述的方法,其特征在于,所述基于所述面部三维特征点的三维坐标,确定所述目标对象的头部偏转角度,包括:
对所述目标对象的面部三维特征点的三维坐标进行转换,得到所述面部三维特征点的空间坐标;
预设多个虚拟控制点的三维坐标与空间坐标;
基于EPNP算法,以及所述面部三维特征点、多个所述虚拟控制点各自的三维坐标与空间坐标,确定所述目标对象的头部偏转角度。
6.根据权利要求1所述的方法,其特征在于,所述基于所述面部正脸点云数据,对所述目标对象进行身份识别,包括:
基于特征提取网络,从所述面部正脸点云数据中,提取所述目标对象的面部特征;
将所述目标对象的面部特征,与面部数据库中存储的不同对象的面部特征进行相似性度量;
基于相似性度量结果,对所述目标对象进行身份识别。
7.一种身份识别装置,其特征在于,所述装置包括:
二维特征点获取模块,用于基于面部检测算法对目标对象的待处理图像进行面部检测,得到所述目标对象的面部二维特征点;
三维特征点获取模块,用于基于所述面部二维特征点在不同像素坐标系下的二维坐标,获取所述目标对象的面部三维特征点,并确定所述面部三维特征点在世界坐标系下的三维坐标;
头部偏转角度确定模块,用于当所述面部三维特征点的三维坐标满足表征所述目标对象为活体的面部空间条件时,基于所述面部三维特征点的三维坐标,确定所述目标对象的头部偏转角度;
身份识别模块,用于获取所述目标对象按照所述头部偏转角度进行位姿调整后的面部正脸点云数据,并基于所述面部正脸点云数据,对所述目标对象进行身份识别。
8.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述的方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
10.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310658590.6A CN116881886A (zh) | 2023-06-05 | 2023-06-05 | 身份识别方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310658590.6A CN116881886A (zh) | 2023-06-05 | 2023-06-05 | 身份识别方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116881886A true CN116881886A (zh) | 2023-10-13 |
Family
ID=88268757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310658590.6A Pending CN116881886A (zh) | 2023-06-05 | 2023-06-05 | 身份识别方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116881886A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117409076A (zh) * | 2023-10-17 | 2024-01-16 | 苏州华兴源创科技股份有限公司 | 检测对位方法、装置、计算机设备和存储介质 |
-
2023
- 2023-06-05 CN CN202310658590.6A patent/CN116881886A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117409076A (zh) * | 2023-10-17 | 2024-01-16 | 苏州华兴源创科技股份有限公司 | 检测对位方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021093453A1 (zh) | 三维表情基的生成方法、语音互动方法、装置及介质 | |
US11928800B2 (en) | Image coordinate system transformation method and apparatus, device, and storage medium | |
US11328172B2 (en) | Method for fine-grained sketch-based scene image retrieval | |
WO2021227726A1 (zh) | 面部检测、图像检测神经网络训练方法、装置和设备 | |
CN107953329B (zh) | 物体识别和姿态估计方法、装置及机械臂抓取系统 | |
CN108549873A (zh) | 三维人脸识别方法和三维人脸识别系统 | |
CN111652974B (zh) | 三维人脸模型的构建方法、装置、设备及存储介质 | |
CN110503076B (zh) | 基于人工智能的视频分类方法、装置、设备和介质 | |
CN111625667A (zh) | 一种基于复杂背景图像的三维模型跨域检索方法及系统 | |
WO2023151237A1 (zh) | 人脸位姿估计方法、装置、电子设备及存储介质 | |
CN109948397A (zh) | 一种人脸图像校正方法、系统及终端设备 | |
CN113570684A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN110188217A (zh) | 图像查重方法、装置、设备和计算机可读储存介质 | |
CN111091597B (zh) | 确定图像位姿变换的方法、装置及存储介质 | |
CN116881886A (zh) | 身份识别方法、装置、计算机设备和存储介质 | |
CN113298158A (zh) | 数据检测方法、装置、设备及存储介质 | |
CN114973418A (zh) | 一种跨模态三维点云序列时空特征网络的行为识别方法 | |
CN110007764B (zh) | 一种手势骨架识别方法、装置、系统及存储介质 | |
CN109002776A (zh) | 人脸识别方法、系统、计算机设备和计算机可读存储介质 | |
RU2361273C2 (ru) | Способ и устройство для распознавания изображений объектов | |
CN111915676B (zh) | 图像生成方法、装置、计算机设备和存储介质 | |
US11495049B2 (en) | Biometric feature reconstruction method, storage medium and neural network | |
CN117315142A (zh) | 纪念币三维重建方法、装置、计算机设备和存储介质 | |
Zhang et al. | Bicanet: Lidar point cloud classification network based on coordinate attention and blueprint separation involution neural network | |
Nie et al. | Multi-scale CNNs for 3D model retrieval |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |