CN116434316B - 基于x86工控主板的身份识别方法、装置、设备及介质 - Google Patents

基于x86工控主板的身份识别方法、装置、设备及介质 Download PDF

Info

Publication number
CN116434316B
CN116434316B CN202310400679.2A CN202310400679A CN116434316B CN 116434316 B CN116434316 B CN 116434316B CN 202310400679 A CN202310400679 A CN 202310400679A CN 116434316 B CN116434316 B CN 116434316B
Authority
CN
China
Prior art keywords
user
depth
standard
pupil
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310400679.2A
Other languages
English (en)
Other versions
CN116434316A (zh
Inventor
吴丰义
吴世杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Lingyi Technology Co ltd
Original Assignee
Shenzhen Lingyi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Lingyi Technology Co ltd filed Critical Shenzhen Lingyi Technology Co ltd
Priority to CN202310400679.2A priority Critical patent/CN116434316B/zh
Publication of CN116434316A publication Critical patent/CN116434316A/zh
Application granted granted Critical
Publication of CN116434316B publication Critical patent/CN116434316B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及人工智能技术,揭露了一种基于X86工控主板的身份识别方法、装置、设备及介质,该方法包括:利用X86工控主板获取用户深度视频,从用户深度视频中提取出用户标准深度图集;利用用户标准深度图集生成用户三维模型,对用户三维模型进行瞳孔定位,得到瞳孔位置信息,利用瞳孔位置信息获取眼部红外图组;从用户三维模型中提取出三维用户特征;从眼部红外图组筛选出瞳孔纹理特征;利用三维用户特征匹配出初级加权用户身份集,利用瞳孔纹理特征匹配出次级加权用户身份集,利用初级加权用户身份集和次级加权用户身份集确定出目标用户身份。本发明还提出一种基于X86工控主板的身份识别设备以及介质。本发明可以提高X86工控主板身份识别的精确度。

Description

基于X86工控主板的身份识别方法、装置、设备及介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于X86工控主板的身份识别方法、装置、设备及介质。
背景技术
X86架构的工控主板凭借着其良好的兼容性在多个智能控制领域得到了广泛的应用,其中,基于X86工控主板的身份识别装置也在银行自助、交通通行以及智能门锁等领域得到了广泛应用。
现有的基于X86工控主板的身份识别方法多为基于简单二维面部特征匹配的身份识别方法,例如,通过X86工控主板获取用户的真人图片,利用卷积神经网络提取出采集真人图片的面部特征,并根据面部特征对用户进行身份匹配识别,实际应用中,基于简单二维面部特征匹配的身份识别方法对光线要求较高,且单纯的二维真人图像采集到的面部特征较少,安全系数较低,可能导致进行身份识别时的精确度较低。
发明内容
本发明提供一种基于X86工控主板的身份识别方法、装置、设备及介质,其主要目的在于解决进行身份识别时的精确度较低的问题。
为实现上述目的,本发明提供的一种基于X86工控主板的身份识别方法,包括:
利用X86工控主板获取用户深度视频,从所述用户深度视频中提取出用户深度图集,对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,其中,所述对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,包括:逐个选取所述用户深度图集中的用户深度图片作为目标用户深度图片,对所述目标深度图片进行高斯平滑滤波,得到目标用户高斯图片;利用如下的联合滤波算法和所述目标用户高斯图片对所述目标用户深度图片进行高斯导向滤波,得到用户标准深度图片:
其中,U(x,y)是指所述用户标准深度图片中坐标为(x,y)的像素点的深度值,是指横坐标为/>纵坐标为/>的坐标点,Ω是指所述目标用户深度图片、所述目标用户高斯图片以及所述用户标准深度图片的像素点坐标值域,/>是指所述目标用户深度图片上坐标为/>的像素点的深度值,G1、G2是指高斯滤波的滤波核,其中,G1是指高斯滤波的空间域滤波核,G2是指高斯滤波的像素域滤波核,||·||是绝对值符号,H(x,y)是指所述目标用户高斯图片中坐标为(x,y)的像素点的深度值,/>是指所述目标用户高斯图片中坐标为的像素点的深度值,/>是指所述目标用户高斯图片中坐标为/>的像素点的深度值;将所有的所述用户标准深度图片汇集成用户标准深度图集;
利用所述用户标准深度图集生成标准用户点云,对所述标准用户点云进行多叉树三维重建,得到用户三维模型,对所述用户三维模型进行瞳孔定位,得到瞳孔位置信息,利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组,其中,所述利用所述用户标准深度图集生成标准用户点云,包括:对所述用户标准深度图集进行图片分割,得到用户头部深度图集;根据所述用户头部深度图集生成用户头部点云集;对所述用户头部点云集进行点云分割,得到用户头部三维点云集;从所述用户头部三维点云集中筛选出点云关键点,并利用所述点云关键点将所述用户头部三维点云集融合成标准用户点云;
从所述用户三维模型中提取出三维器官模型组,对所述三维器官模型组进行初级轮廓特征提取,得到三维器官特征,利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征;
利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,依次对所述初级眼部图组进行对所述初级眼部图组进行高斯均衡和尺寸方向标准化操作,得到初级瞳孔图组,将所述初级瞳孔图组中的每个初级瞳孔图片进行序列切分,得到标准瞳孔图组集,对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征;
利用所述三维用户特征在预设的用户轮廓特征库中匹配出初级加权用户身份集,利用所述瞳孔纹理特征在预设的用户虹膜特征库中匹配出次级加权用户身份集,利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份。
可选地,所述对所述标准用户点云进行多叉树三维重建,得到用户三维模型,包括:
根据所述标准用户点云构建点云多叉树,并为所述点云多叉树中个各个树节点初始化节点函数;
利用如下的插值向量公式和所述节点函数计算出所述点云多叉树中每个点云的插值向量:
其中,是指点云m的插值向量,m是指所述标准用户点云中的任一点云,M是指所述标准用户点云,o是指所述点云多叉树中的树节点,D(m)是指所述点云m的在所述点云多叉树中对应的邻域节点,λo,m是指所述点云多叉树中树节点o与点云m的插值权重,F(·)是指所述节点函数,ow是指所述树节点o的节点中心,ow是指所述树节点o的节点宽度,/>是指所述点云m的法向量;
根据所述插值向量计算出所述标准用户点云中各个点云的指示函数;
根据所述指示函数构建出所述标准用户点云中各个点云对应的等值面,并将所有的等值面拼接成用户三维模型。
可选地,所述利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征,包括:
对所述用户三维模型进行次级轮廓特征提取,得到初级三维用户特征;
对所述初级三维用户特征进行上采样,得到次级三维用户特征;
利用所述三维器官特征对所述次级三维用户特征进行匹配融合,得到三维用户特征。
可选地,所述利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,包括:
逐个选取所述眼部红外图组中的眼部红外图片作为目标眼部红外图片,利用预设的区域采样框对所述目标眼部红外图片进行区域采样;
利用如下的区域清晰度算法和预设的区域采样框计算出所述目标眼部红外图片对应的区域清晰度:
其中,Q是指所述区域清晰度,I是所述目标眼部红外图片的图片像素长度,J是所述目标眼部红外图片的图片像素宽度,i是指所述目标眼部红外图片中的横向第i个像素,j是指所述目标眼部红外图片中的纵向第j个像素,∈是指所述区域采样框的框长,K是灰度符号,K(i,j+∈)是指所述目标眼部红外图片中坐标点为(i,j+∈)的像素的灰度值,K(i,j-∈)是指所述目标眼部红外图片中坐标点为(i,j-∈)的像素的灰度值,K(i+∈,j)是指所述目标眼部红外图片中坐标点为(i+∈,j)的像素的灰度值,K(i-∈,j)是指所述目标眼部红外图片中坐标点为(i-∈,j)的像素的灰度值,K(i,j)是指所述目标眼部红外图片中坐标点为(i,j)的像素的灰度值;
选取所述区域清晰度大于预设的清晰度阈值的目标眼部红外图片组成初级眼部图组。
可选地,所述依次对所述初级眼部图组进行高斯均衡和尺寸方向标准化操作,得到初级瞳孔图组,包括:
对所述初级眼部图组进行高斯平滑滤波,得到平滑眼部图组;
利用灰度直方图法对所述平滑眼部图组进行灰度均衡操作,得到均衡眼部图组;
对所述均衡眼部图组进行瞳孔图片分割操作,得到均衡瞳孔图组;
对所述均衡瞳孔图组进行尺寸方向标准化操作,得到初级瞳孔图组。
可选地,所述对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征,包括:
逐个选取所述标准瞳孔图组集中的标准瞳孔图组作为目标标准瞳孔图组,逐个选取所述目标标准瞳孔图组中的标准瞳孔图片作为目标标准瞳孔图片;
依次计算出所述目标标准瞳孔图片的角二阶矩、对比度、灰度熵以及灰度相关性,并将所述角二阶矩、所述对比度、所述灰度熵以及所述灰度相关性汇集成目标初级瞳孔特征;
对所述目标标准瞳孔图片进行多角度多尺度卷积操作,得到目标次级瞳孔特征,将所述目标初级瞳孔特征和所述目标次级瞳孔特征汇集成目标瞳孔纹理特征;
对所述目标标准瞳孔图组的所有目标瞳孔纹理特征进行特征融合,得到目标标准瞳孔纹理特征,并将所有的目标标准瞳孔纹理特征拼接成瞳孔纹理特征。
为了解决上述问题,本发明还提供一种基于X86工控主板的身份识别装置,所述装置包括:
深度滤波模块,用于利用X86工控主板获取用户深度视频,从所述用户深度视频中提取出用户深度图集,对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,其中,所述对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,包括:逐个选取所述用户深度图集中的用户深度图片作为目标用户深度图片,对所述目标深度图片进行高斯平滑滤波,得到目标用户高斯图片;利用如下的联合滤波算法和所述目标用户高斯图片对所述目标用户深度图片进行高斯导向滤波,得到用户标准深度图片:
其中,U(x,y)是指所述用户标准深度图片中坐标为(x,y)的像素点的深度值,是指横坐标为/>纵坐标为/>的坐标点,Ω是指所述目标用户深度图片、所述目标用户高斯图片以及所述用户标准深度图片的像素点坐标值域,/>是指所述目标用户深度图片上坐标为/>的像素点的深度值,G1、G2是指高斯滤波的滤波核,其中,G1是指高斯滤波的空间域滤波核,G2是指高斯滤波的像素域滤波核,||·||是绝对值符号,H(x,y)是指所述目标用户高斯图片中坐标为(x,y)的像素点的深度值,/>是指所述目标用户高斯图片中坐标为的像素点的深度值,/>是指所述目标用户高斯图片中坐标为/>的像素点的深度值;将所有的所述用户标准深度图片汇集成用户标准深度图集;
三维重建模块,用于利用所述用户标准深度图集生成标准用户点云,对所述标准用户点云进行多叉树三维重建,得到用户三维模型,对所述用户三维模型进行瞳孔定位,得到瞳孔位置信息,利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组,其中,所述利用所述用户标准深度图集生成标准用户点云,包括:对所述用户标准深度图集进行图片分割,得到用户头部深度图集;根据所述用户头部深度图集生成用户头部点云集;对所述用户头部点云集进行点云分割,得到用户头部三维点云集;从所述用户头部三维点云集中筛选出点云关键点,并利用所述点云关键点将所述用户头部三维点云集融合成标准用户点云;
轮廓特征提取模块,用于从所述用户三维模型中提取出三维器官模型组,对所述三维器官模型组进行初级轮廓特征提取,得到三维器官特征,利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征;
瞳孔特征提取模块,用于利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,依次对所述初级眼部图组进行对所述初级眼部图组进行高斯均衡和尺寸方向标准化操作,得到初级瞳孔图组,将所述初级瞳孔图组中的每个初级瞳孔图片进行序列切分,得到标准瞳孔图组集,对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征;
身份匹配模块,用于利用所述三维用户特征在预设的用户轮廓特征库中匹配出初级加权用户身份集,利用所述瞳孔纹理特征在预设的用户虹膜特征库中匹配出次级加权用户身份集,利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份。
为了解决上述问题,本发明还提供一种设备,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的基于X86工控主板的身份识别方法。
为了解决上述问题,本发明还提供一种介质,所述介质中存储有至少一个计算机程序,所述至少一个计算机程序被设备中的处理器执行以实现上述所述的基于X86工控主板的身份识别方法。
本发明实施例通过利用X86工控主板获取用户深度视频,从所述用户深度视频中提取出用户深度图集,能够无需光照条件获得多张不同角度的包含用户头像的深度图片,降低了用户身份识别时的环境条件,通过对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,可以降低所述用户深度图集的图片噪声,从而提高后续三维重建的精度,通过利用所述用户标准深度图集生成标准用户点云,能够利用多份用户标准深度图创建的点云数据实现点云除噪,进而提高标准用户三维点云的点云精度,通过对所述标准用户点云进行多叉树三维重建,得到用户三维模型,能够保留用户三维模型的细节特征,从而提高后续身份识别的精确度,通过利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组,可以确保获得的眼部红外图组的图片清晰度,从而提高保留更多的瞳孔纹理特征,通过利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征,能够在进行轮廓特征提取的过程中保持各器官的轮廓特征,从而提高三维用户特征的精确度;
通过利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,可以保证初级眼部图组的图片清晰度,得到更多纹理特征,通过对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征,可以分区域对瞳孔进行多维度的特征提取,进一步提高纹理特征的特征广度,进而提高身份识别的准确性,通过利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份,可以结合三维轮廓特征和瞳孔纹理特征实现精准的用户身份匹配,提高身份识别的准确率。因此本发明提出的基于X86工控主板的身份识别方法、装置、设备及介质,可以解决进行身份识别时的精确度较低的问题。
附图说明
图1为本发明一实施例提供的基于X86工控主板的身份识别方法的流程示意图;
图2为本发明一实施例提供的多叉树三维重建的流程示意图;
图3为本发明一实施例提供的提取瞳孔纹理特征的流程示意图;
图4为本发明一实施例提供的基于X86工控主板的身份识别装置的功能模块图;
图5为本发明一实施例提供的实现所述基于X86工控主板的身份识别方法的设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于X86工控主板的身份识别方法。所述基于X86工控主板的身份识别方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的设备中的至少一种。换言之,所述基于X86工控主板的身份识别方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的基于X86工控主板的身份识别方法的流程示意图。在本实施例中,所述基于X86工控主板的身份识别方法包括:
S1、利用X86工控主板获取用户深度视频,从所述用户深度视频中提取出用户深度图集,对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集。
本发明实施例中,所述X86工控主板是指基于X86架构设计的工控主板,其中,X86架构是指是微处理器执行的计算机语言指令集,指一个intel通用计算机系列的标准编号缩写,也标识一套通用的计算机指令集合,所述工控主板是指是指应用于工业场合,被工业电脑所采用,根据需求可以适应宽温环境,可以适应恶劣环境,可以长时间高负荷工作的主板。
本发明实施例中,所述X86工控主板可以是应用于智能门锁,银行机构以及交通枢纽等场景机构用于进行用户身份识别的交互终端的工控主板,所述用户深度视频是指利用深度相机采集的视频,所述深度相机可以是红外深度相机,即利用红外激光发射器采集的深度视频,所述利用X86工控主板获取用户深度视频是指利用X86工控主板获取感应探测器传来的监控信号,并根据所述监控信号控制深度相机拍摄用户的深度视频。
本发明实施例中,所述从所述用户深度视频中提取出用户深度图集是指每隔固定时间在所述用户深度视频中采集深度帧图片,并将所有的深度帧图片汇集成用户深度图集,其中,可以利用OpenCV的zfill函数每隔固定时间在所述用户深度视频中采集深度帧图片。
本发明实施例中,所述对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,包括:
逐个选取所述用户深度图集中的用户深度图片作为目标用户深度图片,对所述目标深度图片进行高斯平滑滤波,得到目标用户高斯图片;
利用如下的联合滤波算法和所述目标用户高斯图片对所述目标用户深度图片进行高斯导向滤波,得到用户标准深度图片:
其中,U(x,y)是指所述用户标准深度图片中坐标为(x,y)的像素点的深度值,是指横坐标为/>纵坐标为/>的坐标点,Ω是指所述目标用户深度图片、所述目标用户高斯图片以及所述用户标准深度图片的像素点坐标值域,/>是指所述目标用户深度图片上坐标为/>的像素点的深度值,G1、G2是指高斯滤波的滤波核,其中,G1是指高斯滤波的空间域滤波核,G2是指高斯滤波的像素域滤波核,||·||是绝对值符号,H(x,y)是指所述目标用户高斯图片中坐标为(x,y)的像素点的深度值,/>是指所述目标用户高斯图片中坐标为的像素点的深度值;
将所有的所述用户标准深度图片汇集成用户标准深度图集。
详细地,通过利用所述联合滤波算法和所述目标用户高斯图片对所述目标用户深度图片进行高斯导向滤波,得到用户标准深度图片,可以将所述目标用户高斯图片作为联合滤波的导向图进行滤波,可以在进行高斯滤波时保留目标用户高斯图片的轮廓特征进行滤波,从而提升用户标准深度图片的清晰度。
本发明实施例中,通过利用X86工控主板获取用户深度视频,从所述用户深度视频中提取出用户深度图集,能够无需光照条件获得多张不同角度的包含用户头像的深度图片,降低了用户身份识别时的环境条件,通过对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,可以降低所述用户深度图集的图片噪声,从而提高后续三维重建的精度。
S2、利用所述用户标准深度图集生成标准用户点云,对所述标准用户点云进行多叉树三维重建,得到用户三维模型,对所述用户三维模型进行瞳孔定位,得到瞳孔位置信息,利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组。
本发明实施例中,所述标准用户点云是指包含用户的头部信息的空间坐标数据的点云,所述用户三维模型是指用户的头像的三维模型。
本发明实施例中,所述利用所述用户标准深度图集生成标准用户点云,包括:
对所述用户标准深度图集进行图片分割,得到用户头部深度图集;
根据所述用户头部深度图集生成用户头部点云集;
对所述用户头部点云集进行点云分割,得到用户头部三维点云集;
从所述用户头部三维点云集中筛选出点云关键点,并利用所述点云关键点将所述用户头部三维点云集融合成标准用户点云。
详细地,所述对所述用户标准深度图集进行图片分割,得到用户头部深度图集是指逐个对所述用户标准深度图集中用户标准深度图进行图片分割,得到用户头部深度图集,其中,可以利用轮廓提取算法或边界跟踪法对所述用户标准深度图集中用户标准深度图进行图片分割。
详细地,通过对所述用户标准深度图集进行图片分割,得到用户头部深度图集,可以将用户标准深度图集中的用户头部图像与背景图像进行区分,从而提高后续三维重建的效率。
具体地,所述根据所述用户头部深度图集生成用户头部点云集,包括:
逐个选取所述用户头部深度图集中的用户头部深度图片作为目标头部深度图片,逐个选取所述目标头部深度图片中的像素点作为目标深度像素点;
从所述目标深度像素点中提取出目标深度值,从所述用户深度视频所对应的深度相机中提取出相机内参和相机外参;
根据所述目标深度值、所述相机内参和所述相机外参计算出所述目标深度像素点对应的目标点云;
将所述目标头部深度图片对应的所有目标点云汇集成用户头部点云,并将所有的所述用户头部点云汇集成用户头部点云集。
具体地,所述相机内参是指相机的像距、成像大小等参数,所述相机外参是指相机的三维坐标位置参数,所述根据所述目标深度值、所述相机内参和所述相机外参计算出所述目标深度像素点对应的目标点云是指利用目标深度值和相机内参计算出相机坐标点云,利用相机外参和相机坐标点云计算出目标点云,即世界坐标点云。
详细地,可以利用KD Tree或者区域生长算法对所述用户头部点云集进行点云分割,得到用户头部三维点云集,其中,通过对所述用户头部点云集进行点云分割,得到用户头部三维点云集,能够再次将用户点云与背景进行区分,从而提高后续三维建模的精度,并更好地保留用户的特征。
具体地,所述从所述用户头部三维点云集中筛选出点云关键点是指从所述用户头部三维点云集的每个用户头部三维点云中筛选出关键区域,并在每个关键区域中筛选出匹配点,其中,可以利用包围盒算法从所述用户头部三维点云集的每个用户头部三维点云中筛选出关键区域,可以利用特征匹配算法在每个关键区域中筛选出匹配点。
具体地,所述利用所述点云关键点将所述用户头部三维点云集融合成标准用户点云是指根据所述点云关键点计算出所述用户头部三维点云集中各用户头部三维点云之间的偏移角度和偏移距离,根据所述偏移角度和所述偏移距离将个用户头部三维点云矫正成标准头部三维点云,并对各个标准头部三维点云进行点云滤波融合,得到标准用户点云。
详细地,通过利用所述点云关键点将所述用户头部三维点云集融合成标准用户点云,可以进一步提高标准用户点云的精确度,防止单份点云数据造成的点云噪声。
本发明实施例中,参照图2所示,所述对所述标准用户点云进行多叉树三维重建,得到用户三维模型,包括:
S21、根据所述标准用户点云构建点云多叉树,并为所述点云多叉树中个各个树节点初始化节点函数;
S22、利用如下的插值向量公式和所述节点函数计算出所述点云多叉树中每个点云的插值向量:
其中,是指点云m的插值向量,m是指所述标准用户点云中的任一点云,M是指所述标准用户点云,o是指所述点云多叉树中的树节点,D(m)是指所述点云m的在所述点云多叉树中对应的邻域节点,λo,m是指所述点云多叉树中树节点o与点云m的插值权重,F(·)是指所述节点函数,ow是指所述树节点o的节点中心,ow是指所述树节点o的节点宽度,/>是指所述点云m的法向量;
S23、根据所述插值向量计算出所述标准用户点云中各个点云的指示函数;
S24、根据所述指示函数构建出所述标准用户点云中各个点云对应的等值面,并将所有的等值面拼接成用户三维模型。
具体地,所述根据所述标准用户点云构建点云多叉树是指将所述标准用户点云的最小包围盒划分成多个立方体,并将每个立方体作为树节点,将最小包围盒作为根节点生成点云多叉树。
具体地,可以利用拉普拉斯算法或多重网格法根据所述插值向量计算出所述标准用户点云中各个点云的指示函数,可以利用移动立方体法或位置均值法根据所述指示函数构建出所述标准用户点云对应的等值面。
本发明实施例中,通过利用所述插值向量公式和所述节点函数计算出所述点云多叉树中每个点云的插值向量,可以根据各个点云的法向量进行插值曲面拟合,从而提高重建的三维用户模型的模型表面细节。
具体地,所述对所述用户三维模型进行瞳孔定位,得到瞳孔位置信息,包括:从所述用户三维模型中提取出模型骨架关键点,根据所述模型骨架关键点从所述用户三维模型中提取出模型眼部区域;利用多叉树法将所述模型眼部区域拆分成多个眼部细分区域;对各个眼部细分区域进行特征提取,得到眼部细分特征集;计算眼部细分特征集中各个眼部细分特征与预设的瞳孔特征的匹配度;选取与所述瞳孔特征匹配度最大的眼部细分特征对应的眼部细分区域作为目标瞳孔区域,并根据所述用户三维模型获取所述目标瞳孔区域对应的位置信息作为瞳孔位置信息。
详细地,所述利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组是指利用所述X86工控主板根据所述瞳孔位置调整红外相机的焦距或红外相机与用户瞳孔的距离,并利用调整后的红外相机拍摄多张用户眼部的红外图片,将所有的用户眼部红外图片组成眼部红外图组。
本发明实施例中,通过利用所述用户标准深度图集生成标准用户点云,能够利用多份用户标准深度图创建的点云数据实现点云除噪,进而提高标准用户三维点云的点云精度,通过对所述标准用户点云进行多叉树三维重建,得到用户三维模型,能够保留用户三维模型的细节特征,从而提高后续身份识别的精确度,通过利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组,可以确保获得的眼部红外图组的图片清晰度,从而提高保留更多的瞳孔纹理特征。
S3、从所述用户三维模型中提取出三维器官模型组,对所述三维器官模型组进行初级轮廓特征提取,得到三维器官特征,利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征。
本发明实施例中,所述三维器官模型组是指由所述用户三维模型中各个部位的器官模型组成的模型组,所述从所述用户三维模型中提取出三维器官模型组是指对对所述用户三维模型进行器官语义划分,并根据语义划分的结果从所述用户三维模型中提取出各器官模型组成三维器官模型组。
本发明实施例中,所述对所述三维器官模型组进行初级轮廓特征提取,得到三维器官特征是指对所述三维器官模型组中的各个三维器官模型进行多角度映射,得到多角度器官映射图集,并对所述多角度器官映射图集进行多级卷积操作,得到三维器官特征。
本发明实施例中,所述利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征,包括:
对所述用户三维模型进行次级轮廓特征提取,得到初级三维用户特征;
对所述初级三维用户特征进行上采样,得到次级三维用户特征;
利用所述三维器官特征对所述次级三维用户特征进行匹配融合,得到三维用户特征。
详细地,所述对所述用户三维模型进行次级轮廓特征提取,得到初级三维用户特征的方法与上述步骤S3中的对所述三维器官模型组进行初级轮廓特征提取,得到三维器官特征的方法一致,这里不再赘述。
所述利用所述三维器官特征对所述次级三维用户特征进行匹配融合,得到三维用户特征是指将所述次级三维用户特征中各个角度的用户特征与所述三维器官特征中对应角度的器官特征进行融合,得到三维用户特征。
本发明实施例中,通过利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征,能够在进行轮廓特征提取的过程中保持各器官的轮廓特征,从而提高三维用户特征的精确度。
S4、利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,依次对所述初级眼部图组进行高斯均衡和尺寸方向标准化操作,得到初级瞳孔图组,将所述初级瞳孔图组中的每个初级瞳孔图片进行序列切分,得到标准瞳孔图组集,对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征。
本发明实施例中,所述利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,包括:
逐个选取所述眼部红外图组中的眼部红外图片作为目标眼部红外图片,利用预设的区域采样框对所述目标眼部红外图片进行区域采样;
利用如下的区域清晰度算法和预设的区域采样框计算出所述目标眼部红外图片对应的区域清晰度:
其中,Q是指所述区域清晰度,I是所述目标眼部红外图片的图片像素长度,J是所述目标眼部红外图片的图片像素宽度,i是指所述目标眼部红外图片中的横向第i个像素,j是指所述目标眼部红外图片中的纵向第j个像素,∈是指所述区域采样框的框长,K是灰度符号,K(i,j+∈)是指所述目标眼部红外图片中坐标点为(i,j+∈)的像素的灰度值,K(i,j-∈)是指所述目标眼部红外图片中坐标点为(i,j-∈)的像素的灰度值,K(i+∈,j)是指所述目标眼部红外图片中坐标点为(i+∈,j)的像素的灰度值,K(i-∈,j)是指所述目标眼部红外图片中坐标点为(i-∈,j)的像素的灰度值,K(i,j)是指所述目标眼部红外图片中坐标点为(i,j)的像素的灰度值;
选取所述区域清晰度大于预设的清晰度阈值的目标眼部红外图片组成初级眼部图组。
详细地,通过利用所述区域清晰度算法和所述区域采样框计算出所述目标眼部红外图片对应的区域清晰度,能够根据所述目标眼部红外图片在所述区域采样框中的部分图片的灰度变化趋势确定采样框区域的灰度趋势特征,并利用所有的灰度趋势特征的均值与各采样框的灰度趋势特征的比值进一步确定所述目标眼部红外图片整体的灰度变化,并根据灰度变化趋势确定所述目标眼部红外图片对应的图片整体的清晰。
本发明实施例中,所述依次对所述初级眼部图组进行高斯均衡和尺寸方向标准化操作,得到初级瞳孔图组,包括:
对所述初级眼部图组进行高斯平滑滤波,得到平滑眼部图组;
利用灰度直方图法对所述平滑眼部图组进行灰度均衡操作,得到均衡眼部图组;
对所述均衡眼部图组进行瞳孔图片分割操作,得到均衡瞳孔图组;
对所述均衡瞳孔图组进行尺寸方向标准化操作,得到初级瞳孔图组。
详细地,通过对所述初级眼部图组进行高斯平滑滤波,得到平滑眼部图组可以减少所述初级眼部图组的图片噪声,通过利用灰度直方图法对所述平滑眼部图组进行灰度均衡操作,得到均衡眼部图组可以减少所述平滑眼部图组中因为光照强度导致的图片过曝或过暗,进一步提升图片细节特征。
详细地,可以利用拉普拉斯算子或分水岭算法提取出所述均衡眼部图组中的瞳孔轮廓,进而根据所述瞳孔轮廓进行图片分割操作,得到均衡瞳孔图组,所述对所述均衡瞳孔图组进行尺寸方向标准化操作,得到初级瞳孔图组是指将所述均衡瞳孔图组中的各个均衡瞳孔图片的尺寸拉升到相同大小尺寸,并旋转到相同的方向,确保了初级瞳孔图组中各初级瞳孔图片的标准化,方便后续的序列切分与特征提取。
具体地,所述将所述初级瞳孔图组中的每个初级瞳孔图片进行序列切分,得到标准瞳孔图组集是指将所述初级瞳孔图组中的每个初级瞳孔图片切分成次级瞳孔图组,并按照所述次级瞳孔图组中的序列顺序将所有的次级瞳孔图组重组成标准瞳孔图组,并将所有的标准瞳孔图组汇集成标准瞳孔图组集,其中,所述按照所述次级瞳孔图组中的序列顺序将所有的次级瞳孔图组重组成标准瞳孔图组是指将所有的次级瞳孔图组中的序列号一致的次级瞳孔图片汇集成标准瞳孔图组。
本发明实施例中,参照图3所示,所述对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征,包括:
S31、逐个选取所述标准瞳孔图组集中的标准瞳孔图组作为目标标准瞳孔图组,逐个选取所述目标标准瞳孔图组中的标准瞳孔图片作为目标标准瞳孔图片;
S32、依次计算出所述目标标准瞳孔图片的角二阶矩、对比度、灰度熵以及灰度相关性,并将所述角二阶矩、所述对比度、所述灰度熵以及所述灰度相关性汇集成目标初级瞳孔特征;
S33、对所述目标标准瞳孔图片进行多角度多尺度卷积操作,得到目标次级瞳孔特征,将所述目标初级瞳孔特征和所述目标次级瞳孔特征汇集成目标瞳孔纹理特征;
S34、对所述目标标准瞳孔图组的所有目标瞳孔纹理特征进行特征融合,得到目标标准瞳孔纹理特征,并将所有的目标标准瞳孔纹理特征拼接成瞳孔纹理特征。
详细地,所述对所述目标标准瞳孔图片进行多角度多尺度卷积操作,得到目标次级瞳孔特征是指利用不同角度、不同尺度的卷积核对所述目标标准瞳孔图片进行卷积操作,并将所有的卷积特征融合成目标次级瞳孔特征。
本发明实施例中,通过利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,可以保证初级眼部图组的图片清晰度,得到更多纹理特征,通过对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征,可以分区域对瞳孔进行多维度的特征提取,进一步提高纹理特征的特征广度,进而提高身份识别的准确性。
S5、利用所述三维用户特征在预设的用户轮廓特征库中匹配出初级加权用户身份集,利用所述瞳孔纹理特征在预设的用户虹膜特征库中匹配出次级加权用户身份集,利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份。
本发明实施例中,所述利用所述三维用户特征在预设的用户轮廓特征库中匹配出初级加权用户身份集,包括:对所述三维用户特征进行归一化,得到标准轮廓特征;在所述用户轮廓特征库中筛选出所述标准轮廓特征对应的加权轮廓特征集,并对所述加权轮廓特征集进行用户身份映射,得到初级加权用户身份集,其中,所述在所述用户轮廓特征库中筛选出所述标准轮廓特征对应的加权轮廓特征集是指将所述用户轮廓特征库中与所述标准轮廓特征的欧式距离接近的特征组成轮廓特征集,将欧氏距离的倒数作为对应的权重组成加权轮廓特征集。
详细地,所述利用所述瞳孔纹理特征在预设的用户虹膜特征库中匹配出次级加权用户身份集的方法与上述步骤S5中的利用所述三维用户特征在预设的用户轮廓特征库中匹配出初级加权用户身份集的步骤一致,这里不再赘述。
具体地,所述利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份是指将所述初级加权用户身份集合所述次级加权用户身份集融合成标准加权用户身份集合,并将所述标准加权用户身份集合中权重最大的用户身份作为目标用户身份。
本发明实施例中,通过利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份,可以结合三维轮廓特征和瞳孔纹理特征实现精准的用户身份匹配,提高身份识别的准确率。
本发明实施例通过利用X86工控主板获取用户深度视频,从所述用户深度视频中提取出用户深度图集,能够无需光照条件获得多张不同角度的包含用户头像的深度图片,降低了用户身份识别时的环境条件,通过对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,可以降低所述用户深度图集的图片噪声,从而提高后续三维重建的精度,通过利用所述用户标准深度图集生成标准用户点云,能够利用多份用户标准深度图创建的点云数据实现点云除噪,进而提高标准用户三维点云的点云精度,通过对所述标准用户点云进行多叉树三维重建,得到用户三维模型,能够保留用户三维模型的细节特征,从而提高后续身份识别的精确度,通过利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组,可以确保获得的眼部红外图组的图片清晰度,从而提高保留更多的瞳孔纹理特征,通过利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征,能够在进行轮廓特征提取的过程中保持各器官的轮廓特征,从而提高三维用户特征的精确度;
通过利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,可以保证初级眼部图组的图片清晰度,得到更多纹理特征,通过对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征,可以分区域对瞳孔进行多维度的特征提取,进一步提高纹理特征的特征广度,进而提高身份识别的准确性,通过利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份,可以结合三维轮廓特征和瞳孔纹理特征实现精准的用户身份匹配,提高身份识别的准确率。因此本发明提出的基于X86工控主板的身份识别方法,可以解决进行身份识别时的精确度较低的问题。
如图4所示,是本发明一实施例提供的基于X86工控主板的身份识别装置的功能模块图。
本发明所述基于X86工控主板的身份识别装置100可以安装于设备中。根据实现的功能,所述基于X86工控主板的身份识别装置100可以包括深度滤波模块101、三维重建模块102、轮廓特征提取模块103、瞳孔特征提取模块104及身份匹配模块105。本发明所述模块也可以称之为单元,是指一种能够被设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述深度滤波模块101,用于利用X86工控主板获取用户深度视频,从所述用户深度视频中提取出用户深度图集,对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,其中,所述对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,包括:逐个选取所述用户深度图集中的用户深度图片作为目标用户深度图片,对所述目标深度图片进行高斯平滑滤波,得到目标用户高斯图片;利用如下的联合滤波算法和所述目标用户高斯图片对所述目标用户深度图片进行高斯导向滤波,得到用户标准深度图片:
其中,U(x,y)是指所述用户标准深度图片中坐标为(x,y)的像素点的深度值,是指横坐标为/>纵坐标为/>的坐标点,Ω是指所述目标用户深度图片、所述目标用户高斯图片以及所述用户标准深度图片的像素点坐标值域,/>是指所述目标用户深度图片上坐标为/>的像素点的深度值,G1、G2是指高斯滤波的滤波核,其中,G1是指高斯滤波的空间域滤波核,G2是指高斯滤波的像素域滤波核,||·||是绝对值符号,H(x,y)是指所述目标用户高斯图片中坐标为(x,y)的像素点的深度值,/>是指所述目标用户高斯图片中坐标为的像素点的深度值;将所有的所述用户标准深度图片汇集成用户标准深度图集;
所述三维重建模块102,用于利用所述用户标准深度图集生成标准用户点云,对所述标准用户点云进行多叉树三维重建,得到用户三维模型,对所述用户三维模型进行瞳孔定位,得到瞳孔位置信息,利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组,其中,所述利用所述用户标准深度图集生成标准用户点云,包括:对所述用户标准深度图集进行图片分割,得到用户头部深度图集;根据所述用户头部深度图集生成用户头部点云集;对所述用户头部点云集进行点云分割,得到用户头部三维点云集;从所述用户头部三维点云集中筛选出点云关键点,并利用所述点云关键点将所述用户头部三维点云集融合成标准用户点云;
所述轮廓特征提取模块103,用于从所述用户三维模型中提取出三维器官模型组,对所述三维器官模型组进行初级轮廓特征提取,得到三维器官特征,利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征;
所述瞳孔特征提取模块104,用于利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,依次对所述初级眼部图组进行对所述初级眼部图组进行高斯均衡和尺寸方向标准化操作,得到初级瞳孔图组,将所述初级瞳孔图组中的每个初级瞳孔图片进行序列切分,得到标准瞳孔图组集,对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征;
所述身份匹配模块105,用于利用所述三维用户特征在预设的用户轮廓特征库中匹配出初级加权用户身份集,利用所述瞳孔纹理特征在预设的用户虹膜特征库中匹配出次级加权用户身份集,利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份。
详细地,本发明实施例中所述基于X86工控主板的身份识别装置100中所述的各模块在使用时采用与上述图1至图3中所述的基于X86工控主板的身份识别方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图5所示,是本发明一实施例提供的实现基于X86工控主板的身份识别方法的设备的结构示意图。
所述设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于X86工控主板的身份识别程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述设备的控制核心(Control Unit),利用各种接口和线路连接整个设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行基于X86工控主板的身份识别程序等),以及调用存储在所述存储器11内的数据,以执行设备的各种功能和处理数据。
所述存储器11至少包括一种类型的介质,所述介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是设备的内部存储单元,例如该设备的移动硬盘。所述存储器11在另一些实施例中也可以是设备的外部存储设备,例如设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于设备的应用软件及各类数据,例如基于X86工控主板的身份识别程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该设备与其他设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在设备中处理的信息以及用于显示可视化的用户界面。
图中仅示出了具有部件的设备,本领域技术人员可以理解的是,图中示出的结构并不构成对所述设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述设备1中的所述存储器11存储的基于X86工控主板的身份识别程序是多个指令的组合,在所述处理器10中运行时,可以实现:
利用X86工控主板获取用户深度视频,从所述用户深度视频中提取出用户深度图集,对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,其中,所述对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,包括:逐个选取所述用户深度图集中的用户深度图片作为目标用户深度图片,对所述目标深度图片进行高斯平滑滤波,得到目标用户高斯图片;利用如下的联合滤波算法和所述目标用户高斯图片对所述目标用户深度图片进行高斯导向滤波,得到用户标准深度图片:
其中,U(x,y)是指所述用户标准深度图片中坐标为(x,y)的像素点的深度值,是指横坐标为/>纵坐标为/>的坐标点,Ω是指所述目标用户深度图片、所述目标用户高斯图片以及所述用户标准深度图片的像素点坐标值域,/>是指所述目标用户深度图片上坐标为/>的像素点的深度值,G1、G2是指高斯滤波的滤波核,其中,G1是指高斯滤波的空间域滤波核,G2是指高斯滤波的像素域滤波核,||·||是绝对值符号,H(x,y)是指所述目标用户高斯图片中坐标为(x,y)的像素点的深度值,/>是指所述目标用户高斯图片中坐标为的像素点的深度值;将所有的所述用户标准深度图片汇集成用户标准深度图集;
利用所述用户标准深度图集生成标准用户点云,对所述标准用户点云进行多叉树三维重建,得到用户三维模型,对所述用户三维模型进行瞳孔定位,得到瞳孔位置信息,利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组;
从所述用户三维模型中提取出三维器官模型组,对所述三维器官模型组进行初级轮廓特征提取,得到三维器官特征,利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征;
利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,依次对所述初级眼部图组进行对所述初级眼部图组进行高斯均衡和尺寸方向标准化操作,得到初级瞳孔图组,将所述初级瞳孔图组中的每个初级瞳孔图片进行序列切分,得到标准瞳孔图组集,对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征;
利用所述三维用户特征在预设的用户轮廓特征库中匹配出初级加权用户身份集,利用所述瞳孔纹理特征在预设的用户虹膜特征库中匹配出次级加权用户身份集,利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个介质中。所述介质可以是易失性的,也可以是非易失性的。例如,所述介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种介质,所述介质存储有计算机程序,所述计算机程序在被设备的处理器所执行时,可以实现:
利用X86工控主板获取用户深度视频,从所述用户深度视频中提取出用户深度图集,对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,其中,所述对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,包括:逐个选取所述用户深度图集中的用户深度图片作为目标用户深度图片,对所述目标深度图片进行高斯平滑滤波,得到目标用户高斯图片;利用如下的联合滤波算法和所述目标用户高斯图片对所述目标用户深度图片进行高斯导向滤波,得到用户标准深度图片:
其中,U(x,y)是指所述用户标准深度图片中坐标为(x,y)的像素点的深度值,是指横坐标为/>纵坐标为/>的坐标点,Ω是指所述目标用户深度图片、所述目标用户高斯图片以及所述用户标准深度图片的像素点坐标值域,/>是指所述目标用户深度图片上坐标为/>的像素点的深度值,G1、G2是指高斯滤波的滤波核,其中,G1是指高斯滤波的空间域滤波核,G2是指高斯滤波的像素域滤波核,||·||是绝对值符号,H(x,y)是指所述目标用户高斯图片中坐标为(x,y)的像素点的深度值,/>是指所述目标用户高斯图片中坐标为的像素点的深度值,/>是指所述目标用户高斯图片中坐标为/>的像素点的深度值;将所有的所述用户标准深度图片汇集成用户标准深度图集;/>
利用所述用户标准深度图集生成标准用户点云,对所述标准用户点云进行多叉树三维重建,得到用户三维模型,对所述用户三维模型进行瞳孔定位,得到瞳孔位置信息,利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组;
从所述用户三维模型中提取出三维器官模型组,对所述三维器官模型组进行初级轮廓特征提取,得到三维器官特征,利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征;
利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,依次对所述初级眼部图组进行对所述初级眼部图组进行高斯均衡和尺寸方向标准化操作,得到初级瞳孔图组,将所述初级瞳孔图组中的每个初级瞳孔图片进行序列切分,得到标准瞳孔图组集,对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征;
利用所述三维用户特征在预设的用户轮廓特征库中匹配出初级加权用户身份集,利用所述瞳孔纹理特征在预设的用户虹膜特征库中匹配出次级加权用户身份集,利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统实施例中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (9)

1.一种基于X86工控主板的身份识别方法,其特征在于,所述方法包括:
S1:利用X86工控主板获取用户深度视频,从所述用户深度视频中提取出用户深度图集,对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,其中,所述对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,包括:
S11:逐个选取所述用户深度图集中的用户深度图片作为目标用户深度图片,对所述目标用户深度图片进行高斯平滑滤波,得到目标用户高斯图片;
S12:利用如下的联合滤波算法和所述目标用户高斯图片对所述目标用户深度图片进行高斯导向滤波,得到用户标准深度图片:
其中,U(x,y)是指所述用户标准深度图片中坐标为(x,y)的像素点的深度值,是指横坐标为/>纵坐标为/>的坐标点,Ω是指所述目标用户深度图片、所述目标用户高斯图片以及所述用户标准深度图片的像素点坐标值域,/>是指所述目标用户深度图片上坐标为/>的像素点的深度值,G1、G2是指高斯滤波的滤波核,其中,G1是指高斯滤波的空间域滤波核,G2是指高斯滤波的像素域滤波核,||·||是绝对值符号,H(x,y)是指所述目标用户高斯图片中坐标为(x,y)的像素点的深度值,/>是指所述目标用户高斯图片中坐标为的像素点的深度值;
S13:将所有的所述用户标准深度图片汇集成用户标准深度图集;
S2:利用所述用户标准深度图集生成标准用户点云,对所述标准用户点云进行多叉树三维重建,得到用户三维模型,对所述用户三维模型进行瞳孔定位,得到瞳孔位置信息,利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组,其中,所述利用所述用户标准深度图集生成标准用户点云,包括:对所述用户标准深度图集进行图片分割,得到用户头部深度图集;根据所述用户头部深度图集生成用户头部点云集;对所述用户头部点云集进行点云分割,得到用户头部三维点云集;从所述用户头部三维点云集中筛选出点云关键点,并利用所述点云关键点将所述用户头部三维点云集融合成标准用户点云;
S3:从所述用户三维模型中提取出三维器官模型组,对所述三维器官模型组进行初级轮廓特征提取,得到三维器官特征,利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征;
S4:利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,依次对所述初级眼部图组进行对所述初级眼部图组进行高斯均衡和尺寸方向标准化操作,得到初级瞳孔图组,将所述初级瞳孔图组中的每个初级瞳孔图片进行序列切分,得到标准瞳孔图组集,对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征;
S5:利用所述三维用户特征在预设的用户轮廓特征库中匹配出初级加权用户身份集,利用所述瞳孔纹理特征在预设的用户虹膜特征库中匹配出次级加权用户身份集,利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份。
2.如权利要求1所述的基于X86工控主板的身份识别方法,其特征在于,所述对所述标准用户点云进行多叉树三维重建,得到用户三维模型,包括:
根据所述标准用户点云构建点云多叉树,并为所述点云多叉树中个各个树节点初始化节点函数;
利用如下的插值向量公式和所述节点函数计算出所述点云多叉树中每个点云的插值向量:
其中,是指点云m的插值向量,m是指所述标准用户点云中的任一点云,M是指所述标准用户点云,o是指所述点云多叉树中的树节点,D(m)是指所述点云m的在所述点云多叉树中对应的邻域节点,θo,m是指所述点云多叉树中树节点o与点云m的插值权重,F(·)是指所述节点函数,ow是指所述树节点o的节点中心,ow是指所述树节点o的节点宽度,/>是指所述点云m的法向量;
根据所述插值向量计算出所述标准用户点云中各个点云的指示函数;
根据所述指示函数构建出所述标准用户点云中各个点云对应的等值面,并将所有的等值面拼接成用户三维模型。
3.如权利要求1所述的基于X86工控主板的身份识别方法,其特征在于,所述利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征,包括:
对所述用户三维模型进行次级轮廓特征提取,得到初级三维用户特征;
对所述初级三维用户特征进行上采样,得到次级三维用户特征;
利用所述三维器官特征对所述次级三维用户特征进行匹配融合,得到三维用户特征。
4.如权利要求1所述的基于X86工控主板的身份识别方法,其特征在于,所述利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,包括:
逐个选取所述眼部红外图组中的眼部红外图片作为目标眼部红外图片,利用预设的区域采样框对所述目标眼部红外图片进行区域采样;
利用如下的区域清晰度算法和预设的区域采样框计算出所述目标眼部红外图片对应的区域清晰度:
其中,Q是指所述区域清晰度,I是所述目标眼部红外图片的图片像素长度,J是所述目标眼部红外图片的图片像素宽度,i是指所述目标眼部红外图片中的横向第i个像素,j是指所述目标眼部红外图片中的纵向第j个像素,∈是指所述区域采样框的框长,K是灰度符号,K(i,j+∈)是指所述目标眼部红外图片中坐标点为(i,j+∈)的像素的灰度值,K(i,j-∈)是指所述目标眼部红外图片中坐标点为(i,j-∈)的像素的灰度值,K(i+∈,j)是指所述目标眼部红外图片中坐标点为(i+∈,j)的像素的灰度值,K(i-∈,j)是指所述目标眼部红外图片中坐标点为(i-∈,j)的像素的灰度值,K(i,j)是指所述目标眼部红外图片中坐标点为(i,j)的像素的灰度值;
选取所述区域清晰度大于预设的清晰度阈值的目标眼部红外图片组成初级眼部图组。
5.如权利要求1所述的基于X86工控主板的身份识别方法,其特征在于,所述依次对所述初级眼部图组进行高斯均衡和尺寸方向标准化操作,得到初级瞳孔图组,包括:
对所述初级眼部图组进行高斯平滑滤波,得到平滑眼部图组;
利用灰度直方图法对所述平滑眼部图组进行灰度均衡操作,得到均衡眼部图组;
对所述均衡眼部图组进行瞳孔图片分割操作,得到均衡瞳孔图组;
对所述均衡瞳孔图组进行尺寸方向标准化操作,得到初级瞳孔图组。
6.如权利要求1所述的基于X86工控主板的身份识别方法,其特征在于,所述对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征,包括:
逐个选取所述标准瞳孔图组集中的标准瞳孔图组作为目标标准瞳孔图组,逐个选取所述目标标准瞳孔图组中的标准瞳孔图片作为目标标准瞳孔图片;
依次计算出所述目标标准瞳孔图片的角二阶矩、对比度、灰度熵以及灰度相关性,并将所述角二阶矩、所述对比度、所述灰度熵以及所述灰度相关性汇集成目标初级瞳孔特征;
对所述目标标准瞳孔图片进行多角度多尺度卷积操作,得到目标次级瞳孔特征,将所述目标初级瞳孔特征和所述目标次级瞳孔特征汇集成目标瞳孔纹理特征;
对所述目标标准瞳孔图组的所有目标瞳孔纹理特征进行特征融合,得到目标标准瞳孔纹理特征,并将所有的目标标准瞳孔纹理特征拼接成瞳孔纹理特征。
7.一种基于X86工控主板的身份识别装置,其特征在于,所述装置包括:
深度滤波模块,用于利用X86工控主板获取用户深度视频,从所述用户深度视频中提取出用户深度图集,对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,其中,所述对所述用户深度图集进行高斯导向滤波,得到用户标准深度图集,包括:逐个选取所述用户深度图集中的用户深度图片作为目标用户深度图片,对所述目标用户深度图片进行高斯平滑滤波,得到目标用户高斯图片;利用如下的联合滤波算法和所述目标用户高斯图片对所述目标用户深度图片进行高斯导向滤波,得到用户标准深度图片:
其中,U(x,y)是指所述用户标准深度图片中坐标为(x,y)的像素点的深度值,是指横坐标为/>纵坐标为/>的坐标点,Ω是指所述目标用户深度图片、所述目标用户高斯图片以及所述用户标准深度图片的像素点坐标值域,/>是指所述目标用户深度图片上坐标为/>的像素点的深度值,G1、G2是指高斯滤波的滤波核,其中,G1是指高斯滤波的空间域滤波核,G2是指高斯滤波的像素域滤波核,||·||是绝对值符号,H(x,y)是指所述目标用户高斯图片中坐标为(x,y)的像素点的深度值,/>是指所述目标用户高斯图片中坐标为的像素点的深度值;将所有的所述用户标准深度图片汇集成用户标准深度图集;
三维重建模块,用于利用所述用户标准深度图集生成标准用户点云,对所述标准用户点云进行多叉树三维重建,得到用户三维模型,对所述用户三维模型进行瞳孔定位,得到瞳孔位置信息,利用所述X86工控主板和所述瞳孔位置信息获取眼部红外图组,其中,所述利用所述用户标准深度图集生成标准用户点云,包括:对所述用户标准深度图集进行图片分割,得到用户头部深度图集;根据所述用户头部深度图集生成用户头部点云集;对所述用户头部点云集进行点云分割,得到用户头部三维点云集;从所述用户头部三维点云集中筛选出点云关键点,并利用所述点云关键点将所述用户头部三维点云集融合成标准用户点云;
轮廓特征提取模块,用于从所述用户三维模型中提取出三维器官模型组,对所述三维器官模型组进行初级轮廓特征提取,得到三维器官特征,利用所述三维器官特征对所述用户三维模型进行多级融合采样,得到三维用户特征;
瞳孔特征提取模块,用于利用预设的区域清晰度算法从所述眼部红外图组筛选出初级眼部图组,依次对所述初级眼部图组进行对所述初级眼部图组进行高斯均衡和尺寸方向标准化操作,得到初级瞳孔图组,将所述初级瞳孔图组中的每个初级瞳孔图片进行序列切分,得到标准瞳孔图组集,对所述标准瞳孔图组集进行序列纹理特征提取,得到瞳孔纹理特征;
身份匹配模块,用于利用所述三维用户特征在预设的用户轮廓特征库中匹配出初级加权用户身份集,利用所述瞳孔纹理特征在预设的用户虹膜特征库中匹配出次级加权用户身份集,利用所述初级加权用户身份集和所述次级加权用户身份集确定出目标用户身份。
8.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任意一项所述的基于X86工控主板的身份识别方法。
9.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任意一项所述的基于X86工控主板的身份识别方法。
CN202310400679.2A 2023-04-14 2023-04-14 基于x86工控主板的身份识别方法、装置、设备及介质 Active CN116434316B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310400679.2A CN116434316B (zh) 2023-04-14 2023-04-14 基于x86工控主板的身份识别方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310400679.2A CN116434316B (zh) 2023-04-14 2023-04-14 基于x86工控主板的身份识别方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN116434316A CN116434316A (zh) 2023-07-14
CN116434316B true CN116434316B (zh) 2023-11-14

Family

ID=87090376

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310400679.2A Active CN116434316B (zh) 2023-04-14 2023-04-14 基于x86工控主板的身份识别方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN116434316B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046710A (zh) * 2015-07-23 2015-11-11 北京林业大学 基于深度图分割与代理几何体的虚实碰撞交互方法及装置
WO2019068141A1 (en) * 2017-10-02 2019-04-11 Sensen Networks Group Pty Ltd AUTOMATIC LEARNING GUIDED OBJECT DETECTION SYSTEM AND METHOD
CN208737497U (zh) * 2018-10-22 2019-04-12 深圳市展拓电子技术有限公司 一种指静脉识别装置
CN111582054A (zh) * 2020-04-17 2020-08-25 中联重科股份有限公司 点云数据处理方法及装置、障碍物检测方法及装置
CN112861729A (zh) * 2021-02-08 2021-05-28 浙江大学 一种基于伪深度图引导的实时深度补全方法
CN115880448A (zh) * 2022-12-06 2023-03-31 温州鹿城佳涵网络技术服务工作室 基于双目成像的三维测量方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046710A (zh) * 2015-07-23 2015-11-11 北京林业大学 基于深度图分割与代理几何体的虚实碰撞交互方法及装置
WO2019068141A1 (en) * 2017-10-02 2019-04-11 Sensen Networks Group Pty Ltd AUTOMATIC LEARNING GUIDED OBJECT DETECTION SYSTEM AND METHOD
CN208737497U (zh) * 2018-10-22 2019-04-12 深圳市展拓电子技术有限公司 一种指静脉识别装置
CN111582054A (zh) * 2020-04-17 2020-08-25 中联重科股份有限公司 点云数据处理方法及装置、障碍物检测方法及装置
CN112861729A (zh) * 2021-02-08 2021-05-28 浙江大学 一种基于伪深度图引导的实时深度补全方法
CN115880448A (zh) * 2022-12-06 2023-03-31 温州鹿城佳涵网络技术服务工作室 基于双目成像的三维测量方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN116434316A (zh) 2023-07-14

Similar Documents

Publication Publication Date Title
CN111795704B (zh) 一种视觉点云地图的构建方法、装置
Xie et al. Multilevel cloud detection in remote sensing images based on deep learning
CN108875524B (zh) 视线估计方法、装置、系统和存储介质
CN111241989B (zh) 图像识别方法及装置、电子设备
WO2020078119A1 (zh) 模拟用户穿戴服装饰品的方法、装置和系统
CN108875600A (zh) 一种基于yolo的车辆信息检测和跟踪方法、装置及计算机存储介质
CN107330439A (zh) 一种图像中物体姿态的确定方法、客户端及服务器
CN110832501A (zh) 用于姿态不变面部对准的系统和方法
CN108416902A (zh) 基于差异识别的实时物体识别方法和装置
CN108734087A (zh) 物体自动识别方法以及系统、购物设备和存储介质
CN113705462B (zh) 人脸识别方法、装置、电子设备及计算机可读存储介质
CN112085835B (zh) 三维卡通人脸生成方法、装置、电子设备及存储介质
US20230326173A1 (en) Image processing method and apparatus, and computer-readable storage medium
CN114758362B (zh) 基于语义感知注意力和视觉屏蔽的换衣行人重识别方法
CN110704652A (zh) 基于多重注意力机制的车辆图像细粒度检索方法及装置
CN113450579A (zh) 速度信息的获取方法、装置、设备及介质
CN111353325A (zh) 关键点检测模型训练方法及装置
CN115018999A (zh) 一种多机器人协作的稠密点云地图构建方法及装置
CN111104911A (zh) 一种基于大数据训练的行人重识别方法及装置
CN112633222B (zh) 基于对抗网络的步态识别方法、装置、设备及介质
CN113723280A (zh) 基于静态人脸的对抗样本检测方法、装置、设备、介质
Yin et al. [Retracted] Virtual Reconstruction Method of Regional 3D Image Based on Visual Transmission Effect
CN117422851A (zh) 虚拟换衣方法及其装置、电子设备
CN117132649A (zh) 人工智能融合北斗卫星导航的船舶视频定位方法及装置
CN116434316B (zh) 基于x86工控主板的身份识别方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant