CN111597880B - 一种基于单幅条纹投影的多视角三维指纹获取方法 - Google Patents
一种基于单幅条纹投影的多视角三维指纹获取方法 Download PDFInfo
- Publication number
- CN111597880B CN111597880B CN202010258441.7A CN202010258441A CN111597880B CN 111597880 B CN111597880 B CN 111597880B CN 202010258441 A CN202010258441 A CN 202010258441A CN 111597880 B CN111597880 B CN 111597880B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- fingerprint
- point
- phase
- dimensional fingerprint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Collating Specific Patterns (AREA)
- Image Input (AREA)
Abstract
一种基于单幅条纹投影的多视角三维指纹获取方法,通过基于条纹投影技术同时获取一幅无相位信息的二维指纹图和带有相位信息的指纹条纹图像,对带有相位信息的指纹条纹图像进行相位提取;进行相位解缠得到连续的相位,通过相位信息对单视角三维指纹完成重建;在获取多个视角的三维指纹后,在每个三维指纹对应的二维指纹图上找到端点或者分叉点作为特征点并且与下个相邻视角二维指纹进行特征点匹配,确定二维指纹的特征匹配点集,在通过特征点集的二维信息,在三维指纹上找到匹配的特征点;获得三维指纹的特征匹配点集后,进行三维指纹配准,重建出多视角的三维指纹模型。本发明测量速度快,通过多视角配准的方法采集出更加完整的三维指纹数据。
Description
技术领域
本发明涉及一种图像处理算法,尤其是一种基于单幅条纹投影的多视角三维指纹获取方法。
背景技术
随着现代信息安全的发展,指纹技术已经广泛应用于日常生活等多个领域。与其他生物识别技术相比较,基于指纹的识别技术具有较强的安全性和可靠性。针对传统接触式指纹获取存在以下问题:(1)用户手指按压力的不均匀,导致指纹纹理断裂或者粘连。(2)以往采集信息留下的痕迹会影响下次采集图像的质量(3)只能获取二维指纹的数据,缺失一维指纹数据。非接触式三维指纹采集通过间接的传感器技术采集指纹,能很好地解决以上问题。
目前对于三维指纹数据获取方法主要包括三大类:基于立体摄影的技术、基于标定光源的技术、基于结构光的技术。基于立体摄影采集系统包含多个相机和发光二极管,存在结构复杂、成本较高等缺点。基于标定光源采集系统包含一个摄像机和多个发光二极管,但算法复杂且标定计算量大。传统基于结构光的采集系统只能采集一个角度的手指指纹信息且测量速度较慢。因此,本发明提出了一种基于单幅条纹投影的多视角三维指纹获取技术。基于单幅条纹投影采集不同视角的图像,然后把采集到不同视角的图像进行逐一配准,重建出更加完整的三维指纹。
发明内容
为了克服现有三维指纹获取技术的不足,本发明提供一种基于单幅条纹投影的多视角三维指纹获取方法,解决三维指纹获取技术中采集速度慢、三维指纹数据不完整等问题。
为了实现上述目的,本发明采用的技术方案为:
一种基于单幅条纹投影的多视角三维指纹获取方法,包括以下步骤:
(1)通过基于条纹投影技术同时获取一幅无相位信息的二维指纹图和带有相位信息的指纹条纹图像,对带有相位信息的指纹条纹图像进行相位提取;
(2)由于提取出来的相位是包裹的,所以进行相位解缠得到连续的相位,最终通过相位信息对单视角三维指纹完成重建;
(3)在获取多个视角的三维指纹后,在每个三维指纹对应的二维指纹图上找到端点或者分叉点作为特征点并且与下个相邻视角二维指纹进行特征点匹配,确定二维指纹的特征匹配点集,在通过特征点集的二维信息,在三维指纹上找到匹配的特征点;
(4)获得三维指纹的特征匹配点集后,进行三维指纹配准,重建出多视角的三维指纹模型。
进一步,所述步骤(1)的过程为:通过条纹投影技术获取的指纹变形条纹图像,由于手指指纹的连续性,抗干扰性强,所以采用傅里叶变换法提取相位,当条纹投影到手指上时其光场会变形,其变形图像表示为:
f(x,y)=a(x,y)+b(x,y)cos[φ(x,y)] (1)
其中a(x,y)和b(x,y)分别反映背景光和表面反射率的变化,φ(x,y)是待计算的相对相位值,也称作相位主值,它反映了物体对应点上高度信息;
然后对式(1)进行傅里叶变换,利用高通滤波器进行滤波,去除背景光强的零频信号,选取以零频信号为中心的其右部分的基频信号,进行傅里叶逆变换,求出相位主值。
进一步,进行傅里叶逆变换,表示为:
其实部和虚部分别为:
其相位主值写成:
再进一步,所述步骤(2)包括如下步骤:
(21)由于从(1)提取出来的相位是包裹的,因此需要进行相位解缠。为了防止在解缠过程中,某个像素点有噪声,造成解缠误差,采用基于质量图的空间相位解缠,过程如下:
分别计算各个像素点的水平、垂直方向梯度的正弦函数值,然后分别求出全部像素水平、垂直方向梯度的正弦函数的平均值,作为当前像素的评估权值。质量权值越大表示相位质量越差,公式:
(22)从质量图中找出质量最高的像素点为解缠路径的起点并且默认其相位为连续的,遍历其四邻域找到四领域内质量最高的像素点作为下一个解缠点,并进行解缠,并标记已经解缠后的点且不参加二次解缠,依次循环上述遍历过程,直至所有像素点都在解缠路径上,并完成解缠,解缠公式如下:
(23)在获得解缠后的相位后,根据系统标定的参数,求出对应的三维坐标,完成单视角三维指纹重建。
进一步,所述步骤(3)包括如下步骤:
(31)对每个三维指纹所以对应的二维指纹图进行图像增强、二值化、指纹细化等操作,提取指纹的端点、分叉点作为特征点,以特征点A0为例,首先计算其方向场θ0,之后以特征点A0位圆心,画一个以R为半径的圆,A1为其方向场与圆相交的点,在圆上逆时针做辅助点A2,A3且A1、A2、A3在圆上均匀分布,夹角均为120°,并计算三个点的方向场,所以特征点的特征信息为(x,y,T,θ0,θ1,θ2,θ3),其中(x,y)为特征点的坐标,T为特征点的类型,(θ0,θ1,θ2,θ3)为A0,A1,A2,A3的方向场;
令待配准的二维指纹P0、二维指纹Q0,提取到的特征点集合分别为Fp={fp1,fp2,...,fpN}和Fq={fq1,fq2,...,fqN};
(311)对于Fp中的某个特征点fqi遍历Fq中的特征点fqi,如果其T相等,进入(312),如果在Fq中没有匹配到T相等的特征点,则舍弃这个点;
(312)计算特征点描述子中任意两点之间的角度差,公式如下:
Δθk=|θi-θj|(i,j=0,1,2,3;i<j)(4)
其中,k为特征点描述子各点之间相对角度差的对应编号;
两特征点描述子之间第k角度偏差为G(k),公式如下:
(313)在Fp中下个特征点重复1),直到Fp中所有的特征点匹配结束为止;
(314)如果式2)中,任意G(k)大于阈值T1,则说明两特征点不匹配;
那么Cpqi=(fpi,fqi)构成了一个对应的特征点对,则可以得到特征点匹配集合Cpq={Cpq1,Cpq2,...,CpqN};
(32)再找到两个待匹配二维指纹的匹配特征点对后,通过特征点的二维坐标信息,在其对应的三维指纹上找到匹配好的特征点,便可以估计出刚体变换参数R、T,其中R为3×3的旋转矩阵,T=[tx ty tz]T为平移向量,旋转矩阵R可用欧拉角表示,按照(x,y,z)坐标进行旋转,则R具有如下形式:
其中α、β、γ、tx、ty、tz分别表示与x轴、y轴、z轴的夹角以及平移位置,因此只要求出α、β、γ、tx、ty、tz这六个参数即可得出初始刚体变换矩阵;
(33)初步得到两个三个指纹的初始变换关系R0、T0之后,需要对其再进行精细配准,其目的是通过不断优化两个三维指纹对应特征点之间的平均距离,使得平均距离最小得到最优变换关系,目标函数的模型如下所示:
其中,pi和qi是两个待配准的三维指纹的对应特征点,步骤如下:
根据(33)得到的初始刚体变换参数R0和T0对目标指纹Q0进行变换得到Q1,并求出以待配准指纹P0为基准指纹与变换后指纹Q1之间的距离S1;
计算P0与Q1分别对应的特征点集的平均距离,若满足平均距离阈值则完成配准,否则将P0与Q1作为新的待配准的三维指纹,重新遍历特征点得到匹配点集,循环(22)(23)的步骤,直到满足特征点集的平均距离的阈值且P0与Qi之间的距离Si小于S1;
在完成最初的两个三维指纹配准后,把配准后的三维指纹作为待配准三维指纹继续与其他视角的三维指纹进行配准重复上述步骤,直到重建出完整的三维指纹模型。
相比其他三维指纹的获取技术,本发明的有益效果表现在:只需单张指纹条纹图就能重建出单视角三维指纹,测量速度快。通过多视角配准的方法,采集出更加完整的三维指纹数据。
附图说明
图1是本发明的流程图。
图2是三维指纹模型效果图。
具体实施方式
下面结合附图和实施方式对本发明作进一步说明:
参照图1和图2,一种基于单幅条纹投影的多视角三维指纹获取方法,包括以下步骤:
(1)通过基于条纹投影技术同时获取一幅无相位信息的二维指纹图和带有相位信息的指纹条纹图像,对带有相位信息的指纹条纹图像进行相位提取;
所述步骤(1)的过程为:通过条纹投影技术获取的指纹变形条纹图像,由于手指指纹的连续性,抗干扰性强,所以采用傅里叶变换法提取相位,当条纹投影到手指上时其光场会变形,其变形图像表示为:
f(x,y)=a(x,y)+b(x,y)cos[φ(x,y)] (1)
其中a(x,y)和b(x,y)分别反映背景光和表面反射率的变化,φ(x,y)是待计算的相对相位值,也称作相位主值,它反映了物体对应点上高度信息;
然后对式(1)进行傅里叶变换,利用高通滤波器进行滤波,去除背景光强的零频信号,选取以零频信号为中心的其右部分的基频信号,进行傅里叶逆变换,求出相位主值;
进一步,进行傅里叶逆变换,表示为:
其实部和虚部分别为:
其相位主值写成:
(2)由于提取出来的相位是包裹的,所以进行相位解缠得到连续的相位,最终通过相位信息对单视角三维指纹完成重建;
所述步骤(2)包括如下步骤:
(21)由于从(1)提取出来的相位是包裹的,因此需要进行相位解缠。为了防止在解缠过程中,某个像素点有噪声,造成解缠误差,采用基于质量图的空间相位解缠,过程如下:
分别计算各个像素点的水平、垂直方向梯度的正弦函数值,然后分别求出全部像素水平、垂直方向梯度的正弦函数的平均值,作为当前像素的评估权值。质量权值越大表示相位质量越差,公式:
(22)从质量图中找出质量最高的像素点为解缠路径的起点并且默认其相位为连续的,遍历其四邻域找到四领域内质量最高的像素点作为下一个解缠点,并进行解缠,并标记已经解缠后的点且不参加二次解缠,依次循环上述遍历过程,直至所有像素点都在解缠路径上,并完成解缠,解缠公式如下:
(23)在获得解缠后的相位后,根据系统标定的参数,求出对应的三维坐标,完成单视角三维指纹重建;
(3)在获取多个视角的三维指纹后,在每个三维指纹对应的二维指纹图上找到端点或者分叉点作为特征点并且与下个相邻视角二维指纹进行特征点匹配,确定二维指纹的特征匹配点集,在通过特征点集的二维信息,在三维指纹上找到匹配的特征点;
所述步骤(3)包括如下步骤:
(31)对每个三维指纹所以对应的二维指纹图进行图像增强、二值化、指纹细化等操作,提取指纹的端点、分叉点作为特征点,以特征点A0为例,首先计算其方向场θ0,之后以特征点A0位圆心,画一个以R为半径的圆,A1为其方向场与圆相交的点,在圆上逆时针做辅助点A2,A3且A1、A2、A3在圆上均匀分布,夹角均为120°,并计算三个点的方向场,所以特征点的特征信息为(x,y,T,θ0,θ1,θ2,θ3),其中(x,y)为特征点的坐标,T为特征点的类型,(θ0,θ1,θ2,θ3)为A0,A1,A2,A3的方向场;
令待配准的二维指纹P0、二维指纹Q0,提取到的特征点集合分别为Fp={fp1,fp2,...,fpN}和Fq={fq1,fq2,...,fqN};
(311)对于Fp中的某个特征点fqi遍历Fq中的特征点fqi,如果其T相等,进入(312),如果在Fq中没有匹配到T相等的特征点,则舍弃这个点;
(312)计算特征点描述子中任意两点之间的角度差,公式如下:
Δθk=|θi-θj|(i,j=0,1,2,3;i<j)(4)
其中,k为特征点描述子各点之间相对角度差的对应编号;
两特征点描述子之间第k角度偏差为G(k),公式如下:
(313)在Fp中下个特征点重复1),直到Fp中所有的特征点匹配结束为止;
(314)如果式2)中,任意G(k)大于阈值T1,则说明两特征点不匹配;
那么Cpqi=(fpi,fqi)构成了一个对应的特征点对,则可以得到特征点匹配集合Cpq={Cpq1,Cpq2,...,CpqN};
(32)再找到两个待匹配二维指纹的匹配特征点对后,通过特征点的二维坐标信息,在其对应的三维指纹上找到匹配好的特征点,便可以估计出刚体变换参数R、T,其中R为3×3的旋转矩阵,T=[tx ty tz]T为平移向量,旋转矩阵R可用欧拉角表示,按照(x,y,z)坐标进行旋转,则R具有如下形式:
其中α、β、γ、tx、ty、tz分别表示与x轴、y轴、z轴的夹角以及平移位置,因此只要求出α、β、γ、tx、ty、tz这六个参数即可得出初始刚体变换矩阵;
(33)初步得到两个三个指纹的初始变换关系R0、T0之后,需要对其再进行精细配准,其目的是通过不断优化两个三维指纹对应特征点之间的平均距离,使得平均距离最小得到最优变换关系,目标函数的模型如下所示:
其中,pi和qi是两个待配准的三维指纹的对应特征点,步骤如下:
根据(33)得到的初始刚体变换参数R0和T0对目标指纹Q0进行变换得到Q1,并求出以待配准指纹P0为基准指纹与变换后指纹Q1之间的距离S1;
计算P0与Q1分别对应的特征点集的平均距离,若满足平均距离阈值则完成配准,否则将P0与Q1作为新的待配准的三维指纹,重新遍历特征点得到匹配点集,循环(32)(33)的步骤,直到满足特征点集的平均距离的阈值且P0与Qi之间的距离Si小于S1;
在完成最初的两个三维指纹配准后,把配准后的三维指纹作为待配准三维指纹继续与其他视角的三维指纹进行配准重复上述步骤,直到重建出完整的三维指纹模型。
(4)获得三维指纹的特征匹配点集后,进行三维指纹配准,重建出多视角的三维指纹模型。
Claims (4)
1.一种基于单幅条纹投影的多视角三维指纹获取方法,其特征在于,所述方法包括如下步骤:
(1)通过基于条纹投影技术同时获取一幅无相位信息的二维指纹图和带有相位信息的指纹条纹图像,对带有相位信息的指纹条纹图像进行相位提取;
(2)由于提取出来的相位是包裹的,所以进行相位解缠得到连续的相位,最终通过相位信息对单视角三维指纹完成重建;
(3)在获取多个视角的三维指纹后,在每个三维指纹对应的二维指纹图上找到端点或者分叉点作为特征点并且与下个相邻视角二维指纹进行特征点匹配,确定二维指纹的特征匹配点集,在通过特征点集的二维信息,在三维指纹上找到匹配的特征点;
所述步骤(3)包括如下步骤:
(31)对每个三维指纹所对应的二维指纹图进行图像增强、二值化、指纹细化操作,提取指纹的端点、分叉点作为特征点,对于特征点A0,首先计算其方向场θ0,之后以特征点A0位圆心,画一个以R为半径的圆,A1为其方向场与圆相交的点,在圆上逆时针做辅助点A2,A3且A1、A2、A3在圆上均匀分布,夹角均为120°,并计算三个点的方向场,所以特征点的特征信息为(x,y,T,θ0,θ1,θ2,θ3),其中(x,y)为特征点的坐标,T为特征点的类型,(θ0,θ1,θ2,θ3)为A0,A1,A2,A3的方向场;
令待配准的二维指纹P0、二维指纹Q1,提取到的特征点集合分别为Fp={fp1,fp2,…,fpN}和Fq={fq1,fq2,…,fqN};
(311)对于Fp中的某个特征点fpi遍历Fq中的特征点fqi,如果其T相等,进入(312),如果在Fq中没有匹配到T相等的特征点,则舍弃这个点;
(312)计算特征点描述子中任意两点之间的角度差,公式如下:
Δθk=|θi-θj|(i,j=0,1,2,3;i<j) (4)
其中,k为特征点描述子各点之间相对角度差的对应编号;
两特征点描述子之间第k角度偏差为G(k),公式如下:
(313)在Fp中下个特征点重复(311),直到Fp中所有的特征点匹配结束为止;
(314)如果式(5)中,任意G(k)大于阈值T1,则说明两特征点不匹配;
那么Cpqi=(fpi,fqi)构成了一个对应的特征点对,则可以得到特征点匹配集合Cpq={Cpq1,Cpq2,...,CpqN};
(32)在找到两个待匹配二维指纹的匹配特征点对后,通过特征点的二维坐标信息,在其对应的三维指纹上找到匹配好的特征点,估计出刚体变换参数R、T,其中R为3′3的旋转矩阵,T=[tx ty tz]T为平移向量,旋转矩阵R可用欧拉角表示,按照(x,y,z)坐标进行旋转,则R具有如下形式:
其中α、β、γ、tx、ty、tz分别表示与x轴、y轴、z轴的夹角以及平移位置,因此只要求出α、β、γ、tx、ty、tz这六个参数即可得出初始刚体变换矩阵;
(33)初步得到两个三个指纹的初始变换关系R0、T0之后,需要对其再进行精细配准,其目的是通过不断优化两个三维指纹对应特征点之间的平均距离,使得平均距离最小得到最优变换关系,目标函数的模型如下所示:
其中,pi和qi是两个待配准的三维指纹的对应特征点,步骤如下:
根据(33)得到的初始刚体变换参数R0和T0对目标指纹Q0进行变换得到Q1,并求出以待配准指纹P0为基准指纹与变换后指纹Q1之间的距离S1;
计算P0与Q1分别对应的特征点集的平均距离,若满足平均距离阈值则完成配准,否则将P0与Q1作为新的待配准的三维指纹,重新遍历特征点得到匹配点集,循环(32)(33)的步骤,直到满足特征点集的平均距离的阈值且P0与Qi之间的距离Si小于S1;
在完成最初的两个三维指纹配准后,把配准后的三维指纹作为待配准三维指纹继续与其他视角的三维指纹进行配准重复上述步骤,直到重建出完整的三维指纹模型;
(4)获得三维指纹的特征匹配点集后,进行三维指纹配准,重建出多视角的三维指纹模型。
2.根据权利要求1所述的基于单幅条纹投影的多视角三维指纹获取方法,其特征在于,所述步骤(1)的过程为:
通过条纹投影技术获取的指纹变形条纹图像,由于手指指纹的连续性,抗干扰性强,所以采用傅里叶变换法提取相位,当条纹投影到手指上时其光场会变形,其变形图像表示为:
f(x,y)=a(x,y)+b(x,y)cos[φ(x,y)] (1)
其中a(x,y)和b(x,y)分别反映背景光和表面反射率的变化,φ(x,y)是待计算的相对相位值,也称作相位主值,它反映了物体对应点上高度信息;
然后对式(1)进行傅里叶变换,利用高通滤波器进行滤波,去除背景光强的零频信号,选取以零频信号为中心的其右部分的基频信号,进行傅里叶逆变换,求出相位主值。
4.根据权利要求1~3之一所述的基于单幅条纹投影的多视角三维指纹获取方法,其特征在于,所述步骤(2)包括如下步骤:
(21)由于从(1)提取出来的相位是包裹的,因此需要进行相位解缠,为了防止在解缠过程中,某个像素点有噪声,造成解缠误差,采用基于质量图的空间相位解缠,过程如下:
分别计算各个像素点的水平、垂直方向梯度值,然后分别求出全部像素水平、垂直方向梯度的平均值,计算每个像素点水平方向梯度值与全部像素水平方向平均梯度值的差值、垂直方向梯度值与全部像素垂直方向平均值的差值,作为当前像素的评估权值,质量权值越大表示相位质量越差,公式为:
(22)从质量图中找出质量最高的像素点为解缠路径的起点并且默认其相位为连续的,遍历其四邻域找到四领域内质量最高的像素点作为下一个解缠点,并进行解缠,并标记已经解缠后的点且不参加二次解缠,依次循环上述遍历过程,直至所有像素点都在解缠路径上,并完成解缠,解缠公式如下:
(23)在获得解缠后的相位后,根据系统标定的参数,求出对应的三维坐标,完成单视角三维指纹重建。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010258441.7A CN111597880B (zh) | 2020-04-03 | 2020-04-03 | 一种基于单幅条纹投影的多视角三维指纹获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010258441.7A CN111597880B (zh) | 2020-04-03 | 2020-04-03 | 一种基于单幅条纹投影的多视角三维指纹获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111597880A CN111597880A (zh) | 2020-08-28 |
CN111597880B true CN111597880B (zh) | 2023-06-30 |
Family
ID=72190451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010258441.7A Active CN111597880B (zh) | 2020-04-03 | 2020-04-03 | 一种基于单幅条纹投影的多视角三维指纹获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111597880B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113505626B (zh) * | 2021-03-15 | 2024-07-12 | 南京理工大学 | 一种快速三维指纹采集方法与系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPP340698A0 (en) * | 1998-05-07 | 1998-05-28 | Canon Kabushiki Kaisha | Method and apparatus for highly efficient representation and compression of images |
CN101347332A (zh) * | 2008-08-22 | 2009-01-21 | 深圳先进技术研究院 | 一种人脸三维面形数字化测量系统的测量方法及设备 |
CN106919941B (zh) * | 2017-04-26 | 2018-10-09 | 华南理工大学 | 一种三维手指静脉识别方法及系统 |
CN109903377B (zh) * | 2019-02-28 | 2022-08-09 | 四川川大智胜软件股份有限公司 | 一种无需相位展开的三维人脸建模方法及系统 |
-
2020
- 2020-04-03 CN CN202010258441.7A patent/CN111597880B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111597880A (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110880185B (zh) | 基于条纹投影的高精度动态实时360度全方位点云获取方法 | |
CN109506589B (zh) | 一种基于结构光场成像的三维轮廓测量方法 | |
CN110288642B (zh) | 基于相机阵列的三维物体快速重建方法 | |
WO2019105044A1 (zh) | 一种镜头畸变矫正和特征提取的方法及系统 | |
CN101398886B (zh) | 一种基于双目被动立体视觉的快速三维人脸识别方法 | |
CN104299211B (zh) | 一种自由移动式三维扫描方法 | |
CN107767456A (zh) | 一种基于rgb‑d相机的物体三维重建方法 | |
CN111028295A (zh) | 一种基于编码结构光和双目的3d成像方法 | |
CN107588721A (zh) | 一种基于双目视觉的零件多尺寸的测量方法及系统 | |
CN113108721B (zh) | 基于多光束自适应互补匹配的高反光物体三维测量方法 | |
CN111189416B (zh) | 基于特征相位约束的结构光360°三维面形测量方法 | |
CN109307483A (zh) | 一种基于结构光系统几何约束的相位展开方法 | |
CN106767531B (zh) | 一种二维运动物体的三维测量方法及装置 | |
CN102881040A (zh) | 一种数码相机移动拍摄三维重建方法 | |
CN111597880B (zh) | 一种基于单幅条纹投影的多视角三维指纹获取方法 | |
CN116295113A (zh) | 一种融合条纹投影的偏振三维成像方法 | |
CN114170284A (zh) | 基于主动标志点投射辅助的多视图点云配准方法 | |
CN109064536A (zh) | 一种基于双目结构光的书页三维重建方法 | |
CN116935013A (zh) | 基于三维重建的电路板点云大范围拼接方法及系统 | |
Labati et al. | Two-view contactless fingerprint acquisition systems: a case study for clay artworks | |
CN114119731B (zh) | 一种线激光3d相机点云轮廓线的等间隔采样方法 | |
CN109285210B (zh) | 结合拓扑关系和极线约束的管路三维重建方法 | |
CN114170281A (zh) | 一种三维点云数据获取处理方法 | |
Zhao et al. | Binocular vision measurement for large-scale weakly textured ship hull plates using feature points encoding method | |
Fernandez et al. | Active stereo-matching for one-shot dense reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |