CN114693757A - 空间神经网络深度补全方法、系统、设备及存储介质 - Google Patents
空间神经网络深度补全方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN114693757A CN114693757A CN202011603338.8A CN202011603338A CN114693757A CN 114693757 A CN114693757 A CN 114693757A CN 202011603338 A CN202011603338 A CN 202011603338A CN 114693757 A CN114693757 A CN 114693757A
- Authority
- CN
- China
- Prior art keywords
- depth
- pixel
- diffusion
- image
- speckle image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于自适应扩散核的空间神经网络深度补全方法、系统、设备及存储介质,包括如下步骤:获取RGB图像和稀疏深度散斑图像,RGB图像和稀疏深度散斑图像分别通过RGB相机、深度相机采集;获取预训练的深度补全模型,深度补全模型包括U型网络模型和扩散网络模型,扩散网络模型包括预设置的多种扩散图案;通过U型网络模型对输入述RGB图像和稀疏深度散斑图像生成稀疏深度散斑图像中每一像素对应的相邻像素相似矩阵,通过扩散网络模型对稀疏深度散斑图像每一像素根据相邻像素相似矩阵根选择对应的扩散图像进行深度补全生成稠密深度散斑图像。本发明不仅能够显著的提高深度补全的精度,而且在深度补全时显著提高了计算速度。
Description
技术领域
本发明涉及深度相机,具体地,涉及一种基于自适应扩散核的空间神经网络深度补全方法、系统、设备及存储介质。
背景技术
ToF(time of flight)技术是一种从投射器发射测量光,并使测量光经过目标物体反射回到接收器,从而能够根据测量光在此传播路程中的传播时间来获取物体到传感器的空间距离的3D成像技术。常用的ToF技术包括点扫描投射方法和面光投射方法。
点扫描投射的ToF方法采用点投射器,投射出多束的准直光,该多束的准直光的投射方向受到扫描器件的控制从而能够投射到不同的目标位置。光束单束的准直光经过目标物反射后,部分光被光探测器接收,从而获取当前投射方向的深度测量数据。此种方法能够将所有的光功率集中在多个个目标点上,从而在目标点实现的高信噪比,进而实现高精度的深度测量。整个目标物体的扫描依赖于扫描器件,比如机械马达、MEMS、光相控雷达等。将扫描获得的深度数据点拼接即可获取3D成像所需的离散点云数据。此种方法有利于实现远距离的3D成像,但需要使用复杂的投射扫描系统,成本较高。
面光投射的ToF方法则是投射出一个能量连续分布的面光束。投射光连续覆盖目标物体表面。光探测器为一个能够获取光束传播时间的光探测器阵列。目标物体反射的光信号经过光学成像系统在光探测器上成像时,每个探测器像点获得的深度即为其物象关系对应物体位置的深度信息。这种方法能够摆脱复杂的扫描系统。然而,由于面光投射的光功率密度远低于单数的准直光,信噪比相对于单点扫描投射的方法大大下降,使得这种方法仅能够适用于距离减小,精度较低的场景。
但是通过点扫描投射的ToF方法得到的深度图像的具有稀疏特点,因此给深度补全带来算法上的挑战。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于自适应扩散核的空间神经网络深度补全方法、系统、设备及存储介质。
根据本发明提供的基于自适应扩散核的空间神经网络深度补全方法,包括如下步骤:
步骤S1:获取RGB图像和稀疏深度散斑图像,所述RGB图像和所述稀疏深度散斑图像分别通过RGB相机、深度相机采集;
步骤S2:获取预训练的深度补全模型,所述深度补全模型包括U型网络模型和扩散网络模型,所述扩散网络模型包括预设置的多种扩散图案;
步骤S3:通过所述U型网络模型对输入的所述RGB图像和所述稀疏深度散斑图像生成所述稀疏深度散斑图像中每一像素对应的相邻像素相似矩阵,通过所述扩散网络模型对所述稀疏深度散斑图像每一像素根据所述相邻像素相似矩阵根选择对应的扩散图像进行深度补全生成稠密深度散斑图像。
优选地,所述步骤S1包括如下步骤:
步骤S101:通过深度相机的光束投射器端向所述目标人物投射点阵光,通过深度相机的探测器端接收经所述目标人物反射后的所述点阵光;
步骤S102:所述深度相机根据所述探测器端接收到的所述点阵光生成所述目标人物的稀疏深度散斑图像;
步骤S103:通过RGB相机对所述目标人物采集RGB图像。
优选地,所述深度补全模型通过如下方法训练生成:
步骤M101:获取RGB图像训练集和稀疏深度散斑图像训练集,所述RGB图像和所述稀疏深度散斑图像分别通过RGB相机、深度相机对目标人物采集生成;
步骤M102:将所述RGB图像训练集和所述稀疏深度散斑图像训练集输入基于卷积神经网络的深度补全模型生成深度预补全散斑图像;
步骤M103:根据预设置的标准深度散斑图像确定所述深度预补全散斑图像的损失函数,所述标准深度散斑图像为预采集的所述目标人物的密集深度散斑图像;
步骤M104:重复执行步骤M101至步骤M103,直至所述损失函数达到预设置的损失阈值范围内。
优选地,所述步骤S3包括如下步骤:
步骤S301:所述U型网络模型根据输入的所述RGB图像和所述稀疏深度散斑图像生成所述稀疏深度散斑图像中每一像素对应的相邻像素相似矩阵;
步骤S302:根据每一像素对应的所述相邻像素相似矩阵在预设置的所述多种扩散图案选择对应的扩散图案;
步骤S303:对每一像素根据对应的所述扩散图案计算位于中心的该像素的深度值,即实现该像素的深度补全;
步骤S304:重复执行步骤S302至步骤S303,生成稠密深度散斑图像。
优选地,所述扩散图案包括如下多种图案:
通过八临域像素进行中心像素深度计算的扩散图案;
通过八临域中相对称的两像素进行中心像素深度计算的扩散图案;
通过八临域中任意的至少三像素进行中心像素深度计算的扩散图案;
通过5×5像素矩阵中任意的至少8个像素进行中心像素深度计算的扩散图案;
通过7×7像素矩阵中任意的至少10个像素进行中心像素深度计算的扩散图案。
优选地,所述U型网络包括卷积网络和反卷积网络,且卷积网络与反卷积网络连接构成U型结构;
所述卷积网络与反卷积网络分别包括若干层组合卷积块,所述组合卷积块用于对输入的所述RGB图像和所述稀疏深度散斑图像进行特征提取;
所述组合卷积块包括若干个不同大小的卷积核。
优选地,所述步骤S301包括如下步骤:
步骤S3011:遍历每一像素与周边八临域的像素的相似值,当一像素与周边八临域至少存在两个相似像素时,生成3×3的相邻像素相似矩阵,否则执行步骤S3012,所述相似值通过两个像素之间像素值的差值确定;
步骤S3012:遍历以每一像素为中心的5×5像素矩阵中每一像素寻找相似像素,当至少存在八个相似像素时,生成5×5的相邻像素相似矩阵,否则执行步骤S3013;
步骤S3022:遍历以每一像素为中心的7×7像素矩阵中每一像素寻找相似像素,当至少存在10个相似像素时,生成7×7的相邻像素相似矩阵,将该像素作为噪声点去除。
根据本发明提供的基于自适应扩散核的空间神经网络深度补全系统,包括如下模块:
图像获取模块,用于获取RGB图像和稀疏深度散斑图像,所述RGB图像和所述稀疏深度散斑图像分别通过RGB相机、深度相机采集;
模型获取模块,用于获取预训练的深度补全模型,所述深度补全模型包括U型网络模型和扩散网络模型,所述扩散网络模型包括预设置的多种扩散图案;
深度补全模块,用于通过所述U型网络模型对输入的所述RGB图像和所述稀疏深度散斑图像生成所述稀疏深度散斑图像中每一像素对应的相邻像素相似矩阵,通过所述扩散网络模型对所述稀疏深度散斑图像每一像素根据所述相邻像素相似矩阵选择对应的扩散图像进行深度补全生成稠密深度散斑图像。
根据本发明提供的基于自适应扩散核的空间神经网络深度补全设备,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行所述的基于自适应扩散核的空间神经网络深度补全方法的步骤。
根据本发明提供的计算机可读存储介质,用于存储程序,所述程序被执行时实现所述的基于自适应扩散核的空间神经网络深度补全方法的步骤。
与现有技术相比,本发明具有如下的有益效果:
本发明根据目标人物的RGB图像和稀疏深度散斑图像对稀疏深度散斑图像中每一像素进行相邻像素相似矩阵的计算,进而根据相邻像素相似矩阵进行扩散图案的选择,从而根据选定的扩散图案进行每一像素点的深度计算,生成稠密深度散斑图像,本发明不仅能够显著的提高深度补全的精度,而且在深度补全时显著提高了计算速度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例中基于自适应扩散核的空间神经网络深度补全方法的步骤流程图;
图2为本发明实施例中采集RGB图像和稀疏深度散斑图像的步骤流程图;
图3为本发明实施例中进行深度补全生成稠密深度散斑图像的步骤流程图;
图4为本发明实施例中相邻像素相似矩阵生成的步骤流程图;
图5为本发明实施例中深度补全模型训练的步骤流程图;
图6(a)为本发明实施例中第一种扩散图案的示意图;
图6(b)为本发明实施例中第二种扩散图案的示意图;
图6(c)为本发明实施例中第三种扩散图案的示意图;
图6(d)为本发明实施例中第四种扩散图案的示意图;
图6(e)为本发明实施例中第一种扩散图案的示意图;
图6(f)为本发明实施例中第一种扩散图案的示意图;
图6(g)为本发明实施例中第一种扩散图案的示意图;
图6(h)为本发明实施例中第一种扩散图案的示意图;
图6(i)为本发明实施例中第一种扩散图案的示意图;
图6(k)为本发明实施例中第一种扩散图案的示意图;
图6(l)为本发明实施例中第一种扩散图案的示意图;
图7为本发明实施例中基于自适应扩散核的空间神经网络深度补全系统的模块示意图;
图8为本发明实施例中基于自适应扩散核的空间神经网络深度补全设备的结构示意图;以及
图9为本发明实施例中计算机可读存储介质的结构示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例,例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
本发明提供的基于自适应扩散核的空间神经网络深度补全方法,旨在解决现有技术中存在的问题。
下面以具体地实施例对本发明的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。
图1为本发明实施例中基于自适应扩散核的空间神经网络深度补全方法的步骤流程图,如图1所示,本发明提供的基于自适应扩散核的空间神经网络深度补全方法,包括如下步骤:
步骤S1:获取RGB图像和稀疏深度散斑图像,所述RGB图像和所述稀疏深度散斑图像分别通过RGB相机、深度相机采集;
图2为本发明实施例中采集RGB图像和稀疏深度散斑图像的步骤流程图,如图2所示,所述步骤S1包括如下步骤:
步骤S101:通过深度相机的光束投射器端向所述目标人物投射点阵光,通过深度相机的探测器端接收经所述目标人物反射后的所述点阵光;
步骤S102:所述深度相机根据所述探测器端接收到的所述点阵光生成所述目标人物的稀疏深度散斑图像;
步骤S103:通过RGB相机对所述目标人物采集RGB图像。
在本发明实施例中,所述光束投射器包括光源、光源驱动器以及分束器;所述光源驱动器与所述光源连接,用于驱动所述光源发光;所述分束器,用于将所述光源的投射出多束离散准直光束。所述分束器件205可以采用衍射光栅(DOE)、空间光调制器(SLM)等。
在本发明实施例中,所述光接收模块,采用红外相机,包括沿光路设置的镜头、滤光片以及图像传感器。所述图像传感器,用于通过至少四个接收窗口接收所述点阵光;所述至少四个接收窗口在时序上顺次等间隔排列,根据四个接收窗口接收到的红外散斑图像进行所述稀疏深度散斑图像的计算。
步骤S2:获取预训练的深度补全模型,所述深度补全模型包括U型网络模型和扩散网络模型,所述扩散网络模型包括预设置的多种扩散图案;
图3为本发明实施例中进行深度补全生成稠密深度散斑图像的步骤流程图,如图3所示,所述深度补全模型通过如下方法训练生成:
步骤M101:获取RGB图像训练集和稀疏深度散斑图像训练集,所述RGB图像和所述稀疏深度散斑图像分别通过RGB相机、深度相机对目标人物采集生成;
步骤M102:将所述RGB图像训练集和所述稀疏深度散斑图像训练集输入基于卷积神经网络的深度补全模型生成深度预补全散斑图像;
步骤M103:根据预设置的标准深度散斑图像确定所述深度预补全散斑图像的损失函数,所述标准深度散斑图像为预采集的所述目标人物的密集深度散斑图像;
步骤M104:重复执行步骤M101至步骤M103,直至所述损失函数达到预设置的损失阈值范围内。
在本发明实施例中,所述损失阈值可以设置为3%至10%之间的任意数值,如5%。
在本发明实施例中,所述U型网络包括卷积网络和反卷积网络,且卷积网络与反卷积网络连接构成U型结构;
所述卷积网络与反卷积网络分别包括若干层组合卷积块,所述组合卷积块用于对输入的所述RGB图像和所述稀疏深度散斑图像进行特征提取;
所述组合卷积块包括若干个不同大小的卷积核。
步骤S3:通过所述U型网络模型对输入的所述RGB图像和所述稀疏深度散斑图像生成所述稀疏深度散斑图像中每一像素对应的相邻像素相似矩阵,通过所述扩散网络模型对所述稀疏深度散斑图像每一像素根据所述相邻像素相似矩阵根选择对应的扩散图像进行深度补全生成稠密深度散斑图像。
在本发明实施例中,所述扩散网络模型采用卷积空间传播网络模块。
图5为本发明实施例中深度补全模型训练的步骤流程图,如图5所示,所述步骤S3包括如下步骤:
步骤S301:所述U型网络模型根据输入的所述RGB图像和所述稀疏深度散斑图像生成所述稀疏深度散斑图像中每一像素对应的相邻像素相似矩阵;
在本发明实施例中,所述相邻像素相似矩阵可以为3×3的像素矩阵,也可以为5×5和7×7的像素矩阵。
当上述相似矩阵中,当一像素点与中心像素点的深度值的差值在10%以内时,则在该相邻像素相似矩阵保留该像素点,否则,删除该像素点。
图4为本发明实施例中相邻像素相似矩阵生成的步骤流程图,如图4所示,所述步骤S301包括如下步骤:
步骤S3011:遍历每一像素与周边八临域的像素的相似值,当一像素与周边八临域至少存在两个相似像素时,生成3×3的相邻像素相似矩阵,否则执行步骤S3012,所述相似值通过两个像素之间像素值的差值确定;
步骤S3012:遍历以每一像素为中心的5×5像素矩阵中每一像素寻找相似像素,当至少存在八个相似像素时,生成5×5的相邻像素相似矩阵,否则执行步骤S3013;
步骤S3022:遍历以每一像素为中心的7×7像素矩阵中每一像素寻找相似像素,当至少存在10个相似像素时,生成7×7的相邻像素相似矩阵,将该像素作为噪声点去除。
在本发明实施例中,当一像素点与中心像素点的深度值的差值在10%以内时,则认为这两个像素相似。
步骤S302:根据每一像素对应的所述相邻像素相似矩阵在预设置的所述多种扩散图案选择对应的扩散图案;
在本发明实施例中,在选择对应的扩散图案时,根据所述扩散图案与所述相邻像素相似矩阵的形态相似性进行选择,如当一像素与相邻的八个像素均相似时,则该像素的扩散图像为一3×3的矩阵;如当一像素与相邻的左、右、上像素相似时,则该像素的扩散图像为图6(a)所示的矩阵,如当一像素与对角线上两个像素相似时,则该像素的扩散图像为图6(g)或图6(h)所示的矩阵。
步骤S303:对每一像素根据对应的所述扩散图案计算位于中心的该像素的深度值,即实现该像素的深度补全;
在本发明实施例中,根据扩散图案进行深度值计算时,根据所述扩散图案中每一像素格对应深度值进行加权平均生成位于中心像素的像素值。
步骤S304:重复执行步骤S302至步骤S303,生成稠密深度散斑图像。
图6为本发明实施例中扩散图案的示意图,如图6所示,在本发明实施例中,所述扩散图案包括如下多种图案:
通过八临域像素进行中心像素深度计算的扩散图案;
通过八临域中相对称的两像素进行中心像素深度计算的扩散图案,如图6(g)、图6(h)所示;
通过八临域中任意的至少三像素进行中心像素深度计算的扩散图案,如图6(a)、图6(b)、图6(c)、图6(d)、图6(e)、图6(f)所示;
通过5×5像素矩阵中任意的至少8个像素进行中心像素深度计算的扩散图案,如图6(i)、图6(j)所示;
通过7×7像素矩阵中任意的至少10个像素进行中心像素深度计算的扩散图案,,如图6(k)、图6(l)所示。
图7为本发明实施例中基于自适应扩散核的空间神经网络深度补全系统的模块示意图,如图7所示,本发明提供的基于自适应扩散核的空间神经网络深度补全系统,包括如下模块:
图像获取模块,用于获取RGB图像和稀疏深度散斑图像,所述RGB图像和所述稀疏深度散斑图像分别通过RGB相机、深度相机采集;
模型获取模块,用于获取预训练的深度补全模型,所述深度补全模型包括U型网络模型和扩散网络模型,所述扩散网络模型包括预设置的多种扩散图案;
深度补全模块,用于通过所述U型网络模型对输入的所述RGB图像和所述稀疏深度散斑图像生成所述稀疏深度散斑图像中每一像素对应的相邻像素相似矩阵,通过所述扩散网络模型对所述稀疏深度散斑图像每一像素根据所述相邻像素相似矩阵选择对应的扩散图像进行深度补全生成稠密深度散斑图像。
本发明实施例中还提供一种基于人脸光斑图像的活体检测设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的基于人脸光斑图像的活体检测方法的步骤。
如上,该实施例中通过采集目标人物的光斑图像,在所述光斑图像上截取的像素区域,对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息,能够更快速的得到物体的深度信息,能够用于进行近距离的人脸深度信息获取的手机、体感游戏、支付等消费产品中。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图8是本发明实施例中的基于自适应扩散核的空间神经网络深度补全设备的结构示意图。下面参照图8来描述根据本发明的这种实施方式的电子设备600。图8显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述基于人脸光斑图像的活体检测方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图8中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例中还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的基于人脸光斑图像的活体检测方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述基于人脸光斑图像的活体检测方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例的计算机可读存储介质的程序在执行时,通过采集目标人物的光斑图像,在所述光斑图像上截取的像素区域,对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息,能够更快速的得到物体的深度信息,能够用于进行近距离的人脸深度信息获取的手机、体感游戏、支付等消费产品中。
图9是本发明实施例中的计算机可读存储介质的结构示意图。参考图9所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本发明实施例中,根据目标人物的RGB图像和稀疏深度散斑图像对稀疏深度散斑图像中每一像素进行相邻像素相似矩阵的计算,进而根据相邻像素相似矩阵进行扩散图案的选择,从而根据选定的扩散图案进行每一像素点的深度计算,生成稠密深度散斑图像,本发明不仅能够显著的提高深度补全的精度,而且在深度补全时显著提高了计算速度。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (10)
1.一种基于自适应扩散核的空间神经网络深度补全方法,其特征在于,包括如下步骤:
步骤S1:获取RGB图像和稀疏深度散斑图像,所述RGB图像和所述稀疏深度散斑图像分别通过RGB相机、深度相机采集;
步骤S2:获取预训练的深度补全模型,所述深度补全模型包括U型网络模型和扩散网络模型,所述扩散网络模型包括预设置的多种扩散图案;
步骤S3:通过所述U型网络模型对输入的所述RGB图像和所述稀疏深度散斑图像生成所述稀疏深度散斑图像中每一像素对应的相邻像素相似矩阵,通过所述扩散网络模型对所述稀疏深度散斑图像每一像素根据所述相邻像素相似矩阵根选择对应的扩散图像进行深度补全生成稠密深度散斑图像。
2.根据权利要求1所述的基于自适应扩散核的空间神经网络深度补全方法,其特征在于,所述步骤S1包括如下步骤:
步骤S101:通过深度相机的光束投射器端向目标人物投射点阵光,通过深度相机的探测器端接收经所述目标人物反射后的所述点阵光;
步骤S102:所述深度相机根据所述探测器端接收到的所述点阵光生成所述目标人物的稀疏深度散斑图像;
步骤S103:通过RGB相机对所述目标人物采集RGB图像。
3.根据权利要求1所述的基于自适应扩散核的空间神经网络深度补全方法,其特征在于,所述深度补全模型通过如下方法训练生成:
步骤M101:获取RGB图像训练集和稀疏深度散斑图像训练集,所述RGB图像和所述稀疏深度散斑图像分别通过RGB相机、深度相机对目标人物采集生成;
步骤M102:将所述RGB图像训练集和所述稀疏深度散斑图像训练集输入基于卷积神经网络的深度补全模型生成深度预补全散斑图像;
步骤M103:根据预设置的标准深度散斑图像确定所述深度预补全散斑图像的损失函数,所述标准深度散斑图像为预采集的所述目标人物的密集深度散斑图像;
步骤M104:重复执行步骤M101至步骤M103,直至所述损失函数达到预设置的损失阈值范围内。
4.根据权利要求1所述的基于自适应扩散核的空间神经网络深度补全方法,其特征在于,所述步骤S3包括如下步骤:
步骤S301:所述U型网络模型根据输入的所述RGB图像和所述稀疏深度散斑图像生成所述稀疏深度散斑图像中每一像素对应的相邻像素相似矩阵;
步骤S302:根据每一像素对应的所述相邻像素相似矩阵在预设置的所述多种扩散图案选择对应的扩散图案;
步骤S303:对每一像素根据对应的所述扩散图案计算位于中心的该像素的深度值,即实现该像素的深度补全;
步骤S304:重复执行步骤S302至步骤S303,生成稠密深度散斑图像。
5.根据权利要求1所述的基于自适应扩散核的空间神经网络深度补全方法,其特征在于,所述扩散图案包括如下多种图案:
通过八临域像素进行中心像素深度计算的扩散图案;
通过八临域中相对称的两像素进行中心像素深度计算的扩散图案;
通过八临域中任意的至少三像素进行中心像素深度计算的扩散图案;
通过5×5像素矩阵中任意的至少8个像素进行中心像素深度计算的扩散图案;
通过7×7像素矩阵中任意的至少10个像素进行中心像素深度计算的扩散图案。
6.根据权利要求1所述的基于自适应扩散核的空间神经网络深度补全方法,其特征在于,所述U型网络包括卷积网络和反卷积网络,且卷积网络与反卷积网络连接构成U型结构;
所述卷积网络与反卷积网络分别包括若干层组合卷积块,所述组合卷积块用于对输入的所述RGB图像和所述稀疏深度散斑图像进行特征提取;
所述组合卷积块包括若干个不同大小的卷积核。
7.根据权利要求4所述的基于自适应扩散核的空间神经网络深度补全方法,其特征在于,所述步骤S301包括如下步骤:
步骤S3011:遍历每一像素与周边八临域的像素的相似值,当一像素与周边八临域至少存在两个相似像素时,生成3×3的相邻像素相似矩阵,否则执行步骤S3012,所述相似值通过两个像素之间像素值的差值确定;
步骤S3012:遍历以每一像素为中心的5×5像素矩阵中每一像素寻找相似像素,当至少存在八个相似像素时,生成5×5的相邻像素相似矩阵,否则执行步骤S3013;
步骤S3022:遍历以每一像素为中心的7×7像素矩阵中每一像素寻找相似像素,当至少存在10个相似像素时,生成7×7的相邻像素相似矩阵,将该像素作为噪声点去除。
8.一种基于自适应扩散核的空间神经网络深度补全系统,其特征在于,包括如下模块:
图像获取模块,用于获取RGB图像和稀疏深度散斑图像,所述RGB图像和所述稀疏深度散斑图像分别通过RGB相机、深度相机采集;
模型获取模块,用于获取预训练的深度补全模型,所述深度补全模型包括U型网络模型和扩散网络模型,所述扩散网络模型包括预设置的多种扩散图案;
深度补全模块,用于通过所述U型网络模型对输入的所述RGB图像和所述稀疏深度散斑图像生成所述稀疏深度散斑图像中每一像素对应的相邻像素相似矩阵,通过所述扩散网络模型对所述稀疏深度散斑图像每一像素根据所述相邻像素相似矩阵选择对应的扩散图像进行深度补全生成稠密深度散斑图像。
9.一种基于自适应扩散核的空间神经网络深度补全设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至7任一项所述的基于自适应扩散核的空间神经网络深度补全方法的步骤。
10.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现权利要求1至7任一项所述的基于自适应扩散核的空间神经网络深度补全方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011603338.8A CN114693757A (zh) | 2020-12-29 | 2020-12-29 | 空间神经网络深度补全方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011603338.8A CN114693757A (zh) | 2020-12-29 | 2020-12-29 | 空间神经网络深度补全方法、系统、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114693757A true CN114693757A (zh) | 2022-07-01 |
Family
ID=82132430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011603338.8A Pending CN114693757A (zh) | 2020-12-29 | 2020-12-29 | 空间神经网络深度补全方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114693757A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116524195A (zh) * | 2023-06-20 | 2023-08-01 | 中国科学院深圳先进技术研究院 | 语义分割方法、装置、电子设备及存储介质 |
-
2020
- 2020-12-29 CN CN202011603338.8A patent/CN114693757A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116524195A (zh) * | 2023-06-20 | 2023-08-01 | 中国科学院深圳先进技术研究院 | 语义分割方法、装置、电子设备及存储介质 |
CN116524195B (zh) * | 2023-06-20 | 2023-12-01 | 中国科学院深圳先进技术研究院 | 语义分割方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3786890B1 (en) | Method and apparatus for determining pose of image capture device, and storage medium therefor | |
CN102763420B (zh) | 深度相机兼容性 | |
JPWO2019065536A1 (ja) | 再構成方法および再構成装置 | |
CN115359108B (zh) | 焦点堆栈重建指导下的基于散焦的深度预测方法及系统 | |
CN115272565A (zh) | 一种头部三维模型的重建方法及电子设备 | |
CN112824934B (zh) | 基于调制光场的tof多径干扰去除方法、系统、设备及介质 | |
CN114693590A (zh) | 基于光斑图像的距离检测方法、系统、设备及存储介质 | |
CN114693757A (zh) | 空间神经网络深度补全方法、系统、设备及存储介质 | |
KR102025113B1 (ko) | LiDAR를 이용한 이미지 생성 방법 및 이를 위한 장치 | |
US8818124B1 (en) | Methods, apparatus, and systems for super resolution of LIDAR data sets | |
WO2024060708A1 (zh) | 目标检测方法和装置 | |
CN112446842B (zh) | 基于稀疏和稠密深度图图像重建方法、系统、设备及介质 | |
US9014464B2 (en) | Measurement device, measurement method, and computer program product | |
KR102596443B1 (ko) | 넓은 시야 이미징을 위한 회절 광학 요소들 | |
CN114627521A (zh) | 基于散斑图的人脸活体判定方法、系统、设备及存储介质 | |
JP2018081378A (ja) | 画像処理装置、撮像装置、画像処理方法および画像処理プログラム | |
CN115201834A (zh) | 基于光斑图像的距离检测方法、系统、设备及存储介质 | |
CN113673287B (zh) | 基于目标时间节点的深度重建方法、系统、设备及介质 | |
CN113673284B (zh) | 深度相机抓拍方法、系统、设备及介质 | |
CN113673285B (zh) | 深度相机抓拍时的深度重建方法、系统、设备及介质 | |
CN113673286B (zh) | 基于目标区域的深度重建方法、系统、设备及介质 | |
CN118520780B (zh) | 激光雷达数据的反射强度预测方法、设备及介质 | |
WO2024069727A1 (en) | Training apparatus, training method, and non-transitory computer-readable storage medium | |
US20230260143A1 (en) | Using energy model to enhance depth estimation with brightness image | |
Pan et al. | Interference reduction using pattern modulation and demodulation for light-coding depth cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |