CN114693590A - 基于光斑图像的距离检测方法、系统、设备及存储介质 - Google Patents
基于光斑图像的距离检测方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN114693590A CN114693590A CN202011599718.9A CN202011599718A CN114693590A CN 114693590 A CN114693590 A CN 114693590A CN 202011599718 A CN202011599718 A CN 202011599718A CN 114693590 A CN114693590 A CN 114693590A
- Authority
- CN
- China
- Prior art keywords
- light spot
- image
- spot image
- distance
- definition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims description 36
- 230000003287 optical effect Effects 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 9
- 239000000047 product Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000002366 time-of-flight method Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供了一种基于光斑图像的距离检测方法、系统、设备及存储介质,包括如下步骤:获取目标人物的光斑图像,光斑图像通过深度相机采集;在光斑图像上截取预设置尺寸的像素区域;对像素区域计算光斑清晰度,根据光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定目标人物与深度相机之间的距离信息。本发明中通过采集目标人物的光斑图像,在光斑图像上截取的像素区域,对像素区域计算光斑清晰度,根据光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定目标人物与深度相机之间的距离信息,能够更快速的得到物体的深度信息,能够用于进行近距离的人脸深度信息获取的手机、体感游戏、支付等消费产品中。
Description
技术领域
本发明涉及图像检测,具体地,涉及一种基于光斑图像的距离检测方法、系统、设备及存储介质。
背景技术
3D深度视觉作为一个崭新的技术,已经出现在手机、体感游戏、支付等消费级产品中并且逐步渗透到安防、自动驾驶等新的领域。随着硬件端技术的不断进步,算法与软件层面的不断优化,3D深度视觉的精度和实用性得到大幅提升。目前比较成熟的深度测量方法包括TOF方案。
TOF(time of flight)技术是一种从投射器发射测量光,并使测量光经过目标物体反射回到接收器,从而能够根据测量光在此传播路程中的传播时间来获取物体到传感器的空间距离的3D成像技术。常用的TOF技术包括单点扫描投射方法和面光投射方法。
但是TOF技术会存在近距离测试不够精确的问题,不便于进行近距离的人脸深度信息获取,不便于将TOF技术应用于手机、体感游戏、支付等消费产品中。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于光斑图像的距离检测方法、系统、设备及存储介质。
根据本发明提供的基于光斑图像的距离检测方法,包括如下步骤:
步骤S1:获取目标人物的光斑图像,所述光斑图像通过深度相机采集;
步骤S2:在所述光斑图像上截取预设置尺寸的像素区域;
步骤S3:对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息。
优选地,所述步骤S1包括如下步骤:
步骤S101:通过深度相机的光束投射器端向所述目标人物投射点阵光;
步骤S102:通过深度相机的探测器端接收经所述目标人物反射后的所述点阵光;
步骤S103:所述深度相机根据所述探测器端接收到的所述点阵光生成所述目标人物的光斑图像。
优选地,所述步骤S2包括如下步骤:
步骤S201:对所述光斑图像进行人脸检测确定人脸区域;
步骤S202:获取所述预设置尺寸的图像截取框,将所述图像截取框移动至所述人脸区域上的一目标区域;
步骤S203:在所述目标区域通过所述图像截取框截取预设置尺寸的像素区域。
优选地,所述步骤S3包括如下步骤:
步骤S301:获取所述像素区域内每一像素点的灰度值,根据每一像素点的灰度值对所述像素区域计算光斑清晰度;
步骤S302:获取光斑清晰度与距离相关联的距离信息生成模型;
步骤S303:根据所述光斑清晰度输入至所述距离信息生成模型,以生成所述像素点与所述深度相机之间的距离信息。
优选地,所述步骤S301包括如下步骤:
步骤S3011:定义拉普拉斯算子L;
步骤S3012:对每一像素点的灰度值根据所述拉普拉斯算子L进行卷积处理生成每一像素点的卷积值;
步骤S3013:根据所有所述像素点的卷积值的平均值生成所述光斑清晰度的数值。
优选地,所述拉普拉斯算子L为:
所述卷积值为:G(x,y)=B*L
其中,B为一中心像素和邻域像素的灰度值构成的矩阵,G(x,y)为卷积后中心像素的数值;
优选地,所述距离信息生成模型通过预采集的多个与光斑图像中光斑清晰度对应的距离信息和拟合生成。
根据本发明提供的基于光斑图像的距离检测系统,包括如下模块:
光斑图像获取模块,用于获取目标人物的光斑图像,所述光斑图像通过深度相机采集;
图像截取模块,用于在所述光斑图像上截取预设置尺寸的像素区域;
距离计算模块,用于对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息。
根据本发明提供的基于光斑图像的距离检测设备,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行所述的基于光斑图像的距离检测方法的步骤。
根据本发明提供的计算机可读存储介质,用于存储程序,所述程序被执行时实现所述的基于光斑图像的距离检测方法的步骤。
与现有技术相比,本发明具有如下的有益效果:
本发明中通过采集目标人物的光斑图像,在所述光斑图像上截取的像素区域,对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息,能够更快速的得到物体的深度信息,能够用于进行近距离的人脸深度信息获取的手机、体感游戏、支付等消费产品中。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例中基于人脸光斑图像的活体检测方法的步骤流程图;
图2为本发明实施例中采集目标人物的光斑图像的步骤流程图;
图3为本发明实施例中在光斑图像上截取像素区域的步骤流程图;
图4为本发明实施例中根据光斑清晰度判断活体人脸光斑图像的步骤流程图;
图5为本发明实施例中距离信息生成模型的拟合数据图;
图6为本发明实施例中对像素区域计算光斑清晰度的步骤流程图;
图7为本发明实施例中深度相机的模块示意图;
图8为本发明实施例中基于人脸光斑图像的活体检测系统的模块示意图;
图9为本发明实施例中基于人脸光斑图像的活体检测设备的结构示意图;以及
图10为本发明实施例中计算机可读存储介质的结构示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例,例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
本发明提供的基于光斑图像的距离检测方法,旨在解决现有技术中存在的问题。
下面以具体地实施例对本发明的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。
图1为本发明实施例中基于人脸光斑图像的活体检测方法的步骤流程图,如图1所示,本发明提供的基于人脸光斑图像的活体检测方法,包括如下步骤:
步骤S1:获取目标人物的光斑图像;
图2为本发明实施例中采集目标人物的光斑图像的步骤流程图,如图2所示,所述步骤S1包括如下步骤:
步骤S101:通过深度相机的光束投射器端向所述目标人物投射点阵光;
步骤S102:通过深度相机的探测器端接收经所述目标人物反射后的所述点阵光;
步骤S103:通过深度相机的处理器根据所述探测器端接收到的所述点阵光生成所述目标人物的光斑图像。
在本发明实施例中,所述探测器端为红外探测器,通过红外探测器接收经所述目标人物反射后的所述点阵光。
所述光斑图像为深度相机距离所述目标人物距离在30至80厘米采集。所述光斑图像上的光斑点的直径在6至15毫米;当所述深度相机距离所述目标人物距离在40厘米时,所述光斑图像上的光斑点的直径约为8毫米;当所述深度相机距离所述目标人物距离在60厘米时,所述光斑图像上的光斑点的直径约为12毫米。
步骤S2:在所述光斑图像上截取预设置尺寸的像素区域;
图3为本发明实施例中在光斑图像上截取像素区域的步骤流程图,如图3所示,所述步骤S2包括如下步骤:
步骤S201:在所述光斑图像进行人脸检测确定人脸区域;
步骤S202:获取所述预设置尺寸的图像截取框,将所述图像截取框移动至所述人脸区域上的一目标区域;
步骤S203:在所述目标区域通过所述图像截取框截取预设置尺寸的像素区域。
在本发明实施例中,所述预设置尺寸为100像素×100像素的像素区域;所述人脸区域上的一目标区域可以为所述人脸区域上的中间区域,也可以为左下区域、左上区域、右下区域以及右上区域等。
步骤S3:对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息。
图4为本发明实施例中根据光斑清晰度判断活体人脸光斑图像的步骤流程图,如图4所述,所述步骤S3包括如下步骤:
步骤S301:获取所述像素区域内每一像素点的灰度值,根据每一像素点的灰度值对所述像素区域计算光斑清晰度;
步骤S302:获取光斑清晰度与距离相关联的距离信息生成模型;
步骤S303:根据所述光斑清晰度输入至所述距离信息生成模型,以生成所述像素点与所述深度相机之间的距离信息。
在本发明实施例中,进而能够根据多个所述像素点与所述深度相机之间的距离信息生成深度图像。
图5为本发明实施例中距离信息生成模型的拟合数据图,如图5所示,所述距离信息生成模型通过预采集的多个与光斑图像中光斑清晰度对应的距离信息和拟合生成,且拟合效果良好。
在本发明实施例中,所述距离信息生成模型具体如下:
y=-1.101e-14×x5+6.971e-11×x4-1.719e-07×x3+0.0002105×x2-0.1484×x+103
其中,x为清晰度,y为实际距离,即距离信息。
图6为本发明实施例中对像素区域计算光斑清晰度的步骤流程图,如图6所示,所述步骤S301包括如下步骤:
步骤S3011:定义拉普拉斯算子L;
步骤S3012:对每一像素点的灰度值根据所述拉普拉斯算子L进行卷积处理生成每一像素点的卷积值;
步骤S3013:根据所有所述像素点的卷积值的平均值生成所述光斑清晰度的数值。
在本发明实施例中,所述拉普拉斯算子为:
所述卷积值为:G(x,y)=B*L
其中,B为一中心像素和邻域8像素的灰度值构成的矩阵,G(x,y)为卷积后中心像素的数值;
图8为本发明实施例中基于人脸光斑图像的活体检测系统的模块示意图,如图8所示,本发明提供的基于人脸光斑图像的活体检测系统,包括如下模块:
光斑图像获取模块,用于获取目标人物的光斑图像,所述光斑图像通过深度相机采集;
图像截取模块,用于在所述光斑图像上截取预设置尺寸的像素区域;
距离计算模块,用于对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息。
本发明实施例中还提供一种基于人脸光斑图像的活体检测设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的基于人脸光斑图像的活体检测方法的步骤。
如上,该实施例中通过采集目标人物的光斑图像,在所述光斑图像上截取的像素区域,对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息,能够更快速的得到物体的深度信息,能够用于进行近距离的人脸深度信息获取的手机、体感游戏、支付等消费产品中。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图9是本发明实施例中的基于人脸光斑图像的活体检测设备的结构示意图。下面参照图9来描述根据本发明的这种实施方式的电子设备600。图9显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述基于人脸光斑图像的活体检测方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图9中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例中还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的基于人脸光斑图像的活体检测方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述基于人脸光斑图像的活体检测方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例的计算机可读存储介质的程序在执行时,通过采集目标人物的光斑图像,在所述光斑图像上截取的像素区域,对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息,能够更快速的得到物体的深度信息,能够用于进行近距离的人脸深度信息获取的手机、体感游戏、支付等消费产品中。
图10是本发明实施例中的计算机可读存储介质的结构示意图。参考图10所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
在本发明实施例中,本发明中通过采集目标人物的光斑图像,在所述光斑图像上截取的像素区域,对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息,能够更快速的得到物体的深度信息,能够用于进行近距离的人脸深度信息获取的手机、体感游戏、支付等消费产品中。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (10)
1.一种基于光斑图像的距离检测方法,其特征在于,包括如下步骤:
步骤S1:获取目标人物的光斑图像,所述光斑图像通过深度相机采集;
步骤S2:在所述光斑图像上截取预设置尺寸的像素区域;
步骤S3:对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息。
2.根据权利要求1所述的基于光斑图像的距离检测方法,其特征在于,所述步骤S1包括如下步骤:
步骤S101:通过深度相机的光束投射器端向所述目标人物投射点阵光;
步骤S102:通过深度相机的探测器端接收经所述目标人物反射后的所述点阵光;
步骤S103:所述深度相机根据所述探测器端接收到的所述点阵光生成所述目标人物的光斑图像。
3.根据权利要求1所述的基于光斑图像的距离检测方法,其特征在于,所述步骤S2包括如下步骤:
步骤S201:对所述光斑图像进行人脸检测确定人脸区域;
步骤S202:获取所述预设置尺寸的图像截取框,将所述图像截取框移动至所述人脸区域上的一目标区域;
步骤S203:在所述目标区域通过所述图像截取框截取预设置尺寸的像素区域。
4.根据权利要求1所述的基于光斑图像的距离检测方法,其特征在于,所述步骤S3包括如下步骤:
步骤S301:获取所述像素区域内每一像素点的灰度值,根据每一像素点的灰度值对所述像素区域计算光斑清晰度;
步骤S302:获取光斑清晰度与距离相关联的距离信息生成模型;
步骤S303:根据所述光斑清晰度输入至所述距离信息生成模型,以生成所述像素点与所述深度相机之间的距离信息。
5.根据权利要求4所述的基于光斑图像的距离检测方法,其特征在于,所述步骤S301包括如下步骤:
步骤S3011:定义拉普拉斯算子L;
步骤S3012:对每一像素点的灰度值根据所述拉普拉斯算子L进行卷积处理生成每一像素点的卷积值;
步骤S3013:根据所有所述像素点的卷积值的平均值生成所述光斑清晰度的数值。
7.根据权利要求1所述的基于光斑图像的距离检测方法,其特征在于,所述距离信息生成模型通过预采集的多个与光斑图像中光斑清晰度对应的距离信息和拟合生成。
8.一种基于光斑图像的距离检测系统,其特征在于,包括如下模块:
光斑图像获取模块,用于获取目标人物的光斑图像,所述光斑图像通过深度相机采集;
图像截取模块,用于在所述光斑图像上截取预设置尺寸的像素区域;
距离计算模块,用于对所述像素区域计算光斑清晰度,根据所述光斑清晰度和预设置的光斑清晰度与距离相关联的距离信息生成模型确定所述目标人物与所述深度相机之间的距离信息。
9.一种基于光斑图像的距离检测设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至7任一项所述的基于光斑图像的距离检测方法的步骤。
10.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现权利要求1至7任一项所述的基于光斑图像的距离检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011599718.9A CN114693590A (zh) | 2020-12-29 | 2020-12-29 | 基于光斑图像的距离检测方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011599718.9A CN114693590A (zh) | 2020-12-29 | 2020-12-29 | 基于光斑图像的距离检测方法、系统、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114693590A true CN114693590A (zh) | 2022-07-01 |
Family
ID=82132157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011599718.9A Pending CN114693590A (zh) | 2020-12-29 | 2020-12-29 | 基于光斑图像的距离检测方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114693590A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385437A (zh) * | 2023-06-05 | 2023-07-04 | 山东中清智能科技股份有限公司 | 一种多视角的多图像融合方法及装置 |
CN118154431A (zh) * | 2024-05-13 | 2024-06-07 | 合肥国家实验室 | 图像生成方法、装置、设备及存储介质 |
-
2020
- 2020-12-29 CN CN202011599718.9A patent/CN114693590A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385437A (zh) * | 2023-06-05 | 2023-07-04 | 山东中清智能科技股份有限公司 | 一种多视角的多图像融合方法及装置 |
CN116385437B (zh) * | 2023-06-05 | 2023-08-25 | 山东中清智能科技股份有限公司 | 一种多视角的多图像融合方法及装置 |
CN118154431A (zh) * | 2024-05-13 | 2024-06-07 | 合肥国家实验室 | 图像生成方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110427917B (zh) | 用于检测关键点的方法和装置 | |
CN110674719B (zh) | 目标对象匹配方法及装置、电子设备和存储介质 | |
EP3786890A1 (en) | Method and apparatus for determining pose of image capture device, and storage medium therefor | |
CN108648140B (zh) | 图像拼接方法、系统、设备及存储介质 | |
CN114693590A (zh) | 基于光斑图像的距离检测方法、系统、设备及存储介质 | |
CN110619807B (zh) | 生成全局热力图的方法和装置 | |
CN111177167B (zh) | 增强现实的地图更新方法、装置、系统、存储与设备 | |
CN116629287A (zh) | 一种条码解析方法及装置 | |
CN111626086A (zh) | 活体检测方法、装置及系统、电子设备和存储介质 | |
CN110286906B (zh) | 用户界面显示方法、装置、存储介质与移动终端 | |
US20210182864A1 (en) | Method and system for self-checkout | |
CN112824935B (zh) | 基于调制光场的深度成像系统、方法、设备及介质 | |
US11783501B2 (en) | Method and apparatus for determining image depth information, electronic device, and media | |
CN115201834A (zh) | 基于光斑图像的距离检测方法、系统、设备及存储介质 | |
CN114693757A (zh) | 空间神经网络深度补全方法、系统、设备及存储介质 | |
CN115393423A (zh) | 目标检测方法和装置 | |
CN113673286B (zh) | 基于目标区域的深度重建方法、系统、设备及介质 | |
CN113673284B (zh) | 深度相机抓拍方法、系统、设备及介质 | |
CN113673287B (zh) | 基于目标时间节点的深度重建方法、系统、设备及介质 | |
CN113673285B (zh) | 深度相机抓拍时的深度重建方法、系统、设备及介质 | |
CN113468920A (zh) | 基于人脸光斑图像的活体检测方法、系统、设备及介质 | |
CN112991542B (zh) | 房屋三维重建方法、装置和电子设备 | |
CN116343269A (zh) | 基于深度相机的刷掌支付方法、系统、设备及存储介质 | |
CN107742275B (zh) | 一种信息处理方法及电子设备 | |
CN116343270A (zh) | 基于距离传感器的刷掌支付方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |