CN110378946A - 深度图处理方法、装置以及电子设备 - Google Patents
深度图处理方法、装置以及电子设备 Download PDFInfo
- Publication number
- CN110378946A CN110378946A CN201910623071.XA CN201910623071A CN110378946A CN 110378946 A CN110378946 A CN 110378946A CN 201910623071 A CN201910623071 A CN 201910623071A CN 110378946 A CN110378946 A CN 110378946A
- Authority
- CN
- China
- Prior art keywords
- depth
- depth map
- scene type
- pixel unit
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 claims abstract description 24
- 238000003384 imaging method Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims description 30
- 238000005259 measurement Methods 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 abstract description 32
- 230000003044 adaptive effect Effects 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000012549 training Methods 0.000 description 10
- 230000002159 abnormal effect Effects 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 8
- 238000013507 mapping Methods 0.000 description 6
- 230000001360 synchronised effect Effects 0.000 description 6
- 238000005070 sampling Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
Abstract
本申请提出一种深度图处理方法、装置以及电子设备,其中,方法包括:通过获取深度传感器采集的深度图和图像传感器采集的成像图;根据深度图和成像图,识别场景类型;根据场景类型,对深度图进行滤波处理。由此,实现了根据不同的场景类型,自适应的选取滤波方式对深度图进行滤波处理,以输出高质量的深度图,从而提高了深度图的质量。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种深度图处理方法、装置以及电子设备。
背景技术
目前,为了改善深度图质量,可以对深度图进行滤波处理。现有技术中,采用双边滤波、各向异性滤波、基于固定阈值的滤波等通过滤波算法,对深度图进行滤波处理。
然而实际应用场景中,由于往往会存在较多的不确定性,比如环境光照不同、背景与前景到飞行时间(Time of Flight,简称TOF)相机的距离不同,等等,上述滤波算法需要用户针对具体场景做合理的参数设置。这种方式下,对于没有相关专业经验的用户或者仅仅是利用深度图的应用开发者来说,这样的设置是非常困难的,可能导致滤波后的深度图中存在较多的飞像素点,影响后续的图像处理。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
本申请提出一种深度图处理方法、装置以及电子设备,以实现根据深度图,以及根据同步采集的成像图,识别场景类型,进而根据不同的场景类型,自适应的选取滤波方式对深度图进行滤波处理,以输出高质量的深度图,从而提高了深度图的质量,并且,通过滤波可以有效去除深度图内的异常点,比如飞像素点,改善深度图的平滑性,用于解决现有技术中滤波后的深度图中存在较多的飞像素点的技术问题。
本申请第一方面实施例提出了一种深度图处理方法,包括:
获取深度传感器采集的深度图和图像传感器采集的成像图;
根据所述深度图和所述成像图,识别场景类型;
根据所述场景类型,对所述深度图进行滤波处理。
本申请实施例的深度图处理方法,通过获取深度传感器采集的深度图和图像传感器采集的成像图;根据深度图和成像图,识别场景类型;根据场景类型,对深度图进行滤波处理。由此,实现了根据不同的场景类型,自适应的选取滤波方式对深度图进行滤波处理,以输出高质量的深度图,从而提高了深度图的质量。
本申请第二方面实施例提出了一种深度图处理装置,包括:
获取模块,用于获取深度传感器采集的深度图和图像传感器采集的成像图;
识别模块,用于根据所述深度图和所述成像图,识别场景类型;
处理模块,用于根据所述场景类型,对所述深度图进行滤波处理。
本申请实施例的深度图处理装置,通过获取深度传感器采集的深度图和图像传感器采集的成像图;根据深度图和成像图,识别场景类型;根据场景类型,对深度图进行滤波处理。由此,实现了根据不同的场景类型,自适应的选取滤波方式对深度图进行滤波处理,以输出高质量的深度图,从而提高了深度图的质量。
本申请第三方面实施例提出了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如上述实施例中所述的深度图处理方法。
本申请第四方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述实施例中所述的深度图处理方法。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例一提供的一种深度图处理方法的流程示意图;
图2为本申请实施例二提供的一种深度图处理方法的流程示意图;
图3为本申请实施例三提供的一种深度图处理方法的流程示意图;
图4为本申请实施例四提供的一种深度图处理方法的流程示意图;
图5为本申请实施例五提供的一种深度图处理方法的流程示意图;
图6为本申请实施例六提供的一种深度图处理方法的流程示意图;
图7为本申请实施例七提供的一种深度图处理装置的结构示意图;
图8为本申请实施例七提供的另一种深度图处理装置的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
目前,单频率TOF相机的原始数据的处理流程主要包括以下步骤:
步骤1,将原始数据转换为i,q数据,其中,i,q表示收集的电荷,分别为距离对应延迟相角的正弦值和余弦值;
步骤2,将i,q转化为置信度p0(|i|+|q|)和相位差c0(arctan(i/q));
步骤3,对置信度p0进行误差校正,得到p_cor;
步骤4,根据p_cor和c0确定i,q;
步骤5,对i,q进行滤波处理;
步骤6,对滤波处理后的径向深度图转为点云深度图。
其中,步骤5中对i,q进行滤波,是对i,q进行独立的滤波,主要涉及以下子步骤:
a)通过平滑相应的i,q数值,以平滑深度图的整体深度值,其中,平滑滤波采用的是诸如向异性滤波、中值滤波等通用的滤波算法;
b)将i,q转换为深度信息和置信度信息;
c)对产生的深度进行通用算法的滤波(包括时间以及空间滤波),其中,采用的通用算法包括双边滤波、各向异性滤波、飞像素/置信度阈值滤波等等滤波算法,可以在一定程度改善输出深度图质量。
然而,上述滤波算法需要用户针对具体场景做合理的参数设置,例如,背景与前景的距离不同,前景的到相机的距离不同,环境光照不一样等等。现有的解决方案需要针对具体场景做合理的参数设置。对于没有相关专业经验的用户或者仅仅是利用深度图的应用开发者来说,这样的设置是非常困难的,可能导致滤波后的深度图中存在较多的飞像素点,影响后续的图像处理。
本申请主要针对现有技术中不同场景类型下对深度图进行滤波处理时,需要用户手动设置滤波参数,导致滤波效果不理想的技术问题,提出了一种深度图处理方法。
本申请实施例中,通过获取深度传感器采集的深度图和图像传感器采集的成像图;根据深度图和成像图,识别场景类型;根据场景类型,对深度图进行滤波处理。由此,在不同场景类型下,选择对应的滤波方法对深度图进行滤波,可以有效去除深度图中的异常点,比如飞像素点,改善深度图的平滑性。
下面参考附图描述本申请实施例的深度图处理方法、装置以及电子设备。
图1为本申请实施例一提供的一种深度图处理方法的流程示意图。
本申请实施例以该深度图处理方法被配置于深度图处理装置中来举例说明,该深度图处理装置可以应用于任一具有拍照功能的电子设备中,以使该电子设备执行深度图处理功能。
其中,电子设备可以为移动终端或者智能摄像机等,对此不作限制。移动终端可以为手机、平板电脑、个人数字助理、穿戴式设备等具有各种操作系统、触摸屏和/或显示屏的硬件设备。
如图1所示,该深度图处理方法包括以下步骤:
步骤101,获取深度传感器采集的深度图和图像传感器采集的成像图。
本申请实施例中,电子设备可以包括深度传感器和图像传感器,通过深度传感器采集得到深度图,并且,采集得到的深度图中每个像素单元具有对应的深度和深度的置信度。
作为一种可能的情况,深度传感器可以为TOF相机;其中,TOF相机可以包括红外发射光源,通过红外发射光源向外发射光波信号,感光模组可以接收反射光波信号,从而根据发射光波信号与反射光波信号的相位变化,可以进行距离测量,得到对应的深度信息。
也就是说,每个像素单元对应的深度是根据红外光相位差生成的,而深度的置信度是根据红外光强确定的,其中,距离TOF相机越近,深度越小,深度的置信度越大,距离TOF相机越远,深度越大,深度的置信度越小。
本申请实施例中,成像图为二维的,可以通过电子设备的图像传感器采集得到成像图。例如,电子设备可以包括RGB摄像头,通过该RGB摄像头采集得到成像图。
需要说明的是,成像图和深度图为同步采集的,例如,通过电子设备的RGB传感器和深度传感器同步采集成像图和深度图。
步骤102,根据深度图和成像图,识别场景类型。
本申请实施例中,场景类型,可以根据采集深度图中背景到前景的距离进行划分,也可以根据背景到TOF相机的距离进行划分,也可以根据环境光亮度进行划分,本申请对此不做限制。
作为一种可能的实现方式,可以预先设置不同深度图中深度和深度的置信度与场景类型之间的对应关系,从而,本申请中,采集到深度图后,可以根据深度图的深度和深度的置信度,查询上述对应关系,以识别所属的场景类型。
作为一种示例,以场景类型是根据深度图中背景到前景的距离以及背景到TOF相机的距离进行划分的示例,假设当背景到TOF相机的距离较远,例如大于第一距离阈值(比如1.5米)时,确定该场景类型为场景类型1,当背景和前景的距离较近,比如小于第二距离阈值(比如0.2米)时,确定该场景类型为场景类型2,当背景和前景的距离较远,比如大于第三距离阈值(比如0.3米)时,确定场景类型为场景3,并建立上述距离与场景类型之间的对应关系。从而本申请中,采集到深度图后,可以根据深度图中的深度和深度的置信度,确定背景和前景的距离以及背景到TOF相机的距离,从而根据确定的结果,查询上述对应关系,确定所属的场景类型。
作为另一种可能的实现方式,还可以从成像图中识别感兴趣区域,根据深度图与成像图之间的映射关系,在深度图中确定感兴趣区域中各像素单元对应的深度和深度的置信度,进而,根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定场景类型。
步骤103,根据场景类型,对深度图进行滤波处理。
本申请实施例中,在确定场景类型后,可以根据该场景类型,判断是否需要对深度图内各像素单元对应的深度进行滤波处理。
仍以上述例子示例,当场景类型为场景类型2时,由于前景和背景的距离较近,前景边缘较为清晰,飞像素点现象不明显,因此,可以确定无需对深度图中各像素单元的深度信息进行滤波处理,而当场景类型为场景类型1或者场景类型3时,由于前景和背景的距离较远,或者,背景的深度较大,此时,前景边缘可能较为模糊,飞像素点现象较为明显,因此,可以确定需要对深度图中各像素单元的深度信息进行滤波处理。
本申请实施例的深度图处理方法,通过获取深度传感器采集的深度图和图像传感器采集的成像图;根据深度图和成像图,识别场景类型;根据场景类型,对深度图进行滤波处理。由此,可以实现根据不同的场景类型,自适应的选取滤波方式对深度图进行滤波处理,以输出高质量的深度图,从而提高了深度图的质量。
作为一种可能的实现方式,在上述步骤102中,可以从成像图中识别感兴趣区域,以根据深度图中对应感兴趣区域中各像素单元对应的深度和深度的置信度,确定场景类型。下面结合实施例二对上述过程进行详细介绍,图2为本申请实施例二提供的一种深度图处理方法的流程示意图。
如图2所示,步骤102还可以包括以下步骤:
步骤201,从成像图中识别感兴趣区域。
本申请实施例中,感兴趣区域(Region of Interest,简称ROI)可以为用户感兴趣的物体所在的区域,其中,感兴趣的物体可以在电子设备的内置程序预先设定,或者,为了满足用户的个性化需求,感兴趣的物体还可以由用户进行设置,比如电子设备可以提供输入界面,用户可以根据自身需求在该输入界面,输入其感兴趣的物体,本申请对此并不做限制。
举例而言,感兴趣的物体所在的区域,即ROI可以为植物、动物、建筑物、人等所在的区域,或者,对于人像场景而言,ROI可以为人像的局部区域,比如人脸区域、手部区域、腰部区域、腿部区域、脚部区域等等,此处不一一列举。
作为一种可能的实现方式,为了提升感兴趣区域识别结果的准确性,可以基于深度学习的图像处理技术,在成像图中识别该感兴趣区域。
例如,可以采用语义分割模型,对成像图进行识别,确定感兴趣区域,其中,语义分割模块可以为相关技术中较为成熟的语义分割模型,比如为deeplab、psp等模型,对此不作限制。具体地,可以预先采集训练图像,或者从互联网上下载训练图像,而后可以对训练图像中感兴趣的物体所在的区域进行标注,利用标注后的训练图像,对初始的语义分割模型进行训练,训练后的语义分割模型可以学习得到图像与感兴趣区域之间的对应关系。
或者,还可以采用预先训练的识别模型,对成像图进行识别,确定感兴趣区域,其中,上述预先训练的识别模型,已学习得到颜色特征、形状特征、边缘特征和/或纹理特征与感兴趣区域之间的对应关系。
作为另一种可能的实现方式,还可以基于RGB颜色分割方法,从成像图中识别感兴趣区域。例如,当感兴趣区域为手部区域时,可以将RGB颜色空间的成像图转化到HSV颜色空间进行手部皮肤检测,并对检测结果进行二值化,比如检测到皮肤,则将像素单元对应的取值设为1,若未检测到皮肤,则将像素单元对应的取值设为0,之后,对各个包含取值1的区域,进行像素单元个数的统计,从而可以将统计结果最大的区域,作为手部区域。
需要说明的是,还可以基于其他算法,从成像图中识别感兴趣区域,本申请对此并不做限制。
步骤202,根据深度图,确定感兴趣区域中各像素单元对应的深度和深度的置信度。
本申请实施例中,在从成像图中识别到感兴趣区域后,可以根据深度图和成像图之间的映射关系,在深度图中,确定与成像图中感兴趣区域相应的目标区域。
具体地,在从成像图中识别到感兴趣区域后,针对该感兴趣区域中的每个像素单元,可以根据深度图和成像图之间的映射关系,在深度图中,确定感兴趣区域中各像素单元对应的深度和深度的置信度。
步骤203,根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定场景类型。
本申请实施例中,在确定感兴趣区域中各像素单元对应的深度和深度的置信度之后,根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定场景类型。
作为一种可能的实现方式,可以预先设置不同深度和深度的置信度与场景类型之间的对应关系,从而,本申请中,在确定感兴趣区域中各像素单元对应的深度和深度的置信度后,可以根据深度和深度的置信度,查询上述对应关系,确定该感兴趣区域所属的场景类型。
作为一种示例,以场景类型是根据深度图中背景到前景的距离以及背景到TOF相机的距离进行划分为例,假设当背景到TOF相机的距离较远,例如大于第一距离阈值时,确定该场景类型为场景类型1,当背景和前景的距离较近,比如小于第二距离阈值时,确定该场景类型为场景类型2,当背景和前景的距离较远,比如大于第二阈值,且小于第三阈值时,确定场景类型为场景3,并建立上述距离与场景类型之间的对应关系。从而本申请中,在确定感兴趣区域中各像素单元对应的深度和深度的置信度后,可以根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定背景和前景的距离以及背景到TOF相机的距离,从而根据确定的结果,查询上述对应关系,确定该感兴趣区域所属的场景类型。
作为另一种可能的实现方式,可以分别对感兴趣区域中各像素单元对应的深度和深度的置信度进行统计,得到深度的分布以及置信度的分布,以根据深度的分布和置信度的分布,确定场景类型。
其中,深度的分布,用于指示各深度区间的像素单元占比;置信度的分布,用于指示各置信度区间的像素单元占比。
本申请实施例的深度图处理方法,从成像图中识别感兴趣区域;根据深度图,确定感兴趣区域中各像素单元对应的深度和深度的置信度;根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定场景类型。由此,可以实现根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定场景类型,以实现根据确定的场景类型,自适应的选取滤波方式对深度图中各像素单元的深度和深度的置信度进行滤波处理,以输出高质量的感兴趣区域,提高感兴趣区域内深度图的质量。
作为一种可能的实现方式,可以将背景较远,比如超出测量范围的背景,作为第一场景类型,将背景未超过测量范围,且前景与背景之间的距离较远的场景,作为第二场景类型,将背景未超过测量范围,且前景与背景之间的距离较近的场景,作为第三场景类型。
从而本申请中,在确定感兴趣区域中各像素单元对应的深度和深度的置信度后,可以对感兴趣区域中各像素单元对应的深度进行统计得到深度的分布,对置信度进行统计得到置信度的分布,确定背景和前景的距离以及背景到TOF相机的距离,从而根据确定的结果,确定该感兴趣区域所属场景类型。下面结合实施例三对上述过程进行详细介绍,图3为本申请实施例三提供的一种深度图处理方法的流程示意图。
如图3所示,在图2所示实施例的基础上,步骤203具体还可以包括以下子步骤:
步骤301,对感兴趣区域中各像素单元对应的深度进行统计得到深度的分布,以及对置信度进行统计得到置信度的分布。
本申请实施例中,从成像图中识别到感兴趣区域,根据深度图,确定感兴趣区域中各像素单元对应的深度和深度的置信度后,对深度图中各像素单元进行统计,可以得到深度的分布和置信度的分布。
作为一种可能的实现方式,对深度图中各像素单元进行统计得到深度的分布,具体地,对获取到的深度图,预先设定深度区间,进而统计深度图中各深度区间内像素单元的个数,计算各深度区间内像素单元的个数与深度图的像素单元总个数之比,得到各深度区间的像素单元占比,进而得到深度的分布。由此,可以确定有效测量范围内,场景的深度的分布。
作为另一种可能的实现方式,对深度图中各像素单元进行统计得到置信度的分布,具体地,对获取到的深度图,预先设定置信度区间,统计深度属于相应置信度区间的像素单元个数,计算各像素单元个数与深度图的像素单元总个数之比,得到相应置信度区间的像素单元占比,进而得到置信度的分布。
步骤302,根据置信度的分布,判断感兴趣区域是否存在超出测量范围的背景,若是,执行步骤303,若否,执行步骤304。
需要说明的是,背景距离TOF相机越近,深度的置信度越大,背景距离TOF相机越远,深度的置信度越小,因此,本申请实施例中,根据感兴趣区域中各像素单元对应的置信度的分布,可以确定感兴趣区域是否存在超出测量范围的背景。
作为一种可能的实现方式,可以判断感兴趣区域中是否存在置信度小于第一置信阈值的像素单元,若是,则确定感兴趣区域中存在超出测量范围的背景,若否,则确定感兴趣区域中不存在超出测量范围的背景。
其中,第一置信阈值可以根据可测量范围预先确定,比如,可以预先确定在近景拍摄时,对应的可测量范围,从而根据该可测量范围,确定第一置信阈值,或者,也可以预先确定在远景拍摄时,对应的可测量范围,从而根据该可测量范围,确定第一置信阈值。在用户拍摄图像时,可以根据用户的操作,确定为近景拍摄还是为远景拍摄,从而可以确定对应的第一置信阈值。
需要说明的是,由于感兴趣区域中可能存在异常点、干扰点,或者,感兴趣区域中只存在较小部分的背景区域,比如只存在一个小墙角,因此,若成像图中仅存在几个或较少个数的像素单元对应深度的置信度小于置信阈值,即确定感兴趣区域中存在超出测量范围的背景显然是不合理的。
因此,作为另一种可能的实现方式,为了提升判断结果的准确性,可以对感兴趣区域中,对应置信度小于置信阈值的像素单元统计个数,得到第一像素个数,并确定第一像素个数与所述感兴趣区域内总像素个数之比,得到第一比值,并判断第一比值是否大于第一阈值,若是,则确定感兴趣区域中存在超出测量范围的背景,若否,则确定所述感兴趣区域中不存在超出测量范围的背景。其中,第一比值为预先设置的,比如,第一比值可以为10%。
步骤303,若确定存在超出测量范围的背景,识别为第一场景类型。
本申请实施例中,当确定存在超出测量范围的背景,即背景较远时,识别感兴趣区域所属场景类型为第一场景类型。
步骤304,若确定不存在超出测量范围的背景,根据深度的分布,确定感兴趣区域中背景与前景之间的距离等级。
本申请实施例中,当确定不存在超出测量范围的背景时,可以根据感兴趣区域中各像素单元对应的深度分布,确定感兴趣区域中背景与前景之间的距离等级。
作为一种可能的实现方式,可以根据感兴趣区域中各像素单元的深度分布,确定最大深度和最小深度,根据最大深度和最小深度之比或之差,确定感兴趣区域中背景与前景之间的距离等级。
需要说明的是,由于感兴趣区域中可能存在异常点、干扰点,导致相应像素单元对应深度的置信度较小(距离摄像头较远),若将该像素单元对应的深度,作为最大深度显然是不合理的。因此,作为又一种可能的实现方式,为了提升判断结果的准确性,可以对所述感兴趣区域,从各像素单元对应深度中,筛选出置信度大于第二置信阈值的目标深度,并从目标深度中,确定最大深度和最小深度,从而可以根据最大深度和最小深度之比或之差,确定感兴趣区域中背景与前景之间的距离等级。其中,第二置信阈值为预先确定的。
举例而言,当最大深度和最小深度之比越大,或者最大深度和最小深度之差越大时,可以确定距离等级越大,而当最大深度和最小深度之比越小,或者最大深度和最小深度之差越小,可以确定距离等级越小。其中,距离等级越大,前景与背景之间的距离越远,距离等级越小,前景与背景之间的距离越近。
步骤305,根据距离等级,识别为第二场景类型,或者第三场景类型;其中,第二场景类型中背景与前景之间的距离大于第三场景类型中背景与前景之间的距离。
本申请实施例中,在确定距离等级后,可以根据该距离等级,识别感兴趣区域属于第二场景类型还是第三场景类型。其中,第二场景类型中背景与前景之间的距离大于第三场景类型中背景与前景之间的距离。
作为一种可能的实现方式,可以预先建立距离等级与场景类型之间的对应关系,从而本申请中,在确定距离等级后,可以查询上述对应关系,确定感兴趣区域所属场景等级。
举例而言,当最大深度和最小深度之比或之差处于第一范围内,确定距离等级为等级一,当最大深度和最小深度之比或之差处于第二范围内,确定距离等级为等级二,建立等级一与场景类型三,等级二与场景类型二之间的对应关系。从而本申请中,在确定最大深度和最小深度后,可以判断最大深度和最小深度之比或之差是位于第一范围内还是位于第二范围内,若位于第一范围内,则确定距离等级为等级一,感兴趣区域属于第三场景类型,若位于第二范围内,则确定距离等级为等级二,感兴趣区域属于第二场景类型。
本申请实施例的深度图处理方法,通过根据感兴趣区域中各像素单元对应的深度和深度的置信度,判断感兴趣区域所属的场景类型,可以提升识别结果的准确性。
本申请实施例中,在根据实施例三确定感兴趣区域所属场景类型后,针对步骤202,具体包括:当感兴趣区域所属场景类型为第一场景类型或者第二场景类型时,由于背景的深度较大,或者,前景和背景的距离较远,此时,前景边缘可能较为模糊,飞像素点现象较为明显,因此,可以确定需要对深度图进行滤波处理。而当感兴趣区域所属场景类型为第三场景类型时,由于前景和背景的距离较近,前景边缘较为清晰,飞像素点现象不明显,因此,可以确定无需对深度图进行滤波处理也能够得到较佳的深度图。
作为一种可能的实现方式,当根据上述实施例确定需要对深度图进行滤波处理之后,可以根据场景类型,确定对应的目标置信阈值,进而对深度图中置信度小于目标置信阈值的像素单元,删除相应像素单元对应的深度。具体地,针对深度图中的每个像素单元,可以将该像素单元对应深度的置信度与目标置信阈值进行比较,若该像素单元对应深度的置信度小于目标置信阈值,则删除该像素单元对应的深度,若该像素单元对应深度的置信度大于或者等于目标置信阈值,则保留该像素单元对应的深度。由此,可以实现仅保留置信度较高的像素单元对应的深度,将置信度较低的像素单元对应的深度作为噪声数据进行删除,可以有效去除深度图中的异常点,比如飞像素点,改善深度图的平滑性。
其中,可以根据感兴趣区域中各像素单元对应深度的置信度,确定置信度的均值,根据该均值,确定目标置信阈值,或者,可以根据感兴趣区域中各像素单元对应的置信度,确定置信度的中值,根据该中值,确定目标置信阈值,或者,还可以根据其他算法,确定目标置信阈值,本申请对此并不做限制。
作为一种可能的实现方式,在图3所述实施例的基础上,根据深度的分布和置信度的分布,确定场景类型后,根据场景类型,对深度图进行滤波处理。下面结合实施例四对上述过程进行详细介绍,图4为本申请实施例四提供的一种深度图处理方法的流程示意图。
如图4所示,在上述步骤305之后,还可以包括以下步骤:
步骤401,根据场景类型,确定对应的目标置信阈值。
本申请实施例中,确定的场景类型不同时,可以根据场景类型确定对应的阈值确定策略,以根据阈值确定策略,对深度图内各像素单元的置信度处理,得到目标置信阈值。
在一种可能的情况下,确定场景类型为第一场景类型时,可以根据感兴趣区域中各像素单元对应的置信度,按照置信度从大到小对像素单元排序,得到排序在前的多个像素单元。进而,根据多个像素单元对应置信度的中值,确定目标置信阈值。
本申请实施例中,针对感兴趣区域,可以将该感兴趣区域中所有像素单元对应深度的置信度,按照置信度大小按序排列,比如按照置信度从大到小排序,得到排序在前的多个像素单元。
需要说明的是,多个像素单元的个数,可以为感兴趣区域中包含的像素单元总个数与固定比例的乘积。其中,0<固定比例≤1,该固定比例可以由电子设备的内置程序预先设定,或者还可以由用户进行设置,对此不作限制,比如固定比例可以为10%。
此外,多个像素单元的个数,还可以与感兴趣区域中包含的像素单元总个数具有正向关系,即多个像素单元的个数可以随着感兴趣区域中包含的像素单元总个数的增大而增大,或者,多个像素单元的个数可以随着感兴趣区域中包含的像素单元总个数的减小而减小。
本申请实施例中,在确定排序在前的多个像素单元后,比如,标记多个像素单元的个数为N,若N为奇数,则多个像素单元对应置信度的中值,可以为处于序列中第(N+1)/2个位置的像素单元对应深度的置信度;若N为偶数,则多个像素单元对应置信度的中值,可以为处于序列中第N/2个位置的像素单元对应深度的置信度,或者为处于序列中第(N/2+1)个位置的像素单元对应深度的置信度,或者为处于序列中第N/2个位置像素单元对应深度的置信度和第(N/2+1)个位置的像素单元对应深度的置信度的均值。在确定多个像素单元对应置信度的中值后,可以将该中值,作为目标置信阈值。
在另一种可能的情况下,确定场景类型为第二场景类型时,可以将深度图中各像素单元划分为第一部分和第二部分,且第一部分与第二部分的之间的置信度方差最大;其中,第一部分中各像素单元对应深度的置信度大于第二部分中各像素单元对应深度的置信度。进而,根据第一部分中各像素单元对应深度的置信度,确定目标置信阈值。
步骤402,对深度图中置信度小于目标置信阈值的像素单元,删除相应像素单元对应的深度。
本申请实施例中,根据场景类型确定对应的目标置信阈值后,可以将深度图中各像素单元对应的深度的置信度与目标置信阈值进行比较,对深度图中置信度小于目标置信阈值的像素单元,删除相应像素单元对应的深度。从而可以输出高质量深度图,并且,可以有效去除深度图内的异常点,比如飞像素点,改善深度图的平滑性。
本申请实施例的深度图处理方法,通过根据场景类型,确定对应的目标置信阈值,对深度图中置信度小于目标置信阈值的像素单元,删除相应像素单元对应的深度。由此,可以实现针对场景类型确定对应的目标置信阈值,从而根据该目标置信阈值,对深度图进行滤波处理,可以提高深度图的质量。
作为一种可能的实现方式,在对深度图内各像素单元进行滤波处理之后,可以将滤波处理后的深度图中各像素单元与成像图中的各像素单元进行对齐处理,以根据对齐后的成像图和深度图,确定成像图中各像素单元对应的深度。下面结合实施例五,对上述过程进行详细说明。
图5为本申请实施例五所提供的一种深度图处理方法的流程示意图。
如图5所示,在上述实施例的基础上,该深度图处理方法还可以包括以下步骤:
步骤501,将滤波处理后的深度图中各像素单元,与成像图中各像素单元对齐。
本申请实施例中,对齐处理可以包括去畸变、坐标转换等步骤。
需要说明的是,采集图像时,是将图像坐标转换为相机坐标系中,由于相机透镜可能存在一定的畸变,包括横向畸变和/或切向畸变,因此,为了提升图像的处理效果,可以对滤波处理后的深度图和/或成像图进行去畸变处理。具体地,通过相机标定,可以确定相机的内部参数,包括焦距、光心和畸变系数,因此,在去畸变处理时,可以进行相机透镜畸变处理,由相机坐标转换到图像坐标。
可以理解的是,RGB图像数据与深度图像数据的空间坐标系是不同的,前者的原点是RGB摄像头,后者的原点是红外摄像头,因此两者会有相应的误差,因此,在对齐处理时,可以将深度图上的2D点转换到世界坐标的3D点,再将世界坐标的3D点投影到成像图上。
步骤502,根据对齐后的成像图和深度图,确定成像图中各像素单元对应的深度。
本申请实施例中,在将成像图与深度图进行对齐处理后,可以根据对齐后的成像图和深度图,确定成像图中各像素单元对应的深度。具体地,针对成像图中的各像素单元,可以将深度图中对应像素单元对应的深度,作为该像素单元对应的深度。
需要说明的是,TOF相机和RGB摄像头的安装位置不同,两者的拍摄视角不同,在将深度图与成像图对齐后,可能导致成像图中存在部分像素单元缺失对应的深度,因此,本申请中,还可以对成像图进行平滑深度,补充缺失的深度。例如,针对成像图中各缺失深度的像素单元而言,可以利用该像素单元周围的像素单元对应的深度,确定该像素单元的深度,例如,可以将该像素单元周围的像素单元对应的深度取均值,作为该像素单元的深度。
作为一种可能的情况,在根据深度图,以及根据同步采集的成像图,识别场景类型后,还可以根据确定的场景类型,调整深度传感器的运行参数。下面结合实施例六对上述过程进行详细介绍,图6为本申请实施例六提供的一种深度图处理方法的流程示意图。
如图6所示,在上述实施例的基础上,该深度图处理方法还可以包括以下步骤:
步骤601,根据场景类型,查询运行参数表,得到对应的频率和功率。
其中,运行参数表,可以根据实验测试得到,还可以根据TOF硬件参数进行计算得到,当然,也可以通过其他方式产生,本实施例对此不做限制。
作为一种可能的实现方式,可以预先在运行参数表中存储深度传感器的运行参数与场景类型之间的对应关系,从而本申请中,在确定场景类型后,可以查询上述运行参数表,以得到场景类型对应的频率和功率。
举例来说,运行参数表中存储的深度传感器的运行参数与场景类型之间的对应关系为,第一场景类型对应于双频和高功率;第二场景类型对应于单频或者双频和中功率;第三场景类型对应于单频和低功率。本示例中,假如确定场景类型为第三场景类型,此时,背景较近,控制深度传感器调整为单一频率和低功率的红外光即可。
需要说明的是,本实施例中,深度传感器采集深度图时,发射的红外光的频率包括单一频率和双频率两种情况,例如,可以发射40Hz和60Hz两种频率的光中的任一种,也可以同时发射40Hz和60Hz两种频率的光。
步骤602,将深度传感器的运行参数调整为查询到的频率和功率。
本申请实施例中,根据场景类型,查询运行参数表,得到对应的频率和功率之后,将深度传感器的运行参数调整为查询到的频率和功率。
本申请实施例中,通过根据场景类型,查询运行参数表,得到对应的频率和功率,以将深度传感器的运行参数调整为查询到的频率和功率。由此,通过将深度传感器的运行参数调整为不同场景类型对应的运行参数,避免了现有技术中不同场景下,深度传感器采用固定的运行参数采集深度图,导致采集的深度图质量较低的技术问题,从而确保了输出的深度图的质量。
为了实现上述实施例,本申请还提出一种深度图处理装置。
图7为本申请实施例七提供的一种深度图处理装置的结构示意图。
如图7所示,该深度图处理装置100包括:获取模块110、识别模块120以及处理模块130。
其中,获取模块110,用于获取深度传感器采集的深度图和图像传感器采集的成像图。
本申请实施例中,电子设备可以包括深度传感器,通过深度传感器采集得到深度图,并且,采集得到的深度图中每个像素单元具有对应的深度和深度的置信度。
作为一种可能的情况,深度传感器可以为TOF相机;其中,TOF相机可以包括红外发射光源,通过红外发射光源向外发射光波信号,感光模组可以接收反射光波信号,从而根据发射光波信号与反射光波信号的相位变化,可以进行距离测量,得到对应的深度信息。
也就是说,每个像素单元对应的深度是根据红外光相位差生成的,而深度的置信度是根据红外光强确定的,其中,距离TOF相机越近,深度越小,深度的置信度越大,距离TOF相机越远,深度越大,深度的置信度越小。
本申请实施例中,成像图为二维的,可以通电子设备包含的图像传感器采集得到成像图。例如,电子设备可以包括RGB摄像头,通过该RGB摄像头采集得到成像图。
需要说明的是,成像图和深度图为同步采集的,例如,通过电子设备的RGB传感器和深度传感器同步采集成像图和深度图。
识别模块120,用于根据深度图和成像图,识别场景类型。
本申请实施例中,场景类型,可以根据采集深度图中背景到前景的距离进行划分,也可以根据背景到TOF相机的距离进行划分,也可以根据环境光亮度进行划分,本申请对此不做限制。
作为一种可能的实现方式,可以预先设置不同深度图中深度和深度的置信度与场景类型之间的对应关系,从而,本申请中,采集到深度图后,可以根据深度图的深度和深度的置信度,查询上述对应关系,以识别所属的场景类型。
作为一种示例,以场景类型是根据深度图中背景到前景的距离以及背景到TOF相机的距离进行划分的示例,假设当背景到TOF相机的距离较远,例如大于第一距离阈值(比如1.5米)时,确定该场景类型为场景类型1,当背景和前景的距离较近,比如小于第二距离阈值(比如0.2米)时,确定该场景类型为场景类型2,当背景和前景的距离较远,比如大于第三距离阈值(比如0.3米)时,确定场景类型为场景3,并建立上述距离与场景类型之间的对应关系。从而本申请中,采集到深度图后,可以根据深度图中的深度和深度的置信度,确定背景和前景的距离以及背景到TOF相机的距离,从而根据确定的结果,查询上述对应关系,确定所属的场景类型。
作为另一种可能的实现方式,还可以从成像图中识别感兴趣区域,根据深度图与成像图之间的映射关系,在深度图中确定感兴趣区域中各像素单元对应的深度和深度的置信度,进而,根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定场景类型。
处理模块130,用于根据场景类型,对深度图进行滤波处理。
本申请实施例中,在确定场景类型后,可以根据该场景类型,判断是否需要对深度图内各像素单元对应的深度进行滤波处理。
仍以上述例子示例,当场景类型为场景类型2时,由于前景和背景的距离较近,前景边缘较为清晰,飞像素点现象不明显,因此,可以确定无需对深度图中各像素单元的深度信息进行滤波处理,而当场景类型为场景类型1或者场景类型3时,由于前景和背景的距离较远,或者,背景的深度较大,此时,前景边缘可能较为模糊,飞像素点现象较为明显,因此,可以确定需要对深度图中各像素单元的深度信息进行滤波处理。
进一步地,在本申请实施例的一种可能的实现方式中,参见图8,在图6所示实施例的基础上,该深度图处理装置还可以包括:
识别模块120,包括:
识别单元121,用于从成像图中识别感兴趣区域。
本申请实施例中,感兴趣区域可以为用户感兴趣的物体所在的区域,其中,感兴趣的物体可以在电子设备的内置程序预先设定,或者,为了满足用户的个性化需求,感兴趣的物体还可以由用户进行设置,比如电子设备可以提供输入界面,用户可以根据自身需求在该输入界面,输入其感兴趣的物体,本申请对此并不做限制。
作为一种可能的实现方式,为了提升感兴趣区域识别结果的准确性,可以基于深度学习的图像处理技术,在成像图中识别该感兴趣区域。
例如,可以采用语义分割模型,对成像图进行识别,确定感兴趣区域,其中,语义分割模块可以为相关技术中较为成熟的语义分割模型,比如为deeplab、psp等模型,对此不作限制。具体地,可以预先采集训练图像,或者从互联网上下载训练图像,而后可以对训练图像中感兴趣的物体所在的区域进行标注,利用标注后的训练图像,对初始的语义分割模型进行训练,训练后的语义分割模型可以学习得到图像与感兴趣区域之间的对应关系。
或者,还可以采用预先训练的识别模型,对成像图进行识别,确定感兴趣区域,其中,上述预先训练的识别模型,已学习得到颜色特征、形状特征、边缘特征和/或纹理特征与感兴趣区域之间的对应关系。
作为另一种可能的实现方式,还可以基于RGB颜色分割方法,从成像图中识别感兴趣区域。例如,当感兴趣区域为手部区域时,可以将RGB颜色空间的成像图转化到HSV颜色空间进行手部皮肤检测,并对检测结果进行二值化,比如检测到皮肤,则将像素单元对应的取值设为1,若未检测到皮肤,则将像素单元对应的取值设为0,之后,对各个包含取值1的区域,进行像素单元个数的统计,从而可以将统计结果最大的区域,作为手部区域。
需要说明的是,还可以基于其他算法,从成像图中识别感兴趣区域,本申请对此并不做限制。
第一确定模块122,用于根据深度图,确定感兴趣区域中各像素单元对应的深度和深度的置信度。
本申请实施例中,在从成像图中识别到感兴趣区域后,第一确定模块122,可以根据深度图和成像图之间的映射关系,在深度图中,确定与成像图中感兴趣区域相应的目标区域。
具体地,在从成像图中识别到感兴趣区域后,针对该感兴趣区域中的每个像素单元,可以根据深度图和成像图之间的映射关系,在深度图中,确定感兴趣区域中各像素单元对应的深度和深度的置信度。
第二确定模块123,用于根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定场景类型。
本申请实施例中,在确定感兴趣区域中各像素单元对应的深度和深度的置信度之后,根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定场景类型。
作为一种可能的实现方式,可以预先设置不同深度和深度的置信度与场景类型之间的对应关系,从而,本申请中,在确定感兴趣区域中各像素单元对应的深度和深度的置信度后,可以根据深度和深度的置信度,查询上述对应关系,确定该感兴趣区域所属的场景类型。
作为一种示例,以场景类型是根据深度图中背景到前景的距离以及背景到TOF相机的距离进行划分为例,假设当背景到TOF相机的距离较远,例如大于第一距离阈值时,确定该场景类型为场景类型1,当背景和前景的距离较近,比如小于第二距离阈值时,确定该场景类型为场景类型2,当背景和前景的距离较远,比如大于第二阈值,且小于第三阈值时,确定场景类型为场景3,并建立上述距离与场景类型之间的对应关系。从而本申请中,在确定感兴趣区域中各像素单元对应的深度和深度的置信度后,可以根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定背景和前景的距离以及背景到TOF相机的距离,从而根据确定的结果,查询上述对应关系,确定该感兴趣区域所属的场景类型。
作为另一种可能的实现方式,可以分别对感兴趣区域中各像素单元对应的深度和深度的置信度进行统计,得到深度的分布以及置信度的分布,以根据深度的分布和置信度的分布,确定场景类型。
其中,深度的分布,用于指示各深度区间的像素单元占比;置信度的分布,用于指示各置信度区间的像素单元占比。
作为另一种可能的实现方式,第二确定模块123,还可以用于对感兴趣区域中各像素单元对应的深度进行统计得到深度的分布,以及对置信度进行统计得到置信度的分布;根据深度的分布和置信度的分布,确定场景类型;
其中,深度的分布,用于指示各深度区间的像素单元占比;置信度的分布,用于指示各置信度区间的像素单元占比。
本申请实施例中,在确定感兴趣区域中各像素单元对应的深度和深度的置信度之后,根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定场景类型。
作为一种可能的实现方式,可以预先设置不同深度和深度的置信度与场景类型之间的对应关系,从而,本申请中,在确定感兴趣区域中各像素单元对应的深度和深度的置信度后,可以根据深度和深度的置信度,查询上述对应关系,确定该感兴趣区域所属的场景类型。
作为一种示例,以场景类型是根据深度图中背景到前景的距离以及背景到TOF相机的距离进行划分为例,假设当背景到TOF相机的距离较远,例如大于第一距离阈值时,确定该场景类型为场景类型1,当背景和前景的距离较近,比如小于第二距离阈值时,确定该场景类型为场景类型2,当背景和前景的距离较远,比如大于第二阈值,且小于第三阈值时,确定场景类型为场景3,并建立上述距离与场景类型之间的对应关系。从而本申请中,在确定感兴趣区域中各像素单元对应的深度和深度的置信度后,可以根据感兴趣区域中各像素单元对应的深度和深度的置信度,确定背景和前景的距离以及背景到TOF相机的距离,从而根据确定的结果,查询上述对应关系,确定该感兴趣区域所属的场景类型。
作为另一种可能的实现方式,可以分别对感兴趣区域中各像素单元对应的深度和深度的置信度进行统计,得到深度的分布以及置信度的分布,以根据深度的分布和置信度的分布,确定场景类型。
本申请实施例中,从成像图中识别到感兴趣区域,根据深度图,确定感兴趣区域中各像素单元对应的深度和深度的置信度后,对深度图中各像素单元进行统计,可以得到深度的分布和置信度的分布。
作为一种可能的实现方式,对深度图中各像素单元进行统计得到深度的分布,具体地,对获取到的深度图,预先设定深度区间,进而统计深度图中各深度区间内像素单元的个数,计算各深度区间内像素单元的个数与深度图的像素单元总个数之比,得到各深度区间的像素单元占比,进而得到深度的分布。由此,可以确定有效测量范围内,场景的深度的分布。
作为另一种可能的实现方式,对深度图中各像素单元进行统计得到置信度的分布,具体地,对获取到的深度图,预先设定置信度区间,统计深度属于相应置信度区间的像素单元个数,计算各像素单元个数与深度图的像素单元总个数之比,得到相应置信度区间的像素单元占比,进而得到置信度的分布。
作为另一种可能的实现方式,第二确定模块123,还可以用于:根据置信度的分布,若确定感兴趣区域存在超出测量范围的背景,识别为第一场景类型;根据置信度的分布,若确定不存在超出测量范围的背景,根据深度的分布,确定感兴趣区域中背景与前景之间的距离等级;根据距离等级,识别为第二场景类型,或者第三场景类型;其中,第二场景类型中背景与前景之间的距离大于第三场景类型中背景与前景之间的距离。
需要说明的是,背景距离TOF相机越近,深度的置信度越大,背景距离TOF相机越远,深度的置信度越小,因此,本申请实施例中,根据感兴趣区域中各像素单元对应的置信度的分布,可以确定感兴趣区域是否存在超出测量范围的背景。
作为一种可能的实现方式,可以判断感兴趣区域中是否存在置信度小于第一置信阈值的像素单元,若是,则确定感兴趣区域中存在超出测量范围的背景,若否,则确定感兴趣区域中不存在超出测量范围的背景。
其中,第一置信阈值可以根据可测量范围预先确定,比如,可以预先确定在近景拍摄时,对应的可测量范围,从而根据该可测量范围,确定第一置信阈值,或者,也可以预先确定在远景拍摄时,对应的可测量范围,从而根据该可测量范围,确定第一置信阈值。在用户拍摄图像时,可以根据用户的操作,确定为近景拍摄还是为远景拍摄,从而可以确定对应的第一置信阈值。
需要说明的是,由于感兴趣区域中可能存在异常点、干扰点,或者,感兴趣区域中只存在较小部分的背景区域,比如只存在一个小墙角,因此,若成像图中仅存在几个或较少个数的像素单元对应深度的置信度小于置信阈值,即确定感兴趣区域中存在超出测量范围的背景显然是不合理的。
因此,作为另一种可能的实现方式,为了提升判断结果的准确性,可以对感兴趣区域中,对应置信度小于置信阈值的像素单元统计个数,得到第一像素个数,并确定第一像素个数与所述感兴趣区域内总像素个数之比,得到第一比值,并判断第一比值是否大于第一阈值,若是,则确定感兴趣区域中存在超出测量范围的背景,若否,则确定所述感兴趣区域中不存在超出测量范围的背景。其中,第一比值为预先设置的,比如,第一比值可以为10%。
本申请实施例中,当确定存在超出测量范围的背景,即背景较远时,识别感兴趣区域所属场景类型为第一场景类型。
本申请实施例中,当确定不存在超出测量范围的背景时,可以根据感兴趣区域中各像素单元对应的深度分布,确定感兴趣区域中背景与前景之间的距离等级。
作为一种可能的实现方式,可以根据感兴趣区域中各像素单元的深度分布,确定最大深度和最小深度,根据最大深度和最小深度之比或之差,确定感兴趣区域中背景与前景之间的距离等级。
需要说明的是,由于感兴趣区域中可能存在异常点、干扰点,导致相应像素单元对应深度的置信度较小(距离摄像头较远),若将该像素单元对应的深度,作为最大深度显然是不合理的。因此,作为又一种可能的实现方式,为了提升判断结果的准确性,可以对所述感兴趣区域,从各像素单元对应深度中,筛选出置信度大于第二置信阈值的目标深度,并从目标深度中,确定最大深度和最小深度,从而可以根据最大深度和最小深度之比或之差,确定感兴趣区域中背景与前景之间的距离等级。其中,第二置信阈值为预先确定的。
举例而言,当最大深度和最小深度之比越大,或者最大深度和最小深度之差越大时,可以确定距离等级越大,而当最大深度和最小深度之比越小,或者最大深度和最小深度之差越小,可以确定距离等级越小。其中,距离等级越大,前景与背景之间的距离越远,距离等级越小,前景与背景之间的距离越近。
本申请实施例中,在确定距离等级后,可以根据该距离等级,识别感兴趣区域属于第二场景类型还是第三场景类型。其中,第二场景类型中背景与前景之间的距离大于第三场景类型中背景与前景之间的距离。
作为一种可能的实现方式,可以预先建立距离等级与场景类型之间的对应关系,从而本申请中,在确定距离等级后,可以查询上述对应关系,确定感兴趣区域所属场景等级。
作为另一种可能的实现方式,该深度图处理装置还可以包括:
确定模块140,用于确定场景类型为第第一场景类型或者第二场景类型。
作为另一种可能的实现方式,处理模块130,还包括:
确定单元131,用于根据场景类型,确定对应的目标置信阈值。
本申请实施例中,确定的场景类型不同时,可以根据场景类型确定对应的阈值确定策略,以根据阈值确定策略,对深度图内各像素单元的置信度处理,得到目标置信阈值。
在一种可能的情况下,确定场景类型为第一场景类型时,可以根据感兴趣区域中各像素单元对应的置信度,按照置信度从大到小对像素单元排序,得到排序在前的多个像素单元。进而,根据多个像素单元对应置信度的中值,确定目标置信阈值。
本申请实施例中,针对感兴趣区域,可以将该感兴趣区域中所有像素单元对应深度的置信度,按照置信度大小按序排列,比如按照置信度从大到小排序,得到排序在前的多个像素单元。
需要说明的是,多个像素单元的个数,可以为感兴趣区域中包含的像素单元总个数与固定比例的乘积。其中,0<固定比例≤1,该固定比例可以由电子设备的内置程序预先设定,或者还可以由用户进行设置,对此不作限制,比如固定比例可以为10%。
此外,多个像素单元的个数,还可以与感兴趣区域中包含的像素单元总个数具有正向关系,即多个像素单元的个数可以随着感兴趣区域中包含的像素单元总个数的增大而增大,或者,多个像素单元的个数可以随着感兴趣区域中包含的像素单元总个数的减小而减小。
本申请实施例中,在确定排序在前的多个像素单元后,比如,标记多个像素单元的个数为N,若N为奇数,则多个像素单元对应置信度的中值,可以为处于序列中第(N+1)/2个位置的像素单元对应深度的置信度;若N为偶数,则多个像素单元对应置信度的中值,可以为处于序列中第N/2个位置的像素单元对应深度的置信度,或者为处于序列中第(N/2+1)个位置的像素单元对应深度的置信度,或者为处于序列中第N/2个位置像素单元对应深度的置信度和第(N/2+1)个位置的像素单元对应深度的置信度的均值。在确定多个像素单元对应置信度的中值后,可以将该中值,作为目标置信阈值。
在另一种可能的情况下,确定场景类型为第二场景类型时,可以将深度图中各像素单元划分为第一部分和第二部分,且第一部分与第二部分的之间的置信度方差最大;其中,第一部分中各像素单元对应深度的置信度大于第二部分中各像素单元对应深度的置信度。进而,根据第一部分中各像素单元对应深度的置信度,确定目标置信阈值。
删除单元132,用于对深度图中置信度小于目标置信阈值的像素单元,删除相应像素单元对应的深度。
本申请实施例中,根据场景类型确定对应的目标置信阈值后,可以将深度图中各像素单元对应的深度的置信度与目标置信阈值进行比较,对深度图中置信度小于目标置信阈值的像素单元,删除相应像素单元对应的深度。从而可以输出高质量深度图,并且,可以有效去除深度图内的异常点,比如飞像素点,改善深度图的平滑性。
作为另一种可能的实现方式,确定单元131,还用于根据场景类型,确定对应的阈值确定策略;根据阈值确定策略,对深度图内各像素单元的置信度处理,得到目标置信阈值。
作为另一种可能的实现方式,该深度图处理装置还可以包括:
调整模块150,用于根据场景类型,调整深度传感器的运行参数。
其中,深度传感器为飞行时间TOF相机,运行参数包括所述TOF发射的红外光的功率和红外光的频率;红外光的频率包括单一频率和双频率;调整模块150,还可以具体用于:根据场景类型,查询运行参数表,得到对应的频率和功率;将深度传感器调整为查询到的频率和功率。
其中,运行参数表,可以根据实验测试得到,还可以根据TOF硬件参数进行计算得到,当然,也可以通过其他方式产生,本实施例对此不做限制。
作为一种可能的实现方式,可以预先在运行参数表中存储深度传感器的运行参数与场景类型之间的对应关系,从而本申请中,在确定场景类型后,可以查询上述运行参数表,以得到场景类型对应的频率和功率。
举例来说,运行参数表中存储的深度传感器的运行参数与场景类型之间的对应关系为,第一场景类型对应于双频和高功率;第二场景类型对应于单频或者双频和中功率;第三场景类型对应于单频和低功率。本示例中,假如确定场景类型为第三场景类型,此时,背景较近,控制深度传感器调整为单一频率和低功率的红外光即可。
需要说明的是,本实施例中,深度传感器采集深度图时,发射的红外光的频率包括单一频率和双频率两种情况,例如,可以发射40Hz和60Hz两种频率的光中的任一种,也可以同时发射40Hz和60Hz两种频率的光。
本申请实施例中,根据场景类型,查询运行参数表,得到对应的频率和功率之后,调整模块150将深度传感器的运行参数调整为查询到的频率和功率。
需要说明的是,前述对深度图处理方法实施例的解释说明也适用于该实施例的深度图处理装置,此处不再赘述。
本申请实施例的深度图处理装置,通过获取深度传感器采集的深度图和图像传感器采集的成像图;根据深度图和成像图,识别场景类型;根据场景类型,对深度图进行滤波处理。由此,可以实现根据不同的场景类型,自适应的选取滤波方式对深度图进行滤波处理,以输出高质量的深度图,从而提高了深度图的质量。
为了实现上述实施例,本申请还提出一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时,实现如本申请前述实施例提出的深度图处理方法。
为了实现上述实施例,本申请还提出一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请前述实施例提出的深度图处理方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (12)
1.一种深度图处理方法,其特征在于,所述方法包括:
获取深度传感器采集的深度图和图像传感器采集的成像图;
根据所述深度图和所述成像图,识别场景类型;
根据所述场景类型,对所述深度图进行滤波处理。
2.根据权利要求1所述的深度图处理方法,其特征在于,所述根据所述深度图和所述成像图,识别场景类型,包括:
从所述成像图中识别感兴趣区域;
根据所述深度图,确定所述感兴趣区域中各像素单元对应的深度和深度的置信度;
根据所述感兴趣区域中各像素单元对应的深度和深度的置信度,确定所述场景类型。
3.根据权利要求2所述的深度图处理方法,其特征在于,所述根据所述感兴趣区域中各像素单元对应的深度和深度的置信度,确定所述场景类型,包括:
对所述感兴趣区域中各像素单元对应的深度进行统计得到深度的分布,以及对所述置信度进行统计得到置信度的分布;
根据所述深度的分布和所述置信度的分布,确定所述场景类型;
其中,所述深度的分布,用于指示各深度区间的像素单元占比;所述置信度的分布,用于指示各置信度区间的像素单元占比。
4.根据权利要求3所述的深度图处理方法,其特征在于,所述根据所述深度的分布和所述置信度的分布,确定所述场景类型,包括:
根据所述置信度的分布,若确定所述感兴趣区域存在超出测量范围的背景,识别为第一场景类型;
根据所述置信度的分布,若确定不存在超出测量范围的背景,根据所述深度的分布,确定所述感兴趣区域中背景与前景之间的距离等级;根据所述距离等级,识别为第二场景类型,或者第三场景类型;其中,所述第二场景类型中背景与前景之间的距离大于所述第三场景类型中背景与前景之间的距离。
5.根据权利要求4所述的深度图处理方法,其特征在于,所述根据所述场景类型,对所述深度图进行滤波处理之前,还包括:
确定所述场景类型为所述第一场景类型或者所述第二场景类型。
6.根据权利要求1所述的深度图处理方法,其特征在于,所述根据所述场景类型,对所述深度图进行滤波处理,包括:
根据所述场景类型,确定对应的目标置信阈值;
对所述深度图中置信度小于所述目标置信阈值的像素单元,删除相应像素单元对应的深度。
7.根据权利要求6所述的深度图处理方法,其特征在于,所述根据所述场景类型,确定对应的目标置信阈值,包括:
根据所述场景类型,确定对应的阈值确定策略;
根据所述阈值确定策略,对所述深度图内各像素单元的置信度处理,得到所述目标置信阈值。
8.根据权利要求1-7任一项所述的深度图处理方法,其特征在于,所述识别场景类型之后,还包括:
所述根据所述场景类型,调整所述深度传感器的运行参数。
9.根据权利要求8所述的深度图处理方法,其特征在于,所述深度传感器为飞行时间TOF相机,所述运行参数包括所述TOF发射的红外光的功率和所述红外光的频率;
所述根据所述场景类型,调整所述深度传感器的运行参数,包括:
根据所述场景类型,查询运行参数表,得到对应的频率和功率;
将所述深度传感器的运行参数调整为查询到的频率和功率。
10.一种深度图处理装置,其特征在于,所述装置包括:
获取模块,用于获取深度传感器采集的深度图和图像传感器采集的成像图;
识别模块,用于根据所述深度图和所述成像图,识别场景类型;
处理模块,用于根据所述场景类型,对所述深度图进行滤波处理。
11.一种电子设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如权利要求1-9中任一所述的深度图处理方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-9中任一所述的深度图处理方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910623071.XA CN110378946B (zh) | 2019-07-11 | 2019-07-11 | 深度图处理方法、装置以及电子设备 |
US15/931,041 US11205278B2 (en) | 2019-07-11 | 2020-05-13 | Depth image processing method and apparatus, and electronic device |
PCT/CN2020/096620 WO2021004245A1 (en) | 2019-07-11 | 2020-06-17 | Depth image processing method and apparatus, and electronic device |
EP20180892.0A EP3764317A1 (en) | 2019-07-11 | 2020-06-18 | Depth image processing method and apparatus, and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910623071.XA CN110378946B (zh) | 2019-07-11 | 2019-07-11 | 深度图处理方法、装置以及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110378946A true CN110378946A (zh) | 2019-10-25 |
CN110378946B CN110378946B (zh) | 2021-10-01 |
Family
ID=68252697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910623071.XA Active CN110378946B (zh) | 2019-07-11 | 2019-07-11 | 深度图处理方法、装置以及电子设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11205278B2 (zh) |
EP (1) | EP3764317A1 (zh) |
CN (1) | CN110378946B (zh) |
WO (1) | WO2021004245A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111366916A (zh) * | 2020-02-17 | 2020-07-03 | 北京睿思奥图智能科技有限公司 | 确定交互目标与机器人之间距离的方法、装置及电子设备 |
CN111538024A (zh) * | 2020-03-24 | 2020-08-14 | 深圳奥比中光科技有限公司 | 一种滤波ToF深度测量方法及装置 |
CN111553940A (zh) * | 2020-05-19 | 2020-08-18 | 上海海栎创微电子有限公司 | 一种深度图人像边缘优化方法及处理装置 |
WO2021004245A1 (en) * | 2019-07-11 | 2021-01-14 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Depth image processing method and apparatus, and electronic device |
WO2022109796A1 (zh) * | 2020-11-24 | 2022-06-02 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、摄像头组件及电子设备 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256539B (zh) * | 2021-07-01 | 2021-11-02 | 武汉市聚芯微电子有限责任公司 | 深度图像的去混叠方法、装置、设备及计算机存储介质 |
CN113420700B (zh) * | 2021-07-02 | 2022-10-25 | 支付宝(杭州)信息技术有限公司 | 手掌生物特征采集装置及方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102271254A (zh) * | 2011-07-22 | 2011-12-07 | 宁波大学 | 一种深度图像的预处理方法 |
US20120087572A1 (en) * | 2010-10-11 | 2012-04-12 | Goksel Dedeoglu | Use of Three-Dimensional Top-Down Views for Business Analytics |
CN102714741A (zh) * | 2009-10-14 | 2012-10-03 | 汤姆森特许公司 | 深度图处理的方法和设备 |
CN102867288A (zh) * | 2011-07-07 | 2013-01-09 | 三星电子株式会社 | 深度图像转换设备和方法 |
CN102883170A (zh) * | 2011-07-12 | 2013-01-16 | 索尼公司 | 图像处理装置、图像处理方法及图像处理程序 |
CN106662651A (zh) * | 2014-06-11 | 2017-05-10 | 软动力学传感器公司 | Tof相机系统以及用于测量与该系统的距离的方法 |
CN107133982A (zh) * | 2017-04-28 | 2017-09-05 | 广东欧珀移动通信有限公司 | 深度图构建方法、装置及拍摄设备、终端设备 |
CN108764370A (zh) * | 2018-06-08 | 2018-11-06 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和计算机设备 |
CN108777815A (zh) * | 2018-06-08 | 2018-11-09 | Oppo广东移动通信有限公司 | 视频处理方法和装置、电子设备、计算机可读存储介质 |
CN108983219A (zh) * | 2018-08-17 | 2018-12-11 | 北京航空航天大学 | 一种交通场景的图像信息和雷达信息的融合方法及系统 |
CN109218619A (zh) * | 2018-10-12 | 2019-01-15 | 北京旷视科技有限公司 | 图像获取方法、装置和系统 |
CN109615596A (zh) * | 2018-12-05 | 2019-04-12 | 青岛小鸟看看科技有限公司 | 一种深度图像的去噪方法、装置和电子设备 |
CN109819238A (zh) * | 2019-02-22 | 2019-05-28 | 北京旷视科技有限公司 | Tof图像采集模块的工作频率调节方法、装置和电子系统 |
CN109961406A (zh) * | 2017-12-25 | 2019-07-02 | 深圳市优必选科技有限公司 | 一种图像处理的方法、装置及终端设备 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8885890B2 (en) | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
KR101870902B1 (ko) | 2011-12-12 | 2018-06-26 | 삼성전자주식회사 | 영상 처리 장치 및 영상 처리 방법 |
JP6140935B2 (ja) | 2012-05-17 | 2017-06-07 | キヤノン株式会社 | 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置 |
RU2014110361A (ru) * | 2014-03-18 | 2015-09-27 | ЭлЭсАй Корпорейшн | Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях |
KR102206866B1 (ko) * | 2014-05-02 | 2021-01-25 | 삼성전자주식회사 | 전자 장치 및 전자 장치에서 촬영 방법 |
JP5980294B2 (ja) * | 2014-10-27 | 2016-08-31 | キヤノン株式会社 | データ処理装置、撮像装置、およびデータ処理方法 |
GB2532003A (en) * | 2014-10-31 | 2016-05-11 | Nokia Technologies Oy | Method for alignment of low-quality noisy depth map to the high-resolution colour image |
FR3028988B1 (fr) | 2014-11-20 | 2018-01-19 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Procede et dispositif de filtrage adaptatif temps reel d'images de disparite ou de profondeur bruitees |
US9852495B2 (en) | 2015-12-22 | 2017-12-26 | Intel Corporation | Morphological and geometric edge filters for edge enhancement in depth images |
US10097793B2 (en) * | 2016-07-14 | 2018-10-09 | Intel Corporation | Method and system of depth data filling of shadows for image processing |
KR102320198B1 (ko) | 2017-04-05 | 2021-11-02 | 삼성전자주식회사 | 깊이 영상 보정 방법 및 장치 |
US10362296B2 (en) * | 2017-08-17 | 2019-07-23 | Microsoft Technology Licensing, Llc | Localized depth map generation |
US10643336B2 (en) * | 2018-03-06 | 2020-05-05 | Sony Corporation | Image processing apparatus and method for object boundary stabilization in an image of a sequence of images |
CN108564620B (zh) | 2018-03-27 | 2020-09-04 | 中国人民解放军国防科技大学 | 一种针对光场阵列相机的场景深度估计方法 |
US10755426B2 (en) * | 2018-05-23 | 2020-08-25 | Apple Inc. | Efficient scene depth map enhancement for low power devices |
CN112102386A (zh) | 2019-01-22 | 2020-12-18 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN110400342B (zh) | 2019-07-11 | 2021-07-06 | Oppo广东移动通信有限公司 | 深度传感器的参数调整方法、装置以及电子设备 |
CN110378945B (zh) | 2019-07-11 | 2021-06-18 | Oppo广东移动通信有限公司 | 深度图处理方法、装置和电子设备 |
CN110378946B (zh) | 2019-07-11 | 2021-10-01 | Oppo广东移动通信有限公司 | 深度图处理方法、装置以及电子设备 |
-
2019
- 2019-07-11 CN CN201910623071.XA patent/CN110378946B/zh active Active
-
2020
- 2020-05-13 US US15/931,041 patent/US11205278B2/en active Active
- 2020-06-17 WO PCT/CN2020/096620 patent/WO2021004245A1/en active Application Filing
- 2020-06-18 EP EP20180892.0A patent/EP3764317A1/en active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102714741A (zh) * | 2009-10-14 | 2012-10-03 | 汤姆森特许公司 | 深度图处理的方法和设备 |
US20120087572A1 (en) * | 2010-10-11 | 2012-04-12 | Goksel Dedeoglu | Use of Three-Dimensional Top-Down Views for Business Analytics |
CN102867288A (zh) * | 2011-07-07 | 2013-01-09 | 三星电子株式会社 | 深度图像转换设备和方法 |
CN102883170A (zh) * | 2011-07-12 | 2013-01-16 | 索尼公司 | 图像处理装置、图像处理方法及图像处理程序 |
CN102271254A (zh) * | 2011-07-22 | 2011-12-07 | 宁波大学 | 一种深度图像的预处理方法 |
CN106662651A (zh) * | 2014-06-11 | 2017-05-10 | 软动力学传感器公司 | Tof相机系统以及用于测量与该系统的距离的方法 |
CN107133982A (zh) * | 2017-04-28 | 2017-09-05 | 广东欧珀移动通信有限公司 | 深度图构建方法、装置及拍摄设备、终端设备 |
CN109961406A (zh) * | 2017-12-25 | 2019-07-02 | 深圳市优必选科技有限公司 | 一种图像处理的方法、装置及终端设备 |
CN108764370A (zh) * | 2018-06-08 | 2018-11-06 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和计算机设备 |
CN108777815A (zh) * | 2018-06-08 | 2018-11-09 | Oppo广东移动通信有限公司 | 视频处理方法和装置、电子设备、计算机可读存储介质 |
CN108983219A (zh) * | 2018-08-17 | 2018-12-11 | 北京航空航天大学 | 一种交通场景的图像信息和雷达信息的融合方法及系统 |
CN109218619A (zh) * | 2018-10-12 | 2019-01-15 | 北京旷视科技有限公司 | 图像获取方法、装置和系统 |
CN109615596A (zh) * | 2018-12-05 | 2019-04-12 | 青岛小鸟看看科技有限公司 | 一种深度图像的去噪方法、装置和电子设备 |
CN109819238A (zh) * | 2019-02-22 | 2019-05-28 | 北京旷视科技有限公司 | Tof图像采集模块的工作频率调节方法、装置和电子系统 |
Non-Patent Citations (1)
Title |
---|
蔡健荣 等: "马铃薯薄片干燥过程形态变化三维成像", 《农业工程学报》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021004245A1 (en) * | 2019-07-11 | 2021-01-14 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Depth image processing method and apparatus, and electronic device |
US11205278B2 (en) | 2019-07-11 | 2021-12-21 | Shenzhen Heytap Technology Corp., Ltd. | Depth image processing method and apparatus, and electronic device |
CN111366916A (zh) * | 2020-02-17 | 2020-07-03 | 北京睿思奥图智能科技有限公司 | 确定交互目标与机器人之间距离的方法、装置及电子设备 |
CN111366916B (zh) * | 2020-02-17 | 2021-04-06 | 山东睿思奥图智能科技有限公司 | 确定交互目标与机器人之间距离的方法、装置及电子设备 |
CN111538024A (zh) * | 2020-03-24 | 2020-08-14 | 深圳奥比中光科技有限公司 | 一种滤波ToF深度测量方法及装置 |
CN111553940A (zh) * | 2020-05-19 | 2020-08-18 | 上海海栎创微电子有限公司 | 一种深度图人像边缘优化方法及处理装置 |
CN111553940B (zh) * | 2020-05-19 | 2023-06-16 | 上海海栎创科技股份有限公司 | 一种深度图人像边缘优化方法及处理装置 |
WO2022109796A1 (zh) * | 2020-11-24 | 2022-06-02 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、摄像头组件及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
EP3764317A1 (en) | 2021-01-13 |
WO2021004245A1 (en) | 2021-01-14 |
US20210012516A1 (en) | 2021-01-14 |
CN110378946B (zh) | 2021-10-01 |
US11205278B2 (en) | 2021-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110378945A (zh) | 深度图处理方法、装置和电子设备 | |
CN110378946A (zh) | 深度图处理方法、装置以及电子设备 | |
CN110400338A (zh) | 深度图处理方法、装置和电子设备 | |
CN108765278B (zh) | 一种图像处理方法、移动终端及计算机可读存储介质 | |
WO2018161877A1 (zh) | 处理方法、处理装置、电子装置和计算机可读存储介质 | |
CN1328700C (zh) | 伪三维图像生成设备和方法 | |
CN105659200B (zh) | 用于显示图形用户界面的方法、设备和系统 | |
WO2018161289A1 (zh) | 基于深度的控制方法、基于深度的控制装置和电子装置 | |
CN106991654A (zh) | 基于深度的人体美化方法和装置及电子装置 | |
CN107832677A (zh) | 基于活体检测的人脸识别方法及系统 | |
CN107479801A (zh) | 基于用户表情的终端显示方法、装置及终端 | |
CN106937049A (zh) | 基于景深的人像色彩的处理方法、处理装置和电子装置 | |
CN109344715A (zh) | 智能构图控制方法、装置、电子设备及存储介质 | |
CN103262119A (zh) | 用于对图像进行分割的方法和系统 | |
CN110400342A (zh) | 深度传感器的参数调整方法、装置以及电子设备 | |
WO2010078586A1 (en) | Detecting skin tone in images | |
CN104616002A (zh) | 用于年龄段判断的面部识别设备 | |
CN110378944A (zh) | 深度图处理方法、装置和电子设备 | |
CN106991378A (zh) | 基于深度的人脸朝向检测方法、检测装置和电子装置 | |
CN106537217A (zh) | 宽视野深度成像 | |
CN113029349A (zh) | 一种温度监测方法、装置、存储介质及设备 | |
CN210605740U (zh) | 基于活体感应运动趋势检测的无线传感人脸识别装置 | |
CN102708586A (zh) | 从3d范围图像进行基于绘制的界标定位 | |
CN116681613A (zh) | 人脸关键点检测的仿光照增强方法、装置、介质及设备 | |
Sandnes et al. | Simple and practical skin detection with static RGB-color lookup tables: A visualization-based study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |