CN111160309B - 一种图像处理方法和相关设备 - Google Patents

一种图像处理方法和相关设备 Download PDF

Info

Publication number
CN111160309B
CN111160309B CN201911426013.4A CN201911426013A CN111160309B CN 111160309 B CN111160309 B CN 111160309B CN 201911426013 A CN201911426013 A CN 201911426013A CN 111160309 B CN111160309 B CN 111160309B
Authority
CN
China
Prior art keywords
depth
image
target face
determining
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911426013.4A
Other languages
English (en)
Other versions
CN111160309A (zh
Inventor
李禹源
胡文泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Intellifusion Technologies Co Ltd
Original Assignee
Shenzhen Intellifusion Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Intellifusion Technologies Co Ltd filed Critical Shenzhen Intellifusion Technologies Co Ltd
Priority to CN201911426013.4A priority Critical patent/CN111160309B/zh
Publication of CN111160309A publication Critical patent/CN111160309A/zh
Application granted granted Critical
Publication of CN111160309B publication Critical patent/CN111160309B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了一种图像处理方法和相关设备,应用于电子设备,所述电子设备包括RGB摄像头和深度摄像头。其中,所述方法包括:通过所述RGB摄像头获取目标人脸的RGB图像,并通过所述深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应;在所述目标人脸的RGB图像中确定第一区域;根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域;根据所述第二区域对所述目标人脸的第一深度图像进行处理。可见,通过本申请提供的技术方案,能够得到清晰有效的人脸深度信息,有利于人脸深度信息的应用。

Description

一种图像处理方法和相关设备
技术领域
本申请涉及图像处理技术领域,具体涉及一种图像处理方法和相关设备。
背景技术
近年来,人脸图像三维信息促进了计算机视觉在人脸检测、人脸识别以及3D活体检测等应用领域的发展。人脸深度图像作为一种普遍的人脸三维信息的表达形式,其每个像素点表征场景中某一点到深度摄像头的距离。
然而,深度摄像头采集到的深度图像易受到多种噪声干扰,往往因深度值丢失而造成人脸图像的五官存在大量的黑洞,从而导致了人脸深度信息不能被充分地利用。此外,由于人脸深度范围在10~20cm之间,相对较窄;且与背景相比,人脸深度值相对较小。因此,现有人脸深度图像处理方法难以精确地定位到人脸在深度图像中的深度范围,导致人脸深度信息无法充分地被表征,从而很大程度地影响人脸深度信息在相关领域的应用。
发明内容
本申请实施例提供了一种图像处理方法及相关设备,能够得到清晰有效的人脸深度信息,有利于人脸深度信息的应用。
第一方面,本申请实施例提供了一种图像处理方法,应用于电子设备,所述电子设备包括RGB摄像头和深度摄像头,所述方法包括:
通过所述RGB摄像头获取目标人脸的RGB图像,并通过所述深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应;
在所述目标人脸的RGB图像中确定第一区域;
根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域;
根据所述第二区域对所述目标人脸的第一深度图像进行处理。
第二方面,本申请实施例提供了一种图像处理装置,应用于电子设备,所述电子设备包括RGB摄像头和深度摄像头,所述装置包括处理单元,所述处理单元用于:
通过所述RGB摄像头获取目标人脸的RGB图像,并通过所述深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应;
以及在所述目标人脸的RGB图像中确定第一区域;
以及根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域;
以及根据所述第二区域对所述第一深度图像进行处理。
第三方面,本申请实施例提供了一种图像处理芯片,包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片的设备执行如本申请实施例第一方面任一方法中所描述的部分或全部步骤。
第四方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行如本申请实施例第一方面所述的方法中所描述的部分或全部步骤的指令。
第五方面,本申请实施例提供了一种计算机可读存储介质,其中,上述计算机可读存储介质用于存储计算机程序,其中,上述计算机程序被处理器执行,以实现如本申请实施例第一方面所述的方法中所描述的部分或全部步骤。
第六方面,本申请实施例提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面所述的方法中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
可以看出,本申请提供的技术方案,电子设备通过RGB摄像头获取目标人脸的RGB图像,并通过深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应;在所述目标人脸的RGB图像中确定第一区域;根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域;根据所述第二区域对所述目标人脸的第一深度图像进行处理。可见,在本申请提供的技术方案中,电子设备将采集到人脸的RGB图像和深度图像进行时间和空间上的配准,确保RGB图和深度图像的像素点之间是一一对应的,然后在RGB图像中确定该人脸的五官位置(第一区域),由于深度图像的像素点之间是一一对应的,也即相当于在深度图像中确定了该人脸的五官位置(第二区域),再根据该人脸的五官在深度图像中的位置对图像进行处理(五官部位黑洞补全、去除人脸以外的背景),得到清晰有效的人脸深度信息,有利于人脸深度信息的应用。
本申请的这些方面或其他方面在以下实施例的描述中会更加简明易懂。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种电子设备硬件的结构示意图;
图2是本申请实施例提供的一种图像处理方法的流程示意图;
图3A是本申请实施例提供的一种人脸关键点示意图;
图3B是本申请实施例提供的一种深度图像的原始图;
图3C是本申请实施例提供的一种深度图像处理后的效果图;
图4是本申请实施例提供的另一种图像处理方法的流程示意图;
图5是本申请实施例提供的一种电子设备的结构示意图;
图6是本申请实施例提供的一种图像处理装置的功能单元组成框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请实施例所涉及到的电子设备可以是具备通信能力的电子设备,该电子设备可以包括各种具有无线通信功能的手持设备、车载设备、可穿戴设备、计算设备或连接到无线调制解调器的其他处理设备,以及各种形式的用户设备(User Equipment,UE),移动台(Mobile Station,MS),终端设备(terminal device)等等。
请参考图1,图1是本申请一个示例性实施例提供的电子设备100硬件的结构示意图。该电子设备100可以是智能手机、平板电脑、电子书等能够运行应用程序的电子设备。本申请中的电子设备100可以包括一个或多个如下部件:处理器、存储器和收发器等。另外,所述电子设备包括摄像头,所述摄像头包括RGB摄像头和深度摄像头。
可选地,所述电子设备100还可以包括:信号处理器、显示屏、扬声器、麦克风、随机存取存储器(RAM)、红外灯等。
处理器可以包括一个或者多个处理核心。处理器利用各种接口和线路连接整个电子设备100内的各个部分,通过运行或执行存储在存储器内的指令、程序、代码集或指令集,以及调用存储在存储器内的数据,执行电子设备100的各种功能和处理数据。可选地,处理器可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器中,单独通过一块通信芯片进行实现。
存储器可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。可选地,该存储器包括非瞬时性计算机可读介质(non-transitorycomputer-readable storage medium)。存储器可用于存储指令、程序、代码、代码集或指令集。存储器可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如卷积神经网络等)、用于实现下述各个方法实施例的指令等,该操作系统可以是安卓(Android)系统(包括基于Android系统深度开发的系统)、苹果公司开发的IOS系统(包括基于IOS系统深度开发的系统)或其它系统。存储数据区还可以存储电子设备100在使用中所创建的数据(比如RGB图像、深度图像等)。
请参阅图2,图2是本申请实施例提供的一种图像处理方法的流程示意图,所述图像处理方法可以应用于如图1所示的电子设备,所述电子设备包括RGB摄像头和深度摄像头。
如图2所示,所述图像处理方法的执行主体是电子设备,所述方法包括以下操作步骤。
S201、通过所述RGB摄像头获取目标人脸的RGB图像,并通过所述深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应。
其中,通过所述RGB摄像头采集目标人脸的RGB图像,并通过所述深度摄像头采集所述目标人脸的第一深度图像,对采集到的RGB图像和第一深度图像进行时间和空间上的配准,确保电子设备采集到的每一帧RGB图像和第一深度图像的像素点之间是一一对应的。
举例来说,在需要采集目标人脸图像的时候,电子设备的RGB摄像头和深度摄像头同步获取该目标人脸的图像,也即同步获取目标人脸的同一个时空的图像。
S202、在所述目标人脸的RGB图像中确定第一区域。
其中,所述第一区域包括该目标人脸的五官位置,比如鼻部限定框、眼部限定框和嘴部限定框等。
S203、根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域。
其中,可以理解的是,由于采集到的目标人脸的RGB图像和深度图像进行了时间和空间上的配准,在RGB图像中确定该人脸的五官位置(第一区域)之后,由于深度图像的像素点之间是一一对应的,也即相当于在深度图像中确定了该目标人脸的五官位置(第二区域)。也即,在深度图像中确定了该目标人脸的鼻部限定框、眼部限定框和嘴部限定框等。
S204、根据所述第二区域对所述目标人脸的第一深度图像进行处理。
其中,所述根据所述第二区域对所述目标人脸的第一深度图像进行处理可以是人脸深度图像五官黑洞补全、人脸深度值转换到特定区间等。
可以看出,本申请实施例提供的图像处理方法,电子设备通过RGB摄像头获取目标人脸的RGB图像,并通过深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应;在所述目标人脸的RGB图像中确定第一区域;根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域;根据所述第二区域对所述目标人脸的第一深度图像进行处理。可见,在本申请实施例提供的图像处理方法中,电子设备将采集到人脸的RGB图像和深度图像进行时间和空间上的配准,确保RGB图和深度图像的像素点之间是一一对应的,然后在RGB图像中确定该人脸的五官位置(第一区域),由于深度图像的像素点之间是一一对应的,也即相当于确定了该人脸的五官在深度图像中的位置(第二区域),再根据该人脸的五官在深度图像中的位置对图像进行处理,得到清晰有效的人脸深度信息,有利于人脸深度信息的应用。
在一个可能的示例中,所述在所述目标人脸的RGB图像中确定第一区域,包括:将所述目标人脸的RGB图像输入预设的卷积神经网络模型中,得到所述目标人脸的预设数量个特征点;根据所述预设数量个特征点在所述目标人脸的RGB图像中确定所述第一区域。
其中,需要指出的是,深度图像上人脸的五官没有那么细致,直接在深度图像上做关键点定位是不准确的。
可选地,本申请预先训练了一个轻量级卷积神经网络模型,以用于实时检测人脸五官7个关键点,所述7个关键点包括:左眼眼角(包括左眼右眼角和左眼左眼角)、右眼角(包括右眼右眼角和右眼左眼角)、鼻尖点、嘴角点(包括右嘴角点和左嘴角点)。由于所述7个关键点的特征较为明显且检测模式相对简单,故所述轻量级卷积神经网络模型可以准确地定位到关键点位置,且所述轻量级卷积神经网络模型在CPU上耗时仅为1ms。将采集到的目标人脸的RGB图像输入到所述轻量级卷积神经网络模型中,即可快速精准得到所述目标人脸的左眼眼角(包括左眼右眼角和左眼左眼角)、右眼角(包括右眼右眼角和右眼左眼角)、鼻尖点、嘴角点(包括右嘴角点和左嘴角点)位置。
请一并参阅图3A,图3A是本申请实施例提供的一种人脸关键点示意图。如图3A所示,将目标人脸的RGB图像输入到所述轻量级卷积神经网络模型后,检测到了所述目标人脸的关键点(图3A中圈内的点),分别是左眼眼角(图3A中的点37和点40),右眼眼角(图3A中的点43和点46),鼻尖点(图3A中的点31)以及嘴角点(图3A中的点49和点55)。
其中,可以理解的是,在获取到所述目标人脸的关键点位置之后,根据关键点位置就可以精准确定所述目标人脸的五官位置(第一区域)了。
可见,本示例中,将采集到的目标人脸的RGB图像输入到预设的卷积神经网络模型中,可以快速确定该目标人脸的关键点位置,从而可以在该目标人脸的RGB图像中快速精准的确定该目标人脸的五官位置。
在一个可能的示例中,所述特征点包括左眼眼角、右眼眼角、嘴角和鼻尖点,根据所述预设数量个特征点在所述目标人脸的RGB图像中确定所述第一区域,包括:根据所述左眼眼角、所述右眼眼角、所述嘴角和所述鼻尖点在所述目标人脸的RGB图像中确定鼻部限定框、眼部限定框和嘴部限定框;将所述鼻部限定框、所述眼部限定框和所述嘴部限定框中的其中一个作为所述第一区域。
可见,本示例中,利用预设的卷积神经网络模型可以快速且精确地定位到所述目标人脸的RGB图像中的人脸关键点,并基于这些人脸关键点可以获得该目标人脸的RGB图像的人脸眼部限定框、鼻部限定框和嘴部限定框。
在一个可能的示例中,所述右眼眼角包括右眼右眼角和右眼左眼角,所述根据所述预设数量个特征点在所述目标人脸的RGB图像确定所述第一区域,包括:在所述目标人脸的RGB图像中确定所述鼻尖点、所述右眼右眼角和所述右眼左眼角的坐标;计算所述右眼右眼角和所述右眼左眼角的横坐标差的绝对值;根据所述鼻尖点的横坐标和所述横坐标差的绝对值进行计算,得到第一横坐标和第二横坐标;根据所述鼻尖点的纵坐标和所述横坐标差的绝对值进行计算,得到第一纵坐标和第二纵坐标;根据所述第一横坐标、所述第二横坐标与所述第一纵坐标、所述第二纵坐标构建坐标,得到四个点坐标;根据所述四个点坐标确定所述第一区域。
其中,所述根据所述鼻尖点的横坐标和所述横坐标差的绝对值进行计算,得到第一横坐标和第二横坐标,包括:将所述鼻尖点的横坐标减去所述横坐标差的绝对值的二分之一,得到第一横坐标,以及将所述鼻尖点的横坐标加上所述横坐标差的绝对值的二分之一,得到第二横坐标。
其中,所述根据所述鼻尖点的纵坐标和所述横坐标差的绝对值进行计算,得到第一纵坐标和第二纵坐标,包括:将所述鼻尖点的纵坐标减去所述横坐标差的绝对值的二分之一,得到第一纵坐标,以及将所述鼻尖点的纵坐标加上所述横坐标差的绝对值的二分之一,得到第二纵坐标。
请一并参阅与图3A,以鼻部为例,其中,以右眼右眼角(图3A中的点37)、右眼左眼角(图3A中的点40)和鼻尖点(图3A中的点31)来获取鼻部限定框,限定框获取方式如下公式所示:
w=|p40x-p37x|
xmin=p31x-w/2
ymin=p31y-w/2
xmax=p31x+w/2
ymax=p31y+w/2
box=(xmin,ymin,xmax,ymax)
其中,w表示右眼眼角间距离;p40x表示右眼左眼角的横坐标;p37x表示右眼右眼角的横坐标;p31x表示鼻尖点横坐标;p31y表示鼻尖点的纵坐标;box表示鼻部限定框,用其左上角坐标(xmin,ymin)和右下角的坐标(xmax,ymax)表示。
可见,本示例中,通过右眼右眼角、右眼左眼角和鼻尖点的坐标可以快速精准的确定所述目标人脸鼻部的位置。
在一个可能的示例中,所述根据所述第二区域对所述目标人脸的第一深度图像进行处理,包括:确定所述第二区域内深度值非零的点,以及确定所述第二区域内深度值为零的点;计算所述第二区域内深度值非零的所有点的深度值的第一平均值;将所述第二区域内深度值为零的点的深度值设置为所述第一平均值,得到第二深度图像。
其中,可以理解的是,由于所述目标人脸的RGB图像与深度图像在空间上已配准,故深度图像的五官限定框位置与RGB图像的五官限定框位置是一致的。因此,可以基于此求出深度图像五官限定框中深度值为非零的点的均值,并用该均值填补该五官限定框中深度值为零的点(即黑洞)。
其中,黑洞填补的具体过程为:找到人脸深度图像的所有五官限定框;求出人脸深度图像的每个五官限定框中深度值为非零的点的均值;找出深度图像的每个部五官限定框中深度值为零的点,用求得的均值进行填充。具体代码如下所示:
Figure BDA0002353195970000091
可见,本示例中,计算目标人脸的深度图像的五官限定框(第二区域)内所有深度值非零的点的深度值均值,然后利用该深度值均值填补该五官限定框内深度值为零的点的深度值,从而填补了五官部位的黑洞,有利于促进人脸深度信息被充分地利用。
在一个可能的示例中,在将所述第二区域内深度值为零的点的深度值设置为所述第一平均值,得到第二深度图像之后,还包括:在所述第二深度图像中鼻尖点的附近选取第三区域,所述鼻尖点在所述第三区域内;计算所述第三区域内所有点的深度值的第二平均值;根据所述第二平均值确定第一区间,所述目标人脸的深度值在所述第一区间内;将所述第二深度图像中深度值在所述第一区间的点的深度值保留,以及将所述第二深度图像中深度值在其他区间的点的深度值设置为零,得到第三深度图像;将所述第三深度图像中的所有点的深度值转换到预设区间,得到第四深度图像。
其中,所述第一区间可以为[第二平均值-第一阈值,第二平均值+第二阈值],所述第一阈值可以为4cm,所述第二阈值可以为17cm。
其中,所述预设区间可以为[0,255]。
其中,通过对该目标人脸的RGB图像进行关键点检测,因此可以轻易地定位到该目标人脸的深度图像中人脸鼻尖点的位置。由于人脸鼻尖点特征较为明显,且其深度值经过鼻部限定框补全后基本不存在噪声点,本申请实施例可以比较准确地得到深度图鼻尖点的深度值。
举例来说,可以选取所述第二深度图像的鼻尖点附近区域(4x4区域)的深度均值(第二平均值),再以该深度均值为起点,保留鼻尖深度均值往前4cm(第一阈值)以及往后13cm(第二阈值)的深度范围,其余深度值全置为0。其中,以鼻尖区域深度均值为起点的17cm距离可以基本覆盖人脸的所有深度信息,并且能够去除深度值较大的背景的干扰。然后,将这17cm的深度范围变换到[0,255]区间。相比直接将所有深度投影到[0,255]区间,可以使得人脸的深度值均匀地分布在[0,255]区间,致使人脸轮廓更加清晰,并且能够更加有效地保留了人脸深度信息。
其中,一般图像值的范围都是[0,255],一般都会将值域投影到这个区间,而深度图由于是16位的,故其值域范围为[0,65536];而人脸所占的范围不大,本申请实施例确定的17cm(即1700)基本可以覆盖到整张人脸的深度范围;1700在65536内所占的范围相对是比较小的,如果直接将目标人脸的深度图像的原图的[0,65536]投影到[0,255],那么人脸深度值的取值会在一个极小的区间内,不利于对人脸进行一些运算,故本申请实施例可以先取出17cm范围(即1700),再将这段区间的深度值投影到[0,255],可以确保人脸深度值均匀分布在[0,255]中,这样人脸轮廓就很清晰了。
请一并参阅图3B和图3C,图3B是本申请实施例提供的一种深度图像的原始图,图3C是本申请实施例提供的一种深度图像处理后的效果图。对比图3B和图3C可知,将目标人脸的深度图像进行背景深度值去除之后,再对保留的深度值转换区间之后,能够得到更加清晰有效的人脸深度图像。
可见,本示例中,将目标人脸的深度图像中人脸部分的深度值,将背景部分的深度值全部设置为零,再将保留的人脸部分的深度值范围变换到预设区间,比如[0,255],使得人脸部分的深度值均匀地分布在预设区间,致使人脸轮廓更加清晰,并且能够更加有效地保留了人脸深度信息,有利于人脸深度信息的应用。
请参阅图4,图4是本申请实施例提供的一种图像处理方法的流程示意图,所述图像处理方法可以应用于如图1所示的电子设备,所述电子设备包括RGB摄像头和深度摄像头。
如图4所示,所述图像处理方法的执行主体是电子设备,所述图像处理方法包括以下操作。
S401、通过所述RGB摄像头获取目标人脸的RGB图像,并通过所述深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应。
S402、在所述目标人脸的RGB图像中确定第一区域。
S404、根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域。
S404、确定所述第二区域内深度值非零的点,以及确定所述第二区域内深度值为零的点。
S405、计算所述第二区域内深度值非零的所有点的深度值的第一平均值。
S406、将所述第二区域内深度值为零的点的深度值设置为所述第一平均值,得到第二深度图像。
S407、在所述第二深度图像中鼻尖点的附近选取第三区域,所述鼻尖点在所述第三区域内。
S408、计算所述第三区域内所有点的深度值的第二平均值。
S409、根据所述第二平均值确定第一区间,所述目标人脸的深度值在所述第一区间内。
S410、将所述第二深度图像中深度值在所述第一区间的点的深度值保留,以及将所述第二深度图像中深度值在其他区间的点的深度值设置为零,得到第三深度图像。
S411、将所述第三深度图像中的所有点的深度值转换到预设区间,得到第四深度图像。
可以看出,本申请实施例提供的图像处理方法,电子设备将采集到人脸的RGB图像和深度图像进行时间和空间上的配准,确保RGB图和深度图像的像素点之间是一一对应的,然后在RGB图像中确定该人脸的五官位置(第一区域),由于深度图像的像素点之间是一一对应的,也即相当于在深度图像中确定了该人脸的五官位置(第二区域),求出深度图像中该人脸的五官位置(第二区域)中深度值为非零的点的均值,并采用该均值填补该人脸的五官位置(第二区域)深度值为零的点(即黑洞),再将人脸深度值更加均匀地分布在特定的区间内,从而得到清晰有效的人脸深度信息,有利于人脸深度信息的应用。
与上述图2、图4所示的实施例一致的,请参阅图5,图5是本申请实施例提供的一种电子设备500的结构示意图。如图5所示,所述电子设备500包括应用处理器510、存储器520、通信接口530以及一个或多个程序521,其中,所述一个或多个程序521被存储在上述存储器520中,并且被配置由上述应用处理器510执行,所述一个或多个程序521包括用于执行上述方法实施例中任一步骤的指令。
在一个可能的示例中,所述程序521中包括用于执行以下步骤的指令:通过所述RGB摄像头获取目标人脸的RGB图像,并通过所述深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应;在所述目标人脸的RGB图像中确定第一区域;根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域;根据所述第二区域对所述目标人脸的第一深度图像进行处理。
可以看出,本申请实施例提供的电子设备,通过RGB摄像头获取目标人脸的RGB图像,并通过深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应;在所述目标人脸的RGB图像中确定第一区域;根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域;根据所述第二区域对所述目标人脸的第一深度图像进行处理。可见,本申请实施例提供的电子设备将采集到人脸的RGB图像和深度图像进行时间和空间上的配准,确保RGB图和深度图像的像素点之间是一一对应的,然后在RGB图像中确定该人脸的五官位置(第一区域),由于深度图像的像素点之间是一一对应的,也即相当于确定了该人脸的五官在深度图像中的位置(第二区域),再根据该人脸的五官在深度图像中的位置对图像进行处理,得到清晰有效的人脸深度信息,有利于人脸深度信息的应用。
在一个可能的示例中,在所述目标人脸的RGB图像中确定第一区域方面,所述程序521中的指令具体用于执行以下操作:将所述目标人脸的RGB图像输入预设的卷积神经网络模型中,得到所述目标人脸的预设数量个特征点;根据所述预设数量个特征点在所述目标人脸的RGB图像中确定所述第一区域。
在一个可能的示例中,所述特征点包括左眼眼角、右眼眼角、嘴角和鼻尖点,在根据所述预设数量个特征点在所述目标人脸的RGB图像中确定所述第一区域方面,所述程序521中的指令具体用于执行以下操作:根据所述左眼眼角、所述右眼眼角、所述嘴角和所述鼻尖点在所述目标人脸的RGB图像中确定鼻部限定框、眼部限定框和嘴部限定框;将所述鼻部限定框、所述眼部限定框和所述嘴部限定框中的其中一个作为所述第一区域。
在一个可能的示例中,所述右眼眼角包括右眼右眼角和右眼左眼角,在根据所述预设数量个特征点在所述目标人脸的RGB图像确定所述第一区域方面,所述程序521中的指令具体用于执行以下操作:在所述目标人脸的RGB图像中确定所述鼻尖点、所述右眼右眼角和所述右眼左眼角的坐标;计算所述右眼右眼角和所述右眼左眼角的横坐标差的绝对值;根据所述鼻尖点的横坐标和所述横坐标差的绝对值进行计算,得到第一横坐标和第二横坐标;根据所述鼻尖点的纵坐标和所述横坐标差的绝对值进行计算,得到第一纵坐标和第二纵坐标;根据所述第一横坐标、所述第二横坐标与所述第一纵坐标、所述第二纵坐标构建坐标,得到四个点坐标;根据所述四个点坐标确定所述第一区域。
在一个可能的示例中,在根据所述第二区域对所述目标人脸的第一深度图像进行处理方面,所述程序521中的指令具体用于执行以下操作:确定所述第二区域内深度值非零的点,以及确定所述第二区域内深度值为零的点;计算所述第二区域内深度值非零的所有点的深度值的第一平均值;将所述第二区域内深度值为零的点的深度值设置为所述第一平均值,得到第二深度图像。
在一个可能的示例中,在将所述第二区域内深度值为零的点的深度值设置为所述第一平均值,得到第二深度图像之后,所述程序521中的指令还用于执行以下操作:在所述第二深度图像中鼻尖点的附近选取第三区域,所述鼻尖点在所述第三区域内;计算所述第三区域内所有点的深度值的第二平均值;根据所述第二平均值确定第一区间,所述目标人脸的深度值在所述第一区间内;将所述第二深度图像中深度值在所述第一区间的点的深度值保留,以及将所述第二深度图像中深度值在其他区间的点的深度值设置为零,得到第三深度图像;将所述第三深度图像中的所有点的深度值转换到预设区间,得到第四深度图像。
其中,需要说明的是,本实施例的具体实现过程可参见上述方法实施例所述的具体实现过程,在此不再叙述。
上述主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所提供的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对电子设备进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
请参阅图6,图6是本申请实施例中所涉及的图像处理装置600的功能单元组成框图。所述图像处理装置600应用于电子设备,所述图像处理装置包括处理单元601和通信单元602,其中,所述处理单元601,用于执行如上述方法实施例中的任一步骤,且在执行诸如发送等数据传输时,可选择的调用所述通信单元602来完成相应操作。下面进行详细说明。
在一个可能的示例中,所述处理单元601用于:通过所述RGB摄像头获取目标人脸的RGB图像,并通过所述深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应;以及在所述目标人脸的RGB图像中确定第一区域;以及根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域;以及根据所述第二区域对所述目标人脸的第一深度图像进行处理。
可以看出,本申请实施例提供的图像处理装置,通过RGB摄像头获取目标人脸的RGB图像,并通过深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应;然后在所述目标人脸的RGB图像中确定第一区域;以及根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域;再根据所述第二区域对所述目标人脸的第一深度图像进行处理。可见,本申请实施例提供的图像处理装置,将采集到人脸的RGB图像和深度图像进行时间和空间上的配准,确保RGB图和深度图像的像素点之间是一一对应的,然后在RGB图像中确定该人脸的五官位置(第一区域),由于深度图像的像素点之间是一一对应的,也即相当于确定了该人脸的五官在深度图像中的位置(第二区域),再根据该人脸的五官在深度图像中的位置对图像进行处理,得到清晰有效的人脸深度信息,有利于人脸深度信息的应用。
在一个可能的示例中,在所述目标人脸的RGB图像中确定第一区域方面,所述处理单元601具体用于:将所述目标人脸的RGB图像输入预设的卷积神经网络模型中,得到所述目标人脸的预设数量个特征点;根据所述预设数量个特征点在所述目标人脸的RGB图像中确定所述第一区域。
在一个可能的示例中,所述特征点包括左眼眼角、右眼眼角、嘴角和鼻尖点,在根据所述预设数量个特征点在所述目标人脸的RGB图像中确定所述第一区域方面,所述处理单元601具体用于:根据所述左眼眼角、所述右眼眼角、所述嘴角和所述鼻尖点在所述目标人脸的RGB图像中确定鼻部限定框、眼部限定框和嘴部限定框;将所述鼻部限定框、所述眼部限定框和所述嘴部限定框中的其中一个作为所述第一区域。
在一个可能的示例中,所述右眼眼角包括右眼右眼角和右眼左眼角,在根据所述预设数量个特征点在所述目标人脸的RGB图像确定所述第一区域方面,所述处理单元601具体用于:在所述目标人脸的RGB图像中确定所述鼻尖点、所述右眼右眼角和所述右眼左眼角的坐标;计算所述右眼右眼角和所述右眼左眼角的横坐标差的绝对值;根据所述鼻尖点的横坐标和所述横坐标差的绝对值进行计算,得到第一横坐标和第二横坐标;根据所述鼻尖点的纵坐标和所述横坐标差的绝对值进行计算,得到第一纵坐标和第二纵坐标;根据所述第一横坐标、所述第二横坐标与所述第一纵坐标、所述第二纵坐标构建坐标,得到四个点坐标;根据所述四个点坐标确定所述第一区域。
在一个可能的示例中,在根据所述第二区域对所述目标人脸的第一深度图像进行处理方面,所述处理单元601具体用于:确定所述第二区域内深度值非零的点,以及确定所述第二区域内深度值为零的点;计算所述第二区域内深度值非零的所有点的深度值的第一平均值;将所述第二区域内深度值为零的点的深度值设置为所述第一平均值,得到第二深度图像。
在一个可能的示例中,在将所述第二区域内深度值为零的点的深度值设置为所述第一平均值,得到第二深度图像之后,所述处理单元601具体用于:在所述第二深度图像中鼻尖点的附近选取第三区域,所述鼻尖点在所述第三区域内;计算所述第三区域内所有点的深度值的第二平均值;根据所述第二平均值确定第一区间,所述目标人脸的深度值在所述第一区间内;将所述第二深度图像中深度值在所述第一区间的点的深度值保留,以及将所述第二深度图像中深度值在其他区间的点的深度值设置为零,得到第三深度图像;将所述第三深度图像中的所有点的深度值转换到预设区间,得到第四深度图像。
其中,所述图像处理装置600还可以包括存储单元603,用于存储电子设备的程序代码和数据。所述处理单元601可以是处理器,所述通信单元602可以是触控显示屏或者收发器,存储单元603可以是存储器。
可以理解的是,由于方法实施例与装置实施例为相同技术构思的不同呈现形式,因此,本申请中方法实施例部分的内容应同步适配于装置实施例部分,此处不再赘述。
本申请实施例还提供了一种图像处理芯片,其中,该芯片包括处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片的设备执行如上述方法实施例中电子设备所描述的部分或全部步骤。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤,上述计算机包括电子设备。
本申请实施例还提供一种计算机程序产品,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤。该计算机程序产品可以为一个软件安装包,上述计算机包括电子设备。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (8)

1.一种图像处理方法,其特征在于,应用于电子设备,所述电子设备包括RGB摄像头和深度摄像头,所述方法包括:
通过所述RGB摄像头获取目标人脸的RGB图像,并通过所述深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应;
在所述目标人脸的RGB图像中确定第一区域;
根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域;
根据所述第二区域对所述目标人脸的第一深度图像进行处理,包括:确定所述第二区域内深度值非零的点,以及确定所述第二区域内深度值为零的点;计算所述第二区域内深度值非零的所有点的深度值的第一平均值;将所述第二区域内深度值为零的点的深度值设置为所述第一平均值,得到第二深度图像;在所述第二深度图像中鼻尖点的附近选取第三区域,所述鼻尖点在所述第三区域内;计算所述第三区域内所有点的深度值的第二平均值;根据所述第二平均值确定第一区间,所述目标人脸的深度值在所述第一区间内;将所述第二深度图像中深度值在所述第一区间的点的深度值保留,以及将所述第二深度图像中深度值在其他区间的点的深度值设置为零,得到第三深度图像;将所述第三深度图像中的所有点的深度值转换到预设区间,得到第四深度图像。
2.根据权利要求1所述的方法,其特征在于,所述在所述目标人脸的RGB图像中确定第一区域,包括:
将所述目标人脸的RGB图像输入预设的卷积神经网络模型中,得到所述目标人脸的预设数量个特征点;
根据所述预设数量个特征点在所述目标人脸的RGB图像中确定所述第一区域。
3.根据权利要求2所述的方法,其特征在于,所述特征点包括左眼眼角、右眼眼角、嘴角和鼻尖点,根据所述预设数量个特征点在所述目标人脸的RGB图像中确定所述第一区域,包括:
根据所述左眼眼角、所述右眼眼角、所述嘴角和所述鼻尖点在所述目标人脸的RGB图像中确定鼻部限定框、眼部限定框和嘴部限定框;
将所述鼻部限定框、所述眼部限定框和所述嘴部限定框中的其中一个作为所述第一区域。
4.根据权利要求3所述的方法,其特征在于,所述右眼眼角包括右眼右眼角和右眼左眼角,所述根据所述预设数量个特征点在所述目标人脸的RGB图像确定所述第一区域,包括:
在所述目标人脸的RGB图像中确定所述鼻尖点、所述右眼右眼角和所述右眼左眼角的坐标;
计算所述右眼右眼角和所述右眼左眼角的横坐标差的绝对值;
根据所述鼻尖点的横坐标和所述横坐标差的绝对值进行计算,得到第一横坐标和第二横坐标;
根据所述鼻尖点的纵坐标和所述横坐标差的绝对值进行计算,得到第一纵坐标和第二纵坐标;
根据所述第一横坐标、所述第二横坐标与所述第一纵坐标、所述第二纵坐标构建坐标,得到四个点坐标;
根据所述四个点坐标确定所述第一区域。
5.一种图像处理装置,其特征在于,应用于电子设备,所述电子设备包括RGB摄像头和深度摄像头,所述装置包括处理单元,所述处理单元用于:
通过所述RGB摄像头获取目标人脸的RGB图像,并通过所述深度摄像头获取所述目标人脸的第一深度图像,所述目标人脸的RGB图像的像素点与所述目标人脸的第一深度图像的像素点一一对应;
以及在所述目标人脸的RGB图像中确定第一区域;
以及根据所述一一对应关系在所述目标人脸的第一深度图像中确定与所述第一区域对应的第二区域;
以及根据所述第二区域对所述第一深度图像进行处理,包括:确定所述第二区域内深度值非零的点,以及确定所述第二区域内深度值为零的点;计算所述第二区域内深度值非零的所有点的深度值的第一平均值;将所述第二区域内深度值为零的点的深度值设置为所述第一平均值,得到第二深度图像;在所述第二深度图像中鼻尖点的附近选取第三区域,所述鼻尖点在所述第三区域内;计算所述第三区域内所有点的深度值的第二平均值;根据所述第二平均值确定第一区间,所述目标人脸的深度值在所述第一区间内;将所述第二深度图像中深度值在所述第一区间的点的深度值保留,以及将所述第二深度图像中深度值在其他区间的点的深度值设置为零,得到第三深度图像;将所述第三深度图像中的所有点的深度值转换到预设区间,得到第四深度图像。
6.一种图像处理芯片,其特征在于,包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片的设备执行如权利要求1-4中任一项所述的方法。
7.一种电子设备,其特征在于,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行权利要求1-4任一项所述的方法中的步骤的指令。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行以实现权利要求1-4任一项所述的方法。
CN201911426013.4A 2019-12-31 2019-12-31 一种图像处理方法和相关设备 Active CN111160309B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911426013.4A CN111160309B (zh) 2019-12-31 2019-12-31 一种图像处理方法和相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911426013.4A CN111160309B (zh) 2019-12-31 2019-12-31 一种图像处理方法和相关设备

Publications (2)

Publication Number Publication Date
CN111160309A CN111160309A (zh) 2020-05-15
CN111160309B true CN111160309B (zh) 2023-05-16

Family

ID=70560803

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911426013.4A Active CN111160309B (zh) 2019-12-31 2019-12-31 一种图像处理方法和相关设备

Country Status (1)

Country Link
CN (1) CN111160309B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111738988A (zh) * 2020-06-02 2020-10-02 北京三快在线科技有限公司 人脸深度图像生成方法、装置、电子设备和存储介质
CN112069993B (zh) * 2020-09-04 2024-02-13 西安西图之光智能科技有限公司 基于五官掩膜约束的密集人脸检测方法及系统和存储介质
CN112419390A (zh) * 2020-11-26 2021-02-26 北京华捷艾米科技有限公司 一种人体身高测量方法及系统
CN112508811A (zh) * 2020-11-30 2021-03-16 北京百度网讯科技有限公司 图像预处理方法、装置、设备以及存储介质
CN113743191B (zh) * 2021-07-16 2023-08-01 深圳云天励飞技术股份有限公司 人脸图像对齐检测方法、装置、电子设备及存储介质
CN115082993A (zh) * 2022-06-27 2022-09-20 平安银行股份有限公司 一种基于张嘴动作的人脸活检方法和装置
CN115147524B (zh) * 2022-09-02 2023-01-17 荣耀终端有限公司 一种3d动画的生成方法及电子设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109961406B (zh) * 2017-12-25 2021-06-25 深圳市优必选科技有限公司 一种图像处理的方法、装置及终端设备
CN109978984A (zh) * 2017-12-27 2019-07-05 Tcl集团股份有限公司 人脸三维重建方法及终端设备
CN109034102B (zh) * 2018-08-14 2023-06-16 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、设备及存储介质
CN109711243B (zh) * 2018-11-01 2021-02-09 长沙小钴科技有限公司 一种基于深度学习的静态三维人脸活体检测方法
CN110287900B (zh) * 2019-06-27 2023-08-01 深圳市商汤科技有限公司 验证方法和验证装置
CN110415285A (zh) * 2019-08-02 2019-11-05 厦门美图之家科技有限公司 图像处理方法、装置及电子设备

Also Published As

Publication number Publication date
CN111160309A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
CN111160309B (zh) 一种图像处理方法和相关设备
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
US10055879B2 (en) 3D human face reconstruction method, apparatus and server
CN110689500B (zh) 一种人脸图像的处理方法、装置、电子设备及存储介质
US11398044B2 (en) Method for face modeling and related products
CN110555796B (zh) 图像调整方法、装置、存储介质以及设备
CN108830892B (zh) 人脸图像处理方法、装置、电子设备及计算机可读存储介质
CN107527046B (zh) 解锁控制方法及相关产品
US11030733B2 (en) Method, electronic device and storage medium for processing image
JP7387202B2 (ja) 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム
CN110751730B (zh) 一种基于深度神经网络的穿衣人体体型估计方法
US20220375258A1 (en) Image processing method and apparatus, device and storage medium
KR20200138349A (ko) 화상 처리 방법 및 장치, 전자 디바이스, 및 저장 매체
CN110689479B (zh) 一种人脸上妆方法、装置、设备及介质
TW201937922A (zh) 場景重建系統、方法以及非暫態電腦可讀取媒體
US9959672B2 (en) Color-based dynamic sub-division to generate 3D mesh
CN108846900B (zh) 提高用户在房源虚拟三维空间图中的空间感的方法及系统
CN111161268A (zh) 图像处理方法、装置、电子设备及计算机存储介质
CN110956571B (zh) 基于slam进行虚实融合的方法及电子设备
CN107203961B (zh) 一种表情迁移的方法及电子设备
CN110944112A (zh) 一种图像处理方法及电子设备
CN110555815A (zh) 一种图像处理方法和电子设备
CN110765926B (zh) 图画书识别方法、装置、电子设备和存储介质
CN110766631A (zh) 人脸图像的修饰方法、装置、电子设备和计算机可读介质
CN105631938B (zh) 一种图像处理方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant