CN110691195B - 一种基于三维人脸拍摄的光线检测方法和设备 - Google Patents

一种基于三维人脸拍摄的光线检测方法和设备 Download PDF

Info

Publication number
CN110691195B
CN110691195B CN201910978966.5A CN201910978966A CN110691195B CN 110691195 B CN110691195 B CN 110691195B CN 201910978966 A CN201910978966 A CN 201910978966A CN 110691195 B CN110691195 B CN 110691195B
Authority
CN
China
Prior art keywords
face
shooting
data
color
spherical harmonic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201910978966.5A
Other languages
English (en)
Other versions
CN110691195A (zh
Inventor
徐博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Spiritplume Interactive Entertainment Technology Co ltd
Original Assignee
Chongqing Spiritplume Interactive Entertainment Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Spiritplume Interactive Entertainment Technology Co ltd filed Critical Chongqing Spiritplume Interactive Entertainment Technology Co ltd
Priority to CN201910978966.5A priority Critical patent/CN110691195B/zh
Publication of CN110691195A publication Critical patent/CN110691195A/zh
Application granted granted Critical
Publication of CN110691195B publication Critical patent/CN110691195B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Generation (AREA)

Abstract

本发明公开了一种基于三维人脸拍摄的光线检测方法和设备,该方法包括:对目标人脸进行实时拍摄,生成与所述目标人脸对应的面部网格模型Mask Mesh;从当前拍摄参数中获取人脸图像的球面谐波数据,其中,所述人脸图像是进行所述实时拍摄时显示在拍摄画面中的;基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理Render Texture;根据所述Render Texture中的颜色值分布数据确定所述光线检测的结果,从而通过对三维人脸拍摄时的光线进行快速有效的检测,使用户确定当前的拍摄光线是否合格,进而使用户获得高质量的拍摄效果。

Description

一种基于三维人脸拍摄的光线检测方法和设备
技术领域
本申请涉及人像处理技术领域,特别涉及一种基于三维人脸拍摄的光线检测方法和设备。
背景技术
通常在对人脸进行拍摄成像时,容易受到光线的影响,若光线太亮则导致拍摄成像后面部出现曝光,若光线太暗则导致面部出现阴影,若光线不均匀则面部的局部区域出现明暗不均匀的情况,导致成像效果不佳,从而对拍摄成像的品质产生了极大的负面影响。
而当进行三维人脸拍摄时,为了使模型更加逼真,必须直接使用拍摄时的脸部区域照片进行融合,因此照片若受到光线影响则合成到模型后会导致问题会进一步扩大。在三维人脸模型上,光线的影响是最直观的,然而,现有技术中并不能对三维人脸拍摄时的光线进行有效检测,使用户不能确定当前的拍摄光线是否合格,从而间接影响了三维人脸的成像质量,降低了用户体验,因此,如何在三维人脸拍摄时进行准确有效的光线检测是本领域亟待解决的技术问题。
发明内容
本发明提供一种基于三维人脸拍摄的光线检测方法,用以解决现有技术中不能对三维人脸拍摄时的光线进行有效检测,使用户不能确定当前的拍摄光线是否合格,进而影响三维人脸的成像质量的技术问题,该方法包括:
对目标人脸进行实时拍摄,生成与所述目标人脸对应的面部网格模型Mask Mesh;
从当前拍摄参数中获取人脸图像的球面谐波数据,其中,所述人脸图像是进行所述实时拍摄时显示在拍摄画面中的;
基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理Render Texture;
根据所述Render Texture中的颜色值分布数据确定所述光线检测的结果。
优选的,从当前拍摄参数中获取人脸图像的球面谐波数据,具体为:
基于AR开发平台插件ARKit Face获取预定类型的回调;
根据所述回调从当前拍摄参数中获取人脸图像的球面谐波数据。
优选的,基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理RenderTexture,具体为:
基于着色器Shader将所述球面谐波数据转换为黑白颜色数据并应用于所述MaskMesh的贴图上,以使所述贴图为黑白图;
通过所述ARKit Face对所述Mask Mesh进行渲染,获取所述Render Texture。
优选的,根据所述Render Texture中的颜色值分布数据确定所述光线检测的结果,具体为:
统计所述Render Texture中的颜色值到颜色分布数组中,确定所述颜色值分布数据,其中,所述颜色分布数组具体为0-255;
根据所述颜色值分布数据确定颜色值标准差;
当所述颜色值分布数据在第一预设取值范围内,并且所述颜色值标准差在第二预设取值范围内时,确定所述结果为合格,否则所述结果为不合格。
优选的,所述方法还包括:
当所述结果为合格时,允许拍摄成像获取三维人脸模型;
当所述结果为不合格时,不允许拍摄成像并提示用户重新拍摄。
相应地,本发明还提出了一种基于三维人脸拍摄的光线检测设备,包括:
生成模块,用于对目标人脸进行实时拍摄,生成与所述目标人脸对应的面部网格模型Mask Mesh;
第一获取模块,用于从当前拍摄参数中获取人脸图像的球面谐波数据,其中,所述人脸图像是进行所述实时拍摄时显示在拍摄画面中的;
第二获取模块,用于基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理Render Texture;
确定模块,用于根据所述Render Texture中的颜色值分布数据确定所述光线检测的结果。
优选的,所述第一获取模块,具体用于:
基于AR开发平台插件ARKit Face获取预定类型的回调;
根据所述回调从当前拍摄参数中获取人脸图像的球面谐波数据。
优选的,所述第二获取模块,具体用于:
基于着色器Shader将所述球面谐波数据转换为黑白颜色数据并应用于所述MaskMesh的贴图上,以使所述贴图为黑白图;
通过所述ARKit Face对所述Mask Mesh进行渲染,获取所述Render Texture。
优选的,所述确定模块,具体用于:
统计所述Render Texture中的颜色值到颜色分布数组中,确定所述颜色值分布数据,其中,所述颜色分布数组具体为0-255;
根据所述颜色值分布数据确定颜色值标准差;
当所述颜色值分布数据在第一预设取值范围内,并且所述颜色值标准差在第二预设取值范围内时,确定所述结果为合格,否则所述结果为不合格。
优选的,所述设备还包括限制模块,用于:
当所述结果为合格时,允许拍摄成像获取三维人脸模型;
当所述结果为不合格时,不允许拍摄成像并提示用户重新拍摄。
与现有技术对比,本发明具备以下有益效果:
本发明公开了一种基于三维人脸拍摄的光线检测方法和设备,该方法包括:对目标人脸进行实时拍摄,生成与所述目标人脸对应的面部网格模型Mask Mesh;从当前拍摄参数中获取人脸图像的球面谐波数据,其中,所述人脸图像是进行所述实时拍摄时显示在拍摄画面中的;基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理Render Texture;根据所述Render Texture中的颜色值分布数据确定所述光线检测的结果,从而通过对三维人脸拍摄时的光线进行快速有效的检测,使用户确定当前的拍摄光线是否合格,进而使用户在合格的光线下获得高质量的拍摄效果,提高了用户体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例提出的一种基于三维人脸拍摄的光线检测方法的流程示意图;
图2示出了本发明实施例中将Mask Mesh的贴图转化为黑白图的效果示意图;
图3示出了本发明实施例中渲染纹理Render Texture效果示意图;
图4示出了本发明实施例中颜色分布直方图一;
图5示出了本发明实施例中颜色分布直方图二;
图6示出了本发明实施例中数据采集测试时直方图显示的信息示意图;
图7示出了本发明实施例中在不进行光线检测的三维人脸拍摄时额头区域光线过亮导致脸部肤色曝光效果示意图;
图8示出了本发明实施例中在进行光线检测的三维人脸拍摄时的三维人脸成像效果示意图;
图9示出了本发明实施例提出的一种基于三维人脸拍摄的光线检测设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
如背景技术所述,现有技术中无法对三维人脸拍摄时的光线进行有效检测,使用户不能确定当前的拍摄光线是否合格,进而影响三维人脸的成像质量。
为解决上述问题,本申请实施例提出了一种基于三维人脸拍摄的光线检测方法,通过对三维人脸拍摄时的光线进行快速有效的检测,可使用户确定当前的拍摄光线是否合格,进而使用户在合格的光线下获得高质量的拍摄效果。
如图1所示本发明实施例提出的一种基于三维人脸拍摄的光线检测方法的流程示意图,该方法包括以下步骤:
S101,对目标人脸进行实时拍摄,生成与所述目标人脸对应的面部网格模型MaskMesh。
具体的,在进行三维人脸拍摄时通过对目标人脸进行实时拍摄,生成对应的面部网格模型Mask Mesh,在本申请具体的应用场景中,可使用深度相机对目标人脸进行拍摄,利用ARKit Face插件生成Mask Mesh。本领域技术人员可根据实际需要灵活采用其他的三维成像设备生成目标人脸的Mask Mesh,这并不影响本申请的保护范围。
S102,从当前拍摄参数中获取人脸图像的球面谐波数据,其中,所述人脸图像是进行所述实时拍摄时显示在拍摄画面中的。
球面谐波是编码的一种方法,在计算机图形学中,球面谐波是光照信息的载体,通过把光数据转换成球面谐波,会得到一组数值或者权数,可从实时拍摄时的拍摄参数中获取人脸图像的球面谐波数据,人脸图像为拍摄画面中显示的图像。
为获取准确的球面谐波数据,在本申请的优选实施例中,从当前拍摄参数中获取人脸图像的球面谐波数据,具体为:
基于AR开发平台插件ARKit Face获取预定类型的回调;
根据所述回调从当前拍摄参数中获取人脸图像的球面谐波数据。
具体的,ARKit是苹果在2017年推出的AR(Augmented Reality,增强现实)开发平台,ARKit Face为AR开发平台插件,回调为ARKit Face插件提供的用于获取数据的接口,确定球面谐波数据对应的回调类型,根据该回调类型从ARKit Face获取球面谐波数据。
需要说明的是,以上优选实施例的方案仅为本申请所提出的一种具体实现方案,其他从当前拍摄参数中获取人脸图像的球面谐波数据的方式均属于本申请的保护范围。
S103,基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理RenderTexture。
Render Texture是可以被渲染的纹理,可以用来实现基于渲染效果的图像、动态阴影、投影、反射或监视摄像机,基于球面谐波数据获取对应的Render Texture,以便确定球面谐波数据对应的光数据。
为获取合适的Render Texture,在本申请的优选实施例中,基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理Render Texture,具体为:
基于着色器Shader将所述球面谐波数据转换为黑白颜色数据并应用于所述MaskMesh的贴图上,以使所述贴图为黑白图;
通过所述ARKit Face对所述Mask Mesh进行渲染,获取所述Render Texture。
具体的,着色器Shader一段规定好输入(颜色,贴图等)和输出(渲染器能够读懂的点和颜色的对应关系)的程序,将传统的光照模型分解为一些包含点积运算项的线性组合,并可以让用户来确定光照模型中每项的系数和组合方式。既允许对已有光照模型进行分解组合,又允许进行一些新的组合尝试。
可通过Shader将球面谐波数据转换为黑白颜色数据并应用于Mask Mesh的贴图上,使Mask Mesh的贴图为黑白图,并通过ARKit Face对Mask Mesh进行渲染得到RenderTexture。
需要说明的是,以上优选实施例的方案仅为本申请所提出的一种具体实现方案,本领域技术人员还可根据实际需要灵活选用其他的方式获取Render Texture,其他基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理Render Texture的方式均属于本申请的保护范围。
S104,根据所述Render Texture中的颜色值分布数据确定所述光线检测的结果。
具体的,Render Texture中包含颜色值分布数据,根据颜色值分布数据确定光线检测的结果。
为获取准确的光线检测结果,在本申请的优选实施例中,根据所述RenderTexture中的颜色值分布数据确定所述光线检测的结果,具体为:
统计所述Render Texture中的颜色值到颜色分布数组中,确定所述颜色值分布数据,其中,所述颜色分布数组具体为0-255;
根据所述颜色值分布数据确定颜色值标准差;
当所述颜色值分布数据在第一预设取值范围内,并且所述颜色值标准差在第二预设取值范围内时,确定所述结果为合格,否则所述结果为不合格。
具体的,颜色分布数组具体为0-255,代表了不同的颜色值,统计Render Texture中的颜色值到颜色分布数组中,确定颜色值分布数据,根据该颜色值分布数据和标准差公式可确定相应的颜色值标准差,标准差公式在后续具体应用场景部分有介绍,在此不再赘述。本申请中预先设定了光线质量的量化标准,量化标准具体为颜色值分布数据对应的第一预设取值范围和颜色值标准差对应的第二预设取值范围,当所述颜色值分布数据在第一预设取值范围内,并且所述颜色值标准差在第二预设取值范围内时,确定所述结果为合格,否则所述结果为不合格。
为使用户在合格的光线质量下进行拍摄,本申请实施例对用户拍摄条件进行限制,具体为当所述结果为合格时,允许拍摄成像获取三维人脸模型;
当所述结果为不合格时,不允许拍摄成像并提示用户重新拍摄。从而使用户只能在合格的光线质量下进行拍摄成像,使用户获得高质量的拍摄效果。
通过应用以上技术方案,对目标人脸进行实时拍摄,生成与所述目标人脸对应的面部网格模型Mask Mesh;从当前拍摄参数中获取人脸图像的球面谐波数据,其中,所述人脸图像是进行所述实时拍摄时显示在拍摄画面中的;基于所述球面谐波数据获取所述MaskMesh对应的渲染纹理Render Texture;根据所述Render Texture中的颜色值分布数据确定所述光线检测的结果,从而通过对三维人脸拍摄时的光线进行快速有效的检测,使用户确定当前的拍摄光线是否合格,进而可使用户在合格的光线下获得高质量的拍摄效果,提高了用户体验。
为了进一步阐述本发明的技术思想,现结合具体的应用场景,对本发明的技术方案进行说明。
本发明实施例提出了一种基于三维人脸拍摄的光线检测方法,通过检测当前环境的光源强度,以及检测面部的光线均衡程度,来判定本次拍摄的环境质量,并告知用户准确的信息,以此来提高用户拍摄出的三维人脸成像质量。
上述方法具体步骤如下:
步骤一,对目标人脸进行实时拍摄,根据ARKit Face插件提供的UpdateLightEstimations回调方法中获取回调类型为LightDataType.DirectionalLightEstimate的回调,从ARFaceCamera参数中获取lightDAta.arDirectonalLightEstimate数据,其中,回调就是ARKit Face插件提供的用于获取数据的接口,ARKit Face插件提供不同类型的回调获取不同的数据。
步骤二,生成与目标人脸对应的面部网格模型Mask Mesh,可使用深度相机对目标人脸进行拍摄,利用ARKit Face插件生成Mask Mesh。lightDAta.arDirectonalLightEstimate数据中提供了3阶9个球面谐波数据,共27个数据。通过着色器Shader将球面谐波数据转换为黑白颜色数据再反映到生成的面部MaskMesh上,效果图如图2所示。再通过ARKitFace插件将Mask Mesh的正面渲染到渲染纹理Render Texture上,效果图如图3所示。
步骤三,统计生成的Render Texture图片上的颜色值到颜色分布数组中,颜色分布数组具体为0-255,得出共256组颜色值分布数据。
步骤四,根据步骤三得出颜色值分布数据绘制出颜色分布直方图,如图4所示为颜色分布直方图一,如图5所示为颜色分布直方图二。再根据标准差公式计算出标准差的值。
如图4和图5所示,从左到右颜色值为0-255,0为黑色,颜色最暗;255为白色,颜色最亮;128处于中间。
标准差公式如下:
Figure BDA0002234570160000081
其中,公式中xi为颜色值分布数据中不同的颜色值,μ为颜色值的算术平均值,σ为颜色值标准差。
步骤五,将颜色值分布数据的取值范围和颜色值标准差的取值范围作为光线质量量化标准,当光线的颜色值分布数据在对应的取值范围内且颜色值标准差在相应的取值范围内时,确定光线质量合格,否则为不合格。
具体的,图4中色块主要集中在中间区域,颜色值聚集在128周围,其标准差为19,图5中色块在0-128之间且比较分散,其标准差为36。由此可知,色块靠近中间值128且比较集中时光线比较均匀,标准差值也相对较小,光线效果较好;反之色块远离中间值128且比较分散时光线比较不均匀,标准差值也较大,光线效果不佳。
可通过数据采集测试得出效果较好的颜色取值范围和标准差取值范围,作为光线检测的量化标准,在不同的实验环境下测试,如较亮和较暗的区域及不同的光照角度下测试并获取数据,确定不同光线数据下拍摄成像质量,通过预定数量的测试即可得到较准确的颜色值分布数据的取值范围和颜色值标准差的取值范围,从而确定量化标准。进行数据采集测试时,在效果较差的光线下,导致脸部出现阴影,如图6所示为此时直方图显示的信息。
步骤六,当光线质量为合格时,允许拍摄成像获取三维人脸模型;当光线质量为不合格时,不允许拍摄成像并提示用户重新拍摄
如图7所示,在不进行光线检测的三维人脸拍摄时,额头区域光线过亮导致脸部肤色曝光。在进行光线检测的三维人脸拍摄时,只有符合标准才可以拍摄成像,如图8所示为正常可拍摄条件下获得的三维人脸成像效果示意图。
通过应用以上技术方案,实时对当前图像进行光线检测,确定当前图像的光线强度,识别图像中人脸肤色是否均衡,从而判定拍摄时的光线质量是否符合合格,进而使用户拍摄出高质量的三维人脸图像,提高了用户体验。
为了达到以上技术目的,本申请实施例还提出了一种基于三维人脸拍摄的光线检测设备,如图9所示,包括:
生成模块901,用于对目标人脸进行实时拍摄,生成与所述目标人脸对应的面部网格模型Mask Mesh;
第一获取模块902,用于从当前拍摄参数中获取人脸图像的球面谐波数据,其中,所述人脸图像是进行所述实时拍摄时显示在拍摄画面中的;
第二获取模块903,用于基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理Render Texture;
确定模块904,用于根据所述Render Texture中的颜色值分布数据确定所述光线检测的结果。
在具体的应用场景中,所述第一获取模块902,具体用于:
基于AR开发平台插件ARKit Face获取预定类型的回调;
根据所述回调从当前拍摄参数中获取人脸图像的球面谐波数据。
在具体的应用场景中,所述第二获取模块903,具体用于:
基于着色器Shader将所述球面谐波数据转换为黑白颜色数据并应用于所述MaskMesh的贴图上,以使所述贴图为黑白图;
通过所述ARKit Face对所述Mask Mesh进行渲染,获取所述Render Texture。
在具体的应用场景中,所述确定模块904,具体用于:
统计所述Render Texture中的颜色值到颜色分布数组中,确定所述颜色值分布数据,其中,所述颜色分布数组具体为0-255;
根据所述颜色值分布数据确定颜色值标准差;
当所述颜色值分布数据在第一预设取值范围内,并且所述颜色值标准差在第二预设取值范围内时,确定所述结果为合格,否则所述结果为不合格。
在具体的应用场景中,所述设备还包括限制模块,用于:
当所述结果为合格时,允许拍摄成像获取三维人脸模型;
当所述结果为不合格时,不允许拍摄成像并提示用户重新拍摄。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种基于三维人脸拍摄的光线检测方法,其特征在于,所述方法包括:
对目标人脸进行实时拍摄,生成与所述目标人脸对应的面部网格模型Mask Mesh;
从当前拍摄参数中获取人脸图像的球面谐波数据,其中,所述人脸图像是进行所述实时拍摄时显示在拍摄画面中的;
基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理Render Texture;
统计所述Render Texture中的颜色值到颜色分布数组中,确定所述颜色值分布数据,其中,所述颜色分布数组具体为0-255;
根据所述Render Texture中的颜色值分布数据确定所述光线检测的结果。
2.如权利要求1所述的方法,其特征在于,从当前拍摄参数中获取人脸图像的球面谐波数据,具体为:
基于AR开发平台插件ARKit Face获取预定类型的回调;
根据所述回调从当前拍摄参数中获取人脸图像的球面谐波数据。
3.如权利要求2所述的方法,其特征在于,基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理Render Texture,具体为:
基于着色器Shader将所述球面谐波数据转换为黑白颜色数据并应用于所述Mask Mesh的贴图上,以使所述贴图为黑白图;
通过所述ARKit Face对所述Mask Mesh进行渲染,获取所述Render Texture。
4.如权利要求1所述的方法,其特征在于,根据所述Render Texture中的颜色值分布数据确定所述光线检测的结果,具体为:
根据所述颜色值分布数据确定颜色值标准差;
当所述颜色值分布数据在第一预设取值范围内,并且所述颜色值标准差在第二预设取值范围内时,确定所述结果为合格,否则所述结果为不合格。
5.如权利要求4所述的方法,其特征在于,所述方法还包括:
当所述结果为合格时,允许拍摄成像获取三维人脸模型;
当所述结果为不合格时,不允许拍摄成像并提示用户重新拍摄。
6.一种基于三维人脸拍摄的光线检测设备,其特征在于,包括:
生成模块,用于对目标人脸进行实时拍摄,生成与所述目标人脸对应的面部网格模型Mask Mesh;
第一获取模块,用于从当前拍摄参数中获取人脸图像的球面谐波数据,其中,所述人脸图像是进行所述实时拍摄时显示在拍摄画面中的;
第二获取模块,用于基于所述球面谐波数据获取所述Mask Mesh对应的渲染纹理Render Texture;
确定模块,用于统计所述Render Texture中的颜色值到颜色分布数组中,确定所述颜色值分布数据,并根据所述Render Texture中的颜色值分布数据确定所述光线检测的结果,其中,所述颜色分布数组具体为0-255。
7.如权利要求6所述的设备,其特征在于,所述第一获取模块,具体用于:
基于AR开发平台插件ARKit Face获取预定类型的回调;
根据所述回调从当前拍摄参数中获取人脸图像的球面谐波数据。
8.如权利要求7所述的设备,其特征在于,所述第二获取模块,具体用于:
基于着色器Shader将所述球面谐波数据转换为黑白颜色数据并应用于所述Mask Mesh的贴图上,以使所述贴图为黑白图;
通过所述ARKit Face对所述Mask Mesh进行渲染,获取所述Render Texture。
9.如权利要求6所述的设备,其特征在于,所述确定模块,还用于:
根据所述颜色值分布数据确定颜色值标准差;
当所述颜色值分布数据在第一预设取值范围内,并且所述颜色值标准差在第二预设取值范围内时,确定所述结果为合格,否则所述结果为不合格。
10.如权利要求9所述的设备,其特征在于,所述设备还包括限制模块,用于:
当所述结果为合格时,允许拍摄成像获取三维人脸模型;
当所述结果为不合格时,不允许拍摄成像并提示用户重新拍摄。
CN201910978966.5A 2019-10-15 2019-10-15 一种基于三维人脸拍摄的光线检测方法和设备 Expired - Fee Related CN110691195B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910978966.5A CN110691195B (zh) 2019-10-15 2019-10-15 一种基于三维人脸拍摄的光线检测方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910978966.5A CN110691195B (zh) 2019-10-15 2019-10-15 一种基于三维人脸拍摄的光线检测方法和设备

Publications (2)

Publication Number Publication Date
CN110691195A CN110691195A (zh) 2020-01-14
CN110691195B true CN110691195B (zh) 2021-03-30

Family

ID=69112835

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910978966.5A Expired - Fee Related CN110691195B (zh) 2019-10-15 2019-10-15 一种基于三维人脸拍摄的光线检测方法和设备

Country Status (1)

Country Link
CN (1) CN110691195B (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106373177B (zh) * 2016-04-08 2019-05-14 华东交通大学 一种用于实现优化场景光照估计的设计方法
CN108090947B (zh) * 2018-01-03 2021-04-13 沈阳品尚科技有限公司 一种面向3d场景的光线追踪优化方法
CN108776990A (zh) * 2018-04-10 2018-11-09 清华大学 基于三阶球面谐波的动态场景高精度实时三维重建方法及系统
CN108765550B (zh) * 2018-05-09 2021-03-30 华南理工大学 一种基于单张图片的三维人脸重建方法
WO2020037680A1 (zh) * 2018-08-24 2020-02-27 太平洋未来科技(深圳)有限公司 基于光线的三维人脸优化方法、装置及电子设备
CN109409335B (zh) * 2018-11-30 2023-01-20 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机可读介质及电子设备

Also Published As

Publication number Publication date
CN110691195A (zh) 2020-01-14

Similar Documents

Publication Publication Date Title
TWI674804B (zh) 視訊除霧處理裝置及方法
WO2019105154A1 (en) Image processing method, apparatus and device
Kovaleski et al. High-quality reverse tone mapping for a wide range of exposures
Mantiuk et al. High-dynamic range imaging pipeline: perception-motivated representation of visual content
CN108989700A (zh) 成像控制方法、装置、电子设备以及计算机可读存储介质
CN110248242B (zh) 一种图像处理和直播方法、装置、设备和存储介质
CN109587556B (zh) 视频处理方法、视频播放方法、装置、设备和存储介质
CN110033510B (zh) 建立颜色映射关系用于校正渲染图像颜色的方法及装置
CN107451969A (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
KR20170017911A (ko) 디지털 이미지들의 컬러 프로세싱을 위한 방법들 및 시스템들
CN107396079B (zh) 白平衡调整方法和装置
CN108156369A (zh) 图像处理方法和装置
Yang et al. Underwater image enhancement using scene depth-based adaptive background light estimation and dark channel prior algorithms
CN108965729A (zh) 控制方法、装置、电子设备和计算机可读存储介质
US20240021021A1 (en) Light source spectrum and multispectral reflectivity image acquisition methods and apparatuses, and electronic device
US20140267612A1 (en) Method and Apparatus for Adaptive Exposure Bracketing, Segmentation and Scene Organization
CN116167932A (zh) 一种图像质量优化方法、装置、设备及存储介质
Sitohang Reduction Eye Red Digital Image Effect With Algorithm Intensity Color Checking
CN109005346A (zh) 控制方法、装置、电子设备和计算机可读存储介质
JP7277158B2 (ja) 設定装置及び方法、プログラム、記憶媒体
Mahmoudpour et al. A multi-attribute blind quality evaluator for tone-mapped images
CN104010134B (zh) 用于形成具有宽动态范围的系统和方法
CN110691195B (zh) 一种基于三维人脸拍摄的光线检测方法和设备
CN108629329B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN109446945A (zh) 三维模型处理方法和装置、电子设备、计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210330

Termination date: 20211015