CN113240784A - 图像处理方法、装置、终端及存储介质 - Google Patents

图像处理方法、装置、终端及存储介质 Download PDF

Info

Publication number
CN113240784A
CN113240784A CN202110571927.0A CN202110571927A CN113240784A CN 113240784 A CN113240784 A CN 113240784A CN 202110571927 A CN202110571927 A CN 202110571927A CN 113240784 A CN113240784 A CN 113240784A
Authority
CN
China
Prior art keywords
image
mapping
texture
target
texture sampling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110571927.0A
Other languages
English (en)
Other versions
CN113240784B (zh
Inventor
李珅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN202110571927.0A priority Critical patent/CN113240784B/zh
Publication of CN113240784A publication Critical patent/CN113240784A/zh
Application granted granted Critical
Publication of CN113240784B publication Critical patent/CN113240784B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Abstract

本公开关于一种图像处理方法、装置、终端及存储介质,涉及终端技术领域。方法包括:当待处理图像中包括多个面部图像,对于每个面部图像,确定面部图像的目标纹理采样区域和目标映射参数,目标映射参数为将面部图像映射到目标纹理采样区域的参数;基于目标映射参数,将面部图像映射到目标纹理采样区域,得到面部图像的纹理贴图;对纹理贴图进行采样,得到面部图像的面部纹理数据;基于面部纹理数据,对面部图像进行渲染,得到处理后的图像。通过上述方案,每个面部图像都能生成该面部图像对应的纹理贴图,从而使得图像中的每个面部图像都能被渲染,进而使图像中的面部图像都能被添加特效,进而丰富了图像的特效效果。

Description

图像处理方法、装置、终端及存储介质
技术领域
本公开涉及终端技术领域,尤其涉及图像处理方法、装置、终端及存储介质。
背景技术
目前,终端上一般安装有短视频应用或相机应用。用户能够通过终端中安装的短视频应用或相机应用拍摄图像,以及,通过上述应用在拍摄的图像中增加特效。例如,在拍摄的图像中增加虚拟装饰物,使拍摄到的图像内容更加丰富,更加美观。
相关技术中,采用RTT(Render To Texture,渲染到纹理)技术向图像中增加特效。其中,RTT技术一般是为图像处理场景设置一组映射模型和纹理模型,将采集到的图像中的面部图像映射到映射模型中,得到渲染目标;再通过纹理模型对渲染目标进行渲染,得到用于增加特效的图像,为该图像增加特效。其中,映射模型在渲染场景中不可见,用于将待处理图像中的面部图像映射为方形纹理贴图,以供纹理模型使用。纹理模型在最终渲染场景中可见,是用户看到的面部能够在特效中呈现出来的样子。其中,纹理模型使用映射模型生成的纹理贴图颜色。
上述相关技术中,由于图像处理场景只设置一组映射模型和纹理模型,因此,在对图像中的面部图像进行处理时,只能针对一个面部图像进行处理。这就导致当图像中的人脸有多个时,只能对该多个面部图像中的一个面部图像增加特效,无法实现对图像中的多个面部图像增加特效,导致图像的特效效果单一。
发明内容
本公开提供一种图像处理方法、装置、终端及存储介质,能够丰富图像的特效处理效果。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种图像处理方法,所述方法包括:
当待处理图像中包括多个面部图像,对于每个面部图像,确定所述面部图像的目标纹理采样区域和目标映射参数,所述目标映射参数为将所述面部图像映射到所述目标纹理采样区域的参数;
基于所述目标映射参数,将所述面部图像映射到所述目标纹理采样区域,得到所述面部图像的纹理贴图;
对所述纹理贴图进行采样,得到所述面部图像的面部纹理数据;
基于所述面部纹理数据,对所述面部图像进行渲染,得到处理后的图像。
在一些实施例中,所述确定所述面部图像的目标纹理采样区域和目标映射参数,包括:
确定所述面部图像的索引信息;
基于所述索引信息,从索引信息和纹理采样区域之间的对应关系中,确定所述面部图像的目标纹理采样区域;
基于所述索引信息,从索引信息和映射参数之间的对应关系中,确定所述目标映射参数。
在一些实施例中,索引信息和纹理采样区域之间的对应关系的确定过程包括:
基于预设数量,对第一映射模型的纹理采样区域进行划分,得到多个纹理采样区域,所述第一映射模型的纹理采样区域为所述第一映射模型映射到的渲染目标中的纹理采样区域;
对于每个纹理采样区域,为所述纹理采样区域分配索引信息;
基于所述纹理采样区域和所述纹理采样区域被分配的索引信息,建立所述索引信息和纹理采样区域之间的对应关系。
在一些实施例中,映射参数包括缩放系数和偏移系数;索引信息和映射参数之间的对应关系的确定过程,包括:
对于每个纹理采样区域,基于所述纹理采样区域的区域范围和基准区域,确定所述区域范围与所述基准区域之间的缩放系数;
基于所述纹理采样区域在所述第一映射模型的纹理采样区域的位置信息,确定所述区域范围与所述基准区域之间的偏移系数;
基于所述纹理采样区域的缩放系数、偏移系数和所述纹理采样区域被分配的索引信息,建立索引信息和映射参数之间的对应关系。
在一些实施例中,所述确定所述面部图像的目标纹理采样区域和目标映射参数,包括:
确定所述面部图像的索引信息;
基于所述索引信息,从索引信息和第二映射模型之间的对应关系中,确定所述面部图像的目标映射模型;
获取所述目标映射模型的目标纹理采样区域以及所述目标映射模型的目标映射参数。
在一些实施例中,索引信息和第二映射模型之间的对应关系的确定过程,包括:
确定多个第二映射模型,所述多个第二映射模型为图像处理场景中添加的映射模型;
对于每个第二映射模型,为所述第二映射模型分配索引信息;
基于所述第二映射模型和所述第二映射模型被分配的索引信息,建立索引信息和第二映射模型之间的对应关系。
在一些实施例中,在所述基于所述面部纹理数据,对所述面部图像进行渲染,得到处理后的图像之后,所述方法还包括:
确定待添加的特效表情;
基于所述处理后的图像,确定渲染目标;
向所述渲染目标中添加所述特效表情;
基于所述待处理图像的每个渲染目标,对所述处理后的图像进行渲染,得到添加特效表情的图像。
根据本公开实施例的第二方面,提供一种图像处理装置,所述装置包括:
第一确定单元,被配置为当待处理图像中包括多个面部图像,执行对于每个面部图像,确定所述面部图像的目标纹理采样区域和目标映射参数,所述目标映射参数为将所述面部图像映射到所述目标纹理采样区域的参数;
映射单元,被配置为执行基于所述目标映射参数,将所述面部图像映射到所述目标纹理采样区域,得到所述面部图像的纹理贴图;
采样单元,被配置为执行对所述纹理贴图进行采样,得到所述面部图像的面部纹理数据;
渲染单元,被配置为执行基于所述面部纹理数据,对所述面部图像进行渲染,得到处理后的图像。
在一些实施例中,所述第一确定单元,包括:
第一确定子单元,被配置为执行确定所述面部图像的索引信息;
第二确定子单元,被配置为执行基于所述索引信息,从索引信息和纹理采样区域之间的对应关系中,确定所述面部图像的目标纹理采样区域;
第三确定子单元,被配置为执行基于所述索引信息,从索引信息和映射参数之间的对应关系中,确定所述目标映射参数。
在一些实施例中,所述装置还包括:
划分单元,被配置为执行基于预设数量,对第一映射模型的纹理采样区域进行划分,得到多个纹理采样区域,所述第一映射模型的纹理采样区域为所述第一映射模型映射到的渲染目标中的纹理采样区域;
第一分配单元,被配置为执行对于每个纹理采样区域,为所述纹理采样区域分配索引信息;
第一建立单元,被配置为执行基于所述纹理采样区域和所述纹理采样区域被分配的索引信息,建立所述索引信息和纹理采样区域之间的对应关系。
在一些实施例中,映射参数包括缩放系数和偏移系数;所述装置还包括:
第二确定单元,被配置为执行对于每个纹理采样区域,基于所述纹理采样区域的区域范围和基准区域,确定所述区域范围与所述基准区域之间的缩放系数;
第三确定单元,被配置为执行基于所述纹理采样区域在所述第一映射模型的纹理采样区域的位置信息,确定所述区域范围与所述基准区域之间的偏移系数;
第二建立单元,被配置为执行基于所述纹理采样区域的缩放系数、偏移系数和所述纹理采样区域被分配的索引信息,建立索引信息和映射参数之间的对应关系。
在一些实施例中,所述第一确定单元,包括:
第四确定子单元,被配置为执行确定所述面部图像的索引信息;
第五确定子单元,被配置为执行基于所述索引信息,从索引信息和第二映射模型之间的对应关系中,确定所述面部图像的目标映射模型;
获取子单元,被配置为执行获取所述目标映射模型的目标纹理采样区域以及所述目标映射模型的目标映射参数。
在一些实施例中,所述装置还包括:
第四确定单元,被配置为执行确定多个第二映射模型,所述多个第二映射模型为图像处理场景中添加的映射模型;
第二分配单元,被配置为执行对于每个第二映射模型,为所述第二映射模型分配索引信息;
第三建立单元,被配置为执行基于所述第二映射模型和所述第二映射模型被分配的索引信息,建立索引信息和第二映射模型之间的对应关系。
在一些实施例中,所述装置还包括:
第五确定单元,被配置为执行确定待添加的特效表情;
第六确定单元,被配置为执行基于所述处理后的图像,确定渲染目标;
特效添加单元,被配置为执行向所述渲染目标中添加所述特效表情;
所述渲染单元,还被配置为执行基于所述待处理图像的每个渲染目标,对所述处理后的图像进行渲染,得到添加特效表情的图像。
根据本公开实施例的第三方面,提供一种终端,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如上述任一方面所述的图像处理方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,当所述计算机可读存储介质中的指令由终端的处理器执行时,使得所述终端能够执行如上述任一方面所述的图像处理方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,包括计算机程序指令,所述计算机程序/指令被处理器执行时实现如上述任一方面所述的图像处理方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
本公开实施例中,通过为待处理图像中的多个面部图像分配纹理采样区域,从而使得每个面部图像都能够映射到纹理采样区域中,这样每个面部图像都能生成该面部图像对应的纹理贴图,从而使得图像中的每个面部图像都能被渲染,进而使图像中的面部图像都能被添加特效,进而丰富了图像的特效效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种图像处理方法的流程图。
图2是根据一示例性实施例示出的一种图像处理方法的流程图。
图3是根据一示例性实施例示出的一种纹理采样区域的示意图。
图4是根据一示例性实施例示出的一种纹理采样区域的示意图。
图5是根据一示例性实施例示出的一种纹理采样区域的示意图。
图6是根据一示例性实施例示出的一种纹理采样区域的示意图。
图7是根据一示例性实施例示出的一种纹理采样区域的示意图。
图8是根据一示例性实施例示出的一种纹理采样区域的示意图。
图9是根据一示例性实施例示出的一种图像处理方法的流程图。
图10是根据一示例性实施例示出的一种图像处理装置的框图。
图11是根据一示例性实施例示出的一种终端的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。另外,本公开所涉及的图像和其他数据信息可以为经用户授权或者经过各方充分授权的图像和其他数据信息。
目前,终端上一般安装有短视频应用或相机应用。用户能够通过终端中安装的短视频应用或相机应用拍摄图像,以及,通过上述应用在拍摄的图像中增加特效。例如,在拍摄的图像中增加虚拟装饰物,使拍摄到的图像内容更加丰富,更加美观。
相关技术中,在向图像中添加表情特效时,需要将图像中的面部图像映射到三维模型上,再将表情特效添加到该三维的面部图像中,得到添加了特效的面部图像。一般采用RTT(Render To Texture,渲染到纹理)技术渲染三维图像。其中,RTT技术一般是为图像处理场景设置一组映射模型和纹理模型,将采集到的图像中的面部图像映射到映射模型中,得到渲染目标;再通过纹理模型对渲染目标进行渲染,得到用于增加特效的三维图像,为该三维图像增加特效。其中,映射模型在渲染场景中不可见,用于将待处理图像中的面部图像映射为方形纹理贴图,以供纹理模型使用。纹理模型在最终渲染场景中可见,是用户看到的面部能够在特效中呈现出来的样子。其中,纹理模型使用映射模型生成的纹理贴图颜色。
上述相关技术中,由于图像处理场景只设置一组映射模型和纹理模型,因此,在对图像中的面部图像进行处理时,只能针对一个面部图像进行处理。这就导致当图像中的人脸有多个时,只能对该多个面部图像中的一个面部图像增加特效,无法实现对图像中的多个面部图像增加特效,导致图像的特效效果单一。
而本公开实施例中,通过为待处理图像中的多个面部图像分配纹理采样区域,从而使得每个面部图像都能够映射到纹理采样区域中,这样每个面部图像都能生成该面部图像对应的纹理贴图,从而使得图像中的每个面部图像都能被渲染,进而使图像中的面部图像都能被添加特效,进而丰富了图像的特效效果。
图1是根据一示例性实施例示出的一种图像处理方法的实施环境图,参见图1,该图像处理方法包括:
在步骤S11中,当待处理图像中包括多个面部图像,对于每个面部图像,确定面部图像的目标纹理采样区域和目标映射参数,目标映射参数为将面部图像映射到目标纹理采样区域的参数;
在步骤S12中,基于目标映射参数,将面部图像映射到目标纹理采样区域,得到面部图像的纹理贴图;
在步骤S13中,对纹理贴图进行采样,得到面部图像的面部纹理数据;
在步骤S14中,基于面部纹理数据,对面部图像进行渲染,得到处理后的图像。
在一些实施例中,确定面部图像的目标纹理采样区域和目标映射参数,包括:
确定面部图像的索引信息;
基于索引信息,从索引信息和纹理采样区域之间的对应关系中,确定面部图像的目标纹理采样区域;
基于索引信息,从索引信息和映射参数之间的对应关系中,确定目标映射参数。
在一些实施例中,索引信息和纹理采样区域之间的对应关系的确定过程包括:
基于预设数量,对第一映射模型的纹理采样区域进行划分,得到多个纹理采样区域,该第一映射模型的纹理采样区域为该第一映射模型映射到的渲染目标中的纹理采样区域;
对于每个纹理采样区域,为纹理采样区域分配索引信息;
基于纹理采样区域和纹理采样区域被分配的索引信息,建立索引信息和纹理采样区域之间的对应关系。
在一些实施例中,映射参数包括缩放系数和偏移系数;索引信息和映射参数之间的对应关系的确定过程,包括:
对于每个纹理采样区域,基于纹理采样区域的区域范围和基准区域,确定区域范围与基准区域之间的缩放系数;
基于纹理采样区域在第一映射模型的纹理采样区域的位置信息,确定区域范围与基准区域之间的偏移系数;
基于纹理采样区域的缩放系数、偏移系数和纹理采样区域被分配的索引信息,建立索引信息和映射参数之间的对应关系。
在一些实施例中,确定面部图像的目标纹理采样区域和目标映射参数,包括:
确定面部图像的索引信息;
基于索引信息,从索引信息和第二映射模型之间的对应关系中,确定面部图像的目标映射模型;
获取目标映射模型的目标纹理采样区域以及目标映射模型的目标映射参数。
在一些实施例中,索引信息和第二映射模型之间的对应关系的确定过程,包括:
确定多个第二映射模型,多个第二映射模型为图像处理场景中添加的映射模型;
对于每个第二映射模型,为第二映射模型分配索引信息;
基于第二映射模型和第二映射模型被分配的索引信息,建立索引信息和第二映射模型之间的对应关系。
在一些实施例中,在基于面部纹理数据,对面部图像进行渲染,得到处理后的图像之后,方法还包括:
确定待添加的特效表情;
基于处理后的图像,确定渲染目标;
向渲染目标中添加特效表情;
基于待处理图像的每个渲染目标,对处理后的图像进行渲染,得到添加特效表情的图像。
本公开实施例中,通过为待处理图像中的多个面部图像分配纹理采样区域,从而使得每个面部图像都能够映射到纹理采样区域中,这样每个面部图像都能生成该面部图像对应的纹理贴图,从而使得图像中的每个面部图像都能被渲染,进而使图像中的面部图像都能被添加特效,进而丰富了图像的特效效果。
在一些实施例中,将图像对应的映射模型的纹理采样区域进行划分,得到多个纹理采样区域,这样将不同的面部图像通过映射模型映射到不同的纹理采样区域中。其中,该不同纹理采样区域为基于同一渲染目标的纹理采样区域进行划分得到为纹理采样模型。由于映射模型和纹理模型的UV分布相同,因此,纹理模型能够从该渲染目标的不同纹理采样区域中进行采样,从而实现对多个面部图像的渲染。图2是根据一示例性实施例示出的一种图像处理方法的流程图,如图2所示,该图像处理方法应用于终端中,包括以下步骤:
在步骤S21中,当待处理图像中包括多个面部图像,确定面部图像的索引信息。
其中,该索引信息为该待处理图像中的面部图像的索引信息。该索引信息的形式根据需要进行设置,在本公开实施例中,对该索引信息的形式不作具体限定。例如,该索引信息为面部图像的编号。相应的,在采集到待处理图像时,对待处理图像进行面部图像检测。每检测到一张面部图像,将该面部图像编号值+1,直到检测到预设数量的面部图像。例如,预设数量为4,则当检测到4张面部图像,将该4张面部图像的索引信息分别标记为1、2、3和4。
需要说明的一点是,该待处理图像为采集到的视频流中的帧图像,或者,拍摄的图像,或者,接收的其他电子设备发送的图像等,在本公开实施例中,对此不作具体限定。
在步骤S22中,基于索引信息,从索引信息和纹理采样区域之间的对应关系中,确定面部图像的目标纹理采样区域。
在本步骤中,基于检测到的面部图像的索引信息,为检测到的面部图像的分配划分好的目标纹理采样区域。例如,映射模型的纹理采样模型可以划分为四个纹理采样模型,当面部图像的数量为2个,其索引信息分别为1和2,参见图3,基于索引信息和纹理采样区域之间的对应关系,分别将左上和右上的纹理采样模型分配给该两个面部图像;当面部图像的数量为3个,其索引信息分别为1、2和3,参见图4,分别将左上、右上和左下的纹理采样模型分配给该三个面部图像;当该面部图像的数量为4个,其索引信息分别为1、2、3和4,参见图5,分别将左上、右上、左下和右下的纹理采样模型分配给该三个面部图像。
需要说明的一点是,当待处理图像中的面部图像的数量为1个,参见图6,将该映射模型的纹理采样区域确定为该面部图像的纹理采样区域。
在本步骤之前,需要确定索引信息和纹理采样区域之间的对应关系,该过程通过以下步骤(1)-(3)实现,包括:
(1)基于预设数量,对第一映射模型的纹理采样区域进行划分,得到多个纹理采样区域。
其中,该第一映射模型的纹理采样区域为该第一映射模型映射到的渲染目标中的纹理采样区域。该第一映射模型的纹理采样区域为第一映射模型用于生成纹理贴图的纹理采样区域。该纹理采样区域的尺寸根据需要进行设置,在本公开实施例中,对该第一映射模型的纹理采样区域的尺寸不作具体限定。例如,该第一映射模型的纹理采样区域的尺寸为方形纹理尺寸,如1024x1024。
该预设数量根据需要进行设置,在本公开实施例中,对该预设数量不作具体限定。例如,该预设数量为4、6或9等。在本公开实施例中,以预设数量为4进行说明。参见图7,当预设数量为4时,将第一映射模型的纹理采样区域平均分为左上、左下、右上和右下四个纹理采样区域。
需要说明的一点是,该预设数量还能够根据待处理图像中的面部图像的数量确定。例如,待处理图像中的面部图像的数量为1个,则在本步骤中,直接将该第一映射模型的纹理采样区域确定为该面部图像的纹理采样区域。再例如,该待处理图像中的面部图像的数量为2、3或4个,则将该预设数量确定为4,将第一映射模型纹理采样区域平均分为左上、左下、右上和右下四个纹理采样区域。
(2)对于每个纹理采样区域,为纹理采样区域分配索引信息。
在本步骤中,对于划分出的每个纹理采样模型,为其分配索引信息。例如,第一映射模型纹理采样区域平均划分为左上、左下、右上和右下四个纹理采样区域。为左上的纹理采样区域分配第一索引信息,为右上的纹理采样区域分配第二索引信息,为左下的纹理采样区域分配第三索引信息,为右下的纹理采样区域分配第四索引信息。或者,为左上的纹理采样区域分配第一索引信息,为左下的纹理采样区域分配第二索引信息,为右上的纹理采样区域分配第三索引信息,为右下的纹理采样区域分配第四索引信息。在本公开实施例中,对为纹理采样区域分配索引信息的方式不作具体限定。
(3)基于纹理采样区域和纹理采样区域被分配的索引信息,建立索引信息和纹理采样区域之间的对应关系。
在本步骤中,存储划分的纹理采样区域和该纹理采样区域被分配的索引信息的对应关系,建立索引信息和纹理采样区域之间的对应关系。
在本实现方式中,通过将第一映射模型的纹理采样区域进行划分,将划分得到的多个纹理采样区域与索引信息进行匹配,从而在获取到面部图像时,能够根据面部图像的索引信息为该面部图像分配划分得到的纹理采样区域,从而实现对待处理图像中的多个面部图像进行处理,丰富了面部图像的处理方式。
在步骤S23中,基于索引信息,从索引信息和映射参数之间的对应关系中,确定目标映射参数。
该目标映射参数为索引信息与纹理采样区域之间进行图像映射时的映射参数。该映射参数包括缩放系数和偏移系数。
在本实现方式中,通过将纹理采样区域进行划分,使得能够从索引信息和纹理采样区域之间的对应关系确定划分出来的目标采样区域,从而将面部图像渲染在该目标采样区域中,实现了将图像中的每个面部图像都进行渲染。
在本步骤之前,需要建立索引信息和映射参数之间的对应关系。该过程通过以下步骤(1)-(3)实现,包括:
(1)对于每个纹理采样区域,基于纹理采样区域的区域范围和基准区域,确定区域范围与基准区域之间的缩放系数。
其中,该基准区域为从待处理图像中截取出的面部图像的区域。该基准区域的尺寸根据需要进行设置,例如,该基准区域的尺寸为1024x1024的尺寸,则在待处理图像中检测到面部图像时,基于该基准区域的尺寸对该面部图像进行截取。
在本步骤中,基于该纹理采样区域的区域范围,确定该纹理采样区域的尺寸,将该尺寸与基准区域的尺寸之间的比值确定为该缩放系数。即该缩放系数表示面部图像映射到纹理采样区域中,X方向和Y方向的缩放比例。例如,第一映射模型的纹理采样区域的尺寸为1024x1024,基准区域的尺寸为512x512,则当预设数量为1时,划分后的纹理采样模型为1个,则面部图像在该纹理采样区域中的中央位置,面部图像映射到该纹理采样区域需要将X轴和Y轴分别方放大2倍,因此,该缩放系数为(2,2)。当预设数量为2、3或4时,将映射模型的纹理采样区域划分为4个纹理模型采样区域,划分后的纹理采样区域的大小均为512x512,面部图像映射到该纹理采样区域不需要进行缩放,因此,该缩放系数为(1,1)。
(2)基于纹理采样区域在第一映射模型的纹理采样区域的位置信息,确定区域范围与基准区域之间的偏移系数。
偏移系数表示面部图像中的像素点在X轴方向上的偏移系数和Y轴方向上的偏移系数。其中,该偏移系数以面部图像映射到映射模型的纹理采样区域后其左下角的坐标在该纹理采样区域中的位置坐标的偏移系数确定。例如,在以映射模型的纹理采样区域的中心点作为原点建立的坐标系中,当面部图像的数量为1个时,面部图像的左下角对应的位置坐标为(-1,-1),当面部图像的数量为2、3或4个时,面部图像可以位于映射模型的纹理采样区域的左上、右上、左下和右下的纹理采样区域中,每个纹理采样区域对应的偏移系数为(-1,0)、(0,0)、(-1,-1)和(0,-1)。
(3)基于纹理采样区域的缩放系数、偏移系数和纹理采样区域被分配的索引信息,建立索引信息和映射参数之间的对应关系。
其中,为同一索引信息对应的映射参数和纹理采样参数建立对应关系。参见表1。
表1
Figure BDA0003083020440000121
其中,由表1可以看出,当面部图像的数量为1个时,该映射参数为[2,2,-1,-1]。也即将面部图像从映射到该纹理采样区域时,像素点的位置坐标分别在X轴方向和Y轴方向放大2倍,并分别向左和向下平移1。其中,纹理采样区域中像素点的公式为:screenpos=texcoord.xy*texcoord_offset.xy+texcoord_offset.zw。其中,screenpos表示纹理采样区域中像素点的位置,texcoord.xy表示面部图像中像素点的位置,texcoord_offset.zw表示像素点的偏移系数。继续参见图7,在以第一映射模型的纹理采样区域的中心点为坐标原点的坐标系中,该面部图像所占的区域范围为X轴方向上从-1到1的2个单位长度和Y轴方向上从-1到1的2个单位长度,且面部图像的左下角在纹理采样区域中的位置为坐标点(-1,-1)所在的位置。面部图像的X轴方向上的取值范围为[-1,1],Y轴方向上的取值范围为[-1,1]。即screenpos.x=texcoord.x*2–1;screenpos.y=texcoord.y*2–1。其中,screenpos.x表示映射到纹理采样区域中的像素点的横坐标,texcoord.x表示面部图像中像素点的横坐标;screenpos.y表示映射到纹理采样区域中的像素点的纵坐标,texcoord.y表示面部图像中像素点的纵坐标。对于面部图像的数量为2、3或4个的情况,划分的纹理采样区域为4个,对于为与左上的纹理采样区域,该映射参数为[1,1,-1,0]。也即将面部图像从映射到该纹理采样区域时,像素点的位置坐标分别在X轴方向和Y轴方向不变,并分别向左平移1,纵向不平移。继续参见图7,在以第一映射模型的纹理采样区域的中心点为坐标原点的坐标系中,该面部图像所占的区域范围为X轴方向上从-1到1的2个单位长度和Y轴方向上从-1到1的2个单位长度,且面部图像的左下角在纹理采样区域中的位置为坐标点(-1,0)所在的位置。面部图像的X轴方向上的取值范围为[-1,0],Y轴方向上的取值范围为[0,1]。即screenpos.x=texcoord.x–1;screenpos.y=texcoord.y。其中,screenpos.x表示映射到纹理采样区域中的像素点的横坐标,texcoord.x表示面部图像中像素点的横坐标;screenpos.y表示映射到纹理采样区域中的像素点的纵坐标,texcoord.y表示面部图像中像素点的纵坐标。对于位于右上、左下和右下区域的纹理采样区域,与为与左上区域的纹理采样区域的参数确定情况相似,在此不再赘述。
在本实现方式中,将划分的纹理采样区域通过基准区域进行划分,使得划分的纹理采样区域能够基于基准区域进行缩放和偏移,从而能够在目标区域中确定该纹理采样区域,保证了面部图像能够映射到目标纹理区域中。
在步骤S24中,基于目标映射参数,将面部图像映射到目标纹理采样区域,得到面部图像的纹理贴图。
在本步骤中,基于每个面部图像对应的纹理采样区域,确定该面部图像与纹理采样区域的目标映射关系,基于该目标映射关系,将该面部图像中的像素点映射到该纹理采样区域,得到面部图像的纹理贴图。
在步骤S25中,对纹理贴图进行采样,得到面部图像的面部纹理数据。
在本步骤中,基于纹理模型对纹理样本区域进行采样。其中,通过纹理模型确定索引信息对应的采样区域的位置,将纹理采样区域中的像素点采样值纹理坐标系中。该过程通过以下步骤(1)-(2)实现,包括:
(1)确定面部图像与纹理模型之间的映射关系。
在本步骤中,确定纹理模型的纹理坐标系,该纹理坐标系为从纹理采样区域采样后映射到的像素点坐标系。参见图8,图8为根据一示例性实施例示出的一种纹理坐标系。其中,将该纹理坐标系的横纵坐标范围分别为[0,1],该纹理坐标系的范围与映射模型的纹理采样区域对应。基于该对应该系可以确定该纹理采样区域与纹理模型之间的第二映射关系,参见表2。
表2
Figure BDA0003083020440000141
其中,当面部图像的数量为1时,其图像大小不变,因此,横纵坐标的放大系数为1,面部图像的左下角的坐标为(0,0),因此,其偏移系数为[1,1,0,0];X轴方向在纹理坐标系中的取值范围为[0,1],Y轴方向在纹理坐标系中的取值范围为[0,1]。从纹理映射区域到该纹理坐标系的与映射中,无需进行缩放和平移,因此,面部图像与纹理模型之间的第二映射关系为new_texcoord.x=texcoord.x;new_texcoord.y=texcoord.y。其中,new_texcoord.x为采样后像素点的横坐标,texcoord.x为面部图像的横坐标,new_texcoord.y为采样后像素点的纵坐标,texcoord.y为面部图像的纵坐标。
当面部图像的数量为2、3或4个时,继续参见图8,分别将面部图像也映射到左上、右上、左下、右下的区域中。其中,对于左上的区域,其横纵坐标均缩小为原来的0.5倍,并且,面部图像的左下角所在的位置为(0,0.5),因此,其偏移系数为[0.5,0.5,0,0.5]。X轴方向在纹理坐标系中的取值范围为[0,0.5],Y轴方向在纹理坐标系中的取值范围为[0.5,1]。从纹理映射区域到该纹理坐标系的与映射中,需要缩小0.5倍,因此,面部图像与纹理模型之间的第二映射关系为new_texcoord.x=texcoord.x*0.5;new_texcoord.y=texcoord.y*0.5+0.5。其中,new_texcoord.x为采样后像素点的横坐标,texcoord.x为面部图像的横坐标,new_texcoord.y为采样后像素点的纵坐标,texcoord.y为面部图像的纵坐标。对于右上、左下和右下区域,第二映射关系与左上区域的映射关系的确定过程相似,在此不再赘述。
(2)基于第二映射关系,从纹理采样区域中进行采样,得到面部图像的面部纹理数据。
其中,纹理坐标系中横纵坐标的取值范围均为(0,1)。基于纹理坐标的坐标系,对纹理采样区域中的像素点进行采样,得到面部图像的面部纹理数据。在本步骤中,基于检索到的面部图像的索引信息,确定该面部图像对应的纹理采样区域,以及,基于该索引信息确定该第二映射关系,基于该第二映射关系进行采样得到该面部图像的面部纹理数据。爱面部纹理数据用于更新至渲染目标中,以便基于该渲染目标进行图像渲染。
在步骤S26中,基于面部纹理数据,对面部图像进行渲染,得到处理后的图像。
根据目标映射关系和第二映射关系将每个待处理图像中面部图像的数量和索引信息,实时更新对应的渲染目标中内容,例如,拍摄图像中有两个人脸,则在纹理采样区域的左上、右上写入内容,此时场景中有两组模型,分别是第一张脸的A1B1和第二张脸的A2B2,实时计算的texcoord_offset参数会将A1-RT1左上角-B1颜色,A2-RT1右上角-B2颜色对应起来,基于A1-RT1左上角-B1颜色和A2-RT1右上角-B2颜色进行图像渲染。
另外,在得到处理后的图像后,还能够基于该处理后的图像增加特效表情,从而实现向图像中的每个面部图像都添加特效表情,该过程为:确定待添加的特效表情;基于处理后的图像,确定渲染目标;向渲染目标中添加特效表情;基于待处理图像的每个渲染目标,对处理后的图像进行渲染,得到添加特效表情的图像。
在本实现方式中,分别通过不同的渲染目标添加特效表情,使得待处理图像中的每个面部图像都能添加特效表情,丰富了图像的特效效果。
本公开实施例中,通过为待处理图像中的多个面部图像分配纹理采样区域,从而使得每个面部图像都能够映射到纹理采样区域中,这样每个面部图像都能生成该面部图像对应的渲染目标,从而使得图像中的每个面部图像都能被渲染,进而使图像中的面部图像都能被添加特效,进而丰富了图像的特效效果。
在一些实施例中,为图像分配多个映射模型,将待处理图像中的面部图像分别映射到每个映射模型对应的渲染目标的纹理采样区域中,从而在进行纹理采样时,也能从多个映射模型的纹理采样区域中进行采样,从而实现对多个面部图像的渲染。图9是根据一示例性实施例示出的一种图像处理方法的流程图,如图9所示,该图像处理方法应用于终端中,包括以下步骤:
在步骤S91中,确定面部图像的索引信息。
本步骤与步骤S21相似,在此不再赘述。
在步骤S92中,基于索引信息,从索引信息和第二映射模型之间的对应关系中,确定面部图像的目标映射模型。
在本实现方式中,向图像处理的场景中添加多个第二映射模型,建立每个索引信息与第二映射模型的映射关系。该过程通过以下步骤(1)-(3)实现,包括:
(1)确定多个第二映射模型。
其中,多个第二映射模型为图像处理场景中添加的映射模型。
(2)对于每个第二映射模型,为第二映射模型分配索引信息。
本步骤与步骤S21中的步骤(2)相似,在此不再赘述。
(3)基于第二映射模型和第二映射模型被分配的索引信息,建立索引信息和第二映射模型之间的对应关系。
本步骤与步骤S21中的步骤(3)相似,在此不再赘述。
在本实现方式中,为多个第二映射模型都分配索引信息,建立索引信息和第二映射模型之间的对应关系,从而当检测到多个面部图像时,能够将多个面部图像中都进行映射,从而使图像中的面部图像都能被添加特效,进而丰富了图像的特效效果。
在步骤S93中,获取目标映射模型的目标纹理采样区域以及目标映射模型的目标映射参数。
本步骤与步骤S23相似,在此不再赘述。
表3
Figure BDA0003083020440000171
其中,对于每个面部图像,该映射参数均为[2,2,-1,-1]。也即将面部图像从映射到该纹理采样区域时,像素点的位置坐标分别在X轴方向和Y轴方向放大2倍,并分别向左和向下平移1。其中,纹理采样区域中像素点的公式为:screenpos=texcoord.xy*texcoord_offset.xy+texcoord_offset.zw。其中,screenpos表示纹理采样区域中像素点的位置,texcoord.xy表示面部图像中像素点的位置,texcoord_offset.zw表示像素点的偏移系数。继续参见图7,在以第一映射模型的纹理采样区域的中心点为坐标原点的坐标系中,该面部图像所占的区域范围为X轴方向上从-1到1的2个单位长度和Y轴方向上从-1到1的2个单位长度,且面部图像的左下角在纹理采样区域中的位置为坐标点(-1,-1)所在的位置。面部图像的X轴方向上的取值范围为[-1,1],Y轴方向上的取值范围为[-1,1]。即screenpos.x=texcoord.x*2–1;screenpos.y=texcoord.y*2–1。其中,screenpos.x表示映射到纹理采样区域中的像素点的横坐标,texcoord.x表示面部图像中像素点的横坐标;screenpos.y表示映射到纹理采样区域中的像素点的纵坐标,texcoord.y表示面部图像中像素点的纵坐标。
在步骤S94中,基于目标映射参数,将面部图像映射到目标纹理采样区域,得到面部图像的纹理贴图。
本步骤与步骤S24相似,在此不再赘述。
其中,基于该对应该系可以确定该纹理采样区域与纹理模型之间的第二映射关系,参见表4。
表4
Figure BDA0003083020440000181
其中,其图像大小不变,因此,横纵坐标的放大系数为1,面部图像的左下角的坐标为(0,0),因此,其偏移系数为[1,1,0,0];X轴方向在纹理坐标系中的取值范围为[0,1],Y轴方向在纹理坐标系中的取值范围为[0,1]。从纹理映射区域到该纹理坐标系的与映射中,无需进行缩放和平移,因此,面部图像与纹理模型之间的第二映射关系为new_texcoord.x=texcoord.x;new_texcoord.y=texcoord.y。其中,new_texcoord.x为采样后像素点的横坐标,texcoord.x为面部图像的横坐标,new_texcoord.y为采样后像素点的纵坐标,texcoord.y为面部图像的纵坐标。
在本实现方式中,通过为设置多个纹理采样区域,使得每个面部图像都能映射到纹理采样区域中,从而每个面部图像都能生成该面部图像对应的渲染目标,从而使得图像中的每个面部图像都能被渲染,进而使图像中的面部图像都能被添加特效,进而丰富了图像的特效效果。
在步骤S95中,对纹理贴图进行采样,得到面部图像的面部纹理数据。
本步骤与步骤S25相似,在此不再赘述。
在步骤S96中,基于面部纹理数据,对面部图像进行渲染,得到处理后的图像。
本步骤与步骤S26相似,在此不再赘述。
本公开实施例中,通过为待处理图像中的多个面部图像分配纹理采样区域,从而使得每个面部图像都能够映射到纹理采样区域中,这样每个面部图像都能生成该面部图像对应的渲染目标,从而使得图像中的每个面部图像都能被渲染,进而使图像中的面部图像都能被添加特效,进而丰富了图像的特效效果。
图10是根据一示例性实施例示出的一种图像处理装置的框图。如图10所示,该装置包括:
第一确定单元1001,被配置为当待处理图像中包括多个面部图像,执行对于每个面部图像,确定该面部图像的目标纹理采样区域和目标映射参数,该目标映射参数为将该面部图像映射到该目标纹理采样区域的参数;
映射单元1002,被配置为执行基于该目标映射参数,将该面部图像映射到该目标纹理采样区域,得到该面部图像的纹理贴图;
采样单元1003,被配置为执行对该纹理贴图进行采样,得到该面部图像的面部纹理数据;
渲染单元1004,被配置为执行基于该面部纹理数据,对该面部图像进行渲染,得到处理后的图像。
在一些实施例中,该第一确定单元1001,包括:
第一确定子单元,被配置为执行确定该面部图像的索引信息;
第二确定子单元,被配置为执行基于该索引信息,从索引信息和纹理采样区域之间的对应关系中,确定该面部图像的目标纹理采样区域;
第三确定子单元,被配置为执行基于该索引信息,从索引信息和映射参数之间的对应关系中,确定该目标映射参数。
在一些实施例中,该装置还包括:
划分单元,被配置为执行基于预设数量,对第一映射模型的纹理采样区域进行划分,得到多个纹理采样区域,该第一映射模型的纹理采样区域为该第一映射模型映射到的渲染目标中的纹理采样区域;
第一分配单元,被配置为执行对于每个纹理采样区域,为该纹理采样区域分配索引信息;
第一建立单元,被配置为执行基于该纹理采样区域和该纹理采样区域被分配的索引信息,建立该索引信息和纹理采样区域之间的对应关系。
在一些实施例中,映射参数包括缩放系数和偏移系数;该装置还包括:
第二确定单元,被配置为执行对于每个纹理采样区域,基于该纹理采样区域的区域范围和基准区域,确定该区域范围与该基准区域之间的缩放系数;
第三确定单元,被配置为执行基于该纹理采样区域在该第一映射模型的纹理采样区域的位置信息,确定该区域范围与该基准区域之间的偏移系数;
第二建立单元,被配置为执行基于该纹理采样区域的缩放系数、偏移系数和该纹理采样区域被分配的索引信息,建立索引信息和映射参数之间的对应关系。
在一些实施例中,该第一确定单元1001,包括:
第四确定子单元,被配置为执行确定该面部图像的索引信息;
第五确定子单元,被配置为执行基于该索引信息,从索引信息和第二映射模型之间的对应关系中,确定该面部图像的目标映射模型;
获取子单元,被配置为执行获取该目标映射模型的目标纹理采样区域以及该目标映射模型的目标映射参数。
在一些实施例中,该装置还包括:
第四确定单元,被配置为执行确定多个第二映射模型,该多个第二映射模型为图像处理场景中添加的映射模型;
第二分配单元,被配置为执行对于每个第二映射模型,为该第二映射模型分配索引信息;
第三建立单元,被配置为执行基于该第二映射模型和该第二映射模型被分配的索引信息,建立索引信息和第二映射模型之间的对应关系。
在一些实施例中,该装置还包括:
第五确定单元,被配置为执行确定待添加的特效表情;
第六确定单元,被配置为执行基于该处理后的图像,确定渲染目标;
特效添加单元,被配置为执行向该渲染目标中添加该特效表情;
该渲染单元1004,还被配置为执行基于该待处理图像的每个渲染目标,对该处理后的图像进行渲染,得到添加特效表情的图像。
本公开实施例中,通过为待处理图像中的多个面部图像分配纹理采样区域,从而使得每个面部图像都能够映射到纹理采样区域中,这样每个面部图像都能生成该面部图像对应的渲染目标,从而使得图像中的每个面部图像都能被渲染,进而使图像中的面部图像都能被添加特效,进而丰富了图像的特效效果。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图11是根据一示例性实施例示出的一种终端1110的框图。在一些实施例中,该终端1110可以为:智能手机、平板电脑、笔记本电脑或台式电脑等。终端1110还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1110包括有:处理器1101和存储器1102。
在一些实施例中,处理器1101包括一个或多个处理核心,比如4核心处理器、8核心处理器等。在一些实施例中,处理器1101采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(ProgrammableLogic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。在一些实施例中,处理器1101也包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central Processing Unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1101集成有GPU(GraphicsProcessing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1101还包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
在一些实施例中,存储器1102包括一个或多个计算机可读存储介质,该计算机可读存储介质是非暂态的。在一些实施例中,存储器1102还包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1102中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1101所执行以实现本公开中方法实施例提供的图像处理方法。
在一些实施例中,终端1110还可选包括有:外围设备接口1103和至少一个外围设备。在一些实施例中,处理器1101、存储器1102和外围设备接口1103之间通过总线或信号线相连。在一些实施例中,各个外围设备通过总线、信号线或电路板与外围设备接口1103相连。具体地,外围设备包括:射频电路1104、显示屏1105、摄像头组件1106、音频电路1107、定位组件1108和电源1109中的至少一种。
外围设备接口1103可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1101和存储器1102。在一些实施例中,处理器1101、存储器1102和外围设备接口1103被集成在同一芯片或电路板上;在一些其他实施例中,处理器1101、存储器1102和外围设备接口1103中的任意一个或两个在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1104用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1104通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1104将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。在一些实施例中,射频电路1104包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。在一些实施例中,射频电路1104通过至少一种无线通信协议来与其他终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1104还包括NFC(Near Field Communication,近距离无线通信)有关的电路,本公开对此不加以限定。
显示屏1105用于显示UI(User Interface,用户界面)。在一些实施例中,该UI包括图形、文本、图标、视频及其他们的任意组合。当显示屏1105是触摸显示屏时,显示屏1105还具有采集在显示屏1105的表面或表面上方的触摸信号的能力。在一些实施例中,该触摸信号作为控制信号输入至处理器1101进行处理。此时,显示屏1105还用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1105为一个,设置在终端1110的前面板;在另一些实施例中,显示屏1105为至少两个,分别设置在终端1110的不同表面或呈折叠设计;在另一些实施例中,显示屏1105是柔性显示屏,设置在终端1110的弯曲表面上或折叠面上。甚至,显示屏1105还设置成非矩形的不规则图形,也即异形屏。在一些实施例中,显示屏1105采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1106用于采集图像或视频。在一些实施例中,摄像头组件1106包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其他融合拍摄功能。在一些实施例中,摄像头组件1106还包括闪光灯。在一些实施例中,闪光灯是单色温闪光灯,在一些实施例中,闪光灯是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,用于不同色温下的光线补偿。
在一些实施例中,音频电路1107包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1101进行处理,或者输入至射频电路1104以实现语音通信。出于立体声采集或降噪的目的,在一些实施例中,麦克风为多个,分别设置在终端1110的不同部位。在一些实施例中,麦克风是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1101或射频电路1104的电信号转换为声波。在一些实施例中,扬声器是传统的薄膜扬声器,在一些实施例中,扬声器以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅能够将电信号转换为人类可听见的声波,也能够将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1107还包括耳机插孔。
定位组件1108用于定位终端1110的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。在一些实施例中,定位组件1107是基于美国的GPS(Global Positioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1109用于为终端1110中的各个组件进行供电。在一些实施例中,电源1109是交流电、直流电、一次性电池或可充电电池。当电源1109包括可充电电池时,该可充电电池是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还用于支持快充技术。
在一些实施例中,终端1110还包括有一个或多个传感器1110。该一个或多个传感器1110包括但不限于:加速度传感器1111、陀螺仪传感器1112、压力传感器1113、指纹传感器1114、光学传感器1115以及接近传感器1116。
在一些实施例中,加速度传感器1111检测以终端1110建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1111用于检测重力加速度在三个坐标轴上的分量。在一些实施例中,处理器1101根据加速度传感器1111采集的重力加速度信号,控制显示屏1105以横向视图或纵向视图进行用户界面的显示。在一些实施例中,加速度传感器1111还用于游戏或者用户的运动数据的采集。
在一些实施例中,陀螺仪传感器1112检测终端1110的机体方向及转动角度,陀螺仪传感器1112与加速度传感器1111协同采集用户对终端1110的3D动作。处理器1101根据陀螺仪传感器1112采集的数据,能够实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
在一些实施例中,压力传感器1113设置在终端1110的侧边框和/或显示屏1105的下层。当压力传感器1113设置在终端1110的侧边框时,能够检测用户对终端1110的握持信号,由处理器1101根据压力传感器1113采集的握持信号进行左右手识别或快捷操作。当压力传感器1113设置在显示屏1105的下层时,由处理器1101根据用户对显示屏1105的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1114用于采集用户的指纹,由处理器1101根据指纹传感器1114采集到的指纹识别用户的身份,或者,由指纹传感器1114根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1101授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。在一些实施例中,指纹传感器1114被设置在终端1110的正面、背面或侧面。当终端1110上设置有物理按键或厂商Logo时,指纹传感器1114与物理按键或厂商Logo集成在一起。
光学传感器1115用于采集环境光强度。在一个实施例中,处理器1101根据光学传感器1115采集的环境光强度,控制显示屏1105的显示亮度。具体地,当环境光强度较高时,调高显示屏1105的显示亮度;当环境光强度较低时,调低显示屏1105的显示亮度。在另一个实施例中,处理器1101还根据光学传感器1115采集的环境光强度,动态调整摄像头组件1106的拍摄参数。
接近传感器1116,也称距离传感器,通常设置在终端1110的前面板。接近传感器1116用于采集用户与终端1110的正面之间的距离。在一个实施例中,当接近传感器1116检测到用户与终端1110的正面之间的距离逐渐变小时,由处理器1101控制显示屏1105从亮屏状态切换为息屏状态;当接近传感器1116检测到用户与终端1110的正面之间的距离逐渐变大时,由处理器1101控制显示屏1105从息屏状态切换为亮屏状态。
本领域技术人员能够理解,图11中示出的结构并不构成对终端1110的限定,能够包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机可读存储介质,当该计算机可读存储介质中的指令由终端的处理器执行时,使得该终端能够执行上述实施例中的图像处理方法。
在示例性实施例中,还提供了一种计算机程序产品,该计算机程序产品包括计算机程序/指令,当该计算机程序/指令被处理器执行时实现上述实施例中的图像处理方法。
在一些实施例中,本公开实施例所涉及的计算机程序可被部署在一个计算机设备上执行,或者在位于一个地点的多个计算机设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算机设备上执行,分布在多个地点且通过通信网络互连的多个计算机设备可以组成区块链系统。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种图像处理方法,其特征在于,所述方法包括:
当待处理图像中包括多个面部图像,对于每个面部图像,确定所述面部图像的目标纹理采样区域和目标映射参数,所述目标映射参数为将所述面部图像映射到所述目标纹理采样区域的参数;
基于所述目标映射参数,将所述面部图像映射到所述目标纹理采样区域,得到所述面部图像的纹理贴图;
对所述纹理贴图进行采样,得到所述面部图像的面部纹理数据;
基于所述面部纹理数据,对所述面部图像进行渲染,得到处理后的图像。
2.根据权利要求1所述的方法,其特征在于,所述确定所述面部图像的目标纹理采样区域和目标映射参数,包括:
确定所述面部图像的索引信息;
基于所述索引信息,从索引信息和纹理采样区域之间的对应关系中,确定所述面部图像的目标纹理采样区域;
基于所述索引信息,从索引信息和映射参数之间的对应关系中,确定所述目标映射参数。
3.根据权利要求2所述的方法,其特征在于,索引信息和纹理采样区域之间的对应关系的确定过程包括:
基于预设数量,对第一映射模型的纹理采样区域进行划分,得到多个纹理采样区域,所述第一映射模型的纹理采样区域为所述第一映射模型映射到的渲染目标中的纹理采样区域;
对于每个纹理采样区域,为所述纹理采样区域分配索引信息;
基于所述纹理采样区域和所述纹理采样区域被分配的索引信息,建立所述索引信息和纹理采样区域之间的对应关系。
4.根据权利要求1所述的方法,其特征在于,所述确定所述面部图像的目标纹理采样区域和目标映射参数,包括:
确定所述面部图像的索引信息;
基于所述索引信息,从索引信息和第二映射模型之间的对应关系中,确定所述面部图像的目标映射模型;
获取所述目标映射模型的目标纹理采样区域以及所述目标映射模型的目标映射参数。
5.根据权利要求4所述的方法,其特征在于,索引信息和第二映射模型之间的对应关系的确定过程,包括:
确定多个第二映射模型,所述多个第二映射模型为图像处理场景中添加的映射模型;
对于每个第二映射模型,为所述第二映射模型分配索引信息;
基于所述第二映射模型和所述第二映射模型被分配的索引信息,建立索引信息和第二映射模型之间的对应关系。
6.根据权利要求1所述的方法,其特征在于,在所述基于所述面部纹理数据,对所述面部图像进行渲染,得到处理后的图像之后,所述方法还包括:
确定待添加的特效表情;
基于所述处理后的图像,确定渲染目标;
向所述渲染目标中添加所述特效表情;
基于所述待处理图像的每个渲染目标,对所述处理后的图像进行渲染,得到添加特效表情的图像。
7.一种图像处理装置,其特征在于,所述装置包括:
第一确定单元,被配置为当待处理图像中包括多个面部图像,执行对于每个面部图像,确定所述面部图像的目标纹理采样区域和目标映射参数,所述目标映射参数为将所述面部图像映射到所述目标纹理采样区域的参数;
映射单元,被配置为执行基于所述目标映射参数,将所述面部图像映射到所述目标纹理采样区域,得到所述面部图像的纹理贴图;
采样单元,被配置为执行对所述纹理贴图进行采样,得到所述面部图像的面部纹理数据;
渲染单元,被配置为执行基于所述面部纹理数据,对所述面部图像进行渲染,得到处理后的图像。
8.一种终端,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至6中任一项所述的图像处理方法。
9.一种计算机可读存储介质,其特征在于,当所述计算机可读存储介质中的指令由终端的处理器执行时,使得所述终端能够执行如权利要求1至6中任一项所述的图像处理方法。
10.一种计算机程序产品,包括计算机程序/指令,其特征在于,所述计算机程序/指令被处理器执行时实现权利要求1至6任一项所述的图像处理方法。
CN202110571927.0A 2021-05-25 2021-05-25 图像处理方法、装置、终端及存储介质 Active CN113240784B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110571927.0A CN113240784B (zh) 2021-05-25 2021-05-25 图像处理方法、装置、终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110571927.0A CN113240784B (zh) 2021-05-25 2021-05-25 图像处理方法、装置、终端及存储介质

Publications (2)

Publication Number Publication Date
CN113240784A true CN113240784A (zh) 2021-08-10
CN113240784B CN113240784B (zh) 2024-01-02

Family

ID=77138756

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110571927.0A Active CN113240784B (zh) 2021-05-25 2021-05-25 图像处理方法、装置、终端及存储介质

Country Status (1)

Country Link
CN (1) CN113240784B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205707A (zh) * 2022-09-13 2022-10-18 阿里巴巴(中国)有限公司 样本图像生成方法、存储介质以及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108876709A (zh) * 2018-05-31 2018-11-23 Oppo广东移动通信有限公司 人脸美化方法、装置、电子设备及可读存储介质
CN109325990A (zh) * 2017-07-27 2019-02-12 腾讯科技(深圳)有限公司 图像处理方法及图像处理装置、存储介质
CN111325823A (zh) * 2020-02-05 2020-06-23 腾讯科技(深圳)有限公司 人脸纹理图像的获取方法、装置、设备及存储介质
CN111369659A (zh) * 2018-12-26 2020-07-03 杭州海康威视数字技术股份有限公司 一种基于三维模型的纹理映射方法、装置及设备
CN111680758A (zh) * 2020-06-15 2020-09-18 杭州海康威视数字技术股份有限公司 图像训练样本生成方法和装置
US20200302670A1 (en) * 2018-02-12 2020-09-24 Tencent Technology (Shenzhen) Company Limited Image processing method, electronic device, and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325990A (zh) * 2017-07-27 2019-02-12 腾讯科技(深圳)有限公司 图像处理方法及图像处理装置、存储介质
US20200302670A1 (en) * 2018-02-12 2020-09-24 Tencent Technology (Shenzhen) Company Limited Image processing method, electronic device, and storage medium
CN108876709A (zh) * 2018-05-31 2018-11-23 Oppo广东移动通信有限公司 人脸美化方法、装置、电子设备及可读存储介质
CN111369659A (zh) * 2018-12-26 2020-07-03 杭州海康威视数字技术股份有限公司 一种基于三维模型的纹理映射方法、装置及设备
CN111325823A (zh) * 2020-02-05 2020-06-23 腾讯科技(深圳)有限公司 人脸纹理图像的获取方法、装置、设备及存储介质
CN111680758A (zh) * 2020-06-15 2020-09-18 杭州海康威视数字技术股份有限公司 图像训练样本生成方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205707A (zh) * 2022-09-13 2022-10-18 阿里巴巴(中国)有限公司 样本图像生成方法、存储介质以及电子设备

Also Published As

Publication number Publication date
CN113240784B (zh) 2024-01-02

Similar Documents

Publication Publication Date Title
CN107885533B (zh) 管理组件代码的方法及装置
CN110992493B (zh) 图像处理方法、装置、电子设备及存储介质
CN109712224B (zh) 虚拟场景的渲染方法、装置及智能设备
CN109862412B (zh) 合拍视频的方法、装置及存储介质
CN109922356B (zh) 视频推荐方法、装置和计算机可读存储介质
CN110288689B (zh) 对电子地图进行渲染的方法和装置
CN110839174A (zh) 图像处理的方法、装置、计算机设备以及存储介质
CN111586444B (zh) 视频处理方法、装置、电子设备及存储介质
CN110941375A (zh) 对图像进行局部放大的方法、装置及存储介质
CN111083526B (zh) 视频转场方法、装置、计算机设备及存储介质
CN113384880A (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN110837300B (zh) 虚拟交互的方法、装置、电子设备及存储介质
CN113160031B (zh) 图像处理方法、装置、电子设备及存储介质
CN112396076A (zh) 车牌图像生成方法、装置及计算机存储介质
CN110992268B (zh) 背景设置方法、装置、终端及存储介质
CN113240784B (zh) 图像处理方法、装置、终端及存储介质
CN108540732B (zh) 合成视频的方法和装置
CN112241987A (zh) 确定防区的系统、方法、装置及存储介质
CN111860064A (zh) 基于视频的目标检测方法、装置、设备及存储介质
CN111369434B (zh) 拼接视频封面生成的方法、装置、设备和存储介质
CN114594885A (zh) 应用图标的管理方法、装置、设备及计算机可读存储介质
CN112243083B (zh) 抓拍方法、装置及计算机存储介质
CN111757146B (zh) 视频拼接的方法、系统及存储介质
CN109618018B (zh) 用户头像显示方法、装置、终端、服务器及存储介质
CN108881715B (zh) 拍摄模式的启用方法、装置、终端及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant