CN111652023A - 嘴型的调整、直播方法、装置、电子设备和存储介质 - Google Patents

嘴型的调整、直播方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN111652023A
CN111652023A CN201910603828.9A CN201910603828A CN111652023A CN 111652023 A CN111652023 A CN 111652023A CN 201910603828 A CN201910603828 A CN 201910603828A CN 111652023 A CN111652023 A CN 111652023A
Authority
CN
China
Prior art keywords
key points
lips
image data
face
lip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910603828.9A
Other languages
English (en)
Other versions
CN111652023B (zh
Inventor
华路延
王云刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Huya Technology Co Ltd
Original Assignee
Guangzhou Huya Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Huya Technology Co Ltd filed Critical Guangzhou Huya Technology Co Ltd
Priority to CN201910603828.9A priority Critical patent/CN111652023B/zh
Publication of CN111652023A publication Critical patent/CN111652023A/zh
Application granted granted Critical
Publication of CN111652023B publication Critical patent/CN111652023B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明实施例公开了一种嘴型的调整、直播方法、装置、电子设备和存储介质。该嘴型的调整方法包括:获取图像数据,图像数据中具有人脸数据;将图像数据划分为多个网格,网格的顶点至少包括人脸数据的人脸关键点,人脸关键点包括嘴唇的嘴唇关键点;接收作用于嘴唇的调整操作;响应于调整操作,调整嘴唇关键点所处的网格,以调整嘴唇;绘制调整之后的网格,以显示调整嘴唇之后的图像数据。使得在对人脸关键点进行调整时,可连同调整网格,网格内的像素点的调整较为均匀,使得人脸的调整更加平滑,减少变形的情况,避免人脸失真。

Description

嘴型的调整、直播方法、装置、电子设备和存储介质
技术领域
本发明实施例涉及图像处理的技术,尤其涉及一种嘴型的调整、直播方法、装置、电子设备和存储介质。
背景技术
随着社会的发展,诸如手机、平板电脑等电子设备已经广泛应用在学习、娱乐、工作等方面,扮演着越来越重要的角色。
在很多电子设备中配置有摄像头,可用于拍照、录像、直播等操作。
对于含有人物的图像数据,用户经常会对该图像数据进行人脸关键点,直接对人脸关键点进行平移、拉伸、缩放等调整,从而实现各种美颜效果,如调整眼睛大小、调整脸部大小等。
直接对人脸关键点进行平移、拉伸、缩放等调整,也会对位于该人脸关键点周围的人脸数据进行平移、拉伸、缩放等调整,但是,这些人脸数据调整较为粗糙,部分可能调整较大、部分可能调整较小,容易出现变形,导致人脸失真。
发明内容
本发明实施例提供一种嘴型的调整、直播方法、装置、电子设备和存储介质,以解决调整人脸关键点容易导致人脸失真的问题。
第一方面,本发明实施例提供了一种嘴型的调整方法,该方法包括:
获取图像数据,所述图像数据中具有人脸数据;
将所述图像数据划分为多个网格,所述网格的顶点至少包括所述人脸数据的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
接收作用于所述嘴唇的调整操作;
响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
绘制调整之后的网格,以显示调整嘴唇之后的图像数据。
进一步的,所述嘴唇关键点包括嘴唇外侧的外轮廓关键点、嘴唇内侧的内轮廓关键点;
所述响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇,包括:
响应于所述调整操作,基于所述内轮廓关键点确定参考点,所述参考点位于所述嘴唇内侧;
以所述参考点为目标移动所述外轮廓关键点,以调整所述嘴唇关键点所处的网格。
进一步的,所述基于所述内轮廓关键点确定参考点,所述参考点位于所述嘴唇内侧,包括:
确定所述嘴唇的对称轴;
从所述对称轴与所述嘴唇内侧的交点中确定参考点。
进一步的,所述从所述对称轴与所述嘴唇内侧的交点中确定参考点,包括:
确定所述对称轴与所述嘴唇内侧的交点;
将位于下嘴唇的所述交点,确定为参考点。
进一步的,所述基于所述内轮廓关键点确定参考点,所述参考点位于所述嘴唇内侧,包括:
将位于下嘴唇的、靠近所述嘴唇的中轴线的内轮廓关键点,作为参考点。
进一步的,所述将所述图像数据划分为多个网格,包括:
识别所述人脸数据中的人脸关键点;
确定位置相邻的人脸关键点,作为第一目标关键点;
在所述图像数据中以所述第一目标关键点作为顶点、连接所述第一目标关键点,获得网格。
进一步的,所述将所述图像数据划分为多个网格,还包括:
确定位于所述图像数据边缘上的点,作为边缘点;
确定与所述边缘点位置相邻的人脸关键点,作为第二目标关键点;
在所述图像数据中以所述边缘点、所述第二目标关键点作为顶点、连接所述边缘点与所述第二目标关键点,获得网格。
第二方面,本发明实施例还提供了一种直播方法,该方法包括:
采集视频数据,所述视频数据中包括图像数据,所述图像数据中具有主播用户;
将所述图像数据划分为多个网格,所述网格的顶点至少包括所述主播用户的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
接收作用于所述嘴唇的调整操作;
响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
绘制调整之后的网格,以显示调整嘴唇之后的图像数据;
在一直播间发布调整嘴唇之后的视频数据。
第三方面,本发明实施例还提供了一种嘴型的调整装置,该装置包括:
图像数据获取模块,用于获取图像数据,所述图像数据中具有人脸数据;
网格划分模块,用于将所述图像数据划分为多个网格,所述网格的顶点至少包括所述人脸数据的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
调整操作接收模块,用于接收作用于所述嘴唇的调整操作;
调整操作响应模块,用于响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
网格绘制模块,用于绘制调整之后的网格,以显示调整嘴唇之后的图像数据。
第四方面,本发明实施例还提供了一种直播装置,该装置包括:
视频数据采集模块,用于采集视频数据,所述视频数据中包括图像数据,所述图像数据中具有主播用户;
网格划分模块,用于将所述图像数据划分为多个网格,所述网格的顶点至少包括所述主播用户的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
调整操作接收模块,用于接收作用于所述嘴唇的调整操作;
调整操作响应模块,用于响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
网格绘制模块,用于绘制调整之后的网格,以显示调整嘴唇之后的图像数据;
视频发布模块,用于在一直播间发布调整嘴唇之后的视频数据。
第五方面,本发明实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面中任一所述的嘴型的调整方法或如第二方面所述的直播方法。
第六方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权第一方面中任一所述的嘴型的调整方法或如第二方面所述的直播方法。
在本发明实施例中,图像数据中具有人脸数据,将图像数据划分为多个网格,调整嘴唇关键点所处的网格,以调整嘴唇,绘制该网格,从而显示调整嘴唇之后的图像数据,一方面,在对人脸关键点进行调整时,可连同调整网格,网格内的像素点的调整较为均匀,使得人脸的调整更加平滑,减少变形的情况,避免人脸失真,另一方面,网格可同时用于人脸调整、渲染操作,复用划分网格的操作,可降低运算量,并且,网格的绘制及其调整相比于神经网络等深度学习更为简单,可提高处理速度、降低处理时间,降低显示时的延时,适用于直播等对实时性要求较高的场景。
附图说明
图1为本发明实施例一提供的一种嘴型的调整方法的流程图;
图2A至图2D为本发明实施例提供的一种人脸关键点的示例图;
图3A至图3C为本发明实施例提供的一种网格顺序的示例图;
图4为本发明实施例提供的一种相邻人脸关键点的示例图;
图5A至图5B为本发明实施例提供的一种维诺图的示例图;
图6A至图6B为本发明实施例提供的一种网格的示例图;
图7是本发明实施例提供的一种调整人脸的操作的示例图;
图8A至图8C是本发明实施例提供的一种调整嘴唇的效果示意图。
图9为本发明实施例二提供的一种直播方法的流程图;
图10为本发明实施例三提供的一种嘴型的调整装置的结构示意图;
图11为本发明实施例四提供的一种直播装置的结构示意图;
图12为本发明实施例五提供的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种嘴型的调整方法的流程图,本实施例可适用于基于人脸关键点构建网格、调整人脸关键点中的眼部关键点、绘制网格、以显示调整眼部关键点之后的图像数据的情况,该方法可以由嘴型的调整装置来执行,该装置可以由软件和/或硬件实现,可配置在电子设备中,可以包括手机、平板、PDA(personal digitalassistant,个人数字助理)、智能穿戴设备(如智能眼镜、智能手表)等移动终端,也可以包括智能电视、个人电脑等非移动终端,这些电子设备包括CPU(Central Processing Unit,中央处理器)、GPU(Graphics Processing Unit,图形处理器)等处理器,以及配置有用于渲染2D矢量图形的应用程序编程接口(API)或渲染引擎,该方法具体包括如下步骤:
S110、获取图像数据,所述图像数据中具有人脸数据。
在具体实现中,电子设备的操作系统可以包括Android(安卓)、IOS、Windows等等。
在这些操作系统中支持运行可进行图像处理的应用,如直播应用、图像编辑应用、相机应用、即时通讯工具、图库应用,等等。
诸如图像编辑应用、即时通讯工具、图库应用等应用,其UI(User Interface,用户界面)可提供导入的控件,用户可通过触控或鼠标等外设操作该导入的控件,选择本地存储的图像数据(以缩略图或路径表示),也可以选择网络存储的图像数据(以URL(UniformResource Locators,统一资源定位器)表示),使得应用获取该图像数据。
诸如直播应用、图像编辑应用、相机应用、即时通讯工具等应用,其UI可提供拍照、录像的控件,用户可通过触控或鼠标等外设操作该拍照、录像的控件,通知应用调用摄像头采集图像数据。
该人脸数据表示人脸的像素点。在本发明实施例中,应用对该图像数据进行人脸检测,识别该人脸数据中包含的人脸关键点。
其中,人脸检测也称为人脸关键点检测、定位或者人脸对齐,是指给定人脸数据,定位出人脸面部的关键区域位置,包括眉毛、眼睛、鼻子、嘴巴、脸部轮廓等等。
本实施例中,该人脸数据的人脸关键点包括嘴唇的嘴唇关键点。本实施例中的嘴唇关键点包括嘴唇外侧的外轮廓关键点、嘴唇内侧的内轮廓关键点。
人脸检测通常使用如下方法:
1、利用人工提取特征,如haar特征,使用特征训练分类器,使用分类器进行人脸检测。
2、从通用的目标检测算法中继承人脸检测,例如,利用Faster R-CNN来检测人脸。
3、使用级联结构的卷积神经网络,例如,Cascade CNN(级联卷积神经网络),MTCNN(Multi-task Cascaded Convolutional Networks,多任务卷积神经网络)。
在具体实现中,这些实现人脸检测的方法可以集成在应用的模块中,应用可直接调用该模块检测图像数据中的人脸关键点,这些实现人脸检测的方法也可以集成在SDK(Software Development Kit,软件开发工具包),该SDK作为应用的组装数据,应用可请求SDK对图像数据进行人脸检测,SDK检测到图像数据中的人脸关键点,并将人脸关键点返回应用。
需要说明的是,人脸关键点的数量,可以由本领域技术人员根据实际情况设置,对于静态的图像处理,实时性要求较低,可以检测较为稠密的人脸关键点,如1000个,除了能定位人脸重要特征点之外,还能准确的描述出五官的轮廓;对于直播等,实时性要求较高,可以检测较为稀疏的人脸关键点,如68、81、106个,定位人脸上比较明显且重要的特征点(如眼睛关键点、眉毛关键点、鼻子关键点、嘴巴关键点、轮廓关键点等),以降低处理量、减少处理时间,等等,本发明实施例对此不加以限制。
为使本领域技术人员更好地理解本发明实施例,在本发明实施例中,以较为稀疏的人脸关键点作为一种示例进行说明。
例如,对图2A所示的图像数据进行人脸检测,可以输出如图2B的68个人脸关键点,也可以输出如图2C所示的106个人脸关键点。
S120、将所述图像数据划分为多个网格,所述网格的顶点至少包括所述人脸数据的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点。
网格(Mesh),代表单个的可绘制实体,其顶点至少包括人脸关键点,即以人脸关键点作为网格的至少部分顶点,将图像数据进行网格化,划分为多个(两个及两个以上)网格。
所谓网格化,是将凹多边形或有边相交的多边形划分成凸多边形,如三角形,以便被OpenGL等API或渲染引擎渲染。
需要说明的是,网格之间是有序的,从而形成网格序列,使得符合OpenGL等API或渲染引擎的渲染规范。
例如,对于OpenGL,一般情况下有三种绘制一系列三角形(网格):
1、GL_TRIANGLES
每三个点一组画一个三角形,三角形之间是独立的。
如图3A所示,第一个三角形使用顶点v0、v1、v2,第二个三角形使用顶点v3、v4、v5,以此类推。
2、GL_TRIANGLE_STRIP
从第三个点开始,每点与前面的两个点组合画一个三角形,即线性连续三角形串:
如图3B所示,第一个三角形,顶点排列顺序是v0,v1,v2;第二个三角形,顶点排列顺序是v2,v1,v3;第三个三角形,顶点排列顺序是v2,v3,v4;第四个三角形,顶点排列顺序是v4,v3,v8。
这个顺序是为了保证三角形按照相同的方向绘制的,使这个三角形的序列能够正确形成表面的一部分。
3、GL_TRIANGLE_FAN。
从第三个点开始,每点与前一个点和第一个点组合画一个三角形,即扇形连续三角形。
如图3C所示,第一个三角形的顶点排列顺序是v2,v1,v0,第二个三角形的顶点排列顺序是v3,v2,v0,第一个三角形的顶点排列顺序是v4,v3,v0。
在本发明的一个实施例中,S120可以包括如下步骤:
S1211、识别所述人脸数据中的人脸关键点;
S1212、确定位置相邻的人脸关键点,作为第一目标关键点。
S1213、在所述图像数据中以所述第一目标关键点作为顶点、连接所述第一目标关键点,获得网格。
在本发明实施例中,对于位置相邻的两个人脸关键点,可作为一对第一目标关键点,依次以第一目标关键点作为网格的顶点、连接该对第一目标关键点,则可以生成网格。
在一种检测位置相邻的方式中,可通过定义法(Intersect of Halfplanes)、增量(incremental)算法、分治法、plane sweep算法等方式,将包含人脸关键点的图像数据转换为维诺图(Voronoi图)。
维诺图,又称泰森多边形或Dirichlet图,它包括一组由连接两邻点直线的垂直平分线组成的连续多边形(又称单元cell)。
在维诺图中,任意两个人脸关键点p和q之间的欧氏距离,记作dist(p,q)。
设P={p1,p2,…,pn}为平面上任意n个互异的人脸关键点,这些人脸关键点也就是基点。所谓P对应的Voronoi图,就是平面的一个子区域划分——整个平面因此被划分为n个单元,它们具有这样的性质:
任一人脸关键q位于人脸关键pi所对应的单元中,当且仅当对于任何的pj∈Pj,j≠i,都有dist(q,pi)<dist(q,pj)。此时,将与P对应的Voronoi图记作Vor(P)。
“Vor(P)”或者“Voronoi图”所指示是组成该子区域划分的边和顶点。在Vor(P)中,与基点pi相对应的单元记作V(pi)——称作与pi相对应的Voronoi单元。
在本发明实施例中,维诺图包括多个单元,每个单元包含一个人脸关键点,该单元具有多条边,此时,可确定位于同一条边两侧的人脸关键点位置相邻,将位于同一条边两侧的人脸关键点连接,则可生成网格。
例如,参见图4,将图像数据中转换为维诺图,图4显示了部分人脸关键点(黑点)和部分单元的边(实线)。
其中,在单元400中,边401两侧的人脸关键点411与人脸关键点412相邻,可连接人脸关键点411与人脸关键点412,同理,连接人脸关键点411与人脸关键点413,以及,连接人脸关键点413与人脸关键点412,从而生成网格(虚线边)420。
进一步地,图2B所示的图像数据,包含68个人脸关键点,可转换为如图5A所示的维诺图,从而确定位置相邻的人脸关键点,按照既定的顺序连接位置相邻的人脸关键点,可获得如图6A所示的网格;图2C所示的图像数据,包含106个人脸关键点,可转换为如图5B所示的维诺图,从而确定位置相邻的人脸关键点,按照既定的顺序连接位置相邻的人脸关键点,可获得如图6B所示的网格。
在本发明的另一个实施例中,S120可以包括如下步骤:
S1221、确定位于所述图像数据边缘上的点,作为边缘点。
S1222、确定与所述边缘点位置相邻的人脸关键点,作为第二目标关键点。
S1223、在所述图像数据中以所述边缘点、所述第二目标关键点作为顶点、连接所述边缘点与所述第二目标关键点,获得网格。
人脸关键点组成的网格一般不能完全覆盖图像数据,此时,可在图像数据边缘上选取一些点,作为边缘点。
需要说明的是,为了方便运算,选取的边缘点对称。
例如,如图6A与图6B所示,选择图像数据的四个顶点、以及、每两个顶点之间的中点作为边缘点。
将边缘点及其相邻的人脸关键点作为一对第二目标关键点,依次以第二目标关键点作为网格的顶点、按照顺序连接该对第二目标关键点,则可以生成网格。
需要说明的是,边缘点与人脸关键点位置相邻的关系,可由本领域技术人员根据实际情况进行设置,本发明实施例对此不加以限制。
一般而言,人脸关键点中的眉毛关键点、轮廓关键点与边缘点相邻,边缘点的数量少于与其位置相邻的人脸关键点的数量。
例如,图2B所示的图像数据,包含68个人脸关键点、8个边缘点,25个人脸关键点与8个边缘点位置相邻,按照既定的顺序连接位置相邻的人脸关键点、边缘点,可获得如图6A所示的网格;图2C所示的图像数据,包含106个人脸关键点、8个边缘点,41个人脸关键点与8个边缘点位置相邻,按照既定的顺序连接位置相邻的人脸关键点、边缘点,可获得如图6B所示的网格。
需要说明的是,网格的顶点可同时包括人脸关键点、边缘点,与每个人脸关键点、每个边缘点位置相邻的点(可以是人脸关键点,也可以是边缘点)均已确定,此时,可既定的顺序连接各人脸关键点、边缘点,从而生成网格。
在本发明的又一个实施例中,网格的顶点包括人脸关键点、位于图像数据边缘上的边缘点,边缘点与人脸关键点具有第一编号,其中,边缘点的第一编号是预设的,人脸关键点的第一编号是在人脸检测时生成的,或者,基于人脸检测时生成的编号映射获得,并且、边缘点的第一编号与人脸关键点的第一编号互不重复。
例如,如图2D所示,人脸关键点共68个,情况如下:
轮廓关键点共17个,第一编号分别为1、2、3、4、5、6、7、8、9、10、11、12、13、14、15、16、17。
眉毛关键点共10个,第一编号分别为18、19、20、21、22、23、24、25、26、27。
鼻子关键点共9个,第一编号分别为28、29、30、31、32、33、34、35、36。
眼睛关键点共12个,第一编号分别为37、38、39、40、41、42、43、44、45、46、47、48。
嘴巴关键点共20个,第一编号分别为49、50、51、52、53、54、55、56、57、58、59、60、61、62、63、64、65、66、67、68。
边缘点共8个,第一编号分别为69、70、71、72、73、74、75、76。
此时,S120可以包括如下步骤:
S1231、查询预设的、且具有顺序的网格变量。
其中,每个网格变量中的顶点标记有第二编号。
S1232、若所述第一编号与所述第二编号相同,则在所述图像数据中以所述第一编号所属的边缘点或人脸关键点作为顶点、连接所述第一编号所属的边缘点或人脸关键点,获得网格。
因为人脸检测的方法是预先设定的,其输出的人脸关键点一般是固定的,并且,边缘点也一般是固定的,使得与每个人脸关键点、每个边缘点位置相邻的点(可以是人脸关键点,也可以是边缘点)均是固定的,即每个网格中顶点的顺序是固定的。
因此,可在首次(离线)将某帧图像数据按照某一方式划分为多个网格时,按照顺序记录每个网格中每个顶点(可以是人脸关键点,也可以是边缘点)的编号,作为第二编号,此时,每个网格保留顶点的第二编号,作为网格变量。
对于其他图像数据,若按照相同的方式划分为网格,则可以将其点(可以是人脸关键点,也可以是边缘点)的第一编号与网格变量的第二编号进行匹配,若两者相同,则可以按照网格变量中限定的顺序连接第一编号所表示的点(可以是人脸关键点,也可以是边缘点),从而将该图像数据划分为多个网格。
例如,如图2D所示,网格变量可以表示为(1,76,2)、(2,76,3)、(3,76,4)、(4,76,5),等等。
对于图2B所示的图像数据,第一编号为1、2的人脸关键点以及第一编号为76的边缘点,与其中一个网格变量中的第二编号匹配成功,则可以按照其顺序连接人脸关键点边缘点,从而组成一个网格(1,76,2)。
S130、接收作用于所述嘴唇的调整操作;
在具体实现中,应用的UI可提供美颜的控件,其中,该控件关联多个子控件,部分子控件可用于调整人脸,用户可通过触控或鼠标等外设操作该子控件,从而触发调整操作。
例如,如图7所示,应用的UI提供的部分子控件,其触发的第一操作可分别用于调整嘴唇的大小、高度,其中,圆圈表示调整的幅度,用户可滑动该圆圈设置调整嘴唇的大小、高度的幅度。
当然,上述调整操作只是作为示例,在实施本发明实施例时,可以根据实际情况设置其他调整操作,例如,调整嘴唇的形状,等等,本发明实施例对此不加以限制。另外,除了上述调整操作外,本领域技术人员还可以根据实际需要采用其它调整操作,本发明实施例对此也不加以限制。
S140、响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇。
针对调整操作,可确定该调整操作所调整的人脸关键点及调整方式。其中,调整方式包括调整类型、幅度。
例如,对于嘴唇(以人脸关键点表示),调整类型包括调整嘴唇的大小、高度。
按照该调整类型、幅度,对该人脸关键点进行调整,在保持人脸关键点作为网格的顶点的情况下,调整人脸关键点,可连同调整网格,使得网格内的人脸数据发生变化,从而实现调整人物形象中人脸的效果。
当然,部分人脸关键点并非调整操作所调整的人脸关键点,即部分人脸关键点并未调整,若网格的顶点(人脸关键点)并未调整,则该网格保持原有的状态。
本实施例中,以调整嘴唇为例进行说明,该嘴唇的嘴唇关键点,即嘴巴的嘴巴关键点,包括上嘴唇的上嘴唇关键点(如图2D中的第一编号为49、55、56、57、58、57、58、59、60、61、68、67、66、65的人脸关键点)、下嘴唇的下嘴唇关键点(如图2D中的第一编号为3、4、5、6、12、13、14、15的人脸关键点)。根据嘴唇关键点所在位置的划分,嘴唇关键点可以包括嘴唇外侧的外轮廓关键点(如图2D中的第一编号为49、50、51、52、53、54、55、56、57、58、59、60的人脸关键点)、嘴唇内侧的内轮廓关键点(如图2D中的第一编号为461、62、63、64、65、66、67、68的人脸关键点)。图8A为未进行调整操作的图像数据。
本实施例中,可以将步骤S140细化为步骤S1411-S1412:
S1411、响应于所述调整操作,基于所述内轮廓关键点确定参考点,所述参考点位于所述嘴唇内侧。
在人脸数据的嘴唇张开的情况下,该参考点可以是位于嘴唇内侧中的一点;
而对于人脸数据的嘴唇闭合的情况下,则该参考点可以位于嘴唇内侧对应的内轮廓关键点之间。
在一实施例中,可以通过确定所述嘴唇的对称轴;从所述对称轴与所述嘴唇内侧的交点中确定参考点(如图2D中的第一编号为43、67的人脸关键点)。优选的,确定所述对称轴与所述嘴唇内侧的交点;可以将位于下嘴唇的所述交点,确定为参考点(如图2D中的第一编号为67的人脸关键点)。一方面,当采用选择嘴唇内侧对应的内轮廓关键点为参考点,可以避免在人脸数据中的嘴唇为闭合状态时找不到参考点;另一方面,当采用位于下嘴唇的交点,确定为参考点时,可以使得在调整嘴唇的大小的时,由于该参考点远离鼻子,可以尽量减少使得鼻子变形的情况出现。
在又一实施例中,可以将位于下嘴唇的、靠近所述嘴唇的中轴线的内轮廓关键点,作为参考点(如图2D中的第一编号为66、68的人脸关键点)。
S1412、以所述参考点为目标移动所述外轮廓关键点,以调整所述嘴唇关键点所处的网格。
进一步而言,可以通过如下方式移动嘴唇外侧的外轮廓关键点:
Resultm=Dstn+A(y)·F(x)(Svcm-Dstn)
其中,Resultm为移动之后的嘴唇外侧的外轮廓关键点,Dstn为移动之前的嘴唇外侧的外轮廓关键点,为Svcm为参考点,A(y)为幅度,F(x)为移动函数。
在减小嘴唇大小时,嘴唇外侧的外轮廓关键点朝参考点移动。
在增加嘴唇大小时,嘴唇外侧的外轮廓关键点远离左侧的参考点移动。
参照图8B为调大眼部中的嘴唇的大小对应的图像数据。参照图8C为调小嘴唇的大小所对应的图像数据。
S150、绘制调整之后的网格,以显示调整嘴唇之后的图像数据。
在实际应用中,调用OpenGL、OpenGL ES等API或渲染引擎,按照顺序绘制每个网格(包含已调整的网格),从而在屏幕显示调整人物形象之后的图像数据。
进一步地,为了提高图像数据的显示速度,可以在GPU中绘制网格。
在本发明的一个实施例中,针对调整后的网格,S150包括如下步骤:
S151、对于每个网格,确定位于所述网格中各个顶点的纹理坐标。
S152、对于每个网格,确定位于所述网格中各个顶点的顶点坐标。
S153、按照所述纹理坐标与所述顶点坐标绘制所述网格,以显示所述图像数据。
在绘制纹理映射场景时,除了给每个顶点定义几何坐标(即顶点坐标),也要定义纹理坐标。经过多种变换后,几何坐标决定顶点在屏幕上绘制的位置,而纹理坐标决定纹理图像中的哪一个纹素赋予该顶点。
纹理图像是方形数组,纹理坐标通常可定义成一、二、三或四维形式,称为s,t,r和q坐标,一维纹理常用s坐标表示,二维纹理常用(s,t)坐标表示,目前忽略r坐标。q坐标像w一样,一般情况下其值为1,主要用于建立齐次坐标。OpenGL坐标定义的函数是:
void gltexCoord{1234}{sifd}[v](TYPE coords);
设置当前纹理坐标,此后调用glVertex*()所产生的顶点都赋予当前的纹理坐标。对于gltexCoord1*(),s坐标被设置成给定值,t和r设置为0,q设置为1;用gltexCoord2*()可以设置s和t坐标值,r设置为0,q设置为1;对于gltexCoord3*(),q设置为1,其它坐标按给定值设置;用gltexCoord4*()可以给定所有的坐标。
在本发明实施例中,调整人脸关键点所处的网格,可实现人物形象的调整,在绘制网格时,可显示调整之后的人物形象,网格内的像素点的调整较为均匀,使得人物形象的调整更加平滑,减少变形,避免人脸失真。
实施例二
图9为本发明实施例二提供的一种直播方法的流程图,本实施例可适用于基于人脸关键点构建网格的情况,该方法可以由直播装置来执行,该装置可以由软件和/或硬件实现,可配置在电子设备中,可以包括手机、平板、PDA、智能穿戴设备(如智能眼镜、智能手表)等移动终端,也可以包括智能电视、个人电脑等非移动终端,这些电子设备包括CPU、GPU等处理器,以及配置有用于渲染2D矢量图形的应用程序编程接口(API)或渲染引擎,该方法具体包括如下步骤:
S210、采集视频数据,所述视频数据中包括图像数据,所述图像数据中具有主播用户。
在具体实现中,电子设备的操作系统可以包括Android(安卓)、IOS、Windows等等。
在这些操作系统中支持运行直播应用,该直播应用可进行图像处理。
需要说明的是,该直播应用可以为独立的应用,也可以为其他应用(如社交应用、即时通讯工具等)中的一个组件,如SDK,本发明实施例对此不加以限制。
主播用户在直播应用中向直播平台登录用户账号,并向直播平台发送直播标题,以按照该直播标题对该用户账号生成直播间。
此后,该直播应用可调用电子设备的摄像头采集视频数据,该视频数据中包括多帧图像数据,至少部分图像数据中具有主播用户。
当然,图像数据中的主播用户,可以指用于表示主播用户的像素点,一般情况下,该主播至少包括用于表示人脸的人脸数据(像素点),除此之外,还可以包括用于表示头发的头发数据(像素点)、用于表示躯体的躯体数据(像素点)、用于表示四肢的四肢数据(像素点),等等,本发明实施例对此不加以限制。
其中,对于人脸数据、躯体数据、四肢数据等可以包括用于表示皮肤的皮肤数据(像素点)。
S220、将所述图像数据划分为多个网格,所述网格的顶点至少包括所述主播用户的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点。
在具体实现中,这些实现人脸检测的方法可以集成在直播应用的模块中,应用可直接调用该模块检测图像数据中的人脸关键点,这些实现人脸检测的方法也可以集成在SDK,该SDK作为直播应用的组装数据,直播应用可请求SDK对图像数据进行人脸检测,SDK检测到图像数据中的人脸关键点,并将人脸关键点返回直播应用。
对于直播等,实时性要求较高,可以检测较为稀疏的人脸关键点,如68、81、106个,定位人脸上比较明显且重要的特征点(如眼睛关键点、眉毛关键点、鼻子关键点、嘴巴关键点、轮廓关键点等),以降低处理量、减少处理时间。
网格(Mesh),代表单个的可绘制实体,其顶点至少包括人脸关键点,即以人脸关键点作为网格的至少部分顶点,将每帧图像数据进行网格化,划分为多个(两个及两个以上)网格。
需要说明的是,网格之间是有序的,从而形成网格序列,使得符合OpenGL等API或渲染引擎的渲染规范。
在本发明的一个实施例中,S220可以包括如下步骤:
S2211、识别所述人脸数据中的人脸关键点;
S2212、确定位置相邻的人脸关键点,作为第一目标关键点。
S2213、在所述图像数据中以所述第一目标关键点作为顶点、连接所述第一目标关键点,获得网格。
在本发明实施例中,对于位置相邻的两个人脸关键点,可作为一对第一目标关键点,依次以第一目标关键点作为网格的顶点、连接该对第一目标关键点,则可以生成网格。
在一种检测位置相邻的方式中,可通过定义法(Intersect of Halfplanes)、增量(incremental)算法、分治法、plane sweep算法等方式,将包含人脸关键点的图像数据转换为维诺图(Voronoi图)。
在本发明实施例中,维诺图包括多个单元,每个单元包含一个人脸关键点,该单元具有多条边,此时,可确定位于同一条边两侧的人脸关键点位置相邻,将位于同一条边两侧的人脸关键点连接,则可生成网格。
在本发明的另一个实施例中,S220可以包括如下步骤:
S2221、确定位于所述图像数据边缘上的点,作为边缘点。
S2222、确定与所述边缘点位置相邻的人脸关键点,作为第二目标关键点。
S2223、在所述图像数据中以所述边缘点、所述第二目标关键点作为顶点、连接所述边缘点与所述第二目标关键点,获得网格。
人脸关键点组成的网格一般不能完全覆盖图像数据,此时,可在图像数据边缘上选取一些点,作为边缘点。
需要说明的是,为了方便运算,选取的边缘点对称。
将边缘点及其相邻的人脸关键点作为一对第二目标关键点,依次以第二目标关键点作为网格的顶点、按照顺序连接该对第二目标关键点,则可以生成网格。
需要说明的是,边缘点与人脸关键点位置相邻的关系,可由本领域技术人员根据实际情况进行设置,本发明实施例对此不加以限制。
一般而言,人脸关键点中的眉毛关键点、轮廓关键点与边缘点相邻,边缘点的数量少于与其位置相邻的人脸关键点的数量。
需要说明的是,网格的顶点可同时包括人脸关键点、边缘点,与每个人脸关键点、每个边缘点位置相邻的点(可以是人脸关键点,也可以是边缘点)均已确定,此时,可既定的顺序连接各人脸关键点、边缘点,从而生成网格。
在本发明的又一个实施例中,网格的顶点包括人脸关键点、位于图像数据边缘上的边缘点,边缘点与人脸关键点具有第一编号,其中,边缘点的第一编号是预设的,人脸关键点的第一编号是在人脸检测时生成的,或者,基于人脸检测时生成的编号映射的,并且、边缘点的第一编号与人脸关键点的第一编号互不重复。
此时,S220可以包括如下步骤:
S2231、查询预设的、且具有顺序的网格变量。
其中,每个网格变量中的顶点标记有第二编号。
S2232、若所述第一编号与所述第二编号相同,则在所述图像数据中以所述第一编号所属的边缘点或人脸关键点作为顶点、连接所述第一编号所属的边缘点或人脸关键点,获得网格。
因为人脸检测的方法是预先设定的,其输出的人脸关键点一般是固定的,并且,边缘点也一般是固定的,使得与每个人脸关键点、每个边缘点位置相邻的点(可以是人脸关键点,也可以是边缘点)均是固定的,即每个网格中顶点的顺序是固定的。
因此,可在首次(离线)将某帧图像数据按照某一方式划分为多个网格时,按照顺序记录每个网格中每个顶点(可以是人脸关键点,也可以是边缘点)的编号,作为第二编号,此时,每个网格保留顶点的第二编号,作为网格变量。
对于其他图像数据,若按照相同的方式划分为网格,则可以将其点(可以是人脸关键点,也可以是边缘点)的第一编号与网格变量的第二编号进行匹配,若两者相同,则可以按照网格变量中限定的顺序连接第一编号所表示的点(可以是人脸关键点,也可以是边缘点),从而将该图像数据划分为多个网格。
S230、接收作用于所述嘴唇的调整操作。
S240、响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇。
针对调整操作,可确定该调整操作所调整的人脸关键点及调整方式。其中,调整方式包括调整类型、幅度。
例如,对于嘴唇(以人脸关键点表示),调整类型包括调整嘴唇的大小、高度。
按照该调整类型、幅度,对该人脸关键点进行调整,在保持人脸关键点作为网格的顶点的情况下,调整人脸关键点,可连同调整网格,使得网格内的人脸数据发生变化,从而实现调整人物形象中人脸的效果。
当然,部分人脸关键点并非调整操作所调整的人脸关键点,即部分人脸关键点并未调整,若网格的顶点(人脸关键点)并未调整,则该网格保持原有的状态。
本实施例中,以调整嘴唇为例进行说明,该嘴唇的嘴唇关键点包括上嘴唇的上嘴唇关键点(如图2D中的第一编号为49、55、56、57、58、57、58、59、60、61、68、67、66、65的人脸关键点)、下嘴唇的下嘴唇关键点(如图2D中的第一编号为3、4、5、6、12、13、14、15的人脸关键点)。根据嘴唇关键点所在位置的划分,嘴唇关键点可以包括嘴唇外侧的外轮廓关键点(如图2D中的第一编号为49、50、51、52、53、54、55、56、57、58、59、60的人脸关键点)、嘴唇内侧的内轮廓关键点(如图2D中的第一编号为461、62、63、64、65、66、67、68的人脸关键点)。图8A为未进行调整操作的图像数据。
本实施例中,可以将步骤S240细化为步骤S2411-S2412:
S2411、响应于所述调整操作,基于所述内轮廓关键点确定参考点,所述参考点位于所述嘴唇内侧。
在人脸数据的嘴唇张开的情况下,该参考点可以是位于嘴唇内侧中的一点;
而对于人脸数据的嘴唇闭合的情况下,则该参考点可以位于嘴唇内侧对应的内轮廓关键点之间。
在一实施例中,可以通过确定所述嘴唇的对称轴;从所述对称轴与所述嘴唇内侧的交点中确定参考点(如图2D中的第一编号为43、67的人脸关键点)。优选的,确定所述对称轴与所述嘴唇内侧的交点;可以将位于下嘴唇的所述交点,确定为参考点(如图2D中的第一编号为67的人脸关键点)。一方面,当采用选择嘴唇内侧对应的内轮廓关键点为参考点,可以避免在人脸数据中的嘴唇为闭合状态时找不到参考点;另一方面,当采用位于下嘴唇的交点,确定为参考点时,可以使得在调整嘴唇的大小的时,由于该参考点远离鼻子,可以尽量减少使得鼻子变形的情况出现。
在又一实施例中,可以将位于下嘴唇的、靠近所述嘴唇的中轴线的内轮廓关键点,作为参考点(如图2D中的第一编号为66、68的人脸关键点)。
S2412、以所述参考点为目标移动所述外轮廓关键点,以调整所述嘴唇关键点所处的网格。
在减小嘴巴大小时,嘴唇外侧的外轮廓关键点朝参考点移动。
在增加嘴巴大小时,嘴唇外侧的外轮廓关键点远离左侧的参考点移动。
S250、绘制调整之后的网格,以显示调整嘴唇之后的图像数据。
在实际应用中,调用OpenGL、OpenGL ES等API或渲染引擎,按照顺序绘制每个网格(包含已调整的网格),从而在屏幕显示调整人物形象之后的图像数据。
进一步地,为了提高图像数据的显示速度,可以在GPU中绘制网格。
在本发明的一个实施例中,针对调整后的网格,S250包括如下步骤:
S251、对于每个网格,确定位于所述网格中各个顶点的纹理坐标。
S252、对于每个网格,确定位于所述网格中各个顶点的顶点坐标。
S253、按照所述纹理坐标与所述顶点坐标绘制所述网格,以显示所述图像数据。
在绘制纹理映射场景时,除了给每个顶点定义几何坐标(即顶点坐标),也要定义纹理坐标。经过多种变换后,几何坐标决定顶点在屏幕上绘制的位置,而纹理坐标决定纹理图像中的哪一个纹素赋予该顶点。
S260、在一直播间发布调整嘴唇之后的视频数据。
直播应用可通过RTSP、RTMP、HLS等协议,将视频数据发送至直播平台(直播服务器),直播平台(直播服务器)公开该直播间,使得观众用户可以在客户端中打开直播间,接收该视频数据并进行播放。
实施例三
图10为本发明实施例三提供的一种嘴型的调整装置的结构示意图,该装置具体可以包括如下模块:图像数据获取模块310、网格划分模块320、调整操作接收模块330、调整操作响应模块340和网格绘制模块350。
图像数据获取模块310,用于获取图像数据,所述图像数据中具有人脸数据;
网格划分模块320,用于将所述图像数据划分为多个网格,所述网格的顶点至少包括所述人脸数据的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
调整操作接收模块330,用于接收作用于所述嘴唇的调整操作;
调整操作响应模块340,用于响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
网格绘制模块350,用于绘制调整之后的网格,以显示调整嘴唇之后的图像数据。
在本发明的另一个实施例中,所述嘴唇关键点包括嘴唇外侧的外轮廓关键点、嘴唇内侧的内轮廓关键点;
所述调整操作响应模块340,包括:
调整操作响应单元,用于响应于所述调整操作,基于所述内轮廓关键点确定参考点,所述参考点位于所述嘴唇内侧;
嘴唇调整单元,用于以所述参考点为目标移动所述外轮廓关键点,以调整所述嘴唇关键点所处的网格。
在本发明的另一个实施例中,所述调整操作响应单元,包括:
对称轴确定单元,用于确定所述嘴唇的对称轴;
第一参考点确定单元,用于从所述对称轴与所述嘴唇内侧的交点中确定参考点。
在本发明的另一个实施例中,所述第一参考点确定单元,包括:
交点确定子单元,用于确定所述对称轴与所述嘴唇内侧的交点;
第二参考点确定单元,用于将位于下嘴唇的所述交点,确定为参考点。
在本发明的另一个实施例中,所述调整操作响应单元,包括:
第三参考点确定单元,用于将位于下嘴唇的、靠近所述嘴唇的中轴线的内轮廓关键点,作为参考点。
在本发明的另一个实施例中,所述网格划分模块320,包括:
识别单元,用于识别所述人脸数据中的人脸关键点;
第一相邻点确定单元,用于确定位置相邻的人脸关键点,作为第一目标关键点;
第一网格获取单元,用于在所述图像数据中以所述第一目标关键点作为顶点、连接所述第一目标关键点,获得网格。
在本发明的另一个实施例中,所述网格划分模块320,还包括:
边缘点确定单元,用于确定位于所述图像数据边缘上的点,作为边缘点;
第二相邻点确定单元,用于确定与所述边缘点位置相邻的人脸关键点,作为第二目标关键点;
第二网格获取单元,用于在所述图像数据中以所述边缘点、所述第二目标关键点作为顶点、连接所述边缘点与所述第二目标关键点,获得网格。
本发明实施例所提供的嘴型的调整装置可执行本发明任意实施例所提供的嘴型的调整方法,具备执行方法相应的功能模块和有益效果。
实施例四
图11为本发明实施例四提供的一种直播装置的结构示意图,该装置具体可以包括如下模块:视频数据采集模块410、网格划分模块420、调整操作接收模块430、调整操作响应模块440、网格绘制模块450和视频发布模块460。
视频数据采集模块410,用于采集视频数据,所述视频数据中包括图像数据,所述图像数据中具有主播用户;
网格划分模块420,用于将所述图像数据划分为多个网格,所述网格的顶点至少包括所述主播用户的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
调整操作接收模块430,用于接收作用于所述嘴唇的调整操作;
调整操作响应模块440,用于响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
网格绘制模块450,用于绘制调整之后的网格,以显示调整嘴唇之后的图像数据;
视频发布模块460,用于在一直播间发布调整嘴唇之后的视频数据。
本发明实施例所提供的直播装置可执行本发明任意实施例所提供的直播方法,具备执行方法相应的功能模块和有益效果。
实施例五
图12为本发明实施例五提供的一种设备的结构示意图。如12所示,该设备包括处理器500、存储器501、通信模块502、输入装置503和输出装置504;设备中处理器500的数量可以是一个或多个,12中以一个处理器500为例;设备中的处理器500、存储器501、通信模块502、输入装置503和输出装置504可以通过总线或其他方式连接,12中以通过总线连接为例。
存储器501作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本实施例中的一种嘴型的调整方法对应的模块(例如,如图10所示的一种嘴型的调整装置中的图像数据获取模块310、网格划分模块320、调整操作接收模块330、调整操作响应模块340和网格绘制模块350),又如本实施例中的一种直播方法对应的模块(例如,如图11所述的一种直播装置中的视频数据采集模块410、网格划分模块420、调整操作接收模块430、调整操作响应模块440、网格绘制模块450和视频发布模块460)。处理器500通过运行存储在存储器501中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的一种眼部调整方法或直播方法。
存储器501可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器501可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器501可进一步包括相对于处理器500远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
通信模块502,用于与显示屏建立连接,并实现与显示屏的数据交互。输入装置503可用于接收输入的数字或字符信息,以及产生与设备的用户设置以及功能控制有关的键信号输入。
本实施例提供的一种设备,可执行本发明任一实施例提供的嘴型的调整方法或直播方法,具体相应的功能和有益效果。
实施例六
本发明实施例六还提供一种计算机可读存储介质,其上存储有计算机程序。
在一实施例中,该程序被处理器执行时实现一种嘴型的调整方法,该方法包括:
获取图像数据,所述图像数据中具有人脸数据;
将所述图像数据划分为多个网格,所述网格的顶点至少包括所述人脸数据的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
接收作用于所述嘴唇的调整操作;
响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
绘制调整之后的网格,以显示调整嘴唇之后的图像数据。
在又一实施例中,该程序被处理器执行时实现一种直播方法,该方法包括:
采集视频数据,所述视频数据中包括图像数据,所述图像数据中具有主播用户;
将所述图像数据划分为多个网格,所述网格的顶点至少包括所述主播用户的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
接收作用于所述嘴唇的调整操作;
响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
绘制调整之后的网格,以显示调整嘴唇之后的图像数据;
在一直播间发布调整嘴唇之后的视频数据。
当然,本发明实施例所提供的计算机可读存储介质,其计算机程序不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的嘴型的调整方法或直播方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述嘴型的调整装置或直播装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (12)

1.一种嘴型的调整方法,其特征在于,包括:
获取图像数据,所述图像数据中具有人脸数据;
将所述图像数据划分为多个网格,所述网格的顶点至少包括所述人脸数据的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
接收作用于所述嘴唇的调整操作;
响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
绘制调整之后的网格,以显示调整嘴唇之后的图像数据。
2.根据权利要求1所述的方法,其特征在于,所述嘴唇关键点包括嘴唇外侧的外轮廓关键点、嘴唇内侧的内轮廓关键点;
所述响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇,包括:
响应于所述调整操作,基于所述内轮廓关键点确定参考点,所述参考点位于所述嘴唇内侧;
以所述参考点为目标移动所述外轮廓关键点,以调整所述嘴唇关键点所处的网格。
3.根据权利要求2所述的方法,其特征在于,所述基于所述内轮廓关键点确定参考点,所述参考点位于所述嘴唇内侧,包括:
确定所述嘴唇的对称轴;
从所述对称轴与所述嘴唇内侧的交点中确定参考点。
4.根据权利要求3所述的方法,其特征在于,所述从所述对称轴与所述嘴唇内侧的交点中确定参考点,包括:
确定所述对称轴与所述嘴唇内侧的交点;
将位于下嘴唇的所述交点,确定为参考点。
5.根据权利要求2所述的方法,其特征在于,所述基于所述内轮廓关键点确定参考点,所述参考点位于所述嘴唇内侧,包括:
将位于下嘴唇的、靠近所述嘴唇的中轴线的内轮廓关键点,作为参考点。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述将所述图像数据划分为多个网格,包括:
识别所述人脸数据中的人脸关键点;
确定位置相邻的人脸关键点,作为第一目标关键点;
在所述图像数据中以所述第一目标关键点作为顶点、连接所述第一目标关键点,获得网格。
7.根据权利要求6所述的方法,其特征在于,所述将所述图像数据划分为多个网格,还包括:
确定位于所述图像数据边缘上的点,作为边缘点;
确定与所述边缘点位置相邻的人脸关键点,作为第二目标关键点;
在所述图像数据中以所述边缘点、所述第二目标关键点作为顶点、连接所述边缘点与所述第二目标关键点,获得网格。
8.一种直播方法,其特征在于,包括:
采集视频数据,所述视频数据中包括图像数据,所述图像数据中具有主播用户;
将所述图像数据划分为多个网格,所述网格的顶点至少包括所述主播用户的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
接收作用于所述嘴唇的调整操作;
响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
绘制调整之后的网格,以显示调整嘴唇之后的图像数据;
在一直播间发布调整嘴唇之后的视频数据。
9.一种嘴型的调整装置,其特征在于,包括:
图像数据获取模块,用于获取图像数据,所述图像数据中具有人脸数据;
网格划分模块,用于将所述图像数据划分为多个网格,所述网格的顶点至少包括所述人脸数据的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
调整操作接收模块,用于接收作用于所述嘴唇的调整操作;
调整操作响应模块,用于响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
网格绘制模块,用于绘制调整之后的网格,以显示调整嘴唇之后的图像数据。
10.一种直播装置,其特征在于,包括:
视频数据采集模块,用于采集视频数据,所述视频数据中包括图像数据,所述图像数据中具有主播用户;
网格划分模块,用于将所述图像数据划分为多个网格,所述网格的顶点至少包括所述主播用户的人脸关键点,所述人脸关键点包括嘴唇的嘴唇关键点;
调整操作接收模块,用于接收作用于所述嘴唇的调整操作;
调整操作响应模块,用于响应于所述调整操作,调整所述嘴唇关键点所处的网格,以调整所述嘴唇;
网格绘制模块,用于绘制调整之后的网格,以显示调整嘴唇之后的图像数据;
视频发布模块,用于在一直播间发布调整嘴唇之后的视频数据。
11.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的嘴型的调整方法或如权利要求8所述的直播方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的嘴型的调整方法或如权利要求8所述的直播方法。
CN201910603828.9A 2019-07-05 2019-07-05 嘴型的调整、直播方法、装置、电子设备和存储介质 Active CN111652023B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910603828.9A CN111652023B (zh) 2019-07-05 2019-07-05 嘴型的调整、直播方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910603828.9A CN111652023B (zh) 2019-07-05 2019-07-05 嘴型的调整、直播方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN111652023A true CN111652023A (zh) 2020-09-11
CN111652023B CN111652023B (zh) 2023-09-01

Family

ID=72349156

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910603828.9A Active CN111652023B (zh) 2019-07-05 2019-07-05 嘴型的调整、直播方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN111652023B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112764649A (zh) * 2021-01-29 2021-05-07 北京字节跳动网络技术有限公司 虚拟形象的生成方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101826217A (zh) * 2010-05-07 2010-09-08 上海交通大学 人脸动画快速生成方法
CN106296571A (zh) * 2016-07-29 2017-01-04 厦门美图之家科技有限公司 一种基于人脸网格的缩小鼻翼方法、装置和计算设备
CN107800966A (zh) * 2017-10-31 2018-03-13 广东欧珀移动通信有限公司 图像处理的方法、装置、计算机可读存储介质和电子设备
CN108776957A (zh) * 2018-05-25 2018-11-09 北京小米移动软件有限公司 人脸图像处理方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101826217A (zh) * 2010-05-07 2010-09-08 上海交通大学 人脸动画快速生成方法
CN106296571A (zh) * 2016-07-29 2017-01-04 厦门美图之家科技有限公司 一种基于人脸网格的缩小鼻翼方法、装置和计算设备
CN107800966A (zh) * 2017-10-31 2018-03-13 广东欧珀移动通信有限公司 图像处理的方法、装置、计算机可读存储介质和电子设备
CN108776957A (zh) * 2018-05-25 2018-11-09 北京小米移动软件有限公司 人脸图像处理方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112764649A (zh) * 2021-01-29 2021-05-07 北京字节跳动网络技术有限公司 虚拟形象的生成方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN111652023B (zh) 2023-09-01

Similar Documents

Publication Publication Date Title
Kartynnik et al. Real-time facial surface geometry from monocular video on mobile GPUs
CN111243093B (zh) 三维人脸网格的生成方法、装置、设备及存储介质
Guo et al. Image retargeting using mesh parametrization
WO2021093453A1 (zh) 三维表情基的生成方法、语音互动方法、装置及介质
CN111710036B (zh) 三维人脸模型的构建方法、装置、设备及存储介质
CN111008935B (zh) 一种人脸图像增强方法、装置、系统及存储介质
CN109146991B (zh) 一种图片格式转换方法、装置、设备和存储介质
CN109064525B (zh) 一种图片格式转换方法、装置、设备和存储介质
CN111652795A (zh) 脸型的调整、直播方法、装置、电子设备和存储介质
WO2023066120A1 (zh) 图像处理方法、装置、电子设备及存储介质
CN113822965A (zh) 图像渲染处理方法、装置和设备及计算机存储介质
CN111652791A (zh) 人脸的替换显示、直播方法、装置、电子设备和存储介质
CN110910308A (zh) 图像处理方法、装置、设备和介质
CN111652792B (zh) 图像的局部处理、直播方法、装置、设备和存储介质
CN111652023B (zh) 嘴型的调整、直播方法、装置、电子设备和存储介质
CN111652025B (zh) 一种人脸的处理、直播方法、装置、电子设备和存储介质
CN112507766B (zh) 人脸图像提取方法、存储介质及终端设备
CN110675413B (zh) 三维人脸模型构建方法、装置、计算机设备及存储介质
CN111652022B (zh) 图像数据的显示、直播方法、装置、电子设备和存储介质
CN111652794B (zh) 一种面部的调整、直播方法、装置、电子设备和存储介质
CN111652807B (zh) 眼部的调整、直播方法、装置、电子设备和存储介质
CN113920282B (zh) 图像处理方法和装置、计算机可读存储介质、电子设备
CN116977539A (zh) 图像处理方法、装置、计算机设备、存储介质和程序产品
CN113610864B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN111651033B (zh) 一种人脸的驱动显示方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant