CN110837332A - 面部图像变形方法、装置、电子设备和计算机可读介质 - Google Patents

面部图像变形方法、装置、电子设备和计算机可读介质 Download PDF

Info

Publication number
CN110837332A
CN110837332A CN201911105629.1A CN201911105629A CN110837332A CN 110837332 A CN110837332 A CN 110837332A CN 201911105629 A CN201911105629 A CN 201911105629A CN 110837332 A CN110837332 A CN 110837332A
Authority
CN
China
Prior art keywords
offset
face image
point
target face
positioning point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911105629.1A
Other languages
English (en)
Inventor
诸葛晶晶
倪光耀
张树鹏
薛晓乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN201911105629.1A priority Critical patent/CN110837332A/zh
Publication of CN110837332A publication Critical patent/CN110837332A/zh
Priority to US17/776,300 priority patent/US20220398689A1/en
Priority to PCT/CN2020/127274 priority patent/WO2021093689A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开的实施例公开了面部图像变形方法、装置、电子设备和计算机可读介质。该方法的一具体实施方式包括:响应于检测到针对目标面部图像的拖动操作,确定拖动操作对应的定位点,其中,定位点与目标面部图像中显示的部位对应;基于拖动操作对应的移动量确定定位点的偏移量;基于定位点的偏移量对目标面部图像进行变形处理。该实施方式实现了更加灵活和更具针对性的变形效果。

Description

面部图像变形方法、装置、电子设备和计算机可读介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及面部图像变形方 法、装置、电子设备和计算机可读介质。
背景技术
随着互联网技术的不断发展,以智能手机为代表的电子设备以及 各类应用不断改变人们的生活。以视频类应用为例,有些应用提供了 各类“特效”,以实现各种特殊拍摄效果。
发明内容
本发明内容部分用于以简要的形式介绍构思,这些构思将在后面 的具体实施方式部分被详细描述。本发明内容部分并不旨在标识要求 保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的 保护的技术方案的范围。
本公开的一些实施例提出了面部图像变形方法、装置、电子设备 和计算机可读介质。
第一方面,本公开的一些实施例提供了一种面部图像变形方法, 包括:响应于检测到针对目标面部图像的拖动操作,确定拖动操作对 应的定位点,其中,定位点与目标面部图像中显示的部位对应;基于 拖动操作对应的移动量确定定位点的偏移量;基于定位点的偏移量对 目标面部图像进行变形处理。
第二方面,本公开的一些实施例提供了一种面部图像变形装置, 包括:第一确定单元,被配置成响应于检测到针对目标面部图像的拖 动操作,确定拖动操作对应的定位点,其中,定位点与目标面部图像 中显示的部位对应;第二确定单元,被配置成基于拖动操作对应的移 动量确定定位点的偏移量;变形处理单元,被配置成基于定位点的偏 移量对目标面部图像进行变形处理。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一 个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或 多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第 一方面中任一实现方式描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其 上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中 任一实现方式描述的方法。
本公开的一些实施例提供的面部图像变形方法、装置、电子设备 和计算机可读介质,用户可以根据想要实现的变形效果,针对面部图 像进行拖动,从而实现更加灵活和更具针对性的变形效果。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其 他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附 图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元 素不一定按照比例绘制。
图1是本公开的一些实施例可以应用于其中的示例性系统的架构 图;
图2是根据本公开的面部图像变形方法的一些实施例的流程图;
图3是根据本公开的一些实施例的面部图像变形方法的一个应用 场景的示意图;
图4是根据本公开的面部图像变形方法的另一些实施例的流程 图;
图5是根据本公开的面部图像变形装置的一些实施例的结构示意 图;
图6是适于用来实现本公开的一些实施例的电子设备的结构示意 图;
图7是根据本公开的面部图像变形方法的再一些实施例的流程 图;
图8是根据本公开的面部图像变形方法的
图9是根据本公开的面部图像变形方法的。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示 了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形 式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供 这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本 公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护 范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发 明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的 特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不 同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单 元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而 非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出, 否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称 仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限 制。
下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的一些实施例的面部图像变形方法或 面部图像变形装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103, 网络104和服务器105。网络104用以在终端设备101、102、103和 服务器105之间提供通信链路的介质。网络104可以包括各种连接类 型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105 交互,以接收或发送信息等。终端设备101、102、103上可以安装有 各种客户端应用,例如图像或视频观看类应用、图像或视频拍摄类应 用、图像或视频处理类应用等、即时通讯类应用等等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设 备101、102、103为硬件时,可以是具有显示屏并且支持图像显示的 各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、 膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用 来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或 软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对经过终端设备 101、102、103处理的面部图像进行存储转发等处理的后台服务器。
需要说明的是,本公开的实施例所提供的面部图像变形方法一般 由终端设备101、102、103执行。相应地,面部图像变形装置一般也 设置于终端设备101、102、103中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为 硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实 现成单个服务器。当服务器为软件时,可以实现成例如用来提供分布 式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。 在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意 性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。 其中,网络和服务器并非必要的,根据实际情况,也可以不设置网络 和服务器。
继续参考图2,示出了根据本公开的面部图像变形方法的一些实 施例的流程200。该面部图像变形方法,包括以下步骤:
步骤201,响应于检测到针对目标面部图像的拖动操作,确定拖 动操作对应的定位点。
其中,面部图像可以是显示有人或动物的面部的图片或视频帧。 目标面部图像可以是任意面部图像。目标面部图像的确定可以通过指 定,也可以通过一定的条件筛选得到。例如,若执行主体具备拍摄功 能,在拍摄面部的过程中,可以将当前拍摄得到的图像或视频帧确定 为目标面部图像。当然,可以将指定的人脸图像确定为目标面部图像。
在一些实施例中,面部图像变形方法的执行主体(例如图1所示 的终端设备)可以首先检测针对目标面部图像的拖动操作。其中,针 对目标图像的拖动操作可以是各种类型的操作。例如,可以是滑动、 点击等屏幕上的操作,也可以是特定的语音输入等非屏幕上的操作。 上述执行主体根据拖动操作的不同,可以通过各种方式检测拖动操作。 例如,对于屏幕上的操作,可以通过操作系统提供的接口函数监听滑 动事件以检测用户的拖动操作。需要说明的是,针对目标面部图像的 拖动操作,可以是针对目标面部图像的整体或部分进行的操作。例如, 可以针对目标面部图像中显示的一个部位(例如,嘴巴)进行拖动操 作。
在此基础上,可以确定拖动操作对应的定位点。其中,定位点与 目标面部图像中显示的部位对应。根据实际情况,目标面部图像中显 示的部位可以包括但不限于:额头、眼睛、鼻子、嘴巴、下巴、脸颊 等等。作为示例,每个定位点可以对应一个部位。根据实际情况,每 个部位对应的定位点可以通过不同的方式确定。作为示例,可以通过 指定的方式确定每个部位的定位点。
实践中,可以通过多种方式确定拖动操作对应的定位点。具体的, 可以通过指定,也可以通过一定的条件进行筛选。
作为示例,可以通过弹窗等方式提示用户选取目标面部图像中显 示的一个部位。从而将用户选取的部位对应的定位点作为拖动操作对 应的定位点。
作为示例,可以将与拖动操作的按下点的距离最近的定位点确定 为拖动操作对应的定位点。
在一些可选的实现方式中,可以进一步确定拖动操作的按下点与 最近的定位点之间的距离是否满足预设条件。若满足预设条件,可以 继续执行后续步骤。若不满足预设条件,可以放弃本次拖动操作,不 执行后续步骤。例如,若拖动操作的按下点与最近的定位点之间的距 离大于预设距离阈值,可以放弃该次操作,不执行后续步骤。
在一些可选的实现方式中,目标面部图像中显示的各个部位对应 的点位点可以通过以下步骤得到:
第一步,对目标面部图像进行关键点检测,得到关键点集合。例 如,可以通过各种人脸关键点检测算法或模型检测目标面部图像,得 到对应的关键点集合。作为示例,可以通过OpenCV(一个开源的计 算机视觉库)提供的Haar人脸检测模型或LBP人脸检测模型等等。 作为示例,Interspeices Knowledge Transfer for Facial Key Point Detection(跨物种脸部关键点检测知识迁移)提供了对于动物面部关 键点的检测算法。
其中,关键点集合中关键点的数量可以根据实际需要确定。作为 示例,关键点的数量可以是68个、106个等等。
第二步,基于关键点集合确定目标面部图像中显示的部位对应的 定位点。
实践中,关键点集合中的各个关键点与面部不同的部位往往存在 对应关系。例如,关键点集合中的一些关键点标识左眼的轮廓,这些 关键点可以与左眼对应。
作为示例,对于某个部位,上述执行主体可以基于与该部位对应 的多个关键点,确定该部位对应的定位点。例如,可以计算与该部位 对应的多个关键点的坐标的加权和,从而得到该定位点的坐标,即确 定该部位对应的定位点。
根据实际需要,目标面部图像中显示的部位对应的定位点可以预 先生成,也可以在上述方法执行时生成。对此,本申请不做限定。
在一些可选的实现方式中,可以对于目标面部图像中显示的部位 对应的定位点进行显示,从而对用户进行有效提示。避免用户操作时 的按下点与定位点之间的距离过远,造成无效操作。
步骤202,基于拖动操作对应的移动量确定定位点的偏移量。
在一些实施例中,上述执行主体可以基于拖动操作对应的移动量 确定定位点的偏移量。
作为示例,可以首先获取移动操作对应的移动量。具体的,在拖 动过程中,假设当前接触点的坐标为(Xcur,Ycur),按下点的坐标为 (Xstart,Ystart),那么拖动操作对应的移动量可以为(Xdiff,Ydiff)。其 中,Xdiff=Xour-Xstart,Ydiff=Your-Ystart
在得到拖动操作对应的移动量的基础上,作为示例,可以直接将 拖动操作对应的移动量确定为定位点的偏移量。
在一些可选的实现方式中,上述执行主体还可以基于拖动操作对 应的移动量和目标面部图像中显示的面部的姿态信息确定定位点的偏 移量。从而通过目标面部图像中显示的面部的姿态信息对移动量进行 修正,使得变形效果更精准。其中,目标面部图像中显示的面部的姿 态信息可以通过一些脸部姿态估计算法得到。作为示例,人脸姿态估 计算法包括但不限于:基于模型的方法,基于表观的方法,基于分类 的方法等等。姿态信息可以通过pitch,yaw,roll三种角度来表示,分 别代表上下翻转,左右翻转,平面内旋转的角度。
作为示例,可以通过以下公式对拖动操作对应的移动量进行修正, 得到定位点的偏移量具体的,定位点的偏移量可以通 过以下公式计算:
Figure BDA0002271197410000072
Figure BDA0002271197410000073
scala=a×disteye/cos(yaw)
其中,
Figure BDA0002271197410000074
为上一次操作得到的定位点的偏移量。
disteye为目标面部图像中双眼之间的距离。a为预设系数,可以根据实 际情况确定其取值。
步骤203,基于定位点的偏移量对目标面部图像进行变形处理。
在一些实施例中,上述执行主体可以基于定位点的偏移量对目标 面部图像进行变形处理,从而可以得到变形处理后的面部图像。作为 示例,变形处理方法包括但不限于:基于网格的变形、基于特征线的 变形、基于散乱点插值的变形等等。其中,基于网格的变形,即在图 像上嵌入一张网格,通过改变网格的形状实现图像变形。进一步的, 包括后续发展出的自由变形(FFD)和建立网格的层次结构等等。基于特 征线的变形,如Beier和Neely等人提出的根据像素点相对于图像中一 系列线段的位置而决定变形的方法。
作为示例,基于网格的变形,可以通过拖动操作对应的定位点的 偏移量,得到面部变形系数,从而实现面部变形。具体的,可以包括 以下步骤:
第一步,对于目标面部图像中的每个网格点,基于目标函数和约 束条件,得到每个网格点的变换矩阵和平移向量。其中,变换矩阵和 平移向量可以认为是上述面部变形系数。以第j个网格点为例,第j 个网格点的变换矩阵Mj和平移向量Tj可以通过以下方式计算:
Figure BDA0002271197410000081
Figure BDA0002271197410000082
其中,实践中,目标面部图像中可以包括至少一个定位点。为便 于说明和查找,可以为每个定位点添加序号作为索引。这里,以拖动 操作对应的定位点为第i个定位点进行说明。pi表示第i个定位点的起 始坐标;qi表示第i个定位点被拖动后的终点坐标。λ为系数,其取值 可以根据实际情况确定;I可以取单位矩阵;wij表示第j个网格点和第 i个定位点的权重,可以通过以下公式计算:
Figure BDA0002271197410000083
其中,α表示权重衰减系数,其取值可以根据实际情况确定。
第二步,基于变换矩阵和平移向量得到每个网格点变形后的坐标。 以第j个网格点为例,第j个网格点变形后的坐标fs(vj)可以通过以下公 式计算得到:
fs(vj)=vjMj+Tj
其中,vj表示第j个网格点原始坐标。
继续参见图3,图3是根据本公开的一些实施例的面部图像变形 方法的应用场景的一个示意图。在图3的应用场景中,用户可以在智 能手机301上安装支持视频录制的应用A。从而用户可以通过应用A 进行自拍。在此过程中,以当前捕获的摄像头拍摄的画面作为目标面 部图像,如图中302所示。应用A可以首先检测目标面部图像302的 关键点,得到对应的关键点集合。从而应用A可以基于目标面部图像 302对应的关键点集合确定六个定位点的位置信息。在本应用场景下, 为便于说明,将六个定位点在图中进行了标识。需要说明的是,实践 中,根据实际情况,可以显示点位点,也可以不显示点位点。在本应 用场景下,六个定位点分别对应额头、左眼、右眼、左脸、右脸、下 巴。之后,根据六个定位点的位置信息,在智能手机301的屏幕上进 行渲染,从而显示如图所示的六个定位点。可选的,可以在屏幕中显 示提示信息,以提示用户对目标面部图像进行拖动操作。
以用户拖动目标面部图像中显示的左脸和右脸为例,左脸对应的 定位点移动前的位置如图中303所示。右脸对应的定位点移动前的位 置如图中304所示。应用A响应于检测到用户针对目标面部图像302 拖动操作,可以确定拖动操作对应的定位点。在本场景下,以拖动操 作对应的定位点为定位点303和304为例。在此基础上,可以将拖动 操作对应的移动量,即,用户手指在屏幕上的移动量,确定为定位点 303和304的偏移量。移动后的定位点的位置如图中303′和304′所 示。进而,基于两个定位点的偏移量对目标面部图像302进行变形处 理,从而得到新的面部图像302′。
可以理解,根据实际需要,根据目标面部图像中支持拖动的部位 的数量不同,定位点的数量也不同。作为示例,定位点的数量可以是: 3、4、5、6……。以目标面部图像中支持拖动的部位为左脸、右脸、 下巴为例,对应的定位点的数量为三个。从而用户可以对左脸、右脸、 下巴中的至少一个进行拖动,以实现图像变形。本公开的一些实施例 提供的面部图像变形方法,其中,用户可以根据想要实现的变形效果, 针对面部图像进行拖动,从而实现更加灵活和更具针对性的变形效果。
进一步参考图4,其示出了面部图像变形方法的另一些实施例的 流程400。该面部图像变形方法的流程400,包括以下步骤:
步骤401,响应于检测到针对目标面部图像的拖动操作,确定拖 动操作对应的定位点。
步骤402,基于拖动操作对应的移动量确定定位点的偏移量。
在一些实施例中,步骤401-402的具体实现及所带来的技术效果 可以参考图2对应的那些实施例中的步骤201-202,在此不再赘述。
步骤403,响应于确定定位点的偏移量满足预设条件,基于定位 点的偏移量对目标面部图像进行变形处理。
在一些实施例中,面部图像变形方法的执行主体可以确定定位点 的偏移量是否满足预设条件。其中,预设条件可以是对于偏移量的各 种限定条件。例如,预设条件可以是:目标定位点的偏移量小于或等 于目标定位点对应的最大偏移量。从而,响应于确定定位点的偏移量 小于或等于该定位点对应的最大偏移量,执行主体可以基于定位点的 偏移量对目标面部图像进行变形处理。响应于确定定位点的偏移量大 于该定位点对应的最大偏移量,基于最大偏移量对目标面部图像进行 变形处理。可以参考图8,作为示例,其中示出了定位点801的最大 偏移量,即虚线所标记的位置。
作为示例,定位点对应的最大偏移量
Figure BDA0002271197410000101
可以通过以 下公式进行计算:
Figure BDA0002271197410000102
Figure BDA0002271197410000103
Figure BDA0002271197410000104
其中,ellipse_a和ellipse_b分别表示定位点对应的限定椭圆范围的长 短轴,其取值可以根据实际需要确定。
Figure BDA0002271197410000105
为定位点的偏移 量。
从图4中可以看出,与图2对应的一些实施例的描述相比,图4 对应的一些实施例中的面部图像变形方法的流程400通过设置预设条 件,可以对变形效果进行一定的控制。例如,当用户随意拖动目标面 部图像时,可以避免出现五官翻转、脸部不对称等情形。
继续参考图7,其示出了面部图像变形方法的再一些实施例的流 程700。该面部图像变形方法的流程700,包括以下步骤:
步骤701,响应于检测到针对目标面部图像的拖动操作,确定拖 动操作对应的定位点。
步骤702,基于拖动操作对应的移动量确定定位点的偏移量。
在一些实施例中,步骤701-702的具体实现及所带来的技术效果 可以参考图2对应的那些实施例中的步骤201-202,在此不再赘述。
步骤703,响应于确定定位点的纵向偏移量大于或等于定位点与 纵向相邻的定位点之间的纵向距离,确定纵向相邻的定位点的偏移量。
在一些实施例中,定位点的纵向偏移量为定位点的偏移量的纵向 分量,定位点与纵向相邻的定位点之间的纵向距离可以为定位点与纵 向相邻的定位点之间的距离的纵向分量。举例来说,与左眼对应的定 位点相邻的定位点可以是左脸对应的定位点、额头对应的定位点。相 邻的定位点的偏移量可以根据实际情况确定。例如,相邻的定位点的 偏移量可以与定位点的偏移量相等。又如,相邻的定位点的偏移量也 可以是定位点的偏移量与预设系数的乘积。
作为示例,参考图9,以定位点901偏移后如图中901′所示为例。 定位点901的纵向偏移量为b,定位点901与纵向相邻的定位点902 之间的纵向距离为a。响应于确定定位点的纵向偏移量大于定位点与 纵向相邻的定位点之间的纵向距离,即,图中b大于a,确定纵向相 邻的定位点902的偏移量。例如,可以将纵向相邻的定位点902的偏 移量确定为b与a的差值。
步骤704,响应于确定定位点的偏移量满足预设条件,基于定位 点的偏移量和纵向相邻的定位点的偏移量,对目标面部图像进行变形 处理。
在一些实施例中,基于定位点和偏移量和纵向相邻的定位点的偏 移量,对目标面部图像进行处理。作为示例,可以首先基于定位点的 偏移量对目标面部图像进行处理,得到预处理面部图像。在此基础上, 基于纵向相邻的定位点的偏移量对预处理面部图像,进行变形处理。 其中,具体的变形处理方式可以参考图2对应的那些实施例中的步骤 203中的那些变形处理方式进行处理,在此不再赘述。
与图4对应的那些实施例相比,图7对应的实施例,增加了比较 定位点的纵向偏移量和定位点与纵向相邻的定位点之间的纵向距离的 步骤,从而可以保证定位点所对应的部位之间的相对位置关系稳定。 例如,从上而下的顺序可以是额头、眼睛、脸颊、下巴。这个相对位 置关系不会因为其中某些定位点的偏移而变化,从而保证变形处理后 的图像中的面部的各个部位之间的相对位置关系不变。
在一些可选的实现方式中,响应于确定目标定位点的偏移量满足 预设条件,基于目标定位点的偏移量对目标面部图像进行变形处理之 前,该方法还可以包括:响应于确定至少三个定位点中存在与目标定 位点对称显示的定位点,确定对称显示的定位点的偏移量。由于定位 点所对应的部位中存在对称的部位。例如,左眼和右眼对称。在此基 础上,作为实例,可以确定对称显示的定位点的偏移量与目标定位点 的纵向偏移量相等,而横向偏移量方向相反。在此基础上,基于目标 定位点的偏移量对目标面部图像进行变形处理,包括:基于目标定位 点的偏移量和对称显示的定位点的偏移量,对目标面部图像进行变形处理。从而可以保证变形处理后的图像中的面部的对称性。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供 了一种面部图像变形装置的一些实施例,这些装置实施例与图2所示 的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,一些实施例的面部图像变形装置500包括:第一确 定单元501、第二确定单元502和变形处理单元503。其中,第一确定 单元501被配置成响应于检测到针对目标面部图像的拖动操作,确定 拖动操作对应的定位点,其中,定位点与目标面部图像中显示的部位 对应。第二确定单元502被配置成基于拖动操作对应的移动量确定定 位点的偏移量。变形处理单元503被配置成基于定位点的偏移量对目 标面部图像进行变形处理。
在一些实施例的可选的实现方式中,目标面部图像中显示的部位 对应的定位点通过以下步骤得到:对目标面部图像进行关键点检测, 得到关键点集合;基于关键点集合确定目标面部图像中显示的部位对 应的定位点。
在一些实施例的可选的实现方式中,第二确定单元502可以进一 步被配置成包括:基于拖动操作对应的移动量和目标面部图像中显示 的面部的姿态信息确定定位点的偏移量,其中,姿态信息用于表征面 部旋转角度。
在一些实施例的可选的实现方式中,变形处理单元503可以进一 步被配置成:响应于确定定位点的偏移量满足预设条件,基于定位点 的偏移量对目标面部图像进行变形处理。
在一些实施例的可选的实现方式中,装置500还可以包括第三确 定单元(图中未示出)。其中,第三确定单元被配置成响应于确定定位 点的纵向偏移量大于或等于定位点与纵向相邻的定位点之间的纵向距 离,确定纵向相邻的定位点的偏移量。以及变形处理单元503可以进 一步被配置成:基于定位点的偏移量和纵向相邻的定位点的偏移量, 对目标面部图像进行变形处理,其中,定位点的纵向偏移量为定位点 的偏移量的纵向分量。
在一些实施例的可选的实现方式中,装置500还可以包括:第四 确定单元(图中未示出)。其中,第四确定单元被配置成确定与定位点 对称显示的定位点的偏移量。以及变形处理单元503可以进一步被配 置成:基于定位点的偏移量和对称显示的定位点的偏移量,对目标面 部图像进行变形处理。
在一些实施例的可选的实现方式中,变形处理单元503可以进一 步被配置成:响应于确定定位点的偏移量小于或等于定位点对应的最 大偏移量,基于目标定位点的偏移量对目标面部图像进行变形处理; 响应于确定定位点的偏移量大于定位点对应的最大偏移量,基于最大 偏移量对目标面部图像进行变形处理。
在一些实施例中,用户可以根据需要移动定位点,从而实现更加 灵活和更具针对性的变形效果。
下面参考图6,其示出了适于用来实现本公开的一些实施例的电 子设备(例如图1中的终端设备)600的结构示意图。本公开的一些 实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、 数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便 携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端 以及诸如数字TV、台式计算机等等的固定终端。图6示出的终端设备 仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何 限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、 图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的 程序或者从存储装置608加载到随机访问存储器(RAM)603中的程 序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备 600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线 604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸 板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置 606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607; 包括例如存储卡等的存储装置608;以及通信装置609。通信装置609 可以允许电子设备600与其他设备进行无线或有线通信以交换数据。 虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并 不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更 少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需 要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程 可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种 计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该 计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一 些实施例中,该计算机程序可以通过通信装置609从网络上被下载和 安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计 算机程序被处理装置601执行时,执行本公开的一些实施例的方法中 限定的上述功能。
需要说明的是,本公开的一些实施例所述的计算机可读介质可以 是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任 意组合。计算机可读存储介质例如可以是——但不限于——电、磁、 光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的 组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有 一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储 器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM 或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器 件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施 例中,计算机可读存储介质可以是任何包含或存储程序的有形介质, 该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。 而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中 或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序 代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信 号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是 计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号 介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使 用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以 用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等 等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP (HyperText TransferProtocol,超文本传输协议)之类的任何当前已知 或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字 数据通信(例如,通信网络)互连。通信网络的示例包括局域网 (“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端 网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网 络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是 单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一 个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使 得该电子设备:基于目标面部图像对应的关键点集合确定至少三个定 位点的位置信息;基于位置信息,对至少三个定位点进行显示;响应 于检测到用户针对至少三个定位点中的目标定位点的移动操作,基于 移动量确定目标定位点的偏移量。基于目标定位点的偏移量对目标面 部图像进行变形处理。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开 的一些实施例的操作的计算机程序代码,所述程序设计语言包括面向 对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过 程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可 以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一 个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、 或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中, 远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域 网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例 如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、 方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点 上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码 的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实 现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实 现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。 例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时 也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是, 框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现, 或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现, 也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中, 例如,可以描述为:一种处理器包括第一确定单元、第二确定单元和 变形处理单元。其中,这些单元的名称在某种情况下并不构成对该单 元本身的限定,例如,第一确定单元还可以被描述为“确定拖动操作对 应的定位点的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部 件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件 包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标 准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
根据本公开的一个或多个实施例,提供了一种面部图像变形方法, 包括:响应于检测到针对目标面部图像的拖动操作,确定拖动操作对 应的定位点,其中,定位点与目标面部图像中显示的部位对应;基于 拖动操作对应的移动量确定定位点的偏移量;基于定位点的偏移量对 目标面部图像进行变形处理。
根据本公开的一个或多个实施例,目标面部图像中显示的部位对 应的定位点通过以下步骤得到:对目标面部图像进行关键点检测,得 到关键点集合;基于关键点集合确定目标面部图像中显示的部位对应 的定位点。
根据本公开的一个或多个实施例,基于拖动操作对应的移动量确 定定位点的偏移量,包括:基于拖动操作对应的移动量和目标面部图 像中显示的面部的姿态信息确定定位点的偏移量,其中,姿态信息用 于表征面部旋转角度。
根据本公开的一个或多个实施例,基于定位点的偏移量对目标面 部图像进行变形处理,包括:响应于确定定位点的偏移量满足预设条 件,基于定位点的偏移量对目标面部图像进行变形处理。
根据本公开的一个或多个实施例,在响应于确定定位点的偏移量 满足预设条件,基于定位点的偏移量对目标面部图像进行变形处理之 前,方法还包括:响应于确定定位点的纵向偏移量大于或等于定位点 与纵向相邻的定位点之间的纵向距离,确定纵向相邻的定位点的偏移 量,以及基于定位点的偏移量对目标面部图像进行变形处理,包括: 基于定位点的偏移量和纵向相邻的定位点的偏移量,对目标面部图像 进行变形处理,其中,定位点的纵向偏移量为定位点的偏移量的纵向 分量。
根据本公开的一个或多个实施例,响应于确定定位点的偏移量满 足预设条件,基于目标定位点的偏移量对目标面部图像进行变形处理 之前,方法还包括:确定与定位点对称显示的定位点的偏移量;以及 基于定位点的偏移量对目标面部图像进行变形处理,包括:基于定位 点的偏移量和对称显示的定位点的偏移量,对目标面部图像进行变形 处理。
根据本公开的一个或多个实施例,响应于确定定位点的偏移量满 足预设条件,基于定位点的偏移量对目标面部图像进行变形处理,包 括:响应于确定定位点的偏移量小于或等于定位点对应的最大偏移量, 基于目标定位点的偏移量对目标面部图像进行变形处理;响应于确定 定位点的偏移量大于定位点对应的最大偏移量,基于最大偏移量对目 标面部图像进行变形处理。
根据本公开的一个或多个实施例,提供了一种面部图像变形装置, 包括:第一确定单元,被配置成响应于检测到针对目标面部图像的拖 动操作,确定拖动操作对应的定位点,其中,定位点与目标面部图像 中显示的部位对应;第二确定单元,被配置成基于拖动操作对应的移 动量确定定位点的偏移量;变形处理单元,被配置成基于定位点的偏 移量对目标面部图像进行变形处理。
根据本公开的一个或多个实施例,目标面部图像中显示的部位对 应的定位点通过以下步骤得到:对目标面部图像进行关键点检测,得 到关键点集合;基于关键点集合确定目标面部图像中显示的部位对应 的定位点。
根据本公开的一个或多个实施例,第二确定单元可以进一步被配 置成包括:基于拖动操作对应的移动量和目标面部图像中显示的面部 的姿态信息确定定位点的偏移量,其中,姿态信息用于表征面部旋转 角度。
根据本公开的一个或多个实施例,变形处理单元可以进一步被配 置成:响应于确定定位点的偏移量满足预设条件,基于定位点的偏移 量对目标面部图像进行变形处理。
根据本公开的一个或多个实施例,装置还可以包括第三确定单元 (图中未示出)。其中,第三确定单元被配置成响应于确定定位点的纵 向偏移量大于或等于定位点与纵向相邻的定位点之间的纵向距离,确 定纵向相邻的定位点的偏移量。以及变形处理单元可以进一步被配置 成:基于定位点的偏移量和纵向相邻的定位点的偏移量,对目标面部 图像进行变形处理,其中,定位点的纵向偏移量为定位点的偏移量的 纵向分量。
根据本公开的一个或多个实施例,装置还可以包括:第四确定单 元(图中未示出)。其中,第四确定单元被配置成确定与定位点对称显 示的定位点的偏移量。以及变形处理单元可以进一步被配置成:基于 定位点的偏移量和对称显示的定位点的偏移量,对目标面部图像进行 变形处理。
根据本公开的一个或多个实施例,变形处理单元可以进一步被配 置成:响应于确定定位点的偏移量小于或等于定位点对应的最大偏移 量,基于目标定位点的偏移量对目标面部图像进行变形处理;响应于 确定定位点的偏移量大于定位点对应的最大偏移量,基于最大偏移量 对目标面部图像进行变形处理。
根据本公开的一个或多个实施例,提供了一种电子设备,包括: 一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个 或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如 上述任一实施例描述的方法。
根据本公开的一个或多个实施例,提供了一种计算机可读介质, 其上存储有计算机程序,其中,程序被处理器执行时实现如上述任一 实施例描述的方法。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的 说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范 围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵 盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进 行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例 中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成 的技术方案。

Claims (10)

1.一种面部图像变形方法,包括:
响应于检测到针对目标面部图像的拖动操作,确定所述拖动操作对应的定位点,其中,所述定位点与所述目标面部图像中显示的部位对应;
基于所述拖动操作对应的移动量确定所述定位点的偏移量;
基于所述定位点的偏移量对所述目标面部图像进行变形处理。
2.根据权利要求1所述方法,其中,所述目标面部图像中显示的部位对应的定位点通过以下步骤得到:
对所述目标面部图像进行关键点检测,得到关键点集合;
基于所述关键点集合确定所述目标面部图像中显示的部位对应的定位点。
3.根据权利要求1所述的方法,其中,所述基于所述拖动操作对应的移动量确定所述定位点的偏移量,包括:
基于所述拖动操作对应的移动量和所述目标面部图像中显示的面部的姿态信息确定所述定位点的偏移量,其中,所述姿态信息用于表征面部旋转角度。
4.根据权利要求1所述的方法,其中,所述基于所述定位点的偏移量对所述目标面部图像进行变形处理,包括:
响应于确定所述定位点的偏移量满足预设条件,基于所述定位点的偏移量对所述目标面部图像进行变形处理。
5.根据权利要求4所述方法,其中,在所述响应于确定所述定位点的偏移量满足预设条件,基于所述定位点的偏移量对所述目标面部图像进行变形处理之前,所述方法还包括:
响应于确定所述定位点的纵向偏移量大于或等于所述定位点与纵向相邻的定位点之间的纵向距离,确定纵向相邻的定位点的偏移量;以及
所述基于所述定位点的偏移量对所述目标面部图像进行变形处理,包括:
基于所述定位点的偏移量和纵向相邻的定位点的偏移量,对所述目标面部图像进行变形处理,其中,所述定位点的纵向偏移量为所述定位点的偏移量的纵向分量,所述定位点与纵向相邻的定位点之间的纵向距离为所述定位点与纵向相邻的定位点之间的距离的纵向分量。
6.根据权利要求4所述的方法,其中,所述响应于确定所述定位点的偏移量满足预设条件,基于所述目标定位点的偏移量对所述目标面部图像进行变形处理之前,所述方法还包括:
确定与所述定位点对称显示的定位点的偏移量;以及
所述基于所述定位点的偏移量对所述目标面部图像进行变形处理,包括:
基于所述定位点的偏移量和对称显示的定位点的偏移量,对所述目标面部图像进行变形处理。
7.根据权利要求4所述的方法,其中,所述响应于确定所述定位点的偏移量满足预设条件,基于所述定位点的偏移量对所述目标面部图像进行变形处理,包括:
响应于确定所述定位点的偏移量小于或等于所述定位点对应的最大偏移量,基于所述目标定位点的偏移量对所述目标面部图像进行变形处理;
响应于确定所述定位点的偏移量大于所述定位点对应的最大偏移量,基于所述最大偏移量对所述目标面部图像进行变形处理。
8.一种面部图像变形装置,包括:
第一确定单元,被配置成响应于检测到针对目标面部图像的拖动操作,确定所述拖动操作对应的定位点,其中,所述定位点与所述目标面部图像中显示的部位对应;
第二确定单元,被配置成基于所述拖动操作对应的移动量确定所述定位点的偏移量;
变形处理单元,被配置成基于所述定位点的偏移量对所述目标面部图像进行变形处理。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN201911105629.1A 2019-11-13 2019-11-13 面部图像变形方法、装置、电子设备和计算机可读介质 Pending CN110837332A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201911105629.1A CN110837332A (zh) 2019-11-13 2019-11-13 面部图像变形方法、装置、电子设备和计算机可读介质
US17/776,300 US20220398689A1 (en) 2019-11-13 2020-11-06 Facial image deformation method, apparatus, electronic device and computer readable medium
PCT/CN2020/127274 WO2021093689A1 (zh) 2019-11-13 2020-11-06 面部图像变形方法、装置、电子设备和计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911105629.1A CN110837332A (zh) 2019-11-13 2019-11-13 面部图像变形方法、装置、电子设备和计算机可读介质

Publications (1)

Publication Number Publication Date
CN110837332A true CN110837332A (zh) 2020-02-25

Family

ID=69574787

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911105629.1A Pending CN110837332A (zh) 2019-11-13 2019-11-13 面部图像变形方法、装置、电子设备和计算机可读介质

Country Status (3)

Country Link
US (1) US20220398689A1 (zh)
CN (1) CN110837332A (zh)
WO (1) WO2021093689A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021093689A1 (zh) * 2019-11-13 2021-05-20 北京字节跳动网络技术有限公司 面部图像变形方法、装置、电子设备和计算机可读介质
CN115220629A (zh) * 2022-06-23 2022-10-21 惠州华阳通用电子有限公司 一种界面元素位置调整方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113808007B (zh) * 2021-09-16 2022-07-19 北京百度网讯科技有限公司 调整虚拟脸部模型的方法、装置、电子设备及存储介质
CN116757919B (zh) * 2023-06-13 2024-06-04 上海任意门科技有限公司 变形迁移的纠偏方法、装置及计算机可读存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077798A (zh) * 2014-07-01 2014-10-01 中国科学技术大学 一种可形变物体的高真实感动画合成方法
CN105184735A (zh) * 2014-06-19 2015-12-23 腾讯科技(深圳)有限公司 一种人像变形方法及装置
CN105956997A (zh) * 2016-04-27 2016-09-21 腾讯科技(深圳)有限公司 图像形变处理的方法和装置
US20170316598A1 (en) * 2015-05-22 2017-11-02 Tencent Technology (Shenzhen) Company Limited 3d human face reconstruction method, apparatus and server
CN108198141A (zh) * 2017-12-28 2018-06-22 北京奇虎科技有限公司 实现瘦脸特效的图像处理方法、装置及计算设备
CN108629824A (zh) * 2018-04-28 2018-10-09 北京京东金融科技控股有限公司 图像生成方法、装置、电子设备及计算机可读介质
CN108830787A (zh) * 2018-06-20 2018-11-16 北京微播视界科技有限公司 图像变形的方法、装置及电子设备
CN109003224A (zh) * 2018-07-27 2018-12-14 北京微播视界科技有限公司 基于人脸的形变图像生成方法和装置
CN110069191A (zh) * 2019-01-31 2019-07-30 北京字节跳动网络技术有限公司 基于终端的图像拖拽变形实现方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110837332A (zh) * 2019-11-13 2020-02-25 北京字节跳动网络技术有限公司 面部图像变形方法、装置、电子设备和计算机可读介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184735A (zh) * 2014-06-19 2015-12-23 腾讯科技(深圳)有限公司 一种人像变形方法及装置
CN104077798A (zh) * 2014-07-01 2014-10-01 中国科学技术大学 一种可形变物体的高真实感动画合成方法
US20170316598A1 (en) * 2015-05-22 2017-11-02 Tencent Technology (Shenzhen) Company Limited 3d human face reconstruction method, apparatus and server
CN105956997A (zh) * 2016-04-27 2016-09-21 腾讯科技(深圳)有限公司 图像形变处理的方法和装置
CN108198141A (zh) * 2017-12-28 2018-06-22 北京奇虎科技有限公司 实现瘦脸特效的图像处理方法、装置及计算设备
CN108629824A (zh) * 2018-04-28 2018-10-09 北京京东金融科技控股有限公司 图像生成方法、装置、电子设备及计算机可读介质
CN108830787A (zh) * 2018-06-20 2018-11-16 北京微播视界科技有限公司 图像变形的方法、装置及电子设备
CN109003224A (zh) * 2018-07-27 2018-12-14 北京微播视界科技有限公司 基于人脸的形变图像生成方法和装置
CN110069191A (zh) * 2019-01-31 2019-07-30 北京字节跳动网络技术有限公司 基于终端的图像拖拽变形实现方法和装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021093689A1 (zh) * 2019-11-13 2021-05-20 北京字节跳动网络技术有限公司 面部图像变形方法、装置、电子设备和计算机可读介质
CN115220629A (zh) * 2022-06-23 2022-10-21 惠州华阳通用电子有限公司 一种界面元素位置调整方法
CN115220629B (zh) * 2022-06-23 2024-04-05 惠州华阳通用电子有限公司 一种界面元素位置调整方法

Also Published As

Publication number Publication date
US20220398689A1 (en) 2022-12-15
WO2021093689A1 (zh) 2021-05-20

Similar Documents

Publication Publication Date Title
CN109800732B (zh) 用于生成漫画头像生成模型的方法和装置
CN109816589B (zh) 用于生成漫画风格转换模型的方法和装置
US20200250462A1 (en) Key point detection method and apparatus, and storage medium
CN110837332A (zh) 面部图像变形方法、装置、电子设备和计算机可读介质
CN109993150B (zh) 用于识别年龄的方法和装置
CN110021052B (zh) 用于生成眼底图像生成模型的方法和装置
CN110288705B (zh) 生成三维模型的方法和装置
CN109829432B (zh) 用于生成信息的方法和装置
CN110059623B (zh) 用于生成信息的方法和装置
CN110298319B (zh) 图像合成方法和装置
CN111915480B (zh) 生成特征提取网络的方法、装置、设备和计算机可读介质
CN109800730B (zh) 用于生成头像生成模型的方法和装置
WO2023035531A1 (zh) 文本图像超分辨率重建方法及其相关设备
CN113255619B (zh) 车道线识别及定位方法、电子设备和计算机可读介质
CN108470131B (zh) 用于生成提示信息的方法和装置
CN112800276A (zh) 视频封面确定方法、装置、介质及设备
CN113034647A (zh) 图像处理方法、装置和电子设备
CN110189252B (zh) 生成平均脸图像的方法和装置
CN110211017B (zh) 图像处理方法、装置及电子设备
CN110008926B (zh) 用于识别年龄的方法和装置
CN109949213B (zh) 用于生成图像的方法和装置
CN110223220B (zh) 一种处理图像的方法和装置
CN108256477B (zh) 一种用于检测人脸的方法和装置
CN110263743B (zh) 用于识别图像的方法和装置
CN110070479B (zh) 图像变形拖拽点定位方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination