CN111638784B - 人脸表情互动方法、互动装置以及计算机存储介质 - Google Patents

人脸表情互动方法、互动装置以及计算机存储介质 Download PDF

Info

Publication number
CN111638784B
CN111638784B CN202010454095.XA CN202010454095A CN111638784B CN 111638784 B CN111638784 B CN 111638784B CN 202010454095 A CN202010454095 A CN 202010454095A CN 111638784 B CN111638784 B CN 111638784B
Authority
CN
China
Prior art keywords
facial expression
expression
preset
information
image model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010454095.XA
Other languages
English (en)
Other versions
CN111638784A (zh
Inventor
张一�
揭志伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Shangtang Technology Development Co Ltd
Original Assignee
Zhejiang Shangtang Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Shangtang Technology Development Co Ltd filed Critical Zhejiang Shangtang Technology Development Co Ltd
Priority to CN202010454095.XA priority Critical patent/CN111638784B/zh
Publication of CN111638784A publication Critical patent/CN111638784A/zh
Application granted granted Critical
Publication of CN111638784B publication Critical patent/CN111638784B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请公开了一种人脸表情互动方法、互动装置以及计算机存储介质,该人脸表情互动方法包括:载入预设形象模型;获取用户的人脸表情图像;提取人脸表情图像的关键点信息;将关键点信息映射到预设形象模型,以使预设形象模型做出关键点信息对应的表情。通过上述方法,本申请通过基于人脸关键点表现出来的表情变化驱动形象模型,获得实时、动态、趣味化的互动体验。

Description

人脸表情互动方法、互动装置以及计算机存储介质
技术领域
本申请涉及图形图像处理与计算机视觉技术领域,特别是涉及一种人脸表情互动方法、互动装置以及计算机存储介质。
背景技术
表情互动指通过实时捕捉人脸的表情动作来驱动虚拟人物作出相应表情的技术,尤其在人机互动虚拟游戏、虚拟人播报、3D影视制作等场合有着广泛的应用。
目前,一部分商家会采用人工智能实现增强现实效果,从而做到逼真的表情互动场景。其中,增强现实,是指透过摄影机影像的位置及角度精算并加上虚拟图像的技术,让屏幕上的虚拟世界能够与现实世界场景进行结合与交互。随着增强现实的技术越来越普及,其应用也随之多样化。在各类展示展览场景中,人工智能、增强现实等技术的应用也进一步提升了展览展示的互动体验效果,但当前大部分人工智能技术与场景、展览展示内容的结合还处于基础的效果叠加层面,无法提供实时、动态、趣味化的互动体验。
发明内容
本申请至少提供一种人脸表情互动方法、互动装置以及计算机存储介质。
本申请第一方面提供了一种人脸表情互动方法,所述人脸表情互动方法包括:
载入预设形象模型;
获取用户的人脸表情图像;
提取所述人脸表情图像的关键点信息;
将所述关键点信息映射到所述预设形象模型,以使所述预设形象模型做出所述关键点信息对应的表情。
通过上述方式,基于人脸关键点表现出来的表情变化驱动形象模型,获得实时、动态、趣味化的互动体验。
其中,所述将所述关键点信息映射到所述预设形象模型,以使所述预设形象模型做出所述关键点信息对应的表情的步骤,包括:
按照连续多帧的所述人脸表情图像的时间顺序比较所述关键点信息差异,从而将所述关键点信息组合为人脸表情信息;
在所述人脸表情信息与预设的基础表情信息相匹配的情况下,将所述人脸表情信息映射到所述预设形象模型中,以使所述预设形象模型做出所述基础表情信息对应的表情;其中,预设的基础表情包括至少一种,每一种所述基础表情具有对应的基础表情信息。
通过上述方式,比较人脸表情图像中的关键点变化,由关键点的位置变化体现出预设形象模型的表情。
其中,所述按照连续多帧的所述人脸表情图像的时间顺序比较所述关键点信息差异,从而将所述关键点信息组合为人脸表情信息的步骤,包括:
将所述关键点按照人脸区域划分为眉毛区域关键点、眼睛区域关键点、鼻子区域关键点、嘴巴区域关键点以及脸部轮廓关键点;
按照连续多帧的所述人脸表情图像的时间顺序比较每一人脸区域中关键点的位置变化;
结合所述预设形象模型和所述每一人脸区域中关键点的位置变化得到所述每一人脸区域的人脸表情信息。
通过上述方式,将人脸区域具体划分不同的区域,不同区域的关键点体现出不同区域的表情变化。
其中,所述人脸表情信息与预设的基础表情信息相匹配的步骤,包括:
将所述人脸表情信息对应的关键点信息与每种预设的基础表情信息的关键点信息的对应关系进行比对,其中,所述预设的基础表情包括至少一种关键点信息;
根据比对结果确认所述预设的基础表情。
其中,所述提取所述人脸表情图像的关键点信息的步骤,包括:
利用预设神经网络对所述人脸表情图像进行识别,得到所述人脸表情图像中预设数量关键点对应的关键点信息。
通过上述方式,通过预设神经网络对人脸表情图像识别出关键点,关键点的数量越多,检测精度越高。
其中,所述将所述人脸表情信息映射到所述预设形象模型中,以使所述预设形象模型做出所述基础表情信息对应的表情的步骤之后,所述人脸表情互动方法还包括:
判断所述人脸表情信息对应的基础表情与是否为特定表情,其中,所述特定表情为所述基础表情中的至少一种;
在所述人脸表情信息对应的基础表情是所述特定表情时,显示所述预设形象模型与所述特定表情对应的预设动画。
通过上述方式,数据库中预存有多种基础表情,当预设形象模型成功与基础表情匹配,即用户做出与基础表情相同的表情时,可以触发形象模型的动画,提高趣味性。
其中,所述载入预设形象模型的步骤,包括:
展示数据库中的所有形象模型;
基于用户输入信息选择所述预设形象模型,或基于所述用户输入信息将当前显示的形象模型切换为所述预设形象模型。
通过上述方式,可以根据用户需求快速更换三维虚拟内容,即形象模型,系统支持多种艺术风格的形象模型。
其中,所述预设形象模型为三维形象模型;所述人脸表情互动方法进一步包括:
提取连续多帧的所述人脸表情图像的关键点信息以及三维信息;
将所述关键点信息映射到所述预设形象模型,并基于所述三维信息触发所述预设形象模型的三维动画。
通过上述方式,在平面表情互动的场景基础上,增加三维表情互动的场景。
其中,所述载入预设形象模型的步骤之后,所述人脸表情互动方法还包括:
获取摄像头采集的互动图像;
在从所述互动图像中未检测到所述用户的人脸或人体的情况下,显示所述预设形象模型的等待动画。
其中,所述载入预设形象模型的步骤之后,所述人脸表情互动方法还包括:
获取摄像头采集的互动图像;
在从所述互动图像中检测到所述用户的人脸或人体的情况下,获取所述用户的人脸表情图像。
通过上述方式,在没有用户使用人脸表情互动功能时,通过播放等待动画吸收用户的注意。
其中,所述在从所述互动图像中检测到所述用户的人脸或人体的情况下,获取所述用户的人脸表情图像的步骤,包括:
在从所述互动图像中检测到所述用户的人脸或人体的情况下,判断所述用户的人脸或人体是否处于所述互动图像的预设区域范围内,和/或所述用户的人脸和人体的大小是否大于预设尺寸大小;
若是,获取所述用户的人脸表情图像。
其中,所述在从所述互动图像中检测到所述用户的人脸或人体的情况下,获取所述用户的人脸表情图像的步骤,包括:
在从所述互动图像中检测到所述用户的人脸或人体的情况下,判断所述用户的人脸或人体是否处于所述互动图像的预设区域范围内,和/或所述用户的人脸和人体的大小是否大于预设尺寸大小;
若否,显示引导信息的提示界面。
通过上述方式,通过引导用户调整位置,可以获取较佳的人脸表情图像。
本申请第二方面提供了一种互动装置,所述互动装置包括:
载入模块,用于载入预设形象模型;
提取模块,用于获取用户的人脸表情图像,还用于提取所述人脸表情图像的关键点信息;
表情模块,用于将所述关键点信息映射到所述预设形象模型,以使所述预设形象模型做出所述关键点信息对应的表情。
本申请第三方面提供了一种互动装置,所述互动装置包括处理器和存储器;所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序以实现如上述人脸表情互动方法的步骤。
本申请第四方面提供了一种计算机存储介质,其中,计算机存储介质存储有计算机程序,计算机程序被执行时实现上述人脸表情互动方法的步骤。
上述方案,互动装置载入预设形象模型;获取用户的人脸表情图像;提取的人脸表情图像的关键点信息;将关键点信息映射到预设形象模型,以使预设形象模型做出关键点信息对应的表情。通过上述方法,本申请通过基于人脸关键点表现出来的表情变化驱动形象模型,获得实时、动态、趣味化的互动体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的人脸表情互动方法第一实施例的流程示意图;
图2是本申请提供的人脸表情互动方法第二实施例的流程示意图;
图3是本申请提供的人脸表情互动方法第三实施例的流程示意图;
图4是本申请提供的人脸表情互动方法的框架示意图;
图5是本申请提供的互动装置一实施例的结构示意图;
图6是本申请提供的互动装置另一实施例的结构示意图;
图7是本申请提供的计算机存储介质一实施例的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为解决现有技术无法提供实时、动态、趣味化的互动体验的问题,本申请提出一种人脸表情互动方法,通过结合人脸关键点检测,可以实时将用户面部动作精准地在虚拟人物还原,用户更可以做出特定表情触发内容互动。
其中,本申请的互动装置通过将相关人物、动物等形象通过三维建模后,用户通过面部表情的变化驱动原本静态的形象模型,获得实时、动态、趣味化的互动体验,以人脸表情驱动这一简单的形式实现表情的孪生。
具体请参阅图1,图1是本申请提供的人脸表情互动方法第一实施例的流程示意图。本申请的人脸表情互动方法应用于一种互动装置,互动装置具体可以为一种展览展示产品、互动合影一体机、互动合影移动终端、多媒体装饰展示装置等。在本申请中,互动装置可以为一种1080P LED显示屏一体机或者画框显示屏等,互动装置搭载有1080P摄像头。其中,摄像头被配置为捕捉用户的人脸、人体动作、手势等,互动装置被配置为合影内容实时展示和指令提示等。
如图1所示,本实施例的人脸表情互动方法具体包括以下步骤:
S101:载入预设形象模型。
其中,互动装置在显示屏上载人并显示预设形象模型。按维度分类,预设形象模型可以为二维平面形象模型,也可以为三维形象模式;按形象类型分类,预设形象模型可以为动物形象模型,如熊猫形象,也可以为人物形象模型,如梵高形象等。
具体地,预设形象模型可以表现为诸如博物馆、美术馆、科技馆、规划馆以及城市展厅等展示的产品,也可以表现为主题乐园、各类主题馆、商场以及室内墙面的装饰画。
S102:获取用户人脸表情图像。
其中,互动装置通过搭载的摄像头对预设区域进行拍摄,采集针对预设区域的互动图像。互动装置通过图像检测技术,检测互动图像中是否出现用户的人脸或人体。若从互动图像中检测到用户的人脸或人体,则控制摄像头对用户的人脸或人体进行聚焦,并拍摄连续多帧的人脸表情图像。若从互动图像中无法检测到用户的人脸或人体,则播放预设形象模型的等待动画,通过有趣的等待互动动画吸引用户。
进一步地,针对多人场景,互动装置可以在检测到在互动图像中出现人脸或人体,以离互动图像中心最近的人脸或人体作为跟踪目标,控制摄像头采集跟踪目标连续多帧的人脸表情图像。
S103:提取人脸表情图像的关键点信息。
其中,互动装置基于相同的标注规则对连续多帧的人脸表情图像中的关键点进行标注,获得人脸表情图像的关键点信息。关键点信息具体可以包括关键点数量以及关键点位置。
在本实施例中通过增加互动装置标注的关键点的数量,可以提高人脸表情的识别精度,例如,在本申请中,互动装置通过人脸检测核心技术可以对多达240个人脸关键点进行检测,且运行高效。另外,通过多个关键点标注的位置可以组合成为人脸表情的表情轮廓。
S104:将关键点信息映射到预设形象模型,以使预设形象模型做出关键点信息对应的表情。
其中,互动装置将步骤103获取的关键点信息映射到预设形象模型。具体地,互动装置将关键点信息形成的表情轮廓映射到预设形象模型中,以使预设形象模型作出与用户人脸表情相同的表情,达到人脸表情互动的效果。
具体地,预设形象模型包括至少52种基础表情,也即预设的基础表情包括至少一种,每一种基础表情具有对应的基础表情信息。互动装置在关键点形成的表情轮廓与存储的基础表情相匹配的情况下,控制预设形象模型做出相匹配的基础表情。在一些可能的实施方式中,互动装置还可以将人脸表情中的关键点与每个基础表情的关键点的对应关系进行比对,在人脸表情的关键点与某一个基础表情的关键点相匹配的情况下,控制预设形象模型做出该基础表情。
在本实施例中,互动装置载入预设形象模型;获取用户连续多帧的人脸表情图像;提取连续多帧的人脸表情图像的关键点信息;将关键点信息映射到预设形象模型。通过上述方法,本申请通过基于人脸关键点表现出来的表情变化驱动形象模型,获得实时、动态、趣味化的互动体验。
在上述实施例的人脸表情互动方法的基础上,本申请还提出了另一种具体的人脸表情互动方法,具体请参阅图2,图2是本申请提供的人脸表情互动方法第二实施例的流程示意图。
如图2所示,本实施例的人脸表情互动方法具体包括以下步骤:
S201:展示数据库中的形象模型。
其中,互动装置在显示屏上显示数据库中存储的所有形象模型。为适应显示屏的屏幕大小,形象模型可以以缩略图的方式显示。
进一步地,形象模型还可以以维度分类和/或形象类型分类将所有形象模型分类到多个区域或多个文件夹中,进而根据用户选择某个区域或某个文件夹具体显示其中的形象模型。
S202:基于用户输入信息选择预设形象模型,或基于用户输入信息将当前显示的形象模型切换为预设形象模型。
其中,互动装置的人脸表情互动系统支持内容库中不同内容,即不同形象模型的切换。
具体地,互动装置接收用户点击显示屏上某个形象模型的输入信息,并基于输入信息在显示屏上载入对应的形象模型。通过向用户提供多种类型和多种内容的形象模型,可以满足不同年龄层、不同兴趣群体等用户需求,提高用户体验。
进一步地,互动装置的人脸表情互动系统还支持多种艺术风格。当用户选择某一形象模型时,互动装置还可以提供该形象模型不同艺术风格的选择接口。例如,当用户选择了“梵高”的形象模型时,互动装置进一步提供油画艺术风格、现代艺术风格、漫画艺术风格等不同的艺术风格供用户选择。当用户选择结束后,互动装置载入形象模型。
S203:获取用户人脸表情图像。
其中,互动装置通过搭载的摄像头对预设区域进行拍摄,采集针对预设区域的人脸表情图像。
S204:提取人脸表情图像的关键点信息。
其中,互动装置将连续多帧的人脸表情图像按照采集顺序依次输入预设神经网络。预设神经网络经过模型训练,能够输出正常人脸图像中能够体现人脸表情的关键点。其中,本申请的预设神经网络可以配置为输出每张人脸表情图像的至少240个人脸关键点。
互动装置通过关键点检测技术结合毫秒级人脸检测技术可以对人脸五官与轮廓定位进行标注,主要用来定位人脸面部的关键区域位置,包括眉毛、眼睛、鼻子、嘴巴、脸部轮廓等。在摄像头预览模型下,人脸检测技术还可以支持40*40最小分辨率的人脸实时跟踪,输出关键点信息和人脸框信息。同时,对多表情(如闭眼)、大角度(如侧脸)、暗/逆/强光、多人场景、远距离、小部份脸部遮挡等情况提供了技术支持。
S205:将关键点按照人脸区域划分为眉毛区域关键点、眼睛区域关键点、鼻子区域关键点、嘴巴区域关键点以及脸部轮廓关键点。
其中,互动装置按照相同的划分规则将每张人脸表情图像的多个人脸关键点划分为眉毛区域关键点眼睛区域关键点、鼻子区域关键点、嘴巴区域关键点以及脸部轮廓关键点。在一些可能的实施方式中,人脸关键点还可以划分为人脸上其他区域关键点,在此不再赘述。一般而言,若标注的关键点数量足够多,密集的关键点还可以体现出人脸组成部分的轮廓形状。
S206:按照人脸表情图像的时间顺序比较每一人脸区域中关键点的位置变化。
其中,互动装置按照连续多帧的人脸表情图像的时间顺序比较每一人脸区域中关键点的位置变化,从而得到每一个人脸区域中的表情变化。
具体地,以眼睛区域为例,互动装置按照采集顺序比较每一帧人脸表情图像中眼睛区域关键点的位置变化,可以得到用户眼睛的变化情况,如用户眨眼、翻白眼等表情;以嘴巴区域为例,互动装置按照采集顺序比较每一帧人脸表情图像中嘴巴区域关键点的位置变化,可以得到用户嘴巴的变化情况,如用户扁嘴、微笑(嘴巴上扬)、大笑等表情。
S207:结合预设形象模型和所述每一人脸区域中关键点的位置变化得到所述每一人脸区域的人脸表情信息。
其中,互动装置根据每一个人脸区域中关键点的位置变化得到每一个人脸区域的表情情况,然后将所有人脸区域的表情情况组合得到用户的人脸表情信息。
S208:将人脸表情信息映射到预设形象模型中,以使预设形象模型做出对应的表情。
其中,互动装置将步骤207获取的人脸表情信息映射到预设形象模型。具体地,互动装置将连续多帧人脸表情图像的人脸表情信息映射到预设形象模型中,以使预设形象模型作出与用户人脸表情相同的表情,达到人脸表情互动的效果。
在上述实施例的人脸表情互动方法的基础上,本申请还提出了另一种具体的人脸表情互动方法,具体请参阅图3和图4,图3是本申请提供的人脸表情互动方法第三实施例的流程示意图,图4是本申请提供的人脸表情互动方法的框架示意图。
如图3所示,本实施例的人脸表情互动方法具体包括以下步骤:
S301:载入预设形象模型。
其中,如图4中的第一示图,互动装置在显示屏上载入并显示预设形象模型,进一步地,还可以播放预设形象模型的等待动画。
S302:获取用户人脸表情图像。
其中,如图4中的第二示图,互动装置通过搭载的摄像头对预设区域进行拍摄,采集针对预设区域的人脸表情图像。
具体地,互动装置检测到用户的人脸或人体之后,判断用户的人脸或人体是否处于摄像头采集区域的预设区域范围内,例如摄像头采集区域的中央区域;或者判断用户的人脸和人体在采集的互动图像中的大小是否大于预设尺寸大小。当用户的人脸处于预设区域内,且用户的人脸在互动图像中的占比大于最低占比时,说明互动装置可以采集到较佳的人脸表情图像,可以满足互动需求。由于用户站位离摄像头过远,互动装置采集到的人脸表情图像无法满足互动需求,此时,互动装置在显示屏上显示引导信息的提示界面,引导信息可以为提示用户靠近的文字信息或图像信息。
S303:提取人脸表情图像的关键点信息以及三维信息。
其中,互动装置搭载的摄像头可以为深度摄像头,能够采集用户的RGBD信息。互动装置从RGBD信息中获取关键点信息和三维信息。本实施例通过采集人脸表情图像的三维信息,还原用户转头等动作表情,使得形象模型能够模拟用户展示三维动画。
S304:将关键点信息映射到预设形象模型,并基于三维信息触发预设形象模型的三维动画。
其中,如图4中的第三示图和第四示图,互动装置基于三维信息触发预设形象模型的三维动画,即控制预设形象模型还原用户当前的面部动作表情。
可选地,互动装置还可以基于用户输入指令切换互动场景素材,例如,当前的互动场景素材为熊猫形象模型,互动装置可以基于用户输入指令将熊猫形象模型切换为老虎形象模型等。
S305:判断人脸表情信息对应的基础表情是否为特定表情,其中,特定表情为基础表情中的至少一种。
为了丰富人脸表情互动的用户体验,互动装置还可以在控制预设形象模型展示用户的基础表情后,将预设形象模型的基础表情,即用户的基础表情与数据库的特定表情进行匹配,以判断用户人脸表情信息对应的基础表情是否为特定表情。其中,数据库中可以预存有多种特定表情,特定表情为基础表情中的至少一种,每种预设表情配置有对应的预设动画。若用户人脸表情信息对应的基础表情为特定表情,则进入步骤S306。
S306:显示预设形象模型与特定表情对应的预设动画。
其中,当用户做出的基础表情与数据库的特定表情一致时,互动装置除了驱动预设形象模型展示人脸表情外,还可以触发预设形象模型的预设动画,丰富预设形象模型的展示效果和用户的互动体验。例如,在用户做出微笑的基础表情时,互动装置可以控制预设形象模型做出手舞足蹈的动作,还可以在显示界面上显示太阳、彩虹等积极的图像元素。
进一步地,如图4所示,在完成人脸表情互动后,即用户离开摄像头的采集区域,互动装置无法获取人脸表情图像时,互动装置恢复默认展示,播放预设形象模型的等待动画。
为了实现上述实施例的人脸表情互动方法,本申请还提供了一种互动装置,具体请参阅图5,图5是本申请提供的互动装置一实施例的结构示意图。
如图5所示,本实施例的互动装置400包括:
载入模块41:用于载入预设形象模型;
提取模块42,用于获取用户的人脸表情图像,还用于提取所述人脸表情图像的关键点信息;
表情模块43,用于将所述关键点信息映射到所述预设形象模型,以使所述预设形象模型做出所述关键点信息对应的表情。
为了实现上述实施例的人脸表情互动方法,本申请还提供了另一种互动装置,具体请参阅图6,图6是本申请提供的互动装置另一实施例的结构示意图。
如图6所示,本实施例的互动装置500包括处理器51、存储器52、输入输出设备53以及总线54。
该处理器51、存储器52、输入输出设备53分别与总线54相连,该存储器52中存储有计算机程序,处理器51用于执行计算机程序以实现上述实施例的人脸表情互动方法。
在本实施例中,处理器51还可以称为CPU(Central Processing Unit,中央处理单元)。处理器51可能是一种集成电路芯片,具有信号的处理能力。处理器51还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。处理器51还可以是GPU(Graphics Processing Unit,图形处理器),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上图像运算工作的微处理器。GPU的用途是将计算机系统所需要的显示信息进行转换驱动,并向显示器提供行扫描信号,控制显示器的正确显示,是连接显示器和个人电脑主板的重要元件,也是“人机对话”的重要设备之一。显卡作为电脑主机里的一个重要组成部分,承担输出显示图形的任务,对于从事专业图形设计的人来说显卡非常重要。通用处理器可以是微处理器或者该处理器51也可以是任何常规的处理器等。
本申请还提供一种计算机存储介质,如图7所示,计算机存储介质600用于存储计算机程序61,计算机程序61在被处理器执行时,用以实现如本申请人脸表情互动方法实施例中所述的方法。
本申请人脸表情互动方法实施例中所涉及到的方法,在实现时以软件功能单元的形式存在并作为独立的产品销售或使用时,可以存储在设备中,例如一个计算机可读取存储介质。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (12)

1.一种人脸表情互动方法,其特征在于,所述人脸表情互动方法包括:
载入预设形象模型;
获取用户的人脸表情图像;
提取所述人脸表情图像的关键点信息;
将所述关键点信息映射到所述预设形象模型,以使所述预设形象模型做出所述关键点信息对应的表情;
所述将所述关键点信息映射到所述预设形象模型,以使所述预设形象模型做出所述关键点信息对应的表情的步骤,包括:
按照连续多帧的所述人脸表情图像的时间顺序比较所述关键点信息差异,从而将所述关键点信息组合为人脸表情信息;
在所述人脸表情信息与预设的基础表情信息相匹配的情况下,将所述人脸表情信息映射到所述预设形象模型中,以使所述预设形象模型做出所述基础表情信息对应的表情;其中,预设的基础表情包括至少一种,每一种所述基础表情具有对应的基础表情信息;
所述将所述人脸表情信息映射到所述预设形象模型中,以使所述预设形象模型做出所述基础表情信息对应的表情的步骤之后,所述人脸表情互动方法还包括:
判断所述人脸表情信息对应的基础表情是否为特定表情,其中,所述特定表情为所述基础表情中的至少一种;
在所述人脸表情信息对应的基础表情是所述特定表情时,显示所述预设形象模型与所述特定表情对应的预设动画;
所述预设形象模型为三维形象模型;所述人脸表情互动方法进一步包括:
提取连续多帧的所述人脸表情图像的关键点信息以及三维信息;
将所述关键点信息映射到所述预设形象模型,并基于所述三维信息触发所述预设形象模型的三维动画。
2.根据权利要求1所述的人脸表情互动方法,其特征在于,
所述按照连续多帧的所述人脸表情图像的时间顺序比较所述关键点信息差异,从而将所述关键点信息组合为人脸表情信息的步骤,包括:
将所述关键点按照人脸区域划分为眉毛区域关键点、眼睛区域关键点、鼻子区域关键点、嘴巴区域关键点以及脸部轮廓关键点;
按照连续多帧的所述人脸表情图像的时间顺序比较每一人脸区域中关键点的位置变化;
结合所述预设形象模型和所述每一人脸区域中关键点的位置变化得到所述每一人脸区域的人脸表情信息。
3.根据权利要求2所述的人脸表情互动方法,其特征在于,
所述人脸表情信息与预设的基础表情信息相匹配的步骤,包括:
将所述人脸表情信息对应的关键点信息与每种预设的基础表情信息的关键点信息的对应关系进行比对,其中,所述预设的基础表情包括至少一种关键点信息;
根据比对结果确认所述预设的基础表情。
4.根据权利要求2所述的人脸表情互动方法,其特征在于,
所述提取所述人脸表情图像的关键点信息的步骤,包括:
利用预设神经网络对所述人脸表情图像进行识别,得到所述人脸表情图像中预设数量关键点对应的关键点信息。
5.根据权利要求1所述的人脸表情互动方法,其特征在于,
所述载入预设形象模型的步骤,包括:
展示数据库中的所有形象模型;
基于用户输入信息选择所述预设形象模型,或基于所述用户输入信息将当前显示的形象模型切换为所述预设形象模型。
6.根据权利要求1所述的人脸表情互动方法,其特征在于,
所述载入预设形象模型的步骤之后,所述人脸表情互动方法还包括:
获取摄像头采集的互动图像;
在从所述互动图像中未检测到所述用户的人脸或人体的情况下,显示所述预设形象模型的等待动画。
7.根据权利要求1所述的人脸表情互动方法,其特征在于,
所述载入预设形象模型的步骤之后,所述人脸表情互动方法还包括:
获取摄像头采集的互动图像;
在从所述互动图像中检测到所述用户的人脸或人体的情况下,获取所述用户的人脸表情图像。
8.根据权利要求7所述的人脸表情互动方法,其特征在于,
所述在从所述互动图像中检测到所述用户的人脸或人体的情况下,获取所述用户的人脸表情图像的步骤,包括:
在从所述互动图像中检测到所述用户的人脸或人体的情况下,判断所述用户的人脸或人体是否处于所述互动图像的预设区域范围内,和/或所述用户的人脸和人体的大小是否大于预设尺寸大小;
若是,获取所述用户的人脸表情图像。
9.根据权利要求7所述的人脸表情互动方法,其特征在于,
所述在从所述互动图像中检测到所述用户的人脸或人体的情况下,获取所述用户的人脸表情图像的步骤,包括:
在从所述互动图像中检测到所述用户的人脸或人体的情况下,判断所述用户的人脸或人体是否处于所述互动图像的预设区域范围内,和/或所述用户的人脸和人体的大小是否大于预设尺寸大小;
若否,显示引导信息的提示界面。
10.一种互动装置,其特征在于,所述互动装置包括:
载入模块,用于载入预设形象模型;
提取模块,用于获取用户的人脸表情图像,还用于提取所述人脸表情图像的关键点信息;
表情模块,用于将所述关键点信息映射到所述预设形象模型,以使所述预设形象模型做出所述关键点信息对应的表情;
所述表情模块,还用于按照连续多帧的所述人脸表情图像的时间顺序比较所述关键点信息差异,从而将所述关键点信息组合为人脸表情信息;在所述人脸表情信息与预设的基础表情信息相匹配的情况下,将所述人脸表情信息映射到所述预设形象模型中,以使所述预设形象模型做出所述基础表情信息对应的表情;其中,预设的基础表情包括至少一种,每一种所述基础表情具有对应的基础表情信息;
所述表情模块,还用于判断所述人脸表情信息对应的基础表情是否为特定表情,其中,所述特定表情为所述基础表情中的至少一种;
在所述人脸表情信息对应的基础表情是所述特定表情时,显示所述预设形象模型与所述特定表情对应的预设动画;
所述预设形象模型为三维形象模型,所述表情模块,还用于提取连续多帧的所述人脸表情图像的关键点信息以及三维信息;将所述关键点信息映射到所述预设形象模型,并基于所述三维信息触发所述预设形象模型的三维动画。
11.一种互动装置,其特征在于,所述互动装置包括处理器和存储器;所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序以实现如权利要求1~9中任一项所述人脸表情互动方法的步骤。
12.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机程序,所述计算机程序被执行时实现如权利要求1~9中任一项所述人脸表情互动方法的步骤。
CN202010454095.XA 2020-05-26 2020-05-26 人脸表情互动方法、互动装置以及计算机存储介质 Active CN111638784B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010454095.XA CN111638784B (zh) 2020-05-26 2020-05-26 人脸表情互动方法、互动装置以及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010454095.XA CN111638784B (zh) 2020-05-26 2020-05-26 人脸表情互动方法、互动装置以及计算机存储介质

Publications (2)

Publication Number Publication Date
CN111638784A CN111638784A (zh) 2020-09-08
CN111638784B true CN111638784B (zh) 2023-07-18

Family

ID=72332768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010454095.XA Active CN111638784B (zh) 2020-05-26 2020-05-26 人脸表情互动方法、互动装置以及计算机存储介质

Country Status (1)

Country Link
CN (1) CN111638784B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112749357B (zh) * 2020-09-15 2024-02-06 腾讯科技(深圳)有限公司 基于分享内容的交互方法、装置和计算机设备
CN112652041B (zh) * 2020-12-18 2024-04-02 北京大米科技有限公司 虚拟形象的生成方法、装置、存储介质及电子设备
CN112767520A (zh) * 2021-01-07 2021-05-07 深圳追一科技有限公司 数字人生成方法、装置、电子设备及存储介质
CN113989925A (zh) * 2021-10-22 2022-01-28 支付宝(杭州)信息技术有限公司 刷脸互动方法和装置
CN114779948B (zh) * 2022-06-20 2022-10-11 广东咏声动漫股份有限公司 基于面部识别的动画人物即时交互控制方法、装置及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018103220A1 (zh) * 2016-12-09 2018-06-14 武汉斗鱼网络科技有限公司 一种图像处理的方法及装置
CN109857311A (zh) * 2019-02-14 2019-06-07 北京达佳互联信息技术有限公司 生成人脸三维模型的方法、装置、终端及存储介质
US10529113B1 (en) * 2019-01-04 2020-01-07 Facebook Technologies, Llc Generating graphical representation of facial expressions of a user wearing a head mounted display accounting for previously captured images of the user's facial expressions

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190205627A1 (en) * 2017-12-28 2019-07-04 Facebook, Inc. Systems and methods for generating amplified facial expressions based on facial recognition
CN109147017A (zh) * 2018-08-28 2019-01-04 百度在线网络技术(北京)有限公司 动态图像生成方法、装置、设备及存储介质
US20200090392A1 (en) * 2018-09-19 2020-03-19 XRSpace CO., LTD. Method of Facial Expression Generation with Data Fusion
CN109829965B (zh) * 2019-02-27 2023-06-27 Oppo广东移动通信有限公司 人脸模型的动作处理方法、装置、存储介质及电子设备
CN110363079A (zh) * 2019-06-05 2019-10-22 平安科技(深圳)有限公司 表情交互方法、装置、计算机装置及计算机可读存储介质
CN110568933A (zh) * 2019-09-16 2019-12-13 深圳市趣创科技有限公司 基于人脸识别的人机交互方法、装置和计算机设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018103220A1 (zh) * 2016-12-09 2018-06-14 武汉斗鱼网络科技有限公司 一种图像处理的方法及装置
US10529113B1 (en) * 2019-01-04 2020-01-07 Facebook Technologies, Llc Generating graphical representation of facial expressions of a user wearing a head mounted display accounting for previously captured images of the user's facial expressions
CN109857311A (zh) * 2019-02-14 2019-06-07 北京达佳互联信息技术有限公司 生成人脸三维模型的方法、装置、终端及存储介质

Also Published As

Publication number Publication date
CN111638784A (zh) 2020-09-08

Similar Documents

Publication Publication Date Title
CN111638784B (zh) 人脸表情互动方法、互动装置以及计算机存储介质
US11094131B2 (en) Augmented reality apparatus and method
CN112348969B (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
WO2022001593A1 (zh) 视频生成方法、装置、存储介质及计算机设备
CN106803057B (zh) 图像信息处理方法及装置
US8908904B2 (en) Method and system for make-up simulation on portable devices having digital cameras
EP2993893B1 (en) Method for image segmentation
US20100079491A1 (en) Image compositing apparatus and method of controlling same
CN106203286B (zh) 一种增强现实的内容获取方法、装置及移动终端
US20210345016A1 (en) Computer vision based extraction and overlay for instructional augmented reality
CN105404392A (zh) 基于单目摄像头的虚拟穿戴方法及系统
CN104508680B (zh) 改善之视讯追踪
JP2022166078A (ja) デジタル媒体と観察者の相互作用の構成及び実現
KR20140082610A (ko) 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
CN114363689B (zh) 直播控制方法、装置、存储介质及电子设备
CN111667588A (zh) 人物图像处理方法、装置、ar设备以及存储介质
CN111640192A (zh) 场景图像处理方法、装置、ar设备以及存储介质
WO2024001095A1 (zh) 面部表情识别方法、终端设备及存储介质
CN111625100A (zh) 图画内容的呈现方法、装置、计算机设备及存储介质
CN113709545A (zh) 视频的处理方法、装置、计算机设备和存储介质
CN111639613A (zh) 一种增强现实ar特效生成方法、装置及电子设备
CN113709544B (zh) 视频的播放方法、装置、设备及计算机可读存储介质
US20080122867A1 (en) Method for displaying expressional image
CN114026524B (zh) 用于动画化人脸的方法、系统、以及计算机可读介质
CN109561338B (zh) 一种点歌系统的界面无缝切换显示方法及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant