CN107451560A - 用户表情识别方法、装置及终端 - Google Patents
用户表情识别方法、装置及终端 Download PDFInfo
- Publication number
- CN107451560A CN107451560A CN201710642673.0A CN201710642673A CN107451560A CN 107451560 A CN107451560 A CN 107451560A CN 201710642673 A CN201710642673 A CN 201710642673A CN 107451560 A CN107451560 A CN 107451560A
- Authority
- CN
- China
- Prior art keywords
- expression
- user
- face
- expressions
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种用户表情识别方法、装置及终端,其中,方法包括:基于结构光获取用户的人脸3D模型;从所述人脸3D模型中提取所述用户的3D表情数据;根据所述3D表情数据识别与所述用户当前表情对应的目标3D表情;将所述目标3D表情发送给接收设备进行显示。通过本方法,能够实现在社交过程中实时向对方发送用户当前表情,使发送的表情更加个性化,增加社交趣味性,解决现有技术中使用网络表情不够个性化的技术问题。
Description
技术领域
本发明涉及终端设备领域,尤其涉及一种用户表情识别方法、装置及终端。
背景技术
随着智能终端技术的发展,用户在使用社交软件交流的过程中,已不再局限于文字交流方式,往往还需要借助表情来表达用户当前的心情。
目前,用户在社交软件中使用的表情一般有两种,一是社交软件提供给用户的表情包,用户下载之后可以使用;二是用户保存的其他用户发送的表情,或者从网络中下载的热门表情。然而,这两种表情使用的都不是用户自己的真实形象,不够个性化。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
本发明提出一种用户表情识别方法,通过结构光获取用户的人脸3D模型,利用人脸3D模型匹配与用户当前表情对应的目标3D表情,并将目标3D表情发送给接收设备进行显示,实现在社交过程中实时向对方发送用户当前表情,使发送的表情更加个性化,增加社交趣味性,解决现有技术中使用网络表情不够个性化的技术问题。
本发明还提出一种用户表情识别装置。
本发明还提出一种终端。
本发明还提出一种非临时性计算机可读存储介质。
本发明第一方面实施例提出了一种用户表情识别方法,包括:
基于结构光获取用户的人脸3D模型;
从所述人脸3D模型中提取所述用户的3D表情数据;
根据所述3D表情数据识别与所述用户当前表情对应的目标3D表情;
将所述目标3D表情发送给接收设备进行显示。
本发明实施例的用户表情识别方法,通过基于结构光获取用户的人脸3D模型,从人脸3D模型中提取用户的3D表情数据,根据3D表情数据识别与用户当前表情对应的目标3D表情,将目标3D表情发送给接收设备进行显示。由此,能够实现在社交过程中实时向对方发送用户当前表情,使发送的表情更加个性化,增加社交趣味性和真实性,提升用户体验。通过获取用户的人脸3D模型,根据人脸3D模型识别出与用户当前表情对应的目标3D表情,将目标3D表情作为社交表情发送给接收设备,使用用户自己的面部表情作社交表情,比社交软件中提供的表情以及从网络中下载的表情更加真实,能够显示用户本人形象,解决了现有技术中使用网络表情不够个性化的技术问题。
本发明第二方面实施例提出了一种用户表情识别装置,包括:
模型获取模块,用于基于结构光获取用户的人脸3D模型;
提取模块,用于从所述人脸3D模型中提取所述用户的3D表情数据;
目标表情获取模块,用于根据所述3D表情数据确定所述用户的目标3D表情;
发送模块,用于将所述目标3D表情发送给接收方进行显示。
本发明实施例的用户表情识别装置,通过基于结构光获取用户的人脸3D模型,从人脸3D模型中提取用户的3D表情数据,根据3D表情数据识别与用户当前表情对应的目标3D表情,将目标3D表情发送给接收设备进行显示。由此,能够实现在社交过程中实时向对方发送用户当前表情,使发送的表情更加个性化,增加社交趣味性和真实性,提升用户体验。通过获取用户的人脸3D模型,根据人脸3D模型识别出与用户当前表情对应的目标3D表情,将目标3D表情作为社交表情发送给接收设备,使用用户自己的面部表情作社交表情,比社交软件中提供的表情以及从网络中下载的表情更加真实,能够显示用户本人形象,解决了现有技术中使用网络表情不够个性化的技术问题。
本发明第三方面实施例提出了一种终端,包括存储器及处理器,所述存储器中储存有计算机可读指令,所述指令被所述处理器执行时,使得所述处理器执行如第一方面实施例所述的用户表情识别方法。
本发明实施例的终端,通过基于结构光获取用户的人脸3D模型,从人脸3D模型中提取用户的3D表情数据,根据3D表情数据识别与用户当前表情对应的目标3D表情,将目标3D表情发送给接收设备进行显示。由此,能够实现在社交过程中实时向对方发送用户当前表情,使发送的表情更加个性化,增加社交趣味性和真实性,提升用户体验。通过获取用户的人脸3D模型,根据人脸3D模型识别出与用户当前表情对应的目标3D表情,将目标3D表情作为社交表情发送给接收设备,使用用户自己的面部表情作社交表情,比社交软件中提供的表情以及从网络中下载的表情更加真实,能够显示用户本人形象,解决了现有技术中使用网络表情不够个性化的技术问题。
本发明第四方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,当该计算机程序被处理器执行时实现如第一方面实施例所述的用户表情识别方法。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明一实施例提出的用户表情识别方法的流程示意图;
图2为一个投射结构光的装置组合示意图;
图3为均匀排布的结构光的示意图;
图4为本发明另一实施例提出的用户表情识别方法的流程示意图;
图5为本发明实施例中非均匀的结构光的投影集合示意图;
图6为本发明又一实施例提出的用户表情识别方法的流程示意图;
图7为本发明一实施例提出的用户表情识别装置的结构示意图;
图8为本发明一实施例提出的终端中的图像处理电路的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的用户表情识别方法、装置及终端。
图1为本发明一实施例提出的用户表情识别方法的流程示意图。需要说明的是,本发明实施例的用户表情识别方法可应用于本发明实施例的用户表情识别装置,该用户表情识别装置可被配置于终端中。其中,在本发明的实施例中,该终端可以是智能手机、平板电脑、笔记本电脑等具有摄像功能的智能设备。
如图1所示,该用户表情识别方法包括以下步骤:
步骤101,基于结构光获取用户的人脸3D模型。
其中,已知空间方向光束的投影集合称为结构光(structured light)。
作为一种示例,图2为一个投射结构光的装置组合示意图。图2中仅以结构光的投影集合为线的集合进行示例,对于投影集合为散斑图案的结构光的原理类似。如图2所示,该装置中可以包括光学投射器和摄像机,其中,光学投射器将一定模式的结构光投射于被测物体(用户的头部)所处的空间内,在用户的头部表面上形成由头部表面的形状所调制的光条的三维图像。该三维图像由处于另一位置的摄像机探测,从而获得畸变的光条二维图像。光条的畸变程度取决于光学投射器与摄像机之间的相对位置和用户头部表面的轮廓,直观上,沿光条显示出的位移(或偏移)与用户头部表面的高度成比例,扭曲表示了平面的变化,不连续显示了用户头部表面的物理间隙,当光学投射器与摄像机之间的相对位置一定时,由畸变的光条二维图像坐标即可重现用户的头部表面的三维轮廓,即获得人脸3D模型。
作为一种示例,可以采用公式(1)计算获得人脸3D模型,其中,公式(1)如下所示:
其中,(x,y,z)为获取的人脸3D模型的坐标,b为投射装置与摄像头之间的基线间距,F为摄像头的焦距,θ为投射装置向用户头部所处的空间投射预设的散斑图案时的投影角度,(x',y')为带有散斑图案的用户的二维畸变图像的坐标。
作为一种示例,结构光的类型包括光栅型、光点型、斑纹型(包括圆形斑纹和十字斑纹),如图3所示,上述结构光是均匀排布的。对应地,生成结构光的设备可以是将光点、线、光栅、格网或斑纹投影到被测物体上的某种投影设备或仪器,比如光学投射器,也可以是生成激光束的激光器。
优选地,本发明实施例中的摄像头可以为终端的前置摄像头。由此,在用户使用终端的过程中,可调用终端的投射装置和前置摄像头完成对该用户的人脸3D模型的获取,以便后续根据获得的人脸3D模型识别出用户当前表情发送给接收设备,显示在接收设备的社交软件中。
步骤102,从人脸3D模型中提取用户的3D表情数据。
人脸3D模型能够直观地展示用户当前的表情信息,针对用户的不同表情,获取的人脸3D模型也不同。能够理解的是,用户的面部表情主要由面部器官来体现,比如,当嘴角上扬、嘴巴微张时,用户的面部表情多为微笑;当嘴巴紧闭、眉毛皱在一起时,用户的面部表情多为愤怒。
从而,本实施例中,可以从获取的人脸3D模型中提取用户的各个面部器官的信息作为用户的3D表情数据,以用于表征获取人脸3D模型时用户的面部表情。其中,面部器官可以包括嘴巴、鼻子、眉毛和眼睛。
步骤103,根据3D表情数据识别与用户当前表情对应的目标3D表情。
其中,目标3D表情为当前用户的各种面部表情中的一种,可以为喜悦的表情、悲伤的表情、愤怒的表情等。各种面部表情可以是用户在以往使用终端的过程中表现出来的,并由对应的终端获取的各种3D表情。也就是说,目标3D表情能够表现用户的真实形象,目标3D表情中的人脸即为当前用户的脸。各种面部表情可以存储在终端的本地存储器中,也可以存储在云端服务器中,本发明不作限制。
本实施例中,提取出3D表情数据之后,可以进一步根据3D表情数据,从预先存储的若干个面部表情中识别出与3D表情数据所表征的用户当前表情对应的表情,作为目标3D表情。比如,根据3D表情数据可以识别出用户当前的表情是喜悦的表情,则从预存的面部表情中识别出与3D表情数据最相近的表情作为目标3D表情。
可选地,在本发明实施例一种可能的实现方式中,若根据3D表情数据在预存的面部表情中,未识别到与3D表情数据相匹配的面部表情,则根据该3D表情数据构建对应的面部表情,并将所得面部表情作为目标3D表情,同时将其存储于终端的本地存储器或云端服务器中,以便用于以后的表情识别中。
步骤104,将目标3D表情发送给接收设备进行显示。
本实施例中,识别出目标3D表情之后,可以直接将该目标3D表情发送给接收设备,以使接收设备对应的接收用户能够在与该用户进行交流时使用的社交软件中查看到该目标3D表情。此外,在向接收设备发送目标3D表情的同时,该目标3D表情显示在用户当前使用的社交软件的聊天框中。
举例而言,假设小明在通过微信与朋友小刚聊天,小刚为小明讲了一个很搞笑的笑话,小明看到笑话后当即开怀大笑。小明使用的终端获取小明此时的人脸3D模型,并从预存的面部表情中识别出哈哈大笑的表情,则终端将该表情发送给小刚使用的终端,小刚查看微信消息时可以看到小明开怀大笑的3D表情,同时,小明的微信消息中也显示自己开怀大笑的3D表情。
通过将用户的3D表情作为社交表情发送给对方,能够使对方接收的表情更加立体,具有更强的真实性,给交流的双方一种仿佛在面对面聊天的真实感。
本实施例的用户表情识别方法,通过基于结构光获取用户的人脸3D模型,从人脸3D模型中提取用户的3D表情数据,根据3D表情数据识别与用户当前表情对应的目标3D表情,将目标3D表情发送给接收设备进行显示。由此,能够实现在社交过程中实时向对方发送用户当前表情,使发送的表情更加个性化,增加社交趣味性和真实性,提升用户体验。通过获取用户的人脸3D模型,根据人脸3D模型识别出与用户当前表情对应的目标3D表情,将目标3D表情作为社交表情发送给接收设备,使用用户自己的面部表情作社交表情,比社交软件中提供的表情以及从网络中下载的表情更加真实,能够显示用户本人形象,解决了现有技术中使用网络表情不够个性化的技术问题。
为了更加清楚地说明本发明实施例中利用结构光获取用户的人脸3D模型的具体实现过程,本发明实施例提出了另一种用户表情识别方法,图4为本发明另一实施例提出的用户表情识别方法的流程示意图。
如图4所示,在如图1所示实施例的基础上,步骤101可以包括以下步骤:
步骤201,向用户的人脸发射结构光。
本实施例中,可以在终端中设置投射装置,用于向用户的人脸发射结构光。当用户将终端对着人脸时,终端中设置的投射装置可以向人脸发射结构光。
步骤202,采集结构光在人脸上的反射光并形成人脸的深度图像。
当向人脸发射的结构光到达人脸之后,由于人脸上各个面部器官会对结构光造成阻碍,结构光会在人脸处发生反射,此时,可以通过终端中设置的摄像头对结构光在人脸上的反射光进行采集,通过采集到的反射光可以形成人脸的深度图像。
步骤203,基于深度图像重构人脸3D模型。
具体的,人脸的深度图像中可能包括人脸和背景,首先对深度图像进行去噪处理及平滑处理,来获取人脸所在区域的图像,进而通过前后景分割等处理,将人脸与背景图分割。
在将人脸从深度图像中提取出来后,即可从人脸的深度图像中提取特征点数据,进而根据提取的特征点数据,将这些特征点连接成网络。比如根据各个点在空间上的距离关系,将相同平面的点,或者距离在阈值范围内的点连接成三角形网络,进而将这些网络进行拼接,就可以生成人脸3D模型。
本实施例的基于用户表情的终端显示方法,通过向用户的人脸发射结构光,采集结构光在人脸上的反射光,形成携带深度信息的人脸深度图像,基于深度图像重构人脸的3D模型,能够提高表情识别的准确度,进而可以提高获取与表情匹配的内容的准确度。
此处需要说明的是,作为一种示例,上述实施例中采用的结构光可以为非均匀的结构光,非均匀的结构光为多个光斑的集合构成的散斑图案或乱点图案。
图5为本发明实施例中非均匀的结构光的投影集合示意图。如图5所示,本发明实施例中采用的是非均匀的结构光,其中,非均匀的结构光为随机排列非均匀的散斑图案,也就是说,该非均匀的结构光为多个光斑的集合,且多个光斑之间采用不均匀的分散方式排布,进而构成一个散斑图案。由于散斑图案所占的存储空间较小,因而,投射装置运行时不会对终端的运行效率造成太大影响,能够节约终端的存储空间。
此外,本发明实施例中采用的散斑图案,相较于其他现有的结构光类型而言,散列排布能够降低能量消耗,节省电量,提高终端的续航能力。
在本发明实施例中,可以在电脑、手机、掌上电脑等终端中设置投射装置和摄像头。投射装置向用户发射非均匀的结构光即散斑图案。具体地,可以利用投射装置中的衍射光学元件形成散斑图案,其中,该衍射光学元件上设置有一定数量的浮雕,不规则的散斑图案就由衍射光学元件上不规则的浮雕产生。本发明实施例中,浮雕凹槽深度和数量可以通过算法设置。
其中,投射装置可以用于向被测对象所处的空间投射一个预设的散斑图案。摄像头可以用于对已投射散斑图案的被测对象进行采集,以得到带有散斑图案的被测对象的二维畸变图像。
本发明实施例中,当终端的摄像头对准用户的头部时,终端中的投射装置可以向用户头部所处的空间投射预设的散斑图案,该散斑图案中具有多个散斑点,当该散斑图案被投射到用户头部表面上时,该散斑图案中的好多散斑点会由于头部表面包含的各个器官的原因而发生偏移。通过终端的摄像头对用户的头部进行采集,得到带有散斑图案的用户头部的二维畸变图像。
进一步地,将采集到的头部的散斑图像与参考散斑图像按照预定算法进行图像数据计算,获取头部的散斑图像的各个散斑点(特征点)相对于参考散斑点(参考特征点)的移动距离。最后根据该移动距离、参考散斑图像与终端上摄像头的距离以及投射装置与摄像头之间的相对间隔值,利用三角法得到散斑红外图像的各个散斑点的深度值,并根据该深度值得到人脸的深度图像,进而根据深度图像可获得人脸3D模型。
图6为本发明又一实施例提出的用户表情识别方法的流程示意图。
如图6所示,在前述实施例的基础上,该用户表情识别方法可以包括以下步骤:
步骤301,基于结构光获取用户的人脸3D模型。
需要说明的是,本发明对步骤302的描述,可以参见前述实施例中对步骤101的描述,其实现原理类似,此处不再赘述。
步骤302,从人脸3D模型中识别人脸上各个面部器官。
其中,面部器官包括嘴巴、眼睛、眉毛,以及鼻子。
人脸上的每个面部器官都有其独特的特点,从而,本实施例中,根据各器官自身的特点,可以从获取的人脸3D模型中识别出各个面部器官。
步骤303,获取每个面部器官的3D数据,形成3D表情数据。
本实施例中,从人脸3D模型中识别出各个面部器官之后,可以进一步获取每个面部器官的3D数据,将各个面部器官的3D数据组合在一起,形成3D表情数据,用于表征用户当前表情。
步骤304,根据3D表情数据识别与用户当前表情对应的目标3D表情。
本发明实施例提供了两种根据3D表情数据识别与用户当前表情对应的目标3D表情的可能实现方式。
作为其中一种可能的实现方式,可以将3D表情数据与预先构建的表情库中每个3D表情进行匹配,获取表情库中每个3D表情与3D表情数据匹配度,并将匹配度最高的3D表情识别为目标3D表情。
作为其中另一种可能的实现方式,可以从所有的面部器官中选择一个作为初始匹配面部器官,基于初始匹配面部器官的3D数据,从表情库中获取包括3D数据的候选表情集合,利用剩余的面部器官的3D数据逐次对候选表情集合进行筛选,直达候选表情集合中只包括一个3D表情,将最终剩余的一个3D表情识别为目标3D表情。
比如,可以先选择嘴巴作为初始匹配面部器官,将表情库中与嘴巴的3D数据匹配的表情识别出来,组成候选表情集合。再根据眼睛的3D数据,将候选表情集合中与眼睛的3D数据不匹配的表情剔除。继续根据眉毛的3D数据将候选表情集合中剩余的与眉毛的3D数据不匹配的表情剔除。若剔除之后候选集合中只剩余一个表情,则该表情即为目标3D表情;若剔除之后的候选表情集合中剩余不止一个表情,则继续根据剩余面部器官的3D数据对候选表情集合中剩余的表情进行筛选,直至候选表情集合中只剩余一个表情,将该表情作为目标3D表情。
需要说明的是,表情库是预先建立的,表情库中的表情是3D表情,是在用户使用终端的过程中,通过终端中的投射装置和摄像头获取用户的人脸3D模型,并基于人脸3D模型生成的。也就是说,表情库中的3D表情的人物形象是用户本人。表情库可以存储在终端的本地存储器中,也可以存储在云端服务器中以节省终端的内存空间,本发明对此不作限制。
步骤305,在终端设备上显示目标3D表情。
本实施例中,识别出目标3D表情之后,可以将目标3D表情显示在用户的终端设备上,由用户选择是否发送该目标3D表情。比如,可通过弹窗的形式在用户当前的聊天界面中显示该目标3D表情。
步骤306,通过终端设备将目标3D表情发送给服务器,由服务器将目标3D表情发送给接收设备进行显示。
本实施例中,用户选择发送终端设备上显示的目标3D表情之后,可以通过用户的终端设备将该目标3D表情发送给该终端设备对应的服务器,由服务器将该目标3D表情发送给接收设备,并在接收设备上与目标3D表情对应的用户所使用的相同的社交软件的聊天界面中显示该目标3D表情。
作为一种示例,识别出与用户当前表情对应的目标3D表情之后,可通过弹窗的形式在用户当前使用的社交软件的聊天界面中显示该目标3D表情,并可以在弹窗中的目标3D表情的下方提供“发送”和“取消”按键,当用户触发“发送”按键时,该目标3D表情显示在用户当前使用的社交软件的聊天界面中,并通过终端设备发送给对应的服务器。服务器将该目标3D表情转发给接收设备,并显示在相同的社交软件的聊天界面中。当用户触发“取消”按键时,则不发送该目标3D表情。或者,也可以不提供“发送”和“取消”按键,将用户点击该目标3D表情(即点击弹窗)的操作视为用户选择发送该目标3D表情,将用户点击弹窗之外的区域的操作(包括用户点击聊天界面中的回退按键操作),以及用户选择终端设备提供的“返回”按键的操作,视为用户不发送该目标3D表情。由用户选择是否发送识别出的目标3D表情,能够提高用户选择的自主性。
本实施例的用户表情识别方法,通过基于非均匀的结构光获取用户的人脸3D模型,从人脸3D模型中识别人脸上各个面部器官,获取每个面部器官的3D数据形成3D表情数据,根据3D表情数据识别与用户当前表情对应的目标3D表情,在终端设备上显示目标3D表情,并通过终端设备将目标3D表情发送给服务器,由服务器将目标3D表情发给接收设备进行显示,能够实现在社交过程中实时向对方发送用户当前表情,使发送的表情更加个性化,增加社交趣味性和真实性,提升用户体验。
本发明还提出一种用户表情识别装置。
图7为本发明一实施例提出的用户表情识别装置的结构示意图。
如图7所示,该用户表情识别装置包括:模型获取模块810、提取模块820、目标表情获取模块830,以及发送模块840。其中,
模型获取模块810,用于基于结构光获取用户的人脸3D模型。
具体地,模型获取模块810用于向用户的人脸发射结构光;采集结构光在人脸上的反射光并形成人脸的深度图像;基于深度图像重构人脸3D模型。
在本发明实施例一种可能的实现方式中,结构光可以为非均匀的结构光,非均匀的结构光为多个光斑的集合构成的散斑图案或乱点图案,是由设置在终端上的投射装置中的衍射光学元件形成的,其中,衍射光学元件上设置有一定数量的浮雕,浮雕的凹槽深度不同。
提取模块820,用于从人脸3D模型中提取用户的3D表情数据。
具体地,在本发明实施例一种可能的实现方式中,提取模块820用于从人脸3D模型中识别人脸上各个面部器官,并获取每个面部器官的3D数据,形成3D表情数据。
目标表情获取模块830,用于根据3D表情数据识别与用户当前表情对应的目标3D表情。
在本发明实施例一种可能的实现方式中,目标表情获取模块830具体用于将3D表情数据与预先构建的表情库中每个3D表情进行匹配,获取表情库中每个3D表情与3D表情数据匹配度;将匹配度最高的3D表情识别为目标3D表情。
在本发明实施例另一种可能的实现方式中,目标表情获取模块830具体用于从所有的面部器官中选择一个作为初始匹配面部器官;基于初始匹配面部器官的3D数据,从表情库获取包括3D数据的候选表情集合;利用剩余的面部器官的3D数据逐次对候选表情集合进行筛选,直到候选表情集合只包括一个3D表情;将一个3D表情识别为目标3D表情。
发送模块840,用于将目标3D表情发送给接收方进行显示。
具体地,在本发明实施例一种可能的实现方式中,发送模块840用于在终端设备上显示目标3D表情;通过终端设备将目标3D表情发送给服务器,由服务器将目标3D表情发送给接收设备进行显示。
需要说明的是,前述对用户表情识别方法实施例的解释说明也适用于本实施例的用户表情识别装置,其实现原理类似,此处不再赘述。
上述用户表情识别装置中各个模块的划分仅用于举例说明,在其他实施例中,可将用户表情识别装置按照需要划分为不同的模块,以完成上述用户表情识别装置的全部或部分功能。
本实施例的用户表情识别装置,通过基于结构光获取用户的人脸3D模型,从人脸3D模型中提取用户的3D表情数据,根据3D表情数据识别与用户当前表情对应的目标3D表情,将目标3D表情发送给接收设备进行显示。由此,能够实现在社交过程中实时向对方发送用户当前表情,使发送的表情更加个性化,增加社交趣味性和真实性,提升用户体验。通过获取用户的人脸3D模型,根据人脸3D模型识别出与用户当前表情对应的目标3D表情,将目标3D表情作为社交表情发送给接收设备,使用用户自己的面部表情作社交表情,比社交软件中提供的表情以及从网络中下载的表情更加真实,能够显示用户本人形象,解决了现有技术中使用网络表情不够个性化的技术问题。
本发明还提出一种终端。上述终端中包括图像处理电路,图像处理电路可以利用硬件和/或软件组件实现,可包括定义ISP(Image Signal Processing,图像信号处理)管线的各种处理单元。图8为本发明一实施例提出的终端中的图像处理电路的结构示意图。如图8所示,为便于说明,仅示出与本发明实施例相关的图像处理技术的各个方面。
如图8所示,图像处理电路80包括成像设备810、ISP处理器830和控制逻辑器840。成像设备810可包括具有一个或多个透镜812、图像传感器814的照相机和结构光投射器816。结构光投射器816将结构光投影至被测物。其中,该结构光图案可为激光条纹、格雷码、正弦条纹、或者,随机排列的散斑图案等。图像传感器814捕捉投影至被测物形成的结构光图像,并将结构光图像发送至ISP处理器830,由ISP处理器830对结构光图像进行解调获取被测物的深度信息。同时,图像传感器814也可以捕捉被测物的色彩信息。当然,也可以由两个图像传感器814分别捕捉被测物的结构光图像和色彩信息。
其中,以散斑结构光为例,ISP处理器830对结构光图像进行解调,具体包括,从该结构光图像中采集被测物的散斑图像,将被测物的散斑图像与参考散斑图像按照预定算法进行图像数据计算,获取被测物上散斑图像的各个散斑点相对于参考散斑图像中的参考散斑点的移动距离。利用三角法转换计算得到散斑图像的各个散斑点的深度值,并根据该深度值得到被测物的深度信息。
当然,还可以通过双目视觉的方法或基于飞行时差TOF的方法来获取该深度图像信息等,在此不做限定,只要能够获取或通过计算得到被测物的深度信息的方法都属于本实施方式包含的范围。
在ISP处理器830接收到图像传感器814捕捉到的被测物的色彩信息之后,可被测物的色彩信息对应的图像数据进行处理。ISP处理器830对图像数据进行分析以获取可用于确定成像设备810的一个或多个控制参数的图像统计信息。图像传感器814可包括色彩滤镜阵列(如Bayer滤镜),图像传感器814可获取用图像传感器814的每个成像像素捕捉的光强度和波长信息,并提供可由ISP处理器830处理的一组原始图像数据。
ISP处理器830按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器830可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的图像统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
ISP处理器830还可从图像存储器820接收像素数据。图像存储器820可为存储器装置的一部分、存储设备、或电子设备内的独立的专用存储器,并可包括DMA(Direct MemoryAccess,直接存储器存取)特征。
当接收到原始图像数据时,ISP处理器830可进行一个或多个图像处理操作。
在ISP处理器830获取到被测物的色彩信息和深度信息后,可对其进行融合,得到三维图像。其中,可通过外观轮廓提取方法或轮廓特征提取方法中的至少一种提取相应的被测物的特征。例如通过主动形状模型法ASM、主动外观模型法AAM、主成分分析法PCA、离散余弦变换法DCT等方法,提取被测物的特征,在此不做限定。再将分别从深度信息中提取到被测物的特征以及从色彩信息中提取到被测物的特征进行配准和特征融合处理。这里指的融合处理可以是将深度信息以及色彩信息中提取出的特征直接组合,也可以是将不同图像中相同的特征进行权重设定后组合,也可以有其他融合方式,最终根据融合后的特征,生成三维图像。
三维图像的图像数据可发送给图像存储器820,以便在被显示之前进行另外的处理。ISP处理器830从图像存储器820接收处理数据,并对所述处理数据进行原始域中以及RGB和YCbCr颜色空间中的图像数据处理。三维图像的图像数据可输出给显示器860,以供用户观看和/或由图形引擎或GPU(Graphics Processing Unit,图形处理器)进一步处理。此外,ISP处理器830的输出还可发送给图像存储器820,且显示器860可从图像存储器820读取图像数据。在一个实施例中,图像存储器820可被配置为实现一个或多个帧缓冲器。此外,ISP处理器830的输出可发送给编码器/解码器850,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器860设备上之前解压缩。编码器/解码器850可由CPU或GPU或协处理器实现。
ISP处理器830确定的图像统计信息可发送给控制逻辑器840单元。控制逻辑器840可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的图像统计信息,确定成像设备810的控制参数。
以下为运用图8中图像处理技术实现用户表情识别方法的步骤:
步骤101’,基于结构光获取用户的人脸3D模型。
步骤102’,从人脸3D模型中提取用户的3D表情数据。
步骤103’,根据3D表情数据识别与用户当前表情对应的目标3D表情。
步骤104’,将目标3D表情发送给接收设备进行显示。
需要说明的是,前述对用户表情识别方法实施例的解释说明也适用于本实施例的终端,其实现原理类似,此处不再赘述。
本实施例的终端,通过基于结构光获取用户的人脸3D模型,从人脸3D模型中提取用户的3D表情数据,根据3D表情数据识别与用户当前表情对应的目标3D表情,将目标3D表情发送给接收设备进行显示。由此,能够实现在社交过程中实时向对方发送用户当前表情,使发送的表情更加个性化,增加社交趣味性和真实性,提升用户体验。通过获取用户的人脸3D模型,根据人脸3D模型识别出与用户当前表情对应的目标3D表情,将目标3D表情作为社交表情发送给接收设备,使用用户自己的面部表情作社交表情,比社交软件中提供的表情以及从网络中下载的表情更加真实,能够显示用户本人形象,解决了现有技术中使用网络表情不够个性化的技术问题。
本发明还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,当该计算机程序被处理器执行时能够实现如前述实施例所述的用户表情识别方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种用户表情识别方法,其特征在于,包括:
基于结构光获取用户的人脸3D模型;
从所述人脸3D模型中提取所述用户的3D表情数据;
根据所述3D表情数据识别与所述用户当前表情对应的目标3D表情;
将所述目标3D表情发送给接收设备进行显示。
2.根据权利要求1所述的方法,其特征在于,所述从所述人脸3D模型中提取所述用户的3D表情数据,包括:
从所述人脸3D模型中识别人脸上各个面部器官;
获取每个面部器官的3D数据,形成所述3D表情数据。
3.根据权利要求2所述的方法,其特征在于,所述根据所述3D表情数据识别与所述用户当前表情对应的目标3D表情,包括:
将所述3D表情数据与预先构建的表情库中每个3D表情进行匹配,获取所述表情库中每个3D表情与所述3D表情数据匹配度;
将匹配度最高的3D表情识别为所述目标3D表情。
4.根据权利要求2所述的方法,其特征在于,所述根据所述3D表情数据识别与所述用户当前表情对应的目标3D表情,包括:
从所有的面部器官中选择一个作为初始匹配面部器官;
基于所述初始匹配面部器官的所述3D数据,从所述表情库获取包括所述3D数据的候选表情集合;
利用剩余的面部器官的所述3D数据逐次对所述候选表情集合进行筛选,直到所述候选表情集合只包括一个3D表情;
将所述一个3D表情识别为所述目标3D表情。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述将所述目标3D表情发送给接收设备进行显示,包括:
在终端设备上显示所述目标3D表情;
通过所述终端设备将所述目标3D表情发送给服务器,由所述服务器将所述目标3D表情发送给所述接收设备进行显示。
6.根据权利要求1-4任一项所述的方法,其特征在于,所述基于结构光获取所述户的人脸3D模型,包括:
向所述用户的人脸发射结构光;
采集所述结构光在所述人脸上的反射光并形成人脸的深度图像;
基于所述深度图像重构所述人脸3D模型。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述结构光为非均匀的结构光,所述非均匀的结构光为多个光斑的集合构成的散斑图案或乱点图案,是由设置在终端上的投射装置中的衍射光学元件形成的,其中,所述衍射光学元件上设置有一定数量的浮雕,所述浮雕的凹槽深度不同。
8.一种用户表情识别装置,其特征在于,包括:
模型获取模块,用于基于结构光获取用户的人脸3D模型;
提取模块,用于从所述人脸3D模型中提取所述用户的3D表情数据;
目标表情获取模块,用于根据所述3D表情数据确定所述用户的目标3D表情;
发送模块,用于将所述目标3D表情发送给接收方进行显示。
9.一种终端,其特征在于,包括存储器及处理器,所述存储器中储存有计算机可读指令,所述指令被所述处理器执行时,使得所述处理器执行如权利要求1-7中任一项所述的用户表情识别方法。
10.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-7中任一项所述的用户表情识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710642673.0A CN107451560B (zh) | 2017-07-31 | 2017-07-31 | 用户表情识别方法、装置及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710642673.0A CN107451560B (zh) | 2017-07-31 | 2017-07-31 | 用户表情识别方法、装置及终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107451560A true CN107451560A (zh) | 2017-12-08 |
CN107451560B CN107451560B (zh) | 2020-05-19 |
Family
ID=60489951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710642673.0A Active CN107451560B (zh) | 2017-07-31 | 2017-07-31 | 用户表情识别方法、装置及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107451560B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985172A (zh) * | 2018-06-15 | 2018-12-11 | 北京七鑫易维信息技术有限公司 | 一种基于结构光的视线追踪方法、装置、设备及存储介质 |
CN109102559A (zh) * | 2018-08-16 | 2018-12-28 | Oppo广东移动通信有限公司 | 三维模型处理方法和装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1794265A (zh) * | 2005-12-31 | 2006-06-28 | 北京中星微电子有限公司 | 基于视频的面部表情识别方法及装置 |
CN101727472A (zh) * | 2008-10-21 | 2010-06-09 | 联发科技股份有限公司 | 图像识别系统以及图像识别方法 |
CN102663810A (zh) * | 2012-03-09 | 2012-09-12 | 北京航空航天大学 | 一种基于相位偏移扫描的三维人脸全自动建模方法 |
CN103309449A (zh) * | 2012-12-17 | 2013-09-18 | 广东欧珀移动通信有限公司 | 基于面部表情识别自动切换壁纸的移动终端及其方法 |
CN104598127A (zh) * | 2014-12-31 | 2015-05-06 | 广东欧珀移动通信有限公司 | 一种在对话界面插入表情的方法及装置 |
CN104753766A (zh) * | 2015-03-02 | 2015-07-01 | 小米科技有限责任公司 | 表情发送方法及装置 |
US20160086053A1 (en) * | 2014-09-19 | 2016-03-24 | Canon Kabushiki Kaisha | Object shape aligning apparatus, object processing apparatus and methods thereof |
CN105809612A (zh) * | 2014-12-30 | 2016-07-27 | 广东世纪网通信设备股份有限公司 | 一种照片转化为表情的方法及智能终端 |
-
2017
- 2017-07-31 CN CN201710642673.0A patent/CN107451560B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1794265A (zh) * | 2005-12-31 | 2006-06-28 | 北京中星微电子有限公司 | 基于视频的面部表情识别方法及装置 |
CN101727472A (zh) * | 2008-10-21 | 2010-06-09 | 联发科技股份有限公司 | 图像识别系统以及图像识别方法 |
CN102663810A (zh) * | 2012-03-09 | 2012-09-12 | 北京航空航天大学 | 一种基于相位偏移扫描的三维人脸全自动建模方法 |
CN103309449A (zh) * | 2012-12-17 | 2013-09-18 | 广东欧珀移动通信有限公司 | 基于面部表情识别自动切换壁纸的移动终端及其方法 |
US20160086053A1 (en) * | 2014-09-19 | 2016-03-24 | Canon Kabushiki Kaisha | Object shape aligning apparatus, object processing apparatus and methods thereof |
CN105809612A (zh) * | 2014-12-30 | 2016-07-27 | 广东世纪网通信设备股份有限公司 | 一种照片转化为表情的方法及智能终端 |
CN104598127A (zh) * | 2014-12-31 | 2015-05-06 | 广东欧珀移动通信有限公司 | 一种在对话界面插入表情的方法及装置 |
CN104753766A (zh) * | 2015-03-02 | 2015-07-01 | 小米科技有限责任公司 | 表情发送方法及装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985172A (zh) * | 2018-06-15 | 2018-12-11 | 北京七鑫易维信息技术有限公司 | 一种基于结构光的视线追踪方法、装置、设备及存储介质 |
CN109102559A (zh) * | 2018-08-16 | 2018-12-28 | Oppo广东移动通信有限公司 | 三维模型处理方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107451560B (zh) | 2020-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107479801A (zh) | 基于用户表情的终端显示方法、装置及终端 | |
CN107481304B (zh) | 在游戏场景中构建虚拟形象的方法及其装置 | |
CN107480613A (zh) | 人脸识别方法、装置、移动终端和计算机可读存储介质 | |
CN107465906B (zh) | 场景的全景拍摄方法、装置及终端设备 | |
CN107481317A (zh) | 人脸3d模型的面部调整方法及其装置 | |
CN107483845B (zh) | 拍照方法及其装置 | |
CN107610077A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107481101B (zh) | 穿衣推荐方法及其装置 | |
CN107707839A (zh) | 图像处理方法及装置 | |
CN107423716A (zh) | 人脸状态监控方法及装置 | |
CN107507269A (zh) | 个性化三维模型生成方法、装置和终端设备 | |
CN107463659A (zh) | 物体搜索方法及其装置 | |
CN107491744A (zh) | 人体身份识别方法、装置、移动终端和存储介质 | |
CN107509045A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107707831A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107437019A (zh) | 唇语识别的身份验证方法和装置 | |
CN107551549A (zh) | 游戏形象调整方法及其装置 | |
CN107469355A (zh) | 游戏人物形象创建方法及装置、终端设备 | |
CN107707838A (zh) | 图像处理方法和装置 | |
CN107705278A (zh) | 动态效果的添加方法和终端设备 | |
CN107705356A (zh) | 图像处理方法和装置 | |
CN107343148A (zh) | 图像补全方法、装置和终端 | |
CN107491675A (zh) | 信息安全处理方法、装置和终端 | |
CN107592491A (zh) | 视频通信背景显示方法和装置 | |
CN107622496A (zh) | 图像处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18 Applicant after: OPPO Guangdong Mobile Communications Co., Ltd. Address before: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18 Applicant before: Guangdong OPPO Mobile Communications Co., Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |