CN108959585B - 一种表情图片获取方法和终端设备 - Google Patents

一种表情图片获取方法和终端设备 Download PDF

Info

Publication number
CN108959585B
CN108959585B CN201810748241.2A CN201810748241A CN108959585B CN 108959585 B CN108959585 B CN 108959585B CN 201810748241 A CN201810748241 A CN 201810748241A CN 108959585 B CN108959585 B CN 108959585B
Authority
CN
China
Prior art keywords
expression
expression picture
interface
user
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810748241.2A
Other languages
English (en)
Other versions
CN108959585A (zh
Inventor
冯俊嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aiku Software Technology Shanghai Co ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN201810748241.2A priority Critical patent/CN108959585B/zh
Publication of CN108959585A publication Critical patent/CN108959585A/zh
Application granted granted Critical
Publication of CN108959585B publication Critical patent/CN108959585B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种表情图片获取方法和终端设备,涉及通信技术领域,用以解决现有技术中可能存在无法快速准确地获得满足需求的表情图片的问题。该方法包括:接收用户的第一输入,该第一输入用于触发终端设备获取用户图像,该图像包括用户的表情特征信息;响应于该第一输入,在第一界面上显示满足目标条件的第一表情图片,该目标条件包括表情图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。该方案具体应用于使用表情图片的场景中。

Description

一种表情图片获取方法和终端设备
技术领域
本发明实施例涉及通信技术领域,尤其涉及一种表情图片获取方法和终端设备。
背景技术
随着终端技术的不断发展,终端设备上的社交应用的种类越来越多。在使用社交应用的过程中,用户通常喜欢通过表情图片来表达自己的心情、想法等。
通常情况下,用户可以通过从网络下载、好友之间互相收藏等方式获取表情包,当用户需要使用表情图片的时候,可以从已获取的表情包中查找满足需求的表情图片。但是,很多情况下,用户可能需要查找多个表情包才能找到满足需求的表情图片,或者可能无法找到满足需求的表情图片。
因此,现有技术中存在无法快速准确地获得满足需求的表情图片的问题。
发明内容
本发明实施例提供一种表情图片获取方法和终端设备,以解决现有技术中可能存在无法快速准确地获得满足需求的表情图片的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供了一种表情图片获取方法,该方法包括:
接收用户的第一输入,该第一输入用于触发终端设备获取用户图像,该图像包括用户的表情特征信息;
响应于该第一输入,在第一界面上显示满足目标条件的第一表情图片,该目标条件包括表情图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。
第二方面,本发明实施例提供了一种终端设备,该终端设备包括:接收模块和显示模块;
该接收模块,用于接收用户的第一输入,该第一输入用于触发终端设备获取用户图像,该图像包括用户的表情特征信息;
该显示模块,用于响应于该接收模块接收的该第一输入,在第一界面上显示满足目标条件的第一表情图片,该目标条件包括表情图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。
第三方面,本发明实施例提供了一种终端设备,包括处理器、存储器及存储在该存储器上并可在该处理器上运行的计算机程序,该计算机程序被该处理器执行时实现如第一方面中的表情图片获取方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储计算机程序,该计算机程序被处理器执行时实现如第一方面中的表情图片获取方法的步骤。
在本发明实施例中,通过接收用户的第一输入,该第一输入用于触发终端设备获取用户图像,该图像包括用户的表情特征信息;响应于该第一输入,在第一界面上显示满足目标条件的第一表情图片,该目标条件包括表情图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。通过该方案,当用户需要使用表情图片来表达自己的心情、想法时,用户通过输入用户的图像,则可以获得满足目标条件的第一表情图片,具体的,终端设备获取用户的图像,从图像中提取至少包括表情特征信息的特征信息,并去匹配使用频次大于或等于第一阈值,且与该特征信息的特征匹配度大于或等于第二阈值的第一表情图片,从而获得满足用户需求的表情图片,相比现有技术,本方案可以实现快速准确地获得满足需求的表情图片。
附图说明
图1为本发明实施例提供的一种安卓操作系统的架构示意图;
图2为本发明实施例提供的表情图片获取方法的流程图之一;
图3为本发明实施例提供的表情图片获取方法的界面的示意图之一;
图4为本发明实施例提供的表情图片获取方法的界面的示意图之二;
图5为本发明实施例提供的表情图片获取方法的流程图之二;
图6为本发明实施例提供的表情图片获取方法的界面的示意图之三;
图7为本发明实施例提供的表情图片获取方法的流程图之三;
图8为本发明实施例提供的表情图片获取方法的流程图之四;
图9为本发明实施例提供的表情图片获取方法的界面的示意图之四;
图10为本发明实施例提供的表情图片获取方法的流程图之五;
图11为本发明实施例提供的表情图片获取方法的界面的示意图之五;
图12为本发明实施例提供的表情图片获取方法的流程图之六;
图13为本发明实施例提供的表情图片获取方法的界面的示意图之六;
图14为本发明实施例提供的终端设备的结构示意图之一;
图15为本发明实施例提供的终端设备的结构示意图之二;
图16为本发明实施例提供的终端设备的结构示意图之三;
图17为本发明实施例提供的终端设备的硬件示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同的对象,而不是用于描述对象的特定顺序。例如,第一输入、第二输入、第三输入和第四输入等是用于区别不同的输入,而不是用于描述输入的特定顺序。
在本发明实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本发明实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
在本发明实施例的描述中,除非另有说明,“多个”的含义是指两个或者两个以上,例如,多个处理单元是指两个或者两个以上的处理单元;多个元件是指两个或者两个以上的元件等。
本发明实施例中的顺时针方向、逆时针方向、上、下、左以及右等均是以用户在终端设备的显示屏上输入为例进行示例性说明的,即顺时针方向、逆时针方向、上、下、左以及右等均是以用户在终端设备的显示屏上的输入相对于终端设备或者终端设备的显示屏而言的。
本发明实施例提供一种表情图片获取方法,接收用户的第一输入,该第一输入用于触发终端设备获取用户图像,该图像包括用户的表情特征信息;响应于该第一输入,在第一界面上显示满足目标条件的第一表情图片,该目标条件包括表情图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。通过该方案,当用户需要使用表情图片来表达自己的心情、想法时,用户通过输入用户的图像,则可以获得满足目标条件的第一表情图片,具体的,终端设备获取用户的图像,从图像中提取至少包括表情特征信息的特征信息,并去匹配使用频次大于或等于第一阈值,且与该特征信息的特征匹配度大于或等于第二阈值的第一表情图片,从而获得满足用户需求的表情图片,相比现有技术,本方案可以实现快速准确地获得满足需求的表情图片。
下面以安卓操作系统为例,介绍一下本发明实施例提供的表情图片获取方法所应用的软件环境。
如图1所示,为本发明实施例提供的一种可能的安卓操作系统的架构示意图。在图1中,安卓操作系统的架构包括4层,分别为:应用程序层、应用程序框架层、系统运行库层和内核层(具体可以为Linux内核层)。
其中,应用程序层包括安卓操作系统中的各个应用程序(包括系统应用程序和第三方应用程序)。
应用程序框架层是应用程序的框架,开发人员可以在遵守应用程序的框架的开发原则的情况下,基于应用程序框架层开发一些应用程序。
系统运行库层包括库(也称为系统库)和安卓操作系统运行环境。库主要为安卓操作系统提供其所需的各类资源。安卓操作系统运行环境用于为安卓操作系统提供软件环境。
内核层是安卓操作系统的操作系统层,属于安卓操作系统软件层次的最底层。内核层基于Linux内核为安卓操作系统提供核心系统服务和与硬件相关的驱动程序。
以安卓操作系统为例,本发明实施例中,开发人员可以基于上述如图1所示的安卓操作系统的系统架构,开发实现本发明实施例提供的表情图片获取方法的软件程序,从而使得该表情图片获取方法可以基于如图1所示的安卓操作系统运行。即处理器或者终端可以通过在安卓操作系统中运行该软件程序实现本发明实施例提供的表情图片获取方法。
本发明实施例中的终端设备可以为移动终端设备,也可以为非移动终端设备。移动终端设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等;非移动终端设备可以为个人计算机(personalcomputer,PC)、电视机(television,TV)、柜员机或者自助机等;本发明实施例不作具体限定。
本发明实施例提供的表情图片获取方法的执行主体可以为上述的终端设备(包括移动终端设备和非移动终端设备),也可以为该终端设备中能够实现该方法的功能模块和/或功能实体,具体的可以根据实际使用需求确定,本发明实施例不作限定。下面以终端设备为例,对本发明实施例提供的表情图片获取方法进行示例性的说明。
参考图2所示,本发明实施例提供了一种表情图片获取方法,该方法可以包括下述的步骤201-步骤202。
步骤201、终端设备接收用户的第一输入,该第一输入用于触发终端设备获取用户图像。
该图像包括用户的表情特征信息。
第一输入可以是用户使用摄像头拍摄用户图像的输入,也可以是用户从终端设备的图库中导入用户图像的输入,还可以是其他的,本发明实施例不作限定。下面以第一输入是用户使用摄像头拍摄用户图像的输入为例进行示例性的说明。
第一输入可以是用户在拍照的预览界面,完成图像输入的操作。具体的,若终端设备为手动拍照,则第一输入可以是用户对准摄像头,对拍照按键的点击操作,参考图3所示;若终端设备为自动拍照,则第一输入也可以是用户对准摄像头,等待自动拍照的输入。
示例性的,上述点击操作,具体的可以是单击操作、双击操作、任意次数的连续点击操作或者长按操作,其中多次连续点击操作和长按操作都可以获得多张连续的用户的图像。
在本发明实施例中,当用户在使用社交应用的过程中,用户想要用表情图片来表达自己的心情、想法等时,用户可以通过点击社交应用界面中的表情标识(通常为一个笑脸符),在社交应用界面上直接显示上述预览界面,或显示提示信息,提示信息用于指示“是否根据用户的图像匹配表情图片”。若用户选择“是”,则显示上述的预览界面,否则显示现有技术的表情图片选择界面。
在本发明实施例中,用户的图像可以是一张图像,也可以是多张连续的图像,本发明实施例不作限定。该图像包括用户的表情特征信息,用户的表情特征信息包括用户的面部表情特征信息,由于很多情况下用户会通过肢体语言来辅助表达想法、心情等,因此在本发明实施例中,用户的表情特征信息还可以包括用户的肢体表情特征信息,以及还可以包括其他的表情特征信息,本发明实施例不作限定。其中,面部表情特征信息可以是直接或间接的指示包括开心、难过、大笑、惊讶和愤怒等面部表情,肢体表情特征信息可以是直接或间接的指示包括手舞足蹈、OK、再见、拜托、恭喜和工作等肢体表情,本发明实施例不作限定。该图像除了表情特征信息以外,还可以包括用户的五官特征信息、脸型特征信息、年龄特征信息和性别特征信息等,本发明实施例不作限定。
步骤202、响应于该第一输入,终端设备在第一界面上显示满足目标条件的第一表情图片。
该目标条件包括表情图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。
图片的使用频次,即在一定时间段内,图片被使用的次数。在本发明实施例中,一定时间段可以是从统计开始时间点,到当前时间点结束的时间段。统计开始时间点可以根据实际需求设定,本发明实施例不作限定。
示例性的,终端设备在获取了用户的图像之后,根据现有的相关技术提取用户的特征信息,例如根据表情特征点检测技术提取表情特征信息,根据五官特征点检测技术提取五官特征信息,根据脸型特征点检测技术提取脸型特征信息,根据年龄特征点检测技术提取年龄特征信息,根据性别特征点检测技术提取性别特征信息等,具体的参考现有相关技术,本发明实施例不予赘述。
终端设备提取了用户图像的特征信息之后,根据统计的现有的表情图片,将已有的表情图片与用户的特征信息进行匹配,以获得满足目标条件的第一表情图片。具体的匹配过程可以参考现有相关技术,本发明实施例不予赘述。
示例性的,统计的现有的表情图片可以是统计网络中的所有表情图片,以及每个表情图片的用户使用频次。在匹配过程中,可以先按照使用频次对所有表情图片进行排序,然后根据排序,依次与每个表情图片进行匹配,找出与用户的特征信息匹配的表情图片,最终综合使用频次和特征信息匹配度,筛选出满足目标条件的最优表情图片,即第一表情图片;在匹配过程中,也可以先与每个表情包进行匹配,找出与用户的特征信息匹配的表情图片,然后再根据使用频次进行排序,最终综合使用频次和特征信息匹配度,筛选出满足目标条件的最优表情图片,即第一表情图片;本发明实施例不作限定。
在本发明实施例中,终端设备可以仅提取图像的表情特征信息,则目标条件为图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。终端设备还可以提取图像的表情特征信息和五官特征信息,则目标条件为图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值,以及图片与该五官特征信息的五官匹配度大于或等于第三阈值。终端设备还可以提取图像的表情特征信息、五官特征信息和脸型特征信息,则目标条件为图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值,以及图片与该五官特征信息的五官匹配度大于或等于第三阈值和图片与该脸型特征信息的脸型匹配度大于或等于第四阈值。以此类推,终端设备还可以提取其他特征信息,则目标条件增加其他特征信息要满足的条件,本发明实施例不作限定。
终端设备实际提取图像的哪些特征信息,可以是提前预设好的,也可以是根据用户的需求来设定的。示例性的,参考图3所示,在预览界面上包括“设置”功能,用户可以点击设置按钮,终端设备显示设置界面,设置界面中包括“设置提取用户图像的特征信息”的选项,用户点击“设置提取用户图像的特征信息”的选项,终端设备显示设置子界面,在设置子界面中包括“表情特征信息”选项(必选)、“五官特征信息”选项、“脸型特征信息”选项、“年龄特征信息”选项和“性别特征信息”选项等,其中,“表情特征信息”选项是必选项,其它为可选项。用户根据需求在设置子界面中选择要设置的选项。
第一阈值、第二阈值等可以是预先设置好的,也可以是根据实际情况实时获取的,本发明实施例不作限定。第一阈值、第二阈值等的取值小于或等于1,具体的根据实际需要设定,本发明实施例不作限定。
示例性的,用户通过第一输入,输入用户图像,图像的表情为“不开心”。终端设备接收该第一输入,响应于该第一输入,终端设备在第一界面上显示如图4所示的第一表情图片。
本发明实施例提供了一种表情图片获取方法,接收用户的第一输入,该第一输入用于触发终端设备获取用户图像,该图像包括用户的表情特征信息;响应于该第一输入,在第一界面上显示满足目标条件的第一表情图片,该目标条件包括表情图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。通过该方案,当用户需要使用表情图片来表达自己的心情、想法时,用户通过输入用户的图像,则可以获得满足目标条件的第一表情图片,具体的,终端设备获取用户的图像,从图像中提取至少包括表情特征信息的特征信息,并去匹配使用频次大于或等于第一阈值,且与该特征信息的特征匹配度大于或等于第二阈值的第一表情图片,从而获得满足用户需求的表情图片,相比现有技术,本方案可以实现快速准确地获得满足需求的表情图片。
示例性的,该表情特征信息至少包括面部表情特征信息,该表情特征信息还可以包括肢体表情特征信息等。该特征信息还包括五官特征信息和脸型特征信息。在上述步骤202中得到的第一表情图片是从现有的表情图片中匹配得到的,在本发明实施例中,若用户对匹配到的第一表情图片不满意,可以通过第二输入,触发终端设备根据五官特征信息和脸型特征信息等调整第一表情图片,以获得具有用户个性化特征的调整后的第一表情图片。
具体的,结合图2,如图5所示,在步骤202之后,本发明实施例提供的表情图片获取方法还可以包括下述的步骤203-步骤205。
步骤203、终端设备接收用户的第二输入。
示例性的,第一界面上设置有“个性化”选项,第二输入可以是用户在第一界面上点击“个性化”选项的输入,第二输入还可以是其他的可实现将第一表情图片个性化的输入,本发明实施例不作限定。
步骤204、响应于该第二输入,终端设备根据该五官特征信息和脸型特征信息调整该第一表情图片。
具体的根据该五官特征信息和脸型特征信息调整该第一表情图片的方法参考现有相关技术,本发明实施例不作限定。调整后的第一表情图片具有用户的五官特征信息和脸型特征信息的特点。
步骤205、终端设备将该第一界面上显示的该第一表情图片更新为调整后的该第一表情图片。
在第一界面上更新显示调整后的第一表情图片,即取消显示第一表情图片,显示调整后的该第一表情图片。
示例性的,用户点击“个性化”选项,终端设备更新显示如图6所示的调整后的第一表情图片。
上述步骤203-步骤205获得的调整后的第一表情图片,不是网络中已有的表情图片,而是具有用户五官特征信息和脸型特征信息的个性化的表情图片,而且可以根据用户需求来确定是否获取个性化的表情图片(调整后的第一表情图片),可以提升用户的体验。
示例性的,该表情特征信息至少包括面部表情特征信息,该表情特征信息还可以包括肢体表情特征信息等。该特征信息还包括五官特征信息和脸型特征信息。在本发明实施例中,终端设备接收用户的第一输入之后,可以获取满足该目标条件的该第一表情图片,然后根据用户图像中提取的该五官特征信息和脸型特征信息,调整该第一表情图片,以获得调整后的第一表情图片,并显示调整后的第一表情图片。
具体的,结合图2,如图7所示,在步骤202之前,本发明实施例提供的表情图片获取方法还可以包括下述的步骤206-步骤207,步骤202具体的可以通过下述的步骤202a实现。
步骤206、终端设备获取该第一表情图片。
具体的,获取该第一表情图片的方法,可以参考上述步骤202的相关描述,此处不予赘述。
步骤207、终端设备根据该五官特征信息和脸型特征信息调整该第一表情图片。
具体的根据该五官特征信息和脸型特征信息调整该第一表情图片的方法参考现有相关技术,本发明实施例不作限定。调整后的第一表情图片具有用户的五官特征信息和脸型特征信息的特点。
步骤202a、终端设备在该第一界面上显示调整后的该第一表情图片。
终端设备接收到用户的第一输入之后,则在第一界面上显示调整后的第一表情图片,即显示具有用户个性化特征信息的表情图片。操作简单,满足用户需求,提升用户体验。
示例性的,响应于第一输入,终端设备显示如图6所示的调整后的第一表情图片。
结合上述步骤203-步骤205或步骤206-步骤202a,若用户使用本发明实施例提供的方法获得调整后的第一表情图片,则终端设备将该调整后的第一表情图片保存,以及保存使用频次,若下次用户在使用本发明实施例提供的方法获得表情图片,则将以前保存的该调整后的第一表情图片作为匹配图像,优先与用户图像进行匹配。而且,在本发明实施例中,还可以将终端设备中保存的GIF格式的动图作为匹配图像,与用户图像进行匹配。
示例性的,该第一表情图片是第一集合中的一个,该第一集合中的任意一张表情图片均满足该目标条件,该第一界面中包括用于指示该第一集合的第一标识。第一集合中有多张表情图片,第一集合中的表情图片的个数可以是预先设置好的,也可以是根据实际情况设定的,本发明实施例不作限定。第一标识可以是字符串,例如第一集合的名称、第一集合中图片的类型的名称等;第一标识可以是图片,例如指示第一集合的图片,指示第一集合中图片的类型的图片等;第一标识还可以是任意能指示第一集合的标识;本发明实施例不作限定。
终端设备接收到用户的第一输入之后,为用户匹配到了多张满足目标条件的表情图片,其中,第一表情图片是系统默认的与用户的特征信息最匹配的表情图片。但用户可能不是很喜欢第一表情图片,则用户可以通过第三输入来查看第一集合中的除第一表情图片以外的任意表情图片直到找到用户觉得最满意的图片。
具体的,结合图2,如图8所示,在步骤202之后,本发明实施例提供的表情图片获取方法还可以包括下述的步骤208-步骤209。
步骤208、终端设备接收用户在该第一标识或该第一表情图片上的第三输入。
第三输入可以示用户在该第一标识上的输入,第三输入可以是用户在第一标识上的点击操作,第三输入也可以是用户在第一标识上的滑动输入,第三输入还可以是其他的可行性的操作,本发明实施例不作限定。
第三输入可以示用户在该第一表情图片上的输入,第三输入可以是用户在第一表情图片上的点击操作,第三输入也可以是用户在第一表情图片上的滑动输入,第三输入还可以是其他的可行性的操作,本发明实施例不作限定。
示例性的,上述点击输入可以是单击输入,也可以双击输入等,上述的滑动输入可以是向上滑动,向左滑动,向下滑动,向右滑动等,具体的根据实际需求而定,本发明实施例不作限定。
步骤209、响应于该第三输入,终端设备将该第一界面上显示的该第一表情图片更新为第一集合中的第二表情图片。
该第二表情图片与该第一表情图片不同,该第二表情图片为第一集合中的除第一表情图片以外的任意表情图片。
示例性的,响应于该第三输入,终端设备在第一界面上更新显示如图9所示的第二表情图片,即取消显示第一表情图片,显示第二表情图片,以供用户选择。
示例性的,第一标识为“模式1”,用户点击“模式1”或用户向右滑动第一表情图片,终端设备显示如图9所示的“模式1”下的第二表情图片。
在本发明实施例中,终端设备为用户匹配了满足目标条件的多张表情图片,以供用户选择满足需求的表情图片,可以提升用户体验。
需要说明的是:在本发明实施例中,还可以在步骤205,或步骤202a之后,执行步骤208-步骤209,本发明实施例不作限定。
示例性的,该第一界面中还包括用于指示第二集合的第二标识,所述第二集合中的任意一张表情图片均满足所述目标条件,该第二集合中的图片的类型与该第一集合中的图片的类型不同。第二集合可以是一个集合,也可以是多个集合,一个第二集合对应一个第二标识,本发明实施例不作限定,在本发明实施例中,以一个第二集合,一个第二标识为例说明。第二集合的描述可以参考对第一集合的相关描述,第二标识的描述可以参考对第一标识的相关描述,本发明实施例不再赘述。该第二集合中的图片的类型与该第一集合中的图片的类型不同,例如该第一集合的类型可以是肖像简笔画类型,第二集合的类型可以是拟物化的类型,第一集合的类型或第二集合的类型还可以是其他的类型,本发明实施例不再赘述。
结合图8,如图10所示,在步骤209之后,本发明实施例提供的表情图片获取方法还可以包括下述的步骤210-步骤211。
步骤210、终端设备接收用户在该第一标识和该第二标识上的第四输入。
第四输入可以是用户从第一标识滑向第二标识的操作;也可以是用户一个手指点击第一标识,另一个手指点击第二标识,向第一标识和第二标识的中间滑动的双指操作;还可以是其他的输入,本发明实施例不作限定。
步骤211、响应于该第四输入,终端设备将该第一界面上显示的该第二表情图片更新为该第二表情图片和该第二集合中的第三表情图片。
其中,该第二表情图片位于该第一界面的第一区域上,该第三表情图片位于该第一界面的第二区域上,该第一区域与该第二区域不同。
示例性的,终端设备接收用户的第四输入,显示如图11所示的该第二表情图片和第三表情图片。
有多种不同类型的表情图片供用户选择,可以满足用户的不同需求,可以提升用户体验。
示例性的,该第一界面中还包括第三标识,该第三标识用于指示与该表情特征信息匹配的多个表情描述语句。第三标识用于指示表情描述语句的集合,每个表情描述语句都是对用户的图像中的表情的描述,且每个表情描述语句都是网络流行用语。终端设备可以根据用户图像中的表情特征信息,匹配网络中与该表情特征信息对应的多个网络流行用语,即多个表情描述语句。
示例性的,结合图2,如图12所示,在步骤202之后,本发明实施例提供的表情图片获取方法还可以包括下述的步骤212-步骤213。
步骤212、在该第一界面中显示目标表情图片的情况下,接收用户在该第三标识上的第五输入。
第五输入的描述可以参考对第三输入的相关描述,此处不再赘述。
步骤213、响应于该第五输入,在该目标表情图片上显示第一表情描述语句。
该第一表情描述语句为该多个表情描述语句中的任意一个。终端设备接收一次第五输入,显示一个表情描述语句,终端设备再接收一次第五输入,显示另一个表情描述语句。
示例性的,终端设备接收到用户在第三标识“描述语句”上的第五输入,显示如图13所示的目标表情图片。
在表情图片上显示表情描述语句,使得该表情图片更能展现用户此时的心情、想法等,可以提升用户体验。
需要说明的是:在本发明实施例中,也可以在步骤205或步骤202a或步骤209或步骤211或其他的步骤之后,执行步骤212-步骤213,本发明实施例不作限定。目标表情图片可以是第一表情图片或调整后的第一表情图片,也可以是第二表情图片,也可以是第三表情图片,也可以是其他的表情图片,本发明实施例不作限定。
如图14所示,本发明实施例提供一种终端设备120,该终端设备120包括:接收模块121和显示模块122;
该接收模块121,用于接收用户的第一输入,该第一输入用于触发终端设备获取用户图像,该图像包括用户的表情特征信息;
该显示模块122,用于响应于该接收模块121接收的该第一输入,在第一界面上显示满足目标条件的第一表情图片,该目标条件包括表情图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。
可选的,该表情特征信息至少包括面部表情特征信息,该图像还包括五官特征信息和脸型特征信息;结合图14,如图15所示,该终端设备120还包括:调整模块123;该接收模块121,还用于在该在第一界面上显示第一表情图片之后,接收用户的第二输入;该调整模块123,用于响应于该接收模块121接收的该第二输入,根据该五官特征信息和脸型特征信息调整该第一表情图片;该显示模块122,还用于将该第一界面上显示的该第一表情图片更新为该调整模块123调整后的该第一表情图片。
可选的,该表情特征信息至少包括面部表情特征信息,该图像还包括五官特征信息和脸型特征信息;结合图14,如图16所示,该终端设备还包括:获取模块124和调整模块123;该获取模块124,用于在该在第一界面上显示第一表情图片之前,获取该第一表情图片;该调整模块123,用于根据该五官特征信息和脸型特征信息调整该获取模块124获取的第一表情图片;该显示模块122,具体用于在该第一界面上显示该调整模块123调整后的该第一表情图片。
可选的,该第一表情图片是第一集合中的一个,该第一集合中的任意一张表情图片均满足该目标条件,该第一界面中包括用于指示该第一集合的第一标识;该接收模块121,还用于在该在第一界面上显示第一表情图片之后,接收用户在该第一标识或该第一表情图片上的第三输入;该显示模块122,还用于响应于该接收模块121接收的该第三输入,将该第一界面上显示的该第一表情图片更新为第一集合中的第二表情图片,该第二表情图片与该第一表情图片不同。
可选的,该第一界面中还包括用于指示第二集合的第二标识,该第二集合中的任意一张表情图片均满足该目标条件,该第二集合中的图片的类型与该第一集合中的图片的类型不同;该接收模块121,还用于在该将该第一界面上显示的该第一表情图片更新为第一集合中的第二表情图片之后,接收用户在该第一标识和该第二标识上的第四输入;该显示模块122,还用于响应于该接收模块121接收的该第四输入,将该第一界面上显示的该第二表情图片更新为该第二表情图片和该第二集合中的第三表情图片;其中,该第二表情图片位于该第一界面的第一区域上,该第三表情图片位于该第一界面的第二区域上,该第一区域与该第二区域不同。
可选的,该第一界面中还包括第三标识,该第三标识用于指示与该表情特征信息匹配的多个表情描述语句;该接收模块121,还用于在该在第一界面上显示第一表情图片之后,在该第一界面中显示目标表情图片的情况下,接收用户在该第三标识上的第五输入;该显示模块122,还用于响应于该接收模块121接收的该第五输入,在该目标表情图片上显示第一表情描述语句,该第一表情描述语句为该多个表情描述语句中的任意一个。
本发明实施例提供的终端设备能够实现上述方法实施例中图2至图13任意之一所示的各个过程,为避免重复,此处不再赘述。
本发明实施例提供了一终端设备,接收用户的第一输入,该第一输入用于触发终端设备获取用户图像,该图像包括用户的表情特征信息;响应于该第一输入,在第一界面上显示满足目标条件的第一表情图片,该目标条件包括表情图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。通过该方案,当用户需要使用表情图片来表达自己的心情、想法时,用户通过输入用户的图像,则可以获得满足目标条件的第一表情图片,具体的,终端设备获取用户的图像,从图像中提取至少包括表情特征信息的特征信息,并去匹配使用频次大于或等于第一阈值,且与该特征信息的特征匹配度大于或等于第二阈值的第一表情图片,从而获得满足用户需求的表情图片,相比现有技术,本方案可以实现快速准确地获得满足需求的表情图片。
图17为实现本发明各个实施例的一种终端设备的硬件结构示意图。如图17所示,该终端设备100包括但不限于:射频单元101、网络模块102、音频输出单元103、输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图17中示出的终端设备结构并不构成对终端设备的限定,终端设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,终端设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端设备、可穿戴设备、以及计步器等。
其中,用户输入单元107,用于接收用户的第一输入,该第一输入用于触发终端设备获取用户图像,该图像包括用户的表情特征信息;显示单元106,用于响应于用户输入单元107输入的该第一输入,在第一界面上显示满足目标条件的第一表情图片,该目标条件包括表情图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。
本发明实施例提供的终端设备,接收用户的第一输入,该第一输入用于触发终端设备获取用户图像,该图像包括用户的表情特征信息;响应于该第一输入,在第一界面上显示满足目标条件的第一表情图片,该目标条件包括表情图片的使用频次大于或等于第一阈值,且该表情图片与该表情特征信息的表情匹配度大于或等于第二阈值。通过该方案,当用户需要使用表情图片来表达自己的心情、想法时,用户通过输入用户的图像,则可以获得满足目标条件的第一表情图片,具体的,终端设备获取用户的图像,从图像中提取至少包括表情特征信息的特征信息,并去匹配使用频次大于或等于第一阈值,且与该特征信息的特征匹配度大于或等于第二阈值的第一表情图片,从而获得满足用户需求的表情图片,相比现有技术,本方案可以实现快速准确地获得满足需求的表情图片。
应理解的是,本发明实施例中,射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信系统与网络和其他设备通信。
终端设备通过网络模块102为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元103可以将射频单元101或网络模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与终端设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103包括扬声器、蜂鸣器以及受话器等。
输入单元104用于接收音频或视频信号。输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或网络模块102进行发送。麦克风1042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。
终端设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在终端设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别终端设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器105还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与终端设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作)。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板1071可覆盖在显示面板1061上,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图17中,触控面板1071与显示面板1061是作为两个独立的部件来实现终端设备的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现终端设备的输入和输出功能,具体此处不做限定。
接口单元108为外部装置与终端设备100连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到终端设备100内的一个或多个元件或者可以用于在终端设备100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是终端设备的控制中心,利用各种接口和线路连接整个终端设备的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行终端设备的各种功能和处理数据,从而对终端设备进行整体监控。处理器110可包括一个或多个处理单元;可选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
终端设备100还可以包括给各个部件供电的电源111(比如电池),可选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,终端设备100包括一些未示出的功能模块,在此不再赘述。
可选的,本发明实施例还提供一种终端设备,可以包括上述如图17所示的处理器110,存储器109,以及存储在存储器109上并可在该处理器110上运行的计算机程序,该计算机程序被处理器110执行时实现上述方法实施例中图2至图13任意之一所示的表情图片获取方法的各个过程,且能达到相同的技术效果,为避免重复,此处不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述方法实施例中图2至图13任意之一所示的表情图片获取方法的各个过程,且能达到相同的技术效果,为避免重复,此处不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。

Claims (9)

1.一种表情图片获取方法,其特征在于,所述方法包括:
接收用户的第一输入,所述第一输入用于触发终端设备获取用户图像,所述图像包括用户的表情特征信息;
响应于所述第一输入,在第一界面上显示满足目标条件的第一表情图片,所述目标条件包括表情图片的使用频次大于或等于第一阈值,且所述表情图片与所述表情特征信息的表情匹配度大于或等于第二阈值;
所述第一界面上还包括第三标识,所述第三标识用于指示与所述表情特征信息匹配的多个表情描述语句;
所述在第一界面上显示第一表情图片之后,还包括:
接收用户在所述第三标识上的第五输入;
响应于所述第五输入,在目标表情图片上显示第一表情描述语句;
所述表情特征信息至少包括面部表情特征信息,所述图像还包括五官特征信息和脸型特征信息;
所述在第一界面上显示第一表情图片之前,还包括:
获取所述第一表情图片;
根据所述五官特征信息和脸型特征信息调整所述第一表情图片;
所述在第一界面上显示第一表情图片,包括:
在所述第一界面上显示调整后的所述第一表情图片。
2.根据权利要求1所述的方法,其特征在于,
所述在第一界面上显示第一表情图片之后,还包括:
接收用户的第二输入;
响应于所述第二输入,根据所述五官特征信息和脸型特征信息调整所述第一表情图片,并将所述第一界面上显示的所述第一表情图片更新为调整后的所述第一表情图片。
3.根据权利要求1-2任一项所述的方法,其特征在于,所述第一表情图片是第一集合中的一个,所述第一集合中的任意一张表情图片均满足所述目标条件,所述第一界面中包括用于指示所述第一集合的第一标识;
所述在第一界面上显示第一表情图片之后,还包括:
接收用户在所述第一标识或所述第一表情图片上的第三输入;
响应于所述第三输入,将所述第一界面上显示的所述第一表情图片更新为第一集合中的第二表情图片,所述第二表情图片与所述第一表情图片不同。
4.根据权利要求3所述的方法,其特征在于,所述第一界面中还包括用于指示第二集合的第二标识,所述第二集合中的任意一张表情图片均满足所述目标条件,所述第二集合中的图片的类型与所述第一集合中的图片的类型不同;
所述将所述第一界面上显示的所述第一表情图片更新为第一集合中的第二表情图片之后,还包括:
接收用户在所述第一标识和所述第二标识上的第四输入;
响应于所述第四输入,将所述第一界面上显示的所述第二表情图片更新为所述第二表情图片和所述第二集合中的第三表情图片;
其中,所述第二表情图片位于所述第一界面的第一区域上,所述第三表情图片位于所述第一界面的第二区域上,所述第一区域与所述第二区域不同。
5.一种终端设备,其特征在于,所述终端设备包括:接收模块、获取模块、调整模块和显示模块;
所述接收模块,用于接收用户的第一输入,所述第一输入用于触发终端设备获取用户图像,所述图像包括用户的表情特征信息;
所述显示模块,用于响应于所述接收模块接收的所述第一输入,在第一界面上显示满足目标条件的第一表情图片,所述目标条件包括表情图片的使用频次大于或等于第一阈值,且所述表情图片与所述表情特征信息的表情匹配度大于或等于第二阈值;
所述第一界面上还包括第三标识,所述第三标识用于指示与所述表情特征信息匹配的多个表情描述语句;
所述接收模块,还用于在第一界面上显示第一表情图片之后,接收用户在所述第三标识上的第五输入;
所述显示模块,还用于响应于所述接收模块接收的所述第五输入,在目标表情图片上显示第一表情描述语句;
所述表情特征信息至少包括面部表情特征信息,所述图像还包括五官特征信息和脸型特征信息;
所述获取模块,用于在所述在第一界面上显示第一表情图片之前,获取所述第一表情图片;
所述调整模块,用于根据所述五官特征信息和脸型特征信息调整所述获取模块获取的所述第一表情图片;
所述显示模块,具体用于在所述第一界面上显示所述调整模块调整后的所述第一表情图片。
6.根据权利要求5所述的终端设备,其特征在于,
所述接收模块,还用于在所述在第一界面上显示第一表情图片之后,接收用户的第二输入;
所述调整模块,还用于响应于所述接收模块接收的所述第二输入,根据所述五官特征信息和脸型特征信息调整所述第一表情图片;
所述显示模块,还用于将所述第一界面上显示的所述第一表情图片更新为所述调整模块调整后的所述第一表情图片。
7.根据权利要求5-6任一项所述的终端设备,其特征在于,所述第一表情图片是第一集合中的一个,所述第一集合中的任意一张表情图片均满足所述目标条件,所述第一界面中包括用于指示所述第一集合的第一标识;
所述接收模块,还用于在所述在第一界面上显示第一表情图片之后,接收用户在所述第一标识或所述第一表情图片上的第三输入;
所述显示模块,还用于响应于所述接收模块接收的所述第三输入,将所述第一界面上显示的所述第一表情图片更新为第一集合中的第二表情图片,所述第二表情图片与所述第一表情图片不同。
8.根据权利要求7所述的终端设备,其特征在于,所述第一界面中还包括用于指示第二集合的第二标识,所述第二集合中的任意一张表情图片均满足所述目标条件,所述第二集合中的图片的类型与所述第一集合中的图片的类型不同;
所述接收模块,还用于在所述将所述第一界面上显示的所述第一表情图片更新为第一集合中的第二表情图片之后,接收用户在所述第一标识和所述第二标识上的第四输入;
所述显示模块,还用于响应于所述接收模块接收的所述第四输入,将所述第一界面上显示的所述第二表情图片更新为所述第二表情图片和所述第二集合中的第三表情图片;
其中,所述第二表情图片位于所述第一界面的第一区域上,所述第三表情图片位于所述第一界面的第二区域上,所述第一区域与所述第二区域不同。
9.一种终端设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至4中任一项所述的表情图片获取方法的步骤。
CN201810748241.2A 2018-07-10 2018-07-10 一种表情图片获取方法和终端设备 Active CN108959585B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810748241.2A CN108959585B (zh) 2018-07-10 2018-07-10 一种表情图片获取方法和终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810748241.2A CN108959585B (zh) 2018-07-10 2018-07-10 一种表情图片获取方法和终端设备

Publications (2)

Publication Number Publication Date
CN108959585A CN108959585A (zh) 2018-12-07
CN108959585B true CN108959585B (zh) 2021-08-10

Family

ID=64482653

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810748241.2A Active CN108959585B (zh) 2018-07-10 2018-07-10 一种表情图片获取方法和终端设备

Country Status (1)

Country Link
CN (1) CN108959585B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111510665B (zh) * 2019-01-30 2021-09-21 杭州海康威视数字技术股份有限公司 毫米波雷达与摄像机联合的监控系统、监控方法及装置
CN109947803B (zh) * 2019-03-12 2021-11-19 成都全景智能科技有限公司 一种数据处理方法、系统及存储介质
CN111062207B (zh) * 2019-12-03 2023-01-24 腾讯科技(深圳)有限公司 表情图像处理方法、装置、计算机存储介质及电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106503630A (zh) * 2016-10-08 2017-03-15 广东小天才科技有限公司 一种表情发送方法、设备及系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106503630A (zh) * 2016-10-08 2017-03-15 广东小天才科技有限公司 一种表情发送方法、设备及系统

Also Published As

Publication number Publication date
CN108959585A (zh) 2018-12-07

Similar Documents

Publication Publication Date Title
CN111061574B (zh) 一种对象分享方法及电子设备
CN109525874B (zh) 一种截屏方法及终端设备
CN109543099B (zh) 一种内容推荐方法及终端设备
CN111124245B (zh) 一种控制方法及电子设备
CN109495616B (zh) 一种拍照方法及终端设备
CN109104566B (zh) 一种图像显示方法及终端设备
CN107734170B (zh) 一种通知消息处理方法、移动终端及穿戴设备
CN108874906B (zh) 一种信息推荐方法及终端
CN108881719B (zh) 一种切换拍摄方式的方法及终端设备
CN108388403B (zh) 一种处理消息的方法及终端
CN108959585B (zh) 一种表情图片获取方法和终端设备
CN109815462B (zh) 一种文本生成方法及终端设备
CN109246351B (zh) 一种构图方法及终端设备
CN108174109B (zh) 一种拍照方法及移动终端
CN110930410A (zh) 一种图像处理方法、服务器及终端设备
WO2019120190A1 (zh) 拨号方法及移动终端
CN108600079B (zh) 一种聊天记录展示方法及移动终端
CN108924413B (zh) 拍摄方法及移动终端
CN109284146B (zh) 一种轻应用开启方法及移动终端
CN111064888A (zh) 提示方法及电子设备
CN109117037B (zh) 一种图像处理的方法及终端设备
CN108765522B (zh) 一种动态图像生成方法及移动终端
CN110750198A (zh) 一种表情发送方法及移动终端
CN107885423B (zh) 一种图片的处理方法及移动终端
CN111130995B (zh) 图像控制方法、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230719

Address after: 200120, 1st Floor, No. 51, Lane 565, Shengxia Road, Pudong New Area Free Trade Pilot Zone, Shanghai

Patentee after: Aiku software technology (Shanghai) Co.,Ltd.

Address before: No. 283, Bubugao Avenue, Wusha, Chang'an Town, Dongguan City, Guangdong Province, 523841

Patentee before: VIVO MOBILE COMMUNICATION Co.,Ltd.