CN115082984A - 人物属性识别方法及装置 - Google Patents

人物属性识别方法及装置 Download PDF

Info

Publication number
CN115082984A
CN115082984A CN202210600120.XA CN202210600120A CN115082984A CN 115082984 A CN115082984 A CN 115082984A CN 202210600120 A CN202210600120 A CN 202210600120A CN 115082984 A CN115082984 A CN 115082984A
Authority
CN
China
Prior art keywords
expression
user
description information
preset
scene description
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210600120.XA
Other languages
English (en)
Inventor
王枫
孟美灵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202210600120.XA priority Critical patent/CN115082984A/zh
Publication of CN115082984A publication Critical patent/CN115082984A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Abstract

本申请实施例公开了一种人物属性识别方法,首先,响应于接收到用户的人物属性识别请求,显示预设情景描述信息;然后,获取用户针对预设情景描述信息的表情图像,并识别表情图像的表情类型;然后,基于表情图像的表情类型,生成与表情类型对应的人物属性信息。本公开提供的人物属性识别的技术方案,基于用户对预设情景描述信息的表情类型,为其生成对应的人物属性信息,增强了趣味性,满足了用户的个性化需求。

Description

人物属性识别方法及装置
本申请为“人物属性识别方法及装置”的分案申请,原申请的申请日为2019年10月30日,原申请的申请号为201911043156.7,原申请的发明创造名称为:人物属性识别方法及装置。
技术领域
本申请实施例涉及计算机技术领域,具体涉及一种人物属性识别方法及装置。
背景技术
目前,具有人脸识别功能的APP(Application,应用程序)多种多样,但多是针对颜值评分以及表情模仿等方面,无法满足用户的个性化属性显示需求;引导用户模仿表情的APP,用户无法自主表达,缺乏趣味性。
发明内容
本申请实施例提出了一种人物属性识别方法及装置。
第一方面,本申请实施例提供了一种人物属性识别方法,其中,上述方法包括:响应于接收到用户的人物属性识别请求,显示预设情景描述信息;获取用户针对预设情景描述信息的表情图像,并识别表情图像的表情类型;基于表情图像的表情类型,生成与表情类型对应的人物属性信息。
在一些实施例中,上述基于表情图像的表情类型,生成与表情类型对应的人物属性信息,包括:基于在预设时段内,识别用户的表情图像得到的表情类型的识别次数,生成上述用户的人物属性信息。
在一些实施例中,上述基于在预设时段内,识别用户的表情图像得到的表情类型的识别次数,生成上述用户的人物属性信息,包括:基于在预设时段内,识别用户的表情图像得到的表情类型的识别次数,确定表情类型的识别次数与预设情景描述信息的个数的比值;基于所确定的比值,生成所述用户的人物属性信息。
在一些实施例中,人物属性信息包括:头像、关键字、个性签名;关键字用于表征用户的性格特征;上述生成与表情类型对应的人物属性信息,包括:生成与表情类型对应的头像、关键字、个性签名。
在一些实施例中,上述方法还包括:响应于接收到用户的分享请求,向分享请求指示的用户分享人物属性信息。
在一些实施例中,上述方法还包括:响应于到达预设的更新时刻,更新预设情景描述信息。
第二方面,本申请实施例提供了一种人物属性识别装置,其中,上述装置包括:显示单元,被配置成响应于接收到用户的人物属性识别请求,显示预设情景描述信息;表情识别单元,被配置成获取用户针对预设情景描述信息的表情图像,并识别表情图像的表情类型;属性生成单元,被配置成基于表情图像的表情类型,生成与表情类型对应的人物属性信息。
在一些实施例中,上述属性生成单元,进一步被配置成基于在预设时段内,识别用户的表情图像得到的表情类型的识别次数,生成上述用户的人物属性信息。
在一些实施例中,上述属性生成单元,进一步被配置成基于在预设时段内,识别用户的表情图像得到的表情类型的识别次数,确定表情类型的识别次数与预设情景描述信息的个数的比值;基于所确定的比值,生成所述用户的人物属性信息。
在一些实施例中,人物属性信息包括:头像、关键字、个性签名;关键字用于表征用户的性格特征;生成与表情类型对应的人物属性信息,包括:生成与表情类型对应的头像、关键字、个性签名。
在一些实施例中,上述装置还包括:分享单元,被配置成响应于接收到用户的分享请求,向分享请求指示的用户分享人物属性信息。
在一些实施例中,上述装置还包括:更新单元,被配置成响应于到达预设的更新时刻,更新预设情景描述信息。
第三方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面任一实现方式描述的方法。
第四方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面任一实现方式描述的方法。
本申请实施例提供的人物属性识别方法和装置,首先,响应于接收到用户的人物属性识别请求,显示预设情景描述信息;然后,获取用户针对预设情景描述信息的表情图像,并识别表情图像的表情类型;然后,基于表情图像的表情类型,生成与表情类型对应的人物属性信息。本公开提供的人物属性识别的技术方案,基于用户对预设情景描述信息的表情类型为其生成对应的人物属性信息,增强了趣味性,满足了用户的个性化需求。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的人物属性识别方法的一个实施例的流程图;
图3是根据本实施例的人物属性识别方法的应用场景的示意图;
图4是根据本申请的人物属性识别方法的又一个实施例的流程图;
图5是根据本申请的人物属性识别装置的一个实施例的结构图;
图6是适于用来实现本申请实施例的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的人物属性识别方法及装置的示例性架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103可以是支持网络连接从而进行数据交互和数据处理的硬件设备或软件。当终端设备101、102、103为硬件时,其可以是支持拍照、信息交互、网络连接等功能的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103提供数据处理、图像识别功能的服务器。服务器可以对接收到的各种数据进行存储或处理,并将处理结果反馈给终端设备。
需要说明的是,本公开的实施例所提供的人物属性识别方法可以由终端设备101、102、103执行,也可以由服务器105执行。相应地,人物属性识别装置可以设置于终端设备101、102、103中,也可以设置于服务器105中。在此不做具体限定。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备和服务器。
继续参考图2,示出了根据本申请的人物属性识别方法的一个实施例的流程200,包括以下步骤:
步骤201:响应于接收到用户的人物属性识别请求,显示预设情景描述信息。
本实施例中,执行主体(例如图1中的终端设备)接收到用户的人物属性识别请求后,通过自身配置的显示设备显示预设情景描述信息。
本实施例中,用户发起人物属性识别请求的操作,可以以现有技术或未来发展的技术中的人机交互方式来提交。这些人机交互方式包括但不限于:晃动终端、点击虚拟按钮(例如显示在显示屏上的虚拟按钮)、点击实体按钮、手势识别、语音识别或其他未来将开发的人机交互方式。以手势识别为例,执行主体的摄像头获取用户的手势信息,对比预定义的与发起人物属性识别请求的操作相对应的操作手势。如果用户手势被识别为与发起人物属性识别请求操作相对应的操作手势,则提交人物属性识别请求的操作。对应的,本实施例的执行主体可以提供接受并识别基于上述的提交方式提交的人物属性识别请求。
本实施例中,预设情景描述信息可以是引导用户做出反映其属性特征的表情的各种情景描述信息。比如“早上醒来变成亿万富翁”、“隔壁班花给我写了一封情书”等预设情景描述信息。在本实施例的一些可选的实现方式中,预设情景描述信息可以包括时效性的情景描述信息和针对用户群特征的情景信息中的至少一者。其中,时效性的情景描述信息可以是关于新闻、时事热点、当下火热的影视剧、明星的预设情景描述信息,比如“假如XXX(某影视剧男主)是我的男朋友”等。针对用户群特征的情景信息可以是关于用户群感兴趣的话题、领域的预设情景描述信息,比如小说、游戏等。
在本实施例的一些可选的实现方式中,可以设置不同数量的预设情景描述信息,比如,可以设置5个预设情景描述信息和10个预设情景描述信息两种模式。用户可以针对选择的不同模式,发送与选择的模式对应的人物属性识别请求。以5个预设情景描述信息的模式为例,响应于接收到用户与该模式对应的人物属性识别请求,执行主体按照预先设置的显示顺序显示该模式下的第一个预设情景描述信息,并获取用户针对该情景描述信息的表情图像;确定获取到表情图像后,进入下一个预设情景描述信息的显示以及获取表情图像的操作,直至完成该模式下针对所有情景描述信息的表情图像的获取操作。本实施例中,响应于到达预设的更新时刻,更新预设情景描述信息。在一些可选的实现方式中,以天为时间单位进行预设情景描述信息的更新,更新后的预设情景描述信息与更新前的预设情景描述信息完全不同。
步骤202:获取用户针对预设情景描述信息的表情图像,并识别表情图像的表情类型。
本实施例中,显示预设情景描述信息后,执行主体会获取用户针对预设情景描述信息作出的表情的表情图像。在本实施例的一些可选实现方式中,执行主体显示预设情景描述信息后,在预设显示时间段内显示预设情景描述信息,预设显示时间段后,执行主体自动触发内置的拍照设备,拍摄用户的脸部表情图像。比如,将预设显示时间设置为3秒,执行主体在显示预设情景描述信息3秒后,可自动触发内置的拍照设备,拍摄用户的脸部表情图像。
在获取到用户的表情图像之后,执行主体根据表情图像中面部关键点的位置来确定诸如眉毛、眼睛、眼睑、嘴唇等面部器官的状态特征,从而识别用户表情图像的表情类型。
比如,若根据表情图像中面部关键点的位置确定出眉毛的状态为“抬起,变高变弯,眉毛下的皮肤被拉伸”,额头的状态为“额头横跨皱纹”,眼睛的状态为“眼睛睁大,上眼皮抬高,下眼皮下落,露出眼白”,脸部的下半部状态为“下颌下落,嘴巴张开”,可以将其表情类型判定为惊讶。根据用户在日常工作生活中表现出的表情类型,本实施例中可识别的表情类型例如可以包括:愤怒、厌恶、恐惧、高兴、伤心、惊讶、冷漠、扮可爱、搞怪。
在一些可选的实现方式中,本实施例的执行主体可以通过预先训练的表情识别模型进行表情识别。利用机器学习方法,将表情图像训练集中的表情图像作为表情识别模型的输入,将与表情类型训练集中的表情图像对应的表情类型作为表情识别模型的目标输出,训练得到表情识别模型。具体的,执行主体可以使用卷积神经网络、深度学习模型、朴素贝叶斯模型(Naive Bayesian Model,NBM)或支持向量机(Support Vector Machine,SVM)等模型,将表情图像训练集作为模型的输入,将表情类型训练集作为模型的输出,训练得到表情识别模型。
步骤203:基于表情图像的表情类型,生成与表情类型对应的人物属性信息。
本实施例中,人物属性信息可以是用于表征用户的属性的信息。其属性的表现形式可以包括但不限于文本信息、图像信息。在一些可选实现方式中,人物属性信息包括:头像、关键字、个性签名、宜做事件、忌做事件。其中,关键字用于表征用户的性格特征。本实施例中,执行主体基于获取的表情类型,根据表情类型与人物属性信息之间的对应关系,生成人物属性信息。人物属性信息中的头像可以是与用户的表情类型对应的影视剧、动漫中的人物或动物的图像;关键字可以是与表情类型对应的文本信息,或是与所选头像对应的人物或动物的对应的文本信息;个性签名可以是表征用户个性的文本信息,比如文学作品中的文本信息或是根据所选头像中的人物或动物所表现出的形象特征而加工得到的文本信息;宜做事件可以是根据用户的表情类型向用户推荐的适宜做的事件;忌做事件可以是根据用户的表情类型向用户推荐的不适宜做的事件。
比如,用户针对预设情景描述信息作出的表情的表情类型为愤怒,可以将该用户的人物属性信息设置为愤怒的表情类型对应的人物属性信息:头像可以设置为动漫中的哪吒头像,关键字可以设置为“想在教室闹海的哪吒”,个性签名可以设置为“我是小妖怪,浑身不自在,作业这么多,决定拖一拖,来找我玩么”。
在一些可选的实现方式中,可以根据预设数据库或预先训练的属性识别模型生成人物属性信息。预设数据库中存储有表情类型与人物属性信息之间的对应关系数据。属性识别模型是利用机器学习方法,基于表情类型与人物属性信息之间的对应关系训练得到的、可以生成与表情类型对应的人物属性信息的属性识别模型。
在本实施例的一些可选的实现方式中,本实施例的步骤203可以通过如下的方式实现:基于在预设时段内,识别用户的表情图像得到的表情类型的识别次数,生成上述用户的人物属性信息。在一些可选的实现方式中,首先,基于在预设时段内,识别用户的表情图像得到的表情类型的识别次数,确定表情类型的识别次数与预设情景描述信息的个数的比值。接着,基于所确定的比值,生成上述用户的人物属性信息。
表情类型的识别次数可以反映用户在该预设时段内的人物属性。在预设时段内,某种表情类型的识别次数越多,该表情类型越能反映用户的人物属性。由于可以基于预设情景描述信息的数量设置不同的模式,所以表情类型的识别次数与预设情景描述信息的个数的比值更能准确地反映预设时段内用户的人物属性信息。
比如,基于在预设时段内,执行主体识别用户在10个预设情景描述信息的模式下的表情图像,得到对应的10个表情类型,其中,愤怒的表情类型的识别次数为4,也即10个表情类型中有4个愤怒的表情类型;冷漠的表情类型的识别次数为3,也即,10个表情类型中有3个冷漠的表情类型;厌恶的表情类型的识别次数为2,也即,10个表情类型中有2个厌恶的表情类型;搞怪的表情类型的识别次数为1,也即,10个表情类型中有1个搞怪的表情类型。10个表情类型中,由于愤怒和冷漠的表情类型居多,可以表明用户在该预设时段内情绪状态为易怒、消极。为了更准确的反映用户的人物属性信息,确定表情类型的识别次数与预设情景描述信息的个数的比值。在一些可选的实现方式中,可以依据比值从大到小进行排序,选取预设排名的比值,比如,选取排名第一和第二的比值,其中,排名第一的表情类型为愤怒,其对应的比值为0.4;排名第二的表情类型为冷漠,其对应的比值为0.3;基于上述表情类型以及表情类型的识别次数与预设情景描述信息个数的比值:愤怒的表情类型的比值为0.4,冷漠的表情类型的比值为0.3,生成与比值对应的用于表征用户易怒、消极的人物属性信息。
本实施例中,基于用户对预设情景描述信息的表情类型,为其生成对应的人物属性信息,增强了趣味性,满足了用户的个性化需求。进一步地,在生成人物属性信息之后,执行主体可以根据用户的人物属性信息针对性地为其推送感兴趣或是相关联的信息,比如,针对易怒的用户可以推送缓解愤怒情绪的文章等。如此,可以提高信息推送的效率。
图3示意性地示出了根据本实施例的人物属性识别方法的一个应用场景。用户301点击智能手机302上的虚拟按钮,发起人物属性识别请求。手机302接收用户301的人物属性识别请求,从服务器303获取预设情景描述信息后,通过智能手机302的显示屏向用户301依次显示预设情景描述信息。用户302根据预设情景描述信息依次做出对应的表情,手机302拍摄用户301的表情图像,并进行表情识别。根据识别出的表情类型判定用户表现的愤怒表情居多,为所述用户的生成对应于愤怒情绪的人物属性信息,包括:哪吒的头像,“想在教室闹海的哪吒”的关键字以及“我是小妖怪,浑身不自在,作业这么多,决定拖一拖,来找我玩么?”的个性签名。
继续参考图4,示出了根据本申请的人物属性识别方法的另一个实施例的示意性流程400,包括以下步骤:
步骤401:响应于接收到用户的人物属性识别请求,显示预设情景描述信息。
本实施例中,步骤401按照与步骤201类似的方式执行,在此不再赘述。
步骤402:获取用户针对预设情景描述信息的表情图像,并识别表情图像的表情类型。
本实施例中,步骤402按照与步骤202类似的方式执行,在此不再赘述。
步骤403:基于表情图像的表情类型,生成与表情类型对应的人物属性信息。
本实施例中,步骤403按照与步骤203类似的方式执行,在此不再赘述。
步骤404:响应于接收到用户的分享请求,向分享请求指示的用户分享人物属性信息。
本实施例中,用户发起分享请求的操作,可以以现有技术或未来发展的技术中的人机交互方式来提交。这些人机交互方式包括但不限于:晃动终端、点击虚拟按钮(例如显示在显示屏上的虚拟按钮)、点击实体按钮、手势识别、语音识别或其他未来将开发的人机交互方式。以手势识别为例,执行主体的摄像头获取用户的手势信息,对比预定义的与分享请求的操作相对应的操作手势。如果用户手势被识别为与发起分享请求操作相对应的操作手势,则提交分享请求的操作。对应的,本实施例的执行主体可以提供接受并识别基于上述的提交方式提交的分享请求。
本实施例中,分享请求中包括被分享对象的账号信息,被分享对象即是分享请求指示的用户。执行主体根据分享请求,向分享请求指示的用户分享人物属性信息。
在本实施例的一些可选的实现方式中,可以通过图片的方式向被分享对象分享人物属性信息。在接收到用户的分享请求之后,生成包括人物属性识别信息的图片,将包括人物属性识别信息的图片分享至被分享对象的账号。
从图4中可以看出,与图2对应的实施例相比,本实施例中的人物属性识别方法的流程400具体说明了在生成人物属性信息后可以向指定用户分享人物属性信息,如此,增加了用户之间的交流互动,提高了趣味性。
继续参考图5,作为对上述各图所示方法的实现,本公开提供了一种人物属性识别装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,人物属性识别装置包括:显示单元501、表情识别单元502、属性生成单元503、分享单元504和更新单元505。
显示单元501被配置成响应于接收到用户的人物属性识别请求,显示预设情景描述信息;表情识别单元502被配置成获取用户针对预设情景描述信息的表情图像,并识别表情图像的表情类型;属性生成单元503被配置成基于表情图像的表情类型,生成与表情类型对应的人物属性信息;分享单元504被配置成响应于接收到用户的分享请求,向分享请求指示的用户分享人物属性信息;更新单元505被配置成响应于到达预设的更新时刻,更新预设情景描述信息。
属性生成单元503进一步被配置成基于表情图像的表情类型,计算表情类型的个数与预设情景描述信息的个数的比值;基于表情类型的个数与预设情景描述信息个数的比值,生成与比值对应的人物属性信息。
下面参考图6,其示出了适于用来实现本申请实施例的设备(例如图1所示的设备101、102、103、105)的计算机系统600的结构示意图。图6示出的设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括处理器(例如CPU,中央处理器)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM603中,还存储有系统600操作所需的各种程序和数据。处理器601、ROM602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被处理器601执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,程序设计语言包括面向目标的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在客户计算机上执行、部分地在客户计算机上执行、作为一个独立的软件包执行、部分在客户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到客户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器,包括显示单元、表情识别单元、属性生成单元、更新单元和分享单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,属性生成单元还可以被描述为“基于表情图像的表情类型,生成与表情类型对应的人物属性信息”的单元。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该计算机设备:响应于接收到用户的人物属性识别请求,显示预设情景描述信息;获取用户针对预设情景描述信息的表情图像,并识别表情图像的表情类型;基于表情图像的表情类型,生成与表情类型对应的人物属性信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (14)

1.一种人物属性识别方法,其中,所述方法包括:
响应于接收到用户的人物属性识别请求,显示预设情景描述信息,其中,所述预设情景描述信息是引导所述用户做出反映其属性特征的表情的各种情景描述信息,包括时效性的情景描述信息和针对用户群特征的情景信息中的至少一者;
获取所述用户针对所述预设情景描述信息的表情图像,并识别所述表情图像的表情类型;
基于所述表情图像的表情类型,生成与所述表情类型对应的人物属性信息。
2.根据权利要求1所述的方法,其中,所述基于所述表情图像的表情类型,生成与所述表情类型对应的人物属性信息,包括:
基于在预设时段内,识别所述用户的表情图像得到的表情类型的识别次数,生成所述用户的人物属性信息。
3.根据权利要求2所述的方法,其中,所述基于在预设时段内,识别所述用户的表情图像得到的表情类型的识别次数,生成所述用户的人物属性信息,包括:
基于在预设时段内,识别所述用户的表情图像得到的表情类型的识别次数,确定表情类型的识别次数与预设情景描述信息的个数的比值;
基于所确定的比值,生成所述用户的人物属性信息。
4.根据权利要求1所述的方法,其中,所述方法还包括:
响应于接收到所述用户的分享请求,向分享请求指示的用户分享所述人物属性信息。
5.根据权利要求1所述的方法,其中,所述方法还包括:
响应于到达预设的更新时刻,更新所述预设情景描述信息。
6.根据权利要求1所述的方法,其中,所述人物属性信息包括:头像、关键字、个性签名;所述关键字用于表征用户的性格特征;
所述生成与所述表情类型对应的人物属性信息,包括:
生成与所述表情类型对应的头像、关键字、个性签名。
7.一种人物属性识别装置,其中,所述装置包括:
显示单元,被配置成响应于接收到用户的人物属性识别请求,显示预设情景描述信息,其中,所述预设情景描述信息是引导所述用户做出反映其属性特征的表情的各种情景描述信息,包括时效性的情景描述信息和针对用户群特征的情景信息中的至少一者;
表情识别单元,被配置成获取所述用户针对所述预设情景描述信息的表情图像,并识别所述表情图像的表情类型;
属性生成单元,被配置成基于所述表情图像的表情类型,生成与所述表情类型对应的人物属性信息。
8.根据权利要求7所述的装置,其中,
所述属性生成单元,进一步被配置成:
基于在预设时段内,识别所述用户的表情图像得到的表情类型的识别次数,生成所述用户的人物属性信息。
9.根据权利要求8所述的装置,其中,
所述属性生成单元,进一步被配置成:基于在预设时段内,识别所述用户的表情图像得到的表情类型的识别次数,确定表情类型的识别次数与预设情景描述信息的个数的比值;基于所确定的比值,生成所述用户的人物属性信息。
10.根据权利要求7所述的装置,其中,所述装置还包括:
分享单元,被配置成响应于接收到所述用户的分享请求,向分享请求指示的用户分享所述人物属性信息。
11.根据权利要求7所述的装置,其中,所述装置还包括:
更新单元,被配置成响应于到达预设的更新时刻,更新所述预设情景描述信息。
12.根据权利要求7所述的装置,其中,所述人物属性信息包括:头像、关键字、个性签名;所述关键字用于表征用户性格特征;
所述生成与所述表情类型对应的人物属性信息,包括:
生成与所述表情类型对应的头像、关键字、个性签名。
13.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
14.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
CN202210600120.XA 2019-10-30 2019-10-30 人物属性识别方法及装置 Pending CN115082984A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210600120.XA CN115082984A (zh) 2019-10-30 2019-10-30 人物属性识别方法及装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210600120.XA CN115082984A (zh) 2019-10-30 2019-10-30 人物属性识别方法及装置
CN201911043156.7A CN110807408B (zh) 2019-10-30 2019-10-30 人物属性识别方法及装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201911043156.7A Division CN110807408B (zh) 2019-10-30 2019-10-30 人物属性识别方法及装置

Publications (1)

Publication Number Publication Date
CN115082984A true CN115082984A (zh) 2022-09-20

Family

ID=69489635

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201911043156.7A Active CN110807408B (zh) 2019-10-30 2019-10-30 人物属性识别方法及装置
CN202210600120.XA Pending CN115082984A (zh) 2019-10-30 2019-10-30 人物属性识别方法及装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201911043156.7A Active CN110807408B (zh) 2019-10-30 2019-10-30 人物属性识别方法及装置

Country Status (1)

Country Link
CN (2) CN110807408B (zh)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1996344A (zh) * 2006-12-22 2007-07-11 北京航空航天大学 人脸表情信息的提取方法及处理
CN103886632A (zh) * 2014-01-06 2014-06-25 宇龙计算机通信科技(深圳)有限公司 用户表情头像的生成方法及通信终端
US9639742B2 (en) * 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
CN104902185B (zh) * 2015-05-29 2018-06-01 努比亚技术有限公司 拍摄方法及装置
CN105787976A (zh) * 2016-02-24 2016-07-20 深圳市金立通信设备有限公司 一种处理图片的方法和装置
CN109120866B (zh) * 2018-09-27 2020-04-03 腾讯科技(深圳)有限公司 动态表情生成方法、装置、计算机可读存储介质和计算机设备
CN110046955A (zh) * 2019-03-12 2019-07-23 平安科技(深圳)有限公司 基于人脸识别的营销方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN110807408B (zh) 2022-08-19
CN110807408A (zh) 2020-02-18

Similar Documents

Publication Publication Date Title
US11978245B2 (en) Method and apparatus for generating image
US11303590B2 (en) Suggested responses based on message stickers
JP6625789B2 (ja) 言語モデルを用いたメッセージ内受信画像に対する自動提案応答
US10504268B1 (en) Systems and methods for generating facial expressions in a user interface
US10635893B2 (en) Identity authentication method, terminal device, and computer-readable storage medium
US11670055B1 (en) Facial expression tracking during augmented and virtual reality sessions
CN107609506B (zh) 用于生成图像的方法和装置
CN109981787B (zh) 用于展示信息的方法和装置
US20220342645A1 (en) Automated generation of software applications using analysis of submitted content items
CN109189544B (zh) 用于生成表盘的方法和装置
EP4165607A1 (en) Machine learning in augmented reality content items
Singh et al. Mobile Deep Learning with TensorFlow Lite, ML Kit and Flutter: Build scalable real-world projects to implement end-to-end neural networks on Android and iOS
CN112330533A (zh) 混血人脸图像生成方法、模型训练方法、装置和设备
CN113703585A (zh) 交互方法、装置、电子设备及存储介质
CN112990043A (zh) 一种服务交互方法、装置、电子设备及存储介质
CN110232920B (zh) 语音处理方法和装置
CN110807408B (zh) 人物属性识别方法及装置
CN115116295A (zh) 关联性交互训练展示方法、系统、设备及存储介质
US20170201592A1 (en) Contextual user experience
CN113900751A (zh) 一种合成虚拟形象的方法、装置、服务器和存储介质
CN109584012B (zh) 用于生成物品推送信息的方法和装置
CN112446720B (zh) 一种广告显示方法及装置
CN114008590B (zh) 使用执行块提供辅助用户界面
CN117632109A (zh) 虚拟数字助手构建方法、装置、电子设备以及存储介质
CN112667881A (zh) 用于生成信息的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination