CN106874265A - 一种与用户情绪匹配的内容输出方法、电子设备及服务器 - Google Patents

一种与用户情绪匹配的内容输出方法、电子设备及服务器 Download PDF

Info

Publication number
CN106874265A
CN106874265A CN201510908626.7A CN201510908626A CN106874265A CN 106874265 A CN106874265 A CN 106874265A CN 201510908626 A CN201510908626 A CN 201510908626A CN 106874265 A CN106874265 A CN 106874265A
Authority
CN
China
Prior art keywords
user
emotional state
content
behavioural information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510908626.7A
Other languages
English (en)
Other versions
CN106874265B (zh
Inventor
欧鸿达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHENZHEN XINCHUANGKE ELECTRONIC TECHNOLOGY Co Ltd
Original Assignee
SHENZHEN XINCHUANGKE ELECTRONIC TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN XINCHUANGKE ELECTRONIC TECHNOLOGY Co Ltd filed Critical SHENZHEN XINCHUANGKE ELECTRONIC TECHNOLOGY Co Ltd
Priority to CN201510908626.7A priority Critical patent/CN106874265B/zh
Publication of CN106874265A publication Critical patent/CN106874265A/zh
Application granted granted Critical
Publication of CN106874265B publication Critical patent/CN106874265B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及计算机技术领域,提供了一种与用户情绪匹配的内容输出方法、电子设备及服务器。其中,与用户情绪匹配的内容输出方法包括:获取用户的行为信息;根据所述行为信息分析用户的情绪状态;调取与所述情绪状态相匹配的内容;输出与所述情绪状态相匹配的内容。本发明实施例可根据用户的情绪状态推送与孩子情绪状态相应的内容,并可与用户进行互动,引导用户往开心、快乐的状态转变,而不只是根据用户的操作输出对应的内容,能实现人工智能的陪伴效果。

Description

一种与用户情绪匹配的内容输出方法、电子设备及服务器
技术领域
本发明涉及计算机技术领域,尤其涉及一种与用户情绪匹配的内容输出方法、电子设备及服务器。
背景技术
电子玩具是一种运用电子技术、采用电子元器件来控制动作或产生各种声光效果的机动玩具,按产品的工艺技术及功能结构可分为声控玩具、光控玩具、遥控玩具、机械玩具、气动玩具、电动玩具等。目前,大部分电子玩具都是通过接收用户的操作,然后对该操作做出回应,如电子玩具接收用户按压控制按钮后,向用户输出一首儿歌;再如电子玩具接收到用户通过遥控器发射的红外信号时,往预设方向移动,等等。这些电子玩具能够给孩子们带来极大的乐趣。
上述电子玩具的内容输出方式存在的问题是,无法根据孩子的情绪状态推送与孩子情绪状态相应的内容,不能达到真实的人在孩子身边的陪伴效果。
发明内容
本发明实施例公开了一种与用户情绪匹配的内容输出方法、电子设备及服务器,能够推送与用户情绪同步的内容。
本发明实施例技术方案如下:
(1)一种与用户情绪匹配的内容输出方法,包括:
获取用户的行为信息;
根据所述行为信息分析用户的情绪状态;
调取与所述情绪状态相匹配的内容;
输出与所述情绪状态相匹配的内容。
进一步地,所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语。
进一步地,所述语音包括语速和/或音调和/或音量信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息。
进一步地,所述根据所述行为信息分析用户的情绪状态具体为:
分析语音的语速和/或音调和/或音量;
将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态。
进一步地,所述面部表情包括面部特征信息,所述获取用户的行为信息具体为通过拍摄用户的面部图像获取用户的行为信息。
进一步地,所述根据所述行为信息分析用户的情绪状态具体为:
分析所述面部图像中的面部特征信息;
将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态。
进一步地,所述语句包括语意信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息。
进一步地,所述根据所述行为信息分析用户的情绪状态具体为:
分析语句的关键词汇;
将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
进一步地,所述情绪状态包括多个级别;
所述方法还包括:
判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态;
若是,则调取与用户当前情绪状态的上一级情绪状态相匹配的内容;
输出与用户当前情绪状态的上一级情绪状态相匹配的内容。
(2)一种与用户情绪匹配的内容输出的电子设备,包括:
行为信息获取模块,用于获取用户的行为信息;
情绪状态分析模块,用于根据所述行为信息分析用户的情绪状态;
内容调取模块,用于调取与所述情绪状态相匹配的内容;
内容输出模块,用于输出与所述情绪状态相匹配的内容。
进一步地,所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语。
进一步地,所述语音包括语速和/或音调和/或音量信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息。
进一步地,所述情绪状态分析模块包括:
语音分析模块,用于分析语音的语速和/或音调和/或音量;
情绪状态匹配模块,用于将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态。
进一步地,所述面部表情包括面部特征信息,所述获取用户的行为信息具体为通过拍摄用户的面部图像获取用户的行为信息。
进一步地,所述情绪状态分析模块包括:
面部特征信息分析模块,用于分析所述面部图像中的面部特征信息;
情绪状态匹配模块,用于将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态。
进一步地,所述语句包括语意信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息。
进一步地,所述情绪状态分析模块包括:
关键词汇分析模块,用于分析语句的关键词汇;
情绪状态匹配模块,用于将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
进一步地,所述情绪状态包括多个级别;
所述电子设备还包括:
情绪状态判断模块,用于判断用户是否在超过持续预定时间处于同一情绪 状态和/或上一级情绪状态;
积极的内容调取模块,用于当用户在超过持续预定时间处于同一情绪状态和/或上一级情绪状态时,调取与用户当前情绪状态的上一级情绪状态相匹配的内容;
积极的内容输出模块,用于输出与用户当前情绪状态的上一级情绪状态相匹配的内容。
(3)一种与用户情绪匹配的内容输出方法,包括:
获取用户的行为信息并发送给服务器,以使服务器根据所述行为信息分析用户的情绪状态,并调取与所述情绪状态相匹配的内容以推送给电子设备;
输出服务器推送的与所述情绪状态相匹配的内容。
进一步地,所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语。
进一步地,所述语音包括语速和/或音调和/或音量信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息。
进一步地,所述面部表情包括面部特征信息,所述获取用户的行为信息具体为通过拍摄用户的面部图像获取用户的行为信息。
进一步地,所述语句包括语意信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息。
进一步地,所述情绪状态包括多个级别;
所述方法还包括:
获取用户的行为信息并发送给服务器,以使服务器根据所述行为信息判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态,若是,则调取与用户当前情绪状态的上一级情绪状态相匹配的内容以推送给电子设备;
输出服务器推送的与用户当前情绪状态的上一级情绪状态相匹配的内容。
(4)一种与用户情绪匹配的内容输出的电子设备,包括:
行为信息获取模块,用于获取用户的行为信息并发送给服务器,以使服务器根据所述行为信息分析用户的情绪状态,并调取与所述情绪状态相匹配的内容以推送给电子设备;
内容输出模块,用于输出与所述情绪状态相匹配的内容。
进一步地,所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语。
进一步地,所述语音包括语速和/或音调和/或音量信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息。
进一步地,所述面部表情包括面部特征信息,所述获取用户的行为信息具体为通过拍摄用户的面部图像获取用户的行为信息。
进一步地,所述语句包括语意信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息。
进一步地,所述情绪状态包括多个级别;
所述电子设备还包括:
行为信息再次获取模块,用于获取用户的行为信息并发送给服务器,以使服务器根据所述行为信息判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态,若是,则调取与用户当前情绪状态的上一级情绪状态相匹配的内容以推送给电子设备;
积极的内容输出模块,用于输出服务器推送的与用户当前情绪状态的上一级情绪状态相匹配的内容。
(5)一种与用户情绪匹配的内容输出方法,包括:
接收电子设备推送的用户行为信息,根据所述行为信息分析用户的情绪状态;
调取与所述情绪状态相匹配的内容并推送给电子设备。
进一步地,所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语。
进一步地,所述语音包括语速和/或音调和/或音量信息。
进一步地,所述根据所述行为信息分析用户的情绪状态具体为:
分析语音的语速和/或音调和/或音量;
将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态。
进一步地,所述面部表情包括面部特征信息。
进一步地,所述根据所述行为信息分析用户的情绪状态具体为:
分析所述面部图像中的面部特征信息;
将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态。
进一步地,所述语句包括语意信息。
进一步地,所述根据所述行为信息分析用户的情绪状态具体为:
分析语句的关键词汇;
将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
进一步地,所述情绪状态包括多个级别;
所述方法还包括:
接收电子设备推送的用户行为信息,根据所述行为信息判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态;
当用户在超过持续预定时间处于同一情绪状态和/或上一级情绪状态时,调取与用户当前情绪状态的上一级情绪状态相匹配的内容并推送给电子设备。
(6)一种与用户情绪匹配的内容输出的服务器,包括:
行为信息接收和情绪状态分析模块,用于接收电子设备推送的用户行为信息,根据所述行为信息分析用户的情绪状态;
内容调取和推送模块,用于调取与所述情绪状态相匹配的内容并推送给电子设备。
进一步地,所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语。
进一步地,所述语音包括语速和/或音调和/或音量信息。
进一步地,所述行为信息接收和情绪状态分析模块包括:
语音分析模块,用于分析语音的语速和/或音调和/或音量;
情绪状态匹配模块,用于将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态。
进一步地,所述面部表情包括面部特征信息。
进一步地,所述行为信息接收和情绪状态分析模块包括:
面部特征信息分析模块,用于分析所述面部图像中的面部特征信息;
情绪状态匹配模块,用于将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态。
进一步地,所述语句包括语意信息。
进一步地,所述行为信息接收和情绪状态分析模块包括:
关键词汇分析模块,用于分析语句的关键词汇;
情绪状态匹配模块,用于将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
进一步地,所述情绪状态包括多个级别;
所述服务器还包括:
行为信息接收和情绪状态判断模块,用于接收电子设备推送的用户行为信息,根据所述行为信息判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态;
积极的内容调取和推送模块,用于当用户在超过持续预定时间处于同一情绪状态和/或上一级情绪状态时,调取与用户当前情绪状态的上一级情绪状态相匹配的内容并推送给电子设备。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图
1是本发明实施例所涉及的终端的结构示意
2是本发明实施例1的与用户情绪匹配的内容输出方法的流程
3是本发明实施例2的与用户情绪匹配的内容输出的电子设备的结构框
4是本发明实施例3的与用户情绪匹配的内容输出方法的流程
5是本发明实施例4的与用户情绪匹配的内容输出的电子设备的结构框
6是本发明实施例5的与用户情绪匹配的内容输出方法的流程
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,术语“包括”和“具有”以及它们任何变形,意在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
图中如无特殊说明,虚线部分代表优选实施方式的内容。
本发明实施例方法涉及的硬件运行环境可以为服务器、电子设备等终端,所述电子设备包括但不限于智能玩具(智能娃娃、智能公仔等)、可穿戴设备(智能手表、智能手环、计步器等)、教育电子产品(故事机、点读机)、陪伴机器人等。如图 1所示,其示出了本发明实施例所涉及的终端的结构示意,该终端可以用于实施以下实施例中提供的与用户情绪匹配的内容输出方法。
具体来讲:
终端100可以包括:包括有一个或一个以上计算机可读存储介质的存储器110、输入单元120、显示单元130、音频电路140、包括有一个或者一个以上处理核心的处理器150、以及电源160等部件。本领域技术人员可以理解, 1中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
存储器110可用于存储软件程序以及模块,处理器150通过运行存储在存储器110的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器110可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端100的使用所创建的数据(比如音频数据等)等。此外,存储器110可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器110还可以包括存储器控制器,以提供处理器150和输入单元120对存储器120的访问。
输入单元120可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,输入单元120包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元130可用于显示由用户输入的信息或提供给用户的信息以及终端 100的各种图形用户接口,这些图形用户接口可以由图形、文本、标、视频和其任意组合来构成。显示单元130可包括显示面板131,可选的,可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)等形式来配置显示面板131。
音频电路140、扬声器141,传声器142可提供用户与终端100之间的音频接口。音频电路140可将接收到的音频数据转换后的电信号,传输到扬声器141,由扬声器141转换为声音信号输出;另一方面,传声器142将收集的声音信号转换为电信号,由音频电路140接收后转换为音频数据,再将音频数据输出处理器150处理后,发送给比如另一终端,或者将音频数据输出至存储器110以便进一步处理。音频电路140还可能包括耳塞插孔,以提供外设耳机与终端100的通信。
处理器150是终端100的控制中心,利用各种接口和线路连接整个终端的各个部分,通过运行或执行存储在存储器110内的软件程序和/或模块,以及调用存储在存储器110内的数据,执行终端100的各种功能和处理数据,从而对终端100进行整体监控。可选的,处理器150可包括一个或多个处理核心;优选的,处理器150可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器150中。
终端100还包括给各个部件供电的电源160(比如电池),优选的,电源160可以通过电源管理系统与处理器150逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源160还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管未示出,终端100还可以包括摄像头、蓝牙模块等,在此不再赘述。具体在本实施例中,终端100的显示单元是触摸屏显示器,终端100还包括有一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器110中,且经配置以由一个或者一个以上处理器150执行。
实施例1:
请参见 2 2是本发明实施例1提供的一种与用户情绪匹配的内容输出方法的流程,本实施例从电子设备侧进行说明,该方法包括:
S101,获取用户的行为信息。
其中,用户的行为信息包括多种,例如语音(主要包括语速和/或音调和/或音量信息)、面部表情(主要包括面部特征信息)、语句(主要包括语意信息)等。当行为信息为语音(主要包括语速和/或音调和/或音量信息)时,通过录制用户的语音输入获取用户的行为信息;当行为信息为面部表情(主要包括面部特征信息)时,通过拍摄用户的面部图像获取用户的行为信息;当行为信息为语句(主要包括语意信息)时,也是通过录制用户的语音输入获取用户的行为信息。
S102,根据所述行为信息分析用户的情绪状态。
其中,用户的情绪状态包括高兴、害怕、生气、悲伤、紧张等。分析用户的情绪状态可通过多种方式,例如通过分析用户的语音或语句获取用户的情绪状态,或者通过调用摄像头获取用户的面部表情后分析用户的情绪状态,具体为:
(1)通过分析用户的语音获取用户的情绪状态:
对所述语音进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语速和/或音调和/或音量信息,从而判断孩子可能的情绪状态。包括:
步骤A1,分析语音的语速和/或音调和/或音量。
步骤A2,将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态。
其中,预存储的不同情绪的语速和/或音调和/或音量表中包含有不同情绪所对应的语速和/或音调和/或音量区间。当音调较低、语速较慢、音量较小时,孩子可能处于悲伤的状态,当音调较高、语速较快、音量较高时,孩子可能处于高兴的状态,等等。
语速主要与用户说话的字节频率相关,可以预先将不同的用户说话字节频率区间与不同情绪状态相对应设置好,存储为不同情绪的语速表;语调主要与用户说话的声波振动频率相关,可以预先将不同的用户说话声波振动频率区间与不同情绪状态相对应设置好,存储为不同情绪的语调表;音量无需其他参数体现,直接表现为用户说话的音量,可以预先将不同的用户说话音量区间与不同情绪状态相对应设置好,存储为不同情绪的音量表。
(2)通过分析用户的面部表情获取用户的情绪状态:
对所述面部图像进行面部表情分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内时,玩具可以拍下孩子的面部,通过分析面部特征信息,从而判断孩子可能的情绪状态。包括:
步骤B1,分析所述面部图像中的面部特征信息。
步骤B2,将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态。
其中,预存储的不同情绪的面部特征信息表中包含有不同情绪所对应的面部特征信息。面部特征信息包括眉毛方向、两个眉毛之间的距离、眼睛大小、眼角朝向、瞳孔大小、嘴角朝向、嘴巴大小、等。不同的面部特征信息对应不同的情绪状态,均预存储在不同情绪的面部特征信息表中
(3)通过分析用户的语句获取用户的情绪状态:
对所述语句的语意信息进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语句的语意信息,从而判断孩子可能的情绪状态。包括:
步骤C1,分析语句的关键词汇。
步骤C2,将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
其中,预存储的不同情绪的关键词汇表中包含有不同情绪所对应的关键词汇的对应关系,关键词汇包括代表不同情绪状态的词汇,例如开心、害怕、伤心、不舒服等等,通过将关键词汇与不同情绪状态相对应,预存储到不同情绪的关键词汇表中,当分析出用户的语句中包括某个关键词汇时,识别出用户此时的情绪状态。S103,调取与所述情绪状态相匹配的内容。
其中,本实施例需要预先存储情绪状态与内容的匹配关系,内容包括语音(例如预先录制好的“小明,我知道你生气了,我们不唱歌了,咱们说说话”、“小明,你高兴的话,咱们唱唱歌吧”、“小明,不要害怕,妈妈一会就回来了”等可以与用户之间互动的语音)、歌曲、视频、图片等。本步骤中,可直接根据情绪状态与内容的匹配关系调取与该情绪状态相匹配的内容。
在实际操作中,在用户的情绪状态为高兴时,调取歌曲、卡通动画视频等内容;在用户的情绪状态为害怕时,调取抚慰的语音、舒缓的歌曲、包括父母画面的视频、照片等;在用户的情绪状态为生气时,调取劝导的语音、让用户开心的视频等;在用户的情绪状态为悲伤时,调取安慰的语音;等等。以上匹配关系可以是自定义的,也可以是系统预定义好的。
进一步地,还可以对上述情绪状态进行分级,对不同级别的不同情绪状态匹配不同的内容。
需要说明的是,本步骤中根据所述行为信息分析用户的情绪状态可依照特定的标准进行,也即预存储的不同情绪的语速和/或音调和/或音量表、预存储的不同情绪的面部特征信息表、预存储的不同情绪的关键词汇表可以根据特定的标准建立,例如喜、怒、忧、思、悲、恐、惊七情说,或者悲痛、恐惧、惊奇、接受、狂喜、狂怒、警惕、憎恨,或者按照专家库、大数据分析、心理学分类来建立,当然,还可以通过用户自定义的方式建立上述表格,以实现情绪状态的分析,以下实施例含义与本实施例相同。
S104,输出与所述情绪状态相匹配的内容。
其中,调取到与该情绪状态相匹配的内容后,可直接输出该内容。
请参见 2,在一优选实施方式中,在步骤S104之后,还包括:返回执行步骤S101,并循环执行上述步骤。
在一优选实施例中,所述情绪状态包括多个级别;所述方法还包括:
判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态;
若是,则调取与用户当前情绪状态的上一级情绪状态相匹配的内容;
输出与用户当前情绪状态的上一级情绪状态相匹配的内容。
也即在用户情绪处于低落、激动等不稳定状态时,给用户输出与其当时的情绪状态相匹配的内容,在这之后,等用户的情绪状态回复到稳定状态或者更佳状态时,调取上一级别的情绪状态的内容(也即更积极的内容)并输出给用户,以引导用户逐步调整情绪状态到最开心(快乐)的状态。
本发明实施例可根据用户的情绪状态推送与孩子情绪状态相应的内容,并 可与用户进行互动,引导用户往开心、快乐的状态转变,而不只是根据用户的操作输出对应的内容,能实现人工智能的陪伴效果。
实施例2
请参见 3 3是本发明实施例2提供的一种与用户情绪匹配的内容输出的电子设备200的结构框,该电子设备200包括:行为信息获取模块210、情绪状态分析模块220、内容调取模块230和内容输出模块240。
行为信息获取模块210用于获取用户的行为信息。
其中,用户的行为信息包括多种,例如语音(主要包括语速和/或音调和/或音量信息)、面部表情(主要包括面部特征信息)、语句(主要包括语意信息)等。当行为信息为语音(主要包括语速和/或音调和/或音量信息)时,通过录制用户的语音输入获取用户的行为信息;当行为信息为面部表情(主要包括面部特征信息)时,通过拍摄用户的面部图像获取用户的行为信息;当行为信息为语句(主要包括语意信息)时,也是通过录制用户的语音输入获取用户的行为信息。
情绪状态分析模块220用于根据所述行为信息分析用户的情绪状态。
其中,用户的情绪状态包括高兴、害怕、生气、悲伤、紧张等。分析用户的情绪状态可通过多种方式,例如通过分析用户的语音或语句获取用户的情绪状态,或者通过调用摄像头获取用户的面部表情后分析用户的情绪状态,具体为:
(1)通过分析用户的语音获取用户的情绪状态:
对所述语音进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语速和/或音调和/或音量信息,从而判断孩子可能的情绪状态。此时情绪状态分析模块220包括语音分析模块和情绪状态匹配模块,其中:
语音分析模块用于分析语音的语速和/或音调和/或音量。
情绪状态匹配模块用于将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态。
其中,预存储的不同情绪的语速和/或音调和/或音量表中包含有不同情绪所对应的语速和/或音调和/或音量区间。当音调较低、语速较慢、音量较小时,孩子可能处于悲伤的状态,当音调较高、语速较快、音量较高时,孩子可能处于高兴的状态,等等。
语速主要与用户说话的字节频率相关,可以预先将不同的用户说话字节频率区间与不同情绪状态相对应设置好,存储为不同情绪的语速表;语调主要与用户说话的声波振动频率相关,可以预先将不同的用户说话声波振动频率区间与不同情绪状态相对应设置好,存储为不同情绪的语调表;音量无需其他参数体现,直接表现为用户说话的音量,可以预先将不同的用户说话音量区间与不同情绪状态相对应设置好,存储为不同情绪的音量表。
(2)通过分析用户的面部表情获取用户的情绪状态:
对所述面部图像进行面部表情分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内时,玩具可以拍下孩子的面部,通过分析面部特征信息,从而判断孩子可能的情绪状态。此时情绪状态分析模块220包括面部特征信息分析模块和情绪状态匹配模块,其中:
面部特征信息分析模块用于分析所述面部图像中的面部特征信息。
情绪状态匹配模块用于将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态。
其中,预存储的不同情绪的面部特征信息表中包含有不同情绪所对应的面部特征信息。面部特征信息包括眉毛方向、两个眉毛之间的距离、眼睛大小、眼角朝向、瞳孔大小、嘴角朝向、嘴巴大小、等。不同的面部特征信息对应不同的情绪状态,均预存储在不同情绪的面部特征信息表中
(3)通过分析用户的语句获取用户的情绪状态:
对所述语句的语意信息进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语句的语意信息,从而判断孩子可能的情绪状态。此时情绪状态分析模块220包括关键词汇分析模块和情绪状态匹配模块,其中:
关键词汇分析模块用于分析语句的关键词汇。
情绪状态匹配模块用于将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
其中,预存储的不同情绪的关键词汇表中包含有不同情绪所对应的关键词汇的对应关系,关键词汇包括代表不同情绪状态的词汇,例如开心、害怕、伤心、不舒服等等,通过将关键词汇与不同情绪状态相对应,预存储到不同情绪的关键词汇表中,当分析出用户的语句中包括某个关键词汇时,识别出用户此时的情绪状态。
内容调取模块230用于调取与所述情绪状态相匹配的内容。
其中,本实施例需要预先存储情绪状态与内容的匹配关系,内容包括语音(例如预先录制好的“小明,我知道你生气了,我们不唱歌了,咱们说说话”、“小明,你高兴的话,咱们唱唱歌吧”、“小明,不要害怕,妈妈一会就回来了”等可以与用户之间互动的语音)、歌曲、视频、图片等。可直接根据情绪状态与内容的匹配关系调取与该情绪状态相匹配的内容。
在实际操作中,在用户的情绪状态为高兴时,调取歌曲、卡通动画视频等内容;在用户的情绪状态为害怕时,调取抚慰的语音、舒缓的歌曲、包括父母画面的视频、照片等;在用户的情绪状态为生气时,调取劝导的语音、让用户开心的视频等;在用户的情绪状态为悲伤时,调取安慰的语音;等等。以上匹配关系可以是自定义的,也可以是系统预定义好的。
进一步地,还可以对上述情绪状态进行分级,对不同级别的不同情绪状态匹配不同的内容。
内容输出模块240用于输出与所述情绪状态相匹配的内容。
其中,调取到与该情绪状态相匹配的内容后,可直接输出该内容。
进一步地,所述情绪状态包括多个级别;
所述电子设备200还包括:
情绪状态判断模块,用于判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态;
积极的内容调取模块,用于当用户在超过持续预定时间处于同一情绪状态和/或上一级情绪状态时,调取与用户当前情绪状态的上一级情绪状态相匹配的内容;
积极的内容输出模块,用于输出与用户当前情绪状态的上一级情绪状态相匹配的内容。
也即在用户情绪处于低落、激动等不稳定状态时,给用户输出与其当时的情绪状态相匹配的内容,在这之后,等用户的情绪状态回复到稳定状态或者更佳状态时,调取上一级别的情绪状态的内容(也即更积极的内容)并输出给用户,以引导用户逐步调整情绪状态到最开心(快乐)的状态。
本发明实施例可根据用户的情绪状态推送与孩子情绪状态相应的内容,并可与用户进行互动,引导用户往开心、快乐的状态转变,而不只是根据用户的操作输出对应的内容,能实现人工智能的陪伴效果。
实施例3
请参见 4 4是本发明实施例3提供的一种与用户情绪匹配的内容输出方法的流程,与实施例1的区别是,本实施例中用户情绪状态的分析,以及内容的匹配和推送是在服务器端完成的,电子设备和服务器之间通过网络通信进行信息传输。本实施例从电子设备侧进行说明,该方法包括:
S301,获取用户的行为信息并发送给服务器,以使服务器根据所述行为信息分析用户的情绪状态,并调取与所述情绪状态相匹配的内容以推送给电子设备。
其中,用户的行为信息包括多种,例如语音(主要包括语速和/或音调和/或音量信息)、面部表情(主要包括面部特征信息)、语句(主要包括语意信息)等。当行为信息为语音(主要包括语速和/或音调和/或音量信息)时,通过录制用户的语音输入获取用户的行为信息;当行为信息为面部表情(主要包括面部特征信息)时,通过拍摄用户的面部图像获取用户的行为信息;当行为信息为语句(主要包括语意信息)时,也是通过录制用户的语音输入获取用户的行为信息。
用户的情绪状态包括高兴、害怕、生气、悲伤、紧张等。服务器分析用户的情绪状态可通过多种方式,例如通过分析用户的语音或语句获取用户的情绪状态,或者通过调用摄像头获取用户的面部表情后分析用户的情绪状态,具体为:
(1)通过分析用户的语音获取用户的情绪状态:
对所述语音进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语速和/或音调和/或音量信息,从而判断孩子可能的情绪状态。包括:
步骤A1,分析语音的语速和/或音调和/或音量。
步骤A2,将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态。
其中,预存储的不同情绪的语速和/或音调和/或音量表中包含有不同情绪所对应的语速和/或音调和/或音量区间。当音调较低、语速较慢、音量较小时,孩子可能处于悲伤的状态,当音调较高、语速较快、音量较高时,孩子可能处于高兴的状态,等等。
语速主要与用户说话的字节频率相关,可以预先将不同的用户说话字节频率区间与不同情绪状态相对应设置好,存储为不同情绪的语速表;语调主要与用户说话的声波振动频率相关,可以预先将不同的用户说话声波振动频率区间与不同情绪状态相对应设置好,存储为不同情绪的语调表;音量无需其他参数体现,直接表现为用户说话的音量,可以预先将不同的用户说话音量区间与不同情绪状态相对应设置好,存储为不同情绪的音量表。
(2)通过分析用户的面部表情获取用户的情绪状态:
对所述面部图像进行面部表情分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内时,玩具可以拍下孩子的面部,通过分析面部特征信息,从而判断孩子可能的情绪状态。包括:
步骤B1,分析所述面部图像中的面部特征信息。
步骤B2,将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态。
其中,预存储的不同情绪的面部特征信息表中包含有不同情绪所对应的面部特征信息。面部特征信息包括眉毛方向、两个眉毛之间的距离、眼睛大小、眼角朝向、瞳孔大小、嘴角朝向、嘴巴大小、等。不同的面部特征信息对应不同的情绪状态,均预存储在不同情绪的面部特征信息表中
(3)通过分析用户的语句获取用户的情绪状态:
对所述语句的语意信息进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语句的语意信息,从而判断孩子可能的情绪状态。包括:
步骤C1,分析语句的关键词汇。
步骤C2,将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
其中,预存储的不同情绪的关键词汇表中包含有不同情绪所对应的关键词汇的对应关系,关键词汇包括代表不同情绪状态的词汇,例如开心、害怕、伤心、不舒服等等,通过将关键词汇与不同情绪状态相对应,预存储到不同情绪的关键词汇表中,当分析出用户的语句中包括某个关键词汇时,识别出用户此时的情绪状态。
本实施例需要预先存储情绪状态与内容的匹配关系,内容包括语音(例如预先录制好的“小明,我知道你生气了,我们不唱歌了,咱们说说话”、“小明,你高兴的话,咱们唱唱歌吧”、“小明,不要害怕,妈妈一会就回来了”等可以 与用户之间互动的语音)、歌曲、视频、图片等。本步骤中,可直接根据情绪状态与内容的匹配关系调取与该情绪状态相匹配的内容。
在实际操作中,在用户的情绪状态为高兴时,调取歌曲、卡通动画视频等内容;在用户的情绪状态为害怕时,调取抚慰的语音、舒缓的歌曲、包括父母画面的视频、照片等;在用户的情绪状态为生气时,调取劝导的语音、让用户开心的视频等;在用户的情绪状态为悲伤时,调取安慰的语音;等等。以上匹配关系可以是自定义的,也可以是系统预定义好的。
进一步地,还可以对上述情绪状态进行分级,对不同级别的不同情绪状态匹配不同的内容。
S302,输出服务器推送的与所述情绪状态相匹配的内容。
其中,电子设备接收到服务器推送的与该情绪状态相匹配的内容后,直接输出该内容。
请参见 4,在一优选实施方式中,在步骤S302之后,还包括:返回执行步骤S301,并循环执行上述步骤。
进一步地,所述情绪状态包括多个级别;
所述方法还包括:
获取用户的行为信息并发送给服务器,以使服务器根据所述行为信息判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态,若是,则调取与用户当前情绪状态的上一级情绪状态相匹配的内容以推送给电子设备;
输出服务器推送的与用户当前情绪状态的上一级情绪状态相匹配的内容。
也即在用户情绪处于低落、激动等不稳定状态时,给用户输出与其当时的情绪状态相匹配的内容,在这之后,等用户的情绪状态回复到稳定状态或者更佳状态时,调取上一级别的情绪状态的内容(也即更积极的内容)并输出给用户,以引导用户逐步调整情绪状态到最开心(快乐)的状态。
本发明实施例可根据用户的情绪状态推送与孩子情绪状态相应的内容,并可与用户进行互动,引导用户往开心、快乐的状态转变,而不只是根据用户的操作输出对应的内容,能实现人工智能的陪伴效果。本实施例的用户情绪状态的分析,以及内容的匹配和推送是在服务器端完成的,电子设备和服务器之间通过网络通信进行信息传输,该方式通过调用服务器强大的处理能力和丰富的存储资源,处理速度更快,内容推送效果更好。
实施例4
请参见 5 5是本发明实施例4提供的一种与用户情绪匹配的内容输出的电子设备300的结构框,与实施例2的区别是,本实施例中用户情绪状态的分析,以及内容的匹配和推送是在服务器端完成的,电子设备300和服务器之间通过网络通信进行信息传输。该电子设备300包括:行为信息获取模块310和内容输出模块320。
行为信息获取模块310用于获取用户的行为信息并发送给服务器,以使服务器根据所述行为信息分析用户的情绪状态,并调取与所述情绪状态相匹配的 内容以推送给电子设备300。
其中,用户的行为信息包括多种,例如语音(主要包括语速和/或音调和/或音量信息)、面部表情(主要包括面部特征信息)、语句(主要包括语意信息)等。当行为信息为语音(主要包括语速和/或音调和/或音量信息)时,通过录制用户的语音输入获取用户的行为信息;当行为信息为面部表情(主要包括面部特征信息)时,通过拍摄用户的面部图像获取用户的行为信息;当行为信息为语句(主要包括语意信息)时,也是通过录制用户的语音输入获取用户的行为信息。
其中,用户的情绪状态包括高兴、害怕、生气、悲伤、紧张等。服务器分析用户的情绪状态可通过多种方式,例如通过分析用户的语音或语句获取用户的情绪状态,或者通过调用摄像头获取用户的面部表情后分析用户的情绪状态,具体为:
(1)通过分析用户的语音获取用户的情绪状态:
对所述语音进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语速和/或音调和/或音量信息,从而判断孩子可能的情绪状态。包括:
分析语音的语速和/或音调和/或音量;
将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态。
其中,预存储的不同情绪的语速和/或音调和/或音量表中包含有不同情绪所对应的语速和/或音调和/或音量区间。当音调较低、语速较慢、音量较小时,孩子可能处于悲伤的状态,当音调较高、语速较快、音量较高时,孩子可能处于高兴的状态,等等。
语速主要与用户说话的字节频率相关,可以预先将不同的用户说话字节频率区间与不同情绪状态相对应设置好,存储为不同情绪的语速表;语调主要与用户说话的声波振动频率相关,可以预先将不同的用户说话声波振动频率区间与不同情绪状态相对应设置好,存储为不同情绪的语调表;音量无需其他参数体现,直接表现为用户说话的音量,可以预先将不同的用户说话音量区间与不同情绪状态相对应设置好,存储为不同情绪的音量表。
(2)通过分析用户的面部表情获取用户的情绪状态:
对所述面部图像进行面部表情分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内时,玩具可以拍下孩子的面部,通过分析面部特征信息,从而判断孩子可能的情绪状态。包括:
分析所述面部图像中的面部特征信息;
将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态。
其中,预存储的不同情绪的面部特征信息表中包含有不同情绪所对应的面部特征信息。面部特征信息包括眉毛方向、两个眉毛之间的距离、眼睛大小、眼角朝向、瞳孔大小、嘴角朝向、嘴巴大小、等。不同的面部特征信息对应不同的情绪状态,均预存储在不同情绪的面部特征信息表中
(3)通过分析用户的语句获取用户的情绪状态:
对所述语句的语意信息进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语句的语意信息,从而判断孩子可能的情绪状态。包括:
分析语句的关键词汇;
将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
其中,预存储的不同情绪的关键词汇表中包含有不同情绪所对应的关键词汇的对应关系,关键词汇包括代表不同情绪状态的词汇,例如开心、害怕、伤心、不舒服等等,通过将关键词汇与不同情绪状态相对应,预存储到不同情绪的关键词汇表中,当分析出用户的语句中包括某个关键词汇时,识别出用户此时的情绪状态。
本实施例需要预先存储情绪状态与内容的匹配关系,内容包括语音(例如预先录制好的“小明,我知道你生气了,我们不唱歌了,咱们说说话”、“小明,你高兴的话,咱们唱唱歌吧”、“小明,不要害怕,妈妈一会就回来了”等可以与用户之间互动的语音)、歌曲、视频、图片等。本步骤中,可直接根据情绪状态与内容的匹配关系调取与该情绪状态相匹配的内容。
在实际操作中,在用户的情绪状态为高兴时,调取歌曲、卡通动画视频等内容;在用户的情绪状态为害怕时,调取抚慰的语音、舒缓的歌曲、包括父母画面的视频、照片等;在用户的情绪状态为生气时,调取劝导的语音、让用户开心的视频等;在用户的情绪状态为悲伤时,调取安慰的语音;等等。以上匹配关系可以是自定义的,也可以是系统预定义好的。
进一步地,还可以对上述情绪状态进行分级,对不同级别的不同情绪状态匹配不同的内容。
内容输出模块320用于输出与所述情绪状态相匹配的内容。
其中,电子设备300接收到服务器推送的与该情绪状态相匹配的内容后,直接输出该内容。
进一步地,所述情绪状态包括多个级别;
所述电子设备300还包括:
行为信息再次获取模块,用于获取用户的行为信息并发送给服务器,以使服务器根据所述行为信息判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态,若是,则调取与用户当前情绪状态的上一级情绪状态相匹配的内容以推送给电子设备;
积极的内容输出模块,用于输出服务器推送的与用户当前情绪状态的上一级情绪状态相匹配的内容。
也即在用户情绪处于低落、激动等不稳定状态时,给用户输出与其当时的情绪状态相匹配的内容,在这之后,等用户的情绪状态回复到稳定状态或者更佳状态时,调取上一级别的情绪状态的内容(也即更积极的内容)并输出给用户,以引导用户逐步调整情绪状态到最开心(快乐)的状态。
本发明实施例可根据用户的情绪状态推送与孩子情绪状态相应的内容,并可与用户进行互动,引导用户往开心、快乐的状态转变,而不只是根据用户的操作输出对应的内容,能实现人工智能的陪伴效果。本实施例的用户情绪状态的分析,以及内容的匹配和推送是在服务器端完成的,电子设备300和服务器之间通过网络通信进行信息传输,该方式通过调用服务器强大的处理能力和丰富的存储资源,处理速度更快,内容推送效果更好。
实施例5
请参见 6 6是本发明实施例5提供的一种与用户情绪匹配的内容输出方法的流程,与实施例1的区别是,本实施例中用户情绪状态的分析,以及内容的匹配和推送是在服务器端完成的,电子设备和服务器之间通过网络通信进行信息传输。本实施例从服务器侧进行说明,该方法包括:
S501,接收电子设备推送的用户行为信息,根据所述行为信息分析用户的情绪状态;
其中,用户的行为信息包括多种,例如语音(主要包括语速和/或音调和/或音量信息)、面部表情(主要包括面部特征信息)、语句(主要包括语意信息)等。当行为信息为语音(主要包括语速和/或音调和/或音量信息)时,电子设备通过录制用户的语音输入获取用户的行为信息;当行为信息为面部表情(主要包括面部特征信息)时,电子设备通过拍摄用户的面部图像获取用户的行为信息;当行为信息为语句(主要包括语意信息)时,电子设备也是通过录制用户的语音输入获取用户的行为信息。
用户的情绪状态包括高兴、害怕、生气、悲伤、紧张等。分析用户的情绪状态可通过多种方式,例如通过分析用户的语音或语句获取用户的情绪状态,或者通过调用摄像头获取用户的面部表情后分析用户的情绪状态,具体为:
(1)通过分析用户的语音获取用户的情绪状态:
对所述语音进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语速和/或音调和/或音量信息,从而判断孩子可能的情绪状态。包括:
步骤A1,分析语音的语速和/或音调和/或音量。
步骤A2,将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态。
其中,预存储的不同情绪的语速和/或音调和/或音量表中包含有不同情绪所对应的语速和/或音调和/或音量区间。当音调较低、语速较慢、音量较小时,孩子可能处于悲伤的状态,当音调较高、语速较快、音量较高时,孩子可能处于高兴的状态,等等。
语速主要与用户说话的字节频率相关,可以预先将不同的用户说话字节频率区间与不同情绪状态相对应设置好,存储为不同情绪的语速表;语调主要与用户说话的声波振动频率相关,可以预先将不同的用户说话声波振动频率区间 与不同情绪状态相对应设置好,存储为不同情绪的语调表;音量无需其他参数体现,直接表现为用户说话的音量,可以预先将不同的用户说话音量区间与不同情绪状态相对应设置好,存储为不同情绪的音量表。
(2)通过分析用户的面部表情获取用户的情绪状态:
对所述面部图像进行面部表情分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内时,玩具可以拍下孩子的面部,通过分析面部特征信息,从而判断孩子可能的情绪状态。包括:
步骤B1,分析所述面部图像中的面部特征信息。
步骤B2,将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态。
其中,预存储的不同情绪的面部特征信息表中包含有不同情绪所对应的面部特征信息。面部特征信息包括眉毛方向、两个眉毛之间的距离、眼睛大小、眼角朝向、瞳孔大小、嘴角朝向、嘴巴大小、等。不同的面部特征信息对应不同的情绪状态,均预存储在不同情绪的面部特征信息表中
(3)通过分析用户的语句获取用户的情绪状态:
对所述语句的语意信息进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语句的语意信息,从而判断孩子可能的情绪状态。包括:
步骤C1,分析语句的关键词汇。
步骤C2,将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
其中,预存储的不同情绪的关键词汇表中包含有不同情绪所对应的关键词汇的对应关系,关键词汇包括代表不同情绪状态的词汇,例如开心、害怕、伤心、不舒服等等,通过将关键词汇与不同情绪状态相对应,预存储到不同情绪的关键词汇表中,当分析出用户的语句中包括某个关键词汇时,识别出用户此时的情绪状态。
S502,调取与所述情绪状态相匹配的内容并推送给电子设备。
本实施例需要预先存储情绪状态与内容的匹配关系,内容包括语音(例如预先录制好的“小明,我知道你生气了,我们不唱歌了,咱们说说话”、“小明,你高兴的话,咱们唱唱歌吧”、“小明,不要害怕,妈妈一会就回来了”等可以与用户之间互动的语音)、歌曲、视频、图片等。本步骤中,可直接根据情绪状态与内容的匹配关系调取与该情绪状态相匹配的内容。
在实际操作中,在用户的情绪状态为高兴时,调取歌曲、卡通动画视频等内容;在用户的情绪状态为害怕时,调取抚慰的语音、舒缓的歌曲、包括父母画面的视频、照片等;在用户的情绪状态为生气时,调取劝导的语音、让用户开心的视频等;在用户的情绪状态为悲伤时,调取安慰的语音;等等。以上匹配关系可以是自定义的,也可以是系统预定义好的。
进一步地,还可以对上述情绪状态进行分级,对不同级别的不同情绪状态匹配不同的内容。
电子设备接收到服务器推送的与该情绪状态相匹配的内容后,直接输出该 内容。
请参见 6,在一优选实施方式中,在步骤S502之后,还包括:返回执行步骤S501,并循环执行上述步骤。
进一步地,所述情绪状态包括多个级别;
所述方法还包括:
接收电子设备推送的用户行为信息,根据所述行为信息判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态;
当用户在超过持续预定时间处于同一情绪状态和/或上一级情绪状态时,调取与用户当前情绪状态的上一级情绪状态相匹配的内容并推送给电子设备。
也即在用户情绪处于低落、激动等不稳定状态时,给用户输出与其当时的情绪状态相匹配的内容,在这之后,等用户的情绪状态回复到稳定状态或者更佳状态时,调取上一级别的情绪状态的内容(也即更积极的内容)并输出给用户,以引导用户逐步调整情绪状态到最开心(快乐)的状态。
本发明实施例可根据用户的情绪状态推送与孩子情绪状态相应的内容,并可与用户进行互动,引导用户往开心、快乐的状态转变,而不只是根据用户的操作输出对应的内容,能实现人工智能的陪伴效果。本实施例的用户情绪状态的分析,以及内容的匹配和推送是在服务器端完成的,电子设备和服务器之间通过网络通信进行信息传输,该方式通过调用服务器强大的处理能力和丰富的存储资源,处理速度更快,内容推送效果更好。
实施例6
与实施例2的区别是,本实施例中用户情绪状态的分析,以及内容的匹配和推送是在服务器端完成的,电子设备和服务器之间通过网络通信进行信息传输。本实施例从服务器侧进行说明,该服务器包括:行为信息接收和情绪状态分析模块、内容调取和推送模块。
行为信息接收和情绪状态分析模块410用于接收电子设备推送的用户行为信息,根据所述行为信息分析用户的情绪状态。
其中,用户的行为信息包括多种,例如语音(主要包括语速和/或音调和/或音量信息)、面部表情(主要包括面部特征信息)、语句(主要包括语意信息)等。当行为信息为语音(主要包括语速和/或音调和/或音量信息)时,通过录制用户的语音输入获取用户的行为信息;当行为信息为面部表情(主要包括面部特征信息)时,通过拍摄用户的面部图像获取用户的行为信息;当行为信息为语句(主要包括语意信息)时,电子设备也是通过录制用户的语音输入获取用户的行为信息。
用户的情绪状态包括高兴、害怕、生气、悲伤、紧张等。分析用户的情绪状态可通过多种方式,例如通过分析用户的语音或语句获取用户的情绪状态,或者通过调用摄像头获取用户的面部表情后分析用户的情绪状态,具体为:
(1)通过分析用户的语音获取用户的情绪状态:
对所述语音进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语速和/或音调和/或音量信息,从而判断孩子可能的情绪状态。此时行为信息接收和情绪状态分析模块410包括语音分析模块和情绪状态匹配模块,其中:
语音分析模块用于分析语音的语速和/或音调和/或音量。
情绪状态匹配模块用于将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态。
其中,预存储的不同情绪的语速和/或音调和/或音量表中包含有不同情绪所对应的语速和/或音调和/或音量区间。当音调较低、语速较慢、音量较小时,孩子可能处于悲伤的状态,当音调较高、语速较快、音量较高时,孩子可能处于高兴的状态,等等。
语速主要与用户说话的字节频率相关,可以预先将不同的用户说话字节频率区间与不同情绪状态相对应设置好,存储为不同情绪的语速表;语调主要与用户说话的声波振动频率相关,可以预先将不同的用户说话声波振动频率区间与不同情绪状态相对应设置好,存储为不同情绪的语调表;音量无需其他参数体现,直接表现为用户说话的音量,可以预先将不同的用户说话音量区间与不同情绪状态相对应设置好,存储为不同情绪的音量表。
(2)通过分析用户的面部表情获取用户的情绪状态:
对所述面部图像进行面部表情分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内时,玩具可以拍下孩子的面部,通过分析面部特征信息,从而判断孩子可能的情绪状态。此时行为信息接收和情绪状态分析模块410包括面部特征信息分析模块和情绪状态匹配模块,其中:
面部特征信息分析模块用于分析所述面部图像中的面部特征信息。
情绪状态匹配模块用于将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态。
其中,预存储的不同情绪的面部特征信息表中包含有不同情绪所对应的面部特征信息。面部特征信息包括眉毛方向、两个眉毛之间的距离、眼睛大小、眼角朝向、瞳孔大小、嘴角朝向、嘴巴大小、等。不同的面部特征信息对应不同的情绪状态,均预存储在不同情绪的面部特征信息表中
(3)通过分析用户的语句获取用户的情绪状态:
对所述语句的语意信息进行分析,根据分析结果判断用户的情绪状态。例如,当孩子在玩具的有效范围内开始说话时,玩具可以录制孩子的语音,通过分析语句的语意信息,从而判断孩子可能的情绪状态。此时行为信息接收和情绪状态分析模块410包括关键词汇分析模块和情绪状态匹配模块,其中:
关键词汇分析模块用于分析语句的关键词汇。
情绪状态匹配模块用于将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
其中,预存储的不同情绪的关键词汇表中包含有不同情绪所对应的关键词汇的对应关系,关键词汇包括代表不同情绪状态的词汇,例如开心、害怕、伤 心、不舒服等等,通过将关键词汇与不同情绪状态相对应,预存储到不同情绪的关键词汇表中,当分析出用户的语句中包括某个关键词汇时,识别出用户此时的情绪状态。
内容调取和推送模块420用于调取与所述情绪状态相匹配的内容并推送给电子设备。
本实施例需要预先存储情绪状态与内容的匹配关系,内容包括语音(例如预先录制好的“小明,我知道你生气了,我们不唱歌了,咱们说说话”、“小明,你高兴的话,咱们唱唱歌吧”、“小明,不要害怕,妈妈一会就回来了”等可以与用户之间互动的语音)、歌曲、视频、图片等。本步骤中,可直接根据情绪状态与内容的匹配关系调取与该情绪状态相匹配的内容。
在实际操作中,在用户的情绪状态为高兴时,调取歌曲、卡通动画视频等内容;在用户的情绪状态为害怕时,调取抚慰的语音、舒缓的歌曲、包括父母画面的视频、照片等;在用户的情绪状态为生气时,调取劝导的语音、让用户开心的视频等;在用户的情绪状态为悲伤时,调取安慰的语音;等等。以上匹配关系可以是自定义的,也可以是系统预定义好的。
进一步地,还可以对上述情绪状态进行分级,对不同级别的不同情绪状态匹配不同的内容。
电子设备接收到服务器400推送的与该情绪状态相匹配的内容后,直接输出该内容。
进一步地,所述情绪状态包括多个级别;
所述服务器400还包括:
行为信息接收和情绪状态判断模块,用于接收电子设备推送的用户行为信息,根据所述行为信息判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态;
积极的内容调取和推送模块,用于当用户在超过持续预定时间处于同一情绪状态和/或上一级情绪状态时,调取与用户当前情绪状态的上一级情绪状态相匹配的内容并推送给电子设备。
也即在用户情绪处于低落、激动等不稳定状态时,给用户输出与其当时的情绪状态相匹配的内容,在这之后,等用户的情绪状态回复到稳定状态或者更佳状态时,调取上一级别的情绪状态的内容(也即更积极的内容)并输出给用户,以引导用户逐步调整情绪状态到最开心(快乐)的状态。
本发明实施例可根据用户的情绪状态推送与孩子情绪状态相应的内容,并可与用户进行互动,引导用户往开心、快乐的状态转变,而不只是根据用户的操作输出对应的内容,能实现人工智能的陪伴效果。本实施例的用户情绪状态的分析,以及内容的匹配和推送是在服务器400端完成的,电子设备和服务器400之间通过网络通信进行信息传输,该方式通过调用服务器400强大的处理能力和丰富的存储资源,处理速度更快,内容推送效果更好。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机 可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (10)

1.一种与用户情绪匹配的内容输出方法,其特征在于,包括:
获取用户的行为信息;
根据所述行为信息分析用户的情绪状态;
调取与所述情绪状态相匹配的内容;
输出与所述情绪状态相匹配的内容。
2.如权利要求1所述的与用户情绪匹配的内容输出方法,其特征在于,所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语。
3.如权利要求1所述的与用户情绪匹配的内容输出方法,其特征在于,所述语音包括语速和/或音调和/或音量信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息;
所述根据所述行为信息分析用户的情绪状态具体为:
分析语音的语速和/或音调和/或音量;
将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态;或者,
所述面部表情包括面部特征信息,所述获取用户的行为信息具体为通过拍摄用户的面部图像获取用户的行为信息;
所述根据所述行为信息分析用户的情绪状态具体为:
分析所述面部图像中的面部特征信息;
将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态;或者,
所述语句包括语意信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息;
所述根据所述行为信息分析用户的情绪状态具体为:
分析语句的关键词汇;
将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
4.如权利要求1所述的与用户情绪匹配的内容输出方法,其特征在于,所述情绪状态包括多个级别;
所述方法还包括:
判断用户是否在超过持续预定时间处于同一情绪状态和/或上一级情绪状态;
若是,则调取与用户当前情绪状态的上一级情绪状态相匹配的内容;
输出与用户当前情绪状态的上一级情绪状态相匹配的内容。
5.一种与用户情绪匹配的内容输出的电子设备,其特征在于,包括:
行为信息获取模块,用于获取用户的行为信息;
情绪状态分析模块,用于根据所述行为信息分析用户的情绪状态;
内容调取模块,用于调取与所述情绪状态相匹配的内容;
内容输出模块,用于输出与所述情绪状态相匹配的内容。
6.一种与用户情绪匹配的内容输出的电子设备,其特征在于,包括:
行为信息获取模块,用于获取用户的行为信息;
情绪状态分析模块,用于根据所述行为信息分析用户的情绪状态;
内容调取模块,用于调取与所述情绪状态相匹配的内容;
内容输出模块,用于输出与所述情绪状态相匹配的内容;
所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语;
所述语音包括语速和/或音调和/或音量信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息;
所述情绪状态分析模块包括:
语音分析模块,用于分析语音的语速和/或音调和/或音量;
情绪状态匹配模块,用于将所述分析出的语速和/或音调和/或音量与预存储的不同情绪的语速和/或音调和/或音量表匹配,获取分析出的语速和/或音调和/或音量所属的情绪状态;或者,
所述面部表情包括面部特征信息,所述获取用户的行为信息具体为通过拍摄用户的面部图像获取用户的行为信息;
所述情绪状态分析模块包括:
面部特征信息分析模块,用于分析所述面部图像中的面部特征信息;
情绪状态匹配模块,用于将所述分析出的面部特征信息与预存储的不同情绪的面部特征信息表匹配,获取分析出的面部特征信息所属的情绪状态;或者,
所述语句包括语意信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息;
其中,所述情绪状态分析模块包括:
关键词汇分析模块,用于分析语句的关键词汇;
情绪状态匹配模块,用于将所述分析出的关键词汇与预存储的不同情绪的关键词汇表匹配,获取分析出的关键词汇所属的情绪状态。
7.一种与用户情绪匹配的内容输出方法,其特征在于,包括:
获取用户的行为信息并发送给服务器,以使服务器根据所述行为信息分析用户的情绪状态,并调取与所述情绪状态相匹配的内容以推送给电子设备;
输出服务器推送的与所述情绪状态相匹配的内容。
8.一种与用户情绪匹配的内容输出的电子设备,包括:
行为信息获取模块,用于获取用户的行为信息并发送给服务器,以使服务器根据所述行为信息分析用户的情绪状态,并调取与所述情绪状态相匹配的内容以推送给电子设备;
内容输出模块,用于输出与所述情绪状态相匹配的内容。
9.一种与用户情绪匹配的内容输出的电子设备,其特征在于,包括:
行为信息获取模块,用于获取用户的行为信息并发送给服务器,以使服务器根据所述行为信息分析用户的情绪状态,并调取与所述情绪状态相匹配的内容以推送给电子设备;
内容输出模块,用于输出与所述情绪状态相匹配的内容;
所述用户的行为信息包括语音和/或面部表情和/或语句和/或词语;
所述语音包括语速和/或音调和/或音量信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息;或者,
所述面部表情包括面部特征信息,所述获取用户的行为信息具体为通过拍摄用户的面部图像获取用户的行为信息;或者,
其中,所述语句包括语意信息,所述获取用户的行为信息具体为通过录制用户的语音输入获取用户的行为信息。
10.一种与用户情绪匹配的内容输出的服务器,其特征在于,包括:
行为信息接收和情绪状态分析模块,用于接收电子设备推送的用户行为信息,根据所述行为信息分析用户的情绪状态;
内容调取和推送模块,用于调取与所述情绪状态相匹配的内容并推送给电子设备。
CN201510908626.7A 2015-12-10 2015-12-10 一种与用户情绪匹配的内容输出方法、电子设备及服务器 Active CN106874265B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510908626.7A CN106874265B (zh) 2015-12-10 2015-12-10 一种与用户情绪匹配的内容输出方法、电子设备及服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510908626.7A CN106874265B (zh) 2015-12-10 2015-12-10 一种与用户情绪匹配的内容输出方法、电子设备及服务器

Publications (2)

Publication Number Publication Date
CN106874265A true CN106874265A (zh) 2017-06-20
CN106874265B CN106874265B (zh) 2021-11-26

Family

ID=59236475

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510908626.7A Active CN106874265B (zh) 2015-12-10 2015-12-10 一种与用户情绪匹配的内容输出方法、电子设备及服务器

Country Status (1)

Country Link
CN (1) CN106874265B (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106581950A (zh) * 2016-12-14 2017-04-26 苏州楚水凤麟体育运动发展有限公司 互联网射箭用数据处理方法、装置及系统
CN107293310A (zh) * 2017-06-28 2017-10-24 上海航动科技有限公司 一种用户情绪分析方法及系统
CN107317927A (zh) * 2017-06-22 2017-11-03 深圳市沃特沃德股份有限公司 与用户互动的方法及智能终端
CN107393529A (zh) * 2017-07-13 2017-11-24 珠海市魅族科技有限公司 语音识别方法、装置、终端及计算机可读存储介质
CN107562850A (zh) * 2017-08-28 2018-01-09 百度在线网络技术(北京)有限公司 音乐推荐方法、装置、设备及存储介质
CN108334537A (zh) * 2017-12-06 2018-07-27 沃民高新科技(北京)股份有限公司 数据的推送方法和装置
CN108417227A (zh) * 2018-02-12 2018-08-17 口碑(上海)信息技术有限公司 基于语音的抽兑奖方法及系统
CN108519977A (zh) * 2018-03-30 2018-09-11 联想(北京)有限公司 一种信息处理方法及电子设备
CN108549481A (zh) * 2018-03-29 2018-09-18 北京恒信彩虹信息技术有限公司 一种互动方法及系统
CN108549483A (zh) * 2018-03-30 2018-09-18 京东方科技集团股份有限公司 一种智能画框的控制方法及控制系统
CN108595406A (zh) * 2018-01-04 2018-09-28 广东小天才科技有限公司 一种用户状态的提醒方法、装置、电子设备及存储介质
CN108877357A (zh) * 2018-06-21 2018-11-23 广东小天才科技有限公司 一种基于家教机的交互方法及家教机
CN108984229A (zh) * 2018-07-24 2018-12-11 广东小天才科技有限公司 一种应用程序的启动控制方法及家教设备
CN109240488A (zh) * 2018-07-27 2019-01-18 重庆柚瓣家科技有限公司 一种ai场景定位引擎的实现方法
CN109451188A (zh) * 2018-11-29 2019-03-08 平安科技(深圳)有限公司 差异性自助应答的方法、装置、计算机设备和存储介质
CN109635616A (zh) * 2017-10-09 2019-04-16 阿里巴巴集团控股有限公司 互动方法和设备
CN109756626A (zh) * 2018-12-29 2019-05-14 维沃移动通信有限公司 一种提醒方法和移动终端
CN109766759A (zh) * 2018-12-12 2019-05-17 成都云天励飞技术有限公司 情绪识别方法及相关产品
CN109871675A (zh) * 2019-02-26 2019-06-11 蒙志标 一种可全面额接收和支付的银行柜台操作系统
WO2019120030A1 (zh) * 2017-12-20 2019-06-27 Oppo广东移动通信有限公司 信息推送方法以及装置、终端及存储介质
CN110858234A (zh) * 2018-08-24 2020-03-03 中移(杭州)信息技术有限公司 一种根据人物情感进行信息推送的方法及装置
CN111198505A (zh) * 2018-11-20 2020-05-26 青岛海尔洗衣机有限公司 家用电器输出视听信息的控制方法
CN111476217A (zh) * 2020-05-27 2020-07-31 上海乂学教育科技有限公司 基于情绪识别的智能学习系统和方法
CN112133406A (zh) * 2020-08-25 2020-12-25 合肥工业大学 基于情感图谱的多模态情感引导方法和系统、存储介质
CN112329431A (zh) * 2019-08-01 2021-02-05 中国移动通信集团上海有限公司 音视频数据处理方法、设备及存储介质
CN113111258A (zh) * 2021-03-31 2021-07-13 青岛海尔科技有限公司 菜谱推送方法和装置
CN113656635A (zh) * 2021-09-03 2021-11-16 咪咕音乐有限公司 视频彩铃合成方法、装置、设备及计算机可读存储介质
CN114121041A (zh) * 2021-11-19 2022-03-01 陈文琪 一种基于智伴机器人智能陪伴方法及系统
CN114710553A (zh) * 2020-12-30 2022-07-05 本田技研工业(中国)投资有限公司 信息获取方法、信息推送方法以及终端设备

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1838237A (zh) * 2000-09-13 2006-09-27 株式会社A·G·I 情绪探测方法及其系统
CN101314081A (zh) * 2008-07-11 2008-12-03 深圳华为通信技术有限公司 一种演讲背景匹配方法和装置
CN101669090A (zh) * 2007-04-26 2010-03-10 福特全球技术公司 情绪提示系统和方法
CN101690071A (zh) * 2007-06-29 2010-03-31 索尼爱立信移动通讯有限公司 在视频会议和其他通信期间控制化身的方法和终端
CN101789990A (zh) * 2009-12-23 2010-07-28 宇龙计算机通信科技(深圳)有限公司 一种在通话过程中判断对方情绪的方法及移动终端
CN101822863A (zh) * 2010-01-28 2010-09-08 深圳先进技术研究院 情绪调节装置和方法
CN102054116A (zh) * 2009-10-30 2011-05-11 财团法人资讯工业策进会 情绪分析方法、情绪分析系统及情绪分析装置
CN103024521A (zh) * 2012-12-27 2013-04-03 深圳Tcl新技术有限公司 节目筛选方法、系统及具有该系统的电视
CN103126690A (zh) * 2013-01-28 2013-06-05 周万荣 一种基于应用的人体情绪识别及控制方法及设备和系统
CN103565445A (zh) * 2012-08-09 2014-02-12 英华达(上海)科技有限公司 情绪评估服务系统及其方法
CN104038836A (zh) * 2014-06-03 2014-09-10 四川长虹电器股份有限公司 电视节目智能推送的方法
CN104102627A (zh) * 2014-07-11 2014-10-15 合肥工业大学 一种多模态的非接触情感分析记录系统
CN104288889A (zh) * 2014-08-21 2015-01-21 惠州Tcl移动通信有限公司 情绪调节方法及智能终端
CN104851437A (zh) * 2015-04-28 2015-08-19 广东欧珀移动通信有限公司 一种歌曲播放方法及终端
US20150297109A1 (en) * 2014-04-22 2015-10-22 Interaxon Inc. System and method for associating music with brain-state data

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1838237A (zh) * 2000-09-13 2006-09-27 株式会社A·G·I 情绪探测方法及其系统
CN101669090A (zh) * 2007-04-26 2010-03-10 福特全球技术公司 情绪提示系统和方法
CN101690071A (zh) * 2007-06-29 2010-03-31 索尼爱立信移动通讯有限公司 在视频会议和其他通信期间控制化身的方法和终端
CN101314081A (zh) * 2008-07-11 2008-12-03 深圳华为通信技术有限公司 一种演讲背景匹配方法和装置
CN102054116A (zh) * 2009-10-30 2011-05-11 财团法人资讯工业策进会 情绪分析方法、情绪分析系统及情绪分析装置
CN101789990A (zh) * 2009-12-23 2010-07-28 宇龙计算机通信科技(深圳)有限公司 一种在通话过程中判断对方情绪的方法及移动终端
CN101822863A (zh) * 2010-01-28 2010-09-08 深圳先进技术研究院 情绪调节装置和方法
CN103565445A (zh) * 2012-08-09 2014-02-12 英华达(上海)科技有限公司 情绪评估服务系统及其方法
CN103024521A (zh) * 2012-12-27 2013-04-03 深圳Tcl新技术有限公司 节目筛选方法、系统及具有该系统的电视
CN103126690A (zh) * 2013-01-28 2013-06-05 周万荣 一种基于应用的人体情绪识别及控制方法及设备和系统
US20150297109A1 (en) * 2014-04-22 2015-10-22 Interaxon Inc. System and method for associating music with brain-state data
CN104038836A (zh) * 2014-06-03 2014-09-10 四川长虹电器股份有限公司 电视节目智能推送的方法
CN104102627A (zh) * 2014-07-11 2014-10-15 合肥工业大学 一种多模态的非接触情感分析记录系统
CN104288889A (zh) * 2014-08-21 2015-01-21 惠州Tcl移动通信有限公司 情绪调节方法及智能终端
CN104851437A (zh) * 2015-04-28 2015-08-19 广东欧珀移动通信有限公司 一种歌曲播放方法及终端

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106581950A (zh) * 2016-12-14 2017-04-26 苏州楚水凤麟体育运动发展有限公司 互联网射箭用数据处理方法、装置及系统
CN106581950B (zh) * 2016-12-14 2019-02-05 苏州楚水凤麟体育运动发展有限公司 互联网射箭用数据处理方法、装置及系统
CN107317927A (zh) * 2017-06-22 2017-11-03 深圳市沃特沃德股份有限公司 与用户互动的方法及智能终端
CN107293310A (zh) * 2017-06-28 2017-10-24 上海航动科技有限公司 一种用户情绪分析方法及系统
CN107393529A (zh) * 2017-07-13 2017-11-24 珠海市魅族科技有限公司 语音识别方法、装置、终端及计算机可读存储介质
CN107562850A (zh) * 2017-08-28 2018-01-09 百度在线网络技术(北京)有限公司 音乐推荐方法、装置、设备及存储介质
CN109635616B (zh) * 2017-10-09 2022-12-27 阿里巴巴集团控股有限公司 互动方法和设备
CN109635616A (zh) * 2017-10-09 2019-04-16 阿里巴巴集团控股有限公司 互动方法和设备
CN108334537A (zh) * 2017-12-06 2018-07-27 沃民高新科技(北京)股份有限公司 数据的推送方法和装置
CN109951504A (zh) * 2017-12-20 2019-06-28 广东欧珀移动通信有限公司 信息推送方法、装置、终端及存储介质
WO2019120030A1 (zh) * 2017-12-20 2019-06-27 Oppo广东移动通信有限公司 信息推送方法以及装置、终端及存储介质
CN109951504B (zh) * 2017-12-20 2021-01-01 Oppo广东移动通信有限公司 信息推送方法、装置、终端及存储介质
CN108595406A (zh) * 2018-01-04 2018-09-28 广东小天才科技有限公司 一种用户状态的提醒方法、装置、电子设备及存储介质
CN108595406B (zh) * 2018-01-04 2022-05-17 广东小天才科技有限公司 一种用户状态的提醒方法、装置、电子设备及存储介质
CN108417227A (zh) * 2018-02-12 2018-08-17 口碑(上海)信息技术有限公司 基于语音的抽兑奖方法及系统
CN108549481B (zh) * 2018-03-29 2021-06-22 东方梦幻虚拟现实科技有限公司 一种互动方法及系统
CN108549481A (zh) * 2018-03-29 2018-09-18 北京恒信彩虹信息技术有限公司 一种互动方法及系统
US11455036B2 (en) 2018-03-30 2022-09-27 Beijing Boe Technology Development Co., Ltd. Control method of iGallery, control system of iGallery, and computer readable storage medium
CN108549483B (zh) * 2018-03-30 2020-08-18 京东方科技集团股份有限公司 一种智能画框的控制方法及控制系统
CN108549483A (zh) * 2018-03-30 2018-09-18 京东方科技集团股份有限公司 一种智能画框的控制方法及控制系统
CN108519977A (zh) * 2018-03-30 2018-09-11 联想(北京)有限公司 一种信息处理方法及电子设备
CN108877357A (zh) * 2018-06-21 2018-11-23 广东小天才科技有限公司 一种基于家教机的交互方法及家教机
CN108984229B (zh) * 2018-07-24 2021-11-26 广东小天才科技有限公司 一种应用程序的启动控制方法及家教设备
CN108984229A (zh) * 2018-07-24 2018-12-11 广东小天才科技有限公司 一种应用程序的启动控制方法及家教设备
CN109240488A (zh) * 2018-07-27 2019-01-18 重庆柚瓣家科技有限公司 一种ai场景定位引擎的实现方法
CN110858234A (zh) * 2018-08-24 2020-03-03 中移(杭州)信息技术有限公司 一种根据人物情感进行信息推送的方法及装置
CN111198505A (zh) * 2018-11-20 2020-05-26 青岛海尔洗衣机有限公司 家用电器输出视听信息的控制方法
CN109451188A (zh) * 2018-11-29 2019-03-08 平安科技(深圳)有限公司 差异性自助应答的方法、装置、计算机设备和存储介质
CN109451188B (zh) * 2018-11-29 2022-03-18 平安科技(深圳)有限公司 差异性自助应答的方法、装置、计算机设备和存储介质
CN109766759A (zh) * 2018-12-12 2019-05-17 成都云天励飞技术有限公司 情绪识别方法及相关产品
CN109756626A (zh) * 2018-12-29 2019-05-14 维沃移动通信有限公司 一种提醒方法和移动终端
CN109756626B (zh) * 2018-12-29 2021-09-24 维沃移动通信有限公司 一种提醒方法和移动终端
CN109871675A (zh) * 2019-02-26 2019-06-11 蒙志标 一种可全面额接收和支付的银行柜台操作系统
CN112329431B (zh) * 2019-08-01 2023-07-04 中国移动通信集团上海有限公司 音视频数据处理方法、设备及存储介质
CN112329431A (zh) * 2019-08-01 2021-02-05 中国移动通信集团上海有限公司 音视频数据处理方法、设备及存储介质
CN111476217A (zh) * 2020-05-27 2020-07-31 上海乂学教育科技有限公司 基于情绪识别的智能学习系统和方法
CN112133406A (zh) * 2020-08-25 2020-12-25 合肥工业大学 基于情感图谱的多模态情感引导方法和系统、存储介质
CN112133406B (zh) * 2020-08-25 2022-11-04 合肥工业大学 基于情感图谱的多模态情感引导方法和系统、存储介质
CN114710553A (zh) * 2020-12-30 2022-07-05 本田技研工业(中国)投资有限公司 信息获取方法、信息推送方法以及终端设备
CN113111258A (zh) * 2021-03-31 2021-07-13 青岛海尔科技有限公司 菜谱推送方法和装置
CN113656635A (zh) * 2021-09-03 2021-11-16 咪咕音乐有限公司 视频彩铃合成方法、装置、设备及计算机可读存储介质
CN113656635B (zh) * 2021-09-03 2024-04-09 咪咕音乐有限公司 视频彩铃合成方法、装置、设备及计算机可读存储介质
CN114121041A (zh) * 2021-11-19 2022-03-01 陈文琪 一种基于智伴机器人智能陪伴方法及系统
CN114121041B (zh) * 2021-11-19 2023-12-08 韩端科技(深圳)有限公司 一种基于智伴机器人智能陪伴方法及系统

Also Published As

Publication number Publication date
CN106874265B (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
CN106874265A (zh) 一种与用户情绪匹配的内容输出方法、电子设备及服务器
EP3652734B1 (en) Voice data processing method and electronic device supporting the same
TWI430189B (zh) 訊息擬真處理系統、裝置及方法
CN103456314B (zh) 一种情感识别方法以及装置
US11430438B2 (en) Electronic device providing response corresponding to user conversation style and emotion and method of operating same
EP3923198A1 (en) Method and apparatus for processing emotion information
EP2834811A1 (fr) Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot
CN108735204A (zh) 用于执行与用户话语相对应的任务的设备
CN103456299A (zh) 一种控制语音识别的方法和装置
CN106774845B (zh) 一种智能交互方法、装置及终端设备
CN110602516A (zh) 基于视频直播的信息交互方法、装置及电子设备
CN107016070B (zh) 一种用于智能机器人的人机对话方法及装置
US20200075008A1 (en) Voice data processing method and electronic device for supporting same
CN107146605B (zh) 一种语音识别方法、装置及电子设备
US10976997B2 (en) Electronic device outputting hints in an offline state for providing service according to user context
KR102380717B1 (ko) 사용자 발화를 처리하는 전자 장치 및 이 전자 장치의 제어 방법
US20210166685A1 (en) Speech processing apparatus and speech processing method
CN106980640A (zh) 针对照片的交互方法、设备和计算机可读存储介质
CN113678119A (zh) 用于生成自然语言响应的电子装置及其方法
US20200265840A1 (en) Electronic device and system for processing user input and method thereof
CN212588503U (zh) 一种嵌入式音频播放装置
CN114424148B (zh) 电子设备及其用于提供手册的方法
CN112002326A (zh) 一种交互方法及机器人设备
KR20220086265A (ko) 전자 장치 및 전자 장치의 동작 방법
CN109979455A (zh) 一种方言语音ai控制方法、装置及终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant