CN111241822A - 输入场景下情绪发现与疏导方法及装置 - Google Patents

输入场景下情绪发现与疏导方法及装置 Download PDF

Info

Publication number
CN111241822A
CN111241822A CN202010005748.6A CN202010005748A CN111241822A CN 111241822 A CN111241822 A CN 111241822A CN 202010005748 A CN202010005748 A CN 202010005748A CN 111241822 A CN111241822 A CN 111241822A
Authority
CN
China
Prior art keywords
user
information
scene
emotion
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010005748.6A
Other languages
English (en)
Inventor
陈婳
朱福利
叶祺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sogou Technology Development Co Ltd
Original Assignee
Beijing Sogou Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sogou Technology Development Co Ltd filed Critical Beijing Sogou Technology Development Co Ltd
Priority to CN202010005748.6A priority Critical patent/CN111241822A/zh
Publication of CN111241822A publication Critical patent/CN111241822A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Developmental Disabilities (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Epidemiology (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种输入场景下情绪发现与疏导方法及装置,所述方法包括:获取用户输入信息及场景辅助信息;根据所述输入信息和/或所述场景辅助信息确定用户所在场景;对所述输入信息进行自然语言理解,得到对话意图及关键信息;根据所述对话意图确定用户情绪;根据所述用户所在场景、对话意图及关键信息生成回应信息;根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息;将与所述用户情绪相适配的回应信息反馈给用户。利用本发明,可以主动发现用户情绪,并进行相应的反馈。

Description

输入场景下情绪发现与疏导方法及装置
技术领域
本发明涉及信息处理领域,具体涉及一种输入场景下情绪发现与疏导方法及装置。
背景技术
目前,随着社交网络的兴起、人们的情感交流也越来越出现虚拟化的倾向。人们宣泄、倾诉自己的情感往往不再需要面对面进行交流,而是可以借助聊天软件、社交网络表达自己的情绪。用户在聊天过程中难免会产生一些比较负面的情绪,甚至会展示出一定的心理问题、或者极端情绪。为此,业界也出现了一些防止极端情绪造成个体伤害的工具,例如,自杀工具与心理疏导的聊天机器人。有许多搜索引擎可以对有自杀倾向的搜索词进行识别,并提供劝阻与帮助。但现有的这类产品存在以下缺点:
1.覆盖范围有限,仅能触及主动使用产品并明确表达不良情绪或极端情绪的用户。
2.产品的应用场景也比较局限,不具有普适性。比如,Facebook防自杀工具主要触及在社交网络公开发表自杀意愿的用户,并且部分依赖于用户好友的标记;Woebot依赖于用户主动找到聊天机器人进行心理咨询,且聊天的领域被限制在个人情绪中,用户需要先说明自己的情绪,然后只能不断回答机器人提出的问题;搜索引擎防自杀工具通常仅简单匹配用户查询是否包含与自杀相关的短语,然后召回救助机构链接或富媒体安抚结果并排在首位。
发明内容
本发明实施例提供一种输入场景下情绪发现与疏导方法及装置,以解决现有的相关产品存在的上述一种或多种问题。
为此,本发明提供如下技术方案:
一种输入场景下情绪发现与疏导方法,所述方法包括:
获取用户输入信息及场景辅助信息;
根据所述输入信息和/或所述场景辅助信息确定用户所在场景;
对所述输入信息进行自然语言理解,得到对话意图及关键信息;
根据所述对话意图确定用户情绪;
根据所述用户所在场景、对话意图及关键信息生成回应信息;
根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息;
将与所述用户情绪相适配的回应信息反馈给用户。
可选地,所述场景辅助信息包括以下任意一种或多种:用户的IP地址、用户的位置信息、背景音信号。
可选地,所述输入信息包括:文本信息;
所述根据所述输入信息和/或所述场景辅助信息确定用户所在场景包括:
提取所述文本信息中的实体词;
根据基于规则的分类器以及所述实体词确定预测场景;
根据所述场景辅助信息和/或所述预测场景,确定用户所在场景。
可选地,所述对所述输入信息进行自然语言理解,得到对话意图及关键信息包括:
对所述文本信息进行自然语言理解,得到对话领域;
根据所述对话领域确定对话意图及关键信息。
可选地,所述输入信息还包括:语音信号;所述方法还包括:
从所述语音信号中提取语音特征;
根据所述语音特征及预先建立的标签分类器进行分类,得到对应所述用户的类别标签;
所述根据所述对话意图确定用户情绪包括:
根据所述对话意图及对应所述用户的类别标签确定用户情绪。
可选地,所述输入信息还包括:语音信号;所述方法还包括:
从所述语音信号中提取语音特征;
根据所述语音特征及预先建立的标签分类器进行分类,得到对应所述用户的类别标签;
所述根据所述用户所在场景、对话意图及关键信息生成回应信息包括:
根据所述用户所在场景、对话意图、关键信息、以及对应所述用户的类别标签生成回应信息。
可选地,所述方法还包括:
获取所述用户的画像信息;
所述根据所述用户所在场景、对话意图及关键信息生成回应信息包括:
根据所述用户所在场景、对话意图、关键信息、以及所述用户的画像信息生成回应信息。
可选地,所述将与所述用户情绪相适配的回应信息反馈给用户包括:
通过弹窗或弹幕展现与所述用户情绪相适配的回应信息。
可选地,所述回应信息包括:对话内容、和/或推荐信息。
一种输入场景下情绪发现与疏导装置,所述装置包括:
信息获取模块,用于获取用户输入信息及场景辅助信息;
场景确定模块,用于根据所述输入信息和/或场景辅助信息确定用户所在场景;
自然语言理解模块,用于对所述输入信息进行自然语言理解,得到对话意图及关键信息;
情绪确定模块,用于根据所述对话意图确定用户情绪;
回应信息生成模块,用于根据所述用户所在场景、对话意图及关键信息生成回应信息;
过滤模块,用于根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息;
反馈模块,用于将与所述用户情绪相适配的回应信息反馈给用户。
可选地,所述场景辅助信息包括以下任意一种或多种:用户的IP地址、用户的位置信息、背景音信号。
可选地,所述输入信息包括:文本信息;
所述场景确定模块包括:
实体词提取单元,用于提取所述文本信息中的实体词;
预测单元,用于根据基于规则的分类器以及所述实体词确定预测场景;
场景确定单元,用于根据所述场景辅助信息和/或所述预测场景,确定用户所在场景。
可选地,所述自然语言理解模块包括:
领域确定单元,用于对所述文本信息进行自然语言理解,得到对话领域;
关键信息确定单元,用于根据所述对话领域确定对话意图及关键信息。
可选地,所述输入信息还包括:语音信号;所述装置还包括:
特征提取模块,用于从所述语音信号中提取语音特征;
标签确定模块,用于根据所述语音特征及预先建立的标签分类器进行分类,得到对应所述用户的类别标签;
所述情绪确定模块,具体用于根据所述对话意图及对应所述用户的类别标签确定用户情绪。
可选地,所述输入信息还包括:语音信号;所述装置还包括:
特征提取模块,用于从所述语音信号中提取语音特征;
标签确定模块,用于根据所述语音特征及预先建立的标签分类器进行分类,得到对应所述用户的类别标签;
所述回应信息生成模块,具体用于根据所述用户所在场景、对话意图、关键信息、以及对应所述用户的类别标签生成回应信息。
可选地,所述装置还包括:
画像信息获取模块,用于获取所述用户的画像信息;
回应信息生成模块,具体用于根据所述用户所在场景、对话意图、关键信息、以及所述用户的画像信息生成回应信息。
可选地,所述反馈模块,具体用于通过弹窗或弹幕展现与所述用户情绪相适配的回应信息。
可选地,所述回应信息包括:对话内容、和/或推荐信息。
一种计算机设备,包括:一个或多个处理器、存储器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,以实现前面所述的方法。
一种可读存储介质,其上存储有指令,所述指令被执行以实现前面所述的方法。
本发明实施例提供的输入场景下情绪发现与疏导方法及装置,通过对用户的输入信息进行自然语言理解,得到对话意图及关键信息,并根据所述对话意图确定用户情绪;根据所述用户所在场景、对话意图及关键信息生成回应信息,并根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息,将与所述用户情绪相适配的回应信息反馈给用户,从而可以主动发现用户情绪,并进行相应的反馈,尤其是在用户产生不良情绪、极端情绪等情况下,可以通过聊天机器人、文字或富媒体信息推荐等方式对发现的不良情绪和极端情绪进行及时地疏导和干预,使用户当前的不良情绪得到改善,在一定程度上预防或改善了极端情绪在当时对用户身心可能造成的不良结果(例如自杀、自残等等)。而且,本发明方案可以基于输入工具,只要用户使用相应的输入工具进行输入,即可在任意输入场景下有效地发现用户的不良情绪并自动进行疏导与干预。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1是本发明实施例输入场景下情绪发现与疏导方法的一种流程图;
图2是本发明实施例输入场景下情绪发现与疏导方法的另一种流程图;
图3是本发明实施例输入场景下情绪发现与疏导方法的另一种流程图;
图4是本发明实施例输入场景下情绪发现与疏导装置的一种结构框图;
图5是本发明实施例输入场景下情绪发现与疏导装置的另一种结构框图;
图6是本发明实施例输入场景下情绪发现与疏导装置的另一种结构框图;
图7是根据一示例性实施例示出的一种用于输入场景下情绪发现与疏导方法的装置的框图;
图8是本发明实施例中服务器的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明实施例的方案,下面结合附图和实施方式对本发明实施例作进一步的详细说明。
考虑到在输入场景中,例如,聊天、语音、文字记录、表情图片等,人们往往更为直接、自然地表达自己的情绪。这种表达情绪的方式往往比在社交网络上写出一段文字、在搜索引擎中搜索结果、或是找一个聊天机器人交流更为自然常见、范围也更广。因此,在人们常见的输入场景下,识别这些不良情绪,并提供及时的疏导,也更为直接、实时,也更有价值。为此,本发明实施例提供一种输入场景下情绪发现与疏导方法及装置,通过对用户的输入信息进行自然语言理解,得到对话意图及关键信息,并根据所述对话意图确定用户情绪;根据所述用户所在场景、对话意图及关键信息生成回应信息,并根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息,将与所述用户情绪相适配的回应信息反馈给用户。
如图1所示,是本发明实施例输入场景下情绪发现与疏导方法的一种流程图,包括以下步骤:
步骤101,获取用户输入信息及场景辅助信息。
在本发明实施例中,用户输入信息主要是指文本信息,也可以是用户输入的语音信息识别得到的文本信息。当然,还可以包括用户输入的语音信号、表情、图片等。下面主要以用户输入文本信息为例进行说明。
所述场景辅助信息包括以下任意一种或多种:用户的IP地址、用户的位置信息、背景音信号等。
步骤102,根据所述输入信息和/或所述场景辅助信息确定用户所在场景。
比如,可以从所述输入信息中提取实体词,然后根据基于规则的分类器以及所述实体词确定预测场景;根据所述场景辅助信息和/或所述预测场景,确定用户所在场景。
需要说明的是,在实际应用中,可以设置多种不同的方式单独和/或综合来确定用户所在场景,具体采用哪种或哪些方式可以根据当前能够得到的用户相关信息来决定。
比如,用户只进行文本输入,从输入的文本中提取到涉及地理信息的实体词,例如在行文中提及在宿舍、在家、在火车上等信息,则可以确定用户所在场所;若用户只进行语音输入,且未提及身处环境,那么根据输入语音中识别到的背景噪音特征(例如分贝数、鸣笛声等马路噪音),可大致判断用户所在场所是嘈杂的公共场所、还是较为安静的私密环境;若依据用户语音输入转化得到的文本信息中,识别到提及所处环境的实体词,则以语音转文字后的判断结果为准。
此外,还可以结合用户输入对应的时间信息、网络连接方式、用户的位置信息等特征,判断较为可能的用户所在场景;例如,半夜2点,用户的位置信息为某大学,网络连接方式为WIFI,则有较高的置信度可以认为所述用户所在场景为学校宿舍。
步骤103,对所述输入信息进行自然语言理解,得到对话意图及关键信息。
首先,对所述文本信息进行自然语言理解,得到对话领域。比如,可以采用现有技术中基于深度学习模型和模板规则的分类器进行领域分类,领域分类是指判断对话大致属于哪个领域分类,比如旅游订票、购物讨论、恋爱话题、学校学习等领域。所述对话领域是指所述文本信息所针对的对话目标属于所述领域分类中的哪个类别。然后,根据所述对话领域对所述文本信息进行意图识别,即确定所述对话目标在该对话领域下的意图,例如电商购物领域下的比较商品、询问价格、评价商品等各种与商品实体和意图谓词有关的精细意图。意图识别的具体方法可采用现有技术,比如利用基于深度学习模型和模板规则的分类器进行意图判断,具体地,将所述文本信息输入所述分类器,根据分类器的输出得到对话意图。所述对话意图比如可以是:倾诉意图、保健意图、旅游类意图、交通购票意图等。
所述关键信息主要是指在特定领域下与预先设定的任务相关的槽位填充信息,例如,对应领域分类为星座的任务有:查询星座运势,其中的槽位填充信息有:星座名称、相关事件、人物性别、人物年龄等。在本发明实施例中,可以通过打标签的方式确定在所述对话领域相关的关键信息,具体地,对所述输入信息进行分词,确定分词后得到的每个词的属性标签,当然,也可以利用深度学习模型加上条件随机场分类器确定分词后得到的每个词的属性标签,对此本发明实施例不做限定;将与所述对话领域相关的任务中的槽位相匹配的属性标签对应的词提取出来,即得到相应的关键信息。
步骤104,根据所述对话意图确定用户情绪。
比如,若仅有文本输入信息,则可根据所述文本输入信息中的语气词、感叹号等标点、以及表情文字,利用分类模型和规则分类器对用户的文本输入进行情绪分类。
再比如,若有语音输入,则可以根据人类语音特征和分贝、语速等特征,利用声频分类器直接进行情绪分类。
步骤105,根据所述用户所在场景、对话意图及关键信息生成回应信息。
所述回应信息主要包括:对话内容、和/或推荐信息。在本发明实施例中,可以采用多路召回方式来生成所述回应信息。比如,可以通过知识图谱推断、信息检索、推荐算法、文本生成等技术得到相应的回应信息。文本生成技术主要通过有控制的深度文本生成模型,根据从预先设定的创意文本库召回的文章,生成文章摘要、创意文案作为标题或推荐文案。所述深度文本生成模型主要是采用注意力机制、控制机制、拷贝机制的神经网络文本生成模型,其输入为召回的信息,即上面提到的用户所在场景、对话意图及关键信息等,输出为最终的标题或推荐文案。
步骤106,根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息。
比如,若用户情绪为悲伤情绪,则可以将有心理疏导作用的文章筛选出来,并配以舒缓的轻音乐;若用户情绪为生气、发怒,则保持静默,不进行推荐;若用户的情绪为高昂、开心,则可进行较为丰富的推荐。
步骤107,将与所述用户情绪相适配的回应信息反馈给用户。
比如,可以通过弹窗或弹幕等方式展现与所述用户情绪相适配的回应信息。
需要说明的是,最终得到的与所述用户情绪相适配的回应信息可以是一条或多条。在有多条回应信息的情况下,可以利用排序算法对这些回应信息进行排序展现。
由于语音信号作为非常独特且重要的信息,比如声调高低、语速快慢、声音粗细等独特的信息,这些信息在一定程度上会对用户情绪的确定提供一定的帮助。因此,在下面图2所示实施例中,加入用户的语音信号进行用户情绪的判断。
参照图2,图2是本发明实施例输入场景下情绪发现与疏导方法的另一种流程图,包括以下步骤:
步骤201,获取用户输入信息及场景辅助信息,所述输入信息包括文本信息和语音信号。
步骤202,根据所述输入信息及场景辅助信息确定用户所在场景。
步骤203,对所述输入信息进行自然语言理解,得到对话意图及关键信息。
步骤204,从所述语音信号中提取语音特征,并根据所述语音特征及预先建立的标签分类器进行分类,得到对应所述用户的类别标签。
需要说明的是,在提取语音特征之前,可以先对所述语音信号进行预处理操作,主要有:预加重、分帧、加窗等操作,这些操作的目的是消除因为人类发声器官本身和由于采集语音信号的设备所带来的混叠、高次谐波失真、高频等等因素对语音信号质量的影响。预处理操作主要采用深度无监督学习和主动学习的方法学习出加窗等参数,从而提升语音信号质量。
语音信号经过预处理后,逐帧提取语音特征。特征提取就是要尽量取出或削减语音信号中与识别无关的信息的影响,减少后续识别阶段需处理的数据量,生成表征语音信号中携带的说话人信息的特征参数。根据语音特征的不同用途,需要提取不同的特征参数,从而保证识别的准确率。常用的语音特征参数有LPCC(线性预测倒谱系数,LinearPrediction Cepstrum Coefficient)、MFCC(梅尔频率倒谱系数,Mel Frequency CepstrumCoefficient)等。
基于提取的语音特征,配合常见的语音特征分类器,例如循环神经网络、卷积神经网络、多层感知机、支持向量机等深层或浅层的分类器,确定对应所述用户的类别标签,所述类别标签可以根据实际应用需要确定,比如可以包括但不限于以下任意一种或多种:用户的情绪(例如:高兴、伤心、忧虑、愤怒、狂喜等)、健康状况(例如,是否感冒)、心理状态(例如:紧张、平静等)等。
需要说明的是,在实际应用中,还可进一步对所述语音信号进行语音识别,即解码得到所述语音信号对应的文本,解码得到的文本可以用于后续回应信息的生成。
步骤205,根据所述对话意图及对应所述用户的类别标签确定用户情绪。
例如用户当前对话意图为抱怨没有抢到春运火车票,且用户标签为学生,则可以判定用户情绪为焦虑、懊恼。
步骤206,根据所述用户所在场景、对话意图及关键信息生成回应信息。
前面提到,对所述语音信号进行解码得到的文本可以用于所述回应信息的生成,同样,上述步骤204中得到的用户的类别标签也可以用于所述回应信息的生成。另外,前面提到的对话领域也可以直接或间接用于所述回应信息的生成,对此本发明实施例不做限定。
步骤207,根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息。
步骤208,将与所述用户情绪相适配的回应信息反馈给用户。
参照图3,图3是本发明实施例输入场景下情绪发现与疏导方法的另一种流程图,包括以下步骤:
步骤301,获取用户输入信息及场景辅助信息,所述用户输入信息包括文本信息。
步骤302,根据所述输入信息及场景辅助信息确定用户所在场景。
步骤303,对所述输入信息进行自然语言理解,得到对话意图及关键信息。
步骤304,根据所述对话意图确定用户情绪。
步骤305,获取所述用户的画像信息。
用户的画像信息是指与该用户相关联的数据,是用户信息的标签化特征,比如,人口属性特征、口音特征、兴趣特征、输入偏好、语言特征、心理特征等。其中人口属性特征来自于用户自行提交、其他数据源的cookie mapping数据或者前述语音特征分类器对于音频的分类结果,口音特征主要来自于前述语音特征分类器对于音频的分类结果,兴趣特征、输入偏好、语言特征、心理特征主要来自于对用户输入信息进行自然语言理解得到的对话意图和关键信息进行统计分析和聚类,并进行长期存储形成。
步骤306,根据所述用户所在场景、对话意图、关键信息、以及所述用户的画像信息生成回应信息。
步骤307,根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息。
步骤308,将与所述用户情绪相适配的回应信息反馈给用户。
该实施例提供的输入场景下情绪发现与疏导方法,综合利用了用户所在场景、对话意图、关键信息、以及所述用户的画像信息来生成回应信息,可以使生成的回应信息更符合用户的需求。当然,所述画像信息同样可以应用于图2所示实施例。
另外,需要说明的是,在实际应用中,依据本发明实施例的思想,还可以有多种合理的变型,比如,在用户只输入语音信号的情况下,不仅可以提取其中的语音特征,还可以通过语音识别得到相应的文本信息,基于对应所述语音信号的语音特征和文本信息,结合上述各实施例中的一些步骤的相应操作,也可以最终生成相应的回应信息。
本发明实施例提供的输入场景下情绪发现与疏导方法,通过对用户的输入信息进行自然语言理解,得到对话意图及关键信息,并根据所述对话意图确定用户情绪;根据所述用户所在场景、对话意图及关键信息生成回应信息,并根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息,将与所述用户情绪相适配的回应信息反馈给用户,从而可以主动发现用户情绪,并进行相应的反馈,尤其是在用户产生不良情绪、极端情绪等情况下,可以通过聊天机器人、文字或富媒体信息推荐等方式对发现的不良情绪和极端情绪进行及时地疏导和干预,使用户当前的不良情绪得到改善,在一定程度上预防或改善了极端情绪在当时对用户身心可能造成的不良结果(例如自杀、自残等等)。
本发明实施例提供的输入场景下情绪发现与疏导方法,可以基于各种输入工具来使用,只要用户使用相应的输入工具进行输入,即可在任意输入场景下有效地发现用户的不良情绪并自动进行疏导与干预。需要说明的是,在实际应用中,可以由输入法客户端获取用户输入信息、场景辅助信息等信息,然后将这些信息上传给服务器,再由服务器执行上述各实施例中的步骤,最后,由服务器将与用户情绪相适配的回应信息通过输入法客户端反馈给用户。当然,也可以将上述实施例中的部分或全部操作移植到输入法客户端来完成,对此本发明实施例不做限定。
下面举例进一步详细说明利用本发明方案为出现极端情绪的用户提供疏导帮助的过程。
例1:当前用户语音输入为“我失恋了想自杀,不想活了,呜呜…”。
首先,通过语音特征提取及分类器判断,得到对应所述用户的类别标签为极度悲伤。将用户输入的语音信号解码得到相应的文本信息,根据所述文本信息得到用户意图是与心理疏导意图相关,意图=“自杀”;与心理疏导意图相关的任务中的槽位信息有:情绪、人称、时间等槽位,进而得到相应的关键信息:情绪=“悲伤抑郁”、人称=“我”、时间=“现在”、背景事件=“失恋”、行为倾向=“自杀”。根据得到的场景辅助信息、语音特征、以及文本信息,可以确定用户所在场景为公共场所。
然后,根据上述得到的一些信息,生成对所述用户的回应信息。由于该用户现在表现出自杀的倾向,用户状态让人担忧,因此可以召回自杀心理干预机构的信息、链接与电话联系方式以外,还可以综合考虑场景因素、网络连接因素、时间因素,推荐出各类多媒体结果,例如舒缓心情的音乐、萌宠动图、美景图片与旅游目的地推荐、美食图片、未完结的热门电视剧或电影预告、连载小说片段、打怪升级爆款游戏推荐等等。
例2:当前用户输入文本信息“我明天就要高考了,万一考不上大学对不起父母怎么办,最后一天复习不进去了,呜呜…”。
对用户输入的文本信息进行自然语言理解,得到意图是与心理疏导意图相关,与心理疏导意图相关的任务中的槽位信息有:情感、人称、时间等槽位,进而得到相应的关键信息:情感=“焦虑”、人称=“我”、时间=“最后一天”、背景事件=“高考”、行为倾向=“不复习”。根据得到的场景辅助信息、以及文本信息,可以确定用户所在场景为公共场所。
然后,根据上述得到的一些信息,生成对所述用户的回应信息,具体可以综合考虑场景因素、网络连接因素、时间因素等,推荐出各类多媒体结果,例如舒缓心情的音乐、美景图片、历年高考作文范文推荐、高考冲刺压题资料、名人明星对高考学生的鼓励寄语等。
可见,利用本发明实施例提供的输入场景下情绪发现与疏导方法,可以自动发现用户是否具有较为严重的负面情绪,例如,抑郁、焦躁、有自杀倾向等较为负面的情绪,并针对这些负面的情绪及时、主动地提供相关的回应信息,比如知识推荐、服务推荐、或者通过聊天机器人与其交流,帮助改善用户当前的不良情绪。
相应地,本发明实施例还提供一种输入场景下情绪发现与疏导装置,如图4所示,是本发明实施例输入场景下情绪发现与疏导装置的一种结构框图。
在该实施例中,所述装置包括以下各模块:
信息获取模块401,用于获取用户输入信息及场景辅助信息;
场景确定模块402,用于根据所述输入信息和/或所述场景辅助信息确定用户所在场景;
自然语言理解模块403,用于对所述输入信息进行自然语言理解,得到对话意图及关键信息;
情绪确定模块404,用于根据所述对话意图确定用户情绪;
回应信息生成模块405,用于根据所述用户所在场景、对话意图及关键信息生成回应信息;
过滤模块406,用于根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息;
反馈模块407,用于将与所述用户情绪相适配的回应信息反馈给用户。
在本发明实施例中,用户输入信息主要是指文本信息,当然,还可以包括用户输入的语音信号、表情、图片等。所述场景辅助信息包括以下任意一种或多种:用户的IP地址、用户的位置信息、背景音信号。
以输入信息为文本信息为例,所述场景确定模块402的一种具体实现方式可以包括以下各单元:
实体词提取单元,用于提取所述文本信息中的实体词;
预测单元,用于根据基于规则的分类器以及所述实体词确定预测场景;
场景确定单元,用于根据所述场景辅助信息和/或所述预测场景,确定用户所在场景。
所述自然语言理解模块403的一种具体实现方式可以包括以下各单元:
领域确定单元,用于对所述文本信息进行自然语言理解,得到对话领域;
关键信息确定单元,用于根据所述对话领域确定对话意图及关键信息,比如,可以利用基于深度学习模型和模板规则的分类器进行意图判断,得到对话意图,所述关键信息可以根据所述对话领域下与预先设定的任务相关的槽位填充信息来确定。
在本发明实施例中,所述回应信息生成模块405可以采用多路召回方式来生成所述回应信息,比如,可以通过知识图谱推断、信息检索、推荐算法、文本生成等技术得到相应的回应信息。而且,生成的回应信息可以有一条或多条,相应地,由所述过滤模块406对这些回应信息过滤后,最终得到的与所述用户情绪相适配的回应信息也可以是一条或多条。在有多条回应信息的情况下,所述反馈模块407可以利用排序算法对这些回应信息进行排序反馈。所述回应信息可以包括:对话内容、和/或推荐信息。所述反馈模块407可以通过弹窗或弹幕展现与所述用户情绪相适配的回应信息。
前面以用户输入信息为文本信息为例对本发明装置做了说明,在实际应用中,用户输入信息还可以包括用户输入的语音信号、表情、图片等。
如图5所示,是本发明实施例输入场景下情绪发现与疏导装置的另一种结构框图。
在该实施例中,所述信息获取模块401获取的输入信息还包括语音信号。相应地,所述装置还包括以下各模块:
特征提取模块501从所述语音信号中提取语音特征;
标签确定模块502根据所述语音特征及预先建立的标签分类器进行分类,得到对应所述用户的类别标签。
相应地,在该实施例中,所述情绪确定模块404可以根据所述对话意图及对应所述用户的类别标签确定用户情绪。
在该实施例中,通过对用户输入的语音信号进行语音特征提取、确定类别标签,并将确定的类别标签用于用户情绪的确定过程,可以进一步提高用户情绪确定结果的准确性。
在本发明装置另一实施例中,根据用户输入的语音信号确定的类别标签还可用于生成回应信息的过程中,如图6所示的实施例中,所述回应信息生成模块405可以根据所述用户所在场景、对话意图、关键信息、以及对应所述用户的类别标签生成回应信息。
在本发明装置另一实施例中,所述装置还可进一步包括:画像信息获取模块(未图示),用于获取所述用户的画像信息。相应地,在该实施例中,所述回应信息生成模块405可以根据所述用户所在场景、对话意图、关键信息、以及所述用户的画像信息生成回应信息。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
需要说明的是,本发明实施例的方法及装置,可以应用于各种终端设备中,比如手机、计算机、笔记本等设备。也可以将本发明实施例输入场景下情绪发现与疏导装置中的各模块可以设置在服务器端,由输入法客户端将接收到的用户输入信息及场景辅助信息上传至服务器端,服务器端将生成的回应信息下发给输入法客户端,进而及时、主动地展现给用户。
本发明实施例提供的输入场景下情绪发现与疏导装置,通过对用户的输入信息进行自然语言理解,得到对话意图及关键信息,并根据所述对话意图确定用户情绪;根据所述用户所在场景、对话意图及关键信息生成回应信息,并根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息,将与所述用户情绪相适配的回应信息反馈给用户,从而可以主动发现用户情绪,并进行相应的反馈,尤其是在用户产生不良情绪、极端情绪等情况下,可以通过聊天机器人、文字或富媒体信息推荐等方式对发现的不良情绪和极端情绪进行及时地疏导和干预,使用户当前的不良情绪得到改善,在一定程度上预防或改善了极端情绪在当时对用户身心可能造成的不良结果(例如自杀、自残等等)。
图7是根据一示例性实施例示出的一种用于输入场景下情绪发现与疏导方法的装置800的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图7,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理部件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件806为装置800的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述输入场景下情绪发现与疏导方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图8是本发明实施例中服务器的结构示意图。该服务器1900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(Central Processing Units,CPU)1922(例如,一个或一个以上处理器)和存储器1932,一个或一个以上存储应用程序1942或数据1944的存储介质1930(例如一个或一个以上海量存储设备)。其中,存储器1932和存储介质1930可以是短暂存储或持久存储。存储在存储介质1930的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1922可以设置为与存储介质1930通信,在服务器1900上执行存储介质1930中的一系列指令操作。
服务器1900还可以包括一个或一个以上电源1926,一个或一个以上有线或无线网络接口1950,一个或一个以上输入输出接口1958,一个或一个以上键盘1956,和/或,一个或一个以上操作系统1941,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种输入场景下情绪发现与疏导方法,其特征在于,所述方法包括:
获取用户输入信息及场景辅助信息;
根据所述输入信息和/或所述场景辅助信息确定用户所在场景;
对所述输入信息进行自然语言理解,得到对话意图及关键信息;
根据所述对话意图确定用户情绪;
根据所述用户所在场景、对话意图及关键信息生成回应信息;
根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息;
将与所述用户情绪相适配的回应信息反馈给用户。
2.根据权利要求1所述的方法,其特征在于,所述场景辅助信息包括以下任意一种或多种:用户的IP地址、用户的位置信息、背景音信号。
3.根据权利要求1所述的方法,其特征在于,所述输入信息包括:文本信息;
所述根据所述输入信息和/或所述场景辅助信息确定用户所在场景包括:
提取所述文本信息中的实体词;
根据基于规则的分类器以及所述实体词确定预测场景;
根据所述场景辅助信息和/或所述预测场景,确定用户所在场景。
4.根据权利要求3所述的方法,其特征在于,所述对所述输入信息进行自然语言理解,得到对话意图及关键信息包括:
对所述文本信息进行自然语言理解,得到对话领域;
根据所述对话领域确定对话意图及关键信息。
5.根据权利要求3所述的方法,其特征在于,所述输入信息还包括:语音信号;所述方法还包括:
从所述语音信号中提取语音特征;
根据所述语音特征及预先建立的标签分类器进行分类,得到对应所述用户的类别标签;
所述根据所述对话意图确定用户情绪包括:
根据所述对话意图及对应所述用户的类别标签确定用户情绪。
6.根据权利要求3所述的方法,其特征在于,所述输入信息还包括:语音信号;所述方法还包括:
从所述语音信号中提取语音特征;
根据所述语音特征及预先建立的标签分类器进行分类,得到对应所述用户的类别标签;
所述根据所述用户所在场景、对话意图及关键信息生成回应信息包括:
根据所述用户所在场景、对话意图、关键信息、以及对应所述用户的类别标签生成回应信息。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述方法还包括:
获取所述用户的画像信息;
所述根据所述用户所在场景、对话意图及关键信息生成回应信息包括:
根据所述用户所在场景、对话意图、关键信息、以及所述用户的画像信息生成回应信息。
8.一种输入场景下情绪发现与疏导装置,其特征在于,所述装置包括:
信息获取模块,用于获取用户输入信息及场景辅助信息;
场景确定模块,用于根据所述输入信息和/或场景辅助信息确定用户所在场景;
自然语言理解模块,用于对所述输入信息进行自然语言理解,得到对话意图及关键信息;
情绪确定模块,用于根据所述对话意图确定用户情绪;
回应信息生成模块,用于根据所述用户所在场景、对话意图及关键信息生成回应信息;
过滤模块,用于根据所述用户情绪对所述回应信息进行过滤,得到与所述用户情绪相适配的回应信息;
反馈模块,用于将与所述用户情绪相适配的回应信息反馈给用户。
9.一种计算机设备,其特征在于,包括:一个或多个处理器、存储器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,以实现如权利要求1至7任一项所述的方法。
10.一种可读存储介质,其上存储有指令,所述指令被执行以实现如权利要求1至7任一项所述的方法。
CN202010005748.6A 2020-01-03 2020-01-03 输入场景下情绪发现与疏导方法及装置 Pending CN111241822A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010005748.6A CN111241822A (zh) 2020-01-03 2020-01-03 输入场景下情绪发现与疏导方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010005748.6A CN111241822A (zh) 2020-01-03 2020-01-03 输入场景下情绪发现与疏导方法及装置

Publications (1)

Publication Number Publication Date
CN111241822A true CN111241822A (zh) 2020-06-05

Family

ID=70874314

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010005748.6A Pending CN111241822A (zh) 2020-01-03 2020-01-03 输入场景下情绪发现与疏导方法及装置

Country Status (1)

Country Link
CN (1) CN111241822A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112233699A (zh) * 2020-10-13 2021-01-15 中移(杭州)信息技术有限公司 语音播报方法、智能语音设备及计算机可读存储介质
CN112818841A (zh) * 2021-01-29 2021-05-18 北京搜狗科技发展有限公司 一种识别用户情绪的方法及相关装置
CN112967725A (zh) * 2021-02-26 2021-06-15 平安科技(深圳)有限公司 语音对话数据处理方法、装置、计算机设备及存储介质
CN113518263A (zh) * 2021-07-23 2021-10-19 南京炫佳网络科技有限公司 交互式网络电视的视频推荐方法、装置、电视及存储介质
CN113590793A (zh) * 2021-08-02 2021-11-02 江苏金惠甫山软件科技有限公司 基于语义规则的心理知识与方法推荐系统
CN114051054A (zh) * 2022-01-13 2022-02-15 深圳市赢向量科技有限公司 一种采用无线通信网络进行信息获取的方法及系统
CN115188396A (zh) * 2022-07-29 2022-10-14 阿里健康科技(杭州)有限公司 内容展示方法、语音数据处理方法及装置
CN115631772A (zh) * 2022-10-27 2023-01-20 四川大学华西医院 自伤自杀危险性评估方法、装置、电子设备及存储介质
CN116561668A (zh) * 2023-07-11 2023-08-08 深圳传趣网络技术有限公司 聊天会话的风险等级划分方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654950A (zh) * 2016-01-28 2016-06-08 百度在线网络技术(北京)有限公司 自适应语音反馈方法和装置
CN108734096A (zh) * 2018-04-11 2018-11-02 北京搜狗科技发展有限公司 一种数据处理方法、装置和用于数据处理的装置
CN109036405A (zh) * 2018-07-27 2018-12-18 百度在线网络技术(北京)有限公司 语音交互方法、装置、设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654950A (zh) * 2016-01-28 2016-06-08 百度在线网络技术(北京)有限公司 自适应语音反馈方法和装置
CN108734096A (zh) * 2018-04-11 2018-11-02 北京搜狗科技发展有限公司 一种数据处理方法、装置和用于数据处理的装置
CN109036405A (zh) * 2018-07-27 2018-12-18 百度在线网络技术(北京)有限公司 语音交互方法、装置、设备及存储介质

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112233699A (zh) * 2020-10-13 2021-01-15 中移(杭州)信息技术有限公司 语音播报方法、智能语音设备及计算机可读存储介质
CN112233699B (zh) * 2020-10-13 2023-04-28 中移(杭州)信息技术有限公司 语音播报方法、智能语音设备及计算机可读存储介质
CN112818841A (zh) * 2021-01-29 2021-05-18 北京搜狗科技发展有限公司 一种识别用户情绪的方法及相关装置
CN112967725A (zh) * 2021-02-26 2021-06-15 平安科技(深圳)有限公司 语音对话数据处理方法、装置、计算机设备及存储介质
CN113518263A (zh) * 2021-07-23 2021-10-19 南京炫佳网络科技有限公司 交互式网络电视的视频推荐方法、装置、电视及存储介质
CN113590793A (zh) * 2021-08-02 2021-11-02 江苏金惠甫山软件科技有限公司 基于语义规则的心理知识与方法推荐系统
CN114051054A (zh) * 2022-01-13 2022-02-15 深圳市赢向量科技有限公司 一种采用无线通信网络进行信息获取的方法及系统
CN115188396A (zh) * 2022-07-29 2022-10-14 阿里健康科技(杭州)有限公司 内容展示方法、语音数据处理方法及装置
CN115631772A (zh) * 2022-10-27 2023-01-20 四川大学华西医院 自伤自杀危险性评估方法、装置、电子设备及存储介质
CN116561668A (zh) * 2023-07-11 2023-08-08 深圳传趣网络技术有限公司 聊天会话的风险等级划分方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN111241822A (zh) 输入场景下情绪发现与疏导方法及装置
US11509616B2 (en) Assistance during audio and video calls
US11308284B2 (en) Smart cameras enabled by assistant systems
US10979373B2 (en) Suggested responses based on message stickers
US11249774B2 (en) Realtime bandwidth-based communication for assistant systems
US11159767B1 (en) Proactive in-call content recommendations for assistant systems
EP3612926B1 (en) Parsing electronic conversations for presentation in an alternative interface
US11521111B2 (en) Device and method for recommending contact information
KR20190108523A (ko) 음성신호 기반 인공지능을 이용한 감정분석을 제공하는 감성일기 서비스 제공 서버 및 방법
CN112528017A (zh) 对话流自动分析方法及装置
CN112948662A (zh) 一种推荐方法、装置和用于推荐的装置
CN111831132A (zh) 一种信息推荐方法、装置和电子设备
US10554768B2 (en) Contextual user experience
CN116261752A (zh) 基于音频对话的面向用户的动作
CN113409766A (zh) 一种识别方法、装置、用于识别的装置及语音合成方法
US20230283878A1 (en) Smart Cameras Enabled by Assistant Systems
Zhai et al. Music Recommendation System Based on Real-Time Emotion Analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination