CN109036433A - 基于ai的社交辅助系统及方法 - Google Patents
基于ai的社交辅助系统及方法 Download PDFInfo
- Publication number
- CN109036433A CN109036433A CN201810844462.XA CN201810844462A CN109036433A CN 109036433 A CN109036433 A CN 109036433A CN 201810844462 A CN201810844462 A CN 201810844462A CN 109036433 A CN109036433 A CN 109036433A
- Authority
- CN
- China
- Prior art keywords
- user
- people
- topic
- information
- mood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000036651 mood Effects 0.000 claims abstract description 77
- 238000012216 screening Methods 0.000 claims abstract description 3
- 238000004458 analytical method Methods 0.000 claims description 35
- 230000008921 facial expression Effects 0.000 claims description 29
- 238000007405 data analysis Methods 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 4
- 241000723353 Chrysanthemum Species 0.000 description 3
- 235000007516 Chrysanthemum Nutrition 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003340 mental effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及服务领域,具体涉及一种基于AI的社交辅助系统及方法,基于AI的社交辅助系统及方法,包括如下步骤:S1、对用户和他人对话的语音信息进行采集;S2、对属于用户的语音信息进行筛选,然后根据筛选的用户语音信息内容判断用户心情状态是否属于开心;S3、当用户心情状态为开心时,将步骤S1中采集的对应语音信息进行用户与他人讨论话题分析;S4、分析出用户与他人讨论的话题后将用户与他人针对该话题的话题对话信息进行存储;S5、当用户再次和他人讨论相同的话题时,根据存储的话题对话信息进行同样回答对话的语音输出。本方案满足了观点提出者提出观点后需要获得他人认可的需求。
Description
技术领域
本发明涉及服务领域,具体涉及一种基于AI的社交辅助系统及方法。
背景技术
很多人认为别人的认可便是自己的价值体现,所有在发表一个观点时也常常想要获得他人的认可,若他人认可了观点提出者的观点,观点提出者将获得被他人认可的满足感,若他人并不认可观点提出者的观点,观点提出者常常会感觉失落,甚至很多人在别人否定他的观点时,会和对方发生争论。
且由于不同人由于生活环境和接受教育程度存在差异,使得这些人有着不同的世界观,在同一个人提出一个观点时,不同人对于相同的问题有不同的看法,很多人提出的观点只能获取一部分人的认可,这时,对其观点不认可的人提出不同观点时便可能导致观点提出者失落甚至伤心。
对于部分自信心不足的人,在别人反对其观点时更有可能会更加不自信,甚至开始怀疑自己的观点是否正确,这时,这些人便需要安慰。
发明内容
本发明目的在于提供一种基于AI的社交辅助方法,以满足观点提出者提出观点后需要获得他人认可的需求。
本发明提供的基础方案为:基于AI的社交辅助方法,包括如下步骤:
S1、对用户和他人对话的语音信息进行采集;
S2、对属于用户的语音信息进行筛选,然后根据筛选的用户语音信息内容判断用户心情状态是否属于开心;
S3、当用户心情状态为开心时,将步骤S1中采集的对应语音信息进行用户与他人讨论话题分析;
S4、分析出用户与他人讨论的话题后将用户与他人针对该话题的话题对话信息进行存储;
S5、当用户再次和他人讨论相同的话题时,根据存储的话题对话信息进行同样回答对话的语音输出。
本发明的优点在于:在步骤S1-S5中,对用户的心情状态进行判断,当用户开心时才对用户与他人讨论话题相关对话信息进行存储,即以用户的心情判断来实现相应话题对话信息的存储,这样,他人回答的内容不管是不是对用户的观点进行了认可,只要判断出用户心情好便对话题对话信息进行存储。若他人肯定用户提出的观点,则表示该用户在别人认可他的观点时会开心,若他人否定用户提出的观点,则表示用户内心比较坚韧,当他人提出不同观点时或许正好激发了用户积极性。
在步骤S5中,当用户与他人讨论到相同话题时,根据存储的话题对话信息进行同样的回答对话输出,这样,若用户所提的观点没有得到过其他人的认可,用户和其他人讨论时也没有开心过,那么用户所提的观点可能本身存在问题,所以不会有对话输出;若用户提出的观点曾经得到过他人认可,且用户听到他人认可后的话很开心,则在用户再次与他人讨论相同话题时自动输出认可的回答对话,给用户提供获得他人认可的满足感,且用户在听到回答对话时便会想到之前获得认可时的心情,对于不自信的用户,想到自己也得到过认可,将会增加其自信心,给用户提供安慰。若用户听到的是他人提出的不同观点,且用户听到这个观点后很开心,这时,用户可能是因为他人观点给了他新的思路而开心,则在用户再次与他人讨论相同话题时自动输出相关的回答对话,使得用户能再次在这个观点的基础上进行思考。
进一步,在步骤S2中,根据用户语音信息判断用户心情状态时是根据该语音信息中是否存在用户笑声来进行判断的。
通过对用户语音信息中是否存在笑声判断,当用户开心时,能够较为准确的判断用户的心情。
进一步,在步骤S1中,对用户的语音信息进行采集时,还对用户的面部表情信息进行采集;在步骤S2中,对用户的心情状态进行分析时,根据采集的用户语音信息和用户的面部表情信息判断用户的心情状态是否属于开心。
根据用户面部表情信息和用户语音信息判断用户的心情状态,与只通过用户语音信息判断用户心情状态相比,能够增加对用户心情状态判断的准确性。比如,用户没有发出笑声但属于微笑,表示用户也很开心,若只通过笑声判断用户心情,这时便容易出现判断错误的现象。
为了能够实施上述基于AI的社交辅助方法,还提供了一种基于AI的社交辅助系统,包括对话信息存储模块和对话内容分析模块,对话信息存储模块内存储有用户和他人进行交流时他人回答使用户开心的话题对话信息;
对话内容分析模块,用于根据用户与他人交流时采集的语音信息内容在对话信息存储模块中寻找相关对话信息,当用户与他人交流到相同的话题时,根据话题对话信息输出相应的应答对话语音。
本方案通过对话信息存储模块对用户与他人对话交流时,他人回答内容使得用户感到开心时的对话信息进行存储,然后通过对话内容分析模块对用户和他人交流时采集的语音信息进行分析,当用户与他人交流到相同的话题时,根据话题对话信息输出相应的应答对话语音,即使得输出的应答对话语音信息都是能够使得用户开心的应答信息,便于用户维持开心的心情状态。若用户是急需获得他人认可的人,那么用户只有在他人同意其观点时才会感到开心,这时,对话信息存储模块内存储的便只能是他人认可的话题对话信息,那么输出语音也是认可的应答对话,这时即使他人否定用户的观点,用户听到自动输出的应答对话时也会感到安慰。
进一步,还包括语音采集模块、面部表情特征采集模块、心情分析模块和交流数据分析模块,语音采集模块用于对用户与他人交流时的语音信息进行采集,面部表情特征采集模块用于实时采集用户面部表情信息,心情分析模块根据语音采集模块采集到的语音信息内容和面部表情特征采集模块采集到的用户面部表情信息判断用户当前心情状态,若判断用户心情状态处于开心,则将与当前心情状态相关的对应语音信息发送给交流数据分析模块,交流数据分析模块接收到心情分析模块发送的语音信息后判断用户与他人交流话题,并对使用户心情状态为开心的对话内容组成一个话题对话信息存储到对话信息存储模块内。
通过对用户的面部表情特征与用户与他人交流的语音信息进行采集,然后根据采集到的这些信息判断用户心情状态,使得判断用户心情状态的准确率高。
进一步,还包括声纹识别模块,声纹识别模块用于在采集到的用户与他人对话的语音信息中识别出用户语音信息,然后将用户语音信息发送给心情分析模块,心情分析模块接收到声纹识别模块发送的用户语音信息后根据用户语音信息和用户面部表情信息判断用户心情状态。
通过声纹识别模块对指定用户语音信息进行识别,避免在心情分析模块进行用户心情状态分析时是根据他人的语音信息进行用户心情状态分析的,增加了用户心情状态分析的准确性。
附图说明
图1为本发明实施例一中基于AI的社交辅助系统的逻辑框图;
图2为本发明实施例一中基于AI的社交辅助方法的实施流程图。
具体实施方式
下面通过具体实施方式进一步详细的说明:
实施例一
实施例基本如附图1所示:基于AI的社交辅助系统,包括用户终端和服务器。服务器和用户终端通过无线通信模块进行通信,无线通信模块可以选用现有USR-C322型号的WIFI通信模块或现有DX-BT18型号的蓝牙通信模块。
用户终端包括:
开关控制模块,用于控制用户终端开始或停止工作。
语音采集模块,用于在用户终端开始工作后对用户与好友聊天的语音信息进行采集,然后将采集到的语音信息发送给服务器。
面部表情特征采集模块,用于对用户面部表情信息进行采集,然后将采集到的用户面部表情信息发送给服务器。
语音输出模块,用于进行对话内容的语音输出。
服务器包括:
对话信息存储模块,用于存储交流数据分析模块生成的话题对话信息。
语音信息存储模块,用于接收语音采集模块发送的语音信息,然后将语音信息进行存储。
声纹识别模块,用于接收语音采集模块发送的语音信息,然后对接收到的语音信息进行声纹识别,通过声纹识别判断哪些语音信息属于指定用户的语音信息,并将指定用户的语音信息筛选出来生成用户语音信息,之后将用户语音信息发送给心情分析模块。
心情分析模块,用于根据用户语音信息和用户面部表情信息判断该用户心情状态是否属于开心,若判断用户心情状态处于开心,则将与当前心情状态相关的对应语音信息(该语音信息指的是没有被声纹识别模块筛选过的语音信息)发送给交流数据分析模块。判断哪些语音信息与用户当前心情相关时,可根据语音采集时输入语音中断时长来进行初步划分。根据用户语音信息判断用户心情状态时是根据用户语音信息中是否存在用户笑声,若存在用户笑声时,则判断用户心情十分好;根据用户面部表情信息判断用户心情时,主要根据用户是否嘴角向上弯的弧度判断用户是否在微笑。具体实施时,可以设置一个用户笑声语音库,在用户笑声语音库内存储该用户不同兴奋程度的笑声,在判断用户语音信息中是否存在笑声时便可以将用户语音信息和用户笑声语音库中的用户笑声进行对比,当用户笑声语音库内找到用户语音信息相似的用户笑声,则判断用户当前心情状态为开心;同理,在根据用户面部表情信息判断用户心情状态时,也可以先设置一个用户面部笑容表情存储库,然后将用户面部表情信息和用户面部笑容表情存储库内存储的用户面部笑容表情进行对比,当在用户面部笑容表情存储库内寻找到与用户面部表情信息相似的用户面部笑容表情时,则判断用户当前心情状态属于开心。
交流数据分析模块,用于接收心情分析模块的语音信息,并将接收到的语音信息采用现有的语音解析技术(可以选用现有公开号为CN102237088B的专利文件公开的语音转换成文本的方法)解析成文本信息,然后根据文本信息判断用户与好友交流话题,并对使用户心情状态为开心的对话内容组成一个话题对话信息存储到对话信息存储模块内。比如用户提出的话题内容是“我种的菊花开得很好看对吧?”,用户好友回答的内容是“是的”,用户听到好友的回答后发出了笑声;这时,交流数据分析模块便会对用户发出笑声前与好友的聊天对话组成一个话题对话信息进行存储。
对话内容分析模块,用于接收语音采集模块发送的语音信息,然后将接收到的语音信息内容在对话信息存储模块中寻找相关对话信息,当用户与好友交流到相同的话题时,根据话题对话信息发送相应的对话内容给语音输出模块。比如,当用户在和一个好友聊天时提出话题内容是“我种的菊花开得很好看对吧?”,用户好友回答的内容是“是的”,用户听到好友的回答后发出了笑声,交流数据分析模块便会对用户发出笑声前与好友的聊天对话组成一个话题对话信息在对话信息存储模块内进行存储,当用户再次和好友(或另一个好友)提到“我种的菊花开得很好看对吧?”时,语音采集模块将采集到这段语音信息,然后将该语音信息发送给对话内容分析模块,对话内容分析模块接收到该段语音信息后将根据语音信息内容在对话信息存储模块便能够寻找到相关的话题对话信息,然后将该对话信息中好友的应答对话内容发送给语音输出模块进行语音输出。语音信息内容的获取方式可以是通过将语音信息解析成文本信息的方式获取语音信息内容,也可以是通过关键词提取的方式获取语音信息内容。
如图2所示,针对上述基于AI的社交辅助系统,本实施例还公开了一种基于AI的社交辅助方法,具体流程如下:
S1、设置心情判断的基础数据
建立用户笑声语音库,在用户语音库内存储用户不同兴奋程度的笑声;同时,建立用户面部笑容表情存储库,在用户面部笑容表情存储库内存储用户开心时的用户面部笑容表情。
S2、语音信息和面部表情信息采集
用户在和好友交流谈话的过程中语音采集模块对用户与好友对话的语音信息进行采集。面部表情特征采集模块对用户面部表情信息进行采集。
S3、用户心情判断
声纹识别模块根据语音采集模块采集的语音信息进行声纹识别,通过声纹识别判断哪些语音信息属于指定用户的语音信息,并将指定用户的语音信息筛选出来生成用户语音信息,之后将用户语音信息发送给心情分析模块。
心情分析模块根据用户语音信息和用户面部表情信息判断该用户心情状态是否属于开心,若判断用户心情状态处于开心,则将与当前心情状态相关的对应语音信息(该语音信息指的是没有被声纹识别模块筛选过的语音信息)发送给交流数据分析模块。
S4、话题对话信息获取
交流数据分析模块接收到心情分析模块的语音信息后,将接收到的语音信息采用现有的语音解析技术(可以选用现有公开号为CN102237088B的专利文件公开的语音转换成文本的方法)解析成文本信息,然后根据文本信息判断用户与好友交流话题,并对使用户心情状态为开心的对话内容组成一个话题对话信息存储到对话信息存储模块内。
S5、话题对话重现
对话内容分析模块接收到语音采集模块发送的语音信息后,根据接收到的语音信息内容在对话信息存储模块中寻找相关对话信息,当用户与好友交流到相同的话题时,根据话题对话信息发送用户好友相应的回答对话内容给语音输出模块进行语音输出。
实施例二
实施例二与实施例一的区别在于,实施例二中心情分析模块对用户心情状态进行分析前,不仅在用户心情状态属于开心时将与当前心情状态相关的对应语音信息发送给交流数据分析模块,还可以在用户心情状态属于伤心、愤怒或其它心情时将与当前心情状态相关的对应语音信息发送给交流数据分析模块,然后交流数据分析模块接收到心情分析模块发送的语音信息后,将接收到的语音信息采用现有的语音解析技术(可以选用现有公开号为CN102237088B的专利文件公开的语音转换成文本的方法)解析成文本信息,然后根据文本信息判断用户与好友交流话题,并对用户当前心情状态相关的对话内容组成一个话题对话信息存储到对话信息存储模块内。对话信息存储模块对用户不同心情状态下的话题对话信息进行分别存储。
实施例二中服务器还包括:打断模块,打断模块用于对对话信息存储模块内属于用户负面情绪的话题对话信息进行标注,当用户和他人谈论到引发用户负面情绪相关的话题时发出中断警告(以声音提示的方式提醒),避免用户情绪失控。特别是精神状况不太好的用户(比如精神病患者),打断模块能避免他人提到相关话题时刺激到用户。
另外,还可以在用户终端设置选择模块,通过选择模块选择是否使得打断模块开始工作。
以上所述的仅是本发明的实施例,方案中公知的具体结构及特性等常识在此未作过多描述,所属领域普通技术人员知晓申请日或者优先权日之前发明所属技术领域所有的普通技术知识,能够获知该领域中所有的现有技术,并且具有应用该日期之前常规实验手段的能力,所属领域普通技术人员可以在本申请给出的启示下,结合自身能力完善并实施本方案,一些典型的公知结构或者公知方法不应当成为所属领域普通技术人员实施本申请的障碍。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。
Claims (6)
1.基于AI的社交辅助方法,其特征在于,包括如下步骤:
S1、对用户和他人对话的语音信息进行采集;
S2、对属于用户的语音信息进行筛选,然后根据筛选的用户语音信息内容判断用户心情状态是否属于开心;
S3、当用户心情状态为开心时,将步骤S1中采集的对应语音信息进行用户与他人讨论话题分析;
S4、分析出用户与他人讨论的话题后将用户与他人针对该话题的话题对话信息进行存储;
S5、当用户再次和他人讨论相同的话题时,根据存储的话题对话信息进行同样回答对话的语音输出。
2.根据权利要求1所述的基于AI的社交辅助方法,其特征在于:在步骤S2中,根据用户语音信息判断用户心情状态时是根据该语音信息中是否存在用户笑声来进行判断的。
3.根据权利要求1或2所述的基于AI的社交辅助方法,其特征在于:在步骤S1中,对用户的语音信息进行采集时,还对用户的面部表情信息进行采集;在步骤S2中,对用户的心情状态进行分析时,根据采集的用户语音信息和用户的面部表情信息判断用户的心情状态是否属于开心。
4.基于AI的社交辅助系统,其特征在于:包括对话信息存储模块和对话内容分析模块,对话信息存储模块内存储有用户和他人进行交流时他人回答使用户开心的话题对话信息;
对话内容分析模块,用于根据用户与他人交流时采集的语音信息内容在对话信息存储模块中寻找相关对话信息,当用户与他人交流到相同的话题时,根据话题对话信息输出相应的应答对话语音。
5.根据权利要求4所述的基于AI的社交辅助系统,其特征在于:还包括语音采集模块、面部表情特征采集模块、心情分析模块和交流数据分析模块,语音采集模块用于对用户与他人交流时的语音信息进行采集,面部表情特征采集模块用于实时采集用户面部表情信息,心情分析模块根据语音采集模块采集到的语音信息内容和面部表情特征采集模块采集到的用户面部表情信息判断用户当前心情状态,若判断用户心情状态处于开心,则将与当前心情状态相关的对应语音信息发送给交流数据分析模块,交流数据分析模块接收到心情分析模块发送的语音信息后判断用户与他人交流话题,并对使用户心情状态为开心的对话内容组成一个话题对话信息存储到对话信息存储模块内。
6.根据权利要求5所述的基于AI的社交辅助系统,其特征在于:还包括声纹识别模块,声纹识别模块用于在采集到的用户与他人对话的语音信息中识别出用户语音信息,然后将用户语音信息发送给心情分析模块,心情分析模块接收到声纹识别模块发送的用户语音信息后根据用户语音信息和用户面部表情信息判断用户心情状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810844462.XA CN109036433A (zh) | 2018-07-27 | 2018-07-27 | 基于ai的社交辅助系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810844462.XA CN109036433A (zh) | 2018-07-27 | 2018-07-27 | 基于ai的社交辅助系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109036433A true CN109036433A (zh) | 2018-12-18 |
Family
ID=64646229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810844462.XA Pending CN109036433A (zh) | 2018-07-27 | 2018-07-27 | 基于ai的社交辅助系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109036433A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105991847A (zh) * | 2015-02-16 | 2016-10-05 | 北京三星通信技术研究有限公司 | 通话方法和电子设备 |
CN106203344A (zh) * | 2016-07-12 | 2016-12-07 | 北京光年无限科技有限公司 | 一种用于智能机器人的情绪识别方法及系统 |
CN106570496A (zh) * | 2016-11-22 | 2017-04-19 | 上海智臻智能网络科技股份有限公司 | 情绪识别方法和装置以及智能交互方法和设备 |
US20180020093A1 (en) * | 2016-07-15 | 2018-01-18 | Circle River, Inc. | Automated call answering based on artificial intelligence |
CN107633098A (zh) * | 2017-10-18 | 2018-01-26 | 维沃移动通信有限公司 | 一种内容推荐方法及移动终端 |
CN107870994A (zh) * | 2017-10-31 | 2018-04-03 | 北京光年无限科技有限公司 | 用于智能机器人的人机交互方法及系统 |
US20180196796A1 (en) * | 2017-01-12 | 2018-07-12 | Microsoft Technology Licensing, Llc | Systems and methods for a multiple topic chat bot |
-
2018
- 2018-07-27 CN CN201810844462.XA patent/CN109036433A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105991847A (zh) * | 2015-02-16 | 2016-10-05 | 北京三星通信技术研究有限公司 | 通话方法和电子设备 |
CN106203344A (zh) * | 2016-07-12 | 2016-12-07 | 北京光年无限科技有限公司 | 一种用于智能机器人的情绪识别方法及系统 |
US20180020093A1 (en) * | 2016-07-15 | 2018-01-18 | Circle River, Inc. | Automated call answering based on artificial intelligence |
CN106570496A (zh) * | 2016-11-22 | 2017-04-19 | 上海智臻智能网络科技股份有限公司 | 情绪识别方法和装置以及智能交互方法和设备 |
US20180196796A1 (en) * | 2017-01-12 | 2018-07-12 | Microsoft Technology Licensing, Llc | Systems and methods for a multiple topic chat bot |
CN107633098A (zh) * | 2017-10-18 | 2018-01-26 | 维沃移动通信有限公司 | 一种内容推荐方法及移动终端 |
CN107870994A (zh) * | 2017-10-31 | 2018-04-03 | 北京光年无限科技有限公司 | 用于智能机器人的人机交互方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111564202B (zh) | 基于人机对话的心理疏导方法、心理疏导终端和存储介质 | |
CN105869626B (zh) | 一种语速自动调节的方法及终端 | |
CN105512228B (zh) | 一种基于智能机器人的双向问答数据处理方法和系统 | |
CN110610705B (zh) | 一种基于人工智能的语音交互提示器 | |
KR101423258B1 (ko) | 상담 대화 제공 방법 및 이를 이용하는 장치 | |
JP6923827B2 (ja) | コミュニケーションスキル評価システム、装置、方法、及びプログラム | |
TW201935272A (zh) | 基於多模態情緒與臉部屬性識別的人機交互方法、系統 | |
CN109547332B (zh) | 通讯会话交互方法、装置、计算机设备 | |
CN105810200A (zh) | 基于声纹识别的人机对话装置及其方法 | |
CN111294471B (zh) | 一种智能电话应答方法和系统 | |
CN104538043A (zh) | 一种通话中实时情感提示装置 | |
CN105798918A (zh) | 一种面向智能机器人的交互方法和装置 | |
CN108111701A (zh) | 静音处理方法和装置 | |
CN109902834B (zh) | 一种话题驱动的老人陪伴主动对话机器人 | |
CN111683175A (zh) | 一种自动应答来电的方法、装置、设备及存储介质 | |
CN110287299A (zh) | 一种通话中多话术语句智能切换方法 | |
JP2017009825A (ja) | 会話状況分析装置および会話状況分析方法 | |
CN111368053A (zh) | 基于法律咨询机器人的情绪安抚系统 | |
CN108847237A (zh) | 连续语音识别方法及系统 | |
CN114566187A (zh) | 具有会话后表示的系统、电子装置和相关方法 | |
US11381675B2 (en) | Command based interactive system and a method thereof | |
CN111063346A (zh) | 基于机器学习的跨媒体明星情感陪伴交互系统 | |
CN114328867A (zh) | 一种人机对话中智能打断的方法及装置 | |
JP6943237B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN109036433A (zh) | 基于ai的社交辅助系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181218 |