CN106683672B - 一种基于情感和语义的智能对话方法及系统 - Google Patents
一种基于情感和语义的智能对话方法及系统 Download PDFInfo
- Publication number
- CN106683672B CN106683672B CN201611193517.2A CN201611193517A CN106683672B CN 106683672 B CN106683672 B CN 106683672B CN 201611193517 A CN201611193517 A CN 201611193517A CN 106683672 B CN106683672 B CN 106683672B
- Authority
- CN
- China
- Prior art keywords
- user
- emotion
- semantic
- current
- reply
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 273
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000002996 emotional effect Effects 0.000 claims description 48
- 230000008859 change Effects 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004141 dimensional analysis Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种基于情感和语义的智能对话方法及系统。所述基于情感和语义的智能对话方法,首先,获取用户与智能对话系统的多轮对话信息;然后,根据所述多轮对话信息确定所述用户当前的情感和语义;最后,根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复。相较于现有技术,本发明提供的所述基于情感和语义的智能对话方法,可以根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复,可以针对不同的情感和语义做出不同的回复,能够提升回复和用户情感的搭配程度,能够提升回复和用户语义的搭配程度,同时,可以提高用户体验。
Description
技术领域
本发明涉及智能对话技术领域,具体涉及一种基于情感和语义智能对话方法及系统。
背景技术
情感是人对客观事物是否满足自己的需要而产生的态度体验,是智能对话过程中传递的重要信息。智能对话过程中,情感识别是交互系统的重要部分。情感状态影响着信息表达的方式和信息传递的效果。
现有的对话系统是根据用户的输入话语,利用语料库、模板来搜索一个或多个回复,或者利用算法自动产生一个或多个回复,不能根据用户输入话语来判断用户的情感,不能理解用户要表达的意图。情感,作为人类对话中非常重要的一个维度,在对话系统中不应该被忽略,如果忽略了情感,那么对话系统将会变的很生硬,用户体验较差,所以在对话系统中体现情感是非常有必要的。单独根据情感就对所述用户进行回复,显然是不合理的,容易出现答非所问的现象,所以需要结合用户的语义做针对性回复。因此,本发明提供了一种基于情感和语义的智能对话方法及系统。
发明内容
针对现有技术中的上述缺陷,本发明提供了一种基于情感和语义的智能对话方法及系统,可以根据用户输入话语的情感和语义来做出相应的回复,以提高用户体验。
第一方面,本发明提供的一种基于情感和语义的智能对话方法,包括:
获取用户与智能对话系统的多轮对话信息;
根据所述多轮对话信息确定所述用户当前的情感和语义;
根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复。
可选的,所述多轮对话信息,包括:多轮对话文本信息、多轮对话语音信息、多轮对话图像信息中的一种或多种的组合;
所述根据所述多轮对话信息确定所述用户当前的情感和语义,包括:
采用以下至少一种方式分析所述多轮对话信息,获得所述用户当前的情感特征和语义特征:
通过文字分析技术分析所述多轮对话文本信息,获得所述用户当前的情感特征和语义特征;
通过声学语音识别技术分析所述多轮对话语音信息,获得所述用户当前的情感特征和语义特征;
根据图像识别技术分析所述多轮对话图像信息,获得所述用户当前的情感特征和语义特征;
根据所述用户当前的情感特征和语义特征确定相应的所述用户当前的情感和语义。
可选的,所述基于情感和语义的智能对话方法,还包括:
根据所述多轮对话信息对所述智能对话系统在所述多轮对话中的系统角色进行定位;
所述根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复,包括:
根据所述用户当前的情感和语义以及所述系统角色做出符合所述用户当前的情感和语义以及所述系统角色的回复。
可选的,所述基于情感和语义的智能对话方法,还包括:
根据所述多轮对话信息分析所述用户在所述多轮对话信息中的情感变化;
所述根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复,包括:
根据所述用户当前的情感和语义以及所述情感变化做出符合所述用户当前的情感和语义以及所述情感变化的回复。
可选的,所述根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复,包括:
根据所述用户当前的情感和语义从回复数据库中选择至少一个符合所述用户当前的情感和语义的回复信息;和/或,
根据所述用户当前的情感和语义,利用回复生成模型自动生成符合所述用户当前的情感和语义的回复信息;
利用所述回复信息做出符合所述用户当前的情感和语义的回复。
第二方面,本发明提供的一种基于情感和语义的智能对话系统,包括:
对话信息获取模块,用于获取用户与智能对话系统的多轮对话信息;
情感和语义确定模块,用于根据所述多轮对话信息确定所述用户当前的情感和语义;
回复模块,用于根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复。
可选的,所述多轮对话信息,包括:多轮对话文本信息、多轮对话语音信息、多轮对话图像信息中的一种或多种的组合;
所述情感和语义确定模块,包括:
特征获取单元,用于采用以下至少一种方式分析所述多轮对话信息,获得所述用户当前的情感特征和语义特征:
通过文字分析技术分析所述多轮对话文本信息,获得所述用户当前的情感特征和语义特征;
通过声学语音识别技术分析所述多轮对话语音信息,获得所述用户当前的情感特征和语义特征;
根据图像识别技术分析所述多轮对话图像信息,获得所述用户当前的情感特征和语义特征;
确定单元,用于根据所述用户当前的情感特征和语义特征确定相应的所述用户当前的情感和语义。
可选的,所述基于情感和语义的智能对话系统,还包括:
系统角色定位模块,用于根据所述多轮对话信息对所述智能对话系统在所述多轮对话中的系统角色进行定位;
所述回复模块,具体用于根据所述用户当前的情感和语义以及所述系统角色做出符合所述用户当前的情感和语义以及所述系统角色的回复。
可选的,所述基于情感和语义的智能对话系统,还包括:
情感变化分析模块,用于根据所述多轮对话信息分析所述用户在所述多轮对话信息中的情感变化;
所述回复模块,具体用于根据所述用户当前的情感和语义以及所述情感变化做出符合所述用户当前的情感和语义以及所述情感变化的回复。
可选的,所述回复模块,包括:
回复信息选择单元,用于根据所述用户当前的情感和语义从回复数据库中选择至少一个符合所述用户当前的情感和语义的回复信息;和/或,
自动生成回复信息单元,用于根据所述用户当前的情感和语义,利用回复生成模型自动生成符合所述用户当前的情感和语义的回复信息;
执行回复单元,用于利用所述回复信息做出符合所述用户当前的情感和语义的回复。
由以上技术方案可知,本发明提供一种基于情感和语义的智能对话方法,首先,获取用户与智能对话系统的多轮对话信息;然后,根据所述多轮对话信息确定所述用户当前的情感和语义;最后,根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复。相较于现有技术,本发明提供的所述基于情感和语义的智能对话方法,可以根据用户与智能对话系统的多轮对话信息确定所述用户当前的情感和语义,并且可以根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复,可以针对不同的情感和语义做出不同的回复,能够提升回复和用户情感的搭配程度,并且能够提升回复和用户语义的搭配程度,可以避免答非所问的现象,同时,可以提高用户体验。
本发明提供的一种基于情感和语义的智能对话系统,与上述基于情感和语义的智能对话方法出于相同的发明构思,具有相同的有益效果。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1示出了本发明第一实施例提供一种基于情感和语义的智能对话方法的流程图;
图2示出了本发明第二实施例提供一种基于情感和语义的智能对话系统的示意图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只是作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
本发明提供了一种基于情感和语义的智能对话方法及系统。下面结合附图对本发明的实施例进行说明。
图1示出了本发明第一实施例所提供的一种基于情感和语义的智能对话方法的流程图。如图1所示,本发明第一实施例提供的一种基于情感和语义的智能对话方法包括以下步骤:
步骤S101:获取用户与智能对话系统的多轮对话信息。
在本步骤中,所述多轮对话信息,包括:多轮对话文本信息、多轮对话语音信息、多轮对话图像信息中的至少一种,也可以是多种的组合,都在本发明的保护范围之内。所述多轮对话信息是指当前对话回合中的多次对话信息。在与智能对话系统进行对话时,可以直接输入文本信息,也可以输入语音信息,所述智能对话系统装有话筒,可以用来采集用户的语音信息,所述智能对话系统还会装有摄像头,可以用来采集用户的人脸、身体姿态等图像信息。
步骤S102:根据所述多轮对话信息确定所述用户当前的情感和语义。
在本步骤中,所述语义包括对话信息的表面意思和想表达的意图。所述根据所述多轮对话信息确定所述用户当前的情感和语义,首先,需要根据所述多轮对话信息获得所述用户当前的情感特征和语义特征;然后,根据所述用户当前的情感特征和语义特征确定相应的所述用户当前的情感和语义。
所述根据所述多轮对话信息获得所述用户当前的情感特征和语义特征包括多种方式,不同形式的对话信息具有不同的处理方式。第一种方式,通过文字分析技术分析所述多轮对话文本信息,获得所述用户当前的情感特征和语义特征。例如,用户输入了“我今天踢了足球,非常高兴”的文本信息,可以通过文字分析技术分析出所述用户现在的情感特征是“高兴”,所述语义特征是“足球”、“高兴”。
第二种方式,通过声学语音识别技术分析所述多轮对话语音信息,获得所述用户当前的情感特征和语义特征。通过声学语音识别技术可以识别出所述多轮对话语音信息中用户说话的语气、音量的变化、音调的高低、语速的快慢等,还能识别出所述多轮对话语音信息中的文字信息,并能够根据所述语气、音量的变化、音调的高低、语速的快慢和文字信息分析出所述多轮对话语音信息的情感特征和语义特征。
第三种方式,通过图像识别技术识别出所述多轮对话图像信息,获得所述用户当前的情感特征和语义特征。这里所说的图像信息包括图片信息、视频信息,可以通过摄像头采集用户的面部表情、身体姿态等图像信息,然后采用图像识别技术识别所述图像信息,分析出用户的当前的情感特征和语义特征。所述情感特征包括:皱眉、摔东西、嘴角上翘等。所述语义特征包括:哑语的手势、舞姿、米饭等。例如,通过所述摄像头获得的图片是一个人在吃饭的时候嘴角上翘,大口吃饭。那么,所述图片的情感特征是嘴角上翘,语义特征是吃饭、嘴角上翘。所述通过图像识别技术识别出所述多轮对话信息,是所述智能对话系统的图像功能。其中,通过所述摄像头采集图像信息,可以是用户主动启用所述智能对话系统的图像功能,也可以是所述智能对话系统主动推送图像功能,经用户同意后,再启动所述图像功能。例如,在发现用户情感有剧烈波动和变化时,所述智能对话系统可以主动推送图像功能。可以通过对话框询问所述用户是否愿意尝试所述智能对话系统的图像功能,可以通过对话框告诉所述用户所述图像功能可以检测所述用户当前的情感状态。
其中,在向用户推送图像功能时,所述图像功能,还包括:变脸功能、智能化妆等,通过这些有趣的功能,可以吸引用户尝试所述图像功能,进而获取用户在与所述智能对话系统对话时的表情,可以更好地识别用户的情感和语义。
需要说明的是,以上几种方式可以选择一种使用,也可以组合使用,例如,可以同时采用文字分析技术和图像识别技术识别出用户当前的情感特征和语义特征。
其中,所述根据所述用户当前的情感特征和语义特征确定所述用户当前的情感和语义。所述情感和语义的确定是在所述智能对话系统中预先定义好的情感模型和语义模型中确定的。所述情感模型和语义模型是根据人工规则和机器学习的方法所建立的模型。所述人工规则即是专家通过观察分析人类的行为模式和人如何处理情感变化,对应地制定的一些规则,是人为规定的一些规则。所述机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、神经网络、算法复杂度理论等多门学科,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
在本发明中,所述情感模型和语义模型是利用人工规则和机器学习的方法预先训练的模型。所述情感模型是一个所述情感特征和相应的所述情感相对应的一个情感数据库,所述情感模型中有高兴、愤怒、伤心、喜欢、厌恶、烦恼等不同分类的情感和相对应的所述情感的情感特征,所述情感特征,包括:摔东西、皱眉、语气词等。例如,“摔东西”的情感特征对应“愤怒”的情感。所述语义模型是一个所述语义特征和相应的所述语义相对应的一个数据库。所述语义包括:用户的意图、对话信息的意思等。所述语义模型根据所述语义特征判断所述用户的意图和所述对话信息的意思。这样,就可以根据所述用户当前的情感特征和语义特征确定所述用户当前的情感和语义。通过多维度分析所述对话信息,可以更好的识别用户的情感和语义。
需要说明的是,在确定所述用户当前的情感和语义过程中,可以采用一种形式的多轮对话信息分析所述用户的情感,也可以采用不同形式的多轮对话信息共同分析所述用户的情感。例如,可以采用多轮对话文本信息中的情感特征和语义特征以及多轮对话语音信息中的情感特征和语义特征共同分析所述用户的情感特征和语义特征,然后根据所述用户的情感特征和语义特征分析所述用户当前的情感和语义。通过多维度分析所述多轮对话信息,可以更加准确确定所述用户当前的情感和语义,进而提高所述智能对话系统识别用户情感和语义的准确性。
步骤S103:根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复。
在本步骤中,用符合所述用户当前的情感和语义的回复进行回复,可以提升回复和用户情感的搭配程度,提升用户体验。例如,在用户很高兴的时候,可以加强用户高兴;在用户沮丧的时候,通过安慰,让用户情绪得到释放。在进行回复时,如果用户具有负面情感,需要保证对话系统不会出错,如果对话系统出错,可能会导致用户情感恶化,从而对系统产生不满。
在本步骤之前,所述基于情感和语义的智能对话方法,还包括:根据所述多轮对话信息对所述智能对话系统在所述多轮对话中的系统角色进行定位。然后,根据所述用户当前的情感和语义以及所述系统角色做出符合所述用户当前的情感和语义以及所述系统角色的回复。不同的系统角色的情感和语义不同,不同系统角色会给出不同回复,这样,可以更有针对性的与用户交流,提升用户体验。
所述系统角色是系统提前预设的,并且所述系统角色会随着用户的使用进行演变。所述系统角色包括:可爱少女、知心大姐、好朋友、智能投资顾问等。当用户与所述智能对话系统进行多轮对话后,所述智能对话系统会根据所述多轮对话信息分析所述用户是什么类型的人,然后根据所述用户的类型对所述系统进行系统角色定位,所述智能对话系统会以定位的所述系统角色与所述用户进行对话。所述智能对话系统会根据所述多轮对话信息体现出的用户的情感、语义、说话方式、文字表达等来对所述系统角色进行定位。在与所述用户进行对话过程中,所述系统角色可能会发生变化,所述系统会根据所述用户在当前的一段对话中的情感、语义、说话方式、文字表达等来对所述系统角色进行定位。在一次对话中,所述系统可能始终会是一种系统角色,也可能会是不同系统角色交替与所述用户对话,都在本发明的保护范围内。
例如,用户在使用所述系统过程中,发现用户是一个随意的人,会说错话、开玩笑等,那么系统角色会定位为随意型,所述系统在与用户的对话过程中也会慢慢变得讲话随便、说错话、开玩笑等。如果用户在使用所述系统过程中,发现用户是一个较死板的人,那么系统角色会定位为严谨型,所述系统在与用户对话的过程中则应变得成熟稳重,注意用词。
例如,用户与所述智能对话系统对话时,刚开始说话的风格是可爱型的,比较高兴,则系统的系统角色会定位为可爱型,过了一会,所述用户突然生气,则系统的系统角色会定位为知心大姐型。系统角色是可爱少女型时,且用户当前的情感是高兴,所述系统说话的风格就比较可爱,会带有比较的可爱的语气词、叠词等;当系统角色是知心大姐型时,所述系统说话就会带有安慰的词语,以安慰用户。
在对系统角色定位后,所述系统会根据所述用户当前的情感和语义以及所述系统角色做出符合所述用户当前的情感和语义以及所述系统角色的回复。相同情感和语义,不同系统角色的回复是不一样的,不同情感和语义,相同系统角色的回复也是不一样的,比如,同样是用户“做错事难过”,“知心大姐”型和“好朋友”型的系统角色给出的回复是不一样的。
在本步骤之前,还包括:根据所述多轮对话信息分析所述用户在所述多轮对话信息中的情感变化。在进行回复时,还包括:根据所述用户当前的情感和语义以及所述情感变化做出符合所述用户当前的情感和语义以及所述情感变化的回复。通过分析用户在多轮对话信息中的情感变化,可以更加了解用户,可以根据用户的喜好来进行回复,投其所好,提升用户体验。
所述根据所述多轮对话信息分析所述用户在所述多轮对话信息中的情感变化,是根据所述多轮对话信息中的情感特征来分析所述用户在所述多轮对话信息中的情感变化,从所述多轮对话信息中识别出情感特征,分析情感,然后,分析所述用户的情感变化。分析所述用户的情感变化可以从对话内容、对话语气、对话形式等方面来分析。所述情感变化有多种,比如,从高兴到更高兴、从烦恼到开心、从喜欢到厌恶等。这样可以更加了解用户的喜好,更好地与用户对话,提升用户体验。
例如,在一段对话中,用户刚开始比较伤心,在与所述系统聊了一会后,变的比较开心,那么,所述用户可能喜欢这段对话的内容,在以后的聊天中就可以多聊这方面的内容,投其所好,提升用户体验,使用户喜欢所述智能对话系统。
在本步骤中,首先,根据所述用户当前的情感和语义从回复数据库中选择至少一个符合所述用户当前的情感和语义的回复信息;和/或,根据所述用户当前的情感和语义,利用回复生成模型自动生成符合所述用户当前的情感和语义的回复信息;然后,利用所述回复信息做出符合所述用户当前的情感和语义的回复。
所述根据所述用户当前的情感和语义从回复数据库中选择至少一个符合所述用户当前的情感和语义的回复信息的方法,其中,所述符合所述用户当前的情感和语义的回复信息可以是多个备选回复信息。所述利用所述回复信息做出符合所述用户当前的情感和语义的回复,可以是从所述多个备选回复信息中随机选择一个回复信息回复给用户,也可以是将所述多个备选回复信息都回复给用户。这种方法的优点是答案质量有保障,符合人类说话的语法、方式、语气等,但是,由于回复数据库是有限的,不可能把所有的回复信息都放在回复数据库中,这样,有时可能就会出现找不到合适的回复信息。
另一种方法是根据所述用户当前的情感和语义,利用回复生成模型自动生成符合所述用户当前的情感和语义的回复信息,然后,利用所述回复信息做出符合所述用户当前的情感和语义的回复。所述回复生成模型是通过机器学习和/或人工规则的方法建立的模型,所述机器学习的方法是利用大规模的一般语句作为训练语料,针对词语、语法、句法等来进行训练的方法。这种方法的优点是不受规模的限制,可以生成任意的回复信息,但是,利用这种方法对回复生成模型的质量要求很高,否则会产生不符合语法、语气的低质量的回复信息。两种方法可以结合使用,也可以独立使用,都在本发明的保护范围之内。
其中,所述符合所述用户当前的情感和语义的回复信息可以是结合所述系统角色和/或所述用户的情感变化选择或生成的,相同的情感和语义,不同的系统角色,回复信息是不同的。通过这种方法,可以有针对性地与用户聊天,使所述智能对话系统应用于不同的人群,同时,可以提升用户体验。
例如,同样是面对用户生气,如果系统角色是“低三下四”型,那么所述智能对话系统发现用户生气,则跟用户进行道歉;如果系统角色是“任性”型,则所述智能对话系统直接跟用户开始对骂;如果系统角色是“冷漠”型,那么所述智能对话系统不理会用户生气,直接无视。
在本步骤中,如何根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复是在策略生成模型中完成的。所述策略生成模型是根据人工规则和机器学习的方法训练的。所述策略生成模型有以下三种训练方式,第一种,在训练所述策略生成模型时,可以根据情感和语义进行训练,训练如何根据所述情感和语义进行回复。所述策略生成模型可以得到所述情感和语义的权重,然后,根据所述权重选择出和/或自动生成符合所述用户当前的情感和语义的回复。
第二种,在训练所述策略生成模型时,还可以根据所述系统角色进行训练。所述策略生成模型可以根据所述系统角色得到所述情感和语义的权重,然后,根据所述系统角色和权重选择出和/或自动生成符合所述用户当前的情感和语义的回复。
第三种,在训练所述策略生成模型时,还可以根据所述情感变化进行训练。所述策略生成模型可以根据所述情感变化得到所述情感和语义的权重,然后,根据所述情感变化和权重选择出和/或自动生成符合所述用户当前的情感和语义的回复。
所述策略生成模型可以根据以上三种方式中的任何一种或多种的组合来进行训练,都在本发明的保护范围内。
在本步骤中,可以根据所述用户当前的情感和语义,或者,根据所述系统角色和/或所述情感变化以及所述用户当前的情感和语义,直接做出合适的回复;可以根据所述用户当前的情感和语义的权重,做出合适回复,这都在本发明的保护范围内。
其中,在根据所述用户当前的情感和语义的权重做出符合所述用户当前的情感和语义的回复时,有时也可以只考虑所述用户当前的语义和情感中的一种来做出相应的符合所述语义或情感的回复信息。当用户情感强烈,但是没有所述用户当前的语义和情感都符合的回复信息,就可以将只符合所述用户当前的情感的回复信息做为回复。当用户情感比较弱或者用户的情感呈中性的时候,所述用户当前的语义的权重就很大,可以忽略情感,单纯根据所述用户当前的语义进行回复,只将符合所述用户当前的语义的回复信息做为回复。对于其它的一般情况,则是根据所述用户当前的情感和语义的权重来得出回复信息,并利用所述回复信息进行回复。
至此,通过步骤S101至步骤S103,完成了本发明第一实施例所提供的一种基于情感和语义的智能对话方法的流程。相较于现有技术,本发明提供的所述基于情感和语义的智能对话方法,可以根据用户与智能对话系统的多轮对话信息确定所述用户当前的情感和语义,并且可以根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复,可以针对不同的情感和语义做出不同的回复,能够提升回复和用户情感的搭配程度,能够提升回复和用户语义的搭配程度,可以避免答非所问的现象,同时,可以提高用户体验。
在上述的第一实施例中,提供了一种基于情感和语义的智能对话方法,与之相对应的,本申请还提供一种基于情感和语义的智能对话系统。请参考图2,其为本发明第二实施例提供的一种基于情感和语义的智能对话系统的示意图。由于系统实施例基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。下述描述的系统实施例仅仅是示意性的。
本发明第二实施例提供的一种基于情感和语义的智能对话系统,包括:
对话信息获取模块101,用于获取用户与智能对话系统的多轮对话信息;
情感和语义确定模块102,用于根据所述多轮对话信息确定所述用户当前的情感和语义;
回复模块103,用于根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复。
在本发明提供的一个实施例中,所述多轮对话信息,包括:多轮对话文本信息、多轮对话语音信息、多轮对话图像信息中的一种或多种的组合;
所述情感和语义确定模块102,包括:
特征获取单元,用于采用以下至少一种方式分析所述多轮对话信息,获得所述用户当前的情感特征和语义特征:
通过文字分析技术分析所述多轮对话文本信息,获得所述用户当前的情感特征和语义特征;
通过声学语音识别技术分析所述多轮对话语音信息,获得所述用户当前的情感特征和语义特征;
根据图像识别技术分析所述多轮对话图像信息,获得所述用户当前的情感特征和语义特征;
确定单元,用于根据所述用户当前的情感特征和语义特征确定相应的所述用户当前的情感和语义。
在本发明提供的一个实施例中,所述基于情感和语义的智能对话系统,还包括:
系统角色定位模块,用于根据所述多轮对话信息对所述智能对话系统在所述多轮对话中的系统角色进行定位;
所述回复模块103,具体用于根据所述用户当前的情感和语义以及所述系统角色做出符合所述用户当前的情感和语义以及所述系统角色的回复。
在本发明提供的一个实施例中,所述基于情感和语义的智能对话系统,还包括:
情感变化分析模块,用于根据所述多轮对话信息分析所述用户在所述多轮对话信息中的情感变化;
所述回复模块103,具体用于根据所述用户当前的情感和语义以及所述情感变化做出符合所述用户当前的情感和语义以及所述情感变化的回复。
在本发明提供的一个实施例中,所述回复模块103,包括:
回复信息选择单元,用于根据所述用户当前的情感和语义从回复数据库中选择至少一个符合所述用户当前的情感和语义的回复信息;和/或,
自动生成回复信息单元,用于根据所述用户当前的情感和语义,利用回复生成模型自动生成符合所述用户当前的情感和语义的回复信息;
执行回复单元,用于利用所述回复信息做出符合所述用户当前的情感和语义的回复。
以上,为本发明第二实施例提供的一种基于情感和语义的智能对话系统的实施例说明。
本发明提供的一种基于情感和语义的智能对话系统与上述基于情感和语义的智能对话方法出于相同的发明构思,具有相同的有益效果,此处不再赘述。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不是必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。需要说明的是,本发明附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机机器(可以是个人计算机,服务器,或者网络机器等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。
Claims (8)
1.一种基于情感和语义的智能对话方法,其特征在于,包括:
获取用户与智能对话系统的多轮对话信息;
根据所述多轮对话信息确定所述用户当前的情感和语义;
根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复;
所述智能对话方法,还包括:
根据所述多轮对话信息对所述智能对话系统在所述多轮对话中的系统角色进行定位;
所述根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复,包括:
根据所述用户当前的情感和语义以及所述系统角色做出符合所述用户当前的情感和语义以及所述系统角色的回复,而且在与所述用户进行一次对话过程中,所述系统角色能发生变化。
2.根据权利要求1所述的基于情感和语义的智能对话方法,其特征在于,所述多轮对话信息,包括:多轮对话文本信息、多轮对话语音信息、多轮对话图像信息中的一种或多种的组合;
所述根据所述多轮对话信息确定所述用户当前的情感和语义,包括:
采用以下至少一种方式分析所述多轮对话信息,获得所述用户当前的情感特征和语义特征:
通过文字分析技术分析所述多轮对话文本信息,获得所述用户当前的情感特征和语义特征;
通过声学语音识别技术分析所述多轮对话语音信息,获得所述用户当前的情感特征和语义特征;
根据图像识别技术分析所述多轮对话图像信息,获得所述用户当前的情感特征和语义特征;
根据所述用户当前的情感特征和语义特征确定相应的所述用户当前的情感和语义。
3.根据权利要求1所述的基于情感和语义的智能对话方法,其特征在于,所述智能对话方法,还包括:
根据所述多轮对话信息分析所述用户在所述多轮对话信息中的情感变化;
所述根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复,包括:
根据所述用户当前的情感和语义以及所述情感变化做出符合所述用户当前的情感和语义以及所述情感变化的回复。
4.根据权利要求1所述的基于情感和语义的智能对话方法,其特征在于,所述根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复,包括:
根据所述用户当前的情感和语义从回复数据库中选择至少一个符合所述用户当前的情感和语义的回复信息;和/或,
根据所述用户当前的情感和语义,利用回复生成模型自动生成符合所述用户当前的情感和语义的回复信息;
利用所述回复信息做出符合所述用户当前的情感和语义的回复。
5.一种基于情感和语义的智能对话系统,其特征在于,包括:
对话信息获取模块,用于获取用户与智能对话系统的多轮对话信息;
情感和语义确定模块,用于根据所述多轮对话信息确定所述用户当前的情感和语义;
回复模块,用于根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复;
所述智能对话系统,还包括:
系统角色定位模块,用于根据所述多轮对话信息对所述智能对话系统在所述多轮对话中的系统角色进行定位,而且在与所述用户进行一次对话过程中,所述系统角色能发生变化;
所述回复模块,具体用于根据所述用户当前的情感和语义以及所述系统角色做出符合所述用户当前的情感和语义以及所述系统角色的回复。
6.根据权利要求5所述的基于情感和语义的智能对话系统,其特征在于,所述多轮对话信息,包括:多轮对话文本信息、多轮对话语音信息、多轮对话图像信息中的一种或多种的组合;
所述情感和语义确定模块,包括:
特征获取单元,用于采用以下至少一种方式分析所述多轮对话信息,获得所述用户当前的情感特征和语义特征:
通过文字分析技术分析所述多轮对话文本信息,获得所述用户当前的情感特征和语义特征;
通过声学语音识别技术分析所述多轮对话语音信息,获得所述用户当前的情感特征和语义特征;
根据图像识别技术分析所述多轮对话图像信息,获得所述用户当前的情感特征和语义特征;
确定单元,用于根据所述用户当前的情感特征和语义特征确定相应的所述用户当前的情感和语义。
7.根据权利要求5所述的基于情感和语义的智能对话系统,其特征在于,所述智能对话系统,还包括:
情感变化分析模块,用于根据所述多轮对话信息分析所述用户在所述多轮对话信息中的情感变化;
所述回复模块,具体用于根据所述用户当前的情感和语义以及所述情感变化做出符合所述用户当前的情感和语义以及所述情感变化的回复。
8.根据权利要求5所述的基于情感和语义的智能对话系统,其特征在于,所述回复模块,包括:
回复信息选择单元,用于根据所述用户当前的情感和语义从回复数据库中选择至少一个符合所述用户当前的情感和语义的回复信息;和/或,
自动生成回复信息单元,用于根据所述用户当前的情感和语义,利用回复生成模型自动生成符合所述用户当前的情感和语义的回复信息;
执行回复单元,用于利用所述回复信息做出符合所述用户当前的情感和语义的回复。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611193517.2A CN106683672B (zh) | 2016-12-21 | 2016-12-21 | 一种基于情感和语义的智能对话方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611193517.2A CN106683672B (zh) | 2016-12-21 | 2016-12-21 | 一种基于情感和语义的智能对话方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106683672A CN106683672A (zh) | 2017-05-17 |
CN106683672B true CN106683672B (zh) | 2020-04-03 |
Family
ID=58871193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611193517.2A Active CN106683672B (zh) | 2016-12-21 | 2016-12-21 | 一种基于情感和语义的智能对话方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106683672B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112579762A (zh) * | 2021-02-24 | 2021-03-30 | 之江实验室 | 一种基于语义、情感惯性和情感共性的对话情感分析方法 |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107204195A (zh) * | 2017-05-19 | 2017-09-26 | 四川新网银行股份有限公司 | 一种基于情绪分析的智能质检方法 |
CN107193978A (zh) * | 2017-05-26 | 2017-09-22 | 武汉泰迪智慧科技有限公司 | 一种基于深度学习的多轮自动聊天对话方法及系统 |
CN107301168A (zh) * | 2017-06-01 | 2017-10-27 | 深圳市朗空亿科科技有限公司 | 智能机器人及其情绪交互方法、系统 |
EP3639158A4 (en) * | 2017-06-15 | 2020-11-18 | Microsoft Technology Licensing, LLC | METHOD AND DEVICE FOR INTELLIGENT AUTOMATED CHAT |
CN107368572A (zh) * | 2017-07-13 | 2017-11-21 | 张勇 | 多功能智能人机交互方法及系统 |
CN107464566A (zh) * | 2017-09-21 | 2017-12-12 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN107657017B (zh) * | 2017-09-26 | 2020-11-13 | 百度在线网络技术(北京)有限公司 | 用于提供语音服务的方法和装置 |
TWI657433B (zh) * | 2017-11-01 | 2019-04-21 | 財團法人資訊工業策進會 | 語音互動裝置及應用其之語音互動方法 |
CN107908750A (zh) * | 2017-11-17 | 2018-04-13 | 郑州云海信息技术有限公司 | 一种人工智能应答系统与方法 |
CN108229641A (zh) * | 2017-12-20 | 2018-06-29 | 广州创显科教股份有限公司 | 一种基于多层代理的人工智能分析系统 |
CN108170278A (zh) * | 2018-01-09 | 2018-06-15 | 三星电子(中国)研发中心 | 沟通辅助方法及装置 |
CN108334583B (zh) * | 2018-01-26 | 2021-07-09 | 上海智臻智能网络科技股份有限公司 | 情感交互方法及装置、计算机可读存储介质、计算机设备 |
CN111459290B (zh) * | 2018-01-26 | 2023-09-19 | 上海智臻智能网络科技股份有限公司 | 交互意图确定方法及装置、计算机设备及存储介质 |
JP7199451B2 (ja) | 2018-01-26 | 2023-01-05 | インスティテュート オブ ソフトウェア チャイニーズ アカデミー オブ サイエンシズ | 感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法 |
CN108460111B (zh) * | 2018-02-08 | 2020-10-16 | 合肥工业大学 | 基于对话的个人性格建模与生成方法及装置 |
CN108417227B (zh) * | 2018-02-12 | 2019-10-25 | 口碑(上海)信息技术有限公司 | 基于语音的资源配置方法及系统 |
CN108536802B (zh) * | 2018-03-30 | 2020-01-14 | 百度在线网络技术(北京)有限公司 | 基于儿童情绪的交互方法及装置 |
CN108595436B (zh) * | 2018-04-28 | 2021-09-28 | 合肥工业大学 | 情感对话内容的生成方法和系统、存储介质 |
CN108846073B (zh) * | 2018-06-08 | 2022-02-15 | 合肥工业大学 | 一种个性化人机情感会话系统 |
CN110660412A (zh) * | 2018-06-28 | 2020-01-07 | Tcl集团股份有限公司 | 一种情绪引导方法、装置和终端设备 |
CN110728977A (zh) * | 2018-06-29 | 2020-01-24 | 南京芝兰人工智能技术研究院有限公司 | 一种基于人工智能的语音对话方法和系统 |
CN108920688A (zh) * | 2018-07-12 | 2018-11-30 | 杭州行为科技有限公司 | 心理健康提升方法、装置和计算机可读介质 |
CN109064315A (zh) * | 2018-08-02 | 2018-12-21 | 平安科技(深圳)有限公司 | 逾期账单智能催收方法、装置、计算机设备及存储介质 |
CN110019748B (zh) * | 2018-09-27 | 2021-12-24 | 联想(北京)有限公司 | 一种数据处理方法及电子设备 |
CN109522927A (zh) * | 2018-10-09 | 2019-03-26 | 北京奔影网络科技有限公司 | 用于用户消息的情感分析方法及装置 |
CN111048075A (zh) * | 2018-10-11 | 2020-04-21 | 上海智臻智能网络科技股份有限公司 | 智能客服系统及智能客服机器人 |
CN109408621B (zh) * | 2018-10-29 | 2021-04-02 | 苏州派维斯信息科技有限公司 | 对话情感分析方法和系统 |
CN111192574A (zh) * | 2018-11-14 | 2020-05-22 | 奇酷互联网络科技(深圳)有限公司 | 智能语音交互方法、移动终端和计算机可读存储介质 |
US11032217B2 (en) | 2018-11-30 | 2021-06-08 | International Business Machines Corporation | Reusing entities in automated task-based multi-round conversation |
US11597394B2 (en) | 2018-12-17 | 2023-03-07 | Sri International | Explaining behavior by autonomous devices |
CN110096567B (zh) * | 2019-03-14 | 2020-12-25 | 中国科学院自动化研究所 | 基于qa知识库推理的多轮对话回复选择方法、系统 |
US20200320435A1 (en) * | 2019-04-08 | 2020-10-08 | Sri International | Multi-level introspection framework for explainable reinforcement learning agents |
CN110047517A (zh) * | 2019-04-24 | 2019-07-23 | 京东方科技集团股份有限公司 | 语音情感识别方法、问答方法及计算机设备 |
CN110188177A (zh) * | 2019-05-28 | 2019-08-30 | 北京搜狗科技发展有限公司 | 对话生成方法及装置 |
CN110472224B (zh) * | 2019-06-24 | 2023-07-07 | 深圳追一科技有限公司 | 服务质量的检测方法、装置、计算机设备和存储介质 |
CN110399474B (zh) * | 2019-07-18 | 2023-06-09 | 腾讯科技(深圳)有限公司 | 一种智能对话方法、装置、设备及存储介质 |
CN112329431B (zh) * | 2019-08-01 | 2023-07-04 | 中国移动通信集团上海有限公司 | 音视频数据处理方法、设备及存储介质 |
CN110570879A (zh) * | 2019-09-11 | 2019-12-13 | 深圳壹账通智能科技有限公司 | 基于情绪识别的智能会话方法、装置及计算机设备 |
CN110826339B (zh) * | 2019-10-31 | 2024-03-01 | 联想(北京)有限公司 | 行为识别方法、装置、电子设备以及介质 |
CN110931006A (zh) * | 2019-11-26 | 2020-03-27 | 深圳壹账通智能科技有限公司 | 基于情感分析的智能问答方法及相关设备 |
CN111179903A (zh) * | 2019-12-30 | 2020-05-19 | 珠海格力电器股份有限公司 | 一种语音识别方法、装置、存储介质及电器 |
WO2021139737A1 (zh) * | 2020-01-08 | 2021-07-15 | 北京嘀嘀无限科技发展有限公司 | 一种人机交互的方法和系统 |
CN113139042B (zh) * | 2021-04-25 | 2022-04-29 | 内蒙古工业大学 | 一种利用微调和重排序策略的情感可控回复生成方法 |
CN113094478B (zh) * | 2021-06-10 | 2021-08-13 | 平安科技(深圳)有限公司 | 表情回复方法、装置、设备及存储介质 |
CN114420168A (zh) * | 2022-02-14 | 2022-04-29 | 平安科技(深圳)有限公司 | 情绪识别方法、装置、设备及存储介质 |
CN114693061A (zh) * | 2022-02-24 | 2022-07-01 | 华录智达科技股份有限公司 | 一种基于公交数字化转型的公交业务管理移动终端 |
CN115035888A (zh) * | 2022-07-08 | 2022-09-09 | 深圳市优必选科技股份有限公司 | 对话回复内容的控制方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105206269A (zh) * | 2015-08-14 | 2015-12-30 | 百度在线网络技术(北京)有限公司 | 一种语音处理方法和装置 |
CN105991847A (zh) * | 2015-02-16 | 2016-10-05 | 北京三星通信技术研究有限公司 | 通话方法和电子设备 |
CN106055662A (zh) * | 2016-06-02 | 2016-10-26 | 竹间智能科技(上海)有限公司 | 基于情感的智能对话方法及系统 |
CN106228989A (zh) * | 2016-08-05 | 2016-12-14 | 易晓阳 | 一种语音交互识别控制方法 |
-
2016
- 2016-12-21 CN CN201611193517.2A patent/CN106683672B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105991847A (zh) * | 2015-02-16 | 2016-10-05 | 北京三星通信技术研究有限公司 | 通话方法和电子设备 |
CN105206269A (zh) * | 2015-08-14 | 2015-12-30 | 百度在线网络技术(北京)有限公司 | 一种语音处理方法和装置 |
CN106055662A (zh) * | 2016-06-02 | 2016-10-26 | 竹间智能科技(上海)有限公司 | 基于情感的智能对话方法及系统 |
CN106228989A (zh) * | 2016-08-05 | 2016-12-14 | 易晓阳 | 一种语音交互识别控制方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112579762A (zh) * | 2021-02-24 | 2021-03-30 | 之江实验室 | 一种基于语义、情感惯性和情感共性的对话情感分析方法 |
CN112579762B (zh) * | 2021-02-24 | 2021-06-08 | 之江实验室 | 一种基于语义、情感惯性和情感共性的对话情感分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106683672A (zh) | 2017-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106683672B (zh) | 一种基于情感和语义的智能对话方法及系统 | |
US12050574B2 (en) | Artificial intelligence platform with improved conversational ability and personality development | |
CN110688911B (zh) | 视频处理方法、装置、系统、终端设备及存储介质 | |
EP3381175B1 (en) | Apparatus and method for operating personal agent | |
Calder | From sissy to sickening: The indexical landscape of/s/in SoMa, San Francisco | |
Grimm et al. | Evaluation of natural emotions using self assessment manikins | |
CN107053186B (zh) | 对话装置、机器人、对话方法以及存储介质 | |
Ren | Affective information processing and recognizing human emotion | |
CN113760101B (zh) | 一种虚拟角色控制方法、装置、计算机设备以及存储介质 | |
CN108804698A (zh) | 基于人物ip的人机交互方法、系统、介质及设备 | |
US20190206406A1 (en) | Dialogue method, dialogue system, dialogue apparatus and program | |
CN111831798A (zh) | 信息处理方法、装置、电子设备及计算机可读存储介质 | |
JP6804763B2 (ja) | 対話システム、対話装置及びそのためのコンピュータプログラム | |
CN108470188A (zh) | 基于图像分析的交互方法及电子设备 | |
CN116704085B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
KR20200059112A (ko) | 로봇 상호작용 시스템 및 그를 위한 프로그램 | |
CN113617036A (zh) | 游戏中对话处理方法、装置、设备及存储介质 | |
CN109961152B (zh) | 虚拟偶像的个性化互动方法、系统、终端设备及存储介质 | |
Huang et al. | Applied to mobile multimedia intelligent speech system interactive topic guiding model | |
Hasani et al. | Immersive experience with non-player characters dynamic dialogue | |
Pérez-Espinosa et al. | Analyzing children’s affective reactions and preferences towards social robots using paralinguistic and self-reported information | |
CN114449297A (zh) | 一种多媒体信息的处理方法、计算设备及存储介质 | |
CN118364893A (zh) | 一种真人驱动的数字人模型的训练方法及装置 | |
CN118279704B (zh) | 一种数字人的交互评估方法、装置、存储介质和设备 | |
CN116343788A (zh) | 交互方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |