CN107944008A - 一种针对自然语言进行情绪识别的方法 - Google Patents
一种针对自然语言进行情绪识别的方法 Download PDFInfo
- Publication number
- CN107944008A CN107944008A CN201711294193.6A CN201711294193A CN107944008A CN 107944008 A CN107944008 A CN 107944008A CN 201711294193 A CN201711294193 A CN 201711294193A CN 107944008 A CN107944008 A CN 107944008A
- Authority
- CN
- China
- Prior art keywords
- carried out
- natural language
- emotion identification
- text
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000036651 mood Effects 0.000 claims description 26
- 230000003993 interaction Effects 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000002996 emotional effect Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 4
- 239000000463 material Substances 0.000 claims description 4
- 241000938605 Crocodylia Species 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000012706 support-vector machine Methods 0.000 claims description 3
- 230000000153 supplemental effect Effects 0.000 claims description 2
- 208000027534 Emotional disease Diseases 0.000 abstract description 6
- 238000010801 machine learning Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
本发明公开一种针对自然语言进行情绪识别的方法,本方法综合考虑语音和文本内容两方面的信息,通过机器学习算法,判断出客户正确的情绪反应,并根据客户问题和情绪识别结果,让机器人更加智能、自然的与客户进行交流。
Description
技术领域
本发明涉及一种针对自然语言进行情绪识别的方法,属于自然语言处理和机器学习领域。
背景技术
作为人机交互中最直接和最有效的方式,自然语言是传递和表达信息最精确、最复杂的重要媒介。人与人之间正常的自然语言交互,往往含有感情色彩,在不同的情绪下,同一句话可能会表达出不同的含义,因此,声音和语言都是语义理解的重要参量。而当下的聊天机器人,基本上通过语音识别技术,依据说话人的文本内容,进行语义理解与交互。用户收到的响应,要么是文本信息,要么是经过TTS语音合成的没有感情色彩的反馈。这种仅依赖文本内容而不考虑情绪状态进行语义理解的方式,使得机器人不能够全面的理解说话人的意图。
目前也有很多基于文本内容进行情绪识别的研究,比如,人在愤怒的状态下可能会使用更多的侮辱性的词汇;在高兴的时候,可能会使用一些积极向上的词汇。但是,应用到具有自然语言交互的机器人对话系统中时,往往难以正确识别到客户正确的情绪反应。语音本身就富含大量的情感信息,比如,人在紧张的时候,更容易有停顿和语法方面的错误;在愤怒的时候,声音明显会响亮很多。综合考虑语音和文本内容两方面的信息,通过机器学习,判断出客户正确的情绪反应,并依此进行答案和情绪反馈,会让机器人更加智能的与客户进行交流。
发明内容
本发明要解决的技术问题是提供一种针对自然语言进行情绪识别的方法,综合考虑语音和文本内容两方面的信息,通过机器学习算法,判断出客户正确的情绪反应,并根据客户问题和情绪识别结果,让机器人更加智能、自然的与客户进行交流。
为了解决所述技术问题,本发明采用的技术方案是:一种针对自然语言进行情绪识别的方法,该方法对收集的自然语言分别进行基于文本内容和基于语音的的情绪识别,然后综合两方面的信息,判断客户情绪类别,包括以下步骤:S01)、采集载有自然语言的语音信息,通过语音识别将其转换为文本信息,输入到事先建立好的文本情绪分类器,判断该文本信息是积极、消极还是客观,并输出各个类别的置信度;S02)、基于现有的语音库和机器人不断采集的自然语音,提取不同情绪状态下的声学特征并进行统计学习,建立一个语音情绪分类器,载有自然语言的语音信息输入后,判断该语音信息是积极、消极还是客观,并输出各个类别的置信度;S03)、参考基于文本内容的类别置信度和基于语音的类别置信度,通过支持向量机进行训练学习,最终得到一个综合语音和文本内容的情绪分析分类器。
本发明所述针对自然语言进行情绪识别的方法,基于文本内容的情绪识别包括以下步骤:S11)、构建语料库,依据现有的情绪分类语料库,将其分为积极、消极和客观三组样本,同时,通过机器人不断地与客户进行自然语言交互,收集文本内容信息,不断地丰富语料库;S12)、特征词选择,采用CHI算法从构建的语料库中选择能够区分情绪类别的特征词;S13)、权重计算,根据步骤S11提供的语料库和步骤S12提供的特征词,采用改进的TF-IDF算法进行特征词统计和权重计算;S14)、采用SVM进行样本训练和测试,语料库中分为积极、消极和客观三类,采用SVM算法进行三分类的训练学习,训练结束后,输入由语音信息转换成的文本内容,即可输出各个类别的置信度。
本发明所述针对自然语言进行情绪识别的方法,基于语音的情绪识别包括以下步骤:S21)、构建语音库,依据现有采集的语音构建语音库,同时通过机器人不断的进行现场语料采集来进行补充;S22)、语音信号的预处理和特征采集,将采集的语音信号进行采样、量化、加窗分帧的预处理之后进行特征提取,提取时域下的持续时间、短时能量、短时平均过零率、基音周期作为情绪识别的特征;S23)、采用高斯混合模型进行情绪判断,根据不同的语音特征在情绪表达的权重大小进行线性组合分析。
本发明所述针对自然语言进行情绪识别的方法,步骤S11中,通过python爬虫爬取微博、淘宝等网站上面的大量的回复、评论进行分类,或者直接使用网络上公开的短文本情绪分类库,构建情绪识别语料库,同时利用交互机器人不断的进行现场采集,在机器人收到语音信号后,将其识别为文本内容发送给后台,并将这部分数据进行标注之后输入语料库,不断丰富语料库。
本发明所述针对自然语言进行情绪识别的方法,针对机器人不能正确切分出来的词汇,建立一份用户自定义词表,依据机器人不断收集的问答数据和现场工作人员的反馈,不断丰富用户自定义词表。
本发明所述针对自然语言进行情绪识别的方法,步骤S12中,采用情感词典来进行辅助特征选择。
进一步地,采用知网的情感分析词语集来辅助进行特征词的选择。
本发明所述针对自然语言进行情绪识别的方法,步骤S13中,改进的TF-IDF算法为:根据短文本中是否有情感词、程度修饰词,分别在TF计算项上乘以一个自定义系数,以体现情感词、程度修饰词对情绪识别的表示能力。
本发明所述针对自然语言进行情绪识别的方法,步骤S21中,依赖网络上已有的情感语音库构建语音库,同时通过对话机器人不断的进行现场语音采集,丰富语音库,并将其分为积极、消极和客观三组样本。
本发明所述针对自然语言进行情绪识别的方法,步骤S23中,采用高斯混合模型进行分类,将语音信号分为积极、消极和客观三类,在分类过程中,采用最大期望算法,将被测语音在情绪分类中的对数似然函数最大化,以完成情绪的判断,将一条语音输入到训练好的分类器中,即可输出不同类别的置信度。
本发明的有益效果:本发明综合考虑语音和文本内容两方面的信息,通过机器学习算法,判断出客户正确的情绪反应,并根据客户问题和情绪识别结果,让机器人更加智能、自然的与客户进行交流。
附图说明
图1为基于文本内容的情绪识别流程图;
图2为基于语音的情绪识别流程图;
图3为综合语音、文本内容的情绪识别流程图。
具体实施例
下面结合附图和具体实施例对本发明作进一步的说明。
本实施例立足于智能交互机器人,提供一种针对自然语言进行情绪识别的方法,其通过机器人麦克收集语音,然后分别进行基于文本内容和基于语音的情绪识别,然后综合两方面的信息,判定客户情绪类别,由此可以使机器人更加自然地进行交互。本方法也可以使用于其他可以进行人机交互的设备,如手机、电脑等,包括但不仅限于这些设备。
如图3所示,本方法包括以下步骤:
S01)、采集载有自然语言的语音信息,通过语音识别将其转换为文本信息,输入到事先建立好的文本情绪分类器,判断该文本信息是积极、消极还是客观,并输出各个类别的置信度;
S02)、基于现有的语音库和机器人不断采集的自然语音,提取不同情绪状态下的声学特征并进行统计学习,建立一个语音情绪分类器,载有自然语言的语音信息输入后,判断该语音信息是积极、消极还是客观,并输出各个类别的置信度;
S03)、参考基于文本内容的类别置信度和基于语音的类别置信度,通过支持向量机进行训练学习,最终得到一个综合语音和文本内容的情绪分析分类器。
如图1所示,基于文本内容的情绪识别包括以下步骤:
S11)、构建语料库,依据现有的情绪分类语料库,将其分为积极、消极和客观三组样本,同时,通过机器人不断地与客户进行自然语言交互,收集文本内容信息,不断地丰富语料库。
立足于机器人的情绪识别,其对话样本往往是短文本,类似于聊天或者微博等互联网上的回复、评论信息。短文本的表述更加口语化,同时表述比书面语更加简单。通过python爬虫爬取微博、淘宝等网站上面的大量的回复、评论进行分类,或者直接使用网络上公开的短文本情绪分类库,构建情绪识别语料库。
由于交互机器人往往是面向一个垂直的业务场景,单纯的从网络上爬取的大量信息,可能与垂直业务的场景有较大的偏差。因此,利用交互机器人不断的进行现场采集,在机器人收到语音信号后,将其识别为文本内容发送给后台,并将这部分数据进行标注之后,不断丰富我们的语料库。另外,对于一些垂直领域内特有的词汇或者一些互联网的新出的流行词等,机器人可能不能够正确的切分出来。为此,可以建立一份用户自定义此表。依据机器人不断收集的问答数据和现场工作人员的反馈,不断丰富词表。
S12)、特征词选择,采用CHI算法从构建的语料库中选择能够区分情绪类别的特征词。
在进行情绪识别时,不同类别中短文本中的情绪词往往具有更好的区分能力。因此,我们采用知网的中文情感分析词语集,来辅助进行特征词的选择。知网的中文情感分析词语集包括程度级别词语集、负面评价词语集、正面评价词语集等多个词典。基于前面收集的语料库,我们采用CHI算法来进行特征词的选取。当该词属于情感词典时,我们可以将CHI算法的输出设为一个较大值,这样可以保证情感词一定能够被用于特征词中。
S13)、权重计算,根据步骤S11提供的语料库和步骤S12提供的特征词,采用改进的TF-IDF算法进行特征词统计和权重计算;采用传统的tf-idf算法进行权重计算,虽然具有一定的通用性,但是没有考虑到对短文本进行情绪识别中情感词的标识能力。对于短文本而言,情感词的出现往往比出现次数更加重要。因此,对于情感词,尤其是带有程度修饰词(如“非常”、“极其”、“很”)修饰的情感词,在进行权重计算时,需要做一些特殊的处理。根据短文本中是否有情感词,是否有程度修饰词,分别在有情感词、程度修饰词的TF计算项上乘以一个自定义系数,以强调情感词对于分类的重要性。
S14)、采用SVM进行样本训练和测试,语料库中分为积极、消极和客观三类,采用SVM算法进行三分类的训练学习,训练结束后,输入由语音信息转换成的文本内容,即可输出各个类别的置信度。
如图2所示,基于语音的情绪识别包括以下步骤:
S21)、构建语音库,依赖于网络上已有的情感语音库,同时,通过对话机器人不断的进行现场语音采集,丰富语音库。
S22)、语音信号的预处理和特征采集,将采集的语音信号进行采样和量化,将其转换为计算机可以进行处理的数字信号。同时对语音信号进行短时加窗分帧操作,分帧之后的语音信号可以认为时短时间内的平稳信号。另外,提取时域下的持续时间、短时能量、短时平均过零率、基音周期作为情绪识别的特征。
S23)、采用高斯混合模型进行分类,将语音信号分为积极、消极和客观三类。在分类过程中,采用最大期望算法,将被测语音在情绪分类中的对数似然函数最大化,以完成情绪的判断。将一条语音输入到训练好的分类器中,即可输出不同类别的置信度。
本发明综合考虑语音和文本内容两方面的信息,通过机器学习算法,判断出客户正确的情绪反应,并根据客户问题和情绪识别结果,让机器人更加智能、自然的与客户进行交流。
以上描述的仅是本发明的基本原理和优选实施例,本领域技术人员根据本发明做出的改进和替换,属于本发明的保护范围。
Claims (10)
1.一种针对自然语言进行情绪识别的方法,其特征在于:该方法对收集的自然语言分别进行基于文本内容和基于语音的的情绪识别,然后综合两方面的信息,判断客户情绪类别,包括以下步骤:S01)、采集载有自然语言的语音信息,通过语音识别将其转换为文本信息,输入到事先建立好的文本情绪分类器,判断该文本信息是积极、消极还是客观,并输出各个类别的置信度;S02)、基于现有的语音库和机器人不断采集的自然语音,提取不同情绪状态下的声学特征并进行统计学习,建立一个语音情绪分类器,载有自然语言的语音信息输入后,判断该语音信息是积极、消极还是客观,并输出各个类别的置信度;S03)、参考基于文本内容的类别置信度和基于语音的类别置信度,通过支持向量机进行训练学习,最终得到一个综合语音和文本内容的情绪分析分类器。
2.根据权利要求1所述的针对自然语言进行情绪识别的方法,其特征在于:基于文本内容的情绪识别包括以下步骤:S11)、构建语料库,依据现有的情绪分类语料库,将其分为积极、消极和客观三组样本,同时,通过机器人不断地与客户进行自然语言交互,收集文本内容信息,不断地丰富语料库;S12)、特征词选择,采用CHI算法从构建的语料库中选择能够区分情绪类别的特征词;S13)、权重计算,根据步骤S11提供的语料库和步骤S12提供的特征词,采用改进的TF-IDF算法进行特征词统计和权重计算;S14)、采用SVM进行样本训练和测试,语料库中分为积极、消极和客观三类,采用SVM算法进行三分类的训练学习,训练结束后,输入由语音信息转换成的文本内容,即可输出各个类别的置信度。
3.根据权利要求1所述的针对自然语言进行情绪识别的方法,其特征在于:基于语音的情绪识别包括以下步骤:S21)、构建语音库,依据现有采集的语音构建语音库,同时通过机器人不断的进行现场语料采集来进行补充;S22)、语音信号的预处理和特征采集,将采集的语音信号进行采样、量化、加窗分帧的预处理之后进行特征提取,提取时域下的持续时间、短时能量、短时平均过零率、基音周期作为情绪识别的特征;S23)、采用高斯混合模型进行情绪判断,根据不同的语音特征在情绪表达的权重大小进行线性组合分析。
4.根据权利要求2所述的针对自然语言进行情绪识别的方法,其特征在于:步骤S11中,通过python爬虫爬取微博、淘宝等网站上面的大量的回复、评论进行分类,或者直接使用网络上公开的短文本情绪分类库,构建情绪识别语料库,同时利用交互机器人不断的进行现场采集,在机器人收到语音信号后,将其识别为文本内容发送给后台,并将这部分数据进行标注之后输入语料库,不断丰富语料库。
5.根据权利要求4所述的针对自然语言进行情绪识别的方法,其特征在于:针对机器人不能正确切分出来的词汇,建立一份用户自定义词表,依据机器人不断收集的问答数据和现场工作人员的反馈,不断丰富用户自定义词表。
6.根据权利要求2所述的针对自然语言进行情绪识别的方法,其特征在于:步骤S12中,采用情感词典来进行辅助特征选择。
7.根据权利要求6所述的针对自然语言进行情绪识别的方法,其特征在于:采用知网的情感分析词语集来辅助进行特征词的选择。
8.根据权利要求2所述的针对自然语言进行情绪识别的方法,其特征在于:步骤S13中,改进的TF-IDF算法为:根据短文本中是否有情感词、程度修饰词,分别在TF计算项上乘以一个自定义系数,以体现情感词、程度修饰词对情绪识别的表示能力。
9.根据权利要求3所述的针对自然语言进行情绪识别的方法,其特征在于:步骤S21中,依赖网络上已有的情感语音库构建语音库,同时通过对话机器人不断的进行现场语音采集,丰富语音库,并将其分为积极、消极和客观三组样本。
10.根据权利要求3所述的针对自然语言进行情绪识别的方法,其特征在于:步骤S23中,采用高斯混合模型进行分类,将语音信号分为积极、消极和客观三类,在分类过程中,采用最大期望算法,将被测语音在情绪分类中的对数似然函数最大化,以完成情绪的判断,将一条语音输入到训练好的分类器中,即可输出不同类别的置信度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711294193.6A CN107944008A (zh) | 2017-12-08 | 2017-12-08 | 一种针对自然语言进行情绪识别的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711294193.6A CN107944008A (zh) | 2017-12-08 | 2017-12-08 | 一种针对自然语言进行情绪识别的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107944008A true CN107944008A (zh) | 2018-04-20 |
Family
ID=61945331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711294193.6A Pending CN107944008A (zh) | 2017-12-08 | 2017-12-08 | 一种针对自然语言进行情绪识别的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107944008A (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108831436A (zh) * | 2018-06-12 | 2018-11-16 | 深圳市合言信息科技有限公司 | 一种模拟说话者情绪优化翻译后文本语音合成的方法 |
CN108875025A (zh) * | 2018-06-21 | 2018-11-23 | 魏巧萍 | 一种智能家居情感交互系统 |
CN109034364A (zh) * | 2018-08-07 | 2018-12-18 | 穆天机器人(杭州)有限公司 | 一种机器人拟人模糊情绪生成方法 |
CN109015666A (zh) * | 2018-06-21 | 2018-12-18 | 肖鑫茹 | 一种智能机器人 |
CN109129500A (zh) * | 2018-08-17 | 2019-01-04 | 重庆市南岸区瑜目网络科技有限责任公司 | 一种ai虚拟机器人的语音分层应答系统 |
CN109165284A (zh) * | 2018-08-22 | 2019-01-08 | 重庆邮电大学 | 一种基于大数据的金融领域人机对话意图识别方法 |
CN109190652A (zh) * | 2018-07-06 | 2019-01-11 | 中国平安人寿保险股份有限公司 | 坐席分类管理方法、装置、计算机设备和存储介质 |
CN109308466A (zh) * | 2018-09-18 | 2019-02-05 | 宁波众鑫网络科技股份有限公司 | 一种对交互语言进行情绪识别的方法 |
CN110287895A (zh) * | 2019-04-17 | 2019-09-27 | 北京阳光易德科技股份有限公司 | 一种基于卷积神经网络进行情绪测量的方法 |
CN110322899A (zh) * | 2019-06-18 | 2019-10-11 | 平安银行股份有限公司 | 用户智能分类方法、服务器及存储介质 |
CN110379419A (zh) * | 2019-07-16 | 2019-10-25 | 湖南检信智能科技有限公司 | 基于卷积神经网络的语音特征匹配方法 |
CN110377726A (zh) * | 2019-06-05 | 2019-10-25 | 特斯联(北京)科技有限公司 | 一种人工智能实现自然语言文本情绪识别方法与装置 |
CN110413984A (zh) * | 2018-04-27 | 2019-11-05 | 北京海马轻帆娱乐科技有限公司 | 一种情绪识别方法及装置 |
WO2019227505A1 (en) * | 2018-06-02 | 2019-12-05 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for training and using chatbot |
CN110675858A (zh) * | 2019-08-29 | 2020-01-10 | 平安科技(深圳)有限公司 | 基于情绪识别的终端控制方法和装置 |
CN110751943A (zh) * | 2019-11-07 | 2020-02-04 | 浙江同花顺智能科技有限公司 | 一种语音情绪识别方法、装置以及相关设备 |
CN110910903A (zh) * | 2019-12-04 | 2020-03-24 | 深圳前海微众银行股份有限公司 | 语音情绪识别方法、装置、设备及计算机可读存储介质 |
WO2020057014A1 (zh) * | 2018-09-18 | 2020-03-26 | 深圳壹账通智能科技有限公司 | 对话分析评价的方法、装置、计算机设备和存储介质 |
WO2020135194A1 (zh) * | 2018-12-26 | 2020-07-02 | 深圳Tcl新技术有限公司 | 基于情绪引擎技术的语音交互方法、智能终端及存储介质 |
CN111739516A (zh) * | 2020-06-19 | 2020-10-02 | 中国—东盟信息港股份有限公司 | 一种针对智能客服通话的语音识别系统 |
WO2020233504A1 (en) * | 2019-05-17 | 2020-11-26 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for emotion recognition |
CN113076407A (zh) * | 2021-03-22 | 2021-07-06 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
CN114203177A (zh) * | 2021-12-06 | 2022-03-18 | 深圳市证通电子股份有限公司 | 一种基于深度学习与情绪识别的智能语音问答方法和系统 |
US11323566B2 (en) | 2019-11-07 | 2022-05-03 | Hithink Royalflush Information Network Co., Ltd. | Systems and methods for smart dialogue communication |
CN117133413A (zh) * | 2023-10-26 | 2023-11-28 | 厚德明心(北京)科技有限公司 | 一种基于nlp的用户心理状态评估方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160027452A1 (en) * | 2014-07-28 | 2016-01-28 | Sone Computer Entertainment Inc. | Emotional speech processing |
CN106297826A (zh) * | 2016-08-18 | 2017-01-04 | 竹间智能科技(上海)有限公司 | 语音情感辨识系统及方法 |
CN106503805A (zh) * | 2016-11-14 | 2017-03-15 | 合肥工业大学 | 一种基于机器学习的双模态人人对话情感分析系统及其方法 |
CN107256392A (zh) * | 2017-06-05 | 2017-10-17 | 南京邮电大学 | 一种联合图像、语音的全面情绪识别方法 |
-
2017
- 2017-12-08 CN CN201711294193.6A patent/CN107944008A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160027452A1 (en) * | 2014-07-28 | 2016-01-28 | Sone Computer Entertainment Inc. | Emotional speech processing |
CN106297826A (zh) * | 2016-08-18 | 2017-01-04 | 竹间智能科技(上海)有限公司 | 语音情感辨识系统及方法 |
CN106503805A (zh) * | 2016-11-14 | 2017-03-15 | 合肥工业大学 | 一种基于机器学习的双模态人人对话情感分析系统及其方法 |
CN107256392A (zh) * | 2017-06-05 | 2017-10-17 | 南京邮电大学 | 一种联合图像、语音的全面情绪识别方法 |
Non-Patent Citations (4)
Title |
---|
姚海英: "中文文本分类中卡方统计特征选择方法和TF-IDF权重计算方法的研究", 《中国优秀硕士学位论文全文数据库》 * |
李青: "基于语音信号的情绪识别研究", 《中国优秀硕士学位论文全文数据库》 * |
柳位平: "基于情感词的中文文本情感分类研究", 《万方》 * |
王波,徐毅琼,李弼程: "基于SVM的多分类器融合算法在说话人识别中的应用", 《计算机工程与设计》 * |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110413984A (zh) * | 2018-04-27 | 2019-11-05 | 北京海马轻帆娱乐科技有限公司 | 一种情绪识别方法及装置 |
CN112189192A (zh) * | 2018-06-02 | 2021-01-05 | 北京嘀嘀无限科技发展有限公司 | 用于训练和使用聊天机器人的系统和方法 |
WO2019227505A1 (en) * | 2018-06-02 | 2019-12-05 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for training and using chatbot |
CN108831436A (zh) * | 2018-06-12 | 2018-11-16 | 深圳市合言信息科技有限公司 | 一种模拟说话者情绪优化翻译后文本语音合成的方法 |
CN108875025A (zh) * | 2018-06-21 | 2018-11-23 | 魏巧萍 | 一种智能家居情感交互系统 |
CN108875025B (zh) * | 2018-06-21 | 2021-12-03 | 江苏好集网络科技集团有限公司 | 一种智能家居情感交互系统 |
CN109015666A (zh) * | 2018-06-21 | 2018-12-18 | 肖鑫茹 | 一种智能机器人 |
CN109190652A (zh) * | 2018-07-06 | 2019-01-11 | 中国平安人寿保险股份有限公司 | 坐席分类管理方法、装置、计算机设备和存储介质 |
CN109034364A (zh) * | 2018-08-07 | 2018-12-18 | 穆天机器人(杭州)有限公司 | 一种机器人拟人模糊情绪生成方法 |
CN109129500A (zh) * | 2018-08-17 | 2019-01-04 | 重庆市南岸区瑜目网络科技有限责任公司 | 一种ai虚拟机器人的语音分层应答系统 |
CN109165284A (zh) * | 2018-08-22 | 2019-01-08 | 重庆邮电大学 | 一种基于大数据的金融领域人机对话意图识别方法 |
CN109165284B (zh) * | 2018-08-22 | 2020-06-16 | 重庆邮电大学 | 一种基于大数据的金融领域人机对话意图识别方法 |
CN109308466A (zh) * | 2018-09-18 | 2019-02-05 | 宁波众鑫网络科技股份有限公司 | 一种对交互语言进行情绪识别的方法 |
WO2020057014A1 (zh) * | 2018-09-18 | 2020-03-26 | 深圳壹账通智能科技有限公司 | 对话分析评价的方法、装置、计算机设备和存储介质 |
WO2020135194A1 (zh) * | 2018-12-26 | 2020-07-02 | 深圳Tcl新技术有限公司 | 基于情绪引擎技术的语音交互方法、智能终端及存储介质 |
CN110287895A (zh) * | 2019-04-17 | 2019-09-27 | 北京阳光易德科技股份有限公司 | 一种基于卷积神经网络进行情绪测量的方法 |
WO2020233504A1 (en) * | 2019-05-17 | 2020-11-26 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for emotion recognition |
CN110377726A (zh) * | 2019-06-05 | 2019-10-25 | 特斯联(北京)科技有限公司 | 一种人工智能实现自然语言文本情绪识别方法与装置 |
CN110377726B (zh) * | 2019-06-05 | 2020-08-25 | 光控特斯联(上海)信息科技有限公司 | 一种人工智能实现自然语言文本情绪识别方法与装置 |
CN110322899B (zh) * | 2019-06-18 | 2023-09-22 | 平安银行股份有限公司 | 用户智能分类方法、服务器及存储介质 |
CN110322899A (zh) * | 2019-06-18 | 2019-10-11 | 平安银行股份有限公司 | 用户智能分类方法、服务器及存储介质 |
CN110379419A (zh) * | 2019-07-16 | 2019-10-25 | 湖南检信智能科技有限公司 | 基于卷积神经网络的语音特征匹配方法 |
CN110675858A (zh) * | 2019-08-29 | 2020-01-10 | 平安科技(深圳)有限公司 | 基于情绪识别的终端控制方法和装置 |
US11323566B2 (en) | 2019-11-07 | 2022-05-03 | Hithink Royalflush Information Network Co., Ltd. | Systems and methods for smart dialogue communication |
CN110751943A (zh) * | 2019-11-07 | 2020-02-04 | 浙江同花顺智能科技有限公司 | 一种语音情绪识别方法、装置以及相关设备 |
US11758047B2 (en) | 2019-11-07 | 2023-09-12 | Hithink Royalflush Information Network Co., Ltd. | Systems and methods for smart dialogue communication |
CN110910903A (zh) * | 2019-12-04 | 2020-03-24 | 深圳前海微众银行股份有限公司 | 语音情绪识别方法、装置、设备及计算机可读存储介质 |
CN110910903B (zh) * | 2019-12-04 | 2023-03-21 | 深圳前海微众银行股份有限公司 | 语音情绪识别方法、装置、设备及计算机可读存储介质 |
CN111739516A (zh) * | 2020-06-19 | 2020-10-02 | 中国—东盟信息港股份有限公司 | 一种针对智能客服通话的语音识别系统 |
CN113076407A (zh) * | 2021-03-22 | 2021-07-06 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
CN114203177A (zh) * | 2021-12-06 | 2022-03-18 | 深圳市证通电子股份有限公司 | 一种基于深度学习与情绪识别的智能语音问答方法和系统 |
CN117133413A (zh) * | 2023-10-26 | 2023-11-28 | 厚德明心(北京)科技有限公司 | 一种基于nlp的用户心理状态评估方法及系统 |
CN117133413B (zh) * | 2023-10-26 | 2024-01-30 | 厚德明心(北京)科技有限公司 | 一种基于nlp的用户心理状态评估方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107944008A (zh) | 一种针对自然语言进行情绪识别的方法 | |
CN108509619B (zh) | 一种语音交互方法及设备 | |
CN102723078B (zh) | 基于自然言语理解的语音情感识别方法 | |
Shaqra et al. | Recognizing emotion from speech based on age and gender using hierarchical models | |
Wu et al. | Speech emotion recognition using capsule networks | |
Bertero et al. | A first look into a convolutional neural network for speech emotion detection | |
US10013977B2 (en) | Smart home control method based on emotion recognition and the system thereof | |
CN108399923B (zh) | 多人发言中发言人识别方法以及装置 | |
CN103700370B (zh) | 一种广播电视语音识别系统方法及系统 | |
Han et al. | Review on speech emotion recognition | |
CN110136749A (zh) | 说话人相关的端到端语音端点检测方法和装置 | |
Masumura et al. | Online end-of-turn detection from speech based on stacked time-asynchronous sequential networks. | |
CN108711421A (zh) | 一种语音识别声学模型建立方法及装置和电子设备 | |
Maghilnan et al. | Sentiment analysis on speaker specific speech data | |
Selvaperumal et al. | Speech to text synthesis from video automated subtitling using Levinson Durbin method of linear predictive coding | |
Gupta et al. | Two-stream emotion recognition for call center monitoring. | |
Masumura et al. | Neural dialogue context online end-of-turn detection | |
CN110209812A (zh) | 文本分类方法和装置 | |
CN107871499A (zh) | 语音识别方法、系统、计算机设备及计算机可读存储介质 | |
CN110431547A (zh) | 电子设备和控制方法 | |
Dash et al. | Speech recognition and correction of a stuttered speech | |
CN108628813A (zh) | 处理方法和装置、用于处理的装置 | |
Sapru et al. | Automatic speaker role labeling in AMI meetings: recognition of formal and social roles | |
Mishra et al. | Optimization of stammering in speech recognition applications | |
CN117441165A (zh) | 减少生成语言模型的偏差 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180420 |