CN116705077A - 一种ai分析语音识别情绪状态的方法 - Google Patents
一种ai分析语音识别情绪状态的方法 Download PDFInfo
- Publication number
- CN116705077A CN116705077A CN202310891940.3A CN202310891940A CN116705077A CN 116705077 A CN116705077 A CN 116705077A CN 202310891940 A CN202310891940 A CN 202310891940A CN 116705077 A CN116705077 A CN 116705077A
- Authority
- CN
- China
- Prior art keywords
- variable
- emotion
- weight
- information
- weight variable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 98
- 238000000034 method Methods 0.000 title claims abstract description 35
- 101100437991 Oryza sativa subsp. japonica BURP17 gene Proteins 0.000 claims description 27
- 230000007935 neutral effect Effects 0.000 claims description 16
- 230000002996 emotional effect Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 6
- 208000032577 susceptibility to 3 autoimmune disease Diseases 0.000 claims description 6
- 230000008909 emotion recognition Effects 0.000 claims description 4
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 claims description 3
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 206010028813 Nausea Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008693 nausea Effects 0.000 description 1
- 239000013074 reference sample Substances 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种AI分析语音识别情绪状态的方法,涉及AI分析语音技术领域,对当事人的语音进行准确分析,识别情绪的波动,分析出危险值,做到及时有效的反馈。借助第三方的数据库,得到丰富的情绪参考样本,并且借助语义识别系统和语音识别系统,对样本与刚刚收集到的语音进行匹配比较,得到所有需要的参数值,并且从列表中得到相应的权重进行计算,得到差值。最后差值能实时进行反馈,并将所得到的结果重新返回列表,变得更加准确合理,增加了参考价值,使数据库中的内容更加丰富和具有多样性。
Description
技术领域
本发明涉及AI分析语音技术领域,具体涉及一种AI分析语音识别情绪状态的方法。
背景技术
语音是传递信息的主要途径,还有就是能反应人类情感的很重要的行为信号,同意个文字不同的音调产生很多个语义。目前的人工智能技术,侧重点在语义识别,根据文字的意义去分析语言要传达的信息,但是忽略了语音承载的传递人类情感的作用。人类最常见的六种基本情感:开心(happiness),难过(sadness),生气(anger),恶心(disgust),害怕(fear),惊讶(surprise)。在交谈时,可以通过语言和语音传递这些基本情感,通过说话的音调抑扬顿挫、长短、重读等方式,传递情感信息。因此构建智能情绪识别系统时,需要将语义和语音两种不同的信息结合起来进行综合分析,才能更准确的把握住当事人的真正意图和情绪状态。
发明内容
本发明为了克服以上技术的不足,提供了一种能够精准评估当事人情绪的利用AI分析语音的方法。
本发明克服其技术问题所采用的技术方案是:
一种AI分析语音识别情绪状态的方法,包括如下步骤:
a)搭建信息数据库RDB1,信息数据库RDB1用于存储采集到的音频文件信息;
b)将信息数据库RDB1通过互联网连接到第三方语音语义识别库,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成词组,将转换后的词组放入列表L1中;
c)通过API回调将列表L1的词汇提交给百度语义分析引擎AIS1,利用百度语义分析引擎AIS1的对话情绪识别模块识别到列表L1中的情绪信息,情绪信息类别为:负向情绪、中性情绪、正向情绪,负向情绪取值为-1,中性情绪取值为0,正向情绪取值为1,将情绪信息的取值填写到情绪指数变量xattitude中,利用百度语义分析引擎AIS1的文本信息提取模块识别到列表L1中的语义信息,语义信息类别为:不同意、同意、观望中立,不同意取值为-1,观望中立取值为0,同意取值为1,将语义信息的取值填写到态度偏向变量xaim中;
d)将信息数据库RDB1通过互联网连接到CASIA汉语情感语料库,CASIA汉语情感语料库对信息数据库RDB1中的音频文件进行分析,得到情感信息,情感信息类别为:生气、高兴、害怕、难过、惊讶、中性,提取生气的情感信息并存储到变量xanger中,提取害怕的情感信息并存储到变量xfear中,提取难过的情感信息并存储到变量xsad中;
e)将情绪指数变量xattitude、态度偏向变量xaim、变量xanger、变量xfear、变量xsad输入到情绪识别AIS3进程中,AIS3进程创建权重列表PList,权重列表PList中记录情绪指数变量xattitude的权重变量Wattitude、态度偏向变量xaim的权重变量Waim、变量xanger的权重变量Wanger、变量xfear的权重变量Wfear、变量xsad的权重变量Wsad以及权重变量Wattitude的初始值V0、权重变量Waim的初始值V0、权重变量Wanger的初始值V0、权重变量Wfear的初始值V0、权重变量Wsad的初始值V0;
f)计算情感信息权重Wr;
g)通过公式计算得到总体的情绪指数αout,式中e为自然常数,αout小于0时,表示不同意,αout大于0时,表示同意,αout等于0时,表示观望中立。
优选的,步骤a)中信息数据库RDB1采用关系型数据库管理系统。
优选的,步骤a)中利用音频采集设备采集音频文件信息,采集的音频文件信息以WAV格式存储到信息数据库RDB1中。
优选的,步骤b)第三方语音语义识别库为百度语音引擎或科大讯飞语音引擎,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成utf-8编码的词组。
进一步的,步骤e)中权重变量Wattitude、权重变量Waim、权重变量Wanger、权重变量Wfear、权重变量Wsad的初始值V0均为0-1之间的随机小数。
进一步的,步骤f)中通过公式Wr=(Waim+Wanger*xanger+Wfear*xfear+Wsad*xsad)*xaim计算得到情感信息权重Wr。
进一步的,还包括在步骤g)之后执行如下步骤:
h)计算得到总体的情绪指数αout的同时由人工采集音频文件信息中说话人表达的意思αreal,说话人表达的意思为不同意时,αreal取值为-1,说话人表达的意思为同意时,αreal取值为1,说话人表达的意思为观望中立时,αreal取值为0;
i)通过公式计算得到得到差值Δα;
j)通过公式W′anger=Wanger+Wanger*(Δα/αout)计算得到新的权重变量W′anger,通过公式W′fear=Wfear+Wfear*(Δα/αout)计算得到新的权重变量W′fear,通过公式W′sad=Wsad+Wsad*(Δα/αout)计算得到新的权重变量W′sad,通过公式W′aim=Waim+Waim*(Δα/αout)计算得到新的权重变量W′aim,通过公式W′attitude=Wattitude+Wattitude*(Δα/αout)计算得到新的权重变量W′attitude;
k)将新的权重变量W′anger放入权重列表PList中并替换权重变量Wanger,将新的权重变量W′fear放入权重列表PList中并替换权重变量Wfear,将新的权重变量W′sad放入权重列表PList中并替换权重变量Wsad,将新的权重变量W′aim放入权重列表PList中并替换权重变量Waim,将新的权重变量W′attitude放入权重列表PList中并替换权重变量Wattitude;
l)重复步骤步骤a)到步骤k)N次,输出得到最终的总体的情绪指数αout。优选的,步骤k)中N取值为1000。
本发明的有益效果是:在有效解决多数据源分析情况下,对当事人的语音进行准确分析,识别情绪的波动,分析出危险值,做到及时有效的反馈。借助第三方的数据库,得到丰富的情绪参考样本,并且借助语义识别系统和语音识别系统,对样本与刚刚收集到的语音进行匹配比较,得到所有需要的参数值,并且从列表中得到相应的权重进行计算,得到差值。最后差值能实时进行反馈,并将所得到的结果重新返回列表,变得更加准确合理,增加了参考价值,使数据库中的内容更加丰富和具有多样性。
附图说明
图1为本发明的方法流程图。
具体实施方式
下面结合附图1对本发明做进一步说明。
一种AI分析语音识别情绪状态的方法,包括如下步骤:
a)搭建信息数据库RDB1,信息数据库RDB1用于存储采集到的音频文件信息,供后期数据检索使用。
b)将信息数据库RDB1通过互联网连接到第三方语音语义识别库,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成词组,将转换后的词组放入列表L1中。例如:L1={“一定”,“会”,“按时”,“支付”}。
c)通过API回调将列表L1的词汇提交给百度语义分析引擎AIS1,百度语义分析引擎AIS1词法分析向用户提供分词、词性标注、命名实体识别三大功能,可以识别出文本中的基本词汇,对这些词汇进行重组、标注组合后词汇的词性,并进一步识别出命名实体,本发明调用其中“对话情绪识别”和“文本信息提取”两个模块的功能,具体的,利用百度语义分析引擎AIS1的对话情绪识别模块识别到列表L1中的情绪信息,情绪信息类别为:负向情绪、中性情绪、正向情绪,负向情绪取值为-1,中性情绪取值为0,正向情绪取值为1,将情绪信息的取值填写到情绪指数变量xattitude中,利用百度语义分析引擎AIS1的文本信息提取模块识别到列表L1中的语义信息,语义信息类别为:不同意、同意、观望中立,不同意取值为-1,观望中立取值为0,同意取值为1,将语义信息的取值填写到态度偏向变量xaim中,单独保存,供后面调用。
d)将信息数据库RDB1通过互联网连接到CASIA汉语情感语料库,CASIA汉语情感语料库对信息数据库RDB1中的音频文件进行分析,得到情感信息,情感信息类别为:生气、高兴、害怕、难过、惊讶、中性,提取生气的情感信息并存储到变量xanger中,提取害怕的情感信息并存储到变量xfear中,提取难过的情感信息并存储到变量xsad中。
e)将情绪指数变量xattitude、态度偏向变量xaim、变量xanger、变量xfear、变量xsad输入到情绪识别AIS3进程中,AIS3进程创建权重列表PList,权重列表PList中记录情绪指数变量xattitude的权重变量Wattitude、态度偏向变量xaim的权重变量Waim、变量xanger的权重变量Wanger、变量xfear的权重变量Wfear、变量xsad的权重变量Wsad以及权重变量Wattitude的初始值V0、权重变量Waim的初始值V0、权重变量Wanger的初始值V0、权重变量Wfear的初始值V0、权重变量Wsad的初始值V0。具体如下表所示:
f)计算情感信息权重Wr。
g)通过公式计算得到总体的情绪指数αout,式中e为自然常数,αout小于0时,表示不同意,αout大于0时,表示同意,αout等于0时,表示观望中立。
通过实时采集语音音频流,从语义和语调两个维度,对当事人的情绪进行稳定性分析,并借助AI模型进行深度学习分析,最终建立一个精准评估当事人情绪的模型。在有效解决多数据源分析情况下,对当事人的语音进行准确分析,识别情绪的波动,分析出危险值,做到及时有效的反馈。该方法首先借助第三方的数据库,得到丰富的情绪参考样本,并且借助语义识别系统和语音识别系统,对样本与刚刚收集到的语音进行匹配比较,得到所有需要的参数值,并且从列表中得到相应的权重进行计算,得到差值。最后差值能实时进行反馈,并将所得到的结果重新返回列表,变得更加准确合理,增加了参考价值,使数据库中的内容更加丰富和具有多样性。
在本发明的一个实施例中,步骤a)中信息数据库RDB1采用关系型数据库管理系统,内容可以供语义识别系统AIS1读取访问。步骤a)中利用音频采集设备采集音频文件信息,采集的音频文件信息以WAV格式存储到信息数据库RDB1中。
在本发明的一个实施例中,步骤b)第三方语音语义识别库为百度语音引擎或科大讯飞语音引擎,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成utf-8编码的词组。
在本发明的一个实施例中,步骤e)中权重变量Wattitude、权重变量Waim、权重变量Wanger、权重变量Wfear、权重变量Wsad的初始值V0均为0-1之间的随机小数。
在本发明的一个实施例中,步骤f)中通过公式Wr=(Waim+Wanger*xanger+Wfear*xfear+Wsad*xsad)*xaim计算得到情感信息权重Wr。
在本发明的一个实施例中,还包括在步骤g)之后执行如下步骤:
h)计算得到总体的情绪指数αout的同时由人工采集音频文件信息中说话人表达的意思αreal,说话人表达的意思为不同意时,αreal取值为-1,说话人表达的意思为同意时,αreal取值为1,说话人表达的意思为观望中立时,αreal取值为0;
i)通过公式计算得到得到差值Δα;
j)通过公式W′anger=Wanger+Wanger*(Δα/αout)计算得到新的权重变量W′anger,通过公式W′fear=Wfear+Wfear*(Δα/αout)计算得到新的权重变量W′fear,通过公式W′sad=Wsad+Wsad*(Δα/αout)计算得到新的权重变量W′sad,通过公式W′aim=Waim+Waim*(Δα/αout)计算得到新的权重变量W′aim,通过公式W′attitude=Wattitude+Wattitude*(Δα/αout)计算得到新的权重变量W′attitude;
k)将新的权重变量W′anger放入权重列表PList中并替换权重变量Wanger,将新的权重变量W′fear放入权重列表PList中并替换权重变量Wfear,将新的权重变量W′sad放入权重列表PList中并替换权重变量Wsad,将新的权重变量W′aim放入权重列表PList中并替换权重变量Waim,将新的权重变量W′attitude放入权重列表PList中并替换权重变量Wattitude;
l)重复步骤步骤a)到步骤k)N次,输出得到最终的总体的情绪指数αout。在该实施例中,优选的,步骤k)中N取值为1000。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种AI分析语音识别情绪状态的方法,其特征在于,包括如下步骤:
a)搭建信息数据库RDB1,信息数据库RDB1用于存储采集到的音频文件信息;
b)将信息数据库RDB1通过互联网连接到第三方语音语义识别库,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成词组,将转换后的词组放入列表L1中;
c)通过API回调将列表L1的词汇提交给百度语义分析引擎AIS1,利用百度语义分析引擎AIS1的对话情绪识别模块识别到列表L1中的情绪信息,情绪信息类别为:负向情绪、中性情绪、正向情绪,负向情绪取值为-1,中性情绪取值为0,正向情绪取值为1,将情绪信息的取值填写到情绪指数变量xattitude中,利用百度语义分析引擎AIS1的文本信息提取模块识别到列表L1中的语义信息,语义信息类别为:不同意、同意、观望中立,不同意取值为-1,观望中立取值为0,同意取值为1,将语义信息的取值填写到态度偏向变量xaim中;
d)将信息数据库RDB1通过互联网连接到CASIA汉语情感语料库,CASIA汉语情感语料库对信息数据库RDB1中的音频文件进行分析,得到情感信息,情感信息类别为:生气、高兴、害怕、难过、惊讶、中性,提取生气的情感信息并存储到变量xanger中,提取害怕的情感信息并存储到变量xfear中,提取难过的情感信息并存储到变量xsad中;
e)将情绪指数变量xattitude、态度偏向变量xaim、变量xanger、变量xfear、变量xsad输入到情绪识别AIS3进程中,AIS3进程创建权重列表PList,权重列表PList中记录情绪指数变量xattitude的权重变量Wattitude、态度偏向变量xaim的权重变量Waim、变量xanger的权重变量Wanger、变量xfear的权重变量Wfear、变量xsad的权重变量Wsad以及权重变量Wattitude的初始值V0、权重变量Waim的初始值V0、权重变量Wanger的初始值V0、权重变量Wfear的初始值V0、权重变量Wsad的初始值V0;
f)计算情感信息权重Wr;
g)通过公式计算得到总体的情绪指数αout,式中e为自然常数,αout小于0时,表示不同意,αout大于0时,表示同意,αout等于0时,表示观望中立。
2.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于:步骤a)中信息数据库RDB1采用关系型数据库管理系统。
3.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于:步骤a)中利用音频采集设备采集音频文件信息,采集的音频文件信息以WAV格式存储到信息数据库RDB1中。
4.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于:步骤b)第三方语音语义识别库为百度语音引擎或科大讯飞语音引擎,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成utf-8编码的词组。
5.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于:步骤e)中权重变量Wattitude、权重变量Waim、权重变量Wanger、权重变量Wfear、权重变量Wsad的初始值V0均为0-1之间的随机小数。
6.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于:步骤f)中通过公式
Wr=(Waim+Wanger*xanger+Wfear*xfear+Wsad*xsad)*xaim计
算得到情感信息权重Wr。
7.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于,还包括在步骤g)之后执行如下步骤:
h)计算得到总体的情绪指数αout的同时由人工采集音频文件信息中说话人表达的意思αreal,说话人表达的意思为不同意时,αreal取值为-1,说话人表达的意思为同意时,αreal取值为1,说话人表达的意思为观望中立时,αreal取值为0;
i)通过公式计算得到得到差值Δα;
j)通过公式Wa′nger=Wanger+Wanger*(Δα/αout)计算得到新的权重变量Wa′nger,通过公式Wf′ear=Wfear+Wfear*(Δα/αout)计算得到新的权重变量Wf′ear,通过公式Ws′ad=Wsad+Wsad*(Δα/αout)计算得到新的权重变量Ws′ad,通过公式Wa′im=Waim+Waim*(Δα/αout)计算得到新的权重变量Wa′im,通过公式Wa′ttitude=Wattitude+Wattitude*(Δα/αout)计算得到新的权重变量Wa′ttitude;
k)将新的权重变量Wa′nger放入权重列表PList中并替换权重变量Wanger,将新的权重变量Wf′ear放入权重列表PList中并替换权重变量Wfear,将新的权重变量Ws′ad放入权重列表PList中并替换权重变量Wsad,将新的权重变量Wa′im放入权重列表PList中并替换权重变量Waim,将新的权重变量Wa′ttitude放入权重列表PList中并替换权重变量Wattitude;
l)重复步骤步骤a)到步骤k)N次,输出得到最终的总体的情绪指数αout。
8.根据权利要求7所述的AI分析语音识别情绪状态的方法,其特征在于:步骤k)中N取值为1000。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310891940.3A CN116705077A (zh) | 2023-07-20 | 2023-07-20 | 一种ai分析语音识别情绪状态的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310891940.3A CN116705077A (zh) | 2023-07-20 | 2023-07-20 | 一种ai分析语音识别情绪状态的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116705077A true CN116705077A (zh) | 2023-09-05 |
Family
ID=87831298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310891940.3A Pending CN116705077A (zh) | 2023-07-20 | 2023-07-20 | 一种ai分析语音识别情绪状态的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116705077A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117688319A (zh) * | 2023-11-10 | 2024-03-12 | 山东恒云信息科技有限公司 | 一种使用ai分析数据库结构的方法 |
-
2023
- 2023-07-20 CN CN202310891940.3A patent/CN116705077A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117688319A (zh) * | 2023-11-10 | 2024-03-12 | 山东恒云信息科技有限公司 | 一种使用ai分析数据库结构的方法 |
CN117688319B (zh) * | 2023-11-10 | 2024-05-07 | 山东恒云信息科技有限公司 | 一种使用ai分析数据库结构的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101382937B (zh) | 基于语音识别的多媒体资源处理方法及其在线教学系统 | |
CN110853649A (zh) | 基于智能语音技术的标签提取方法、系统、设备及介质 | |
CN110717018A (zh) | 一种基于知识图谱的工业设备故障维修问答系统 | |
CN103810998B (zh) | 基于移动终端设备的离线语音识别方法以及实现方法 | |
CN110347787B (zh) | 一种基于ai辅助面试场景的面试方法、装置及终端设备 | |
CN111489765A (zh) | 一种基于智能语音技术的话务服务质检方法 | |
CN111460213A (zh) | 一种基于多模态学习的音乐情感分类方法 | |
KR20200119410A (ko) | 전역 및 지역 문맥 기반 한국어 대화문 감정 인식 시스템 및 방법 | |
CN108763338A (zh) | 一种基于电力行业的新闻采编系统 | |
CN111489754A (zh) | 一种基于智能语音技术的话务数据分析方法 | |
CN116705077A (zh) | 一种ai分析语音识别情绪状态的方法 | |
CN116665676B (zh) | 一种用于智能语音外呼系统的语义识别方法 | |
CN116092472A (zh) | 一种语音合成方法和合成系统 | |
CN116431806A (zh) | 自然语言理解方法及冰箱 | |
Klaylat et al. | Enhancement of an Arabic speech emotion recognition system | |
CN111489743A (zh) | 一种基于智能语音技术的运营管理分析系统 | |
CN110675292A (zh) | 一种基于人工智能的儿童语言能力评测方法 | |
CN113555133A (zh) | 一种医疗问诊数据处理方法和装置 | |
CN117216008A (zh) | 一种基于知识图谱的档案多模态智能编纂方法及系统 | |
CN116911869A (zh) | 一种基于人工智能的智能客服系统及其方法 | |
CN117149977A (zh) | 一种基于机器人流程自动化的智能催收机器人 | |
CN116129868A (zh) | 一种结构化画本的生成方法和生成系统 | |
Wu et al. | Using a knowledge base to automatically annotate speech corpora and to identify sociolinguistic variation | |
CN112270192B (zh) | 一种基于词性和停用词过滤的语义识别方法及系统 | |
Lane et al. | Local word discovery for interactive transcription |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |