CN116705077A - 一种ai分析语音识别情绪状态的方法 - Google Patents

一种ai分析语音识别情绪状态的方法 Download PDF

Info

Publication number
CN116705077A
CN116705077A CN202310891940.3A CN202310891940A CN116705077A CN 116705077 A CN116705077 A CN 116705077A CN 202310891940 A CN202310891940 A CN 202310891940A CN 116705077 A CN116705077 A CN 116705077A
Authority
CN
China
Prior art keywords
variable
emotion
weight
information
weight variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310891940.3A
Other languages
English (en)
Inventor
张衍亮
张剑霞
徐风
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Xinchao Information Technology Co ltd
Original Assignee
Shandong Xinchao Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Xinchao Information Technology Co ltd filed Critical Shandong Xinchao Information Technology Co ltd
Priority to CN202310891940.3A priority Critical patent/CN116705077A/zh
Publication of CN116705077A publication Critical patent/CN116705077A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种AI分析语音识别情绪状态的方法,涉及AI分析语音技术领域,对当事人的语音进行准确分析,识别情绪的波动,分析出危险值,做到及时有效的反馈。借助第三方的数据库,得到丰富的情绪参考样本,并且借助语义识别系统和语音识别系统,对样本与刚刚收集到的语音进行匹配比较,得到所有需要的参数值,并且从列表中得到相应的权重进行计算,得到差值。最后差值能实时进行反馈,并将所得到的结果重新返回列表,变得更加准确合理,增加了参考价值,使数据库中的内容更加丰富和具有多样性。

Description

一种AI分析语音识别情绪状态的方法
技术领域
本发明涉及AI分析语音技术领域,具体涉及一种AI分析语音识别情绪状态的方法。
背景技术
语音是传递信息的主要途径,还有就是能反应人类情感的很重要的行为信号,同意个文字不同的音调产生很多个语义。目前的人工智能技术,侧重点在语义识别,根据文字的意义去分析语言要传达的信息,但是忽略了语音承载的传递人类情感的作用。人类最常见的六种基本情感:开心(happiness),难过(sadness),生气(anger),恶心(disgust),害怕(fear),惊讶(surprise)。在交谈时,可以通过语言和语音传递这些基本情感,通过说话的音调抑扬顿挫、长短、重读等方式,传递情感信息。因此构建智能情绪识别系统时,需要将语义和语音两种不同的信息结合起来进行综合分析,才能更准确的把握住当事人的真正意图和情绪状态。
发明内容
本发明为了克服以上技术的不足,提供了一种能够精准评估当事人情绪的利用AI分析语音的方法。
本发明克服其技术问题所采用的技术方案是:
一种AI分析语音识别情绪状态的方法,包括如下步骤:
a)搭建信息数据库RDB1,信息数据库RDB1用于存储采集到的音频文件信息;
b)将信息数据库RDB1通过互联网连接到第三方语音语义识别库,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成词组,将转换后的词组放入列表L1中;
c)通过API回调将列表L1的词汇提交给百度语义分析引擎AIS1,利用百度语义分析引擎AIS1的对话情绪识别模块识别到列表L1中的情绪信息,情绪信息类别为:负向情绪、中性情绪、正向情绪,负向情绪取值为-1,中性情绪取值为0,正向情绪取值为1,将情绪信息的取值填写到情绪指数变量xattitude中,利用百度语义分析引擎AIS1的文本信息提取模块识别到列表L1中的语义信息,语义信息类别为:不同意、同意、观望中立,不同意取值为-1,观望中立取值为0,同意取值为1,将语义信息的取值填写到态度偏向变量xaim中;
d)将信息数据库RDB1通过互联网连接到CASIA汉语情感语料库,CASIA汉语情感语料库对信息数据库RDB1中的音频文件进行分析,得到情感信息,情感信息类别为:生气、高兴、害怕、难过、惊讶、中性,提取生气的情感信息并存储到变量xanger中,提取害怕的情感信息并存储到变量xfear中,提取难过的情感信息并存储到变量xsad中;
e)将情绪指数变量xattitude、态度偏向变量xaim、变量xanger、变量xfear、变量xsad输入到情绪识别AIS3进程中,AIS3进程创建权重列表PList,权重列表PList中记录情绪指数变量xattitude的权重变量Wattitude、态度偏向变量xaim的权重变量Waim、变量xanger的权重变量Wanger、变量xfear的权重变量Wfear、变量xsad的权重变量Wsad以及权重变量Wattitude的初始值V0、权重变量Waim的初始值V0、权重变量Wanger的初始值V0、权重变量Wfear的初始值V0、权重变量Wsad的初始值V0;
f)计算情感信息权重Wr
g)通过公式计算得到总体的情绪指数αout,式中e为自然常数,αout小于0时,表示不同意,αout大于0时,表示同意,αout等于0时,表示观望中立。
优选的,步骤a)中信息数据库RDB1采用关系型数据库管理系统。
优选的,步骤a)中利用音频采集设备采集音频文件信息,采集的音频文件信息以WAV格式存储到信息数据库RDB1中。
优选的,步骤b)第三方语音语义识别库为百度语音引擎或科大讯飞语音引擎,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成utf-8编码的词组。
进一步的,步骤e)中权重变量Wattitude、权重变量Waim、权重变量Wanger、权重变量Wfear、权重变量Wsad的初始值V0均为0-1之间的随机小数。
进一步的,步骤f)中通过公式Wr=(Waim+Wanger*xanger+Wfear*xfear+Wsad*xsad)*xaim计算得到情感信息权重Wr
进一步的,还包括在步骤g)之后执行如下步骤:
h)计算得到总体的情绪指数αout的同时由人工采集音频文件信息中说话人表达的意思αreal,说话人表达的意思为不同意时,αreal取值为-1,说话人表达的意思为同意时,αreal取值为1,说话人表达的意思为观望中立时,αreal取值为0;
i)通过公式计算得到得到差值Δα;
j)通过公式W′anger=Wanger+Wanger*(Δα/αout)计算得到新的权重变量W′anger,通过公式W′fear=Wfear+Wfear*(Δα/αout)计算得到新的权重变量W′fear,通过公式W′sad=Wsad+Wsad*(Δα/αout)计算得到新的权重变量W′sad,通过公式W′aim=Waim+Waim*(Δα/αout)计算得到新的权重变量W′aim,通过公式W′attitude=Wattitude+Wattitude*(Δα/αout)计算得到新的权重变量W′attitude
k)将新的权重变量W′anger放入权重列表PList中并替换权重变量Wanger,将新的权重变量W′fear放入权重列表PList中并替换权重变量Wfear,将新的权重变量W′sad放入权重列表PList中并替换权重变量Wsad,将新的权重变量W′aim放入权重列表PList中并替换权重变量Waim,将新的权重变量W′attitude放入权重列表PList中并替换权重变量Wattitude
l)重复步骤步骤a)到步骤k)N次,输出得到最终的总体的情绪指数αout。优选的,步骤k)中N取值为1000。
本发明的有益效果是:在有效解决多数据源分析情况下,对当事人的语音进行准确分析,识别情绪的波动,分析出危险值,做到及时有效的反馈。借助第三方的数据库,得到丰富的情绪参考样本,并且借助语义识别系统和语音识别系统,对样本与刚刚收集到的语音进行匹配比较,得到所有需要的参数值,并且从列表中得到相应的权重进行计算,得到差值。最后差值能实时进行反馈,并将所得到的结果重新返回列表,变得更加准确合理,增加了参考价值,使数据库中的内容更加丰富和具有多样性。
附图说明
图1为本发明的方法流程图。
具体实施方式
下面结合附图1对本发明做进一步说明。
一种AI分析语音识别情绪状态的方法,包括如下步骤:
a)搭建信息数据库RDB1,信息数据库RDB1用于存储采集到的音频文件信息,供后期数据检索使用。
b)将信息数据库RDB1通过互联网连接到第三方语音语义识别库,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成词组,将转换后的词组放入列表L1中。例如:L1={“一定”,“会”,“按时”,“支付”}。
c)通过API回调将列表L1的词汇提交给百度语义分析引擎AIS1,百度语义分析引擎AIS1词法分析向用户提供分词、词性标注、命名实体识别三大功能,可以识别出文本中的基本词汇,对这些词汇进行重组、标注组合后词汇的词性,并进一步识别出命名实体,本发明调用其中“对话情绪识别”和“文本信息提取”两个模块的功能,具体的,利用百度语义分析引擎AIS1的对话情绪识别模块识别到列表L1中的情绪信息,情绪信息类别为:负向情绪、中性情绪、正向情绪,负向情绪取值为-1,中性情绪取值为0,正向情绪取值为1,将情绪信息的取值填写到情绪指数变量xattitude中,利用百度语义分析引擎AIS1的文本信息提取模块识别到列表L1中的语义信息,语义信息类别为:不同意、同意、观望中立,不同意取值为-1,观望中立取值为0,同意取值为1,将语义信息的取值填写到态度偏向变量xaim中,单独保存,供后面调用。
d)将信息数据库RDB1通过互联网连接到CASIA汉语情感语料库,CASIA汉语情感语料库对信息数据库RDB1中的音频文件进行分析,得到情感信息,情感信息类别为:生气、高兴、害怕、难过、惊讶、中性,提取生气的情感信息并存储到变量xanger中,提取害怕的情感信息并存储到变量xfear中,提取难过的情感信息并存储到变量xsad中。
e)将情绪指数变量xattitude、态度偏向变量xaim、变量xanger、变量xfear、变量xsad输入到情绪识别AIS3进程中,AIS3进程创建权重列表PList,权重列表PList中记录情绪指数变量xattitude的权重变量Wattitude、态度偏向变量xaim的权重变量Waim、变量xanger的权重变量Wanger、变量xfear的权重变量Wfear、变量xsad的权重变量Wsad以及权重变量Wattitude的初始值V0、权重变量Waim的初始值V0、权重变量Wanger的初始值V0、权重变量Wfear的初始值V0、权重变量Wsad的初始值V0。具体如下表所示:
f)计算情感信息权重Wr
g)通过公式计算得到总体的情绪指数αout,式中e为自然常数,αout小于0时,表示不同意,αout大于0时,表示同意,αout等于0时,表示观望中立。
通过实时采集语音音频流,从语义和语调两个维度,对当事人的情绪进行稳定性分析,并借助AI模型进行深度学习分析,最终建立一个精准评估当事人情绪的模型。在有效解决多数据源分析情况下,对当事人的语音进行准确分析,识别情绪的波动,分析出危险值,做到及时有效的反馈。该方法首先借助第三方的数据库,得到丰富的情绪参考样本,并且借助语义识别系统和语音识别系统,对样本与刚刚收集到的语音进行匹配比较,得到所有需要的参数值,并且从列表中得到相应的权重进行计算,得到差值。最后差值能实时进行反馈,并将所得到的结果重新返回列表,变得更加准确合理,增加了参考价值,使数据库中的内容更加丰富和具有多样性。
在本发明的一个实施例中,步骤a)中信息数据库RDB1采用关系型数据库管理系统,内容可以供语义识别系统AIS1读取访问。步骤a)中利用音频采集设备采集音频文件信息,采集的音频文件信息以WAV格式存储到信息数据库RDB1中。
在本发明的一个实施例中,步骤b)第三方语音语义识别库为百度语音引擎或科大讯飞语音引擎,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成utf-8编码的词组。
在本发明的一个实施例中,步骤e)中权重变量Wattitude、权重变量Waim、权重变量Wanger、权重变量Wfear、权重变量Wsad的初始值V0均为0-1之间的随机小数。
在本发明的一个实施例中,步骤f)中通过公式Wr=(Waim+Wanger*xanger+Wfear*xfear+Wsad*xsad)*xaim计算得到情感信息权重Wr
在本发明的一个实施例中,还包括在步骤g)之后执行如下步骤:
h)计算得到总体的情绪指数αout的同时由人工采集音频文件信息中说话人表达的意思αreal,说话人表达的意思为不同意时,αreal取值为-1,说话人表达的意思为同意时,αreal取值为1,说话人表达的意思为观望中立时,αreal取值为0;
i)通过公式计算得到得到差值Δα;
j)通过公式W′anger=Wanger+Wanger*(Δα/αout)计算得到新的权重变量W′anger,通过公式W′fear=Wfear+Wfear*(Δα/αout)计算得到新的权重变量W′fear,通过公式W′sad=Wsad+Wsad*(Δα/αout)计算得到新的权重变量W′sad,通过公式W′aim=Waim+Waim*(Δα/αout)计算得到新的权重变量W′aim,通过公式W′attitude=Wattitude+Wattitude*(Δα/αout)计算得到新的权重变量W′attitude
k)将新的权重变量W′anger放入权重列表PList中并替换权重变量Wanger,将新的权重变量W′fear放入权重列表PList中并替换权重变量Wfear,将新的权重变量W′sad放入权重列表PList中并替换权重变量Wsad,将新的权重变量W′aim放入权重列表PList中并替换权重变量Waim,将新的权重变量W′attitude放入权重列表PList中并替换权重变量Wattitude
l)重复步骤步骤a)到步骤k)N次,输出得到最终的总体的情绪指数αout。在该实施例中,优选的,步骤k)中N取值为1000。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种AI分析语音识别情绪状态的方法,其特征在于,包括如下步骤:
a)搭建信息数据库RDB1,信息数据库RDB1用于存储采集到的音频文件信息;
b)将信息数据库RDB1通过互联网连接到第三方语音语义识别库,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成词组,将转换后的词组放入列表L1中;
c)通过API回调将列表L1的词汇提交给百度语义分析引擎AIS1,利用百度语义分析引擎AIS1的对话情绪识别模块识别到列表L1中的情绪信息,情绪信息类别为:负向情绪、中性情绪、正向情绪,负向情绪取值为-1,中性情绪取值为0,正向情绪取值为1,将情绪信息的取值填写到情绪指数变量xattitude中,利用百度语义分析引擎AIS1的文本信息提取模块识别到列表L1中的语义信息,语义信息类别为:不同意、同意、观望中立,不同意取值为-1,观望中立取值为0,同意取值为1,将语义信息的取值填写到态度偏向变量xaim中;
d)将信息数据库RDB1通过互联网连接到CASIA汉语情感语料库,CASIA汉语情感语料库对信息数据库RDB1中的音频文件进行分析,得到情感信息,情感信息类别为:生气、高兴、害怕、难过、惊讶、中性,提取生气的情感信息并存储到变量xanger中,提取害怕的情感信息并存储到变量xfear中,提取难过的情感信息并存储到变量xsad中;
e)将情绪指数变量xattitude、态度偏向变量xaim、变量xanger、变量xfear、变量xsad输入到情绪识别AIS3进程中,AIS3进程创建权重列表PList,权重列表PList中记录情绪指数变量xattitude的权重变量Wattitude、态度偏向变量xaim的权重变量Waim、变量xanger的权重变量Wanger、变量xfear的权重变量Wfear、变量xsad的权重变量Wsad以及权重变量Wattitude的初始值V0、权重变量Waim的初始值V0、权重变量Wanger的初始值V0、权重变量Wfear的初始值V0、权重变量Wsad的初始值V0;
f)计算情感信息权重Wr
g)通过公式计算得到总体的情绪指数αout,式中e为自然常数,αout小于0时,表示不同意,αout大于0时,表示同意,αout等于0时,表示观望中立。
2.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于:步骤a)中信息数据库RDB1采用关系型数据库管理系统。
3.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于:步骤a)中利用音频采集设备采集音频文件信息,采集的音频文件信息以WAV格式存储到信息数据库RDB1中。
4.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于:步骤b)第三方语音语义识别库为百度语音引擎或科大讯飞语音引擎,通过第三方语音语义识别库的API接口将信息数据库RDB1中的音频文件转换成utf-8编码的词组。
5.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于:步骤e)中权重变量Wattitude、权重变量Waim、权重变量Wanger、权重变量Wfear、权重变量Wsad的初始值V0均为0-1之间的随机小数。
6.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于:步骤f)中通过公式
Wr=(Waim+Wanger*xanger+Wfear*xfear+Wsad*xsad)*xaim
算得到情感信息权重Wr
7.根据权利要求1所述的AI分析语音识别情绪状态的方法,其特征在于,还包括在步骤g)之后执行如下步骤:
h)计算得到总体的情绪指数αout的同时由人工采集音频文件信息中说话人表达的意思αreal,说话人表达的意思为不同意时,αreal取值为-1,说话人表达的意思为同意时,αreal取值为1,说话人表达的意思为观望中立时,αreal取值为0;
i)通过公式计算得到得到差值Δα;
j)通过公式Wanger=Wanger+Wanger*(Δα/αout)计算得到新的权重变量Wanger,通过公式Wfear=Wfear+Wfear*(Δα/αout)计算得到新的权重变量Wfear,通过公式Wsad=Wsad+Wsad*(Δα/αout)计算得到新的权重变量Wsad,通过公式Waim=Waim+Waim*(Δα/αout)计算得到新的权重变量Waim,通过公式Wattitude=Wattitude+Wattitude*(Δα/αout)计算得到新的权重变量Wattitude
k)将新的权重变量Wanger放入权重列表PList中并替换权重变量Wanger,将新的权重变量Wfear放入权重列表PList中并替换权重变量Wfear,将新的权重变量Wsad放入权重列表PList中并替换权重变量Wsad,将新的权重变量Waim放入权重列表PList中并替换权重变量Waim,将新的权重变量Wattitude放入权重列表PList中并替换权重变量Wattitude
l)重复步骤步骤a)到步骤k)N次,输出得到最终的总体的情绪指数αout
8.根据权利要求7所述的AI分析语音识别情绪状态的方法,其特征在于:步骤k)中N取值为1000。
CN202310891940.3A 2023-07-20 2023-07-20 一种ai分析语音识别情绪状态的方法 Pending CN116705077A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310891940.3A CN116705077A (zh) 2023-07-20 2023-07-20 一种ai分析语音识别情绪状态的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310891940.3A CN116705077A (zh) 2023-07-20 2023-07-20 一种ai分析语音识别情绪状态的方法

Publications (1)

Publication Number Publication Date
CN116705077A true CN116705077A (zh) 2023-09-05

Family

ID=87831298

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310891940.3A Pending CN116705077A (zh) 2023-07-20 2023-07-20 一种ai分析语音识别情绪状态的方法

Country Status (1)

Country Link
CN (1) CN116705077A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117688319A (zh) * 2023-11-10 2024-03-12 山东恒云信息科技有限公司 一种使用ai分析数据库结构的方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117688319A (zh) * 2023-11-10 2024-03-12 山东恒云信息科技有限公司 一种使用ai分析数据库结构的方法
CN117688319B (zh) * 2023-11-10 2024-05-07 山东恒云信息科技有限公司 一种使用ai分析数据库结构的方法

Similar Documents

Publication Publication Date Title
CN101382937B (zh) 基于语音识别的多媒体资源处理方法及其在线教学系统
CN110853649A (zh) 基于智能语音技术的标签提取方法、系统、设备及介质
CN110717018A (zh) 一种基于知识图谱的工业设备故障维修问答系统
CN103810998B (zh) 基于移动终端设备的离线语音识别方法以及实现方法
CN110347787B (zh) 一种基于ai辅助面试场景的面试方法、装置及终端设备
CN111489765A (zh) 一种基于智能语音技术的话务服务质检方法
CN111460213A (zh) 一种基于多模态学习的音乐情感分类方法
KR20200119410A (ko) 전역 및 지역 문맥 기반 한국어 대화문 감정 인식 시스템 및 방법
CN108763338A (zh) 一种基于电力行业的新闻采编系统
CN111489754A (zh) 一种基于智能语音技术的话务数据分析方法
CN116705077A (zh) 一种ai分析语音识别情绪状态的方法
CN116665676B (zh) 一种用于智能语音外呼系统的语义识别方法
CN116092472A (zh) 一种语音合成方法和合成系统
CN116431806A (zh) 自然语言理解方法及冰箱
Klaylat et al. Enhancement of an Arabic speech emotion recognition system
CN111489743A (zh) 一种基于智能语音技术的运营管理分析系统
CN110675292A (zh) 一种基于人工智能的儿童语言能力评测方法
CN113555133A (zh) 一种医疗问诊数据处理方法和装置
CN117216008A (zh) 一种基于知识图谱的档案多模态智能编纂方法及系统
CN116911869A (zh) 一种基于人工智能的智能客服系统及其方法
CN117149977A (zh) 一种基于机器人流程自动化的智能催收机器人
CN116129868A (zh) 一种结构化画本的生成方法和生成系统
Wu et al. Using a knowledge base to automatically annotate speech corpora and to identify sociolinguistic variation
CN112270192B (zh) 一种基于词性和停用词过滤的语义识别方法及系统
Lane et al. Local word discovery for interactive transcription

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination