CN115512698B - 一种语音语义分析方法 - Google Patents
一种语音语义分析方法 Download PDFInfo
- Publication number
- CN115512698B CN115512698B CN202210667179.0A CN202210667179A CN115512698B CN 115512698 B CN115512698 B CN 115512698B CN 202210667179 A CN202210667179 A CN 202210667179A CN 115512698 B CN115512698 B CN 115512698B
- Authority
- CN
- China
- Prior art keywords
- sequence
- voice
- feature
- phoneme
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/09—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being zero crossing rates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5175—Call or contact centers supervision arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Hospice & Palliative Care (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能技术,揭露了一种语音语义分析方法,包括:对通话录音进行纠偏以及滤波操作,得到标准语音;对标准语音进行分帧处理以及端点检测,得到语音帧序列;对语音帧序列进行多重特征提取操作,得到第一特征序列和第二特征序列;利用训练后的语境分析模型对第一特征序列进行情感分析,得到情感信息;利用预设的自注意力模型对第二特征序列进行音素分析,得到第二特征序列所对应的音素序列;通过预设的音素识别模型对音素序列进行解码操作,得到文本信息;根据情感信息和文本信息生成通话录音的录音语义。本发明可以提高语音语义分析的准确度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种语音语义分析方法。
背景技术
随着人工智能技术的发展,越来越多的机构开始利用智能语音客服来分散人工客服在高峰期的接线量,减轻人工客服的工作负担,但为了给用户更好的通话体验,提高智能语音客服的服务质量,需要对用户的通话语音进行语义分析。
现有的语音语义分析技术多为基于单一的语音特征的语义分析,例如,计算语音特征与词典中词语语音特征的匹配度,进而选取匹配度最大的词语作为生成语音语义文本,实际应用中,一个语音特征可以对应多种文本,且同样的文本可以反映多种情绪状态,仅考虑单一属性,可能导致语音语义分析结果较为模糊,进而使得进行语音语义分析时的准确度较低。
发明内容
本发明提供一种语音语义分析方法,其主要目的在于解决进行语音语义分析时的准确度较低的问题。
为实现上述目的,本发明提供的一种语音语义分析方法,包括:
获取待分析的通话录音,对所述通话录音进行纠偏以及滤波操作,得到标准语音;
对所述标准语音进行分帧处理以及端点检测,得到语音帧序列;
对所述语音帧序列进行多重特征提取操作,得到所述语音帧序列所对应的第一特征序列和第二特征序列;
利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息;
利用预设的自注意力模型对所述第二特征序列进行音素分析,得到所述第二特征序列所对应的音素序列;
通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息;
根据所述情感信息和所述文本信息生成所述通话录音的录音语义。
可选地,所述对所述通话录音进行纠偏以及滤波操作,得到标准语音,包括:
将所述通话录音转化为列信号数据,根据所述列信号数据以及预设的采样频率配置所述通话录音的时间序列;
根据所述时间序列以及所述列信号数据构建所述通话录音的趋势项,并从所述列信号数据中去除所述趋势项,得到纠偏后的初始语音;
利用预设的滤波器消除所述初始语音中的干扰波段频率,得到标准语音。
可选地,所述对所述标准语音进行分帧处理以及端点检测,得到语音帧序列,包括:
配置分帧的帧移步长、重叠长度、窗口长度以及窗口类型;
根据所述帧移步长与所述重叠长度逐帧对所述标准语音进行切分,得到初始语音序列;
根据所述窗口长度以及所述窗口类型对所述初始语音序列进行加窗处理,得到标准语音序列;
计算所述标准语音序列的短时平均能量与短时平均过零率,根据所述短时平均能量与所述短时平均过零率对所述标准语音序列进行端点检测,得到语音帧序列。
可选地,所述对所述语音帧序列进行多重特征提取操作,得到所述语音帧序列所对应的第一特征序列和第二特征序列,包括:
根据预设的情感特征集从所述语音帧序列中提取出第一特征序列;
根据预设的人声特征集从所述将所述语音帧序列转化为多维向量形式的第二特征序列。
可选地,所述利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息,包括:
对所述第一特征序列进行特征融合操作,得到融合特征序列;
利用所述语境分析模型对所述融合特征序列进行归一化处理,得到情感值序列;
利用所述语境分析模型对所述情感值序列进行分类操作,得到所述情感信息。
可选地,所述利用预设的自注意力模型对所述第二特征序列进行音素分析,得到所述第二特征序列所对应的音素序列,包括:
利用所述注意力模型的编码器将所述第二特征序列编码成状态特征编码序列;
利用所述注意力模型的解码器从所述状态特征编码序列中解码出语音状态序列;
通过所述注意力模型的多层感知机对所述语音状态序列进行映射,得到所述音素序列。
可选地,所述通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息,包括:
通过所述音素识别模型内的注意力网络解码出所述音素序列对应的候选词集序列;
选取所述候选词集序列中的第一个候选词集中正确率最大的候选词作为目标候选词,将所述目标候选词按照时间次序排列组成目标文本;
通过所述音素识别模型的文本分析网络对目标文本进行分析操作,得到所述目标文本的后接词集;
对所述目标候选词的下一个候选词集以及所述后接词集进行对照分析,选取对照分析后正确率最大的候选词作为下一个目标候选词,直至所述目标候选词为所述候选词集序列内的最后一个候选词时,将所述目标文本作为所述文本信息。
本发明实施例通过对所述通话录音进行纠偏以及滤波操作,得到标准语音,能够去除通话录音中的不稳定因素,减少通话录音的噪声与杂音,提高语音语义分析的准确度,通过对所述标准语音进行分帧处理以及端点检测,得到语音帧序列,能够方便将所述标准语音拆分成语素,同时也能区分出所述标准语音中的静默时间段,可以更好地把控用户的通话状态,通过对所述语音帧序列进行多重特征提取操作,能够从所述语音帧序列中提取出情感特征和人声特征,方便后续分别根据情感特征进行情感分析,通过利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息,能够有效地确定通话录音中用户的情感变化,结合后续的文本信息,能够更好的理解用户的语义,通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息,能够结合语言模型和声学模型对语素进行分析,通过选取语言模型和声学模型中正确率最大的词语作为文本信息的输出词语,能够提高语音语义分析的准确率。因此本发明提出的语音语义分析方法,可以解决进行语音语义分析时的准确度较低的问题。
附图说明
图1为本发明一实施例提供的语音语义分析方法的流程示意图;
图2为本发明一实施例提供的生成标准语音的流程示意图;
图3为本发明一实施例提供的解码音素序列的流程示意图;
图4为本发明一实施例提供的语音语义分析装置的功能模块图;
图5为本发明一实施例提供的实现所述语音语义分析方法的设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种语音语义分析方法。所述语音语义分析方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的设备中的至少一种。换言之,所述语音语义分析方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的语音语义分析方法的流程示意图。在本实施例中,所述语音语义分析方法包括:
S1、获取待分析的通话录音,对所述通话录音进行纠偏以及滤波操作,得到标准语音;
本发明实施例中,所述通话录音是指用户在与智能客服语音通话中的录音。
本发明实施例中,参照图2所示,所述对所述通话录音进行纠偏以及滤波操作,得到标准语音,包括:
S21、将所述通话录音转化为列信号数据,根据所述列信号数据以及预设的采样频率配置所述通话录音的时间序列;
S22、根据所述时间序列以及所述列信号数据构建所述通话录音的趋势项,并从所述列信号数据中去除所述趋势项,得到纠偏后的初始语音;
S23、利用预设的滤波器消除所述初始语音中的干扰波段频率,得到标准语音。
具体地,所述列信号数据是一段连续的列向量,通过将通话录音转化为列信号数据,可以方便对通话录音进行数学处理,进而方便纠偏操作的进行。
详细地,可以通过matlab中的(:)算法将所述通话录音转化为列信号数据。
详细地,所述采样频率是指采样速度或者采样率,它定义了单位时间内从连续信号中提取并组成离散信号的采样个数,它用赫兹来表示。
具体地,所述时间序列是指将通话录音根据同一统计数值指标按其发生的时间先后顺序排列而成的数列。
具体地,所述根据所述列信号数据以及预设的采样频率配置所述通话录音的时间序列是指将所述列信号数据的长度除以所述采样频率得到所述时间序列。
详细地,所述趋势项是指在振动测试中采集到的振动信号数据,由于放大器随温度变化产生的零点漂移、传感器频率范围外低频性能的不稳定以及传感器周围的环境干扰等,导致振动信号数据偏离基线的过程。
具体地,所述可以通过最小二乘法根据所述时间序列以及所述列信号数据计算所述通话录音的趋势项。
详细地,所述滤波器可以是matlab中的filterDesigner滤波器。
本发明实施例中,通过对所述通话录音进行纠偏以及滤波操作,得到标准语音,能够去除通话录音中的不稳定因素,减少通话录音的噪声与杂音,提高语音语义分析的准确度。
S2、对所述标准语音进行分帧处理以及端点检测,得到语音帧序列;
本发明实施例中,所述对所述标准语音进行分帧处理以及端点检测,得到语音帧序列,包括:
配置分帧的帧移步长、重叠长度、窗口长度以及窗口类型;
根据所述帧移步长与所述重叠长度逐帧对所述标准语音进行切分,得到初始语音序列;
根据所述窗口长度以及所述窗口类型对所述初始语音序列进行加窗处理,得到标准语音序列;
计算所述标准语音序列的短时平均能量与短时平均过零率,根据所述短时平均能量与所述短时平均过零率对所述标准语音序列进行端点检测,得到语音帧序列。
本发明实施例中,所述帧移步长是指对所述标准语音分帧后的每一帧语音的长度,所述帧移步长优选为20ms。
详细地,所述重叠长度是指所述标准语音分帧后连续的两帧语音之间的重叠部分的长度,所述重叠长度优选为10ms。
详细地,可以通过maltab的en.frame函数根据所述帧移步长与所述重叠长度逐帧对所述标准语音进行切分,得到初始语音序列。
具体地,所述窗口长度是指对所述初始语音序列进行加窗处理时的窗口的长度,所述窗口长度优选为所述帧移步长的2.5倍。
详细地,所述窗口类型是指对所述初始语音序列进行加窗处理时的窗口的类型,所述窗口类型可以是汉明窗(Hanmming)。
详细地,所述短时平均能量是指短时间中的语音信号的能量特征变化。
具体地,所述短时平均过零率是指短时间信号通过零值的次数。
详细地,可以通过短时平均能量计算公式计算所述标准语音序列的短时平均能量。
本发明实施例中,通过对所述标准语音进行分帧处理以及端点检测,得到语音帧序列,能够方便将所述标准语音拆分成语素,同时也能区分出所述标准语音中的静默时间段,可以更好地把控用户的通话状态,方便了后续的情感分析,进而提升语音语义分析的准确度。
S3、对所述语音帧序列进行多重特征提取操作,得到所述语音帧序列所对应的第一特征序列和第二特征序列;
本发明实施例中,所述对所述语音帧序列进行多重特征提取操作,得到所述语音帧序列所对应的第一特征序列和第二特征序列,包括:
根据预设的情感特征集从所述语音帧序列中提取出第一特征序列;
根据预设的人声特征集从所述将所述语音帧序列转化为多维向量形式的第二特征序列。
本发明实施例中,所述情感特征集可以是eGeMAPS特征集,所述eGeMAPS 特征集是由62个HSF特征,26个扩展特征组成的特征集。
详细的,所述人声特征集可以是梅尔倒谱系数特征集(Mel-frequencyCepstralCoefficents,MFCC),所述梅尔倒谱系数特征集是基于人耳感知实验的参数进行滤波转化的12维向量特征。
本发明实施例中,通过对所述语音帧序列进行多重特征提取操作,得到所述语音帧序列所对应的第一特征序列和第二特征序列,能够从所述语音帧序列中提取出情感特征和人声特征,方便后续分别根据情感特征进行情感分析,以及根据人声特征进行音素分析。
S4、利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息;
本发明实施例中,所述语境分析模型可以是基于与所述第一特征序列相同规格的训练集经过半监督学习训练而成的卷积神经网络分类模型。
详细地,所述情感信息是指通话录音中用户的情感波动的数据时间序列标注信息,例如“平稳(0:23-0:35),愤怒(0:48-1:24),焦急(1:40-2:26)”。
本发明实施例中,所述利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息,包括:
对所述第一特征序列进行特征融合操作,得到融合特征序列;
利用所述语境分析模型对所述融合特征序列进行归一化处理,得到情感值序列;
利用所述语境分析模型对所述情感值序列进行分类操作,得到所述情感信息。
详细地,可以通过将所述第一特征序列的每种特征向量进行拼接实现特征融合。
具体地,可以通过所述语境分析模型的softmax函数对所述融合特征序列进行归一化处理。
详细地,所述利用所述语境分析模型对所述情感值序列进行分类操作,得到所述情感信息是指根据所述语境分析模型对所述情感值序列中的每段的情感值与训练的情感结果进行分类对应的操作。
本发明实施例中,通过利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息,能够有效地确定通话录音中用户的情感变化,结合后续的文本信息,能够更好的理解用户的语义,提升语音语义分析的准确度。
S5、利用预设的自注意力模型对所述第二特征序列进行音素分析,得到所述第二特征序列所对应的音素序列;
本发明实施例中,所述自注意力模型可以是TransFormer模型,所述 TransFormer模型是一个利用注意力机制来提高模型训练速度的模型,所述 TransFormer模型广泛应用在对特征序列进行分析的项目中,具有准确度高,分析速度快的特点。
本发明实施例中,所述利用预设的自注意力模型对所述第二特征序列进行音素分析,得到所述第二特征序列所对应的音素序列,包括:
利用所述注意力模型的编码器将所述第二特征序列编码成状态特征编码序列;
利用所述注意力模型的解码器从所述状态特征编码序列中解码出语音状态序列;
通过所述注意力模型的多层感知机对所述语音状态序列进行映射,得到所述音素序列。
详细地,所述编码器可以是TransFormer模型的Encoder编码器,所述 Encoder编码器由位置编码组件(Positional Encoding)、注意力机制组件 (Multi-HeadAttention)、残差归一组件(Add&Norm)以及前馈激活组件(Feedforward+Add&Norm)组成。
具体地,所述注意力模型的解码器可以是TransFormer模型的Decoder 解码器,所述Decoder解码器是一种自回归(Autoregressive)的解码器,它是由交叉注意力组件(Masked Multi-Head Attention)、残差归一组件(Add&Norm)、注意力机制组件(Multi-Head Attention)、以及前馈激活组件 (Feedforward+Add&Norm)组成。
详细地,所述多层感知机(Multilayer Perceptron)是一种特殊的神经网络,除了输入层与输出层外,在输入层与输出层的中间可以有多个隐层。
本发明实施例中,通过利用预设的自注意力模型对所述第二特征序列进行音素分析,得到所述第二特征序列所对应的音素序列,能够将语音特征与音素进行对应转化,为后续对音素序列进行识别解码提供了基础,通过利用自注意力模型,可以提升音素转化的准确率与速度,进而提升语音语义分析的准确性。
S6、通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息;
本发明实施例中,所述音素识别模型包括注意力网络以及文本分析网络,其中,所述文本分析网络可以是基于文本训练集训练的向后递归神经网络。
本发明实施例中,参照图3所示,所述通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息,包括:
S31、通过所述音素识别模型内的注意力网络解码出所述音素序列对应的候选词集序列;
S32、选取所述候选词集序列中的第一个候选词集中正确率最大的候选词作为目标候选词,将所述目标候选词按照时间次序排列组成目标文本;
S33、通过所述音素识别模型的文本分析网络对目标文本进行分析操作,得到所述目标文本的后接词集;
S34、对所述目标候选词的下一个候选词集以及所述后接词集进行对照分析,选取对照分析后正确率最大的候选词作为下一个目标候选词,直至所述目标候选词为所述候选词集序列内的最后一个候选词时,将所述目标文本作为所述文本信息。
详细地,所述通过所述音素识别模型的注意力网络解码出所述音素序列对应的候选词集序列的方法与上述步骤S5中的所述利用预设的自注意力模型对所述第二特征序列进行音素分析,得到所述第二特征序列所对应的音素序列的方法一致,这里不再赘述。
本发明实施例中,通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息,能够结合语言模型和声学模型对语素进行分析,通过选取语言模型和声学模型中正确率最大的词语作为文本信息的输出词语,能够提高语音语义分析的正确率。
S7、根据所述情感信息和所述文本信息生成所述通话录音的录音语义。
本发明实施例中,所述根据所述情感信息和所述文本信息生成所述通话录音的录音语义是指将所述情感信息与所述文本信息按照时间序列进行组合,得到录音语义。
本发明实施例中,通过所述情感信息和所述文本信息生成所述通话录音的录音语义,能够更加全面地让语音助手理解用户的通话状态,进而保证了语音语义分析的准确率。
本发明实施例通过对所述通话录音进行纠偏以及滤波操作,得到标准语音,能够去除通话录音中的不稳定因素,减少通话录音的噪声与杂音,提高语音语义分析的准确度,通过对所述标准语音进行分帧处理以及端点检测,得到语音帧序列,能够方便将所述标准语音拆分成语素,同时也能区分出所述标准语音中的静默时间段,可以更好地把控用户的通话状态,通过对所述语音帧序列进行多重特征提取操作,能够从所述语音帧序列中提取出情感特征和人声特征,方便后续分别根据情感特征进行情感分析,通过利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息,能够有效地确定通话录音中用户的情感变化,结合后续的文本信息,能够更好的理解用户的语义,通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息,能够结合语言模型和声学模型对语素进行分析,通过选取语言模型和声学模型中正确率最大的词语作为文本信息的输出词语,能够提高语音语义分析的准确率。因此本发明提出的语音语义分析方法,可以解决进行语音语义分析时的准确度较低的问题。
如图4所示,是本发明一实施例提供的语音语义分析装置的功能模块图。
本发明所述语音语义分析装置100可以安装于设备中。根据实现的功能,所述语音语义分析装置100可以包括语音分帧模块101、特征提取模块102、情感分析模块103、文本分析模块104及语义分析模块105。本发明所述模块也可以称之为单元,是指一种能够被设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述语音分帧模块101,用于获取待分析的通话录音,对所述通话录音进行纠偏以及滤波操作,得到标准语音;对所述标准语音进行分帧处理以及端点检测,得到语音帧序列;
所述特征提取模块102,用于对所述语音帧序列进行多重特征提取操作,得到所述语音帧序列所对应的第一特征序列和第二特征序列;
所述情感分析模块103,用于利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息;
所述文本分析模块104,用于利用预设的自注意力模型对所述第二特征序列进行音素分析,得到所述第二特征序列所对应的音素序列;通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息;
所述语义分析模块105,用于根据所述情感信息和所述文本信息生成所述通话录音的录音语义。
详细地,本发明实施例中所述语音语义分析装置100中所述的各模块在使用时采用与上述图1至图3中所述的语音语义分析方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图5所示,是本发明一实施例提供的实现语音语义分析方法的设备的结构示意图。
所述设备1可以包括处理器10、存储器11、通信总线12以及通信接口 13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如语音语义分析程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit, CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述设备的控制核心(Control Unit),利用各种接口和线路连接整个设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行语音语义分析程序等),以及调用存储在所述存储器11内的数据,以执行设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是设备的内部存储单元,例如该设备的移动硬盘。所述存储器11在另一些实施例中也可以是设备的外部存储设备,例如设备上配备的插接式移动硬盘、智能存储卡 (Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于设备的应用软件及各类数据,例如语音语义分析程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI 接口、蓝牙接口等),通常用于在该设备与其他设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED (Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在设备中处理的信息以及用于显示可视化的用户界面。
图中仅示出了具有部件的设备,本领域技术人员可以理解的是,图中示出的结构并不构成对所述设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述设备1中的所述存储器11存储的语音语义分析程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取待分析的通话录音,对所述通话录音进行纠偏以及滤波操作,得到标准语音;
对所述标准语音进行分帧处理以及端点检测,得到语音帧序列;
对所述语音帧序列进行多重特征提取操作,得到所述语音帧序列所对应的第一特征序列和第二特征序列;
利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息;
利用预设的自注意力模型对所述第二特征序列进行音素分析,得到所述第二特征序列所对应的音素序列;
通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息;
根据所述情感信息和所述文本信息生成所述通话录音的录音语义。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。所述存储介质可以是易失性的,也可以是非易失性的。例如,所述存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)。
本发明还提供一种存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被设备的处理器所执行时,可以实现:
获取待分析的通话录音,对所述通话录音进行纠偏以及滤波操作,得到标准语音;
对所述标准语音进行分帧处理以及端点检测,得到语音帧序列;
对所述语音帧序列进行多重特征提取操作,得到所述语音帧序列所对应的第一特征序列和第二特征序列;
利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息;
利用预设的自注意力模型对所述第二特征序列进行音素分析,得到所述第二特征序列所对应的音素序列;
通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息;
根据所述情感信息和所述文本信息生成所述通话录音的录音语义。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (1)
1.一种语音语义分析方法,其特征在于,所述方法包括:
获取待分析的通话录音,对所述通话录音进行纠偏以及滤波操作,得到标准语音;
对所述标准语音进行分帧处理以及端点检测,得到语音帧序列;
对所述语音帧序列进行多重特征提取操作,得到所述语音帧序列所对应的第一特征序列和第二特征序列;
利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息;
利用预设的自注意力模型对所述第二特征序列进行音素分析,得到所述第二特征序列所对应的音素序列;
通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息;
根据所述情感信息和所述文本信息生成所述通话录音的录音语义;
所述对所述通话录音进行纠偏以及滤波操作,得到标准语音,包括:
将所述通话录音转化为列信号数据,根据所述列信号数据以及预设的采样频率配置所述通话录音的时间序列;根据所述时间序列以及所述列信号数据构建所述通话录音的趋势项,并从所述列信号数据中去除所述趋势项,得到纠偏后的初始语音;利用预设的滤波器消除所述初始语音中的干扰波段频率,得到标准语音;
所述对所述标准语音进行分帧处理以及端点检测,得到语音帧序列,包括:配置分帧的帧移步长、重叠长度、窗口长度以及窗口类型;根据所述帧移步长与所述重叠长度逐帧对所述标准语音进行切分,得到初始语音序列;根据所述窗口长度以及所述窗口类型对所述初始语音序列进行加窗处理,得到标准语音序列;计算所述标准语音序列的短时平均能量与短时平均过零率,根据所述短时平均能量与所述短时平均过零率对所述标准语音序列进行端点检测,得到语音帧序列;
所述对所述语音帧序列进行多重特征提取操作,得到所述语音帧序列所对应的第一特征序列和第二特征序列,包括:根据预设的情感特征集从所述语音帧序列中提取出第一特征序列;根据预设的人声特征集将语音帧序列转化为多维向量形式的第二特征序列;
所述利用训练后的语境分析模型对所述第一特征序列进行情感分析,得到所述语音帧序列所对应的情感信息,包括:对所述第一特征序列进行特征融合操作,得到融合特征序列;利用所述语境分析模型对所述融合特征序列进行归一化处理,得到情感值序列;利用所述语境分析模型对所述情感值序列进行分类操作,得到所述情感信息;
所述利用预设的自注意力模型对所述第二特征序列进行音素分析,得到所述第二特征序列所对应的音素序列,包括:利用所述注意力模型的编码器将所述第二特征序列编码成状态特征编码序列;利用所述注意力模型的解码器从所述状态特征编码序列中解码出语音状态序列;通过所述注意力模型的多层感知机对所述语音状态序列进行映射,得到所述音素序列;
所述通过预设的音素识别模型对所述音素序列进行解码操作,得到所述语音帧序列所对应的文本信息,包括:通过所述音素识别模型内的注意力网络解码出所述音素序列对应的候选词集序列;选取所述候选词集序列中的第一个候选词集中正确率最大的候选词作为目标候选词,将所述目标候选词按照时间次序排列组成目标文本;通过所述音素识别模型的文本分析网络对目标文本进行分析操作,得到所述目标文本的后接词集;对所述目标候选词的下一个候选词集以及所述后接词集进行对照分析,选取对照分析后正确率最大的候选词作为下一个目标候选词,直至所述目标候选词为所述候选词集序列内的最后一个候选词时,将所述目标文本作为所述文本信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210667179.0A CN115512698B (zh) | 2022-06-13 | 2022-06-13 | 一种语音语义分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210667179.0A CN115512698B (zh) | 2022-06-13 | 2022-06-13 | 一种语音语义分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115512698A CN115512698A (zh) | 2022-12-23 |
CN115512698B true CN115512698B (zh) | 2023-05-26 |
Family
ID=84500716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210667179.0A Active CN115512698B (zh) | 2022-06-13 | 2022-06-13 | 一种语音语义分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115512698B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116110574B (zh) | 2023-04-14 | 2023-06-20 | 武汉大学人民医院(湖北省人民医院) | 一种基于神经网络实现的眼科智能问诊方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9202465B2 (en) * | 2011-03-25 | 2015-12-01 | General Motors Llc | Speech recognition dependent on text message content |
US20180315415A1 (en) * | 2017-04-26 | 2018-11-01 | Soundhound, Inc. | Virtual assistant with error identification |
KR20210047173A (ko) * | 2019-10-21 | 2021-04-29 | 엘지전자 주식회사 | 오인식된 단어를 바로잡아 음성을 인식하는 인공 지능 장치 및 그 방법 |
CN110910903B (zh) * | 2019-12-04 | 2023-03-21 | 深圳前海微众银行股份有限公司 | 语音情绪识别方法、装置、设备及计算机可读存储介质 |
CN111524534B (zh) * | 2020-03-20 | 2021-04-09 | 北京捷通华声科技股份有限公司 | 一种语音分析方法、系统、设备及存储介质 |
-
2022
- 2022-06-13 CN CN202210667179.0A patent/CN115512698B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115512698A (zh) | 2022-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10593333B2 (en) | Method and device for processing voice message, terminal and storage medium | |
WO2021093449A1 (zh) | 基于人工智能的唤醒词检测方法、装置、设备及介质 | |
US10522136B2 (en) | Method and device for training acoustic model, computer device and storage medium | |
CN108962255B (zh) | 语音会话的情绪识别方法、装置、服务器和存储介质 | |
CN109859772B (zh) | 情绪识别方法、装置及计算机可读存储介质 | |
CN110909613A (zh) | 视频人物识别方法、装置、存储介质与电子设备 | |
CN110288980A (zh) | 语音识别方法、模型的训练方法、装置、设备及存储介质 | |
Chang et al. | How's my mood and stress? An efficient speech analysis library for unobtrusive monitoring on mobile phones | |
CN109686383B (zh) | 一种语音分析方法、装置及存储介质 | |
CN108428446A (zh) | 语音识别方法和装置 | |
CN109346109B (zh) | 基频提取方法和装置 | |
CN111402891A (zh) | 语音识别方法、装置、设备和存储介质 | |
CN110415701A (zh) | 唇语的识别方法及其装置 | |
CN112001175A (zh) | 流程自动化方法、装置、电子设备及存储介质 | |
CN113420556B (zh) | 基于多模态信号的情感识别方法、装置、设备及存储介质 | |
Zvarevashe et al. | Recognition of speech emotion using custom 2D-convolution neural network deep learning algorithm | |
CN114127849A (zh) | 语音情感识别方法和装置 | |
CN110909131A (zh) | 模型的生成方法、情绪识别方法、系统、设备和存储介质 | |
CN108877779B (zh) | 用于检测语音尾点的方法和装置 | |
CN110782902A (zh) | 音频数据确定方法、装置、设备和介质 | |
CN115512698B (zh) | 一种语音语义分析方法 | |
CN110889008B (zh) | 一种音乐推荐方法、装置、计算装置和存储介质 | |
CN108962226B (zh) | 用于检测语音的端点的方法和装置 | |
CN114267342A (zh) | 识别模型的训练方法、识别方法、电子设备及存储介质 | |
KR102220964B1 (ko) | 오디오 인식을 위한 방법 및 디바이스 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |