CN116825121B - 基于人工智能的智能语音识别与机器翻译系统 - Google Patents

基于人工智能的智能语音识别与机器翻译系统 Download PDF

Info

Publication number
CN116825121B
CN116825121B CN202311105259.8A CN202311105259A CN116825121B CN 116825121 B CN116825121 B CN 116825121B CN 202311105259 A CN202311105259 A CN 202311105259A CN 116825121 B CN116825121 B CN 116825121B
Authority
CN
China
Prior art keywords
firefly
voice
signal
machine translation
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311105259.8A
Other languages
English (en)
Other versions
CN116825121A (zh
Inventor
陈小波
彭小芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Shenma Digital Technology Co ltd
Original Assignee
Beijing Shenma Digital Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Shenma Digital Technology Co ltd filed Critical Beijing Shenma Digital Technology Co ltd
Priority to CN202311105259.8A priority Critical patent/CN116825121B/zh
Publication of CN116825121A publication Critical patent/CN116825121A/zh
Application granted granted Critical
Publication of CN116825121B publication Critical patent/CN116825121B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Liquid Crystal Display Device Control (AREA)

Abstract

本发明涉及人工智能技术领域,尤其为基于人工智能的智能语音识别与机器翻译系统,包括:语音拾取模块:用于采集语音信号;信号处理模块:用于对采集的语音信号进行去噪操作。智能识别模块:用于去噪处理后的语音信号进行语音信息的识别和特征提取;机器翻译模块:用于根据提取的语音信号特征进行语音信号的翻译。本发明基于改进的经验模态分解方法和改进的小波阈值算法进行双重去噪处理,能够大大提升获取的语音信号的质量,同时基于特征提取处理和改进萤火虫算法优化的翻译模型提升机器翻译速度与翻译质量。

Description

基于人工智能的智能语音识别与机器翻译系统
技术领域
本发明涉及人工智能技术领域,尤其是基于人工智能的智能语音识别与机器翻译系统。
背景技术
机器翻译给人们带来了极大的便利,机器翻译技术日趋成熟和完善,但在一些对翻译细节要求比较高的场合,机器翻译引擎还存在不少不尽如人意的地方。现有技术中对于机器翻译的方法比较成熟,且几乎不需要人工撰写翻译规则,所有的翻译信息都是自动地从语料中学习而获得,因此该方法最大程度地发挥了计算机高速运算的特点,极大地降低了人工成本。
随着科技的进步,国际交流的日益繁杂和信息量急剧增加,机器翻译极大程度地应用于人们的各项生产、生活中,由于语音信息采集环境中声源状况复杂,杂音多,极易使采集到的声音夹杂大量无关语音,导致语音识别和翻译出现错误,不利于实时翻译,且未经除杂降噪处理的声音信息直接处理更容易导致识别错误。
发明内容
本发明的目的是通过提出基于人工智能的智能语音识别与机器翻译系统,以解决上述背景技术中提出的缺陷。
本发明采用的技术方案如下:
提供基于人工智能的智能语音识别与机器翻译系统,包括:
语音拾取模块:用于采集语音信号;
信号处理模块:用于对采集的语音信号进行去噪操作;
智能识别模块:用于对去噪处理后的语音信号进行语音信息的识别和特征提取;
机器翻译模块:用于根据提取的语音信号特征进行语音信号的翻译。
作为本发明的一种优选技术方案:所述去噪操作包括对语音信号基于改进的经验模态分解方法进行去噪处理和基于改进的小波阈值算法进行去噪处理。
作为本发明的一种优选技术方案:所述改进的经验模态分解方法具体如下:
在采集的语音信号上添加高斯白噪声构造新的个语音信号:
其中,为独立正负成对且方差为1的高斯白噪声,为噪声系数;
对每个构造的新的语音信号通过EMD分解获得第个IMF分量并取平均值:
其中,个IMF分量平均值,为第个IMF分量,为残余信号;
分解添加高斯白噪声的残余信号并取平均值,其中, 为添加高斯白噪声经过EMD分解后的第个IMF分量:
其中,为添加高斯白噪声的残余信号分解的个IMF分量的平均值;
重复分解残余分量直至无法分解,得到最终的剩余残差,得到原始信号如下
其中,为第个IMF分量平均值。
作为本发明的一种优选技术方案:所述改进的经验模态分解方法中,根据当前的 SNR水平自动调整,具体为:
计算语音信号的当前SNR:
其中,代表信号的功率,代表噪声的功率;
其中,为第个语音信号,为第个高斯白噪声,为样本数量;
根据高斯白噪声的目标订立目标SNR为
计算调整系数
将噪声系数乘以调整系数来得到新的噪声系数,
作为本发明的一种优选技术方案:所述改进的小波阈值算法具体如下:
其中,为估计小波系数,为原始小波系数,为小波分解尺度,为正整 数,为选择的阈值,为调整量,为数学常量,为调节因子。
作为本发明的一种优选技术方案:所述智能识别模块对语音信息的识别和特征提取具体如下:
基于去噪后的语音信号构建翻译语义映射的联合参数分析模型,通过对语音的谱 峰监测采用连续光滑的曲线滤波,得到模糊语义关键词特征指向性函数,得到翻译输出的 词汇指向性分布集
其中,为语音信号中的具体预警分布系数,为语音信号的谱长度,得到检测 的语音信号的谱平均频率
其中,为语音信号的时频特征。
作为本发明的一种优选技术方案:所述机器翻译模块根据目标语言类型基于特征聚类检测翻译模型进行语音信号的翻译。
作为本发明的一种优选技术方案:所述特征聚类检测翻译模型具体如下:
其中,为去噪后的语音信号幅度谱,为去噪后的语音信号相位谱,为 模糊度匹配系数。
作为本发明的一种优选技术方案:所述机器翻译模块还根据目标语言种类进行翻译译文的整理。
作为本发明的一种优选技术方案:所述信号处理模块和所述机器翻译模块基于改进萤火虫算法分别进行IMF分量个数预模糊度匹配系数的寻优。
作为本发明的一种优选技术方案:所述改进萤火虫算法具体如下:
其中,为第只萤火虫的初始化位置,间的随机数,分 别为萤火虫位置的上限和下限,为萤火虫种群数量;
萤火虫基于下式进行位置更新:
其中,为第只萤火虫第次迭代的位置,为第只萤火虫第次迭 代的位置,只萤火虫第次迭代的位置;
对于萤火虫种群中亮度最高的萤火虫基于如下扰动进行位置更新:
其中,为步长因子,为萤火虫种群中亮度最高的萤火虫次迭代的 位置,为萤火虫种群中亮度最高的萤火虫次迭代的位置;
若算法运行到最大迭代次数或种群中相邻萤火虫的最大距离小于时,算法停止 迭代;以亮度最高的萤火虫对应的位置为最优值,否则进行下一次迭代直至获取最优值。
本发明提供的基于人工智能的智能语音识别与机器翻译系统,与现有技术相比,其有益效果有:
本发明基于改进的经验模态分解方法和改进的小波阈值算法进行双重去噪处理,改进的经验模态分解方法能够在很大程度上消除模态混叠的问题,提高了分解效率,减小了噪声的残留和重构误差;改进的小波阈值算法利用指数函数的逼近性以及其在固定区间变换迅速的特点,能够合理控制函数的逼近速度,提高跟踪效率。通过双重去噪处理能够大大提升获取的语音信号的质量,同时基于特征提取处理和改进萤火虫算法优化的翻译模型提升机器翻译速度与翻译质量。
附图说明
图1为本发明优选实施例的系统框图。
图中各个标记的意义为:100、语音拾取模块;200、信号处理模块;300、智能识别模块;400、机器翻译模块。
具体实施方式
需要说明的是,在不冲突的情况下,本实施例中的实施例及实施例中的特征可以相互组合,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1所示,本发明优选实施例提供了基于人工智能的智能语音识别与机器翻译系统,包括:
语音拾取模块100:用于采集语音信号;
信号处理模块200:用于对采集的语音信号进行去噪操作。
智能识别模块300:用于去噪处理后的语音信号进行语音信息的识别和特征提取;
机器翻译模块400:用于根据提取的语音信号特征进行语音信号的翻译。
所述去噪操作包括对语音信号基于改进的经验模态分解方法进行去噪处理和基于改进的小波阈值算法进行去噪处理。
所述改进的经验模态分解方法具体如下:
在采集的语音信号上添加高斯白噪声构造新的个语音信号:
其中,为独立正负成对且方差为1的高斯白噪声,为噪声系数;
对每个构造的新的语音信号通过EMD分解获得第个IMF分量并取平均值:
其中,个IMF分量平均值,为第个IMF分量,为残余信号;
分解添加高斯白噪声的残余信号并取平均值,其中, 为添加高斯白噪声经过EMD分解后的第个IMF分量:
其中,为添加高斯白噪声的残余信号分解的个IMF分量的平均值;
重复分解残余分量直至无法分解,得到最终的剩余残差,得到原始信号如下
其中,为第个IMF分量平均值。
其中,改进的经验模态分解方法中,噪声系数如果是固定的噪声系数,一些信号 的特性可能会随时间变化,导致其SNR随时间变化。固定的噪声系数无法适应这种动态变 化,可能会导致在某些时间段内去噪效果不佳,所以,本实施例根据当前的SNR水平自动调 整,具体为:
计算语音信号的当前SNR:
其中,代表信号的功率,代表噪声的功率
其中,为第个语音信号,为第个高斯白噪声,为样本数量;
根据高斯白噪声的目标订立目标SNR为
计算调整系数
将噪声系数乘以调整系数来得到新的噪声系数,
如此一来,可以通过分析信噪比来确定合适的噪声系数。SNR可以帮助确定噪声与 信号之间的相对强度。在每次迭代中,根据当前的SNR水平来自动调整,以便更好地匹配 信号和噪声的特性。
所述改进的小波阈值算法具体如下:
其中,为估计小波系数,为原始小波系数,为小波分解尺度,为正整 数,为选择的阈值,为调整量,为数学常量,为调节因子。
所述智能识别模块300对语音信息的识别和特征提取具体如下:
基于去噪后的语音信号构建翻译语义映射的联合参数分析模型,通过对语音的谱 峰监测采用连续光滑的曲线滤波,得到模糊语义关键词特征指向性函数,得到翻译输出的 词汇指向性分布集
其中,为语音信号中的具体预警分布系数,为语音信号的谱长度,得到检测 的语音信号的谱平均频率
其中,为语音信号的时频特征。
所述机器翻译模块400根据目标语言类型基于特征聚类检测翻译模型进行语音信号的翻译。
所述特征聚类检测翻译模型具体如下:
其中,为去噪后的语音信号幅度谱,为去噪后的语音信号相位谱,为 模糊度匹配系数。
所述机器翻译模块400还根据目标语言种类进行翻译译文的整理。
所述信号处理模块200和所述机器翻译模块400基于改进萤火虫算法分别进行IMF分量个数预模糊度匹配系数的寻优。
所述改进萤火虫算法具体如下:
其中,为第只萤火虫的初始化位置,间的随机数,分 别为萤火虫位置的上限和下限,为萤火虫种群数量;
萤火虫基于下式进行位置更新:
其中,为第只萤火虫第次迭代的位置,为第只萤火虫第次迭 代的位置,只萤火虫第次迭代的位置;
对于萤火虫种群中亮度最高的萤火虫基于如下扰动进行位置更新:
其中,为步长因子,为萤火虫种群中亮度最高的萤火虫次迭代的 位置,为萤火虫种群中亮度最高的萤火虫次迭代的位置;
若算法运行到最大迭代次数或种群中相邻萤火虫的最大距离小于时,算法停止 迭代;以亮度最高的萤火虫对应的位置为最优值,否则进行下一次迭代直至获取最优值。
本实施例中,设定需要翻译的目标语言类型为英语,语音拾取模块100采集获取语音信号,并通过信号处理模块200对语音拾取模块100采集的语音信号基于改进的经验模态分解方法进行去噪处理:
在采集的语音信号上添加高斯白噪声构造新的个语音信号:
其中,为独立正负成对且方差为1的高斯白噪声,为噪声系数;
对每个构造的新的语音信号通过EMD分解获得第个IMF分量并取平均值:
其中,个IMF分量平均值,为第个IMF分量,为残余信号;
分解添加高斯白噪声的残余信号并取平均值,其中, 为添加高斯白噪声经过EMD分解后的第个IMF分量:
其中,为添加高斯白噪声的残余信号分解的个IMF分量的平均值;
重复分解残余分量直至无法分解,得到最终的剩余残差,得到原始信号如下
其中,为第个IMF分量平均值。
基于改进萤火虫算法寻优获取IMF分量的最佳个数:
其中,为第只萤火虫的初始化位置,间的随机数,分 别为萤火虫位置的上限和下限,为萤火虫种群数量;
以第12次迭代为例,萤火虫基于下式进行位置更新:
其中,为第只萤火虫第13次迭代的位置,为第只萤火虫第次迭代 的位置,只萤火虫第次迭代的位置;
对于萤火虫种群中亮度最高的萤火虫基于如下扰动进行位置更新:
其中,为步长因子,为萤火虫种群中亮度最高的萤火虫第13次迭代的位置,为萤火虫种群中亮度最高的萤火虫第12次迭代的位置;
若算法运行到最大迭代次数或种群中萤火虫的最大距离小于时,算法停止迭代; 以亮度最高的萤火虫对应的位置为最优值,否则进行下一次迭代直至获取最优值。
改进萤火虫算法中,通过间的随机数替换了萤火虫之间的吸引度,能够增 加算法的随机性,降低算法追踪到局部IMF分量最佳数量的概率。并且只在亮度最高的萤火 虫上施加扰动,通过判断亮度最高的萤火虫在种群中的位置来确定扰动的方向,能够提高 跟踪效率和跟踪精度。
设寻优获取的IMF分量的最佳个数为15个,则得到原始信号如下
其中,为第个IMF分量平均值。
基于改进萤火虫算法优化的经验模态分解方法进行去噪处理,获取最优的IMF分量数量,获取最优去噪结果,能够在很大程度上消除模态混叠的问题,提高了分解效率,减小了噪声的残留和重构误差。
再基于改进的小波阈值算法进行去噪处理:
其中,为估计小波系数,为原始小波系数,为小波分解尺度,为正整 数,为选择的阈值,为调整量,为数学常量,为调节因子。
可选取阈值如下:
其中,为噪声的标准差,为语音信号的谱长度。
小波阈值算法利用指数函数的逼近性以及其在固定区间变换迅速的特点,可通过 调节因子的大小来合理地控制函数的逼近速度,提高跟踪效率。若去噪后的重构信号不 够光滑,可以增大值进行调节;若去噪后的重构信号丢失了很多原始信号的信息,则可 以减小的值进行调节。
去噪处理完成后,基于智能识别模块300进行语音信号的识别和特征提取:
基于去噪后的语音信号构建英文翻译语义映射的联合参数分析模型,通过对语音 的谱峰监测采用连续光滑的曲线滤波,得到模糊语义关键词特征指向性函数,得到英文翻 译输出的词汇指向性分布集
其中,为语音信号中的具体预警分布系数,为语音信号的谱长度,得到检测 的语音信号的谱平均频率
其中,为语音信号的时频特征。
机器翻译模块400基于需要翻译的目标语言类型,如英文,根据特征聚类检测翻译 模型进行翻译:
其中,为去噪后的语音信号幅度谱,为去噪后的语音信号相位谱,为 模糊度匹配系数。
同样基于改进萤火虫算法寻优获取最佳模糊度匹配系数的值,设寻优获取的最 佳模糊度匹配系数的为,则根据优化的特征聚类检测翻译模型进行翻译:
其中,为去噪后的语音信号幅度谱,为去噪后的语音信号相位谱。
基于改进的萤火虫算法寻优获取的翻译模型进行翻译,能够基于提高跟踪效率和跟踪精度的改进的萤火虫算法提升翻译速度和翻译质量。
最终根据翻译结果进行英文译文的整理,如符号管理和每句话的首字母大写等。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (7)

1.基于人工智能的智能语音识别与机器翻译系统,其特征在于,包括:
语音拾取模块(100):用于采集语音信号;
信号处理模块(200):用于对采集的语音信号进行去噪操作;
智能识别模块(300):用于对去噪处理后的语音信号进行语音信息的识别和特征提取;
机器翻译模块(400):用于根据提取的语音信号特征进行语音信号的翻译;
所述去噪操作包括对语音信号基于改进的经验模态分解方法进行去噪处理和基于改进的小波阈值算法进行去噪处理;
所述改进的经验模态分解方法具体如下:
在采集的语音信号上添加高斯白噪声/>构造新的/>个语音信号:
其中,为独立正负成对且方差为1的高斯白噪声,/>为噪声系数;
对每个构造的新的语音信号通过EMD分解获得第个IMF分量并取平均值:
其中,为/>个IMF分量平均值,/>为第/>个IMF分量,/>为残余信号;
分解添加高斯白噪声的残余信号并取平均值,其中,/>为添加高斯白噪声经过EMD分解后的第/>个IMF分量:
其中,为添加高斯白噪声的残余信号分解的/>个IMF分量的平均值;
重复分解残余分量直至无法分解,得到最终的剩余残差,得到原始信号如下/>
其中,为第/>个IMF分量平均值;
所述改进的经验模态分解方法中,根据当前的SNR水平自动调整,具体为:
计算语音信号的当前SNR:
其中,代表信号的功率,/>代表噪声的功率:
其中,为第/>个语音信号,/>为第/>个高斯白噪声,/>为样本数量;
根据高斯白噪声的目标订立目标SNR为
计算调整系数,/>
将噪声系数乘以调整系数/>来得到新的噪声系数,/>
所述改进的小波阈值算法具体如下:
其中,为估计小波系数,/>为原始小波系数,/>为小波分解尺度,/>为正整数,/>为选择的阈值,/>为调整量,/>为数学常量,/>为调节因子。
2.根据权利要求1所述的基于人工智能的智能语音识别与机器翻译系统,其特征在于:所述智能识别模块(300)对语音信息的识别和特征提取具体如下:
基于去噪后的语音信号构建翻译语义映射的联合参数分析模型,通过对语音的谱峰监测采用连续光滑的曲线滤波,得到模糊语义关键词特征指向性函数,得到翻译输出的词汇指向性分布集
其中,为语音信号中的具体预警分布系数,/>为语音信号的谱长度,得到检测的语音信号的谱平均频率/>
其中,为语音信号的时频特征。
3.根据权利要求2所述的基于人工智能的智能语音识别与机器翻译系统,其特征在于:所述机器翻译模块(400)根据目标语言类型基于特征聚类检测翻译模型进行语音信号的翻译。
4.根据权利要求3所述的基于人工智能的智能语音识别与机器翻译系统,其特征在于:所述特征聚类检测翻译模型具体如下:
其中,为去噪后的语音信号幅度谱,/>为去噪后的语音信号相位谱,/>为模糊度匹配系数。
5.根据权利要求4所述的基于人工智能的智能语音识别与机器翻译系统,其特征在于:所述机器翻译模块(400)还根据目标语言种类进行翻译译文的整理。
6.根据权利要求5所述的基于人工智能的智能语音识别与机器翻译系统,其特征在于:所述信号处理模块(200)和所述机器翻译模块(400)基于改进萤火虫算法分别进行IMF分量个数预模糊度匹配系数的寻优。
7.根据权利要求6所述的基于人工智能的智能语音识别与机器翻译系统,其特征在于:所述改进萤火虫算法具体如下:
其中,为第/>只萤火虫的初始化位置,/>为/>间的随机数,/>、/>分别为萤火虫位置的上限和下限,/>为萤火虫种群数量;
萤火虫基于下式进行位置更新:
其中,为第/>只萤火虫第/>次迭代的位置,/>为第/>只萤火虫第/>次迭代的位置,第/>只萤火虫第/>次迭代的位置;
对于萤火虫种群中亮度最高的萤火虫基于如下扰动进行位置更新:
其中,为步长因子,/>为萤火虫种群中亮度最高的萤火虫/>第/>次迭代的位置,/>为萤火虫种群中亮度最高的萤火虫/>第/>次迭代的位置;
若算法运行到最大迭代次数或种群中相邻萤火虫的最大距离小于时,算法停止迭代;以亮度最高的萤火虫对应的位置为最优值,否则进行下一次迭代直至获取最优值。
CN202311105259.8A 2023-08-30 2023-08-30 基于人工智能的智能语音识别与机器翻译系统 Active CN116825121B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311105259.8A CN116825121B (zh) 2023-08-30 2023-08-30 基于人工智能的智能语音识别与机器翻译系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311105259.8A CN116825121B (zh) 2023-08-30 2023-08-30 基于人工智能的智能语音识别与机器翻译系统

Publications (2)

Publication Number Publication Date
CN116825121A CN116825121A (zh) 2023-09-29
CN116825121B true CN116825121B (zh) 2023-11-10

Family

ID=88118867

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311105259.8A Active CN116825121B (zh) 2023-08-30 2023-08-30 基于人工智能的智能语音识别与机器翻译系统

Country Status (1)

Country Link
CN (1) CN116825121B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111276150A (zh) * 2020-01-20 2020-06-12 杭州耳青聪科技有限公司 一种基于麦克风阵列的智能语音转文字及同声翻译系统
CN113851144A (zh) * 2021-09-30 2021-12-28 山东大学 一种基于改进变分模态分解和主成分分析的语音信号去噪方法
CN113919375A (zh) * 2021-10-14 2022-01-11 河源市忆源电子科技有限公司 一种基于人工智能的语音翻译系统
CN115345195A (zh) * 2022-07-20 2022-11-15 国网江苏省电力有限公司南京供电分公司 一种基于ceemdan和小波阈值的变电站环境噪声去除方法和系统
CN115798494A (zh) * 2022-11-22 2023-03-14 天翼数字生活科技有限公司 基于改进ceemdan算法用于语音增强的方法及装置
CN116486826A (zh) * 2023-04-27 2023-07-25 哈尔滨理工大学 一种基于融合网络的语音增强方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018090467A1 (zh) * 2016-11-17 2018-05-24 丹阳华神电器有限公司 基于模糊熵的含噪信号处理方法及迭代奇异谱软阈值去噪方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111276150A (zh) * 2020-01-20 2020-06-12 杭州耳青聪科技有限公司 一种基于麦克风阵列的智能语音转文字及同声翻译系统
CN113851144A (zh) * 2021-09-30 2021-12-28 山东大学 一种基于改进变分模态分解和主成分分析的语音信号去噪方法
CN113919375A (zh) * 2021-10-14 2022-01-11 河源市忆源电子科技有限公司 一种基于人工智能的语音翻译系统
CN115345195A (zh) * 2022-07-20 2022-11-15 国网江苏省电力有限公司南京供电分公司 一种基于ceemdan和小波阈值的变电站环境噪声去除方法和系统
CN115798494A (zh) * 2022-11-22 2023-03-14 天翼数字生活科技有限公司 基于改进ceemdan算法用于语音增强的方法及装置
CN116486826A (zh) * 2023-04-27 2023-07-25 哈尔滨理工大学 一种基于融合网络的语音增强方法

Also Published As

Publication number Publication date
CN116825121A (zh) 2023-09-29

Similar Documents

Publication Publication Date Title
CN113012720B (zh) 谱减法降噪下多语音特征融合的抑郁症检测方法
CN111489763B (zh) 一种基于gmm模型的复杂环境下说话人识别自适应方法
CN107564543B (zh) 一种高情感区分度的语音特征提取方法
CN112331232B (zh) 一种结合cgan谱图去噪和双边滤波谱图增强的语音情感识别方法
CN111341332A (zh) 基于深度神经网络的语音特征增强后置滤波方法
CN114582330A (zh) 语音识别模型的训练方法、语音识别方法及电子设备
CN104157294B (zh) 一种农产品市场要素信息采集的鲁棒性语音识别方法
CN115452378A (zh) 基于功率正则化倒谱系数的滚动轴承故障声纹识别方法
CN118016079A (zh) 一种智能语音转写方法及系统
CN113378673B (zh) 一种基于一致性正则化的半监督脑电信号分类方法
CN118173092A (zh) 一种基于ai语音交互的在线客服平台
CN117452286B (zh) 一种基于变压器噪声的故障在线监测方法、介质及系统
CN116825121B (zh) 基于人工智能的智能语音识别与机器翻译系统
CN117995171A (zh) 一种语音情感识别方法及系统
CN110299133B (zh) 基于关键字判定非法广播的方法
CN116347723A (zh) 一种可调灯光样色的声控型墙壁开关的控制系统
CN116432664A (zh) 一种高质量数据扩增的对话意图分类方法及系统
CN116597853A (zh) 一种音频消噪方法
CN113257226B (zh) 一种基于gfcc的改进特征参数的语种识别方法
CN111048072A (zh) 一种应用于电力企业的声纹识别方法
CN113077818B (zh) 一种英语翻译的语音比照系统
CN118585889B (zh) 一种基于船舶辐射噪声数据的船舶类型识别方法及系统
CN117995167B (zh) 基于机器翻译的日语语音翻译方法、终端及存储介质
CN112735386B (zh) 一种基于声门波信息的语音识别方法
CN117370737B (zh) 一种基于自适应高斯滤波器的非稳态非高斯噪声去除方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant