CN117592384B - 一种基于生成对抗网络的主动声浪生成方法 - Google Patents

一种基于生成对抗网络的主动声浪生成方法 Download PDF

Info

Publication number
CN117592384B
CN117592384B CN202410078721.8A CN202410078721A CN117592384B CN 117592384 B CN117592384 B CN 117592384B CN 202410078721 A CN202410078721 A CN 202410078721A CN 117592384 B CN117592384 B CN 117592384B
Authority
CN
China
Prior art keywords
generation
data
model
training
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410078721.8A
Other languages
English (en)
Other versions
CN117592384A (zh
Inventor
秦先清
翟雁秋
何志辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Chs Electronic Technology Co ltd
Original Assignee
Guangzhou Chs Electronic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Chs Electronic Technology Co ltd filed Critical Guangzhou Chs Electronic Technology Co ltd
Priority to CN202410078721.8A priority Critical patent/CN117592384B/zh
Publication of CN117592384A publication Critical patent/CN117592384A/zh
Application granted granted Critical
Publication of CN117592384B publication Critical patent/CN117592384B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • B60Q5/008Arrangement or adaptation of acoustic signal devices automatically actuated for signaling silent vehicles, e.g. for warning that a hybrid or electric vehicle is approaching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M15/00Testing of engines
    • G01M15/04Testing internal-combustion engines
    • G01M15/05Testing internal-combustion engines by combined monitoring of two or more different engine parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本发明公开了一种基于生成对抗网络的主动声浪生成方法,通过对抗训练的方式生成与真实声浪数据分布尽可能接近的声浪数据,本发明使用GANsynth来进行音频数据预处理,并结合了ProGAN和DCGAN的架构和训练策略,使其能够稳定的生成高质量声浪音频文件。

Description

一种基于生成对抗网络的主动声浪生成方法
技术领域
本发明涉及人工智能分析领域,更具体的,涉及一种基于生成对抗网络的主动声浪生成方法。
背景技术
主动声浪技术正是解决电动汽车所面临问题的有效手段,它不仅能够提高电动汽车的安全性,还能增强驾驶体验,并帮助汽车厂商满足国家的相关标准和要求。
目前应用于主动声浪的实现方法主要是围绕着基于样本的方法和参数化的方法,但是基于样本的方法需要对真实汽车的引擎声样本进行录制、处理和合成。这种方法首先采集汽车在不同工况下的引擎声样本,在合成引擎声时,取出当前汽车的工况所对应的样本,再进行适当的调音处理,最后使用重叠相加法进行拼接。这种方法主要用于赛车游戏和高保真驾驶模拟器。它实现起来相对简单,但需要大量的汽车声音样本,而且声音设计受到真实汽车样本音色的限制。
而参数化的方法通常使用数学模型和算法来分析音频信号,并提取出关键的特征参数。然后,根据目标声浪风格的要求,调整这些参数来合成新的音频信号。如果参数设置不准确,那么结果可能会受到影响。此外,如果实际情况与预设参数不符,那么基于参数化的方法可能无法很好地适应这种变化。
发明内容
本发明克服了现有技术的缺陷,提出了一种基于生成对抗网络的主动声浪生成方法。
相比较与传统的参数化方法和基于样本的方法,本文提出基于生成对抗网络的主动声浪生成方法具有明显的创新性,该方法能够学习到数据中的复杂分布和模式,从而生成更加自然和真实的声音;另外模型不需要在进行手动的调整大量的声学参数来模拟真实的声音,使得声音生成过程更加自动化和高效;最后模型通过学习真实数据的分布来生成新的数据,从而克服了样本数量上的限制;显然,本文提出的基于生成对抗网络的主动声浪生成方法,不仅突破了传统方法的局限,以更自然真实的方式生成声音,同时大大提高了声音生成过程的自动化和效率。
本发明第一方面提供了一种基于生成对抗网络的主动声浪生成方法,包括:
构建三个基于GAN的生成模型,三个生成模型分别对应加速、减速、怠速下的声音生成模型;
获取目标车辆的发动机转速、行驶速度信息与初始采集声音数据,基于目标车辆的发动机转速、行驶速度信息进行状态判别,基于判别结果,将初始采集声音数据导入相应生成模型中;
通过生成模型,基于GANSYNTH技术对初始采集声音数据进行预处理,得到基于二维信号形式的预处理音频数据;
基于ProGAN的训练策略,设置渐进式训练方法,通过生成模型与对应鉴别器模型进行对抗训练,并得到接近原始声音特征的模拟声音数据;
将模拟声音数据通过预设终端进行播放。
本方案中,所述获取目标车辆的发动机转速、行驶速度信息与初始采集声音数据,基于目标车辆的发动机转速、行驶速度信息进行状态判别,具体为:
基于发动机转速、行驶速度信息与预设车辆行驶标准数据进行对比,并得到判别结果,判别结果为加速、减速、怠速中的其中一种。
本方案中,所述通过生成模型,基于GANSYNTH技术对初始采集声音数据进行预处理,得到基于二维信号形式的预处理音频数据,具体为:
将初始采集声音数据进行分帧加窗处理,形成多个中间数据;
对所述中间数据进行短时傅里叶变换,得到变换声音数据;
将变换声音数据沿预设维度进行堆叠,并形成基于二维信号形式的预处理音频数据。
本方案中,所述ProGAN的训练策略,设置渐进式训练方法,通过生成模型与对应鉴别器模型进行对抗训练,并得到接近原始声音特征的模拟声音数据,具体为:
基于ProGAN训练策略,采用渐进式训练方法,在生成模型中设置7层,每层通道数设定为[(128,112),(112,96),(96,80),(80,64),(64,48),(48,32),(32,16)],对应的鉴别器模型每层通道数与生成模型相反;
将预处理音频数据导入生成模型,以类图像模式进行数据生成,通过对应的鉴别器对生成的数据进行鉴别,循环进行对抗训练,并基于渐进式训练方法逐步提高生成数据的分辨率;
通过训练后的生成模型进行数据生成与转化,得到模拟声音数据。
本方案中,所述基于GAN的生成模型中,为采用DCGAN的方法构建,生成模型与对应的鉴别器模型均运用了深度卷积神经网络。
本发明第二方面还提供了一种基于生成对抗网络的主动声浪生成系统,该系统包括:存储器、处理器,所述存储器中包括基于生成对抗网络的主动声浪生成程序,所述基于生成对抗网络的主动声浪生成程序被所述处理器执行时实现如下步骤:
构建三个基于GAN的生成模型,三个生成模型分别对应加速、减速、怠速下的声音生成模型;
获取目标车辆的发动机转速、行驶速度信息与初始采集声音数据,基于目标车辆的发动机转速、行驶速度信息进行状态判别,基于判别结果,将初始采集声音数据导入相应生成模型中;
通过生成模型,基于GANSYNTH技术对初始采集声音数据进行预处理,得到基于二维信号形式的预处理音频数据;
基于ProGAN的训练策略,设置渐进式训练方法,通过生成模型与对应鉴别器模型进行对抗训练,并得到接近原始声音特征的模拟声音数据;
将模拟声音数据通过预设终端进行播放。
本发明公开了一种基于生成对抗网络的主动声浪生成方法,通过对抗训练的方式生成与真实声浪数据分布尽可能接近的声浪数据,本发明使用GANsynth来进行音频数据预处理,并结合了ProGAN和DCGAN的架构和训练策略,使其能够稳定的生成高质量声浪音频文件。
附图说明
图1示出了本发明一种基于生成对抗网络的主动声浪生成方法的流程图;
图2示出了本发明音频数据预处理流程图;
图3示出了本发明一种基于生成对抗网络的主动声浪生成系统的框图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
主动声浪,是一种先进的音频处理技术,专注于实时改变音频信号的风格,以适应不同的听音环境和用户偏好。与风格迁移在音乐、图像和视频等领域的应用相似,主动声浪技术旨在提供个性化的音频体验,满足用户多样化的需求。传统上实现主动声浪的方法主要是基于样本的方法和参数化方法:基于样本的方法依赖录制和处理真实的发动机声,对声音进行切片保存形成数据库,在实际行驶过程中在把声音片段进行拼接形成真实的发动机声音;基于参数化的方法则是分析音频信号的参数并调整参数来合成新的音频信号,但是这种方式需要靠预设的参数来进行调整音频信号,如果预设参数不准确将直接影响最后的声音结果。本文提出一种基于生成对抗网络的主动声浪算法,通过对抗训练的方式生成与真是声浪数据分布尽可能接近的声浪数据,这种方法使用GANsynth来进行音频数据预处理,并结合了ProGAN和DCGAN的架构和训练策略,使其能够稳定的生成高质量声浪音频文件。
相比较与传统的参数化方法和基于样本的方法,本文提出基于生成对抗网络的主动声浪生成方法具有明显的创新性,该方法能够学习到数据中的复杂分布和模式,从而生成更加自然和真实的声音;另外模型不需要在进行手动的调整大量的声学参数来模拟真实的声音,使得声音生成过程更加自动化和高效;最后模型通过学习真实数据的分布来生成新的数据,从而克服了样本数量上的限制;显然,本文提出的基于生成对抗网络的主动声浪生成方法,不仅突破了传统方法的局限,以更自然真实的方式生成声音,同时大大提高了声音生成过程的自动化和效率,以下是对该方法的详细介绍。
图1示出了本发明一种基于生成对抗网络的主动声浪生成方法的流程图。
如图1所示,本发明第一方面提供了一种基于生成对抗网络的主动声浪生成方法,包括:
S102,构建三个基于GAN的生成模型,三个生成模型分别对应加速、减速、怠速下的声音生成模型;
S104,获取目标车辆的发动机转速、行驶速度信息与初始采集声音数据,基于目标车辆的发动机转速、行驶速度信息进行状态判别,基于判别结果,将初始采集声音数据导入相应生成模型中;
S106,通过生成模型,基于GANSYNTH技术对初始采集声音数据进行预处理,得到基于二维信号形式的预处理音频数据;
S108,基于ProGAN的训练策略,设置渐进式训练方法,通过生成模型与对应鉴别器模型进行对抗训练,并得到接近原始声音特征的模拟声音数据;
S110,将模拟声音数据通过预设终端进行播放。
需要说明的是,本发明通过对抗训练的方式生成与真实声浪数据分布尽可能接近的声浪数据。该算法根据车辆的发动机转速和行驶速度信息进行判别,并根据判别结果将初始化声音送入对应行驶状态(加速、减速、怠速)下的模型中,生成与行驶状态匹配的音频数据。生成的音频数据可用于直接播放,并向前反馈替换掉初始化声音。此外,本发明还可以根据下一状态下的判别器判别结果将音频数据送入对应的模型中继续生成声音。
根据本发明实施例,所述获取目标车辆的发动机转速、行驶速度信息与初始采集声音数据,基于目标车辆的发动机转速、行驶速度信息进行状态判别,具体为:
基于发动机转速、行驶速度信息与预设车辆行驶标准数据进行对比,并得到判别结果,判别结果为加速、减速、怠速中的其中一种。
需要说明的是,所述预设车辆行驶标准数据为用户设定数据,可以根据车辆型号进行更改。
根据本发明实施例,所述通过生成模型,基于GANSYNTH技术对初始采集声音数据进行预处理,得到基于二维信号形式的预处理音频数据,具体为:
将初始采集声音数据进行分帧加窗处理,形成多个中间数据;
对所述中间数据进行短时傅里叶变换,得到变换声音数据;
将变换声音数据沿预设维度进行堆叠,并形成基于二维信号形式的预处理音频数据。
需要说明的是,本发明中,GAN模型使用GANsynth来进行音频数据预处理,并结合了ProGAN和DCGAN的架构和训练策略,使其能够稳定的生成高质量声浪音频文件(即模拟声音数据)。
图2示出了本发明音频数据预处理流程图。
发动机声浪作为一种无条件声音,没有像语言声音一样的说话内容作为文本提示,也没有像音乐歌曲一样有音符或者节拍这样明显的特征可以直接进行学习,所以在对数据进行抓取的时候必须要进行针对性的预处理;本方法借鉴了图像处理方面的技术,将声音分帧加窗,再通过短时傅里叶变换(STFT),把每一帧的结果沿着一个维度堆叠起来,得到一个类似图片的二维信号形式数据。如图2所示,初始声音文件经过分帧形成多个中间数据,并进一步通过加窗与变换(做FT,傅里叶变换)形成下一处理操作后数据,将得到的数据进行堆叠则得到相应的图像形式数据。
根据本发明实施例,所述基于ProGAN的训练策略,设置渐进式训练方法,通过生成模型与对应鉴别器模型进行对抗训练,并得到接近原始声音特征的模拟声音数据,具体为:
基于ProGAN训练策略,采用渐进式训练方法,在生成模型中设置7层,每层通道数设定为[(128,112),(112,96),(96,80),(80,64),(64,48),(48,32),(32,16)],对应的鉴别器模型每层通道数与生成模型相反;
将预处理音频数据导入生成模型,以类图像模式进行数据生成,通过对应的鉴别器对生成的数据进行鉴别,循环进行对抗训练,并基于渐进式训练方法逐步提高生成数据的分辨率;
通过训练后的生成模型进行数据生成与转化,得到模拟声音数据。
需要说明的是,发动机声浪一类的无条件声音,因为其特征复杂和高纬度,使得模型在训练的时候很难适应,特征学习的情况会直接影响最终生成声音的质量,所以这里引入了ProGAN的训练策略。
ProGAN的创新主要体现在渐进式增长的训练策略上,这种方法使模型从低分辨率的图像开始学习基础特征,随着训练的进程,逐步增加网络的深度和复杂性,以处理更高分辨率的图像。这种方法的引入有助于模型的稳定训练,避免了训练初期就面临大量的、难以区分的高维特征。
本发明渐进式训练共设立7层,生成器模型的每层通道数设定为[(128,112),(112,96),(96,80),(80,64),(64,48),(48,32),(32,16)],而鉴别器模型每层通道数与之相反。生成器通道数递减的设计可以提供更有效的训练和生成策略,特别是在需要生成高分辨率图像并采用渐进式增长的情况下。这种设计有助于平衡计算资源、多尺度特征表示和模型复杂性。而鉴别器通道数递增的设计主要有助于提高鉴别器的感知能力和适应性,尤其是在高分辨率图像鉴别任务中。这可以帮助鉴别器更好地执行其任务,从而提高生成对抗网络的性能和稳定性。
随着模型训练的进行,图像逐渐提高分辨率,这个过程被称为上采样。这意味着逐步增加图像的像素数量,以使其更加清晰和细致,尽可能地接近原始声音特征。
所述类图像模式即本发明通过将音频文件转化为图像数据文件(即基于二维信号形式的预处理音频数据),以图像数据形式,进行基于GAN的数据训练与对抗生成,从而得到较为精准的音频文件。训练后的生成模型生成的高分辨率图像数据通过音频格式转换,能够得到相应的声浪音频数据,即模拟声音数据。
根据本发明实施例,所述基于GAN的生成模型中,为采用DCGAN的方法构建,生成模型与对应的鉴别器模型均运用了深度卷积神经网络。
需要说明的是,DCGAN就是将CNN与GAN结合在一起,即生成器模型和判别器模型(即鉴别器模型)都运用了深度卷积神经网络的生成对抗网络,本发明所提出方法因为需要嵌入渐进式训练策略,所以与传统的DCGAN仍有不同:1、逐层增强的图像分辨率:本方法在生成器模型中引入逐层增强图像分辨率的设计,通过多次的上采样和反卷积操作,使生成的图像更加逼真和高分辨率;2、音频文件经过预处理后,使用复数表示幅值和相位信息来处理图片,以便生成的图像更加接近原始图像的特征;3、渐进式训练策略使模型在不同分辨率层次上逐渐学习图像特征,提高了生成质量。
通过本发明的主动声浪技术可以为电动汽车提供类似于传统燃油车的发动机声浪,增强驾驶的乐趣和真实感。在驾驶模拟器或赛车游戏中,为了提供更加真实的驾驶体验,本发明主动声浪技术可以被用于模拟各种车辆的发动机声音,增加玩家的沉浸感。
图3示出了本发明一种基于生成对抗网络的主动声浪生成系统的框图。
本发明第二方面还提供了一种基于生成对抗网络的主动声浪生成系统3,该系统包括:存储器31、处理器32,所述存储器中包括基于生成对抗网络的主动声浪生成程序,所述基于生成对抗网络的主动声浪生成程序被所述处理器执行时实现如下步骤:
构建三个基于GAN的生成模型,三个生成模型分别对应加速、减速、怠速下的声音生成模型;
获取目标车辆的发动机转速、行驶速度信息与初始采集声音数据,基于目标车辆的发动机转速、行驶速度信息进行状态判别,基于判别结果,将初始采集声音数据导入相应生成模型中;
通过生成模型,基于GANSYNTH技术对初始采集声音数据进行预处理,得到基于二维信号形式的预处理音频数据;
基于ProGAN的训练策略,设置渐进式训练方法,通过生成模型与对应鉴别器模型进行对抗训练,并得到接近原始声音特征的模拟声音数据;
将模拟声音数据通过预设终端进行播放。
需要说明的是,本发明通过对抗训练的方式生成与真实声浪数据分布尽可能接近的声浪数据。该算法根据车辆的发动机转速和行驶速度信息进行判别,并根据判别结果将初始化声音送入对应行驶状态(加速、减速、怠速)下的模型中,生成与行驶状态匹配的音频数据。生成的音频数据可用于直接播放,并向前反馈替换掉初始化声音。此外,本发明还可以根据下一状态下的判别器判别结果将音频数据送入对应的模型中继续生成声音。
根据本发明实施例,所述获取目标车辆的发动机转速、行驶速度信息与初始采集声音数据,基于目标车辆的发动机转速、行驶速度信息进行状态判别,具体为:
基于发动机转速、行驶速度信息与预设车辆行驶标准数据进行对比,并得到判别结果,判别结果为加速、减速、怠速中的其中一种。
需要说明的是,所述预设车辆行驶标准数据为用户设定数据,可以根据车辆型号进行更改。
根据本发明实施例,所述通过生成模型,基于GANSYNTH技术对初始采集声音数据进行预处理,得到基于二维信号形式的预处理音频数据,具体为:
将初始采集声音数据进行分帧加窗处理,形成多个中间数据;
对所述中间数据进行短时傅里叶变换,得到变换声音数据;
将变换声音数据沿预设维度进行堆叠,并形成基于二维信号形式的预处理音频数据。
需要说明的是,本发明中,GAN模型使用GANsynth来进行音频数据预处理,并结合了ProGAN和DCGAN的架构和训练策略,使其能够稳定的生成高质量声浪音频文件(即模拟声音数据)。
发动机声浪作为一种无条件声音,没有像语言声音一样的说话内容作为文本提示,也没有像音乐歌曲一样有音符或者节拍这样明显的特征可以直接进行学习,所以在对数据进行抓取的时候必须要进行针对性的预处理;本方法借鉴了图像处理方面的技术,将声音分帧加窗,再通过短时傅里叶变换(STFT),把每一帧的结果沿着一个维度堆叠起来,得到一个类似图片的二维信号形式数据。
根据本发明实施例,所述基于ProGAN的训练策略,设置渐进式训练方法,通过生成模型与对应鉴别器模型进行对抗训练,并得到接近原始声音特征的模拟声音数据,具体为:
基于ProGAN训练策略,采用渐进式训练方法,在生成模型中设置7层,每层通道数设定为[(128,112),(112,96),(96,80),(80,64),(64,48),(48,32),(32,16)],对应的鉴别器模型每层通道数与生成模型相反;
将预处理音频数据导入生成模型,以类图像模式进行数据生成,通过对应的鉴别器对生成的数据进行鉴别,循环进行对抗训练,并基于渐进式训练方法逐步提高生成数据的分辨率;
通过训练后的生成模型进行数据生成与转化,得到模拟声音数据。
需要说明的是,发动机声浪一类的无条件声音,因为其特征复杂和高纬度,使得模型在训练的时候很难适应,特征学习的情况会直接影响最终生成声音的质量,所以这里引入了ProGAN的训练策略。
ProGAN的创新主要体现在渐进式增长的训练策略上,这种方法使模型从低分辨率的图像开始学习基础特征,随着训练的进程,逐步增加网络的深度和复杂性,以处理更高分辨率的图像。这种方法的引入有助于模型的稳定训练,避免了训练初期就面临大量的、难以区分的高维特征。
本发明渐进式训练共设立7层,生成器模型的每层通道数设定为[(128,112),(112,96),(96,80),(80,64),(64,48),(48,32),(32,16)],而鉴别器模型每层通道数与之相反。生成器通道数递减的设计可以提供更有效的训练和生成策略,特别是在需要生成高分辨率图像并采用渐进式增长的情况下。这种设计有助于平衡计算资源、多尺度特征表示和模型复杂性。而鉴别器通道数递增的设计主要有助于提高鉴别器的感知能力和适应性,尤其是在高分辨率图像鉴别任务中。这可以帮助鉴别器更好地执行其任务,从而提高生成对抗网络的性能和稳定性。
随着模型训练的进行,图像逐渐提高分辨率,这个过程被称为上采样。这意味着逐步增加图像的像素数量,以使其更加清晰和细致,尽可能地接近原始声音特征。
所述类图像模式即本发明通过将音频文件转化为图像数据文件(即基于二维信号形式的预处理音频数据),以图像数据形式,进行基于GAN的数据训练与对抗生成,从而得到较为精准的音频文件。训练后的生成模型生成的高分辨率图像数据通过音频格式转换,能够得到相应的声浪音频数据,即模拟声音数据。
根据本发明实施例,所述基于GAN的生成模型中,为采用DCGAN的方法构建,生成模型与对应的鉴别器模型均运用了深度卷积神经网络。
需要说明的是,DCGAN就是将CNN与GAN结合在一起,即生成器模型和判别器模型(即鉴别器模型)都运用了深度卷积神经网络的生成对抗网络,本发明所提出方法因为需要嵌入渐进式训练策略,所以与传统的DCGAN仍有不同:1、逐层增强的图像分辨率:本方法在生成器模型中引入逐层增强图像分辨率的设计,通过多次的上采样和反卷积操作,使生成的图像更加逼真和高分辨率;2、音频文件经过预处理后,使用复数表示幅值和相位信息来处理图片,以便生成的图像更加接近原始图像的特征;3、渐进式训练策略使模型在不同分辨率层次上逐渐学习图像特征,提高了生成质量。
通过本发明的主动声浪技术可以为电动汽车提供类似于传统燃油车的发动机声浪,增强驾驶的乐趣和真实感。在驾驶模拟器或赛车游戏中,为了提供更加真实的驾驶体验,本发明主动声浪技术可以被用于模拟各种车辆的发动机声音,增加玩家的沉浸感。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (4)

1.一种基于生成对抗网络的主动声浪生成方法,其特征在于,包括:
构建三个基于GAN的生成模型,三个生成模型分别对应加速、减速、怠速下的声音生成模型;
获取目标车辆的发动机转速、行驶速度信息与初始采集声音数据,基于目标车辆的发动机转速、行驶速度信息进行状态判别,基于判别结果,将初始采集声音数据导入相应生成模型中;
通过生成模型,基于GANSYNTH技术对初始采集声音数据进行预处理,得到基于二维信号形式的预处理音频数据;
基于ProGAN的训练策略,设置渐进式训练方法,通过生成模型与对应鉴别器模型进行对抗训练,并得到接近原始声音特征的模拟声音数据;
将模拟声音数据通过预设终端进行播放;
其中,所述获取目标车辆的发动机转速、行驶速度信息与初始采集声音数据,基于目标车辆的发动机转速、行驶速度信息进行状态判别,具体为:
基于发动机转速、行驶速度信息与预设车辆行驶标准数据进行对比,并得到判别结果,判别结果为加速、减速、怠速中的其中一种;
其中,所述ProGAN的训练策略,设置渐进式训练方法,通过生成模型与对应鉴别器模型进行对抗训练,并得到接近原始声音特征的模拟声音数据,具体为:
基于ProGAN训练策略,采用渐进式训练方法,在生成模型中设置7层,每层通道数设定为[(128,112),(112,96),(96,80),(80,64),(64,48),(48,32),(32,16)],对应的鉴别器模型每层通道数与生成模型相反;
将预处理音频数据导入生成模型,以类图像模式进行数据生成,通过对应的鉴别器对生成的数据进行鉴别,循环进行对抗训练,并基于渐进式训练方法逐步提高生成数据的分辨率;
通过训练后的生成模型进行数据生成与转化,得到模拟声音数据。
2.根据权利要求1所述的一种基于生成对抗网络的主动声浪生成方法,其特征在于,所述通过生成模型,基于GANSYNTH技术对初始采集声音数据进行预处理,得到基于二维信号形式的预处理音频数据,具体为:
将初始采集声音数据进行分帧加窗处理,形成多个中间数据;
对所述中间数据进行短时傅里叶变换,得到变换声音数据;
将变换声音数据沿预设维度进行堆叠,并形成基于二维信号形式的预处理音频数据。
3.根据权利要求1所述的一种基于生成对抗网络的主动声浪生成方法,其特征在于,所述基于GAN的生成模型中,为采用DCGAN的方法构建,生成模型与对应的鉴别器模型均运用了深度卷积神经网络。
4.一种基于生成对抗网络的主动声浪生成系统,其特征在于,该系统包括:存储器、处理器,所述存储器中包括基于生成对抗网络的主动声浪生成程序,所述基于生成对抗网络的主动声浪生成程序被所述处理器执行时实现如下步骤:
构建三个基于GAN的生成模型,三个生成模型分别对应加速、减速、怠速下的声音生成模型;
获取目标车辆的发动机转速、行驶速度信息与初始采集声音数据,基于目标车辆的发动机转速、行驶速度信息进行状态判别,基于判别结果,将初始采集声音数据导入相应生成模型中;
通过生成模型,基于GANSYNTH技术对初始采集声音数据进行预处理,得到基于二维信号形式的预处理音频数据;
基于ProGAN的训练策略,设置渐进式训练方法,通过生成模型与对应鉴别器模型进行对抗训练,并得到接近原始声音特征的模拟声音数据;
将模拟声音数据通过预设终端进行播放;
其中,所述获取目标车辆的发动机转速、行驶速度信息与初始采集声音数据,基于目标车辆的发动机转速、行驶速度信息进行状态判别,具体为:
基于发动机转速、行驶速度信息与预设车辆行驶标准数据进行对比,并得到判别结果,判别结果为加速、减速、怠速中的其中一种;
其中,所述ProGAN的训练策略,设置渐进式训练方法,通过生成模型与对应鉴别器模型进行对抗训练,并得到接近原始声音特征的模拟声音数据,具体为:
基于ProGAN训练策略,采用渐进式训练方法,在生成模型中设置7层,每层通道数设定为[(128,112),(112,96),(96,80),(80,64),(64,48),(48,32),(32,16)],对应的鉴别器模型每层通道数与生成模型相反;
将预处理音频数据导入生成模型,以类图像模式进行数据生成,通过对应的鉴别器对生成的数据进行鉴别,循环进行对抗训练,并基于渐进式训练方法逐步提高生成数据的分辨率;
通过训练后的生成模型进行数据生成与转化,得到模拟声音数据。
CN202410078721.8A 2024-01-19 2024-01-19 一种基于生成对抗网络的主动声浪生成方法 Active CN117592384B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410078721.8A CN117592384B (zh) 2024-01-19 2024-01-19 一种基于生成对抗网络的主动声浪生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410078721.8A CN117592384B (zh) 2024-01-19 2024-01-19 一种基于生成对抗网络的主动声浪生成方法

Publications (2)

Publication Number Publication Date
CN117592384A CN117592384A (zh) 2024-02-23
CN117592384B true CN117592384B (zh) 2024-05-03

Family

ID=89918779

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410078721.8A Active CN117592384B (zh) 2024-01-19 2024-01-19 一种基于生成对抗网络的主动声浪生成方法

Country Status (1)

Country Link
CN (1) CN117592384B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020010338A1 (en) * 2018-07-05 2020-01-09 Dts, Inc. Hybrid audio synthesis using neural networks
CN111539514A (zh) * 2020-04-16 2020-08-14 北京百度网讯科技有限公司 用于生成神经网络的结构的方法和装置
CN111899747A (zh) * 2020-07-30 2020-11-06 北京字节跳动网络技术有限公司 用于合成音频的方法和装置
CN115828428A (zh) * 2022-11-29 2023-03-21 重庆长安汽车股份有限公司 模拟声浪音效品质的标定方法、系统及车辆
CN116206624A (zh) * 2023-05-04 2023-06-02 科大讯飞(苏州)科技有限公司 一种车辆声浪合成方法、装置、存储介质及设备
CN116778946A (zh) * 2023-05-19 2023-09-19 阿里巴巴(中国)有限公司 人声伴奏分离方法、网络训练方法、设备及存储介质
WO2023221674A1 (zh) * 2022-05-19 2023-11-23 腾讯科技(深圳)有限公司 音频编解码方法及相关产品

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022078634A1 (en) * 2020-10-15 2022-04-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio generator and methods for generating an audio signal and training an audio generator
KR20230125994A (ko) * 2022-02-22 2023-08-29 한국전자통신연구원 적대적 생성 신경망을 이용한 오디오 신호 생성 모델 및 훈련 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020010338A1 (en) * 2018-07-05 2020-01-09 Dts, Inc. Hybrid audio synthesis using neural networks
CN111539514A (zh) * 2020-04-16 2020-08-14 北京百度网讯科技有限公司 用于生成神经网络的结构的方法和装置
CN111899747A (zh) * 2020-07-30 2020-11-06 北京字节跳动网络技术有限公司 用于合成音频的方法和装置
WO2023221674A1 (zh) * 2022-05-19 2023-11-23 腾讯科技(深圳)有限公司 音频编解码方法及相关产品
CN115828428A (zh) * 2022-11-29 2023-03-21 重庆长安汽车股份有限公司 模拟声浪音效品质的标定方法、系统及车辆
CN116206624A (zh) * 2023-05-04 2023-06-02 科大讯飞(苏州)科技有限公司 一种车辆声浪合成方法、装置、存储介质及设备
CN116778946A (zh) * 2023-05-19 2023-09-19 阿里巴巴(中国)有限公司 人声伴奏分离方法、网络训练方法、设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Engine order sound simulation by active sound generation for electric vehicles;Yuntao Cao et al.;《SAE international of vehicle dynamics》;20200229;第1-5页 *
基于短时傅里叶算法的行人警示控制器音效合成;高放;《上海汽车》;20191215;第54-58页 *
纯电动车座椅主动发声系统声音模拟技术研究;谢林易;《万方》;20230908;第1-97页 *

Also Published As

Publication number Publication date
CN117592384A (zh) 2024-02-23

Similar Documents

Publication Publication Date Title
US10360899B2 (en) Method and device for processing speech based on artificial intelligence
CN111970568B (zh) 交互式视频播放的方法和系统
CN108766413A (zh) 语音合成方法及系统
CN115602165B (zh) 基于金融系统的数字员工智能系统
CN112735454A (zh) 音频处理方法、装置、电子设备和可读存储介质
CN112185335A (zh) 一种降噪方法、装置、电子设备及存储介质
CN114338623A (zh) 音频的处理方法、装置、设备、介质及计算机程序产品
CN112420049A (zh) 数据处理方法、装置及存储介质
Li et al. Anti-forensics of audio source identification using generative adversarial network
CN117592384B (zh) 一种基于生成对抗网络的主动声浪生成方法
CN111564064A (zh) 基于游戏互动的智能教育系统与方法
CN112185342A (zh) 语音转换与模型训练方法、装置和系统及存储介质
CN117037820A (zh) 基于扩散的内容与风格解耦的语音转换方法
CN116705056A (zh) 音频生成方法、声码器、电子设备及存储介质
CN113870896A (zh) 基于时频图和卷积神经网络的运动声音判假方法、装置
CN115132204B (zh) 一种语音处理方法、设备、存储介质及计算机程序产品
CN113012706B (zh) 一种数据处理方法、装置及电子设备
CN112185338B (zh) 音频处理方法、装置、可读存储介质和电子设备
CN117079639A (zh) 用于生成音频数据的方法、装置、电子设备和存储介质
CN115346541A (zh) 一种融合空间感知与注意力机制的语音声码器及建立方法
CN115188363A (zh) 语音处理方法、系统、设备及存储介质
CN116758945A (zh) 基于时长与言语内容交互验证的音频检测方法
CN116758897A (zh) 方言语音指令的识别方法、装置及电子设备
CN117542378A (zh) 语音情绪识别方法、装置、电子设备及存储介质
Ansar et al. An EfficientNet-Based Ensemble for Bird-Call Recognition with Enhanced Noise Reduction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant