CN117524253B - 针对网络音频丢包的低延迟修复和隐藏方法及其设备 - Google Patents

针对网络音频丢包的低延迟修复和隐藏方法及其设备 Download PDF

Info

Publication number
CN117524253B
CN117524253B CN202410011919.4A CN202410011919A CN117524253B CN 117524253 B CN117524253 B CN 117524253B CN 202410011919 A CN202410011919 A CN 202410011919A CN 117524253 B CN117524253 B CN 117524253B
Authority
CN
China
Prior art keywords
audio
model
time
neural network
modeling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410011919.4A
Other languages
English (en)
Other versions
CN117524253A (zh
Inventor
赵胜
丁卓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Longyuan Information Technology Co ltd
Original Assignee
Nanjing Longyuan Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Longyuan Information Technology Co ltd filed Critical Nanjing Longyuan Information Technology Co ltd
Priority to CN202410011919.4A priority Critical patent/CN117524253B/zh
Publication of CN117524253A publication Critical patent/CN117524253A/zh
Application granted granted Critical
Publication of CN117524253B publication Critical patent/CN117524253B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/008Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols involving homomorphic encryption
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明涉及音频修复技术领域,具体涉及一种针对网络音频丢包的低延迟修复和隐藏方法及其设备;使用短时傅里叶变换将音频信号分成多个时间段,并在每个时间段内计算其频谱表示;使用自回归模型以及循环神经网络模型对其进行建模和预测;使用卷积神经网络对其进行建模和预测;将时域和频域的预测结果进行合并,得到完整的音频信号预测结果;在针对网络音频丢包的低延迟修复和隐藏设备中,包括模型训练模块、数据加密模块和音频修复模块;通过上述方式,实现实时隐藏错误的能力有助于减轻丢包造成的音频损伤,从而提高现实场景中音频播放的质量。

Description

针对网络音频丢包的低延迟修复和隐藏方法及其设备
技术领域
本发明涉及音频修复技术领域,尤其涉及一种针对网络音频丢包的低延迟修复和隐藏方法及其设备。
背景技术
网络音乐直播旨在通过电信网络使远程音乐家可以互动并共同演出,从而彻底改变传统的音乐交互概念。然而,由于其对音频质量和网络延迟方面的极其严格的要求,为了最大限度地减少音频传输的端到端延迟,NMP应用程序的典型实现是使用未压缩的双向音频流,并利用UDP作为传输协议。由于UDP无连接且不可靠,因此通过UDP传输的音频数据包在传输过程中有丢失的风险,且不会重新传输,因此会导致接收器的音频播放出现故障。
发明内容
本发明的目的在于提供一种针对网络音频丢包的低延迟修复和隐藏方法及其设备,旨在解决现有技术中的由于UDP无连接且不可靠,因此通过UDP传输的音频数据包在传输过程中有丢失的风险,且不会重新传输,因此会导致接收器的音频播放出现故障的技术问题。
为实现上述目的,本发明采用的一种针对网络音频丢包的低延迟修复和隐藏方法,包括如下步骤:
频谱表示:使用短时傅里叶变换将音频信号分成多个时间段,并在每个时间段内计算其频谱表示;
时域表示:在每个时间段中,使用自回归模型以及循环神经网络模型对其进行建模和预测;
频域表示:对于每个频谱子带,使用卷积神经网络对其进行建模和预测;
预测合并:对于每个时间段的每个频谱子带,将时域和频域的预测结果进行合并,得到完整的音频信号预测结果。
其中,在频谱表示:使用短时傅里叶变换将音频信号分成多个时间段,并在每个时间段内计算其频谱表示的步骤中:
在计算频谱时,根据所需的预测精度和计算复杂度选择窗口大小和重叠率。
其中,在时域表示:在每个时间段中,使用自回归模型以及循环神经网络模型对其进行建模和预测的步骤中:
在建模时,将已知的音频数据作为输入,将丢失的音频数据作为标签,以监督学习的方式进行模型训练。
其中,在时域表示:在每个时间段中,使用自回归模型以及循环神经网络模型对其进行建模和预测的步骤中:
在预测时,利用已知的音频数据和模型参数,通过计算预测误差得到丢失的音频数据。
其中,在频域表示:对于每个频谱子带,使用卷积神经网络对其进行建模和预测的步骤中:
在建模时,将已知的频谱数据作为输入,将丢失的音频数据作为标签,以监督学习的方式进行模型训练。
其中,在频域表示:对于每个频谱子带,使用卷积神经网络对其进行建模和预测的步骤中:
在预测时,利用已知的频谱数据和模型参数,通过计算预测误差得到丢失的音频数据。
其中,在频域表示:对于每个频谱子带,使用卷积神经网络对其进行建模和预测的步骤中:
使用卷积神经网络,将100*200*3光谱时间表示作为输入并生成512维矢量;
利用卷积神经网络合成一个有效的数据包,以卷积神经网络从过去的信号历史中提取的潜在代码为条件,将大小为128的前一个有效数据包与大小为512的过去光谱时间内容的潜在代码进行连接。
本发明还提供一种针对网络音频丢包的低延迟修复和隐藏设备,采用于所述针对网络音频丢包的低延迟修复和隐藏方法,包括负责训练深度学习模型,用于实现音频数据丢包的修复和隐藏的模型训练模块;
负责对音频数据进行加密保护,以保护音频数据的隐私的数据加密模块;
负责实现音频数据的修复和隐藏的音频修复模块。
本发明的一种针对网络音频丢包的低延迟修复和隐藏方法及其设备,通过将音频信号转换为频谱表示,然后使用自回归模型或循环神经网络模型对其进行建模和预测;同时,对于每个频谱子带,可以使用卷积神经网络模型进行建模和预测,最后将时域和频域的预测结果进行合并,得到完整的音频信号预测结果。通过这种混合方法,可以充分利用频谱和时域信号的特点,提高预测精度和鲁棒性;实现实时隐藏错误的能力有助于减轻丢包造成的音频损伤,从而提高现实场景中音频播放的质量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的针对网络音频丢包的低延迟修复和隐藏方法的步骤流程图。
图2是本发明的使用卷积神经网络建模和预测的步骤流程图。
具体实施方式
请参阅图1和图2,其中图1是针对网络音频丢包的低延迟修复和隐藏方法的步骤流程图,图2是使用卷积神经网络建模和预测的步骤流程。
本发明提供了一种针对网络音频丢包的低延迟修复和隐藏方法,包括如下步骤:
S1:频谱表示:使用短时傅里叶变换将音频信号分成多个时间段,并在每个时间段内计算其频谱表示,在计算频谱时,根据所需的预测精度和计算复杂度选择窗口大小和重叠率;
S3:时域表示:在每个时间段中,使用自回归模型以及循环神经网络模型对其进行建模和预测;在建模时,将已知的音频数据作为输入,将丢失的音频数据作为标签,以监督学习的方式进行模型训练;在预测时,利用已知的音频数据和模型参数,通过计算预测误差得到丢失的音频数据;
S3:频域表示:对于每个频谱子带,使用卷积神经网络对其进行建模和预测;在建模时,将已知的频谱数据作为输入,将丢失的音频数据作为标签,以监督学习的方式进行模型训练;在预测时,利用已知的频谱数据和模型参数,通过计算预测误差得到丢失的音频数据;
S4:预测合并:对于每个时间段的每个频谱子带,将时域和频域的预测结果进行合并,得到完整的音频信号预测结果。
在本实施方式中,首先使用短时傅里叶变换将音频信号分成多个时间段,并在每个时间段内计算其频谱表示,在计算频谱时,根据所需的预测精度和计算复杂度选择窗口大小和重叠率;其次在每个时间段中,使用自回归模型以及循环神经网络模型对其进行建模和预测;在建模时,将已知的音频数据作为输入,将丢失的音频数据作为标签,以监督学习的方式进行模型训练;在预测时,利用已知的音频数据和模型参数,通过计算预测误差得到丢失的音频数据;同时对于每个频谱子带,使用卷积神经网络对其进行建模和预测;在建模时,将已知的频谱数据作为输入,将丢失的音频数据作为标签,以监督学习的方式进行模型训练;在预测时,利用已知的频谱数据和模型参数,通过计算预测误差得到丢失的音频数据;最后对于每个时间段的每个频谱子带,将时域和频域的预测结果进行合并,得到完整的音频信号预测结果;通过将音频信号转换为频谱表示,然后使用自回归模型或循环神经网络模型对其进行建模和预测;同时,对于每个频谱子带,可以使用卷积神经网络模型进行建模和预测,最后将时域和频域的预测结果进行合并,得到完整的音频信号预测结果。通过这种混合方法,可以充分利用频谱和时域信号的特点,提高预测精度和鲁棒性;实现实时隐藏错误的能力有助于减轻丢包造成的音频损伤,从而提高现实场景中音频播放的质量。
进一步地,在频域表示:对于每个频谱子带,使用卷积神经网络对其进行建模和预测的步骤中:
S31:使用卷积神经网络,将100*200*3光谱时间表示作为输入并生成512维矢量;
S32:利用卷积神经网络合成一个有效的数据包,以卷积神经网络从过去的信号历史中提取的潜在代码为条件,将大小为128的前一个有效数据包与大小为512的过去光谱时间内容的潜在代码进行连接。
在本实施方式中,首先使用卷积神经网络,将100*200*3光谱时间表示作为输入并生成512维矢量,其中降维过程如下:具有3*3卷积核和1*2池化的3层卷积架构在接下来的两层中连接到2*2池化,最后一个线性层将维度降为512。每个卷积层都有64个通道;然后利用卷积神经网络合成一个有效的数据包,以卷积神经网络从过去的信号历史中提取的潜在代码为条件,将大小为128的前一个有效数据包与大小为512的过去光谱时间内容的潜在代码进行连接,两个信号,一个用于学习时域中的连续性,一个用于学习频谱内容,被连接起来以生成摘要包含信号两个方面的矢量。这被馈送到一个合成神经网络,该网络由3个完全连接的1024个神经元层组成,用于预测丢失或丢失的数据包。
本发明还提供了一种针对网络音频丢包的低延迟修复和隐藏设备,采用所述针对网络音频丢包的低延迟修复和隐藏方法,包括负责训练深度学习模型,用于实现音频数据丢包的修复和隐藏的模型训练模块;负责对音频数据进行加密保护,以保护音频数据的隐私的数据加密模块;负责实现音频数据的修复和隐藏的音频修复模块。
在本实施方式中,所述模型训练模块:该模块主要负责训练深度学习模型,用于实现音频数据丢包的修复和隐藏。具体地,该模块使用卷积神经网络结合频谱和时域信号实现丢包内容预测。在训练模型时,需要提供一定数量的有标注的音频数据,同时需要对模型进行合理的参数设置和训练策略,以获得较好的预测效果。所述数据加密模块:该模块主要负责对音频数据进行加密保护,以保护音频数据的隐私。具体地,该模块使用同态加密技术对音频数据进行加密,使得只有具有相应密钥的用户才能够解密和获取音频数据。通过加密保护,可以有效避免音频数据在传输和存储过程中被未经授权的用户获取和利用。所述音频修复模块:该模块主要负责实现音频数据的修复和隐藏。具体地,该模块实时监测网络音频数据的丢包情况,及时发现丢包事件,并使用训练好的深度学习模型对丢失的音频数据进行预测和修复,以恢复音频数据的完整性和连续性。同时,该模块还利用绝对误差乘以反汉宁窗实现损失函数的加权表示,从而提高模型对边缘样本的预测精度。通过音频修复模块的处理,可以有效减轻丢包造成的音频损伤,提高现实场景中音频播放的质量。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (3)

1.一种针对网络音频丢包的低延迟修复和隐藏方法,其特征在于,包括如下步骤:
频谱表示:使用短时傅里叶变换将音频信号分成多个时间段,并在每个时间段内计算其频谱表示;
时域表示:在每个时间段中,使用自回归模型以及循环神经网络模型对其进行建模和预测;
频域表示:对于每个频谱子带,使用卷积神经网络对其进行建模和预测;
预测合并:对于每个时间段的每个频谱子带,将时域和频域的预测结果进行合并,得到完整的音频信号预测结果;
在时域表示:在每个时间段中,使用自回归模型以及循环神经网络模型对其进行建模和预测的步骤中:
在建模时,将已知的音频数据作为输入,将丢失的音频数据作为标签,以监督学习的方式进行模型训练;
在时域表示:在每个时间段中,使用自回归模型以及循环神经网络模型对其进行建模和预测的步骤中:
在预测时,利用已知的音频数据和模型参数,通过计算预测误差得到丢失的音频数据;
在频域表示:对于每个频谱子带,使用卷积神经网络对其进行建模和预测的步骤中:
在建模时,将已知的频谱数据作为输入,将丢失的音频数据作为标签,以监督学习的方式进行模型训练;
在频域表示:对于每个频谱子带,使用卷积神经网络对其进行建模和预测的步骤中:
在预测时,利用已知的频谱数据和模型参数,通过计算预测误差得到丢失的音频数据;
在频域表示:对于每个频谱子带,使用卷积神经网络对其进行建模和预测的步骤中:
使用卷积神经网络,将100*200*3光谱时间表示作为输入并生成512维矢量;
利用卷积神经网络合成一个有效的数据包,以卷积神经网络从过去的信号历史中提取的潜在代码为条件,将大小为128的前一个有效数据包与大小为512的过去光谱时间内容的潜在代码进行连接。
2.如权利要求1所述的针对网络音频丢包的低延迟修复和隐藏方法,其特征在于,在频谱表示:使用短时傅里叶变换将音频信号分成多个时间段,并在每个时间段内计算其频谱表示的步骤中:
在计算频谱时,根据所需的预测精度和计算复杂度选择窗口大小和重叠率。
3.一种针对网络音频丢包的低延迟修复和隐藏设备,采用于如权利要求1所述的针对网络音频丢包的低延迟修复和隐藏方法,其特征在于,
包括负责训练深度学习模型,用于实现音频数据丢包的修复和隐藏的模型训练模块;
负责对音频数据进行加密保护,以保护音频数据的隐私的数据加密模块;
负责实现音频数据的修复和隐藏的音频修复模块。
CN202410011919.4A 2024-01-04 2024-01-04 针对网络音频丢包的低延迟修复和隐藏方法及其设备 Active CN117524253B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410011919.4A CN117524253B (zh) 2024-01-04 2024-01-04 针对网络音频丢包的低延迟修复和隐藏方法及其设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410011919.4A CN117524253B (zh) 2024-01-04 2024-01-04 针对网络音频丢包的低延迟修复和隐藏方法及其设备

Publications (2)

Publication Number Publication Date
CN117524253A CN117524253A (zh) 2024-02-06
CN117524253B true CN117524253B (zh) 2024-05-07

Family

ID=89753475

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410011919.4A Active CN117524253B (zh) 2024-01-04 2024-01-04 针对网络音频丢包的低延迟修复和隐藏方法及其设备

Country Status (1)

Country Link
CN (1) CN117524253B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109155133A (zh) * 2016-03-07 2019-01-04 弗劳恩霍夫应用研究促进协会 混合隐藏方法:音频编解码器中频域和时域报文丢失隐藏的组合
CN110534120A (zh) * 2019-08-31 2019-12-03 刘秀萍 一种移动网络环境下的环绕声误码修复方法
CN111402905A (zh) * 2018-12-28 2020-07-10 南京中感微电子有限公司 音频数据恢复方法、装置及蓝牙设备
CN111653285A (zh) * 2020-06-01 2020-09-11 北京猿力未来科技有限公司 丢包补偿方法及装置
CN112216289A (zh) * 2014-07-28 2021-01-12 三星电子株式会社 用于音频信号的时域数据包丢失隐藏的方法
CN112289343A (zh) * 2020-10-28 2021-01-29 腾讯音乐娱乐科技(深圳)有限公司 音频修复方法、装置及电子设备和计算机可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113035205B (zh) * 2020-12-28 2022-06-07 阿里巴巴(中国)有限公司 音频丢包补偿处理方法、装置及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112216289A (zh) * 2014-07-28 2021-01-12 三星电子株式会社 用于音频信号的时域数据包丢失隐藏的方法
CN109155133A (zh) * 2016-03-07 2019-01-04 弗劳恩霍夫应用研究促进协会 混合隐藏方法:音频编解码器中频域和时域报文丢失隐藏的组合
CN111402905A (zh) * 2018-12-28 2020-07-10 南京中感微电子有限公司 音频数据恢复方法、装置及蓝牙设备
CN110534120A (zh) * 2019-08-31 2019-12-03 刘秀萍 一种移动网络环境下的环绕声误码修复方法
CN111653285A (zh) * 2020-06-01 2020-09-11 北京猿力未来科技有限公司 丢包补偿方法及装置
CN112289343A (zh) * 2020-10-28 2021-01-29 腾讯音乐娱乐科技(深圳)有限公司 音频修复方法、装置及电子设备和计算机可读存储介质

Also Published As

Publication number Publication date
CN117524253A (zh) 2024-02-06

Similar Documents

Publication Publication Date Title
CN102652337B (zh) 用于声通信的设备和方法
Garcia Digital watermarking of audio signals using a psychoacoustic auditory model and spread spectrum theory
CN102810314B (zh) 音频编码方法及装置、音频解码方法及装置、编解码系统
CN103221997B (zh) 水印生成器、水印解码器、基于离散值数据提供加水印信号的方法和根据加水印信号提供离散值数据的方法
EP2289065A1 (en) Concealing audio artifacts
Verma et al. A deep learning approach for low-latency packet loss concealment of audio signals in networked music performance applications
Haneche et al. New mobile communication system design for Rayleigh environments based on compressed sensing‐source coding
O'neal et al. Differential PCM for speech and data signals
CN104995673A (zh) 帧错误隐藏
DE19640814C2 (de) Codierverfahren zur Einbringung eines nicht hörbaren Datensignals in ein Audiosignal und Verfahren zum Decodieren eines nicht hörbar in einem Audiosignal enthaltenen Datensignals
CN102027535A (zh) 信号处理
DE4427351C1 (de) Signalverarbeitungsverfahren und -anordnung für blockweise codierte Sprachsignale eines Nachrichtensystems
CN117524253B (zh) 针对网络音频丢包的低延迟修复和隐藏方法及其设备
Raheema et al. Performance Comparison of Hybrid Chaotic Maps Based on Speech Scrambling for OFDM Techniques
CN112751820B (zh) 使用深度学习实现数字语音丢包隐藏
Quackenbush et al. Error mitigation in MPEG-4 audio packet communication systems
Web et al. Transformation-based reconstruction for real-time voice transmissions over the internet
Nguyen et al. Improving performance of real-time full-band blind packet-loss concealment with predictive network
Mosa et al. Chaotic encryption of speech signals in transform domains
JPH08278800A (ja) 音声通信システム
Pooyan et al. Adaptive and robust audio watermarking in wavelet domain
Turin Simulation of error sources in digital channels
Chao Asynchronous error-correcting secure communication scheme based on fractional-order shifting chaotic system
Ito et al. Packet loss concealment for MDCT-based audio codec using correlation-based side information
CN101262575A (zh) 一种地面数字电视系统的帧头pn捕获方法及其装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant