CN101405717B - 使用频道间振幅谱的音频频道提取的方法和设备 - Google Patents

使用频道间振幅谱的音频频道提取的方法和设备 Download PDF

Info

Publication number
CN101405717B
CN101405717B CN2006800459938A CN200680045993A CN101405717B CN 101405717 B CN101405717 B CN 101405717B CN 2006800459938 A CN2006800459938 A CN 2006800459938A CN 200680045993 A CN200680045993 A CN 200680045993A CN 101405717 B CN101405717 B CN 101405717B
Authority
CN
China
Prior art keywords
channel
audio frequency
output
inputting
inter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2006800459938A
Other languages
English (en)
Other versions
CN101405717A (zh
Inventor
P·丘巴列夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DTS Inc
DTS BVI Ltd
Original Assignee
DTS BVI Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38123391&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=CN101405717(B) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by DTS BVI Ltd filed Critical DTS BVI Ltd
Publication of CN101405717A publication Critical patent/CN101405717A/zh
Application granted granted Critical
Publication of CN101405717B publication Critical patent/CN101405717B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/005Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo five- or more-channel type, e.g. virtual surround
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Stereophonic System (AREA)

Abstract

频道间振幅谱被使用来从包括音频源的混合的、两个或多个音频输入频道中提取多个音频频道。这个方法产生不仅仅是输入频道的线性组合的多个音频频道,因此,例如,可以与盲源分离(BSS)算法相组合地使用。

Description

使用频道间振幅谱的音频频道提取的方法和设备
技术领域
本发明涉及从包括音频源的混合的、两个或多个音频输入频道中提取多个音频频道,更具体地,涉及使用频道间振幅谱来执行提取。
背景技术
盲源分离(Blind Source Separation,BSS)是这样一类方法,其被广泛使用于需要从传送各个源的线性混合的立体声频道中估计各个原先的音频源的领域。从各个原先的源的线性混合中分离出各个原先的源的困难在于,在许多实际的应用中,对于原先的信号或混合它们的方式知道得很少。为了实现盲去混合,通常作出关于信号的统计特性的某些假设。
独立分量分析(ICA)是一种方法,或许是最广泛地用于执行盲源分离的方法。ICA假设,音频源是统计独立的,并具有非高斯分布。另外,音频输入频道的数目至少必须和要被分离的音频源的数目一样大。而且,输入频道必须是线性独立的;不是它们自身的线性组合。换句话说,如果目标是要例如,从立体声混合中提取,诸如话音、弦乐声、打击乐声等那样的三个或许四个音频源,则形成第三或第四频道作为左和右频道的线性组合还不够。ICA算法在技术上是公知的,如AapoHyvarinen和Erkki Oja在“Independent Component Analysis:Algorithms and Applications”,Neural Networks,April 1999中描述的,该论文在此引用以供参考。
不幸的是,在许多现实世界情形下,仅仅立体声混合是可得到的。这将基于ICA的BSS算法严格限制于至多分离来自混合的两个音频源。在许多应用中,音频混合和重放远离传统的立体声而进步到具有5.1、6.1的多频道音频或甚至更高的频道配置。强烈需要能够重新混合多频道音频的立体声音乐的大量目录(catalog)。为了有效地做到这一点,如果不是必需的话,常常非常希望从立体声混合中分离三个或多个源。当前的ICA技术不能支持这一点。
发明内容
以下是本发明的概要,以便提供对本发明的某些方面的基本了解。本概要不打算识别本发明的重要或关键的单元或限制本发明的范围。它的唯一目的是以简化的形式给出本发明的某些概念,作为在后面给出的更详细的说明和定义权利要求的前序。
本发明提供一种用于从两个或多个音频输入频道中提取不仅仅是那些输入频道的线性组合的多个音频输出频道的方法。然后,这样的输出频道例如可以与盲源分离(BSS)算法相组合地使用,其中所述盲源分离(BSS)算法需要至少与要被分离的或直接用于重新混合应用,例如2.0到5.1,的源一样多的线性独立输入频道。
这是通过为传送音频源的混合的各对M帧(framed)的音频输入频道创建至少一个频道间振幅谱而实现的。这些振幅谱例如可以代表各对输入谱的线性、对数、或范数差值(norm difference)或和值。然后,在M-1维频道提取空间中适当地将频道间振幅谱的每个谱线映射成N个定义的输出中的一个输出。来自M个输入频道的数据按照谱映射被组合,以形成N个音频输出频道。在一个实施例中,输入谱按照映射被组合,以及组合后的谱被逆变换,并且帧被重新组合以形成N个音频输出频道。在另一个实施例中,通过使用相应的谱映射图(spectralmap),构建用于N个输出中的每个输出的卷积滤波器。输入频道通过N个滤波器,并被重新组合,以形成N个音频输出频道。
通过结合附图作出的优选实施例的以下详细说明,本领域技术人员将明白本发明的这些和其它特征和优点。
附图说明
图1是包括用于从音频混合中分离多个音频源的频道提取器和源 分离器的框图;
图2是按照本发明的、用于通过使用频道间振幅谱来提取附加的音频频道的框图;
图3a到3c是描绘从频道间振幅谱到频道提取空间的各种映射的图;
图4是用于通过按照谱映射使用输入频道的谱合成来从立体声混合中提取三个输出频道的示例性实施例的框图;
图5a到5c是显示出给音频频道加窗口以形成输入音频帧序列的图;
图6是立体声音频信号的频谱的图;
图7是不同谱的图;
图8是显示出组合输入谱的两个不同方法的表;
图9a到9c是三个输出音频频道的组合谱的图;和
图10是使用卷积滤波器来按照谱映射执行输入频道的时域合成的替换实施例的框图。
具体实施方式
本发明提供用于从包括音频源的混合的、两个或多个音频输入频道中提取多个音频频道的方法,更具体地,涉及使用频道间振幅谱来执行提取。这个方法产生不仅仅是输入频道的线性组合的多个音频频道,因此例如可以与盲源分离(BSS)算法相组合地使用或用来提供直接用于各种重新混合应用的附加频道。
仅仅作为示例性实施例,在它使用BSS算法的情况下描述提取技术。如上所述,对于用来从这些源的混合中提取Q个原先的音频源的BSS算法,它必须接收传送该混合的至少Q个线性独立的音频频道作为输入。如图1所示,M个音频输入频道10被输入到频道提取器12,频道提取器12按照本发明使用输入频道的频道间振幅谱来生成N>M个音频输出频道14。源分离器16实施基于ICA的BSS算法,来把Q个原先的音频源18与N个音频输出频道分离开,其中Q≤N。例如, 当一起被使用时,频道提取器和源分离器可以从传统的立体声混合中提取三个、四个、或多个音频源。这将在把现在仅仅存在于立体声中的音乐目录重新混合成多频道配置方面找到很大的应用。
如图2所示,频道提取器实施使用频道间振幅谱的算法。频道提取器把M个音频输入频道10中的每个音频输入频道变换成各个输入谱(步骤20),其中M至少为2。快速傅立叶变换(FFT)或DCT,MDCT或小波变换,例如可被使用来生成频谱。然后,频道提取器根据至少一对输入频道的输入谱来创建至少一个频道间振幅谱(步骤22)。这些频道间振幅谱例如可以代表各对输入谱的谱线的线性、对数、或范数差值或和值。更具体地,如果‘A’和‘B’是第一和第二频道的谱线的振幅,则A-B是线性差值,Log(A)-Log(B)是对数差值,(A2-B2)是L2范数差值,以及A+B是和值。本领域技术人员将会看到,可以使用A和B的许多其它函数f(A,B)来比较两个频道的频道间振幅关系。
频道提取器在M-1维频道提取空间中把频道间振幅谱的每个谱线适当地映射成N个定义的输出中的一个输出(步骤24)。如图3a所示,输入频道对(L/R)的对数差值的阈值被设定为-3dB和+3dB,以定义在一维空间26中的输出S1(-∞,-3dB),S2(-3dB,+3dB),和S3(+3dB,∞)。如果特定谱线的振幅比如说是0dB,则它被映射到输出S2等等。该映射可以通过定义附加的阈值而被容易地扩展到N>3。如图3b所示,三个输入频道L,R和C被映射成在二维频道提取空间28中的13个输出频道S1,S2,…S13。L/C的对数差值对照R/C的对数差值被画出,并且阈值被设定,以定义16个单元。在这个具体的例子中,尽头的拐角单元都被映射成同一个输出S1。单元的其它组合也是可能的,这例如取决于想要的输出数目或对于输入频道的声场关系的先验知识。对于每个谱线,R/C和L/C的对数差值的振幅被映射到空间,以及被分配以适当的输出。这样,每个谱线仅仅被映射成单个输出。替换地,R/C和L/C频道间振幅谱在一维空间中可以分开设定阈值,如图3a所示。在图3c上画出三个输入频道L,R和C到在另一个二维频道提取空间30中的9个输出的替换映射。这3个例子只打算显示,频道间振幅谱可 以以许多不同的方式被映射到N个输出,而且,还打算显示,该原理扩展到任何数目的输入和输出频道。每个谱线可被映射到M-1维提取空间中的唯一输出。
一旦每条谱线被映射到N个输出中的一个输出,频道提取器就按照映射组合M个输入频道的数据用于N个输出中的每个输出(步骤32)。例如,假设图3a所示的情形:立体声频道L和R被映射到输出S1,S2和S3,以及还假设输入谱具有8条谱线。如果根据频道间振幅谱,线1-3被映射到S1,4-6映射到S2,和7-8映射到S2,则频道提取器组合线1,2和3中的每条线的输入数据,以及把该组合后的数据引导到音频输出频道1等等。通常,这个输入数据被组合为加权平均值。权重可以是相等的或改变的。例如,如果知道关于输入频道,例如L,R,和C,的声场关系的特定信息,则它可以实施权重的选择。例如,如果L>>R,则可以在组合中选择L频道被更多地加权的权重。而且,处于相同或其它的原因,权重对于所有的输出可以是相同的,或可以是改变的。
输入数据可以通过使用频域或时域合成而被组合。如图4-9所示,输入谱按照映射被组合,以及组合后的谱被逆变换,并且帧被重新组合,以形成N个音频输出频道。如图10所示,通过使用相应的谱映射图,构建用于N个输出中的每个输出的卷积滤波器。输入频道经过N个滤波器,并被重新组合,以形成N个音频输出频道。
图4到10更详细地显示了在从输入频道的立体声(M=2)对中提取N=3输出频道的情形下频道提取算法的示例性实施例。频道提取器把窗口38,例如,升余弦、Hamming或Hanning窗,应用(步骤40,42)到左和右音频输入信号44,46上,以创建各个适当重叠帧序列48(左帧)。每帧通过使用FFT被频率变换(步骤50,52),以生成左输入谱54和右输入谱56。在本实施例中,计算输入谱54,56的每条谱线的对数差值,以创建频道间振幅谱58(步骤60)。1-D频道提取空间62,例如限制输出S1,S2和S3的-3dB和+3dB阈值,被定义(步骤64),并且在频道间振幅谱58中的每条谱线被映射成适当的输出(步骤66)。
一旦映射被完成,频道提取器就按照该映射组合输入谱54和56,例如谱线的振幅系数,用于三个输出中的每个输出(步骤67)。如图8和9a-9c所示,在情形1,频道被相等地加权,权重是相同的,以生成每个音频输出频道谱68,70和72。如图所示,对于给定的谱线,仅仅组合输入谱用于一个输出。在情形2,或许具有L/R声场的先验知识,如果谱线被映射到输出1(L>>R),则仅仅L输入频道可通过。如果L和R是近似相等的,则它们被相同地加权,以及如果R>>L,则仅仅R输入频道可通过。每个输出谱的接连的帧被逆变换(步骤74,76,78),并且通过使用标准重叠-相加重建而重新组合帧(步骤80,82,84),以生成三个音频输出频道86,88和90。
图10显示使用时域合成来从立体声对提取三个音频输出频道的替换实施例,其中使用诸如Hanning窗的窗把左和右输入频道再划分成帧(步骤100),通过使用FFT进行变换以形成输入谱(步骤102),和通过形成差值谱和把每个谱线与阈值(-3dB和+3dB)相比较以构建三个‘映射图’106a,106b和106c,将其分离成谱线(步骤104),其中每个输出频道一个映射图。如果谱线差值属于相应的分类,映射图的单元被设置为1,否则为0。这些步骤等价于图4所示的步骤40-66。
输入频道经过使用相应的谱映射图构建的用于N个输出中的每个输出的卷积滤波器,以及M×N个局部结果被相加在一起,帧被重新组合,以形成N个音频输出频道(步骤108)。为了减小伪像,可以在相乘之前对映射图应用平滑。平滑可以通过以下公式完成:
        Ai’=(Ai-1+2Ai+Ai+1)/4
其它平滑方法也是可能的。正如在图上显示的,输入频道的和值(步骤110)可以在滤波前完成,如果不需要加权的话。
虽然显示和描述本发明的几个说明性实施例,但对于本领域技术人员将出现许多变例和替换实施例。可以预期和作出这样的变例和替换实施例,而不背离如在从属权利要求中规定的本发明的精神和范围。

Claims (20)

1.一种从M个音频输入频道中提取N个音频输出频道的方法,其中M≤N,包括:
把M个音频输入频道中的每个音频输入频道变换成各个输入谱;
根据M个音频输入频道中的至少一对音频输入频道的输入谱,创建至少一个频道间振幅谱;
把频道间振幅谱的每条谱线非线性映射到N个输出中的单独一个输出;以及
按照谱映射来组合来自M个音频输入频道的数据以形成N个音频输出频道,所述N个音频输出频道是所述M个音频输入频道的非线性组合。
2.权利要求1的方法,其中将重叠帧应用于音频输入频道的预变换以形成帧序列,并且将重叠逆帧应用于帧的后逆变换以把帧重新组合成N个音频输出频道。
3.权利要求1的方法,其中频道间振幅谱被创建为输入谱的线性、对数或范数差值或和值。
4.权利要求1的方法,其中每个谱线被映射到M-1维空间中的N个输出中的单独一个输出,其中轴相应于各个频道间振幅谱。
5.权利要求4的方法,其中分别沿着M-1个轴给每条谱线的频道间振幅谱设定阈值以把该谱线映射到N个输出中的单独一个输出。
6.权利要求1的方法,其中来自输入频道的数据被组合为加权平均值。
7.权利要求6的方法,其中权重至少部分地由音频输入频道的声场关系来确定。
8.权利要求1的方法,其中来自输入频道的数据通过以下步骤被组合:
对于被映射到N个输出中的每个输出的每条谱线,组合M个输入频道的输入谱;以及
逆变换每个组合后的谱以形成N个音频输出频道。
9.权利要求1的方法,其中来自输入频道的数据通过以下步骤被组合:
使用相应的映射图,构建用于N个输出中的每个输出的滤波器;
使M个输入频道中的每个输入频道经过N个滤波器;以及
组合滤波器输出,以形成N个输出频道帧。
10.权利要求1的方法,其中N个音频输出频道是线性独立的。
11.权利要求1的方法,其中音频输入频道包括音频源的混合,还包括使用统计源分离算法把N个音频输出频道分离成相等的或较少的多个所述音频源。
12.一种从包括音频源的混合的M个音频输入频道中分离出Q个音频源的方法,包括:
把M个音频输入频道中的每个音频输入频道变换成各个输入谱;
根据M个音频输入频道的各对音频输入频道的输入谱创建至少一个频道间振幅谱;
把频道间振幅谱的每条谱线非线性映射到N个输出中的单独一个输出,以创建每个输出的映射图,其中N≥Q;
按照映射图组合来自M个音频输入频道的数据,以形成N个音频输出频道,所述N个音频输出频道是所述M个音频输入频道的非线性组合;以及
使用统计源分离算法把N个音频输出频道分离成Q个音频源。
13.权利要求12的方法,其中N个音频输出频道是线性独立的。
14.一种从两个音频输入频道中提取N个音频输出频道的方法,包括:
把每个音频输入频道变换成各个输入谱;
根据输入谱创建频道间振幅谱;
把频道间振幅谱的每条谱线的阈值设定成N个输出中的单独一个输出;以及
按照谱映射来组合来自2个音频输入频道的数据,以形成N个音频输出频道,所述N个音频输出频道是所述2个音频输入频道的非线性组合。
15.权利要求14的方法,其中频道间振幅谱被创建为输入谱的线性、对数或范数差值或和值。
16.权利要求14的方法,其中音频输出频道的数目N是3。
17.权利要求14的方法,其中音频输入频道通过使用快速傅立叶变换被变换。
18.一种用于从M个音频输入频道中提取N个音频输出频道的频道提取器,其中M≤N,包括:
用于把M个音频输入频道中的每个输入频道变换成各个输入谱的装置;
用于根据M个音频输入频道中的至少一对音频输入频道的输入谱来创建至少一个频道间振幅谱的装置;
用于把频道间振幅谱的每条谱线非线性映射到M-1维空间中的N个输出中的单独一个输出的装置,其中轴相应于各个频道间振幅谱;以及
用于按照谱映射来组合来自M个音频输入频道的数据以形成N个音频输出频道的装置,所述N个音频输出频道是所述M个音频输入频道的非线性组合。
19.权利要求18的频道提取器,其中用于组合数据的装置包括:
用于对于被映射到N个输出中的每个输出的每条谱线,组合M个输入频道的输入谱的装置;以及
用于逆变换每个组合后的谱以形成N个音频输出频道的装置。
20.权利要求18的频道提取器,其中用于组合数据的装置包括:
用于使用相应的映射图来构建用于N个输出中的每个输出的滤波器的装置;
用于使M个输入频道中的每个输入频道经过N个滤波器的装置;以及
用于组合滤波器输出以形成N个输出频道帧的装置。
CN2006800459938A 2005-12-06 2006-12-01 使用频道间振幅谱的音频频道提取的方法和设备 Expired - Fee Related CN101405717B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/296,730 2005-12-06
US11/296,730 US20070135952A1 (en) 2005-12-06 2005-12-06 Audio channel extraction using inter-channel amplitude spectra
PCT/US2006/046017 WO2007067429A2 (en) 2005-12-06 2006-12-01 Audio channel extraction using inter-channel amplitude spectra

Publications (2)

Publication Number Publication Date
CN101405717A CN101405717A (zh) 2009-04-08
CN101405717B true CN101405717B (zh) 2010-12-15

Family

ID=38123391

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006800459938A Expired - Fee Related CN101405717B (zh) 2005-12-06 2006-12-01 使用频道间振幅谱的音频频道提取的方法和设备

Country Status (15)

Country Link
US (1) US20070135952A1 (zh)
EP (1) EP1958086A4 (zh)
JP (1) JP2009518684A (zh)
KR (1) KR20080091099A (zh)
CN (1) CN101405717B (zh)
AU (1) AU2006322079A1 (zh)
BR (1) BRPI0619468A2 (zh)
CA (1) CA2632496A1 (zh)
HK (1) HK1128786A1 (zh)
IL (1) IL191701A0 (zh)
MX (1) MX2008007226A (zh)
NZ (1) NZ568402A (zh)
RU (1) RU2432607C2 (zh)
TW (1) TW200739366A (zh)
WO (1) WO2007067429A2 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5082327B2 (ja) * 2006-08-09 2012-11-28 ソニー株式会社 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
WO2010005050A1 (ja) * 2008-07-11 2010-01-14 日本電気株式会社 信号分析装置、信号制御装置及びその方法と、プログラム
WO2010092913A1 (ja) * 2009-02-13 2010-08-19 日本電気株式会社 多チャンネル音響信号処理方法、そのシステム及びプログラム
WO2010092915A1 (ja) * 2009-02-13 2010-08-19 日本電気株式会社 多チャンネル音響信号処理方法、そのシステム及びプログラム
KR20120132342A (ko) * 2011-05-25 2012-12-05 삼성전자주식회사 보컬 신호 제거 장치 및 방법
US20150036827A1 (en) * 2012-02-13 2015-02-05 Franck Rosset Transaural Synthesis Method for Sound Spatialization
US10321252B2 (en) 2012-02-13 2019-06-11 Axd Technologies, Llc Transaural synthesis method for sound spatialization
FR2996043B1 (fr) * 2012-09-27 2014-10-24 Univ Bordeaux 1 Procede et dispositif pour separer des signaux par filtrage spatial a variance minimum sous contrainte lineaire
KR101620173B1 (ko) 2013-07-10 2016-05-13 주식회사 엘지화학 적층 형태 안정성이 우수한 단차를 갖는 전극 조립체 및 그 제조방법
US10037750B2 (en) * 2016-02-17 2018-07-31 RMXHTZ, Inc. Systems and methods for analyzing components of audio tracks
EP3246923A1 (en) 2016-05-20 2017-11-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for processing a multichannel audio signal
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
CN113611323B (zh) * 2021-05-07 2024-02-20 北京至芯开源科技有限责任公司 一种基于双通道卷积注意力网络的语音增强方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6526148B1 (en) * 1999-05-18 2003-02-25 Siemens Corporate Research, Inc. Device and method for demixing signal mixtures using fast blind source separation technique based on delay and attenuation compensation, and for selecting channels for the demixed signals
US20040062401A1 (en) * 2002-02-07 2004-04-01 Davis Mark Franklin Audio channel translation
US20050180579A1 (en) * 2004-02-12 2005-08-18 Frank Baumgarte Late reverberation-based synthesis of auditory scenes

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6321200B1 (en) * 1999-07-02 2001-11-20 Mitsubish Electric Research Laboratories, Inc Method for extracting features from a mixture of signals
US6430528B1 (en) * 1999-08-20 2002-08-06 Siemens Corporate Research, Inc. Method and apparatus for demixing of degenerate mixtures
US7660424B2 (en) * 2001-02-07 2010-02-09 Dolby Laboratories Licensing Corporation Audio channel spatial translation
US7292901B2 (en) * 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
JP3950930B2 (ja) * 2002-05-10 2007-08-01 財団法人北九州産業学術推進機構 音源の位置情報を利用した分割スペクトルに基づく目的音声の復元方法
US7039204B2 (en) * 2002-06-24 2006-05-02 Agere Systems Inc. Equalization for audio mixing
JP2006163178A (ja) * 2004-12-09 2006-06-22 Mitsubishi Electric Corp 符号化装置及び復号装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6526148B1 (en) * 1999-05-18 2003-02-25 Siemens Corporate Research, Inc. Device and method for demixing signal mixtures using fast blind source separation technique based on delay and attenuation compensation, and for selecting channels for the demixed signals
US20040062401A1 (en) * 2002-02-07 2004-04-01 Davis Mark Franklin Audio channel translation
US20050180579A1 (en) * 2004-02-12 2005-08-18 Frank Baumgarte Late reverberation-based synthesis of auditory scenes

Also Published As

Publication number Publication date
TW200739366A (en) 2007-10-16
HK1128786A1 (en) 2009-11-06
NZ568402A (en) 2011-05-27
BRPI0619468A2 (pt) 2011-10-04
EP1958086A4 (en) 2013-07-17
KR20080091099A (ko) 2008-10-09
RU2008127329A (ru) 2010-01-20
CA2632496A1 (en) 2007-06-14
JP2009518684A (ja) 2009-05-07
RU2432607C2 (ru) 2011-10-27
MX2008007226A (es) 2008-11-19
US20070135952A1 (en) 2007-06-14
WO2007067429A3 (en) 2008-09-12
EP1958086A2 (en) 2008-08-20
IL191701A0 (en) 2008-12-29
AU2006322079A1 (en) 2007-06-14
WO2007067429A2 (en) 2007-06-14
WO2007067429B1 (en) 2008-10-30
CN101405717A (zh) 2009-04-08

Similar Documents

Publication Publication Date Title
CN101405717B (zh) 使用频道间振幅谱的音频频道提取的方法和设备
Smaragdis Non-negative matrix factor deconvolution; extraction of multiple sound sources from monophonic inputs
CN101960516B (zh) 语音增强
US7912232B2 (en) Method and apparatus for removing or isolating voice or instruments on stereo recordings
CN101253809B (zh) 用于编码和解码音频信号的装置及其方法
KR101280253B1 (ko) 음원 분리 방법 및 그 장치
US11610593B2 (en) Methods and systems for processing and mixing signals using signal decomposition
DE69827775T2 (de) Tonkanalsmischung
CN102789783A (zh) 一种基于矩阵变换的欠定盲分离方法
CN101248483A (zh) 多声道音频信号的生成
Grais et al. Single channel speech music separation using nonnegative matrix factorization with sliding windows and spectral masks
Kraft et al. Low-complexity stereo signal decomposition and source separation for application in stereo to 3D upmixing
Leveau et al. Convolutive common audio signal extraction
GB2560391A (en) Extracting audio characteristics from audio signals
US11087733B1 (en) Method and system for designing a modal filter for a desired reverberation
Wang Time-varying discrete-time signal expansions as time-varying filter banks
Adami et al. Evaluation of a Frequency-Domain Source Position Estimator for VBAP-panned Recordings
Zantalis et al. Semi-Blind Audio Source Separation of Linearly Mixed Two-Channel Recordings via Guided Matching Pursuit.
Grigis et al. Improved recognition performance for orthogonal sources
Miyauchi et al. Depth Estimation of Sound Images Using Directional Clustering and Activation-Shared Nonnegative Matrix Factorization
Takada et al. A WAVELET APPROACH TO CONVOLUTIVE BLIND SEPARATION OF NON-STATIONARY SOUND SOURCES
Prasanna Kumar Speech Separation Based on Time Frequency Ratio of Mixtures and Track Identification
GB2466286A (en) Combining frequency coefficients based on at least two mixing coefficients which are determined on statistical characteristics of the audio signal

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1128786

Country of ref document: HK

C14 Grant of patent or utility model
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1128786

Country of ref document: HK

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20101215

Termination date: 20181201

CF01 Termination of patent right due to non-payment of annual fee