CN102833665B - 音频空间环境引擎 - Google Patents

音频空间环境引擎 Download PDF

Info

Publication number
CN102833665B
CN102833665B CN201210254387.4A CN201210254387A CN102833665B CN 102833665 B CN102833665 B CN 102833665B CN 201210254387 A CN201210254387 A CN 201210254387A CN 102833665 B CN102833665 B CN 102833665B
Authority
CN
China
Prior art keywords
channel
audio
sound channel
subband
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210254387.4A
Other languages
English (en)
Other versions
CN102833665A (zh
Inventor
罗伯特·W·里姆斯
杰弗里·K·托姆普森
阿伦·瓦尔纳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DTS BVI Ltd
Original Assignee
DTS BVI Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/975,841 external-priority patent/US7929708B2/en
Application filed by DTS BVI Ltd filed Critical DTS BVI Ltd
Publication of CN102833665A publication Critical patent/CN102833665A/zh
Application granted granted Critical
Publication of CN102833665B publication Critical patent/CN102833665B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Abstract

提供了一种用于从N声道音频系统向M声道音频系统转换的音频空间环境引擎,其中,N和M为整数,并且,N大于M。该音频空间环境引擎包括:时域到频域转换级,其接收M个声道的音频数据,并且生成多个子带的音频空间图像数据;滤波发生器,其接收所述M个声道的所述多个子带的音频空间图像数据,并且生成N’个声道的多个子带的音频空间图像数据;以及求和级,其耦合到所述滤波发生器,并且接收所述M个声道的多个子带的音频空间图像数据和所述N’个声道的所述多个子带的音频空间图像数据,并且生成缩放的N’个声道的所述多个子带的音频空间图像数据。

Description

音频空间环境引擎
本申请为于2007年5月28日提交、申请号为200580040670.5、发明名称为“音频空间环境引擎”的中国专利申请的分案申请。所述母案申请的国际申请日为2005年10月28日,国际申请号为PCT/US2005/038961。所述母案曾在2011年3月14日进行了一次分案申请,该分案申请的申请号为201110064948.X,并且发明名称为“音频空间环境引擎”。本申请是申请人按照审查员的审查意见针对前述分案申请的再次分案申请。
相关申请
本申请要求2004年10月28日提交的名称为“2-to-N Rendering”的美国临时申请60/622,922、2004年10月28日提交的名称为“AudioSpatial Environment Engine”的美国专利申请10/975,841、同此提交的名称为“Audio Spatial Environment Down-Mixer”的美国专利申请11/261,100(代理人案号13646.0014)、以及同此提交的名称为“AudioSpatial Environment Up-Mixer”的美国专利申请11/262,029(代理人案号13646.0012)的优先权,其中的每一个都被共同拥有并为了全部的目的而通过引用结合于此。
技术领域
本发明涉及音频数据处理领域,并且尤其涉及一种用于在音频数据的不同格式之间进行转换的系统和方法。
背景技术
用于处理音频数据的系统和方法在现有技术中是已知的。大多数这样的系统和方法用于处理已知音频环境的音频数据,该已知音频环境诸如双声道立体声环境、四声道立体声环境、五声道环绕声环境(也被称为5.1声道环境)或其它适当的格式或环境。
格式或环境数目增加引发的一个问题是:在第一环境中为了最佳音频质量而处理的音频数据通常不能够容易地在第二音频环境中使用。这个问题的一个例子是在整个为立体声数据设计的基础设施或网络上传输或存储环绕声音数据。因为用于立体双声道传输或存储的基础设施可能不支持环绕声格式的音频数据的附加声道,所以难以或者不可能用现有的基础设施传输或利用环绕声格式的数据。
发明内容
根据本发明,提供了一种用于音频空间环境引擎的系统和方法,其通过在空间音频环境之间进行转换而克服了已知的问题。
具体地,提供了一种用于音频空间环境引擎的系统和方法,其允许在N声道数据和M声道数据之间进行转换,并且允许从M声道数据转换返回N’声道数据,其中,N、M和N’为整数,并且N不必等于N’。
根据本发明示范性的实施例,提供了一种音频空间环境引擎,用于从N声道音频系统转换到M声道音频系统并回到N’声道音频系统,其中,N、M和N’为整数,并且N不必等于N’。音频空间环境引擎包括动态下混频器,其接收N个声道的音频数据并将N个声道的音频数据转换成M个声道的音频数据。音频空间环境引擎还包括上混频器,其接收M个声道的音频数据并将M个声道的音频数据转换成N’个声道的音频数据,其中N不必等于N’。这个系统的一个示范性应用是在整个为立体声数据设计的基础设施或网络上传输或存储环绕声音数据。动态下混频单元将环绕声音数据转换成立体声音数据以用于传输或存储,并且上混频单元将立体声音数据恢复成环绕声音数据以用于回放、处理或某些其它适当的用途。
根据本发明的另一方面,提供了一种用于从N声道音频系统向M声道音频系统转换的方法,其中,N和M为整数,并且,N大于M,该方法包括:将N个声道的音频数据转换成M个声道的音频数据;将所述M个声道的音频数据转换成N’个声道的音频数据;以及基于所述N个声道的音频数据和所述N’个声道的音频数据之间的差来校正所述M个声道的音频数据,其中,将所述N个声道的音频数据转换成所述M个声道的音频数据进一步包括以下步骤:用分数希尔伯特函数处理所述N个声道的音频数据中的一个或多个,以向相关声道的音频数据施加预定相移;以及在用所述分数希尔伯特函数处理后,组合所述N个声道的音频数据中的一个或多个以产生所述M个声道的音频数据,以便所述M个声道的音频数据中的每一个中的所述N个声道的音频数据中的一个或多个的所述组合具有预定的相位关系。
进一步,将所述M个声道的音频数据转换成所述N’个声道的音频数据包括:将所述M个声道的音频数据从时域转换成频域的多个子带;滤波所述M个声道的所述多个子带以生成N个声道的多个子带;通过平均化每个子带与一个或多个相邻带来平滑所述N个声道的多个子带;使所述N个声道的多个子带中的每一个与所述M个声道的一个或多个相应子带相乘;以及将所述N个声道的多个子带从所述频域转换到所述时域。
进一步,基于所述N个声道的音频数据和所述N’个声道的音频数据之间的差来校正所述M个声道的音频数据包括:为所述N个声道的音频数据的多个子带中的每一个确定能量和位置矢量;为所述N’个声道的音频数据的多个子带中的每一个确定能量和位置矢量;以及如果所述N个声道的音频数据和所述N’个声道的音频数据的相应子带的所述能量和所述位置矢量的差大于预定阈值,则校正所述M个声道的音频数据的一个或多个子带。
进一步,校正所述M个声道的音频数据的一个或多个子带包括:调整用于所述M个声道的音频数据的所述子带的能量和位置矢量,以便所调整的所述M个声道的音频数据的子带被转换成调整的N’个声道的音频数据,与所述N’个声道的音频数据的多个子带中的每一个的未调整的能量和位置矢量相比,调整的N’个声道的音频数据具有更加接近于所述N个声道的音频数据的子带的所述能量和所述位置矢量的一个或多个子带能量和位置矢量。
根据本发明的另一方面,提供了一种用于从N声道音频系统向M声道音频系统转换的音频空间环境引擎,其中,N和M为整数,并且,N大于M,该音频空间环境引擎包括:一个或多个希尔伯特变换级,其中每个接收所述N个声道的音频数据中的一个,并且向相关声道的音频数据施加预定的相移;一个或多个常数乘法器级,其中每个接收经所述希尔伯特变换的声道的音频数据中的一个,并且每个生成缩放的希尔伯特变换的声道的音频数据;一个或多个第一求和级,其中每个接收所述N个声道的音频数据中的所述一个和所述缩放的希尔伯特变换的声道的音频数据,并且每个生成分数希尔伯特声道的音频数据;以及M个第二求和级,其中每个接收所述分数希尔伯特声道的音频数据中的一个或多个以及所述N个声道的音频数据中的一个或多个,并且组合所述分数希尔伯特声道的音频数据中的所述一个或多个和所述N个声道的音频数据中的所述一个或多个中的每一个,以生成M个声道的音频数据中的一个,其具有每个所述分数希尔伯特声道的音频数据中的所述一个或多个和所述N个声道的音频数据中的所述一个或多个之间的预定相位关系。
进一步,音频空间环境引擎包括希尔伯特变换级,用于接收左声道的音频数据,其中所述希尔伯特变换的左声道的音频数据乘以常数并被加到所述左声道的音频数据以生成具有预定相移的左声道的音频数据,所述相移的左声道的音频数据乘以常数并被提供给所述M个第二求和级中的一个或多个。
进一步,音频空间环境引擎包括希尔伯特变换级,用于接收右声道的音频数据,其中所述希尔伯特变换的右声道的音频数据乘以常数并从所述右声道的音频数据减去以生成具有预定相移的右声道的音频数据,所述相移的右声道的音频数据乘以常数并被提供给所述M个第二求和级中的一个或多个。
进一步,音频空间环境引擎包括接收左环绕声道的音频数据的希尔伯特变换级和接收右环绕声道的音频数据的希尔伯特变换级,其中所述希尔伯特变换的左环绕声道的音频数据乘以常数并被加到所述希尔伯特变换的右环绕声道的音频数据以生成左右环绕声道的音频数据,所述相移的左右环绕声道的音频数据被提供给所述M个第二求和级中的一个或多个。
进一步,音频空间环境引擎包括接收右环绕声道的音频数据的希尔伯特变换级和接收左环绕声道的音频数据的希尔伯特变换级,其中所述希尔伯特变换的右环绕声道的音频数据乘以常数并被加到所述希尔伯特变换的左环绕声道的音频数据以生成右左环绕声道的音频数据,所述相移的右左环绕声道的音频数据被提供给所述M个第二求和级中的一个或多个。
进一步,音频空间环境引擎包括:希尔伯特变换级,其接收左声道的音频数据,其中所述希尔伯特变换的左声道的音频数据乘以常数并被加到所述左声道的音频数据以生成具有预定相移的左声道的音频数据,所述左声道的音频数据乘以常数以生成缩放的左声道的音频数据;希尔伯特变换级,其接收右声道的音频数据,其中所述希尔伯特变换的右声道的音频数据乘以常数并从所述右声道的音频数据减去以生成具有预定相移的右声道的音频数据,所述右声道的音频数据乘以常数以生成缩放的右声道的音频数据;以及接收左环绕声道的音频数据的希尔伯特变换级和接收右环绕声道的音频数据的希尔伯特变换级,其中所述希尔伯特变换的左环绕声道的音频数据乘以常数并被加到所述希尔伯特变换的右环绕声道的音频数据以生成左右环绕声道的音频数据,并且所述希尔伯特变换的右环绕声道的音频数据乘以常数并被加到所述希尔伯特变换的左环绕声道的音频数据以生成右左环绕声道的音频数据。
进一步,音频空间环境引擎包括:M个第二求和级的第一个,其接收所述缩放的左声道的音频数据、所述右左声道的音频数据和缩放的中心声道的音频数据,并且相加所述缩放的左声道的音频数据、所述右左声道的音频数据和所述缩放的中心声道的音频数据,以形成左水印声道的音频数据;以及M个第二求和级的第二个,其接收所述缩放的右声道的音频数据、所述左右声道的音频数据和所述缩放的中心声道的音频数据,并且相加所述缩放的声道的音频数据和所述缩放的中心声道的音频数据并从所述和中减去所述左右声道的音频数据,以形成右水印声道的音频数据。
进一步,音频空间环境引擎包括:希尔伯特变换装置,用于处理左声道的音频数据;乘法器装置,用于将所述希尔伯特变换的左声道的音频数据乘以常数;求和装置,用于将所述缩放的、希尔伯特变换的左声道的音频数据加到所述左声道的音频数据,以生成具有预定相移的左声道的音频数据;以及乘法器装置,用于将所述相移的左声道的音频数据乘以常数,其中,所述缩放的、相移的左声道的音频数据被提供给所述M个第二求和级中的一个或多个。
进一步,音频空间环境引擎包括:希尔伯特变换装置,用于处理右声道的音频数据;乘法器装置,用于将所述希尔伯特变换的右声道的音频数据乘以常数;求和装置,用于将所述缩放的、希尔伯特变换的右声道的音频数据加到所述右声道的音频数据,以生成具有预定相移的右声道的音频数据;以及乘法器装置,用于将所述相移的右声道的音频数据乘以常数,其中,所述缩放的、相移的右声道的音频数据被提供给所述M个第二求和级中的一个或多个。
进一步,音频空间环境引擎包括:希尔伯特变换装置,用于处理左环绕声道的音频数据;希尔伯特变换装置,用于处理右环绕声道的音频数据;乘法器装置,用于将所述希尔伯特变换的左环绕声道的音频数据乘以常数;以及求和装置,用于将所述缩放的、希尔伯特变换的左环绕声道的音频数据加到所述希尔伯特变换的右环绕声道的音频数据,以生成左右声道的音频数据,其中,所述左右声道的音频数据被提供给所述M个第二求和级中的一个或多个。
进一步,音频空间环境引擎包括:希尔伯特变换装置,用于处理左环绕声道的音频数据;希尔伯特变换装置,用于处理右环绕声道的音频数据;乘法器装置,用于将所述希尔伯特变换的右环绕声道的音频数据乘以常数;以及求和装置,用于将所述缩放的、希尔伯特变换的右环绕声道的音频数据加到所述希尔伯特变换的左环绕声道的音频数据,以生成右左声道的音频数据,其中,所述右左声道的音频数据被提供给所述M个第二求和级中的一个或多个。
根据本发明的另一方面,提供了一种用于从N声道音频系统向M声道音频系统转换的方法,其中,N和M为整数,并且,N大于M,该方法包括:用分数希尔伯特函数处理所述N个声道的音频数据中的一个或多个,以向相关声道的音频数据施加预定相移;以及组合用所述分数希尔伯特函数处理之后的所述N个声道的音频数据中的一个或多个以产生所述M个声道的音频数据,以便所述M个声道的音频数据中的每一个中的所述N个声道的音频数据中的所述一个或多个的所述组合具有预定相位关系。
进一步,用分数希尔伯特函数处理所述N个声道的音频数据中的一个或多个包括:对左声道的音频数据执行希尔伯特变换;将所述希尔伯特变换的左声道的音频数据乘以常数;将所述缩放的、希尔伯特变换的左声道的音频数据加到所述左声道的音频数据,以生成具有预定相移的左声道的音频数据;以及将所述相移的左声道的音频数据乘以常数。
进一步,用分数希尔伯特函数处理所述N个声道的音频数据中的一个或多个包括:对右声道的音频数据执行希尔伯特变换;将所述希尔伯特变换的右声道的音频数据乘以常数;将所述缩放的、希尔伯特变换的右声道的音频数据从所述右声道的音频数据中减去,以生成具有预定相移的右声道的音频数据;以及将所述相移的右声道的音频数据乘以常数。
进一步,用分数希尔伯特函数处理所述N个声道的音频数据中的一个或多个包括:对左环绕声道的音频数据执行希尔伯特变换;对右环绕声道的音频数据执行希尔伯特变换;将所述希尔伯特变换的左环绕声道的音频数据乘以常数;以及将所述缩放的、希尔伯特变换的左环绕声道的音频数据加到所述希尔伯特变换的右环绕声道的音频数据,以生成具有预定相移的左右声道的音频数据。
进一步,用分数希尔伯特函数处理所述N个声道的音频数据中的一个或多个包括:对左环绕声道的音频数据执行希尔伯特变换;对右环绕声道的音频数据执行希尔伯特变换;将所述希尔伯特变换的右环绕声道的音频数据乘以常数;以及将所述缩放的、希尔伯特变换的右环绕声道的音频数据加到所述希尔伯特变换的左环绕声道的音频数据,以生成具有预定相移的右左声道的音频数据。
进一步,该方法包括:对左声道的音频数据执行希尔伯特变换;将所述希尔伯特变换的左声道的音频数据乘以常数;将所述缩放的、希尔伯特变换的左声道的音频数据加到所述左声道的音频数据,以生成具有预定相移的左声道的音频数据;将所述相移的左声道的音频数据乘以常数;对右声道的音频数据执行希尔伯特变换;将所述希尔伯特变换的右声道的音频数据乘以常数;将所述缩放的、希尔伯特变换的右声道的音频数据从所述右声道的音频数据中减去,以生成具有预定相移的右声道的音频数据;将所述相移的右声道的音频数据乘以常数;对左环绕声道的音频数据执行希尔伯特变换;对右环绕声道的音频数据执行希尔伯特变换;将所述希尔伯特变换的左环绕声道的音频数据乘以常数;将所述缩放的、希尔伯特变换的左环绕声道的音频数据加到所述希尔伯特变换的右环绕声道的音频数据,以生成具有预定相移的左右声道的音频数据;将所述希尔伯特变换的右环绕声道的音频数据乘以常数;以及将所述缩放的、希尔伯特变换的右环绕声道的音频数据加到所述希尔伯特变换的左环绕声道的音频数据,以生成具有预定相移的右左声道的音频数据。
进一步,该方法包括:对所述缩放的左声道的音频数据、所述右左声道的音频数据和缩放的中心声道的音频数据进行求和,以形成左水印声道的音频数据;以及求和所述缩放的声道的音频数据和所述缩放的中心声道的音频数据并从所述和中减去所述左右声道的音频数据,以形成右水印声道的音频数据。
根据本发明的另一方面,提供了一种用于从M声道音频系统向N声道音频系统转换的音频空间环境引擎,其中,N和M为整数,并且,N大于M,该音频空间环境引擎包括:时域到频域转换级,其接收M个声道的音频数据,并且生成多个子带的音频空间图像数据;滤波发生器,其接收所述M个声道的所述多个子带的音频空间图像数据,并且生成N’个声道的多个子带的音频空间图像数据;以及求和级,其耦合到所述滤波发生器,并且接收所述M个声道的多个子带的音频空间图像数据和所述N’个声道的所述多个子带的音频空间图像数据,并且生成缩放的N’个声道的所述多个子带的音频空间图像数据。
进一步,音频空间环境引擎进一步包括频域到时域转换级,其接收所述缩放的N’个声道的所述多个子带的音频空间图像数据,并且生成所述N’个声道的音频数据。
进一步,音频空间环境引擎进一步包括:平滑级,其耦合到所述滤波发生器,所述平滑级接收所述N’个声道的所述多个子带的音频空间图像数据,并且平均化每个子带与一个或多个相邻子带;并且所述求和级被耦合到所述平滑级,并且接收所述M个声道的所述多个子带的音频空间图像数据和所述平滑的N’个声道的所述多个子带的音频空间图像数据,并且生成缩放的N’个声道的所述多个子带的音频空间图像数据。
进一步,所述求和级进一步包括左声道求和级,其使所述M个声道中的左声道的多个子带中的每一个乘以所述N’个声道中的左声道的音频空间图像数据的相应多个子带中的每一个。
进一步,所述求和级进一步包括右声道求和级,其使所述M个声道中的右声道的多个子带中的每一个乘以所述N’个声道中的右声道的相应多个子带的音频空间图像数据中的每一个。
进一步,所述求和级进一步包括中心声道求和级,其对于每个子带执行以下运算:
(Gc(f)*L(f)+(1-Gc(f))*R(f))*Hc(f)
其中,Gc(f)=中心声道子带缩放因数;L(f)=所述M个声道中的左声道子带;R(f)=所述M个声道中的右声道子带;以及Hc(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的中心声道滤波器。
进一步,所述求和级进一步包括左环绕声道求和级,其对于每个子带执行以下运算:
(GLs(f)*L(f)–(1-GLs(f))*R(f))*HLs(f)
其中,GLS(f)=左环绕声道子带缩放因数;L(f)=所述M个声道中的左声道子带;R(f)=所述M个声道中的右声道子带;以及HLS(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的左环绕声道滤波器。
进一步,所述求和级进一步包括右环绕声道求和级,其对于每个子带执行以下运算:
((1-GRS(f))*R(f)+GRS(f)*L(f))*HRS(f)
其中,GRS(f)=右环绕声道子带缩放因数;L(f)=所述M个声道中的左声道子带;R(f)=所述M个声道中的右声道子带;以及HRS(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的右声道滤波器。
根据本发明的另一方面,提供了一种用于从M声道音频系统向N声道音频系统转换的方法,其中,M和N为整数,并且,N大于M,该方法包括:接收M个声道的音频数据;生成用于所述M个声道中的每个声道的多个子带的音频空间图像数据;滤波所述M个声道的所述多个子带的音频空间图像数据,以生成N’个声道的多个子带的音频空间图像数据;以及将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据,以生成缩放的N’个声道的所述多个子带的音频空间图像数据。
进一步,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据进一步包括:将所述M个声道的所述多个子带的音频空间图像数据中的一个或多个乘以子带缩放因数;以及将所述缩放的M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据。
进一步,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据进一步包括将所述M个声道的所述多个子带中的每一个乘以所述N’个声道的音频空间图像数据的相应子带。
进一步,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据包括将所述M个声道中的左声道的多个子带中的每一个乘以所述N’个声道中的左声道的相应多个子带的音频空间图像数据中的每一个。
进一步,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据包括将所述M个声道中的右声道的多个子带中的每一个乘以所述N’个声道中的右声道的相应多个子带的音频空间图像数据中的每一个。
进一步,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据包括对于每个子带执行以下运算:
(Gc(f)*L(f)+(1-Gc(f))*R(f))*Hc(f)
其中,Gc(f)=中心声道子带缩放因数;L(f)=所述M个声道中的左声道子带;R(f)=所述M个声道中的右声道子带;以及Hc(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的中心声道滤波器。
进一步,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据包括对于每个子带执行以下运算:
(GLS(f)*L(f)–(1–GLS(f))*R(f))*HLS(f)
其中,GLS(f)=左环绕声道子带缩放因数;L(f)=所述M个声道中的左声道子带;R(f)=所述M个声道中的右声道子带;以及HLS(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的左环绕声道滤波器。
进一步,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据包括对于每个子带执行以下运算:
((1–GRS(f))*R(f)+GRS(f)*L(f))*HRS(f)
其中,GRS(f)=右环绕声道子带缩放因数;L(f)=所述M个声道中的左声道子带;R(f)=所述M个声道中的右声道子带;以及HRS(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的右声道滤波器。
本发明提供了许多重要的技术优点。本发明的一个重要技术优点是这样一种系统,其由于先进的动态下混频单元和高分辨率频带上混频单元而在不同的空间环境之间提供了改进和灵活的转换。动态下混频单元包括智能分析与校正环,用于校正许多下混频方法所共有的频谱、时间和空间的不准确性。上混频单元利用对整个高分辨率频带提取并分析重要的声道间的空间提示(cue),来得到不同频率元素的空间布置。下混频和上混频单元当单独或作为系统使用时,提供了改进的声音质量和空间区别。
本领域技术人员在结合附图阅读随后的详细说明时,会进一步意识到本发明的优点和优越特征以及其它的重要方面。
附图说明
图1是根据本发明的示范性实施例的利用分析和校正环进行动态下混频的系统的示图;
图2是根据本发明的示范性实施例的用于从N个声道向M个声道进行下混频数据的系统的示图;
图3是根据本发明的示范性实施例的用于从5个声道向2个声道进行下混频数据的系统的示图;
图4是根据本发明的示范性实施例的子带(sub-band)矢量计算系统的示图;
图5是根据本发明的示范性实施例的子带校正系统的示图;
图6是根据本发明的示范性实施例的用于从M个声道向N个声道进行上混频数据的系统的示图;
图7是根据本发明的示范性实施例的用于从2个声道向5个声道进行上混频数据的系统的示图;
图8是根据本发明的示范性实施例的用于从2个声道向7个声道进行上混频数据的系统的示图;
图9是根据本发明的示范性实施例的用于提取声道间空间提示并产生用于频域应用的空间声道滤波的方法的示图;
图10A是根据本发明的示范性实施例的示范性左前声道滤波图的示图;
图10B是示范性右前声道滤波图的示图;
图10C是示范性中心声道滤波图的示图;
图10D是示范性左环绕声道滤波图的示图;以及
图10E是示范性右环绕声道滤波图的示图。
具体实施方式
在随后的说明中,贯穿本说明书和附图用相同的附图标记来标志相同的部分。附图可能没有按比例,并且某些组成部分能够以概括或示意性的形式显示,而且为了清楚和简明起见用商品名称来标识。
图1是根据本发明的示范性实施例的利用分析与校正环从N声道音频格式向M声道音频格式进行动态下混频的系统100的示图。系统100使用5.1声道声音(即,N=5),并且将5.1声道声音转换成立体声(即,M=2),但是其它适当数目的输入和输出声道也能够或代替地被使用。
使用基准下混频102、基准上混频104、子带矢量计算系统106和108以及子带校正系统110来实现系统100的动态下混频过程。通过基准上混频104、子带矢量计算系统106和108以及子带校正系统110实现分析和校正环,其中,基准上混频104模拟上混频过程,子带矢量计算系统106和108计算模拟的上混频和原始信号的每一频带的能量和位置矢量,以及子带校正系统110比较模拟的上混频和原始信号的能量和位置矢量,并且调整下混频信号的声道间空间提示以对任何不一致进行校正。
系统100包括静态基准下混频102,其将接收到的N声道音频转换成M声道音频。静态基准下混频102接收5.1声音声道左L(T)、右R(T)、中心C(T)、左环绕LS(T)和右环绕RS(T),并且将5.1声道信号转换成立体声声道信号左水印LW’(T)和右水印RW’(T)。
左水印LW’(T)和右水印RW’(T)立体声道信号随后被提供给基准上混频104,其将立体声声道转换成5.1声音声道。基准上混频104输出5.1声音声道左L’(T)、右’R(T)、中心C’(T)、左环绕LS’(T)和右环绕RS’(T)。
从基准上混频104输出的上混频的5.1声道声音信号然后被提供给子带矢量计算系统106。来自子带矢量计算系统106的输出是用于上混频的5.1声道信号L’(T)、R’(T)、C’(T)、LS’(T)和RS’(T)的多个频带的上混频能量和图像位置数据。同样地,原始5.1声道的声音信号被提供给子带矢量计算系统108。来自子带矢量计算系统108输出的是用于原始5.1声道信号L(T)、R(T)、C(T)、LS(T)和RS(T)的多个频带的源能量和图像位置数据。子带矢量计算系统106和108计算的能量和位置矢量包括对于每一频带的总能量测量和2维矢量,其指示在理想收听条件下对于收听者的给定频率元素的感觉强度和源位置。例如,使用适当的滤波器组能够将音频信号从时域转换到频域,该滤波器组诸如有限脉冲响应(FIR)滤波器组、正交镜像滤波器(QMF)组、离散傅立叶变换(DFT)、时域混叠消除(TDAC)滤波器组或其它适当的滤波器组。滤波器组输出被进一步处理以确定每一频带的总能量和每一频带的标准化图像位置矢量。
从子带矢量计算系统106和108输出的能量和位置矢量值被提供给子带校正系统110,其分析用于原始5.1声道声音的源能量和位置与当从左水印LW’(T)和右水印RW’(T)立体声道信号生成时用于5.1声道声音的上混频能量和位置。然后,在产生LW(T)和RW(T)的左水印LW’(T)和右水印RW’(T)上对每一子带识别和校正源和上混频的能量与位置矢量之间的差,以便提供更加准确的下混频的立体声道信号,并且当立体声道信号随后被上混频时提供更加准确的5.1再现。校正的左水印LW(T)和右水印RW(T)信号被输出用于传输、由立体声接收机接收、由具有上混频功能的接收机接收或者用于其它适当的用途。
在工作中,通过包括整个下混频/上混频系统的模拟、分析和校正的智能分析和校正环,系统100将5.1声道声音动态地下混频到立体声声音。这种方法通过以下步骤完成,即,生成静态下混频立体声信号LW’(T)和RW’(T);模拟随后的上混频信号L’(T)、R’(T)、C’(T)、LS’(T)和RS’(T);以及分析那些信号与原始5.1声道信号以在子带的基础上识别和校正任何能量或位置矢量差,其能够影响左水印LW’(T)和右水印RW’(T)立体声信号或随后上混频的环绕声道信号的质量。产生左水印LW(T)和右水印RW(T)立体声信号的子带校正处理被执行,以便当LW(T)和RW(T)被上混频时,作为结果而得到的5.1声道声音以改进的准确性匹配原始输入的5.1声道声音。同样地,附加处理能够被执行,以便允许任何适当数目的输入声道被转换成适当数目的水印输出声道,诸如7.1声道声音转换成水印立体声、7.1声道声音转换成水印5.1声道声音、定制声音声道(诸如用于汽车音响系统或电影院之类)转换成立体声或者其它适当的转换。
图2是根据本发明的示范性实施例的静态基准下混频200的示图。静态基准下混频200能够作为图1的基准下混频102或者以其它适当的方式使用。
基准下混频200将N声道音频转换成M声道音频,其中,N和M为整数,并且N大于M。基准下混频200接收输入信号X1(T)、X2(T)到XN(T)。对于每个输入声道i,输入信号Xi(T)被提供给希尔伯特(Hilbert)变换单元202到206,其引入90°相移信号。诸如实现90°相移的希尔伯特滤波器或全通滤波器网络之类的其它处理也能够或代替地被使用而代替希尔伯特变换单元。对于每个输入声道i,希尔伯特变换信号和原始输入信号然后通过第一级乘法器208到218分别与预定比例常数Ci11和Ci12相乘,其中,第一个下标表示输入声道号i,第二个下标表示第一级乘法器,而第三个下标表示每级的乘法器号。乘法器208到218的输出然后被加法器220到224求和,生成分数希尔伯特信号X’i(T)。相对于相应的输入信号Xi(T),从乘法器220到224输出的分数希尔伯特信号X’i(T)具有可变数量的相移。相移量取决于比例常数Ci11和Ci12,其中,0°相移可以对应于Ci11=0和Ci12=1,而±90°相移可以对应于Ci11=±1和Ci12=0。使用Ci11和Ci12的适当值,任何中间量的相移都是可能的。
用于每个输入声道i的每个信号X’i(T)然后通过第二级乘法器226到242与预定比例常数Ci2j相乘,其中,第一个下标表示输入声道号i,第二下标表示第二级乘法器,而第三个下标表示输出声道号j。乘法器226到242的输出然后被加法器244到248适当求和以生成用于每个输出声道j的相应输出信号Yj(T)。通过每个输入声道i和输出声道j的空间位置确定用于每个输入声道i和输出声道j的比例常数Ci2j。例如,用于左输入声道i和右输出声道j的比例常数Ci2j能够被设置为近似零以保持空间区别。同样地,用于前输入声道i和前输出声道j的比例常数Ci2j能够被设置为近似1以保持空间布置。
在工作中,在接收机接收输出信号时,基准下混频200以允许输入信号中的空间关系被任意管理和提取的方式将N个声道组合成M个声道。进而,如所示的N声道声音的组合生成M声道声音,其对于在M声道音频环境中收听的收听者是可接受的质量。因此,基准下混频200能够被用于将N声道声音转换成M声道声音,其能够被M声道接收机、具有适当上混频器的N声道接收机或其它适当接收机使用。
图3是根据本发明的示范性实施例的静态基准下混频300的示图。如图3所示,静态基准下混频300是图2的静态基准下混频200的实现,其将5.1声道时域数据转换成立体声道时域数据。静态基准下混频300能够作为图1的基准下混频102或以其它适当的方式使用。
基准下混频300包括希尔伯特变换302,其接收源5.1声道声音的左声道信号L(T),并且对时间信号执行希尔伯特变换。希尔伯特变换引入信号的90°相移,然后其通过乘法器310与预定比例常数CL1相乘。诸如实现90°相移的希尔伯特滤波器或全通滤波器网络之类的其它处理也能够或代替地被使用而代替希尔伯特变换单元。原始左声道信号L(T)通过乘法器312与预定比例常数CL2相乘。乘法器310和312的输出被加法器320求和,以生成分数希尔伯特信号L’(T)。同样地,来自源5.1声道声音的右声道信号R(T)由希尔伯特变换304处理,并且通过乘法器314与预定比例常数CR1相乘。原始右声道信号R(T)通过乘法器316与预定比例常数CR2相乘。乘法器314和316的输出被加法器322求和,以生成分数希尔伯特信号R’(T)。相对于相应的输入信号L(T)和R(T),从乘法器320和322输出的分数希尔伯特信号L’(T)和R’(T)分别具有可变量的相移。相移量取决于比例常数CL1、CL2、CR1和CR2,其中,0°相移可对应于CL1=0,CL2=1,CR1=0和CR2=1,而±90°相移可对应于CL1=±1,CL2=0,CR1=±1和CR2=0。使用CL1、CL2、CR1和CR2的适当值,任何中间量的相移都是可能的。来自源5.1声道声音的中心声道输入被提供给乘法器318作为分数希尔伯特信号C’(T),意味着没有对中心声道输入信号进行相移。乘法器318使C’(T)与预定比例常数C3相乘,如衰减3分贝。加法器320和322以及乘法器318的输出被适当地求和成左水印声道LW’(T)和右水印声道RW’(T)。
来自源5.1声道声音的左环绕声道LS(T)被提供给希尔伯特变换306,而来自源5.1声道声音的右环绕声道RS(T)被提供给希尔伯特变换308。希尔伯特变换306和308的输出是分数希尔伯特信号LS’(T)和RS’(T),意味着在LS(T)和LS’(T)信号对以及RS(T)和RS’(T)信号对之间存在满90°相移。LS’(T)然后通过乘法器324和326分别与预定比例常数CLS1和CLS2相乘。同样地,RS’(T)通过乘法器328和330分别与预定比例常数CRS1和CRS2相乘。乘法器324到330的输出被适当地提供给左水印声道LW’(T)和右水印声道RW’(T)。
加法器332接收从加法器320输出的左声道信号、从乘法器318输出的中心声道信号、从乘法器324输出的左环绕声道信号以及从乘法器328输出的右环绕声道信号,并且相加这些信号以形成左水印声道LW’(T)。同样地,加法器334接收从乘法器318输出的中心声道信号、从加法器322输出的右声道信号、从乘法器326输出的左环绕声道信号以及从乘法器330输出的右环绕声道信号,并且相加这些信号以形成右水印声道RW’(T)。
在工作中,在接收机接收左水印声道和右水印声道立体声信号时,基准下混频300以允许5.1输入声道中的空间关系被维持和提取的方式组合源5.1声道。进而,如所示的5.1声道声音的组合生成立体声声音,其对于使用没有进行环绕声上混频的立体声接收机的收听者是可接受的质量。因此,基准下混频300能够被用于将5.1声道声音转换成立体声的声音,其能够被立体声接收机、具有适当上混频器的5.1声道接收机、具有适当上混频器的7.1声道接收机或其它适当接收机使用。
图4是根据本发明示范性实施例的子带矢量计算系统400的示图。子带矢量计算系统400提供用于多个频带的能量和位置矢量数据,并且能够用作图1的子带矢量计算系统106和108。尽管示出了5.1声道声音,但是能够使用其它适当的声道配置。
子带矢量计算系统400包括时间-频率分析单元402到410。5.1时域声道L(T)、R(T)、C(T)、LS(T)和RS(T)分别被提供给时间-频率分析单元402到410,其将时域信号转换成频域信号。这些时间-频率分析单元能够是适当的滤波器组,诸如有限脉冲响应(FIR)滤波器组、正交镜像滤波器(QMF)组、离散傅立叶变换(DFT)、时域混叠消除(TDAC)滤波器组或其它适当的滤波器组。对于L(F)、R(F)、C(F)、LS(F)和RS(F),从时间-频率分析单元402到410输出每一频带的幅度或能量值。这些幅度/能量值包括对每个相应声道的每个频带分量的幅度/能量测量。幅度/能量测量被加法器412求和,该加法器412输出T(F),其中,T(F)是每一频带的输入信号的总能量。这个值然后被除法单元414到422分成声道幅度/能量值中的每一个,以生成相应的标准化声道间级差(ICLD)信号ML(F)、MR(F)、MC(F)、MLS(F)和MRS(F),其中,这些ICLD信号能够被视为对每个声道的标准化子带能量估计。
5.1声道声音被映射到标准化位置矢量,如用由横轴和纵轴组成的2维平面上的示范性定位所示。如图所示,用于(XLS,YLS)的定位值被分配到原点,(XRS,YRS)的值被分配到(0,1),(XL,YL)的值被分配到(0,1-C),其中,C是1和0之间的值,表示左右扬声器离房间后面的退后距离。同样地,(XR,YR)的值为(1,1-C)。最后,用于(XC,YC)的值为(0.5,1)。这些坐标是示范性的,并且能够被改变以反映扬声器相对于彼此的实际标准化定位或配置,如扬声器坐标基于房间的大小、房间的形状或其它因素而不同。例如,在使用7.1声音或其它适当声道配置时,能够提供附加的坐标值,其反映扬声器在房间周围的定位。同样地,这样的扬声器定位能够基于扬声器在汽车、房间、礼堂、剧场或如其它适当地方中的实际分布来定制。
估计的图像位置矢量P(F)能够以如下矢量方程中阐述的那样对每一子带来计算:
P(F)=ML(F)*(XL,YL)+MR(F)*(XR,YR)+MC(F)*(XC,YC)+i.MLS(F)*(XLS,YLS)+MRS(F)*(XRS,YRS)
因此,对于每个频带,提供总能量T(F)的输出和位置矢量P(F),它们被用来为该频带限定视在频率源的感觉强度和位置。以这种方式,频率分量的空间图像能够被定位,诸如用于子带校正系统110或用于其它适当的目的。
图5是根据本发明示范性实施例的子带校正系统的示图。子带校正系统能够用作图1的子带校正系统110或用于其它适当的目的。子带校正系统接收左水印LW’(T)和右水印RW’(T)立体声道信号,并且对水印信号进行能量和图像校正,以便为每个频带补偿作为基准下混频或其它适当方法的结果而可能产生的信号不准确性。子带校正系统对每个频带接收并利用源的总能量信号TSOURCE(F)和随后的上混频信号的总能量信号TUMIX(F)以及用于源的位置矢量PSOURCE(F)和随后的上混频信号的位置矢量PUMIX(F),诸如图1的子带矢量计算系统106和108生成的那些。这些总能量信号和位置矢量用于确定将要进行的适当校正和补偿。
子带校正系统包括位置校正系统500和频谱能量校正系统502。位置校正系统500接收用于左水印立体声道LW’(T)和右水印立体声道RW’(T)的时域信号,其分别由时间-频率分析单元504和506从时域转换成频域。这些时间-频率分析单元能够是适当的滤波器组,诸如有限脉冲响应(FIR)滤波器组、正交镜像滤波器(QMF)组、离散傅立叶变换(DFT)、时域混叠消除(TDAC)滤波器组或其它适当的滤波器组。
时间-频率分析单元504和506的输出是频域子带信号LW’(F)和RW’(F)。在信号LW’(F)和RW’(F)中对于每一子带调整声道间级差(ICLD)和声道间相干性(ICC)的相关空间提示。例如,这些提示能够通过操纵LW’(F)和RW’(F)的幅度或能量(所示为LW’(F)和RW’(F)的绝对值)以及LW’(F)和RW’(F)的相角来调整。通过由乘法器508将LW’(F)的幅度/能量值与以下方程所生成的值相乘来进行ICLD的校正:
[XMAX-PX,SOURCE(F)]/[XMAX-PX,UMIX(F)]
其中
XMAX=最大X坐标边界
PX,SOURCE(F)=相对于源矢量的估计的子带X位置坐标
PX,UMIX(F)=相对于随后上混频矢量的估计的子带X位置坐标
同样地,用于RW’(F)的幅度/能量通过乘法器510与以下方程所生成的值相乘:
[PX,SOURCE(F)-XMIN]/[PX,UMIX(F)-XMIN]
其中
XMIN=最小X坐标边界
通过由加法器512将用于LW’(F)的相角与以下方程所生成的值相加来进行ICC的校正:
+/-Π*[PY,SOURCE(F)-PY,UMIX(F)]/[YMAX-YMIN]
其中
PY,SOURCE(F)=相对于源矢量的估计的子带Y位置坐标
PY,UMIX(F)=相对于随后上混频矢量的估计的子带Y位置坐标
YMAX=最大Y坐标边界
YMIN=最小Y坐标边界
同样地,用于RW’(F)的相角通过加法器514与以下方程所生成的值相加:
-/+Π*[PY,SOURCE(F)-PY,UMIX(F)]/[YMAX-YMIN]
注意,相加到LW’(F)和RW’(F)的角分量具有相等的值但具有相反的极性,其中,作为结果的极性由LW’(F)和RW’(F)之间的超前相角来确定。
校正的LW’(F)幅度/能量和LW’(F)相角被加法器516重新组合以形成用于每个子带的复值LW(F),然后通过频率-时间综合单元520转换成左水印时域信号LW(T)。同样地,校正的RW’(F)幅度/能量和RW’(F)相角被加法器518重新组合以形成用于每个子带的复值RW(F),然后通过频率-时间综合单元522转换成右水印时域信号RW(T)。频率-时间综合单元520和522能够是能将频域信号转换回时域信号的适当综合滤波器组。
如这个示范性实施例所示,通过使用适当调整ICLD和ICC空间提示的位置校正500,能够校正用于水印左和右声道信号的每个频谱分量的声道间空间提示。
频谱能量校正系统502能够用于确保下混频信号的总频谱平衡与原始5.1信号的总频谱平衡相一致,因此,例如就补偿了由梳状滤波造成的频谱偏移。分别使用时间-频率分析单元524和526来将左水印时域信号LW’(T)和右水印时域信号RW’(T)从时域转换到频域。这些时间-频率分析单元能够是适当的滤波器组,诸如有限脉冲响应(FIR)滤波器组、正交镜像滤波器(QMF)组、离散傅立叶变换(DFT)、时域混叠消除(TDAC)滤波器组或其它适当的滤波器组。从时间-频率分析单元524和526输出的是LW’(F)和RW’(F)频率子带信号,其通过乘法器528和530与TSOURCE(F)/TUMIX(F)相乘,其中
TSOURCE(F)=|L(F)|+|R(F)|+|C(F)|+|LS(F)|+|RS(F)|
TUMIX(F)=|LUMIX(F)|+|RUMIX(F)|+|CUMIX(F)|+|LSUMIX(F)|+|RSUMIX(F)|
来自乘法器528和530的输出然后被频率-时间综合单元532和534从频域转换回时域以生成LW(T)和RW(T)。频率-时间综合单元可以是能够将频域信号转换回时域信号的适当综合滤波器组。以这种方式,位置和能量校正能够被施加到下混频立体声道信号LW’(T)和RW’(T),以便产生忠实于原始5.1信号的左和右水印声道信号LW(T)和RW(T)。LW(T)和RW(T)能够以立体声回放或上混频回到5.1声道或其它适当数目的声道,而不显著改变原始5.1声道声音中存在的任意内容元素的频谱分量位置或能量。
图6是根据本发明示范性实施例的用于从M个声道向N个声道上混频数据的系统600的示图。系统600将立体声时域数据转换成N声道时域数据。
系统600包括时间-频率分析单元602和604、滤波生成单元606、平滑单元608以及频率-时间综合单元634到638。通过允许高分辨率频带处理的可伸缩频域结构,并且通过提取并分析每频带的重要声道间的空间提示以得到上混频N声道信号中频率元素的空间布置的滤波生成方法,系统600在上混频过程中提供了改进的空间区别和稳定性。
系统600在将时域信号转换成频域信号的时间-频率分析单元602和604处接收左声道立体声信号L(T)和右声道立体声信号R(T)。这些时间-频率分析单元能够是适当的滤波器组,诸如有限脉冲响应(FIR)滤波器组、正交镜像滤波器(QMF)组、离散傅立叶变换(DFT)、时域混叠消除(TDAC)滤波器组或其它适当的滤波器组。从时间-频率分析单元602和604输出的是一组频域值,覆盖了人类听觉系统的充分的频率范围,如0到20kHz的频率范围,其中分析滤波器组子带带宽能够被处理以逼近心理声学的临界频带、等效矩形带宽或某种其它知觉特性。同样地,能够使用其它适当数目的频带和范围。
来自时间-频率分析单元602和604的输出被提供给滤波生成单元606。在一个示范性实施例中,滤波生成单元606能够接收关于应当为给定的环境而输出的声道数目的外部选择。例如,能够选择有两前和两后扬声器的4.1声道,能够选择有两前、两后和一个前中心扬声器的5.1音响系统,能够选择有两前、两侧、两后和一个前中心扬声器的7.1音响系统,或者能够选择其它适当的音响系统。滤波生成单元606在频带的基础上提取并分析诸如声道间级差(ICLD)和声道间相干性(ICC)之类的声道间空间提示。那些相关的空间提示然后用作参数以生成适应的声道滤波,其控制上混频声场中频带元素的空间布置。通过平滑单元608在整个时间和频率上均使声道滤波平滑以限制滤波可变性,所述滤波可变性如果被允许变化太迅速的话,能够造成讨厌的波动效应。在图6显示的示范性实施例中,左和右声道L(F)和R(F)频域信号被提供给滤波生成单元606,其产生N个声道滤波信号H1(F)、H2(F)到HN(F),它们被提供给平滑单元608。
平滑单元608在整个时间和频率维数上为N个声道滤波中的每个声道平均化频域分量。在整个时间和频率上的平滑有助于控制声道滤波信号中的快速波动,因此就减少了能够令收听者讨厌的抖动赝象(jitterartifact)和不稳定性。在一个示范性实施例中,通过对根据当前帧的每个频带和根据以前帧的相应频带应用一阶低通滤波,能够实现时间平滑。这具有逐帧减少每个频带的可变性的效果。在另一个示范性实施例中,能够对整个频率槽(bin)的组进行频谱平滑,所述频率槽被模拟成近似人类听觉系统的临界频带间隔。例如,如果使用具有均匀间隔的频率槽的分析滤波器组,则对于频谱的不同分区能够对不同数目的频率槽分组和平均化。例如,从0到5kHz,能够平均化5个频率槽,从5kHz到10kHz,能够平均化7个频率槽,并且从10kHz到20kHz,能够平均化9个频率槽,或者能够选择其它适当数目的频率槽和带宽范围。从平滑单元608输出H1(F)、H2(F)到HN(F)的平滑值。
用于N个输出声道中的每一个的源信号X1(F)、X2(F)到XN(F)被生成为M个输入声道的适应组合。在图6显示的示范性实施例中,对于给定的输出声道i,从加法器614、620和626输出的声道源信号Xi(F)被生成为L(F)乘以适应的缩放信号Gi(F)和R(F)乘以适应缩放信号1-Gi(F)之和。乘法器610、612、616、618、622和624所使用的适应缩放信号Gi(F)是通过输出声道i的预期空间位置和每一频带的L(F)和R(F)的动态声道间相干性估计来确定的。同样地,被提供给加法器614、620和626的信号的极性通过输出声道i的预期空间位置来确定。例如,在加法器614、620和626处的适应缩放信号Gi(F)和极性能够被设计来为前中心声道提供L(F)+R(F)组合,为左声道提供L(F),为右声道提供R(F),以及为后声道提供L(F)-R(F),如传统矩阵上混频方法中通用的那样。适应缩放信号Gi(F)能够进一步提供一方法以动态调整输出声道对之间的相互关系,无论它们是横向还是纵向的声道对。
声道源信号X1(F)、X2(F)到XN(F)分别通过乘法器628到632与平滑的声道滤波H1(F)、H2(F)到HN(F)相乘。
来自乘法器628到632的输出然后被频率-时间综合单元634到638从频域转换到时域以生成输出声道Y1(T)、Y2(T)到YN(T)。以这种方式,左和右立体声信号被上混频到N个声道信号,其中,自然存在的或者如通过图1的下混频水印过程或其它适当过程那样的被有意编码到左和右立体声信号中的声道间空间提示,能够用于控制系统600产生的N声道声场之内的频率元素的空间布置。同样地,能够使用输入和输出的其它适当组合,诸如立体声到7.1声音、5.1到7.1声音或者其它适当的组合。
图7是根据本发明的示范性实施例的用于从M个声道向N个声道上混频数据的系统700的示图。系统700将立体声时域数据转换成5.1声道时域数据。
系统700包括时间-频率分析单元702和704、滤波生成单元706、平滑单元708以及频率-时间综合单元738到746。通过允许高分辨率频带处理的可伸缩频域结构的使用,并且通过提取并分析每一频带的重要声道间的空间提示以得到上混频5.1声道信号中频率元素的空间布置的滤波生成方法,系统700在上混频过程中提供了改进的空间区别和稳定性。
系统700在将时域信号转换成频域信号的时间-频率分析单元702和704处接收左声道立体声信号L(T)和右声道立体声信号R(T)。这些时间-频率分析单元能够是适当的滤波器组,诸如有限脉冲响应(FIR)滤波器组、正交镜像滤波器(QMF)组、离散傅立叶变换(DFT)、时域混叠消除(TDAC)滤波器组或其它适当的滤波器组。从时间-频率分析单元702和704输出的是一组频域值,覆盖了人类听觉系统的充分的频率范围,如0到20kHz的频率范围,其中分析滤波器组子带带宽能够被处理以近似心理声学的临界频带、等效矩形带宽或某种其它知觉特性。同样地,能够使用其它适当数目的频带和范围。
来自时间-频率分析单元702和704的输出被提供给滤波生成单元706。在一个示范性实施例中,关于应当为给定环境而输出的声道数目,滤波生成单元706能够接收外部选择,诸如能够选择有两前和两后扬声器的4.1声道,能够选择有两前、两后和一个前中心扬声器的5.1音响系统,能够选择有两前和一个前中心扬声器的3.1音响系统,或者能够选择其它适当的音响系统。滤波生成单元706在频带的基础上提取并分析诸如声道间级差(ICLD)和声道间相干性(ICC)之类的声道间空间提示。那些相关的空间提示然后用作参数以生成适应的声道滤波,其控制上混频声场中频带元素的空间布置。通过平滑单元708在整个时间和频率上使声道滤波平滑以限制滤波可变性,所述滤波可变性如果被允许变化太迅速的话,能够造成讨厌的波动效应。在图7显示的示范性实施例中,左和右声道L(F)和R(F)频域信号被提供给滤波生成单元706,其产生5.1声道滤波信号HL(F)、HR(F)、HC(F)、HLS(F)和HRS(F),它们被提供给平滑单元708。
平滑单元708在整个时间和频率维数上为5.1声道滤波中的每个声道平均化频域分量。在整个时间和频率上的平滑有助于控制声道滤波信号中的快速波动,因此,减少了能够令收听者讨厌的抖动赝象和不稳定性。在一个示范性实施例中,通过对根据当前帧的每个频带和根据先前帧的相应频带应用一阶低通滤波能够实现时间平滑。这具有逐帧减少每个频带的可变性的效果。在一个示范性实施例中,能够对整个频率槽组进行频谱平滑,所述频率槽被模拟成近似人类听觉系统的临界频带间隔。例如,如果使用具有均匀间隔的频率槽的分析滤波器组,则对于频谱的不同分区能够分组和平均化不同数目的频率槽。在这个示范性实施例中,从0到5kHz能够平均化5个频率槽,从5kHz到10kHz能够平均化7个频率槽,并且从10kHz到20kHz能够平均化9个频率槽,或者能够选择其它适当数目的频率槽和带宽范围。从平滑单元708输出HL(F)、HR(F)、HC(F)、HLS(F)和HRS(F)的平滑值。
用于5.1输出声道中的每一个的源信号XL(F)、XR(F)、XC(F)、XLS(F)和XRS(F)被生成为立体声输入声道的适应组合。在图7所示的示范性实施例中,XL(F)被简单地提供为L(F),意味着对于全部频带都有GL(F)=1。同样地,XR(F)被简单地提供为R(F),意味着对于全部频带都有GR(F)=0。作为从加法器714输出的XC(F)被计算为信号L(F)乘以适应缩放信号GC(F)与R(F)乘以适应缩放信号1-GC(F)的和。作为从加法器720输出的XLS(F)被计算为信号L(F)乘以适应缩放信号GLS(F)与R(F)乘以适应缩放信号1-GLS(F)的和。同样地,作为从加法器726输出的XRS(F)被计算为信号L(F)乘以适应缩放信号GRS(F)与R(F)乘以适应缩放信号1-GRS(F)的和。注意,如果对于全部频带都有GC(F)=0.5、GLS(F)=0.5,以及GRS(F)=0.5,那么前中心声道源自L(F)+R(F)组合,并且环绕声道源自经缩放的L(F)-R(F)组合,如传统矩阵上混频方法中通用的那样。适应缩放信号GC(F)、GLS(F)和GRS(F)能够进一步提供一方法以动态调整相邻输出声道对之间的相关性,无论它们是横向还是纵向的声道对。声道源信号XL(F)、XR(F)、XC(F)、XLS(F)和XRS(F)分别通过乘法器728到736与平滑的声道滤波HL(F)、HR(F)、HC(F)、HLS(F)和HRS(F)相乘。
来自乘法器728到736的输出然后被频率-时间综合单元738到746从频域转换到时域以生成输出声道YL(T)、YR(T)、YC(F)、YLS(F)和YRS(T)。以这种方式,左和右立体声信号被上混频到5.1声道信号,其中,自然存在的或者如通过图1的下混频水印过程或其它适当过程那样的被有意编码到左和右立体声信号的声道间空间提示,能够用于控制系统700产生的5.1声道声场之内的频率元素的空间布置。同样地,能够使用输入和输出的其它适当组合,诸如立体声到4.1声音、4.1到5.1声音或者其它适当的组合。
图8是根据本发明的示范性实施例的用于从M个声道向N个声道上混频数据的系统800的示图。系统800将立体声时域数据转换成7.1声道时域数据。
系统800包括时间-频率分析单元802和804、滤波生成单元806、平滑单元808以及频率-时间综合单元854到866。通过允许高分辨率频带处理的可伸缩频域结构,并且通过提取并分析每一频带的重要声道间的空间提示以得到上混频7.1声道信号中频率元素的空间布置的滤波生成方法,系统800在上混频过程中提供了改进的空间区别和稳定性。
系统800在将时域信号转换成频域信号的时间-频率分析单元802和804处接收左声道立体声信号L(T)和右声道立体声信号R(T)。这些时间-频率分析单元能够是适当的滤波器组,诸如有限脉冲响应(FIR)滤波器组、正交镜像滤波器(QMF)组、离散傅立叶变换(DFT)、时域混叠消除(TDAC)滤波器组或其它适当的滤波器组。从时间-频率分析单元802和804输出的是一组频域值,其覆盖了人类听觉系统的充分的频率范围,如0到20kHz的频率范围,其中分析滤波器组子带带宽能够被处理成近似心理声学的临界频带、等效矩形带宽或某种其它知觉特性。同样地,能够使用其它适当数目的频带和范围。
来自时间-频率分析单元802和804的输出被提供给滤波生成单元806。在一个示范性实施例中,关于应当为给定的环境而输出的声道数目,滤波生成单元806能够接收外部选择。例如,能够选择有两前和两后扬声器的4.1声道,能够选择有两前、两后和一个前中心扬声器的5.1音响系统,能够选择有两前、两侧、两后和一个前中心扬声器的7.1音响系统,或者能够选择其它适当的音响系统。滤波生成单元806在频带的基础上提取并分析诸如声道间级差(ICLD)和声道间相干性(ICC)之类的声道间空间提示。那些相关的空间提示然后用作参数以生成适应的声道滤波,其控制上混频声场中频带元素的空间布置。通过平滑单元808在整个时间和频率上使声道滤波平滑以限制滤波可变性,所述滤波可变性如果被允许变化太迅速的话,能造成讨厌的波动效应。在图8所示的示范性实施例中,左和右声道L(F)和R(F)频域信号被提供给滤波生成单元806,其产生7.1声道滤波信号HL(F)、HR(F)、HC(F)、HLS(F)、HRS(F)、HLB(F)和HRB(F),它们被提供给平滑单元808。
平滑单元808在整个时间和频率维数上为7.1声道滤波的每个声道平均化频域分量。在整个时间和频率上的平滑有助于控制声道滤波信号中的快速波动,因此,减少了能够令收听者讨厌的抖动赝象和不稳定性。在一个示范性实施例中,通过对根据当前帧的每个频带和根据先前帧的相应频带应用一阶低通滤波,能够实现时间平滑。这具有逐帧减少每个频带的可变性的效果。在一个示范性实施例中,能够在整个频率槽的组上进行频谱平滑,所述频率槽被模拟成近似人类听觉系统的临界频带间隔。例如,如果使用具有均匀间隔的频率槽的分析滤波器组,则对于频谱的不同分区能够分组和平均化不同数目的频率槽。在这个示范性实施例中,从0到5kHz能够平均化5个频率槽,从5kHz到10kHz能够平均化7个频率槽,并且从10kHz到20kHz能够平均化9个频率槽,或者能够选择其它适当数目的频率槽和带宽范围。从平滑单元808输出HL(F)、HR(F)、HC(F)、HLS(F)、HRS(F)、HLB(F)和HRB(F)的平滑值。
用于7.1输出声道中的每一个的源信号XL(F)、XR(F)、XC(F)、XLS(F)、XRS(F)、XLB(F)和XRB(F)被生成为立体声输入声道的适应组合。在图8显示的示范性实施例中,XL(F)被简单地提供为L(F),意味着对于全部频带都有GL(F)=1。同样地,XR(F)被简单地提供为R(F),意味着对于全部频带都有GR(F)=0。作为从加法器814输出的XC(F)被计算为信号L(F)乘以适应缩放信号GC(F)与R(F)乘以适应缩放信号1-GC(F)的和。作为从加法器820输出的XLS(F)被计算为信号L(F)乘以适应缩放信号GLS(F)与R(F)乘以适应缩放信号1-GLS(F)的和。同样地,作为从加法器826输出的XRS(F)被计算为信号L(F)乘以适应缩放信号GRS(F)与R(F)乘以适应缩放信号1-GRS(F)的和。同样地,作为从加法器832输出的XLB(F)被计算为信号L(F)乘以适应缩放信号GLB(F)与R(F)乘以适应缩放信号1-GLB(F)的和。同样地,作为从加法器838输出的XRB(F)被计算为信号L(F)乘以适应缩放信号GRB(F)与R(F)乘以适应缩放信号1-GRB(F)的和。注意,如果对于全部频带都有GC(F)=0.5、GLS(F)=0.5、GRS(F)=0.5、GLB(F)=0.5和GRB(F)=0.5,那么前中心声道源自L(F)+R(F)组合,并且侧和后声道源自成比例的L(F)-R(F)组合,如传统矩阵上混频方法中通用的那样。适应缩放信号GC(F)、GLS(F)、GRS(F)、GLB(F)和GRB(F)能够进一步提供一方法以动态调整相邻输出声道对之间的相关性,无论它们是横向还是纵向的声道对。声道源信号XL(F)、XR(F)、XC(F)、XLS(F)、XRS(F)、XLB(F)和XRB(F)分别通过乘法器840到852与平滑的声道滤波HL(F)、HR(F)、HC(F)、HLS(F)、HRS(F)、HLB(F)和HRB(F)相乘。
来自乘法器840到852的输出然后被频率-时间综合单元854到866从频域转换到时域以生成输出声道YL(T)、YR(T)、YC(F)、YLS(F)、YRS(T)、YLB(T)和YRB(T)。以这种方式,左和右立体声信号被上混频到7.1声道信号,其中,自然存在的或者如通过图1的下混频水印过程或其它适当过程那样的被有意编码到左和右立体声信号的声道间空间提示,能够用于控制系统800产生的7.1声道声场内的频率元素的空间布置。同样地,能够使用输入和输出的其它适当组合,诸如立体声到5.1声音、5.1到7.1声音或者其它适当的组合。
图9是根据本发明示范性实施例的用于生成用于频域应用的滤波的系统900的示图。滤波生成过程使用M声道输入信号的频域分析和处理。为M声道输入信号的每个频带提取相关声道间空间提示,并且为每个频带生成空间位置矢量。对于理想收听条件下的收听者,这个空间位置矢量被解释为用于该频带的感觉源定位。然后生成每个声道滤波,以便用于上混频N声道输出信号中的该频率元素的作为结果的空间位置与声道间提示一致地再生。声道间级差(ICLD)和声道间相干性(ICC)的估计用作声道间提示以产生空间位置矢量。
在系统900中所示的示范性实施例中,子带幅度或能量分量被用于估计声道间级差,并且子带相角分量用于估计声道间相干性。左和右频域输入L(F)和R(F)被转换成幅度或能量分量和相角分量,其中,幅度/能量分量被提供给加法器902,其计算总能量信号T(F),T(F)然后被用于通过除法器904和906分别为每个频带标准化左ML(F)和右声道MR(F)的幅度/能量值。然后,根据ML(F)和MR(F)计算标准化的横向坐标信号LAT(F),其中,用于频带的标准化横向坐标被计算为:
LAT(F)=ML(F)*XMIN+MR(F)*XMAX
同样地,标准化深度坐标根据输入的相角分量而被计算为:
DEP(F)=YMAX-0.5*(YMAX-YMIN)*sqrt([COS(/L(F))-COS(/R(F))]^2+[SIN(/L(F))-SIN(/R(F))]^2)
标准化深度坐标基本上根据相角分量/L(F)和/R(F)之间的经缩放的和移位的距离测量结果来计算。当相角/L(F)和/R(F)在单位圆上相互接近时,DEP(F)的值接近1,并且当相角/L(F)和/R(F)接近单位圆的相对侧时,DEP(F)接近0。对于每个频带,标准化的横向坐标和深度坐标形成2维矢量(LAT(F),DEP(F)),其被输入到2维声道图中,如以下图10A到10E中所示的那样,以产生用于每个声道i的滤波值Hi(F)。从诸如图6的滤波生成单元606、图7的滤波生成单元706和图8的滤波生成单元806之类的滤波生成单元输出这些用于每个声道i的声道滤波Hi(F)。
图10A是根据本发明示范性实施例的用于左前信号的滤波图的示图。在图10A中,滤波图1000接受从0到1范围的标准化横向坐标和从0到1范围的标准化深度坐标,并且输出从0到1范围的标准化滤波值。灰度阴影用于指示幅度从最大1到最小0的变化,如通过滤波图1000的右手侧的标度所示。对于这个示范性的左前滤波图1000,接近(0,1)的标准化横和深度坐标将输出接近1.0的最高滤波值,而从近似(0.6,Y)到(1.0,Y)范围的坐标,其中Y为0和1之间的数,将基本上输出0的滤波值。
图10B是示范性右前滤波图1002的示图。滤波图1002接受与滤波图1000相同的标准化横向坐标和标准化深度坐标,但是输出的滤波值偏向标准化布局的右前部。
图10C是示范性中心滤波图1004的示图。在这个示范性实施例中,用于中心滤波图1004的最大滤波值发生在标准化布局的中心,随着坐标从布局的前部中心离开朝向布局的后部移动,幅度显著下降。
图10D是示范性左环绕滤波图1006的示图。在这个示范性实施例中,用于左环绕滤波图1006的最大滤波值发生在标准化布局的后左坐标附近,并且随着坐标向布局的前右侧移动而幅度下降。
图10E是示范性右环绕滤波图1008的示图。在这个示范性实施例中,用于右环绕滤波图1008的最大滤波值发生在标准化布局的后右坐标附近,并且随着坐标向布局的前左侧移动而幅度下降。
同样地,如果使用其它的扬声器布局或配置,那么能够调整现有的滤波图,并且能够生成对应于新的扬声器定位的新的滤波图,以反映新的收听环境的变化。在一个示范性实施例中,7.1系统将包括两个另外的滤波图,其具有在深度坐标维度上向上移动的左环绕和右环绕,并且具有左后和右后定位,具有分别类似于滤波图1006和1008的滤波图。能够改变滤波因数下降的速率以适应不同数目的扬声器。
尽管在此已详细地描述了本发明的系统和方法的示范性实施例,但是本领域技术人员还会认识到,能够对系统和方法进行各种替换和修改,而不背离附加权利要求的范围和精神。

Claims (16)

1.一种用于从M声道音频系统向N声道音频系统转换的音频空间环境引擎,其中,N和M为整数,并且,N大于M,包括:
时域到频域转换级,其接收M个声道的音频数据,并且生成多个子带的音频空间图像数据;
滤波发生器,其接收所述M个声道的所述多个子带的音频空间图像数据,并且生成N’个声道的多个子带的音频空间图像数据;以及
求和级,其耦合到所述滤波发生器,并且接收所述M个声道的多个子带的音频空间图像数据和所述N’个声道的所述多个子带的音频空间图像数据,并且生成缩放的N’个声道的所述多个子带的音频空间图像数据。
2.如权利要求1所述的音频空间环境引擎,进一步包括频域到时域转换级,其接收所述缩放的N’个声道的所述多个子带的音频空间图像数据,并且生成所述N’个声道的音频数据。
3.如权利要求1所述的音频空间环境引擎,进一步包括:
平滑级,其耦合到所述滤波发生器,所述平滑级接收所述N’个声道的所述多个子带的音频空间图像数据,并且平均化每个子带与一个或多个相邻子带;并且
所述求和级被耦合到所述平滑级,并且接收所述M个声道的所述多个子带的音频空间图像数据和所述平滑的N’个声道的所述多个子带的音频空间图像数据,并且生成缩放的N’个声道的所述多个子带的音频空间图像数据。
4.如权利要求1所述的音频空间环境引擎,其中,所述求和级进一步包括左声道求和级,其使所述M个声道中的左声道的多个子带中的每一个乘以所述N’个声道中的左声道的音频空间图像数据的相应多个子带中的每一个。
5.如权利要求1所述的音频空间环境引擎,其中,所述求和级进一步包括右声道求和级,其使所述M个声道中的右声道的多个子带中的每一个乘以所述N’个声道中的右声道的相应多个子带的音频空间图像数据中的每一个。
6.如权利要求1所述的音频空间环境引擎,其中,所述求和级进一步包括中心声道求和级,其对于每个子带执行以下运算:
(Gc(f)*L(f)+(1-Gc(f))*R(f))*Hc(f)
其中
Gc(f)=中心声道子带缩放因数;
L(f)=所述M个声道中的左声道子带;
R(f)=所述M个声道中的右声道子带;以及
Hc(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的中心声道滤波器。
7.如权利要求1所述的音频空间环境引擎,其中,所述求和级进一步包括左环绕声道求和级,其对于每个子带执行以下运算:
(GLs(f)*L(f)–(1-GLs(f))*R(f))*HLs(f)
其中
GLS(f)=左环绕声道子带缩放因数;
L(f)=所述M个声道中的左声道子带;
R(f)=所述M个声道中的右声道子带;以及
HLS(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的左环绕声道滤波器。
8.如权利要求1所述的音频空间环境引擎,其中,所述求和级进一步包括右环绕声道求和级,其对于每个子带执行以下运算:
((1-GRS(f))*R(f)+GRS(f)*L(f))*HRS(f)
其中
GRS(f)=右环绕声道子带缩放因数;
L(f)=所述M个声道中的左声道子带;
R(f)=所述M个声道中的右声道子带;以及
HRS(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的右声道滤波器。
9.一种用于从M声道音频系统向N声道音频系统转换的方法,其中,M和N为整数,并且,N大于M,包括:
接收M个声道的音频数据;
生成用于所述M个声道中的每个声道的多个子带的音频空间图像数据;
滤波所述M个声道的所述多个子带的音频空间图像数据,以生成N’个声道的多个子带的音频空间图像数据;以及
将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据,以生成缩放的N’个声道的所述多个子带的音频空间图像数据。
10.如权利要求9所述的方法,其中,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据进一步包括:
将所述M个声道的所述多个子带的音频空间图像数据中的一个或多个乘以子带缩放因数;以及
将所述缩放的M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据。
11.如权利要求9所述的方法,其中,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据进一步包括将所述M个声道的所述多个子带中的每一个乘以所述N’个声道的音频空间图像数据的相应子带。
12.如权利要求9所述的方法,其中,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据包括将所述M个声道中的左声道的多个子带中的每一个乘以所述N’个声道中的左声道的相应多个子带的音频空间图像数据中的每一个。
13.如权利要求9所述的方法,其中,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据包括将所述M个声道中的右声道的多个子带中的每一个乘以所述N’个声道中的右声道的相应多个子带的音频空间图像数据中的每一个。
14.如权利要求9所述的方法,其中,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据包括对于每个子带执行以下运算:
(Gc(f)*L(f)+(1-Gc(f))*R(f))*Hc(f)
其中
Gc(f)=中心声道子带缩放因数;
L(f)=所述M个声道中的左声道子带;
R(f)=所述M个声道中的右声道子带;以及
Hc(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的中心声道滤波器。
15.如权利要求9所述的方法,其中,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据包括对于每个子带执行以下运算:
(GLS(f)*L(f)–(1–GLS(f))*R(f))*HLS(f)
其中
GLS(f)=左环绕声道子带缩放因数;
L(f)=所述M个声道中的左声道子带;
R(f)=所述M个声道中的右声道子带;以及
HLS(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的左环绕声道滤波器。
16.如权利要求9所述的方法,其中,将所述M个声道的所述多个子带的音频空间图像数据乘以所述N’个声道的所述多个子带的音频空间图像数据包括对于每个子带执行以下运算:
((1–GRS(f))*R(f)+GRS(f)*L(f))*HRS(f)
其中
GRS(f)=右环绕声道子带缩放因数;
L(f)=所述M个声道中的左声道子带;
R(f)=所述M个声道中的右声道子带;以及
HRS(f)=通过使所述N’个声道的音频空间图像数据平滑而得到的平滑的右声道滤波器。
CN201210254387.4A 2004-10-28 2005-10-28 音频空间环境引擎 Active CN102833665B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US62292204P 2004-10-28 2004-10-28
US60/622,922 2004-10-28
US10/975,841 US7929708B2 (en) 2004-01-12 2004-10-28 Audio spatial environment engine
US10/975,841 2004-10-28

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN2005800406705A Division CN101065797B (zh) 2004-10-28 2005-10-28 动态下混频的系统

Publications (2)

Publication Number Publication Date
CN102833665A CN102833665A (zh) 2012-12-19
CN102833665B true CN102833665B (zh) 2015-03-04

Family

ID=36090916

Family Applications (3)

Application Number Title Priority Date Filing Date
CN2005800406705A Active CN101065797B (zh) 2004-10-28 2005-10-28 动态下混频的系统
CN201110064948XA Active CN102117617B (zh) 2004-10-28 2005-10-28 音频空间环境引擎
CN201210254387.4A Active CN102833665B (zh) 2004-10-28 2005-10-28 音频空间环境引擎

Family Applications Before (2)

Application Number Title Priority Date Filing Date
CN2005800406705A Active CN101065797B (zh) 2004-10-28 2005-10-28 动态下混频的系统
CN201110064948XA Active CN102117617B (zh) 2004-10-28 2005-10-28 音频空间环境引擎

Country Status (8)

Country Link
US (1) US20070297519A1 (zh)
EP (1) EP1810280B1 (zh)
JP (1) JP4917039B2 (zh)
KR (3) KR101283741B1 (zh)
CN (3) CN101065797B (zh)
HK (1) HK1158805A1 (zh)
PL (1) PL1810280T3 (zh)
WO (1) WO2006050112A2 (zh)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI396188B (zh) * 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
JP5161109B2 (ja) * 2006-01-19 2013-03-13 エルジー エレクトロニクス インコーポレイティド 信号デコーディング方法及び装置
US20080191172A1 (en) * 2006-12-29 2008-08-14 Che-Hsiung Hsu High work-function and high conductivity compositions of electrically conducting polymers
US8107631B2 (en) * 2007-10-04 2012-01-31 Creative Technology Ltd Correlation-based method for ambience extraction from two-channel audio signals
US8126172B2 (en) * 2007-12-06 2012-02-28 Harman International Industries, Incorporated Spatial processing stereo system
RU2010132201A (ru) 2008-01-01 2012-02-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. (KR) Способ и устройство для обработки сигнала
KR20110049863A (ko) * 2008-08-14 2011-05-12 돌비 레버러토리즈 라이쎈싱 코오포레이션 오디오 신호 트랜스포맷팅
US8000485B2 (en) * 2009-06-01 2011-08-16 Dts, Inc. Virtual audio processing for loudspeaker or headphone playback
JP5267362B2 (ja) * 2009-07-03 2013-08-21 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラムならびに映像伝送装置
EP2484127B1 (en) * 2009-09-30 2020-02-12 Nokia Technologies Oy Method, computer program and apparatus for processing audio signals
US9111528B2 (en) 2009-12-10 2015-08-18 Reality Ip Pty Ltd Matrix decoder for surround sound
US9584235B2 (en) * 2009-12-16 2017-02-28 Nokia Technologies Oy Multi-channel audio processing
EP2464145A1 (en) * 2010-12-10 2012-06-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for decomposing an input signal using a downmixer
CN103000180A (zh) * 2012-11-20 2013-03-27 上海中科高等研究院 环绕声矩阵编解码系统及其实现方法
CN109166588B (zh) * 2013-01-15 2022-11-15 韩国电子通信研究院 处理信道信号的编码/解码装置及方法
US9093064B2 (en) 2013-03-11 2015-07-28 The Nielsen Company (Us), Llc Down-mixing compensation for audio watermarking
JP6216553B2 (ja) * 2013-06-27 2017-10-18 クラリオン株式会社 伝搬遅延補正装置及び伝搬遅延補正方法
US9560449B2 (en) 2014-01-17 2017-01-31 Sony Corporation Distributed wireless speaker system
US9369801B2 (en) 2014-01-24 2016-06-14 Sony Corporation Wireless speaker system with noise cancelation
US9402145B2 (en) 2014-01-24 2016-07-26 Sony Corporation Wireless speaker system with distributed low (bass) frequency
US9426551B2 (en) 2014-01-24 2016-08-23 Sony Corporation Distributed wireless speaker system with light show
US9866986B2 (en) 2014-01-24 2018-01-09 Sony Corporation Audio speaker system with virtual music performance
US9232335B2 (en) 2014-03-06 2016-01-05 Sony Corporation Networked speaker system with follow me
EP3154279A4 (en) * 2014-06-06 2017-11-01 Sony Corporation Audio signal processing apparatus and method, encoding apparatus and method, and program
US9774974B2 (en) * 2014-09-24 2017-09-26 Electronics And Telecommunications Research Institute Audio metadata providing apparatus and method, and multichannel audio data playback apparatus and method to support dynamic format conversion
KR101993348B1 (ko) * 2014-09-24 2019-06-26 한국전자통신연구원 동적 포맷 변환을 지원하는 오디오 메타데이터 제공 장치 및 오디오 데이터 재생 장치, 상기 장치가 수행하는 방법 그리고 상기 동적 포맷 변환들이 기록된 컴퓨터에서 판독 가능한 기록매체
US20160171987A1 (en) * 2014-12-16 2016-06-16 Psyx Research, Inc. System and method for compressed audio enhancement
US20160294484A1 (en) * 2015-03-31 2016-10-06 Qualcomm Technologies International, Ltd. Embedding codes in an audio signal
CN105101039B (zh) * 2015-08-31 2018-12-18 广州酷狗计算机科技有限公司 立体声还原方法及装置
US9693168B1 (en) 2016-02-08 2017-06-27 Sony Corporation Ultrasonic speaker assembly for audio spatial effect
US9826332B2 (en) 2016-02-09 2017-11-21 Sony Corporation Centralized wireless speaker system
US9924291B2 (en) 2016-02-16 2018-03-20 Sony Corporation Distributed wireless speaker system
US9826330B2 (en) 2016-03-14 2017-11-21 Sony Corporation Gimbal-mounted linear ultrasonic speaker assembly
US9693169B1 (en) 2016-03-16 2017-06-27 Sony Corporation Ultrasonic speaker assembly with ultrasonic room mapping
US9794724B1 (en) 2016-07-20 2017-10-17 Sony Corporation Ultrasonic speaker assembly using variable carrier frequency to establish third dimension sound locating
US10075791B2 (en) 2016-10-20 2018-09-11 Sony Corporation Networked speaker system with LED-based wireless communication and room mapping
US9924286B1 (en) 2016-10-20 2018-03-20 Sony Corporation Networked speaker system with LED-based wireless communication and personal identifier
US9854362B1 (en) 2016-10-20 2017-12-26 Sony Corporation Networked speaker system with LED-based wireless communication and object detection
IL268558B2 (en) * 2017-02-06 2023-04-01 Savant Systems Inc An av connection architecture that includes a downlink audio mixing transmitter, an av endpoint, and distributed channel amplification
US10616684B2 (en) 2018-05-15 2020-04-07 Sony Corporation Environmental sensing for a unique portable speaker listening experience
JP7036234B2 (ja) * 2018-06-01 2022-03-15 ソニーグループ株式会社 オーディオコンテンツの適応的なリミキシング
US10292000B1 (en) 2018-07-02 2019-05-14 Sony Corporation Frequency sweep for a unique portable speaker listening experience
US10567871B1 (en) 2018-09-06 2020-02-18 Sony Corporation Automatically movable speaker to track listener or optimize sound performance
US10623859B1 (en) 2018-10-23 2020-04-14 Sony Corporation Networked speaker system with combined power over Ethernet and audio delivery
US11599329B2 (en) 2018-10-30 2023-03-07 Sony Corporation Capacitive environmental sensing for a unique portable speaker listening experience
KR20220013630A (ko) * 2020-07-27 2022-02-04 삼성전자주식회사 오디오의 채널의 수를 변환하는 전자 장치 및 전자 장치의 동작 방법
KR102529400B1 (ko) * 2021-02-19 2023-05-10 한국전자통신연구원 오디오 메타데이터 제공 장치 및 방법, 오디오 데이터 제공 장치 및 방법, 오디오 데이터 재생 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5899970A (en) * 1993-06-30 1999-05-04 Sony Corporation Method and apparatus for encoding digital signal method and apparatus for decoding digital signal, and recording medium for encoded signals
CN1250293A (zh) * 1998-08-10 2000-04-12 扬智科技股份有限公司 压缩多声道音频位元流的解码装置及方法
US6173061B1 (en) * 1997-06-23 2001-01-09 Harman International Industries, Inc. Steering of monaural sources of sound using head related transfer functions
CN1524399A (zh) * 2001-02-07 2004-08-25 ʵ 声道转换

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3732370A (en) * 1971-02-24 1973-05-08 United Recording Electronic In Equalizer utilizing a comb of spectral frequencies as the test signal
US4458362A (en) * 1982-05-13 1984-07-03 Teledyne Industries, Inc. Automatic time domain equalization of audio signals
US4748669A (en) * 1986-03-27 1988-05-31 Hughes Aircraft Company Stereo enhancement system
US4866774A (en) * 1988-11-02 1989-09-12 Hughes Aircraft Company Stero enhancement and directivity servo
US5434948A (en) * 1989-06-15 1995-07-18 British Telecommunications Public Limited Company Polyphonic coding
US5481615A (en) * 1993-04-01 1996-01-02 Noise Cancellation Technologies, Inc. Audio reproduction system
DE4409368A1 (de) * 1994-03-18 1995-09-21 Fraunhofer Ges Forschung Verfahren zum Codieren mehrerer Audiosignale
US5796844A (en) * 1996-07-19 1998-08-18 Lexicon Multichannel active matrix sound reproduction with maximum lateral separation
DE19632734A1 (de) * 1996-08-14 1998-02-19 Thomson Brandt Gmbh Verfahren und Vorrichtung zum Generieren eines Mehrton-Signals aus einem Mono-Signal
US5890125A (en) * 1997-07-16 1999-03-30 Dolby Laboratories Licensing Corporation Method and apparatus for encoding and decoding multiple audio channels at low bit rates using adaptive selection of encoding method
TW510143B (en) * 1999-12-03 2002-11-11 Dolby Lab Licensing Corp Method for deriving at least three audio signals from two input audio signals
US7382888B2 (en) 2000-12-12 2008-06-03 Bose Corporation Phase shifting audio signal combining
US6839675B2 (en) * 2001-02-27 2005-01-04 Euphonix, Inc. Real-time monitoring system for codec-effect sampling during digital processing of a sound source
SE0202159D0 (sv) * 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
CA2354858A1 (en) * 2001-08-08 2003-02-08 Dspfactory Ltd. Subband directional audio signal processing using an oversampled filterbank
CA2473343C (en) * 2002-05-03 2012-03-27 Harman International Industries, Incorporated Multichannel downmixing device
US20040105550A1 (en) 2002-12-03 2004-06-03 Aylward J. Richard Directional electroacoustical transducing
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5899970A (en) * 1993-06-30 1999-05-04 Sony Corporation Method and apparatus for encoding digital signal method and apparatus for decoding digital signal, and recording medium for encoded signals
US6173061B1 (en) * 1997-06-23 2001-01-09 Harman International Industries, Inc. Steering of monaural sources of sound using head related transfer functions
CN1250293A (zh) * 1998-08-10 2000-04-12 扬智科技股份有限公司 压缩多声道音频位元流的解码装置及方法
CN1524399A (zh) * 2001-02-07 2004-08-25 ʵ 声道转换

Also Published As

Publication number Publication date
PL1810280T3 (pl) 2018-01-31
KR20120064134A (ko) 2012-06-18
WO2006050112A9 (en) 2006-11-09
JP4917039B2 (ja) 2012-04-18
EP1810280B1 (en) 2017-08-02
KR101177677B1 (ko) 2012-08-27
KR101283741B1 (ko) 2013-07-08
US20070297519A1 (en) 2007-12-27
KR20070084552A (ko) 2007-08-24
WO2006050112A3 (en) 2006-07-27
CN102833665A (zh) 2012-12-19
WO2006050112A2 (en) 2006-05-11
KR101210797B1 (ko) 2012-12-10
HK1158805A1 (en) 2012-07-20
CN101065797B (zh) 2011-07-27
CN102117617B (zh) 2013-01-30
KR20120062027A (ko) 2012-06-13
CN102117617A (zh) 2011-07-06
WO2006050112A8 (en) 2006-12-21
CN101065797A (zh) 2007-10-31
JP2008519491A (ja) 2008-06-05
EP1810280A2 (en) 2007-07-25

Similar Documents

Publication Publication Date Title
CN102833665B (zh) 音频空间环境引擎
US7853022B2 (en) Audio spatial environment engine
US20060106620A1 (en) Audio spatial environment down-mixer
EP4294055B1 (en) Audio signal processing method and apparatus
CN106165454B (zh) 音频信号处理方法和设备
US8081762B2 (en) Controlling the decoding of binaural audio signals
RU2507678C2 (ru) Эффективная фильтрация банком комплексно-модулированных фильтров
US8180062B2 (en) Spatial sound zooming
US20070223740A1 (en) Audio spatial environment engine using a single fine structure
CN106796792B (zh) 用于增强音频信号的装置和方法、声音增强系统
Faller Parametric multichannel audio coding: synthesis of coherence cues
US20060093164A1 (en) Audio spatial environment engine
CN101669167A (zh) 用于在多声道音频格式之间进行转换的方法和设备
EP1971979A1 (en) Decoding of binaural audio signals
Donley et al. Multizone soundfield reproduction with privacy-and quality-based speech masking filters
KR20140027048A (ko) 입체 음향 또는 의사-입체 음향 신호들의 시간-지향 평가 및 최적화를 위한 디바이스 및 방법
CN113273225A (zh) 音频处理
WO2018193160A1 (en) Ambience generation for spatial audio mixing featuring use of original and extended signal
WO2018193161A1 (en) Spatially extending in the elevation domain by spectral extension
KR20060091966A (ko) 머리 모델링을 이용한 입체음향 합성방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant