CN1717955A - 用于描述音频信号的合成的方法 - Google Patents

用于描述音频信号的合成的方法 Download PDF

Info

Publication number
CN1717955A
CN1717955A CNA2003801043466A CN200380104346A CN1717955A CN 1717955 A CN1717955 A CN 1717955A CN A2003801043466 A CNA2003801043466 A CN A2003801043466A CN 200380104346 A CN200380104346 A CN 200380104346A CN 1717955 A CN1717955 A CN 1717955A
Authority
CN
China
Prior art keywords
sound source
audio
sound
node
screen plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2003801043466A
Other languages
English (en)
Other versions
CN1717955B (zh
Inventor
延斯·斯皮利
于尔根·施密特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
InterDigital CE Patent Holdings SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN1717955A publication Critical patent/CN1717955A/zh
Application granted granted Critical
Publication of CN1717955B publication Critical patent/CN1717955B/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)
  • Processing Or Creating Images (AREA)
  • Polymerisation Methods In General (AREA)

Abstract

一种用于描述音频信号合成的方法,将所述音频信号编码为独立的音频对象。在声音场景中,通过在场景描述中层次排列的节点,描述音频对象的设置和处理。使用所述2D向量和描述所述音频对象深度的1D值,仅针对使用2D向量在2D屏幕上空间定位所指定的节点描述了音频对象的3D位置。在其它实施例中,进行了坐标映射,其使得在屏幕平面中图形对象的运动可以被映射到在垂直于所述屏幕平面的深度中的音频对象的运动。

Description

用于描述音频信号的合成的方法
技术领域
本发明涉及一种用于对音频信号的表述(presentation)进行编码和解码的方法和装置,具体地,针对在3D域中以MPEG-4编码的音频信号的空间定位(spatialization)。
背景技术
在MPEG-4音频标准ISO/IEC 14496-3:2001和MPEG-4系统标准14496-1:2001中所定义的MPEG-4音频标准,通过支持音频对象的表示(resentation)而促进了大量应用。对于音频对象附加信息的结合,即所谓的场景描述,确定了空间和时间的位置,并且与所编码的音频对象一起传输。
对于音频对象的重放进行单独地解码,并且使用场景描述进行合成,以便于准备单个声道,然后向听众播放。
为了提高效率,MPEG-4系统标准ISO/IEC 14496-1:2001定义了以二进制表示对场景描述进行编码的方法,所谓针对场景描述的二进制格式(BIFS)。相应地,音频场景使用所谓的音频BIFS进行描述。
场景描述是层次的结构,并且可以表示为图表,其中图表的叶节点形成独立对象,并且其它节点描述处理,例如定位、缩放、增加效果(effect)。可以在场景描述节点之内使用参数对独立对象的外表和行为进行控制。
发明内容
本发明基于对以下论据的认可。上述的MPEG-4音频标准版本定义了被称作″Sound″的节点,其允许在3D域中的音频信号的空间定位。其它被称作″Sound2D″的节点仅允许在2D屏幕上的空间定位。由于在2D和3D播放器中性能的不同实现,在2D图形播放器(2Dgraphical player)中没有详细规定″Sound″节点的使用。然而,根据游戏、电影和TV应用,公知的提供给最终用户完整的空间定位的″3D-Sound″表述是有意义的,即使视频表述局限于小型平面电视的前面。这对于所定义的″声音″和″Sound2D″节点是不可能的。
因此,本发明要解决的问题是克服上述缺点。该问题通过权利要求1中所公开的编码方法和权利要求5中所公开的相应的解码方法而解决。
原则上,本发明的编码方法包括声源的参数化(parametric)描述的产生,其包括允许在2D坐标系统中进行空间定位的信息。声源的参数化描述与所述声源的音频信号相链接。向所述参数化描述增加附加的1D值,其允许在3D域中所述声源在2D视觉前后关系中的空间定位。
独立的声源可以编码为独立的音频对象,并且在声音场景中声源的排列可以通过场景描述进行描述,所述场景描述具有与独立的音频对象相对应的第一节点和描述音频对象的表述的第二节点。第二节点的字段(field)可以定义声源的3D空间定位。
有利地,2D坐标系统与屏幕平面相对应,并且1D值与垂直于所述屏幕平面的深度信息相对应。
此外,所述2D坐标系统值到所述3维位置的变换可以使屏幕平面中的图形对象映射到在垂直于所述屏幕平面的深度上的音频对象的运动。
发明的解码方法主要包括,接收与声源相对应的音频信号,该声源与声源的参数化描述相链接。参数化描述包括允许在2D坐标系统中空间定位的信息。附加的1D值从所述参数化描述中分离。声源在3D域中的2D视觉前后关系中,使用所述附加的1D值进行空间定位。
可以独立地解码表示独立声源的音频对象,并且可以从所解码的音频对象,使用场景描述来合成单独的声道,场景描述具有与独立的音频对象相对应的第一节点和描述音频对象的处理的第二节点。第二节点的字段可以定义声源的3D空间定位。
有利地,2D坐标系统与屏幕平面相对应,并且1D值与垂直于所述屏幕平面的深度信息相对应。
此外,所述2D坐标系统值到所述3维位置的变换可以使屏幕平面中的图形对象映射到在垂直于所述屏幕平面的深度上的音频对象的运动。
具体实施方式
Sound2D节点定义如下:Sound2D{
exposedField      SFFloat  intensity    1.0
exposedField    SFVec2f   location      0,0
exposedField    SFNode    source    NULL
field    SFBool    spatialize TRUE}
作为3D节点的声音节点定义如下:Sound{
exposedField    SFVec3f  direction    0,0,1
exposedField    SFFloat  intensity    1.0
exposedField    SFVec3f  location       0,0,0
exposedField    SFFloat  maxBack      10.0
exposedField    SFFloat  maxFront       10.0
exposedField    SFFloat  minBack      1.0
exposedField    SFFloat  minFront       1.0
exposedField    SFFloat  priority     0.0
exposedField    SFNode   source       NULL
Field    SFBool  spatialize    TRUE}
以下,将用于所有声音节点(Sound2D、Sound和DirectiveSound)的通用术语写为小写字母,例如′声音节点(sound nodes)′。
在最简单的情况下,Sound或Sound2D节点通过音频源节点连接到解码器输出。Sound节点包括intention和location信息。
从音频的角度来看,声音节点是扩音器映射(mapping)之前的最终节点。在具有几个声音节点的情况下,将对输出进行求和。从系统的角度来看,声音节点可以看作是针对音频子图的进入点。声音节点可以与非音频节点一起组成变换节点,所述变换节点将设置其初始位置。
利用AudioSource节点的phaseGroup字段,可以标记包含重要相位关系的通道,例如″立体声对″、″多通道″等情况。允许相位相关通道和非相位相关通道的混合操作。在声音节点中的空间定位的字段规定了声音是否进行空间定位。这仅对于不属于phaseGroup成员的通道是正确的。
Sound2D可以对2D屏幕上的声音进行空间定位。标准认为声音应该在距离为1米的尺寸为2m×1.5m的平面上空间定位。因为位置字段的值不受限制,所以该解释看起来是无效的,并且因此声音也可以位于屏幕尺寸之外。
Sound和DirectiveSound节点可以将位置设置在3D空间中的任何位置。对于现有扩音器位置的映射,可以使用简单的幅度移位(panning)或者更复杂的技术来完成。
Sound和Sound2D可以处理多通道输入,并且基本上具有相同的功能,但是Sound2D节点除了向前(front)之外不能空间定位声音。
一种可能是向所有场景图形轮廓增加Sound和Sound2D,即向SF2DNode群(group)增加声音节点。
但是,在2D场景图形轮廓中不包括″3D″声音节点的一个原因是,由于需要其用于声音方向和位置字段,典型的2D播放器不能处理3D向量(SFVec3f类型)。
另一个原因是为虚拟现实场景设计的Sound节点具体地具有移动收听点和针对远距离声音对象的衰减属性。为此,定义了收听点节点和Sound、maxBack、maxFront、minBack和minFront字段。
根据一个实施例,扩展了旧的Sound2D节点或者定义了新的Sound2Ddepth节点。Sound2Ddepth节点可以与Sound2D节点相似,但是具有附加的深度字段。Sound2Ddepth{
exposedField SFFloat intensity    1.0
exposedField SFVec2f location    0,0
exposedField SFFloat depth   0.0
exposedField SFNode  source    NULL
Field        SFBool spatialize TRUE}
intensity字段调整声音的响度。其值的范围从0.0到1.0,并且该值规定了在声音重放期间所使用的因子。
location字段规定了在2D场景中的声音的位置。
depth字段使用与location字段相同的坐标系统规定了在2D场景中的声音的深度。默认值是0.0,并且其参考屏幕位置。
spatialize字段规定了声音是否应该空间定位。如果设置了该标志,声音应利用可能的最大复杂度(sophistication)进行空间定位。
与声音(3D)节点相同,针对多通道音频空间定位的规则也应用于Sound2Ddepth节点。
使用Sound2D节点,在2D场景中可以表述周围声音,就像作者对其进行记录。除了向前之外不可以空间定位声音。空间定位意味着根据用户相互影响或者场景更新而移动单声道信号的位置。
利用Sound2Ddepth节点,也可以在听众的后方、侧面或者上方对声音进行空间定位。假设音频表述系统具有能力对其进行表述。
本发明不局限于以上实施例,其中将附加的depth字段引入了Sound2D节点。此外,附加的深度字段可以插入到在Sound2D节点之上的等级设置的节点之中。
根据其它实施例,进行了坐标的映射。在Sound2DDepth节点中的附加字段dimensionMapping定义了变换,例如,如同用于将2D前后关系坐标系统(ccs)从已有的变换层次映射到节点的起点的2行×3列向量。
节点的坐标系统(ncs)的计算如下:
         ncs=ccs×dimensionMapping。
节点的位置是3维位置,来自关于ncs的2D输入向量位置和深度{location.x location.y depth}。
例如,节点的坐标系统的前后关系是{xi,yi},dimensionMapping是{1,0,0,0,0,1}。这得到ncs={xi,0,yi},其使得在y尺度中的对象的运动映射到深度中的音频运动。
字段‘dimensionMapping’可以定义为MFFloat。通过使用字段数据类型‘SFRotation’也可以得到相同的功能,其是另一种MPEG-4数据类型。
即使重放设备局限于2D图形,本发明允许在3D域中的音频信号的空间定位。

Claims (9)

1.一种用于对音频信号的表述进行编码的方法,包括:
产生声源的参数化描述,其包括允许在2D坐标系统中空间定位的信息;
将所述声源的参数化描述与所述声源的音频信号相链接;
其特征在于
向所述参数化描述增加附加的1D值,所述附加的1D值允许在3D域中所述声源在2D视觉前后关系中的空间定位。
2.根据权利要求1所述的方法,其特征在于,将独立的声源作为独立的音频对象进行编码,并且通过场景描述,描述在声音场景中的声源排列,所述场景描述具有与独立的音频对象相对应的第一节点和描述音频对象的表述的第二节点,并且其中第二节点的字段定义了声源的3D空间定位。
3.根据权利要求1或2所述的方法,其特征在于,所述2D坐标系统与屏幕平面相对应,并且所述1D值与垂直于所述屏幕平面的深度信息相对应。
4.根据权利要求3所述的方法,其特征在于,所述2D坐标系统值到所述3维位置的转换,使在屏幕平面中的图形对象的运动被映射到在垂直于所述屏幕平面的深度中的音频对象的运动。
5.一种用于对音频信号的表述进行解码的方法,包括:
接收与所述声源的参数化描述相链接的声源相对应的音频信号,其中所述参数化描述包括允许在2D坐标系统中空间定位的信息;
其特征在于
从所述参数化描述中分离附加的1D值;以及
在3D域中,使用所述的附加1D值对所述声源进行2D视觉前后关系的空间定位。
6.根据权利要求5所述的方法,其特征在于,对表示独立声源的音频对象独立地进行解码,并且使用场景描述,从所解码的音频对象合成单个声道,场景描述具有与独立的音频对象相对应的第一节点和描述音频对象的处理的第二节点,并且其中第二节点的字段定义了声源的3D空间定位。
7.根据权利要求5或6所述的方法,其特征在于,所述2D坐标系统与屏幕平面相对应,并且所述1D值与垂直于所述屏幕平面的深度信息相对应。
8.根据权利要求7所述的方法,其特征在于,所述2D坐标系统值到所述3维位置的变换,使在屏幕平面中的图形对象的运动被映射到在垂直于所述屏幕平面的深度中的音频对象的运动。
9.一种用于执行根据以上任一权利要求所述方法的装置。
CN2003801043466A 2002-12-02 2003-11-28 用于描述音频信号的合成的方法 Expired - Fee Related CN1717955B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
EP02026770.4 2002-12-02
EP02026770 2002-12-02
EP020267704 2002-12-02
EP03016029 2003-07-15
EP03016029.5 2003-07-15
EP030160295 2003-07-15
PCT/EP2003/013394 WO2004051624A2 (en) 2002-12-02 2003-11-28 Method for describing the composition of audio signals

Publications (2)

Publication Number Publication Date
CN1717955A true CN1717955A (zh) 2006-01-04
CN1717955B CN1717955B (zh) 2013-10-23

Family

ID=32471890

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2003801043466A Expired - Fee Related CN1717955B (zh) 2002-12-02 2003-11-28 用于描述音频信号的合成的方法

Country Status (11)

Country Link
US (1) US9002716B2 (zh)
EP (1) EP1568251B1 (zh)
JP (1) JP4338647B2 (zh)
KR (1) KR101004249B1 (zh)
CN (1) CN1717955B (zh)
AT (1) ATE352970T1 (zh)
AU (1) AU2003298146B2 (zh)
BR (1) BRPI0316548B1 (zh)
DE (1) DE60311522T2 (zh)
PT (1) PT1568251E (zh)
WO (1) WO2004051624A2 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010022633A1 (zh) * 2008-08-27 2010-03-04 深圳华为通信技术有限公司 音频信号的生成、播放方法及装置、处理系统
CN101819776B (zh) * 2009-02-27 2012-04-18 北京中星微电子有限公司 嵌入和获取声源定向信息的方法及音频编解码方法和系统
WO2012068960A1 (zh) * 2010-11-26 2012-05-31 华为终端有限公司 视频通信中的音频处理方法和装置
CN101819774B (zh) * 2009-02-27 2012-08-01 北京中星微电子有限公司 声源定向信息的编解码方法和系统
CN107852561A (zh) * 2015-07-16 2018-03-27 索尼公司 信息处理装置、信息处理方法及程序
CN111052770A (zh) * 2017-09-29 2020-04-21 苹果公司 空间音频下混频

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040073690A1 (en) 2002-09-30 2004-04-15 Neil Hepworth Voice over IP endpoint call admission
US7359979B2 (en) 2002-09-30 2008-04-15 Avaya Technology Corp. Packet prioritization and associated bandwidth and buffer management techniques for audio over IP
US7978827B1 (en) 2004-06-30 2011-07-12 Avaya Inc. Automatic configuration of call handling based on end-user needs and characteristics
KR100745689B1 (ko) * 2004-07-09 2007-08-03 한국전자통신연구원 혼합된 오디오 스트림으로부터 오디오 객체를 분리하기위한 단말 장치 및 그 방법
DE102005008342A1 (de) 2005-02-23 2006-08-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Speichern von Audiodateien
DE102005008369A1 (de) 2005-02-23 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Simulieren eines Wellenfeldsynthese-Systems
DE102005008366A1 (de) * 2005-02-23 2006-08-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ansteuern einer Wellenfeldsynthese-Renderer-Einrichtung mit Audioobjekten
DE102005008343A1 (de) 2005-02-23 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Liefern von Daten in einem Multi-Renderer-System
KR100733965B1 (ko) 2005-11-01 2007-06-29 한국전자통신연구원 객체기반 오디오 전송/수신 시스템 및 그 방법
KR100802179B1 (ko) * 2005-12-08 2008-02-12 한국전자통신연구원 프리셋 오디오 장면을 이용한 객체기반 3차원 오디오서비스 시스템 및 그 방법
US8705747B2 (en) 2005-12-08 2014-04-22 Electronics And Telecommunications Research Institute Object-based 3-dimensional audio service system using preset audio scenes
TWI326448B (en) * 2006-02-09 2010-06-21 Lg Electronics Inc Method for encoding and an audio signal and apparatus thereof and computer readable recording medium for method for decoding an audio signal
EP2022263B1 (en) * 2006-05-19 2012-08-01 Electronics and Telecommunications Research Institute Object-based 3-dimensional audio service system using preset audio scenes
KR101065704B1 (ko) * 2006-09-29 2011-09-19 엘지전자 주식회사 오브젝트 기반 오디오 신호를 인코딩 및 디코딩하는 방법 및 장치
JP5254983B2 (ja) * 2007-02-14 2013-08-07 エルジー エレクトロニクス インコーポレイティド オブジェクトベースオーディオ信号の符号化及び復号化方法並びにその装置
US8218751B2 (en) 2008-09-29 2012-07-10 Avaya Inc. Method and apparatus for identifying and eliminating the source of background noise in multi-party teleconferences
KR101235832B1 (ko) * 2008-12-08 2013-02-21 한국전자통신연구원 실감 멀티미디어 서비스 제공 방법 및 장치

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5208860A (en) * 1988-09-02 1993-05-04 Qsound Ltd. Sound imaging method and apparatus
US5714997A (en) * 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
US5943427A (en) * 1995-04-21 1999-08-24 Creative Technology Ltd. Method and apparatus for three dimensional audio spatialization
US6009394A (en) * 1996-09-05 1999-12-28 The Board Of Trustees Of The University Of Illinois System and method for interfacing a 2D or 3D movement space to a high dimensional sound synthesis control space
JP4347422B2 (ja) * 1997-06-17 2009-10-21 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー 空間形成されたオーディオの再生
US6983251B1 (en) * 1999-02-15 2006-01-03 Sharp Kabushiki Kaisha Information selection apparatus selecting desired information from plurality of audio information by mainly using audio
JP2001169309A (ja) 1999-12-13 2001-06-22 Mega Chips Corp 情報記録装置および情報再生装置
JP2003521202A (ja) * 2000-01-28 2003-07-08 レイク テクノロジー リミティド 地理的な環境で使用される空間オーディオシステム。
GB2372923B (en) * 2001-01-29 2005-05-25 Hewlett Packard Co Audio user interface with selective audio field expansion
GB0127778D0 (en) * 2001-11-20 2002-01-09 Hewlett Packard Co Audio user interface with dynamic audio labels
GB2374772B (en) * 2001-01-29 2004-12-29 Hewlett Packard Co Audio user interface
US6829017B2 (en) * 2001-02-01 2004-12-07 Avid Technology, Inc. Specifying a point of origin of a sound for audio effects using displayed visual information from a motion picture
US6829018B2 (en) * 2001-09-17 2004-12-07 Koninklijke Philips Electronics N.V. Three-dimensional sound creation assisted by visual information
AUPR989802A0 (en) * 2002-01-09 2002-01-31 Lake Technology Limited Interactive spatialized audiovisual system
US7113610B1 (en) * 2002-09-10 2006-09-26 Microsoft Corporation Virtual sound source positioning
DE60312553T2 (de) * 2002-10-14 2007-11-29 Thomson Licensing Verfahren zum kodieren und dekodieren von der breite einer schallquelle in einer audioszene
EP1427252A1 (en) * 2002-12-02 2004-06-09 Deutsche Thomson-Brandt Gmbh Method and apparatus for processing audio signals from a bitstream
GB2397736B (en) * 2003-01-21 2005-09-07 Hewlett Packard Co Visualization of spatialized audio
FR2862799B1 (fr) * 2003-11-26 2006-02-24 Inst Nat Rech Inf Automat Dispositif et methode perfectionnes de spatialisation du son
JP4813365B2 (ja) * 2003-12-02 2011-11-09 トムソン ライセンシング オーディオ信号のインパルス応答を符号化及び復号化する方法
US8020050B2 (en) * 2009-04-23 2011-09-13 International Business Machines Corporation Validation of computer interconnects
CN103493513B (zh) * 2011-04-18 2015-09-09 杜比实验室特许公司 用于将音频上混以便产生3d音频的方法和系统

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010022633A1 (zh) * 2008-08-27 2010-03-04 深圳华为通信技术有限公司 音频信号的生成、播放方法及装置、处理系统
US8705778B2 (en) 2008-08-27 2014-04-22 Huawei Technologies Co., Ltd. Method and apparatus for generating and playing audio signals, and system for processing audio signals
CN101819776B (zh) * 2009-02-27 2012-04-18 北京中星微电子有限公司 嵌入和获取声源定向信息的方法及音频编解码方法和系统
CN101819774B (zh) * 2009-02-27 2012-08-01 北京中星微电子有限公司 声源定向信息的编解码方法和系统
WO2012068960A1 (zh) * 2010-11-26 2012-05-31 华为终端有限公司 视频通信中的音频处理方法和装置
US9113034B2 (en) 2010-11-26 2015-08-18 Huawei Device Co., Ltd. Method and apparatus for processing audio in video communication
CN107852561A (zh) * 2015-07-16 2018-03-27 索尼公司 信息处理装置、信息处理方法及程序
US10623884B2 (en) 2015-07-16 2020-04-14 Sony Corporation Information processing apparatus, information processing method, and program
US10645523B2 (en) 2015-07-16 2020-05-05 Sony Corporation Information processing apparatus, information processing method, and program
CN111052770A (zh) * 2017-09-29 2020-04-21 苹果公司 空间音频下混频
US11128977B2 (en) 2017-09-29 2021-09-21 Apple Inc. Spatial audio downmixing
CN111052770B (zh) * 2017-09-29 2021-12-03 苹果公司 空间音频下混频的方法及系统
US11832086B2 (en) 2017-09-29 2023-11-28 Apple Inc. Spatial audio downmixing

Also Published As

Publication number Publication date
BRPI0316548B1 (pt) 2016-12-27
CN1717955B (zh) 2013-10-23
EP1568251B1 (en) 2007-01-24
AU2003298146B2 (en) 2009-04-09
DE60311522T2 (de) 2007-10-31
AU2003298146A1 (en) 2004-06-23
WO2004051624A3 (en) 2004-08-19
ATE352970T1 (de) 2007-02-15
JP4338647B2 (ja) 2009-10-07
BR0316548A (pt) 2005-10-04
DE60311522D1 (de) 2007-03-15
WO2004051624A2 (en) 2004-06-17
KR20050084083A (ko) 2005-08-26
EP1568251A2 (en) 2005-08-31
KR101004249B1 (ko) 2010-12-24
PT1568251E (pt) 2007-04-30
JP2006517356A (ja) 2006-07-20
US9002716B2 (en) 2015-04-07
US20060167695A1 (en) 2006-07-27

Similar Documents

Publication Publication Date Title
CN1717955A (zh) 用于描述音频信号的合成的方法
CN106714072B (zh) 用于回放更高阶立体混响音频信号的方法和设备
US9119011B2 (en) Upmixing object based audio
AU2019409705B2 (en) Apparatus and method for reproducing a spatially extended sound source or apparatus and method for generating a bitstream from a spatially extended sound source
EP2954702B1 (en) Mapping virtual speakers to physical speakers
WO2013181272A2 (en) Object-based audio system using vector base amplitude panning
CN1469684A (zh) 用于产生多声道声音的方法和装置
KR20240021911A (ko) 3차원 오디오 신호를 인코딩하기 위한 방법 및 장치, 인코더 및 시스템
CN1714600A (zh) 产生和消费具有扩展空间性的声源的三维音频场景的方法
WO2024212636A1 (zh) 场景音频编码方法及电子设备
WO2024212635A1 (zh) 场景音频解码方法及电子设备
WO2024212634A1 (zh) 场景音频编码方法及电子设备
WO2024212637A1 (zh) 场景音频解码方法及电子设备
WO2024114372A1 (zh) 场景音频解码方法及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP02 Change in the address of a patent holder

Address after: I Si Eli Murli Nor, France

Patentee after: THOMSON LICENSING

Address before: La France

Patentee before: THOMSON LICENSING

CP02 Change in the address of a patent holder
TR01 Transfer of patent right

Effective date of registration: 20190516

Address after: Paris France

Patentee after: Interactive digital CE patent holding Co.

Address before: I Si Eli Murli Nor, France

Patentee before: THOMSON LICENSING

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20131023

Termination date: 20201128

CF01 Termination of patent right due to non-payment of annual fee