JP2021514164A - オブジェクトベースの空間オーディオマスタリングのための装置および方法 - Google Patents
オブジェクトベースの空間オーディオマスタリングのための装置および方法 Download PDFInfo
- Publication number
- JP2021514164A JP2021514164A JP2020543912A JP2020543912A JP2021514164A JP 2021514164 A JP2021514164 A JP 2021514164A JP 2020543912 A JP2020543912 A JP 2020543912A JP 2020543912 A JP2020543912 A JP 2020543912A JP 2021514164 A JP2021514164 A JP 2021514164A
- Authority
- JP
- Japan
- Prior art keywords
- audio
- audio object
- processing
- group
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 61
- 238000012545 processing Methods 0.000 claims abstract description 292
- 230000000694 effects Effects 0.000 claims abstract description 110
- 238000004590 computer program Methods 0.000 claims description 14
- 238000009877 rendering Methods 0.000 claims description 11
- 230000004048 modification Effects 0.000 claims description 6
- 238000012986 modification Methods 0.000 claims description 6
- 230000001151 other effect Effects 0.000 claims description 6
- 230000001419 dependent effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 14
- 230000008859 change Effects 0.000 description 13
- 238000004519 manufacturing process Methods 0.000 description 13
- 230000005236 sound signal Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 230000007704 transition Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 210000003746 feather Anatomy 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000036962 time dependent Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 239000010981 turquoise Substances 0.000 description 3
- 101100058681 Drosophila melanogaster Btk29A gene Proteins 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000003292 glue Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/307—Frequency adjustment, e.g. tone control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/03—Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
Abstract
Description
−インタフェース(110)によって、オーディオオブジェクトの処理オブジェクトグループの少なくとも1つのエフェクトパラメーターをユーザー側で指定するステップであって、オーディオオブジェクトの処理オブジェクトグループは複数のオーディオオブジェクトのうちの2つ以上のオーディオオブジェクトを備える、指定するステップと、
−インタフェースによって指定される少なくとも1つのエフェクトパラメーターがオーディオオブジェクトの処理オブジェクトグループの各オーディオオブジェクトのオーディオオブジェクト信号またはオーディオオブジェクトメタデータに適用されるように、処理済信号をプロセッサユニット(120)によって生成するステップと、
を含む。
[1]Coleman, P., Franck, A., Francombe, J., Liu, Q., Campos, T. D., Hughes, R., Men-zies, D., Galvez, M. S., Tang, Y., Woodcock, J., Jackson, P., Melchior, F., Pike, C., Fazi, F., Cox, T, and Hilton, A., "An Audio-Visual System for Object-Based Audio: From Recording to Listening," IEEE Transactions on Multimedia, PP(99), pp. 1-1, 2018, ISSN 1520- 9210, doi:10.1109/TMM.2018.2794780.
[2] Gasull Ruiz, A., Sladeczek, C., and Sporer, T., "A Description of an Object-Based Audio Workflow for Media Productions," in Audio Engineering Society Conference: 57th International Conference: The Future of Audio Entertainment Technology, Cinema, Television and the Internet, 2015.
[3] Melchior, F., Michaelis, U., and Steffens, R., "Spatial Mastering - a new concept for spatial sound design in object-based audio scenes," in Proceedings of the International Computer Music Conference 2011, 2011.
[4] Katz, B. and Katz, R. A., Mastering Audio: The Art and the Science, Butterworth-Heinemann, Newton, MA, USA, 2003, ISBN 0240805453, AES Conference on Spatial Reproduction, Tokyo, Japan, 2018 August 6 - 9, page 2
[5] Melchior, F., Michaelis, U., and Steffens, R., "Spatial Mastering - A New Concept for Spatial Sound Design in Object-based Audio Scenes," Proceedings of the International Computer Music Conference 2011, University of Huddersfield, UK, 2011.
[6] Sladeczek, C., Neidhardt, A., Boehme, M., Seeber, M., and Ruiz, A. G., "An Approach for Fast and Intuitive Monitoring of Microphone Signals Using a Virtual Listener," Proceedings, International Conference on Spatial Audio (ICSA), 21.2. - 23.2.2014, Erlangen, 2014
[7] Dubrofsky, E., Homography Estimation, Master's thesis, University of British Columbia, 2009.
[8] ISO/IEC 23003-2:2010 Information technology - MPEG audio technologies - Part 2: Spatial Audio Object Coding (SAOC); 2010
Claims (19)
- 複数のオーディオオブジェクトを使用しながら処理済信号を生成するための装置であって、前記複数のオーディオオブジェクトの各オーディオオブジェクトは、オーディオオブジェクト信号およびオーディオオブジェクトメタデータを含み、前記オーディオオブジェクトメタデータは、前記オーディオオブジェクトの位置および前記オーディオオブジェクトのゲインパラメーターを含み、前記装置は、
オーディオオブジェクトの処理オブジェクトグループの少なくとも1つのエフェクトパラメーターをユーザー側で指定するためのインタフェース(110)であって、前記オーディオオブジェクトの処理オブジェクトグループは前記複数のオーディオオブジェクトのうちの2つ以上のオーディオオブジェクトを含む、インタフェース(110)と、
前記インタフェース(110)によって指定される前記少なくとも1つのエフェクトパラメーターが前記オーディオオブジェクトの処理オブジェクトグループの各オーディオオブジェクトの前記オーディオオブジェクト信号または前記オーディオオブジェクトメタデータに適用されるように前記処理済信号を生成するように構成されるプロセッサユニット(120)と、
を備える、装置。 - 前記複数のオーディオオブジェクトのうちの1つ以上のオーディオオブジェクトは、前記オーディオオブジェクトの処理オブジェクトグループに属さず、前記プロセッサユニット(120)は、前記インタフェースによって指定される前記少なくとも1つのエフェクトパラメーターを、前記オーディオオブジェクトの処理オブジェクトグループに属していない前記1つ以上のオーディオオブジェクトのどのオーディオオブジェクト信号およびどのオーディオオブジェクトメタデータにも適用しないように構成される、
請求項1に記載の装置。 - 前記プロセッサユニット(120)は、前記インタフェース(110)によって指定される前記少なくとも1つのエフェクトパラメーターが、前記オーディオオブジェクトの処理オブジェクトグループのそれぞれの前記オーディオオブジェクトの前記オーディオオブジェクト信号に適用されるように、前記処理済信号を生成するように構成され、
前記プロセッサユニット(120)は、前記インタフェースによって指定される前記少なくとも1つのエフェクトパラメーターを、前記オーディオオブジェクトの処理オブジェクトグループに属さない前記複数のオーディオオブジェクトのうちの前記1つ以上のオーディオオブジェクトのオーディオオブジェクト信号のいずれにも適用しないように構成される、
請求項2に記載の装置。 - 前記プロセッサユニット(120)は、前記インタフェース(110)によって指定される前記少なくとも1つのエフェクトパラメーターが、前記オーディオオブジェクトの処理オブジェクトグループの前記各オーディオオブジェクトの前記メタデータの前記ゲインパラメーターに適用されるように、前記処理済信号を生成するように構成され、
前記プロセッサユニット(120)は、前記インタフェースによって指定される前記少なくとも1つのエフェクトパラメーターを、前記オーディオオブジェクトの処理オブジェクトグループに属さない前記複数のオーディオオブジェクトのうちの前記1つ以上のオーディオオブジェクトの前記オーディオオブジェクトメタデータのゲインパラメーターのいずれにも適用しないように構成される、
請求項2または請求項3に記載の装置。 - 前記プロセッサユニット(120)は、前記インタフェース(110)によって指定される前記少なくとも1つのエフェクトパラメーターが、前記オーディオオブジェクトの処理オブジェクトグループの前記各オーディオオブジェクトの前記メタデータの前記位置に適用されるように、前記処理済信号を生成するように構成され、
前記プロセッサユニット(120)は、前記インタフェースによって指定される前記少なくとも1つのエフェクトパラメーターを、前記オーディオオブジェクトの処理オブジェクトグループに属さない前記複数のオーディオオブジェクトのうちの前記1つ以上のオーディオオブジェクトの前記オーディオオブジェクトメタデータの位置のいずれにも適用しないように構成される、
請求項2ないし請求項4のいずれかに記載の装置。 - 前記インタフェース(110)は前記オーディオオブジェクトの処理オブジェクトグループの少なくとも1つの定義パラメーターを前記ユーザーによって指定するように構成され、
前記プロセッサユニット(120)は、前記インタフェース(110)によって指定される前記オーディオオブジェクトの処理オブジェクトグループのうちの前記少なくとも1つの定義パラメーターに応じて、前記複数のオーディオオブジェクトのうちのどのオーディオオブジェクトが前記オーディオオブジェクトの処理オブジェクトグループに属するかを決定するように構成される、
請求項1ないし請求項5のいずれかに記載の装置。 - 前記オーディオオブジェクトの処理オブジェクトグループの前記少なくとも1つの定義パラメーターは、前記オーディオオブジェクトの処理オブジェクトグループに関連する関心領域の少なくとも1つの位置を備え、
前記プロセッサユニット(120)は、当該オーディオオブジェクトの前記オーディオオブジェクトメタデータの前記位置に依存して且つ前記関心領域の前記位置に依存して、前記複数のオーディオオブジェクトのうちの各オーディオオブジェクトについて、当該オーディオオブジェクトが前記オーディオオブジェクトの処理オブジェクトグループに属するかどうかを決定するように構成される、
請求項6に記載の装置。 - 前記オーディオオブジェクトの処理オブジェクトグループの前記少なくとも1つの定義パラメーターは、前記オーディオオブジェクトの処理オブジェクトグループに関連する前記関心領域の半径範囲をさらに備え、
前記プロセッサユニット(120)は、前記複数のオーディオオブジェクトのうちの各オーディオオブジェクトについて、当該オーディオオブジェクトの前記オーディオオブジェクトメタデータの前記位置に依存して、且つ前記関心領域の前記位置に依存して、且つ前記関心領域の前記半径範囲に依存して、当該オーディオオブジェクトが前記オーディオオブジェクトの処理オブジェクトグループに属するかどうかを決定するように構成される、
請求項7に記載の装置。 - 前記プロセッサユニット(120)は、前記オーディオオブジェクトの処理オブジェクトグループの前記各オーディオオブジェクトについて、当該オーディオオブジェクトの前記オーディオオブジェクトメタデータの前記位置と前記関心領域の前記位置との間の距離に応じて、重み係数を決定するように構成され、
前記プロセッサユニット(120)は、前記オーディオオブジェクトの処理オブジェクトグループの前記各オーディオオブジェクトについて、当該オーディオオブジェクトの前記重み係数を、前記インタフェース(110)によって指定される前記少なくとも1つのエフェクトパラメーターとともに、当該オーディオオブジェクトの前記オーディオオブジェクト信号または前記オーディオオブジェクトメタデータの前記ゲインパラメーターに適用するように構成される、
請求項7または請求項8に記載の装置。 - 前記オーディオオブジェクトの処理オブジェクトグループの前記少なくとも1つの定義パラメーターは、前記オーディオオブジェクトの処理オブジェクトグループに関連付けられる関心領域がある定義されたユーザー位置からの方向を指定する少なくとも1つの角度を備え、
前記プロセッサユニット(120)は、前記オーディオオブジェクトの前記メタデータの前記位置に依存して、且つ前記関心領域が位置する前記定義されたユーザー位置からの前記方向を指定する前記角度に依存して、前記複数のオーディオオブジェクトのうちの各オーディオオブジェクトについて、前記オーディオオブジェクトが前記オーディオオブジェクトの処理オブジェクトグループに属するかどうかを決定するように構成される、
請求項6に記載の装置。 - 前記プロセッサユニット(120)は、前記オーディオオブジェクトの処理オブジェクトグループの前記各オーディオオブジェクトについて、第1の角度と別の角度との間の差に依存する重み係数を決定するように構成され、前記第1の角度は前記関心領域が位置する前記定義されたユーザー位置からの前記方向を指定する前記角度であり、前記別の角度は、前記定義されたユーザー位置および当該オーディオオブジェクトの前記メタデータの前記位置に依存し、
前記プロセッサユニット(120)は、前記オーディオオブジェクトの処理オブジェクトグループの前記各オーディオオブジェクトについて、当該オーディオオブジェクトの前記重み係数を前記インタフェース(110)によって指定される前記少なくとも1つのエフェクトパラメーターとともに当該オーディオオブジェクトの前記オーディオオブジェクト信号または前記オーディオオブジェクトメタデータの前記ゲインパラメーターに適用するように構成される、
請求項10に記載の装置。 - 前記オーディオオブジェクトの処理オブジェクトグループは、オーディオオブジェクトの第1処理オブジェクトグループであり、1つ以上の別のオーディオオブジェクトの処理オブジェクトグループも存在し、前記1つ以上の別のオーディオオブジェクトの処理オブジェクトグループの各処理オブジェクトグループは前記複数のオーディオオブジェクトのうちの1つ以上のオーディオオブジェクトを含み、前記1つ以上の別のオーディオオブジェクトの処理オブジェクトグループの処理オブジェクトグループのうちの少なくとも1つのオーディオオブジェクトは、前記オーディオオブジェクトの第1処理オブジェクトグループのオーディオオブジェクトではなく、
前記インターフェース(110)は、前記1つ以上の別のオーディオオブジェクトの処理オブジェクトグループの各処理オブジェクトグループについて、当該オーディオオブジェクトの処理オブジェクトグループのための少なくとも1つの別のエフェクトパラメーターをユーザー側で指定するように構成され、
前記プロセッサユニット(120)は、前記1つ以上の別のオーディオオブジェクトの処理オブジェクトグループの各処理オブジェクトグループについて、前記インタフェース(110)によって指定される当該処理オブジェクトグループの前記少なくとも1つの別のエフェクトパラメーターが、当該処理オブジェクトグループの前記1つ以上のオーディオオブジェクトのそれぞれの前記オーディオオブジェクト信号または前記オーディオオブジェクトメタデータに適用されるように、前記処理済信号を生成するように構成され、前記複数のオーディオオブジェクトのうちの1つ以上のオーディオオブジェクトが当該処理オブジェクトグループに属さず、前記プロセッサユニット(120)は、前記インタフェースによって指定される当該処理オブジェクトグループの前記少なくとも1つの別のエフェクトパラメーターを、当該処理オブジェクトグループに属さない前記1つ以上のオーディオオブジェクトのどのオーディオオブジェクト信号およびどのオーディオオブジェクトメタデータにも適用しないように構成される、
請求項1ないし請求項11のいずれか1項に記載の装置。 - 前記インタフェース(110)は、前記オーディオオブジェクトの第1処理オブジェクトグループに加えて、1つ以上のオーディオオブジェクトの前記1つ以上の別の処理オブジェクトグループを前記ユーザー側で指定するように構成され、前記インタフェース(110)は、1つ以上のオーディオオブジェクトの前記1つ以上の別の処理オブジェクトグループの各処理オブジェクトグループについて、当該処理オブジェクトグループの少なくとも1つの定義パラメーターを前記ユーザー側で指定するように構成され、
前記プロセッサユニット(120)は、1つ以上のオーディオオブジェクトの前記1つ以上の別の処理オブジェクトグループの各処理オブジェクトグループについて、どのオーディオオブジェクトが当該処理オブジェクトグループの前記複数のオーディオオブジェクトに属するかを、前記インタフェース(110)によって指定される当該処理オブジェクトグループの前記少なくとも1つの定義パラメーターに依存して決定するように構成される、
請求項12に記載の装置。 - 前記装置はエンコーダであり、前記プロセッサユニット(120)は前記複数のオーディオオブジェクトの前記オーディオオブジェクト信号を使用しながらダウンミックス信号を生成するように構成され、前記プロセッサユニット(120)は前記複数のオーディオオブジェクトの前記オーディオオブジェクトメタデータを使用しながらメタデータ信号を生成するように構成され、
前記プロセッサユニット(120)は前記処理済信号として前記ダウンミックス信号を生成するように構成され、前記オーディオオブジェクトの処理オブジェクトグループの各オーディオオブジェクトについて、少なくとも1つの修正オブジェクト信号が前記ダウンミックス信号に混合され、前記プロセッサユニット(120)は、前記オーディオオブジェクトの処理オブジェクトグループの各オーディオオブジェクトについて、当該オーディオオブジェクトの前記オーディオオブジェクト信号に前記インタフェース(110)によって指定される前記少なくとも1つのエフェクトパラメーターを適用することによって、当該オーディオオブジェクトの前記修正オブジェクト信号を生成するように構成される、または、
前記プロセッサユニット(120)は前記処理済信号として前記メタデータ信号を生成するように構成され、前記メタデータ信号は前記オーディオオブジェクトの処理オブジェクトグループの各オーディオオブジェクトについて少なくとも1つの修正位置を含み、前記プロセッサユニット(120)は前記オーディオオブジェクトの処理オブジェクトグループの各オーディオオブジェクトについて、前記インタフェース(110)によって指定される前記少なくとも1つのエフェクトパラメーターを当該オーディオオブジェクトの前記位置に適用することによって当該オーディオオブジェクトの前記修正位置を生成するように構成される、または、
前記プロセッサユニット(120)は前記処理済信号として前記メタデータ信号を生成するように構成され、前記メタデータ信号は前記オーディオオブジェクトの処理オブジェクトグループの各オーディオオブジェクトについて少なくとも1つの修正ゲインパラメーターを含み、前記プロセッサユニット(120)は前記オーディオオブジェクトの処理オブジェクトグループの各オーディオオブジェクトについて、前記インタフェース(110)によって指定される前記少なくとも1つのエフェクトパラメーターを当該オーディオオブジェクトの前記ゲインパラメーターに適用することによって当該オーディオオブジェクトの前記修正ゲインパラメーターを生成するように構成される、
請求項1ないし請求項13のいずれか1項に記載の装置。 - 前記装置はデコーダであり、前記装置は前記複数のオーディオオブジェクトの前記複数のオーディオオブジェクト信号が混合されているダウンミックス信号を受信するように構成され、前記装置はメタデータ信号を受信するようにさらに構成され、前記メタデータ信号は前記複数のオーディオオブジェクトの各オーディオオブジェクトについて、当該オーディオオブジェクトの前記オーディオオブジェクトメタデータを含み、
前記プロセッサユニット(120)はダウンミックス信号に基づいて、前記複数のオーディオオブジェクトの前記複数のオーディオオブジェクト信号を再構成するように構成され、
前記プロセッサユニット(120)は、前記処理済信号として、1つ以上のオーディオ出力チャネルを備えるオーディオ出力信号を生成するように構成され、
前記プロセッサユニット(120)は、前記インタフェース(110)によって指定される前記少なくとも1つのエフェクトパラメーターを、前記オーディオオブジェクトの処理オブジェクトグループの前記各オーディオオブジェクトの前記オーディオオブジェクト信号に適用して、前記処理済信号を生成する、または、前記インタフェース(110)によって指定される前記少なくとも1つのエフェクトパラメーターを、前記オーディオオブジェクトの処理オブジェクトグループの前記各オーディオオブジェクトの前記オーディオオブジェクトメタデータの前記位置もしくは前記ゲインパラメーターに適用して、前記処理済信号を生成するように構成される、
請求項1ないし請求項13のいずれか1項に記載の装置。 - 前記インタフェース(110)は1つ以上のレンダリングパラメーターを前記ユーザー側で指定するためにさらに適合され、
前記プロセッサユニット(120)は前記1つ以上のレンダリングパラメーターを前記オーディオオブジェクトの処理オブジェクトグループの各オーディオオブジェクトの前記位置の関数として使用しながら前記処理済信号を生成するように構成される、
請求項15に記載の装置。 - 複数のオーディオオブジェクトのオーディオオブジェクト信号に基づいてダウンミックス信号を生成し、前記複数のオーディオオブジェクトのオーディオオブジェクトメタデータに基づいてメタデータ信号を生成するためのエンコーダ(200)であって、前記オーディオオブジェクトメタデータは前記オーディオオブジェクトの位置および前記オーディオオブジェクトのゲインパラメーターを含むエンコーダ(200)と、
前記ダウンミックス信号に基づいておよび前記メタデータ信号に基づいて、1つ以上のオーディオ出力チャネルを含むオーディオ出力信号を生成するためのデコーダ(300)と、
を含み、
前記エンコーダ(200)は請求項14に記載の装置である、または、
前記デコーダ(300)は請求項15もしくは請求項16に記載の装置である、または、
前記エンコーダ(200)は請求項14に記載の装置であり、前記デコーダ(300)は請求項15もしくは請求項16に記載の装置である、
システム。 - 複数のオーディオオブジェクトを使用しながら処理済信号を生成する方法であって、前記複数のオーディオオブジェクトの各オーディオオブジェクトはオーディオオブジェクト信号およびオーディオオブジェクトメタデータを含み、前記オーディオオブジェクトメタデータは前記オーディオオブジェクトの位置および前記オーディオオブジェクトのゲインパラメーターを含み、前記方法は、
インタフェース(110)によって、オーディオオブジェクトの処理オブジェクトグループの少なくとも1つのエフェクトパラメーターをユーザー側で指定するステップであって、前記オーディオオブジェクトの処理オブジェクトグループは前記複数のオーディオオブジェクトのうちの2つ以上のオーディオオブジェクトを備える、指定するステップと、
前記インタフェースによって指定される前記少なくとも1つのエフェクトパラメーターが前記オーディオオブジェクトの処理オブジェクトグループの前記各オーディオオブジェクトの前記オーディオオブジェクト信号または前記オーディオオブジェクトメタデータに適用されるように、前記処理済信号をプロセッサユニット(120)によって生成するステップと、
を含む、方法。 - 請求項18に記載の方法を実行するためのプログラムコードを含むコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023004163A JP2023055736A (ja) | 2018-02-19 | 2023-01-13 | オブジェクトベースの空間オーディオマスタリングのための装置および方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018202511 | 2018-02-19 | ||
DE102018202511.8 | 2018-02-19 | ||
DE102018206025.8A DE102018206025A1 (de) | 2018-02-19 | 2018-04-19 | Vorrichtung und Verfahren für objektbasiertes, räumliches Audio-Mastering |
DE102018206025.8 | 2018-04-19 | ||
PCT/EP2019/053961 WO2019158750A1 (de) | 2018-02-19 | 2019-02-18 | Vorrichtung und verfahren für objektbasiertes, räumliches audio-mastering |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023004163A Division JP2023055736A (ja) | 2018-02-19 | 2023-01-13 | オブジェクトベースの空間オーディオマスタリングのための装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021514164A true JP2021514164A (ja) | 2021-06-03 |
JP7277475B2 JP7277475B2 (ja) | 2023-05-19 |
Family
ID=67482130
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020543912A Active JP7277475B2 (ja) | 2018-02-19 | 2019-02-18 | オブジェクトベースの空間オーディオマスタリングのための装置および方法 |
JP2023004163A Pending JP2023055736A (ja) | 2018-02-19 | 2023-01-13 | オブジェクトベースの空間オーディオマスタリングのための装置および方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023004163A Pending JP2023055736A (ja) | 2018-02-19 | 2023-01-13 | オブジェクトベースの空間オーディオマスタリングのための装置および方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20200374649A1 (ja) |
EP (1) | EP3756363A1 (ja) |
JP (2) | JP7277475B2 (ja) |
KR (3) | KR102427809B1 (ja) |
CA (1) | CA3091529A1 (ja) |
DE (1) | DE102018206025A1 (ja) |
SG (1) | SG11202105234TA (ja) |
WO (1) | WO2019158750A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023062865A1 (ja) * | 2021-10-15 | 2023-04-20 | ソニーグループ株式会社 | 情報処理装置および方法、並びにプログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2594265A (en) * | 2020-04-20 | 2021-10-27 | Nokia Technologies Oy | Apparatus, methods and computer programs for enabling rendering of spatial audio signals |
US11579838B2 (en) * | 2020-11-26 | 2023-02-14 | Verses, Inc. | Method for playing audio source using user interaction and a music application using the same |
WO2024038925A1 (ko) * | 2022-08-18 | 2024-02-22 | 엘지전자 주식회사 | Tv 및 tv의 제어 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010511912A (ja) * | 2006-12-07 | 2010-04-15 | エルジー エレクトロニクス インコーポレイティド | オーディオ処理方法及び装置 |
US20130114819A1 (en) * | 2010-06-25 | 2013-05-09 | Iosono Gmbh | Apparatus for changing an audio scene and an apparatus for generating a directional function |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100223552A1 (en) * | 2009-03-02 | 2010-09-02 | Metcalf Randall B | Playback Device For Generating Sound Events |
TWI543642B (zh) * | 2011-07-01 | 2016-07-21 | 杜比實驗室特許公司 | 用於適應性音頻信號的產生、譯碼與呈現之系統與方法 |
US9479886B2 (en) * | 2012-07-20 | 2016-10-25 | Qualcomm Incorporated | Scalable downmix design with feedback for object-based surround codec |
EP3264259A1 (en) * | 2016-06-30 | 2018-01-03 | Nokia Technologies Oy | Audio volume handling |
US9980078B2 (en) * | 2016-10-14 | 2018-05-22 | Nokia Technologies Oy | Audio object modification in free-viewpoint rendering |
-
2018
- 2018-04-19 DE DE102018206025.8A patent/DE102018206025A1/de active Pending
-
2019
- 2019-02-18 KR KR1020207026941A patent/KR102427809B1/ko active IP Right Grant
- 2019-02-18 JP JP2020543912A patent/JP7277475B2/ja active Active
- 2019-02-18 WO PCT/EP2019/053961 patent/WO2019158750A1/de active Search and Examination
- 2019-02-18 SG SG11202105234TA patent/SG11202105234TA/en unknown
- 2019-02-18 KR KR1020247010821A patent/KR20240052967A/ko active Search and Examination
- 2019-02-18 KR KR1020227026195A patent/KR102654354B1/ko active IP Right Grant
- 2019-02-18 EP EP19710283.3A patent/EP3756363A1/de active Pending
- 2019-02-18 CA CA3091529A patent/CA3091529A1/en active Pending
-
2020
- 2020-08-11 US US16/990,835 patent/US20200374649A1/en active Pending
-
2023
- 2023-01-13 JP JP2023004163A patent/JP2023055736A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010511912A (ja) * | 2006-12-07 | 2010-04-15 | エルジー エレクトロニクス インコーポレイティド | オーディオ処理方法及び装置 |
US20130114819A1 (en) * | 2010-06-25 | 2013-05-09 | Iosono Gmbh | Apparatus for changing an audio scene and an apparatus for generating a directional function |
Non-Patent Citations (3)
Title |
---|
"AUDIOBIFS: DESCRIBING AUDIO SCENES WITH THE MPEG-4 MULTIMEDIA STANDARD", IEEE TRANSACTIONS ON MULTIMEDIA, vol. 1, no. 3, JPN6021043807, September 1999 (1999-09-01), pages 237 - 250, ISSN: 0004873224 * |
"Panoramix: 3D mixing and post-production workstation", 42ND INTERNATIONAL COMPUTER MUSIC CONFERENCE (ICMC) 2016, JPN6021043805, September 2016 (2016-09-01), pages 122 - 127, ISSN: 0004873222 * |
SPATIAL AUDIO WORKSTATION USER MANUAL, vol. Version 2.4.0, JPN7021004704, 31 July 2017 (2017-07-31), pages 1 - 50, ISSN: 0004873223 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023062865A1 (ja) * | 2021-10-15 | 2023-04-20 | ソニーグループ株式会社 | 情報処理装置および方法、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7277475B2 (ja) | 2023-05-19 |
KR102654354B1 (ko) | 2024-04-03 |
DE102018206025A1 (de) | 2019-08-22 |
US20200374649A1 (en) | 2020-11-26 |
SG11202105234TA (en) | 2021-06-29 |
EP3756363A1 (de) | 2020-12-30 |
WO2019158750A1 (de) | 2019-08-22 |
CA3091529A1 (en) | 2019-08-22 |
KR20220108218A (ko) | 2022-08-02 |
KR20240052967A (ko) | 2024-04-23 |
KR20200120734A (ko) | 2020-10-21 |
KR102427809B1 (ko) | 2022-08-01 |
JP2023055736A (ja) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7277475B2 (ja) | オブジェクトベースの空間オーディオマスタリングのための装置および方法 | |
JP6055576B2 (ja) | 任意のスピーカー・レイアウトへのオーディオ・オブジェクトのパン | |
CN106463128B (zh) | 屏幕相关的音频对象重映射的设备和方法 | |
CN109068263B (zh) | 使用元数据处理的耳机的双耳呈现 | |
CN109891503B (zh) | 声学场景回放方法和装置 | |
JP5973058B2 (ja) | レイアウト及びフォーマットに依存しない3dオーディオ再生のための方法及び装置 | |
US20170098452A1 (en) | Method and system for audio processing of dialog, music, effect and height objects | |
EP3020042B1 (en) | Processing of time-varying metadata for lossless resampling | |
US9813837B2 (en) | Screen-relative rendering of audio and encoding and decoding of audio for such rendering | |
JP2007501553A (ja) | オーディオシーンでのオーディオ表現を生成し、保存し、編集するための装置および方法 | |
KR20130101584A (ko) | 오디오 신을 변환하기 위한 장치 및 방향 함수를 발생시키기 위한 장치 | |
KR20220044973A (ko) | 다중-층 묘사를 이용하여 증강된 음장 묘사 또는 수정된 음장 묘사를 생성하기 위한 개념 | |
US20240089694A1 (en) | A Method and Apparatus for Fusion of Virtual Scene Description and Listener Space Description | |
TW202105164A (zh) | 用於低頻率效應之音訊呈現 | |
WO2023083876A2 (en) | Renderers, decoders, encoders, methods and bitstreams using spatially extended sound sources | |
WO2020044244A1 (en) | System for and method of controlling a three-dimensional audio engine | |
JP2023066402A (ja) | アコースティック環境間のオーディオ遷移のための方法および装置 | |
CN114128312A (zh) | 用于低频效果的音频渲染 | |
KR20160113035A (ko) | 음상 외재화에서 3차원 사운드 이미지를 재생하는 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220509 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230113 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230116 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230207 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7277475 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |