KR20080082916A - 오디오 신호 처리 방법 및 이의 장치 - Google Patents

오디오 신호 처리 방법 및 이의 장치 Download PDF

Info

Publication number
KR20080082916A
KR20080082916A KR1020080021120A KR20080021120A KR20080082916A KR 20080082916 A KR20080082916 A KR 20080082916A KR 1020080021120 A KR1020080021120 A KR 1020080021120A KR 20080021120 A KR20080021120 A KR 20080021120A KR 20080082916 A KR20080082916 A KR 20080082916A
Authority
KR
South Korea
Prior art keywords
information
signal
downmix
preset
blind
Prior art date
Application number
KR1020080021120A
Other languages
English (en)
Inventor
정양원
오현오
크리스토프 폴러
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2008/001313 priority Critical patent/WO2008111771A1/en
Priority to JP2009553513A priority patent/JP5001384B2/ja
Priority to US12/530,615 priority patent/US8594817B2/en
Priority to PCT/KR2008/001312 priority patent/WO2008111770A1/en
Priority to CA2680328A priority patent/CA2680328C/en
Priority to AU2008225321A priority patent/AU2008225321B2/en
Priority to US12/530,604 priority patent/US8359113B2/en
Priority to AT08723349T priority patent/ATE519197T1/de
Priority to CN200880014564.3A priority patent/CN101675471B/zh
Priority to MX2009009651A priority patent/MX2009009651A/es
Priority to EP08723349A priority patent/EP2140450B1/en
Priority to BRPI0808654-0A priority patent/BRPI0808654A2/pt
Publication of KR20080082916A publication Critical patent/KR20080082916A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Stereophonic System (AREA)
  • Circuits Of Receivers In General (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

본 발명은 오브젝트 신호를 포함하는 다운믹스 신호를 수신하는 단계; 상기 다운믹스 신호를 주파수 밴드별로 변환하는 단계; 상기 변환된 다운믹스 신호로부터 오브젝트 신호의 위치를 결정하는 단계; 및 상기 위치에 대응하는 오브젝트 신호의 레벨을 추정하여 블라인드 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 오디오 신호 처리 방법이 개시된다.
본 발명의 오디오 신호 처리 방법에 따르면, 오브젝트 정보를 생성하지 못하는 인코더를 이용하는 경우에도 블라인드 정보를 생성하여 이용함으로써, 오브젝트의 게인과 패닝을 컨트롤할 수 있다.
Figure P1020080021120
프리셋 정보, 블라인드 정보, 오디오.

Description

오디오 신호 처리 방법 및 이의 장치{A METHOD AND AN APPARATUS FOR PROCESSING AN AUDIO SIGNAL}
본 발명은 오디오 신호의 처리 방법 및 장치에 관한 것으로, 보다 상세하게는 디지털 매체, 방송 신호 등으로 수신된 오디오 신호를 처리할 수 있는 오디오 신호의 처리 방법 및 장치에 관한 것이다.
다수 개의 오브젝트를 포함하는 오디오 신호를, 모노 또는 스트레오 신호로 다운믹스하는 과정에 있어서, 각각의 오브젝트 신호로부터 파라미터들이 추출된다. 이러한 파라미터들은 디코더에서 사용되는데, 각각의 오브젝트들의 패닝(panning)과 게인(gain)은 유저의 선택에 의하여 컨트롤 될 수 있다.
각각의 오브젝트 시그널을 제어하기 위하여는, 다운믹스에 포함되어 있는 각각의 소스들이 사용자의 선택에 의하여 적절히 포지셔닝 또는 패닝되어야 한다. 그러나, 사용자에 의하여 오브젝트를 제어하는 경우, 모든 오브젝트 신호를 제어하여야 하는 번거로움이 있고, 전문가에 의하여 제어되는 것에 비하여 다수 개의 오브젝트를 포함하는 오디오 신호의 최적의 상태를 재현하는데 어려움이 있을 수 있다.
또한, 오브젝트 신호를 복원하기 위한 오브젝트 정보를 인코더로부터 전송받지 아니하는 경우, 다운믹스 신호에 포함된 오브젝트 신호를 제어하는 것이 어려울 수 있다.
따라서, 본 발명은 이루고자 하는 기술적 과제는, 기 설정된 프리셋 정보를 이용하여 오브젝트의 게인과 패닝을 컨트롤할 수 있는 오디오 신호 처리 방법 및 장치를 제공하는 데 그 목적이 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 기 설정된 프리셋 정보를 오디오 신호와 별도로 전송 또는 저장할 수 있는 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 사용자의 선택을 기반으로 기 설정된 다수 개의 프리셋 정보들 중 하나를 선택하여 오브젝트의 게인과 패닝을 컨트롤할 수 있는 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 외부로부터 입력되는 사용자 프리셋 정보를 이용하여 오브젝트의 게인과 패닝을 컨트롤할 수 있는 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 인코더로부터 오브젝트 정보를 전송받지 아니하는 경우, 다운믹스 신호를 이용하여 블라인드 정보를 생성하여, 오디오 신호를 제어할 수 있는 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.
상기 기술적 과제를 달성하기 위한 본 발명의 일실시예에 따른 오디오 신호 처리 방법은 다운믹스 신호, 오브젝트 정보, 및 프리셋 정보를 수신하는 단계; 상기 오브젝트 정보 및 프리셋 정보를 이용하여 다운믹스 처리 정보를 생성하는 단계; 상기 다운믹스 처리 정보를 이용하여 상기 다운믹스 신호를 처리하는 단계; 및 상기 오브젝트 정보 및 프리셋 정보를 이용하여 멀티채널 정보를 생성하는 단계를 포함하고, 상기 오브젝트 정보는 오브젝트 레벨 정보, 오브젝트 연관 정보, 및 오브젝트 게인 정보 중 어느 하나 이상을 포함하고, 상기 오브젝트 레벨 정보는 상기 오브젝트 레벨 중 하나를 이용하여 오브젝트에 대응하는 오브젝트 레벨을 정규화함으로써 생성되고, 상기 오브젝트 연관 정보는 두개의 선택된 오브젝트들의 조합으로부터 생성되며, 상기 오브젝트 게인 정보는 다운믹스 신호를 생성하기 위하여, 각각의 다운믹스 신호의 채널에 대한 오브젝트의 기여도를 결정하는 것이고, 상기 프리셋 정보는 비트스트림으로부터 추출된 것을 포함한다.
또한, 상기 기술적 과제를 달성하기 위한 본 발명의 다른 일실시예에 따른 오디오 신호 처리 방법은 오브젝트 신호를 포함하는 다운믹스 신호를 수신하는 단계; 상기 다운믹스 신호를 주파수 밴드별로 변환하는 단계; 상기 변환된 다운믹스 신호로부터 오브젝트 신호의 위치를 결정하는 단계; 및 상기 위치에 대응하는 오브젝트 신호의 레벨을 추정하여 블라인드 정보를 결정하는 단계를 포함한다.
본 발명은 다음과 같은 효과와 이점을 제공한다.
우선, 각각의 오브젝트에 대한 사용자의 설정없이, 기 설정된 프리셋 정보를 이용하여 손쉽게 오브젝트의 게인과 패닝을 컨트롤 할 수 있다.
둘째, 사용자의 선택을 기반으로 변경된 프리셋 정보를 이용하여 오브젝트의 게인과 패닝을 컨트롤할 수 있다.
셋째, 기 설정된 다수 개의 프리셋 정보를 이용하여, 사용자의 취향에 따라 쉽게 오브젝트의 게인과 패닝을 컨트롤 할 수 있다..
넷째, 외부로부터 입력되는 사용자 프리셋 정보를 이용함으로써, 다양한 프리셋 정보를 이용하여 오브젝트의 게인과 패닝을 컨트롤할 수 있다.
다섯째, 블라인드 정보를 이용함으로써, 오브젝트 정보를 생성하지 못하는 인코더를 이용하는 경우에도 오브젝트의 게인과 패닝을 컨트롤할 수 있다.
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.  이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
특히, 본 명세서에서 정보(information)란, 값(values), 파라미터(parameters), 계수(coefficients), 성분(elements) 등을 모두 아우르는 용어로 서, 경우에 따라 그 의미는 달리 해석될 수 있는 바, 그러나 본 발명은 이에 한정되지 아니한다.
도 1은 본 발명의 실시예에 따른 오디오 신호 처리 장치(100)의 구성을 보여주는 도면이다. 도 1을 참조하면, 우선, 본 발명의 실시예에 따른 오디오 신호 처리 장치(100)는 정보 생성 유닛(110), 다운믹스 프로세싱 유닛(120), 멀티채널 디코더(130)를 포함한다.
정보 생성 유닛(information generating unit)(110)은 오브젝트 정보(object information)(OI) 및 프리셋 정보(preset information)(PI)를 오디오 신호 비트스트림으로부터 수신한다. 여기서, 오브젝트 정보(OI)는 다운믹스 신호(downmix signal)(DMX) 내에 포함되어 있는 오브젝트들에 관한 정보로서, 오브젝트 레벨 정보(object level information), 오브젝트 상관 정보(object correlation information), 오브젝트 게인 정보(object gain information) 등을 포함할 수 있다. 상기 오브젝트 레벨 정보(object level information)는 참조 정보(reference information)을 이용하여 오브젝트 레벨을 정규화함으로써 생성된 것으로, 상기 참조 정보(reference information)는 오브젝트 레벨 중 하나일 수 있으며, 상세하게는, 모든 오브젝트 레벨 중 가장 큰 레벨일 수 있다. 상기 오브젝트 상관 정보(object correlation information)는 두 개의 오브젝트간의 연관성을 나타내는 것으로, 선택된 두 개의 오브젝트가 동일한 기원(origin)을 갖는 스테레오 출력의 각기 다른 채널의 신호임을 나타낸다. 상기 오브젝트 게인 정보(object gain information)는 다운믹스 신호(DMX)를 생성하기 위하여, 각각의 다운믹스 신호의 채널에 대한 오브젝트의 기여도에 관한 값을 나타내며, 상세하게는 오브젝트의 기여도를 변형시키기 위한 값을 나타낸다.
상기 프리셋 정보(preset information)(PI)는, 프리셋 위치 정보(preset position information), 프리셋 게인 정보(preset gain information), 및 재생 환경 정보(playback configuration information) 등을 근거로 생성된 정보로서, 비트스트림으로부터 추출된 것이다.
상기 프리셋 위치 정보(preset position information)란, 각각의 오브젝트의 위치 또는 패닝(panning)을 제어하기 위하여 설정된 정보이고, 상기 프리셋 게인 정보(preset gain information)는 각각의 오브젝트의 게인을 제어하기 위하여 설정된 정보로, 오브젝트별 게인 팩터를 포함하며, 상기 오브젝트별 게인 팩터는 시간에 따라 변화할 수 있다. 상기 오브젝트별 게인 팩터는 시점 정보, 상기 시점에서의 게인 팩터, 종점 정보, 및 상기 종점에서의 게인 팩터를 포함할 수 있다.
또한, 재생 환경 정보(playback configuration information)는 스피커의 개수, 스피커의 위치, 앰비언트 정보(speaker의 가상 위치) 등을 포함하는 정보이다. 상기 프리셋 정보는, 시점 정보, 상기 시점에서의 게인 팩터, 종점 정보, 및 상기 종점에서의 게인 팩터를 포함하는 것을 특징으로 하는 오디오 신호의 처리 방법.
상기 프리셋 정보(PI)는, 오디오 신호에 대하여 특정의 음장감 또는 효과를 얻기 위하여, 특정 모드에 해당하는 오브젝트 위치 정보, 오브젝트 게인 정보, 및 재생 환경 정보를 기 설정한 것을 지칭한다. 예를 들어, 프리셋 정보 중 가라오케 모드(karaoke mode)는 보컬 오브젝트의 게인을 '0'으로 만드는 프리셋 게인 정보가 포함될 수 있고, 스타디움 모드(stadium mode)는 오디오 신호가 넓은 공간안에 있는 효과를 부여하기 위한 프리셋 위치 정보 및 프리셋 게인 정보를 포함할 수 있다. 본 발명에 따른 오디오 신호의 처리 장치는 사용자가 각각의 오브젝트의 게인 또는 패닝을 조절할 필요 없이, 기 설정된 프리셋 정보(PI) 중 원하는 모드를 선택함으로써 손쉽게 오브젝트의 게인 또는 패닝을 조절할 수 있다.
또한, 정보 생성 유닛(110)은 프리셋 정보에 대한 메타 정보(meta information)(MTI)(미도시)을 더 수신할 수 있으며, 상기 메타 정보(MTI)는 프리셋 정보에 대응하는 것으로, 프리셋 정보(PI)명, 제작자명 등을 포함할 수 있다. 또한, 프리셋 정보(PI)가 두 개 이상인 경우에는, 각각의 프리셋 정보(PI)에 대한 메타 정보(MTI)가 포함될 수 있으며, 인덱스 형태로 표현될 수 있다. 또한, 메타 정보(MTI)는 사용자 인터페이스 등에 의하여 현시되어 사용자로 하여금 선택명령을 입력받아 이용될 수 있다.
정보 생성 유닛(110)은 상기 오브젝트 정보(OI) 및 프리셋 정보(PI)를 이용하여, 멀티채널 정보(multi-channel information)(MI)를 생성한다. 상기 멀티채널 정보(MI)는 다운믹스 신호(DMX)을 업믹싱하기 위한 것으로, 채널 레벨 정보(channel level information) 및 채널 상관 정보(channel correlation information)을 포함할 수 있다. 또한, 상기 정보 생성 유닛(110)은 오브젝트 정보(OI) 및 프리셋 정보(PI)를 이용하여 다운믹스 프로세싱 정보(downmix processing information)(DPI)를 생성할 수 있다.
다운믹스 프로세싱 유닛(120)은 다운믹스 신호(DMX)를 수신하고, 다운믹스 프로세싱 정보(DPI)를 이용하여 다운믹스 신호(DMX)를 프로세싱한다. 상기 다운믹스 프로세싱 정보(DPI)는 다운믹스 신호(DMX)에 포함된 각각의 오브젝트 신호의 패닝 또는 게인을 조절하기 위하여 다운믹스 신호(DMX)를 프로세싱할 수 있다.
멀티채널 디코더(multi-channel decoder)(130)는 다운믹스 프로세싱 유닛(120)으로부터 프로세싱된 다운믹스(processed downmix)(PDMX)를 수신하고, 상기 정보 생성 유닛(110)으로부터 생성된 멀티채널 정보(MI)를 이용하여 프로세싱된 다운믹스 신호(PDMX)를 업믹싱하여 멀티채널 신호(multi-channel signal)를 생성한다.
도 2a 및 도 2b는 본 발명의 실시예에 따른 오디오 신호의 처리 장치에 전송되는 비트스트림의 구성을 나타내는 일 예이다. 일반적으로, 도 2a에 나타난 바와 같이, 인코더로부터 전송되는 비트스트림은 다운믹스 신호(Mixed_Obj BS), 오브젝트 정보(Obj_infoRef_Mix_Para BS), 및 프리셋 정보(Preset_InfoUser_Mix_Para _BS)를 포함하는 통합된 단일의 비트스트림으로, 상기 오브젝트 정보 및 프리셋 정보는 상기 다운믹스 신호 비트스트림의 부가영역에 저장될 수 있다. 그러나, 도 2b를 참조하면, 본 발명의 일실시예에 따른 비트스트림은 여러형태로 독립적인 비트열로 저장 및 전송될 수 있다. 예를 들어, 다운믹스 신호(Mixed_Obj_BS)는 제 1 비트스트림(202) 에서 전송될 수 있고, 오브젝트 정보(Ref_Mix_Para_BSObj_Info BS), 및 프리셋 정보(User_Mix_Para_BSPreset_Info BS)는 제 2 비트스트림(204) 으로 전송될 수 있다. 다른 일실시예에서는, 다운믹스 신호(Mixed_Obj_BS) 및 오브젝트 정보(Ref_Mix_Para_BSObj_Info BS)는 제 1 비트스트림(206) 에서 전송되고, 프리셋 정보(User_Mix_Para_BSPreset_Info BS)만이 별도의 제 2 비트스트림(208) 으로 전송될 수 있다. 또한, 다른 실시예에서는, 다운믹스 신호(Mixed_Obj_BS), 오브젝트 정보(Ref_Mix_Para_BSObj_Info BS), 및 프리셋 정보(User_Mix_Para_BSPreset_Info BS)는 별개의 세개의 비트스트림(210, 212, 214)으로 전송될 수 있다.
이러한 제 1 비트스트림 및 제 2 비트스트림 또는 별개의 비트스트림들은 동일하거나 다른 비트율로 전송될 수 있으며, 특히 프리셋 정보(User_Mix_Para_BSPreset_Info BS)(PI)의 경우 오디오 신호의 복원 후, 다운믹스 신호(Mixed_Obj_BS)(DMX) 또는 오브젝트 정보(Obj_Info BS)(OI)와 별도로 분리되어 저장하거나 전송될 수 있다.
또한, 본 발명에 따른 오디오 신호의 처리 장치는, 인코더로부터 전송받은 프리셋 정보(PI) 이외에 유저로부터 사용자 제어 정보(user control information)(UCI)을 수신받아 오브젝트 신호의 게인 또는 패닝을 조절할 수 있다.
도 3 는 본 발명의 실시예에 따른 오디오 신호 처리 장치 중 정보 생성 유닛(110)의 세부 구성도를 나타낸 일 예이다. 도 3 을 참조하면, 정보 생성 유닛(110)은 정보 송수신부(310), 프리셋 정보 수신부(330), 및 정보 생성부(340)를 포함하며, 및 사용자 제어 정보(UCI)를 수신받는 사용자 인터페이스(User Interface, 320)를 포함한다.
정보 송수신부(310)는 인코더에서 전송된 비트스트림으로부터 오브젝트 정보(OI) 및 프리셋 정보(PI)을 수신한다. 한편, 사용자 인터페이스(320)는 사용자 로부터 별개의 사용자 제어 정보(UCI)를 수신받을 수 있으며, 상기 사용자 제어 정보(UCI)는 사용자 프리셋 정보(UPI)을 포함할 수 있다.
사용자 인터페이스(320)는 사용자 제어 정보(UCI)를 수신받으며, 이는 인코더로부터 입력된 프리셋 정보(PI)를 이용할지 여부를 선택한다. 또한, 프리셋 정보 수신부(330)는 인코더으로부터 전송된 프리셋 정보(PI) 또는 사용자로부터 수신된 사용자 프리셋 정보(UPI)를 수신받는다. 만일 상기 사용자 제어 정보(UCI)로부터 상기 프리셋 정보(PI)을 이용하지 않도록 선택되는 경우, 사용자 프리셋 정보(UPI)가 선택되어 상기 프리셋 정보 수신부(330)에 입력되어 이용된다.
정보 생성부(340)는 프리셋 정보 수신부(330)에서 수신받은 프리셋 정보(PI) 또는 사용자 프리셋 정보(UPI), 및 정보 송수신부(310)로부터 수신받은 오브젝트 정보(OI)를 이용하여 멀티채널 정보(MI)를 생성할 수 있다.
도 4 는 도 3 의 정보 생성 유닛(110)을 포함하는 오디오 신호의 처리 장치의 비트스트림 인터페이스를 나타내는 개략도이다. 본 발명의 일실시예에 따르면, 디코더 (410) 에 입력되는 비트스트림은 다운믹스 신호(DMX), 오브젝트 정보(OI), 프리셋 정보(PI), 및 사용자 프리셋 정보(UPI)를 포함한다. 또한, 디코더 (410) 로부터 출력되는 비트스트림은 멀티채널 신호(MI) 및 사용자 프리셋 정보(UPI)을 포함할 수 있다. 상기 사용자 프리셋 정보는 디코더(410)로부터 출력되어, 메모리(420) 에 별개로 저장되어 재이용될 수 있다.
이하에서는, 도 5 내지 도 7을 참조하여, 사용자 인터페이스로부터 입력된 사용자 제어 정보(UCI)을 이용하여 인코더로부터 전송된 프리셋 정보(PI)의 일부만 이 변형된 변형 프리셋 정보(MPI)을 이용하여 멀티 채널 정보(MI)를 생성하는 과정에 관하어 구체적으로 설명하고자 한다.
도 5는 본 발명의 실시예에 따른 오디오 신호 처리 장치 중 정보 생성 유닛(110)의 세부 구성도를 나타낸 일 예이고, 도 6 는 도 5 의 정보 생성 유닛(110)을 포함하는 오디오 신호의 처리 장치의 비트스트림 인터페이스를 나타내는 개략도이며, 도 7 은 도 5 의 정보 생성 유닛을 포함하는 오디오 신호 처리 장치의 사용자 인터페이스(User Interface)를 나타내는 것이다. 이하, 도 5 내지 도 7 을 함께 참조하여, 각 구성요소 및 각 단계에 대하여 구체적으로 설명한다.
먼저, 도 5 를 참조하면, 도 3 및 도 4 에 나타난 바와 같이, 사용자 제어 정보(UCI)가 입력됨에 따라, 인코더로부터 전송된 프리셋 정보(PI)를 배제하고 상기 사용자 제어 정보(UCI)에 포함된 사용자 프리셋 정보(UPI)를 이용하여 다운믹스 프로세싱 정보(DPI) 및 멀티채널 정보(MI)를 생성할 수 있다. 그러나, 도 5 에 나타난 바와 같이, 사용자 제어 정보(UCI)는 인코더로부터 전송된 프리셋 정보(PI)의 일부만을 변형하여 변형 프리셋 정보(MPI)를 생성할 수 있다.
도 5 에 나타난 바와 같이, 정보 생성 유닛(110)은 정보 송수신부(510), 프리셋 정보 변형부(530), 및 정보 생성부(540)를 포함하며, 사용자 제어 정보를 수신받는 사용자 인터페이스(520)를 포함한다.
정보 송수신부(510)는 인코더에서 전송된 비트스트림으로부터 오브젝트 정보(OI) 및 프리셋 정보(PI)을 수신한다. 한편, 사용자 인터페이스(520)는 사용자로 하여 각 오브젝트의 게인 또는 패닝을 제어할 수 있도록 상기 프리셋 정보(PI) 를 화면에 표시한다.
프리셋 정보 변형부(530)는 정보 송수신부(510)로부터 프리셋 정보(PI)를 수신받고, 사용자 인터페이스(520)로부터 입력된 사용자 제어 정보(UCI)를 이용하여 변형 프리셋 정보(MPI)를 생성할 수 있다. 상기 변형 프리셋 정보(MPI)는 전체 오브젝트에 관한 것이 아닐 수 있으며, 일부 오브젝트에 관한 것인 경우에는 변형의 대상이 아닌 오브젝트에 관한 프리셋 정보는 변형되지 않고 유지될 수 있다.
정보 생성부(540)는 프리셋 정보 변형부(530)에서 수신받은 변형 프리셋 정보(MPI) 및 정보 송수신부(510)로부터 수신받은 오브젝트 정보(OI)를 이용하여 멀티채널 정보(MI)를 생성할 수 있다.
도 6 는 도 5 의 정보 생성 유닛(110)을 포함하는 오디오 신호의 처리 장치의 비트스트림 인터페이스를 나타내는 개략도이다. 본 발명의 일실시예에 따르면, 디코더 (610) 에 입력되는 비트스트림은 다운믹스 신호(DMX), 오브젝트 정보(OI), 프리셋 정보(PI), 및 사용자 제어 정보(UCI)를 포함한다. 또한, 디코더 (610) 로부터 출력되는 비트스트림은 사용자 제어 정보(UCI), 변형 프리셋 정보(MPI), 및 멀티채널 신호(MI)를 포함할 수 있다. 상기 사용자 제어 정보(UCI) 및 변형 프리셋 정보(MPI)는 디코더(610)로부터 출력되어, 메모리(620) 에 별개로 저장되어 재이용될 수 있다.
도 7을 참조하면, 인코더로부터 전송된 상기 프리셋 정보(PI)는 사용자 인터페이스(UI)에 각 오브젝트에 해당하는 인덱스(예를 들어, 오브젝트명, 기호 및 기호에 해당하는 테이블)와 함께 음량 조절기 또는 스위치의 형태로 표시할 수 있다. 또한, 사용자 인터페이스(UI)의 화면부는 사용자 제어 정보(UCI)에 의하여 프리셋 정보(PI)가 변형됨에 따라, 변형 프리셋 정보(MPI)에 해당하는 오브젝트별로 프리셋 정보의 변형을 표시할 수 있다. 또한, 제공되는 프리셋 정보(PI)로 표현되는 모드가 다수인 경우, 사용자 인터페이스(UI)는 설정된 다수개의 프리셋 정보(PI)와 관련된 모드 정보를 화면부에 표시하고, 사용자가 선택함에 따라 해당되는 모드의 프리셋 정보(PI)를 도 7과 같이 표시할 수 있다.
도 8 은 본 발명의 다른 실시예에 따른 오디오 신호의 처리 장치의 비트스트림 인터페이스를 나타내는 개략도이다. 도 5 의 정보 생성 유닛을 포함하는 디코더 1(810) 은 다운믹스 신호(DMX), 오브젝트 정보(OI), 프리셋 정보(PI), 및 사용자 제어 정보(UCI)를 입력받아, 멀티채널 신호(MI), 사용자 제어 정보(UCI), 및 변형 프리셋 정보(MPI)를 출력할 수 있다. 상기 사용자 제어 정보(UCI)와 변형 프리셋 정보(MPI)는 메모리(820)에 별개로 저장될 수 있으며, 다른 디코더 2(830)에 상기 변형 프리셋 정보(MPI)에 대응되는 다운믹스 신호(DMX) 및 오브젝트 정보(PI)가 입력될 수 있다. 이러한 경우, 메모리(820)에 저장된 변형 프리셋 정보(MPI)를 이용하여, 디코더 2(830)는 상기 디코더 1(810)에서 생성된 멀티채널 신호(multi-channel signal)와 동일한 멀티채널 신호를 생성할 수 있다.
상기 변형 프리셋 정보(MPI)는 프레임별로 다른 값을 가질 수 있으며, 하나의 곡에 대하여 공통적인 값을 가질 수 있고, 특징 또는 제작자를 기재하는 메타 정보를 포함할 수 있다. 또한, 멀티채널 신호(multi-channel signal)와 별개로 저장 또는 전송됨으로써, 상기 변형 프리셋 정보(MPI)만을 합법적으로 공유할 수 있 게 된다.
본 발명의 다른 실시예에 따른 오디오 신호의 처리 장치는 다수 개의 프리셋 정보(PI)를 포함할 수 있으며, 이하에서 도 9 를 참조하여, 멀티채널 정보(MI)를 생성하는 과정에 대하여 구체적으로 설명한다.
도 9 는 본 발명의 실시예에 따른 오디오 신호 처리 장치 중 정보 생성 유닛(110)의 세부 구성도를 나타내는 일 예이다. 도 9 를 참조하면, 정보 생성 유닛(110)은 정보 송수신부(910), 프리셋 정보 결정부(930), 및 정보 생성부(940)를 포함하고, 사용자 제어 정보(UCI)를 수신할 수 있는 사용자 인터페이스(920)를 포함한다.
정보 송수신부(910)는 인코더에서 전송된 비트스트림으로부터 오브젝트 정보(OI) 및 프리셋 정보들(PI_n)을 수신한다. 상기 프리셋 정보(PI)들은 다수 개의 프리셋 모드(preset mode)로 구성될 수 있으며, 예를 들어, 가라오케 모드, R&B 강조 모드 등일 수 있다.
한편, 사용자 인터페이스(920)는 상기 프리셋 정보들(PI_n)의 간략한 정보를 화면에 디스플레이하여 사용자에게 제공할 수 있으며, 사용자로부터 프리셋 정보를 선택하는 사용자 제어 정보(UCI)을 수신받을 수 있다.
프리셋 정보 결정부(930)는 상기 정보 송수신부(910)로부터 입력된 프리셋 정보들(PI_n) 중에서 상기 사용자 제어 정보를 이용하여 하나의 프리셋 정보(PI)를 결정할 수 있다. 예를 들어, 도 9의 프리셋 정보_1 은 가라오케 모드, 프리셋 정보_2 는 R&B 강조 모드, 프리셋 정보_3은 콘서트 모드, 프리셋 정보_4 는 어쿠스 틱(acoustic) 모드인 경우, 사용자 인터페이스(920)에 상기 각각의 프리셋 정보(PI)에 해당하는 모드명이 표시된다. 사용자가 넓은 공간에서 듣는 것과 같은 음장감을 얻고 싶은 경우, 프리셋 정보 3을 선택할 수 있다. 상기 사용자 인터페이스(920)는 사용자로부터 입력받은 프리셋 정보 3 을 선택하는 사용자 제어 정보(UCI)를 출력하고, 프리셋 정보 결정부(930)에서 상기 사용자 제어 정보(UCI)를 이용하여 선택된 프리셋_3 을 프리셋 정보(PI)로 결정하여 정보 생성부(940)로 출력한다.
정보 생성부(940)는 프리셋 정보 수신부(930)에서 수신받은 프리셋 정보(PI) 및 정보 송수신부(910)로부터 수신받은 오브젝트 정보(OI)를 이용하여 멀티채널 정보(MI)를 생성할 수 있다.
본 발명에 따른 오디오 신호의 처리 장치는 인코더로부터 전송받은 다수 개의 프리셋 정보(PI) 및 사용자로부터 선택받은 프리셋의 정보를 포함하는 사용자 제어 정보(UCI)를 이용하여, 사용자가 오브젝트의 게인 또는 패닝을 개별적으로 조절하지 아니하고, 기 설정된 최적의 프리셋 정보를 선택 및 적용함으로써 오브젝트의 게인 또는 패닝을 조절할 수 있다.
이하에서는, 인코더로부터 오브젝트 정보(OI)을 전송받지 아니하는 경우, 다수 개의 오브젝트 신호(object signal)를 포함하는 다운믹스 신호(DMX)를 디코딩하기 위한 오디오 신호의 처리 방법 및 장치에 대하여 도 10 이하에서 구체적으로 설명하고자 한다.
여기서, 블라인드 정보(blind information)(BI)란, 오브젝트 정보와 유사한 개념으로, 디코너 내부에서 인코더로부터 전송받은 다운믹스 신호(DMX)를 이용하여 다운믹스 신호에 포함된 오브젝트 신호의 레벨 및 게인 정보를 포함할 수 있고, 연관 정보 또는 메타 정보를 더 포함할 수 있다. 블라인드 정보(BI)의 생성 과정은 이하에서 자세히 설명하고자 한다.
도 10a 및 도 10b는 출력 신호의 위치 정보를 이용하여 블라인드 정보(BI)를 생성하는 오디오 신호의 처리 방법을 나타내는 개략도이다. 도 10a에 나타난 바와 같이, 스테레오 채널을 갖는 출력장치를 이용하는 경우, 청취자는 왼쪽 및 오른쪽 채널로부터 오디오 신호(DMX)를 수신한다. 만일 상기 오디오 신호가 다수개의 오브젝트 신호를 포함하는 경우에는, 각각의 오브젝트 신호는 왼쪽 또는 오른쪽 채널에 기여하는 게인 정보에 따라, 공간상에 위치하는 영역이 달라질 수 있다.
도 10b는 위치 영역에 따라 구별되는 오브젝트 신호 중 하나의 오브젝트 신호를 생성하기 위하여 각각의 스테레오 채널에서 출력되는 신호의 구성을 나타낸다. 도 10b에 있어서, 오브젝트 신호
Figure 112008016615977-PAT00001
는 게인 팩터
Figure 112008016615977-PAT00002
에 의하여 결정된 방향에 위치하는 신호를 지칭하며, 독립적인 오브젝트 신호
Figure 112008016615977-PAT00003
Figure 112008016615977-PAT00004
신호에 대한 주변 신호를 지칭한다. 또한, 상기 오브젝트 신호는 특정한 방향 정보를 가지고 스테레오 채널로 출력될 수 있으며, 상기 방향 정보는 레벨차 정보, 시간차 정보 등일 수 있다. 반면, 상기 주변 신호는 재생 환경 또는 청각적으로 느껴지는 너비 등에 의하여 결정될 수 있다. 이러한 도 10b의 스테레오 출력 신호는 오 브젝트 신호
Figure 112008016615977-PAT00005
, 주변 신호
Figure 112008016615977-PAT00006
및 오브젝트 신호의 방향을 결정하는 게인 팩터
Figure 112008016615977-PAT00007
를 이용하여 하기 수학식 1 으로 표현할 수 있다.
Figure 112008016615977-PAT00008
Figure 112008016615977-PAT00009
동시에 활성화된 다수 개의 오브젝트 신호를 포함하는 비선형적인 다운믹스 신호(DMX)를 효과적으로 분석하기 위하여는, 상기 수학식 1 을 다수 개로 분할된 주파수 밴드 및 시간 영역을 이용하여 독립적으로 분석하여야 하며, 이러한 경우 상기
Figure 112008016615977-PAT00010
은 다음과 같이 나타낼 수 있다.
Figure 112008016615977-PAT00011
Figure 112008016615977-PAT00012
상기
Figure 112008016615977-PAT00013
는 주파수 밴드 인덱스를 나타내며,
Figure 112008016615977-PAT00014
는 시간 밴드 인덱스를 나타낸다.
도 11 은 스테레오 출력 신호를 분석하는 시간-주파수 도메인을 나타내는 그래프이다. 각각의 시간-주파수 영역은 인덱스
Figure 112008016615977-PAT00015
Figure 112008016615977-PAT00016
를 포함하며, 오브젝트 신호
Figure 112008016615977-PAT00017
, 주변 신호
Figure 112008016615977-PAT00018
Figure 112008016615977-PAT00019
, 게인 펙터
Figure 112008016615977-PAT00020
는 독립적으로 추정될 수 있다. 하기에서는 주파수 밴드 인덱스
Figure 112008016615977-PAT00021
와 시간 밴드 인덱스
Figure 112008016615977-PAT00022
를 생략하고자 한다.
다운믹스 신호(DMX)의 분석을 위한 주파수 밴드의 대역폭은 특정 밴드와 동일하도록 선택될 수 있으며, 다운믹스 신호(DMX)의 특성에 따라 결정될 수 있다. 각각의 주파수 밴드에서
Figure 112008016615977-PAT00023
,
Figure 112008016615977-PAT00024
,
Figure 112008016615977-PAT00025
,
Figure 112008016615977-PAT00026
Figure 112008016615977-PAT00027
밀리초마다 추정될 수 있으며,
Figure 112008016615977-PAT00028
가 다운믹스 신호(DMX)로서 주어지는 경우, 도 11의 시간-주파수 도메인별 분석에 의하여
Figure 112008016615977-PAT00029
,
Figure 112008016615977-PAT00030
,
Figure 112008016615977-PAT00031
,
Figure 112008016615977-PAT00032
의 추정값이 결정될 수 있다.
Figure 112008016615977-PAT00033
의 파워(power)는 하기 수학식 3 과 같이 추정될 수
Figure 112008016615977-PAT00034
있다.
Figure 112008016615977-PAT00035
여기서,
Figure 112008016615977-PAT00036
은 평균을 나타낸다.
Figure 112008016615977-PAT00037
Figure 112008016615977-PAT00038
의 파워는 동일한 것으로 가정하고, 외부에서 영향을 미치는 종속적인 신호들 또한, 스테레오 채널의 왼쪽 및 오른쪽 채널에서 동일한 파워를 갖는 것으로 가정한다.
또한, 다운믹스 신호(DMX)가 시간-주파수 도메인으로 표현되는 경우, 게인 정보(
Figure 112008016615977-PAT00039
), 오브젝트 신호의 파워(
Figure 112008016615977-PAT00040
), 주변 신호의 파워(
Figure 112008016615977-PAT00041
), 및 정규화된 교차 상관 관계(normalized cross-correlation,
Figure 112008016615977-PAT00042
)를 측정할 수 있게 된다. 스테레오 채널간의 정규화된 교차 상관 관계는 하기 수학식 4와 같이 나타낼 수 있다.
Figure 112008016615977-PAT00043
Figure 112008016615977-PAT00044
는 측정된
Figure 112008016615977-PAT00045
를 이용하여 결정될 수 있다. 상기
Figure 112008016615977-PAT00046
에 관한 관계식은 다음 수학식 5와 같다.
Figure 112008016615977-PAT00047
Figure 112008016615977-PAT00048
Figure 112008016615977-PAT00049
상기 수학식 5 를
Figure 112008016615977-PAT00050
에 대하여 정리하면 하기 수학식 6 과 같다.
Figure 112008016615977-PAT00051
Figure 112008016615977-PAT00052
Figure 112008016615977-PAT00053
Figure 112008016615977-PAT00054
도 12a 및 도 12b 는 인코더로부터 전송되는 다운믹스 신호(DMX)로부터 블라인드 정보(BI)을 생성하는 과정을 나타내는 블록도 및 순서도이다. 먼저, 스테레오 채널을 갖는 다운믹스 신호(
Figure 112008016615977-PAT00055
) 는 필터뱅크 분석부(1210)에 입력되어, 각 시간-주파수 도메인별 신호(
Figure 112008016615977-PAT00056
) 로 변환된다(S1200). 상기 변환된 다운믹스 신호(
Figure 112008016615977-PAT00057
)는 게인 정보 추정부(1420)로 입력되며, 게인 정보 추정부(1420)는 변환된 다운믹스 신 호(
Figure 112008016615977-PAT00058
)를 분석하여, 오브젝트 신호의 게인 정보(
Figure 112008016615977-PAT00059
)를 추정하고(S1210), 다운믹스 출력 신호 중 오브젝트 신호의 위치를 결정한다(S1220). 이때, 상기 추정된 게인 정보(
Figure 112008016615977-PAT00060
)는 다운믹스 신호에 포함된 오브젝트 신호가 다운믹스 출력신호의 스테레오 채널에 기여하는 정도를 나타내는 것이고, 다운믹스 신호의 출력시 각각 다른 위치에 존재하는 신호는 별개의 오브젝트 신호로 판단하며, 하나의 오브젝트 신호는 하나의 게인 정보를 갖는 것으로 가정한다. 오브젝트 레벨 추정부(1230)는 상기 게인 정보 추정부(1220)에서 출력된 게인 정보(
Figure 112008016615977-PAT00061
)와 위치 정보를 이용하여, 각 위치에 대응하는 오브젝트 신호의 레벨(
Figure 112008016615977-PAT00062
)을 추정하게 되며(S1230), 블라인드 정보 생성부(1240)는 게인 정보 및 오브젝트 신호의 레벨을 이용하여 블라인드 정보(
Figure 112008016615977-PAT00063
)(BI)를 생성하게 된다(S1240).
블라인드 정보(BI)는 블라인드 상관 정보(blind correlation information)(BCI) 및 블라인드 게인 정보(blind gain information)(BGI)를 더 포함할 수 있다. 상기 블라인드 상관 정보(BCI)는 두개의 오브젝트간의 연관성을 나타내는 것이며, 추정된 게인 정보 및 오브젝트 신호의 레벨을 이용하여 생성될 수 있다.
도 13 은 본 발명의 일실시예에 따른 오디오 신호의 처리 장치를 나타내는 구성도이다. 본 발명의 실시예에 따른 오디오 신호 처리 장치는 정보 생성 유 닛(1210), 다운믹스 프로세싱 유닛(1220), 멀티채널 디코더(1230)를 포함한다. 다운믹스 프로세싱 유닛(1220) 및 멀티채널 디코더(1230)는 도 1의 다운믹스 프로세싱 유닛(120) 및 멀티채널 디코더(130)와 구성 및 역할이 동일하므로, 이하에서 설명을 생략하기로 한다.
도 13을 참조하면, 정보생성 유닛(1210)은 인코더로부터 다운믹스 신호(DMX), 오브젝트 정보(OI) 및 프리셋 정보(PI)를 입력받아, 다운믹스 프로세싱 정보(DPI) 및 멀티채널 정보(MI)을 생성하며, 크게 블라인드 정보 생성부(1211) 및 정보 생성부(1212)를 포함한다.
인코더로부터 오브젝트 정보(OI)이 전송되는 경우, 블라인드 정보 생성부(1211)는 블라인드 정보(BI)을 생성하지 아니하며, 정보 생성부(1212)는 도 1 에서 언급한 바와 같이, 전송받은 오브젝트 정보(OI)을 이용하여 다운믹스 프로세싱 정보 및 멀티채널 정보를 생성한다.
반면, 정보생성 유닛(1210)이 오브젝트 정보(OI)를 전송받지 아니하는 경우, 도 11 내지 도 12b에서 언급한 바와 같이 블라인드 정보 생성부(1211)는, 다운믹스 신호(DMX)을 전송받아 다운믹스 신호를 시간-주파수 도메인별 신호(
Figure 112008016615977-PAT00064
)로 변환하고, 변환된 다운믹스 신호로부터 별개의 위치에 존재하는 신호를 하나의 오브젝트 신호로 파악하여, 오브젝트 신호의 게인 정보(
Figure 112008016615977-PAT00065
)를 추정하고, 게인 정보(
Figure 112008016615977-PAT00066
)를 이용하여 오브젝트 신호의 레벨(
Figure 112008016615977-PAT00067
)을 추정하여 블라인드 정보(BI,
Figure 112008016615977-PAT00068
)을 생성한다.
도 14는 블라인드 정보 생성부(1211)를 포함하는 정보생성 유닛(1210)의 세부 구성도이다. 도 14를 참조하면, 정보 생성 유닛(1210)은 크게 필터뱅크(1310), 블라인드 정보 추정보(1320), 정보 생성부(1330)를 포함하며, 필터뱅크(1310)는 다운믹스 신호를 시간-주파수 도메인별 신호로 변환하여, 블라인드 정보(BI)를 생성하기 위한 분석이 가능하도록 한다. 상기 필터뱅크(1310)에 의하여 시간-주파수 도메인별 신호(
Figure 112008016615977-PAT00069
)로 변환된 다운믹스 신호(DMX)는 블라인드 정보 추정부(1320)로 입력되고, 위치 정보, 오브젝트 신호의 게인 정보(
Figure 112008016615977-PAT00070
), 및 오브젝트 신호의 레벨(
Figure 112008016615977-PAT00071
) 을 이용하여 다운믹스 신호(DMX)의 디코딩을 위한 블라인드 정보(
Figure 112008016615977-PAT00072
)를 생성한다. 한편, 정보 생성부(1330)는 상기 블라인드 정보(BI)(
Figure 112008016615977-PAT00073
) 및 프리셋 정보(PI)를 이용하여, 멀티채널 정보를 생성한다.
도 15 는 도 14 의 정보 생성 유닛을 포함하는 오디오 신호의 처리 장치의 비트스트림 인터페이스를 나타내는 개략도이다. 본 발명의 일실시예에 따르면, 디코더 (1510) 에 입력되는 비트스트림은 다운믹스 신호(DMX) 및 프리셋 정보(PI), 및 사용자 제어 정보(UCI)를 포함한다. 상기 사용자 제어 정보(UCI)는 인코더로부터 전송된 프리셋 정보(PI)를 이용하지 아니하는 대신 이용되는 사용자 프리셋 정 보(UPI) 일 수 있으며, 프리셋 정보(PI)를 일부 변형하기 위한 제어 정보(UCI)일 수 있다. 또한, 오브젝트 신호(OI)는 입력되지 아니하며, 디코더(1510) 내부에 블라인드 정보 생성부(미도시)를 포함한다. 디코더(1510) 로부터 출력되는 비트스트림은 멀티채널 신호(MI) 및 블라인드 정보(BI)을 포함할 수 있다. 상기 블라인드 정보(BI)는 디코더(1510)로부터 출력되어, 메모리(1520) 에 별개로 저장되어 재이용될 수 있다.
도 16 은 본 발명의 실시예에 따른 오디오 신호 처리 장치(1600)의 구성을 보여주는 도면이다. 도 16을 참조하면, 본 발명의 실시예에 따른 오디오 신호 처리 장치(1600)는 정보 생성 유닛(1610), 사용자 인터페이스(1620), 다운믹스 프로세싱 유닛(1630), 멀티채널 디코더(1640)를 포함한다.
정보 생성 유닛(1610)은 블라인드 정보 생성부(1612), 정보 송수신부(1614), 및 정보 생성부(1616)를 포함하며, 상기 블라인드 정보 생성부(1612)는 인코더로부터 오브젝트 정보(OI)를 전송받지 아니하는 경우, 다운믹스 신호(DMX) 를 이용하여 블라인드 정보(BI)를 생성한다. 한편, 정보 송수신부(1614)는 블라인드 정보(BI) 또는 오브젝트 정보(OI)를 입력받고, 사용자 인터페이스(1620)로부터 사용자 제어정보(UCI) 및 인코더로부터 프리셋 정보(PI)를 수신받으며, 정보생성부(1616)는 상기 정보 송수신부(1614)로부터 수신받은 프리셋 정보(PI), 사용자 제어 정보(UCI), 블라인드 정보(BI)(또는 오브젝트 정보(OI))를 이용하여 멀티채널 정보(MI) 및 다운믹스 프로세싱 정보(DPI)를 생성한다.
다운믹스 프로세싱 유닛(1630)은 인코더로부터 전송받은 다운믹스 신호(DMX) 와 정보생성 유닛으로부터 입력된 다운믹스 프로세싱 정보(DPI)를 이용하여, 프로세싱된 다운믹스(processed downmix signal)(PDMX)를 생성하고, 멀티채널 디코더(1640)는 상기 프로세싱된 다운믹스(PDMX) 및 멀티채널 정보(MI)를 이용하여 멀티채널 신호(channel_1, channel_2, ..., channel_n)를 생성한다.
이와 같이, 본 발명의 다른 실시예에 따른 오디오 신호의 처리 방법 및 장치는, 인코더로부터 오브젝트 정보(OI)를 전송받지 아니하는 경우에도, 블라인드 정보(BI)를 생성하고, 프리셋 정보(PI)를 이용하여 손쉽고 다양한 모드로 오브젝트 신호의 게인 및 패닝을 조절할 수 있다.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.
도 1 은 본 발명의 실시예에 따른 오디오 신호 장치의 구성도.
도 2a 및 도 2b 는 본 발명의 실시예에 따른 오디오 신호 처리 장치에 전송되는 비트스트림의 구성도.
도 3 는 본 발명의 실시예에 따른 오디오 신호 처리 장치 중 정보 생성 유닛의 구성도.
도 4 는 도 3 의 정보 생성 유닛을 포함하는 오디오 신호의 처리 장치의 비트스트림 인터페이스를 나타내는 개략도.
도 5는 본 발명의 다른 실시예에 따른 오디오 신호 처리 장치 중 정보 생성 유닛의 구성도.
도 6 는 도 5 의 정보 생성 유닛을 포함하는 오디오 신호의 처리 장치의 비트스트림 인터페이스를 나타내는 개략도.
도 7 은 도 5 의 정보 생성 유닛을 포함하는 오디오 신호 처리 장치의 사용자 인터페이스(User interface)의 표시부.
도 8 은 본 발명의 또다른 실시예에 따른 오디오 신호의 처리 장치의 비트스트림 인터페이스를 나타내는 개략도.
도 9 는 본 발명의 또다른 실시예에 따른 오디오 신호 처리 장치 중 정보 생성 유닛의 구성도.
도 10a 및 도 10b는 본 발명의 또다른 실시예에 따른 오디오 신호의 처리 방법의 출력 신호를 나타내는 개략도.
도 11 은 본 발명의 또다른 실시예에 따른 스테레오 출력 신호를 분석하는 시간-주파수 도메인을 나타내는 그래프.
도 12a 및 도 12b 는 본 발명의 또다른 실시예에 따른 블라인드 정보(blind information)의 생성 과정을 나타내는 블록도 및 순서도.
도 13 은 본 발명의 또다른 일실시예에 따른 오디오 신호의 처리 장치의 구성도.
도 14는 본 발명의 또다른 실시예에 따른 블라인드 정보 생성부를 포함하는 정보생성 유닛의 세부 구성도.
도 15 는 본 발명의 또다른 실시예에 따른 도 14 의 정보 생성 유닛을 포함하는 오디오 신호의 처리 장치의 비트스트림 인터페이스를 나타내는 개략도.
도 16 은 본 발명의 또다른 실시예에 따른 오디오 신호 처리 장치의 구성도.

Claims (15)

  1. 오브젝트 신호를 포함하는 다운믹스 신호를 수신하는 단계;
    상기 다운믹스 신호를 주파수 밴드별로 변환하는 단계;
    상기 변환된 다운믹스 신호로부터 오브젝트 신호의 위치를 결정하는 단계; 및
    상기 위치에 대응하는 오브젝트 신호의 레벨을 추정하여 블라인드 정보를 결정하는 단계
    를 포함하는 것을 특징으로 하는 오디오 신호 처리 방법.
  2. 제 1 항에 있어서,
    상기 오브젝트 신호의 위치를 결정하는 단계는, 상기 변환된 다운믹스 신호로부터 게인 정보를 추정하고, 상기 게인 정보를 근거로 오브젝트 신호의 위치를 결정하는 것을 특징으로 하는 오디오 신호 처리 방법.
  3. 제 1 항에 있어서,
    상기 주파수 밴드의 대역폭은 상기 다운믹스 신호에 따라 결정되는 것을 특징으로 하는 오디오 신호 처리 방법.
  4. 제 1 항에 있어서,
    상기 변환된 다운믹스 신호로부터 교차 상관 관계 정보를 추출하는 단계; 및
    상기 변환된 다운믹스 신호의 레벨을 계산하는 단계를 더 포함하는 것을 특징으로 하는 오디오 신호 처리 방법.
  5. 제 4 항에 있어서,
    상기 게인 정보는 시간에 따라 변화하는 것을 특징으로 하는 오디오 신호 처리 방법.
  6. 제 4 항에 있어서,
    상기 게인 정보는 주파수별로 변화하는 것을 특징으로 하는 오디오 신호의 처리 방법.
  7. 제 1 항에 있어서,
    상기 게인 정보는 주파수 밴드별로 추정되는 것을 특징으로 하는 오디오 신호 처리 방법.
  8. 제 1 항에 있어서,
    상기 블라인드 정보를 결정하는 단계는,
    상기 게인 정보 및 오브젝트 신호의 레벨을 이용하여 블라인드 상관 정보를 생성하는 단계를 더 포함하는 것을 특징으로 하는 오디오 신호 처리 방법.
  9. 제 1 항에 있어서,
    상기 생성된 블라인드 정보를 출력하는 단계; 및
    상기 블라인드 정보를 저장하는 단계를 더 포함하는 것을 특징으로 하는 오디오 신호의 처리 방법.
  10. 제 1 항에 있어서,
    상기 주파수 밴드별로 변환하는 단계는, 오브젝트 정보를 수신하는 경우에는 실행되지 아니하는 것을 특징으로 하는 오디오 신호 처리 방법.
  11. 제 1 항에 있어서,
    프리셋 정보를 수신하는 단계;
    상기 블라인드 정보 및 프리셋 정보를 이용하여 다운믹스 처리 정보를 생성하는 단계;
    상기 다운믹스 처리 정보를 이용하여 상기 다운믹스 신호를 처리하는 단계; 및
    상기 다운믹스 정보 및 프리셋 정보를 이용하여 멀티채널 정보를 생성하는 단계를 더 포함하는 것을 특징으로 하는 오디오 신호 처리 방법.
  12. 제 1 항에 있어서,
    상기 다운믹스 정보는 방송 신호를 통해 수신된 것을 특징으로 하는 오디오 신호 처리 방법.
  13. 제 1 항에 있어서,
    상기 다운믹스 정보는 디지털 매체를 통해 수신된 것을 특징으로 하는 오디오 신호 처리 방법.
  14. 제 1 항에 기재된 단계를 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체.
  15. 다운믹스 정보를 수신하여 주파수 밴드별 신호로 변환하는 필터뱅크부;
    상기 변환된 주파수 밴드별 신호로부터 블라인드 정보를 추정하는 블라인드 정보 추정부;
    프리셋 정보, 및 상기 블라인드 정보를 수신하는 정보 송수신부; 및
    상기 프리셋 정보, 및 블라인드 정보를 이용하여, 다운믹스 프로세싱 정보 및 멀티채널 정보를 생성하는 정보 생성부
    를 포함하는 것을 특징으로 하는 오디오 신호 처리 장치.
KR1020080021120A 2007-03-09 2008-03-06 오디오 신호 처리 방법 및 이의 장치 KR20080082916A (ko)

Priority Applications (12)

Application Number Priority Date Filing Date Title
PCT/KR2008/001313 WO2008111771A1 (en) 2007-03-09 2008-03-07 A method and an apparatus for processing an audio signal
JP2009553513A JP5001384B2 (ja) 2007-03-09 2008-03-07 オーディオ信号の処理方法及び装置
US12/530,615 US8594817B2 (en) 2007-03-09 2008-03-07 Method and an apparatus for processing an audio signal
PCT/KR2008/001312 WO2008111770A1 (en) 2007-03-09 2008-03-07 A method and an apparatus for processing an audio signal
CA2680328A CA2680328C (en) 2007-03-09 2008-03-07 A method and an apparatus for processing an audio signal
AU2008225321A AU2008225321B2 (en) 2007-03-09 2008-03-07 A method and an apparatus for processing an audio signal
US12/530,604 US8359113B2 (en) 2007-03-09 2008-03-07 Method and an apparatus for processing an audio signal
AT08723349T ATE519197T1 (de) 2007-03-09 2008-03-07 Verfahren und vorrichtung zum verarbeiten eines audiosignals
CN200880014564.3A CN101675471B (zh) 2007-03-09 2008-03-07 用于处理音频信号的方法和装置
MX2009009651A MX2009009651A (es) 2007-03-09 2008-03-07 Un metodo y un aparato para procesar una señal de audio.
EP08723349A EP2140450B1 (en) 2007-03-09 2008-03-07 A method and an apparatus for processing an audio signal
BRPI0808654-0A BRPI0808654A2 (pt) 2007-03-09 2008-03-07 Método e aparelho para processar um sinal de áudio.

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US89416207P 2007-03-09 2007-03-09
US60/894,162 2007-03-09
US94296707P 2007-06-08 2007-06-08
US60/942,967 2007-06-08
US94326807P 2007-06-11 2007-06-11
US60/943,268 2007-06-11

Publications (1)

Publication Number Publication Date
KR20080082916A true KR20080082916A (ko) 2008-09-12

Family

ID=40022030

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020080021121A KR20080082917A (ko) 2007-03-09 2008-03-06 오디오 신호 처리 방법 및 이의 장치
KR1020080021120A KR20080082916A (ko) 2007-03-09 2008-03-06 오디오 신호 처리 방법 및 이의 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020080021121A KR20080082917A (ko) 2007-03-09 2008-03-06 오디오 신호 처리 방법 및 이의 장치

Country Status (11)

Country Link
US (2) US8359113B2 (ko)
EP (1) EP2140450B1 (ko)
JP (1) JP5001384B2 (ko)
KR (2) KR20080082917A (ko)
CN (1) CN101675471B (ko)
AT (1) ATE519197T1 (ko)
AU (1) AU2008225321B2 (ko)
BR (1) BRPI0808654A2 (ko)
CA (1) CA2680328C (ko)
MX (1) MX2009009651A (ko)
WO (2) WO2008111770A1 (ko)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7873917B2 (en) * 2005-11-11 2011-01-18 Apple Inc. Locking relationships among parameters in computer programs
EP2100297A4 (en) 2006-09-29 2011-07-27 Korea Electronics Telecomm DEVICE AND METHOD FOR CODING AND DECODING A MEHROBJECT AUDIO SIGNAL WITH DIFFERENT CHANNELS
EP2242046A4 (en) * 2008-01-11 2013-10-30 Nec Corp SYSTEM, APPARATUS, METHOD AND PROGRAM FOR CONTROL OF SIGNAL ANALYSIS, SIGNAL ANALYSIS AND SIGNAL CONTROL
KR101461685B1 (ko) * 2008-03-31 2014-11-19 한국전자통신연구원 다객체 오디오 신호의 부가정보 비트스트림 생성 방법 및 장치
KR101596504B1 (ko) * 2008-04-23 2016-02-23 한국전자통신연구원 객체기반 오디오 컨텐츠의 생성/재생 방법 및 객체기반 오디오 서비스를 위한 파일 포맷 구조를 가진 데이터를 기록한 컴퓨터 판독 가능 기록 매체
EP2146342A1 (en) * 2008-07-15 2010-01-20 LG Electronics Inc. A method and an apparatus for processing an audio signal
JP5258967B2 (ja) 2008-07-15 2013-08-07 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
CN102246543B (zh) * 2008-12-11 2014-06-18 弗兰霍菲尔运输应用研究公司 产生多信道音频信号的装置
KR101129974B1 (ko) 2008-12-22 2012-03-28 (주)오디즌 객체 기반 오디오 컨텐츠 생성/재생 방법 및 그 장치
US8620008B2 (en) * 2009-01-20 2013-12-31 Lg Electronics Inc. Method and an apparatus for processing an audio signal
US20100324915A1 (en) * 2009-06-23 2010-12-23 Electronic And Telecommunications Research Institute Encoding and decoding apparatuses for high quality multi-channel audio codec
CN102696070B (zh) * 2010-01-06 2015-05-20 Lg电子株式会社 处理音频信号的设备及其方法
US8862254B2 (en) 2011-01-13 2014-10-14 Apple Inc. Background audio processing
US8842842B2 (en) 2011-02-01 2014-09-23 Apple Inc. Detection of audio channel configuration
US9420394B2 (en) 2011-02-16 2016-08-16 Apple Inc. Panning presets
US8887074B2 (en) 2011-02-16 2014-11-11 Apple Inc. Rigging parameters to create effects and animation
US8965774B2 (en) 2011-08-23 2015-02-24 Apple Inc. Automatic detection of audio compression parameters
US9516446B2 (en) * 2012-07-20 2016-12-06 Qualcomm Incorporated Scalable downmix design for object-based surround codec with cluster analysis by synthesis
US9761229B2 (en) 2012-07-20 2017-09-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for audio object clustering
EP2757559A1 (en) * 2013-01-22 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for spatial audio object coding employing hidden objects for signal mixture manipulation
US9497560B2 (en) 2013-03-13 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Audio reproducing apparatus and method
CN105229731B (zh) 2013-05-24 2017-03-15 杜比国际公司 根据下混的音频场景的重构
RU2608847C1 (ru) 2013-05-24 2017-01-25 Долби Интернешнл Аб Кодирование звуковых сцен
EP2830050A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for enhanced spatial audio object coding
EP2830047A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for low delay object metadata coding
EP2830045A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects
CN105992120B (zh) * 2015-02-09 2019-12-31 杜比实验室特许公司 音频信号的上混音
MY181475A (en) 2015-06-17 2020-12-23 Fraunhofer Ges Forschung Loudness control for user interactivity in audio coding systems
US10027994B2 (en) * 2016-03-23 2018-07-17 Dts, Inc. Interactive audio metadata handling
CN114731459A (zh) 2019-11-20 2022-07-08 杜比国际公司 用于个性化音频内容的方法和设备

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3783192A (en) 1971-12-30 1974-01-01 Sansui Electric Co Decoder for use in matrix four-channel system
JPS5192101A (en) 1975-02-10 1976-08-12 Jidodochojushinki ni okeru shuhasuhojikairo
US4251688A (en) * 1979-01-15 1981-02-17 Ana Maria Furner Audio-digital processing system for demultiplexing stereophonic/quadriphonic input audio signals into 4-to-72 output audio signals
JPH03163997A (ja) 1989-11-21 1991-07-15 Mitsubishi Electric Corp 多チャンネル音声信号再生装置
JP2766466B2 (ja) 1995-08-02 1998-06-18 株式会社東芝 オーディオ方式、その再生方法、並びにその記録媒体及びその記録媒体への記録方法
JP2993418B2 (ja) 1996-01-19 1999-12-20 ヤマハ株式会社 音場効果装置
DE19646055A1 (de) * 1996-11-07 1998-05-14 Thomson Brandt Gmbh Verfahren und Vorrichtung zur Abbildung von Schallquellen auf Lautsprecher
GB9708893D0 (en) * 1997-05-02 1997-06-25 Cerestar Holding Bv Method for the production of isomalto-oligosaccharide rich syrups
US6026168A (en) * 1997-11-14 2000-02-15 Microtek Lab, Inc. Methods and apparatus for automatically synchronizing and regulating volume in audio component systems
JP3743640B2 (ja) 1997-11-28 2006-02-08 日本ビクター株式会社 オーディオディスク及びオーディオ信号のデコード装置
US6952677B1 (en) 1998-04-15 2005-10-04 Stmicroelectronics Asia Pacific Pte Limited Fast frame optimization in an audio encoder
JP2000114950A (ja) * 1998-10-07 2000-04-21 Murata Mfg Co Ltd Spstスイッチおよびspdtスイッチおよびそれを用いた通信機
US7103187B1 (en) 1999-03-30 2006-09-05 Lsi Logic Corporation Audio calibration system
EP1134724B1 (en) 2000-03-17 2008-07-23 Sony France S.A. Real time audio spatialisation system with high level control
CN100429960C (zh) 2000-07-19 2008-10-29 皇家菲利浦电子有限公司 用于获得立体声环绕和/或音频中心信号的多声道立体声转换器
JP4775529B2 (ja) 2000-12-15 2011-09-21 オンキヨー株式会社 遊戯機
US7095455B2 (en) 2001-03-21 2006-08-22 Harman International Industries, Inc. Method for automatically adjusting the sound and visual parameters of a home theatre system
US7116787B2 (en) * 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
AU2002358225A1 (en) 2001-12-05 2003-06-17 Koninklijke Philips Electronics N.V. Circuit and method for enhancing a stereo signal
RU2363116C2 (ru) 2002-07-12 2009-07-27 Конинклейке Филипс Электроникс Н.В. Аудиокодирование
EP1427252A1 (en) 2002-12-02 2004-06-09 Deutsche Thomson-Brandt Gmbh Method and apparatus for processing audio signals from a bitstream
JP2004193877A (ja) 2002-12-10 2004-07-08 Sony Corp 音像定位信号処理装置および音像定位信号処理方法
EP2665294A2 (en) * 2003-03-04 2013-11-20 Core Wireless Licensing S.a.r.l. Support of a multichannel audio extension
TW591513B (en) * 2003-03-05 2004-06-11 Via Tech Inc 2D graphic acceleration system and method
JP4124702B2 (ja) * 2003-06-11 2008-07-23 日本放送協会 立体音響信号符号化装置、立体音響信号符号化方法および立体音響信号符号化プログラム
US6937737B2 (en) * 2003-10-27 2005-08-30 Britannia Investment Corporation Multi-channel audio surround sound from front located loudspeakers
JP2005286828A (ja) 2004-03-30 2005-10-13 Victor Co Of Japan Ltd オーディオ再生装置
US7490044B2 (en) 2004-06-08 2009-02-10 Bose Corporation Audio signal processing
JP2006003580A (ja) 2004-06-17 2006-01-05 Matsushita Electric Ind Co Ltd オーディオ信号符号化装置及びオーディオ信号符号化方法
JP4936894B2 (ja) 2004-08-27 2012-05-23 パナソニック株式会社 オーディオデコーダ、方法及びプログラム
US7787631B2 (en) 2004-11-30 2010-08-31 Agere Systems Inc. Parametric coding of spatial audio with cues based on transmitted channels
US7903824B2 (en) 2005-01-10 2011-03-08 Agere Systems Inc. Compact side information for parametric coding of spatial audio
JP2006211206A (ja) 2005-01-27 2006-08-10 Yamaha Corp サラウンドシステム
JP4414905B2 (ja) 2005-02-03 2010-02-17 アルパイン株式会社 オーディオ装置
EP1691348A1 (en) 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
JP4935091B2 (ja) * 2005-05-13 2012-05-23 ソニー株式会社 音響再生方法および音響再生システム
EP1905002B1 (en) 2005-05-26 2013-05-22 LG Electronics Inc. Method and apparatus for decoding audio signal
WO2007004830A1 (en) 2005-06-30 2007-01-11 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
CN101233571B (zh) 2005-07-29 2012-12-05 Lg电子株式会社 处理音频信号的方法和装置
TWI396188B (zh) 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
JP2007058930A (ja) * 2005-08-22 2007-03-08 Funai Electric Co Ltd ディスク再生装置
JP4402632B2 (ja) 2005-08-29 2010-01-20 アルパイン株式会社 オーディオ装置
JP5111375B2 (ja) 2005-08-30 2013-01-09 エルジー エレクトロニクス インコーポレイティド オーディオ信号をエンコーディング及びデコーディングするための装置とその方法
JP4896029B2 (ja) 2005-09-22 2012-03-14 パイオニア株式会社 信号処理装置、信号処理方法、信号処理プログラムおよびコンピュータに読み取り可能な記録媒体
KR100754220B1 (ko) * 2006-03-07 2007-09-03 삼성전자주식회사 Mpeg 서라운드를 위한 바이노럴 디코더 및 그 디코딩방법
EP2100297A4 (en) 2006-09-29 2011-07-27 Korea Electronics Telecomm DEVICE AND METHOD FOR CODING AND DECODING A MEHROBJECT AUDIO SIGNAL WITH DIFFERENT CHANNELS
JP5270557B2 (ja) 2006-10-16 2013-08-21 ドルビー・インターナショナル・アクチボラゲット 多チャネルダウンミックスされたオブジェクト符号化における強化された符号化及びパラメータ表現
EP2082397B1 (en) 2006-10-16 2011-12-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for multi -channel parameter transformation
JP5270566B2 (ja) * 2006-12-07 2013-08-21 エルジー エレクトロニクス インコーポレイティド オーディオ処理方法及び装置
EP2191463B1 (en) 2007-09-06 2016-01-13 LG Electronics Inc. A method and an apparatus of decoding an audio signal
EP2083584B1 (en) 2008-01-23 2010-09-15 LG Electronics Inc. A method and an apparatus for processing an audio signal

Also Published As

Publication number Publication date
EP2140450B1 (en) 2011-08-03
WO2008111770A1 (en) 2008-09-18
WO2008111771A1 (en) 2008-09-18
US20100106270A1 (en) 2010-04-29
KR20080082917A (ko) 2008-09-12
AU2008225321B2 (en) 2010-11-18
AU2008225321A1 (en) 2008-09-18
BRPI0808654A2 (pt) 2014-08-19
US8359113B2 (en) 2013-01-22
MX2009009651A (es) 2009-10-12
CA2680328A1 (en) 2008-09-18
JP5001384B2 (ja) 2012-08-15
CA2680328C (en) 2015-07-21
CN101675471A (zh) 2010-03-17
JP2010521115A (ja) 2010-06-17
US8594817B2 (en) 2013-11-26
ATE519197T1 (de) 2011-08-15
EP2140450A1 (en) 2010-01-06
EP2140450A4 (en) 2010-03-17
CN101675471B (zh) 2014-05-14
US20100189266A1 (en) 2010-07-29

Similar Documents

Publication Publication Date Title
KR20080082916A (ko) 오디오 신호 처리 방법 및 이의 장치
RU2419168C1 (ru) Способ обработки аудиосигнала и устройство для его осуществления
RU2559713C2 (ru) Пространственное воспроизведение звука
KR101761041B1 (ko) 음량 및 동적 범위 제어에 대한 메타데이터
JP5149968B2 (ja) スピーチ信号処理を含むマルチチャンネル信号を生成するための装置および方法
US8180062B2 (en) Spatial sound zooming
RU2643644C2 (ru) Кодирование и декодирование аудиосигналов
JP4664431B2 (ja) アンビエンス信号を生成するための装置および方法
JP5457430B2 (ja) オーディオ信号の処理方法及び装置
KR101341536B1 (ko) 오디오 신호 처리 방법 및 장치
KR20110052562A (ko) 오디오 신호의 처리 방법 및 이의 장치
EP3766262B1 (en) Spatial audio parameter smoothing
JP2021101242A (ja) 相関分離フィルタの適応制御のための方法および装置
JP2023530409A (ja) マルチチャンネル入力信号内の空間バックグラウンドノイズを符号化および/または復号するための方法およびデバイス
JP2024081674A (ja) デュアルエンドのメディア・インテリジェンス
KR20080052813A (ko) 채널별 신호 분포 특성을 반영한 오디오 코딩 장치 및 방법
KR101062351B1 (ko) 오디오 신호 처리 방법 및 이의 장치
KR100891671B1 (ko) 믹스신호 제어 방법 및 장치

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid