KR20080033840A - 믹스 신호의 처리 방법 및 장치 - Google Patents

믹스 신호의 처리 방법 및 장치 Download PDF

Info

Publication number
KR20080033840A
KR20080033840A KR1020070063185A KR20070063185A KR20080033840A KR 20080033840 A KR20080033840 A KR 20080033840A KR 1020070063185 A KR1020070063185 A KR 1020070063185A KR 20070063185 A KR20070063185 A KR 20070063185A KR 20080033840 A KR20080033840 A KR 20080033840A
Authority
KR
South Korea
Prior art keywords
signal
information
mix
source
remix
Prior art date
Application number
KR1020070063185A
Other languages
English (en)
Other versions
KR100891667B1 (ko
Inventor
정양원
오현오
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20080033840A publication Critical patent/KR20080033840A/ko
Application granted granted Critical
Publication of KR100891667B1 publication Critical patent/KR100891667B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

본 발명은 믹스 신호의 처리 방법 및 장치에 관한 것이다. 이를 위해, 본 발명은 믹스 신호 비트스트림으로부터 하나 이상의 소스 신호를 포함하는 믹스 신호를 추출하는 단계와; 부가 정보 비트스트림으로부터 부가 정보를 추출하는 단계와; 믹스 파라미터를 획득하는 단계와; 상기 믹스 신호, 상기 부가 정보 및 상기 믹스 파라미터를 이용하여 리믹스 신호를 생성하는 단계를 포함하되, 상기 부가 정보 비트스트림은 제1 헤더 영역과 데이터 영역으로 구분되고, 상기 데이터 영역은 하나 이상의 프레임데이터 영역을 포함하는 것을 특징으로 하는 신호 처리 방법을 제공한다.
비트스트림, 믹스 신호, 부가 정보, 리믹스 신호

Description

믹스 신호의 처리 방법 및 장치{APPARATUS FOR PROCESSING A MIX SIGNAL AND METHOD THEREOF}
도 1은 본 발명의 일실시예에 따른 제1 리믹스 신호 인코딩 장치에 대한 블록도.
도 2는 스테레오 신호를 이용하는 경우, 도 1의 제1 리믹스 신호 인코딩 장치에 대한 상세 블록도.
도 3은 본 발명의 일실시예에 따른 미디어 신호를 처리하기 위한 도메인.
도 4는 본 발명의 일실시예에 따른 제2 리믹스 신호 인코딩 장치에 대한 블록도.
도 5는 본 발명의 일실시예에 따른 제1 리믹스 신호 디코딩 장치에 대한 블록도.
도 6은 스테레오 신호를 이용하는 경우, 도 5의 제1 리믹스 신호 디코딩 장치에 대한 상세도.
도 7은 본 발명의 일실시예에 따른 제2 리믹스 신호 디코딩 장치에 대한 블록도.
도 8A는 통상적인 인코딩 장치 및 본 발명의 일실시예에 따른 리믹스 신호 인코딩 장치의 결합을 나타내는 블록도.
도 8B는 종래의 디코딩 장치와 결합하여 이용되는 본 발명의 일실시예에 따른 제2 리믹스 신호 디코딩 장치에 대한 블록도.
도 9는 본 발명의 일실시예에 따른 리믹스 신호 디코딩 장치에 상세 블록도.
도 10은 본 발명의 일실시예에 따른 믹스신호비트스트림 및 부가정보비트스트림의 데이터 구조를 나타내는 도면.
도 11은 본 발명의 도 9의 부가정보비트스트림에 대한 상세 데이터 구조를 나타내는 도면.
본 발명은 믹스 신호의 처리 방법 및 장치에 관한 것이다. 현재까지는 스테레오 신호가 가장 흔하게 생성되고, 소비자들에게 가장 널리 이용된다. 최근에는 멀티채널 신호가 점점 널리 이용되고 있다. 그러나, 상기 믹스 신호는 상기 믹스 신호를 구성하는 소스 신호 단위가 아니라, 채널 신호 단위로 처리된다는 한계가 있다. 따라서, 채널 신호 단위로 믹스 신호를 처리하는 경우, 믹스 신호를 구성하는 특정 소스 신호만을 독립적으로 처리할 수 없는 문제점이 있다. 예를 들면, 영화를 보면서 배우들 음성에 대한 볼륨은 일정하게 유지하면서, 배경음악의 볼륨만을 높이는 것은 불가능하다. 또한, 상기 부가 정보의 비트스트림을 구성하는 방법이 아직 정해지지 않아 부가 정보를 저장하는데 문제점이 있다.
상기 문제점을 해결하기 위해, 본 발명은 믹스 신호 및 부가 정보를 이용하여 리믹스 신호를 생성하는 방법을 제공하는데 그 목적이 있다.
또한, 본 발명은 리믹스 신호를 생성하는데 이용되는 부가정보의 비트스트림을 구성하는 방법 및 데이터 구조를 제공하는데 그 목적이 있다.
상기 목적을 달성하기 위해, 본 발명은 믹스 신호 비트스트림으로부터 하나 이상의 소스 신호를 포함하는 믹스 신호를 추출하는 단계와; 부가 정보 비트스트림으로부터 부가 정보를 추출하는 단계와; 사용자 믹스 파라미터를 획득하는 단계와; 상기 믹스 신호, 상기 부가 정보 및 상기 사용자 믹스 파라미터를 이용하여 리믹스 신호를 생성하는 단계를 포함하되, 상기 부가 정보 비트스트림은 제1 헤더 영역과 데이터 영역으로 구분되고, 상기 데이터 영역은 하나 이상의 프레임데이터 영역을 포함하는 것을 특징으로 하는 신호 처리 방법을 제공한다.
또한, 상기 목적을 달성하기 위해, 본 발명은 하나 이상의 소스 신호를 포함하는 믹스 신호를 획득하는 단계와; 상기 소스 신호들 중 리믹스될 소스 신호를 획득하는 단계와; 상기 믹스 신호 및 상기 리믹스될 소스 신호를 이용하여 부가 정보를 생성하는 단계와; 상기 믹스 신호 및 상기 부가 정보를 이용하여 각각 믹스신호비트스트림 및 부가정보비트스트림을 생성하는 단계를 포함하되, 상기 부가 정보 비트스트림은 제1 헤더 영역과 데이터 영역으로 구분되고, 상기 데이터 영역은 하나 이상의 프레임데이터 영역을 포함하는 것을 특징으로 하는 신호 처리 방법을 제공한다.
또한, 상기 목적을 달성하기 위해, 본 발명은 하나 이상의 소스 신호를 포함하는 믹스 신호 비트스트림 및 부가 정보 비트트림으로 구성되는 데이터 구조에 있어서, 상기 부가 정보 비트스트림은 제1 헤더 영역과 데이터 영역으로 구분되고, 상기 데이터 영역은 하나 이상의 프레임데이터 영역을 포함하는 것을 특징으로 하는 데이터 구조를 제공한다.
이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다.
본 발명은 믹스 신호를 소스(Source) 신호 단위로 처리할 수 있는 알고리즘을 제공한다. 믹스 신호를 소스 신호 단위로 처리하는 경우, 매우 다양한 효과를 생성할 수 있다. 예를 들면, 영화를 보면서 배우들 음성에 대한 볼륨은 일정하게 유지하면서, 배경음악의 볼륨만을 높이는 것이 가능하다. 본 발명에서 소스 신호란 믹스 신호를 구성하는 하나 이상의 소스(source)(예를 들면, 피아노)를 포함한다. 소스 신호 단위의 처리란 믹스 신호를 처리함에 있어서, 상기 믹스 신호를 구성하는 특정한 소스 신호와 관련된 특성들(예를 들면, 로컬화(localization), 게인(gain))이 "개별적으로(individually)" 수정될 수 있다는 것을 의미한다. 상기 "개별적으로"란 특정한 오브젝트와 관련된 특성을 수정하는 것이 다른 소스 신호들의 특성에 영향을 미치지 않거나, 지각적으로 느끼기 어려운 작은 영향만을 미치는 것을 의미한다.
상기 믹스 신호는 모노, 스테레오, 및 멀티채널 신호를 포함한다. 설명의 편의상 이하에서 스테레오 신호를 예로 하여 기술할 것이나, 본 발명은 스테레오 신 호에만 한정되지 않는다. 본 발명에서는 통상적인 믹스 신호의 포맷(예를 들면, PCM, MP3, MPEG-AAC)뿐만 아니라, 적은 양의 부가 정보(side information)가 전송된다. 상기 믹스 신호 및 부가 정보를 이용하여 리믹스 신호를 생성할 수 있다.
도 1은 본 발명의 일 실시예에 따른 제1 리믹스 신호 인코더의 블록도이다. 상기 제1 리믹스 신호 인코더는 부가정보생성부(103) 및 부가정보인코딩부(105)를 포함한다.
도 1을 참조하면, 부가정보생성부(103)는 통상적인 믹스 신호(101) 및 상기 믹스 신호를 구성하는 소스 신호(102)를 이용하여 부가 정보(104)를 생성한다. 상기 믹스 신호(101)는 모노(mono), 스테레오(stereo) 및 멀티채널 오디오 신호(multi-channel audio signal)가 될 수 있다. 상기 소스 신호(102)는 상기 믹스 신호(101)를 구성하는 소스 신호들 중 일부 또는 전부가 될 수 있다. 상기 부가 정보(104)는 상기 믹스 신호를 소스 신호 단위로 처리하는데 이용되는 정보를 말한다. 상기 부가 정보(104)는 상기 믹스 신호를 리믹싱하기 위한 믹스 파라미터를 포함한다. 상기 믹스 파라터에는 인코더에서 소스 신호를 이용하여 생성된 인코더 믹스 파라미터(Encoder mix parameter)를 포함하며, 선택적으로 믹스 신호만을 이용하여 생성된 블라인드 믹스 파라미터(Blind mix parameter)를 포함할 수 있다. 상기 믹스 파라미터의 예로는 각각의 소스 신호에 대한 게인 값 및 서브밴드 파위(subband power) 등이 될 수 있다. 상기 부가 정보(104)에 대한 구체적인 정의 및 생성 방법은 도 2에서 기술된다. 본 발명은 또한 믹스 신호를 구성하는 소스 신호(102)만을 이용하여 부가 정보(104)를 생성하는 것을 포함한다. 부가정보인코딩 부(105)는 생성된 부가 정보(104)를 인코딩하여 부호화된 부가 정보 신호(106)를 생성한다. 상기 믹스 신호(101) 및 상기 부가 정보 신호(106)는 디코딩 장치로 전송된다.
도 2는 믹스 신호가 스테레오 신호인 경우, 도 1의 제1 리믹스 신호 인코딩 장치에 대한 상세 블록도이다. 전술한 것처럼, 본 발명에서 사용되는 믹스 신호는 모노, 스테레오 및 멀티채널 오디오 신호가 될 수 있으나, 편의상 스테레오 신호(201)를 기준으로 설명한다.
상기 스테레오 신호(stereo signal)(201)
Figure 112007046536858-PAT00001
Figure 112007046536858-PAT00002
는 상기 스테레오 신호를 구성하는 소스 신호들의 합으로 표현될 수 있다. 여기서, n은 타임 인덱스를 의미한다. 따라서, 상기 스테레오 신호(201)는 아래의 [수학식 1]과 같이 표현될 수 있다.
Figure 112007046536858-PAT00003
여기서, I는 스테레오 신호 내에 포함되는 소스 신호들의 개수이고,
Figure 112007046536858-PAT00004
은 소스 신호들을 나타낸다.
Figure 112007046536858-PAT00005
Figure 112007046536858-PAT00006
는 각각의 소스 신호에 대한 진폭 패 닝(amplitude panning) 및 게인(gain)을 결정하는 값이다. 모든
Figure 112007046536858-PAT00007
들은 서로 독립적이다. 상기
Figure 112007046536858-PAT00008
는 모두 순수한 소스 신호이거나, 또는 순수한 소스 신호에 약간의 잔향(reverberation) 및 효과음 신호성분(sound effect signal components)을 포함할 수 있다. 예를 들면, 특정한 잔향 신호성분은 2개의 소스 신호, 즉, 왼쪽 채널로 믹스된 신호와 오른쪽 채널로 믹스된 신호로 표현될 수 있다.
본 발명의 목적은 M개(0 <= M <= I)의 소스 신호들이 리믹스 되도록, 상기 소스 신호를 포함하는 스테레오 신호를 수정하는 것이다. 상기 소스 신호들은 서로 다른 게인 팩터들을 가지면서 스테레오 신호로 리믹스될 수 있다. 리믹스 신호는 아래의 [수학식 2]와 같이 표현될 수 있다.
Figure 112007046536858-PAT00009
여기서,
Figure 112007046536858-PAT00010
Figure 112007046536858-PAT00011
는 리믹스되는 M개의 소스 신호들에 대한 새로운 게인 팩터들이다. 상기
Figure 112007046536858-PAT00012
Figure 112007046536858-PAT00013
는 디코더 단에서 제공될 수 있다. 이 경우에, 부가정보생성부(206)는 스테레오 신호(201) 및 M개의 소스 신호(202)를 이용하여 부 가 정보(207)를 생성할 수 있다.
상술하였듯이, 본 발명의 목적은 통상적인 스테레오 신호와 약간의 부가 정보가 주어지는 경우에, 상기 스테레오 신호를 소스 신호 단위로 리믹스하는 것이다. 본 발명에서와 같이 매우 적은 양의 부가 정보를 이용하여 [수학식 1]로 표현되는 믹스 신호로부터 [수학식 2]로 표현되는 리믹스 신호를 완벽하게 생성하는 것은 가능하지 않다. 따라서, 본 발명은 각각의 소스 신호들
Figure 112007046536858-PAT00014
에 대한 접근 없이, [수학식 1]로 표현되는 통상적인 믹스 신호가 주어지는 경우에, [수학식 2]로 표현되는 리믹스 신호를 지각적으로 모방하는 것을 목적으로 한다.
도 2를 참조하면, 제1 리믹스 신호 인코딩 장치에 통상적인 스테레오 신호(201) 및 상기 스테레오 신호(201)에 포함되는 M개의 소스 신호(202)가 입력된다. 상기 스테레오 신호(201)는 부가 정보와 동기화되기 위해 어느 정도 딜레이 되어, 출력 신호로서 직접 이용될 수 있다. 부가 정보를 생성하기 위해, 상기 스테레오 신호(201) 및 소스 신호들(202)은 필터뱅크(203)를 통하여 시간-주파수 도메인의 서브밴드별 신호(204 및 205)로 분해된다. 즉, 상기 스테레오 신호(201) 및 소스 신호는 시간-주파수 도메인에서 처리되는데, 상기 시간-주파수 도메인에 대해서는 도 3에서 후술한다. 상기 서브밴드별 신호(204)는 각 서브밴드의 중심 주파수에서 유사하게 프로세싱된다. 특정한 주파수에서 스테레오 신호(201)의 서브밴드 쌍(204)은
Figure 112007046536858-PAT00015
Figure 112007046536858-PAT00016
로 표시된다. 여기서 k는 서브밴드 신호들의 시간 인덱스(time index)이다. 유사하게, M개의 소스 신호들(202)의 서브밴드 신호 들(205)은
Figure 112007046536858-PAT00017
,
Figure 112007046536858-PAT00018
,...,
Figure 112007046536858-PAT00019
로 표시된다. 명료한 표현을 위해, 서브밴드(주파수) 인덱스를 사용하지 않았다.
상기 소스 신호들(202)의 서브밴드 신호들(205)이 주어지면, 부가정보생성부(206)는 서브밴드별로 숏-타임 서브밴드 파워(short-time subband power),
Figure 112007046536858-PAT00020
를 생성한다. 또한, 상기 부가정보생성부(206)는 스테레오 신호(201)의 서브밴드 쌍(204)을 이용하여, 서브밴드별로 게인 팩터
Figure 112007046536858-PAT00021
Figure 112007046536858-PAT00022
를 생성한다. 상기 게인 팩터
Figure 112007046536858-PAT00023
Figure 112007046536858-PAT00024
는 외부에서 직접 주어질 수 있다. 상기 서브밴드별 숏-타임 서브밴드 파워 및 게인 팩터를 이용하여 서브밴드별 부가 정보(207)가 생성된다. 상기 부가정보생성부(206)는 상기 숏-타임 서브밴드 파워 및 게인 팩터들 이외에 상기 스테레오 신호에 관련된 다른 정보를 부가 정보(207)로 생성할 수 있다. 부가정보인코딩부(208)는 상기 서브밴드별 부가정보(207)를 이용하여 부호화된 부가 정보 신호(209)를 생성한다.
많은 스테레오 신호(201)에 대하여, 게인 팩터
Figure 112007046536858-PAT00025
Figure 112007046536858-PAT00026
는 고정적이 될 것이다. 만일
Figure 112007046536858-PAT00027
Figure 112007046536858-PAT00028
가 시간 k에 따라 가변적이라면, 상기 게인 팩터들은 시간의 함수로 생성될 것이다. 상기 게인 팩터들은 직접 양자화 및 부호화되지 않고, 먼저 양자화 및 부호화에 더 적합한 다른 값들로 전환될 수 있다. 또한,
Figure 112007046536858-PAT00029
는 스테레오 신호(201)의 서브밴드 파워에 상대적인 값으로 정규화될 수 있다. 이것은 스테레오 신호를 효율적으로 부호화하기 위해 통상적인 인코딩 장치가 이용되는 경우에, 본 발명을 상대적으로 변화에 강하도록 만들어준다. 예를 들면,
Figure 112007046536858-PAT00030
Figure 112007046536858-PAT00031
는 아래의 [수학식 3]으로 표현되는 게인 및 데시벨(dB) 단위의 레벨차로 전환되어 전송될 수 있다.
Figure 112007046536858-PAT00032
또한,
Figure 112007046536858-PAT00033
는 부가 정보로서 직접 부호화되는 것이 아니라, 아래의 [수학식 4]로 표현되는 스테레오 신호에 상대적으로 정의된 값으로 변환되어 전송될 수 있다.
Figure 112007046536858-PAT00034
숏-타임 서브밴드 파워를 생성하기 위해, 본 발명은 단일-폴 평균(single-pole averaging)을 사용한다. 즉,
Figure 112007046536858-PAT00035
는 아래의 [수학식 5]와 같이 계 산될 수 있다.
Figure 112007046536858-PAT00036
여기서, α∈[0,1]는 아래의 [수학식 6]와 같이 지수적으로 감소하는 추정 윈도우(estimation window)의 시간-상수를 결정한다.
Figure 112007046536858-PAT00037
여기서,
Figure 112007046536858-PAT00038
는 서브밴드 샘플링 주파수를 나타낸다. 예를 들면, T=40 ms를 이용할 수 있다. 이하에서,
Figure 112007046536858-PAT00039
는 숏-타임 평균(short-time averaging)을 나타낸다. 만일
Figure 112007046536858-PAT00040
Figure 112007046536858-PAT00041
가 주어지지 않는다면, 상기
Figure 112007046536858-PAT00042
Figure 112007046536858-PAT00043
는 부가정보생성부(206)에서 생성될 필요가 있다.
Figure 112007046536858-PAT00044
이므로,
Figure 112007046536858-PAT00045
는 아래의 [수학식 7]과 같이 계산된다.
Figure 112007046536858-PAT00046
유사하게,
Figure 112007046536858-PAT00047
는 아래의 [수학식 8]과 같이 계산된다.
Figure 112007046536858-PAT00048
도 3은 본 발명의 일 실시예에 따른 오디오 신호를 처리하기 위한 도메인을 도시한다. 전술한 것처럼, 오디오 신호 및 부가 정보는 도 3에 도시된 것과 같은 시간-주파수 도메인의 서브밴드별 신호로서 처리된다. 상기 시간-주파수 도메인의 서브밴드별 신호는 지각적으로 유도된다. 예를 들면, 약 20ms의 길이를 가지는 사인파 분석창 및 통합창(sine analysis and synthesis window)을 가지는 STFT(Short Time Fourier transform)를 이용하여 서브밴드별 신호를 생성할 수 있다. 이때, STFT 계수들은 하나의 그룹이 ERB(equivalent rectangular bandwidth)의 약 2배가 되는 대역폭을 갖도록 그룹화될 수 있다.
도 4는 본 발명의 일 실시예에 따른 제2 리믹스 신호 인코딩 장치에 대한 블록도이다. 상기 제2 리믹스 신호 인코딩 장치는 다운믹싱부(402), 부가정보생성부(403) 및 부가정보인코딩부(406)을 포함한다.
도 4를 참조하면, 다운믹싱부(402)는 복수의 소스 신호들(401)을 더하여 하나의 합 신호(sum signal)(404)을 생성한다. 제2 리믹스 신호 인코딩 장치는 제1 리믹스 신호 인코딩 장치와는 달리, 스테레오 신호를 전송하는 대신에 상기 합 신호(404)를 전송한다. 부가정보생성부(403)는 상기 소스 신호들(401)을 이용하여 부 가 정보(405)를 생성한다. 상기 부가 정보(405)는 각 소스 신호에 대응하는 서브밴드 파워 및 게인 팩터를 포함한다. 또한, 상기 부가 정보(405)는 리믹스 렌더링부에서의 딜레이에 대응하는 파라미터를 포함할 수 있다. 제1 리믹스 신호 인코딩 장치에서와 유사하게, 상기 부가 정보(405)는 양자화 및 부호화에 더 적합한 다른 값으로 변환되어 전송될 수 있다. 부가정보인코딩부(406)는 생성된 부가 정보(405)를 이용하여 부호화된 부가 정보 신호(407)를 생성한다. 생성된 상기 합 신호(404) 및 부가 정보 신호(407)는 디코딩 장치로 전송된다. 본 발명은 또한 다운믹싱부(402)를 가지지 않는 인코딩 장치를 포함한다. 이 경우에, 소스 신호들(401)은 합 신호(404)로 변환되지 않고, 각 소스 신호들(401)이 직접 전송된다.
도 5는 본 발명의 일 실시예에 따른 제1 리믹스 신호 디코딩 장치에 대한 블록도이다. 상기 제1 리믹스 신호 디코딩 장치는 부가정보디코딩부(503) 및 리믹스 렌더링부(505)를 포함한다.
도 5를 참조하면, 믹스 신호(501) 및 부가 정보 신호(502)가 제1 리믹스 신호 디코딩 장치에 입력된다. 상기 믹스 신호(501)는 모노, 스테레오 또는 멀티채널 오디오 신호가 될 수 있다. 부가정보디코딩부(503)는 부가 정보 신호(502)를 디코딩하여 부가 정보(504)를 생성한다. 상기 부가 정보(504)는 전송된 오디오 신호(501)에 포함된 소스 신호들의 게인 팩터 및 서브밴드 파워 등을 포함한다. 리믹스 렌더링부(505)에는 사용자가 직접 제공하는 제어 정보를 이용하여 생성된 사용자 믹스 파라미터(user-mix parameter, 506)가 입력될 수 있다. 리믹스 렌더링부(505)는 믹스 신호(501), 전송된 부가 정보(504) 및 사용자 믹스 파라미터(506) 를 이용하여 리믹스 신호(507)를 생성한다. 상기 리믹스 신호를 생성하는 방법에 관한 구체적인 설명은 도 6에서 후술한다. 리믹스 신호(507)는 전송된 믹스 신호의 채널 수와 동일한 채널 수를 가지는 동채널 믹스 신호(Eq-channel mix signal)로 생성되거나, 또는 믹스 신호의 채널 수보다 많은 채널 수를 가지는 업채널 믹스 신호(Up-channel mix signal)로 생성될 수 있다.
도 6은 스테레오 신호를 이용하는 경우, 도 5의 제1 리믹스 신호 디코딩 장치에 대한 상세도이다. 전술한 것처럼, 전송된 믹스 신호는 모노, 스테레오 및 멀티채널 오디오 신호가 될 수 있으나, 편의상 스테레오 신호(601)를 기준으로 설명한다.
도 6을 참조하면, 스테레오 신호(601)는 필터뱅크(603)을 통하여 시간-주파수 도메인의 서브밴드별 신호(604)로 분해된다. 도 6에 도시된 것처럼, 특정한 주파수에서의 서브밴드별 신호(604)은
Figure 112007046536858-PAT00049
Figure 112007046536858-PAT00050
로 표현된다. 부가정보디코딩부(605)는 전송된 부가 정보 신호(602)를 복호화하여, 서브밴드별 부가 정보(606)를 생성한다. 또한, 리믹스 렌더링부(607)에 사용자가 제공하는 제어 정보를 이용하여 생성된 사용자 믹스 파라미터(608)가 입력될 수 있으며, 상기 사용자 믹스 파라미터(608)는 서브밴드별로 제공될 수 있다. 전술한 것처럼, 상기 부가 정보(606)는 리믹스 될 M개의 소스 신호에 대한 서브밴드별 게인 팩터(
Figure 112007046536858-PAT00051
Figure 112007046536858-PAT00052
) 및
Figure 112007046536858-PAT00053
로 표현되는 서브밴드 파워를 포함한다. 리믹스 렌더링 부(607)는 서브밴드별로 생성된 스테레오 신호(604), 전송된 부가 정보(606) 및 사용자 믹스 파라미터(608)를 이용하여, 서브밴드별 리믹스 신호(609),
Figure 112007046536858-PAT00054
Figure 112007046536858-PAT00055
를 생성한다. 상기 리믹스 신호(609)를 생성하는 방법은 아래에서 더욱 상세하게 기술된다. 상기 리믹스 신호(609)는 역필터뱅크(610)를 통해 시간 도메인(time domain)의 스테레오 신호(611),
Figure 112007046536858-PAT00056
Figure 112007046536858-PAT00057
로 변환된다.
리믹스 렌더링부(607)에서 생성된 리믹스 신호(609)를 생성하는 방법은 다음과 같다. 상기 [수학식 1] 및 [수학식 2]는 서브밴드별 신호(604 및 609)에 대해서도 유효하다. 이 경우에, 소스 신호
Figure 112007046536858-PAT00058
는 서브밴드별 소스 신호
Figure 112007046536858-PAT00059
로 교체된다. 즉, 서브밴드별 믹스 신호(604)는 아래의 [수학식 9]과 같이 표현될 수 있다.
Figure 112007046536858-PAT00060
서브밴드별 리믹스 신호(609)는 아래의 [수학식 10]과 같이 표현될 수 있다.
Figure 112007046536858-PAT00061
리믹스 신호(609)를 생성하기 위해, 최소자승추정법(least squares estimation)이 이용될 수 있다. 서브밴드별 믹스 신호(604),
Figure 112007046536858-PAT00062
Figure 112007046536858-PAT00063
가 주어지면, 아래의 [수학식 11]와 같이 서로 다른 게인들을 가지는 서브밴드별 리믹스 신호(609)가 상기 서브밴드별 믹스 신호(604)의 선형 조합으로 추정될 수 있다.
Figure 112007046536858-PAT00064
여기서,
Figure 112007046536858-PAT00065
,
Figure 112007046536858-PAT00066
,
Figure 112007046536858-PAT00067
Figure 112007046536858-PAT00068
는 가중 팩터들(weighting factors)이다. 이때, 생성되는 추정 에러(estimation error)는 아래의 [수학식 12]과 같이 정의될 수 있다.
Figure 112007046536858-PAT00069
상기 가중 팩터들,
Figure 112007046536858-PAT00070
,
Figure 112007046536858-PAT00071
,
Figure 112007046536858-PAT00072
Figure 112007046536858-PAT00073
는 평균제곱오차(mean square error),
Figure 112007046536858-PAT00074
Figure 112007046536858-PAT00075
가 최소가 되도록 서브밴드별로 생성될 수 있다. 이때, 추정 에러,
Figure 112007046536858-PAT00076
Figure 112007046536858-PAT00077
Figure 112007046536858-PAT00078
Figure 112007046536858-PAT00079
에 직교(orthogonal)될 때, 상기 평균제곱오차가 최소가 된다는 것을 이용할 수 있다. 생성되는
Figure 112007046536858-PAT00080
Figure 112007046536858-PAT00081
는 아래의 [수학식 13]과 같이 표현될 수 있다.
Figure 112007046536858-PAT00082
여기서,
Figure 112007046536858-PAT00083
,
Figure 112007046536858-PAT00085
는 직접 생성될 수 있지만,
Figure 112007046536858-PAT00086
Figure 112007046536858-PAT00087
은 전송된 부가 정보(606)(예를 들면,
Figure 112007046536858-PAT00088
,
Figure 112007046536858-PAT00089
,
Figure 112007046536858-PAT00090
) 및 사용자가 제공하는 제어 정보(608)(예를 들면, 게인 팩터
Figure 112007046536858-PAT00091
Figure 112007046536858-PAT00092
)를 이용하여, 아래의 [수학식 14]와 같이 생성될 수 있다.
Figure 112007046536858-PAT00093
유사하게,
Figure 112007046536858-PAT00094
Figure 112007046536858-PAT00095
가 아래의 [수학식 15]와 같이 생성될 수 있다.
여기서,
Figure 112007046536858-PAT00097
Figure 112007046536858-PAT00098
는 아래의 [수학식 16]과 같이 표현될 수 있다.
Figure 112007046536858-PAT00099
만일, 상기 믹스 신호(604)의 위상이 서로 동기되거나(coherent) 또는 거의 동기화된다면, 아래의 [수학식 17]와 같이 표현되는 값이 1에 근접하게 된다.
Figure 112007046536858-PAT00100
이때, 상기 가중치들은 아래의 [수학식 18]과 같이 표현될 수 있다.
Figure 112007046536858-PAT00101
이와 같이 생성된 서브밴드별 리믹스 신호(609)는 전술한 것처럼 역필터뱅크(610)를 통해 시간-도메인의 리믹스 신호(611)로 변환된다. 상기 리믹스 신호(611)는 사용자가 제공한 제어 정보를 이용하여 생성된 사용자 믹스 파라미터(
Figure 112007046536858-PAT00102
Figure 112007046536858-PAT00103
)를 이용하여 각각의 소스 신호를 독립적으로 리믹스하여 생성된 리믹스 신호와 유사하게 들린다.
지금까지는 2채널 스테레오 신호의 리믹싱에 초점을 맞추었다. 그러나, 전술한 것처럼 본 발명은 스테레오 신호에 제한되지 않고, 멀티채널 오디오 신호, 예를 들면 5.1채널 오디오 신호를 리믹싱하는 것까지 확대될 수 있다. 당업자들은 본 명세서에서 기술된 스테레오 신호와 유사하게, 멀티채널 오디오 신호를 리믹싱할 수 있다. 이 경우에, [수학식 11]는 아래의 [수학식 19]과 같이 쓰여질 수 있다.
Figure 112007046536858-PAT00104
선택적으로, 믹스 신호의 채널들 중 특정한 채널은 리믹스하지 않고 남겨두도록 할 수 있다. 예를 들면, 5.1 서라운드 채널에 대하여, 2개의 뒤쪽 채널은 수정하지 않고, 앞쪽 채널에만 리믹싱을 적용하도록 할 수 있다. 이 경우에, 2 또는 3채널 리믹싱 알고리즘이 앞쪽 채널에 적용된다.
도 7은 본 발명의 일 실시예에 따른 제2 리믹스 신호 디코딩 장치에 대한 블록도이다. 상기 제2 리믹스 신호 디코딩 장치는 부가정보디코딩부(703), 공간정보 통합부(705) 및 리믹스 렌더링부(707)를 포함한다.
도 7을 참조하면, 소스 신호들의 합 신호(701) 및 부가 정보 신호(702)가 제2 리믹스 신호 디코딩 장치로 입력된다. 부가정보디코딩부(703)는 부가 정보 신호(702)를 디코딩하여, 부가 정보(704)를 생성한다. 상기 부가 정보(704)는 게인 팩터, 딜레이 상수 및 서브밴드 파워 등을 포함한다. 부가정보통합부(705)는 상기 부가 정보(704)를 이용하여, 상기 합 신호(701)를 복수의 소스 신호들(706)로 분리한다. 리믹스 렌더링부(707)는 상기 소스 신호들(706)을 이용하여 리믹스 신호(709)를 생성할 수 있다. 이때, 상기 리믹스 렌더링부(707)는 부가 정보로 전송된 믹스 파라미터를 이용하여 리믹스 신호(709)를 생성할 수 있다. 또한, 상기 리믹스 렌더링부(707)는 선택적으로 사용자가 제공하는 제어 정보를 이용하여 생성된 사용자 믹스 파라미터(708)를 이용하여 리믹스 신호(709)를 생성할 수 있다.
도 8A는 통상적인 인코딩 장치 및 본 발명의 일 실시예에 따른 리믹스 신호 인코딩 장치의 결합을 나타내는 블록도이다. 믹스 신호(801)는 통상적인 인코딩 장치(803)에 의해 부호화되어, 부호화된 믹스 신호(805)로 변환될 수 있다. 상기 믹스 신호(801)는 채널별 신호 또는 소스 신호가 될 수 있다. 상기 통상적인 인코딩 장치(803)는 AAC, MP3 인코더 등과 같은 종래의 인코딩 장치뿐만 아니라, 앞으로 개발될 인코딩 장치를 포함한다. 본 발명에 따른 리믹스 신호 인코딩 장치(804)는 상기 믹스 신호(801) 및 상기 믹스 신호에 포함되는 소스 신호(802)를 이용하여 부가 정보 신호(806)를 생성한다. 다중화부(807)는 부호화된 믹스 신호(805) 및 부가 정보 신호(806)를 이용하여 비트스트림(808)을 생성한다. 전술한 것처럼, 상기 부 가 정보 신호(806)는 종래 장치들과 호환성을 가지도록, 종래 믹스 신호 포맷 내의 보조 데이터 영역에 삽입될 수 있다.
도 8B는 통상적인 디코딩 장치 및 본 발명의 일 실시예에 따른 리믹스 신호 디코딩 장치의 결합에 대한 블록도이다. 역다중화부(810)는 전송된 비트스트림(809)으로부터 부호화된 믹스 신호(811) 및 부가 정보 신호(812)를 분리한다. 그 다음에, 통상적인 디코딩 장치(813)는 상기 부호화된 믹스 신호(811)를 디코딩하여, 본 발명에 따른 리믹스 신호 디코딩 장치(815)에서 이용될 수 있는 믹스 신호(814)를 생성한다. 상기 통상적인 디코딩 장치(813)는 AAC, MP3 디코더 등과 같은 종래의 인코딩 장치뿐만 아니라, 앞으로 개발될 인코딩 장치를 포함한다. 상기 믹스 신호(814)는 채널별 신호 또는 소스 신호가 될 수 있다. 본 발명에 따른 리믹스 신호 디코딩 장치(817)는 부가 정보 신호(812) 및 사용자 믹스 파라미터(817) 중 적어도 하나를 이용하여 상기 믹스 신호(814)를 리믹스 신호(816)로 변환할 수 있다.
도 9는 본 발명의 일 실시예에 따른 리믹스 신호 디코딩 장치에 상세 블록도이다. 도 9를 참조하면, 리믹스 신호 디코딩 장치는 믹스신호디코딩부(901), 파라미터생성부(902), 및 리믹스렌더링부(908)를 포함한다. 선택적으로 이펙터(Effecter, 911)를 포함할 수 있다. 상기 파라미터생성부(902)는 블라인드믹스 파라미터생성부(903), 사용자믹스파라미터생성부(904), 및 리믹스파라미터생성부(905)를 포함할 수 있다. 상기 리믹스파라미터생성부(905)는 이퀴믹스파라미터생성부(906)를 포함하며, 선택적으로 업믹스파라미터생성부(907)를 포함할 수 있다. 또한, 상기 리믹스렌더링부(908)는 이퀴믹스렌더링부(909)를 포함하며, 선택적으로 업믹스렌더링부(910)를 포함할 수 있다.
상기 믹스신호디코딩부(901)는 인코딩 단에서 전송된 부호화된 믹스 신호를 디코딩하여 믹스 신호를 생성한다. 상기 파라미터생성부(902)는 인코딩 단에서 전송된 부가 정보 및 사용자 제어정보(또는, 구성정보)를 수신한다. 상기 사용자 제어정보는 인코더 단에서 전송되지 않고, 디코더 단에서 생성될 수 있다. 상기 사용자믹스파라미터생성부(904)는 사용자 제어정보를 이용하여 사용자 믹스 파라미터를 생성한다. 인코더 단에서 전송된 부가 정보에는 인코더 믹스 파라믹터(Encoder Mix Parameter)가 포함될 수 있다. 또한, 상기 블라인드믹스파라미터생성부(903)는 상기 믹스 신호를 이용하여 블라인드 믹스 파라미터(Blind-Mix Parameter)를 생성할 수 있다. 상기 인코더 믹스 파라미터와 상기 블라인드 믹스 파라미터는 택일적으로 리믹스파라미터생성부(905)로 입력된다.
상기 리믹스파라미터생성부(905)는 부가 정보 및 사용자 믹스 파라미터를 이용하여 리믹스 파라미터를 생성한다. 상기 리믹스 파라미터는 리믹스 신호의 채널에 적용될 수 있도록 생성될 수 있다. 리믹스파라미터생성부(905)에 포함되는 이퀴믹스파라미터생성부(906)는 믹스 신호의 채널 수와 동일한 채널 수를 가지는 리믹스 신호를 생성하는데 이용되는 리믹스 파라미터를 생성하고, 상기 리믹스파라미터생성부(905)에 포함될 수 있는 업믹스파라미터생성부(907)는 믹스 신호의 채널 수보다 더 많은 채널 수를 가지는 리믹스 신호를 생성하는데 이용되는 리믹스 파라미터를 생성한다. 상기 리믹스 파라미터는 리믹스렌더링부(908)에 입력된다.
상기 리믹스렌더링부(908)에 포함되는 이퀴믹스렌더링부(909)는 상기 리믹스 파라미터 및 믹스 신호를 이용하여, 상기 믹스 신호의 채널 수와 동일한 채널 수를 가지는 이퀴채널 리믹스 신호(Eq-channel remix signal)를 생성한다. 상기 리믹스렌더링부(908)에 포함될 수 있는 업믹스렌더링부(910)는 상기 업믹스파라미터생성부(907)에서 생성된 리믹스 파라미터 및 믹스 신호를 이용하여, 상기 믹스 신호의 채널 수보다 더 많은 채널 수를 가지는 업채널 리믹스 신호(Up-channel remix signal)를 생성한다. 상기 업믹스렌더링부(910)는 상기 이퀴채널렌더링부(909)에서 생성된 리믹스 신호를 이용하여 업채널 리믹스 신호를 생성할 수도 있다.
따라서, 상기 디코딩 장치는 인코딩 단에서 전송한 믹스 신호를 그대로 출력하거나, 이퀴채널 리믹스 신호로 출력하거나, 또는 업채널 리믹스 신호로 출력할 수 있다. 선택적으로 상기 리믹스 렌더링부는 이펙터(911)로부터 제공되는 정보를 이용하여, 상기 리믹스 신호에 다양한 효과를 줄 수 있다.
도 10은 본 발명의 일실시예에 따른 믹스 신호 비트스트림 및 부가 정보 비트스트림의 데이터 구조를 도시한다. 도 10을 참조하면, 상기 데이터 구조는 믹스 신호 비트스트림(1001) 및 부가 정보 비트스트림(1002)를 포함한다. 상기 부가 정보 비트스트림(1002)는 헤더 영역(1003) 및 데이터 영역(1004)를 포함한다. 전술한 것처럼, 디코딩 장치는 도 10에 도시된 데이터 구조를 가지는 비트스트림을 수신한다. 디코딩 장치는 상기 믹스 신호 비트스트림(1001)을 디코딩하여 하나 상의 소스 신호를 포함하는 믹스 신호를 획득하고, 상기 부가 정보 비트스트림(1002)을 디코딩하여 부가 정보를 획득한다.
상기 부가 정보는 상기 소스 신호들 중 리믹스될 소스 신호와 상기 믹스 신호와의 관계를 나타내는 정보를 포함한다. 예를 들면, 상기 부가 정보는 레벨 정보, 시간 지연 정보, 상호 상관 정보, 믹스 정보 등을 포함한다.
여기서, 레벨 정보는 리믹스될 소스 신호의 레벨을 포함할 수 있고, 리믹스될 소스 신호들간의 상대적인 레벨이나, 또는 리믹스될 소스 신호와 믹스 신호간의 상대적인 레벨을 포함할 수 있다. 또한, 믹스 신호의 레벨을 따로 부가 정보에 포함시킬 수 있다.
시간 지연 정보는 리믹스될 소스 신호들간의 시간 지연 정보, 또는 리믹스될 소스 신호와 믹스 신호간의 시간 지연 정보를 포함할 수 있다. 상호 상관 정보는 리믹스될 소스 신호들간의 상호 상관 정보, 또는 리믹스될 소스 신호와 믹스 신호간의 상호 상관 정보, 믹스 신호들 간의 상호 상관 정보를 포함할 수 있다.
믹스 정보는 특정 소스가 믹스 신호에 믹스되는 정도를 나타내는 정보로서, 예를 들면, 특정 소스가 오른쪽에 위치하는 효과가 나도록 믹스하고 싶은 경우, 왼쪽 채널보다 오른쪽 채널에 더 큰 크기로 포함되도록 믹스를 수행할 수 있다. 이와 같이 믹스 정보는 각 소스가 각 채널에 믹스되는 정도를 나타낼 수 있다. 믹스 정보는 크기뿐만 아니라, 믹스에 관련된 시간 지연, 상관 관계 등의 정보를 포함하는 것이 가능하다.
디코딩 장치는 상기 부가 정보 비트스트림(1002)으로부터 믹스 파라미터를 획득할 수 있다. 상기 믹스 파리미터는 사용자가 제공하는 제어 정보를 이용하여 생성된다. 상기 믹스 파라미터는 인코딩 장치에서 생성되거나, 또는 디코딩 장치에 서 생성될 수 있다. 디코딩 장치에서 생성되는 경우에, 디코딩 장치는 사용자로부터 제어 정보를 수신하고, 상기 제어 정보를 이용하여 믹스 파라미터를 생성한다. 디코딩 장치는 상기 믹스 신호, 상기 부가 정보 및 상기 믹스 파라미터를 이용하여 리믹스 신호를 생성한다. 이하에서 상기 부가정보비트스트림에 포함되는 정보에 관하여 기술된다.
도 11은 본 발명의 도 9의 부가정보비트스트림에 대한 상세 데이터 구조를 도시한다. 도 11을 참조하면, 헤더 영역(1101)은 헤더 1(1103)을 포함하고, 데이터 영역(1102)는 복수의 프레임데이터(1104) 및 복수의 헤더 2(1105)를 포함한다. 상기 헤더 1(1103)에는 믹스 신호에 포함되는 소스 신호의 이름, 소스 신호의 특성, 및 재생 방법 등과 같은 하이-레벨 정보를 포함한다.
또한, 상기 헤더 1(1103)은 소스 신호의 게인, 소스 신호의 수, 서브밴드 수 등을 포함할 수 있다. 또한, 상기 헤더 1(1103)은 선택적으로 소스 신호의 재생 방법/구성 방법을 포함할 수 있다. 예를 들면, 선택적으로 미리 정해진 사용자 믹스 파라미터를 포함하여 상기 재생 방법/구성 방법을 규정할 수 있다.
또한, 상기 헤더 1(1103)은 선택적으로 게인 및 패닝에 대한 리믹싱 범위를 포함할 수 있다. 디코더 장치에서 믹스 신호, 부가 정보, 및 사용자 믹스 파라미터를 이용하여 리믹스 신호를 생성한다. 이때, 적당한 정도의 제어, 예를 들면 특정한 소스 신호의 에너지를 +20dB ~ -20dB정도 조절하는 것 등은 재생 품질에 큰 영향을 주지 않는다. 그러나, 특정 소스 신호의 에너지를 완전히 억압하거나, 또는 과도하게 크게 변형하는 경우에는 재생 품질이 저하될 수 있다. 따라서, 본 발명은 디코더 장치에서 조정 가능한 최대의 게인(gain), 감소(attenuation) 레벨을 설정하여 재생 품질을 보장할 수 있는 방법을 제안한다. 예를 들면, 감소는 최대 -40dB까지만 가능하게 하는 등의 방법을 사용할 수 있다. 이 경우에, 사용자가 -80dB까지 감소되도록 조절하는 경우, 실제 디코딩 장치는 이를 그대로 수행하는 것이 아니라, -40dB까지의 감소만을 수행하도록 동작하게 된다. 이때, 사용자에 지시한 감소를 수행하지 않고, 미리 정해진 레벨까지만 감소가 수행되고 있음을 알려줄 수 있다.
상기 프레임데이터(1104)는 각 서브밴드 내에 정규화된 소스 파워를 포함할 수 있다. 또한, 상기 프레임데이터(1104)는 각 프레임에 포함되는 데이터 타입에 관한 정보를 포함할 수 있다. 예를 들면, 첫 번째 데이터 타입인 경우, 상기 프레임데이터(1104)는 최소의 정보를 포함한다. 예를 들면, 부가 정보와 관련된 소스 파워만만을 포함할 수 있다. 두 번째 데이터 타입인 경우, 상기 프레임데이터(1104)는 추가적으로 업데이트되는 게인들을 포함한다. 이것은 시간에 따라 변하는 게인들(non-static mixing gains)을 이용하여 리믹스 신호를 생성하는 경우에 유용하다. 세 번째 및 네 번째 데이터 타입인 경우, 상기 프레임데이터(1104)는 미래의 사용을 위해 보존 영역(reserved area)으로 할당될 수 있다. 만일 상기 비트스트림이 방송용으로 이용되는 경우에, 상기 보존 영역은 방송 신호의 튜닝을 맞추기 위해 필요한 정보(예를 들면, 샘플링주파수, 서브밴드 수 등)를 포함할 수 있다.
본 발명에 따른 신호 처리 방법 및 장치는 리믹스 신호를 생성하는데 이용되는 부가 정보의 비트스트림을 구성하는 방법 및 데이터 구조를 제공함으로써, 상기 부가 정보를 효율적으로 이용하여 리믹스 신호를 생성할 수 있다.

Claims (17)

  1. 믹스 신호 비트스트림으로부터 하나 이상의 소스 신호를 포함하는 믹스 신호를 추출하는 단계;
    부가 정보 비트스트림으로부터 부가 정보를 추출하는 단계;
    사용자 믹스 파라미터를 획득하는 단계; 및
    상기 믹스 신호, 상기 부가 정보 및 상기 사용자 믹스 파라미터를 이용하여 리믹스 신호를 생성하는 단계를 포함하되,
    상기 부가 정보 비트스트림은 제1 헤더 영역과 데이터 영역으로 구분되고, 상기 데이터 영역은 하나 이상의 프레임데이터 영역을 포함하는 것을 특징으로 하는 신호 처리 방법.
  2. 제 1 항에 있어서,
    상기 제1 헤더 영역은 상기 소스 신호의 게인, 상기 소스 신호의 이름, 상기 소스 신호의 특성, 상기 소스 신호의 수, 서브밴드 수, 샘플링 주파수, 및 상기 소스 신호의 리믹스 가능 범위 중 적어도 하나를 포함하는 것을 특징으로 하는 신호 처리 방법.
  3. 제 1 항에 있어서,
    상기 데이터 영역은 하나 이상의 제2 헤더 영역을 포함하는 것을 특징으로 하는 신호 처리 방법.
  4. 제 3 항에 있어서,
    상기 제2 헤더 영역은 상기 제1 헤더에 포함된 정보를 갱신하기 위한 정보를 포함하는 것을 특징으로 하는 신호 처리 방법.
  5. 제 4 항에 있어서,
    상기 갱신하기 위한 정보는 상기 소스 신호의 게인 정보를 포함하는 것을 특징으로 하는 신호 처리 방법.
  6. 제 1 항에 있어서,
    상기 프레임데이터 영역은 상기 소스 신호의 파워 정보를 포함하는 것을 특징으로 하는 신호 처리 방법.
  7. 제 6 항에 있어서,
    상기 프레임데이터 영역은 데이터 타입 정보를 포함하는 것을 특징으로 하는 신호 처리 방법.
  8. 제 7 항에 있어서,
    상기 데이터 타입 정보에 따라, 상기 프레임데이터 영역은 상기 소스 신호의 게인 정보를 포함하는 것을 특징으로 하는 신호 처리 방법.
  9. 제 7 항에 있어서,
    상기 데이터 타입 정보에 따라, 상기 프레임데이터 영역은 상기 소스 신호 자체에 관한 정보, 상기 소스 신호와 상기 믹스 신호와의 관계에 관한 정보, 상기 믹스 신호 자체에 관한 정보, 샘플링 주파수, 상기 소스 신호의 개수 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 신호 처리 방법.
  10. 제 1 항에 있어서,
    상기 사용자 믹스 파라미터는 사용자로부터 획득된 제어 정보를 이용하여 생성되는 것을 특징으로 하는 신호 처리 방법.
  11. 하나 이상의 소스 신호를 포함하는 믹스 신호를 획득하는 단계;
    상기 소스 신호들 중 리믹스될 소스 신호를 획득하는 단계;
    상기 믹스 신호 및 상기 리믹스될 소스 신호를 이용하여 부가 정보를 생성하는 단계; 및
    상기 믹스 신호 및 상기 부가 정보를 이용하여 각각 믹스신호비트스트림 및 부가정보비트스트림을 생성하는 단계를 포함하되,
    상기 부가 정보 비트스트림은 제1 헤더 영역과 데이터 영역으로 구분되고, 상기 데이터 영역은 하나 이상의 프레임데이터 영역을 포함하는 것을 특징으로 하 는 신호 처리 방법.
  12. 제 11 항에 있어서,
    상기 데이터 영역은 하나 이상의 제2 헤더 영역을 포함하는 것을 특징으로 하는 신호 처리 방법.
  13. 하나 이상의 소스 신호를 포함하는 믹스 신호 비트스트림 및 부가 정보 비트트림으로 구성되는 데이터 구조에 있어서,
    상기 부가 정보 비트스트림은 제1 헤더 영역과 데이터 영역으로 구분되고, 상기 데이터 영역은 하나 이상의 프레임데이터 영역을 포함하는 것을 특징으로 하는 데이터 구조.
  14. 제 13 항에 있어서,
    상기 제1 헤더 영역은 상기 소스 신호의 게인, 상기 소스 신호의 이름, 상기 소스 신호의 특성, 상기 소스 신호의 수, 서브밴드 수, 및 샘플링 주파수 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 데이터 구조.
  15. 제 13 항에 있어서,
    상기 데이터 영역은 하나 이상의 제2 헤더 영역을 포함하는 것을 특징으로 하는 데이터 구조.
  16. 제 15 항에 있어서,
    상기 제2 헤더 영역은 상기 제1 헤더에 포함된 정보를 갱신하기 위한 정보를 포함하는 것을 특징으로 하는 데이터 구조.
  17. 제 13 항에 있어서,
    상기 프레임데이터 영역은 상기 소스 신호의 파워, 및 데이터 타입 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 데이터 구조.
KR1020070063185A 2006-10-13 2007-06-26 믹스 신호의 처리 방법 및 장치 KR100891667B1 (ko)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US82935006P 2006-10-13 2006-10-13
US60/829,350 2006-10-13
US86830406P 2006-12-01 2006-12-01
US60/868,304 2006-12-01
US88574207P 2007-01-19 2007-01-19
US60/885,742 2007-01-19
US89416207P 2007-03-09 2007-03-09
US60/894,162 2007-03-09

Publications (2)

Publication Number Publication Date
KR20080033840A true KR20080033840A (ko) 2008-04-17
KR100891667B1 KR100891667B1 (ko) 2009-04-02

Family

ID=39573662

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070063185A KR100891667B1 (ko) 2006-10-13 2007-06-26 믹스 신호의 처리 방법 및 장치

Country Status (1)

Country Link
KR (1) KR100891667B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2392007A4 (en) * 2009-01-28 2016-05-11 Lg Electronics Inc METHOD AND APPARATUS FOR DECODING AUDIO SIGNAL

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9900720B2 (en) 2013-03-28 2018-02-20 Dolby Laboratories Licensing Corporation Using single bitstream to produce tailored audio device mixes

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3175209D1 (en) * 1981-05-29 1986-10-02 Ibm Aspirator for an ink jet printer
WO1992012607A1 (en) 1991-01-08 1992-07-23 Dolby Laboratories Licensing Corporation Encoder/decoder for multidimensional sound fields

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2392007A4 (en) * 2009-01-28 2016-05-11 Lg Electronics Inc METHOD AND APPARATUS FOR DECODING AUDIO SIGNAL

Also Published As

Publication number Publication date
KR100891667B1 (ko) 2009-04-02

Similar Documents

Publication Publication Date Title
US11621007B2 (en) Parametric joint-coding of audio sources
RU2551797C2 (ru) Способы и устройства кодирования и декодирования объектно-ориентированных аудиосигналов
JP5427270B2 (ja) 低ビットレートオーディオ符号化用の効率的かつスケーラブルなパラメトリックステレオ符号化
JP5455647B2 (ja) オーディオデコーダ
JP2011030228A (ja) レベル・パラメータを生成する装置と方法、及びマルチチャネル表示を生成する装置と方法
MX2014010098A (es) Control de coherencia de fase para señales armonicas en codecs de audio perceptual.
RU2420026C2 (ru) Способы и устройства для кодирования и декодирования аудиосигналов на основе объектов
KR100891667B1 (ko) 믹스 신호의 처리 방법 및 장치
KR100891668B1 (ko) 믹스 신호 처리 방법 및 장치
KR100891670B1 (ko) 신호 처리 방법 및 장치
KR100891665B1 (ko) 믹스 신호의 처리 방법 및 장치
Jansson Stereo coding for the ITU-T G. 719 codec
Uhle et al. Methods for Low Bitrate Coding Enhancement Part II: Spatial Enhancement
KR100891669B1 (ko) 믹스 신호의 처리 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130226

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140224

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150224

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160224

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee