KR101552750B1 - Parametric stereo conversion system and method - Google Patents

Parametric stereo conversion system and method Download PDF

Info

Publication number
KR101552750B1
KR101552750B1 KR1020117006034A KR20117006034A KR101552750B1 KR 101552750 B1 KR101552750 B1 KR 101552750B1 KR 1020117006034 A KR1020117006034 A KR 1020117006034A KR 20117006034 A KR20117006034 A KR 20117006034A KR 101552750 B1 KR101552750 B1 KR 101552750B1
Authority
KR
South Korea
Prior art keywords
data
channel
phase difference
frequency domain
phase
Prior art date
Application number
KR1020117006034A
Other languages
Korean (ko)
Other versions
KR20110055651A (en
Inventor
제프리 톰슨
로버트 리암스
아론 와너
Original Assignee
디티에스, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디티에스, 인코포레이티드 filed Critical 디티에스, 인코포레이티드
Publication of KR20110055651A publication Critical patent/KR20110055651A/en
Application granted granted Critical
Publication of KR101552750B1 publication Critical patent/KR101552750B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Abstract

위상 변조된 스테레오 데이터로부터 파라미트릭(parametric) 스테레오 데이터를 생성하기 위한 시스템이 제공된다. 위상차 시스템은 좌측 채널 데이터와 우측 채널 데이터를 수신하고, 좌측 채널 데이터와 우측 채널 데이터간의 위상차를 결정한다. 위상차 가중 시스템은 위상차 데이터를 수신하고, 위상차 데이터에 기초하여 좌측 채널 진폭 데이터와 우측 채널 진폭 데이터를 조정하기 위한 가중 데이터를 생성한다. 진폭 변경 시스템은 좌측 채널 데이터와 우측 채널 데이터에서 위상 데이터를 제거하기 위해 가중 데이터를 이용하여 좌측 채널 진폭 데이터와 우측 채널 진폭 데이터를 조정한다.A system is provided for generating parametric stereo data from phase modulated stereo data. The phase difference system receives the left channel data and the right channel data and determines the phase difference between the left channel data and the right channel data. The phase difference weighting system receives the phase difference data and generates weighted data for adjusting the left channel amplitude data and the right channel amplitude data based on the phase difference data. The amplitude changing system adjusts the left channel amplitude data and the right channel amplitude data using the weighted data to remove the phase data from the left channel data and the right channel data.

Description

파라미트릭 스테레오 변환 시스템 및 방법{PARAMETRIC STEREO CONVERSION SYSTEM AND METHOD}[0001] PARAMETRIC STEREO CONVERSION SYSTEM AND METHOD [0002]

본 출원은 "Parametric Stereo Conversion System and Method"이라는 명칭으로 2007년 8월 17일에 출원된 미국 가출원 제60/965,227호의 우선권을 주장하며, 이 출원은 모든 목적을 위해 본 명세서에서 참조로서 병합된다.This application claims priority to U.S. Provisional Application No. 60 / 965,227, filed August 17, 2007, entitled " Parametric Stereo Conversion System and Method, " which application is incorporated herein by reference for all purposes.

본 발명은 오디오 코더의 분야에 관한 것이며, 보다 구체적으로는 위상 데이터가 누락되었을 때에 발생할 수 있는 오디오 인공물(artifact) 또는 기타의 노이즈의 생성 없이, 위상 데이터에서의 변동에 대해 진폭 데이터를 보상하여 각각의 채널마다 진폭 데이터만이 송신되도록 하기 위해 진폭 데이터와 위상 데이터를 갖는 멀티 채널 오디오 데이터를 조정하기 위한 시스템 및 방법에 관한 것이다.The present invention relates to the field of audio coders and more particularly to a method and apparatus for compensating amplitude data for variations in phase data without the generation of audio artifacts or other noise that may occur when phase data is missing, Channel audio data having amplitude data and phase data so that only amplitude data is transmitted per channel of the channel data.

위상 데이터와 진폭 데이터를 포함한 오디오 신호로부터 위상 데이터를 제거하는 멀티 채널 오디오 코딩 기술들이 본 발명분야에서 알려져 있다. 이러한 기술들에는 파라미트릭 스테레오가 있는데, 이것은 일반적으로 위상 정보를 포함할 스테레오포닉 사운드(stereophonic sound)를 시뮬레이션하기 위해 이용될 좌측 채널 신호와 우측 채널 신호간의 진폭 차이를 이용한다. 이와 같은 파라미트릭 스테레오는, 만약 위상 데이터가 신호내에 또한 포함되었다면 경험되었을 완전 심도(depth of field)를 갖는 스테레오포닉 사운드를 청취자로 하여금 경험하도록 허용하지는 않지만, (각 채널의 진폭이 동일한 경우와 같은) 단순한 모노랄 사운드(monaural sound)에 비해 음질을 개선시키는 어느 정도의 심도를 제공한다.Multi-channel audio coding techniques for removing phase data from audio signals including phase data and amplitude data are known in the art. These techniques include parametric stereos, which use the amplitude difference between the left channel signal and the right channel signal to be used to simulate a stereophonic sound that will typically include phase information. This parametric stereo does not allow the listener to experience a stereophonic sound with a depth of field that would have been experienced if the phase data was also included in the signal, Provides a certain depth of improvement in sound quality compared to a simple monaural sound.

진폭 데이터와 위상 데이터를 포함한 멀티 채널 오디오 데이터로부터 오직 진폭 데이터만을 포함한 멀티 채널 오디오 데이터로 변환시키는 데에 있어서의 하나의 문제점은 위상 데이터의 적절한 처리이다. 만약 위상 데이터가 단순히 검출되면, 청취자가 듣기에 불쾌할 결과적인 진폭 단독 데이터를 초래시키는 오디오 인공물이 생성될 것이다. 어드밴스드 오디오 코딩(Advanced Audio Coding; AAC) 시스템과 같은 몇몇의 시스템들은 위상 데이터의 제거를 보상하기 위해 수신기에 의해 이용되는 측대역 정보를 활용하지만, 이와 같은 시스템들은 사용자로 하여금 측대역 데이터를 프로세싱할 수 있는 특수한 수신기를 가질 것을 요구하며, 또한 노이즈 신호가 측대역 데이터에서 유입될 때에 발생할 수 있는 문제를 겪게되며, 이것은 불쾌한 오디오 인공물을 생성시킬 수 있다. 게다가, 낮은 비트 레이트 송신 프로세스가 이용될 때에 고주파수 위상 변동에 대한 측대역 데이터를 송신하려는 시도는 오디오 인공물을 생성시킬 수 있다.One problem in converting multi-channel audio data including amplitude data and phase data into multi-channel audio data containing only amplitude data is the proper processing of phase data. If the phase data is simply detected, an audio artifact will be generated that causes the listener to be uncomfortable to hear, resulting in amplitude alone data. Some systems, such as the Advanced Audio Coding (AAC) system, utilize the sideband information used by the receiver to compensate for the elimination of phase data, but such systems require the user to process sideband data , And also suffer from problems that may arise when the noise signal is introduced into the sideband data, which can create an unpleasant audio artifact. In addition, attempts to transmit sideband data for high frequency phase variations when a low bit rate transmission process is used can generate audio artifacts.

본 발명에 따르면, 위상 데이터와 진폭 데이터를 갖는 오디오 데이터를 진폭 데이터만을 갖는 오디오 데이터로 변환하는데 있어서의 알려진 문제들을 극복하는, 위상 데이터에 대해 진폭 데이터를 보상하도록 멀티 채널 오디오 신호를 프로세싱하는 시스템 및 방법이 제공된다. According to the present invention there is provided a system for processing a multi-channel audio signal to compensate amplitude data for phase data, overcoming known problems in converting audio data having phase data and amplitude data into audio data having only amplitude data, Method is provided.

구체적으로, 측대역 데이터에 대한 필요성을 제거시키고 변환 프로세스 동안에 발생할 수 있는 오디오 인공물에 대한 보상을 제공하는, 위상 데이터에 대해 진폭 데이터를 보상하도록 멀티 채널 오디오 신호를 프로세싱하는 시스템 및 방법이 제공된다.In particular, a system and method are provided for processing a multi-channel audio signal to compensate amplitude data for phase data, eliminating the need for sideband data and providing compensation for audio artifacts that may occur during the conversion process.

본 발명의 예시적인 실시예에 따르면, 위상 변조된 스테레오 데이터로부터 파라미트릭 스테레오 데이터를 생성하기 위한 시스템이 제공된다. 위상차 시스템은 좌측 채널 데이터와 우측 채널 데이터를 수신하고, 좌측 채널 데이터와 우측 채널 데이터간의 위상차를 결정한다. 위상차 가중 시스템은 위상차 데이터를 수신하고, 위상차 데이터에 기초하여 좌측 채널 진폭 데이터와 우측 채널 진폭 데이터를 조정하기 위한 가중 데이터를 생성한다. 진폭 변경 시스템은 좌측 채널 데이터와 우측 채널 데이터에서 위상 데이터를 제거하기 위해 가중 데이터를 이용하여 좌측 채널 진폭 데이터와 우측 채널 진폭 데이터를 조정한다.According to an exemplary embodiment of the present invention, a system is provided for generating parametric stereo data from phase modulated stereo data. The phase difference system receives the left channel data and the right channel data and determines the phase difference between the left channel data and the right channel data. The phase difference weighting system receives the phase difference data and generates weighted data for adjusting the left channel amplitude data and the right channel amplitude data based on the phase difference data. The amplitude changing system adjusts the left channel amplitude data and the right channel amplitude data using the weighted data to remove the phase data from the left channel data and the right channel data.

본 발명은 수 많은 중요한 기술 장점들을 제공한다. 본 발명의 하나의 중요한 기술 장점은, 낮은 비트 레이트 진폭 데이터가 고주파 위상 변동을 포함하도록 조정될 때에 발생할 수 있는 오디오 인공물의 생성을 회피하기 위해, 위상 데이터에서의 변동에 기초하여 진폭 데이터를 평탄화하는, 위상 데이터에 대해 진폭 데이터를 보상하도록 멀티 채널 오디오 신호를 프로세싱하기 위한 시스템 및 방법이다. The present invention provides a number of important technical advantages. One important technical advantage of the present invention is that the amplitude data is flattened based on variations in the phase data to avoid generation of audio artifacts that may occur when the low bit rate amplitude data is adjusted to include high frequency phase variations, And a system and method for processing a multi-channel audio signal to compensate amplitude data for phase data.

본 발명분야의 당업자는 도면과 함께 아래의 상세한 설명을 읽음으로써 본 발명의 다른 중요한 양태들과 함께 본 발명의 장점들 및 우수한 특징들을 한층 잘 이해할 것이다.Those skilled in the art, upon reading the following detailed description in conjunction with the drawings, will better understand the advantages and features of the present invention, along with other important aspects of the present invention.

위상 변조된 스테레오 데이터로부터 파라미트릭 스테레오 데이터를 생성하기 위한 시스템이 제공될 수 있다.A system for generating parametric stereo data from phase-modulated stereo data may be provided.

도 1은 본 발명의 예시적인 실시예에 따라, 파라미트릭 스테레오와 같이, 위상 데이터와 진폭 데이터 모두를 갖는 멀티 채널 오디오 데이터를 진폭 데이터만을 활용하는 멀티 채널 오디오 데이터로 변환하기 위한 시스템의 도면이다.
도 2는 본 발명의 예시적인 실시예에 따른 위상차 가중 인자들의 도면이다.
도 3은 본 발명의 예시적인 실시예에 따른 코히어런스 공간 조정 시스템의 도면이다.
도 4는 본 발명의 예시적인 실시예에 따른 파라미트릭 코딩을 위한 방법의 도면이다.
도 5는 본 발명의 예시적인 실시예에 따른 동적 위상 경향 보정을 위한 시스템의 도면이다.
도 6은 본 발명의 예시적인 실시예에 따른 스펙트럼 평탄화를 수행하기 위한 시스템의 도면이다.
도 7은 본 발명의 예시적인 실시예에 따른 전력 보상된 세기 리패닝(re-panning)을 위한 시스템의 도면이다.
1 is a diagram of a system for converting multi-channel audio data having both phase data and amplitude data, such as parametric stereo, into multi-channel audio data utilizing only amplitude data, in accordance with an exemplary embodiment of the present invention .
Figure 2 is a plot of phase difference weighting factors in accordance with an exemplary embodiment of the present invention.
3 is a diagram of a coherence spatial adjustment system in accordance with an exemplary embodiment of the present invention.
4 is a diagram of a method for parametric coding in accordance with an exemplary embodiment of the present invention.
5 is a diagram of a system for dynamic phase trend correction in accordance with an exemplary embodiment of the present invention.
6 is a diagram of a system for performing spectral planarization in accordance with an exemplary embodiment of the present invention.
Figure 7 is a diagram of a system for power compensated intensity re-panning in accordance with an exemplary embodiment of the present invention.

이하의 상세한 설명에서는, 명세서 및 도면에 걸쳐서 동일한 부분들은 동일한 참조번호들로 표시된다. 도면내의 도형들은 실척도가 아닐 수 있고 어떠한 컴포넌트들은 명료함과 간결함을 도모하기 위해 대략화 또는 개략화 형태로 도시될 수 있고 상업적 명칭에 의해 식별될 수 있다.In the following detailed description, like parts throughout the specification and drawings are denoted by like reference numerals. Figures in the figures may not be actual scale and some components may be shown in approximate or simplified form to facilitate clarity and simplicity and may be identified by their commercial names.

도 1은 본 발명의 예시적인 실시예에 따라, 파라미트릭 스테레오와 같이, 위상 데이터와 진폭 데이터 모두를 갖는 멀티 채널 오디오 데이터를 진폭 데이터만을 활용하는 멀티 채널 오디오 데이터로 변환하기 위한 시스템(100)의 도면이다. 시스템(100)은 좌우측 채널 사운드 데이터에서의 위상차를 식별하고, 세기 데이터 또는 진폭 데이터만을 이용하여 스테레오포닉 이미지 데이터를 생성하기 위해 위상차를 진폭차로 변환한다. 마찬가지로, 추가적인 채널들이 또한 이용될 수 있거나 또는 적절한 곳에서 이와 다르게 이용될 수 있다. 1 illustrates a system 100 for converting multi-channel audio data having both phase data and amplitude data into multi-channel audio data utilizing only amplitude data, such as parametric stereo, in accordance with an exemplary embodiment of the present invention. Fig. System 100 identifies the phase difference in the left and right channel sound data and converts the phase difference to an amplitude difference to produce stereophonic image data using only intensity data or amplitude data. Likewise, additional channels may also be used or otherwise used where appropriate.

시스템(100)은 시간-주파수 변환 시스템(102)에서 시간 영역 우측 채널 오디오 데이터를 수신하고, 시간-주파수 변환 시스템(104)에서 시간 영역 좌측 채널 오디오 데이터를 수신한다. 하나의 예시적인 실시예에서, 시스템(100)은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 적절한 조합으로 구현될 수 있고, 이것은 디지털 시스템 프로세서, 범용 프로세싱 플랫폼, 또는 기타의 적절한 플랫폼들상에서 동작하는 하나 이상의 소프트웨어 시스템들일 수 있다. 본 명세서에서 이용될 때, 하드웨어 시스템은 이산적 컴포넌트들, 집적 회로, 응용 특정 집적 회로, 필드 프래그램가능 게이트 어레이, 또는 기타의 적절한 하드웨어의 조합을 포함할 수 있다. The system 100 receives time-domain right channel audio data in the time-frequency conversion system 102 and time-domain left channel audio data in the time-frequency conversion system 104. In one exemplary embodiment, the system 100 may be implemented in hardware, software, or a suitable combination of hardware and software, and it may be implemented as a digital system processor, a general purpose processing platform, or one or more Software systems. As used herein, a hardware system may include discrete components, an integrated circuit, an application specific integrated circuit, a field programmable gate array, or any other suitable combination of hardware.

소프트웨어 시스템은 두 개 이상의 소프트웨어 애플리케이션들 또는 두 개 이상의 프로세서들, 또는 기타의 적절한 소프트웨어 구조들에서 동작하는 하나 이상의 오브젝트들, 에이전트들, 쓰레드들, 코드 라인들, 서브루틴들, 별개의 소프트 애플리케이션들, 두 개 이상의 코드 라인들 또는 기타 적절한 소프트웨어 구조들을 포함할 수 있다. 하나의 예시적인 실시예에서, 소프트웨어 시스템은 운영 시스템과 같은, 범용 소프트웨어 애플리케이션에서 동작하는 하나 이상의 코드 라인들 또는 기타의 적절한 소프트웨어 구조들, 및 특정 목적용 소프트웨어 애플리케이션에서 동작하는 하나 이상의 코드 라인들 또는 기타의 적절한 소프트웨어 구조들을 포함할 수 있다.A software system may include one or more software applications or two or more processors, or one or more objects, agents, threads, code lines, subroutines, separate soft applications , Two or more lines of code, or other appropriate software structures. In one exemplary embodiment, a software system includes one or more lines of code or other suitable software structures, such as an operating system, operating in a general purpose software application, and one or more lines of code And other suitable software structures.

시간-주파수 변환 시스템(102) 및 시간-주파수 변환 시스템(104)은 우측 채널 시간 영역 오디오 데이터와 좌측 채널 시간 영역 오디오 데이터를 각각 주파수 영역 데이터로 전환시킨다. 하나의 예시적인 실시예에서, 주파수 영역 데이터는, 30밀리초와 같은 적절한 시구간 동안의 1,024개의 주파수 데이터의 빈들(bins of frequency data)과 같이, 샘플 주기에 걸쳐 캡쳐된 주파수 데이터의 프레임을 포함할 수 있다. 주파수 데이터의 빈들은 20 kHz와 같은, 미리결정된 주파수 범위에 걸쳐 균등하게 이격될 수 있고, 바크(bark), 등사각형 대역폭(equivalent rectangular bandwidth; ERB)과 같은 미리결정된 대역들에서 응집될 수 있거나, 또는 이와 달리 적절하게 분포될 수 있다. The time-frequency conversion system 102 and the time-frequency conversion system 104 convert the right-channel time-domain audio data and the left-channel time-domain audio data into frequency-domain data, respectively. In one exemplary embodiment, the frequency domain data includes a frame of frequency data captured over the sample period, such as bins of frequency data of 1,024 during an appropriate time period, such as 30 milliseconds. can do. The bins of the frequency data may be evenly spaced over a predetermined frequency range, such as 20 kHz, and may be coherent in predetermined bands such as bark, equivalent rectangular bandwidth (ERB) Or otherwise distributed appropriately.

시간-주파수 변환 시스템(102) 및 시간-주파수 변환 시스템(104)은 위상차 시스템(106)에 결합된다. 본 명세서에서 이용될 때, 용어 "결합된"과 이것의 유사 용어들(예컨대, "결합하다" 또는 "결합되다")은 (와이어, 광섬유, 또는 원격통신 매체와 같은) 물리적 연결, (데이터 메모리 디바이스의 무작위적으로 지정된 메모리 위치들 또는 하이퍼텍스트 전송 프로토콜(hypertext transfer protocol; HTTP) 링크를 통해서와 같은) 가상적 연결, (집적 회로내의 하나 이상의 반도체 디바이스들을 통해서와 같은) 논리적 연결, 또는 기타의 적절한 연결들을 포함할 수 있다. 하나의 예시적인 실시예에서, 통신 매체는 네트워크일 수 있거나 또는 기타의 적절한 통신 매체일 수 있다.The time-frequency conversion system 102 and the time-frequency conversion system 104 are coupled to the phase difference system 106. As used herein, the terms " coupled "and its like terms (e. G.," Coupled "or" coupled ") refer to a physical connection (such as a wire, optical fiber, Virtual connections (such as through randomly designated memory locations of devices or hypertext transfer protocol (HTTP) links), logical connections (such as through one or more semiconductor devices in an integrated circuit), or other suitable Connections. In one exemplary embodiment, the communication medium may be a network or other suitable communication medium.

위상차 시스템(106)은 시간-주파수 변환 시스템(102) 및 시간-주파수 변환 시스템(104)에 의해 생성된 주파수 데이터의 프레임들에서의 주파수 빈들간의 위상차를 결정한다. 이러한 위상차들은 청취자에 의해 평상시에 인식될 것이며, 신호의 스테레오포닉 퀄리티를 향상시켜주는 위상 데이터를 나타낸다. The phase difference system 106 determines the phase difference between the frequency bins in the frames of frequency data generated by the time-frequency conversion system 102 and the time-frequency conversion system 104. These phase differences will be normally recognized by the listener and represent phase data that improves the stereophonic quality of the signal.

위상차 시스템(106)은 N-2 프레임 버퍼(110), N-1 프레임 버퍼(112), 및 N 프레임 버퍼(114)를 포함한 버퍼 시스템(108)에 결합된다. 하나의 예시적인 실시예에서, 버퍼 시스템(108)은, 희망하는 프레임 갯수로부터 위상차 데이터를 저장하기 위해, 적절한 갯수의 프레임 버퍼들을 포함할 수 있다. N-2 프레임 버퍼(110)는 시간-주파수 변환 시스템(102) 및 시간-주파수 변환 시스템(104)에 의해 변환된 제2의 이전 데이터 프레임들에 대한, 위상차 시스템(106)으로부터 수신된 위상차 데이터를 저장한다. 마찬가지로, N-1 프레임 버퍼(112)는 위상차 시스템(106)으로부터의 이전의 위상차 데이터 프레임들에 대한 위상차 데이터를 저장한다. N 프레임 버퍼(114)는 위상차 시스템(106)에 의해 생성된 위상차의 현재 프레임들에 대한 현재의 위상차 데이터를 저장한다.The phase difference system 106 is coupled to a buffer system 108 that includes an N-2 frame buffer 110, an N-1 frame buffer 112, and an N frame buffer 114. In one exemplary embodiment, the buffer system 108 may include an appropriate number of frame buffers to store the phase difference data from the desired number of frames. The N-2 frame buffer 110 receives the phase difference data received from the phase difference system 106 for the second previous data frames transformed by the time-frequency transform system 102 and the time- / RTI > Similarly, the N-1 frame buffer 112 stores the phase difference data for the previous phase difference data frames from the phase difference system 106. [ The N frame buffer 114 stores the current phase difference data for the current frames of the phase difference generated by the phase difference system 106. [

위상차 시스템(116)은 N-2 프레임 버퍼(110)와 N-1 프레임 버퍼(112)에 결합되고, 이러한 버퍼들에 저장된 두 개의 위상차 데이터 세트들간의 위상차를 결정한다. 마찬가지로, 위상차 시스템(118)은 N-1 프레임 버퍼(112)와 N 프레임 버퍼(114)에 결합되고, 이러한 버퍼들에 저장된 두 개의 위상차 데이터 세트들간의 위상차를 결정한다. 마찬가지로, 버퍼 시스템(108)에 저장된 적절한 갯수의 프레임들에 대한 위상차들을 생성하기 위해 추가적인 위상차 시스템들이 이용될 수 있다.The phase difference system 116 is coupled to the N-2 frame buffer 110 and the N-1 frame buffer 112 and determines the phase difference between the two sets of phase difference data stored in these buffers. Similarly, phase difference system 118 is coupled to N-1 frame buffer 112 and N frame buffer 114 and determines the phase difference between the two sets of phase difference data stored in these buffers. Likewise, additional phase difference systems can be used to generate phase differences for an appropriate number of frames stored in the buffer system 108.

위상차 시스템(120)은 위상차 시스템(116) 및 위상차 시스템(118)에 결합되고, 각각의 시스템으로부터 위상차 데이터를 수신하며, 총 위상차를 결정한다. 이 예시적인 실시예에서, 보다 큰 위상차를 갖는 주파수 빈들과 보다 작은 위상차를 갖는 주파수 빈들을 식별하기 위해, 세 개의 연속적인 주파수 데이터 프레임들에 대한 위상차가 결정된다. 미리결정된 갯수의 위상차 데이터 프레임들에 대한 총 위상차를 결정하기 위해 추가적인 위상차 시스템이 또한 이용될 수 있거나 또는 양자택일적으로 이용될 수 있다.Phase difference system 120 is coupled to phase difference system 116 and phase difference system 118, receives phase difference data from each system, and determines the total phase difference. In this exemplary embodiment, to identify frequency bins having a larger phase difference and frequency bins having a smaller phase difference, the phase difference for three consecutive frequency data frames is determined. Additional phase difference systems may also be used or alternatively may be used to determine the total phase difference for a predetermined number of phase difference data frames.

위상차 버퍼(122)는 이전 세 개의 프레임들의 세트에 대한, 위상차 시스템(120)으로부터의 위상차 데이터를 저장한다. 마찬가지로, 만약 버퍼 시스템(108)이 세 개 보다 많은 프레임 차이들을 포함한다면, 위상차 버퍼(122)는 추가적인 위상차 데이터를 저장할 수 있다. 위상차 버퍼(122)는 또한 프레임들(N-4, N-3, N-2)로부터 생성된 세트, 프레임들(N-3, N-2, N-1)로부터 생성된 세트, 프레임들(N-2, N-1, N)로부터 생성된 세트, 프레임들(N-1, N, N+l)로부터 생성된 세트, 또는 기타의 적절한 위상차 데이터 세트들과 같은, 추가적인 이전 위상차 데이터 세트들에 대한 위상차 데이터를 저장할 수 있거나 또는 양자택일적으로 이러한 데이터를 저장할 수 있다. Phase difference buffer 122 stores phase difference data from phase difference system 120 for the previous set of three frames. Similarly, if the buffer system 108 includes more than three frame differences, the phase difference buffer 122 may store additional phase difference data. The phase difference buffer 122 also includes a set generated from the frames N-4, N-3 and N-2, a set generated from the frames N-3, N-2 and N- Additional previous phase difference data sets, such as a set generated from frames N-2, N-1, N, a set generated from frames N-1, N, N + Or may alternatively store such data. ≪ RTI ID = 0.0 >

위상차 가중 시스템(124)은 위상차 버퍼(122)로부터 버퍼링된 위상차 데이터를 수신하고, 위상차 시스템(120)으로부터 현재의 위상차 데이터를 수신하며, 위상차 가중 인자를 적용한다. 하나의 예시적인 실시예에서, 높은 위상차 정도를 나타내는 주파수 빈들에는 일관된 위상차를 나타내는 주파수 빈들보다 작은 가중 인자가 주어진다. 이러한 방식으로, 연속적인 프레임들간의 높은 위상차 정도를 나타내는 주파수 빈들로부터의 변경들을 제거하고, 연속적인 프레임들간의 낮은 위상차를 나타내는 주파수 빈들에 대한 강조를 제공하기 위해 진폭 데이터를 평탄화하는데 주파수 차이 데이터가 이용될 수 있다. 이러한 평탄화는 특히, 낮은 비트 레이트 오디오 데이터가 프로세싱중이거나 생성중에 있을 때에, 위상 데이터와 진폭 데이터를 갖는 오디오 데이터로부터, 파라미트릭 스테레오 데이터와 같은, 진폭 데이터만을 갖는 오디오 데이터로의 변환에 의해 도입될 수 있는 오디오 인공물을 감소 또는 제거시키는데 도움을 줄 수 있다. The phase difference weighting system 124 receives the buffered phase difference data from the phase difference buffer 122, receives the current phase difference data from the phase difference system 120, and applies a phase difference weighting factor. In one exemplary embodiment, frequency bins representing a high degree of phase difference are given weighting factors that are smaller than frequency bins representing a consistent phase difference. In this manner, the frequency difference data is used to flatten the amplitude data to remove changes from frequency bins representing the high degree of phase difference between successive frames and to provide emphasis on frequency bins representing low phase differences between successive frames Can be used. This leveling is especially introduced when the low bit rate audio data is being processed or being generated by conversion from audio data having phase data and amplitude data to audio data having only amplitude data, such as parametric stereo data Which can help reduce or eliminate audio artifacts that can occur.

진폭 변경 시스템(126)은 위상차 가중 시스템(124)으로부터 위상차 가중 인자 데이터를 수신하고, 진폭 변경 데이터를 시간-주파수 변환 시스템(102) 및 시간-주파수 변환 시스템(104)으로부터 변환된 좌측 채널 및 우측 채널 데이터에 제공한다. 이러한 방식으로, 진폭을 조정하여 위상차를 보정하기 위해 좌우 채널 오디오에 대한 현재의 프레임 주파수 데이터는 변경되며, 이것은 스테레오포닉 사운드를 생성하는데 이용될 좌우 진폭 값들간의 패닝(panning)을 가능하게 해준다. 이러한 방식으로, 위상 데이터가 송신될 필요 없이 진폭만에 의해 스테레오 채널 사운드 또는 기타의 멀티 채널 사운드를 시뮬레이팅하기 위해 좌우 채널들간의 위상차는 평탄화되고 진폭 변경 데이터로 변환된다. 마찬가지로, 주파수 데이터 프레임들(N-1, N, N+l)의 세트, 또는 기타의 적절한 데이터 세트들로부터의 데이터를 활용하기 위해, 변경중에 있는 주파수 데이터의 현재 프레임을 버퍼링하는데 버퍼 시스템이 이용될 수 있다. 진폭 변경 시스템(126)은 또한 청취자에 대한 명백한 스테이지를 좁히거나 넓히기 위해, 미리결정된 주파수 빈들, 주파수 빈들의 그룹에 대한 두 개 이상의 채널들간의 진폭차를 수축 또는 팽창시킬 수 있거나, 또는 기타의 적절한 방식으로 채널들간의 진폭차를 수축 또는 팽창시킬 수 있다.The amplitude changing system 126 receives the phase difference weighting factor data from the phase difference weighting system 124 and provides amplitude changing data from the time-frequency transforming system 102 and the time-frequency transforming system 104 to the transformed left channel and right Channel data. In this way, the current frame frequency data for the left and right channel audio is modified to adjust the amplitude to correct the phase difference, which allows panning between the left and right amplitude values to be used to generate the stereophonic sound. In this way, the phase difference between the left and right channels is flattened and converted into amplitude change data in order to simulate a stereo channel sound or other multi-channel sound only by the amplitude without the phase data needing to be transmitted. Similarly, to utilize data from a set of frequency data frames (N-1, N, N + 1), or other suitable data sets, the buffer system may be used to buffer the current frame of frequency data being modified . The amplitude modification system 126 may also contraction or expand the amplitude difference between two or more channels for a predetermined frequency bands, a group of frequency bins, or other suitable frequency bands to narrow or broaden the apparent stage for the listener The amplitude difference between the channels can be contracted or expanded.

주파수-시간 변환 시스템(128) 및 주파수-시간 변환 시스템(130)은 진폭 변경 시스템(126)으로부터 변경된 진폭 데이터를 수신하고, 주파수 데이터를 시간 신호로 변환시킨다. 이러한 방식으로, 세기만을 이용하여 스테레오 데이터를 시뮬레이팅하기 위해 주파수-시간 변환 시스템(128) 및 주파수-시간 변환 시스템(130)에 의해 생성된 촤즉 채널 및 우측 채널 데이터들은 각각 동위상이지만 진폭은 다르며, 이로써 위상 데이터는 저장되거나, 송신되거나 또는 이와 달리 프로세싱될 필요가 없다. The frequency-to-time conversion system 128 and the frequency-to-time conversion system 130 receive the changed amplitude data from the amplitude varying system 126 and convert the frequency data into a time signal. In this way, the near-channel and right-channel data generated by the frequency-to-time conversion system 128 and the frequency-to-time conversion system 130 for simulating stereo data using only the intensity are each in phase but with different amplitudes , Whereby the phase data need not be stored, transmitted, or otherwise processed.

동작시, 스테레오포닉 또는 기타의 멀티 채널 오디오 데이터 또는 기타의 멀티 채널 오디오 데이터를 생성하기 위해 송신될 필요가 있는 데이터 양을 감소시키기 위해, 시스템(100)은 위상 및 진폭 데이터를 포함한 멀티 채널 오디오 데이터를 프로세싱하고, 진폭 데이터만을 갖는 멀티 채널 오디오 데이터를 생성한다. 시스템(100)은 고주파수 위상 변동으로부터의 효과를 감소시키는 방식으로 주파수 데이터에서의 변동에 대해 진폭 데이터를 보상시킴으로써, 위상 및 진폭 데이터를 포함한 오디오 데이터가 진폭 데이터만을 포함한 오디오 데이터로 변환될 때에 생성될 수 있는 오디오 인공물을 제거한다. 이러한 방식으로, 다른 방식을 통해서였다면 오디오 데이터의 송신에 대해 이용가능한 비트 레이트가 고주파수 위상 데이터를 정확하게 나타내는데 필요한 비트 레이트보다 낮을 때에 도입될 수 있는 오디오 인공물은 제거된다. In operation, in order to reduce the amount of data that needs to be transmitted to produce stereo phonetic or other multi-channel audio data or other multi-channel audio data, the system 100 includes multi-channel audio data And generates multi-channel audio data having only amplitude data. System 100 compensates for variations in frequency data in a manner that reduces effects from high frequency phase fluctuations, so that when the audio data including phase and amplitude data is converted to audio data that includes only amplitude data Remove audio artifacts that can be. In this way, audio artifacts that could be introduced when the available bit rate for transmission of audio data was lower than the bit rate needed to accurately represent the high frequency phase data, if it were through other schemes, is eliminated.

도 2는 본 발명의 예시적인 실시예에 따른 위상차 가중 인자들(200A, 200B)의 도면이다. 위상차 가중 인자들(200A, 200B)은 위상 변동 함수로서 진폭 데이터에 적용될 예시적인 평준화된 가중 인자들을 보여준다. 하나의 예시적인 실시예에서, 스테레오 사운드를 부적절하게 표현할 파라미트릭 스테레오 데이터 또는 기타의 멀티 채널 데이터를 일으킬 잠재적인 노이즈 또는 기타의 오디오 인공물을 평탄화 제거시키기 위해, 높은 위상 변동 정도를 보여주는 주파수 빈들은 보다 낮은 위상 변동 정도를 보여주는 주파수 빈들보다 낮은 평준화된 가중 인자로 가중치부여된다. 하나의 예시적인 실시예에서, 위상차 가중 인자들(200A, 200B)은 위상차 가중 시스템(124) 또는 기타의 적절한 시스템에 의해 적용될 수 있다. 오디오 데이터에 대한 비트 레이트에서의 예상된 감소를 도모하기 위해 가중치 양은 변경될 수 있다. 예를 들어, 높은 데이터 감소도가 필요한 경우, 높은 위상 변동 정도를 나타내는 주파수 빈들에게 주어진 가중치는 위상차 가중 인자(200A)에서 도시된 점근적 방식에서와 같이, 상당히 감소될 수 있으며, 낮은 데이터 감소도가 필요한 경우, 보다 높은 위상 변동 정도를 나타내는 주파수 빈들에 주어진 가중치는 위상차 가중 인자(200B)를 이용하는 것과 같이, 보다 작게 감소될 수 있다. 2 is a diagram of phase difference weighting factors 200A, 200B in accordance with an exemplary embodiment of the present invention. The phase difference weighting factors 200A and 200B show exemplary leveled weighting factors to be applied to the amplitude data as a phase variation function. In one exemplary embodiment, in order to flatten out the potential noise or other audio artifacts that would cause parametric stereo data or other multi-channel data to inappropriately represent the stereo sound, frequency bins that show a high degree of phase variation Is weighted with a lowered equalized weighting factor than frequency bins showing a lower degree of phase variation. In one exemplary embodiment, phase difference weighting factors 200A and 200B may be applied by phase difference weighting system 124 or other suitable system. The amount of weight can be changed to achieve an expected reduction in bit rate for audio data. For example, if a high degree of data reduction is required, the weights given to the frequency bins representing the high degree of phase variation can be significantly reduced, such as in the asymptotic manner shown in phase difference weighting factor 200A, A weight given to frequency bins representing a higher degree of phase variation can be reduced to a smaller value, such as by using a phase difference weighting factor 200B.

도 3은 본 발명의 예시적인 실시예에 따른 코히어런스 공간 조정 시스템(300)의 도면이다. 코히어런스 공간 조정 시스템(300)은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 적절한 조합으로 구현될 수 있고, 이것은 범용 프로세싱 플랫폼상에서 동작하는 하나 이상의 시스템들, 또는 하나 이상의 이산 디바이스들, 또는 기타의 적절한 시스템들일 수 있다.3 is a diagram of a coherence spatial adjustment system 300 in accordance with an exemplary embodiment of the present invention. Coherence spatial adjustment system 300 may be implemented in hardware, software, or a suitable combination of hardware and software, which may be implemented in one or more systems operating on a general purpose processing platform, or in one or more discrete devices, Systems.

코히어런스 공간 조정 시스템(300)은 예시적인 공간 조정 시스템의 실시예를 제공하지만, 공간 조정 알고리즘을 이행하기 위한 기타의 적절한 프레임워크, 시스템, 프로세스 또는 아키텍처가 또한 이용될 수 있거나 양자택일적으로 이용될 수 있다. Coherence spatial adjustment system 300 provides an example of an exemplary spatial adjustment system, but other suitable frameworks, systems, processes, or architectures for implementing spatial adjustment algorithms may also be utilized, or alternatively, Can be used.

코히어런스 공간 조정 시스템(300)은 오디오 압축 동안의 인공물을 줄이기 위해 멀티 채널 오디오 신호의 공간적 양태(즉, 시스템(300)은 스테레오 조정 시스템을 도시한다)를 변경시킨다. 스테레오 입력 스펙트럼의 위상 스펙트럼이 제일 먼저 감산기(302)에 의해 차별화되어 차분 위상 스펙트럼을 생성시킨다. 차분 위상 스펙트럼은 승산기(304)를 통해 가중 인자들 Y(K) = B1X(K) + B2X(K-1) - A1Y(K-1)에 의해 가중치 부여되며,Coherence spatial adjustment system 300 changes spatial aspects of a multi-channel audio signal (i. E., System 300 shows a stereo adjustment system) to reduce artifacts during audio compression. The phase spectrum of the stereo input spectrum is first differentiated by the subtractor 302 to generate a differential phase spectrum. The differential phase spectrum is weighted by a weighting factor Y (K) = B 1 X (K) + B 2 X (K-1) - A 1 Y (K-1)

여기서:here:

Y(K) = 평탄화된 주파수 빈 K 진폭;Y (K) = flattened frequency bin K amplitude;

Y(K-1) = 평탄화된 주파수 빈 K-1 진폭; Y (K-1) = flattened frequency bin K-1 amplitude;

X(K) = 주파수 빈 K 진폭; X (K) = frequency bin K amplitude;

X(K-1) = 주파수 빈 K-1 진폭; X (K-1) = frequency bin K-1 amplitude;

B1 = 가중 인자; B 1 = weighting factor;

B2 = 가중 인자;B 2 = weighting factor;

A1 = 가중 인자; 및A 1 = weighting factor; And

B1 + B2 + A1 = 1이다. B 1 + B 2 + A 1 = 1.

가중 인자들, B1, B2, A1은 관측, 시스템 설계, 또는 기타의 적절한 인자들에 기초하여 결정될 수 있다. 하나의 예시적인 실시예에서, 가중 인자들, B1, B2, A1은 모든 주파수 빈들에 대해 고정된다. 마찬가지로, 가중 인자들, B1, B2, A1은 바크(bark) 또는 기타의 적절한 주파수 빈들의 그룹에 기초하여 변경될 수 있다. The weighting factors, B 1 , B 2 , A 1 , may be determined based on observations, system design, or other appropriate factors. In one exemplary embodiment, the weighting factors, B 1 , B 2 , A 1 , are fixed for all frequency bins. Similarly, the weighting factors, B 1 , B 2 , A 1 , may be changed based on a group of bark or other suitable frequency bins.

그 후 가중된 차분 위상 신호는 2로 나뉘어지고 감산기(308)에 의해 입력 위상 스펙트럼 0에서 감산되며 가산기(306)에 의해 입력 위상 스펙트럼 1과 합산된다. 감산기(308)와 가산기(306)의 출력들은 각각 출력 조정된 위상 스펙트럼 0과 출력 조정된 위상 스펙트럼 1이다.The weighted difference phase signal is then divided by 2 and subtracted by the subtractor 308 from the input phase spectrum 0 and summed with the input phase spectrum 1 by the adder 306. [ The outputs of the subtractors 308 and 306 are the output adjusted phase spectrum 0 and the output adjusted phase spectrum 1, respectively.

동작시, 코히어런스 공간 조정 시스템(300)은 파라미트릭 스테레오에서의 이용을 위한 것과 같은, 모노 위상 스펙트럼 대역 생성의 효과를 갖는다. In operation, the coherence spatial adjustment system 300 has the effect of generating a mono phase spectrum band, such as for use in parametric stereos.

도 4는 본 발명의 예시적인 실시예에 따른 파라미트릭 코딩을 위한 방법(400)의 도면이다. 방법(400)은 N개의 오디오 데이터 채널들이 주파수 영역으로 변환되는 단계 402에서 시작한다. 하나의 예시적인 실시예에서, 푸리에 변환 또는 기타의 적절한 변환을 이용하는 것과 같이, 좌측 채널 스테레오 데이터와 우측 채널 스테레오 데이터는 각각 미리결정된 기간에 걸쳐 주파수 영역 데이터의 프레임으로 변환될 수 있다. 그런 후, 본 방법은 단계 404로 진행한다. 4 is a diagram of a method 400 for parametric coding in accordance with an exemplary embodiment of the present invention. The method 400 begins at step 402 where the N audio data channels are transformed into the frequency domain. In one exemplary embodiment, the left channel stereo data and the right channel stereo data may each be transformed into a frame of frequency domain data over a predetermined period of time, such as using a Fourier transform or other appropriate transformation. The method then proceeds to step 404.

단계 404에서, 채널들간의 위상차가 결정된다. 하나의 예시적인 실시예에서, 좌우측 채널들간의 위상차를 결정하기 위해 좌우측 채널 오디오 데이터들의 주파수 빈들은 비교되어질 수 있다. 그런 후, 본 방법은 단계 406로 진행한다. In step 404, the phase difference between the channels is determined. In one exemplary embodiment, the frequency bins of the left and right channel audio data may be compared to determine the phase difference between the left and right channels. The method then proceeds to step 406.

단계 406에서, 프레임에 대한 위상차 데이터가 버퍼에 저장된다. 하나의 예시적인 실시예에서, 버퍼 시스템은 위상차 데이터를 저장하기 위한 미리결정된 갯수의 버퍼들을 포함할 수 있고, 버퍼들은 동적으로 할당될 수 있거나, 또는 기타의 적절한 프로세스들이 이용될 수 있다. 그런 후, 본 방법은 단계 408로 진행한다. In step 406, the phase difference data for the frame is stored in the buffer. In one exemplary embodiment, the buffer system may include a predetermined number of buffers for storing phase difference data, the buffers may be dynamically allocated, or other suitable processes may be used. The method then proceeds to step 408.

단계 408에서, M개의 데이터 프레임들이 버퍼내에 저장되어 있는지 여부를 결정한다. 하나의 예시적인 실시예에서, 희망하는 갯수의 프레임들간에 평탄화가 수행될 수 있도록 하기 위해, M은 3과 동일할 수 있거나 또는 임의의 기타 적절한 범자연수일 수 있다. 만약 단계 408에서, M개의 데이터 프레임들이 저장되어 있지 않다고 결정되면, 본 방법은 단계 402로 복귀한다. 그렇지 않은 경우에는, 본 방법은 단계 410으로 진행한다.At step 408, it is determined whether M data frames are stored in the buffer. In one exemplary embodiment, M may be equal to 3, or may be any other appropriate number of years to allow for the planarization to be performed between a desired number of frames. If, at step 408, it is determined that M data frames are not stored, the method returns to step 402. Otherwise, the method proceeds to step 410.

단계 410에서, M-1 프레임과 M 프레임간의 위상차가 결정된다. 예를 들어, 만약 M이 3과 동일하면, 데이터의 제2 프레임과 제3 프레임간의 위상차가 결정된다. 그 다음, 본 방법은 위상차 데이터가 버퍼링되는 단계 412로 진행한다. 하나의 예시적인 실시예에서, 미리결정된 갯수의 버퍼들이 하드웨어 또는 소프트웨어로 생성될 수 있고, 버퍼 시스템은 버퍼 데이터 저장 영역들을 동적으로 할당할 수 있거나, 또는 기타 적절한 프로세스들이 이용될 수 있다. 그 다음, 본 방법은 M이 1만큼 감소되는 단계 414로 진행한다. 그 다음, 본 방법은 M이 0과 동일한지 여부를 결정하는 단계 416으로 진행한다. 예를 들어, M이 0과 동일해지면, 버퍼링된 모든 데이터 프레임들은 프로세싱되었다. 만약 M이 0과 동일하지 않은 것으로 결정되면, 본 방법은 단계 402로 복귀한다. 그렇지 않은 경우에는, 본 방법은 단계 418로 진행한다.In step 410, the phase difference between the M-1 frame and the M frame is determined. For example, if M equals 3, the phase difference between the second frame and the third frame of data is determined. The method then proceeds to step 412 where the phase difference data is buffered. In one exemplary embodiment, a predetermined number of buffers may be created in hardware or software, and the buffer system may dynamically allocate buffer data storage areas, or other suitable processes may be utilized. The method then proceeds to step 414 where M is decremented by one. The method then proceeds to step 416 of determining whether M is equal to zero. For example, if M equals zero, all buffered data frames have been processed. If it is determined that M is not equal to 0, the method returns to step 402. [ Otherwise, the method proceeds to step 418.

단계 418에서, 버퍼링된 프레임 위상차 데이터간의 위상차가 결정된다. 예를 들어, 만약 두 개의 위상차 데이터 프레임들이 저장되었다면, 이 두 개의 프레임들간의 차이가 결정된다. 마찬가지로, 세 개, 네 개, 또는 이와 다른 적절한 갯수의 위상차 데이터 프레임들간의 차이가 이용될 수 있다. 그 다음, 본 방법은 멀티 프레임 차이 데이터가 버퍼링되는 단계 420으로 진행한다. 그런 후, 본 방법은 단계 422로 진행한다. In step 418, the phase difference between the buffered frame phase difference data is determined. For example, if two phase difference data frames are stored, the difference between the two frames is determined. Likewise, differences between three, four, or any other suitable number of phase difference data frames may be used. The method then proceeds to step 420 where the multi-frame difference data is buffered. The method then proceeds to step 422.

단계 422에서, 미리결정된 갯수의 멀티 프레임 버퍼값들이 저장되어 있는지 여부를 결정한다. 만약 미리결정된 갯수의 멀티 프레임 버퍼값들이 저장되어 있지 않다고 결정되면, 본 방법은 단계 402로 복귀한다. 그렇지 않은 경우에는, 본 방법은 단계 424로 진행한다. At step 422, a determination is made whether a predetermined number of multi-frame buffer values are stored. If it is determined that a predetermined number of multi-frame buffer values are not stored, the method returns to step 402. Otherwise, the method proceeds to step 424.

단계 424에서, 이전 멀티 프레임 버퍼 및 현재의 멀티 프레임 버퍼에 대한 위상차 데이터가 생성된다. 예를 들어, 두 개의 멀티 프레임 버퍼링된 데이터 값들이 존재하는 경우, 두 개의 멀티 프레임 버퍼들간의 위상차가 결정된다. 마찬가지로, N이 2보다 큰 경우, 이전 멀티 프레임 버퍼 및 현재의 멀티 프레임 버퍼간의 위상차가 또한 결정될 수 있다. 그런 후, 본 방법은 단계 426으로 진행한다.In step 424, phase difference data for the previous multi-frame buffer and the current multi-frame buffer are generated. For example, if there are two multi-frame buffered data values, the phase difference between the two multi-frame buffers is determined. Similarly, if N is greater than 2, the phase difference between the previous multi-frame buffer and the current multi-frame buffer can also be determined. The method then proceeds to step 426.

단계 426에서, 위상차 데이터에 기초하여 가중 인자가 주파수 데이터의 현재 프레임, 이전 프레임 또는 기타 적절한 프레임에서의 각각의 주파수 빈에 적용된다. 예를 들어, 만약 위상 데이터가 폐기되거나 또는 폐기되지 않고 달리 처분된다면 파라미트릭 스테레오 데이터에서 오디오 인공물을 생성시킬 수 있는 위상 데이터를 나타내는 기타의 정보, 오디오 인공물, 또는 노이즈를 감소시키기 위해, 가중 인자는, 작은 위상 변동을 나타내는 주파수 빈들에 대한 진폭 값들에 보다 높은 가중치를 적용할 수 있고, 높은 위상 변동을 나타내는 주파수 빈들을 덜 강조시킬 수 있다. 가중 인자들은 오디오 데이터 송신 비트 레이트에서의 미리결정된 감소에 기초하여 선택될 수 있고, 이것은 또한 주파수 빈 또는 주파수 빈들의 그룹에 기초하여 변할 수 있거나 또는 양자택일적으로 이와 같이 변할 수 있다. 그런 후, 본 방법은 단계 428로 진행한다.In step 426, a weighting factor based on the phase difference data is applied to each frequency bin in the current frame, previous frame, or other appropriate frame of frequency data. For example, to reduce other information, audio artifacts, or noise that represent phase data that can produce audio artifacts in parametric stereo data if the phase data is discarded or otherwise discarded, Can apply a higher weight to the amplitude values for frequency bins that exhibit small phase fluctuations and can less emphasize frequency bins that exhibit high phase fluctuations. The weighting factors can be selected based on a predetermined reduction in audio data transmission bit rate, which can also vary based on the group of frequency bins or frequency bins, or alternatively can vary as such. The method then proceeds to step 428.

단계 428에서, 좌측 채널 데이터와 우측 채널 데이터에 대한 가중된 주파수 데이터는 주파수 영역에서 시간 영역으로 변환된다. 하나의 예시적인 실시예에서, 오디오 데이터의 이전 프레임들의 세트들에 기초하여, 평탄화 프로세스가 오디오 데이터의 현재의 프레임들의 세트에 대해 수행될 수 있다. 또다른 예시적인 실시예에서, 오디오 데이터의 이전 프레임들 및 후속하는 프레임들의 세트들에 기초하여, 평탄화 프로세스가 오디오 데이터의 이전 프레임들의 세트에 대해 수행될 수 있다. 마찬가지로, 다른 적절한 프로세스들이 또한 이용될 수 있거나 또는 양자택일적으로 이용될 수 있다. 이러한 방식으로, 오디오 데이터의 채널들은, 위상 데이터의 저장 또는 송신을 요구하는 것 없이, 그리고 채널들간의 위상 변동들의 주파수가 이용가능한 송신 채널 대역폭에 의해 수용될 수 있는 주파수를 초과할 때 초래될 수 있는 오디오 인공물의 생성 없이, 멀티 채널 사운드를 시뮬레이팅하기 위해, 위상 데이터가 제거되었지만 위상 데이터가 진폭 데이터로 변환되어 있는 파라미트릭 멀티 채널 퀄리티를 나타낸다.In step 428, the weighted frequency data for the left channel data and the right channel data is transformed from the frequency domain to the time domain. In one exemplary embodiment, a planarization process may be performed on a current set of frames of audio data, based on sets of previous frames of audio data. In another exemplary embodiment, a planarization process may be performed on a previous set of frames of audio data, based on previous frames of audio data and subsequent sets of frames. Likewise, other suitable processes may also be used or alternatively may be used. In this manner, the channels of audio data can be generated without requiring storage or transmission of phase data, and when the frequency of phase variations between channels exceeds the frequency that can be accommodated by the available transmission channel bandwidth In order to simulate multichannel sound without the generation of an audio artifact, it represents a parametric multi-channel quality in which the phase data is removed but the phase data is converted to amplitude data.

동작시, 방법(400)은 파라미트릭 스테레오 또는 기타의 멀티 채널 데이터가 생성될 수 있도록 해준다. 방법(400)은 좌측 및 우측 또는 기타의 멀티 채널들간의 위상 관계가 송신되거나 또는 이와 달리 프로세싱될 것을 요구하지 않고서, 스테레오포닉 또는 기타의 멀티 채널 사운드의 양태들을 보존하기 위해, 스테레오 또는 기타의 멀티 채널 데이터간의 주파수 차이를 제거하고, 이들의 주파수 변동을 진폭 변동으로 전환시킨다. 이러한 방식으로, 위상 데이터의 제거를 보상하기 위해 수신기에 의해 요구될 측대역 데이터 또는 기타 데이터에 대한 필요성 없이 위상 보상된 멀티 채널 오디오 데이터를 생성하는데 기존의 수신기들이 이용될 수 있다.In operation, the method 400 allows parametric stereo or other multi-channel data to be generated. The method 400 may also be used to store stereo or other multi-channel sounds, such as stereo or other multi-channel sound, to preserve aspects of stereo phonics or other multi-channel sound without requiring that the phase relationship between the left and right or other multi- Eliminates frequency differences between channel data, and converts these frequency variations into amplitude variations. In this manner, existing receivers can be used to generate phase-compensated multi-channel audio data without the need for sideband data or other data required by the receiver to compensate for the elimination of phase data.

도 5는 본 발명의 예시적인 실시예에 따른 동적 위상 경향 보정을 위한 시스템(500)의 도면이다. 시스템(500)은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 적절한 조합으로 구현될 수 있고, 이것은 범용 프로세싱 플랫폼상에서 동작하는 하나 이상의 소프트웨어 시스템들일 수 있다. 5 is a diagram of a system 500 for dynamic phase trend correction in accordance with an exemplary embodiment of the present invention. The system 500 may be implemented in hardware, software, or a suitable combination of hardware and software, which may be one or more software systems operating on a general purpose processing platform.

시스템(500)은 좌측 시간 신호 시스템(502)과 우측 시간 신호 시스템(504)을 포함하며, 이것들은 스테레오포닉 사운드 소스, 또는 기타의 적절한 시스템들로부터 생성되거나 또는 수신된 좌우 채널 시간 신호들을 제공할 수 있다. 단구간 푸리에 변환 시스템들(506, 508)은 각각 좌측 시간 신호 시스템(502)과 우측 시간 신호 시스템(504)에 결합되며, 시간 신호들의 시간-주파수 영역 변환을 수행한다. 푸리에 변환, 이산 코사인 변환, 또는 기타의 적절한 변환들과 같은, 다른 변환들이 또한 이용될 수 있거나, 양자택일적으로 이용될 수 있다.The system 500 includes a left temporal signal system 502 and a right temporal signal system 504 that provide left and right channel time signals generated or received from a stereophonic sound source, . The short-range Fourier transform systems 506 and 508 are coupled to the left temporal signal system 502 and the right temporal signal system 504, respectively, and perform time-frequency domain transform of time signals. Other transforms, such as Fourier transforms, discrete cosine transforms, or other suitable transforms may also be used, or alternatively may be used.

단구간 푸리에 변환 시스템들(506, 508)로부터의 출력은 3개 프레임 지연 시스템들(510, 520)에 각각 제공된다. 단구간 푸리에 변환 시스템들(506, 508)의 진폭 출력들은 진폭 시스템들(512, 518)에 각각 제공된다. 단구간 푸리에 변환 시스템들(506, 508)의 위상 출력들은 위상 시스템들(514, 516)에 각각 제공된다. 진폭 시스템들(512, 518) 및 위상 시스템들(514, 516)에 의해 추가적인 프로세싱이 수행될 수 있으며, 이러한 시스템들은 각각의 비프로세싱된 신호 또는 데이터를 제공할 수 있다.Outputs from the short-range Fourier transform systems 506 and 508 are provided to the three-frame delay systems 510 and 520, respectively. The amplitude outputs of the short-range Fourier transform systems 506 and 508 are provided to the amplitude systems 512 and 518, respectively. The phase outputs of the short-range Fourier transform systems 506 and 508 are provided to the phase systems 514 and 516, respectively. Additional processing may be performed by the amplitude systems 512 and 518 and the phase systems 514 and 516 and these systems may provide respective non-processed signals or data.

임계 대역 필터 뱅크들(522, 524)은 진폭 시스템들(512, 518)로부터 각각 진폭 데이터를 수신하고, 미리결정된 주파수 데이터 대역들을 필터링한다. 하나의 예시적인 실시예에서, 임계 대역 필터 뱅크들(522, 524)은, 바크(Bark)의 주파수 스케일과 같은, 인간 청각 응답 및 주파수 빈들의 지각 에너지에 기초하여 주파수 빈들을 그룹화하는 심리음향 필터(psycho-acoustic filter)에 기초하여, 선형적으로 이격된 주파수 빈들을 주파수 빈들의 비선형적 그룹들로 그룹화할 수 있다. 하나의 예시적인 실시예에서, 바크 주파수 스케일은 처음 24개의 인간 청각 임계 대역들에 대응하는, 1 내지 24 바크의 범위를 가질 수 있다. 예시적인 바크 대역 엣지들은 0, 100, 200, 300, 400, 510, 630, 770, 920, 1080, 1270, 1480, 1720, 2000, 2320, 2700, 3150, 3700, 4400, 5300, 6400, 7700, 9500, 12000, 15500 헤르쯔로서 주어진다. 예시적인 바크 대역 중심들은 50, 150, 250, 350, 450, 570, 700, 840, 1000, 1170, 1370, 1600, 1850, 2150, 2500, 2900, 3400, 4000, 4800, 5800, 7000, 8500, 10500, 13500 헤르쯔이다.The critical band filter banks 522 and 524 receive the amplitude data from the amplitude systems 512 and 518, respectively, and filter the predetermined frequency data bands. In one exemplary embodiment, the critical band filter banks 522 and 524 include a psychoacoustic filter (not shown) that groups frequency bins based on the perceptual energies of human auditory responses and frequency bins, such as the frequency scale of Bark linearly spaced frequency bins may be grouped into non-linear groups of frequency bins based on a psycho-acoustic filter. In one exemplary embodiment, the Bark frequency scale may have a range of 1 to 24 barks, corresponding to the first 24 human auditory threshold bands. Exemplary Bark band edges are 0, 100, 200, 300, 400, 510, 630, 770, 920, 1080, 1270, 1480, 1720, 2000, 2320, 2700, 3150, 3700, 4400, 5300, 6400, 7700, 9500, 12000, 15500 Hz. Exemplary Bark band centers are 50, 150, 250, 350, 450, 570, 700, 840, 1000, 1170, 1370, 1600, 1850, 2150, 2500, 2900, 3400, 4000, 4800, 5800, 7000, 8500, 10500, 13500 Hz.

이 예시적인 실시예에서, 바크 주파수 스케일은 15.5 kHz까지만 정의된다. 이에 따라, 이 예시적인 바크 스케일에 대한 최고 샘플링 레이트는 나이퀴스트 한계, 또는 31 kHz이다. 40 kHz의 샘플링 레이트가 이용될 수 있도록, 19 kHz(24번째 바크 대역 엣지와 23번째 임계 대역폭의 합)보다 높게 확장되는 25번째 예시적인 바크 대역이 활용될 수 있다. 마찬가지로, 54 kHz까지의 샘플링 레이트가 이용될 수 있도록, 20500값과 27000값을 부가시킴으로써, 추가적인 바크 대역 엣지들이 활용될 수 있다. 인간 청각은 대체로 20 kHz보다 높게 확장되지 않지만, 40 kHz보다 높은 오디오 샘플링 레이트가 실제적으로 보편화되어 있다. In this exemplary embodiment, the Bark frequency scale is defined only up to 15.5 kHz. Thus, the highest sampling rate for this exemplary Bark scale is the Nyquist limit, or 31 kHz. A 25 th exemplary Bark band extending above 19 kHz (sum of the 24th Bark band edge and the 23rd critical bandwidth) can be utilized so that a sampling rate of 40 kHz can be used. Likewise, by adding a value of 20500 and a value of 27000, additional Bark band edges can be utilized so that a sampling rate of up to 54 kHz can be used. Human auditory sense generally does not extend beyond 20 kHz, but audio sampling rates higher than 40 kHz are practically universal.

시간 평탄화 시스템(526)은 임계 대역 필터 뱅크들(522, 524)로부터 필터링된 진폭 데이터를 수신하고, 위상 시스템들(514, 516)로부터 위상 데이터를 수신하며, 데이터의 시간 평탄화를 수행한다. 하나의 예시적인 실시예에서, 좌우측 채널들간의 위상 델타가, 예컨대 다음의 알고리즘 또는 다른 적절한 방식들을 적용함으로써 결정될 수 있다:The time planarization system 526 receives the filtered amplitude data from the critical band filter banks 522 and 524, receives the phase data from the phase systems 514 and 516, and performs time flattening of the data. In one exemplary embodiment, the phase delta between the left and right channels can be determined, for example, by applying the following algorithm or other appropriate methods:

Figure 112011018860537-pct00001
Figure 112011018860537-pct00001

여기서:here:

P = 좌우측 채널들간의 위상차; P = phase difference between left and right channels;

Xl = 좌측 스테레오 입력 신호; X l = left stereo input signal;

Xr = 우측 스테레오 입력 신호; X r = right stereo input signal;

m = 현재 프레임; 및 m = current frame; And

K = 주파수 빈 지수.K = frequency bin index.

그런 후, 델타 평탄화 계수가, 예컨대 다음의 알고리즘 또는 다른 적절한 방식들을 적용함으로써 결정될 수 있다:The delta planarization factor can then be determined, for example, by applying the following algorithm or other appropriate methods:

Figure 112011018860537-pct00002
Figure 112011018860537-pct00002

여기서:here:

δ = 평탄화 계수; ? = planarization coefficient;

x = 평탄화 바이어스를 제어하기 위한 파라미터(일반적으로는 1이며, 패닝을 과장시키기 위해 1보다 클 수 있고, 패닝을 감소시키기 위해 1보다 작을 수 있음); x = parameter for controlling the planarization bias (generally 1, may be greater than 1 to exaggerate panning and less than 1 to reduce panning);

P = 좌우측 채널들간의 위상차; P = phase difference between left and right channels;

m = 현재 프레임; 및 m = current frame; And

K = 주파수 빈 지수.K = frequency bin index.

그런 후, 스펙트럼 우세적 평탄화 계수가, 예컨대 다음의 알고리즘 또는 다른 적절한 방식들을 적용함으로써 결정될 수 있다:The spectral dominant smoothing factor can then be determined, for example, by applying the following algorithm or other suitable methods:

Figure 112011018860537-pct00003
Figure 112011018860537-pct00003

여기서:here:

D = 평탄화 계수;D = flattening factor;

C = 임계적인 대역 에너지(필터 뱅크들의 출력); C = critical band energy (output of filter banks);

N = 지각 대역들(필터 뱅크 대역들의 갯수); N = perceptual bands (number of filter bank bands);

m = 현재 프레임; 및 m = current frame; And

b = 주파수 대역.b = frequency band.

그런 후, 위상 델타 신호가, 예컨대 다음의 알고리즘 또는 다른 적절한 방식들을 적용함으로써 평탄화될 수 있다:The phase delta signal can then be flattened, for example, by applying the following algorithm or other suitable methods:

Figure 112011018860537-pct00004
Figure 112011018860537-pct00004

여기서:here:

δ = 평탄화 계수;? = planarization coefficient;

D = 선형 등가적 주파수들에 재맵핑된 스펙트럼 우세적 가중치; 및 D = spectral dominant weight remapped to linear equivalent frequencies; And

P = 좌우측 채널들간의 위상차. P = phase difference between left and right channels.

원하지 않는 오디오 인공물을 생성시킬 수 있는 스펙트럼 변동을 감소시키기 위해, 스펙트럼 평탄화 시스템(528)은 시간 평탄화 시스템으로부터 출력을 수신하고 출력의 공간 평탄화를 수행한다. To reduce spectral fluctuations that can create unwanted audio artifacts, a spectrum planarization system 528 receives the output from the time planarization system and performs spatial planarization of the output.

위상 응답 필터 시스템(530)은 스펙트럼 평탄화 시스템(528) 및 시간 지연 시스템들(510, 520)의 출력을 수신하고, 위상 응답 필터링을 수행한다. 하나의 예시적인 실시예에서, 위상 응답 필터 시스템(530)은, 예컨대 다음의 등식 또는 다른 적절한 방식들을 적용함으로써 위상 쉬프트 계수들을 계산할 수 있다:Phase response filter system 530 receives the outputs of spectral flattening system 528 and time delay systems 510 and 520 and performs phase response filtering. In one exemplary embodiment, the phase response filter system 530 may calculate phase shift coefficients by applying, for example, the following equation or other appropriate methods:

Figure 112011018860537-pct00005
Figure 112011018860537-pct00005

여기서:here:

Yl = 좌측 채널 복소 필터 계수;Y l = Left channel complex filter coefficient;

Yr = 우측 채널 복소 필터 계수; 및 Y r = right channel complex filter coefficient; And

X = 입력 위상 신호.X = input phase signal.

그런 후, 입력 신호는, 예컨대 다음의 알고리즘 또는 다른 적절한 방식들을 적용함으로써 필터링될 수 있다:The input signal can then be filtered, for example, by applying the following algorithm or other suitable methods:

Figure 112011018860537-pct00006
Figure 112011018860537-pct00006

여기서:here:

Yl = 좌측 복소 계수; Y l = left complex coefficient;

Yr = 우측 복소 계수; Y r = right complex coefficient;

Xl = 좌측 스테레오 입력 신호; X l = left stereo input signal;

Xr = 우측 스테레오 입력 신호; X r = Right stereo input signal;

Hl = 좌측 위상 쉬프트된 결과; 및 H l = left phase shifted result; And

Hr = 우측 위상 쉬프트된 결과; 및 H r = right phase shifted result; And

단구간 역 푸리에 변환 시스템들(532, 534)은 위상 응답 필터 시스템(530)으로부터 좌우 위상 쉬프트된 데이터를 각각 수신하고, 데이터에 대해 단구간 역 푸리에 변환을 수행한다. 역 푸리에 변환, 역 이산 코사인 변환, 또는 기타의 적절한 변환들과 같은, 다른 변환들이 또한 이용될 수 있거나, 양자택일적으로 이용될 수 있다.The short term inverse Fourier transform systems 532 and 534 receive the left and right phase shifted data from the phase response filter system 530, respectively, and perform short term inverse Fourier transform on the data. Other transforms, such as inverse Fourier transforms, inverse discrete cosine transforms, or other suitable transforms may also be used, or alternatively may be used.

좌측 시간 신호 시스템(536)과 우측 시간 신호 시스템(538)은 낮은 비트 레이트 채널을 통한 송신을 위한 스테레오포닉 신호와 같은, 좌우 채널 신호를 제공한다. 하나의 예시적인 실시예에서, 좌측 시간 신호 시스템(536)과 우측 시간 신호 시스템(538)에 의해 제공된 프로세싱된 신호들은, 본 발명을 이용하지 않은 경우 원하지 않는 오디오 인공물을 생성하였을 오디오 컴포넌트들의 제거에 의해 낮은 비트 레이트에서 개선된 오디오 퀄리티를 갖는 스테레오 사운드 데이터를 제공하는데 이용될 수 있다. The left time signal system 536 and the right time signal system 538 provide left and right channel signals, such as stereo phonetic signals for transmission over low bit rate channels. In one exemplary embodiment, the processed signals provided by the left temporal signal system 536 and the right temporal signal system 538 are used to remove audio components that would otherwise have generated unwanted audio artifacts Can be used to provide stereo sound data with improved audio quality at low bit rates.

도 6은 본 발명의 예시적인 실시예에 따른 스펙트럼 평탄화를 수행하기 위한 시스템(600)의 도면이다. 시스템(600)은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 적절한 조합으로 구현될 수 있고, 이것은 범용 프로세싱 플랫폼상에서 동작하는 하나 이상의 소프트웨어 시스템들일 수 있다.6 is a diagram of a system 600 for performing spectral flattening in accordance with an exemplary embodiment of the present invention. The system 600 may be implemented in hardware, software, or any suitable combination of hardware and software, which may be one or more software systems operating on a general purpose processing platform.

시스템(600)은 예컨대 시간 평탄화 시스템(502) 또는 기타의 적절한 시스템들로부터, 프로세싱된 위상 신호를 수신할 수 있는 위상 신호 시스템(602)을 포함한다. 코사인 시스템(604)과 사인 시스템(606)은 프로세싱된 위상 신호의 위상의 코사인 및 사인 값들을 각각 생성한다. 제로 위상 필터들(608, 610)은 코사인 및 사인 값들의 제로 위상 필터링을 각각 수행하며, 위상 추정 시스템(612)은 제로 위상 필터링된 코사인 및 사인 데이터를 수신하고 스펙트럼 평탄화된 신호를 생성한다.The system 600 includes a phase signal system 602 that is capable of receiving a processed phase signal, e.g., from a time planarization system 502 or other suitable systems. The cosine system 604 and the sign system 606 generate cosine and sine values of the phase of the processed phase signal, respectively. The zero phase filters 608 and 610 perform zero phase filtering of cosine and sine values, respectively, and the phase estimation system 612 receives the zero phase filtered cosine and sine data and generates the spectrally flattened signal.

동작시, 시스템(600)은 π에서 -π까지 변하는 위상값을 갖는 위상 신호를 수신하는데, 이것은 고주파수 컴포넌트들을 감소시키기 위해 필터링하는 것이 어려울 수 있다. 제로 위상 필터가 고주파수 컴포넌트들을 감소시키는데 이용될 수 있도록 하기 위해 시스템(600)은 위상 신호를 사인 및 코사인 값들로 변환시킨다. In operation, the system 600 receives a phase signal having a phase value varying from pi to-pi, which may be difficult to filter to reduce high frequency components. The system 600 converts the phase signal to sine and cosine values so that a zero phase filter can be used to reduce the high frequency components.

도 7은 본 발명의 예시적인 실시예에 따른 전력 보상된 세기 리패닝(re-panning)을 위한 시스템(700)의 도면이다. 시스템(700)은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 적절한 조합으로 구현될 수 있고, 이것은 범용 프로세싱 플랫폼상에서 동작하는 하나 이상의 소프트웨어 시스템들일 수 있다.FIG. 7 is a diagram of a system 700 for power-compensated intensity re-panning in accordance with an exemplary embodiment of the present invention. The system 700 may be implemented in hardware, software, or a suitable combination of hardware and software, which may be one or more software systems operating on a general purpose processing platform.

시스템(700)은 좌측 시간 신호 시스템(702)과 우측 시간 신호 시스템(704)을 포함하며, 이것들은 스테레오포닉 사운드 소스, 또는 기타의 적절한 시스템들로부터 생성되거나 또는 수신된 좌우 채널 시간 신호들을 제공할 수 있다. 단구간 푸리에 변환 시스템들(706, 710)은 각각 좌측 시간 신호 시스템(702)과 우측 시간 신호 시스템(704)에 결합되며, 시간 신호들의 시간-주파수 영역 변환을 수행한다. 푸리에 변환, 이산 코사인 변환, 또는 기타의 적절한 변환들과 같은, 다른 변환들이 또한 이용될 수 있거나, 양자택일적으로 이용될 수 있다.System 700 includes a left temporal signal system 702 and a right temporal signal system 704 that provide left and right channel time signals generated or received from a stereophonic sound source, . The short-range Fourier transform systems 706 and 710 are coupled to the left temporal signal system 702 and the right temporal signal system 704, respectively, and perform time-frequency domain transform of time signals. Other transforms, such as Fourier transforms, discrete cosine transforms, or other suitable transforms may also be used, or alternatively may be used.

세기 리패닝 시스템(708)은 좌우 채널 변환 신호들의 세기 리패닝을 수행한다. 하나의 예시적인 실시예에서, 세기 리패닝 시스템(708)은 다음의 알고리즘 또는 기타의 적절한 프로세스들을 적용할 수 있다:The strength re-panning system 708 performs strength re-panning of the left and right channel converted signals. In one exemplary embodiment, the strength re-panning system 708 may apply the following algorithm or other appropriate processes:

Figure 112011018860537-pct00007
Figure 112011018860537-pct00007

여기서:here:

Ml = 좌측 채널 세기 패닝된 신호;M l = left channel intensity panned signal;

Mr = 우측 채널 세기 패닝된 신호;M r = right channel intensity panned signal;

Xl = 좌측 스테레오 입력 신호;X l = left stereo input signal;

Xr = 우측 스테레오 입력 신호; 및 X r = Right stereo input signal; And

β = 좌우 신호간의 위상차의 제거로 인해 스테레오 이미지의 지각된 붕괴를 보상하기 위한 비선형 옵션(이것은 일반적으로 1이며, 패닝을 증가시키기 위해 1보다 클 수 있거나 패닝을 감소시키기 위해 1보다 작을 수 있음).β = nonlinear option to compensate for perceived collapse of the stereo image due to elimination of the phase difference between the left and right signals (this is typically 1, may be greater than 1 to increase panning, or less than 1 to reduce panning) .

복합 신호 생성 시스템(712)은 좌우 채널 변환 신호들과 좌우 채널 세기 패닝된 신호들로부터 복합 신호를 생성한다. 하나의 예시적인 실시예에서, 복합 신호 생성 시스템(712)은 다음의 알고리즘 또는 기타의 적절한 프로세스들을 적용할 수 있다:The composite signal generation system 712 generates a composite signal from the left and right channel conversion signals and the left and right channel intensity panned signals. In one exemplary embodiment, the composite signal generation system 712 may apply the following algorithm or other appropriate processes:

Figure 112011018860537-pct00008
Figure 112011018860537-pct00008

여기서:here:

Cl = 주파수 의존 윈도우(W)에 의해 결정된 세기 패닝된 신호와 혼합된 오리지널 신호를 포함한 좌측 채널 복합 신호;C l = a left channel composite signal including an original signal mixed with an intensity panned signal determined by a frequency dependent window (W);

Cr = 주파수 의존 윈도우(W)에 의해 결정된 세기 패닝된 신호와 혼합된 오리지널 신호를 포함한 우측 채널 복합 신호;C r = right channel composite signal including original signal mixed with intensity panned signal determined by frequency dependent window (W);

Xl = 좌측 스테레오 입력 신호;X l = left stereo input signal;

Xr = 우측 스테레오 입력 신호;X r = right stereo input signal;

Ml = 좌측 세기 패닝된 신호;M l = left intensity panned signal;

Mr = 우측 세기 패닝된 신호;M r = right intensity panned signal;

W = 상이한 주파수들에서 혼합체를 결정하는 주파수 의존 윈도우(주파수들에 걸쳐 우회하는 변수; 만약 0이면, 오직 오리지날 신호이며, 0보다 크면(예컨대, 0.5), 오리지날 신호와 세기 패닝된 신호의 혼합체를 불러일으킴).W = a frequency dependent window that determines the mixture at different frequencies (a variable bypassing frequencies; if 0, only the original signal, greater than 0 (e.g., 0.5), a mixture of the original signal and the intensity panned signal .

전력 보상 시스템(714)은 좌우 채널 변환 신호들과 좌우 채널 복합 신호들로부터 전력 보상된 신호를 생성한다. 하나의 예시적인 실시예에서, 전력 보상 시스템(714)은 다음의 알고리즘 또는 기타의 적절한 프로세스들을 적용할 수 있다:The power compensation system 714 generates a power compensated signal from the left and right channel conversion signals and the left and right channel composite signals. In one exemplary embodiment, the power compensation system 714 may apply the following algorithm or other suitable processes:

Figure 112011018860537-pct00009
Figure 112011018860537-pct00009

여기서:here:

Yl = 좌측 채널 전력 보상된 신호; Y l = left channel power compensated signal;

Yr = 우측 채널 전력 보상된 신호; Y r = right channel power compensated signal;

Cl = 좌측 채널 복합 신호; C l = left channel composite signal;

Cr = 우측 채널 복합 신호; C r = right channel composite signal;

Xl = 좌측 채널 스테레오 입력 신호; 및X l = left channel stereo input signal; And

Xr = 우측 채널 스테레오 입력 신호.X r = right channel stereo input signal.

단구간 역 푸리에 변환 시스템들(716, 718)은 전력 보상 시스템(714)으로부터 전력 보상된 데이터를 수신하고, 데이터에 대해 단구간 역 푸리에 변환을 수행한다. 역 푸리에 변환, 역 이산 코사인 변환, 또는 기타의 적절한 변환들과 같은, 다른 변환들이 또한 이용될 수 있거나, 양자택일적으로 이용될 수 있다.The short term inverse Fourier transform systems 716 and 718 receive power compensated data from the power compensation system 714 and perform a short term inverse Fourier transform on the data. Other transforms, such as inverse Fourier transforms, inverse discrete cosine transforms, or other suitable transforms may also be used, or alternatively may be used.

좌측 시간 신호 시스템(720)과 우측 시간 신호 시스템(722)은 낮은 비트 레이트 채널을 통한 송신을 위한 스테레오포닉 신호와 같은, 좌우 채널 신호를 제공한다. 하나의 예시적인 실시예에서, 좌측 시간 신호 시스템(720)과 우측 시간 신호 시스템(722)에 의해 제공된 프로세싱된 신호들은, 본 발명을 이용하지 않은 경우 원하지 않는 오디오 인공물을 생성하였을 오디오 컴포넌트들의 제거에 의해 낮은 비트 레이트에서 개선된 오디오 퀄리티를 갖는 스테레오 사운드 데이터를 제공하는데 이용될 수 있다.The left temporal signal system 720 and the right temporal signal system 722 provide left and right channel signals, such as stereo phonetic signals for transmission over a low bit rate channel. In one exemplary embodiment, the processed signals provided by the left temporal signal system 720 and the right temporal signal system 722 are used to remove audio components that would otherwise generate unwanted audio artifacts Can be used to provide stereo sound data with improved audio quality at low bit rates.

본 발명의 시스템 및 방법의 예시적인 실시예들이 본 명세서에서 상세하게 설명되었지만, 본 발명분야의 당업자는 또한 첨부된 청구항들의 범위와 사상으로부터 이탈하지 않고서 다양한 대체구성과 변경이 본 시스템과 방법에 행해질 수 있다는 것을 알 것이다.Although illustrative embodiments of the systems and methods of the present invention have been described in detail herein, those skilled in the art will also appreciate that various alternative constructions and variations can be made to the system and method without departing from the scope and spirit of the appended claims. You will know that you can.

102: 시간-주파수 변환 시스템, 104: 시간-주파수 변환 시스템
106: 위상차 시스템, 128: 주파수-시간 변환 시스템
130: 주파수-시간 변환 시스템, 126: 진폭 변경 시스템
124: 위상차 가중 시스템, 108: 버퍼 시스템
110: N-2 프레임 버퍼, 112: N-1 프레임 버퍼
114: N 프레임 버퍼, 116, 118, 120: 위상차 시스템
122: 위상차 버퍼,
502, 536: 좌측 시간 신호 시스템,
504, 538: 우측 시간 신호 시스템,
510, 520: 3개 프레임 지연 시스템, 512, 518: 진폭 시스템
514, 516: 위상 시스템, 522, 524: 임계 대역 필터 뱅크
526: 시간 평탄화 시스템, 528: 스펙트럼 평탄화 시스템
530: 위상 응답 필터, 602: 위상 신호
608, 610: 제로 위상 필터, 612: 위상 추정 시스템
702, 720: 좌측 시간 신호 시스템,
704, 722: 우측 시간 신호 시스템, 708: 세기 리패닝 시스템
712: 복합 신호 생성 시스템, 714: 전력 보상 시스템
102: time-frequency conversion system, 104: time-frequency conversion system
106: phase difference system, 128: frequency-time conversion system
130: frequency-time conversion system, 126: amplitude change system
124: phase difference weighting system, 108: buffer system
110: N-2 frame buffer, 112: N-1 frame buffer
114: N frame buffer, 116, 118, 120: phase difference system
122: phase difference buffer,
502, 536: Left time signal system,
504, 538: Right time signal system,
510, 520: three frame delay system, 512, 518: amplitude system
514, 516: phase system, 522, 524: critical band filter bank
526: time planarization system, 528: spectrum planarization system
530: phase response filter, 602: phase signal
608, 610: zero phase filter, 612: phase estimation system
702, 720: Left time signal system,
704, 722: right time signal system, 708: strength re-panning system
712: Composite signal generation system, 714: Power compensation system

Claims (20)

위상 변조된 스테레오 데이터로부터 파라미트릭(parametric) 스테레오 데이터를 생성하기 위한 시스템에 있어서,
좌측 채널 오디오 데이터 및 우측 채널 오디오 데이터를 수신하고, 상기 좌측 채널 오디오 데이터로부터 생성된 좌측 채널 주파수 영역 데이터와 상기 우측 채널 오디오 데이터로부터 생성된 우측 채널 주파수 영역 데이터 사이의 위상차(phase difference)에 기초하여 위상차 데이터를 생성하는 위상차 시스템으로서, 상기 좌측 채널 주파수 영역 데이터는 좌측 채널 진폭 데이터 및 좌측 채널 위상 데이터를 포함하고, 상기 우측 채널 주파수 영역 데이터는 우측 채널 진폭 데이터 및 우측 채널 위상 데이터를 포함하는 것인, 상기 위상차 시스템;
상기 위상차 데이터를 수신하고, 상기 위상차 데이터에 기초하여 상기 좌측 채널 진폭 데이터 및 상기 우측 채널 진폭 데이터를 조정하기 위해 가중 데이터를 생성하는 위상차 가중 시스템; 및
상기 가중 데이터를 이용하여 상기 좌측 채널 진폭 데이터 및 상기 우측 채널 진폭 데이터를 조정하고, 상기 좌측 채널 주파수 영역 데이터로부터 상기 좌측 채널 위상 데이터를 제거하고 상기 우측 채널 주파수 영역 데이터로부터 상기 우측 채널 위상 데이터를 제거하는 진폭 변경 시스템
을 포함하는, 파라미트릭 스테레오 데이터를 생성하기 위한 시스템.
A system for generating parametric stereo data from phase modulated stereo data, the system comprising:
The left channel audio data and the right channel audio data, and based on the phase difference between the left channel frequency domain data generated from the left channel audio data and the right channel frequency domain data generated from the right channel audio data, A phase difference system for generating phase difference data, wherein the left channel frequency domain data includes left channel amplitude data and left channel phase data and the right channel frequency domain data includes right channel amplitude data and right channel phase data , The phase difference system;
A phase difference weighting system for receiving the phase difference data and generating weighted data for adjusting the left channel amplitude data and the right channel amplitude data based on the phase difference data; And
Adjusting the left channel amplitude data and the right channel amplitude data using the weighted data, removing the left channel phase data from the left channel frequency domain data, and removing the right channel phase data from the right channel frequency domain data Amplitude change system
And generating a stereo stereo data stream.
제1항에 있어서, 상기 위상차 가중 시스템은 좌측 채널 주파수 영역 데이터 및 우측 채널 주파수 영역 데이터의 복수의 프레임을 수신하는 것인, 파라미트릭 스테레오 데이터를 생성하기 위한 시스템.2. The system of claim 1, wherein the phase-difference weighting system receives a plurality of frames of left channel frequency domain data and right channel frequency domain data. 제2항에 있어서, 좌측 채널 주파수 영역 데이터 및 우측 채널 주파수 영역 데이터의 2개 이상의 대응 프레임에 대한 상기 좌측 채널 주파수 영역 데이터와 상기 우측 채널 주파수 영역 데이터 사이의 상기 위상차 데이터를 저장하는 버퍼 시스템
을 더 포함하는, 파라미트릭 스테레오 데이터를 생성하기 위한 시스템.
3. The apparatus of claim 2, further comprising a buffer system for storing the phase difference data between the left channel frequency domain data and the right channel frequency domain data for two or more corresponding frames of left channel frequency domain data and right channel frequency domain data,
Wherein the system is further configured to generate the parametric stereo data.
제3항에 있어서, 상기 위상차 가중 시스템은, 좌측 채널 주파수 영역 데이터 및 우측 채널 주파수 영역 데이터의 제1 대응 프레임 및 제2 대응 프레임에 대한 위상차 데이터를 수신하고, 좌측 채널 주파수 영역 데이터 및 우측 채널 주파수 영역 데이터의 상기 제1 대응 프레임과 상기 제2 대응 프레임 사이의 제1 위상차를 결정하고,
상기 위상차 가중 시스템은, 좌측 채널 주파수 영역 데이터 및 우측 채널 주파수 영역 데이터의 제2 대응 프레임 및 제3 대응 프레임에 대한 위상차 데이터를 수신하고, 좌측 채널 주파수 영역 데이터 및 우측 채널 주파수 영역 데이터의 상기 제2 대응 프레임과 상기 제3 대응 프레임 사이의 제2 위상차를 결정하는 것인, 파라미트릭 스테레오 데이터를 생성하기 위한 시스템.
The apparatus of claim 3, wherein the phase difference weighting system receives phase difference data for a first corresponding frame and a second corresponding frame of left channel frequency domain data and right channel frequency domain data, and outputs left channel frequency domain data and a right channel frequency Determining a first phase difference between the first corresponding frame and the second corresponding frame of the area data,
Wherein the phase difference weighting system receives phase difference data for a second corresponding frame and a third corresponding frame of left channel frequency domain data and right channel frequency domain data and outputs phase difference data for the left channel frequency domain data and the right channel frequency domain data, And determines a second phase difference between the corresponding frame and the third corresponding frame.
제4항에 있어서, 상기 위상차 가중 시스템은, 상기 제1 위상차 및 상기 제2 위상차에 기초하여 상기 좌측 채널 진폭 데이터 및 상기 우측 채널 진폭 데이터를 조정하기 위해 가중 데이터를 생성하는 것인, 파라미트릭 스테레오 데이터를 생성하기 위한 시스템.5. The method of claim 4, wherein the phase difference weighting system generates weight data to adjust the left channel amplitude data and the right channel amplitude data based on the first phase difference and the second phase difference. A system for generating stereo data. 삭제delete 제1항에 있어서, 상기 좌측 채널 위상 데이터가 제거된 좌측 채널 주파수 영역 데이터 및 상기 우측 채널 위상 데이터가 제거된 우측 채널 주파수 영역 데이터를 상기 진폭 변경 시스템으로부터 수신하고, 상기 좌측 채널 주파수 영역 데이터 및 상기 우측 채널 주파수 영역 데이터를 진폭 조정된 좌측 채널 시간 영역 데이터 및 진폭 조정된 우측 채널 시간 영역 데이터로 변환하는 주파수 영역 대 시간 영역 변환 시스템
을 더 포함하는, 파라미트릭 스테레오 데이터를 생성하기 위한 시스템.
3. The method of claim 1, further comprising: receiving left channel frequency domain data from which the left channel phase data is removed and right channel frequency domain data from which the right channel phase data is removed from the amplitude changing system, A frequency domain to time domain transformation system for transforming right channel frequency domain data into amplitude adjusted left channel time domain data and amplitude adjusted right channel time domain data;
Wherein the system is further configured to generate the parametric stereo data.
제1항에 있어서, 상기 위상차 시스템은 다음의 알고리즘,
Figure 112015032888829-pct00010

을 적용하며,
여기서,
P = 좌측 채널과 우측 채널 사이의 위상차;
Xl = 좌측 스테레오 입력 신호;
Xr = 우측 스테레오 입력 신호;
m = 현재 프레임; 및
K = 주파수 빈 지수(index)인 것인, 파라미트릭 스테레오 데이터를 생성하기 위한 시스템.
2. The method of claim 1, wherein the phase difference system comprises the following algorithm:
Figure 112015032888829-pct00010

To-
here,
P = phase difference between left channel and right channel;
X l = left stereo input signal;
X r = right stereo input signal;
m = current frame; And
K is a frequency bin index. ≪ RTI ID = 0.0 > A < / RTI >
위상 변조된 오디오 데이터로부터 파라미트릭 오디오 데이터를 생성하기 위한 방법에 있어서,
제1 채널 오디오 데이터를 시간 영역 신호로부터 제1 채널 주파수 영역 데이터로 변환하는 단계로서, 상기 제1 채널 주파수 영역 데이터는 제1 채널 진폭 데이터 및 제1 채널 위상 데이터를 포함하는 것인, 상기 제1 채널 오디오 데이터 변환 단계;
제2 채널 오디오 데이터를 시간 영역 신호로부터 제2 채널 주파수 영역 데이터로 변환하는 단계로서, 상기 제2 채널 주파수 영역 데이터는 제2 채널 진폭 데이터 및 제2 채널 위상 데이터를 포함하는 것인, 상기 제2 채널 오디오 데이터 변환 단계;
상기 제1 채널 주파수 영역 데이터와 상기 제2 채널 주파수 영역 데이터 사이의 위상차를 결정하는 단계;
상기 제1 채널 주파수 영역 데이터와 상기 제2 채널 주파수 영역 데이터 사이의 상기 위상차에 기초하여 상기 제1 채널 진폭 데이터 및 상기 제2 채널 진폭 데이터에 적용하기 위한 가중 데이터를 결정하는 단계;
상기 제1 채널 진폭 데이터를 상기 가중 데이터로 조정하는 단계;
상기 제2 채널 진폭 데이터를 상기 가중 데이터로 조정하는 단계;
상기 제1 채널 주파수 영역 데이터로부터 상기 제1 채널 위상 데이터를 제거하는 단계; 및
상기 제2 채널 주파수 영역 데이터로부터 상기 제2 채널 위상 데이터를 제거하는 단계
를 포함하는, 파라미트릭 오디오 데이터를 생성하기 위한 방법.
A method for generating parametric audio data from phase-modulated audio data,
Converting first channel audio data from a time domain signal to first channel frequency domain data, wherein the first channel frequency domain data comprises first channel amplitude data and first channel phase data; Channel audio data conversion step;
Transforming the second channel audio data from the time domain signal to the second channel frequency domain data, wherein the second channel frequency domain data comprises the second channel amplitude data and the second channel phase data. Channel audio data conversion step;
Determining a phase difference between the first channel frequency domain data and the second channel frequency domain data;
Determining weighted data for applying to the first channel amplitude data and the second channel amplitude data based on the phase difference between the first channel frequency domain data and the second channel frequency domain data;
Adjusting the first channel amplitude data to the weighted data;
Adjusting the second channel amplitude data to the weighted data;
Removing the first channel phase data from the first channel frequency domain data; And
Removing the second channel phase data from the second channel frequency domain data
≪ / RTI >
제9항에 있어서, 상기 제1 채널 주파수 영역 데이터는 제1 복수의 프레임을 포함하고, 상기 제2 채널 주파수 영역 데이터는 제2 복수의 프레임을 포함하며,
상기 위상차는, 상기 제1 복수의 프레임 및 상기 제2 복수의 프레임의 2개 이상의 대응 프레임 사이에서 결정되는 것인, 파라미트릭 오디오 데이터를 생성하기 위한 방법.
10. The apparatus of claim 9, wherein the first channel frequency domain data comprises a first plurality of frames and the second channel frequency domain data comprises a second plurality of frames,
Wherein the phase difference is determined between two or more corresponding frames of the first plurality of frames and the second plurality of frames.
제10항에 있어서, 상기 가중 데이터는, 상기 제1 복수의 프레임 및 상기 제2 복수의 프레임의 2개 이상의 대응 프레임 사이의 위상차에 기초하여 결정되는 것인, 파라미트릭 오디오 데이터를 생성하기 위한 방법.11. The method of claim 10, wherein the weighting data is determined based on a phase difference between the first plurality of frames and two or more corresponding frames of the second plurality of frames. Way. 삭제delete 제9항에 있어서, 상기 위상차를 결정하는 단계는 다음의 알고리즘,
Figure 112015032888829-pct00011

을 적용하는 단계를 포함하며,
여기서,
P = 좌측 채널과 우측 채널 사이의 위상차;
Xl = 좌측 스테레오 입력 신호;
Xr = 우측 스테레오 입력 신호;
m = 현재 프레임; 및
K = 주파수 빈 지수인 것인, 파라미트릭 오디오 데이터를 생성하기 위한 방법.
10. The method of claim 9, wherein determining the phase difference comprises:
Figure 112015032888829-pct00011

, The method comprising:
here,
P = phase difference between left channel and right channel;
X l = left stereo input signal;
X r = right stereo input signal;
m = current frame; And
K is a frequency bin index.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020117006034A 2008-08-15 2009-08-14 Parametric stereo conversion system and method KR101552750B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/192,404 2008-08-15
US12/192,404 US8385556B1 (en) 2007-08-17 2008-08-15 Parametric stereo conversion system and method

Publications (2)

Publication Number Publication Date
KR20110055651A KR20110055651A (en) 2011-05-25
KR101552750B1 true KR101552750B1 (en) 2015-09-11

Family

ID=41669154

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117006034A KR101552750B1 (en) 2008-08-15 2009-08-14 Parametric stereo conversion system and method

Country Status (9)

Country Link
US (1) US8385556B1 (en)
EP (1) EP2313884B1 (en)
JP (1) JP5607626B2 (en)
KR (1) KR101552750B1 (en)
CN (1) CN102132340B (en)
HK (2) HK1150186A1 (en)
PL (1) PL2313884T3 (en)
TW (1) TWI501661B (en)
WO (1) WO2010019265A1 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2353160A1 (en) * 2008-10-03 2011-08-10 Nokia Corporation An apparatus
WO2010037427A1 (en) * 2008-10-03 2010-04-08 Nokia Corporation Apparatus for binaural audio coding
EP2326108B1 (en) * 2009-11-02 2015-06-03 Harman Becker Automotive Systems GmbH Audio system phase equalizion
ES2935911T3 (en) 2010-04-09 2023-03-13 Dolby Int Ab MDCT-based complex prediction stereo decoding
FR2966634A1 (en) * 2010-10-22 2012-04-27 France Telecom ENHANCED STEREO PARAMETRIC ENCODING / DECODING FOR PHASE OPPOSITION CHANNELS
JP6216553B2 (en) * 2013-06-27 2017-10-18 クラリオン株式会社 Propagation delay correction apparatus and propagation delay correction method
WO2015017584A1 (en) 2013-07-30 2015-02-05 Dts, Inc. Matrix decoder with constant-power pairwise panning
CN105981411B (en) * 2013-11-27 2018-11-30 Dts(英属维尔京群岛)有限公司 The matrix mixing based on multi-component system for the multichannel audio that high sound channel counts
CN104681029B (en) 2013-11-29 2018-06-05 华为技术有限公司 The coding method of stereo phase parameter and device
US10045145B2 (en) * 2015-12-18 2018-08-07 Qualcomm Incorporated Temporal offset estimation
US10491179B2 (en) * 2017-09-25 2019-11-26 Nuvoton Technology Corporation Asymmetric multi-channel audio dynamic range processing
CN107799121A (en) * 2017-10-18 2018-03-13 广州珠江移动多媒体信息有限公司 A kind of digital watermark embedding and method for detecting of radio broadcasting audio
CN108962268B (en) * 2018-07-26 2020-11-03 广州酷狗计算机科技有限公司 Method and apparatus for determining monophonic audio
CN109036455B (en) * 2018-09-17 2020-11-06 中科上声(苏州)电子有限公司 Direct sound and background sound extraction method, loudspeaker system and sound reproduction method thereof

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL9100173A (en) * 1991-02-01 1992-09-01 Philips Nv SUBBAND CODING DEVICE, AND A TRANSMITTER EQUIPPED WITH THE CODING DEVICE.
SE0202159D0 (en) 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
JP4347698B2 (en) 2002-02-18 2009-10-21 アイピージー エレクトロニクス 503 リミテッド Parametric audio coding
WO2007109338A1 (en) * 2006-03-21 2007-09-27 Dolby Laboratories Licensing Corporation Low bit rate audio encoding and decoding
ATE430360T1 (en) 2004-03-01 2009-05-15 Dolby Lab Licensing Corp MULTI-CHANNEL AUDIO DECODING
US7639823B2 (en) 2004-03-03 2009-12-29 Agere Systems Inc. Audio mixing using magnitude equalization
TWI393121B (en) 2004-08-25 2013-04-11 Dolby Lab Licensing Corp Method and apparatus for processing a set of n audio signals, and computer program associated therewith
WO2006022190A1 (en) * 2004-08-27 2006-03-02 Matsushita Electric Industrial Co., Ltd. Audio encoder
US7283634B2 (en) * 2004-08-31 2007-10-16 Dts, Inc. Method of mixing audio channels using correlated outputs
JP3968450B2 (en) * 2005-09-30 2007-08-29 ザインエレクトロニクス株式会社 Stereo modulator and FM stereo modulator using the same
US8190425B2 (en) 2006-01-20 2012-05-29 Microsoft Corporation Complex cross-correlation parameters for multi-channel audio
JP4940671B2 (en) * 2006-01-26 2012-05-30 ソニー株式会社 Audio signal processing apparatus, audio signal processing method, and audio signal processing program
ATE539434T1 (en) * 2006-10-16 2012-01-15 Fraunhofer Ges Forschung APPARATUS AND METHOD FOR MULTI-CHANNEL PARAMETER CONVERSION

Also Published As

Publication number Publication date
PL2313884T3 (en) 2014-08-29
JP2012500410A (en) 2012-01-05
EP2313884A1 (en) 2011-04-27
CN102132340A (en) 2011-07-20
KR20110055651A (en) 2011-05-25
US8385556B1 (en) 2013-02-26
HK1155549A1 (en) 2012-05-18
EP2313884A4 (en) 2012-12-12
EP2313884B1 (en) 2014-03-26
TWI501661B (en) 2015-09-21
WO2010019265A1 (en) 2010-02-18
TW201016041A (en) 2010-04-16
CN102132340B (en) 2012-10-03
JP5607626B2 (en) 2014-10-15
HK1150186A1 (en) 2011-11-04

Similar Documents

Publication Publication Date Title
KR101552750B1 (en) Parametric stereo conversion system and method
US20200143817A1 (en) Methods, Apparatus and Systems for Determining Reconstructed Audio Signal
US8971551B2 (en) Virtual bass synthesis using harmonic transposition
US10750278B2 (en) Adaptive bass processing system
US8090122B2 (en) Audio mixing using magnitude equalization
US7818079B2 (en) Equalization based on digital signal processing in downsampled domains
EP1377123A1 (en) Equalization for audio mixing
EP2291002A1 (en) Acoustic processing apparatus
JPH1028057A (en) Audio decoder and audio encoding/decoding system
EP2720477B1 (en) Virtual bass synthesis using harmonic transposition
EP2360686B9 (en) Signal processing method and apparatus for enhancing speech signals
EP2261894A1 (en) Signal analysis/control system and method, signal control device and method, and program
US10313820B2 (en) Sub-band spatial audio enhancement
JP3297050B2 (en) Computer-based adaptive bit allocation encoding method and apparatus for decoder spectrum distortion
US5588089A (en) Bark amplitude component coder for a sampled analog signal and decoder for the coded signal
JPWO2019203127A1 (en) Information processing device, mixing device using this, and latency reduction method
EP2451076B1 (en) Audio signal processing device
JP6244652B2 (en) Voice processing apparatus and program
JP2017212732A (en) Channel number converter and program
JPH04302533A (en) High-efficiency encoding device for digital data
KR20050011757A (en) Stereophonic effect generating method in digital compression audio and device
WO2013050605A1 (en) Stability and speech audibility improvements in hearing devices

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180824

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190905

Year of fee payment: 5