KR100206333B1 - 두개의 스피커를 이용한 멀티채널 오디오 재생장치및 방법 - Google Patents

두개의 스피커를 이용한 멀티채널 오디오 재생장치및 방법 Download PDF

Info

Publication number
KR100206333B1
KR100206333B1 KR1019960044563A KR19960044563A KR100206333B1 KR 100206333 B1 KR100206333 B1 KR 100206333B1 KR 1019960044563 A KR1019960044563 A KR 1019960044563A KR 19960044563 A KR19960044563 A KR 19960044563A KR 100206333 B1 KR100206333 B1 KR 100206333B1
Authority
KR
South Korea
Prior art keywords
audio data
channel audio
channel
data
center
Prior art date
Application number
KR1019960044563A
Other languages
English (en)
Other versions
KR19980026198A (ko
Inventor
허정권
오영남
Original Assignee
윤종용
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자주식회사 filed Critical 윤종용
Priority to KR1019960044563A priority Critical patent/KR100206333B1/ko
Priority to CN97119605A priority patent/CN1053079C/zh
Priority to JP9270215A priority patent/JPH10126899A/ja
Priority to US08/946,881 priority patent/US6470087B1/en
Publication of KR19980026198A publication Critical patent/KR19980026198A/ko
Application granted granted Critical
Publication of KR100206333B1 publication Critical patent/KR100206333B1/ko
Priority to JP2002195234A priority patent/JP2003070100A/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/02Analogue recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Stereophonic System (AREA)

Abstract

가. 청구범위에 기재된 발명이 속한 기술분야:
멀티채널 오디오 재생장치 및 방법
나. 발명이 해결하려고 하는 기술적 과제:
2개의 스피커만을 이용하여 멀티채널에 따른 각 채널신호의 방향성을 가지게 멀티채널오디오신호를 재생하여 청취자가 충분한 임장감을 느낄 수 있게 한다.
다. 그 발명의 해결방법의 요지:
본 발명은 압축된 멀티채널의 오디오신호를 2개의 스피커만 이용하여 각 채널신호의 방향성을 느낄 수 있도록 주파수영역의 데이타 처리과정에서 가상의 센터채널, 가상의 라이트 및 레프트 서라운드 채널에 대한 방향함수를 구하고 이 방향함수를 센터채널 오디오데이타, 라이트 및 레프트 서라운드 채널 오디오데이타에 적용시킨후 레프트 메인 채널오디오데이타와 라이트 메인 채널오디오데이타와 믹싱하여 방향성이 보존된 두개의 메인 채널 오디오데이타로 출력시킨다.
라. 발명의 중요한 용도:
디지탈 오디오 재생장치

Description

두 개의 스피커를 이용한 멀티채널 오디오 재생장치 및 방법
본 발명은 멀티채널 오디오 재생장치에 관한 것으로, 특히 두개의 스키피커를 이용해 멀티채널의 오디오를 재생시킬 수 있는 장치 및 방법에 관한 것이다.
멀티미디어 시대를 앞두고 폭발적으로 증가하고 있는 각종 정보를 보다 신속하고 정확하게 전달하기 위한 끊임없는 노력은 최근 디지탈통신 기술의 눈부신 신장과 고접적 반도체(VLSI), 그리고 신호처리(DSP)기술의 접목을 통하여 결실을 보기 시작하여 종래에는 이질적이고 독립적으로 생성, 처리되어 오던 영상, 오디오 및 기타 데이타들이 정보 소스나 매체 등의 구별없이 매우 다양한 형태로 처리, 이용될 수 있게 하였다. 이와 같은 환경에서 서로 다른 기기간의 원할한 정보 전송 및 공유를 위하여 디지탈 데이타의 국제적 전송 규격 표준화의 필요성이 대두되었다. 그에 따라 1990년 ITU-TS의 H.261을 비롯, 1992년 정지화의 저장 전송 등을 위한 ISO/ITU-TS의 JPEG(Joint Picture Expert Group), ISO/IEC의 MPEG(Moving Picture Expert Group) 등의 표준화가 이루어졌다.
현재 오디오 압축 부호화의 기술동향을 살피기로 한다. 음성이나 음악과 같은 광대역 오디오신호는 디지탈하여 저장하거나 전송할 때 데이타의 양이 방대해짐에 따라, 많은 메모리와 큰 대역폭이 필요하게 된다. 이러한 문제점들을 해결하기 위하여 오디오 신호를 부호화하여 압축한 후에 전송 또는 저장하고, 사람이 인지할 수 없을 정도의 오차를 가진 오디오신호로 복원할 수 있는 많은 방법들이 연구되어 왔다. 최근에는 사람의 청각 특성을 이용한 수학적 심리 음향 모델(Psynchoacoustic Model)을 만들어 부호화 및 복호화에 사용함으로써 오디오 신호를 더욱 효과적으로 재생하려는 연구가 활발히 진행되고 있다. 이 방법은 사람의 청구 구조가 각 주파수 대역에 따라 신호를 인지하는 민감도와 가청한계가 다르다는 사실과 어느 한 주파수 대역에서 큰 에너지를 갖는 신호가 있을 때 이의 영향으로 인접한 약한 에너지를 가진 신호가 잘 들리지 않는 현상(Masking Effect)을 이용하고 있다. 이와같은 각종 오디오 신호의 부호화/복호화 기법의 연구 개발에 맞추어 최근 디지탈 오디오 기기 및 멀티미디어에 사용될 오디오 신호 부호화 및 복호화 방식을 위해 ISO MPEG의 국제 표준화가 활발히 진행되어 스테레오 방송을 위한 MPEG1 오디오 규격이 1993년 확정되었고, 5.1채널을 위한 MPEG2 오디오 규격화가 현재 진행중이다. 현재 미국 영화 산업을 중심으로 사용되고 있는, 미국의 Dolby사의 독자적인 압축알고리즘인 AC3은 1993년 11월의 미국의 HDTV 디지탈 오디오 표준으로 정해졌으며, 국제적인 보급을 위하여 MPEG의 한 부분이 되도록 노력하고 있다.
이러한 알고리즘(MPEG2, AC3등)들은 멀티채널 오디오를 낮은 전송속도로 압축시키는 역할을 담당하고 있으며, HDTV, DVD등에서는 이러한 알고리즘을 표준으로 채택하여 가정에서도 극장과 같은 음향을 들을 수 있게 하고 있다. 그러나 이러한 알고리즘을 이용한 멀티채널오디오를 듣기 위해서는 최소한 5개의 스피커와 이 스피커를 구동할 수 있는 5채널의 앰프가 필요하게 된다. 현실적으로 보통 가정에서 이러한 장비들을 갖춘다는 것은 힘들다. 따라서 이러한 멀티채널 오디오를 많은 사람들이 즐길 수가 없었다. 만약 압축된 멀티채널오디오를 기존의 다운믹싱을 이용한 2채널의 오디오로 재생하는 경우에는 멀티채널오디오의 방향성분이 없어져 청취자에게 임장감을 줄수 없게되었다.
한편 일본 Victor사에서 개발된 Dolby Pro-Logic 3D-Phonic 알고리즘은 멀티채널오디오신호를 두채널로 다운 믹싱하여 재생하여도 4채널의 오디오와 같은 듣는것과 같은 효과를 제공한다.
도 1은 일본 Victor사에서 개발된 Dolby Pro-Logic 3D-Phonic 알고리즘을 설명하기 위한 도면이다. 도 1을 참조하면, 2는 돌비프로로직(Dolby Pro-Logic) 10과 3D-포닉 처리부(3D-Phonic processor) 12를 포함한 프로세서이다. 그리고 4는 좌측앰프(LAMP) 14와 좌측스피커(LSP) 16을 포함한 좌측출력부이고 6은 우측앰프(RAMP) 18과 우측스피커(RSP) 20을 포함한 우측출력부이다. 특히 도 2는 도 1의 3D-포닉처리부 12의 구체 회로를 보여주는 도면이다.
도 1 및 도 2를 참조하여 알고리즘을 동작을 설명하면, 먼저 도 1에서, 입력되는 두채널의 오디오신호 IL, IR은 프로세서 2내 돌비프로로직 10에서 4채널의 오디오신호(좌,우,중앙, 서라운드) L,R,C,S로 만들어져 3D-포닉 처리부 12에 인가된다. 도 2를 참조하여, 3D-포닉 처리부 12의 동작을 설명하면, 좌측의 오디오신호 L은 좌측의 가산기 30에, 우측의 오디오신호 R은 우측의 가산기 32에 각각 입력되고, 중앙의 오디오신호 C는 좌우측의 가산기 30,32에 함께 입력되고, 서라운드 오디오신호 S는 3D-포닉 알고리즘 34가 이용되어 마치 소리가 뒤에서 나는 것처림 들리게 처리되어 상기 좌우측의 가산기 30,32에 함께 입력된다. 그에 따라 좌우측의 가산기 30,32에서는 중앙, 서라운드의 방향성분이 포함된 좌 및 우의 오디오 신호 eL, eR을 각각 좌측 출력부 4 및 우측 출력부 6에 인가한다. 이로서, 청취자는 좌측 우측 출력부 4, 6을 통해 4채널의 오디오를 듣게 된다.
그러나 일본 Victor사에서 개발된 Dolby Pro-Logic 3D-Phonic 알고리즘을 이용한 방법은 모든 데이타의 처리 및 3D-Phonic을 위한 필터링을 시간영역에서 하기 때문에 계산량이 많아지는 단점이 있다. 또한 이러한 많은 계산량을 처리하기 위해서는 결국 빠른 신호처리장치를 구비해야 하는 단점이 있다.
본 발명의 목적은 2개의 스피커만을 이용하여 멀티채널에 따른 각 채널신호의 방향성을 가지게 멀티채널오디오신호를 재생하여 청취자가 충분한 임장감을 느낄 수 있게 하는 장치 및 방법을 제공하는데 있다.
본 발명의 또 다른 목적은 멀티채널오디오신호의 각 방향신호 성분을 보존하기 위한 처리를 주파수영역에서 수행하는 장치 및 방법을 제공하는데 있다.
본 발명의 또 다른 목적은 2개의 스피커만을 이용한 멀티채널오디오신호 재생시 발생되는 많은 계산량을 줄이는 방법을 제공하는데 있다.
도 1은 일본 Victor사에서 개발된 Dolby Pro-Logic 3D-Phonic 알고리즘을 설명하기 위한 도면
도 2는 도 1의 3D-포닉처리부 12의 구체 회로를 보여주는 도면
도 3은 오디오신호로 부호화 및 복호화 과정을 개략적으로 설명하기 위한 도면
도 4는 본 발명의 실시예에 따른 블럭 구성도
도 5는 도 4의 방향성 보존처리부 45내 믹싱부 80의 구체블럭 구성을 보여주는 도면
도 6은 본 발명의 실시예에 따른 방향함수의 결정을 설명하기 위한 도면
이하 본 발명의 바람직한 실시예들을 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서 도면들중 동일한 구성요소들은 가능한한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.
도 3은 오디오신호의 부호화 및 복호화 과정을 개략적으로 설명하기 위한 도면이다. 도 3의 (a)는 오디오신호를 부호화하는 과정으로, 마이크 등에서 발생하는 시간영역의 멀티채널오디오신호를 변환하여 주파수영역의 멀티채널오디오신호로 만들고 압축하고 패킹하여 채널을 통하여 전송한다. 도 3의 (b)는 채널를 통하여 수신되는 오디오신호를 복호화하는 과정으로서 부호화의 역과정으로 이루어진다. 우선 디-패킹하고 복원하고 역변환하여 스피커등으로 출력한다.
본 발명의 실시예에 따른 2개의 스피커만을 이용한 멀티채널오디오신호 재생을 위한 장치는 도 3에 도시된 복호화과정(b)중에서 디-패킹 및 복원 과정에 관련된다. 상기 디-패킹 및 복원과정은 데이타가 주파수 영역상에서 처리되는 과정임을 유의해야 한다.
도 4는 본 발명의 실시예에 따른 블럭 구성도로서 디-패킹 및 복원과정에 대응되며 데이타 복원부 40, 방향성 보존처리부 45, 및 처리영역변환부 50으로 구성된다. 도 5는 도 4의 방향성 보존처리부 45내 믹싱부 80의 구체블럭 구성을 보여주는 도면이다.
먼저 도 4를 참조하면, 데이타 복원부 40은 수신된 멀티채널오디오신호를 MPEG2 혹은 AC3알고리즘을 이용해 디코딩하여 주파수영역의 멀티채널오디오데이타로 복원하는 블럭이다. 방향성 보존 처리부 45는 센터 및 서라운드 스테레오 방향의 오디오신호에 대해 청취자의 머리로 기인한 주파수변화 특성을 함수로 나타낸 머리관련전송함수에 근거하여 센터채널 방향함수 및 서라운드 스테레오채널 방향함수를 구하고 상기 구해진 방향함수들을 두개의 메인채널의 오디오데이타에 더하여 두개의 메인 채널로 출력시키는 블럭이다. 상기 처리영역변환부 50은 방향성 보존처리된 두개의 메인 채널 오디오데이타를 시간영역의 데이타로 변환시키는 블럭이다.
지금, 데이타 복원부 40에는 MPEG2 또는 AC3등의 알고리즘을 이용하여 코딩한 비트 스트림(멀티채널오디오신호임)이 인가된다. 데이타 복원부 40은 코딩된 비트 스트림을 MPEG2 또는 AC3등의 알고리즘을 이용하여 주파수영역의 데이타로 복원한다. 일반적으로 주파수 영역의 데이타를 다시 시간영역의 데이타로 바꾸어 오디오를 재생을 하게 된다. 상기 데이타 복원부 40에서 복원된 주파수영역의 오디오데이타는 멀티채널이므로, 각각 레프트메인(Left Main)채널, 라이트메인(Right Main)채널, 서브우퍼(Sub Woofer)단, 센터(Center)채널단, 레프트서라운드(Left Surrround) 및 라이트 서라운드(Right Surround) 채널단을 통하여 출력된다.
두개의 메인채널 오디오데이타는 레프트메인채널단 및 라이트 메인채널단에서 출력되는 레프트/라이트 메인채널 오디오데이타 LMN, RMN이다. 이 두개의 메인채널 오디오 데이타 LMN, RMN은 방향성 보존처리부 45의 믹싱부 80에 바로 인가된다. 상기 서브우퍼단에서 출력되는 서브우퍼 오디오데이타 SWF는 200Hz이하의 효과음을 내는데 필요한 데이타로서, 상기 믹싱부 80에 바로 인가된다.
한편, 센터(Center)채널단, 레프트서라운드(Left Surrround) 및 라이트 서라운드(Right Surround) 채널단을 통하여 출력되는 센터채널 오디오데이타 CNR, 라이트 서라운드채널 오디오데이타 RSRD 및 레프트서라운드 오디오데이타 LSRD는 방향함수부 70에 미리설정된 방향함수들이 곱해져 방향성 보존처리부 45의 믹싱부 80에 인가된다.
방향함수부 70에서, 방향함수 C-DF1, C-DF2는 주파수영역의 데이타중 센터채널의 오디오데이타 CNR에 대한 방향함수이고, LS-DF1, LS-DF2는 주파수영역의 데이타중 레프트 서라운드채널의 오디오데이타 LSRD에 대한 방향함수이다. 그리고, RS-DF1, RS-DF2는 주파수영역의 데이타중 라이트 서라운드 채널의 오디오데이타 RSRD에 대한 방향함수이다.
방향함수부 70에 설정된 방향함수들 C-DF1, C-DF2, LS-DF1, LS-DF2, RS-DF1, RS-DF2는 두개의 스피커만을 통해 멀티채널의 오디오를 모두 재생할 수 있도록 하기 위해 본 발명의 실시예에 따라 설정된 함수들이다. 상기 방향함수들은 HRTF(Head Related Transfer Function)에 근거하여 만들어진다. 상기 HRTF는 청취자의 머리 때문에 그 청취자가 듣는 오디오의 주파수가 각 방향(예컨데, 라이트, 레프트, 센터, 레프트 또는 라이트 서라운드)에 따라 변하게 되는데 그 특성을 함수로 나타낸 것이다. 즉 청취자는 특정 방향에 대해서 특정한 필터를 하나씩 가지고 있다고 말할 수 있다. 그러므로 HRTF는 사람이 특정방향의 오디오신호를 듣는 경우에 오디오 신호의 주파수영역 중 특정주파수 영역에 대한 필터링에 해당한다.
본 발명의 실시예에 따른 방향함수들을 구하는 방법을 도 6을 참조하여 설명한다.
도 6은 본 발명의 실시예에 따른 방향함수의 결정을 설명하기 위한 도면이다. 도 6에서, 60은 청취자의 머리이다. 그리고 62, 64는 청취자의 좌측 귀와 우측 귀를 각각 의미한다.
도 6을 참조하면, 각 방향함수 DF1, DF2를 통과하여 양귀 62, 64에 도달하는 신호 eL, eR은 하기 수학식 1과 같이 표현된다.
[수학식 1]
eL = H1L*DF1*X + H2L*DF2*X
eR = H1R*DF1*X + H2R*DF2*X
여기서, X는 음원이고, H1L,H1R은 좌측스피커 SP1의 위치에서 청취자의 좌측 62 및 우측 귀 64에 대한 각각의 HRTF(Head Related Transfer Function)이며, H2L,H2R은 우측스피커 SP2의 위치에서 청취자의 좌측 62 및 우측 귀 64에 대한 각각의 HRTF(Head Related Transfer Function)이다. DF1은 좌측 스피커 SP1로 인가될 신호에 대한 방항함수이고, DF2는 우측 스피커 SP2에 인가될 신호에 대한 방향함수이다.
한편, 상기 음원 X가 임의의 위치 y에 가상 설정된 스피커 66을 통하여 청취자의 양귀 62, 64에 도달하는 신호 dL, dR은 하기 수학식 2와 같이 표현된다.
[수학식 2]
dL = PLy*X
dR = PRy*X
수학식 2에서PLy, PRy는 가상스피커 66의 위치에서 청취자의 좌측 귀 62 및 우측 귀 64에 대한 각각의 HRTF(Head Related Transfer Function)이다.
이상적으로는 상기 수학식 1과 2는 같아야 한다. 즉, eL=dL, eR=dR 이다. 수학식 1 및 2에서, HRTF인 H1L,H1R,H2L,H2R 및 PLy,PRy는 실험에 의해서 구해지고, 음원 X도 기지의 값이므로, 수학식 1 및 수학식 2의 관계(eL=dL, eR=dR)를 이용하면 임의의 위치 y에 있는 가상의 스피커 66에 대한 방향함수 DF1, DF2를 구할 수 있다. 예를 들어, 상기 가상의 스피커 66이 레프트 서라운드 스피커라고 가정하면, 이때 구해지는 방향함수 DF1, DF2는 방향함수부 66내 레프트서라운드채널 오디오데이타 LSRD에 관련된 전송함수 LS-DF1, LS-DF2가 된다.
이러한 방식으로 하면 센터채널, 서라운드 스테레오채널(레프트 서라운드 채널, 라이트 서라운드 채널)등의 오디오 데이타들에 대한 방향함수를 모두 구할 수 있다.
방향함수부 70에서 방향함수가 곱해진 센터채널, 서라운드 스테레오채널(레프트 서라운드 채널, 라이트 서라운드 채널)등의 오디오 데이타들 CNR1,2, LSRD1,2, RSRD1,2는 방향함수 보존 처리부 45의 믹싱부 80에 인가되어 레프트메인채널 오디오 데이타 LMN 및 라이트 메인채널 오디오데이타 RMN과 각각 믹싱되어 두개 채널의 오디오데이타 MXL, LXR로 출력된다.
방향함수 보존처리부 45의 믹싱부 80의 구체 블럭 구성을 도 5와 같다. 도 5를 참조하면, 믹싱부 80은 전처리부 10와 이득조절부 102 및 다수의 가산기 104∼118로 구성되어 있슴을 알수 있다.
상기 전처리부 100은 데이타 복원부 40에서 바로 인가되는 레프트/라이트메인채널 오디오데이타 LMN, RMN, 서브우퍼 오디오 데이타 SWF 및 방향함수부 70을 거쳐서 인가되는 제1,제2센터채널, 스테레오 서라운드 채널(제1,제2 레프트 서라운드 채널, 제1,제2 라이트 서라운드 채널)의 오디오 데이타들 CNR1,2, LSRD1,2, RSRD1,2을 입력으로 각 알고리즘이 지정해 주는 것에 의거한 블럭스위칭 등의 전처리를 수행한다.
전처리부 100에서 출력되는 서브우퍼 오디오데이타 SWF는 이득조절부 102에서 레프트메인채널 오디오데이타 및 라이트메인채널 오디오데이타의 신호를 죽이지 못하도록 이득이 조절되어 가산기 104 및 108에 인가된다. 가산기 104는 전처리된 레프트메인채널 오디오데이타와 이득조절된 서브오퍼오디오데이타를 가산하여 가산기 106으로 출력한다. 또한 전처리부 100에서 전처리된 제1라이트서라운드채널 오디오데이타와 제1레프트서라운드채널 오디오데이타는 가산기 116에서 가산된다. 상기 가산기 116의 출력은 전처리된 제1센터채널오디오데이타와 가산기 112에서 가산된 후 106에 인가된다. 그에 따라 가산기 106은 가산기 112와 104의 출력을 가산하여 믹싱된 레프트채널 오디오데이타를 처리영역변환부 50으로 출력한다.
한편, 전처리부 100에서 전처리된 제2라이트서라운드채널 오디오데이타와 제2레프트서라운드채널 오디오데이타는 가산기 118에서 가산된다. 상기 가산기 118의 출력은 전처리된 제2센터채널오디오데이타와 114에서 가산된 후 110에 인가된다. 한편 전처리된 라이트메인채널 오디오데이타와 이득조절된 서브오퍼오디오데이타는 가산기 108에서 가산된 후 상기 가산기 114의 출력과 가산기 110에서 가산된다. 그에 따라 가산기 110의 출력은 믹싱된 라이트채널 오디오데이타가 된다. 상기 믹싱된 라이트 채널 오디오데이타는 도 4의 처리영역변환부 50으로 출력한다.
도 5를 참조하여 설명한 믹싱부 80의 믹싱동작에 의해서 방향성이 보존된 두개의 메인채널 오디오 데이타가 처리영역변환부 50으로 인가된다. 도 4에 도시된 처리영역변환부 50은 방향성 보존처리된 두개의 메인 채널 오디오데이타를 시간영역의 데이타 TMXL, TMXR로 변환시켜 출력한다.
상술한 바와 같은 본 발명이 실제품에 적용되는 경우에는 오디오 디코더에 이 기능을 넣어 사용자가 필요에 따라 이 기능을 온/오프할수 있게 하는 것이 바람직한다. 상술한 본 발명의 설명에서는 구체적인 실시예에 관해 설명하였으나, 여러가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 따라서 본 발명의 범위는 설명된 실시예에 의하여 정할 것이 아니고 특허청구의 범위와 특허청구의 범위의 균등한 것에 의해 정해 져야 한다.
상술한 바와 같이 본 발명은 압축된 멀티채널의 오디오신호를 2개의 스피커만 이용하여 각 채널신호의 방향성을 느낄 수 있게 하여 충분한 임장감을 느낄수 있게 한다. 그 뿐만아니라 목적을 수행하기 위해 사용하는 계산을 주파수 영역에서 행하여 요구되는 계산량을 줄이는 효과가 있다.

Claims (6)

  1. 두 개의 스피커를 이용하여 멀티채널과 같은 음장감을 느낄 수 있게 하는 멀티채널 오디오 재생장치에 있어서,
    수신된 멀티채널오디오신호를 디코딩하여 주파수영역의 멀티채널오디오데이타롤 복원하는 데이타 복원부와,
    센터 및 스테레오 서라운드 방향의 오디오신호에 대해 청취자의 머리로 기인한 주파수변화 특성을 함수로 나타낸 머리관련전송함수에 근거하여 센터채널 방향함수 및 스테레오 서라운드 채널 방향함수를 가지고 있으며 상기 방향함수들을 곱한 센터채널오디오데이타 및 스테레오 서라운드 채널 오디오데이타를 레프트,라이트 메인채널의 오디오데이타에 각각 믹싱하여 방향성이 보존된 레프트,라이트 메인 채널 오디오데이타를 두개의 메인 채널로 출력시키는 방향성 보존처리부와,
    방향성 보존처리된 레프트,라이트 메인 채널 오디오데이타를 시간영역의 데이타로 변환시키는 처리영역변환부로 구성함을 특징으로 하는 장치.
  2. 제1항에 있어서, 상기 방향성 보존 처리부는
    센터채널 오디오데이타에 대한 방향함수, 및 스테레오 서라운드채널 오디오데이타에 대한 방향함수를 가지고 있으며, 상기 센터채널오디오데이타 및 스테레오 서라운드채널 오디오데이타에 해당 방향함수를 곱하여 제1, 제2 센터채널오디오데이타 및 제1, 제2 스테레오 서라운드채널 오디오데이타로 출력하는 방향함수부와,
    상기 레프트메인채널 오디오데이타를 상기 제1센터채널오디오데이타 및 제1 스테레오 서라운드채널 오디오 데이타와 믹싱하여 믹싱된 레프트채널 오디오데이타로 출력시키고, 상기 라이트메인채널 오디오데이타를 상기 제2센터채널오디오데이타 및 제2스테레오 서라운드채널 오디오 데이타와 믹싱하여 믹싱된 라이트채널 오디오데이타로 출력시키는 믹싱부로 구성함을 특징으로 하는 장치.
  3. 제2항에 있어서, 상기 믹싱부는
    오디오 데이타들을 각 알고리즘이 지정해 주는 것에 의거한 블럭스위칭와 같은 전처리를 수행하는 전처리부와,
    상기 전처리부에서 출력되는 오디오데이타들 중 상기 레프트메인채널 오디오데이타와 상기 제1센터채널오디오데이타 및 제1 스테레오 서라운드채널 오디오 데이타를 더하여 출력하고, 상기 라이트메인채널 오디오데이타와 상기 제2센터채널오디오데이타 및 제2스테레오 서라운드채널 오디오 데이타를 더하여 출력하는 가산부로 구성함을 특징으로 하는 장치.
  4. 제2항에 있어서, 상기 방향성 보존처리부는 방향함수에 의거한 오디오 데이타의 처리를 주파수영역의 처리 과정에서 수행함을 특징으로 하는 장치.
  5. 두 개의 스피커를 이용하여 멀티채널과 같은 음장감을 느낄 수 있게 하는 멀티채널 오디오 재생방법에 있어서,
    수신된 멀티채널오디오신호를 디코딩하여 주파수영역의 멀티채널오디오데이타롤 복원하는 데이타 복원과정과,
    센터 및 스테레오 서라운드 방향의 오디오신호에 대해 청취자의 머리로 기인한 주파수변화 특성을 함수로 나타낸 머리관련전송함수에 근거하여 센터채널 방향함수 및 스테레오 서라운드 채널 방향함수를 구하여 상기 구해진 방향함수들을 센터 및 스테레오 서라운드 방향의 오디오 데이타에 적용시키는 과정과,
    상기 방향함수 적용된 센터 및 스테레오 서라운드 방향의 오디오 데이타를 레프트,라이트 메인채널의 오디오데이타와 각각 믹싱하여 방향성이 보존된 레프트,라이트 메인 채널 오디오데이타를 두개의 메인 채널로 출력시키는 과정과,
    방향성 보존처리된 레프트,라이트 메인 채널 오디오데이타를 시간영역의 데이타로 변환시키는 과정으로 이루어짐을 특징으로 하는 방법.
  6. 제5항에 있어서, 상기 방향함수는 하기 수학식 1과 수학식 2의 eL=dL, eR=dR의 관계에 의해 구해짐을 특징으로 하는 방법.
    [수학식 1]
    eL = H1L*DF1*X + H2L*DF2*X
    eR = H1R*DF1*X + H2R*DF2*X
    여기서, X는 음원, H1L,H1R은 좌측스피커의 위치에서 청취자의 좌측 및 우측 귀에 대한 각각의 HRTF(Head Related Transfer Function), H2L,H2R은 우측스피커 의 위치에서 청취자의 좌측 및 우측 귀에 대한 각각의 HRTF(Head Related Transfer Function), DF1은 좌측 스피커로 인가될 신호에 대한 방항함수, DF2는 우측 스피커에 인가될 신호에 대한 방향함수, eL, eR는 방향함수가 적용되어 청취자의 양귀의 도달하는 신호.
    [수학식 2]
    dL = PLy*X
    dR = PRy*X
    상기 PLy, PRy는 가상스피커의 위치에서 청취자의 좌측 귀 및 우측 귀에 대한 각각의 HRTF(Head Related Transfer Function), dL, dR은 음원 X가 임의의 위치 y에 가상 설정된 스피커를 통하여 청취자의 양귀에 도달하는 신호.
KR1019960044563A 1996-10-08 1996-10-08 두개의 스피커를 이용한 멀티채널 오디오 재생장치및 방법 KR100206333B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1019960044563A KR100206333B1 (ko) 1996-10-08 1996-10-08 두개의 스피커를 이용한 멀티채널 오디오 재생장치및 방법
CN97119605A CN1053079C (zh) 1996-10-08 1997-09-26 利用两个扬声器再现多声道声音的装置及其方法
JP9270215A JPH10126899A (ja) 1996-10-08 1997-10-02 2つのスピーカを用いたマルチチャンネルオーディオ再生装置及び方法
US08/946,881 US6470087B1 (en) 1996-10-08 1997-10-08 Device for reproducing multi-channel audio by using two speakers and method therefor
JP2002195234A JP2003070100A (ja) 1996-10-08 2002-07-03 2つのスピーカを用いたマルチチャンネルオーディオ再生装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960044563A KR100206333B1 (ko) 1996-10-08 1996-10-08 두개의 스피커를 이용한 멀티채널 오디오 재생장치및 방법

Publications (2)

Publication Number Publication Date
KR19980026198A KR19980026198A (ko) 1998-07-15
KR100206333B1 true KR100206333B1 (ko) 1999-07-01

Family

ID=19476624

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960044563A KR100206333B1 (ko) 1996-10-08 1996-10-08 두개의 스피커를 이용한 멀티채널 오디오 재생장치및 방법

Country Status (4)

Country Link
US (1) US6470087B1 (ko)
JP (2) JPH10126899A (ko)
KR (1) KR100206333B1 (ko)
CN (1) CN1053079C (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040027015A (ko) * 2002-09-27 2004-04-01 (주)엑스파미디어 스트리밍시 오디오의 대역폭을 줄이기 위하여 몰입형오디오를 이용한 새로운 다운믹싱 기법
KR100665769B1 (ko) 2004-08-17 2007-01-09 하르만 인터내셔날 인더스트리즈, 인코포레이티드 차량에서의 오디오 신호의 구성을 위한 사운드 프로세싱시스템
KR100763919B1 (ko) * 2006-08-03 2007-10-05 삼성전자주식회사 멀티채널 신호를 모노 또는 스테레오 신호로 압축한 입력신호를 2 채널의 바이노럴 신호로 복호화하는 방법 및 장치
KR100829560B1 (ko) * 2006-08-09 2008-05-14 삼성전자주식회사 멀티채널 오디오 신호의 부호화/복호화 방법 및 장치,멀티채널이 다운믹스된 신호를 2 채널로 출력하는 복호화방법 및 장치
US8111830B2 (en) 2005-12-19 2012-02-07 Samsung Electronics Co., Ltd. Method and apparatus to provide active audio matrix decoding based on the positions of speakers and a listener

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7277767B2 (en) 1999-12-10 2007-10-02 Srs Labs, Inc. System and method for enhanced streaming audio
KR100809310B1 (ko) * 2000-07-19 2008-03-04 코닌클리케 필립스 일렉트로닉스 엔.브이. 스테레오 서라운드 및/또는 오디오 센터 신호를 구동하기 위한 다중-채널 스테레오 컨버터
US6804565B2 (en) 2001-05-07 2004-10-12 Harman International Industries, Incorporated Data-driven software architecture for digital sound processing and equalization
US7451006B2 (en) 2001-05-07 2008-11-11 Harman International Industries, Incorporated Sound processing system using distortion limiting techniques
US7177432B2 (en) * 2001-05-07 2007-02-13 Harman International Industries, Incorporated Sound processing system with degraded signal optimization
US7668317B2 (en) * 2001-05-30 2010-02-23 Sony Corporation Audio post processing in DVD, DTV and other audio visual products
SE0202159D0 (sv) * 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
KR100605885B1 (ko) 2001-12-29 2006-08-01 삼성전자주식회사 이동통신 단말기의 음향신호 출력장치 및 방법
US7072726B2 (en) * 2002-06-19 2006-07-04 Microsoft Corporation Converting M channels of digital audio data into N channels of digital audio data
FR2851879A1 (fr) * 2003-02-27 2004-09-03 France Telecom Procede de traitement de donnees sonores compressees, pour spatialisation.
TW200522761A (en) * 2003-12-25 2005-07-01 Rohm Co Ltd Audio device
GB2410164A (en) * 2004-01-16 2005-07-20 Anthony John Andrews Sound feature positioner
JP3990365B2 (ja) 2004-02-20 2007-10-10 埼玉日本電気株式会社 折り畳み式電子機器
NL1029251C2 (nl) * 2004-06-16 2007-08-14 Samsung Electronics Co Ltd Inrichting en methode voor het reproduceren van een 7.1 kanaal geluid.
KR100644617B1 (ko) * 2004-06-16 2006-11-10 삼성전자주식회사 7.1 채널 오디오 재생 방법 및 장치
KR100608024B1 (ko) * 2004-11-26 2006-08-02 삼성전자주식회사 다중 채널 오디오 입력 신호를 2채널 출력으로 재생하기위한 장치 및 방법과 이를 수행하기 위한 프로그램이기록된 기록매체
WO2006057521A1 (en) * 2004-11-26 2006-06-01 Samsung Electronics Co., Ltd. Apparatus and method of processing multi-channel audio input signals to produce at least two channel output signals therefrom, and computer readable medium containing executable code to perform the method
KR100682904B1 (ko) * 2004-12-01 2007-02-15 삼성전자주식회사 공간 정보를 이용한 다채널 오디오 신호 처리 장치 및 방법
US7778718B2 (en) * 2005-05-24 2010-08-17 Rockford Corporation Frequency normalization of audio signals
CN101351839B (zh) * 2005-09-14 2012-07-04 Lg电子株式会社 解码音频信号的方法和装置
EP1946295B1 (en) 2005-09-14 2013-11-06 LG Electronics Inc. Method and apparatus for decoding an audio signal
JP2007116365A (ja) * 2005-10-19 2007-05-10 Sony Corp マルチチャンネル音響システム及びバーチャルスピーカ音声生成方法
KR101137359B1 (ko) * 2006-09-14 2012-04-25 엘지전자 주식회사 다이알로그 증폭 기술
EP2439964B1 (en) * 2009-06-01 2014-06-04 Mitsubishi Electric Corporation Signal processing devices for processing stereo audio signals
EP2426949A3 (en) * 2010-08-31 2013-09-11 Samsung Electronics Co., Ltd. Method and apparatus for reproducing front surround sound
CN103000179B (zh) * 2011-09-16 2014-11-12 中国科学院声学研究所 一种多通道音频编解码系统及其方法
CN102883245A (zh) * 2011-10-21 2013-01-16 郝立 3d幻音
US9602927B2 (en) * 2012-02-13 2017-03-21 Conexant Systems, Inc. Speaker and room virtualization using headphones
EP2665208A1 (en) 2012-05-14 2013-11-20 Thomson Licensing Method and apparatus for compressing and decompressing a Higher Order Ambisonics signal representation
CN102752691A (zh) * 2012-07-30 2012-10-24 郝立 一种音频处理技术、3d幻音及其应用
US9258664B2 (en) 2013-05-23 2016-02-09 Comhear, Inc. Headphone audio enhancement system
US9774974B2 (en) 2014-09-24 2017-09-26 Electronics And Telecommunications Research Institute Audio metadata providing apparatus and method, and multichannel audio data playback apparatus and method to support dynamic format conversion
CN106373582B (zh) * 2016-08-26 2020-08-04 腾讯科技(深圳)有限公司 多声道音频的处理方法和装置
US10382878B2 (en) * 2017-10-18 2019-08-13 Htc Corporation Sound reproducing method, apparatus and non-transitory computer readable storage medium thereof
CN109996167B (zh) * 2017-12-31 2020-09-11 华为技术有限公司 一种多终端协同播放音频文件的方法及终端
CN111615044B (zh) * 2019-02-25 2021-09-14 宏碁股份有限公司 声音信号的能量分布修正方法及其系统
CN113873421B (zh) * 2021-12-01 2022-03-22 杭州当贝网络科技有限公司 一种基于投屏设备实现天空声音效的方法和系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS52124301A (en) 1976-04-12 1977-10-19 Matsushita Electric Ind Co Ltd Multichannel stereophonic reproduction system
US5274740A (en) * 1991-01-08 1993-12-28 Dolby Laboratories Licensing Corporation Decoder for variable number of channel presentation of multidimensional sound fields
AU3427393A (en) * 1992-12-31 1994-08-15 Desper Products, Inc. Stereophonic manipulation apparatus and method for sound image enhancement
JPH06315200A (ja) 1993-04-28 1994-11-08 Victor Co Of Japan Ltd 音像定位処理における距離感制御方法
DE69433258T2 (de) * 1993-07-30 2004-07-01 Victor Company of Japan, Ltd., Yokohama Raumklangsignalverarbeitungsvorrichtung
US5459790A (en) * 1994-03-08 1995-10-17 Sonics Associates, Ltd. Personal sound system with virtually positioned lateral speakers
JP3500746B2 (ja) 1994-12-21 2004-02-23 松下電器産業株式会社 音像定位装置及びフィルタ設定方法
KR100188089B1 (ko) * 1995-07-10 1999-06-01 김광호 음성 강조 회로
KR0128064Y1 (ko) * 1995-08-18 1998-11-02 김광호 서브우퍼신호 합성기능을 가지는 서라운드 음향신호 재생장치
US5867819A (en) * 1995-09-29 1999-02-02 Nippon Steel Corporation Audio decoder

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040027015A (ko) * 2002-09-27 2004-04-01 (주)엑스파미디어 스트리밍시 오디오의 대역폭을 줄이기 위하여 몰입형오디오를 이용한 새로운 다운믹싱 기법
KR100665769B1 (ko) 2004-08-17 2007-01-09 하르만 인터내셔날 인더스트리즈, 인코포레이티드 차량에서의 오디오 신호의 구성을 위한 사운드 프로세싱시스템
US8111830B2 (en) 2005-12-19 2012-02-07 Samsung Electronics Co., Ltd. Method and apparatus to provide active audio matrix decoding based on the positions of speakers and a listener
KR100763919B1 (ko) * 2006-08-03 2007-10-05 삼성전자주식회사 멀티채널 신호를 모노 또는 스테레오 신호로 압축한 입력신호를 2 채널의 바이노럴 신호로 복호화하는 방법 및 장치
US8744088B2 (en) 2006-08-03 2014-06-03 Samsung Electronics Co., Ltd. Method, medium, and apparatus decoding an input signal including compressed multi-channel signals as a mono or stereo signal into 2-channel binaural signals
KR100829560B1 (ko) * 2006-08-09 2008-05-14 삼성전자주식회사 멀티채널 오디오 신호의 부호화/복호화 방법 및 장치,멀티채널이 다운믹스된 신호를 2 채널로 출력하는 복호화방법 및 장치
US8867751B2 (en) 2006-08-09 2014-10-21 Samsung Electronics Co., Ltd. Method, medium, and system encoding/decoding a multi-channel audio signal, and method medium, and system decoding a down-mixed signal to a 2-channel signal

Also Published As

Publication number Publication date
CN1179074A (zh) 1998-04-15
US6470087B1 (en) 2002-10-22
JP2003070100A (ja) 2003-03-07
CN1053079C (zh) 2000-05-31
JPH10126899A (ja) 1998-05-15
KR19980026198A (ko) 1998-07-15

Similar Documents

Publication Publication Date Title
KR100206333B1 (ko) 두개의 스피커를 이용한 멀티채널 오디오 재생장치및 방법
KR101184568B1 (ko) 청각 장면들의 후부 잔향-기반의 합성
CN101356573B (zh) 对双耳音频信号的解码的控制
ES2249823T3 (es) Descodificacion de audio multifuncional.
US6016473A (en) Low bit-rate spatial coding method and system
JP4732807B2 (ja) オーディオ信号処理
US7006636B2 (en) Coherence-based audio coding and synthesis
JP4782614B2 (ja) デコーダ
US20110188662A1 (en) Method of rendering binaural stereo in a hearing aid system and a hearing aid system
US20120201389A1 (en) Processing of sound data encoded in a sub-band domain
RU2323551C1 (ru) Частотно-ориентированное кодирование каналов в параметрических системах многоканального кодирования
JPH07212898A (ja) 音声再生装置
US20050273324A1 (en) System for providing audio data and providing method thereof
JP2004529515A (ja) マルチチャンネル・オーディオを再構築するために2チャンネル・マトリックス符号化オーディオを復号する方法
JP3513850B2 (ja) 音像定位処理装置および方法
KR100551457B1 (ko) 음장보정회로
JP2010178375A (ja) 5−2−5マトリックス・エンコーダおよびデコーダ・システム
KR100598602B1 (ko) 가상 입체 음향 생성 장치 및 그 방법
JP2003264899A (ja) 情報提示装置および情報提示方法
JPH0666200U (ja) 音響再生装置
KR20050060552A (ko) 입체 음향 시스템 및 입체 음향 구현 방법
CA3142575A1 (en) Stereo headphone psychoacoustic sound localization system and method for reconstructing stereo psychoacoustic sound signals using same
JPH10191203A (ja) 音声再生回路
JPS63107300A (ja) ヘツドホン受聴システム
JP2002044798A (ja) 音声再生装置

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120329

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20130328

Year of fee payment: 15

LAPS Lapse due to unpaid annual fee