KR20160113035A - 음상 외재화에서 3차원 사운드 이미지를 재생하는 장치 및 방법 - Google Patents

음상 외재화에서 3차원 사운드 이미지를 재생하는 장치 및 방법 Download PDF

Info

Publication number
KR20160113035A
KR20160113035A KR1020160032467A KR20160032467A KR20160113035A KR 20160113035 A KR20160113035 A KR 20160113035A KR 1020160032467 A KR1020160032467 A KR 1020160032467A KR 20160032467 A KR20160032467 A KR 20160032467A KR 20160113035 A KR20160113035 A KR 20160113035A
Authority
KR
South Korea
Prior art keywords
channel
data
source
channels
unit
Prior art date
Application number
KR1020160032467A
Other languages
English (en)
Inventor
구본희
이종석
김대진
김동준
Original Assignee
(주)소닉티어랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)소닉티어랩 filed Critical (주)소닉티어랩
Priority to PCT/KR2016/002825 priority Critical patent/WO2016148552A2/ko
Publication of KR20160113035A publication Critical patent/KR20160113035A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/006Systems employing more than two channels, e.g. quadraphonic in which a plurality of audio signals are transformed in a combination of audio signals and modulated signals, e.g. CD-4 systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Abstract

3차원 사운드 이미지를 재생하기 위한 방법 및 장치가 제공된다. 3차원 사운드 재생 장치는 수신된 신호를 하나 이상의 분리된 신호들로 분리한다. 분리된 신호들의 각 신호는 채널 데이터 및 오브젝트 데이터 중 하나로 분류된다. 채널 데이터는 원거리 스피커에 의해 출력된다. 3차원 사운드 재생 장치는 오브젝트 데이터에 대한 음상 외재화를 구현하며, 음상 외재화가 구현된 데이터를 근접 스피커로 출력한다.

Description

음상 외재화에서 3차원 사운드 이미지를 재생하는 장치 및 방법{METHOD AND APPARATUS FOR PLAYING 3-DIMENSION SOUND IMAGE IN SOUND EXTERNALIZATION}
아래의 실시예들은 음상 외재화에 관한 것으로, 보다 상세히는 근접 스피커에서 출력되는 사운드 및 원거리 스피커에서 출력되는 사운드의 조합에 의한 3차원의 사운드를 표현하는 방법 및 장치가 개시된다.
최근에는, 좀 더 실감나는 영화 상영을 위하여 3차원(Dimension) 영상이 영화관에서 상영되고 있다. 좀 더 실감나는 영화 상영을 위해서는 사운드 역시 3차원 사운드로 출력되어야 한다. 3차원 사운드는 스피커에서 단순하게 출력되는 것 이상으로 사운드의 세기 및 방향 등이 영상과 상응하게 설정됨에 따라 사용자가 영상의 상황에 실제로 위치하는 느낌을 받게 하는 사운드이다.
이러한 3차원 사운드를 실현하기 위해서는, 영화관에 착석한 사용자의 머리의 외부에 음상이 맺히게 하는 음상 외재화(externalization) 기술이 요구된다.
음상 외재화 기술은 사운드 신호 및 머리 관련 전달 함수(Head Related Transfer Function; HRTF)의 컨볼루션을 수행함으로써 구현될 수 있다. HRTF는 사용저의 머리의 주변의 각 위치에서 들리는 사운드에 대한 임펄스 응답을 나타낸다.
현재 다수의 스피커들을 사용하여 음장을 형성하고 제어하는 환경이 제공되고 있다. 음장의 형성 및 제어를 위해서는 다수의 채널들이 사용된다. 음장은 보다 다수의 채널들을 사용하게 되면서 보다 정교해지고 있다. 예를 들면, 기존의 5.1 채널 및 7.1 채널을 넘어서, 11.1 채널, 15.1 채널 및 31.1 채널 등이 음장의 형성을 위해 사용되고 있다. 또한 음상 외재화 기술을 통해 사용자가 다수의 채널을 헤드폰을 통해서 스피커 없이 입체감을 갖는 사운드를 감상할 수 있는 환경이 조성되고 있다.
하지만, 종래 기술들은 여전히 스피커를 기준으로 주변음(ambience sound) 만을 서라운드 사운드로서 재생한다. 종래 기술들은, 3차원 영화의 3차원 이미지와는 달리, 사운드 이미지를 스크린의 앞 또는 뒤에 맺히게 함에 있어서는 한계를 갖는다. 특히, 종래 기술에 의해서는, 3차원 이미지가 스크린의 전면으로 튀어 나오는 것과 다르게, 사운드 이미지는 스크린의 전면으로 튀어 나오지 않아 완전한 3차원 사운드가 제공되지 않는다.
따라서, 3차원 영화가 급격하게 대중화 되고 있는 추세에 비추어, 사운드 또한 완전한 3차원으로 형성하는 기술의 필요성이 대두된다.
일 실시예는 사운드 이미지가 청취자를 기준으로 전면으로 돌출되게 함으로써 실제와 같은 생동감 있는 3차원 사운드를 재생하는 방법 및 장치를 제공할 수 있다.
일 실시예는 다채널 기술을 사용하여 제작되는 컨텐츠에 대해 완벽한 재생 방법을 제공하는 방법 및 장치를 제공할 수 있다.
일 실시예는 특수한 알고리즘을 통해 기존의 컨텐츠에 대한 호환을 제공하는 방법 및 장치를 제공할 수 있다.
일 실시예는 기존의 스피커를 함께 사용함으로써 종래의 음상 외재화 기술에 의해 실현되기 힘든 부분에 대한 보완을 제공하는 방법 및 장치를 제공할 수 있다.
일 실시예는 트랜소럴 및 음상 외재화 기술을 사용함으로써 최소의 스피커들 만으로 상하좌우의 사운드를 모두 표현하는 방법 및 장치를 제공할 수 있다.
일 측에 있어서, 신호를 수신하는 단계; 수신된 신호에 대한 채널 분리 및 오브젝트 분리를 수행함으로써 하나 이상의 분리된 신호들을 생성하는 단계; 상기 하나 이상의 분리된 신호들의 각 신호를 채널 데이터 및 오브젝트 데이터 중 하나로 분류하는 단계; 상기 채널 데이터를 하나 이상의 원거리 스피커들로 출력하는 단계; 상기 오브젝트 데이터에 대한 음상 외재화를 구현하는 단계; 및 상기 음상 외재화가 구현된 데이터를 근접 스피커로 출력하는 단계를 포함하는 3차원 사운드를 재생하는 방법이 제공된다.
상기 생성하는 단계는, 상기 수신된 신호를 하나 이상의 채널들로 구분하는 단계; 상기 하나 이상의 채널들의 각 채널의 데이터를 상기 채널 데이터 및 상기 오브젝트 데이터 중 어느 것으로 사용할 것인가를 결정하는 단계; 상기 하나 이상의 채널들 중 상기 채널 데이터로 사용되도록 설정된 채널의 데이터를 사용하여 상기 채널 데이터를 생성하는 단계; 및 상기 하나 이상의 채널들 중 상기 오브젝트 데이터로 사용되도록 설정된 채널의 데이터를 사용하여 상기 오브젝트 데이터를 생성하는 단계를 포함할 수 있다.
상기 생성하는 단계는, 상기 채널 데이터에 대한 레벨 보상을 수행하는 단계; 및 상기 오브젝트 데이터에 대한 레벨 보상을 수행하는 단계를 더 포함할 수 있다.
상기 생성하는 단계는, 상기 하나 이상의 채널들을 하나 이상의 고 레벨 채널들 및 하나 이상의 저 레벨 채널들로 구분하는 단계를 더 포함할 수 있다.
상기 하나 이상의 저 레벨 채널들은 상기 채널 데이터로 사용될 수 있다.
상기 하나 이상의 고 레벨 채널들 중 대사의 채널은 상기 오브젝트 데이터 및 채널 데이터 중 하나로 사용하도록 설정될 수 있다.
상기 오브젝트 데이터는 공간에 대한 위치 정보, 움직임에 대한 방향 정보 및 사운드의 크기 정보를 포함할 수 있다.
상기 하나 이상의 분리된 신호들의 각 신호는 상기 하나 이상의 원거리 스피커들의 개수에 맞춰서 상기 하나 이상의 원거리 스피커들의 하나 이상의 원거리 스피커 채널들 및 상기 근접 스피커의 음상 외재화 채널 중 하나의 채널로 전송될 수 있다.
상기 3차원 사운드를 재생하는 방법은, 상기 하나 이상의 분리 신호들에 대한 프로세싱을 수행하는 단계를 더 포함할 수 있다.
상기 3차원 사운드를 재생하는 방법은, 상기 수신된 신호를 바이패스할 것인지 여부를 결정하는 단계; 및 상기 수신된 신호의 바이패스가 결정된 경우, 수신된 신호를 상기 하나 이상의 원거리 스피커들 및 상기 근접 스피커 중 선택된 스피커로 전송하는 단계를 더 포함할 수 있다.
다른 일 측에 있어서, 신호를 수신하는 신호 수신부; 수신된 신호에 대한 채널 분리 및 오브젝트 분리를 수행함으로써 하나 이상의 분리된 신호들을 생성하는 1차 신호 처리부; 상기 하나 이상의 분리된 신호들의 각 신호를 채널 데이터 및 오브젝트 데이터 중 하나로 분류하는 채널 할당부; 상기 채널 데이터를 하나 이상의 원거리 스피커들로 출력하는 원거리 스피커 감지/재생부; 상기 오브젝트 데이터에 대한 음상 외재화를 구현하는 음상 외재화 구현부; 및 상기 음상 외재화가 구현된 데이터를 근접 스피커로 출력하는 근접 스피커 감지/재생부를 포함하는 3차원 사운드 재생 장치가 제공된다.
상기 1차 신호 처리부는, 상기 수신된 신호를 하나 이상의 채널들로 구분하는 채널 감지부; 상기 하나 이상의 채널들의 각 채널의 데이터를 상기 채널 데이터 및 상기 오브젝트 데이터 중 어느 것으로 사용할 것인가를 결정하는 채널 비교부; 상기 하나 이상의 채널들 중 상기 채널 데이터로 사용되도록 설정된 채널의 데이터를 사용하여 상기 채널 데이터를 생성하는 채널 데이터 생성부; 및 상기 하나 이상의 채널들 중 상기 오브젝트 데이터로 사용되도록 설정된 채널의 데이터를 사용하여 상기 오브젝트 데이터를 생성하는 오브젝트 데이터 생성부를 포함할 수 있다.
상기 1차 신호 처리부는, 상기 채널 데이터에 대한 레벨 보상을 수행하는 채널 믹스부; 및 상기 오브젝트 데이터에 대한 레벨 보상을 수행하는 오브젝트 데이터 믹스부를 더 포함할 수 있다.
상기 1차 신호 처리부는, 상기 하나 이상의 채널들을 하나 이상의 고 레벨 채널들 및 하나 이상의 저 레벨 채널들로 구분하는 레벨 감지부를 더 포함할 수 있다.
상기 채널 비교부는 상기 하나 이상의 저 레벨 채널들을 상기 채널 데이터로 사용할 수 있다.
상기 채널 비교부는 상기 하나 이상의 고 레벨 채널들 중 대사의 채널을 상기 오브젝트 데이터 및 채널 데이터 중 하나로 사용하도록 설정할 수 있다.
상기 오브젝트 데이터는 공간에 대한 위치 정보, 움직임에 대한 방향 정보 및 사운드의 크기 정보를 포함할 수 있다.
상기 채널 할당부는 상기 하나 이상의 원거리 스피커들의 개수에 맞춰서 상기 하나 이상의 분리된 신호들의 각 신호를 상기 하나 이상의 원거리 스피커들의 하나 이상의 원거리 스피커 채널들 및 상기 근접 스피커의 음상 외재화 채널 중 하나의 채널로 전송할 수 있다.
상기 3차원 사운드 재생 장치는, 상기 하나 이상의 분리 신호들에 대한 프로세싱을 수행하는 2차 신호 처리부를 더 포함할 수 있다.
상기 3차원 사운드 재생 장치는, 상기 수신된 신호의 바이패스가 결정된 경우, 수신된 신호를 상기 하나 이상의 원거리 스피커들 및 상기 근접 스피커 중 선택된 스피커로 전송하는 바이패스 조정부를 더 포함할 수 있다.
상기 신호 감지부는 상기 수신된 신호를 바이패스할 지 여부를 결정할 수있다.
사운드의 이미지가 청취자를 기준으로 전면으로 돌출되게 함으로써 기존의 앰비언스의 3차원 사운드를 넘어서는 사운드의 표현을 가능하게 하는 방법 및 장치를 제공한다.
3차원 사운드로 제작되지 않은 서라운드 컨텐츠에서도 채널 정보의 비교 및 분석을 통해 오브젝트 데이터를 추출하는 방법 및 장치가 제공된다.
채널 정보의 비교 및 분석을 통해 오브젝트 데이터를 추출함으로써 컨텐츠에 대한 호환성을 보장하는 방법 및 장치가 제공한다.
원거리 스피커 및 음상 외재화가 적용되는 근접 스피커를 선택적으로 사용하는 방법 및 장치가 제공된다.
기존의 스피커 및 헤드폰을 각각 그대로 활용할 수 있게 함으로써 비용을 감소시키는 방법 및 장치가 제공된다.
2개의 원거리 스피커들 및 헤드폰 만을 사용하여 서라운드 사운드를 구현함에 따라, 서라운드 스피커 설치를 위한 공간 및 비용을 감소시키면서도 서라운드 효과를 상승시키는 방법 및 장치가 제공된다.
도 1은 일 예에 따른 3차원 사운드 재생 장치의 구조도이다.
도 2는 일 예에 따른 3차원 사운드 재생 방법의 흐름도이다.
도 3은 일 예에 따른 1차 신호 처리부의 블록도이다.
도 4는 일 예에 따른 오브젝트 추출의 흐름도이다.
도 5는 일 실시예에 따른 3차원 사운드 제공 장치의 구조도이다.
도 6은 일 실시예에 따른 3차원 사운드 제공 방법의 흐름도이다.
도 7은 일 예에 따른 사운드 믹스를 나타낸다.
도 8은 일 예에 따른 믹싱 방법의 첫 번째 과정을 나타낸다.
도 9는 일 예에 따른 믹싱 방법의 두 번째 과정을 나타낸다.
도 10은 일 예에 따른 믹싱 방법의 세 번째 과정을 나타낸다.
도 11은 일 예에 따른 3차원 사운드에 대한 하나 이상의 파라미터들의 값들을 결정하기 위한 전체의 인터페이스를 나타낸다.
도 12는 일 예에 따른 거리 설정 인터페이스를 나타낸다.
도 13은 일 예에 따른 소스 설정 인터페이스를 나타낸다.
도 14는 일 예에 따른 거리 인터페이스를 나타낸다.
도 15는 일 예에 따른 선택된 점을 나타낸다.
도 16은 일 예에 따른 소스 트레이스 라인의 편집을 나타낸다.
도 17은 일 예에 따른 스크린 인터페이스를 나타낸다.
도 18은 일 예에 따른 속도 및 가속도 인터페이스를 나타낸다.
도 19는 일 예에 따른 시퀀스 인터페이스를 나타낸다.
도 20은 일 에에 따른 프로젝트의 로케이터 영역을 나타낸다.
도 21은 일 예에 따른 확대된 속도 그래프를 나타낸다.
도 22는 일 실시예에 따른 3차원 사운드 재생 장치를 구현하는 전자 장치를 도시한다.
도 23은 일 실시예에 따른 3차원 사운드 제공 장치를 구현하는 전자 장치를 도시한다.
후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.
도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
실시예에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 실시예에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않으며, 추가적인 구성이 예시적 실시예들의 실시 또는 예시적 실시예들의 기술적 사상의 범위에 포함될 수 있음을 의미한다. 어떤 구성요소(component)가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기의 2개의 구성요소들이 서로 간에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 상기의 2개의 구성요소들의 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
제1 및 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기의 구성요소들은 상기의 용어들에 의해 한정되어서는 안 된다. 상기의 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하여 지칭하기 위해서 사용된다. 예를 들어, 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
또한 실시예들에 나타나는 구성요소들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성요소가 분리된 하드웨어나 하나의 소프트웨어 구성 단위로만 이루어짐을 의미하지 않는다. 즉, 각 구성요소는 설명의 편의상 각각의 구성요소로 나열된 것이다. 예를 들면, 구성요소들 중 적어도 두 개의 구성요소들이 하나의 구성요소로 합쳐질 수 있다. 또한, 하나의 구성요소가 복수의 구성요소들로 나뉠 수 있다. 이러한 각 구성요소의 통합된 실시예 및 분리된 실시예 또한 본질에서 벗어나지 않는 한 권리범위에 포함된다.
또한, 일부의 구성요소는 본질적인 기능을 수행하는 필수적인 구성요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성요소일 수 있다. 실시예들은 실시예의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 예를 들면, 단지 성능 향상을 위해 사용되는 구성요소와 같은, 선택적 구성요소가 제외된 구조 또한 권리 범위에 포함된다.
이하에서는, 기술분야에서 통상의 지식을 가진 자가 실시예들을 용이하게 실시할 수 있도록 하기 위하여, 첨부된 도면을 참조하여 실시예들을 상세히 설명하기로 한다. 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은 일 예에 따른 3차원 사운드 재생 장치의 구조도이다.
3차원 사운드 재생 장치(100)는 신호 수신부(105), 신호 감지부(110), 1차 신호 처리부(120), 채널 할당부(130), 2차 신호 처리부(140), 기능 조정부(150), 음상 외재화 구현부(160), 바이패스 조정부(170), 바이패스 전환 스위치(171), 원거리 스피커 감지/재생부(180) 및 근접 스피커 감지/재생부(190)를 포함할 수 있다.
신호 수신부(105), 신호 감지부(110), 1차 신호 처리부(120), 채널 할당부(130), 2차 신호 처리부(140), 기능 조정부(150), 음상 외재화 구현부(160), 바이패스 조정부(170), 바이패스 전환 스위치(171), 원거리 스피커 감지/재생부(180) 및 근접 스피커 감지/재생부(190)의 기능 및 동작에 대해서, 아래에서 상세하게 설명된다.
3차원 사운드 재생 장치(100)는 원거리 스피커(181) 및 근접 스피커(191)를 포함할 수 있다. 또는, 3차원 사운드 재생 장치(100) 및 원거리 스피커(181)와 유선 또는 무선으로 연결될 수 있다. 3차원 사운드 재생 장치(100) 및 근접 스피커(191)는 유선 또는 무선으로 연결될 수 있다.
원거리 스피커(181)는 음상 외재화의 용도로 사용되지 않는 스피커일 수 있다.
원거리 스피커(181)는 3차원 사운드 재생 장치(100)에 의해 생성된 사운드의 청취자와 물리적으로 떨어진 스피커일 수 있다. 원거리 스피커(181)는 라우드(loud) 스피커일 수 있다. 원거리 스피커(181)는 리시버(receiver)와 연결된 메인 스피커, 서라운드 스피커 또는 실링 스피커일 수 있다. 원거리 스피커(181)는 TV에 부착된 스피커 또는 컴퓨터에 부착된 데스크탑 스피커일 수 있다. 또는, 원거리 스피커(181)는 트랜소럴 재생을 위한 스피커일 수 있다.
근접 스피커(191)는 음상 외재화의 용도로 사용되는 스피커일 수 있다.
근접 스피커(191)는 3차원 사운드 재생 장치(100)에 의해 생성된 사운드의 청취자의 귀에 밀착한 스피커일 수 있다. 근접 스피커(191)는 헤드폰 또는 이어폰일 수 있다. 근접 스피커(191)는 인이어 헤드폰, 온이어 헤드폰 또는 오버이어 헤드폰일 수 있다.
도 2는 일 예에 따른 3차원 사운드 재생 방법의 흐름도이다.
단계(210)에서, 신호 수신부(105)는 사운드 전송 장치로부터 전송된 신호를 수신할 수 있다.
단계(220)에서, 신호 감지부(110)는 수신된 신호의 종류(type)을 감지할 수 있다.
예를 들면, 신호 감지부(110)는 수신된 신호가 3차원 사운드를 지원하는 포맷인지 여부를 감지할 수 있고, 수신된 신호가 오브젝트(object) 데이터를 포함하는지 여부를 감지할 수 있다. 또한, 신호 감지부(110)는 수신된 신호가 모노, 스테레오, 5.1 채널 및 7.1 채널 등의 신호 또는 컨텐츠임을 감지할 수 있다.
신호 감지부(110)가 전송된 신호의 종류를 감지함에 따라, 1차 신호 처리부(120)는 어떠한 방식으로 전송된 신호에 대한 프로세싱을 수행할 것인가를 결정할 수 있다.
신호 감지부(110)는 수신된 신호의 오디오 채널의 개수를 사용하여 수신된 신호의 종류를 감지할 수 있다.
예를 들면, 신호 감지부(110)는 수신된 신호가 2개의 오디오 채널들을 가지면 수신된 신호가 스테레오 신호인 것을 감지할 수 있다. 신호 감지부(110)는 수신된 신호가 6개의 오디오 채널들을 가지면 수신된 5.1 채널의 신호인 것을 감지할 수 있다. 신호 감지부(110)는 수신된 신호가 코덱(codec)을 사용하는 신호일 경우, 신호의 헤드의 정보를 사용하여 채널의 정보를 확인할 수 있고, 확인된 채널의 정보를 사용하여 수신된 신호의 종류를 감지할 수 있다.
단계(230)에서, 신호 감지부(110)는 수신된 신호를 바이패스할 지 여부를 결정할 수 있다. 또는, 신호 감지부(110)는 3차원 사운드 및 스테레오 사운드 중 어느 것을 생성할 것인 가를 결정할 수 있다. 수신된 신호를 바이패스할 경우, 스테레오 사운드가 생성될 수 있다. 수신된 신호를 바이패스하지 않을 경우 3차원 사운드가 생성될 수 있다. 스테레오 사운드는 3차원 사운드가 아닌 일반적인 2D 사운드일 수 있다.
예를 들면, 신호 감지부(110)가 2개의 오디오 채널들을 감지한 경우, 신호 감지부(110)는 3차원 사운드 및 스테레오 사운드 중 어느 것을 생성할 것인 가를 결정할 수 있다.
또한, 신호 감지부(110)에서 감지된 신호의 종류와는 무관하게 바이패스 기능을 사용하여 스테레오 사운드를 생성할 것을 결정할 수 있다. 신호 감지부(110)는 바이패스 전환 스위치(171)의 설정에 기반하여 3차원 사운드 및 스테레오 사운드 중 어느 것을 생성할 것인 가를 결정할 수 있다.
예를 들면, 3차원 사운드 재생 장치(100)의 사용자는 바이패스 전환 스위치(171)를 설정하여 3차원 사운드 및 스테레오 사운드 중 어느 것을 생성할 것인 가를 결정할 수 있다.
예를 들면, 바이패스 전환 스위치(171)는 온(on) 또는 오프(off)로 설정될 수 있다. 바이패스 전환 스위치(171)가 온(on)으로 설정된 경우, 신호 감지부(110)는 스테레오 사운드를 생성할 수 있다. 바이패스 전환 스위치(171)가 오프(off)으로 설정된 경우, 후술될 3차원 사운드가 생성될 수 있다.
예를 들면, 바이패스 전환 스위치(171)는 "원거리 출력", "근접 출력" 또는 오프(off)로 설정될 수 있다. 바이패스 전환 스위치(171)가 "원거리 출력" 또는 "근접 출력"으로 설정된 경우, 신호 감지부(110)는 스테레오 사운드를 생성할 수 있다. 바이패스 전환 스위치(171)가 오프(off)으로 설정된 경우, 후술될 3차원 사운드가 생성될 수 있다.
수신된 신호의 바이패스가 결정된 경우(즉, 스테레오 사운드가 생성되는 것이 결정된 경우), 단계(235)가 수행될 수 있다. 수신된 신호를 바이패스하지 않는 것이 결정된 경우(즉, 3차원 사운드가 생성되는 것이 결정된 경우), 단계(245)가 수행될 수 있다.
단계(235)에서, 수신된 신호의 바이패스가 결정된 경우, 바이패스 조정부(170)는 원거리 스피커(181) 및 근접 스피커(191) 중 수신된 신호가 곧바로 전송될 스피커를 선택할 수 있다. 바이패스 조정부(170)는 수신된 신호를 하나 이상의 원거리 스피커들 및 근접 스피커(191) 중 선택된 스피커로 곧바로 전송할 수 있다.
예를 들면, 바이패스 전환 스위치(171)가 "원거리 출력"으로 설정된 경우, 바이패스 조정부(170)는 원거리 스피커(181)를 선택할 수 있고, 수신된 신호를 원거리 스피커(181)로 곧바로 전송할 수 있다. 바이패스 전환 스위치(171)가 "근접 출력"으로 설정된 경우, 바이패스 조정부(170)는 근접 스피커(191)를 선택할 수 있고, 수신된 신호를 근접 스피커(191)로 곧바로 전송할 수 있다.
단계(240)에서, 기능 조정부(150)는 청취자의 취향에 따른 설정을 수행할 수 있다. 설정은 1차 신호 처리부(120)의 동작에 영향을 미칠 수 있다. 기능 조정부(150)는 1차 신호 처리부(120)를 위한 설정을 수행할 수 있다.
예를 들면, 기능 조정부(150)는 청취자의 취향에 따라 다운믹스(downmix)를 설정할 수 있다.
예를 들면, 기능 조정부(150)는 청취자의 취향에 따라 업믹스(upmix)를 설정할 수 있다.
단계(245)에서, 1차 신호 처리부(120)는 신호 감지부(110)에서 감지된 신호에 대한 채널 분리 및 오브젝트 분리를 수행함으로써 하나 이상의 분리된 신호들을 생성할 수 있다.
1차 신호 처리부(120)는 감지된 신호로부터 채널 데이터 및 오브젝트 데이터를 분리함으로써 감지된 신호로부터 채널 데이터 및 오브젝트 데이터를 추출할 수 있다.
채널 데이터 및 오브젝트 데이터는 3차원 데이터를 구성할 수 있다. 또는, 3차원 데이터는 채널 데이터 및 오브젝트 데이터를 포함할 수 있다.
채널 데이터는 감지된 신호 중 1차 신호 처리부(120)에 의해 인식된 채널 성분의 데이터일 수 있다.
오브젝트 데이터는 감지된 신호 중 1차 신호 처리부(120)에 의해 인식된 오브젝트 성분의 데이터일 수 있다. 오브젝트 데이터는 공간에 대한 위치 정보, 움직임에 대한 방향 정보 및 사운드의 크기 정보 등을 포함할 수 있다.
1차 신호 처리부(120)는 감지된 신호의 채널 데이터를 서라운드 규격에 맞게 분리할 수 있다.
1차 신호 처리부(120)는 하나 이상의 오브젝트들의 각 오브젝트에 대하여, 각 오브젝트의 오토메이션 데이터를 분리 및 추출할 수 있다.
1차 신호 처리부(120)는 감지된 신호의 종류에 따른 프로세싱을 적용할 수 있다. 또한, 1차 신호 처리부(120)는 사용자에 의해 결정된 프로세싱의 모드에 따라 감지된 신호에 대한 채널 분리 및 오브젝트 분리를 수행할 수 있다. 예를 들면, 모드는 스테레오 모드, 다채널 서라운드 모드 및 오브젝트를 포함하는 3차원 오디오 모드를 포함할 수 있다. 스테레오 모드가 설정된 경우, 1차 신호 처리부(120)는 별도의 프로세싱 없이 감지된 신호의 채널 데이터를 채널 할당부(130)에게 제공할 수 있다. 다채널 서라운드 모드가 설정된 경우, 1차 신호 처리부(120)는 오브젝트 추출 방법을 사용하여 채널 데이터 및 오브젝트 데이터를 분리할 수 있고, 분리된 채널 데이터 및 오브젝트 데이터를 채널 할당부(130)에게 제공할 수 있다. 오브젝트를 포함하는 3차원 오디오 모드가 설정된 경우, 1차 신호 처리부(120)는 감지된 신호의 채널 정보 및 오브젝트 정보에 따라서 채널 데이터 및 오브젝트 데이터를 분리할 수 있고, 분리된 채널 데이터 및 오브젝트 데이터를 채널 할당부(130)에게 제공할 수 있다.
1차 신호 처리부(120)는 감지된 신호가 3차원 사운드에 대응하는 경우, 디코더(decoder)를 사용하여 채널 데이터, 오브젝트 데이터 및 공간 이미지 데이터를 분리 및 추출할 수 있다.
하나 이상의 분리된 신호들은 채널 데이터, 오브젝트 데이터 및 공간 이미지 데이터 중 적어도 일부를 포함할 수 있다.
1차 신호 처리부(120)는 하나 이상의 분리된 신호들을 채널 할당부(130)로 전송할 수 있다.
단계(250)에서, 채널 할당부(130)는 원거리 스피커(181) 및 근접 스피커(191)에 대한 정보를 획득할 수 있다.
채널 할당부(130)는 3차원 사운드 재생 장치(100)에 원거리 스피커(181)가 연결되었는지 여부를 감지할 수 있고, 3차원 사운드 재생 장치(100)에 연결된 원거리 스피커(181)의 개수를 결정할 수 있다.
원거리 스피커 감지/재생부(180)는 원거리 스피커(181)가 연결되었는지 여부를 감지할 수 있고, 3차원 사운드 재생 장치(100)에 연결된 원거리 스피커(181)의 개수를 감지할 수 있다.
원거리 스피커 감지/재생부(180)는 3차원 사운드 재생 장치(100)에 실제로 연결된 원거리 스피커(181)를 감지할 수 있다. 원거리 스피커 감지/재생부(180)는 감지된 원거리 스피커(181)의 개수를 채널 할당부(130)에게 제공할 수 있다. 원거리 스피커 감지/재생부(180)는 프리 앰프 및/또는 파워 앰프에 현재 연결된 원거리 스피커(181)의 개수를 감지할 수 있다.
원거리 스피커 감지/재생부(180)는 사용자에 의해 설정된 감지된 원거리 스피커(181)의 개수를 채널 할당부(130)에게 제공할 수 있다.
채널 할당부(130)는 3차원 사운드 재생 장치(100)에 근접 스피커(191)가 연결되었는지 여부를 감지할 수 있다.
근접 스피커 감지/재생부(190)는 3차원 사운드 재생 장치(100)에 실제로 연결된 근접 스피커(191)를 감지할 수 있다. 근접 스피커 감지/재생부(190)는 3차원 사운드 재생 장치(100)에 실제로 근접 스피커(191)가 연결되었는지 여부를 나타내는 정보를 채널 할당부(130)에게 제공할 수 있다.
단계(255)에서, 하나 이상의 분리된 신호들의 각 신호에 대한 할당을 수행할 수 있다. 채널 할당부(130)는 채널 할당부(130)는 감지된 하나 이상의 원거리 스피커들의 개수 및 근접 스피커(191)가 연결되었는지 여부에 따라 하나 이상의 분리된 신호들의 각 신호에 대한 할당을 수행할 수 있다. 여기에서, 할당은 신호를 채널 데이터 및 오브젝트 데이터 중 하나로 분류하는 것일 수 있다.
채널 할당부(130)는 하나 이상의 분리된 신호들의 각 신호를 채널 데이터 및 오브젝트 데이터 중 하나로 분류할 수 있다. 채널 할당부(130)는 감지된 하나 이상의 원거리 스피커들의 개수 및 근접 스피커(191)가 연결되었는지 여부에 따라 하나 이상의 분리된 신호들의 각 신호를 채널 데이터 및 오브젝트 데이터 중 하나로 분류할 수 있다.
채널 할당부(130)는 3차원 사운드 재생 장치(100)가 지원하는 채널에 맞게 채널 정보를 할당하고, 오브젝트 데이터를 배치할 수 있다.
채널 할당부(130)는 채널 데이터를 하나 이상의 원거리 스피커들의 하나 이상의 원거리 스피커 채널들로 분리할 수 있고, 오브젝트 데이터를 근접 스피커(191)의 음상 외재화 채널로 분리할 수 있다.
채널 할당부(130)는 하나 이상의 원거리 스피커들의 개수에 맞춰서 하나 이상의 분리된 신호들의 각 신호를 하나 이상의 원거리 스피커들의 하나 이상의 원거리 스피커 채널들 및 근접 스피커(191)의 음상 외재화 채널 중 하나의 채널로 전송할 수 있다.
원거리 스피커 채널은 원거리 스피커(181)의 채널일 수 있다. 음상 외재화 채널은 근접 스피커(191)의 채널일 수 있다. 원거리 스피커 채널은 채널 데이터가 제공되는 채널일 수 있다. 음상 외재화 채널은 오브젝트 데이터가 제공되는 채널일 수 있다. 말하자면, 원거리 스피커 채널은 실제적으로 채널 데이터를 나타낼 수 있고, 음상 외재화 채널은 실제적으로 오브젝트 데이터를 나타낼 수 있다.
원거리 스피커 채널은 5.1 채널, 7.1 채널, 8.1 채널, 9.1 채널, 10.2 채널, 11.1 채널, 13.1 채널, 14.2 채널, 15.1 채널, 22.2 채널, 30.2 채널 및 31.1 채널 등의 서라운드 포맷으로 분리된 데이터를 제공할 수 있다. 원거리 스피커 채널은 현존하는 모든 서라운드 포맷을 지원할 수 있다.
음상 외재화 채널은 오브젝트의 데이터, 공간 좌표, 벡터 및 레벨 등에 대한 정보를 제공할 수 있다.
다만, 원거리 스피커 채널 및 음상 외재화 채널은 서로 간에 교체될 수 있다. 말하자면, 채널 할당부(130)는 필요에 따라 원거리 스피커 채널을 오브젝트 데이터를 재생하는 채널로서 사용할 수 있고, 음상 외재화 채널을 채널 데이터를 재생하는 채널로서 사용할 수 있다.
채널 할당부(130)는 아래의 할당 규칙을 사용하여 하나 이상의 분리된 신호들을 하나 이상의 원거리 스피커 채널들로 전송할 수 있다.
N은 하나 이상의 원거리 스피커들의 개수를 나타낼 수 있고, n은 하나 이상의 분리된 신호들의 하나 이상의 유효 채널들의 개수를 나타낼 수 있다.
1) N 및 n이 동일한 경우, 채널 할당부(130)는 하나 이상의 유효 채널들을 하나 이상의 원거리 스피커 채널들에 1대1로 어사인(assign)할 수 있다.
2) N이 n보다 작은 경우, 채널 할당부(130)는 하나 이상의 유효 채널들 중 하나 이상의 원거리 스피커들의 개수만큼의 일부 유효 채널을 하나 이상의 원거리 스피커들의 하나 이상의 원거리 스피커 채널들에 각각 어사인할 수 있고, 하나 이상의 유효 채널들 중 하나 이상의 원거리 채널들에 어사인되지 않은 나머지의 유효 채널을 음상 외재화 채널로 어사인할 수 있다.
3) N이 n보다 작은 경우, 사용자의 설정에 따라, 채널 할당부(130)는 하나 이상의 유효 채널들에 대한 다운믹스(downmix)를 수행할 수 있다.
예를 들면, 채널 할당부(130)는 하나 이상의 원거리 스피커들의 개수에 맞춰 복수의 유효 채널들에 대한 다운믹스를 수행할 수 있다. 채널 할당부(130)는 다운믹스를 통해 하나 이상의 유효 채널들의 전부를 하나 이상의 원거리 스피커들의 하나 이상의 원거리 스피커 채널들에만 할당하고, 음상 외재화 채널에는 할당하지 않을 수 있다.
예를 들면, 채널 할당부(130)는 다운믹스를 통해 하나 이상의 유효 채널들의 전부를 음상 외재화 채널에만 할당할 수 있고, 하나 이상의 원거리 스피커 채널들에는 할당하지 않을 수 있다.
4) N이 n보다 큰 경우, 채널 할당부(130)는 하나 이상의 유효 채널들을 하나 이상의 원거리 스피커들의 하나 이상의 원거리 스피커 채널들 중 하나 이상의 유효 채널들의 개수만큼의 일부 원거리 스피커 채널에 각각 어사인할 수 있고, 하나 이상의 원거리 스피커 채널들 중 하나 이상의 유효 채널들의 각 유효 채널이 할당되지 않은 나머지의 원거리 스피커 채널에는 유효 채널을 할당하지 않을 수 있다.
5) N이 n보다 큰 경우, 사용자의 설정에 따라, 채널 할당부(130)는 하나 이상의 유효 채널들에 대한 업믹스(upmix)를 수행할 수 있다.
예를 들면, 채널 할당부(130)는 하나 이상의 원거리 스피커들의 개수에 맞춰 하나 이상의 유효 채널들에 대한 업믹스를 수행할 수 있다. 채널 할당부(130)는 업믹스를 통해 하나 이상의 유효 채널들의 전부를 하나 이상의 원거리 스피커들의 하나 이상의 원거리 스피커 채널들에 할당하고, 음상 외재화 채널에는 할당하지 않을 수 있다.
예를 들면, 채널 할당부(130)는 하나 이상의 유효 채널들의 전부를 음상 외재화 채널에만 할당할 수 있고, 하나 이상의 원거리 스피커 채널들에는 할당하지 않을 수 있다.
단계(255)에서, 기능 조정부(150)는 2차 신호 처리부(140)를 위한 설정을 수행할 수 있다.
기능 조정부(150)는 2차 신호 처리부(140)가 하나 이상의 분리된 신호들에 대한 프로세싱을 수행하기 위해 사용하는 파라미터를 설정할 수 있다. 기능 조정부(150)는 파라미터의 설정에 대한 사용자의 입력을 수신할 수 있다.
예를 들면, 기능 조정부(150)는 청취자의 환경에 따른 공간의 크기를 조정할 수 있고, 청취자의 취향에 따른 가상 공간의 크기를 조정할 수 있다.
예를 들면, 기능 조정부(150)는 청취자의 환경을 보정하기 위한 이퀄라이저, 컴프레서 및 딜레이 등과 같은 사운드 이펙트를 설정할 수 있다.
예를 들면, 기능 조정부(150)는 청취자의 청음 환경에 대한 보정을 위한 하나 이상의 분리된 신호들의 각 신호의 레벨의 조정을 설정할 수 있다.
예를 들면, 기능 조정부(150)는 청취자의 청음 환경에 대한 보정을 위한 하나 이상의 원거리 스피커들의 위치들을 설정할 수 있다.
단계(260)에서, 2차 신호 처리부(140)는 하나 이상의 분리된 신호들에 대한 프로세싱을 수행할 수 있다.
2차 신호 처리부(140)는 프로세싱을 통해 청취자의 취향에 맞춰 하나 이상의 분리된 신호들의 각 신호의 음색 및 레벨 등을 설정할 수 있고, 각 신호에 가상 공간 이미지를 추가할 수 있다.
2차 신호 처리부(140)는 청취자의 환경에 따른 공간 또는 청취자의 취향에 따른 가상의 공간 등에 맞춰 하나 이상의 분리된 신호들의 각 신호를 가공할 수 있다. 각 신호는 채널 데이터 및 오브젝트 데이터 중 하나일 수 있다.
근접 스피커(191)가 감지되지 않은 경우, 2차 신호 처리부(140)는 오브젝트 데이터를 채널 데이터로 믹스할 수 있다.
예를 들면, 2차 신호 처리부(140)는 하나 이상의 분리된 신호들의 각 신호에 공간 이미지를 부여할 수 있다. 공간 이미지의 부여를 통해 2차 신호 처리부(140)는 룸 시뮬레이터의 기능을 수행할 수 있다.
예를 들면, 2차 신호 처리부(140)는 청취자의 청음 환경에 맞춰 하나 이상의 분리된 신호들의 각 신호에 사운드 이펙트를 적용할 수 있다.
예를 들면, 2차 신호 처리부(140)는 청취자의 청음 환경에 맞춰 하나 이상의 분리된 신호들의 각 신호의 레벨 및 음색을 조정할 수 있다.
예를 들면, 2차 신호 처리부(140)는 하나 이상의 원거리 스피커들의 각 원거리 스피커 및 근접 스피커의 레벨을 조정할 수 있다.
예를 들면, 2차 신호 처리부(140)는 하나 이상의 원거리 스피커들의 위치들을 조정할 수 있다.
예를 들면, 2차 신호 처리부(140)는 하나 이상의 원거리 스피커들 및 근접 스피커 간의 인위적인 거리를 조정할 수 있다.
예를 들면, 2차 신호 처리부(140)는 하나 이상의 원거리 스피커들 및 근접 스피커의 레벨들을 믹스할 수 있다.
단계(270)에서, 원거리 스피커 감지/재생부(180)는 2차 신호 처리부(140)에 의해 프로세싱된 채널 데이터를 하나 이상의 원거리 스피커들로 출력할 수 있다.
단계(280)에서, 음상 외재화 구현부(160)는 2차 신호 처리부(140)에 의해 프로세싱된 오브젝트 데이터에 대한 음상 외재화를 구현할 수 있다. 음상 외재화 구현부(160)는 음상 외재화의 구현을 통해 음상 외재화가 구현된 데이터를 생성할 수 있다.
음상 외재화 구현부(150)는 2차 신호 처리부(140)에 의해 프로세싱된 오브젝트 데이터가 나타내는 정보를 공간 이미지 데이터가 나타내는 공간 이미지에 맞춰 재배치함으로써 음상 외재화를 구현할 수 있다.
오브젝트 데이터의 채널은 제한되지 않을 수 있다. 말하자면, 오브젝트 데이터는 하나 이상의, 무한대의 채널을 통해 음상 외재화 구현부(160)로 입력될 수 있다.
음상 외재화 구현부(160)에 의해 생성된 음상 외재화가 구현된 데이터는 2개 이상의 채널들을 포함할 수 있다.
단계(290)에서, 근접 스피커 감지/재생부(190)는 음상 외재화가 구현된 데이터를 근접 스피커(191)를 사용하여 재생할 수 있다. 근접 스피커 감지/재생부(190)는 음상 외재화가 구현된 데이터를 근접 스피커(191)로 출력할 수 있다.
근접 스피커 감지/재생부(190)는 음상 외재화가 구현된 데이터에 대한 음상 외재화의 프로세싱을 처리할 수 있다.
근접 스피커 감지/재생부(190)는 음상 외재화의 프로세싱의 결과를 근접 스피커(191)로 출력할 수 있다.
도 3은 일 예에 따른 1차 신호 처리부의 블록도이다.
1차 신호 처리부(120)는 채널 감지부(310), 레벨 감지부(320), 트레숄드(threshold) 제어부(330), 채널 비교부(340), 오브젝트 데이터 할당 제어부(350), 채널 데이터 생성부(360), 오브젝트 데이터 생성부(370), 채널 믹스부(380) 및 오브젝트 데이터 믹스부(390)를 포함할 수 있다.
채널 감지부(310), 레벨 감지부(320), 트레숄드 제어부(330), 채널 비교부(340), 오브젝트 데이터 할당 제어부(350), 채널 데이터 생성부(360), 오브젝트 데이터 생성부(370), 채널 믹스부(380) 및 오브젝트 데이터 믹스부(390)의 기능 및 동작에 대해서, 아래에서 상세하게 설명된다.
도 4는 일 예에 따른 오브젝트 추출의 흐름도이다.
아래의 단계들(410, 415, 420, 425, 430, 440, 445, 450 및 455)은 신호 감지부(110)가 3차원 오디오 신호가 아닌 일반의 서라운드 신호를 감지하고, 바이패스 조정부(170)에서 바이패스 기능이 사용되지 않은 경우에 수행될 수 있다. 도 2를 참조하여 전술된 단계(245)는 단계들(410, 415, 420, 425, 430, 440, 445, 450 및 455)을 포함할 수 있다.
아래의 단계들(410, 415, 420, 425, 430, 440, 445, 450 및 455)을 통해, 1차 신호 처리부(120)는 기존의 컨텐츠에 대한 호환을 제공할 수 있으며, 바이노널을 추출할 수 있다.
단계(410)에서, 채널 감지부(310)는 감지된 신호의 서라운드 포맷에 따라서 신호 감지부(110)에 의해 감지된 신호를 하나 이상의 채널들로 구분할 수 있다. 하나 이상의 채널들의 각 채널은 고유의 채널 번호를 가질 수 있다.
채널 감지부(310)는 신호 감지부(110)에 의해 감지된 신호가 서라운드 채널을 포함하는 경우, 서라운드 채널의 서라운드 포맷에 따라 감지된 신호를 하나 이상의 채널들로 분리할 수 있다.
예를 들면, 서라운드 채널은 5.1 채널 및 7.1 채널 등을 포함할 수 있다. 예를 들면, 서라운드 채널은 높이(height) 성분을 갖지 않는 모든 채널을 포함할 수 있다. 예를 들면, 서라운드 채널은 6.1 채널, 8.1 채널 및 9.1 채널을 포함할 수 있다.
채널 감지부(310)는 신호 감지부(110)에 의해 감지된 신호가 서라운드 채널을 포함하지 않는 경우, 감지된 신호를 채널 할당부(130)로 바이패스할 수 있다. 예를 들면, 감지된 신호가 스테레오 채널의 신호일 경우, 감지된 신호는 서라운드 채널을 포함하지 않을 수 있다.
단계(415)에서, 트레숄드 제어부(330)는 트레숄드 레벨을 결정할 수 있다.
단계(420)에서, 레벨 감지부(320)는 하나 이상의 채널들의 레벨들을 각각 감지할 수 있고, 하나 이상의 채널들을 하나 이상의 고 레벨 채널들 및 하나 이상의 저 레벨 채널들로 구분할 수 있다.
하나 이상의 고 레벨 채널들의 각 채널은 트레숄드 레벨 이상의 레벨을 갖는 채널일 수 있다. 하나 이상의 저 레벨 채널들의 각 채널은 트레숄드 레벨 보다 작은 레벨을 갖는 채널일 수 있다. 레벨 감지부(320)는 하나 이상의 채널들 중 트레숄드 레벨 이상의 레벨을 갖는 채널을 고 레벨 채널로 분류할 수 있고, 트레숄드 레벨 보다 더 작은 레벨을 갖는 채널을 저 레벨 채널로 분류할 수 있다. 기본적으로, 고 레벨 채널은 오브젝트 데이터로 사용될 수 있고, 저 레벨 채널은 채널 데이터로 사용될 수 있다.
레벨 감지부(320)는 하나 이상의 고 레벨 채널들 및 하나 이상의 저 레벨 채널들을 채널 비교부(340)로 전송할 수 있다.
단계(425)에서, 오브젝트 데이터 할당 제어부(350)는 대사를 채널 데이터 및 오브젝트 데이터 중 어느 것으로 사용할 것인가를 설정할 수 있다.
단계(430)에서, 채널 비교부(340)는 하나 이상의 채널들의 각 채널의 데이터를 채널 데이터 및 오브젝트 데이터 중 어느 것으로 사용할 것인가를 설정할 수 있다.
채널 비교부(340)는 하나 이상의 저 레벨 채널들을 채널 데이터로 사용되도록 설정할 수 있다.
채널 비교부(340)는 하나 이상의 고 레벨 채널들에 대한 채널 비교를 통해 하나 이상의 고 레벨 채널들의 데이터를 오브젝트 데이터 및 채널 데이터 중 어느 것으로 사용하도록 설정할 것인가를 최종적으로 결정할 수 있다.
채널 비교부(340)는 하나 이상의 고 레벨 채널들 중 대사의 채널을 오브젝트 데이터 할당 제어부(350)의 설정에 따라 오브젝트 데이터 및 채널 데이터 중 하나로 사용하도록 설정할 수 있다. 말하자면, 채널 비교부(340)는 하나 이상의 고 레벨 채널들 중 대사의 채널을 오브젝트 데이터 할당 제어부(350)의 설정에 따라 원거리 스피커 채널 및 음상 외재화 채널 중 어느 채널로서 사용할 것인가를 결정할 수 있다.
예를 들면, 대사가 채널 데이터로 사용되도록 설정된 경우, 채널 비교부(340)는 하나 이상의 고 레벨 채널들 중 대사의 채널을 채널 데이터로 사용되도록 설정할 수 있다. 대사가 오브젝트 데이터로 할당되도록 설정된 경우, 채널 비교부(340)는 하나 이상의 고 레벨 채널들 중 대사의 채널을 오브젝트 데이터로 사용되도록 설정할 수 있다.
예를 들면, 하나 이상의 채널들 중 센터(center) 채널에서만 데이터가 추출된 경우, 센터 채널은 90% 이상의 확률로 대사 채널일 수 있다.
예를 들면, 하나 이상의 고 레벨 채널들 중 복수의 채널들에서 동일한 데이터가 추출된 경우, 채널 비교부(340)는 동일한 데이터가 추출된 복수의 채널들을 오브젝트 데이터로 사용되도록 설정할 수 있다.
예를 들면, 하나 이상의 고 레벨 채널들 중 센터 채널이 아닌 채널에서 하나의 채널에 대한 데이터가 추출된 경우, 추출된 데이터는 특수 이펙트일 수 있다. 특수 이펙트는 오브젝트 데이터일 수 있다. 따라서, 하나 이상의 고 레벨 채널들 중 센터 채널이 아닌 채널에서 하나의 채널에 대한 데이터가 추출된 경우, 채널 비교부(340)는 하나의 채널에 대한 데이터가 추출된 채널을 오브젝트 데이터로 사용되도록 설정할 수 있다.
예를 들면, 하나 이상의 고 레벨 채널들 중 좌측 채널 및 우측 채널에서만 데이터가 추출된 경우, 추출된 데이터는 음악 데이터 또는 큰 음량을 가진 앰비언스일 수 있다. 음악 데이터 또는 큰 음량을 가진 앰비언스는 채널 데이터일 수 있다. 따라서, 하나 이상의 고 레벨 채널들 중 좌측 채널 및 우측 채널에서만 데이터가 추출된 경우, 채널 비교부(340)는 좌측 채널 및 우측 채널을 채널 데이터로 사용되도록 설정할 수 있다.
단계(440)에서, 채널 데이터 생성부(360)는 하나 이상의 채널들 중 채널 데이터로 사용되도록 설정된 채널의 데이터를 사용하여 채널 데이터를 생성할 수 있다.
채널 데이터 생성부(360)는 트레숄드 제어부(330)에 의해 설정된 트레숄드 레벨 이상의 레벨을 갖는 채널의 데이터가 원거리 스피커(181)에서 재생되지 않게 할 수 있다.
채널 데이터 생성부(360)는 채널 비교부(340)의 설정 방식에 따라 채널 데이터로 사용되도록 설정된 채널의 데이터가 원거리 스피커 채널을 통해 재생되게 할 수 있다.
단계(445)에서, 채널 믹스부(380)는 채널 데이터에 대하여, 오브젝트 데이터의 추출에 따라 감쇄된 레벨에 대한 레벨 보상을 수행할 수 있다.
채널 믹스부(380)는 레벨 보상에 있어서 릴리스(release) 파라미터를 적용할 수 있다. 릴리스 파라미터를 적용함에 따라 트레숄드 영역에서 오브젝트 데이터 및 사운드 간의 끊김 현상이 방지될 수 있다.
단계(450)에서, 오브젝트 데이터 생성부(370)는 하나 이상의 채널들 중 오브젝트 데이터로 사용되도록 설정된 채널의 데이터를 사용하여 오브젝트 데이터를 생성할 수 있다.
오브젝트 데이터 생성부(370)는 트레숄드 제어부(330)에 의해 설정된 트레숄드 레벨 이상의 레벨을 갖는 채널의 데이터만 근접 스피커(191)에서 재생되게 할 수 있다.
채널 데이터 생성부(360)는 채널 비교부(340)의 설정 방식에 따라 오브젝트 데이터로 사용되도록 설정된 채널의 데이터가 음상 외재화 채널을 통해 재생되게 할 수 있다.
단계(455)에서, 오브젝트 데이터 믹스부(390)는 오브젝트 데이터에 대하여, 오브젝트 데이터의 추출에 따라 감쇄된 레벨에 대한 레벨 보상을 수행할 수 있다.
오브젝트 데이터는 채널 성분으로부터 추출될 수 있다. 따라서, 오브젝트 데이터 믹스부(390)는 게이트(gate)와 같은 파라미터를 사용하여 순수한 오브젝트 데이터만이 재생될 수 있도록 오브젝트 데이터에 대한 조정을 수행할 수 있다.
또한, 자연스러운 오브젝트 데이터를 재생하기 위해, 오브젝트 데이터 믹스부(390)는 채널 데이터 및 오브젝트 데이터 간의 믹스가 자연스럽게 이루어질 수 있도록 게이트 타임(gate time)을 적용하여 오브젝트 데이터에 대한 조정을 수행할 수 있다.
도 5는 일 실시예에 따른 3차원 사운드 제공 장치의 구조도이다.
3차원 사운드 제공 장치(500)는 설정부(510), 생성부(520) 및 출력부(530)를 포함할 수 있다. 설정부(510), 생성부(520) 및 출력부(530)의 기능 및 동작에 대해서, 아래에서 상세하게 설명된다.
도 6은 일 실시예에 따른 3차원 사운드 제공 방법의 흐름도이다.
단계(610)에서, 설정부(510)는 3차원 사운드에 대한 하나 이상의 파라미터들의 값들을 결정할 수 있다. 하나 이상의 파라미터들은 3차원 공간 상에 위치하는 사운드의 소스와 관련될 수 있다.
하나 이상의 파라미터들의 값들은 후술될 그래픽 인터페이스를 통해 편집될 수 있다.
단계(610)는 하나 이상의 파라미터들의 값들이 변경됨에 따라 반복해서 수행될 수 있다.
단계(620)에서, 생성부(520)는 하나 이상의 파라미터들에 기반하여 3차원 사운드의 데이터를 생성할 수 있다.
생성부(520)는 하나 이상의 파라미터들을 반영하여 3차원 사운드의 데이터를 생성할 수 있다.
3차원 사운드의 데이터는 복수의 채널들의 데이터를 포함할 수 있다. 하나 이상의 파라미터들은 복수의 채널들의 각 채널 별로 사용될 수 있다.
단계(630)에서, 출력부(530)는 3차원 사운드의 데이터를 포함하는 신호를 출력할 수 있다. 출력된 신호는 3차원 사운드 재생 장치(100)에 의해 수신 및 사용될 수 있다.
출력된 신호의 3차원 사운드의 데이터는 도 2 내지 도 4를 참조하여 전술된 오브젝트 데이터에 대응할 수 있다. 말하자면, 하나 이상의 파라미터들은 오브젝트 데이터의 공간에 대한 위치 정보, 움직임에 대한 방향 정보 및 사운드의 크기 정보에 각각 대응할 수 있다. 예를 들면, 하나 이상의 파라미터들 중 소스의 위치에 관련된 파라미터는 공간에 대한 위치 정보에 대응할 수 있다. 하나 이상의 파라미터들 중 소스의 움직임에 관련된 파라미터는 움직임에 대한 방향 정보에 대응할 수 있다. 하나 이상의 파라미터들 중 소스의 댐퍼, 믹스, 디퓨즈, 게인 및 테일을 나타내는 파라미터는 사운드의 크기 정보에 대응할 수 있다.
하나 이상의 파라미터들의 각각에 대해, 아래에서 상세하게 설명된다.
도 7은 일 예에 따른 사운드 믹스를 나타낸다.
도 7에서는, 스크린 및 트레숄드가 도시되었다. 트레숄드는 벌지 제한 라인(bulge limit line)을 나타낼 수 있다. D는 일반적인 믹싱 라인 및 본 발명의 일 예에 따른 믹싱 라인 간의 차이를 나타낼 수 있다. 스크린은 영상이 맺히는 위치일 수 있다.
일반적인 사운드 믹스에서는, 스크린을 기준으로 한 믹스가 이루어질 수 있다. 말하자면, 스크린의 지점에서의 딜레이는 0일 수 있다.
믹스를 통해, 트레숄드 d만큼의 딜레이를 사운드의 전체 신호에 더해지면, 실질적으로 사운드는 스크린으로부터 트레숄드에 해당하는 거리 d'만큼 뒤에서 표현될 수 있다. 단계(610)에서, 설정부(510)는 트레숄드 d를 파라미터로서 설정할 수 있다. 단계(620)에서, 생성부(520)는 3차원 사운드의 전체의 신호에 대해 트레숄드 d만큼의 딜레이를 가함으로써 3차원 사운드가 트레숄드 d에 해당하는 거리만큼 뒤에서 표현되게 할 수 있다.
물리적으로, 딜레이는 앞으로 당겨질 수는 없다. 그러나, 시청자의 청각이 d'의 거리를 인식하면, 시청자의 심리적 요인에 따라 시청자는 스크린의 위치에 맞춰서 사운드를 인식할 수 있다. 말하자면, 결과적으로, 시청자는 스크린의 위치가 사운드가 생성되는 것처럼 인식할 수 있다.
전술된 것과 같은 믹스 방법을 사용하면, D의 거리만큼은 시청자가 위치한 객석을 향해 사운드가 돌출될 수 있다. 단, 사운드가 돌출되기 위해서는 사운드의 소스가 속도 성분을 가져야만 할 수도 있다.
이하, 소스는 사운드의 소스를 나타낼 수 있다. 또한, 소스는 전술된 오브젝트에 대응할 수 있다.
도 8은 일 예에 따른 믹싱 방법의 첫 번째 과정을 나타낸다.
도 8에서 도시된 것과 같이, 단계(620)에서, 생성부(520)는 3차원 사운드의 전체의 신호에 대해 트레숄드 d만큼의 딜레이를 가함으로써 공간 이미지를 크게 만들 수 있다.
단계(620)에서, 생성부(520)는 리버브 처리에 있어서, 프리-딜레이의 값을 증가된 공간에 해당하는 거리 d 만큼 감소시킬 수 있다. 프리-딜레이의 값을 김소시킴으로써 생성부(520)는 시청자가 증가된 공간을 인지하지 못하도록 믹싱을 수행할 수 있다.
도 9는 일 예에 따른 믹싱 방법의 두 번째 과정을 나타낸다.
공간에 대한 왜곡 및 시청자의 왜곡에 대한 인식을 최소화하기 위해 스크린의 후면에는 딜레이가 적용되지 않을 수 있다.
시청자가 공간에 대해 충분히 적응된 경우, d 만큼 적용된 딜레이는 무시될 수 있고, 스크린을 기준으로 사운드 이미지가 형성될 수 있다.
도 10은 일 예에 따른 믹싱 방법의 세 번째 과정을 나타낸다.
스크린을 기준으로 사운드 이미지가 형성됨에 따라, 결과적으로 스크린으로부터 돌출된 사운드가 표현될 수 있다.
스크린의 후면에 대한 사운드의 보정이 수행되면, 보다 뛰어난 효과가 획득될 수 있다.
아래에서는, 전면 스크린 패닝을 위한 그래픽 인터페이스가 설명된다. 아래의 그래픽 인터페이스에 의해 파라미터가 논리니어(nonlinear) 형식으로 편집될 수 있다. 또한, 아래의 그래픽 인터페이스에 의해 사운드 소스의 속도 및 가속도가 부여될 수 있고, 사운드 소스에 대한 사운드 효과가 처리될 수 있다. 사운드 효과는 도플러 처리를 포함할 수 있다.
도 11은 일 예에 따른 3차원 사운드에 대한 하나 이상의 파라미터들의 값들을 결정하기 위한 전체의 인터페이스를 나타낸다.
전체의 인터페이스(1100)는 거리 설정 인터페이스(1110), 소스 설정 인터페이스(1120), 거리 인터페이스(1130), 스크린 인터페이스(1140), 속도 인터페이스(1150) 및 시퀀스 인터페이스(1160) 중 적어도 일부를 포함할 수 있다.
각 인터페이스에서, 소스의 시작 점은 S로 표현될 수 있다. 사운드 소스의 끝 점은 E로 표현될 수 있다. 이하에서, 소스의 시작 점은 시작 점으로 약술될 수 있다. 소스의 끝 점은 끝 점으로 약술될 수 있다.
도 12는 일 예에 따른 거리 설정 인터페이스를 나타낸다.
거리 설정 인터페이스(1110)는 거리 노브(1210), 거리 값(1215), 트레숄드 노브(1220), 트레숄드 값(1225), 댐퍼 노브(1230), 댐퍼 값(1235), 믹스 노브(1240), 믹스 값(1245) 및 제한 리셋 버튼(1250)을 포함할 수 있다.
거리 설정 인터페이스(1210)를 통해 사운드 소스가 스크린의 뒤쪽에 형성될 수 있다.
거리 값(1215)은 스크린의 뒤쪽의 영역의 최대 거리를 나타낼 수 있다. 거리 노브(1210)는 거리 값(1215)을 조정할 수 있다.
하나 이상의 파라미터들은 스크린의 뒤쪽의 영역의 최대 거리를 나타내는 최대 거리 파라미터를 포함할 수 있다.
예를 들면, 최대 거리 파라미터는 0 내지 1000의 값을 가질 수 있다. 최대 거리 파라미터의 기본 값은 0일 수 있다.
최대 거리 파라미터에 따라 소스의 시작 점 및 끝 점의 값의 범위가 변경될 수 있다. 예를 들면, 소스의 시작 점 및 끝 점이 스크린의 뒤쪽에 위치하였을 때 소스의 시작 점 및 끝 점의 스크린으로부터의 거리는 최대 거리 파라미터의 값보다 클 수 없다.
트레숄드 값(1225)은 스크린의 앞쪽의 영역의 거리를 나타낼 수 있다. 트레숄드 노브(1220)는 트레숄드 값(1225)을 조정할 수 있다.
하나 이상의 파라미터들은 스크린의 앞쪽의 영역의 최대 거리를 나타내는 최대 트레숄드 파라미터를 포함할 수 있다.
예를 들면, 최대 트레숄드 파라미터는 0 내지 30의 값을 가질 수 있다. 최대 트레숄드 파라미터의 기본 값은 0일 수 있다.
최대 트레숄드 파라미터에 따라 소스의 시작 점 및 끝 점의 값의 범위가 변경될 수 있다. 예를 들면, 소스의 시작 점 및 끝 점이 스크린의 앞쪽에 위치하였을 때 소스의 시작 점 및 끝 점의 스크린으로부터의 거리는 최대 트레숄드 파라미터의 값보다 클 수 없다.
댐퍼 값(1235)은 소스의 댐퍼를 나타낼 수 있다. 댐퍼 노브(1230)는 댐퍼 값(1235)을 조정할 수 있다.
댐퍼는 속도 효과(velocity effect)를 나타낼 수 있다.
하나 이상의 파라미터들은 소스의 댐퍼를 나타내는 댐퍼 파라미터를 포함할 수 있다.
예를 들면, 댐퍼 파라미터는 0 내지 1의 값을 가질 수 있다. 댐퍼 파라미터의 기본 값은 0일 수 있다.
단계(620)에서, 생성부(520)는 댐퍼 파라미터를 사용함으로써 사운드의 속도를 고려하여 3차원 사운드의 레벨 효과 및 잔향 효과를 극대화시킬 수 있다. 또한, 생성부(520)는 댐퍼 파라미터를 사용하여 3차원 사운드의 컴프레션(compression)을 수행할 수 있고, 컴프레션을 통해 3차원 사운드를 단단하게 만들 수 있다. 생성부(520)는 댐퍼 파라미터를 사용함으로써 3차원 사운드에 필터를 적용하여 3차원 사운드의 위쪽 부분 및 아래쪽 부분을 잘라낼 수 있다.
댐퍼의 크기는 속도 인터페이스(1150)에서 하나 이상의 동심원들로서 표시될 수 있다.
믹스 값(1245)은 프로세싱에 의해 생성된 사운드 및 원래의 사운드 간의 밸런스(balance)를 나타낼 수 있다. 믹스 노브(1240)는 믹스 값(1235)을 조정할 수 있다.
하나 이상의 파라미터들은 프로세싱에 의해 생성된 사운드 및 원래의 사운드 간의 밸런스를 나타내는 믹스 파라미터를 포함할 수 있다.
예를 들면, 믹스 파라미터는 0 내지 100의 값을 가질 수 있다. 댐퍼 파라미터의 기본 값은 100일 수 있다. 믹스 파라미터가 최소 값을 갖는다는 것은 프로세싱에 의해 생성된 사운드만이 출력된다는 것을 나타낼 수 있다. 믹스 파라미터가 최대 값을 갖는다는 것은 프로세싱되지 않은 원래의 사운드만 출력된다는 것을 나타낼 수 있다. 말하자면, 믹스 파라미터가 최대 값을 갖는다는 것은 사운드가 바이패스된다는 것을 나타낼 수 있다.
단계(620)에서, 생성부(520)는 믹스 파라미터의 값에 따라 프로세싱에 의해 생성된 사운드 및 원래의 사운드 간의 밸런스를 조정할 수 있다.
한계 리셋(limit reset) 버튼은 거리 설정 인터페이스(1110)의 하나 이상의 파라미터들을 기본 값으로 되돌리기 위해 사용될 수 있다.
도 13은 일 예에 따른 소스 설정 인터페이스를 나타낸다.
소스 설정 인터페이스(1120)는 소스 시작 점 노브(1310), 소스 시작 점 값(1315), 소스 시작 점 디퓨즈 노브(1320), 소스 시작 점 디퓨즈 값(1325), 소스 끝 점 노브(1330), 소스 끝 점 값(1335), 소스 끝 점 디퓨즈 노브(1340), 소스 끝 점 디퓨즈 값(1345) 및 소스 리셋 버튼(1350)을 포함할 수 있다.
소스 설정 인터페이스(1120)를 통해 소스의 시작 점의 위치, 소스의 끝 점의 위치, 소스의 시작 점의 디퓨즈 및 소스의 끝 점의 디퓨즈가 결정될 수 있다. 디퓨즈는 확산의 정도를 나타낼 수 있다. 디퓨즈의 값은 확산의 반경을 나타낼 수 있다.
소스 시작 점 값(1315)은 소스의 시작 점의 위치를 나타낼 수 있다. 소스 시작 점 노브(1310)는 소스 시작 점 값(1315)을 조정할 수 있다.
하나 이상의 파라미터들은 소스의 시작 점의 위치를 나타내는 소스 시작 점 파라미터를 포함할 수 있다. 소스의 시작 점의 위치는 청취 영역으로부터 소스의 시작 점까지의 거리 및/또는 소스의 시작 점의 좌표들을 포함할 수 있다.
소스 시작 점 파라미터는 선택적으로 활성화될 수 있다. 예를 들면, 소스 시작 점 노브(1310), 소스 시작 점 값(1315) 및 소스 시작 점 파라미터는 소스의 시작 점이 생성된 경우에 활성화될 수 있다. 소스의 시작 점은 거리 인터페이스(1130), 스크린 인터페이스(1140) 및 속도 인터페이스(1150) 중 하나에서 사용자의 조작에 의해 생성될 수 있다.
예를 들면, 소스 시작 점 파라미터의 최소 값은 0일 수 있다. 소스 시작 점 파라미터의 최대 값은 최대 거리 파라미터 및 최대 트레숄드 파라미터의 합일 수 있다.
소스 시작 점 디퓨즈 값(1325)은 소스 시작 점의 디퓨즈를 나타낼 수 있다. 소스 시작 점 디퓨즈 노브(1320)는 소스 시작 점 디퓨즈 값(1325)을 조정할 수 있다.
하나 이상의 파라미터들은 소스의 시작 점의 디퓨즈를 나타내는 소스 시작 점 디퓨즈 파라미터를 포함할 수 있다. 소스의 시작 점의 디퓨즈는 소스의 시작 점에서의 사운드의 분산 정도를 나타낼 수 있다.
소스 시작 점 디퓨즈 파라미터는 선택적으로 활성화될 수 있다. 예를 들면, 소스 시작 점 디퓨즈 노브(1320), 소스 시작 점 디퓨즈 값(1325) 및 소스 시작 점 디퓨즈 파라미터는 소스의 시작 점이 생성된 경우에 활성화될 수 있다. 소스의 시작 점은 거리 인터페이스(1130), 스크린 인터페이스(1140) 및 속도 인터페이스(1150) 중 하나에서 사용자의 조작에 의해 생성될 수 있다.
예를 들면, 소스 시작 점 디퓨즈 파라미터는 0 내지 100의 값을 가질 수 있다. 소스 시작 점 디퓨즈 파라미터의 기본 값은 0일 수 있다.
단계(620)에서, 생성부(520)는 소스 시작 점 디퓨즈 파라미터를 사용하여 소스의 시작 점에서의 사운드의 분산 정도를 설정할 수 있다. 분산된 사운드에는 동일한 딜레이가 적용될 수 있다. 분산된 사운드는 근접 스피커(191)에 의해 재생될 수 있다.
소스 시작 점 디퓨즈 파라미터에 의한 분산의 정도는 스크린 인터페이스(1140)에서 표시될 수 있다.
소스 끝 점 값(1335)은 소스의 끝 점의 위치를 나타낼 수 있다. 소스 끝 점 노브(1330)는 소스 끝 점 값(1335)을 조정할 수 있다.
하나 이상의 파라미터들은 소스의 끝 점의 위치를 나타내는 소스 끝 점 파라미터를 포함할 수 있다. 소스의 끝 점의 위치는 청취 영역으로부터 소스의 끝 점까지의 거리 및/또는 소스의 끝 점의 좌표들을 포함할 수 있다.
소스 끝 점 파라미터는 선택적으로 활성화될 수 있다. 예를 들면, 소스 끝 점 노브(1330), 소스 끝 점 값(1335) 및 소스 끝 점 파라미터는 소스의 끝 점이 생성된 경우에 활성화될 수 있다. 소스의 끝 점은 거리 인터페이스(1130), 스크린 인터페이스(1140) 및 속도 인터페이스(1150) 중 하나에서 사용자의 조작에 의해 생성될 수 있다.
예를 들면, 소스 끝 점 파라미터의 최소 값은 0일 수 있다. 소스 끝 점 파라미터의 최대 값은 최대 거리 파라미터 및 최대 트레숄드 파라미터의 합일 수 있다.
소스 끝 점 디퓨즈 값(1345)은 소스 끝 점의 디퓨즈를 나타낼 수 있다. 소스 끝 점 디퓨즈 노브(1340)는 소스 끝 점 디퓨즈 값(1345)을 조정할 수 있다.
하나 이상의 파라미터들은 소스의 끝 점의 디퓨즈를 나타내는 소스 끝 점 디퓨즈 파라미터를 포함할 수 있다. 소스의 끝 점의 디퓨즈는 소스의 끝 점에서의 사운드의 분산 정도를 나타낼 수 있다.
소스 끝 점 디퓨즈 파라미터는 선택적으로 활성화될 수 있다. 예를 들면, 소스 끝 점 디퓨즈 노브(1340), 소스 끝 점 디퓨즈 값(1345) 및 소스 끝 점 디퓨즈 파라미터는 소스의 끝 점이 생성된 경우에 활성화될 수 있다. 소스의 끝 점은 거리 인터페이스(1130), 스크린 인터페이스(1140) 및 속도 인터페이스(1150) 중 하나에서 사용자의 조작에 의해 생성될 수 있다.
예를 들면, 소스 끝 점 디퓨즈 파라미터는 0 내지 100의 값을 가질 수 있다. 소스 끝 점 디퓨즈 파라미터의 기본 값은 0일 수 있다.
단계(620)에서, 생성부(520)는 소스 끝 점 디퓨즈 파라미터를 사용하여 소스의 끝 점에서의 사운드의 분산 정도를 설정할 수 있다. 분산된 사운드에는 동일한 딜레이가 적용될 수 있다. 분산된 사운드는 근접 스피커(191)에 의해 재생될 수 있다.
소스 끝 점 디퓨즈 파라미터에 의한 분산의 정도는 스크린 인터페이스(1140)에서 표시될 수 있다.
도 14는 일 예에 따른 거리 인터페이스를 나타낸다.
거리 인터페이스(1130)는 최대 거리 값(1410), 거리 값 제어(1415), 최대 트레숄드 값(1420), 트레숄드 값 제어(1425), 단위(1430), 소스 시작 점(1440), 소스 시작 점 거리(1445), 소스 끝 점(1450), 소스 끝 점 거리(1455), 소스 트레이스 라인(1460), 스크린 라인(1470) 및 청취 영역(1480)을 포함할 수 있다.
거리 인터페이스(1130)는 거리 설정 인터페이스(1110)에서 설정된 파라미터를 시각적으로 도시할 수 있다. 거리 인터페이스(1130)는 외형의 변화 없이 단위의 증감을 반영할 수 있다.
최대 거리 값(1410)은 스크린의 내부의 최대의 거리 값을 나타낼 수 있다. 여기서, 스크린의 내부는 시청자를 기준으로 스크린의 뒤쪽의 영역을 나타낼 수 있다. 최대 거리 값(1410)은 최대 거리 파라미터의 값을 나타낼 수 있다. 소스 시작 점(1240)의 스크린의 내부로의 거리 값 및 소스 끝 점(1250)의 스크린의 내부로의 거리 값은 최대 거리 값(1410)의 이하로 제한될 수 있다.
거리 인터페이스(110)는 최대 거리 값(1410)의 단위를 증가시키거나 감소시킬 수 있다. 최대 거리 값(1410)의 단위는 미터 또는 피트일 수 있다.
거리 값 제어(1415)는 최대 거리 값(1410)에 따라 생성된 적정한 간격의 눈금들일 수 있다.
최대 트레숄드 값(1420)은 스크린의 외부의 최대의 거리 값을 나타낼 수 있다. 여기서, 스크린의 외부는 시청자를 기준으로 스크린의 앞쪽의 영역을 나타낼 수 있다. 최대 트레숄드 값(1420)은 최대 트레숄드 파라미터의 값을 나타낼 수 있다. 소스 시작 점(1440)의 스크린의 외부로의 거리 값 및 소스 끝 점(1450)의 스크린의 외부로의 거리 값은 최대 거리 값(1420)의 이하로 제한될 수 있다.
거리 인터페이스(1130)는 최대 트레숄드 값(1420)의 단위를 증가시키거나 감소시킬 수 있다. 최대 트레숄드 값(1420)의 단위는 미터 또는 피트일 수 있다.
트레숄드 값 제어(1425)는 최대 트레숄드 값(1420)에 따라 생성된 적정한 간격의 눈금들일 수 있다.
단위(1430)는 거리 인터페이스(1130)에서 표시되는 값 또는 거리 인터페이스(1130)에서 표시되는 파라미터들의 단위를 나타낼 수 있다. 글로벌 설정을 통해, 미터 및 피트 중의 하나가 단위로서 선택될 수 있다. 단위의 기본 값은 미터일 수 있다.
소스 시작 점(1440)은 소스의 시작 점을 나타낼 수 있다. 소스 시작 점(1440)은 소스 시작 점 파라미터의 값을 나타낼 수 있다.
사용자는 거리 인터페이스(1130)의 영역의 점선 내에서 입력 장치를 조작함으로써 소스 시작 점(1440)을 생성할 수 있다. 입력 장치의 조작에 의해 특정된 위치가 소스 시작 점(1440)을 나타낼 수 있다. 소스 시작 점(1440)의 생성에 따라, 소스의 시작 점이 생성될 수 있고, 소스 시작 점 노브(1310), 소스 시작 점 값(1315), 소스 시작 점 디퓨즈 노브(1320), 소스 시작 점 디퓨즈 값(1325) 및 소스 시작 점 디퓨즈 파라미터가 활성화될 수 있다.
예를 들면, 입력 장치는 키보드 및/또는 마우스를 포함할 수 있다. 입력 장치의 조작은 마우스의 클릭, 더블클릭, 드래그 및 드래그&드롭을 포함할 수 있고, 키보드의 특정한 키를 누르는 것을 포함할 수 있다.
소스 시작 점(1440)은 소스의 시작 점의 좌표들 중 X 좌표 및 Y 좌표를 표시할 수 있다. 소스의 시작 점의 Z 좌표의 값은 소스 시작 점(1440)에서는 반영되지 않을 수 있다.
사용자는 입력 장치의 조작을 통해 소스 시작 점(1440)을 자신이 원하는 위치로 이동시킬 수 있다. 사용자는 입력 장치의 조작을 통해 소스 시작 점(1440)을 삭제할 수 있다.
소스 시작 점 거리(1445)는 스크린 및 소스 시작 점(1440) 간의 거리를 나타낼 수 있다. 소스 시작 점 거리(1445)는 소스 시작 점 파라미터의 값을 나타낼 수 있다.
소스 시작 점 거리(1445)는 수평선으로서 표시될 수 있으며, 수평선의 끝에 위치하는 값으로서 표시될 수 있다.
소스 끝 점(1450)은 소스의 끝 점을 나타낼 수 있다. 소스 끝 점(1450)은 소스 끝 점 파라미터의 값을 나타낼 수 있다.
사용자는 거리 인터페이스(1130)의 영역의 점선 내에서 입력 장치를 조작함으로써 소스 끝 점(1450)을 생성할 수 있다. 입력 장치의 조작에 의해 특정된 위치가 소스 끝 점(1450)을 나타낼 수 있다. 소스 끝 점(1450)은 소스 시작 점(1440)의 생성 이후에 생성될 수 있다. 사용자는 입력 장치의 조작을 통해 소스 시작 점(1440) 및 소스 끝 점(1450)을 생성할 수 있다. 또한, 소스 시작 점(1440)이 생성된 후, 다른 파라미터의 값이 조정되면, 소스 끝 점(1450)이 자동으로 생성될 수 있다. 이 때, 생성된 소스 끝 점(1450)의 위치는 스크린 라인(1470)의 중앙일 수 있다.
소스 끝 점(1450)의 생성에 따라, 소스의 끝 점이 생성될 수 있고, 소스 끝 점 노브(1330), 소스 끝 점 값(1335), 소스 끝 점 디퓨즈 노브(1340), 소스 끝 점 디퓨즈 값(1345) 및 소스 끝 점 디퓨즈 파라미터가 활성화될 수 있다.
소스 끝 점(1450)은 소스의 끝 점의 좌표들 중 X 좌표 및 Y 좌표를 표시할 수 있다. 소스의 끝 점의 Z 좌표의 값은 소스 끝 점(1450)에서는 반영되지 않을 수 있다.
사용자는 입력 장치의 조작을 통해 소스 끝 점(1450)을 자신이 원하는 위치로 이동시킬 수 있다. 사용자는 입력 장치의 조작을 통해 소스 끝 점(1450)을 삭제할 수 있다.
소스 끝 점 거리(1455)는 스크린 및 소스 끝 점(1450) 간의 거리를 나타낼 수 있다. 소스 끝 점 거리(1455)는 소스 끝 점 파라미터의 값을 나타낼 수 있다.
소스 끝 점 거리(1455)는 수평선으로서 표시될 수 있으며, 수평선의 끝에 위치하는 값으로서 표시될 수 있다.
소스 트레이스 라인(1460)는 소스의 시작 점으로부터 소스의 끝 점까지의 소스가 이동하는 라인을 나타낼 수 있다.
하나 이상의 파라미터들은 소스의 시작 점으로부터 소스의 끝 점까지의 소스가 이동하는 라인을 나타내는 소스 트레이스 라인 파라미터를 포함할 수 있다.
소스가 이동하는 라인은 복수의 라인들을 포함할 수 있다. 소스 트레이스 라인 파라미터는 소스의 시작 점 및 소스의 끝 점을 연결하는 복수의 라인들을 나타낼 수 있다.
단계(620)에서, 생성부(520)는 소스 트레이스 라인 파라미터를 사용하여 소스의 위치를 이동시킬 수 있다.
사용자는 입력 장치의 조작을 통해 소스 트레이스 라인(1460)의 형태를 변경할 수 있다. 예를 들면, 사용자는 입력 장치의 조작을 통해 소스 트레이스 라인(1460)의 하나의 라인을 2개의 연결된 라인들로 분할할 수 있다.
거리 인터페이스(1130)는 시퀀스 인터페이스(1160)에서 설정된 프로세싱 길이에 따라 소스 트레이스 라인(1460)을 따라서 움직이는 점을 표시할 수 있다.
스크린 라인(1470)은 영상이 표시되는 스크린이 위치한 지점을 나타낼 수 있다. 스크린 라인(1470)은 소스 시작 점(1440)의 거리 및 소스 끝 점(1450)의 거리에 대한 기준이 될 수 있다.
청취 영역(1480)은 시청자가 위치한 영역을 나타날 수 있다. 또한, 청취 영역은 시청자의 방향을 나타낼 수 있다.
도 15는 일 예에 따른 선택된 점을 나타낸다.
거리 인터페이스(1330)에서, 사용자는 소스 트레이스 라인(1460) 중 한 점을 선택할 수 있다.
선택된 점(1510)은 사용자에 의해 선택된 점을 나타낼 수 있다. 사용자에 의해 점이 선택되면 선택된 점의 거리 값이 표시될 수 있다. 거리 값(1520)은 사용자에 의해 선택된 점의 거리 값을 나타낼 수 있다. 또한, 거리 값은 선택된 점 및 스크린 간의 거리를 나타낼 수 있다.
도 16은 일 예에 따른 소스 트레이스 라인의 편집을 나타낸다.
거리 인터페이스(1130)에서, 사용자는 소스 트레이스 라인(1460)을 편집할 수 있다. 소스 트레이스 라인(1160)의 편집을 통해 소스 트레이스 라인 파라미터의 값이 설정될 수 있다.
사용자는 입력 장치의 조작을 통해 선택된 점(1510)의 위치를 이동시킬 수 있다. 도 16에서는, 이동된 선택된 점(1610)이 도시되었다.
선택된 점의 위치가 이동함이 따라, 소스 트레이스 라인(1460)이 변경될 수 있다. 예를 들면, 소스 트레이스 라인(1460)의 하나 이상의 라인들 중 선택된 점(1510)이 위치한 라인은, 선택된 점(1510)이 이동함에 따라, 이동된 선택된 점(1610)이 끝 점인 2개의 라인들로 분할될 수 있다. 여기에서, 2개의 라인들 중 제1 라인은 선택된 점(1510)이 위치한 라인의 시작 점으로부터 이동된 선택된 점(1610)까지의 라인일 수 있다. 2개의 라인들 중 제2 라인은 이동된 선택된 점(1610)으로부터 선택된 점(1510)이 위치한 라인의 끝 점까지의 라인일 수 있다.
소스 트레이스 라인의 하나 이상의 라인들 중 한 라인이 분할되면, 단계(610)에서, 설정부(510)는 라인의 분할을 반영하여 소스 트레이스 라인 파라미터의 값을 설정할 수 있다.
도 17은 일 예에 따른 스크린 인터페이스를 나타낸다.
스크린 인터페이스(1140)는 소스의 시작 점 및 소스의 끝 점에 대한 X 좌표의 값 및 Y 좌표의 값의 편집을 제공할 수 있다.
스크린 인터페이스(1140)는 소스의 시작 점의 좌표들 중 X 좌표의 값 및 Y 좌표의 값을 표시할 수 있고, 소스의 끝 점의 좌표들 중 X 좌표의 값 및 Y 좌표의 값을 표시할 수 있다.
스크린 인터페이스(1140)는 패닝(panning) 영역(1710), 소스 시작 점(1720), 소스 끝 점(1730), 디퓨즈 원(1740) 및 소스 트레이스 라인(1750)을 포함할 수 있다.
패닝 영역(1710)은 소스 시작 점(1720) 및 소스 끝 점(1730)을 표시하기 위해 요구되는 영역을 나타낼 수 있다.
소스 시작 점(1720)은 소스의 시작 점의 좌표를 나타낼 수 있다. 소스 시작 점(1720)은 소스의 시작 점의 좌표들 중 X 좌표 및 Y 좌표를 표시할 수 있다. 소스 시작 점(1720)의 기능은 전술된 소스 시작 점(1440)의 기능에 대응할 수 있다.
소스 끝 점(1730)은 소스의 끝 점의 좌표를 나타낼 수 있다. 소스 끝 점(1730)은 소스의 끝 점의 좌표들 중 X 좌표 및 Y 좌표를 표시할 수 있다. 소스 끝 점(1730)의 기능은 전술된 소스 끝 점(1450)의 기능에 대응할 수 있다.
디퓨즈 원(1740)의 반경은 소스의 시작 점 및/또는 소스의 끝 점의 디퓨즈의 값을 나타낼 수 있다. 사용자의 조작에 의해 소스 시작 점(1720)이 선택된 경우, 디퓨즈 원(1740)의 반경은 소스의 시작 점의 디퓨즈의 값만을 나타낼 수 있다. 소스의 시작 점의 디퓨즈의 값은 소스 시작 점 디퓨즈 파라미터의 값을 나타낼 수 있다. 사용자의 조작에 의해 소스 끝 점(1730)이 선택된 경우, 디퓨즈 원(1740)의 반경은 소스의 끝 점의 디퓨즈의 값만을 나타낼 수 있다. 소스의 끝 점의 디퓨즈의 값은 소스 끝 점 디퓨즈 파라미터의 값을 나타낼 수 있다.
소스 트레이스 라인(1750)은 소스의 시작 점으로부터 소스의 끝 점까지의 소스가 이동하는 라인을 표시할 수 있다. 소스 트레이스 라인(1750)의 기능은 전술된 소스 트레이스 라인(1460)의 기능에 대응할 수있다.
도 18은 일 예에 따른 속도 및 가속도 인터페이스를 나타낸다.
속도 인터페이스(1150)는 소스의 시작 점 및 소스의 끝 점에 대한 Y 좌표의 값 및 Z 좌표의 값의 편집을 제공할 수 있다.
속도 인터페이스(1150)는 소스의 시작 점의 좌표들 중 Y 좌표의 값 및 Z 좌표의 값을 표시할 수 있고, 소스의 끝 점의 좌표들 중 Y 좌표의 값 및 Z 좌표의 값을 표시할 수 있다.
속도 인터페이스(1150)는 스크린 라인(1810), 최대 거리 값(1820), 거리 값 제어(1825), 최대 트레숄드 값(1830), 트레숄드 값 제어(1835), 청취 영역(1840), 댐퍼 값(1850), 소스 시작 점(1860), 소스 끝 점(1870) 및 소스 트레이스 라인(1880)을 포함할 수 있다.
스크린 라인(1810)은 전술된 스크린 라인(1470)에 대응할 수 있다. 단, 스크린 라인(1470)이 X 좌표 및 Y 좌표에 대하여 표시되는 반면, 스크린 라인(1810)은 Y 좌표 및 Z 좌표에 대하여 표시될 수 있다.
최대 거리 값(1820)은 전술된 최대 거리 값(1410)에 대응할 수 있다. 단, 최대 거리 값(1410)이 X 좌표 및 Y 좌표에 대하여 표시되는 반면, 최대 거리 값(1820)은 Y 좌표 및 Z 좌표에 대하여 표시될 수 있다.
거리 값 제어(1825)는 전술된 거리 값 제어(1415)에 대응할 수 있다. 단, 거리 값 제어(1415)가 X 좌표 및 Y 좌표에 대하여 표시되는 반면, 거리 값 제어(1825)는 Y 좌표 및 Z 좌표에 대하여 표시될 수 있다.
최대 트레숄드 값(1830)은 전술된 최대 트레숄드 값(1420)에 대응할 수 있다. 단, 최대 트레숄드 값(1420)이 X 좌표 및 Y 좌표에 대하여 표시되는 반면, 최대 트레숄드 값(1830)은 Y 좌표 및 Z 좌표에 대하여 표시될 수 있다.
트레숄드 값 제어(1835)는 전술된 트레숄드 값 제어(1425)에 대응할 수 있다. 단, 트레숄드 값 제어(1425)가 X 좌표 및 Y 좌표에 대하여 표시되는 반면, 트레숄드 값 제어(1835)는 Y 좌표 및 Z 좌표에 대하여 표시될 수 있다.
청취 영역(1840)은 전술된 청취 영역(1480)에 대응할 수 있다. 단, 청취 영역(1480)이 X 좌표 및 Y 좌표에 대하여 표시되는 반면, 청취 영역(1840)은 Y 좌표 및 Z 좌표에 대하여 표시될 수 있다.
댐퍼 표시부(1850)는 전술된 댐퍼의 값을 나타낼 수 있다. 말하자면, 댐퍼 표시부의 형태는 댐퍼 파라미터의 값을 나타낼 수 있다. 댐퍼 표시부(1850)는 하나 이상의 동심원들을 포함할 수 있다. 하나 이상의 동심원들은 일부만 표시될 수 있다. 하나 이상의 동심원들의 개수, 모양 및 반지름은 소스에 적용되는 댐퍼를 나타낼 수 있고, 댐퍼 파라미터의 값에 따라 변할 수 있다. 예를 들면, 댐퍼 파라미터의 값이 클수록 트레숄드 라인을 기준으로 타원이 형성될 수 있다.
소스 시작 점(1860)은 전술된 소스 시작 점(1440)에 대응할 수 있다. 단, 소스 시작 점(1440)이 X 좌표 및 Y 좌표에 대하여 표시되는 반면, 소스 시작 점(1860)은 Y 좌표 및 Z 좌표에 대하여 표시될 수 있다.
소스 끝 점(1870)은 전술된 소스 끝 점(1450)에 대응할 수 있다. 단, 소스 끝 점(1450)이 X 좌표 및 Y 좌표에 대하여 표시되는 반면, 소스 끝 점(1870)은 Y 좌표 및 Z 좌표에 대하여 표시될 수 있다.
소스 트레이스 라인(1880)은 전술된 소스 트레이스 라인(1460)에 대응할 수 있다. 단, 소스 트레이스 라인(1460)이 X 좌표 및 Y 좌표에 대하여 표시되는 반면, 소스 트레이스 라인(1880)은 Y 좌표 및 Z 좌표에 대하여 표시될 수 있다.
도 19는 일 예에 따른 시퀀스 인터페이스를 나타낸다.
시퀀스 인터페이스(1160)는 소스의 시작 점 및 소스의 끝 점에 대한 Y 좌표의 값 및 Z 좌표의 값의 편집을 제공할 수 있다.
시퀀스 인터페이스(1160)는 거리 인터페이스(1130)의 소스 시작 점(1440) 및 소스 끝 점(1450)과 연동될 수 있다. 말하자면, 시퀀스 인터페이스(1160)에서 표시되는 소스에 대한 정보는 소스 시작 점(1440)의 Y 좌표 및 Z 좌표에서부터 표시될 수 있고, 소스 끝 점(1450)의 Y 좌표 및 Z 좌표까지 표시될 수 있다.
또한, 시퀀스 인터페이스(1160)는 소스의 끝 점에서의 댐퍼를 표시할 수 있다.
시퀀스 인터페이스(1160)는 타임 라인(1910), 프로젝트 커서(1915), 시퀀스 마커(1920), 타임 스트레치 스위치(1925), 속도 길이(1930), 타임 스트레치 그리드 라인(1935), 속력 그래프(1940), 게인(gain) 그래프(1945), 테일(tail) 그래프(1950), 속도 길이 값(1955), 타임 라인 속력 값(1960), 타임 라인 게인 값(1965), 테일 길이(1970), 테일 끝 점(1975) 및 시퀀스 편집 영역(1980)를 포함할 수 있다.
타임 라인(1910)은 시퀀스 인터페이스(1160)에서 설정된 길이에 따른 타임 라인을 나타낼 수 있다. 여기에서, 타임 라인은 소스의 시작 점의 시간으로부터 소스의 끝 점의 시간까지의 시간의 흐름을 나타낼 수 있다.
타임 라인(1910)의 시작 점 및 끝 점은 프로젝터의 로케이터 영역의 시작 점 및 끝 점과 동일하게 설정될 수 있다.
타임 라인(1910)은 프리롤(pre-roll) 및/또는 포스트롤(post-roll)에 대한 적용을 나타낼 수 있다. 프리롤 및/또는 포스트롤이 적용되는 시간은 글로벌하게 설정될 수 있다.
프로젝트 커서(1915)는 호스트 프로그램의 커서와 동기화되어 동작할 수 있다. 예를 들면, 호스트 프로그램의 커서가 이동하면, 프로젝트 커서(2015) 또한 호스트 프로그램의 커서를 따라서 이동할 수 있다.
하나 이상의 파라미터들은 시간에 따라 서로 다른 값을 가질 수 있다. 타임 라인(1910) 중 프로젝트 커서(1915)가 가리키는 지점은 파라미터의 값을 표시함에 있어서의 기준 시간을 나타낼 수 있다.
시퀀스 마커(1920)는 타임 라인(1910)의 시작 점 및 끝 점을 설정하기 위한 버튼일 수 있다. 사용자가 입력 장치의 조작을 통해 시퀀스 마커(1920)를 선택하면, 프로젝트의 로케이터와 동일하게 타임 라인(1910)이 설정될 수 있다. 말하자면, 시퀀스 마커(1920)가 선택되면, 시작 점 로케이터의 시간이 타임 라인(1910)의 시작 점으로 설정될 수 있고, 끝 점 로케이터의 시간이 타임 라인(1910)의 끝 점으로 설정될 수 있다.
만약, 호스트 프로그램에서 로케이터가 설정되어 있지 않은 경우, 시퀀스 마커(1920)는 비활성화될 수 있다.
타임 스트레치 스위치(1925)는 속도 길이(1930)의 라인에 추가의 타임 라인을 생성할 수 있다. 사용자는 입력 장치의 조작을 통해 타임 스트레치 스위치(1925)를 온으로 설정할 수 있다. 타임 스트레치 스위치(1925)가 온으로 설정되면, 속도 길이(1930)의 라인에 추가의 타임 라인이 생성될 수 있다.
사용자는 입력 장치의 조작을 통해 추가의 타임 라인의 간격을 조정할 수 있다. 추가의 타임 라인의 간격이 넓어지면, 시간의 흐름이 빨라질 수 있다. 추가의 타임 라인의 간격이 좁아지면, 시간의 흐름이 느려질 수 있다.
추가의 타임 라인이 생성되면, 프로젝트 커서(1915)는 추가의 타임 라인을 기준으로 시간의 흐름을 반영할 수 있다.
사용자는 입력 장치의 조작을 통해 타임 스트레치 스위치(1925)를 오프로 설정할 수 있다. 타임 스트레치 스위치(1925)가 오프로 설정되면, 속도 길이(1930)의 라인에 추가의 타임 라인이 사라질 수 있다. 추가의 타임 라인이 사라지면, 프로젝트 커서(1915)는 타임 라인(1910)을 기준으로 시간의 흐름을 반영할 수 있다.
속도 길이(1930)는 프로세스가 이루이지는 시간의 길이를 나타낼 수 있다. 속도 길이(1930)의 길이는 타임 라인(1910)의 길이와 동일할 수 있다. 예를 들면, 속도 길이(1930)의 시작 점은 프로젝트의 시작 점 로케이터에 대응할 수 있다. 속도 길이(1930)의 끝 점은 프로젝트의 끝 점 로케이터에 대응할 수 있다. 속도 길이(1930)는 시퀀스 마커(1920)에 의해 생성된 길이에 해당하는 값을 가질 수 있다.
타임 스트레치 그리드 라인(1935)은 시간의 스트레치의 정도를 표시할 수 있다.
타임 스트레치 그리드 라인(1935)은 사용자의 입력 장치의 조작에 의해 생성될 수 있다. 사용자는 입력 장치를 조작하여 타임 스트레치 그리드 라인(1935)의 점의 위치를 변경할 수 있다. 점의 위치가 변경됨에 따라 그리드 라인의 간격이 변경될 수 있다.
속력 그래프(1940)는 타임 라인에 따른 소스의 속도 및 소스의 가속도를 표현할 수 있다. 속력 그래프(1940)는 소스의 시작 점으로부터 소스의 끝 점까지의 소스의 속도의 변화를 나타낼 수 있다.
하나 이상의 파라미터들은 소스의 속도를 나타내는 속도 파라미터를 포함할 수 있고, 소스의 가속도를 나타내는 가속도 파라미터를 포함할 수 있다. 속도 파라미터는 시간의 흐름에 따른 소스의 속도를 나타낼 수 있다. 가속도 파라미터는 시간의 흐름에 따른 소스의 가속도를 나타낼 수 있다. 또는, 하나 이상의 파라미터들은 소스의 속도 및 가속도를 나타내는 속도 및 가속도 파라미터를 포함할 수 있다.
단계(620)에서, 생성부(520)는 속도 파라미터를 사용하여 소스의 속도를 반영하여 3차원 사운드를 생성할 수 있다. 또한, 생성부(520)는 가속도 파라미터를 사용하여 소스의 가속도를 반영하여 3차원 사운드를 생성할 수 있다. 또는, 생성부(520)는 속도 및 가속도 파라미터를 사용하여 소스의 속도 및 가속도를 반영하여 3차원 사운드를 생성할 수 있다.
사용자는 입력 장치의 조작을 통해 속력 그래프(2040)를 확대시킬 수 있다.
속력 그래프(1940)는 시작 점 및 끝 점이 결정되면, 자동으로 소스의 속력를 시간에 따라 리니어하게 계산할 수 있고, 계산된 소스의 속력을 그래프로서 표시할 수 있다. 속력 그래프(1940)에서, 한 점의 높이는 점에 해당하는 시간에서의 소스의 속력을 나타낼 수 있다. 속력 그래프(1940)에서, 한 점의 기울기는 점에 해당하는 시간에서의 소스의 가속도를 나타낼 수 있다.
사용자는 입력 장치의 조작을 통해 속력 그래프 상의 한 점을 다른 위치로 이동시킬 수 있다. 한 점이 다른 위치로 이동함에 따라 그래프의 형태가 변하게 되고, 속력 그래프의 변한 형태에 따라 소스의 속력이 변할 수 있다.
게인 그래프(1945)는 타임 라인에 따른 소스의 게인의 변화를 나타낼 수 있다. 게인 그래프(1945)는 소스의 시작점으로부터 소스의 끝 점까지의 게인의 변화를 나타낼 수 있다.
하나 이상의 파라미터들은 소스의 게인을 나타내는 게인 파라미터를 포함할 수 있다. 게인 파라미터는 시간의 흐름에 따른 소스의 게인를 나타낼 수 있다.
단계(620)에서, 생성부(520)는 게인 파라미터를 사용하여 소스의 게인을 반영하여 3차원 사운드를 생성할 수 있다.
게인 그래프(1945)는 시작 점 및 끝 점이 결정되면, 자동으로 소스의 게인을 시간에 따라 리니어하게 계산할 수 있고, 계산된 소스의 게인을 그래프로서 표시할 수 있다. 게인 그래프(1945)에서, 한 점의 높이는 점에 해당하는 시간에서의 소스의 게인을 나타낼 수 있다.
사용자는 입력 장치의 조작을 통해 소스의 속력의 값을 소스의 게인에 적용할 수 있다.
테일 그래프(1950)는 소스의 테일을 나타낼 수 있다. 소스의 테일은 소스의 끝 점의 이후에 발생할 수 있다. 기본적으로, 3초의 잔향이 테일로서 발생할 수 있다.
하나 이상의 파라미터들은 소스의 테일을 나타내는 테일 파라미터를 포함할 수 있다. 테일 파라미터는 소스의 테일를 나타낼 수 있다.
단계(620)에서, 생성부(520)는 테일 파라미터를 사용하여 소스의 테일을 반영하여 3차원 사운드를 생성할 수 있다.
테일 그래프(1950)는 프로젝트 커서(1915)는 무관하게 동작할 수 있다.
사용자는 입력 장치의 조작을 통해 테일의 모양을 변경할 수 있다. 사용자에 의한 입력 장치의 조작에 따라, 테일은 복수의 기정의된 모양들로 순환하여(cyclic) 변할 수 있다. 테일의 모양이 변할 경우, 설정부(510)는 변한 모양에 맞춰 테일 파라미터의 값을 설정할 수 있다.
속도 길이 값(1955)은 속도의 표현을 위해 사용되는 시간을 나타낼 수 있다.
타임 라인 속력 값(1945)은 타임 라인(1910) 중 프로젝트 커서(1915)가 가리키는 지점에서의 속력을 나타낼 수 있다.
타임 라인 게인 값(1965) 타임 라인(1910) 중 프로젝트 커서(1915)가 가리키는 지점에서의 게인을 나타낼 수 있다.
테일 길이(1970)는 테일의 잔향 시간을 나타낼 수 있다.
테일 끝 점(1975)은 테일의 끝 점을 나타낼 수 있다.
사용자는 입력 장치의 조작을 통해 테일의 끝 점의 위치를 이동시킬 수 있다. 단계(610)에서, 설정부(510)는 이동된 끝 점의 위치를 반영하여 테일 파라미터의 값을 설정할 수 있다.
테일의 끝 점의 위치가 이동하면, 테일의 길이가 이동된 끝 점의 위치에 따라 변할 수 있다. 변한 테일의 길이는 테일 길이(1970)에서 표시될 수 있다.
시퀀스 편집 영역(1980)은 시퀀스에 대한 편집을 제공하는 영역일 수 있다. 사용자는 입력 장치를 조작하여, 속력, 게인 및 테일 중 하나를 선택할 수 있다. 속력, 게인 및 테일 중 하나가 선택됨에 따라, 선택된 대상을 편집할 수 있는 편집 창의 크기가 커질 수 있다. 특정한 대상이 선택되지 않은 경우, 대상들에 대해 동일한 크기의 편집 창이 제공될 수 있다.
도 20은 일 에에 따른 프로젝트의 로케이터 영역을 나타낸다.
로케이터 영역(2000)은 시작 점 로케이터(2010), 끝 점 로케이터(2020) 및 프로젝트 커서(2040)를 포함할 수 있다.
전술된 것과 같이, 시작 점 로케이터의 시간이 타임 라인(1910)의 시작 점으로 설정될 수 있고, 끝 점 로케이터의 시간이 타임 라인(1910)의 끝 점으로 설정될 수 있다.
도 21은 일 예에 따른 확대된 속도 그래프를 나타낸다.
도 21에서는, 확대된 속도 그래프(2100)가 시퀀스 편집 영역(1980)에 확대되어 도시되었다.
도 21에서는, 사용자에 의한 입력 장치의 조작으로 인해 편집의 대상으로 선택된 지점(2110)이 도시되었고, 현재 속도(2120)가 도시되었다. 현재 속도(2120)는 프로젝트 커서(1915)가 위치한 지점에서의 그래프의 높이로서 표시될 수 있다. 또한, 현재 속도(2120)는 속도 길이 값(1955)에서 표시될 수 있다.
도 22은 일 실시예에 따른 3차원 사운드 재생 장치를 구현하는 전자 장치를 도시한다.
3차원 사운드 재생 장치(100)는 도 22에서 도시된 전자 장치(2200)로서 구현될 수 있다. 전자 장치(2200)는 3차원 사운드 재생 장치(100)로서 동작하는 범용의 컴퓨터 시스템일 수 있다.
도 22에서 도시된 바와 같이, 전자 장치(2200)는 프로세서(2221), 네트워크 인터페이스(2229), 메모리(2223), 저장소(2228) 및 버스(2222) 중 적어도 일부를 포함할 수 있다. 프로세서(2221), 네트워크 인터페이스(2229), 메모리(2223) 및 저장소(2228) 등과 같은 전자 장치(2200)의 구성요소들은 버스(2222)를 통해 서로 간에 통신할 수 있다.
프로세서(2221)는 메모리(2223) 또는 저장소(2228)에 저장된 프로세싱(processing) 명령어(instruction)들을 실행하는 반도체 장치일 수 있다.
프로세서(2221)는 전자 장치(2200)의 동작을 위해 요구되는 작업을 처리할 수 있다. 프로세서(2221)는 실시예들에서 설명된 프로세서(2221)의 동작 또는 단계의 코드를 실행(execute)할 수 있다.
네트워크 인터페이스(2229)는 네트워크(2230)에 연결될 수 있다. 네트워크 인터페이스(2229)는 전자 장치(2200)의 동작을 위해 요구되는 데이터 또는 정보를 수신할 수 있으며, 전자 장치(2200)의 동작을 위해 요구되는 데이터 또는 정보를 전송할 수 있다. 네트워크 인터페이스(2229)는 네트워크(2230)를 통해 다른 장치로 데이터를 전송할 수 있고, 다른 장치로부터 데이터를 수신할 수 있다. 예를 들면, 네트워크 인터페이스(2229)는 네트워크 칩(chip) 또는 포트(port)일 수 있다.
메모리(2223) 및 저장소(2228)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리(2223)는 롬(ROM)(2224) 및 램(RAM)(2225) 중 적어도 하나를 포함할 수 있다. 저장소(2228)는 램, 플레시(flash) 메모리 및 하드 디스크(hard disk) 등과 같은 내장형의 저장 매체를 포함할 수 있고, 메모리 카드 등과 같은 탈착 가능한 저장 매체를 포함할 수 있다.
전자 장치(2200)는 사용자 인터페이스(User Interface; UI) 입력 디바이스(2226) 및 UI 출력 디바이스(2227)를 더 포함할 수 있다. UI 입력 디바이스(2226)는 전자 장치(2200)의 동작을 위해 요구되는 사용자의 입력을 수신할 수 있다. UI 출력 디바이스(2227)는 전자 장치(2200)의 동작에 따른 정보 또는 데이터를 출력할 수 있다.
전자 장치(2200)의 기능 또는 동작은 프로세서(2221)가 적어도 하나의 프로그램 모듈을 실행함에 따라 수행될 수 있다. 메모리(2223) 및/또는 저장소(2228)는 적어도 하나의 프로그램 모듈을 저장할 수 있다. 적어도 하나의 프로그램 모듈은 프로세서(2221)에 의해 실행되도록 구성될 수 있다.
적어도 하나의 프로그램 모듈은 신호 감지부(110), 1차 신호 처리부(120), 채널 할당부(130), 2차 신호 처리부(140), 기능 조절부(150), 음상 외재화 구현부(160), 바이패스 조정부(170), 원거리 스피커 감지/재생부(180) 및 근접 스피커 감지/재생부(190)를 포함할 수 있다.
UI 입력 디바이스(2226)는 바이패스 전환 스위치(171)를 포함할 수 있다.
네트워크 인터페이스(2229)는 신호 수신부(105)를 포함할 수 있다.
도 23은 일 실시예에 따른 3차원 사운드 제공 장치를 구현하는 전자 장치를 도시한다.
3차원 사운드 제공 장치(500)는 도 23에서 도시된 전자 장치(2300)로서 구현될 수 있다. 전자 장치(2300)는 3차원 사운드 제공 장치(500)로서 동작하는 범용의 컴퓨터 시스템일 수 있다.
도 23에서 도시된 바와 같이, 전자 장치(2300)는 프로세서(2321), 네트워크 인터페이스(2329), 메모리(2323), 저장소(2328) 및 버스(2322) 중 적어도 일부를 포함할 수 있다. 프로세서(2321), 네트워크 인터페이스(2329), 메모리(2323) 및 저장소(2328) 등과 같은 전자 장치(2300)의 구성요소들은 버스(2322)를 통해 서로 간에 통신할 수 있다.
프로세서(2321)는 메모리(2323) 또는 저장소(2328)에 저장된 프로세싱(processing) 명령어(instruction)들을 실행하는 반도체 장치일 수 있다.
프로세서(2321)는 전자 장치(2300)의 동작을 위해 요구되는 작업을 처리할 수 있다. 프로세서(2321)는 실시예들에서 설명된 프로세서(2321)의 동작 또는 단계의 코드를 실행(execute)할 수 있다.
네트워크 인터페이스(2329)는 네트워크(2330)에 연결될 수 있다. 네트워크 인터페이스(2329)는 전자 장치(2#00)의 동작을 위해 요구되는 데이터 또는 정보를 수신할 수 있으며, 전자 장치(2300)의 동작을 위해 요구되는 데이터 또는 정보를 전송할 수 있다. 네트워크 인터페이스(2329)는 네트워크(2330)를 통해 다른 장치로 데이터를 전송할 수 있고, 다른 장치로부터 데이터를 수신할 수 있다. 예를 들면, 네트워크 인터페이스(2329)는 네트워크 칩(chip) 또는 포트(port)일 수 있다.
메모리(2323) 및 저장소(2328)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리(2323)는 롬(ROM)(2324) 및 램(RAM)(2325) 중 적어도 하나를 포함할 수 있다. 저장소(2328)는 램, 플레시(flash) 메모리 및 하드 디스크(hard disk) 등과 같은 내장형의 저장 매체를 포함할 수 있고, 메모리 카드 등과 같은 탈착 가능한 저장 매체를 포함할 수 있다.
전자 장치(2300)는 사용자 인터페이스(User Interface; UI) 입력 디바이스(2326) 및 UI 출력 디바이스(2327)를 더 포함할 수 있다. UI 입력 디바이스(2326)는 전자 장치(2300)의 동작을 위해 요구되는 사용자의 입력을 수신할 수 있다. UI 출력 디바이스(2327)는 전자 장치(2300)의 동작에 따른 정보 또는 데이터를 출력할 수 있다.
전자 장치(2300)의 기능 또는 동작은 프로세서(2321)가 적어도 하나의 프로그램 모듈을 실행함에 따라 수행될 수 있다. 메모리(2323) 및/또는 저장소(2328)는 적어도 하나의 프로그램 모듈을 저장할 수 있다. 적어도 하나의 프로그램 모듈은 프로세서(2321)에 의해 실행되도록 구성될 수 있다.
적어도 하나의 프로그램 모듈은 설정부(510) 및 생성부(520)를 포함할 수 있다.
네트워크 인터페이스(2329)는 출력부(530)를 포함할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
100: 3차원 사운드 재생 장치
105: 신호 수신부
110: 신호 감지부
120: 1차 신호 처리부
130: 채널 할당부
140: 2차 신호 처리부
150: 기능 조정부
160: 음상 외재화 구현부
170: 바이패스 조정부
180: 원거리 스피커 감지/재생부
181: 원거리 스피커
190: 근접 스피커 감지/재생부
191: 근접 스피커
310: 채널 감지부
320: 레벨 감지부
330: 트레숄드 제어부
340: 채널 비교부
350: 오브젝트 데이터 할당 제어부
360: 채널 데이터 생성부
370: 오브젝트 데이터 생성부
380: 채널 믹스부
390: 오브젝트 데이터 믹스부
500: 3차원 사운드 제공 장치
510: 설정부
520: 생성부
530: 출력부
1110: 거리 설정 인터페이스
1120: 소스 설정 인터페이스
1130: 거리 인터페이스
1140: 스크린 인터페이스
1150: 속도 인터페이스
1160: 시퀀스 인터페이스

Claims (18)

  1. 신호를 수신하는 단계;
    수신된 신호에 대한 채널 분리 및 오브젝트 분리를 수행함으로써 하나 이상의 분리된 신호들을 생성하는 단계;
    상기 하나 이상의 분리된 신호들의 각 신호를 채널 데이터 및 오브젝트 데이터 중 하나로 분류하는 단계;
    상기 채널 데이터를 하나 이상의 원거리 스피커들로 출력하는 단계;
    상기 오브젝트 데이터에 대한 음상 외재화를 구현하는 단계; 및
    상기 음상 외재화가 구현된 데이터를 근접 스피커로 출력하는 단계
    를 포함하는 3차원 사운드를 재생하는 방법.
  2. 제1항에 있어서,
    상기 생성하는 단계는,
    상기 수신된 신호를 하나 이상의 채널들로 구분하는 단계;
    상기 하나 이상의 채널들의 각 채널의 데이터를 상기 채널 데이터 및 상기 오브젝트 데이터 중 어느 것으로 사용할 것인가를 결정하는 단계;
    상기 하나 이상의 채널들 중 상기 채널 데이터로 사용되도록 설정된 채널의 데이터를 사용하여 상기 채널 데이터를 생성하는 단계; 및
    상기 하나 이상의 채널들 중 상기 오브젝트 데이터로 사용되도록 설정된 채널의 데이터를 사용하여 상기 오브젝트 데이터를 생성하는 단계
    를 포함하는 3차원 사운드를 재생하는 방법.
  3. 제2항에 있어서,
    상기 생성하는 단계는,
    상기 채널 데이터에 대한 레벨 보상을 수행하는 단계; 및
    상기 오브젝트 데이터에 대한 레벨 보상을 수행하는 단계
    를 더 포함하는 3차원 사운드를 재생하는 방법.
  4. 제2항에 있어서,
    상기 생성하는 단계는,
    상기 하나 이상의 채널들을 하나 이상의 고 레벨 채널들 및 하나 이상의 저 레벨 채널들로 구분하는 단계
    를 더 포함하고,
    상기 하나 이상의 저 레벨 채널들은 상기 채널 데이터로 사용되는 3차원 사운드를 재생하는 방법.
  5. 제4항에 있어서,
    상기 하나 이상의 고 레벨 채널들 중 대사의 채널은 상기 오브젝트 데이터 및 채널 데이터 중 하나로 사용하도록 설정되는 3차원 사운드를 재생하는 방법.
  6. 제1항에 있어서,
    상기 오브젝트 데이터는 공간에 대한 위치 정보, 움직임에 대한 방향 정보 및 사운드의 크기 정보를 포함하는 3차원 사운드를 재생하는 방법.
  7. 제1항에 있어서,
    상기 하나 이상의 분리된 신호들의 각 신호는 상기 하나 이상의 원거리 스피커들의 개수에 맞춰서 상기 하나 이상의 원거리 스피커들의 하나 이상의 원거리 스피커 채널들 및 상기 근접 스피커의 음상 외재화 채널 중 하나의 채널로 전송되는 3차원 사운드를 재생하는 방법.
  8. 제1항에 있어서,
    상기 하나 이상의 분리 신호들에 대한 프로세싱을 수행하는 단계
    를 더 포함하는 3차원 사운드를 재생하는 방법.
  9. 제1항에 있어서,
    상기 수신된 신호를 바이패스할 것인지 여부를 결정하는 단계; 및
    상기 수신된 신호의 바이패스가 결정된 경우, 수신된 신호를 상기 하나 이상의 원거리 스피커들 및 상기 근접 스피커 중 선택된 스피커로 전송하는 단계
    를 더 포함하는 3차원 사운드를 재생하는 방법.
  10. 신호를 수신하는 신호 수신부;
    수신된 신호에 대한 채널 분리 및 오브젝트 분리를 수행함으로써 하나 이상의 분리된 신호들을 생성하는 1차 신호 처리부;
    상기 하나 이상의 분리된 신호들의 각 신호를 채널 데이터 및 오브젝트 데이터 중 하나로 분류하는 채널 할당부;
    상기 채널 데이터를 하나 이상의 원거리 스피커들로 출력하는 원거리 스피커 감지/재생부;
    상기 오브젝트 데이터에 대한 음상 외재화를 구현하는 음상 외재화 구현부; 및
    상기 음상 외재화가 구현된 데이터를 근접 스피커로 출력하는 근접 스피커 감지/재생부
    를 포함하는 3차원 사운드 재생 장치.
  11. 제10항에 있어서,
    상기 1차 신호 처리부는,
    상기 수신된 신호를 하나 이상의 채널들로 구분하는 채널 감지부;
    상기 하나 이상의 채널들의 각 채널의 데이터를 상기 채널 데이터 및 상기 오브젝트 데이터 중 어느 것으로 사용할 것인가를 결정하는 채널 비교부;
    상기 하나 이상의 채널들 중 상기 채널 데이터로 사용되도록 설정된 채널의 데이터를 사용하여 상기 채널 데이터를 생성하는 채널 데이터 생성부; 및
    상기 하나 이상의 채널들 중 상기 오브젝트 데이터로 사용되도록 설정된 채널의 데이터를 사용하여 상기 오브젝트 데이터를 생성하는 오브젝트 데이터 생성부
    를 포함하는 3차원 사운드 재생 장치.
  12. 제11항에 있어서,
    상기 1차 신호 처리부는,
    상기 채널 데이터에 대한 레벨 보상을 수행하는 채널 믹스부; 및
    상기 오브젝트 데이터에 대한 레벨 보상을 수행하는 오브젝트 데이터 믹스부
    를 더 포함하는 3차원 사운드 재생 장치.
  13. 제11항에 있어서,
    상기 1차 신호 처리부는,
    상기 하나 이상의 채널들을 하나 이상의 고 레벨 채널들 및 하나 이상의 저 레벨 채널들로 구분하는 레벨 감지부
    를 더 포함하고,
    상기 채널 비교부는 상기 하나 이상의 저 레벨 채널들을 상기 채널 데이터로 사용하는 3차원 사운드 재생 장치.
  14. 제13항에 있어서,
    상기 채널 비교부는 상기 하나 이상의 고 레벨 채널들 중 대사의 채널을 상기 오브젝트 데이터 및 채널 데이터 중 하나로 사용하도록 설정하는 3차원 사운드 재생 장치.
  15. 제10항에 있어서,
    상기 오브젝트 데이터는 공간에 대한 위치 정보, 움직임에 대한 방향 정보 및 사운드의 크기 정보를 포함하는 3차원 사운드 재생 장치.
  16. 제10항에 있어서,
    상기 채널 할당부는 상기 하나 이상의 원거리 스피커들의 개수에 맞춰서 상기 하나 이상의 분리된 신호들의 각 신호를 상기 하나 이상의 원거리 스피커들의 하나 이상의 원거리 스피커 채널들 및 상기 근접 스피커의 음상 외재화 채널 중 하나의 채널로 전송하는 3차원 사운드 재생 장치.
  17. 제10항에 있어서,
    상기 하나 이상의 분리 신호들에 대한 프로세싱을 수행하는 2차 신호 처리부
    를 더 포함하는 3차원 사운드 재생 장치.
  18. 제10항에 있어서,
    상기 수신된 신호의 바이패스가 결정된 경우, 수신된 신호를 상기 하나 이상의 원거리 스피커들 및 상기 근접 스피커 중 선택된 스피커로 전송하는 바이패스 조정부
    를 더 포함하고,
    상기 신호 감지부는 상기 수신된 신호를 바이패스할 지 여부를 결정하는 3차원 사운드 재생 장치.
KR1020160032467A 2015-03-19 2016-03-18 음상 외재화에서 3차원 사운드 이미지를 재생하는 장치 및 방법 KR20160113035A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2016/002825 WO2016148552A2 (ko) 2015-03-19 2016-03-21 음상 외재화에서 3차원 사운드 이미지를 재생하는 장치 및 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150038373 2015-03-19
KR1020150038373 2015-03-19

Publications (1)

Publication Number Publication Date
KR20160113035A true KR20160113035A (ko) 2016-09-28

Family

ID=57101806

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160032467A KR20160113035A (ko) 2015-03-19 2016-03-18 음상 외재화에서 3차원 사운드 이미지를 재생하는 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20160113035A (ko)

Similar Documents

Publication Publication Date Title
US11277703B2 (en) Speaker for reflecting sound off viewing screen or display surface
JP7362807B2 (ja) 適応オーディオ・コンテンツのためのハイブリッドの優先度に基づくレンダリング・システムおよび方法
JP5985063B2 (ja) レンダラーと個々に指定可能なドライバのアレイとの間の通信のための双方向相互接続
TWI607654B (zh) 用於增強3d音頻編輯與呈現之設備、方法及非暫態媒體
JP6186436B2 (ja) 個々に指定可能なドライバへの上方混合されたコンテンツの反射されたおよび直接的なレンダリング
US20150124973A1 (en) Method and apparatus for layout and format independent 3d audio reproduction
US9813837B2 (en) Screen-relative rendering of audio and encoding and decoding of audio for such rendering
CN105340300A (zh) 用于音频呈现的低音管理
GB2550877A (en) Object-based audio rendering
AU2022256751A1 (en) Rendering of occluded audio elements
KR20160113036A (ko) 3차원 사운드를 편집 및 제공하는 방법 및 장치
WO2020209103A1 (ja) 情報処理装置および方法、再生装置および方法、並びにプログラム
KR20160113035A (ko) 음상 외재화에서 3차원 사운드 이미지를 재생하는 장치 및 방법
RU2820838C2 (ru) Система, способ и постоянный машиночитаемый носитель данных для генерирования, кодирования и представления данных адаптивного звукового сигнала

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application