KR102058228B1 - 입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션 - Google Patents
입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션 Download PDFInfo
- Publication number
- KR102058228B1 KR102058228B1 KR1020170182142A KR20170182142A KR102058228B1 KR 102058228 B1 KR102058228 B1 KR 102058228B1 KR 1020170182142 A KR1020170182142 A KR 1020170182142A KR 20170182142 A KR20170182142 A KR 20170182142A KR 102058228 B1 KR102058228 B1 KR 102058228B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- audio
- interface
- metadata
- stereoscopic content
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/02—Spatial or constructional arrangements of loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/03—Application of parametric coding in stereophonic audio systems
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Stereophonic System (AREA)
Abstract
입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션이 개시된다. 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법은 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계; 및 상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 상기 영상에 동기되는 메타데이터를 생성하는 단계를 포함하고, 상기 메타데이터를 생성하는 단계는 상기 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력한다.
Description
본 발명은 입체 음향 컨텐츠 저작 기술에 관한 것으로, 특히 모바일 단말을 통해 재생되는 영상의 음향에 바이너럴 효과를 적용할 수 있는 기술에 관한 것이다.
일반적으로 영상에 입체적인 음향 효과를 적용하기 위해서는 여러 대의 스피커들을 이용하여 출력되는 소리를 입력하는 멀티 채널 방식을 이용하고 있다. 또한, 2개의 스피커나 헤드폰을 이용하는 2채널 방식으로 입체 음향 효과를 구현하는 시스템이 개발되고 있으나, 주로 하드웨어에 의한 기술에 해당한다.
최근 소프트웨어를 이용하여 입체 음향 효과를 구현하는 기술들이 소개되고 있으나, 청취자를 기준으로 2차원에 해당하는 위치에 음상을 배치하는 것일 뿐, 3차원 위치를 이용하여 입체 음향 효과를 구현하는 기술은 찾아보기 어렵다.
본 발명의 목적은 쉽고 직관적인 인터페이스를 포함하는 어플리케이션을 통해 모바일 단말에서 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 저작하는 것이다.
또한, 본 발명의 목적은 모바일 단말의 터치 입력에 대한 메타데이터를 이용하여 입체 음향 컨텐츠를 생성하기 위한 바이너럴 렌더링을 수행하는 것이다.
또한, 본 발명의 목적은 오디오 피드백을 실시간으로 제공해줌으로써 사용자가 보다 객체의 움직임에 대응하여 보다 수월하게 인터페이스를 조작할 수 있도록 하는 것이다.
또한, 본 발명의 목적은 모바일 단말에 연결되는 외부 음향 기기를 통해 오디오를 청취하였을 때 방향감, 거리감 및 공간감 등을 제공하는 것이다.
상기한 목적을 달성하기 위한 본 발명에 따른 입체 음향 컨텐츠 저작 방법은, 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계; 및 상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 상기 영상에 동기되는 메타데이터를 생성하는 단계를 포함하고, 상기 메타데이터를 생성하는 단계는 상기 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력한다.
이 때, 입체 음향 컨텐츠 저작 방법은 상기 메타데이터를 기반으로 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 렌더링하는 단계를 더 포함할 수 있다.
이 때, 입체 음향 컨텐츠를 렌더링하는 단계는 상기 영상, 상기 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너를 생성하고, 상기 영상 및 상기 바이너럴 효과가 적용된 오디오는 동기 될 수 있다.
이 때, 메타데이터는 상기 바이너럴 효과에 상응하는 음상의 삼차원 위치에 상응할 수 있다.
이 때, 비주얼 인터페이스는 상기 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스; 및 상기 음상의 상기 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고, 상기 삼차원 위치는 상기 제1 인터페이스에 대한 사용자의 제1 입력 및 상기 제2 인터페이스에 대한 상기 사용자의 제2 입력을 조합하여 생성될 수 있다.
이 때, 비주얼 인터페이스는 상기 메타데이터에 상응하는 음상을 상기 영상에 오버레이하여 실시간으로 표시할 수 있다.
이 때, 메타데이터에 상응하는 음상은 상기 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현될 수 있다.
이 때, 비주얼 인터페이스는 상기 영상의 객체 중 상기 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함할 수 있다.
이 때, 객체 트래킹 인터페이스는 상기 영상의 객체 중 상기 오디오와의 상관성을 기반으로 상기 음상에 상응하는 객체를 결정할 수 있다.
이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오일 수 있다.
또한, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션은, 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계; 및 상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 상기 영상에 동기되는 메타데이터를 생성하는 단계를 실행시키고, 상기 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력한다.
이 때, 메타데이터를 기반으로 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 렌더링할 수 있다.
이 때, 렌더링을 통해 상기 영상, 상기 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너가 생성되고, 상기 영상 및 상기 바이너럴 효과가 적용된 오디오는 동기될 수 있다.
이 때, 메타데이터는 상기 바이너럴 효과에 상응하는 음상의 삼차원 위치에 상응할 수 있다.
이 때, 비주얼 인터페이스는 상기 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스; 및 상기 음상의 상기 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고, 상기 삼차원 위치는 상기 제1 인터페이스에 대한 사용자의 제1 입력 및 상기 제2 인터페이스에 대한 상기 사용자의 제2 입력을 조합하여 생성할 수 있다.
이 때, 비주얼 인터페이스는 상기 메타데이터에 상응하는 음상을 상기 영상에 오버레이하여 실시간으로 표시할 수 있다.
이 때, 메타데이터에 상응하는 음상은 상기 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현될 수 있다.
이 때, 비주얼 인터페이스는 상기 영상의 객체 중 상기 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함할 수 있다.
이 때, 객체 트래킹 인터페이스는 상기 영상의 객체 중 상기 오디오와의 상관성을 기반으로 상기 음상에 상응하는 객체를 결정할 수 있다.
이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오에 상응할 수 있다.
본 발명에 따르면, 쉽고 직관적인 인터페이스를 포함하는 어플리케이션을 통해 모바일 단말에서 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 저작할 수 있다.
또한, 본 발명은 모바일 단말의 터치 입력에 대한 메타데이터를 이용하여 입체 음향 컨텐츠를 생성하기 위한 바이너럴 렌더링을 수행할 수 있다.
또한, 본 발명은 오디오 피드백을 실시간으로 제공해줌으로써 사용자가 보다 객체의 움직임에 대응하여 보다 수월하게 인터페이스를 조작할 수 있도록 할 수 있다.
또한, 본 발명은 모바일 단말에 연결되는 외부 음향 기기를 통해 오디오를 청취하였을 때 방향감, 거리감 및 공간감 등을 제공할 수 있다.
도 1은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 어플리케이션의 실행 화면을 나타낸 도면이다.
도 2는 본 발명에 따른 모바일 단말의 일 예를 나타낸 블록도이다.
도 3은 본 발명에 따른 영상에 동기되는 메타데이터의 일 예를 나타낸 도면이다.
도 4는 본 발명에 따른 비주얼 인터페이스의 일 예를 나타낸 도면이다.
도 5는 본 발명에 따른 비주얼 인터페이스의 다른 예를 나타낸 도면이다.
도 6은 본 발명에 따른 음상이 위치하는 3차원 공간의 일 예를 나타낸 도면이다.
도 7은 본 발명에 따른 영상에 오버레이된 음상의 일 예를 나타낸 도면이다.
도 8 내지 도 9는 본 발명에 따른 사용자의 머리 위치를 기준으로 나타낸 음상의 일 예를 나타낸 도면이다.
도 10은 본 발명에 따른 객체 트래킹 인터페이스를 통해 객체를 하이라이트하는 과정의 일 예를 나타낸 도면이다.
도 11은 본 발명에 따른 렌더링 과정의 일 예를 나타낸 블록도이다.
도 12는 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법을 나타낸 동작흐름도이다.
도 13은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 과정을 상세하게 나타낸 동작흐름도이다.
도 14 내지 도 15는 본 발명에 따른 입체 음향 컨텐츠 저작 어플리케이션 실행화면의 다른 예를 나타낸 도면이다.
도 16은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 시스템을 나타낸 도면이다.
도 2는 본 발명에 따른 모바일 단말의 일 예를 나타낸 블록도이다.
도 3은 본 발명에 따른 영상에 동기되는 메타데이터의 일 예를 나타낸 도면이다.
도 4는 본 발명에 따른 비주얼 인터페이스의 일 예를 나타낸 도면이다.
도 5는 본 발명에 따른 비주얼 인터페이스의 다른 예를 나타낸 도면이다.
도 6은 본 발명에 따른 음상이 위치하는 3차원 공간의 일 예를 나타낸 도면이다.
도 7은 본 발명에 따른 영상에 오버레이된 음상의 일 예를 나타낸 도면이다.
도 8 내지 도 9는 본 발명에 따른 사용자의 머리 위치를 기준으로 나타낸 음상의 일 예를 나타낸 도면이다.
도 10은 본 발명에 따른 객체 트래킹 인터페이스를 통해 객체를 하이라이트하는 과정의 일 예를 나타낸 도면이다.
도 11은 본 발명에 따른 렌더링 과정의 일 예를 나타낸 블록도이다.
도 12는 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법을 나타낸 동작흐름도이다.
도 13은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 과정을 상세하게 나타낸 동작흐름도이다.
도 14 내지 도 15는 본 발명에 따른 입체 음향 컨텐츠 저작 어플리케이션 실행화면의 다른 예를 나타낸 도면이다.
도 16은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 시스템을 나타낸 도면이다.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 어플리케이션의 실행 화면을 나타낸 도면이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션은 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공한다.
이 때, 입체 음향 컨텐츠 저작 어플리케이션은 입체 음향 컨텐츠를 저작하기 위한 툴(tool)에 상응하는 것으로, 컴퓨터에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.
이 때, 바이너럴(binaural) 효과는, 사용자가 헤드폰이나 이어폰으로 오디오를 들을 때 마치 오디오의 음상이 외부에 위치하는 것처럼 입체적인 음향 효과를 제공하는 것이다. 따라서, 바이너럴 효과가 적용된 오디오를 포함하는 컨텐츠는 일반 컨텐츠보다 실감나고 현장감 있는 경험을 사용자에게 제공해줄 수 있다.
이 때, 영상은 모바일 단말에 저장된 영상에 상응할 수 있다. 예를 들어, 영상은 모바일 단말에 설치된 카메라를 통해 사용자가 직접 촬영한 영상이거나 또는 네트워크를 기반으로 다운로드받는 영상에 해당할 수 있다.
이 때, 비주얼 인터페이스는 입체 음향 컨텐츠를 저작하기 위한 입체 음향 컨텐츠 저작 어플리케이션의 실행을 기반으로 제공될 수 있으므로 어플리케이션을 실행할 수 있는 모바일 단말을 통해 제공될 수 있다.
예를 들어, 비주얼 인터페이스는 도 1에 도시된 실행화면에 상응하게 구성될 수 있다.
이 때, 모바일 단말은 네트워크를 기반으로 데이터 통신을 수행 가능한 단말에 상응할 수 있다.
예를 들어, 도 2를 참조하면, 본 발명의 일실시예에 따른 모바일 단말은 통신부(210), 프로세서(220) 및 메모리(230)를 포함한다.
통신부(210)는 네트워크와 같은 통신망을 통해 입체 음향 컨텐츠 저작을 위해 필요한 정보를 송수신하는 역할을 한다. 특히, 본 발명의 일실시예에 따른 통신부(210)는 네트워크를 기반으로 어플리케이션을 제공하는 서버로부터 입체 음향 컨텐츠 저작 어플리케이션을 획득할 수 있다.
이 때, 서버는 입체 음향 컨텐츠 저작 어플리케이션 및 입체 음향 컨텐츠 저작 어플리케이션의 실행과 관련된 다양한 컨텐츠와 서비스를 제공할 수 있다.
예를 들어, 도 16을 참조하면, 모바일 단말(1610)과 서버(1620)는 네트워크(1630)를 기반으로 데이터를 송수신할 수 있다. 이 때, 모바일 단말(1610)은 서버(1620)로부터 입체 음향 컨텐츠 저작에 필요한 다양한 컨텐츠 또는 데이터를 다운로드하여 사용할 수도 있다.
이 때, 네트워크(1630)는 기존의 이용되는 네트워크 및 향후 개발 가능한 네트워크를 모두 포괄하는 개념이다. 예를 들어, 네트워크는 인터넷 프로토콜(IP)을 기반으로 데이터 서비스를 제공하는 아이피망, 유선망, Wibro(Wireless Broadband)망, WCDMA를 포함하는 3세대 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE 망을 포함하는 3.5세대 이동통신망, LTE advanced를 포함하는 4세대 이동통신망, 위성통신망 및 와이파이(Wi-Fi)망 중 어느 하나 또는 하나 이상을 결합하여 이루어질 수 있다.
프로세서(220)는 중앙연산 처리장치에 상응하는 것으로, 메모리(230)에 저장된 입체 음향 컨텐츠 저작 어플리케이션을 실행시켜 제어할 수 있다.
이 때, 메모리(230)에는 운영체제(Operating System, OS)와 함께 입체 음향 컨텐츠 저작 어플리케이션을 포함한 각종 어플리케이션들이 저장될 수 있다. 따라서, 입체 음향 컨텐츠 저작 어플리케이션은 모바일 단말에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.
또한, 메모리(230)는 본 발명의 실시예에 따른 입체 음향 컨텐츠 저작을 위한 기능을 지원할 수 있다. 이 때, 메모리(230)는 별도의 대용량 스토리지로 동작할 수 있고, 동작 수행을 위한 제어 기능을 포함할 수도 있다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현 예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 다양한 서로 다른 구현 예에서, 메모리는 예컨대 하드디스크 장치, 광학디스크 장치, 혹은 어떤 다른 대용량 저장장치를 포함할 수도 있다.
또한, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션은 비주얼 인터페이스에 대한 터치 입력을 기반으로 영상에 동기되는 메타데이터를 생성한다.
예를 들어, 메타데이터는 비주얼 인터페이스에 대한 터치 입력 값을 기반으로 생성될 수 있다. 즉, 모바일 단말의 사용자는 영상에 포함된 객체의 움직임을 보면서 비주얼 인터페이스를 조작하여 영상에 동기된 오디오의 음상을 조절할 수 있다.
이 때, 터치 입력 값은 멀티터치 입력 값일 수 있다. 3차원 좌표상의 위치를 효과적으로 지정하기 위해서는 화면상의 싱글 포인트를 설정하는 싱글 터치로는 부족하고, 화면상의 복수개의 포인트들을 동시에 설정할 수 있는 멀티 터치가 필요할 수 있다.
즉, 멀티 터치가 지원되지 않는 경우나 화면에 대한 터치 입력이 아닌 키보드나 마우스를 이용한 입력 값을 이용하여 메타데이터를 생성하는 경우에는 사용자가 영상을 보면서 직관적이면서도 효율적으로 메타데이터를 생성하기 어려울 수 있다.
이 때, 메타데이터는 모바일 단말에서 재생되는 영상에 동기되어 생성될 수 있다.
예를 들어, 도 3에 도시된 것과 같이 영상을 재생하는 동안 생성된 메타데이터(320-1~320-N)를 각각 터치 입력 시점에 재생된 영상의 프레임들(310-1~310-N)에 매칭시켜 메타데이터와 영상을 동기화할 수 있다.
이 때, 입체 음향 컨텐츠 저작 어플리케이션은 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력할 수 있다.
이 때, 피드백 오디오는 메타데이터를 기반으로 바이너럴 효과가 적용되어 있지 않은 기존의 오디오를 변형한 것에 상응할 수 있다. 즉, 사용자에 의한 터치 입력이 발생하면, 이에 상응하게 생성되는 메타데이터를 실시간으로 반영하여 피드백 오디오를 출력해줄 수 있다. 만약, 즉각적으로 피드백 오디오가 출력되지 않는다면, 사용자는 렌더링이 완료될 때까지 자신이 변형한 오디오를 들을 수 없기 때문에 영상과 대응하지 않도록 바이너럴 효과가 적용될 수도 있다.
따라서, 본 발명에서는 즉각적으로 피드백 오디오를 출력해줌으로써 사용자가 영상에 포함된 객체의 움직임에 대응하여 터치 입력을 수행하도록 할 수 있다.
이 때, 바이너럴 효과가 적용된 피드백 오디오는 이어폰이나 헤드폰과 같이 사용자가 바이너럴 효과에 따른 입체감을 느낄 수 있는 외부 음향 기기를 통해 출력될 수 있다.
이 때, 메타데이터는 바이너럴 효과에 상응하는 음상의 삼차원 위치에 상응할 수 있다. 이 때, 음상의 삼차원 위치는 바이너럴 효과를 느끼는 모바일 단말의 사용자를 기준으로 할 수 있다.
예를 들어, 본 발명에 따른 음상의 삼차원 위치는 도 6에 도시된 것과 같은 사용자의 머리를 기준으로 하는 반구 형태의 3차원 공간 상에 나타낼 수 있다. 따라서, 바이너럴 효과가 적용된 오디오의 경우, 사용자를 기준으로 360도에서 입체적으로 소리가 들리는 효과를 제공할 수 있다.
이와 같이, 본 발명에서는 X축, Y축, Z축을 이용하는 삼차원 공간 상에 음상을 배치함으로써 기존의 음향 기술보다 깊은 몰입감을 제공할 수 있다.
이 때, 비주얼 인터페이스는 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스 및 음상의 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고, 삼차원 위치는 제1 인터페이스에 대한 사용자의 제1 입력 및 제2 인터페이스에 대한 사용자의 제2 입력을 조합하여 생성될 수 있다.
예를 들어, 도 4를 참조하면, 사용자가 영상에 포함된 객체(400)의 움직임에 따라 제1 인터페이스(410)와 제2 인터페이스(420)를 조작할 수 있다. 이 때, 영상에 포함된 객체(400)가 이동하는 방향에 따라 제1 인터페이스(410)의 조작키와 제2 인터페이스(420)의 조작키를 터치 입력으로 이동시킬 수 있다. 이 때, 터치 입력에 따른 제1 입력과 제2 입력을 조합하여 생성된 삼차원 위치를 메타데이터로 기록할 수 있다.
다른 예를 들어, 도 5를 참조하면, 사용자가 영상에 포함된 객체(500)의 움직임에 따라 사용자의 머리 위치를 포함하는 제3 인터페이스(510)를 조작할 수도 있다. 이 때, 사용자가 제3 인터페이스(510)에 해당하는 3차원 위치에 음상을 터치 입력으로 선택하면, 선택된 위치에 상응하는 삼차원 위치를 메타데이터로 기록할 수도 있다. 이 때, 제3 인터페이스(510)는 조작의 편의를 위해 머리의 방향을 회전시키면서 음상을 터치할 수도 있다.
이 때, 비주얼 인터페이스는 도 4 내지 도 5에 도시된 형태에 한정되지 않으며, 음상의 3차원 위치를 입력 가능한 다양한 형태로 제공될 수 있다.
이 때, 비주얼 인터페이스에 포함된 모드변경 버튼을 기반으로 피드백 오디오에 의한 영상을 플레이하는 플레이 모드나 비주얼 인터페이스에 의해 음상의 위치를 조절하기 위한 편집 모드 중 어느 하나의 모드를 선택적으로 제공할 수도 있다. 이 때, 모드변경 버튼은 토글(toggle) 방식으로 동작할 수 있다.
이 때, 비주얼 인터페이스는 메타데이터에 상응하는 음상을 영상에 오버레이하여 실시간으로 표시할 수 있다.
예를 들어, 도 7에 도시된 것과 같이 사용자가 비주얼 인터페이스에 포함된 제1 인터페이스와 제2 인터페이스를 조작하여 변화하는 음상(710)을 영상에 보여지는 객체에 오버레이하여 표시해줄 수 있다. 이 때, 사용자가 터치 입력을 기반으로 제1 인터페이스나 제2 인터페이스를 조작하는 경우, 음상(710)의 위치도 실시간으로 이동시키면서 보여줄 수도 있다.
이 때, 메타데이터에 상응하는 음상은 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현될 수 있다.
예를 들어, 도 7에 도시된 것과 같이 별도의 음상 트래킹 인터페이스(720)를 통해 변화하는 음상을 보여줄 수도 있다. 이 때, 음상 트래킹 인터페이스(720)는 도 8에 도시된 것과 같이 사용자의 머리 위치를 기준으로 생성된 반구상의 공간에 상응하는 형태로 제공될 수 있다. 이 때, 음상의 3차원 위치를 보다 직관적으로 식별할 수 있도록 사용자 머리의 방향을 회전하면서 음상을 표시할 수도 있다.
다른 예를 들어, 도 9에 도시된 것과 같이 사용자의 머리를 기준으로 하는 2차원 평면상에서 위치를 나타낼 수도 있다. 이 때, 도 9에 도시된 음상의 위치는 비주얼 인터페이스에 포함된 제1 인터페이스의 입력값에 상응할 수도 있다.
이 때, 비주얼 인터페이스는 영상의 객체 중 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함할 수 있다.
이 때, 객체 트래핑 인터페이스는 영상의 객체 중 오디오와의 상관성을 기반으로 음상에 상응하는 객체를 결정할 수 있다. 즉, 영상에 동기되는 오디오가 크게 변화하는 순간, 영상 내의 객체의 변화를 고려하여 오디오의 변화에 상관성이 높다고 판단되는 객체를 음상에 상응하는 객체로 결정할 수 있다.
예를 들어, 객체 트래킹 인터페이스는 영상에 동기되는 오디오가 기설정된 기준 변화량 이상 변화하는 시점에서 새롭게 등장하는 객체를 음상에 상응하는 객체로 판단하고 하이라이트 할 수 있다. 즉, 도 10을 참조하면, 영상에 동기되는 오디오(1010)가 큰 변화를 보이지 않는 구간에서는 영상 프레임(1020)에서도 새로운 객체가 등장하거나 큰 변화가 나타나지 않는 것을 확인할 수 있다. 그러나, 영상 프레임(1030)에 나타난 것과 같이 자동차 객체(1000)가 등장하면서 오디오(1010)가 크게 변화하는 것을 알 수 있다. 이 때, 객체 트래핑 인터페이스는 자동차를 음상에 상응하는 객체(1000)로 판단하고, 사용자가 객체(1000)를 쉽게 식별할 수 있도록 하이라이트 처리할 수 있다.
또한, 본 발명의 일실시예에 따르면, 객체 트래핑 인터페이스는 음상에 상응하게 인식된 객체의 움직임에 따라 음상의 위치도 그에 상응하게 변경시킬 수도 있다. 즉, 사용자가 직접 음상을 변경하지 않아도, 객체 트래핑 인터페이스를 통해 인식된 음상에 상응하는 객체를 트래킹하면서 자동으로 음상에 대한 메타데이터가 생성되도록 할 수도 있다.
또한, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션은 메타데이터를 기반으로 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 렌더링한다.
이 때, 입체 음향 컨텐츠는 모바일 단말을 통해 재생 가능한 컨텐츠에 상응할 수 있으며, 사용자가 입체 음향 컨텐츠를 시청하는 경우에 마치 사용자의 주위로 여러 개의 스피커가 설치되어있는 환경에서 오디오가 출력되는 것과 같은 음향 효과를 느낄 수 있다.
이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오일 수 있다. 따라서, 2채널 오디오만을 지원하는 단말이나 디바이스에서도 마치 5.1 채널이나 10.2 채널과 같은 음향 효과를 느낄 수 있는 입체 음향 컨텐츠를 제공할 수 있다.
이 때, 본 발명의 일실시예에 따른 바이너럴 효과가 적용된 오디오는 기존의 이용되는 기술 및 향후 개발 가능한 기술을 적용하여 생성될 수 있다.
한국등록공보 10-1599554에는 MPEG 서라운드(MPEG Surround)라는 국제 표준의 다채널 오디오 부호화 기술을 기반으로 3차원 바이너럴 신호를 출력하는 내용을 개시하고 있다. 10-1599554에서는 MPEG-Surround(MPS) 국제 표준을 기반으로 멀티채널 오디오 재생특성 파라미터를 추출하고, 오디오 재생특성 파라미터를 이용하여 다운믹스 오디오 신호에 대해 HRTF(Head Related Transfer function) 필터링을 수행하여 3D 바이너럴 신호를 출력하는 내용을 개시하고 있다. 여기서, HRTF 필터링은 인간의 청각기관을 모델링한 더미 헤더 마이크를 이용하여 360도의 방위각과 180도의 고도각 사이를 특정 간격을 두고 각각의 위치에 대한 좌우 양쪽의 임펄스 응답을 구하는 필터링일 수 있다.
이 때, 멀티채널 오디오 재생특성 파라미터는 주파수 대역 별 전후방 채널 신호의 출력 레벨 차에 대한 것으로, MPEG-Surround(MPS) 국제 표준에서 다채널 오디오 신호를 입력 받아 두 귀 사이의 소리 크기 차이와 채널 사이의 상관도 등으로 표현되는 공간 파라미터를 기반으로 추출될 수 있다.
또한, 한국등록공보 10-0971700에는 가상음원의 위치정보와 각 채널 별 바이노럴 필터 계수에 기초하여 좌/우 오디오 신호를 주파수 영역에서 필터링하고, 필터링된 신호를 바이노럴 스테레오 신호로 복호화하는 내용을 개시하고 있다. 이 때, 입력되는 시간 영역의 스테레오 좌/우 오디오 신호를 DFT(Discrete Fourier Transform) 또는 FFT(Fast Fourier Transform)를 이용하여 주파수 영역의 신호로 변환하고, 가상음원의 위치정보를 기반으로 할당된 서브밴드 별 각 채널의 파워 이득 값과 각 채널에 대한 주파수 영역의 좌/우 HRTF 계수 블록에 기초하여 주파수 영역에 상응하는 스테레오 좌/우 신호를 바이노럴 스테레오 신호로 필터링할 수 있다.
이 때, 가상음원의 위치정보(VSLI: Virtual Source Location Information) 기반의 공간 큐 정보를 합성하여 서브밴드 별 각 채널의 파워 이득값을 산출할 수 있고, 스테레오 신호에 대한 VSLI 기반의 공간 큐 정보는 임의의 서브밴드(m)에 대하여, 좌측반면각(LHA: Left Half-plane Angle)(LHA(m)), 좌측보조평면각(LSA: Left Subsequent Angle)(LSA(m)), 우측반면각(RHA: Right Half-plane Angle)(RHA(m)) 및 우측보조평면각(RSA: Right Subsequent Angle)(RSA(m))을 포함할 수 있다.
따라서, 본 발명에서도 상기와 같은 기술을 기반으로 메타데이터에 상응하게 바이너럴 효과가 적용된 오디오를 생성할 수 있다.
예를 들어, MPEG-Surround(MPS) 국제 표준을 기반으로 영상에 동기되는 오디오에 대한 공간 파라미터를 추출하고, 메타데이터에 상응하는 음원의 삼차원 위치와 공간 파라미터를 기반으로 오디오에 대해 HRTF(Head Related Transfer function) 필터링을 수행함으로써 바이너럴 효과가 적용된 오디오 신호를 생성할 수 있다.
다른 예를 들어, 영상에 동기되는 오디오를 주파수 영역의 스테레오 좌/우 오디오 신호로 변환하고, 메타데이터에 상응하는 위치정보를 기반으로 공간 큐 정보를 합성하여 서브밴드 별 각 채널의 파워 이득값을 산출한 뒤 각 채널에 대한 주파수 영역의 좌/우 HRTF 계수 블록에 기초하여 바이너럴 효과가 적용된 오디오를 생성할 수 있다.
이 때, 영상, 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너를 생성하고, 영상 및 바이너럴 효과가 적용된 오디오는 동기 될 수 있다.
예를 들어, 도 11을 참조하면, 본 발명의 일실시예에 따른 비주얼 인터페이스에 대한 터치 입력을 기반으로 영상(1111) M1에 동기되는 오디오(1112) S1에 대한 메타데이터(1120)를 생성하였다고 가정할 수 있다. 이 때, 입체 음향 컨텐츠 저작 어플리케이션은 영상(1111) M1에 동기되는 오디오(1112) S1과 메타데이터(1120)를 이용하여 바이너럴 효과가 적용된 오디오(1121) S2를 생성할 수 있고, 렌더링을 수행하여 영상(1111) M1, 바이너럴 효과가 적용된 오디오(1121) S2 및 부가 데이터(1130)를 포함하는 컨테이너(1140)를 생성할 수 있다.
이 때, 부가 데이터(1130)는 입체 음향 컨텐츠의 포맷에 관련된 정보나 렌더링을 위한 파라미터 등을 포함할 수 있다.
이 때, 비주얼 인터페이스에 대한 터치 입력을 기반으로 렌더링을 시작할 수 있다.
예를 들어, 사용자가 비주얼 인터페이스에 포함된 저장 버튼(SAVE)을 터치하는 경우, 입체 음향 컨텐츠를 생성하기 위한 렌더링을 시작할 수 있다. 이 때, 렌더링되어 생성된 입체 음향 컨텐츠는 입체 음향 컨텐츠 저작 어플리케이션을 기반으로 모바일 단말에 저장될 수 있다.
이 때, 렌더링은 바이너럴 효과가 적용된 오디오(1121) S2를 생성하는 과정과 함께 수행될 수도 있다.
또한, 사용자가 렌더링을 수행하지 않고 비주얼 인터페이스를 정지 또는 종료하는 경우, 현재까지 생성된 메타데이터를 보관하거나 또는 삭제할 수도 있다.
예를 들어, 사용자가 비주얼 인터페이스에 포함된 정지 버튼(PAUSE)을 터치하는 경우, 현재까지 생성된 메타데이터를 영상과 함께 저장하여 보관할 수도 있다.
다른 예를 들어, 사용자가 비주얼 인터페이스에 포함된 종료 버튼(End) 또는 나가기 버튼(EXIT)을 터치하는 경우, 현재까지 생성된 메타데이터를 삭제하고 비주얼 인터페이스를 종료할 수도 있다.
이와 같은 입체 음향 컨텐츠 저작 어플리케이션을 이용하여, 방향감, 거리감 및 공간감을 제공할 수 있는 입체 음향 컨텐츠를 생성할 수 있다.
또한, 쉽고 직관적인 인터페이스를 기반으로 누구나 쉽게 바이너럴 효과가 적용된 입체 음향 컨텐츠를 저작할 수 있다.
도 12는 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법을 나타낸 동작흐름도이다.
도 12를 참조하면, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법은 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공한다(S1210).
이 때, 바이너럴(binaural) 효과는, 사용자가 헤드폰이나 이어폰으로 오디오를 들을 때 마치 오디오의 음상이 외부에 위치하는 것처럼 입체적으로 들리게 해주는 것이다. 따라서, 바이너럴 효과가 적용된 컨텐츠는 일반 컨텐츠보다 실감나고 현장감 있는 경험을 사용자에게 제공해줄 수 있다.
이 때, 비주얼 인터페이스는 입체 음향 컨텐츠 저작 어플리케이션의 실행을 기반으로 제공될 수 있으므로 입체 음향 컨텐츠 저작 어플리케이션이 실행 가능한 모바일 단말을 통해 제공될 수 있다.
이 때, 모바일 단말은 네트워크를 이용한 데이터 통신을 기반으로 입체 음향 컨텐츠 저작 어플리케이션을 제공하는 서버로부터 입체 음향 컨텐츠 저작 어플리케이션을 획득할 수 있다. 따라서, 모바일 단말은 네트워크를 기반으로 데이터 통신을 수행 가능한 단말에 상응할 수 있다.
이 때, 모바일 단말의 메모리에는 운영체제(Operating Systme, OS)와 함께 입체 음향 컨텐츠 저작 어플리케이션을 포함한 각종 어플리케이션들이 저장될 수 있다. 따라서, 입체 음향 컨텐츠 저작 어플리케이션은 모바일 단말에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.
또한, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법은 비주얼 인터페이스에 대한 터치 입력을 기반으로 영상에 동기되는 메타데이터를 생성하고, 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력한다(S1220).
이 때, 모바일 단말의 사용자는 영상에 포함된 객체의 움직임을 보면서 비주얼 인터페이스를 조작하여 영상에 동기된 오디오의 음상을 조절할 수 있는데, 이 때에 입력값을 기반으로 메타데이터를 생성할 수 있다.
이 때, 터치 입력 값은 멀티터치 입력 값일 수 있다. 3차원 좌표상의 위치를 효과적으로 지정하기 위해서는 화면상의 싱글 포인트를 설정하는 싱글 터치로는 부족하고, 화면상의 복수개의 포인트들을 동시에 설정할 수 있는 멀티 터치가 필요할 수 있다.
즉, 멀티 터치가 지원되지 않는 경우나 화면에 대한 터치 입력이 아닌 키보드나 마우스를 이용한 입력 값을 이용하여 메타데이터를 생성하는 경우에는 사용자가 영상을 보면서 직관적이면서도 효율적으로 메타데이터를 생성하기 어려울 수 있다.
이 때, 메타데이터는 모바일 단말에서 재생되는 영상에 동기되어 생성될 수 있다.
예를 들어, 도 3에 도시된 것과 같이 영상을 재생하는 동안 생성된 메타데이터(320-1~320-N)를 각각 터치 입력 시점에 재생된 영상의 프레임들(310-1~310-N)에 매칭시켜 메타데이터와 영상을 동기화할 수 있다.
이 때, 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력할 수 있다.
이 때, 피드백 오디오는 메타데이터를 기반으로 기존의 오디오를 변형한 것에 상응할 수 있다. 즉, 사용자에 의한 터치 입력이 발생하면, 이에 상응하게 생성되는 메타데이터를 실시간으로 반영하여 피드백 오디오를 출력해줄 수 있다. 만약, 즉각적으로 피드백 오디오가 출력되지 않는다면, 사용자는 렌더링이 완료될 때까지 자신이 변형한 오디오를 들을 수 없기 때문에 영상과 대응하지 않도록 바이너럴 효과가 적용될 수도 있다.
따라서, 본 발명에서는 즉각적으로 피드백 오디오를 출력해줌으로써 사용자가 영상에 포함된 객체의 움직임에 대응하여 터치 입력을 수행하도록 할 수 있다.
이 때, 바이너럴 효과가 적용된 피드백 오디오는 이어폰이나 헤드폰과 같이 사용자가 바이너럴 효과에 따른 입체감을 느낄 수 있는 외부 음향 기기를 통해 출력될 수 있다.
이 때, 메타데이터는 바이너럴 효과에 상응하는 음상의 삼차원 위치에 상응할 수 있다. 이 때, 음상의 삼차원 위치는 바이너럴 효과를 느끼는 모바일 단말의 사용자를 기준으로 할 수 있다.
예를 들어, 본 발명에 따른 음상의 삼차원 위치는 도 6에 도시된 것과 같은 사용자의 머리를 기준으로 하는 반구 형태의 3차원 공간 상에 나타낼 수 있다. 따라서, 바이너럴 효과가 적용된 오디오의 경우, 사용자를 기준으로 360도에서 입체적으로 소리가 들리는 효과를 제공할 수 있다.
이와 같이, 본 발명에서는 X축, Y축, Z축을 이용하는 삼차원 공간 상에 음상을 배치함으로써 기존의 음향 기술보다 깊은 몰입감을 제공할 수 있다.
이 때, 비주얼 인터페이스는 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스 및 음상의 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고, 삼차원 위치는 제1 인터페이스에 대한 사용자의 제1 입력 및 제2 인터페이스에 대한 사용자의 제2 입력을 조합하여 생성될 수 있다.
예를 들어, 도 4를 참조하면, 사용자가 영상에 포함된 객체(400)의 움직임에 따라 제1 인터페이스(410)와 제2 인터페이스(420)를 조작할 수 있다. 이 때, 영상에 포함된 객체(400)가 이동하는 방향에 따라 제1 인터페이스(410)의 조작키와 제2 인터페이스(420)의 조작키를 터치 입력으로 이동시킬 수 있다. 이 때, 터치 입력에 따른 제1 입력과 제2 입력을 조합하여 생성된 삼차원 위치를 메타데이터로 기록할 수 있다.
다른 예를 들어, 도 5를 참조하면, 사용자가 영상에 포함된 객체(500)의 움직임에 따라 사용자의 머리 위치를 포함하는 제3 인터페이스(510)를 조작할 수도 있다. 이 때, 사용자가 제3 인터페이스(510)에 해당하는 3차원 위치에 음상을 터치 입력으로 선택하면, 선택된 위치에 상응하는 삼차원 위치를 메타데이터로 기록할 수도 있다. 이 때, 제3 인터페이스(510)는 조작의 편의를 위해 머리의 방향을 회전시키면서 음상을 터치할 수도 있다.
이 때, 비주얼 인터페이스는 도 4 내지 도 5에 도시된 형태에 한정되지 않으며, 음상의 3차원 위치를 입력 가능한 다양한 형태로 제공될 수 있다.
이 때, 비주얼 인터페이스는 모드변경 버튼(MODE)을 이용하여 피드백 오디오에 의한 영상을 플레이하는 플레이 모드나 비주얼 인터페이스에 의해 음상의 위치를 조절하기 위한 편집 모드 중 어느 하나의 모드를 선택적으로 제공할 수 있다. 이 때, 모드변경 버튼은 토글(toggle) 방식으로 동작할 수 있다.
이 때, 비주얼 인터페이스는 메타데이터에 상응하는 음상을 영상에 오버레이하여 실시간으로 표시할 수 있다.
예를 들어, 도 7에 도시된 것과 같이 사용자가 비주얼 인터페이스에 포함된 제1 인터페이스와 제2 인터페이스를 조작하여 변화하는 음상(710)을 영상에 보여지는 객체에 오버레이하여 표시해줄 수 있다. 이 때, 사용자가 터치 입력을 기반으로 제1 인터페이스나 제2 인터페이스를 조작하는 경우, 음상(710)의 위치도 실시간으로 이동시키면서 보여줄 수도 있다.
이 때, 메타데이터에 상응하는 음상은 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현될 수 있다.
예를 들어, 도 7에 도시된 것과 같이 별도의 음상 트래킹 인터페이스(720)를 통해 변화하는 음상을 보여줄 수도 있다. 이 때, 음상 트래킹 인터페이스(720)는 도 8에 도시된 것과 같이 사용자의 머리 위치를 기준으로 생성된 반구상의 공간에 상응하는 형태로 제공될 수 있다. 이 때, 음상의 3차원 위치를 보다 직관적으로 식별할 수 있도록 사용자 머리의 방향을 회전하면서 음상을 표시할 수도 있다.
다른 예를 들어, 도 9에 도시된 것과 같이 사용자의 머리를 기준으로 하는 2차원 평면상에서 위치를 나타낼 수도 있다. 이 때, 도 9에 도시된 음상의 위치는 비주얼 인터페이스에 포함된 제1 인터페이스의 입력값에 상응할 수도 있다.
이 때, 비주얼 인터페이스는 영상의 객체 중 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함할 수 있다.
이 때, 객체 트래핑 인터페이스는 영상의 객체 중 오디오와의 상관성을 기반으로 음상에 상응하는 객체를 결정할 수 있다. 즉, 영상에 동기되는 오디오가 크게 변화하는 순간, 영상 내의 객체의 변화를 고려하여 오디오의 변화에 상관성이 높다고 판단되는 객체를 음상에 상응하는 객체로 결정할 수 있다.
예를 들어, 객체 트래킹 인터페이스는 영상에 동기되는 오디오가 기설정된 기준 변화량 이상 변화하는 시점에서 새롭게 등장하는 객체를 음상에 상응하는 객체로 판단하고 하이라이트 할 수 있다. 즉, 도 10을 참조하면, 영상에 동기되는 오디오(1010)가 큰 변화를 보이지 않는 구간에서는 영상 프레임(1020)에서도 새로운 객체가 등장하거나 큰 변화가 나타나지 않는 것을 확인할 수 있다. 그러나, 영상 프레임(1030)에 나타난 것과 같이 자동차 객체(1000)가 등장하면서 오디오(1010)가 크게 변화하는 것을 알 수 있다. 이 때, 객체 트래핑 인터페이스는 자동차를 음상에 상응하는 객체(1000)로 판단하고, 사용자가 객체(1000)를 쉽게 식별할 수 있도록 하이라이트 처리할 수 있다.
또한, 본 발명의 일실시예에 따르면, 객체 트래핑 인터페이스는 음상에 상응하게 인식된 객체의 움직임에 따라 음상의 위치도 그에 상응하게 변경시킬 수도 있다. 즉, 사용자가 직접 음상을 변경하지 않아도, 객체 트래핑 인터페이스를 통해 인식된 음상에 상응하는 객체를 트래킹하면서 자동으로 음상에 대한 메타데이터가 생성되도록 할 수도 있다.
또한, 도 12에는 도시하지 아니하였으나, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법은 메타데이터를 기반으로 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 렌더링한다.
이 때, 입체 음향 컨텐츠는 모바일 단말을 통해 재생 가능한 컨텐츠에 상응할 수 있으며, 사용자가 입체 음향 컨텐츠를 시청하는 경우에 마치 사용자의 주위로 여러 개의 스피커가 설치되어있는 환경에서 오디오가 출력되는 것과 같은 음향 효과를 느낄 수 있다.
이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오일 수 있다. 따라서, 2채널 오디오만을 지원하는 단말이나 디바이스에서도 마치 5.1 채널이나 10.2 채널과 같은 음향 효과를 느낄 수 있는 입체 음향 컨텐츠를 제공할 수 있다.
이 때, 본 발명의 일실시예에 따른 바이너럴 효과가 적용된 오디오는 기존의 이용되는 기술 및 향후 개발 가능한 기술을 적용하여 생성될 수 있다.
한국등록공보 10-1599554에는 MPEG 서라운드(MPEG Surround)라는 국제 표준의 다채널 오디오 부호화 기술을 기반으로 3차원 바이너럴 신호를 출력하는 내용을 개시하고 있다. 10-1599554에서는 MPEG-Surround(MPS) 국제 표준을 기반으로 멀티채널 오디오 재생특성 파라미터를 추출하고, 오디오 재생특성 파라미터를 이용하여 다운믹스 오디오 신호에 대해 HRTF(Head Related Transfer function) 필터링을 수행하여 3D 바이너럴 신호를 출력하는 내용을 개시하고 있다. 여기서, HRTF 필터링은 인간의 청각기관을 모델링한 더미 헤더 마이크를 이용하여 360도의 방위각과 180도의 고도각 사이를 특정 간격을 두고 각각의 위치에 대한 좌우 양쪽의 임펄스 응답을 구하는 필터링일 수 있다.
이 때, 멀티채널 오디오 재생특성 파라미터는 주파수 대역 별 전후방 채널 신호의 출력 레벨 차에 대한 것으로, MPEG-Surround(MPS) 국제 표준에서 다채널 오디오 신호를 입력 받아 두 귀 사이의 소리 크기 차이와 채널 사이의 상관도 등으로 표현되는 공간 파라미터를 기반으로 추출될 수 있다.
또한, 한국등록공보 10-0971700에는 가상음원의 위치정보와 각 채널 별 바이노럴 필터 계수에 기초하여 좌/우 오디오 신호를 주파수 영역에서 필터링하고, 필터링된 신호를 바이노럴 스테레오 신호로 복호화하는 내용을 개시하고 있다. 이 때, 입력되는 시간 영역의 스테레오 좌/우 오디오 신호를 DFT(Discrete Fourier Transform) 또는 FFT(Fast Fourier Transform)를 이용하여 주파수 영역의 신호로 변환하고, 가상음원의 위치정보를 기반으로 할당된 서브밴드 별 각 채널의 파워 이득 값과 각 채널에 대한 주파수 영역의 좌/우 HRTF 계수 블록에 기초하여 주파수 영역에 상응하는 스테레오 좌/우 신호를 바이노럴 스테레오 신호로 필터링할 수 있다.
이 때, 가상음원의 위치정보(VSLI: Virtual Source Location Information) 기반의 공간 큐 정보를 합성하여 서브밴드 별 각 채널의 파워 이득값을 산출할 수 있고, 스테레오 신호에 대한 VSLI 기반의 공간 큐 정보는 임의의 서브밴드(m)에 대하여, 좌측반면각(LHA: Left Half-plane Angle)(LHA(m)), 좌측보조평면각(LSA: Left Subsequent Angle)(LSA(m)), 우측반면각(RHA: Right Half-plane Angle)(RHA(m)) 및 우측보조평면각(RSA: Right Subsequent Angle)(RSA(m))을 포함할 수 있다.
따라서, 본 발명에서도 상기와 같은 기술을 기반으로 메타데이터에 상응하게 바이너럴 효과가 적용된 오디오를 생성할 수 있다.
예를 들어, MPEG-Surround(MPS) 국제 표준을 기반으로 영상에 동기되는 오디오에 대한 공간 파라미터를 추출하고, 메타데이터에 상응하는 음원의 삼차원 위치와 공간 파라미터를 기반으로 오디오에 대해 HRTF(Head Related Transfer function) 필터링을 수행함으로써 바이너럴 효과가 적용된 오디오 신호를 생성할 수 있다.
다른 예를 들어, 영상에 동기되는 오디오를 주파수 영역의 스테레오 좌/우 오디오 신호로 변환하고, 메타데이터에 상응하는 위치정보를 기반으로 공간 큐 정보를 합성하여 서브밴드 별 각 채널의 파워 이득값을 산출한 뒤 각 채널에 대한 주파수 영역의 좌/우 HRTF 계수 블록에 기초하여 바이너럴 효과가 적용된 오디오를 생성할 수 있다.
이 때, 영상, 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너를 생성하고, 영상 및 바이너럴 효과가 적용된 오디오는 동기 될 수 있다.
예를 들어, 도 11을 참조하면, 본 발명의 일실시예에 따른 비주얼 인터페이스에 대한 터치 입력을 기반으로 영상(1111) M1에 동기되는 오디오(1112) S1에 대한 메타데이터(1120)를 생성하였다고 가정할 수 있다. 이 때, 영상(1111) M1에 동기되는 오디오(1112) S1과 메타데이터(1120)를 이용하여 바이너럴 효과가 적용된 오디오(1121) S2를 생성할 수 있고, 렌더링을 수행하여 영상(1111) M1, 바이너럴 효과가 적용된 오디오(1121) S2 및 부가 데이터(1130)를 포함하는 컨테이너(1140)를 생성할 수 있다.
이 때, 부가 데이터(1130)는 입체 음향 컨텐츠의 포맷에 관련된 정보나 렌더링을 위한 파라미터 등을 포함할 수 있다.
이 때, 비주얼 인터페이스에 대한 터치 입력을 기반으로 렌더링을 시작할 수 있다.
예를 들어, 사용자가 비주얼 인터페이스에 포함된 저장 버튼(SAVE)을 터치하는 경우, 입체 음향 컨텐츠를 생성하기 위한 렌더링을 시작할 수 있다. 이 때, 렌더링되어 생성된 입체 음향 컨텐츠는 입체 음향 컨텐츠 저작 어플리케이션을 기반으로 모바일 단말에 저장될 수 있다.
이 때, 렌더링은 바이너럴 효과가 적용된 오디오(1121) S2를 생성하는 과정과 함께 수행될 수도 있다.
또한, 사용자가 렌더링을 수행하지 않고 비주얼 인터페이스를 정지 또는 종료하는 경우, 현재까지 생성된 메타데이터를 보관하거나 또는 삭제할 수도 있다.
예를 들어, 사용자가 비주얼 인터페이스에 포함된 정지 버튼(PAUSE)을 터치하는 경우, 현재까지 생성된 메타데이터를 영상과 함께 저장하여 보관할 수도 있다.
다른 예를 들어, 사용자가 비주얼 인터페이스에 포함된 종료 버튼(End) 또는 나가기 버튼(EXIT)을 터치하는 경우, 현재까지 생성된 메타데이터를 삭제하고 비주얼 인터페이스를 종료할 수도 있다.
또한, 도 12에는 도시하지 아니하였으나, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법은 상술한 바와 같이 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 과정에서 발생하는 다양한 정보를 별도의 저장 모듈에 저장할 수 있다.
이와 같은 입체 음향 컨텐츠 저작 방법을 이용하여 방향감, 거리감 및 공간감을 제공할 수 있는 입체 음향 컨텐츠를 생성할 수 있다.
또한, 쉽고 직관적인 인터페이스를 기반으로 누구나 쉽게 바이너럴 효과가 적용된 입체 음향 컨텐츠를 저작할 수 있다.
도 13은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 과정을 상세하게 나타낸 동작흐름도이다.
도 13을 참조하면, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 과정은 먼저 모바일 단말에 설치된 입체 음향 컨텐츠 저작을 위한 입체 음향 컨텐츠 저작 어플리케이션이 실행되면(S1310), 입체 음향 컨텐츠 저작 어플리케이션에서 사용자에 의해 선택된 영상을 기반으로 비주얼 인터페이스를 제공할 수 있다(S1320).
이 때, 비주얼 인터페이스는 사용자에 의해 선택된 영상에 동기되는 오디오에 바이너럴 효과를 적용하기 위한 인터페이스들을 포함할 수 있다.
이 후, 바이너럴 효과를 적용하기 위한 인터페이스들에 대한 터치 입력을 기반으로 영상에 동기되는 메타데이터를 생성할 수 있고, 동시에 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 사용자에게 출력해줄 수 있다(S1330).
이 때, 피드백 오디오를 실시간으로 출력해줌으로써 사용자가 생성된 메타데이터에 상응하는 바이너럴 효과를 확인할 수 있다.
이 후, 사용자에 의해 비주얼 인터페이스에 포함된 저장 버튼이 입력되는 경우, 영상, 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너를 생성하는 렌더링을 수행한다(S1340).
이 때, 영상과 바이너럴 효과가 적용된 오디오는 시간을 기준으로 동기화될 수 있다.
이 후, 생성된 컨테이너에 상응하는 입체 음향 컨텐츠를 입체 음향 컨텐츠 저작 어플리케이션에 기반하여 모바일 단말의 메모리에 저장할 수 있다(S1350).
이 때, 이어폰이나 헤드폰과 같은 외부 음향 기기가 연결된 모바일 단말에서 입체 음향 컨텐츠를 재생하는 경우, 마치 외부에 위치하는 오디오에서 소리가 나는 것처럼 실감나게 컨텐츠를 감상할 수 있다.
도 14 내지 도 15는 본 발명에 따른 입체 음향 컨텐츠 저작 어플리케이션 실행화면의 다른 예를 나타낸 도면이다.
먼저 도 14를 참조하면, 본 발명에 따른 입체 음향 컨텐츠 저작 어플리케이션은 모바일 단말을 기반으로 실행될 수 있으며, 실행후 입체 음향 컨텐츠를 저작하기 위한 저작 메뉴(Authoring), 입체 음향 컨텐츠 저작에 필요한 컨텐츠를 다운받기 위한 컨텐츠 다운로드 메뉴(Contents Download) 및 기타 정보 메뉴(Information) 등을 제공할 수 있다.
예를 들어, 저작 메뉴(Authoring)를 선택하면, 도 15에 도시된 것처럼 저작할 일반 영상 컨텐츠를 선택하기 위한 메뉴를 제공할 수 있다.
이 때, 일반 영상 컨텐츠는 입체 음향 컨텐츠 저작 어플리케이션이 저장된 모바일 단말의 메모리에 저장된 동영상에 상응할 수 있다. 이 때, 입체 음향 컨텐츠 저작 어플리케이션을 통해 이전에 저작한 입체 영상 컨텐츠와 아직 저작되지 않은 일반 영상 컨텐츠를 분류하여 영상 컨텐츠 검색결과를 제공할 수도 있다.
이 때, 일반 영상 컨텐츠는 도 15에 도시된 것과 같이 영상의 내용을 식별할 수 있는 썸네일(Thumbnail)과 함께 제공될 수 있다.
예를 들어, 일반 영상 컨텐츠 중 사용자가 어느 하나의 영상 컨텐츠를 선택하는 경우, 선택된 일반 영상 컨텐츠를 입체 음향 컨텐츠로 저작하기 위해 입체 음향 컨텐츠 저작 어플리케이션이 비주얼 인터페이스를 제공할 수 있다.
이상에서와 같이 본 발명에 따른 입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
110, 410: 제1 인터페이스 120, 420: 제2 인터페이스
210: 통신부 220: 프로세서
230: 메모리 310-1~310-N, 920, 930: 프레임
320-1~320-N: 메타데이터 400, 500, 900: 객체
510: 제3 인터페이스 710: 음상
720: 음상 트래킹 인터페이스 1010: 오디오
1020, 1030: 영상 프레임 1111: 영상
1112: 오디오 1120: 메타데이터
1121: 바이너럴 효과가 적용된 오디오
1130: 부가데이터 1140: 컨테이너
1610: 모바일 단말 1620: 서버
1630: 네트워크
210: 통신부 220: 프로세서
230: 메모리 310-1~310-N, 920, 930: 프레임
320-1~320-N: 메타데이터 400, 500, 900: 객체
510: 제3 인터페이스 710: 음상
720: 음상 트래킹 인터페이스 1010: 오디오
1020, 1030: 영상 프레임 1111: 영상
1112: 오디오 1120: 메타데이터
1121: 바이너럴 효과가 적용된 오디오
1130: 부가데이터 1140: 컨테이너
1610: 모바일 단말 1620: 서버
1630: 네트워크
Claims (20)
- 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계;
상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 상기 영상에 동기되는 메타데이터를 생성하는 단계; 및
상기 메타데이터를 기반으로 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 렌더링하는 단계
를 포함하고,
상기 바이너럴 효과가 적용된 오디오는
상기 메타데이터를 생성하는 단계 및 상기 메타데이터를 생성하는 단계 이후에 수행되는 상기 입체 음향 컨텐츠를 렌더링하는 단계의 두 단계를 이용하여 최종 생성되고,
상기 메타데이터를 생성하는 단계와 상기 입체 음향 컨텐츠를 렌더링하는 단계는 별개의 단계이고, 상기 입체 음향 컨텐츠를 렌더링하는 단계는 상기 메타데이터에 포함된 특정 재생 시점 대표 음상의 위치를 기반으로 영상의 재생에 대하여 비실시간적으로 상기 입체 음향 컨텐츠를 생성하고,
상기 메타데이터를 생성하는 단계는
상기 바이너럴 효과가 적용된 오디오가 생성되기 전에, 상기 터치 입력에 반응하여 바이너럴 효과가 적용되는 것을 느낄 수 있도록 하는 피드백 오디오를 출력하고,
상기 비주얼 인터페이스는 상기 피드백 오디오에 의하여 상기 바이너럴 효과를 느끼는 사용자에 의하여 상기 영상의 특정 재생 시점에 상응하여 설정되는 상기 특정 재생 시점 대표 음상의 위치를 지정하기 위해 제공되고, 상기 특정 재생 시점 대표 음상의 위치는 상기 사용자의 머리를 기준으로 설정된 위치인 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법. - 삭제
- 청구항 1에 있어서,
상기 입체 음향 컨텐츠를 렌더링하는 단계는
상기 영상, 상기 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너를 생성하고, 상기 영상 및 상기 바이너럴 효과가 적용된 오디오는 동기되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법. - 삭제
- 청구항 1에 있어서,
상기 비주얼 인터페이스는
상기 특정 재생 시점 대표 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스; 및
상기 특정 재생 시점 대표 음상의 상기 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고,
상기 특정 재생 시점 대표 음상의 위치는 상기 제1 인터페이스에 대한 사용자의 제1 입력 및 상기 제2 인터페이스에 대한 상기 사용자의 제2 입력을 조합하여 생성되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법. - 청구항 5에 있어서,
상기 비주얼 인터페이스는
상기 메타데이터에 상응하는 특정 재생 시점 대표 음상을 상기 영상에 오버레이하여 실시간으로 표시하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법. - 청구항 6에 있어서,
상기 특정 재생 시점 대표 음상은
상기 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법. - 청구항 7에 있어서,
상기 비주얼 인터페이스는
상기 영상의 객체 중 상기 특정 재생 시점 대표 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법. - 청구항 8에 있어서,
상기 객체 트래킹 인터페이스는
상기 영상의 객체 중 상기 오디오와의 상관성을 기반으로 상기 특정 재생 시점 대표 음상에 상응하는 객체를 결정하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법. - 청구항 3에 있어서,
상기 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오인 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법. - 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계;
상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 상기 영상에 동기되는 메타데이터를 생성하는 단계; 및
상기 메타데이터를 기반으로 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 렌더링하는 단계를 실행시키고,
상기 바이너럴 효과가 적용된 오디오는
상기 메타데이터를 생성하는 단계 및 상기 메타데이터를 생성하는 단계 이후에 수행되는 상기 입체 음향 컨텐츠를 렌더링하는 단계의 두 단계를 이용하여 최종 생성되고,
상기 메타데이터를 생성하는 단계와 상기 입체 음향 컨텐츠를 렌더링하는 단계는 별개의 단계이고, 상기 입체 음향 컨텐츠를 렌더링하는 단계는 상기 메타데이터에 포함된 특정 재생 시점 대표 음상의 위치를 기반으로 영상의 재생에 대하여 비실시간적으로 상기 입체 음향 컨텐츠를 생성하고,
상기 메타데이터를 생성하는 단계는
상기 바이너럴 효과가 적용된 오디오가 생성되기 전에, 상기 터치 입력에 반응하여 바이너럴 효과가 적용되는 것을 느낄 수 있도록 하는 피드백 오디오를 출력하고,
상기 비주얼 인터페이스는 상기 피드백 오디오에 의하여 상기 바이너럴 효과를 느끼는 사용자에 의하여 상기 영상의 특정 재생 시점에 상응하여 설정되는 상기 특정 재생 시점 대표 음상의 위치를 지정하기 위해 제공되고, 상기 특정 재생 시점 대표 음상의 위치는 상기 사용자의 머리를 기준으로 설정된 위치인 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션. - 삭제
- 청구항 11에 있어서,
상기 렌더링을 통해 상기 영상, 상기 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너가 생성되고, 상기 영상 및 상기 바이너럴 효과가 적용된 오디오는 동기되는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션. - 삭제
- 청구항 11에 있어서,
상기 비주얼 인터페이스는
상기 특정 재생 시점 대표 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스; 및
상기 특정 재생 시점 대표 음상의 상기 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고,
상기 특정 재생 시점 대표 음상의 위치는 상기 제1 인터페이스에 대한 사용자의 제1 입력 및 상기 제2 인터페이스에 대한 상기 사용자의 제2 입력을 조합하여 생성되는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션. - 청구항 15에 있어서,
상기 비주얼 인터페이스는
상기 메타데이터에 상응하는 특정 재생 시점 대표 음상을 상기 영상에 오버레이하여 실시간으로 표시하는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션. - 청구항 16에 있어서,
상기 특정 재생 시점 대표 음상은
상기 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현되는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션. - 청구항 17에 있어서,
상기 비주얼 인터페이스는
상기 영상의 객체 중 상기 특정 재생 시점 대표 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함하는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션. - 청구항 18에 있어서,
상기 객체 트래킹 인터페이스는
상기 영상의 객체 중 상기 오디오와의 상관성을 기반으로 상기 특정 재생 시점 대표 음상에 상응하는 객체를 결정하는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션. - 청구항 13에 있어서,
상기 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오인 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170182142A KR102058228B1 (ko) | 2017-12-28 | 2017-12-28 | 입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션 |
PCT/KR2018/016673 WO2019132516A1 (ko) | 2017-12-28 | 2018-12-26 | 입체 음향 컨텐츠 저작 방법 및 이를 위한 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170182142A KR102058228B1 (ko) | 2017-12-28 | 2017-12-28 | 입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190079993A KR20190079993A (ko) | 2019-07-08 |
KR102058228B1 true KR102058228B1 (ko) | 2019-12-20 |
Family
ID=67256431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170182142A KR102058228B1 (ko) | 2017-12-28 | 2017-12-28 | 입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102058228B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102488251B1 (ko) * | 2022-07-26 | 2023-01-13 | (주)드림스토리뮤직 | 오디오 입체음향을 웹툰에 접목한 녹음 시스템 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100971700B1 (ko) | 2007-11-07 | 2010-07-22 | 한국전자통신연구원 | 공간큐 기반의 바이노럴 스테레오 합성 장치 및 그 방법과,그를 이용한 바이노럴 스테레오 복호화 장치 |
KR101599554B1 (ko) | 2009-03-23 | 2016-03-03 | 한국전자통신연구원 | Sac 부가정보를 이용한 3d 바이노럴 필터링 시스템 및 방법 |
-
2017
- 2017-12-28 KR KR1020170182142A patent/KR102058228B1/ko active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102488251B1 (ko) * | 2022-07-26 | 2023-01-13 | (주)드림스토리뮤직 | 오디오 입체음향을 웹툰에 접목한 녹음 시스템 |
Also Published As
Publication number | Publication date |
---|---|
KR20190079993A (ko) | 2019-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11089425B2 (en) | Audio playback method and audio playback apparatus in six degrees of freedom environment | |
TW201830380A (zh) | 用於虛擬實境,增強實境及混合實境之音頻位差 | |
KR102430769B1 (ko) | 몰입형 오디오 재생을 위한 신호의 합성 | |
US20140328505A1 (en) | Sound field adaptation based upon user tracking | |
US20170347219A1 (en) | Selective audio reproduction | |
KR20100017860A (ko) | 오디오 데이터를 처리하기 위한 디바이스 및 방법 | |
CN109410912B (zh) | 音频处理的方法、装置、电子设备及计算机可读存储介质 | |
KR102332739B1 (ko) | 음향 처리 장치 및 방법, 그리고 프로그램 | |
JP7192786B2 (ja) | 信号処理装置および方法、並びにプログラム | |
WO2023029829A1 (zh) | 音频处理方法、装置、用户终端及计算机可读介质 | |
CN111630879A (zh) | 相关联的空间音频播放 | |
US20190394596A1 (en) | Transaural synthesis method for sound spatialization | |
KR102527336B1 (ko) | 가상 공간에서 사용자의 이동에 따른 오디오 신호 재생 방법 및 장치 | |
KR101235832B1 (ko) | 실감 멀티미디어 서비스 제공 방법 및 장치 | |
JP2018110366A (ja) | 3dサウンド映像音響機器 | |
KR101682105B1 (ko) | 입체음향 조절 방법 및 장치 | |
KR102058228B1 (ko) | 입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션 | |
Kearney et al. | Design of an interactive virtual reality system for ensemble singing | |
EP3745745A1 (en) | Apparatus, method, computer program or system for use in rendering audio | |
JP2016109971A (ja) | 信号処理装置および信号処理装置の制御方法 | |
KR20190081163A (ko) | 입체 음향 컨텐츠 저작 툴을 이용한 선택적 광고 제공 방법 및 이를 위한 어플리케이션 | |
KR100566131B1 (ko) | 음상 정위 기능을 가진 입체 음향을 생성하는 장치 및 방법 | |
KR101111734B1 (ko) | 복수 개의 음원을 구분하여 음향을 출력하는 방법 및 장치 | |
KR101534295B1 (ko) | 멀티 뷰어 영상 및 3d 입체음향 제공방법 및 장치 | |
KR20190082055A (ko) | 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법 및 이를 위한 어플리케이션 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |