KR101935020B1 - 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치 - Google Patents

오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치 Download PDF

Info

Publication number
KR101935020B1
KR101935020B1 KR1020120091086A KR20120091086A KR101935020B1 KR 101935020 B1 KR101935020 B1 KR 101935020B1 KR 1020120091086 A KR1020120091086 A KR 1020120091086A KR 20120091086 A KR20120091086 A KR 20120091086A KR 101935020 B1 KR101935020 B1 KR 101935020B1
Authority
KR
South Korea
Prior art keywords
audio
information
channel
metadata
data
Prior art date
Application number
KR1020120091086A
Other languages
English (en)
Other versions
KR20130127344A (ko
Inventor
유재현
이태진
서정일
강경옥
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20130127344A publication Critical patent/KR20130127344A/ko
Application granted granted Critical
Publication of KR101935020B1 publication Critical patent/KR101935020B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Stereophonic System (AREA)

Abstract

오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 및 오디오 데이터 재생 방법 및 장치가 개시된다. 오디오 데이터 제공 방법은 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 단계; 상기 생성된 오디오 메타데이터와 상기 오디오 로우데이터를 결합하여 오디오 데이터를 생성하는 단계; 및 상기 생성된 오디오 데이터를 오디오 데이터 재생 장치에 전송하는 단계를 포함할 수 있다.

Description

오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING AUDIO DATA, METHOD AND APPARATUS FOR PROVIDING AUDIO METADATA, METHOD AND APPARATUS FOR PLAYING AUDIO DATA}
아래의 설명은 오디오 메타데이터가 포함된 오디오 데이터를 오디오 재생 장치에 제공하는 방법에 관한 것으로, 보다 구체적으로는 오디오 채널 정보 및 오디오 객체 정보를 포함하는 메타데이터를 이용하여 오디오 신호를 표현하는 방법에 관한 것이다.
오디오 데이터를 멀티채널로 구현하기 위해서는 오디오 컨텐츠가 몇 개의 오디오 신호로 만들어져 있는지, 어떤 채널을 공간 상의 어떤 위치에 배치해야 하는지에 관한 정보를 필요로 한다. 5.1 채널의 오디오 데이터는 총 6개의 오디오 신호가 0, +30, +110, +250, +330, null 도 위치에서 제작 및 재생되는 것을 기본 조건으로 하고 있다. 최근에는 여러 개의 스피커를 수평면 이외의 위치에 배치하여 독자적인 방식으로 멀티채널을 표현하는 방법이 연구되고 있다.
객체 기반 오디오 처리 기술은 하나의 음원을 구성하는 다양한 종류의 객체 오디오 소스를 각각 제어 가능하게 하여 객체 기반 오디오 컨텐츠의 생성 및 수정을 가능하게 하는 기술이다. 일반적으로 객체 기반 오디오 처리 기술에서는 여러 개의 악기로 만든 오디오 객체를 생성하고, 이를 믹싱하여 사용한다. 오디오 객체를 기반으로 한 오디오 제어 기술은 필요에 따라 오디오 객체 단위로 오디오 신호를 제어함에 따라 음원 제작자와 사용자에게 능동형 오디오 서비스를 제공할 수 있다.
MPEG-4 Audio BIFS에서는 객체 기반 오디오 데이터 처리 방식에 관해서 설명하고 있다. 이 방식은 오디오 컨텐츠의 제작, 전송, 및 재생에 있어서 기존의 채널 기반 신호가 아닌 객체 기반 신호만을 이용하고 있어서, 사용자 인터랙션을 제공할 수 있다.
최근 UHDTV 기술이 개발되고, HDTV에서 제공하던 5.1 채널보다 많은 스피커를 사용하면서 보다 사실감이 높은 오디오 재생 방식에 대한 연구가 크게 관심을 받고 있다. 또한, 채널 기반 오디오 시스템과 객체 기반 오디오 시스템을 융합하는 기술이 개발되고 있으며, 이에 사용자 인터랙션을 가능하게 하면서, 기존 오디오 시스템과 호환될 수 있는 오디오 처리 기술이 요구되고 있다.
일실시예에 따른 오디오 데이터 제공 방법은, 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 단계; 상기 생성된 오디오 메타데이터와 상기 오디오 로우데이터를 결합하여 오디오 데이터를 생성하는 단계; 및 상기 생성된 오디오 데이터를 오디오 데이터 재생 장치에 전송하는 단계를 포함할 수 있다.
일실시예에 따른 오디오 메타데이터 제공 방법은, 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 단계; 및 상기 생성된 오디오 메타데이터를 오디오 데이터 재생 장치에 전송하는 단계를 포함할 수 있다.
일실시예에 따른 오디오 데이터 재생 방법은, 오디오 데이터 제공 장치로부터 오디오 데이터를 수신하는 단계; 상기 수신한 오디오 데이터에서 오디오 메타데이터에 포함된 오디오 채널 정보 및 오디오 객체 정보를 분석하는 단계; 및 상기 분석된 오디오 채널 정보 및 상기 분석된 오디오 객체 정보에 기초하여 상기 오디오 로우데이터를 재생하는 단계를 포함할 수 있다.
일실시예에 따른 오디오 데이터 제공 장치는, 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 오디오 메타데이터 생성부; 상기 생성된 오디오 메타데이터와 상기 오디오 로우데이터를 결합하여 오디오 데이터를 생성하는 오디오 데이터 생성부; 및 상기 생성된 오디오 데이터를 오디오 데이터 재생 장치에 전송하는 오디오 데이터 전송부를 포함할 수 있다.
일실시예에 따른 오디오 메타데이터 제공 장치는, 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 오디오 메타데이터 생성부; 및 상기 생성된 오디오 메타데이터를 오디오 데이터 재생 장치에 전송하는 오디오 메타데이터 전송부를 포함할 수 있다.
일실시예에 따른 오디오 데이터 재생 장치는, 오디오 데이터 제공 장치로부터 오디오 데이터를 수신하는 오디오 데이터 수신부; 상기 수신한 오디오 데이터에서 오디오 메타데이터에 포함된 오디오 채널 정보 및 오디오 객체 정보를 분석하는 오디오 메타데이터 분석부; 및 상기 분석된 오디오 채널 정보 및 상기 분석된 오디오 객체 정보에 기초하여 상기 오디오 로우데이터를 재생하는 오디오 로우데이터 재생부를 포함할 수 있다.
도 1은 일실시예에 따른 오디오 데이터의 구성을 도시한 도면이다.
도 2는 일실시예에 따른 오디오 데이터를 제공하는 동작을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 오디오 메타데이터를 제공하는 동작을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 오디오 메타데이터의 구성을 도시한 도면이다.
도 5는 일실시예에 따른 오디오 메타데이터의 일례를 도시한 도면이다.
도 6은 일실시예에 따른 위치 정보의 기준을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 오디오 데이터 제공 방법을 도시한 흐름도이다.
도 8은 일실시예에 따른 오디오 메타데이터 제공 방법을 도시한 흐름도이다.
도 9는 일실시예에 따른 오디오 데이터 재생 방법을 도시한 흐름도이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 일실시예에 따른 오디오 데이터 제공 방법은 오디오 데이터 제공 장치에 의해 수행될 수 있으며, 일실시예에 따른 오디오 메타데이터 제공 방법은 오디오 메타데이터 제공 장치에 의해 수행될 수 있다. 또한, 일실시예에 따른 오디오 데이터 재생 방법은 오디오 데이터 재생 장치에 의해 수행될 수 있다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 1은 일실시예에 따른 오디오 데이터의 구성을 도시한 도면이다.
도 1을 참조하면, 오디오 데이터(110)는 오디오 로우데이터(audio raw data) (120)와 오디오 메타데이터(130)를 포함할 수 있다.
오디오 로우데이터(120)는 재생하려는 오디오 신호를 나타내며, 다양한 오디오 채널 및 오디오 객체를 포함할 수 있다. 예를 들어, 5.1 채널의 오디오 데이터(110)인 경우, 오디오 로우데이터(120)는 L(Left), R(Right), C(Center), LFE(Low Frequency Effect), LS(Left Side), RS(Right Side) 채널과 관련된 각각의 오디오 신호를 포함할 수 있다. 또한, 오디오 로우데이터(120)는 오디오 채널(140)과 함께 Piano, Drum, Guitar, Vocal 등과 같은 오디오 객체(150)를 포함할 수도 있다. 단, 오디오 데이터(110)가 포함할 수 있는 오디오 채널(140)의 종류와 오디오 객체(150)의 종류는 위의 기재에 한정되지 아니한다.
오디오 메타데이터(130)는 오디오 채널 및 오디오 객체의 재생과 관련된 메타데이터를 나타낸다. 오디오 메타데이터(130)는 오디오 로우데이터(120)에 포함된 오디오 채널 및 오디오 객체의 재생과 관련된 정보를 포함할 수 있으며, 이에 대한 자세한 설명은 도 4에서 후술한다.
도 2는 일실시예에 따른 오디오 데이터를 제공하는 동작을 설명하기 위한 도면이다.
도 2를 참조하면, 오디오 데이터 제공 장치(210)는 오디오 메타데이터 생성부(220), 오디오 데이터 생성부(230), 및 오디오 데이터 전송부(240)를 포함할 수 있다. 오디오 데이터 제공 장치(210)는 도 7에 도시된 오디오 데이터 제공 방법을 수행할 수 있다.
단계(710)에서, 오디오 메타데이터 생성부(220)는 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성할 수 있다. 구체적으로, 오디오 메타데이터 생성부(220)는 오디오 로우데이터를 분석하여, 오디오 신호의 채널 정보 및 객체 정보를 오디오 메타데이터 형식으로 생성할 수 있다.
오디오 메타데이터 생성부(220)가 생성한 오디오 메타데이터는 오디오 채널 및 오디오 객체의 개수 정보, 오디오 채널 및 오디오 객체의 이름 정보, 오디오 채널 및 오디오 객체의 위치 정보, 오디오 객체의 이동 정보, 및 오디오 채널의 하위 호환 정보 중 적어도 하나를 포함할 수 있다. 오디오 메타데이터에 포함된 각 정보에 대한 자세한 설명은 도 4에서 후술한다.
단계(720)에서, 오디오 데이터 생성부(230)는 오디오 메타데이터 생성부(220)가 생성한 오디오 메타데이터와 오디오 로우데이터를 결합하여 오디오 데이터를 생성할 수 있다.
오디오 데이터 생성부(230)는 오디오 로우데이터 또는 오디오 메타데이터를 독립적으로 코딩하거나 오디오 로우데이터와 오디오 메타데이터를 함께 코딩할 수 있다.
단계(730)에서, 오디오 데이터 전송부(240)는 오디오 데이터 생성부(230)가 생성한 오디오 데이터를 오디오 데이터 재생 장치(250)에 전송할 수 있다. 구체적으로, 오디오 데이터 전송부(240)는 코딩된 오디오 데이터를 멀티플렉싱(multiplexing) 처리하여 오디오 데이터 재생 장치(250)에 전송할 수 있다. 여기서 멀티플렉싱이란 여러 신호를 합쳐 한 개의 신호로 처리하는 방식을 나타낸다.
또한, 도 2를 참조하면, 오디오 데이터 재생 장치(250)는 오디오 데이터 수신부(260), 오디오 메타데이터 분석부(270), 및 오디오 로우데이터 재생부(280)를 포함할 수 있다. 오디오 데이터 재생 장치(250)는 도 9에 도시된 오디오 데이터 재생 방법을 수행할 수 있다.
단계(910)에서, 오디오 데이터 수신부(260)는 오디오 데이터 제공 장치(210)로부터 오디오 데이터를 수신할 수 있다.
단계(920)에서, 오디오 메타데이터 분석부(270)는 오디오 데이터 수신부(260)가 수신한 오디오 데이터에서 오디오 메타데이터에 포함된 오디오 채널 정보 및 오디오 객체 정보를 분석할 수 있다.
오디오 메타데이터 분석부(270)는 수신한 오디오 데이터를 디멀티플렉싱 (demultiplexing) 하거나 디코딩할 수 있다. 오디오 메타데이터 분석부(270)는 디멀티플렉싱 또는 디코딩을 통해 오디오 데이터에서 오디오 로우데이터와 오디오 메타데이터를 분리할 수 있으며, 오디오 로우데이터에서 각각의 채널 별 오디오 신호 및 오디오 객체 신호를 추출할 수 있다.
오디오 메타데이터 분석부(270)는 오디오 데이터를 오디오 로우데이터와 오디오 메타데이터로 분리할 수 있고, 사용자는 분리된 오디오 로우데이터와 오디오 메타데이터를 이용하여 추가적인 수정 작업을 수행할 수 있다.
오디오 메타데이터에는 오디오 채널 및 오디오 객체의 개수 정보, 오디오 채널 및 오디오 객체의 이름 정보, 오디오 채널 및 오디오 객체의 위치 정보, 오디오 객체의 이동 정보, 및 오디오 채널의 하위 호환 정보 중 적어도 하나가 포함될 수 있다. 오디오 메타데이터에 포함된 각 정보에 대한 자세한 설명은 도 4에서 후술한다.
오디오 로우데이터 재생부(280)는 오디오 메타데이터에 포함된 채널 정보와 재생 환경 정보에 포함된 채널 정보를 비교할 수 있다. 여기서 재생 환경 정보란 가정의 TV 시스템이나 A/V 리시버 등의 스피커 배치 상황과 같은 오디오 데이터 재생 장치의 오디오 환경 설정 정보를 나타낼 수 있다.
단계(930)에서, 오디오 로우데이터 재생부(280)는 재생 환경 정보에 포함된 채널이 오디오 로우데이터에 포함된 채널보다 하위 채널인 경우, 오디오 메타데이터에 포함된 오디오 채널의 하위 호환 정보에 기초하여 오디오 로우데이터의 오디오 채널을 하위 채널로 변경할 수 있다.
예를 들어, 오디오 로우데이터에 포함된 채널의 개수가 "6"이고, 오디오 데이터 재생 장치(250)의 재생 환경 정보에 포함된 설정 채널 수가 "2"라고 한다면, 오디오 로우데이터 재생부(280)는 오디오 메타데이터에 포함된 하위 호환 정보에 기초하여 수신한 오디오 데이터를 2.0 채널의 하위 채널로 다운믹싱할 수 있다. 여기서 다운믹싱이란 여러 채널이 합쳐진 오디오 데이터를 낮은 수의 채널을 갖는 오디오 데이터로 변환하는 것을 나타낸다. 이를 통해, 오디오 데이터 재생 장치(250)는 재생 환경 정보에 포함된 설정 채널 수보다 많은 채널을 가진 오디오 데이터를 수신하더라도 채널 호환을 통해 상위 채널의 오디오 데이터를 재생할 수 있다.
단계(940)에서, 오디오 로우데이터 재생부(280)는 오디오 메타데이터 분석부(270)가 분석한 오디오 채널 정보 및 오디오 객체 정보에 기초하여 오디오 로우데이터를 재생할 수 있다. 또는, 오디오 로우데이터 재생부(280)는 오디오 메타데이터와 미리 설정된 재생 환경 정보에 기초하여 오디오 로우데이터를 재생할 수도 있다.
도 3은 일실시예에 따른 오디오 메타데이터를 제공하는 동작을 설명하기 위한 도면이다. 오디오 메타데이터 제공 장치(310)는 도 8에 도시된 오디오 메타데이터 제공 방법을 수행할 수 있다.
단계(810)에서, 오디오 메타데이터 생성부(320)는 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성할 수 있다. 구체적으로, 오디오 메타데이터 생성부(320)는 오디오 로우데이터를 분석하여, 오디오 신호의 채널 정보 및 객체 정보를 오디오 메타데이터로 나타낼 수 있다.
구체적으로, 오디오 메타데이터 생성부(320)는 오디오 채널 및 오디오 객체의 개수 정보, 오디오 채널 및 오디오 객체의 이름 정보, 오디오 채널 및 오디오 객체의 위치 정보, 오디오 객체의 이동 정보, 및 오디오 채널의 하위 호환 정보 중 적어도 하나를 포함하는 오디오 메타데이터를 생성할 수 있다. 오디오 메타데이터에 포함된 각 정보에 대한 자세한 설명은 도 4에서 후술한다.
단계(820)에서, 오디오 메타데이터 전송부(330)는 오디오 메타데이터 생성부(320)가 생성한 오디오 메타데이터를 오디오 데이터 재생 장치(350)에 전송할 수 있다.
다른 실시예에 따르면, 오디오 메타데이터 전송부(330)는 오디오 로우데이터 제공 장치(340)로부터 수신한 오디오 로우데이터와 오디오 메타데이터를 멀티플렉싱하여 오디오 데이터 재생 장치(350)에 전송할 수도 있다.
오디오 로우데이터 제공 장치(340)는 오디오 데이터 재생 장치(350)에 오디오 채널과 오디오 객체가 포함된 오디오 로우데이터를 전송할 수 있다. 오디오 메타데이터 제공 장치(310)는 오디오 로우데이터 제공 장치(340)와 연동하여 오디오 메타데이터를 생성할 수도 있다.
오디오 데이터 재생 장치(350)는 수신한 오디오 로우데이터와 오디오 메타데이터를 분석하여 오디오 로우데이터를 재생할 수 있다. 이 때, 오디오 데이터 재생 장치(350)는 분석한 오디오 메타데이터에 기초하여 오디오 로우데이터를 재생할 수 있다. 또는, 오디오 데이터 재생 장치(350)는 분석한 오디오 메타데이터와 미리 설정된 재생 환경 정보에 기초하여 오디오 로우데이터를 재생할 수도 있다.
도 4는 일실시예에 따른 오디오 메타데이터의 구성을 도시한 도면이다.
오디오 데이터 제공 장치의 오디오 메타데이터 생성부 및 오디오 메타데이터 제공 장치의 오디오 메타데이터 생성부는 오디오 메타데이터(410)를 생성할 수 있고, 생성된 오디오 메타데이터(410)는 도 4에 도시된 정보를 포함할 수 있다.
도 4를 참조하면, 오디오 메타데이터(410)는 오디오 채널 및 오디오 객체의 개수 정보(420), 오디오 채널 및 오디오 객체의 이름 정보(430), 오디오 채널 및 오디오 객체의 위치 정보(440), 오디오 객체의 이동 정보(450), 및 오디오 채널의 하위 호환 정보(460) 중 적어도 하나를 포함할 수 있다.
오디오 채널 및 오디오 객체의 개수 정보(420)는 오디오 로우데이터에 포함된 오디오 신호의 개수를 나타낼 수 있다. 구체적으로, 오디오 채널 및 오디오 객체의 개수 정보(420)는 오디오 로우데이터에 포함된 오디오 채널 및 오디오 객체의 개수를 나타내는 정보일 수 있다. 예를 들어, 오디오 로우데이터에 5.1 채널의 오디오 신호와 2개의 오디오 객체가 포함되어 있다면, 오디오 채널 및 오디오 객체의 개수 정보(420)는 "8"이라는 값을 가질 수 있다.
다른 실시예에 따르면, 오디오 채널 및 오디오 객체의 개수 정보(420)는 오디오 채널의 개수와 오디오 객체의 개수를 독립적으로 저장할 수도 있다. 예를 들어, 오디오 로우데이터에 5.1 채널의 오디오 신호와 2개의 오디오 객체가 포함되어 있다면, 오디오 채널 및 오디오 객체의 개수 정보(420)는 (6, 2)와 같은 형식으로 표현될 수 있다. (6, 2)에서 "6"은 오디오 채널의 개수를, "2"는 오디오 객체의 개수를 나타낸다.
단, 오디오 채널 및 오디오 객체의 개수 정보(420)가 오디오 채널 및 오디오 객체의 개수를 표현하는 방식은 위의 기재에 한정되지 아니하며, 다양한 형식으로 오디오 채널 및 오디오 객체의 개수를 표현할 수 있다. 예를 들어, 오디오 채널 및 오디오 객체의 개수 정보(420)는 오디오 채널의 개수 "6", 오디오 객체의 개수 "2"와 같이 독립적으로 구성될 수 있다.
오디오 채널 및 오디오 객체의 이름 정보(430)는 오디오 로우데이터에 포함된 오디오 채널의 이름 및 오디오 객체의 이름을 나타낼 수 있다. 예를 들어, 오디오 로우데이터에 5.1 채널의 오디오 신호와 2개의 오디오 객체가 포함되어 있다면, 오디오 채널 및 오디오 객체의 이름 정보(430)는 (L, R, C, LFE, LS, RS, Piano, Drum)의 형식으로 표현될 수 있다. 또한, 이는 오디오 로우데이터에 포함된 오디오 신호의 이름이 차례대로 L, R, C, LFE, LS, RS, Piano, Drum임을 나타낼 수 있다. 즉, 오디오 채널 및 오디오 객체의 이름의 순서는 오디오 로우데이터에 저장된 오디오 신호의 순서에 기초하여 결정될 수 있다.
단, 오디오 채널 및 오디오 객체의 이름과 배열은 위의 기재에 한정되지 아니하며, 오디오 제작자가 임의대로 설정할 수 있다. 예를 들어, 오디오 객체의 이름이 오디오 채널의 이름 보다 먼저 배열될 수도 있다.
오디오 채널 및 오디오 객체의 위치 정보(440)는 오디오 신호가 공간적으로 어느 위치에 배치되어야 하는지를 나타낼 수 있다. 즉, 오디오 채널 및 오디오 객체의 위치 정보(440)는 오디오 채널 및 오디오 객체가 공간 상의 어느 위치에서 재생되어야 하는지를 나타내는 정보일 수 있다. 오디오 객체의 경우, 오디오 채널 및 오디오 객체의 위치 정보(440)는 오디오 객체의 재생을 위한 위치 정보의 초기값을 포함할 수 있다. 오디오 채널 및 오디오 객체의 위치 정보(440)는 수평 방위각 정보와 수직 방위각 정보로 구성될 수 있다.
수평 방위각 정보와 수직 방위각 정보는 도 6에 도시된 것처럼 기준이 설정될 수 있다. 수평 방위각은 도 6에서와 같이 사용자(610)가 정면을 바라볼 때, 지면에 수평한 면을 기준으로 정면을 기준점인 0도(620)로 하고, 시계방향을 (+) 방향으로 하여 기준을 설정할 수 있다. 수직 방위각도 도 6에서 도시된 것과 같이 사용자(630)가 정면을 바라볼 때, 지면에 수직인 면을 기준으로 정면을 기준점인 0도(640)로 하고, 위쪽방향을 (+) 방향으로 하여 기준을 설정할 수 있다. 어느 위치에 배치되어도 상관 없는 경우, 위치 정보(440)는 (null, null)으로 나타낼 수 있다.
예를 들어, 오디오 로우데이터가 2.0 채널의 오디오 신호와 1개의 오디오 객체 신호를 포함하고 있고, 오디오 채널 및 오디오 객체의 이름 정보(430)가 (L, R, Piano), 오디오 채널 및 오디오 객체의 위치 정보(440)가 [(330, 0), (30, 0), (10, 0)]이라면, 이는 L채널이 수평 330도, 수직 0도에, R채널은 수평 30도, 수직 0도에, Piano의 객체 신호는 수평 10도, 수직 0도에 배치되어야 한다는 것을 나타낸다.
오디오 객체의 이동 정보(450)는 공간 상에서 시간에 따라 오디오 객체의 재생 위치가 변동되는 경우, 각 시간에 따른 오디오 객체의 재생 위치를 나타내는 정보일 수 있다. 또한, 오디오 객체의 이동 정보(450)는 오디오 객체의 재생 시간 정보, 식별자 정보 및 재생될 위치 정보로 구성될 수 있다. 여기서, 오디오 객체가 재생될 위치 정보는 도 6에 도시된 기준에 기초하여 표현될 수 있다.
예를 들어, 오디오 객체의 이동 정보(450)는 (재생 시간 정보, 식별자 정보, 재생될 위치 정보)로 표현될 수 있다. 즉, 오디오 객체의 이동 정보(450)가 (15, 7, 5, 0)이라면, 이는 오디오 로우데이터가 재생되기 시작한 시점을 기준으로 15초 후에, 오디오 로우데이터에 포함된 7번째 오디오 신호는 방위각 (5도, 0도)의 위치에서 재생된다는 정보를 나타낼 수 있다.
단, 오디오 객체의 이동 정보(450)를 표현하는 방식은 위의 기재에 한정되지 아니하며, 오디오 객체의 이동 정보(450)를 구성하는 오디오 객체의 재생 시간 정보, 식별자 정보 및 재생될 위치 정보의 순서도 위의 기재에 한정되지 아니한다. 즉, 식별자 정보나 재생될 위치 정보가 재생 시간 정보보다 먼저 배열될 수도 있다. 또한, 식별자 정보도 오디오 로우데이터에 포함된 오디오 신호의 순서가 아닌, 오디오 객체의 이름으로 구성될 수 있다. 예를 들어, 오디오 객체의 이동 정보(450)는 (15, Piano, 5, 0)과 같이 표현될 수도 있다.
오디오 객체의 이동 정보(450)는 오디오 객체의 공간상에서의 이동을 나타내기 위해 (재생 시간 정보, 식별자 정보, 재생될 위치 정보)가 배열된 형태로 표현될 수 있다.
예를 들어, 오디오 객체의 이동 정보(450)는 [(15, 7, 5, 0), (16, 7, 10, 0), (17, 7, 15, 0), …]로 나타낼 수 있다. 이는, 오디오 로우데이터가 재생되기 시작한 시점을 기준으로 15초 후에 오디오 로우데이터에 포함된 7번째 오디오 신호가 (5도, 0도) 위치에서 재생되고, 16초 후에는 (10도, 0도) 위치에서 재생되며, 17초 후에는 (15도, 0도) 위치에서 재생됨을 나타낼 수 있다.
오디오 객체의 이동 정보(450)는 복수 개의 이동 정보를 포함할 수 있다. 즉, 오디오 객체의 이동 정보(450)는 오디오 로우데이터에 포함된 오디오 객체에 따라 각각의 이동 정보를 포함할 수 있다. 이와 관련하여, 오디오 객체의 이동 정보(450)는 오디오 채널 및 오디오 객체의 개수 정보(420)에 포함된 오디오 객체의 개수 정보와 연계될 수 있다. 즉, 오디오 객체의 이동 정보(450)가 포함할 수 있는 이동 정보는 오디오 채널 및 오디오 객체의 개수 정보(420)에 나타난 오디오 객체의 개수에 따라 달라질 수 있다.
오디오 채널의 하위 호환 정보(460)는 오디오 로우데이터에 포함된 오디오 채널의 신호를 조합하여 하위 채널로 변경하는 방식 정보를 나타낼 수 있다. 오디오 채널의 하위 호환 정보(460)는 오디오 로우데이터에 포함된 채널의 종류에 따라 복수 개의 하위 호환 정보를 포함할 수 있다.
예를 들어, 오디오 채널의 하위 호환 정보(460)는 7.1 채널을 가진 오디오 로우데이터가 어떻게 5.1 채널 또는 2.0 채널과 호환될 수 있는지를 나타낼 수 있다. 5.1 채널의 오디오 데이터는 2.0 채널로의 호환 정보를 포함할 수 있으며, 5.1 채널보다 많은 채널 수를 가진 오디오 데이터는 5.1 채널 또는 2.0 채널로의 호환 정보를 포함할 수 있다.
이상에서, 설명한 오디오 메타데이터(410)의 구성은 위의 기재에 한정되지 아니하며, 오디오 로우데이터에 포함된 오디오 신호와 관련된 다양한 정보를 추가적으로 포함할 수 있다. 또는, 오디오 메타데이터(410)는 위의 기재한 구성 중 일부만을 포함할 수도 있다.
오디오 데이터 제공 장치와 오디오 메타데이터 제공 장치가 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성함에 따라 오디오 데이터 재생 장치는 오디오 메타데이터에 기초하여 멀티채널과 오디오 객체가 포함된 오디오 로우데이터를 효과적으로 처리할 수 있다. 즉, 오디오 데이터 재생 장치는 오디오 메타데이터의 오디오 채널 정보 및 오디오 객체 정보를 통해 어드밴스드 객체기반 멀티채널 오디오 시스템을 구축할 수 있다. 특히, 오디오 메타데이터에 오디오 객체 정보를 포함함에 따라 사용자 인터랙션이 가능하게 되며, 기존 시스템과 호환될 수 있다.
또한, 메타데이터 형식을 이용함에 따라 오디오 제작자는 기존의 5.1 채널보다 더 많은 채널을 가진 멀티채널의 오디오 데이터를 다양한 방식으로 구현할 수 있으며, 멀티 객체의 표현을 용이하게 할 수 있다.
도 5는 일실시예에 따른 오디오 메타데이터의 일례를 도시한 도면이다.
도 5를 참조하면, 오디오 메타데이터(510)는 오디오 채널 및 오디오 객체의 개수 정보(520), 오디오 채널 및 오디오 객체의 이름 정보(530), 오디오 채널 및 오디오 객체의 위치 정보(540), 오디오 객체의 이동 정보(550), 및 오디오 채널의 하위 호환 정보(580)를 포함하고 있다.
오디오 채널 및 오디오 객체의 개수 정보(520)의 값은 "8"로, 오디오 로우데이터에 포함된 오디오 신호의 개수가 총 8개임을 나타낸다. 또는, 오디오 채널 및 오디오 객체의 개수 정보(520)는 도면에 기재된 방식과 다르게 (6, 2)의 형식(미도시)으로 표현될 수도 있다. 이 경우, (6, 2)는 오디오 로우데이터에 포함된 오디오 채널의 개수가 6개이고, 오디오 객체의 개수가 2개임을 나타낼 수 있다.
다른 실시예에 따르면, 오디오 채널 및 오디오 객체의 개수 정보(520)는 오디오 채널의 개수와 오디오 객체의 개수를 분리하여 표현(미도시)할 수도 있다. 이 경우, 오디오 채널 및 오디오 객체의 개수 정보(520)는 오디오 채널의 개수 "6"과 오디오 객체의 개수 "2"로 독립적으로 구성될 수 있다.
오디오 채널 및 오디오 객체의 이름 정보(530)는 (L, R, C, LFE, LS, RS, Piano, Drum)으로, 이에 기초하여 오디오 로우데이터에 포함된 오디오 신호들의 이름이 차례대로 L, R, C, LFE, LS, RS, Piano, Drum임을 알 수 있다. 오디오 재생 장치는 오디오 채널 및 오디오 객체의 이름 정보(530)를 통해 오디오 로우데이터에 5.1 채널의 오디오 신호와 2개의 오디오 객체가 포함되어 있음을 식별할 수 있다.
오디오 채널 및 오디오 객체의 위치 정보(540)에 따르면, L채널은 (330, 0)으로 수평 330도, 수직 0도에 배치되고, R채널은 (30, 0)으로 수평 30도, 수직 0도에 배치되며, C채널은 (0, 0)으로 수평 0도, 수직 0도에 배치된다는 것을 나타낸다. 또한, LFE채널은 (null, null)으로 어느 위치에 배치되어도 상관 없음을 나타내고, LS채널은 (250, 0)으로 수평 250도, 수직 0도에 배치되며, RS채널은 (110, 0)으로 수평 110도 수직 0도에 배치된다는 것을 나타낸다. 그리고, 오디오 객체인 Piano는 (15, 0)으로 수평 15도, 수직 0도에 배치되고, 오디오 객체 Drum은 (345, 0)으로 수평 345도, 수직 0도에 배치된다는 것을 나타낸다.
도 5에서, 오디오 객체의 이동 정보(550)는 오디오 객체인 Piano의 이동 정보(560)와 Drum의 이동 정보(570)를 포함하고 있다.
오디오 객체 Piano의 이동 정보(560)는 [(15, 7, 260, 0), (16, 7, 270, 5), (17, 7, 275, 10), …]로, 오디오 로우데이터에 포함된 7번째 신호인 Piano 오디오 신호는 오디오 로우데이터가 재생되기 시작한 시점을 기준으로 15초 후에 방위각 (260도, 0도)에서 재생되고, 16초 후에는 (270도, 5도)에서 재생되며, 17초 후에는 (275도, 10도)의 위치에서 재생됨을 나타낸다.
오디오 객체 Drum의 이동 정보(570)는 [(3, 8, 120, 5), (4, 8, 125, 10), (5, 8, 130, 5), …]로, 오디오 로우데이터에 포함된 8번째 신호인 Drum 오디오 신호는 오디오 로우데이터가 재생되기 시작한 시점을 기준으로 3초 후에 방위각 (120도, 5도)에서 재생되고, 4초 후에는 (125도, 10도)에서 재생되며, 5초 후에는 (130도, 5도)의 위치에서 재생됨을 나타낸다.
오디오 채널의 하위 호환 정보(580)는 2.0 채널로의 다운믹싱 정보를 포함하고 있다. 다운믹싱 정보는 다운믹싱을 위한 상수와 수식 정보를 포함할 수 있다. 일례에 따르면, 다운믹싱을 위한 수식 정보는 하위 채널 순서에 따라 저장될 수 있고, 하위 채널로의 변경을 위한 신호 조합 및 변환 정보를 포함할 수 있다.
오디오 채널의 하위 호환 정보(580)는 다운믹싱을 위한 수식 정보가 복수 개인 경우, 차례대로 수식 정보를 포함할 수 있으며, 각각의 수식 정보에 적용되는 복수 개의 상수를 포함할 수 있다.
예를 들어, 오디오 채널의 하위 호환 정보(580)는 아래 표 1과 같은 다운믹싱 정보를 포함할 수 있다.
채널 레이아웃 채널 매트릭싱(channel matrixing)
(a와 k는 임의의 상수)
5.1 -> 2.0
Figure 112012066873298-pat00001
Figure 112012066873298-pat00002
위 표 1에서, 상수인 a와 k는 오디오 제작자가 만든 임의의 상수이며, L, R, C, LFE, LS 및 RS는 오디오 로우데이터에 포함된 각 채널의 오디오 신호를 나타낸다. 각 채널의 오디오 신호는 오디오 채널 및 오디오 객체의 이름 정보(530)에 기초하여 식별될 수 있다. 오디오 채널의 하위 호환 정보(580)는 표 1의 채널 매트릭싱에 나타난 수식 정보를 포함할 수 있고, 오디오 데이터 재생 장치는 이를 이용하여 채널 호환을 수행할 수 있다. 상술한 실시예는 5.1채널에서 2.0채널로의 다운믹싱의 한 예를 설명한 것에 불과하고, 여러 변형 및 임의적인 설정이 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (18)

  1. 오디오 신호의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 단계;
    상기 생성된 오디오 메타데이터와 상기 오디오 신호를 오디오 데이터 재생 장치에 전송하는 단계
    를 포함하고,
    상기 오디오 신호는,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보를 비교한 결과에 기초하여 재생되고,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보가 다른 경우, 재생 환경 정보에 따라 오디오 신호의 채널의 속성이 변경되어 재생되는 오디오 데이터 제공 방법.
  2. 제1항에 있어서,
    상기 오디오 메타데이터는,
    오디오 채널 및 오디오 객체의 개수 정보, 오디오 채널 및 오디오 객체의 이름 정보, 오디오 채널 및 오디오 객체의 위치 정보, 오디오 객체의 이동 정보, 및 오디오 채널의 하위 호환 정보 중 적어도 하나를 포함하는 오디오 데이터 제공 방법.
  3. 제2항에 있어서,
    상기 오디오 객체의 이동 정보는,
    공간 상에서 시간에 따라 오디오 객체의 재생 위치가 변동되는 경우, 각 시간에 따른 오디오 객체의 재생 위치를 나타내는 정보인 오디오 데이터 제공 방법.
  4. 제3항에 있어서,
    상기 오디오 객체의 이동 정보는,
    오디오 객체의 재생 시간 정보, 식별자 정보 및 재생될 위치 정보로 구성된 정보인 오디오 데이터 제공 방법.
  5. 제2항에 있어서,
    상기 오디오 채널 및 오디오 객체의 개수 정보는,
    오디오 신호에 포함된 오디오 채널 및 오디오 객체의 개수를 나타내는 정보인 오디오 데이터 제공 방법.
  6. 제2항에 있어서,
    상기 오디오 채널 및 오디오 객체의 위치 정보는,
    오디오 채널 및 오디오 객체가 공간 상의 어느 위치에서 재생되어야 하는지를 나타내는 정보인 오디오 데이터 제공 방법.
  7. 제6항에 있어서,
    상기 오디오 채널 및 오디오 객체의 위치 정보는,
    수평 방위각 정보 및 수직 방위각 정보로 구성된 정보인 오디오 데이터 제공 방법.
  8. 오디오 신호의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 단계; 및
    상기 생성된 오디오 메타데이터를 오디오 데이터 재생 장치에 전송하는 단계
    를 포함하고,
    상기 오디오 신호는,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보를 비교한 결과에 기초하여 재생되고,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보가 다른 경우, 재생 환경 정보에 따라 오디오 신호의 채널의 속성이 변경되어 재생되는 오디오 메타데이터 제공 방법.
  9. 제8항에 있어서,
    상기 오디오 메타데이터는,
    오디오 채널 및 오디오 객체의 개수 정보, 오디오 채널 및 오디오 객체의 이름 정보, 오디오 채널 및 오디오 객체의 위치 정보, 오디오 객체의 이동 정보, 및 오디오 채널의 하위 호환 정보 중 적어도 하나를 포함하는 오디오 메타데이터 제공 방법.
  10. 제9항에 있어서,
    상기 오디오 객체의 이동 정보는,
    공간 상에서 시간에 따라 오디오 객체의 재생 위치가 변동되는 경우, 각 시간에 따른 오디오 객체의 재생 위치를 나타내는 정보인 오디오 메타데이터 제공 방법.
  11. 제10항에 있어서,
    상기 오디오 객체의 이동 정보는,
    오디오 객체의 재생 시간 정보, 식별자 정보 및 재생될 위치 정보로 구성된 정보인 오디오 메타데이터 제공 방법.
  12. 오디오 데이터 제공 장치로부터 수신한 오디오 메타데이터에 포함된 오디오 채널 정보 및 오디오 객체 정보를 분석하는 단계; 및
    상기 분석된 오디오 채널 정보 및 상기 분석된 오디오 객체 정보에 기초하여 오디오 신호를 재생하는 단계
    를 포함하고,
    상기 오디오 신호는,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보를 비교한 결과에 기초하여 재생되고,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보가 다른 경우, 재생 환경 정보에 따라 오디오 신호의 채널의 속성이 변경되어 재생되는 오디오 데이터 재생 방법.
  13. 제12항에 있어서,
    상기 오디오 메타데이터는,
    오디오 채널 및 오디오 객체의 개수 정보, 오디오 채널 및 오디오 객체의 이름 정보, 오디오 채널 및 오디오 객체의 위치 정보, 오디오 객체의 이동 정보, 및 오디오 채널의 하위 호환 정보 중 적어도 하나를 포함하는 오디오 데이터 재생 방법.
  14. 제13항에 있어서,
    상기 오디오 객체의 이동 정보는,
    공간 상에서 시간에 따라 오디오 객체의 재생 위치가 변동되는 경우, 각 시간에 따른 오디오 객체의 재생 위치를 나타내는 정보인 오디오 데이터 재생 방법.
  15. 제14항에 있어서,
    상기 오디오 객체의 이동 정보는,
    오디오 객체의 재생 시간 정보, 식별자 정보 및 재생될 위치 정보로 구성된 정보인 오디오 데이터 재생 방법.
  16. 오디오 신호의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 오디오 메타데이터 생성부;
    상기 생성된 오디오 메타데이터와 상기 오디오 신호를 결합하여 오디오 데이터를 생성하는 오디오 데이터 생성부; 및
    상기 생성된 오디오 데이터를 오디오 데이터 재생 장치에 전송하는 오디오 데이터 전송부
    를 포함하고,
    상기 오디오 신호는,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보를 비교한 결과에 기초하여 재생되고,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보가 다른 경우, 재생 환경 정보에 따라 오디오 신호의 채널의 속성이 변경되어 재생되는 오디오 데이터 제공 장치.
  17. 오디오 신호의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 오디오 메타데이터 생성부; 및
    상기 생성된 오디오 메타데이터를 오디오 데이터 재생 장치에 전송하는 오디오 메타데이터 전송부
    를 포함하고,
    상기 오디오 신호는,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보를 비교한 결과에 기초하여 재생되고,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보가 다른 경우, 재생 환경 정보에 따라 오디오 신호의 채널의 속성이 변경되어 재생되는 오디오 메타데이터 제공 장치.
  18. 오디오 데이터 제공 장치로부터 수신한 오디오 메타데이터에 포함된 오디오 채널 정보 및 오디오 객체 정보를 분석하는 오디오 메타데이터 분석부; 및
    상기 분석된 오디오 채널 정보 및 상기 분석된 오디오 객체 정보에 기초하여 오디오 신호를 재생하는 오디오 신호 재생부
    를 포함하고,
    상기 오디오 신호는,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보를 비교한 결과에 기초하여 재생되고,
    상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보가 다른 경우, 재생 환경 정보에 따라 오디오 신호의 채널의 속성이 변경되어 재생되는 오디오 데이터 재생 장치.
KR1020120091086A 2012-05-14 2012-08-21 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치 KR101935020B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120051130 2012-05-14
KR1020120051130 2012-05-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180170535A Division KR102071431B1 (ko) 2012-05-14 2018-12-27 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20130127344A KR20130127344A (ko) 2013-11-22
KR101935020B1 true KR101935020B1 (ko) 2019-01-03

Family

ID=49854967

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020120091086A KR101935020B1 (ko) 2012-05-14 2012-08-21 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치
KR1020180170535A KR102071431B1 (ko) 2012-05-14 2018-12-27 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치
KR1020200008401A KR102220527B1 (ko) 2012-05-14 2020-01-22 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치
KR1020210022742A KR102370672B1 (ko) 2012-05-14 2021-02-19 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020180170535A KR102071431B1 (ko) 2012-05-14 2018-12-27 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치
KR1020200008401A KR102220527B1 (ko) 2012-05-14 2020-01-22 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치
KR1020210022742A KR102370672B1 (ko) 2012-05-14 2021-02-19 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치

Country Status (1)

Country Link
KR (4) KR101935020B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101875669B1 (ko) * 2014-07-01 2018-08-02 엘지전자 주식회사 외부 장치를 이용한 방송 데이터 처리 방법 및 장치
KR20230047844A (ko) * 2021-10-01 2023-04-10 삼성전자주식회사 영상을 제공하는 방법 및 이를 지원하는 전자 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110040395A1 (en) * 2009-08-14 2011-02-17 Srs Labs, Inc. Object-oriented audio streaming system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100733965B1 (ko) * 2005-11-01 2007-06-29 한국전자통신연구원 객체기반 오디오 전송/수신 시스템 및 그 방법
US8452430B2 (en) * 2008-07-15 2013-05-28 Lg Electronics Inc. Method and an apparatus for processing an audio signal
DE102010030534A1 (de) * 2010-06-25 2011-12-29 Iosono Gmbh Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion
US8908874B2 (en) * 2010-09-08 2014-12-09 Dts, Inc. Spatial audio encoding and reproduction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110040395A1 (en) * 2009-08-14 2011-02-17 Srs Labs, Inc. Object-oriented audio streaming system

Also Published As

Publication number Publication date
KR20210022600A (ko) 2021-03-03
KR20190004248A (ko) 2019-01-11
KR20130127344A (ko) 2013-11-22
KR20200011522A (ko) 2020-02-03
KR102370672B1 (ko) 2022-03-07
KR102220527B1 (ko) 2021-02-25
KR102071431B1 (ko) 2020-03-02

Similar Documents

Publication Publication Date Title
CN103649706B (zh) 三维音频音轨的编码及再现
US7912566B2 (en) System and method for transmitting/receiving object-based audio
CN101981617B (zh) 多对象音频信号的附加信息比特流产生方法和装置
JP6407155B2 (ja) オーディオデータ生成装置及びオーディオデータ再生装置
KR101682323B1 (ko) 음향 신호 기술 방법, 음향 신호 생성 장치 및 음향 신호 재생 장치
KR102370672B1 (ko) 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치
KR101915258B1 (ko) 오디오 메타데이터 제공 장치 및 방법, 오디오 데이터 제공 장치 및 방법, 오디오 데이터 재생 장치 및 방법
US10547962B2 (en) Speaker arranged position presenting apparatus
US10999678B2 (en) Audio signal processing device and audio signal processing system
KR102049602B1 (ko) 멀티미디어 데이터 생성 장치 및 방법, 멀티미디어 데이터 재생 장치 및 방법
KR102439339B1 (ko) 멀티미디어 데이터 생성 장치 및 방법, 멀티미디어 데이터 재생 장치 및 방법
JP7441057B2 (ja) オーディオオーサリング装置、オーディオレンダリング装置、送信装置、受信装置、及び方法
KR102217997B1 (ko) 멀티미디어 데이터 생성 장치 및 방법, 멀티미디어 데이터 재생 장치 및 방법
KR20180121452A (ko) 오디오 메타데이터 제공 장치 및 방법, 오디오 데이터 제공 장치 및 방법, 오디오 데이터 재생 장치 및 방법
KR102631005B1 (ko) 멀티미디어 데이터 생성 장치 및 방법, 멀티미디어 데이터 재생 장치 및 방법
KR101187075B1 (ko) 오디오 신호 처리 방법 및 장치
KR102421292B1 (ko) 오디오 객체 신호 재생 시스템 및 그 방법
JP2006279555A (ja) 信号再生装置及び信号再生方法
KR20170095105A (ko) 하이브리드 오디오 신호의 메타 데이터 생성 장치 및 그 방법
KR20090066190A (ko) 대화형 오디오 송/수신 장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant