KR102370672B1 - Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data - Google Patents

Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data Download PDF

Info

Publication number
KR102370672B1
KR102370672B1 KR1020210022742A KR20210022742A KR102370672B1 KR 102370672 B1 KR102370672 B1 KR 102370672B1 KR 1020210022742 A KR1020210022742 A KR 1020210022742A KR 20210022742 A KR20210022742 A KR 20210022742A KR 102370672 B1 KR102370672 B1 KR 102370672B1
Authority
KR
South Korea
Prior art keywords
audio
information
channel
metadata
data
Prior art date
Application number
KR1020210022742A
Other languages
Korean (ko)
Other versions
KR20210022600A (en
Inventor
유재현
이태진
강경옥
서정일
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20210022600A publication Critical patent/KR20210022600A/en
Application granted granted Critical
Publication of KR102370672B1 publication Critical patent/KR102370672B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Stereophonic System (AREA)

Abstract

오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 및 오디오 데이터 재생 방법 및 장치가 개시된다. 오디오 데이터 제공 방법은 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 단계; 상기 생성된 오디오 메타데이터와 상기 오디오 로우데이터를 결합하여 오디오 데이터를 생성하는 단계; 및 상기 생성된 오디오 데이터를 오디오 데이터 재생 장치에 전송하는 단계를 포함할 수 있다.Disclosed are a method and apparatus for providing audio data, a method and apparatus for providing audio metadata, and a method and apparatus for reproducing audio data. The method of providing audio data includes: generating audio metadata including audio channel information and audio object information of raw audio data; generating audio data by combining the generated audio metadata with the audio raw data; and transmitting the generated audio data to an audio data reproducing apparatus.

Description

오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING AUDIO DATA, METHOD AND APPARATUS FOR PROVIDING AUDIO METADATA, METHOD AND APPARATUS FOR PLAYING AUDIO DATA}Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data

아래의 설명은 오디오 메타데이터가 포함된 오디오 데이터를 오디오 재생 장치에 제공하는 방법에 관한 것으로, 보다 구체적으로는 오디오 채널 정보 및 오디오 객체 정보를 포함하는 메타데이터를 이용하여 오디오 신호를 표현하는 방법에 관한 것이다.The following description relates to a method of providing audio data including audio metadata to an audio reproducing apparatus, and more specifically, to a method of expressing an audio signal using metadata including audio channel information and audio object information. it's about

오디오 데이터를 멀티채널로 구현하기 위해서는 오디오 컨텐츠가 몇 개의 오디오 신호로 만들어져 있는지, 어떤 채널을 공간 상의 어떤 위치에 배치해야 하는지에 관한 정보를 필요로 한다. 5.1 채널의 오디오 데이터는 총 6개의 오디오 신호가 0, +30, +110, +250, +330, null 도 위치에서 제작 및 재생되는 것을 기본 조건으로 하고 있다. 최근에는 여러 개의 스피커를 수평면 이외의 위치에 배치하여 독자적인 방식으로 멀티채널을 표현하는 방법이 연구되고 있다.In order to implement audio data in a multi-channel format, information on how many audio signals are made of audio content and which channels are to be placed at which positions in space is required. For 5.1 channel audio data, the basic condition is that a total of 6 audio signals are produced and reproduced at positions 0, +30, +110, +250, +330, and null. Recently, a method of expressing multi-channel in a unique way by arranging several speakers in a position other than a horizontal plane is being studied.

객체 기반 오디오 처리 기술은 하나의 음원을 구성하는 다양한 종류의 객체 오디오 소스를 각각 제어 가능하게 하여 객체 기반 오디오 컨텐츠의 생성 및 수정을 가능하게 하는 기술이다. 일반적으로 객체 기반 오디오 처리 기술에서는 여러 개의 악기로 만든 오디오 객체를 생성하고, 이를 믹싱하여 사용한다. 오디오 객체를 기반으로 한 오디오 제어 기술은 필요에 따라 오디오 객체 단위로 오디오 신호를 제어함에 따라 음원 제작자와 사용자에게 능동형 오디오 서비스를 제공할 수 있다.The object-based audio processing technology is a technology that enables the creation and modification of object-based audio content by enabling control of various types of object audio sources constituting one sound source, respectively. In general, in object-based audio processing technology, an audio object made of several musical instruments is created, and the audio object is mixed and used. An audio control technology based on an audio object may provide an active audio service to a sound source producer and a user by controlling an audio signal in units of audio objects if necessary.

MPEG-4 Audio BIFS에서는 객체 기반 오디오 데이터 처리 방식에 관해서 설명하고 있다. 이 방식은 오디오 컨텐츠의 제작, 전송, 및 재생에 있어서 기존의 채널 기반 신호가 아닌 객체 기반 신호만을 이용하고 있어서, 사용자 인터랙션을 제공할 수 있다.MPEG-4 Audio BIFS describes an object-based audio data processing method. This method uses only object-based signals instead of existing channel-based signals in production, transmission, and reproduction of audio content, so that user interaction can be provided.

최근 UHDTV 기술이 개발되고, HDTV에서 제공하던 5.1 채널보다 많은 스피커를 사용하면서 보다 사실감이 높은 오디오 재생 방식에 대한 연구가 크게 관심을 받고 있다. 또한, 채널 기반 오디오 시스템과 객체 기반 오디오 시스템을 융합하는 기술이 개발되고 있으며, 이에 사용자 인터랙션을 가능하게 하면서, 기존 오디오 시스템과 호환될 수 있는 오디오 처리 기술이 요구되고 있다.With the recent development of UHDTV technology and the use of more speakers than 5.1 channels provided by HDTV, research on a more realistic audio reproduction method is receiving great attention. In addition, a technology for merging a channel-based audio system and an object-based audio system is being developed, and an audio processing technology that enables user interaction and is compatible with an existing audio system is required.

일실시예에 따른 오디오 데이터 제공 방법은, 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 단계; 상기 생성된 오디오 메타데이터와 상기 오디오 로우데이터를 결합하여 오디오 데이터를 생성하는 단계; 및 상기 생성된 오디오 데이터를 오디오 데이터 재생 장치에 전송하는 단계를 포함할 수 있다.A method of providing audio data according to an embodiment includes: generating audio metadata including audio channel information and audio object information of raw audio data; generating audio data by combining the generated audio metadata with the audio raw data; and transmitting the generated audio data to an audio data reproducing apparatus.

일실시예에 따른 오디오 메타데이터 제공 방법은, 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 단계; 및 상기 생성된 오디오 메타데이터를 오디오 데이터 재생 장치에 전송하는 단계를 포함할 수 있다.According to an embodiment, a method of providing audio metadata includes: generating audio metadata including audio channel information and audio object information of raw audio data; and transmitting the generated audio metadata to an audio data reproducing apparatus.

일실시예에 따른 오디오 데이터 재생 방법은, 오디오 데이터 제공 장치로부터 오디오 데이터를 수신하는 단계; 상기 수신한 오디오 데이터에서 오디오 메타데이터에 포함된 오디오 채널 정보 및 오디오 객체 정보를 분석하는 단계; 및 상기 분석된 오디오 채널 정보 및 상기 분석된 오디오 객체 정보에 기초하여 상기 오디오 로우데이터를 재생하는 단계를 포함할 수 있다.A method of reproducing audio data according to an embodiment includes the steps of: receiving audio data from an audio data providing apparatus; analyzing audio channel information and audio object information included in audio metadata from the received audio data; and reproducing the audio raw data based on the analyzed audio channel information and the analyzed audio object information.

일실시예에 따른 오디오 데이터 제공 장치는, 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 오디오 메타데이터 생성부; 상기 생성된 오디오 메타데이터와 상기 오디오 로우데이터를 결합하여 오디오 데이터를 생성하는 오디오 데이터 생성부; 및 상기 생성된 오디오 데이터를 오디오 데이터 재생 장치에 전송하는 오디오 데이터 전송부를 포함할 수 있다.According to an embodiment, an apparatus for providing audio data includes an audio metadata generator configured to generate audio metadata including audio channel information and audio object information of raw audio data; an audio data generator for generating audio data by combining the generated audio metadata with the audio raw data; and an audio data transmitter for transmitting the generated audio data to an audio data reproducing apparatus.

일실시예에 따른 오디오 메타데이터 제공 장치는, 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성하는 오디오 메타데이터 생성부; 및 상기 생성된 오디오 메타데이터를 오디오 데이터 재생 장치에 전송하는 오디오 메타데이터 전송부를 포함할 수 있다.According to an exemplary embodiment, an apparatus for providing audio metadata includes an audio metadata generator configured to generate audio metadata including audio channel information and audio object information of raw audio data; and an audio metadata transmitter configured to transmit the generated audio metadata to an audio data reproducing apparatus.

일실시예에 따른 오디오 데이터 재생 장치는, 오디오 데이터 제공 장치로부터 오디오 데이터를 수신하는 오디오 데이터 수신부; 상기 수신한 오디오 데이터에서 오디오 메타데이터에 포함된 오디오 채널 정보 및 오디오 객체 정보를 분석하는 오디오 메타데이터 분석부; 및 상기 분석된 오디오 채널 정보 및 상기 분석된 오디오 객체 정보에 기초하여 상기 오디오 로우데이터를 재생하는 오디오 로우데이터 재생부를 포함할 수 있다.An audio data reproducing apparatus according to an exemplary embodiment includes an audio data receiver configured to receive audio data from an audio data providing apparatus; an audio metadata analyzer for analyzing audio channel information and audio object information included in audio metadata from the received audio data; and an audio raw data reproducing unit that reproduces the audio raw data based on the analyzed audio channel information and the analyzed audio object information.

도 1은 일실시예에 따른 오디오 데이터의 구성을 도시한 도면이다.
도 2는 일실시예에 따른 오디오 데이터를 제공하는 동작을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 오디오 메타데이터를 제공하는 동작을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 오디오 메타데이터의 구성을 도시한 도면이다.
도 5는 일실시예에 따른 오디오 메타데이터의 일례를 도시한 도면이다.
도 6은 일실시예에 따른 위치 정보의 기준을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 오디오 데이터 제공 방법을 도시한 흐름도이다.
도 8은 일실시예에 따른 오디오 메타데이터 제공 방법을 도시한 흐름도이다.
도 9는 일실시예에 따른 오디오 데이터 재생 방법을 도시한 흐름도이다.
1 is a diagram illustrating a configuration of audio data according to an exemplary embodiment.
2 is a diagram for explaining an operation of providing audio data according to an exemplary embodiment.
3 is a diagram for explaining an operation of providing audio metadata according to an exemplary embodiment.
4 is a diagram illustrating a configuration of audio metadata according to an embodiment.
5 is a diagram illustrating an example of audio metadata according to an embodiment.
6 is a diagram for explaining a reference of location information according to an embodiment.
7 is a flowchart illustrating a method of providing audio data according to an exemplary embodiment.
8 is a flowchart illustrating a method of providing audio metadata according to an embodiment.
9 is a flowchart illustrating a method of reproducing audio data according to an exemplary embodiment.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 일실시예에 따른 오디오 데이터 제공 방법은 오디오 데이터 제공 장치에 의해 수행될 수 있으며, 일실시예에 따른 오디오 메타데이터 제공 방법은 오디오 메타데이터 제공 장치에 의해 수행될 수 있다. 또한, 일실시예에 따른 오디오 데이터 재생 방법은 오디오 데이터 재생 장치에 의해 수행될 수 있다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The method for providing audio data according to an embodiment may be performed by an audio data providing apparatus, and the method for providing audio metadata according to an embodiment may be performed by an audio metadata providing apparatus. Also, the audio data reproducing method according to an embodiment may be performed by an audio data reproducing apparatus. Like reference numerals in each figure indicate like elements.

도 1은 일실시예에 따른 오디오 데이터의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of audio data according to an exemplary embodiment.

도 1을 참조하면, 오디오 데이터(110)는 오디오 로우데이터(audio raw data) (120)와 오디오 메타데이터(130)를 포함할 수 있다.Referring to FIG. 1 , audio data 110 may include audio raw data 120 and audio metadata 130 .

오디오 로우데이터(120)는 재생하려는 오디오 신호를 나타내며, 다양한 오디오 채널 및 오디오 객체를 포함할 수 있다. 예를 들어, 5.1 채널의 오디오 데이터(110)인 경우, 오디오 로우데이터(120)는 L(Left), R(Right), C(Center), LFE(Low Frequency Effect), LS(Left Side), RS(Right Side) 채널과 관련된 각각의 오디오 신호를 포함할 수 있다. 또한, 오디오 로우데이터(120)는 오디오 채널(140)과 함께 Piano, Drum, Guitar, Vocal 등과 같은 오디오 객체(150)를 포함할 수도 있다. 단, 오디오 데이터(110)가 포함할 수 있는 오디오 채널(140)의 종류와 오디오 객체(150)의 종류는 위의 기재에 한정되지 아니한다.The audio raw data 120 represents an audio signal to be reproduced, and may include various audio channels and audio objects. For example, in the case of 5.1-channel audio data 110, the audio raw data 120 is L (Left), R (Right), C (Center), LFE (Low Frequency Effect), LS (Left Side), It may include each audio signal related to the RS (Right Side) channel. In addition, the audio raw data 120 may include an audio object 150 such as Piano, Drum, Guitar, Vocal, etc. together with the audio channel 140 . However, the type of the audio channel 140 and the type of the audio object 150 that may be included in the audio data 110 are not limited to the above description.

오디오 메타데이터(130)는 오디오 채널 및 오디오 객체의 재생과 관련된 메타데이터를 나타낸다. 오디오 메타데이터(130)는 오디오 로우데이터(120)에 포함된 오디오 채널 및 오디오 객체의 재생과 관련된 정보를 포함할 수 있으며, 이에 대한 자세한 설명은 도 4에서 후술한다.The audio metadata 130 represents metadata related to reproduction of an audio channel and an audio object. The audio metadata 130 may include information related to reproduction of an audio channel and an audio object included in the audio raw data 120 , and a detailed description thereof will be described later with reference to FIG. 4 .

도 2는 일실시예에 따른 오디오 데이터를 제공하는 동작을 설명하기 위한 도면이다.2 is a diagram for explaining an operation of providing audio data according to an exemplary embodiment.

도 2를 참조하면, 오디오 데이터 제공 장치(210)는 오디오 메타데이터 생성부(220), 오디오 데이터 생성부(230), 및 오디오 데이터 전송부(240)를 포함할 수 있다. 오디오 데이터 제공 장치(210)는 도 7에 도시된 오디오 데이터 제공 방법을 수행할 수 있다.Referring to FIG. 2 , the audio data providing apparatus 210 may include an audio metadata generator 220 , an audio data generator 230 , and an audio data transmitter 240 . The audio data providing apparatus 210 may perform the audio data providing method illustrated in FIG. 7 .

단계(710)에서, 오디오 메타데이터 생성부(220)는 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성할 수 있다. 구체적으로, 오디오 메타데이터 생성부(220)는 오디오 로우데이터를 분석하여, 오디오 신호의 채널 정보 및 객체 정보를 오디오 메타데이터 형식으로 생성할 수 있다.In operation 710 , the audio metadata generator 220 may generate audio metadata including audio channel information and audio object information of raw audio data. In detail, the audio metadata generator 220 may analyze raw audio data to generate channel information and object information of an audio signal in an audio metadata format.

오디오 메타데이터 생성부(220)가 생성한 오디오 메타데이터는 오디오 채널 및 오디오 객체의 개수 정보, 오디오 채널 및 오디오 객체의 이름 정보, 오디오 채널 및 오디오 객체의 위치 정보, 오디오 객체의 이동 정보, 및 오디오 채널의 하위 호환 정보 중 적어도 하나를 포함할 수 있다. 오디오 메타데이터에 포함된 각 정보에 대한 자세한 설명은 도 4에서 후술한다.The audio metadata generated by the audio metadata generator 220 includes information on the number of audio channels and audio objects, name information of audio channels and audio objects, location information of audio channels and audio objects, movement information of audio objects, and audio It may include at least one of backward compatibility information of a channel. A detailed description of each piece of information included in the audio metadata will be described later with reference to FIG. 4 .

단계(720)에서, 오디오 데이터 생성부(230)는 오디오 메타데이터 생성부(220)가 생성한 오디오 메타데이터와 오디오 로우데이터를 결합하여 오디오 데이터를 생성할 수 있다.In operation 720 , the audio data generator 230 may generate audio data by combining the audio metadata generated by the audio metadata generator 220 with the raw audio data.

오디오 데이터 생성부(230)는 오디오 로우데이터 또는 오디오 메타데이터를 독립적으로 코딩하거나 오디오 로우데이터와 오디오 메타데이터를 함께 코딩할 수 있다.The audio data generator 230 may independently code raw audio data or audio metadata, or may code raw audio data and audio metadata together.

단계(730)에서, 오디오 데이터 전송부(240)는 오디오 데이터 생성부(230)가 생성한 오디오 데이터를 오디오 데이터 재생 장치(250)에 전송할 수 있다. 구체적으로, 오디오 데이터 전송부(240)는 코딩된 오디오 데이터를 멀티플렉싱(multiplexing) 처리하여 오디오 데이터 재생 장치(250)에 전송할 수 있다. 여기서 멀티플렉싱이란 여러 신호를 합쳐 한 개의 신호로 처리하는 방식을 나타낸다.In operation 730 , the audio data transmitter 240 may transmit the audio data generated by the audio data generator 230 to the audio data reproducing apparatus 250 . Specifically, the audio data transmitter 240 may multiplex the coded audio data and transmit it to the audio data reproducing apparatus 250 . Here, multiplexing refers to a method of combining multiple signals and processing them into one signal.

또한, 도 2를 참조하면, 오디오 데이터 재생 장치(250)는 오디오 데이터 수신부(260), 오디오 메타데이터 분석부(270), 및 오디오 로우데이터 재생부(280)를 포함할 수 있다. 오디오 데이터 재생 장치(250)는 도 9에 도시된 오디오 데이터 재생 방법을 수행할 수 있다.Also, referring to FIG. 2 , the audio data reproducing apparatus 250 may include an audio data receiving unit 260 , an audio metadata analyzing unit 270 , and an audio raw data reproducing unit 280 . The audio data reproducing apparatus 250 may perform the audio data reproducing method illustrated in FIG. 9 .

단계(910)에서, 오디오 데이터 수신부(260)는 오디오 데이터 제공 장치(210)로부터 오디오 데이터를 수신할 수 있다.In operation 910 , the audio data receiving unit 260 may receive audio data from the audio data providing apparatus 210 .

단계(920)에서, 오디오 메타데이터 분석부(270)는 오디오 데이터 수신부(260)가 수신한 오디오 데이터에서 오디오 메타데이터에 포함된 오디오 채널 정보 및 오디오 객체 정보를 분석할 수 있다.In operation 920 , the audio metadata analyzer 270 may analyze audio channel information and audio object information included in the audio metadata from the audio data received by the audio data receiver 260 .

오디오 메타데이터 분석부(270)는 수신한 오디오 데이터를 디멀티플렉싱 (demultiplexing) 하거나 디코딩할 수 있다. 오디오 메타데이터 분석부(270)는 디멀티플렉싱 또는 디코딩을 통해 오디오 데이터에서 오디오 로우데이터와 오디오 메타데이터를 분리할 수 있으며, 오디오 로우데이터에서 각각의 채널 별 오디오 신호 및 오디오 객체 신호를 추출할 수 있다.The audio metadata analyzer 270 may demultiplex or decode the received audio data. The audio metadata analyzer 270 may separate raw audio data and audio metadata from audio data through demultiplexing or decoding, and may extract an audio signal and an audio object signal for each channel from the audio raw data. .

오디오 메타데이터 분석부(270)는 오디오 데이터를 오디오 로우데이터와 오디오 메타데이터로 분리할 수 있고, 사용자는 분리된 오디오 로우데이터와 오디오 메타데이터를 이용하여 추가적인 수정 작업을 수행할 수 있다.The audio metadata analyzer 270 may separate audio data into raw audio data and audio metadata, and the user may perform additional correction using the separated audio raw data and audio metadata.

오디오 메타데이터에는 오디오 채널 및 오디오 객체의 개수 정보, 오디오 채널 및 오디오 객체의 이름 정보, 오디오 채널 및 오디오 객체의 위치 정보, 오디오 객체의 이동 정보, 및 오디오 채널의 하위 호환 정보 중 적어도 하나가 포함될 수 있다. 오디오 메타데이터에 포함된 각 정보에 대한 자세한 설명은 도 4에서 후술한다.Audio metadata may include at least one of number information of audio channels and audio objects, name information of audio channels and audio objects, location information of audio channels and audio objects, movement information of audio objects, and backward compatibility information of audio channels. there is. A detailed description of each piece of information included in the audio metadata will be described later with reference to FIG. 4 .

오디오 로우데이터 재생부(280)는 오디오 메타데이터에 포함된 채널 정보와 재생 환경 정보에 포함된 채널 정보를 비교할 수 있다. 여기서 재생 환경 정보란 가정의 TV 시스템이나 A/V 리시버 등의 스피커 배치 상황과 같은 오디오 데이터 재생 장치의 오디오 환경 설정 정보를 나타낼 수 있다.The audio raw data reproducing unit 280 may compare channel information included in the audio metadata with channel information included in the reproduction environment information. Here, the reproduction environment information may indicate audio environment setting information of the audio data reproducing apparatus, such as the arrangement of speakers such as a TV system at home or an A/V receiver.

단계(930)에서, 오디오 로우데이터 재생부(280)는 재생 환경 정보에 포함된 채널이 오디오 로우데이터에 포함된 채널보다 하위 채널인 경우, 오디오 메타데이터에 포함된 오디오 채널의 하위 호환 정보에 기초하여 오디오 로우데이터의 오디오 채널을 하위 채널로 변경할 수 있다.In operation 930, when the channel included in the playback environment information is a lower channel than the channel included in the raw audio data, the raw audio data reproducing unit 280 based on backward compatibility information of the audio channel included in the audio metadata. Thus, the audio channel of the audio raw data can be changed to a lower channel.

예를 들어, 오디오 로우데이터에 포함된 채널의 개수가 "6"이고, 오디오 데이터 재생 장치(250)의 재생 환경 정보에 포함된 설정 채널 수가 "2"라고 한다면, 오디오 로우데이터 재생부(280)는 오디오 메타데이터에 포함된 하위 호환 정보에 기초하여 수신한 오디오 데이터를 2.0 채널의 하위 채널로 다운믹싱할 수 있다. 여기서 다운믹싱이란 여러 채널이 합쳐진 오디오 데이터를 낮은 수의 채널을 갖는 오디오 데이터로 변환하는 것을 나타낸다. 이를 통해, 오디오 데이터 재생 장치(250)는 재생 환경 정보에 포함된 설정 채널 수보다 많은 채널을 가진 오디오 데이터를 수신하더라도 채널 호환을 통해 상위 채널의 오디오 데이터를 재생할 수 있다.For example, if the number of channels included in the audio raw data is “6” and the set number of channels included in the playback environment information of the audio data playback apparatus 250 is “2”, the audio raw data playback unit 280 may downmix the received audio data into a 2.0-channel sub-channel based on backward compatibility information included in the audio metadata. Here, downmixing refers to converting audio data in which several channels are combined into audio data having a low number of channels. Through this, the audio data reproducing apparatus 250 may reproduce the audio data of the upper channel through channel compatibility even when receiving audio data having more channels than the set number of channels included in the reproduction environment information.

단계(940)에서, 오디오 로우데이터 재생부(280)는 오디오 메타데이터 분석부(270)가 분석한 오디오 채널 정보 및 오디오 객체 정보에 기초하여 오디오 로우데이터를 재생할 수 있다. 또는, 오디오 로우데이터 재생부(280)는 오디오 메타데이터와 미리 설정된 재생 환경 정보에 기초하여 오디오 로우데이터를 재생할 수도 있다.In operation 940 , the raw audio data reproducer 280 may reproduce the raw audio data based on the audio channel information and audio object information analyzed by the audio metadata analyzer 270 . Alternatively, the audio raw data reproducing unit 280 may reproduce the audio raw data based on audio metadata and preset reproduction environment information.

도 3은 일실시예에 따른 오디오 메타데이터를 제공하는 동작을 설명하기 위한 도면이다. 오디오 메타데이터 제공 장치(310)는 도 8에 도시된 오디오 메타데이터 제공 방법을 수행할 수 있다.3 is a diagram for explaining an operation of providing audio metadata according to an exemplary embodiment. The audio metadata providing apparatus 310 may perform the audio metadata providing method illustrated in FIG. 8 .

단계(810)에서, 오디오 메타데이터 생성부(320)는 오디오 로우데이터의 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성할 수 있다. 구체적으로, 오디오 메타데이터 생성부(320)는 오디오 로우데이터를 분석하여, 오디오 신호의 채널 정보 및 객체 정보를 오디오 메타데이터로 나타낼 수 있다.In operation 810 , the audio metadata generator 320 may generate audio metadata including audio channel information and audio object information of raw audio data. In detail, the audio metadata generator 320 may analyze raw audio data to represent channel information and object information of an audio signal as audio metadata.

구체적으로, 오디오 메타데이터 생성부(320)는 오디오 채널 및 오디오 객체의 개수 정보, 오디오 채널 및 오디오 객체의 이름 정보, 오디오 채널 및 오디오 객체의 위치 정보, 오디오 객체의 이동 정보, 및 오디오 채널의 하위 호환 정보 중 적어도 하나를 포함하는 오디오 메타데이터를 생성할 수 있다. 오디오 메타데이터에 포함된 각 정보에 대한 자세한 설명은 도 4에서 후술한다.Specifically, the audio metadata generating unit 320 may include information on the number of audio channels and audio objects, name information of audio channels and audio objects, location information of audio channels and audio objects, movement information of audio objects, and lower levels of audio channels. Audio metadata including at least one of compatibility information may be generated. A detailed description of each piece of information included in the audio metadata will be described later with reference to FIG. 4 .

단계(820)에서, 오디오 메타데이터 전송부(330)는 오디오 메타데이터 생성부(320)가 생성한 오디오 메타데이터를 오디오 데이터 재생 장치(350)에 전송할 수 있다.In operation 820 , the audio metadata transmitter 330 may transmit the audio metadata generated by the audio metadata generator 320 to the audio data reproducing apparatus 350 .

다른 실시예에 따르면, 오디오 메타데이터 전송부(330)는 오디오 로우데이터 제공 장치(340)로부터 수신한 오디오 로우데이터와 오디오 메타데이터를 멀티플렉싱하여 오디오 데이터 재생 장치(350)에 전송할 수도 있다.According to another embodiment, the audio metadata transmitter 330 may multiplex the raw audio data and the audio metadata received from the audio raw data providing apparatus 340 and transmit the multiplexed audio data to the audio data reproducing apparatus 350 .

오디오 로우데이터 제공 장치(340)는 오디오 데이터 재생 장치(350)에 오디오 채널과 오디오 객체가 포함된 오디오 로우데이터를 전송할 수 있다. 오디오 메타데이터 제공 장치(310)는 오디오 로우데이터 제공 장치(340)와 연동하여 오디오 메타데이터를 생성할 수도 있다.The audio raw data providing apparatus 340 may transmit raw audio data including an audio channel and an audio object to the audio data reproducing apparatus 350 . The audio metadata providing apparatus 310 may generate audio metadata in conjunction with the audio raw data providing apparatus 340 .

오디오 데이터 재생 장치(350)는 수신한 오디오 로우데이터와 오디오 메타데이터를 분석하여 오디오 로우데이터를 재생할 수 있다. 이 때, 오디오 데이터 재생 장치(350)는 분석한 오디오 메타데이터에 기초하여 오디오 로우데이터를 재생할 수 있다. 또는, 오디오 데이터 재생 장치(350)는 분석한 오디오 메타데이터와 미리 설정된 재생 환경 정보에 기초하여 오디오 로우데이터를 재생할 수도 있다.The audio data reproducing apparatus 350 may reproduce the audio raw data by analyzing the received audio raw data and audio metadata. In this case, the audio data reproducing apparatus 350 may reproduce the audio raw data based on the analyzed audio metadata. Alternatively, the audio data reproducing apparatus 350 may reproduce the audio raw data based on the analyzed audio metadata and preset reproduction environment information.

도 4는 일실시예에 따른 오디오 메타데이터의 구성을 도시한 도면이다.4 is a diagram illustrating a configuration of audio metadata according to an exemplary embodiment.

오디오 데이터 제공 장치의 오디오 메타데이터 생성부 및 오디오 메타데이터 제공 장치의 오디오 메타데이터 생성부는 오디오 메타데이터(410)를 생성할 수 있고, 생성된 오디오 메타데이터(410)는 도 4에 도시된 정보를 포함할 수 있다.The audio metadata generating unit of the audio data providing apparatus and the audio metadata generating unit of the audio metadata providing apparatus may generate audio metadata 410 , and the generated audio metadata 410 uses the information shown in FIG. 4 . may include

도 4를 참조하면, 오디오 메타데이터(410)는 오디오 채널 및 오디오 객체의 개수 정보(420), 오디오 채널 및 오디오 객체의 이름 정보(430), 오디오 채널 및 오디오 객체의 위치 정보(440), 오디오 객체의 이동 정보(450), 및 오디오 채널의 하위 호환 정보(460) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 4 , audio metadata 410 includes information on the number of audio channels and audio objects 420 , name information 430 on audio channels and audio objects, location information 440 on audio channels and audio objects, and audio It may include at least one of the movement information 450 of the object and the backward compatibility information 460 of the audio channel.

오디오 채널 및 오디오 객체의 개수 정보(420)는 오디오 로우데이터에 포함된 오디오 신호의 개수를 나타낼 수 있다. 구체적으로, 오디오 채널 및 오디오 객체의 개수 정보(420)는 오디오 로우데이터에 포함된 오디오 채널 및 오디오 객체의 개수를 나타내는 정보일 수 있다. 예를 들어, 오디오 로우데이터에 5.1 채널의 오디오 신호와 2개의 오디오 객체가 포함되어 있다면, 오디오 채널 및 오디오 객체의 개수 정보(420)는 "8"이라는 값을 가질 수 있다.The information 420 on the number of audio channels and audio objects may indicate the number of audio signals included in raw audio data. Specifically, the information on the number of audio channels and audio objects 420 may be information indicating the number of audio channels and audio objects included in raw audio data. For example, if the audio raw data includes a 5.1-channel audio signal and two audio objects, the information 420 on the number of audio channels and audio objects may have a value of “8”.

다른 실시예에 따르면, 오디오 채널 및 오디오 객체의 개수 정보(420)는 오디오 채널의 개수와 오디오 객체의 개수를 독립적으로 저장할 수도 있다. 예를 들어, 오디오 로우데이터에 5.1 채널의 오디오 신호와 2개의 오디오 객체가 포함되어 있다면, 오디오 채널 및 오디오 객체의 개수 정보(420)는 (6, 2)와 같은 형식으로 표현될 수 있다. (6, 2)에서 "6"은 오디오 채널의 개수를, "2"는 오디오 객체의 개수를 나타낸다.According to another embodiment, the information 420 on the number of audio channels and audio objects may independently store the number of audio channels and the number of audio objects. For example, if the audio raw data includes a 5.1-channel audio signal and two audio objects, information 420 on the number of audio channels and audio objects may be expressed in the form (6, 2). In (6, 2), "6" indicates the number of audio channels, and "2" indicates the number of audio objects.

단, 오디오 채널 및 오디오 객체의 개수 정보(420)가 오디오 채널 및 오디오 객체의 개수를 표현하는 방식은 위의 기재에 한정되지 아니하며, 다양한 형식으로 오디오 채널 및 오디오 객체의 개수를 표현할 수 있다. 예를 들어, 오디오 채널 및 오디오 객체의 개수 정보(420)는 오디오 채널의 개수 "6", 오디오 객체의 개수 "2"와 같이 독립적으로 구성될 수 있다.However, the method in which the information 420 on the number of audio channels and audio objects expresses the number of audio channels and audio objects is not limited to the above description, and the number of audio channels and audio objects may be expressed in various formats. For example, the information 420 on the number of audio channels and audio objects may be independently configured such as “6” in the number of audio channels and “2” in the number of audio objects.

오디오 채널 및 오디오 객체의 이름 정보(430)는 오디오 로우데이터에 포함된 오디오 채널의 이름 및 오디오 객체의 이름을 나타낼 수 있다. 예를 들어, 오디오 로우데이터에 5.1 채널의 오디오 신호와 2개의 오디오 객체가 포함되어 있다면, 오디오 채널 및 오디오 객체의 이름 정보(430)는 (L, R, C, LFE, LS, RS, Piano, Drum)의 형식으로 표현될 수 있다. 또한, 이는 오디오 로우데이터에 포함된 오디오 신호의 이름이 차례대로 L, R, C, LFE, LS, RS, Piano, Drum임을 나타낼 수 있다. 즉, 오디오 채널 및 오디오 객체의 이름의 순서는 오디오 로우데이터에 저장된 오디오 신호의 순서에 기초하여 결정될 수 있다.The audio channel and audio object name information 430 may indicate the audio channel name and audio object name included in the audio raw data. For example, if the audio raw data includes a 5.1-channel audio signal and two audio objects, the audio channel and audio object name information 430 is (L, R, C, LFE, LS, RS, Piano, Drum) can be expressed in the form of Also, this may indicate that the names of the audio signals included in the audio raw data are L, R, C, LFE, LS, RS, Piano, and Drum in order. That is, the order of names of audio channels and audio objects may be determined based on the order of audio signals stored in raw audio data.

단, 오디오 채널 및 오디오 객체의 이름과 배열은 위의 기재에 한정되지 아니하며, 오디오 제작자가 임의대로 설정할 수 있다. 예를 들어, 오디오 객체의 이름이 오디오 채널의 이름 보다 먼저 배열될 수도 있다.However, the names and arrangements of audio channels and audio objects are not limited to the above description, and the audio producer may set them arbitrarily. For example, the name of the audio object may be arranged before the name of the audio channel.

오디오 채널 및 오디오 객체의 위치 정보(440)는 오디오 신호가 공간적으로 어느 위치에 배치되어야 하는지를 나타낼 수 있다. 즉, 오디오 채널 및 오디오 객체의 위치 정보(440)는 오디오 채널 및 오디오 객체가 공간 상의 어느 위치에서 재생되어야 하는지를 나타내는 정보일 수 있다. 오디오 객체의 경우, 오디오 채널 및 오디오 객체의 위치 정보(440)는 오디오 객체의 재생을 위한 위치 정보의 초기값을 포함할 수 있다. 오디오 채널 및 오디오 객체의 위치 정보(440)는 수평 방위각 정보와 수직 방위각 정보로 구성될 수 있다.The location information 440 of the audio channel and the audio object may indicate where the audio signal should be spatially disposed. That is, the location information 440 of the audio channel and the audio object may be information indicating where the audio channel and the audio object are to be reproduced in space. In the case of an audio object, the audio channel and location information 440 of the audio object may include an initial value of location information for reproduction of the audio object. The location information 440 of the audio channel and the audio object may include horizontal azimuth information and vertical azimuth information.

수평 방위각 정보와 수직 방위각 정보는 도 6에 도시된 것처럼 기준이 설정될 수 있다. 수평 방위각은 도 6에서와 같이 사용자(610)가 정면을 바라볼 때, 지면에 수평한 면을 기준으로 정면을 기준점인 0도(620)로 하고, 시계방향을 (+) 방향으로 하여 기준을 설정할 수 있다. 수직 방위각도 도 6에서 도시된 것과 같이 사용자(630)가 정면을 바라볼 때, 지면에 수직인 면을 기준으로 정면을 기준점인 0도(640)로 하고, 위쪽방향을 (+) 방향으로 하여 기준을 설정할 수 있다. 어느 위치에 배치되어도 상관 없는 경우, 위치 정보(440)는 (null, null)으로 나타낼 수 있다.A reference may be set for the horizontal azimuth information and the vertical azimuth information as shown in FIG. 6 . As for the horizontal azimuth, when the user 610 looks at the front as in FIG. 6 , the front is the reference point 0 degrees 620 with respect to the plane horizontal to the ground, and the clockwise direction is the (+) direction. can be set. As shown in FIG. 6 , when the user 630 looks to the front, the front is the reference point 0 degrees 640 with respect to the plane perpendicular to the ground, and the upward direction is the (+) direction. standards can be set. If it does not matter where it is located, the location information 440 may be represented by (null, null).

예를 들어, 오디오 로우데이터가 2.0 채널의 오디오 신호와 1개의 오디오 객체 신호를 포함하고 있고, 오디오 채널 및 오디오 객체의 이름 정보(430)가 (L, R, Piano), 오디오 채널 및 오디오 객체의 위치 정보(440)가 [(330, 0), (30, 0), (10, 0)]이라면, 이는 L채널이 수평 330도, 수직 0도에, R채널은 수평 30도, 수직 0도에, Piano의 객체 신호는 수평 10도, 수직 0도에 배치되어야 한다는 것을 나타낸다.For example, the audio raw data includes a 2.0-channel audio signal and one audio object signal, and the audio channel and audio object name information 430 is (L, R, Piano), an audio channel and an audio object signal. If the location information 440 is [(330, 0), (30, 0), (10, 0)], this means that the L channel is at 330 degrees horizontally and 0 degrees vertically, and the R channel is at 30 horizontal degrees and 0 degrees vertically. , indicating that the Piano's object signal should be placed at 10 degrees horizontally and 0 degrees vertically.

오디오 객체의 이동 정보(450)는 공간 상에서 시간에 따라 오디오 객체의 재생 위치가 변동되는 경우, 각 시간에 따른 오디오 객체의 재생 위치를 나타내는 정보일 수 있다. 또한, 오디오 객체의 이동 정보(450)는 오디오 객체의 재생 시간 정보, 식별자 정보 및 재생될 위치 정보로 구성될 수 있다. 여기서, 오디오 객체가 재생될 위치 정보는 도 6에 도시된 기준에 기초하여 표현될 수 있다.The movement information 450 of the audio object may be information indicating the reproduction position of the audio object according to each time when the reproduction position of the audio object is changed according to time in space. Also, the movement information 450 of the audio object may be composed of reproduction time information of the audio object, identifier information, and location information to be reproduced. Here, location information at which the audio object is to be reproduced may be expressed based on the reference shown in FIG. 6 .

예를 들어, 오디오 객체의 이동 정보(450)는 (재생 시간 정보, 식별자 정보, 재생될 위치 정보)로 표현될 수 있다. 즉, 오디오 객체의 이동 정보(450)가 (15, 7, 5, 0)이라면, 이는 오디오 로우데이터가 재생되기 시작한 시점을 기준으로 15초 후에, 오디오 로우데이터에 포함된 7번째 오디오 신호는 방위각 (5도, 0도)의 위치에서 재생된다는 정보를 나타낼 수 있다.For example, the movement information 450 of the audio object may be expressed as (playback time information, identifier information, location information to be reproduced). That is, if the movement information 450 of the audio object is (15, 7, 5, 0), it is 15 seconds after the time when the audio raw data starts to be reproduced, the 7th audio signal included in the audio raw data is an azimuth. It can indicate information that is reproduced at the position of (5 degrees, 0 degrees).

단, 오디오 객체의 이동 정보(450)를 표현하는 방식은 위의 기재에 한정되지 아니하며, 오디오 객체의 이동 정보(450)를 구성하는 오디오 객체의 재생 시간 정보, 식별자 정보 및 재생될 위치 정보의 순서도 위의 기재에 한정되지 아니한다. 즉, 식별자 정보나 재생될 위치 정보가 재생 시간 정보보다 먼저 배열될 수도 있다. 또한, 식별자 정보도 오디오 로우데이터에 포함된 오디오 신호의 순서가 아닌, 오디오 객체의 이름으로 구성될 수 있다. 예를 들어, 오디오 객체의 이동 정보(450)는 (15, Piano, 5, 0)과 같이 표현될 수도 있다.However, the method of expressing the movement information 450 of the audio object is not limited to the above description, and the playback time information of the audio object constituting the movement information 450 of the audio object, the identifier information, and the flow chart of the position information to be reproduced It is not limited to the above description. That is, identifier information or location information to be reproduced may be arranged before reproduction time information. Also, the identifier information may be composed of the name of the audio object, not the order of the audio signals included in the audio raw data. For example, the movement information 450 of the audio object may be expressed as (15, Piano, 5, 0).

오디오 객체의 이동 정보(450)는 오디오 객체의 공간상에서의 이동을 나타내기 위해 (재생 시간 정보, 식별자 정보, 재생될 위치 정보)가 배열된 형태로 표현될 수 있다.The movement information 450 of the audio object may be expressed in a form in which (playback time information, identifier information, and location information to be reproduced) are arranged to indicate movement of the audio object in space.

예를 들어, 오디오 객체의 이동 정보(450)는 [(15, 7, 5, 0), (16, 7, 10, 0), (17, 7, 15, 0), …]로 나타낼 수 있다. 이는, 오디오 로우데이터가 재생되기 시작한 시점을 기준으로 15초 후에 오디오 로우데이터에 포함된 7번째 오디오 신호가 (5도, 0도) 위치에서 재생되고, 16초 후에는 (10도, 0도) 위치에서 재생되며, 17초 후에는 (15도, 0도) 위치에서 재생됨을 나타낼 수 있다.For example, the movement information 450 of the audio object is [(15, 7, 5, 0), (16, 7, 10, 0), (17, 7, 15, 0), ... ] can be expressed as This means that the 7th audio signal included in the audio raw data is reproduced at (5 degrees, 0 degrees) position after 15 seconds from the time when the audio raw data starts to be reproduced, and after 16 seconds (10 degrees, 0 degrees) It can indicate that it is played at the position, and after 17 seconds it is played at the position (15 degrees, 0 degrees).

오디오 객체의 이동 정보(450)는 복수 개의 이동 정보를 포함할 수 있다. 즉, 오디오 객체의 이동 정보(450)는 오디오 로우데이터에 포함된 오디오 객체에 따라 각각의 이동 정보를 포함할 수 있다. 이와 관련하여, 오디오 객체의 이동 정보(450)는 오디오 채널 및 오디오 객체의 개수 정보(420)에 포함된 오디오 객체의 개수 정보와 연계될 수 있다. 즉, 오디오 객체의 이동 정보(450)가 포함할 수 있는 이동 정보는 오디오 채널 및 오디오 객체의 개수 정보(420)에 나타난 오디오 객체의 개수에 따라 달라질 수 있다.The movement information 450 of the audio object may include a plurality of movement information. That is, the movement information 450 of the audio object may include respective movement information according to the audio object included in the audio raw data. In this regard, the movement information 450 of the audio object may be associated with information on the number of audio objects included in the information 420 on the number of audio channels and audio objects. That is, the movement information that may be included in the movement information 450 of the audio object may vary according to the number of audio objects displayed in the information 420 on the number of audio channels and audio objects.

오디오 채널의 하위 호환 정보(460)는 오디오 로우데이터에 포함된 오디오 채널의 신호를 조합하여 하위 채널로 변경하는 방식 정보를 나타낼 수 있다. 오디오 채널의 하위 호환 정보(460)는 오디오 로우데이터에 포함된 채널의 종류에 따라 복수 개의 하위 호환 정보를 포함할 수 있다.The backward compatibility information 460 of the audio channel may indicate information on a method of changing the audio channel signal included in the raw audio data into a lower channel by combining the audio channel signal. The backward compatibility information 460 of the audio channel may include a plurality of backward compatibility information according to the type of channel included in the audio raw data.

예를 들어, 오디오 채널의 하위 호환 정보(460)는 7.1 채널을 가진 오디오 로우데이터가 어떻게 5.1 채널 또는 2.0 채널과 호환될 수 있는지를 나타낼 수 있다. 5.1 채널의 오디오 데이터는 2.0 채널로의 호환 정보를 포함할 수 있으며, 5.1 채널보다 많은 채널 수를 가진 오디오 데이터는 5.1 채널 또는 2.0 채널로의 호환 정보를 포함할 수 있다.For example, the backward compatibility information 460 of the audio channel may indicate how raw audio data having 7.1 channels can be compatible with 5.1 channels or 2.0 channels. 5.1-channel audio data may include 2.0-channel compatibility information, and audio data having a greater number of channels than 5.1-channel may include 5.1-channel or 2.0-channel compatibility information.

이상에서, 설명한 오디오 메타데이터(410)의 구성은 위의 기재에 한정되지 아니하며, 오디오 로우데이터에 포함된 오디오 신호와 관련된 다양한 정보를 추가적으로 포함할 수 있다. 또는, 오디오 메타데이터(410)는 위의 기재한 구성 중 일부만을 포함할 수도 있다.The configuration of the audio metadata 410 described above is not limited to the above description, and various information related to the audio signal included in the audio raw data may be additionally included. Alternatively, the audio metadata 410 may include only some of the components described above.

오디오 데이터 제공 장치와 오디오 메타데이터 제공 장치가 오디오 채널 정보 및 오디오 객체 정보가 포함된 오디오 메타데이터를 생성함에 따라 오디오 데이터 재생 장치는 오디오 메타데이터에 기초하여 멀티채널과 오디오 객체가 포함된 오디오 로우데이터를 효과적으로 처리할 수 있다. 즉, 오디오 데이터 재생 장치는 오디오 메타데이터의 오디오 채널 정보 및 오디오 객체 정보를 통해 어드밴스드 객체기반 멀티채널 오디오 시스템을 구축할 수 있다. 특히, 오디오 메타데이터에 오디오 객체 정보를 포함함에 따라 사용자 인터랙션이 가능하게 되며, 기존 시스템과 호환될 수 있다.As the audio data providing apparatus and the audio metadata providing apparatus generate audio metadata including audio channel information and audio object information, the audio data reproducing apparatus generates audio raw data including multi-channels and audio objects based on the audio metadata. can be effectively dealt with. That is, the audio data reproducing apparatus may build an advanced object-based multi-channel audio system through audio channel information and audio object information of audio metadata. In particular, as audio object information is included in the audio metadata, user interaction is possible and compatibility with the existing system is possible.

또한, 메타데이터 형식을 이용함에 따라 오디오 제작자는 기존의 5.1 채널보다 더 많은 채널을 가진 멀티채널의 오디오 데이터를 다양한 방식으로 구현할 수 있으며, 멀티 객체의 표현을 용이하게 할 수 있다.In addition, by using the metadata format, an audio producer can implement multi-channel audio data having more channels than the existing 5.1 channels in various ways, and can facilitate the expression of multi-objects.

도 5는 일실시예에 따른 오디오 메타데이터의 일례를 도시한 도면이다.5 is a diagram illustrating an example of audio metadata according to an embodiment.

도 5를 참조하면, 오디오 메타데이터(510)는 오디오 채널 및 오디오 객체의 개수 정보(520), 오디오 채널 및 오디오 객체의 이름 정보(530), 오디오 채널 및 오디오 객체의 위치 정보(540), 오디오 객체의 이동 정보(550), 및 오디오 채널의 하위 호환 정보(580)를 포함하고 있다.Referring to FIG. 5 , audio metadata 510 includes information on the number of audio channels and audio objects 520 , name information 530 on audio channels and audio objects, location information 540 on audio channels and audio objects, and audio The object movement information 550 and backward compatibility information 580 of the audio channel are included.

오디오 채널 및 오디오 객체의 개수 정보(520)의 값은 "8"로, 오디오 로우데이터에 포함된 오디오 신호의 개수가 총 8개임을 나타낸다. 또는, 오디오 채널 및 오디오 객체의 개수 정보(520)는 도면에 기재된 방식과 다르게 (6, 2)의 형식(미도시)으로 표현될 수도 있다. 이 경우, (6, 2)는 오디오 로우데이터에 포함된 오디오 채널의 개수가 6개이고, 오디오 객체의 개수가 2개임을 나타낼 수 있다.The value of the information 520 on the number of audio channels and audio objects is “8”, indicating that the total number of audio signals included in raw audio data is eight. Alternatively, the information 520 on the number of audio channels and audio objects may be expressed in a format (not shown) of (6, 2) differently from the method described in the drawings. In this case, (6, 2) may indicate that the number of audio channels included in raw audio data is six and the number of audio objects is two.

다른 실시예에 따르면, 오디오 채널 및 오디오 객체의 개수 정보(520)는 오디오 채널의 개수와 오디오 객체의 개수를 분리하여 표현(미도시)할 수도 있다. 이 경우, 오디오 채널 및 오디오 객체의 개수 정보(520)는 오디오 채널의 개수 "6"과 오디오 객체의 개수 "2"로 독립적으로 구성될 수 있다.According to another embodiment, the information 520 on the number of audio channels and audio objects may be expressed (not shown) by separating the number of audio channels and the number of audio objects. In this case, the information 520 on the number of audio channels and audio objects may be independently configured with the number of audio channels “6” and the number of audio objects “2”.

오디오 채널 및 오디오 객체의 이름 정보(530)는 (L, R, C, LFE, LS, RS, Piano, Drum)으로, 이에 기초하여 오디오 로우데이터에 포함된 오디오 신호들의 이름이 차례대로 L, R, C, LFE, LS, RS, Piano, Drum임을 알 수 있다. 오디오 재생 장치는 오디오 채널 및 오디오 객체의 이름 정보(530)를 통해 오디오 로우데이터에 5.1 채널의 오디오 신호와 2개의 오디오 객체가 포함되어 있음을 식별할 수 있다.The audio channel and audio object name information 530 is (L, R, C, LFE, LS, RS, Piano, Drum), based on which the names of audio signals included in the audio raw data are sequentially L, R , C, LFE, LS, RS, Piano, Drum. The audio reproducing apparatus may identify that the 5.1-channel audio signal and two audio objects are included in the audio raw data through the audio channel and audio object name information 530 .

오디오 채널 및 오디오 객체의 위치 정보(540)에 따르면, L채널은 (330, 0)으로 수평 330도, 수직 0도에 배치되고, R채널은 (30, 0)으로 수평 30도, 수직 0도에 배치되며, C채널은 (0, 0)으로 수평 0도, 수직 0도에 배치된다는 것을 나타낸다. 또한, LFE채널은 (null, null)으로 어느 위치에 배치되어도 상관 없음을 나타내고, LS채널은 (250, 0)으로 수평 250도, 수직 0도에 배치되며, RS채널은 (110, 0)으로 수평 110도 수직 0도에 배치된다는 것을 나타낸다. 그리고, 오디오 객체인 Piano는 (15, 0)으로 수평 15도, 수직 0도에 배치되고, 오디오 객체 Drum은 (345, 0)으로 수평 345도, 수직 0도에 배치된다는 것을 나타낸다.According to the location information 540 of the audio channel and the audio object, the L channel is arranged at 330 degrees horizontally and 0 degrees vertically at (330, 0), and the R channel is at (30, 0) at 30 degrees horizontally and 0 degrees vertically. , and the C channel is (0, 0), indicating that it is arranged at 0 degrees horizontally and 0 degrees vertically. In addition, the LFE channel is (null, null), indicating that it does not matter where it is placed, the LS channel is (250, 0), which is arranged at 250 degrees horizontally and 0 degrees vertically, and the RS channel is (110, 0). Indicates that it is positioned at 110 degrees horizontally and 0 degrees vertically. In addition, the audio object Piano is (15, 0), which is arranged at 15 degrees horizontally and 0 degrees vertically, and the audio object Drum is (345, 0), which indicates that it is arranged at 345 horizontally and 0 degrees vertically.

도 5에서, 오디오 객체의 이동 정보(550)는 오디오 객체인 Piano의 이동 정보(560)와 Drum의 이동 정보(570)를 포함하고 있다.In FIG. 5 , movement information 550 of an audio object includes movement information 560 of Piano, which is an audio object, and movement information 570 of a drum.

오디오 객체 Piano의 이동 정보(560)는 [(15, 7, 260, 0), (16, 7, 270, 5), (17, 7, 275, 10), …]로, 오디오 로우데이터에 포함된 7번째 신호인 Piano 오디오 신호는 오디오 로우데이터가 재생되기 시작한 시점을 기준으로 15초 후에 방위각 (260도, 0도)에서 재생되고, 16초 후에는 (270도, 5도)에서 재생되며, 17초 후에는 (275도, 10도)의 위치에서 재생됨을 나타낸다.The movement information 560 of the audio object Piano is [(15, 7, 260, 0), (16, 7, 270, 5), (17, 7, 275, 10), ... ], the 7th signal included in the raw audio data, the Piano audio signal, is reproduced at the azimuth (260 degrees, 0 degrees) 15 seconds after the start of the audio raw data playback, and after 16 seconds (270 degrees) , 5 degrees), and after 17 seconds, it is played back at (275 degrees, 10 degrees).

오디오 객체 Drum의 이동 정보(570)는 [(3, 8, 120, 5), (4, 8, 125, 10), (5, 8, 130, 5), …]로, 오디오 로우데이터에 포함된 8번째 신호인 Drum 오디오 신호는 오디오 로우데이터가 재생되기 시작한 시점을 기준으로 3초 후에 방위각 (120도, 5도)에서 재생되고, 4초 후에는 (125도, 10도)에서 재생되며, 5초 후에는 (130도, 5도)의 위치에서 재생됨을 나타낸다.The movement information 570 of the audio object Drum is [(3, 8, 120, 5), (4, 8, 125, 10), (5, 8, 130, 5), ... ], the drum audio signal, which is the 8th signal included in the audio raw data, is reproduced at the azimuth (120 degrees, 5 degrees) after 3 seconds from the time when the audio raw data starts to be reproduced, and after 4 seconds (125 degrees) , 10 degrees), and after 5 seconds, it is played back at (130 degrees, 5 degrees).

오디오 채널의 하위 호환 정보(580)는 2.0 채널로의 다운믹싱 정보를 포함하고 있다. 다운믹싱 정보는 다운믹싱을 위한 상수와 수식 정보를 포함할 수 있다. 일례에 따르면, 다운믹싱을 위한 수식 정보는 하위 채널 순서에 따라 저장될 수 있고, 하위 채널로의 변경을 위한 신호 조합 및 변환 정보를 포함할 수 있다.The backward compatibility information 580 of the audio channel includes downmixing information to the 2.0 channel. The downmixing information may include constants and formula information for downmixing. According to an example, formula information for downmixing may be stored according to a sub-channel order, and may include signal combination and conversion information for changing to a sub-channel.

오디오 채널의 하위 호환 정보(580)는 다운믹싱을 위한 수식 정보가 복수 개인 경우, 차례대로 수식 정보를 포함할 수 있으며, 각각의 수식 정보에 적용되는 복수 개의 상수를 포함할 수 있다.When there are a plurality of formula information for downmixing, the backward compatibility information 580 of the audio channel may include formula information in turn, and may include a plurality of constants applied to each formula information.

예를 들어, 오디오 채널의 하위 호환 정보(580)는 아래 표 1과 같은 다운믹싱 정보를 포함할 수 있다.For example, the backward compatibility information 580 of the audio channel may include downmixing information as shown in Table 1 below.

채널 레이아웃Channel Layout 채널 매트릭싱(channel matrixing)
(a와 k는 임의의 상수)
Channel Matrixing
(a and k are arbitrary constants)
5.1 -> 2.05.1 -> 2.0

Figure 112021020575804-pat00001
Figure 112021020575804-pat00001
Figure 112021020575804-pat00002
Figure 112021020575804-pat00002

위 표 1에서, 상수인 a와 k는 오디오 제작자가 만든 임의의 상수이며, L, R, C, LFE, LS 및 RS는 오디오 로우데이터에 포함된 각 채널의 오디오 신호를 나타낸다. 각 채널의 오디오 신호는 오디오 채널 및 오디오 객체의 이름 정보(530)에 기초하여 식별될 수 있다. 오디오 채널의 하위 호환 정보(580)는 표 1의 채널 매트릭싱에 나타난 수식 정보를 포함할 수 있고, 오디오 데이터 재생 장치는 이를 이용하여 채널 호환을 수행할 수 있다. 상술한 실시예는 5.1채널에서 2.0채널로의 다운믹싱의 한 예를 설명한 것에 불과하고, 여러 변형 및 임의적인 설정이 가능하다.In Table 1 above, constants a and k are arbitrary constants created by audio producers, and L, R, C, LFE, LS, and RS represent audio signals of each channel included in the audio raw data. The audio signal of each channel may be identified based on the name information 530 of the audio channel and the audio object. The backward compatibility information 580 of the audio channel may include formula information shown in the channel matrixing of Table 1, and the audio data reproducing apparatus may perform channel compatibility using this. The above-described embodiment is merely an example of downmixing from a 5.1 channel to a 2.0 channel, and various modifications and arbitrary settings are possible.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (13)

오디오 신호와 관련된 오디오 메타데이터를 생성하는 단계;
상기 생성된 오디오 메타데이터와 상기 오디오 신호를 오디오 데이터 재생 장치에 전송하는 단계
를 포함하고,
상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보가 다른 경우, 상기 재생 환경 정보에 따라 오디오 신호가 처리된 후에 재생되는 오디오 데이터 제공 방법.
generating audio metadata related to the audio signal;
transmitting the generated audio metadata and the audio signal to an audio data reproducing apparatus;
including,
When the channel information included in the audio metadata is different from the channel information included in the reproduction environment information of the audio data reproducing apparatus, the audio data providing method is reproduced after the audio signal is processed according to the reproduction environment information.
제1항에 있어서,
상기 오디오 신호는,
상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보를 비교한 결과에 기초하여 재생되는 오디오 데이터 제공 방법.
The method of claim 1,
The audio signal is
A method of providing audio data reproduced based on a result of comparing the channel information included in the audio metadata with the channel information included in the reproduction environment information of the audio data reproducing apparatus.
삭제delete 제1항에 있어서,
상기 오디오 메타데이터는,
오디오 채널의 개수 정보, 오디오 채널의 이름 정보, 오디오 채널의 위치 정보, 오디오 채널의 하위 호환 정보 중 적어도 하나인 오디오 채널 정보; 및
오디오 객체의 개수 정보, 오디오 객체의 이름 정보, 오디오 객체의 위치 정보, 오디오 객체의 이동 정보 중 적어도 하나인 오디오 객체 정보
를 포함하는 오디오 데이터 제공 방법.
According to claim 1,
The audio metadata is
audio channel information that is at least one of number information of audio channels, name information of audio channels, location information of audio channels, and backward compatibility information of audio channels; and
Audio object information that is at least one of number information of audio objects, name information of audio objects, location information of audio objects, and movement information of audio objects
A method of providing audio data comprising a.
제4항에 있어서,
상기 오디오 객체의 이동 정보는,
공간 상에서 시간에 따라 오디오 객체의 재생 위치가 변동되는 경우, 각 시간에 따른 오디오 객체의 재생 위치를 나타내는 정보인 오디오 데이터 제공 방법.
5. The method of claim 4,
The movement information of the audio object,
A method of providing audio data, which is information indicating a playback position of an audio object according to each time when the playback position of the audio object is changed according to time in space.
제5항에 있어서,
상기 오디오 객체의 이동 정보는,
오디오 객체의 재생 시간 정보, 식별자 정보 및 재생될 위치 정보로 구성된 정보인 오디오 데이터 제공 방법.
6. The method of claim 5,
The movement information of the audio object,
A method of providing audio data, which is information consisting of playback time information of an audio object, identifier information, and location information to be played back.
제4항에 있어서,
상기 오디오 채널 및 오디오 객체의 개수 정보는,
오디오 신호에 포함된 오디오 채널 및 오디오 객체의 개수를 나타내는 정보인 오디오 데이터 제공 방법.
5. The method of claim 4,
Information on the number of audio channels and audio objects,
A method of providing audio data, which is information indicating the number of audio channels and audio objects included in an audio signal.
제4항에 있어서,
상기 오디오 채널 및 오디오 객체의 위치 정보는,
오디오 채널 및 오디오 객체가 공간 상의 어느 위치에서 재생되어야 하는지를 나타내는 정보인 오디오 데이터 제공 방법.
5. The method of claim 4,
The location information of the audio channel and the audio object,
A method of providing audio data, which is information indicating where an audio channel and an audio object should be reproduced in space.
제4항에 있어서,
상기 오디오 채널 및 오디오 객체의 위치 정보는,
수평 방위각 정보 및 수직 방위각 정보로 구성된 정보인 오디오 데이터 제공 방법.
5. The method of claim 4,
The location information of the audio channel and the audio object,
A method of providing audio data, which is information composed of horizontal azimuth information and vertical azimuth information.
오디오 데이터 제공 장치로부터 오디오 신호 및 오디오 메타데이터를 수신하는 단계; 및
상기 오디오 메타데이터에 기초하여 상기 오디오 신호를 재생하는 단계
를 포함하고,
상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보가 다른 경우, 상기 재생 환경 정보에 따라 오디오 신호가 처리된 후에 재생되는 오디오 데이터 재생 방법.
receiving an audio signal and audio metadata from an audio data providing apparatus; and
reproducing the audio signal based on the audio metadata
including,
When the channel information included in the audio metadata is different from the channel information included in the reproduction environment information of the audio data reproducing apparatus, the audio data reproduction method is reproduced after the audio signal is processed according to the reproduction environment information.
제10항에 있어서,
상기 오디오 신호는,
상기 오디오 메타데이터에 포함된 채널 정보와 오디오 데이터 재생 장치의 재생 환경 정보에 포함된 채널 정보를 비교한 결과에 기초하여 재생되는 오디오 데이터 재생 방법.
11. The method of claim 10,
The audio signal is
An audio data reproduction method reproduced based on a result of comparing the channel information included in the audio metadata with the channel information included in the reproduction environment information of the audio data reproducing apparatus.
삭제delete 제10항에 있어서,
상기 오디오 메타데이터는,
오디오 채널의 개수 정보, 오디오 채널의 이름 정보, 오디오 채널의 위치 정보, 오디오 채널의 하위 호환 정보 중 적어도 하나인 오디오 채널 정보; 및
오디오 객체의 개수 정보, 오디오 객체의 이름 정보, 오디오 객체의 위치 정보, 오디오 객체의 이동 정보 중 적어도 하나인 오디오 객체 정보
를 포함하는 오디오 데이터 재생 방법.
11. The method of claim 10,
The audio metadata is
audio channel information that is at least one of number information of audio channels, name information of audio channels, location information of audio channels, and backward compatibility information of audio channels; and
Audio object information that is at least one of number information of audio objects, name information of audio objects, location information of audio objects, and movement information of audio objects
A method of playing audio data comprising a.
KR1020210022742A 2012-05-14 2021-02-19 Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data KR102370672B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020120051130 2012-05-14
KR20120051130 2012-05-14
KR1020200008401A KR102220527B1 (en) 2012-05-14 2020-01-22 Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200008401A Division KR102220527B1 (en) 2012-05-14 2020-01-22 Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data

Publications (2)

Publication Number Publication Date
KR20210022600A KR20210022600A (en) 2021-03-03
KR102370672B1 true KR102370672B1 (en) 2022-03-07

Family

ID=49854967

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020120091086A KR101935020B1 (en) 2012-05-14 2012-08-21 Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data
KR1020180170535A KR102071431B1 (en) 2012-05-14 2018-12-27 Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data
KR1020200008401A KR102220527B1 (en) 2012-05-14 2020-01-22 Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data
KR1020210022742A KR102370672B1 (en) 2012-05-14 2021-02-19 Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data

Family Applications Before (3)

Application Number Title Priority Date Filing Date
KR1020120091086A KR101935020B1 (en) 2012-05-14 2012-08-21 Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data
KR1020180170535A KR102071431B1 (en) 2012-05-14 2018-12-27 Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data
KR1020200008401A KR102220527B1 (en) 2012-05-14 2020-01-22 Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data

Country Status (1)

Country Link
KR (4) KR101935020B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10070172B2 (en) 2014-07-01 2018-09-04 Lg Electronics Inc. Method and apparatus for processing broadcast data by using external device
KR20230047844A (en) * 2021-10-01 2023-04-10 삼성전자주식회사 Method for providing video and electronic device supporting the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110040395A1 (en) * 2009-08-14 2011-02-17 Srs Labs, Inc. Object-oriented audio streaming system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100733965B1 (en) * 2005-11-01 2007-06-29 한국전자통신연구원 Object-based audio transmitting/receiving system and method
WO2010008200A2 (en) * 2008-07-15 2010-01-21 Lg Electronics Inc. A method and an apparatus for processing an audio signal
DE102010030534A1 (en) * 2010-06-25 2011-12-29 Iosono Gmbh Device for changing an audio scene and device for generating a directional function
US8908874B2 (en) * 2010-09-08 2014-12-09 Dts, Inc. Spatial audio encoding and reproduction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110040395A1 (en) * 2009-08-14 2011-02-17 Srs Labs, Inc. Object-oriented audio streaming system

Also Published As

Publication number Publication date
KR20200011522A (en) 2020-02-03
KR20130127344A (en) 2013-11-22
KR20190004248A (en) 2019-01-11
KR20210022600A (en) 2021-03-03
KR102071431B1 (en) 2020-03-02
KR101935020B1 (en) 2019-01-03
KR102220527B1 (en) 2021-02-25

Similar Documents

Publication Publication Date Title
CN103649706B (en) The coding of three-dimensional audio track and reproduction
CN101981617B (en) Method and apparatus for generating additional information bit stream of multi-object audio signal
KR102149411B1 (en) Apparatus and method for generating audio data, apparatus and method for playing audio data
CN102067490A (en) Method for generating and playing object-based audio contents and computer readable recording medium for recoding data having file format structure for object-based audio service
KR102370672B1 (en) Method and apparatus for providing audio data, method and apparatus for providing audio metadata, method and apparatus for playing audio data
KR101682323B1 (en) Sound signal description method, sound signal production equipment, and sound signal reproduction equipment
KR101915258B1 (en) Apparatus and method for providing the audio metadata, apparatus and method for providing the audio data, apparatus and method for playing the audio data
KR102049602B1 (en) Apparatus and method for generating multimedia data, method and apparatus for playing multimedia data
KR20150028147A (en) Apparatus for encoding audio signal, apparatus for decoding audio signal, and apparatus for replaying audio signal
KR102439339B1 (en) Apparatus and method for generating multimedia data, method and apparatus for playing multimedia data
KR102370348B1 (en) Apparatus and method for providing the audio metadata, apparatus and method for providing the audio data, apparatus and method for playing the audio data
KR102529400B1 (en) Apparatus and method for providing the audio metadata, apparatus and method for providing the audio data, apparatus and method for playing the audio data
KR102049603B1 (en) Apparatus and method for providing the audio metadata, apparatus and method for providing the audio data, apparatus and method for playing the audio data
KR102631005B1 (en) Apparatus and method for generating multimedia data, method and apparatus for playing multimedia data
KR102217997B1 (en) Apparatus and method for generating multimedia data, method and apparatus for playing multimedia data
KR20110085155A (en) Apparatus for generationg and reproducing audio data for real time audio stream and the method thereof
JP2006279555A (en) Signal regeneration apparatus and method
KR102421292B1 (en) System and method for reproducing audio object signal
KR101125364B1 (en) Apparatus and method for providing and reproducting object based audio file
JP2020120377A (en) Audio authoring device, audio rendering device, transmission device, reception device, and method
KR20090066190A (en) Apparatus and method of transmitting/receiving for interactive audio service

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant