KR100942142B1 - 객체기반 오디오 콘텐츠 송수신 방법 및 그 장치 - Google Patents

객체기반 오디오 콘텐츠 송수신 방법 및 그 장치 Download PDF

Info

Publication number
KR100942142B1
KR100942142B1 KR1020080024746A KR20080024746A KR100942142B1 KR 100942142 B1 KR100942142 B1 KR 100942142B1 KR 1020080024746 A KR1020080024746 A KR 1020080024746A KR 20080024746 A KR20080024746 A KR 20080024746A KR 100942142 B1 KR100942142 B1 KR 100942142B1
Authority
KR
South Korea
Prior art keywords
information
packet
elementary
bit string
common
Prior art date
Application number
KR1020080024746A
Other languages
English (en)
Other versions
KR20090037278A (ko
Inventor
이용주
이태진
유재현
강경옥
김진웅
안치득
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to EP19150144.4A priority Critical patent/EP3496097A1/en
Priority to EP08793304A priority patent/EP2210254A4/en
Priority to PCT/KR2008/004790 priority patent/WO2009048221A1/en
Priority to US12/682,420 priority patent/US8340096B2/en
Publication of KR20090037278A publication Critical patent/KR20090037278A/ko
Application granted granted Critical
Publication of KR100942142B1 publication Critical patent/KR100942142B1/ko
Priority to US13/682,990 priority patent/US9525612B2/en
Priority to US15/383,200 priority patent/US10140999B2/en
Priority to US16/199,987 priority patent/US10796707B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/86Arrangements characterised by the broadcast information itself
    • H04H20/95Arrangements characterised by the broadcast information itself characterised by a specific format, e.g. MP3 (MPEG-1 Audio Layer 3)
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4343Extraction or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4398Processing of audio elementary streams involving reformatting operations of audio signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H2201/00Aspects of broadcast communication
    • H04H2201/10Aspects of broadcast communication characterised by the type of broadcast system
    • H04H2201/11Aspects of broadcast communication characterised by the type of broadcast system digital multimedia broadcasting [DMB]
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K999/00PRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS dummy group
    • H05K999/99PRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS dummy group dummy group

Abstract

본 발명은 오디오 송수신 시스템에 관한 것으로, 더욱 구체적으로는 동일한 특성을 갖는 오디오 객체를 패킷화하는 객체기반 오디오 콘텐츠 송수신 방법 및 그 장치에 관한 것이다.
이를 위해 본 발명은 입력되는 각각의 ES를 기 설정된 공통정보로 필터링하는 단계, 상기 필터링된 각각의 ES에 패킷헤더를 부가하여 ES 패킷을 생성하는 단계, 상기 생성된 ES 패킷들을 취합한 후, 다객체 패킷헤더를 부가하여 객체패킷을 생성하는 단계, 및 상기 생성된 객체패킷을 다중화하여 전송 매체에 따라 패킷화한 후 전송하는 단계를 포함한다.
ES(Elementary Stream), 패킷헤더. 다객체 패킷헤더, 객체패킷, 객체기반.

Description

객체기반 오디오 콘텐츠 송수신 방법 및 그 장치{METHOD AND APPARATUS FOR TRANSMITTING AND RECEIVING OF THE OBJECT BASED AUDIO CONTENTS}
본 발명은 멀티미디어 서비스 시스템에 관한 것으로, 더욱 구체적으로는 동일한 특성을 갖는 오디오 객체를 패킷화하는 객체기반 오디오 콘텐츠 송수신 방법 및 그 장치에 관한 것이다.
본 발명은 정보통신부 및 정보통신연구진흥원의 IT성장동력기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2007-S-004-01, 과제명: 무안경 개인형 3D 방송기술개발].
최근 들어, 디지털 방송, 라디오 방송, DMB, 인터넷 방송, 디지털 영화, DVD, 동영상 콘텐츠 등과 같은 멀티미디어 방송 서비스가 시청자들에게 활발하게 제공되고 있다.
도 1은 종래의 멀티미디어 전송 시스템을 보여주는 블록도이다.
도 1을 참조하면, 종래의 멀티미디어 전송 시스템(100)은 입력 기초 비트열(Elementary Stream, 이하 'ES'라고 칭함)들(ES 1, ES 2, ES 3 ... ES n)을 패킷 화하는 패킷화부(110)와, 상기 패킷화된 데이터를 다중화하는 다중화부(120), 및 상기 다중화된 데이터를 매체(140)로 전송하는 전송부(130)를 포함하여 구성된다.
이와 같이 구성된 종래의 멀티미디어 전송 시스템(100)의 동작을 도 2를 참조하여 설명한다.
도 2는 도 1의 종래의 ES 데이터를 패킷화하는 일 예를 도시한 예시도이다.
도 1 및 도 2를 참조하면, 우선 종래의 멀티미디어 전송 시스템(100)의 패킷화부(110)에 ES 데이터들이 입력된다. 그러면 상기 패킷화부(110)는 ES 데이터(210)에 헤더(220)를 부가하여 패킷화하고, 다중화부(120)는 상기 패킷화된 데이터를 다중화시킨 후, 전송부(130)를 통해 매체(140)로 전송된다.
그러나 MPEG-2 TS로 멀티 미디어를 전송하는 경우, 하나의 PES에는 서로 다른 ES가 동시에 포함될 수 없으며, 서로 다른 ES는 서로 다른 PID를 가지는 TS로 패킷화하여 전송해야한다.
따라서, 미디어 서비스의 경우 하나의 오디오 객체와 하나의 비디오 객체로 서비스가 이루어지는 경우가 대부분이므로, ES별로 독립적인 패킷화에는 큰 문제가 없지만, 여러 개의 객체를 포함하는 멀티미디어의 경우 패킷화로 인한 오버헤드의 발생률이 높다는 문제점이 있었다.
상술한 문제점을 해결하기 위해, 종래에는 여러 개의 객체를 포함하는 멀티미디어의 경우 여러 개의 ES를 하나로 패킷화하는 방법인 Flex MUX 패킷방법을 사용하였다.
도 3은 종래의 Flex MUX 방법에 의해 ES를 패킷화하는 과정을 보여주는 예 시도이다.
도 3을 참조하면, 우선 입력 ES(310)에 대응하는 SL 헤더(320)를 부가하여 패킷화한다. 특히, Flux MUX 방식은 서로 다른 부호화 방식 및 프레임율을 가지는 ES들을 하나로 패킷화할 수 있기 때문에 Flux MUX 이전에 생성되는 SL 헤더(320)를 그대로 포함하여 취합한 후, Flux MUX 헤더(330)를 부가하여 패킷화한다.
이 경우, SL 헤더(320)에는 서로 다른 SL 패킷을 구분하기 위한 식별자와 각 SL 패킷의 재생시간 정도 등과 같은 정보들이 포함되고, Flux MUX 헤더(330)에는 생성된 Flux MUX 데이터에 대한 정보를 포함한다.
그러나 상술한 바와 같이 종래의 Flux MUX 방법은 각각의 ES 데이터 구분을 위해 SL 헤더(320)에 정보를 과도하게 포함하기 때문에 많은 바이트가 할당됨으로써 데이터 전송이 비효율적이라는 문제점이 있었다. 따라서, 적은 용량으로 헤더를 생성하는 패킷화 기술이 요구된다.
본 발명은 상술한 바와 같은 종래기술의 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은, 특히 객체기반 오디오 콘텐츠를 효율적으로 전송하기 위해 헤더 정보를 간소화하는 객체기반 오디오 콘텐츠 송수신 방법 및 그 장치를 제공하는 것이다.
상기의 목적을 이루고 종래기술의 문제점을 해결하기 위하여, 본 발명에 따르는 객체기반 오디오 콘텐츠 송신 방법은 입력되는 각각의 ES를 기 설정된 공통정보로 필터링하는 단계, 상기 필터링된 각각의 ES에 패킷헤더를 부가하여 ES 패킷을 생성하는 단계, 상기 생성된 ES 패킷들을 취합한 후, 다객체 패킷헤더를 부가하여 객체패킷을 생성하는 단계, 및 상기 생성된 객체패킷을 다중화하여 전송 매체에 따라 패킷화한 후 전송하는 단계를 포함한다.
또한, 본 발명 따르는 객체기반 디지털 오디오 콘텐츠 수신 방법은 상기 수신된 패킷을 역패킷하여 각각의 ES로 분리하는 단계와, 상기 분리된 각각의 ES를 복호화하는 단계, 및 상기 복호화된 각각의 ES를 재생하는 단계를 포함한다.
본 발명에 따른 부가적인 특징 및 장점은, 후술하는 본 발명의 실시를 위한 구체적인 내용의 상세한 설명에 의하여 더욱 명료해 질 것이며, 본 발명은 비록 한 정된 실시 예와 도면에 의하여 설명되나, 본 발명의 권리범위는 이러한 실시 예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명 사상은 아래에 기재된 특허 청구 범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형은 모두 본 발명 사상의 범주에 속하는 것으로 해석되어야 할 것이다.
본 발명에 따르면, 오디오 ES 공통정보를 하나의 다객체 패킷헤더에 포함하기 때문에 불필요한 정보로 인한 데이터를 감소시켜 효율적인 객체기반 오디오 콘텐츠를 전송할 수 있는 효과가 있다.
추후, 디지털 방송, 라디오 방송, DMB, 디지털 영화, DVD, 동영상 콘텐츠 등과 같은 객체기반 오디오 서비스가 제공되는 모든 방송 서비스 및 멀티미디어 서비스에 적용될 수 있다.
본 발명은 궁극적으로 한정적인 송수신 자원을 효율적으로 사용할 수 있어 막대한 송수신 비용을 감소시킬 수 있다.
이하에서는 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 객체기반 오디오 콘텐츠 송수신 방법 및 그 장치를 상세히 설명한다.
본 발명의 원리는 객체기반 오디오 정보의 전송을 간소화하기 위해 입력받 는 기초 비트열(ES: Elementary Stream)들을 공통정보로 필터링하여 패킷화한 후, 생성된 패킷들을 취합하여 객체패킷을 생성할 때 다객체 패킷 헤더에 공통 정보를 입력함으로써 데이터 전송률을 높이는 것이다.
상기 객체기반 오디오는 동일한 부호화 방식으로 부호화되고, 동일한 프레임 주기 및 각 프레임들이 동일한 재생시각을 가진다.
도 4는 본 발명의 일 실시 예에 따르는 객체기반 오디오 콘텐츠 송수신 장치를 보여주는 블록도이다.
도 4를 참조하면, 본 발명에 따르는 객체기반 오디오 콘텐츠 송수신 장치(400)는 기 설정된 공통정보에 따라 필터링된 ES들을 패킷헤더를 부가하여 ES 패킷화하고, 상기 ES 패킷을 다객체 패킷헤더가 부가된 객체패킷화한 후, 상기 객체패킷을 전송 매체에 따라 패킷화하여 전송하는 송신기(410), 및 상기 수신된 패킷을 각각의 ES로 분리한 후, 복호화하여 재생하는 수신기(420)를 포함하여 구성된다.
바람직하게, 상기 공통정보는 전체 패킷의 길이, 공통된 ES의 종류, 재생시각 정보 중 적어도 하나 이상을 포함한다.
여기서, 상기 전체 패킷의 길이는 객체패킷의 길이를 의미한다.
또한, 상기 공통된 ES의 종류는 동일한 부호화 방식을 사용하여 생성된 ES인것이 바람직하다.
예를 들어, BSAC 방식에 따라 부호화된 복수의 오디오 ES는 공통정보로 사 용된다. 그러나, 다수의 ES들 중 일부는 BSAC 방식에 따라 부호화가 되어있고, 일부는 AAC 방식으로 부호화가 되어있다면 상기 ES의 종류는 공통된 정보가 아니므로 공통정보로 사용할 수 없다.
여기서, 상기 다객체 패킷헤더는 상기 공통정보 및, 서로 다른 객체패킷을 구별할 수 있는 정보를 포함하는 것이 바람직하다.
또한, 상기 패킷헤더는 공통정보를 제외한, 서로 다른 ES 패킷을 구별할 수 있는 정보를 포함하는 것이 바람직하다.
도 4와 같이 구성된 본 발명에 따르는 객체기반 오디오 콘텐츠 송수신 장치의 동작은 다음과 같다. 도 4를 참조하면, 우선, 송신기(410)는 각각의 입력 ES를 기 설정된 공통정보에 따라 필터링한다. 즉, 상기 송신기(410)에 입력되는 각각의 ES들은 기 설정된 공통정보에 의해 필터링된다.
예를 들어, 공통된 ES의 종류를 공통정보로 설정하면, 동일한 방식으로 부호화된 ES들만 필터링된다. 이와 같이, 공통된 ES의 종류로 필터링된 입력 ES들은 패킷화를 위해 패킷헤더가 부가되는데, 이때 상기 공통된 ES의 종류 정보는 상기 패킷헤더에서 제외된다. 즉, 상기 패킷헤더는 공통정보를 포함하고 있지 않다.
그 후, 생성된 ES 패킷들은 취합되고, 상기 공통정보가 포함된 단수의 다객체 패킷헤더가 부가되어 객체패킷이 생성된 후 수신기(420)로 송신된다. 이때, 상기 객체패킷은 전송매체에 따라 다시 패킷화된다.
상기 수신기(420)는 상기 객체패킷을 수신받아 역패킷화한 후 각각의 ES를 분리하고 복호화하여 재생한다.
도 5는 본 발명의 일 실시 예에 따르는 도 4의 객체기반 오디오 콘텐츠 송수신 장치의 송신기 구성을 보여주는 블록도이다.
도 5를 참조하면, 본 발명에 따르는 송신기(500)는 각각의 입력 ES들을 수신하는 입력부(502)와, 3차원 정보를 수신하는 3차원 정보 입력부(504)와, 공통정보에 따라 필터링하는 필터링부(510)와, 상기 필터링부(510)에서 필터링된 ES들을 공통정보가 제외된 패킷헤더를 부가하여 ES 패킷을 생성하는 ES 패킷화부(520)와, 상기 ES 패킷화부(520)에서 생성된 ES 패킷들을 취합한 후, 상기 공통정보가 포함된 다객체 패킷헤더를 부가하여 객체패킷을 생성하는 다객체 패킷화부(530), 및 상기 다객체 패킷화부(530)에서 생성된 객체패킷을 다중화한 후 전송 매체에 따라 패킷화하여 전송하는 전송부(540)를 포함하여 구성된다.
도 5와 같이 구성된 본 발명에 따르는 송신기(500)의 동작을 도 6을 참조하여 설명하면 다음과 같다. 도 6은 본 발명에 따르는 송신기가 ES 데이터를 패킷화하는 일 예를 도시한 예시도이다.
도 5와 도 6을 참조하면, 입력 오디오 ES(ES 1_0 ~ ES 4_0, ES 1_1 ~ ES 4_1)들을 수신하는 입력부(502)는 수신한 ES들을 필터링부(510)로 제공한다. 그러면 이를 제공받은 필터링부(510)는 공통정보로 필터링한다.
여기서, 상기 공통정보는 전체 패킷의 길이, 공통된 ES의 종류, 재생시각 정보 중 적어도 하나 이상을 포함한다. 즉, 상기 송신기(500)에 입력되는 각각의 ES들은 기 설정된 공통정보에 의해 필터링된다. 예를 들어, 필터링부(510)에서 ES 재생시간정보를 공통정보로 설정하면, 동일한 ES 재생시간정보를 갖는 ES들만 필터링된다.
그 후, ES 패킷화부(520)는 입력 ES를 패킷화하기 위한 패킷헤더(620)를 부가하여 ES 패킷을 생성한다.
상기 패킷헤더(620)는 공통정보가 제외되고, 서로 다른 ES 패킷을 구별할 수 있는 정보를 포함하는 것이 바람직하다.
상기 패킷헤더(620)가 부가되면, 다객체 패킷화부(530)는 상기 ES 패킷들을 취합하여 다객체 패킷헤더(630)를 부가함으로써 객체패킷을 생성한다.
상기 다객체 패킷헤더(630)에는 기 설정된 공통정보인 ES 재생시간정보가 포함된다.
한편, 3차원 정보 입력부(504)는 각 ES에 대한 3차원 정보를 수신하는 경우 이를 전송부(540)로 제공한다. 이때, 수신하는 3차원 정보는 사용자에 의해 설정될 수도 있으며, 기설정된 3차원 정보 중에 하나를 검색하여 수신할 수도 있다.
여기서, 3차원 정보라 함은 ES들 각각에 대한 공간배치정보(3차원 위치정보)와 그 크기정보(음량)를 포함하는 정보로서, 공간배치정보는 X, Y 및, Z의 3축의 좌표로 표현할 수 있다.
또한, 3차원 정보는 한번 설정되면 연속된 ES들과는 달리 매 패킷마다 설정이 변경되지 않기 때문에 본 발명에서는 ES들을 포함하는 패킷에 포함하지 않고, 3차원 정보만을 따로 수신기로 한번 혹은 일정간격으로 전송한다. 하지만 이는 본 발명의 일 실시 예로 ES들의 위치가 실시간으로 움직이는 경우를 고려하는 경우 각 ES패킷에 3차원 정보를 포함 시킬 수도 있다.
그 후, 전송부(540)는 상기 생성된 객체패킷 또는 3차원 정보를 다중화하고 전송 매체에 따라 패킷화하여 수신기로 전송한다.
여기서, 상기 생성된 객체패킷의 다중화는 오디오 스트림과 비디오 스트림을 단일 스트림으로 다중화하는 것이 바람직하다.
또한, 전송 매체에 따라 패킷화하는 것은 예를 들면, 디지털 방송의 경우 ES가 PES 패킷을 거쳐 TS 패킷화되는 것이고, 인터넷의 경우 ES에 TCP/IP 패킷 헤더를 부가하여 패킷화되는 것이 바람직하다.
다음은 상술한 바와 같은 본 발명에 따른 송신기의 동작을 예를 들어 설명한다.
우선, 패킷화를 위한 패킷헤더(620)에 2 바이트의 ES 식별자 정보와 2 바이트의 ES 길이정보와 4 바이트의 ES 재생시간 정보를 사용하고, 각 ES(610)는 초당 43프레임이 전송되며, 각각의 ES 프레임은 동일한 ES 재생시간 정보를 갖는다고 가정하자.
일반적인 전송 방식에 따른 4개의 오디오 ES를 전송할 때 필요한 헤더의 바 이트 수는 아래의 [수학식 1]과 같이 계산된다.
(ES 식별자정보를 위한 byte + ES 길이정보를 위한 byte + ES 재생시간정보를 위한 byte) * 프레임율 * 객체의 수
(2 + 2 + 4) * 43 * 4 = 1,376byte -> 11,008 bps
그러나 본 발명의 일 실시 예와 같이, 만약 동일한 ES 재생시간정보인 'ES 재생시간정보를 위한 byte'를 공통정보로 기 설정하여 다수의 ES를 필터링한 후 하나의 객체로 객체화하여 전송한다면, 이때 소요되는 헤더의 바이트 수는 아래의 [수학식 2]와 같이 계산되므로, 약 40% 이상의 byte 절감된다.
((ES 식별자정보를 위한 byte + ES 길이정보를 위한 byte) * 객체의 수 + ES 재생시간정보를 위한 byte)* 프레임율
((2+2)*4 + 4) * 43 = 860byte -> 6,880 bps
즉, 공통정보로 설정된 ES 재생시간정보인 'ES 재생시간정보를 위한 byte'가 각각의 ES 패킷헤더에 포함되지 않고 다객체 패킷헤더에만 포함됨으로써, 본 발명은 전송되는 데이터 비트를 절감하여 효율적인 전송이 가능하다.
도 7은 본 발명의 일 실시 예에 따르는 도 4의 객체기반 오디오 콘텐츠 송 수신 장치의 수신기 구성을 보여주는 블록도이다.
도 7을 참조하면, 본 발명에 따르는 수신기(700)는 수신된 객체패킷을 분석하여 각각의 ES로 분리하는 역패킷화부(710)와, 상기 분리된 각각의 ES를 복호화하는 ES 복호화부(720), 및 상기 복호화된 각각의 ES를 재생하는 재생부(730)를 포함하여 구성된다.
도 7과 같이 구성된 본 발명의 일 실시 예에 따르는 디지털 오디오 콘텐츠 송수신 시스템의 수신기의 동작은 다음과 같다.
우선, 역패킷화부(710)는 수신된 객체패킷을 각각의 ES로 역패킷하여 각각의 ES로 분리한다. 이때, 역패킷화부(710)는 수신한 객체패킷의 다객체 패킷헤더에서 객체패킷이 포함하는 ES의 공동정보를 획득하고, ES 각각의 패킷헤더에서 상기 공통정보가 제외된 해당 기초 비트열에 정보를 획득한다.
그 후 ES 복호화부(720)는 분리된 ES들을 복호화하여 전달하면, 재생부(730)는 상기 복호화된 ES들을 재생한다.
도 8은 본 발명의 또 다른 실시 예에 따르는 객체기반 오디오 콘텐츠 송수신 장치의 수신기 구성을 보여주는 블록도이다.
도 8을 참조하면, 본 발명의 또 다른 실시 예에 따르는 객체기반 오디오 콘텐츠 송수신 장치의 수신기(800)는 수신된 객체패킷을 분석하여 각각의 ES로 분리하는 역패킷화부(810)와, 상기 분리된 각각의 ES를 복호화하는 ES 복호화부(820)와, 상기 복호화된 ES에 3차원 효과를 부가하는 3차원 장면 생성부(830) 및, 상기 복호화된 각각의 ES를 재생하는 재생부(840)를 포함하여 구성된다.
도 8과 같이 구성된 본 발명의 또 다른 실시 예에 따르는 디지털 오디오 콘텐츠 송수신 시스템의 수신기의 동작은 다음과 같다.
우선, 역패킷화부(810)는 수신된 패킷이 객체패킷이면 객체패킷을 각각의 ES로 역패킷하여 각각의 ES로 분리하여 ES 복호화부(820)로 전달하고, 수신된 패킷의 분석결과 3차원 정보이면 이를 3차원 장면 생성부(830)로 전달한다.
이때, 역패킷화부(810)는 수신한 객체패킷의 다객체 패킷헤더에서 객체패킷이 포함하는 ES의 공동정보를 획득하고, ES 각각의 패킷헤더에서 상기 공통정보가 제외된 해당 기초 비트열에 정보를 획득한다.
그 후 ES 복호화부(820)는 분리된 ES들을 복호화하여 전달하면, 상기 역패킷화된 ES들을 수신한 3차원 정보를 이용하여 대응되는 3차원 효과를 3차원 장면 생성부(830)에서 부가하여 재생부(840)로 전달한다. 상기 재생부(840)는 상기 복호화된 ES들을 3차원 효과를 동반하여 재생한다.
바람직하게, 상기 3차원 정보는 사람의 음성이나 서로 다른 악기들의 위치정보인 3차원 오디오의 공간 배치 정보로서, 여러 개의 ES들인 오디오 객체들을 3차원 공간상에 배치시켜 주고, 그 크기를 설정하기 위한 정보이다. 예를 들어, 오디오 객체들은 가수의 목소리, 기타소리, 드럼소리, 베이스 소리 등이 있다고 가정할 때, 3차원 정보는 다음과 같이 설정할 수 있다.
가수의 목소리는 청취자를 기준으로 전방 2m 앞(x,y,z 좌료를 이용하면, (0, 2, 0))에, 소리의 크기는 10으로 설정. 기타소리는 청취자의 전방 오른쪽 2m(x,y,z 좌표계 상의 (2, 2, 0))에 위치시키고, 소리의 크기는 5로 설정. 드럼소리는 청취자의 전방 왼쪽 2m (x,y,z 좌표계 상의 (-2, 2, 0)에 위치시키고, 소리의 크기는 5로 설정. 베이스 소리는 후방 왼쪽 2m (x,y,z 좌표계 상의 (-2,-2,0)에 위치시키고, 소리의 크기는 7로 설정 할 수 있다.
그러면 위와 같이 설정된 3차원 정보를 수신한 수신기의 3차원 장면 재생부(830)의 경우 3차원 정보를 이용하여 오디오 객체들의 소리를 공간상에 위치시킬 수 있다. 이때, 오디오 객체를 공간상에 위치시키는 가장 대표적인 방법으로는 머리전달 함수(HRTF : Head Related Transfer Function)를 이용하는 방법이 있다. 여기서, HRTF는 3차원 오디오 신호처리를 위한 것으로서, 각 방향에 따른 소리의 임펄스 응답(Impulse response)를 측정하여 이용한다. 일반적으로 HRTF는 측정한 임펄스 응답 을 수평방향으로 5도 단위로 획득한 것을 사용한다. 오디오 음원에 각 방향에 해당하는 HRTF를 회선(convolution) 하면, 소리가 해당 방향에서 들리는 것과 같은 효과를 나타내게 된다.
위에서 가정한 것을 예를 들면, 기타 소리는 오른쪽 전방 2m(오른쪽으로 2m, 전방으로 2m)에 위치하고 있는데, 이 경우 청취자와의 각도는 45도가 되므로, 기타 소리에 45도에 해당하는 HRTF를 회선(convolution) 하면, 기타 소리가 오른쪽 전방 2m에서 나오는 것과 같은 효과를 나타내게 된다. 따라서, 나머지 드럼이나, 베이스 소리도 이와 같은 방법으로 3차원 효과를 부여할 수 있다.
한편, 3차원 장면 생성부(830)는 송신기로부터 역패킷화부(810)를 통해 3차원 정보를 제공받아 3차원 효과를 부가 할 수도 있으나, 다른 실시 예로 수신기 사 용자의 설정으로 기설정되어 저장된 3차원 정보를 이용하여 3차원 효과를 부가할 수도 있다.
도 9는 본 발명의 실시 예에 따르는 객체기반 디지털 오디오 콘텐츠 송수신 방법을 보여주는 순서도이다.
도 9를 참조하면, 본 발명에 따르는 객체기반 디지털 오디오 콘텐츠 송수신 방법(900)은 입력되는 각각의 ES를 공통정보에 따라 필터링하는 단계(S910)와, 상기 필터링된 ES에 공통정보가 제외된 패킷헤더를 부가하여 ES 패킷으로 패킷화하는 단계(S920)와, 상기 ES 패킷을 취합하여 공통정보를 포함하는 다객체 패킷헤더를 부가하여 객체패킷을 생성하는 단계(S930)와, 상기 객체패킷을 다중화하고 전송 매체에 따라 패킷화가 추가되어 전송하는 단계(940)와, 상기 수신된 객체패킷을 역패킷화하여 각각의 ES로 분리하는 단계(S950)와, 상기 분리된 각각의 ES를 복호화하는 단계(S960), 및 상기 복호화된 각각의 ES를 재생하는 단계(S980)를 포함하여 구성된다.
바람직하게, 상기 ES를 복호화하는 단계(S960)는 복호화된 ES에 3차원 효과를 부가하는 단계(S970)가 포함된다.
도 9와 같이 구성된 본 발명의 실시 예에 따르는 객체기반 디지털 오디오 콘텐츠 송수신 방법의 동작은 다음과 같다.
우선 입력되는 각각의 ES를 기 설정된 공통정보로 필터링한 후 패킷헤더가 부가된 ES 패킷을 생성하여 취합하고, 공통정보가 포함된 다객체 패킷헤더를 부가한 객체패킷을 생성하여 다중화하여, 전송 매체에 따른 패킷화를 추가하여 전송한 다.
여기서, 상기 다중화는 오디오 스트림과 비디오 스트림을 단일 스트림으로 다중화하는 것이 바람직하다.
또한, 전송 매체에 따른 패킷화는 디지털 방송의 경우 ES가 PES 패킷을 거쳐 TS 패킷화되는 것이고, 인터넷의 경우 ES에 TCP/IP 패킷 헤더를 부가하여 패킷화하는 것이다.
그러면, 수신단에서는 수신된 상기 객체패킷을 역패킷화하여 각각의 ES로 분리한 후 복호화하고, 미리 수신하였거나 기설정된 3차원 정보를 이용하여 각각의 ES에 대응되는 3차원 효과를 부가하여 재생한다.
상술한 바와 같이, 상기 3차원 정보는 사람의 음성이나 서로 다른 악기들의 위치정보인 3차원 오디오의 공간 배치 정보이다.
따라서, 본 발명에 따르는 객체기반 디지털 오디오 콘텐츠 송수신 방법은 데이터의 비트를 절감할 수 있기 때문에 데이터를 효율적으로 전송할 수 있고, 3차원 효과가 부가되기 때문에 오디오의 재생 품질을 높일 수 있다.
이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
도 1은 종래의 멀티미디어 전송 시스템을 보여주는 블록도.
도 2는 도 1의 종래의 멀티미디어 전송 시스템의 ES 신호를 패킷화하는 일 예를 도시한 예시도.
도 3은 종래의 Flex MUX 방법에 의해 ES를 패킷화하는 과정을 보여주는 예시도.
도 4는 본 발명에 따른 객체기반 오디오 콘텐츠 송수신 장치를 보여주는 블록도.
도 5는 본 발명의 일 실시 예에 따르는 도 4의 객체기반 오디오 콘텐츠 송수신 장치의 송신기 구성을 보여주는 블록도.
도 6은 본발명에 따르는 송신기가 ES 데이터를 패킷화하는 일 예를 도시한 예시도.
도 7은 본 발명의 일 실시 예에 따르는 도 4의 객체기반 오디오 콘텐츠 송수신 장치의 수신기 구성을 보여주는 블록도.
도 8은 본 발명의 또 다른 실시 예에 따르는 객체기반 오디오 콘텐츠 송수신 장치의 수신기 구성을 보여주는 블록도.
도 9는 본 발명의 실시 예에 따르는 객체기반 디지털 오디오 콘텐츠 송수신 방법을 보여주는 순서도.

Claims (23)

  1. 오디오 콘텐츠에 있어서,
    기초 비트열(ES: Elementary Stream)과 공통정보가 제거된 헤더인 패킷헤더를 포함하는 기초 비트열 패킷; 및
    하나 이상의 상기 기초 비트열 패킷들을 취합하여 부가되는 헤더인 상기 공통정보가 포함된 다객체 패킷헤더를 포함하는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 객체기반 디지털 오디오 콘텐츠.
  2. 제 1항에 있어서, 상기 공통정보는,
    전체 패킷의 길이, 공통된 기초 비트열의 종류 및, 재생시각 정보 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠.
  3. 수신하는 하나 이상의 기초 비트열(ES: Elementary Stream)을 공통정보로 필터링하는 단계;
    상기 필터링한 상기 기초 비트열 각각에 공통정보를 제외한 패킷헤더를 부가한 기초 비트열 패킷을 생성하는 단계;
    생성한 상기 기초 비트열 패킷을 하나로 취합하여 다객체 패킷헤더를 부가 한 객체패킷을 생성하는 단계; 및
    생성한 상기 객체패킷을 다중화하여 전송 매체에 따라 패킷화한 후 전송하는 단계를 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 송신 방법.
  4. 제 3항에 있어서, 상기 공통정보는,
    전체 패킷의 길이, 공통된 기초 비트열의 종류 및, 재생시각 정보 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 송신 방법.
  5. 제 3항에 있어서, 상기 다객체 패킷헤더는,
    상기 공통정보를 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 송신 방법.
  6. 제 3항에 있어서,
    상기 기초 비트열에 대한 3차원 정보를 전송하는 단계를 더 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 송신 방법.
  7. 제 6항에 있어서, 상기 3차원 정보는,
    상기 기초 비트열 각각에 대한 공간배치정보와 크기정보를 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 송신 방법.
  8. 수신하는 객체패킷을 역패킷하여 각각의 기초 비트열(ES: Elementary Stream)로 분리하는 단계와;
    분리한 각각의 상기 기초 비트열을 복호화하는 단계; 및
    복호화한 각각의 상기 기초 비트열을 재생하는 단계를 포함하여 구성되는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 수신 방법.
  9. 제 8항에 있어서,
    상기 기초 비트열에 대한 3차원 정보를 수신하는 단계를 더 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 수신 방법.
  10. 제 8항에 있어서, 상기 재생하는 단계는,
    상기 복호화한 기초 비트열에 음향의 3차원 정보를 이용하여 3차원 효과를 부가하는 단계를 더 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 수신 방법.
  11. 제 9항 내지 10항에 있어서, 상기 3차원 정보는,
    상기 기초 비트열 각각에 대한 공간배치정보와 크기정보를 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 수신 방법.
  12. 제 8항에 있어서, 상기 기초 비트열을 분리하는 단계는,
    수신한 상기 객체패킷의 다객체 패킷헤더에서 상기 객체패킷이 포함하는 상기 기초 비트열의 공동정보를 획득하고, 상기 기초 비트열 각각의 패킷헤더에서 상기 공통정보가 제외된 해당 기초 비트열에 정보를 획득하는 것을 특징으로 하는 객 체기반 디지털 오디오 콘텐츠 수신 방법.
  13. 제 12항에 있어서, 상기 공통정보는,
    전체 패킷의 길이, 공통된 기초 비트열의 종류 및, 재생시각 정보 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 수신 방법.
  14. 입력받는 각각의 기초 비트열(ES: Elementary Stream)을 공통정보에 따라 필터링하는 필터링부;
    필터링한 상기 기초 비트열들을 기초 비트열 패킷으로 패킷화하는 기초 비트열 패킷화부;
    상기 패킷들을 취합한 후, 객체패킷으로 패킷화하는 다객체 패킷화부; 및
    상기 객체패킷을 다중화하여 전송매체에 따라 패킷화한 후, 전송하는 전송부를 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 송신 장치.
  15. 제 14항에 있어서, 상기 공통정보는,
    전체 패킷의 길이, 공통된 기초 비트열의 종류 및, 재생시각 정보 중 적어 도 하나 이상을 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 송신 장치.
  16. 제 14항에 있어서, 상기 객체패킷은,
    상기 공통정보를 포함한 다객체 패킷헤더가 부가되는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 송신 장치.
  17. 제 14항에 있어서,
    상기 기초 비트열에 대한 3차원 정보 입력받는 3차원 정보 입력부를 더 포함하고,
    상기 전송부는 상기 3차원 정보를 전송하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 송신 장치.
  18. 제 17항에 있어서, 상기 3차원 정보는,
    상기 기초 비트열 각각에 대한 공간배치정보와 크기정보를 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 송신 장치.
  19. 수신하는 객체패킷을 각각의 기초 비트열(ES: Elementary Stream)로 분리하는 역패킷화부와;
    분리한 각각의 상기 기초 비트열을 복호화하는 기초 비트열 복호화부; 및
    복호화한 각각의 상기 기초 비트열을 재생하는 재생부를 포함하여 구성되는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 수신 장치.
  20. 제 19항에 있어서, 상기 역패킷화부는,
    수신한 상기 객체패킷의 다객체 패킷헤더에서 상기 패킷이 포함하는 상기 기초 비트열의 공동정보를 획득하고, 상기 기초 비트열 각각의 패킷헤더에서 상기 공통정보가 제외된 해당 기초 비트열에 정보를 획득하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 수신 장치.
  21. 제 19항에 있어서,
    수신 또는 기설정되어 저장한 3차원 정보를 이용하여 3차원 효과를 부가하는 3차원 장면 생성부를 더 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 수신 장치.
  22. 제 19항에 있어서, 상기 역패킷화부는,
    상기 기초 비트열에 대한 3차원 정보를 수신하면 상기 3차원 정보를 이용하여 3차원 효과를 부가하는 3차원 장면 생성부로 전달하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 수신 장치.
  23. 제 21항 내지 22항에 있어서, 상기 3차원 정보는,
    상기 기초 비트열 각각에 대한 공간배치정보와 크기정보를 포함하는 것을 특징으로 하는 객체기반 디지털 오디오 콘텐츠 수신 장치.
KR1020080024746A 2007-10-11 2008-03-18 객체기반 오디오 콘텐츠 송수신 방법 및 그 장치 KR100942142B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP19150144.4A EP3496097A1 (en) 2007-10-11 2008-08-18 Method and apparatus for receiving object-based audio contents
EP08793304A EP2210254A4 (en) 2007-10-11 2008-08-18 METHOD AND APPARATUS FOR TRANSMITTING AND RECEIVING AUDIO CONTENT BASED ON OBJECTS
PCT/KR2008/004790 WO2009048221A1 (en) 2007-10-11 2008-08-18 Method and apparatus for transmitting and receiving of the object-based audio contents
US12/682,420 US8340096B2 (en) 2007-10-11 2008-08-18 Method and apparatus for transmitting and receiving of the object-based audio contents
US13/682,990 US9525612B2 (en) 2007-10-11 2012-11-21 Method and apparatus for transmitting and receiving of the object-based audio contents
US15/383,200 US10140999B2 (en) 2007-10-11 2016-12-19 Method and apparatus for transmitting and receiving of the object-based audio contents
US16/199,987 US10796707B2 (en) 2007-10-11 2018-11-26 Method and apparatus for transmitting and receiving of the object-based audio contents

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020070102645 2007-10-11
KR20070102645 2007-10-11

Publications (2)

Publication Number Publication Date
KR20090037278A KR20090037278A (ko) 2009-04-15
KR100942142B1 true KR100942142B1 (ko) 2010-02-16

Family

ID=40762055

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080024746A KR100942142B1 (ko) 2007-10-11 2008-03-18 객체기반 오디오 콘텐츠 송수신 방법 및 그 장치

Country Status (4)

Country Link
US (4) US8340096B2 (ko)
EP (2) EP3496097A1 (ko)
KR (1) KR100942142B1 (ko)
WO (1) WO2009048221A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101596504B1 (ko) 2008-04-23 2016-02-23 한국전자통신연구원 객체기반 오디오 컨텐츠의 생성/재생 방법 및 객체기반 오디오 서비스를 위한 파일 포맷 구조를 가진 데이터를 기록한 컴퓨터 판독 가능 기록 매체
KR102047800B1 (ko) * 2012-02-15 2019-11-22 삼성전자주식회사 데이터 전송 장치, 데이터 수신 장치, 데이터 송수신 시스템, 데이터 전송 방법, 데이터 수신 방법 및 데이터 송수신 방법
WO2013122387A1 (en) 2012-02-15 2013-08-22 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transceiving system, data transmitting method, and data receiving method
WO2013122386A1 (en) 2012-02-15 2013-08-22 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transreceiving system, data transmitting method, data receiving method and data transreceiving method
WO2013122385A1 (en) 2012-02-15 2013-08-22 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transreceiving system, data transmitting method, data receiving method and data transreceiving method
KR101501344B1 (ko) * 2012-05-02 2015-03-10 삼성전자주식회사 멀티미디어 서비스 송수신 방법 및 장치
US10356484B2 (en) * 2013-03-15 2019-07-16 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transceiving system, method for transmitting data, and method for receiving data
KR102201826B1 (ko) * 2013-03-15 2021-01-12 삼성전자주식회사 데이터 전송 장치, 데이터 수신 장치, 데이터 송수신 시스템, 데이터 전송 방법 및 데이터 수신 방법
US9723245B2 (en) 2013-03-15 2017-08-01 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transceiving system, method for transmitting data, and method for receiving data
CN104882145B (zh) 2014-02-28 2019-10-29 杜比实验室特许公司 使用音频对象的时间变化的音频对象聚类
US9955278B2 (en) 2014-04-02 2018-04-24 Dolby International Ab Exploiting metadata redundancy in immersive audio metadata
US10009650B2 (en) * 2014-06-12 2018-06-26 Lg Electronics Inc. Method and apparatus for processing object-based audio data using high-speed interface
WO2016002493A1 (ja) * 2014-06-30 2016-01-07 ソニー株式会社 ファイル生成装置および方法、並びにコンテンツ再生装置および方法
CN104661051A (zh) * 2015-03-09 2015-05-27 深圳市九洲电器有限公司 流媒体推送方法及系统
US11937070B2 (en) 2021-07-01 2024-03-19 Tencent America LLC Layered description of space of interest

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2281538C (en) * 1997-02-14 2006-01-03 The Trustees Of Columbia University In The City Of New York Object-based audio-visual terminal and bitstream structure
US7199836B1 (en) * 1998-02-13 2007-04-03 The Trustees Of Columbia University In The City Of New York Object-based audio-visual terminal and bitstream structure
KR100542129B1 (ko) * 2002-10-28 2006-01-11 한국전자통신연구원 객체기반 3차원 오디오 시스템 및 그 제어 방법
JP2005198251A (ja) * 2003-12-29 2005-07-21 Korea Electronics Telecommun 球体を用いた3次元オーディオ信号処理システム及びその方法
JP4872253B2 (ja) * 2004-10-12 2012-02-08 ソニー株式会社 多重化装置、多重化方法、プログラム、および記録媒体
WO2007004831A1 (en) * 2005-06-30 2007-01-11 Lg Electronics Inc. Method and apparatus for encoding and decoding an audio signal
WO2007055464A1 (en) * 2005-08-30 2007-05-18 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
KR100733965B1 (ko) * 2005-11-01 2007-06-29 한국전자통신연구원 객체기반 오디오 전송/수신 시스템 및 그 방법
CN101473645B (zh) * 2005-12-08 2011-09-21 韩国电子通信研究院 使用预设音频场景的基于对象的三维音频服务系统
GB0602314D0 (en) * 2006-02-06 2006-03-15 Ericsson Telefon Ab L M Transporting packets
KR20080093422A (ko) * 2006-02-09 2008-10-21 엘지전자 주식회사 오브젝트 기반 오디오 신호의 부호화 및 복호화 방법과 그장치
US20070211682A1 (en) * 2006-03-09 2007-09-13 Nec Laboratories America, Inc. On Packet Aggregation and Header Compression Mechanisms for Improving VoIP Quality in Mesh Networks
RU2551797C2 (ru) * 2006-09-29 2015-05-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способы и устройства кодирования и декодирования объектно-ориентированных аудиосигналов
JP4997986B2 (ja) * 2007-01-19 2012-08-15 トヨタ自動車株式会社 ハイブリッド車両の制御装置
KR100868475B1 (ko) * 2007-02-16 2008-11-12 한국전자통신연구원 객체기반 오디오 서비스를 위한 다중객체 오디오 콘텐츠파일의 생성, 편집 및 재생 방법과, 오디오 프리셋 생성방법
EP2482564A3 (en) * 2008-09-30 2013-09-25 Panasonic Corporation Recording medium, playback device, system LSI, playback method, glasses, and display device for 3D images
EP2194527A3 (en) * 2008-12-02 2013-09-25 Electronics and Telecommunications Research Institute Apparatus for generating and playing object based audio contents
KR101129974B1 (ko) * 2008-12-22 2012-03-28 (주)오디즌 객체 기반 오디오 컨텐츠 생성/재생 방법 및 그 장치
KR101676037B1 (ko) * 2009-12-04 2016-11-14 한국전자통신연구원 모바일 방송이 결합된 방송 시스템에서 3차원 방송서비스 장치 및 방법

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Dai Yang et al., 'A lossless Audio Compression Scheme with Random Access Property', ICASSP 2004
J. Breebaart et al., 'MPEG Spatial Audio Coding / MPEG Surround: Overview and Current Status', AES 119th Convention Paper, 7-10 October 2005, New York, USA
J. Herre et al., 'The Reference Model Architecture for MPEG Spatial Audio Coding', AES 118th Convention Paper, 28-31 May 2005, Barcelona, Spain

Also Published As

Publication number Publication date
US20190096417A1 (en) 2019-03-28
US20100215044A1 (en) 2010-08-26
US8340096B2 (en) 2012-12-25
KR20090037278A (ko) 2009-04-15
EP3496097A1 (en) 2019-06-12
EP2210254A1 (en) 2010-07-28
EP2210254A4 (en) 2011-08-17
US10140999B2 (en) 2018-11-27
US20170103765A1 (en) 2017-04-13
WO2009048221A1 (en) 2009-04-16
US9525612B2 (en) 2016-12-20
US20130077631A1 (en) 2013-03-28
US10796707B2 (en) 2020-10-06

Similar Documents

Publication Publication Date Title
KR100942142B1 (ko) 객체기반 오디오 콘텐츠 송수신 방법 및 그 장치
JP6793231B2 (ja) 受信方法
JP4828535B2 (ja) 3次元立体ビデオ付加データを用いた3次元立体デジタル放送の送/受信装置及びその方法
KR100658222B1 (ko) 3차원 디지털 멀티미디어 방송 시스템
EP1624448B1 (en) Packet multiplexing multi-channel audio
JP5038602B2 (ja) データ伝送同期化スキーム
EP1949693B1 (en) Method and apparatus for processing/transmitting bit-stream, and method and apparatus for receiving/processing bit-stream
KR960033096A (ko) 멀티미디어 정보처리 시스템
CN105393547A (zh) 发送方法、接收方法、发送装置及接收装置
KR20090115074A (ko) 슈퍼 프레임을 이용하여 멀티채널 오디오 신호를 송수신하는 방법 및 장치
KR100917844B1 (ko) 멀티채널 오디오 신호를 전송 또는 재생하는 장치 및 방법
KR101292893B1 (ko) 계층적 부호화 장치 및 방법, 계층적 복호화 장치 및 방법
KR101336423B1 (ko) 계층적 부호화 장치 및 방법, 복호화 장치 및 방법
KR20070003574A (ko) 오디오 신호 인코딩 및 디코딩 방법 및 장치
KR20110085155A (ko) 실시간 스트리밍을 위한 오디오 생성장치, 오디오 재생장치 및 그 방법
KR20170025504A (ko) Usac 오디오 스트림을 전송하기 위한 오디오 신호 전송 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130204

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140123

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150126

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160127

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170124

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190125

Year of fee payment: 10