KR102396133B1 - Transmission device, transmission method, reception device, and reception method - Google Patents

Transmission device, transmission method, reception device, and reception method Download PDF

Info

Publication number
KR102396133B1
KR102396133B1 KR1020167006121A KR20167006121A KR102396133B1 KR 102396133 B1 KR102396133 B1 KR 102396133B1 KR 1020167006121 A KR1020167006121 A KR 1020167006121A KR 20167006121 A KR20167006121 A KR 20167006121A KR 102396133 B1 KR102396133 B1 KR 102396133B1
Authority
KR
South Korea
Prior art keywords
metadata
audio
audio stream
server
information
Prior art date
Application number
KR1020167006121A
Other languages
Korean (ko)
Other versions
KR20170032212A (en
Inventor
이쿠오 츠카고시
Original Assignee
소니그룹주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니그룹주식회사 filed Critical 소니그룹주식회사
Publication of KR20170032212A publication Critical patent/KR20170032212A/en
Application granted granted Critical
Publication of KR102396133B1 publication Critical patent/KR102396133B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43632Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8586Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL

Abstract

오디오 스트림에 메타데이터가 삽입되어 있는 것을 수신측에서 용이하게 인식 가능하게 한다. 메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너를 송신한다. 컨테이너의 레이어에, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보를 삽입한다. 수신측에서는, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 용이하게 인식할 수 있고, 이 인식에 기초하여 오디오 스트림에 삽입되어 있는 메타데이터의 추출 처리를 행함으로써, 낭비없이 확실하게 메타데이터의 취득이 가능해진다. It enables the receiver to easily recognize that metadata is embedded in the audio stream. A container of a predetermined format having an audio stream embedded with metadata is transmitted. In the container layer, identification information indicating that metadata is inserted into the audio stream is inserted. The receiving side can easily recognize that metadata is embedded in the audio stream, and by performing extraction processing of the metadata embedded in the audio stream based on this recognition, it is possible to reliably acquire metadata without waste. becomes

Figure R1020167006121
Figure R1020167006121

Description

송신 장치, 송신 방법, 수신 장치 및 수신 방법{TRANSMISSION DEVICE, TRANSMISSION METHOD, RECEPTION DEVICE, AND RECEPTION METHOD}TRANSMISSION DEVICE, TRANSMISSION METHOD, RECEPTION DEVICE, AND RECEPTION METHOD

본 기술은 송신 장치, 송신 방법, 수신 장치 및 수신 방법에 관한 것으로, 특히 오디오 스트림에 메타데이터를 삽입하여 송신하는 송신 장치 등에 관한 것이다.The present technology relates to a transmitting apparatus, a transmitting method, a receiving apparatus, and a receiving method, and more particularly, to a transmitting apparatus for transmitting by inserting metadata into an audio stream.

종래, 메타데이터를 오디오 스트림에 삽입하여 송신하는 것이 제안되어 있다(예를 들어, 특허문헌 1 참조).Conventionally, it has been proposed to transmit metadata by inserting it into an audio stream (for example, refer to Patent Document 1).

일본 특허 공개 제2012-010311호 공보Japanese Patent Laid-Open No. 2012-010311

메타데이터는 오디오 스트림의 예를 들어 유저 데이터 영역에 정의된다. 그러나, 모든 오디오 스트림에 메타데이터가 삽입되는 것은 아니다.Metadata is defined in, for example, a user data area of an audio stream. However, not all audio streams contain metadata.

본 기술의 목적은, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 수신측에서 용이하게 인식 가능하게 하여 처리의 편의를 도모하는 데 있다.An object of the present technology is to facilitate processing by enabling a receiver to easily recognize that metadata is embedded in an audio stream.

본 기술의 개념은, The concept of this technology is,

메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너를 송신하는 송신부와,A transmitter for transmitting a container of a predetermined format having an audio stream embedded with metadata;

상기 컨테이너의 레이어에, 상기 오디오 스트림에 상기 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보를 삽입하는 정보 삽입부를 구비하는 송신 장치에 있다.and an information inserting unit for inserting, in the container layer, identification information indicating that the metadata is inserted into the audio stream.

본 기술에 있어서는, 송신부에 의해, 메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너가 송신된다. 그리고, 정보 삽입부에 의해 컨테이너의 레이어에, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보가 삽입된다.In the present technology, a container of a predetermined format having an audio stream in which metadata is inserted is transmitted by the transmitter. Then, identification information indicating that metadata is inserted into the audio stream is inserted into the layer of the container by the information insertion unit.

예를 들어, 메타데이터는, 네트워크 액세스 정보를 포함해도 된다. 이 경우, 예를 들어 네트워크 액세스 정보는, 컨테이너가 갖는 비디오 스트림에 포함되는 화상 데이터에 관계한 미디어 정보를 네트워크 상의 서버로부터 취득하기 위한 네트워크 액세스 정보여도 된다.For example, the metadata may include network access information. In this case, for example, the network access information may be network access information for acquiring, from a server on the network, media information related to image data included in a video stream included in the container.

또한, 예를 들어 메타데이터는, 미디어 정보의 재생 제어 정보를 포함해도 된다. 이 경우, 예를 들어 미디어 정보는, 컨테이너가 갖는 비디오 스트림에 포함되는 화상 데이터에 관계한 미디어 정보여도 된다.Further, for example, the metadata may include reproduction control information of media information. In this case, for example, the media information may be media information related to image data included in a video stream included in the container.

이와 같이 본 기술에 있어서는, 컨테이너의 레이어에, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보가 삽입된다. 그로 인해, 수신측에서는, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 용이하게 인식할 수 있고, 이 인식에 기초하여 오디오 스트림에 삽입되어 있는 메타데이터의 추출 처리를 행함으로써, 낭비없이 확실하게 메타데이터의 취득이 가능해진다.As described above, in the present technology, identification information indicating that metadata is inserted into the audio stream is inserted into the container layer. Therefore, the receiving side can easily recognize that metadata is inserted into the audio stream, and based on this recognition, extracting the metadata inserted into the audio stream is performed to ensure that the metadata is saved without waste. acquisition becomes possible.

또한, 본 기술에 있어서, 예를 들어 식별 정보에는, 오디오 스트림에 있어서의 음성 데이터의 부호화 방식의 정보가 부가되어 있어도 된다. 이 정보의 부가에 의해 수신측에서는 오디오 스트림에 있어서의 음성 데이터의 부호화 방식을 용이하게 파악할 수 있다.In the present technology, for example, information on a coding method of audio data in an audio stream may be added to identification information. By adding this information, the receiving side can easily grasp the encoding method of the audio data in the audio stream.

또한, 본 기술에 있어서, 예를 들어 식별 정보에는 메타데이터의 타입을 나타내는 타입 정보가 부가되어 있어도 된다. 이 정보의 부가에 의해 수신측에서는 메타데이터의 타입, 즉 메타데이터가 어떤 메타데이터인지를 용이하게 파악할 수 있으며, 예를 들어 취득할지 여부의 판단을 행하는 것도 가능해진다.In addition, in the present technology, for example, type information indicating the type of metadata may be added to identification information. By adding this information, the receiving side can easily grasp the type of metadata, that is, what type of metadata the metadata is, and it is also possible to determine whether or not to acquire, for example.

또한, 본 기술에 있어서, 예를 들어 식별 정보에는 메타데이터가 오디오 스트림에만 삽입되어 있는지 여부를 나타내는 플래그 정보가 부가되어 있어도 된다. 이 정보의 부가에 의해 수신측에서는 메타데이터가 오디오 스트림에만 삽입되어 있는지 여부를 용이하게 파악할 수 있다.Further, in the present technology, flag information indicating whether or not metadata is inserted only in the audio stream may be added to the identification information, for example. By adding this information, the receiving side can easily grasp whether or not the metadata is inserted only in the audio stream.

또한, 본 기술에 있어서, 예를 들어 식별 정보에는 오디오 스트림에 대한 메타데이터의 삽입 빈도의 타입을 나타내는 타입 정보가 부가되어 있어도 된다. 이 정보의 부가에 의해 수신측에서는 오디오 스트림에 대한 메타데이터의 삽입 빈도를 용이하게 파악할 수 있다.In the present technology, for example, type information indicating the type of the insertion frequency of metadata for an audio stream may be added to the identification information. By adding this information, the receiving side can easily grasp the insertion frequency of metadata for the audio stream.

또한, 본 기술의 다른 개념은,In addition, another concept of the present technology is,

메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,A receiving unit for receiving a container of a predetermined format having an audio stream into which metadata is inserted;

상기 컨테이너의 레이어에는, 상기 오디오 스트림에 상기 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보가 삽입되어 있고,Identification information indicating that the metadata is inserted into the audio stream is inserted in the layer of the container;

상기 오디오 스트림을 해당 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께, 소정의 전송로를 통하여 외부 기기에 송신하는 송신부를 더 구비하는 수신 장치에 있다.The receiving apparatus further includes a transmitter for transmitting the audio stream to an external device through a predetermined transmission path together with identification information indicating that metadata is inserted into the audio stream.

본 기술에 있어서, 수신부에 의해, 메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너가 수신된다. 컨테이너의 레이어에는, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보가 삽입되어 있다. 그리고, 송신부에 의해, 오디오 스트림은 이 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께, 소정의 전송로를 통하여 외부 기기에 송신된다.In the present technology, a container of a predetermined format having an audio stream in which metadata is embedded is received by the receiving unit. In the container layer, identification information indicating that metadata is inserted into the audio stream is inserted. Then, by the transmitter, the audio stream is transmitted to the external device through a predetermined transmission path together with identification information indicating that metadata is inserted into the audio stream.

예를 들어, 송신부는, 컨테이너가 갖는 비디오 스트림을 디코딩하여 얻어지는 화상 데이터의 블랭킹 기간에 오디오 스트림 및 식별 정보를 삽입하고, 이 화상 데이터를 외부 기기에 송신함으로써, 오디오 스트림 및 식별 정보를 외부 기기에 송신해도 된다. 이 경우, 예를 들어 소정의 전송로는 HDMI 케이블이어도 된다.For example, the transmitter inserts an audio stream and identification information in a blanking period of image data obtained by decoding a video stream possessed by the container, and transmits this image data to an external device, thereby transmitting the audio stream and identification information to an external device. You may send In this case, for example, the predetermined transmission path may be an HDMI cable.

이와 같이 본 기술에 있어서는, 메타데이터가 삽입된 오디오 스트림이, 이 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께 외부 기기에 송신된다. 그로 인해, 외부 기기측에서는, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 용이하게 인식할 수 있고, 이 인식에 기초하여 오디오 스트림에 삽입되어 있는 메타데이터의 추출 처리를 행함으로써, 낭비없이 확실하게 메타데이터의 취득이 가능해진다.As described above, in the present technology, an audio stream in which metadata is embedded is transmitted to an external device together with identification information indicating that metadata is embedded in the audio stream. Therefore, on the external device side, it is possible to easily recognize that metadata is inserted into the audio stream, and based on this recognition, the metadata is reliably extracted without waste by performing extraction processing of the metadata inserted into the audio stream. is made possible to obtain

또한, 본 기술의 다른 개념은,In addition, another concept of the present technology is,

외부 기기로부터 소정의 전송로를 통하여 오디오 스트림을 해당 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께 수신하는 수신부와,a receiving unit for receiving an audio stream from an external device through a predetermined transmission path together with identification information indicating that metadata is inserted into the corresponding audio stream;

상기 식별 정보에 기초하여, 상기 오디오 스트림을 디코딩하여 상기 메타데이터를 추출하는 메타데이터 추출부와,a metadata extractor for decoding the audio stream and extracting the metadata based on the identification information;

상기 메타데이터를 사용한 처리를 행하는 처리부를 구비하는 수신 장치에 있다.The receiving apparatus is provided with a processing unit that performs processing using the metadata.

본 기술에 있어서, 수신부에 의해, 외부 기기로부터 소정의 전송로를 통하여 오디오 스트림이, 이 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께 수신된다. 메타데이터 추출부에 의해 식별 정보에 기초하여, 오디오 스트림이 디코딩되어 메타데이터가 추출된다. 그리고, 처리부에 의해 메타데이터를 사용한 처리가 행하여진다.In the present technology, the receiving unit receives an audio stream from an external device through a predetermined transmission path together with identification information indicating that metadata is inserted into the audio stream. Based on the identification information by the metadata extraction unit, the audio stream is decoded to extract metadata. Then, processing using metadata is performed by the processing unit.

예를 들어, 메타데이터는 네트워크 액세스 정보를 포함하고, 처리부는 네트워크 액세스 정보에 기초하여, 네트워크 상의 소정의 서버에 액세스하여 소정의 미디어 정보를 취득해도 된다. 또한, 예를 들어 소정의 전송로는 HDMI 케이블이어도 된다.For example, the metadata may include network access information, and the processing unit may access a predetermined server on the network based on the network access information to obtain predetermined media information. In addition, for example, an HDMI cable may be sufficient as a predetermined|prescribed transmission path.

이와 같이 본 기술에 있어서는, 오디오 스트림과 함께 수신되는 식별 정보에 기초하여 이 오디오 스트림으로부터 메타데이터가 추출되어 처리에 사용된다. 그로 인해, 오디오 스트림에 삽입되어 있는 메타데이터를 낭비없이 확실하게 취득할 수 있고, 메타데이터를 사용한 처리를 적절하게 실행할 수 있다.As described above, in the present technology, metadata is extracted from the audio stream based on identification information received together with the audio stream and used for processing. Therefore, the metadata inserted into the audio stream can be reliably acquired without waste, and processing using the metadata can be appropriately executed.

또한, 본 기술에 있어서, 예를 들어 오디오 스트림을 외부 스피커 시스템에 송신하는 인터페이스부를 더 구비해도 된다. 이 경우, 외부 스피커 시스템에서 오디오 스트림을 디코딩하여, 외부 스피커 시스템에서 음성을 출력하는 것이 가능해진다.Further, in the present technology, for example, an interface unit for transmitting an audio stream to an external speaker system may be further provided. In this case, it becomes possible to decode the audio stream in the external speaker system and output audio from the external speaker system.

또한, 본 기술의 다른 개념은, In addition, another concept of the present technology is,

메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,A receiving unit for receiving a container of a predetermined format having an audio stream into which metadata is inserted;

상기 컨테이너의 레이어에는, 상기 오디오 스트림에 상기 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보가 삽입되어 있고,Identification information indicating that the metadata is inserted into the audio stream is inserted in the layer of the container;

상기 식별 정보에 기초하여, 상기 오디오 스트림을 디코딩하여 상기 메타데이터를 추출하는 메타데이터 추출부와,a metadata extractor for decoding the audio stream and extracting the metadata based on the identification information;

상기 메타데이터를 사용한 처리를 행하는 처리부를 구비하는 수신 장치에 있다.The receiving apparatus is provided with a processing unit that performs processing using the metadata.

본 기술에 있어서, 수신부에 의해, 메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너가 수신된다. 컨테이너의 레이어에는, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보가 삽입되어 있다. 데이터 추출부에 의해 식별 정보에 기초하여, 오디오 스트림이 디코딩되어 메타데이터가 추출된다. 그리고, 처리부에 의해 메타데이터를 사용한 처리가 행하여진다.In the present technology, a container of a predetermined format having an audio stream in which metadata is embedded is received by the receiving unit. In the container layer, identification information indicating that metadata is inserted into the audio stream is inserted. Based on the identification information by the data extraction unit, the audio stream is decoded to extract metadata. Then, processing using metadata is performed by the processing unit.

이와 같이 본 기술에 있어서는, 컨테이너에 삽입되어 있는 식별 정보에 기초하여 오디오 스트림으로부터 메타데이터가 추출되어 처리에 사용된다. 그로 인해, 오디오 스트림에 삽입되어 있는 메타데이터를 낭비없이 확실하게 취득할 수 있고, 메타데이터를 사용한 처리를 적절하게 실행할 수 있다.As described above, in the present technology, metadata is extracted from the audio stream based on the identification information inserted into the container and used for processing. Therefore, the metadata inserted into the audio stream can be reliably acquired without waste, and processing using the metadata can be appropriately executed.

본 기술에 의하면, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 수신측에서 용이하게 인식 가능해진다. 또한, 본 명세서에 기재된 효과는 어디까지나 예시이며 한정되는 것은 아니며, 또한 부가적인 효과가 있어도 된다. According to the present technology, the receiver can easily recognize that metadata is inserted into the audio stream. In addition, the effect described in this specification is an illustration to the last and is not limited, Furthermore, an additional effect may exist.

도 1은 실시 형태로서의 화상 표시 시스템의 구성예를 도시하는 블록도이다.
도 2는 방송 송출 장치가 구비하는 스트림 생성부의 구성예를 도시하는 블록도이다.
도 3은 AC3의 프레임(AC3 Synchronization Frame)의 구조를 도시하는 도면이다.
도 4는 AAC의 1024샘플분의 음성 데이터가 들어가는 프레임(Raw_data_block)의 구조를 도시하는 도면이다.
도 5는 압축 포맷이 AC3인 경우에 메타데이터 MD가 삽입되는 「AUX(AUXILIARY DATA)」의 구성을 도시하는 도면이다.
도 6은 압축 포맷이 AAC인 경우에 메타데이터 MD가 삽입되는 「DSE(data stream element)」의 구성을 도시하는 도면이다.
도 7은 메타데이터 범용 신택스의 일례를 설명하기 위한 도면이다.
도 8은 메타데이터 범용 신택스의 일례를 설명하기 위한 도면이다.
도 9는 메타데이터 범용 신택스의 일례를 설명하기 위한 도면이다.
도 10은 메타데이터 범용 신택스에 있어서의 주요한 데이터 규정 내용을 도시하는 도면이다.
도 11은 일련의 메타데이터(메타데이터 패킷)를 분할하여 송신하는 경우에 있어서의, 「metadata_counter」, 「metadata_start_flag」의 변화예를 도시하는 도면이다.
도 12는 복수의 메타데이터가 각각의 동기 대상과 동기 관리되는 예를 도시하는 도면이다.
도 13은 「metadata_linking_Packet()」의 신택스를 도시하는 도면이다.
도 14는 「metadata_linking_Packet()」의 주요한 데이터 규정 내용을 도시하는 도면이다.
도 15는 복수의 메타데이터 유닛이 각각의 동기 대상과 동기 관리되는 예를 도시하는 도면이다.
도 16은 오디오·유저 데이터·디스크립터의 구조예를 나타내고 있다.
도 17은 오디오·유저 데이터·디스크립터의 구조예에 있어서의 주요한 정보의 내용을 나타내고 있다.
도 18은 트랜스포트 스트림에 있어서의 비디오, 오디오의 액세스 유닛 배치예와, 오디오 스트림에 대한 메타데이터의 삽입 빈도를 설명하기 위한 도면이다.
도 19는 트랜스포트 스트림의 구성예를 도시하는 도면이다.
도 20은 화상 표시 시스템을 구성하는 셋톱 박스의 구성예를 도시하는 블록도이다.
도 21은 데이터 아일랜드 구간에 배치되는, 오디오·인포프레임·패킷의 구조예를 도시하는 도면이다.
도 22는 화상 표시 시스템을 구성하는 텔레비전 수신기의 구성예를 도시하는 블록도이다.
도 23은 셋톱 박스의 HDMI 송신부로 나타내는 텔레비전 수신기의 HDMI 수신부의 구성예를 도시하는 블록도이다.
도 24는 TMDS 채널로 화상 데이터가 전송되는 경우의 각종 전송 데이터의 구간을 나타내고 있다.
도 25는 텔레비전 수신기에 있어서의 메타데이터를 사용한 처리의 구체예를 설명하기 위한 도면이다.
도 26은 텔레비전 수신기에서 메타데이터에 기초하여 네트워크 서비스에 액세스하는 경우의 화면 표시의 천이예를 도시하는 도면이다.
도 27은 실시 형태에 있어서의 텔레비전 수신기에 있어서의 음성 출력계의 구성을 도시하는 블록도이다.
도 28은 텔레비전 수신기에 있어서의 음성 출력계의 다른 구성예를 도시하는 블록도이다.
도 29는 화상 표시 시스템의 다른 구성예를 도시하는 블록도이다.
1 is a block diagram showing a configuration example of an image display system as an embodiment.
Fig. 2 is a block diagram showing a configuration example of a stream generation unit included in the broadcast transmission device.
3 is a diagram showing the structure of an AC3 frame (AC3 Synchronization Frame).
Fig. 4 is a diagram showing the structure of a frame (Raw_data_block) into which audio data corresponding to 1024 samples of AAC is contained.
Fig. 5 is a diagram showing the configuration of "AUX (AUXILIARY DATA)" into which metadata MD is inserted when the compression format is AC3.
6 is a diagram showing the configuration of a "DSE (data stream element)" into which metadata MD is inserted when the compression format is AAC.
7 is a diagram for explaining an example of a metadata general-purpose syntax.
8 is a diagram for explaining an example of a metadata general-purpose syntax.
9 is a diagram for explaining an example of a general-purpose metadata syntax.
Fig. 10 is a diagram showing main data definition contents in the metadata general-purpose syntax.
11 is a diagram showing an example of a change in "metadata_counter" and "metadata_start_flag" in the case where a series of metadata (metadata packets) is divided and transmitted.
12 is a diagram showing an example in which a plurality of metadata is managed in synchronization with each synchronization target.
13 is a diagram showing the syntax of "metadata_linking_Packet()".
Fig. 14 is a diagram showing the main data definition contents of "metadata_linking_Packet()".
15 is a diagram showing an example in which a plurality of metadata units are managed in synchronization with each synchronization object.
Fig. 16 shows an example of the structure of an audio user data descriptor.
Fig. 17 shows the contents of main information in the structural example of the audio user data descriptor.
Fig. 18 is a diagram for explaining an example of arrangement of video and audio access units in a transport stream and the insertion frequency of metadata for an audio stream.
19 is a diagram showing a configuration example of a transport stream.
It is a block diagram which shows the structural example of the set-top box which comprises an image display system.
Fig. 21 is a diagram showing an example of the structure of an audio info frame packet arranged in a data island section.
22 is a block diagram showing a configuration example of a television receiver constituting an image display system.
Fig. 23 is a block diagram showing an example of the configuration of an HDMI receiving unit of a television receiver represented by an HDMI transmitting unit of a set-top box.
24 shows sections of various transmission data when image data is transmitted through the TMDS channel.
Fig. 25 is a diagram for explaining a specific example of processing using metadata in the television receiver.
Fig. 26 is a diagram showing an example of transition of screen display in the case of accessing a network service based on metadata in a television receiver.
Fig. 27 is a block diagram showing the configuration of an audio output system in the television receiver according to the embodiment.
28 is a block diagram showing another configuration example of an audio output system in a television receiver.
29 is a block diagram showing another configuration example of an image display system.

이하, 발명을 실시하기 위한 형태(이하, 「실시 형태」라고 함)에 대하여 설명한다. 또한, 설명을 이하의 순서로 행한다.EMBODIMENT OF THE INVENTION Hereinafter, the form (henceforth "embodiment") for implementing invention is demonstrated. In addition, description is performed in the following order.

1. 실시 형태 1. Embodiment

2. 변형예 2. Variations

<1. 실시 형태><1. Embodiment>

[화상 표시 시스템의 구성예] [Configuration example of image display system]

도 1은 실시 형태로서의 화상 표시 시스템(10)의 구성예를 나타내고 있다. 이 화상 표시 시스템(10)은, 방송 송출 장치(100)와, 셋톱 박스(STB)(200)와, 텔레비전 수신기(TV)(300)를 갖고 있다. 셋톱 박스(200)와 텔레비전 수신기(300)는 HDMI(High Definition Multimedia Interface) 케이블(400)을 개재하여 접속되어 있다. 또한, 「HDMI」는 등록 상표이다.1 : has shown the structural example of the image display system 10 as embodiment. The image display system 10 includes a broadcast transmission device 100 , a set-top box (STB) 200 , and a television receiver (TV) 300 . The set-top box 200 and the television receiver 300 are connected via an HDMI (High Definition Multimedia Interface) cable 400 . In addition, "HDMI" is a registered trademark.

방송 송출 장치(100)는 트랜스포트 스트림 TS를, 방송파에 실어서 송신한다. 이 트랜스포트 스트림 TS에는 비디오 스트림 및 오디오 스트림이 포함된다. 방송 송출 장치(100)는 오디오 스트림에 메타데이터를 삽입한다. 이 메타데이터는, 예를 들어 네트워크 액세스 정보, 미디어 정보의 재생 제어 정보 등이다.The broadcast transmission device 100 transmits the transport stream TS on a broadcast wave. This transport stream TS includes a video stream and an audio stream. The broadcast transmission device 100 inserts metadata into the audio stream. This metadata is, for example, network access information, reproduction control information of media information, and the like.

방송 송출 장치(100)는 컨테이너의 레이어에, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보를 삽입한다. 방송 송출 장치(100)는 이 식별 정보를, 예를 들어 프로그램 맵 테이블(PMT: Program Map Table)의 관리 하의 오디오·엘리멘터리 스트림·루프 내에 디스크립터로서 삽입한다.The broadcast transmission device 100 inserts identification information indicating that metadata is inserted into the audio stream in the container layer. The broadcast transmission apparatus 100 inserts this identification information as a descriptor into the audio elementary stream loop under the management of a program map table (PMT: Program Map Table), for example.

방송 송출 장치(100)는 이 식별 정보에, 오디오 스트림에 있어서의 음성 데이터의 부호화 방식의 정보, 메타데이터의 타입을 나타내는 타입 정보, 메타데이터가 상기 오디오 스트림에만 삽입되어 있는지 여부를 나타내는 플래그 정보, 오디오 스트림에 대한 메타데이터의 삽입 빈도의 타입을 나타내는 타입 정보 등을 부가한다.The broadcast transmission device 100 includes, in this identification information, information on the encoding method of audio data in the audio stream, type information indicating the type of metadata, flag information indicating whether or not metadata is inserted only in the audio stream; Type information indicating the type of the embedding frequency of metadata for the audio stream and the like are added.

셋톱 박스(200)는 방송 송출 장치(100)로부터 방송파에 실어서 송신되어 오는 트랜스포트 스트림 TS를 수신한다. 이 트랜스포트 스트림 TS에는, 상술한 바와 같이, 비디오 스트림 및 오디오 스트림이 포함되어 있고, 오디오 스트림에는 메타데이터가 삽입되어 있다.The set-top box 200 receives a transport stream TS that is transmitted from the broadcast transmission device 100 on a broadcast wave. As described above, the transport stream TS includes a video stream and an audio stream, and metadata is inserted into the audio stream.

셋톱 박스(200)는 오디오 스트림을 이 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께, HDMI 케이블(400)을 통하여 텔레비전 수신기(300)에 송신한다.The set-top box 200 transmits the audio stream to the television receiver 300 via the HDMI cable 400 together with identification information indicating that metadata is inserted in the audio stream.

여기서, 셋톱 박스(200)는 비디오 스트림을 디코딩하여 얻어진 화상 데이터의 블랭킹 기간에 오디오 스트림 및 식별 정보를 삽입하고, 이 화상 데이터를 텔레비전 수신기(300)에 송신함으로써, 오디오 스트림 및 식별 정보를 텔레비전 수신기(300)에 송신한다. 셋톱 박스(200)는 이 식별 정보를, 예를 들어 오디오·인포프레임·패킷(Audio InfoFrame packet)에 삽입한다.Here, the set-top box 200 inserts an audio stream and identification information in a blanking period of picture data obtained by decoding the video stream, and transmits the picture data to the television receiver 300, thereby transmitting the audio stream and identification information to the television receiver. (300). The set-top box 200 inserts this identification information into, for example, an Audio InfoFrame packet.

텔레비전 수신기(300)는 셋톱 박스(200)로부터, HDMI 케이블(400)을 통하여 오디오 스트림을 이 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께 수신한다. 즉, 텔레비전 수신기(300)는 셋톱 박스(200)로부터, 오디오 스트림 및 식별 정보가 블랭킹 기간에 삽입되어 있는 화상 데이터를 수신한다. 텔레비전 수신기(300)는 식별 정보에 기초하여, 오디오 스트림을 디코딩하여 메타데이터를 추출하여, 이 메타데이터를 사용한 처리를 한다.The television receiver 300 receives an audio stream from the set-top box 200 through the HDMI cable 400 together with identification information indicating that metadata is inserted into the audio stream. That is, the television receiver 300 receives, from the set-top box 200 , image data in which an audio stream and identification information are inserted in the blanking period. Based on the identification information, the television receiver 300 decodes the audio stream to extract metadata, and processes using the metadata.

[방송 송출 장치의 스트림 생성부] [Stream generation unit of broadcast transmission device]

도 2는 방송 송출 장치(100)가 구비하는 스트림 생성부(110)의 구성예를 나타내고 있다. 이 스트림 생성부(110)는 제어부(111)와, 비디오 인코더(112)와, 오디오 인코더(113)와, 멀티플렉서(114)를 갖고 있다.FIG. 2 shows a configuration example of the stream generator 110 included in the broadcast transmission device 100 . The stream generation unit 110 includes a control unit 111 , a video encoder 112 , an audio encoder 113 , and a multiplexer 114 .

제어부(111)는 CPU(111a)를 구비하고 있고, 스트림 생성부(110)의 각 부를 제어한다. 비디오 인코더(112)는 화상 데이터 SV에 대하여, MPEG2, H.264/AVC, H.265/HEVC 등의 부호화를 실시하여, 비디오 스트림(비디오 엘리멘터리 스트림)을 생성한다. 화상 데이터 SV는, 예를 들어 HDD 등의 기록 매체로부터 재생된 화상 데이터, 혹은 비디오 카메라에서 얻어진 라이브 화상 데이터 등이다.The control unit 111 includes a CPU 111a and controls each unit of the stream generation unit 110 . The video encoder 112 encodes the image data SV, such as MPEG2, H.264/AVC, H.265/HEVC, and generates a video stream (video elementary stream). The image data SV is, for example, image data reproduced from a recording medium such as HDD, or live image data obtained by a video camera.

오디오 인코더(113)는 음성 데이터 SA에 대하여, AC3, AAC, USAC 등의 압축 포맷에 의한 부호화를 실시하여, 오디오 스트림(오디오 엘리멘터리 스트림)을 생성한다. 음성 데이터 SA는, 상술한 화상 데이터 SV에 대응한 음성 데이터이며, HDD 등의 기록 매체로부터 재생된 음성 데이터, 혹은 마이크로폰에서 얻어진 라이브 음성 데이터 등이다.The audio encoder 113 encodes audio data SA using a compression format such as AC3, AAC, or USAC to generate an audio stream (audio elementary stream). The audio data SA is audio data corresponding to the above-described image data SV, and is audio data reproduced from a recording medium such as HDD or live audio data obtained by a microphone.

오디오 인코더(113)는 오디오 부호화 블록부(113a) 및 오디오 프레이밍부(113b)를 갖고 있다. 오디오 부호화 블록부(113a)에서 부호화 블록이 생성되고, 오디오 프레이밍부(113b)에서 프레이밍이 행하여진다. 이 경우, 압축 포맷에 따라 부호화 블록이 상이함과 함께, 프레이밍도 상이하다.The audio encoder 113 has an audio coding block unit 113a and an audio framing unit 113b. A coding block is generated in the audio coding block unit 113a, and framing is performed in the audio framing unit 113b. In this case, the coding block is different according to the compression format, and the framing is also different.

오디오 인코더(113)는 제어부(111)에 의한 제어 하에, 오디오 스트림에 메타데이터 MD를 삽입한다. 이 실시 형태에 있어서, 메타데이터 MD는, 네트워크 상의 서버에 접속하기 위한 네트워크 액세스 정보(URL, 네트워크 인포메이션), 서버 접속 후의 미디어 정보의 재생 제어 정보(start/wait/resume/stop)를 포함하고 있다. 예를 들어, 네트워크 액세스 정보는, 비디오 스트림에 포함되는 화상 데이터에 관계한 미디어 정보를 네트워크 상의 서버로부터 취득하기 위한 정보가 된다. 여기서, 메타데이터 MD는 오디오 스트림의 유저 데이터 영역에 매립된다.The audio encoder 113 inserts the metadata MD into the audio stream under the control of the controller 111 . In this embodiment, the metadata MD includes network access information (URL, network information) for connecting to a server on the network, and reproduction control information (start/wait/resume/stop) of media information after server connection. . For example, the network access information is information for acquiring media information related to image data included in a video stream from a server on the network. Here, the metadata MD is embedded in the user data area of the audio stream.

제어부(111)는 오디오 인코더(113)에 메타데이터 MD를 공급함과 함께, 이 메타데이터 MD를 유저 데이터 영역에 매립하기 위한 사이즈 정보를 공급한다. 그리고, 제어부(111)는 오디오 스트림의 유저 데이터 영역에 메타데이터 MD의 매립이 행해지도록 제어한다.The control unit 111 supplies the metadata MD to the audio encoder 113 and also supplies size information for embedding the metadata MD in the user data area. Then, the control unit 111 controls so that the metadata MD is embedded in the user data area of the audio stream.

예를 들어, 압축 포맷이 AC3인 경우, 제어부(111)는 사이즈 S=(frmsizcod-AUXDATA)의 정보를 오디오 인코더(113)에 공급한다. 여기서, 사이즈 S는 AC3의 오디오 프레임의 사이즈이며, 비트 레이트 및 샘플링 주파수에 따른 값이 규정되어 있다.For example, when the compression format is AC3, the control unit 111 supplies information of the size S=(frmsizcod-AUXDATA) to the audio encoder 113 . Here, the size S is the size of the AC3 audio frame, and values according to the bit rate and sampling frequency are prescribed.

예를 들어, 비트 레이트가 128kbps이고, 샘플링 주파수가 32㎑인 경우에는 384*2Bytes이다. 또한, 예를 들어 비트 레이트가 128kbps이고, 샘플링 주파수가 44.1㎑인 경우에는 279*2Bytes이다. 또한, 예를 들어 비트 레이트가 128kbps이고, 샘플링 주파수가 48㎑인 경우에는 256*2Bytes이다.For example, when the bit rate is 128 kbps and the sampling frequency is 32 kHz, it is 384 * 2 Bytes. Also, for example, when the bit rate is 128 kbps and the sampling frequency is 44.1 kHz, it is 279 * 2 Bytes. Also, for example, when the bit rate is 128 kbps and the sampling frequency is 48 kHz, it is 256 * 2 Bytes.

도 3은 상세 설명은 생략하지만, AC3의 프레임(AC3 Synchronization Frame)의 구조를 도시하고 있다. 오디오 인코더(113)는 사이즈 S를 목표값으로서 부호화하고, 「Audblock 5」의 "mantissa data"와, 「AUX」와, 「CRC」의 합계 사이즈가 전체의 3/8을 초과하지 않도록 음성 데이터 SA를 인코딩한다. 그리고, 「AUX」의 에리어에 메타데이터 MD를 삽입하고, CRC를 실시하여 스트림을 완성한다.Although detailed description is omitted in FIG. 3, the structure of an AC3 frame (AC3 Synchronization Frame) is shown. The audio encoder 113 encodes the size S as a target value, and the audio data SA so that the total size of "mantissa data" of "Audblock 5", "AUX", and "CRC" does not exceed 3/8 of the total. encode Then, the metadata MD is inserted in the "AUX" area, CRC is performed, and the stream is completed.

또한, 예를 들어 압축 포맷이 AAC인 경우, 제어부(111)는 메타데이터 MD를 삽입해야 할 DSE(data stream element)의 사이즈 DSE_S=cnt의 정보를 오디오 인코더(113)에 공급한다. 도 4는 상세 설명은 생략하지만, AAC의 1024샘플분의 음성 데이터가 들어가는 프레임(Raw_data_block)의 구조를 도시하고 있다. 오디오 인코더(113)는 음성 데이터 SA를 인코딩함과 함께, 메타데이터 MD가 삽입된 DSE를 부가하여, 스트림을 완성한다.Also, for example, when the compression format is AAC, the controller 111 supplies information of a size DSE_S=cnt of a data stream element (DSE) into which the metadata MD is to be inserted to the audio encoder 113 . Although detailed description is omitted in FIG. 4 , the structure of a frame (Raw_data_block) in which audio data corresponding to 1024 samples of AAC is included is shown. The audio encoder 113 encodes the audio data SA and adds the DSE in which the metadata MD is inserted to complete the stream.

또한, 오디오 인코더(113)는 2회로 나누어 인코딩하는 것도 가능하다. 이 경우, 오디오 인코더(113)는 처음에는 통상의, 즉 DSE 혹은 AUX가 없는 경우의 인코딩을 행하고, 그 후에 미리 예약해 둔 사이즈의 DSE 혹은 AUX에 메타데이터 MD를 삽입하여, 다시 인코딩을 행한다.In addition, the audio encoder 113 may divide into two encodings. In this case, the audio encoder 113 first performs normal encoding, that is, when there is no DSE or AUX, and then inserts the metadata MD into the DSE or AUX of a size reserved in advance, and performs encoding again.

상술한 바와 같이, 메타데이터 MD는, 오디오 스트림의 유저 데이터 영역(AC3인 경우에는 「AUX」, AAC인 경우에는 「DSE」)에 매립되지만, 그 상세에 대해서는 후술한다. 상세 설명은 생략하지만, 압축 포맷이 USAC인 경우도 마찬가지로, 메타데이터 MD는 오디오 스트림의 유저 데이터 영역에 매립된다.As described above, the metadata MD is embedded in the user data area (“AUX” in the case of AC3, “DSE” in the case of AAC) of the audio stream, the details of which will be described later. Although detailed description is omitted, similarly when the compression format is USAC, the metadata MD is embedded in the user data area of the audio stream.

도 2로 되돌아가, 멀티플렉서(114)는 비디오 인코더(112)로부터 출력되는 비디오 스트림 및 오디오 인코더(113)로부터 출력되는 오디오 스트림을 PES 패킷화하고, 또한 트랜스포트 패킷화하여 다중하여, 다중화 스트림으로서의 트랜스포트 스트림 TS를 얻는다.Returning to Fig. 2, the multiplexer 114 PES packetizes the video stream output from the video encoder 112 and the audio stream output from the audio encoder 113, transport packetizes it, and multiplexes it as a multiplexed stream. Get the transport stream TS.

또한, 멀티플렉서(114)는 프로그램 맵 테이블(PMT)의 관리 하에, 오디오 스트림에 메타데이터 MD가 삽입되어 있는 것을 나타내는 식별 정보를 삽입한다. 이 식별 정보의 삽입에는, 오디오·유저 데이터·디스크립터(audio_userdata_descriptor)를 사용한다. 이 디스크립터의 상세에 대해서는 후술한다.In addition, the multiplexer 114 inserts identification information indicating that the metadata MD is inserted into the audio stream under the management of the program map table PMT. An audio user data descriptor (audio_userdata_descriptor) is used for insertion of this identification information. Details of this descriptor will be described later.

도 2에 도시하는 스트림 생성부(110)의 동작을 간단하게 설명한다. 화상 데이터 SV는 비디오 인코더(112)에 공급된다. 이 비디오 인코더(112)에서는, 그 화상 데이터 SV에 대하여 H.264/AVC, H.265/HEVC 등의 부호화가 실시되어, 부호화 비디오 데이터를 포함하는 비디오 스트림이 생성된다.The operation of the stream generating unit 110 shown in Fig. 2 will be briefly described. The picture data SV is supplied to the video encoder 112 . In this video encoder 112, H.264/AVC, H.265/HEVC, etc. are encoded on the image data SV, and a video stream including encoded video data is generated.

또한, 음성 데이터 SA는 오디오 인코더(113)에 공급된다. 이 오디오 인코더(113)에서는, 그 음성 데이터 SA에 대하여 AC3, AAC, USAC 등의 부호화가 실시되어, 오디오 스트림이 생성된다.Also, the audio data SA is supplied to the audio encoder 113 . In this audio encoder 113, AC3, AAC, USAC or the like is encoded on the audio data SA to generate an audio stream.

이때, 제어부(111)로부터 오디오 인코더(113)에 메타데이터 MD가 공급됨과 함께, 이 메타데이터 MD를 유저 데이터 영역에 매립하기 위한 사이즈 정보가 공급된다. 그리고, 오디오 인코더(113)에서는 오디오 스트림의 유저 데이터 영역(예를 들어, AC3인 경우에는 「AUX」, AAC인 경우에는 「DSE」 등)에, 메타데이터 MD를 매립하는 일이 행하여진다.At this time, the metadata MD is supplied from the control unit 111 to the audio encoder 113, and size information for embedding the metadata MD in the user data area is supplied. Then, in the audio encoder 113, the metadata MD is embedded in the user data area of the audio stream (eg, "AUX" in the case of AC3, "DSE" in the case of AAC).

비디오 인코더(112)에서 생성된 비디오 스트림은, 멀티플렉서(114)에 공급된다. 또한, 오디오 인코더(113)에서 생성된, 유저 데이터 영역에 메타데이터 MD가 매립된 오디오 스트림은 멀티플렉서(114)에 공급된다. 그리고, 이 멀티플렉서(114)에서는, 각 인코더로부터 공급되는 스트림이 패킷화되고 다중되어, 전송 데이터로서 트랜스포트 스트림 TS가 얻어진다.The video stream generated by the video encoder 112 is supplied to the multiplexer 114 . Also, the audio stream generated by the audio encoder 113 in which the metadata MD is embedded in the user data area is supplied to the multiplexer 114 . Then, in this multiplexer 114, the streams supplied from each encoder are packetized and multiplexed to obtain a transport stream TS as transmission data.

[메타데이터 MD의 매립의 상세] [the details of embedding of metadata MD]

오디오 스트림의 유저 데이터 영역에의 메타데이터 MD의 매립에 대하여 더 설명한다. 상술한 바와 같이, 압축 포맷이 AC3인 경우, 메타데이터 MD는 「AUX(AUXILIARY DATA)」의 영역에 삽입된다.The embedding of the metadata MD into the user data area of the audio stream will be further described. As described above, when the compression format is AC3, the metadata MD is inserted into the "AUX(AUXILIARY DATA)" area.

도 5는 「AUX(AUXILIARY DATA)」의 구성(Syntax)을 나타내고 있다. 「auxdatae」가 "1"일 때, 「aux data」가 인에이블되어, 「auxdatal」의 14비트(비트 단위)로 나타나는 사이즈의 데이터가 「auxbits」 내에 정의된다. 그 때의 「audbits」의 사이즈는 「nauxbits」에 기재된다. 본 기술에 있어서는 「auzbits」의 공간이 「metadata()」라고 정의된다.Fig. 5 shows the configuration (Syntax) of "AUX (AUXILIARY DATA)". When "auxdatae" is "1", "aux data" is enabled, and data of a size represented by 14 bits (bit unit) of "auxdataal" is defined in "auxbits". The size of "audbits" at that time is described in "nauxbits". In this technology, the space of "auzbits" is defined as "metadata()".

도 6은 「DSE(data stream element)」의 구성(Syntax)을 나타내고 있다. 「element_instance_tag」는 4비트이고, 「data_stream_element」 중 데이터 종별을 나타내지만, DSE를 통일한 유저 데이터로서 이용하는 경우는, 이 값을 "0"으로 해도 된다. 「Data_byte_align_flag」는 "1"로 되고, DSE의 전체가 바이트 얼라인되도록 한다. 「count」 혹은 그 추가 바이트수를 의미하는 「esc_count」는 유저 데이터의 사이즈에 따라 적절히 값이 결정된다. 본 기술에 있어서는, 「data_stream_byte」의 공간이 「metadata()」라고 정의된다.6 shows the configuration (Syntax) of a "DSE (data stream element)". "element_instance_tag" is 4 bits and indicates the data type among "data_stream_element", but when using DSE as unified user data, this value may be set to "0". "Data_byte_align_flag" is set to "1", so that the entire DSE is byte aligned. The value of "count" or "esc_count", which means the number of additional bytes, is appropriately determined according to the size of the user data. In this description, the space of "data_stream_byte" is defined as "metadata()".

도 7 내지 도 9는 메타데이터 범용 신택스(Syntax)를 도시하고 있다. 또한, 도 10은 메타데이터 범용 신택스에 있어서의 주요한 데이터 규정 내용(semantics)을 도시하고 있다.7 to 9 show metadata general-purpose syntax. Also, Fig. 10 shows the main data specification semantics in the metadata general-purpose syntax.

「sync_byte」의 8비트 필드는, 메타데이터·컨테이너(metadata container)를 나타내는 유니크 워드로 된다. 「metadata_type」의 8비트 필드는, 메타데이터의 타입 정보를 나타낸다. 이 타입 정보에 의해 복수 타입의 메타데이터를 선택적으로 송신하는 것이 가능해진다. 예를 들어, "00000001"은 송신되는 메타데이터가 제휴하는 타서비스의 액세스 정보인 것을 나타낸다.An 8-bit field of "sync_byte" becomes a unique word indicating a metadata container. An 8-bit field of "metadata_type" indicates type information of metadata. This type information makes it possible to selectively transmit multiple types of metadata. For example, &quot;00000001&quot; indicates that the transmitted metadata is access information of other services that are affiliated with each other.

「metadata_length」의 11비트 필드는, 이후의 바이트수를 나타낸다. 「metadata_ID」의 3비트 필드는, 메타데이터의 타입 내에서 종류를 식별하는 식별자를 나타낸다. 이 식별자에 의해 동일 타입의 복수 종류의 정보를 동시에 송신하는 것이 가능해진다.An 11-bit field of "metadata_length" indicates the number of bytes thereafter. A 3-bit field of "metadata_ID" indicates an identifier for identifying a type within the type of metadata. This identifier enables simultaneous transmission of multiple types of information of the same type.

「metadata_counter」의 3비트 필드는, 일련의 메타데이터를 분할하여 송신하는 경우에, 몇번째의 분할 정보인지를 나타내는 카운트 정보이다. 이 카운트 정보는 오디오 프레임마다 인크리먼트되는 카운터의 카운트값이다. 「metadata_start_flag」의 1비트 필드는 일련의 메타데이터(메타데이터 패킷)를 분할하여 송신하는 경우에 최초의 분할 정보인지 여부를 나타낸다. 예를 들어, "1"은 최초의 분할 정보인 것을 나타내고, "0"은 최초의 분할 정보가 아니라, 앞의 프레임 분할 정보에 이어지는 분할 정보인 것을 나타낸다.The 3-bit field of "metadata_counter" is count information indicating the number of division information when a series of metadata is divided and transmitted. This count information is a count value of a counter that is incremented for each audio frame. A 1-bit field of "metadata_start_flag" indicates whether or not it is the first division information when a series of metadata (metadata packets) is divided and transmitted. For example, "1" indicates the first division information, and "0" indicates not the first division information, but division information following the previous frame division information.

도 11은 일련의 메타데이터(메타데이터 패킷)가 3분할되어, 3개의 분할 정보가 3개의 오디오 프레임의 유저 데이터 영역에 매립되어 송신되는 경우에 있어서의, 「metadata_counter」, 「metadata_start_flag」의 변화예를 도시하고 있다. 최초의 오디오 프레임에서는 「metadata_counter=0」, 「metadata_start_flag=1」이 된다. 다음의 오디오 프레임에서는 「metadata_counter=1」, 「metadata_start_flag=0」이 된다. 또한, 최후의 오디오 프레임에서는 「metadata_counter=2」, 「metadata_start_flag=0」이 된다.Fig. 11 shows an example of a change in "metadata_counter" and "metadata_start_flag" when a series of metadata (metadata packet) is divided into three and three pieces of information are embedded in the user data area of three audio frames and transmitted. is showing In the first audio frame, "metadata_counter=0" and "metadata_start_flag=1" are set. In the next audio frame, "metadata_counter=1" and "metadata_start_flag=0" are set. In addition, in the last audio frame, "metadata_counter=2" and "metadata_start_flag=0" are set.

도 7로 되돌아가, 「sync_control_flag」의 1비트 필드는 메타데이터가 동기 관리되고 있는지 여부를 나타낸다. "1"은 「PTS_management()」 내의 PTS에 의해 동기 관리되는 것을 나타낸다. "0"은 동기 관리되고 있지 않음을 나타낸다. 「sync_control_flag」가 "1"일 때 「PTS_management()」가 존재한다.Returning to Fig. 7, the 1-bit field of "sync_control_flag" indicates whether or not the metadata is synchronously managed. "1" indicates that synchronization is managed by the PTS in "PTS_management()". "0" indicates that synchronization management is not performed. When "sync_control_flag" is "1", "PTS_management()" exists.

도 8은 「PTS_management()」의 구조(Syntax)를 도시하고 있고, PTS[32-0]의 33비트로 나타나는 시간 정보가 존재한다. 도 12는 복수의 메타데이터가 각각의 동기 대상과 동기 관리되는 예를 도시하고 있다. 이 예에서는, 메타데이터(ID1)는 오디오 PTS1과 동기하고, 메타데이터(ID2)는 비디오 PTS1과 동기하고, 메타데이터(ID3)는 오디오 PTS2 및 비디오 PTS2와 동기하고 있다.8 shows the structure (Syntax) of "PTS_management()", there is time information represented by 33 bits of PTS[32-0]. 12 shows an example in which a plurality of metadata is managed in synchronization with each synchronization target. In this example, metadata ID1 is synchronized with audio PTS1, metadata ID2 is synchronized with video PTS1, and metadata ID3 is synchronized with audio PTS2 and video PTS2.

도 7로 되돌아가, 「metadata_length」로 나타나는 바이트수분의 「data_byte」는 메타데이터 패킷 「Metadata_packet()」의 전체, 혹은 이 메타데이터 패킷 「Metadata_packet()」을 복수개로 분할하여 얻어진 어느 한 분할 정보를 구성한다.Returning to Fig. 7, "data_byte" for the number of bytes indicated by "metadata_length" is the entire metadata packet "Metadata_packet()" or any division information obtained by dividing the metadata packet "Metadata_packet()" into a plurality of pieces. make up

도 9는 메타데이터 패킷 「metadata_packet()」의 구성(syntax)을 도시하고 있다. 「packet_type」의 8비트 필드는, 메타데이터 「metadata()」(도 7 참조) 내의 「metadata_type」의 8비트 필드와 마찬가지로, 메타데이터의 타입 정보를 나타낸다. 「metadata_packet_length」의 16비트 필드는, 이후의 바이트수를 나타낸다. 그리고, 이 「metadata_packet_length」로 나타나는 바이트수분의 「data_byte」에 메타데이터가 기재된다.Fig. 9 shows the structure (syntax) of the metadata packet &quot;metadata_packet()&quot;. The 8-bit field of "packet_type" indicates type information of metadata, similarly to the 8-bit field of "metadata_type" in the metadata "metadata()" (refer to FIG. 7). A 16-bit field of "metadata_packet_length" indicates the number of bytes following. Then, metadata is written in “data_byte” corresponding to the number of bytes indicated by “metadata_packet_length”.

이어서, 메타데이터가 타서비스의 액세스 정보(Metadata for linking service)인 경우의 「metadata_packet()」, 즉 「metadata_linking_Packet()」에 대하여 설명한다. 링크 서비스 등의 서버에의 접속인 경우, 콘텐츠 혹은 서비스의 공급원 서버로서, 「http://www/xxx/com/yyy.zzz」의 개개의 문자는, 문자 데이터로 「unit_data」가 된다. 또한, 그 밖의 제어 부호는 별도로 정의되는 약속에 기초하여, 해당 부호를 「unit_data」에 넣는다.Next, "metadata_packet()", that is, "metadata_linking_Packet()" in the case where the metadata is access information (Metadata for linking service) of another service, will be described. In the case of connection to a server such as a link service, each character of "http://www/xxx/com/yyy.zzz" becomes "unit_data" as character data as a content or service supply source server. In addition, other control codes are put into "unit_data" based on a promise defined separately.

도 13은 「metadata_linking_packet()」의 신택스(Syntax)를 도시하고 있다. 또한, 도 14는 「metadata_linking_packet()」의 주요한 데이터 규정 내용(semantics)을 도시하고 있다. 「packet_type」의 8비트 필드는, 메타데이터의 타입이 타서비스 액세스 정보인 것을 나타낸다. 「metadata_linking_packet_length」의 16비트 필드는, 이후의 바이트수를 나타낸다. 「number_of_units」의 8비트 필드는 메타데이터 엘리먼트의 수를 나타낸다.13 shows the syntax of "metadata_linking_packet()". 14 shows the main data definition content (semantics) of "metadata_linking_packet()". An 8-bit field of "packet_type" indicates that the type of metadata is other service access information. A 16-bit field of "metadata_linking_packet_length" indicates the number of bytes to follow. An 8-bit field of "number_of_units" indicates the number of metadata elements.

「unit_ID」의 8비트 필드는 유닛(unit)을 식별하는 식별자를 나타낸다. 「unit_size」의 8비트 필드는 메타데이터 엘리먼트(metadata_element)의 사이즈를 나타낸다. 「extended_size」의 8비트 필드는 유닛 사이즈(unit_size)의 확장을 나타낸다. 유닛 사이즈(unit_size)가 254를 초과할 때는 unit_size=255로서 확장 사이즈(exended_size)를 입력한다. 「unit_data」의 8비트 필드는 메타데이터 엘리먼트(metadata_element)를 나타낸다.An 8-bit field of "unit_ID" indicates an identifier for identifying a unit. An 8-bit field of “unit_size” indicates the size of a metadata element (metadata_element). An 8-bit field of “extended_size” indicates an extension of the unit size (unit_size). When the unit size (unit_size) exceeds 254, input the extended size (exended_size) as unit_size=255. An 8-bit field of "unit_data" indicates a metadata element (metadata_element).

도 15는 복수의 메타데이터 유닛이 각각의 동기 대상과 동기 관리되는 예를 나타내고 있다. 이 예에서, 메타데이터(ID1)의 유닛(Unit_ID1)은 URL에 의한 링크 서버의 지정을 행하기 위한 정보, 메타데이터(ID1)의 유닛(Unit_ID2)은 "Activate" 또는 "Inactivate"를 제어하는 커맨드군이다. 또한, 이 예에서, 메타데이터(ID2)의 유닛(Unit_ID1)은 URL에 의한 링크 서버의 지정을 행하기 위한 정보, 메타데이터(ID2)의 유닛(Unit_ID2)은 "Activate" 또는 "Inactivate" 등의 링크 서비스에 대한 제어를 행하는 커맨드군이다.Fig. 15 shows an example in which a plurality of metadata units are managed in synchronization with each synchronization target. In this example, the unit (Unit_ID1) of the metadata ID1 is information for specifying a link server by URL, and the unit (Unit_ID2) of the metadata ID1 is a command for controlling "Activate" or "Inactivate" is the military In addition, in this example, the unit (Unit_ID1) of the metadata ID2 is information for specifying the link server by the URL, and the unit (Unit_ID2) of the metadata ID2 is "Activate" or "Inactivate", etc. It is a command group that controls the link service.

메타데이터(ID1)의 유닛(Unit_ID1)은 오디오 PTS1과 동기하고 있다. 또한, 메타데이터(ID1)의 유닛(Unit_ID2)은 비디오 PTS1과 동기하고 있다. 또한, 메타데이터(ID2)의 유닛(Unit_ID1)은 오디오 PTS2 및 비디오 PTS2와 동기하고 있다.The unit (Unit_ID1) of the metadata ID1 is synchronized with the audio PTS1. In addition, the unit (Unit_ID2) of the metadata ID1 is synchronizing with the video PTS1. In addition, the unit (Unit_ID1) of the metadata ID2 is synchronized with the audio PTS2 and the video PTS2.

[오디오·유저 데이터·디스크립터의 상세][the details of audio system user data descriptor]

도 16은 오디오·유저 데이터·디스크립터(audio_userdata_descriptor)의 구조예(Syntax)를 도시하고 있다. 또한, 도 17은 그 구조예에 있어서의 주요한 정보의 내용(Semantics)을 도시하고 있다.Fig. 16 shows a structural example (Syntax) of an audio user data descriptor (audio_userdata_descriptor). 17 shows the content (Semantics) of main information in the structural example.

「descriptor_tag」의 8비트 필드는 디스크립터 타입을 나타낸다. 여기에서는 오디오·유저 데이터·디스크립터인 것을 나타낸다. 「descriptor_length」의 8비트 필드는 디스크립터의 길이(사이즈)를 나타내고, 디스크립터의 길이로서, 이후의 바이트수를 나타낸다.An 8-bit field of "descriptor_tag" indicates a descriptor type. Here, it indicates that it is an audio user data descriptor. The 8-bit field of "descriptor_length" indicates the length (size) of the descriptor, and as the length of the descriptor, indicates the number of bytes thereafter.

「audio_codec_type」의 8비트 필드는 오디오의 부호화 방식(압축 포맷)을 나타낸다. 예를 들어, "1"은 「MPEG4 AAC」를 나타내고, "2"는 「USAC」를 나타내고, "3"은 「AC3」을 나타낸다. 이 정보의 부가에 의해 수신측에서는 오디오 스트림에 있어서의 음성 데이터의 부호화 방식을 용이하게 파악할 수 있다.An 8-bit field of "audio_codec_type" indicates an audio coding method (compressed format). For example, "1" represents "MPEG4 AAC", "2" represents "USAC", and "3" represents "AC3". By adding this information, the receiving side can easily grasp the encoding method of the audio data in the audio stream.

「metadata_type」의 3비트 필드는 메타데이터의 타입을 나타낸다. 예를 들어, "1"은 메타데이터가 제휴하는 타서비스의 액세스 정보인 것을 나타낸다. 이 정보의 부가에 의해 수신측에서는 메타데이터의 타입, 즉 메타데이터가 어떤 메타데이터인지를 용이하게 파악할 수 있고, 예를 들어 취득하는지 여부의 판단을 행하는 것도 가능해진다.A 3-bit field of "metadata_type" indicates the type of metadata. For example, "1" indicates that the metadata is access information of other services with which the metadata is affiliated. By adding this information, the receiving side can easily grasp the type of metadata, ie, what type of metadata the metadata is, and it also becomes possible to determine whether to acquire, for example.

「coordinated_control_flag」의 1비트 플래그 정보는, 메타데이터가 오디오 스트림에만 삽입되어 있는지 여부를 나타낸다. 예를 들어, "1"은 다른 컴포넌트의 스트림에도 삽입되어 있는 것을 나타내고, "0"은 오디오 스트림에만 삽입되어 있는 것을 나타낸다. 이 정보의 부가에 의해 수신측에서는 메타데이터가 오디오 스트림에만 삽입되어 있는지 여부를 용이하게 파악할 수 있다.The 1-bit flag information of "coordinated_control_flag" indicates whether or not metadata is inserted only in the audio stream. For example, "1" indicates that it is also inserted into the stream of another component, and "0" indicates that it is inserted only into the audio stream. By adding this information, the receiving side can easily grasp whether or not the metadata is inserted only in the audio stream.

「frequency_type」의 3비트 필드는 오디오 스트림에 대한 메타데이터의 삽입 빈도의 타입을 나타낸다. 예를 들어, "1"은 각 오디오 액세스 유닛에 1개의 유저 데이터(메타데이터)가 삽입되어 있는 것을 나타낸다. "2"는 1개의 오디오 액세스 유닛에 1개 이상의 유저 데이터(메타데이터)가 삽입되어 있는 것을 나타낸다. 또한, "3"은 랜덤 액세스 포인트를 포함하는 그룹마다, 그 선두의 오디오 액세스 유닛에 적어도 1개의 유저 데이터(메타데이터)가 삽입되어 있는 것을 나타낸다. 이 정보의 부가에 의해 수신측에서는 오디오 스트림에 대한 메타데이터의 삽입 빈도를 용이하게 파악할 수 있다.A 3-bit field of "frequency_type" indicates the type of the insertion frequency of metadata for an audio stream. For example, "1" indicates that one piece of user data (metadata) is inserted into each audio access unit. "2" indicates that one or more pieces of user data (metadata) are inserted into one audio access unit. In addition, "3" indicates that at least one piece of user data (metadata) is inserted into the audio access unit at the head of each group including the random access point. By adding this information, the receiving side can easily grasp the insertion frequency of metadata for the audio stream.

도 18의 (a)는 트랜스포트 스트림 TS 있어서의 비디오, 오디오의 액세스 유닛의 배치예를 나타내고 있다. 「VAU」는 비디오 액세스 유닛을 나타내고 있다. 「AAU」는 오디오 액세스 유닛을 나타내고 있다. 도 18의 (b)는 「frequency_type=1」인 경우이며, 각 오디오 액세스 유닛에 1개의 유저 데이터(메타데이터)가 삽입되어 있는 것을 도시하고 있다.Fig. 18A shows an example of arrangement of video and audio access units in the transport stream TS. "VAU" indicates a video access unit. "AAU" indicates an audio access unit. Fig. 18B shows a case of "frequency_type=1", and shows that one piece of user data (metadata) is inserted into each audio access unit.

도 18의 (c)는 「frequency_type=2」인 경우이며, 각 오디오 액세스 유닛에 1개의 유저 데이터(메타데이터)가 삽입되어 있는 것을 도시하고 있다. 1개의 오디오 액세스 유닛에 1개 이상의 유저 데이터(메타데이터)가 삽입되어 있는 것을 나타내고 있다. 도 18의 (d)는 「frequency_type=3」인 경우이며, 랜덤 액세스 포인트를 포함하는 그룹마다, 그 선두의 오디오 액세스 유닛에 적어도 1개의 유저 데이터(메타데이터)가 삽입되어 있는 것을 도시하고 있다.Fig. 18(c) is a case of "frequency_type=2", and shows that one piece of user data (metadata) is inserted into each audio access unit. It shows that one or more pieces of user data (metadata) are inserted into one audio access unit. 18D shows that "frequency_type=3" is the case, and for each group including the random access point, at least one piece of user data (metadata) is inserted into the first audio access unit.

[트랜스포트 스트림 TS의 구성] [Configuration of Transport Stream TS]

도 19는 트랜스포트 스트림 TS의 구성예를 도시하고 있다. 이 구성예에서는, PID1로 식별되는 비디오 스트림의 PES 패킷 「video PES」가 존재함과 함께, PID2로 식별되는 오디오 스트림의 PES 패킷 「audio PES」가 존재한다. PES 패킷은 PES 헤더(PES_header)와 PES 페이로드(PES_payload)로 이루어져 있다. PES 헤더에는 DTS, PTS의 타임 스탬프가 삽입되어 있다. 오디오 스트림의 PES 패킷의 PES 페이로드에는 메타데이터를 포함하는 유저 데이터 영역이 존재한다.19 shows a configuration example of a transport stream TS. In this structural example, the PES packet "video PES" of the video stream identified by PID1 exists, and the PES packet "audio PES" of the audio stream identified by PID2 exists. The PES packet consists of a PES header (PES_header) and a PES payload (PES_payload). DTS and PTS time stamps are inserted in the PES header. A user data area including metadata exists in the PES payload of the PES packet of the audio stream.

또한, 트랜스포트 스트림 TS에는 PSI(Program Specific Information)로서, PMT(Program Map Table)가 포함되어 있다. PSI는 트랜스포트 스트림에 포함되는 각 엘리멘터리 스트림이 어느 프로그램에 속해 있는지를 기재한 정보이다. PMT에는 프로그램 전체에 관련된 정보를 기술하는 프로그램·루프(Program loop)가 존재한다.In addition, the transport stream TS includes a PMT (Program Map Table) as PSI (Program Specific Information). The PSI is information describing which program each elementary stream included in the transport stream belongs. In PMT, there is a program loop that describes information related to the entire program.

또한, PMT에는 각 엘리멘터리 스트림에 관련된 정보를 갖는 엘리멘터리 스트림·루프가 존재한다. 이 구성예에서는, 비디오 스트림에 대응한 비디오 엘리멘터리 스트림·루프(video ES loop)가 존재함과 함께, 오디오 스트림에 대응한 오디오 엘리멘터리 스트림·루프(audio ES loop)가 존재한다.Also, in the PMT, an elementary stream loop having information related to each elementary stream exists. In this structural example, while a video elementary stream loop (video ES loop) corresponding to a video stream exists, an audio elementary stream loop (audio ES loop) corresponding to an audio stream exists.

비디오 엘리멘터리 스트림·루프(video ES loop)에는 비디오 스트림에 대응하여, 스트림 타입, PID(패킷 식별자) 등의 정보가 배치됨과 함께, 그 비디오 스트림에 관련된 정보를 기술하는 디스크립터도 배치된다. 이 비디오 스트림의 「Stream_type」의 값은 「0x24」로 설정되고, PID 정보는, 상술한 바와 같이 비디오 스트림의 PES 패킷 「video PES」에 부여되는 PID1을 나타내는 것으로 된다. 디스크립터의 하나로서, HEVC 디스크립터가 배치된다.In a video elementary stream loop (video ES loop), information such as a stream type and PID (packet identifier) is arranged corresponding to the video stream, and a descriptor describing information related to the video stream is also arranged. The value of "Stream_type" of this video stream is set to "0x24", and the PID information indicates PID1 given to the PES packet "video PES" of the video stream as described above. As one of the descriptors, an HEVC descriptor is disposed.

또한, 오디오 엘리멘터리 스트림·루프(audio ES loop)에는 오디오 스트림에 대응하여, 스트림 타입, PID(패킷 식별자) 등의 정보가 배치됨과 함께, 그 오디오 스트림에 관련된 정보를 기술하는 디스크립터도 배치된다. 이 오디오 스트림의 「Stream_type」의 값은 「0x11」로 설정되고, PID 정보는, 상술한 바와 같이 오디오 스트림의 PES 패킷 「audio PES」에 부여되는 PID2를 나타내는 것으로 된다. 디스크립터의 하나로서, 상술한 오디오·유저 데이터·디스크립터(audio_userdata_descriptor)가 배치된다.In addition, in the audio elementary stream loop (audio ES loop), information such as a stream type and PID (packet identifier) is arranged corresponding to the audio stream, and a descriptor describing information related to the audio stream is also arranged. . The value of "Stream_type" of this audio stream is set to "0x11", and the PID information indicates PID2 provided to the PES packet "audio PES" of the audio stream as described above. As one of the descriptors, the above-mentioned audio user data descriptor (audio_userdata_descriptor) is arranged.

[셋톱 박스의 구성예] [Configuration example of set-top box]

도 20은 셋톱 박스(200)의 구성예를 도시하고 있다. 이 셋톱 박스(200)는 안테나 단자(203)와, 디지털 튜너(204)와, 디멀티플렉서(205)와, 비디오 디코더(206)와, 오디오 프레이밍부(207)와, HDMI 송신부(208)와, HDMI 단자(209)를 갖고 있다. 또한, 셋톱 박스(200)는 CPU(211)와, 플래시 ROM(212)과, DRAM(213)과, 내부 버스(214)와, 리모콘 수신부(215)와, 리모콘 송신기(216)를 갖고 있다.20 shows a configuration example of the set-top box 200 . The set-top box 200 includes an antenna terminal 203 , a digital tuner 204 , a demultiplexer 205 , a video decoder 206 , an audio framing unit 207 , an HDMI transmitter 208 , and an HDMI It has a terminal 209 . Further, the set-top box 200 has a CPU 211 , a flash ROM 212 , a DRAM 213 , an internal bus 214 , a remote control receiver 215 , and a remote control transmitter 216 .

CPU(211)는 셋톱 박스(200)의 각 부의 동작을 제어한다. 플래시 ROM(212)은 제어 소프트웨어의 저장 및 데이터의 보관을 행한다. DRAM(213)은 CPU(211)의 워크 에리어를 구성한다. CPU(211)는 플래시 ROM(212)으로부터 판독한 소프트웨어나 데이터를 DRAM(213) 상에 전개하여 소프트웨어를 기동시켜, 셋톱 박스(200)의 각 부를 제어한다.The CPU 211 controls the operation of each part of the set-top box 200 . The flash ROM 212 stores control software and data. The DRAM 213 constitutes a work area of the CPU 211 . The CPU 211 develops software and data read from the flash ROM 212 onto the DRAM 213 , activates the software, and controls each unit of the set-top box 200 .

리모콘 수신부(215)는 리모콘 송신기(216)로부터 송신된 리모콘 콘트롤 신호(리모콘 코드)를 수신하여, CPU(211)에 공급한다. CPU(211)는 이 리모콘 코드에 기초하여, 셋톱 박스(200)의 각 부를 제어한다. CPU(211), 플래시 ROM(212) 및 DRAM(213)은 내부 버스(214)에 접속되어 있다.The remote control receiving unit 215 receives a remote control control signal (remote control code) transmitted from the remote control transmitter 216 and supplies it to the CPU 211 . The CPU 211 controls each part of the set-top box 200 based on this remote control code. The CPU 211 , the flash ROM 212 , and the DRAM 213 are connected to the internal bus 214 .

안테나 단자(203)는 수신 안테나(도시하지 않음)로 수신된 텔레비전 방송 신호를 입력하는 단자이다. 디지털 튜너(204)는 안테나 단자(203)에 입력된 텔레비전 방송 신호를 처리하여, 유저의 선택 채널에 대응한 트랜스포트 스트림 TS를 출력한다.The antenna terminal 203 is a terminal for inputting a television broadcast signal received by a reception antenna (not shown). The digital tuner 204 processes the television broadcast signal input to the antenna terminal 203 and outputs a transport stream TS corresponding to the user's selected channel.

디멀티플렉서(205)는 트랜스포트 스트림 TS로부터 비디오 스트림의 패킷을 추출하여, 비디오 디코더(206)에 보낸다. 비디오 디코더(206)는 디멀티플렉서(205)에서 추출된 비디오의 패킷으로부터 비디오 스트림을 재구성하고, 복호화 처리를 행하여 비압축의 화상 데이터를 얻는다. 또한, 디멀티플렉서(205)는 트랜스포트 스트림 TS로부터 오디오 스트림의 패킷을 추출하여, 오디오 스트림을 재구성한다. 오디오 프레이밍부(207)는 이와 같이 재구성된 오디오 스트림에 대하여 프레이밍을 행한다.The demultiplexer 205 extracts a packet of the video stream from the transport stream TS and sends it to the video decoder 206 . The video decoder 206 reconstructs a video stream from the video packets extracted by the demultiplexer 205, and performs decoding processing to obtain uncompressed image data. Also, the demultiplexer 205 extracts packets of the audio stream from the transport stream TS and reconstructs the audio stream. The audio framing unit 207 frames the audio stream reconstructed in this way.

또한, 디멀티플렉서(205)는 트랜스포트 스트림 TS로부터 각종 디스크립터 등을 추출하여, CPU(211)에 송신한다. 여기서, 디스크립터에는, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보로서의 오디오·유저 데이터·디스크립터(도 16 참조)도 포함된다.Further, the demultiplexer 205 extracts various descriptors and the like from the transport stream TS and transmits them to the CPU 211 . Here, the descriptor also includes an audio user data descriptor (refer to Fig. 16) as identification information indicating that metadata is inserted into the audio stream.

HDMI 송신부(208)는 HDMI에 준거한 통신에 의해 비디오 디코더(206)에서 얻어진 비압축의 화상 데이터와, 오디오 프레이밍부(207)에서 프레이밍된 후의 오디오 스트림을 HDMI 단자(209)로부터 송출한다. HDMI 송신부(208)는 HDMI의 TMDS 채널로 송신하기 위하여, 화상 데이터 및 오디오 스트림을 패킹하여, HDMI 단자(209)에 출력한다.The HDMI transmitter 208 transmits the uncompressed image data obtained by the video decoder 206 and the audio stream framed by the audio framing unit 207 from the HDMI terminal 209 through HDMI-compliant communication. The HDMI transmitter 208 packs the image data and the audio stream for transmission through the TMDS channel of HDMI, and outputs them to the HDMI terminal 209 .

HDMI 송신부(208)는 CPU(211)의 제어 하에서, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보를 삽입한다. HDMI 송신부(208)는 오디오 스트림 및 식별 정보를 화상 데이터의 블랭킹 기간에 삽입한다. 이 HDMI 송신부(209)의 상세는 후술한다.The HDMI transmitter 208 inserts identification information indicating that metadata is inserted into the audio stream under the control of the CPU 211 . The HDMI transmitter 208 inserts the audio stream and identification information into the blanking period of the image data. Details of the HDMI transmitter 209 will be described later.

이 실시 형태에 있어서, HDMI 송신부(208)는 화상 데이터의 블랭킹 기간에 배치되는 오디오·인포프레임·패킷(Audio InfoFrame packet)에 식별 정보를 삽입한다. 이 오디오·인포프레임·패킷은 데이터 아일랜드 구간에 배치된다.In this embodiment, the HDMI transmitter 208 inserts identification information into an Audio InfoFrame packet arranged in the blanking period of the image data. This audio info frame packet is arranged in the data island section.

도 21은 오디오·인포프레임·패킷의 구조예를 나타내고 있다. HDMI에서는, 이 오디오·인포프레임·패킷에 의해 음성에 관한 부대 정보를 소스 기기로부터 싱크 기기에 전송 가능하게 되어 있다.Fig. 21 shows an example of the structure of an audio info frame packet. In HDMI, it is possible to transmit audio accompanying information from a source device to a sink device by using this audio info frame packet.

제0 바이트에 데이터 패킷의 종류를 나타내는 「Packet Type」이 정의되어 있고, 오디오·인포프레임·패킷은 「0x84」로 되어 있다. 제1 바이트에 패킷 데이터 정의의 버전 정보를 기술한다. 제2 바이트에 패킷 길이를 나타내는 정보를 기술한다."Packet Type" indicating the type of data packet is defined in the 0th byte, and the audio infoframe packet is "0x84". Version information of the packet data definition is described in the first byte. Information indicating the packet length is described in the second byte.

이 실시 형태에서는, 제5 바이트의 제5 비트에 「userdata_presence_flag」의 1비트 플래그 정보가 정의된다. 이 플래그 정보가 "1"일 때, 제9 바이트에 식별 정보가 정의된다. 제7 비트 내지 제5 비트는 「metadata_type」의 필드로 되고, 제4 비트는 「coordinated_control_flag」의 필드로 되고, 제2 비트 내지 제0 비트는 「frequency_type」의 필드로 된다. 상세 설명은 생략하지만, 이들 각 필드는, 도 16에 도시하는 오디오·유저 데이터·디스크립터에 있어서의 각 필드와 동일한 정보를 나타낸다.In this embodiment, 1-bit flag information of "userdata_presence_flag" is defined in the 5th bit of the 5th byte. When this flag information is &quot;1&quot;, identification information is defined in the ninth byte. The 7th to 5th bits become a field of "metadata_type", the 4th bit becomes a field of "coordinated_control_flag", and the 2nd to 0th bits become a field of "frequency_type". Although detailed explanation is omitted, each of these fields indicates the same information as each field in the audio user data descriptor shown in FIG. 16 .

셋톱 박스(200)의 동작을 간단하게 설명한다. 안테나 단자(203)에 입력된 텔레비전 방송 신호는 디지털 튜너(204)에 공급된다. 이 디지털 튜너(204)에서는, 텔레비전 방송 신호가 처리되어, 유저의 선택 채널에 대응한 트랜스포트 스트림 TS가 출력된다.An operation of the set-top box 200 will be briefly described. The television broadcast signal input to the antenna terminal 203 is supplied to the digital tuner 204 . In this digital tuner 204, a television broadcast signal is processed, and a transport stream TS corresponding to the user's selected channel is output.

디지털 튜너(204)로부터 출력되는 트랜스포트 스트림 TS는 디멀티플렉서(205)에 공급된다. 이 디멀티플렉서(205)에서는, 트랜스포트 스트림 TS로부터 비디오의 엘리멘터리 스트림 패킷이 추출되어, 비디오 디코더(206)에 보내어진다.The transport stream TS output from the digital tuner 204 is supplied to the demultiplexer 205 . In this demultiplexer 205, a video elementary stream packet is extracted from the transport stream TS, and is sent to the video decoder 206.

비디오 디코더(206)에서는, 디멀티플렉서(205)에서 추출된 비디오의 패킷으로부터 비디오 스트림이 재구성된 후, 그 비디오 스트림에 대하여 디코드 처리가 행하여져, 화상 데이터가 얻어진다. 이 화상 데이터는 HDMI 송신부(208)에 공급된다.In the video decoder 206, after a video stream is reconstructed from the packets of the video extracted by the demultiplexer 205, a decoding process is performed on the video stream to obtain image data. This image data is supplied to the HDMI transmitter 208 .

또한, 디멀티플렉서(205)에서는, 트랜스포트 스트림 TS로부터 오디오 스트림의 패킷이 추출되어, 오디오 스트림이 재구성된다. 이 오디오 스트림은 오디오 프레이밍부(207)에서 프레이밍된 후에 HDMI 송신부(208)에 공급된다. 그리고, HDMI 송신부(208)에서는 화상 데이터 및 오디오 스트림이 패킹되어, HDMI 단자(209)로부터 HDMI 케이블(400)에 송출된다.Further, in the demultiplexer 205, packets of the audio stream are extracted from the transport stream TS, and the audio stream is reconstructed. This audio stream is framed by the audio framing unit 207 and then supplied to the HDMI transmitting unit 208 . Then, the image data and the audio stream are packed in the HDMI transmitter 208 and transmitted from the HDMI terminal 209 to the HDMI cable 400 .

또한, 디멀티플렉서(205)에서는 트랜스포트 스트림 TS로부터 각종 디스크립터 등이 추출되어, CPU(211)에 보내어진다. 여기서, 디스크립터에는 오디오·유저 데이터·디스크립터도 포함되고, CPU(211)는 이 디스크립터에 기초하여, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 파악한다.In addition, in the demultiplexer 205, various descriptors and the like are extracted from the transport stream TS and sent to the CPU 211. Here, the descriptor also includes an audio user data descriptor, and the CPU 211 grasps that metadata is inserted into the audio stream based on this descriptor.

HDMI 송신부(208)에서는, CPU(211)의 제어 하에서, 화상 데이터의 블랭킹 기간에 배치되는 오디오·인포프레임·패킷에, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보가 삽입된다. 이에 의해, 셋톱 박스(200)로부터 HDMI 텔레비전 수신기(300)에, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보를 송신하는 일이 행하여진다.In the HDMI transmitter 208, under the control of the CPU 211, identification information indicating that metadata is inserted into the audio stream is inserted into the audio info frame packet arranged in the blanking period of the image data. In this way, the identification information indicating that metadata is inserted in the audio stream is transmitted from the set-top box 200 to the HDMI television receiver 300 .

[텔레비전 수신기의 구성예] [Configuration example of TV receiver]

도 22는 텔레비전 수신기(300)의 구성예를 나타내고 있다. 이 텔레비전 수신기(300)는 안테나 단자(305)와, 디지털 튜너(306)와, 디멀티플렉서(307)와, 비디오 디코더(308)와, 영상 처리 회로(309)와, 패널 구동 회로(310)와, 표시 패널(311)을 갖고 있다.22 shows a configuration example of the television receiver 300. As shown in FIG. The television receiver 300 includes an antenna terminal 305 , a digital tuner 306 , a demultiplexer 307 , a video decoder 308 , an image processing circuit 309 , a panel driving circuit 310 , A display panel 311 is provided.

또한, 텔레비전 수신기(300)는 오디오 디코더(312)와, 음성 처리 회로(313)와, 음성 증폭 회로(314)와, 스피커(315)와, HDMI 단자(316)와, HDMI 수신부(317)와, 통신 인터페이스(318)를 갖고 있다. 또한, 텔레비전 수신기(300)는 CPU(321)와, 플래시 ROM(322)과, DRAM(323)과, 내부 버스(324)와, 리모콘 수신부(325)와, 리모콘 송신기(326)를 갖고 있다.In addition, the television receiver 300 includes an audio decoder 312 , an audio processing circuit 313 , an audio amplifier circuit 314 , a speaker 315 , an HDMI terminal 316 , an HDMI receiver 317 , and , has a communication interface 318 . Further, the television receiver 300 includes a CPU 321 , a flash ROM 322 , a DRAM 323 , an internal bus 324 , a remote control receiver 325 , and a remote control transmitter 326 .

CPU(321)는 텔레비전 수신기(300)의 각 부의 동작을 제어한다. 플래시 ROM(322)은, 제어 소프트웨어의 저장 및 데이터의 보관을 행한다. DRAM(323)은, CPU(321)의 워크 에리어를 구성한다. CPU(321)는 플래시 ROM(322)로부터 판독한 소프트웨어나 데이터를 DRAM(323) 상에 전개하여 소프트웨어를 기동시켜, 텔레비전 수신기(300)의 각 부를 제어한다.The CPU 321 controls the operation of each unit of the television receiver 300 . The flash ROM 322 stores control software and data. The DRAM 323 constitutes a work area of the CPU 321 . The CPU 321 develops software and data read from the flash ROM 322 onto the DRAM 323 to activate the software, and control each unit of the television receiver 300 .

리모콘 수신부(325)는 리모콘 송신기(326)로부터 송신된 리모트 컨트롤 신호(리모콘 코드)를 수신하여, CPU(321)에 공급한다. CPU(321)는 이 리모콘 코드에 기초하여, 텔레비전 수신기(300)의 각 부를 제어한다. CPU(321), 플래시 ROM(322) 및 DRAM(323)은 내부 버스(324)에 접속되어 있다.The remote control receiver 325 receives the remote control signal (remote control code) transmitted from the remote control transmitter 326 and supplies it to the CPU 321 . The CPU 321 controls each unit of the television receiver 300 based on this remote control code. The CPU 321 , the flash ROM 322 , and the DRAM 323 are connected to the internal bus 324 .

통신 인터페이스(318)는 CPU(321)의 제어 하에서, 인터넷 등의 네트워크 상에 존재하는 서버 사이에서 통신을 행한다. 이 통신 인터페이스(318)는 내부 버스(324)에 접속되어 있다.The communication interface 318 performs communication between servers existing on a network such as the Internet, under the control of the CPU 321 . This communication interface 318 is connected to an internal bus 324 .

안테나 단자(305)는 수신 안테나(도시하지 않음)로 수신된 텔레비전 방송 신호를 입력하는 단자이다. 디지털 튜너(306)는 안테나 단자(305)에 입력된 텔레비전 방송 신호를 처리하여, 유저의 선택 채널에 대응한 트랜스포트 스트림 TS를 출력한다.The antenna terminal 305 is a terminal for inputting a television broadcast signal received by a reception antenna (not shown). The digital tuner 306 processes the television broadcast signal input to the antenna terminal 305 and outputs the transport stream TS corresponding to the user's selected channel.

디멀티플렉서(307)는 트랜스포트 스트림 TS로부터 비디오 스트림의 패킷을 추출하여, 비디오 디코더(308)에 보낸다. 비디오 디코더(308)는 디멀티플렉서(307)에서 추출된 비디오의 패킷으로부터 비디오 스트림을 재구성하고, 복호화 처리를 행하여 비압축의 화상 데이터를 얻는다.The demultiplexer 307 extracts a packet of the video stream from the transport stream TS and sends it to the video decoder 308 . The video decoder 308 reconstructs a video stream from the packets of the video extracted by the demultiplexer 307, and performs decoding processing to obtain uncompressed image data.

또한, 디멀티플렉서(205)는 트랜스포트 스트림 TS로부터 오디오 스트림의 패킷을 추출하여, 오디오 스트림을 재구성한다. 또한, 디멀티플렉서(307)는 트랜스포트 스트림 TS로부터 각종 디스크립터 등을 추출하여, CPU(321)에 송신한다. 여기서, 이 디스크립터에는, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보로서의 오디오·유저 데이터·디스크립터(도 16 참조)도 포함된다. 비디오 디코더(308)는 디멀티플렉서(307)에서 추출된 비디오의 패킷으로부터 비디오 스트림을 재구성하고, 복호화 처리를 행하여 비압축의 화상 데이터를 얻는다.Also, the demultiplexer 205 extracts packets of the audio stream from the transport stream TS and reconstructs the audio stream. Further, the demultiplexer 307 extracts various descriptors and the like from the transport stream TS and transmits them to the CPU 321 . Here, this descriptor also includes an audio user data descriptor (refer to Fig. 16) as identification information indicating that metadata is inserted into the audio stream. The video decoder 308 reconstructs a video stream from the packets of the video extracted by the demultiplexer 307, and performs decoding processing to obtain uncompressed image data.

HDMI 수신부(317)는 HDMI에 준거한 통신에 의해 HDMI 케이블(400)을 통하여 HDMI 단자(316)에 공급되는 화상 데이터 및 오디오 스트림을 수신한다. 또한, HDMI 수신부(317)는 화상 데이터의 블랭킹 기간에 삽입되어 있는 다양한 제어 정보를 추출하여, CPU(321)에 송신한다. 여기서, 이 제어 정보에는 오디오·인포프레임·패킷에 삽입된, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보(도 21 참조)도 포함된다. 이 HDMI 수신부(317)의 상세는 후술한다.The HDMI receiver 317 receives the image data and audio stream supplied to the HDMI terminal 316 via the HDMI cable 400 through HDMI compliant communication. Further, the HDMI receiver 317 extracts various control information inserted in the blanking period of the image data and transmits it to the CPU 321 . Here, this control information also includes identification information (refer to Fig. 21) that is inserted into the audio info frame packet and indicates that metadata is inserted into the audio stream. Details of the HDMI receiver 317 will be described later.

영상 처리 회로(309)는 비디오 디코더(308)에서 얻어지거나, 혹은 HDMI 수신부(316)에서 얻어진 화상 데이터, 나아가 통신 인터페이스(318)에서 네트워크 상의 서버로부터 수신된 화상 데이터 등에 대하여 스케일링 처리, 합성 처리 등을 행하여, 표시용 화상 데이터를 얻는다.The image processing circuit 309 performs scaling processing, synthesizing processing, etc. with respect to image data obtained from the video decoder 308 or from the HDMI receiver 316 and further image data received from a server on the network through the communication interface 318 . to obtain image data for display.

패널 구동 회로(310)는 영상 처리 회로(309)에서 얻어지는 표시용 화상 데이터에 기초하여, 표시 패널(311)을 구동한다. 표시 패널(311)은, 예를 들어 LCD(Liquid Crystal Display), 유기 EL 디스플레이(organic electroluminescence display) 등으로 구성되어 있다.The panel driving circuit 310 drives the display panel 311 based on the image data for display obtained from the image processing circuit 309 . The display panel 311 is configured of, for example, a liquid crystal display (LCD), an organic electroluminescence display (LCD), or the like.

오디오 디코더(312)는 디멀티플렉서(307)에서 얻어지거나, 혹은 HDMI 수신부(317)에서 얻어진 오디오 스트림에 대하여 복호화 처리를 행하여 비압축의 음성 데이터를 얻는다. 또한, 오디오 디코더(312)는 오디오 스트림에 삽입되어 있는 메타데이터를 추출하여, CPU(321)에 송신한다. CPU(321)는 적절히 텔레비전 수신기(300)의 각 부에 메타데이터를 사용한 처리를 행하게 한다.The audio decoder 312 performs a decoding process on the audio stream obtained by the demultiplexer 307 or the HDMI receiver 317 to obtain uncompressed audio data. In addition, the audio decoder 312 extracts metadata embedded in the audio stream and transmits it to the CPU 321 . The CPU 321 appropriately causes each unit of the television receiver 300 to perform processing using metadata.

음성 처리 회로(313)는 오디오 디코더(312)에서 얻어진 음성 데이터에 대하여 D/A 변환 등의 필요한 처리를 행한다. 음성 증폭 회로(314)는 음성 처리 회로(313)로부터 출력되는 음성 신호를 증폭하여 스피커(315)에 공급한다.The audio processing circuit 313 performs necessary processing such as D/A conversion on the audio data obtained by the audio decoder 312 . The audio amplifier circuit 314 amplifies the audio signal output from the audio processing circuit 313 and supplies it to the speaker 315 .

도 22에 도시하는 텔레비전 수신기(300)의 동작을 간단하게 설명한다. 안테나 단자(305)에 입력된 텔레비전 방송 신호는 디지털 튜너(306)에 공급된다. 이 디지털 튜너(306)에서는, 텔레비전 방송 신호가 처리되어, 유저의 선택 채널에 대응한 트랜스포트 스트림 TS가 얻어진다.The operation of the television receiver 300 shown in Fig. 22 will be briefly described. The television broadcast signal input to the antenna terminal 305 is supplied to the digital tuner 306 . In this digital tuner 306, a television broadcast signal is processed to obtain a transport stream TS corresponding to the user's selected channel.

디지털 튜너(306)에서 얻어지는 트랜스포트 스트림 TS는, 디멀티플렉서(307)에 공급된다. 디멀티플렉서(307)에서는, 트랜스포트 스트림 TS로부터 비디오 스트림의 패킷이 추출되어, 비디오 디코더(308)에 공급된다. 비디오 디코더(308)에서는, 디멀티플렉서(307)에서 추출된 비디오의 패킷으로부터 비디오 스트림이 재구성되고, 복호화 처리가 행하여져, 비압축의 화상 데이터가 얻어진다. 이 화상 데이터는 영상 처리 회로(309)에 공급된다.The transport stream TS obtained from the digital tuner 306 is supplied to the demultiplexer 307 . In the demultiplexer 307 , packets of the video stream are extracted from the transport stream TS and supplied to the video decoder 308 . In the video decoder 308, a video stream is reconstructed from the packets of the video extracted by the demultiplexer 307, a decoding process is performed, and uncompressed image data is obtained. This image data is supplied to the image processing circuit 309 .

또한, 디멀티플렉서(307)에서는 트랜스포트 스트림 TS로부터 오디오 스트림의 패킷이 추출되어, 오디오 스트림이 재구성된다. 이 오디오 스트림은 오디오 디코더(312)에 공급된다. 또한, 디멀티플렉서(307)에서는, 트랜스포트 스트림 TS로부터 각종 디스크립터 등이 추출되어, CPU(321)에 보내어진다.Further, in the demultiplexer 307, packets of the audio stream are extracted from the transport stream TS, and the audio stream is reconstructed. This audio stream is fed to an audio decoder 312 . In addition, in the demultiplexer 307, various descriptors and the like are extracted from the transport stream TS and sent to the CPU 321.

이 디스크립터에는 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보로서의 오디오·유저 데이터·디스크립터도 포함된다. 그로 인해, CPU(321)는 이 식별 정보에 기초하여, 오디오 디코더(312)의 동작을 제어하여, 오디오 스트림으로부터 메타데이터를 추출시키는 것이 가능해진다.This descriptor also includes an audio user data descriptor as identification information indicating that metadata is inserted into the audio stream. Accordingly, the CPU 321 controls the operation of the audio decoder 312 based on the identification information to extract metadata from the audio stream.

HDMI 수신부(317)에서는, HDMI에 준거한 통신에 의해 HDMI 케이블(400)을 통하여 HDMI 단자(316)에 공급되는 화상 데이터 및 오디오 스트림이 수신된다. 화상 데이터는 영상 처리 회로(309)에 공급된다. 또한, 오디오 스트림은 오디오 디코더(312)에 공급된다.The HDMI receiver 317 receives the image data and audio stream supplied to the HDMI terminal 316 via the HDMI cable 400 through HDMI compliant communication. The image data is supplied to the image processing circuit 309 . Also, the audio stream is supplied to the audio decoder 312 .

또한, HDMI 수신부(317)에서는 화상 데이터의 블랭킹 기간에 삽입되어 있는 다양한 제어 정보가 추출되어, CPU(321)에 보내어진다. 이 제어 정보에는, 오디오·인포프레임·패킷에 삽입된, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보도 포함된다. 그로 인해, CPU(321)는 이 식별 정보에 기초하여, 오디오 디코더(312)의 동작을 제어하여, 오디오 스트림으로부터 메타데이터를 추출시키는 것이 가능해진다.In addition, the HDMI reception unit 317 extracts various control information inserted in the blanking period of the image data and sends it to the CPU 321 . This control information also includes identification information indicating that metadata is inserted in the audio stream inserted into the audio info frame packet. Accordingly, the CPU 321 controls the operation of the audio decoder 312 based on the identification information to extract metadata from the audio stream.

영상 처리 회로(309)에서는, 비디오 디코더(308)에서 얻어지거나, 혹은 HDMI 수신부(317)에서 얻어진 화상 데이터, 나아가 통신 인터페이스(318)에서 네트워크 상의 서버로부터 수신된 화상 데이터 등에 대하여 스케일링 처리, 합성 처리 등이 실시되어, 표시용 화상 데이터가 얻어진다. 여기서, 텔레비전 방송 신호를 수신하여 처리하는 경우는 영상 처리 회로(309)에서는 비디오 디코더(308)에서 얻어진 화상 데이터가 취급된다. 한편, 셋톱 박스(200)가 HDMI 인터페이스로 접속되는 경우는, 영상 처리 회로(309)에서는 HDMI 수신부(317)에서 얻어진 화상 데이터가 취급된다.In the image processing circuit 309, scaling processing and synthesizing processing for image data obtained by the video decoder 308 or HDMI reception unit 317, and further image data received from a server on the network through the communication interface 318, etc. etc. are performed, and image data for display is obtained. Here, when receiving and processing a television broadcast signal, the image processing circuit 309 handles the image data obtained by the video decoder 308 . On the other hand, when the set-top box 200 is connected via the HDMI interface, the image processing circuit 309 handles the image data obtained from the HDMI receiver 317 .

영상 처리 회로(309)에서 얻어진 표시용 화상 데이터는 패널 구동 회로(310)에 공급된다. 패널 구동 회로(310)에서는, 표시용 화상 데이터에 기초하여, 표시 패널(311)을 구동하는 일이 행하여진다. 이에 의해, 표시 패널(311)에는 표시용 화상 데이터에 대응한 화상이 표시된다.The image data for display obtained by the image processing circuit 309 is supplied to the panel driving circuit 310 . The panel driving circuit 310 drives the display panel 311 based on the image data for display. Thereby, an image corresponding to the image data for display is displayed on the display panel 311 .

오디오 디코더(312)에서는, 디멀티플렉서(307)에서 얻어지거나, 혹은 HDMI 수신부(316)에서 얻어진 오디오 스트림에 대하여 복호화 처리가 행하여져 비압축의 음성 데이터가 얻어진다. 여기서, 텔레비전 방송 신호를 수신하여 처리하는 경우는 오디오 디코더(312)에서는 디멀티플렉서(307)에서 얻어진 오디오 스트림이 취급된다. 한편, 셋톱 박스(200)가 HDMI 인터페이스로 접속되는 경우는 오디오 디코더(312)에서는 HDMI 수신부(317)에서 얻어진 오디오 스트림이 취급된다.In the audio decoder 312, the audio stream obtained by the demultiplexer 307 or the HDMI receiver 316 is decoded to obtain uncompressed audio data. Here, when receiving and processing a television broadcast signal, the audio decoder 312 handles the audio stream obtained by the demultiplexer 307 . On the other hand, when the set-top box 200 is connected via the HDMI interface, the audio decoder 312 handles the audio stream obtained from the HDMI receiver 317 .

오디오 디코더(312)에서 얻어지는 음성 데이터는 음성 처리 회로(313)에 공급된다. 음성 처리 회로(313)에서는, 음성 데이터에 대하여 D/A 변환 등의 필요한 처리가 실시된다. 이 음성 데이터는 음성 증폭 회로(314)에서 증폭된 후에, 스피커(315)에 공급된다. 그로 인해, 스피커(315)로부터 표시 패널(311)의 표시 화상에 대응한 음성이 출력된다.The audio data obtained by the audio decoder 312 is supplied to the audio processing circuit 313 . In the audio processing circuit 313, necessary processing such as D/A conversion is performed on audio data. This audio data is supplied to the speaker 315 after amplified by the audio amplifier circuit 314 . Accordingly, a sound corresponding to the displayed image of the display panel 311 is output from the speaker 315 .

또한, 오디오 디코더(312)에서는, 오디오 스트림에 삽입되어 있는 메타데이터가 추출된다. 예를 들어, 이 메타데이터의 추출 처리는, 상술한 바와 같이, CPU(321)가 오디오 스트림에 메타데이터가 삽입되어 있는 것을 식별 정보에 기초하여 파악하고, 오디오 디코더(312)의 동작을 제어함으로써, 낭비없이 확실하게 행하여진다.In addition, the audio decoder 312 extracts metadata embedded in the audio stream. For example, in this metadata extraction process, as described above, the CPU 321 grasps that metadata is inserted into the audio stream based on the identification information, and controls the operation of the audio decoder 312 . , it is done reliably without waste.

이와 같이 오디오 디코더(312)에서 추출되는 메타데이터는 CPU(321)에 보내어진다. 그리고, CPU(321)의 제어에 의해 적절히 텔레비전 수신기(300)의 각 부에서 메타데이터를 사용한 처리가 행하여진다. 예를 들어, 네트워크 상의 서버로부터 화상 데이터를 취득하여, 멀티 화면 표시가 행하여진다.In this way, the metadata extracted from the audio decoder 312 is sent to the CPU 321 . Then, under the control of the CPU 321, processing using metadata is performed in each unit of the television receiver 300 as appropriate. For example, image data is acquired from a server on a network, and multi-screen display is performed.

[HDMI 송신부, HDMI 수신부의 구성예] [Configuration example of HDMI transmitter and HDMI receiver]

도 23은 도 20에 도시하는 셋톱 박스(200)의 HDMI 송신부(HDMI 소스)(208)와, 도 22에 도시하는 텔레비전 수신기(300)의 HDMI 수신부(HDMI 싱크)(317)의 구성예를 나타내고 있다.23 shows a configuration example of an HDMI transmitter (HDMI source) 208 of the set-top box 200 shown in FIG. 20 and an HDMI receiver (HDMI sink) 317 of the television receiver 300 shown in FIG. there is.

HDMI 송신부(208)는 유효 화상 구간(이하, 적절히 액티브 비디오 구간이라고도 함)에 있어서, 비압축의 1화면분의 화상의 화소 데이터에 대응하는 차동 신호를 복수의 채널로 HDMI 수신부(317)에 일방향으로 송신한다. 여기서, 유효 화상 구간은, 어느 한 수직 동기 신호부터 다음 수직 동기 신호까지의 구간으로부터, 수평 귀선 구간 및 수직 귀선 구간을 제외한 구간이다. 또한, HDMI 송신부(208)는 수평 귀선 구간 또는 수직 귀선 구간에 있어서, 적어도 화상에 부수되는 음성 데이터나 제어 데이터, 그 밖의 보조 데이터 등에 대응하는 차동 신호를, 복수의 채널로 HDMI 수신부(317)에 일방향으로 송신한다.The HDMI transmitter 208 unidirectionally transmits differential signals corresponding to pixel data of an uncompressed image for one screen to the HDMI receiver 317 in a plurality of channels in an effective image period (hereinafter also referred to as an active video period as appropriate) in an effective image period (hereinafter, appropriately referred to as an active video period). send to Here, the effective picture section is a section from the section from one vertical sync signal to the next vertical sync signal, excluding the horizontal retrace section and the vertical retrace section. Further, in the horizontal retrace section or the vertical retrace section, the HDMI transmitter 208 transmits at least a differential signal corresponding to audio data, control data, and other auxiliary data accompanying an image to the HDMI receiver 317 through a plurality of channels. transmit in one direction.

HDMI 송신부(208)와 HDMI 수신부(317)를 포함하는 HDMI 시스템의 전송 채널에는, 이하의 전송 채널이 있다. 즉, HDMI 송신부(208)로부터 HDMI 수신부(317)에 대하여, 화소 데이터 및 음성 데이터를 픽셀 클럭에 동기하여, 일방향으로 시리얼 전송하기 위한 전송 채널로서의 3개의 TMDS 채널 #0 내지 #2가 있다. 또한, 픽셀 클럭을 전송하는 전송 채널로서의 TMDS 클럭 채널이 있다.The transmission channels of the HDMI system including the HDMI transmission unit 208 and the HDMI reception unit 317 include the following transmission channels. That is, there are three TMDS channels #0 to #2 as transmission channels for serial transmission in one direction from the HDMI transmitter 208 to the HDMI receiver 317 in synchronization with the pixel clock and the pixel data and audio data. There is also the TMDS clock channel as a transport channel for transmitting the pixel clock.

HDMI 송신부(208)는 HDMI 트랜스미터(81)를 갖는다. 트랜스미터(81)는 예를 들어 비압축의 화상의 화소 데이터를 대응하는 차동 신호로 변환하여, 복수의 채널인 3개의 TMDS 채널 #0, #1, #2로, HDMI 케이블(400)을 통하여 접속되어 있는 HDMI 수신부(317)에 일방향으로 시리얼 전송한다.The HDMI transmitter 208 has an HDMI transmitter 81 . The transmitter 81 converts, for example, pixel data of an uncompressed image into a corresponding differential signal, and connects to three TMDS channels #0, #1, and #2, which are a plurality of channels, via the HDMI cable 400 . It transmits serially in one direction to the HDMI receiver 317 in one direction.

또한, 트랜스미터(81)는 비압축의 화상에 부수되는 음성 데이터, 나아가 필요한 제어 데이터 그 밖의 보조 데이터 등을 대응하는 차동 신호로 변환하여, 3개의 TMDS 채널 #0, #1, #2로 HDMI 수신부(317)에 일방향으로 시리얼 전송한다.In addition, the transmitter 81 converts audio data accompanying the uncompressed image, further necessary control data and other auxiliary data, into a corresponding differential signal, and uses the three TMDS channels #0, #1, and #2 in the HDMI receiver. Serial transmission in one direction to 317.

또한, 트랜스미터(81)는 3개의 TMDS 채널 #0, #1, #2로 송신하는 화소 데이터에 동기한 픽셀 클럭을 TMDS 클럭 채널로 HDMI 케이블(400)을 통하여 접속되어 있는 HDMI 수신부(317)에 송신한다. 여기서, 1개의 TMDS 채널 #i(i=0, 1, 2)에서는, 픽셀 클럭의 1클럭 사이에 10비트의 화소 데이터가 송신된다.In addition, the transmitter 81 transmits the pixel clock synchronized with the pixel data transmitted through the three TMDS channels #0, #1, and #2 to the HDMI receiver 317 connected through the HDMI cable 400 as the TMDS clock channel. send Here, in one TMDS channel #i (i=0, 1, 2), 10-bit pixel data is transmitted between one pixel clock.

HDMI 수신부(317)는 액티브 비디오 구간에 있어서, 복수의 채널로 HDMI 송신부(208)로부터 일방향으로 송신되어 오는, 화소 데이터에 대응하는 차동 신호를 수신한다. 또한, 이 HDMI 수신부(317)는 수평 귀선 구간 또는 수직 귀선 구간에 있어서, 복수의 채널로 HDMI 송신부(208)로부터 일방향으로 송신되어 오는, 음성 데이터나 제어 데이터에 대응하는 차동 신호를 수신한다.The HDMI receiver 317 receives a differential signal corresponding to pixel data transmitted in one direction from the HDMI transmitter 208 through a plurality of channels in the active video section. In addition, the HDMI receiver 317 receives a differential signal corresponding to audio data and control data transmitted in one direction from the HDMI transmitter 208 through a plurality of channels in a horizontal retrace section or a vertical retrace section.

즉, HDMI 수신부(317)는 HDMI 리시버(82)를 갖는다. 이 HDMI 리시버(82)는 TMDS 채널 #0, #1, #2로, HDMI 송신부(208)로부터 일방향으로 송신되어 오는, 화소 데이터에 대응하는 차동 신호와, 음성 데이터나 제어 데이터에 대응하는 차동 신호를 수신한다. 이 경우, HDMI 송신부(208)로부터 TMDS 클럭 채널로 송신되어 오는 픽셀 클럭에 동기하여 수신한다.That is, the HDMI receiver 317 has an HDMI receiver 82 . The HDMI receiver 82 transmits unidirectionally from the HDMI transmitter 208 on TMDS channels #0, #1, and #2, and includes a differential signal corresponding to pixel data and a differential signal corresponding to audio data and control data. receive In this case, it is received in synchronization with the pixel clock transmitted from the HDMI transmitter 208 through the TMDS clock channel.

HDMI 시스템의 전송 채널에는, 상술한 TMDS 채널 #0 내지 #2 및 TMDS 클럭 채널 이외에, DDC(Display Data Channel)(83)나 CEC 라인(84)이라고 불리는 전송 채널이 있다. DDC(83)는 HDMI 케이블(400)에 포함되는 도시하지 않은 2개의 신호 선으로 이루어진다. DDC(83)는 HDMI 송신부(208)가 HDMI 수신부(317)로부터 E-EDID(Enhanced Extended Display Identification Data)를 판독하기 위하여 사용된다.In the transmission channel of the HDMI system, in addition to the above-described TMDS channels #0 to #2 and the TMDS clock channel, there is a transmission channel called a DDC (Display Data Channel) 83 and a CEC line 84 . The DDC 83 includes two signal lines (not shown) included in the HDMI cable 400 . The DDC 83 is used by the HDMI transmitter 208 to read E-EDID (Enhanced Extended Display Identification Data) from the HDMI receiver 317 .

HDMI 수신부(317)는 HDMI 리시버(81) 이외에, 자신의 성능(Configuration/capability)에 관한 성능 정보인 E-EDID를 기억하고 있는, EDID ROM(Read Only Memory)(85)을 갖고 있다. HDMI 송신부(208)는 예를 들어 CPU(211)(도 20 참조)로부터의 요구에 따라, HDMI 케이블(400)을 개재하여 접속되어 있는 HDMI 수신부(317)로부터 E-EDID를, DDC(83)를 통하여 판독한다.In addition to the HDMI receiver 81 , the HDMI receiver 317 has an EDID ROM (Read Only Memory) 85 that stores E-EDID, which is performance information related to its own configuration/capability. The HDMI transmitter 208 transmits the E-EDID from the HDMI receiver 317 connected via the HDMI cable 400 to the DDC 83 in response to a request from, for example, the CPU 211 (see Fig. 20). read through

HDMI 송신부(208)는 판독한 E-EDID를 CPU(211)에 보낸다. CPU(211)는 이 E-EDID를 플래시 ROM(212) 혹은 DRAM(213)에 저장한다.The HDMI transmitter 208 sends the read E-EDID to the CPU 211 . The CPU 211 stores this E-EDID in the flash ROM 212 or DRAM 213 .

CEC 라인(84)은 HDMI 케이블(400)에 포함되는 도시하지 않은 1개의 신호선으로 이루어지고, HDMI 송신부(208)와 HDMI 수신부(317) 사이에서, 제어용 데이터의 쌍방향 통신을 행하기 위하여 사용된다. 이 CEC 라인(84)은 제어 데이터 라인을 구성하고 있다.The CEC line 84 is composed of one signal line (not shown) included in the HDMI cable 400, and is used for bidirectional communication of control data between the HDMI transmitter 208 and the HDMI receiver 317. This CEC line 84 constitutes a control data line.

또한, HDMI 케이블(400)에는 HPD(Hot Plug Detect)라고 불리는 핀에 접속되는 라인(HPD 라인)(86)이 포함되어 있다. 소스 기기는, 당해 라인(86)을 이용하여, 싱크 기기의 접속을 검출할 수 있다. 또한, 이 HPD 라인(86)은 쌍방향 통신로를 구성하는 HEAC-라인으로서도 사용된다. 또한, HDMI 케이블(400)에는 소스 기기로부터 싱크 기기에 전원을 공급하기 위하여 사용되는 전원 라인(87)이 포함되어 있다. 또한, HDMI 케이블(400)에는 유틸리티 라인(88)이 포함되어 있다. 이 유틸리티 라인(88)은 쌍방향 통신로를 구성하는 HEAC+라인으로서도 사용된다.In addition, the HDMI cable 400 includes a line (HPD line) 86 connected to a pin called HPD (Hot Plug Detect). The source device can use the line 86 to detect the connection of the sink device. In addition, this HPD line 86 is also used as a HEAC-line constituting a two-way communication path. Also, the HDMI cable 400 includes a power line 87 used to supply power from the source device to the sink device. The HDMI cable 400 also includes a utility line 88 . This utility line 88 is also used as a HEAC+ line constituting a two-way communication path.

도 24는 TMDS 채널 #0, #1, #2에 있어서, 가로×세로가 1920픽셀×1080라인의 화상 데이터가 전송되는 경우의, 각종 전송 데이터의 구간을 도시하고 있다. HDMI의 3개의 TMDS 채널 #0, #1, #2로 전송 데이터가 전송되는 비디오 필드(Video Field)에는 전송 데이터의 종류에 따라 비디오 데이터 구간(17)(Video Data Period), 데이터 아일랜드 구간(18)(Data Island Period) 및 컨트롤 구간(19)(Control Period)의 3종류의 구간이 존재한다.Fig. 24 shows sections of various transmission data when image data of 1920 pixels x 1080 lines is transmitted in TMDS channels #0, #1, and #2. In the video field in which transmission data is transmitted through the three TMDS channels #0, #1, and #2 of HDMI, there is a video data period 17 (Video Data Period) and a data island period 18 depending on the type of transmission data. ) (Data Island Period) and control period 19 (Control Period) exist in three types.

여기서, 비디오 필드 구간은, 어느 한 수직 동기 신호의 상승 엣지(Active Edge)부터 다음의 수직 동기 신호의 상승 엣지까지의 구간이며, 수평 귀선 기간(15)(Horizontal Blanking), 수직 귀선 기간(16)(Vertical Blanking) 및 비디오 필드 구간으로부터, 수평 귀선 기간 및 수직 귀선 기간을 제외한 구간인 유효 화소 구간(14)(Active Video)으로 나뉜다.Here, the video field section is a section from the rising edge (active edge) of one vertical sync signal to the rising edge of the next vertical sync signal, and includes a horizontal blanking period (15) and a vertical blanking period (16). From the (Vertical Blanking) and the video field period, it is divided into an effective pixel period 14 (Active Video) that is a period excluding the horizontal retrace period and the vertical retrace period.

비디오 데이터 구간(17)은 유효 화소 구간(14)에 할당된다. 이 비디오 데이터 구간(17)에서는, 비압축의 1화면분의 화상 데이터를 구성하는 1920픽셀(화소)×1080라인분의 유효 화소(Active Pixel)의 데이터가 전송된다. 데이터 아일랜드 구간(18) 및 컨트롤 구간(19)은 수평 귀선 기간(15) 및 수직 귀선 기간(16)에 할당된다. 이 데이터 아일랜드 구간(18) 및 컨트롤 구간(19)에서는 보조 데이터(Auxiliary Data)가 전송된다.The video data period 17 is allocated to the effective pixel period 14 . In this video data section 17, data of 1920 pixels (pixels) x 1080 lines of effective pixels (active pixels) constituting uncompressed image data for one screen are transmitted. A data island period 18 and a control period 19 are allocated to a horizontal retrace period 15 and a vertical retrace period 16 . Auxiliary data is transmitted in the data island section 18 and the control section 19 .

즉, 데이터 아일랜드 구간(18)은 수평 귀선 기간(15)과 수직 귀선 기간(16)의 일부분에 할당되어 있다. 이 데이터 아일랜드 구간(18)에서는 보조 데이터 중 제어에 관계하지 않는 데이터인, 예를 들어 음성 데이터의 패킷 등이 전송된다. 컨트롤 구간(19)은 수평 귀선 기간(15)과 수직 귀선 기간(16)의 다른 부분에 할당되어 있다. 이 컨트롤 구간(19)에서는, 보조 데이터 중의 제어에 관계하는 데이터인, 예를 들어 수직 동기 신호 및 수평 동기 신호, 제어 패킷 등이 전송된다.That is, the data island section 18 is allocated to a part of the horizontal retrace period 15 and the vertical retrace period 16 . In this data island section 18, data not related to control among the auxiliary data, for example, packets of voice data, etc. are transmitted. The control period 19 is allocated to different parts of the horizontal retrace period 15 and the vertical retrace period 16 . In this control section 19, control-related data in the auxiliary data, for example, a vertical synchronization signal, a horizontal synchronization signal, a control packet, and the like are transmitted.

이어서, 도 25를 참조하여, 텔레비전 수신기(300)에 있어서의 메타데이터를 사용한 처리의 구체예를 설명한다. 텔레비전 수신기(300)는 예를 들어 메타데이터로서, 초기 서버 URL, 네트워크·서비스 식별 정보, 대상 파일명, 세션 개시·종료 커맨드, 미디어 기록·재생 커맨드 등을 취득한다.Next, with reference to FIG. 25, a specific example of the process using metadata in the television receiver 300 is demonstrated. The television receiver 300 acquires, for example, an initial server URL, network/service identification information, target file name, session start/end commands, media recording/playback commands, and the like as metadata.

네트워크 클라이언트인 텔레비전 수신기(300)는 초기 서버 URL을 사용하여, 프라이머리 서버에 액세스한다. 그리고, 텔레비전 수신기(300)는 프라이머리 서버로부터, 스트리밍 서버 URL, 대상 파일명, 파일의 타입을 나타내는 마임 타입, 미디어 재생 시간 정보 등의 정보를 취득한다.The television receiver 300, which is a network client, accesses the primary server using the initial server URL. Then, the television receiver 300 acquires information such as a streaming server URL, a target file name, a mime type indicating a file type, and media reproduction time information, from the primary server.

그리고, 텔레비전 수신기(300)는 스트리밍 서버 URL을 사용하여, 스트리밍 서버에 액세스한다. 그리고, 텔레비전 수신기(300)는 대상 파일명을 지정한다. 여기서, 멀티캐스트에서의 서비스를 받는 경우에는 네트워크 식별 정보와 서비스 식별 정보로 프로그램의 서비스를 특정한다.Then, the television receiver 300 accesses the streaming server using the streaming server URL. Then, the television receiver 300 designates the target file name. Here, in the case of receiving a service in multicast, the service of the program is specified by the network identification information and the service identification information.

그리고, 텔레비전 수신기(300)는 세션 개시·종료 커맨드에 의해 스트리밍 서버와의 사이의 세션을 개시하거나, 혹은 그 세션을 종료한다. 또한, 텔레비전 수신기(300)는 스트리밍 서버와의 사이의 세션 속행 중에 미디어 기록·재생 커맨드를 사용하여, 스트리밍 서버로부터 미디어 데이터를 취득한다.Then, the television receiver 300 starts or ends the session with the streaming server according to the session start/end command. In addition, the television receiver 300 acquires media data from the streaming server by using the media record/reproduce command during the continuation of the session with the streaming server.

또한, 도 25의 예에서는, 프라이머리 서버와 스트리밍 서버가 별개로 존재하고 있다. 그러나, 이들 서버는 일체적으로 구성되어 있어도 된다.In addition, in the example of FIG. 25, a primary server and a streaming server exist separately. However, these servers may be configured integrally.

도 26은 텔레비전 수신기(300)에서 메타데이터에 기초하여 네트워크 서비스에 액세스하는 경우의 화면 표시의 천이예를 나타내고 있다. 도 26의 (a)는 표시 패널(311)에 화상이 표시되어 있지 않은 상태를 나타낸다. 도 26의 (b)는 방송 수신이 개시되어, 이 방송 수신에 관한 메인 콘텐츠가 표시 패널(311)에 전체 화면 표시되어 있는 상태를 나타낸다.26 shows an example of transition of screen display when the television receiver 300 accesses a network service based on metadata. 26A shows a state in which no image is displayed on the display panel 311 . 26B shows a state in which broadcast reception is started and the main content related to the broadcast reception is displayed on the display panel 311 in full screen.

도 26의 (c)는 메타데이터에 의한 서비스에의 액세스가 있고, 텔레비전 수신기(300)와 서버 사이의 세션이 개시된 상태를 나타낸다. 이 경우, 방송 수신에 관한 메인 콘텐츠가 전체 화면 표시로부터 부분 화면 표시로 된다.Fig. 26(c) shows a state in which there is access to a service by metadata and a session between the television receiver 300 and the server is started. In this case, the main content related to broadcast reception is changed from full screen display to partial screen display.

도 26의 (d)는 서버로부터의 미디어 재생이 행하여져, 표시 패널(311)에 메인 콘텐츠의 표시와 병행하여, 네트워크 서비스 콘텐츠(1)가 표시된 상태를 나타낸다. 그리고, 도 26의 (e)는 서버로부터의 미디어 재생이 행하여져, 표시 패널(311)에 메인 콘텐츠의 표시와 병행하여, 네트워크 서비스 콘텐츠(1)의 표시와 함께, 네트워크 서비스 콘텐츠(2)가 메인 콘텐츠 표시 상에 중첩 표시된 상태를 나타낸다.Fig. 26(d) shows a state in which media playback from the server is performed, and the network service content 1 is displayed in parallel with the display of the main content on the display panel 311 . Then, in Fig. 26(e), media is played back from the server, and in parallel with the display of the main content on the display panel 311, the network service content 1 is displayed and the network service content 2 is displayed as the main content. Indicates a state of being superimposed on the content display.

도 26의 (f)는 네트워크로부터의 서비스 콘텐츠의 재생이 종료되어, 텔레비전 수신기(300)와 서버 사이의 세션이 종료된 상태를 나타낸다. 이 경우, 표시 패널(311)에 방송 수신에 관한 메인 콘텐츠가 전체 화면 표시되는 상태로 되돌아간다.Fig. 26(f) shows a state in which reproduction of service content from the network is terminated and the session between the television receiver 300 and the server is terminated. In this case, the display panel 311 returns to a state in which the main content related to broadcast reception is displayed in full screen.

또한, 도 22에 도시하는 텔레비전 수신기(300)는 스피커(314)를 구비하고, 도 27에 도시한 바와 같이, 오디오 디코더(312)에서 얻어진 음성 데이터가 음성 처리 회로(313) 및 음성 증폭 회로(314)를 통하여 스피커(315)에 공급되어, 이 스피커(315)로부터 음성이 출력되는 구성으로 되어 있다.In addition, the television receiver 300 shown in Fig. 22 includes a speaker 314, and as shown in Fig. 27, the audio data obtained by the audio decoder 312 is transferred to the audio processing circuit 313 and the audio amplifier circuit ( It is supplied to the speaker 315 through 314, and it has a structure in which an audio|voice is output from this speaker 315.

그러나, 도 28에 도시한 바와 같이, 텔레비전 수신기(300)는 스피커를 구비하지 않고, 디멀티플렉서(307) 혹은 HDMI 수신부(317)에서 얻어지는 오디오 스트림을 인터페이스부(331)로부터 외부 스피커 시스템(350)에 공급하는 구성도 생각되어진다. 인터페이스부(331)는 예를 들어 HDMI(High-Definition Multimedia Interface), SPDIF(Sony Philips Digital Interface), MHL(Mobile High-definition Link) 등의 디지털 인터페이스이다.However, as shown in FIG. 28, the television receiver 300 does not have a speaker, and the audio stream obtained from the demultiplexer 307 or the HDMI receiver 317 is transmitted from the interface unit 331 to the external speaker system 350. A configuration to supply is also considered. The interface unit 331 is, for example, a digital interface such as a High-Definition Multimedia Interface (HDMI), a Sony Philips Digital Interface (SPDIF), or a Mobile High-definition Link (MHL).

이 경우, 오디오 스트림은 외부 스피커 시스템(350)이 갖는 오디오 디코더(351a)에서 복호화 처리가 행하여져, 이 외부 스피커 시스템(350)으로부터 음성이 출력된다. 또한, 텔레비전 수신기(300)가 스피커(315)를 구비하는 경우(도 27 참조)에도 오디오 스트림을 인터페이스부(331)로부터 외부 스피커 시스템(350)에 공급하는 구성(도 28 참조)도 더 생각할 수 있다.In this case, the audio stream is decoded by the audio decoder 351a included in the external speaker system 350, and audio is output from the external speaker system 350. In addition, even when the television receiver 300 includes the speaker 315 (refer to FIG. 27), a configuration for supplying an audio stream from the interface unit 331 to the external speaker system 350 (refer to FIG. 28) is also conceivable. there is.

상술한 바와 같이, 도 1에 도시하는 화상 표시 시스템(10)에 있어서, 방송 송출 장치(100)는 오디오 스트림에 메타데이터를 삽입함과 함께, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보를 컨테이너의 레이어에 삽입한다. 그로 인해, 수신측(셋톱 박스(200), 텔레비전 수신기(300))에서는 오디오 스트림에 메타데이터가 삽입되어 있는 것을 용이하게 인식할 수 있다.As described above, in the image display system 10 shown in Fig. 1, the broadcast transmission device 100 inserts metadata into the audio stream and identification information indicating that metadata is inserted into the audio stream. is inserted into the container's layer. Therefore, the receiving side (set-top box 200, television receiver 300) can easily recognize that metadata is inserted into the audio stream.

또한, 도 1에 도시하는 화상 표시 시스템(10)에 있어서, 셋톱 박스(200)는 메타데이터가 삽입된 오디오 스트림을 이 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께, 텔레비전 수신기(300)에 HDMI로 송신한다. 그로 인해, 텔레비전 수신기(300)에서는 오디오 스트림에 메타데이터가 삽입되어 있는 것을 용이하게 인식할 수 있고, 이 인식에 기초하여 오디오 스트림에 삽입되어 있는 메타데이터의 추출 처리를 행함으로써, 낭비없이 확실하게 메타데이터를 취득하여 이용할 수 있다.In addition, in the image display system 10 shown in Fig. 1, the set-top box 200 transmits an audio stream in which metadata is inserted, together with identification information indicating that metadata is inserted in the audio stream, and a television receiver ( 300) via HDMI. Therefore, the television receiver 300 can easily recognize that metadata is embedded in the audio stream, and based on this recognition, extracting the metadata embedded in the audio stream is performed without waste and reliably. Metadata can be obtained and used.

또한, 도 1에 도시하는 화상 표시 시스템(10)에 있어서, 텔레비전 수신기(300)는, 오디오 스트림과 함께 수신되는 식별 정보에 기초하여 이 오디오 스트림으로부터 메타데이터를 추출하여 처리에 사용한다. 그로 인해, 오디오 스트림에 삽입되어 있는 메타데이터를 낭비없이 확실하게 취득할 수 있어, 메타데이터를 사용한 처리를 적절하게 실행할 수 있다.Further, in the image display system 10 shown in Fig. 1, the television receiver 300 extracts metadata from the audio stream based on identification information received together with the audio stream and uses it for processing. Therefore, the metadata inserted into the audio stream can be reliably acquired without waste, and processing using the metadata can be appropriately executed.

<2. 변형예><2. Variant example>

또한, 상술 실시 형태에 있어서, 셋톱 박스(200)는 방송 송출 장치(100)로부터의 방송 신호로부터 화상 데이터 및 오디오 스트림을 수신하는 구성으로 되어 있다. 그러나, 셋톱 박스(200)는 배신 서버(스트리밍 서버)로부터 네트워크를 통하여 화상 데이터 및 오디오 스트림을 수신하는 구성도 생각할 수 있다.In addition, in the above-described embodiment, the set-top box 200 is configured to receive image data and an audio stream from a broadcast signal from the broadcast transmission device 100 . However, a configuration in which the set-top box 200 receives image data and an audio stream from a distribution server (streaming server) through a network is also conceivable.

또한, 상술 실시 형태에 있어서, 셋톱 박스(200)는 텔레비전 수신기(300)에 화상 데이터, 오디오 스트림을 송신하는 구성으로 되어 있다. 그러나, 텔레비전 수신기(300) 대신에 모니터 장치, 혹은 프로젝터 등에 송신하는 구성도 생각할 수 있다. 또한, 셋톱 박스(200) 대신에 수신 기능을 갖춘 레코더, 퍼스널 컴퓨터 등인 구성도 생각할 수 있다.In addition, in the above-described embodiment, the set-top box 200 is configured to transmit image data and an audio stream to the television receiver 300 . However, a configuration for transmitting to a monitor device, a projector, or the like instead of the television receiver 300 is also conceivable. Also, a configuration in which the set-top box 200 is replaced by a recorder with a reception function, a personal computer, or the like is also conceivable.

또한, 상술한 실시 형태에 있어서, 셋톱 박스(200)와 텔레비전 수신기(300)는 HDMI 케이블(400)로 접속되어 이루어지는 것이다. 그러나, 이들 사이가 HDMI와 마찬가지의 디지털 인터페이스로 유선 접속되는 경우, 나아가 무선에 의해 접속되는 경우에도 본 발명을 마찬가지로 적용할 수 있음은 물론이다.In addition, in the above-described embodiment, the set-top box 200 and the television receiver 300 are connected by an HDMI cable 400 . However, it goes without saying that the present invention can be applied similarly to a case where they are connected by wire through a digital interface similar to HDMI, or even when they are connected by wireless.

또한, 상술 실시 형태에 있어서, 화상 표시 시스템(10)은 방송 송출 장치(100), 셋톱 박스(200) 및 텔레비전 수신기(300)로 구성되어 있는 것을 나타냈다. 그러나, 도 29에 도시한 바와 같이, 방송 송출 장치(100) 및 텔레비전 수신기(300)로 구성되는 화상 표시 시스템(10A)도 생각할 수 있다.In addition, in the above-mentioned embodiment, it showed that the image display system 10 was comprised with the broadcast transmission apparatus 100, the set-top box 200, and the television receiver 300. As shown in FIG. However, as shown in FIG. 29, the image display system 10A comprised by the broadcast transmission apparatus 100 and the television receiver 300 is also conceivable.

또한, 상술 실시 형태에 있어서는, 컨테이너가 트랜스포트 스트림(MPEG-2 TS)인 예를 나타냈다. 그러나, 본 기술은 MP4나 그 이외의 포맷의 컨테이너에서 배신되는 시스템에도 마찬가지로 적용할 수 있다. 예를 들어, MPEG-DASH 베이스의 스트림 배신 시스템, 혹은 MMT(MPEG Media Transport) 구조 전송 스트림을 취급하는 송수신 시스템 등이다.In addition, in the above-mentioned embodiment, the example in which a container is a transport stream (MPEG-2 TS) was shown. However, the present technology can be similarly applied to a system distributed in MP4 or other format containers. For example, it is an MPEG-DASH-based stream distribution system or a transmission/reception system that handles an MMT (MPEG Media Transport) structured transport stream.

또한, 본 기술은, 이하와 같은 구성도 취할 수 있다.In addition, the present technology can also take the following structures.

(1) 메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너를 송신하는 송신부와,(1) a transmitter for transmitting a container of a predetermined format having an audio stream into which metadata is embedded;

상기 컨테이너의 레이어에, 상기 오디오 스트림에 상기 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보를 삽입하는 정보 삽입부를 구비하는 송신 장치.and an information insertion unit for inserting, in the container layer, identification information indicating that the metadata is inserted into the audio stream.

(2) 상기 메타데이터는 네트워크 액세스 정보를 포함하는 상기 (1)에 기재된 송신 장치.(2) The transmitting device according to (1) above, wherein the metadata includes network access information.

(3) 상기 네트워크 액세스 정보는, 상기 컨테이너가 갖는 비디오 스트림에 포함되는 화상 데이터에 관계한 미디어 정보를 네트워크 상의 서버로부터 취득하기 위한 네트워크 액세스 정보인 상기 (2)에 기재된 송신 장치.(3) The transmission device according to (2), wherein the network access information is network access information for acquiring media information related to image data included in a video stream included in the container from a server on a network.

(4) 상기 메타데이터는 미디어 정보의 재생 제어 정보를 포함하는 상기 (1)에 기재된 송신 장치.(4) The transmitting apparatus according to (1) above, wherein the metadata includes reproduction control information of media information.

(5) 상기 미디어 정보는 상기 컨테이너가 갖는 비디오 스트림에 포함되는 화상 데이터에 관계한 미디어 정보인 상기 (4)에 기재된 송신 장치.(5) The transmission device according to (4), wherein the media information is media information related to image data included in a video stream included in the container.

(6) 상기 식별 정보에는 상기 오디오 스트림에 있어서의 음성 데이터의 부호화 방식의 정보가 부가되어 있는 상기 (1) 내지 (5) 중 어느 하나에 기재된 송신 장치.(6) The transmitting device according to any one of (1) to (5), wherein information on a coding method of audio data in the audio stream is added to the identification information.

(7) 상기 식별 정보에는 상기 메타데이터의 타입을 나타내는 타입 정보가 부가되어 있는 상기 (1) 내지 (6) 중 어느 하나에 기재된 송신 장치.(7) The transmission apparatus according to any one of (1) to (6), wherein type information indicating a type of the metadata is added to the identification information.

(8) 상기 식별 정보에는 상기 메타데이터가 상기 오디오 스트림에만 삽입되어 있는지 여부를 나타내는 플래그 정보가 부가되어 있는 상기 (1) 내지 (7) 중 어느 하나에 기재된 송신 장치.(8) The transmitting apparatus according to any one of (1) to (7), wherein flag information indicating whether or not the metadata is inserted only in the audio stream is added to the identification information.

(9) 상기 식별 정보에는 상기 오디오 스트림에 대한 상기 메타데이터의 삽입 빈도의 타입을 나타내는 타입 정보가 부가되어 있는 상기 (1) 내지 (8) 중 어느 하나에 기재된 송신 장치.(9) The transmission device according to any one of (1) to (8), wherein type information indicating a type of the insertion frequency of the metadata for the audio stream is added to the identification information.

(10) 송신부에 의해, 메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너를 송신하는 송신 스텝과, (10) a transmitting step of transmitting, by the transmitting unit, a container of a predetermined format having an audio stream embedded with metadata;

상기 컨테이너의 레이어에, 상기 오디오 스트림에 상기 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보를 삽입하는 정보 삽입 스텝을 갖는 송신 방법.and an information insertion step of inserting, in the container layer, identification information indicating that the metadata is inserted into the audio stream.

(11) 메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,(11) a receiving unit for receiving a container of a predetermined format having an audio stream embedded with metadata;

상기 컨테이너의 레이어에는, 해당 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보가 삽입되어 있고,Identification information indicating that metadata is inserted in the corresponding audio stream is inserted in the layer of the container;

상기 오디오 스트림을 상기 오디오 스트림에 상기 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께, 소정의 전송로를 통하여 외부 기기에 송신하는 송신부를 더 구비하는 수신 장치.and a transmitter for transmitting the audio stream to an external device through a predetermined transmission path together with identification information indicating that the metadata is inserted into the audio stream.

(12) 상기 송신부는, (12) the transmitter,

상기 컨테이너가 갖는 비디오 스트림을 디코딩하여 얻어지는 화상 데이터의 블랭킹 기간에 상기 오디오 스트림 및 상기 식별 정보를 삽입하고, 해당 화상 데이터를 상기 외부 기기에 송신함으로써, 상기 오디오 스트림 및 상기 식별 정보를 상기 외부 기기에 송신하는 상기 (11)에 기재된 수신 장치.The audio stream and the identification information are inserted in a blanking period of image data obtained by decoding the video stream of the container, and the image data is transmitted to the external device, thereby transmitting the audio stream and the identification information to the external device. The reception device according to (11) above for transmitting.

(13) 상기 소정의 전송로는 HDMI 케이블인 상기 (11) 또는 (12)에 기재된 수신 장치.(13) The reception device according to (11) or (12) above, wherein the predetermined transmission path is an HDMI cable.

(14) 수신부에 의해, 메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신 스텝을 갖고,(14) a receiving step of receiving, by the receiving unit, a container of a predetermined format having an audio stream embedded with metadata;

상기 컨테이너의 레이어에는, 해당 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보가 삽입되어 있고,Identification information indicating that metadata is inserted in the corresponding audio stream is inserted in the layer of the container;

상기 오디오 스트림을 상기 오디오 스트림에 상기 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께, 소정의 전송로를 통하여 외부 기기에 송신하는 송신 스텝을 더 갖는 수신 방법.and a transmission step of transmitting the audio stream to an external device through a predetermined transmission path together with identification information indicating that the metadata is embedded in the audio stream.

(15) 외부 기기로부터 소정의 전송로를 통하여 오디오 스트림을 해당 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께 수신하는 수신부와,(15) a receiver for receiving an audio stream from an external device through a predetermined transmission path together with identification information indicating that metadata is inserted into the audio stream;

상기 식별 정보에 기초하여, 상기 오디오 스트림을 디코딩하여 상기 메타데이터를 추출하는 메타데이터 추출부와,a metadata extractor for decoding the audio stream and extracting the metadata based on the identification information;

상기 메타데이터를 사용한 처리를 행하는 처리부를 구비하는 수신 장치.and a processing unit that performs processing using the metadata.

(16) 상기 오디오 스트림을 외부 스피커 시스템에 송신하는 인터페이스부를 더 구비하는 상기 (15)에 기재된 수신 장치.(16) The reception device according to (15), further comprising an interface unit for transmitting the audio stream to an external speaker system.

(17) 상기 소정의 전송로는 HDMI 케이블인 상기 (15) 또는 (16)에 기재된 수신 장치.(17) The reception device according to (15) or (16) above, wherein the predetermined transmission path is an HDMI cable.

(18) 상기 메타데이터는 네트워크 액세스 정보를 포함하고, (18) the metadata includes network access information;

상기 처리부는, 상기 네트워크 액세스 정보에 기초하여, 네트워크 상의 소정의 서버에 액세스하여 소정의 미디어 정보를 취득하는 상기 (15) 내지 (17) 중 어느 하나에 기재된 수신 장치.The reception device according to any one of (15) to (17), wherein the processing unit accesses a predetermined server on a network to acquire predetermined media information based on the network access information.

(19) 수신부에 의해, 외부 기기로부터 소정의 전송로를 통하여 오디오 스트림을 해당 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보와 함께 수신하는 수신 스텝과,(19) a receiving step of receiving, by a receiving unit, an audio stream from an external device through a predetermined transmission path together with identification information indicating that metadata is inserted in the audio stream;

상기 식별 정보에 기초하여, 상기 오디오 스트림을 디코딩하여 상기 메타데이터를 추출하는 메타데이터 추출 스텝과,a metadata extraction step of decoding the audio stream to extract the metadata based on the identification information;

상기 메타데이터를 사용한 처리를 행하는 처리 스텝을 갖는 수신 방법.and a processing step of performing processing using the metadata.

(20) 메타데이터가 삽입된 오디오 스트림을 갖는 소정 포맷의 컨테이너를 수신하는 수신부를 구비하고,(20) a receiving unit for receiving a container of a predetermined format having an audio stream into which metadata is inserted;

상기 컨테이너의 레이어에는, 상기 오디오 스트림에 상기 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보가 삽입되어 있고,Identification information indicating that the metadata is inserted into the audio stream is inserted in the layer of the container;

상기 식별 정보에 기초하여, 상기 오디오 스트림을 디코딩하여 상기 메타데이터를 추출하는 메타데이터 추출부와,a metadata extractor for decoding the audio stream and extracting the metadata based on the identification information;

상기 메타데이터를 사용한 처리를 행하는 처리부를 구비하는 수신 장치.and a processing unit that performs processing using the metadata.

본 기술의 주된 특징은 오디오 스트림에 메타데이터를 삽입함과 함께, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 나타내는 식별 정보를 컨테이너의 레이어에 삽입함으로써, 수신측에 있어서, 오디오 스트림에 메타데이터가 삽입되어 있는 것을 용이하게 인식 가능하게 한 것이다(도 19 참조).The main feature of the present technology is that metadata is inserted into the audio stream on the receiving side by inserting metadata into the audio stream and identification information indicating that metadata is inserted into the audio stream into the layer of the container. This makes it easy to recognize what has been done (refer to Fig. 19).

10, 10A: 화상 표시 시스템
14: 유효 화소 구간
15: 수평 귀선 기간
16: 수직 귀선 기간
17: 비디오 데이터 구간
18: 데이터 아일랜드 구간
19: 컨트롤 구간
81: HDMI 트랜스미터
82: HDMI 리시버
83: DDC
84: CEC 라인
85: EDID ROM
100: 방송 송출 장치
110: 스트림 생성부
111: 제어부
111a: CPU
112: 비디오 인코더
113: 오디오 인코더
113a: 오디오 부호화 블록부
113b: 오디오 프레이밍부
114: 멀티플렉서
200: 셋톱 박스(STB)
203: 안테나 단자
204: 디지털 튜너
205: 디멀티플렉서
206: 비디오 디코더
207: 오디오 프레이밍부
208: HDMI 송신부
209: HDMI 단자
211: CPU
212: 플래시 ROM
213: DRAM
214: 내부 버스
215: 리모콘 수신부
216: 리모콘 송신기
300: 텔레비전 수신기
305: 안테나 단자
306: 디지털 튜너
307: 디멀티플렉서
308: 비디오 디코더
309: 영상 처리 회로
310: 패널 구동 회로
311: 표시 패널
312: 오디오 디코더
313: 음성 처리 회로
314: 음성 증폭 회로
315: 스피커
316: HDMI 단자
317: HDMI 수신부
318: 통신 인터페이스
321: CPU
322: 플래시 ROM
323: DRAM
324: 내부 버스
325: 리모콘 수신부
326: 리모콘 송신기
350: 외부 스피커 시스템
400: HDMI 케이블
10, 10A: image display system
14: effective pixel interval
15: Horizontal retrace period
16: vertical retrace period
17: video data section
18: Data Island Section
19: control section
81: HDMI transmitter
82: HDMI receiver
83: DDC
84: CEC line
85: EDID ROM
100: broadcast transmission device
110: stream generator
111: control unit
111a: CPU
112: video encoder
113: audio encoder
113a: audio coding block unit
113b: audio framing unit
114: multiplexer
200: set-top box (STB)
203: antenna terminal
204: digital tuner
205: demultiplexer
206: video decoder
207: audio framing unit
208: HDMI transmitter
209: HDMI terminal
211: CPU
212: Flash ROM
213: DRAM
214: internal bus
215: remote control receiver
216: remote control transmitter
300: television receiver
305: antenna terminal
306: digital tuner
307: demultiplexer
308: video decoder
309: image processing circuit
310: panel driving circuit
311: display panel
312: audio decoder
313: speech processing circuit
314: voice amplification circuit
315: speaker
316: HDMI terminal
317: HDMI receiver
318: communication interface
321: CPU
322: Flash ROM
323: DRAM
324: internal bus
325: remote control receiver
326: remote control transmitter
350: external speaker system
400: HDMI cable

Claims (20)

수신 장치로서,
회로를 포함하고,
상기 회로는,
방송을 통해, 소정 포맷의 컨테이너를 수신하고 - 상기 컨테이너는 메타데이터가 삽입된 오디오 스트림을 포함하고, 상기 메타데이터는 제1 서버에 액세스하기 위한 네트워크 액세스 정보를 포함함 -;
상기 네트워크 액세스 정보에 기초하여 상기 제1 서버로부터 정보를 취득하고 - 상기 정보는 제2 서버의 URL, 대상 파일의 명칭, 상기 대상 파일의 타입 및 시간 정보를 포함함 -;
상기 제2 서버의 URL 및 상기 대상 파일의 명칭에 기초하여 상기 제2 서버로부터 상기 대상 파일을 취득하고;
상기 취득된 대상 파일 및 상기 시간 정보에 기초하여 콘텐츠의 표시를 제어하도록
구성되는, 수신 장치.
A receiving device, comprising:
comprising a circuit,
The circuit is
receiving a container in a predetermined format through broadcasting, wherein the container includes an audio stream in which metadata is embedded, and the metadata includes network access information for accessing a first server;
acquire information from the first server based on the network access information, wherein the information includes a URL of a second server, a name of a target file, a type and time information of the target file;
obtaining the target file from the second server based on the URL of the second server and the name of the target file;
to control the display of content based on the acquired target file and the time information
configured, a receiving device.
제1항에 있어서,
상기 컨테이너는 상기 오디오 스트림으로의 상기 메타데이터의 삽입을 나타내는 식별 정보를 추가로 포함하는, 수신 장치.
According to claim 1,
and the container further comprises identification information indicating insertion of the metadata into the audio stream.
제2항에 있어서,
상기 식별 정보는 상기 메타데이터의 빈도를 추가로 나타내는, 수신 장치.
3. The method of claim 2,
and the identification information further indicates a frequency of the metadata.
제1항에 있어서,
상기 회로는 메인 콘텐츠의 표시를 제어하도록 추가로 구성되고,
상기 콘텐츠와 상기 메인 콘텐츠는 화면 상에 동시에 표시가능하고,
상기 컨테이너는 상기 메인 콘텐츠를 추가로 포함하는, 수신 장치.
According to claim 1,
the circuitry is further configured to control the display of the main content,
The content and the main content can be displayed simultaneously on the screen,
The container further comprises the main content, the receiving device.
제4항에 있어서,
상기 회로는 상기 메인 콘텐츠 상에 상기 콘텐츠를 중첩하게 상기 콘텐츠의 표시를 제어하도록 추가로 구성되는, 수신 장치.
5. The method of claim 4,
and the circuitry is further configured to control the display of the content to superimpose the content on the main content.
제4항에 있어서,
상기 회로는 부분 화면 표시 형태로 상기 메인 콘텐츠의 표시를 제어하도록 추가로 구성되는, 수신 장치.
5. The method of claim 4,
and the circuitry is further configured to control display of the main content in a partial screen display form.
제6항에 있어서,
상기 회로는, 상기 콘텐츠의 재생에 기초하여, 전체 화면 형태로 상기 메인 콘텐츠의 표시를 제어하도록 추가로 구성되는, 수신 장치.
7. The method of claim 6,
The receiving device, wherein the circuit is further configured to control display of the main content in a full screen form based on the reproduction of the content.
제1항에 있어서,
상기 제1 서버와 상기 제2 서버는 일체적으로 구성되는, 수신 장치.
According to claim 1,
The first server and the second server are integrally configured.
수신 방법으로서,
회로에 의해, 방송을 통해, 소정 포맷의 컨테이너를 수신하는 단계 - 상기 컨테이너는 메타데이터가 삽입된 오디오 스트림을 포함하고, 상기 메타데이터는 제1 서버에 액세스하기 위한 네트워크 액세스 정보를 포함함 -;
상기 회로에 의해, 상기 네트워크 액세스 정보에 기초하여 상기 제1 서버로부터 정보를 취득하는 단계 - 상기 정보는 제2 서버의 URL, 대상 파일의 명칭, 상기 대상 파일의 타입 및 시간 정보를 포함함 -;
상기 회로에 의해, 상기 제2 서버의 URL 및 상기 대상 파일의 명칭에 기초하여 상기 제2 서버로부터 상기 대상 파일을 취득하는 단계; 및
상기 회로에 의해, 상기 취득된 대상 파일 및 상기 시간 정보에 기초하여 콘텐츠의 표시를 제어하는 단계
를 포함하는, 수신 방법.
A receiving method comprising:
receiving, by means of a circuit, a container in a predetermined format, the container including an audio stream embedded with metadata, the metadata including network access information for accessing a first server;
obtaining, by the circuitry, information from the first server based on the network access information, the information including a URL of a second server, a name of a target file, a type and time information of the target file;
obtaining, by the circuit, the target file from the second server based on the URL of the second server and the name of the target file; and
controlling, by the circuit, display of content based on the acquired target file and the time information;
A receiving method comprising:
제9항에 있어서,
상기 컨테이너는 상기 오디오 스트림으로의 상기 메타데이터의 삽입을 나타내는 식별 정보를 추가로 포함하는, 수신 방법.
10. The method of claim 9,
and the container further comprises identification information indicating insertion of the metadata into the audio stream.
제10항에 있어서,
상기 식별 정보는 상기 메타데이터의 빈도를 추가로 나타내는, 수신 방법.
11. The method of claim 10,
and the identification information further indicates a frequency of the metadata.
제9항에 있어서,
메인 콘텐츠의 표시를 제어하는 단계를 추가로 포함하고,
상기 콘텐츠와 상기 메인 콘텐츠는 화면 상에 동시에 표시가능하고,
상기 컨테이너는 상기 메인 콘텐츠를 추가로 포함하는, 수신 방법.
10. The method of claim 9,
further comprising controlling the display of the main content;
The content and the main content can be displayed simultaneously on the screen,
The container further includes the main content.
제12항에 있어서,
상기 메인 콘텐츠 상에 상기 콘텐츠를 중첩하도록 상기 콘텐츠의 표시를 제어하는 단계를 추가로 포함하는, 수신 방법.
13. The method of claim 12,
and controlling display of the content to superimpose the content on the main content.
제12항에 있어서,
부분 화면 표시 형태로 상기 메인 콘텐츠의 표시를 제어하는 단계를 추가로 포함하는, 수신 방법.
13. The method of claim 12,
The receiving method further comprising the step of controlling the display of the main content in a partial screen display form.
제14항에 있어서,
상기 콘텐츠의 재생에 기초하여, 전체 화면 표시 형태로 상기 메인 콘텐츠의 표시를 제어하는 단계를 추가로 포함하는, 수신 방법.
15. The method of claim 14,
Based on the reproduction of the content, the receiving method further comprising the step of controlling the display of the main content in a full-screen display form.
제9항에 있어서,
상기 제1 서버와 상기 제2 서버는 일체적으로 구성되는, 수신 방법.
10. The method of claim 9,
The first server and the second server are integrally configured.
프로세서에 의해 실행될 때, 상기 프로세서로 하여금 동작들을 실행하게 하는 컴퓨터 실행가능 명령어들이 저장되어 있는 비일시적 컴퓨터 판독가능 매체로서,
상기 동작들은,
방송을 통해, 소정 포맷의 컨테이너를 수신하는 것 - 상기 컨테이너는 메타데이터가 삽입된 오디오 스트림을 포함하고, 상기 메타데이터는 제1 서버에 액세스하기 위한 네트워크 액세스 정보를 포함함 -;
상기 네트워크 액세스 정보에 기초하여 상기 제1 서버로부터 정보를 취득하는 것 - 상기 정보는 제2 서버의 URL, 대상 파일의 명칭, 상기 대상 파일의 타입 및 시간 정보를 포함함 -;
상기 제2 서버의 URL 및 상기 대상 파일의 명칭에 기초하여 상기 제2 서버로부터 상기 대상 파일을 취득하는 것; 및
상기 취득된 대상 파일 및 상기 시간 정보에 기초하여 콘텐츠의 표시를 제어하는 것
을 포함하는, 비일시적 컴퓨터 판독가능 매체.
A non-transitory computer-readable medium having stored thereon computer-executable instructions that, when executed by a processor, cause the processor to perform operations, comprising:
The actions are
Receiving a container in a predetermined format through broadcasting, wherein the container includes an audio stream in which metadata is embedded, and the metadata includes network access information for accessing a first server;
obtaining information from the first server based on the network access information, the information including a URL of a second server, a name of a target file, a type and time information of the target file;
obtaining the target file from the second server based on the URL of the second server and the name of the target file; and
Controlling the display of content based on the acquired target file and the time information
A non-transitory computer-readable medium comprising:
삭제delete 삭제delete 삭제delete
KR1020167006121A 2014-07-18 2015-07-09 Transmission device, transmission method, reception device, and reception method KR102396133B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014147308 2014-07-18
JPJP-P-2014-147308 2014-07-18
PCT/JP2015/069781 WO2016009944A1 (en) 2014-07-18 2015-07-09 Transmission device, transmission method, reception device, and reception method

Publications (2)

Publication Number Publication Date
KR20170032212A KR20170032212A (en) 2017-03-22
KR102396133B1 true KR102396133B1 (en) 2022-05-10

Family

ID=55078438

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167006121A KR102396133B1 (en) 2014-07-18 2015-07-09 Transmission device, transmission method, reception device, and reception method

Country Status (9)

Country Link
US (2) US10313720B2 (en)
EP (1) EP3171605B1 (en)
JP (1) JP6607183B2 (en)
KR (1) KR102396133B1 (en)
CN (1) CN105532009B (en)
CA (1) CA2923532C (en)
MX (1) MX367005B (en)
RU (1) RU2687065C2 (en)
WO (1) WO2016009944A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102464061B1 (en) 2015-02-13 2022-11-08 삼성전자주식회사 Method and device for sending and receiving media data
US11223857B2 (en) 2015-06-02 2022-01-11 Sony Corporation Transmission device, transmission method, media processing device, media processing method, and reception device
US10397663B2 (en) * 2016-04-08 2019-08-27 Source Digital, Inc. Synchronizing ancillary data to content including audio
US10594758B2 (en) * 2017-12-15 2020-03-17 Cisco Technology, Inc. Latency reduction by sending audio and metadata ahead of time
GB2577045A (en) * 2018-09-11 2020-03-18 Nokia Technologies Oy Determination of spatial audio parameter encoding
WO2023106432A1 (en) * 2021-12-06 2023-06-15 엘지전자 주식회사 Tv and method for controlling same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011223353A (en) * 2010-04-09 2011-11-04 Toshiba Corp Digital-broadcast-data transmitting method
US20110292173A1 (en) * 2010-05-26 2011-12-01 Sony Corporation Transmission apparatus, transmission method, reception apparatus, reception method, and transmission/reception system

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6829368B2 (en) 2000-01-26 2004-12-07 Digimarc Corporation Establishing and interacting with on-line media collections using identifiers in media signals
US5835493A (en) * 1996-01-02 1998-11-10 Divicom, Inc. MPEG transport stream remultiplexer
CN1150752C (en) * 1997-06-06 2004-05-19 汤姆森消费电子有限公司 System and method for changing program guide format
EP0917355A1 (en) 1997-11-14 1999-05-19 Sony International (Europe) GmbH Distribution of MPEG-2 transport streams on the IEEE 1394-based home network
US6925577B1 (en) 1997-11-14 2005-08-02 Sony International (Europe) Gmbh Method for recording/storing multiple transport streams by dividing into series of packets
JP3823929B2 (en) * 2002-05-17 2006-09-20 ソニー株式会社 Information processing apparatus, information processing method, content distribution apparatus, content distribution method, and computer program
KR100565080B1 (en) * 2004-09-13 2006-03-30 삼성전자주식회사 Information storage medium recording AV data including meta data with representative title information, reproducing apparatus thereof and searching method of meta data
CN101563921B (en) 2006-11-07 2011-09-07 索尼株式会社 Communication system, transmitting device, receiving device and communication method
EP2063643B1 (en) 2006-11-07 2015-07-29 Sony Corporation Video receiver device adapted to send control commands over a differential pair in an HDMI cable
TWI423640B (en) 2006-11-07 2014-01-11 Sony Corp Sending device, sending method, receiving device, receiving method, and communication cable
JP4479776B2 (en) * 2007-10-05 2010-06-09 ソニー株式会社 Display device and transmission device
JP5572929B2 (en) * 2008-03-05 2014-08-20 ソニー株式会社 Transmitter
US8743906B2 (en) * 2009-01-23 2014-06-03 Akamai Technologies, Inc. Scalable seamless digital video stream splicing
US8345681B2 (en) * 2009-09-23 2013-01-01 Samsung Electronics Co., Ltd. Method and system for wireless communication of audio in wireless networks
EP2628297B1 (en) * 2010-10-15 2017-07-12 Thomson Licensing Method for synchronizing multimedia flows and corresponding device
GB2486002A (en) * 2010-11-30 2012-06-06 Youview Tv Ltd Media Content Provision
TWI574565B (en) * 2011-03-31 2017-03-11 Sony Corp A transmitting apparatus, a receiving method, a receiving apparatus, a receiving method, a computer-readable medium, and a broadcasting system
AU2012279357B2 (en) * 2011-07-01 2016-01-14 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
US9219950B2 (en) * 2011-11-01 2015-12-22 Sony Corporation Reproduction apparatus, reproduction method, and program
KR20130048035A (en) * 2011-11-01 2013-05-09 엘지전자 주식회사 Media apparatus, contents server, and method for operating the same
KR101998892B1 (en) * 2012-03-01 2019-07-10 소니 주식회사 Transmitter, transmission method and receiver
BR112015017048B1 (en) * 2013-01-21 2022-12-13 Dolby International Ab ENCRYPTION DEVICE, METHOD FOR GENERATING AN ENCODED BIT STREAM, METHOD FOR DETERMINING A CONFIDENCE LEVEL OF A RECEIVED ENCRYPTED BIT STREAM, METHOD FOR TRANSCODING AN INPUT BIT STREAM
TWM487509U (en) * 2013-06-19 2014-10-01 杜比實驗室特許公司 Audio processing apparatus and electrical device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011223353A (en) * 2010-04-09 2011-11-04 Toshiba Corp Digital-broadcast-data transmitting method
US20110292173A1 (en) * 2010-05-26 2011-12-01 Sony Corporation Transmission apparatus, transmission method, reception apparatus, reception method, and transmission/reception system

Also Published As

Publication number Publication date
CA2923532A1 (en) 2016-01-21
KR20170032212A (en) 2017-03-22
EP3171605A4 (en) 2018-03-14
MX2016003223A (en) 2016-06-30
JPWO2016009944A1 (en) 2017-04-27
CN105532009B (en) 2021-03-12
RU2016108851A (en) 2017-09-14
WO2016009944A1 (en) 2016-01-21
RU2016108851A3 (en) 2018-11-01
RU2687065C2 (en) 2019-05-07
JP6607183B2 (en) 2019-11-20
US10848801B2 (en) 2020-11-24
MX367005B (en) 2019-08-02
EP3171605B1 (en) 2020-10-14
US10313720B2 (en) 2019-06-04
CA2923532C (en) 2023-06-27
US20170127093A1 (en) 2017-05-04
EP3171605A1 (en) 2017-05-24
CN105532009A (en) 2016-04-27
US20190253740A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
KR102396133B1 (en) Transmission device, transmission method, reception device, and reception method
JP7099510B2 (en) Receiver and receiving method
JP6809450B2 (en) Transmitter, transmitter, receiver and receiver
JP6891806B2 (en) Transmitter, transmitter, receiver and receiver
US10812838B2 (en) Transmission device, transmission method, reception device, and reception method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant