KR20170134367A - 송신 장치, 송신 방법, 수신 장치 및 수신 방법 - Google Patents

송신 장치, 송신 방법, 수신 장치 및 수신 방법 Download PDF

Info

Publication number
KR20170134367A
KR20170134367A KR1020177025326A KR20177025326A KR20170134367A KR 20170134367 A KR20170134367 A KR 20170134367A KR 1020177025326 A KR1020177025326 A KR 1020177025326A KR 20177025326 A KR20177025326 A KR 20177025326A KR 20170134367 A KR20170134367 A KR 20170134367A
Authority
KR
South Korea
Prior art keywords
information
audio
predetermined
stream
data
Prior art date
Application number
KR1020177025326A
Other languages
English (en)
Inventor
이쿠오 츠카고시
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20170134367A publication Critical patent/KR20170134367A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

소정의 정보를 소정수의 오디오 프레임으로 분할하여 송신할 때, 수신측에 있어서 당해 소정의 정보 취득 처리를 용이하고도 적절하게 행할 수 있도록 한다. 오디오 데이터에 인코드 처리를 실시하고, 오디오 압축 데이터를 포함하는 오디오 프레임이 연속된 오디오 압축 데이터 스트림을 생성한다. 소정의 정보를 오디오 압축 데이터 스트림에 삽입하여 송신한다. 소정의 정보를 오디오 압축 데이터 스트림의 소정수의 오디오 프레임으로 분할하여 삽입하고, 각 분할 정보에, 최초의 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보를 부가한다.

Description

송신 장치, 송신 방법, 수신 장치 및 수신 방법
본 기술은 송신 장치, 송신 방법, 수신 장치 및 수신 방법에 관한 것으로, 특히, 오디오 압축 데이터 스트림에 소정의 정보를 삽입하여 송신하는 송신 장치 등에 관한 것이다.
예를 들어, 특허문헌 1에는 방송국, 배신 서버 등으로부터 소정의 정보를 오디오 압축 데이터 스트림에 삽입하여 송신하고, 수신측의 셋톱 박스가 이 오디오 압축 데이터 스트림을 그대로 HDMI의 디지털 인터페이스를 통하여 텔레비전 수신기에 송신하고, 텔레비전 수신기가 당해 소정의 정보를 이용한 정보 처리를 행하는 것이 제안되어 있다.
일본 특허 공개 제2012-010311호 공보
본 기술의 목적은, 소정의 정보를 소정수의 오디오 프레임으로 분할하여 송신할 때, 수신측에 있어서 당해 소정의 정보 취득 처리를 용이하고도 적절하게 행할 수 있도록 하는 데 있다.
본 기술의 개념은,
오디오 데이터에 인코드 처리를 실시하고, 오디오 압축 데이터를 포함하는 오디오 프레임이 연속된 오디오 압축 데이터 스트림을 생성하는 스트림 생성부와,
상기 오디오 압축 데이터 스트림에 소정의 정보를 삽입하는 정보 삽입부와,
상기 소정의 정보가 삽입된 오디오 압축 데이터 스트림을 송신하는 스트림 송신부를 구비하고,
상기 정보 삽입부는,
상기 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에 상기 소정의 정보를 분할하여 삽입하고, 각 분할 정보에, 최초의 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보를 부가하는
송신 장치에 있다.
본 기술에 있어서, 스트림 생성부에 의해, 오디오 데이터에 인코드 처리가 실시되어, 오디오 압축 데이터를 포함하는 오디오 프레임이 연속된 오디오 압축 데이터 스트림이 생성된다. 정보 삽입부에 의해, 오디오 압축 데이터 스트림에 소정의 정보가 삽입된다. 예를 들어, 소정의 정보는, 네트워크 액세스 정보 또는 미디어 파일인 것처럼 되어도 된다.
여기서, 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에 소정의 정보가 분할 삽입될 때, 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보가 부가된다.
이렇게 본 기술에 있어서는, 소정의 정보가 분할 삽입되어, 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보가 부가된다. 그로 인해, 수신측에서는, 제1 정보로부터 최초의 분할 정보를 인식할 수 있고, 또한, 이 최초의 분할 정보에 대응한 제2 정보로부터 분할 수를 인식할 수 있고, 또한, 제2 정보로부터 나머지의 분할 정보의 수를 인식할 수 있고, 소정의 정보의 취득 처리를 용이하고도 적절하게 행하는 것이 가능하게 된다.
또한, 본 기술에 있어서, 예를 들어 정보 삽입부는, 오디오 압축 데이터 스트림에 소정의 정보를 삽입할 때, 이 소정의 정보에, 시간 동기를 관리하기 위한 UTC 베이스의 시각 정보를 부가하도록 되어도 된다. 이 경우, 예를 들어 시각 정보는, 절대 시각 또는 소정의 기준 시각으로부터의 차분값이도록 되어도 된다. 이렇게 UTC 베이스의 시각 정보이므로, 범용 시스템과의 친화성을 갖게 할 수 있다.
또한, 본 기술의 다른 개념은,
소정의 정보가 삽입된 오디오 압축 데이터 스트림을, 외부 기기로부터 디지털 인터페이스를 통하여 수신하는 스트림 수신부를 구비하고,
상기 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에, 상기 소정의 정보가 분할되어 얻어진 분할 정보 각각이, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보가 부가되어서 삽입되어 있고,
상기 오디오 압축 데이터 스트림에 디코드 처리를 실시하여 오디오 데이터를 얻음과 함께, 상기 제1 정보 및 상기 제2 정보에 기초하여 상기 소정수의 오디오 프레임으로부터 상기 소정의 정보를 구성하는 각 분할 정보를 얻는 디코드 처리부와,
상기 디코드 처리부에서 얻어진 상기 소정의 정보를 이용한 정보 처리를 행하는 정보 처리부를 더 구비하는
수신 장치에 있다.
본 기술에 있어서, 수신부에 의해, 소정의 정보가 삽입된 오디오 압축 데이터 스트림이, 외부 기기로부터, 예를 들어 HDMI(High-Definition Multimedia Interface) 등의 디지털 인터페이스를 통하여 수신된다. 이 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에, 소정의 정보가 분할되어 얻어진 분할 정보 각각이, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보가 부가되어서 삽입되어 있다.
디코드 처리부에 의해, 오디오 압축 데이터 스트림에 디코드 처리가 실시되어서 오디오 데이터가 얻어짐과 함께, 제1 정보 및 제2 정보에 기초하여 소정수의 오디오 프레임으로부터 소정의 정보를 구성하는 각 분할 정보가 얻어진다. 그리고, 정보 처리부에 의해, 디코드 처리부에서 얻어진 소정의 정보가 이용된 정보 처리가 행해진다.
예를 들어, 소정 정보는 네트워크 액세스 정보이고, 정보 처리부는 네트워크 액세스 정보를 이용하여 네트워크 상의 소정의 서버에 액세스하여 소정의 미디어 정보를 취득하도록 되어도 된다. 또한, 예를 들어 소정 정보는 미디어 파일이고, 정보 처리부는 미디어 파일의 재생 처리를 행하도록 되어도 된다.
이렇게 본 기술에 있어서는, 소정수의 오디오 프레임으로부터 소정의 정보를 구성하는 각 분할 정보를 얻는 처리가 제1 정보 및 제2 정보에 기초하여 행해진다. 이 경우, 제1 정보로부터 최초의 분할 정보를 인식할 수 있고, 또한, 이 최초의 분할 정보에 대응한 제2 정보로부터 분할 수를 인식할 수 있고, 또한, 제2 정보로부터 나머지의 분할 정보의 수를 인식할 수 있고, 소정의 정보 취득 처리를 용이하고도 적절하게 행하는 것이 가능하게 된다.
또한, 본 기술에 있어서, 예를 들어 소정의 정보에 시간 동기를 관리하기 위한 UTC 베이스의 시각 정보가 부가되어 있고, 정보 처리부는, 소정의 정보를 이용한 정보 처리의 시간 관리를, 이 소정의 정보에 부가되어 있는 시각 정보에 기초하여 행하도록 되어도 된다.
본 기술에 의하면, 소정의 정보를 소정수의 오디오 프레임으로 분할하여 송신할 때, 수신측에 있어서 당해 소정의 정보 취득 처리를 용이하고도 적절하게 행할 수 있다. 또한, 본 명세서에 기재된 효과는 어디까지나 예시이며 한정되는 것은 아니고, 또한 부가적인 효과가 있어도 된다.
도 1은, 실시 형태로서의 송수신 시스템의 구성예를 도시하는 블록도이다.
도 2는, 방송 송출 장치가 구비하는 스트림 생성부의 구성예를 도시하는 블록도이다.
도 3은, MPEG-H 3D Audio의 전송 데이터에 있어서의 오디오 프레임(1024 샘플)의 구조예를 도시하는 도면이다.
도 4는, 익스텐션 엘리먼트의 타입과 그 값의 대응 관계를 도시하는 도면이다.
도 5는, 유니버설·메타데이터를 익스텐션 엘리먼트로서 포함하는 유니버설·메타데이터·프레임의 구성예를 도시하는 도면이다.
도 6은, 유니버설·메타데이터·프레임 내의 「time_information()」이라는 필드의 구성예를 도시하는 도면이다.
도 7은, 유니버설·메타데이터·프레임 및 「time_information()」이라는 필드의 구성예에 있어서의 주요한 정보의 내용을 도시하는 도면이다.
도 8은, 컨테이너 대상 데이터가 복수의 유니버설·메타데이터·프레임으로 전송되는 경우의 예를 도시하는 도면이다.
도 9는, 컨테이너 대상 데이터가 하나의 유니버설·메타데이터·프레임으로 전송되는 경우의 예를 도시하는 도면이다.
도 10은, 복수의 컨테이너 대상 데이터가 복수의 유니버설·메타데이터·프레임으로 전송되는 경우의 예를 도시하는 도면이다.
도 11은, 복수의 컨테이너 대상 데이터의 실행이, 거기에 부가되어 있는 시각 정보에 기초하여 오디오 PTS와는 독립하여 관리되는 예를 도시하는 도면이다.
도 12는, 수신측에 있어서의 컨테이너 대상 데이터(소정의 정보)의 실행이 오디오 타임 스탬프 비의존으로 행할 수 있음을 도시하는 도면이다.
도 13은, 복수의 컨테이너 대상 데이터가, 거기에 부가되어 있는 시각 정보에 기초하여 동기 관리되는 구체예를 도시하는 도면이다.
도 14는, 셋톱 박스의 구성예를 도시하는 블록도이다.
도 15는, 오디오 앰프의 구성예를 도시하는 블록도이다.
도 16은, 텔레비전 수신기의 구성예를 도시하는 블록도이다.
도 17은, HDMI 송신부와 HDMI 수신부의 구성예를 도시하는 블록도이다.
도 18은, TMDS 채널로 화상 데이터가 전송되는 경우의 각종 전송 데이터의 구간을 도시하는 도면이다.
도 19는, 송수신 시스템의 다른 구성예를 도시하는 블록도이다.
이하, 발명을 실시하기 위한 형태(이하, 「실시 형태」로 함)에 대하여 설명한다. 또한, 설명을 이하의 순서로 행한다.
1. 실시 형태
2. 변형예
<1. 실시 형태>
[송수신 시스템의 구성예]
도 1은, 실시 형태로서의 송수신 시스템(10)의 구성예를 나타내고 있다. 이 송수신 시스템(10)은 방송 송출 장치(100)와, 셋톱 박스(STB)(200)와, 오디오 앰프(AMP)(300)와, 텔레비전 수신기(TV)(500)를 갖고 있다. 오디오 앰프(300)에는, 멀티 채널용의 스피커 시스템(400)이 접속되어 있다.
셋톱 박스(200)와 오디오 앰프(300)는 HDMI 케이블(610)을 통하여 접속되어 있다. 이 경우, 셋톱 박스(200)가 소스이고, 오디오 앰프(300)는 데스티네이션이다. 또한, 오디오 앰프(300)와 텔레비전 수신기(500)는, HDMI 케이블(620)을 통하여 접속되어 있다. 이 경우, 오디오 앰프(300)가 소스이고, 텔레비전 수신기(500)는 데스티네이션이다. 또한, 「HDMI」는 등록 상표이다.
방송 송출 장치(100)는 트랜스포트 스트림 TS를, 방송파에 실어서 송신한다. 이 트랜스포트 스트림 TS에는, 비디오 스트림 및 오디오 스트림(오디오 압축 데이터 스트림)이 포함된다. 방송 송출 장치(100)는 오디오 스트림에, 네트워크 액세스 정보, 미디어 파일 등의 소정의 정보를 컨테이너 대상 데이터로서 삽입한다.
예를 들어, 네트워크 액세스 정보에는, 링크 서버에 접속하기 위한 URL의 정보, "Activate" 또는 "Inactivate" 등의 링크 서버에 대한 제어를 행하는 컨트롤 코드군 등이 포함된다. 예를 들어, 미디어 파일에는, 캐릭터 데이터 등의 일반의 데이터 파일, 오디오 데이터 파일, 오디오·비주얼 데이터 파일 등이 포함된다.
방송 송출 장치(100)는, 오디오 스트림의 소정수의 오디오 프레임에 소정의 정보를 분할하여 삽입한다. 이때, 방송 송출 장치(100)는 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보를 부가한다. 또한, 소정수는 1을 포함하는 것으로 한다. 소정수가 1일 때, 소정의 정보는 실제로는 분할되지 않고, 그 전체가 하나의 오디오 프레임에 삽입된다.
또한, 방송 송출 장치(100)는, 오디오 스트림에 소정의 정보를 삽입할 때, 이 소정의 정보에, 시간 동기를 관리하기 위한 UTC(Coordinated Universal Time: 협정 세계시) 베이스의 시각 정보를 부가한다. 예를 들어, 시각 정보는, 절대 시각 또는 소정의 기준 시각으로부터의 차분값이다.
셋톱 박스(200)는 방송 송출 장치(100)로부터 방송파에 실어서 송신되어 오는 트랜스포트 스트림 TS를 수신한다. 이 트랜스포트 스트림 TS에는, 상술한 바와 같이, 비디오 스트림 및 오디오 스트림이 포함되어 있고, 오디오 스트림에는 소정의 정보가 삽입되어 있다.
셋톱 박스(200)는 비디오 스트림에 디코드 처리를 실시하여 얻어진 비압축의 비디오 데이터와 함께, 수신된 오디오 스트림 바로 그것을, HDMI 케이블(610)을 통하여, 오디오 앰프(300)에 송신한다. 이에 의해, 오디오 스트림에 삽입되어 있는 소정의 정보도 오디오 앰프(300)에 보내지게 된다.
오디오 앰프(300)는 셋톱 박스(200)로부터, HDMI 케이블(610)을 통하여, 비압축의 비디오 데이터와 함께, 소정의 정보가 삽입되어 있는 오디오 스트림을 수신한다. 오디오 앰프(300)는 오디오 스트림에 디코드 처리를 실시하여 멀티 채널용의 오디오 데이터를 얻고, 이 오디오 데이터를 스피커 시스템(400)에 공급한다.
또한, 오디오 앰프(300)는 수신된 비압축의 비디오 데이터와 오디오 스트림을, HDMI 케이블(620)을 통하여, 텔레비전 수신기(500)에 송신한다. 이에 의해, 오디오 스트림에 삽입되어 있는 소정의 정보도 텔레비전 수신기(500)에 보내지게 된다.
텔레비전 수신기(500)는 오디오 앰프(300)로부터, HDMI 케이블(620)을 통하여, 비압축의 비디오 데이터와 함께, 소정의 정보가 삽입되어 있는 오디오 스트림을 수신한다. 텔레비전 수신기(500)는 비압축의 비디오 데이터에 의한 화상을 표시한다. 또한, 텔레비전 수신기(500)는 오디오 스트림에 디코드 처리를 실시하고, 소정의 정보를 취득한다.
소정의 정보는 오디오 스트림의 소정수의 오디오 프레임으로 분할되어서 삽입되고, 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보가 부가되어 있다. 텔레비전 수신기(500)는, 제1 정보 및 제2 정보에 기초하여, 소정수의 오디오 프레임으로부터, 소정의 정보를 구성하는 각 분할 정보를 취득한다.
이 경우, 텔레비전 수신기(500)는 제1 정보로부터 최초의 분할 정보를 인식할 수 있고, 또한, 이 최초의 분할 정보에 대응한 제2 정보로부터 분할 수를 인식할 수 있고, 또한, 제2 정보로부터 나머지의 분할 정보의 수를 인식할 수 있다. 그로 인해, 텔레비전 수신기(500)는 소정수의 오디오 프레임으로부터, 소정의 정보를 구성하는 각 분할 정보를, 용이하고도 적절하게, 취득할 수 있다.
텔레비전 수신기(500)는 소정의 정보를 이용한 정보 처리를 행한다. 예를 들어, 소정의 정보가 네트워크 액세스 정보일 때, 텔레비전 수신기(500)는 네트워크 상의 소정의 서버에 액세스하여 소정의 미디어 정보를 취득한다. 또한, 예를 들어 소정의 정보가 미디어 파일일 때, 텔레비전 수신기(500)는 그 미디어 파일의 재생 처리를 행한다.
소정의 정보에는, 시간 동기를 관리하기 위한 UTC 베이스의 시각 정보가 부가되어 있다. 텔레비전 수신기(500)는 소정의 정보를 이용한 정보 처리의 시간 관리를, 이 부가 되어 있는 시각 정보에 기초하여 행한다.
[방송 송출 장치의 스트림 생성부]
도 2는, 방송 송출 장치(100)가 구비하는 스트림 생성부(110)의 구성예를 나타내고 있다. 이 스트림 생성부(110)는 제어부(111)와, 비디오 인코더(112)와, 오디오 인코더(113)와, 멀티플렉서(114)를 갖고 있다.
제어부(111)는 CPU(111a)를 구비하고 있고, 스트림 생성부(110)의 각 부를 제어한다. 비디오 인코더(112)는 비디오 데이터(화상 데이터) SV에 대하여, MPEG2, H.264/AVC, H.265/HEVC 등의 부호화를 실시하고, 비디오 스트림(비디오 엘리멘터리 스트림)을 생성한다. 비디오 데이터 SV는, 예를 들어 HDD 등의 기록 매체로부터 재생된 비디오 데이터, 또는 비디오 카메라에서 얻어진 라이브 비디오 데이터 등이다.
오디오 인코더(113)는 오디오 데이터(음성 데이터) SA에 대하여, MPEG-H 3D Audio의 압축 포맷에 의한 부호화를 실시하고, 오디오 스트림(오디오 엘리멘터리 스트림)을 생성한다. 오디오 데이터 SA는, 상술한 비디오 데이터 SV에 대응하고 있고, HDD 등의 기록 매체로부터 재생된 오디오 데이터, 또는 마이크로폰에서 얻어진 라이브 오디오 데이터 등이다.
오디오 인코더(113)는 오디오 부호화 블록부(113a) 및 오디오 프레이밍부(113b)를 갖고 있다. 오디오 부호화 블록부(113a)에서 부호화 블록이 생성되어, 오디오 프레이밍부(113b)에서 프레이밍이 행해진다.
오디오 인코더(113)는 제어부(111)에 의한 제어 하에, 오디오 스트림에, 소정의 정보를 삽입한다. 이 실시 형태에 있어서, 소정의 정보는, 예를 들어 네트워크 액세스 정보, 미디어 파일 등이다.
오디오 인코더(113)는 오디오 스트림의 소정수(1을 포함함)의 오디오 프레임에 소정의 정보를 분할하여 삽입한다. 이때, 오디오 인코더(113)는 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보를 부가한다. 또한, 이때, 오디오 인코더(113)는 소정의 정보에, 시간 동기를 관리하기 위한 UTC 베이스의 시각 정보(실행 시각을 나타내는 시간 정보)를 부가한다.
도 3은, MPEG-H 3D Audio의 전송 데이터에 있어서의 오디오 프레임(1024 샘플)의 구조예를 나타내고 있다. 이 오디오 프레임은, 복수의 MPEG 오디오 스트림 패킷(mpeg Audio Stream Packet)을 포함하고 있다. 각 MPEG 오디오 스트림 패킷은, 헤더(Header)와 페이로드(Payload)에 의해 구성되어 있다.
헤더는, 패킷 타입(Packet Type), 패킷 라벨(Packet Label), 패킷 길이(Packet Length) 등의 정보를 갖는다. 페이로드에는, 헤더의 패킷 타입으로 정의된 정보가 배치된다. 이 페이로드 정보에는, 동기 스타트 코드에 상당하는 "SYNC"과, 3D 오디오의 전송 데이터의 실제 데이터인 "Frame"과, 이 "Frame"의 구성을 나타내는 "Config"가 존재한다.
"Frame"에는, 3D 오디오의 전송 데이터를 구성하는 채널 부호화 데이터와 오브젝트 부호화 데이터가 포함된다. 여기서, 채널 부호화 데이터는, SCE(Single Channel Element), CPE(Channel Pair Element), LFE(Low Frequency Element) 등의 부호화 샘플 데이터로 구성된다. 또한, 오브젝트 부호화 데이터는, SCE(Single Channel Element)의 부호화 샘플 데이터와, 그것을 임의의 위치에 존재하는 스피커에 매핑시켜서 렌더링하기 위한 메타데이터에 의해 구성된다. 이 메타데이터는, 익스텐션 엘리먼트(Ext_element)로서 포함된다.
이 실시 형태에서는, 익스텐션 엘리먼트(Ext_element)로서, 네트워크 액세스 정보, 미디어 파일 등의 소정의 정보를 유니버설·메타데이터(universal_metadata)로서 갖는 엘리먼트(Ext_userdata)를 새롭게 정의한다. 이에 수반하여 "Config"에, 그 엘리먼트(Ext_universal_metadata)의 구성 정보(universal_metadataConfig)를 새롭게 정의한다.
도 4는, 익스텐션 엘리먼트(Ext_element)의 타입(ExElementType)과, 그 값(Value)과의 대응 관계를 나타내고 있다. 현 상황은, 0 내지 7이 정해져 있다. 128 이후는 MPEG 이외까지 확장 가능하므로, 예를 들어 128을 새롭게, "ID_EXT_ELE_universal_metadata"의 타입의 값으로서 정의한다. 또한, MPEG 등의 규격의 경우에는, 8 내지 127로 정의하는 것도 가능하다.
도 5는, 유니버설·메타데이터를 익스텐션 엘리먼트로서 포함하는 유니버설·메타데이터·프레임(universal_metadata_frame())의 구성예(syntax)를 나타내고 있다. 도 6은, 유니버설·메타데이터·프레임 내의 「time_information()」이라는 필드의 구성예(syntax)를 나타내고 있다. 도 7은, 각 구성예에 있어서의 주요한 정보의 내용(semantics)을 나타내고 있다.
「metadata_type」의 8비트 필드는, 컨테이너 대상 데이터의 종류를 나타낸다. 예를 들어, "0x10"은 컨테이너 대상 데이터가 네트 액세스 정보임을 나타내고, "0x11"은 컨테이너 대상 데이터가 미디어 파일임을 나타낸다. 「start_flag」의 1비트 필드는, 컨테이너 대상 데이터의 개시인지 아닌지를 나타낸다. "1"은 개시를 나타내고, "0"은 개시가 아님을 나타낸다. 「dcounter」의 7비트 필드는, 분할된 메타데이터의 분할 위치를 내림차순의 카운트수로 나타낸다. "0"이 최후의 분할 부분을 나타내는 것이다. 「start_flag」가 "1" 또한, 「dcounter」가 "0"인 경우, 분할되어 있지 않은 컨테이너 대상 데이터임을 나타낸다.
「dt_id」의 6비트 필드는, 데이터의 ID를 나타낸다. 애플리케이션에서 데이터의 ID를 참조하여 관련짓기가 가능해진다. 「timing_control_flag」의 1비트 필드는, 동기 관리 정보가 삽입되어 있는지의 여부를 나타낸다. "1"은 삽입되어 있음을 나타내고, "0"은 삽입되어 있지 않은 것을 나타낸다. 「length」의 8비트 필드는, 이후의 데이터 사이즈를 바이트 카운트 값으로 나타낸다.
「data_byte」라는 필드에, 컨테이너 대상 데이터(네트워크 액세스 정보, 미디어 파일 등)가 배치된다. 또한, 「timing_control_flag」가 "1"일 때, 「time_information()」이라는 필드가 존재한다.
「absolute_time_flag」의 1비트 필드는, 실행 시각이 UTC 절대 시각인지 기준 시각으로부터의 차분값인지를 나타낸다. "1"은, UTC 절대 시각임을 나타낸다. "0"은 기준 시각으로부터의 차분값임을 나타낸다.
「absolute_time_flag」가 "1"일 때, 「exec_time_msw」의 32비트 필드와, 「exec_time_1sw」의 32비트 필드가 존재한다. 「exec_time_msw」라는 필드는, 데이터의 실행 시각인 UTC 절대 시각의 상위 32비트를 나타내고, 「exec_time_1sw」라는 필드는, 그 하위 32비트를 나타낸다.
「absolute_time_flag」가 "0"일 때, 「reference_UTC_msw」의 32비트 필드와, 「reference_UTC_lsw」의 32비트 필드와, 「offset_exec_time_msw」의 32비트 필드와, 「offset_exec_time_1sw」의 32비트 필드가 존재한다. 「reference_UTC_msw」라는 필드는, 기준 시각의 상위 32비트를 나타내고, 「reference_UTC_lsw」라는 필드는, 기준 시각의 하위 32비트를 나타낸다. 「offset_exec_time_msw」라는 필드는, 데이터의 실행 시각인 기준 시각으로부터의 차분값의 상위 32비트를 나타내고, 「offset_exec_time_1sw」라는 필드는, 그 하위 32비트를 나타낸다.
도 2로 돌아가서, 멀티플렉서(114)는 비디오 인코더(112)로부터 출력되는 비디오 스트림 및 오디오 인코더(113)로부터 출력되는 오디오 스트림을, PES 패킷화하고, 추가로 트랜스포트 패킷화하여 다중하고, 다중화 스트림으로서의 트랜스포트 스트림 TS를 얻는다.
도 2에 도시하는 스트림 생성부(110)의 동작을 간단하게 설명한다. 비디오 데이터 SV는 비디오 인코더(112)에 공급된다. 이 비디오 인코더(112)에서는, 비디오 데이터 SV에 대하여 H.264/AVC, H.265/HEVC 등의 부호화가 실시되어, 부호화 비디오 데이터를 포함하는 비디오 스트림이 생성된다.
또한, 오디오 데이터 SA는, 오디오 인코더(113)에 공급된다. 이 오디오 인코더(113)에서는, 그 오디오 데이터 SA에 대하여, MPEG-H 3D Audio의 압축 포맷에 의한 부호화가 실시되어, 오디오 스트림(오디오 압축 데이터 스트림)이 생성된다.
이때, 제어부(111)로부터 오디오 인코더(113)에, 오디오 스트림에 삽입해야 할 소정의 정보(네트워크 액세스 정보, 미디어 파일 등), 즉 컨테이너 대상 데이터가 공급된다. 오디오 인코더(113)에서는, 오디오 스트림의 소정수(1을 포함함)의 오디오 프레임에 컨테이너 대상 데이터(소정의 정보)가 분할하여 삽입된다. 이때, 오디오 인코더(113)에서는, 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보가 부가된다. 또한, 이때, 오디오 인코더(113)에서는, 소정의 정보에, 시간 동기를 관리하기 위한 UTC 베이스의 시각 정보(실행 시각을 나타내는 시간 정보)가 부가된다.
비디오 인코더(112)에서 생성된 비디오 스트림은, 멀티플렉서(114)에 공급된다. 또한, 오디오 인코더(113)에서 생성된 오디오 스트림은, 멀티플렉서(114)에 공급된다. 그리고, 이 멀티플렉서(114)에서는, 각 인코더로부터 공급되는 스트림이 패킷화되어서 다중되어, 전송 데이터로서 트랜스포트 스트림 TS가 얻어진다.
[컨테이너 대상 데이터(소정의 정보)의 삽입]
오디오 스트림으로의 컨테이너 대상 데이터의 삽입에 대하여 더프레임으로 전송한다. 도 8은, 컨테이너 대상 데이터가, 복수의 유니버설·메타데이터·프레임으로 전송되는 경우의 예를 나타내고 있다.
이 경우, 컨테이너 대상 데이터는 복수로 분할되어, 복수의 분할 정보 각각이 복수의 유니버설·메타데이터·프레임에 할당되고, 「data_byte」라는 필드에 삽입된다(도 5 참조). 여기서, 최초의 분할 정보에 대응한 「start_flag」는 "1"이 되고, 최초의 분할 정보인 것이 나타난다. 또한, 최초의 분할 정보에 대응한 「dcounter」는 "n-1"이 되고, 그 값에 1을 가산함으로써 분할 수 "n"이 나타난다.
2번째 이후의 분할 정보에 대응한 「start_flag」는 "0"이 되고, 최초의 분할 정보가 아님이 나타난다. 또한, 2번째 이후의 분할 정보에 대응한 「dcounter」는 "n-1"로부터 순차 디크리먼트된 카운트수로 되고, 분할 위치가 나타남과 동시에, 나머지의 분할 정보의 수가 나타난다. 또한, 마지막 분할 정보에 대응한 「dcounter」는 "0"이 되고, 최후의 분할 정보인 것이 나타난다.
또한, 최초의 분할 정보에 대응한 「dcounter」를 "n"으로 하고, 2번째 이후의 분할 정보에 대응한 「dcounter」를 "n"으로부터 순차 디크리먼트된 카운트수로 하고, 마지막 분할 정보에 대응한 「dcounter」를 "1"로 하는 것도 생각된다. 최초의 분할 정보에 대응한 「dcounter」의 "n"은 분할 수를 나타내고, 「dcounter」가 "1"인 것은, 최후의 분할 정보임을 나타내는 것이 된다.
도 9는, 컨테이너 대상 데이터가, 하나의 유니버설·메타데이터·프레임으로 전송되는 경우의 예를 나타내고 있다. 이 경우, 컨테이너 대상 데이터는 분할되지 않고, 하나의 유니버설·메타데이터·프레임의 「data_byte」라는 필드에 삽입된다(도 5 참조). 여기서, 「start_flag」는 "1"이 되고, 최초의 분할 정보인 것이 나타난다. 또한, 「dcounter」는 "0"이 되고, 최후의 분할 정보인 것이 나타난다. 따라서, 이들 정보로부터, 분할되지 않은 것이 나타난다.
도 10은, 복수의 컨테이너 대상 데이터가, 복수의 유니버설·메타데이터·프레임으로 전송되는 경우의 예를 나타내고 있다. 도시의 예는, 「dt_id」가 "0"으로 나타나는 컨테이너 대상 데이터 A와, 「dt_id」가 "1"인 컨테이너 대상 데이터 B의 2개의 컨테이너 대상 데이터가 전송되는 경우의 예이다.
이 경우, 컨테이너 대상 데이터 A는 3분할되어, 3개의 분할 정보 각각이 3개의 유니버설·메타데이터·프레임에 할당되고, 「data_byte」라는 필드에 삽입된다(도 5 참조). 여기서, 최초의 분할 정보에 대응한 「start_flag」는 "1"이 되고, 최초의 분할 정보인 것이 나타난다. 또한, 최초의 분할 정보에 대응한 「dcounter」는 "2"가 되고, 그 값에 1을 가산함으로써 분할 수 "3"이 나타난다.
2번째의 분할 정보에 대응한 「start_flag」은 "0"이 되고, 최초의 분할 정보가 아님이 나타난다. 또한, 2번째의 분할 정보에 대응한 「dcounter」는 "1"이 되고, 분할 위치가 나타남과 동시에, 나머지의 분할 정보의 수가 "1"인 것이 나타난다. 또한, 마지막 분할 정보에 대응한 「start_flag」는 "0"이 되고, 최후의 분할 정보가 아님이 나타난다. 그리고, 최후의 분할 정보에 대응한 「dcounter」는 "0"이 되고, 최후의 분할 정보인 것이 나타난다.
또한, 컨테이너 대상 데이터 B는 분할되지 않고, 하나의 유니버설·메타데이터·프레임의 「data_byte」라는 필드에 삽입된다(도 5 참조). 여기서, 「start_flag」는 "1"이 되고, 최초의 분할 정보인 것이 나타난다. 또한, 「dcounter」는 "0"이 되고, 최후의 분할 정보인 것이 나타난다. 따라서, 이들 정보로부터, 분할되지 않은 것이 나타난다.
[컨테이너 대상 데이터(소정의 정보)의 동기 관리]
컨테이너 대상 데이터(소정의 정보)의 동기 관리에 대하여 설명한다. 도 11은, 복수의 컨테이너 대상 데이터의 실행이, 거기에 부가되어 있는 시각 정보에 기초하여, 오디오 PTS와는 독립하여, 관리되는 예를 나타내고 있다.
이 예에서는, 「dt_id」가 "1"인 컨테이너 대상 데이터는 거기에 대응한 실행 시각(exec_time)의 타이밍에 실행이 개시되고, 「dt_id」가 "2"인 컨테이너 대상 데이터는 거기에 대응한 실행 시각의 타이밍에 실행이 개시되고, 또한, 「dt_id」가 "3"인 컨테이너 대상 데이터는 거기에 대응한 실행 시각의 타이밍에 실행이 개시된다.
도 12는, 수신측에 있어서의 컨테이너 대상 데이터(소정의 정보)의 실행이, 오디오 타임 스탬프 비의존으로 행할 수 있음을 나타내고 있다. 이 예에서는, 컨테이너 대상 데이터가 3개(Data_0-1, Data_0-2, Data_0-3)로 분할되어, 3개의 오디오 프레임에 할당되어서 삽입되어 있다.
또한, 이 예에서는, 컨테이너 대상 데이터의 실행 시각이 기준 시각으로부터의 차분값 OFS로 부여되어 있는 경우를 나타내고, 이 기준 시각이 "Audio timestamp(n)"에 일치하는 경우를 나타내고 있다. 이 "Audio timestamp(n)"는, 오디오 프레임 0(Frame0)이 디코드되어서 얻어진 오디오 데이터(오디오 샘플)의 출력이 개시되는 타이밍을 나타내고 있다. 이 "Audio timestamp(n)"는 「UTC값」에 대응하고 있다.
3개의 오디오 프레임으로 분할 삽입되어서 전송되는 컨테이너 대상 데이터는, 기준 시각에 차분값 OFS가 가산된 시각을 실행 시각(exec time)으로서, 그 실행이 개시된다. 즉, 컨테이너 대상 데이터의 실행이 오디오 타임 스탬프 비의존으로 행해진다.
여기서, 컨테이너 대상 데이터가, 그 중에 상대적인 타입 스탬프를 갖는 경우에는, 실행 시각을 기점으로 한 상대 시각에 의한 동기 관리가 행해진다. 예를 들어, 컨테이너 대상 데이터가 시간의 개념 없는 MP3와 같은 미디어 파일인 경우에는, 실행 시각으로부터 즉시 재생이 개시된다. 또한, 예를 들어 컨테이너 대상이 상대적인 타임 스탬프를 갖고 있는 MP4와 같은 미디어 파일인 경우에는, 실행 시각을 기점으로 한 재생 동기 관리가 행해진다.
또한, 도 12의 예는, 컨테이너 대상 데이터의 실행 시각이 기준 시각으로부터의 차분값 OFS로 부여되는 경우를 나타냈지만, 이 컨테이너 대상 데이터의 실행 시각이, 실행 시각(exec time)을 나타내는 UTC 절대 시각 「UTC 값」으로 부여되어도 마찬가지이다. 즉, 컨테이너 대상 데이터에 부가하는 실행 시각을 나타내는 시각 정보로서는, 상술한 바와 같이, UTC 절대 시각 또는 기준 시각으로부터의 차분값이 생각된다.
도 13은, 복수의 컨테이너 대상 데이터가, 거기에 부가되어 있는 시각 정보에 기초하여 동기 관리되는 구체예를 나타내고 있다. 이 예에서는, 「dt_id」가 "1"인 컨테이너 대상 데이터로서, 링크 서버에 접속하기 위한 URL의 정보와, "Activate" 또는 "Inactivate" 등의 링크 서버에 대한 제어를 행하는 컨트롤 코드군이 전송된다.
이 경우, 「exec time1」의 실행 시각에, URL에 의해 링크 서버로의 접속이 실행되고, 그 후, 「exec time3」의 실행 시각으로부터 컨트롤 코드군에 의해 당해 링크 서버에 대하여 "Activate" 또는 "Inactivate" 등의 제어가 실행되어, 당해 링크 서버로부터의 미디어 재생의 개시, 그 종료 등 행해진다.
또한, 이 예에서는, 「dt_id」가 "2"인 컨테이너 대상 데이터로서, 링크 서버에 접속하기 위한 URL의 정보와, "Activate" 또는 "Inactivate" 등의 링크 서버에 대한 제어를 행하는 컨트롤 코드군이 전송된다.
이 경우, 「exec time2」의 실행 시각에, URL에 의해 링크 서버에의 접속이 실행 지명되어, 그 후, 「exec time4」의 실행 시각으로부터 컨트롤 코드군에 의해 당해 링크 서버에 대하여 "Activate" 또는 "Inactivate" 등의 제어가 실행되고, 당해 링크 서버로부터의 미디어 재생의 개시, 그 종료 등 행해진다.
또한, 이 예에서는, 「dt_id」가 "3"인 컨테이너 대상 데이터로서, 미디어 파일이 전송된다. 「exec time5」의 실행 시각으로부터, 미디어 파일의 재생이 개시된다.
[셋톱 박스의 구성예]
도 14는, 셋톱 박스(200)의 구성예를 나타내고 있다. 이 셋톱 박스(200)는 CPU(201)와, 플래시 ROM(202)과, DRAM(203)과, 내부 버스(204)와, 리모컨 수신부(205)와, 리모컨 송신기(206)를 갖고 있다. 또한, 셋톱 박스(200)는 안테나 단자(211)와, 디지털 튜너(212)와, 디멀티플렉서(213)와, 비디오 디코더(214)와, 오디오 프레이밍부(215)와, HDMI 송신부(216)와, HDMI 단자(217)를 갖고 있다.
CPU(201)는, 셋톱 박스(200)의 각 부의 동작을 제어한다. 플래시 ROM(202)은, 제어 소프트웨어의 저장 및 데이터의 보관을 행한다. DRAM(203)은, CPU(201)의 워크 에리어를 구성한다. CPU(201)는, 플래시 ROM(202)으로부터 판독한 소프트웨어나 데이터를 DRAM(203) 상에 전개하여 소프트웨어를 기동시켜, 셋톱 박스(200)의 각 부를 제어한다.
리모컨 수신부(205)는 리모컨 송신기(206)로부터 송신된 리모컨트롤 신호(리모컨 코드)를 수신하고, CPU(201)에 공급한다. CPU(201)는, 이 리모컨 코드에 기초하여, 셋톱 박스(200)의 각 부를 제어한다. CPU(201), 플래시 ROM(202) 및 DRAM(203)은, 내부 버스(204)에 접속되어 있다.
안테나 단자(211)는, 수신 안테나(도시하지 않음)에서 수신된 텔레비전 방송 신호를 입력하는 단자이다. 디지털 튜너(212)는 안테나 단자(211)에 입력된 텔레비전 방송 신호를 처리하여, 유저의 선택 채널에 대응한 트랜스포트 스트림 TS를 출력한다.
디멀티플렉서(213)는 트랜스포트 스트림 TS로부터 비디오 스트림의 패킷을 추출하고, 비디오 디코더(214)에 보낸다. 비디오 디코더(214)는 디멀티플렉서(213)에서 추출된 비디오의 패킷으로부터 비디오 스트림을 재구성하고, 디코드 처리를 행하여 비압축의 비디오 데이터(화상 데이터)를 얻는다.
또한, 디멀티플렉서(213)는 트랜스포트 스트림 TS로부터 오디오 스트림의 패킷을 추출하고, 오디오 스트림을 재구성한다. 오디오 프레이밍부(215)는 이렇게 재구성된 오디오 스트림에 대하여 프레이밍을 행한다. 이 오디오 스트림에는, 상술한 스트림 생성부(110)(도 2 참조)에서 설명한 바와 같이, 네트워크 액세스 정보, 미디어 파일 등의 소정의 정보(컨테이너 대상 데이터)가 삽입되어 있다.
HDMI 송신부(216)는 HDMI에 준거한 통신에 의해, 비디오 디코더(214)에서 얻어진 비압축의 비디오 데이터와, 오디오 프레이밍부(215)에서 프레이밍된 후의 오디오 스트림을, HDMI 단자(217)로부터 송출한다. HDMI 송신부(216)는 HDMI의 TMDS 채널로 송신하기 위해서, 비디오 데이터 및 오디오 스트림을 패킹하여, HDMI 단자(217)에 출력한다. 이 HDMI 송신부(216)의 상세는 후술한다.
셋톱 박스(200)의 동작을 간단하게 설명한다. 안테나 단자(211)에 입력된 텔레비전 방송 신호는 디지털 튜너(212)에 공급된다. 이 디지털 튜너(212)에서는, 텔레비전 방송 신호가 처리되어서, 유저의 선택 채널에 대응한 트랜스포트 스트림 TS가 출력된다.
디지털 튜너(212)로부터 출력되는 트랜스포트 스트림 TS는, 디멀티플렉서(213)에 공급된다. 이 디멀티플렉서(213)에서는, 트랜스포트 스트림 TS로부터 비디오의 엘리멘터리 스트림 패킷이 추출되어, 비디오 디코더(214)에 보내진다.
비디오 디코더(214)에서는, 디멀티플렉서(213)에서 추출된 비디오의 패킷으로부터 비디오 스트림이 재구성된 후, 그 비디오 스트림에 대하여 디코드 처리가 행해져서, 비압축의 비디오 데이터가 얻어진다. 이 비압축의 비디오 데이터는, HDMI 송신부(216)에 공급된다.
또한, 디멀티플렉서(213)에서는, 트랜스포트 스트림 TS로부터 오디오 스트림의 패킷이 추출되어, 네트워크 액세스 정보, 미디어 파일 등의 소정의 정보(컨테이너 대상 데이터)가 삽입되어 있는 오디오 스트림이 재구성된다. 이 오디오 스트림은 오디오 프레이밍부(215)에서 프레이밍 된 후에, HDMI 송신부(216)에 공급된다. 그리고, HDMI 송신부(216)에서는, 비압축의 비디오 데이터 및 오디오 스트림이 패킹되어, HDMI 단자(217)로부터 HDMI 케이블(610)을 통하여 오디오 앰프(300)에 송신된다.
[오디오 앰프의 구성예]
도 15는, 오디오 앰프(300)의 구성예를 나타내고 있다. 오디오 앰프(300)는 CPU(301)와, 플래시 ROM(302)과, DRAM(303)과, 내부 버스(304)와, 리모컨 수신부(305)와, 리모컨 송신기(306)를 갖고 있다. 또한, 오디오 앰프(300)는 HDMI 단자(311)와, HDMI 수신부(312)와, 오디오 디코더(313)와, 음성 처리 회로(314)와, 음성 증폭 회로(315)와, 음성 출력 단자(316)와, HDMI 송신부(317)와, HDMI 단자(318)를 갖고 있다.
CPU(301)는, 오디오 앰프(300)의 각 부의 동작을 제어한다. 플래시 ROM(302)은, 제어 소프트웨어의 저장 및 데이터의 보관을 행한다. DRAM(303)은, CPU(301)의 워크 에리어를 구성한다. CPU(301)는, 플래시 ROM(302)으로부터 판독한 소프트웨어나 데이터를 DRAM(303) 상에 전개하여 소프트웨어를 기동시켜, 오디오 앰프(300)의 각 부를 제어한다.
리모컨 수신부(305)는, 리모컨 송신기(306)로부터 송신된 리모컨트롤 신호(리모컨 코드)를 수신하고, CPU(301)에 공급한다. CPU(301)는, 이 리모컨 코드에 기초하여, 오디오 앰프(300)의 각 부를 제어한다. CPU(301), 플래시 ROM(302) 및 DRAM(303)은, 내부 버스(304)에 접속되어 있다.
HDMI 수신부(312)는 HDMI에 준거한 통신에 의해, HDMI 케이블(610)을 통하여 HDMI 단자(311)에 공급되는 비압축의 비디오 데이터와 오디오 스트림을 수신한다. 오디오 스트림에는, 상술한 셋톱 박스(200)(도 14 참조)에서 설명한 바와 같이, 네트워크 액세스 정보, 미디어 파일 등의 소정의 정보(컨테이너 대상 데이터)가 삽입되어 있다. 이 HDMI 수신부(312)의 상세는 후술한다.
오디오 디코더(313)는 HDMI 수신부(212)에서 수신된 오디오 스트림에 대하여 디코드 처리를 실시하고, 소정 채널수의 비압축 오디오 데이터(음성 데이터)를 얻는다. 음성 처리 회로(314)는 소정 채널수의 비압축의 오디오 데이터에, 스피커 시스템(400)(도 1 참조)의 구성에 따른 필요한 업/다운 믹스 처리를 실시하여, 필요한 채널수의 오디오 데이터를 얻음과 함께, D/A 변환 등이 필요한 처리를 실시한다.
음성 증폭 회로(315)는 음성 처리 회로(314)에서 얻어진 각 채널의 오디오 신호를 증폭하여 음성 출력 단자(316)에 출력한다. 또한, 음성 출력 단자(316)에는, 스피커 시스템(400)이 접속된다.
HDMI 송신부(317)는 HDMI에 준거한 통신에 의해, HDMI 수신부(212)에서 수신된 비압축의 비디오 데이터와 오디오 스트림을, HDMI 단자(318)로부터 송출한다. HDMI 송신부(317)는 HDMI의 TMDS 채널로 송신하기 때문에, 비압축의 비디오 데이터 및 오디오 스트림을 패킹하여, HDMI 단자(318)에 출력한다. 이 HDMI 송신부(317)의 상세는 후술한다.
도 15에 도시하는 오디오 앰프(200)의 동작을 간단하게 설명한다. HDMI 수신부(312)에서는, 셋톱 박스(200)로부터 HDMI 케이블(610)을 통하여 HDMI 단자(311)에 송신되어 오는, 비압축의 비디오 데이터와 오디오 스트림이 수신된다.
HDMI 수신부(312)에서 수신된 오디오 스트림은, 오디오 디코더(313)에 공급된다. 오디오 디코더(313)에서는, 오디오 스트림에 대하여 디코드 처리가 실시되어, 소정 채널수의 비압축의 오디오 데이터가 얻어진다. 이 오디오 데이터는, 음성 처리 회로(314)에 공급된다.
음성 처리 회로(314)에서는, 소정 채널수의 비압축의 오디오 데이터에, 스피커 시스템(400)(도 1 참조)의 구성에 따를 필요한 업/다운 믹스 처리가 실시되어서, 필요한 채널수의 오디오 데이터가 얻어짐과 함께, D/A 변환 등의 필요한 처리가 실시된다. 음성 처리 회로(314)로부터 출력되는 각 채널의 오디오 데이터는 음성 증폭 회로(315)에서 증폭되어서 음성 출력 단자(316)에 출력된다. 그로 인해, 음성 출력 단자(316)에 접속된 스피커 시스템(400)으로부터 소정 채널수의 음성 출력이 얻어진다.
또한, HDMI 수신부(312)에서 수신된 비압축의 비디오 데이터와 오디오 스트림은, HDMI 송신부(317)에 공급된다. 또한, HDMI 수신부(312)에서 수신된 비압축의 비디오 데이터 바로 그것이 아닌, 이 비압축의 비디오 데이터에 그래픽 데이터의 중첩 등의 처리가 실시된 후의 비디오 데이터가 HDMI 송신부(317)에 공급되어도 된다. HDMI 송신부(317)에서는, 이들의 비압축의 비디오 데이터 및 오디오 스트림이 패킹되어, HDMI 단자(318)로부터 HDMI 케이블(620)을 통하여 텔레비전 수신기(500)에 송신된다.
[텔레비전 수신기의 구성예]
도 16은, 텔레비전 수신기(500)의 구성예를 나타내고 있다. 이 텔레비전 수신기(500)는 CPU(501)와, 플래시 ROM(502)과, DRAM(503)과, 내부 버스(504)와, 리모컨 수신부(505)와, 리모컨 송신기(506)와, 통신 인터페이스(507)를 갖고 있다.
또한, 텔레비전 수신기(500)는 안테나 단자(511)와, 디지털 튜너(512)와, 디멀티플렉서(513)와, 비디오 디코더(514)와, HDMI 단자(515)와, HDMI 수신부(516)를 갖고 있다. 또한, 텔레비전 수신기(500)는 영상 처리 회로(517)와, 패널 구동 회로(518)와, 표시 패널(519)과, 오디오 디코더(520)와, 음성 처리 회로(521)와, 음성 증폭 회로(522)와, 스피커(523)를 갖고 있다.
CPU(501)는, 텔레비전 수신기(500)의 각 부의 동작을 제어한다. 플래시 ROM(502)은, 제어 소프트웨어의 저장 및 데이터의 보관을 행한다. DRAM(503)은, CPU(501)의 워크 에리어를 구성한다. CPU(501)는, 플래시 ROM(502)으로부터 판독한 소프트웨어나 데이터를 DRAM(503) 상에 전개하여 소프트웨어를 기동시켜, 텔레비전 수신기(500)의 각 부를 제어한다.
리모컨 수신부(505)는 리모컨 송신기(506)로부터 송신된 리모트 컨트롤 신호(리모컨 코드)를 수신하고, CPU(501)에 공급한다. CPU(501)는, 이 리모컨 코드에 기초하여, 텔레비전 수신기(500)의 각 부를 제어한다. CPU(501), 플래시 ROM(502) 및 DRAM(503)은, 내부 버스(504)에 접속되어 있다.
통신 인터페이스(507)는 CPU(501)의 제어 하, 인터넷 등의 네트워크 상에 존재하는 서버 사이에서 통신을 행한다. 이 통신 인터페이스(507)는 내부 버스(504)에 접속되어 있다.
안테나 단자(511)는 수신 안테나(도시하지 않음)에서 수신된 텔레비전 방송 신호를 입력하는 단자이다. 디지털 튜너(512)는 안테나 단자(511)에 입력된 텔레비전 방송 신호를 처리하여, 유저의 선택 채널에 대응한 트랜스포트 스트림 TS를 출력한다.
디멀티플렉서(513)는 트랜스포트 스트림 TS로부터 비디오 스트림의 패킷을 추출하고, 비디오 디코더(514)에 보낸다. 비디오 디코더(514)는 디멀티플렉서(513)에서 추출된 비디오의 패킷으로부터 비디오 스트림을 재구성하고, 디코드 처리를 행하여 비압축의 비디오 데이터(화상 데이터)를 얻는다.
또한, 디멀티플렉서(513)는 트랜스포트 스트림 TS로부터 오디오 스트림의 패킷을 추출하고, 오디오 스트림을 재구성한다. 이 오디오 스트림에는, 상술한 스트림 생성부(110)(도 2 참조)에서 설명한 바와 같이, 네트워크 액세스 정보, 미디어 파일 등의 소정의 정보(컨테이너 대상 데이터)가 삽입되어 있다.
HDMI 수신부(516)는 HDMI에 준거한 통신에 의해, HDMI 케이블(620)을 통하여 HDMI 단자(515)에 공급되는 비압축의 비디오 데이터와 오디오 스트림을 수신한다. 오디오 스트림에는, 상술한 오디오 앰프(300)(도 15 참조)에서 설명한 바와 같이, 네트워크 액세스 정보, 미디어 파일 등의 소정의 정보(컨테이너 대상 데이터)가 삽입되어 있다. 이 HDMI 수신부(516)의 상세는 후술한다.
영상 처리 회로(517)는 비디오 디코더(514)에서 얻어진, 또는 HDMI 수신부(516)에서 얻어진 비디오 데이터, 나아가, 통신 인터페이스(507)에서 네트 상의 서버로부터 수신된 비디오 데이터 등에 대하여 스케일링 처리, 합성 처리 등을 행하여, 표시용의 비디오 데이터를 얻는다.
패널 구동 회로(518)는 영상 처리 회로(517)에서 얻어지는 표시용의 화상 데이터에 기초하여, 표시 패널(519)을 구동한다. 표시 패널(519)은, 예를 들어 LCD(Liquid Crystal Display), 유기 EL 디스플레이(organic electroluminescence display) 등으로 구성되어 있다.
오디오 디코더(520)는 디멀티플렉서(513)에서 얻어진, 또는 HDMI 수신부(516)에서 얻어진 오디오 스트림에 대하여 디코드 처리를 실시하여 비압축의 오디오 데이터(음성 데이터)를 얻는다. 또한, 오디오 디코더(520)는 오디오 스트림에 삽입되어 있는, 네트워크 액세스 정보, 미디어 파일 등의 소정의 정보(컨테이너 대상 데이터)를 추출하고, CPU(501)에 송신한다. CPU(501)는 적절히, 텔레비전 수신기(500)의 각 부에, 이 소정의 정보를 이용한 정보 처리를 행하게 한다.
여기서, 소정의 정보는, 오디오 스트림의 소정수(1을 포함함)의 오디오 프레임으로 분할되어서 삽입되고, 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보가 부가되어 있다. 오디오 디코더(520)는 제1 정보 및 제2 정보에 기초하여, 소정수의 오디오 프레임으로부터, 소정의 정보를 구성하는 각 분할 정보를 취득한다.
이 경우, 오디오 디코더(520)는 제1 정보로부터 최초의 분할 정보를 인식할 수 있고, 또한, 이 최초의 분할 정보에 대응한 제2 정보로부터 분할수를 인식할 수 있고, 또한, 제2 정보로부터 나머지의 분할 정보의 수를 인식할 수 있다. 그로 인해, 오디오 디코더(520)는 소정수의 오디오 프레임으로부터, 소정의 정보를 구성하는 각 분할 정보를, 용이하고도 적절하게, 취득할 수 있다. 또한, 제2 정보(카운터 정보)에 의해, (1) 도중의 전송 패킷이 에러가 되었을 경우에, 그것을 수신측에서 검출하는 것이 가능하고, (2) 또한, 분할된 최종 패킷이 도달하는 대략의 시간을 수신측에서 미리 알 수 있다.
CPU(501)는 적절히, 텔레비전 수신기(500)의 각 부에 이 소정의 정보를 사용한 정보 처리를 행하게 한다. 예를 들어, 소정의 정보가 네트워크 액세스 정보일 때, 텔레비전 수신기(500)는 네트워크 상의 소정의 서버에 액세스하여 소정의 미디어 정보를 취득하는 처리를 한다. 또한, 예를 들어 소정의 정보가 미디어 파일일 때, 텔레비전 수신기(500)는 그 미디어 파일의 재생 처리를 한다. 또한, 이 소정의 정보에 UTC 베이스의 시각 정보가 부가되어 있을 때, 이 소정의 정보를 사용한 정보 처리의 시간 동기는, 그 부가되어 있는 시각 정보에 기초하여 관리된다.
음성 처리 회로(521)는 오디오 디코더(520)에서 얻어진 오디오 데이터에 대하여 D/A 변환 등의 필요한 처리를 행한다. 음성 증폭 회로(522)는 음성 처리 회로(521)로부터 출력되는 음성 신호를 증폭하여 스피커(523)에 공급한다.
도 16에 나타내는 텔레비전 수신기(500)의 동작을 간단하게 설명한다. 안테나 단자(511)에 입력된 텔레비전 방송 신호는 디지털 튜너(512)에 공급된다. 이 디지털 튜너(512)에서는, 텔레비전 방송 신호가 처리되어, 유저의 선택 채널에 대응한 트랜스포트 스트림 TS가 얻어진다.
디지털 튜너(512)에서 얻어지는 트랜스포트 스트림 TS는, 디멀티플렉서(513)에 공급된다. 디멀티플렉서(513)는 트랜스포트 스트림 TS로부터 비디오 스트림의 패킷이 추출되어, 비디오 디코더(514)에 공급된다. 비디오 디코더(514)에서는, 디멀티플렉서(513)에서 추출된 비디오의 패킷으로부터 비디오 스트림이 재구성되어, 디코드 처리가 실시되고, 비압축의 비디오 데이터가 얻어진다. 이 비압축의 비디오 데이터는, 영상 처리 회로(517)에 공급된다.
또한, 디멀티플렉서(513)에서는, 트랜스포트 스트림 TS로부터 오디오 스트림의 패킷이 추출되어, 오디오 스트림이 재구성된다. 이 오디오 스트림은, 오디오 디코더(520)에 공급된다.
HDMI 수신부(516)에서는, HDMI에 준거한 통신에 의해, HDMI 케이블(620)을 통하여 HDMI 단자(515)에 공급되는 비압축의 비디오 데이터 및 오디오 스트림이 수신된다. 비압축의 비디오 데이터는, 영상 처리 회로(517)에 공급된다. 또한, 오디오 스트림은 오디오 디코더(520)에 공급된다.
영상 처리 회로(517)에서는, 비디오 디코더(514)에서 얻어진, 또는 HDMI 수신부(516)에서 얻어진 비디오 데이터, 나아가, 통신 인터페이스(507)에서 네트 상의 서버로부터 수신된 비디오 데이터 등에 대하여 스케일링 처리, 합성 처리 등이 실시되어, 표시용의 비디오 데이터가 얻어진다.
영상 처리 회로(517)에서 얻어진 표시용의 비디오 데이터는 패널 구동 회로(518)에 공급된다. 패널 구동 회로(518)에서는, 표시용의 비디오 데이터에 기초하여, 표시 패널(519)을 구동하는 일이 행해진다. 이에 의해, 표시 패널(519)에는, 표시용의 비디오 데이터에 대응한 화상이 표시된다.
오디오 디코더(520)에서는, 디멀티플렉서(513)에서 얻어진, 또는 HDMI 수신부(516)에서 얻어진 오디오 스트림에 대하여 디코드 처리가 실시되어서 비압축의 오디오 데이터가 얻어진다. 오디오 디코더(520)에서 얻어지는 오디오 데이터는, 음성 처리 회로(521)에 공급된다. 음성 처리 회로(521)에서는, 오디오 데이터에 대하여 D/A 변환 등이 필요한 처리가 실시된다. 이 오디오 데이터는, 음성 증폭 회로(522)에서 증폭된 후에, 스피커(523)에 공급된다. 그로 인해, 스피커(523)로부터, 표시 패널(519)의 표시 화상에 대응한 음성이 출력된다.
또한, 오디오 디코더(520)에서는, 오디오 스트림에 삽입되어 있는, 네트워크 액세스 정보, 미디어 파일 등의 소정의 정보(컨테이너 대상 데이터)가 추출된다. 이렇게 오디오 디코더(520)에서 추출되는 소정의 정보는, CPU(501)에 보내진다. 그리고, CPU(501)의 제어에 의해, 적절히, 텔레비전 수신기(500)의 각 부에서 소정의 정보를 이용한 정보 처리가 행해진다.
[HDMI 송신부, HDMI 수신부의 구성예]
도 17은, 도 1의 송수신 시스템(10)에 있어서의, 셋톱 박스(200)의 HDMI 송신부(216)(도 14 참조)와 오디오 앰프(300)의 HDMI 수신부(312)(도 15 참조)의 구성예를 나타내고 있다. 또한, 오디오 앰프(300)의 HDMI 송신부(317)와 텔레비전 수신기(500)의 HDMI 수신부(516)의 구성예에 대해서는, 동일한 구성이 되므로, 설명은 생략한다.
HDMI 송신부(216)는 하나의 수직 동기 신호로부터 다음의 수직 동기 신호까지의 구간으로부터, 수평 귀선 구간(22) 및 수직 귀선 구간(23)을 제외한 구간인 유효 화상 구간(21)(이하, 적절히, 「액티브 비디오 구간」이라고도 함)(도 18 참조)에 있어서, 비압축의 화면 분의 화상 화소 데이터에 대응하는 차동 신호를, 복수의 채널로, HDMI 수신부(312)에 일방향으로 송신한다. 또한, HDMI 송신부(216)는 수평 귀선 구간(22) 또는 수직 귀선 구간(23)에 있어서, 적어도 화상에 부수되는 음성 데이터나 제어 데이터, 기타의 보조 데이터 등에 대응하는 차동 신호를, 복수의 채널로, HDMI 수신부(312)에 일방향으로 송신한다.
즉, HDMI 송신부(216)는 HDMI 트랜스미터(31)를 갖는다. 트랜스미터(31)는, 예를 들어 비압축의 화상 화소 데이터를 대응하는 차동 신호로 변환하고, 복수의 채널인 3개의 TMDS(Transition Minimized Differential Signaling) 채널 #0, #1, #2로, HDMI 수신부(312)에, 일방향으로 시리얼 전송한다.
또한, 트랜스미터(31)는 비압축의 화상에 부수되는 음성 데이터, 나아가, 필요한 제어 데이터 기타의 보조 데이터 등을, 대응하는 차동 신호로 변환하고, 3개의 TMDS 채널 #0, #1, #2로, HDMI 수신부(312)에 일방향으로 시리얼 전송한다.
HDMI 수신부(312)는 액티브 비디오 구간(21)(도 18 참조)에 있어서, 복수의 채널로, HDMI 송신부(216)로부터 일방향으로 송신되어 오는, 화소 데이터에 대응하는 차동 신호를 수신한다. 또한, HDMI 수신부(312)는 수평 귀선 구간(22)(도 18 참조) 또는 수직 귀선 구간(23)(도 18 참조)에 있어서, 복수의 채널로, HDMI 송신부(216)로부터 일방향으로 송신되어 오는, 음성 데이터나 제어 데이터에 대응하는 차동 신호를 수신한다.
HDMI 송신부(216)와 HDMI 수신부(312)를 포함하는 HDMI 시스템의 전송 채널에는, 화소 데이터 및 음성 데이터를 전송하기 위한 전송 채널로서의 3개의 TMDS 채널 #0 내지 #2와, 픽셀 클럭을 전송하는 전송 채널로서의 TMDS 클럭 채널 이외에, DDC(Display Data Channel)(33)나 CEC(Consumer Electronics Control) 라인(34)이라고 불리는 전송 채널이 있다.
DDC(33)는, HDMI 케이블(610)이 포함되는 2개의 신호선을 포함하고, HDMI 송신부(216)가 HDMI 케이블(610)을 통하여 접속된 HDMI 수신부(312)로부터, EDID(Extended Display Identification Data)를 판독하기 위하여 사용된다. 즉, HDMI 수신부(312)는 HDMI 리시버(32) 이외에, 자신의 성능(Configuration·Capability)에 관한 성능 정보인 EDID를 기억하고 있는, EDID ROM(Read Only Memory)을 갖고 있다. HDMI 송신부(216)가 EDID를 판독함으로써, 수신측의 복호화 능력 정보가 송신측에 보내지게 된다.
HDMI 송신부(216)는 HDMI 케이블(610)을 통하여 접속되어 있는 HDMI 수신부(312)로부터, EDID를, DDC(33)를 통하여 판독한다. 그리고, 셋톱 박스(200)의 CPU(201)는 그 EDID에 기초하여, HDMI 수신부(312)를 갖는 오디오 앰프(300)의 성능을 인식한다.
CEC 라인(34)은 HDMI 케이블(610)이 포함되는 하나의 신호선을 포함하고, HDMI 송신부(216)와 HDMI 수신부(312) 사이에서, 제어용의 데이터의 쌍방향 통신을 행하기 위하여 사용된다. 또한, HDMI 케이블(610)에는, HPD(Hot Plug Detect)라고 불리는 핀에 접속되는 HPD 라인(35)이 포함되어 있다.
소스 기기는, 이 HPD 라인(35)을 이용하여, 직류 바이어스 전위에 의해, 싱크 기기(데스티네이션 기기)의 접속을 검출할 수 있다. 이 경우, HPD 라인(35)은 소스 기기측에서 보면, 직류 바이어스 전위에 의해 싱크 기기로부터 접속 상태의 통지를 받는 기능을 갖는 것이 된다. 한편, 이 HPD 라인은, 싱크 기기측에서 보면, 직류 바이어스 전위에 의해 소스 기기에 접속 상태를 통지하는 기능을 갖는 것이 된다. 또한, HDMI 케이블(610)에는, 소스 기기로부터 싱크 기기에 전원을 공급하기 위하여 사용되는 전원 라인(36)이 포함되어 있다.
또한, HDMI 케이블(610)에는, 리저브 라인(37)이 포함되어 있다. HPD 라인(35)과 리저브 라인(37)을 사용한, 이더넷의 신호를 전송하는 HDMI 이더넷 채널(HDMI Ethernet Channel: HEC)이 존재한다. 또한, HPD 라인(35)과 리저브 라인(37)의 양쪽 또는 HPD 라인(35)만을 사용한, 오디오 데이터를 데스티네이션 기기(싱크 기기)로부터 소스 기기로 전송하는 오디오 리턴 채널(Audio Return Channel: ARC)이 존재한다. 또한, 「이더넷」은 등록 상표이다.
도 18은, TMDS 채널에 있어서, 가로×세로가 1920 픽셀×1080 라인의 화상 데이터가 전송되는 경우의, 각종 전송 데이터의 구간을 나타내고 있다. HDMI의 3개의 TMDS 채널로 전송 데이터가 전송되는 비디오 필드(Video Field)에는, 전송 데이터의 종류에 따라, 비디오 데이터 구간(24)(Video Data Period), 데이터 아일랜드 구간(25)(Data Island Period) 및 컨트롤 구간(26)(Control Period)의 3종류의 구간이 존재한다.
여기서, 비디오 필드 구간은, 어떤 수직 동기 신호의 상승 에지(Active Edge)로부터 다음 수직 동기 신호의 상승 에지까지의 구간이고, 수평 귀선 기간(22)(Horizontal Blanking), 수직 귀선 기간(23)(Vertical Blanking), 그리고 비디오 필드 구간으로부터, 수평 귀선 기간 및 수직 귀선 기간을 제외한 구간인 유효 화소 구간(21)(Active Video)으로 나뉜다.
비디오 데이터 구간(24)은 유효 화소 구간(21)에 할당된다. 이 비디오 데이터 구간(24)에서는, 비압축의 1화면 분의 화상 데이터를 구성하는 1920 픽셀(화소)×1080 라인 분의 유효 화소(Active Pixel)의 데이터가 전송된다. 데이터 아일랜드 구간(25) 및 컨트롤 구간(26)은 수평 귀선 기간(22) 및 수직 귀선 기간(23)에 할당된다. 이 데이터 아일랜드 구간(25) 및 컨트롤 구간(26)에서는, 보조 데이터(Auxiliary Data)가 전송된다.
즉, 데이터 아일랜드 구간(25)은 수평 귀선 기간(22)과 수직 귀선 기간(23)의 일부분에 할당되어 있다. 이 데이터 아일랜드 구간(25)에서는, 보조 데이터 중, 제어에 관계하지 않는 데이터인, 예를 들어 음성 데이터의 패킷 등이 전송된다. 컨트롤 구간(26)은 수평 귀선 기간(22)과 수직 귀선 기간(23)의 다른 부분에 할당되어 있다. 이 컨트롤 구간(26)에서는, 보조 데이터 중의, 제어에 관계하는 데이터인, 예를 들어 수직 동기 신호 및 수평 동기 신호, 제어 패킷 등이 전송된다.
상술한 바와 같이, 도 1에 도시하는 송수신 시스템(10)에 있어서, 방송 송출 장치(100)는 오디오 스트림의 복수의 오디오 프레임에, 소정의 정보(컨테이너 대상 데이터)를 분할 삽입하고, 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보를 부가한다. 그로 인해, 수신측에서는, 제1 정보로부터 최초의 분할 정보를 인식할 수 있고, 또한, 이 최초의 분할 정보에 대응한 제2 정보로부터 분할수를 인식할 수 있고, 또한, 제2 정보로부터 나머지의 분할 정보의 수를 인식할 수 있고, 소정의 정보의 취득 처리를 용이하고도 적절하게 행할 수 있다.
또한, 도 1에 도시하는 송수신 시스템(10)에 있어서, 방송 송출 장치(100)는 오디오 스트림에 삽입되는 소정의 정보(컨테이너 대상 데이터)에, 시간 동기를 관리하기 위한 시각 정보로서 UTC 베이스의 시각 정보(범용적인 시각 정보)를 부가한다. 그로 인해, 범용 시스템과의 친화성을 갖게 할 수 있다.
<2. 변형예>
또한, 상술 실시 형태에 있어서는, 오디오 압축 포맷이 MPEG-H 3D Audio인 예를 나타내었다. 그러나, 본 기술은, 오디오 압축 포맷이 AAC, AC3, AC4 등의 기타 오디오 압축 포맷인 경우에도, 동일하게 적용할 수 있다.
또한, 상술 실시 형태에 있어서, 셋톱 박스(200)는 방송 송출 장치(100)로부터의 방송 신호로부터 비디오 스트림 및 오디오 스트림을 수신하는 구성으로 되어 있다. 그러나, 셋톱 박스(200)는 배신 서버(스트리밍 서버)로부터 네트워크를 통하여 비디오 스트림 및 오디오 스트림을 수신하는 구성도 생각된다.
또한, 상술 실시 형태에 있어서는, 컨테이너가 트랜스포트 스트림(MPEG-2 TS)인 예를 나타내었다. 그러나, 본 기술은, MP4나 그 이외의 포맷의 컨테이너에서 배신되는 시스템에도 동일하게 적용할 수 있다. 예를 들어, MPEG-DASH 베이스의 스트림 배신 시스템, 또는 MMT(MPEG Media Transport) 구조 전송 스트림을 취급하는 송수신 시스템 등이다.
또한, 상술 실시 형태에 있어서는, 셋톱 박스(200)와 텔레비전 수신기(500) 사이에 오디오 앰프(300)가 개재되는 예를 나타내었다. 그러나, 셋톱 박스(200)가 텔레비전 수신기(500)에 직접 접속되는, 도 19에 도시한 바와 같은, 송수신 시스템(10A)도 생각된다.
이 송수신 시스템(10A)에 있어서는, 셋톱 박스(200)와 텔레비전 수신기(500)는 HDMI 케이블(610)을 통하여 접속되어 있다. 이 경우, 셋톱 박스(200)가 소스이고, 텔레비전 수신기(500)는 데스티네이션이다. 오디오 앰프(300)와 텔레비전 수신기(500)는 HDMI 케이블(620)을 통하여 접속되어 있다. 이 경우, 오디오 앰프(300)가 소스이고, 텔레비전 수신기(500)는 데스티네이션이다.
이 경우, 셋톱 박스(200)로부터 텔레비전 수신기(500)에, HDMI의 디지털 인터페이스에서, 비압축의 비디오 데이터와, 네트워크 액세스 정보, 미디어 파일 등의 소정의 정보(컨테이너 대상 데이터)가 삽입된 오디오 스트림이 송신된다. 또한, 텔레비전 수신기(500)로부터 오디오 앰프(300)에 HDMI의 오디오 리턴 채널을 이용하여, 오디오 스트림 자체인터페이스를 통하여코드 후의 오디오 데이터가 송신된다.
또한, 상술 실시 형태에 있어서는, 셋톱 박스(200) 및 텔레비전 수신기(500)를 갖는 송수신 시스템(10)을 나타내었다. 그러나, 텔레비전 수신기(500) 대신에, 모니터 장치, 또는 프로젝터 등이 배치되는 구성도 생각된다. 또한, 셋톱 박스(200) 대신에, 수신 기능을 구비한의 레코더, 퍼스널 컴퓨터 등이 배치되는 구성도 생각된다.
또한, 상술 실시 형태에 있어서는, 수신측의 각 기기가 HDMI의 디지털 인터페이스에 의해 유선으로 접속되어 있다. 그러나, 각 기기가 HDMI와 동일한 디지털 인터페이스에서 유선 접속되는 경우, 나아가, 무선에 의해 접속되는 경우에도, 본 발명을 동일하게 적용할 수 있는 것은 물론이다.
또한, 본 기술은, 이하와 같은 구성도 취할 수 있다.
(1) 오디오 데이터에 인코드 처리를 실시하고, 오디오 압축 데이터를 포함하는 오디오 프레임이 연속된 오디오 압축 데이터 스트림을 생성하는 스트림 생성부와,
상기 오디오 압축 데이터 스트림에 소정의 정보를 삽입하는 정보 삽입부와,
상기 소정의 정보가 삽입된 오디오 압축 데이터 스트림을 송신하는 스트림 송신부를 구비하고,
상기 정보 삽입부는,
상기 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에 상기 소정의 정보를 분할하여 삽입하고, 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보를 부가하는
송신 장치.
(2) 상기 정보 삽입부는,
상기 오디오 압축 데이터 스트림에 상기 소정의 정보를 삽입할 때, 상기 소정의 정보에, 시간 동기를 관리하기 위한 UTC 베이스의 시각 정보를 부가하는
상기 (1)에 기재된 송신 장치.
(3) 상기 시각 정보는, 절대 시각 또는 소정의 기준 시각으로부터의 차분값인
상기 (2)에 기재된 송신 장치.
(4) 상기 소정의 정보는, 네트워크 액세스 정보 또는 미디어 파일인
상기 (1) 내지 (3) 중 어느 한 항에 기재된 송신 장치.
(5) 오디오 데이터에 인코드 처리를 실시하고, 오디오 압축 데이터를 포함하는 오디오 프레임이 연속된 오디오 압축 데이터 스트림을 생성하는 스트림 생성 스텝과,
상기 오디오 압축 데이터 스트림에 소정의 정보를 삽입하는 정보 삽입 스텝과,
송신부에 의해, 상기 소정의 정보가 삽입된 오디오 압축 데이터 스트림을 송신하는 스트림 송신 스텝을 갖고,
상기 정보 삽입 스텝에서는,
상기 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에 상기 소정의 정보를 상기 소정 수로 분할하여 삽입하고, 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보를 부가하는
송신 방법.
(6) 소정의 정보가 삽입된 오디오 압축 데이터 스트림을, 외부 기기로부터 디지털 인터페이스를 통하여 수신하는 스트림 수신부를 구비하고,
상기 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에, 상기 소정의 정보가 분할되어 얻어진 분할 정보 각각이, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보가 부가되어서 삽입되어 있고,
상기 오디오 압축 데이터 스트림에 디코드 처리를 실시하여 오디오 데이터를 얻음과 함께, 상기 제1 정보 및 상기 제2 정보에 기초하여 상기 소정수의 오디오 프레임으로부터 상기 소정의 정보를 구성하는 각 분할 정보를 얻는 디코드 처리부와,
상기 디코드 처리부에서 얻어진 상기 소정의 정보를 이용한 정보 처리를 행하는 정보 처리부를 더 구비하는
수신 장치.
(7) 상기 소정 정보는, 네트워크 액세스 정보이고,
상기 정보 처리부는, 상기 네트워크 액세스 정보를 이용하여 네트워크 상의 소정의 서버에 액세스하여 소정의 미디어 정보를 취득하는
상기 (6)에 기재된 수신 장치.
(8) 상기 소정 정보는, 미디어 파일이고,
상기 정보 처리부는, 상기 미디어 파일의 재생 처리를 행하는
상기 (6)에 기재된 수신 장치.
(9) 상기 소정의 정보에 시간 동기를 관리하기 위한 UTC 베이스의 시각 정보가 부가되어 있고,
상기 정보 처리부는, 상기 소정의 정보를 이용한 정보 처리의 시간 관리를, 해당 소정의 정보에 부가되어 있는 상기 시각 정보에 기초하여 행하는
상기 (6) 내지 (8) 중 어느 한 항에 기재된 수신 장치.
(10) 수신부에 의해, 소정의 정보가 삽입된 오디오 압축 데이터 스트림을, 외부 기기로부터 디지털 인터페이스를 통하여 수신하는 스트림 수신 스텝을 갖고,
상기 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에, 상기 소정의 정보가 분할되어 얻어진 분할 정보 각각이, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보가 부가되어서 삽입되어 있고,
상기 오디오 압축 데이터 스트림에 디코드 처리를 실시하여 오디오 데이터를 얻음과 함께, 상기 제1 정보 및 상기 제2 정보에 기초하여 상기 소정수의 오디오 프레임으로부터 상기 소정의 정보를 구성하는 각 분할 정보를 얻는 디코드 처리 스텝과,
상기 디코드 처리 스텝에서 얻어진 상기 소정의 정보를 이용한 정보 처리를 행하는 정보 처리 스텝을 더 갖는
수신 방법.
본 기술의 주된 특징은, 오디오 스트림의 복수의 오디오 프레임에, 소정의 정보(컨테이너 대상 데이터)를 분할 삽입할 때, 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 「start_flag」 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보 「dcounter」를 부가함으로써, 수신측에 있어서, 소정의 정보의 취득 처리를 용이하고도 적절하게 행할 수 있도록 한 것이다(도 5 참조).
10, 10A: 송수신 시스템
21: 유효 화소 구간
22: 수평 귀선 기간
23: 수직 귀선 기간
24: 비디오 데이터 구간
25: 데이터 아일랜드 구간
26: 컨트롤 구간
31: HDMI 트랜스미터
32: HDMI 리시버
33: DDC
34: CEC 라인
35: HPD 라인
36: 전원 라인
37: 리저브 라인
100: 방송 송출 장치
110: 스트림 생성부
111: 제어부
111a: CPU
112: 비디오 인코더
113: 오디오 인코더
113a: 오디오 부호화 블록부
113b: 오디오 프레이밍부
114: 멀티플렉서
200: 셋톱 박스(STB)
201: CPU
202: 플래시 ROM
203: DRAM
204: 내부 버스
205: 리모컨 수신부
206: 리모컨 송신기
211: 안테나 단자
212: 디지털 튜너
213: 디멀티플렉서
214: 비디오 디코더
215: 오디오 프레이밍부
216: HDMI 송신부
217: HDMI 단자
300: 오디오 앰프(AMP)
301: CPU
302: 플래시 ROM
303: DRAM
304: 내부 버스
305: 리모컨 수신부
306: 리모컨 송신기
311: HDMI 단자
312: HDMI 수신부
313: 오디오 디코더
314: 음성 처리 회로
315: 음성 증폭 회로
316: 음성 출력 단자
400: 스피커 시스템(SP)
500: 텔레비전 수신기(TV)
501: CPU
502: 플래시ROM
503: DRAM
504: 내부 버스
505: 리모컨 수신부
506: 리모컨 송신기
507: 통신 인터페이스
511: 안테나 단자
512: 디지털 튜너
513: 디멀티플렉서
514: 비디오 디코더
515: HDMI 단자
516: HDMI 수신부
517: 영상 처리 회로
518: 패널 구동 회로
519: 표시 패널
520: 오디오 디코더
521: 음성 처리 회로
522: 음성 증폭 회로
523: 스피커
610, 620: HDMI 케이블

Claims (10)

  1. 오디오 데이터에 인코드 처리를 실시하고, 오디오 압축 데이터를 포함하는 오디오 프레임이 연속된 오디오 압축 데이터 스트림을 생성하는 스트림 생성부와,
    상기 오디오 압축 데이터 스트림에 소정의 정보를 삽입하는 정보 삽입부와,
    상기 소정의 정보가 삽입된 오디오 압축 데이터 스트림을 송신하는 스트림 송신부를 구비하고,
    상기 정보 삽입부는,
    상기 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에 상기 소정의 정보를 분할하여 삽입하고, 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보를 부가하는
    송신 장치.
  2. 제1항에 있어서, 상기 정보 삽입부는,
    상기 오디오 압축 데이터 스트림에 상기 소정의 정보를 삽입할 때, 상기 소정의 정보에, 시간 동기를 관리하기 위한 UTC 베이스의 시각 정보를 부가하는
    송신 장치.
  3. 제2항에 있어서, 상기 시각 정보는, 절대 시각 또는 소정의 기준 시각으로부터의 차분값인
    송신 장치.
  4. 제1항에 있어서, 상기 소정의 정보는, 네트워크 액세스 정보 또는 미디어 파일인
    송신 장치.
  5. 오디오 데이터에 인코드 처리를 실시하고, 오디오 압축 데이터를 포함하는 오디오 프레임이 연속된 오디오 압축 데이터 스트림을 생성하는 스트림 생성 스텝과,
    상기 오디오 압축 데이터 스트림에 소정의 정보를 삽입하는 정보 삽입 스텝과,
    송신부에 의해, 상기 소정의 정보가 삽입된 오디오 압축 데이터 스트림을 송신하는 스트림 송신 스텝을 갖고,
    상기 정보 삽입 스텝에서는,
    상기 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에 상기 소정의 정보를 상기 소정 수로 분할하여 삽입하고, 각 분할 정보에, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보를 부가하는
    송신 방법.
  6. 소정의 정보가 삽입된 오디오 압축 데이터 스트림을, 외부 기기로부터 디지털 인터페이스를 통하여 수신하는 스트림 수신부를 구비하고,
    상기 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에, 상기 소정의 정보가 분할되어 얻어진 분할 정보 각각이, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보가 부가되어서 삽입되어 있고,
    상기 오디오 압축 데이터 스트림에 디코드 처리를 실시하여 오디오 데이터를 얻음과 함께, 상기 제1 정보 및 상기 제2 정보에 기초하여 상기 소정수의 오디오 프레임으로부터 상기 소정의 정보를 구성하는 각 분할 정보를 얻는 디코드 처리부와,
    상기 디코드 처리부에서 얻어진 상기 소정의 정보를 이용한 정보 처리를 행하는 정보 처리부를 더 구비하는
    수신 장치.
  7. 제6항에 있어서, 상기 소정 정보는, 네트워크 액세스 정보이고,
    상기 정보 처리부는, 상기 네트워크 액세스 정보를 이용하여 네트워크 상의 소정의 서버에 액세스하여 소정의 미디어 정보를 취득하는
    수신 장치.
  8. 제6항에 있어서, 상기 소정 정보는, 미디어 파일이고,
    상기 정보 처리부는, 상기 미디어 파일의 재생 처리를 행하는
    수신 장치.
  9. 제6항에 있어서, 상기 소정의 정보에 시간 동기를 관리하기 위한 UTC 베이스의 시각 정보가 부가되어 있고,
    상기 정보 처리부는, 상기 소정의 정보를 이용한 정보 처리의 시간 관리를, 해당 소정의 정보에 부가되어 있는 상기 시각 정보에 기초하여 행하는
    수신 장치.
  10. 수신부에 의해, 소정의 정보가 삽입된 오디오 압축 데이터 스트림을, 외부 기기로부터 디지털 인터페이스를 통하여 수신하는 스트림 수신 스텝을 갖고,
    상기 오디오 압축 데이터 스트림의 소정수의 오디오 프레임에, 상기 소정의 정보가 분할되어 얻어진 분할 정보 각각이, 최초의 분할 정보인지 여부를 나타내는 제1 정보 및 분할 위치를 나타내는 내림차순의 카운트수인 제2 정보가 부가되어서 삽입되어 있고,
    상기 오디오 압축 데이터 스트림에 디코드 처리를 실시하여 오디오 데이터를 얻음과 함께, 상기 제1 정보 및 상기 제2 정보에 기초하여 상기 소정수의 오디오 프레임으로부터 상기 소정의 정보를 구성하는 각 분할 정보를 얻는 디코드 처리 스텝과,
    상기 디코드 처리 스텝에서 얻어진 상기 소정의 정보를 이용한 정보 처리를 행하는 정보 처리 스텝을 더 갖는
    수신 방법.
KR1020177025326A 2015-04-07 2016-04-01 송신 장치, 송신 방법, 수신 장치 및 수신 방법 KR20170134367A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015078807 2015-04-07
JPJP-P-2015-078807 2015-04-07
PCT/JP2016/060978 WO2016163325A1 (ja) 2015-04-07 2016-04-01 送信装置、送信方法、受信装置および受信方法

Publications (1)

Publication Number Publication Date
KR20170134367A true KR20170134367A (ko) 2017-12-06

Family

ID=57072593

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177025326A KR20170134367A (ko) 2015-04-07 2016-04-01 송신 장치, 송신 방법, 수신 장치 및 수신 방법

Country Status (6)

Country Link
US (1) US11039182B2 (ko)
EP (1) EP3282709A4 (ko)
JP (1) JP6809450B2 (ko)
KR (1) KR20170134367A (ko)
CN (1) CN107431834B (ko)
WO (1) WO2016163325A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112020015531A2 (pt) * 2018-02-22 2021-02-02 Dolby International Ab método e aparelho para processamento de fluxos de mídias auxiliares integrados em um fluxo de áudio mpeg-h 3d
EP3799042A4 (en) * 2018-05-23 2021-07-14 Sony Corporation TRANSMISSION DEVICE, TRANSMISSION PROCESS, RECEPTION DEVICE AND RECEPTION PROCESS
CN112073789B (zh) * 2019-06-10 2023-04-14 海信视像科技股份有限公司 一种声音处理法及显示设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4530083B2 (ja) * 2002-06-07 2010-08-25 セイコーエプソン株式会社 電気光学装置及び電子機器
US7512278B2 (en) * 2003-04-07 2009-03-31 Modulus Video Inc. Scalable array encoding system and method
CN1764967B (zh) * 2003-07-23 2011-04-13 松下电器产业株式会社 数据处理装置
EP1662793B1 (en) * 2003-09-02 2020-01-15 Sony Corporation Content reception device, video/audio output timing control method, and content providing system
US8878836B2 (en) * 2008-02-29 2014-11-04 Samsung Electronics Co., Ltd. Method and apparatus for encoding datastream including additional information on multiview image and method and apparatus for decoding datastream by using the same
US20110177774A1 (en) * 2010-01-13 2011-07-21 Qualcomm Incorporated Dynamic generation, delivery, and execution of interactive applications over a mobile broadcast network
JP2012010311A (ja) * 2010-05-26 2012-01-12 Sony Corp 送信装置、送信方法、受信装置、受信方法および送受信システム
TWI574565B (zh) * 2011-03-31 2017-03-11 Sony Corp A transmitting apparatus, a transmitting method, a receiving apparatus, a receiving method, a computer-readable medium, and a broadcasting system
KR101946861B1 (ko) * 2011-09-21 2019-02-13 삼성전자주식회사 멀티미디어 방송 서비스의 미디어 데이터 동기화 방법 및 장치
US9930409B2 (en) * 2014-02-10 2018-03-27 Lg Electronics Inc. Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
KR20170007261A (ko) * 2014-05-15 2017-01-18 소니 주식회사 통신 장치 및 통신 방법과 컴퓨터 프로그램

Also Published As

Publication number Publication date
CN107431834A (zh) 2017-12-01
EP3282709A4 (en) 2018-11-21
EP3282709A1 (en) 2018-02-14
JPWO2016163325A1 (ja) 2018-02-08
US20180054634A1 (en) 2018-02-22
JP6809450B2 (ja) 2021-01-06
US11039182B2 (en) 2021-06-15
CN107431834B (zh) 2020-10-09
WO2016163325A1 (ja) 2016-10-13

Similar Documents

Publication Publication Date Title
US10848801B2 (en) Transmission device, transmission method, reception device, and reception method
US20230067389A1 (en) Transmission device, transmission method, reception device, and a reception method
US20120293621A1 (en) Transmission device, transmission method, reception device, and reception method
JP6809450B2 (ja) 送信装置、送信方法、受信装置および受信方法
KR102485250B1 (ko) 송신 장치, 송신 방법, 수신 장치 및 수신 방법
US10812838B2 (en) Transmission device, transmission method, reception device, and reception method
CN113242448A (zh) 发送装置和方法、媒体处理装置和方法以及接收装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right