KR20180064369A - 데이터 처리 장치 및 데이터 처리 방법 - Google Patents

데이터 처리 장치 및 데이터 처리 방법 Download PDF

Info

Publication number
KR20180064369A
KR20180064369A KR1020187003764A KR20187003764A KR20180064369A KR 20180064369 A KR20180064369 A KR 20180064369A KR 1020187003764 A KR1020187003764 A KR 1020187003764A KR 20187003764 A KR20187003764 A KR 20187003764A KR 20180064369 A KR20180064369 A KR 20180064369A
Authority
KR
South Korea
Prior art keywords
time information
data processing
content
processing apparatus
ptp
Prior art date
Application number
KR1020187003764A
Other languages
English (en)
Other versions
KR102523470B1 (ko
Inventor
가즈유키 다카하시
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20180064369A publication Critical patent/KR20180064369A/ko
Application granted granted Critical
Publication of KR102523470B1 publication Critical patent/KR102523470B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L7/00Arrangements for synchronising receiver with transmitter
    • H04L7/04Speed or phase control by synchronisation signals
    • H04L7/041Speed or phase control by synchronisation signals using special codes as synchronising signal
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G5/00Setting, i.e. correcting or changing, the time-indication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/02Arrangements for relaying broadcast information
    • H04H20/08Arrangements for relaying broadcast information among terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/20Arrangements for broadcast or distribution of identical information via plural systems
    • H04H20/22Arrangements for broadcast of identical information via plural broadcast systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/38Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
    • H04H60/40Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/76Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
    • H04H60/78Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by source locations or destination locations
    • H04H60/80Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by source locations or destination locations characterised by transmission among terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • H04J3/0635Clock or time synchronisation in a network
    • H04J3/0638Clock or time synchronisation among nodes; Internode synchronisation
    • H04J3/0658Clock or time synchronisation among packet nodes
    • H04J3/0661Clock or time synchronisation among packet nodes using timestamps
    • H04J3/0664Clock or time synchronisation among packet nodes using timestamps unidirectional timestamps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L27/00Modulated-carrier systems
    • H04L27/26Systems using multi-frequency codes
    • H04L27/2601Multicarrier modulation systems
    • H04L27/2647Arrangements specific to the receiver only
    • H04L27/2655Synchronisation arrangements
    • H04L27/2656Frame synchronisation, e.g. packet synchronisation, time division duplex [TDD] switching point detection or subframe synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L27/00Modulated-carrier systems
    • H04L27/26Systems using multi-frequency codes
    • H04L27/2601Multicarrier modulation systems
    • H04L27/2647Arrangements specific to the receiver only
    • H04L27/2655Synchronisation arrangements
    • H04L27/2668Details of algorithms
    • H04L27/2673Details of algorithms characterised by synchronisation parameters
    • H04L27/2675Pilot or known symbols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L7/00Arrangements for synchronising receiver with transmitter
    • H04L7/0016Arrangements for synchronising receiver with transmitter correction of synchronization errors
    • H04L7/0033Correction by delay

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Electric Clocks (AREA)

Abstract

본 기술은, 시각 정보를 사용하여 정확한 시각 동기를 행할 수 있도록 하는 데이터 처리 장치 및 데이터 처리 방법에 관한 것이다. 데이터 처리 장치는, 디지털 방송 신호를 수신하고, 디지털 방송 신호에 포함되는, 콘텐츠와, 콘텐츠의 제시 동기에 사용되는 시각 정보를 처리하고, 전송로를 통해, 콘텐츠와 함께, 시각 정보를, 콘텐츠의 제시를 행하는 다른 데이터 처리 장치에 송신한다. 한편, 다른 데이터 처리 장치는, 데이터 처리 장치로부터 송신되어 오는 콘텐츠와 시각 정보를, 전송로를 통해 수신하고, 시각 정보에 기초하여, 콘텐츠의 제시 동기를 처리한다. 본 기술은, 예를 들어 콘텐츠를 처리하는 데이터 처리 장치에 적용할 수 있다.

Description

데이터 처리 장치 및 데이터 처리 방법
본 기술은, 데이터 처리 장치 및 데이터 처리 방법에 관한 것으로, 특히, 시각 정보를 사용하여 정확한 시각 동기를 행할 수 있도록 한 데이터 처리 장치 및 데이터 처리 방법에 관한 것이다.
예를 들어, 차세대 지상 방송 규격의 하나인 ATSC(Advanced Television Systems Committee) 3.0에서는, 데이터 전송에, 주로, TS(Transport Stream) 패킷이 아니라, UDP/IP, 즉, UDP(User Datagram Protocol) 패킷을 포함하는 IP(Internet Protocol) 패킷을 사용하는 방식(이하, IP 전송 방식이라고 함)이 채용될 것이 결정되어 있다. 또한, ATSC3.0 이외의 방송 방식에서도, 장래적으로, IP 전송 방식이 채용될 것이 기대되고 있다.
또한, TS를 방송하는 경우에는, 송신측과 수신측에서 동기를 취하기 위한 시각 정보로서, PCR(Program Clock Reference)이 전송된다(예를 들어, 비특허문헌 1 참조).
ARIB STD-B44 일반 사단 법인 전파 산업회
그런데, IP 전송 방식에 있어서는, 송신측과 수신측에서 동기를 취하기 위한 시각 정보를 처리하는 방식이 확립되어 있지 않고, 콘텐츠의 재배신을 행하는 경우 등에 있어서, 시각 정보를 사용하여 정확한 시각 동기를 행할 수 있도록 하기 위한 제안이 요청되고 있었다.
본 기술은 이러한 상황을 감안하여 이루어진 것이며, 시각 정보를 사용하여 정확한 시각 동기를 행할 수 있도록 하는 것이다.
본 기술의 제1 측면의 데이터 처리 장치는, 디지털 방송 신호를 수신하는 수신부와, 상기 디지털 방송 신호에 포함되는, 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보를 처리하는 처리부와, 전송로를 통해, 상기 콘텐츠와 함께, 상기 시각 정보를, 상기 콘텐츠의 제시를 행하는 다른 데이터 처리 장치에 송신하는 송신부를 구비하는 데이터 처리 장치이다.
본 기술의 제1 측면의 데이터 처리 장치는, 독립된 장치여도 되고, 하나의 장치를 구성하고 있는 내부 블록이어도 된다. 또한, 본 기술의 제1 측면의 데이터 처리 방법은, 상술한 본 기술의 제1 측면의 데이터 처리 장치에 대응하는 데이터 처리 방법이다.
본 기술의 제1 측면의 데이터 처리 장치 및 데이터 처리 방법에 있어서는, 디지털 방송 신호가 수신되고, 상기 디지털 방송 신호에 포함되는, 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보가 처리되어, 전송로를 통해, 상기 콘텐츠와 함께, 상기 시각 정보가, 상기 콘텐츠의 제시를 행하는 다른 데이터 처리 장치에 송신된다.
본 기술의 제2 측면의 데이터 처리 장치는, 디지털 방송 신호를 수신 가능한 다른 데이터 처리 장치로부터 송신되어 오는, 상기 디지털 방송 신호에 포함되는 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보를, 전송로를 통해 수신하는 수신부와, 상기 시각 정보에 기초하여, 상기 콘텐츠의 제시 동기를 처리하는 처리부를 구비하는 데이터 처리 장치이다.
본 기술의 제2 측면의 데이터 처리 장치는, 독립된 장치여도 되고, 하나의 장치를 구성하고 있는 내부 블록이어도 된다. 또한, 본 기술의 제2 측면의 데이터 처리 방법은, 상술한 본 기술의 제2 측면의 데이터 처리 장치에 대응하는 데이터 처리 방법이다.
본 기술의 제2 측면의 데이터 처리 장치 및 데이터 처리 방법에 있어서는, 디지털 방송 신호를 수신 가능한 다른 데이터 처리 장치로부터 송신되어 오는, 상기 디지털 방송 신호에 포함되는 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보가, 전송로를 통해 수신되고, 상기 시각 정보에 기초하여, 상기 콘텐츠의 제시 동기가 처리된다.
본 기술의 제1 측면 및 제2 측면에 의하면, 시각 정보를 사용하여 정확한 시각 동기를 행할 수 있다.
또한, 여기에 기재된 효과는 반드시 한정되는 것은 아니며, 본 개시 중에 기재된 어느 효과여도 된다.
도 1은, 본 기술을 적용한 전송 시스템의 일 실시 형태의 구성을 나타내는 도면이다.
도 2는, 송신 시스템의 구성예를 나타내는 도면이다.
도 3은, 수신 시스템의 구성예를 나타내는 도면이다.
도 4는, 송신 시스템에 있어서의 시각 정보 처리를 설명하는 도면이다.
도 5는, 수신 시스템에 있어서의 시각 정보 처리를 설명하는 도면이다.
도 6은, 시각 정보의 신택스 예를 나타내는 도면이다.
도 7은, PTP로부터 UTC로의 변환의 예를 설명하는 도면이다.
도 8은, PTP 프로토콜에 의한 시각 정보의 보정 방법을 설명하는 도면이다.
도 9는, PTP 메시지의 General 헤더에 포함되는 필드의 예를 나타내는 도면이다.
도 10은, General 헤더에 포함되는 messageType의 예를 나타내는 도면이다.
도 11은, Sync 메시지의 포맷의 예를 나타내는 도면이다.
도 12는, Delay_Req 메시지의 포맷의 예를 나타내는 도면이다.
도 13은, Follow_up 메시지의 포맷의 예를 나타내는 도면이다.
도 14는, Delay_Resp 메시지의 포맷의 예를 나타내는 도면이다.
도 15는, 송신측 처리의 흐름을 설명하는 흐름도이다.
도 16은, 수신측 처리의 흐름을 설명하는 흐름도이다.
도 17은, 수신 시스템에 있어서의 마스터 장치와 슬레이브 장치의 구성예를 나타내는 도면이다.
도 18은, 컴퓨터의 구성예를 나타내는 도면이다.
이하, 도면을 참조하면서 본 기술의 실시 형태에 대하여 설명한다. 또한, 설명은 이하의 순서로 행하기로 한다.
1. 시스템의 구성
2. 본 기술에 의한 시각 정보를 사용한 시각 동기 방법
3. 송신측과 수신측에서 실행되는 처리의 흐름
4. 변형예
5. 컴퓨터의 구성
<1. 시스템의 구성>
(전송 시스템의 구성예)
도 1은, 본 기술을 적용한 전송 시스템의 일 실시 형태 구성을 나타내는 도면이다. 또한, 시스템이란, 복수의 장치가 논리적으로 집합된 것을 말한다.
도 1에 있어서, 전송 시스템(1)은, 송신 시스템(10)과 수신 시스템(20)으로 구성된다. 이 전송 시스템(1)에서는, ATSC(Advanced Television Systems Committee) 3.0 등의 IP 전송 방식을 채용한 디지털 방송의 규격에 준거한 데이터 전송이 행해진다.
송신 시스템(10)은, 텔레비전 프로그램 등의 콘텐츠를 포함하는 방송 스트림을, 디지털 방송 신호로서, 전송로(30)를 통해 송신한다.
수신 시스템(20)은, 송신 시스템(10)으로부터, 전송로(30)를 통해 송신되어 오는 디지털 방송 신호를 수신하여, 방송 스트림에 포함되는 콘텐츠를 처리하여 출력한다.
예를 들어, 수신 시스템(20)은, 복수의 장치(예를 들어, 제1 장치와 제2 장치)로 구성되고, 제1 장치(후술하는 도 3의 마스터 장치(211))가, 송신 시스템(10)으로부터의 디지털 방송 신호를 수신하여, 방송 스트림에 포함되는 콘텐츠를 처리한다.
또한, 제1 장치는, 방송 스트림으로부터 취득한 콘텐츠를, 네트워크(전송로)를 통해, 제2 장치에 송신한다. 그리고, 제2 장치(후술하는 도 3의 슬레이브 장치(212))는, 네트워크(전송로)를 통해 제1 장치로부터 송신되어 오는, 텔레비전 프로그램 등의 콘텐츠를 수신하여 처리(재생)한다.
또한, 도 1의 전송 시스템(1)에 있어서는, 설명을 간단하게 하기 위해서, 수신 시스템(20)을 1개만 도시하고 있지만, 수신 시스템(20)은, 복수 설치할 수 있고, 송신 시스템(10)이, 송신하는 디지털 방송 신호는, 전송로(30)를 통해 복수의 수신 시스템(20)에서 동시에 수신할 수 있다.
또한, 송신 시스템(10)도 복수 설치할 수 있다. 복수의 송신 시스템(10) 각각에서는, 별개의 채널로서의, 예를 들어 별개의 주파수 대역에서, 방송 스트림을 포함하는 디지털 방송 신호를 송신하고, 수신 시스템(20)에서는, 복수의 송신 시스템(10) 각각의 채널 중에서, 방송 스트림을 수신하는 채널을 선택할 수 있다.
또한, 도 1의 전송 시스템(1)에 있어서, 전송로(30)는, 지상파 방송 이외에도, 예를 들어 방송 위성(BS: Broadcasting Satellite)이나 통신 위성(CS: Communications Satellite)을 이용한 위성 방송, 또는 케이블을 사용한 유선 방송(CATV) 등이어도 된다.
(송신 시스템의 구성예)
도 2는, 도 1의 송신 시스템(10)의 구성예를 나타내는 도면이다.
도 2에 있어서, 송신 시스템(10)은, 컴포넌트 처리부(111), 시그널링 처리부(112), 시각 정보 처리부(113), 패킷 처리부(114), 변조 처리부(115) 및 RF부(116)로 구성된다.
컴포넌트 처리부(111)는, 거기에 입력되는 콘텐츠를 취득한다. 여기서, 콘텐츠로서는, 예를 들어 중계 장소로부터 전송로나 통신 회선을 통해 보내져 오는 라이브 콘텐츠(예를 들어, 스포츠 중계 등의 생방송 프로그램)나, 스토리지에 축적되어 있는 수록 완료 콘텐츠(예를 들어, 드라마 등의 사전 수록 프로그램) 등이 포함된다.
컴포넌트 처리부(111)는, 콘텐츠를 구성하는 비디오나 오디오의 컴포넌트의 데이터를 처리(예를 들어, 인코드)하고, 그것에 의해 얻어지는 데이터를, 패킷 처리부(114)에 공급한다.
시그널링 처리부(112)는, 시그널링을 생성하여 처리하고, 패킷 처리부(114)에 공급한다. 여기서, 예를 들어 ATSC3.0에서는, 시그널링으로서, LLS(Link Layer Signaling) 시그널링과, SLS(Service Layer Signaling) 시그널링을 규정하는 것이 상정되어 있고, 선행하여 취득되는 LLS 시그널링에 기술되는 정보에 따라서, 서비스마다의 SLS 시그널링이 취득되게 된다.
여기서, LLS 시그널링으로서는, 예를 들어 SLT(Service List Table) 등의 메타데이터가 포함된다. SLT는, 서비스의 선국에 필요한 정보(선국 정보) 등, 방송 네트워크에 있어서의 스트림이나 서비스의 구성을 나타내는 정보를 포함한다.
또한, SLS 시그널링으로서는, 예를 들어 USD(User Service Description), LSID(LCT Session Instance Description), MPD(Media Presentation Description) 등의 메타데이터가 포함된다. USD는, 다른 메타데이터의 취득처 등의 정보를 포함한다. LSID는, ROUTE(Real-Time Object Delivery over Unidirectional Transport) 프로토콜의 제어 정보이다. MPD는, 컴포넌트의 스트림 재생을 관리하기 위한 제어 정보이다. 또한, MPD는, MPEG-DASH(Dynamic Adaptive Streaming over HTTP)의 규격에 준하고 있다.
시각 정보 처리부(113)는, 시각 정보를 처리(생성)하여, 시그널링 처리부(112)에 공급한다. 여기서, 시각 정보로서는, PTP(Precision Time Protocol)로 규정되는 시각의 정보나, NTP(Network Time Protocol)로 규정되어 있는 시각의 정보 등을 사용할 수 있다. 이하의 설명에서는, 시각 정보로서, PTP로 규정되는 시각의 정보가 사용되는 경우를 중심으로 설명한다. 또한, 시각 정보 처리부(113)의 상세에 대해서는, 도 4를 참조하여 후술한다.
또한, 시그널링 처리부(112)는, 물리층의 시그널링(이하, L1 시그널링(L1 Signaling)이라고 함)을 생성하여 처리한다. 여기서, 시그널링 처리부(112)는, 시각 정보 처리부(113)로부터 공급되는 시각 정보(예를 들어, PTP 등)를 시각 정보 기술자로서, L1 시그널링에 포함시킬 수 있다. 시그널링 처리부(112)는, L1 시그널링을, 패킷 처리부(114)에 공급한다.
패킷 처리부(114)는, 컴포넌트 처리부(111)로부터 공급되는 비디오나 오디오의 컴포넌트의 데이터와, 시그널링 처리부(112)로부터 공급되는 시그널링의 데이터를 사용하여, 패킷을 생성하는 처리를 행한다.
여기에서는, 예를 들어 UDP 패킷을 포함하는 IP 패킷(IP/UDP 패킷)이 생성되고, 또한 1개 또는 복수의 IP/UDP 패킷이 캡슐화됨으로써, ALP(ATSC Link-layer Protocol) 패킷이 생성된다. 패킷 처리부(114)에 의해 처리된 패킷은, 변조 처리부(115)에 공급된다.
변조 처리부(115)는, 패킷 처리부(114)로부터 공급되는 패킷을 처리함으로써, 물리층 프레임을 생성하여 처리한다. 여기서, 물리층 프레임은, 부트스트랩(BS: Bootstrap), 프리앰블(Preamble) 및 페이로드로 구성된다. 예를 들어, 시각 정보(시각 정보 기술자)를 포함하는 L1 시그널링은, 프리앰블에 포함될 수 있다.
또한, 변조 처리부(115)에서는, 예를 들어 오류 정정 부호화 처리(예를 들어, BCH 부호화나 LDPC(Low Density Parity Check) 부호화 등)나 변조 처리(예를 들어, OFDM(Orthogonal Frequency Division Multiplexing) 변조 등) 등의 처리도 행해진다. 변조 처리부(115)에 의해 처리된 신호는, RF부(116)에 공급된다.
RF부(116)는, 변조 처리부(115)로부터 공급되는 신호를, RF(Radio Frequency) 신호로 변환하고, 안테나(121)를 통해, IP 전송 방식의 디지털 방송 신호로서 송신한다.
송신 시스템(10)은, 이상과 같이 구성된다. 또한, 도 2에 있어서는, 설명의 사정상, 송신측의 송신 시스템(10)이, 마치 하나의 장치로 구성되듯이 기재되어 있지만, 송신측의 송신 시스템(10)은, 도 2의 블록의 각 기능을 갖는 복수의 장치로 구성되도록 할 수 있다.
(수신 시스템의 구성예)
도 3은, 도 1의 수신 시스템(20)의 구성예를 나타내는 도면이다.
도 3에 있어서, 수신 시스템(20)은, 마스터 장치(211)와, 슬레이브 장치(212)로 구성된다. 또한, 마스터 장치(211)와 슬레이브 장치(212)는, 네트워크(213)를 통한 데이터 전송이 행해진다.
마스터 장치(211)는, 송신 시스템(10)으로부터, 전송로(30)를 통해 송신되어 오는, 디지털 방송 신호를 수신하여, 방송 스트림에 포함되는 콘텐츠를 처리한다. 마스터 장치(211)는, 방송 스트림으로부터 취득한 콘텐츠를, 네트워크(213)를 통해 슬레이브 장치(212)에 송신한다. 한편, 슬레이브 장치(212)는, 네트워크(213)를 통해 마스터 장치(211)로부터 송신되어 오는 콘텐츠를 수신하여, 처리(재생)한다.
여기서, 예를 들어 수신 시스템(20)으로서는, 예를 들어 CATV 재배신 시스템이나 인터넷 배신 시스템, 홈 네트워크 시스템 등을 채용할 수 있다.
예를 들어, 수신 시스템(20)으로서, CATV 재배신 시스템을 채용한 경우, 마스터 장치(211)로서의 CATV 장치(콘텐츠 재배신 장치)와, 슬레이브 장치(212)로서의 텔레비전 수상기가, 네트워크(213)로서의 CATV망을 통해 데이터 전송을 행하게 된다.
또한, 예를 들어 수신 시스템(20)으로서, 인터넷 배신 시스템이 채용된 경우, 마스터 장치(211)로서의 배신 서버(콘텐츠 재배신 장치)와, 슬레이브 장치(212)로서의 정보 기기(예를 들어, 스마트폰이나 태블릿 단말 장치 등)가, 네트워크(213)로서의 인터넷을 통해 데이터 전송을 행하게 된다.
또한, 예를 들어 수신 시스템(20)으로서, 홈 네트워크 시스템이 채용된 경우, 마스터 장치(211)로서의 홈 서버나 텔레비전 수상기와, 슬레이브 장치(212)로서의 정보 기기(예를 들어, 스마트폰이나 태블릿 단말 장치 등)가 네트워크(213)로서의 무선 LAN(Local Area Network) 등의 홈 네트워크를 통해 데이터 전송을 행하게 된다.
또한, 여기에 열거한 CATV 재배신 시스템이나 인터넷 배신 시스템 등은, 수신 시스템(20)의 일례이며, 예를 들어 동일한 기기 내에서, 데이터 전송을 행하는 등, 다른 구성을 채용할 수 있다. 또한, 그것들 구성의 상세에 대해서는, 도 17을 참조하여 후술하기로 한다.
또한, 수신 시스템(20)에 있어서는, 송신 시스템(10)으로부터의 디지털 방송 신호에 포함되는 시각 정보(예를 들어 PTP)를 사용하여, 마스터 장치(211)(의 시각 정보 마스터부(224))의 시각 정보(예를 들어 PTP)와, 슬레이브 장치(212)(의 시각 정보 슬레이브부(232))의 시각 정보(예를 들어 PTP)를 맞추고 있다. 이에 의해, 슬레이브 장치(212)에서는, 콘텐츠를 재생할 때, 제시 동기가 실현되어, 예를 들어 비디오나 오디오의 동기를 취하여, 버퍼를 파탄시키지 않고 적절하게 제시할 수 있다.
여기서, 제시 동기란, 마스터 장치(211)(의 시각 정보 마스터부(224))의 시각 정보와, 슬레이브 장치(212)(의 시각 정보 슬레이브부(232))의 시각 정보를 맞추는 것을 의미한다. 이 제시 동기가 실현되지 않은 경우에는, 슬레이브 장치(212)측에서, 콘텐츠를 재생할 때, 비디오나 오디오의 동기를 취하여, 버퍼를 파탄시키지 않고 적절하게 제시하는 것이 가능하지 않게 된다.
또한, 상세한 것은, 도 8 내지 도 14를 참조하여 후술하겠지만, 마스터 장치(211)(의 시각 정보 마스터부(224))의 시각 정보와, 슬레이브 장치(212)(의 시각 정보 슬레이브부(232))의 시각 정보를 맞추기 위해서는, 마스터 장치(211)로부터 슬레이브 장치(212)로의 전송 지연(통신 지연 시간)을 고려하게 된다.
도 3에 있어서, 마스터 장치(211)는, RF부(221), 복조 처리부(222), 패킷 처리부(223), 시각 정보 마스터부(224) 및 네트워크 I/F(225)로 구성된다.
RF부(221)는, 안테나(241)를 통해, IP 전송 방식의 디지털 방송 신호를 수신하고, RF 신호를, IF(Intermediate Frequency) 신호로 주파수 변환하고, 복조 처리부(222)에 공급한다.
복조 처리부(222)는, RF부(221)로부터 공급되는 신호를 처리함으로써, 물리층 프레임을 처리하여, 패킷을 추출한다. 여기서, 물리층 프레임은, 부트스트랩(BS: Bootstrap), 프리앰블(Preamble) 및 페이로드로 구성된다. 예를 들어, 프리앰블에는, 시각 정보(시각 정보 기술자)를 포함하는 L1 시그널링이 포함되어 있다.
또한, 복조 처리부(222)에서는, 예를 들어 복조 처리(예를 들어 OFDM 복조 등)나 오류 정정 복호 처리(예를 들어 LDPC 복호나 BCH 복호 등) 등의 처리도 행해진다. 복조 처리부(222)에 의해 처리된 신호는, 패킷 처리부(223)에 공급된다.
패킷 처리부(223)는, 복조 처리부(222)로부터 공급되는 패킷을 처리한다. 여기에서는, 예를 들어 ALP 패킷에 대한 처리가 행해지고, 또한 당해 ALP 패킷으로부터 추출되는 IP/UDP 패킷에 대한 처리가 행해진다. 이에 의해, 예를 들어 비디오나 오디오의 컴포넌트나 시그널링 등의 데이터를 포함하는 IP/UDP 패킷(IP 패킷)이 취득된다. 이 IP/UDP 패킷은, 네트워크 I/F(225)에 공급된다.
또한, 패킷 처리부(223)는, 복조 처리부(222)에 의한 물리층 프레임의 처리로, 시각 정보를 포함하는 L1 시그널링이 추출(취득)된 경우, 시각 정보를, 시각 정보 마스터부(224)에 공급한다.
시각 정보 마스터부(224)는, 패킷 처리부(223)로부터 공급되는 시각 정보를 처리하여, 네트워크 I/F(225)에 공급한다. 여기서, 시각 정보로서는, 예를 들어 PTP로 규정되는 시각의 정보 등이 사용된다. 또한, 시각 정보 마스터부(224)의 상세에 대해서는, 도 5나 도 8 내지 도 14 등을 참조하여 후술한다.
네트워크 I/F(225)에는, 패킷 처리부(223)로부터의 IP/UDP 패킷(IP 패킷)과, 시각 정보 마스터부(224)로부터의 시각 정보가 공급된다. 네트워크 I/F(225)는, IP/UDP 패킷이나 시각 정보 등의 데이터를, 전송로로서의 네트워크(213)를 통해 슬레이브 장치(212)에 송신한다.
마스터 장치(211)는, 이상과 같이 구성된다.
한편, 도 3에 있어서, 슬레이브 장치(212)는, 네트워크 I/F(231), 시각 정보 슬레이브부(232), 복호 처리부(233) 및 출력부(234)로 구성된다.
네트워크 I/F(231)는, 마스터 장치(211)로부터, 전송로로서의 네트워크(213)를 통해 송신되어 오는 데이터를 수신한다. 네트워크 I/F(231)는, 수신한 데이터에 포함되는, 비디오나 오디오의 컴포넌트나 시그널링 등의 데이터를 포함하는 IP/UDP 패킷(IP 패킷)을 처리하여, 복호 처리부(233)에 공급한다. 또한, 네트워크 I/F(231)는, 수신한 데이터에 포함되는 시각 정보를, 시각 정보 슬레이브부(232)에 공급한다.
시각 정보 슬레이브부(232)는, 네트워크 I/F(231)로부터 공급되는 시각 정보를 처리하여, 제시 동기 처리를 행하고, 복호 처리부(233)에서 행해지는 복호 처리로, 비디오나 오디오(의 컴포넌트의 데이터)의 동기가 취해져서, 버퍼를 파탄시키지 않고 적절하게 제시되도록 한다. 이 제시 동기 처리에서는, 송신 시스템(10)으로부터의 디지털 방송 신호에 포함되는 시각 정보(예를 들어 PTP)를 사용하여, 마스터 장치(211)(의 시각 정보 마스터부(224))의 시각 정보(예를 들어 PTP)와, 슬레이브 장치(212)(의 시각 정보 슬레이브부(232))의 시각 정보(예를 들어 PTP)를 맞추고 있다.
또한, 여기에서는, 마스터 장치(211)로부터 슬레이브 장치(212)로의 전송 지연(통신 지연 시간)을 고려하게 되는데, 그 상세한 것은, 도 8 내지 도 14를 참조하여 후술한다. 이와 같이, 수신 시스템(20)에 있어서, 송신 시스템(10)으로부터 방송에서 전송되는 시각 정보는, 물리층 프레임에 동기하기 때문에, 정확하게 전송할 수 있지만, 이 시각 정보를, PTP 등의 시각 정보를 전송하기 위한 프로토콜을 사용하여, 마스터 장치(211)로부터 슬레이브 장치(212)에 전송함으로써, 슬레이브 장치(212)에 있어서, 정확하게 제시 동기 처리가 행해지도록 하고 있다. 이에 의해, 예를 들어 마스터 장치(211)로부터 슬레이브 장치(212)에 대하여, 네트워크(213)를 통해 콘텐츠의 재배신을 행하는 경우 등에 있어서도, 슬레이브 장치(212)에서는, 시각 정보를 사용하여 정확한 시각 동기를 행하는 것이 가능해진다.
복호 처리부(233)는, 시각 정보 슬레이브부(232)에 의한 제시 동기 처리에 따라서, 네트워크 I/F(231)로부터 공급되는 비디오나 오디오의 컴포넌트의 데이터를 복호하고, 출력부(234)에 공급한다.
출력부(234)에는, 복호 처리부(233)로부터 비디오나 오디오의 컴포넌트의 데이터가 공급된다. 출력부(234)는, 비디오의 컴포넌트의 데이터에 대응하는 영상을, 표시부(도시하지 않음)에 표시하고, 오디오의 컴포넌트의 데이터에 대응하는 음성을, 스피커(도시하지 않음)로부터 출력한다. 이에 의해, 슬레이브 장치(212)에서는, 송신 시스템(10)으로부터 전송로(30)를 통해 송신된 콘텐츠이며, 마스터 장치(211)로부터 네트워크(213)를 통해 배신(재배신)된 콘텐츠가 수신되어, 재생되게 된다.
슬레이브 장치(212)는, 이상과 같이 구성된다.
<2. 본 기술에 의한 시각 정보를 사용한 시각 동기 방법>
(PTP 프로토콜의 개요)
그런데, 상술한 바와 같이, 시각 정보로서는, PTP(Precision Time Protocol)로 규정되는 시각의 정보를 채용할 수 있다. PTP는, IEEE1588에서 규정되어 있고, 80비트로 구성된다.
80비트의 PTP는, 초 단위의 시각을 나타내는 48비트의 초 필드(seconds Field)와, 나노초 단위의 시각을 나타내는 32비트의 나노초 필드(nanoseconds Field)로 구성된다.
초 필드의 1은, 1초를 나타내고, 나노초 필드의 1은, 1나노초를 나타낸다. 따라서, 예를 들어 +2.000000001초를 나타내는 PTP에서는, 초 필드는, 0x000000000002가 되고, 나노초 필드는, 0x00000001이 된다. 또한, 「0x」는, 그 후에 이어지는 값이 16진수인 것을 나타낸다.
여기서, 109나노초는, 1초이기 때문에, 나노초 필드는, 0 내지 109 미만의 값을 취한다. 즉, 나노초 필드의 최댓값은, 109-1이다. 109-1은, 30비트로 표현할 수 있으므로, 32비트의 나노초 필드의 상위 2비트는, 상시 0이 된다.
IEEE1588에서는, PTP가 나타내는 시각의 기점인 에포크(epoch)가, 국제 원자시(TAI(International Atomic Time))의 1970년 1월 1일의 0시라고 규정되어 있다. 즉, IEEE1588의 PTP는, TAI의 1970년 1월 1일의 0시를 에포크로 하는 시각을 나타낸다.
또한, 물리층 프레임에 포함되는 시각 정보로서, PTP로 규정되는 시각의 정보를 채용한 경우, PTP로 규정되는 시각의 정보는, 물리층 프레임에 포함되는 시각 정보로서는, 충분한 입도가 있고, 정확한 시각을 나타낼 수 있다.
시각 정보는, 수신 시스템(20)에서 정확한 시각을 재생하는 관점에서, 보다 정확한 시각을 나타내는 것이 바람직하고, PTP로 규정되는 시각의 정보를, 물리층 프레임에 포함되는 시각 정보로서 채용한 경우에는, 정확한 시각 정보를 전송하고, 수신 시스템(20)에서 정확한 시각을 재생할 수 있다. 또한, PTP로 규정되는 시각의 정보에 대해서는, 리프초(윤초)의 문제는 발생하지 않는다.
그런데, PTP에 의하면, 매우 정확한 시각을 표현할 수 있지만, 도 1의 전송 시스템(1)에서 방송을 행하는 경우에, 그 방송에 필요 이상의 정밀도의 시각 정보를 전송하는 것은, 전송 대역을 압박하여, 효율적이지 않다. 80비트의 PTP는, 방송에 의한 서비스의 제공에 있어서, 필요 이상의 정밀도의 시각 정보이며, PTP의 정보량을, 어느 정도 저하시켜도, 방송에 의한 서비스의 제공을 충분히 유지할 수 있다.
그래서, 도 1의 전송 시스템(1)에서는, 시각 정보로서의 PTP를, 그 정보량을 저하시켜 전송할 수 있다. PTP의 정보량을 저하시키는 방법으로서는, 예를 들어, PTP를 압축하는 방법이 있다. 여기에서는, 시각 정보로서의 PTP(압축된 PTP)가, 물리층 프레임의 프리앰블에 포함되어 전송되는 경우에 있어서의, 송신측의 송신 시스템(10)과, 수신측의 수신 시스템(20)에서 행해지는 시각 정보(PTP)에 관한 처리(시각 정보 처리)에 대하여 설명한다.
(송신측의 시각 정보 처리)
도 4는, 송신측의 송신 시스템(10)에 있어서의 시각 정보 처리를 설명하는 도면이다.
도 4에 있어서는, 송신측의 송신 시스템(10)(도 1)에 있어서의 시각 정보 처리로서, 시각 정보로서의 PTP를 압축하는 경우에, 초 필드를, 32비트로 압축함과 함께, 나노초 필드를 19비트로 압축하는 경우의 예를 나타내고 있다. 또한, 이 압축 PLP는, 시각 정보(시각 정보 기술자)로서, 물리층 프레임의 프리앰블에 포함될 수 있다.
송신 시스템(10)에 있어서는, 시각 정보 처리부(113)(도 2)에, 48비트의 초 필드와, 32비트의 나노초 필드로 구성되는 80비트의 PTP가 공급된다. 시각 정보 처리부(113)는, 48비트의 초 필드의, 예를 들어 상위 16비트를 삭제함으로써, 48비트의 초 필드를, 32비트의 초 필드(이하, 압축 초 필드라고도 함)로 압축한다.
또한, 시각 정보 처리부(113)는, 32비트의 나노초 필드의, 예를 들어 하위 13비트를 삭제함으로써, 32비트의 나노초 필드를, 19비트의 나노초 필드(이하, 압축 나노초 필드라고도 함)로 압축한다.
그리고, 시각 정보 처리부(113)는, 32비트의 압축 초 필드와, 19비트의 압축 나노초 필드로 압축된 51비트의 PTP(이하, 압축 PTP라고도 함)를 시각 정보 기술자에 포함되어, 시그널링 처리부(112)(도 2)에 공급한다.
이와 같이, PTP를 압축하는 방법에서는, PTP의 초 필드 및 나노초 필드 각각의 일부의 비트가 삭제됨으로써, PTP가, 소위 중간 포맷의 압축 PTP(압축 시각 정보)로 압축되어 전송된다.
또한, 송신 시스템(10)에 있어서, 변조 처리부(115)(도 2)는, 물리층 프레임을 처리할 때, 시각 정보 처리부(113)에 의해 처리된 압축 PTP를, 시각 정보로서, 프리앰블(Preamble)에 포함되도록 할 수 있다. 단, 시각 정보(압축 PTP)는, 시각 정보 기술자로서, L1 시그널링에 포함되어, 프리앰블(Preamble)에 배치되도록 할 수 있다.
또한, 시각 정보(압축 PTP)는, 프리앰블(Preamble)에 한정되지 않고, 물리층 프레임의 페이로드(Payload) 등에 포함되도록 해도 된다. 또한, 시각 정보(압축 PTP)는, 모든 물리층 프레임에 포함되지 않도록 함으로써, 시각 정보(압축 PTP)의 전송 빈도를 저하시킬 수 있다.
(수신측의 시각 정보 처리)
도 5는, 수신측의 수신 시스템(20)에 있어서의 시각 정보 처리를 설명하는 도면이다.
도 5에 있어서는, 수신측의 수신 시스템(20)(도 1)에 있어서의 시각 정보 처리로서, 물리층 프레임의 프리앰블에 포함될 수 있는 압축 PTP를 취득하고, 그 압축 PTP를, IEEE1588에서 규정하는 포맷의 PTP로 복원하는 경우의 예를 나타내고 있다.
수신 시스템(20)에 있어서, 복조 처리부(222)(도 3)는, 물리층 프레임을 처리할 때, 그 프리앰블(Preamble)에, 시각 정보(압축 PTP)가 포함되는 경우, 시각 정보(압축 PTP)를 취득할 수 있다. 단, 시각 정보(압축 PTP)는, 시각 정보 기술자로서, L1 시그널링에 포함된다.
그리고, 수신 시스템(20)에 있어서는, 시각 정보 마스터부(224)(도 3)가, 시각 정보 기술자에 포함되는 압축 PTP를 취득하고, 그 압축 PTP를, IEEE1588에서 규정하는 포맷의 PTP로 복원한다.
즉, 시각 정보 마스터부(224)는, 압축 PTP의 32비트의 압축 초 필드의 상위 비트로서, 16비트의 0을 부가(추가)함으로써, 32비트의 압축 초 필드를, 48비트의 초 필드로 복원한다.
또한, 시각 정보 마스터부(224)는, 압축 PTP의 19비트의 압축 나노초 필드의 하위 비트로서, 13비트의 0을 부가함으로써, 19비트의 압축 나노초 필드를, 32비트의 나노초 필드로 복원한다.
그리고, 시각 정보 마스터부(224)는, 48비트의 초 필드와, 32비트의 나노초 필드로 구성되는, IEEE1588에서 규정하는 포맷의 PTP로 복원한다.
또한, 송신 시스템(10)의 시각 정보 처리부(113)(도 4)에서는, 32비트의 나노초 필드의, 하위 13비트를 삭제함과 함께, 상술한 바와 같이, 상시 0이 되고 있는 상위 2비트를 삭제하고, 32비트의 나노초 필드를, 17비트의 압축 나노초 필드로 압축할 수 있다.
이 경우, 수신 시스템(20)의 시각 정보 마스터부(224)(도 5)에서는, 17비트의 압축 나노초 필드의 하위 비트로서, 13비트의 0을 부가함과 함께, 상위 비트로서, 2비트의 0을 부가함으로써, 17비트의 압축 나노초 필드가, 32비트의 나노초 필드로 복원된다.
또한, PTP의 에포크로서, 표준 에포크가 아니라, 독자 에포크를 채용하는 경우에는, 송신 시스템(10)의 시각 정보 처리부(113)(도 4)는, 표준 에포크와 독자 에포크의 차분(독자 에포크-표준 에포크)에 대응하는 시간(이하, 차분 시간이라고도 함)을, PTP로부터 감산하고 나서, 그 감산 후의 PTP를, 압축 PTP로 압축한다.
이 경우, 수신 시스템(20)의 시각 정보 마스터부(224)(도 5)는, 압축 초 필드 및 압축 나노초 필드를, 초 필드 및 나노초 필드로 복원한 후에, 그 복원 후의 초 필드 및 나노초 필드에, 차분 시간을 가산함으로써, IEEE1588에서 규정하는 포맷의 PTP(표준 에포크의 PTP)를 복원한다.
(시각 정보의 구조)
도 6은, L1 시그널링(L1_Detail_signaling)에 포함되는 시각 정보(시각 정보 기술자)의 신택스의 예를 나타내는 도면이다.
도 6의 L1 시그널링에 있어서는, 시각 정보의 유무를 나타내는 플래그(L1B_clock_info_flag)가 서있는 경우에, 시각 정보(시각 정보 기술자)가 배치된다.
이 시각 정보(시각 정보 기술자)에는, 32비트의 초 필드(PTP_sec)와, 17비트의 압축 나노초 필드(PTP_nanosec)로 구성되는 압축 PTP가 포함되어 있다.
단, 이 예에서는, 17비트의 압축 나노초 필드(PTP_nanosec)가 배치되는 예를 나타내고 있지만, 17비트의 압축 나노초 필드 대신에, 19비트의 압축 나노초 필드가 배치되도록 해도 된다.
8비트의 PTP_UTC_offset는, PTP와 UTC(협정 세계시)의 오프셋 정보이다. PTP_UTC_offset에서는, PTP와 UTC의 시간차(차분)를, 초 단위로 지정할 수 있다.
이 PTP_UTC_offset를 사용함으로써 PTP를, UTC로 변환할 수 있다. 또한, 도 7에는, PTP로부터 UTC로의 변환의 예가 나타나 있다. 즉, 하기 식 (1)을 연산함으로써, PTP 포맷의 초가, NTP 포맷의 초로 변환된다.
UTC_seconds=PTP_sec+PTP_UTC_offset ㆍㆍㆍ(1)
UTC_seconds: NTP 포맷의 초
PTP_sec: PTP 포맷의 초
PTP_UTC_offset: PTP와 UTC 사이의 차분
또한, 하기 식 (2)를 연산함으로써, PTP 포맷의 나노초가, NTP 포맷의 서브초로 변환된다.
UTC_fraction=PTP_nanosec ㆍㆍㆍ(2)
UTC_fraction: NTP 포맷의 서브초
PTP_nanosec: PTP 포맷의 나노초
(PTP의 시각 정보의 보정 방법)
도 8은, PTP 프로토콜에 의한 시각 정보의 보정 방법을 설명하는 도면이다.
도 8에 있어서, 「Master time」은, 마스터 장치(211)(의 시각 정보 마스터부(224))에서 처리되는 시각 정보의 계열로 되고, 「Slave time」은, 슬레이브 장치(212)(의 시각 정보 슬레이브부(232))에서 처리되는 시각 정보의 계열로 된다.
마스터 장치(211)의 시각 정보 마스터부(224)는, Sync 메시지를, 슬레이브 장치(212)의 시각 정보 슬레이브부(232)에 송신한다(S11). 이 Sync 메시지에 의해, 마스터 장치(211)로부터 슬레이브 장치(212)로, 시각 정보가 통지된다.
이때, 마스터 장치(211)의 시각 정보 마스터부(224)는, Sync 메시지의 송출 시각 t1을 기록한다. 한편, 슬레이브 장치(212)의 시각 정보 슬레이브부(232)는, Sync 메시지의 도착 시각 t2를 기록한다.
또한, 마스터 장치(211)의 시각 정보 마스터부(224)는, Follow_up 메시지를, 슬레이브 장치(212)의 시각 정보 슬레이브부(232)에 송신한다(S12). 이 Follow_up 메시지에 의해, 마스터 장치(211)로부터 슬레이브 장치(212)로, Sync 메시지의 송출 시각 t1이 통지된다. 이에 의해, 슬레이브 장치(212)의 시각 정보 슬레이브부(232)에는, Sync 메시지의 도착 시각 t2와 함께, 그 Sync 메시지의 송출 시각 t1이 기록된다.
슬레이브 장치(212)의 시각 정보 슬레이브부(232)는, Delay_Req 메시지를, 마스터 장치(211)의 시각 정보 마스터부(224)에 송신한다(S13).
이때, 슬레이브 장치(212)의 시각 정보 슬레이브부(232)는, Delay_Req 메시지의 송출 시각 t3을 기록한다. 한편, 마스터 장치(211)의 시각 정보 마스터부(224)는, Delay_Req 메시지의 도착 시각 t4를 기록한다.
또한, 마스터 장치(211)의 시각 정보 마스터부(224)는, Delay_Resp 메시지를, 슬레이브 장치(212)의 시각 정보 슬레이브부(232)에 송신한다(S14). 이 Delay_Resp 메시지에 의해, 마스터 장치(211)로부터 슬레이브 장치(212)에, Delay_Req 메시지의 도착 시각 t4가 통지된다. 이에 의해, 슬레이브 장치(212)의 시각 정보 슬레이브부(232)에는, Delay_Req 메시지의 송출 시각 t3과 함께, 그 Delay_Req 메시지의 도착 시각 t4가 기록된다.
그리고, 슬레이브 장치(212)의 시각 정보 슬레이브부(232)에서는, 기록된 메시지의 송출 시각과 도착 시각에 기초하여, 마스터 장치(211)와 슬레이브 장치(212) 사이의 통신 지연 시간이 산출된다. 단, 이 통신 지연 시간(meanPathDelay)은, 하기 식 (3)을 연산함으로써 산출되게 된다.
meanPathDelay={(t2-t1)+(t4-t3)} ㆍㆍㆍ(3)
t1: Sync 메시지의 송출 시각
t2: Sync 메시지의 도착 시각
t3: Delay_Req 메시지의 송출 시각
t4: Delay_Req 메시지의 도착 시각
이와 같이 하여 식 (1)에 의해 산출된 통신 지연 시간(meanPathDelay)을 사용하여, Sync 메시지에 의해 전송되는 시각 정보를 보정함으로써(예를 들어, 시각 정보가 나타내는 시각에, 통신 지연 시간을 가산함으로써), 슬레이브 장치(212)의 시각 정보 슬레이브부(232)에 있어서, Sync 메시지에 의해 전송되는 시각 정보에 기초한 정확한 시각을 구할 수 있다.
또한, 도 8의 예에서는, 통신 지연 시간이 가변인 것을 전제로, 슬레이브 장치(212)의 시각 정보 슬레이브부(232)에서, 통신 지연 시간을 측정하는 경우를 설명했지만, 마스터 장치(211)와 슬레이브 장치(212) 사이의 통신 지연 시간이 고정값인 경우에는, 당해 통신 지연 시간을 측정하지 않고, 미리 정해진 고정값(의 통신 지연 시간)을, Sync 메시지에 의해 전송되는 시각 정보(이 나타내는 시각)에 가산하도록 해도 된다.
(General 헤더의 필드의 예)
도 9는, PTP 메시지의 General 헤더에 포함되는 필드의 예를 나타내는 도면이다.
PTP 메시지는, 34바이트의 General 헤더와, 10바이트의 메시지의 필드로 구성된다. General 헤더에는, 도 9에 나타낸 필드가 포함된다.
4비트의 transportSpecific에는, 하드웨어에 의존하여 일의적으로 결정되는 값이 지정된다.
4비트의 messageType에는, 메세지 타입에 따라서 일의적으로 결정되는 값이 지정된다. 여기서, 도 10에는, 메세지 타입의 예를 나타내고 있다. 즉, 도 10에 도시한 바와 같이, messageType에는, 예를 들어 "Sync"나 "Delay_Req", "Follow_up", "Delay_Resp" 등의 메세지 타입에 따른 값(value)이 지정된다.
도 9의 설명으로 돌아가서, 4비트의 versionPTP에는, 메시지 생성 노드의 데이터 세트의 portDS.versionNumber member의 값이 지정된다. 16비트의 messageLength에는, PTP 메시지의 전 비트수가 지정된다.
8비트의 domainNumber에는, 메시지를 생성하는 ordinary clock 노드, 또는 boundary clock 노드의 데이터 세트의 defaultDS.domainNumber member의 값이 지정된다.
16비트의 flagField는, 2바이트(16비트)에 있어서의 각 비트에서, 메시지마다에 의미를 갖는 플래그가 된다. 예를 들어, flagField에 있어서, 1바이트째의 1비트는, Sync 메시지 또는 Delay_Resp 메시지를 나타내도록 할 수 있다.
64비트의 correctionField에는, 예를 들어 체류 시간이나 전송 지연 등의 수정값이 지정된다. 80비트의 sourcePortIdentity에는, 메시지 생성 노드의 데이터 세트의 portDS. PortIdentity member의 값이 지정된다.
16비트의 sequenceID에는, 타임 스탬프(Time Stamp)를 교환하는 메시지 세트를 관리하기 위한 값이 지정된다. 8비트의 controlField는, PTP의 버전 1용 하드웨어와의 호환성을 위해 준비된 필드이다. 8비트의 logMessageInterval에는, 메세지 타입에 의해 결정되는 값이 지정된다.
(Sync 메시지의 포맷의 예)
도 11은, Sync 메시지의 포맷의 예를 나타내는 도면이다.
도 11에 있어서, Sync 메시지는, 34바이트의 General 헤더(도 9)와, 10바이트의 Sync 메시지의 필드로 구성된다. 여기서, General 헤더의 messageType에는, "Sync"인 메세지 타입에 따른 값(value="0")이 지정된다. 또한, Sync 메시지의 필드에는, 시각 정보(originTimestamp)가 배치된다.
(Delay_Req 메시지의 포맷의 예)
도 12는, Delay_Req 메시지의 포맷의 예를 나타내는 도면이다.
도 12에 있어서, Delay_Req 메시지는, 34바이트의 General 헤더(도 9)와, 10바이트의 Delay_Req 메시지의 필드로 구성된다. 여기서, General 헤더의 messageType에는, "Delay_Req"인 메세지 타입에 따른 값(value="1")이 지정된다. 또한, Delay_Req 메시지의 필드에는, Delay_Req 메시지를 송신한 노드의 시각 정보(originTimestamp)가 배치된다.
(Follow_up 메시지의 포맷의 예)
도 13은, Follow_up 메시지의 포맷의 예를 나타내는 도면이다.
도 13에 있어서, Follow_up 메시지는, 34바이트의 General 헤더(도 9)와, 10바이트의 Follow_up 메시지의 필드로 구성된다. 여기서, General 헤더의 messageType에는, "Follow_up"인 메세지 타입에 따른 값(value="8")이 지정된다. 또한, Follow_up 메시지의 필드에는, Sync 메시지를 송신한 시각을 나타내는 시각 정보(preciseOriginTimestamp), 즉, Sync 메시지의 송출 시각 t1이 배치된다.
(Delay_Resp 메시지의 포맷의 예)
도 14는, Delay_Resp 메시지의 포맷의 예를 나타내는 도면이다.
도 14에 있어서, Delay_Resp 메시지는, 34바이트의 General 헤더(도 9)와, 20바이트의 Delay_Resp 메시지의 필드로 구성된다. 여기서, General 헤더의 messageType에는, "Delay_Resp"인 메세지 타입에 따른 값(value="9")이 지정된다.
또한, Delay_Resp 메시지의 필드는, 10비트의 시각 정보(receiveTimestamp)와, 10비트의 requestingPortIdentity가 배치된다. 시각 정보(receiveTimestamp)는, Delay_Req 메시지를 수신한 시각, 즉, Delay_Req 메시지의 도착 시각 t4를 나타내고 있다. 또한, requestingPortIdentity에는, Delay_Req 메시지의 sourcePortIdentity의 값이 카피된다.
<3. 송신측과 수신측에서 실행되는 처리의 흐름>
이어서, 도 15 및 도 16의 흐름도를 참조하여, 송신측의 송신 시스템(10)과, 수신측의 수신 시스템(20)에서 실행되는 처리의 흐름에 대하여 설명한다.
(송신측 처리)
먼저, 도 15의 흐름도를 참조하여, 송신측의 송신 시스템(10)에 의해 실행되는 송신측 처리의 흐름에 대하여 설명한다.
스텝 S111에 있어서, 시각 정보 처리부(113)는, PTP 등의 시각 정보를 처리한다.
여기에서는, 예를 들어 도 4에 도시한 바와 같이, 48비트의 초 필드와, 32비트의 나노초 필드로 구성되는 80비트의 PTP가, 32비트의 압축 초 필드와, 19비트의 압축 나노초 필드로 구성되는 51비트의 압축 PTP로 압축된다.
스텝 S112에 있어서, 컴포넌트 처리부(111) 및 시그널링 처리부(112)는, 시그널링·컴포넌트 처리를 행한다.
이 시그널링·컴포넌트 처리에서는, 콘텐츠를 구성하는 비디오나 오디오의 컴포넌트와, LLS 시그널링이나 SLS 시그널링 등의 시그널링이 처리된다. 또한, 시그널링·컴포넌트 처리에서는, 시각 정보 처리부(113)에 의해 처리된 시각 정보(예를 들어, 압축 PTP)가, 시각 정보 기술자로서 L1 시그널링에 포함될 수 있다.
스텝 S113에 있어서, 패킷 처리부(114), 변조 처리부(115) 및 RF부(116)는, 디지털 방송 신호의 송신 처리를 행한다.
이 디지털 방송 신호의 송신 처리에서는, 비디오나 오디오의 컴포넌트의 데이터와, 시그널링의 데이터를 사용한, IP/UDP 패킷 등의 패킷을 생성하는 처리가 행해진다. 또한, 디지털 방송 신호의 송신 처리에서는, 물리층 프레임을 생성하는 처리가 행해진다. 단, 물리층 프레임(도 4)의 프리앰블에는, 시각 정보(예를 들어, 압축 PTP)를 포함하는 L1 시그널링이 포함된다.
그리고, 디지털 방송 신호의 송신 처리에서는, 물리층 프레임을 처리하여 얻어지는 신호가, RF 신호로 변환되고, 안테나(121)를 통해, IP 전송 방식의 디지털 방송 신호로서 송신된다.
이상, 송신측 처리의 흐름에 대하여 설명하였다.
(수신측 처리)
이어서, 도 16의 흐름도를 참조하여, 수신측의 수신 시스템(20)에 의해 실행되는 수신측 처리의 흐름에 대하여 설명한다. 단, 도 16에 있어서, 스텝 S211 내지 S214의 처리는, 마스터 장치(211)에 의해 실행되고, 스텝 S231 내지 S234의 처리는, 슬레이브 장치(212)에 의해 실행된다.
스텝 S211에 있어서, 마스터 장치(211)의 RF부(221), 복조 처리부(222) 및 패킷 처리부(223)는, 디지털 방송 신호의 수신 처리를 행한다. 이 디지털 방송 신호의 수신 처리에서는, 안테나(241)를 통해, IP 전송 방식의 디지털 방송 신호가 수신되고, RF 신호가, IF 신호로 주파수 변환된다.
또한, 디지털 방송 신호의 수신 처리에서는, 물리층 프레임이 처리되고, 패킷이 추출된다. 단, 물리층 프레임(도 5)의 프리앰블에는, 시각 정보(예를 들어, 압축 PTP)를 포함하는 L1 시그널링이 포함되어 있고, 그곳으로부터 시각 정보가 취득된다. 또한, 디지털 방송 신호의 수신 처리에서는, 물리층 프레임으로부터 추출된 패킷이 처리된다.
스텝 S212에 있어서, 마스터 장치(211)의 패킷 처리부(223)는, 시그널링·컴포넌트 처리를 행한다. 이 시그널링·컴포넌트 처리에서는, 예를 들어 비디오나 오디오의 컴포넌트나 시그널링 등의 데이터를 포함하는 IP/UDP 패킷(IP 패킷)이 처리된다.
스텝 S213에 있어서, 마스터 장치(211)의 시각 정보 마스터부(224)는, 압축 PTP 등의 시각 정보를 처리한다.
여기에서는, 예를 들어 도 5에 도시한 바와 같이, 32비트의 압축 초 필드와, 19비트의 압축 나노초 필드로 구성되는 51비트의 압축 PTP가, 48비트의 초 필드와, 32비트의 나노초 필드로 구성되는 80비트의 PTP로 복원된다.
스텝 S214에 있어서, 네트워크 I/F(225)는, IP/UDP 패킷이나 시각 정보(PTP) 등의 데이터를, 네트워크(213)를 통해 슬레이브 장치(212)에 송신한다.
마스터 장치(211)에 의해, 스텝 S211 내지 S214의 처리가 행해지면, 그것에 따라서, 슬레이브 장치(212)에서는, 스텝 S231 내지 S234의 처리가 행해진다. 즉, 스텝 S231에 있어서, 네트워크 I/F(231)는, 마스터 장치(211)로부터, 네트워크(213)를 통해 송신되어 오는 데이터를 수신한다.
스텝 S232에 있어서, 시각 정보 슬레이브부(232)는, 마스터 장치(211)로부터의 데이터에 포함되는 시각 정보(PTP)를 처리하고, 제시 동기 처리를 행하고, 복호 처리부(233)에서 행해지는 복호 처리로, 비디오나 오디오(의 컴포넌트의 데이터)의 동기가 취해져서, 버퍼를 파탄시키지 않고 적절하게 제시되도록 한다.
이 제시 동기 처리에서는, 송신 시스템(10)으로부터의 디지털 방송 신호에 포함되는 시각 정보(예를 들어 PTP)를 사용하여, 마스터 장치(211)(의 시각 정보 마스터부(224))의 시각 정보(예를 들어 PTP)와, 슬레이브 장치(212)(의 시각 정보 슬레이브부(232))의 시각 정보(예를 들어 PTP)를 맞추고 있다. 또한, 여기서는, 도 8 내지 도 14를 참조하여 설명한 바와 같이, 마스터 장치(211)의 시각 정보 마스터부(224)와, 슬레이브 장치(212)의 시각 정보 슬레이브부(232)가, 메시지를 주고 받음으로써, 전송 지연(통신 지연 시간)에 따라서, PTP의 시각 정보가 보정된다.
즉, 수신 시스템(20)에 있어서, 송신 시스템(10)으로부터 방송에서 전송되는 시각 정보는, 물리층 프레임에 동기하기 때문에, 정확하게 전송할 수 있지만, 이 시각 정보를, PTP 등의 시각 정보를 전송하기 위한 프로토콜을 사용하여, 마스터 장치(211)로부터 슬레이브 장치(212)에 전송함으로써, 슬레이브 장치(212)에 있어서, 정확하게 제시 동기 처리가 행해지도록 하고 있다. 이에 의해, 예를 들어 마스터 장치(211)로부터 슬레이브 장치(212)에 대하여, 네트워크(213)를 통해 콘텐츠의 재배신을 행하는 경우 등에 있어서도, 슬레이브 장치(212)에서는, 시각 정보를 사용하여 정확한 시각 동기를 행하는 것이 가능해진다.
또한, 인터넷 상에 설치된 NTP(Network Time Protocol) 서버를 참조함으로써, 정확한 시각 정보를 취득하는 것이 일반적이기는 하지만, 전송로(30)를 통해 전송되는 디지털 방송 신호는, 송신 시스템(10)(송신소)으로부터의 전송 지연(Propagation Delay)에 의해, 콘텐츠의 시각 정보와, 인터넷 상의 NTP 서버로부터의 시각 정보에는 오차가 발생해버린다. 그래서, 본 기술에서는, NTP 서버로부터의 시각 정보가 아니라, 송신 시스템(10)으로부터 전송되는 물리층 프레임에 포함되는 시각 정보를 사용함으로써 이 문제를 회피하고 있다.
스텝 S233에 있어서, 복호 처리부(233)는, 시각 정보 슬레이브부(232)에 의한 제시 동기 처리에 따라서, 마스터 장치(211)로부터의 데이터에 포함되는 비디오나 오디오의 컴포넌트의 데이터에 대하여 복호 처리를 행한다.
스텝 S234에 있어서, 출력부(234)는, 복호 처리부(233)에 의해 복호된 비디오의 컴포넌트의 데이터에 대응하는 영상을, 표시부(도시하지 않음)에 표시한다. 또한, 출력부(234)는, 복호 처리부(233)에 의해 복호된 오디오의 컴포넌트의 데이터에 대응하는 음성을, 스피커(도시하지 않음)로부터 출력한다.
이에 의해, 슬레이브 장치(212)에서는, 송신 시스템(10)으로부터 전송로(30)를 통해 송신된 콘텐츠이며, 마스터 장치(211)로부터 네트워크(213)를 통해 배신(재배신)된 콘텐츠가 수신되어, 재생되게 된다.
이상, 수신측 처리의 흐름에 대하여 설명하였다.
<4. 변형예>
(수신측의 수신 시스템의 구성예)
도 17은, 수신 시스템(20)에 있어서의, 마스터 장치(211)와 슬레이브 장치(212)의 구성예를 나타내는 도면이다. 또한, 도 17에 있어서는, 도 17의 A 내지 도 17의 E에 의해, 수신 시스템(20)의 일례로서, CATV 재배신 시스템(20A), 인터넷 배신 시스템(20B), 홈 네트워크 시스템(20C), 수신 장치(20D) 및 차량 탑재 시스템(20E)의 구성예를 나타내고 있다.
(A) CATV 재배신 시스템
도 17의 A는, CATV 재배신 시스템(20A)의 구성예를 나타내고 있다. 이 CATV 재배신 시스템(20A)에 있어서는, 마스터 장치(211)로서의 CATV 장치(211A)와, 슬레이브 장치(212)로서의 텔레비전 수상기(212A)가, CATV망(213A)을 통해 데이터 전송을 행한다.
여기서, CATV 장치(211A)는, 송신 시스템(10)에 의해, 지상파 방송 등에서 방송된 콘텐츠를, 케이블 텔레비전으로 재배신하기 위한 재배신 장치이다. CATV 장치(211A)는, 예를 들어 케이블 텔레비전 사업자 등에 의해 제공된다. 한편, 텔레비전 수상기(212A)는, 각 가정 등에 설치되는 케이블 텔레비전에 대응한 텔레비전 수상기이다. 텔레비전 수상기(212A)는, CATV 장치(211A)로부터, CATV망(213A)을 통해 재배신된 콘텐츠를 수신하여, 재생할 수 있다.
또한, CATV 재배신 시스템(20A)에 있어서는, 송신 시스템(10)으로부터의 디지털 방송 신호에 포함되는 시각 정보(예를 들어 PTP)를 사용하여, CATV 장치(211A)(의 시각 정보 마스터부(224))의 시각 정보(예를 들어 PTP)와, 텔레비전 수상기(212A)(의 시각 정보 슬레이브부(232))의 시각 정보(예를 들어 PTP)를 맞추고 있다. 이에 의해, 텔레비전 수상기(212A)에서는, 콘텐츠를 재생할 때, 제시 동기가 실현되어, 예를 들어 비디오나 오디오의 동기를 취하여 버퍼를 파탄시키지 않고 적절하게 제시하는 것이 가능해진다.
(B) 인터넷 배신 시스템
도 17의 B는, 인터넷 배신 시스템(20B)의 구성예를 나타내고 있다. 이 인터넷 배신 시스템(20B)에 있어서는, 마스터 장치(211)로서의 배신 서버(211B)와, 슬레이브 장치(212)로서의 정보 기기(212B)가, 인터넷(213B)을 통해 데이터 전송을 행한다.
여기서, 배신 서버(211B)는, 송신 시스템(10)에 의해, 지상파 방송 등에서 방송된 콘텐츠를, 인터넷(213B)를 경유하여 배신하기 위한 서버 장치이다. 배신 서버(211B)는, 예를 들어 동화상 배신 서비스를 행하는 OTT(Over The Top)의 사업자 등에 의해 제공된다. 한편, 정보 기기(212B)는, 예를 들어 휴대 전화기나 스마트폰, 태블릿 단말 장치, 퍼스널 컴퓨터, 텔레비전 수상기 등의 통신 기능을 갖는 기기(클라이언트 장치)이다. 정보 기기(212B)는, 배신 서버(211B)로부터, 인터넷(213B)을 통해 배신된 콘텐츠를 수신하여, 재생할 수 있다.
또한, 인터넷 배신 시스템(20B)에 있어서는, 송신 시스템(10)으로부터의 디지털 방송 신호에 포함되는 시각 정보(예를 들어 PTP)를 사용하여, 배신 서버(211B)(의 시각 정보 마스터부(224))의 시각 정보(예를 들어 PTP)와, 정보 기기(212B)(의 시각 정보 슬레이브부(232))의 시각 정보(예를 들어 PTP)를 맞추고 있다. 이에 의해, 정보 기기(212B)에서는, 콘텐츠를 재생할 때, 제시 동기가 실현되어, 예를 들어 비디오나 오디오의 동기를 취하여 버퍼를 파탄시키지 않고 적절하게 제시하는 것이 가능해진다.
(C) 홈 네트워크 시스템
도 17의 C는, 홈 네트워크 시스템(20C)의 구성예를 나타내고 있다. 이 홈 네트워크 시스템(20C)에 있어서는, 마스터 장치(211)로서의 홈 서버(211C)와, 슬레이브 장치(212)로서의 정보 기기(212C)가, 무선 LAN(Loca lArea Network) 등의 홈 네트워크(213C)를 통해 데이터 전송을 행한다.
여기서, 홈 서버(211C)는, 송신 시스템(10)에 의해, 지상파 방송 등에서 방송된 콘텐츠를, 홈 네트워크(213C)를 경유하여 배신하기 위한 서버 장치이다. 홈 서버(211C)는, 디지털 방송을 수신하는 기능을 갖고, 각 가정 등에 설치된다. 한편, 정보 기기(212C)는, 예를 들어 휴대 전화기나 스마트폰, 태블릿 단말 장치, 퍼스널 컴퓨터, 텔레비전 수상기 등의 통신 기능을 갖는 기기(클라이언트 장치)이며, 가정 내에서 사용된다. 정보 기기(212C)는, 홈 서버(211C)로부터, 홈 네트워크(213C)를 통해 배신된 콘텐츠를 수신하여, 재생할 수 있다.
또한, 홈 네트워크 시스템(20C)에 있어서는, 송신 시스템(10)으로부터의 디지털 방송 신호에 포함되는 시각 정보(예를 들어 PTP)를 사용하여, 홈 서버(211C)(의 시각 정보 마스터부(224))의 시각 정보(예를 들어 PTP)와, 정보 기기(212C)(의 시각 정보 슬레이브부(232))의 시각 정보(예를 들어 PTP)를 맞추고 있다. 이에 의해, 정보 기기(212C)에서는, 콘텐츠를 재생할 때, 제시 동기가 실현되어, 예를 들어 비디오나 오디오의 동기를 취하여 버퍼를 파탄시키지 않고 적절하게 제시하는 것이 가능해진다.
또한, 도 17의 C의 홈 네트워크 시스템(20C)에서는, 마스터 장치(211)로서, 홈 서버(211C) 대신에 텔레비전 수상기를 설치함으로써, 정보 기기(212C)로서의 스마트폰이나 태블릿 단말 장치를, 소위 세컨드 디스플레이로서 이용할 수 있다.
(D) 동일한 기기 내
도 17의 D는, 수신 장치(20D)의 구성예를 나타내고 있다. 이 수신 장치(20D)에 있어서는, 마스터 장치(211)로서의 수신기 내 마스터 기기(211D)와, 슬레이브 장치(212)로서의 수신기 내 슬레이브 기기(212D)가, 예를 들어 USB3.0(Universal Serial Bus 3.0)이나 PCIe(PCI Express) 등의 범용적인 전송 인터페이스(213D)를 통해 데이터 전송을 행한다.
여기서, 수신기 내 마스터 기기(211D)는, 송신 시스템(10)에 의해, 지상파 방송 등에서 방송된 콘텐츠를, 전송 인터페이스(213D)를 통해 수신기 내 슬레이브 기기(212D)에 전송하기 위한 기기이다. 수신기 내 마스터 기기(211D)는, 처리부(251)와 I/F부(252)로 구성된다. 한편, 수신기 내 슬레이브 기기(212D)는, 수신기 내 마스터 기기(211D)로부터, 전송 인터페이스(213D)를 통해 전송되는 콘텐츠를 처리하기 위한 기기이다. 수신기 내 슬레이브 기기(212D)는, I/F부(261)와 처리부(262)로 구성된다.
또한, 수신 장치(20D)에 있어서는, 송신 시스템(10)으로부터의 디지털 방송 신호에 포함되는 시각 정보(예를 들어 PTP)를 사용하여, 수신기 내 마스터 기기(211D)(의 시각 정보 마스터부(224))의 시각 정보(예를 들어 PTP)와, 수신기 내 슬레이브 기기(212D)(의 시각 정보 슬레이브부(232))의 시각 정보(예를 들어 PTP)를 맞추고 있다. 이에 의해, 수신기 내 슬레이브 기기(212D)에서는, 콘텐츠를 처리할 때, 제시 동기가 실현되어, 예를 들어 비디오나 오디오의 동기를 취하여 버퍼를 파탄시키지 않고 적절하게 제시하는 것이 가능해진다.
(E) 차량 탑재 시스템
도 17의 E는, 차량에 탑재되는 차량 탑재 시스템(20E)의 구성예를 나타내고 있다. 이 차량 탑재 시스템(20E)에 있어서는, 마스터 장치(211)로서의 차량 탑재 마스터 기기(211E)와, 슬레이브 장치(212)로서의 차량 탑재 슬레이브 기기(212E)가, 차 내 네트워크(213E)를 통해 데이터 전송을 행한다.
여기서, 차량 탑재 마스터 기기(211E)는, 송신 시스템(10)에 의해, 지상파 방송 등에서 방송된 콘텐츠를, 차내 네트워크(213E)를 통해 차량 탑재 슬레이브 기기(212E)에 전송하기 위한 기기이다. 한편, 차량 탑재 슬레이브 기기(212E)는, 차량 탑재 마스터 기기(211E)로부터, 차내 네트워크(213E)를 통해 전송되는 콘텐츠를 처리하기 위한 기기이다.
또한, 차량 탑재 시스템(20E)에 있어서는, 송신 시스템(10)으로부터의 디지털 방송 신호에 포함되는 시각 정보(예를 들어 PTP)를 사용하여, 차량 탑재 마스터 기기(211E)(의 시각 정보 마스터부(224))의 시각 정보(예를 들어 PTP)와, 차량 탑재 슬레이브 기기(212E)(의 시각 정보 슬레이브부(232))의 시각 정보(예를 들어 PTP)를 맞추고 있다. 이에 의해, 차량 탑재 슬레이브 기기(212E)에서는, 콘텐츠를 처리할 때, 제시 동기가 실현되어, 예를 들어 비디오나 오디오의 동기를 취하여 버퍼를 파탄시키지 않고 적절하게 제시하는 것이 가능해진다.
(다른 시각 정보의 예)
상술한 설명에서는, 시각 정보로서, PTP로 규정되는 시각의 정보를 중심으로 설명하고, NTP로 규정되어 있는 시각의 정보를 사용해도 된다는 설명을 했지만, 거기에 한정되지 않고, 예를 들어 3GPP(Third Generation Partnership Project)로 규정되어 있는 시각의 정보나, GPS(Global Positioning System) 정보에 포함되는 시각의 정보, 그 밖에 독자적으로 결정된 형식의 시각 정보 등의 임의의 시각의 정보를 채용할 수 있다.
(디지털 방송의 방식)
또한, 상술한 설명에서는, 디지털 방송의 규격으로서, 미국 등에서 채용되고 있는 방식인 ATSC(특히, ATSC3.0)를 설명했지만, 본 기술은, 일본 등이 채용하는 방식인 ISDB(Integrated Services Digital Broadcasting)나, 유럽의 각국 등이 채용하는 방식인 DVB(Digital Video Broadcasting) 등에 적용하도록 해도 된다. 또한, 디지털 방송으로서는, 지상파 방송 이외에도, BS(Broadcasting Satellite)나 CS(Communications Satellite) 등의 위성 방송이나, 케이블 텔레비전(CATV) 등의 유선 방송 등에 적용할 수 있다.
또한, 본 기술은, 전송로(30)(도 1)로서, 방송망 이외의 전송로, 즉, 예를 들어 인터넷이나 전화망 등의 통신 회선(통신망) 등을 이용하는 것을 상정하여 규정되어 있는 소정의 규격(디지털 방송의 규격 이외의 규격) 등에도 적용할 수 있다. 그 경우에는, 전송로(30)(도 1)로서, 인터넷이나 전화망 등의 통신 회선이 이용되고, 송신 시스템(10)은, 인터넷 상에 설치된 서버 장치로 할 수 있다. 그리고, 수신 시스템(20)(의 마스터 장치(211))이, 통신 기능을 갖도록 함으로써, 송신 시스템(10)은, 수신 시스템(20)(의 마스터 장치(211))으로부터의 요구에 따라서, 처리를 행하게 된다. 또한, 송신 시스템(10)으로부터 송신되는 콘텐츠에는, 동화상이나 음악 이외에도, 예를 들어 전자 서적이나 광고 등, 모든 콘텐츠를 포함할 수 있다.
<5. 컴퓨터의 구성>
상술한 일련의 처리는, 하드웨어에 의해 실행할 수도 있고, 소프트웨어에 의해 실행할 수도 있다. 일련의 처리를 소프트웨어에 의해 실행하는 경우에는, 그 소프트웨어를 구성하는 프로그램이, 컴퓨터에 인스톨된다. 도 18은, 상술한 일련의 처리를 프로그램에 의해 실행하는 컴퓨터의 하드웨어 구성예를 나타내는 도면이다.
컴퓨터(900)에 있어서, CPU(Central Processing Unit)(901), ROM(Read Only Memory)(902), RAM(Random Access Memory)(903)은, 버스(904)에 의해 서로 접속되어 있다. 버스(904)에는, 또한 입출력 인터페이스(905)가 접속되어 있다. 입출력 인터페이스(905)에는, 입력부(906), 출력부(907), 기록부(908), 통신부(909) 및 드라이브(910)가 접속되어 있다.
입력부(906)는, 키보드, 마우스, 마이크로폰 등을 포함한다. 출력부(907)는, 디스플레이, 스피커 등을 포함한다. 기록부(908)는, 하드 디스크나 불휘발성 메모리 등을 포함한다. 통신부(909)는, 네트워크 인터페이스 등을 포함한다. 드라이브(910)는, 자기 디스크, 광 디스크, 광자기 디스크, 또는 반도체 메모리 등의 리무버블 미디어(911)를 구동한다.
이상과 같이 구성되는 컴퓨터(900)에서는, CPU(901)가, ROM(902)이나 기록부(908)에 기록되어 있는 프로그램을, 입출력 인터페이스(905) 및 버스(904)를 통해, RAM(903)에 로드하여 실행함으로써, 상술한 일련의 처리가 행해진다.
컴퓨터(900)(CPU(901))가 실행하는 프로그램은, 예를 들어 패키지 미디어 등으로서의 리무버블 미디어(911)에 기록하여 제공할 수 있다. 또한, 프로그램은, 로컬 에어리어 네트워크, 인터넷, 디지털 위성 방송 등의, 유선 또는 무선의 전송 매체를 통해 제공할 수 있다.
컴퓨터(900)에서는, 프로그램은, 리무버블 미디어(911)를 드라이브(910)에 장착함으로써, 입출력 인터페이스(905)를 통해, 기록부(908)에 인스톨할 수 있다. 또한, 프로그램은, 유선 또는 무선의 전송 매체를 통해, 통신부(909)에서 수신하고, 기록부(908)에 인스톨할 수 있다. 그 밖에, 프로그램은, ROM(902)이나 기록부(908)에, 미리 인스톨해 둘 수 있다.
여기서, 본 명세서에 있어서, 컴퓨터가 프로그램에 따라서 행하는 처리는, 반드시 흐름도로서 기재된 순서에 따라서 시계열로 행해질 필요는 없다. 즉, 컴퓨터가 프로그램에 따라서 행하는 처리는, 병렬적 또는 개별로 실행되는 처리(예를 들어, 병렬 처리 또는 오브젝트에 의한 처리)도 포함한다. 또한, 프로그램은, 1의 컴퓨터(프로세서)에 의해 처리되는 것이어도 되고, 복수의 컴퓨터에 의해 분산 처리되는 것이어도 된다.
또한, 본 기술의 실시 형태는, 상술한 실시 형태에 한정되는 것은 아니며, 본 기술의 요지를 일탈하지 않는 범위에서 다양한 변경이 가능하다.
또한, 본 기술은, 이하와 같은 구성을 취할 수 있다.
(1)
디지털 방송 신호를 수신하는 수신부와,
상기 디지털 방송 신호에 포함되는, 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보를 처리하는 처리부와,
전송로를 통해, 상기 콘텐츠와 함께, 상기 시각 정보를, 상기 콘텐츠의 제시를 행하는 다른 데이터 처리 장치에 송신하는 송신부
를 구비하는 데이터 처리 장치.
(2)
상기 시각 정보를 포함하는 시각 정보 기술자는, 상기 디지털 방송 신호에 포함되는 물리층 프레임의 프리앰블에 포함되는
(1)에 기재된 데이터 처리 장치.
(3)
상기 시각 정보 기술자는, 상기 시각 정보를 압축한 압축 시각 정보를 포함하는
(2)에 기재된 데이터 처리 장치.
(4)
상기 시각 정보는, PTP(Precision Time Protocol)로 규정되는 시각의 정보, 또는 NTP(Network Time Protocol)로 규정되는 시각의 정보인
(2) 또는 (3)에 기재된 데이터 처리 장치.
(5)
상기 시각 정보는, 상기 PTP로 규정되는 시각의 정보이며,
상기 처리부는, 상기 다른 데이터 처리 장치에 있어서 상기 시각 정보를 처리하는 다른 처리부와, 메시지를 주고 받음으로써, 상기 다른 처리부에 의해 처리되는 상기 시각 정보가 전송 지연에 따라서 보정되도록 하는
(4)에 기재된 데이터 처리 장치.
(6)
상기 전송로는, 방송의 전송로이며,
상기 데이터 처리 장치는, 상기 콘텐츠의 재배신을 행하는 재배신 장치이며,
상기 다른 데이터 처리 장치는, 상기 재배신 장치로부터 방송 경유로 재배신된 상기 콘텐츠의 재생을 행하는 재생 장치인
(1) 내지 (5) 중 어느 한 항에 기재된 데이터 처리 장치.
(7)
상기 전송로는, 통신의 전송로이며,
상기 데이터 처리 장치는, 상기 콘텐츠의 배신을 행하는 서버 장치이며,
상기 다른 데이터 처리 장치는, 상기 서버 장치로부터 통신 경유로 배신된 상기 콘텐츠의 재생을 행하는 클라이언트 장치인
(1) 내지 (5) 중 어느 한 항에 기재된 데이터 처리 장치.
(8)
상기 데이터 처리 장치와, 상기 다른 데이터 처리 장치는, 동일한 기기 내에 설치되고, 소정의 인터페이스를 통해 접속되는
(1) 내지 (5) 중 어느 한 항에 기재된 데이터 처리 장치.
(9)
데이터 처리 장치의 데이터 처리 방법에 있어서,
상기 데이터 처리 장치가,
디지털 방송 신호를 수신하고,
상기 디지털 방송 신호에 포함되는, 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보를 처리하고,
전송로를 통해, 상기 콘텐츠와 함께, 상기 시각 정보를, 상기 콘텐츠의 제시를 행하는 다른 데이터 처리 장치에 송신하는
스텝을 포함하는 데이터 처리 방법.
(10)
디지털 방송 신호를 수신 가능한 다른 데이터 처리 장치로부터 송신되어 오는, 상기 디지털 방송 신호에 포함되는 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보를, 전송로를 통해 수신하는 수신부와,
상기 시각 정보에 기초하여, 상기 콘텐츠의 제시 동기를 처리하는 처리부
를 구비하는 데이터 처리 장치.
(11)
상기 시각 정보를 포함하는 시각 정보 기술자는, 상기 디지털 방송 신호에 포함되는 물리층 프레임의 프리앰블에 포함되는
(10)에 기재된 데이터 처리 장치.
(12)
상기 시각 정보 기술자는, 상기 시각 정보를 압축한 압축 시각 정보를 포함하는
(11)에 기재된 데이터 처리 장치.
(13)
상기 시각 정보는, PTP로 규정되는 시각의 정보, 또는 NTP로 규정되는 시각의 정보인
(11) 또는 (12)에 기재된 데이터 처리 장치.
(14)
상기 시각 정보는, 상기 PTP로 규정되는 시각의 정보이며,
상기 처리부는, 상기 다른 데이터 처리 장치에 있어서 상기 시각 정보를 처리하는 다른 처리부와, 메시지를 주고 받음으로써, 상기 시각 정보가 전송 지연에 따라서 보정되도록 하는
(13)에 기재된 데이터 처리 장치.
(15)
상기 전송로는, 방송의 전송로이며,
상기 다른 데이터 처리 장치는, 상기 콘텐츠의 재배신을 행하는 재배신 장치이며,
상기 데이터 처리 장치는, 상기 재배신 장치로부터 방송 경유로 재배신된 상기 콘텐츠의 재생을 행하는 재생 장치인
(10) 내지 (14) 중 어느 한 항에 기재된 데이터 처리 장치.
(16)
상기 전송로는, 통신의 전송로이며,
상기 다른 데이터 처리 장치는, 상기 콘텐츠의 배신을 행하는 서버 장치이며,
상기 데이터 처리 장치는, 상기 서버 장치로부터 통신 경유로 배신된 상기 콘텐츠의 재생을 행하는 클라이언트 장치인
(10) 내지 (14) 중 어느 한 항에 기재된 데이터 처리 장치.
(17)
상기 데이터 처리 장치와, 상기 다른 데이터 처리 장치는, 동일한 기기 내에 설치되고, 소정의 인터페이스를 통해 접속되는
(10) 내지 (14) 중 어느 한 항에 기재된 데이터 처리 장치.
(18)
데이터 처리 장치의 데이터 처리 방법에 있어서,
상기 데이터 처리 장치가,
디지털 방송 신호를 수신 가능한 다른 데이터 처리 장치로부터 송신되어 오는, 상기 디지털 방송 신호에 포함되는 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보를, 전송로를 통해 수신하고,
상기 시각 정보에 기초하여, 상기 콘텐츠의 제시 동기를 처리하는
스텝을 포함하는 데이터 처리 방법.
1: 전송 시스템
10: 송신 시스템
20: 수신 시스템
30: 전송로
111: 컴포넌트 처리부
112: 시그널링 처리부
113: 시각 정보 처리부
114: 패킷 처리부
115: 변조 처리부
116: RF부
211: 마스터 장치
212: 슬레이브 장치
213: 네트워크
221: RF부
222: 복조 처리부
223: 패킷 처리부
224: 시각 정보 마스터부
225: 네트워크 I/F
231: 네트워크 I/F
232: 시각 정보 슬레이브부
233: 복호 처리부
234: 출력부
900: 컴퓨터
901: CPU

Claims (18)

  1. 디지털 방송 신호를 수신하는 수신부와,
    상기 디지털 방송 신호에 포함되는, 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보를 처리하는 처리부와,
    전송로를 통해, 상기 콘텐츠와 함께, 상기 시각 정보를, 상기 콘텐츠의 제시를 행하는 다른 데이터 처리 장치에 송신하는 송신부
    를 구비하는 데이터 처리 장치.
  2. 제1항에 있어서, 상기 시각 정보를 포함하는 시각 정보 기술자는, 상기 디지털 방송 신호에 포함되는 물리층 프레임의 프리앰블에 포함되는
    데이터 처리 장치.
  3. 제2항에 있어서, 상기 시각 정보 기술자는, 상기 시각 정보를 압축한 압축 시각 정보를 포함하는
    데이터 처리 장치.
  4. 제2항에 있어서, 상기 시각 정보는, PTP(Precision Time Protocol)로 규정되는 시각의 정보, 또는 NTP(Network Time Protocol)로 규정되는 시각의 정보인
    데이터 처리 장치.
  5. 제4항에 있어서, 상기 시각 정보는, 상기 PTP로 규정되는 시각의 정보이며,
    상기 처리부는, 상기 다른 데이터 처리 장치에 있어서 상기 시각 정보를 처리하는 다른 처리부와, 메시지를 주고 받음으로써, 상기 다른 처리부에 의해 처리되는 상기 시각 정보가 전송 지연에 따라서 보정되도록 하는
    데이터 처리 장치.
  6. 제1항에 있어서, 상기 전송로는, 방송의 전송로이며,
    상기 데이터 처리 장치는, 상기 콘텐츠의 재배신을 행하는 재배신 장치이며,
    상기 다른 데이터 처리 장치는, 상기 재배신 장치로부터 방송 경유로 재배신된 상기 콘텐츠의 재생을 행하는 재생 장치인
    데이터 처리 장치.
  7. 제1항에 있어서, 상기 전송로는, 통신의 전송로이며,
    상기 데이터 처리 장치는, 상기 콘텐츠의 배신을 행하는 서버 장치이며,
    상기 다른 데이터 처리 장치는, 상기 서버 장치로부터 통신 경유로 배신된 상기 콘텐츠의 재생을 행하는 클라이언트 장치인
    데이터 처리 장치.
  8. 제1항에 있어서, 상기 데이터 처리 장치와, 상기 다른 데이터 처리 장치는, 동일한 기기 내에 설치되고, 소정의 인터페이스를 통해 접속되는
    데이터 처리 장치.
  9. 데이터 처리 장치의 데이터 처리 방법에 있어서,
    상기 데이터 처리 장치가,
    디지털 방송 신호를 수신하고,
    상기 디지털 방송 신호에 포함되는, 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보를 처리하고,
    전송로를 통해, 상기 콘텐츠와 함께, 상기 시각 정보를, 상기 콘텐츠의 제시를 행하는 다른 데이터 처리 장치에 송신하는
    스텝을 포함하는 데이터 처리 방법.
  10. 디지털 방송 신호를 수신 가능한 다른 데이터 처리 장치로부터 송신되어 오는, 상기 디지털 방송 신호에 포함되는 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보를, 전송로를 통해 수신하는 수신부와,
    상기 시각 정보에 기초하여, 상기 콘텐츠의 제시 동기를 처리하는 처리부
    를 구비하는 데이터 처리 장치.
  11. 제10항에 있어서, 상기 시각 정보를 포함하는 시각 정보 기술자는, 상기 디지털 방송 신호에 포함되는 물리층 프레임의 프리앰블에 포함되는
    데이터 처리 장치.
  12. 제11항에 있어서, 상기 시각 정보 기술자는, 상기 시각 정보를 압축한 압축 시각 정보를 포함하는
    데이터 처리 장치.
  13. 제11항에 있어서, 상기 시각 정보는, PTP로 규정되는 시각의 정보, 또는 NTP로 규정되는 시각의 정보인
    데이터 처리 장치.
  14. 제13항에 있어서, 상기 시각 정보는, 상기 PTP로 규정되는 시각의 정보이며,
    상기 처리부는, 상기 다른 데이터 처리 장치에 있어서 상기 시각 정보를 처리하는 다른 처리부와, 메시지를 주고 받음으로써, 상기 시각 정보가 전송 지연에 따라서 보정되도록 하는
    데이터 처리 장치.
  15. 제10항에 있어서, 상기 전송로는, 방송의 전송로이며,
    상기 다른 데이터 처리 장치는, 상기 콘텐츠의 재배신을 행하는 재배신 장치이며,
    상기 데이터 처리 장치는, 상기 재배신 장치로부터 방송 경유로 재배신된 상기 콘텐츠의 재생을 행하는 재생 장치인
    데이터 처리 장치.
  16. 제10항에 있어서, 상기 전송로는, 통신의 전송로이며,
    상기 다른 데이터 처리 장치는, 상기 콘텐츠의 배신을 행하는 서버 장치이며,
    상기 데이터 처리 장치는, 상기 서버 장치로부터 통신 경유로 배신된 상기 콘텐츠의 재생을 행하는 클라이언트 장치인
    데이터 처리 장치.
  17. 제10항에 있어서, 상기 데이터 처리 장치와, 상기 다른 데이터 처리 장치는, 동일한 기기 내에 설치되고, 소정의 인터페이스를 통해 접속되는
    데이터 처리 장치.
  18. 데이터 처리 장치의 데이터 처리 방법에 있어서,
    상기 데이터 처리 장치가,
    디지털 방송 신호를 수신 가능한 다른 데이터 처리 장치로부터 송신되어 오는, 상기 디지털 방송 신호에 포함되는 콘텐츠와, 상기 콘텐츠의 제시 동기에 사용되는 시각 정보를, 전송로를 통해 수신하고,
    상기 시각 정보에 기초하여, 상기 콘텐츠의 제시 동기를 처리하는
    스텝을 포함하는 데이터 처리 방법.
KR1020187003764A 2015-09-30 2016-09-16 데이터 처리 장치 및 데이터 처리 방법 KR102523470B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015194552 2015-09-30
JPJP-P-2015-194552 2015-09-30
PCT/JP2016/077396 WO2017057040A1 (ja) 2015-09-30 2016-09-16 データ処理装置、及び、データ処理方法

Publications (2)

Publication Number Publication Date
KR20180064369A true KR20180064369A (ko) 2018-06-14
KR102523470B1 KR102523470B1 (ko) 2023-04-20

Family

ID=58423773

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187003764A KR102523470B1 (ko) 2015-09-30 2016-09-16 데이터 처리 장치 및 데이터 처리 방법

Country Status (8)

Country Link
US (5) US10291945B2 (ko)
EP (1) EP3358781B1 (ko)
JP (1) JPWO2017057040A1 (ko)
KR (1) KR102523470B1 (ko)
CN (2) CN108028708A (ko)
CA (1) CA2999689A1 (ko)
MX (1) MX2018003611A (ko)
WO (1) WO2017057040A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017057040A1 (ja) * 2015-09-30 2018-08-16 ソニー株式会社 データ処理装置、及び、データ処理方法
CN109639383A (zh) * 2018-12-24 2019-04-16 苏州蜗牛数字科技股份有限公司 一种实现分布式帧同步服务器群的方法和系统
JP7409779B2 (ja) 2019-03-25 2024-01-09 ミハル通信株式会社 伝送遅延測定システム、伝送遅延測定方法、パケット送信装置、および、測定装置
CN110166550B (zh) * 2019-05-22 2022-03-18 湖南康通电子股份有限公司 一种数字广播系统的定时广播方法及装置
JP2021013134A (ja) * 2019-07-09 2021-02-04 ソニー株式会社 受信装置、受信方法および送受信システム
CN111510235A (zh) * 2020-03-13 2020-08-07 浙江华创视讯科技有限公司 音频时钟同步方法、设备、系统、计算机设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040095512A1 (en) * 2001-03-30 2004-05-20 Hiroyuki Miyake Digital tv set
US20070076764A1 (en) * 2005-09-30 2007-04-05 Kabushiki Kaisha Toshiba Digital broadcasting method using communication channel and its apparatus
KR20150048180A (ko) * 2012-08-23 2015-05-06 인터디지탈 패튼 홀딩스, 인크 디바이스간 탐색을 수행하기 위한 방법 및 장치
JP2015104122A (ja) * 2013-11-22 2015-06-04 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 送信方法、受信方法、送信装置、及び受信装置
US20160241925A1 (en) * 2013-11-08 2016-08-18 Panasonic Intellectual Property Corporation Of America Transmission method, reception method, transmission apparatus, and reception apparatus

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274607A (ja) * 2006-03-31 2007-10-18 Toshiba Corp デジタル信号処理装置及びデータストリーム処理方法
KR101572875B1 (ko) * 2007-09-21 2015-11-30 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
US7860125B2 (en) * 2008-01-28 2010-12-28 Cisco Techology, Inc. Flexible time stamping
CN101599894B (zh) * 2008-06-04 2013-01-30 华为技术有限公司 具有时钟信息报文的处理方法、装置及系统
CN101707505B (zh) * 2008-08-13 2013-08-28 华为技术有限公司 一种在无源光网络中时间同步的方法、装置及无源光网络
US8867565B2 (en) * 2008-08-21 2014-10-21 Qualcomm Incorporated MIMO and SDMA signaling for wireless very high throughput systems
KR101598094B1 (ko) * 2009-02-02 2016-02-26 엘지전자 주식회사 송/수신 시스템 및 데이터 처리 방법
US9606219B2 (en) * 2010-08-02 2017-03-28 Progeny Systems Corporation Systems and methods for locating a target in a GPS-denied environment
CN101977104B (zh) * 2010-11-13 2013-01-09 上海交通大学 基于ieee1588精确时钟同步协议系统及其同步方法
US9838748B2 (en) * 2013-07-05 2017-12-05 Samsung Electronics Co., Ltd. Transmitting apparatus and receiving apparatus, and signal processing method thereof
US9143512B2 (en) * 2013-10-04 2015-09-22 At&T Intellectual Property I, L.P. Communication devices, computer readable storage devices, and methods for secure multi-path communication
CN104581923B (zh) * 2013-10-25 2018-08-28 上海无线通信研究中心 通过无线链路传输精确时间信息的方法
WO2015068352A1 (ja) * 2013-11-08 2015-05-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置、及び受信装置
WO2015199420A1 (ko) * 2014-06-24 2015-12-30 삼성전자 주식회사 방송 시스템에서 시스템 시간 정보를 송수신하는 기법
CN104836630B (zh) * 2015-05-21 2017-05-24 大连理工大学 Ieee1588时钟同步系统及其实现方法
US10432680B2 (en) * 2015-06-02 2019-10-01 Sony Corporation System time frequency and time information
MX2018001112A (es) * 2015-08-14 2018-03-26 Sharp Kk Sistemas y metodos para comunicar representaciones de tiempo.
JPWO2017057040A1 (ja) * 2015-09-30 2018-08-16 ソニー株式会社 データ処理装置、及び、データ処理方法
US20180007307A1 (en) * 2016-07-02 2018-01-04 Qualcomm Incorporated Distributed Implementation Architecture for Broadcast Receiver

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040095512A1 (en) * 2001-03-30 2004-05-20 Hiroyuki Miyake Digital tv set
US20070076764A1 (en) * 2005-09-30 2007-04-05 Kabushiki Kaisha Toshiba Digital broadcasting method using communication channel and its apparatus
KR20150048180A (ko) * 2012-08-23 2015-05-06 인터디지탈 패튼 홀딩스, 인크 디바이스간 탐색을 수행하기 위한 방법 및 장치
US20160241925A1 (en) * 2013-11-08 2016-08-18 Panasonic Intellectual Property Corporation Of America Transmission method, reception method, transmission apparatus, and reception apparatus
JP2015104122A (ja) * 2013-11-22 2015-06-04 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 送信方法、受信方法、送信装置、及び受信装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ARIB STD-B44 일반 사단 법인 전파 산업회

Also Published As

Publication number Publication date
CA2999689A1 (en) 2017-04-06
CN115767140A (zh) 2023-03-07
US20180192099A1 (en) 2018-07-05
MX2018003611A (es) 2018-04-30
US10750221B2 (en) 2020-08-18
WO2017057040A1 (ja) 2017-04-06
US11178440B2 (en) 2021-11-16
KR102523470B1 (ko) 2023-04-20
US10291945B2 (en) 2019-05-14
US20220046300A1 (en) 2022-02-10
EP3358781A1 (en) 2018-08-08
CN108028708A (zh) 2018-05-11
US11677999B2 (en) 2023-06-13
US20230336800A1 (en) 2023-10-19
US20190230390A1 (en) 2019-07-25
US20200359071A1 (en) 2020-11-12
EP3358781A4 (en) 2019-04-17
EP3358781B1 (en) 2022-06-08
JPWO2017057040A1 (ja) 2018-08-16

Similar Documents

Publication Publication Date Title
KR102523470B1 (ko) 데이터 처리 장치 및 데이터 처리 방법
KR102481919B1 (ko) 송신 장치, 송신 방법, 수신 장치, 및 수신 방법
KR102533481B1 (ko) 송신 장치, 송신 방법, 수신 장치, 및 수신 방법
US11032338B2 (en) Determining time at which transmission frames were transmitted
KR102532052B1 (ko) 수신 장치 및 데이터 처리 방법
WO2017065021A1 (ja) 受信装置、送信装置、及び、データ処理方法
US10735789B2 (en) Transmitting apparatus, receiving apparatus, and data processing method
KR102467738B1 (ko) 송신 장치, 송신 방법, 수신 장치, 및 수신 방법
US11050512B2 (en) Transmission device, and transmission method
KR102675843B1 (ko) 송신 장치, 수신 장치 및 데이터 처리 방법
WO2023013124A1 (ja) 再送出装置、再送出方法、受信装置、及び受信方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right