KR102379544B1 - 데이터 처리 장치 및 데이터 처리 방법 - Google Patents

데이터 처리 장치 및 데이터 처리 방법 Download PDF

Info

Publication number
KR102379544B1
KR102379544B1 KR1020187013710A KR20187013710A KR102379544B1 KR 102379544 B1 KR102379544 B1 KR 102379544B1 KR 1020187013710 A KR1020187013710 A KR 1020187013710A KR 20187013710 A KR20187013710 A KR 20187013710A KR 102379544 B1 KR102379544 B1 KR 102379544B1
Authority
KR
South Korea
Prior art keywords
information
time
time information
frame
physical layer
Prior art date
Application number
KR1020187013710A
Other languages
English (en)
Other versions
KR20180084786A (ko
Inventor
라클란 부르스 마이클
가즈유키 다카하시
Original Assignee
소니그룹주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니그룹주식회사 filed Critical 소니그룹주식회사
Publication of KR20180084786A publication Critical patent/KR20180084786A/ko
Application granted granted Critical
Publication of KR102379544B1 publication Critical patent/KR102379544B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L7/00Arrangements for synchronising receiver with transmitter
    • H04L7/04Speed or phase control by synchronisation signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L7/00Arrangements for synchronising receiver with transmitter
    • H04L7/04Speed or phase control by synchronisation signals
    • H04L7/041Speed or phase control by synchronisation signals using special codes as synchronising signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G7/00Synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 기술은, 시각 정보의 정밀도에 기인하는 시각의 오차를 저감할 수 있도록 하는 데이터 처리 장치 및 데이터 처리 방법에 관한 것이다. 데이터 처리 장치는, 물리층 프레임의 프레임 길이에 따른 시각의 정밀도를 갖는 시각 정보를 포함하는 시그널링을 생성하고, 당해 시그널링을, 물리층 프레임의 프리앰블에 포함되도록 처리함으로써, 시각 정보에 기인하는 시각의 오차를 저감할 수 있도록 한다. 본 기술은, 예를 들어 ATSC3.0 등의 방송 방식에 대응한 송신기에 적용할 수 있다.

Description

데이터 처리 장치 및 데이터 처리 방법
본 기술은, 데이터 처리 장치 및 데이터 처리 방법에 관한 것으로, 특히, 시각 정보의 정밀도에 기인하는 시각의 오차를 저감할 수 있도록 한 데이터 처리 장치 및 데이터 처리 방법에 관한 것이다.
차세대의 방송 방식의 하나로서, ATSC(Advanced Television Systems Committee) 3.0의 책정이 진행되고 있다(예를 들어, 비특허문헌 1 참조). ATSC3.0에서는, 전송 방식으로서, 현재 널리 보급되어 있는 MPEG2-TS(Transport Stream) 방식이 아닌, 통신의 분야에서 사용되고 있는 IP(Internet Protocol) 패킷을 디지털 방송에 사용한 IP 전송 방식을 도입함으로써, 보다 고도의 서비스를 제공할 것이 상정되어 있다.
ATSC Candidate Standard: Physical Layer Protocol(Doc. S32-230r21 28 September 2015)
그런데, ATSC3.0 등의 방송 방식에 의한 데이터 전송에 있어서는, 물리층 프레임에서 전송되는 시그널링에 포함되는 시각 정보의 정밀도에 기인하여 시각의 오차가 발생하는 경우가 있고, 이 시각 정보의 정밀도에 기인하는 시각의 오차를 저감하기 위한 제안이 요청되고 있었다.
본 기술은 이러한 상황을 감안하여 이루어진 것이며, 시각 정보의 정밀도에 기인하는 시각의 오차를 저감할 수 있도록 하는 것이다.
본 기술의 제1 측면의 데이터 처리 장치는, 물리층 프레임의 프레임 길이에 따른 시각의 정밀도를 갖는 시각 정보를 포함하는 시그널링을 생성하는 생성부와, 상기 시그널링을, 상기 물리층 프레임의 프리앰블에 포함되도록 처리하는 처리부를 구비하는 데이터 처리 장치이다.
본 기술의 제1 측면의 데이터 처리 장치는, 독립한 장치여도 되고, 하나의 장치를 구성하고 있는 내부 블록이어도 된다. 또한, 본 기술의 제1 측면의 데이터 처리 방법은, 상술한 본 기술의 제1 측면의 데이터 처리 장치에 대응하는 데이터 처리 방법이다.
본 기술의 제1 측면의 데이터 처리 장치 및 데이터 처리 방법에 있어서는, 물리층 프레임의 프레임 길이에 따른 시각의 정밀도를 갖는 시각 정보를 포함하는 시그널링이 생성되고, 상기 시그널링이, 상기 물리층 프레임의 프리앰블에 포함되도록 처리된다.
본 기술의 제2 측면의 데이터 처리 장치는, 물리층 프레임의 프리앰블에 포함되는, 상기 물리층 프레임의 프레임 길이에 따른 시각의 정밀도를 갖는 시각 정보를 포함하는 시그널링을 처리하는 처리부를 구비하는 데이터 처리 장치이다.
본 기술의 제2 측면의 데이터 처리 장치는, 독립한 장치여도 되고, 하나의 장치를 구성하고 있는 내부 블록이어도 된다. 또한, 본 기술의 제2 측면의 데이터 처리 방법은, 상술한 본 기술의 제2 측면의 데이터 처리 장치에 대응하는 데이터 처리 방법이다.
본 기술의 제2 측면의 데이터 처리 장치 및 데이터 처리 방법에 있어서는, 물리층 프레임의 프리앰블에 포함되는, 상기 물리층 프레임의 프레임 길이에 따른 시각의 정밀도를 갖는 시각 정보를 포함하는 시그널링이 처리된다.
본 기술의 제1 측면, 및 제2 측면에 의하면, 시각 정보의 정밀도에 기인하는 시각의 오차를 저감할 수 있다.
또한, 여기에 기재된 효과는 반드시 한정되는 것은 아니고, 본 개시 중에 기재된 어느 효과여도 된다.
도 1은, 본 기술을 적용한 전송 시스템의 구성예를 도시하는 도면이다.
도 2는, 물리층 프레임의 구조를 도시하는 도면이다.
도 3은, 물리층 프레임의 프레임 시간의 시뮬레이션 결과를 도시하는 도면이다.
도 4는, 물리층 프레임의 프레임 시간의 시뮬레이션 결과를 도시하는 도면이다.
도 5는, L1 기본 정보와 L1 상세 정보를 설명하는 도면이다.
도 6은, L1 기본 정보의 신택스 예를 도시하는 도면이다.
도 7은, L1 상세 정보의 신택스 예를 도시하는 도면이다.
도 8은, L1 상세 정보의 신택스 예를 도시하는 도면이다.
도 9는, MPEG2-TS 방식과의 정밀도의 비교를 도시한 도면이다.
도 10은, L1B+L1D 전송 방식의 L1 기본 정보의 신택스 예를 도시하는 도면이다.
도 11은, L1B+L1D 전송 방식의 L1 상세 정보의 신택스 예를 도시하는 도면이다.
도 12는, L1B 전송 방식 a의 L1 기본 정보의 신택스 예를 도시하는 도면이다.
도 13은, L1B 전송 방식 a의 L1 상세 정보의 신택스 예를 도시하는 도면이다.
도 14는, L1B 전송 방식 b의 L1 기본 정보의 신택스 예를 도시하는 도면이다.
도 15는, L1B 전송 방식 b의 L1 상세 정보의 신택스 예를 도시하는 도면이다.
도 16은, L1D 전송 방식의 L1 기본 정보의 신택스 예를 도시하는 도면이다.
도 17은, L1D 전송 방식의 L1 상세 정보의 신택스 예를 도시하는 도면이다.
도 18은, 송신측의 송신 장치와 수신측의 수신 장치의 구성예를 도시하는 도면이다.
도 19는, 송신측의 파형 처리부의 구성예를 도시하는 도면이다.
도 20은, 송신측 데이터 처리의 흐름을 설명하는 흐름도이다.
도 21은, 수신측의 파형 처리부의 구성예를 도시하는 도면이다.
도 22는, 수신측 데이터 처리의 흐름을 설명하는 흐름도이다.
도 23은, 컴퓨터의 구성예를 도시하는 도면이다.
이하, 도면을 참조하면서 본 기술의 실시 형태에 대하여 설명한다. 또한, 설명은 이하의 순서로 행하기로 한다.
1. 시스템의 구성
2. 프레임 모드의 개요
3. 시각 정보의 전송 방식
(1) L1B+L1D 전송 방식
(2a) L1B 전송 방식 a
(2b) L1B 전송 방식 b
(3) L1D 전송 방식
4. 송신측과 수신측의 상세한 구성
5. 변형예
6. 컴퓨터의 구성
<1. 시스템의 구성>
(전송 시스템의 구성예)
도 1은, 본 기술을 적용한 전송 시스템의 일 실시 형태 구성을 도시하는 도면이다. 또한, 시스템이란, 복수의 장치가 논리적으로 집합한 것을 말한다.
도 1에 있어서, 전송 시스템(1)은 송신 장치(10)와 수신 장치(20)로 구성된다. 이 전송 시스템(1)에서는, ATSC3.0 등의 방송 방식(디지털 방송의 규격)에 준거한 데이터 전송이 행해진다.
송신 장치(10)는 ATSC3.0 등의 방송 방식에 대응한 송신기이며, 전송로(30)를 개재하여 콘텐츠를 송신한다. 예를 들어, 송신 장치(10)는 방송 프로그램 등의 콘텐츠를 구성하는 영상이나 음성 등(의 컴포넌트)과 시그널링을 포함하는 방송 스트림을, 방송파로서, 전송로(30)를 개재하여 송신한다.
수신 장치(20)는 ATSC3.0 등의 방송 방식에 대응한 수신기이며, 송신 장치(10)로부터 전송로(30)를 개재하여 송신되어 오는, 콘텐츠를 수신하여 출력한다. 예를 들어, 수신 장치(20)는 송신 장치(10)로부터의 방송파를 수신하고, 방송 스트림에 포함되는, 콘텐츠를 구성하는 영상이나 음성 등(의 컴포넌트)과 시그널링을 처리하여, 방송 프로그램 등의 콘텐츠의 영상이나 음성을 재생한다.
또한, 전송 시스템(1)에 있어서, 전송로(30)는 지상파(지상파 방송) 외에, 예를 들어 방송 위성(BS: Broadcasting Satellite)이나 통신 위성(CS: Communications Satellite)을 이용한 위성 방송, 또는, 케이블을 사용한 유선 방송(CATV) 등이어도 된다.
<2. 프레임 모드의 개요>
(물리층 프레임의 구조)
도 2는, ATSC3.0 등의 방송 방식에 준거한 데이터 전송에서 사용되는 물리층 프레임의 구조를 도시하는 도면이다.
도 2에 있어서, 물리층 프레임은 부트스트랩(Bootstrap), 프리앰블(Preamble) 및 페이로드(Payload)로 구성된다. 물리층 프레임은, 밀리 초 단위 등의 소정의 프레임 길이로 구성된다. 물리층 프레임에 있어서는, 부트스트랩과 프리앰블을 취득한 후에, 그 후의 페이로드를 취득하는 것이 가능하게 된다.
또한, 부트스트랩은, 예를 들어 DVB-T2(Digital Video Broadcasting-Second Generation Terrestrial)의 T2 프레임을 구성하는 P1 심볼에 대응하고, 프리앰블은, 예를 들어 DVB-T2의 T2 프레임을 구성하는 P2 심볼에 대응하고 있다. 따라서, 부트스트랩은, 프리앰블이라고 할 수도 있다.
그런데, ATSC3.0에서는, 물리층 프레임의 프레임 길이에 따른 프레임 모드로서, 타임 얼라인드 모드(time-aligned mode)와, 심볼 얼라인드 모드(symbol-aligned mode)가 규정되어 있다.
타임 얼라인드 모드는, 가드 인터벌(GI: Guard Interval) 부분에 여분의 샘플을 삽입함으로써, 물리층 프레임의 프레임 길이(프레임 시간)를 반드시 정수의 밀리 초 단위로 맞추고 나서 송신하는 모드이다.
예를 들어, 동일한 RF 채널 내에서, 방송(예를 들어 ATSC3.0에 준거한 데이터 전송)과, 통신(예를 들어, LTE(Long Term Evolution)에 준거한 데이터 전송)을 공존시키는 경우에, 물리층 프레임의 프레임 길이(프레임 시간)가, 정수의 밀리 초 단위이면, 시간의 단락이 일치하기 때문에 편리하다. 단, 타임 얼라인드 모드에서는, 여분의 샘플(무의미한 데이터)을 송신하게 되기 때문에, 데이터 전송의 효율은 나빠진다.
심볼 얼라인드 모드는, 여분의 샘플을 삽입하지 않고, 그대로 송신하는 모드이다. 심볼 얼라인드 모드에서는, 여분의 샘플을 송신하지 않기 때문에, 효율적인 데이터 전송을 행할 수 있다. 예를 들어, DVB-T(Digital Video Broadcasting - Terrestrial), DVB-T2, ISDB-T(Integrated Services Digital Broadcasting - Terrestrial)에서는, 이 심볼 얼라인드 모드와 동일한 데이터 전송이 행해지고 있다.
그러나, 심볼 얼라인드 모드에서는, 시간의 구획을 일치시키기 위한 샘플을 삽입하고 있지 않기 때문에, 물리층 프레임 중에는, 그 프레임 길이(프레임 시간)가 정수의 밀리 초 단위로 되는(밀리 초의 경계에 따라 있는) 물리층 프레임뿐만 아니라, 정수의 밀리 초 단위로 되지는 않는(밀리 초의 경계에 따르지 않는) 물리층 프레임도 존재하게 된다.
여기서, 도 3 및 도 4를 참조하여, 심볼 얼라인드 모드가 설정된 경우의 물리층 프레임의 프레임 시간의 시뮬레이션 결과에 대하여 설명한다.
도 3은, FFT 모드가 8K 모드이고, 또한, 가드 인터벌(GI)이 1024가 되는 경우에 있어서, 하나의 물리층 프레임에 포함되는 OFDM 심볼의 수를 변경했을 때의 물리층 프레임의 프레임 시간의 시뮬레이션 결과를 나타내고 있다. 또한, 도 3에 있어서는, 농담에 의해, 프레임 시간이, 정수의 밀리 초 단위로 되어 있는지 여부를 나타내고 있다.
도 3에 있어서, 예를 들어 OFDM 심볼수가 10, 즉, 하나의 물리층 프레임에 포함되는 OFDM 심볼수가 10인 경우에 주목하면, OFDM과 GI의 심볼 시간은 1.33ms가 되므로, 토탈의 OFDM 시간은, 13.33ms(=1.33ms×10)로 된다. 또한, 이 예에서는, 부트스트랩의 시간은 2.00ms가 되므로, 프레임 길이는 15.33ms(=13.33ms+2.00ms)로 된다.
이 OFDM 심볼수가 10인 경우, 첫번째 물리층 프레임의 프레임 시간은 15.333ms가 되고, 2번째 물리층 프레임의 프레임 시간은 30.667ms로 된다. 또한, 3번째 물리층 프레임의 프레임 시간은 46.000ms(30.667ms+15.33ms)가 되고, 4번째 물리층 프레임의 프레임 시간은 61.333ms(46.000ms+15.33ms)로 된다.
마찬가지로, 5번째 이후의 물리층 프레임에 있어서도, 시간적으로 하나 전의 물리층 프레임의 프레임 시간에, 15.33ms를 가산한 시간을, 대상의 물리층 프레임의 프레임 시간으로서 구할 수 있다. 구체적으로는, 5개째 내지 25개째의 물리층 프레임의 프레임 시간으로서는 76.667ms, 92.000ms, 107.333ms, 122.667ms, 138.000ms, 153.333ms, 168.667ms, 184.000ms, 199.333ms, 214.667ms, 230.000ms, 245.333ms, 260.667ms, 276.000ms, 291.333ms, 306.667ms, 322.000ms, 337.333ms, 352.667ms, 368.000ms, 383.333ms가 구해진다.
이와 같이, OFDM 심볼수가 10인 경우, 46.000ms, 92.000ms, 138.000ms, 184.000ms, 230.000ms, 276.000ms, 322.000ms, 368.000ms와 같이, 일정한 간격으로, 물리층 프레임의 프레임 시간이, 정수의 밀리 초 단위로 되어 있기는 하지만, 정수의 밀리 초 단위로 되지는 않는 프레임 시간도 존재하고 있다.
한편, 도 3에 있어서, 예를 들어 OFDM 심볼수가 12, 즉, 하나의 물리층 프레임에 포함되는 OFDM 심볼수가 12인 경우에 주목하면, OFDM과 GI의 심볼 시간은 1.33ms가 되므로, 토탈의 OFDM 시간은 16.00ms로 된다. 또한, 부트스트랩의 시간은 2.00ms가 되므로, 프레임 길이는 18.00ms(=16.00ms+2.00ms)로 된다.
이 OFDM 심볼수가 12인 경우, 첫번째 물리층 프레임의 프레임 시간은 18.000ms가 되고, 2번째 물리층 프레임의 프레임 시간은 36.000ms(18.00ms+18.00ms)로 된다. 또한, 3번째의 물리층 프레임의 프레임 시간은 54.000ms(36.000ms+18.00ms)가 되고, 4번째 물리층 프레임의 프레임 시간은 72.000ms(54.000ms+18.00ms)로 된다.
마찬가지로, 5번째 이후의 물리층 프레임에 있어서도, 하나 전의 물리층 프레임의 프레임 시간에, 18.00ms를 가산한 시간을, 대상의 물리층 프레임의 프레임 시간으로서 구할 수 있다. 구체적으로는, 5번째 내지 25번째의 물리층 프레임의 프레임 시간으로서는 90.000ms, 108.000ms, 126.000ms, 144.000ms, 162.000ms, 180.000ms, 198.000ms, 216.000ms, 234.000ms, 252.000ms, 270.000ms, 288.000ms, 306.000ms, 324.000ms, 342.000ms, 360.000ms, 378.000ms, 396.000ms, 414.000ms, 432.000ms, 450.000ms가 구해진다.
이와 같이, OFDM 심볼수가 12인 경우, 18.000ms, 36.000ms, ···, 432.000ms, 450.000ms와 같이, 모든 물리층 프레임의 프레임 시간이, 정수의 밀리 초 단위로 되어 있다.
즉, 도 3의 시뮬레이션 결과에 있어서는, OFDM 심볼수가 10, 11, 13, 14, 16, 17, 19, 20이 되는 경우, 물리층 프레임의 프레임 시간이 2개 건너서, 정수의 밀리 초 단위로 되지만, 그 이외의 프레임 시간은, 정수의 밀리 초 단위로 되지는 않는다. 한편, OFDM 심볼수가 12, 15, 18, 21이 되는 경우, 모든 물리층 프레임의 프레임 시간이, 정수의 밀리 초 단위로 된다.
또한, 도 4는 FFT 모드가, 8K 모드이고, 또한, 가드 인터벌(GI)이 768이 되는 경우에 있어서, 하나의 물리층 프레임에 포함되는 OFDM 심볼의 수를 변경했을 때의 물리층 프레임의 프레임 시간의 시뮬레이션 결과를 나타내고 있다. 또한, 도 4에 있어서도, 농담에 의해, 프레임 시간이 정수의 밀리 초 단위로 되어 있는지 여부를 나타내고 있다.
도 4의 시뮬레이션 결과에서는, OFDM 심볼수가 15, 21, 24, 30이 되는 경우, 물리층 프레임의 프레임 시간이 8개 건너서, 정수의 밀리 초 단위로 되지만, 그 이외의 프레임 시간은, 정수의 밀리 초 단위로 되지는 않는다. 또한, OFDM 심볼수가 16, 17, 19, 20, 22, 23, 25, 26, 28, 29가 되는 경우, 모든 물리층 프레임의 프레임 시간이 정수의 밀리 초 단위로 되지는 않는다. 한편, OFDM 심볼수가 27이 되는 경우에는, 모든 물리층 프레임의 프레임 시간이 정수의 밀리 초 단위로 되어 있다.
이상과 같이, 심볼 얼라인드 모드에서는, 시간의 구획을 일치시키기 위한 샘플을 삽입하지 않았기 때문에, FFT 모드나 OFDM 심볼수, 가드 인터벌(GI), 심볼 시간 등의 조합에 따라, 물리층 프레임의 프레임 시간이, 정수의 밀리 초 단위가 될 것인지 여부가 결정된다. 예를 들어, 도 3의 시뮬레이션 결과에서는, 어느 정도의 비율로, 프레임 시간이 정수의 밀리 초 단위로 되어 있지만, 도 4의 시뮬레이션 결과에서는, 프레임 시간이 정수의 밀리 초 단위로 되어 있는 것이 적게 되어 있다.
여기서, 현 상황의 ATSC3.0에서는, 타임 얼라인드 모드에 의한 데이터 전송 시에, 프레임 길이가 밀리 초의 정수배이기 때문에, 시그널링에 의해 전송되는 시각 정보는, 밀리 초의 정밀도로 전송하는 것이 상정되어 있다. 한편, 심볼 얼라인드 모드가 설정된 경우에서도, 프레임 시간이 정수의 밀리 초 단위로 되는 물리층 프레임에서는, 시각 정보가 나타내는 시각과의 오차가 발생하지 않기 때문에 문제가 되지는 않지만, 프레임 시간이 정수의 밀리 초 단위로 되지 않는 물리층 프레임에서는, 시각 정보가 나타내는 시각과의 오차(지터)가 발생하게 된다.
그로 인해, 현 상황에서는, 심볼 얼라인드 모드가 설정된 경우에는, 오차가 발생하지 않는 물리층 프레임과, 오차가 발생하는 물리층 프레임이 존재하기 때문에, 오차가 발생하지 않는 물리층 프레임에서밖에는, 시그널링에 시각 정보를 포함할 수 없게 된다. 이와 같이, 오차가 발생하지 않는 특정한 물리층 프레임에서만, 시각 정보를 전송한다는 것은, 운용이나 실장 등의 자유도가 좁아지게 되기 때문에, 방송 사업자에 있어서는 바람직하지 않다. 한편, 오차가 발생하지 않는 특정한 물리층 프레임 이외의 물리층 프레임에서 시각 정보를 전송했을 경우에는, 오차(라운딩 오차)가 발생해버려, 처리를 행하는 면에서 바람직하지 않다.
본 기술에서는, 이러한 문제를 해결하기 위해서, 시그널링에 의해 전송되는 시각 정보의 정밀도가, 현상의 밀리 초의 정밀도보다도 높은 정밀도가 되게 함으로써, 프레임 모드로서, 심볼 얼라인드 모드가 설정된 경우라도, 모든 물리층 프레임에 있어서, 시각 정보가 나타내는 시각과, 프레임 시간의 오차가 발생하지 않도록 한다(오차를 저감할 수 있도록 한다).
또한, 시그널링에 의해 전송되는 시각 정보는, 물리층 프레임의 스트림에 있어서의 소정의 위치의 절대적인 시각을 나타내고 있다. 스트림에 있어서의 소정의 위치의 시각이란, 소정의 위치의 비트가, 송신 장치(10)에서 처리되고 있는 한가운데의 소정의 타이밍의 시각이다. 여기서, 시각 정보가 시각을 나타내는 물리층 프레임의 스트림에 있어서의 소정의 위치를, 시각 위치라고 하기로 한다.
시각 위치로서는, 예를 들어 시각 정보가 포함되는 프리앰블을 갖는 물리층 프레임의 선두 위치(부트스트랩의 선두 위치)를 채용할 수 있다. 또한, 시각 위치로서는, 예를 들어 시각 정보가 포함되는 프리앰블을 갖는 물리층 프레임의 부트스트랩과 프리앰블의 경계의 위치(부트스트랩의 최후 위치, 또는 프리앰블의 선두 위치)를 채용할 수 있다.
또한, 시각 위치로서는, 예를 들어 시각 정보가 포함되는 프리앰블을 갖는 물리층 프레임의 프리앰블 최후의 위치를 채용할 수 있다. 또한, 기타, 시각 위치로서는, 물리층 프레임의 임의의 위치를 채용할 수 있다.
<3. 시각 정보의 전송 방식>
(L1 기본 정보와 L1 상세 정보의 개요)
도 5는, L1 기본 정보와 L1 상세 정보의 개요를 설명하는 도면이다.
도 5에 있어서, 물리층 프레임의 프리앰블(Preamble)에 포함되는 시그널링으로서는, L1 기본 정보(L1-Basic)와, L1 상세 정보(L1-Detail)가 있다.
여기서, L1 기본 정보와 L1 상세 정보를 비교하면, L1 기본 정보는, 200비트 정도의 비트로 구성되지만, L1 상세 정보는, 400 내지 몇천 비트로 구성되는 점에서 그 사이즈가 상이하다. 또한, 도면 중의 화살표로 나타낸 바와 같이, 프리앰블에서는, L1 기본 정보와 L1 상세 정보가 그 순서대로 판독되기 때문에, L1 상세 정보보다도 L1 기본 정보 쪽이 먼저 판독된다. 또한, L1 기본 정보는, L1 상세 정보와 비교하여, 보다 로버스트하게 전송되는 점에서도 상이하다.
(L1 기본 정보)
도 6은, 도 5의 L1 기본 정보(L1-Basic)의 신택스의 예를 나타내는 도면이다. 또한, L1 기본 정보에 대해서는, 상술한 비특허문헌 1의 「Table 9.2 L1-Basic signaling fields and syntax」에 그 상세한 내용이 기재되어 있다.
2비트의 L1B_content_tag는, 콘텐츠를 식별하는 태그 값을 나타내고 있다. 3비트의 L1B_version은, L1 기본 정보의 버전을 나타내고 있다. 1비트의 L1B_slt_flag는, SLT(Service Labeling Table)가 존재하는지 여부를 나타내고 있다.
1비트의 L1B_time_info_flag는, 시각 정보가 존재하는지 여부를 나타내고 있다. 2비트의 L1B_papr는, PAPR(Peak to Average Power Reduction)의 적용을 나타내고 있다.
1비트의 L1B_frame_length_mode는, 프레임 모드를 나타내고 있다. L1B_frame_length_mode=0인 경우, 프레임 모드는 타임 얼라인드 모드로 된다. 또한, L1B_frame_length_mode=1인 경우, 프레임 모드는 심볼 얼라인드 모드로 된다.
10비트의 L1B_frame_length는, 물리층 프레임의 프레임 길이를 나타내고 있다. 단, 이 L1B_frame_length는, 프레임 모드가 타임 얼라인드 모드가 되는 경우에만 사용되고, 심볼 얼라인드 모드가 되는 경우에는, 미사용으로 된다.
8비트의 L1B_num_subframes는, 물리층 프레임에 포함되는 서브 프레임의 수를 나타내고 있다. 3비트의 L1B_preamble_num_symbols는, 프리앰블에 포함되는 OFDM 심볼의 수를 나타내고 있다. 3비트의 L1B_preamble_reduced_carriers는, 프리앰블에서 사용되는 FFT 사이즈의 캐리어 최대수의 감소에 따른 제어 유닛의 수를 나타내고 있다.
16비트의 L1B_L1_Detail_size_bits는, L1 상세 정보(L1-Detail)의 사이즈를 나타내고 있다. 3비트의 L1B_L1_Detail_fec_type는, L1 상세 정보의 FEC 타입을 나타내고 있다. 2비트의 L1B_L1_Detail_additional_parity_mode는, L1 상세 정보의 추가 패리티 모드를 나타내고 있다. 19비트의 L1B_L1_Detail_total_cells는, L1 상세 정보의 토탈 사이즈를 나타내고 있다.
1비트의 L1B_First_Sub_mimo는, 선두의 서브 프레임 MIMO(Multiple Input and Multiple Output)의 사용 상황을 나타내고 있다. 1비트의 L1B_First_Sub_miso는, 선두의 서브 프레임 MISO(Multiple Input and Single Output)의 사용 상황을 나타내고 있다.
2비트의 L1B_First_Sub_fft_size는, 선두의 서브 프레임 FFT 사이즈를 나타내고 있다. 3비트의 L1B_First_Sub_reduced_carriers는, 선두의 서브 프레임에서 사용되는 FFT 사이즈의 캐리어 최대수의 감소에 따른 제어 유닛의 수를 나타내고 있다. 4비트의 L1B_First_Sub_guard_interval은, 선두의 서브 프레임 가드 인터벌 길이를 나타내고 있다.
13비트의 L1B_First_Sub_excess_samples는, 선두의 서브 프레임에 있어서, 가드 인터벌 부분에 삽입되는 여분의 샘플의 수를 나타내고 있다. 단, 이 L1B_First_Sub_excess_samples는, 프레임 모드가 타임 얼라인드 모드가 되는 경우에만 사용되고, 심볼 얼라인드 모드가 되는 경우에는, 미사용으로 된다.
11비트의 L1B_First_Sub_num_ofdm_symbols는, 선두의 서브 프레임에 포함되는 OFDM 심볼의 수를 나타내고 있다. 5비트의 L1B_First_Sub_scattered_pilot_pattern은, 선두의 서브 프레임에서 사용되고 있는 SP 패턴(Scattered Pilot Pattern)을 나타내고 있다. 3비트의 L1B_First_Sub_scattered_pilot_boost는, SP 패턴의 크기를 높이는 값을 나타내고 있다.
1비트의 L1B_First_Sub_sbs_first는, 선두의 서브 프레임 SBS(Subframe Boundary Symbol)의 선두를 나타내고 있다. 1비트의 L1B_First_Sub_sbs_last는, 선두의 서브 프레임 SBS의 말미를 나타내고 있다.
L1B_Reserved는, 리저브드 영역(Reserved)이다. L1B_Reserved의 비트수는, 미확정(TBD: ToBeDetermined)이지만, 현 상황에서는, 49비트로 되어 있다. 32비트의 L1B_crc는, CRC(Cyclic Redundancy Check) 값이 포함되는 것을 나타내고 있다.
또한, 포맷(Format)으로서, uimsbf(unsigned integer most significant bit first)가 지정된 경우, 비트 연산을 하여, 정수로서 다루어지는 것을 의미하고 있다. 또한, bslbf(bit string, left bit first)가 지정된 경우에는, 비트 열로서 다루어지는 것을 의미한다.
(L1 상세 정보)
도 7은, 도 5의 L1 상세 정보(L1-Detail)의 신택스의 예를 나타내는 도면이다. 단, 도 7의 신택스에는, L1 상세 정보 중, 특히 본 기술에 관계하는 부분을 발췌하여 기술하고 있다. 또한, L1 상세 정보에 대해서는, 상술한 비특허문헌 1의 「Table 9.12 L1-Detail signaling fields and syntax」에 그 상세한 내용이 기재되어 있다.
4비트의 L1D_version은, L1 상세 정보의 버전을 나타내고 있다.
3비트의 L1D_num_rf에 따른 루프에는, 채널 본딩(Channel Bonding)에 관한 파라미터가 배치된다. 즉, 19비트의 L1D_rf_frequency는, 채널 본딩에 의해 결합되는 RF 채널의 주파수를 나타내고 있다.
여기서, 도 7의 L1 기본 정보에 있어서, L1B_time_info_flag=1이 되는 경우, 시각 정보가 존재하고 있음을 나타내고 있으므로, L1 상세 정보에는, 시각 정보로서의 L1D_time_info가 배치된다. 또한, L1D_time_info의 비트수는, 미확정(TBD)으로 된다.
단, 상술한 바와 같이, 현상의 ATSC3.0에서는, 시그널링에 의해 전송되는 시각 정보는, 밀리 초의 정밀도로 전송하는 것이 상정되어 있기 때문에, 도 8에 도시하는 바와 같이, L1D_time_info로서는, 32비트의 L1D_time_sec와, 10비트의 L1D_time_msec가 배치되는 것이 상정된다. 또한, L1D_time_sec는, 초 단위의 시각 정보를 나타내고 있다. 또한, L1D_time_msec는, 밀리 초 단위의 시각 정보를 나타내고 있다.
이에 비해, 본 기술에서는, 현상의 밀리 초 단위의 정밀도보다도 높은 정밀도의 시각 정보로서, 초 단위(sec)와 밀리 초 단위(msec)의 시각 정보 외에, 마이크로 초 단위(usec)와 나노 초 단위(nsec)의 시각 정보가 전송되도록 한다.
또한, 초 이하의 정밀도에 대응하는 필드로서는, 예를 들어 10비트의 밀리 초 단위의 시각 정보뿐만 아니라, 10비트의 마이크로 초 단위의 시각 정보, 또는, 20비트의 마이크로 초 단위와 나노 초 단위의 시각 정보를 전송할 수 있지만, 도 1의 전송 시스템(1)에서 방송에 의한 서비스를 행하는 경우에, 그 방송에 필요 이상의 정밀도의 시각 정보를 전송하는 것은, 전송 대역을 압박하는 등의 영향이 있기 때문에, 효과적이지 않다.
그 때문에, 예를 들어 시각 정보로서, IEEE 1588-2008에서 규정되어 있는 PTP(Precision Time Protocol)를 이용하는 것을 상정하면, PTP는, 초 필드와 나노 초 필드로 구성되고, 나노 초 단위의 정밀도에 대응하는 것이 가능하게 되므로, 나노 초 정밀도보다도 높은 정밀도의 시각 정보, 즉, 초 단위와 마이크로 초 단위의 시각 정보 외에, 30비트를 초과하는 각 정보는 전송하지 않도록 하는 것으로 한다. 단, 10비트의 마이크로 초 단위의 시각 정보나, 20비트의 마이크로 초 단위와 나노 초 단위의 시각 정보 등은 일례이며, 다른 비트 정밀도를 채용하게 해도 된다.
또한, 종래의 MPEG2-TS 방식에 있어서는, 클럭의 정밀도가 규격으로 정해져 있지만(예를 들어, 27MHz, 30ppm), 프레임 모드가 심볼 얼라인드 모드가 되는 경우에 있어서의, 시그널링의 시각 정보가 나타내는 시각과 프레임 시간의 오차(라운딩 오차)를 MPEG2-TS 방식의 정밀도를 비교하면, 도 9에 나타내게 된다. 즉, 도 9의 표로부터, 밀리 초 단위의 시각 정보에서는, 그 정밀도가, MPEG2-TS 방식의 정밀도보다도 열화되어 있지만, 마이크로 초 단위와 나노 초 단위의 시각 정보에서는, MPEG2-TS 방식의 정밀도보다도 상당히 정밀도가 향상되어 있는 것은 명확하다.
따라서, MPEG2-TS 방식과의 정밀도의 비교에 의해서도, 시그널링으로, 10비트의 마이크로 초 단위의 시각 정보나, 20비트의 마이크로 초 단위와 나노 초 단위의 시각 정보를 전송하는 것이 유효하다는 것이 실증되어 있다. 단, 도 9의 오차(라운딩 오차)이지만, 상술한 바와 같이, 프레임 모드가 타임 얼라인드 모드인 경우에는, 오차는 발생하지 않고, 또한, 심볼 얼라인드 모드가 되는 경우에도, 프레임 시간이 정수의 밀리 초 단위로 되는 물리층 프레임에서는, 오차는 발생하지 않는다.
그리고, 본 기술에 있어서는, 이들 시각 정보는, 시그널링으로서의 L1 기본 정보와 L1 상세 정보에 포함되도록 한다. 또한, 이들 시각 정보는, L1 기본 정보 및 L1 상세 정보 중 적어도 한쪽 정보에 포함되어 있으면 되고, 이하, L1 기본 정보와 L1 상세 정보의 양쪽으로 시각 정보를 전송하는 L1B+L1D 전송 방식과, L1 기본 정보만으로 시각 정보를 전송하는 L1B 전송 방식 a 또는 L1B 전송 방식 b와, L1 상세 정보만으로 시각 정보를 전송하는 L1D 전송 방식의 4개의 전송 방식에 대하여 설명한다.
(1) L1B+L1D 전송 방식
먼저, 도 10 및 도 11의 신택스를 참조하여, L1B+L1D 전송 방식에 대하여 설명한다.
(L1 기본 정보의 신택스)
도 10은, L1B+L1D 전송 방식의 L1 기본 정보의 신택스의 예를 나타내는 도면이다. 단, 도 10의 신택스에서는, 특징적인 부분만을 발췌하여 기술하고 있다.
도 10의 L1 기본 정보에 있어서는, 프레임 모드가 타임 얼라인드 모드(L1B_frame_length_mode=0)가 되는 경우에, 10비트의 L1B_frame_length가 배치되는 한편, 프레임 모드가 심볼 얼라인드 모드(L1B_frame_length_mode=1)가 되는 경우에는, 10비트의 L1B_time_usec가 배치되도록 한다.
또한, 도 10의 L1 기본 정보에 있어서는, 프레임 모드가 타임 얼라인드 모드(L1B_frame_length_mode=0)가 되는 경우에, 13비트의 L1B_First_Sub_excess_samples가 배치되는 한편, 프레임 모드가 심볼 얼라인드 모드(L1B_frame_length_mode=1)가 되는 경우에는, 10비트의 L1B_time_nsec가 배치되도록 한다. 단, 10비트의 L1B_time_nsec가 배치되는 경우, 거기에 이어지는 3비트는, 리저브드 영역(Reserved)으로 된다.
이와 같이, L1B+L1D 전송 방식의 L1 기본 정보에서는, 프레임 모드가 심볼 얼라인드 모드가 되는 경우에, 마이크로 초 단위의 시각 정보(L1B_time_usec)와, 나노 초 단위의 시각 정보(L1B_time_nsec)가 포함되게 된다.
(L1 상세 정보의 신택스)
도 11은, L1B+L1D 전송 방식의 L1 상세 정보의 신택스의 예를 나타내는 도면이다. 단, 도 11의 신택스에서는, 특징적인 부분만을 발췌하여 기술하고 있다.
도 11의 L1 상세 정보에 있어서는, 시각 정보가 존재(L1B_time_info_flag =1)하는 경우에, 32비트의 L1D_time_sec와, 10비트의 L1D_time_msec가 배치된다.
이와 같이, L1B+L1D 전송 방식의 L1 상세 정보에서는, 시각 정보가 존재하는 경우에, 초 단위의 시각 정보(L1D_time_sec)와, 밀리 초 단위의 시각 정보(L1D_time_msec)가 포함되게 된다.
이상과 같이, L1B+L1D 전송 방식을 채용한 경우에는, L1 기본 정보와 L1 상세 정보에 의해, 초 단위의 시각 정보(L1D_time_sec), 밀리 초 단위의 시각 정보(L1D_time_msec), 마이크로 초 단위의 시각 정보(L1B_time_usec) 및 나노 초 단위의 시각 정보(L1B_time_nsec)가 전송된다. 그리고, 이들 시각 정보로부터 얻어지는 시각은, 나노 초 단위의 정밀도를 갖고 있기 때문에, 프레임 모드가 심볼 얼라인드 모드가 되는 경우에, 프레임 길이(프레임 시간)가 정수의 밀리 초 단위로 되지 않는 물리층 프레임이어도, 시각 정보가 나타내는 시각과의 오차(지터)를 억제할 수 있다.
또한, L1B+L1D 전송 방식에서는, 현상의 L1 상세 정보의 구조를 그대로 이용함과 함께, 현상의 L1 기본 정보의 구조에 약간의 수정을 가하는 것만으로(심볼 얼라인드 모드 시에, 불사용이 되는 L1B_frame_length와 L1B_First_Sub_excess_samples를 이용하고 있음), 실현할 수 있기 때문에, 수정의 비용을 경감할 수 있다. 또한, L1B+L1D 전송 방식에서는, 현상의 L1 기본 정보와 L1 상세 정보의 구조를 많이 이용하고 있기 때문에, 효율적이기도 하다.
또한, 도 10의 L1 기본 정보에서는, 심볼 얼라인드 모드 시에, 마이크로 초 단위의 시각 정보(L1B_time_usec)와, 나노 초 단위의 시각 정보(L1B_time_nsec)가 포함되는 예를 나타냈지만, 마이크로 초 단위의 시각 정보(L1B_time_usec)만이 포함되게 해도 되고, 그 경우에도, 밀리 초 단위보다도 높은 정밀도의 시각 정보가 전송되게 된다.
(2a) L1B 전송 방식 a
이어서, 도 12 및 도 13의 신택스를 참조하여, L1B 전송 방식 a에 대하여 설명한다.
(L1 기본 정보의 신택스)
도 12는, L1B 전송 방식 a의 L1 기본 정보의 신택스의 예를 나타내는 도면이다. 단, 도 12의 신택스에서는, 특징적인 부분만을 발췌하여 기술하고 있다.
도 12의 L1 기본 정보에 있어서는, 시각 정보가 존재(L1B_time_info_flag=1)하는 경우에, 32비트의 L1B_time_sec와, 10비트의 L1B_time_msec가 배치된다.
또한, 도 12의 L1 기본 정보에 있어서는, 프레임 모드가 타임 얼라인드 모드(L1B_frame_length_mode=0)가 되는 경우에, 10비트의 L1B_frame_length가 배치되는 한편, 프레임 모드가 심볼 얼라인드 모드(L1B_frame_length_mode=1)가 되는 경우에는, 10비트의 L1B_time_usec가 배치되도록 한다.
또한, 도 12의 L1 기본 정보에 있어서는, 프레임 모드가 타임 얼라인드 모드(L1B_frame_length_mode=0)가 되는 경우에, 13비트의 L1B_First_Sub_excess_samples가 배치되는 한편, 프레임 모드가 심볼 얼라인드 모드(L1B_frame_length_mode=1)가 되는 경우에는, 10비트의 L1B_time_nsec와 3비트의 Reserved가 배치되도록 한다.
또한, L1B_Reserved는, 7비트 또는 49비트로 되어 있지만, 시각 정보가 존재하는 경우에, 7비트의 리저브드 영역(Reserved)이 확보되고, 시각 정보가 존재하지 않는 경우에는, 49비트의 리저브드 영역(Reserved)이 확보되는 것을 의미한다.
이와 같이, L1B 전송 방식 a의 L1 기본 정보에서는, 시각 정보가 존재하고, 또한, 프레임 모드가 심볼 얼라인드 모드가 되는 경우에, 초 단위의 시각 정보(L1B_time_sec)와, 밀리 초 단위의 시각 정보(L1B_time_msec)와, 마이크로 초 단위의 시각 정보(L1B_time_usec)와, 나노 초 단위의 시각 정보(L1B_time_nsec)가 포함되게 된다.
(L1 상세 정보의 신택스)
도 13은, L1B 전송 방식 a의 L1 상세 정보의 신택스의 예를 나타내는 도면이다. 단, 도 13의 신택스에서는, 특징적인 부분만을 발췌하여 기술하고 있다.
도 13의 L1 상세 정보에 있어서는, 시각 정보가 L1 기본 정보측에 배치되기 때문에, 거기에, 시각 정보(L1D_time_info)가 배치되는 일은 없다.
이상과 같이, L1B 전송 방식 a를 채용한 경우에는, L1 기본 정보만에 의해, 초 단위의 시각 정보(L1B_time_sec), 밀리 초 단위의 시각 정보(L1B_time_msec), 마이크로 초 단위의 시각 정보(L1B_time_usec) 및 나노 초 단위의 시각 정보(L1B_time_nsec)가 전송된다. 그리고, 이들 시각 정보로부터 얻어지는 시각은, 나노 초 단위의 정밀도를 갖고 있기 때문에, 프레임 모드가 심볼 얼라인드 모드가 되는 경우에, 프레임 길이(프레임 시간)가 정수의 밀리 초 단위로 되지 않는 물리층 프레임이어도, 시각 정보가 나타내는 시각과의 오차(지터)를 억제할 수 있다.
또한, L1B 전송 방식 a에서는, 시각 정보가 로버스트한 L1 기본 정보만으로 전송되기 때문에, 모든 시각 정보를 충분히 보호할 수 있다. 또한, L1B 전송 방식 a에서는, 모든 시각 정보를 L1 기본 정보로 전송하고 있기 때문에, 모든 시각 정보를 L1 기본 정보측에 통합하여 함께 전송하는 것이 가능하게 된다. 이에 의해, 예를 들어 수신 장치(20)에서는, 보다 신속하게, L1 기본 정보에 포함되는 시각 정보를 복호하는 것이 가능하게 된다.
또한, 도 12의 L1 기본 정보에서는, 심볼 얼라인드 모드 시에, 마이크로 초 단위의 시각 정보(L1B_time_usec)와, 나노 초 단위의 시각 정보(L1B_time_nsec)가 포함되는 예를 나타냈지만, 마이크로 초 단위의 시각 정보(L1B_time_usec)만이 포함되게 해도 되고, 그 경우에도, 밀리 초 단위보다도 높은 정밀도의 시각 정보가 전송되게 된다.
(2b) L1B 전송 방식 b
이어서, 도 14 및 도 15의 신택스를 참조하여, L1B 전송 방식 b에 대하여 설명한다.
(L1 기본 정보의 신택스)
도 14는, L1B 전송 방식 b의 L1 기본 정보의 신택스의 예를 나타내는 도면이다. 단, 도 14의 신택스에서는, 특징적인 부분만을 발췌하여 기술하고 있다.
도 14의 L1 기본 정보에 있어서는, 1비트의 L1B_time_info_flag가 삭제되고, 32비트의 L1B_time_sec와, 10비트의 L1B_time_msec가 항상 배치된다.
또한, 도 14의 L1 기본 정보에 있어서는, 프레임 모드가 타임 얼라인드 모드(L1B_frame_length_mode=0)가 되는 경우에, 10비트의 L1B_frame_length가 배치되는 한편, 프레임 모드가 심볼 얼라인드 모드(L1B_frame_length_mode=1)가 되는 경우에는, 10비트의 L1B_time_usec가 배치되도록 한다.
또한, 도 14의 L1 기본 정보에 있어서는, 프레임 모드가 타임 얼라인드 모드(L1B_frame_length_mode=0)가 되는 경우에, 13비트의 L1B_First_Sub_excess_samples가 배치되는 한편, 프레임 모드가 심볼 얼라인드 모드(L1B_frame_length_mode=1)가 되는 경우에는, 10비트의 L1B_time_nsec와 3비트의 Reserved가 배치되도록 한다.
이와 같이, L1B 전송 방식 b의 L1 기본 정보에서는, 프레임 모드가 타임 얼라인드 모드가 되는 경우에, 초 단위의 시각 정보(L1B_time_sec)와, 밀리 초 단위의 시각 정보(L1B_time_msec)가 포함되고, 프레임 모드가 심볼 얼라인드 모드가 되는 경우에는, 초 단위와 밀리 단위의 시각 정보 외에, 마이크로 초 단위의 시각 정보(L1B_time_usec)와, 나노초 단위의 시각 정보(L1B_time_nsec)가 포함되게 된다.
(L1 상세 정보의 신택스)
도 15는, L1B 전송 방식 b의 L1 상세 정보의 신택스의 예를 나타내는 도면이다. 단, 도 15의 신택스에서는, 특징적인 부분만을 발췌하여 기술하고 있다.
도 15의 L1 상세 정보에 있어서는, 시각 정보가 L1 기본 정보측에 배치되기 때문에, 거기에, 시각 정보(L1D_time_info)가 배치되는 일은 없다.
이상과 같이, L1B 전송 방식 b를 채용한 경우에는, L1 기본 정보만에 의해, 초 단위의 시각 정보(L1B_time_sec), 밀리 초 단위의 시각 정보(L1B_time_msec), 마이크로 초 단위의 시각 정보(L1B_time_usec), 및 나노 초 단위의 시각 정보(L1B_time_nsec)가 전송된다. 그리고, 이들 시각 정보로부터 얻어지는 시각은, 나노 초 단위의 정밀도를 갖고 있기 때문에, 프레임 모드가 심볼 얼라인드 모드가 되는 경우에, 프레임 길이(프레임 시간)가 정수의 밀리 초 단위로 되지 않는 물리층 프레임이어도, 시각 정보가 나타내는 시각과의 오차(지터)를 억제할 수 있다.
또한, L1B 전송 방식 b에서는, 시각 정보가 로버스트한 L1 기본 정보만으로 전송되기 때문에, 모든 시각 정보를 충분히 보호할 수 있다. 또한, L1B 전송 방식 b에서는, 모든 시각 정보를 L1 기본 정보로 전송하고 있기 때문에, 모든 시각 정보를 L1 기본 정보측에 통합하여 함께 전송하는 것이 가능하게 된다. 그 때문에, 예를 들어 수신 장치(20)에서는, 보다 신속하게, L1 기본 정보에 포함되는 시각 정보를 복호하는 것이 가능하게 된다. 또한, L1B 전송 방식 b에서는, 타임 얼라인드 모드나 심볼 얼라인드 모드의 프레임 모드에 관계없이, 항상 시각 정보를 전송하는 것이 가능하게 된다.
또한, 도 14의 L1 기본 정보에서는, 심볼 얼라인드 모드 시에, 마이크로 초 단위의 시각 정보(L1B_time_usec)와, 나노 초 단위의 시각 정보(L1B_time_nsec)가 포함되는 예를 나타냈지만, 마이크로 초 단위의 시각 정보(L1B_time_usec)만이 포함되게 해도 되고, 그 경우에도, 밀리 초 단위보다도 높은 정밀도의 시각 정보가 전송되게 된다.
(3) L1D 전송 방식
마지막으로, 도 16 및 도 17의 신택스를 참조하여, L1D 전송 방식에 대하여 설명한다.
(L1 기본 정보의 신택스)
도 16은, L1D 전송 방식의 L1 기본 정보의 신택스의 예를 나타내는 도면이다. 단, 도 16의 신택스에서는, 특징적인 부분만을 발췌하여 기술하고 있다.
도 16의 L1 기본 정보에 있어서는, L1B_time_info_flag가, 1비트가 아닌, 2비트 확보되어 있다. 예를 들어, L1B_time_info_flag=01인 경우에는, 초 단위와 밀리 단위의 시각 정보가 배치되는 것으로 한다. 예를 들어, L1B_time_info_flag=10인 경우에는, 초 단위와 밀리 단위의 시각 정보 외에, 마이크로 초 단위의 시각 정보가 배치되는 것으로 한다. 또한, 예를 들어 L1B_time_info_flag=11인 경우에는, 초 단위와 밀리 단위의 시각 정보 외에, 마이크로 초 단위와 나노 초 단위의 시각 정보가 배치되는 것으로 한다.
또한, 도 16의 L1 기본 정보에 있어서는, 시각 정보가 L1 상세 정보측에 배치되기 때문에, 거기에, 시각 정보가 배치되는 일은 없다. 또한, 도 16의 L1 기본 정보에 있어서는, L1B_time_info_flag가 2비트로 되었기 때문에, L1B_Reserved는 48비트로 된다.
(L1 상세 정보의 신택스)
도 17은, L1D 전송 방식의 L1 상세 정보의 신택스의 예를 나타내는 도면이다. 단, 도 17의 신택스에서는, 특징적인 부분만을 발췌하여 기술하고 있다.
도 17의 L1 상세 정보에 있어서, L1B_time_info_flag=01이 되는 경우에는, 초 단위의 시각 정보(L1D_time_sec)와, 밀리 초 단위의 시각 정보(L1D_time_msec)가 배치된다.
또한, 도 17의 L1 상세 정보에 있어서, L1B_time_info_flag=10이 되는 경우에는, 초 단위의 시각 정보(L1D_time_sec)와, 밀리 초 단위의 시각 정보(L1D_time_msec) 외에, 마이크로 초 단위의 시각 정보(L1D_time_usec)가 배치된다.
또한, 도 17의 L1 상세 정보에 있어서, L1B_time_info_flag=11이 되는 경우에는, 초 단위의 시각 정보(L1D_time_sec)와, 밀리 초 단위의 시각 정보(L1D_time_msec) 외에, 마이크로 초 단위의 시각 정보(L1D_time_usec)와, 나노 초 단위의 시각 정보(L1D_time_nsec)가 배치된다.
이와 같이, L1D 전송 방식의 L1 상세 정보에서는, L1B_time_info_flag의 값에 따라, 초 단위의 시각 정보(L1D_time_sec)와 밀리 초 단위의 시각 정보(L1D_time_msec) 외에, 마이크로 초 단위의 시각 정보(L1D_time_usec), 또는 마이크로 초 단위의 시각 정보(L1D_time_usec) 및 나노 초 단위의 시각 정보(L1D_time_nsec)가 포함되게 된다.
이상과 같이, L1D 전송 방식을 채용한 경우에는, L1 상세 정보만에 의해, 초 단위의 시각 정보(L1D_time_sec), 밀리 초 단위의 시각 정보(L1D_time_msec), 마이크로 초 단위의 시각 정보(L1D_time_usec), 또는, 마이크로 초 단위의 시각 정보(L1D_time_usec) 및 나노 초 단위의 시각 정보(L1D_time_nsec)가 전송된다. 그리고, 이들 시각 정보로부터 얻어지는 시각은, 마이크로 초 단위 또는 나노 초 단위의 정밀도를 갖고 있기 때문에, 프레임 모드가 심볼 얼라인드 모드가 되는 경우에, 프레임 길이(프레임 시간)가 정수의 밀리 초 단위로 되지 않는 물리층 프레임이어도, 시각 정보가 나타내는 시각과의 오차(지터)를 억제할 수 있다.
또한, L1D 전송 방식에서는, 시각 정보가 L1 상세 정보만으로 전송되기 때문에, 모든 시각 정보를 동일한 레벨로 보호할 수 있다. 또한, L1D 전송 방식에서는, 모든 시각 정보를 L1 상세 정보로 전송하고 있기 때문에, 모든 시각 정보를 L1 상세 정보측에 통합하여 함께 전송하는 것이 가능하게 된다. 그 때문에, 예를 들어 수신 장치(20)에서는, L1 상세 정보에 포함되는 시각 정보(심플로 구성된 시각 정보)를 용이하게 해석하는 것이 가능하게 된다.
또한, 도 17의 L1 상세 정보에서는, L1B_time_info_flag의 값에 따라, 3종류의 시각 정보가 배치되는 예를 나타냈지만, 초 단위의 시각 정보(L1D_time_sec), 밀리 초 단위의 시각 정보(L1D_time_msec) 및 마이크로 초 단위의 시각 정보(L1D_time_usec)만이 배치되게 해도 되고, 그 경우에도, 밀리 초 단위보다도 높은 정밀도의 시각 정보가 전송되게 된다.
이상, L1B+L1D 전송 방식, L1B 전송 방식 a, L1B 전송 방식 b 및 L1D 전송 방식의 4개의 전송 방식에 대하여 설명했지만, 구체적으로는, 예를 들어 다음에 도시한 바와 같은 시각 정보가 전송되게 된다. 즉, 시각 정보가, 2진화 10진수(BCD: Binary Coded Decimal)에 의해 표현됨으로써, 예를 들어 L1B+L1D 전송 방식에 있어서, 밀리 초 단위의 시각 정보(L1D_time_msec)와, 마이크로 초 단위의 시각 정보(L1B_time_usec)와, 나노 초 단위의 시각 정보(L1B_time_nsec)를 "0.123456789ns"라고 나타낼 수 있다.
이 경우에 있어서, 밀리 초 단위의 시각 정보(L1D_time_msec)는 "123"(=0x07c:00_0111_1011b)에 상당하고, 마이크로 초 단위의 시각 정보(L1B_time_usec)는 "456"(=0x1c8:01_1100_1000b)에 상당하고, 나노 초 단위의 시각 정보(L1B_time_nsec)는 "789"(=0x315:11_0001_0101b)에 상당하고 있다. 즉, "123"인 밀리 초 단위의 시각 정보(L1D_time_msec)를 전송하는 것 외에, "456"인 마이크로 초 단위의 시각 정보와, "789"인 나노 초 단위의 시각 정보(L1B_time_nsec)도, 필요에 따라 전송하게 된다. 바꾸어 말하면, 상술한 "0.123456789ns" 중, "456789ns"의 부분이 차분의 시각 정보로 된다.
또한, 상술한 설명에서는, 프레임 모드가 심볼 얼라인드 모드가 되는 경우에, 프레임 길이(프레임 시간)가 정수의 밀리 초 단위로 되지 않는 물리층 프레임(밀리 초 단위보다도 높은 정밀도를 갖는 물리층 프레임)이 전송되는 것을 전제로, 시그널링(L1 기본 정보, L1 상세 정보)으로서, 밀리 초 단위보다도 높은 정밀도의 시각 정보를 전송하는 경우를 설명하였다. 여기에서는, 프레임 길이가 정수의 밀리 초 단위보다도 높은 정밀도가 되는 물리층 프레임뿐만 아니라, 프레임 길이가 정수의 밀리 초 단위로 되는 물리층 프레임이 전송되는 경우에도, 시그널링으로서 밀리 초 단위보다도 높은 정밀도의 시각 정보를 전송하게 해도 된다.
즉, 물리층 프레임을 발신(개시)하는 타이밍이, 밀리 초 단위가 아닌 경우(밀리 초 단위보다도 높은 정밀도로 되는 경우)이며, 프레임 길이가 정수의 밀리 초 단위로 되는 물리층 프레임이 전송될 때에는, 프레임 시간이 정수의 밀리 초 단위로 되지 않는 물리층 프레임이 존재하게 되므로, 이 경우에는, 밀리 초 단위보다도 높은 정밀도의 시각 정보를 전송함으로써, 시각 정보가 나타내는 시각과, 프레임 시간과의 오차(지터)를 억제하는 것이 가능하게 된다.
이에 의해, 물리층 프레임의 프레임 길이가 정수의 밀리 초 단위이며, 또한, 물리층 프레임을 발신하는 타이밍이 밀리 초 단위가 아닌 경우에도, 자유롭게, 물리층 프레임을 전송할 수 있기 때문에, 실장을 보다 용이하게 하는 것이 가능하게 된다.
<4. 송신측과 수신측의 상세한 구성>
(송신 장치와 수신 장치의 구성예)
도 18은, 송신측의 송신 장치(10)와, 수신측의 수신 장치(20)의 구성예를 도시하는 도면이다.
도 18에 있어서, 송신 장치(10)는 입력 포맷 처리부(InputFormat)(101), BICM(Bit Interleaved Coding and Modulation) 처리부(102), 프레임·인터리브 처리부(Frame and Interleave)(103) 및 파형 처리부(Waveform)(104)로 구성된다.
입력 포맷 처리부(101)는, 입력되는 입력 스트림에 대하여, 필요한 처리를 실시하고, 그것에 의해 얻어지는 데이터를 저장한 패킷을, PLP(Physical Layer Pipe)에 분배하는 처리를 행한다. 입력 포맷 처리부(101)에 의해 처리된 데이터는, BICM 처리부(102)에 출력된다.
BICM 처리부(102)는, 입력 포맷 처리부(101)로부터 입력되는 데이터에 대하여, 오류 정정 처리나 비트 인터리브, 직교 변조 등의 처리를 행한다. BICM 처리부(102)에 의해 처리된 데이터는, 프레임·인터리브 처리부(103)에 출력된다.
프레임·인터리브 처리부(103)는, BICM 처리부(102)로부터 입력되는 데이터에 대하여, 시간 방향이나 주파수 방향의 인터리브 등의 처리를 행한다. 프레임·인터리브 처리부(103)에 의해 처리된 데이터는, 파형 처리부(104)에 출력된다.
파형 처리부(104)는, 프레임·인터리브 처리부(103)로부터 입력되는 데이터에 기초하여, OFDM(Orthogonal Frequency Division Multiplexing) 신호를 생성하고, 전송로(30)를 개재하여 송신한다. 또한, 파형 처리부(104)의 상세한 구성은, 도 19를 참조하여 후술한다.
또한, 도 18에 있어서, 수신 장치(20)는 파형 처리부(Waveform)(201), 프레임·디인터리브 처리부(Frame and De-Interleave)(202), De-BICM 처리부(203) 및 출력 포맷 처리부(Output Format)(204)로 구성된다.
파형 처리부(201)는, 송신 장치(10)로부터 전송로(30)를 개재하여 송신되는, OFDM 신호를 수신하여, OFDM 신호에 대한 신호 처리를 행한다. 파형 처리부(201)에 의해 처리된 데이터는, 프레임·디인터리브 처리부(202)에 출력된다. 또한, 파형 처리부(201)의 상세한 구성은, 도 21을 참조하여 후술한다.
프레임·디인터리브 처리부(202)는, 파형 처리부(201)로부터 입력되는 데이터에 대하여, 주파수 방향이나 시간 방향의 디인터리브 등의 처리를 행한다. 프레임·디인터리브 처리부(202)에 의해 처리된 데이터는, De-BICM 처리부(203)에 출력된다.
De-BICM 처리부(203)는, 프레임·디인터리브 처리부(202)로부터 입력되는 데이터에 대하여, 직교 복조, 비트 디인터리브나 오류 정정 처리 등의 처리를 행한다. De-BICM 처리부(203)에 의해 처리된 데이터는, 출력 포맷 처리부(204)에 출력된다.
출력 포맷 처리부(204)는, De-BICM 처리부(203)로부터 입력되는 데이터에 대하여, 필요한 처리를 실시하고, 그것에 의해 얻어지는 출력 스트림을 출력한다.
(송신측의 파형 처리부의 구성예)
도 19는, 도 18의 송신 장치(10)의 파형 처리부(104)의 구성예를 도시하는 도면이다.
도 19에 있어서, 파형 처리부(104)는 데이터 처리부(Data)(131), 프리앰블 처리부(Preamble)(132), 및 부트스트랩 처리부(Bootstrap)(133)를 포함하여 구성된다.
데이터 처리부(131)는, 물리층 프레임의 페이로드(Payload)에 포함되는 데이터에 관한 처리를 행한다.
프리앰블 처리부(132)는, 물리층 프레임의 프리앰블(Preamble)에 포함되는 시그널링에 관한 처리를 행한다. 이 시그널링에는, L1 기본 정보(L1-Basic)와, L1 상세 정보(L1-Detail)가 포함된다.
여기서, L1B+L1D 전송 방식을 채용한 경우, 프리앰블 처리부(132)는 마이크로 초 단위와 나노 초 단위의 시각 정보(L1B_time_usec, L1B_time_nsec)를 포함하는 L1 기본 정보(도 10)와, 초 단위와 밀리 초 단위의 시각 정보(L1D_time_sec, L1D_time_msec)를 포함하는 L1 상세 정보(도 11)를 생성하고, 시그널링으로서 물리층 프레임에 포함한다.
또한, L1B 전송 방식 a 또는 L1B 전송 방식 b를 채용한 경우, 프리앰블 처리부(132)는 초 단위, 밀리 초 단위, 마이크로 초 단위 및 나노 초 단위의 시각 정보(L1B_time_sec, L1B_time_msec, L1B_time_usec, L1B_time_nsec)를 포함하는 L1 기본 정보(도 12 또는 도 14)를 생성하고, 시그널링으로서 물리층 프레임에 포함한다. 단, 이 경우, L1 상세 정보(도 13 또는 도 15)에는, 시각 정보는 포함되지 않게 된다.
또한, L1D 전송 방식을 채용한 경우, 프리앰블 처리부(132)는 초 단위, 밀리 초 단위, 마이크로 초 단위 및 나노 초 단위의 시각 정보(L1D_time_sec, L1D_time_msec, L1D_time_usec, L1D_time_nsec)를 포함하는 L1 상세 정보(도 17)를 생성하고, 시그널링으로서 물리층 프레임에 포함한다. 단, 이 경우, L1 기본 정보(도 16)에는, 시각 정보는 포함되지 않게 된다.
부트스트랩 처리부(133)는, 물리층 프레임의 부트스트랩(Bootstrap)에 포함되는 데이터나 시그널링에 관한 처리를 행한다.
또한, 도 19에는 도시하지 않았으나, 파형 처리부(104)에 있어서는, 파일럿(PILOTS)의 심볼을 삽입하는 처리, MISO에 관한 처리, IFFT(Inverse Fast Fourier Transform)에 관한 처리, PAPR에 관한 처리 및 가드 인터벌에 관한 처리를 행하는 처리부가 설치되고, 그 처리들이 행해진다.
(송신측 데이터 처리)
이어서, 도 20의 흐름도를 참조하여, 도 18의 송신 장치(10)에 의해 실행되는 송신측 데이터 처리의 흐름에 대하여 설명한다.
스텝 S101에 있어서, 입력 포맷 처리부(101)는, 입력 데이터 처리를 행한다. 이 입력 데이터 처리에서는, 입력되는 인풋 스트림에 대하여, 필요한 처리가 실시되고, 그것에 의해 얻어지는 데이터를 저장한 패킷이, 하나 또는 복수의 PLP에 분배된다.
스텝 S102에 있어서, BICM 처리부(102)는, 부호화·변조 처리를 행한다. 이 부호화·변조 처리에서는, 오류 정정 처리나 비트 인터리브, 직교 변조 등의 처리가 행해진다.
스텝 S103에 있어서, 프레임·인터리브 처리부(103)는, 프레임·인터리브 처리를 행한다. 이 프레임·인터리브 처리에서는, 시간 방향이나 주파수 방향의 인터리브 등의 처리가 행해진다.
스텝 S104에 있어서, 파형 처리부(104)는, 파형 처리를 행한다. 이 파형 처리에서는, OFDM 신호가 생성되어, 전송로(30)를 개재하여 송신된다. 또한, 데이터 처리부(131), 프리앰블 처리부(132) 및 부트스트랩 처리부(133)에 의해, 데이터나 시그널링이 처리된다.
여기서, 프리앰블 처리부(132)에 있어서는, L1B+L1D 전송 방식을 채용한 경우에, 마이크로 초 단위와 나노 초 단위의 시각 정보(L1B_time_usec, L1B_time_nsec)를 포함하는 L1 기본 정보(도 10)와, 초 단위와 밀리 초 단위의 시각 정보(L1D_time_sec, L1D_time_msec)를 포함하는 L1 상세 정보(도 11)가 생성되어, 물리층 프레임의 프리앰블에 포함된다.
또한, 프리앰블 처리부(132)에 있어서는, L1B 전송 방식 a 또는 L1B 전송 방식 b를 채용한 경우에, 초 단위, 밀리 초 단위, 마이크로 초 단위 및 나노 초 단위의 시각 정보(L1B_time_sec, L1B_time_msec, L1B_time_usec, L1B_time_nsec)를 포함하는 L1 기본 정보(도 12 또는 도 14)가 생성되어, 물리층 프레임의 프리앰블에 포함된다.
또한, 프리앰블 처리부(132)에 있어서는, L1D 전송 방식을 채용한 경우에, 초 단위, 밀리 초 단위, 마이크로 초 단위 및 나노 초 단위의 시각 정보(L1D_time_sec, L1D_time_msec, L1D_time_usec, L1D_time_nsec)를 포함하는 L1 상세 정보(도 17)가 생성되어, 물리층 프레임의 프리앰블에 포함된다.
이상, 송신측 데이터 처리의 흐름에 대하여 설명하였다. 이 송신측 데이터 처리에서는, L1B+L1D 전송 방식, L1B 전송 방식 a, L1B 전송 방식 b, 또는 L1D 전송 방식을 채용함으로써, L1 기본 정보 및 L1 상세 정보 중 적어도 한쪽 정보에, 초 단위의 시각 정보, 밀리 초 단위의 시각 정보, 마이크로 초 단위의 시각 정보 및 나노 초 단위의 시각 정보가 포함되는 시그널링이 생성되어, 물리층 프레임의 프리앰블에 포함되게 된다.
그리고, 이들 시각 정보로부터 얻어지는 시각은, 밀리 초 단위의 정밀도보다도 높은 정밀도(마이크로 초 단위의 정밀도 또는 나노 초 단위의 정밀도)로 되기 때문에, 프레임 모드가 심볼 얼라인드 모드로 되는 경우에, 프레임 길이(프레임 시간)가 정수의 밀리 초 단위로 되지 않는 물리층 프레임이어도, 시각 정보가 나타내는 시각과의 오차(지터)를 억제할 수 있다.
따라서, 시그널링으로 전송되는 시각 정보의 정밀도에 기인하는 시각의 오차를 저감할 수 있다. 또한, 물리층 프레임의 프레임 길이(프레임 시간)가 정수의 밀리 초 단위가 될 것인지 여부를 의식하지 않고(예를 들어, 물리층 프레임의 프레임 번호 등을 의식하지 않고), 시각 정보를 시그널링에 포함하여 전송하는 것이 가능하게 된다.
또한, 시그널링에, 10비트의 마이크로 초 단위의 시각 정보, 및 10비트의 나노 초 단위의 시각 정보를 추가하면, PTP와 동일 정도의 정밀도를 실현할 수 있고, 또는, 10비트의 마이크로 초 단위의 시각 정보만을 추가하면, 현상의 시스템 이상의 정밀도로, 또한, 충분한 정밀도를 실현할 수 있다. 또한, 후자의 경우, 10비트의 마이크로 초 단위의 시각 정보만을 추가로 전송하기 때문에, 전자의 양쪽 시각 정보를 추가로 전송하는 경우에 비하여, 10비트분의 정보가 삭감되게 되고, 전송 효율을 향상시킬 수 있다.
또한, 시그널링으로서, 마이크로 초 단위나 나노 초 단위의 시각 정보를 추가하는 것만으로, 충분한 정밀도를 실현할 수 있기 때문에, 송신측 데이터 처리로서는, 기존의 처리와 비교하여, 복잡한 처리를 행할 필요는 없다(데이터를 취급하기 쉽다). 또한, 시그널링에 추가되는 정보가, 시각 정보 자체이기 때문에, 시그널링에 포함되는 다른 파라미터와의 의존 관계가 없고, 예를 들어 장래적으로 규격의 확장이 행해진다고 해도, 그 영향을 받을 가능성은 거의 없다.
(수신측의 파형 처리부의 구성예)
도 21은, 도 18의 수신 장치(20)의 파형 처리부(201)의 구성예를 도시하는 도면이다.
도 21에 있어서, 파형 처리부(201)는, 부트스트랩 처리부(Bootstrap)(231), 프리앰블 처리부(Preamble)(232), 및 데이터 처리부(Data)(233)를 포함하여 구성된다.
부트스트랩 처리부(231)는, 물리층 프레임의 부트스트랩(Bootstrap)에 포함되는 데이터나 시그널링에 관한 처리를 행한다.
프리앰블 처리부(232)는, 물리층 프레임의 프리앰블(Preamble)에 포함되는 시그널링에 관한 처리를 행한다. 이 시그널링에는, L1 기본 정보(L1-Basic)와, L1 상세 정보(L1-Detail)가 포함된다.
여기서, L1B+L1D 전송 방식을 채용한 경우에는, 마이크로 초 단위와 나노 초 단위의 시각 정보(L1B_time_usec, L1B_time_nsec)를 포함하는 L1 기본 정보(도 10)와, 초 단위와 밀리 초 단위의 시각 정보(L1D_time_sec, L1D_time_msec)를 포함하는 L1 상세 정보(도 11)가, 시그널링으로서 물리층 프레임의 프리앰블에 포함되어 있으므로, 프리앰블 처리부(232)는 그 시각 정보들을 처리한다.
또한, L1B 전송 방식 a 또는 L1B 전송 방식 b를 채용한 경우에는, 초 단위, 밀리 초 단위, 마이크로 초 단위 및 나노 초 단위의 시각 정보(L1B_time_sec, L1B_time_msec, L1B_time_usec, L1B_time_nsec)를 포함하는 L1 기본 정보(도 12 또는 도 14)가, 시그널링으로서 물리층 프레임의 프리앰블에 포함되어 있으므로, 프리앰블 처리부(232)는 그 시각 정보들을 처리한다. 단, 이 경우, L1 상세 정보(도 13 또는 도 15)에는, 시각 정보는 포함되지 않게 된다.
또한, L1D 전송 방식을 채용한 경우에는, 초 단위, 밀리 초 단위, 마이크로 초 단위, 및 나노 초 단위의 시각 정보(L1D_time_sec, L1D_time_msec, L1D_time_usec, L1D_time_nsec)를 포함하는 L1 상세 정보(도 17)가, 시그널링으로서 물리층 프레임의 프리앰블에 포함되어 있으므로, 프리앰블 처리부(232)는 그 시각 정보들을 처리한다. 단, 이 경우, L1 기본 정보(도 16)에는, 시각 정보는 포함되지 않게 된다.
데이터 처리부(233)는, 물리층 프레임의 페이로드(Payload)에 포함되는 데이터에 관한 처리를 행한다.
또한, 도 21에는 도시하지 않았초 단위로 되리부(201)에 있어서는, 가드 인터벌에 관한 처리, PAPR에 관한 처리, FFT(Fast Fourier Transform)에 관한 처리, MISO에 관한 처리, 및 파일럿의 심볼에 관한 처리를 행하는 처리부가 설치되고, 그 처리들이 행해진다.
(수신측 데이터 처리)
이어서, 도 22의 흐름도를 참조하여, 도 18의 수신 장치(20)에 의해 실행되는 수신측 데이터 처리의 흐름에 대하여 설명한다.
스텝 S201에 있어서, 파형 처리부(201)는, 파형 처리를 행한다. 이 파형 처리에서는, 송신 장치(10)(도 18)로부터 전송로(30)를 개재하여 송신되는, OFDM 신호가 수신되어, OFDM 신호에 대한 신호 처리가 행해진다. 또한, 부트스트랩 처리부(231), 프리앰블 처리부(232) 및 데이터 처리부(233)에 의해, 데이터나 시그널링이 처리된다.
여기서, L1B+L1D 전송 방식을 채용한 경우에는, 마이크로 초 단위와 나노 초 단위의 시각 정보(L1B_time_usec, L1B_time_nsec)를 포함하는 L1 기본 정보(도 10)와, 초 단위와 밀리 초 단위의 시각 정보(L1D_time_sec, L1D_time_msec)를 포함하는 L1 상세 정보(도 11)가, 시그널링으로서 물리층 프레임의 프리앰블에 포함되어 있으므로, 프리앰블 처리부(232)에 있어서는, 그 시각 정보들이 처리된다.
또한, L1B 전송 방식 a 또는 L1B 전송 방식 b를 채용한 경우에는, 초 단위, 밀리 초 단위, 마이크로 초 단위 및 나노 초 단위의 시각 정보(L1B_time_sec, L1B_time_msec, L1B_time_usec, L1B_time_nsec)를 포함하는 L1 기본 정보(도 12 또는 도 14)가 시그널링으로서 물리층 프레임의 프리앰블에 포함되어 있으므로, 프리앰블 처리부(232)에 있어서는, 그 시각 정보들이 처리된다.
또한, L1D 전송 방식을 채용한 경우에는, 초 단위, 밀리 초 단위, 마이크로 초 단위 및 나노 초 단위의 시각 정보(L1D_time_sec, L1D_time_msec, L1D_time_usec, L1D_time_nsec)를 포함하는 L1 상세 정보(도 17)가, 시그널링으로서 물리층 프레임의 프리앰블에 포함되어 있으므로, 프리앰블 처리부(232)에 있어서는, 그 시각 정보들이 처리된다.
스텝 S202에 있어서, 프레임·디인터리브 처리부(202)는, 프레임·디인터리브 처리를 행한다. 이 프레임·디인터리브 처리에서는, 주파수 방향이나 시간 방향의 디인터리브 등의 처리가 행해진다.
스텝 S203에 있어서, De-BICM 처리부(203)는, 복조·복호 처리를 행한다. 이 복조·복호 처리에서는, 직교 복조, 비트 디인터리브나 오류 정정 처리 등의 처리가 행해진다.
스텝 S204에 있어서, 출력 포맷 처리부(204)는, 출력 데이터 처리를 행한다. 이 출력 데이터 처리에서는, 입력되는 데이터에 대하여, 필요한 처리가 실시되고, 출력 스트림으로서 출력된다.
이상, 수신측 데이터 처리의 흐름에 대하여 설명하였다. 이 수신측 데이터 처리에서는, L1B+L1D 전송 방식, L1B 전송 방식 a, L1B 전송 방식 b, 또는 L1D 전송 방식을 채용함으로써, 물리층 프레임의 프리앰블로부터, 초 단위의 시각 정보, 밀리 초 단위의 시각 정보, 마이크로 초 단위의 시각 정보 및 나노 초 단위의 시각 정보를 L1 기본 정보 및 L1 상세 정보 중 적어도 한쪽 정보에 포함하는 시그널링이 취득되어, 처리되게 된다.
그리고, 이들 시각 정보로부터 얻어지는 시각은, 밀리 초 단위의 정밀도보다도 높은 정밀도(마이크로 초 단위의 정밀도 또는 나노 초 단위의 정밀도)가 되기 때문에, 프레임 모드가 심볼 얼라인드 모드가 되는 경우에, 프레임 길이(프레임 시간)가 정수의 밀리 초 단위로 되지 않는 물리층 프레임이어도, 시각 정보가 나타내는 시각과의 오차(지터)를 억제할 수 있다.
따라서, 시그널링으로 전송되는 시각 정보의 정밀도에 기인하는 시각의 오차를 저감할 수 있다. 또한, 물리층 프레임의 프레임 길이(프레임 시간)가 정수의 밀리 초 단위가 될 것인지 여부를 의식하지 않고(예를 들어, 물리층 프레임의 프레임 번호 등을 의식하지 않고), 시그널링에 포함되는 시각 정보를 처리하는 것이 가능하게 된다.
또한, 시그널링에, 10비트의 마이크로 초 단위의 시각 정보 및 10비트의 나노 초 단위의 시각 정보를 추가하면, PTP와 동일 정도의 정밀도를 실현할 수 있고, 또는, 10비트의 마이크로 초 단위의 시각 정보만을 추가하면, 현상의 시스템 이상의 정밀도로, 또한, 충분한 정밀도를 실현할 수 있다. 또한, 후자의 경우, 10비트의 마이크로 초 단위의 시각 정보만을 추가로 전송하기 때문에, 전자의 양쪽 시각 정보를 추가로 전송하는 경우에 비하여, 10비트분의 정보가 삭감되게 되고, 전송 효율을 향상시킬 수 있다.
또한, 시그널링으로서, 마이크로 초 단위나 나노 초 단위의 시각 정보를 추가하는 것만으로, 충분한 정밀도를 실현할 수 있기 때문에, 수신측 데이터 처리로서는, 기존의 처리와 비교하여, 복잡한 처리를 행할 필요는 없다(데이터를 취급하기 쉽다). 또한, 시그널링에 추가되는 정보가, 시각 정보 자체이기 때문에, 시그널링에 포함되는 다른 파라미터와의 의존 관계가 없고, 예를 들어 장래적으로 규격의 확장이 행해진다고 해도, 그 영향을 받을 가능성은 거의 없다.
<5. 변형예>
상술한 설명에서는, 디지털 방송의 규격으로서, 미국 등에서 채용되고 있는 방식인 ATSC(특히, ATSC3.0)를 설명했지만, 본 기술은, 일본 등이 채용하는 방식인 ISDB(Integrated Services Digital Broadcasting)나, 유럽의 각국 등이 채용하는 방식인 DVB(Digital Video Broadcasting) 등에 적용하게 해도 된다. 또한, 상술한 설명에서는, IP 전송 방식이 채용되는 ATSC3.0을 예로서 설명했지만, IP 전송 방식에 한하지 않고, 예를 들어 MPEG2-TS(Transport Stream) 방식 등의 다른 방식에 적용하게 해도 된다.
또한, 디지털 방송으로서는, 지상파 방송 외에, 방송 위성(BS: Broadcasting Satellite)이나 통신 위성(CS: Communications Satellite) 등을 이용한 위성 방송이나, 케이블 텔레비전(CATV) 등의 유선 방송 등에 적용할 수 있다.
또한, 상술한 설명에서는, 시각 정보로서, PTP(Precise Time Protocol)에서 규정되는 시각의 정보를 일례로 설명했지만, 시각 정보로서는, PTP에 한하지 않고, 예를 들어 NTP(Network Time Protocol)에서 규정되어 있는 시각의 정보나, 3GPP(Third Generation Partnership Project)에서 규정되어 있는 시각의 정보, GPS(Global Positioning System) 정보에 포함되는 시각의 정보, 기타 독자적으로 결정된 형식의 시각 정보 등의 임의의 시각의 정보를 채용할 수 있다.
또한, 본 기술은, 전송로로서, 방송망 이외의 전송로, 즉, 예를 들어 인터넷이나 전화망 등의 통신 회선(통신망) 등을 이용하는 것을 상정하여 규정되어 있는 소정의 규격(디지털 방송의 규격 이외의 규격) 등에도 적용할 수 있다. 그 경우에는, 전송 시스템(1)(도 1)의 전송로(30)로서, 인터넷이나 전화망 등의 통신 회선이 이용되고, 송신 장치(10)는 인터넷 상에 설치된 서버로 할 수 있다. 그리고, 수신 장치(20)가 통신 기능을 갖도록 함으로써, 송신 장치(10)(서버)는, 수신 장치(20)로부터의 요구에 따라, 처리를 행하게 된다. 또한, 수신 장치(20)는, 송신 장치(10)(서버)로부터 전송로(30)(통신 회선)를 개재하여 송신되어 오는 데이터를 처리한다.
또한, 상술한 시그널링 등의 명칭은 일례이며, 다른 명칭이 사용되는 경우가 있다. 단, 이들의 명칭 차이는 형식적인 차이이며, 대상의 시그널링 등의 실질적인 내용이 다른 것은 아니다.
<6. 컴퓨터의 구성>
상술한 일련의 처리는, 하드웨어에 의해 실행할 수도 있고, 소프트웨어에 의해 실행할 수도 있다. 일련의 처리를 소프트웨어에 의해 실행하는 경우에는, 그 소프트웨어를 구성하는 프로그램이, 컴퓨터에 인스톨된다. 도 23은, 상술한 일련의 처리를 프로그램에 의해 실행하는 컴퓨터의 하드웨어 구성예를 도시하는 도면이다.
컴퓨터(1000)에 있어서, CPU(Central Processing Unit)(1001), ROM(Read Only Memory)(1002), RAM(Random Access Memory)(1003)은, 버스(1004)에 의해 서로 접속되어 있다. 버스(1004)에는 추가로, 입출력 인터페이스(1005)가 접속되어 있다. 입출력 인터페이스(1005)에는 입력부(1006), 출력부(1007), 기록부(1008), 통신부(1009) 및 드라이브(1010)가 접속되어 있다.
입력부(1006)는 키보드, 마우스, 마이크로폰 등을 포함한다. 출력부(1007)는 디스플레이, 스피커 등을 포함한다. 기록부(1008)는 하드 디스크나 불휘발성의 메모리 등을 포함한다. 통신부(1009)는 네트워크 인터페이스 등을 포함한다. 드라이브(1010)는 자기 디스크, 광 디스크, 광자기 디스크, 또는 반도체 메모리 등의 리무버블 미디어(1011)를 구동한다.
이상과 같이 구성되는 컴퓨터(1000)에서는, CPU(1001)가 ROM(1002)이나 기록부(1008)에 기록되어 있는 프로그램을, 입출력 인터페이스(1005) 및 버스(1004)를 개재하여, RAM(1003)에 로드하여 실행함으로써, 상술한 일련의 처리가 행해진다.
컴퓨터(1000)(CPU(1001))가 실행하는 프로그램은, 예를 들어 패키지 미디어 등으로서의 리무버블 미디어(1011)에 기록하여 제공할 수 있다. 또한, 프로그램은, 로컬 에어리어 네트워크, 인터넷, 디지털 위성 방송이라고 한, 유선 또는 무선의 전송 매체를 개재하여 제공할 수 있다.
컴퓨터(1000)에서는, 프로그램은 리무버블 미디어(1011)를 드라이브(1010)에 장착함으로써, 입출력 인터페이스(1005)를 개재하여, 기록부(1008)에 인스톨할 수 있다. 또한, 프로그램은, 유선 또는 무선의 전송 매체를 개재하여, 통신부(1009)에서 수신하고, 기록부(1008)에 인스톨할 수 있다. 기타, 프로그램은, ROM(1002)이나 기록부(1008)에, 미리 인스톨해 둘 수 있다.
여기서, 본 명세서에 있어서, 컴퓨터가 프로그램에 따라서 행하는 처리는, 반드시 흐름도로서 기재된 순서를 따라서 시계열로 행해질 필요는 없다. 즉, 컴퓨터가 프로그램에 따라서 행하는 처리는, 병렬적 또는 개별로 실행되는 처리(예를 들어, 병렬 처리 또는 오브젝트에 의한 처리)도 포함한다. 또한, 프로그램은 1의 컴퓨터(프로세서)에 의해 처리되는 것이어도 되고, 복수의 컴퓨터에 의해 분산 처리되는 것이어도 된다.
또한, 본 기술의 실시 형태는, 상술한 실시 형태에 한정되는 것은 아니고, 본 기술의 요지를 일탈하지 않는 범위에 있어서 다양한 변경이 가능하다.
또한, 본 기술은, 이하와 같은 구성을 취할 수 있다.
(1)
물리층 프레임의 프레임 길이에 따른 시각의 정밀도를 갖는 시각 정보를 포함하는 시그널링을 생성하는 생성부와,
상기 시그널링을, 상기 물리층 프레임의 프리앰블에 포함되도록 처리하는 처리부
를 구비하는 데이터 처리 장치.
(2)
상기 시그널링은, 제1 정보와, 상기 제1 정보 후에 판독되는 제2 정보를 포함하고,
상기 시각 정보는, 상기 제1 정보 및 상기 제2 정보 중 적어도 한쪽 정보에 포함되는
(1)에 기재된 데이터 처리 장치.
(3)
상기 물리층 프레임의 프레임 길이는, 밀리 초 단위보다도 높은 정밀도를 갖고,
상기 시각 정보는, 밀리 초 단위보다도 높은 정밀도를 갖는
(2)에 기재된 데이터 처리 장치.
(4)
상기 제2 정보는, 초 단위의 시각 정보 및 밀리 초 단위의 시각 정보를 포함하고,
상기 제1 정보는, 마이크로 초 단위의 시각 정보, 또는, 마이크로 초 단위의 시각 정보 및 나노 초 단위의 시각 정보 중 적어도 한쪽의 시각 정보를 포함하는
(3)에 기재된 데이터 처리 장치.
(5)
상기 제1 정보는, 초 단위의 시각 정보, 밀리 초 단위의 시각 정보, 및 마이크로 초 단위의 시각 정보, 또는, 마이크로 초 단위의 시각 정보 및 나노 초 단위의 시각 정보를 포함하는
(3)에 기재된 데이터 처리 장치.
(6)
상기 제2 정보는, 초 단위의 시각 정보, 밀리 초 단위의 시각 정보, 및 마이크로 초 단위의 시각 정보, 또는, 마이크로 초 단위의 시각 정보 및 나노 초 단위의 시각 정보를 포함하는
(3)에 기재된 데이터 처리 장치.
(7)
상기 물리층 프레임의 프레임 길이는, 밀리 초 단위의 정밀도를 갖고,
상기 시각 정보는, 밀리 초 단위보다도 높은 정밀도를 갖는
(2)에 기재된 데이터 처리 장치.
(8)
상기 물리층 프레임은, ATSC(Advanced Television Systems Committee)3.0에서 규정되는 물리층 프레임이며,
상기 제1 정보는, ATSC3.0에서 규정되는 프리앰블에 포함되는 L1 기본 정보(L1-Basic)이고,
상기 제2 정보는, ATSC3.0에서 규정되는 프리앰블에 포함되는 L1 상세 정보(L1-Detail)인
(2) 내지 (7) 중 어느 한 항에 기재된 데이터 처리 장치.
(9)
상기 물리층 프레임의 프레임 길이를 밀리 초 단위로 조정하는 제1 모드와, 상기 물리층 프레임의 프레임 길이를 조정하지 않는 제2 모드가 있고,
상기 제2 모드가 설정된 경우에, 상기 시각 정보가, 밀리 초 단위보다도 높은 정밀도를 갖도록 하는
(3) 내지 (8) 중 어느 한 항에 기재된 데이터 처리 장치.
(10)
데이터 처리 장치의 데이터 처리 방법에 있어서,
상기 데이터 처리 장치가,
물리층 프레임의 프레임 길이에 따른 시각의 정밀도를 갖는 시각 정보를 포함하는 시그널링을 생성하고,
상기 시그널링을, 상기 물리층 프레임의 프리앰블에 포함되도록 처리하는
스텝을 포함하는 데이터 처리 방법.
(11)
물리층 프레임의 프리앰블에 포함되는, 상기 물리층 프레임의 프레임 길이에 따른 시각의 정밀도를 갖는 시각 정보를 포함하는 시그널링을 처리하는 처리부를 구비하는
데이터 처리 장치.
(12)
상기 시그널링은, 제1 정보와, 상기 제1 정보 후에 판독되는 제2 정보를 포함하고,
상기 시각 정보는, 상기 제1 정보 및 상기 제2 정보 중 적어도 한쪽 정보에 포함되는
(11)에 기재된 데이터 처리 장치.
(13)
상기 물리층 프레임의 프레임 길이는, 밀리 초 단위보다도 높은 정밀도를 갖고,
상기 시각 정보는, 밀리 초 단위보다도 높은 정밀도를 갖는
(12)에 기재된 데이터 처리 장치.
(14)
상기 제2 정보는, 초 단위의 시각 정보 및 밀리 초 단위의 시각 정보를 포함하고,
상기 제1 정보는, 마이크로 초 단위의 시각 정보, 또는, 마이크로 초 단위의 시각 정보 및 나노 초 단위의 시각 정보 중 적어도 한쪽의 시각 정보를 포함하는
(13)에 기재된 데이터 처리 장치.
(15)
상기 제1 정보는, 초 단위의 시각 정보, 밀리 초 단위의 시각 정보, 및 마이크로 초 단위의 시각 정보, 또는, 마이크로 초 단위의 시각 정보 및 나노 초 단위의 시각 정보를 포함하는
(13)에 기재된 데이터 처리 장치.
(16)
상기 제2 정보는, 초 단위의 시각 정보, 밀리 초 단위의 시각 정보, 및 마이크로 초 단위의 시각 정보, 또는, 마이크로 초 단위의 시각 정보 및 나노 초 단위의 시각 정보를 포함하는
(13)에 기재된 데이터 처리 장치.
(17)
상기 물리층 프레임의 프레임 길이는, 밀리 초 단위의 정밀도를 갖고,
상기 시각 정보는, 밀리 초 단위보다도 높은 정밀도를 갖는
(12)에 기재된 데이터 처리 장치.
(18)
상기 물리층 프레임은, ATSC3.0에서 규정되는 물리층 프레임이며,
상기 제1 정보는, ATSC3.0에서 규정되는 프리앰블에 포함되는 L1 기본 정보(L1-Basic)이고,
상기 제2 정보는, ATSC3.0에서 규정되는 프리앰블에 포함되는 L1 상세 정보(L1-Detail)인
(12) 내지 (17) 중 어느 한 항에 기재된 데이터 처리 장치.
(19)
상기 물리층 프레임의 프레임 길이를 밀리 초 단위로 조정하는 제1 모드와,
상기 물리층 프레임의 프레임 길이를 조정하지 않는 제2 모드가 있고,
상기 제2 모드가 설정된 경우에, 상기 시각 정보가, 밀리 초 단위보다도 높은 정밀도를 갖도록 하는
(13) 내지 (18) 중 어느 한 항에 기재된 데이터 처리 장치.
(20)
데이터 처리 장치의 데이터 처리 방법에 있어서,
상기 데이터 처리 장치가,
물리층 프레임의 프리앰블에 포함되는, 상기 물리층 프레임의 프레임 길이에 따른 시각의 정밀도를 갖는 시각 정보를 포함하는 시그널링을 처리하는
스텝을 포함하는 데이터 처리 방법.
1: 전송 시스템
10: 송신 장치
20: 수신 장치
30: 전송로
101: 입력 포맷 처리부
102: BICM 처리부
103: 프레임·인터리브 처리부
104: 파형 처리부
131: 데이터 처리부
132: 프리앰블 처리부
133: 부트스트랩 처리부
201: 파형 처리부
202: 프레임·디인터리브 처리부
203: De-BICM 처리부
204: 출력 포맷 처리부
231: 부트스트랩 처리부
232: 프리앰블 처리부
233: 데이터 처리부
1000: 컴퓨터
1001: CPU

Claims (20)

  1. 시각 정보를 포함하는 시그널링을 생성하는 생성부(132)와,
    상기 시그널링을, 물리층 프레임의 프리앰블에 포함되도록 처리하는 처리부(104)
    를 포함하고,
    상기 시그널링은 제1 정보(L1-Basic) 및 상기 제1 정보 후에 판독되는 제2 정보(L1-Detail)를 포함하되,
    상기 제1 정보는 시각 정보 플래그(L1B_time_info_flag)를 포함하고, 상기 시각 정보 플래그는 상기 제2 정보 내의 시각 정보의 존재 또는 부재 및 상기 제2 정보 내에 존재하는 경우의 상기 시각 정보의 복수의 정밀도 중 하나의 정밀도를 나타내고,
    상기 시각 정보는 상기 제1 정보 및 상기 제2 정보 중 적어도 한쪽 정보에 포함되는 것을 특징으로 하는 데이터 처리 장치(10).
  2. 제1항에 있어서, 상기 복수의 정밀도는 상기 시각 정보가 초 단위의 제1 부분 및 밀리 초 단위의 제2 부분을 포함하는 제1 정밀도를 포함하는
    데이터 처리 장치(10).
  3. 제2항에 있어서, 상기 복수의 정밀도는 상기 시각 정보가 마이크로 초 단위의 제3 부분을 포함하는 제2 정밀도를 포함하는
    데이터 처리 장치(10).
  4. 제3항에 있어서, 상기 복수의 정밀도는 상기 시각 정보가 나노 초 단위의 제4 부분을 포함하는 제3 정밀도를 포함하는
    데이터 처리 장치(10).
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 물리층 프레임은, ATSC(Advanced Television Systems Committee)3.0에서 규정되는 물리층 프레임이며,
    상기 제1 정보는, ATSC3.0에서 규정되는 프리앰블에 포함되는 L1 기본 정보(L1-Basic)이고,
    상기 제2 정보는, ATSC3.0에서 규정되는 프리앰블에 포함되는 L1 상세 정보(L1-Detail)인
    데이터 처리 장치(10).
  6. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 물리층 프레임의 프레임 길이를 밀리 초 단위로 조정하는 제1 모드와, 상기 물리층 프레임의 프레임 길이를 조정하지 않는 제2 모드가 있고,
    상기 제2 모드가 설정된 경우에, 상기 시각 정보가, 밀리 초 단위보다도 높은 정밀도를 갖도록 하는
    데이터 처리 장치(10).
  7. 물리층 프레임의 프리앰블에 포함되고 시각 정보를 포함하는 시그널링을 처리하는 처리부(232)
    를 포함하고,
    상기 시그널링은 제1 정보 및 상기 제1 정보 후에 판독되는 제2 정보를 포함하되,
    상기 제1 정보는 시각 정보 플래그(L1B_time_info_flag)를 포함하고, 상기 시각 정보 플래그는 상기 제2 정보 내의 시각 정보의 존재 또는 부재 및 상기 제2 정보 내에 존재하는 경우의 상기 시각 정보의 복수의 정밀도 중 하나의 정밀도를 나타내고,
    상기 시각 정보는 상기 제1 정보 및 상기 제2 정보 중 적어도 한쪽 정보에 포함되는 것을 특징으로 하는 데이터 처리 장치(20).
  8. 제7항에 있어서, 상기 복수의 정밀도는 상기 시각 정보가 초 단위의 제1 부분 및 밀리 초 단위의 제2 부분을 포함하는 제1 정밀도를 포함하는
    데이터 처리 장치(20).
  9. 제8항에 있어서, 상기 복수의 정밀도는 상기 시각 정보가 마이크로 초 단위의 제3 부분을 포함하는 제2 정밀도를 포함하는
    데이터 처리 장치(20).
  10. 제9항에 있어서, 상기 복수의 정밀도는 상기 시각 정보가 나노 초 단위의 제4 부분을 포함하는 제3 정밀도를 포함하는
    데이터 처리 장치(20).
  11. 제7항 내지 제10항 중 어느 한 항에 있어서, 상기 물리층 프레임은, ATSC(Advanced Television Systems Committee)3.0에서 규정되는 물리층 프레임이며,
    상기 제1 정보는, ATSC3.0에서 규정되는 프리앰블에 포함되는 L1 기본 정보(L1-Basic)이고,
    상기 제2 정보는, ATSC3.0에서 규정되는 프리앰블에 포함되는 L1 상세 정보(L1-Detail)인
    데이터 처리 장치(20).
  12. 제7항 내지 제10항 중 어느 한 항에 있어서, 상기 물리층 프레임의 프레임 길이를 밀리 초 단위로 조정하는 제1 모드와, 상기 물리층 프레임의 프레임 길이를 조정하지 않는 제2 모드가 있고,
    상기 제2 모드가 설정된 경우에, 상기 시각 정보가, 밀리 초 단위보다도 높은 정밀도를 갖도록 하는
    데이터 처리 장치(20).
  13. 데이터 처리 장치의 데이터 처리 방법에 있어서,
    상기 데이터 처리 장치가,
    시각을 포함하는 시그널링을 생성하고,
    상기 시그널링을, 물리층 프레임의 프리앰블에 포함되도록 처리하는
    스텝을 포함하고,
    상기 시그널링은 제1 정보(L1-Basic) 및 상기 제1 정보 후에 판독되는 제2 정보(L1-Detail)를 포함하되,
    상기 제1 정보는 시각 정보 플래그(L1B_time_info_flag)를 포함하고, 상기 시각 정보 플래그는 상기 제2 정보 내의 시각 정보의 존재 또는 부재 및 상기 제2 정보 내에 존재하는 경우의 상기 시각 정보의 복수의 정밀도 중 하나의 정밀도를 나타내고,
    상기 시각 정보는 상기 제1 정보 및 상기 제2 정보 중 적어도 한쪽 정보에 포함되는 것을 특징으로 하는 데이터 처리 방법.
  14. 데이터 처리 장치의 데이터 처리 방법에 있어서,
    상기 데이터 처리 장치가,
    물리층 프레임의 프리앰블에 포함되는 시그널링을 처리하는
    스텝을 포함하고,
    상기 시그널링은 제1 정보 및 상기 제1 정보 후에 판독되는 제2 정보를 포함하되,
    상기 제1 정보는 시각 정보 플래그(L1B_time_info_flag)를 포함하고, 상기 시각 정보 플래그는 상기 제2 정보 내의 시각 정보의 존재 또는 부재 및 상기 제2 정보 내에 존재하는 경우의 상기 시각 정보의 복수의 정밀도 중 하나의 정밀도를 나타내고,
    상기 시각 정보는 상기 제1 정보 및 상기 제2 정보 중 적어도 한쪽 정보에 포함되는 것을 특징으로 하는 데이터 처리 방법.
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020187013710A 2015-11-25 2016-11-11 데이터 처리 장치 및 데이터 처리 방법 KR102379544B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015229768 2015-11-25
JPJP-P-2015-229768 2015-11-25
PCT/JP2016/083466 WO2017090456A1 (ja) 2015-11-25 2016-11-11 データ処理装置、及び、データ処理方法

Publications (2)

Publication Number Publication Date
KR20180084786A KR20180084786A (ko) 2018-07-25
KR102379544B1 true KR102379544B1 (ko) 2022-03-29

Family

ID=58763131

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187013710A KR102379544B1 (ko) 2015-11-25 2016-11-11 데이터 처리 장치 및 데이터 처리 방법

Country Status (9)

Country Link
US (2) US11265141B2 (ko)
EP (1) EP3382927B1 (ko)
JP (1) JPWO2017090456A1 (ko)
KR (1) KR102379544B1 (ko)
CN (1) CN108352980B (ko)
CA (1) CA3004847C (ko)
MX (1) MX2018006176A (ko)
TW (1) TWI756194B (ko)
WO (1) WO2017090456A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108989842B (zh) * 2017-06-02 2020-12-22 上海数字电视国家工程研究中心有限公司 适用于高速运动接收的数据帧的设计方法和传输系统
CN108989843B (zh) * 2017-06-02 2020-10-16 上海数字电视国家工程研究中心有限公司 适用于高速运动接收的数据帧的设计方法和传输系统
CN108989841B (zh) * 2017-06-02 2020-12-18 上海数字电视国家工程研究中心有限公司 适用于高速运动接收的数据帧的设计方法和传输系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014196336A1 (ja) 2013-06-07 2014-12-11 ソニー株式会社 送信装置、伝送ストリームの送信方法および処理装置
WO2015068352A1 (ja) 2013-11-08 2015-05-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置、及び受信装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3857057B2 (ja) 2001-02-05 2006-12-13 株式会社日立製作所 動画像データの記録再生方法および装置
JP2005094348A (ja) * 2003-09-17 2005-04-07 Sony Corp 通信システムおよび方法、情報処理装置および方法、並びにプログラム
JP2007104085A (ja) * 2005-09-30 2007-04-19 Toshiba Corp 通信回線を用いるデジタル放送方法およびその装置
CN103634077B (zh) * 2009-02-12 2017-09-08 Lg电子株式会社 发送和接收广播信号的装置及发送和接收广播信号的方法
KR20100101998A (ko) * 2009-03-10 2010-09-20 엘에스산전 주식회사 전력기기 간의 로컬시각 동기 방법 및 그 장치
KR20150016735A (ko) * 2013-08-05 2015-02-13 한국전자통신연구원 중앙 집중 제어 평면을 이용한 네트워크 시각 동기 시스템
JP6326213B2 (ja) * 2013-10-04 2018-05-16 サターン ライセンシング エルエルシーSaturn Licensing LLC 受信装置、受信方法、送信装置、及び、送信方法
JP6505413B2 (ja) 2013-11-08 2019-04-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法、受信方法、送信装置、及び受信装置
CN111510233B (zh) * 2013-12-03 2022-08-12 Lg 电子株式会社 将补充内容与未压缩的音频或视频同步的方法及其装置
KR20150112721A (ko) * 2014-03-27 2015-10-07 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR102465856B1 (ko) * 2015-03-27 2022-11-11 한국전자통신연구원 코어 레이어의 피지컬 레이어 파이프들의 경계를 이용한 방송 신호 프레임 생성 장치 및 방송 신호 프레임 생성 방법
US10678766B2 (en) * 2015-06-29 2020-06-09 British Telecommunications Public Limited Company Real-time index generation
CA2992400C (en) * 2015-08-14 2020-01-07 Sharp Kabushiki Kaisha Systems and methods for communicating time representations

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014196336A1 (ja) 2013-06-07 2014-12-11 ソニー株式会社 送信装置、伝送ストリームの送信方法および処理装置
WO2015068352A1 (ja) 2013-11-08 2015-05-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置、及び受信装置

Also Published As

Publication number Publication date
MX2018006176A (es) 2018-09-05
CN108352980B (zh) 2021-07-13
US20220224506A1 (en) 2022-07-14
CA3004847A1 (en) 2017-06-01
US20180287777A1 (en) 2018-10-04
KR20180084786A (ko) 2018-07-25
EP3382927A4 (en) 2018-11-14
CA3004847C (en) 2023-01-24
TW201724830A (zh) 2017-07-01
US11265141B2 (en) 2022-03-01
EP3382927A1 (en) 2018-10-03
EP3382927B1 (en) 2022-03-02
JPWO2017090456A1 (ja) 2018-09-13
WO2017090456A1 (ja) 2017-06-01
TWI756194B (zh) 2022-03-01
CN108352980A (zh) 2018-07-31

Similar Documents

Publication Publication Date Title
US20230179363A1 (en) Transmitting apparatus and receiving apparatus and controlling method thereof
US20220224506A1 (en) Data processing device and data processing method
US10194185B2 (en) Systems and methods for communicating time representations
US20210250293A1 (en) Transmitting apparatus and signal processing method using removal of transport steam packet header
US10389777B2 (en) Transmitting apparatus, receiving apparatus, and control methods thereof
KR101853669B1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
KR101844235B1 (ko) 하나 이상의 네트워크를 통해 방송 컨텐츠를 송수신하는 장치 및 방법
US20210058202A1 (en) Transmitting apparatus and receiving apparatus and controlling method thereof
CA2972882C (en) Transmitting apparatus and receiving apparatus and signal processing method thereof
JP2016526361A (ja) 放送送受信装置および放送送受信方法
JP2017135557A (ja) データ処理装置、及び、データ処理方法
CA2972883C (en) Transmitting apparatus and signal processing method thereof
KR101841947B1 (ko) 방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법
US20220217448A1 (en) Data processing apparatus and data processing method
KR20160000722A (ko) 통신 시스템에서 이종 네트워크를 통하여 멀티미디어 콘텐츠를 송수신하는 방법 및 장치

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant