KR101797504B1 - Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치 - Google Patents

Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치 Download PDF

Info

Publication number
KR101797504B1
KR101797504B1 KR1020167006601A KR20167006601A KR101797504B1 KR 101797504 B1 KR101797504 B1 KR 101797504B1 KR 1020167006601 A KR1020167006601 A KR 1020167006601A KR 20167006601 A KR20167006601 A KR 20167006601A KR 101797504 B1 KR101797504 B1 KR 101797504B1
Authority
KR
South Korea
Prior art keywords
video
information
video stream
stream
hevc
Prior art date
Application number
KR1020167006601A
Other languages
English (en)
Other versions
KR20160048821A (ko
Inventor
황수진
서종열
윤준희
오현묵
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20160048821A publication Critical patent/KR20160048821A/ko
Application granted granted Critical
Publication of KR101797504B1 publication Critical patent/KR101797504B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23611Insertion of stuffing data into a multiplex stream, e.g. to obtain a constant bitrate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6112Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving terrestrial transmission, e.g. DVB-T
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 HEVC 기반의 IP 방송 서비스 제공을 위한 방송 신호의 송수신 방법 및 장치에 관한 것이다. 본 발명의 일 실시예에 따른 방송 신호 송신 방법은 비디오 데이터를 인코딩하여 비디오 스트림을 생성하는 단계, 상기 생성된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 생성된 비디오 스트림의 특성을 나타내는 정보 및 상기 생성된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하는 시그널링 정보를 생성하는 단계, 상기 생성된 비디오 스트림 및 시그널링 정보를 다중화하는 단계, 상기 다중화된 방송 스트림을 전송하는 단계를 포함한다.

Description

HEVC 기반의 IP 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치{METHOD AND APPARATUS FOR TRANSMITTING AND RECEIVING BROADCAST SIGNAL FOR PROVIDING HEVC BASED IP BROADCAST SERVICE}
본 발명은 방송 신호의 송수신에 관한 것이다. 보다 상세하게는, HEVC 기반의 IP 방송 서비스 제공을 위한 방송 신호의 송수신 방법 및/또는 장치에 관한 것이다.
실시간 방송과 브로드밴드망을 통한 테이터방송을 결합한 유럽식 하이브리드TV인 HbbTV가 각국에서 사용화되며 확산의 기반을 마련하고 있다. 공용방송뿐만 아니라 민영방송들도 HbbTV 서비스를 내놓고 있는 유럽이 시장 확산을 주도하고 있다. 개발 비용이 낮고 신속한 상용 서비스 출시에 유리하다는 점 때문에 영국과 스위스뿐만 아니라 동유럽 방송사들도 HbbTV에 관심을 보이고 있다. 최근에는 HbbTV에 동장인식이나, 개인화, 멀티 스크린 등을 접목하는 기술이 발표되기도 했다.
HbbTV는 Hybrid Broadcast Broadband라는 명칭에서도 알 수 있듯이, 기존 방송의 컨텐츠/서비스와 인터넷의 컨텐츠/서비스를 융합하여 새로운 방송을 만들어 보자는 취지에서 독일과 프랑스 방송사들을 중심으로 시작된 융합형 TV 기술 표준이자 서비스를 의미한다.
HbbTV 표준은 소수의 새로운 기술 요소만 새로 도입하여 표준을 만들고, 대부분 이미 존재하고 검증된 특정 표준을 그대로 재사용하였기 때문에 개발 비용 및 적시 출시에 큰 강점을 가지고 있다. 다만, 현재 HbbTV 표준은 AVC 코덱 기반의 SD/HD 25fps만을 제공하고 있으므로 고화질을 요구하는 소비자의 트렌드에 맞게 HEVC 기반의 고화질 미디어 서비스를 제공할 필요가 있다.
본 발명이 이루고자 하는 과제는, 전술한 문제점을 해결하기 위한 것으로 HEVC 기반의 방송 서비스를 제공하기 위하여 방송 신호를 송수신하는 방법 및/또는 장치를 제공하는 것이다.
나아가, 본 발명이 이루고자 하는 과제는, HEVC 기반의 서비스에 적합한 video profile을 추가로 정의하여 고화질의 방송 서비스를 제공하는 것이다.
나아가, 본 발명이 이루고자 하는 과제는, HEVC 기반의 서비스에 적합한 video attribute를 추가로 정의하여 고화질의 방송 서비스를 제공하는 것이다.
나아가, 본 발명이 이루고자 하는 과제는, 시스템 레벨에서 HEVC 기반 서비스임을 알 수 있도록 하는 시그널링 방법을 제공하는 것이다.
나아가, 본 발명이 이루고자 하는 과제는, 시스템 레벨에서 HEVC 기반 서비스의 특성을 알 수 있도록 하는 시그널링 방법을 제공하는 것이다.
나아가, 본 발명이 이루고자 하는 과제는, HEVC 기반의 서비스에 관한 정보들을 IP망을 통하여 전송하는 방법을 제공하는 것이다.
본 발명의 일 실시예에 따른 방송 신호 송신 방법은 비디오 데이터를 인코딩하여 비디오 스트림을 생성하는 단계, 상기 생성된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 생성된 비디오 스트림의 특성을 나타내는 정보 및 상기 생성된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하는 시그널링 정보를 생성하는 단계, 상기 생성된 비디오 스트림 및 시그널링 정보를 다중화하는 단계, 상기 다중화된 방송 스트림을 전송하는 단계를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 PMT (Program Map Table), EIT (Event Information Table) 및 SDT (Service Description Table) 중 적어도 어느 하나를 포함하고, 상기 PMT는 상기 HEVC 비디오 스트림임을 나타내는 정보를 포함하고, 상기 EIT는 상기 비디오 스트림의 특성을 나타내는 정보를 포함하고, 상기 SDT는 상기 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 상기 생성된 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 상기 생성된 비디오 스트림의 향상된 색상 표현을 위한 색감 조정 정보를 포함할 수 있다.
바람직하게는, 상기 비디오 스트림의 특성을 나타내는 정보는 코덱 정보, 해상도 정보, 프레임 속도 정보 및 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보를 포함할 수 있다.
바람직하게는, 상기 비디오 스트림의 특성을 나타내는 정보는 상기 생성된 비디오 스트림이 방송을 위한 스트림인지 저장을 위한 스트림인지를 구분하는 티어 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 테이블 섹션 (table section) 형태 또는 XML 형태를 가질 수 있다.
본 발명의 다른 일 실시예에 따른 방송 신호 수신 장치는 다중화된 방송 스트림을 수신하는 수신부, 상기 수신한 다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 역다중화부, 여기서, 상기 시그널링 정보는 상기 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 추출된 비디오 스트림의 특성을 나타내는 정보 및 상기 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하고, 상기 추출된 시그널링 정보를 이용하여 상기 추출된 비디오 스트림을 디코딩하는 비디오 디코더를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 PMT (Program Map Table), EIT (Event Information Table) 및 SDT (Service Description Table) 중 적어도 어느 하나를 포함하고, 상기 PMT는 상기 HEVC 비디오 스트림임을 나타내는 정보를 포함하고, 상기 EIT는 상기 비디오 스트림의 특성을 나타내는 정보를 포함하고, 상기 SDT는 상기 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 상기 생성된 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 상기 생성된 비디오 스트림의 향상된 색상 표현을 위한 색감 조정 정보를 포함할 수 있다.
바람직하게는, 상기 비디오 스트림의 특성을 나타내는 정보는 코덱 정보, 해상도 정보, 프레임 속도 정보 및 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보를 포함할 수 있다.
바람직하게는, 상기 비디오 스트림의 특성을 나타내는 정보는 상기 생성된 비디오 스트림이 방송을 위한 스트림인지 저장을 위한 스트림인지를 구분하는 티어 정보를 포함할 수 있다.
바람직하게는, 상기 시그널링 정보는 테이블 섹션 (table section) 형태 또는 XML 형태를 가질 수 있다.
본 발명의 다른 일 실시예에 따른 방송 신호 송신 장치는 비디오 데이터를 인코딩하여 비디오 스트림을 생성하는 인코더, 상기 생성된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 생성된 비디오 스트림의 특성을 나타내는 정보 및 상기 생성된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하는 시그널링 정보를 생성하는 시그널링 정보 생성부, 상기 생성된 비디오 스트림 및 시그널링 정보를 다중화하는 다중화부, 상기 다중화된 방송 스트림을 전송하는 전송부를 포함할 수 있다.
본 발명의 다른 일 실시예에 따른 방송 신호 수신 방법은 다중화된 방송 스트림을 수신하는 단계, 상기 수신한 다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 단계, 여기서, 상기 시그널링 정보는 상기 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 추출된 비디오 스트림의 특성을 나타내는 정보 및 상기 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함하고, 상기 추출된 시그널링 정보를 이용하여 상기 추출된 비디오 스트림을 디코딩하는 단계를 포함할수 있다.
본 발명에 따르면, HEVC 기반의 방송 서비스를 제공할 수 있는 효과가 있다.
본 발명에 따르면, HEVC 기반의 서비스에 적합한 video profile을 이용하여 고화질의 HEVC 기반의 방송 서비스를 제공할 수 있는 효과가 있다.
본 발명에 따르면, HEVC 기반의 서비스에 적합한 video attribute를 이용하여 고화질의 HEVC 기반의 방송 서비스를 제공할 수 있는 효과가 있다.
본 발명에 따르면, 시스템 레벨에서 HEVC 기반 서비스임을 알 수 있는 효과가 있다.
본 발명에 따르면, 시스템 레벨에서 HEVC 기반 서비스의 특성을 알 수 있는 효과가 있다.
본 발명에 따르면, HEVC 기반 서비스 및/또는 HEVC 기반 서비스에 대한 관련 정보를 방송망 및/또는 IP망을 통해 전송할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 PMT (Program Map Table)의 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 EIT (Event Information Table)의 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 컴포넌트 디스크립터 (component_descriptor)의 구성을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 stream_content 및 component_type의 설명을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 광역 밝기 범위 정보를 포함하는 광역 밝기 범위 디스크립터의 구성을 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 광역 밝기 범위 정보 (dynamic_range_transformation_metadata)의 구성을 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 색감 조정 정보를 포함하는 색감 조정 정보 디스크립터의 구성을 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른 색감 조정 정보 (color_management_metadata)의 구성을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 SDT (Service Description Table)의 구성을 나타낸 도면이다.
도 10은 본 발명의 일 실시예에 따른 서비스 디스크립터 (service_descriptor)의 구성을 나타낸 도면이다.
도 11은 본 발명의 일 실시예에 따른 HEVC 기반의 방송 서비스를 식별하는 service_type의 설명을 나타낸 도면이다.
도 12는 본 발명의 일 실시예에 따른 HbbTV에서 사용하는 system formats, video formats 및 audio formats를 나타낸 도면이다.
도 13은 본 발명의 일 실시예에 따라, 25Hz 프레임 속도를 갖는 비디오 시스템에서 사용되는 system formats, video formats 및 audio formats를 나타낸 도면이다.
도 14은 본 발명의 일 실시예에 따라, 30Hz 프레임 속도를 갖는 비디오 시스템에서 사용되는 system formats, video formats 및 audio formats를 나타낸 도면이다.
도 15는 본 발명의 일 실시예에 따른 HEVC 서비스를 제공하기 위한 video format을 xml 형태로 나타낸 도면이다.
도 16은 본 발명의 일 실시예에 따라 termID를 사용하여 video format을 나타낸 도면이다.
도 17은 본 발명의 일 실시예에 따른 HEVC 기반의 방송 서비스를 제공하기 위하여 termID를 사용하여 video format를 나타낸 도면이다.
도 18은 본 발명의 일 실시예에 따른 HEVC 서비스 제공을 위한 video profile을 나타낸 도면이다.
도 19는 본 발명의 일 실시예에 따른 video attribute type를 나타낸 도면이다.
도 20은 본 발명의 일 실시예에 따른 video attribute에 대한 설명을 나타낸 도면이다.
도 21은 본 발명의 일 실시예에 따른 video attribute를 xml 형태로 나타낸 도면이다.
도 22는 본 발명의 일 실시예에 따른 AspectRatioOrgType 및 AspectRatioDisplayType을 나타낸 도면이다.
도 23은 본 발명의 일 실시예에 따른 AFDBarType을 나타낸 도면이다.
도 24는 본 발명의 일 실시예에 따른 BitRateType 을 나타낸 도면이다.
도 25는 본 발명의 일 실시예에 따른 UHD 서비스 제공을 위한 video attributes를 나타낸 도면이다.
도 26은 본 발명의 일 실시예에 따른 방송 수신 장치의 구조를 나타낸 도면이다.
도 27은 본 발명의 일 실시예에 따른 방송 신호 송신 방법의 과정을 나타낸 도면이다.
도 28은 본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구조를 나타낸 도면이다.
도 29는 본 발명의 일 실시예에 따른 방송 신호 송신 장치의 구조를 나타낸 도면이다.
도 30는 본 발명의 일 실시예에 따른 방송 신호 수신 방법을 나타낸 도면이다.
발명의 실시를 위한 최선의 형태
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
도 1은 본 발명의 일 실시예에 따른 PMT (Program Map Table)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 PMT는 table_id 필드, section_syntax_indicator 필드, section_length 필드, program_number 필드, version_number 필드, current_next_indicator 필드, section_number 필드, last_section_number 필드, PCR_PID 필드, program_info_length 필드, descriptor(), stream_type 필드, elementary_PID 필드, ES_info_length 필드, descriptor() 및/또는 CRC_32 필드를 포함한다.
table_id 필드는 테이블의 타입을 식별한다. table_id 필드는 당해 테이블 섹션이 PMT를 구성하는 섹션임을 나타내는 역할을 할 수 있다.
section_syntax_indicator 필드는 당해 필드 이후에 따라오는 테이블 섹션의 포맷을 나타낸다. 당해 필드의 값이 0이면 당해 테이블 섹션은 short 포맷임을 나타낸다. 당해 필드의 값이 1이면 당해 테이블 섹션은 일반적인 long 포맷을 따른다.
section_length 필드는 당해 테이블 섹션의 길이를 나타낸다. section_length 필드는 당해 필드 이후부터 당해 테이블 섹션의 끝까지의 길이를 나타내므로 당해 테이블 섹션의 실제 길이는 sercion_length 필드가 나타내는 값에 3 바이트를 더한 값이 될 수 있다.
program_number 필드는 트랜스 포트 스트림 안에 존재하는 각 프로그램 서비스 또는 가상 채널 (virtual channel)을 식별한다.
version_number 필드는 프라이빗 테이블 섹션 (private table section)의 버전 넘버를 나타낸다. 수신기는 당해 필드와 후술할 current_next_indicator 필드를 이용해서 메모리에 저장되어 있는 테이블 섹션 중 가장 최근의 것을 찾아 낼 수 있다.
current_next_indicator 필드가 나타내는 값이 1이면 현재 전송되는 테이블이 유효하다는 것을 나타내고 0이면 현재 전송되는 테이블이 현재는 유효하지 않지만 이후에 유효할 것이라는 것을 나타낸다.
section_number 필드는 당해 섹션이 당해 테이블의 몇 번째 섹션인지를 나타낸다.
last_section_number 필드는 당해 테이블을 구성하고 있는 섹션 중에 마지막 섹션의 순번을 나타낸다.
PCR_PID 필드는 프로그램 서비스를 위한 PCR (Program Clock Reference)이 존재하는 패킷 ID (packet ID)를 나타낸다.
program_info_length 필드는 이후에 따라오는 프로그램 정보 (program_info)를 나타내는 디스크립터의 길이를 나타낸다.
descriptor()는 당해 테이블 섹션에 해당하는 프로그램에 대한 정보를 나타내는 디스크립터를 의미한다.
stream_type 필드는 당해 테이블이 설명하고 있는 프로그램을 구성하는 각 단위 스트림의 종류를 나타낸다. 이 필드는 프로그램을 구성하는 비디오 스트림이 HEVC 코덱에 의해 인코딩된 비디오 스트림 즉, HEVC 비디오 스트림임을 나타낼 수 있다. 예를 들어, 이 필드는 0x24 또는 0x25 값을 가질 수 있다. 이 필드가 나타내는 값이 0x24이면, 이 필드는 해당 비디오 스트림이 HEVC 비디오 스트림 또는 HEVC temporal video sub-bitstream임을 나타낼 수 있다. 이 필드가 나타내는 값이 0x25이면, 이 필드는 해당 비디오 스트림이 본 발명의 일 실시예에 따른 HEVC 비디오 스트림의 HEVC temporal video subset임을 나타낼 수 있다. 상술한 HEVC temporal video sub-bitstream는 하나의 비디오 스트림에 포함된 서브 스트림을 의미할 수 있다. 즉, HEVC는 temporal scalability를 자체적으로 제공하는데, 여기서 하나의 temporal id로 정의된 스트림이 sub-bitstream을 의미할 수 있다. 상술한 HEVC temporal video subset은 상술한 sub-bitstream에 포함되지 않는 스트림을 의미할 수 있다. 여기서, 상술한 subset 하나가 하나의 스트림이 될 수 있고, 여러 개의 subset이 하나의 스트림이 될 수 있고, 하나의 subset이 여러 개의 스트림이 될 수 있다.
elementary_PID 필드는 당해 테이블이 설명하고 있는 프로그램을 구성하는 각 단위 스트림의 패킷 ID (packet ID)를 나타낸다.
ES_info_length 필드는 이후에 따라오는 각 단위 스트림에 대한 정보 (ES_info)를 나타내는 디스크립터의 길이를 나타낸다.
descriptor()는 당해 테이블이 설명하고 있는 프로그램을 구성하는 단위 스트림들 중에 하나의 단위 스트림에 대한 정보를 나타내는 디스크립터를 의미한다.
CRC_32 필드는 당해 테이블 섹션에 포함된 데이터에 오류가 있는지 확인하기 위하여 사용되는 CRC 값을 나타낸다.
본 발명의 일 실시예에 따른 PMT는 MPEG-TS를 통하여 In band로 전송될 수 있고 PMT를 포함한 PSI 정보 전체가 xml 형태로 IP를 통하여 전송될 수 있다.
도 2는 본 발명의 일 실시예에 따른 EIT (Event Information Table)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 EIT는 table_id 필드, section_syntax_indicator 필드, section_length 필드, service_id 필드, version_number 필드, current_next_indicator 필드, section_number 필드, last_section_number 필드, transport_stream_id 필드, original_network_id 필드, segment_last_section_number 필드, last_table_id 필드, event_id 필드, start_time 필드, duration 필드, running_status 필드, free_CA_mode 필드, descriptors_loop_length 필드, descriptor() 및/또는 CRC_32 필드를 포함한다.
table_id 필드는 테이블의 타입을 식별한다. table_id 필드는 당해 테이블 섹션이 EIT를 구성하는 섹션임을 나타내는 역할을 할 수 있다.
section_syntax_indicator 필드는 당해 필드 이후에 따라오는 테이블 섹션의 포맷을 나타낸다. 당해 필드의 값이 0이면 당해 테이블 섹션은 short 포맷임을 나타낸다. 당해 필드의 값이 1이면 당해 테이블 섹션은 일반적인 long 포맷을 따른다.
section_length 필드는 당해 테이블 섹션의 길이를 나타낸다. section_length 필드는 당해 필드 이후부터 당해 테이블 섹션의 끝까지의 길이를 나타낼 수 있다.
service_id 필드는 트랜스포트 스트림 안에 존재하는 각 서비스를 식별한다. service_id 필드는 PMT에서 program_number 필드와 그 기능이 동일할 수 있다.
version_number 필드는 프라이빗 테이블 섹션 (private table section)의 버전 넘버를 나타낸다. 수신기는 당해 필드와 후술할 current_next_indicator 필드를 이용해서 메모리에 저장되어 있는 테이블 섹션 중 가장 최근의 것을 찾아 낼 수 있다.
current_next_indicator 필드가 나타내는 값이 1이면 현재 전송되는 테이블이 유효하다는 것을 나타내고 0이면 현재 전송되는 테이블이 현재는 유효하지 않지만 이후에 유효할 것이라는 것을 나타낸다.
section_number 필드는 당해 섹션이 당해 테이블의 몇 번째 섹션인지를 나타낸다.
last_section_number 필드는 당해 테이블을 구성하고 있는 섹션 중에 마지막 섹션의 순번을 나타낸다.
transport_stream_id 필드는 당해 테이블에서 설명하고자 하는 트랜스포트 스트림 (TS)을 식별한다.
original_network_id 필드는 당해 테이블에서 기술하는 서비스 또는 이벤트를 전송한 최초의 방송국을 식별할 수 있다.
segment_last_section_number 필드는 sub table이 존재하는 경우 해당 세그먼트의 마지막 섹션 넘버를 나타낸다. sub table이 분절되지 않는 경우 당해 필드가 나타내는 값은 last_section_number 필드가 나타내는 값과 동일한 값을 나타낼 수 있다.
last_table_id 필드 사용된 마지막 table_id를 나타낸다.
event_id 필드는 각각의 이벤트를 식별하며 하나의 서비스 내에서 유일한 값을 갖는다.
start_time 필드는 해당 이벤트의 시작시간을 나타낸다.
duration 필드는 해당 이벤트의 지속시간을 나타낸다. 예를 들어 1시간 45분 30초간 지속되는 프로그램이라면 duration 필드는 0x014530 값을 나타낼 수 있다.
running_status 필드는 해당 이벤트의 상태를 나타낸다.
free_CA_mode 필드가 나타내는 값이 0이면 서비스를 구성하는 컴포넌트 스트림들이 스크램블되어 있지 않음을 나타내고, 1이면 하나 이상의 스트림에 대한 접근이 CA 시스템에 의해 조절됨을 나타낸다. CA 시스템은 Conditional Access System의 약어로서 방송의 시청을 계약자로 한정하기 위해서 방송 컨텐츠의 암호화 기능과 계약자만이 암호를 풀어 방송 컨텐츠를 시청할 수 있는 기능을 제공하는 시스템을 의미한다.
descriptors_loop_length 필드는 당해 필드 이후에 따라오는 디스크립터들의 길이를 더한 값을 나타낸다.
descriptor()는 각 이벤트에 대하여 기술하는 디스크립터를 의미한다. 본 발명의 일 실시예에 따른 컴포넌트 디스크립터는 상술한 descriptor()에 해당할 수 있다. 상술한 컴포넌트 디스크립터는 EIT 내에 위치하고 해당 이벤트에 포함된 비디오 또는 오디오 스트림의 특징을 나타낼 수 있다. 컴포넌트 디스크립터에 대한 상세한 설명은 다음 도면에서 후술한다. 후술할 광역 밝기 범위 디스크립터 및 색감 조정 정보 디스크립터는 상술한 descriptor()에 해당할 수 있다.
CRC_32 필드는 당해 테이블 섹션에 포함된 데이터에 오류가 있는지 확인하기 위하여 사용되는 CRC 값을 나타낸다.
본 발명의 일 실시예에 따른 EIT는 TS 내에 table 형태로 전송될 수 있고 xml 형태로 IP streaming에 의하여 전송될 수 있다.
도 3은 본 발명의 일 실시예에 따른 컴포넌트 디스크립터 (component_descriptor)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트 디스크립터는 descriptor_tag 필드, descriptor_length 필드, stream_content 필드, component_type 필드, component_tag 필드, ISO_639_language_code 필드 및/또는 text_char 필드를 포함한다.
descriptor_tag 필드는 이 디스크립터가 본 발명의 일 실시예에 따른 컴포넌트 디스크립터임을 식별한다.
descriptor_length 필드는 이 디스크립터의 길이를 나타낼 수 있다.
stream_content 필드는 스트림의 타입을 나타낼 수 있다.
component_type 필드는 비디오 또는 오디오 데이터의 타입을 나타낼 수 있다.
component_tag 필드는 스트림 식별자 디스크립터 (stream identifier descriptor)의 component_tag 필드와 같은 값을 갖는다.
ISO_639_language_code 필드는 컴포넌트의 언어를 식별할 수 있다.
text_char 필드는 컴포넌트 스트림의 텍스트 설명을 나타낼 수 있다.
본 발명의 일 실시예는 stream_content 필드 및 component_type 필드를 이용하여 HEVC 코덱 기반의 비디오 스트림에 대한 정보를 시그널링 할 수 있다. 즉, 본 발명의 일 실시예는 상술한 두 필드를 이용하여 해당 이벤트 또는 서비스에 포함된 비디오 스트림의 특성을 파악할 수 있다. 본 발명의 일 실시예에 따른 stream_content 필드 및 component_type 필드는 비디오 스트림의 특성을 나타낼 수 있고, 보다 구체적으로 비디오 스트림의 코덱 정보, 해상도 정보, 프레임 속도 정보, 비트 심도 정보, 티어 정보 등을 나타낼 수 있다. 여기서, 비트 심도 정보는 블랙 색상부터 화이트까지의 색상을 나타내는데 사용되는 비트수를 의미하고 티어 정보는 해당 비디오 스트림이 방송을 위한 스트림인지 수신기에 저장해 두기 위한 스트림인지를 구분하는 정보를 의미할 수 있다.
본 발명의 일 실시예에 따른 수신 장치는 상술한 컴포넌트 디스크립터에 포함된 정보를 이용하여 해당 이벤트를 디코딩할 수 있는지 여부를 판단할 수 있다.
도 4는 본 발명의 일 실시예에 따른 stream_content 및 component_type의 설명을 나타낸 도면이다.
본 발명의 일 실시예에 따른 stream_content 필드가 0x09인 경우, 이 필드는 해당 비디오 스트림이 HEVC 비디오 스트림임을 나타낼 수 있다.
본 발명의 일 실시예에 따른 component_type 필드는 0x01부터 0x20까지 정의될 수 있다. component_type 필드가 0x01인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 4:3의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x02인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 16:9의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x03인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 16:9 이상의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x04인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 4:3의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x05인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 16:9의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x06인 경우, 이 필드는 해당 비디오 스트림이 HEVC SD 해상도, 16:9 이상의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x07인 경우, 이 필드는 해당 비디오 스트림이 HEVC HD 해상도, 4:3 또는 16:9의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x08인 경우, 이 필드는 해당 비디오 스트림이 HEVC HD 해상도, 16:9 이상의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x09인 경우, 이 필드는 해당 비디오 스트림이 HEVC HD 해상도, 4:3의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x0A인 경우, 이 필드는 해당 비디오 스트림이 HEVC HD 해상도, 16:9의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x0B인 경우, 이 필드는 해당 비디오 스트림이 HEVC HD 해상도, 16:9 이상의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x11인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x12인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 25Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x13인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x14인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 30Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x15인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 50Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x16인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 50Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x17인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 60Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x18인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 60Hz의 프레임 속도 (framerate), 8비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x19인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 25Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1A인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 25Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1B인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 30Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1C인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 30Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1D인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 50Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1E인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 50Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x1F인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, 16:9의 화면비, 60Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다. component_type 필드가 0x20인 경우, 이 필드는 해당 비디오 스트림이 HEVC 4K UHD 해상도, wide screen (16:9 이상)의 화면비, 60Hz의 프레임 속도 (framerate), 10비트의 비트 심도 (bit-depth)를 갖는 비디오 스트림임을 나타낼 수 있다.
본 발명의 일 실시예에 따른 component_type은 4K UHD에 대하여 4:2:0의 크로마 포맷 (chroma format)의 비디오 스트림을 기준으로 하였다. 본 발명의 다른 일 실시예는 component_type 0x21부터 0x29을 할당하여 12비트의 비트 심도에 대한 내용을 추가로 정의할 수 있다. 또한, component_type 0x29부터 0x38을 할당하여 4K UHD에 대하여 4:2:2의 크로마 포맷을 추가로 포함할 수 있다. 또한, component_type 0x38부터 0x47을 할당하여 8K UHD 비디오 스트림에 대한 내용을 추가로 포함할 수 있다.
도 5는 본 발명의 일 실시예에 따른 광역 밝기 범위 정보를 포함하는 광역 밝기 범위 디스크립터의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 dynamic_range_transformation_info_descriptor는 광역 밝기 범위 디스크립터로 명명될 수 있다.
본 발명의 일 실시예에 따른 광역 밝기 범위 디스크립터는 descriptor_tag 필드, descriptor_length 필드, number_of_HDR_info 필드 및/또는 dynamic_range_transformation_metadata 필드 (광역 밝기 범위 정보)를 포함한다.
descriptor_tag 필드는 이 디스크립터가 본 발명의 일 실시예에 따른 광역 밝기 범위 디스크립터임을 식별한다.
descriptor_length 필드는 이 디스크립터의 길이를 나타낼 수 있다.
number_of_HDR_info 필드는 후술할 광역 밝기 범위 정보의 개수를 나타낼 수 있다.
dynamic_range_transformation_metadata 필드는 본 발명의 일 실시예에 따른 광역 밝기 범위 정보로 명명될 수 있고, 이에 대한 상세한 설명은 후술한다.
본 발명의 일 실시예에 따른 광역 밝기 범위 디스크립터는 EIT에 포함될 수 있다. 본 발명의 일 실시예에 따른 광역 밝기 범위 정보는 전술한 component_type에 추가되어 표현될 수 있다. 하지만, component_type이 계속적으로 증가하는 것을 막기 위하여 광역 밝기 범위 정보는 독립적으로 EIT 내의 디스크립터 레벨에서 시그널링될 수 있다.
도 6은 본 발명의 일 실시예에 따른 광역 밝기 범위 정보 (dynamic_range_transformation_metadata)의 구성을 나타낸 도면이다.
본 발명의 일 실시예 따른 dynamic_range_transformation_metadata는 광역 밝기 범위 정보로 명명될 수 있다.
본 발명의 일 실시예에 따른 광역 밝기 범위 정보는 luminance_max 필드, luminance_min 필드, luminance_upper_bound 필드, luminance_lower_bound 필드, number_luminance_upper_bound_diff 필드 및/또는 luminance_upper_bound_diff[i] 필드를 포함한다.
luminance_max 필드는 해당 비디오 스트림에서 표현된 최대 기준 밝기를 나타낸다. 즉, 밝기 범위 (DR)의 최대값을 나타낸다.
luminance_min 필드는 해당 비디오 스트림에서 표현된 최소 기준 밝기를 나타낸다. 즉, 밝기 범위 (DR)의 최소값을 나타낸다.
luminance_upper_bound 필드는 해당 비디오 스트림에서 표현된 밝기 범위 중 필수적으로 표현되어야 하는 밝기 범위의 최대값 (nit 단위)을 나타낸다.
luminance_lower_bound 필드는 해당 비디오 스트림에서 표현된 밝기 범위 중 필수적으로 표현되어야 하는 밝기 범위의 최소값 (nit 단위)을 나타낸다.
number_luminance_upper_bound_diff 필드는 상술한 luminance_upper_bound 또는 luminance_lower_bound를 확장하기 위하여 사용되는 변수의 개수를 나타낸다.
luminance_upper_bound_diff[i] 필드는 상술한 luminance_upper_bound 또는 luminance_lower_bound의 확장에 의해 확장된 영역에 대한 정보를 나타낸다.
본 발명의 일 실시예에 따른 광역 밝기 범위 정보는 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 나타낼 수 있고, EIT 내의 광역 밝기 범위 디스크립터에 포함될 수 있다.
도 7은 본 발명의 일 실시예에 따른 색감 조정 정보를 포함하는 색감 조정 정보 디스크립터의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 UHD_color_management_info_descriptor는 색감 조정 정보 디스크립터로 명명될 수 있다.
본 발명의 일 실시예에 따른 색감 조정 정보 디스크립터는 descriptor_tag 필드, descriptor_length 필드, number_of_color_info 필드 및/또는 color_management_metadata 필드 (색감 조정 정보)를 포함한다.
descriptor_tag 필드는 이 디스크립터가 본 발명의 일 실시예에 따른 색감 조정 정보 디스크립터임을 식별한다.
descriptor_length 필드는 이 디스크립터의 길이를 나타낼 수 있다.
number_of_color_info 필드는 후술할 색감 조정 정보의 개수를 나타낼 수 있다.
color_management_metadata 필드는 본 발명의 일 실시예에 따른 색감 조정 정보로 명명될 수 있고, 이에 대한 상세한 설명은 후술한다.
본 발명의 일 실시예에 따른 색감 조정 정보 디스크립터는 EIT에 포함될 수 있다. 본 발명의 일 실시예에 따른 색감 조정 정보는 전술한 component_type에 추가되어 표현될 수 있다. 하지만, component_type이 계속적으로 증가하는 것을 막기 위하여 색감 조정 정보는 독립적으로 EIT 내의 디스크립터 레벨에서 시그널링될 수 있다.
도 8은 본 발명의 일 실시예에 따른 색감 조정 정보 (color_management_metadata)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 color_management_metadata는 색감 조정 정보로 명명될 수 있다.
본 발명의 일 실시예에 따른 색감 조정 정보는 gamut_mapping_flag 필드, reference_black_luminance_level 필드, reference_white_luminance_level 필드, color_gamut 필드, color_primary_r_x 필드, color_primary_r_y 필드, color_primary_g_x 필드, color_primary_g_y 필드, color_primary_b_x 필드 및/또는 color_primary_b_y 필드를 포함한다.
gamut_mapping_flag 필드는 기본 설정된 개멋 (gamut)에 비해 향상된 개멋이 사용되는지 여부를 나타낸다. 개멋 지정 플래그 정보의 필드 값이 "0"인 경우 기본 설정된 표준 개멋이 사용됨을 나타내고, 필드 값이 "1"인 경우 임의의 개멋이 사용됨을 나타낸다.
reference_black_luminance_level 필드는 해당 비디오 스트림을 재생하기 위해 필요한 권장 디스플레이 밝기 범위 중 최소 밝기를 나타낼 수 있다.
reference_white_luminance_level 필드는 해당 비디오 스트림을 재생하기 위해 필요한 권장 디스플레이 밝기 범위 중 최대 밝기를 나타낼 수 있다.
color_gamut 필드는 해당 비디오 스트림의 색감을 표현할 수 있는 표준 색공간을 나타낸다. 이 필드는 디스플레이의 색상 표현 범위 및/또는 기준 색상 (Red, Green, Blue)의 색공간 상 위치를 나타낼 수 있다.
color_primary_r_x 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 레드 색상의 x좌표를 나타낸다.
color_primary_r_y 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 레드 색상의 y좌표를 나타낸다.
color_primary_g_x 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 그린 색상의 x좌표를 나타낸다.
color_primary_g_y 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 그린 색상의 y좌표를 나타낸다.
color_primary_b_x 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 블루 색상의 x좌표를 나타낸다.
color_primary_b_y 필드는 표준 색공간이 아닌 임의의 색공간을 지정하는 경우 임의의 색공간에서 블루 색상의 y좌표를 나타낸다.
본 발명의 일 실시예에 따른 색감 조정 정보는 EIT 내의 색감 조정 정보 디스크립터에 포함될 수 있다.
도 9는 본 발명의 일 실시예에 따른 SDT (Service Description Table)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 SDT는 table_id 필드, section_syntax_indicator 필드, section_length 필드, transport_stream_id 필드, version_number 필드, current_next_indicator 필드, section_number 필드, last_section_number 필드, original_network_id 필드, service_id 필드, EIT_schedule_flag 필드, EIT_present_following_flag 필드, running_status 필드, free_CA_mode 필드, descriptors_loop_length 필드, descriptor() 및/또는 CRC_32 필드를 포함한다.
table_id 필드는 테이블의 타입을 식별한다. table_id 필드는 당해 테이블 섹션이 SDT를 구성하는 섹션임을 나타내는 역할을 할 수 있다.
section_syntax_indicator 필드는 당해 필드 이후에 따라오는 테이블 섹션의 포맷을 나타낸다. 당해 필드의 값이 0이면 당해 테이블 섹션은 short 포맷임을 나타낸다. 당해 필드의 값이 1이면 당해 테이블 섹션은 일반적인 long 포맷을 따른다.
section_length 필드는 당해 테이블 섹션의 길이를 나타낸다. section_length 필드는 당해 필드 이후부터 당해 테이블 섹션의 끝까지의 길이를 나타낼 수 있다.
transport_stream_id 필드는 당해 테이블에서 설명하고자 하는 트랜스포트 스트림 (TS)을 식별한다.
version_number 필드는 프라이빗 테이블 섹션 (private table section)의 버전 넘버를 나타낸다. 수신기는 당해 필드와 후술할 current_next_indicator 필드를 이용해서 메모리에 저장되어 있는 테이블 섹션 중 가장 최근의 것을 찾아 낼 수 있다.
current_next_indicator 필드가 나타내는 값이 1이면 현재 전송되는 테이블이 유효하다는 것을 나타내고 0이면 현재 전송되는 테이블이 현재는 유효하지 않지만 이후에 유효할 것이라는 것을 나타낸다.
section_number 필드는 당해 섹션이 당해 테이블의 몇 번째 섹션인지를 나타낸다.
last_section_number 필드는 당해 테이블을 구성하고 있는 섹션 중에 마지막 섹션의 순번을 나타낸다.
original_network_id 필드는 당해 테이블에서 기술하는 서비스를 전송한 최초의 방송국을 식별할 수 있다.
service_id 필드는 트랜스포트 스트림 안에 존재하는 각 서비스를 식별한다. service_id 필드는 PMT에서 program_number 필드와 그 기능이 동일할 수 있다.
EIT_schedule_flag 필드가 나타내는 값이 1이면 현재 TS 안에 서비스를 위한 EIT 스케쥴 정보 (EIT schedule flag)가 존재함을 나타내고, 0이면 존재하지 않음을 나타낸다.
EIT_present_following_flag 필드가 나타내는 값이 1이면 현재 TS 안에 서비스를 위한 EIT_present_following 정보가 존재함을 나타내고, 0이면 존재하지 않음을 나타낸다.
running_status 필드는 서비스의 상태를 나타낸다. 예를 들어, running_status 필드의 값이 1이면 서비스가 "not running" 임을 나타내고, 2이면 "starts in a few seconds" 임을 나타내고, 3이면 "pausing" 임을 나타내고, 4이면 "running" 임을 나타내고, 5이면 "service off-air" 임을 나타낼 수 있다.
free_CA_mode 필드가 나타내는 값이 0이면 서비스를 구성하는 컴포넌트 스트림들이 스크램블되어 있지 않음을 나타내고, 1이면 하나 이상의 스트림에 대한 접근이 CA 시스템에 의해 조절됨을 나타낸다. CA 시스템은 Conditional Access System의 약어로서 방송의 시청을 계약자로 한정하기 위해서 방송 컨텐츠의 암호화 기능과 계약자만이 암호를 풀어 방송 컨텐츠를 시청할 수 있는 기능을 제공하는 시스템을 의미한다.
descriptors_loop_length 필드는 당해 필드 이후에 따라오는 디스크립터들의 길이를 더한 값을 나타낸다.
descriptor()는 각 서비스에 대하여 기술하는 디스크립터를 의미한다. 본 발명의 일 실시예에 따른 서비스 디스크립터 (service_descriptor)는 상술한 descriptor()에 해당할 수 있다. 이에 대한 상세한 설명은 다음 도면에서 후술한다.
CRC_32 필드는 당해 테이블 섹션에 포함된 데이터에 오류가 있는지 확인하기 위하여 사용되는 CRC 값을 나타낸다.
도 10은 본 발명의 일 실시예에 따른 서비스 디스크립터 (service_descriptor)의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 서비스 디스크립터는 descriptor_tag 필드, descriptor_length 필드, service_type 필드, service_provider_name_length 필드 및/또는 service_name_length 필드를 포함한다.
descriptor_tag 필드는 이 디스크립터를 식별할 수 있다.
descriptor_length 필드는 이 디스크립터의 길이를 나타낼 수 있다.
service_type 필드는 해당 서비스가 HEVC 기반의 방송 서비스임을 나타낼 수 있다. 본 발명의 일 실시예에 따르면, 이 필드는 해당 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타낼 수 있다. 이 필드에 대한 상세한 설명은 다음 도면에서 후술한다.
service_provider_name_length 필드는 다음의 char로 표시되는 서비스 프로바이터 이름의 길이를 나타낼 수 있다.
service_name_length 필드는 다음의 char로 표시되는 서비스 이름의 길이를 나타낼 수 있다.
본 발명의 일 실시예에 따른 SDT는 TS 내에 table 형태로 전송될 수 있고 xml 형태로 IP streaming에 의하여 전송될 수 있다.
도 11은 본 발명의 일 실시예에 따른 HEVC 기반의 방송 서비스를 식별하는 service_type의 설명을 나타낸 도면이다.
본 발명의 일 실시예에 따른 service_type은 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보에 해당할 수 있다.
본 발명의 일 실시예에 따른 service_type이 0x1F이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 SD 해상도를 갖는 digital television service임을 나타낼 수 있다. service_type이 0x20이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 SD 해상도를 갖는 NVOD time-shifted service임을 나타낼 수 있다. service_type이 0x21이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 SD 해상도를 갖는 NVOD reference service임을 나타낼 수 있다. service_type이 0x22이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 HD 해상도를 갖는 digital television service임을 나타낼 수 있다. service_type이 0x23이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 SD 해상도를 갖는 NVOD time-shifted service임을 나타낼 수 있다. service_type이 0x24이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 HD 해상도를 갖는 NVOD reference service임을 나타낼 수 있다. service_type이 0x25이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1A 해상도를 갖는 digital television service임을 나타낼 수 있다. service_type이 0x26이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1A 해상도를 갖는 NVOD time-shifted service임을 나타낼 수 있다. service_type이 0x27이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1A 해상도를 갖는 NVOD reference service임을 나타낼 수 있다. service_type이 0x28이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1B 해상도를 갖는 digital television service임을 나타낼 수 있다. service_type이 0x29이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1B 해상도를 갖는 NVOD time-shifted service임을 나타낼 수 있다. service_type이 0x2A이면, 이 필드는 해당 방송 서비스가 H.265/HEVC 코덱이 사용되고 UHD-1B 해상도를 갖는 NVOD reference service임을 나타낼 수 있다. 여기서, 상술한 UHD-1A는 4K 해상도 및 50p/60p의 프레임 속도 (framerate)를 나타낼 수 있고, UHD-1B는 4K 해상도 및 100p/120p의 프레임 속도를 나타낼 수 있다. 또한, 4K 해상도 및 25p/30p를 갖는 방송 서비스와 8K 해상도를 갖는 방송 서비스도 시그널링될 수 있다.
도 12는 본 발명의 일 실시예에 따른 HbbTV에서 사용하는 system formats, video formats 및 audio formats를 나타낸 도면이다.
본 발명의 일 실시예에 따라, MPEG-2 TS가 system format으로 사용되는 경우 video format으로는 AVC_SD_25 및/또는 AVC_HD_25가 사용될 수 있고 audio format으로는 HEAAC 및/또는 E-AC3가 사용될 수 있고 MIME Type으로는 video/mpeg가 사용될 수 있다. MPEG-2 TS가 system format으로 사용되는 경우 단말은 컨텐츠가 브로드밴드를 통하여 전송되는 방송을 통하여 전송되는 같은 subtitle format을 지원할 수 있다. (Terminals can support the same subtitle formats for content received by the broadband connection as are supported for the broadcast connection) MP4가 system format으로 사용되는 경우 video format으로는 AVC_SD_25 및/또는 AVC_HD_25가 사용될 수 있고 audio format으로는 HEAAC 및/또는 E-AC3가 사용될 수 있고 MIME Type으로는 video/mp4가 사용될 수 있다. 예를 들어, video format AVC_SD_25는 AVC 코덱이 사용되고 SD 해상도를 갖고 25 fps의 프레임속도를 갖는 비디오 스트림을 나타낼 수 있다.
본 발명의 일 실시예에 따르면, 상술한 E-AC3가 방송을 통해 수신된 컨텐츠에 대하여 지원되는 경우 단말은 브로드밴드를 통해 수신된 컨텐츠에 대하여도 E-AC3를 지원할 수 있다. (Terminals can support E-AC3 for content received by the broadband connection when it is supported for the broadcast connection)
도 13은 본 발명의 일 실시예에 따라, 25Hz 프레임 속도를 갖는 비디오 시스템에서 사용되는 system formats, video formats 및 audio formats를 나타낸 도면이다.
본 발명의 일 실시예에 따라, MPEG-2 TS가 system format으로 사용되는 경우 video format으로는 AVC_HD_25, AVC_SD_25, AVC_SP_25 및/또는 AVC_3D_25가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/mpeg 또는 video/mp2t가 사용될 수 있다. TTS가 system format으로 사용되는 경우 video format으로는 AVC_HD_25, AVC_SD_25, AVC_SP_25 및/또는 AVC_3D_25가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/vnd.dlna.mpeg-tts 가 사용될 수 있다. MP4가 system format으로 사용되는 경우 video format으로는 AVC_HD_25, AVC_SD_25, AVC_SP_25 및/또는 AVC_3D_25가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/mp4 가 사용될 수 있다.
본 발명의 다른 일 실시에에 따라, MPEG-2 TS가 system format으로 사용되는 경우 video format으로는 MPEG2_SD_25 및/또는 MPEG2_SP_25가 사용될 수 있고 audio format으로는 MPEG1_L2, MPEG1_L2_MPS, AC3 및/또는 E-AC3가 사용될 수 있고 MIME Type으로는 video/mpeg 또는 video/mp2t가 사용될 수 있다. TTS가 system format으로 사용되는 경우 video format으로는 MPEG2_SD_25 및/또는 MPEG2_SP_25가 사용될 수 있고 audio format으로는 MPEG1_L2, MPEG1_L2_MPS, AC3 및/또는 E-AC3가 사용될 수 있고 MIME Type으로는 video/vnd.dlna.mpeg-tts가 사용될 수 있다.
본 발명의 일 실시예에 따르면, 이 도면에 도시된 video format 중에서 TS 및/또는 MP4가 system format으로 사용되는 경우에, AVC_HD_25 및/또는 AVC_SD_25가 본 발명의 일 실시예에 따른 HbbTV에 사용될 수 있다.
도 14은 본 발명의 일 실시예에 따라, 30Hz 프레임 속도를 갖는 비디오 시스템에서 사용되는 system formats, video formats 및 audio formats를 나타낸 도면이다.
본 발명의 일 실시예에 따라, MPEG-2 TS가 system format으로 사용되는 경우 video format으로는 AVC_HD_30, AVC_SD_30, AVC_SP_30 및/또는 AVC_3D_30가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/mpeg 또는 video/mp2t가 사용될 수 있다. TTS가 system format으로 사용되는 경우 video format으로는 AVC_HD_30, AVC_SD_30, AVC_SP_30 및/또는 AVC_3D_30가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/vnd.dlna.mpeg-tts 가 사용될 수 있다. MP4가 system format으로 사용되는 경우 video format으로는 AVC_HD_30, AVC_SD_30, AVC_SP_30 및/또는 AVC_3D_30가 사용될 수 있고 audio format으로는 HEAAC, HEAAC2, HEAAC_MPS, MPEG1_L2, MPEG1_L2_MPS, AC3, E-AC3 및/또는 DTS가 사용될 수 있고 MIME Type으로는 video/mp4 가 사용될 수 있다.
본 발명의 일 실시예에 따르면, HEVC 기반의 방송 서비스를 위하여 HbbTV에서 사용되는 video format이 추가로 정의될 수 있다. SD 해상도의 경우, HEVC_SD_25, HEVC_SD_30 등이 추가로 정의될 수 있고, HD 해상도의 경우, HEVC_HD_25, HEVC_HD_30, HEVC_HD_50, HEVC_HD_60 등이 추가로 정의될 수 있고, UHD 해상도의 경우, HEVC_UHD_25, HEVC_UHD_30, HEVC_UHD_50, HEVC_UHD_60 등이 추가로 정의될 수 있다. 또한, 본 발명의 일 실시예에 따르면, 고화질의 서비스를 제공하기 위하여 HEVC뿐만 아니라 AVC에서도 높은 프레임 속도 포맷 (higher frame rate format)이 정의되고 사용될 수 있다. 예를 들어, AVC_HD_50, AVC_HD_60 등이 추가로 정의될 수 있다.
도 15는 본 발명의 일 실시예에 따른 HEVC 서비스를 제공하기 위한 video format을 xml 형태로 나타낸 도면이다.
본 발명의 일 실시예에 따르면, HEVC 기반의 방송 서비스를 제공하기 위하여 HEVC, UHD 및 higher frame rate의 video format이 추가로 정의될 수 있다.
본 발명의 일 실시예에 따른 HEVC 기반의 방송 서비스를 제공하기 위하여, HEVC_UHD_25가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 UHD 해상도의 25Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_UHD_30가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 UHD 해상도의 30Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_UHD_50가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 UHD 해상도의 50Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_UHD_60가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 UHD 해상도의 60Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_HD_25가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 인코딩된 HD 해상도의 25Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_HD_30가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 HD 해상도의 30Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. HEVC_SD_30가 video format으로 정의될 수 있고, 이 포맷은 H.265/HEVC 코덱을 사용해 encoding된 SD 해상도의 30Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. AVC_HD_30가 video format으로 정의될 수 있고, 이 포맷은 H.264/AVC 코덱을 사용해 encoding된 HD 해상도의 30Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다. AVC_SD_30가 video format으로 정의될 수 있고, 이 포맷은 H.264/AVC 코덱을 사용해 encoding된 SD 해상도의 30Hz의 프레임 속도를 갖는 video임을 나타낼 수 있다.
본 발명의 일 실시예에 따르면 상술한 video format 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 16은 본 발명의 일 실시예에 따라 termID를 사용하여 video format을 나타낸 도면이다.
본 발명의 일 실시예에 따른 termID 1은 MPEG-1 video임을 나타내고, termID 2는 MPEG-2 video임을 나타내고, termID 2.1은 MPEG-2 video simple profile을 나타내고, termID 2.2는 MPEG-2 video main profile을 나타내고, termID 2.1.1은 MPEG-2 video simple profile 및 main level을 나타내고, termID 2.2.1은 MPEG-2 video main profile 및 low level을 나타내고, termID 2.2.2은 MPEG-2 video main profile 및 main level을 나타내고, termID 2.2.3은 MPEG-2 video main profile 및 high 1440 level을 나타내고, termID 2.2.4은 MPEG-2 video main profile 및 high level을 나타낼 수 있다. 즉, termID는 단계별로 코덱의 종류, profile의 종류, level의 종류를 나타낼 수 있다.
도 17은 본 발명의 일 실시예에 따른 HEVC 기반의 방송 서비스를 제공하기 위하여 termID를 사용하여 video format를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, HEVC의 경우, termID는 9로 지정될 수 있고 main profile은 9.1, main10 profile은 9.2, still picture profile은 9.3으로 지정되어 시그널링될 수 있다. 추가로 profile을 확장하는 경우에도 상술한 방법과 같이 9.4, 9.5 등에 확장하고자하는 profile을 지정할 수 있다. 각 profile에 대하여 tier와 level이 정의될 수 있다. 본 발명의 일 실시예에 따른 tier는 티어 정보로 명명될 수 있고, main tier는 1로 higher tier는 2로 정의될 수 있다. 본 발명의 일 실시예에 따른 level은 3.0, 3.1, 3.2 ~6.0, 6.1, 6.2까지 나타낼 수 있고, 각 level은 1 내지 18 중 어느 하나의 값으로 정의될 수 있다. 예를 들어, termID 9.1.1.1은 HEVC video coding format, main profile, main tier 및 level 3.0을 나타낼 수 있고, termID 9.3.1.18은 HEVC video coding format, still picture profile, main tier 및 level 6.2를 나타낼 수 있다.
본 발명의 일 실시예에 따른 tier는 level과 함께 bitrate의 한계를 정하는 데 사용될 수 있다. 본 발명의 일 실시예에 따른 higher tier와 main tier는 maximum bitrate에서 차이가 존재할 수 있다. 예를 들면, 4K의 해상도 및/또는 60p의 프레임 속도를 갖는 video를 decoding할 수 있는 level 5.1에서, main tier인 경우 maximum bitrate는 40000 (1000bits/s)까지 이지만 high tier인 경우 maximum bitrate는 160000 (1000bits/s)일 수 있다. 따라서, 본 발명의 일 실시예에 따른 main tier를 갖는 스트림은 대부분 방송을 위한 스트림으로 사용될 수 있고, higher tier를 갖는 스트림은 대부분 방송국단에서 저장을 위한 스트림으로 사용될 수 있다.
본 발명의 일 실시예에 따르면 상술한 video format 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 18은 본 발명의 일 실시예에 따른 HEVC 서비스 제공을 위한 video profile을 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 전술한 video format을 기반으로 하여 system format_video format_audio format 순서로 하나의 video profile이 정의될 수 있다. 예를 들어, video profile은 TS_AVC_HD_25_HEAAC, TS_HEVC_HD_60_HEAAC 등으로 표현될 수 있다. 보다 구체적으로, video profile의 형식은 system format(전송format)_videoformat(codec_resolution_framerate)_audioformat(audiocodec)으로 표현될 수 있다.
본 발명의 일 실시예에 따르면, video profile로서 MP4_HEVC_SD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 SD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_HD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 HD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_HD_50_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 HD, frame rate로 50fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_HD_60_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 HD, frame rate로 60fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_UHD_25_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 UHD, frame rate로 25fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_UHD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 UHD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_UHD_50_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 UHD, frame rate로 50fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 MP4_HEVC_UHD_60_HEAAC가 정의될 수 있고 이 video profile은 system format으로 MP4, video codec으로 HEVC, resolution으로 UHD, frame rate로 60fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mp4, 전송 방식으로 dash를 가질 수 있다. video profile로서 TS_HEVC_SD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 SD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_HD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 HD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_HD_50_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 HD, frame rate로 50fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_HD_60_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 HD, frame rate로 60fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_UHD_25_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 UHD, frame rate로 25fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_UHD_30_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 UHD, frame rate로 30fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_UHD_50_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 UHD, frame rate로 50fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다. video profile로서 TS_HEVC_UHD_60_HEAAC가 정의될 수 있고 이 video profile은 system format으로 TS, video codec으로 HEVC, resolution으로 UHD, frame rate로 60fps, audio codec으로 HEAAC를 가질 수 있고, MIME type으로 video/mpeg을 가질 수 있다.
본 발명의 일 실시예에 따르면 상술한 video profile 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 19는 본 발명의 일 실시예에 따른 video attribute type를 나타낸 도면이다.
본 발명의 일 실시예에 따른 HbbTV에서 비디오와 관련된 정보를 전달하기 위하여 video attribute type를 xml 형태로 전달할 수 있다.
이 도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 VideoAttributesType는 Coding 엘레먼트, Scan 엘레먼트, HorizontalSize 엘레먼트, VerticalSize 엘레먼트, AspectRatio 엘레먼트, Color 엘레먼트, FrameRate 엘레먼트, BitRate 엘레먼트 및/또는 PictureFormat 엘레먼트를 포함한다. 상술한 각 엘레먼트에 대한 상세한 설명은 다음 도면에서 후술한다.
본 발명의 일 실시예에 따르면 상술한 video attribute type에 포함된 엘레먼트 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 20은 본 발명의 일 실시예에 따른 video attribute에 대한 설명을 나타낸 도면이다.
본 발명의 일 실시예에 따른 VideoAttributesType는 Coding 엘레먼트, Scan 엘레먼트, HorizontalSize 엘레먼트, VerticalSize 엘레먼트, AspectRatio 엘레먼트, Color 엘레먼트, FrameRate 엘레먼트, BitRate 엘레먼트 및/또는 PictureFormat 엘레먼트를 포함한다. 그리고, Scan 엘레먼트는 ScanType과 연결될 수 있고, AspectRatio 엘레먼트는 AspectRatioType 및/또는 type 엘레먼트와 연결될 수 있고, Color 엘레먼트는 ColorTypeType, ColorType 및/또는 type 엘레먼트와 연결될 수 있다.
VideoAttributesType는 비디오의 특성을 설명하는 엘레먼트들의 집합을 나타낼 수 있다. (A complex type defining a set of elements that describe video characteristics)
Coding 엘레먼트는 비디오의 코딩 포맷을 나타낼 수 있다. (The coding format of the video. This term should be taken from the MPEG-7 "VisualCodingFormatCS" classification scheme listed in clause B.2.34 of ISO/IEC 15938-5 [2]) 이 엘레먼트는 codec_profile_level 형식으로 시그널링될 수 있다. 본 발명의 일 실시예에 따른 HEVC의 경우, profile을 분류하는데 tier 정보를 사용할 수 있다. tier 정보는 main 또는 high를 나타낼 수 있다. main은 방송 서비스를 위한 비디오임을 나타내고, high는 스튜디오단에서 저장을 위한 비디오임을 나타낼 수 있다. 동일한 profile/level에서도 tier 정보에 따라 정의된 최대 bitrate가 달라질 수 있다. 본 발명의 일 실시예는 이 엘레먼트에 tier의 타입을 추가할 수 있고 video attribute type에 tier의 타입을 추가하여 시그널링할 수 있다. Coding 엘레먼트에 tier 정보가 포함된다면 본 발명의 일 실시예는 비디오 스트림을 codec_profile_tier_level 형식으로 시그널링할 수 있다. 예를 들어, HEVC를 기초로 한 방송 서비스를 위해 코딩한 10bit의 4K UHD 60p의 비디오를 제공하는 경우 해당 비디오는 HEVC Video Main10 profile Main tier @ Level 5.1로 시그널링될 수 있다. 즉, HEVC Video Main Profile Main tier @ Level {3.0~6.2}, HEVC Video Main 10 Profile Main tier @ Level {3.0~6.2} 등과 같이 티어 정보가 추가되어 시그널링이 확장될 수 있다.
Scan 엘레먼트는 비디오의 scan 타입을 나타낼 수 있다. (The scan type of the video)
HorizontalSize 엘레먼트는 비디오의 픽셀에서 수평 크기를 나타낼 수 있다. (The horizontal size in pixels of the video) 본 발명의 일 실시예에 따른 이 엘레먼트는 4K UHD 서비스를 위하여 2160, 8K UHD 서비스를 위하여 4320 등을 포함할 수 있다.
VerticalSize 엘레먼트는 비디오의 픽셀에서 수직 크기를 나타낼 수 있다. (The vertical size in pixels of the video) 본 발명의 일 실시예에 따른 이 엘레먼트는 4K UHD 서비스를 위하여 3840, 8K UHD 서비스를 위하여 7680 등을 포함할 수 있다.
AspectRatio 엘레먼트는 비디오의 화면비를 나타낼 수 있다. (The aspect ratio of the video. There may be two aspect ratios associated with a programme: the original aspect ratio that the programme is available in and the aspect ratio of a particular instance of the programme) 본 발명의 일 실시예에 따른 aspect ratio는 두 가지로 분류될 수 있다. 첫 번째는 프로그램에서 이용가능한 Original aspect ratio, 두 번째는 프로그램의 특정 instance에 대한 aspect ratio이다. AspectRatio는 RatioType(H:V)로 표시될 수 있고, AspectRatioType 및/또는 AspectRatioTypeType과 연결될 수 있다. AspectRatioTypeType에서 제공될 수 있는 값은 publication과 Original 값이다. 본 발명의 일 실시예에 따른 AspectRatioTypeType은 AFD bar 관련 정보를 포함할 수 있다. 상술한 AFD bar에 대한 상세한 설명은 다음 도면에서 후술한다.
Color 엘레먼트는 비디오의 색상 포맷을 나타낼 수 있다. (The colour format of the video (e.g. black and white)) 본 발명의 일 실시예에 따른 이 엘레먼트는 ColorTypeType과 ColorType과 연결될 수 있고 color, blackAndWhite, blackAndWhiteAndColor 및 colorized로 분류될 수 있다.
FrameRate 엘레먼트는 비디오의 프레임 속도를 나타낼 수 있다. (An element expressing the frame rate of the video) 본 발명의 일 실시예에 따른 이 엘레먼트는 30, 50, 60fps와 같은 higher frame rate를 포함할 수 있고 integer frame rate뿐만 아니라 fractional frame rate도 지원할 수 있다.
BitRate 엘레먼트는 비디오 스트림의 비트 레이트를 나타낼 수 있다. (An element to define the bit rate of the video stream) 본 발명의 일 실시예에 따른 이 엘레먼트는 비디오 스트림을 포함한 전체 스트림의 bitrate를 나타낼 수 있다. 여기서, 이 엘레먼트는 min, max 및 average로 분류되어 시그널링될 수 있다. 예를 들면, SD 해상도를 포함한 전체 스트림의 최대 bit rate는 4000kbits/s가 될 수 있고, HD 해상도를 포함한 전체 스트림의 최대 bit rate는 10000kbits/s가 될 수 있고, HEVC 기반의 UHD 서비스를 위한 전체 스트림의 최대 bit rate는 30000kbits/s가 될 수 있다. 상술한 최대 bit rate는 제공되는 서비스의 종류에 따라 달라질 수 있다. 상술한 bit rate에 대한 상세한 설명은 관련 도면에 대한 설명 부분에서 후술한다.
PictureFormat 엘레먼트는 비디오 이미지의 포맷을 나타낼 수 있다. (An element to define the format of the video image from a predefined list (PictureFormatCS Classification Scheme). When this element is not provided in an XML instance document, the video format can be assumed to be "2D Video") 본 발명의 일 실시예에 따른 이 엘레먼트는 2D video, Plano-Stereoscopic Video, Frame-Compatible 3D, Side-by-Side 3D Format, Top-and-Bottom 3D Format 등을 나타낼 수 있다.
ScanType은 interlaced 또는 progressive를 나타낼 수 있다. (A simple enumerated type defining the allowable values of the ScanType element above. ScanType can take on the value interlaced or progressive)
AspectRatioType은 프로그램의 화면비를 나타낼 수 있다. (Denotes the aspect ratio of the programme. This element can denote the aspect ratio of the original programme as well as that of its instances, through the use of type attribute) AspectRatioType은 type 엘레먼트를 가질 수 있는데, type 엘레먼트는 화면비가 original인지 publication인지를 나타낼 수 있다. (Denotes whether the specified aspect ratio is associated with the original programme (original) or its published instance (publication). The default value of the attribute is original)
ColorTypeType은 상술한 Color 엘레먼트에 해당하는 값을 나타낼 수 있다. (A simple enumerated type defining the allowable values of the ColorType instantiated in the Color element above. Allowed values are: color - the content was produced using a colour video format; blackAndWhite - the content was produced using a black and white video format; blackAndWhiteAndColor - the content contains a mixture of video that was originally produced in colour and content that was produced in black and white; colorized - the content was originally produced using a black and white video format and colour was added after original production)
ColorType은 색상 포맷의 complex type을 나타낼 수 있다. (A complex type, with a single attribute describing the colour format using one of the ColorTypeType values) ColorType은 type 엘레먼트를 가질 수 있고, type 엘레먼트는 색상 포맷의 타입을 나타낼 수 있다.
본 발명의 일 실시예에 따르면 상술한 video attribute type에 포함된 엘레먼트 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 21은 본 발명의 일 실시예에 따른 video attribute를 xml 형태로 나타낸 도면이다.
이 도면에 도시된 바와 같이, VideoAttributesType에 포함된 엘레먼트들은 xml을 통하여 정의될 수 있다.
본 발명의 일 실시예에 따른, ScanType은 interlaced 및/또는 progressive를 나타낼 수 있고 ColorTypeType은 color, blackAndWhite, blackAndWhiteAndColor 및/또는 colorized 값을 가질 수 있고 AspectRatioType은 orginal 및/또는 publication 값을 가질 수 있다.
이 도면에 도시된 어트리뷰트 또는 엘레먼트 중에서 이전 도면에서 설명된 어트리뷰트 또는 엘레먼트와 동일한 명칭을 가진 것들은 동일한 의미를 나타낼 수 있다.
도 22는 본 발명의 일 실시예에 따른 AspectRatioOrgType 및 AspectRatioDisplayType을 나타낸 도면이다.
본 발명의 일 실시예는 AFDbar 관련 정보를 나타내기 위하여 AspectRatioOrgType 및 AspectRatioDisplayType을 정의할 수 있다. 본 발명의 일 실시예에 따른 AFD는 Active Format Description의 약어로서 서로 다른 화면 비율을 갖는 텔레비전 세트에 다른 형태의 방송 영상을 적합하게 보여줄 수 있게 할 수 있다. AFDbar는 AFD의 기능에 이용되는 도구를 나타낼 수 있다. 본 발명의 일 실시예에 따른 AspectRatioOrgType은 촬영 당시 aspect ratio를 나타내고, AspectRatioDisplayType는 최종적으로 디스플레이되는 aspect ratio를 나타낼 수 있다. 본 발명의 일 실시예는 AFDbar를 삽입하거나 scaling 및/또는 crop을 판단하기 위하여 PostProcessingFlag를 시그널링할 수 있다. 상술한 PostProcessingFlag는 비디오 화면에 AFDbar 삽입, scaling, crop 등의 후처리가 필요한 경우 1을 나타내고 후처리가 필요없는 경우 0을 나타낼 수 있다.
이 도면에 도시된 바와 같이, AspectRatioOrgType 및/또는 AspectRatioDisplayType이 00이면, aspect ratio는 4:3을 나타내고, 01이면, 16:9를 나타내고, 10이면, 21:9를 나타낼 수 있다. 여기서, 본 발명의 일 실시예에 따른 aspect ratio는 화면비로 명명될 수 있다.
본 발명의 일 실시예에 따르면 상술한 AspectRatioOrgType 및 AspectRatioDisplayType 관련 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 23은 본 발명의 일 실시예에 따른 AFDBarType을 나타낸 도면이다.
본 발명의 일 실시예는 이전 도면에서 전술한 AspectRatioOrgType와 AspectRatioDisplayType를 비교하여 aspect ratio가 다른 경우, AFDbar의 삽입 여부를 판단할 수 있다. 여기서, AFDbar의 삽입 여부는 PostProcessingFlag 및/또는 AFDBarType를 이용하여 판단할 수 있다. PostProcessingFlag가 1인 경우, 본 발명의 일 실시예는 AFDbar를 어떤 형태로 삽입, scaling 또는 crop할 것인지에 대하여 AFDBarType을 이용하여 시그널링할 수 있다.
이 도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 AFDBarType이 00이면, 본 발명의 일 실시예는 display의 size에 맞게 영상을 비대칭으로 scaling시키고, AFDBarType이 01이면, aspect ratio에 맞게 영상을 대칭적으로 scaling시키고 나머지 부분을 crop할 수 있다. AFDBarType이 10이면 즉, AspectRatioOrgType이 AspectRatioDisplayType보다 크면 본 발명의 일 실시예는 영상에 Letterbox를 삽입할 수 있고, AFDBarType이 11이면 즉, AspectRatioOrgType이 AspectRatioDisplayType보다 작으면 본 발명의 일 실시예는 영상에 Pillarbox를 삽입할 수 있다.
본 발명의 일 실시예에 따르면 상술한 PostProcessingFlag 및/또는 AFDBarType 관련 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 24는 본 발명의 일 실시예에 따른 BitRateType 을 나타낸 도면이다.
본 발명의 일 실시예에 따른 BitRateType은 variable 엘레먼트, minimum 엘레먼트, average 엘레먼트 및/또는 maximum 엘레먼트를 포함할 수 있다.
BitRateType은 컨텐트 아이템의 비트레이트를 정의할 수 있다. (A complex type that defines the bit rate for a content item expressed in bits per second. The datavalue associated with this type defines the average bitrate if the bitrate is variable)
variable 엘레먼트는 비트레이트가 고정되어 있는지 변동가능한지 여부를 나타낼 수 있다. (Indicates whether the BitRate is variable or fixed. If the BitRate is variable, three optional attributes can be used to specify the minimum, maximum and average bitrates)
minimum 엘레먼트는 비트레이트의 최소값을 나타낼 수 있다. (Indicates the minimum numerical value for the BitRate in case of variable bit rate)
average 엘레먼트는 비트레이트의 평균값을 나타낼 수 있다. (Indicates the average numerical value for the BitRate in case of variable bit rate)
maximum 엘레먼트는 비트레이트의 최대값을 나타낼 수 있다. (Indicates the maximum numerical value for the BitRate in case of variable bit rate)
본 발명의 일 실시예에 따르면 상술한 BitRateType, variable 엘레먼트, minimum 엘레먼트, average 엘레먼트 및/또는 maximum 엘레먼트관련 정보는 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 25는 본 발명의 일 실시예에 따른 UHD 서비스 제공을 위한 video attributes를 나타낸 도면이다.
본 발명의 일 실시예에 따른 UHD 서비스를 제공하기 위하여 bit-depth, HDR, Color primary 및/또는 Chroma subsampling이 추가로 정의될 수 있다.
이 도면에 도시된 바와 같이, bit-depth는 블랙부터 화이트까지 몇 비트를 사용해서 내타낼 것인지를 나타낼 수 있다. 예를 들어, bit-depth는 8, 10, 12비트 등을 가질 수 있다. 본 발명의 일 실시예에 따른 bit-depth는 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보에 해당할 수 있다.
본 발명의 일 실시예에 따른 HDR은 본 발명의 일 실시예에 따른 광역 밝기 범위를 나타내는 정보에 해당할 수 있다. 본 발명의 일 실시예는 상술한 광역 밝기 범위를 최소/최대 밝기로 구분하여 최소 밝기 및 최대 밝기를 시그널링할 수 있다. 광역 밝기 범위 정보는 최소 밝기를 나타내는 min.luminance 및 최대 밝기를 나타내는 max.luminance 값에 의하여 시그널링될 수 있다. 본 발명의 다른 일 실시예는 광역 밝기 범위를 구분하는 profile을 지정할 수 있다. 예를 들어, Conventional capacity는 최소 0.1cd/m2, 최대 100cd/m2의 밝기 범위를 갖는 것으로 지정될 수 있고, Mid.capacity는 최소 0.001cd/m2, 최대 1000cd/m2의 밝기 범위를 갖는 것으로 지정될 수 있고, High capacity는 최소 0.0001cd/m2, 최대 10000cd/m2의 밝기 범위를 갖는 것으로 지정될 수 있다.
본 발명의 일 실시예에 따른 Color primary는 색감 조정 정보에 해당할 수 있고, color를 표현하는 색좌표를 구분할 수 있다. 예를 들어, Color primary는 표준 색공간인 BT.709, BT.2020, DCI-P3 등을 나타낼 수 있고 임의로 지정된 색공간을 나타낼 수 있다. 본 발명의 일 실시예는 임의로 색공간을 지정하는 경우, RGB와 화이트 포인트에 대한 x좌표, y좌표값을 추가로 시그널링할 수 있다. 이 때, x좌표, y좌표 및 z좌표의 합은 1이므로 z좌표값은 시그널링하지 않을 수 있다.
본 발명의 일 실시예에 따른 Chroma subsampling은 인코딩할 때 Luma 성분 대비 Chroma 성분의 정보량을 나타낼 수 있다. 예를 들어, Chroma subsampling는 4:2:0, 4:2:2, 4:4:4 등의 값을 가질 수 있다.
본 발명의 일 실시예에 따른, bit-depth, HDR, Color primary 및/또는 Chroma subsampling은 비디오 스트림의 특성을 나타내는 정보에 해당할 수 있고, EIT 내의 디스크립터에 포함될 수 있고, xml 및/또는 table의 형태로 전송될 수 있다.
도 26은 본 발명의 일 실시예에 따른 방송 수신 장치의 구체적인 구조를 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 수신 장치는 역다중화부 (TP/IP Demux; 26010), 채널 관리자 (Channel Manager; 26020), 시그널링 정보 처리부 (PSI/SI/PSIP processor; 26030), 비디오 버퍼 (Video Input Buffer and Control; 26040), 비디오 디코더 (HEVC Video Decoder; 26050), 비디오 처리부 (Video Processor; 26060), 오디오 버퍼 (Audio Input Buffer and Control; 26070), 오디오 디코더 (Audio Decoder; 26080), 오디오 처리부 (Audio Processor; 26090) 및/또는 출력 제어부 (Output control and synchronization; 26100)을 포함한다.
역다중화부는 채널 정보 파악에 필요한 PSI/PSIP/SI section 정보, 비디오 및 오디오 정보를 분류하고 분류된 패킷을 각각 시그널링 정보 처리부, 비디오 디코더 (또는 비디오 버퍼) 및 오디오 디코더 (또는 오디오 버퍼)로 전달할 수 있다. 여기서 상술한 PSI/PSIP/SI section 정보는 table 형태로 제공될 수도 있고, xml 형태로 제공될 수도 있다. 본 발명의 일 실시예에 따른 역다중부는 수신부를 포함할 수 있고, 상술한 수신부는 송신측에서 다중화된 방송 스트림을 수신할 수 있다. 역다중화부는 수신한 다중화된 방송 스트림에서 비디오 스트림 및/또는 시그널링 정보를 추출할 수 있다. 여기서, 상술한 시그널링 정보는 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 추출된 비디오 스트림의 특성을 나타내는 정보 및 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함할 수 있다.
채널 관리자는 섹션 데이터로부터 파싱된 정보를 이용하여 어떤 채널이 수신 가능한지 파악할 수 있고 채널 관련 목록을 만드는데 필요한 작업을 수행할 수 있다.
시그널링 정보 처리부는 역다중화부, 채널 관리자 및 UI 등의 동작에 필요한 정보를 추출할 수 있다. 본 발명의 일 실시예에 따른 시그널링 정보는 PMT (Program Map Table), EIT (Event Information Table) 및 SDT (Service Description Table) 중 적어도 어느 하나를 포함할 수 있고, 상술한 PMT는 HEVC 비디오 스트림임을 나타내는 정보를 포함하고, EIT는 비디오 스트림의 특성을 나타내는 정보를 포함하고, SDT는 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함할 수 있다. 나아가, 시그널링 정보는 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 포함할 수 있고 비디오 스트림의 향상된 색상 표현을 위한 색감 조정 정보를 포함할 수 있다. 나아가, 상술한 비디오 스트림의 특성을 나타내는 정보는 코덱 정보, 해상도 정보, 프레임 속도 정보 및/또는 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보를 포함할 수 있고 비디오 스트림이 방송을 위한 스트림인지 저장을 위한 스트림인지를 구분하는 티어 정보를 포함할 수 있다.
비디오 처리부는 비디오 디코더를 거쳐 복호화된 영상에 대하여 color space conversion, de-interlacing, frame rate conversion 등의 과정을 수행할 수 있다. 비디오 처리부는 디스플레이 환경을 조정하여 최적의 색감을 제공할 수 있도록 하거나 제작자의 의도에 맞는 목표 밝기 범위 내에서 컨텐츠를 최적으로 표현할 수 있도록 비디오를 변환할 수 있다.
비디오 버퍼는 비디오 스트림이 비디오 디코더에 전달되기 전에 비디오 스트림을 저장할 수 있다.
비디오 디코더는 상술한 역다중화부에서 추출된 시그널링 정보를 이용하여 추출된 비디오 스트림을 디코딩할 수 있다.
오디오 버퍼는 오디오 스트림이 오디오 디코더에 전달되기 전에 오디오 스트림을 저장할 수 있다.
오디오 디코더는 상술한 역다중화부에서 분리된 오디오 스트림을 디코딩할 수 있다.
오디오 처리부는 오디오 디코더를 거쳐 복호화된 데이터에 대하여 재생을 위한 부가과정을 수행할 수 있다.
출력 제어부는 비디오 데이터와 오디오 데이터의 동기화를 맞추기 위한 작업을 수행할 수 있다.
도 27은 본 발명의 일 실시예에 따른 방송 신호 송신 방법의 과정을 나타낸 도면이다.
이 도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 방송 신호 송신 방법은 다음과 같은 과정을 거칠 수 있다. 먼저, 본 발명의 일 실시예에 따른 송신측은 비디오 데이터를 인코딩하여 비디오 스트림을 생성할 수 있다. (S27010) 여기서, AVC 또는 HEVC 코덱이 사용될 수 있다. 다음으로, 송신측은 시그널링 정보를 생성할 수 있다. (S27020) 여기서, 시그널링 정보는 생성된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 상기 생성된 비디오 스트림의 특성을 나타내는 정보 및 상기 생성된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함할 수 있다. 여기서, 시그널링 정보에 포함된 정보에 관한 상세한 설명은 도 1, 2, 3, 4, 9, 11에 대한 설명 부분에서 전술하였다. 다음으로, 송신측은 생성된 비디오 스트림 및 시그널링 정보를 다중화할 수 있다. (S27030) 본 발명의 일 실시예에 따르면 비디오 스트림, 오디오 스트림, 시그널링 정보 등은 하나의 방송 스트림으로 다중화될 수 있다. 여기서, 상술한 하나의 방송 스트림은 MPEG-2 TS에 해당할 수 있다. 다음으로, 송신측은 다중화된 방송 스트림을 전송할 수 있다. (S27040) 여기서, 송신측은 다중화된 방송 스트림을 지상파 방송망, 케이블망 및/또는 인터넷망을 통하여 전송할 수 있다.
본 발명의 다른 일 실시예에 따르면, 시그널링 정보는 PMT (Program Map Table), EIT (Event Information Table) 및 SDT (Service Description Table) 중 적어도 어느 하나를 포함할 수 있다. 상술한 PMT는 상기 HEVC 비디오 스트림임을 나타내는 정보를 포함할 수 있고, 상술한 EIT는 상기 비디오 스트림의 특성을 나타내는 정보를 포함할 수 있고, 상술한 SDT는 상기 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함할 수 있다. 여기서, 상술한 PMT, EIT, SDT에 대한 설명은 도 1, 2, 9에 대한 설명 부분에서 전술하였다.
본 발명의 다른 일 실시예에 따르면, 시그널링 정보는 비디오 스트림의 광역 밝기 범위를 나타내는 정보를 포함할 수 있다. 이에 대한 상세한 설명은 도 5, 6에 대한 설명 부분에서 전술하였다.
본 발명의 다른 일 실시예에 따르면, 시그널링 정보는 비디오 스트림의 향상된 색상 표현을 위한 색감 조정 정보를 포함할 수 있다. 이에 대한 상세한 설명은 도 7, 8에 대한 설명 부분에서 전술하였다.
본 발명의 다른 일 실시예에 따르면, 비디오 스트림의 특성을 나타내는 정보는 코덱 정보, 해상도 정보, 프레임 속도 정보 및 블랙부터 화이트까지의 색상을 나타내는데 사용되는 비트수 정보를 포함할 수 있다. 이에 대한 상세한 설명은 도 12, 13, 14, 15, 16, 25에 대한 설명 부분에서 전술하였다.
본 발명의 다른 일 실시예에 따르면, 비디오 스트림의 특성을 나타내는 정보는 상기 생성된 비디오 스트림이 방송을 위한 스트림인지 저장을 위한 스트림인지를 구분하는 티어 정보를 포함할 수 있다. 이에 대한 상세한 설명은 도 17에 대한 설명 부분에서 전술하였다.
본 발명의 다른 일 실시예에 따르면, 시그널링 정보는 테이블 섹션 형태 또는 XML 형태를 가질 수 있고, 시그널링 정보는 방송망 및/또는 인터넷망을 통하여 전송될 수 있다.
도 28은 본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구조를 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 수신 장치 (28010)는 수신부 (28020), 역다중화부 (28030) 및/또는 비디오 디코더 (28040)을 포함할 수 있다.
수신부는 송신측에서 다중화된 방송 스트림을 수신할 수 있다.
역다중화부는 수신한 다중화된 방송 스트림에서 비디오 스트림 및/또는 시그널링 정보를 추출할 수 있다. 여기서, 시그널링 정보는 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 추출된 비디오 스트림의 특성을 나타내는 정보 및 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보 중 어느 하나를 포함할 수 있다.
비디오 디코더는 추출된 시그널링 정보를 이용하여 추출된 비디오 스트림을 디코딩할 수 있다.
본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구조에 대한 상세한 설명은 도 26의 설명 부분에서 전술하였다.
도 29는 본 발명의 일 실시예에 따른 방송 신호 송신 장치의 구조를 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 송신 장치 (29010)는 비디오 인코더 (29020), 시그널링 정보 생성부 (29030), 다중화부 (29040) 및/또는 전송부 (29050)를 포함할 수 있다.
비디오 인코더는 비디오 데이터를 인코딩하여 비디오 스트림을 생성할 수 있다.
시그널링 정보 생성부는 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 비디오 스트림의 특성을 나타내는 정보 및/또는 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함하는 시그널링 정보를 생성할 수 있다.
다중화부는 비디오 스트림 및 시그널링 정보를 다중화할 수 있다.
전송부는 다중화된 방송 스트림을 전송할 수 있다.
본 발명의 일 실시예에 따른 방송 신호 송신 장치의 구성 중 도 27에서 설명한 본 발명의 일 실시예에 따른 방송 신호 송신 방법의 과정과 대응되는 구성은 상술한 방송 신호 송신 방법의 대응되는 과정과 동일한 역할을 수행할 수 있다.
도 30는 본 발명의 일 실시예에 따른 방송 신호 수신 방법을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 수신 방법은 다중화된 방송 스트림을 수신하는 단계 (S30010), 다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 단계 (S30020) 및/또는 추출된 시그널링 정보를 이용하여 추출된 비디오 스트림을 디코딩하는 단계 (S30030)를 포함할 수 있다.
다중화된 방송 스트림을 수신하는 단계 (S30010)에서 수신 장치는 다중화된 방송 스트림을 수신할 수 있다.
다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 단계 (S30020)에서 수신 장치는 수신한 다중화된 방송 스트림에서 비디오 스트림 및/또는 시그널링 정보를 추출할 수 있다. 여기서, 시그널링 정보는 추출된 비디오 스트림이 HEVC 비디오 스트림임을 나타내는 정보, 추출된 비디오 스트림의 특성을 나타내는 정보 및/또는 추출된 비디오 스트림을 기초로 한 방송 서비스가 HEVC 기반의 방송 서비스임을 나타내는 정보를 포함할 수 있다.
추출된 시그널링 정보를 이용하여 추출된 비디오 스트림을 디코딩하는 단계 (S30030)에서 수신 장치는 추출된 시그널링 정보를 이용하여 추출된 비디오 스트림을 디코딩할 수 있다.
본 발명의 일 실시예에 따른 방송 신호 수신 방법의 과정 중 도 26 및/또는 도 28에서 설명한 본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구성과 대응되는 과정은 상술한 방송 신호 수신 장치의 대응되는 구성과 동일한 역할을 수행할 수 있다.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 발명에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 영상 처리 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD--M, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
그리고, 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수가 있다.
발명의 실시를 위한 형태
발명의 실시를 위한 형태는 전술한 바와 같이, 발명의 실시를 위한 최선의 형태로 상술되었다.
본 발명은 방송 산업 전반에서 이용 가능하다.

Claims (16)

  1. 비디오 데이터를 인코딩하여 비디오 스트림을 생성하는 단계;
    상기 비디오 스트림이 HEVC (High Efficiency Video Coding) 비디오 스트림임을 식별하는 스트림 타입 정보를 포함하는 PMT (Program Map Table)를 생성하는 단계;
    상기 비디오 데이터를 제공하는 방송 서비스가 HEVC 기반의 서비스임을 식별하는 서비스 타입 정보를 포함하는 SDT (Service Description Table) 및 상기 방송 서비스 내에서 제공되는 방송 이벤트에 대한 정보를 기술하는 EIT (Event Information Table)를 생성하는 단계로서,
    상기 EIT는 상기 방송 이벤트에 포함된 비디오 스트림을 식별하는 스트림 콘텐트 정보 및 상기 비디오 스트림에서 제공되는 비디오 컴포넌트의 특성을 식별하는 컴포넌트 타입 정보를 포함하고,
    상기 스트림 콘텐트 정보 및 상기 컴포넌트 타입 정보의 조합은 상기 비디오 스트림이 HEVC 비디오 스트림이고 상기 HEVC 비디오 스트림에서 제공되는 비디오 컴포넌트는 UHD (Ultra High Definition) 화질을 가짐을 식별하고;
    상기 비디오 스트림에서 제공되는 비디오 컴포넌트의 비디오 프로파일 정보를 생성하는 단계로서,
    상기 비디오 프로파일 정보는 상기 비디오 컴포넌트를 전송하는 시스템 포맷이 MP4이고, 상기 비디오 스트림이 HEVC 비디오 스트림이고, 상기 비디오 컴포넌트는 UHD 화질 및 25 초당 프레임 수를 갖고, 상기 비디오 스트림에 대응되는 오디오 스트림은 HEAAC 오디오 스트림임을 식별하고;
    상기 생성된 비디오 스트림 및 시그널링 정보를 다중화하는 단계로서,
    상기 시그널링 정보는 상기 PMT, 상기 SDT, 상기 EIT 및 상기 비디오 프로파일 정보를 포함하고;
    상기 다중화된 방송 스트림을 전송하는 단계;
    를 포함하는 방송 신호 송신 방법.
  2. 제 1 항에 있어서,
    상기 EIT는 상기 비디오 스트림에서 제공되는 비디오 컴포넌트의 최대 및 최소 밝기 정보, 상기 비디오 스트림에서 제공되는 비디오 컴포넌트가 표현되는 전체 밝기 범위 중 필수적으로 표현되어야 하는 밝기 범위의 상한 및 하한 값 정보 및 상기 필수적으로 표현되어야 하는 밝기 범위가 확장되는 경우 확장된 영역에 대한 정보를 포함하는 방송 신호 송신 방법.
  3. 제 1 항에 있어서,
    상기 EIT는 상기 비디오 스트림에서 제공되는 비디오 컴포넌트에 표준의 컬러 개멋 (color gamut)이 사용되는지 임의의 컬러 개멋이 사용되는지를 나타내는 플래그 정보, 임의의 컬러 개멋에 의한 색좌표계 내에서 레드 (red), 그린 (green) 및 블루 (blue) 색상의 좌표값 정보 및 상기 비디오 스트림에서 제공되는 비디오 컴포넌트를 재생하기 위해 권장되는 디스플레이의 최대 및 최소 밝기 정보를 포함하는 방송 신호 송신 방법.
  4. 제 1 항에 있어서,
    상기 방송 신호 송신 방법은 상기 비디오 스트림의 포맷을 나타내는 비디오 포맷 정보를 생성하는 단계를 더 포함하고,
    상기 비디오 포맷 정보는 상기 비디오 스트림에 사용된 코덱 정보, 상기 비디오 프로파일 정보, 상기 비디오 스트림의 레벨 정보 및 상기 비디오 스트림의 티어 정보를 포함하고,
    상기 레벨 정보 및 티어 정보의 조합은 상기 비디오 스트림의 비트 레이트 (bit rate)를 식별하는 방송 신호 송신 방법.
  5. 제 1 항에 있어서,
    상기 시그널링 정보는 테이블 섹션 (table section) 형태 또는 XML 형태를 갖는 방송 신호 송신 방법.
  6. 다중화된 방송 스트림을 수신하는 수신부;
    상기 수신한 다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 역다중화부로서,
    상기 시그널링 정보는 상기 비디오 스트림이 HEVC (High Efficiency Video Coding) 비디오 스트림임을 식별하는 스트림 타입 정보를 포함하는 PMT (Program Map Table), 상기 비디오 스트림을 제공하는 방송 서비스가 HEVC 기반의 서비스임을 식별하는 서비스 타입 정보를 포함하는 SDT (Service Description Table), 상기 방송 서비스 내에서 제공되는 방송 이벤트에 대한 정보를 기술하는 EIT (Event Information Table) 및 상기 비디오 스트림에서 제공되는 비디오 컴포넌트의 비디오 프로파일 정보를 포함하고,
    상기 EIT는 상기 방송 이벤트에 포함된 비디오 스트림을 식별하는 스트림 콘텐트 정보 및 상기 비디오 스트림에서 제공되는 비디오 컴포넌트의 특성을 식별하는 컴포넌트 타입 정보를 포함하고,
    상기 스트림 콘텐트 정보 및 상기 컴포넌트 타입 정보의 조합은 상기 비디오 스트림이 HEVC 비디오 스트림이고 상기 HEVC 비디오 스트림에서 제공되는 비디오 컴포넌트는 UHD (Ultra High Definition) 화질을 가짐을 식별하고,
    상기 비디오 프로파일 정보는 상기 비디오 컴포넌트를 전송하는 시스템 포맷이 MP4이고, 상기 비디오 스트림이 HEVC 비디오 스트림이고, 상기 비디오 컴포넌트는 UHD 화질 및 25 초당 프레임 수를 갖고, 상기 비디오 스트림에 대응되는 오디오 스트림은 HEAAC 오디오 스트림임을 식별하고;
    상기 추출된 시그널링 정보를 이용하여 상기 추출된 비디오 스트림을 디코딩하는 비디오 디코더;
    를 포함하는 방송 신호 수신 장치.
  7. 제 6 항에 있어서,
    상기 EIT는 상기 비디오 스트림에서 제공되는 비디오 컴포넌트의 최대 및 최소 밝기 정보, 상기 비디오 스트림에서 제공되는 비디오 컴포넌트가 표현되는 전체 밝기 범위 중 필수적으로 표현되어야 하는 밝기 범위의 상한 및 하한 값 정보 및 상기 필수적으로 표현되어야 하는 밝기 범위가 확장되는 경우 확장된 영역에 대한 정보를 포함하는 방송 신호 수신 장치.
  8. 제 6 항에 있어서,
    상기 EIT는 상기 비디오 스트림에서 제공되는 비디오 컴포넌트에 표준의 컬러 개멋 (color gamut)이 사용되는지 임의의 컬러 개멋이 사용되는지를 나타내는 플래그 정보, 임의의 컬러 개멋에 의한 색좌표계 내에서 레드 (red), 그린 (green) 및 블루 (blue) 색상의 좌표값 정보 및 상기 비디오 스트림에서 제공되는 비디오 컴포넌트를 재생하기 위해 권장되는 디스플레이의 최대 및 최소 밝기 정보를 포함하는 방송 신호 수신 장치.
  9. 제 6 항에 있어서,
    상기 시그널링 정보는 상기 비디오 스트림의 포맷을 나타내는 비디오 포맷 정보를 더 포함하고,
    상기 비디오 포맷 정보는 상기 비디오 스트림에 사용된 코덱 정보, 상기 비디오 프로파일 정보, 상기 비디오 스트림의 레벨 정보 및 상기 비디오 스트림의 티어 정보를 포함하고,
    상기 레벨 정보 및 티어 정보의 조합은 상기 비디오 스트림의 비트 레이트 (bit rate)를 식별하는 방송 신호 수신 장치.
  10. 제 6 항에 있어서,
    상기 시그널링 정보는 테이블 섹션 (table section) 형태 또는 XML 형태를 갖는 방송 신호 수신 장치.
  11. 비디오 데이터를 인코딩하여 비디오 스트림을 생성하는 비디오 인코더;
    상기 비디오 스트림이 HEVC (High Efficiency Video Coding) 비디오 스트림임을 식별하는 스트림 타입 정보를 포함하는 PMT (Program Map Table)를 생성하는 제 1 생성부;
    상기 비디오 데이터를 제공하는 방송 서비스가 HEVC 기반의 서비스임을 식별하는 서비스 타입 정보를 포함하는 SDT (Service Description Table) 및 상기 방송 서비스 내에서 제공되는 방송 이벤트에 대한 정보를 기술하는 EIT (Event Information Table)를 생성하는 제 2 생성부,
    상기 EIT는 상기 방송 이벤트에 포함된 비디오 스트림을 식별하는 스트림 콘텐트 정보 및 상기 비디오 스트림에서 제공되는 비디오 컴포넌트의 특성을 식별하는 컴포넌트 타입 정보를 포함하고,
    상기 스트림 콘텐트 정보 및 상기 컴포넌트 타입 정보의 조합은 상기 비디오 스트림이 HEVC 비디오 스트림이고 상기 HEVC 비디오 스트림에서 제공되는 비디오 컴포넌트는 UHD (Ultra High Definition) 화질을 가짐을 식별하고;
    상기 비디오 스트림에서 제공되는 비디오 컴포넌트의 비디오 프로파일 정보를 생성하는 제 3 생성부로서,
    상기 비디오 프로파일 정보는 상기 비디오 컴포넌트를 전송하는 시스템 포맷이 MP4이고, 상기 비디오 스트림이 HEVC 비디오 스트림이고, 상기 비디오 컴포넌트는 UHD 화질 및 25 초당 프레임 수를 갖고, 상기 비디오 스트림에 대응되는 오디오 스트림은 HEAAC 오디오 스트림임을 식별하고;상기 생성된 비디오 스트림 및 시그널링 정보를 다중화하는 다중화부로서,
    상기 시그널링 정보는 상기 PMT, 상기 SDT, 상기 EIT 및 상기 비디오 프로파일 정보를 포함하고;
    상기 다중화된 방송 스트림을 전송하는 전송부;
    를 포함하는 방송 신호 송신 장치.
  12. 다중화된 방송 스트림을 수신하는 단계;
    상기 수신한 다중화된 방송 스트림에서 비디오 스트림 및 시그널링 정보를 추출하는 단계로서,
    상기 시그널링 정보는 상기 비디오 스트림이 HEVC (High Efficiency Video Coding) 비디오 스트림임을 식별하는 스트림 타입 정보를 포함하는 PMT (Program Map Table), 상기 비디오 스트림을 제공하는 방송 서비스가 HEVC 기반의 서비스임을 식별하는 서비스 타입 정보를 포함하는 SDT (Service Description Table), 상기 방송 서비스 내에서 제공되는 방송 이벤트에 대한 정보를 기술하는 EIT (Event Information Table) 및 상기 비디오 스트림에서 제공되는 비디오 컴포넌트의 비디오 프로파일 정보를 포함하고,
    상기 EIT는 상기 방송 이벤트에 포함된 비디오 스트림을 식별하는 스트림 콘텐트 정보 및 상기 비디오 스트림에서 제공되는 비디오 컴포넌트의 특성을 식별하는 컴포넌트 타입 정보를 포함하고,
    상기 스트림 콘텐트 정보 및 상기 컴포넌트 타입 정보의 조합은 상기 비디오 스트림이 HEVC 비디오 스트림이고 상기 HEVC 비디오 스트림에서 제공되는 비디오 컴포넌트는 UHD (Ultra High Definition) 화질을 가짐을 식별하고,
    상기 비디오 프로파일 정보는 상기 비디오 컴포넌트를 전송하는 시스템 포맷이 MP4이고, 상기 비디오 스트림이 HEVC 비디오 스트림이고, 상기 비디오 컴포넌트는 UHD 화질 및 25 초당 프레임 수를 갖고, 상기 비디오 스트림에 대응되는 오디오 스트림은 HEAAC 오디오 스트림임을 식별하고;
    상기 추출된 시그널링 정보를 이용하여 상기 추출된 비디오 스트림을 디코딩하는 단계;
    를 포함하는 방송 신호 수신 방법.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
KR1020167006601A 2013-10-29 2014-10-29 Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치 KR101797504B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361897205P 2013-10-29 2013-10-29
US61/897,205 2013-10-29
US201361898452P 2013-10-31 2013-10-31
US61/898,452 2013-10-31
PCT/KR2014/010237 WO2015065037A1 (ko) 2013-10-29 2014-10-29 Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20160048821A KR20160048821A (ko) 2016-05-04
KR101797504B1 true KR101797504B1 (ko) 2017-11-15

Family

ID=53004552

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167006601A KR101797504B1 (ko) 2013-10-29 2014-10-29 Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치

Country Status (4)

Country Link
US (1) US9854333B2 (ko)
JP (1) JP6280212B2 (ko)
KR (1) KR101797504B1 (ko)
WO (1) WO2015065037A1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6614156B2 (ja) 2014-11-07 2019-12-04 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP6633739B2 (ja) * 2015-08-20 2020-01-22 エルジー エレクトロニクス インコーポレイティド 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法
DE112016004284T5 (de) 2015-09-23 2018-05-30 Arris Enterprises Llc Signalisierung von High Dynamic Range- und Wide Color Gamut-Inhalt in Transportströmen
JP6616212B2 (ja) * 2015-09-28 2019-12-04 マクセル株式会社 表示制御方法
JP6441247B2 (ja) * 2015-10-01 2018-12-19 マクセル株式会社 表示制御方法
JP6645871B2 (ja) * 2015-09-30 2020-02-14 マクセル株式会社 放送システム
JP6645869B2 (ja) * 2015-09-29 2020-02-14 マクセル株式会社 放送システム
US20190075325A1 (en) * 2016-03-30 2019-03-07 Lg Electronics Inc. Method and apparatus for transmitting and receiving broadcast signals
JP2018006877A (ja) * 2016-06-28 2018-01-11 シャープ株式会社 映像伝送装置、表示装置、映像表示システム、映像配信装置、映像配信システム、映像送受信システム、プログラム、記録媒体、および映像伝送方法
US11049219B2 (en) 2017-06-06 2021-06-29 Gopro, Inc. Methods and apparatus for multi-encoder processing of high resolution content
US11109067B2 (en) * 2019-06-26 2021-08-31 Gopro, Inc. Methods and apparatus for maximizing codec bandwidth in video applications
US11228781B2 (en) 2019-06-26 2022-01-18 Gopro, Inc. Methods and apparatus for maximizing codec bandwidth in video applications
US11481863B2 (en) 2019-10-23 2022-10-25 Gopro, Inc. Methods and apparatus for hardware accelerated image processing for spherical projections

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012105265A1 (en) * 2011-02-03 2012-08-09 Panasonic Corporation Systems and methods for encoding and decoding video which support compatibility functionality to legacy video players
US20130113880A1 (en) 2011-11-08 2013-05-09 Jie Zhao High Efficiency Video Coding (HEVC) Adaptive Loop Filter
WO2013137697A1 (ko) * 2012-03-16 2013-09-19 엘지전자 주식회사 영상 정보 저장 방법 및 영상 정보 파싱 방법 그리고 이를 이용하는 장치
US20130272371A1 (en) 2012-04-16 2013-10-17 Sony Corporation Extension of hevc nal unit syntax structure

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018562A (ja) 2001-06-29 2003-01-17 Hitachi Ltd コンテンツ提供方法、コンテンツ受信端末およびセキュリティモジュール
JP2004282415A (ja) 2003-03-17 2004-10-07 Toshiba Corp 電子機器及び番組情報取得方法
JP2009088737A (ja) 2007-09-28 2009-04-23 Hitachi Ltd 放送受信装置
US20120151327A1 (en) * 2009-06-08 2012-06-14 Samsung Electronics Co., Ltd. Method and apparatus for providing a remote user interface
KR101612553B1 (ko) * 2009-10-09 2016-04-27 삼성전자주식회사 리모트 사용자 인터페이스 서버와 리모트 사용자 인터페이스 클라이언트간의 인터페이스를 위한 장치 및 방법
JP5559614B2 (ja) 2010-04-21 2014-07-23 日立マクセル株式会社 受信装置および受信方法
US8896664B2 (en) 2010-09-19 2014-11-25 Lg Electronics Inc. Method and apparatus for processing a broadcast signal for 3D broadcast service
EP2637412B1 (en) 2010-11-02 2017-08-23 LG Electronics Inc. Apparatus and method for receiving a digital broadcast signal
KR20140040165A (ko) 2011-07-26 2014-04-02 엘지전자 주식회사 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법
US9357197B2 (en) * 2012-05-24 2016-05-31 Dolby Laboratories Licensing Corporation Multi-layer backwards-compatible video delivery for enhanced dynamic range and enhanced resolution formats
WO2014038522A1 (ja) * 2012-09-07 2014-03-13 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012105265A1 (en) * 2011-02-03 2012-08-09 Panasonic Corporation Systems and methods for encoding and decoding video which support compatibility functionality to legacy video players
US20130113880A1 (en) 2011-11-08 2013-05-09 Jie Zhao High Efficiency Video Coding (HEVC) Adaptive Loop Filter
WO2013137697A1 (ko) * 2012-03-16 2013-09-19 엘지전자 주식회사 영상 정보 저장 방법 및 영상 정보 파싱 방법 그리고 이를 이용하는 장치
US20130272371A1 (en) 2012-04-16 2013-10-17 Sony Corporation Extension of hevc nal unit syntax structure

Also Published As

Publication number Publication date
KR20160048821A (ko) 2016-05-04
US20160360295A1 (en) 2016-12-08
US9854333B2 (en) 2017-12-26
JP2016537847A (ja) 2016-12-01
WO2015065037A1 (ko) 2015-05-07
JP6280212B2 (ja) 2018-02-14

Similar Documents

Publication Publication Date Title
KR101797504B1 (ko) Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
US11445228B2 (en) Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal and method for receiving broadcast signal
US20240048794A1 (en) Digital contents receiver, digital contents receiving method and digital contents transmitting and receiving method
US10594978B2 (en) Method and device for transmitting and receiving broadcast signal
US11659152B2 (en) Reception device, display control method, transmission device, and transmission method for program content type
US8982186B2 (en) Method for providing and recognizing transmission mode in digital broadcasting
JP2012039340A (ja) 受信装置および受信方法
US10368144B2 (en) Method and device for transmitting and receiving broadcast signal
US20190075325A1 (en) Method and apparatus for transmitting and receiving broadcast signals
US20130215240A1 (en) Receiver apparatus and output method
JP5952451B2 (ja) 受信装置および受信方法
US20130113883A1 (en) Receiving device and output method
US20120113220A1 (en) Video output device, video output method, reception device and reception method
US20130250059A1 (en) Method and apparatus for transmitting stereoscopic video information
JP5684415B2 (ja) デジタル放送信号受信装置およびデジタル放送信号受信方法
JP5965505B2 (ja) 受信装置、受信方法、および送受信方法

Legal Events

Date Code Title Description
A201 Request for examination
E90F Notification of reason for final refusal
GRNT Written decision to grant