KR20160123216A - 3d 방송 신호를 처리하는 방법 및 장치 - Google Patents

3d 방송 신호를 처리하는 방법 및 장치 Download PDF

Info

Publication number
KR20160123216A
KR20160123216A KR1020157019862A KR20157019862A KR20160123216A KR 20160123216 A KR20160123216 A KR 20160123216A KR 1020157019862 A KR1020157019862 A KR 1020157019862A KR 20157019862 A KR20157019862 A KR 20157019862A KR 20160123216 A KR20160123216 A KR 20160123216A
Authority
KR
South Korea
Prior art keywords
service
information
video
field
image
Prior art date
Application number
KR1020157019862A
Other languages
English (en)
Inventor
황수진
서종열
오현묵
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20160123216A publication Critical patent/KR20160123216A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • H04N13/0059
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/0048
    • H04N13/0066
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명의 일 실시예에 따른, 3D 방송 수신기는 프로그램 맵 테이블 (PMT) 및 3D 방송 콘텐츠를 위한 3-dimensional (3D) 비디오 데이터를 포함하는 방송 신호를 수신하는 튜너, FPA SEI 메시지를 파싱하고, 상기 FPA SEI 메시지에 포함된, 3D 비디오의 포맷을 식별하는 3D 비디오 포맷 정보를 파싱하고, 상기 3D 비디오 데이터에 포함된 Default Display Window (DDW) 정보, Active Format Description (AFD) 정보 및 Bar 데이터를 파싱하고, 상기 3D 비디오 데이터를 디코딩하는 디코더, 상기 3D 비디오 포맷 정보 및 상기 DDW 정보에 따라, 상기 디코딩된 3D 비디오 데이터의 비디오 프레임 내에서 2D 디스플레이를 위한 2D 영상을 추출하는 2D 추출부, 상기 추출된 2D 영상을, 상기 AFD 정보 및 Bar 데이터 정보를 이용하여, 수신기의 화면 비율에 맞게 렌더링하는 비율 변환부, 및 상기 렌더링된 2D 영상을 디스플레이 하는 디스플레이 처리부를 포함한다.

Description

3D 방송 신호를 처리하는 방법 및 장치{APPRATUS AND METHOD FOR PROCESSING A 3-DIMENSIONAL BROADCAST SIGNAL}
본 발명은 방송 신호를 처리하는 방법 및 장치에 관한 것이다. 보다 상세하게는, 본 발명은 3D 방송 시스템에서, 2D와 3D 서비스 사이의 호환성을 유지하면서 방송 서비스를 제공하는 방법 및 장치에 관한 것이다.
방송 장비 및 방송 시스템의 발전에 따라, 방송을 통한 3D 콘텐츠의 제공이 가능하게 되었고, 또한 소스 (source) 에서 다양한 화면 비율로 제작된 콘텐츠의 제공이 가능하게 되었다. 따라서, 방송 수신기에서 3D 방송 콘텐츠를 적절히 재생할 수 있도록 하는 3D 방송 콘텐츠의 전송 방식 및 이와 관련한 시그널링 방법도 함께 개발되고 있다.
그러나, 현재 3D 방송 시스템에서는, 3D 방송 콘텐츠의 재생이 가능하지 않은 기존의 방송 수신기에서, 2D로 해당 방송 콘텐츠를 재생할 수 없다는 문제점이 있다.
또한, 현재 3D 방송 시스템에서는, 3D 방송과 2D 방송 사이의 호환성을 유지하면서, 제공되는 콘텐츠의 화면 비율과 수신기의 화면 비율을 고려하여 방송 콘텐츠를 렌더링할 수 없다는 문제점이 있었다.
본 발명이 이루고자 하는 기술적 과제는, 전술한 문제점을 해결하기 위한 것으로, 3D 방송 시스템 내에서, 3D 재생이 불가능하거나, 3D 재생이 아닌 2D로 방송 콘텐츠를 소비하고자 하는 수신기에서, 효과적인 2D 방송 콘텐츠를 재생할 수 있도록 하는 것이다.
또한, 본 발명이 이루고자 하는 기술적 과제는, 3D 방송과 2D 방송 사이의 호환성을 유지하면서, 제공되는 콘텐츠의 화면 비율과 수신기의 화면 비율을 고려하여 방송 콘텐츠를 렌더링할 수 있는 시그널링 방식을 제시하는 것에 있다.
전술한 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 3D 방송 수신기는, 프로그램 맵 테이블 (PMT) 및 3D 방송 콘텐츠를 위한 3-dimensional (3D) 비디오 데이터를 포함하는 방송 신호를 수신하는 튜너, 여기서, 상기 PMT는 frame packing arrangement (FPA) SEI 메시지가 상기 3D 비디오 데이터에 포함되어 있는지를 나타내는 non_packed_constraint_flag 정보를 포함하고, 상기 non_packed_constraint_flag 정보가 FPA SEI 메시지가 상기 3D 비디오 데이터에 포함되어 있음을 나타내는 경우, 상기 FPA SEI 메시지를 파싱하고, 상기 FPA SEI 메시지에 포함된, 3D 비디오의 포맷을 식별하는 3D 비디오 포맷 정보를 파싱하고, 상기 3D 비디오 데이터에 포함된 Default Display Window (DDW) 정보, Active Format Description (AFD) 정보 및 Bar 데이터를 파싱하고, 상기 3D 비디오 데이터를 디코딩하는 디코더, 상기 3D 비디오 포맷 정보 및 상기 DDW 정보에 따라, 상기 디코딩된 3D 비디오 데이터의 비디오 프레임 내에서 2D 디스플레이를 위한 2D 영상을 추출하는 2D 추출부, 상기 추출된 2D 영상을, 상기 AFD 정보 및 Bar 데이터 정보를 이용하여, 수신기의 화면 비율에 맞게 렌더링하는 비율 변환부, 및 상기 렌더링된 2D 영상을 디스플레이 하는 디스플레이 처리부를 포함한다.
바람직하게는, 상기 DDW 정보는, 상기 3D 비디오 데이터에 포함되는 Video Usability Information (VUI) 데이터에 포함되는 것을 특징으로 한다.
바람직하게는, 상기 DDW 정보는, DDW가 존재하는지 여부를 식별하는 default_display_window_flag 정보, DDW 의 좌측 모서리의 위치를 식별하는 def_disp_win_left_offset 정보, DDW 의 우측 모서리의 위치를 식별하는 def_disp_win_right_offset 정보, DDW 의 상단 모서리의 위치를 식별하는 def_disp_win_top_offset 정보, 및 DDW 의 하단 모서리의 위치를 식별하는 def_disp_win_bottom_offset 정보를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 AFD 정보는, 관심이 있는 영역의 화면 비율을 식별하는 정보를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 방송 신호는, 상기 3D 비디오 데이터의, 전송 시에 의도된 화면 비율을 나타내는 source aspect ratio 정보를 포함하는 것을 특징으로 한다.
전술한 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 3D 방송 수신기에서 방송 신호 처리 방법은 프로그램 맵 테이블 (PMT) 및 3D 방송 콘텐츠를 위한 3-dimensional (3D) 비디오 데이터를 포함하는 방송 신호를 수신하는 단계, 여기서, 상기 PMT는 frame packing arrangement (FPA) SEI 메시지가 상기 3D 비디오 데이터에 포함되어 있는지를 나타내는 non_packed_constraint_flag 정보를 포함하고, 상기 non_packed_constraint_flag 정보가 FPA SEI 메시지가 상기 3D 비디오 데이터에 포함되어 있음을 나타내는 경우, 상기 FPA SEI 메시지를 파싱하고, 상기 FPA SEI 메시지에 포함된, 3D 비디오의 포맷을 식별하는 3D 비디오 포맷 정보를 파싱하고, 상기 3D 비디오 데이터에 포함된 Default Display Window (DDW) 정보, Active Format Description (AFD) 정보 및 Bar 데이터를 파싱하고, 상기 3D 비디오 데이터를 디코딩하는 단계, 상기 3D 비디오 포맷 정보 및 상기 DDW 정보에 따라, 상기 디코딩된 3D 비디오 데이터의 비디오 프레임 내에서 2D 디스플레이를 위한 2D 영상을 추출하는 단계, 상기 추출된 2D 영상을, 상기 AFD 정보 및 Bar 데이터 정보를 이용하여, 수신기의 화면 비율에 맞게 렌더링하는 단계 및 상기 렌더링된 2D 영상을 디스플레이 하는 단계를 포함한다.
바람직하게는, 상기 DDW 정보는, 상기 3D 비디오 데이터에 포함되는 Video Usability Information (VUI) 데이터에 포함되는 것을 특징으로 한다.
바람직하게는, 상기 DDW 정보는, DDW가 존재하는지 여부를 식별하는 default_display_window_flag 정보, DDW 의 좌측 모서리의 위치를 식별하는 def_disp_win_left_offset 정보, DDW 의 우측 모서리의 위치를 식별하는 def_disp_win_right_offset 정보, DDW 의 상단 모서리의 위치를 식별하는 def_disp_win_top_offset 정보, 및 DDW 의 하단 모서리의 위치를 식별하는 def_disp_win_bottom_offset 정보를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 AFD 정보는, 관심이 있는 영역의 화면 비율을 식별하는 정보를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 방송 신호는, 상기 3D 비디오 데이터의, 전송 시에 의도된 화면 비율을 나타내는 source aspect ratio 정보를 포함하는 것을 특징으로 한다.
전술한 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른, 3D 방송 송신기는 프로그램 맵 테이블 (PMT)을 인코딩하는 제 1 시그널링 인코더, 여기서, 상기 PMT는 frame packing arrangement (FPA) SEI 메시지가 상기 3D 비디오 데이터에 포함되어 있는지를 나타내는 non_packed_constraint_flag 정보를 포함하고, 상기 FPA SEI 메시지는 3D 비디오의 포맷을 식별하는 3D 비디오 포맷 정보를 포함하고, Default Display Window (DDW) 정보, Active Format Description (AFD) 정보 및 Bar 데이터를 인코딩하는 제 2 시그널링 인코더, 3D 방송 콘텐츠를 위한 3-dimensional (3D) 비디오 데이터, Default Display Window (DDW) 정보, Active Format Description (AFD) 정보 및 Bar 데이터를 포함하는 비디오 시퀀스를 인코딩하는 비디오 인코더 및 상기 PMT 및 상기 비디오 시퀀스를 포함하는 방송 신호를 생성하는 방송 신호 생성기를 포함한다.
바람직하게는, 상기 DDW 정보는, 상기 3D 비디오 데이터에 포함되는 Video Usability Information (VUI) 데이터에 포함되는 것을 특징으로 한다.
바람직하게는, 상기 DDW 정보는, DDW가 존재하는지 여부를 식별하는 default_display_window_flag 정보, DDW 의 좌측 모서리의 위치를 식별하는 def_disp_win_left_offset 정보, DDW 의 우측 모서리의 위치를 식별하는 def_disp_win_right_offset 정보, DDW 의 상단 모서리의 위치를 식별하는 def_disp_win_top_offset 정보, 및 DDW 의 하단 모서리의 위치를 식별하는 def_disp_win_bottom_offset 정보를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 AFD 정보는, 관심이 있는 영역의 화면 비율을 식별하는 정보를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 방송 신호는, 상기 3D 비디오 데이터의, 전송 시에 의도된 화면 비율을 나타내는 source aspect ratio 정보를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 3D 방송 시스템 내에서, 3D 재생이 불가능하거나, 3D 재생이 아닌 2D로 방송 콘텐츠를 소비하고자 하는 수신기에서, 효과적인 2D 방송 콘텐츠를 재생할 수 있는 효과가 있다.
또한, 본 발명에 따르면, 3D 방송과 2D 방송 사이의 호환성을 유지하면서, 제공되는 콘텐츠의 화면 비율과 수신기의 화면 비율을 고려하여 방송 콘텐츠를 렌더링할 수 있는 효과가 있다.
도 1은 본 발명의 실시예에 따른 이미지 디스플레이 장치의 일 예를 설명하기 위해 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 3D 이미지 디스플레이 장치의 다른 예를 설명하기 위해 도시한 도면이다.
도 3은 본 발명의 실시예에 따른 service list descriptor를 포함한 NIT 섹션의 일 예에 대한 비트스트림 신택스를 도시한 도면이다.
도 4는 본 발명의 실시예에 따른 service list descriptor의 일 예에 대한 비트스트림 신택스를 도시한 도면이다.
도 5는 본 발명의 실시예에 따른 service descriptor를 포함한 SDT 섹션의 일 예에 대한 비트스트림 신택스를 도시한 도면이다.
도 6은 본 발명의 실시예에 따른 service descriptor의 일 예에 대한 비트스트림 신택스를 도시한 도면이다.
도 7과 8은 본 발명의 실시예에 따른 service descriptor를 포함한 PMT 섹션과 EIT 섹션의 일 예에 대한 비트스트림 신택스를 도시한 도면이다.
도 9는 본 발명의 실시예에 따른 3D service descriptor의 일 예에 대한 비트스트림 신택스를 도시한 도면이다.
도 10 내지 12는 본 발명의 실시예에 따른 표 3을 부가 설명하기 위해 도시한 도면이다.
도 13은 본 발명의 실시예에 따른 component descriptor의 비트스트림 신택스의 일 예를 도시한 도면이다.
도 14는 본 발명의 실시예에 따른 linkage descriptor의 비트스트림 신택스의 일 예를 도시한 도면이다.
도 15는 본 발명의 실시예에 따른 linkage descriptor를 이용하여 대응되는 3D 서비스를 시그널링하는 방법의 일 예를 도시한 도면이다.
도 16은 본 발명의 실시예에 따른 3D 시그널링 정보를 이용하여 스테레오스코픽 비디오 신호를 출력하는 일 예를 설명하기 위해 도시한 순서도이다.
도 17은 본 발명의 실시예에 따른 UI의 일 예를 도시한 도면이다.
도 18은 본 발명의 실시예에 따른 EPG 화면의 일 예를 도시한 도면이다.
도 19는 본 발명의 실시예에 따른 EPG 화면의 다른 예를 도시한 도면이다.
도 20은 본 발명의 실시예에 따른 EPG 화면의 또 다른 예를 도시한 도면이다.
도 21과 22는 본 발명의 실시예에 따른 EPG 화면의 또 다른 예를 도시한 도면이다.
도 23은 본 발명의 실시예에 따른 3D 버전 존재 여부를 알려주는 UI의 일 예를 도시한 도면이다.
도 24는 본 발명의 실시예에 따른 EPG의 또 다른 예를 도시한 도면이다.
도 25는 본 발명의 실시예에 따른 도 24의 상세 UI 예시를 도시한 도면이다.
도 26은 본 발명의 실시예에 따른 다양한 영상 포맷들의 입체 영상 멀티플렉싱 포맷을 예시한다.
도 27은 본 발명의 실시예에 따른 3D 방송 서비스의 개념도를 예시한다.
도 28은 본 발명의 실시예에 따른 풀-해상도 3D 방송 서비스를 제공하기 위한 방법을 나타내는 개념적 블록도를 예시한다.
도 29는 본 발명의 실시예에 따른 3D 방송 서비스를 제공하기 위한 방법을 예시한다.
도 30은 본 발명의 다른 실시예에 따른 3D 방송 서비스를 제공하기 위한 방법을 예시한다.
도 31은 본 발명의 다른 실시예에 따른 3D 방송 서비스를 제공하기 위한 방법을 예시한다.
도 32는 본 발명의 다른 실시예에 따른 3D 방송 서비스를 제공하기 위한 방법을 예시한다.
도 33은 본 발명의 실시예에 따른 3D 방송 서비스를 제공하기 위한 풀 포워드 및 백워드 상호운용성(full forward and backward interoperability)을 예시한다.
도 34는 본 발명의 실시예에 따른 1 세대 3DTV와 2 세대 3DTV에 호환가능한 3D 방송 서비스의 서비스 모델을 예시한다.
도 35는 본 발명의 실시예에 따른 3D 상보형 비디오 정보를 포함하는 TVCT의 신택스 구조(syntax structure)를 예시한다.
도 36은 본 발명의 실시예에 따른 TVCT에 포함된 3D 상보형 비디오 디스크립터의 신택스 구조를 예시한다.
도 37은 본 발명의 실시예에 따른 3D 상보형 비디오 정보에 포함된 complementary_type 필드의 필드 값에 따라 영상을 구성하는 방법을 예시한다.
도 38은 본 발명의 실시예에 따른 3D 상보형 비디오 정보를 포함하는 PMT의 신택스 구조를 예시한다.
도 39는 본 발명의 다른 실시예에 따른 3D 상보형 비디오 정보를 포함하는 PMT의 신택스 구조를 예시한다.
도 40은 본 발명의 실시예에 따른 3D 상보형 비디오 정보에 포함된 비디오 ES의 픽처 확장 및 사용자 데이터의 신택스 구조를 예시한다.
도 41은 본 발명의 실시예에 따른 3D 상보형 비디오 정보를 디코딩하기 위한 유저 식별자 및 구조의 SEI(Supplemental Enhancement Information) 신택스 구조 를 예시한다.
도 42는 본 발명의 실시예에 따른 3D 비디오 서비스 Spec-B로부터 수신된 베이스 비디오 데이터, 상보형 비디오 데이터, 및 3D 상보형 비디오 정보를 이용하여 풀-해상도 영상을 제공하기 위한 방법을 예시한다.
도 43은 본 발명의 다른 실시예에 따른 3D 비디오 서비스 Spec-B로부터 수신된 베이스 비디오 데이터, 상보형 비디오 데이터, 및 3D 상보형 비디오 정보를 이용하여 풀-해상도 영상을 제공하기 위한 방법을 예시한다.
도 44는 본 발명의 또 다른 실시예에 따른 3D 비디오 서비스 Spec-B로부터 수신된 베이스 비디오 데이터, 상보형 비디오 데이터, 및 3D 상보형 비디오 정보를 이용하여 풀-해상도 영상을 제공하기 위한 방법을 예시한다.
도 45는 본 발명의 또 다른 실시예에 따른 3D 비디오 서비스 Spec-B로부터 수신된 베이스 비디오 데이터, 상보형 비디오 데이터, 및 3D 상보형 비디오 정보를 이용하여 풀-해상도 영상을 제공하기 위한 방법을 예시한다.
도 46은 본 발명의 실시예에 따른 SDT를 사용하여 3DTV 서비스를 시그널링하는 방법을 예시한다.
도 47은 본 발명의 실시예에 따른 SDT를 이용하여 3DTV 서비스를 시그널링하는 서비스 타입 값들을 예시한다.
도 48은 본 발명의 실시예에 따른 SDT를 이용하여 3DTV 서비스를 시그널링하는 추가적인 서비스 타입 값들 및 디스크립션들을 예시한다.
도 49는 본 발명의 실시예에 따른 DVB 방송 서비스를 위한 각각의 엘레멘터리 스트림(elementary stream)을 나타내는 컴포넌트 디스크립터를 예시한다.
도 50은 본 발명의 실시예에 따른 DVB 방송 시스템에서 풀-해상도 3D 입체 서비스를 나타내는 스트림 콘텐츠, 컴포넌트 타입 및 디스크립션을 예시한다.
도 51은 본 발명의 실시예에 따른 SDT를 위한 3D 상보형 비디오 디스크립터의 신택스 구조를 예시한다.
도 52는 본 발명의 실시예에 따른 연결 디스크립터(linkage descriptor)를 이용하여 Spec-A 및 Spec-B 3D 서비스를 시그널링하는 방법을 예시한다.
도 53은 본 발명의 실시예에 따른 3D 신호를 파싱함으로써 입체 비디오 신호를 출력하기 위한 프로세스를 나타내는 흐름도를 예시한다.
도 54는 본 발명의 다른 실시예에 따른 연결 디스크립터를 이용하여 Spec-A 및 Spec-B 3D 서비스를 시그널링하는 방법을 예시한다.
도 55는 본 발명의 실시예에 따른 ATSC PSIP EIT 섹션에 위치된 풀-해상도 3DTV 서비스에 관한 정보를 예시한다.
도 56은 본 발명의 실시예에 따른 DVB SI EIT 섹션에 위치된 풀-해상도 3DTV 서비스에 관한 정보를 예시한다.
도 57은 본 발명의 실시예에 따른 ATSC PSIP EIT를 이용하여 3D 상보형 비디오 디스크립터를 파싱 및 렌더링함으로써 입체 비디오 신호를 출력하기 위한 프로세스를 나타내는 흐름도를 예시한다.
도 58은 본 발명의 실시예에 따른 DVB SI EIT를 이용하여 3D 상보형 비디오 디스크립터를 파싱 및 렌더링함으로써 입체 비디오 신호를 출력하기 위한 프로세스를 나타내는 흐름도를 예시한다.
도 59는 본 발명의 일 실시예에 따른 3D 비디오 디코더를 구비한 방송 수신기의 블록도를 예시한다.
도 60은 본 발명의 일 실시예에 따른 3D 서비스 2.0(Spec-B)의 개념도를 예시한다.
도 61은 본 발명의 일 실시예에 따른 3D 서비스 2.0(Spec-B)를 시그널링하는 방법을 나타낸 도면이다.
도 62은 본 발명의 일 실시예에 따른 컴포넌트 디스크립터의 stream_content field 및/또는 component_type field를 나타낸 도면이다.
도 63은 본 발명의 일 실시예에 따른 링키지 디스크립터의 linkage_type field 및/또는 link_type field를 나타낸 도면이다.
도 64은 본 발명의 일 실시예에 따른 수신기의 블록도를 나타낸 도면이다.
도 65은 본 발명의 일 실시예에 따른 3D 서비스 3.0의 개념도를 예시한다.
도 66은 본 발명의 일 실시예에 따른 SFC-3DTV 서비스를 시그널링하는 방법을 나타낸 도면이다.
도 67은 본 발명의 일 실시예에 따른 service descriptor의 service_type field를 나타낸 도면이다.
도 68은 본 발명의 일 실시예에 따른 service descriptor의 service_type field를 나타낸 도면이다.
도 69는 본 발명의 일 실시예에 따른 컴포넌트 디스크립터의 stream_content field 및/또는 component_type field를 나타낸 도면이다.
도 70은 본 발명의 일 실시예에 따른 컴포넌트 디스크립터의 stream_content field 및/또는 component_type field를 나타낸 도면이다.
도 71은 본 발명의 일 실시예에 따른 컴포넌트 디스크립터의 stream_content field 및/또는 component_type field를 나타낸 도면이다.
도 72는 본 발명의 일 실시예에 따른 링키지 디스크립터의 linkage_type field 및/또는 link_type field를 나타낸 도면이다.
도 73은 본 발명의 일 실시예에 따른 수신기의 블록도를 나타낸 도면이다.
도 74는 본 발명의 일 실시예에 따른, active_format 정보에 따른 Active Format Description (AFD) 을 나타낸 도면이다.
도 75는 본 발명의 일 실시예에 따른, active_format 및 전송되는 프레임의 aspect ratio에 따른 수신기의 디스플레이의 예를 나타낸 도면이다.
도 76은 본 발명의 다른 실시예에 따른, active_format 및 전송되는 프레임의 aspect ratio에 따른 수신기의 디스플레이의 예를 나타낸 도면이다.
도 77은 본 발명의 일 실시예에 따른 bar data를 나타낸 도면이다.
도 78은 본 발명의 일 실시예에 따른 수신기를 나타낸 도면이다.
발명의 실시를 위한 최선의 형태
이하 본 명세서에서는 첨부된 도면을 참조하여 본 발명에 따른 이미지 처리 방법 및 장치의 다양한 실시 예들을 상세하게 기술한다.
특히, 본 명세서에서는 본 발명에 따른 3D(3-Dimensional) 서비스의 식별 및 처리에 관해 다양한 시그널링 정보(signaling information)를 정의하여 송/수신단에서 이를 처리할 수 있도록 이미지 처리 방법 및 장치를 제공한다.
본 명세서에서는 이러한 본 발명의 이해를 돕고 설명의 편의를 위해, 이미지 디스플레이 장치는 3D 서비스를 처리할 수 있는 구성을 포함한 디지털 수신기(digital receiver)를 예로 하여 설명한다. 이러한 디지털 수신기는, 디지털 텔레비전 수신기(digital television receiver), 3D 서비스를 처리할 수 있는 구성을 포함한 셋톱박스(STB; Set-Top Box)와 처리된 3D 이미지를 출력하는 디스플레이 기기(display unit)를 포함한 수신기 세트(receiving set), PDA(Personal Digital Assistant), 휴대폰(mobile phone), 스마트폰(smart phone) 등 3D 이미지 데이터를 수신하여 처리 또는/및 제공할 수 있는 모든 기기를 포함할 수 있다. 또한, 상기 디지털 수신기는, 3D 전용 수신기 및 2D/3D 겸용 수신기 중 어느 하나일 수 있다.
관련하여, 3D 이미지를 표현하는 방법에는, 2개의 시점을 고려하는 스테레오스코픽 이미지 디스플레이 방식(stereoscopic image display method)과 3개 이상의 시점을 고려하는 다시점 이미지 디스플레이 방식(multi-view image display method)이 있다.
스테레오스코픽 이미지 디스플레이 방식은, 일정한 거리로 이격되어 있는 두 개의 카메라 즉, 좌측 카메라와 우측 카메라로 동일한 피사체를 촬영하여 획득한 좌우 한쌍의 이미지를 사용한다. 또한, 다시점 이미지 디스플레이 방식은, 일정한 거리나 각도를 갖는 3개 이상의 카메라에서 촬영하여 획득한 3개 이상의 이미지를 사용한다.
또한, 스테레오스코픽 이미지의 전송 포맷으로는, 싱글 비디오 스트림 포맷(single video stream format)과 멀티플 비디오 스트림 포맷(또는 멀티-비디오 스트림)(multi video stream format)이 있다.
싱글 비디오 스트림 포맷으로는 사이드 바이 사이드(side-by-side), 탑/다운(top/down), 인터레이스드(interlaced), 프레임 시퀀셜(frame sequential), 체커 보드(checker board), 애너그리프(anaglyph) 등이 있으며, 멀티플 비디오 스트림 포맷으로는 풀 좌/우(Full left/right), 풀 좌/하프 우(Full left/Half right), 2D 비디오/깊이(2D video/depth) 등이 있다.
상기에서, 스테레오 이미지 또는 다시점 이미지는, MPEG(Moving Picture Experts Group)을 포함하여 다양한 이미지 압축 부호화 방식에 따라 압축 부호화되어 전송될 수 있다.
예를 들어, 상기 사이드 바이 사이드 포맷, 탑/다운 포맷, 인터레이스드 포맷, 체커 보드 등과 같은 스테레오 영상은, H.264/AVC(Advanced Video Coding) 방식으로 압축 부호화하여 전송될 수 있다. 이때, 수신 시스템에서 H.264/AVC 코딩 방식의 역으로 상기 스테레오 영상에 대해 복호(decoding)를 수행하여 3D 이미지를 얻을 수 있다.
또한, 풀 좌/하프 우 포맷의 좌 이미지 또는 다시점 이미지 중 하나의 이미지는, 기본 계층(base layer) 이미지로, 나머지 이미지는 상위 계층(enhanced layer) 이미지로 할당한 후, 기본 계층의 이미지는 모노스코픽 이미지와 동일한 방식으로 부호화하고, 상위 계층의 이미지는 기본 계층과 상위 계층의 이미지 간의 상관 정보에 대해서만 부호화하여 전송할 수 있다. 상기 기본 계층의 이미지에 대한 압축 부호화 방식의 예로는 JPEG, MPEG-1, MPEG-2, MPEG-4, H.264/AVC 방식 등이 사용될 수 있다. 그리고 상위 계층의 이미지에 대한 압축 부호화 방식은 H.264/MVC(Multi-view Video Coding) 방식이 사용될 수 있다. 이때, 스테레오 이미지는, 기본 계층의 이미지와 하나의 상위 계층 이미지로 할당되나, 다시점 이미지는 하나의 기본 계층의 이미지와 복수 개의 상위 계층 이미지로 할당된다. 상기 다시점 이미지를 기본 계층의 이미지와 하나 이상의 상위 계층의 이미지로 구분하는 기준은 카메라의 위치에 따라 결정될 수도 있고, 카메라의 배열 형태에 따라 결정될 수도 있다. 또는 특별한 기준을 따르지 않고 임의로 결정될 수도 있다.
이러한 3D 이미지 디스플레이는 크게 스테레오스코픽(stereoscopic) 방식, 부피표현(volumetric) 방식, 홀로그래픽(holographic) 방식으로 구분된다. 예를 들어, 스테레오스코픽 기술을 적용한 3D 이미지 디스플레이 장치는 2D 영상에 깊이(depth) 정보를 부가하고, 이 깊이 정보를 이용하여 관찰자가 입체의 생동감과 현실감을 느낄 수 있게 하는 화상표시장치이다.
그리고 3D 이미지를 시청하는 방식에는, 크게 안경(glasses)을 착용하는 방식과 안경을 착용하지 않는 무안경 방식이 있다.
안경 방식은, 패시브(passive) 방식과 액티브(active) 방식으로 구분된다. 패시브 방식은, 편광 필터(polarized light filter)를 사용해서 좌영상 이미지와 우영상 이미지를 구분하여 보여주는 방식이다. 이러한 패시브 방식은, 양안에 각각 청색과 적색의 색안경을 쓰고 보는 방식을 포함한다. 이와 달리, 액티브 방식은 액정 셔터(liquid crystal shutter)를 이용하여 좌/우안을 구분하는 방식으로, 시간적으로 좌안과 우안의 렌즈를 순차로 개폐함으로써 좌영상 이미지와 우영상 이미지를 구분하는 방식이다. 이러한 액티브 방식은, 시분할된 화면을 주기적으로 반복시키고 이 주기에 동기시킨 전자 셔터(electronic shutter)가 설치된 안경을 쓰고 보는 방식이며, 시분할 방식(time split type) 또는 셔텨드 글래스(shuttered glass) 방식이라고도 한다.
무안경 방식으로서 대표적인 것으로는, 원통형의 렌즈 어레이(lens array)를 수직으로 배열한 렌티큘러(lenticular) 렌즈 판을 영상 패널 전방에 설치하는 렌티큘러 방식과, 영상 패널 상부에 주기적인 슬릿(slit)을 갖는 배리어 층(barrier layer)을 구비하는 패러랙스 배리어(parallax barrier) 방식이 있다. 다만, 이하 본 명세서에서는 설명의 편의를 위해 안경 방식을 예로 하여 설명한다.
또한, 이하 본 명세서에서는 3D 신호 특히, 스테레오스코픽 비디오 신호를 지상파 DTV 방송 채널을 통해 송수신하기 위해, SI(system information)로 스테레오스코픽 서비스를 시그널링하기 위해 시그널링 방법에 대해 기술한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
본 명세서에서 ‘시그널링 (signaling)’ 이라 함은 방송 시스템, 인터넷 방송 시스템 및/또는 방송/인터넷 융합 시스템에서 제공되는 서비스 정보 (Service Information; SI)를 전송/수신하는 것을 나타낸다. 서비스 정보는 현재 존재하는 각 방송 시스템에서 제공되는 방송 서비스 정보 (예를 들면, ATSC-SI 및/또는 DVB-SI)를 포함한다.
본 명세서에서 ‘방송 신호’ 라 함은, 지상파 방송, 케이블 방송, 위성 방송, 및/또는 모바일 방송 이외에도, 인터넷 방송, 브로드밴드 방송, 통신 방송, 데이터 방송 및/또는 VOD (Video On Demand) 등의 양방향 방송에서 제공되는 신호 및/또는 데이터를 포함하는 개념으로 정의한다.
본 명세서에서 ‘PLP’ 라 함은, 물리적 계층에 속하는 데이터를 전송하는 일정한 유닛을 의미한다. 따라서, 본 명세서에서 ‘PLP’로 명명된 내용은, ‘데이터 유닛’ 또는 ‘데이터 파이프 (data pipe)’ 로 바꾸어 명명될 수도 있다.
디지털 방송 (DTV) 서비스에서 활용될 유력한 어플리케이션 (application) 중의 하나로, 방송 망과 인터넷 망과의 연동을 통한 하이브리드 방송 서비스를 꼽을 수 있다. 하이브리드 방송 서비스는 지상파 방송망을 통해서 전송되는 방송 A/V (Audio/Video) 컨텐츠와 연관된 인핸스먼트 데이터 (enhancement data) 혹은 방송 A/V 컨텐츠의 일부를 인터넷 망을 통하여 실시간으로 전송함으로써, 사용자로 하여금 다양한 컨텐츠를 경험할 수 있도록 한다.
본 발명은, 차세대 디지털 방송 시스템에서, IP packet, MPEG-2 TS packet 과 그 외 방송시스템에서 사용 할 수 있는 packet 을 physical layer로 전달할 수 있도록 encapsulation 하는 방법을 제시하는 것을 목적으로 한다. 또한, 동일한 헤더 포맷으로 layer 2 signaling도 함께 전송 할 수 있도록 하는 방법도 제안한다.
본 발명에서 3D 영상은, 좌측 눈을 통하여 보여지는 좌영상과 우측 눈을 통하여 보여지는 우영상을 포함한다. 사람은 좌측 눈을 통하여 보는 좌영상과 우측 눈을 통하여 보는 우영상에 있는 사물들의 수평적 거리 차이 (disparity) 로 인하여 입체감을 느낀다.
방송을 통하여 3D 영상 또는 3D 서비스를 제공하는 방법은, 하나의 프레임에 좌영상과 우영상을 함께 전송하는 방식은 frame compatible 방식과, 좌영상과 우영상을 각각의 전송 스트림, 엘레먼터리 스트림, 또는 레이어 스트림 (layer stream) 으로 전송하는 service compatible 방식이 있을 수 있다. Frame compatible 방식에서는 하나의 프레임 내에, 좌영상과 우영상이 상/하로 위치하거나 (top-and-bottom), 좌/우로 위치 (side-by-side) 할 수 있다. service compatible의 정의는 3D 서비스와 2D 서비스 사이의 호환이 가능함을 의미할 수 있다. 즉 3D 서비스를 위하여 좌영상과 우영상을 제공하는 시스템 내에서, 2D 서비스에 대한 질 (quality)을 유지하면서, 2D 서비스에 해당 좌영상 및/또는 우영상을 사용할 수 있는 방식을 service compatible로 정의할 수 있다.
도 1은 본 발명에 따른 이미지 디스플레이 장치의 일 예를 설명하기 위해 도시한 블록도이다.
도 1을 참조하면, 본 발명에 따른 이미지 디스플레이 장치의 일 예는, 크게 컨텐츠 소스(contents source)(110)로부터 입력되는 소스들을 처리하는 처리부(processing part)(130)와, 처리부(130)에서 처리된 AV 데이터(Audio/Video data)를 출력하는 출력부(140)(outputting part)로 구성된다. 여기서, 상기 소스는 예를 들어, 3D 이미지를 포함한다. 또한, 상기 이미지 디스플레이 장치는, 상기 컨텐츠 소스(110) 이외에 외부 기기(external device)(120)로부터 입력되는 소스의 처리를 위한 인터페이스부(interfacing part)(135)를 더 포함할 수 있다. 그 밖에, 상기 이미지 디스플레이 장치는, 출력부(140)에서 제공되는 소스의 시청을 위해 필요한 3D 안경(150)으로 3D 이미지 시청을 위한 동기 신호(synchronization signal) 예를 들어, 싱크 정보를 출력하는 IR 이미터(145)를 더 포함할 수 있다.
도 1에서 이미지 디스플레이 장치는, 처리부(130)와 디스플레이부(140)가 디지털 수신기로서 하나의 세트(set)이거나 또는, 상기 처리부(130)는 일종의 셋톱박스의 형태이고 디스플레이부(140)는 상기 셋톱박스에서 처리된 신호를 출력만 하는 디스플레이 기기와 같은 기능만 수행할 수도 있다. 특히, 후자의 경우에는 상기 처리부(130)와 출력부(140) 사이에 데이터 교환을 위하여 전술한 인터페이스부(135)가 이용될 수 있다.
상기에서, 인터페이스부(135)는 예를 들어, 3D 서비스 지원이 가능한 HDMI(High-Definition Multimedia Interface) 규격을 지원하는 인터페이스(I/F)일 수 있다.
또한, 3D 이미지는 예를 들어, 지상파 방송(terrestrial broadcasting), 케이블 방송(cable broadcasting), 위성 방송(satellite broadcasting), 광디스크(optical disc), IPTV 방송(internet protocol television broadcasting) 등의 컨텐츠 소스(110)로부터 전송되는 신호 또는 소스에 포함되거나 USB(universal serial bus), 게임 콘솔(game console) 등과 같은 외부 기기(120)로부터 직접 입력될 수 있다. 후자의 경우에는 특히, 인터페이스부(135)에서 외부 기기(120)로부터 제공된 정보에 기초하여 출력을 위한 시그널링 정보가 정의되고 제공되어야 한다.
외부 기기(120)를 통하는 경우에는, 디빅스(DivX), 콤퍼넌트(component), AV, 스카트(Scart:Syndicat des Constructeurs d'Appareils Radiorecepteurs et Televiseurs, Radio and Television Receiver Manufacturers' Association) 등 다양한 포맷(format)의 3D 이미지가 입력될 수 있는바, 이미지 디스플레이 장치는 상기한 포맷들을 처리하기 위한 구성을 포함할 수 있다.
3D 안경(150)은, 3D 이미터(145)에서 출력되는 동기 신호를 수신하는 수신부(receiving part)(미도시)를 이용하여 출력부(140)에서 제공되는 3D 이미지를 적절하게 시청할 수 있다. 여기서, 상기 3D 안경(150)은, 2D/3D 시청 모드 전환을 위한 수단을 더 구비할 수 있으며, 상기 시청 모드 전환 수단에 따라 개별적으로 싱크 정보를 생성하는 생성부(미도시)를 더 구비할 수 있다. 또한, 상기에서 3D 안경(150)에서 생성되는 싱크 정보는 상기 시청 모드 전환 수단에서 시청 모드 전환 요청을 이미지 디스플레이로 전송하고 싱크 정보를 상기 이미지 디스플레이 장치로부터 수신하거나 또는 이미지 디스플레이 장치에서 기수신된 싱크 정보를 참조하여 자체 생성할 수 있다. 이때, 3D 안경(150)은 자체적으로 이미지 디스플레이 장치로부터 기수신된 싱크 정보를 저장하는 저장부를 더 구비할 수 있다.
도 2는 본 발명에 따른 3D 이미지 디스플레이 장치의 다른 예를 설명하기 위해 도시한 도면이다. 여기서, 도 2는 예를 들어, 상술한 도 1의 처리부(130)의 상세 구성에 대한 블록도(block diagram)일 수 있다.
도 2를 참조하면, 본 발명에 따른 이미지 디스플레이 장치는, 수신부(a receiving part)(210), 복조부(a demodulating part)(220), 역다중화부(a demultiplexing part)(230), 시그널링 정보 처리부(SI processing part)(240), 비디오 디코더(a video decoder)(250), 3D 이미지 포매터(260) 및 제어부(a controlling part)(270)를 포함한다.
이하 각 구성의 기본 동작에 대해 기술하고, 본 발명과 관련하여, 상세 설명은 후술하는 각 실시 예에서 더욱 상세하게 설명한다.
수신부(210)는, RF(radio frequency) 채널을 통하여 컨텐츠 소스(110)로부터 3D 이미지 데이터를 포함한 디지털 방송 신호를 수신한다.
복조부(220)는, 변조 방식에 대응되는 복조 방식으로 수신부(210)에서 수신된 디지털 방송 신호를 복조한다.
역다중화부(230)는, 복조된 디지털 방송 신호로부터 오디오 데이터, 비디오 데이터 및 시그널링 정보를 역다중화(demultiplex)한다. 이를 위해, 역다중화부(230)는 PID(Packet IDentifier)를 이용하여 필터링(filtering)함으로써 상기 디지털 방송 신호를 역다중화할 수 있다. 역다중화부(230)는, 상기 역다중화된 비디오 신호는 후단의 비디오 디코더(220)로 출력하고, 시그널링 정보는 시그널링 정보 프로세서로 출력한다. 여기서, 상기 시그널링 정보는, 설명의 편의를 위해 PSI(Program Specific Information), PSIP(Program and System Information Protocol), DVB-SI(Digital Video Broadcasting-Service Information)와 같은 SI(System Information) 정보를 예로 하여 설명한다.
시그널링 정보 프로세서(240)는, 역다중화부(230)로부터 입력되는 시그널링 정보를 처리하여 제어부(270)로 출력한다. 여기서, 시그널링 정보 프로세서(240)는, 처리되는 시그널링 정보를 일시 저장하는 데이터베이스(DB: Database)를 내부 또는 외부에 구비할 수도 있다. 이러한 시그널링 정보에 대해서는 후술하는 각 실시 예에서 더욱 상세하게 설명한다.
시그널링 정보 프로세서(240)는, 컨텐츠가 2D 이미지인지 3D 이미지인지 여부를 알려주는 시그널링 정보가 존재하는지 판단한다. 시그널링 정보 프로세서(240)는 판단 결과 상기 시그널링 정보가 존재하면, 이를 독출하여 제어부(270)로 전송한다.
비디오 디코더(250)는, 역다중화된 비디오 데이터를 수신하여 디코딩한다. 여기서, 상기 디코딩은 예를 들어, 시그널링 정보 프로세서(240)에서 처리된 시그널링 정보에 기초하여 이루어질 수 있다.
3D 이미지 포매터(260)는, 비디오 디코더(250)에서 디코딩된 3D 이미지 데이터들을 출력 포맷에 맞게 포매팅(formatting)하여 출력부(140)로 출력한다. 여기서, 3D 이미지 포매터(260)는 예를 들어, 디코딩된 이미지 데이터가 3D 이미지 데이터인 경우에만 활성화될 수 있다. 다시 말해, 디코딩된 이미지 데이터가 2D 이미지 데이터인 경우에는 비활성화 즉, 3D 이미지 포맷터(260)는 입력되는 이미지 데이터를 별도 가공하지 않고 그대로 출력 예를 들어, 바이패스(bypass)할 수 있다.
3D 이미지 포매터(260)는 입력 (디코딩된) 비디오 포맷에서 네이티브 3D 디스플레이 포맷으로 요청된 변환을 수행한다. 아티팩트 리덕션(artifact reduction), 샤프니스(sharpness), 컨트라스트 인핸스먼트(contrast enhancement), 디-인터레이싱(de-interlacing), 프레임 레이트 컨버전(frame rate conversion), 및 퀄리티 인핸스먼트 블록들(quality enhancement blocks)의 다른 타입들과 같은 비디오 프로세싱은 비디오 디코더(250)와 3D 이미지 포매터(260) 사이에 존재할 수 있다.
전술한 바와 같이, 본 발명은 3D 비디오 처리 기능을 지원하는 DTV 수신 장치에서 DTV 방송 신호를 통해 전송되는 3D 비디오 방송 신호를 처리하고 3D 비디오 데이터를 화면에 출력하기 위한 기능을 구현하기 위한 것이다.
이를 위해 스테레오스코픽 3D 방송 신호의 수신을 지원하기 위한 3D 서비스/이벤트를 위한 하나 또는 그 이상의 디스크립터를 정의하고 이를 이용하여 스테레오스코픽 방송 신호를 수신하고 스테레오스코픽 디스플레이 출력을 지원하는 방법을 기술한다. 기존의 지상파 DTV 수신 표준은 2D 비디오 컨텐트를 기준으로 하고 있으며 특히 3DTV가 서비스될 경우 3D 코덱에 대한 디스크립터가 정의되어야 한다. 또한 수신기는 이러한 변경된 신호를 적절하게 처리하여 3D 방송 서비스 수신 및 출력을 지원하도록 해야 한다.
기존의 DVB 전송과 관련된 SI 표준은 2D 비디오 서비스에 국한된다. 따라서 3DTV 신호, 특히 스테레오스코픽 비디오 신호를 지상파 DTV 방송 채널을 통해 수신하기 위해서는 기존의 SI 표준에서 스테레오스코픽 서비스를 시그널링할 수 있어야 하며 이를 효과적으로 처리하기 위해서는 DTV 수신기 또한 3D 방송 수신을 지원하기 위해 새로운 설계 및 구현 방법이 적용되어야 한다.
SDT의 서비스 디스크립터(service descriptor) 등에서 3D 서비스를 나타내기 위한 서비스 타입(service type)을 정의한다. 3D 서비스 및 이벤트(프로그램)에 대한 상세 정보를 알려주기 위한 3D 서비스 디스크립터를 정의한다. EIT를 통해 3D 서비스를 알려주기 위해 stream_content와 component_type을 통해 3D를 나타내기 위한 방법을 정의한다. 수신기가 새롭게 정의된 3D 시그널링을 처리해 2D/3D 서비스 전환을 원활히 수행하는 방법을 정의한다.
이하에서는 본 발명에 따른 3D 시그널링과 관련하여, 각 레벨(level)에 따른 다양한 시그널링 방법에 대해 기술한다. 여기서, 레벨이라 함은 예를 들어, 서비스 단위의 서비스 레벨, 서비스 내 컨텐트, 이벤트 단위인 컨텐트 레벨 등을 의미한다.
여기서, 본 명세서에서는 본 발명에 따른 시그널링 방법을 기술함에 있어서, 주로 디스크립터 형식을 이용한다. 다만, 이는 예시일 뿐, 테이블 섹션의 종래 필드의 개념 확장이나 새로운 필드의 추가 등으로도 시그널링할 수 있다.
도 3은 본 발명에 따른 서비스 리스트 디스크립터(service list descriptor)를 포함한 NIT(Network Information Table) 섹션의 일 예에 대한 비트스트림 신택스를 도시한 도면이고, 도 4는 본 발명에 따른 서비스 리스트 디스크립터의 일 예에 대한 비트스트림 신택스를 도시한 도면이다.
NIT는 주어진 네트워크를 통하여 전송되는 멀티플렉스들/TS들의 피지컬 오거니제이션(physical organization)과 상기 네트워크 자체의 특성에 관한 정보를 전송한다. original_network_id와 transport_stream_id의 조합은 본 명세서의 애플리케이션의 영역을 통하여 유일하게 식별되도록 각 TS를 허용한다. 네트워크들은 네트워크들을 위한 유일 식별 코드들로서 제공되는 개별 network_id 값들을 할당한다. network_id와 original_network_id는 동일한 값을 가질 수 있거나 network_id와 original_network_id를 위한 할당된 제한들에 구속되게 다른 값을 취할 수 있다.
수신기는 채널들(채널 호핑(channel hoping)) 사이에서 전환될 때 액세스 타임이 최소화되도록 비휘발성 메모리에 NIT 정보를 저장할 수 있다. 그것은 실제 네트워크에 더하여 다른 네트워크들을 통해 NIT를 전송할 수 있게 한다. 실제 네트워크를 위한 NIT와 다른 네트워크를 위한 NIT 사이의 차별화는 다른 table_id 값들로 이루어질 수 있다.
NIT를 부분을 형성하는 어떤 섹션들은 0x0010의 PID 값을 가진 TS 패킷들 내에 전송될 수 있다. 실제 네트워크를 설명하는 NIT의 어떤 섹션들(즉, 부분으로서 NIT를 포함하는 TS의 네트워크)은 동일한 table_id_extension (network_id)를 가진 table_id 0x40을 가질 수 있다. network_id 필드는 실제 네트워크에 대해 할당된 값을 취한다.
이하, 도 3을 참조하여, NIT 섹션의 각 필드에 대해 설명하면, 다음과 같다.
table_id 필드는 미리 정의된 값에 의해 본 테이블 섹션이 NIT 섹션임을 지시할 수 있다. section_syntax_indicator 필드는 "1"로 설정될 수 있다. section_length는 12-비트 필드로, 첫 두 비트는 00이 된다. 그것은 바로 시작하여 다음 section_length 필드와 CRC를 포함하여 섹션의 바이트들의 수를 설명할 수 있다. section_length 필드는 1021을 넘지 않고, 전체 섹션은 최대 길이 1024 바이트들을 가진다.
network_id 필드는 다른 어떤 딜리버리 시스템(delivery system)으로부터 NIT 인폼들에 대한 딜리버리 시스템을 식별하는 라벨(label)을 줄 수 있다. version_number는 sub_table 내에 전송되는 정보의 변경이 발생하면 1씩 증가할 수 있다. 그것의 값이 31에 도달하면, 0으로 랩 어라운드(wrap around) 된다. current_next_indicator가 1로 설정되면, 그리고 나서 version_number는 현재 sub_table에 적용 가능함을 나타내고, current_next_indicator가 0이면 table_id와 network_id에 의해 정의되는 다음 sub_table에 적용 가능하다.
section_number 필드는 섹션의 넘버를 줄 수 있다. sub_table 내 첫번째 섹션의 section_number는 0x00이 될 수 있다. section_number는 동일한 table_id와 original_network_id를 가진 각 추가적인 섹션과 함께 1씩 증가할 것이다. last_section_number 필드는 본 섹션의 부분으로서 sub_table의 마지막 섹션(즉, 가장 높은 section_number를 가진 섹션)의 넘버를 설명한다. network_descriptors_length 필드는 다음 네트워크 디스크립터들의 바이트들로 전체 길이를 줄 수 있다. transport_stream_loop_length 필드는 첫 CRC-32 바이트 이전에 즉시 엔딩되는 다음의 TS 루프들의 바이트 단위의 전체 길이를 설명할 수 있다. transport_stream_id 필드는 딜리버리 시스템 내 다른 멀티플렉스로부터 EIT 인펌들에 대한 TS의 식별을 위한 라벨로서 제공할 수 있다. original_network_id 필드는 오리지네이팅 딜리버리 시스템의 network_id를 식별하는 라벨을 줄 수 있다. transport_descriptors_length 필드는 다음 TS 디스크립터들의 바이트들로 전체 길이를 설명할 수 있다.
CRC 필드는, 전체 섹션을 프로세싱한 후에 디코더에서 레지스터들의 제로 출력을 주는 CRC 값을 포함할 수 있다.
도 4를 참조하면, 서비스 리스트 디스크립터는 NIT의 디스크립터로서, 이를 이용함으로써, 전체적인 3D 서비스 목록을 파악할 수 있다.
도 4의 본 발명에 따른 서비스 리스트 디스크립터를 더욱 상세하게 설명하면, 다음과 같다.
서비스 리스트 디스크립터는, service_id와 service_type에 의해 서비스를 리스팅(listing)하는 수단들을 제공한다.
descriptor_tag 필드는, descriptor_tag의 미리 정의된 값들에 의해 해당 디스크립터를 식별할 수 있다. descriptor_length 필드는 본 디스크립터의 전체 길이에 대한 정보를 제공한다.
service_id 필드는 TS 내에 서비스를 유일하게 식별한다. 상기 service_id는, service_type 필드의 값이 0x04, 0x18 또는 0x1B(NVOD reference services)인 경우를 제외하고는 해당 program_map_section 내에 program_number와 동일하다. 상기 service_id는 해당 program_number를 가지지 않는다.
service_type 필드는 서비스의 타입을 설명할 수 있다. 서비스를 위한 service_type 값은 표 1에서 더욱 상세하게 설명된다.
상술한 바와 같이, 이미지 디스플레이 장치는 도 3의 NIT 섹션들을 필터링하고, 필터링된 NIT 섹션들에 포함된 본 발명에 따른 도 4의 service_list_descriptor를 파싱한 후 service_type 필드가 “frame-compatible 3DTV” 서비스인 service_id를 파악하여 3D 서비스(프로그램) 목록만 따로 정리하여 출력할 수 있다.
도 5는 본 발명에 따른 서비스 디스크립터(service_descriptor)를 포함한 SDT(Service Description Table) 섹션의 일 예에 대한 비트스트림 신택스를 도시한 도면이고, 도 6은 본 발명에 따른 서비스 디스크립터의 일 예에 대한 비트스트림 신택스를 도시한 도면이다.
SDT의 각 sub_table은 특정 TS 내에 포함되는 서비스들을 설명한다. 상기 서비스들은 실제 TS 또는 다른 TS들의 부분일 수 있다. 이것들은 table_id에 의하여 식별될 수 있다. SDT의 부분을 형성하는 어떤 섹션들은 0x0011의 PID 값을 가진 TS 패킷들에 의해 전송될 수 있다. 실제 TS를 설명하는 SDT의 어떤 섹션들은 동일한 table_id_extension(transport_stream_id)와 동일한 original_network_id를 가진 table_ide 0x42의 값을 가진다. 실제 TS와 다른 TS를 참조하는 SDT의 다른 섹션들은 table_id 값으로 0x46 가질 수 있다.
이하, 도 5를 참조하여, SDT 섹션의 각 필드에 대해 상세하게 설명하면, 다음과 같다.
table_id 필드는 미리 정의된 값에 의해 본 테이블 섹션이 SDT 섹션임을 지시할 수 있다. section_syntax_indicator 필드는 "1"로 설정될 수 있다. section_length는 12-비트 필드로, 첫 두 비트는 00이 된다. 그것은 바로 시작하여 다음 section_length 필드와 CRC를 포함하여 섹션의 바이트들의 수를 설명할 수 있다. section_length 필드는 1021을 넘지 않고, 전체 섹션은 최대 길이 1024 바이트들을 가진다.
transport_stream_id 필드는 딜리버리 시스템 내 다른 멀티플렉스로부터 SDT 인펌들에 대한 TS의 식별을 위한 라벨로서 제공할 수 있다.
version_number는 sub_table 내에 전송되는 정보의 변경이 발생하면 1씩 증가할 수 있다. 그것의 값이 31에 도달하면, 0으로 랩 어라운드(wrap around) 된다. current_next_indicator가 1로 설정되면, 그리고 나서 version_number는 현재 sub_table에 적용 가능함을 나타내고, current_next_indicator가 0이면 table_id와 network_id에 의해 정의되는 다음 sub_table에 적용 가능하다.
section_number 필드는 섹션의 넘버를 줄 수 있다. sub_table 내 첫번째 섹션의 section_number는 0x00이 될 수 있다. section_number는 동일한 table_id, transport_stream_id와 original_network_id를 가진 각 추가적인 섹션과 함께 1씩 증가할 것이다. last_section_number 필드는 본 섹션의 부분으로서 sub_table의 마지막 섹션(즉, 가장 높은 section_number를 가진 섹션)의 넘버를 설명한다. original_network_id 필드는 오리지네이팅 딜리버리 시스템(originating delivery system)의 network_id를 식별하는 라벨을 줄 수 있다. Service_id는 16-비트 필드로서 TS 내에 다른 서비스로부터 본 서비스를 식별하도록 라벨로서 제공된다. 상기 service_ide는 해당 program_map_section 내 program_number와 동일할 수 있다.
EIT_schedule_flag는 1-비트 필드로서, 1로 설정되면 서비스를 위한 EIT 스케쥴 정보가 현재 TS 내에 존재함을 지시하고, 플래그가 0이면 서비스를 위한 EIT 스케쥴 정보가 현재 TS 내에 존재하지 않음을 지시한다. EIT_present_following_flag는 1-비트 필드로 1로 설정되면 현재 TS 내에 서비스를 위한 EIT_present_following 정보가 존재함을 지시하고, EIT 프레즌트/다음 sub_table의 발생 사이에 최대 타임 인터벌에 관한 정보를 위한 것이다. 상기 플래그가 0이면 TS 내에 서비스를 위한 EIT 프레즌트/다음 sub_table가 존재하지 않는다.
running_status는 3-비트 필드로 서비스의 상태를 지시할 수 있다. NVOD 레퍼런스 이벤트를 위하여, running_status의 값은 0으로 설정될 수 있다. free_CA_mode는 1-비트 필드로서, 0으로 설정되면 이벤트의 모든 컴포넌트 스트림들은 스크램들되지 않는다. 1로 설정되면, 하나 또는 그 이상의 스트림들은 CA 시스템에 의해 제어 받는다. descriptors_loop_length 필드는 다음 디스크립터들의 바이트들로 전체 길이를 줄 수 있다.
CRC 필드는, 전체 섹션을 프로세싱한 후에 디코더에서 레지스터들의 제로 출력을 주는 CRC 값을 포함할 수 있다.
도 6을 참조하면, 서비스 디스크립터는 SDT의 디스크립터로서, SDT의 특정 service_id에 대한 3D 여부를 판단하기 위해서는 서비스 디스크립터 내에 포함된 service_type 필드를 이용한다. 또한, 서비스 디스크립터를 이용함으로써, 해당 3D 서비스의 디코딩 및 출력 가능 여부도 판단할 수 있다.
이하, 도 6의 본 발명에 따른 서비스 디스크립터를 더욱 상세하게 설명하면, 다음과 같다.
서비스 디스크립터는, service_type과 함께 텍스트 폼으로 서비스와 서비스 프로바이더의 이름을 제공한다.
descriptor_tag 필드는, descriptor_tag의 미리 정의된 값들에 의해 해당 디스크립터를 식별할 수 있다. descriptor_length 필드는 본 디스크립터의 전체 길이에 대한 정보를 제공한다.
service_type 필드는 서비스의 타입을 설명할 수 있다. 서비스를 위한 service_type의 할당은 표 1에서 설명된다.
Figure pct00001
어떤 서비스들을 위하여, 표 1로부터 service_typ의 할당은 자명하다. 예를 들어, MPEG-2 HD 디지털 텔레비전 서비스를 들 수 있다. 그러나, 결정은 항상 스트레이트포워드하게 이루어지는 것은 아니다.
또한, service_type의 값이 0x01이면, 디지털 텔레비전 수신기를 지시한다. 제네릭 케이스(generic case)에서, 이러한 service_type은 인코딩되는 서비스의 컴포넌트들을 위한 방법에 대한 수신기에서 명시적인 인디케이션(indication)을 제공하지 않는다. 물론, 특정 플랫폼의 경우에는, 특정 인코딩은 수신기에 참조되는 본 service_type에 암시적으로 링크될 수는 있다. 그러나, 그러한 어레인지먼트(arrangement)는 본 명세서의 범위를 벗어난다. 본 service_type은 MPEG-2 SD 디지털 텔레비전 서비스를 위해 이용될 수 있다. 그러나, 그것은 예를 들어, MPEG-2 HD 디지털 텔레비전 서비스와 같은 특정 엔트리를 가지는 인코딩들을 포함한 다른 인코딩들을 이용한 서비스들을 위해 사용될 수도 있다.
DVB는 다른(non-MPEG-2 SD) 인코딩들의 컨텍스트(context) 내에 기 존재하고 이용중이기 때문에 MPEG-2 SD 디지털 텔레비전 서비스에 디지털 텔레비전 서비스로부터 service_type의 정의를 고치지 않는다. 일 예로, 모든 수신기들은 MPEG-2 SD 인코딩된 머티리얼(material)을 디코딩하고 출력할 수 있다. 모든 수신기들은 그것이 MPEG-2 SD 코딩된 머티리얼인 것에 기초하여 사용자의 선택을 위해 service_type을 어떤 서비스로 할당하고 출력할 수 있다. 그러나, 상술한 바와 같이, 이것은 수신기가 실제 인코딩을 이용하는 것을 지지하는 것이 아니다. 수신기의 무능력은 그것이 이루고자 하는 사용자의 경험에 기초하여 케어(care)되도록 할당하는 서비스 제공자가 필요로 하는 service_type 수단들이 할당된 서비스를 디코딩하고 출력할 수 있느냐에 따라 결정된다.
예를 들어, MPEG-2 SD 인코딩과 다른 것들에 기초한 어떤 서비스에 관한 플랫폼을 고려해 보자. 그것들 모두는 MPEG-2 SD-only와 MPEG-2 SD/HD 수신기들의 혼합된 파퓰레이션(population)을 전달된다. MPEG-2 SD 인코딩에 기초한 서비스를 위하여, service_type의 0x01(디지털 텔레비전 서비스) 할당은 자명하다. 그러나 MPEG-2 HD 인코딩에 기초한 서비스를 위하여, 비록 그것들이 선택되면 실제 볼 수 없을지라도, service_type의 할당은 서비스 제공자 MPEG-2 SD-only 수신기들의 사용자에게 제시한 어떤 서비스 리스트에 포함된 서비스를 원하는지에 따라 달렸다.
만약 원하는 사용자 경험이 있다면, 서비스는 service_type을 0x01(디지털 텔레비전 서비스)로 할당한다. 그러나, 만약 원하는 사용자 경험이 단지 MPEG-2 SD-only 수신기의 사용자에 할당된 서비스라면, 수신기는 실제 볼 수 있고, 서비스는 service_type이 0x11(MPEG-2 HD 디지털 텔레비전 서비스)로 할당된다. 이러한 service_type은 서비스로 할당되는데, 상기 서비스는 MPEG-2 SD 인코딩과 동일한 머티리얼에 대한 MPEG-4 HD와 같은 대체 인코딩을 둘 다 포함한다. 이러한 가정은 합리적인데, 모든 수신기들은 MPEG-2 SD 인코딩된 머티리얼을 디코딩하고 제시할 수 있을 것이다. 그러므로, 사용자에게 적어도 MPEG-2 SD 코딩된 폼으로 제시될 수 있다. 그러나 사용시 수신기의 능력에 의존하면, 사용자에게 대체, 전형적인 슈페리어(superior), 코딩된 폼으로 제시될 수 있다. 다른 인코딩들을 위해 사용되는 컴포넌트들은 PSI 내 stream_type을 위해 할당된 값에 의한 디코딩 관점 및/또는 SI 내 컴포넌트 디스크립터의 이용 사이에 차별화될 수 있다.
또한, service_typ의 값은 어드밴스드 코덱(advanced codec)을 지시할 수 있다. 상기 어드밴스드 코덱 service_type은 서비스가 MPEG-2가 아닌 다른 것을 이용하여 인코딩되었음을 지시할 수 있다. 더욱 상세하게는, 이러한 service_type들 중 하나의 할당은 수신기는 상기 서비스를 디코딩하고 제시할 수 있도록 MPEG-2 이외의 코덱을 지원하여야 한다. 이를 기초로 MPEG-2 SD-only 수신기들은 사용자의 선택을 위한 service_type들 중 하나를 할당받은 서비스를 출력할 수 없을 수 있다. 이러한 service_type들 중 하나의 할당은 특별하지 않은 어드밴스드 코덱의 사용을 위한 제네릭 인디케이션(generic indication)을 제공한다. 그것은 수신기가 이러한 service_type들 중 하나가 할당된 서비스를 디코딩하고 출력할 수 있도록 결정하도록 허락되지 않는다. 물론, 특정 플랫폼의 경우에, 특정 인코딩은 service_type의 하나와 암시적으로 링크되고, 수신기에 의해 참조된다. 그러나 그러한 어레인지먼트는 본 명세서의 범위를 벗어난다. 서비스는 어드밴스드 코덱 service_type들을 위해 할당된 경우, 컴포넌트 디스크립터는 SI 내에 이용되는데, 이는 사용된 특정 어드밴스드 코덱을 지시하기 위함이다. 이것은 수신기에게 적절하게 핸들할 수 있고, 서비스를 디코딩하고 출력하도록 하는지 여부를 혼동 없이 결정하도록 허락한다.
또한, service_typ의 값은 어드밴스드 코덱 프레임 컴패터블 스테레오스코픽 HD를 지시할 수 있다. 상기 프레임 컴패터블 스테레오스코픽 HD 값들은 브로드캐스터(broadcaster)에게 서비스가 (주로) 스테레오스코픽 서비스로 동작하도록 시그널링을 허락한다. 이러한 값들의 이용은 레거시 수신기 파퓰레이션들(legacy receiver populations)을 위한 결과를 주의 깊게 고려하는 것이 요구된다. 여기서, 레거시 수신기 파퓰레이션들은 결과적으로 이러한 서비스들을 무시한다. 그러므로, 브로드캐스터는 노멀 HD 서비스로 프레임 컴패터블 스테레오스코픽 서비스를 시그널링하도록 대신 선택하고, 서비스(또는 이벤트)가 프레임 컴패터블 스테레오스코픽 포맷 내임을 지시하도록 대체 시그널링에 이용된다. service_provider_name_length 필드는 서비스 제공자의 이름의 캐릭터들을 설명하는 다음 service_provider_name_length 필드의 바이트들의 수를 설명한다. Char는 8-비트이다. Char 필드들의 스트링은 서비스 제공자 또는 서비스의 이름을 설명한다. 텍스트 정보는 캐릭터 세트들과 방법들을 이용하여 코딩된다. Service_name_length 필드는 서비스의 네임의 캐릭터들을 설명하는 다음 service_name_length 필드의 바이트들의 수를 설명한다.
도 7과 8은 본 발명에 따른 서비스 디스크립터를 포함한 PMT(Program Map Table) 섹션과 EIT(Event Information Table) 섹션의 일 예에 대한 비트스트림 신택스를 도시한 도면이고, 도 9는 본 발명에 따른 3D 서비스 디스크립터의 일 예에 대한 비트스트림 신택스를 도시한 도면이다.
PMT는 프로그램 넘버들과 그것들을 포함하는 프로그램 엘레멘트들(program elements) 사이에서 맵핑(mapping)을 제공할 수 있다. 그러한 맵핑의 싱글 인스턴스(single instance)는 프로그램 데퍼니션(program definition)으로 참조될 수 있다. PMT는 TS를 위한 모든 프로그램 데퍼니션들의 완전한 컬렉션(collection)이다. 이러한 테이블은 패킷으로 전송되고, PID 값들은 인코더에 의해 선택된다. 섹션들은 program_number 필드에 의해서 식별된다.
이하, 도 7을 참조하여, PMT 섹션의 각 필드에 대해 상세하게 설명하면, 다음과 같다.
table_id 필드는 미리 정의된 값에 의해 본 테이블 섹션이 NIT 섹션임을 지시할 수 있다. section_syntax_indicator 필드는 "1"로 설정될 수 있다. section_length는 12-비트 필드로, 첫 두 비트는 00이고, 나머지 10비트들은 바로 시작하여 다음 section_length 필드와 CRC를 포함하여 섹션의 바이트들의 수를 설명할 수 있다. section_length 필드는 1021(0x3FD)을 넘지 않는다.
program_number 필드는 적용 가능한 program_map_PID의 프로그램을 설명한다. 하나의 프로그램 데퍼니션(program definition)은 단지 하나의 TS_program_map_section 내에 전송된다. 이 의미는 하나의 프로그램 데퍼니션은 1016(0x3F8)보다 길지 않다는 것이다. Program_number는 예를 들어, 방송 채널을 위한 데지그네이션(designation)으로 이용될 수 있다. 프로그램에 속하는 다른 프로그램 엘레멘트들을 설명함으로써, 다른 소스들로부터 얻은 데이터(예를 들어, 시퀀셜 이벤트들)은 program_number를 이용하여 스트림들의 연속적인 세트를 함께 형성하도록 컨케이트네이티드(concatenated)된다. version_number는 TS_program_map_section의 버전 넘버일 수 있다. 이 버전 넘버는 섹션 내에 전송되는 정보의 변경이 발생하면 1 모듈로 32로 증가한다. 버전 넘버는 싱글 프로그램의 데퍼니션을 참조하고, 그러므로 싱글 섹션에 대한 것이다. current_next_indicator가 1로 설정되면, 그리고 나서 version_number는 현재 TS_program_map_section 에 적용 가능함을 나타내고, current_next_indicator가 0이면 table_id와 network_id에 의해 정의되는 다음 TS_program_map_section 에 적용 가능하다.
section_number 필드는 0x00이 될 수 있다. last_section_number 필드는 0x00이 된다. PCR_PID 필드는 program_number에 의해 설명되는 프로그램을 위한 유효한 PCR 필드들을 포함하는 TS 패킷들의 PID를 지시한다. 프라이빗 스트림들(private streams)을 위한 프로그램 데퍼니션과 관련된 PCR이 없으면, 본 필드는 0x1FFF의 값을 가진다. program_info_length는 12-비트 필드이다. 첫 두 비트는 00이고, 나머지 10비트들은 바로 다음 program_info_length 필드의 디스크립터들의 바이트 넘버들을 설명한다.
stream_type은 8-비트 필드로 elementary_PID에 의해 설명되는 값의 PID를 가진 패킷들 내에 전송되는 프로그램 엘레멘트의 타입을 설명한다. 보조 스트림은 오디오, 비디오 그리고 DSM-CC 보다 프로그램 스트림 디렉토리와 프로그램 스트림 맵과 같은 본 명세서에 의해 정의되는 데이터 타입들을 이용 가능하다. Elementary_PID는 13-비트 필드로, 관련된 프로그램 엘레멘트를 전송하는 TS 패킷들의 PID를 설명한다. ES_info_length는 12-비트 필드로, 첫 두 비트는 00이고, 나머지 10 비트는 바로 다음 ES_info_length 필드와 관련된 프로그램 엘레멘트의 디스크립터들의 바이트들의 수를 설명한다.
CRC 필드는, 전체 TS 프로그램 맵 섹션을 프로세싱한 후에 디코더에서 레지스터들의 제로 출력을 주는 CRC 값을 포함할 수 있다.
EIT는 각 서비스 내에 포함되는 이벤트들에 대한 크로니컬 오더 내 정보를 제공할 수 있다. 실제 TS를 위한 모든 EIT sub-table들은 동일한 transport_stream_id과 original_network_id 값을 가진다. 현재/다음 테이블은 두 이벤트 디스크립션들 보다 더 가진 NVOD 레퍼런스 서비스의 경우를 제외하고 실제 TS 또는 다른 TS 상의 주어진 서비스에 의해 전송되는 현재 이벤트와 연대기적인 다음 이벤트를 지속하는 정보를 포함할 수 있다. 실제 TS 또는 다른 TS들을 위한 이벤트 스케쥴 테이블들은, 스케쥴 폼 내에 이벤트들의 리스트를 포함할 수 있다. 즉, 상기 스케쥴은 다음 이벤트 없이 소정 시간에 발생하는 이벤트들을 포함한다. 이벤트 정보는 연대기적으로 오더될 수 있다. EIT의 부분을 형성하는 어떤 섹션들은 0x0012의 PID 값을 가진 TS 패킷들 내에 전송될 수 있다.
이하, 도 8을 참조하여, EIT 섹션의 각 필드에 대해 상세하게 설명하면, 다음과 같다.
table_id 필드는 미리 정의된 값에 의해 본 테이블 섹션이 EIT 섹션임을 지시할 수 있다. section_syntax_indicator 필드는 "1"로 설정될 수 있다. section_length 필드는 바로 시작하여 다음 section_length 필드와 CRC를 포함하여 섹션의 바이트들의 수를 설명할 수 있다. section_length 필드는 4093을 넘지 않고, 전체 섹션은 최대 길이 4096 바이트들을 가진다.
service_id 필드는 TS 내에 다른 서비스로부터 본 서비스를 식별하도록 라벨로서 제공할 수 있다. service_id는 해당 program_map_section 내 program_number와 동일할 수 있다. version_number 필드는 sub_table의 버전 넘버이다. 상기 version_number는 sub_table 내에 전송되는 정보의 변경이 발생하면 1씩 증가할 수 있다. 그것의 값이 31에 도달하면, 0으로 랩 어라운드(wrap around) 된다. current_next_indicator가 1로 설정되면, 그리고 나서 version_number는 현재 sub_table에 적용 가능함을 나타내고, current_next_indicator가 0이면 다음 sub_table에 적용 가능하다.
section_number 필드는 섹션의 넘버를 줄 수 있다. sub_table 내 첫번째 섹션의 section_number는 0x00이 될 수 있다. section_number는 동일한 table_id, service_ide, transport_stream_id, 그리고 original_network_id를 가진 각 추가적인 섹션과 함께 1씩 증가할 것이다. 이 경우, 상기 sub_table는 세그먼트들의 넘버로서 구조화될 수 있다. 각 세그먼트 내 section_number는 각 추가적인 섹션과 함께 1씩 증가하는데, 넘버링에서 갭은 세그먼트의 마지막 섹션과 인접한 세그먼트의 첫번째 섹션 사이에서 허용된다. last_section_number 필드는 본 섹션의 부분으로서 sub_table의 마지막 섹션(즉, 가장 높은 section_number를 가진 섹션)의 넘버를 설명한다.
transport_stream_id 필드는 딜리버리 시스템 내 다른 멀티플렉스로부터 EIT 인펌들에 대한 TS의 식별을 위한 라벨로서 제공할 수 있다. original_network_id 필드는 오리지네이팅 딜리버리 시스템의 network_id를 식별하는 라벨을 줄 수 있다. segment_last_section_number 필드는 sub_table의 본 세그먼트의 가장 마지막 섹션의 넘버를 설명할 수 있다. 세그먼트디드되지 않은 sub_table들을 위하여, 본 필드는 last_section_number 필드와 동일한 값으로 설정될 수 있다. last_table_id 필드는 이용된 가장 마지막 table_id를 식별할 수 있다. event_id 필드는 설명된 이벤트(서비스 정의 내 유니크하게 할당된)의 식별 넘버를 포함할 수 있다.
start_time 필드는 UTC(Universal Time, Co-ordinated) 및 MJD(Modified Julian Date) 내 이벤트의 시작 시각을 포함할 수 있다. 본 필드는 4-비트 BCD(Binary Coded Decimal) 내 6 디지트들로서 코딩된 24비트들에 의해 따라오는 MJD의 16 LSB들을 주는 16비트들로 코딩된다. start_time이 정의되지 않으면(예를 들어, NVOD 레퍼런스 서비스 내 이벤트를 위해), 필드의 모든 비트는 1로 설정될 수 있다. 예를 들어, 93/10/13 12:45:00는 "0xC079124500"로 코딩된다. Duration 필드는 시간, 분, 및 초로 이벤트의 듀레이션을 포함한다. 포맷은 6 디지트들, 4-비트 BCD 즉, 24 비트이다. 예를 들어, 01:45:30는 "0x014530"로 코딩된다.
running_status 필드는 이벤트의 상태를 지시할 수 있다. NVOD 레퍼런스 이벤트를 위하여, running_status의 값은 0으로 설정될 수 있다. free_CA_mode는 1-비트 필드로서, 0으로 설정되면 이벤트의 모든 컴포넌트 스트림들은 스크램들되지 않는다. 1로 설정되면, 하나 또는 그 이상의 스트림들은 CA 시스템에 의해 제어 받는다. descriptors_loop_length 필드는 다음 디스크립터들의 바이트들로 전체 길이를 줄 수 있다. CRC 필드는, 전체 프라이빗 섹션을 프로세싱한 후에 디코더에서 레지스터들의 제로 출력을 주는 CRC 값을 포함할 수 있다.
도 9를 참조하면, 본 발명에 따른 3D 서비스 디스크립터는, 전술한 도 5의 SDT나 도 7의 PMT에 포함될 수 있다. 이미지 디스플레이 장치에서는 예를 들어, 3D 서비스 디스크립터가 상기 SDT 또는 PMT 내 특정 서비스 또는 프로그램에 포함되면, 해당 서비스 또는 프로그램은 3D라는 것을 알 수 있다. 아울러 3D 서비스 디스크립터에 포함된 정보를 이용해 3D 비디오 포맷 정보 등을 파악할 수 있다. 또한, EIT에 포함된 3D 서비스 디스크립터를 이용해 미리 특정 이벤트에 대한 3D 여부를 알 수 있다.
3D 서비스 디스크립터는 3D 서비스/프로그램에 대한 상세정보를 포함하며 PMT 또는 SDT에 위치한다. (EIT에 위치할 수 있으며 이 경우에는 어나운스되는 프로그램/이벤트에 대한 3D 정보를 나타낸다.)
3D 서비스 디스크립터는 service_type이 “frame-compatible 3DTV”인 경우 또는 이벤트에 대한 stream_content와 component_type이 “frame-compatible 3D”인 경우에 존재하며 다음과 같은 필드를 포함한다.
descriptor_tag 필드는, descriptor_tag의 미리 정의된 값들에 의해 해당 디스크립터를 식별할 수 있다. descriptor_length 필드는 본 디스크립터의 전체 길이에 대한 정보를 제공한다.
3D_structure 필드는, 3D 프로그램의 비디오 포맷을 나타내며 예를 들어, 표 2와 같이 정의될 수 있다.
Figure pct00002
표 2를 참조하면 예를 들어, 3D_structure 필드 값이 0000이면, 풀 레졸루션 좌 & 우(full resolution Left & Right)를 의미하고, 3D_structure 필드 값이 0001이면, 필드 얼터너티브(field alternative)를 의미하고, 3D_structure 필드 값이 0010이면, 라인 얼터너티브(line alternative)를 의미하고, 3D_structure 필드 값이 0100이면, 좌 영상 플러스 뎁쓰(L+depth)를 의미하고, 3D_structure 필드 값이 0110이면, 탑-앤드-바텀(TaB)를 의미하고, 3D_structure 필드 값이 0111, 프레임 시퀀셜(Frame sequential)를 의미하고, 3D_structure 필드 값이 1000이면, 사이드-바이-사이드(SbS)를 의미하는 것으로 정의할 수 있다. 다만, 상기 표 2에서 도시된 필드 값과 의미는 일 예로서, 상기한 값과 의미에 한정되는 것은 아니다.
3D_metadata_location_flag 필드의 값이 ‘01’인 경우에 3D 서비스 디스크립터 내에 3D_metadata_type, 3D_metadata_length, 3D_metadata 필드 등이 추가로 존재한다. ’00’인 경우에는 해당 데이터를 전송하지 않으며, ’10’인 경우에는 3D_metadata_type, 3D_metadata_length, 3D_metadata 필드 등을 비디오 영역에서 전송한다.
3D_sampling 필드는, 3D 프로그램의 프레임-컴패터블 포맷에 대한 정보를 알려주며 예를 들어, 표 3과 같이 정의될 수 있다.
Figure pct00003
또한, 본 필드 설명은 도 10 내지 12를 참조하여 설명한다. 여기서, 도 10(a), 11(a) 및 12(a)는 홀수 포지션(odd position), 도 10(b), 11(b), 및 12(b)는 짝수 포지션(even position)을 의미한다.
도 10과 11을 참조하면 예를 들어, 3D_sampling 필드 값이 0000-0011인 경우에는 서브-샘플링(sub-sampling)을 의미한다. 더욱 상세하게 설명하면, 3D_sampling 필드 값이 0000인 경우에는 서브-샘플링(sub-sampling)에 관한 것으로 특히, 홀수 레프트(L) 그리고 홀수 라이트(R)를 의미하고, 0001인 경우에는 서브-샘플링(sub-sampling)에 관한 것으로 특히, 홀수 레프트(L) 그리고 짝수 라이트(R)를 의미하고, 0010인 경우에는 서브-샘플링에 관한 것으로 특히 짝수 레프트(L) 그리고 홀수 라이트(R)를 의미하고, 0011인 경우에는 서브-샘플링(sub-sampling)에 관한 것으로 특히 짝수 레프트(L) 그리고 짝수 라이트(R)를 의미한다.
또한, 도 12를 참조하면, 3D_sampling 필드 값이 0100-0111은 퀸퀑쓰 매트릭스(quincunx matrix)를 의미한다. 예를 들어, 3D_sampling 필드 값이 0100인 경우에는 퀸퀑쓰 매트릭스에 관한 것으로 특히, 홀수 레프트(L) 그리고 홀수 라이트(R)를 의미하고, 0101인 경우에는 퀸퀑쓰 매트릭스에 관한 것으로 특히, 홀수 레프트(L) 그리고 짝수 라이트(R)를 의미하고, 0110인 경우에는 퀸퀑쓰 매트릭스에 관한 것으로 특히 짝수 레프트(L) 그리고 홀수 라이트(R)를 의미하고, 0111인 경우에는 퀸퀑쓰 매트릭스에 관한 것으로 특히 짝수 레프트(L) 그리고 짝수 라이트(R)를 의미한다. 또한, 상기에서는 3D 비디오 포맷이 SbS인 경우를 예시하여 설명하나, 동일한 방식으로 TaB로 정의할 수도 있으며, 상기한 예시에 부가적으로 정의될 수도 있다.
3D_orientation 필드는, 3D 프로그램 내의 레프트 및 라이트 뷰 이미지 데이터의 화소 배열 형태를 알려주며 예를 들어, 표 4와 같이 정의될 수 있다.
Figure pct00004
표 4를 참조하면, 3D_orientation 필드 값이 00이면 비디오의 3D 오리엔테이션은 레프트 픽쳐와 라이트 픽쳐가 모두 인버트되지 않고 정상적인(normal) 경우를 의미하고, 01이면 비디오의 3D 오리엔테이션은 라이트 픽쳐만 인버트된 경우를 의미하고, 10이면 비디오의 3D 오리엔테이션은 레프트 픽쳐만 인버트된 경우를 의미하고, 11이면 비디오의 3D 오리엔테이션은 레프트와 라이트 모두 인버트된 경우를 의미할 수 있다.
3D_metadata_type 필드는, 3D_metadata_exist_flag가 ‘1’일 때 유효한 필드이며, 이 필드를 이용해 3D_metadata_length 및 3D_metadata가 표 5와 같이 정의될 수 있다.
Figure pct00005
3D_metadata_type 필드의 값이 000인 경우에는 3D_metadata_length는 4이고 3D_metadata는 4가지 중 적어도 하나를 가질 수 있거나 또는 4가지 모두의 값을 가질 수 있다. 상기 4가지에는 3D_metatdat[0]은 parallax_zero, 3D_metatdat[1]은 parallax_scale, 3D_metatdat[2]는 Dref, 그리고 3D_metatdat[3]은 Wref를 의미한다. 이와 달리, 3D_metadata_type 필드의 값이 001인 경우에는 3D_metadata_length는 역시 4이고 3D_metadata는 4가지 중 적어도 하나를 가질 수 있거나 또는 4가지 모두의 값을 가질 수 있다. 상기 4가지에는 3D_metatdat[0]은 xB, 3D_metatdat[1]은 Zref, 3D_metatdat[2]는 Dref, 그리고 3D_metatdat[3]은 Wref를 의미한다.
이와 관련하여, 표 5에 의한 파라미터들은, 3D 컨텐트를 제작하는 과정에서 의도된 환경 값으로 수신기에서 이들을 이용해 제작자가 의도한 입체감을 재현하는데 사용된다. 각 파라미터는 뎁쓰 맵(Depth map)과 같이 패럴렉스 맵(parallax map)을 전송하는 경우 각 패럴렉스(parallax)를 정확하게 해석하기 위한 데이터이다. 다시 말해, 패럴렉스 맵을 수신하면, 각 값들에 대해 레퍼런스(reference) 값과 현재 시청환경을 고려해 변환된 패럴렉스 값들을 적용해 새로운 시점에 대한 영상을 만들어낸다.
Dref 파라미터는, 3D 컨텐트 제작과정에서 레퍼런스로 정의한 시청자와 화면 사이의 거리이다(단위: cm). Wref 파라미터는, 3D 컨텐트 제작과정에서 레퍼런스로 정의한 화면의 가로 크기이다(단위: cm). Zref 파라미터는, 3D 컨텐트 제작과정에서 레퍼런스로 정의한 뎁쓰(depth) 값이다 (단위: cm). xB 파라미터는, 레퍼런스로 정의한 시청자의 눈 사이의 거리(기준값은 65 mm)이다.
레퍼런스 패럴렉스 Pref를 수학식 1을 이용하여 계산한다 (패럴렉스 맵의 각 값은 N-bit로 표현된다고 가정한다).
Figure pct00006
실제 스크린상에서의 패럴렉스는, 수학식 2와 같이 계산된다 (수식 유도는 ISO23002-3을 참고).
Figure pct00007
수학식 2에서, D와 W는 수신기의 시청자 거리 및 화면의 가로 크기를 의미한다. 3D_metadata_type이 000인 경우에는 xB 파라미터가 전송되지 않으며, 이때에는 65mm라는 값으로 가정하고 계산한다.
도 13은 본 발명에 따른 컴포넌트 디스크립터(component descriptor)의 비트스트림 신택스의 일 예를 도시한 도면이다.
여기서, 도 13의 컴포넌트 디스크립터는 예를 들어, 도 5의 SDT의 디스크립터로 정의됨으로써 해당 서비스의 3D 여부를 판단할 수 있고, 도 8의 EIT의 디스크립터로 정의됨으로써, 해당 이벤트의 3D 여부도 판단할 수 있다.
컴포넌트 디스크립터는 컴포넌트 스트림의 타입을 식별하고, 엘레멘터리 스트림의 텍스트 디스크립션(text description)을 제공하는데 사용될 수 있다.
이하, 도 13을 참조하여, 컴포넌트 디스크립터 의 각 필드에 대해 보다 상세하게 설명하면, 다음과 같다.
descriptor_tag 필드는, descriptor_tag의 미리 정의된 값들에 의해 해당 디스크립터를 식별할 수 있다. descriptor_length 필드는 본 디스크립터의 전체 길이에 대한 정보를 제공한다.
stream_content 필드는 스트림의 타입(비디오, 오디오 또는 EBU-데이터)를 설명할 수 있다. 본 필드의 코딩은 테이블에 설명된다. Component_type 필드는 비디오, 오디오 또는 EBU-data 컴포넌트의 타입을 설명한다.
component_tag 필드는 컴포넌트 스트림을 위한 스트림 식별자 디스크립터(PSI 프로그램 맵 섹션 내 존재한다면) 내의 component_tag 필드와 동일한 값을 가진다.
ISO_639_language_code 필드는 컴포넌트(오디오 또는 EBU-데이터 경우)의 랭귀지(language)를 식별하고, 본 디스크립터 내에 포함되는 텍스트 디스크립션을 식별한다. ISO_639_language_code 필드는 ISO-639-2에 설명되는 3-캐릭터 코드를 포함할 수 있다. 각 캐릭터는 8비트들로 코딩되고 24-비트 필드로 삽입된다. 예를 들어, 프렌치는 3-캐릭터 코드가 “fre”, "0110 0110 0111 0010 0110 0101"로 코딩된다.
Text_char 필드는 컴포넌트 스트림의 텍스트 디스크립션을 설명하는 스트링을 가질 수 있다. 텍스트 정보는 캐릭터 세트들과 방법들을 이용하여 코딩된다.
특히, 도 13의 컴포넌트 디스크립터 내 stream_content 필드와 component_type 필드를 표 6과 같이 정의함으로써, 이미지 디스플레이 장치는 본 컴포넌트 디스크립터를 통해 해당 서비스 또는 이벤트의 3D 서비스 또는 3D 이벤트를 식별할 수 있다.
Figure pct00008
표 6을 참조하면, stream_content가 0x01인 경우에는 MPEG-2 비디오를 나타내고, 이 경우 component_type이 0x11인 경우에는 25Hz의 프레임-컴패터블 3D 비디오임을 지시하고, component_type이 0x12인 경우에는 30Hz의 프레임-컴패터블 3D 비디오임을 지시할 수 있다.
또한, stream_content가 0x05인 경우에는 H.264/AVC SD(standard definition) 비디오를 나타내고, 이 경우 component_type이 0x11인 경우에는 25Hz의 프레임-컴패터블 3D 비디오임을 지시하고, component_type이 0x12인 경우에는 30Hz의 프레임-컴패터블 3D 비디오임을 지시할 수 있다.
또한, stream_content가 0x03이고, component_type이 0x15인 경우에는, 3D 모니터상에 디스플레이를 위한 DVB 서브타이틀즈 (normal)를 지시하고, stream_content가 0x03이고, component_type이 0x25인 경우에는, 3D 모니터상에 디스플레이를 위한 DVB 서브타이틀즈 (for the hard of hearing) 를 지시할 수 있다.
여기서, 트랜슬레이션 서브타이틀링(Translation Subtitling)과 하드-오브-히어링(Hard-of-hearing)을 비교하면, 다음과 같다.
트랜슬레이션 서브타이틀즈는 보통 화이트이고, 화면의 중앙에 위치한다. 히어링 오디언스는 단지 서브타이틀즈 내에 필요한 다이얼로그를 위해 스피커들과 사운드 이펙트들을 식별하는데 이용된다. 하드-오브-히어링은 데프/하드-오브-히어링 오디언스의 엑스트라 니즈를 인식하기 위한 것이다. 결국 노멀(normal)은 다이얼로그 위주이고 하드 오브 히어링은 잘 안 들리는 사람들을 위해 누가 이야기하는지 등 전체적인 상황 정보도 포함한다고 볼 수 있다.
따라서, 이미지 디스플레이 장치는 도 13의 컴포넌트 디스크립터를 파싱하여, stream_content와 component_type 필드 값을 추출하여, 해당 서비스가 3D 서비스인지 식별할 수 있고, 해당 서비스 또는 이벤트의 디코딩 및 출력 가부도 알 수 있다.
도 14는 본 발명에 따른 링키지 디스크립터(linkage descriptor)의 비트스트림 신택스의 일 예를 도시한 도면이고, 도 15는 본 발명에 따라 링키지 디스크립터를 이용하여 대응되는 3D 서비스를 시그널링하는 방법의 일 예를 도시한 도면이다.
이러한 링키지 디스크립터는 예를 들어, SDT 또는 EIT에 포함되고, 이를 통해 이미지 디스플레이 장치는 현재 시청 중인 특정 2D service_id 또는 향후 방송될 특정 2D event_id에 대해 대응되는 3D 서비스 또는 이벤트를 파악할 수 있다.
도 14를 참조하면, 링키지 디스크립터에 포함된 linkage_type이 0x05 (service replacement service)이고 추가로 private_data_byte 영역에서 리플레이스먼트 타입을 3D로 지정할 수도 있다.
또 다른 방법은 EIT로 링키지 디스크립터를 전송하는 경우 linkage_type을 0x0D(event linkage)로 지정하고 EIT를 통해 target_event_id에 대한 3D 서비스 디스크립터 또는 컴포넌트 디스크립터를 이용해 대응되는 3D 서비스의 존재를 파악할 수 있다.
또 다른 방법은 linkage_type을 0x0E의 새로운 값을 지정하고 해당 디스크립션은 “3D 서비스”로 지정하는 방법을 사용할 수 있다.
또 다른 방법은 linkage_type을 0x05 (service replacement service)를 사용하되 타겟 서비스에 대한 service_type은 그 서비스에 대한 SDT, EIT 등을 직접 파싱하여 3D 여부를 파악하는 방법을 사용한다. 이 방법은 3D에 대응되는 2D 서비스를 찾는 방법으로 사용할 수 있다.
링키지 디스크립터는 SI 시스템에 의해 설명되는 특정 개체와 관련된 추가적인 정보를 위한 사용자의 요청이 있으면 서비스를 식별하기 위해 제공된다. 신택스 내 링키지 디스크립터의 위치는 추가적인 정보가 이용 가능한 개체를 지시한다. 예를 들어, NIT 내에 위치하는 링키지 디스크립터는 네트워크상에 추가적인 정보를 제공하는 서비스를 지시하고, BAT 내의 링키지 디스크립터는 부켓(bouquet)와 같은 것에 대한 서비스 정보와 링크를 제공한다.
CA 리플레이스먼트 서비스는 링키지 디스크립터를 이용하여 식별될 수 있다. 이러한 서비스는 만약 CA가 SI 시스템에 의해 설명되는 상기 특정 개체에 대한 액세스를 거부하면 IRD에 의해 자동으로 선택될 수 있다. 서비스 리플레이스먼트 서비스는 링키지 디스크립터를 이용하여 식별될 수 있다. 이러한 서비스 리플레이스먼트 서비스는 현재 서비스의 러닝 상태가 not_running으로 설정될 때 IRD에 의해 자동으로 선택될 수 있다.
이하, 도 14를 참조하여, 링키지 디스크립터의 각 필드에 대해 보다 상세하게 설명하면, 다음과 같다.
transport_stream_id 필드는 지시된 인포메이션 서비스(information service)를 포함하는 TS를 식별한다.
original_network_id 필드는 지시된 인포메이션 서비스의 오리지네이팅 딜리버리 시스템의 network_id를 식별하는 라벨을 줄 수 있다.
service_id 필드는 TS 내에 인포메이션 서비스를 유일하게 식별한다. Service_id는 해당 program_map_section 내 program_number와 동일한 값을 가진다. 만약 linkage_type 필드가 0x04 값을 가지면, service_id 필드는 관련 없고, 0x0000으로 설정된다.
Linkage_type 필드는 정보로 링키지의 타입을 설명한다.
Figure pct00009
여기서, 상기 linkage_type이 0x0D 또는 0x0E를 가지면 상기 디스크립가 EIT 내에 전송될 때에만 유효하다.
mobile_hand-over_info() 필드는 미리 정의된 방식에 따라 코딩된다. event_linkage_info() 필드도 미리 정의된 방식에 따라 코딩된다. extended_event_linkage_info() 필드도 미리 정의된 방식에 따라 코딩된다. private_data_byte 는 8-비트 필드이고, 프라이빗하게 정의된 값을 가진다.
도 15를 참조하면, PAT는 program_number 값과 해당 프로그램의 PMT_PID를 정의한다. 이미지 디스플레이 장치는 PAT로부터 PMT를 추출하여 파싱한다.
여기서, PMT는 2D 서비스인 경우에는 해당 프로그램의 stream_type과 program_number를 지시한다. 예를 들어, stream_type이 0x02인 경우에는 해당 스트림은 오디오 스트림이고, 그때 오디오 ES의 PID는 0x111임을 지시할 수 있다. 또한, program_number가 0xbc인 경우에는 해당 스트림은 비디오 스트림이고, 그때 비디오 ES의 PID는 0x112임을 지시할 수 있다.
다만, PMT는 3D 서비스인 경우에는 전술한 stream_type과 program_number 외에 하나의 program_number를 더 정의한다. 예를 들어, 도 15에서는 program_number가 0xbd인 경우에는 3D 익스텐션(extension)임을 지시할 수 있고, 이 경우 비디오 ES의 PID는 0x113임을 지시할 수 있다. 따라서, 3D 서비스를 지원 가능한 이미지 디스플레이 장치에서는 PMT로부터 하나의 stream_type 값과 두 개의 program_number 값을 추출 및 파싱하여 3D 서비스를 식별 및 처리할 수 있다.
이때, SDT는 service_id를 통해 PMT의 program_number와 매핑시켜 해당 서비스의 시그널링할 수 있다.
이 경우, SDT의 service_id가 2인 경우에는 PMT의 program_number 2와 대응되고, SDT 내 서비스 디스크립터에서 service_type을 0x1B (H.264 HD)로 정의하여 2D 서비스임을 시그널링할 수 있고, 링키지 디스크립터를 통해, service_id 3이고, linkage_type이 0x05인 경우에는 서비스 리플레이스먼트 서비스(service replacement service)이고, private_data() 및 replacement_type(0x02)를 통해 3D를 지시하여 상기 service_id 2에 대응되는 3D 서비스의 존재 및 처리를 시그널링할 수 있다. 유사한 방식으로 service_id 3인 경우에도 서비스 디스크립터에서 service_type을 0x1C로 정의하여 바로 3D 서비스임을 시그널링할 수 있다.
관련하여, replacement_type은 서비스 사이의 관계가 표 8과 같이 정의하여, HD 시뮬캐스트(simulcast)인지 아니면 3D인지를 식별할 수 있다.
Figure pct00010
도 16은 본 발명에 따라 3D 시그널링 정보를 이용하여 스테레오스코픽 비디오 신호를 출력하는 일 예를 설명하기 위해 도시한 순서도이다.
역다중화부(230)는 수신되는 디지털 방송 신호로부터 SDT 섹션들을 필터링하여 파싱한다. 여기서, 전술한 바와 같이, 역다중화부는 PID 필터링을 통해 SDT 섹션들을 필터링하는데 이때, PID는 예를 들어, 0x0011로 설정하여, 해당 PID를 가진 TS 패킷을 필터링하여 table_id=0x42인 섹션 데이터를 파싱할 수 있다(S1602).
시그널링 정보 처리부(240)는 파싱된 SDT 내의 서비스 루프에서 서비스 디디스크립터 중 레거시 서비스 타입을 갖는 서비스에 대한 정보를 획득 및 저장한다. 즉, 시그널링 정보 처리부는 2D 서비스에 대한 PMT 정보를 획득 및 저장한다(S1604).
시그널링 정보 처리부(240)는 파싱된 SDT 내의 서비스 루프에서 3D 서비스 타입을 갖는 서비스에 대한 정보 획득 및 저장한다. 즉, 시그널링 정보 처리부는 3D 서비스에 대한 PMT 정보를 획득 및 저장한다(S1606).
시그널링 정보 처리부(240)는 시그널링 정보로부터 링키지 디스크립터를 파싱하고, 파싱된 링키지 디스크립터의 정보를 이용하여 연결되는 레거시 3D 서비스 아이디(3D service id) 정보를 파악한다(S1608).
시그널링 정보 처리부(240)는 3D PMT 정보를 이용해 익스텐디드 뷰(Extended View) 스트림에 대한 PID 정보를 파악한다(S1610).
디지털 수신기는 시청 모드를 설정받는다(S1612).
이하 시청 모드에 따라 두 갈래로 나뉘는데, 먼저 3D 시청 모드 설정의 경우에 대해 설명하면, 다음과 같다.
디지털 수신기는 3D 스테레오스코픽 비디오(frame-compatible stereoscopic 3D)를 제공하는 service_id 선택한다(S1614). 이때, 상기 service_id의 service_type은 예를 들어, 프레임-컴패터블 3DTV일 수 있다.
디지털 수신기는 기본 A/V 스트림에 대한 PID 필터링 및 비디오/오디오 ES 디코딩한다(S1616).
제어부(270)는 3D 서비스 디스크립터 정보를 이용해 3D 이미지 포매터에서 디코딩한 3D 스테레오스코픽 비디오 출력되도록 제어한다(S1618).
3D 이미지 포매터를 거친 3D 비디오를 출력부를 통해 화면상에 출력한다(S1620).
다음으로 2D 시청 모드 설정의 경우에 대해 설명하면, 다음과 같다.
디지털 수신기는 2D 비디오(base view video)를 제공하는 service_id 선택한다(S1622). 상기 service_id를 가진 채널은 예를 들어, 레거시 채널이다.
제어부(270)는 역다중화 및 디코더를 제어하여 기본 A/V 스트림에 대한 PID 필터링 및 비디오/오디오 ES 디코딩(Base View Video Decoder) 한다(S1624).
제어부(270)는 디코딩된 2D 비디오를 출력부를 통해 출력한다(1626).
도 17은 본 발명에 따라 구성한 UI의 일 예를 도시한 도면이다.
도 17(a), 17(b) 그리고 17(c)의 경우에는 사용자가 EPG를 통하는 것이 아니라 직접 채널을 업/다운 제어하여 채널 서치 과정에서 서치된 채널이 3D 서비스를 제공하고 있는 경우에 이를 2D 서비스를 제공하는 채널과 구분하기 위하여 구성한 UI 또는 OSD 화면이다. 다만, 이 경우에도 수신기는 해당 채널이 3D 서비스를 제공하는지 알 수 있다. 예를 들어, 전술한 도 4의 서비스 리스트 디스크립터, 도 6의 서비스 디스크립터, 도 9의 3D 서비스 디스크립터, 또는 도 13의 컴포넌트 디스크립터로부터 미리 해당 채널의 3D 서비스 제공 여부를 판단할 수 있다.
이는 시청자가 직접 채널을 서치하는 과정에서 전술한 경우와 달리 사전에 해당 채널에 대한 정보를 얻을 수 없으므로 해당 채널이 현재 3D 서비스를 제공하고 있다는 것을 표시하기 위함이다.
도 17(a)의 경우에는, 채널 서치 과정에서 나타나는 채널 배너 상에 본 발명에 따라 구성된 3D 인디케이터를 포함하여 구성한 UI가 도시되었다.
도 17(b)의 경우에는, 접근된 채널이 3D 서비스를 제공하고 있음을 알리기 위해 구성한 OSD 화면의 일 예이다.
도 17(c)의 경우에는, 접근된 채널이 3D 서비스를 제공하고 있음을 알리기 위해 해당 서비스의 타이틀과 함께 3D 인디케이터를 표시하여 구성한 OSD 화면의 다른 예이다.
도 17(b)와 17(c)의 경우에는 시청자가 사전 정보 없이 채널을 직접 서치하는 경우에 접근된 특정 채널이 현재 3D 서비스를 제공하는 경우에 적절한 시청 모드로 해당 채널을 시청할 수 있도록 채널 전환 과정에서 미리 OSD 화면에 3D 서비스임을 표시하여 제공하는 내용이다. 따라서, 시청자는 이러한 OSD 화면을 통하여 적절하게 채널을 건너뛰거나 또는 시청 모드를 변경하여 채널에서 제공하는 3D 서비스를 시청할 수 있게 된다.
다음은 EPG 화면에 관한 것이다.
도 18, 19 및 20은 본 발명에 따른 EPG 화면의 실시 예들을 도시한 것이다. 또한, 다른 실시 예들과 구성들도 모두 본 발명의 범위에 속한다.
도 18 내지 20은 예를 들어, 전술한 각 테이블 섹션 또는 각 디스크립터에 포함된 3D 서비스/이벤트 관련 데이터들을 미리 파싱하고 추출하여 수신기에서 추출된 3D 서비스/이벤트 관련 데이터들을 조합하여 구성한 것이다.
도 18의 EPG 화면(1800)은 현재 채널을 표시하는 제1 항목(1805), 해당 채널에서의 시간대별 컨텐츠 리스트가 도시되는 제2 항목(1810), 제2 항목(1810)의 선택된 특정 프로그램에 대한 미리보기 이미지가 디스플레이되는 제3 항목(1820), 상기 제3 항목에서 디스플레이되는 미리보기 이미지와 관련된 부가정보가 포함되는 제4 항목(1830) 및 기타 메뉴 사항이 디스플레이되는 제5 항목(1840)을 포함하여 구성된다.
도 18에서는 본 발명에 따라 다양한 방식으로 3D 인디케이터를 포함한 EPG 화면(1800)을 예시하고 있다.
제2 항목(1810)의 컨텐츠 리스트 상에는 3D 인디케이터를 표시하지 않고, 제3 항목(1220)의 미리보기 이미지상에 3D 인디케이터를 표시하는 방식이다. 도 11을 참조하면 제2 항목(1810)의 컨텐츠 리스트 상에 선택된 컨텐츠(1811) 상에는 3D 인디케이터가 없고, 제3 항목(1820)의 미리보기 이미지 상에만 3D 인디케이터(1825)가 있다.
제3 항목(1820)의 미리보기 이미지상에는 3D 인디케이터를 표시하지 않고 제2 항목(1810)의 컨텐츠 리스트 상에만 3D 인디케이터를 표시하는 방식이다. 도 18을 참조하면, 제2 항목의 컨텐츠 리스트 중 두 개의 컨텐츠 상에 3D 인디케이터(1813, 1815)가 표시되고 있다.
상기 두 방식을 혼용하는 것이다.
상기에서, 3D 인디케이터는 2D 또는 3D로 구현될 수 있으며, 상기 인디케이터와 함께 또는 별개로 EPG 화면상에서 색깔이나 깊이 정보(depth information)를 이용하여 해당 컨텐츠가 3D 컨텐츠임을 표시할 수도 있다.
도 19는 예를 들어, 도 18의 EPG 화면으로부터 선택된 특정 컨텐츠에 대한 상세 정보를 도시한 가이드 화면(1900)이다.
도 19의 가이드 화면(1900)은 현재 채널 및 현재 시각 정보를 표시하는 제1 항목(1910), 컨텐츠 타이틀 및 해당 컨텐츠에 대한 시간 정보를 포함하는 제2 항목(1920), 미리보기 이미지가 디스플레이되는 제3 항목(1930) 및 해당 컨텐츠에 대한 상세 정보가 디스플레이되는 제4 항목(1940)을 포함하여 구성된다.
해당 컨텐츠가 3D 컨텐츠이면, 영상 신호 처리 장치는 도 13에 도시된 바와 같이 EPG 화면의 제2 항목(1920) 상에 3D 인디케이터(1925)를 표시하거나 또는 제3 항목(1930) 상에 3D 인디케이터(1935)를 표시하거나 또는 상기 제2 항목(1920)과 제3 항목(1930)에 모두 3D 인디케이터를 표시할 수 있다. 이 경우 역시 3D 인디케이터는 2D 또는 3D 포맷으로 구성될 수 있다.
도 20의 EPG 화면(2000)은 도 18의 EPG 화면(1800)과 달리 설정에 따라 3D 컨텐츠만 표시된 EPG 화면을 예시한 것이다.
도 18과 20을 참조하면, 도 20의 EPG 화면에서는 도 12의 EPG 화면에서 3D 인디케이터(1811,1813,1815)가 표시된 컨텐츠만 표시되고 나머지는 2D 컨텐츠로 표시하지 않았다.
도 20에서는 EPG 화면상에서 구성하였으나 이와 달리 3D 컨텐츠를 EPG 화면이 아닌 다른 방식으로 표현할 수도 있을 것이다.
도 21과 22는 본 발명에 따른 EPG 화면의 또 다른 예를 도시한 도면이다.
이미지 처리 장치는 예를 들어, 전술한 도 14 및 15의 링키지 디스크립터를 이용하여 각 서비스에 대한 대응되는 2D/3D 서비스의 존재 여부를 파악할 수 있다. 따라서, 이미지 처리 장치는 서로 대응되는 2D와 3D 서비스가 존재하면, 서비스 패어(service pair)를 파악하고, 이렇게 파악된 서비스 패어는 서비스 목록을 제공할 때, 도 21 또는 22와 같이 같은 EPG 화면을 제공할 수 있다.
이 경우, 이미지 처리 장치는 사용자의 설정에 따르거나 또는 자동으로 하나의 서비스에 대하여 서비스 패어도 함께 다운로드 받을 수 있다. 만약 이미지 처리 장치에서 서비스 패어도 함께 다운로드 받은 경우에는, 사용자가 저장된 서비스 또는 컨텐트를 재생하는 과정에서 2D/3D 전환 버튼을 누르면 대응되는 컨텐트로 스위칭하여 재생함으로써 사용자에게 편의를 제공할 수 있다.
수신기는 사용자 선택 또는 자동으로 서비스 또는 컨텐트 패어를 모두 수신할 수 있도록 다운로드(download) 예약을 할 수 있다. 이 경우 해당 컨텐트가 방송되는 시점에서는 예약 녹화된 컨텐트에 대응되는 service_id를 찾아 모두 수신하여 저장한다. 수신기는 파싱된 EIT로부터 각 컨텐트에 대한 service_id 값을 이용할 수 있다. 따라서, 사용자가 저장된 컨텐트를 재생할 때, 2D/3D 전환 버튼을 누르면 해당되는 컨텐트로 스위칭(switching)하여 재생함으로써 사용자에게 편의를 제공할 수 있다.
도 23은 본 발명에 따라 3D 버전 존재 여부를 알려주는 UI의 일 예를 도시한 도면이고, 도 24는 본 발명에 따른 EPG의 또 다른 예를 도시한 도면, 그리고 도 25는 도 24의 상세 UI 예시를 도시한 도면이다.
도 23을 참조하면, 수신기는 상술한 수신기의 시그널링 정보에 기초하여, 기존 방송 화면 시청 중에 EIT를 통해 저장된 2D 컨텐트에 대한 대응되는 컨텐트 즉, 3D 버전이 존재하면 예를 들어, 도 23에 도시된 바와 같이, 그러한 정보를 알려주기 위해 텍스트 바(text bar)가 스크롤(scroll)되도록 할 수 있다. 다만, 반드시 도 23에 도시된 바에 한정되는 것은 아니고, 별도의 UI를 구성하여 OSD(On-Screen Display) 화면으로 3D 버전 존재 여부와 관련된 제어 동작을 선택 및 설정할 수 있도록 할 수 있다.
도 24는 SDT 또는 EIT 중 적어도 어느 하나를 파싱하여 얻은 EPG의 화면으로 예를 들어, 도 23에서 사용자가 RED와 같은 특정 버튼(RED와 같은)을 누른 경우에도 동일한 EPG가 제공될 수 있다. 도 24를 참조하면, 사용자의 요청에 따라 제공되는 EPG에서는 각 컨텐트에 대해 해당 컨텐트가 2D 또는 3D 여부를 식별할 수 있는 인디케이터를 제공한다. 특히 본 발명과 관련하여, 특정 컨텐트에 대해 대응되는 컨텐트 예를 들어, 12시에 SBS에서 2D 버전의 '아내가 돌아왔다 22회' NRT 컨텐트를 제공한다는 정보와 함께 상기 컨텐트에 대응되는 3D 버전의 '아내가 돌아왔다 22회'가 SBS에서 15:30분부터 제공됨을 알 수 있다. 이 경우, 상기 3D 버전의 컨텐트는 반드시 동일한 에피소드의 컨텐트에 한정되지 않고 예를 들어, 다른 에피소드(21회, 23회, 스페셜 등)에 대한 컨텐트일 수도 있다. 또한, 도 24에서는 동일한 채널에서만 특정 컨텐트와 대응되는 컨텐트에 대한 정보 제공을 예시하였으나, 반드시 이에 한정되는 것은 아니며, 다른 채널에 대한 정보도 제공할 수 있을 뿐만 아니라 서로 다른 매체에서 대응되는 컨텐트에 대한 정보를 제공할 수도 있다.
도 25은 도 24에서 예시된 태조왕건 30회(3D) 컨텐트에 대해 사용자가 선택한 경우에 그에 대한 상세한 정보 및 관련 처리를 설명한다. 예를 들어, 도 25에서는 선택된 컨텐트는 기녹화된 2D의 '태조왕건 30회'의 3D 버전임을 알리는 내용과 함께 녹화 예약 기능, 뒤로 가기 기능 등을 제공한다. 이 경우 수신기는 도시되진 않았으나, SDT 또는 EIT로부터 얻은 시그널링 정보를 이용하여 해당 컨텐트의 보다 상세한 정보 예를 들어, 줄거리 정보, 관련 에피소드 정보, 방송 시작 시각 정보, 방송 종료 시각 정보, 썸네일 정보(thumbnail information) 등 다양한 정보를 함께 제공할 수도 있다.
비디오 포맷 트랜지션들은 상술한 컨텐트를 참조하기 위해 다음에서 설명된다.
프레임 컴패터블 스테레오 스코픽 3DTV 서비스는 프레임 컴패터블 스테레오 스코픽 비디오 포맷들 2개 중에서 비디오 포맷을 전환할 수 있다. 또는, 프레임 컴패터블 스테레오스코픽 비디오 포맷들 중 하나로부터 또는 HDTV 비디오 포맷 (즉, 넌-프레임 컴패터블 스테레에스코픽 3DTV 비디오 포맷)들로부터 전환될 수 있다. 사이드-바이-사이드와 탑-앤드-바텀 프레임 패킹 어레인지먼트들 사이에서 포맷 전환은 언라이클리(unlikely)하게 적용될 수 있다 그러나 그러한 트랜지션(transition)이 금지되는 것은 아니다.
비디오 포맷 전환은, IDR(Instantaneous Decoding Refresh) 비디오 프레임을 가진 RAP(Random Access Point)에서 단지 적용될 수 있다. 비디오 스트림 내 픽쳐들의 발생과 TS 내 PMT의 발생 사이에 타이트한 동기화의 부족 때문에, 만약 비디오 포맷이 러닝 프레임 컴패터블 스테레오스코픽 3DTV 서비스 중에 전환되면, 짧은 기간동안 불일치가 일어날 수 있다. HDTV(즉, 넌-3DTV) 비디오 포맷 컨텐트의 운송은 일반적으로 프레임 패킹 어레인지먼트 SEI(Supplemental Enhancement Information) 메시지가 적용되지 않음을 의미한다. 그러나, 그러한 포맷 전환을 출력하는 IRD는 PMT의 이전 발생에서 포함된 정보를 가진 일시적인 불일치 때문에 정확하게 트랜지션을 핸들하지 못한다. 이것은 1080i 25Hz 사이드-바이-사이드 프레임 컴패터블 스테레오스코픽 3DTV 비디오를 1080i 25Hz HDTV 비디오로 비디오 포맷 전환하는 것을 예시할 수 있다.
이러한 예시로, 비디오 포맷 전환 이후에 프레임 패킹 어레인지먼트 SEI 메시지 전달되는 정보와 비디오 포맷 전환 이전에 PMT의 가장 마지막 발생시에 전송되는 정보 사이에 불일치가 있다. 이러한 불일치는 IRD가 불일치 기간 동안에 부정확한 비디오 포맷에 가정하게 되는 원인이 된다. 왜냐하면, 상술한 바와 같이, 코딩된 비디오 픽쳐들과 PMT 사이에 타이트 동기화 부족 때문에 그 불일치 기간을 정확하게 알 수 없기 때문이다.
포맷 트랜지션 어시스턴스 시그널링은 IRD 내에 디코딩 프로세스의 로부스트니(robustness)스의 확실을 인에이블하도록 정의된다. 이러한 포맷 트랜지션 어시스턴스 시그널링은 프레임 컴패터블 스테레오스코픽 3DTV 서비스가 넌-3DTV 비디오 포맷 내에 컨텐트의 피리어들을 포함할 때 적용되는 것을 추천한다.
포맷 트랜지션 어시스턴스 시그널링은 HDTV 포맷 비디오 컨텐트를 포함하는 비디오 스트림 내 프레임 패킹 어렌지먼트 SEI 메시지들의 포함으로 구성된다. 이때, 상기 비디오 스트림은 frame_packing_arrangement_cancel_flag를 1로 설정하여 확실하게 프레임 컴패터블 스테레오스코픽 3DTV 비디오 포맷이 현재 전송되지 않고 있다는 것을 시그널링 한다.
IRD 내 디코딩 프로세스의 로부스트니스를 최대화하기 위하여, 프레임 컴패터블 스테레오스코픽 3DTV 서비스에 적어도 HDTV 비디오 포맷과 프레임 컴패터블 스테레오스코픽 3DTV 비디오 포맷 사이에 포맷 전환 이전과 이후 2초 정도의 기간 동안 HDTV 포맷이 전송되는 동안에는 프레임 패킹 어레인지먼트 SEI 메시지가 적용되는 것을 추천한다.
HDTV 비디오 포맷으로부터 또는 비디오 포맷 트랜지션이 발생할 때, 프레임 컴패터블 스테레오스코픽 3DTV 비디오 포맷에서 HDTV 비디오 포맷 또는 HDTV 비디오 포맷에서 프레임 컴패터블 스테레오스코픽 3DTV 비디오 포맷으로 포맷 전환이 일어난 후 적어도 2초 동안의 기간에는 프레임 패킷 어레인지먼트 SEI 메시지 내 frame_packing_arrangement_cancel_flag는, 넌-3DTV 비디오 포맷이 전송되고 있음을 알리도록 1로 설정되어야 한다.
1로 설정된 frame_packing_arrangement_cancel_flag를 가진 프레임 패킹 어레인지먼트 SEI 메시지의 운송은, 서비스 제공자의 인식이 있을 때, HDTV 비디오 포맷 컨텐트 동안에 유지되어야 한다.
프레임 컴패터블 스테레오스코픽 3DTV 서비스 내 비디오 포맷 트랜지션의 IRD에 의해 핸들링되는 로부스트니스의 증가를 위하여, IRD는 다른 서비스에서 프레임 컴패터블 스테레오스코픽 3DTV 서비스로 홉(hop)한다. 동일한 상황에서, 그 운송을 중단하는 것보다 동일한 시그널링을 적용하도록 유지하는 것이 훨씬 편리할 수 있다.
어떤 경우에, 프레임 패킹 어렌인지먼트 SEI 메시지 시그널링은 전송되는 비디오 포맷으로 일관될 수 있고, 비디오 포맷과 관련된 다른 시그널링을 통해서 예측될 수도 있다. 상술한 PMT에 따른 일시적인 불일치가 발생하면, 상술한 바와 같이, 포맷 트랜지션 어시스턴스 시그널링의 적용에 의해 경감될 수 있다.
전술한 바와 같이, 상기 발명의 실시를 위한 최선의 형태에서, 관련된 사항을 기술하였다.
이상 상술한 본 발명에 따르면, 3DTV에서 스테레오스코픽 비디오 방송 서비스에 대한 시그널링 정보를 처리하기 위한 방법 및 구현에 대한 방안을 제시한다. 특히, 해당 시그널링 정보를 이용해 방송 서비스를 수신하는 방법 및 스테레오스코픽 디스플레이 출력을 제어하기 위한 3D TV의 동작 및 구현 방법을 제안한다.
아울러 본 발명을 이용해 3DTV 및 2D 레거시 전술한 바와 같이, 본 발명은 디지털 방송 시스템에 전체적으로 또는 부분적으로 적용될 수 있다. 레거시 TV 서비스를 별도의 독립적이고 분리된 로지컬 채널(virtual channel)을 통해 구분하여 수신할 수 있으므로 사용자는 채널 변경을 통해 2D에서 3DTV 서비스 전환을 수행할 수 있는 효과가 있다.
즉, DTV 방송 환경에서 2D와 3D 서비스가 혼합된 상황에서 수신기는 명확하게 두 서비스의 대응 관계를 파악하여 2D 및 대응하는 3D 서비스의 존재 여부를 알 수 있으며 사용자가 서비스 전환을 요구할 때 대응이 가능하다.
전술한 바와 같이, 본 발명은 디지털 방송 시스템에 전체적으로 또는 부분적으로 적용될 수 있다.
이제, 본 발명의 바람직한 실시예들을 상세히 참조하기로 하며, 이들의 예들이 첨부 도면에 도시된다. 가능한 경우, 도면 전반을 통해서 동일한 도면부호들은 동일 혹은 유사한 구성요소를 나타낸다.
비록 본 발명에 사용되는 용어들은 일반적으로 알려지고 사용되는 용어들로 선택되지만은 본 발명의 명세서에 언급되는 이들 용어들 중 일부는 습관에 따라 또는 새로운 기술들의 출현으로 인해 통상의 지식을 가진자에 의해 변경될 수 있다. 또한, 어떤 경우들에서, 본 발명의 상세한 설명에 언급된 용어들 중 일부는 출원인재량으로 선택되었으며, 이들 경우에서 상세한 의미들은 본 발명의 상세한 설명의 관련 부분들에서 기술되며, 이들은 여기서 사용하는 용어들의 단지 명칭에 의해서가 아닌 본 발명의 상세한 설명 내에서 및 전체적인 내용에 근거한 각 용어의 실제 의미로서 이해되어야 할 것이다.
3D 영상 표현 방법들은 2개의 퍼스펙티브(즉, 관점)을 고려하는 입체 영상(stereoscopic image) 방법과 3개 이상의 퍼스펙티브(즉, 관점)을 고려하는 멀티시각 영상 방법을 포함할 수 있다. 이와는 반대로, 관련 기술의 단일 시각 영상은 모노 영상(monoscopic image) 방법으로 지칭될 수 있다.
입체 영상 방법은 소정거리로 서로 이격되어 있는 좌측 카메라 및 우측 카메라로 동일 대상을 촬영함으로써 획득된 좌/우 영상의 쌍을 이용한다. 멀티 시각 영상은 소정거리로 서로로부터 이격되며 서로 다른 각도로 배치된 적어도 3개의 서로 다른 카메라로 촬영함으로써 획득된 적어도 3개의 영상 세트를 사용한다. 이후에서, 본 발명의 실시예에 따른 입체 영상 방법이 설명되지만은 본 발명의 사상은 멀티 시각 영상 방법에도 적용될 수 있다. 또한, 이후에서, 용어 입체(stereoscopic)는 입체(stereo)로 단축하여 지칭될 수도 있다.
상기 입체 영상 또는 멀티 시각 영상은 MPEG (Moving Picture Experts Group) 포맷으로 혹은 다양한 방법을 이용함으로써 압축 인코딩되며, 그럼으로써 전송된다.
예컨대, 입체 영상 혹은 멀티 시각 영상이 H.264/AVC (Advanced Video Coding) 방법을 이용하여 압축-인코딩되며, 그럼으로써 전송된다. 이때, 상기 수신 시스템은 H.264/AVC 방법과는 반대 프로세스로서 상기 수신된 영상에 대해 디코딩 프로세스를 수행하며, 그럼으로써 3D 영상을 획득한다.
더욱이, 입체 영상의 좌측 시각 영상 또는 우측 시각 영상 중 어느 한 영상, 혹은 멀티 시각 영상 중 임의의 하나의 영상이 베이스 계층 영상으로서 배정될 수 있고, 나머지 영상은 인헨스먼트 계층 영상으로서 배정될 수 있다. 이 후, 상기 베이스 계층 영상은 모노 영상을 인코딩하기 위해 이용되는 것과 동일한 방법을 이용함으로써 인코딩될 수 있다. 그리고, 상기 인헨스먼트 계층 영상에서, 상기 베이스 계층 영상과 상기 인헨스먼트 계층 양상 간의 관련 정보만이 인코딩된다. 이후, 상기 프로세싱된 영상들이 전송된다.
베이스 계층에 대한 압축-인코딩 방법들의 예들에는 JPEG, MPEG-1, MPEG-2, MPEG-4, 및 H.264/AVC가 포함된다. 그리고, 본 발명의 이 실시예에서는 H.264/AVC 방법이 채택되었다. 더욱이, 본 발명의 실시예에 따르면, 인헨스먼트 계층 영상의 압축-인코딩 프로세스를 위해 H.264/SVC (Scalable Video Coding) 또는 MVC (Multi-view Video Coding) 방법이 채택되었다.
지상파(즉, 지상) DTV 전송 및 수신은 2D 비디오 콘텐츠에 기초한다. 따라서, 3D TV 방송 콘텐츠를 서비스하기 위해서는 3D TV 방송 콘텐츠를 위한 전송 및 수신 표준이 추가적으로 정의되어야만 한다. 수신기가 상기 추가된 전송 및 수신 표준에 따라 방송 신호를 수신하여 상기 수신된 신호를 충분히 프로세싱하고 그럼으로써 3D 방송 서비스를 지원한다.
본 발명의 상세한 설명에서, 본 발명의 실시예에 따른 종래의 DTV 전송 및 수신 표준을 설명하기 위해 ATSC(Advanced Television Systems Committee) 표준이 사용될 것이다.
상기 ATSC 시스템의 경우에, 방송 콘텐츠를 프로세싱하기 위한 정보가 상기 시스템 정보에 포함되며, 그럼으로써 전송된다.
시스템 정보는, 예를 들어, 서비스 정보로서 지칭될 수 있다. 여기서, 예를 들어, 이 시스템 정보는 채널 정보, 프로그램 정보, 이벤트 정보 등을 포함할 수 있다. ATSC 표준 방법의 경우에, 이 시스템 정보는 PSI/PSIP(Program Specific Information/Program and System Information Protocol) 내에 포함됨으로써 전송 및 수신될 수 있다. 그러나, 본 발명이 이 예로만 한정되는 것은 아니다. 그리고, 시스템 정보를 테이블 포맷(table format)으로 전송하는 프로토콜의 경우에, 이 프로토콜은 그 용어(즉, 명칭)에 상관없이 본 발명에 적용될 수 있다.
본 발명의 실시예에 따르면, PSI 테이블은 PAT(Program Association Table), 및 PMT(Program Map Table)을 포함할 수 있다.
PAT는 PID가 '0'인 데이터 패킷에 의해 전송되는 특수 정보에 대응한다. PAT는 각각의 프로그램에 대해 대응하는 PMT의 PID 정보를 전송할 수 있다. PMT는 전송 스트림(Transport Stream, TS) 패킷의 PID 정보를 전송하고(여기에서는 프로그램 식별 번호들과 그 대응하는 프로그램을 구성하는 비디오와 오디오 데이터의 개별 비트 시퀀스들이 전송됨), 그리고 또한, PCR이 전송되는 PID 정보도 전송한다. 그 다음에, PAT로부터 획득된 PMT를 파싱(parsing)함으로써, 그 대응하는 프로그램을 구성하는 요소들 간의 상관 정보가 또한 획득될 수 있다.
본 발명의 실시예에 따르면, PSIP 테이블은, VCT(Virtual Channel Table), STT(System Time Table), RRT(Rating Region Table), ETT(Extended Text Table), DCCT(Direct Channel Change Table), DDCSCT(Direct Channel Change Selection Code Table), EIT(Event Information Table), 및 MGT(Master Guide Table)를 포함할 수 있다.
VCT는, 가상 채널들에 관한 정보(예를 들어, 채널들을 선택하기 위한 채널 정보와 같은 것) 및 오디오 및/또는 비디오 데이터를 수신하기 위한 PID(Packet Identifier)들과 같은 정보를 전송할 수 있다. 더 구체적으로, VCT가 파싱될 때, 채널 명칭 및 채널 번호와 함께 채널을 통해 전송되는, 방송 프로그램(broadcast program)의 오디오/비디오 데이터의 PID가 획득될 수 있다. STT는 현재 데이터에 관한 정보 및 타이밍 정보(timing information)를 전송할 수 있고, RRT는 지역(region)에 관한 정보 및 프로그램 등급(ratings)을 위한 협의 기관(consultation organs)에 관한 정보를 전송할 수 있다. ETT는 특정 채널 및 방송 프로그램의 추가적인 설명을 전송할 수 있고, 그리고 EIT는 가상 채널 이벤트들에 관한 정보를 전송할 수 있다. DCCT/DCCSCT는 자동(혹은 직접) 채널 변경과 관련된 정보를 전송할 수 있고, 그리고 MGT는 PSIP 내의 각각의 테이블의 버전(version) 및 PID 정보를 전송할 수 있다.
입체 영상의 전송 포맷은 단일 비디오 스트림 포맷 및 다중-비디오 스트림 포맷(multi-video stream format)을 포함한다. 단일 비디오 스트림 포맷은, 2개의 퍼스펙티브들의 비디오 데이터를 단일 비디오 스트림으로 멀티플렉싱(multiplexing)하여 이 단일 비디오 스트림을 전송하는 방법에 대응한다. 여기서, 비디오 데이터는 하나의 비디오 스트림으로 전송되기 때문에, 단일 비디오 스트림 포맷은, 3D 방송 서비스를 제공하기 위해 추가적으로 요구되는 대역폭이 넓어지지 않는다는 점에서 장점이 있다. 다중-비디오 스트림 포맷은 다중 비디오 데이터를 다중 비디오 스트림으로 전송하는 방법에 대응한다. 여기서, 비록 대역폭의 사용이 증가하지만, 고용량의 데이터가 전송될 수 있기 때문에, 다중-비디오 스트림 포맷은, 고화질 비디오 데이터(high picture quality video data)가 디스플레이될 수 있다는 점에서 장점이 있다.
도 26은 본 발명의 실시예에 따른, 다양한 영상 포맷들의 입체 영상 멀티플렉싱 포맷을 나타낸다.
3D 방송 서비스의 영상 포맷들은, (a)에 보인 사이드-바이-사이드 포맷(side-by-side format), (b)에 보인 탑-바텀 포맷(top-bottom format), (c)에 보인 인터레이스드 포맷(interlaced format), (d)에 보인 프레임 순차 포맷(frame sequential format), (e)에 보인 체커 보드 포맷(checker board format), 및 (f)에 보인 애너글리프 포맷(anaglyph format)을 포함한다.
(a)에 보인 사이드-바이-사이드 포맷은, 좌측 영상과 우측 영상이 수평 방향으로 1/2 다운-샘플링(down-sampling)된 포맷에 대응한다. 여기서 샘플링된 영상들 중 하나는 좌측에 위치하고 다른 샘플링된 영상은 우측에 위치하여 단일 입체 영상을 생성하게 된다. (b)에 보인 탑-바텀 포맷은, 좌측 영상과 우측 영상이 수직 방향으로 1/2 다운-샘플링된 포맷에 대응한다. 여기서, 샘플링된 영상들 중 하나는 상측에 위치하고 다른 샘플링된 영상은 하측에 위치하여 단일 입체 영상을 생성하게 된다. (c)에 보인 인터레이스드 포맷은, 좌측 영상과 우측 영상이 수평 방향으로 1/2 다운-샘플링되어 2개의 영상들이 한 라인씩 번갈아 나올 수 있게 되며 이에 따라 단일 입체 영상을 생성하게 되는 포맷에 대응하거나, 혹은 좌측 영상과 우측 영상이 수직 방향으로 1/2 다운-샘플링되어 2개의 영상들이 한 줄씩 번갈아 나올 수 있게 되며 이에 따라 단일 입체 영상을 생성하게 되는 포맷에 대응한다. (d)에 보인 프레임 순차 포맷은, 좌측 영상과 우측 영상이 시간적으로(temporally) 번갈아 나와 단일 비디오 스트림으로 구성되는 포맷에 대응한다. (e)에 보인 체커 보드 포맷은, 좌측 영상과 우측 영상이 1/2 다운-샘플링되어 좌측 영상과 우측 영상이 수평 방향과 수직 방향 각각에서 번갈아 나올 수 있게 되며 이에 따라 두 개의 영상들을 단일 영상으로 구성하게 되는 포맷에 대응한다. (f)에 보인 애너글리프 포맷(anaglyph format)은, 보색 대비(complementary color contrast)를 이용함으로써 영상이 입체감을 제공할 수 있도록 영상을 구성하는 포맷에 대응한다.
현재 디지털 방송은 한정된 시스템 리소스(limited system resource)들을 사용함으로써 방송 서비스를 제공한다. 디지털 방송 환경의 시스템 리소스들은, 전송 대역폭, 프로세싱 능력 등을 포함한다. 특히, 주파수의 배정(즉, 할당)에서 사용될 수 있는 대역폭은 한정되어 있다. 이 디지털 방송 환경에서, 3D 방송 서비스가 제공되는 경우, 대응하는 3D 방송 서비스도 또한 디지털 방송 환경에서 사용되는 한정된 리소스들을 사용할 것이다.
본 발명의 실시예에 따르면, 입체 영상 기법(stereoscopic image scheme)을 사용하는 3D 방송 서비스의 경우에, 좌측-시각 영상(left-view image)과 우측-시각 영상(right-view image)이 전송돼야만 한다. 따라서, 종래의 디지털 방송의 대역폭을 사용하여 고해상도로 두 개의 영상들을 전송하는 것은 어렵다. 예를 들어, 디지털 방송의 대역폭을 사용하여 풀-해상도 비디오 데이터를 전송하는 경우, 동일 대역폭을 사용하여 2-세트의 풀-해상도 비디오 데이터를 전송하는 것은 어렵다. 따라서, 2-세트의 하프-해상도 비디오 데이터를 전송하는 방법이 제안되고 있다.
그럼에도 불구하고, 고화질에 대한 사용자의 요구를 충족시키기 위해 풀-해상도 3D 방송 서비스의 제공이 요구된다. 그러나, 풀-해상도 3D 방송 서비스가 제공되고 있는 경우에도, 풀-해상도 3D 방송 서비스는 종래의 하프-해상도 3D 방송 서비스와 호환가능해야 한다.
도 27은 본 발명의 실시예에 따른 3D 방송 서비스의 개념도를 나타낸다. 도 27의 실시예에 따르면, 풀-해상도 영상을 제공하는 3D 방송 서비스(2010)는 하기에서, 3D 서비스 2.0 혹은 3D 서비스 Spec-B로 지칭하기로 한다. 하프-해상도 영상을 제공하는 3D 방송 서비스(2020)는 하기에서, 3D 서비스 1.0 혹은 3D 서비스 Spec-A로 지칭하기로 한다.
3D 서비스 1.0(2020)은 하프-해상도 좌측 영상 및 하프-해상도 우측 영상에로 서비스될 수 있다. 풀-해상도 영상을 제공하는 3D 서비스 2.0(2010)은, 풀-해상도 영상을 새로 전송하는 대신, 3D 서비스 1.0(2020)과 호환가능해야 하기 때문에, 3D 서비스 1.0(2020)의 영상 전송을 유지하며 그리고 풀-해상도 영상을 전송하기 위한 차동 데이터(differential data) 혹은 추가 데이터를 제공하는 방법이 사용될 수 있다. 더 구체적으로, 도 27에 보인 바와 같이, 3D 서비스 1.0(2020)의 하프-해상도 비디오 요소에 3D 서비스 2.0의 상보형 비디오 요소(complementary video element)(2030)를 더함으로써 풀-해상도 3D 방송 서비스(2010)가 제공될 수 있다. 결국, 3D 서비스 1.0을 지원할 수 있는 방송 수신기는, 3D 서비스 1.0(2020)의 데이터를 수신 및 프로세싱함으로써 하프-해상도 영상을 제공할 수 있고, 3D 서비스 2.0을 지원할 수 있는 방송 수신기는, 3D 서비스 1.0(2020)의 데이터 및 3D 서비스 2.0의 상보형 데이터를 수신 및 프로세싱함으로써 풀-해상도 영상을 제공할 수 있다.
도 28은 본 발명의 실시예에 따른 풀-해상도 3D 방송 서비스를 제공하기 위한 방법을 나타내는 개념적 블록도를 예시한다.
본 발명에서는, 풀-해상도 3D 영상을 제공할 수 있는 디지털 방송 수신기(3030)와, 그리고 하프-해상도 3D 영상을 지원할 수 있는 디지털 방송 수신기(3040)가 각각 제공될 수 있다.
3D 방송 서비스를 제공하는 방송 시스템은, 베이스 계층(3020)을 통해 하프-해상도 3D 비디오 데이터를 전송할 수 있고, 인헨스먼트 계층(3010)을 통해 풀-해상도 3D 영상을 제공하기 위한 추가적인 하프-해상도 3D 비디오 데이터를 전송할 수 있다.
하프-해상도 3D 영상을 지원할 수 있는 디지털 방송 수신기(3040)는, 베이스 계층(3020)의 비디오 데이터를 수신 및 프로세싱함으로써 하프-해상도 3D 영상을 제공할 수 있다. 또한, 풀-해상도 3D 영상을 제공할 수 있는 디지털 방송 수신기(3030)는, 베이스 계층(3020)의 비디오 데이터와 인헨스먼트 계층(3010)의 비디오 데이터를 수신 및 프로세싱함으로써 풀-해상도 3D 영상을 제공할 수 있다. 간결한 설명을 위해, 하기에서, 베이스 계층의 비디오 데이터 혹은 비디오 컴포넌트는 베이스 비디오 데이터 혹은 베이스 비디오 컴포넌트로 각각 지칭될 수 있고, 그리고 인헨스먼트 계층의 비디오 데이터 혹은 비디오 컴포넌트는 상보형 비디오 데이터 혹은 상보형 비디오 컴포넌트로 각각 지칭될 수 있다.
도 29는 본 발명의 실시예에 따른 3D 방송 서비스를 제공하기 위한 방법을 예시한다.
도 29를 참조하면, 3D 서비스 Spec-A(4010)는 베이스 계층을 통해 전송되는 3D 비디오 데이터를 표시하고, 도 29의 실시예에 따르면, 3D 비디오 데이터는 하프-해상도 탑-바텀 영상 포맷으로 제공된다.
3D 서비스 Spec-B(4020)는 인헨스먼트 계층을 통해 각각의 퍼스펙티브의 영상에 대한 상보형 데이터를 전송한다. 수신 시스템은 상기 전송된 상보형 데이터를 수신한다. 그리고, 상기 수신된 상보형 데이터는 3D 서비스 Spec-A(4010)로부터 전송된 3D 비디오 데이터에 추가적으로 프로세싱되어, 수신 시스템으로 하여금 풀-해상도 입체 영상을 제공할 수 있도록 한다.
도 30은 본 발명의 또 다른 실시예에 따른, 3D 방송 서비스를 제공하기 위한 방법을 예시한다.
본 발명의 실시예에 따르면, 3D 서비스 Spec-A(5010)는 탑-바텀 영상 포맷에 대응하고, 그리고 공간적 하프-해상도 3D 비디오 데이터 및 시간적 풀-해상도 3D 비디오 데이터를 포함할 수 있다. 본 발명의 다른 실시예에 따르면, 3D 서비스 Spec-A(5010)의 비디오 데이터는, 공간적 풀-해상도 및 시간적 하프-해상도로 제공되도록, 수신 시스템에서 보간(interpolate)될 수 있다. 3D 서비스 Spec-B(5020)의 수신 시스템은, 공간적 풀-해상도 영상과 시간적 풀-해상도 영상 모두를 제공하도록 상보형 정보를 추가적으로 프로세싱할 수 있다.
시간적 하프-해상도 및 공간적 풀-해상도의 선명도에 있어서, 전송될 수 있는 비디오 데이터(혹은 전송가능한 비디오 데이터)의 크기 혹은 양은, 시스템 리소스들의 제한으로 인해 한정될 수 있다. 비디오 데이터는 프레임-단위 영상(frame-unit image)들을 포함할 수 있다. 여기서, 전송가능한 비디오 데이터의 크기에 따라, (시간적으로 배치될 수 있는) 프레임-단위 영상들 간의 거리도 또한, 영상들의 해상도와 함께, 한정될 수 있다. 예를 들어, 소정의 대역폭에서의 제한으로 인해, 만약 전송가능한 비디오 데이터의 세트가 공간적으로는 하프-해상도이고 시간적으로는 풀-해상도에 있다면, 그리고 공간적 풀-해상도 영상들이 동일 대역폭의 제한 내에서 전송되고 있는 경우, 단지 시간적 하프-해상도 (예를 들어, 시간적 풀-해상도의 경우에 프레임 거리의 2배 거리) 비디오 데이터만이 전송될 수 있다.
수신 시스템에서의 해상도에 따라 비디오 데이터를 프로세싱하는 방법에 대한 다양한 실시예들이 이용가능할 수 있다.
3D 서비스 Spec-A(5010)의 수신 시스템은, 풀-해상도에 가까운 영상(Lb' 혹은 Rb')(도 30의 왼쪽 하부에 도시됨)을 제공하도록, 그 수신된 영상(Lb 혹은 Rb)에 관해 보간을 수행할 수 있다.
3D 서비스 Spec-B(5020)의 수신 시스템은 베이스 계층에서 수신된 비디오 데이터와 인헨스먼트 계층에서 수신된 비디오 데이터를 사용할 수 있다. 수신 시스템은 베이스 계층의 수신된 영상(Lb 혹은 Rb) 및 인헨스먼트 계층의 수신된 영상(Le 혹은 Re)의 수평 라인들을 인터리브(interleave) 및 결합(combine)할 수 있고, 그럼으로써 풀-해상도 영상(Lf 혹은 Rf)을 제공하게 된다. 또한, 수신 시스템은 베이스 계층의 수신된 영상(Lb 혹은 Rb)에 관해 로우-패스 필터링(low-pass filtering)을 수행할 수 있고, 인헨스먼트 계층의 수신된 영상(Le 혹은 Re)에 관해 하이-패스 필터링(high-pass filtering)을 수행할 수 있으며, 그럼으로써 두 개의 영상을 결합하여 풀-해상도 영상(Lf 혹은 Rf)을 복원하게 된다. 또한, 수신 시스템은 베이스 계층의 수신된 영상(Lb 혹은 Rb)에 관해 보간을 수행할 수 있고, 보간된 (풀-해상도에 가까운) 풀-해상도 영상(Lb' 혹은 Rb')을 상보형 정보 영상(Le 혹은 Re)으로 보충(supplement)할 수 있으며, 그럼으로써 풀-해상도 영상(Lf 혹은 Rf)(도 30의 오른쪽 아래에 도시됨)을 제공하게 된다.
도 31은 본 발명의 다른 실시예에 따른, 3D 방송 서비스를 제공하기 위한 방법을 예시한다.
본 발명의 실시예에 따르면, 3D 서비스 Spec-A(6010)는 사이드-바이-사이드 영상 포맷에 대응하고, 그리고 공간적 하프-해상도 3D 비디오 데이터 및 시간적 풀-해상도 3D 비디오 데이터를 포함할 수 있다. 본 발명의 다른 실시예에 따르면, 3D 서비스 Spec-A(6010)의 비디오 데이터는, 공간적 풀-해상도 및 시간적 하프-해상도로 제공되도록, 수신 시스템에서 보간될 수 있다. 3D 서비스 Spec-B(6020)의 수신 시스템은, 공간적 풀-해상도 영상과 시간적 풀-해상도 영상 모두를 제공하도록 상보형 정보를 추가적으로 프로세싱할 수 있다.
도 31의 경우에서, 영상 포맷이 사이드-바이-사이드 영상 포맷에 대응한다는사실 외에는, 도 31의 나머지 설명은 도 30의 설명과 동일하다. 따라서, 간결한 설명을 위해 본 발명의 중복되는 설명은 생략된다. 그러나, 도 31을 참조하면, 베이스 계층의 수신된 영상(Lb 혹은 Rb) 및 인헨스먼트 계층의 수신된 영상(Le 혹은 Re)을 인터리브하는 경우에, 3D 서비스 Spec-B(6020)의 수신 시스템은 수직 라인들을 인터리브 및 결합할 수 있고, 그럼으로써 풀-해상도 영상을 제공하게 된다.
도 32는 본 발명의 다른 실시예에 따른, 3D 방송 서비스를 제공하기 위한 방법을 예시한다.
본 발명의 실시예에 따르면, 3D 서비스 Spec-A(7010)는 프레임 순차 영상 포맷에 대응하고, 그리고 공간적 풀-해상도 3D 비디오 데이터 및 시간적 하프-해상도 3D 비디오 데이터를 포함할 수 있다. 본 발명의 다른 실시예에 따르면, 3D 서비스 Spec-A(7010)의 비디오 데이터는, 공간적 하프-해상도 및 시간적 풀-해상도로 제공되도록, 수신 시스템에서 포맷-변환될 수 있다. 3D 서비스 Spec-B(7020)의 수신 시스템은, 공간적 풀-해상도 영상과 시간적 풀-해상도 영상 모두를 제공하도록 상보형 정보를 추가적으로 프로세싱할 수 있다.
본 발명의 실시예에 따르면, 3D 서비스 Spec-A(7010)의 수신 시스템은 수신된 영상(Lb 혹은 Rb)에 관해 데시메이션(decimation)을 수행할 수 있고, 그럼으로써 탑-바텀 포맷 혹은 사이드-바이-사이드 포맷의 하프-해상도 영상(Lb' 혹은 Rb')을 생성(혹은 발생)시키게 된다. 이때, 데시메이션을 수행하는 동안, 수신 시스템은 탑-바텀 포맷 혹은 사이드-바이-사이드 포맷으로 하프-해상도 영상(Lb' 혹은 Rb')을 획득한다. 이때, 데시메이션을 수행하는 동안, 수신 시스템은 프레임 레이트 변환(frame rate conversion)을 통해 시간적으로 확장된(예를 들어, 두배로 된) 하프-해상도 영상의 쌍을 획득하고, 그럼으로써 공간적 풀-해상도 영상 및 시간적 풀-해상도 영상을 제공할 수 있게 된다.
다른 실시예에 따르면, 3D 서비스 Spec-B(7020)의 수신 시스템은 인헨스먼트 계층을 통해 수신된 영상(Le 혹은 Re)을 베이스 계층을 통해 수신된 각각의 연속하는 영상(Lb 혹은 Rb) 사이에 각각 삽입하고, 그럼으로써 공간적 풀-해상도 영상 및 시간적 풀-해상도 영상을 제공할 수 있게 된다.
앞서 설명된 바와 같이, 고해상도의 3D 방송 서비스를 제공하기 위해, 현재 제공되고 있는 해상도의 3D 방송 서비스를 위해 상보형 비디오 데이터가 제공돼야 하고, 그리고 이 상보형 비디오 데이터와 함께, 상보형 비디오 데이터에 대한 시그널링 정보(signaling information)도 또한 전송/수신 및 프로세싱될 것이 요구된다.
이후에서는, 상보형 비디오 데이터 및 이 상보형 비디오 데이터에 관한 정보를 시그널링하기 위한 방법이 상세히 설명된다. 본 발명의 실시예에 따르면, 상보형 비디오 데이터는, 레이어드 영상 압축 인코딩 방법(layered image compression encoding method)으로서 H.264/SVC(Scalable Video Coding) 혹은 MVC(Multi-view Video Coding) 방법을 사용할 수 있다. 그리고, 이때, 상보형 비디오 데이터는 인헨스먼트 계층을 통해 전송될 수 있다.
상보형 비디오 데이터에 관한 상기 전송된 시그널링 정보는 3D 상보형 비디오 정보로서 지칭될 수 있다. 3D 상보형 비디오 정보는 본 발명의 실시예에 따른 디스크립터(descriptor) 혹은 테이블 포맷으로 제공될 수 있고, 여기서 3D 상보형 비디오 정보는 3D 상보형 비디오 디스크립터 혹은 3D 상보형 비디오 테이블로서 지칭될 수 있다.
본 발명의 실시예에 따르면, 3D 상보형 비디오 정보는 PSIP(이는 ATSC 방송 시스템으로부터 전송됨)에 포함될 수 있고, 특히 PSIP의 TVCT(혹은 VCT)에 포함될 수 있고, 그럼으로써 전송되게 된다. 또한, 3D 상보형 비디오 정보는 PSI(이는 ATSC 방송 시스템으로부터 전송됨)에 포함될 수 있고, 특히 PSI의 PMT에 포함될 수 있다. 더욱이, 3D 상보형 비디오 정보는 상보형 비디오 정보에 포함될 수 있고, 특히 상보형 비디오 ES(Elementary Stream)의 헤더 정보(header information)에 포함될 수 있고, 그럼으로써 전송되게 된다.
도 33은 본 발명에 따른 풀 포워드 및 백워드 상호운용성(full forward and backward interoperability)을 예시한다.
본 발명은, 현 세대 혹은 다음 세대 소스 디바이스들 그리고 곧-나올 하프-해상도 3DTV 및 다음-세대 풀-해상도 3DTV 간에 풀 포워드 및 백워드 상호운용성을 제공한다. 이들이 어떻게 동작하는지에 관한 예들이 제공된다. 현재 BD 플레이어/STB에서 플레이되는 Spec-A 콘텐츠는 두 가지 모드 즉, 소비자가 곧-나올 3DTV 상에서 하프-해상도 3D 입체 콘텐츠를 보는 모드와, 그리고 다음-세대 3DTV 상에서 하프-해상도 3D 입체 콘텐츠를 보는 모드를 가질 수 있다. 다음-세대 BD 플레이어/STB에서 플레이되는 Spec-A 콘텐츠에 대해, 소비자는 곧-나올 3DTV 상에서 하프-해상도 3D 입체 콘텐츠를 볼 수 있고, 그리고 소비자는 다음-세대 3D TV 상에서 하프-해상도 3D 입체 콘텐츠를 볼 수 있다. 현재 BD 플레이어/STB에서 플레이되는 Spec-B 콘텐츠에 대해, 소비자는 곧-나올 3DTV 상에서 하프-해상도 3D 입체 콘텐츠를 볼 수 있고, 그리고 소비자는 다음-세대 3DTV 상에서 하프-해상도 3D 입체 콘텐츠를 볼 수 있다. 마지막으로, 다음-세대 BD 플레이어/STB에서 플레이되는 Spec-B 콘텐츠에 대해, 소비자는 곧-나올 3DTV 상에서 하프-해상도 3D 입체 콘텐츠를 볼 수 있고, 그리고 소비자는 다음-세대 3DTV 상에서 풀-해상도 3D 입체 콘텐츠를 볼 수 있다.
본 발명에서의 탑-바텀 및 사이드-바이-사이드와 같은 공간 하프 해상도 방법들은 기존 BD/DVD 오서링 시스템(authoring systems)에서 지원이 잘 되고 있으며, 변경 없이 혹은 약간의 처리를 통해 다음과 같은 특징, 예를 들어, 프리젠테이션 그래픽 모드(presentation graphic mode)를 사용하는 3D 서브타이틀(subtitles), 프레임의 탑 & 바텀 부분에서의 시프트된 오브젝트를 배치하는 3D 그래픽, (각각의 프레임을 편집할 필요 없이) 전체 클립(clip)에 걸친 이펙트(effect)들의 적용, 그리고 BD 라이브 콘텐츠 오서링(BD Live content authoring) 같은 것을 용이하게 한다.
도 34는 제 1 세대 3DTV와 제 2 세대 3DTV 간의 호환성을 제공하는 서비스 모델을 예시한다.
앞서 설명된 바와 같이, 만약 좌측 및 우측 영상이 Spec-A를 통해 입체 3D 비디오를 구성하면, 각각의 반은 하프-해상도이고, 그리고 장래 입체 3DTV 서비스는 고해상도를 통해 제공될 수 있다. 여기서, 종래의 비디오 요소는 이미 하프-해상도를 지원하기 때문에, 풀-해상도를 지원하기 위해서, 차동 신호(differential signal)가 상보형 비디오 요소를 통해 전송된다. 결과적으로, Spec-B를 지원하는 결과 수신기는 상보형 비디오 요소를 Spec-A에 더함으로써 풀-해상도 3DTV 서비스를 제공할 수 있다. 그리고, 본 발명은 Spec-B에 대한 3DTV 서비스를 지원하기 위해 상보형 비디오 요소를 전송하는 방법을 제공한다.
도 35는 본 발명의 실시예에 따른 3D 상보형 비디오 정보를 포함하는 TVCT의 신택스 구조(syntax structure)를 예시한다.
도 35의 TVCT에 포함된 필드(field)들의 설명은 다음과 같다.
'table_id' 필드는 테이블 섹션(table section)의 타입을 표시하는 8-비트 무부호 정수(unsigned integer number) 필드이다.
'section_syntax_indicator' 필드는 일(1)-비트 필드로서, 이 필드는 'terrestrial_virtual_channel_table_section()' 필드에 대해 '1'로 설정될 것이다.
'private_indicator' 필드는 '1'로 설정될 일(1)-비트 필드이다.
'section_length' 필드는 처음 2개의 비트들이 '00'으로 설정될 12-비트 필드이고, 그리고 'section_length' 필드 바로 다음에 시작하는 그리고 CRC를 포함하는 섹션의 바이트들의 수를 특정한다.
'transport_stream_id' 필드는 16-비트 MPEG-2 전송 스트림(TS) ID를 표시한다. 'transport_stream_id' 필드는 TVCT(Terrestrial Virtual Channel Table)를 서로 다른 PTC들에서 방송될 수 있는 다른 것들과 구분한다.
5-비트 필드로서 서비스를 제공하는 'version_number' 필드는 VCT(Virtual Channel Table)의 버전 번호를 표시한다.
'current_next_indicator' 필드는 일(1)-비트 표시자(indicator)이다. 'current_next_indicator' 필드가 '1'로 설정된 경우에, 이는 전송된 VCT(Virtual Channel Table)가 현재 적용가능함을 의미한다. 'current_next_indicator' 필드의 비트가 '0'으로 설정된 경우에, 이는 전송된 테이블이 아직 적용가능하지 않고 다음 테이블이 유효하게 될 것임을 의미한다.
'section_number' 필드는 이 섹션의 수를 제공하는 8-비트 필드이다.
8-비트 필드로서 서비스를 제공하는 'last_section_number' 필드는 완전한TVCT(Terrestrial Virtual Channel Table)의 마지막 섹션(즉, 가장 높은 section_number 값을 갖는 섹션)의 번호를 특정한다.
8-비트 무부호 정수 필드로서 서비스를 제공하는 'protocol_version' 필드는, 장래에, 테이블 타입으로 하여금 (현재 프로토콜에서 정의된 것과는 다르게 구성될 수 있는) 파라미터들을 운반할 수 있도록 하는데 사용된다.
8-비트 필드로서 서비스를 제공하는 'num_channels_in_section' 필드는 이 VCT 섹션에서 가상 채널들의 번호를 특정한다.
'short_name' 필드는 가상 채널의 명칭을 표시할 수 있는바, 이는 유니코드 캐릭터 데이터(unicode character data)에 대한 UTF-16 표준에 따라 해석되는 1 내지 7의 16-비트 코드 값들의 시퀀스로서 표현된다.
'major_channel_number' 필드는 'for' 루프(loop)의 반복으로 정의되는 가상 채널과 관련된 '메이저(major)' 채널 번호를 표현하는 10-비트 수를 표시한다.
'minor_channel_number' 필드는 '마이너(minor)' 혹은 '서브(sub)' 채널 번호를 나타내도록 '0' 내지 '999' 범위의 10-비트 수를 표시한다. 'major_channel_number' 필드와 함께 이 'minor_channel_number' 필드는 2-부분 채널 번호를 표시할 수 있는바, 여기서 minor_channel_number는 번호의 제 2 혹은 우측 부분을 나타낸다.
8-비트 무부호 정수를 포함하는'modulation_mode' 필드는 가상 채널과 관련된 전송된 캐리어에 대한 변조 모드를 표시할 수 있다.
'carrier_frequency' 필드는 허용된 캐리어 주파수를 표시할 수 있다.
'channel_TSID' 필드는 0x0000 내지 0xFFFF 범위의 16-비트 무부호 정수 필드이다. 'channel_TSID' 필드는 가상 채널에 의해 참조되는 MPEG-2 프로그램을 운반하는 전송 스트림(TS)과 관련된 MPEG-2 전송 스트림(TS) ID를 나타낸다.
'program_number' 필드는 여기서 정의되는 가상 채널을 MPEG-2 프로그램 연관 및 TS 프로그램 맵 테이블들과 관련시키는 16-비트 무부호 정수를 포함한다.
2-비트 필드로서 서비스를 제공하는'ETM_location' 필드는 확장된 텍스트 메시지(Extended Text Message, ETM)의 존재 및 위치를 특정한다. 'access_controlled' 필드는 1-비트 불린 플래그((Boolean flag)를 표시한다. 'access_controlled' 필드의 불린 플래그가 설정되는 경우, 이는 가상 채널과 관련된 이벤트들에 액세스하는 것이 제어될 수 있음을 의미한다.
'hidden' 필드는 1-비트 불린 플래그를 표시한다. 'hidden' 필드의 불린 플래그가 설정되는 경우, 이는 가상 채널이 가상 채널 번호의 다이렉트 엔트리(direct entry)에 의해 사용자에 의해 액세스되지 않음을 의미한다.
'hide_guide' 필드는 불린 플래그를 표시한다. 'hide_guide' 필드의 불린 플래그가 히든 채널(hidden channel)에 대해 제로('0')로 설정되는 경우, 이는 가상 채널 및 가상 채널 이벤트들이 EPG 디스플레이에서 나타날 수 있음을 의미한다.
'service_type' 필드는 가상 채널에서 운반되는 서비스의 타입을 식별할 수 있는 6-비트 열거형 필드(6-bit enumerated type field)이다.
'source_id' 필드는 가상 채널과 관련된 프로그래밍 소스를 식별할 수 있는 16-비트 무부호 정수를 포함한다.
'descriptors_length' 필드는 가상 채널에 대한 디스크립터들의 총 길이(단위는 바이트)를 표시할 수 있다.
'descriptor()' 필드는 'descriptor()' 필드에 대해 적절한 것으로 결정된 제로(0) 혹은 하나 이상의 디스크립터들을 포함할 수 있다.
'additional_descriptors_length' 필드는 VCT 디스크립터 리스트(descriptor list)의 총 길이(단위는 바이트)를 표시할 수 있다.
'CRC_32' 필드는, 전체 TVCT(Terrestrial Virtual Channel Table) 섹션의 프로세싱 이후 ISO/IEC 13818 1 "MPEG-2 Systems" [8]의 Annex A에서 정의된 디코더 내의 레지스터들의 제로(0) 출력을 보장하는 CRC 값이 포함된 32-비트 필드다.
대응하는 채널로부터 제공되는 방송 서비스가 3D 서비스 2.0인 경우, service_type 필드(8010)는 이 정보를 표시하는 필드에 대응한다. 예를 들어, service_type 필드(8010)의 필드 값이 0x13인 경우, 이는 3D 방송 프로그램(3D 입체 영상을 디스플레이하기 위한 오디오, 비디오, 및 상보형 비디오 데이터)이 대응 가상 채널로부터 제공되고 있음을 표시한다. 디스크립터 필드(8020)는 3D 상보형 비디오 정보를 포함하며, 이에 대해서는 첨부되는 도면을 참조하여 하기에서 상세히 설명될 것이다.
도 36은 본 발명의 실시예에 따른 TVCT에 포함된 3D 상보형 비디오 디스크립터의 신택스 구조를 예시한다.
도 36의 3D 상보형 비디오 디스크립터에 포함된 필드들이 이제 다음과 같이 설명된다.
number_elements 필드는 각각의 가상 채널을 구성하는 비디오 요소들의 수를 표시한다. 방송 수신기는 3DTV 서비스 위치 디스크립터를 수신할 수 있고, 이에 따라 횟수로서 number_elements 필드 아래의 필드들에 포함된 정보를 파싱하게 된다(이 수는 각각의 가상 채널을 구성하는 비디오 요소들의 수에 대응함).
complementary_type 필드는 상보형 비디오 데이터 혹은 상보형 비디오 스트림들을 구성하는 방법을 표시한다. 풀-해상도 영상이 출력되는 있는 경우, 수신 시스템은 베이스 비디오 데이터 및 상보형 비디오 데이터를 풀-해상도 영상으로 재구성(혹은 재건)하기 위해 이 필드의 정보를 사용한다.
naive_subsampling_flag 필드는, 베이스 비디오 컴포넌트 및 상보형 비디오 컴포넌트가 구성되고 있는 경우 서브샘플링(subsampling)이 수행되고 있는지 혹은 로우-패스 필터링 및 하이-패스 필터링이 수행되고 있는지 여부를 표시한다. 예를 들어, naive_subsampling_flag 필드의 필드 값이 1과 동일하다면, 이는 서브샘플링이 수행되고 있음을 표시한다. 그리고, 이 필드 값이 0과 동일하다면, 이는 로우-패스 필터링 및 하이-패스 필터링이 수행되고 있음을 표시한다.
codec_type 필드는 상보형 비디오 컴포넌트를 인코딩 혹은 압축하기 위해 사용되는 비디오 코텍의 타입을 표시한다. 예를 들어, codec_type 필드의 필드 값에 따라, MPEG-2, AVC/H.264, SVC 확장, 등과 같은 코딩 기법이 표시될 수 있다.
horizontal_size 필드, vertical_size 필드, 및 frame_rate size 필드는 각각, 상보형 비디오 컴포넌트의 수평 크기, 수직 크기, 및 프레임 레이트를 표시한다. 여기서, 수평 크기 및 수직 크기는 공간 해상도를 표시할 수 있고, 그리고 프레임 레이트는 시간 해상도를 표시할 수 있다. 예를 들어, complementary_type 필드의 필드 값이 0x0004와 동일한 경우, 상보형 비디오 컴포넌트의 공간/시간 해상도는 모두 풀-해상도가 될 수 있다.
interpolation_filter_available_flag 필드는, 베이스 비디오 컴포넌트에 관해 보간이 수행되는 경우, 추가의 커스터마이즈된 필터(extra customized filter)가 사용되고 있는지 여부를 표시한다. 이때, 본 발명의 실시예에 따르면, 필터를 구현하기 위한 필터 계수와 같은 정보가 TVCT 혹은 PMT 내의 상보형 비디오 컴포넌트에 대한 디스크립터 루프에 포함될 수 있고, 디스크립터 포맷으로 제공될 수 있다. 그리고, 본 발명의 다른 실시예에 따르면, 이 정보는 비디오 요소 내의 헤더 정보 혹은 메시지 정보에 포함될 수 있고, 그럼으로써 제공되게 된다. 상보형 비디오 정보를 구성하는 좌측 시각에 대한 비디오 데이터와 우측 시각에 대한 비디오 데이터 중에서, left_image_first_flag 필드는 두 개의 비디오 데이터 중 어느 것이 먼저 일어나는지(혹은 발생되는지)를 표시한다. 본 발명의 실시예에 따르면, 좌측 시각에 대응하는 비디오 데이터가 먼저 수신되는 경우, left_image_first_flag 필드의 필드 값은 1로 설정될 수 있다.
complementary_first_flag 필드는 풀-해상도 영상을 구성하는 절차 동안 베이스 비디오 컴포넌트와 상보형 비디오 컴포넌트를 결합하는 순서를 표시한다. 본 발명의 실시예에 따르면, 베이스 비디오 컴포넌트에 대응하는 비디오 데이터가 상보형 비디오 컴포넌트에 대응하는 비디오 데이터보다 선행하는 경우, complementary_first_flag 필드의 필드 값은 1로 설정될 수 있다.
도 37은 본 발명의 실시예에 따른, 3D 상보형 비디오 정보에 포함된 complementary_type 필드의 필드 값에 따라 영상을 구성하는 방법을 예시한다.
도 36에 포함된 complementary_type 필드는 상보형 비디오 데이터 혹은 상보형 비디오 스트림들을 구성하는 방법을 표시한다. 그리고, 수신 시스템은 베이스 비디오 데이터 및 상보형 비디오 데이터를 풀-해상도 영상으로 재구성(혹은 재건)하기 위해 이 필드의 정보를 사용한다. 여기서 본 발명의 실시예에 따르면, complementary_type 필드의 필드 값에 따른 풀-해상도 영상의 재구성(혹은 재건)은 도 37에 보인 바와 같이 다양하게 수행될 수 있다.
1) complementary_type 필드의 필드 값이 0과 동일한 경우, complementary_type 필드는 상보형 비디오 데이터가 라인인터리브(lineinterleave)되고 상보형 라인을 위한 비디오 데이터를 운반하고 있음을 표시한다.
상보형 비디오 데이터는 짝수 라인들 혹은 홀수 라인들에 대한 비디오 데이터를 포함할 수 있는바, 이들은 풀-해상도 영상을 구성하기 위해 베이스 비디오 데이터에 더해진다. 짝수 라인들 혹은 홀수 라인들에 대한 비디오 데이터는 베이스 비디오 데이터의 멀티플렉싱 포맷에 따라 수평으로 또는 수직으로 라인-인터리브될 수 있고, 그럼으로써 발생(혹은 생성)되게 된다. 본 발명의 실시예에 따르면, 베이스 비디오 데이터가 사이드-바이-사이드 포맷에 대응하는 경우, 수직 라인-인터리브가 수행될 수 있고, 그리고 베이스 비디오 데이터가 탑-바텀 포맷에 대응하는 경우, 수평 라인-인터리브가 수행될 수 있다.
2) complementary_type 필드의 필드 값이 1과 동일한 경우, complementary_type 필드는 상보형 비디오 데이터가 픽셀인터리브(pixelinterleave)되고 각각의 라인에 대해 교번(혹은 변경)되는 영상의 퍼스펙티브에 관한 순서 정보를 운반하고 있음을 표시한다. 여기서 순서 정보는 풀-해상도 영상을 재구성하기 위한 픽셀에 관한 정보에 대응한다.
상보형 비디오 데이터는 픽셀 단위로 인터리브될 수 있고, 그럼으로써 체커보드 포맷으로 전송될 수 있게 된다. 이 경우에, 좌측 영상의 픽셀과 우측 영상의 픽셀이 단일 라인 내에서 픽셀 단위로(혹은 픽셀별로) 교번될 수 있다. 또한, 풀-해상도 영상을 정상적으로 복원하기 위해, 수신 시스템은 교번의 순서에 관한 이 정보를 전송하도록 요구받는다. 이 경우에, 재구성(혹은 재건)되고 있는 풀-해상도 영상의 제 1 픽셀에 포함된 비디오 데이터에 관하여, complementary_first_flag 필드는 제 1 픽셀에 포함된 비디오 데이터가 어느 퍼스펙티브 혹은 계층에 대응하는 지를 표시한다.
3) complementary_type 필드의 필드 값이 2와 동일한 경우, complementary_type 필드는 상보형 비디오 데이터가 프레임-인터리브(frame-interleave)되고 풀-해상도 영상을 재구성(혹은 재건)하기 위한 상보형 프레임들을 포함함을 표시한다.
본 발명의 실시예에 따르면, 풀-해상도의 의미는 시간 해상도를 의미한다. 이 경우에, 상보형 비디오 데이터는 프레임 단위로(혹은 프레임 별로) 인터리브된 영상 데이터를 포함할 수 있고, 그리고 프레임별로(혹은 프레임 순차적으로) 비디오 데이터를 또한 포함할 수도 있다. complementary_first_flag 필드는 상보형 비디오 컴포넌트를 통해 수신되고 있는 비디오 프레임이 베이스 비디오 컴포넌트를 통해 수신되고 있는 비디오 프레임 전에 위치하는지 아니면 후에 위치하는지를 수신 시스템에게 알려줄 수 있다.
4) complementary_type 필드의 필드 값이 3과 동일한 경우, complementary_type 필드는 상보형 비디오 데이터가 필드인터리브(fieldinterleave)되고 풀-해상도 영상을 재구성(혹은 재건)하기 위한 상보형 프레임들을 포함함을 표시한다.
본 발명의 실시예에 따르면, 풀-해상도의 의미는 시간 해상도를 의미한다. 이 경우에, 상보형 비디오 데이터는 필드 단위로(혹은 필드 별로) 인터리브된 영상 데이터를 포함할 수 있고, 그리고 필드별로 비디오 데이터를 또한 포함할 수도 있다. complementary_first_flag 필드는 상보형 비디오 컴포넌트를 통해 수신되고 있는 비디오 필드가 풀-해상도 영상에 대한 짝수 필드에 대응하는지 아니면 홀수 필드에 대응하는지를 수신 시스템에게 알려줄 수 있다.
5) complementary_type 필드의 필드 값이 4와 동일한 경우, complementary_type 필드는 상보형 비디오 데이터가 풀-해상도 영상을 재구성(혹은 재건)하기 위한 잔류(residual) 혹은 증분(incremental) 데이터를 포함함을 표시할 수 있다.
본 발명의 실시예에 따르면, 베이스 비디오 컴포넌트의 입체-멀티플렉싱 포맷에 상관없이, 상보형 비디오 컴포넌트는 풀-해상도 영상을 재구성(혹은 재건)하기 위한 잔류 혹은 증분 데이터를 포함한다. 이 경우에, 상보형 비디오 데이터와 베이스 비디오 데이터를 결합시키기 전에, 수신 시스템은 베이스 비디오 데이터에 관해 보간 혹은 더블링(doubling)을 수행할 수 있다.
도 38은, PMT에서의 3D 상보형 비디오 디스크립터의 시그널링의 실시예를 예시한다. 달리 말하면, PMT 내의 3D 상보형 비디오 디스크립터는 풀-해상도 3D 입체 프로그램을 구성하는 상보형 비디오 요소를 제공한다.
3D_complementary_video_descriptor_PMT는 PMT 내에서 ES_info_length 필드 후에 위치하며 엘러멘터리 스트림(elementary stream)에 대응하는 정보를 포함한다. 각각의 필드의 의미는 3D_complementary_video_descriptor_VCT와 동일하다. codec_type이 PMT 내에서 stream_type 필드로 대체될 수 있고, 이 경우에 3D 상보형 비디오 디스크립터는 생략될 수 있다.
후속적으로, PMT를 사용하여 3D 상보형 비디오 정보를 시그널링하기 위한 방법이 상세히 설명된다.
도 39는 본 발명의 실시예에 따른 3D 상보형 비디오 정보를 포함하는 PMT의 신택스 구조를 예시한다.
도 39의 PMT에 포함된 필드들은 다음과 같이 설명된다. 'table_id' 필드는 'TS_program_map_section' 필드에서 항상 '0x02'로 설정될 8-비트 필드이다.
'section_syntax_indicator' 필드는 '1'로 설정될 1-비트 필드이다.
'section_length' 필드는 처음 2개의 비트들이 '00'으로 설정될 12-비트 필드이고, 그리고 'section_length' 필드 바로 다음에 시작하고 그리고 CRC를 포함하는 섹션의 바이트들의 수를 특정한다.
'program_number' 필드는 16-비트 필드이고, 이는 'program_map_PID' 필드가 적용가능한 프로그램을 특정한다.
'version_number' 필드는 5-비트 필드이고, 이는 'TS_program_map_section' 필드의 버전 번호를 표시한다.
'current_next_indicator' 필드는 1-비트 필드이다. 'current_next_indicator' 필드의 비트가 '1'로 설정되는 경우, 이는 전송된 'TS_program_map_section' 필드가 현재 적용가능함을 의미한다. 'current_next_indicator' 필드의 비트가 '0'으로 설정된 경우에, 이는 전송된 'TS_program_map_section' 필드가 아직 적용가능하지 않고 다음 'TS_program_map_section' 필드가 유효하게 될 것임을 의미한다.
'section_number' 필드는 '0x00'이 될 8-비트 필드의 값을 포함한다.
'last_section_number' 필드는 '0x00'이 될 8-비트 필드의 값을 포함한다.
'PCR_PID'는 'program_number' 필드에 의해 특정된 프로그램에 대해 유효한 PCR 필드들을 포함할 전송 스트림(TS) 패킷들의 PID를 표시하는 13-비트 필드이다. 이 경우에, 어떠한 PCR도 프라이빗 스트림(private stream)에 대한 프로그램 정의와 관련되지 않는다면, 이 필드는 '0x1FFF'의 값을 취할 것이다.
'program_info_length' 필드는 12-비트 필드이고, 이것의 처음 2개의 비트들은 '00'일 것이다. 'program_info_length' 필드는 'program_info_length' 필드 바로 다음에 오는 디스크립터들의 바이트들의 수를 특정한다.
'stream_type' 필드는, PID(이것의 값은 'elementary_PID' 필드에 의해 특정됨)를 갖는 패킷들 내에서 운반되는 엘러멘터리 스트림 혹은 페이로드(payload)의 타입을 특정하는 8-비트 필드이다. 추가적으로, 'stream_type' 필드는 대응하는 비디오 요소의 코딩 타입을 표시할 수 있다. 예시적인 코딩 타입으로서, JPEG, MPEG-2, MPEG-4, H.264/AVC, H.264/SVC 혹은 H.264/MVC 기법이 사용될 수 있다.
'elementary_PID' 필드는 관련된 엘러멘터리 스트림 혹은 페이로드를 운반하는 전송 스트림(TS) 패킷들의 PID를 특정하는 13-비트 필드이다. 이 PID는 1차 비디오 데이터(primary video data) 혹은 2차 비디오 데이터(secondary video data)로서 사용될 수 있다.
'ES_info_length' 필드는 12-비트 필드이고, 이것의 처음 2개의 비트들은 '00'이 될 것이다. 'ES_info_length' 필드는 'ES_info_length' 필드 바로 다음에 오는 관련된 엘러멘터리 스트림의 디스크립터들의 바이트들의 수를 특정할 수 있다.
'CRC_32' 필드는, 전체 전송 스트림 프로그램 맵 섹션의 프로세싱 이후 Annex B에서 정의된 디코더 내의 레지스터들의 제로(0) 출력을 제공하는 CRC 값이 포함된 32-비트 필드다.
디스크립터 필드(11010)는 3D 상보형 비디오 정보를 포함하며, 이에 대해서는 첨부된 도면을 참조하여 이후 상세히 설명된다.
후속적으로, 상보형 비디오 데이터에 포함된 상보형 비디오 ES를 통해 3D 상보형 비디오 정보를 시그널링하기 위한 방법이 이제 상세히 설명된다.
도 40은 본 발명의 실시예에 따른, 3D 상보형 비디오 정보를 포함하는 비디오 ES의 픽처 확장 및 사용자 데이터(Picture Extension and user Data)의 신택스 구조를 예시한다.
본 발명의 실시예에 따르면, ATSC 원결통신 시스템은 PISP 계층 대신 비디오 ES의 헤더 정보에 3D 상보형 비디오 정보를 포함할 수 있고, 대응하는 정보를 시그널링할 수 있다. 더 구체적으로, 3D 상보형 비디오 정보(complementary_video_info(); 13030)는 상보형 비디오 ES에 포함될 수 있고, 그럼으로써 전송되게 되며, 그리고 비디오 디코더 내의 대응하는 정보를 파싱함으로써, 수신 시스템은 디스플레이 출력을 제어하기 위해 요구되는 정보를 획득할 수 있다.
본 발명의 실시예에 따르면, 상보형 비디오 데이터가 MPEG-2 비디오 코딩 기법을 사용함으로써 인코딩될 때, 3D 상보형 비디오 정보는 픽처 확장 및 사용자 데이터의 user_data()(13010) 내에 포함될 수 있고, 그럼으로써 전송되게 된다. 픽처 확장 및 사용자 데이터는 픽처 헤더 및 픽처 코딩 확장 이후에 수신될 수 있고, 그럼으로써 디코딩되게 된다.
도 40의 실시예에서, user_data_start_code 필드의 필드 값은 0x0000 01B2으로 고정된다.
user_data_identifier(혹은 ATSC_identifier) 필드의 필드 값은 0x4741 3934의 값이 주어지는 32-비트 코드에 대응한다.
user_data_type_code 필드는 ATSC 사용자 데이터(13020)의 데이터 타입을 표시하고, 8 비트의 필드 값을 가질 수 있다. 본 발명의 실시예에 따르면, 0x10의 값을 사용함으로써, 이 필드는 3D 상보형 비디오 정보(13030)가 포함되어 있음을 표시할 수 있다.
H.264 혹은 AVC 비디오의 경우에, 대응하는 정보는 도 41에 예시된 바와 같이 SEI(Supplemental Enhancement Information) 영역으로 전송된다. user_identifier 및 user_structure가 user_data_registered_itu_t_135()에 포함된다. 따라서, 대응하는 정보가 user_data() 대신에 SEI 페이로드로 전달된다.
이하에서는, 3D 비디오 서비스 Spec-B로부터 수신된, 베이스 비디오 데이터, 상보형 비디오 데이터, 및 3D 상보형 비디오 데이터를 이용하여 풀-해상도 영상을 제공하기 위한 방법이 상세히 설명된다.
도 42는 본 발명의 실시예에 따른, 3D 비디오 서비스 Spec-B로부터 수신된 베이스 비디오 데이터, 상보형 비디오 데이터, 및 3D 상보형 비디오 정보를 이용하여 풀-해상도 영상을 제공하기 위한 방법을 예시한다.
도 42의 실시예에서, 베이스 비디오 데이터의 영상은 탑-바텀 포맷으로 수신되고, 여기서 좌측 영상은 상측에 위치하며, 우측 영상은 하측에 위치한다. 3D 상보형 비디오 정보의 경우에, complementary_type 필드의 필드 값은 '0x0000'으로서 표시되고, naive_subsampling_flag 필드의 필드 값은 '1'로서 표시되며, left_image_first_flag 필드의 필드 값은 '1'로서 표시되고, 그리고 complementary_first_flag 필드의 필드 값은 '0'으로서 표시된다. 더 구체적으로, 3D 상보형 비디오 정보는 상보형 비디오 데이터가 라인-인터리브로 프로세싱됨을 표시하고, 로우-패스 필터링 및 하이-패스 필터링은 서브샘플링 수행시 수행되지 않음을 표시하고, 좌측 시각에 대응하는 비디오 데이터가 먼저 제시됨을 표시하고, 그리고 베이스 비디오에 대응하는 비디오 데이터가 상보형 비디오에 대응하는 비디오 데이터보다 선행함을 표시한다.
3D 상보형 비디오 정보에 따라, 수신 시스템은 탑-바텀 포맷의 베이스 비디오 프레임(16010)으로부터 좌측 영상 부분들(Lb1~Lb5)을 추출하고, 상보형 비디오 프레임(16020)으로부터 좌측 영상 부분들(Lc1~Lc5)을 추출하고, 그리고 추출된 비디오 데이터를 라인별로 재구성(혹은 재건)하며, 그럼으로써 풀-해상도 좌측 영상(16030)이 획득되게 된다. 유사하게, 3D 상보형 비디오 정보에 따라, 수신 시스템은 탑-바텀 포맷의 베이스 비디오 프레임(16010)으로부터 우측 영상 부분들(Rb1~Rb5)을 추출하고, 상보형 비디오 프레임(16020)으로부터 우측 영상 부분들(Rc1~Rc5)을 추출하고, 그리고 추출된 비디오 데이터를 라인별로 재구성(혹은 재건)하며, 그럼으로써 풀-해상도 우측 영상(16040)이 획득되게 된다.
수신 시스템이 획득된 풀-해상도 좌측 영상(16030) 및 우측 영상(16040)을 프레임 순차 기법을 통해 디스플레이할 수 있다. 이 경우에, 두 개의 프레임들(16030, 16040)은 하나의 프레임(16010)으로부터 프레임 단위로 발생했기 때문에, 시간적 풀-해상도 디스플레이가 이용가능하게 된다.
도 43은 본 발명의 또 다른 실시예에 따른, 3D 비디오 서비스 Spec-B로부터 수신된 베이스 비디오 데이터, 상보형 비디오 데이터, 및 3D 상보형 비디오 정보를 이용하여 풀-해상도 영상을 제공하기 위한 방법을 예시한다.
도 43의 실시예에서, 베이스 비디오 데이터의 영상은 탑-바텀 포맷으로 수신되고, 여기서 좌측 영상은 상측에 위치하며, 우측 영상은 하측에 위치한다. 3D 상보형 비디오 정보의 경우에, complementary_type 필드의 필드 값은 '0x0000'으로서 표시되고, naive_subsampling_flag 필드의 필드 값은 '0'으로서 표시되며, left_image_first_flag 필드의 필드 값은 '1'로서 표시되고, 그리고 complementary_first_flag 필드의 필드 값은 '0'으로서 표시된다. 더 구체적으로, 3D 상보형 비디오 정보는 상보형 비디오 데이터가 라인-인터리브로 프로세싱됨을 표시하고, 로우-패스 필터링 및 하이-패스 필터링은 서브샘플링 수행시 수행돼야만 함을 표시하고, 좌측 시각에 대응하는 비디오 데이터가 먼저 제시됨을 표시하고, 그리고 베이스 비디오에 대응하는 비디오 데이터가 상보형 데이터에 대응하는 비디오 데이터보다 선행함을 표시한다.
먼저, 3D 상보형 비디오 정보에 따라, 수신 시스템은 베이스 비디오 프레임에 관해 로우-패스 필터링을 수행하고, 그럼으로써 필터링된 베이스 비디오 프레임들(Lb1'~Lb5' 및 Rb1'~Rb5')이 획득되게 된다. 또한, 수신 시스템은 상보형 비디오 프레임에 관해 하이-패스 필터링을 수행하고, 그럼으로써 필터링된 상보형 비디오 프레임들(Lc1'~Lc5' 및 Rc1'~Rc5')이 획득되게 된다.
3D 상보형 비디오 정보에 따라, 수신 시스템은 탑-바텀 포맷의 베이스 비디오 프레임으로부터 로우-패스 필터링된 좌측 영상 부분들(Lb1'~Lb5')을 추출하고, 상보형 비디오 프레임으로부터 로우-패스 필터링된 좌측 영상 부분들(Lc1'~Lc5')을 추출한다. 이후 수신 시스템은 추출된 비디오 데이터를 라인별로 재구성(혹은 재건)하며, 그럼으로써 풀-해상도 좌측 영상(1030)이 획득되게 된다. 유사하게, 3D 상보형 비디오 정보에 따라, 수신 시스템은 탑-바텀 포맷의 베이스 비디오 프레임으로부터 로우-패스 필터링된 우측 영상 부분들(Rb1'~Rb5')을 추출하고, 상보형 비디오 프레임으로부터 로우-패스 필터링된 우측 영상 부분들(Rc1'~Rc5')을 추출한다. 그 다음에, 수신 시스템은 추출된 비디오 데이터를 라인별로 재구성(혹은 재건)하며, 그럼으로써 풀-해상도 우측 영상(17040)이 획득되게 된다.
수신 시스템이 획득된 풀-해상도 좌측 영상(17030) 및 우측 영상(17040)을 프레임 순차 기법을 통해 디스플레이할 수 있다. 이 경우에, 두 개의 프레임들(17030, 17040)은 하나의 프레임(17010)으로부터 프레임 단위로 발생했기 때문에, 시간적 풀-해상도 디스플레이가 이용가능하게 된다.
도 44는 본 발명의 또 다른 실시예에 따른, 3D 비디오 서비스 Spec-B로부터 수신된 베이스 비디오 데이터, 상보형 비디오 데이터, 및 3D 상보형 비디오 정보를 이용하여 풀-해상도 영상을 제공하기 위한 방법을 예시한다.
도 44의 실시예에서, 베이스 비디오 데이터의 영상은 탑-바텀 포맷으로 수신되고, 여기서 좌측 영상은 상측에 위치하며, 우측 영상은 하측에 위치한다. 3D 상보형 비디오 정보의 경우에, complementary_type 필드의 필드 값은 '0x0004'로서 표시되고, naive_subsampling_flag 필드의 필드 값은 '1'로서 표시되며, left_image_first_flag 필드의 필드 값은 '1'로서 표시되고, 그리고 complementary_first_flag 필드의 필드 값은 '0'으로서 표시된다. 더 구체적으로, 3D 상보형 비디오 정보는 상보형 비디오 데이터가 베이스 비디오 데이터(0x0004)에 대한 잔류 비디오 데이터를 포함함을 표시하고, 로우-패스 필터링 및 하이-패스 필터링은 서브샘플링 수행시 수행되지 않음을 표시하고, 좌측 시각에 대응하는 비디오 데이터가 먼저 제시됨을 표시하고, 그리고 베이스 비디오에 대응하는 비디오 데이터가 상보형 비디오에 대응하는 비디오 데이터보다 선행함을 표시한다.
수신 시스템은 먼저 수신된 베이스 프레임(18010)에 관해 라인별 보간을 수행하고, 그럼으로써 공간적으로 두 배로 된 비디오 프레임(18040)이 획득되게 된다. 이후, 수신 시스템은 보간된 라인들(Li1, Li2, ..., Ri5)을 상보형 비디오 프레임(18020)의 잔류 데이터 라인들(Lc1~Lc10 및 Rc1~Rc10)과 결합시킨다. 그 다음에, 그 결합된 라인들을 라인별로 베이스 비디오 프레임의 라인들과 함께 위치시킴으로써, 풀-해상도 좌측 영상(18050) 및 우측 영상(18060)이 획득된다. 본 발명의 실시예에 따르면, 좌측 영상의 경우에, 보간된 베이스 비디오 프레임(18040)의 라인(Li1)은 상보형 비디오 프레임(18020)의 라인들(Lc1 및 Lc2)의 데이터와 결합되고, 그럼으로써 풀-해상도 영상(18050)의 라인 영상(Lc1)이 획득되게 된다. 후속적으로, 이 라인 영상(Lc1)을 라인 영상들(Lb1과 Lb2) 사이에 위치시키는 방법을 사용함으로써, 풀-해상도 좌측 영상(18050)이 획득될 수 있다.
수신 시스템은 획득된 풀-해상도 좌측 영상(18050) 및 우측 영상(18060)을 프레임 순차 기법을 통해 디스플레이할 수 있다. 이 경우에, 두 개의 프레임들(17050, 17060)은 하나의 프레임(18010)으로부터 프레임 단위로 발생했기 때문에, 시간적 풀-해상도 디스플레이가 이용가능하게 된다.
도 45는 본 발명의 또 다른 실시예에 따른, 3D 비디오 서비스 Spec-B로부터 수신된 베이스 비디오 데이터, 상보형 비디오 데이터, 및 3D 상보형 비디오 정보를 이용하여 풀-해상도 영상을 제공하기 위한 방법을 예시한다. 도 45의 실시예에서, 베이스 비디오 데이터의 영상은 체커보드 포맷으로 수신되고, 여기서 좌측 영상은 좌측단 부분(left-end portion)의 최상위 픽셀(uppermost pixel)에 위치한다. 3D 상보형 비디오 정보의 경우에, complementary_type 필드의 필드 값은 '0x0001'로서 표시되고, naive_subsampling_flag 필드의 필드 값은 '1'로서 표시되며, left_image_first_flag 필드의 필드 값은 '1'로서 표시되고, 그리고 complementary_first_flag 필드의 필드 값은 '0'으로서 표시된다. 더 구체적으로, 3D 상보형 비디오 정보는 상보형 비디오 데이터가 베이스 비디오 영상(0x0001)에 대한 상보형 비디오 영상의 라인-교번 순서(line-alternating order)를 포함함을 표시하고, 로우-패스 필터링 및 하이-패스 필터링은 서브샘플링 수행시 수행되지 않음을 표시하고, 좌측 시각에 대응하는 비디오 데이터가 먼저 제시됨을 표시하고, 그리고 베이스 비디오에 대응하는 비디오 데이터가 상보형 데이터에 대응하는 비디오 데이터보다 선행함을 표시한다.
수신 시스템은, 3D 상보형 비디오 정보를 사용함으로써 각각의 순서에 따라 각각의 라인에 대해, 수신된 베이스 비디오 프레임(19010)에 포함된 좌측 시각의 픽섹들과 우측 시각의 픽셀들을 정렬하고, 그리고 수신된 상보형 비디오 프레임(19020)에 포함된 좌측 시각의 픽섹들과 우측 시각의 픽셀들을 정렬한다. 따라서, 풀-해상도 좌측 영상(19030) 및 우측 영상(19040)이 획득될 수 있다. 또한, 본 발명의 실시예에 따르면, 수신 시스템은 수신된 베이스 비디오 프레임(19010) 및 상보형 비디오 프레임(19020)을 사이드-바이-사이드 포맷 혹은 탑-바텀 영상 포맷으로 재구성(혹은 재건)한다. 그 다음에, 수신 시스템은 재구성된 비디오 프레임들을 3D 상보형 비디오 정보에 따라 정렬하고, 그럼으로써 풀-해상도 좌측 영상(19030) 및 우측 영상(19040)이 획득되게 된다.
수신 시스템은 획득된 풀-해상도 좌측 영상(19030) 및 우측 영상(19040)을 프레임 순차 기법을 통해 디스플레이할 수 있다. 이 경우에, 두 개의 프레임들(19030, 19040)은 하나의 프레임(19010)으로부터 프레임 단위로 발생했기 때문에, 시간적 풀-해상도 디스플레이가 이용가능하게 된다.
베이스 비디오 컴포넌트와 상보형 비디오 컴포넌트를 결합시킴으로써 풀-해상도 비디오 컴포넌트를 획득하는 수신 시스템의 동작은 본 발명의 앞서 설명된 실시예들에 따른 다양한 실시예들에 따라 수행될 수 있다.
본 발명의 실시예에 따르면, 베이스 비디오 컴포넌트가 B로서 지칭되는 경우, 그리고 상보형 비디오 컴포넌트가 C로서 지칭되는 경우, 그리고 풀-해상도 비디오 컴포넌트가 F로서 지칭되는 경우, 다음과 같은 동작 시나리오가 이용가능할 수 있다.
케이스 1(case 1): F = B + C
케이스 2(case 2): F = B' + C
케이스 3(case 3): F = B' + C'
여기서, B' 및 C'는 보간/필터링으로 프로세싱된 B 및 C에 각각 대응한다.
케이스 1은 naive_subsampling_flag 필드의 필드 값이 '1'과 동일한 예에 대응한다. 따라서, 이 케이스는 두 개의 서브샘플링된 비디오 컴포넌트가 인터리브되고 정렬되는 실시예에 대응한다.
케이스 2는 B가 보간/필터링으로 프로세싱되고 그 다음에 C와 결합되며, 그럼으로써 F가 획득되게 되는 예에 대응한다. 여기서, C는 잔류/증분 데이터 포맷에 대응할 수 있다. (특히, SVC 코딩 기법이 사용되는 경우, 이 형태의 결합이 수행될 수 있다.)
케이스 3은 naive_subsampling_flag 필드의 필드 값이 '0'과 동일한 예에 대응한다. 따라서, 이 케이스는 B와 C 모두가 보간/필터링으로 프로세싱되고 B'가 C'와 결합되며, 그럼으로써 F가 획득되게 되는 실시예에 대응한다.
도 46은 SDT를 사용하여 3DTV 서비스를 시그널링하는 것을 나타낸 다른 실시예이다.
서비스 디스크립터는, (비디오 데이터가 Spec-B 지원을 위해 포함되는지 여부를 시그널링하는) 3DTV 2.0 서비스임을 표시하는 서비스 타입을 포함한다. 또한, descriptor()는 Spec-B에 대응하는 3DTV 서비스를 구성하는 상보형 비디오 컴포넌트에 대한 정보를 포함한다.
도 47은 본 발명의 실시예에 따른, Spec-B를 지원하기 위한 풀-해상도 입체 3DTV 서비스의 서비스 타입을 예시한다. 서비스 타입의 값은 DVB의 서비스 디스크립터에 포함된 SDT의 디스크립터 루프에 포함될 수 있다. 종래의 Spec-A와 비교하여 본 발명에 따른 개선점은 다음과 같다.
1) Spec-A 및 Spec-B 서비스들은 개별적으로 정의되지만 각각의 서비스를 구성하는 스트림들은 공유된다. Spec-B의 경우에서, 서비스 타입은 도 47에서 설명된 바와 같이 정의된다. 서비스를 구성하는 베이스 계층 스트림이 공유될 수 있고, 그리고 더욱이, Spec-B 서비스는 또한 풀-해상도 3DTV 서비스를 제공하기 위해 인헨스먼트 계층 스트림을 포함한다.
2) 단지 Spec-A를 구성하여 풀-해상도 서비스를 제공하는 것도 가능하다. 이 경우에, 인헨스먼트 스트림은 개별 값을 갖지 않고, 이에 따라 종래의 Spec-A 수신기는 인헨스먼트 스트림을 무시할 것이며 단지 베이스 계층 스트림으로 하프-해상도를 제공할 것이다. Spec-B 지원 수신기에서, 인헨스먼트 스트림이 인식되고 수신기는 풀-해상도 서비스를 제공하기 위해 베이스 계층과 결합할 것이다.
도 48는 SDT를 사용하여 3DTV 서비스를 시그널링하기 위해 부가되는 Service_type을 예시한다. 도 49는 종래의 컴포넌트 디스크립터의 신택스를 예시한다. 그리고 도 50은 DVB 방송 시스템에서 풀-해상도 3D 입체 서비스를 표시하기 위한 stream_content 및 component_type의 정의 및 설명을 예시한다.
DVB를 위해 구성된 각각의 엘러멘터리 스트림은 SDT의 디스크립터 내에 컴포넌트 디스크립터를 더함으로써 시그널링을 행한다. 본 발명에서, stream_content 및 component_type은 풀-해상도 3D 입체 서비스를 제공하기 위해 3D 상보형 비디오를 분리하도록 도 50에 보인 바와 같이 정의된다. MPEG-2 비디오에 대해, 스트림의 타입을 표시하는 스트림 타입은 0x01로서 정의되고, 그리고 H.264 비디오에 대해 이는 0x05인 것으로 정의된다.
도 51은 본 발명의 실시예에 따른, SDT에 포함된 3D 상보형 비디오 디스크립터의 신택스 구조를 예시한다.
3D_complementary_video_descriptor_SDT는 SDT에서의 descriptors_loop_length 필드의 디스크립터 내에 위치하고, 3D 상보형 엘러멘터리 스트림에 관한 정보를 포함한다. 각각의 필드의 의미는 도 36에서 예시된 바와 같이 3D_complementary_video_descriptor_VCT와 동일하다. codec_type이 SDT에서의 컴포넌트 디스크립터 내에서 stream_content 및 component_type 필드로 대체될 수 있고, 이 경우에 이는 또한 3D 상보형 비디오 디스크립터로부터 생략될 수 있다.
더욱이, component_tag는 PMT의 ES_loop의 ES와 컴포넌트 디스크립터와의 관계를 표시하기 위해 사용될 수 있다.
3D 상보형 비디오 디스크립터를 TVCT를 통해 수신하는 수신기 동작 프로세스가 설명된다.
먼저, TVCT의 service_type을 사용하여, 대응하는 가상 채널이 풀-해상도 입체 3DTV 서비스를 제공하는지 여부가 결정된다. 또한, Spec-B를 지원하는 수신기는, 풀-해상도 입체 3DTV 서비스가 제공되는지 아니면 하프-해상도 입체 3DTV 서비스와 동일한 service_type을 사용함으로써 3D 상보형 비디오 디스크립터의 존재에 의해 그렇지 않은지를 결정할 수 있다.
다음에, 만약 풀-해상도 입체 3DTV 서비스가 제공된다면, 3D 입체 베이스 비디오 컴포넌트의 elementary_PID 정보(PID_B)가 입체 포맷 디스크립터를 사용하여 수신된다.
그 다음에, 상보형 비디오 컴포넌트에 관한 엘러멘터리 PID 정보(PID_C)가 3D 상보형 비디오 디스크립터를 사용하여 수신된다.
PID_B에 대응하는 베이스 비디오가 디코딩되고, 그 다음에, PID_C에 대응하는 상보형 비디오 신호가 디코딩된다.
풀-해상도의 좌측 영상 및 우측 영상이, 3D 상보형 비디오 디스크립터에 포함된 complementary_type, left_image_first_flag, 및 complementary_first_flag를 사용하여 베이스 비디오와 상보형 비디오 신호를 결합함으로써 획득된다. 그 다음에, 좌측 영상 및 우측 영상이 사용자에게 3D 디스플레이를 제공하기 위해 풀-해상도 입체 디스플레이에 출력된다.
도 52는 본 발명의 실시예에 따른, 3D 상보형 비디오 디스크립터가 PMT를 통해 어떻게 수신되는지를 예시한다.
먼저, PMT로부터 시그널링된 엘러멘터리 스트림에서 Spec-A에 대응하는 스트림이 식별된다. 다음으로, PMT로부터 시그널링된 엘러멘터리 스트림에서 상보형 비디오 스트림이 식별된다. TVCT를 통해 제공된 정보 및 program_number 필드를 이용하여 맵핑(mapping)이 수행된다. 그 다음에, 베이스 비디오가 상보형 비디오 신호의 디코딩과 함께 디코딩된다.
그 다음에, 좌측 영상 및 우측 영상을 갖는 풀 해상도가 획득된다. 마지막으로, 풀-해상도 입체 디스플레이가 사용자에게 3D로서 디스플레이된다.
도 53은 3D 신호를 파싱함으로써 입체 비디오 신호를 출력하기 위한 흐름 프로세스를 예시한다. 이 프로세스는 아래에서 설명된다.
먼저, SDT가 획득되고, TS 패킷이 필터링되게 된다. 그 다음에, 대응하는 서비스에 관한 PMT 정보가 획득된다. SDT 내에서의 서비스 루프를 조사함으로써, Spec-B 3D 서비스 타입 정보가 획득되고 저장된다. 서비스에 대응하는 PMT 정보가 획득되고 저장된다. 연결 디스크립터(linkage descriptor)를 통해, Spec-A 및 Spec-B 정보가 결정된다. Spec-B에 대한 PMT 정보가 상보형 비디오 스트림에 대한 PID 정보를 결정하기 위해 사용된다.
만약 수신기가 Spec-B를 수신할 수 있다면, Spec-B 3D 비디오를 제공하는 service_id가 선택되고, 상보형 비디오 스트림의 PID 필터 및 종래의 A/V 스트림과 함께 비디오/오디오에 관한 ES 디코딩이 수행된다. 그 다음에, 풀-해상도 3D 비디오가 재구성 제어에 의해 출력되고, 3D 비디오 출력의 변환이 상보형 비디오 디스크립터 정보를 사용하여 수행된다.
만약 수신기가 Spec-A를 수신할 수 있다면, Spec-A에 포함된 프레임-호환가능 비디오에 의해 제공되는 service_id가 선택된다. 그 다음에, 비디오/오디오 ES 디코딩 및 PID 필터가 A/V 스트림에 관해 수행된다. 마지막으로, 하프-해상도 3D 비디오가 출력된다.
도 54는 Spec-A 이벤트와 Spec-B 이벤트를 연결시키는 이벤트 연결을 확장시키는 프로세스를 상세히 예시한다. 종래의 SD 이벤트 및 HD 이벤트에서, 타겟 이벤트 서비스 타입에 관한 개별 정보는 제공되지 않았다. target_event type을 확장시킴으로써, 2D HD, 하프-해상도 3D, 풀-해상도 3D가 이제 구분가능하다. 그리고 이것에 근거하여 하프-해상도 3D 이벤트와 풀-해상도 3D 이벤트 간의 연결이 이제 존재한다.
도 55는 3D_complementary_video_descriptor의 위치가 ATSC PSIP EIT에 대한 풀-해상도 3D TV 서비스 가이드를 제공하기 위해 event_information_table_section() 내에 있음을 예시한다.
descriptor()는 풀-해상도 3D TV 서비스가 각각의 프로그램 및 이벤트에 대해 이용가능한지 여부를 표시하기 위해 for 루프 내에 있다.
도 56은 DVB SI EIT의 event_information_section()의 for 루프 내에 컴포넌트 디스크립터 혹은 3D_complementary_video_descriptor의 위치를 표시한다.
앞서 언급된 바와 같이, ATSC 전송에서, 3D_Complementary_video_descriptor_TVCT가 EIT에 포함되어 풀-해상도 3DTV에 시그널링하고, DVB에 대해 ATSC에 대한 동일 방법에 추가하여 컴포넌트 디스크립터가 또한 사용된다.
도 57은 ATSC PSIP EIT에 대한 3D 상보형 비디오 디스크립터를 파싱 및 렌더링하는 프로세스를 예시하고, 도 58은 DVB SI EIT에 대한 프로세스를 예시한다.
ATSC PSIP EIT에 있어서, 0x1FFB의 PID 값을 갖는 TS 패킷에 대해 필터링이 수행된다. 그 다음에, 0xC7 및 0xC8과 동일한 테이블 id를 갖는 섹션 데이터가 파싱된다. 그 다음에 MGT로부터 EIT를 갖는 스트림의 PID에 관한 정보가 획득된다. 그 다음에, 획득된 EIT PID로부터 TS 패킷이 필터링된다. EIT 내의 각각의 이벤트의 3D 상보형 비디오 디스크립터를 사용하여 각각의 VC 이벤트의 3D 상보형 비디오에 관한 정보가 획득된다.
그 다음에, 방송 가이드 정보에 관한 풀-해상도 3D 서비스의 이용가능도가 3D 방송 이벤트에 관한 풀-해상도 모드를 보기 위해 표시된다. 다음으로, TVCT 내의 SLD를 사용하는 기본적인 A/V 스트림의 PID의 정보가 획득된다. EIT로부터 3D 상보형 비디오 디스크립터를 통해 3D 상보형 비디오의 정보를 획득하는 것이 수행된다. 다음으로, 기본적인 A/V 스트림의 PID를 필터링하는 것이 또한 수행되고 비디오/오디오의 ES 디코딩이 수행된다.
마지막으로, 풀-해상도 3D 비디오의 출력이, 상보형 비디오 디스크립터 정보를 사용하여 출력 포맷터(output formatter)로부터의 변환 및 풀-해상도 3D 비디오의 재구성 제어에 의해 수행된다.
도 58은 DVB SI EIT에 대한 3D 상보형 비디오 디스크립터를 파싱 및 렌더링하는 프로세스를 보인 것이다.
먼저, TS 패킷이 PID 값(0x0011)에 대해 필터링된다. 그 다음에, table_id=0x42를 갖는 섹션 데이터가 파싱된다. PID(0x0012)를 갖는 TS 패킷이 필터링되고 table_id=0x4E를 갖는 섹션 데이터가 파싱된다. ATSC와 DVB 간의 차이는, DVB에서 3D 상보형 비디오 디스크립터 혹은 컴포넌트 디스크립터가 3D 상보형 비디오 스트림의 존재를 결정하기 위해 사용될 수 있다는 것이다.
마지막으로, 도 59는 3D 비디오 디코더를 구비한 방송 수신기의 블록도를 예시한다.
두 개의 계층들에서의 비디오 스트림들은 새로운-세대의 방송 수신기를 거치게 되고, 베이스-계층 비디오 스트림은 1차 비디오 디코더에서 디코딩된다.
인헨스먼트-계층 비디오 스트림은 2차 비디오 디코더에서 디코딩된다. 더욱이, PSI/PSIP/SI 프로세서는 새로운-세대 ATSC 스펙(spec) 및 DVB 스펙으로부터 3D 입체 정보를 파싱하는바, 여기서 PMT/TVCT/SDT는 3D 서비스들을 지원하기 위해 새로운 시그널링 신택스들을 포함한다. 그리고, 다음-세대 수신기는 풀-해상도 3D 비디오 포맷을 여러 종류의 3DTV 혹은 3D 디스플레이들에 따라 특정 입체 포맷으로 변환할 수 있다.
도 60은 본 발명의 일 실시예에 따른, 3D 서비스 2.0(Spec-B)의 개념도를 예시한다.
도면은 본 발명의 실시예에 따른 3D 서비스의 개념도를 나타낸다. 도면의 실시예에 따르면, 풀-해상도 영상을 제공하는 3D 서비스(C10000)는 3D 서비스 2.0(Spec-B) 및/또는 3D 서비스 2B로 지칭하기로 한다. 하프-해상도 영상을 제공하는 3D 서비스 1.0(C10010)은 하기에서, Frame Compatible 3D 서비스(FC-3D 서비스), 3D 서비스 1.0(Spec-A), 및/또는 3D 서비스 1A로 지칭하기로 한다.
3D 서비스 1.0(Spec-A)(C10010)는 하프-해상도 좌측 영상 및 하프-해상도 우측 영상으로 서비스될 수 있다. 풀-해상도 영상을 제공하는 3D 서비스 2.0(Spec-B)(C10020)는, 풀-해상도 영상을 새로 전송하는 대신, 3D 서비스 1.0(Spec-A)(C10010)와 호환가능해야 하기 때문에, 3D 서비스 1.0(Spec-A)(C10010)의 영상 전송을 유지하며 그리고 풀-해상도 영상을 전송하기 위한 차동 데이터(differential data) 혹은 추가 데이터를 제공하는 방법이 사용될 수 있다. 더 구체적으로, 3D 서비스 1.0(Spec-A)(C10010)의 하프-해상도 비디오 요소에 3D 서비스 2.0(Spec-B)의 상보형 비디오 요소(complementary video element)(C10020)를 더함으로써 풀-해상도 3D 서비스(C10000)가 제공될 수 있다. 결국, 3D 서비스 1.0(Spec-A)을 지원할 수 있는 방송 수신기는, 3D 서비스 1.0(Spec-A)(C10010)의 데이터를 수신 및 프로세싱함으로써 하프-해상도 영상을 제공할 수 있고, 3D 서비스 2.0(Spec-B)를 지원할 수 있는 방송 수신기는, 3D 서비스 1.0(Spec-A)(C10010)의 데이터 및 3D 서비스 2.0(Spec-B)의 상보형 데이터를 수신 및 프로세싱함으로써 풀-해상도 영상을 제공할 수 있다.
도 61은 본 발명의 일 실시예에 따른, 3D 서비스 2.0(Spec-B)를 시그널링하는 방법을 나타낸 도면이다.
3D 서비스 2.0(Spec-B)를 시그널링하는 시그널링 정보는 시스템 레벨 및/또는 비디오 레벨에서 정의될 수 있다.
시스템 레벨에서 정의되는 경우, 시그널링 정보는 PSI, ATSC-PSIP, 및/또는 DVB-SI 등에 포함될 수 있다. 본 발명의 실시예에 따르면, PSI 테이블은 PAT, 및/또는 PMT를 포함할 수 있다. 또한, DVB SI 테이블은 NIT, SDT, 및/또는 EIT를 포함할 수 있다. 또한, ATSC PSIP 테이블은 VCT, STT, RRT, ETT, DCCT, DDCSCT, EIT, 및/또는 MGT를 포함할 수 있다. PSI 테이블, DVB SI 테이블, 및/또는 ATSC PSIP 테이블에 대한 구체적인 내용은 전술한 내용과 동일하므로, 전술한 내용으로 대체하기로 한다. 이하에서는, 시그널링 정보가 PSI 테이블 및/또는 DVB SI 테이블에서 정의되는 경우를 중심으로 설명하기로 한다.
비디오 레벨에서 정의되는 경우, 시그널링 정보는 비디오 ES의 헤더에 포함될 수 있다. 비디오 데이터가 MPEG-2 또는 MPEG-4 비디오 코딩 기법을 사용하여 인코딩되면, 시그널링 정보는 픽처 확장 및 사용자 데이터의 user_data()(13010) 내에 포함될 수 있다. 비디오 데이터가 H.264/AVC 또는 H.265/HEVC 비디오 코딩 기법을 사용하여 인코딩되면, 시그널링 정보는 SEI(Supplemental Enhancement Information) 메시지에 포함될 수 있다. 시그널링 정보가 비디오 레벨에서 정의되는 것은 ATSC 전송 과정뿐만 아니라, DVB 전송 과정에서도 동일하게 적용될 수 있다. 이하에서는, 시그널링 정보가 비디오 데이터가 H.264/AVC 비디오 코딩 기법을 사용하여 인코딩되는 것을 중심으로 설명하기로 한다.
시그널링 정보는 서비스 디스크립터, 베이스 레이어의 컴포넌트 디스크립터, 및/또는 인핸스먼트 레이어의 컴포넌트 디스크립터를 포함할 수 있다. 서비스 디스크립터, 베이스 레이어의 컴포넌트 디스크립터, 및/또는 인핸스먼트 레이어의 컴포넌트 디스크립터에 대한 구체적인 내용은 후술한다.
이하에서는, MPEG 및/또는 DVB 표준에서 3D 서비스 2.0(Spec-B)를 시그널링는 방법을 중심으로 설명하기로 한다.
도면을 참조하면, 3D 서비스 2.0(Spec-B)의 시그널링을 위한 시그널링 정보는 PMT, 비디오 ES, 서브타이틀, SDT, 및/또는 EIT 중에서 적어도 하나에 포함되는 디스크립터 및/또는 필드일 수 있다.
PMT는 AVC_video_descriptor 및/또는 서브타이틀링 디스크립터를 포함할 수 있다. 또한, 각 비디오 ES는 SEI 메시지를 포함할 수 있고, 서브타이틀들은 디스패러티 정보 및/또는 Disparity Signalling Segment(DSS)를 포함할 수 있다. 또한, SDT는 service descriptor 및/또는 component descriptor를 포함할 수 있다. EIT는 extended event linkage, component descriptor, content descriptor, 및/또는 video depth range descriptor를 포함할 수 있다. 시그널링 정보에 대한 구체적인 내용은 이하에서 설명하기로 한다.
3D 서비스 1.0(Spec-A)를 지원할 수 있는 수신기는 시그널링 정보를 기초로 베이스 계층의 베이스 비디오 데이터 및/또는 3D 비디오 정보를 수신 및 프로세싱함으로써 하프-해상도 3D 영상을 제공할 수 있다. 또한, 3D 서비스 2.0(Spec-B)를 지원할 수 있는 수신기는 시그널링 정보를 기초로 베이스 계층의 베이스 비디오 데이터 및/또는 3D 비디오 정보뿐만 아니라, 인핸스먼트 계층의 상보형 비디오 데이터 및/또는 3D 상보형 비디오 정보를 수신 및 프로세싱함으로써 풀-해상도 3D 영상을 제공할 수 있다.
본 발명의 실시예에 따른 베이스 비디오 데이터, 3D 비디오 정보, 상보형 비디오 데이터, 3D 상보형 비디오 정보, 및/또는 3DTV 서비스를 제공하는 구체적인 방법은 전술한 내용과 동일하므로, 전술한 내용으로 대체하기로 한다.
이하에서는 시그널링 정보에 대하여 구체적으로 설명한다.
먼저, 시그널링 정보는 AVC_video_descriptor를 포함할 수 있다.
AVC_video_descriptor는 AVC 비디오 스트림의 Sequence Parameter Set(SPS)에 포함된 프로파일(profile) 및/또는 레벨 파라미터들(level parameters)과 같은 관련된 AVC 비디오 스트림의 코딩 파라미터들을 식별하는 기본 정보를 포함할 수 있다. AVC_video_descriptor는 3D 서비스를 전송하는 트랜스포트 스트림(Transport Stream)의 PMT에서 각각의 엘러멘트리 스트림 엔트리(elementary stream entry)에 대하여 디스크립터 루프(Descriptor loop)에 포함될 수 있다. SPS는 프로파일 및/또는 레벨 등 시퀀스 전체의 부호화에 걸쳐있는 정보가 포함되어 있는 헤더 정보이다.
AVC_video_descriptor는 descriptor_tag field, descriptor_length field, profile_idc field, constraint_set0_flag field, constraint_set1_flag field, constraint_set2_flag field, AVC_compatible_flags field, level_idc field, AVC_still_present field, AVC_24_hour_picture_flag field, 및/또는 Reserved field를 포함할 수 있다.
descriptor_tag field는 AVC_video_descriptor를 식별하는 정보를 포함할 수 있다.
descriptor_length field는 AVC_video_descriptor의 크기를 나타내는 정보를 포함할 수 있다.
profile_idc field는 비트스트림이 기반을 둔 프로파일을 지시할 수 있다. 예를 들어, 프로파일은 Baseline profile, Main profile, 및/또는 Extended profile을 포함할 수 있다.
constraint_set0_flag field는 Baseline profile로 디코딩 가능한지 여부를 지시할 수 있다.
constraint_set1_flag field는 Main profile로 디코딩 가능한지 여부를 지시할 수 있다.
constraint_set2_flag field 는 Extended profile로 디코딩 가능한지 여부를 지시할 수 있다.
AVC_compatible_flags field는 ‘0’의 값을 가지는 5비트의 데이터일 수 있다. 디코더는 이 5비트를 무시할 수 있다.
level_idc field는 비트스트림의 레벨을 지시할 수 있다. 각 프로파일에서는 영상의 크기에 따라 레벨이 정해진다. 레벨은 대응하는 영상의 크기에 따라 파라미터의 제한을 규정한다. level_idc field는 다섯가지의 레벨과 그 중간 레벨을 포함할 수 있다.
AVC_still_present field는 AVC 비디오 스트림이 AVC still pictures를 포함하는지 여부를 지시할 수 있다. AVC still pictures는 IDR picture를 포함하는 AVC Access Unit을 포함할 수 있다. IDR picture는 IDR pictrue를 정확하게 디코딩하기 위한 충분한 정보를 전송하는 SPS(Sequence Parameter Set) NAL unit 및/또는 PPS(Picture Parameter Set) NAL unit 등의 다음에 올 수 있다.
AVC_24_hour_picture_flag field는 관련된 AVC 비디오 스트림이 AVC 24-hour pictures를 포함하는지 여부를 지시할 수 있다. AVC 24-hour picture는 24시간 이상의 미래의 프리젠테이션 타임을 포함하는 AVC Access Unit을 의미한다.
AVC_video_descriptor는 Frame_Packing_SEI_not_present_flag field를 더 포함할 수 있다.
Frame_Packing_SEI_not_present_flag field는 코딩된 비디오 시퀀스(또는, 비디오 ES)에 frame packing arrangement SEI message가 존재하는지 여부를 지시할 수 있다. Frame_Packing_SEI_not_present_flag field는 비디오 스퀀스가 3DTV 비디오 포맷인지 HDTV 비디오 포맷인지 여부를 지시할 수 있다.
예를 들어, 3D 비디오 포맷의 전송 동안에, Frame_Packing_SEI_not_present_flag field는 코딩된 비디오 시퀀스에 frame packing arrangement SEI message가 존재한다는 것을 시그널하기 위해서 ‘0’으로 세팅될 수 있다. 또한, HDTV 비디오 포멧의 전송 동안에, Frame_Packing_SEI_not_present_flag field는 코딩된 비디오 시퀀스에 frame packing arrangement SEI message가 존재한다는 것을 시그널하기 위해서 ‘0’으로 세팅될 수 있다.
또한, 오직 HDTV 비디오 포맷만 사용되거나, 3D 비디오 포맷으로 포맷 전환(transition)이 발생할 예정이 없거나, 및/또는 3D 비디오 포맷으로 포맷 전환(transition)이 발생한 적이 없는 경우에, Frame_Packing_SEI_not_present_flag field는 코딩된 비디오 시퀀스에 frame packing arrangement SEI message가 존재하지 않는다는 것을 시그널하기 위해서 ‘1’로 세팅될 수 있다.
베이스 레이어 스트림에서, 수신기는 시그널링 정보를 기초로 베이스 비디오 데이터를 프로세싱할 수 있다.
인핸스먼트 레이어 스트림에서, PMT의 stream_type field의 값이 “0x20”이면, 인핸스먼트 레이어의 비디오 스트림은 “MVC video sub-bitstream of an AVC video stream”을 나타낼 수 있다. 수신기는 AVC_video_descriptor의 Frame_Packing_SEI_not_present_flag field를 기초로 비트스트림에 frame packing arrangement SEI message의 존재 여부를 식별할 수 있다.
또한, 시그널링 정보는 서비스 디스크립터(service descriptor)를 포함할 수 있다.
서비스 디스크립터(service descriptor)는 서비스의 유형, 서비스 제공자, 및/또는 서비스의 이름을 설명하는 디스크립터이다. 서비스 디스크립터(service descriptor)는 PMT, SDT, 및/또는 EIT에 포함될 수 있다.
서비스 디스크립터는 descriptor_tag field, descriptor_length field, service_type field, service_provider_name_length field, 서비스 제공자의 이름을 나타내는 char field, service_name_length field field, 및/또는 서비스의 이름을 나타내는 char field를 포함할 수 있다. 서비스 디스크립터에 대한 구체적인 내용은 전술한 내용으로 대체하기로 한다.
service_type field는 서비스의 타입을 지시할 수 있다. 서비스를 위한 service_type의 할당은 전술한 내용으로 대체하기로 한다.
추가적으로, service_type field의 값이 “0x0B”이면, “advanced codec mosaic service” 및/또는 “H.264/AVC mosaic service”를 지시할 수 있다. service_type field의 값이 “0x16”이면, “advanced codec SD digital television service” 및/또는 “H.264/AVC SD digital television service”를 지시할 수 있다. service_type field의 값이 “0x17”이면, “advanced codec SD NVOD time-shifted service” 및/또는 “H.264/AVC SD NVOD time-shifted service”를 지시할 수 있다. service_type field의 값이 “0x18”이면, “advanced codec SD NVOD reference service” 및/또는 “H.264/AVC SD NVOD reference service”를 지시할 수 있다. service_type field의 값이 “0x19”이면, “advanced codec HD digital television service” 및/또는 “H.264/AVC HD digital television service”를 지시할 수 있다. service_type field의 값이 “0x1A”이면, “advanced codec HD NVOD time-shifted service” 및/또는 “H.264/AVC HD NVOD time-shifted service”를 지시할 수 있다. service_type field의 값이 “0x1B”이면, “advanced codec HD NVOD reference service” 및/또는 “H.264/AVC HD NVOD reference service”를 지시할 수 있다.
또한, service_type field의 값이 “0x1C”이면, “advanced codec frame compatible plano-stereoscopic HD digital television service” 및/또는 “H.264/AVC frame compatible plano-stereoscopic HD digital television service”를 지시할 수 있다. service_type field의 값이 “0x1D”이면, “advanced codec frame compatible plano-stereoscopic HD NVOD time-shifted service” 및/또는 “H.264/AVC frame compatible plano-stereoscopic HD NVOD time-shifted service”를 지시할 수 있다. service_type field의 값이 “0x1E”이면, “advanced codec frame compatible plano-stereoscopic HD NVOD reference service” 및/또는 “H.264/AVC frame compatible plano-stereoscopic HD NVOD reference service”를 지시할 수 있다.
service_type field의 값이 “0x1C”, “0x1D”, 및/또는 “0x1E” 중에서 하나이면, “H.264/AVC frame compatible HD” 서비스를 지시할 수 있다. 수신기는 베이스 비디오 데이터 및/또는 인핸스먼트 비디오 데이터의 service_type field의 값이 “0x1C”, “0x1D”, 및/또는 “0x1E” 중에서 하나이면, 해당 비디오 서비스는 “H.264/AVC frame compatible HD”라고 판단할 수 있다.
또한, 시그널링 정보는 콘텐트 디스크립터(content_descriptor)를 포함할 수 있다.
콘텐트 디스크립터는 이벤트의 분류 정보를 제공할 수 있다. 콘텐트 디스크립터는 EIT 및/또는 SIT에 포함될 수 있다. 콘텐트 디스크립터에 대한 구체적인 내용은 후술하기로 한다.
또한, 시그널링 정보는 Frame Packing Arrangement SEI message를 포함할 수 있다.
3D 서비스 2.0(Spec-B)는 2D 이벤트와 3D 이벤트 사이에서 동적인 전환을 위한 시그널링을 제공할 수 있다. 인코딩된 비디오 스트림은 3D 서비스 2.0(Spec-B)를 시그널링하기 위해서 Frame Packing Arrangement(FPA) Supplemental Enhancement Information(SEI) 메시지를 포함할 수 있다. 3DTV 비디오 포맷과 HDTV 비디오 포맷(예를 들어, non-3DTV 포맷)을 스위칭할 수 있는 3D 서비스는 3DTV 비디오 포맷의 비디오 스트림의 전송 시간 동안뿐만 아니라 HDTV 비디오 포맷의 비디오 스트림의 전송 시간 동안에도 Frame Packing Arrangement SEI 메시지를 포함할 수 있다.
Frame Packing Arrangement SEI 메시지는 3D 서비스 2.0(Spec-B)를 시그널링하는 정보를 포함할 수 있다. 예를 들어, Frame Packing Arrangement SEI 메시지는 Frame_packing_arrangement_cancel_flag field, 3D 서비스 2.0(Spec-B) 비디오 스트림의 포맷과 같은 다른 특성 정보들을 포함할 수있다.
Frame_packing_arrangement_cancel_flag field는 비디오 스트림인 3D 비디오 포맷인지 HDTV 비디오 포맷인지 여부를 지시할 수 있다.
예를 들어, Frame_packing_arrangement_cancel_flag field의 값이 ‘0’이면, 3D 비디오 포맷이 사용된다고 지시할 수 있고, 해당 디스크립터의 다른 필드들은 3D 비디오 스트림의 포맷 및/또는 다른 특성들을 시그널할 수 있다.
Frame_packing_arrangement_cancel_flag field의 값이 ‘1’이면, HDTV 비디오 포맷(즉, non-3D 비디오 포맷)이 사용된다고 지시할 수 있다. 예를 들어, Frame_packing_arrangement_cancel_flag field의 값이 ‘1’이면, HDTV 비디오 포맷이 사용된다고 지시할 수 있다.
수신기는 Frame Packing Arrangement SEI message를 기초로 샘플들을 다시 재배열할 수 있고, 구성 프레임들(좌영상 및/또는 우영상)의 샘플들을 디스플레이하기 적합하도록 처리할 수 있다.
Frame Packing Arrangement SEI message 인핸스먼트 레이어 스트림에는 존재하지 않고, 베이스 레이어 스트림에만 존재할 수 있다.
다만, Frame Packing Arrangement SEI message는 전술한 3D 서비스 디스크립터에 포함된 필드들 및/또는 전술한 3D 상보형 비디오 정보에 포함된 필드들을 포함할 수 있다. 3D 서비스 디스크립터는 베이스 비디오 데이터에 대한 시그널링 정보를 포함할 수 있다. 3D 상보형 비디오 정보는 인핸스먼트 비디오 데이터에 관한 시그널링 정보를 포함할 수 있다. 3D 서비스 디스크립터 및/또는 3D 상보형 비디오 정보는 전술한 내용과 동일하므로, 전술한 내용으로 대체하기로 한다.
이하에서는 서브타이틀과 관련된 시그널링 정보를 설명한다.
수신기는 서브타이틀들 및/또는 그래픽들과 같은 부가적인 콘텐트를 3D 이미지에 가려지지 않도록 디스플레이할 수 있다. 서브타이틀은 SDTV 및/또는 HDTV뿐만 아니라 3D 서비스의 중요한 요소이다. 온-스크린(on-screen) 그래픽들과 함께, 서브타이틀들이 3D 비디오 콘텐트 상에, 깊이와 타이밍 조건 하에서, 정확하게 위치하는 것은 매우 중요하다.
첫째, 시그널링 정보는 Disparity Signalling Segment(DSS)를 포함할 수 있다.
DSS는 영역 내에서 서브 영역들의 정의를 포함할 수 있다. Disparity Signalling Segment(DSS)는 서브타이틀에 포함될 수 있다.
둘째, 시그널링 정보는 DVB 서브타이틀에 관한 정보를 포함할 수 있다. 컴포넌트 디스크립터에서 stream_content field의 값이 “0x03”인 경우, 시그널링 정보는 component_type field 의 값에 따라서 DVB 서브타이틀에 관한 정보를 포함할 수 있다.
셋째, 시그널링 정보는 서브타이틀링 디스크립터(subtitling descriptor)를 포함할 수 있다.
서브타이틀링 디스크립터는 DVB 서브타이틀에 관한 정보를 포함할 수 있다. 서브타이틀링 디스크립터는 PMT에 포함될 수 있다.
넷째, 시그널링 정보는 디스패러티 정보를 포함할 수 있다. 디스패러티 정보는 물체가 스크린의 앞으로 얼마나 가까운 곳에 있는지 또는 스크린의 뒤로 얼마나 먼 곳에 있는지를 나타내는 정보이다. 디스패러티 정보는 서브타이틀에 포함될 수 있다.
다섯째, 시그널링 정보는 비디오 뎁스 레인지 디스크립터(Video depth range descriptor)를 포함할 수 있다. 3D 비디오의 상단에 디스플레이되는 그래픽(예를 들어, 텍스트 및/또는 아이콘)들의 배치를 최적화하기 위해서, 비디오 뎁스 레인지 디스크립터는 3D 비디오의 의도된 뎁스 레인지(depth range)를 지시할 수 있다.
여섯째, 시그널링 정보는 멀티 리전 디스패러티(Multi-region disparity)를 포함할 수 있다. 멀티 리전 디스페러티는 비디오 레벨에서의 디스패러티 정보를 제공한다.
Disparity Signalling Segment(DSS), DVB 서브타이틀에 관한 정보, 서브타이틀링 디스크립터(subtitling descriptor), 디스패러티 정보, 비디오 뎁스 레인지 디스크립터(Video depth range descriptor), 및/또는 멀티 리전 디스패러티(Multi-region disparity)에 대한 구체적인 내용은 후술하기로 한다.
도 62은 본 발명의 일 실시예에 따른, 컴포넌트 디스크립터의 stream_content field 및/또는 component_type field를 나타낸 도면이다.
또한, 시그널링 정보는 컴포넌트 디스크립터(component descriptor)를 포함할 수 있다.
컴포넌트 디스크립터는 컴포넌트 스트림의 타입을 식별하고, 엘레멘터리 스트림의 텍스트 디스크립션(text description)을 제공하는데 사용될 수 있다. 컴포넌트 디스크립터(component descriptor)는 SDT 및/또는 EIT에 포함될 수 있다. 즉, 컴포넌트 디스크립터는 SDT의 디스크립터로 정의됨으로써 해당 서비스의 3DTV 서비스 여부를 판단할 수 있고, EIT의 디스크립터로 정의됨으로써, 해당 이벤트의 3DTV 여부도 판단할 수 있다.
컴포넌트 디스크립터는 descriptor_tag field, descriptor_length field, reserved_future_use field, stream_content field, component_type field, component_tag field, ISO_639_language_code field, 및/또는 text_char field를 포함할 수 있다. 컴포넌트 디스크립터에 대한 구체적인 내용은 전술한 내용으로 대체하기로 한다.
컴포넌트 스트림의 유형은 적어도 하나의 파라미터를 포함할 수 있다. 예를 들어, 파라미터는 비트스트림 정보, 비디오 스트림의 코덱 정보, 프로파일(profile) 정보, 레졸루션 정보, 화면 비율 정보, 프레임 레이트 정보, 영상 포맷 정보, 및/또는 Bitdepth 정보를 포함할 수 있다.
stream_content field가 ‘0x01’인 경우에는 MPEG-2 비디오를 나타내고, 이 경우 component_type field가 ‘0x11’인 경우에는 25Hz의 프레임-컴패터블 3D 비디오임을 지시하고, component_type field 가 ‘0x12’인 경우에는 30Hz의 프레임-컴패터블 3D 비디오임을 지시할 수 있다.
또한, stream_content field가 ‘0x05’인 경우에는 H.264/AVC SD(standard definition) 비디오를 나타내고, 이 경우 component_type field가 ‘0x11’인 경우에는 25Hz의 프레임-컴패터블 3D 비디오임을 지시하고, component_type field가 ‘0x12’인 경우에는 30Hz의 프레임-컴패터블 3D 비디오임을 지시할 수 있다.
또한, stream_content field가 ‘0x03’이고, component_type field가 ‘0x14’인 경우에는, 3D 모니터상에 디스플레이를 위한 DVB 서브타이틀즈 (normal)를 지시하고, stream_content field가 ‘0x03’이고, component_type field가 ‘0x24’인 경우에는, 3D 모니터상에 디스플레이를 위한 DVB 서브타이틀즈 (for the hard of hearing)를 지시할 수 있다.
도면을 참조하면, 본 발명의 일 실시예에 따른 컴포넌트 디스크립터는 3D 서비스 2.0(Spec-B)에 적용 가능한 새로운 stream_content field 및/또는 component_type field를 포함할 수 있다.
베이스 레이어의 stream_content field가 ‘0x05’이고 component_type field가 ‘0x80’인 경우, 베이스 비디오 데이터는 H.264/AVC planostereoscopic frame compatible high definition video, 16:9 aspect ratio, 25 Hz, 및/또는 Side-by-Side를 지시할 수 있다.
베이스 레이어의 stream_content field가 ‘0x05’이고 component_type field가 ‘0x81’인 경우, 베이스 비디오 데이터는 H.264/AVC planostereoscopic frame compatible high definition video, 16:9 aspect ratio, 25Hz, Top-and-Bottom을 지시할 수 있다.
베이스 레이어의 stream_content field가 ‘0x05’이고 component_type field가 ‘0x82’인 경우, 베이스 비디오 데이터는 H.264/AVC planostereoscopic frame compatible high definition video, 16:9 aspect ratio, 30Hz, Side-by-Side를 지시할 수 있다.
베이스 레이어의 stream_content field가 ‘0x05’이고 component_type field가 ‘0x83’인 경우, 베이스 비디오 데이터는 H.264/AVC stereoscopic frame compatible high definition video, 16:9 aspect ratio, 30 Hz, Top-and-Bottom를 지시할 수 있다.
본 발명의 일 실시예에 따르면, stream_content field가 ‘0x05’인 경우, 인핸스먼트 레이어를 위하여 새로운 component_type field를 포함할 수 있다. 이 경우, 3D 시스템의 유형에 관계없이 베이스 레이어에 대응하는 인핸스먼트 레이어의 stream_content field 및/또는 component_type field는 각각 하나의 동일한 값을 가질 수 있다. 다만, 실시예에 따라서, 각각 다른 값을 가질 수도 있다.
예를 들어, 인핸스먼트 레이어의 stream_content field가 ‘0x05’이고 component_type field가 ‘0x85’인 경우, 인핸스먼트 비디오 데이터는 H.264/MVC dependent view, plano-stereoscopic service compatible video를 지시할 수 있다. component_type field의 값은 고정된 값이 아니고, 실시예에 따라서 변경될 수 있다. 예를 들어, 인핸스먼트 레이어의 stream_content field가 ‘0x05’이고 component_type field가 ‘0x84’인 경우에도 H.264/MVC dependent view, plano-stereoscopic service compatible video를 지시할 수 있다.
구체적으로, 인핸스먼트 레이어의 stream_content field가 ‘0x05’이고, component_type field가 ‘0x85’인 경우에는 H.264/MVC dependent view, plano-stereoscopic service compatible video, 25Hz, Side-by-Side를 지시할 수 있다. 또한, 인핸스먼트 레이어의 stream_content field가 ‘0x05’이고, component_type field가 ‘0x85’인 경우에는 H.264/MVC dependent view, plano-stereoscopic service compatible video, 25Hz, Top-and-Bottom를 지시할 수 있다. 또한, 인핸스먼트 레이어의 stream_content field가 ‘0x05’이고, component_type field가 ‘0x85’인 경우에는 H.264/MVC dependent view, plano-stereoscopic service compatible video, 30Hz, Side-by-Side를 지시할 수 있다. 또한, 인핸스먼트 레이어의 stream_content field가 ‘0x05’이고, component_type field가 ‘0x85’인 경우에는 H.264/MVC dependent view, plano-stereoscopic service compatible video, 30Hz, Top-and-Bottom를 지시할 수 있다.
수신기는 컴포넌트 디스크립터의 stream_content field 및/또는 component_type field를 기초로 비디오 스트림의 유형을 식별할 수 있다. 예를 들어, 베이스 레이어의 stream_content field가 ‘0x05’이고, component_type field가 ‘0x80’ 인 경우, 베이스 비디오 데이터의 포맷이 프레임-컴패터블 비디오 포맷임을 지시할 수 있다. 또한, 인핸스먼트 레이어의 stream_content field가 ‘0x05’이고, component_type field가 ‘0x85’ 인 경우, 인핸스먼트 비디오 데이터의 포맷이 프레임-컴패터블 비디오 포맷임을 지시할 수 있다. 이때, 베이스 비디오 데이터 및/또는 인핸스먼트 비디오 데이터의 포맷은 사이드-바이-사이드 및/또는 탑-바텀 중에서 하나일 수 있다.
베이스 비디오 데이터 및/또는 인핸스먼트 비디오 데이터의 포맷이 각각 프레임-컴패터블 비디오 포맷이면, 3D 서비스 2.0(Spec-B)를 지시할 수 있다.
도 63은 본 발명의 일 실시예에 따른, 링키지 디스크립터의 linkage_type field 및/또는 link_type field를 나타낸 도면이다.
또한, 시그널링 정보는 링키지 디스크립터(linkage descriptor)를 포함할 수 있다.
링키지 디스크립터는 SI 시스템 내의 특정 entity에 관련된 부가 정보가 요구될 때에 존재할 수 있는 서비스를 지시할 수 있다. 링키지 디스크립터는 부가 정보를 제공하는 서비스가 요구되는 해당 테이블 내에 존재할 수 있다. Service replacement service와 같은 경우 링키지 디스크립터를 사용하여 지정할 수 있는데, 현재 수행되고 있는 서비스의 running status가 ‘non running’ 상태일 때 수신기에서 해당 replacement service를 자동적으로 선택할 수 있다.
예를 들어, 링키지 디스크립터는 SDT 및/또는 EIT에 포함될 수 있고, 수신기는 링키지 디스크립터를 기초로 현재 시청 중인 특정 2D service_id 또는 향후 방송될 특정 2D event_id에 대해 대응되는 3D 서비스 또는 이벤트를 파악할 수 있다.
링키지 디스크립터는 descriptor_tag field, descriptor_length field, transport_stream_id field, original_network_id field, service_id field, linkage_type field, mobile_hand-over_info() field, event_linkage_info() field, extended_event_linkage_info() field, 및/또는 private_data_byte field를 포함할 수 있다. 링키지 디스크립터에 대한 구체적인 내용은 전술한 내용으로 대체하기로 한다.
mobile_hand-over_info() field는 모바일 수신기가 핸드오버(hand-over)하는 서비스를 식별할 수 있다. 이 서비스는 service_id로 더 이상 실제 서비스를 수신할 수 없을 때, 수신기에 의해서 자동적으로 선택될 수 있다.
event_linkage_info() field는 두 개의 이벤트를 동일하게 시그널링할 때 사용될 수 있다. 링크된 이벤트는 사이멀캐스트(simulcast)이거나 타임 오프셋(time offset)일 수 있다. 타겟 이벤트가 더 높은 품질을 갖는 경우에는, event_simulcast filed는 세팅될 수 있다.
event_linkage_info() field는 target_event_id field, target_listed field, event_simulcast field, 및/또는 reserved field 를 포함할 수 있다.
target_event_id field는 소스 이벤트에 대응하는 타겟 이벤트를 식별하는 이벤트 식별(event_id) 정보를 포함할 수 있다. 소스 이벤트는 해당 linkage_descriptor가 속한 이벤트이며, 해당 linkage_descriptor의 위치에 의해서 식별되는 이벤트이다. 타겟 이벤트는 해당 linkage_descriptor에 의해서 지정된 이벤트이며, original_network_id, transport_stream_id 및/또는 service_id에 의해서 정의되는 서비스로 전송되는 이벤트이다.
target_listed field는 original_network_id field, transport_stream_id field 및/또는 service_id field에 의해서 정의된 서비스가 해당 TS로 전송되는 SDT에 포함되는지 여부를 지시할 수 있다.
event_simulcast field는 타겟 이벤트 및 소스 이벤트가 사이멀캐스트(simulcast)되는지 여부를 지시할 수 있다.
extended_event_linkage_info() field는 적어도 하나의 이벤트를 동일하게 시그널링할 때 사용될 수 있다. 링크된 이벤트는 사이멀캐스트(simulcast)이거나 타임 오프셋(time offset)일 수 있다.
extended_event_linkage_info() field는 loop_length 및/또는 적어도 하나의 루프(loop)를 포함할 수 있다. 각각의 루프는 링크된 이벤트를 나타낼 수 있다. 각각의 루프는 target_event_id field, target_listed field, event_simulcast field, link_type field, target_id_type field, original_network_id_flag field, service_id_flag field, user_defined_id field, target_transport_stream_id field, target_original_network_id field, 및/또는 target_service_id field를 포함할 수 있다.
loop_length field는 다음에 오는 루프(loop)의 바이트 단위의 크기를 지시할 수 있다.
target_event_id는 소스 이벤트에 대응하는 타겟 이벤트를 식별하는 이벤트 식별(event_id) 정보를 포함할 수 있다.
target_listed field는 original_network_id field, transport_stream_id field 및/또는 service_id field에 의해서 정의된 서비스가 해당 TS로 전송되는 SDT에 포함되는지 여부를 지시할 수 있다.
event_simulcast field는 타겟 이벤트 및 소스 이벤트가 사이멀캐스트(simulcast)되는지 여부를 지시할 수 있다.
link_type field는 타겟 서비스의 타입을 지시할 수 있다.
도면을 참조하면, linkage_type field가 “0x0E”이고 link_type이 “0”이면, 링키지 타입은 “extended event linkage”이고 타겟 서비스의 타입은 Standard Definition Video(SD)를 지시할 수 있다. 또한, linkage_type field가 “0x0E”이고 link_type이 “1”이면, 링키지 타입은 “extended event linkage”이고 타겟 서비스의 타입은 High Definition Video(HD)를 지시할 수 있다. 또한, linkage_type field가 “0x0E”이고 link_type이 “2”이면, 링키지 타입은 “extended event linkage”이고 타겟 서비스의 타입은 frame compatible plano-stereoscopic H.264/AVC를 지시할 수 있다. 또한, linkage_type field가 “0x0E”이고 link_type이 “3”이면, 링키지 타입은 “extended event linkage”이고 타겟 서비스의 타입은 service compatible plano-stereoscopic MVC를 지시할 수 있다.
target_id_type field는 original_network_id_flag field 및/또는 service_id_flag field와 함께 타겟 서비스 또는 타겟 서비스들을 식별할 수 있다.
target_id_type field가 “0”이면 싱글 타겟 서비스를 식별하기위해서 transport_stream_id field가 사용될 수 있음을 지시한다. target_id_type field가 “1”이면 싱글 타겟 서비스를 식별하기 위해서 transport_stream_id field 대신에 target_transport_stream_id field가 사용될 수 있음을 지시한다. target_id_type field가 “2”이면 타겟 서비스들은 적어도 하나의 트랜스포트 스트림(wildcarded TSid)에 포함되는 것을 지시한다. target_id_type field가 “3”이면 타겟 서비스들은 user defined identifier에 의해서 매칭될 수 있다.
original_network_id_flag field는 타겟 서비스를 결정하기 위해서 original_network_id field 대신에 target_original_network_id field가 사용되는지 여부를 지시할 수 있다.
service_id_flag field는 타겟 서비스를 결정하기 위해서 service_id 대신에 target_service_id가 사용되는지 여부를 지시할 수 있다.
user_defined_id field가 사용되면, 링키지 디스크립터는 private data specifier descriptor의 범위에 포함될 수 있다. 따라서, 수신기는 user_defined_id field의 의미를 결정할 수 있다.
target_transport_stream_id field는 target_id_type field, original_network_id_flag field, 및/또는 service_id_flag field 의 통제 하에서 지시되는 정보 서비스를 포함하는 대안의(alternate) TS를 식별할 수 있다.
target_original_network_id는 target_id_type field, original_network_id_flag field, 및/또는 service_id_flag field 의 통제 하에서 지시되는 정보 서비스를 포함하는 대안의(alternate) 오리지네이팅 딜리버리 시스템(originating delivery system)의 네트워크 식별(network_id) 정보를 포함할 수 있다.
target_service_id는 target_id_type field, original_network_id_flag field, 및/또는 service_id_flag field 의 통제 하에서 지시되는 대안의(alternate) 정보 서비스를 식별할 수 있다.
본 발명의 일 실시예에 따른 링키지 디스크립터를 사용하여 3D 서비스 2.0(Spec-B)를 시그널링하는 방법을 설명한다.
첫째, linkage_type field가 ‘0x05’이면 링키지 타입은 “service replacement service”를 지시할 수 있다. 또한, private_data_byte 영역에서 리플레이스먼트 타입을 3D 서비스 2.0(Spec-B)로 지정할 수도 있다.
둘째, EIT로 링키지 디스크립터를 전송하는 경우, linkage_type이 ‘0x0D’이면 링키지 타입은 “event linkage”를 지시할 수 있다. 수신기는 EIT를 통해 target_event_id에 대한 3D 서비스 디스크립터 또는 컴포넌트 디스크립터를 이용해 대응되는 3D 서비스 2.0(Spec-B)를 시그널링할 수 있다.
셋째, EIT로 링키지 디스크립터를 전송하는 경우, linkage_type이 ‘0x0E’이며 링키지 타입은 “extended event linkage”를 지시할 수 있다. 또한, link_type이 ‘2’이면, 타겟 서비스의 타입은 frame compatible plano-stereoscopic H.264/AVC를 지시할 수 있다. linkage_type field가 ‘0x0E’이고 link_type field가 ‘2’이면, 3D 서비스 2.0(Spec-B)를 지시할 수 있다. 따라서, 수신기는 linkage_type field 및/또는 link_type field를 기초로 3D 서비스 2.0(Spec-B)를 시그널링 할 수 있다. 또한, 수신기는 EIT를 통해 target_event_id에 대한 3D 서비스 디스크립터 또는 컴포넌트 디스크립터를 이용해 대응되는 3D 서비스 2.0(Spec-B)를 시그널링할 수 있다.
넷째, linkage_type field에 ‘0x0F’의 새로운 값을 지정하고 해당 디스크립션은 “3D 서비스 2.0(Spec-B)”로 지정할 수 있다.
다섯째, linkage_type field가 ‘0x05’이면, 링키지 타입은 “service replacement service”을 지시할 수 있다. 수신기는 타겟 서비스에 대한 service_type은 그 서비스에 대한 SDT, EIT 등을 직접 파싱하여 3D 서비스 2.0(Spec-B)를 시그널링할 수 있다. 이 방법을 기초로, 수신기는 3D에 대응되는 2D 서비스를 찾을 수 있다.
도 64은 본 발명의 일 실시예에 따른 수신기의 블록도를 나타낸 도면이다.
본 발명의 일 실시예에 따른 수신기는 전술한 3D 이미지 디스플레이 장치 및/또는 방송 수신기의 기능을 포함할 수 있다.
도면을 참조하면, 본 발명의 일 실시예에 따른 수신기는, 수신부(C10210), 복조부(C10220), 역다중화부(C12030), 시그널링 정보 처리부(C10240), 3D 비디오 디코더(C10250), 및/또는 출력 포매터(C10260)를 포함한다.
수신부(C10210)는 RF(radio frequency) 채널을 통하여 방송 신호를 수신한다.
복조부(C10220)는 수신한 방송 신호를 복조한다.
역다중화부(C10230)는 복조된 방송 신호로부터 오디오 데이터, 비디오 데이터 및/또는 시그널링 정보를 역다중화(demultiplex)한다. 이를 위해, 역다중화부(C10230)는 PID(Packet IDentifier)를 이용하여 필터링(filtering)함으로써 방송 신호를 역다중화할 수 있다. 역다중화부(C10230)는 역다중화된 비디오 신호를 후단의 3D 비디오 디코더(C10250)로 출력하고, 시그널링 정보를 시그널링 정보처리부(C10240)로 출력한다. 여기서, 시그널링 정보는, 전술한 PSI, ATSC-PSIP, 및/또는 DVB-SI와 같은 시스템 정보를 포함할 수 있다
시그널링 정보 처리부(C10240)는, 역다중화부(C10230)로부터 전달받은 시그널링 정보를 처리할 수 있다. 여기서, 시그널링 정보 처리부(C10240)는 처리되는 시그널링 정보를 일시 저장하는 데이터베이스(DB: Database)를 내부 또는 외부에 구비할 수도 있다.
시그널링 정보 처리부(C10240)는 전술한 3D 서비스 2.0(Spec-B)를 시그널링하는 시그널링 정보를 처리할 수 있다. 예를 들어, 시그널링 정보는 3D 서비스 여부를 식별하는 정보, 베이스 비디오 데이터에 대한 구체적인 정보를 제공하는 3D 서비스 정보(3D 서비스 디스크립터), 및/또는 인핸스먼트 비디오 데이터에 대한 구체적인 정보를 제공하는 3D 상보형 비디오 정보를 포함할 수 있다. 3D 서비스 여부를 식별하는 정보는 컨텐츠가 2D인지 3D인지 식별하는 정보, 컨텐츠가 3D 서비스 1.0(Spec-A)인지 3D 서비스 2.0(Spec-B)를 식별하는 정보를 포함할 수 있다.
비디오 디코더(C10250)는 역다중화된 비디오 데이터를 수신하여 디코딩한다. 예를 들어, 비디오 디코더(C10250)는 시그널링 정보를 기초로 비디오 데이터를 디코딩할 수 있다. 비디오 디코더(C10250)는 베이스 비디오 데이터를 디코딩하는 베이스 비디오 디코더(C10252) 및/또는 인핸스먼트 비디오 데이터를 디코딩하는 인핸스먼트 비디오 디코더(C10254)를 포함할 수 있다.
출력 포맷터(C10260)는 3D 비디오 디코더(C10250)에서 디코딩된 3D 비디오 데이터들을 출력 포맷에 맞게 포맷팅(formatting)하여 출력부(미도시)로 출력한다. 여기서, 출력 포매터(C10260)는 디코딩된 비디오 데이터가 3D 비디오 데이터인 경우에는 3D 출력을 위한 출력 포맷에 맞게 포맷팅할 수 있다. 출력 포매터(C10260)는 디코딩된 비디오 데이터가 2D 비디오 데이터인 경우에는 2D 출력을 위한 출력 포맷에 맞게 비디오 데이터를 별도 가공하지 않고 그대로 출력할 수 있다.
이하에서는, 본 발명의 일 실시예에 따른 수신기가 방송 신호를 처리하는 방법을 설명한다.
역다중화부(C10230)는 수신되는 방송 신호로부터 SDT 및/또는 EIT 섹션들을 필터링하여 파싱한다. 여기서, 전술한 바와 같이, 역다중화부는 PID 필터링을 통해 SDT 및/또는 EIT 섹션들을 필터링할 수 있다.
시그널링 정보 처리부(C10240)는 파싱된 SDT 및/또는 EIT 내의 서비스 루프에서 3D 서비스 1.0(Spec-A)타입을 갖는 서비스에 대한 정보를 획득 및 저장한다.그 다음, 시그널링 정보 처리부는 3D 서비스 1.0(Spec-A)에 대한 PMT 정보를 획득 및 저장한다.
또한, 시그널링 정보 처리부(C10240)는 파싱된 SDT 및/또는 EIT 내의 서비스 루프에서 3D 서비스 2.0(Spec-B)타입을 갖는 서비스에 대한 정보를 획득 및 저장한다. 즉, 시그널링 정보 처리부는 3D 서비스 2.0(Spec-B)에 대한 PMT 정보를 획득 및 저장한다.
시그널링 정보 처리부(C10240)는 3D 서비스 1.0(Spec-A)에 대한 PMT 정보 및/또는 3D 서비스 2.0(Spec-B)에 대한 PMT 정보를 이용해 베이스 비디오 스트림에 대한 PID 정보 및/또는 인핸스먼트 비디오 스트림에 대한 PID 정보를 획득할 수 있다.
수신기의 동작은 서비스의 종류에 따라서 세 갈래로 나뉠 수 있다.
먼저, 2D 서비스에 대해 설명하면, 다음과 같다.
수신기는 2D 비디오(base view video)를 제공하는 service_id 선택한다. service_id를 가진 채널은 예를 들어, 레거시 채널이다.
3D 비디오 디코더(C10250)는 2D 데이터에 해당하는 비디오 스트림에 대한 PID 필터링 및 비디오 ES 디코딩를 한다. 그리고 나서, 수신기는 디코딩된 2D 비디오를 출력부를 통해 출력한다.
다음으로, 3D 서비스 1.0(Spec-A)에 대해 설명하면, 다음과 같다.
수신기는 3D 서비스 1.0(Spec-A)를 제공하는 service_id 선택한다. 이때, 상기 service_id의 service_type은 예를 들어, 하프-레졸루션 3D 서비스일 수 있다.
3D 비디오 디코더(C10250)는 베이스 레이어의 베이스 비디오 스트림에 대한 PID 필터링 및 비디오 ES를 디코딩한다.
출력 포맷터(C10260)는 시그널링 정보 및/또는 3D 서비스 디스크립터를 기초로 3D 비디오 데이터들을 출력 포맷에 맞게 포맷팅(formatting)하여 출력부(미도시)로 출력한다.
수신기는 출력부를 통해 하프-해상도 3D 비디오를 화면상에 출력한다.
마지막으로, 3D 서비스 2.0(Spec-B)에 대해 설명하면, 다음과 같다.
수신기는 3D 서비스 2.0(Spec-B)를 제공하는 service_id 선택한다. 이때, 상기 service_id의 service_type은 예를 들어, 풀-레졸루션 3D 서비스일 수 있다.
3D 비디오 디코더(C10250)는 베이스 레이어의 베이스 비디오 스트림에 대한 PID 필터링 및 비디오 ES를 디코딩한다. 또한, 3D 비디오 디코더(C10250)는 인핸스먼트 레이어의 인핸스먼트 비디오 스트림에 대한 PID 필터링 및 비디오 ES를 디코딩한다.
출력 포맷터(C10260)는 시그널링 정보, 3D 서비스 정보, 및/또는 3D 상보형 비디오 정보를 기초로 3D 비디오 데이터들을 출력 포맷에 맞게 포맷팅(formatting)하여 출력부(미도시)로 출력한다.
수신기는 출력부를 통해 풀-해상도 3D 비디오를 화면상에 출력한다.
한편, 시그널링 정보 처리부(C10240)는 시그널링 정보로부터 링키지 디스크립터를 파싱하고, 파싱된 링키지 디스크립터의 정보를 이용하여 2D 서비스, 3D 서비스 1.0(Spec-A), 및/또는 3D 서비스 2.0(Spec-B) 사이의 연결 정보를 파악할 수 있다.
도 65은 본 발명의 일 실시예에 따른, 3D 서비스 3.0의 개념도를 예시한다.
도면은 본 발명의 일 실시예에 따른 3D 서비스 3.0(C20000)의 개념도를 나타낸다.
본 발명의 일 실시예에 따른 3D 서비스 3.0(C20000)은 H.265/HEVC(High efficiency video coding) 코딩 기법을 사용하여 인코딩된 비디오 스트림의 방송 신호를 전송 및/또는 수신하기 위한 기능을 구현하기 위한 것이다.
3D 서비스 3.0(C20000)은 H.265/HEVC(High efficiency video coding) 코딩 기법을 사용하여 인코딩된 서비스들(예를 들어, 비디오 스트림, 비디오 데이터 등)에 대한 서비스-프레임-컴패터블 3D 서비스(Service frame compatible Plano-stereoscopic 3DTV for HEVC coded services, SFC 3DTV 서비스)를 나타낸다.
SFC-3D 서비스는 비디오 비트스트림에 시그널링 정보를 선택적으로 전송하는 프레임-컴패터블 서비스(FC-3D 서비스)이다. 시그널링 정보는 FC-3D 서비스의 비디오 스트림에 포함된 두개의 영상(예를 들어, 좌영상 및 우영상)으로부터 어느 하나의 영상(예를 들어, 좌영상)을 추출하기 위한 제어정보를 포함할 수 있다. 또한, 시그널링 정보는 HDTV 서비스의 수신을 시뮬레이트(simulate)하기 위해서 추출한 영상을 업스케일링(up-scale)하는 제어정보를 포함할 수 있다. HDTV 수신기는 시그널링 정보를 기초로 FC-3D 서비스의 비디오 스트림에 포함된 두개의 영상(예를 들어, 좌영상 및 우영상)으로부터 어느 하나의 영상(예를 들어, 좌영상)을 추출하고, HDTV 서비스의 수신을 시뮬레이트(simulate)하기 위해서 추출한 영상을 업스케일링(up-scale)할 수 있다.
SFC-3D 서비스는 3D 서비스의 비디오 컴포넌트가 프레임 컴패터블 비디오 포맷 비트스트림인 점에서 HDTV 서비스와는 차이가 있다.
SFC-3D 서비스의 비디오 비트스트림은 비디오 레이어의 시그널링 정보를 제외하고는 HDTV 서비스의 비디오 포맷 요구조건들을 따른다.
3DTV 서비스(또는 3D 서비스)는 3DTV 이벤트들을 전송할 수 있는 DVB 서비스를 나타낸다. SFC-3D 서비스는 “HEVC 디지털 텔레비전 서비스”를 나타내는 service_type field(후술한다)에 의해서 시그널링 될 수 있다. SFC-3D 이벤트(또는 SFC-3DTV 이벤트)는 SFC-3D 포맷의 비디오 스트림을 포함하는 DVB 서비스 이벤트이다.
시그널링 정보는 SFC-3D 서비스를 위한 HD 비디오 인코딩 파라미터(예를 들어, 코덱/프로파일, 레졸루션, 및/또는 프레임 레이트 등)들을 포함할 수 있다. 시그널링 정보는, 3DTV 모드 및 HDTV 모드 사이에서 스위칭하는 3D 서비스(또는 3DTV 서비스)를 위하여, 비디오 포맷 트랜지션(video format transition)을 시그널링하는 정보를 포함할 수 있다.
기존의 이벤트 링키지 서비스 정보는 다른 서비스 타입들의 증가된 번호와 함께 더 많은 편리한 이벤트 링키지 시그널링 시나리오를 허용하기 위해서 확장될 수 있다.
이하에서, 서비스-프레임-컴패터블 3DTV 서비스는 SFC-3DTV 서비스 및/또는 SFC-3D 서비스로 나타낼 수 있다. SFC-3D 서비스는 서비스-컴패터블 3D 서비스 및 프레임-컴패터블 3D 서비스를 포함할 수 있다.
프레임-컴패터블 3D 서비스(FC-3D 서비스)는 비디오 콘텐트를 구성하는 좌영상(C20010)과 우영상(C20020)을 공간적으로 다중화하여 배열하여 전송하는 서비스이다. 따라서, 프레임-컴패터블 3D 서비스를 지원하는 3D 수신기는 수신한 좌영상(C20010)과 우영상(C20020)을 기초로 3D 영상을 디스플레이할 수 있다. 다만, 프레임-컴패터블 3D 서비스를 지원하지 않는 기존의 2D 수신기는 수신한 좌영상(C20010)과 우영상(C20020)을 마치 일반적인 2D 이미지(HDTV 이미지)처럼 하나의 화면에 모두 출력하게 된다.
서비스-컴패터블 3D 서비스(SC-3D 서비스)는 기존의 2D 수신기(예를 들어, HDTV)가 프레임-컴패터블 3D 서비스로부터 비디오 콘텐트의 2D 버전을 추출할 수 있도록 좌영상(C20010)과 우영상(C20020)을 배열하여 전송하는 서비스이다.
SFC-3D 서비스 및 기존의 HDTV 서비스는 하나의 MPEG-2 Transport Stream에 멀티플렉싱되어 수신기에 전달될 수 있다. SFC-3D 서비스를 위한 전송 시스템은 DVB 서비스들을 전송하기 위해서 DVB MPEG-2 Transport Stream을 사용하는 어떠한 브로드캐스트 및/또는 딜리버리 채널에도 적용이 가능하다.
본 발명의 일 실시예에 따른 SFC-3D 서비스에 따르면, 서비스 제공자는 3D 영상을 디스플레이 할 수 있는 비디오 스트림을 기존의 2D 수신기(예를 들어, HDTV infrastructure)에도 제공할 수 있다. 기존의 2D 수신기는 H.265/HEVC(High efficiency video coding) 코딩 기법을 사용하여 인코딩된 비디오 스트림을 수신하고, 수신한 비디오 스트림에 포함된 좌영상(C20010) 및 우영상(C20020) 중에서 하나를 추출할 수 있다. 그리고 나서, 기존의 2D 수신기는 추출된 하나의 영상(예를 들어, 좌영상(C20010))을 업스케일링하고, 2D 영상(예를 들어, HDTV)을 디스플레이 할 수 있다.
또한, 3D 수신기는 H.265/HEVC(High efficiency video coding) 코딩 기법을 사용하여 인코딩된 비디오 스트림을 수신하고, 수신한 비디오 스트림을 2D 영상으로 출력할지 3D 영상으로 출력할지 결정할 수 있다. 만일 2D 영상으로 출력하면, 전술한 바와 같이 수신한 비디오 스트림에 포함된 좌영상(C20010) 및 우영상(C20020) 중에서 하나를 추출할 수 있다. 그리고 나서, 3D 수신기는 추출된 하나의 영상을 업스케일링하고, 2D 영상(예를 들어, HDTV)을 디스플레이 할 수 있다. 만일 3D 영상으로 출력하면, 수신한 비디오 스트림에 포함된 좌영상(C20010) 및 우영상(C20010)을 포맷팅하여 3D 영상을 디스플레이할 수 있다.
또한, 3D 수신기는 H.265/HEVC(High efficiency video coding) 코딩 기법을 사용하여 인코딩된 2D 비디오 스트림 및 3D 비디오 스트림을 수신하고, 각 비디오 스트림들의 관계 정보(예를 들어, 관계 정보는 시그널링 정보에 포함될 수 있다)를 기초로 비디오 콘텐트에 대한 2D 영상과 3D 영상을 선택적으로 스위칭하여 출력할 수 있다.
전술한 바와 같은 SFC-3D 서비스의 제공을 위하여, 본 발명의 일 실시예에 따른 SFC-3D 서비스는 시그널링 정보를 제공할 수 있다. 이하에서는 SFC-3D 서비스를 시그널링을 위한 시그널링 정보에 대하여 구체적으로 설명하기로 한다.
도 66은 본 발명의 일 실시예에 따른, SFC-3DTV 서비스를 시그널링하는 방법을 나타낸 도면이다.
도면을 참조하면, DVB 전송 시스템에서 SFC-3D 서비스의 전송을 위한 다양한 시그널링 정보들이 나타나 있다.
SFC-3D 서비스를 시그널링하는 시그널링 정보는 H.265/HEVC(High efficiency video coding) 코딩 기법을 사용하여 인코딩된 비디오 스트림을 전송, 수신, 및/또는 처리하기 위한 모든 제어 정보를 나타낼 수 있다. 시그널링 정보는 H.265/HEVC(High efficiency video coding) 코딩 기법을 사용하여 인코딩된 비디오 스트림을 전송, 수신, 및/또는 처리하기 위한 모든 제어 정보를 나타낼 수 있다.
예를 들어, 시그널링 정보는 Frame Packing Arrangement SEI message, Default Display Window(DDW) 정보, AFD/bar data, HEVC_video_descriptor, 콘텐트 디스크립터(content_descriptor), Disparity Signalling Segment(DSS), DVB 서브타이틀에 관한 정보, 서브타이틀링 디스크립터(subtitling descriptor), 디스패러티 정보, 비디오 뎁스 레인지 디스크립터(Video depth range descriptor), 멀티 리전 디스패러티(Multi-region disparity), 서비스 디스크립터(service descriptor), 컴포넌트 디스크립터, 및/또는 링키지 디스크립터 중에서 적어도 하나를 포함할 수 있다.
SFC-3D 서비스(3D 서비스 3.0)를 시그널링하는 시그널링 정보는 비디오 스트림, 전송 레이어, 및/또는 서브타이틀들 중에서 적어도 하나에 포함될 수 있다.
시그널링 정보가 비디오 스트림에 포함되는 경우, 시그널링 정보는 비디오 ES에 포함될 수 있다. 비디오 데이터가 MPEG-2 또는 MPEG-4 비디오 코딩 기법을 사용하여 인코딩되면, 시그널링 정보는 픽처 확장 및 사용자 데이터의 user_data()(13010) 내에 포함될 수 있다. 비디오 데이터가 H.264/AVC 또는 H.265/HEVC 비디오 코딩 기법을 사용하여 인코딩되면, 시그널링 정보는 SEI(Supplemental Enhancement Information) 메시지에 포함될 수 있다. 이하에서는, 비디오 데이터가 H.265/HEVC 비디오 코딩 기법을 사용하여 인코딩되는 경우를 중심으로 설명하기로 한다.
시그널링 정보가 전송 레이어에 포함되는 경우, 시그널링 정보는 시그널링 정보는 PSI, ATSC-PSIP, 및/또는 DVB-SI 등에 포함될 수 있다. PSI, ATSC-PSIP, 및/또는 DVB-SI에 대한 구체적인 내용은 전술한 내용과 동일하므로, 전술한 내용으로 대체하기로 한다. 이하에서는 시그널링 데이터가 PSI 및/또는 DVB-SI에 포함되는 경우를 중심으로 설명하기로 한다.
시그널링 정보가 서브타이틀들에 포함되는 경우, 시그널링 정보는 디스패러티 정보를 포함할 수 있고, PSI 및/또는 DVB-SI에 포함되는 다른 정보들과 함께 서브타이틀들을 시그널링할 수 있다.
먼저, 시그널링 정보는 Frame Packing Arrangement SEI message를 포함할 수 있다.
SFC-3D 서비스의 코딩된 비디오 스트림은 FC-3D 서비스의 비디오 컴포넌트의 포맷을 시그널링하기 위하여 Frame Packing Arrangement SEI message를 포함할 수 있다. 만일 비디오가 SFC-3D 서비스의 포맷이면, SFC-3D 서비스의 코딩된 비디오 스트림은 모든 비디오 프레임에 대하여 Frame Packing Arrangement SEI message를 포함할 수 있다.
Frame Packing Arrangement SEI message는 프레임 컴패터블(Frame compatible)한 비디오 포맷이 사용되는지 여부를 식별하는 Frame_packing_arrangement_cancel_flag field를 포함할 수 있다. 또한, Frame Packing Arrangement SEI message는 3D 비디오 스트림의 포맷 및/또는 다른 특성들을 시그널하는 정보를 포함할 수 있다.
예를 들어, Frame Packing Arrangement SEI message는 전술한 3D 서비스 디스크립터에 포함된 필드들을 포함할 수 있다. 3D 서비스 디스크립터는 비디오 데이터에 대한 시그널링 정보를 포함하는 디스크립터이다. 3D 서비스 디스크립터는 전술한 내용과 동일하므로, 전술한 내용으로 대체하기로 한다.
Frame_packing_arrangement_cancel_flag field는 비디오 스트림인 3D 비디오 포맷인지 HDTV 비디오 포맷인지 여부를 지시할 수 있다.
예를 들어, Frame_packing_arrangement_cancel_flag field의 값이 ‘0’이면, 프레임 컴패터블(Frame compatible)한 비디오 포맷이 사용된다고 지시할 수 있다. 또한, Frame Packing Arrangement SEI message의 다른 필드들은 3D 비디오 스트림의 포맷 및/또는 다른 특성들을 시그널할 수 있다.
Frame_packing_arrangement_cancel_flag field의 값이 ‘1’이면, non-3D 비디오 포맷이 사용된다고 지시할 수 있다. 예를 들어, Frame_packing_arrangement_cancel_flag field의 값이 ‘1’이면, HDTV 비디오 포맷이 사용된다고 지시할 수 있다.
3DTV 및 non-3DTV(예를 들어, HDTV)를 스위칭할 수 있는 SFC-3D 서비스들은 HDTV 포맷의 비디오 스트림의 전송 중에도 Frame Packing Arrangement SEI message들을 전송할 수 있다.
따라서, 수신기는 Frame Packing Arrangement SEI 메시지의 Frame_packing_arrangement_cancel_flag field를 기초로 SFC-3D 서비스를 시그널링 할 수 있다. 또한, 수신기는 Frame Packing Arrangement SEI message를 기초로 샘플들을 다시 재배열할 수 있고, 구성 프레임들(좌영상 및/또는 우영상)의 샘플들을 디스플레이하기 적합하도록 처리할 수 있다.
이하에서는, Frame Packing Arrangement SEI message의 구체적인 내용을 설명한다.
일 실시예로, Frame Packing Arrangement SEI message는 frame_packing_arrangement_id field, frame_packing_arrangement_cancel_flag field, frame_packing_arrangement_type field, quincunx_sampling_flag field, content_interpretation_type field, spatial_flipping_flag field, frame0_flipped_flag field, field_views_flag field, current_frame_is_frame0_flag field, frame0_self_contained_flag field, frame1_self_contained_flag field, frame0_grid_position_x field, frame0_grid_position_y field, frame1_grid_position_x field, frame1_grid_position_y field, frame_packing_arrangement_reserved_byte field, frame_packing_arrangement_repetition_period field, 및/또는 frame_packing_arrangement_extension_flag field를 포함할 수 있다.
frame_packing_arrangement_id field는 frame packing arrangement SEI message를 식별하는 정보를 포함할 수 있다.
frame_packing_arrangement_cancel_flag field는 frame packing arrangement SEI message가 출력 순서에서 이전의 frame packing arrangement SEI message의 지속(persistence)을 취소할지 여부를 지시할 수 있다. 예를 들어, frame_packing_arrangement_cancel_flag field의 값이 “0”이면, frame packing arrangement 정보는 이전의 frame packing arrangement 정보를 따를 수 있다.
frame_packing_arrangement_type field는 패킹 어레인지먼트(packing arrangement)의 유형을 지시할 수 있다. 예를 들어, 패킹 어레인지먼트(packing arrangement)의 유형은 체커 보드 포맷 (frame_packing_arrangement_type = 0), 칼럼(column) 인터레이스드 포맷(frame_packing_arrangement_type = 1), 로우(row) 인터레이스드 포맷(frame_packing_arrangement_type = 2), 사이드-바이-사이드 포맷(frame_packing_arrangement_type = 3), 탑-바텀 포맷 (frame_packing_arrangement_type = 4), 프레임 순차 포맷(frame_packing_arrangement_type = 5), 2D 포맷 (frame_packing_arrangement_type = 6)을 포함할 수 있다.
quincunx_sampling_flag field는 각각의 구성 프레임(좌영상 및/또는 우영상)의 컬러 컴포넌트 플레인(colour component plane)이 큉퀑스 샘플링 되었는지(quincunx sampled) 여부를 지시할 수 있다.
content_interpretation_type field는 구성 프레임(좌영상 및/또는 우영상)에 대하여 의도된 해석을 지시할 수 있다. 예를 들어, content_interpretation_type field의 값이 “0”이면, 구성 프레임들 사이에 아무런 관련성이 없다고 지시할 수 있다. content_interpretation_type field의 값이 “1”이면, 두개의 구성 프레임들은 스테레오 뷰 장면의 각각 좌영상과 우영상을 지시할 수 있고, “프레임 0”은 좌영상을 지시하고 “프레임 1”은 우영상을 지시할 수있다. content_interpretation_type field의 값이 “2”이면, 두개의 구성 프레임들은 스테레오 뷰 장면의 각각 좌영상과 우영상을 지시할 수 있고, “프레임 0”은 우영상을 지시하고 “프레임 1”은 좌영상을 지시할 수있다.
spatial_flipping_flag field는 좌영상 및 우영상 중에서 하나의 영상이 원래 의도된 방향과 비교하여 공간적으로 플리핑되는지 여부를 지시할 수 있다. 예를 들어, 사이드-바이-사이드 포맷의 경우, spatial_flipping_flag field의 값이 “1”이면, 좌영상 및 우영상 중에서 하나의 영상이 수평적 플리핑된다는 것을 지시할 수 있다. 탑-바텀 포맷의 경우, spatial_flipping_flag field의 값이 “1”이면, 좌영상 및 우영상 중에서 하나의 영상이 수직적 플리핑된다는 것을 지시할 수 있다.
frame0_flipped_flag field는, spatial_flipping_flag field의 값이 “1”이면, 두개의 구성 프레임(좌영상 및 우영상) 중에서 어느 것이 프리핑되는지 지시할 수 있다.
field_views_flag field는 현재 코딩된 비디오 시퀀스 내에있는 모든 픽처들은 컴플리멘터리 필드 페어들(complementary field pairs)로서 코딩되는지 여부를 지시할 수 있다.
current_frame_is_frame0_flag field는, 프레임 순차 포맷(frame_packing_arrangement_type = 5)의 경우, 현재 디코딩되는 프레임이 좌영상인지 우영상인지 여부를 지시할 수 있다. 예를 들어, current_frame_is_frame0_flag field의 값이 “1”인 경우, 현재 디코딩되는 프레임은 좌영상이고 다음에 디코딩되는 프레임은 우영상을 지시할 수 있다.
frame0_self_contained_flag field는 코딩된 비디오 시퀀스의 제1 구성 프레임(예를 들어, 좌영상)의 샘플에 대한 디코딩 프로세스에서 제2 구성 프레임(예를 들어, 우영상)의 샘플을 참조하는 인터 프레딕션 동작들(inter prediction operations)을 수행하는지 여부를 지시할 수 있다.
frame1_self_contained_flag field는 코딩된 비디오 시퀀스의 제2 구성 프레임(예를 들어, 우영상)의 샘플에 대한 디코딩 프로세스에서 제1 구성 프레임(예를 들어, 우영상)의 샘플을 참조하는 인터 프레딕션 동작들(inter prediction operations)을 수행하는지 여부를 지시할 수 있다.
frame0_grid_position_x field는 제1 구성 프레임(예를 들어, 좌영상)에 대한 (x,y) 좌표 쌍의 x 콤포넌트를 나타낸다.
frame0_grid_position_y field는 제1 구성 프레임(예를 들어, 좌영상)에 대한 (x,y) 좌표 쌍의 y 콤포넌트를 나타낸다.
frame1_grid_position_x field는 제2 구성 프레임(예를 들어, 우영상)에 대한 (x,y) 좌표 쌍의 x 콤포넌트를 나타낸다.
frame1_grid_position_y field는 제2 구성 프레임(예를 들어, 우영상)에 대한 (x,y) 좌표 쌍의 y 콤포넌트를 나타낸다.
frame_packing_arrangement_reserved_byte field는 미래에 사용될 수 있는 예약된 바이트일 수 있다.
frame_packing_arrangement_repetition_period field는 frame packing arrangement SEI message의 지속(persistence )을 나타낼 수 있다. 또한, frame_packing_arrangement_repetition_period field는 프레임 오더 카운트 인터벌(frame order count interval)을 나타낼 수 있다. frame order count interval 내에서 동일한 frame_packing_arrangement_id 값을 가진 다른 frame packing arrangement SEI message 또는 코딩된 비디오 시퀀스의 마지막 부분이 비트스트림에 나타날 수 있다.
frame_packing_arrangement_extension_flag field는 frame packing arrangement SEI message 내에 추가적인 데이터가 있는지 여부를 지시할 수 있다.
또한, 시그널링 정보는 Default Display Window(DDW) 정보를 포함할 수 있다.
DDW 정보는 3D 영상에서 2D 영상을 추출하기 위한 정보를 포함할 수 있다. 예를 들어, DDW 정보는 3D 영상에서 좌영상 및 우영상 중에서 하나의 영상을 추출하기 위한 정보를 포함할 수 있다. 또한, DDW는 3D 영상에서 좌영상 또는 우영상에 해당하는 좌표범위를 포함할 수 있다. DDW는 SPS의 Video Usability Informaton(VUI) 내부에 포함될 수 있다.
또한, 시그널링 정보는 AFD/bar data를 포함할 수 있다.
AFD/bar data는 인코딩된 전체 비디오 영역에서 유효 영역을 추출하는 정보를 포함할 수 있다. 예를 들어, 송신기에서 제1 화면 비율(예를 들어, 21:9)의 비디오 콘텐트를 전송하고 수신기에서 제2 화면 비율(예를 들어, 16:9)의 비디오 콘텐트를 처리할 수 있는 경우, AFD/bar data는 제2 화면 비율을 추출하기 위한 정보를 포함할 수 있다. AFD/bar data는 비디오 ES에 포함될 수 있다.
또한, 시그널링 정보는 HEVC_video_descriptor를 포함할 수 있다.
HEVC_video_descriptor는 HEVC 비디오 스트림에 관련된 코딩 파라미터들을 식별하는 정보를 포함할 수 있다.
HEVC_video_descriptor는 descriptor_tag field, descriptor_length field, profile_idc field, reserved_zero_8bits field, level_idc field, temporal_layer_subset_flag field, HEVC_still_present_flag field, HEVC_24hr_picture_present_flag field , temporal_id_min field, 및/또는 temporal_id_max field를 포함할 수 있다.
descriptor_tag field는 HEVC_video_descriptor를 식별하는 정보를 포함할 수 있다.
descriptor_length field는 HEVC_video_descriptor의 크기를 나타내는 정보를 포함할 수 있다.
profile_idc field는 비트스트림이 기반을 둔 프로파일을 지시할 수 있다. 예를 들어, 프로파일은 HEVC 스펙에 정의된 Main profile, Main 10 profile, 및/또는 Main Still Picture profile을 포함할 수 있다.
reserved_zero_8bits field은 HEVC 스펙에 따라서 sequence_parameter_set에 있는 profile_idc field 바로 다음에 오는 8비트의 정보를 포함할 수 있다.
level_idc field는 HEVC 스펙에 정의된 비트스트림의 레벨을 지시할 수 있다. 각 프로파일에서는 영상의 크기에 따라 레벨이 정해진다. 레벨은 대응하는 영상의 크기에 따라 파라미터의 제한을 규정한다. level_idc field는 여섯가지의 레벨과 그 중간 레벨을 포함할 수 있다.
temporal_layer_subset_flag field는 HEVC_video_descriptor에 temporal layer들의 서브셋(subset)을 기술하는 신텍스 엘리먼트가 존재하는지 여부를 지시할 수 있다.
HEVC_still_present_flag field는 HEVC 비디오 스트림이 AVC still pictures를 포함하는지 여부를 지시할 수 있다. AVC still pictures는 IDR picture를 포함하는 AVC Access Unit을 포함할 수 있다. IDR picture는 IDR pictrue를 정확하게 디코딩하기 위한 충분한 정보를 전송하는 SPS(Sequence Parameter Set) NAL unit 및/또는 PPS(Picture Parameter Set) NAL unit 등의 다음에 올 수 있다
HEVC_24hr_picture_present_flag field는 관련된 HEVC 비디오 스트림이 HEVC 24-hour pictures를 포함하는지 여부를 지시할 수 있다. HEVC 24-hour picture는 24시간 이상의 미래의 프리젠테이션 타임을 포함하는 HEVC Access Unit을 의미한다.
temporal_id_min field는 관련된 비디오 ES에 대한 NAL unit 헤더에 있는 temporal_id field의 최소값을 지시한다.
temporal_id_max field는 관련된 비디오 ES에 대한 NAL unit 헤더에 있는 temporal_id field의 최대값을 지시한다.
HEVC_video_descriptor는 non_packed_constraint_flag field를 더 포함할 수 있다.
non_packed_constraint_flag field는 비디오 스트림에 Frame Packing Arrangement SEI message가 존재하는지 여부를 시그널할 수 있다. non_packed_constraint_flag field는 비디오 스트림이 3DTV 비디오 포맷인지 HDTV 비디오 포맷인지 여부를 지시할 수 있다.
예를 들어, 3D 비디오 포맷의 전송 동안에, non_packed_constraint_flag field는 코딩된 비디오 시퀀스에 Frame Packing Arrangement SEI message가 존재한다는 것을 시그널하기 위해서 ‘0’으로 세팅될 수 있다. 또한, HDTV 비디오 포멧의 전송 동안에, non_packed_constraint_flag field는 코딩된 비디오 시퀀스에 Frame Packing Arrangement SEI message가 존재한다는 것을 시그널하기 위해서 ‘0’으로 세팅될 수 있다.
또한, 오직 HDTV 비디오 포맷만 사용되거나, 3D 비디오 포맷으로 포맷 전환(transition)이 발생할 예정이 없거나, 및/또는 3D 비디오 포맷으로 포맷 전환(transition)이 발생한 적이 없는 경우에, non_packed_constraint_flag field는 코딩된 비디오 시퀀스에 Frame Packing Arrangement SEI message가 존재하지 않는다는 것을 시그널하기 위해서 ‘1’로 세팅될 수 있다.
수신기는 non_packed_constraint_flag field를 기초로 비트스트림 내에 frame packing arrangement SEI message의 존재여부를 식별할 수 있다.
또한, 시그널링 정보는 콘텐트 디스크립터(content_descriptor)를 포함할 수 있다.
콘텐트 디스크립터는 이벤트의 분류 정보를 제공할 수 있다. 콘텐트 디스크립터는 EIT 및/또는 SIT에 포함될 수 있다.
콘텐트 디스크립터는 descriptor_tag field, descriptor_length field, 및/또는 적어도 하나의 for 루프(loop)를 포함할 수 있다. 각각의 for 루프는 이벤트의 분류정보를 포함할 수 있다. 각각의 for 루프는 content_nibble_level_1 field, content_nibble_level_2 field, 및/또는 user_byte field를 포함할 수 있다.
descriptor_tag field는 콘텐트 디스크립터를 식별하는 정보를 포함할 수 있다.
descriptor_length field는 다음에 오는 for 루프(loop)의 바이트 단위의 크기를 지시할 수 있다.
content_nibble_level_1 field는 4비트일 수 있고, 제1 레벨의 콘텐트 식별자를 나타낸다.
content_nibble_level_2 field는 4비트일 수 있고, 제2 레벨의 콘텐트 식별자를 나타낸다. 제2 레벨은 제1 레벨의 세부 분야일 수 있다.
user_byte field는 8비트일 수 있고, 송신기에 의해서 정의될 수 있다.
content_nibble_level_1 field는 “0x0” 내지 “0xF”의 값을 가질 수 있다. content_nibble_level_1 field가 “0x0”이면, 제1 레벨의 콘텐트 분류 정보는 “undefined content”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0x1”이면, 제1 레벨의 콘텐트 분류 정보는 “Movie/Drama”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0x2”이면, 제1 레벨의 콘텐트 분류 정보는 “News/Current affairs”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0x3”이면, 제1 레벨의 콘텐트 분류 정보는 “Show/Game show”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0x4”이면, 제1 레벨의 콘텐트 분류 정보는 “Sports”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0x5”이면, 제1 레벨의 콘텐트 분류 정보는 “Children's/Youth programmes”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0x6”이면, 제1 레벨의 콘텐트 분류 정보는 “Music/Ballet/Dance”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0x7”이면, 제1 레벨의 콘텐트 분류 정보는 “Arts/Culture (without music)”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0x8”이면, 제1 레벨의 콘텐트 분류 정보는 “Social/Political issues/Economics”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0x9”이면, 제1 레벨의 콘텐트 분류 정보는 “Education/Science/Factual topics”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0xA”이면, 제1 레벨의 콘텐트 분류 정보는 “Leisure hobbies”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0xB”이면, 제1 레벨의 콘텐트 분류 정보는 “Special characteristics”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0xC” 내지 “0xE”이면, 제1 레벨의 콘텐트 분류 정보는 “Reserved for future use”를 나타낼 수 있다. 또한, content_nibble_level_1 field가 “0xF”이면, 제1 레벨의 콘텐트 분류 정보는 “User defined”를 나타낼 수 있다.
content_nibble_level_2 field는 “0x0” 내지 “0xF”의 값을 가질 수 있다. content_nibble_level_2 field는 각각의 content_nibble_level_1 field에 대하여 특정한 값을 가질 수 있고, 제1 레벨의 콘텐트 분류 정보에 대하여 더욱 세분화된 분류 정보를 나타낼 수 있다.
예를 들어, content_nibble_level_1 field가 “0xB”이면, 제1 레벨의 콘텐트 분류 정보는 “Special characteristics”이고, content_nibble_level_2 field가 “0x4”이면, 제2 레벨의 콘텐트 분류 정보는 “plano-stereoscopic 3DTV format”을 나타낼 수 있다.
따라서, 수신기는 컴포넌트 디스크립터의 수신기는 content_nibble_level_1 field 및/또는 content_nibble_level_2 field를 기초로 비디오 스트림의 분류 정보를 식별할 수 있다. 또한, 수신기는 컴포넌트 디스크립터를 기초로 EPG에서 3D 서비스를 지원하는 이벤트를 하이라이트할 수 있다.
이하에서는 서브타이틀과 관련된 시그널링 정보를 설명한다.
수신기는 서브타이틀들 및/또는 그래픽들과 같은 부가적인 콘텐트를 3D 이미지에 가려지지 않도록 디스플레이할 수 있다. 서브타이틀은 SDTV 및/또는 HDTV뿐만 아니라 3D 서비스의 중요한 요소이다. 온-스크린(on-screen) 그래픽들과 함께, 서브타이틀들이 3D 비디오 콘텐트 상에, 깊이와 타이밍 조건 하에서, 정확하게 위치하는 것은 매우 중요하다.
첫째, 시그널링 정보는 Disparity Signalling Segment(DSS)를 포함할 수 있다.
DSS는 영역 내에서 서브 영역들의 정의를 포함할 수 있다. Disparity Signalling Segment(DSS)는 서브타이틀에 포함될 수 있다.
페이지 및/또는 영역 내의 변화하는 깊이들에서 서브타이틀들의 배치를 가능하게 하는 다른 디스패러티 값들이 각각의 서브 영역들에 대하여 전송될 수 있다. 디스패러티 정보는 서브-픽셀 애큐러시(sub-pixel accuracy) 정보와 함께 전송될 수 있다. 서브-픽셀 애큐러시 정보는 3D 장면 내에서 서브타이틀을 최적으로 배치할 수 있는 정보를 포함할 수 있다.
DSS는 영역 또는 서브 영역에 대한 디스패러티 값들을 기초로 3D 콘텐트의 서브타이틀링을 지원할 수 있다.
둘째, 시그널링 정보는 DVB 서브타이틀에 관한 정보를 포함할 수 있다.
컴포넌트 디스크립터에서 stream_content field의 값이 “0x03”인 경우, 시그널링 정보는 component_type field 의 값에 따라서 DVB 서브타이틀에 관한 정보를 포함할 수 있다.
예를 들어, stream_content field의 값이 “0x03”이고 component_type field의 값이 “0x14”이면, “DVB subtitles (normal) for display on a high definition monitor”를 지시할 수 있다. 또한, stream_content field의 값이 “0x03”이고 component_type field의 값이 “0x15”이면, “DVB subtitles (normal) with plano-stereoscopic disparity for display on a high definition monitor”를 지시할 수 있다.
셋째, 시그널링 정보는 서브타이틀링 디스크립터(subtitling descriptor)를 포함할 수 있다.
서브타이틀링 디스크립터는 DVB 서브타이틀에 관한 정보를 포함할 수 있다. 서브타이틀링 디스크립터는 PMT에 포함될 수 있다. 서브타이틀링 디스크립터는 PMT 테이블에서 DVB 서브타이틀을 전송하는 패킷의 stream_type=0x06으로 지정된다.
서브타이틀링 디스크립터는 ISO_639_language_code field, subtitling_type field, composition_page_id field, 및/또는 ancillary_page_id field를 포함할 수 있다.
ISO_639_language_code field는 3글자 텍스트로 표현되는 언어 코드를 지시할 수 있다.
subtitling_type field는 서브타이틀의 콘텐트와 적용할 디스플레이에 대한 정보를 포함할 수 있다. subtitling_type field는 component_descriptor에서 stream_content field의 값이 “0x03”인 경우의 component_type field 별로 정의된 코드를 지시할 수 있다.
composition_page_id field는 composition page를 식별하는 정보를 포함할 수 있다.
ancillary_page_id field는 ancillary page를 식별하는 정보를 포함할 수 있다.
넷째, 시그널링 정보는 디스패러티 정보를 포함할 수 있다
서브타이틀들은 디스패러티 정보를 포함할 수 있다. 디스패러티 정보는 물체가 스크린의 앞으로 얼마나 가까운 곳에 있는지 또는 스크린의 뒤로 얼마나 먼 곳에 있는지를 나타내는 정보이다. 디스패러티 정보는 비디오 뎁스 레인지 디스크립터 및/또는 멀티 리전 디스크립터에 포함될 수 있다.
다섯째, 시그널링 정보는 비디오 뎁스 레인지 디스크립터(Video depth range descriptor)를 포함할 수 있다.
3D 비디오의 상단에 디스플레이되는 그래픽(예를 들어, 텍스트 및/또는 아이콘)들의 배치를 최적화하기 위해서, 비디오 뎁스 레인지 디스크립터는 3D 비디오의 의도된 뎁스 레인지(depth range)를 지시할 수 있다. 비디오 뎁스 레인지 디스크립터는 서비스 및/또는 이벤트 레벨에서의 디스패러티 정보를 제공한다. 디스패러티 정보는 해당 서비스 및/또는 해당 이벤트의 기간동안 정적인(static) 값을 가질 수 있다.
비디오 뎁스 레인지 디스크립터는 range_type field, range_length field, production_disparity_hint_info() field, 및/또는 range_selector_byte field를 포함할 수 있다.
range_type field는 뎁스 레인지(depth range)의 유형을 지시한다. range_type field의 값이 ‘0x00’이면 뎁스 레인지의 유형은 “production disparity hint”이고, range_type field의 값이 ‘0x01’이면 뎁스 레인지의 유형은 “multi-region disparity SEI present”를 지시할 수 있다. 만약 range_type field의 값이 ‘0x01’이면 비디오 ES에 multi-region disparity SEI 데이터가 존재한다고 지시할 수 있다. 이 경우, range_length field의 값은 ‘0’일 수 있다.
여섯째, 시그널링 정보는 멀티 리전 디스패러티(Multi-region disparity)를 포함할 수 있다.
멀티 리전 디스페러티는 비디오 레벨에서의 디스패러티 정보를 제공한다. 멀티 리전 디스페러티는 3D 비디오의 모든 프레임 및/또는 각 프레임의 다른 공간 영역에 대한 동적인(dynamic) 값을 가질 수 있다.
수신기는 멀티 리전 디스페러티를 기초로 부가적인 정보(그래픽, 메뉴, 등)를 덮어씌우기(overlay) 위해서 디스패러티 값의 형태의 깊이 정보를 전송할 수 있다. 그 결과 수신기는 3D video(plano-stereoscopic video)와 그래픽들 사이에 뎁스 바이얼레이션(depth violation)을 피할 수 있다.
각각의 프레임에서, 하나의 최대 디스패러티 값이 전송될 수 있다. 영역(region)들은 미리 정의된 이미지 파티셔닝 패턴(image partitioning pattern)들의 집합에 따라서 정의될 수 있다. 각각의 프레임의 각각의 영역에 대하여, 정확하게 하나의 최소 디스패러티 값이 전송될 수 있다.
멀티 리전 디스패러티는 multi_region_disparity_length field, max_disparity_in_picture field, 및/또는 min_disparity_in_region_i field 를 포함할 수 있다.
multi_region_disparity_length field는 8비트일 수 있고, multi_region_disparity()에서 multi_region_disparity_length field의 값으로 정의되는 바이트 바로 다음에 오는 바이트들의 수를 규정할 수 있다.
또한, multi_region_disparity_length field는 영역 패턴의 유형을 시그널할 수 있다. multi_region_disparity_length field는 미리 정의된 이미지 파티셔닝 패턴(image partitioning pattern)들에 해당하는 값들의 제한된 집합을 포함할 수 있다. 각각의 이미지 파티셔닝 패턴은 이미지의 몇가지 영역을 정의할 수 있다.
예를 들어, multi_region_disparity_length field 의 값이 ‘0’이면, “no disparity information is to be delivered”를 지시할 수 있다. multi_region_disparity_length field 의 값이 ‘2’이면, “one minimum_disparity_in_region is coded as representing the minimum value in overall picture”를 지시할 수 있다. multi_region_disparity_length field 의 값이 ‘3’이면, “two vertical minimum_disparity_in_regions are coded”를 지시할 수 있다. multi_region_disparity_length field 의 값이 ‘4’이면, “three vertical minimum_disparity_in_regions are coded”를 지시할 수 있다. multi_region_disparity_length field 의 값이 ‘5’이면, “four minimum_disparity_in_regions are coded”를 지시할 수 있다. multi_region_disparity_length field 의 값이 ‘10’이면, “nine minimum_disparity_in_regions are coded”를 지시할 수 있다. multi_region_disparity_length field 의 값이 ‘17’이면, “sixteen minimum_disparity_in_regions are coded”를 지시할 수 있다.
max_disparity_in_picture field는 픽처 내에서 최대 디스패러티 값을 규정할 수 있다.
min_disparity_in_region_i field는 제 i 번째 영역에서 최소 디스패러티 값을 규정할 수 있다.
도 67은 본 발명의 일 실시예에 따른, service descriptor의 service_type field를 나타낸 도면이다.
시그널링 정보는 서비스 디스크립터(service descriptor)를 포함할 수 있다.
서비스 디스크립터는 서비스의 유형, 서비스 제공자, 및/또는 서비스의 이름을 설명하는 디스크립터이다. 서비스 디스크립터(service descriptor)는 SDT 및/또는 SIT(Selection Information Table)에 포함될 수 있다.
서비스 디스크립터는 descriptor_tag field, descriptor_length field, service_type field, service_provider_name_length field, 서비스 제공자의 이름을 나타내는 char field, service_name_length field field, 및/또는 서비스의 이름을 나타내는 char field를 포함할 수 있다. 서비스 디스크립터에 대한 구체적인 내용은 전술한 내용으로 대체하기로 한다.
service_type field는 서비스의 타입을 설명할 수 있다. 서비스를 위한 service_type의 할당은 전술한 내용으로 대체하기로 한다.
service_type field의 값이 “0x1F”이면, 서비스 타입(또는, 서비스 타입 정보)은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible plano-stereoscopic HD digital television service”를 지시할 수 있다. service_type field의 값이 “0x20”이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible plano-stereoscopic HD NVOD time-shifted service”를 지시할 수 있다. service_type field의 값이 “0x21”이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible plano-stereoscopic HD NVOD reference service”를 지시할 수 있다.
service_type field는 방송 신호(예를 들어, MPEG-TS)에 HEVC 비디오 서비스가 존재하는지 여부를 시그널할 수 있다. 예를 들어, service_type field의 값이 “0x1F”, “0x20”, 및/또는 “0x21” 중에서 하나이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible HD 서비스”를 지시할 수 있다.
여기서, 서비스 디스크립터는 기존의 2D 서비스(2D HEVC)에서 사용되는 service_type field의 값(service_type field의 값이 “0x1F”)을 포함할 수 있다
기존의 2D 수신기는 기존의 2D 서비스에서 사용되는 service_type field의 값을 기초로 비디오 데이터를 처리하여 2D 영상을 디스플레이할 수 있다.
본 발명의 일 실시예에 따른 SFC-3D 서비스를 지원하는 수신기는 새로 정의된 service_type field의 값을 기초로 비디오 데이터를 처리하여 2D 영상 및/또는 3D 영상을 디스플레이할 수 있다.
수신기는 service_type field를 기초로 방송 신호(예를 들어, MPEG-TS)에 HEVC 비디오 서비스가 존재하는지 여부를 시그널할 수 있다. 예를 들어, 수신기는 비디오 스트림의 service_type field의 값이 “0x1F”이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible HD 서비스”라고 판단할 수 있다.
또한, 수신기는 비디오 스트림의 service_type field의 값이 “0x20” 및/또는 “0x21” 중에서 하나이면, 해당 비디오 서비스는 HEVC 비디오 서비스라고 판단할 수 있다. 예를 들어, 수신기는 service_type field의 값이 “0x20” 및/또는 “0x21” 중에서 하나이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible HD 서비스”라고 판단할 수 있다.
도 68은 본 발명의 일 실시예에 따른, service descriptor의 service_type field를 나타낸 도면이다.
시그널링 정보는 서비스 디스크립터(service descriptor)를 포함할 수 있다. 서비스 디스크립터에 대한 구체적인 내용은 전술한 내용과 동일하므로, 전술한 내용으로 대체한다.
도면을 참조하면, 서비스 타입은 bitdepth의 값에 따라서 더욱 세분화될 수 있다. Bitdepth는 컬러(또는 회색의 음영)를 재현할 수 있는 컬러(또는 그레이 스케일 이미지의 경우, 밝기의 정도) 수의 단위를 지시할 수 있다. 예를 들어, Bitdepth는 8-bit Bitdepth 및/또는 10-bit Bitdepth를 포함할 수 있다.
service_type field의 값이 “0x1F”이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible plano-stereoscopic 8 bit bitdepth HD digital television service”를 지시할 수 있다. service_type field의 값이 “0x20”이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible plano-stereoscopic 8 bit bitdepth HD NVOD time-shifted service”를 지시할 수 있다. service_type field의 값이 “0x21”이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible plano-stereoscopic 8 bit bitdepth HD NVOD reference service”를 지시할 수 있다.
또한, service_type field의 값이 “0x22”이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible plano-stereoscopic 10 bit bitdepth HD digital television service”를 지시할 수 있다. service_type field의 값이 “HEVC digital television service” 및/또는 “0x23”이면, 서비스 타입은 “H.265/HEVC frame compatible plano-stereoscopic 10 bit bitdepth HD NVOD time-shifted service”를 지시할 수 있다. service_type field의 값이 “0x24”이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible plano-stereoscopic 10 bit bitdepth HD NVOD reference service”를 지시할 수 있다.
service_type field는 방송 신호(예를 들어, MPEG-TS)에 HEVC 비디오 서비스가 존재하는지 여부를 시그널할 수 있다. 예를 들어, service_type field의 값이 “0x1F”, “0x20”, “0x21”, “0x22”, “0x23”, 및/또는 “0x24” 중에서 하나이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible HD 서비스”를 지시할 수 있다.
수신기는 service_type field를 기초로 방송 신호(예를 들어, MPEG-TS)에 HEVC 비디오 서비스가 존재하는지 여부를 시그널할 수 있다. 예를 들어, 수신기는 비디오 스트림의 service_type field의 값이 “0x1F” 이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible HD 서비스” 라고 판단할 수 있다.
또한, 수신기는 service_type field를 기초로 방송 신호(예를 들어, MPEG-TS)에 HEVC 비디오 서비스가 존재하는지 여부를 시그널할 수 있다. 예를 들어, 수신기는 비디오 스트림의 service_type field의 값이 “0x20”, “0x21”, “0x22”, “0x23”, 및/또는 “0x24” 중에서 하나이면, 해당 비디오 서비스는“HEVC digital television service” 및/또는 “H.265/HEVC frame compatible HD 서비스”라고 판단할 수 있다.
도 69는 본 발명의 일 실시예에 따른, 컴포넌트 디스크립터의 stream_content field 및/또는 component_type field를 나타낸 도면이다.
시그널링 정보는 컴포넌트 디스크립터를 포함할 수 있다.
컴포넌트 디스크립터는 컴포넌트 스트림의 타입을 식별하고, 엘레멘터리 스트림의 텍스트 디스크립션(text description)을 제공하는데 사용될 수 있다. 컴포넌트 디스크립터(component descriptor)는 SDT 및/또는 EIT에 포함될 수 있다.
컴포넌트 디스크립터는 descriptor_tag field, descriptor_length field, reserved_future_use field, stream_content field(또는, 제1 스트림 컨텐트 정보), component_type field(또는, 컴포넌트 타입 정보), component_tag field, ISO_639_language_code field, 및/또는 text_char field를 포함할 수 있다. 컴포넌트 디스크립터에 대한 구체적인 내용은 전술한 내용으로 대체하기로 한다.
컴포넌트 디스크립터는 기존의 2D 서비스(2D HEVC)에서 사용되는 stream_content field의 값 및/또는 component_type field의 값을 포함할 수 있다. 또한, 컴포넌트 디스크립터는 SFC-3D 서비스에 적용 가능한 새로운 stream_content field의 값 및/또는 component_type field의 값을 포함할 수 있다.
도면을 참조하면, 본 발명의 일 실시예에 따른 SFC-3D 서비스는 1개의 컴포넌트 디스크립터를 기초로 컴포넌트 타입 정보(예를 들어, 비트스트림, 컴포넌트 스트림, 및/또는 비디오 스트림의 유형)을 식별할 수 있다. 컴포넌트 타입 정보는 적어도 하나의 파라미터를 포함할 수 있다.
예를 들어, 파라미터는 비트스트림 정보, 비디오 스트림의 코덱 정보(인코딩 타입 정보), 프로파일(profile) 정보, 레졸루션 정보, 화면 비율 정보, 프레임 레이트 정보, 영상 포맷 정보, 및/또는 Bitdepth 정보를 포함할 수 있다.
비트스트림 정보는 비트스트림의 타입에 대한 정보이다. 예를 들어, 비트스트림 정보는 비디오 스트림, 오디오 스트림, 및/또는 서브타이틀 스트림을 포함할 수 있다. 코덱 정보는 비트스트림을 인코딩한 코덱에 대한 정보이다. 예를 들어, 코덱 정보는 H.265/HEVC를 포함할 수 있다. 레졸루션 정보는 비트스트림에 해상도 정보이다. 예를 들어, 레졸루션 정보는 High Definition 및/또는 Standard Definition을 포함할 수 있다. 화면 비율 정보는 비디오 데이터를 디스플레이할 경우 프레임에 대한 가로 크기와 세로 크기의 비율 정보이다. 예를 들어, 화면 비율 정보는 16:9 aspect ratio를 포함할 수 있다. 해상도 정보는 프레임 레이트 정보는 1초에 비디오 프레임이 몇번 출력되는지에 대한 정보이다. 예를 들어, 해상도 정보는 25 Hz 및/또는 30 Hz를 포함할 수 있다. 영상 포맷 정보는 비디오 스트림에 포함된 좌영상 및 우영상의 배열에 대한 정보이다. 예를 들어, 영상 포맷 정보는 사이드-바이-사이드 및/또는 탑-앤드-바텀을 포함할 수 있다. Bitdepth 정보는 컬러(또는 회색의 음영)를 재현할 수 있는 컬러(또는 그레이 스케일 이미지의 경우, 밝기의 정도) 수의 단위를 지시하는 정보이다. 예를 들어, Bitdepth는 8-bit Bitdepth 및/또는 10-bit Bitdepth를 포함할 수 있다.
stream_content field의 값이 ‘0x09’이고 component_type의 값이 ‘0x80’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 25 Hz, Side-by-Side”를 지시할 수 있다.
여기에서, stream_content field의 값이 ‘0x09’인 경우에는 H.265/HEVC 비디오를 지시할 수 있다. 또한, stream_content field의 값인 ‘0x09’ 및/또는 component_type field의 값인 ‘0x80’는 고정된 값이 아니므로 변경될 수 있다.
또한, “H.265/HEVC plano-stereoscopic frame compatible high definition video”은 비트스트림은 비디오 스트림이고, 비디오 스트림은 H.265/HEVC 비디오 코딩 기법을 사용하여 인코딩되고, 비디오 스트림은 프레임-컴패터블 3D 서비스를 지원하는 High Definition 비디오를 지시할 수 있다.
또한, “16:9 aspect ratio”는 비디오 스트림의 화면 비율 정보를 지시하고, “25 Hz”는 비디오 스트림의 프레임 레이트 정보를 지시하고, “Side-by-Side”는 비디오 스트림에 포함된 좌영상 및/또는 우영상의 영상 포맷 정보를 지시할 수 있다. 이하에서, 동일한 표현 방식은 동일한 의미를 나타내므로, 간단하게 설명하기로 한다.
stream_content field의 값이 ‘0x09’이고 component_type field의 값이 ‘0x81’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 25 Hz, Top-and-Bottom”를 지시할 수 있다.
또한, stream_content field의 값이 ‘0x09’이고 component_type field의 값이 ‘0x82’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 30 Hz, Side-by-Side”를 지시할 수 있다.
또한, stream_content field의 값이 ‘0x09’이고 component_type field의 값이 ‘0x83’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 30 Hz, Top-and-Bottom”를 지시할 수 있다.
기존의 2D 수신기는 기존의 2D 서비스에서 사용되는 stream_content field의 값 및/또는 component_type field의 값을 기초로 비디오 데이터를 처리하여 2D 영상을 디스플레이할 수 있다.
본 발명의 일 실시예에 따른 SFC-3D 서비스를 지원하는 수신기는 새로 정의된 stream_content field의 값 및/또는 component_type field의 값을 기초로 비디오 데이터를 처리하여 2D 영상 및/또는 3D 영상을 디스플레이할 수 있다.
도 70은 본 발명의 일 실시예에 따른, 컴포넌트 디스크립터의 stream_content field 및/또는 component_type field를 나타낸 도면이다.
시그널링 정보는 컴포넌트 디스크립터를 포함할 수 있다. 컴포넌트 디스크립터는 컴포넌트 스트림의 타입을 식별할 수 있다. 컴포넌트 디스크립터에 대한 구체적인 내용은 전술한 내용과 동일하므로, 전술한 내용으로 대체한다.
도면을 참조하면, 컴포넌트 타입은 bitdepth의 값에 따라서 더욱 세분화될 수 있다. Bitdepth는 컬러(또는 회색의 음영)를 재현할 수 있는 컬러(또는 그레이 스케일 이미지의 경우, 밝기의 정도) 수의 단위를 지시할 수 있다. 예를 들어, Bitdepth는 8-bit Bitdepth 및/또는 10-bit Bitdepth를 포함할 수 있다.
stream_content field의 값이 ‘0x09’이고 component_type field의 값이 ‘0x80’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 25 Hz, Side-by-Side, 8 bit bitdepth”를 지시할 수 있다. stream_content field의 값이 ‘0x09’이고 component_type field의 값이 ‘0x81’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 25 Hz, Top-and-Bottom, 8 bit bitdepth”를 지시할 수 있다. stream_content field의 값이 ‘0x09’이고 component_type field의 값이 ‘0x82’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 30 Hz, Side-by-Side, 8 bit bitdepth”를 지시할 수 있다. stream_content field의 값이 ‘0x09’이고 component_type field의 값이 ‘0x83’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 30 Hz, Top-and-Bottom, 8 bit bitdepth”를 지시할 수 있다.
또한, stream_content field의 값이 ‘0x09’이고 component_type field의 값이 ‘0x84’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 25 Hz, Side-by-Side, 10 bit bitdepth”를 지시할 수 있다. stream_content field의 값이 ‘0x09’이고 component_type field의 값이 ‘0x85’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 25 Hz, Top-and-Bottom, 10 bit bitdepth”를 지시할 수 있다. stream_content field의 값이 ‘0x09’이고 component_type field의 값이 ‘0x86’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 30 Hz, Side-by-Side, 10 bit bitdepth”를 지시할 수 있다. stream_content field의 값이 ‘0x09’이고 component_type field의 값이 ‘0x87’인 경우, 비디오 데이터는 “H.265/HEVC plano-stereoscopic frame compatible high definition video, 16:9 aspect ratio, 30 Hz, Top-and-Bottom, 10 bit bitdepth”를 지시할 수 있다.
수신기는 컴포넌트 디스크립터를 기초로 컴포넌트 스트림(예를 들어, 비디오 스트림)의 타입을 식별할 수 있다. 예를 들어, 수신기는 컴포넌트 디스크립터를 기초로 비디오 스트림이 H.265/HEVC 비디오 코딩 기법을 사용하여 인코딩된 high definition video라는 것을 식별할 수 있다. 또한, 수신기는 컴포넌트 디스크립터를 기초로 비디오 스트림에 포함된 좌영상 및 우영상의 영상 포맷 정보는 “top and bottom” 이라는 것을 식별할 수 있다.
도 71은 본 발명의 일 실시예에 따른, 컴포넌트 디스크립터의 stream_content field 및/또는 component_type field를 나타낸 도면이다.
시그널링 정보는 복수의 컴포넌트 디스크립터를 포함할 수 있다.
컴포넌트 디스크립터는 컴포넌트 스트림(예를 들어, 비디오 스트림)의 타입을 식별하고, 엘레멘터리 스트림의 텍스트 디스크립션(text description)을 제공하는데 사용될 수 있다. 컴포넌트 디스크립터(component descriptor)는 SDT 및/또는 EIT에 포함될 수 있다.
컴포넌트 디스크립터는 descriptor_tag field, descriptor_length field, stream_content_ext field, reserved_future_use field, stream_content field(제1 스트림 컨텐트 정보), component_type field(컴포넌트 타입 정보), component_tag field, ISO_639_language_code field, 및/또는 text_char field를 포함할 수 있다.
stream_content_ext field(제2 스트림 컨텐트 정보)는 stream_content field와 조합되어 스트립의 타입을 식별할 수 있다. 컴포넌트 디스크립터는 stream_content_ext field를 추가로 포함하고, stream_content가 정의될 수 있는 공간을 확장할 수 있다.
component_tag 필드는 컴포넌트 스트림을 식별하는 정보를 포함할 수 있다. 즉, component_tag 필드는 컴포넌트 디스크립터가 어떤 비디오 스트림에 대한 것인지를 식별할 수 있다. 예를 들어, component_tag 필드는 컴포넌트 스트림을 위한 스트림 식별자 디스크립터(PSI 프로그램 맵 섹션 내 존재한다면) 내의 component_tag 필드와 동일한 값을 가진다.
동일한 component_tag field의 값에 대하여 복수의 컴포넌트 디스크립터들이 존재할 수 있다. 예를 들어, SDT 및/또는 EIT는 각각 복수의 컴포넌트 디스크립터들을 포함할 수 있다. 또한, SDT는 하나의 컴포넌트 디스크립터를 포함하고, EIT는 복수의 컴포넌트 디스크립터들을 포함할 수 있다.
또한, 컴포넌트 스트림(예를 들어, 비디오 스트림)의 타입(예를 들어, 16:9 aspect ratio, side-by-side, 및/또는 top and bottom)을 식별하기 위하여, 하나의 컴포넌트 스트림에 대하여 복수의 컴포넌트 디스크립터들이 존재할 수 있다.
그외, 컴포넌트 디스크립터에 대한 구체적인 내용은 전술한 내용으로 대체하기로 한다.
도면을 참조하면, 본 발명의 일 실시예에 따른 추가적인 컴포넌트 디스크립터는 비디오 스트림에 포함된 좌영상 및 우영상의 영상 포맷 정보를 포함할 수 있다.
stream_content field의 값이 ‘0xA’, stream_content_ext field의 값이 ‘0x0’, 및 component_type field의 값이 ‘0x00’인 경우, 영상 포맷 정보는 “Top-and-Bottom”을 지시할 수 있다. 또한, stream_content field의 값이 ‘0xA’, stream_content_ext field의 값이 ‘0x0’, 및 component_type field의 값이 ‘0x01’인 경우, 영상 포맷 정보는 “Side-by-Side”을 지시할 수 있다. stream_content field의 값, stream_content_ext field의 값, 및/또는 component_type field의 값은 고정된 값이 아니고 변경될 수 있다.
시그널링 정보는 복수의 컴포넌트 디스크립터를 포함할 수 있다. 이때, 적어도 하나의 컴포넌트 디스크립터는 동일한 비트스트림을 식별할 수 있다. 또한, 적어도 하나의 컴포넌트 디스크립터 중에서 일부는 동일한 비트스트림을 식별하는 동일한 내용의 컴포넌트 디스크립터일 수 있다. 또한, 적어도 하나의 컴포넌트 디스크립터 중에서 나머지 일부는 동일한 비트스트림을 식별하는 다른 내용의 컴포넌트 디스크립터일 수 있다.
stream_content field 및 component_type field의 조합에 의하여, 비트스트림(예를 들어, 비디오 스트림 및/또는 오디오 스트림의 인코딩 타입 정보(압축 정보), 3D 서비스를 제공하는 비디오 스트림에 포함된 좌영상과 우영상의 영상 포맷 정보, 비디오 데이터의 프로파일 정보(예를 들어, HEVC의 프로파일 정보), 화면 비율 정보, 프레임 레이트 정보, 및/또는 기타 비트스트림(비디오 데이터, 서브타이틀, 및/또는 오디오 데이터를 포함)의 유형을 식별할 수 있는 정보 중에서 적어도 하나가 식별될 수 있다.
따라서, 각각의 컴포넌트 디스크립터는 비트스트림(예를 들어, 비디오 스트림 및/또는 오디오스트림)의 인코딩 타입 정보(압축 정보), 3D 서비스를 제공하는 비디오 스트림에 포함된 좌영상과 우영상의 영상 포맷 정보, 비디오 데이터의 프로파일 정보(예를 들어, HEVC의 프로파일 정보), 화면 비율 정보, 프레임 레이트 정보, 및/또는 기타 비트스트림의 유형(비디오 데이터, 서브타이틀, 및/또는 오디오 데이터를 포함)를 식별할 수 있는 정보 중에서 적어도 하나를 포함할 수 있다.
수신기는 적어도 하나의 컴포넌트 디스크립터를 조합하여, 비트스트림의 인코딩 타입 정보, 3D 서비스를 제공하는 비디오 스트림에 포함된 좌영상과 우영상의 영상 포맷 정보, 및/또는 비트스트림에 대한 추가 정보를 획득할 수 있다. 예를 들어, 수신기는 적어도 하나의 컴포넌트 디스크립터를 조합하여, 비트스트림이 H.265/HEVC 비디오 코딩 기법을 사용하여 인코딩되었다는 정보 및/또는 영상 포맷 형태는 사이드-바이-사이드 포맷이라는 정보를 획득할 수 있다. 또한, 수신기는 적어도 하나의 컴포넌트 디스크립터를 조합하여 비트스트림이 SFC-3D 서비스를 제공한다는 정보를 획득할 수 있다.
컴포넌트 디스크립터는 기존의 2D 서비스(2D HEVC)에서 사용되는 stream_content field의 값, stream_content_ext field의 값, 및/또는 component_type field의 값을 포함할 수 있다. 예를 들어, 컴포넌트 디스크립터의 stream_content field의 값이 ‘0x09’, stream_content_ext field의 값이 ‘0x0’, 및 component_type field의 값이 ‘0x00’인 경우, 비디오 데이터는 “HEVC Main Profile high definition video, 50 Hz”를 지시할 수 있다. 또한, 컴포넌트 디스크립터의 stream_content field의 값이 ‘0x09’, stream_content_ext field의 값이 ‘0x0’, 및 component_type field의 값이 ‘0x01’인 경우, 비디오 데이터는 “HEVC Main 10 Profile high definition video, 50 Hz”를 지시할 수 있다. 또한, 컴포넌트 디스크립터의 stream_content field의 값이 ‘0x09’, stream_content_ext field의 값이 ‘0x0’, 및 component_type field의 값이 ‘0x02’인 경우, 비디오 데이터는 “HEVC Main Profile high definition video, 60 Hz”를 지시할 수 있다. 또한, 컴포넌트 디스크립터의 stream_content field의 값이 ‘0x09’, stream_content_ext field의 값이 ‘0x0’, 및 component_type field의 값이 ‘0x03’인 경우, 비디오 데이터는 “HEVC Main 10 Profile high definition video, 60 Hz”를 지시할 수 있다. 또한, 컴포넌트 디스크립터의 stream_content field의 값이 ‘0x09’, stream_content_ext field의 값이 ‘0x0’, 및 component_type field의 값이 ‘0x04’인 경우, 비디오 데이터는 “HEVC ultra high definition video”를 지시할 수 있다.
또한, 컴포넌트 디스크립터는 SFC-3D 서비스에 적용 가능한 새로운 stream_content field의 값, stream_content_ext field의 값, 및/또는 component_type field의 값을 포함할 수 있다.
따라서, 기존의 2D 수신기는 기존의 2D 서비스에서 사용되는 stream_content field의 값, stream_content_ext field의 값, 및/또는 component_type field의 값을 기초로 비디오 데이터를 처리하여 2D 영상을 디스플레이할 수 있다. 또한, SFC-3D 서비스를 지원하는 수신기는 새로 정의된 stream_content field의 값, stream_content_ext field의 값, 및/또는 component_type field의 값을 기초로 비디오 데이터를 처리하여 2D 영상 및/또는 3D 영상을 디스플레이할 수 있다.
또한, 본 발명의 일 실시예에 따른 SFC-3D 서비스는 복수의(multiple) 컴포넌트 디스크립터를 기초로 동일한 하나의 비트스트림(예를 들어, 비디오 스트림)의 유형을 식별할 수 있다.
예를 들어, 시그널링 정보는 제1 컴포넌트 디스크립터, 제2 컴포넌트 디스크립터, 제3 컴포넌트 디스크립터, 및/또는 제4 컴포넌트 디스크립터를 포함할 수 있다. 제1 컴포넌트 디스크립터, 제2 컴포넌트 디스크립터, 제3 컴포넌트 디스크립터, 및/또는 제4 컴포넌트 디스크립터는 동일한 component_tag field의 값을 가지고 동일한 비트 스트림을 식별할 수 있다.
제1 컴포넌트 디스크립터의 stream_content field의 값이 ‘0x09’, stream_content_ext field의 값이 ‘0x0’, 및 component_type field의 값이 ‘0x00’인 경우, 비디오 데이터는 “HEVC Main Profile high definition video, 50 Hz”를 지시할 수 있다.
제2 컴포넌트 디스크립터의 stream_content field의 값이 ‘0x0B’, stream_content_ext field의 값이 ‘0xF’, 및 component_type field의 값이 ‘0x03’인 경우, 비디오 데이터는 “plano-stereoscopic top and bottom (TaB) frame-packing”를 지시할 수 있다.
제3 컴포넌트 디스크립터의 stream_content field의 값이 ‘0x0B’, stream_content_ext field의 값이 ‘0xF’, 및 component_type field의 값이 ‘0x01’인 경우, 비디오 데이터는 “16:9 aspect ratio”를 지시할 수 있다.
제4 컴포넌트 디스크립터의 stream_content field의 값이 ‘0x0B’, stream_content_ext field의 값이 ‘0xF’, 및 component_type field의 값이 ‘0x03’인 경우, 비디오 데이터는 “plano-stereoscopic top and bottom (TaB) frame-packing”를 지시할 수 있다. 여기서, 제2 컴포넌트 디스크립터와 제4 컴포넌트 디스크립터는 동일한 스트림을 식별하는 동일한 내용의 컴포넌트 디스크립터이다.
따라서, 시그널링 정보는 제1 컴포넌트 디스크립터, 제2 컴포넌트 디스크립터, 제3 컴포넌트 디스크립터, 및/또는 제4 컴포넌트 디스크립터 중에서 적어도 하나를 조합하여 동일한 하나의 비디오 스트림을 식별할 수 있다.
수신기는 적어도 하나의 컴포넌트 디스크립터를 기초로 수신한 비트스트림의 타입을 식별할수 있다. 수신기는 복수의 컴포넌트 디스크립터 중에서 일부의 컴포넌트 디스크립터를 인식하지 못하더라도 서비스를 수신할 수 있다. 즉, 복수의 컴포넌트 디스크립트 간의 관계를 “or” 연산으로 처리하여, 일부 컴포넌트 디스크립터 만을 기초로 서비스를 수신할 수 있다.
예를 들어, 수신기가 제1 컴포넌트 디스크립터만 수신하면, 수신기는 수신한 비디오 스트림이 H.265/HEVC 비디오 코딩 기법을 사용하여 인코딩된 high definition video라는 것을 식별할 수 있다.
또한, 수신기가 제1 컴포넌트 디스크립터 및 제2 컴포넌트 디스크립터를 수신하면, 수신기는 제1 컴포넌트 디스크립터 및 제2 컴포넌트 디스크립터를 조합하여, 수신한 비디오 스트림이 H.265/HEVC 비디오 코딩 기법을 사용하여 인코딩된 High Definition video이고, 비디오 스트림에 포함된 좌영상과 우영상의 영상 포맷 정보가 “plano-stereoscopic top and bottom (TaB) frame-packing”이라고 식별할 수 있다.
또한, 수신기는 시그널링 정보의 수신 중에 복수의 컴포넌트 디스크립터 중에서 적어도 하나의 컴포넌트 디스크립터를 수신하지 못하더라도, 나머지 컴포넌트 디스크립터들을 수신함으로서 동일한 하나의 비디오 스트림을 식별할 수 있다. 예를 들어, 수신기가 제4 컴포넌트 디스크립터를 수신하지 못하더라도, 수신기는 제2 컴포넌트 디스크립터를 수신하고, 비디오 스트림에 포함된 좌영상 및 우영상의 영상 포맷 정보를 “plano-stereoscopic top and bottom (TaB) frame-packing”으로 식별할 수 있다.
도 72는 본 발명의 일 실시예에 따른, 링키지 디스크립터의 linkage_type field 및/또는 link_type field를 나타낸 도면이다.
시그널링 정보는 링키지 디스크립터를 포함할 수 있다.
링키지 디스크립터는 SI 시스템 내의 특정 entity에 관련된 부가 정보가 요구될 때에 존재할 수 있는 서비스를 지시할 수 있다. 링키지 디스크립터는 부가 정보를 제공하는 서비스가 요구되는 해당 테이블 내에 존재할 수 있다. Service replacement service와 같은 경우 링키지 디스크립터를 사용하여 지정할 수 있는데, 현재 수행되고 있는 서비스의 running status가 ‘non running’ 상태일 때 수신기에서 해당 replacement service를 자동적으로 선택할 수 있다.
예를 들어, 링키지 디스크립터는 SDT 및/또는 EIT에 포함될 수 있다. 다만, linkage_type field 의 값이 ‘0x0D’ 내지 ‘0x1F’범위인 경우, 링키지 디스크립터는 EIT에만 포함될 수 있다. 수신기는 링키지 디스크립터를 기초로 현재 시청 중인 특정 2D service_id 또는 향후 방송될 특정 2D event_id에 대해 대응되는 3D 서비스 또는 이벤트를 파악할 수 있다.
링키지 디스크립터는 descriptor_tag field, descriptor_length field, transport_stream_id field, original_network_id field, service_id field, linkage_type field, mobile_hand-over_info() field, event_linkage_info() field, extended_event_linkage_info() field, 및/또는 private_data_byte field를 포함할 수 있다. 링키지 디스크립터에 대한 구체적인 내용은 전술한 내용으로 대체하기로 한다.
도 73은 본 발명의 일 실시예에 따른, 수신기의 블록도를 나타낸 도면이다.
도면을 참조하면, 본 발명의 일 실시예에 따른 수신기는, 수신부(C20210), 복조부(C20220), 역다중화부(C20230), 시그널링 정보 처리부(C20240), 디코딩부(C20250), 및/또는 출력부(C20260)를 포함한다. 전술한 내용은 방송 신호 송신 장치에 적용될 수 있다.
수신부(C20210)는 RF(radio frequency) 채널을 통하여 방송 신호를 수신한다.
수신부(C20210)는 비디오 컴포넌트에 대한 비디오 스트림과 비디오 스트림을 시그널링하는 시그널링 정보를 포함하는 방송 신호를 수신할 수 있다. 비디오 스트림은 대한 프레임 컴패터블(Frame compatible)한 3-Dimensional Television(3DTV) 서비스 및 High Definition Television (HDTV) 서비스 중에 하나를 제공할 수 있다.
예를 들어, 시그널링 정보는 비디오 스트림이 프레임 컴패터블한 3DTV 비디오 포맷인지 아니면 High Definition Television (HDTV) 비디오 포맷인지 여부를 지시하는 제1 정보, 비디오 스트림의 서비스 타입이 High Efficiency Video Coding(HEVC) service를 지시하는 서비스 타입 정보, 및 비디오 스트림에 대하여 HEVC 서비스의 타입을 지시하는 복수의 컴포넌트 디스크립터를 포함할 수 있다.
또한, 시그널링 정보는 Frame Packing Arrangement SEI message, Default Display Window(DDW) 정보, AFD/bar data, HEVC_video_descriptor, 콘텐트 디스크립터(content_descriptor), Disparity Signalling Segment(DSS), DVB 서브타이틀에 관한 정보, 서브타이틀링 디스크립터(subtitling descriptor), 디스패러티 정보, 비디오 뎁스 레인지 디스크립터(Video depth range descriptor), 멀티 리전 디스패러티(Multi-region disparity), 서비스 디스크립터(service descriptor), 컴포넌트 디스크립터, 및/또는 링키지 디스크립터 중에서 적어도 하나를 포함할 수 있다.
복조부(C20220)는 수신한 방송 신호를 복조한다.
역다중화부(C20230)는 복조된 방송 신호로부터 오디오 데이터, 비디오 데이터 및/또는 시그널링 정보를 역다중화(demultiplex)한다. 이를 위해, 역다중화부(C20230)는 PID(Packet IDentifier)를 이용하여 필터링(filtering)함으로써 방송 신호를 역다중화할 수 있다. 역다중화부(C20230)는 역다중화된 비디오 신호를 후단의 디코딩부(C20250)로 출력하고, 시그널링 정보를 시그널링 정보처리부(C20240)로 출력한다.
시그널링 정보 처리부(C20240)는, 역다중화부(C20230)로부터 전달받은 시그널링 정보를 처리할 수 있다. 또한, 시그널링 정보 처리부(C20240)는 시그널링 정보를 기초로 비디오 스트림의 유형을 식별할 수 있다. 여기서, 시그널링 정보 처리부(C10240)는 처리되는 시그널링 정보를 일시 저장하는 데이터베이스(DB: Database)를 내부 또는 외부에 구비할 수도 있다.
시그널링 정보 처리부(C20240)는 시그널링 정보를 기초로 3DTV 비디오 포맷 및 HDTV 비디오 포맷 사이에서 스위칭을 지시할 수 있다. 한편, 수신기는 사용자로부터 비디오 스트림을 2D 영상 모드로 출력할 것을 지시하는 스위칭 정보를 입력받을 수 있다. 이 경우, 시그널링 정보는 스위칭 정보를 포함할 수 있다.
디코딩부(C20250)는 역다중화된 비디오 데이터를 수신하여 디코딩한다. 예를 들어, 디코딩부(C20250)는 시그널링 정보를 기초로 비디오 데이터를 디코딩할 수 있다. 디코딩부(C20250)는 3DTV 비디오 포맷 및/또는 HDTV 비디오 포맷의 비디오 스트림을 디코딩할 수 있다.
출력부(C20260)는 디코딩된 비디오 데이터들을 출력 포맷에 맞게 포맷팅(formatting)하여 출력할 수 있다. 출력부(C20260)는 비디오 스트림을 3DTV 비디오 포맷 및 HDTV 비디오 포맷 중에서 하나의 포맷으로 출력할 수 있다.
여기서, 출력부는 디코딩된 비디오 데이터가 3DTV 비디오 데이터인 경우에는 3D 출력을 위한 출력 포맷에 맞게 포맷팅할 수 있다. 출력부(C20260)는 디코딩된 비디오 데이터가 2D 비디오 데이터인 경우에는 2D 출력을 위한 출력 포맷에 맞게 비디오 데이터를 별도 가공하지 않고 그대로 출력할 수 있다.
이하에서는, 본 발명의 일 실시예에 따른 방송 신호 수신 방법을 설명한다.
시그널링 정보 처리부(C20240)는 PMT에 포함된 시그널링 정보들을 처리한다. 시그널링 정보 처리부(C20240)는 시그널링 정보를 기초로 수신한 채널 정보를 획득하고, 채널 맵을 생성할 수 있다.
시그널링 정보 처리부(C20240)는 수신한 비디오 스트림이 3DTV 비디오 포맷인지 HDTV 비디오 포맷인지 여부를 식별할 수 있다.
예를 들어, 시그널링 정보 처리부(C20240)는 PMT내에 포함된 HEVC video descriptor의 non_packed_constraint_flag를 확인한다. non_packed_constraint_flag field는 비디오 스트림이 3DTV 비디오 포맷인지 HDTV 비디오 포맷인지 여부를 지시할 수 있다. 또한, non_packed_constraint_flag field는 비디오 스트림에 Frame Packing Arrangement SEI message가 존재하는지 여부를 시그널할 수 있다.
예를 들어, non_packed_constraint_flag field가 비디오 스트림이 3DTV 비디오 포맷이라고 지시하면, Frame Packing Arrangement SEI message가 존재할 수 있다. 또한, non_packed_constraint_flag field가 비디오 스트림이 HDTV 비디오 포맷이라고 지시하면, Frame Packing Arrangement SEI message가 존재하지 않을 수 있다.
만일 비디오 스트림이 HDTV 비디오 포맷이면, 디코딩부(C20250)는 HDTV 비디오 포맷의 비디오 스트림을 디코딩할 수 있다. 또한, 출력부(C20260)는 디코딩된 비디오 스트림을 2D 영상으로 출력할 수 있다.
만일 비디오 스트림이 3DTV 비디오 포맷이면, 시그널링 정보 처리부(C20240)는 비디오 스트림의 서비스의 타입 및 컴포넌트 스트림의 타입을 식별할 수 있다.
먼저, 시그널링 정보 처리부(C20240)는 서비스 디스크립터의 서비스 타입 정보(service_type field)를 기초로 서비스의 타입을 식별할 수 있다.
service_type field는 방송 신호(예를 들어, MPEG-TS)에 HEVC 비디오 서비스가 존재하는지 여부를 시그널할 수 있다. 예를 들어, service_type field의 값이 “0x1F” 이면, 서비스 타입은 “HEVC digital television service” 및/또는 “H.265/HEVC frame compatible HD 서비스”를 지시할 수 있다.
그리고 나서, 시그널링 정보 처리부(C20240)는 컴포넌트 디스크립터의 제1 스트림 컨텐트 정보(stream_content field), 제2 스트림 컨텐트 정보, 및 컴포넌트 타입 정보(component_type field)를 기초로 컴포넌트 스트림의 타입을 식별할 수 있다
예를 들어, 각각의 컴포넌트 디스크립터는 비디오 스트림의 타입을 지시하는 제1 스트림 콘텐트 정보, 제1 스트림 콘텐트 정보와 조합하여 비디오 스트림의 타입을 지시하는 제2 스트림 콘텐트 정보, 및 비디오 컴포넌트의 타입을 지시하는 컴포넌트 타입 정보를 포함할 수 있다. 컴포넌트 디스크립터는 제1 스트림 콘텐트 정보, 제2 스트림 콘텐트 정보, 및 컴포넌트 타입 정보를 기초로 상기 HEVC 서비스의 타입을 지시할 수 있다..
동일한 component_tag field의 값에 대하여 복수의 컴포넌트 디스크립터들이 존재할 수 있다. 예를 들어, SDT 및/또는 EIT는 각각 복수의 컴포넌트 디스크립터들을 포함할 수 있다. 또한, SDT는 하나의 컴포넌트 디스크립터를 포함하고, EIT는 복수의 컴포넌트 디스크립터들을 포함할 수 있다. 또한, 컴포넌트 스트림(예를 들어, 비디오 스트림)의 타입(예를 들어, 16:9 aspect ratio, side-by-side, 및/또는 top and bottom)을 식별하기 위하여, 하나의 컴포넌트 스트림에 대하여 복수의 컴포넌트 디스크립터들 존재할 수 있다.
예를 들어, 제1 컴포넌트 디스크립터의 stream_content field의 값이 ‘0x09’, stream_content_ext field의 값이 ‘0x0’, 및 component_type field의 값이 ‘0x00’인 경우, 비디오 데이터는 “HEVC Main Profile high definition video, 50 Hz”를 지시할 수 있다.
제2 컴포넌트 디스크립터의 stream_content field의 값이 ‘0x0B’, stream_content_ext field의 값이 ‘0xF’, 및 component_type field의 값이 ‘0x03’인 경우, 비디오 데이터는 “plano-stereoscopic top and bottom (TaB) frame-packing”를 지시할 수 있다.
본 발명의 일 실시예에 따르면, 서비스 타입 정보 및 제1 컴포넌트 디스크립터는 SDT에 포함되고, 제2 컴포넌트 디스크립터는 EIT에 포함될 수 있다.
또한 본 발명의 일 실시예에 따르면, SDT 및/또는 EIT는 복수의 컴포넌트 디스크립터를 포함할 수 있다. 예를 들어, SDT 및/또는 EIT는 적어도 하나의 제1 컴포넌트 디스크립터 및/또는 적어도 하나의 제2 컴포넌트 디스크립터를 포함할 수 있다.
시그널링 정보 처리부(C20240)는 제1 컴포넌트 디스크립터 및 제2 컴포넌트 디스크립터를 조합하여, 수신한 비디오 스트림이 H.265/HEVC 비디오 코딩 기법을 사용하여 인코딩된 High Definition video이고, 비디오 스트림에 포함된 좌영상과 우영상의 영상 포맷 정보가 “plano-stereoscopic top and bottom (TaB) frame-packing”이라고 식별할 수 있다.
시그널링 정보 처리부(C20240)는 비디오 스트림에 포함된 Frame Packing Arrangement SEI message를 획득할 수 있다. 시그널링 정보 처리부(C20240)는 Frame Packing Arrangement SEI message를 기초로 비디오 스트림에 대한 구체적인 정보를 획득할 수 있다. 예를 들어, Frame Packing Arrangement SEI message는 frame_packing_arrangement_id field, frame_packing_arrangement_cancel_flag field, frame_packing_arrangement_type field, quincunx_sampling_flag field, content_interpretation_type field, spatial_flipping_flag field, frame0_flipped_flag field, field_views_flag field, current_frame_is_frame0_flag field, frame0_self_contained_flag field, frame1_self_contained_flag field, frame0_grid_position_x field, frame0_grid_position_y field, frame1_grid_position_x field, frame1_grid_position_y field, frame_packing_arrangement_reserved_byte field, frame_packing_arrangement_repetition_period field, 및/또는 frame_packing_arrangement_extension_flag field를 포함할 수 있다.
출력부(C20260)는 Frame Packing Arrangement SEI message를 기초로 비디오 스트림을 3D 영상으로 출력할 수 있다.
출력부(C20260)는 Frame Packing Arrangement SEI message를 기초로 3D 영상을 좌영상 및 우영상으로 분리할 수 있다. 또한, 출력부(C20260)는 좌영상 및 우영상을 포맷팅하여 3D 영상으로 출력할 수 있다. 이를 위하여, 출력부(C20260)는 좌영상 및 우영상을 3D 출력 포맷에 맞게 포매팅(formatting)하는 포맷터(미도시)를 더 포함할 수 있다.
또한, 출력부(C20260)는 AFD/bar data를 기초로 수신기의 aspect ratio에 맞게 영상의 화면비를 효율적으로 변경하여 3D 영상을 출력할 수 있다.
한편, 수신기는 사용자로부터 비디오 스트림을 2D 영상 모드로 출력할 것을 지시하는 스위칭정보를 입력받을 수 있다. 이 경우, 시그널링 정보는 스위칭 정보를 포함할 수 있다.
만일 시그널링 정보가 2D 영상 모드로 출력하는 것으로 지시하면, 시그널링 정보 처리부(C20240)는 비디오 스트림으로부터 좌영상 또는 우영상 중에서 하나의 영상을 추출할 수 있다. 또한, 출력부(C20260)는 추출된 하나의 영상을 2D 영상으로 출력할 수 있다.
예를 들어, 시그널링 정보 처리부(C20240)는 Default Display Window(DDW) 정보 및/또는 AFD/bar data를 획득할 수 있다. 즉 Frame packing arrangement SEI message가 포함된 stream인 경우, DDW 정보는 3D 영상에서 2D 영상을 추출하기 위한 정보를 포함할 수 있고, AFD/bar data는 인코딩된 전체 비디오 영역에서 유효 영역을 추출하는 정보를 포함할 수 있다.
출력부(C20260)는 Default Display Window(DDW) 정보를 기초로 3D 영상에서 2D 영상을 추출하고, AFD/bar data를 기초로 유효 영역을 분리해 낼 수 있다.
또한, 출력부(C20260)는 추출된 하나의 영상을 업스케일링할 수 있다.
본 발명의 일 실시예에 따른 방송 신호 송신 장치는 제1 인코더(미도시), 제2 인코더(미도시), 및/또는 송신부(미도시)를 포함할 수 있다.
제1 인코더는 비디오 컴포넌트에 비디오 스트림을 생성할 수 있다. 비디오 스트림은 프레임 컴패터블(Frame compatible)한 3-Dimensional Television(3DTV) 서비스 및 High Definition Television (HDTV) 서비스 중에 하나를 제공할 수 있다.
시그널링 정보는 비디오 스트림이 프레임 컴패터블한 3DTV 비디오 포맷인지 아니면 High Definition Television (HDTV) 비디오 포맷인지 여부를 지시하는 제1 정보, 비디오 스트림의 서비스 타입이 High Efficiency Video Coding(HEVC) service를 지시하는 서비스 타입 정보, 및 비디오 스트림에 대하여 상기 HEVC 서비스의 타입을 지시하는 복수의 컴포넌트 디스크립터를 포함할 수 있다. 송신부는 비디오 스트림과 시그널링 정보를 포함하는 방송 신호를 전송할 수 있다.
또한, 본 발명의 일 실시예에 따른 방송 신호 송신 방법은 전술한 방송 신호 송신 장치를 이용하여 수행될 수 있고, 방송 신호 수신 방법의 역과정으로 수행될 수 있다. 전술한 내용은 방송 신호 송신 장치 및/또는 방송 신호 송신 방법에 적용될 수 있다.
도 74는 본 발명의 일 실시예에 따른, active_format 정보에 따른 Active Format Description (AFD) 을 나타낸 도면이다.
AFD는 coded video frame에서 관심이 있는 특정 영역을 설명하는 정보이다. 방송 송신기는 관심이 있는 특정 영역을 시그널링하기 위하여, active_format 정보를 전송하고, 수신기는 관심이 있는 특정 영역을 식별하기 위하여, active_format 정보를 이용할 수 있다.
AFD는 후술될 bar data와 함께, 관심이 있는 특정 영역을 식별하는데 사용될 수 있다. Bar data는 화면의 상단 또는 하단에 표시되는 상단 또는 하단 바 (letter box), 또는 화면의 좌측 또는 우측에 표시되는 측면 바 (pillar box)의 크기 정보를 포함한다.
AFD는 프로그램의 소스 포맷, 프로그램의 전송을 위한 포맷 및 해당 프로그램을 소비하는 대상 수신기의 포맷 사이의 호환성 문제를 해결하기 위한 용도로 사용될 수 있다. 예를 들면, 와이드 스크린 용으로 제작된 14:9 콘텐츠 (또는 프로그램) 는 4:3 화면을 가지는 수신기의 사용자를 위하여, 4:3으로 코딩된 프레임 내에서 letter box를 포함하는 형태로 전송될 수 있다. 그러나, 이 경우, 와이드 스크린 수신기를 가진 사용자는 원치 않는 letter box를 디스플레이하거나, 화면의 비율이 맞지 않는 상태로 14:9 콘텐츠를 소비해야 하는 문제점이 발생할 수 있다. 따라서, 수신기의 화면 비율에 맞춰, 수신기가 해당 콘텐츠에서 관심이 있는 영역을 식별하여, 해당 영역을 디스플레이할 수 있도록, 시그널링 정보를 제공할 수 있는데, 이것이 AFD 및/또는 bar data 에 해당될 수 있다. 여기서, ‘관심이 있는 영역’ 이란, 콘텐츠의 내용이 포함되는 화면의 영역으로 정의될 수 있다.
Active_format 정보는 수신기에서, source aspect ratio 와 함께 이용될 수 있다. source aspect ratio는 전송되는 source 콘텐츠의 aspect ratio를 나타낸다. source aspect ratio는 전송되는 방송 데이터의 코딩 방식에 따라, 시그널링 정보로 제공되거나, 제공되는 시그널링 정보를 이용하여 수신기에서 계산할 수 있다.
예를 들어, source aspect ratio 가 16:9 를 나타내고, active_format이 16:9 center 를 나타내는 경우, 수신기는 전송되는 프레임의 전체 영역이 ‘관심이 있는 영역’이 된다. source aspect ratio 가 4:3 을 나타내고, active_format이 16:9 center 를 나타내는 경우, 수신기는 전송되는 프레임에 letter box가 존재함을 알 수 있다. source aspect ratio 가 16:9 를 나타내고, active_format이 4:3 center 를 나타내는 경우, 수신기는 전송되는 프레임에 pillar box가 존재함을 알 수 있다.
또 다른, 예를 들어, source aspect ratio 가 16:9 를 나타내고, active_format이 16:9 center 를 나타내는 경우, 수신기는 전송되는 프레임의 전체 영역이 ‘관심이 있는 영역’이 된다. source aspect ratio 가 16:9 을 나타내고, active_format이 21:9 center 를 나타내는 경우, 수신기는 전송되는 프레임에 letter box가 존재함을 알 수 있다. source aspect ratio 가 21:9 를 나타내고, active_format이 16:9 center 를 나타내는 경우, 수신기는 전송되는 프레임에 pillar box가 존재함을 알 수 있다.
Active_format 정보는 방송 스트림 내에 포함되어 전달 될 수 있다.
Active_format 정보의 값이, 0000 인 경우, ‘관심이 있는 영역’ 이 정의되지 안았거나, 활용가능하지 않음을 나타낸다.
Active_format 정보의 값이, 0010 인 경우, ‘관심이 있는 영역’ 은 16:9 의 비율을 가지며, 화면 위쪽에 위치함을 나타낸다. 즉, 화면 비율이 다른 수신기에서는 아래 쪽에 bar가 디스플레이될 수 있다.
Active_format 정보의 값이, 0011 인 경우, ‘관심이 있는 영역’ 은 14:9 의 비율을 가지며, 화면 위쪽에 위치함을 나타낸다. 즉, 화면 비율이 다른 수신기에서는 아래 쪽에 bar가 디스플레이될 수 있다.
Active_format 정보의 값이, 0111 인 경우, ‘관심이 있는 영역’ 은 aspect ratio가 16:9 보다 큰 영역에 해당되고, 화면의 중앙에 ‘관심이 있는 영역’이 디스플레이됨을 나타낸다. 이 경우, 후술한 bar data를 이용하여 영상의 크기 (가로 또는 세로 길이)를 계산하여야 한다.
Active_format 정보의 값이, 1000 인 경우, ‘관심이 있는 영역’ 의 aspect ratio가 코딩된 프레임의 aspect ratio와 동일한 것임을 나타낸다.
Active_format 정보의 값이, 1001 인 경우, ‘관심이 있는 영역’ 은 4:3 의 비율을 가지며, 화면의 중앙에 위치함을 나타낸다.
Active_format 정보의 값이, 1010 인 경우, ‘관심이 있는 영역’ 은 16:9 의 비율을 가지며, 화면의 중앙에 위치함을 나타낸다.
Active_format 정보의 값이, 1011 인 경우, ‘관심이 있는 영역’ 은 14:9 의 비율을 가지며, 화면의 중앙에 위치함을 나타낸다.
Active_format 정보의 값이, 1101 인 경우, ‘관심이 있는 영역’ 은 4:3 의 비율을 가지며, 프레임은 14:9 비율을 기준으로 protect 된 것임을 나타낸다.
Active_format 정보의 값이, 1110 인 경우, ‘관심이 있는 영역’ 은 16:9 의 비율을 가지며, 프레임은 14:9 비율을 기준으로 protect 된 것임을 나타낸다.
Active_format 정보의 값이, 1111 인 경우, ‘관심이 있는 영역’ 은 16:9 의 비율을 가지며, 프레임은 4:3 비율을 기준으로 protect 된 것임을 나타낸다.
도 75는 본 발명의 일 실시예에 따른, active_format 및 전송되는 프레임의 aspect ratio에 따른 수신기의 디스플레이의 예를 나타낸 도면이다.
active_format의 값이 0010을 가지는 경우, 4:3 으로 코딩된 프레임은 프레임의 아래 쪽에 바 (bar) 를 포함하게 되고, 16:9 로 코딩된 프레임은 별도의 바가 존재하지 않는다.
active_format의 값이 0011을 가지는 경우, 4:3으로 코딩된 프레임은 프레임의 아래 쪽에 바 (bar) 를 포함하게 되고, 16:9 로 코딩된 프레임은 측면에 바를 포함하게 된다.
active_format의 값이 0100을 가지는 경우, 4:3으로 코딩된 프레임은 프레임의 아래 쪽에 바 (bar) 를 포함하게 되고, 16:9 로 코딩된 프레임은 프레임의 아래쪽에 바를 포함하게 된다.
active_format의 값이 1000을 가지는 경우, 4:3으로 코딩된 프레임, 16:9 로 코딩된 프레임은 모두 별도의 바를 포함하지 않는다.
active_format의 값이 1001을 가지는 경우, 4:3으로 코딩된 프레임은 별도의 바를 포함하지 않고, 16:9 로 코딩된 프레임은 측면에 바를 포함하게 된다.
위에서 설명한 바와 같은 예시는, 16:9 로 코딩된 프레임이 전송되고, active_format이 가리키는 내용이, 관심이 있는 영역이 16:9, 21:9 또는 21:9 이상의 wide 영역임을 가리키는 경우에도 유사하게 적용될 수 있다.
도 76은 본 발명의 다른 실시예에 따른, active_format 및 전송되는 프레임의 aspect ratio에 따른 수신기의 디스플레이의 예를 나타낸 도면이다.
active_format의 값이 1010을 가지는 경우, 4:3 으로 코딩된 프레임은 프레임의 위 및 아래의 영역에 바를 포함하고, 16:9 로 코딩된 프레임은 별도의 바가 존재하지 않는다.
active_format의 값이 1011을 가지는 경우, 4:3 으로 코딩된 프레임은 프레임의 위 및 아래의 영역에 바를 포함하고, 16:9 로 코딩된 프레임은 프레임의 좌/우측 측면에 바를 포함한다.
active_format의 값이 1101을 가지는 경우, 4:3 으로 코딩된 프레임은 별도의 바를 포함하지 않고, 16:9 로 코딩된 프레임은 프레임의 좌/우측 측면에 바를 포함한다.
active_format의 값이 1110을 가지는 경우, 4:3 으로 코딩된 프레임은 프레임의 위 및 아래의 영역에 바를 포함하고, 16:9 로 코딩된 프레임은 별도의 바가 존재하지 않는다.
active_format의 값이 1111을 가지는 경우, 4:3 으로 코딩된 프레임은 프레임의 위 및 아래의 영역에 바를 포함하고, 16:9 로 코딩된 프레임은 별도의 바가 존재하지 않는다.
위에서 설명한 바와 같은 예시는, 16:9 로 코딩된 프레임이 전송되고, active_format이 가리키는 내용이, 관심이 있는 영역이 16:9, 21:9 또는 21:9 이상의 wide 영역임을 가리키는 경우에도 유사하게 적용될 수 있다.
도 77은 본 발명의 일 실시예에 따른 bar data를 나타낸 도면이다.
bar data는 비디오 user data 에 포함될 수 있다. bar data는 비디오 스트림에 포함될 수 있다. 또는 bar data는 별도의 시그널링 신호를 통하여 전송될 수도 있다.
본 발명의 일 실시예에 따른 bar data는 top_bar_flag 정보, bottom_bar_flag 정보, left_bar_flag 정보, right_bar_flag 정보, marker_bits 정보, line_number_end_of_top_bar 정보, line_number_start_of_bottom_bar 정보, pixel_number_end_of_left_bar 정보, 및/또는 pixel_number_start_of_right_bar 정보를 포함한다.
top_bar_flag 정보는 top bar의 존재 여부를 식별한다. 이 정보의 값이 1 인 경우, top bar 가 존재함을 나타낸다.
bottom_bar_flag 정보는 bottom bar의 존재 여부를 식별한다. 이 정보의 값이 1 인 경우, bottom bar 가 존재함을 나타낸다.
left_bar_flag 정보는 left bar의 존재 여부를 식별한다. 이 정보의 값이 1 인 경우, left bar 가 존재함을 나타낸다.
right_bar_flag 정보 right bar의 존재 여부를 식별한다. 이 정보의 값이 1 인 경우, right bar 가 존재함을 나타낸다.
line_number_end_of_top_bar 정보는 프레임의 상단에 위치하는, 수평의 letter box 바의 영역의 마지막 line을 식별한다.
line_number_start_of_bottom_bar 정보는 프레임의 하단에 위치하는, 수평의 letter box 바의 영역의 처음 line을 식별한다.
pixel_number_end_of_left_bar 정보는 프레임의 좌측 측면에 위치하는, 수직의 pillar box 바의 마지막 horizontal luminance sample을 식별한다.
pixel_number_start_of_right_bar 정보는 프레임의 우측 측면에 위치하는, 수직의 pillar box 바의 처음 horizontal luminance sample을 식별한다.
bar data는 프레임에 포함되는 bar의 위치를 식별하는 시그널링 정보에 해당된다.
도 78은 본 발명의 일 실시예에 따른 수신기를 나타낸 도면이다.
전술한 frame compatible 방식과 service compatible 방식의 3D 서비스 이외에, service frame compatible 방식의 3D 서비스가 추가로 정의될 수 있다. service frame compatible 방식은, frame compatible과 같이 하나의 프레임에서 좌영상과 우영상을 전송/수신하고, 해당 프레임에서 좌영상 또는 우영상을 추출하여, 이를 up-scale 하여 full resolution의 2D 서비스를 제공할 수 있는 방식이다.
service frame compatible 방식에 따르면, 하나의 프레임에서 2D 영상으로 사용할 이미지 영역을 추출하기 위하여, DDW 정보가 필요하고, 송신단에서 전송하는 콘텐츠의 aspect ratio와 수신기의 aspect ratio의 차이를 보상하기 위한 AFD 정보 및/또는 Bar data가 함께 필요하다. 즉, frame compatible 방식은, 하나의 프레임 내에서, 좌영상과 우영상 각각이 정확히 프레임의 반을 차지하고 있으나, service frame compatible 방식은, 하나의 프레임 내에서 좌영상과 우영상이 각각 차지하는 영역의 비율이 달라질 수 있고, 따라서, DDW 정보를 통하여, 좌영상 및/또는 우영상의 영역을 추출할 수 있다. 또한, 예를 들어, 이 과정에서 21:9 의 service frame compatible 한 3D 영상을, 16:9 의 수신기가 수신하는 경우에는, 전술한 AFD 정보 및/또는 Bar data를 이용한 화면 비율에 대한 렌더링이 필요하다. 따라서, 이 예에서는 DDW 정보와 AFD 정보/Bar data 모두를 송/수신하고, 이들 정보에 따라, service frame compatible 방식의 영상을 처리할 수 있는 수신기가 필요하다.
본 발명의 일 실시예에 따른 수신기는 방송 수신부 (미도시), 디멀티플렉서 (demultiplexer), 디코더 (decoder), 2D/3D 스위치 (2D/3D switch), 2D 추출부 (2D extracting), 제 1 비율 변환부 (aspect ratio converter), L/R 분리부 (L/R splitter), 포맷터 (formatter), 및/또는 제 2 비율 변환부 (aspect ratio converter)를 포함할 수 있다.
비디오 스트림의 SEI (Supplemental enhancement information) 메시지는, Video Usability Information (VUI)을 포함할 수 있다. VUI는 Default Display Window (DDW) 에 대한 정보를 포함할 수 있다. DDW 정보는 default_display_window_flag 정보, def_disp_win_left_offset 정보, def_disp_win_right_offset 정보, def_disp_win_top_offset 정보, 및/또는 def_disp_win_bottom_offset 정보를 포함할 수 있다.
default_display_window_flag 정보는 DDW 에 대한 정보가 존재하는지 식별한다. 또는 default_display_window_flag 정보는 DDW가 존재하는지 식별한다.
def_disp_win_left_offset 정보는 DDW 의 좌측 모서리의 위치를 식별한다. def_disp_win_left_offset 정보는 DDW 의 좌측 모서리가 위치하는 지점의 luminance sample를 식별한다.
def_disp_win_right_offset 정보는 DDW 의 우측 모서리의 위치를 식별한다. def_disp_win_right_offset 정보는 DDW 의 우측 모서리가 위치하는 지점의 luminance sample를 식별한다.
def_disp_win_top_offset 정보는 DDW 의 상단 모서리의 위치를 식별한다. def_disp_win_top_offset 정보는 DDW 의 상단 모서리가 위치하는 지점의 luminance sample를 식별한다.
def_disp_win_bottom_offset 정보 DDW 의 하단 모서리의 위치를 식별한다. def_disp_win_bottom_offset 정보는 DDW 의 하단 모서리가 위치하는 지점의 luminance sample를 식별한다.
Default Display Window (DDW)는 하나의 프레임 내에서, 기준이 되는 이미지의 영역을 나타낸다. DDW는 하나의 프레임에 포함되는 2개 이상의 이미지 중 기준 이미지가 되는 이미지의 영역을 식별한다. Frame compatible의 3D 서비스에서 DDW는 프레임 내의 top-and-bottom 또는 side-by-side 로 구분된 좌영상과 우영상 중, 2D 서비스에 사용되는 기준 영상의 영역을 나타내는 사각의 영역 표시에 해당될 수 있다. 수신기는 DDW의 정보가 가리키는 영역의 이미지를, Frame compatible의 3D 서비스의 프레임에서 2D 서비스를 위한 영상으로 추출한다.
방송 수신부 (미도시) 는 방송 신호를 수신한다. 방송 수신부는 방송 신호 인터페이스 또는 튜너에 해당될 수 있다.
디멀티플렉서 (demultiplexer)는 방송 신호를 역다중화하여, 시그널링 정보 (PSI/SI), 비디오 데이터, 오디오 데이터를 추출한다. 방송 신호는 PSI/SI 정보, 시그너링 정보, DDW와 관련한 정보, AFD 정보, bar data 및/또는 Frame Packing Arrangement Supplemental enhancement information (FPA SEI)를 포함할 수 있다.
디코더 (decoder)는 비디오 데이터 및/또는 오디오 데이터를 디코딩한다. 디코더 (decoder)는 디코딩 과정에서 수신한 시그널링 정보를 이용할 수 있다, 시그널링 정보는 시그널링 디코더 (미도시) 에 의하여 디코딩될 수 있다.
2D/3D 스위치 (2D/3D switch)는 2D 시청모드 또는 3D 시청모드에 대한 제어 정보를 수신할 수 있고, 이에 따라, 비디오 데이터의 2D 또는 3D 로의 처리를 제어한다. 2D/3D 스위치 (2D/3D switch)는 2D 시청모드가 선택된 경우, 수신한 비디오 데이터를 2D 로 렌더링할 수 있는 장치로 전달한다. 2D/3D 스위치 (2D/3D switch)는 3D 시청모드가 선택된 경우, 수신한 비디오 데이터를 3D 로 렌더링할 수 있는 장치로 전달한다.
2D 추출부 (2D extracting)는 좌영상과 우영상이 포함된 프레임들을 비디오 데이터로 수신한 경우, 좌영상 또는 우영상을 분리한다. 일 실시예에, 2D 추출부 (2D extracting)는 좌영상을 추출하여 2D 영상으로 사용할 수 있다. 2D 추출부 (2D extracting)는 좌영상 또는 우영상을 추출하는 과정에서, 전술한 DDW 정보를 이용하여, DDW가 가리키는 영역의 영상을 추출한다.
제 1 비율 변환부 (aspect ratio converter)는 전술한 AFD 정보 및/또는 bar data 정보를 이용하여, 프레임 내의 바를 삽입 또는 제거하거나, 프레임의 aspect ratio를 조정한다. 제 1 비율 변환부 (aspect ratio converter)는 2D 추출부 (2D extracting)에 포함될 수도 있다.
L/R 분리부 (L/R splitter)는 비디오 데이터에서 좌영상을 전송하는 비디오 데이터 (스트림), 우영상을 전송하는 비디오 데이터 (스트림)를 분리한다.
포맷터 (formatter)는 좌영상과 우영상을 배치하여, 3D 영상을 포맷팅한다.
제 2 비율 변환부 (aspect ratio converter)는 전술한 AFD 정보 및/또는 bar data 정보를 이용하여, 프레임 내의 바를 삽입 또는 제거하거나, 프레임의 aspect ratio를 조정한다.
아래에서는, 설명의 편의를 위하여 2D compatible한 21:9 top-and-bottom format의 3D 영상을 수신한 경우, 16:9 수신기 동작을 설명한다. 영상은 21:9 화면비, 수신기는 16:9 화면비에 대한 예로 설명하나, 입력 영상의 화면비와 수신기의 화면비가 다른 경우에도, 아래의 설명은 적용 가능하다.
비율 변환부 (aspect ratio converter, 제 1 비율 변환부 및/또는 제 2 비율 변환부를 포함)은 좌영상과 우영상이 분리되지 그 동작을 수행할 수도 있다. 즉, L/R 분리부 (L/R splitter) 이전에 비율 변환부 (aspect ratio converter) 가 위치할 수도 있다.
수신기는, PMT내에 elementary stream level descriptor에 포함되어 있는 HEVC video descriptor의 non_packed_constraint_flag를 확인한다. non_packed_constraint_flag는 frame packing arrangement (FPA) SEI 메시지가 비디오 시퀀스에 포함되어 있는지를 식별한다. non_packed_constraint_flag 값이 0이면, 비디오 시퀀스에 FPA SEI 메시지가 포함되어 있음을 나타낸다. non_packed_constraint_flag 값이 0 이면, 수신기는 각각의 AU (Access Unit) 마다 전달되는 FPA SEI message를 통해, 3D 서비스/콘텐츠가 어떤 3D format (Service compatible, Top and bottom, Side-by-Side 및/또는 service frame compatible) 으로 encoding되었는지에 대한 정보를 파악한다.
수신기는, 시청모드가 2D mode인 경우, DDW 정보, AFD 정보, bar data, 및/또는 FPA SEI message가 bitstream 내에 포함되어 있으면, VUI (Video Usability Information) 내부의 DDW를 이용해 left 또는 right인 2D 영상을 분리 (default_display_window_flag, def_disp_win_left_offset, def_disp_win_right_offset, def_disp_win_top_offset and def_disp_win_bottom_offset 이용) 한다.
수신기는, video elementary stream의 auxiliary data에 포함되는 AFD 정보, 및/또는 bar data signaling을 이용해 수신기 aspect ratio에 맞게 영상의 화면비를 효율적으로 변경하여 2D로 출력한다.
수신기는, 3D mode인 경우, DDW 정보, AFD 정보, bar data, 및/또는 FPA SEI message가 bitstream내에 포함되어 있으면, VUI (Video Usability Information) 내부의 DDW 정보는 무시하고, FPA SEI message를 이용해 3D 영상을 L/R로 분리하고 video elementary stream의 auxiliary data에 포함되는 AFD 정보, 및/또는 bar data signaling을 이용해 수신기 aspect ratio에 맞게 영상의 화면비를 효율적으로 변경하여 3D로 display한다.
기존에는 default display window (DDW)와 AFD/bar data를 동시에 포함할 수 없었다. 따라서, 기존에는 3D 에서 2D 영상을 추출하는 과정에서, 전송되는 코딩된 프레임의 aspect ratio와 수신기의 화면의 aspect ratio가 맞지 않는 경우, 영상 처리에 문제가 있었다. 이에, 본 발명에 따르면, 수신기는 수신되는 영상이 3D임을 파악하면, active area와 2D 영역을 모두 extraction 할 수 있도록 DDW와 AFD/bar data를 함께 사용하여, 적절한 2D 영상을 추출할 수 있다.
송신기에서는, frame compatible 포맷의 3D 영상과 2D 영상의 호환성 획득하기 위하여, default_display_window_flag 정보를 "1" 로 세팅하고, def_disp_win_left_offset 정보, def_disp_win_right_offset 정보, def_disp_win_top_offset 정보, 및/또는 def_disp_win_bottom_offset 정보의 값을 설정하여, 2D 영상을 위하여 사용되는 영역을 알리는 시그널링 정보를 생성하고, 이를 수신기로 전송한다. 이 경우, 각각의 AU 에 FPA SEI 메시지를 포함시킨다.
수신기는, frame compatible 포맷의 3D 영상에서 2D 영상을 추출하기 위하여, DDW, AFD 정보 및 Bar data가 모두 FPA SEI 메시지에 존재하는지 먼저 판단한다. 수신기는 FPA SEI 메시지에 DDW, AFD 정보 및 Bar data가 모두 존재하면, DDW 정보를 이용하여, 3D 영상에서 2D 영상을 위하여 사용될 이미지를 분리/추출한다. 수신기는 분리/추출된 이미지를, AFD 정보 및 Bar data를 이용하여, 수신기의 화면 비율에 맞는 이미지로 렌더링한다.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 발명에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 데이터 처리 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
그리고, 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수가 있다.
발명의 실시를 위한 형태
발명의 실시를 위한 형태는 전술한 바와 같이, 발명의 실시를 위한 최선의 형태로 상술되었다.
본 발명은 방송 산업 전반에서 이용 가능하다.

Claims (15)

  1. 프로그램 맵 테이블 (PMT) 및 3D 방송 콘텐츠를 위한 3-dimensional (3D) 비디오 데이터를 포함하는 방송 신호를 수신하는 튜너, 여기서, 상기 PMT는 frame packing arrangement (FPA) SEI 메시지가 상기 3D 비디오 데이터에 포함되어 있는지를 나타내는 non_packed_constraint_flag 정보를 포함하고;
    상기 non_packed_constraint_flag 정보가 FPA SEI 메시지가 상기 3D 비디오 데이터에 포함되어 있음을 나타내는 경우, 상기 FPA SEI 메시지를 파싱하고, 상기 FPA SEI 메시지에 포함된, 3D 비디오의 포맷을 식별하는 3D 비디오 포맷 정보를 파싱하고, 상기 3D 비디오 데이터에 포함된 Default Display Window (DDW) 정보, Active Format Description (AFD) 정보 및 Bar 데이터를 파싱하고, 상기 3D 비디오 데이터를 디코딩하는 디코더;
    상기 3D 비디오 포맷 정보 및 상기 DDW 정보에 따라, 상기 디코딩된 3D 비디오 데이터의 비디오 프레임 내에서 2D 디스플레이를 위한 2D 영상을 추출하는 2D 추출부;
    상기 추출된 2D 영상을, 상기 AFD 정보 및 Bar 데이터 정보를 이용하여, 수신기의 화면 비율에 맞게 렌더링하는 비율 변환부; 및
    상기 렌더링된 2D 영상을 디스플레이 하는 디스플레이 처리부;
    를 포함하는 3D 방송 수신기.
  2. 제 1 항에 있어서, 상기 DDW 정보는,
    상기 3D 비디오 데이터에 포함되는 Video Usability Information (VUI) 데이터에 포함되는 것을 특징으로 하는 3D 방송 수신기.
  3. 제 2 항에 있어서, 상기 DDW 정보는,
    DDW가 존재하는지 여부를 식별하는 default_display_window_flag 정보, DDW 의 좌측 모서리의 위치를 식별하는 def_disp_win_left_offset 정보, DDW 의 우측 모서리의 위치를 식별하는 def_disp_win_right_offset 정보, DDW 의 상단 모서리의 위치를 식별하는 def_disp_win_top_offset 정보, 및 DDW 의 하단 모서리의 위치를 식별하는 def_disp_win_bottom_offset 정보를 포함하는 것을 특징으로 하는 3D 방송 수신기.
  4. 제 3 항에 있어서, 상기 AFD 정보는,
    관심이 있는 영역의 화면 비율을 식별하는 정보를 포함하는 것을 특징으로 하는 3D 방송 수신기.
  5. 제 4 항에 있어서, 상기 방송 신호는,
    상기 3D 비디오 데이터의, 전송 시에 의도된 화면 비율을 나타내는 source aspect ratio 정보를 포함하는 것을 특징으로 하는 3D 방송 수신기.
  6. 프로그램 맵 테이블 (PMT) 및 3D 방송 콘텐츠를 위한 3-dimensional (3D) 비디오 데이터를 포함하는 방송 신호를 수신하는 단계, 여기서, 상기 PMT는 frame packing arrangement (FPA) SEI 메시지가 상기 3D 비디오 데이터에 포함되어 있는지를 나타내는 non_packed_constraint_flag 정보를 포함하고;
    상기 non_packed_constraint_flag 정보가 FPA SEI 메시지가 상기 3D 비디오 데이터에 포함되어 있음을 나타내는 경우, 상기 FPA SEI 메시지를 파싱하고, 상기 FPA SEI 메시지에 포함된, 3D 비디오의 포맷을 식별하는 3D 비디오 포맷 정보를 파싱하고, 상기 3D 비디오 데이터에 포함된 Default Display Window (DDW) 정보, Active Format Description (AFD) 정보 및 Bar 데이터를 파싱하고, 상기 3D 비디오 데이터를 디코딩하는 단계;
    상기 3D 비디오 포맷 정보 및 상기 DDW 정보에 따라, 상기 디코딩된 3D 비디오 데이터의 비디오 프레임 내에서 2D 디스플레이를 위한 2D 영상을 추출하는 단계;
    상기 추출된 2D 영상을, 상기 AFD 정보 및 Bar 데이터 정보를 이용하여, 수신기의 화면 비율에 맞게 렌더링하는 단계; 및
    상기 렌더링된 2D 영상을 디스플레이 하는 단계;
    를 포함하는 3D 방송 수신기에서 방송 신호 처리 방법.
  7. 제 6 항에 있어서, 상기 DDW 정보는,
    상기 3D 비디오 데이터에 포함되는 Video Usability Information (VUI) 데이터에 포함되는 것을 특징으로 하는 3D 방송 수신기에서 방송 신호 처리 방법.
  8. 제 7 항에 있어서, 상기 DDW 정보는,
    DDW가 존재하는지 여부를 식별하는 default_display_window_flag 정보, DDW 의 좌측 모서리의 위치를 식별하는 def_disp_win_left_offset 정보, DDW 의 우측 모서리의 위치를 식별하는 def_disp_win_right_offset 정보, DDW 의 상단 모서리의 위치를 식별하는 def_disp_win_top_offset 정보, 및 DDW 의 하단 모서리의 위치를 식별하는 def_disp_win_bottom_offset 정보를 포함하는 것을 특징으로 하는 3D 방송 수신기에서 방송 신호 처리 방법.
  9. 제 8 항에 있어서, 상기 AFD 정보는,
    관심이 있는 영역의 화면 비율을 식별하는 정보를 포함하는 것을 특징으로 하는 3D 방송 수신기에서 방송 신호 처리 방법.
  10. 제 9 항에 있어서, 상기 방송 신호는,
    상기 3D 비디오 데이터의, 전송 시에 의도된 화면 비율을 나타내는 source aspect ratio 정보를 포함하는 것을 특징으로 하는 3D 방송 수신기에서 방송 신호 처리 방법.
  11. 프로그램 맵 테이블 (PMT)을 인코딩하는 제 1 시그널링 인코더, 여기서, 상기 PMT는 frame packing arrangement (FPA) SEI 메시지가 상기 3D 비디오 데이터에 포함되어 있는지를 나타내는 non_packed_constraint_flag 정보를 포함하고, 상기 FPA SEI 메시지는 3D 비디오의 포맷을 식별하는 3D 비디오 포맷 정보를 포함하고;
    Default Display Window (DDW) 정보, Active Format Description (AFD) 정보 및 Bar 데이터를 인코딩하는 제 2 시그널링 인코더;
    3D 방송 콘텐츠를 위한 3-dimensional (3D) 비디오 데이터, Default Display Window (DDW) 정보, Active Format Description (AFD) 정보 및 Bar 데이터를 포함하는 비디오 시퀀스를 인코딩하는 비디오 인코더; 및
    상기 PMT 및 상기 비디오 시퀀스를 포함하는 방송 신호를 생성하는 방송 신호 생성기;
    를 포함하는 3D 방송 송신기.
  12. 제 11 항에 있어서, 상기 DDW 정보는,
    상기 3D 비디오 데이터에 포함되는 Video Usability Information (VUI) 데이터에 포함되는 것을 특징으로 하는 3D 방송 송신기.
  13. 제 12 항에 있어서, 상기 DDW 정보는,
    DDW가 존재하는지 여부를 식별하는 default_display_window_flag 정보, DDW 의 좌측 모서리의 위치를 식별하는 def_disp_win_left_offset 정보, DDW 의 우측 모서리의 위치를 식별하는 def_disp_win_right_offset 정보, DDW 의 상단 모서리의 위치를 식별하는 def_disp_win_top_offset 정보, 및 DDW 의 하단 모서리의 위치를 식별하는 def_disp_win_bottom_offset 정보를 포함하는 것을 특징으로 하는 3D 방송 송신기.
  14. 제 13 항에 있어서, 상기 AFD 정보는,
    관심이 있는 영역의 화면 비율을 식별하는 정보를 포함하는 것을 특징으로 하는 3D 방송 송신기.
  15. 제 14 항에 있어서, 상기 방송 신호는,
    상기 3D 비디오 데이터의, 전송 시에 의도된 화면 비율을 나타내는 source aspect ratio 정보를 포함하는 것을 특징으로 하는 3D 방송 송신기.
KR1020157019862A 2014-02-21 2015-02-23 3d 방송 신호를 처리하는 방법 및 장치 KR20160123216A (ko)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201461942628P 2014-02-21 2014-02-21
US61/942,628 2014-02-21
US201461944075P 2014-02-25 2014-02-25
US61/944,075 2014-02-25
US201462073005P 2014-10-30 2014-10-30
US62/073,005 2014-10-30
US201462092798P 2014-12-16 2014-12-16
US62/092,798 2014-12-16
PCT/KR2015/001728 WO2015126214A1 (ko) 2014-02-21 2015-02-23 3d 방송 신호를 처리하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20160123216A true KR20160123216A (ko) 2016-10-25

Family

ID=53878621

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157019862A KR20160123216A (ko) 2014-02-21 2015-02-23 3d 방송 신호를 처리하는 방법 및 장치

Country Status (8)

Country Link
US (1) US20160269711A1 (ko)
EP (1) EP3110150A4 (ko)
JP (1) JP6181848B2 (ko)
KR (1) KR20160123216A (ko)
CN (1) CN105075253A (ko)
CA (1) CA2898542C (ko)
MX (1) MX354309B (ko)
WO (1) WO2015126214A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190000762A (ko) * 2017-06-23 2019-01-03 삼성전자주식회사 전자 장치, 디스플레이 장치 및 그 제어 방법
KR20190008070A (ko) * 2017-07-13 2019-01-23 삼성전자주식회사 전자 장치, 디스플레이 장치 및 그 제어 방법

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6490063B2 (ja) * 2013-06-17 2019-03-27 ジーイー・ヘルスケア・バイオサイエンス・アクチボラグ 温度検出手段を含むバイオリアクタシステム
TWI544785B (zh) * 2014-03-07 2016-08-01 聯詠科技股份有限公司 影像縮減取樣裝置與方法
CN108696471A (zh) * 2017-02-21 2018-10-23 科通环宇(北京)科技有限公司 基于avs2的码流封装方法、码流、解码方法及装置
US10958890B2 (en) * 2017-03-31 2021-03-23 Samsung Electronics Co., Ltd. Method and apparatus for rendering timed text and graphics in virtual reality video
US10375375B2 (en) 2017-05-15 2019-08-06 Lg Electronics Inc. Method of providing fixed region information or offset region information for subtitle in virtual reality system and device for controlling the same
US10687119B2 (en) * 2017-06-27 2020-06-16 Samsung Electronics Co., Ltd System for providing multiple virtual reality views
US20200221104A1 (en) * 2017-07-07 2020-07-09 Sharp Kabushiki Kaisha Systems and methods for signaling a projected region for virtual reality applications
CA3086592A1 (en) 2017-08-30 2019-03-07 Innovations Mindtrick Inc. Viewer-adjusted stereoscopic image display
EP3750151A4 (en) * 2018-02-08 2021-12-29 Innovations Mindtrick Inc. Viewer-adjusted stereoscopic image display
WO2021144244A1 (en) * 2020-01-15 2021-07-22 Dolby International Ab Adaptive streaming of media content with bitrate switching
CN112040287A (zh) * 2020-08-31 2020-12-04 聚好看科技股份有限公司 显示设备及视频播放方法
CN113221463B (zh) * 2021-05-21 2022-07-01 广东省科学院广州地理研究所 一种海洋风能密度格网数据空间降尺度方法和装置
TWI778749B (zh) * 2021-08-17 2022-09-21 睿至股份有限公司 適用虛擬實境的影像傳輸方法、影像處理裝置及影像生成系統
CN113852870B (zh) * 2021-09-23 2023-11-24 海信电子科技(深圳)有限公司 一种频道列表显示方法及显示设备
EP4325845A1 (en) * 2022-08-17 2024-02-21 3D Experiences Iberia, S.L. Remote audiovisual assistance method

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110088334A (ko) * 2010-01-28 2011-08-03 삼성전자주식회사 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 생성 방법 및 장치, 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 수신 방법 및 장치
KR101727033B1 (ko) * 2010-02-09 2017-04-14 엘지전자 주식회사 디지털 방송 수신기 및 영상 디스플레이 방법
CN104853176A (zh) * 2010-04-02 2015-08-19 三星电子株式会社 发送和接收用于提供立体视频广播服务的数据流的方法
KR101838071B1 (ko) * 2010-04-30 2018-03-13 엘지전자 주식회사 이미지 처리 방법 및 장치
US8737811B2 (en) * 2010-08-06 2014-05-27 Panasonic Corporation Playback device, integrated circuit, playback method, and program
EP2608547B1 (en) * 2010-08-17 2018-03-21 LG Electronics Inc. Apparatus and method for receiving digital broadcasting signal
WO2012030177A2 (ko) * 2010-09-01 2012-03-08 엘지전자 주식회사 디지털 수신기 및 디지털 수신기에서의 3d 컨텐트 처리 방법
AU2011296953A1 (en) * 2010-09-03 2013-03-14 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
US8896664B2 (en) * 2010-09-19 2014-11-25 Lg Electronics Inc. Method and apparatus for processing a broadcast signal for 3D broadcast service
MX2013004068A (es) * 2010-10-25 2013-05-22 Panasonic Corp Metodo de codificacion, dispositivo de visualizacion, metodo de codificacion.
JP2012114575A (ja) * 2010-11-22 2012-06-14 Sony Corp 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
CN103503070B (zh) * 2011-04-28 2016-11-16 松下知识产权经营株式会社 与高画质有关的记录介质、再现装置、记录装置、编码方法、及解码方法
JP2013110540A (ja) * 2011-11-18 2013-06-06 Sony Corp 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
WO2013183947A1 (ko) * 2012-06-05 2013-12-12 엘지전자 주식회사 3d 방송 서비스를 위한 방송 신호 처리 방법 및 장치
US20160227227A1 (en) * 2013-10-11 2016-08-04 Sharp Kabushiki Kaisha Color information and chromaticity signaling

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190000762A (ko) * 2017-06-23 2019-01-03 삼성전자주식회사 전자 장치, 디스플레이 장치 및 그 제어 방법
KR20190008070A (ko) * 2017-07-13 2019-01-23 삼성전자주식회사 전자 장치, 디스플레이 장치 및 그 제어 방법

Also Published As

Publication number Publication date
MX354309B (es) 2018-02-22
JP6181848B2 (ja) 2017-08-16
CN105075253A (zh) 2015-11-18
MX2015014801A (es) 2016-06-21
JP2016519480A (ja) 2016-06-30
CA2898542A1 (en) 2015-08-21
EP3110150A1 (en) 2016-12-28
WO2015126214A1 (ko) 2015-08-27
CA2898542C (en) 2018-01-16
EP3110150A4 (en) 2017-11-15
US20160269711A1 (en) 2016-09-15

Similar Documents

Publication Publication Date Title
JP6181848B2 (ja) 3d放送信号を処理する方法及び装置
KR101789636B1 (ko) 이미지 처리 방법 및 장치
KR101797506B1 (ko) 방송 신호 송신 장치 및 방송 신호 수신 장치
CA2758903C (en) Broadcast receiver and 3d video data processing method thereof
US9756380B2 (en) Broadcast receiver and 3D video data processing method thereof
JP5785193B2 (ja) 三次元マルチメディア・サービスを提供するためのデータストリーム生成方法及びその装置、三次元マルチメディア・サービスを提供するためのデータストリーム受信方法及びその装置
CA2760100C (en) Broadcast transmitter, broadcast receiver and 3d video data processing method thereof
CA2808395C (en) Method for providing 3d video data in a 3dtv
KR101977260B1 (ko) 입체영상 디스플레이가 가능한 디지털 방송 수신방법 및 수신장치