KR101875615B1 - 삼차원 디스플레이를 위한 디지털 방송 신호를 처리하는 방법 및 장치 - Google Patents

삼차원 디스플레이를 위한 디지털 방송 신호를 처리하는 방법 및 장치 Download PDF

Info

Publication number
KR101875615B1
KR101875615B1 KR1020137008336A KR20137008336A KR101875615B1 KR 101875615 B1 KR101875615 B1 KR 101875615B1 KR 1020137008336 A KR1020137008336 A KR 1020137008336A KR 20137008336 A KR20137008336 A KR 20137008336A KR 101875615 B1 KR101875615 B1 KR 101875615B1
Authority
KR
South Korea
Prior art keywords
information
service
scene
disparity
field
Prior art date
Application number
KR1020137008336A
Other languages
English (en)
Other versions
KR20140000676A (ko
Inventor
서종열
최지현
이준휘
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20140000676A publication Critical patent/KR20140000676A/ko
Application granted granted Critical
Publication of KR101875615B1 publication Critical patent/KR101875615B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Abstract

본 발명에 따른 3D 서비스를 위한 디지털 방송 신호를 처리하는 방법은 3D 서비스를 위한 비디오 데이터를 비디오 스트림으로 인코딩하는 단계, 여기서 상기 비디오 데이터는 3D 영상을 위한 좌영상 및 우영상을 포함하고; 상기 3D 서비스를 위한 서비스 정보와 비디오 데이터를 포함하는 방송 시그널을 생성하는 단계, 여기서, 상기 서비스 정보는, 상기 비디오 스트림의 주어진 시간 동안의 화면에서 발생하는 최대 및 최소 디스패리티를 가리키는 비디오 깊이 범위 (video depth range) 디스크립터를 포함하고; 상기 3D 서비스를 위한 방송 시그널을 전송하는 단계; 를 포함하며, 여기서, 상기 최소 디스패리티와 최대 디스패리티는, 각각, 상기 3D 영상의 상기 좌영상 및 상기 우영상의 영역 내에서 동일 지점을 나타내는 픽셀의 수평적 위치 차이의 최소값과 최대값을 나타내는 것을 특징으로 한다.

Description

삼차원 디스플레이를 위한 디지털 방송 신호를 처리하는 방법 및 장치 {METHOD AND APPARATUS FOR PROCESSING AND RECEIVING DIGITAL BROADCAST SIGNAL FOR 3-DIMENSIONAL DISPLAY}
본 발명은 3 차원 (3D) 방송에서 삼차원 이미지를 시각적 측면에서 효율적으로 디스플레이하기 위한 방법 및 장치에 관한 것이다. 보다 상세하게는, 지상파, 위성, 케이블, IPTV 등의 방송 수신기에서 삼차원 영상을 디스플레이하는 과정에서, 방송 수신기 내의 on screen display (OSD)를 효율적으로 구현하기 위한 방법 및 장치에 관한 것이다.
삼차원 (3D) 이미지 (또는, 스트레오스코픽 이미지; stereoscopic image) 는 시각에 의한 입체감을 인식하는 원리에 의하여 방송 시청자의 양안에 입체 효과를 제공한다. 사람은 약 65 mm 떨어져 위치하는 좌안과 우안의 거리차에 의하여 발생하는 양안 시차 (binocular parallax) 를 통하여 사물이 가깝거나 먼 것을 느낄 수 있다. 따라서, 삼차원 이미지는 좌안과 우안 각각에 의하여 보여지는 평면 이미지를 제공하고, 이에 따라 입체적 효과 및/또는 원근적 효과를 일으킬 수 있다.
이러한 3차원 영상 디스플레이 방법에는 스테레오스코픽(stereoscopic) 방식, 부피표현(volumetric) 방식, 홀로그래픽(holographic) 방식 등이 있다. 스테레오스코픽 방식의 경우, 좌안에서 시청되기 위한 레프트 뷰(left view) 이미지와 우안에서 시청되기 위한 라이트 뷰(right view) 이미지를 제공하여, 편광 안경 또는 디스플레이 장비 자체를 통해 좌안과 우안이 각각 레프트 뷰 이미지와 우측 이미지를 시청함으로써 3차원 영상 효과를 인지할 수 있도록 한다.
특히, 방송 환경을 통하여, 삼차원 영상을 제공하기 위하여는 방송망 혹은 다른 네트워킹 망을 통하여 전송되는 영상 신호에 삼차원 영상을 적절히 디스플레이하기 위한 정보가 필요하다.
또한, 방송 수신기 내의 OSD는 방송 수신기 생산 업체의 내부적인 결정으로 그 모양 또는 디스플레이 위치가 결정된다. 그러나, 삼차원 방송은 삼차원 서비스 또는 컨텐츠 공급자에 따라 삼차원 효과가 결정된다. 따라서, 방송 수신기 사용자가 삼차원 방송을 시청하는 과정에서 방송 수신기의 볼륨 또는 화면 조정을 위한 OSD를 사용하는 경우, 삼차원 영상에 포함된 object와 OSD 간의 충돌이 일어나는 문제점이 생길 수 있다. 일반적으로, OSD를 통한 방송 화면 설정은 상당한 시간이 소요될 수 있으므로, 시청자들은 삼차원 방송과 OSD가 충돌하는 과정에서 방송 화면을 조정하는 경우, 시작적으로 상당한 피로감을 느끼는 문제점이 발생한다.
본 발명이 이루고자 하는 기술적 과제는, IP망 또는 방송망을 통하여 삼차원 영상을 제공함에 있어, 방송 수신측에서 삼차원 영상을 디스플레이하기위하여 필요한 정보를 효율적으로 전송하고, 수신하여 처리하기 위한 것에 있다.
본 발명이 이루고자 하는 또 다른 기술적 과제는, 삼차원 방송을 시청하는 과정에서 방송 수신기 내의 OSD를 효율적으로 디스플레이 하기 위한 것에 있다.
전술한 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 3D 서비스를 위한 디지털 방송 신호를 처리하는 방법은 3D 서비스를 위한 비디오 데이터를 비디오 스트림으로 인코딩하는 단계, 여기서 상기 비디오 데이터는 3D 영상을 위한 좌영상 및 우영상을 포함하고, 상기 3D 서비스를 위한 서비스 정보와 비디오 데이터를 포함하는 방송 시그널을 생성하는 단계, 여기서, 상기 서비스 정보는, 상기 비디오 스트림의 주어진 시간 동안의 화면에서 발생하는 최대 및 최소 디스패리티를 가리키는 비디오 깊이 범위 (video depth range) 디스크립터를 포함하고, 상기 3D 서비스를 위한 방송 시그널을 전송하는 단계를 포함하며, 여기서, 상기 최소 디스패리티와 최대 디스패리티는, 각각, 상기 3D 영상의 상기 좌영상 및 상기 우영상의 영역 내에서 동일 지점을 나타내는 픽셀의 수평적 위치 차이의 최소값과 최대값을 나타내는 것을 특징으로 한다.
또한, 상기 비디오 깊이 범위 디스크립터는, SDT (service description table)에 포함되고, 상기 SDT는, 트랜스포트 스트림 내의 다른 서비스들로부터 서비스를 식별하는 서비스 식별 정보 및 상기 서비스 식별 정보에 의하여 식별되는 상기 서비스를 위한 최소 및 최대 디스패리티를 식별하는 상기 비디오 깊이 범위 디스크립터를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 비디오 깊이 범위 디스크립터는, EIT (event information table)에 포함되고, 상기 EIT는, 트랜스포트 스트림 내의 다른 서비스들로부터 서비스를 식별하는 서비스 식별 정보, 상기 서비스 식별 정보에 의하여 식별된 상기 서비스 내의 이벤트를 식별하는 이벤트 식별 정보, 및 상기 이벤트 식별 정보에 의하여 식별되는 이벤트를 위한 최소 및 최대 디스패리티를 식별하는 상기 비디오 깊이 범위 디스크립터를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 서비스 정보는, 상기 3D 서비스를 위하여 상기 비디오 깊이 범위 디스크립터에 포함된 정보가 적용되는 범위를 가리키는 어플리케이션 선택 정보를 더 포함하는 것을 특징으로 할 수 있다.
또한, 상기 어플리케이션 선택 정보는, 상기 비디오 깊이 범위 디스크립터 내의 상기 정보의 적용을 위한, 상기 3D 서비스에 포함된 장면 (scene)의 시작 시간을 가리키는 장면 시작 시간 정보를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 어플리케이션 선택 정보는, 상기 비디오 깊이 범위 디스크립터 내의 상기 정보의 적용을 위한, 상기 3D 서비스에 포함된 장면 (scene)의 지속 시간을 가리키는 장면 지속 시간 정보를 포함하는 것을 특징으로 할 수 있다.
본 발명의 일 실시예에 따른 3D 서비스를 위한 디지털 방송 신호를 수신하는 장치는 3D 서비스를 위한 서비스 정보와 비디오 데이터를 포함하는 방송 시그널을 수신하는 수신 유닛, 여기서 상기 비디오 데이터는 상기 3D 서비스를 위하여 비디오 스트림으로 인코딩되어 있고, 상기 비디오 데이터는 3D 영상을 위한 좌영상 및 우영상을 포함하고, 상기 서비스 정보는, 상기 비디오 스트림의 주어진 시간 동안의 화면에서 발생하는 최대 및 최소 디스패리티를 가리키는 비디오 깊이 범위 (video depth range) 디스크립터를 포함하고, 상기 비디오 깊이 범위 디스크립터를 파싱하는 시그널링 프로세서 및 상기 비디오 데이터를 디코딩하는 디코더를 포함하며, 여기서, 상기 최소 디스패리티와 최대 디스패리티는, 각각, 상기 3D 영상의 상기 좌영상 및 상기 우영상의 영역 내에서 동일 지점을 나타내는 픽셀의 수평적 위치 차이의 최소값과 최대값을 나타내는 것을 특징으로 한다.
또한, 상기 3D 서비스를 위한 디지털 방송 신호를 수신하는 장치는, 상기 비디오 깊이 범위 디스크립터 내의 정보에 근거하여, 상기 3D 영상 위쪽으로 상기 장치의 OSD (on screen display) 메뉴가 디스플레이되도록 제어하는 디스플레이 프로세서를 더 포함할 수 있다.
또한, 상기 시그널링 프로세서는 SDT (service description table) 을 더 파싱하는 것을 특징으로 하고, 상기 SDT는, 트랜스포트 스트림 내의 다른 서비스들로부터 서비스를 식별하는 서비스 식별 정보 및 상기 서비스 식별 정보에 의하여 식별되는 상기 서비스를 위한 최소 및 최대 디스패리티를 식별하는 상기 비디오 깊이 범위 디스크립터를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 시그널링 프로세서는 EIT (event information table) 을 더 파싱하는 것을 특징으로 하고, 상기 EIT는, 트랜스포트 스트림 내의 다른 서비스들로부터 서비스를 식별하는 서비스 식별 정보, 상기 서비스 식별 정보에 의하여 식별된 상기 서비스 내의 이벤트를 식별하는 이벤트 식별 정보, 및 상기 이벤트 식별 정보에 의하여 식별되는 이벤트를 위한 최소 및 최대 디스패리티를 식별하는 상기 비디오 깊이 범위 디스크립터를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 시그널링 프로세서는, 상기 3D 서비스를 위하여 상기 비디오 깊이 범위 디스크립터에 포함된 정보가 적용되는 범위를 가리키는 어플리케이션 선택 정보를 더 파싱하는 것을 특징으로 할 수 있다.
또한, 상기 시그널링 프로세서는, 상기 어플리케이션 선택 정보로부터, 상기 비디오 깊이 범위 디스크립터 내의 상기 정보의 적용을 위한, 상기 3D 서비스에 포함된 장면 (scene)의 시작 시간을 가리키는 장면 시작 시간 정보를 더 파싱하는 것을 특징으로 할 수 있다.
또한, 상기 시그널링 프로세서는, 상기 어플리케이션 선택 정보로부터, 상기 비디오 깊이 범위 디스크립터 내의 상기 정보의 적용을 위한, 상기 3D 서비스에 포함된 장면 (scene)의 지속 시간을 가리키는 장면 지속 시간 정보를 더 파싱하는 것을 특징으로 할 수 있다.
또한, 상기 디스플레이 프로세서는, 상기 비디오 깊이 범위 디스크립터 내의 정보와 상기 장면 지속 시간 정보에 근거하여 상기 3D 서비스에 포함된 상기 장면의 지속 시간 동안의 3D 이미지의 위쪽에 상기 장치의 OSD (on screen display) 메뉴가 디스플레이되도록 제어하는 것을 특징으로 할 수 있다.
본 발명에 따르면, 삼차원 방송 서비스/컨텐츠 제작 과정에서 의도한 삼차원 효과를 나타내는 depth 정보를 효율적으로 방송 수신측으로 전달할 수 있는 효과가 있다.
본 발명에 따르면, 메뉴, 그래픽, 기타 오류 및 경고 메시지와 같은 OSD의 경우, 어느 시점에 해당 화면이 display 될지 모르며 또한 얼마나 오랫동안 화면상에서 유지될지를 예측할 수 없는 경우에도, 특정 시점에서 삼차원 방송 영상과 OSD가 충돌하지 않게 하는 효과가 있다.
본 발명에 따르면, 삼차원 영상에서 장면 전환에 따른 depth의 변화가 있어도, OSD를 사용하는 시청자의 시각적 피로감을 덜어주는 효과가 있다.
도 1은 본 발명의 일실시예에 따른, 3D Depth Information Descriptor를 나타낸 도면이다.
도 2는 본 발명의 다른 실시예에 따른, 3D Depth Information Descriptor를 나타낸 도면이다.
도 3은 본 발명의 일실시예에 따른, scene_format_type 필드의 값에 따른 의미를 설명하는 도면이다.
도 4는 본 발명의 일실시예에 따른, Asynchronous depth information 전송 방식에 의한 3D scene depth stream의 전송 개념을 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른, 3D scene depth stream 을 PES packet 형태로 전송하는 경우에 있어서의 syntax를 나타낸 도면이다.
도 6은 본 발명의 일실시예에 따른, 3D Depth Range Descriptor를 나타낸 도면이다.
도 7은 본 발명의 다른 실시예에 따른, 3D Depth Range Descriptor를 나타낸 도면이다.
도 8은 본 발명의 일실시예에 따른, component descriptor를 나타낸 도면이다.
도 9는 본 발명의 일실시예에 따른, 3D Scene Depth Information stream을 나타내기 위한 stream_content 및 component_type 값의 정의를 나타낸 도면이다.
도 10은 본 발명의 일실시예에 따른, PMT와 PMT 내의 전술한 디스크립터들이 포함될 수 있는 위치를 나타낸 도면이다.
도 11은 본 발명의 일실시예에 따른, TVCT와 전술한 디스크립터들이 포함될 수 있는 위치를 나타낸 도면이다.
도 12는 본 발명의 일실시예에 따른, EIT와 전술한 디스크립터들이 포함될 수 있는 위치를 나타낸 도면이다.
도 13은 본 발명의 일실시예에 따른, SDT와 전술한 디스크립터들이 포함될 수 있는 위치를 나타낸 도면이다.
도 14은 본 발명의 일실시예에 따른, EIT와 전술한 디스크립터들이 포함될 수 있는 위치를 나타낸 도면이다.
도 15는 본 발명의 일실시예에 따른, 3D 영상을 수신 처리하기 위한 수신기의 블록을 나타낸 도면이다.
도 16은 본 발명의 다른 실시예에 따른, 3D 영상을 수신 처리하기 위한 수신기의 블록을 나타낸 도면이다.
도 17은 본 발명의 일실시예에 따른, IPTV에서의 3D 서비스 획득 과정을 나타낸 도면이다.
도 18은 본 발명의 일실시예에 따른, IPTV를 위한 SI (Service Information) 테이블의 구조를 나타낸 도면이다.
도 19는 본 발명의 일실시예에 따른, SourceReferenceType의 XML 스키마를 나타낸 도면이다.
도 20은 본 발명의 일실시예에 따른, SourceType의 XML 스키마를 나타낸 도면이다.
도 21은 본 발명의 일실시예에 따른, 3D Scene Depth information 을 위해 확장한 TypeOfSourceType XML Schema 를 나타낸 도면이다.
도 22는 본 발명의 일실시예에 따른, 3D Depth 정보를 담기 위한 DepthInformationType XML Schema diagram을 나타낸 도면이다.
도 23은 본 발명의 일실시예에 따른, 3D Depth 정보를 담기 위한 DepthInformationType XML Schema를 나타낸 도면이다.
도 24는 본 발명의 일실시예에 따른, 3D Depth 정보를 담기 위해 확장한 IpSourceDefinitionType XML Schema를 나타낸 도면이다.
도 25는 본 발명의 일실시예에 따른, 3D Depth 정보를 담기 위해 확장한 RfSourceDefinitionType XML Schema를 나타낸 도면이다.
도 26은 본 발명의 일실시예에 따른, 3D depth 정보를 담기 위해 확장한 IpService XML Schema를 나타낸 도면이다.
도 27은 본 발명의 일실시예에 따른, IPTV 수신기를 나타낸 도면이다.
도 28은 본 발명의 일실시예에 따른, IPTV 수신기의 기능 블록들을 나타낸 도면이다.
도 29는 본 발명의 일실시예에 따른, 3D 방송 신호를 처리하는 방법을 나타낸 순서도 이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시 예를 상세하게 설명하지만, 본 발명이 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
3차원 영상 표현 방법은 2개의 시점을 고려하는 스테레오스코픽 방식과 3개 이상의 시점을 고려하는 멀티플 뷰 이미지(multiple view image) 방식(또는 다시점 방식)을 포함할 수 있다. 이에 비해 종래의 싱글 뷰 이미지(single view image) 방식은 모노스코픽 영상 방식이라고 지칭할 수 있다.
스테레오스코픽 방식은 일정한 거리로 이격되어 있는 좌측 카메라와 우측 카메라로 동일한 피사체를 촬영하여 획득한 레프트 뷰 이미지와 라이브 뷰 이미지의 한 쌍의 이미지를 사용한다. 다시점 방식은 일정한 거리나 각도를 갖는 3개 이상의 카메라에서 촬영하여 획득한 3개 이상의 이미지를 사용한다. 이하에서 스테레오스코픽 방식을 일 실시예로 본 발명을 설명하나 본 발명의 사상은 다시점 방식에도 적용될 수 있을 것이다.
스테레오스코픽 영상 또는 다시점 영상은 MPEG(Moving Picture Experts Group)을 포함하는 여러가지 방법으로 압축 부호화되어 전송될 수 있다.
예를 들어, 스테레오 영상 또는 다시점 영상은 H.264/AVC(Advanced Video Coding) 방식으로 압축 부호화되어 전송될 수 있다. 이때 수신 시스템은 H.264/AVC 코딩 방식의 역으로 수신 영상을 복호하여 3D 영상을 얻을 수 있다.
또한 스테레오스코픽 영상의 left view image와 right view image 중 하나 또는 다시점 영상 중 하나의 영상을 기본 계층(base layer) 영상으로, 나머지 영상은 확장 계층(extended layer) 영상으로 할당하고, 기본 계층의 영상은 모노스코픽 영상과 동일한 방식으로 부호화하고, 확장 계층의 영상은 기본 계층과 확장 계층의 영상간의 관계 정보에 대해서만 부호화하여 전송할 수 있다. 기본 계층 영상에 대한 압축 부화화 방식의 예로 JPEG, MPEG-2, MPEG-4, H.264/AVC 방식 등이 사용될 수 있으며, 본 발명은 H.264/AVC 방식을 사용하는 것을 일 실시예로 한다. 상위 계층의 영상에 대한 압축 부호화 방식은 H.264/MVC(Multi-view Video Coding) 방식을 사용하는 것을 일 실시예로 한다.
스테레오스코픽 영상 디스플레이를 위해 AVC 방식에 MVC 방식을 추가로 사용하거나 AVC 만으로 좌/우 image sequence를 코딩한 경우, 해당 3D content를 방송하고자 할 때 고려해야하는 사항 중 하나는 기존의 2D 방송 수신기와의 호환성이다. 이를 위해 3D 영상 디스플레이를 지원하지 않는 종래의 방송 수신기를 위해 좌/우 영상 중 한 시점의 영상은 backward compaptible한 방법으로 코딩을 하여 송신하면, 2D 방송 수신기는 해당 신호만을 인식하여 출력함으로써 기존의 장비에서도 해당 content의 시청이 가능하다. 이하에서 레거시 방송 수신기를 위해 전송되는 시점의 기본 계층 영상을 base view 비디오, 3D 영상 디스플레이를 위해 전송되는 확장 계층 영상을 extended view 비디오라고 호칭할 수도 있다.
이렇게 base view 비디오 데이터와 extended view 비디오 데이터를 전송하면 레거시 2D 방송 수신기에서는 base view 비디오 데이터로부터 2D 영상을, 3D 방송 수신기에서는 base view 비디오 데이터와 extended view 비디오 데이터로부터 3D 영상을 각각 디스플레이할 수 있다.
3차원 컨텐츠가 플레이되는 경우, 3차원 컨텐츠의 특성에 따라, 혹은 서브 타이틀의 용도에 따라, 하나의 화면에 디스플레이되는 서브타이틀의 개수는 복수개가 될 수 있다. 이 경우, 복수개의 서브타이틀은 방송화면에서 동일한 깊이(depth)를 가질 수도 있으나, 3차원 효과를 더욱 효율적으로 누리기 위하여는 서로 다른 깊이를 가져야 하는 경우도 있다.
예를 들면, 3차원 컨텐츠에 다수의 배우가 출연하고, 다수의 배우가 각자의 대사를 동시에 소리내는 경우, 이를 서브타이틀로 표시함에 있어서는 2차원 환경과는 다른 효과를 기대할 수 있다. 즉, 하나의 화면에서 각 배우가 위치하는 깊이(depth)를 고려하여, 해당 배우의 대사를 위한 서브타이틀의 깊이도 달리 조정할 수 있을 것이다.
또 다른 예로, 방송 화면 우측 상단에 표시되는 방송사 로고 등의 서브타이틀은 3차원 컨텐츠 내에서 3차원 효과를 나타내는 깊이의 범위 보다 시청자들에게 더욱 가까운 깊이에서 디스플레이될 수 있고, 이에 반해 3차원 컨텐츠와 관련된 서브타이틀은 상대적으로 시청자들에게 먼 깊이에 디스플레이될 수 있다.
본 발명에 있어서 서브타이틀이란, 자막 뿐만 아니라 기본적인 비디오 데이터 외에 부가적으로 디스플레이되는 이미지, 텍스트 데이터, 그래픽, 로고 등을 포함하는 의미로서 사용된다.
기존의 방송 신호에서는 기본적인 서브타이틀 디스플레이 정보만을 제공하므로, 3D 방송 수신기에서 이를 디스플레이하려는 경우 2D로 표현하거나, 표현을 할 수 없는 경우가 발생할 수 있다. 따라서 서브타이틀 디스플레이 정보에 대하여도 3D 디스플레이를 할 수 있는 정보를 전송해줄 필요가 있으며, 이러한 정보를 사용하여 서브타이틀 데이터를 3D 디스플레이할 수 있는 방송 수신기 및 데이터 처리 방법이 요구된다.
스테레오스코픽 영상 디스플레이의 경우, 좌 시점의 비디오 데이터와 우 시점의 비디오 데이터는 3D 효과를 갖도록 수평 방향으로 일정 간격 쉬프트되어 디스플레이된다. 이때 쉬프트되는 간격과 같이 3D 효과를 나타낼 수 있는 다양한 표현값들이 존재한다. 본 발명의 경우, 일 실시예로서 디스패러티 값을 이러한 표현값으로 설명하도록 한다.
3D 효과는 두 눈의 망막에 각각 비치는 투영체들의 차이로부터 깊이를 인지하는 시각적 지각을 하는 과정으로부터 얻어진다. 두 개의 망막 이미지 사이의 차이는 수평적 디스패리티 (disparity), 망막 디스패리티, 또는 양안 디스패리티라고 칭할 수 있으며, 이하에서는 디스패리티 (disparity) 라고 지칭할 수 있다.
삼차원 효과의 정도는 삼차원 영상이 화면상에서 디스플레이되는 depth로 수치화 할 수 있다. 예를 들면, 방송 수신기의 디스플레이 평면을 기준으로, 앞으로 디스플레이되는 것과 같은 효과를 가지는 삼차원 영상이 있을 수 있고, 방송 수신기의 디스플레이 평면을 기준으로, 디스플레이 평면 뒤쪽으로 디스플레이되는 것과 같은 효과를 가지는 삼차원 영상이 있을 수 있다.
도 1은 본 발명의 일실시예에 따른, 3D Depth Information Descriptor를 나타낸 도면이다.
descriptor_tag 필드는, 이 필드가 속한 디스크립터의 식별하는 역할을 한다.
descriptor_length 필드는, 이 필드를 뒤따르는 본 디스크립터에 속한 데이터의 길이를 바이트(byte)로 나타낸다.
min_disparity 필드는 3D depth information descriptor가 적용되는 3D 서비스, program 또는 event에 포함된 3D video에서 표현 가능한 disparity의 최소값을 나타낸다. 즉, min_disparity 필드는 해당 서비스, program 또는 event에서 표현 가능한 depth 중 사용자에게 가장 가장 가까운 거리에 형성되는 점의 depth에 해당되는 disparity 값을 나타낸다.
max_disparity 필드는 3D depth information descriptor가 적용되는 3D 서비스, program 또는 event에 포함된 3D video에서 표현 가능한 disparity의 최대값을 나타낸다. 즉, max_disparity 필드는 해당 서비스, program 또는 event에서 표현 가능한 depth 중 사용자에게 가장 먼 거리에 형성되는 depth에 해당하는 disparity를 나타낸다.
위 min_disparity 필드 및/또는 max_disparity 필드는 depth 값으로 표시될 수도 있다. 즉, 삼차원 영상이 디스플레이 되는 디스플레이 평면을 기준으로, 거리를 (+), (-)로 나타낼 수도 있을 것이다.
본 발명의 일실시예에 따른 3D Depth Information Descriptor는 Program Map Table (PMT), Virtual Channel Table (VCT), Service Description Table (SDT) 및/또는 Event Information Table (EIT)에 포함될 수 있다. 일실시예로, 3D Depth Information Descriptor 포함된 테이블에 따라, 해당 레벨의 삼차원 영상에, 3D Depth Information Descriptor 내의 정보가 적용될 수 있다.
방송 수신기는 본 디스크립터 정보를 파싱하여 인식함으로써, 특정 3D 서비스, 프로그램 또는 컨텐츠가 방송되는 동안의 3D depth의 최고/최저치를 알 수 있으므로, 이를 참고하여, 방송 수신기의 OSD를 어느 정도의 depth에 디스플레이하여야 하는지 결정할 수 있다. 예를 들면, OSD는 3D 영상과 겹쳐지지 않게, 모든 3D 영상 보다 시청자에 가깝게 디스플레이 되거나, 모든 3D 영상 보다 시청자에게서 멀게 디스플레이 될 수 있다. 3D 영상의 depth를 고려한 OSD의 디스플레이 depth는 사용자가 설정할 수도 있을 것이다.
도 2는 본 발명의 다른 실시예에 따른, 3D Depth Information Descriptor를 나타낸 도면이다.
도 2에 도시된 디스크립터는 삼차원 방송 영상에 포함된 씬(scene) 별로 min_disparity 필드 및/또는 max_disparity 필드 값을 시그널링할 수 있다. 따라서, 위 디스크립터를 3D Scene-level Depth Information Descriptor로도 표현할 수 있다.
본 발명에서 scene은 context에 기반한 내용적인 segment일 수도 있다. 또는, 기본적으로 시작 시간(start time)과 구간 길이(duration)로 정의된 time segment가 될 수도 있다. 즉, 일실시예로, 본 디스크립터가 PMT, Terrestrial Virtual Channel Table (TVCT), 또는 EIT를 통해 signaling 되는 경우에도, 프로그램이나 이벤트와의 연관성이 없이 절대적인 시작시간, 구간 크기로 정의될 수 있다.
descriptor_tag 필드는, 이 필드가 속한 디스크립터의 식별하는 역할을 한다.
descriptor_length 필드는, 이 필드를 뒤따르는 본 디스크립터에 속한 데이터의 길이를 바이트(byte)로 나타낸다.
scene_format_type 필드는, 본 디스크립터에 속한 min_disparity 필드 및/또는 max_disparity 필드 값을 적용할 scene을 분류하는 방법을 식별한다. scene_format_type 필드에 대한 상세한 설명은 도 3에서 하기로 한다.
first_scene_start_time 필드는, 이 descriptor에서 signaling 하는 scene들에 대한 base time을 알려주는 필드이다. 즉, 첫 scene의 시작 시간을 의미하며 hour 단위로 표시하며 값의 범위는 0 ~ 23 이 될 수 있다. 예를 들면, scene_id, scene_start_time 등에 의해 각 scene에 대한 시간 정보를 알 수 있는데, first_scene_start_time 필드는 그 기준 시간을 알려주는 필드이다.
number_of_scenes 필드는, 현재 전송되는 3D Scene-level Depth Information descriptor를 통해 depth 정보를 파악할 수 있는 scene의 개수를 나타낸다.
scene_duration 필드는, scene이 지속되는 길이를 나타낸다. 예를 들면 scene의 길이는 초 단위로 표현할 수 있다.
scene_id 필드는, 각 장면에 대한 식별자이다. scene_start_time 필드가 없는 경우 시작 시간을 implicit 하게 signaling 할 수 있다. 예를 들면, 이 필드는 0부터 시작한다. scene의 time span에 대한 명확한 적용시점은 first_scene_start_time을 이용해 파악할 수 있다.
min_disparity 필드는 3D Scene-level depth information descriptor가 적용되는 3D 서비스, program 또는 event에 포함된 3D video에서 표현 가능한 disparity의 최소값을 나타낸다. 즉, min_disparity 필드는 해당 서비스, program 또는 event에서 표현 가능한 depth 중 사용자에게 가장 가장 가까운 거리에 형성되는 점의 depth에 해당되는 disparity 값을 나타낸다.
max_disparity 필드는 3D Scene-level depth information descriptor가 적용되는 3D 서비스, program 또는 event에 포함된 3D video에서 표현 가능한 disparity의 최대값을 나타낸다. 즉, max_disparity 필드는 해당 서비스, program 또는 event에서 표현 가능한 depth 중 사용자에게 가장 먼 거리에 형성되는 depth에 해당하는 disparity를 나타낸다.
scene_start_time 필드는, 각 장면의 시작 시간을 나타낸다. 시작 시간을 나타내는 실시 예는 여러 가지 방법이 가능하다. 일실시예로, 1980년 1월6일 0시 기준으로 GPS 초 단위로 표현할 수 있다. 이 경우, 32 bit가 이 필드를 위하여 사용될 수 있다. 또 다른 방법으로 first_scene_start_time을 기준으로 경과된 초 단위로 표현할 수도 있다. 예를 들어, 7시 30분에 이 descriptor를 수신하는 경우, first_scene_start_time이 7의 값을 갖는다면 7시 40분은 2400 초로 표현되며 이 값을 scene_start_time 값으로 사용할 수 있다.
전술한 바와 같은 디스크립터를 사용하는 경우, 특정 scene 단위로 OSD가 디스플레이되는 위치를 방송 수신기가 인식할 수 있는 효과가 있다. 방송 수신기는 본 디스크립터를 해석하여, 방송 수신기 사용자가 OSD를 호출한 순간에, OSD가 디스플레이되어야 하는 위치를 결정할 수 있다. 이때 OSD가 디스플레이되는 위치는 전술한 바와 같이, 모든 3D 영상의 위 쪽이 될 수 있으며, 모든 3D 영상의 바닥(bottom) 쪽이 될 수도 있다.
방송 수신기는 시청자가 호출한 OSD에 따라, 하나 이상의 scene에 대한 depth 정보를 수신하여, 가장 작은 값을 가지는 min_disparity 필드가 나타내는 depth 보다 시청자에 가깝게 OSD를 디스플레이할 수 있다. 예를 들면, 볼륨을 조정하기 위한 OSD는, 그 조절에 오랜 시간이 걸리지 않으므로, 시청자가 OSD를 호출하는 순간에 해당 되는 scene에 대한 depth 정보만으로 OSD의 depth를 결정할 수 있을 것이다. 그러나, 화면을 조정하기 위한 OSD는 통상 오랜 시간이 걸리므로, 시청자가 OSD를 호출한 순간의 scene 이후의 scene 들에 대한 depth 정보까지 획득하여, 획득한 depth 정보에 포함되는 어떠한 삼차원 영상보다 시청자에게 가깝게 OSD가 디스플레이될 수 있도록 조정할 수 있다. 즉, scene이 변경되는 과정에 OSD가 디스플레이되어 있어도, OSD가 디스플레이되는 depth가 변경되지 않도록 하여, 시청자에게 시각적으로 부담을 덜어 줄 수가 있다.
도 3은 본 발명의 일실시예에 따른, scene_format_type 필드의 값에 따른 의미를 설명하는 도면이다.
수신기가 임의의 시간에 menu 또는 기타 graphic data를 입체 영상 위에 overlay 해야 하는 상황이 발생할 때, 해당 시간의 min_disparity 값을 알면 3D video의 object와 graphic, menu, icon 등의 depth 충돌을 방지할 수 있음은 전술한 바 있다. 이 경우에 있어서, scene_format_type 필드는 scene에 대한 depth 적용 방법을 시그널링한다.
예를 들면, scene_format_type = “10”인 경우, scene_id 필드를 사용해 depth 정보가 적용되는 시점을 파악할 수 있다. 3D scene-level depth information descriptor는 각 scene에 대한 3D 비디오의 depth range 정보를 제공함은 전술한 바 있다. 같은 descriptor 또는 동일한 PMT/TVCT/EIT section instance 내에서 scene_duration은 고정되는 것을 본 발명의 일실시예로 한다. 모든 scene은 동일한 길이를 갖도록 할 수 있다. 각 scene의 길이는 scene_duration 필드에 의해 정의될 수 있다. 즉, 3D scene-level depth information descriptor는 scene_duration에서 명시한 시간 단위로 3D 비디오의 depth range 정보를 제공한다.
예를 들어, scene_duration = 1200 (20분)일 때, scene_id=0는 first_scene_start_time에 의해 명시된 시간부터 20분 사이의 time segment를 의미한다. 이 때, first_scene_start_time = 19 이고 수신기가 오후 7시 30분에 OSD를 출력하고자 한다면 적절한 depth range를 파악하기 위해 scene_id=1에 해당되는 정보를 이용할 수 있다.
예를 들면, scene_format_type = “11” 인 경우, 각 scene은 scene_start_time에서 명시한 시각부터 scene_duration 만큼의 길이를 갖도록 명확하게 정의될 수 있다. 이 경우 각 scene은 같은 descriptor에 있더라도 서로 다른 길이를 가질 수 있다. 수신기는 특정 시점에 3D 비디오 재생 중에 OSD를 출력하는 경우 현재 시각이 속한 scene을 파악하고 해당되는 depth range 정보를 이용할 수 있다.
동일한 scene으로 분류되더라도 경우에 따라 내용이 서로 다른 program 또는 event가 섞여 있을 수도 있다. 만약 비디오의 내용 또는 context에 기반한 장면 분할을 실시한 경우에는 scene_format_type을 “11”로 설정하고 각 구간에 대한 정보를 전송할 수 있다. 아울러 생방송의 경우와 같이 미리 depth 정보를 알 수 없는 경우에는 min_disparity와 max_disparity의 값을 모두 0으로 설정할 수 있다.
도 4는 본 발명의 일실시예에 따른, Asynchronous depth information 전송 방식에 의한 3D scene depth stream의 전송 개념을 나타낸 도면이다.
프로그램 A는 삼차원 프로그램이다. 프로그램 A를 구성하는 것은 좌영상을 위한 비디오 Elementary Stream (ES), 우영상을 위한 비디오 ES 및/또는 삼차원 영상의 depth 정보를 가지는 3D scene depth information 을 포함할 수 있다. 이때, 3D scene depth information은 PMT, TVCT, SDT 및/또는 EIT과 같은 기존의 시그널링 테이블을 이용하여 전송될 수 있다. 본 발명의 또 다른 실시예에 따르면, 3D scene depth information은 디스크립터의 형태가 아닌 Packetized Elementary Stream (PES) 패킷 형태로 전송될 수 있다.
도 5는 본 발명의 일실시예에 따른, 3D scene depth stream 을 PES packet 형태로 전송하는 경우에 있어서의 syntax를 나타낸 도면이다.
sync_byte 필드는 세그먼트 (segment)를 파싱하는 과정에서 synchronization을 검증하기 위하여 사용된다.
segment_type 필드는 세그먼트 데이터 필드에 속하는 데이터의 타입을 가리킨다.
scene_data_type 필드는 depth 정보를 적용하는 방법을 특정한다.
예를 들면, scene_data_type = “01” 인 경우에는 3D scene depth information 스트림은 event 단위로 depth range를 전송한다고 정의할 수 있다. 이 경우 각 scene은 하나의 event로 mapping 되며 target_event_id 필드를 이용해 depth range가 적용되는 event를 파악한다. 수신기는 target_event_id와 EIT 내의 event_id를 matching 시켜 대응되는 event에 대한 정보를 파악할 수 있다.
예를 들어, scene_data_type = “10” 인 경우에는, scene_id 필드를 사용해 depth 정보가 적용되는 시점을 파악할 수 있다. 3D scene depth information 스트림은 각 scene에 대한 3D 비디오의 depth range 정보를 제공한다. 이 경우, 3D scene depth information 스트림 내에서 scene_duration은 고정되는 것으로 정의될 수 있다. 즉, 모든 scene은 동일한 길이를 갖도록 한다. 각 scene의 길이는 scene_duration 필드에 의해 정의된다. 3D scene depth information 스트림은 scene_duration에서 명시한 시간 단위로 3D 비디오의 depth range 정보를 제공한다.
예를 들어 scene_duration = 1200 (20분) 일 때, scene_id=0는 first_scene_start_time에 의해 명시된 시간부터 20분 사이의 time segment를 의미한다. 이 때, first_scene_start_time=19이고 수신기가 오후 7시 30분에 OSD를 출력하고자 한다면 적절한 depth range를 파악하기 위해 scene_id=1에 해당되는 정보를 이용할 수 있다.
예를 들어, scene_data_type = “11” 인 경우에는, 각 scene은 scene_start_time에서 명시한 시각부터 scene_duration 만큼의 길이를 갖도록 명확하게 정의된다. 이 경우 각 scene은 같은 descriptor에 있더라도 서로 다른 길이를 가질 수 있다. 수신기는 특정 시점에 3D 비디오 재생 중에 OSD를 출력하는 경우 현재 시각이 속한 scene을 파악하고 해당되는 depth range 정보를 이용할 수 있다.
first_scene_start_time 필드는, 이 descriptor에서 signaling 하는 scene들에 대한 base time을 알려주는 필드이다. 즉, 첫 scene의 시작 시간을 의미하며 hour 단위로 표시하며 값의 범위는 0 ~ 23 이 될 수 있다. 예를 들면, scene_id, scene_start_time 등에 의해 각 scene에 대한 시간 정보를 알 수 있는데, first_scene_start_time 필드는 그 기준 시간을 알려주는 필드이다.
number_of_scenes 필드는, 현재 전송되는 3D Scene-level Depth Information descriptor를 통해 depth 정보를 파악할 수 있는 scene의 개수를 나타낸다.
target_event_id 필드는 위 depth 정보가 적용되는 event를 식별한다.
min_disparity 필드는 3D Scene-level depth information descriptor가 적용되는 3D 서비스, program 또는 event에 포함된 3D video에서 표현 가능한 disparity의 최소값을 나타낸다. 즉, min_disparity 필드는 해당 서비스, program 또는 event에서 표현 가능한 depth 중 사용자에게 가장 가장 가까운 거리에 형성되는 점의 depth에 해당되는 disparity 값을 나타낸다.
max_disparity 필드는 3D Scene-level depth information descriptor가 적용되는 3D 서비스, program 또는 event에 포함된 3D video에서 표현 가능한 disparity의 최대값을 나타낸다. 즉, max_disparity 필드는 해당 서비스, program 또는 event에서 표현 가능한 depth 중 사용자에게 가장 먼 거리에 형성되는 depth에 해당하는 disparity를 나타낸다.
scene_duration 필드는, scene이 지속되는 길이를 나타낸다. 예를 들면 scene의 길이는 초 단위로 표현할 수 있다.
scene_id 필드는, 각 장면에 대한 식별자이다. scene_start_time 필드가 없는 경우 시작 시간을 implicit 하게 signaling 할 수 있다. 예를 들면, 이 필드는 0부터 시작한다. scene의 time span에 대한 명확한 적용시점은 first_scene_start_time을 이용해 파악할 수 있다.
scene_start_time 필드는, 각 장면의 시작 시간을 나타낸다. 시작 시간을 나타내는 실시 예는 여러 가지 방법이 가능하다. 일실시예로, 1980년 1월6일 0시 기준으로 GPS 초 단위로 표현할 수 있다. 이 경우, 32 bit가 이 필드를 위하여 사용될 수 있다. 또 다른 방법으로 first_scene_start_time을 기준으로 경과된 초 단위로 표현할 수도 있다. 예를 들어, 7시 30분에 이 descriptor를 수신하는 경우, first_scene_start_time이 7의 값을 갖는다면 7시 40분은 2400 초로 표현되며 이 값을 scene_start_time 값으로 사용할 수 있다.
본 실시예에 따르면, 3D depth 정보를 전송하기 위하여, 많은 양의 data가 필요한 경우에도, 적절히 3D depth 정보를 시그널링할 수 있는 효과가 있다.
도 6은 본 발명의 일실시예에 따른, 3D Depth Range Descriptor를 나타낸 도면이다.
3D Depth Range Descriptor는 PMT의 ES descriptor loop, TVCT 또는 SDT의 descriptor loop에 위치할 수 있다. 3D Depth Range Descriptor는 ES가 3D scene depth information인 경우 해당 스트림이 어느 시간대에 대한 depth range 정보를 제공하는지를 알려주는 역할을 한다. 이 디스크립터를 이용하면, 3D depth 가 적용되는 시점이 3D depth에 관한 정보와 별도로 시그널링 될 수 있다.
descriptor_tag 필드와 descriptor_length 필드는 전술한 다른 디스크립터내의 동일한 명칭을 가진 필드와 동일한 의미를 가지므로, 상세한 설명은 전술한 설명으로 대체한다.
3D_scene_depth_info_version 필드는 3D scene depth information의 version 정보로 수신기는 이 필드를 이용해 depth range 정보의 update 여부를 파악할 수 있다. 따라서, 이 필드의 정보를 이용하여 version 정보에 변화가 없다면, depth information을 읽는데 필요한 중복 작업을 피할 수 있다.
first_scene_start_time 필드는 3D scene depth information에 포함된 depth range 정보가 적용되는 최초 시각을 의미한다. 일실시예로, 이 필드는 1980년 1월6일 0시 기준으로 GPS 초 단위로 표현될 수 있다. 이 경우 32 bit가 이 필드를 위하여 필요하다.
last_scene_end_time 필드는 3D scene depth information에 포함된 depth range 정보가 적용되는 최종 시각을 의미한다. 일실시예로, 필드 값의 단위는 1980년 1월6일 0시 기준으로 GPS 초 단위로 표현될 수 있다. 이 경우 32 bit가 이 필드를 위하여 필요하다.
수신기는 first_scene_start_time 필드 및/또는 last_scene_end_time 필드를 이용해 3D scene depth information에 포함된 depth range 정보들이 유효한 시간대를 파악할 수 있다.
도 7은 본 발명의 다른 실시예에 따른, 3D Depth Range Descriptor를 나타낸 도면이다.
본 발명의 다른 실시예에 따른 3D Depth Range Descriptor는 VCT 또는 SDT에 포함될 수 있다.
3D Depth Range Descriptor에는 도 6에서 설명한 필드 외에 3D_scene_depth_info_PID 필드를 더 포함한다.
3D_scene_depth_info_PID 필드는 3D scene 을 전송하는 Packet의 식별하는 정보를 포함한다.
3D Depth Range Descriptor가 SDT에 적용되는 경우에는, 3D_scene_depth_info_PID 필드는 component_tag로 대체될 수 있다.
도 8은 본 발명의 일실시예에 따른, component descriptor를 나타낸 도면이다.
descriptor_tag 필드와 descriptor_length 필드는 전술한 다른 디스크립터내의 동일한 명칭을 가진 필드와 동일한 의미를 가지므로, 상세한 설명은 전술한 설명으로 대체한다.
stream_content 필드는 스트림의 타입 (예를 들면, 비디오, 오디오, 또는 EBU 데이터) 을 식별한다.
component_type 필드는 비디오, 오디오, 또는 EBU 데이터 컴포넌트의 타입을 식별한다.
component_tag 필드는 stream identifier descriptor (PSI의 프로그램 맵 섹션에 존재하는 경우) 의 component_tag 필드와 동일한 값을 가질 수 있다.
ISO_639_language_code 필드는 컴포넌트 (오디오 또는 EBU 데이터인 경우) 의 언어를 가리키고, 이 디스크립터에 포함될 수 있는 텍스트 디스크립션의 언어를 가리킨다. ISO 639-2/B 와 ISO 639-2/T 가 이때 사용될 수 있다. 각각의 캐릭터는 ISO/IEC 8859-1에 따라 8 비트로 코딩될 수 있으며, 24 비트의 필드에 순서대로 삽입되어질 수 있다.
text_char 필드는 8비트 필드로, 컴포넌트 스트림의 텍스트 디스크립션을 식별한다.
DVB에서 서비스를 구성하는 각 Elementary stream 의 타입을 나타내기 위하여 component descriptor를 SDT 의 descriptor loop에 추가하여 시그널링한다. 본 발명에서는 3D Scene Depth information을 위한 스트림을 식별하기 위한 stream_content 및 component_type을 사용하는 것을 일실시예로 한다.
Stream_content는 stream 의 종류를 나타내는 것으로 3D 컨텐트를 위한 메타데이터 등의 부가 데이터들에 대하여 0x09를 정의하여 이용하고자 한다. 위에서 Stream_content를 위하여 정의된 값은 임의적인 것이며, 다른 값으로 변경되어 정의될 수 있다. 이러한 부가 데이터의 예로는 3D Scene depth range, Viewing Geometry parameter, Camera Parameter 등이 있을 수 있다.
이 스트림 컨텐트 내에서의 3D Scene Depth Information을 담고 있는 component를 위한 component_type을 추가로 사용할 수 있다.
도 9는 본 발명의 일실시예에 따른, 3D Scene Depth Information stream을 나타내기 위한 stream_content 및 component_type 값의 정의를 나타낸 도면이다.
전술한 바와 같이, 본 발명에서 정의된 값은 다른 값으로 변경될 수 있다.
본 발명의 실시예에 따른, 추가 정의된 component type을 이용하여 3D Scene Depth Information을 담은 스트림을 식별하는 방법은 다음과 같다.
SDT에 포함된 Component descriptor들 가운데 Stream content가 0x09이고 component type이 0x01인 것을 확인하여 3D Scene Depth Information 스트림의 component tag를 확인한다. (Component_tag_D)
이 SDT에 해당하는 PMT의 ES Loop상이 Elementary stream 중에서 Stream identifier descriptor로 상기 1 단계에서 획득한 component_tag_D를 포함하고 있는 ES를 확인하여 이의 PID를 획득한다. (PID_D)
획득한 PID_D에 해당하는 스트림을 추출하여 3D Scene Depth 정보를 파악한다.
도 10은 본 발명의 일실시예에 따른, PMT와 PMT 내의 전술한 디스크립터들이 포함될 수 있는 위치를 나타낸 도면이다.
table_id 필드는 8 비트 필드로써, TS_program_map_section은 항상 0x02의 값으로 설정된다.
section_syntax_indicator 필드는 1 비트로써, 1로 설정된다.
section_length field는 12 비트로 구성되며, 처음 두 비트는 00이다. 이 필드는 섹션의 바이트 수를 나타내며, 이 필드 이후부터 CRC까지의 길이를 나타낸다. 이 필드의 값은 1021를 넘지 않는다.
program_number 필드는 16 비트로 구성된다. 이는 어느 프로그램에 program_map_PID가 적용가능한지 나타낸다. 하나의 프로그램 정의는 오직 하나의 TS_program_map_section에 의해서만 전송된다. 이는 프로그램 정의는 1016을 넘을 수 없을을 내포한다. 예를 들면, program_number 필드는 방송 채널을 위한 지정자로 사용될 수 있다. 프로그램에 포함되는 다른 프로그램 엘레먼트를 묘사함으로써, program_number 필드를 사용하여, 다른 소스로부터의 데이터가 하나의 스트림들의 연속적인 세트를 형성하기 위하여 결합될 수 있다.
version_number 필드는 TS_program_map_section 의 버전 번호이다. 버전 번호는 섹션내에서 전송되는 정보에 변화가 있으면 32 모듈로 (modulo) 로 1씩 증가한다. 버전 번호는 단일 프로그램의 정의를 참조하고 따라서, 단일 섹션을 참조한다. current_next_indicator 필드가 1로 셋팅된 경우, version_number 필드는 현재 적용 가능한 TS_program_map_section의 그것이 될 것이다. current_next_indicator 필드가 0으로 셋팅된 경우, version_number 필드는 다음번에 적용 가능한 TS_program_map_section의 그것이 될 것이다.
current_next_indicator 필드는 1 비트로 구성되며 VCT가 현재 적용 가능한 것일 경우 값이 1로 설정된다. 만약 0으로 설정되어 있다면, 이는 아직 적용할 수 없으며 다음 테이블이 유효함을 의미한다.
section_number 필드의 값은 0x00으로 설정된다.
last_section_number 필드의 값은 0x00으로 설정된다.
PCR_PID 필드는 13 비트로 구성되며, 프로그램 번호에 의해 상술되는 프로그램에 대해 유효한 PCR 필드를 포함하는 TS의 PID를 의미한다. 프라이빗 스트림을 위한 프로그램 정의와 연계된 PCR이 존재하지 않는 경우, 이 필드는 0x1FFF 의 값을 가지게 될 것이다.
program_info_length 필드는 12 비트로 구성되며, 처음 두 비트는 00의 값을 갖는다. 나머지 10 비트는 이 필드 이후에 따라오는 디스크립터를 바이트 수로 나타낸다.
stream_type 필드는 8 비트로 구성되며, 기본 PID의 PID 값을 갖는 패킷에 의해 전송되는 프로그램 엘리먼트의 타입을 나타낸다.
elementary_PID 는 13 비트로 구성되며 관련된 프로그램 엘리먼트를 포함하는 TS의 PID를 나타낸다.
ES_info_length 필드는 12 비트로 구성되며, 첫 두 비트는 00이다. 나머지 10 비트는 이 필드 이후에 따라오는 관련 프로그램 엘리먼트의 디스크립터를 바이트 수로 나타낸다.
CRC_32 필드는 디코더 내의 레지스터의 zero output이 되도록 하는 CRC value를 나타낸다.
전술한 디스크립터들 중 적어도 어느 하나는 program_info_length 필드를 뒤따르는, 디스크립터를 위한 for loop에 포함되어 시그널링 될 수 있다. 또한, ES_info_length 필드를 뒤따르는, 디스크립터를 위한 for loop에 포함되어 시그널링 될 수 있다.
이렇게 PMT에 포함된 디스크립터는 해당 loop와 관련된 이벤트에 대한 3D depth 관련 정보를 시그널링한다.
3D Scene Depth Information stream을 이용하여 3D depth 관련 정보를 전송하는 경우, stream_type 필드를 이용해 해당 스트림이 3D Scene Depth Information임을 알려줄 수 있다. 예를 들면, stream_type 필드 값이 0x06 인 경우, private data 를 포함하는 ISO/IEC 13818-1 PES packets 임을 나타낼 수 있다. stream_type 필드 값이 0xA0 인 경우에는, 3D scene-level depth range information stream의 값을 사용할 수 있다.
스트림 타입을 0x06을 이용할 경우 수신기는 ES descriptor loop에 3D Depth Range Descriptor가 존재하는 것으로 보아서 해당 ES의 private data가 3D scene-level depth range information을 담고 있음을 파악할 수 있다.
DVB 시스템의 경우에는 SDT에서 Component descriptor를 통하여 본 발명에서 제안하는 3D Scene Depth Information을 위한 stream content와 Component type값을 지정하여 시그널링 해줌으로써 스트림을 식별하는 것도 가능하다.
도 11은 본 발명의 일실시예에 따른, TVCT와 전술한 디스크립터들이 포함될 수 있는 위치를 나타낸 도면이다.
table_id 필드의 값은 해당 테이블 섹션의 타입을 가리킨다. TVCT를 가리키기 위해 그 값은 0xC8이어야 한다.
section_syntax_indicator 필드는 1 비트로 구성되며 그 값은 1로 셋팅된다.
private_indicator 필드는 1로 설정된다.
section_length field는 12 비트로 구성되며, 처음 두 비트는 00이다. 이 필드는 섹션의 바이트 수를 나타내며, 이 필드 이후부터 CRC까지의 길이를 나타낸다. 이 필드의 값은 1021를 넘지 않는다.
transport_stream_id 필드는 16 비트로 구성되며, PID에 의하여 식별된 PAT (Program Association table)에서 나타난 것과 같은 MPEG-2 전송 스트림(Transport stream, TS) ID 이다. 이 필드에 의해 다른 PTC에서 방송되는 TVCT와 구분이 가능하다.
version_number 필드는 Virtual Channel의 버전을 나타낸다. 현재 VCT (current_next_indicator = ‘1’) 에 변경된 사항이 있을 때마다 1 씩 증가한다. 버전 값이 31이 도달하면 그 다음 버전 값은 0이 된다. 다음 VCT (current_next_indicator = ‘0’)의 버전 넘버는 현재 VCT의 그것보다 하나의 유닛이 높을 것이다. 이 필드의 값은 MGT의 동일 필드값과 반드시 동일한 값이어야 한다.
current_next_indicator 필드는 1 비트로 구성되며 VCT가 현재 적용 가능한 것일 경우 값이 1로 설정된다. 만약 0으로 설정되어 있다면, 이는 아직 적용할 수 없으며 다음 테이블이 유효함을 의미한다. 표준은 다음 테이블 (current_next_indicator 의 값이 0으로 셋팅된 것들) 이 항상 전송되어야 한다는 요구사항은 포함하고 있지 않다. 업데이트된 적용가능한 테이블은 version_number 필드의 값을 증가시켜 시그널링될 것이다.
section_number 필드는 섹션의 개수를 나타낸다. TVCT의 첫번째 섹션의 값은 0x00이고 추가적인 섹션마다 값은 1 씩 증가한다.
last_section_number 필드는 마지막 섹션의 숫자를 의미한다. 즉, 전체 TVCT에서 가장 높은 section_number를 갖는 섹션의 숫자를 의미한다.
protocol_version 필드는 미래에 현재 프로토콜에서 정의된 것과 다른 테이블 종류를 허락하는 기능을 한다. 현재 프로토콜에서는 0만이 유효한 값이다. 0이 아닌 값은 구조적으로 다른 테이블을 위해 후 버전에서 사용될 것이다.
num_channels_in_section 필드는 VCT 섹션에서 virtual channel의 개수를 나타낸다. 그 값은 섹션 길이에 의해 제한된다.
short_name 필드는 virtual channel의 이름을 나타낸다.
major_channel_number 필드는 10 비트로 구성되고, for 반복문 내에서 해당 차례에 정의되는 virtual channel의 major 채널 번호를 나타낸다. 각 virtual channel은 major 채널 번호와 minor 채널 번호로 이루어진다. major 채널 번호는 minor 채널 번호와 함께 해당 virtual channel에 대해 사용자에게 참조 번호로 동작한다. major 채널 번호는 1 부터 99까지의 값을 갖고, major/minor 채널 번호 쌍은 TVCT 내에서 중복된 값을 갖지 않는다.
minor_channel_number 필드는 10 비트로 구성되고, 0부터 999까지의 값을 갖는다. minor 채널 번호는 major 채널 번호와 함께 two-part 채널 번호로 동작한다. 서비스 타입이 ATSC_digital_television 또는 ATSC_audio_only 인 경우에는 minor 채널 번호는 1부터 99까지의 값을 갖는다. major/minor 채널 번호 쌍은 TVCT 내에서 중복된 값을 갖지 않는다. 데이터 방송과 같은 다른 종류의 서비스에서는 유효한 minor 가상 채널 번호는 1과 999 사이가 될 수 있다.
modulation_mode 필드는 해당 virtual channel과 관련된 전송 캐리어의 변조 모드를 나타낸다.
carrier_frequency 필드의 값은 0 이다. 이 필드를 사용하여 캐리어 주파수를 확인하는 것이 허락되었지만, 반대된다.
channel_TSID 필드는 0x0000으로부터 0xFFFF의 값을 가지며, 이 virtual channel에 의해 참조되는 MPEG-2 프로그램을 전달하는 TS와 관련된 MPEG-2 TSID이다. 유효하지 않은 채널에 대하여는, channel_TSID 필드는 서비스가 유효하게 되면, 해당 서비스를 전송하는 트랜스포트 스트림의 ID를 나타낼 수 있다. 수신기는 수신한 트랜스포트 스트림이 원했던 멀티플렉스인지 식별하는데 channel_TSID 필드를 사용할 것으로 기대된다. 아날로그 채널 (service_type 0x01)에 대하여, channel_TSID 필드는 NTSC 시그널의 VBI에 포함된 아날로그 TSID의 갓ㅂ을 가리킨다.
program_number 필드는 TVCT에서 정의된 virtual channel과 MPEG-2 PROGRAM ASSOCIATION 및 TS PROGRAM MAP 테이블을 연관짓는다. 아날로그 서비스를 나타내는 가상 채널에 대하여는, program_number 필드를 위하여 0xFFFF 의 값이 식별될 것이다.
ETM_location 필드는 Extended Text Message (ETM)의 존재와 위치를 나타낸다.
access_controlled 필드는 1 비트 불리안 플래그로써, 1인 경우 해당 virtual channel과 관련된 이벤트가 접근 제어됨을 나타낼 수 있다. 0인 경우 접근이 제한되지 않음을 나타낸다.
hidden 필드는 1 비트 불리안 플래그로써, 1인 경우 사용자에 의해 해당 번호가 직접 입력되더라도 접근이 허용되지 않는다. hidden 가상 채널은 사용자가 채널 서핑을 하는 경우 스킵되며, 직접 채널 엔트리에 의하여 접근되면, 정의되지 않은 것처럼 보여진다. Hidden 채널을 위한 전형적인 어플리케이션은 테스트 신호와 NVOD 서비스들이다. Hidden 채널과 그것의 이벤트가 EPG에서 나타나는지 여부는 hide_guide 필드의 상태에 의존한다.
hide_guide 필드는 불리안 플래그로써, hidden channel에 대해 0으로 설정되면 EPG 디스플레이에 그 virtual channel과 event가 보여질 수 있다. hidden 비트가 설정되지 않으면 이 필드는 무시된다. 따라서 non-hidden 채널과 그 이벤트는 hide_guide 비트의 상태와 관계없이 EPG 디스플레이에 속하게된다. hide_guide가 1로 셋팅된 hidden 채널을 위한 전형적인 어플리케이션은 테스트 시그널과 어플리케이션-레벨 포인터를 통하여 접근 가능한 서비스들이다.
service_type 필드는 해당 virtual channel에 의해 전달되는 서비스의 타입을 확인한다.
source_id 필드는 virtual channel과 관련된 프로그래밍 소스를 확인한다. 여기서, 소스는 비디오, 텍스트, 데이터, 또는 오디오 프로그래밍을 중 어느 하나 일 수 있다. source id 0은 예약된 값이며, 0x0001로부터 0x0FFF까지는 VCT를 전달하는 TS 내에서 유일한 값을 갖는다. 또한 0x1000로부터 0xFFFF까지는 지역 레벨에서 유일한 값을 갖는다.
descriptors_length 필드는 해당 virtual channel을 위한 뒤따르는 디스크립터의 길이를 바이트 단위로 나타낸다.
descriptor() 내에는 디스크립터가 포함되어 있지 않거나 또는 1개 이상의 디스크립터가 포함될 수 있다.
additional_descriptors_length 필드는 뒤따르는 VCT 디스크립터 리스트의 총 길이를 바이트 단위로 나타낸다.
CRC_32 필드는 디코더 내의 레지스터의 zero output이 되도록 하는 CRC value를 나타낸다.
전술한 디스크립터들 중 적어도 어느 하나는 descriptors_length 필드를 뒤따르는, 디스크립터를 위한 for loop에 포함되어 시그널링 될 수 있다.
ATSC PSI/PSIP 에서 정의된 Service Location Descriptor를 이용해 3D Scene Depth Information을 시그널링 할 때에는 stream_type을 이용해 ES가 depth 정보임을 알려주고 이 때, 3D Depth Range Descriptor의 형태는 도 7에 도시된 디스크립터가 아닌 도 6에 도시된 디스크립터를 사용할 수 있다.
도 12는 본 발명의 일실시예에 따른, EIT와 전술한 디스크립터들이 포함될 수 있는 위치를 나타낸 도면이다.
table_id는 8 비트 필드로써, 0xCB로 설정되고, 해당 섹션이 EIT에 속함을 나타낸다.
section_syntax_indicator는 1비트 필드로써 1로 설정된다. 이는 section length 필드 이후에 섹션이 generic section syntax를 따름을 의미한다.
private_indicator는 1 비트 필드로써 1로 설정된다.
section_length는 12 비트 필드로써, 이 필드 이후로부터 CRC_32 필드를 포함하는 섹션 끝까지 남아있는 바이트 수를 나타낸다. 이 필드의 값은 4093을 넘지 못한다.
source_id는 16 비트 필드로써 이 섹션에서 묘사되는 이벤트를 전달하는 virtual channel의 source_id를 나타낸다.
version_number는 5-bit 필드로써, EIT-i의 버전 번호를 나타낸다. 버전 번호는 EIT-i 내의 어떤 필드라도 변화가 있으면 1씩(modulo 32) 증가한다. i와 j가 다를 경우, EIT-i의 버전 번호와 EIT-j의 버전 번호는 무관하다. 이 필드의 값은 MGT에 기재 내용과 동일한 값을 갖는다.
current_next_indicator는 1 비트 인디케이터로써, EIT 섹션에 대해 항상 1로 설정된다. EIT는 항상 현재 적용 가능하다.
section_number는 8 비트 필드로써, 이 섹션의 번호를 나타낸다.
last_section_number는 8 비트 필드로써, 마지막 섹션의 번호를 나타낸다.
protocol_version 필드는 미래에 현재 프로토콜에서 정의된 것과 다른 테이블 종류를 허락하는 기능을 한다. 현재 프로토콜에서는 0만이 유효한 값이다. 0이 아닌 값은 구조적으로 다른 테이블을 위해 후 버전에서 사용될 것이다.
num_events_in_section 필드는 이 EIT 섹션 내의 이벤트의 숫자를 나타낸다. 0인 경우 이 섹션에는 정의된 이벤트가 없음을 나타낸다.
event_id 필드는 묘사되는 이벤트의 ID를 나타낸다. 이는 ETM_id (event extended text message 를 위한 식별자) 의 일부로써 사용된다.
start_time은 32 비트 필드로써, 1980.1.6. 00:00:00 UTC 이후 GPS 초단위로 이 이벤트의 시작시간을 나타낸다. 어떤 virtual channel에서도, start_time의 값은 이전 이벤트의 종료시간(end_time)보다 작을 수 없다. 여기서 종료시간은 이벤트의 시작시간(start_time)에 이벤트의 길이(length_in_seconds)를 더한 값으로 정의된다.
ETM_location은 2 비트 필드로써, Extended Text Message (ETM)의 존재와 위치를 나타낸다.
length_in_seconds 필드는 이 이벤트의 지속시간을 초단위로 나타낸다.
title_length 필드는 title_text()의 길이를 바이트 단위로 나타낸다. 0의 값은 해당 이벤트에 제목이 존재하지 않음을 나타낸다.
title_text()는 multiple string structure 포맷의 이벤트의 타이틀을 나타낸다.
descriptors_length 필드는 따라오는 이벤트 디스크립터의 총 길이를 바이트로 나타낸다.
0개 혹은 그 이상의 디스크립터가 descriptor()에 포함된 for loop의 반복문에 의해 EIT 내에 포함된다. EIT 내에서 사용되기 위해 정의된 디스크립터의 타입은 content_advisory_descriptor(), the caption_service_descriptor() 및 the AC-3 audio_stream_descriptor()등이 포함될 수 있다.
CRC_32는 32 비트 필드로써, 디코더에서 레지스터의 zero output을 위한 CRC value를 나타낸다.
일실시예로, 전술한 디스크립터들 중 적어도 어느 하나는 descriptors_length 필드를 뒤따르는, 디스크립터를 위한 for loop에 포함되어 시그널링 될 수 있다.
EIT에 포함되는 디스크립터들을 통하여, 현재 event 및 다음 event에 대한 시그널링이 가능하다.
도 13은 본 발명의 일실시예에 따른, SDT와 전술한 디스크립터들이 포함될 수 있는 위치를 나타낸 도면이다.
table_id 필드는 8 비트 필드로써, 이 섹션이 Service Description Table에 속한다는 것을 나타낸다.
section_syntax_indicator는 1 비트 필드로써, 1로 설정된다.
section_length는 12 비트 필드로써, 첫 두 비트는 00으로 설정된다. 이 필드 이후부터 CRC를 포함하는 섹션의 바이트 수를 나타낸다. 이 필드는 1021를 넘지 못하며 전체 섹션 길이는 최대 1024 bytes가 된다.
transport_stream_id는 16 비트 필드로써, TS를 구별하는 레이블 역할을 한다.
version_number는 5 비트 필드로써 sub_table의 버전 번호를 나타낸다. sub_table에 변경된 사항이 있을 때마다 1 씩 증가한다. 버전 값이 31이 도달하면 그 다음 버전 값은 0이 된다. current_next_indicator 필드가 1로 셋팅되면, version_number 필드는 다음 적용 가능한 sub_table 의 버전 넘버 일 것이다.
current_next_indicator는 1 비트로 구성되며 sub_table이 현재 적용 가능한 것일 경우 값이 1로 설정된다. 만약 0으로 설정되어 있다면, 이는 아직 적용할 수 없으며 sub_table이 유효함을 의미한다.
section_number는 8 비트로 구성되며 섹션의 수를 나타낸다. 첫 번째 섹션은 0x00의 값을 가지며, 동일 table_id, 동일 transport_stream_id 및 동일 original_network_id를 갖는 추가 섹션마다 값이 1씩 증가한다.
last_section_number는 8 비트로 구성되며 이 섹션이 일부분인 해당 sub_table의 마지막 섹션(즉 가장 높은 section_number)의 번호를 나타낸다.
original_network_id는 16 비트 필드로써, 전송 시스템의 network_id를 확인하는 레이블이다.
service_id는 16 비트 필드로써, TS 내에 포함된 다른 서비스와 구별 짓는 레이블 역할을 한다. 이는 program_map_section의 program_number와 동일하다.
EIT_schedule_flag는 1 비트 필드로써 1로 설정되면 현재 TS 내에 해당 서비스를 위한 EIT 스케쥴 정보가 포함되어 있음을 나타낸다. 0이면 포함되어 있지 않음을 나타낸다.
EIT_present_following_flag는 1 비트 필드로써, 1로 설정되면 현재 TS 내에 해당 서비스를 위한 EIT_present_following 정보가 포함되어 있음을 나타낸다. 0이면 EIT present/following 정보가 현재 TS에 포함되어 있지 않음을 나타낸다.
running_status는 3 비트 필드로써 서비스의 상태를 나타낸다.
free_CA_mode는 1 비트 필드로써, 0으로 설정되면 해당 서비스의 모든 요소 스트림들이 스크램블되지 않음을 나타낸다. 1로 설정되면, 하나 또는 그 이상의 스트림이 CA 시스템에 의해 제어되고 있음을 의미한다.
descriptors_loop_length는 12 비트 필드로써 따라오는 디스크립터의 전체 길이를 바이트 단위로 나타낸다.
CRC_32는 32 비트 필드로써, 디코더에서 레지스터의 zero output을 위한 CRC value를 나타낸다.
일실시예로, 전술한 디스크립터들 중 적어도 어느 하나는 descriptors_loop_length 필드를 뒤따르는, 디스크립터를 위한 for loop에 포함되어 시그널링 될 수 있다.
일실시예로, SDT에 포함된 디스크립터들은 현재 SDT가 시그널링하는 service에 대한 3D depth 관련 정보를 시그널링할 수 있다.
도 14은 본 발명의 일실시예에 따른, EIT와 전술한 디스크립터들이 포함될 수 있는 위치를 나타낸 도면이다.
table_id는 8 비트 필드로써, 해당 섹션이 EIT에 속함을 나타낸다.
section_syntax_indicator는 1비트 필드로써 1로 설정된다.
section_length는 12 비트 필드로써, 이 필드 이후로부터 CRC_32 필드를 포함하는 섹션 끝까지 남아있는 바이트 수를 나타낸다. 이 필드의 값은 4093을 넘지 못한다.
service_id는 16 비트 필드로써, TS 내에 포함된 다른 서비스와 구별 짓는 레이블 역할을 한다. 이는 program_map_section의 program_number와 동일하다.
version_number는 5 비트 필드로써 sub_table의 버전 번호를 나타낸다. sub_table에 변경된 사항이 있을 때마다 1 씩 증가한다. 버전 값이 31이 도달하면 그 다음 버전 값은 0이 된다. current_next_indicator 필드가 1로 셋팅되면, version_number 필드는 다음 적용 가능한 sub_table 의 버전 넘버 일 것이다.
current_next_indicator는 1 비트로 구성되며 sub_table이 현재 적용 가능한 것일 경우 값이 1로 설정된다. 만약 0으로 설정되어 있다면, 이는 아직 적용할 수 없으며 sub_table이 유효함을 의미한다.
section_number는 8 비트로 구성되며 섹션의 수를 나타낸다. 첫 번째 섹션은 0x00의 값을 가지며, 동일 table_id, 동일 transport_stream_id 및 동일 original_network_id를 갖는 추가 섹션마다 값이 1씩 증가한다.
이 경우, sub_table 은 복수의 세그먼트들로 형성될 것이다. 각각의 세그먼트 내에서 section_number 필드는, 각각의 추가 섹션 마다 1 씩 증가할 것이다. 그러나, 세그먼트의 마지막 섹션과 이웃하는 세그먼트의 첫 번째 세그먼트 사이의 번호의 차이는 허용될 것이다.
last_section_number는 8 비트로 구성되며 이 섹션이 일부분인 해당 sub_table의 마지막 섹션(즉 가장 높은 section_number)의 번호를 나타낸다.
transport_stream_id는 16 비트 필드로써, EIT가 알리는 TS를 구별하는 레이블 역할을 한다.
original_network_id는 16 비트 필드로써, 전송 시스템의 network_id를 확인하는 레이블이다.
segment_last_section_number 필드는 sub_table 의 마지막 세그먼트의 번호를 식별하는 8비트 필드이다. 세그먼트화 되지 않은 sub_table들을 위해서는, 이 필드는 last_section_number필드와 동일한 값으로 셋팅될 것이다.
last_table_id 필드는 마지막으로 사용된 table_id 를 가리키는 8비트 필드이다.
event_id 필드는 묘사된 이벤트 (서비스 정의 내에서 유니크하게 위치할 수 있음) 의 식별 번호를 포함하는 16 비트 필드이다.
start_time 필드는 이벤트의 Universal Time, Co-ordinated (UTC) 과 Modified Julian Date (MJD) 시작 시간을 포함하는 40비트의 필드이다. 이 필드는 4비트 Binary Coded Decimal (BCD)에서 6 디지트로 코딩된 24 비트에 의하여 뒤따르는 MJD의 16 LSB들을 나타내는 16비트로 코딩될 수 있다. 시작 시간이 정의되지 않은 경우 (예를 들면, NVOD 레퍼런스 서비스), 이 필드의 모든 비트는 1로 셋팅될 것이다.
Duration 은 시간, 분, 초 포맷(6 디지트, 4 비트 BCD = 24 비트)으로 나타낸 이벤트의 지속시간을 포함하는 24 비트의 필드이다.
running_status 필드는 정의된 이벤트의 상태를 나타내는 3비트의 필드이다. NVOD 레퍼런스 이벤트를 위하여, running_status 필드의 값은 0으로 셋팅될 것이다.
free_CA_mode는 1 비트 필드로써, 0으로 설정되면 해당 이벤트의 모든 요소 스트림들이 스크램블되지 않음을 나타낸다. 1로 설정되면, 하나 또는 그 이상의 스트림이 CA 시스템에 의해 제어되고 있음을 의미한다.
descriptors_loop_length는 12 비트 필드로써 따라오는 디스크립터의 전체 길이를 바이트 단위로 나타낸다.
CRC_32는 32 비트 필드로써, 디코더에서 레지스터의 zero output을 위한 CRC value를 나타낸다.
일실시예로, 전술한 디스크립터들 중 적어도 어느 하나는 descriptors_loop_length 필드를 뒤따르는, 디스크립터를 위한 for loop에 포함되어 시그널링 될 수 있다.
일실시예로, EIT에 포함된 디스크립터들은 현재 event 및 다음 event에 대한 3D depth 관련 정보를 시그널링할 수 있다.
도 15는 본 발명의 일실시예에 따른, 3D 영상을 수신 처리하기 위한 수신기의 블록을 나타낸 도면이다.
본 발명의 일실시예에 따른 수신기는 튜너 및 복조부 (15010), VSB 디코더 (15020), 트랜스포트 패킷 역다중화부 (15030), PSI/PSIP/SI 프로세서 (15040), 3D 비디오 디코더 (15050), 프라이머리 비디오 디코더 (15052), 세컨더리 비디오 디코더 (15054), 3D OSD 엔진 (15060), 좌영상 믹서 (15070), 우영상 믹서 (15080) 및/또는 3D 출력 포맷터 (15090)을 포함할 수 있다.
튜너 및 복조부 (15010)는 3D 방송 채널로 튜닝을 수행하고, 수신한 신호를 복조한다.
VSB 디코더 (15020)는 VSB 가 적용된 신호를 디코딩한다. 본 블록의 명칭은 VSB 디코더로 명명하였으나, OFDM 적용된 신호를 디코딩하는 블록으로 볼 수도 있다.
트랜스포트 패킷 역다중화부 (15030)는 방송 신호에서 트랜스포트 패킷을 분리한다. 특히, 패킷식별자를 필터링하는 역할을 한다.
PSI/PSIP/SI 프로세서 (15040)는 시그널링 신호에 대한 처리를 수행한다. 예를 들면, PSIP 또는 DVB SI에 포함된 여러 테이블을 처리하거나, 시그널링 패킷, 시그널링 세그먼트 등을 처리하는 역할을 한다.
3D 비디오 디코더 (15050)는 프라이머리 비디오 디코더 (15052) 및/또는 세컨더리 비디오 디코더 (15054)를 포함한다.
3D 비디오 디코더 (15050)는 3D 비디오 데이터를 디코딩한다.
프라이머리 비디오 디코더 (15052)는 프라이머리 비디오 데이터를 디코딩한다. 예를 들면, 비디오 데이터에 MVC 방식의 코딩이 적용된 경우, 프라이머리 비디오 데이터는 base 또는 enhanced layer의 신호가 될 수 있다. 또 다른 예로, 프라이머리 비디오 디코더 (15052)는 좌영상 비디오 데이터를 디코딩하는 역할을 수행할 수도 있다.
세컨더리 비디오 디코더 (15054)는 세컨더리 비디오 데이터를 디코딩한다. 예를 들면, 비디오 데이터에 MVC 방식의 코딩이 적용된 경우, 세컨더리 비디오 데이터는 enhance 또는 base layer의 신호가 될 수 있다. 또 다른 예로, 세컨더리 비디오 디코더 (15054)는 우영상 비디오 데이터를 디코딩하는 역할을 수행할 수도 있다.
3D OSD 엔진 (15060)은 OSD를 디스플레이하기 위한 처리를 수행한다. 예를 들면, 3D depth 정보를 해석하여, 특정 서비스, 프로그램, 이벤트 및/또는 scene 단위에서의 OSD가 어느 depth에서 디스플레이되어야 하는지를 처리하고, OSD에 대한 디스플레이를 제어한다.
좌영상 믹서 (15070)는 3D 비디오 영상을 구성하는 영상 중 좌영상에 대한 처리를 수행한다.
우영상 믹서 (15080)는 3D 비디오 영상을 구성하는 영상 중 우영상에 대한 처리를 수행한다.
3D 출력 포맷터 (15090)는 3D 비디오 영상을 구성하는 좌영상 및 우영상을 화면에 표출시키는 역할을 수행한다. 이때, OSD 디스플레이도 함께 표출시키는 처리를 수행할 수 있다.
전술한 3D depth와 관련된 디스크립터들 중 적어도 어느 하나는 트랜스포트 패킷을 통하여 전달되며, PMT, TVCT, EIT 및/또는 SDT 에 포함되어져 전달될 수 있다. 이 경우, PSI/PSIP/SI 프로세서 (15040)는 3D depth와 관련된 디스크립터들 중 적어도 어느 하나를 파싱하고, 그 안의 정보도 파싱하는 역할을 수행한다. 3D depth와 관련된 디스크립터들 중 적어도 어느 하나에 포함된 depth 관련 정보는 3D OSD 엔진 (15060)에 전달되어져 OSD 디스플레이를 위한 처리 과정에서 사용된다.
일실시예로, 방송 수신기는 다음과 같은 과정을 거쳐 3D OSD를 출력하기 위한 처리를 한다.
수신기는 PMT, TVCT 또는 SDT에 포함된 3D Depth Information Descriptor를 이용해 현재 시청 중인 program, channel 또는 service에 대한 depth range 정보를 파악한다.
수신기는 EIT를 통해 향후 방송될 event에 대한 depth range 정보를 파악한다.
수신기는 사용자의 interaction 또는 메시지, 알람 기능 수행에 의한 graphic, OSD 화면의 출력 시 위에서 파악한 depth range 정보를 이용한다. 즉, min_disparity 값을 이용해 OSD 화면이 3D 비디오와 겹쳐지지 않는 범위 내에서 OSD 화면을 위치할 disparity를 결정한다. 예를 들면, 수신기는 min_disparity에서 지정하는 값보다 앞 쪽으로 위치하도록 결정한다.
수신기는 OSD 화면을 출력할 시점이 event와 event 사이의 변경이 일어나는 event boundary 인 경우에는 current 와 next event의 min_disparity 값 중에 가장 앞 쪽에 해당하는 (즉, 더 작은 min_disparity) 값을 기준으로 OSD를 출력한다. 예를 들어, OSD의 timeout 길이 및 통상적인 user interaction 등을 고려해 1분 정도의 OSD 출력 기간을 가정할 때, 수신기는 이 1분 내에 event change가 발생하는지를 check 하는 방법을 사용할 수 있다.
다른 실시예로, 방송 수신기는 다음과 같은 과정을 거쳐 3D OSD를 출력하기 위한 처리를 한다.
수신기는 PMT, TVCT 또는 SDT에 포함된 3D Scene-level Depth Information Descriptor를 이용해 현재 시청 중인 program, channel 또는 service에 대한 scene 단위, 즉 시간대 별 depth range 정보를 파악한다.
수신기는 EIT를 통해 이 정보를 수신하는 경우, 해당 descriptor는 EIT의 time span에 해당하는 시간대 별 depth range 정보를 파악할 수 있다.
수신기는 사용자의 interaction 또는 메시지, 알람 기능 수행에 의한 graphic, OSD 화면의 출력시 위에서 파악한 depth range 정보를 이용한다. 즉, min_disparity 값을 이용해 OSD 화면이 3D 비디오와 겹쳐지지 않는 범위 내에서 OSD 화면을 위치할 disparity를 결정한다. 예를 들면, 수신시는 min_disparity에서 지정하는 값보다 앞 쪽으로 위치하도록 결정한다.
수신기는 OSD 화면을 출력할 시점이 scene과 scene 사이의 scene boundary 인 경우에는 current 와 next scene의 min_disparity 값 중에 가장 앞 쪽에 해당하는 (즉, 더 작은 min_disparity) 값을 기준으로 OSD를 출력한다. 예를 들어, OSD의 timeout 길이 및 통상적인 user interaction 등을 고려해 1분 정도의 OSD 출력 기간을 가정할 때, 수신기는 이 1분 내에 scene change가 발생하는지를 check 하는 방법을 사용할 수 있다.
도 16은 본 발명의 다른 실시예에 따른, 3D 영상을 수신 처리하기 위한 수신기의 블록을 나타낸 도면이다.
본 발명의 일실시예에 따른 수신기는 튜너 및 복조부 (16010), VSB 디코더 (16020), 트랜스포트 패킷 역다중화부 (16030), PSI/PSIP/SI 프로세서 (16040), 3D scene depth information 디코더 (16050), 3D 비디오 디코더 (16060), 프라이머리 비디오 디코더 (16062), 세컨더리 비디오 디코더 (16064), 3D OSD 엔진 (16070), 좌영상 믹서 (16080), 우영상 믹서 (16090) 및/또는 3D 출력 포맷터 (16100)을 포함할 수 있다.
본 도면에서 도시된 블록들은, 각 블록의 명칭과 동일한 명칭을 가지는 도 15의 블록과 각각 유사한 기능을 수행한다. 따라서, 동일한 명칭의 블록에 대한 설명은 도 15의 설명으로 대체한다.
3D scene depth information 디코더 (16050)은 3D scene depth stream을 디코딩한다. 3D scene depth information이 PES로 전달되는 경우에 있어서, 3D scene depth information을 포함하는 PES를 디코딩한다.
이 경우, 전술한 3D depth range descriptor는 PMT, TVCT, EIT 및/또는 SDT에 포함되어 전송될 수 있다.
3D OSD 엔진 (16070)은 3D scene depth information 및 3D depth range descriptor 에 포함된 정보를 이용하여 적절한 시점에서 OSD의 디스플레이 depth를 제어한다.
또 다른 실시예에 따른 수신기는 다음과 같은 과정을 거쳐 3D OSD를 출력하기 위한 처리를 한다.
수신기는 PMT, TVCT 또는 SDT에서 signaling 하는 program, channel, service에 대해 3D Scene Depth Information 스트림이 포함되었는지를 파악하고 3D Depth Range Descriptor를 이용해 3D scene depth information 스트림이 제공하는 depth range의 적용 시점을 파악하여 해당 스트림의 중복 여부 및 수신기가 해당 스트림을 수신해야 하는지를 판단한다.
수신기는 3D Scene Depth Information 스트림에 대한 PID 정보를 이용해 해당 스트림을 추출해 3D Scene Depth Information Decoder에서 시간대별 depth range 정보를 파악한다.
수신기는 사용자의 interaction 또는 메시지, 알람 기능 수행에 의한 graphic, OSD 화면의 출력시 위에서 파악한 depth range 정보를 이용한다. 예를 들면, min_disparity 값을 이용해 OSD 화면이 3D 비디오와 겹쳐지지 않는 범위 내에서 OSD 화면을 위치할 disparity를 결정한다. 예를 들면, 수신기는 OSD 화면이 min_disparity에서 지정하는 값보다 앞 쪽으로 위치하도록 결정한다.
수신기는 OSD 화면을 출력할 시점이 scene boundary 인 경우에는 current 와 next scene의 min_disparity 값 중에 가장 앞 쪽에 해당하는 (즉, 더 작은 min_disparity) 값을 기준으로 OSD를 출력한다. 예를 들어, OSD의 timeout 길이 및 통상적인 user interaction 등을 고려해 1분 정도의 OSD 출력 기간을 가정할 때, 수신기는 이 1분 내에 scene change가 발생하는지를 체크하는 방법을 사용할 수 있다.
도 17은 본 발명의 일실시예에 따른, IPTV에서의 3D 서비스 획득 과정을 나타낸 도면이다.
ITF(IPTV Terminal Function)는 Push/Pull 모드로 서비스 프로바이더로부터 Service Provider Discovery를 위한 정보를 제공 받는다(s17010). Service Provider Discovery는 IPTV를 제공하는 서비스 프로바이더들이 자신들의 서비스에 대한 정보를 제공하는 서버를 찾는 과정이다. 예를 들면, Service Provider Discovery는 다음과 같은 방식으로 서비스 프로바이더 별 서비스 정보 서버를 제공한다. 즉, 수신기는 SD Server(Service Discovery Server)에 대한 정보(SP Discovery 정보)를 받을 수 있는 주소 목록을 다음과 같은 방식으로 찾게된다.
일실시예로, 수신기는 미리 자동 또는 수동 설정된 주소로부터 SP (Service Provider) Discovery 정보를 수신한다. 이 때, ITF에 미리 설정된 주소로부터 해당 정보를 수신하거나, 사용자가 수동으로 특정 주소를 설정하여 사용자가 원하는 SP Discovery 정보를 수신할 수 있다.
다른 실시예로, 수신기는 DHCP 기반 SP Discovery 를 수행할 수 있다. 즉, 수신기는 DHCP option을 사용하여 SP Discovery 정보를 얻을 수 있다.
또 다른 실시예로, 수신기는 DNS SRV 기반의 SP Discovery 를 수행할 수 있다. 즉, 수신기는 DNS SRV 메커니즘을 이용하여 쿼리를 던져 SP Discovery 정보를 얻어올 수 있다.
수신기는 위와 같은 방법으로 획득한 주소의 서버에 접속하여, SP (Service Provider) 의 Service Discovery에 필요한 정보를 담은 Service Provider Discovery Record 로 구성된 정보를 받는다. 수신기는 Service Provider Discovery Record 로 구성된 정보를 통하여 서비스 탐색 단계를 진행한다. Service Provider Discovery와 관련된 데이터는 Push 또는 Pull, 어느 형태로든 제공하는 것이 가능하다.
수신기는 SP Discovery record의 정보를 바탕으로, 서비스 프로바이더의 접속 주소 (예를 들면, SPAttachmentLocator로 지정된 주소) 의 SP Attachment Server에 접속하여 ITF 등록 절차(Service Attachment절차)를 수행한다(s17020). 이때 ITF에서 서버로 전달하는 정보는, 예를 들면, ITFRegistrationInputType 레코드의 형태로 전달될 수 있으며, ITF는 HTTP GET method의 query Term 형태로 이러한 정보를 제공하여 Service Attachment를 수행할 수도 있다.
일실시예로, 수신기는 선택적으로 SPAuthenticationLocator로 지정되는 SP의 Authentication service server에 접속하여 별도의 인증절차를 수행한 이후, Service Attachement를 수행할 수도 있다. 이 경우 수신기는 상기 Service Attachment의 경우와 유사한 형태의 ITF 정보를 서버에 전송하여 인증을 수행할 수 있다.
수신기는 ProvisioningInfoTable의 형태의 데이터를 서비스 프로바이더로부터 수신할 수 있다(s17030). 이 과정은 생략될 수도 있다.
수신기는 ITFRegistrationInputType 레코드 등 Service Attachment 과정에서 서버로 전송하는 데이터에 자신의 ID와 위치정보를 포함하여 제공한다. Service Attachment 서버는 수신기가 제공한 정보를 바탕으로 수신기가 가입한 서비스를 특정 지을 수 있다. Service Attachment 서버는 이를 바탕으로 수신기가 받아야 할 Service Information을 획득할 수 있는 주소를 ProvisioningInfoTable 형태로 제공할 수 있다. 예를 들면, 이 주소를 MasterSI Table의 접속정보로 이용 가능하다. 이러한 방식은, 가입자 별로 맞춤형으로 서비스를 구성하여 제공하는 것이 가능하게 하는 효과가 있다.
수신기는 서비스 프로바이더로부터 수신한 정보를 바탕으로, VirtualChannelMap Table (s17050), VirtualChannelDescription Table (s17060) 및/또는 SourceTable (s17070)을 수신할 수 있다.
VirtualChannelMap Table 은 VirtualChannelMap에 대한 접속 정보 및 버전을 관리하는 Master SI Table Record와 패키지 형태의 서비스 목록을 제공한다. VirtualChannelDescription Table은 각 채널의 상세 정보를 담고 있다. SourceTable은 실제 서비스를 Access할 수 있는 접속 정보를 담고 있다. VirtualChannelMap Table, VirtualChannelDescription Table 및 SourceTable는 service information으로 분류될 수 있다. 이러한 service information에는 전술한 디스크립터 또는 PES에 포함되는 3D depth 관련 정보들이 더 포함될 수 있다. 다만, 이 경우에는 IPTV 의 service information scheme에 맞도록 정보의 형태는 변경될 수 있다.
도 18은 본 발명의 일실시예에 따른, IPTV를 위한 SI (Service Information) 테이블의 구조를 나타낸 도면이다.
도 18은 Service Provider discovery, attachment metadata components, Services Discovery metadata components 및 이들의 관계를 도시하고 있다. 도 18에 도시된 화살표시 과정을 따라 수신기는 수신한 데이터를 처리할 수 있다.
ServiceProviderInfo 는 서비스 프로바이더와 관련된 정보인 SP descriptive information, 인증과 관련된 정보를 제공하는 위치에 대한 정보인 Authentication location, attachment 위치와 관련된 정보인 Attachment location을 포함하고 있다.
수신기는 Authentication location 정보를 이용하여, 서비스 프로바이더와 관련된 인증을 수행할 수 있다.
Attachment location에 포함된 정보를 이용하여, ProvisioningInfo 를 수신할 수 있는 서버에 접속할 수 있다. ProvisioningInfo에는 Master SI Table 를 수신할 수 있는 서버 주소를 포함하는 Master SI Table location, 시청자가 제공받을 수 있는 채널에 대한 정보를 포함하는 Available channel, Subscribe된 채널에 관련한 정보를 포함하는 Subscribed channel, 긴급 상황 경보와 관련된 정보를 포함하는 EAS (Emergency Alert System) location 및/또는 EPG (Electronic Program Guide) 와 관련된 위치 정보를 포함하는 EPG data location을 포함할 수 있다. 특히, 수신기는 Master SI Table location 정보를 이용하여, Master SI Table을 수신할 수 있는 주소로 접속할 수 있다.
Master SI Table Record는 각 VirtualChannelMap을 받을 수 있는 위치 정보와 각 VitualChannelMap들의 버전 정보를 담고 있다.
VirtualChannelMap은 VirtualChannelMapIdentifier로 식별되며, VituralChannelMapVersion은 VictualChannelMap의 버전 정보를 가진다. MasterSITable로 부터 시작된 화살표 방향으로 연결된 모든 테이블 중 어느 하나의 테이블이 변경될 경우 이러한 변경 여부는 해당 테이블의 버전 번호의 중가 및 그 상위의 모든 테이블(MasterSI 테이블까지)의 버전 번호의 증가를 수반하게 된다. 따라서 MasterSITable을 모니터링 함으로써 전체 SI 테이블 상의 변화를 바로 파악할 수 있게 된다. 예를 들어 SourceTable에 변경이 발생할 경우, 이 변경은 SourceTable의 버전인 SourceVersion을 증가시키게 되고 이 변화는 SourceTable에 대한 레퍼런스를 포함하는 VirtualChannelDescriptionTable의 변경을 가져오게된다. 이러한 식으로 하위 테이블의 변화는 상위 테이블로 전파되어 최종적으로 MasterSITable의 변경을 가져온다.
Master SI Table은 하나의 서비스 제공자를 위하여 하나만 존재할 수도 있다. 하지만 서비스의 구성이 지역별 혹은 가입자 (혹은 가입자 그룹) 별로 다를 경우, 이러한 각 단위별 맞춤형 서비스를 제공하기 위하여 이를 별도의 Master SI Table Record를 구성하는 것이 효율적일 수 있다. 이 경우 Service Attachment 단계를 통해 가입자의 지역 및 가입 정보 등에 맞는 맞춤형 서비스를 Master SI table을 통해 제공하는 것이 가능하다.
Master SI Table Record는 VitrualChannelMap 목록을 제공한다. VitrualChannelMap은 VirtualChannelMapIdentifier로 식별될 수 있다. 각 VirtualChannelMap은 하나 이상의 VirtualChannel을 가질 수 있으며, VirtualChannel에 대한 상세정보를 얻을 수 있는 위치를 지정한다. VirtualChannelDescriptionLocation은 채널 상세 정보를 담고 있는 VirtualChannelDescriptionTable의 위치를 지정하는 역할을 한다.
VirtualChannelDescriptionTable은 VirtualChannel의 상세 정보를 담고 있으며, VirtualChannelMap상의 VirtualChannelDescriptionLocation에 해당 정보를 제공하는 위치에 접속할 수 있다.
VirtualChannelServiceID는 VirtualChannelDescriptionTable에 포함되며, VirtualChanneldescription에 해당하는 서비스를 식별하는 역할을 한다. 수신기는 VirtualChannelServiceID 통해 VirtualChannelDescriptionTable를 찾을 수 있다. Multicast 방식으로 복수개의 VirtualChannelDescriptionTable들을 전달받는 경우, 해당 스트림에 join하여 테이블들을 계속 수신하면서 특정 VirtualChannelServiceID 에 의하여 식별되는 VirtualChannelDescriptionTable를 찾는다.
Unicast의 경우, VirtualChannelServiceID를 파라미터로서, 서버에 전달하여 원하는 VirtualChannelDescriptionTable 만을 받아올 수 있다.
SourceTable은 실제 서비스를 접속하는 데 필요한 접속 정보 (예를 들면, IP 주소, 포트, AV 코덱, 전송 프로토콜 등) 및/또는 서비스별 Source 정보를 제공한다. 하나의 Source가 여러 VirtualChannel 서비스를 위하여 활용될 수 있으므로, 서비스별로 Source 정보를 분리하여 제공하는 것이 효율적일 수 있다.
상기의 MasterSITable, VirtualChannelMapTable, VirtualChannelDescriptionTable, 그리고 SourceTable는 논리적으로 네 개의 분리된 flow를 통해 전달되며 Push/Pull의 어떤 방식이라도 무방하다.
그러나, MasterSITable은 버전 관리를 위하여 Multicast 로 전송할 수 있으며, 수신기는 항상 MasterSITable을 전송하는 스트림을 수신하여 버전 변화를 모니터링할 수 있다.
도 19는 본 발명의 일실시예에 따른, SourceReferenceType의 XML 스키마를 나타낸 도면이다.
본 발명의 일실시예에 따른 SourceReferenceType의 XML 스키마는 Virtual Channel Service의 media source 정보를 담고 있는 source element를 레퍼런스하는 구조이다.
SourceReferenceType은 SourceId, SourceVersion 및/또는 SourceLocator 정보를 포함한다.
SourceId는 레퍼런스하는 Source element의 식별자이다.
SourceVersion은 레퍼런스하는 Source element의 버전이다.
SourceLocator는 레퍼런스하는 Source element를 포함하는 Source Table을 받을 수 있는 위치를 제공한다. 일실시예로, DefaultSourceLocator와 본 element가 동시에 존재할 경우 본 element가 default값을 override하게 된다.
도 20은 본 발명의 일실시예에 따른, SourceType의 XML 스키마를 나타낸 도면이다.
본 발명에 따른 SourceType의 XML 스키마는 VirtualChannelService의 media source를 획득하는데 필요한 정보를 담고 있는 것을 일실시예로 한다.
SourceType은 SourceId, SourceVersion, TypeOfSource, IpSourceDefinition 및/또는 RfSourceDefinition 정보를 포함한다.
SourceId는 레퍼런스하는 Source element의 식별자이다. 일실시예로, 이 식별자는 유일하게 이 Souce element를 식별할 수 있어야 한다.
SourceVersion은 레퍼런스하는 Source element의 버전이다. 일실시예로, Source element의 내용이 변경될 때마다 값이 증가하여야 한다.
TypeOfSource 는 해당 Source의 성격을 나타내는 값이다. 예를 들면, HD (High Definition), SD (Standard Definition), PIP (Picture in Picture), Barker 등의 속성을 나타낼 수 있다.
일실시예로, Barker 채널은 광고 혹은 홍보용의 채널로써 해당 채널의 권한이 없어서 시청할 수 없을 때, 이 채널로 자동 선택되며 해당 채널의 홍보와 가입 안내의 역할을 수행한다.
IpSourceDefinition은 IP망을 통해 전달되는 media source의 접속 정보를 제공한다. 일실시예로, IpSourceDefinition은 Multicast IP주소, 전송 프로토콜 및/또는 각종 파라메터들을 알려줄 수 있다.
RfSourceDefinition은 케이블TV망을 통해 전달되는 media source의 접속 정보를 제공할 수 있다.
도 21은 본 발명의 일실시예에 따른, 3D Scene Depth information 을 위해 확장한 TypeOfSourceType XML Schema 를 나타낸 도면이다.
본 발명의 일실시예에 따르면, 3D Scene Depth information을 시그널링하기 위하여, TypeOfSource를 확장하여, 3D depth와 관련된 정보임을 구분할 수 있도록 한다.
일실시예로, 확장된 TypeOfSource에 포함되는 3DSceneDepthInformation은 3D depth와 관련된 정보인 asynchronous depth information 전송을 위한 스트림을 위한 source를 의미한다. asynchronous depth information에 관련된 설명은 전술한 설명으로 대체한다.
일실시예로, 각 소스별로 3D depth 정보를 제공해주기 위하여 IPSourceDefinition 및 RFSourceDefinition을 다음과 같이 확장할 수 있다. 이 단계에서 정보를 제공하는 것은 ATSC나 DVB 방송의 경우 채널 또는 서비스 단위로 3D Depth 정보를 제공해주는 것과 유사하다고 볼 수 있다. IPTV에서는 하나의 서비스가 다양한 미디어 소스로 구성될 수 있고 이를 전술한 바와 같은 융통성 있는 구조로 다수의 소스를 지정할 수 있도록 하고 있다. 따라서 이 Source 레벨의 정보를 확장하여 3D Depth 정보를 제공함으로써 서비스 단위로 정보를 제공하는 것이 가능하다.
도 22는 본 발명의 일실시예에 따른, 3D Depth 정보를 담기 위한 DepthInformationType XML Schema diagram을 나타낸 도면이다.
본 발명의 일실시예에 따른 DepthInformationType은 3D Depth 정보를 담기 위해 전술한 바와 같이 서비스의 해당 소스의 Depth 정보의 Min disparity 및 Max Disparity를 포함 수 있다. 이 값들의 해석 및 이용 방법은 전술한 바와 유사하다.
IPTV 서비스는 동일한 서비스에 대해 다양한 소스를 제공할 수 있는 IPTV의 구조를 활용하여, 같은 3D 서비스에 대해서도 다른 Depth Range를 가진 소스를 여러 개 제공하는 것을 생각해볼 수 있다. 이 경우 수신기가 사용자가 미리 설정한 수준의 Depth나 수신기가 가장 잘 표현할 수 있는 Depth Range를 가진 소스를 선택하여 서비스를 이용할 수도 있을 것이다.
도 23은 본 발명의 일실시예에 따른, 3D Depth 정보를 담기 위한 DepthInformationType XML Schema를 나타낸 도면이다.
전술한 바와 같이, DepthInformationType은 Minimum disparity 값과, Maximum disparity 값을 포함할 수 있다. 이들의 값은 정수로 표현될 수 있다.
도 24는 본 발명의 일실시예에 따른, 3D Depth 정보를 담기 위해 확장한 IpSourceDefinitionType XML Schema를 나타낸 도면이다.
본 발명의 일실시예에 따른 IpSourceDefinitionType은 MediaStream 엘레먼트 (element), RateMode 엘레먼트, ScteSourceId 엘레먼트, MpegProgramNumber 엘레먼트, VideoEncoding 엘레먼트, AudioEncoding 엘레먼트, FecProfile 엘레먼트 및/또는 DepthInformation 엘레먼트를 포함한다.
MediaStream 엘레먼트는 이 소스를 위한 미디어 스트림을 위한 IP 멀티캐스트 세션 디스크립터를 포함한다. MediaStream 엘레먼트는 asBandwidth 성분을 포함한다. asBandwidth 성분의 유닛들은 초당 수 킬로 비트가 될 것이다. asBandwidth 성분의 해석은 피크 (peak) 비트레이트가 될 것이다.
RateMode 엘레먼트는 Programming Source Rate Type ((Constant Bit Rate (CBR) 또는 Variable Bit Rate (VBR))를 포함한다.
ScteSourceId 엘레먼트는 MPEG-2 transport stream 에서 나타나는 Source ID를 포함한다.
MpegProgramNumber 엘레먼트는 MPEG Program Number를 포함한다.
VideoEncoding 엘레먼트는, 존재하는 경우, 이 미디어 소스의 인코딩 비디오 포맷를 가리킨다.
AudioEncoding 엘레먼트는, 존재하는 경우, 이 프로그래민 소스에 사용된 오디오 코딩의 디스크렙션을 IANA에 등록된 audio MIME type 의 형식으로 나타낸다.
FecProfile 엘레먼트는 사용가능한 경우, IP FEC Profile 을 나타낸다.
DepthInformation 엘레먼트는 각 소스별 3D Depth 관련 Information을 포함한다. DepthInformation 엘레먼트에는 전술한 디스크립터에 포함되는 3D depth 관련 정보가 선택적으로 포함될 수 있다.
일실시예로, 3D 미디어 스트림과 별도 스트림으로 3D Scene Depth 정보를 제공할 경우, 전술한 Source Type에 포함되는 3DSceneDepthInformation인 Source로 3D depth 관련 정보가 시그널링될 수 있다. 이 경우, 수신기는 3D 서비스의 AV 스트림을 담고 있는 3D 서비스 소스와 3D Depth 정보를 담고 있는 소스 2개를 동시에 수신하여, 이를 바탕으로 3D 방송 시청중에 적절한 위치에 OSD를 위치시킬 수 있을 것이다. 이 경우, 별도 스트림으로 제공되는 3D Depth정보는 MPEG-2 TS를 통해 PES 형태로 전송될 때와 유사한 포맷으로 IP 패킷으로 쌓여서 전달하는 것이 가능하며, 또 다른 방법으로 이를 XML 형태로 정의하여 XML 문서로 전송하는 것이 가능하다.
전술한 IPTV의 시그널링 scheme을 통한 3D Depth 정보 제공방안 이외에도, IPTV의 미디어들은 기존 디지털 방송과 유사한 형태의 MPEG-2 TS로 구성되어 IP망을 통하여 전송되므로, 전술한 SI단의 각종 테이블을 통하거나 별도의 ES를 통한 3D Depth 정보 제공도 가능하다.
도 25는 본 발명의 일실시예에 따른, 3D Depth 정보를 담기 위해 확장한 RfSourceDefinitionType XML Schema를 나타낸 도면이다.
본 발명의 일실시예에 따른 RfSourceDefinitionType는 FrequencyInKHz 엘레먼트, Modulation 엘레먼트, RfProfile 엘레먼트, DvbTripleId 엘레먼트, ScteSourceId 엘레먼트, MpegProgramNumber 엘레먼트, VideoEncoding 엘레먼트, AudioEncoding 엘레먼트 및/또는 DepthInformation 엘레먼트를 포함한다.
FrequencyInKHz 엘레먼트는 이 소스의 RF 주파수를 KHz로 나타낸다. 이 것은 변조 타입에 관계없이, 중심 주파수를 나타낼 것이다.
Modulation 엘레먼트는 RF 변조 타입을 나타낸다. 허용된 변조 타입은 NTSC, QAM-64, QAM-256, 또는 8-VSB가 될 수 있다.
RfProfile 엘레먼트는 기초 스트림 포맷을 가리킨다. 허용된 프로파일 값은 SCTE, ATSC, 또는 DVB가 될 수 있다.
DvbTripleId 엘레먼트는 방송 스트림을 위한 DVB Triplet identifier 이다.
ScteSourceId 엘레먼트는 MPEG-2 트랜스포트 스트림에 나타나는 Source ID이다.
MpegProgramNumber 엘레먼트는 MPEG Program Number를 포함한다.
VideoEncoding 엘레먼트는, 존재하는 경우, 이 프로그래밍 소스의 인코딩 비디오 포맷를 가리킨다.
AudioEncoding 엘레먼트는, 존재하는 경우, 이 프로그래밍 소스에 사용된 오디오 코딩의 디스크렙션을 나타낸다.
DepthInformation 엘레먼트는 각 소스별 3D Depth 관련 Information을 포함한다. DepthInformation 엘레먼트에는 전술한 디스크립터에 포함되는 3D depth 관련 정보가 선택적으로 포함될 수 있다.
3D depth 관련 정보를 시그널링하는 방안은, 도 24에 대한 설명 및/또는 전술한 내용과 유사하므로, 이에 대한 설명은 전술한 설명으로 대체한다.
도 26은 본 발명의 일실시예에 따른, 3D depth 정보를 담기 위해 확장한 IpService XML Schema를 나타낸 도면이다.
본 발명의 일실시예에 따른 IpService는 ServiceLocation 정보, TextualIdentifier 정보, DVBTriplet 정보, MaxBitrate 정보, SI 정보, VideoAttributes 정보, AudioAttributes 정보 및/또는 ServiceAvailabilty 정보를 포함한다.
ServiceLocation 정보는 서비스가 발견될 수 있는 위치를 가리킨다.
TextualIdentifier 정보는 Textual identifier를 가리키고, Textual identifier에 의하여 서비스가 알려질 수 있다. 도메인 이름이 없는 경우, 이 것은 문맥으로부터 얻어질 수 있다.
DVBTriplet 정보는 DVB Triplet를 가리키고, DVB Triplet에 의하여 서비스가 알려질 수 있다. 이것은 트랜스포트 스트림 내의 서비스 디테일과 일치할 것이다.
MaxBitrate 정보는 서비스를 전송하는 트랜스포트 스트림이 동작하는 피크 (peak) 비트레이트 (kbit/s 단위)
SI 정보는 전송되는 서비스에 대한 서비스 정보를 포함한다.
SI 정보는 Name 정보, Description 정보, ServiceDescriptionLocation 정보, ContentGenre 정보, CountryAvailability 정보, ReplacementService 정보, MosaicDescription 정보, AnnouncementSupport 정보, 및/또는 DepthInformation 정보를 포함한다.
Name 정보는 이름의 텍스트 폼을 식별한다. 이름에 의하여 서비스가 사용자에게 알려진다.
Description 정보는 서비스의 텍스트 형태의 디스크립션을 식별한다.
ServiceDescriptionLocation 정보는 제공 서비스에 대한 정보를 전송하는 BCG 디스커버리 엘레먼트를 위한 BCG 레코드의 식별자를 나타낸다.
ContentGenre 정보는 서브스의 (주된) 장르를 식별한다.
CountryAvailability 정보는 서비스가 유효하거나 유효하지 않은 국가의 목록을 식별한다.
ReplacementService 정보는 SI 리코드가 참조하는 서비스의 실패의 경우 사용될 수 있는 서비스로의 연결자 (linkage)의 상세 내용을 식별한다.
MosaicDescription 정보는 서비스 또는 모자이크 스트림 내에서 디스플레이되는 서비스 패키지의 상세 내용을 식별한다.
AnnouncementSupport 정보는 서비스의 의하여 지원되는 어나운스먼트 (announcements)를 식별하고, 그들의 위치에 관한 연결 정보를 나타낸다.
DepthInformation 정보는 각 소스별 3D Depth 관련 Information을 포함한다. DepthInformation 정보에는 전술한 디스크립터에 포함되는 3D depth 관련 정보가 선택적으로 포함될 수 있다.
예를 들면, DVB IPTV 표준을 확장하여 사용하기 위하여, DepthInformation 정보가 확장된 IPService의 SI 정보에 포함되어, 3D Depth 관련 정보를 제공하는 것이 가능하다.
DVB IPTV 에서는 각 IPTV서비스는 IPService 단위로 DVB SD&S 내에서 표현되며, 그 중에서 SI 정보는 서비스에 대한 추가적인 상세한 정보를 제공하여 준다. 이 정보들은 DVB SI 상의 SDT 상에 포함된 내용을 대부분 동일하게 제공할 수 있다. 이를 확장하여 DepthInformation 정보를 추가함으로써 이를 제공하여 서비스별로 이용될 수 있는 3d Depth 관련 정보를 제공할 수 있다.
DVB IPTV도 전술한 바와 같이, MPEG2 TS 형태로 구성될 수 있으며, 이를 IP 망을 통해 전송하여 TS내의 DVB SI정보를 기존 DVB 방송과 동일한 형태로 이용하는 것이 가능하다. 이 경우, 전술한 3D depth 관련 정보를 시그널링하는 방법들이 사용될 수 있다.
VideoAttributes 정보는 서비스의 특정 동작 동안 사용되는 비디오 코딩의 방법을 식별하는 값의 각각의 인스턴스(instance) 를 나타낸다.
AudioAttributes 정보는 서비스의 특정 동작 동안 사용되는 오디오 코딩의 방법을 식별하는 값의 각각의 인스턴스를 나타낸다.
ServiceAvailabilty는 서비스가 유효하거나, 유효하지 않은 지역적 영역을 정의한다.
도 27은 본 발명의 일실시예에 따른, IPTV 수신기를 나타낸 도면이다.
본 발명에 일실시예에 따른 IPTV 수신기는 Network Interface (27010), TPC/IP Manager (27020), Service Control Manager (27030), Service Delivery Manager (27040), Content DB (27050), PVR manager (27060), Service Discovery Manager (27070), Service Manager (27080), SI & Metadata DB (27090), PSI & (PSIP and/or DVB-SI) Decoder (27100), DEMUX (27110), Audio and Video Decoder (27120), Native TV Application manager (27130) 및/또는 A/V and OSD Displayer (27140)를 포함한다.
Network Interface (27010)는 IPTV 패킷을 송/수신하는 역할을 한다. Network Interface (27010)는 physical layer 및/또는 data link layer 에서 동작한다.
TPC/IP Manager (27020)는 end to end 패킷 전송에 관여한다. 즉, TPC/IP Manager (27020)는 source에서 destination까지의 패킷 전송을 관리하는 역할을 수행한다. TPC/IP Manager (27020)는 IPTV 패킷들을 적절한 매니저로 분류하여 전송하는 역할을 한다.
Service Control Manager (27030)는 서비스를 선택하고 제어하는 역할을 수행한다. Service Control Manager (27030)는 session을 관리하는 역할을 수행할 수도 있다. 예를 들면, Service Control Manager (27030)는 IGMP (Internet Group Management Protocol) 또는 RTSP을 이용하여 실시간 방송 서비스를 선택할 수 있다. 예를 들면, Service Control Manager (27030)는 RTSP를 이용하여 VOD (Video on Demand) 컨텐츠를 선택할 수 있다. 예를 들면, IMS (IP Multimedia Subsystem) 가 사용되는 경우, Service Control Manager (27030)는 SIP (session initiation protocol)를 사용하여 IMS 게이트웨이를 통한 세션 초기화 및/또는 매니징을 수행한다. RTSP 프로토콜은 on-demand 전송, 방송 티브이 및 오디오의 전송의 제어에 있어서 사용될 수 있다. RTSP 프로토콜은 지속적인 TCP 커넥션을 사용하고, 실시간 미디어 스트리밍의 트릭 모드 제어를 가능하게 한다.
Service Delivery Manager (27040)는 실시간 스트리밍 및/또는 컨텐트 다운로드의 핸들링에 관여한다. Service Delivery Manager (27040)는 추후 사용을 위하여 Content DB (27050) 으로부터 컨텐츠를 retrieving한다. Service Delivery Manager (27040)는 MPEG-2 Transport Stream (TS)와 함께 사용되는 Real-Time Tranport Protocol (RTP) / RTP Control Protocol (RTCP) 를 이용할 수 있다. 이 경우, MPEG-2 패킷은 RTP를 이용하여 encapsulated 된다. Service Delivery Manager (27040)는 RTP 패킷을 파싱하고, 파싱된 패킷을 DEMUX (27110) 으로 보낸다. Service Delivery Manager (27040)는 RTCP를 이용하여 네트워크 reception에 대한 피드백을 전송하는 역할을 수행할 수 있다. MPEG-2 Transport packets은 RTP의 사용 없이, UDP (user datagram protocol) 을 이용하여 직접 전송될 수 있다. Service Delivery Manager (27040)는 컨텐츠 다운로딩을 위하여, HTTP (hypertext transfer protocol) 또는 FLUTE (File Delivery over Unidirectional Transport) 을 전송 프로토콜으로 사용할 수 있다. Service Delivery Manager (27040)는 3D depth 관련 정보를 전송하는 스트림을 처리하는 역할을 수행할 수 있다. 즉, 전술한 3D depth 관련 정보가 스트림으로 전송되는 경우, 이에 대한 처리는 Service Delivery Manager (27040)에서 수행될 수 있다.
Content DB (27050)는 컨텐츠 다운로드 시스템에 의하여 전송되거나 생방송 미디어 티브이로부터 레코드될 수 있는 컨텐츠들을 위한 데이터 베이스 이다.
PVR manager (27060)는 실시간 스트리밍 컨텐츠의 재생 또는 녹화를 제어하고, 저장된 컨텐츠의 필요한 메타데이터를 모으거나, 보다 나은 사용자 경험 (예를 들면, 썸네일 이미지, 목차 등) 을 위한 추가 정보를 생성한다.
Service Discovery Manager (27070)는 양방향 IP 네트워크를 통한 IPTV 서비스의 디스커버리를 가능하게 한다. Service Discovery Manager (27070)는 서비스 선택을 위한 정보를 제공한다.
Metadata Manager (27080)는 메타데이터의 처리를 관리한다.
SI & Metadata DB (27090)는 서비스 디스커버리 정보 (Service Discovery information)와 이 서비스와 관련된 메타데이터를 위한 데이터 베이스 이다.
PSI & (PSIP 및/또는 DVB-SI) Decoder (27100)는 PSI (PSIP 및/또는 DVB-SI) 제어 모듈이다. PSI & (PSIP 및/또는 DVB-SI) Decoder (27100)는 DEMUX (27110)로 PSI 테이블 및/또는 PSIP/DVB-SI 테이블을 위한 PID들을 세팅한다. PSI & (PSIP 및/또는 DVB-SI) Decoder (27100)는 DEMUX (27110)에 의하여 보내진 PSI, PSIP, 및/또는 DVB-SI 의 프라이빗 섹션을 디코딩한다. 디코딩된 결과는 입력되는 트랜스포트 패킷의 역다중화에 사용된다 (예를 들면, DEMUX (27110)으로 오디오 또는/및 비디오 PID 세팅).
DEMUX (27110)는 입력되는 트랜스포트 패킷으로부터 오디오, 비디오 및/또는 PSI 테이블을 역다중화한다. DEMUX (27110)는 PSI 디코더에 의하여, PSI 테이블을 위한 역다중화를 위하여 제어된다. DEMUX (27110)는 PSI 테이블의 섹션들을 만들고, 그것들을 PSI 디코더로 전송한다. DEMUX (27110)는 A/V 트랜스포트 패킷을 위한 역다중화를 위하여 제어될 수 있다.
Audio and Video Decoder (27120)는 비디오 및/또는 오디오 elementary stream packets를 디코딩 할 수 있다. Audio Decoder (27122) 및/또는 Video Decoder (27124)를 포함한다. Audio Decoder (27122)는 오디오 elementary stream packets을 디코딩한다. Video Decoder (27124)는 비디오 elementary stream packets을 디코딩한다.
Native TV Application manager (27130)는 UI Manager (27132) 및/또는 Service Manager (27134)를 포함한다. Native TV Application manager (27130)는 TV 스크린 위에 Graphic User Interface를 지원한다. Native TV Application manager (27130)는 리모트 컨트롤러 또는 front panel에 의한 사용자 키(key)를 수신할 수 있다. Native TV Application manager (27130)는 TV 시스템의 상태를 관리할 수 있다. Native TV Application manager (27130)는 3D OSD를 구성하고, 출력을 제어하는 역할을 할 수 있다.
UI Manager (27132)는 TV 스크린에 User Interface를 디스플레이하기 위한 제어를 수행할 수 있다.
Service Manager (27134)는 서비스와 관련된 매니저를 제어하는 역할을 수행한다. 예를 들면, Service Manager (27080)는 Service Control Manager (27030), Service Delivery Manager (27040), IG-OITF client, Service Discovery Manager (27070), 및/또는 Metadata manager (27080)을 제어할 수 있다. Service Manager (27134)는 3D depth 관련 정보를 처리하여, 3D OSD의 디스플레이를 제어한다. 예를 들면, Service Manager (27134)는 3D depth 관련 정보를 처리하고, 처리한 결과를 UI Manager (27132)에 전달할 수 있다. UI Manager (27132)는 Service Manager (27134)로부터 전달된 3D depth 관련 정보를 이용하여, 3D OSD의 출력을 제어한다.
A/V and OSD Displayer (27140)는 오디오 데이터와 비디오 데이터를 수신하여, 비디오 데이터를 디스플레이하는 것을 제어하고, 오디오 데이터의 재생을 제어한다. A/V and OSD Displayer (27140)는 OSD를 출력하는 것을 제어한다. A/V and OSD Displayer (27140)는 3D 서비스의 경우, 좌우 영상을 수신하여 이를 Stereoscopic video로 출력하는 3D Output Formatter의 역할을 수행할 수 있다. 이 과정에서 3D OSD도 Stereoscopic video와 함께 출력하는 것이 가능할 것이다.
도 28은 본 발명의 일실시예에 따른, IPTV 수신기의 기능 블록들을 나타낸 도면이다.
본 발명의 일실시예에 따른 IPTV 수신기의 기능 블록들은 케이블 모뎀, DSL 모뎀(28010), 이더넷 NIC(Ethernet NIC, 28020), IP 네트워크 스택(28030), XML 파서(28040), 파일 처리기(28050), EPG 처리기(28060), SI 처리기(28070), 저장 장치(28080), SI 디코더(28090), EPG 디코더(28100), ITF 동작 제어기(28110), 채널 서비스 매니저(28120), 어플리케이션 매니저(28130), MPEG-2 역다중화기(28140), MPEG-2 PSI/PSIP 파서(28150), 오디오/비디오 디코더(28160) 및/또는 디스플레이 모듈(28170)을 포함할 수 있다.
본 발명에서 주로 다루어지는 Block들은 굵은 선으로 표시되었으며, 실선 화살표는 Data path를, 점선 화살표는 Control signal path를 나타낸다. 각 부에 대한 설명은 다음과 같다.
케이블 모뎀, DSL 모뎀(28010)은 물리 계층에서 ITF가 IP Network과 연결되는 인터페이스, 물리적 매체을 통해서 전송된 신호를 복조하여, 디지털 신호를 복원한다.
이더넷 NIC(Ethernet NIC, 28020)는 물리 인터페이스를 통하여 전송 받은 신호를 IP 데이터로 복원하는 모듈이다.
IP 네트워크 스택(28030)은 IP 프로토콜 스택에 따른 각 layer의 처리 모듈이다.
XML 파서(28040)는 전송 받은 IP 데이터 중, XML 문서를 파싱하는 모듈이다.
파일 처리기(28050)는 전송 받은 IP 데이터 중, FLUTE등을 통하여 파일 형태로 전송된 데이터를 처리하는 모듈이다.
EPG 처리기(28060)는 전송 받은 File 형태의 데이터 중, IPTV EPG 데이터에 해당하는 부분을 처리하여 저장 장치(18080)에 저장하도록 하는 모듈이다.
SI 처리기(28070)는 전송 받은 File 형태의 데이터 중, IPTV SI 데이터에 해당하는 부분을 처리하여 저장 장치(18080)에 저장하도록 하는 모듈이다.
저장 장치(28080)는 SI, EPG 등 저장이 필요한 데이터를 저장하는 저장 장치이다.
SI 디코더(28090)는 Channel Map 정보가 필요할 경우, 저장 장치(18080)로부터 SI 데이터를 가져와 분석하여, 필요한 정보를 복원하는 장치이다.
EPG 디코더(28100)는 EPG 정보가 필요할 경우, 저장 장치(18080)로부터 EPG 데이터를 가져와 분석하여, 필요한 정보를 복원하는 장치이다.
ITF 동작 제어기(28110)는 채널 변경, EPG 디스플레이 등의 ITF의 동작을 제어하는 주제어부이다.
채널 서비스 매니저(28120)는 사용자로부터의 입력을 받아 채널 변경의 동작을 관장하는 모듈이다.
어플리케이션 매니저(28130)는 사용자로부터의 입력을 받아 EPG 디스플레이 등의 어플리케이션 서비스를 관장하는 모듈이다.
MPEG-2 역다중화기(28140)는 전송받은 IP 데이터그램에서 MPEG-2 전송 스트림 데이터를 추출하여 각 PID에 따라 해당하는 모듈로 전달하는 모듈이다.
MPEG-2 PSI/PSIP 파서(28150)는 전송받은 IP 데이터그램 내의 MPEG-2 전송 스트림의 각 data (오디오/비디오 등)의 PID 정보 등, 프로그램 엘리먼트를 접속할 수 있는 정보를 담은 PSI/PSIP 데이터를 추출 및 파싱하는 모듈이다.
오디오/비디오 디코더(28160)는 전달받은 오디오 및 비디오 데이터를 디코드하여 디스플레이 모듈로 전달하는 모듈이다.
디스플레이 모듈(28170)은 입력받은 AV 신호 및 OSD 신호등을 조합하여 처리하여 이를 screen과 speaker를 통하여 출력한다. 또한, 3D 비디오의 경우 L/R 영상을 분리하여 포맷터를 통하여 3D 영상으로 출력하는 등의 역할을 수행한다. 또한 3D depth 관련 정보를 이용하여, OSD를 3D 영상과 함께 디스플레이될 수 있도록 처리하는 역할을 수행할 수 있다.
도 29는 본 발명의 일실시예에 따른, 3D 방송 신호를 처리하는 방법을 나타낸 순서도 이다.
방송 송신기는 3D 서비스를 위한 비디오 데이터를 비디오 스트림으로 인코딩한다(s29010). 비디오 데이터는 3D 이미지를 위한 left picture와 right picture를 포함한다.
방송 송신기는 비디오 데이터와 3D 서비스를 위한 서비스 정보 (service information)를 포함하는 디지털 방송 신호를 생성한다(s29020). 서비스 정보에 포함된 video depth range 디스크립터는 비디오 스트림의 주어진 시간 동안 발생하는 최대 및 최소 디스패리티(disparity)를 가리킨다. 여기서 최소 디스패리티와 최대 디스패리티는 각각, 3D 이미지의 좌/우 영상 내의 동일한 공간을 나타내는 픽셀의 수평적 위치의 차이의 최소 및 최대 차이를 나타낸다. 일실시예로, 디스패리티는 좌영상, 우영상에 각각 동일하게 적용되는 값을 나타낼 수 있고, 다른 실시예로, 디스패리티의 값의 1/2이 좌영상, 우영상에 적용되어, disparity는 좌영상과 영상의 위치 차이를 나타내는 값이 될 수 있다.
방송 송신기는 3D 서비스를 위한 디지털 방송 신호를 전송한다(s29030).
본 발명에 따르면, 3D 서비스 환경 하에서, 수신기에서 결정되는 OSD의 디스플레이가 3D 영상과 충돌하지 않도록 하는 효과가 있다.
또한, Event 단위의 depth 정보 제공의 경우 event boundary에서 발생할 수 있는 graphic object의 depth와 video object의 depth의 conflict를 방지할 수 있는 효과가 있다.
또한, Scene 단위의 depth 정보를 제공하되 3DTV에서 OSD를 띄울 때 scene boundary에서 발생할 수 있는 graphic object와 video object의 depth conflict를 방지하는 효과가 있다.
이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (17)

  1. 3D 서비스를 위한 좌영상을 전달하는 제1 비디오 데이터 및 상기 3D 서비스를 위한 우영상을 전달하는 제2 비디오 데이터 및 상기 3D 서비스를 위한 3D 정보를 생성하는 단계,
    상기 3D 서비스는 복수의 씬(scene)이 정의된 3D 프로그램을 포함하고,
    상기 3D 정보는 상기 3D 프로그램을 위해 로케이션되는 씬 오브젝트들의 디스패리티의 범위를 지시하는 씬 디스패리티 정보를 포함하고,
    상기 씬 디스패리티 정보는 최소 디스패리티 정보 및 최대 디스패리티 정보를 포함하고,
    상기 씬 디스패리티 정보는 상기 3D 프로그램의 각 씬 별로 적용되고;
    상기 3D 정보, 상기 제1 비디오 데이터 및 상기 제2 비디오 데이터를 포함하는 방송 신호를 생성하는 단계; 및
    상기 방송 신호를 전송하는 단계;
    를 포함하는 3D 서비스를 위한 디지털 방송 신호를 처리하는 방법.
  2. 제 1 항에 있어서,
    상기 최소 디스패리티는 3D 비디오 내 최전방 오브젝트의 3D 로케이션을 지시하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 처리하는 방법.
  3. 제 2 항에 있어서,
    상기 최소 디스패리티는 수신 디바이스의 3D 디스플레이 상에 디코딩된 영상의 앞 부분에 OSD(on screen display)를 렌더링하기 위해 상기 씬 디스패리티 정보에 포함되는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 처리하는 방법.
  4. 제 1 항에 있어서,
    상기 씬 디스패리티 정보는, SDT (service description table)에 포함되고,
    상기 SDT는, 트랜스포트 스트림 내의 다른 서비스들로부터 서비스를 식별하는 서비스 식별 정보를 더 포함하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 처리하는 방법.
  5. 제 1 항에 있어서,
    상기 씬 디스패리티 정보는, EIT (event information table)에 포함되고,
    상기 EIT는, 트랜스포트 스트림 내의 다른 서비스들로부터 서비스를 식별하는 서비스 식별 정보 및 상기 서비스 식별 정보에 의하여 식별된 상기 서비스 내의 이벤트를 식별하는 이벤트 식별 정보를 더 포함하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 처리하는 방법.
  6. 제 1 항에 있어서,
    상기 3D 정보는, 상기 3D 서비스를 위하여 상기 씬 디스패리티 정보에 포함된 정보가 적용되는 범위를 가리키는 어플리케이션 선택 정보를 더 포함하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 처리하는 방법.
  7. 제 6 항에 있어서,
    상기 어플리케이션 선택 정보는, 상기 씬 디스패리티 정보 내의 상기 정보의 적용을 위한, 상기 3D 서비스에 포함된 씬의 시작 시간을 가리키는 장면 시작 시간 정보를 포함하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 처리하는 방법.
  8. 제 6 항에 있어서,
    상기 어플리케이션 선택 정보는, 상기 씬 디스패리티 정보 내의 상기 정보의 적용을 위한, 상기 3D 서비스에 포함된 씬의 지속 시간을 가리키는 장면 지속 시간 정보를 포함하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 처리하는 방법.
  9. 3D 서비스를 위한 3D 정보, 제1 비디오 데이터 및 제2 비디오 데이터를 포함하는 방송 신호를 수신하는 수신 유닛,
    상기 제1 비디오 데이터는 상기 3D 서비스를 위한 좌영상을 전달하도록 구성되고, 상기 제2 비디오 데이터는 상기 3D 서비스를 위한 우영상을 전달하도록 구성되며,
    상기 3D 서비스는 복수의 씬(scene)이 정의된 3D 프로그램을 포함하고,
    상기 3D 정보는 상기 3D 프로그램을 위해 로케이션되는 씬 오브젝트들의 디스패리티의 범위를 지시하는 씬 디스패리티 정보를 포함하고,
    상기 씬 디스패리티 정보는 최소 디스패리티 정보 및 최대 디스패리티 정보를 포함하고,
    상기 씬 디스패리티 정보는 상기 3D 프로그램의 각 씬 별로 적용되고;
    상기 제1 비디오 데이터 및 제2 비디오 데이터를 디코딩하는 디코더; 및
    상기 3D 정보를 파싱하는 시그널링 프로세서;
    를 포함하는 3D 서비스를 위한 디지털 방송 신호를 수신하는 장치.
  10. 제 9 항에 있어서,
    상기 최소 디스패리티는 3D 비디오 내 최전방 오브젝트의 3D 로케이션을 지시하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 수신하는 장치.
  11. 제 10 항에 있어서,
    상기 장치는 상기 디코더에 의해 디코딩된 영상을 디스플레이하는 3D 디스플레이를 더 포함하고,
    상기 최소 디스패리티는 상기 3D 디스플레이 상에 디코딩된 영상의 앞 부분에 OSD(on screen display)를 렌더링하기 위해 상기 씬 디스패리티 정보에 포함되는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 수신하는 장치.
  12. 제 9 항에 있어서,
    상기 시그널링 프로세서는 SDT (service description table) 을 더 파싱하는 것을 특징으로 하고,
    상기 SDT는, 트랜스포트 스트림 내의 다른 서비스들로부터 서비스를 식별하는 서비스 식별 정보 및 상기 서비스 식별 정보에 의하여 식별되는 상기 서비스를 위한 최소 및 최대 디스패리티를 식별하는 상기 씬 디스패리티 정보를 포함하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 수신하는 장치.
  13. 제 9 항에 있어서,
    상기 시그널링 프로세서는 EIT (event information table) 을 더 파싱하는 것을 특징으로 하고,
    상기 EIT는, 트랜스포트 스트림 내의 다른 서비스들로부터 서비스를 식별하는 서비스 식별 정보, 상기 서비스 식별 정보에 의하여 식별된 상기 서비스 내의 이벤트를 식별하는 이벤트 식별 정보, 및 상기 이벤트 식별 정보에 의하여 식별되는 이벤트를 위한 최소 및 최대 디스패리티를 식별하는 상기 씬 디스패리티 정보를 포함하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 수신하는 장치.
  14. 제 9 항에 있어서,
    상기 시그널링 프로세서는, 상기 3D 서비스를 위하여 상기 씬 디스패리티 정보에 포함된 정보가 적용되는 범위를 가리키는 어플리케이션 선택 정보를 더 파싱하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 수신하는 장치.
  15. 제 14 항에 있어서,
    상기 시그널링 프로세서는, 상기 어플리케이션 선택 정보로부터, 상기 씬 디스패리티 정보 내의 상기 정보의 적용을 위한, 상기 3D 서비스에 포함된 씬의 시작 시간을 가리키는 장면 시작 시간 정보를 더 파싱하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 수신하는 장치.
  16. 제 14 항에 있어서,
    상기 시그널링 프로세서는, 상기 어플리케이션 선택 정보로부터, 상기 씬 디스패리티 정보 내의 상기 정보의 적용을 위한, 상기 3D 서비스에 포함된 씬의 지속 시간을 가리키는 장면 지속 시간 정보를 더 파싱하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 수신하는 장치.
  17. 제 16 항에 있어서,
    상기 씬 디스패리티 정보 내의 정보와 상기 장면 지속 시간 정보에 근거하여 상기 3D 서비스에 포함된 상기 씬의 지속 시간 동안의 3D 이미지의 앞 부분에 상기 장치의 OSD 메뉴가 디스플레이되도록 제어하는 디스플레이 프로세서를 더 포함하는 것을 특징으로 하는 3D 서비스를 위한 디지털 방송 신호를 수신하는 장치.

KR1020137008336A 2010-09-01 2011-08-31 삼차원 디스플레이를 위한 디지털 방송 신호를 처리하는 방법 및 장치 KR101875615B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US37937810P 2010-09-01 2010-09-01
US61/379,378 2010-09-01
PCT/KR2011/006454 WO2012030158A2 (en) 2010-09-01 2011-08-31 Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional display

Publications (2)

Publication Number Publication Date
KR20140000676A KR20140000676A (ko) 2014-01-03
KR101875615B1 true KR101875615B1 (ko) 2018-07-06

Family

ID=44674084

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137008336A KR101875615B1 (ko) 2010-09-01 2011-08-31 삼차원 디스플레이를 위한 디지털 방송 신호를 처리하는 방법 및 장치

Country Status (4)

Country Link
US (3) US8823773B2 (ko)
EP (2) EP2612501B1 (ko)
KR (1) KR101875615B1 (ko)
WO (1) WO2012030158A2 (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102812711B (zh) * 2010-02-25 2016-11-02 汤姆森特许公司 利用视差估计和视差时间变化限制的立体字幕加载
US8760498B2 (en) * 2011-03-14 2014-06-24 Sony Corporation Disparity data transport in standard caption service
US8730301B2 (en) 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
JP5668385B2 (ja) * 2010-09-17 2015-02-12 ソニー株式会社 情報処理装置、プログラムおよび情報処理方法
JP2012120142A (ja) * 2010-11-08 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
GB2485532A (en) * 2010-11-12 2012-05-23 Sony Corp Three dimensional (3D) image duration-related metadata encoding of apparent minimum observer distances (disparity)
JP4989760B2 (ja) * 2010-12-21 2012-08-01 株式会社東芝 送信装置、受信装置および伝送システム
US9185386B2 (en) * 2011-06-01 2015-11-10 Panasonic Intellectual Property Management Co., Ltd. Video processing device, transmission device, video processing system, video processing method, transmission method, computer program and integrated circuit
WO2013114887A1 (en) * 2012-02-02 2013-08-08 Panasonic Corporation Methods and apparatuses for 3d media data generation, encoding, decoding and display using disparity information
ITTO20120134A1 (it) * 2012-02-16 2013-08-17 Sisvel Technology Srl Metodo, apparato e sistema di impacchettamento di frame utilizzanti un nuovo formato "frame compatible" per la codifica 3d.
US20160072918A1 (en) * 2014-09-09 2016-03-10 Ashot Gabrelyanov System and Method for Acquisition, Management and Distribution of User-Generated Digital Media Content
WO2016039571A1 (ko) * 2014-09-11 2016-03-17 엘지전자 주식회사 방송 신호 송신 방법, 방송 신호 송신 장치, 방송 신호 수신 방법 및 방송 신호 수신 장치
KR101622344B1 (ko) * 2014-12-16 2016-05-19 경북대학교 산학협력단 적응적 영역 가중치가 적용된 센서스 변환 기반 스테레오 정합을 통한 시차 계산 방법 및 그 시스템
WO2016182371A1 (ko) 2015-05-12 2016-11-17 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
EP3300375A4 (en) * 2015-05-18 2018-11-21 LG Electronics Inc. Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method
US10375375B2 (en) 2017-05-15 2019-08-06 Lg Electronics Inc. Method of providing fixed region information or offset region information for subtitle in virtual reality system and device for controlling the same
CN113141494A (zh) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 3d图像处理方法、装置和3d显示终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090295790A1 (en) * 2005-11-17 2009-12-03 Lachlan Pockett Method and Devices for Generating, Transferring and Processing Three-Dimensional Image Data
JP2010505174A (ja) * 2006-09-28 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メニューディスプレイ
US20100134603A1 (en) * 2008-11-28 2010-06-03 Kabushiki Kaisha Toshiba Three-dimensional information output apparatus and three-dimensional information output method

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6014183A (en) * 1997-08-06 2000-01-11 Imagine Products, Inc. Method and apparatus for detecting scene changes in a digital video stream
AU2004211721B2 (en) 2003-02-11 2009-08-20 Nds Limited Apparatus and methods for handling interactive applications in broadcast networks
JP2005277531A (ja) * 2004-03-23 2005-10-06 Seiko Epson Corp 動画像処理装置
KR100727940B1 (ko) * 2005-06-22 2007-06-14 삼성전자주식회사 통신 채널을 이용한 3d 입체 영상의 화질 조정 방법
KR100739764B1 (ko) 2005-11-28 2007-07-13 삼성전자주식회사 입체 영상 신호 처리 장치 및 방법
CN101653011A (zh) * 2007-03-16 2010-02-17 汤姆森许可贸易公司 用于将文本与三维内容相结合的系统和方法
CN101682794B (zh) * 2007-05-11 2012-05-02 皇家飞利浦电子股份有限公司 用于处理深度相关信息的方法、装置和系统
US8390674B2 (en) 2007-10-10 2013-03-05 Samsung Electronics Co., Ltd. Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
KR20090099722A (ko) * 2008-03-18 2009-09-23 삼성전자주식회사 영상 표시 장치를 제어하는 사용자 입력 장치 및 그 장치를이용하여 영상 표시 장치를 제어하는 방법
KR101001543B1 (ko) * 2008-08-04 2010-12-17 삼성전자주식회사 온 스크린 디스플레이의 표시 시간 조절 장치 및 방법
MX2011002553A (es) * 2008-09-18 2011-04-04 Panasonic Corp Dispositivo de reproduccion de video estereoscopico y dispositivo de presentacion visual de video estereoscopico.
WO2010064853A2 (en) * 2008-12-02 2010-06-10 Lg Electronics Inc. 3d caption display method and 3d display apparatus for implementing the same
EP2387243A4 (en) * 2009-01-12 2012-12-26 Lg Electronics Inc DEPTH INFORMATION USING VIDEO SIGNAL PROCESSING METHOD AND DEVICE
US20110149020A1 (en) * 2009-12-17 2011-06-23 Ilya Klebanov Method and system for video post-processing based on 3d data
JP2012019386A (ja) * 2010-07-08 2012-01-26 Sony Corp 再生装置、再生方法、およびプログラム
US8806340B2 (en) * 2010-09-01 2014-08-12 Hulu, LLC Method and apparatus for embedding media programs having custom user selectable thumbnails

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090295790A1 (en) * 2005-11-17 2009-12-03 Lachlan Pockett Method and Devices for Generating, Transferring and Processing Three-Dimensional Image Data
JP2010505174A (ja) * 2006-09-28 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メニューディスプレイ
US20100134603A1 (en) * 2008-11-28 2010-06-03 Kabushiki Kaisha Toshiba Three-dimensional information output apparatus and three-dimensional information output method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Document A/69:2009, Advanced Television Systems Committee, Inc., 25 December 2009 *
Document A/69:2009, ATSC Recommended Practice:Program and System Information Protocol Implementation Guidelines for Broadcasters, Advanced Television Systems Committee, Inc., 25 December 2009 *
일본 공표특허공보 특표2010-505174호(2010.02.18.) 1부. *

Also Published As

Publication number Publication date
EP2612501A2 (en) 2013-07-10
US20160249034A1 (en) 2016-08-25
EP2426932A1 (en) 2012-03-07
US8823773B2 (en) 2014-09-02
US20140307050A1 (en) 2014-10-16
KR20140000676A (ko) 2014-01-03
EP2426932B1 (en) 2018-05-23
EP2612501B1 (en) 2018-04-25
WO2012030158A2 (en) 2012-03-08
US9369692B2 (en) 2016-06-14
WO2012030158A3 (en) 2012-05-31
EP2612501A4 (en) 2014-07-23
US20120050473A1 (en) 2012-03-01

Similar Documents

Publication Publication Date Title
KR101875615B1 (ko) 삼차원 디스플레이를 위한 디지털 방송 신호를 처리하는 방법 및 장치
US10091486B2 (en) Apparatus and method for transmitting and receiving digital broadcasting signal
KR101844228B1 (ko) 삼차원 방송 서비스를 위한 방송 신호를 프로세싱하는 방법 및 장치
KR101909032B1 (ko) 3d (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법 및 장치
KR101789636B1 (ko) 이미지 처리 방법 및 장치
CA2809143C (en) Digital receiver and method for processing 3d content in the digital receiver
EP2822282B1 (en) Signal processing device and method for 3d service
KR101844227B1 (ko) 방송 수신기 및 3d 비디오 데이터 처리 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant