KR101245591B1 - 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치 - Google Patents

입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치 Download PDF

Info

Publication number
KR101245591B1
KR101245591B1 KR1020117013890A KR20117013890A KR101245591B1 KR 101245591 B1 KR101245591 B1 KR 101245591B1 KR 1020117013890 A KR1020117013890 A KR 1020117013890A KR 20117013890 A KR20117013890 A KR 20117013890A KR 101245591 B1 KR101245591 B1 KR 101245591B1
Authority
KR
South Korea
Prior art keywords
descriptor
information
stream
service
value
Prior art date
Application number
KR1020117013890A
Other languages
English (en)
Other versions
KR20110104501A (ko
Inventor
서종열
김진필
이준휘
홍호택
양정휴
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20110104501A publication Critical patent/KR20110104501A/ko
Application granted granted Critical
Publication of KR101245591B1 publication Critical patent/KR101245591B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8047Music games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H40/00Arrangements specially adapted for receiving broadcast information
    • H04H40/18Arrangements characterised by circuits or components specially adapted for receiving

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 디지털 방송 수신장치에 있어서, 수신한 디지털 방송 신호를 역다중화하는 역다중화부, 역다중화된 디지털 방송 신호로부터 확장시점 비디오 정보를 추출하는 PSIP 또는 PSI/SI 프로세서, 상기 역다중화된 디지털 방송 신호로부터 확장시점 비디오 스트림 및 기준시점 비디오 스트림을 디코딩하는 디코더, 및 상기 확장시점 비디오 정보에 기초하여, 상기 확장시점 비디오 스트림 및 상기 기준시점 비디오 스트림을 포맷팅하는 출력 포맷팅부를 구비하는 것을 특징으로 하는 입체영상 디스플레이가 가능한 디지털 방송 수신장치를 제공한다.
바람직하게는, 상기 확장시점 비디오 정보는, 상기 확장시점 비디오 스트림을 생성한 카메라와 상기 기준시점 비디오 스트림을 생성한 카메라 간의 상대적 위치 관계, 상기 확장시점 비디오 스트림의 갯수, 및 상기 카메라의 배열 구조 정보 중 적어도 어느 하나를 포함한다. 더욱 바람직하게는, 상기 상대적 위치 관계는, 상기 기준시점 비디오 스트림을 생성한 카메라를 기준으로 하여, 상기 확장시점 비디오 스트림을 생성한 카메라가 위치하는 방향 및 상기 방향으로의 이격 정도 중 적어도 어느 하나를 포함한다.
이로써, 본 발명은 디지털 방송에서 입체영상을 위한 신호를 확인 및 처리할 수 있어, 스테레오스코픽 방식의 입체영상 디스플레이가 가능하다.

Description

입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치{DIGITAL BROADCASTING RECEPTION METHOD CAPABLE OF DISPLAYING STEREOSCOPIC IMAGE, AND DIGITAL BROADCASTING RECEPTION APPARATUS USING SAME}
본 발명은 디지털 방송 수신방법 및 장치에 관한 것으로서, 더 구체적으로는 입체영상 디스플레이를 가능하게 하는 디지털 방송 수신방법 및 이를 이용한 디지털 방송 수신장치에 관한 것이다.
최근 입체 영상 서비스에 대한 관심이 점점 증대되면서 입체영상을 제공하는 장치들이 계속 개발되고 있다. 이러한 입체영상을 구현하는 방식 중에 스테레오스코픽(Stereoscopic) 방식이 있다.
스테레오스코픽 방식의 기본 원리는, 사람의 좌안과 우안에 서로 직교하도록 배열된 영상을 분리하여 입력하고, 사람의 두뇌에서 좌안과 우안에 각각 입력된 영상이 결합되어 입체 영상이 생성되는 방식이다. 이때, 영상이 서로 직교하도록 배열된다는 것은 각 영상이 서로 간섭을 일으키지 않는다는 것을 의미한다.
간섭을 배제하기 위한 구체적 방법으로는, 편광 방식, 시분할(time-sequential) 방식, 및 스펙트럼(spectral) 방식이 있다.
먼저, 편광 방식은 편광 필터를 이용하여 각 영상을 분리하는 것이다. 즉, 좌안(left eye)을 위한 영상과 우안(right eye)을 위한 영상에 서로 직교하는 편광 필터를 적용함으로써, 좌우의 시야에 편광 필터에 의해 필터링된 각기 다른 영상이 입력되게 하는 것이다. 시분할 방식은 좌우 영상을 교대로 표시하고, 사용자가 착용하는 능동형 안경(active glasses)이 교대로 표시되는 영상과 동기화되어 각 영상을 분리하는 방법이다. 즉, 영상이 교대로 표시될 때, 이와 동기화된 능동형 안경의 셔터가 해당 영상이 입력되어야 하는 시야만 개방하고 다른 시야는 차단함으로써, 좌우 영상을 분리하여 입력한다.
한편, 스펙트럼(spectral) 방식은 RGB 스펙트럼이 서로 중첩되지 않는 스펙트럼 대역을 갖는 스펙트럼 필터를 통해 좌우 영상을 투사(projection)하는 방법이다. 이렇게 투사된 좌우 영상에 대해, 사용자는 좌우 영상에 대해 설정된 스펙트럼 영역만 통과하는 스펙트럼 필터(spectral filter)를 장착한 수동형 안경(passive glasses)을 착용함으로써, 좌우 영상을 분리하여 입력받는 것이다.
그러나, 종래의 디지털 방송은 이차원 영상을 기준으로 하고 있다. 일 예를 들면, ATSC(Advanced Television Systems Committee) 방식의 디지털 방송에서 사용하는 PSIP(Program and System Information Protocol)는 이차원 영상 서비스만을 대상으로 하고 있다.
따라서, 디지털 방송에서 입체영상을 제공하기 위해서, 특히 스테레오스코픽 영상을 지원하기 위해서는 기존의 ATSC 방식의 디지털 방송에서 사용되는 PSIP 또는 DVB(Digital Video Broadcasting) 방식의 디지털 방송에서 사용되는 SI(Service Information)에서 스테레오스코픽 영상을 위한 신호를 확인 및 처리할 수 있어야 한다.
또한, 디지털 방송에서 이러한 스테레오스코픽 영상 신호를 효과적으로 처리하기 위해서는, 디지털 방송 수신장치도 역시 스테레오스코픽 영상 신호를 수신 및 처리할 수 있도록 구성되어야 할 필요가 있다.
본 발명은 이상과 같은 종래의 문제점을 감안하여 안출된 것으로서, 본 발명의 목적은 입체영상을 위한 신호를 확인 및 처리함으로써, 스테레오스코픽 방식의 입체영상 디스플레이가 가능한 디지털 방송 수신방법을 제공하는 것이다.
본 발명의 다른 목적은, 입체영상을 위한 신호를 확인 및 처리하여 스테레오스코픽 방식의 입체영상 디스플레이가 가능한 디지털 방송 수신장치를 제공하는 것이다.
상기 목적을 달성하기 위한 본 발명은 디지털 방송 수신장치에 있어서, 수신한 디지털 방송 신호를 역다중화하는 역다중화부; 역다중화된 디지털 방송 신호로부터 확장시점 비디오 정보를 추출하는 PSIP 또는 PSI/SI 프로세서; 상기 역다중화된 디지털 방송 신호로부터 확장시점 비디오 스트림 및 기준시점 비디오 스트림을 디코딩하는 디코더; 및 상기 확장시점 비디오 정보에 기초하여, 상기 확장시점 비디오 스트림 및 상기 기준시점 비디오 스트림을 포맷팅하는 출력 포맷팅부를 구비하는 것을 특징으로 하는 입체영상 디스플레이가 가능한 디지털 방송 수신장치를 제공한다.
바람직하게는, 상기 확장시점 비디오 정보는, 상기 확장시점 비디오 스트림을 생성한 카메라와 상기 기준시점 비디오 스트림을 생성한 카메라 간의 상대적 위치 관계, 상기 확장시점 비디오 스트림의 갯수, 및 상기 카메라의 배열 구조 정보 중 적어도 어느 하나를 포함한다. 더욱 바람직하게는, 상기 상대적 위치 관계는, 상기 기준시점 비디오 스트림을 생성한 카메라를 기준으로 하여, 상기 확장시점 비디오 스트림을 생성한 카메라가 위치하는 방향 및 상기 방향으로의 이격 정도 중 적어도 어느 하나를 포함한다.
또한, 본 발명은 디지털 방송 신호를 수신 및 처리하는 방법에 있어서, 디지털 방송 신호를 수신하여 이를 역다중화하는 제1 단계; 역다중화된 디지털 방송 신호로부터 확장시점 비디오 정보를 추출하는 제2 단계; 및 상기 역다중화된 디지털 방송 신호로부터 확장시점 비디오 스트림 및 기준시점 비디오 스트림을 디코딩하고, 상기 확장시점 비디오 정보에 기초하여 상기 확장시점 비디오 스트림 및 상기 기준시점 비디오 스트림을 포맷팅하여 디스플레이 하는 제3 단계를 포함하는 것을 특징으로 하는 입체영상 디스플레이가 가능한 디지털 방송 수신방법을 제공한다.
이상과 같은 본 발명의 디지털 방송 수신방법 및 장치에 따르면, 디지털 방송에서 다양한 방식으로 입체영상에 대한 정보를 제공할 수 있고, 또한 이러한 입체영상 정보를 확인 및 처리할 수 있어 입체영상 디스플레이 출력이 가능하다.
도 1(a) 은 입체영상을 형성하기 위한 화면 전송 방법 중 프레임 시퀀셜(Frame Sequential) 방식을 설명하는 도면이다.
도 1(b) 는 입체영상을 형성하기 위한 화면 전송 방법 중 사이드 바이 사이드(Side by Side) 방식을 설명하는 도면이다.
도 1(c) 는 입체영상을 형성하기 위한 화면 전송 방법 중 탑-다운(Top-down) 방식을 설명하는 도면이다.
도 1(d) 는 입체영상을 형성하기 위한 화면 전송 방법 중 체커보드(Checker board) 방식을 설명하는 도면이다.
도 2 는 확장시점 비디오 스트림(이하, 'EVV 스트림')에 대한 정보를 ATSC(Advanced Television Systems Committee) 방식의 디지털 방송에서 사용하는 PSIP(Program and System Information Protocol)의 TVCT(Terrestrial Virtual Channel Table)를 통해 제공하는 경우, 본 발명의 확장시점 비디오 디스크립터(이하, 'EV 디스크립터')를 구성하는 일 예를 나타낸 것이다.
도 3 는 도 2 에서의 TVCT 를 구성하는 일 예를 나타낸 것이다.
도 4 는 카메라가 1차원 배열을 이루고 있는 경우 본 발명에 따라서 비디오 스트림의 시점 정보를 설정하는 방법에 대해 설명하는 도면이다.
도 5 은 카메라가 2차원 배열을 이루고 있는 경우 본 발명에 따라서 비디오 스트림의 시점 정보를 설정하는 방법에 대해 설명하는 도면이다.
도 6 는 기준시점 비디오 스트림에 대한 정보를 포함하여 본 발명의 EV 디스크립터를 구성하는 일 예를 나타낸 것이다.
도 7 은 본 발명의 EV 디스크립터에 대신하여, 컴포넌트 리스트 디스크립터(Component List Descriptor)를 통해 EVV 스트림에 대한 정보를 제공하는 경우, 상기 컴포넌트 리스트 디스크립터를 구성하는 일 예를 나타낸 것이다.
도 8 은 EVV 스트림에 대한 정보를 ATSC 방식의 디지털 방송에서 사용하는 PSIP(Program and System Information Protocol)의 EIT(Event Information Table)를 통해 제공하는 경우, 본 발명의 EV 디스크립터를 구성하는 일 예를 나타낸 것이다.
도 9 은 도 8 에서의 EIT 를 구성하는 일 예를 나타낸 것이다.
도 10 은 EVV 스트림에 대한 정보를 DVB(Digital Video Broadcasting) 방식의 디지털 방송에서 사용하는 SI(Service Information)의 SDT(Service Description Table)를 통해 제공하는 경우, 본 발명의 EV 디스크립터를 구성하는 일 예를 나타낸 것이다.
도 11 는 도 10 에서의 SDT(Service Description Table)를 구성하는 일 예를 나타낸 것이다.
도 12 은 도 10 에서의 PSI(Program Specific Information)의 PMT(Program Map Table)를 구성하는 일 예를 나타낸 것이다.
도 13 는 EVV 스트림에 대한 정보를 DVB(Digital Video Broadcasting) 방식의 디지털 방송에서 사용하는 SI(Service Information)의 SDT(Service Description Table)를 통해 제공하는 경우, 컴포넌트 태그(component tag)를 이용하여 본 발명의 EV 디스크립터를 구성하는 일 예를 나타낸 것이다.
도 14 은 도 13 에서의 SDT(Service Description Table)를 구성하는 일 예를 나타낸 것이다.
도 15 은 도 13 에서의 PSI(Program Specific Information)의 PMT(Program Map Table)를 구성하는 일 예를 나타낸 것이다.
도 16 은 EVV 스트림에 대한 정보를 DVB(Digital Video Broadcasting) 방식의 디지털 방송에서 사용하는 SI(Service Information)의 EIT(Event Information Table)를 통해 제공하는 경우, 컴포넌트 태그(component tag)를 이용하여 본 발명의 EV 디스크립터를 구성하는 일 예를 나타낸 것이다.
도 17 는 도 16 에서의 EIT(Event Information Table)를 구성하는 일 예를 나타낸 것이다.
도 18 은 본 발명에 따른 디지털 방송 수신장치를 나타낸 블록 구성도이다.
도 19 는 ATSC 방식의 디지털 방송에서 사용하는 PSIP(Program and System Information Protocol) 의 TVCT(Terrestrial Virtual Channel Table) 를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력하는 방법을 설명하는 동작 흐름도이다.
도 20 는 ATSC 방식의 디지털 방송에서 PSIP 의 PMT(Program Map Table) 를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력하는 방법을 설명하는 동작 흐름도이다.
도 21 은 ATSC 방식의 디지털 방송에서 PSIP 의 EIT(Event Information Table) 를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력하는 방법을 설명하는 동작 흐름도이다.
도 22 은 도 21 의 방법을 이용하여 방송 프로그램의 3D 방송 여부를 알려주는 EPG(Electronic Program Guide) 를 구성하는 일 예를 나타낸 것이다.
도 23 는 DVB 방식의 디지털 방송에서 PSI(Program Specific Information) 의 PMT(Program Map Table) 를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력하는 방법을 설명하는 동작 흐름도이다.
도 24 는 DVB 방식의 디지털 방송에서 SI(Service Information)의 SDT(Service Description Table)를 통해 EVV 스트림에 대한 정보를 제공하는 방법 중에서, 특히 컴포넌트 태그(component tag)를 이용하여 EVV 스트림에 대한 정보를 제공하는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력하는 방법을 설명하는 동작 흐름도이다.
도 25 는 DVB 방식의 디지털 방송에서 SI(Service Information)의 EIT(Event Information Table)를 통해 EVV 스트림에 대한 정보를 제공하는 방법 중에서, 특히 컴포넌트 태그(component tag)를 이용하여 EVV 스트림에 대한 정보를 제공하는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력하는 방법을 설명하는 동작 흐름도이다.
발명의 실시를 위한 형태
3-D 또는 3D 라는 용어는 깊이의 착시 효과를 갖는 3차원의 동영상을 재생하려고 하는 시각적 표현 또는 표시 기술을 설명하는데 사용된다. 좌안의 영상과 우안의 영상에 대해, 관찰자의 시각 피질(visual cortex)은 두 영상을 하나의 3차원 영상으로 해석한다.
3차원(3D) 표시 기술은 3D 영상 표시가 가능한 장치에 대해 3D 영상 처리 및 표현의 기술을 채용한다. 선택적으로는, 3D 영상 표시가 가능한 장치는 관찰자에게 3차원 영상을 효과적으로 제공하기 위해 특수한 관찰장치를 사용해야 할 수 있다.
3D 영상 처리 및 표현의 예로는 스테레오스코픽 영상/비디오 캡처, 다수의 카메라를 이용한 다시점 영상/비디오 캡처, 이차원 영상과 깊이 정보의 처리 등이 있다. 3D 영상 표시가 가능한 표시 장치의 예로는, 3D 표시 기술을 지원하는 적절한 하드웨어 및/또는 소프트웨어를 구비한 LCD(Liquid Crystal Display), 디지털 TV 화면, 컴퓨터 모니터 등이 있다. 특수한 관찰장치의 예로는, 특수화 안경, 고글, 헤드기어, 안경류(eyewear) 등이 있다.
구체적으로, 3D 영상 표시기술은, 애너글리프(anaglyph) 입체영상(통상적으로 수동형 적청 안경을 함께 사용), 편광 입체영상(통상적으로 수동형 편광 안경과 함께 사용), 프레임-교대 시퀀싱(alternate-frame sequencing)(통상적으로 능동형 셔터 안경/헤드기어와 함께 사용), 렌티큘러(lenticular) 또는 배리어(barrier) 스크린을 사용한 오토스테레오스코픽 디스플레이(autostereoscopic display) 등이 있다. 이하에서 설명하는 다양한 사상 및 특징은 이러한 입체영상 표시기술에 적용가능하다.
어떠한 3D 영상 표시기술은 회전하거나 교대로 동작하는 광학장치, 예를 들면 컬러필터 휠(wheel)에 부착된 분할 편광기(segmented polarizer)를 사용할 수 있으며, 이때는 서로 간에 동기화가 요구된다. 다른 3D 영상 표시기술은, 표시할 영상의 픽셀과 대응하는 사각형 배열로 배치된, 회전가능한 마이크로스코픽 미러(micorscopic mirror)를 사용하는 디지털 미소 반사 표시기(digital micromirror device; DMD)에 기반한 디지털 광처리기(digital light processor; DLP)를 이용할 수 있다.
한편, 입체영상의 렌더링(rendering) 및 표시 기술(특히, 3D TV)와 관련된 새로운 유형의 표준이, 현재 다양한 기업, 컨소시엄, 및 기구에서 개발되고 있으며, 그 예로는 SMPTE(the Society of Motion Picture and Television Engineers), CEA(Consumer Electronics Association), 3d@Home 컨소시엄, ITU(International Telecommunication Union) 등이 있다. 이외에도, DVB, BDA, ARIB, ATSC, DVD 포럼, IEC 등과 같은 다른 표준화 그룹들이 참여하고 있다. MPEG(Moving Picture Experts Group)은, 다시점 영상, 스테레오스코픽 영상, 및 깊이 정보를 갖는 이차원 영상의 3D 영상 코딩에 참여하고 있으며, 현재는 MPEG-4 AVC(advanced video coding) 에 대한 다시점 영상 코덱 익스텐션(Multiview Video Codec extension)이 표준화 진행 중이다. 스테레오스코픽 영상 코딩 및 스테레오스코픽 분배 포맷팅은 컬러 시프팅(anaglyph), 픽셀 서브 샘플링(pixel sub-sampling)(사이드 바이 사이드(side-by-side), 체커보드(checkerboard), 오점형(quincunx) 등), 및 인핸스드 비디오 코딩(enhanced video coding)(2D + 델타(Delta), 2D + 메타데이터(Metadata), 깊이정보를 갖는 2D)와 관련있다. 여기서 설명하는 사상 및 특징은 이러한 표준에 적용가능하다.
또한, 여기에 기재된 발명의 사상 및 특징 중 적어도 일부는, 디지털 영상 또는 3D TV 에 대한 영상 재생 및 표시 환경의 면에서 설명되는 3D 영상 표시기술과 관련 있다. 그러나, 그 세부내용은 여기에서 설명되는 다양한 특징을 한정하기 위한 것이 아니며, 다른 유형의 표시 기술 및 장치에 적용가능하다. 예를 들면, 3D TV 기술은 TV 방송 뿐만 아니라 블루레이(Blu-rayTM), 콘솔(console) 게임, 케이블, 및 IPTV 전송, 이동전화 컨텐츠 전달 등에도 적용될 수 있으며, 이러한 경우 다른 유형의 TV, 셋톱 박스, 블루레이 장치(예를 들면, BD(Blu-rayTM Disk) 플레이어), DVD 플레이어 및 TV 컨텐츠 분배기와 호환가능하여야 한다.
이하, 도면을 참조하여 본 발명에 대해서 상세히 설명한다. 도면 전체에 걸쳐 동일 도면부호는 동일 구성요소를 나타낸다.
입체영상의 형성을 위해서 좌 영상과 우 영상이 전송되는 때, 각 영상은 초당 60회 이상의 프레임이 전송되게 된다. 즉, 총 120 Hz 이상의 속도로 화면에 표시될 때 깜박거림(flickering)이 없는 입체영상을 구현할 수 있다.
이때, 좌 영상과 우 영상이 전송되는 방식에는, 프레임 시퀀셜(Frame Sequential) 방식, 사이드 바이 사이드(Side by Side) 방식, 탑-다운(Top-down) 방식, 및 체커 보드(Checker board) 방식 등이 있다.
프레임 시퀀셜(Frame Sequential) 방식은, 도 1(a) 에서 볼 수 있는 바와 같이 좌 영상과 우 영상을 각각 하나의 프레임으로 하여 순차로 번갈아 위치시키는 방법이다.
사이드 바이 사이드(Side by Side) 방식은 도 1(b) 에서 볼 수 있는 바와 같이 좌 영상과 우 영상을 각각 수평 방향으로 1/2 서브 샘플링(sub sampling)하고, 샘플링한 좌 영상과 우 영상을 각각 좌측과 우측에 위치시키는 방법이다.
그리고, 탑-다운(Top-down) 방식은 도 1(c) 에서 볼 수 있는 바와 같이 좌 영상과 우 영상을 각각 수직 방향으로 1/2 서브 샘플링(sub sampling)하고, 샘플링한 좌 영상과 우 영상을 각각 상부와 하부에 위치시키는 방법이다.
한편, 체커보드(Checker board) 방식은 도 1(d) 에서 볼 수 있는 바와 같이 좌 영상과 우 영상을 각각 수직 및 수평 방향으로 1/2 서브 샘플링(sub sampling)하고, 샘플링한 좌 영상의 화소와 우 영상의 화소를 한 화소씩 교대로 위치시키는 방법이다.
본 발명은, 디지털 방송에서 입체영상 디스플레이를 지원하기 위해 입체영상을 형성하는데 사용되는 각 영상에 대한 정보를 제공하는 입체영상 서비스 디스크립터(Descriptor)를 제안하고, 더 나아가 상기 입체영상 서비스 디스크립터의 신택스(syntax) 및 그 필드의 구성을 제안한다.
그리고, 본 발명에서는 이러한 입체영상 서비스 디스크립터(Descriptor)를 효과적으로 처리하기 위한 디지털 방송 수신방법 및 장치를 제안한다.
앞서 설명한 스테레오스코픽 방식의 입체영상 구현을 위해 전송되는 비디오 스트림은 좌/우 시점의 영상 시퀀스(Left/Right View Image Sequence)를 코딩한 데이터를 포함한다.
이때, 두 영상 중 하나가 기준시점(Base View) 비디오가 되며, 이 기준시점 비디오에 대한 신호(signalling) 정보의 획득 및 디코딩 처리 과정은 기존의 방식과 동일하게 할 수 있다.
즉, 기존의 디지털 방송 규격에서 사용하는 PSI(Program Specific Information)의 PAT(Program Association Table), PMT(Program Map Table) 등을 이용하거나, 또는 ATSC(Advanced Television Systems Committee) 방식에서 사용하는 TVCT(Terrestrial Virtual Channel Table) 등을 이용함으로써, 본 발명의 기준시점 비디오 스트림(Base View Video Stream)에 대한 정보를 획득하고 디코딩할 수 있다.
한편, 본 발명에서 확장시점(Extended view)이라는 것은, 상술한 기준시점(Base view) 이외의 다른 시점을 의미하는 것이다. 본 발명에서는, 두 시점의 비디오 스트림 중에서 기준시점을 제외한 다른 시점의 비디오 스트림을 말한다.
본 발명은, 이러한 확장시점에서의 비디오 신호 즉, 확장시점 비디오 스트림(Extended View Video Stream)에 대한 신호(signalling) 정보를 획득하고 처리하는 방법 및 장치를 제안한다. 또한, 확장시점 비디오 스트림에 대한 정보를 제공하는 방법으로서 확장시점 디스크립터(Extended View Discriptor)를 이용한다.
이하에서는, 본 발명에 따른 EV 디스크립터의 구성을 도면을 참조하여 자세히 설명한다. 또한, 각 디지털 방송 방식에서 본 발명의 EV 디스크립터를 제공하는 다양한 방법에 대해서 설명한다.
현재, 디지털 방송의 방식은 크게 ATSC(Advanced Television Systems Committee) 방식과 DVB(Digital Video Broadcasting) 방식으로 구분할 수 있다. ATSC 방식은 북미지역에서의 디지털 방송에 주로 사용되고 있으며, DVB 방식은 유럽지역에서 주로 사용되고 있다.
도 2 및 도 3 은, EVV 스트림에 대한 정보를 ATSC 방식의 디지털 방송에서 사용하는 PSIP(Program and System Information Protocol)의 TVCT(Terrestrial Virtual Channel Table)를 통해 제공하는 경우를 나타내는 도면이다.
도 2 는 이 때의 본 발명의 EV 디스크립터를 구성하는 일 예를 나타내고 있으며, 도 3 는 이 때의 TVCT 를 구성하는 일 예를 나타낸 것이다.
모든 영상은 카메라에 의해 촬영되므로, 각 카메라로부터 촬영되는 비디오 스트림은 해당 카메라의 위치 관계를 설정하는 필드 값을 동일하게 갖게 된다.
본 발명에서 카메라의 위치 관계를 설정하기 위해 사용하는 필드로서, "one_dimension_camera_setting_flag", "left_right_pos", "up_down_pos", "view_position_hor", 및 "view_position_ver" 의 5가지 필드를 사용하고 있다.
이하, 도 2 에 도시된 본 발명의 EV 디스크립터를 구성하는 각 필드를 설명한다. 본 발명의 간명한 설명을 위해 신택스를 구성하는 필드의 영어 표현을 그대로 사용하되 큰 따옴표를 이용해 구분한다.
"descriptor_tag" 는 상기 디스크립터를 식별하는 필드로서, 8 비트의 값을 갖는다.
"descriptor_length" 는 다음에 오는 필드의 전체 길이를 바이트 수로 나타내며, 8 비트의 값을 갖는다.
"reserved" 는 시스템에서 현재는 사용하지 않는 필드이나 미래에 사용될 가능성이 있는 필드로서, 새로운 정의가 만들어지기 까지 0 인 값으로 비트 수에 따라 채워진다.
"PCR_PID" 는 프로그램의 타이밍 정보를 포함하는 패킷의 PID(Packet Identifier) 를 나타내며, 13 비트의 값을 갖는다.
"number_of_extended_views" 는 EVV 스트림의 개수를 나타내며, 10 비트의 값을 갖는다. 스테레오스코픽 영상(Stereoscopic Video)인 경우는 이 값이 적어도 하나 이상이 된다. 즉, 스테레오스코픽 영상인 경우에는, 기준시점 비디오 스트림 외에 1개의 EVV 스트림을 이용하는 경우이므로 EVV 스트림의 개수는 적어도 1개 이상 이다.
"one_dimension_camera_setting_flag" 는 카메라의 배열 유형을 나타내며, 1 비트의 값을 갖는다. 이 필드의 값이 '1' 인 경우 카메라 배열이 1차원의 수평 배열임을 의미하며, 이 값이 '0' 일 때는 카메라 배열이 2차원의 수직/수평 배열로 이루어져 있음을 의미한다.
"stream_type" 은 엘러멘터리 스트림(elementary stream)의 타입을 나타내며, 8 비트의 값을 갖는다. 예를 들면, "stream_type" 의 값이 0x20 이라면, 해당 엘러멘터리 스트림은 MVC(Multiview Video Codec) 로 코딩된 것임을 알 수 있다.
"elementary_PID" 는 엘러멘터리 스트림(elementary stream)의 PID(Packet Identifier) 를 포함하고 있으며, 13 비트의 값을 갖는다.
"left_right_pos" 는 EVV 스트림의 위치가 기준시점(Base view)의 카메라를 기준으로 해서 우측 방향인지 좌측 방향인지를 나타내며, 2 비트의 값을 갖는다. 이 필드는 해당 카메라가 기준시점의 카메라를 기준으로 좌측 방향에 위치하는지, 아니면 우측 방향으로 위치하는지를 지시한다.
해당 카메라의 위치가 수평축 방향으로 기준시점(Base View)의 카메라와 동일한 위치일 때는 이 값이 '0' 이다. 또한, 카메라의 위치가 기준시점의 카메라 보다 좌측 방향에 위치해 있는 경우 이 값이 '1' 이며, 기준시점의 카메라 보다 우측 방향에 위치해 있는 경우 '2' 의 값을 갖는다. 본 발명에서, "left_right_pos" 의 값이 '2' 인 때에는 해당 확장시점 비디오 스트림은 우측 비디오 평면(Right video plane)으로 출력한다. 그리고, 기준시점 비디오 스트림은 좌측 비디오 평면(left video plane)으로 출력하게 된다.
"view_position_hor" 는 EVV 스트림의 위치가 기준시점을 기준으로 하여 수평 방향으로 좌측 또는 우측 몇 번째 카메라에서 촬영됐는지, 또는 몇 번째 다시점 평면(Multi-view Plane)에 출력해야 하는지를 나타내며, 6 비트의 값을 갖는다.
스테레오스코픽 영상의 경우에는, 좌 비디오 스트림 및 우 비디오 스트림의 2개 비디오 스트림만을 사용하므로 이 필드를 사용할 필요가 없게 된다. 또한, 앞서 설명한 "left_right_pos" 의 필드 값이 '0' 인 경우에는, 해당 카메라의 위치가 기준시점의 카메라와 수평축 상으로 동일한 위치에 있는 것이므로, 이 필드의 값은 의미가 없다.
"up_down_pos" 는 EVV 스트림의 위치가 기준시점의 카메라를 기준으로 하여 상측 방향에 위치한 것인지, 아니면 하측 방향에 위치한 것인지를 나타내며, 2 비트의 값을 갖는다. 이때, 해당 카메라가 수직축 방향으로 기준시점(Base view)의 카메라와 동일한 위치일 때는 이 값이 '0' 이다. 또한, EVV 스트림이 상측 시점일 때는 "up_down_pos" 의 값이 '1' 이며, EVV 스트림이 하측 시점일 때는 "up_down_pos" 의 값은 '2' 의 값을 갖는다.
"view_position_ver" 는 EVV 스트림의 위치가 기준시점을 기준으로 하여 수직 방향으로 상측 또는 하측 몇 번째 카메라에서 촬영됐는지, 또는 몇 번째 다시점 평면(Multi-view Plane)에 출력해야 하는지를 나타내며, 6 비트의 값을 갖는다. 따라서, 좌 비디오 스트림 및 우 비디오 스트림의 2개 비디오 스트림만을 사용하는 스테레오스코픽 영상인 경우에는, 이 필드의 값은 사용할 필요가 없게 된다.
또한, 앞서 설명한 "up_donw_pos" 의 필드 값이 '0' 인 경우에는, 해당 카메라의 위치가 기준시점의 카메라와 수직축 상으로 동일한 위치에 있는 것이므로, 이 필드의 값은 의미가 없다.
이상과 같이, 본 발명에 따른 EV 디스크립터는 "left_right_pos" 와 "up_down_pos", 및 "view_position_hor" 와 "view_position_ver" 의 필드를 이용하여, 해당 EVV 스트림을 촬영한 카메라의 위치 또는 출력해야 할 비디오 평면(Video plane)을 정확하게 지정할 수 있다.
다음에서는, 도 4 및 도 5 를 참조하여 상술한 본 발명의 EV 디스크립터의 주요 필드 값이 설정되는 방법을 좀더 상세히 설명한다.
도 4 는, 카메라가 1차원 배열을 이루고 있는 경우 본 발명에 따라서 설정된 각 필드의 값을 나타낸다. 도 5 는, 카메라가 2차원 배열을 이루고 있는 경우 본 발명에 따라서 설정된 각 필드의 값을 나타낸다.
도 4 에서 기준시점의 카메라는 카메라 1 이며, 이때 기준시점의 카메라로부터의 비디오 스트림은 MPEG-4 AVC/H.264 의 코덱으로 코딩된다. 그리고, 기준시점의 카메라에서 촬영된 비디오 스트림에 대한 각 필드의 값은 모두 '0' 이다.
한편, 기준시점인 카메라 1 을 제외한, 카메라 0, 카메라 2, 및 카메라 3 에서 촬영된 비디오 스트림은 EVV 스트림을 구성하게 되며, 모두 MVC(Multiview Video Codec)로 코딩된다. 이때, 기준시점인 카메라 1 의 좌측 방향으로 첫번째에 위치한 카메라 0 에 설정되는 필드 값은, "left_right_pos" = 1 (좌측 방향), "view_position_hor" = 0 (첫번째 위치) 가 된다.
한편, 기준시점인 카메라 1 의 우측 방향으로 첫번째에 위치한 카메라 2 에 설정되는 필드 값은, "left_right_pos" = 2 (우측 방향), "view_position_hor" = 0 (첫번째 위치) 이 된다. 그리고, 기준시점인 카메라 1 의 우측 방향으로 두번째에 위치한 카메라 3 에 설정되는 필드 값은, "left_right_pos" = 2 (우측 방향), "view_position_hor" = 1 (두번째 위치) 가 된다.
이러한 방법에 의해, 본 발명은 1차원 배열을 갖는 카메라 각각에 대해 위치 정보를 설정해 줌으로써, 각 카메라에서 생성되는 EVV 스트림에 대해 적절한 위치 관계 정보를 설정할 수 있게 된다.
다음, 도 5 를 참조하여 카메라가 2차원 배열을 이루고 있는 경우, 본 발명의 방법에 따라서 주요 필드 값이 설정되는 방식에 대해서 설명한다. 도 5 에서, 카메라 3 ∼ 카메라 5 의 위치는 카메라 0 ∼ 카메라 2 의 후방에 위치하는 것이 아니라, 카메라 0 ∼ 카메라 2 의 하방에 위치하는 것임을 유의한다.
도 5 에서 기준시점의 카메라는 카메라 1 이며, 이때 기준시점의 카메라로부터 생성되는 비디오 스트림은 MPEG-4 AVC/H.264 으로 코딩된다. 그리고, 기준시점의 카메라에서 촬영된 비디오 스트림에 대한 각 필드 값은 모두 '0' 이 된다.
한편, 기준시점인 카메라 1 을 제외한, 카메라 0, 카메라 2 ∼ 카메라 5 에서 촬영된 비디오 스트림은 EVV 스트림을 구성하게 되고, 모두 MVC 로 코딩된다.
기준시점인 카메라 1 의 좌측 하단에 위치한 카메라 3 에 설정되는 각 필드 값은, "left_right_pos" = 1 (좌측 방향), "view_position_hor" = 0 (첫번째 위치), "up_down_pos" = 2 (하측 방향) 및 "view_position_ver" = 0 (첫번째 위치)가 된다.
또한, 기준시점인 카메라 1 의 바로 아래 쪽에 위치한 카메라 4 에 설정되는 각 필드 값은, "left_right_pos" = 0 (기준시점), "up_down_pos" = 2 (하측 방향) 및 "view_position_ver" = 0 (첫번째 위치)가 된다.
그리고, 기준시점인 카메라 1 의 우측 하단에 위치한 카메라 5 에 설정되는 각 필드 값은, "left_right_pos" = 2 (우측 방향), "view_position_hor" = 0 (첫번째 위치), "up_down_pos" = 2 (하측 방향) 및 "view_position_ver" = 0 (첫번째 위치)가 된다.
이러한 방법에 의해, 본 발명은 2차원 배열을 갖는 카메라 각각에 대해 위치 정보를 설정해 줌으로써, 각 카메라에서 생성되는 EVV 스트림에 대해 적절한 위치 관계 정보를 설정할 수 있게 된다.
한편, 본 실시예에서는 EV 디스크립터에 확장시점 비디오 스트림에 대한 정보만이 포함되는 것으로 설명하고 있으나, 기준시점 비디오 스트림에 대한 정보를 본 발명의 EV 디스크립터에 함께 포함시키는 것도 가능하다.
즉, 기준시점의 카메라가 촬영한 기준시점 비디오 스트림을 기존의 방식으로 처리하는 대신에, 기준시점 비디오 스트림에 대한 정보도 EVV 스트림에 대한 정보와 함께 EV 디스크립터에 포함시켜 처리할 수 있다.
이 경우, EV 디스크립터의 구성은 도 2 의 EV 디스크립터와 거의 동일하며, 다만 도 2 의 "number_of_extended_views" 필드를 "number_of_views" 로 변경함으로써, 기준시점 비디오 스트림을 EVV 스트림과 통합시키게 된다. 또한, 변수 i = 0 인 경우에, 기준시점 비디오 스트림에 대한 정보를 나타내는 것으로 설정할 수 있다. 이와 같이, 기준시점 비디오 스트림에 대한 정보를 본 발명의 EV 디스크립터에 함께 포함시킨 구성을 나타낸 것이 도 6 이다.
이때, 기준시점 비디오 스트림에 대한 위치 관계를 설정하는 모든 필드값은 모두 '0' 이 된다. 다시 말하면, "left_right_pos" = 0, "view_position_hor" = 0, "up_down_pos" = 0 및 "view_position_ver" = 0 으로 설정된다.
다음, 도 3 은 도 2 의 본 발명의 EV 디스크립터를 포함하는 TVCT 를 구성하는 일 예를 나타낸 것이다. 이하, 도 3 에 도시된 TVCT 의 각 필드를 설명한다.
"table_id" 는 해당 섹션이 속해 있는 테이블을 나타내며, 8 비트의 값을 갖는다.
"section_syntax_indicator" 는 해당 섹션이 MPEG-2 시스템 규격의 PSI(Program Specific Information) 에 호환됨을 나타내며, 1 비트의 값을 갖는다.
"private_indicator" 는 해당 테이블이 MPEG-2 의 프라이빗(private) 테이블임을 나타낸다.
"reserved" 는 시스템에서 현재는 사용하지 않는 필드이나 미래에 사용될 가능성이 있는 필드로서, 새로운 정의가 만들어지기 까지 0 인 값으로 비트 수에 따라 채워진다.
"section_length" 는 해당 필드의 뒤에 계속해서 나오는 테이블의 길이를 바이트(byte) 단위로 표시하며, 12 비트의 값을 갖는다.
"transport_stream_id" 는 네트워크 상에서 여러 개의 다중화기가 존재할 경우 각각의 출력에 해당하는 트랜스포트 스트림을 구분하기 위한 것이며, 16 비트의 값을 갖는다.
"version_number" 는 해당 테이블이 만들어질 때의 버전을 나타내며, 테이블의 내용이 변경될 때마다 버전 넘버(version number)를 증가시키며 사용하고, 5 비트의 값을 갖는다.
"current_next_indicator" 는 해당 테이블의 내용이 현재 적용할 내용인지 다음 번에 적용할 내용인지를 표시하며, 1비트의 값을 갖는다.
"section_number" 는 해당 섹션의 번호를 나타내며, 8 비트의 값을 갖는다.
"last_section_number" 는 현재 테이블의 마지막 섹션의 "section_number" 를 나타내며, 8 비트의 값을 갖는다.
"protocol_version" 은 현재 정의되어 사용되고 있는 프로토콜의 버전을 나타내며, 8 비트의 값을 갖는다.
"num_channels_in_section" 은 TVCT 섹션 내에 존재하는 전체 가상채널(virtual channel)의 개수를 지정하며, 8 비트의 값을 갖는다.
"short name" 은 유니코드(UNICODE)로 부호화된 7개의 16 비트 캐릭터 코드(character code)로서, 가상 채널의 이름을 나타낸다.
"major_channel_number" 는 가상 채널과 관련된 주채널 번호(major channel number) 를 나타내며, 해당 가상 채널에 대한 사용자 참조번호(reference number)로 사용되고, 10 비트의 값을 갖는다.
"minor_channel_number" 는 "major_channel_number" 와 함께 사용되어 두 부분의 채널 넘버로 사용되고, 10 비트의 값을 갖는다.
"modulation_mode" 는 해당 가상 채널의 전송 반송파(carrier)에 대한 변조방식을 나타내며, 8 비트의 값을 갖는다.
"carrier_frequency" 는 가상 채널의 아날로그/디지털 전송에 관련된 반송파 주파수를 나타내며, 32 비트의 값을 갖는다.
"channel_TSID" 는 가상 채널의 기준이 되는 MPEG-2 트랜스포트 스트림에 연결된 MPEG-2 트랜스포트 스트림의 아이디(ID) 값을 지정하며, 16 비트의 값을 갖는다.
"program_number" 는 MPEG-2 시스템의 PAT(Program Association Table) 와 PMT(Program Map Table) 에 정의 되어 있는 프로그램 넘버를 가상 채널과 연결하기 위한 것이며, 16 비트의 값을 갖는다.
"ETM_location" 은 ETT(Event Text Table) 가 전송되는 현 채널 또는 다른 위치에 존재함을 나타내며, 2 비트의 값을 갖는다.
"access_controlled" 는 해당 가상 채널에 연결된 이벤트의 액세스가 제한되는지를 나타내며, 1 비트의 값을 갖는다.
"hidden" 은 해당 가상채널로의 직접 액세스가 가능한지를 나타내며, 1 비트의 값을 갖는다.
"service_type" 은 해당 가상 채널에 실리는 서비스의 유형이 아날로그, ATSC DTV(Digital Television)/오디오/데이터 인지를 구분하며, 6 비트의 값을 갖는다.
"source_id" 는 해당 가상 채널에 연결된 프로그래밍 소스(programming source)를 나타내며, 16 비트의 값을 갖는다. 여기서, 소스(source)란 비디오, 텍스트, 데이터, 또는 오디오와 같은 하나의 특정 소스를 지칭한다.
"descriptors_length" 는 해당 가상 채널의 디스크립터의 전체 길이를 나타내며, 10 비트의 값을 갖는다.
"additional_descriptors_length" 는 현재의 필드 뒤에 계속되는 모든 TVCT 디스크립터의 전체 길이를 나타내며, 10 비트의 값을 갖는다.
"CRC_32" 는 전체 섹션이 완료된 MPEG-2 시스템 규격에서 사용하고 있는 CRC(cyclic redundancy check) 코드의 값을 표시하며, 32 비트의 값을 갖는다. 이러한 CRC 코드를 점검함으로써 전송된 섹션의 에러 발생 유무를 발견해 낼 수 있다.
이상의 방식으로, 본 발명은 고정된 가상채널을 사용하는 ATSC 방식의 디지털 방송에서, PSIP(Program and System Information Protocol)의 TVCT(Terrestrial Virtual Channel Table)를 통해 각 가상채널에서의 EVV 스트림에 대한 정보를 제공할 수 있다.
한편, 이때의 본 발명의 EV 디스크립터는 기존에 정의되어 있는 컴포넌트 리스트 디스크립터(Component List Descriptor) 로 대체하여 사용하는 것도 가능하다.
도 7 은, 본 발명의 EV 디스크립터에 대신하여, 컴포넌트 리스트 디스크립터(Component List Descriptor)를 통해 EVV 스트림에 대한 정보를 제공하는 경우, 상기 컴포넌트 리스트 디스크립터의 구성을 나타낸 것이다.
컴포넌트 리스트 디스크립터(Component List Descriptor)는 ATSC(Advanced Television Systems Committee) 방식의 디지털 방송에서 확장성을 향상시키기 위해 정의해 놓은 것으로서, PSIP 내의 TVCT(Terrestrial Virtual Channel Table) 에 위치한다.
이하, 도 7 에 도시된 컴포넌트 리스트 디스크립터(Component List Descriptor)의 각 필드를 설명하되, 앞서 설명한 필드와 중복되는 필드에 대한 설명은 생략한다.
"alternate" 는 컴포넌트 리스트 디스크립터가 해당 가상채널과 관련된 스트림의 부차적인 기술(alternate description)인지를 나타내며, 1 비트의 값을 갖는다.
"component_count" 는 컴포넌트의 개수를 나타내며, 7 비트의 값을 갖는다. EVV 스트림이 여러 개인 경우에는 이 필드를 이용해 EVV 스트림의 개수를 나타낼 수 있다.
"stream_type" 은 엘러멘터리 스트림의 타입(type)을 나타내며, 8 비트의 값을 갖는다. 해당 EVV 스트림이 MVC(Multiview Video Codec)로 코딩된 경우, 비디오 스트림의 타입을 나타내는 "stream_type" 의 값은 0x20 으로 설정된다.
"format_identifier" 는 "stream_type" 값을 제공하는 엔티티(entity)를 확인하며, 32 비트의 값을 갖는다.
"length_of_details" 는 이후에 나올 "stream_info_details" 필드의 길이를 바이트 단위로 나타내며, 8 비트의 값을 갖는다.
"elementary_PID" 는 엘러멘터리 스트림의 PID(Packet Identifier) 를 포함하고 있으며, 13 비트의 값을 갖는다. 서로 다른 EVV 스트림을 각각 구분하기 위해서 사용한다.
이와 같은 방식을 통해, 본 발명은 EV 디스크립터라는 신규의 디스크립터를 사용하지 않고, 기존에 이미 정의되어 있는 컴포넌트 리스트 디스크립터(Component List Descriptor)를 사용하여 EVV 스트림에 대한 정보를 제공할 수도 있다.
이와 같이, 컴포넌트 리스트 디스크립터(Component List Descriptor)를 사용하는 경우, 디지털 방송에 적용되는 코덱의 변경에도 용이하게 대응할 수 있다.
도 8 및 도 9 는, EVV 스트림에 대한 정보를 ATSC 방식의 디지털 방송에서 사용하는 PSIP(Program and System Information Protocol)의 EIT(Event Information Table)를 통해 제공하는 경우를 나타내는 도면이다.
도 8 은 이 때의 본 발명의 EV 디스크립터를 구성하는 일 예를 나타낸 것이며, 도 9 는 도 8 의 EV 디스크립터를 포함하는 EIT 를 구성하는 일 예를 나타낸 것이다.
도 8 에 도시된 EV 디스크립터의 구성은 도 2 와 거의 동일하므로, 각 필드에 대한 설명은 생략한다. 도 8에서, "view_position_hor" 필드는, "number_of_extended_views" = 1 이거나 또는 "left_right_pos" = 0 인 경우에는 "reserved" 필드로 대체될 수 있다. 또한, 도 8 의 "view_position_ver" 필드는, "number_of_extended_views" = 1 이거나 또는 "up_down_pos" = 0 인 경우에는 "reserved" 필드로 대체될 수 있다.
도 9 은 도 8 의 EV 디스크립터를 포함하는 EIT 를 구성하는 일 예를 나타낸 것이다. 이하, 도 9 에 도시된 EIT 의 각 필드를 설명하되, 앞서 설명한 필드와 중복되는 필드에 대한 설명은 생략한다.
"source_id" 는 해당 가상 채널에 연결된 프로그래밍 소스(programming source)를 나타내며, 16 비트의 값을 갖는다. 여기서, 소스(source)란 비디오, 텍스트, 데이터, 또는 오디오와 같은 하나의 특정 소스를 지칭한다.
"num_events_in_section" 은 EIT 섹션 내에 존재하는 이벤트의 개수를 나타내며, 8 비트의 값을 갖는다.
"event_id" 는 해당 이벤트를 나타내는 식별 번호이며, 14 비트의 값을 갖는다.
"start_time" 은 한 이벤트의 시작시간을 1980년 1월 6일 오전 12시 이후의 초 수로 나타내며, 32 비트의 값을 갖는다.
"length_in_seconds" 는 해당 이벤트의 길이를 초 단위로 나타내며, 20 비트의 값을 갖는다.
"title_length" 는 "title_text()" 의 길이를 바이트 수로 나타내며, 이 값이 '0' 이면 해당 이벤트에 타이틀이 없음을 의미하고, 8 비트의 값을 갖는다.
"title_text()" 는 다중 문자열 구조로 해당 이벤트의 제목을 표시한다.
이와 같은 방식으로, 본 발명은 ATSC 방식의 디지털 방송에서 사용하는 PSIP(Program and System Information Protocol)의 EIT(Event Information Table)를 통해서도 EVV 스트림에 대한 정보를 제공할 수 있다.
이상과 같이, PSIP(Program and System Information Protocol)의 EIT(Event Information Table)를 통해 EVV 스트림에 대한 정보를 제공하게 되면, 각 이벤트 별로 3D 방송 여부를 세밀하게 시그널링(signalling)하는 것이 가능해 진다. 따라서, 2D 방송 프로그램과 3D 방송 프로그램을 하나의 가상채널을 통해 융통성 있게 편성할 수 있다. 또한, EIT(Event Information Table)에 기반한 방송 프로그램 가이드의 제공 시에 이벤트 별로 3D 방송 여부 및 3D 관련 파라미터들을 추가적으로 제공할 수 있으므로, 사용자의 프로그램 선택에 도움을 줄 수 있다.
지금까지는, 북미지역에서 주로 사용되는 디지털 방송 방식인 ATSC 방식에서 본 발명의 EVV 스트림에 대한 정보를 제공하는 방법에 대해서 설명하였다. 다음에서는, 본 발명의 다른 실시예로서 유럽지역에서 주로 사용되는 디지털 방송 방식인 DVB(Digital Video Broadcasting) 방식에서 본 발명의 EVV 스트림에 대한 정보를 제공하는 방법에 대해서 설명한다.
도 10 은, EVV 스트림에 대한 정보를 DVB(Digital Video Broadcasting) 방식의 디지털 방송에서 사용하는 SI(Service Information)의 SDT(Service Description Table)를 통해 제공하는 경우, 본 발명의 EV 디스크립터를 구성하는 일 예를 나타낸 것이다.
한편, 도 11 은, 도 10 의 EV 디스크립터를 포함하는 SDT(Service Description Table)를 구성하는 일 예를 나타낸 것이다.
도 10 에 도시된 본 발명의 EV 디스크립터를 구성하는 각 필드는, 도 2 에서와 동일하므로 이에 대한 설명은 생략한다. 다만, 도 10 의 EV 디스크립터에서는, 고정된 가상채널을 사용하는 ATSC 방식에서의 도 2 와는 달리 "PCR_PID", "stream_type" 및 "elementary_PID" 필드가 포함되어 있지 않다.
도 11 은 도 10 의 EV 디스크립터를 포함하여 SDT 를 구성하는 일 예를 나타낸 것이다. 이하, 도 11 에 도시된 SDT 의 각 필드를 설명한다.
"table_id" 는 해당 섹션이 속해 있는 테이블을 나타내며, 8 비트의 값을 갖는다.
"section_syntax_indicator" 는 해당 섹션이 MPEG-2 시스템 규격의 PSI 에 호환됨을 나타내며, 1 비트의 값을 갖는다.
"reserved" 는 시스템에서 현재는 사용하지 않는 필드이나 미래에 사용될 가능성이 있는 필드로서, 새로운 정의가 만들어지기 까지 0 인 값으로 비트 수에 따라 채워진다.
"section_length" 는 해당 섹션의 길이를 나타내며, 12 비트의 값을 갖는다.
"transport_stream_id" 는 네트워크 상에서 여러 개의 다중화기가 존재할 경우 각각의 출력에 해당하는 트랜스포트 스트림을 구분하기 위한 것이며, 16 비트의 값을 갖는다.
"version_number" 는 앞서 전송한 서비스 정보나 프로그램 안내정보와는 다른 내용임을 알리기 위한 것으로서, 앞에서 사용했던 "version_number"를 순서대로 증가시키는 방식으로 사용되며, 5 비트의 값을 갖는다.
"current_next_indicator" 는 전송되는 내용이 바로 적용될 내용인지 또는 다음 번에 적용될 내용인지를 나타내며, 1 비트의 값을 갖는다.
"section_number" 는 해당 섹션의 번호를 나타내며, 8 비트의 값을 갖는다.
"last_section_number" 는 현재 테이블의 마지막 섹션의 "section_number" 를 나타내며, 8 비트의 값을 갖는다.
"original_network_id" 는 처음에 해당 트랜스포트 스트림을 전송하기 시작한 "network_id" 를 나타내며, 16 비트의 값을 갖는다. 여기서, "network_id" 는 전송되는 네트워크를 다른 네트워크와 구분하기 위해 사용하는 고유의 식별번호이다.
"service_id" 는 트랜스포트 스트림 내에서 해당 서비스를 다른 서비스와 구별하기 위한 번호이며, 16 비트의 값을 갖는다.
"EIT_schedule_flag" 는 해당 트랜스포트 스트림 내에 EIT(Event Information Table) 스케줄 정보가 존재하는지를 나타내며, 1 비트의 값을 갖는다.
"EIT_present_following_flag" 는 해당 트랜스포트 스트림 내에 EIT 의 현재(present) 와 다음(following) 정보가 존재하는지를 나타내며, 1 비트의 값을 갖는다.
"running_status" 는 서비스의 현재 상태를 나타내며, 3 비트의 값을 갖는다.
"free_CA_mode" 는 해당 서비스의 엘러멘터리 스트림이 스크램블되어 있는지를 나타내며, 1 비트의 값을 갖는다.
"descriptors_loop_length" 는 이후에 따라오는 디스크립터의 전체 길이를 나타내며, 12 비트의 값을 갖는다.
"CRC_32" 는 전체 섹션이 완료된 MPEG-2 시스템 규격에서 사용하고 있는 CRC 코드의 값을 표시하며, 32 비트의 값을 갖는다.
이와 같은 방식으로, 본 발명은 DVB(Digital Video Broadcasting) 방식의 디지털 방송에서 사용하는 SI(Service Information)의 SDT(Service Description Table)를 통해 EVV 스트림에 대한 정보를 제공할 수 있다.
그러나, 이와 같은 방식에서는, ATSC 방식에서 사용하는 PSIP 의 TVCT 를 이용하는 실시예인 도 2 및 도 3 에서와는 달리, EVV 스트림의 PID 정보를 제공하기 위해서 PSI(Program Specific Information)의 PMT(Program Map Table)에서도 EV 디스크립터 정보를 제공할 필요가 있다. 이와 같은 EV 디스크립터를 포함하는 PMT 의 구성 예를 나타낸 것이 도 12 이다.
도 12 는, 도 11 에서의 PMT(Program Map Table)를 구성하는 일 예를 나타낸 것이다.
도 12 에서, "extended_view_descriptorl" 디스크립터에는 EVV 스트림의 개수와 카메라 배열에 대한 정보가 포함되어 있고, "extended_view_descriptor2" 디스크립터에는 각 카메라의 위치 정보가 포함되어 있다.
이하, 도 12 에 도시된 PMT(Program Map Table) 의 각 필드에 대해 설명한다.
"table_id" 는 해당 섹션이 속해 있는 테이블을 나타내며, 8 비트의 값을 갖는다.
"section_syntax_indicator" 는 해당 섹션이 MPEG-2 시스템 규격의 PSI 에 호환됨을 나타내며, 1 비트의 값을 갖는다.
"section_length" 는 해당 섹션의 길이를 나타내며, 12 비트의 값을 갖는다.
"program number" 는 트랜스포트 스트림에서 "program_map_pid" 가 사용될 프로그램을 나타내며, 16 비트의 값을 갖는다. 참조로, "program_map_pid"는 "program number" 에 의해 지정된 프로그램에 적용될 수 있는 프로그램 맵 섹션(program map section) 을 포함하는 트랜스포트 스트림 패킷의 PID 를 나타낸다.
"vsrsion_number" 는 앞서 전송한 서비스 정보나 프로그램 안내정보와는 다른 내용임을 알리기 위한 것으로서, 앞에서 사용했던 "version_number"를 순차로 증가시키는 방식으로 사용되며, 5 비트의 값을 갖는다.
"current_next_indicator" 는 전송되는 내용이 바로 적용될 내용인지 또는 다음 번에 적용될 내용인지를 나타내며, 1 비트의 값을 갖는다.
"section_number" 는 해당 섹션의 번호를 나타내며, 8 비트의 값을 갖는다.
"last_section_number" 는 현재 테이블의 마지막 섹션의 "section_number" 를 나타내며, 8 비트의 값을 갖는다.
"PCR_PID" 는 프로그램의 타이밍 정보를 포함하는 패킷의 PID 를 포함하고 있으며, 13 비트의 값을 갖는다.
"program_info_length" 는 이어서 나올 "program_info descriptor" 의 크기를 나타내며, 12 비트의 값을 갖는다.
"stream_type" 은 엘러멘터리 스트림의 타입(type)을 나타내며, 8 비트의 값을 갖는다.
"elementary_PID" 는 엘러멘터리 스트림의 PID 를 포함하고 있으며, 13 비트의 값을 갖는다
"ES_info_length" 는 바로 이어서 나올 "ES_info descriptor" 의 크기를 나타내며, 12 비트의 값을 갖는다.
본 발명은, 앞에서 설명한 도 11 의 SDT(Service Description Table)에 포함된 EV 디스크립터 정보와, 도 12 의 PMT(Program Map Table) 에 포함되어 있는 EV2 디스크립터 정보를 통해 시점위치 정보(view_position)과 PID 정보를 연결하여(linking), 각 스트림의 PID 정보를 파악하게 된다. 이때, 시점위치 정보(view_position)로서는, 스테레오스코픽 영상인 경우 "left_right_pos" 필드를 사용할 수 있다.
이상에서 설명한 방법을 통해, 본 발명은 DVB(Digital Video Broadcasting) 방식의 디지털 방송에서 사용하는 SI(Service Information)의 SDT(Service Description Table)를 통해서 각 서비스 별로 EVV 스트림에 대한 정보를 제공할 수 있다.
한편, 본 발명의 다른 실시예로서, SI(Service Information)의 SDT(Service Description Table)를 통해 EVV 스트림에 대한 정보를 제공하는 경우, 컴포넌트 태그(component tag)를 이용할 수도 있다.
도 13 은, EVV 스트림에 대한 정보를 DVB(Digital Video Broadcasting) 방식의 디지털 방송에서 사용하는 SI(Service Information)의 SDT(Service Description Table)를 통해 제공하는 경우, 컴포넌트 태그(component tag)를 이용하여 본 발명의 EV 디스크립터를 구성하는 일 예를 나타낸 것이다.
한편, 도 14 는 도 13 의 EV 디스크립터를 포함하는 SDT(Service Description Table)를 구성하는 일 예를 나타낸 것이다.
도 13 및 도 14 는, 도 10 및 도 11 의 구성과 각각 유사하며, 다만 "component_tag" 필드를 포함하고 있다는 점에서만 차이가 있다. 따라서, 도 13 및 도 14 의 각 필드에 대한 설명은 생략한다.
여기서, "component_tag" 필드는 컴포넌트를 식별하기 위해 사용되는 필드로서 8 비트의 값을 가지며, PSI(Program Specific Information)의 PMT(Program Map Table) 에 위치하게 되는 스트림 식별자 디스크립터(stream_identifier_descriptor)의 "component_tag" 필드와 동일한 값을 갖도록 설정된다.
즉, 본 실시예에서는, SDT 에 위치하는 EV 디스크립터에 컴포넌트 태그(component tag)를 부여하고, 또한 PMT 에서 스트림 식별자 디스크립터(stream identifier descriptor)를 통해 동일한 값을 갖는 컴포넌트 태그(component tag) 를 부여하여 서로 매칭시킴으로써, 시점위치 정보(view_position)과 PID 정보를 연결시켜 각 스트림의 PID 정보를 파악하고 있다. 이때, 시점위치 정보(view_position)로서는, 스테레오스코픽 영상인 경우 "left_right_pos" 필드를 사용할 수 있다.
이러한 PMT(Program Map Table)의 구성을 나타낸 것이 도 15 이다. 도 15 에서 알 수 있는 바와 같이, 도 15 의 PMT 의 전체적인 구성은 기존의 디지털 방송 전송 시와 동일한 형태를 유지하나, 다만 스트림 식별자 디스크립터(stream identifier descriptor)를 통해 컴포넌트 태그(component tag)를 부여하고 있는 점에서 차이가 있다. 도 15 의 PMT 의 각 필드는 앞서 설명한 도 12 에서와 동일하므로, 이에 대한 설명은 생략한다.
이상에서와 같이, 본 발명은 SI(Service Information)의 SDT(Service Description Table)를 통해 EVV 스트림에 대한 정보를 제공하는 경우, 컴포넌트 태그(component tag)를 이용하여 EVV 스트림에 대한 정보를 제공할 수도 있다.
또한, 본 발명의 또다른 실시예로서, SI(Service Information)의 EIT(Event Information Table)를 통해 EVV 스트림에 대한 정보를 제공하는 경우, 컴포넌트 태그(component tag)를 이용할 수도 있다.
도 16 은, EVV 스트림에 대한 정보를 DVB(Digital Video Broadcasting) 방식의 디지털 방송에서 사용하는 SI(Service Information)의 EIT(Event Information Table)를 통해 제공하는 경우, 컴포넌트 태그(component tag)를 이용하여 본 발명의 EV 디스크립터를 구성한 일 예를 나타낸 것이다.
한편, 도 17 은 도 16 의 EV 디스크립터를 포함하는 EIT(Event Information Table)를 구성하는 일 예를 나타낸 것이다.
이때, "component_tag" 필드는 PSI(Program Specific Information)의 PMT(Program Map Table) 에 위치하는 스트림 식별자 디스크립터(stream_identifier_descriptor)의 "component_tag" 필드와 같은 값을 가지게 된다.
도 16 에 도시된 EV 디스크립터를 구성하는 각 필드는, 도 10 에서와 동일하므로 이에 대한 설명은 생략한다. 도 16 에서, "view_position_hor" 필드는, "number_of_extended_views" = 1 이거나 또는 "left_right_pos" = 0 인 경우에는 "reserved" 필드로 대체될 수 있다. 또한, 도 8 의 "view_position_ver" 필드는, "number_of_extended_views" = 1 이거나 또는 "up_down_pos" = 0 인 경우에는 "reserved" 필드로 대체될 수 있다.
다음, 도 17 은 도 16 의 EV 디스크립터를 포함하는 EIT(Event Information Table)를 구성하는 일 예를 나타낸 것이다. 이하, 도 17 에 도시된 EIT 의 각 필드를 설명한다.
"table_id" 는 해당 섹션이 속해 있는 테이블을 나타내며, 8 비트의 값을 갖는다.
"section_syntax_indicator" 는 해당 섹션이 MPEG-2 시스템 규격의 PSI 에 호환됨을 나타내며, 1 비트의 값을 갖는다.
"reserved_future_use" 및 "reserved" 는 시스템에서 현재는 사용하지 않는 필드이나 미래에 사용될 가능성이 있는 필드로서, 새로운 정의가 만들어지기 까지 0 인 값으로 비트 수에 따라 채워진다.
"section_length" 는 해당 섹션의 길이를 나타내며, 12 비트의 값을 갖는다.
"service_id" 는 트랜스포트 스트림 내에서 해당 서비스를 다른 서비스와 구별하기 위한 번호이며, 16 비트의 값을 갖는다.
"version_number" 는 앞서 전송한 서비스 정보나 프로그램 안내정보와는 다른 내용임을 알리기 위한 것으로서, 앞에서 사용했던 "version_number"를 순서대로 증가시키는 방식으로 사용되며, 5 비트의 값을 갖는다.
"current_next_indicator" 는 전송되는 내용이 바로 적용될 내용인지 또는 다음 번에 적용될 내용인지를 나타내며, 1 비트의 값을 갖는다.
"section_number" 는 해당 섹션의 번호를 나타내며, 8 비트의 값을 갖는다.
"last_section_number" 는 현재 테이블의 마지막 섹션의 "section_number" 를 나타내며, 8 비트의 값을 갖는다.
"transport_stream_id" 는 전송 시스템 안에서 다중화된 다른 트랜스포트 스트림과 구분하기 위하여 사용하는 고유 ID 번호이며, 16 비트의 값을 갖는다.
"original_network_id" 는 처음에 해당 트랜스포트 스트림을 전송하기 시작한 "network_id" 를 나타내며, 16 비트의 값을 갖는다. 여기서, "network_id" 는 전송되는 네트워크를 다른 네트워크와 구분하기 위해 사용하는 고유의 식별번호이다.
"segment_last_section_number" 는 현 서브테이블의 마지막 섹션의 "section_number" 를 나타내며, 8 비트의 값을 갖는다. 서브테이블이 세그먼트되어 있지 않을 경우, "last_section_number" 와 같은 값을 갖는다.
"last_table_id" 는 마지막으로 사용될 "table_id" 를 표시하며, 8 비트의 값을 갖는다.
"event_id" 는 해당 개별 이벤트를 구별하기 위한 번호이며, 16 비트의 값을 갖는다.
"start_time" 은 이벤트의 시작 시간을 UTC(Universal Time Co-ordinated)와 MJD(Modified Julian Date) 로 표시하며, 40 비트의 값을 갖는다.
"duration" 은 시분초의 시간을 4 비트의 BCD(Binary Coded Decimal) 로 표시하며, 24 비트의 값을 갖는다.
"running_status" 는 이벤트의 현재 상태를 표시하며, 3 비트의 값을 갖는다.
"free_CA_mode" 는 해당 서비스의 엘러멘터리 스트림이 스크램블되어 있는지를 나타내며, 1 비트의 값을 갖는다.
"descriptors_loop_length" 는 이후에 따라오는 디스크립터의 전체 길이를 나타내며, 12 비트의 값을 갖는다.
"CRC_32" 는 전체 섹션이 완료된 MPEG-2 시스템 규격에서 사용하고 있는 CRC 코드의 값을 표시하며, 32 비트의 값을 갖는다.
이와 같이, 본 실시예에서는 EIT 에 위치하는 EV 디스크립터에 컴포넌트 태그(component tag)를 부여하고, 또한 PMT 상에서 스트림 식별자 디스크립터(stream identifier descriptor)를 통해 동일한 값을 갖는 컴포넌트 태그(component tag) 를 부여하여 서로 매칭시킴으로써, 각 EVV 스트림의 PID 정보를 파악하게 된다.
이때의 PMT(Program Map Table)의 구성은 앞서 설명한 도 15 와 동일하며, 따라서 이에 대한 설명은 생략한다.
이상에서와 같이, 본 발명은 SI(Service Information)의 EIT(Event Information Table)를 통해 EVV 스트림에 대한 정보를 제공하는 경우, 컴포넌트 태그(component tag)를 이용하여 EVV 스트림에 대한 정보를 제공할 수도 있다.
상술한 바와 같이, SI(Service Information)의 EIT(Event Information Table)를 통해 EVV 스트림에 대한 정보를 제공하게 되면, 각 이벤트 별로 3D 방송 여부를 세밀하게 시그널링(signalling)하는 것이 가능해 지기 때문에, 2D 방송 프로그램과 3D 방송 프로그램을 하나의 가상채널을 통해 융통성 있게 편성할 수 있다. 또한, EIT(Event Information Table)에 기반한 방송 프로그램 가이드의 제공 시에 이벤트 별로 3D 방송 여부 및 3D 관련 파라미터들을 추가적으로 제공할 수 있다.
다음에서는, 도 18 을 참조하여 본 발명의 일 실시예에 따른 디지털 방송 수신장치의 구성 및 동작에 대해 설명한다. 도 18 은 본 발명의 일 실시예에 따른 디지털 방송 수신장치의 구성을 나타낸 블록 구성도이다.
도 18 에서 볼 수 있는 바와 같이, 본 발명의 디지털 방송 수신장치는 디지털 방송 신호를 수신하여 해당 신호를 검파하고 오류를 정정하여 트랜스포트 스트림(Trasport Stream)을 생성하는 튜너부(1800), 트랜스포트 스트림(Trasport Stream)에 대해 필터링 및 파싱(parsing)을 수행하는 역다중화부(1810), 역다중화부(1810)로부터 전달받은 테이블 정보로부터 EVV 스트림에 대한 PID(Packet Identifier) 정보 및 확장시점 비디오 정보(이하, 'EV 정보')를 추출하는 PSIP 또는 PSI/SI 프로세서(1820), 엘러멘터리 스트림에 대한 디코딩을 수행하는 A/V 디코더(1830), 및 PSIP 또는 PSI/SI 프로세서(1820)가 추출한 EV 정보에 기초하여, 디코딩된 EVV 스트림과 기준시점 비디오 스트림을 입체영상 디스플레이 출력에 맞게 포맷팅하는 출력 포맷팅부(1840)을 구비한다.
이하, 이상과 같이 구성되는 본 발명의 디지털 방송 수신장치의 동작에 대해 자세히 설명한다.
먼저, 튜너부(1800)는 디지털 방송 신호를 수신하여 복조를 수행한 후, 해당 신호를 검파하고 오류를 정정하여 트랜스포트 스트림을 생성한다. 일반적으로, 디지털 방송 신호에 의해 전송되는 영상 데이터는 MPEG(Moving Picture Experts Group) 시스템의 트랜스포트 스트림 형식으로 포맷되어 있다.
역다중화부(1810)는, 트랜스포트 스트림에 대해 재생을 원하는 패킷을 걸러내는 필터링(filtering)과 파싱(parsing) 처리를 수행하여 영상 정보 및 오디오 정보에 대한 엘러멘터리 스트림(Elementary Stream)을 생성한다.
한편, PSIP 또는 PSI/SI 프로세서(1820)는, 역다중화부(1810)로부터 PMT(Program Map Table), TVCT(Terrestrial Virtual Channel Table), SDT(Service Description Table), EIT(Event Information Table) 등의 테이블 정보를 전달받아 EVV 스트림에 대한 PID(Packet Identifier) 정보 및 EV 정보를 추출한다. 여기서, EV 정보는 EVV 스트림의 개수, 기준시점 비디오 스트림에 대한 EVV 스트림의 위치 관계 등을 포함한다.
A/V 디코더(1830)는 엘러멘터리 스트림에 대해 디코딩하여, EVV 스트림과 기준시점 비디오 스트림 등의 비디오 스트림을 생성한다. A/V 디코더(1830)에서는 오디오 정보에 대한 디코딩도 함께 이루어지게 되나, 본 발명의 간명한 설명을 위해 이에 대한 설명은 생략한다.
이후, 출력 포맷팅부(1840)는, PSIP 또는 PSI/SI 프로세서(1820)가 추출한 EV 정보에 기초하여, EVV 스트림과 기준시점 비디오 스트림을 스테레오스코픽 디스플레이 출력에 맞게 포맷팅한 후 전송한다.
이때, EVV 스트림과 기준시점 비디오 스트림을 스테레오스코픽 디스플레이 출력에 맞게 포맷팅하기 위해서, 출력 포맷팅부(1840)는 EVV 스트림의 시점위치 정보(view_position)을 이용한다. 스테레오스코픽 영상의 경우, 시점위치 정보(view_position)는 EVV 스트림의 "right_left_pos" 필드를 사용할 수 있다.
예를 들면, EVV 스트림의 "right_left_pos" 필드값이 1 인 경우, EVV 스트림의 시점위치는 기준시점 비디오 스트림의 좌측 방향에 위치해 있는 경우이므로 해당 EVV 스트림은 좌측 비디오 평면(left video plane)으로 출력하고, 기준시점 비디오 스트림은 우측 비디오 평면(right video plane)으로 출력되도록 포맷팅 한다.
한편, EVV 스트림의 "right_left_pos" 필드값이 2 인 경우, EVV 스트림의 시점위치는 기준시점 비디오 스트림의 우측 방향에 위치해 있는 경우이므로 해당 EVV 스트림은 우측 비디오 평면(Right video plane)으로 출력하고, 기준시점 비디오 스트림은 좌측 비디오 평면(left video plane)으로 출력되도록 포맷팅 한다.
이와 같은 본 발명의 디지털 방송 수신장치에 의하면, 디지털 방송에서 입체영상을 위한 신호를 확인 및 처리할 수 있어, 입체영상 디스플레이가 가능하다.
이하에서는, 도 19 내지 도 25 를 참조하여 본 발명의 디지털 방송 수신장치가 다양한 방식으로 제공되는 EVV 스트림에 대한 정보를 확인 및 처리하여, 입체영상 디스플레이 출력을 가능하게 하는 방법에 대해 설명한다.
도 19 는, ATSC 방식의 디지털 방송에서 사용하는 PSIP 의 TVCT 를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 입체영상을 출력하는 방법을 설명하는 동작 흐름도이다.
먼저, 튜너부(1800)에서 출력되는 트랜스포트 스트림에 대해 역다중화부(1810)가 테이블 정보를 포함하는 트랜스포트 스트림 패킷을 필터링한다(S1900). TVCT 를 포함하는 트랜스포트 스트림 패킷의 PID 는 그 값이 0x1FFB 로 설정되어 있다.
역다중화부(1810)는 테이블 아이디(table_id) 정보를 이용하여 섹션 데이터(section data)를 파싱함으로써, TVCT 를 획득한다(S1910).
PSIP 또는 PSI/SI 프로세서(1820)는, TVCT 의 "major_channel_number" 및 "minor_channel_number" 에 의해 설정된 가상 채널에 대해 EV 디스크립터를 파싱 및 저장한다(S1920).
또한, PSIP 또는 PSI/SI 프로세서(1820)는, TVCT 내의 서비스 로케이션 디스크립터(Service Location Descriptor)를 이용하여 기준시점 비디오 스트림에 대한 PID 정보를 획득한다(S1930).
그리고, PSIP 또는 PSI/SI 프로세서(1820)는, EV 디스크립터를 이용해 EVV 스트림에 대한 PID 정보 및 EV 정보를 획득한다(S1940).
다음, 역다중화부(1810)는 기준시점 비디오 스트림의 PID 정보를 이용해 기준시점 비디오 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S1950).
또한, 역다중화부(1810)는 EVV 스트림에 대한 PID 정보를 이용해 EVV 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S1960).
이후, 출력 포맷팅부(1840)는, EV 정보를 이용해 EVV 스트림과 기준시점 비디오 스트림을 스테레오스코픽 디스플레이 출력에 맞게 포맷팅한 후 전송한다(S1970).
이러한 방법을 통해, 본 발명의 디지털 방송 수신장치는, PSIP 의 TVCT 를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력할 수 있다.
다음, 도 20 는 ATSC 방식의 디지털 방송에서 PSIP 의 PMT(Program Map Table)를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력하는 방법을 설명하는 동작 흐름도이다.
먼저, 튜너부(1800)에서 출력되는 트랜스포트 스트림에 대해 역다중화부(1810)가 테이블 정보를 포함하는 트랜스포트 스트림 패킷을 필터링한다(S2000). PMT 를 포함하는 트랜스포트 스트림 패킷의 PID 는 그 값이 0x1FFB 로 설정되어 있다.
역다중화부(1810)는 테이블 아이디(table_id) 정보를 이용하여 섹션 데이터(section data)를 파싱함으로써, PMT 를 획득한다(S2010).
PSIP 또는 PSI/SI 프로세서(1820)는, PMT 내에서 프로그램에 대한 EV 디스크립터를 읽고 해당 프로그램에 대한 EV 정보를 획득한다(S2020).
또한, PSIP 또는 PSI/SI 프로세서(1820)는, PMT 의 EV 디스크립터를 읽는 과정에서 각 EVV 스트림에 대한 PID 정보를 획득한다(S2030).
그리고, PSIP 또는 PSI/SI 프로세서(1820)는, TVCT 를 읽어 PMT 에서 획득한 3D 프로그램에 해당하는 채널 정보를 획득한다(S2040).
다음, 역다중화부(1810)는 기준시점 비디오 스트림의 PID 정보를 이용해 기준시점 비디오 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S2050).
또한, 역다중화부(1810)는 EVV 스트림에 대한 PID 정보를 이용해 EVV 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S2060).
이후, 출력 포맷팅부(1840)는, EV 정보를 이용해 EVV 스트림과 기준시점 비디오 스트림을 스테레오스코픽 디스플레이 출력에 맞게 포맷팅한 후 전송한다(S2070).
이러한 방법을 통해, 본 발명의 디지털 방송 수신장치는, ATSC 방식의 디지털 방송에서 PSI(Program Specific Information) 의 PMT(Program Map Table) 를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력할 수 있다.
도 21 은 ATSC 방식의 디지털 방송에서 PSIP 의 EIT(Event Information Table) 를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력하는 방법을 설명하는 동작 흐름도이다.
먼저, 튜너부(1800)에서 출력되는 트랜스포트 스트림에 대해 역다중화부(1810)가 테이블 정보를 포함하는 트랜스포트 스트림 패킷을 필터링한다(S2100).
역다중화부(1810)는 테이블 아이디(table_id) 정보를 이용하여 섹션 데이터(section data)를 파싱함으로써, MGT(Master Guide Table) 및 TVCT 를 획득한다(S2110).
PSIP 또는 PSI/SI 프로세서(1820)는, MGT 로부터 EIT 가 포함된 트랜스포트 스트림의 PID 정보를 파악한다(S2120).
역다중화부(1810)는, PSIP 또는 PSI/SI 프로세서(1820)에 의해 파악된 EIT 의 PID 에 해당하는 트랜스포트 스트림 패킷을 필터링한다(S2130).
PSIP 또는 PSI/SI 프로세서(1820)는, EIT 내의 이벤트 별 EV 디스크립터를 이용해서 각 가상채널 별 이벤트의 EV 정보를 파악하여 저장한다(S2140).
또한, PSIP 또는 PSI/SI 프로세서(1820)는, TVCT 내의 서비스 로케이션 디스크립터(service location descriptor) 를 이용해 기준시점 비디오 스트림에 대한 PID 정보를 파악한다(S2150).
PSIP 또는 PSI/SI 프로세서(1820)는, EIT 로부터 획득한 EV 디스크립터를 이용해 EVV 스트림에 대한 PID 정보를 파악한다(S2160).
다음, 역다중화부(1810)는 파악된 기준시점 비디오 스트림의 PID 정보를 이용해 기준시점 비디오 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S2170).
또한, 역다중화부(1810)는 파악된 EVV 스트림에 대한 PID 정보를 이용해 EVV 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S2180).
이후, 출력 포맷팅부(1840)는, EV 정보를 이용해 EVV 스트림과 기준시점 비디오 스트림을 스테레오스코픽 디스플레이 출력에 맞게 포맷팅한 후 전송한다(S2190).
이러한 방법을 통해, 본 발명의 디지털 방송 수신장치는, ATSC 방식의 디지털 방송에서 PSIP 의 EIT(Event Information Table) 를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력할 수 있다.
선택적으로는, PSIP 또는 PSI/SI 프로세서(1820)가 EIT 로부터 획득한 EV 디스크립터를 이용해 EVV 스트림에 대한 PID 정보를 파악한 후(즉, S2160 단계 이후), 사용자에게 이벤트 별로 3D 방송 여부를 알려주는 방송 가이드 정보를 표시하는 것도 가능하다.
도 22 는 도 21 에서의 방식을 통해 방송 프로그램의 3D 방송 여부를 알려주는 전자 프로그램 가이드(Electronic Program Guide) 의 일 예를 나타낸 것이다.
도 22 에서 볼 수 있는 바와 같이, EIT 를 통해 EV 디스크립터를 전송하는 경우, 각 이벤트 별로 3D 방송 여부를 자세히 시그널링(signalling) 하는 것이 가능하다. 따라서, 하나의 가상채널을 통해 융통성 있게 2D 방송과 3D 방송을 제공하는 것이 가능하게 되며, 또한 방송 프로그램에 대한 가이드 정보의 제공 시 이벤트 별로 3D 방송 여부 및 상세한 3D 관련 파라미터들을 추가적으로 제공할 수 있다.
이와 함께, 사전에 예정된 이벤트의 EV 디스크립터의 내용이 변경되는 경우에는, EIT 버전의 갱신 때에 이전에 획득하여 저장해 둔 EV 디스크립터 정보를 갱신함으로써, 이벤트에 관련된 EV 디스크립터의 정보를 항상 최신의 정보로 유지할 수 있다.
다음, 도 23 는 DVB 방식의 디지털 방송에서 PSI(Program Specific Information) 의 PMT(Program Map Table) 를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력하는 방법을 설명하는 동작 흐름도이다.
먼저, 튜너부(1800)에서 출력되는 트랜스포트 스트림에 대해 역다중화부(1810)가 테이블 정보를 포함하는 트랜스포트 스트림 패킷을 필터링한다(S2300).
역다중화부(1810)는 테이블 아이디(table_id) 정보를 이용하여 섹션 데이터(section data)를 파싱함으로써, SDT 를 획득한다(S2310).
PSIP 또는 PSI/SI 프로세서(1820)는, SDT 의 "service_id" 값에 의해 설정된 서비스에 대해 EV 디스크립터를 파싱 및 저장한다(S2320).
또한, PSIP 또는 PSI/SI 프로세서(1820)는, PMT 내의 PID 루프(loop) 를 이용해 기준시점 비디오 스트림에 대한 PID 정보를 추출하고(S2330), 이후 PMT 에 포함된 EV1 디스크립터 및 EV2 디스크립터를 이용해 EVV 스트림에 대한 PID 정보를 추출한다(S2340).
이후, PSIP 또는 PSI/SI 프로세서(1820)는, 이전에 저장해 놓은 SDT 의 EV 디스크립터 정보와, PMT 의 EV2 디스크립터 정보를 이용해 시점위치 정보(view_position)와 PID 정보를 연결한다(S2350). 여기서, 시점위치 정보의 일 예는, 스테레오스코픽 영상 디스플레이인 경우 "left_right_pos" 필드를 사용할 수 있다.
다음, 역다중화부(1810)는 파악된 기준시점 비디오 스트림의 PID 정보를 이용해 기준시점 비디오 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S2360).
또한, 역다중화부(1810)는 파악된 EVV 스트림에 대한 PID 정보를 이용해 EVV 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S2370).
이후, 출력 포맷팅부(1840)는, EV 정보를 이용해 EVV 스트림과 기준시점 비디오 스트림을 스테레오스코픽 디스플레이 출력에 맞게 포맷팅한 후 전송한다(S2380).
이러한 방법을 통해, 본 발명의 디지털 방송 수신장치는, DVB 방식의 디지털 방송에서 PSI(Program Specific Information) 의 PMT(Program Map Table) 를 통해 EVV 스트림에 대한 정보가 제공되는 경우, 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력할 수 있다.
도 24 는 DVB 방식의 디지털 방송에서 SI(Service Information)의 SDT(Service Description Table)를 통해 EVV 스트림에 대한 정보를 제공하는 방법 중에서, 특히 컴포넌트 태그(component tag)를 이용하여 EVV 스트림에 대한 정보를 제공하는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력하는 방법을 설명하는 동작 흐름도이다.
먼저, 튜너부(1800)에서 출력되는 트랜스포트 스트림에 대해 역다중화부(1810)가 테이블 정보를 포함하는 트랜스포트 스트림 패킷을 필터링한다(S2400).
역다중화부(1810)는 테이블 아이디(table_id) 정보를 이용하여 섹션 데이터(section data)를 파싱함으로써, SDT 를 획득한다(S2410).
PSIP 또는 PSI/SI 프로세서(1820)는, SDT 의 "service_id" 값에 의해 설정된 서비스에 대해 EV 디스크립터를 파싱 및 저장한다(S2420).
또한, PSIP 또는 PSI/SI 프로세서(1820)는, PMT 내의 PID 루프(loop) 를 이용해 기준시점 비디오 스트림에 대한 PID 정보를 추출한다(S2430).
이후, PSIP 또는 PSI/SI 프로세서(1820)는, 이전에 저장해 놓은 SDT 의 EV 디스크립터의 컴포넌트 태그("component_tag") 와, PSI 의 PMT 에 포함되어 있는 스트림 식별자 디스크립터(stream identifier descriptor) 의 컴포넌트 태그("component_tag")를 매칭시켜, 시점위치 정보(view_position)와 PID 정보를 연결한다(S2440). 여기서, 시점위치 정보의 일 예는, 스테레오스코픽 영상 디스플레이인 경우 "left_right_pos" 필드를 사용할 수 있다.
다음, 역다중화부(1810)는 파악된 기준시점 비디오 스트림의 PID 정보를 이용해 기준시점 비디오 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S2450).
또한, 역다중화부(1810)는 파악된 EVV 스트림에 대한 PID 정보를 이용해 EVV 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S2460).
이후, 출력 포맷팅부(1840)는, EV 정보를 이용해 EVV 스트림과 기준시점 비디오 스트림을 스테레오스코픽 디스플레이 출력에 맞게 포맷팅한 후 전송한다(S2470).
이러한 방법을 통해, 본 발명의 디지털 방송 수신장치는, DVB 방식의 디지털 방송에서 SI(Service Information)의 SDT(Service Description Table)를 통해 EVV 스트림에 대한 정보를 제공하는 방법 중에서, 특히 컴포넌트 태그(component tag)를 이용하여 EVV 스트림에 대한 정보를 제공하는 경우, 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력할 수 있다.
도 25 는 DVB 방식의 디지털 방송에서 SI(Service Information)의 EIT(Event Information Table)를 통해 EVV 스트림에 대한 정보를 제공하는 방법 중에서, 특히 컴포넌트 태그(component tag)를 이용하여 EVV 스트림에 대한 정보를 제공하는 경우, 본 발명의 디지털 방송 수신장치가 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력하는 방법을 설명하는 동작 흐름도이다.
먼저, 튜너부(1800)에서 출력되는 트랜스포트 스트림에 대해 역다중화부(1810)가 SDT 를 포함하는 트랜스포트 스트림 패킷을 필터링한다(S2500). 이때, SDT 를 포함하는 트랜스포트 스트림 패킷의 PID 는 그 값이 0x0011 로 지정되어 있다.
역다중화부(1810)는 테이블 아이디(table_id) 정보를 이용하여 섹션 데이터(section data)를 파싱함으로써, SDT 를 획득한다(S2510).
역다중화부(1810)는, 트랜스포트 스트림에 대해 EIT 를 포함하는 트랜스포트 스트림 패킷을 필터링한다(S2520). 이때, EIT 를 포함하는 트랜스포트 스트림 패킷의 PID 는 그 값이 0x0012 로 지정되어 있다.
역다중화부(1810)는, 테이블 아이디(table_id) 정보를 이용하여 섹션 데이터(section data)를 파싱함으로써, EIT 를 획득한다(S2530).
PSIP 또는 PSI/SI 프로세서(1820)는, EIT 내의 이벤트 별 EV 디스크립터를 이용해서 각 이벤트의 EV 정보를 파악하여 저장한다(S2540).
또한, PSIP 또는 PSI/SI 프로세서(1820)는, PMT 내의 PID 루프(loop) 를 이용해 기준시점 비디오 스트림에 대한 PID 정보를 추출한다(S2550).
이후, PSIP 또는 PSI/SI 프로세서(1820)는, 이전에 저장해 놓은 EIT 의 EV 디스크립터의 컴포넌트 태그("component_tag") 와, PSI 의 PMT 에 포함되어 있는 스트림 식별자 디스크립터(stream identifier descriptor) 의 컴포넌트 태그("component_tag")를 매칭시켜, 시점위치 정보(view_position)와 PID 정보를 연결한다(S2560). 여기서, 시점위치 정보의 일 예는, 스테레오스코픽 영상 디스플레이인 경우 "left_right_pos" 필드를 사용할 수 있다.
다음, 역다중화부(1810)는 파악된 기준시점 비디오 스트림의 PID 정보를 이용해 기준시점 비디오 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S2570).
또한, 역다중화부(1810)는 파악된 EVV 스트림에 대한 PID 정보를 이용해 EVV 스트림에 대한 PID 필터링을 수행하고, A/V 디코더(1830)는 해당 엘러멘터리 스트림에 대해 디코딩을 수행한다(S2580).
이후, 출력 포맷팅부(1840)는, EV 정보를 이용해 EVV 스트림과 기준시점 비디오 스트림을 스테레오스코픽 디스플레이 출력에 맞게 포맷팅한 후 전송한다(S2590).
이러한 방법을 통해 본 발명의 디지털 방송 수신장치는, DVB(Digital Video Broadcasting) 방식의 디지털 방송에서 SI(Service Information)의 EIT(Event Information Table)를 통해 EVV 스트림에 대한 정보를 제공하는 방법 중에서, 특히 컴포넌트 태그(component tag)를 이용하여 EVV 스트림에 대한 정보를 제공하는 경우, 상기 EVV 스트림에 대한 정보를 확인 및 처리하여 스테레오스코픽 영상을 출력할 수 있다.
선택적으로는, PSIP 또는 PSI/SI 프로세서(1820)가 EIT 내의 이벤트 별 EV 디스크립터를 이용해서 각 이벤트의 EVV 스트림에 대한 정보인 EV 정보를 파악한 후(즉, S2540 단계 이후), 도 22 와 같이 사용자에게 이벤트 별로 3D 방송 여부를 알려주는 방송 가이드 정보를 표시하는 것도 가능하다.
또한, 사전에 예정된 이벤트의 EV 디스크립터의 내용이 변경되는 경우에는, EIT 버전의 갱신 때에 이전에 획득하여 저장해 둔 EV 디스크립터 정보를 갱신함으로써, 이벤트에 관련된 EV 디스크립터의 정보를 항상 최신의 정보로 유지할 수 있다.
이상에서 설명한 바와 같이, 본 발명에 따른 디지털 방송 수신방법 및 장치에 의하면, 디지털 방송에서 다양한 방식으로 입체영상에 대한 정보를 제공할 수 있고, 또한 이러한 입체영상 정보를 확인 및 처리할 수 있어 입체영상 디스플레이 출력이 가능하다.
한편, 본 발명의 다른 실시예로서, 사용자로부터 입체영상의 표시 방향을 변경하는 선택이 입력되는 경우, 변경된 표시 방향에 대응하는 위치 정보를 갖는 EVV 스트림을 선택하여 입체영상을 생성함으로써, 입체영상의 표시 방향을 변경하는 것도 가능하다.
이에 대해 도 4 를 참조하여 설명하면, 기준시점인 카메라 1 로부터의 비디오 스트림과, 확장시점의 카메라 2 로부터의 비디오 스트림을 이용하여 입체영상을 디스플레이하는 도중에, 사용자로부터 좌측 방향으로의 화면 전환이 선택될 수 있다.
이와 같이 사용자로부터 입체영상의 좌측 전환 선택이 입력되면, 본 발명의 디지털 방송 수신장치는 입체영상의 형성을 위한 비디오 스트림의 구성을 변경하여 기준시점인 카메라 1 로부터의 비디오 스트림과, 그 좌측방향의 비디오 스트림인 카메라 0 으로부터의 EVV 스트림을 선택하여 입체영상을 생성하게 된다.
이러한 방식으로, 본 발명은 사용자의 방향 전환 선택에 따라 입체영상의 표시 방향을 이에 대응하여 변경할 수 있다.
본 발명의 여러 측면과 관련된 독창적인 사상을 설명하기 위해 다양한 실시예들을 기술하였다. 그러나, 하나의 특정 실시예에 있는 하나 이상의 구체적인 특징들은 하나 이상의 다른 실시예에도 적용될 수 있다. 각 실시예 및 그에 연관된 도면에서 설명하는 일부 구성요소 또는 단계는 수정될 수 있고 부가적인 구성요소 및/또는 단계를 삭제, 이동, 또는 포함할 수 있다.
여기서 설명한 다양한 특징 및 사상은, 소프트웨어, 하드웨어, 펌웨어, 미들웨어, 또는 그 결합의 형태로 실시될 수 있다. 예를 들면, 디지털 방송에서 입체영상 신호의 수신방법 및 입체영상 신호의 수신장치를 구현하기 위한, 컴퓨터 실행가능한(computer-executable) 매체에 저장된 컴퓨터 프로그램(컴퓨터, 프로세서, 제어기 등에 의해 실행된다)은 다양한 작업을 수행하는 하나 이상의 프로그램 코드 섹션(section)을 포함할 수 있다. 유사하게, 디지털 방송에서 입체영상 신호의 수신방법 및 입체영상 신호의 수신장치를 구현하기 위한, 컴퓨터 실행가능한(computer-executable) 매체에 저장된 소프트웨어 도구(컴퓨터, 프로세서, 제어기 등에 의해 실행된다)는, 다양한 작업을 수행하는 프로그램 코드 일부를 포함할 수 있다.
산업상 이용가능성
본 발명은 디지털 방송 신호를 수신 및 처리할 수 있도록 구성된 다양한 형태의 기기 즉, 디지털 TV, LCD 디스플레이 장치, 개인용 미디어 플레이어(PMP), 휴대폰 등과 같이 디지털 방송 신호를 수신하여 처리할 수 있는 모든 기기에 이용가능하다.
여기서 설명한 다양한 사상 및 특성은 본 발명의 특징 내에서 여러 가지 형태로 실시될 수 있으며, 앞에서 설명한 실시예는 명시적으로 언급한 경우가 아니면, 상술한 상세한 설명에 의해서 제한되지 않지 않으며, 첨부한 특허청구범위에서 한정한 범위 내에서 폭넓게 해석되어야 함을 이해해야 한다. 그러므로, 그러한 범위 또는 그 균등물 내에 속한 모든 변경 및 변형은 첨부한 특허청구범위에 포함된다.

Claims (19)

  1. 3차원 방송 서비스를 지원하도록 수신기를 위해 정보를 제공하는 서비스 정보(service information)를 수신하는 단계,
    상기 서비스 정보에는 방송 데이터 스트림(data stream)과 관련된 정보를 제공하는 복수 개의 서술자들(descriptors)을 포함하며,
    상기 서비스 정보에는 프로그램 연관 테이블(Program Association Table: PAT), 프로그램 맵 테이블(Program Map Table: PMT), 서비스 설명 테이블(Service Description Table: SDT), 및 이벤트 정보 테이블(Event Information Table: EIT)을 포함한 복수 개의 테이블들을 포함하며;
    상기 수신된 서비스 정보(SI)에 포함된 상기 복수 개의 서술자들을 식별하는 단계, 상기 식별된 복수 개의 서술자들은 제 1 서술자 및 제 2 서술자 중 적어도 하나를 포함하며, 상기 제 1 서술자는 방송 데이터 스트림의 타입을 표시하고 상기 제 2 서술자는 입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지며, 상기 제 1 서술자 및 제 2 서술자는 프로그램 연관 테이블, 프로그램 맵 테이블, 서비스 설명 테이블, 및 이벤트 정보 테이블 중 적어도 하나에 포함되며; 및
    상기 수신된 서비스 정보(SI) 및 상기 식별된 복수 개의 서술자 중 적어도 하나의 서술자를 이용하여 상기 3차원 방송 서비스를 지원하도록 상기 방송 데이터 스트림을 처리하는 단계를 포함하며,
    방송 데이터 스트림의 타입을 표시하는 값을 가지고 있는 상기 제 1 서술자 및 입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지고 있는 상기 제 2 서술자 중 적어도 하나는, 입체적인(stereoscopic) 특징과 관련된 카메라 뷰(view) 위치에 관한 정보를 포함하고 있는 것을 특징으로 하는 디지털 방송 수신방법.
  2. 제 1 항에 있어서, 상기 제 1 서술자는 방송 데이터 스트림의 컴포넌트(component)에 관한 정보를 포함하는 것을 특징으로 하는 디지털 방송 수신방법.
  3. 제 1 항에 있어서, 입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지고 있는 상기 제 2 서술자는 이벤트 정보 테이블에 포함되어 있는 것을 특징으로 하는 디지털 방송 수신방법.
  4. 삭제
  5. 제 1 항에 있어서, 상기 제 2 서술자는 서술자 태그(descriptor tag) 및 서술자 길이(descriptor length)를 나타내는 값들을 추가적으로 포함하는 것을 특징으로 하는 디지털 방송 수신방법.
  6. 제 5 항에 있어서, 상기 서비스 정보는 ATSC(Advanced Television Systems Committee) 기술, DVB(Digital Video Broadcast) 기술, MVC(Multiview Video Codec) 기술 및 MPEG(Moving Picture Experts Group) 기술 중 적어도 하나를 지원하는 것을 특징으로 하는 디지털 방송 수신방법.
  7. 3차원 방송 서비스를 지원하도록 수신기를 위해 정보를 제공하는 복수 개의 서술자(descriptors)들을 포함하는 서비스 정보(service information)를 부호화(encoding)하는 단계,
    상기 서비스 정보는 방송 데이터 스트림(data stream)과 관련된 정보를 제공하는 복수 개의 서술자들(descriptors)을 포함하며,
    상기 서비스 정보는 프로그램 연관 테이블(Program Association Table: PAT), 프로그램 맵 테이블(Program Map Table: PMT), 서비스 설명 테이블(Service Description Table: SDT), 및 이벤트 정보 테이블(Event Information Table: EIT)을 포함한 복수 개의 테이블들을 포함하며,
    상기 서비스 정보에 포함된 상기 복수 개의 서술자들은 제 1 서술자 및 제 2 서술자 중 적어도 하나를 포함하며, 상기 제 1 서술자는 방송 데이터 스트림의 타입을 표시하고 상기 제 2 서술자는 입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지며, 상기 제 1 서술자 및 제 2 서술자는 프로그램 연관 테이블, 프로그램 맵 테이블, 서비스 설명 테이블, 및 이벤트 정보 테이블 중 적어도 하나에 포함되며; 및
    상기 3차원 방송 서비스를 지원하기 위해 상기 수신기가 상기 복수 개의 서술자들 중 적어도 하나를 이용할 수 있도록 상기 부호화된 서비스 정보(SI)를 포함한 방송 데이터 스트림을 상기 수신기로 전송하는 단계를 포함하며
    방송 데이터 스트림의 타입을 표시하는 값을 가지고 있는 상기 제 1 서술자 및 입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지고 있는 상기 제 2 서술자 중 적어도 하나는, 입체적인(stereoscopic) 특징과 관련된 카메라 뷰(view) 위치에 관한 정보를 포함하고 있는 것을 특징으로 하는 디지털 방송 송신방법.
  8. 제 7 항에 있어서, 상기 제 1 서술자는 방송 데이터 스트림의 컴포넌트(component)에 관한 정보를 포함하는 것을 특징으로 하는 디지털 방송 송신방법.
  9. 제 7 항에 있어서, 입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지고 있는 상기 제 2 서술자는 이벤트 정보 테이블에 포함되고, 상기 제 2 서술자는 서술자 태그(descriptor tag) 및 서술자 길이(descriptor length)를 나타내는 값들을 추가적으로 포함하는 것을 특징으로 하는 디지털 방송 송신방법.
  10. 삭제
  11. 제 7 항에 있어서, 상기 서비스 정보는 ATSC(Advanced Television Systems Committee) 기술, DVB(Digital Video Broadcast) 기술, MVC(Multiview Video Codec) 기술 및 MPEG(Moving Picture Experts Group) 기술 중 적어도 하나를 지원하는 것을 특징으로 하는 디지털 방송 송신방법.
  12. 3차원 방송 서비스를 지원하도록 수신기를 위해 정보를 제공하는 서비스 정보(service information)를 수신하는 수단,
    상기 서비스 정보에는 방송 데이터 스트림(data stream)과 관련된 정보를 제공하는 복수 개의 서술자들(descriptors)을 포함하며,
    상기 서비스 정보에는 프로그램 연관 테이블(Program Association Table: PAT), 프로그램 맵 테이블(Program Map Table: PMT), 서비스 설명 테이블(Service Description Table: SDT), 및 이벤트 정보 테이블(Event Information Table: EIT)을 포함한 복수 개의 테이블들을 포함하며;
    상기 수신된 서비스 정보(SI)에 포함된 상기 복수 개의 서술자들을 식별하는 수단, 상기 식별된 복수 개의 서술자들은 제 1 서술자 및 제 2 서술자 중 적어도 하나를 포함하며, 상기 제 1 서술자는 방송 데이터 스트림의 타입을 표시하고 상기 제 2 서술자는 입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지며, 상기 제 1 서술자 및 제 2 서술자는 프로그램 연관 테이블, 프로그램 맵 테이블, 서비스 설명 테이블, 및 이벤트 정보 테이블 중 적어도 하나에 포함되며; 및
    상기 수신된 서비스 정보(SI) 및 상기 식별된 복수 개의 서술자 중 적어도 하나의 서술자를 이용하여 상기 3차원 방송 서비스를 지원하도록 상기 방송 데이터 스트림을 처리하는 단계를 포함하며,
    방송 데이터 스트림의 타입을 표시하는 값을 가지고 있는 상기 제 1 서술자 및 입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지고 있는 상기 제 2 서술자 중 적어도 하나는, 입체적인(stereoscopic) 특징과 관련된 카메라 뷰(view) 위치에 관한 정보를 포함하고 있는 것을 특징으로 하는 디지털 방송 수신장치.
  13. 제 12 항에 있어서, 상기 제 1 서술자는 방송 데이터 스트림의 컴포넌트(component)에 관한 정보를 포함하고,
    입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지고 있는 상기 제 2 서술자는 이벤트 정보 테이블에 포함되어 있고, 상기 제 2 서술자는 서술자 태그(descriptor tag) 및 서술자 길이(descriptor length)를 나타내는 값들을 추가적으로 포함하고,
    상기 서비스 정보는 ATSC(Advanced Television Systems Committee) 기술, DVB(Digital Video Broadcast) 기술, MVC(Multiview Video Codec) 기술 및 MPEG(Moving Picture Experts Group) 기술 중 적어도 하나를 지원하는 것을 특징으로 하는 디지털 방송 수신장치.
  14. 3차원 방송 서비스를 지원하도록 수신기를 위해 정보를 제공하는 복수 개의 서술자(descriptors)들을 포함하는 서비스 정보(service information)를 부호화(encoding)하는 수단,
    상기 서비스 정보는 방송 데이터 스트림(data stream)과 관련된 정보를 제공하는 복수 개의 서술자들(descriptors)을 포함하며,
    상기 서비스 정보는 프로그램 연관 테이블(Program Association Table: PAT), 프로그램 맵 테이블(Program Map Table: PMT), 서비스 설명 테이블(Service Description Table: SDT), 및 이벤트 정보 테이블(Event Information Table: EIT)을 포함한 복수 개의 테이블들을 포함하며,
    상기 서비스 정보에 포함된 상기 복수 개의 서술자들은 제 1 서술자 및 제 2 서술자 중적어도 하나를 포함하며, 상기 제 1 서술자는 방송 데이터 스트림의 타입을 표시하고 상기 제 2 서술자는 입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지며, 상기 제 1 서술자 및 제 2 서술자는 프로그램 연관 테이블, 프로그램 맵 테이블, 서비스 설명 테이블, 및 이벤트 정보 테이블 중 적어도 하나에 포함되며; 및
    상기 3차원 방송 서비스를 지원하기 위해 상기 수신기가 상기 복수 개의 서술자들 중 적어도 하나를 이용할 수 있도록 상기 부호화된 서비스 정보(SI)를 포함한 방송 데이터 스트림을 상기 수신기로 전송하는 수단을 포함하고,
    방송 데이터 스트림의 타입을 표시하는 값을 가지고 있는 상기 제 1 서술자 및 입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지고 있는 상기 제 2 서술자 중 적어도 하나는, 입체적인(stereoscopic) 특징과 관련된 카메라 뷰(view) 위치에 관한 정보를 포함하고 있는 것을 특징으로 하는 디지털 방송 송신장치.
  15. 제 14 항에 있어서, 상기 제 1 서술자는 방송 데이터 스트림의 컴포넌트(component)에 관한 정보를 포함하고,
    입체적인(stereoscopic) 특징을 표시하는 제 1 값과 제 2 값을 가지고 있는 상기 제 2 서술자는 이벤트 정보 테이블에 포함되어 있고, 상기 제 2 서술자는 서술자 태그(descriptor tag) 및 서술자 길이(descriptor length)를 나타내는 값들을 추가적으로 포함하고,
    상기 서비스 정보는 ATSC(Advanced Television Systems Committee) 기술, DVB(Digital Video Broadcast) 기술, MVC(Multiview Video Codec) 기술 및 MPEG(Moving Picture Experts Group) 기술 중 적어도 하나를 지원하는 것을 특징으로 하는 디지털 방송 송신장치.
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
KR1020117013890A 2008-12-18 2009-06-26 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치 KR101245591B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US13893908P 2008-12-18 2008-12-18
US61/138,939 2008-12-18
US13962308P 2008-12-21 2008-12-21
US61/139,623 2008-12-21
PCT/KR2009/003481 WO2010071283A1 (ko) 2008-12-18 2009-06-26 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020127024512A Division KR101364027B1 (ko) 2008-12-18 2009-06-26 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치

Publications (2)

Publication Number Publication Date
KR20110104501A KR20110104501A (ko) 2011-09-22
KR101245591B1 true KR101245591B1 (ko) 2013-03-20

Family

ID=42268929

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020127024512A KR101364027B1 (ko) 2008-12-18 2009-06-26 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
KR1020117013890A KR101245591B1 (ko) 2008-12-18 2009-06-26 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
KR1020137003576A KR101578740B1 (ko) 2008-12-18 2009-06-26 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020127024512A KR101364027B1 (ko) 2008-12-18 2009-06-26 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020137003576A KR101578740B1 (ko) 2008-12-18 2009-06-26 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치

Country Status (6)

Country Link
US (3) US8823772B2 (ko)
EP (2) EP2352302B1 (ko)
KR (3) KR101364027B1 (ko)
CN (1) CN102257823B (ko)
CA (1) CA2744408C (ko)
WO (1) WO2010071283A1 (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010071283A1 (ko) * 2008-12-18 2010-06-24 (주)엘지전자 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
US10165286B2 (en) * 2009-07-08 2018-12-25 Dejero Labs Inc. System and method for automatic encoder adjustment based on transport data
US9756468B2 (en) 2009-07-08 2017-09-05 Dejero Labs Inc. System and method for providing data services on vehicles
KR20110011000A (ko) * 2009-07-27 2011-02-08 삼성전자주식회사 3차원 영상 재생을 위한 부가 정보가 삽입된 3차원 영상 데이터스트림 생성 방법 및 그 장치, 3차원 영상 재생을 위한 부가 정보가 삽입된 3차원 영상 데이터스트림 수신 방법 및 그 장치
US8970669B2 (en) * 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
US20110137727A1 (en) * 2009-12-07 2011-06-09 Rovi Technologies Corporation Systems and methods for determining proximity of media objects in a 3d media environment
US8370873B2 (en) * 2010-03-09 2013-02-05 Sony Corporation 3D TV glasses with TV mode control
CN103202025B (zh) * 2010-11-02 2016-11-02 Lg电子株式会社 用于接收数字广播信号的设备和方法
US20120127266A1 (en) * 2010-11-24 2012-05-24 Electronics And Telecommunications Research Institute Method and apparatus for providing stereoscopic 3d broadcasting service compatible with hd broadcasting service
JP2012235308A (ja) * 2011-04-28 2012-11-29 Sony Corp 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
CA2841192C (en) * 2011-07-15 2017-07-11 Lg Electronics Inc. Method and apparatus for processing a 3d service
EP2751998A4 (en) * 2011-08-30 2015-08-12 Intel Corp CODING SCHEMES FOR MORE VIEWED VIDEOS
CN102438141B (zh) * 2011-10-25 2013-03-27 中国科学技术大学 一种立体视频码流处理方法及装置
CN103959768B (zh) * 2011-12-04 2017-09-22 Lg电子株式会社 能够显示立体图像的数字广播接收方法和装置
EP2873232B1 (en) 2012-07-12 2018-04-25 Saturn Licensing LLC Parameterized services descriptor for advanced television services
KR20140029982A (ko) * 2012-08-31 2014-03-11 삼성전자주식회사 디스플레이 장치, 셋톱박스 및 입체 영상 콘텐트 판단 방법
CN104620235B (zh) 2012-09-07 2018-01-16 华为技术有限公司 用于自适应串流中的区段分界及识别的系统及方法
US9348495B2 (en) 2014-03-07 2016-05-24 Sony Corporation Control of large screen display using wireless portable computer and facilitating selection of audio on a headphone
FR3049142A1 (fr) * 2016-03-16 2017-09-22 Orange Acquisition d'extraits d'un flux multimedia sur un terminal

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060127308A (ko) * 2005-06-07 2006-12-12 삼성전자주식회사 디지털 멀티미디어 방송 시스템에서의 아이콘을 이용한전자 프로그램 가이드 제공 방법
KR20080051086A (ko) * 2006-12-04 2008-06-10 한국전자통신연구원 Dmb기반의 3차원 입체영상 서비스를 위한 객체 기술방법과, 그에 따른 3차원 입체영상 서비스 수신 및 영상포맷 변환 방법

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0847199B1 (en) * 1995-09-29 1999-04-28 Matsushita Electric Industrial Co., Ltd. Method, disc and device for encoding seamless-connection of telecine-converted video data
WO1999004566A1 (en) * 1997-07-18 1999-01-28 Sony Corporation Method and system for multiplexing image signal, method and system for demultiplexing image signal, and transmission medium
US6788740B1 (en) * 1999-10-01 2004-09-07 Koninklijke Philips Electronics N.V. System and method for encoding and decoding enhancement layer data using base layer quantization data
KR100348249B1 (ko) * 1999-10-08 2002-08-09 엘지전자 주식회사 가상 채널 테이블 데이터 구조 및 부가 정보 송수신 방법
US20020009137A1 (en) * 2000-02-01 2002-01-24 Nelson John E. Three-dimensional video broadcasting system
US20060064716A1 (en) * 2000-07-24 2006-03-23 Vivcom, Inc. Techniques for navigating multiple video streams
KR100863652B1 (ko) * 2001-01-16 2008-10-15 마츠시타 덴끼 산교 가부시키가이샤 정보기록장치, 정보기록방법 및 기록매체
KR100397511B1 (ko) * 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
US7391807B2 (en) * 2002-04-24 2008-06-24 Mitsubishi Electric Research Laboratories, Inc. Video transcoding of scalable multi-layer videos to single layer video
KR100693200B1 (ko) 2002-04-25 2007-03-13 샤프 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 기록 매체 및 화상기록 장치
KR100440334B1 (ko) * 2002-06-29 2004-07-15 현대자동차주식회사 디젤 엔진의 매연저감 제어 방법
KR20040002129A (ko) 2002-06-29 2004-01-07 주식회사 팬택앤큐리텔 이동통신 단말기의 카메라 겸용 스피커
KR100488804B1 (ko) * 2002-10-07 2005-05-12 한국전자통신연구원 Mpeg-4 기반의 양안식 3차원 동영상 데이터 처리시스템 및 그 방법
KR100751422B1 (ko) * 2002-12-27 2007-08-23 한국전자통신연구원 스테레오스코픽 비디오 부호화 및 복호화 방법, 부호화 및복호화 장치
US6917310B2 (en) * 2003-06-25 2005-07-12 Lsi Logic Corporation Video decoder and encoder transcoder to and from re-orderable format
US7557862B2 (en) * 2003-08-14 2009-07-07 Broadcom Corporation Integrated circuit BTSC encoder
US7650036B2 (en) * 2003-10-16 2010-01-19 Sharp Laboratories Of America, Inc. System and method for three-dimensional video coding
US20070064937A1 (en) * 2003-11-28 2007-03-22 Van Leest Adriaan J Method and apparatus for encoding or decoding a bitstream
CN1642261A (zh) * 2004-01-17 2005-07-20 北京中视联数字系统有限公司 一种图文和服务信息混合播放的方法
KR100606827B1 (ko) * 2004-01-27 2006-08-01 엘지전자 주식회사 가상 채널 테이블 데이터 구조, 전송 스트림 판별 방법, 및 방송 수신기
JP2007525907A (ja) * 2004-02-27 2007-09-06 ティディヴィジョン コーポレイション エス.エー. デ シー.ヴィ. 立体3dビデオイメージディジタルデコーディングのシステムおよび方法
EP1757087A4 (en) * 2004-04-16 2009-08-19 James A Aman AUTOMATIC VIDEO RECORDING OF EVENTS, PURSUIT AND CONTENT PRODUCTION SYSTEM
KR100585966B1 (ko) 2004-05-21 2006-06-01 한국전자통신연구원 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법
KR100697972B1 (ko) * 2004-11-16 2007-03-23 한국전자통신연구원 입체 방송 서비스를 위한 디지털 방송 송신 장치 및 그 방법
KR100745268B1 (ko) * 2005-06-20 2007-08-01 엘지전자 주식회사 디지털 방송 신호의 부가 기능 제공 방법
KR100657322B1 (ko) * 2005-07-02 2006-12-14 삼성전자주식회사 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치
US7720062B2 (en) 2005-10-05 2010-05-18 Lg Electronics Inc. Method of processing traffic information and digital broadcasting system
KR100818933B1 (ko) 2005-12-02 2008-04-04 한국전자통신연구원 디지털방송 기반 3차원 컨텐츠 서비스 제공 방법
KR100747598B1 (ko) * 2005-12-09 2007-08-08 한국전자통신연구원 디지털방송 기반의 3차원 입체영상 송수신 시스템 및 그방법
GB0600141D0 (en) * 2006-01-05 2006-02-15 British Broadcasting Corp Scalable coding of video signals
US8115804B2 (en) * 2006-01-12 2012-02-14 Lg Electronics Inc. Processing multiview video
KR101227499B1 (ko) 2006-04-28 2013-01-29 엘지전자 주식회사 디지털 방송 신호 수신 방법 및 장치
JP4871635B2 (ja) 2006-04-28 2012-02-08 キヤノン株式会社 デジタル放送受信装置及びその制御方法
KR20070109723A (ko) * 2006-05-12 2007-11-15 엘지전자 주식회사 Psip에서 이벤트의 스케쥴에 관한 방송 신호, 상기방송 신호를 제어하는 방법 및 이를 처리하는 방송 수신기
KR20070115121A (ko) * 2006-05-30 2007-12-05 엘지전자 주식회사 Psip에서 방송 프로그램의 실시간 정보에 관한 방송신호, 상기 방송 신호를 제어하는 방법 및 이를 처리하는방송 수신기
KR20070115123A (ko) * 2006-05-30 2007-12-05 엘지전자 주식회사 Psip에서 현재 이벤트에 관한 정보를 포함하는 방송신호, 상기 방송 신호를 제어하는 방법 및 이를 처리하는방송 수신기
KR20080022757A (ko) * 2006-09-07 2008-03-12 엘지전자 주식회사 디지털 방송 신호와 상기 신호를 처리하는 장치 및 방법
KR100864826B1 (ko) 2006-09-29 2008-10-23 한국전자통신연구원 디지털 방송기반의 3차원 정지영상 서비스 방법 및 장치
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
US20080098450A1 (en) * 2006-10-16 2008-04-24 Toptrend Global Technologies, Inc. Dual display apparatus and methodology for broadcast, cable television and IPTV
KR100827119B1 (ko) * 2006-12-13 2008-05-06 삼성전자주식회사 입체 영상 서비스 시스템 및 방법과 입체 영상 생성 장치 및 입체 영상 출력장치
KR101328946B1 (ko) * 2007-03-26 2013-11-13 엘지전자 주식회사 방송 신호 송수신 방법 및 방송 신호 수신 장치
KR20080093001A (ko) * 2007-04-14 2008-10-17 엘지전자 주식회사 모바일 서비스 데이터 수신 장치 및 제어 방법
CN101291165B (zh) 2007-04-17 2012-11-14 电信科学技术研究院 一种多天线系统的序列检测方法和装置
KR101430483B1 (ko) * 2007-06-26 2014-08-18 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR20090001359A (ko) * 2007-06-29 2009-01-08 엘지전자 주식회사 방송 수신이 가능한 텔레매틱스 단말기 및 방송 신호 처리방법
KR20090004059A (ko) * 2007-07-06 2009-01-12 엘지전자 주식회사 방송 수신이 가능한 텔레매틱스 단말기 및 방송 신호 처리방법
JP4963105B2 (ja) * 2007-11-22 2012-06-27 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像を記憶する方法、装置
KR101472332B1 (ko) * 2008-04-15 2014-12-15 삼성전자주식회사 3차원 디지털 컨텐츠의 제공 방법, 수신 방법 및 그 장치
US8365229B2 (en) * 2008-06-09 2013-01-29 Lg Electronics Inc. Method for mapping between signaling information and announcement information and broadcast receiver
CA2745392C (en) * 2008-12-18 2016-07-12 Lg Electronics Inc. Method for 3d image signal processing and image display for implementing the same
WO2010071283A1 (ko) * 2008-12-18 2010-06-24 (주)엘지전자 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
EP2373042A4 (en) * 2008-12-30 2012-09-12 Lg Electronics Inc DIGITAL RADIO RECEPTION PROCEDURE WITH 2D AND 3D IMAGE INTEGRATION SERVICE AND DIGITAL RADIO RECEPTION DEVICE THEREWITH
KR20110011000A (ko) * 2009-07-27 2011-02-08 삼성전자주식회사 3차원 영상 재생을 위한 부가 정보가 삽입된 3차원 영상 데이터스트림 생성 방법 및 그 장치, 3차원 영상 재생을 위한 부가 정보가 삽입된 3차원 영상 데이터스트림 수신 방법 및 그 장치
KR20110088334A (ko) * 2010-01-28 2011-08-03 삼성전자주식회사 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 생성 방법 및 장치, 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 수신 방법 및 장치
KR101694821B1 (ko) * 2010-01-28 2017-01-11 삼성전자주식회사 다시점 비디오스트림에 대한 링크 정보를 이용하는 디지털 데이터스트림 전송 방법와 그 장치, 및 링크 정보를 이용하는 디지털 데이터스트림 전송 방법과 그 장치
WO2011108903A2 (ko) * 2010-03-05 2011-09-09 한국전자통신연구원 복수 전송 계층 연동형 3dtv 방송 서비스 제공을 위한 송신 및 수신 방법, 송신 및 수신 장치
US9055281B2 (en) * 2010-05-20 2015-06-09 Samsung Electronics Co., Ltd. Source device and sink device and method of transmitting and receiving multimedia service and related data
US20120044324A1 (en) * 2010-08-23 2012-02-23 Lg Electronics Inc. Method for providing 3d video in a 3dtv
US20120050619A1 (en) * 2010-08-30 2012-03-01 Sony Corporation Reception apparatus, reception method, transmission apparatus, transmission method, program, and broadcasting system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060127308A (ko) * 2005-06-07 2006-12-12 삼성전자주식회사 디지털 멀티미디어 방송 시스템에서의 아이콘을 이용한전자 프로그램 가이드 제공 방법
KR20080051086A (ko) * 2006-12-04 2008-06-10 한국전자통신연구원 Dmb기반의 3차원 입체영상 서비스를 위한 객체 기술방법과, 그에 따른 3차원 입체영상 서비스 수신 및 영상포맷 변환 방법

Also Published As

Publication number Publication date
CN102257823B (zh) 2017-03-08
WO2010071283A1 (ko) 2010-06-24
EP2352302A4 (en) 2012-08-08
KR101578740B1 (ko) 2015-12-21
US8823772B2 (en) 2014-09-02
US20130278720A1 (en) 2013-10-24
US20130141533A1 (en) 2013-06-06
CA2744408A1 (en) 2010-06-24
KR20130029119A (ko) 2013-03-21
KR101364027B1 (ko) 2014-02-18
KR20120120460A (ko) 2012-11-01
EP2352302A1 (en) 2011-08-03
US9516294B2 (en) 2016-12-06
EP2538684A1 (en) 2012-12-26
US10015467B2 (en) 2018-07-03
EP2352302B1 (en) 2019-04-17
CA2744408C (en) 2014-09-09
CN102257823A (zh) 2011-11-23
KR20110104501A (ko) 2011-09-22
US20110234755A1 (en) 2011-09-29
US20180205923A9 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
KR101245591B1 (ko) 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
KR101378884B1 (ko) 이차원 영상과 3d 영상의 통합 서비스가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
KR101789636B1 (ko) 이미지 처리 방법 및 장치
EP2800391A1 (en) Digital broadcast receiving method for displaying three-dimensional image, and receiving device thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160224

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170214

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190214

Year of fee payment: 7