KR20150023329A - 3d 방송 서비스를 위한 방송 신호 처리 방법 및 장치 - Google Patents
3d 방송 서비스를 위한 방송 신호 처리 방법 및 장치 Download PDFInfo
- Publication number
- KR20150023329A KR20150023329A KR1020147033701A KR20147033701A KR20150023329A KR 20150023329 A KR20150023329 A KR 20150023329A KR 1020147033701 A KR1020147033701 A KR 1020147033701A KR 20147033701 A KR20147033701 A KR 20147033701A KR 20150023329 A KR20150023329 A KR 20150023329A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- viewing
- condition information
- viewing condition
- content
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/005—Aspects relating to the "3D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
본 발명의 일 실시예에 따른, 3D (3-dimensional) 방송 신호 처리 장치는, 3D 콘텐트를 포함하는 방송 신호를 수신하는 튜너, 상기 수신한 방송 신호에서 타겟 시청 조건 정보 및 하나 이상의 기준 시청 조건 정보를 파싱하는 서비스 정보 프로세서, 시청자의 시청 조건 정보를 수신하고, 상기 수신한 시청 조건 정보가 상기 타겟 시청 조건 정보와 일치하지 않는 경우, 상기 수신한 시청 조건 정보와 가장 근사한 정보를 포함하는 기준 시청 조건 정보에 포함되는 보상 타입 정보를 파싱하고, 상기 보상 타입 정보가 나타내는 요소를 유지하도록 상기 3D 콘텐트를 렌더링하는 시청 분석 모듈, 및 상기 렌더링된 3D 콘텐트를 디스플레이하도록 제어하는 출력 포맷터를 포함한다.
Description
본 발명은 3D (3-Dimensional; 3D) 방송 서비스를 제공하고 이를 수신 처리하기 위한 방법 및 장치에 관한 것이다. 보다 상세하게는, 본 발명은, 각각의 다른 시청환경에서 3D 콘텐트를 소비하는 시청자에게, 3D 콘텐트 제작자가 의도한 3D 효과를 가지는 3D 방송 콘텐트를 제공하는 방법 및 장치에 관한 것이다.
3차원 텔레비젼(3-Dimensional Television, 3DTV)의 보급이 본격화됨에 따라 저장 매체에 의한 3차원(3D) 영상 컨텐츠 보급뿐만 아니라 디지털 방송에 의한 3차원 영상 컨텐츠의 전송이 활성화되고 있다.
일반적으로 3차원 영상은 두 눈의 스테레오(stereo) 시각 원리를 이용하여 입체감을 제공한다. 인간은 두 눈의 시차, 다시 말해 약 65mm 정도 떨어진 두 눈 사이의 간격에 의한 양안 시차(binocular parallax)를 통해 원근감을 느끼므로, 3D 영상은 좌안과 우안 각각이 연관된 평면 영상을 보도록 영상을 제공하여 입체감과 원근감을 제공할 수 있다.
이러한 3차원 영상 디스플레이 방법에는 스테레오스코픽(stereoscopic) 방식, 부피표현(volumetric) 방식, 홀로그래픽(holographic) 방식 등이 있다. 스테레오스코픽 방식의 경우, 좌안에서 시청되기 위한 좌영상 (left view; 레프트 뷰) 이미지와 우안에서 시청되기 위한 우영상 (right view; 라이트 뷰) 이미지를 제공하여, 편광 안경 또는 디스플레이 장비 자체를 통해 좌안과 우안이 각각 레프트 뷰 이미지와 우측 이미지를 시청함으로써 3차원 영상 효과를 인지할 수 있도록 한다.
한편, 3D 콘텐트 제작자가 의도한 입체 효과를, 방송 수신기에서 그대로 재현할 수 있다면 그것이 최적의 영상이 될 수 있으나, 스테레오 영상으로 구성된 3D 콘텐트는 시청조건에 따라 실제로 방송 수신기에서는 다른 입체 효과를 나타낸다. 현재 3DTV 수신기는 특정 시청조건에 고정된 제한적인 입체 영만을 제공한다. 따라서, 현재 시청자는 3D 콘텐트 제작자가 의도한 입체 효과를 제대로 즐기지 못하여, 시청자의 3D 콘텐트에 대한 만족도가 현저히 떨어져 있는 것이 현실이다.
본 발명이 이루고자 하는 기술적 과제는, 전술한 문제점을 해결하기 위한 것으로, 각 시청자의 시청조건의 변화에 관계 없이, 3D 콘텐트 제작자가 해당 콘텐트를 제작 시 의도한 입체 효과를 방송 수신기에서 제공하는 것에 있다.
본 발명의 일 실시예에 따른 3D 방송 신호 처리 장치는, 3D (3-dimensional) 콘텐트를 포함하는 방송 신호를 수신하는 튜너, 상기 수신한 방송 신호에서 타겟 시청 조건 정보 및 하나 이상의 기준 시청 조건 정보를 파싱하는 서비스 정보 프로세서, 여기서 상기 타겟 시청 조건 정보는 3D 콘텐트를 시청하기 위한 최적의 스크린 크기를 나타내는 정보, 상기 3D 콘텐트를 시청하기 위한 최적의 시청 거리를 나타내는 정보 및 상기 3D 콘텐트를 시청하기 위한 최적의 IOD (Inter Ocular Distance) 를 나타내는 정보를 포함하며, 상기 기준 시청 정보는 권장되는 스크린 크기, 권장되는 시청 거리, 권장되는 IOD, 및 상기 권장되는 스크린 크기, 권장되는 시청 거리 및 권장되는 IOD가 어떠한 요소를 기반으로 산출되었는지를 나타내는 보상 타입 정보를 나타내는 정보를 포함하며, 시청자의 시청 조건 정보를 수신하고, 상기 수신한 시청 조건 정보가 상기 타겟 시청 조건 정보와 일치하지 않는 경우, 상기 수신한 시청 조건 정보와 가장 근사한 정보를 포함하는 기준 시청 조건 정보에 포함되는 보상 타입 정보를 파싱하고, 상기 보상 타입 정보가 나타내는 요소를 유지하도록 상기 3D 콘텐트를 렌더링하는 시청 분석 모듈, 및 상기 렌더링된 3D 콘텐트를 디스플레이하도록 제어하는 출력 포맷터를 포함한다.
바람직하게는, 상기 서비스 정보 프로세서는, 상기 타겟 시청 조건 정보 및 하나 이상의 기준 시청 조건 정보를 상기 3D 콘텐트를 위한 비디오 엘레먼트의 비디오 헤더에 포함되는 SEI 메시지로부터 파싱하는 것을 특징으로 한다.
바람직하게는, 상기 서비스 정보 프로세서는, 상기 타겟 시청 조건 정보 및 하나 이상의 기준 시청 조건 정보를 PMT (Program Map Table) 에 포함되는 스트레오 3D 렌더링 정보 디스크립터로부터 파싱하는 것을 특징으로 한다.
바람직하게는, 상기 서비스 정보 프로세서는, 상기 타겟 시청 조건 정보 및 하나 이상의 기준 시청 조건 정보를 VCT (Virtual Channel Table) 또는 SDT (Service Description Table) 에 포함되는 스트레오 3D 렌더링 정보 디스크립터로부터 파싱하는 것을 특징으로 한다.
바람직하게는, 상기 기준 시청 조건 정보는, 상기 권장되는 스크린 크기, 권장되는 시청 거리 또는 권장되는 IOD가 유효한 정보인지 여부를 나타내는 기준 파라미터 유효 정보를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 기준 시청 조건 정보는, 상기 기준 시청 조건 정보를 기준으로 상기 3D 콘텐트를 렌더링하기 위한 보상 파라미터 정보를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 보상 파라미터 정보는, 상기 3D 콘텐트의 좌영상 및 우영상을 각각 촬영하는 카메라 사이의 거리를 나타내는 정보를 포함하는 것을 특징으로 한다.
본 발명의 일 실시예에 따른 3D 방송 신호 송신 처리 방법은 3D (3-dimensional) 콘텐트를 생성하는 단계, 타겟 시청 조건 정보 또는 하나 이상의 기준 시청 조건 정보를 생성하는 단계, 여기서 상기 타겟 시청 조건 정보는 3D 콘텐트를 시청하기 위한 최적의 스크린 크기를 나타내는 정보, 상기 3D 콘텐트를 시청하기 위한 최적의 시청 거리를 나타내는 정보 또는 상기 3D 콘텐트를 시청하기 위한 최적의 IOD (Inter Ocular Distance) 를 나타내는 정보를 포함하며, 상기 기준 시청 정보는 권장되는 스크린 크기, 권장되는 시청 거리, 권장되는 IOD, 또는 상기 권장되는 스크린 크기, 권장되는 시청 거리 또는 권장되는 IOD가 어떠한 요소를 기반으로 산출되었는지를 나타내는 보상 타입 정보를 나타내는 정보를 포함하며, 상기 3D 콘텐트와, 상기 타겟 시청 조건 정보 또는 하나 이상의 기준 시청 조건 정보를 포함하는 방송 신호를 생성하는 단계 및 상기 생성한 방송 신호를 전송하는 단계를 포함한다.
바람직하게는, 방송 신호를 생성하는 단계는, 상기 타겟 시청 조건 정보 또는 하나 이상의 기준 시청 조건 정보를 상기 3D 콘텐트를 위한 비디오 엘레먼트의 비디오 헤더에 포함되는 SEI 메시지에 삽입하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 방송 신호를 생성하는 단계는, 상기 타겟 시청 조건 정보 또는 하나 이상의 기준 시청 조건 정보를, 스트레오 3D 렌더링 정보 디스크립터에 포함시켜, PMT (Program Map Table) 에 삽입하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 방송 신호를 생성하는 단계는, 상기 타겟 시청 조건 정보 또는 하나 이상의 기준 시청 조건 정보를, 스트레오 3D 렌더링 정보 디스크립터에 포함시켜, VCT (Virtual Channel Table) 또는 SDT (Service Description Table) 에 삽입하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 기준 시청 조건 정보는, 상기 권장되는 스크린 크기, 권장되는 시청 거리 또는 권장되는 IOD가 유효한 정보인지 여부를 나타내는 기준 파라미터 유효 정보를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 기준 시청 조건 정보는, 상기 기준 시청 조건 정보를 기준으로 상기 3D 콘텐트를 렌더링하기 위한 보상 파라미터 정보를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 보상 파라미터 정보는, 상기 3D 콘텐트의 좌영상 및 우영상을 각각 촬영하는 카메라 사이의 거리를 나타내는 정보를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 시청자의 시청조건에 관계없이, 3D 콘텐트 제작자가 해당 콘텐트를 제작 시 의도한 입체 효과를 시청자에게 제공할 수 있는 효과가 있다.
본 발명에 따르면, 기존의 방송 시스템 구조와 호환을 유지하면서, 3D 콘텐트 제작자가 해당 콘텐트를 제작 시 의도한 입체 효과를 시청자에게 제공할 수 있는 효과가 있다.
본 발명에 따르면, 수신기가 최소한의 데이터 처리를 통하여, 3D 콘텐트 제작자가 해당 콘텐트를 제작 시 의도한 입체 효과를 시청자에게 제공할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른, 시청 분석 (view synthesis) 모듈을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른, 시청 조건에 맞는 스트레오 영상을 제공하는 장치를 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른, 시청 조건에 맞는 스트레오 영상의 제공을 위한 수신기의 동작을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른, 스크린 사이즈에 따른 입체 효과의 차이를 설명하는 도면이다.
도 5는 본 발명의 일 실시예에 따른, 스크린 크기에 따른 무한대의 입체감을 나타내기 위하여 필요한 픽셀 수를 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른, IOD 길이에 따른 입체 효과의 차이를 설명하는 도면이다.
도 7은 본 발명의 일 실시예에 따른, 시청 거리 (viewing distance) 가 달라지는 경우, 입체감을 유지하기 위하여, 버전스 각 (vergence angle; alpha; a) 을 유지하는 방법을 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른, 시차 각 (parallax angle) 을 유지하는 방법을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른, 시청 거리를 유지하는 방법을 나타낸 도면이다.
도 10은 본 발명의 일 실시예에 따른, 시청 거리를 유지하기 위하여 디스페리티를 조정하는 방법을 나타낸 도면이다.
도 11은 본 발명의 일 실시예에 따른, 수신된 기준 시청 조건 정보 또는/및 타겟 시청 조건 정보가 수신단에서의 시청 조건 정보와 불일치할 경우, 깊이 정정 (depth adjustment) 을 수행하는 방법을 나타낸 도면이다.
도 12는 본 발명의 일 실시예에 따른, 스트레오 3D 렌더링 정보 디스크립터 (stereo 3D rendering information descriptor) 를 나타낸 도면이다.
도 13은 본 발명의 일 실시예에 따른, compensation_type 필드의 값에 따른 정의를 나타낸 도면이다.
도 14는 본 발명의 일 실시예에 따른, View pair descriptor를 나타낸 도면이다.
도 15는 본 발명의 일 실시예에 따른, PMT (Program Map Table) 의 일부를 나타낸 도면이다.
도 16은 본 발명의 일 실시예에 따른, VCT (Virtual Channel Table) 의 일부를 나타낸 도면이다.
도 17은 본 발명의 일 실시예에 따른, SDT (Service Description Table)을 나타낸 도면이다.
도 18은 본 발명의 일 실시예에 따른, user_data_registered_itu_t_t35 () 를 나타낸 도면이다.
도 19는 본 발명의 일 실시예에 따른, user_identifier와 이에 따른 user_structure () 및 DVB1_data () 를 나타낸 도면이다.
도 20은 본 발명의 일 실시예에 따른, 스트레오 3D 렌더링 정보 SEI 메시지를 나타낸 도면이다.
도 21은 본 발명의 일 실시예에 따른, stereo 3D rendering info SEI descriptor를 나타낸 도면이다.
도 22는 본 발명의 일 실시예에 따른, 스크린 크기에 맞는 스트레오 영상을 제공하는 방법을 나타낸 도면이다.
도 23은 본 발명의 일 실시예에 따른, 시청 조건에 맞는 3D 영상을 제공하기 위한 시그널링 시나리오를 나타낸 도면이다.
도 24는 본 발명의 일 실시예에 따른, 스트레오 3D 시청 조건 정보 디스크립터를 나타낸 도면이다.
도 25는 본 발명의 일 실시예에 따른, 시청 조건에 맞는 3D 영상을 제공하는 수신기를 나타낸 도면이다.
도 26은 본 발명의 일 실시예에 따른, 3D 방송 신호 처리 방법을 나타낸 순서도이다.
도 2는 본 발명의 일 실시예에 따른, 시청 조건에 맞는 스트레오 영상을 제공하는 장치를 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른, 시청 조건에 맞는 스트레오 영상의 제공을 위한 수신기의 동작을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른, 스크린 사이즈에 따른 입체 효과의 차이를 설명하는 도면이다.
도 5는 본 발명의 일 실시예에 따른, 스크린 크기에 따른 무한대의 입체감을 나타내기 위하여 필요한 픽셀 수를 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른, IOD 길이에 따른 입체 효과의 차이를 설명하는 도면이다.
도 7은 본 발명의 일 실시예에 따른, 시청 거리 (viewing distance) 가 달라지는 경우, 입체감을 유지하기 위하여, 버전스 각 (vergence angle; alpha; a) 을 유지하는 방법을 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른, 시차 각 (parallax angle) 을 유지하는 방법을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른, 시청 거리를 유지하는 방법을 나타낸 도면이다.
도 10은 본 발명의 일 실시예에 따른, 시청 거리를 유지하기 위하여 디스페리티를 조정하는 방법을 나타낸 도면이다.
도 11은 본 발명의 일 실시예에 따른, 수신된 기준 시청 조건 정보 또는/및 타겟 시청 조건 정보가 수신단에서의 시청 조건 정보와 불일치할 경우, 깊이 정정 (depth adjustment) 을 수행하는 방법을 나타낸 도면이다.
도 12는 본 발명의 일 실시예에 따른, 스트레오 3D 렌더링 정보 디스크립터 (stereo 3D rendering information descriptor) 를 나타낸 도면이다.
도 13은 본 발명의 일 실시예에 따른, compensation_type 필드의 값에 따른 정의를 나타낸 도면이다.
도 14는 본 발명의 일 실시예에 따른, View pair descriptor를 나타낸 도면이다.
도 15는 본 발명의 일 실시예에 따른, PMT (Program Map Table) 의 일부를 나타낸 도면이다.
도 16은 본 발명의 일 실시예에 따른, VCT (Virtual Channel Table) 의 일부를 나타낸 도면이다.
도 17은 본 발명의 일 실시예에 따른, SDT (Service Description Table)을 나타낸 도면이다.
도 18은 본 발명의 일 실시예에 따른, user_data_registered_itu_t_t35 () 를 나타낸 도면이다.
도 19는 본 발명의 일 실시예에 따른, user_identifier와 이에 따른 user_structure () 및 DVB1_data () 를 나타낸 도면이다.
도 20은 본 발명의 일 실시예에 따른, 스트레오 3D 렌더링 정보 SEI 메시지를 나타낸 도면이다.
도 21은 본 발명의 일 실시예에 따른, stereo 3D rendering info SEI descriptor를 나타낸 도면이다.
도 22는 본 발명의 일 실시예에 따른, 스크린 크기에 맞는 스트레오 영상을 제공하는 방법을 나타낸 도면이다.
도 23은 본 발명의 일 실시예에 따른, 시청 조건에 맞는 3D 영상을 제공하기 위한 시그널링 시나리오를 나타낸 도면이다.
도 24는 본 발명의 일 실시예에 따른, 스트레오 3D 시청 조건 정보 디스크립터를 나타낸 도면이다.
도 25는 본 발명의 일 실시예에 따른, 시청 조건에 맞는 3D 영상을 제공하는 수신기를 나타낸 도면이다.
도 26은 본 발명의 일 실시예에 따른, 3D 방송 신호 처리 방법을 나타낸 순서도이다.
발명의 실시를 위한 최선의 형태
이하 전술한 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.
도 1은 본 발명의 일 실시예에 따른, 시청 분석 (view synthesis) 모듈을 나타낸 도면이다.
본 발명의 일 실시예에 따른 시청 분석 모듈 (1000) 은 워핑 (warping) 모듈 (1100, 1200), 머징 (merging) 모듈 (1110, 1210), 홀 필링 (hole filling) 모듈 (1120, 1220) 및/또는 경계 노이즈 제거 (Boundary Noise Removal) 모듈 (1130, 1230)을 포함한다.
워핑 모듈 (1100, 1200) 은 카메라 파라미터 (camera parameter) 정보, 깊이 타입 (depth type) 정보, 깊이 근점 (depth_near) 정보 및/또는 깊이 원점 (depth_far) 정보를 이용하여, 좌영상 및 우영상에 대한 깊이 (depth) 정보를 적용하여, 좌영상 및 우영상을 처리하는 장치이다. 카메라 파라미터 정보는 3D 콘텐트가 제작되는 장소에서의 카메라에 대한 정보를 포함한다. 깊이 타입 정보는 좌영상 및/또는 우영상에 대한 깊이 정보를 제공하는 타입을 나타낸다. 예를 들면, 깊이 타입 정보는 좌영상 및/또는 우영상에 포함되는 물체들에 대한 디스패리티 값으로 깊이 정보를 제공할 수 있다. 여기서, 디스패리티란, 3D 영상의 동일한 지점을 나타내기 위한 좌영상 및 우영상의 각각의 지점 사이의 수평적 차이를 나타내며, 이러한 차이는 픽셀 단위로 나타낼 수 있다. 워핑 모듈 (1100, 1200) 은 좌영상 및 우영상 데이터를 수신하고, 좌영상 깊이 정보 (L_depth) 및 우영상 깊이 정보 (R_depth) 를 수신하여, 이러한 정보를 각각 좌영상 및 우영상 데이터에 적용시킨다. 좌영상 깊이 정보 (L_depth) 및 우영상 깊이 정보 (R_depth) 를 깊이 맵 (depth map) 이라고 명명할 수 있다. 이 과정에서 워핑 모듈 (1100, 1200) 은 전술한 카메라 파라미터 정보, 깊이 타입 정보, 깊이 근점 정보 및/또는 깊이 원점 정보를 이용하여 좌영상 및 우영상을 렌더링할 수 있다.
또는, 워핑 모듈 (1100, 1200) 은 좌영상 깊이 정보 및 우영상 깊이 정보를 각각 좌영상 데이터 및 우영상 데이터에 적용하여 좌영상 및 우영상을 렌더링할 수 있다. 한편, 워핑 모듈 (1100, 1200) 은 좌영상 깊이 정보 및 우영상 깊이 정보 각각에 카메라 파라미터 정보, 깊이 타입 정보, 깊이 근점 정보 및/또는 깊이 원점 정보를 적용하여, 영상 깊이 정보 (depth information) 및/또는 영상 홀 정보 (hole information)을 생성할 수 있다.
머징 (merging) 모듈 (1110, 1210)은 워핑 모듈에서 처리된 좌영상 및 우영상을 수신하고, 좌영상 및 우영상에 영상 깊이 정보를 적용하여 렌더링하고, 좌영상 및 우영상 중 하나의 영상을 출력하는 역할을 수행한다. 예를 들면, 머징 (merging) 모듈 (1110) 은 좌영상을 출력하고, 다른 머징 (merging) 모듈 (1210) 은 우영상을 출력할 수 있다.
홀 필링 (hole filling) 모듈 (1120, 1220)은 영상 홀 정보를 이용하여, 좌영상 또는 우영상에 존재할 수 있는 홀 (hole) 을 보완하는 처리를 수행한다.
경계 노이즈 제거 (Boundary Noise Removal) 모듈 (1130, 1230) 은 좌영상 또는 우영상의 경계 부분에서 발생할 수 있는 노이즈를 제거하는 처리를 수행한다.
3D 포맷터 (1300)는 시청 분석 모듈 (1000)에서 출력되는 좌영상 및 우영상을 결합하여 3D 영상을 포맷팅한다.
시청 분석 모듈 (1000)에서 새로운 좌영상 및 우영상을 생성하여 임의 시점의 3D 영상을 출력하는 경우, 각 영상 및 깊이 맵은 도시된 바와 같은 4개의 단계를 거치게 된다. 이때, 각 영상 및 깊이 맵의 처리 과정을 위해 카메라 파라미터 정보 또는 깊이 타입 정보 등의 관련 정보 제공될 수 있다.
도 2는 본 발명의 일 실시예에 따른, 시청 조건에 맞는 스트레오 영상을 제공하는 장치를 나타낸 도면이다.
수신단에서 자체적인 임의 시점의 영상을 선택하여 시청 분석 (view synthesis) 을 적용하는 경우에는 시청 분석에 필요한 정보 (예를 들면, 카메라 파라미터 정보, 깊이 타입 정보, 깊이 근점 정보 및/또는 깊이 원점 정보)를 이용하여 각 영상에 대한 렌더링이 가능하다. 그러나 위 정보만으로는 시청 조건에 맞는 3D 영상은 제공은 불가하며, 이를 제공하고자 할 경우, 추가적인 정보가 필요하다. 즉, 현재 수신되는 스테레오 영상이 어떤 시청 조건을 타겟으로 하는 것인지 여부 및 다른 참고 시청 조건을 지원하고자 할 경우의 가이드라인 정보에 대한 시그널링이 필요하다.
본 발명의 일 실시예에서는, 송신단 쪽에서 전송될 수 있는 가이드라인 정보와 수신단에서 획득될 수 있는 시청 조건 (viewing condition) 정보는 모두 시청 분석 모듈로 입력될 수 있으며, 두 정보를 토대로 새로운 스테레오 영상 (좌영상 및 우영상을 포함하는 영상) 을 생성할 수 있다. 가이드 라인 정보에는 타겟 시청 조건 (Target viewing condition) 정보 및 기준 시청 조건 (Reference viewing condition) 정보 및/또는 이와 관련한 파라미터 정보가 포함될 수 있다.
시청 조건에 맞는 시청 분석 (viewing condition adaptive view synthesis) 은 시청 분석 모듈에 의하여 수행될 수 있다. 시청 분석 모듈은 제 1 시점을 위한 비디오 엘레먼트, 제 2 시점을 위한 비디오 엘레먼트, 제 1 시점을 위한 깊이 엘레먼트 (depth element), 제 2 시점을 위한 깊이 엘레먼트, 제 1 시점 및 제 2 시점에 대한 카메라 파라미터 정보, 깊이 타입 정보, 깊이 근점 정보 및/또는 깊이 원점 정보를 수신할 수 있다. 시청 분석 모듈은 이러한 정보를 바탕으로 시청 조건을 고려하지 않은 3D 영상을 렌더링할 수 있다.
시청 분석 모듈은 추가적으로 타겟 시청 조건 정보, 기준 시청 조건 정보, 시청 조건 정보, 및 관련되는 파라미터를 수신할 수 있다.
타겟 시청 조건 정보는 3D 콘텐트 제작자 또는 방송 송신단에서 타겟하는 시청 조건을 나타내는 정보이다. 타겟 시청 조건 정보에는 타겟팅되는 시청자의 눈 사이 거리, 타겟팅되는 디스플레이 화면과 시청자 사이의 거리, 및/또는 타겟팅되는 디스플레이 디바이스의 크기 정보가 포함될 수 있다. 수신단에서는 타겟 시청 조건 정보를 참조하여, 수신단의 시청 조건과의 차이만큼 3D 영상을 렌더링할 수 있다. 즉, 타겟 시청 조건 정보를 기준으로 변경되는 시청 조건의 내용을 커버 (cover) 하도록 3D 영상을 렌더링할 수 있다.
기준 시청 조건 정보는 3D 콘텐트 제작자 또는 방송 송신단에서 기준으로 제시하는 시청 조건을 나타내는 정보이다. 기준 시청 조건 정보는 하나 이상의 기준 시청 정보가 포함될 수 있다. 즉, 하나 이상의 기준 시청 조건에 대하여 정보를 제공할 수 있고, 각각의 기준 시청 조건에서 3D 영상을 렌더링하기 위한 파라미터가 송신단에서 수신단으로 전송될 수 있다. 기준 시청 조건 정보는 3D 콘텐트 제작자 또는 방송 송신단에서 의도하는 입체 효과를 나타내기 위한 최적의 시청자의 눈 사이 거리, 최적의 디스플레이 화면과 시청자 사이의 거리, 및/또는 최적의 디스플레이 디바이스의 크기 정보를 포함할 수 있다. 수신단에서는 시청 조건 정보와 가장 유사한 정보를 갖는 기준 시청 조건 정보를 참조하여, 수신단의 시청 조건과의 차이만큼 3D 영상을 렌더링할 수 있다. 즉, 기준 시청 조건 정보를 기준으로 변경되는 시청 조건의 내용을 커버 (cover) 하도록 3D 영상을 렌더링할 수 있다.
시청 조건 정보는 시청자가 3D 콘텐트를 소비하는 시청 환경을 나타내는 정보이다. 시청 조건 정보는 3D 영상이 디스플레이되는 스크린의 크기 (스크린 크기), 시청자의 양안 사이의 거리 (IOD; Inter Ocular Distance), 스크린과 시청자 사이의 거리 (시청 거리) 등의 정보가 포함될 수 있다. 시청 분석 모듈은 수신기로부터 시청 조건 정보를 수신하고, 시청 조건 정보와 일치하는 타겟 시청 조건 정보가 존재하는 경우, 해당 타겟 시청 조건 정보와 관련된 3D 영상 렌더링을 위한 파라미터를 이용하여, 3D 영상을 렌더링 할 수 있다. 시청 분석 모듈은 수신기로부터 시청 조건 정보를 수신하고, 시청 조건 정보와 일치하는 타겟 시청 조건 정보 또는 기준 시청 조건 정보가 없는 경우, 기준 시청 조건 정보와 시청 조건 정보를 비교하여, 양 정보의 차이를 보상하는 3D 영상 렌더링을 수행할 수 있다.
도 3은 본 발명의 일 실시예에 따른, 시청 조건에 맞는 스트레오 영상의 제공을 위한 수신기의 동작을 나타낸 도면이다.
시청 조건 정보와 타겟 시청 조건 정보가 일치하는 경우, 예를 들면, 수신단에 저장 또는 입력된 시청 조건 정보가 수신한 스트레오 페어 (Stereo pair) 1의 타겟 시청 조건 정보 와 일치할 경우, 추가적인 깊이 수정 (depth adjustment) 을 수행하지 않고 받은 입력 (스트레오 페어 1; stereo pair 1)을 그대로 출력(스트레오 페어 2; stereo pair 2) 한다.
시청 조건 정보가 타겟 시청 조건 정보와 일치하지 않는 경우, 예를 들면, 스트레오 페어 (Stereo pair) 1의 타겟 시청 조건 정보가 수신기가 획득된 시청 조건 정보와 일치하지 않을 경우, 수신기는 수신한 기준 시청 조건 정보 중에 획득한 시청 조건 정보와 일치하는 정보가 있는지 찾는다.
일치하는 기준 시청 조건 정보가 존재할 경우 이에 대응되는 파라미터 값을 참조하여 깊이 수정 (혹은, 3D 영상 렌더링) 을 수행하여 새로운 스트레오 페어를 생성하고, 이를 출력한다.
일치하는 기준 시청 조건 정보가 존재하지 않을 경우, 제공된 기준 시청 조건 정보 중에서 획득한 시청 조건 정보와 가장 비슷한 기준 시청 조건 정보를 참조하거나, 혹은 타겟 시청 조건 정보를 참조하여, 획득한 시청 조건 정보에 적절한 파라미터 값을 산출하고, 이 파라미터 값을 이용하여 스트레오 페어 2를 생성할 수 있다.
도 4는 본 발명의 일 실시예에 따른, 스크린 사이즈에 따른 입체 효과의 차이를 설명하는 도면이다.
동일한 스테레오 콘텐트 (3D 콘텐트) 가 서로 다른 크기의 스크린 사이즈에 출력될 경우, 대응되는 시차 (parallax), 시청 거리 (viewing distance) 및 이에 따라 인지되는 사물의 깊이감은 달라진다.
스크린 사이즈가 작으면 작을수록 동일한 입체 효과를 나타내기 위한 깊이 버젯 (depth budget) 은 커지며, 반대로 스크린 사이즈가 크면 클수록 동일한 입체효과를 나타내기 위한 깊이 버젯 (depth budget) 은 적게 소모된다. 깊이 버젯 (depth budget) 이란, 3D 영상에 포함된 입체감의 정량을 의미한다.
도 4를 참조하면, 스크린의 크기가 각각 W1, W2 인 경우, 동일한 깊이감을 느끼기 위하여 시차 각 (parallax angle) 과 시청 거리가 달라져야 함을 알 수 있다.
도 5는 본 발명의 일 실시예에 따른, 스크린 크기에 따른 무한대의 입체감을 나타내기 위하여 필요한 픽셀 수를 나타낸 도면이다.
스크린 사이즈 별로 입체감이 달라지는 현상을 파악하기 위해 IOD (Inter Ocular Distance)에 대응되는 픽셀의 개수를 비교해 볼 수 있다. 디스플레이 화면 상에서 IOD(=65mm)의 시차 (parallax)에 대응되는 깊이 (입체효과)는 화면 뒤쪽으로 무한대의 깊이이며, 0mm의 시차 (parallax)에 대응되는 깊이는 화면 표면에 해당하는 깊이이다. 시차 가 0일 경우의 입체감은 시청 조건에 상관 없이 항상 화면 바로 위지만, 그 외의 시차 는 스크린 크기에 따라 다른 입체감을 나타낸다. 도 5에서 나타난 바와 같이 다양한 스크린 사이즈 별로 65mm 시차에 대응되는 픽셀 개수를 비교해 보면 동일한 입체 효과를 나타내기 위한 디스페리티 (disparity) 의 픽셀 수는 매우 다르다.
도 6은 본 발명의 일 실시예에 따른, IOD 길이에 따른 입체 효과의 차이를 설명하는 도면이다.
IOD 크기에 따라서도 스테레오 입체 효과는 달라질 수 있다. 즉, 시청자가 어린이인 경우, 일반적으로 IOD가 작은 수 있고, 동일한 입체 효과를 인지하기 위해 필요한 깊이 버젯 (depth budget)은 작으며, 반대로 어린이보다 IOD가 큰 어른의 경우, 동일한 입체효과를 인지하기 위한 깊이 버젯 (depth budget)은 어린이에 비해 크다.
도 6에 도시한 바와 같이, IOD 값에 따라 동일한 시차 (parallax) p1 에 대해 인지되는 깊이감 (D1)은 다르다. 즉, 어른의 경우 IOD의 길이가 어린이의 그것보다 길어서, 시청자로부터 D1 거리에 사물이 존재하는 것과 같은 입체감을 느끼나, 동일한 사물에 대하여 IOD의 길이가 어른의 그것보다 짧은 어린이의 경우, 시청자로부터 D1’ 거리에 사물이 존재하는 것과 같은 입체감을 느낄 수 있다.
도 7은 본 발명의 일 실시예에 따른, 시청 거리 (viewing distance) 가 달라지는 경우, 입체감을 유지하기 위하여, 버전스 각 (vergence angle; alpha; a) 을 유지하는 방법을 나타낸 도면이다.
2D 영상에 대한 시청 거리는, 각 해상도 별로 ITU-R에서 정한 권장 시청 거리가 존재하므로 송신단 및 수신단에서 이를 기준으로 삼을 수 있다. 이에 반해, 스테레오 콘텐트 (3D 콘텐트) 의 경우, 시청 거리에 따라 인지되는 입체감에 차이가 발생하고, 시청 거리에 대한 기준이 제시되어 있지 않다. 그러므로 송신단에서 기준으로 한 시청 거리에 대한 정보를 수신단으로 전송하여, 수신단에서 이를 참조하도록 할 수 있다.
전술한 바와 같이 스크린 크기, IOD, 시청거리 등과 같은 시청 조건에 따라 스테레오 콘텐트의 입체 효과는 달라지므로, 3D 콘텐트 제작자 또는 방송국에서 의도한 입체감을 제대로 전달하기 위해서는, 각각의 시청 조건에 따라 입체감을 조정 가능하도록 3D 콘텐트를 제공하는 방안이 필요하다.
스테레오 영상의 입체감을 유지하고자 할 때, 유지하는 요소가 달라질 수 있고, 이에 따라 입체감을 유지하는 데에는 여러 방법이 존재할 수 있다. 예를 들면, 버전스 각 (Vergence angle) 을 유지할 수 있다. 다른 예로는, 시차 각 (Parallax angle)을 유지할 수 있다. 시차 각은 어코모데이션 각 (accommodation angle) 에서 버전스 각 (vergence angle)을 뺀 값으로 정의될 수 있다. 어코모데이션 각은 시청자가 스크린에 특정 지점을 주시할 때, 양안에서 해당 지점을 각각 직선으로 연결할 때 양 직선 사이의 각을 나타낸다. 또 다른 예로는, 시청 거리의 범위 (예를 들면, Dmin, Dmax) 를 시청자 기준에서 유지할 수 있다. 또 다른 예로는, 시청 거리의 범위 (예를 들면, |Dmin Dmax|) 를 스크린 기준에서 유지할 수 있다. 또 다른 예로는, 상대적인 시청 거리 범위를 유지하는 방안이 있을 수 있다.
3D 콘텐트의 입체감 (깊이감) 을 보상하는 방법은 유지하고자 하는 요소가 무엇이냐에 따라 조정 값에 차이가 발생할 수 있으므로, 제공되는 기준 시청 조건 정보 및 대응되는 기준 보상 파라미터 (reference compensation parameter) 가 어떠한 요소를 기반으로 산출된 것인지에 대한 정보, 즉, 보상 타입 (compensation type) 에 대한 정보를 송신측에서 수신단으로 제공하면, 수신기에서 이를 활용할 수 있다.
도 7은 버전스 각 (Vergence angle) 을 유지하는 경우를 나타낸 도면이다. 다른 시청 조건이 동일한 경우, 시청 거리가 커지면, 이에 따라 디스페리티 (disparity) (혹은, 시차; parallax) 의 절대값을 증가시켜야 한다. 예를 들면, 도 7의 (a)에서 유지할 요소가 a (alpha) 인 경우, 도 7의 (b)와 같이 시청 거리가 증가한 경우, a를 유지하기 위하여 화면상의 화살표시 (시차를 나타냄) 도 커져야 한다.
다른 시청 조건이 동일한 경우, 스크린 크기가 커지면, 이에 따라 디스패리티의 절대값을 감소시켜야 한다. 이때 시차 (parallax) 는 유지되어야 한다.
디른 시청 조건이 동일한 경우, IOD가 커지면, 이에 따라 디스페리티 (혹은, 시차) 의 절대값을 감소시켜야 한다.
도 8은 본 발명의 일 실시예에 따른, 시차 각 (parallax angle) 을 유지하는 방법을 나타낸 도면이다.
시청 거리가 커지면 이에 따라 디스페리티 (혹은 시차; parallax)의 절대값을 증가시켜야 한다. 다만, 시청 거리가 4m 이상으로 증가하면, 이에 대해 maximum disparity의 값은 변화가 없을 수 있다.
다른 시청 조건이 동일한 경우, 스크린 크기가 커지면 이에 비례하여 디스페리티의 절대값을 감소시켜야 한다. 이때, 시차 (parallax) 는 유지될 수 있다.
IOD의 크기 변화에 상관없이 디스페리티 (혹은, 시차)는 유지될 수 있다.
시차 각은 어코모데이션 각 (accommodation angle; theta) 에서 버전스 각 (vergence angle)을 뺀 값으로 정의될 수 있다. 어코모데이션 각은 시청자가 스크린의 특정 지점을 포커스하는 경우에 있어서, 시청자의 양안에서 해당 지점을 이은 각각의 직선이 이루는 사이 각으로 정의될 수 있다. 버전스 각은, 시청자가 먼 (distant) 상을 포커스할 때의 버전스 각 (beta)와 시청자가 가까운 (near) 상을 포커스할 때의 버전스 각 (alpha)을 포함한다.
시차 각은 어코모데이션 각에서 beta 각의 값을 뺀 각과 어코모데이션 각에서 alpha 각의 값을 뺀 각 사이에서 유지되어야 하는 것을 본 발명의 일 실시예로 한다. 위 범위의 시차 각에서 벗어난 상을 시청하는 경우, 시청자에게 쉽게 피로감을 줄 수 있다.
도 9는 본 발명의 일 실시예에 따른, 시청 거리를 유지하는 방법을 나타낸 도면이다.
시청 거리를 유지하는 방법은 시청자를 기준으로 한 시청 거리를 유지하는 방법과, 스크린을 기준으로 한 시청 거리를 유지하는 방법을 포함한다.
도 9의 (a)를 참조하면, 시청자가 가장 먼 상을 바라 볼 때, 시청자의 양안과 가장 먼 상 사이의 거리를 최대 거리 (maximum distance; Dmax) 로 정의하고, 시청자가 가장 가까운 상을 바라 볼 때, 시청자의 양안과 가장 가까운 상 사이의 거리를 최소 거리 (minimum distance; Dmin) 로 정의할 수 있다. 시청자를 기준으로 시청 거리를 유지하는 방법은 위의 최소 거리와 최대 거리 사이 내에서 입체감이 나타날 수 있도록 유지하는 방법이 될 수 있다. 즉, 타겟 최소 거리와 타겟 최대 거리가 시청 조건이 변하더라도 유지되는 방법으로 입체감을 유지할 수 있다.
다른 시청 조건이 동일한 경우, 시청 거리가 커지면, 이에 따라 디스페리티 (혹은 시차) 의 절대값을 증가시켜야 한다.
다른 시청 조건이 동일한 경우, 스크린 크기가 커지면, 이에 따라 디스페리티의 절대값을 감소시켜야 한다. 이때, 시차는 유지될 수 있다.
IOD가 커지면 이에 따라 디스페리티 (혹은, 시차) 의 절대값을 증가시켜야 한다.
도 9의 (b)를 참조하면, 스크린을 기준으로 거리 범위를 유지할 수 있다. 이는 거리 범위 (Distance range), 즉, 최대 거리 (Maximum distance)에서 최소 거리 (minimum distance)를 뺀 값의 절대값을 유지하는 방법을 의미한다.
다른 시청 조건이 동일한 경우, 시청 거리가 커지면, 이에 따라 디스페리티 (혹은 시차) 의 절대값을 증가시켜야 한다.
다른 시청 조건이 동일한 경우, 스크린 크기가 커지면, 이에 따라 디스페리티의 절대값을 감소시켜야 한다. 이때, 시차는 유지될 수 있다.
IOD가 커지면 이에 따라 디스페리티 (혹은, 시차) 의 절대값을 증가시켜야 한다.
도 10은 본 발명의 일 실시예에 따른, 시청 거리를 유지하기 위하여 디스페리티를 조정하는 방법을 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 삼각형 비례식을 이용하여, 시청 거리를 유지하는 경우, 시청 조건에 따라, 디스페리티 값을 조정할 수 있다.
이외 에도, 보상 타입 (compensation type)에 따라, 렌더링을 위한 보상 파라미터 (compensation parameter)에 적용되는 값은 달라질 수 있으며, 수신기는 이 정보를 활용하여 시청 환경에 맞는 보상 타입 (compensation type) 에 관련된 정보를 선택하여 적용할 수 있다.
도 11은 본 발명의 일 실시예에 따른, 수신된 기준 시청 조건 정보 또는/및 타겟 시청 조건 정보가 수신단에서의 시청 조건 정보와 불일치할 경우, 깊이 정정 (depth adjustment) 을 수행하는 방법을 나타낸 도면이다.
전술한 바와 같이, 시청 조건이 바뀜에 따라 디스페리티를 조정해야 하는 방법은 시그널링되는 깊이 정정 (depth adjustment)를 위한 파라미터가 존재하지 않을 때, 수신단에서 적합한 베이스라인 (baseline) 값을 도출하는 것에도 적용될 수 있다. 여기서 베이스라인 값은 3D 콘텐트를 생성할 당시, 3D 콘텐트에 포함되는 좌영상 및 우영상을 각각 촬영한 카메라 사이의 거리를 의미할 수 있다.
본 발명의 일 실시예에서는, 조정해야 하는 파라미터 (즉, 베이스라인)에 대한 정보가 없는 경우, 수신단에서는 시그널링된 타겟 시청 조건 정보 (혹은 기준 시청 조건 정보) 및 이에 대응되는 렌더링 파라미터 값을 참조하여, 수신단의 시청 조건 에 적합한 새로운 파라미터를 도출해 낼 수 있다. 즉, 시청 거리, 스크린 크기 및/또는 IOD의 값이 기존의 값과 달라진 경우, 이에 대응하여 디스페리티는 어떻게 적용되어야 하는지의 관계를 파악하여 새로운 디스페리티 (new disparity) 를 도출할 수 있으며, 새로운 디스페리티 값을 토대로 조정할 베이스라인 값을 도출 할 수 있다.
도 11에 도시된 바와 같이, 기존 디스페리티 (old disparity)와 새로운 디스페리티의 관계를 기준으로, 삼각형 비례식을 이용하여, 베이스라인 값을 도출해 낼 수 있다. 도출된 베이스라인 값은 좌영상 및 우영상 각각에서의 특정 상을 나타내기 위한 픽셀의 위치 또는 픽셀의 수를 조정하기 위한 값으로 사용될 수 있다.
도 12는 본 발명의 일 실시예에 따른, 스트레오 3D 렌더링 정보 디스크립터 (stereo 3D rendering information descriptor) 를 나타낸 도면이다.
스트레오 3D 렌더링 정보 디스크립터는 전술한 타겟 시청 조건 정보, 기준 시청 조건 정보 및/또는 이와 관련된 파라미터 정보 (보상 파라미터) 를 포함할 수 있다.
스트레오 3D 렌더링 정보 디스크립터는 view_pair_ID 필드, target_parameter_valid_flag 필드, target_display_size 필드, target_IOD 필드, target_viewing_distance 필드, rendered_param () 필드, num_of_references 필드, ref_parameter_valid_flag 필드, compensation_type 필드, ref_display_size 필드, ref_IOD 필드, ref_viewing_distance 필드 및/또는 ref_compensation_param () 필드를 포함할 수 있다.
view_pair_ID 필드는, 현재 수신되는 스트레오 영상 (stereo view) 을 식별할 수 있는 식별자이며, 이 값을 통해 스트레오 영상에 포함되는 좌영상 및/또는 우영상이 어떠한 엘레먼트리 스트림 (Elementary Stream; ES) 으로 구성되는지 식별할 수 있다. view_pair_ID 필드는 후술될 view_pair_descriptor와 연동하여 사용될 수 있다.
target_parameter_valid_flag 필드는, 베이스 영상 비디오 스트림 (base view video stream) 및/또는 추가 영상 비디오 스트림 (additional view video stream) 과 관련된 시청 조건 필드들의 유효 여부를 식별한다.
target_display_size 필드는, 송신하는 스테레오 콘텐트에 최적화된 권장 디스플레이 크기 (혹은, 스크린 크기)를 의미한다. target_display_size 필드는 화면 비율 (aspect ratio) 이 고정된 경우 대각선 길이인 47인치, 55인치 와 같은 값을 쓸 수도 있다. target_display_size 필드는, 디스플레이 넓이 (display width) 의 거리로 나타낼 수도 있다. target_display_size 필드는 target_parameter_valid_flag의 첫 번째 비트가 ‘1’일 때에만 의미가 있도록 처리될 수 있다.
target_IOD 필드는, 송신하는 스테레오 콘텐트에 최적화된 IOD (Inter-Ocular Distance)를 의미한다. 일반적으로 IOD는 40~80mm 범위에 분포한다. target_IOD 필드는 target_parameter_valid_flag의 두 번째 비트가 ‘1’일 때에만 의미가 있도록 처리될 수 있다.
target_viewing_distance 필드는, 송신하는 스테레오 콘텐트를 보기에 최적화된 권장 시청 거리 (viewing distance) 를 나타낸다. target_viewing_distance 필드는 target_parameter_valid_flag의 세 번째 비트가 ‘1’일 때에만 의미가 있도록 처리될 수 있다.
rendered_param () 필드는, 이 값은 수신기에서 스테레오 콘텐트를 새로 렌더링 할 때 참조할 수 있는 값을 포함할 수 있다. rendered_param () 필드에 포함될 수 있는 대표적인 값으로는 송신하는 스테레오 콘텐트를 제작 할 때의 좌영상 및 우영상을 각각 촬영하는 두 카메라 사이의 거리 (baseline)가 있으며, 이 외에도 스테레오 영상의 보상을 위한 다른 파라미터가 정의될 수 있다. rendered_param () 필드는, target_parameter_valid_flag의 네 번째 비트가 ‘1’일 때에만 의미가 있도록 처리될 수 있다.
num_of_references 필드는, 가상뷰를 생성하기 위해 필요한 가이드 정보 (기준 시청 조건 정보 및 이에 대응되는 파라미터 세트) 의 개수이다.
ref_parameter_valid_flag 필드는, 가상뷰의 생성과 관련된 기준 시청 조건 정보의 필드들의 유효성을 나타낼 수 있다.
compensation_type 필드는, 제공되는 기준 시청 조건 정보 및 보상 파라미터가 어떠한 요소를 기반으로 산출된 것인지를 나타낸다.
ref_display_size 필드는, 송신하는 스테레오 콘텐트에 최적화된 값은 아니나, 수신단 조건에 따라 참조 가능한 디스플레이 크기 (스크린 크기)를 나타낸다. ref_display_size 필드는 ref_parameter_valid_flag 필드의 첫 번째 비트가 ‘1’일 때에만 의미가 있도록 처리될 수 있다.
ref_IOD 필드는, 송신하는 스테레오 콘텐트에 최적화된 값은 아니나, 수신단 조건에 따라 참조 가능한 IOD를 나타낸다. ref_IOD 필드는 ref_parameter_valid_flag 필드의 두 번째 비트가 ‘1’일 때에만 의미가 있도록 처리될 수 있다.
ref_viewing_distance 필드는, 송신하는 스테레오 콘텐트에 최적화된 값은 아니나, 수신단 조건에 따라 참조 가능한 시청 거리를 나타낸다. ref_viewing_distance 필드는 ref_parameter_specified_flag 필드의 세 번째 비트가 ‘1’일 때에만 의미가 있도록 처리될 수 있다.
ref_compensation_param () 필드는, 수신기에서 스테레오 콘텐트를 새로 렌더링 할 시 참조할 수 있는 값으로, 해당 기준 시청 조건 정보 에 대응되는 보상 파라미터를 포함한다. ref_compensation_param () 필드는 ref_parameter_valid_flag 필드의 네번째 비트가 ‘1’일 때에만 의미가 있도록 처리될 수 있다.
ref_compensation_param ()에 포함되는 대표적인 값으로는 송신하는 스테레오 콘텐트를 제작할 때에 좌영상 및 우영상을 각각 촬영하는 두 카메라 사이의 거리 (baseline) 가 있다. 예를 들면, ref_compensation_param ()에는 ref_baseline_distance 필드가 포함될 수 있으며, 이는 대응되는 기준 시청 조건 정보에 최적화된 3D 영상을 분석하기 하기 위한 베이스라인 정보를 나타낸다. 이 외에도 ref_compensation_param ()에는 스테레오 영상의 보상을 위한 다른 파라미터가 포함될 수 있다.
도 13은 본 발명의 일 실시예에 따른, compensation_type 필드의 값에 따른 정의를 나타낸 도면이다.
compensation_type 필드의 값이 ‘0x00’ 으로 셋팅되면, 기준 시청 조건 정보 및 이 조건과 관련된 보상 파라미터가 버전스 각 (vergence angle) 라는 요소를 유지하는 조건으로 산출된 것임을 나타낸다.
compensation_type 필드의 값이 ‘0x01’ 으로 셋팅되면, 기준 시청 조건 정보 및 이 조건과 관련된 보상 파라미터가 시차 각 (parallax angle) 라는 요소를 유지하는 조건으로 산출된 것임을 나타낸다.
compensation_type 필드의 값이 ‘0x02’ 으로 셋팅되면, 기준 시청 조건 정보 및 이 조건과 관련된 보상 파라미터가 시청자를 기준으로 한 시청 거리라는 요소를 유지하는 조건으로 산출된 것임을 나타낸다.
compensation_type 필드의 값이 ‘0x03’ 으로 셋팅되면, 기준 시청 조건 정보 및 이 조건과 관련된 보상 파라미터가 스크린을 기준으로 한 시청 거리라는 요소를 유지하는 조건으로 산출된 것임을 나타낸다.
compensation_type 필드의 ‘0x04’ 내지 ‘0x07’ 값은 추후 사용을 위하여 예약된 값이다.
도 14는 본 발명의 일 실시예에 따른, View pair descriptor를 나타낸 도면이다.
수신기는 view_pair_ID 필드를 이용하여, 스트레오 3D 렌더링 정보 디스크립터와 View pair descriptor를 연관시켜 처리할 수 있다.
View pair descriptor는 num_of_view_pairs 필드, view_pair_ID 필드, left_PID 필드 및/또는 right_PID 필드를 포함한다.
num_of_view_pairs 필드는, 프로그램 내에 포함되는 스테레오 영상 페어 (pair)의 개수를 나타낸다.
view_pair_ID 필드는, 각 스트레오 영상 페어를 식별할 수 있는 식별자이며, 이 값을 통해 포함되는 좌영상 또는 우영상이 어떠한 ES 스트림으로 구성되는지 식별할 수 있다.
left_PID 필드는, 좌영상에 해당하는 영상의 PID 값을 나타낸다.
right_PID 필드는, 우영상에 해당하는 영상의 PID 값을 나타낸다.
View pair descriptor는 좌영상 및/또는 우영상의 PID 정보 외에도, 좌영상에 대한 깊이 정보 및/또는 우영상에 대한 깊이 정보를 포함하는 스트림을 식별할 수 있는 각각의 PID 정보를 더 포함할 수 있다.
도 15는 본 발명의 일 실시예에 따른, PMT (Program Map Table) 의 일부를 나타낸 도면이다.
전술한 스트레오 3D 렌더링 정보 디스크립터는 PMT에 포함될 수 있고, 이 경우, 스트레오 3D 렌더링 정보 디스크립터는 프로그램 레벨의 시그널링을 수행할 수 있다(option 1). 이 경우, 스트레오 3D 렌더링 정보 디스크립터는 프로그램에 포함되는 스트레오 영상에 대한 타겟 시청 조건 정보, 기준 시청 조건 정보 및/또는 이와 관련된 보상 파라미터를 전송한다. 도 15를 참조하면, option 1의 경우, PMT 내의 스트레오 3D 렌더링 정보 디스크립터의 위치를 알 수 있다.
또는 스트레오 3D 렌더링 정보 디스크립터는 깊이 스트림 (depth stream) 에 해당하는 엘레멘터리 스트림 (elementary stream; ES) 레벨에서 해당 정보를 시그널링 할 수도 있다 (option 2). 도 15를 참조하면, option 2의 경우, PMT 내의 스트레오 3D 렌더링 정보 디스크립터의 위치를 알 수 있다.
또는, 스트레오 3D 렌더링 정보 디스크립터는 깊이에 대응되는 비디오 엘레먼터리 스트림 (video elementary stream)에 해당하는 ES 레벨 루프 (loop) 에서 해당 정보를 시그널링을 할 수 있다 (option 3). 도 15를 참조하면, option 3의 경우, PMT 내의 스트레오 3D 렌더링 정보 디스크립터의 위치를 알 수 있다.
프로그램 내에 포함된 스테레오 영상을 전송하는 ES는, 프로그램 레벨의 view_pair_descriptor를 통해 시그널링 될 수 있다. 이 경우, view_pair_descriptor는 PMT에 포함되어 전송될 수 있다.
도 16은 본 발명의 일 실시예에 따른, VCT (Virtual Channel Table) 의 일부를 나타낸 도면이다.
스트레오 3D 렌더링 정보 디스크립터는 TVCT에 포함되어 전송될 수 있다. 이 경우, 스트레오 3D 렌더링 정보 디스크립터는 channel level descriptor loop에 위치할 수 있다. (Option 1)
또는, 스트레오 3D 렌더링 정보 디스크립터는 기존의 component list descriptor에 위치할 수 있으며 (Option 2), 또는 service location descriptor를 확장해 스트레오 3D 렌더링 정보 디스크립터는의 필드들을 포함시킬 수 있다. (Option 3)
채널 내에 포함된 스테레오 영상을 전송하는 ES는, 채널 레벨의 view_pair_descriptor를 통해 시그널링 할 수 있다.
도 17은 본 발명의 일 실시예에 따른, SDT (Service Description Table)을 나타낸 도면이다.
SDT(service description table)는 DVB-SI에서 특정 트랜스포트 스트림에 포함된 서비스들을 설명하는 테이블이다.
본 발명의 일 실시예에 따른 SDT는 table_id 필드, section_syntax_indicator 필드, section_length 필드, transport_stream_id 필드, version_number 필드, current_next_indicator 필드, section_number 필드, last_section_number 필드, original_network_id 필드, service_id 필드, EIT_schedule_flag 필드, EIT_present_following_flag 필드, running_status 필드, free_CA_mode 필드, descriptors_loop_length 필드, descriptor () 필드 및/또는 CRC_32 필드를 포함한다.
table_id 필드는 8 비트 필드로써, 이 섹션이 Service Description Table에 속한다는 것을 나타낸다..
section_syntax_indicator 필드는 1 비트 필드로써, 1로 설정된다.
section_length 필드는 12 비트 필드로써, 첫 두 비트는 00으로 설정된다. 이 필드 이후부터 CRC를 포함하는 섹션의 바이트 수를 나타낸다. 이 필드는 1021를 넘지 못하며 전체 섹션 길이는 최대 1024 bytes가 된다.
transport_stream_id 필드는 16 비트 필드로써, TS를 구별하는 레이블 역할을 한다.
version_number 필드는 5 비트 필드로써 sub_table의 버전 번호를 나타낸다.
current_next_indicator 필드는 1 비트이며 sub_table이 현재 적용 가능한 것일 경우 값이 1로 설정된다. 만약 0으로 설정되어 있다면, 이는 아직 적용할 수 없으며 다음 테이블이 유효함을 의미한다.
section_number 필드는 8 비트이며 섹션의 수를 나타낸다. 첫 번째 섹션은 0x00의 값을 가지며, 동일 table_id, 동일 transport_stream_id 및 동일original_network_id를 갖는 추가 섹션마다 값이 1씩 증가한다.
last_section_number 필드는 8 비트이며 이 섹션이 일부분인 해당 sub_table의 마지막 섹션(즉 가장 높은 section_number 필드)의 번호를 나타낸다.
original_network_id 필드는 16 비트 필드로써, 전송 시스템의 network_id를 확인하는 레이블이다.
service_id 필드는 16 비트 필드로써, TS 내에 포함된 다른 서비스와 구별 짓는 레이블 역할을 한다. 이는 program_map_section의 program_number와 동일하다.
EIT_schedule_flag 필드는 1 비트 필드로써 1로 설정되면 현재 TS 내에 해당 서비스를 위한 EIT 스케쥴 정보가 포함되어 있음을 나타낸다. 0이면 포함되어 있지 않음을 나타낸다.
EIT_present_following_flag 필드는 1 비트 필드로써, 1로 설정되면 현재 TS 내에 해당 서비스를 위한 EIT_present_following 정보가 포함되어 있음을 나타낸다. 0이면 EIT present/following 정보가 현재 TS에 포함되어 있지 않음을 나타낸다.
running_status 필드는 3 비트 필드로써 서비스의 상태를 나타낸다.
free_CA_mode 필드는 1 비트 필드로써, 0으로 설정되면 해당 서비스의 모든 요소 스트림들이 스크램블되지 않음을 나타낸다. 1로 설정되면, 하나 또는 그 이상의 스트림이 CA 시스템에 의해 제어되고 있음을 의미한다.
descriptors_loop_length 필드는 12 비트 필드로써 따라오는 디스크립터의 전체 길이를 바이트 단위로 나타낸다.
Descriptor () 필드는 서비스에 대한 descriptor를 포함할 수 있다. 전술한 스트레오 3D 렌더링 정보 디스크립터 및/또는 view_pair_descriptor는 위 descriptor () 필드에 포함될 수 있다.
CRC_32 필드는 32 비트 필드로써, 디코더에서 레지스터의 zero output을 위한 CRC value를 나타낸다.
도 18은 본 발명의 일 실시예에 따른, user_data_registered_itu_t_t35 () 를 나타낸 도면이다.
스트레오 3D 렌더링 정보 디스크립터에 포함되는 정보는 비디오 영역을 통하여 전송될 수 있다.
H.264 (또는 AVC) 비디오의 경우에는, 스트레오 3D 렌더링 정보 디스크립터에 포함되는 정보를 SEI (Supplemental Enhancement Information) 영역에 포함시켜 전송할 수 있다. 이 경우, user_data_registered_itu_t_t35 ()에 user_identifier와 user_structure ()를 포함시킬 수 있다. 즉, user_data () 대신 SEI 페이로드에서 해당 정보를 전송한다. SEI는 MPEG-2의 picture extension 및 user data의 역할을 수행하며, 위치 또한 비슷하게 설정 할 수 있다.
도 19는 본 발명의 일 실시예에 따른, user_identifier와 이에 따른 user_structure () 및 DVB1_data () 를 나타낸 도면이다.
도 19의 (a)를 참조하면, user_identifier가 ‘0x47413934 (GA94)’ 의 값을 가지는 경우, user_structure ()는 DVB1_data ()를 포함한다.
도 19의 (b)를 참조하면, DVB1_data ()는 user_data_type_code 및/또는 user_data_type_structure ()를 포함할 수 있다.
user_data_type_code 는 user_data_type_structure()에 실리는 데이터의 종류를 나타낸다.
본 발명의 일 실시예에 따르면, user_data_type_structure ()는 전술한 스트레오 3D 렌더링 정보 디스크립터에 포함되는 정보를 포함할 수 있다.
도 20은 본 발명의 일 실시예에 따른, 스트레오 3D 렌더링 정보 SEI 메시지를 나타낸 도면이다.
스트레오 3D 렌더링 정보 SEI 메시지는 전술한 user_data_type_structure ()에 포함될 수 있다.
스트레오 3D 렌더링 정보 SEI 메시지는 stereo_3D_rendering_info_id 필드, stereo_3D_rendering_info_cancel_flag 필드, view_pair_id 필드, target_parameter_valid_flag 필드, target_display_size 필드, target_IOD 필드, target_viewing_distance 필드, rendered_param () 필드, num_of_references 필드, ref_parameter_valid_flag 필드, compensation_type 필드, ref_display_size 필드, ref_IOD 필드, ref_viewing_distance 필드 및/또는 ref_compensation_param () 필드를 포함한다.
view_pair_ID 필드의 값은 프로그램 레벨, 채널 레벨 및/또는 서비스 레벨의 view_pair_descriptor에 포함된 정보와 연결되어, view_pair_descriptor 내의 정보를 참조하도록 하는 역할을 수행한다. view_pair_ID 필드 대신 좌영상 및 우영상 각각 ES 의 PID를 직접 시그널링할 수도 있다.
Stereo_3D_rendering_info_id 필드는 스트레오 3D 렌더링 정보 SEI 메시지에 포함된 정보 조합을 식별하기 위한 식별 번호를 나타낸다.
Stereo_3D_rendering_info_cancel_flag 필드는, 그 값이 ‘1’인 경우, 이전 픽쳐 (picture)까지 적용된 스트레오 3D 렌더링 정보가 더 이상 적용되지 않음을 의미한다.
Stereo 3D rendering Info SEI message 필드는, 비디오 레벨에서 스트레오 3D 렌더링 관련 정보를 알려주기 위해 stereo_3D_rendering_info_data를 전송하는 방법을 나타낸다.
나머지 필드들에 대한 설명은 도 12에서 설명한 각 필드들에 대한 설명으로 대체한다.
특정 영상의 비디오 데이터 혹은 깊이 (depth) 스트림에 스트레오 3D 렌더링 정보 SEI 메시지 가 포함되는 경우, stereo_3D_rendering_info_data를 통해 해당 스트림의 영상에 대한 입체 정보 등을 시그널링할 수 있다.
stereo_3D_rendering_info_data ()는 SEI RBSP (raw byte sequence payload)를 통해 수신될 수 있다. 수신기는 AVC NAL unit을 파싱하여 nal_unit_type의 값이 6이면 SEI 데이터이며, payloadType 값이 4인 user_data_registered_itu_t_t35 SEI 메시지를 읽어 user_identifier 값을 확인한다. 수신기는 user_identifier 값이 0x47413934에 해당하는 user_structure ()를 읽어서 user_data_type_code가 0x12인 데이터를 추출한다. 수신기는 해당 데이터에서 stereo_3D_rendering_info_data ()를 파싱해 3D 영상 시청 조건과 관련한 정보 및 추후 가상 3D 영상 생성을 위한 정보를 획득한다.
도 21은 본 발명의 일 실시예에 따른, stereo 3D rendering info SEI descriptor를 나타낸 도면이다.
Stereo 3D rendering info SEI descriptor는 PMT의 프로그램 레벨 또는 ES 레벨 등에 위치할 수 있으며, 비디오 내에 Stereo 3D rendering Info SEI message가 포함되었는지 여부를 수신기가 시스템 레벨에서 미리 알 수 있도록 시그널링 정보를 제공한다.
stereo 3D rendering info SEI descriptor는 stereo_3D_rendering _info_SEI_message_exist_flag 필드를 포함할 수 있다.
stereo_3D_rendering _info_SEI_message_exist_flag 필드는, 수신되는 비디오 스트림 내에 스트레오 3D 영상 렌더링 관련 정보를 상세하게 알 수 있는 stereo 3D rendering SEI message가 포함되었는지 여부를 나타낸다.
도 22는 본 발명의 일 실시예에 따른, 스크린 크기에 맞는 스트레오 영상을 제공하는 방법을 나타낸 도면이다.
분포도가 높은 시청 조건을 미리 선정하여, 송신단에서 각각에 맞는 콘텐트를 미리 생성하는 경우, 각 케이스에 대한 스트레오 영상 페어 (Stereo view pair) 를 모두 전송할 시 요구되는 Bandwidth 등의 자원을 최소화하기 위해, 송신단에서는 하나의 영상을 고정하여 전송하고 나머지 영상만을 스크린 크기에 맞게, 가변적으로 전송할 수 있다.
예를 들면, 2D 채널을 통하여 수신기의 스크린 크기에 관계 없이, 모든 수신기에서 사용하는 비디오 엘레먼트를 전송하고, 3D 채널을 통하여, 각 스크린 크기에 맞는 영상을 포함하는 비디오 엘레먼트를 전송 할 수 있다. 수신기에서는 2D 채널을 통하여 전송되는 영상과 3D 채널을 통하여 전송되는 영상 중 자신의 스크린 크기에 맞는 영상을 결합하여, 스크린 크기에 맞는 3D 영상을 렌더링할 수 있다.
큰 스크린을 위한 영상을 포함하는 비디오 엘레먼트는 인터넷망을 통하여 전송할 수 있다.
예를 들어, 송신단에서 32인치의 스크린 크기를 가지는 수신기를 위한 영상을 포함하는 비디오 엘레먼트는 방송망을 통하여 전송하고, 42인치 또는 52인치의 스크린 크기를 가지는 수신기를 위한 영상을 포함하는 비디오 엘레먼트는 인터넷 망을 통하여 전송할 수 있다.
도 23은 본 발명의 일 실시예에 따른, 시청 조건에 맞는 3D 영상을 제공하기 위한 시그널링 시나리오를 나타낸 도면이다.
방송망을 통하여 스트레오 영상을 전송하는 경우, PMT의 프로그램 레벨, TVCT의 채널 레벨, SDT의 서비스 레벨, EIT의 이벤트 레벨, 및/또는 비디오 엘레먼트의 비디오 헤더를 통하여 스트레오 영상을 위한 시그널링을 할 수 있다. 비디오 엘레먼트의 비디오 헤더를 통하여 시그널링을 하는 경우, SEI 메시지에 시그널링에 필요한 정보를 포함시킬 수 있다.
방송망을 통하여 스트레오 영상을 전송하는 경우, 2D 채널은 베이스 영상 비디오 엘레먼트를 전송하고, 3D 채널은 2D 채널에서 전송되는 베이스 영상 비디오 엘레먼트와 결합하여 3D 영상을 렌더링할 수 있는 추가 영상 비디오 엘레먼트를 전송하거나, 베이스 영상 비디오 엘레먼트와 추가 영상 비디오 엘레먼트를 함께 전송할 수 있다.
방송망을 통하여 스트레오 영상을 전송하는 경우, 베이스 영상 비디오 엘레먼트와 추가 영상 비디오 엘레먼트의 조합에 대한 타겟 시청 조건에 관한 정보 (예를 들면. 시청 거리, 스크린 크기, IOD 등)를 시그널링를 통하여 제공할 수 있다. 2D 채널의 경우 생략 위 정보는 제공되지 않을 수 있다. 시그널링 정보에는 비디오 데이터는 없으나, 스트레오 영상 분석으로 렌더링 가능한 가상 뷰 포인트 (view point)에 대한 조건 정보가 포함될 수 있다. 시그널링 정보에는 out-of-band (broadband 등)로 수신 가능한 추가 영상 비디오 엘레먼트 에 대한 정보 (예를 들면, 해당 비디오 엘레먼트를 제공하는 IP 주소, ES PID, 스케줄 정보 등)가 포함될 수 있다.
인터넷망 또는 다른 채널 (예를 들면, non-real-time 채널)을 통하여 스트레오 영상을 위한 추가 영상 비디오 엘레먼트를 전송하는 경우, 인터넷망을 이용하는 경우에는 IP 레이어 시그널링 및/또는 비디오 레벨 시그널링을 수행할 수 있고, 다른 채널을 이용하는 경우에는, PMT의 프로그램 레벨, TVCT의 채널 레벨, SDT의 서비스 레벨, EIT의 이벤트 레벨, 및/또는 비디오 엘레먼트의 비디오 헤더를 통하여 추가 영상 비디오 엘레먼트를 위한 시그널링을 할 수 있다. 비디오 엘레먼트의 비디오 헤더를 통하여 시그널링을 하는 경우, SEI 메시지에 시그널링에 필요한 정보를 포함시킬 수 있다.
인터넷망 또는 다른 채널을 통하여 스트레오 영상을 위한 추가 영상 비디오 엘레먼트를 전송하는 경우, 베이스 영상 에 대한 시그널링 정보 (예를 들면, channel 정보, PID 등)을 위 시그널링을 통하여 전송할 수 있다. 시그널링 정보에는 비디오 데이터는 없으나 스트레오 영상 분석으로 렌더링 가능한 가상 뷰 포인트 에 대한 조건 정보가 포함될 수 있다. 이 조건 정보에 대하여는 도 24 및 이에 대한 설명을 참조할 수 있다. 시그널링 정보에는 추가 영상 비디오 엘레먼트 또는 이와 관련된 시그널링 정보를 기존 (legacy) 수신기가 수신하지 못하도록 하는 필드가 포함될 수 있다, 이러한 필드의 예로는 hidden channel, unknown service type 등이 있을 수 있다.
도 24는 본 발명의 일 실시예에 따른, 스트레오 3D 시청 조건 정보 디스크립터를 나타낸 도면이다.
분포도가 높은 시청 조건을 미리 선정하여, 송신단에서 각각에 맞는 콘텐트를 미리 생성하는 경우, 각 케이스에 대한 스트레오 영상 페어 (Stereo view pair) 를 모두 전송할 시 요구되는 Bandwidth 등의 자원을 최소화하기 위해, 송신단에서는 하나의 영상을 고정하여 전송하고 나머지 영상을 별도 독립적인 경로를 통해 실시간 또는 비실시간으로 전송할 수 있다.
이 경우, view pair descriptor() 는 추가 영상 비디오 가 전송되는 채널의 시그널링 섹션 정보에 포함되어 전송될 수 있으며, view pair descriptor()에는 3D 영상 페어의 구성 정보가 포함될 수 있다.
스트레오 3D 시청 조건 정보 디스크립터는 base_channel_number 필드, base_program_number 필드, base_source_id 필드, base_network_id 필드, base_PID 필드 및/또는 num_of_view_pairs 필드를 포함할 수 있다.
base_channel_number 필드는 현재 채널 또는 기타 경로를 통하여 추가 영상 비디오만을 송신하는 경우, 이와 관련된 베이스 영상 비디오를 전송하는 채널 번호를 나타낸다.
base_program_number 필드는 현재 채널 또는 기타 경로를 통하여 추가 영상 비디오만을 송신하는 경우, 이와 관련된 베이스 영상 비디오의 프로그램 번호를 나타낸다.
base_source_id 필드는 현재 채널 또는 기타 경로를 통하여 추가 영상 비디오만을 송신하는 경우, 이와 관련된 베이스 영상 비디오의 소스를 식별하는 식별자이다.
base_network_id 필드는 현재 채널 또는 기타 경로를 통하여 추가 영상 비디오만을 송신하는 경우, 이와 관련된 베이스 영상 비디오를 제공하는 네트워크를 식별하는 식별자이다.
base_PID 필드는 현재 채널 또는 기타 경로를 통하여 추가 영상 비디오만을 송신하는 경우, 이와 관련된 베이스 영상 비디오를 전송하는 패킷의 PID를 나타낸다.
num_of_view_pairs 필드는 제공되는 스트레오 3D 영상의 개수를 나타낸다..
나머지 필드들에 대한 설명은 도 12에서 설명한 필드들에 대한 설명으로 대체한다.
도 25는 본 발명의 일 실시예에 따른, 시청 조건에 맞는 3D 영상을 제공하는 수신기를 나타낸 도면이다.
시청 조건에 맞는 3D 영상을 제공하는 수신기는 튜너 및 복조부 (25010), VSB 디코더 (25020), 트랜스포트 패킷 역다중화부 (25030), 제 2 디코더 (25040), MVC extension 레이어 디코더 (25050), AVC 레이어 디코더 (25060) 제 1 디코더 (25070), PSI/PSIP/SI 프로세서 (25080), 시청 분석 모듈 (25090), 제 1 가상 영상 생성부 (25100), 제 2 가상 영상 생성부 (25110) 및/또는 출력 포맷터 (25120)을 포함할 수 있다.
튜너 및 복조부 (25010)는 3D 방송 채널로 튜닝을 수행하고, 수신한 신호를 복조한다.
VSB 디코더 (25020)는 VSB 가 적용된 신호를 디코딩한다. 본 블록의 명칭은 VSB 디코더로 명명하였으나, OFDM 적용된 신호를 디코딩하는 블록으로 볼 수도 있다.
트랜스포트 패킷 역다중화부 (25030)는 방송 신호에서 트랜스포트 패킷을 분리한다. 특히, 패킷식별자를 필터링하는 역할을 한다.
제 2 디코더 (25040)는 제 2 영상을 위한 깊이 정보를 디코딩한다.
MVC extension 레이어 디코더 (25050)는 제 2 영상을 위한 데이터를 디코딩한다.
AVC 레이어 디코더 (25060)는 제 1 영상을 위한 데이터를 디코딩한다.
제 1 디코더 (25070)는 제 1 영상을 위한 깊이 정보를 디코딩한다.
PSI/PSIP/SI 프로세서 (25080)는 시그널링 신호에 대한 처리를 수행한다. 예를 들면, PSIP 또는 DVB SI에 포함된 여러 테이블을 처리하거나, 시그널링 패킷, 시그널링 세그먼트 등을 처리하는 역할을 한다. PSI/PSIP/SI 프로세서 (25080)는 전술한 디스크립터 등에 포함되는 정보를 처리하는 역할을 수행할 수 있다.
시청 분석 모듈 (25090)은 도 1 또는 도 2에 설명된 역할을 수행한다. 시청 분석 모듈에 대한 상세한 설명은 도 1 또는 도 2에 대한 설명으로 대체한다.
제 1 가상 영상 생성부 (25100)는 영상 분석 모듈에서 분석된 정보 또는 데이터를 바탕으로 제 1 가상 영상을 렌더링한다. 예를 들면, 제 1 가상 영상은 3D 영상에 포함되는 좌영상일 수 있다.
제 2 가상 영상 생성부 (25110)는 영상 분석 모듈에서 분석된 정보 또는 데이터를 바탕으로 제 2 가상 영상을 렌더링한다. 예를 들면, 제 2 가상 영상은 3D 영상에 포함되는 우영상일 수 있다.
출력 포맷터 (25120)는 제 1 가상 영상 및 제 2 가상 영상을 결합하여 3D 영상을 포맷팅한다.
도 26은 본 발명의 일 실시예에 따른, 3D 방송 신호 처리 방법을 나타낸 순서도이다.
수신기는 3D (3-dimensional) 콘텐트를 포함하는 방송 신호를 수신한다(s26010).
수신기는 수신한 방송 신호에서 타겟 시청 조건 정보 및 하나 이상의 기준 시청 조건 정보를 파싱한다(s26020). 여기서 상기 타겟 시청 조건 정보는 3D 콘텐트를 시청하기 위한 최적의 스크린 크기를 나타내는 정보, 상기 3D 콘텐트를 시청하기 위한 최적의 시청 거리를 나타내는 정보 및 상기 3D 콘텐트를 시청하기 위한 최적의 IOD (Inter Ocular Distance) 를 나타내는 정보를 포함하며, 상기 기준 시청 정보는 권장되는 스크린 크기, 권장되는 시청 거리, 권장되는 IOD, 및 상기 권장되는 스크린 크기, 권장되는 시청 거리 및 권장되는 IOD가 어떠한 요소를 기반으로 산출되었는지를 나타내는 보상 타입 정보를 나타내는 정보를 포함한다.
수신기는 시청자의 시청 조건 정보를 수신하고, 상기 수신한 시청 조건 정보가 상기 타겟 시청 조건 정보와 일치하지 않는 경우, 상기 수신한 시청 조건 정보와 가장 근사한 정보를 포함하는 기준 시청 조건 정보에 포함되는 보상 타입 정보를 파싱하고, 상기 보상 타입 정보가 나타내는 요소를 유지하도록 상기 3D 콘텐트를 렌더링한다(s26030).
수신기는 렌더링된 3D 콘텐트를 디스플레이하도록 제어한다(s26040).
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 발명에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 방송 프로그램과 관련한 방송 신호 처리 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
그리고, 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양발명의 설명은 보충적으로 적용될 수가 있다.
발명의 실시를 위한 형태
발명의 실시를 위한 형태는 전술한 바와 같이, 발명의 실시를 위한 최선의 형태로 상술되었다.
본 발명은 3DTV 방송 서비스의 제공과 관련한 일련의 산업분야에서 이용 가능하다.
Claims (14)
- 3D (3-dimensional) 콘텐트를 포함하는 방송 신호를 수신하는 튜너;
상기 수신한 방송 신호에서 타겟 시청 조건 정보 및 하나 이상의 기준 시청 조건 정보를 파싱하는 서비스 정보 프로세서,
여기서 상기 타겟 시청 조건 정보는 3D 콘텐트를 시청하기 위한 최적의 스크린 크기를 나타내는 정보, 상기 3D 콘텐트를 시청하기 위한 최적의 시청 거리를 나타내는 정보 및 상기 3D 콘텐트를 시청하기 위한 최적의 IOD (Inter Ocular Distance) 를 나타내는 정보를 포함하며, 상기 기준 시청 정보는 권장되는 스크린 크기, 권장되는 시청 거리, 권장되는 IOD, 및 상기 권장되는 스크린 크기, 권장되는 시청 거리 및 권장되는 IOD가 어떠한 요소를 기반으로 산출되었는지를 나타내는 보상 타입 정보를 나타내는 정보를 포함하며;
시청자의 시청 조건 정보를 수신하고, 상기 수신한 시청 조건 정보가 상기 타겟 시청 조건 정보와 일치하지 않는 경우, 상기 수신한 시청 조건 정보와 가장 근사한 정보를 포함하는 기준 시청 조건 정보에 포함되는 보상 타입 정보를 파싱하고, 상기 보상 타입 정보가 나타내는 요소를 유지하도록 상기 3D 콘텐트를 렌더링하는 시청 분석 모듈; 및
상기 렌더링된 3D 콘텐트를 디스플레이하도록 제어하는 출력 포맷터;
를 포함하는 3D 방송 신호 처리 장치. - 제 1 항에 있어서, 상기 서비스 정보 프로세서는,
상기 타겟 시청 조건 정보 및 하나 이상의 기준 시청 조건 정보를 상기 3D 콘텐트를 위한 비디오 엘레먼트의 비디오 헤더에 포함되는 SEI 메시지로부터 파싱하는 것을 특징으로 하는 3D 방송 신호 처리 장치. - 제 1 항에 있어서, 상기 서비스 정보 프로세서는,
상기 타겟 시청 조건 정보 및 하나 이상의 기준 시청 조건 정보를 PMT (Program Map Table) 에 포함되는 스트레오 3D 렌더링 정보 디스크립터로부터 파싱하는 것을 특징으로 하는 3D 방송 신호 처리 장치. - 제 1 항에 있어서, 상기 서비스 정보 프로세서는,
상기 타겟 시청 조건 정보 및 하나 이상의 기준 시청 조건 정보를 VCT (Virtual Channel Table) 또는 SDT (Service Description Table) 에 포함되는 스트레오 3D 렌더링 정보 디스크립터로부터 파싱하는 것을 특징으로 하는 3D 방송 신호 처리 장치. - 제 1 항에 있어서, 상기 기준 시청 조건 정보는,
상기 권장되는 스크린 크기, 권장되는 시청 거리 또는 권장되는 IOD가 유효한 정보인지 여부를 나타내는 기준 파라미터 유효 정보를 더 포함하는 것을 특징으로 하는 3D 방송 신호 처리 장치. - 제 1 항에 있어서, 상기 기준 시청 조건 정보는,
상기 기준 시청 조건 정보를 기준으로 상기 3D 콘텐트를 렌더링하기 위한 보상 파라미터 정보를 더 포함하는 것을 특징으로 하는 3D 방송 신호 처리 장치. - 제 6 항에 있어서, 상기 보상 파라미터 정보는,
상기 3D 콘텐트의 좌영상 및 우영상을 각각 촬영하는 카메라 사이의 거리를 나타내는 정보를 포함하는 것을 특징으로 하는 3D 방송 신호 처리 장치. - 3D (3-dimensional) 콘텐트를 생성하는 단계;
타겟 시청 조건 정보 또는 하나 이상의 기준 시청 조건 정보를 생성하는 단계,
여기서 상기 타겟 시청 조건 정보는 3D 콘텐트를 시청하기 위한 최적의 스크린 크기를 나타내는 정보, 상기 3D 콘텐트를 시청하기 위한 최적의 시청 거리를 나타내는 정보 또는 상기 3D 콘텐트를 시청하기 위한 최적의 IOD (Inter Ocular Distance) 를 나타내는 정보를 포함하며, 상기 기준 시청 정보는 권장되는 스크린 크기, 권장되는 시청 거리, 권장되는 IOD, 또는 상기 권장되는 스크린 크기, 권장되는 시청 거리 또는 권장되는 IOD가 어떠한 요소를 기반으로 산출되었는지를 나타내는 보상 타입 정보를 나타내는 정보를 포함하며;
상기 3D 콘텐트와, 상기 타겟 시청 조건 정보 또는 하나 이상의 기준 시청 조건 정보를 포함하는 방송 신호를 생성하는 단계; 및
상기 생성한 방송 신호를 전송하는 단계;
를 포함하는 3D 방송 신호 송신 처리 방법. - 제 8 항에 있어서, 방송 신호를 생성하는 단계는,
상기 타겟 시청 조건 정보 또는 하나 이상의 기준 시청 조건 정보를 상기 3D 콘텐트를 위한 비디오 엘레먼트의 비디오 헤더에 포함되는 SEI 메시지에 삽입하는 단계;
를 포함하는 것을 특징으로 하는 3D 방송 신호 송신 처리 방법. - 제 8 항에 있어서, 방송 신호를 생성하는 단계는,
상기 타겟 시청 조건 정보 또는 하나 이상의 기준 시청 조건 정보를, 스트레오 3D 렌더링 정보 디스크립터에 포함시켜, PMT (Program Map Table) 에 삽입하는 단계;
를 포함하는 것을 특징으로 하는 3D 방송 신호 송신 처리 방법. - 제 8 항에 있어서, 방송 신호를 생성하는 단계는,
상기 타겟 시청 조건 정보 또는 하나 이상의 기준 시청 조건 정보를, 스트레오 3D 렌더링 정보 디스크립터에 포함시켜, VCT (Virtual Channel Table) 또는 SDT (Service Description Table) 에 삽입하는 단계;
를 포함하는 것을 특징으로 하는 3D 방송 신호 송신 처리 방법. - 제 8 항에 있어서, 상기 기준 시청 조건 정보는,
상기 권장되는 스크린 크기, 권장되는 시청 거리 또는 권장되는 IOD가 유효한 정보인지 여부를 나타내는 기준 파라미터 유효 정보를 더 포함하는 것을 특징으로 하는 3D 방송 신호 송신 처리 방법. - 제 8 항에 있어서, 상기 기준 시청 조건 정보는,
상기 기준 시청 조건 정보를 기준으로 상기 3D 콘텐트를 렌더링하기 위한 보상 파라미터 정보를 더 포함하는 것을 특징으로 하는 3D 방송 신호 송신 처리 방법. - 제 13 항에 있어서, 상기 보상 파라미터 정보는,
상기 3D 콘텐트의 좌영상 및 우영상을 각각 촬영하는 카메라 사이의 거리를 나타내는 정보를 포함하는 것을 특징으로 하는 3D 방송 신호 송신 처리 방법.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261655491P | 2012-06-05 | 2012-06-05 | |
US61/655,491 | 2012-06-05 | ||
PCT/KR2013/004983 WO2013183947A1 (ko) | 2012-06-05 | 2013-06-05 | 3d 방송 서비스를 위한 방송 신호 처리 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150023329A true KR20150023329A (ko) | 2015-03-05 |
KR102104898B1 KR102104898B1 (ko) | 2020-04-27 |
Family
ID=49712281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020147033701A KR102104898B1 (ko) | 2012-06-05 | 2013-06-05 | 3d 방송 서비스를 위한 방송 신호 처리 방법 및 장치 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9900578B2 (ko) |
EP (1) | EP2858363A4 (ko) |
JP (1) | JP6141971B2 (ko) |
KR (1) | KR102104898B1 (ko) |
CN (1) | CN104584547B (ko) |
WO (1) | WO2013183947A1 (ko) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9292329B2 (en) * | 2011-02-10 | 2016-03-22 | Microsoft Technology Licensing, Llc | Virtual switch interceptor |
CN105075253A (zh) * | 2014-02-21 | 2015-11-18 | Lg电子株式会社 | 用于处理3维广播信号的方法和设备 |
KR20160092362A (ko) * | 2015-01-27 | 2016-08-04 | 한국전자통신연구원 | 3d 방송 서비스 제공 방법 및 상기 방법을 수행하는 3d 방송 제공 장치 |
US20180048408A1 (en) * | 2015-04-27 | 2018-02-15 | Sharp Kabushiki Kaisha | Service signaling extensions |
WO2016204323A1 (ko) * | 2015-06-17 | 2016-12-22 | (주)에프엑스기어 | 사용자 시점 연동형 영상 처리 장치 및 그 방법 |
CN114928736B (zh) | 2016-10-12 | 2024-04-19 | 弗劳恩霍夫应用研究促进协会 | 空间不均等流媒体化 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110126101A (ko) * | 2009-02-01 | 2011-11-22 | 엘지전자 주식회사 | 방송 수신기 및 3d 비디오 데이터 처리 방법 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2306826A (en) * | 1995-10-18 | 1997-05-07 | Sharp Kk | Display, method of calibrating an observer tracking display and observer tracking autostereoscopic 3D display |
JPH09238367A (ja) | 1996-02-29 | 1997-09-09 | Matsushita Electric Ind Co Ltd | テレビジョン信号送信方法,テレビジョン信号送信装置,テレビジョン信号受信方法,テレビジョン信号受信装置,テレビジョン信号送信受信方法,テレビジョン信号送信受信装置 |
US8269822B2 (en) * | 2007-04-03 | 2012-09-18 | Sony Computer Entertainment America, LLC | Display viewing system and methods for optimizing display view based on active tracking |
KR101506219B1 (ko) | 2008-03-25 | 2015-03-27 | 삼성전자주식회사 | 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체 |
CA2727569C (en) * | 2008-06-09 | 2017-09-26 | Vidyo, Inc. | Improved view layout management in scalable video and audio communication systems |
JP2010045584A (ja) | 2008-08-12 | 2010-02-25 | Sony Corp | 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体 |
JP4576570B1 (ja) | 2009-06-08 | 2010-11-10 | Necカシオモバイルコミュニケーションズ株式会社 | 端末装置及びプログラム |
CA2765570C (en) * | 2009-06-16 | 2016-05-03 | Lg Electronics Inc. | Broadcast transmitter, broadcast receiver and 3d video processing method thereof |
MX2011003076A (es) | 2009-06-17 | 2011-04-19 | Panasonic Corp | Medio de grabacion de informacion y dispositivo de reproduccion para reproducir imagenes en tercera dimension. |
US8629899B2 (en) * | 2009-08-06 | 2014-01-14 | Qualcomm Incorporated | Transforming video data in accordance with human visual system feedback metrics |
RU2559735C2 (ru) | 2009-09-16 | 2015-08-10 | Конинклейке Филипс Электроникс Н.В. | Компенсация размера трехмерного экрана |
JP2011146828A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | データ構造、記録装置および記録方法、再生装置および再生方法、並びにプログラム |
JP2011259289A (ja) | 2010-06-10 | 2011-12-22 | Fa System Engineering Co Ltd | 視聴状況対応3d表示装置および3d表示方法 |
JP5500645B2 (ja) | 2010-06-25 | 2014-05-21 | Kddi株式会社 | 映像調整装置、テレビ受信装置及びプログラム |
EP2586209A1 (en) * | 2010-06-28 | 2013-05-01 | Thomson Licensing | Method and apparatus for customizing 3-dimensional effects of stereo content |
KR20120023268A (ko) | 2010-09-01 | 2012-03-13 | 삼성전자주식회사 | 디스플레이 장치 및 그 영상 생성 방법 |
EP2637412B1 (en) * | 2010-11-02 | 2017-08-23 | LG Electronics Inc. | Apparatus and method for receiving a digital broadcast signal |
US9237331B2 (en) * | 2011-01-18 | 2016-01-12 | Disney Enterprises, Inc. | Computational stereoscopic camera system |
KR101028930B1 (ko) * | 2011-01-19 | 2011-04-12 | 조용성 | 화면크기 보다 확장된 크기의 영상을 제공하는 영상신호 출력장치 |
-
2013
- 2013-06-05 US US14/405,351 patent/US9900578B2/en not_active Expired - Fee Related
- 2013-06-05 EP EP13800016.1A patent/EP2858363A4/en not_active Withdrawn
- 2013-06-05 WO PCT/KR2013/004983 patent/WO2013183947A1/ko active Application Filing
- 2013-06-05 JP JP2015515949A patent/JP6141971B2/ja not_active Expired - Fee Related
- 2013-06-05 CN CN201380041294.6A patent/CN104584547B/zh not_active Expired - Fee Related
- 2013-06-05 KR KR1020147033701A patent/KR102104898B1/ko active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110126101A (ko) * | 2009-02-01 | 2011-11-22 | 엘지전자 주식회사 | 방송 수신기 및 3d 비디오 데이터 처리 방법 |
Also Published As
Publication number | Publication date |
---|---|
US9900578B2 (en) | 2018-02-20 |
KR102104898B1 (ko) | 2020-04-27 |
CN104584547A (zh) | 2015-04-29 |
EP2858363A4 (en) | 2015-12-09 |
JP6141971B2 (ja) | 2017-06-07 |
EP2858363A1 (en) | 2015-04-08 |
US20150116455A1 (en) | 2015-04-30 |
JP2015524209A (ja) | 2015-08-20 |
CN104584547B (zh) | 2017-03-08 |
WO2013183947A1 (ko) | 2013-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9554198B2 (en) | Digital broadcast receiving method providing two-dimensional image and 3D image integration service, and digital broadcast receiving device using the same | |
US9338431B2 (en) | Method and apparatus for processing a broadcast signal for 3D broadcast service | |
KR101623020B1 (ko) | 방송 수신기 및 3d 비디오 데이터 처리 방법 | |
CA2819141C (en) | Receiving device and method for receiving multiview three-dimensional broadcast signal | |
US20130002819A1 (en) | Receiving system and method of processing data | |
KR101653319B1 (ko) | 3d 영상을 위한 영상 컴포넌트 송수신 처리 방법 및 장치 | |
CA2809143C (en) | Digital receiver and method for processing 3d content in the digital receiver | |
JP6141971B2 (ja) | 3d放送サービスのための放送信号処理方法及び装置 | |
US9602798B2 (en) | Method and apparatus for processing a 3D service | |
KR101844236B1 (ko) | 3d (3-dimentional) 방송 서비스를 위한 방송 신호 송수신 방법 및 장치 | |
KR20150004318A (ko) | 3d 서비스를 위한 신호 처리 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |