KR101834934B1 - 3d 이미지 데이터의 전송 - Google Patents

3d 이미지 데이터의 전송 Download PDF

Info

Publication number
KR101834934B1
KR101834934B1 KR1020137017329A KR20137017329A KR101834934B1 KR 101834934 B1 KR101834934 B1 KR 101834934B1 KR 1020137017329 A KR1020137017329 A KR 1020137017329A KR 20137017329 A KR20137017329 A KR 20137017329A KR 101834934 B1 KR101834934 B1 KR 101834934B1
Authority
KR
South Korea
Prior art keywords
disparity
component
images
image signal
signaling information
Prior art date
Application number
KR1020137017329A
Other languages
English (en)
Other versions
KR20130135278A (ko
Inventor
한 비베 드
Original Assignee
코닌클리케 필립스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45350446&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR101834934(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 코닌클리케 필립스 엔.브이. filed Critical 코닌클리케 필립스 엔.브이.
Publication of KR20130135278A publication Critical patent/KR20130135278A/ko
Application granted granted Critical
Publication of KR101834934B1 publication Critical patent/KR101834934B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Abstract

3차원 이미지 신호를 출력하는 3D 소스 디바이스로서, 상기 3차원 이미지 신호는 다중-뷰 이미지 데이터를 포함하고, 상기 3D 소스 디바이스는, 이미지 데이터를 수신하기 위한 입력; 및 상기 이미지 데이터에 기초하여 3차원 이미지 신호를 생성하도록 구성된 생성기로서, 상기 3차원 이미지 신호는 입체 영상 뷰잉에 사용하기 위한 다수의 2D 이미지들을 포함하는 제 1 성분, 오버레이 데이터를 포함하는 제 2 성분, 및 다수의 2D 이미지들의 각각의 이미지 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 디스패리티 시그널링 정보를 규정하는 제 3 성분을 포함하는, 상기 생성기를 포함한다. 추가의 제 3 성분에서 새로운 디스패리티 시그널링 정보는 제 3 성분의 디스패리티 시그널링 정보를 무효로 한다.

Description

3D 이미지 데이터의 전송{TRANSFERRING OF 3D IMAGE DATA}
본 발명은 3차원(3D) 이미지 데이터의 전송 방법에 관한 것이고, 상기 방법은, 3D 소스 디바이스에서, 이미지 프레임을 포함하는, 3D 디스플레이 신호를 생성하기 위해 소스 이미지 데이터를 처리하는 단계와, 3D 디스플레이 신호를 출력하는 단계; 및 3D 타겟 디바이스에서, 3D 이미지 데이터를 추출하는 단계와, 3D 디스플레이 신호에 기초하여 출력을 제공하는 단계를 포함한다.
본 발명은 또한 상기 언급된 3D 소스 디바이스, 3D 디스플레이 신호 및 3D 타겟 디바이스에 관한 것이다.
본 발명은 예를 들면, 3D에서 지향된 DVB에 대한 확장을 위해서와 같이 압축된 형태로, 또는 고속 디지털 인터페이스, 예컨대 HDMI를 통해 비압축되어 3차원(3D) 이미지 데이터를 전송하는 분야에 관한 것이다.
3차원 이미지들(정지 또는 움직이는 이미지들)을 디스플레이하기 위한 다양한 방식들이 알려져 있다. 하나의 잘 알려진 방식은 상이한 광학적 편광들, 또는 컬러들(예를 들면, 적색 및 녹색)에 의해 좌안 및 우안에 대해 인코딩되는 두 개의 이미지들을 동시에 디스플레이한다. 뷰어가 좌안 및 우안 앞에 렌즈들을 갖는 특별한 안경을 착용한다. 상기 렌즈들은 상기 눈에 대해 의도된 이미지만을 통과시키도록 구성되는데, 즉, 좌안은 단지 그 눈에 대해 의도된 이미지만을 본다. 다른 입체 영상 디스플레이 기술은 좌안에 대해 의도된 이미지 및 우안에 의도된 이미지를 순차적으로 나타낸다. 사용자는 좌안 셔터가 좌안 이미지기 디스플레이되는 기간 동안 개방되고, 우안 셔터가 우안 이미지가 디스플레이되는 기간 동안 개방되도록 디스플레이된 이미지들과 동기를 맞춰 폐쇄(shutter)되는 특별한 안경을 착용한다.
자동 입체 영상 디스플레이 기술들은 사용자가 특별한 안경을 착용할 필요성을 제거한다. 하나의 알려진 방식은 디스플레이 소자들 앞에 장착된 다측면으로 기울어진 렌티큘러 렌즈들을 갖는 평면 패널 디스플레이를 사용한다. 이러한 종류의 디스플레이의 예는 WO07/069195 A2에 설명되었다.
예를 들면, 디지털 비디오 신호들을 제공하는 DVD 플레이어들 또는 셋 탑 박스들과 같은 비디오 플레이어들인, 2D 비디오 데이터를 소싱하는 디바이스들이 알려져 있다. 상기 소스 디바이스는 TV 세트 또는 모니터와 같은 디스플레이 디바이스에 결합되는 것이다. 이미지 데이터는 적합한 인터페이스, 바람직하게는 HDMI와 같은 고속 디지털 인터페이스를 통해 소스 디바이스로부터 전송된다. 현재 3D 블루-레이 플레이어들과 같은 3D 강화 디바이스들이 시장에 진입하고 있다. 3D 비디오 신호들을 소스 디바이스로부터 디스플레이 디바이스로 전송하기 위해, 예를 들면, 현존하는 HDMI 표준에 기초하고 그에 호환되는, 새로운 높은 데이터 속도의 디지털 인터페이스 표준들이 개발되고 있다. 2D 디지털 이미지 신호들을 디스플레이 디바이스에 전송하는 것은 통상 프레임마다 비디오 픽셀 데이터를 전송하는 것을 포함하고, 프레임들은 순차적으로 디스플레이되는 것이다. 이러한 프레임들은 연속적인 비디오 신호의 비디오 프레임들(풀 프레임들)을 나타내거나 또는 (잘 알려진 라인 비월(line interlacing)에 기초하여, 하나의 프레임은 홀수 라인들을 제공하고 다음 프레임은 순차적으로 디스플레이될 짝수 라인들을 제공하는) 비월 주사된(interlaced) 비디오 신호의 비디오 프레임들을 표현할 수 있다.
유사하게 최종 사용자들에 대한 2D 콘텐트의 분배는 DVB로부터 알려졌다. 3D 블루-레이 디바이스들의 시장 도입으로, 입체 영상 콘텐트가 이용가능해지고 케이블, 또는 위성을 통해서와 같이 다른 수단에 의해 이러한 콘텐트의 분배가 또한 가능하게 하기 위한 요구가 있어왔다. 산업에 적응시키기 위해, DVB를 통해 3D 콘텐트의 분배를 가능하게 하기 위한 DVB 프레임 워크를 확장하고 있다.
WO2008/115222는 텍스트를 3D 비디오 콘텐트와 조합하는 시스템을 기재한다. 텍스트의 온라인 삽입을 위해, 자막들의 위치는 먼저 알려지지 않는다. 실제 깊이 맵은 비디오 앞에 텍스트를 위치 지정하기 위해 사용되는 최대 깊이 값을 결정하도록 처리된다. 상기 처리는 충분한 처리 능력이 이용가능할 때 새로운 최대 깊이 값들이 결정되도록 반복될 수 있다.
본 발명은 종래 기술에 의해 처리되지 않는 방식으로 3차원 이미지 데이터(3D)를 전달하는 대안적인 방식을 제공하는 것을 추구한다.
청구항들은 본 발명의 실시예들을 규정한다. 본 발명에 따라 3D 소스 디바이스는 3차원 이미지 신호를 출력하기 위해 제공되고, 상기 3차원 이미지 신호는 다중-뷰 이미지 데이터를 포함하고, 상기 3D 소스 디바이스는:
- 이미지 데이터를 수신하기 위한 입력; 및
- 이미지 데이터에 기초하여 3차원 이미지 신호를 생성하도록 구성된 생성기로서, 상기 3차원 이미지 신호는:
입체 영상 뷰잉에 사용하기 위한 다수의 2D 이미지들을 포함하는 제 1 성분,
오버레이 데이터를 포함하는 제 2 성분,
다수의 2D 이미지들의 각각의 이미지들 위에 이미지 데이터를 오버레이하는데 사용하기 위한 디스패리티 시그널링 정보를 규정하는 제 3 성분으로서, 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 예측자를 제공하기 위해 시변 디스패리티 프로파일(time-varying disparity profile)을 갖는 디스패리티 정보를 규정하는 파라미터를 포함하는, 상기 제 3 성분, 및
다수의 2D 이미지들의 각각의 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 새로운 디스패리티 시그널링 정보를 규정하는, 상기 제 3 성분보다 나중의 3차원 이미지 신호에서의 추가의 제 3 성분으로서, 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 추가의 예측자를 제공하기 위해 새로운 시변 디스패리티 프로파일을 갖는 새로운 디스패리티 정보를 규정하는 추가의 파라미터를 포함하는, 상기 추가의 제 3 성분을 포함하는, 상기 생성기를 포함하고,
상기 추가의 제 3 성분의 새로운 디스패리티 시그널링 정보는 제 3 성분의 디스패리티 시그널링 정보를 무효로 한다.
또한 본 발명에 따라 3D 타겟 디바이스는 3차원 이미지 신호를 수신하기 위해 제공되고, 상기 3차원 이미지 신호는 다중-뷰 이미지 데이터를 포함하고, 상기 3D 타겟 디바이스는:
- 상기 3차원 이미지 신호를 수신하기 위한 수신기;
- 상기 3차원 이미지 신호를 디멀티플렉싱하기 위한 디멀티플렉서로서, 적어도:
입체 영상 뷰잉에 사용하기 위해 다수의 2D 이미지들을 포함하는 제 1 성분,
오버레이 데이터를 포함하는 제 2 성분,
다수의 2D 이미지들의 각각의 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 디스패리티 시그널링 정보를 규정하는 제 3 성분으로서, 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 예측자를 제공하기 위해 시변 디스패리티 프로파일을 갖는 디스패리티 정보를 규정하는 파라미터를 포함하는, 상기 제 3 성분, 및
다수의 2D 이미지들의 각각의 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 새로운 디스패리티 시그널링 정보를 규정하는 상기 제 3 성분보다 나중의 3차원 이미지 신호에서의 추가의 제 3 성분으로서, 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 추가의 예측자를 제공하기 위해 새로운 시변 디스패리티 프로파일을 갖는 새로운 디스패리티 정보를 규정하는 추가의 파라미터를 포함하는, 상기 추가의 제 3 성분내에서 디멀티플렉싱하고,
상기 추가의 제 3 성분의 새로운 디스패리티 시그널링 정보는 상기 제 3 성분의 디스패리티 시그널링 정보를 무효로 하는, 상기 디멀티플렉서; 및
입체 영상 뷰잉에 사용하기 위한 각각의 2D 이미지들을 생성하기 위한 생성기로서, 상기 오버레이 데이터는 디스패리티 시그널링 정보 내 규정되는 것으로 오버레이되는, 상기 생성기를 포함한다.
제 1 성분은 입체 쌍들을 포함할 수 있다는 것이 주의된다.
3D 블루-레이 디스크들에 대한 것과 같이 미리 만들어진 콘텐트 및 일반적으로 DVB를 통해 브로드캐스팅되는 콘텐트 사이의 실질적인 차이가 있다는 것이 본 발명자들의 식견이다; DVB를 통해 브로드캐스팅되는 콘텐트는, 뉴스, 스포츠 게임들, 또는 3D 블루-레이 디스크들상의 콘텐트에 대한 것과 같이 대규모의 제작 비용이 이유가 되는 재정적으로 매력적이지 않은 콘텐트와 같은 라이브 콘텐트를 종종 포함한다.
2D 라이브 콘텐트에 대해 어려움이 없는 몇몇 제작 태스크들은 3D 라이브 콘텐트에 대하여 구현하는데 더 많은 어려움이 있다. 이러한 제작 태스크의 예는 실시간 푸티지(footage)에 대한 자막들의 생성이다. 2D에서 수동 또는 컴퓨터 보조 자막 생성으로 온 더 플라이로 자막들을 삽입하는 것이 가능하지만, 3D 콘텐트에 자막을 넣는 태스크는 추가의 도전들을 제공하는 복잡한 팩터가 있다. 제 3 성분에서, 디스패리티 시그널링 정보는 오버레이의 디스패리티가 시간에 걸쳐 변하는 것이 어떻게 예상되는지를 나타내는 예측자를 제공한다. 추가의 제 3 성분에서, 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 추가의 예측자는 먼저의 예측자를 무효로 한다.
뷰어들이 갖는 불편함을 감소시키기 위해, 자막들은 3차원(3D) 이미지 데이터에 의해 제공된 깊이감을 손상시키지 않기 위한 방식으로 위치될 필요가 있다. 더 복잡한 팩터는, 일단 3D 타겟 디바이스가 3차원(3D) 이미지 데이터를 수신하고 최종 사용자에게 디스플레이하기 위한 출력 데이터를 생성하면, 상기 디바이스가 그의 사용자 인터페이스에 대해 온-스크린-디스플레이(On-Screen-Display)의 형태로 추가의 그래픽들을 오버레이할 필요가 또한 있을 수 있다는 사실이다.
이들 문제점들을 처리하기 위해, 본 발명은 3차원 이미지 신호를 생성하는 방법을 제안하고, 상기 3차원 이미지 신호는 다중-뷰 이미지 데이터의 형태의 제 1 성분, 다중-뷰 이미지 데이터를 오버레이하기 위한 데이터를 나타내는 제 2 성분, 및 메타데이터 시그널링 디스패리티 정보의 형태의 제 3 성분을 포함하고, 디스패리티 시그널링 정보는 이러한 영역에서 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내는 이미지의 (서브) 영역에 대한 예측자를 제공한다.
바람직하게는 상기 예측자는 단일 예측자이다. 이러한 예측자를 사용하여, 그에 따라서 각각의 자막 및/또는 그래픽 정보를 적절하게 이동시킴으로써, 3D 타겟 디바이스가 자막 및/또는 그래픽 정보를 정확하게 오버레이하는 것이 가능하다. 이러한 (서브) 영역에서 그래픽들의 이동이 인접한 뷰들을 통해 바람직하게 전개되고; 예를 들면, 입체-쌍들의 경우에, 그래픽들의 이동이 바람직하게는 왼쪽 이미지와 오른쪽 이미지 사이에 균등하게 분배되는 것이 당업자들에게 명백할 것이다.
예측자를 사용하여, 시간에서 상이한 순간들 사이의 디스패리티의 더욱 점진적인 변동을 제공할 수 있다. 더욱이, 라이브 푸티지를 인코딩할 때 일어날 수 있는, 예측이 부정확하다는 것이 증명될 때, 많은 오버헤드를 도입하지 않고 정확한 값을 시그널링할 수 있다.
바람직하게는 디스패리티 시그널링 정보는 또한 시간에서 임의의 지점에서 스트림을 액세스의 용이함을 개선하도록 이미지 영역에 대한 디스패리티의 현재 값의 표시를 또한 제공한다.
일 실시예에서, 디스패리티 시그널링 정보는 제 1 프레젠테이션 타임스탬프에 대한 제 1 디스패리티 값, 및 시간에 걸쳐 디스패리티 값의 변동을 나타내는 계수를 규정한다. 이러한 계수는 프레임당 픽셀들 또는 픽셀부들의 변동으로, 또는 대안적으로 3D 소스 및 3D 타겟 디바이스 모두에서 이용가능한 시스템 클록에 기초하여 지정될 수 있다.
선택적으로, 시변 디스패리티 프로파일을 규정하는 파라미터는 시간이다.
선택적으로, 제 3 성분은 적어도 두 개의 디스패리티 값들을 규정하는 정보를 포함한다. 또한, 제 3 성분은 적어도 두 개의 디스패리티 값들 중 제 1 디스패리티 값으로부터 적어도 두 개의 디스패리티 값들 중 제 2 디스패리티 값으로 전환을 위한 시간 간격을 규정할 수 있다.
다른 실시예에서, 디스패리티 시그널링 정보는 제 1 프레젠테이션 타임스탬프에 대한 제 1 디스패리티 값 및 제 2 프레젠테이션 타임스탬프에 대한 제 2 디스패리티 값을 규정한다. 이러한 정보는 또한 3D 타겟 디바이스에 자막/그래픽스 정보의 디스플레이를 위한 디스패리티 값을 결정하는 능력을 제공한다. 두 개의 완전히 규정된 지점들의 사용은, 시그널링 유닛이 송신시 또는 다른 상태에서 분실되는 경우, 디스패리티에서 초과하는 변동이 방지될 수 있는 안전한 특징을 제공한다.
추가의 개선으로, 디스패리티 시그널링 정보 예측자는 미리 규정된 프로파일들의 세트로부터 선택된 디스패리티 프로파일을 또한 포함할 수 있어, 그에 의해 디스패리티 시그널링의 미세한 튜닝을 가능하게 한다. 후자는, 콘텐트가 자막 삽입 전에 시간-지연을 통해 전달될 때 구현될 수 있는, 더욱 점진적인 변동들을 가능하게 한다. 선택적으로, 제 3 성분은 미리 결정된 디스패리티 전환 프로파일 중 하나를 선택하는 파라미터를 포함한다. 선택적으로, 선택된 미리 결정된 디스패리티 전환 프로파일은 적어도 하나의 파라미터에 의해 파라미터화되고, 제 2 성분은 시변 디스패리티 프로파일을 규정하는데 사용을 위한 파라미터를 추가로 포함한다.
당업자에게 명백할 것과 같이, 3차원 신호를 생성하는 방법은 메타데이터 시그널링 디스패리티 정보를 포함하는 3차원 신호를 수신하는 방법의 형태의 대응하는 방법을 갖는다.
3차원 이미지 신호를 수신하는 방법은, 디스패리티 시그널링 성분에 따라,지정된 영역들에서 제 1 성분으로부터 3차원 이미지 신호상의 제 2 성분에 포함된 오버레이 데이터를 디스패리티 값들로 오버레이하기 위해 3차원 이미지 신호의 제 3 성분을 사용하는 단계를 포함한다.
본 발명은 또한, 다중뷰 이미지 데이터를 수신하기 위한 수신기, 및 3차원 이미지 신호를 생성하기 위한 생성기로서: 상기 3차원 이미지 신호는 다중-뷰 이미지 데이터의 형태의 제 1 성분, 다중-뷰 이미지 데이터를 오버레이하기 위한 데이터를 나타내는 제 2 성분, 및 메타데이터 시그널링 디스패리티 정보의 형태의 제 3 성분을 포함하고, 상기 디스패리티 시그너링 정보는 이러한 영영에서 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내는 이미지의 (서브) 영역에 대한 단일 예측자를 제공하는, 상기 생성기를 포함하는, 3D 소스 디바이스에 관한 것이다.
본 발명은, 본 발명에 따른 3차원 신호를 수신하기 위한 수신기, 및 디스패리티 시그널링 성분에 따라 디스패리티 값들을 갖는, 디스패리티 시그널링 정보에 지정된 바와 같이 지정된 영역들의 제 1 성분에 포함된 각각의 이미지들 위에 제 2 성분에 포함된 오버레이 데이터를 오버레이하도록 구성된 오버레이 생성기를 포함하는, 본 발명에 따른 3차원 신호를 수신하기 위한 3D 타겟 디바이스에 관한 것이다.
본 발명은 또한 본 발명에 따른 3차원 이미지 신호에 관한 것이다.
본 발명은 또한 본 발명에 따른 3차원 신호를 생성하거나 수신하기 위한 방법을 구현하기 위한 소프트웨어에 관한 것이다.
본 발명은 또한 컴퓨터상에 실행될 때 본 발명에 따른 3차원 신호를 생성하거나 수신하기 위한 방법을 구현하는 명령들을 포함하는 컴퓨터 프로그램 제품에 관한 것이다.
상기는 DVB(Digital Video Broadcasting)를 통한 3D 비디오 신호의 송신에 관하여 설명했지만, ATSC(Advanced Television Systems Committee)와 같은 다른 브로드캐스트 방식들의 환경내에 또한 적용될 수 있다는 것이 인식될 것이다. 유사하게는 상기 예들은 압축된 비디오 데이터를 포함하는 DVB에 관해 언급되었지만, 본 발명은 HDMI(High-Definition Multimedia Interface) 또는 디스플레이 포트와 같은 물리적 디바이스 인터페이스들의 환경내에 동등하게 적용가능하다는 것이 주의된다.
상기의 관점에서, 이와 같이 본 발명이 먼저 3D-DVB로부터 인터페이스상에 사용되는 것이 가능하고, 브로드캐스터의 형태의 3D 소스 디바이스는 본 발명에 따른 제 1의 3차원 이미지 신호를 Set Top Box(STB) 형태의 3D 타겟 디바이스로 전송한다. STB는 이후 예를 들면, 들어오는 신호 위에 OSD를 오버레이할 수 있고, 그에 기초하여 본 발명에 따라 제 2의 3차원 이미지 신호를 생성하고 이를 HDMI 인터페이스를 통해, 이와 같이 STB는 여기서 3D 소스 디바이스로 동작하여, 3D 텔레비전 세트로 전송할 수 있다.
본 발명은 종래 기술에 의해 처리되지 않는 방식으로 3차원 이미지 데이터(3D)를 전달하는 대안적인 방식을 제공한다. 본 발명은 3차원 이미지 신호들의 분배를 처리하는 것을 목표로 하고 기록된 콘텐트뿐만 아니라 실황에 대해서 마찬가지로 사용될 수 있다.
도 1a는 영역들, 서브-영역들, 및 객체들을 포함하는, 오버레잉 그래픽들을 참조할 때 애플리케이션 전체에 사용되는 개념들의 일부를 도시하는 도면.
도 1b는 영역에 대한 디스패리티 설정들이 입체 쌍의 왼쪽 및 오른쪽 이미지를 각각 생성하기 위해 사용될 수 있는 방법을 도시하는 도면.
도 2는 오버레이에 대한 디스패리티를 규정하는 종래 기술 메커니즘을 보여주는 도면.
도 3a는 본 발명에 따른 실시예에서 오버레이에 대한 디스패리티 값들이 규정될 수 있는 방법을 보여주는 도면.
도 3b는 본 발명에 따른 대안적인 실시예에서 오버레이에 대한 디스패리티 값들이 규정될 수 있는 방법을 보여주는 도면.
도 3c는 종래 기술에 비하여 본 발명의 이점을 도시하는 도면.
도 4는 본 발명에 따른 3D 소스 디바이스의 블록도.
도 5는 본 발명에 따른 3D 타겟 디바이스의 블록도.
도 6은 본 발명에 따른 3D 소스 디바이스 및 3D 싱크 디바이스를 채용하는 시스템을 도시하는 도면.
본 발명의 실시예들은 단지 예로서만 첨부하는 도면들을 참조하여 설명될 것이다.
본 발명은 종래 기술에 의해 처리되지 않는 방식으로 3차원 이미지 데이터(3D)를 전달하는 대안적인 방식을 제공한다. 본 발명은 3차원 이미지 신호들의 분배를 처리하는 것을 목표로 하고 기록된 콘텐트뿐만 아니라 라이브에 대해서 마찬가지로 사용될 수 있다.
종래 기술과 다르게, 본 발명은 실시간 자막 넣기에 관련된 문제점들을 처리한다. 3D 블루-레이 디스크들에 대해서와 같이 미리 제작된 콘텐트와 DVB를 통해 일반적으로 브로드캐스팅되는 콘텐트; 뉴스, 스포츠 게임들과 같은 라이브 콘텐트를 자주 포함하는 DVB를 통해 브로드캐스팅되는 콘텐트, 또는 대규모의 제작을 수행할 시간이 없는 콘텐트 사이의 실질적인 차이가 있다는 것이 발명자들의 식견이다.
도 1a를 참조하면, 도 1a는 오버레잉 그래픽들을 참조할 때 이러한 적용을 통해 참조되는 몇몇 개념들을 도시한다. 본 발명의 환경내에서, 다중-뷰 이미지에 대한 오버레이를 생성하기 위해 요구된 정보를 참조할 때, 이러한 정보는 페이지 규정로서 나타낼 것이다. 여기서 페이지 규정은 디스플레이 디바이스의 디스플레이 영역에 대응하는 이미지 참조(400)를 사용하여 설명될 것이고, 예를 들면, 시간순차적인 입체 디스플레이에 대하여 이러한 영역은 디스플레이 디바이스의 픽셀 어레이를 반영한다.
페이지 규정은 예를 들면, 영역 규정들을 포함하고, 이들 영역들 규정들은 이미지 참조(400) 내 영역들(405)을 규정하고, 여기서 그래픽들이 오버레이될 수 있는 직사각형 영역들이다. 또한 이러한 예시 페이지 규정은 또한, 영역들(410)내에 오버레이될 수 있는, 객체들(410)을 규정하는 객체 규정들을 또한 포함한다.
예시 객체(410)는 용어 "텍스트"를 제시하지만, 객체 규정은 많은 객체들 중에 하나일 수 있다는 것이 주의된다. 예를 들면, 객체는 이하에 리스트된 것들 중 임의의 하나의 조합으로서 규정될 수 있다:
텍스트 스트링,
종래의 2D 글자체들로부터 알려진, 예를 들면, 글자체 스타일, 사이즈, 이탤릭, 볼드체를 규정하는 추가의 속성들을 선택적으로 갖는, 텍스트 스트링 및 폰트 선택. 예를 들면, 폰트 깊이 값과 같은 깊이 속성들을 통해, 및/또는 양각된 폰트 스타일의 선택을 통해서 텍스트 스트링에 제공하는 추가의 특징들이 제공될 수 있다.
선택적으로 또한 특정 깊이를 갖는, 비트맵핑된 그래픽들, 및
다시 선택적으로 또한 특정 깊이를 갖는, 움직이는 비트맵핑된 그래픽들.
상기 예시는 또한 단일 영역(405)내에 위치되고, 점선들로 경계가 정해진, 2 개의 소위 서브-영역들(415)의 규정을 제시한다.
영역(405)에서 객체(410)에 정확하게 오버레이하기 위해, 추가의 규정이 요구되고, 디스패리티 시그널링 규정은 디스패리티 시그널링 세그먼트의 형태로 스트림에 제공될 수 있다.
그의 가장 간단한 형태로, 본 발명에 의해 제공된 디스패리티 시그널링 세그먼트는 페이지 레벨상의 디스패리티 값을 규정한다. 결과로서, 예를 들면, 입체 디스플레이의 경우에, 오버레이 영역들에 제공된 모든 정보는 왼쪽 및 오른쪽 이미지들을 생성할 때 동일한 크기로 대체될 것이다.
페이지 레벨 방식을 사용하는 이점은 오버레이 기능을 갖는 디바이스들이 비교적 간단하게 유지될 수 있다는 것이다.
더 진보된 방식으로, 디스패리티 시그널링 규정은 영역들 및/또는 서브-영역들에 대해 디스패리티 값을 제공한다. 이러한 방식으로, 더 진보된 오버레이들이 실현될 수 있다. 예를 들면, 자막들이 대화에 제공될 필요가 있는 상황을 고려하면, 대화를 갖는 두 사람이, 하나는 카메라 근처의 왼쪽, 하나는 카메라로부터 떨어진 오른쪽의, 상이한 위치들에 위치한다. 더 진보된 디스패리티 시그널링 방식이 또한 더 복잡한 자막 넣기 방식을 가능하게 할 수 있다.
특정 깊이를 갖는 그래픽들을 오버레잉할 때, 이는 당업자에게 명백할 것이지만, 그래픽들의 각각의 부분들의 변위는 그의 깊이에 기초하여 적응되어야 할 것이다.
도 1b는 3D 이미지 신호내 디스패리티 시그널링이 이러한 경우에서 왼쪽 이미지(450) 및 오른쪽 이미지(460)를 생성하기 위해 어떻게 사용될 수 있는지를 도시한다. 왼쪽 이미지(450) 및 오른쪽 이미지(460)는 도 1a에 도시되는 페이지 규정에 기초한다. 이러한 예에서, 객체(410)를 포함하는 영역(405)에만 0이 아닌 디스패리티 값이 주어진다. 따라서, 왼쪽 이미지(450)를 생성할 때, 이러한 예에서, 객체(410)가 디스래피티 값을 2로 나눈 것만큼 규정된 왼쪽으로 옮겨지고, 오른쪽 이미지(450)를 생성할 때, 객체(410)가 디스패리티값을 2로 나눈 것만큼 오른쪽으로 옮겨진다.
디스패리티 값을 왼쪽 이미지 및 오른쪽 이미지에 대한 변위의 합으로서 인코딩하기 위한 선택은 임의적이고 다른 인코딩에 의해 쉽게 대체될 수 있다는 것이 당업자에게 명백할 것이다.
오버레잉 그래픽들에 대한 페이지 규정을 제공하는 것이 간단한 것같이 보이지만, 페이지 규정을 생성하는 실제 프로세스는 예를 들면, 자막들 또는 오버레이들이 오버레이되는 기본 푸티지에 제공된 정보와 동시에 이루어질 필요는 없다는 사실에 의해 복잡하게 된다.
예를 들면, 특정 인물이 생방송에서 인터뷰되는 상황을 고려하자. 특정 순간에, 인터뷰하는 사람이 인터뷰를 마치고 그의 대화의 마지막 문장을 말한다. 그 지점에서, 감독은 다른 카메라로 촬영 진행한다. 그러나 시청자가 자막들을 읽게 하기 위해, 자막들은 새로운 컷 장면 위에 오버레이될 것이다.
이러한 문제를 처리하기 위해, 종래 기술 방식은 오버레이들의 시변의 위치 지정을 갖는 것을 제안한다. 도 2는 종래 기술 프로세스를 도시한다. 예를 들면, 디스패리티 시그널링이 페이지 레벨상에 발생하는 상황을 고려하자. 페이지 규정은, 시간 t0에서, 사용된 디스패리티 값이 d0이고, 시간 t1에서, 사용된 디스패리티 값이 d1이고, 시간 t2에서, 사용된 디스패리티 값이 d2 등으로 규정한다. 3D 타겟 디바이스가 디스패리티 정보를 정확하게 사용하게 하기 위해, 상기 정보는 그것이 사용될 필요가 있는 일정 시간 전에 3차원 이미지 데이터로 전송될 것이어서, 그것이 사용될 시간에, 즉, 쌍(t0, d0)은 t1에 대응하는 프레젠테이션 시간 스탬프 전에 3D 타겟 디바이스에 의해 수신되어야 할 것이다. 다시 말해서, 상기 프레젠테이션 타임 스탬프에 대한 전체 페이지 규정은 프레젠테이션 타임-스탬프 전에 완료되어야 한다.
이러한 특정 방식은 예를 들면, 스크린 변경들에 자막 디스패리티의 적용을 허용하지만, 디스패리티 값들의 변경들은 디스페리티에서 변경들과 같은 단계에 의해 증명되는 바와 같이 오히려 조잡할 것이라는 것이 본 발명의 발명자들의 식견이다.
이러한 문제를 처리하기 위해, 발명자들은, 디스패리티 시그널링 정보가 이러한 영역의 디스패리티가 시간에 걸쳐 어떻게 변할지 예상되는 것을 나타내는 이미지의 (서브) 영역에 대한 예측자를 포함하는, 대안적인 방식을 생각했다.
이러한 방식의 예가 도 3a에 제공된다. 디스패리티 제어가 페이지 레벨상에 발생하는 상황을 다시 고려하자. 시간 TA의 어떤 순간에, 제 1 시간 표시 t0가 제공되고 디스패리티 값 d0에 연관된다. 제 1 시간 표시는 시간에서 현재 순간에 더 가까운 근접한 미래내의 시간에 관한 것이다. 제 2 시간 표시 t1에 더하여, 연관된 제 2 디스패리티 값이 d1으로 제공된다.
나중의 시간 TB에서, 정보(t1, d1) 및 (t2, d2)가 수신된다. 게다가, 더 나중의 시간 TC에서, 정보(t3, d3) 및 (t4, d4)가 수신된다. 이러한 업데이터 정보에 서 현재 및 다음 디스패리티 값을 제공함으로써, 3차원 이미지 신호를 수신하는 3D 타겟 디바이스를 시간에서 이들 두 개의 순간들 사이에 삽입할 수 있어, 그에 의해 도 3a에 나타낸 바와 같은 선형 보간법을 가능하게 한다.
대안적인 방식이 도 3b에 제공되고, 여기서 도 3b를 참조하여 행해지는 바와 같이 효과적으로 동일한 정보가 제공되지만, 디스패리티 시그널링 정보의 포맷은 상이하다. 여기서 시간 TA에, 상기에 설명된 바와 같은 (t0, d0) 및 시간에 따라 디스패리티의 변동을 규정하는 c0, 세 개의 값들이 제공된다.
도 3a 및 도 3b를 참조하여 상기에 설명된 예시들 모두는 들어오는 3차원 이미지 신호를 분석하는 3D 타겟 디바이스가 리던던트 정보를 수신하는 점에서 리던던트 데이터를 포함하고; 원칙적으로 거의 제 1 쌍의 데이터(t0, d0)가 2회 시그널링된다. 정확히 말하면, 이는 3D 타겟 디바이스가 수신된 데이터에 기초하여 이들 값들을 트래킹할 수 있기 때문에 필수적인 것은 아니다.
그러나, 더 견고한 시스템을 생성하고 콘텐트를 정확하게 액세스하기 위해 요구되는 시간을 단축하기 위해, 때때로 데이터를 반복하는 것이 이로울 수 있다.
본 발명의 다른 이점은 도 3c에 도시된다. 디스패리티 시그널링이 페이지 레벨상에 있는 상황을 다시 고려하자. 예를 들면, 3차원 이미지 신호가 생방송에 대해 생성되는 상황을 고려하자. 시간 TA에서 임의의 순간에, 제 1 시간 표시 t0전에, 페이지 레벨 디스패리티는 d0(t0, d)로 설정된다. 이 장면에서 적당한 변경 속도가 있다는 사실의 관점에서, 시간에서 다른 순간, 제 2 시간 표시(t1)에서, 페이지 레벨 디스패리티는 d1(t1, d1)인 것이 예상된다. 두 쌍들이 디스패리티 시그널링 세그먼트에 제공된다.
그러나, t0와 t1 사이의 순간 t0'에서, 장면의 변경의 결과로서, 디스패리티레벨(t1, d1)의 이전 예측자는 잘못된 것으로 나타난다. 따라서, 본 발명은 이전 예측을 "무효"로 하고 새로운 디스패리티 시그널링 정보를 전송하는 것을 제안하고, 상기 새로운 디스패리티 시그널링 정보는 이전에 전송된 정보를 무효로 한다.
상기 방식에서, 본 발명은 이전에 전송된 예측들을 새로운 예측들에 의해 무효로 되게 한다. 상기 시나리오에서지만, (t0', d0')는 (t0, d0)와 (t1, d1) 사이의 선 위에 있다는 것이 또한 주의된다. 그러나, 이는 필수적이지는 않다. 사실상 상황이 요구되는 경우, 이것이 가시적인 것으로 적당히 행해지지만, 디스패리티 점프를 삽입하는 것이 또한 가능하다. 이러한 예시에서 새로운 예측(t1, d1')은 제 2 시간 인스턴스 d1과 동시에 일어나지만, 이는 상기 경우에 항상 필요한 것은 아니라는 것이 또한 주의된다.
시간-인스턴스들의 규정에 관하여, 90KHz 증분들과 같이, 3D 타겟 디바이스에 이용가능한 예를 들면 클록에 기초한 시간의 순간들을 지정하는 것이 가능할 수 있지만, 대신에 프레임 수들에 또한 기초할 수 있다는 것이 주의된다. 프레임 수들에 의해 제공된 해상도는 정확한 디스패리티 시그널링을 제공하기에 충분하다.
여기서 상기에 설명된 바와 같이, 한번 결정된 디스패리티 시그널링 정보는 3차원 이미지 신호에 포함을 위해 데이터 세그먼트들로의 패키지들일 필요가 있을 수 있다. 표 1은 디스패리티 시그널링 세그먼트의 예시적인 설명을 제공한다. 표 1은, 페이지 레벨 디스패리티 업데이트들 및/또는 (서브)영역 디스패리티 업데이트들의 사용을 명확하게 제시한다. 상기에 설명된 바와 같이, (서브)영역 디스패리티 업데이트들을 지원하지 않는 디바이스들이, 이들 필드들을 무시하고 단지 페이지 레벨 디스패리티를 지원하는 것이 가능하다. 여기서 페이지 레벨 디스패리티는 필드 page_default_disparity에 제공된다.
디스패리티 시그널링 세그먼트는 영역들 또는 객체들을 규정하지 않고, 주로 디스패리티 시그널링에 집중한다는 것이 주의된다. 그러나, 서브영역들은 DVB와 역 호환성을 허용하기 위해, 이러한 세그먼트에서 규정될 수 있다.
표 1은 각각의 영역 내에 다수의 분리된 서브영역들이 있다는 것을 보여준다. 이러한 경우, subregion_id의 값은 0이 아니다.
(정수부 및 소수부를 갖는) subregion_disparity는 subregion_id=0인 경우 전체 영역에 적용한다. 그렇지 않으면, (0보다 큰 상이한 id를 갖는)다수의 서브 영역들이 있고, 각각의 서브 영역에 대하여 디스패리티가 주어진다.
영역 루프는 페이지 디폴트 디스패리티와 상이한 (적용가능한 경우) 영역 및 서브 영역당 모든 디스패리티 정보를 포함한다.
디스패리티 정보는 디스패리티 시그널링 세그먼트를 포함하는 PES 패킷이 공급되는 프레젠테이션 시간 스탬프(PTS)에 의해 결정되는 순간에 적용가능하게 된다.
여기서 디스패리티 시그널링 세그먼트들에서 각각의 디스패리티 값에 제 2 (상이한) 값 및 상기 제 2 값이 도달된 것이 가정될 때(예를 들면, 얼마나 많은 프레임들 후)를 나타내는 시간 기간 값을 더하는 것이 제안된다. 3D 타겟 디바이스를 구현하여 적절한 매개 값들을 계산한다. 상기 구현은 이것 또는 이것이 아닌 것에 대한 서브픽셀 정밀도를 사용하는 것을 또한 선택할 수 있다. 디스패리티 시그널링 세그먼트의 새로운 버전은 유효하게 될 때를 나타내는 PTS로 디코더에 전송될 수 있어서, 디스패리티 값들의 현재 (매개) 상태를 가능하게는 무효로 한다. 디스패리티가 먼저 알려진 경우, 업데이트들은 이전 업데이트가 그의 최종값에 도달한 순간에 동기화될 수 있다. 라이브 전송들에 대하여, 업데이트들은 규칙적인 간격들(예를 들면, 1초당 한번)로 전송될 수 있거나, 그들이 간격의 종료 전에 전송되어 현재 지시를 수정할 수 있다.
표 2 및 표 3은 page_disparity_updates 및 subregion_disparity 업데이트들 각각에 대한 가능한 신택스를 제시한다.
Figure 112013059545590-pct00001
Figure 112013059545590-pct00002
표 2에서, 간격은, 예를 들면, end_page_default_disparity가 도달되고 end_page_default_disparity가 간격의 종료에서 디스패리티 값에 대응할 때까지 프레임들의 수로 지정될 수 있다.
Figure 112013059545590-pct00003
표 3에서, 간격은 end_subregion_default_disparity까지 프레임들의 수에 대응한다. 그리고 값들 end_subregion_disparity_integer_part 및 end_subregion_disparity_fractional_part는 간격의 종료에서 디스패리티를 서브픽셀 정밀도로 나타낸다.
3차원 이미지 신호에서 데이터의 형성은 중요하지만, 여기서 이하에 표 4, 표 5, 및 표 6 각각에 의해 도시된 바와 같이, 변형이 예상될 수 있다.
Figure 112013059545590-pct00004
Figure 112013059545590-pct00005
Figure 112013059545590-pct00006
여기서 도 4를 참조하면, 도 4는 본 발명에 따른 3D 소스 디바이스(50)의 블록도를 도시한다. 상기 3D 소스 디바이스(50)는 다중-뷰 이미지 데이터(51)를 수신하도록 구성된 수신기(RCV), 깊이 정보를 확립하기 위한 검사 유닛(INSP), 및 3차원 이미지 신호를 생성하기 위한 생성 유닛(GEN)의 세 개의 기능 유닛들을 포함한다. 다중-뷰 이미지 데이터(51)의 소스는 라이브 카메라 피드일 수 있지만 필수적인 것은 아니다. 본 발명은 라이브 피드를 위해 비디오 지연 라인, 또는 그에 대한 종래의 저장 디바이스로부터 발생하는 콘텐트에 또한 사용될 수 있다. 본 발명이 라이브 콘텐트에 특히 적합하지만, 먼저 기록된 콘텐트에 대해서도 사용될 수 있다.
상기 다중-뷰 이미지 데이터(51)는 예를 들면, 압축되거나 압축되지 않은 입체-쌍들 중 하나의 형태로 입체-비디오를 표현할 수 있다. 대안적으로, 다중-뷰는 두 개 이상의 뷰들을 포함한다. 도시된 예에서, 다중-뷰 이미지 데이터(51)는 입체-쌍들을 포함하는 압축되지 않은 비디오 스트림이다. 이러한 특정한 경우에서 수신기 블록은 또한 들어오는 다중-뷰 이미지 데이터(51)를 압축함으로써, 다중-뷰 이미지 데이터를 포함하는 제 1 성분(52)을 형성한다.
압축되지 않은 이미지 데이터(51)는 검사 유닛에 전송되고, 여기서 검사 유닛은 작동중에 깊이 맵을 확립하도록 구성된다. 대안적으로, 입력 스트림은, 예를 들면, 거리 측정기, 또는 깊이 카메라를 사용하여 확립된 깊이 맵을 제공받을 수 있다. 검사 유닛은 다중뷰 이미지 데이터(51)를 오버레이하기 위한 오버레이 데이터(53)를 또한 수신한다. 예시적인 구현에서, 오버레이 데이터(53)는 예를 들면, 수동으로 입력될 수 있거나 스피치 인식에 기초하여 생성될 수 있고, 다중뷰 이미지 데이터와 조합되는 자막 정보이다.
검사 유닛은 생성된 3차원 신호(56)에 포함하기 위한 디스패리티 시그널링 정보의 형태로 제 3 성분(56)을 출력한다. 검사 유닛이 다중-뷰 정보에 나타난 깊이 정보에 액세스하고 자막들의 위치상의 정보를 갖기 때문에, 다중-뷰 이미지 데이터에서 객체들 앞에 자막들을 위치시키는 것이 가능하다. 자막들을 적응시키기에 이용가능한 깊이 범위가 불충분한 경우, 검사 유닛은 전체 깊이 범위를 선택하기 위해 예를 들면, 왼쪽 및 오른쪽 이미지들을 크롭핑하기 위해 압축 블록에 크롭핑 정보(59)를 또한 제공할 수 있다. 이후 검사 유닛이 반복하고 출력 신호에 포함을 위한 디스패리티 시그널링 정보를 준비할 수 있다.
후속하여, 생성 유닛은 다중-뷰 이미지 데이터(52), 오버레이 데이터(53),및 디스패리티 시그널링 세그먼트의 형태의 제 1 성분에 기초하여, 3차원 이미지 신호(56)를 3D 소스 디바이스에 의한 출력으로서 생성하도록 구성된다.
도 4를 참조하여 상기에 설명된 바와 같은 압축 및 크롭핑 제어는 이러한 특정한 실시예의 이점들에 추가되지만, 본 발명에 필수적이 아니라는 것이 당업자에게 명백할 것이다.
여기서 도 5를 참조하면, 도 5는 본 발명에 따른 3D 타겟 디바이스(60)의 블록도를 도시한다. 상기 3D 타겟 디바이스(60)는 본 발명에 따른 3차원 이미지 신호(56)를 수신하기 위한 수신기(RCV)를 포함한다. 상기 수신기는 예를 들면, DVB 수신기, 또는 HDMI 디스플레이 인터페이스 유닛일 수 있다. 들어오는 신호(56)는 후속하여 3차원 이미지 신호로부터 각각의 성분들을 추출하고 다른 프로세싱 다운-스트림에 대한 성분들, 이러한 예시적인 실시예에서, 수신된 제 1 성분(61), 수신된 제 2 성분(62), 및 수신된 제 3 성분(63)을 준비하는 디멀티플렉서(DMX)를 통과한다.
수신된 제 1 성분(61)은 다중-뷰 이미지 데이터를 포함하고, 제 2 성분은 오버레이 데이터를 포함하고, 제 3 성분은 디스패리티 시그널링 정보를 포함한다. 이들 세 개의 성분들은 후속하여 각각의 입체-쌍들의 왼쪽 및 오른쪽 이미지들에 대응하는 두 개의 출력 이미지들(68, 69)을 생성하게 위해 생성기(GEN)에 의해 사용된다. 상기 왼쪽 및 오른쪽 이미지들은 도 1a 및 도 1b를 참조하여 설명되는 디스패리티 시그널링 정보에 따라 영역들에 위치된 객체들을 정확히 이동시킴으로써 생성될 수 있다.
상기에 설명된 바와 같이, 본 발명에 따른 3차원 이미지 신호는 다중-뷰 푸티지 위에 오버레이들의 배치에 관한 정보를 제공한다. 일 실시예에서, 이러한 3차원 이미지 신호가 방송국에 의해 브로드캐스트, 유니캐스트, 또는 멀티-캐스트된다. 상기 신호는 예를 들면, 본 발명에 따른 디스패리티 시그널링 정보를 포함하는 3D 컴플라이언트 DVB-T 버전을 사용하여 브로드캐스팅될 수 있다. 이러한 3차원 이미지 신호가 STB에 의해 수신되고, 상기 STB가 자막들을 정확하게 오버레이하기 위해 디스패리티 시그널링 정보를 사용할 때, 상기 STB는 디스플레이 디바이스와 같은 다른 다운스트림 디바이스들에 디스패리티 시그널링 정보를 또한 포워딩할 수 있다.
상기 언급된 경우에서, 디스플레이 디바이스는 예를 들면, 그의 OSD를 생성할 때, 디스패리티 시그널링 정보를 사용할 수 있어서, 디스플레이 디바이스 OSD는 텔레비전에 의해 수신된 입체-이미지들과 충돌하지 않는다.
본 발명은 STB가 입체-이미지들에 그의 OSD를 또한 오버레이하도록 선택할 때 또한 사용되고, 이러한 경우, STB가 그에 따라서 디스패리티 시그널링 정보를 적응하여, 디스플레이 디바이스가 또한 제공될 수 있다.
본 발명이 DVB 또는 ATSC를 사용하는 것과 같은 콘텐트 브로드캐스트를 참조하여 주로 설명되지만, 인터넷을 통해 콘텐트를 배포할 때 본 발명을 사용하는 것이 또한 가능하다.
여기서 도 7을 참조하면, 도 7은 본 발명에 따라 3D 소스 디바이스(BCST) 및 두 개의 타겟 디바이스들(STB 및 TV2)를 채용하는 시스템을 도시한다. 본 발명에 따른 3차원 이미지 신호는 3D 소스 디바이스에 의해 방송 전파, 인터넷, 또는 케이블 접속과 같은 매체(71)를 통해 두 개의 타겟 디바이스들(STV 및 TV2)로 전송된다. 이러한 경우에, 3D 타겟 디바이스(STB)가 3D 가능 HDMI 인터페이스에 의하여 디스플레이 디바이스(TV1)에 접속된다.
본 발명은 바람직하게는 조합되는 두 개의 발명 개념들을 설명한다는 것이 주의된다. 제 1 개념은 3차원 이미지 신호에 오버레잉하는 데 사용하기 위한 디스패리티 시그널링에서 단일 디스패리티 예측자의 사용에 관한 것이다. 단일 예측자의 사용은 라이브 콘텐트 위에 정보를 오버레이할 때, 큰 오버헤드를 요구하지 않는 방식으로, 원활한 디스패리티 전이가 실현될 수 있다는 사실을 주요 이점으로 갖는다. 제 2 개념은 본 발명이 하나 이상의 예측자들을 사용하는 디스패리티 시그널링을 사용하는 것을 제안한다는 사실에 관한 것이고, 이들 하나 이상의 예측자들은 새로운 예측자들에 의해 무효로 될 수 있다. 이러한 방식으로, 예측자들이 원활한 디스패리티 프로파일들을 실현하기 위해 사용하는 것이 가능하게 유지되고, 동시에 라이브 푸티지를 적응시키기 위한 가용성을 또한 제공한다. 더욱이, 단일 예측자가 사용될 때만 원활한 디스패리티 프로파일이 실현될 수 있고 예측자가 무효로 될 때 효율성 패널티는 낮게 유지한다.
전체 애플리케이션 텍스트 참조가 디스패리티 정보에 행해지지만, 디스패리티가 관련된 상기 깊이가 당업자에게 잘 알려져 있다. 실제로 정보가 깊이를 디스패리티로 맵핑하는 것에 관련하여 이용가능할 때, 디스패리티 시그널링 대신에 깊이 시그널링을 사용하는 것이 가능할 수 있다.
상기의 관점에서, 애플리케이션을 통한 디스패리티 시그널링은, 정보가 깊이 값들을 디스패리티 값들에 맵핑하기 위하여 제공된다고 가정하면, 깊이 시그널링을 포함하는 것으로 또한 이해된다는 것이 이해된다.
그러나, 디스패리티 시그널링을 사용하는 명백한 이점의 관점에서, 맵핑 기능이 요구되지 않는다는 점에서, 애플리케이션 및 청구항들은 디스패리티 시그널링만을 참조하여 작성되었다.
본 발명은 프로그램가능한 구성요소들을 사용하는 하드웨어 및/또는 소프트웨어로 구현될 수 있고, 이러한 구현들은 전용 HW, ASICs, FPGAs 및/또는 PCs상에 전체 또는 일부에 기초하여 생각될 수 있다는 것이 주의된다.
개시된 실시예들에 대한 다른 변형들이 도면들, 명세서들, 및 첨부된 청구항들의 연구로부터, 청구된 발명을 실행하는 것이 당업자에 의해 이해되고 달성될 수 있다. 청구항에서, 용어 "포함하는"은 다른 요소들 또는 단계들을 배제하지 않고, 단수로 기재된 요소는 복수의 요소를 배제하지 않는다. 단일의 처리기 또는 다른 유닛은 청구항에 열거된 수개의 아이템들의 기능들을 수행할 수 있다. 몇몇 측정치들이 서로 상이한 종속 항들에서 열거된 단순한 사실은 이들 측정들의 조합이 이점으로 사용될 수 없다는 것을 나타내지 않는다. 청구항들에서 임의의 참조 부호들은 범위를 제한하는 것으로 해석되지 않아야 한다.

Claims (15)

  1. 다중-뷰 이미지 데이터를 포함하는 3차원 이미지 신호를 출력하기 위한 3D 소스 디바이스로서,
    이미지 데이터를 수신하기 위한 입력;
    상기 이미지 데이터에 기초하여 상기 3차원 이미지 신호를 생성하도록 구성된 생성기를 포함하고,
    상기 3차원 이미지 신호는:
    입체 영상 뷰잉에 사용하기 위한 다수의 2D 이미지들을 포함하는 제 1 성분;
    오버레이 데이터를 포함하는 제 2 성분;
    다수의 2D 이미지들의 각각의 것들을 통해 이미지 데이터를 오버레이하는 데 사용하기 위한 디스패리티 시그널링 정보를 규정하는 제 3 성분을 포함하는, 상기 3D 소스 디바이스에 있어서,
    제 3 성분은 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 예측자를 제공하기 위해 시변 디스패리티 프로파일을 갖는 디스패리티 정보를 규정하는 파라미터를 포함하고;
    상기 제 3 차원 이미지 신호는 상기 제 3 성분보다 상기 3차원 이미지 신호에서 나중의 시간에, 상기 다수의 2D 이미지들의 각각 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 새로운 디스패리티 시그널링 정보를 규정하는 추가의 제 3 성분으로서, 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 추가의 예측자를 제공하기 위해 새로운 시변 디스패리티 프로파일을 갖는 새로운 디스패리티 정보를 규정하는 추가의 파라미터를 포함하고,
    상기 추가의 제 3 성분의 상기 새로운 디스패리티 시그널링 정보는 상기 제 3 성분의 상기 디스패리티 시그널링 정보를 무효로 하는 것을 특징으로 하는, 3D 소스 디바이스.
  2. 제 1 항에 있어서,
    상기 제 3 성분은 상기 다수의 2D 이미지들의 각각의 이미지들 위의 영역에 오버레이 데이터를 오버레이하는 데 사용하기 위한 디스패리티 시그널링 정보를 포함하는, 3D 소스 디바이스.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 제 3 성분은 다수의 분리된 영역들 및/또는 서브-영역들에 대한 시그널링을 허용하는, 3D 소스 디바이스.
  4. 제 1 항에 있어서,
    상기 시변 디스패리티 프로파일에 대한 상기 디스패리티 시그널링 정보는 디스패리티 시그널링 세그먼트들에 제공되고, 세그먼트는 단일 예측자를 포함하는, 3D 소스 디바이스.
  5. 다중-뷰 이미지 데이터를 포함하는 3차원 이미지 신호를 수신하기 위한 3D 타겟 디바이스로서,
    상기 3차원 이미지 신호를 수신하기 위한 수신기;
    상기 3차원 이미지 신호를 디멀티플렉싱하기 위한 디멀티플렉서를 포함하고,
    상기 디멀티플렉서는 적어도:
    입체 영상 뷰잉에 사용하기 위한 다수의 2D 이미지들을 포함하는 제 1 성분,
    오버레이 데이터를 포함하는 제 2 성분,
    상기 다수의 2D 이미지들의 각각의 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 디스패리티 시그널링 정보를 규정하는 제 3 성분내에서 디멀티플렉싱하는, 상기 3D 타겟 디바이스에 있어서,
    상기 제 3 성분은 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 예측자를 제공하기 위해 시변 디스패리티 프로파일을 갖는 디스패리티 정보를 규정하는 파라미터를 포함하고,
    상기 제 3 차원 이미지 신호는 상기 다수의 2D 이미지들의 각각의 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 새로운 디스패리티 시그널링 정보를 규정하는 상기 제 3 성분보다 나중의 3차원 이미지 신호에서의 추가의 제 3 성분으로서, 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 추가의 예측자를 제공하기 위해 새로운 시변 디스패리티 프로파일을 갖는 새로운 디스패리티 정보를 규정하는 추가의 파라미터를 포함하는, 상기 추가의 제 3 성분을 포함하고,
    상기 추가의 제 3 성분의 새로운 디스패리티 시그널링 정보는 상기 제 3 성분의 디스패리티 시그널링 정보를 무효로 하는, 상기 디멀티플렉서; 및
    상기 제 3D 타겟 디바이스는 상기 입체 영상 뷰잉에 사용하기 위한 각각의 2D 이미지들을 생성하기 위한 생성기로서, 상기 오버레이 데이터는 상기 디스패리티 시그널링 정보 내 규정되는 것으로 오버레이되는, 상기 생성기를 포함하는, 3D 타겟 디바이스.
  6. 제 5 항에 있어서,
    상기 제 3 성분은 상기 다수의 2D 이미지들의 각각의 이미지들 위의 영역에 오버레이 데이터를 오버레이하는 데 사용하기 위한 디스패리티 시그널링 정보를 포함하는, 3D 타겟 디바이스.
  7. 제 5 항 또는 제 6 항에 있어서,
    상기 제 3 성분은 다수의 분리된 영역들 및/또는 서브-영역들에 대한 시그널링을 허용하는, 3D 타겟 디바이스.
  8. 제 5 항에 있어서,
    상기 시변 디스패리티 프로파일에 대한 상기 디스패리티 시그널링 정보는 디스패리티 시그널링 세그먼트들에 제공되고, 세그먼트는 단일 예측자를 포함하는, 3D 타겟 디바이스.
  9. 제 5 항 또는 제 6 항에 있어서,
    상기 수신기는:
    3D IP TV 수신기,
    3D ATSC 수신기,
    3D-DVB 수신기, 및
    3D HDMI 수신기 인터페이스, 중 하나인, 3D 타겟 디바이스.
  10. 3차원 이미지 신호를 생성하는 방법으로서,
    이미지 데이터를 수신하는 단계; 및
    상기 이미지 데이터에 기초하여 3차원 이미지 신호를 생성하는 단계를 포함하고,
    상기 3차원 이미지 신호는:
    입체 영상 뷰잉에 사용하기 위한 다수의 2D 이미지들을 포함하는 제 1 성분;
    오버레이 데이터를 포함하는 제 2 성분;
    상기 다수의 2D 이미지들의 각각의 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 디스패리티 시그널링 정보를 규정하는 제 3 성분을 포함하는, 상기 3차원 이미지 신호를 생성하는 방법에 있어서,
    상기 제 3 성분은 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 예측자를 제공하기 위해 시변 디스패리티 프로파일을 갖는 디스패리티 정보를 규정하는 파라미터를 포함하고,
    상기 3차원 이미지 신호는 상기 다수의 2D 이미지들의 각각의 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 새로운 디스패리티 시그널링 정보를 규정하는 상기 제 3 성분보다 나중의 3차원 이미지 신호에서의 추가의 제 3 성분으로서, 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 추가의 예측자를 제공하기 위해 새로운 시변 디스패리티 프로파일을 갖는 새로운 디스패리티 정보를 규정하는 추가의 파라미터를 포함하는, 상기 추가의 제 3 성분을 포함하고,
    상기 추가의 제 3 성분의 새로운 디스패리티 시그널링 정보는 상기 제 3 성분의 디스패리티 시그널링 정보를 무효로 하는 것을 특징으로 하는, 3차원 이미지 신호를 생성하는 방법.
  11. 3차원 이미지 신호를 소비하는 방법으로서,
    상기 3차원 이미지 신호를 수신하는 단계;
    상기 3차원 이미지 신호를 디멀티플렉싱하는 단계를 포함하고,
    상기 디멀티플렉싱하는 단계는 적어도:
    입체 영상 뷰잉에 사용하기 위한 다수의 2D 이미지들을 포함하는 제 1 성분;
    오버레이 데이터를 포함하는 제 2 성분;
    상기 다수의 2D 이미지들의 각각의 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 디스패리티 시그널링 정보를 규정하는 제 3 성분내에서 이루어지는, 상기 3차원 이미지 신호를 소비하는 방법에 있어서,
    제 3 성분은 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 예측자를 제공하기 위해 시변 디스패리티 프로파일을 갖는 디스패리티 정보를 규정하는 파라미터를 포함하고,
    상기 3차원 이미지 신호는 상기 제 3 성분보다 상기 3차원 이미지 신호에서 나중의 시간에, 상기 다수의 2D 이미지들의 각각 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 새로운 디스패리티 시그널링 정보를 규정하는 추가의 제 3 성분으로서, 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 추가의 예측자를 제공하기 위해 새로운 시변 디스패리티 프로파일을 갖는 새로운 디스패리티 정보를 규정하는 추가의 파라미터를 포함하는, 상기 추가의 제 3 성분을 포함하고,
    상기 추가의 제 3 성분의 새로운 디스패리티 시그널링 정보는 상기 제 3 성분의 디스패리티 시그널링 정보를 무효로 하고,
    상기 방법은, 입체 영상 뷰잉에 사용하기 위한 각각의 2D 이미지들을 생성하는 단계를 포함하고, 상기 오버레이 데이터는 상기 디스패리티 시그널링 정보 내에 규정되는 것으로 오버레이되는 것을 특징으로 하는, 3차원 이미지 신호를 소비하는 방법.
  12. 컴퓨터 프로그램이 기록된 컴퓨터 판독가능한 기록 매체에 있어서,
    컴퓨터 프로그램은 컴퓨팅 플랫폼상에 실행될 때 제 10 항 또는 제 11 항의 방법을 수행하는 명령들을 포함하는, 컴퓨터 프로그램이 기록된 컴퓨터 판독가능한 기록 매체.
  13. 삭제
  14. 3차원 이미지 신호가 기록된 컴퓨터 판독가능한 기록 매체에 있어서,
    입체 영상 뷰잉에 사용하기 위한 다수의 2D 이미지들을 포함하는 제 1 성분;
    오버레이 데이터를 포함하는 제 2 성분;
    상기 다수의 2D 이미지들의 각각의 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 디스패리티 시그널링 정보를 규정하는 제 3 성분을 포함하는, 상기 3차원 이미지 신호에 있어서,
    상기 제 3 성분은 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 예측자를 제공하기 위해 시변 디스패리티 프로파일을 갖는 디스패리티 정보를 규정하는 파라미터를 포함하고,
    상기 3차원 이미지 신호는 상기 제 3 성분보다 상기 3차원 이미지 신호에서 나중의 시간에, 상기 다수의 2D 이미지들의 각각의 이미지들 위에 이미지 데이터를 오버레이하는 데 사용하기 위한 새로운 디스패리티 시그널링 정보를 규정하는 추가의 제 3 성분으로서, 오버레이의 디스패리티가 시간에 걸쳐 어떻게 변하는 것으로 예상되는지를 나타내기 위한 추가의 예측자를 제공하기 위해 새로운 시변 디스패리티 프로파일을 갖는 새로운 디스패리티 정보를 규정하는 추가의 파라미터를 포함하고,
    상기 추가의 제 3 성분의 새로운 디스패리티 시그널링 정보는 상기 제 3 성분의 상기 디스패리티 시그널링 정보를 무효로 하는 것을 특징으로 하는, 3차원 이미지 신호가 기록된 컴퓨터 판독가능한 기록 매체.
  15. 제 14 항에 있어서,
    상기 제 1 성분은 입체 쌍들을 포함하는, 3차원 이미지 신호가 기록된 컴퓨터 판독가능한 기록 매체.
KR1020137017329A 2010-12-03 2011-12-02 3d 이미지 데이터의 전송 KR101834934B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP10193650 2010-12-03
EP10193650.8 2010-12-03
EP11164718 2011-05-04
EP11164718.6 2011-05-04
PCT/IB2011/055428 WO2012073221A1 (en) 2010-12-03 2011-12-02 Transferring of 3d image data

Publications (2)

Publication Number Publication Date
KR20130135278A KR20130135278A (ko) 2013-12-10
KR101834934B1 true KR101834934B1 (ko) 2018-03-08

Family

ID=45350446

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137017329A KR101834934B1 (ko) 2010-12-03 2011-12-02 3d 이미지 데이터의 전송

Country Status (8)

Country Link
US (1) US10057559B2 (ko)
EP (1) EP2647209B1 (ko)
JP (1) JP5955851B2 (ko)
KR (1) KR101834934B1 (ko)
CN (1) CN103262547B (ko)
RU (1) RU2589870C2 (ko)
TW (1) TWI538475B (ko)
WO (1) WO2012073221A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8737810B2 (en) * 2002-11-15 2014-05-27 Thomson Licensing Method and apparatus for cropping of subtitle elements
TWI538475B (zh) * 2010-12-03 2016-06-11 皇家飛利浦電子股份有限公司 用於輸出一個三維影像信號之3d源裝置、用於接收該三維影像信號之3d標的裝置、產生及消耗該三維影像信號之方法、及電腦程式產品
JP6092525B2 (ja) * 2012-05-14 2017-03-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、情報処理システム、画像処理方法およびプログラム
GB201700121D0 (en) * 2017-01-05 2017-02-22 Rotem Gal System methods and computer readable storage media for conversion of two-dimensional multipile objects layouts into three dimensional layouts
US10212532B1 (en) 2017-12-13 2019-02-19 At&T Intellectual Property I, L.P. Immersive media with media device
US10776899B2 (en) * 2018-09-17 2020-09-15 Snap Inc. Creating shockwaves in three-dimensional depth videos and images
KR20210049942A (ko) * 2018-09-26 2021-05-06 스냅 인코포레이티드 2차원 입력 선택을 활용한 3차원 깊이 이미지들의 깊이 스컬퍼링

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
JP2010182206A (ja) * 2009-02-06 2010-08-19 Canon Inc 画像処理装置および画像処理方法
US20100238267A1 (en) * 2007-03-16 2010-09-23 Thomson Licensing System and method for combining text with three dimensional content
JP2012120143A (ja) * 2010-11-10 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
KR20130135278A (ko) * 2010-12-03 2013-12-10 코닌클리케 필립스 엔.브이. 3d 이미지 데이터의 전송

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE526226C2 (sv) * 2003-12-19 2005-08-02 Ericsson Telefon Ab L M Bildbehandling
US7800703B2 (en) 2005-12-13 2010-09-21 Koninklijke Philips Electronics N.V. Display device
CN106101682B (zh) * 2008-07-24 2019-02-22 皇家飞利浦电子股份有限公司 通用3-d画面格式
RU2517402C2 (ru) * 2008-07-25 2014-05-27 Конинклейке Филипс Электроникс Н.В. Обработка 3d отображения субтитров
MX2010002097A (es) * 2008-09-30 2010-08-02 Panasonic Corp Medio de grabacion, dispositivo de reproduccion, integracion a gran escala de sistema, metodo de reproduccion, lentes y dispositivo visual para imagenes 3d.
EP2338281A4 (en) * 2008-10-17 2012-08-15 Nokia Corp SHARING THE MOTION VECTOR IN 3D VIDEO CODING
KR101633627B1 (ko) * 2008-10-21 2016-06-27 코닌클리케 필립스 엔.브이. 입력 3차원 비디오 신호를 프로세싱하는 방법 및 시스템
WO2010058546A1 (ja) * 2008-11-18 2010-05-27 パナソニック株式会社 立体視再生を行う再生装置、再生方法、プログラム
RU2538335C2 (ru) * 2009-02-17 2015-01-10 Конинклейке Филипс Электроникс Н.В. Объединение данных 3d изображения и графических данных

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100238267A1 (en) * 2007-03-16 2010-09-23 Thomson Licensing System and method for combining text with three dimensional content
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
JP2010182206A (ja) * 2009-02-06 2010-08-19 Canon Inc 画像処理装置および画像処理方法
JP2012120143A (ja) * 2010-11-10 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
KR20130135278A (ko) * 2010-12-03 2013-12-10 코닌클리케 필립스 엔.브이. 3d 이미지 데이터의 전송

Also Published As

Publication number Publication date
WO2012073221A1 (en) 2012-06-07
TW201242336A (en) 2012-10-16
TWI538475B (zh) 2016-06-11
JP2014507078A (ja) 2014-03-20
CN103262547A (zh) 2013-08-21
RU2589870C2 (ru) 2016-07-10
BR112013013486A2 (pt) 2016-10-11
US20130250058A1 (en) 2013-09-26
KR20130135278A (ko) 2013-12-10
EP2647209B1 (en) 2017-11-01
US10057559B2 (en) 2018-08-21
EP2647209A1 (en) 2013-10-09
RU2013129984A (ru) 2015-01-10
CN103262547B (zh) 2016-01-20
JP5955851B2 (ja) 2016-07-20

Similar Documents

Publication Publication Date Title
US10021377B2 (en) Combining 3D video and auxiliary data that is provided when not reveived
JP5584292B2 (ja) 相対的奥行きを持たせた立体画像への3dオブジェクトの組み入れ
KR101834934B1 (ko) 3d 이미지 데이터의 전송
TWI573425B (zh) 產生三維視訊信號
EP2537347B1 (en) Apparatus and method for processing video content
US8830301B2 (en) Stereoscopic image reproduction method in case of pause mode and stereoscopic image reproduction apparatus using same
US20130182071A1 (en) 3d video image encoding apparatus, decoding apparatus and method
EP2282550A1 (en) Combining 3D video and auxiliary data
WO2012057048A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2012100102A (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
RU2632404C2 (ru) Данные сигнализации глубины
KR101674688B1 (ko) 입체영상 재생 장치 및 입체영상 재생 방법
BR112013013486B1 (pt) Dispositivo de fonte em 3d para a emissão de um sinal de imagem tridimensional, dispositivo alvo em 3d para a recepção de um sinal de imagem tridimensional, método de produção de um sinal de imagem tridimensional, método de consumo de um sinal de imagem tridimensional, mídia legível lida por computador e sinal de imagem tridimensional

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right