KR20130065611A - 디스패리티 설정 방법 및 대응하는 디바이스 - Google Patents

디스패리티 설정 방법 및 대응하는 디바이스 Download PDF

Info

Publication number
KR20130065611A
KR20130065611A KR1020120141830A KR20120141830A KR20130065611A KR 20130065611 A KR20130065611 A KR 20130065611A KR 1020120141830 A KR1020120141830 A KR 1020120141830A KR 20120141830 A KR20120141830 A KR 20120141830A KR 20130065611 A KR20130065611 A KR 20130065611A
Authority
KR
South Korea
Prior art keywords
image
disparity
setting
time
information
Prior art date
Application number
KR1020120141830A
Other languages
English (en)
Other versions
KR101994322B1 (ko
Inventor
필립쁘 질베르똥
앙또니 로렁
에릭 고띠에
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20130065611A publication Critical patent/KR20130065611A/ko
Application granted granted Critical
Publication of KR101994322B1 publication Critical patent/KR101994322B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0209Crosstalk reduction, i.e. to reduce direct or indirect influences of signals directed to a certain pixel of the displayed image on other pixels of said image, inclusive of influences affecting pixels in different frames or fields or sub-images which constitute a same image, e.g. left and right images of a stereoscopic display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/008Aspects relating to glasses for viewing stereoscopic images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 입체 이미지의 디스패리티(disparity) 설정을 나타내는 정보를 전송하기 위한 방법에 관한 것으로, 입체 이미지는 두 개의 상이한 시점에 따른 동일한 장면을 나타내는 제1 이미지 및 제2 이미지를 포함한다. 방법은 주어진 시간에 상기 설정 정보를 전송하는 단계를 포함하고, 전송 시간은 제1 및 제2 이미지의 순차적 표시 사이의 전환 시간(transition time)과 연관된 시간 기간에 따라 결정된다.
본 발명은 또한 수신된 디스패리티 정보에 따른 디스패리티 설정 방법은 물론 디스패리티 설정을 나타내는 정보의 전송을 위해 구성된 디바이스에 관한 것이다.

Description

디스패리티 설정 방법 및 대응하는 디바이스{DISPARITY SETTING METHOD AND CORRESPONDING DEVICE}
본 발명은, 3차원에 있는, 3D 이미지들 및/또는 비디오의 특성 설정의 분야에 관한 것이다. 본 발명은 또한 3D 이미지들의 렌더링을 위해 연관된 상이한 디바이스들 사이에서 정보의 교환의 분야에 관한 것이다.
종래 기술에 따르면, 예를 들어, 입체영상(stereoscopy)에 의한 릴리프의 인식(perception of relief)을 회복시키기 위해 비디오 처리에서 사용된 여러 방법들이 존재한다. 입체영상에서, 동일한 장면에 대한 두 개의 뷰는, 서로에 대해 좌우로 이동된(shifted laterally) 두 개의 상이한 뷰포인트로부터, 두 개의 상이한 비디오 카메라 또는 두 개의 상이한 카메라로, 기록된다. 동일한 장면에 대한 이러한 두 개의 뷰는, 깊이 정보인, 릴리프의 인식을 회복시키기 위해, 시간적으로 순차적인 방식(왼쪽 이미지 그 다음 오른쪽 이미지 등) 또는 공간적으로 인터리브된 방식(왼쪽 이미지의 라인 그 다음 오른쪽 이미지의 라인 등) 중 어느 하나로 표시 디바이스(예를 들어, PDP(Plasma Display Panel) 유형, 또는 LCD(Liquid Crystal Display) 유형이나 비디오 프로젝터에 의하여)에 표시된다. 3D 효과의 진폭 또는 3D 이미지에서 릴리프의 인식은, 기록된 장면의 동일한 요소를 나타내고 있는, 표시 디바이스의 레벨에서 동일한 비디오 정보를 나타내는, 왼쪽 이미지에 대한 하나의 픽셀과 오른쪽 이미지에 대한 하나의 픽셀인, 두 개의 픽셀이 떨어져 있는 거리(예를 들어, 픽셀들의 수로도 측정가능함)인, 왼쪽과 오른쪽 이미지들의 디스패리티에 직접적으로 의존한다. 일반적으로, 영화(film) 또는 비디오의 왼쪽과 오른쪽 이미지들의 디스패리티는 디렉터에 의해 고정 및 결정되고, 장면을 촬영하는 왼쪽과 오른쪽 카메라 사이의 거리에 대응하며, 이러한 두 개의 카메라는 대개, 개인의 눈들이 떨어져 있는 평균 거리에 대응하는, 6.5㎝의 거리만큼 떨어져 있다.
평균에 대응하는 카메라들 사이의 선택된 거리는, 디스패리티를 조정할, 즉, 3D 효과의 진폭을 조정할 필요성을 느껴, 영화나 3D 이미지를 감상하는 각각의 개인은 시각 피로(visual fatigue)를 피하거나 줄이기 위해 입체 3D 이미지의 왼쪽과 오른쪽 이미지의 디스패리티를 그의 뷰로 조정할 수 있다. 더욱이, 대형 3D 효과는 3D 효과의 진폭을 조정, 즉, 이미지의 깊이를 설정하려고 시도하는 일부 관중들에게 불편할 수 있다.
더욱이, 입체 콘텐츠(3D 이미지 또는 3D 비디오)의 렌더링을 위한 3D 표시 디바이스와 액티브 안경(active pair of glasses)을 연관시키는 것이 알려져 있다. 액티브 안경을 사용하는 시스템에서, 입체 콘텐츠의 왼쪽과 오른쪽 이미지들은 표시 디바이스 상에 순차적으로, 즉, 교대로(one after the other) 표시된다. 연관된 (액티브) 안경은, 다른 눈이 그것을 감상하는 동안 표시된 이미지를 봐서는 안되는 눈의 시각(vision)을 차단할 수 있다(예를 들어, 단지 오른쪽 눈만 오른쪽 이미지를 감상할 수 있어야 하고, 단지 왼쪽 눈만 왼쪽 이미지를 감상할 수 있어야 함). 이것은, 예를 들어, 렌즈마다 LCD("Liquid Crystal Display") 패널을 통합하는 액티브 안경의 사용에 의해 획득되고, 그 LCD 패널은 빛이 통과하거나 못하게, 즉, (오른쪽 또는 왼쪽) 이미지가 표시되게 한다. 이를 행하기 위해, 액티브 안경은 표시 디바이스와 동기화되어야 하므로, 왼쪽 눈의 시각의 차단은 단지 오른쪽 이미지의 표시 동안에만 일어나고, 오른쪽 눈의 시각의 차단은 단지 왼쪽 이미지의 표시 동안에만 일어난다. 주어진 3D 표시 디바이스와 연관된 액티브 안경은 따라서 후자와 동기화되고 후자에 의해 제어된다.
액티브 안경을 갖추고, 적합한 표시 디바이스 상의 입체 콘텐츠를 감상하는 하나 이상의 사람에 의한 3D 효과의 진폭의 설정은, 예를 들어, 액티브 안경의 렌즈의 블랭킹(blanking)과 입체 콘텐츠의 이미지들의 표시의 동기화에 관해 여러 문제점들을 제기한다.
본 발명의 목적은 종래 기술의 이러한 단점들 중 적어도 하나를 극복하는 것이다.
보다 구체적으로, 본 발명은 특히 입체 콘텐츠의 렌더링에 관여된 상이한 3D 디바이스들의 동기화를 방해하지 않기 위해서 입체 콘텐츠들의 디스패리티 설정 정보의 처리를 최적화하도록 설계된다.
본 발명은 입체 이미지의 디스패리티 설정을 나타내는 정보를 전송하기 위한 방법에 관한 것으로, 입체 이미지는, 두 개의 상이한 시점(viewpoint)에 따라 동일한 장면을 나타내는 적어도 제1 이미지와 제2 이미지를 포함한다. 방법은 주어진 시간에 설정 정보를 전송하는 단계를 포함하고, 전송 시간은, 액티브 안경의 렌즈가 개방(open) 또는 폐쇄 상태(closed state)로 구축되어 있는 동안의 시간 슬롯(time slot)에 속한다.
특정한 특성에 따르면, 액티브 안경의 한 렌즈가 개방 또는 폐쇄 상태로 구축되어 있는 동안의 시간 슬롯은 동기화 신호의 수신 시간에 따라 결정된다.
바람직하게, 전송 시간은 액티브 안경의 하나의 렌즈가 개방 또는 폐쇄 상태로 구축되어 있는 동안의 시간 슬롯의 시작에 속한다.
특정 특성에 따르면, 방법은 전송 전에 메모리에 디스패리티 설정을 나타내는 정보를 저장하는 단계를 포함한다.
바람직한 방식으로, 디스패리티 설정을 나타내는 정보는 무선 전송 채널을 통해 전송된다.
바람직하게, 입체 이미지는 하나의 제1 이미지와 적어도 두 개의 제2 이미지를 포함하는 비디오 스트림에 속하고, 상이한 디스패리티 정보는 각각의 제2 이미지와 연관된다.
본 발명은 또한 입체 이미지의 디스패리티 레벨을 조정하기 위한 방법에 관한 것으로, 입체 이미지는 두 개의 상이한 시점에 따라 동일한 장면을 나타내는 제1 이미지와 제2 이미지를 포함하고, 방법은 디스패리티 설정을 나타내는 정보를 수신하는 단계와, 수신된 디스패리티 설정을 나타내는 정보에 따라 입체 이미지의 디스패리티 레벨을 설정하는 단계를 포함하고, 설정은 제1 이미지의 표시와 제2 이미지의 표시 사이의 전환 시간(transition time)과 상이한 시간에 처리된다.
또 다른 특성에 따르면, 방법은 동기화 신호를 전송하는 단계를 포함하고, 동기화 신호는 제1 및 제2 이미지의 표시 시퀀스를 나타내는 정보를 포함한다.
특정한 특성에 따르면, 방법은, 디스패리티 레벨이 설정되기 전에 수신된 디스패리티 설정을 나타내는 정보를 메모리에 저장하는 단계를 더 포함한다.
바람직하게, 설정의 처리 시간은 제1 및 제2 이미지 중 하나의 표시에 대응하는 시간 슬롯에 속한다.
본 발명은 또한 제1 이미지와 제2 이미지를 포함하는 입체 이미지의 디스패리티 설정을 나타내는 정보의 전송을 위해 구성된 디바이스에 관한 것으로, 디바이스는, 디스패리티 설정을 나타내는 정보의 전송을 위해 구성된 송신기와, 액티브 안경의 한 렌즈가 개방 또는 폐쇄 상태로 구축되는 동안의 시간 슬롯에 속하는 디스패리티 설정을 나타내는 정보의 전송 시간을 결정하도록 구성된 계산 유닛을 포함한다.
바람직하게, 디바이스는 제1 및 제2 이미지의 표시 시퀀스를 나타내는 정보를 포함하는 동기화 신호의 수신을 위해 구성된 수신기를 포함한다.
또 다른 특성에 따르면, 디바이스는 입체 이미지의 디스패리티 설정을 수정하도록 구성된 명령 수단을 포함한다.
다음의 설명을 읽으면, 본 발명이 더 잘 이해될 것이고 다른 특정 특징들 및 장점들이 드러날 것이며, 설명은 첨부된 도면들을 참조하여 실시된다.
도 1a 및 1b는 본 발명의 두 개의 특정한 실시예에 따른 여러 3D 디바이스들을 포함하는 네트워크를 도시한다.
도 2는, 본 발명의 특정한 실시예에 따른, 도 1a 및 1b의 네트워크의 3D 표시 디바이스 상에 렌더링하기 위한 두 개의 상이한 3D 콘텐츠의 프레임들의 시퀀스를 도시한다.
도 3은, 본 발명의 특정한 실시예에 따른, 도 1a 및 1b의 하나 이상의 3D 디바이스들과 연관된 디스패리티 설정 정보의 처리 모듈의 구조를 개략적으로 도시한다.
도 4는, 본 발명의 특정한 실시예에 따른, 3D 콘텐츠의 디스패리티 설정과 연관된 작업들(tasks) 및 도 3의 두 개의 처리 모듈에 의한 구현들의 시퀀싱을 도시한다.
도 5a 및 5b는, 본 발명의 두 개의 특정한 실시예에 따른, 도 1의 3D 디바이스들에 의해 실행된 명령어들의 시퀀싱을 도시한다.
도 6은, 본 발명의 특정한 실시예에 따른, 도 3의 처리 모듈에서 구현된 디스패리티 설정을 나타내는 정보의 전송 방법을 도시한다.
도 7은, 본 발명의 특정한 실시예에 따른, 도 3의 처리 모듈에서 구현된 디스패리티 설정 방법을 도시한다.
본 발명은 입체 이미지의 디스패리티 설정을 나타내는 정보의 전송 방법에 대한 제1 특정 실시예를 참조하여 설명될 것이다. 입체 이미지는 바람직하게 제1 이미지(예를 들어, 왼쪽 이미지)와 제2 이미지(예를 들어, 오른쪽 이미지)로 구성되고, 제1 및 제2 이미지는 두 개의 상이한 시점에서 본 동일한 장면을 나타내고, 사용자의 뇌에 의한 제1 이미지와 제2 이미지의 합성은 그 장면의 이미지의 렌더링이 3차원으로 획득되는 것을 가능하게 한다. 설명된 제1 특정 및 비-제한적 실시예에 따르면, 사용자가 갖기를 원하는 입체 이미지에 포함된 3D 효과의 진폭 레벨을 나타내는 정보인, 디스패리티 설정을 나타내는 정보는 주어진 시간에 전송된다. 전송 시간은, 3D 표시 디바이스 상의 제1 이미지의 표시와 제2 이미지의 표시 사이의 전환에 대응하는 시간 기간을 고려하여 결정된다. 본 발명의 특정 및 비-제한적 실시예에 따르면, 설정 정보는 이러한 정보의 생성, 처리 및 전송에 적합한 모듈로부터 전송되고, 그 모듈은, 제1 3D 디바이스, 예를 들어, 액티브 안경 내지 제2 3D 디바이스, 예를 들어, 설정 정보를 처리하도록 구성된 모듈을 갖춘 3D 디바이스와 연관된다. 3D 디바이스는 하나 이상의 입체 이미지를 나타내는 데이터의 처리에 적합한 디바이스로서 이해된다.
본 발명은 또한 입체 이미지의 디스패리티 레벨의 설정 방법에 대한 제2 특정 실시예를 참조하여 설명될 것이다. 제2 특정 실시예에 따르면, 디스패리티 설정을 나타내는 정보는 3D 디바이스, 예를 들어, 3D 표시 디바이스 또는 3D 표시 디바이스에 3D 콘텐츠(예를 들어, 하나 이상의 입체 이미지를 포함함)를 전송하는 3D 소스에 의해 수신된다. 입체 이미지의 디스패리티의 설정은 그 다음 수신된 설정 정보에 따라 주어진 시간에 입체 이미지에 적용된다. 설정이 적용되는 시간은 바람직하게 3D 표시 디바이스 상에서 제1 이미지의 표시와 제2 이미지의 표시 사이의 전환에 대응하는 시간 기간을 고려하여 결정된다.
도 1a는 본 발명의 제1 특정 비-제한적 실시예에 따른 여러 3D 디바이스들로 구성된 네트워크(1)를 도시한다. 네트워크(1)는, 예를 들어, 가정용 네트워크(domestic network)에 대응한다. 네트워크(1)는 복수의 3D 디바이스, 즉, 적어도 하나의 액티브 안경과 연관된 표시 디바이스로 구성된 시스템에 의한 3D 비디오 콘텐츠의 렌더링을 위한 3D 비디오 콘텐츠를 나타내는 데이터를 처리할 수 있는 디바이스들을 포함한다. 3D 디바이스들 중에서, 네트워크(1)는 특히 (예를 들어, ADSL 또는 FTTH(Fibre To The Home) 또는 Wimax (Worldwide Interoperability for Microwave Access)의) 게이트웨이(10), 예를 들어, LCD, PDP(Plasma Display Panel) 또는 OLED(Organic Light-Emitting Diode) 유형의 표시 화면(14), 셋-톱 박스(13) 및 두 개의 액티브 안경(11 및 12)을 포함한다.
게이트웨이(10)는 바람직하게 예를 들어 이더넷 유형(ISO/IEC 8802-3 표준에 따른)의 유선 링크를 통해 셋-톱 박스(13)에 접속된다. 변형예에 따르면, 게이트웨이(10)는 예를 들어 와이파이® 유형의 무선 링크를 통해 셋-톱 박스(13)에 링크된다. 셋-톱 박스(13)는 예를 들어 HDMI(High Definition Multimedia Interface) 유형의 유선 링크를 통해 표시 화면(14)에 접속된다. 변형예에 따르면, 셋-톱 박스(13)는 예를 들어 와이파이® 유형의 무선 링크를 통해 표시 화면(14)에 접속된다. 두 개의 액티브 안경(11 및 12)은 각각 예를 들어 표준 IEEE 802.15.1를 기반으로 한 "블루투스" 유형의, 표준 IEEE 802.15.4를 기반으로 한 "지그비" 유형의 또는 와이파이® 유형의 무선 링크를 통해 표시 화면(14)에 링크된다. 안경(11 및 12)과 표시 화면(14) 사이의 이러한 무선 링크들은 도 1a에서 검은색 실선인 양방향 화살표로 도시된다. 바람직하게, 액티브 안경(11 및 12)은 표시 화면(14) 상에 표시된 3D 콘텐츠 3D의 렌더링을 위한 표시 화면과 연관되어, 액티브 안경(11 및 12)의 오른쪽 렌즈(각각 왼쪽 렌즈)는 화면(14) 상의 입체 이미지의 왼쪽 이미지(각각 오른쪽 이미지)를 표시하는 동안 블랭크된다. 액티브 안경(11 및 12)과 표시 화면(14)의 연관성은 도 1a에서 액티브 안경과 표시 화면(14) 사이의 점선 화살표에 의해 도시된다.
하나의 실시예에 따르면, 바람직하게, 제1 관중은 제1 액티브 안경(11)을 착용하고 제2 관중은 제2 액티브 안경(12)을 착용하며, 제1 및 제2 관중 둘 다 표시 화면(14)을 감상한다. 이러한 예에 따르면, 관중 둘 다 상이한 디스패리티 레벨로 동일한 3D 콘텐츠를 감상한다. 제1 관중은 예를 들어 제1 디스패리티 레벨로 제1 3D 콘텐츠(예를 들어, 한 장면을 나타내는 제1 입체 이미지 시퀀스)를 감상하고, 제2 관중은 제1 디스패리티 레벨과 상이한 제2 디스패리티 레벨로 제2 3D 콘텐츠(예를 들어, 제1 입체 이미지 시퀀스와 동일한 장면을 나타내는 제2 입체 이미지 시퀀스임)를 감상한다. L1과 R1이 각각 제1 3D 콘텐츠의 왼쪽 이미지와 오른쪽 이미지를 나타내는 경우 및 L2와 R2가 각각 제2 3D 콘텐츠의 왼쪽 이미지와 오른쪽 이미지를 나타내는 경우에, 두 개의 3D 콘텐츠의 오른쪽 및 왼쪽 이미지의 표시 시퀀스는 다음과 같다: L1, R1, L2, R2, L1, R1, L2, R2... 제1 및 제2 3D 콘텐츠의 표시는 따라서 시간적 시점에서 순차적이고, 왼쪽 및 오른쪽 이미지의 표시 또한 각각의 3D 콘텐츠에 대한 시간적 시점에서 순차적이다. 도 2는 입체 이미지의 왼쪽과 오른쪽 이미지에 대응하는 두 개의 3D 콘텐츠의 제1 및 제2 이미지를 나타내는 정보의 이러한 시퀀스를 도시한다. 프레임(20)은 시간적으로 분할되어, 프레임의 제1 시간 슬롯(201)은 제1 3D 콘텐츠의 제1 입체 이미지의 왼쪽 이미지 L1를 나타내는 데이터를 포함하고, 후속하는 시간 슬롯(202)은 제1 3D 콘텐츠의 제1 입체 이미지의 오른쪽 이미지 R1을 나타내는 데이터를 포함한다. 제2 시간 슬롯(202)에 후속하는 제3 시간 슬롯(203)은 제2 콘텐츠의 제1 입체 이미지의 왼쪽 이미지 L2를 나타내는 데이터를 포함하고, 후속하는 시간 슬롯(204)은 제2 3D 콘텐츠의 제1 입체 이미지의 오른쪽에 이미지 R2를 나타내는 데이터를 포함한다. 그 다음, 후속하는 시간 슬롯(205)은 제1 3D 콘텐츠의 제2 입체 이미지의 왼쪽 이미지 L1을 나타내는 데이터를 포함하고, 후속하는 시간 슬롯(206)은 제1 3D 콘텐츠의 제2 입체 이미지의 오른쪽에 이미지 R1을 나타내는 데이터를 포함한다. 그 다음, 후속하는 시간 슬롯(207)은 제2 3D 콘텐츠의 제2 입체 이미지의 왼쪽 이미지 L2를 나타내는 데이터를 포함하고, 후속하는 시간 슬롯(208)은 제2 3D 콘텐츠의 제2 입체 이미지의 오른쪽에 이미지 R2를 나타내는 데이터를 포함하는 등이다. 도 2는 또한 제1 3D 콘텐츠의 렌더링을 위해 사용된 제1 액티브 안경(11)의 왼쪽 렌즈(21)와 오른쪽 렌즈(22)가 블랭크(검은색)되거나 빛이 통과하게 하는(흰색) 동안의 시간 슬롯들을 도시한다. 제1 액티브 안경(11)의 왼쪽 렌즈(21)는, 제1 3D 콘텐츠의 왼쪽 이미지들 L1가 표시되는 동안의 프레임(20)의 시간 슬롯들(201 및 205)에 시간적으로 대응하는 시간 슬롯들(211 및 212) 동안 빛이 통과하게 한다. 프레임(20)의 다른 시간 슬롯들 동안, 제1 액티브 안경(11)의 왼쪽 렌즈(21)는 블랭크된다. 제1 액티브 안경(11)의 오른쪽 렌즈(22)는, 제1 3D 콘텐츠의 오른쪽 이미지들 R1가 표시되는 동안의 프레임(20)의 시간 슬롯들(202 및 206)에 시간적으로 대응하는 시간 슬롯들(221 및 222) 동안 빛이 통과하게 한다. 프레임(20)의 다른 시간 슬롯들 동안, 제1 액티브 안경(11)의 오른쪽 렌즈(22)는 블랭크된다. 마찬가지로, 제2 액티브 안경(12)의 왼쪽 렌즈(23)는, 제2 3D 콘텐츠의 왼쪽 이미지들 L2가 표시되는 동안의 프레임(20)의 시간 슬롯들(203 및 207)에 시간적으로 대응하는 시간 슬롯들(231 및 232) 동안 빛이 통과하게 한다. 프레임(20)의 다른 시간 슬롯들 동안, 제2 액티브 안경(12)의 왼쪽 렌즈(23)는 블랭크된다. 제2 액티브 안경의 오른쪽 렌즈(24)는, 제1 3D 콘텐츠의 오른쪽 이미지들 R2가 표시되는 동안의 프레임(20)의 시간 슬롯들(204 및 208)에 시간적으로 대응하는 시간 슬롯들(241 및 242) 동안 빛이 통과하게 한다. 프레임(20)의 다른 시간 슬롯들 동안, 제1 액티브 안경(12)의 오른쪽 렌즈(24)는 블랭크된다.
바람직하게, 제1 및 제2 3D 콘텐츠는 왼쪽 및 오른쪽 입체 이미지 사이에 상이한 디스패리티들로, 즉, 상이한 깊이 정보로, 즉, 3D 효과의 레벨에서 상이한 진폭들로 표시된 동일한 비디오에 대응한다. 이 예에 따르면, 프레임(20)은 예를 들어 제1 시간 슬롯(201)에 제1 왼쪽 이미지를 나타내는 데이터를 포함하고, 제1 시간 슬롯(201)에 시간적으로 후속하는 제2 시간 슬롯(202)에 제1 오른쪽 이미지(제1 왼쪽 이미지에 대해 제1 디스패리티를 가짐)를 나타내는 데이터를 포함하고, 제2 시간 슬롯(202)에 시간적으로 후속하는 제3 시간 슬롯(203)에 제2 오른쪽 이미지(제1 왼쪽 이미지에 대해 제2 디스패리티를 가짐)를 나타내는 데이터를 포함한다. 그래서, 쌍들 [제1 왼쪽 이미지/제1 오른쪽 이미지] 및 [제1 왼쪽 이미지/제2 오른쪽 이미지]은 상이한 깊이(즉, 상이한 3D 레벨)로 동일한 장면(또는 동일한 비디오)을 나타낸다. 그 다음, 다른 입체 이미지들에 대해 동일한 체계, 즉, 시간적으로 반복된다: 왼쪽 이미지, 제1 디스패리티를 갖는 오른쪽 이미지, 제2 디스패리티를 갖는 오른쪽 이미지.
하나의 변형예에 따르면, 프레임(20)은 도 2에 도시된 예와 다르게 분할된다. 이러한 특히 바람직한 변형예에 따르면, 프레임은 예를 들어 제1 및 제2 3D 콘텐츠의 왼쪽 이미지들을 나타내는 데이터를 포함하는 프레임의 제1 시간 슬롯을 포함한다(3D 콘텐츠들은 동일한 장면을 나타내는 이 예에 따른 것임). 프레임(20)의 제1 시간 슬롯에 대응하는 왼쪽 이미지는 따라서 두 개의 3D 콘텐츠에 공통이다. 프레임은 따라서 제2 시간 슬롯(제1 시간 슬롯의 바로 다음)에, 제1 3D 콘텐츠의 오른쪽 이미지를 나타내는 데이터를 포함한다(제1 시간 슬롯의 왼쪽 이미지와 제2 시간 슬롯의 오른쪽 이미지가 제1 3D 콘텐츠의 제1 입체 이미지를 형성함). 그 다음, 프레임(20)의 제3 시간 슬롯(제2 시간 슬롯의 바로 다음)은 제2 3D 콘텐츠의 오른쪽 이미지를 나타내는 데이터를 포함한다(제1 시간 슬롯의 왼쪽 이미지와 제3 시간 슬롯의 오른쪽 이미지가 제2 3D 콘텐츠의 제1 입체 이미지를 형성함). 제1(12) 및 제2(12) 액티브 안경의 동작은 따라서 다음과 같다: 각각의 액티브 안경(11 및 12)의 오른쪽 렌즈는 제1 시간 슬롯 동안 블랭크되고(각각의 액티브 안경(11 및 12)의 왼쪽 렌즈는 이 제1 시간 슬롯 동안 빛이 통과하게 함), 각각의 액티브 안경(11 및 12)의 왼쪽 렌즈는 제2 및 제3 시간 슬롯들 동안 블랭크된다(제1 안경(11)의 오른쪽 렌즈는 제2 시간 슬롯 동안 빛이 통과하게 하고(제2 안경(12)의 오른쪽 렌즈는 스스로 블랭크됨), 제2 안경(12)의 오른쪽 렌즈는 제3 시간 슬롯 동안 빛이 통과하게 함(제1 안경(11)의 오른쪽 렌즈는 스스로 블랭크됨)). 프레임(20)의 이러한 시간적 분할은, 3D 콘텐츠들에 대한 왼쪽 이미지와, 상이한 3D 콘텐츠들과 연관된 오른쪽 이미지들 각각 사이의 표시 시간을 최대한 감소시켜, 왼쪽 또는 오른쪽 렌즈가 블랭크되는 동안의 시간을 제한하여, 여러 3D 콘텐츠의 이미지들을 나타내는 데이터를 포함할 수 있다는 장점을 갖는다. 이 예에 따르면, 동일한 프레임에 두 개보다 많은 3D 콘텐츠(예를 들어 3, 4, 5 또는 10 콘텐츠)를 수송하는 것이 물론 가능하고, 각각의 콘텐츠는 상이한 디스패리티 레벨(3D 효과의 진폭)로 동일한 장면(또는 동일한 비디오)을 나타낸다. 원리는, 제1 데이터 슬롯은 모든 콘텐츠에 공통인 제1 이미지(왼쪽 또는 오른쪽)의 데이터를 포함하고, 프레임에 존재하는 상이한 3D 콘텐츠들와 같은 수 만큼의 시간 슬롯이 후속한다는 것으로 동일하게 유지되고, 제1에 후속하는 슬롯들 각각은 각각의 제2 이미지(각각 오른쪽 또는 왼쪽)의 데이터를 포함한다.
바람직하게, 상이한 3D 콘텐츠들은 소스 3D 콘텐츠로부터 디스패리티 보상 보간(disparity compensated interpolation)에 의해 획득된다. 3D 콘텐츠가 제1 이미지(예를 들어, 왼쪽)와 제2 이미지(예를 들어, 오른쪽)를 포함하는 입체 이미지에 대응하는 경우, 보간된 이미지는 소스(또는 초기) 입체 이미지의 왼쪽과 오른쪽 이미지로부터 디스패리티 보상 보간에 의해 생성된다. 따라서, 보간 계수 α를 다양하게 하여 소스 입체 이미지로부터 필요로 하는 수 만큼의 보간된 이미지를 생성하는 것이 가능하고, α는 바람직하게 0과 1 사이이다. 새로운 입체 이미지들(각각의 새로운 입체 이미지는, 그의 디스패리티가 소스 입체 이미지의 디스패리티와 상이한, 3D 콘텐츠에 대응함)를 형성하기 위해, 소스 왼쪽 이미지와 보간된 이미지(소스 오른쪽 이미지를 대신함)를 포함하는 이미지 쌍, 또는 소스 오른쪽 이미지와 보간된 이미지(소스 오른쪽 이미지를 대신함)를 포함하는 이미지 쌍, 또는 심지어 두 개의 보간된 이미지(소스 왼쪽 및 오른쪽 이미지들을 대신함)를 포함하는 이미지 쌍을 형성하는 것이 가능하다.
또 다른 변형예에 따르면, 제1 및 제2 3D 콘텐츠는, 제1 3D 콘텐츠가 제1 장면을 나타내고 제2 3D 콘텐츠가 제1과는 상이한 제2 장면을 나타낸다는 점에서, 상이한 비디오들에 대응한다.
도 1b는, 본 발명의 제2 특정 비-제한적 실시예에 따른, 동일한 3D 디바이스들로 구성된 도 1a에 도시된 네트워크(1)를 도시한다. 도 1b에 도시된 3D 디바이스들은 도 1a에서의 것들과 동일하고, 동일한 참조 번호를 갖는다. 도 1b와 도 1a 사이의 차이점은, 액티브 안경들(11 및 12)이 도 1b에서는 무선 링크를 통해 게이트웨이(10)에 접속된다는 사실에 있다. 이러한 무선 링크들은, 예를 들어, 표준 IEEE 802.15.1를 기반으로 한 "블루투스" 유형, 표준 IEEE 802.15.4를 기반으로 한 "지그비" 유형, 또는 와이파이® 유형이다. 이러한 무선 링크들은, 예를 들어, 액티브 안경(11 및 12) 각각과 게이트웨이(10) 사이에서 동기화 정보를 교환하는데 사용되므로, 액티브 안경의 왼쪽 렌즈(각각 오른쪽 렌즈)의 블랭킹은 표시 화면(14) 상에 표시할 입체 이미지들의 오른쪽 이미지들(각각 왼쪽 이미지들)의 표시와 동기화되고, 게이트웨이(10)는 표시 화면(14) 상에 표시하기 위한 셋-톱 박스(13)에 3D 콘텐츠(들)을 나타내는 데이터의 하나 이상의 흐름(예를 들어, 입체 이미지들의 하나 이상의 시퀀스)을 전송한다.
도 3은, 본 발명의 특정 비-제한적 실시예에 따른, 디스패리티 설정 정보 처리 모듈(3)의 자료 실시예(material embodiment)를 개략적으로 보여준다.
처리 모듈(3)은 다음의 요소들을 포함한다:
- 데이터의 전송 및 수신에 적합한 송신 유닛(31)(예를 들어, 동기화 신호 및/또는 정보는 3D 또는 입체 콘텐츠와 연관된 디스패리티의 설정 레벨에 관련됨)
- 송신 유닛(31)에 접속된 안테나(32)
- 또한 클록 신호를 운반하는 어드레스 및 데이터 버스에 의해 송신 유닛(31)에 접속된 마이크로프로세서(33)(또는 CPU)
- 또한 클록 신호를 운반하는 어드레스 및 데이터 버스에 의해 마이크로프로세서(33)에 접속된 RAM(Random Access Memory)(34),
- 명령의 검증(validation)에 적합하고, 어드레스 및 데이터 버스를 통해 마이크로프로세서(33)에 접속된 유닛(35).
랜덤 액세스 메모리(34)는, 특히 다음을 포함한다:
- 레지스터에서, 처리 모듈(3)의 스위치를 켜는 것을 담당하는 마이크로프로세서(33)의 운영 프로그램(operating programme),
- 사용자가 필요로 한 디스패리티 설정 레벨을 나타내는 데이터
- 동기화를 나타내는 데이터.
본 발명에 특정한 방법의 단계들을 구현하고 아래에 설명된 알고리즘들은 이러한 단계들을 구현하는 처리 모듈(3)과 연관된 RAM(34) 메모리(또는 도시되지 않은 ROM 메모리)에 저장된다. 전원이 공급될 때, 마이크로프로세서(33)는 이러한 알고리즘들의 명령어들을 로드 및 실행한다.
메모리(34)의 설명에 사용된 "레지스터"라는 단어는, 언급된 메모리들의 각각에서, 대용량(전체 프로그램이 저장되는 것 또는 수신된 데이터를 나타내는 데이터의 전부 또는 일부가 방송되는 것을 가능하게 함)의 메모리 존은 물론 소용량(일부 이진 데이터)의 메모리 존을 지정한다는 것에 주목한다.
명령의 검증에 적합한 유닛(35)은, 바람직하게, 사용자가 3D 콘텐츠와 연관된 디스패리티의 설정을 제어하는 것을 가능하게 하는, 임의의 기계적 또는 전기적 디바이스에 대응한다. 유닛(35)은, 예를 들어, 푸시 버튼형 스위치, 그의 각각의 증가가 디스패리티의 설정 레벨에 대응하는 썸휠(thumbwheel), 그것에 가해진 압력의 검출에 적합한 터치-감지 패드, 및 사용자가 발음한 음성 명령의 기록에 적합한 음성 제어 디바이스 - 이러한 음성 명령은 마이크로프로세서(33)에 의해 해석됨 - 에 대응한다.
처리 모듈(3)은 바람직하게 안경(11 및 12)에 통합된다. 변형예에 따르면, 처리 모듈(3)은 안경에서 떨어져 있지만 안경과 연관되기에 적합하다. 또 다른 변형예에 따르면, 처리 모듈(3)은 표시 화면(14)과 연관된 원격 제어에 통합된다.
처리 모듈(3)은, 바람직하게, 액티브 안경(11 또는 12)과 연관된 처리 모듈에 의해, 또는 표시 화면과 연관된 원격 제어로, 전송된 임의의 디스패리티 설정 명령 신호의 처리 및 해석을 위한 표시 화면에 통합된다. 이 변형예에 따르면, 처리 모듈은 사용자에 의한 설정 명령의 검증에 적합한 임의의 유닛(35)을 갖지 않는다. 변형예에 따르면, 설정 검증 유닛(35)이 없는 처리 모듈(3)은, 예를 들어, 액티브 안경(11 및 12)이, 도 1b에 대하여 도시된 바와 같이, 게이트웨이(10)에 접속될 때, 게이트웨이(10)에 통합 또는 그와 연관된다.
또 다른 변형예에 따르면, 처리 모듈(3)은 임의의 3D 디바이스(액티브 안경, 표시 화면, 게이트웨이, 셋-톱 박스)로부터 독립적인 PnP(Plug and Play) 모듈이다. 이 변형예에 따르면, 처리 모듈(3)은 USB(Universal Serial Bus) 유형의 또는 블루투스나 지그비 유형의 USB 통신 인터페이스를 포함한다. 이 변형예에 따르면, 임의의 3D 디바이스(액티브 안경, 표시 화면, 게이트웨이, 셋-톱 박스)와 연관되기에 적합한 처리 모듈은 적절한 통신 인터페이스(이전 실시예에 따른 USB, 블루투스 또는 지그비)를 포함한다.
도 4는, 본 발명의 특정 비-제한적 실시예에 따른, 3D 콘텐츠의 디스패리티의 설정과 연관된 작업들의 시퀀싱을 보여주고, 도 4는 또한 한 손 위의 액티브 안경 L(40)과 다른 손 위의 표시 화면 D(41)(또는 또 다른 실시예에 따른 게이트웨이(10)) 사이에서 교환된 정보를 도시한다. 액티브 안경(40)과 표시 화면(41)(또는 게이트웨이(10))은 각각 바람직하게 처리 모듈(3)(3D 디바이스들에 직접적으로 통합되거나, 3D 디바이스들과 확장 모듈로서 연관됨)을 갖추고 있다.
초기화 위상 4001 동안, 표시 화면과 연관된 처리 모듈은 표시 화면 상의 3D 콘텐츠의 뷰잉 조건(viewing conditions)을 나타내는 데이터를 복구한다. 표시 화면과 연관된 뷰잉 조건은, 표시 화면의 폭, 표시 화면 상의 3D 콘텐츠를 감상하도록 추천되는 거리인, 타겟 스크린과 연관된 뷰잉 거리, 및/또는 표시 화면의 라인 당 픽셀의 수와 같은 파라미터들을 포함한다. 이러한 상이한 파라미터들로부터, 처리 모듈은 그들로부터 표시 화면 상의 3D 콘텐츠를 감상하기 위한 최적의 디스패리티 레벨을 추론한다. 예를 들어, 거실 평면 스크린(예를 들어, 1m의 폭, 1920×1080의 해상도(각각 1920개 픽셀의 1080개 라인들), 및 3m의 연관된 뷰잉 거리)상 및 테이블 스크린(20㎝의 폭, 1024×768의 해상도(각각 1024개 픽셀의 768개 라인들), 및 50㎝의 연관된 뷰잉 거리)상에 보여진 동일한 3D 콘텐츠는, 상이한 디스패리티 레벨, 즉, 상이한 3D 효과의 진폭으로 감상될 것이다. 순수하게 설명을 위한 목적으로, 거실 평면 스크린에 보여진 3D 콘텐츠는 100%의 디스패리티 레벨(소스 입체 콘텐츠의 두 개의 이미지 사이의 최대 디스패리티에 대응함)로 보여질 수 있는데 반해, 태블릿에 보여진 동일한 콘텐츠는 50%의 디스패리티 레벨(즉 이미지들의 픽셀들과 연관된 최대 깊이 및 최소 깊이가 소스 입체 콘텐츠의 최대 디스패리티와 비교하여 반으로 감소되는 것임)로 보여질 것이다. 따라서 결정된 최적의 디스패리티 레벨은 바람직하게 디스패리티 정보의 설정 동안 사용자가 수정할 수 있는 레퍼런스 디스패리티 레벨로서 사용된다. 변형예에 따르면, 이 레퍼런스 디스패리티 레벨은, 사용자가 주어진 스크린 상의 입체 콘텐츠를 감상하여 획득할 수 있는 최대 디스패리티 레벨에 대응하고, 디스패리티 설정은 따라서 입체 콘텐츠와 연관된 디스패리티의 감소로 이루어진다. 또 다른 변형예에 따르면, 레퍼런스 디스패리티 레벨은 표시 화면과 연관된 뷰잉 조건으로부터 결정되지 않고 표시 화면으로부터 직접 획득되며, 이 정보는 예를 들어 표시 화면의 메모리에 저장된다. 또 다른 변형예에 따르면, 레퍼런스 디스패리티 레벨은 표시 화면으로부터 결정되지도 않고 복구되지도 않는다. 이 변형예에 따르면, 레퍼런스 디스패리티 레벨은 소스 입체 콘텐츠와 연관된 디스패리티에 대응한다.
초기화 위상 4001은, 바람직하게, 액티브 안경이나 액티브 안경들의 스위치가 켜질 때, 액티브 안경이나 액티브 안경들과, 표시 화면이나 게이트웨이의 연관성을 포함한다. 액티브 안경의 스위치가 켜질 때, 후자는, 바람직하게, 표시 화면이나 게이트웨이와 연관된 처리 모듈(3)로부터, 연관된 표시 화면 상의 3D 콘텐츠를 감상하는데 사용된(또는 연관된 게이트웨이에 의해 전송된) 최종 디스패리티 설정을 나타내는 정보를 수신한다. 어떠한 기존의 설정도 기록되지 않은 경우, 디폴트 디스패리티 레벨은, 예를 들어, 표시 화면과 연관된 레퍼런스 디스패리티 레벨에 대응하는 액티브 안경으로 전송된다.
그 다음, 위상 4002 동안, 표시 화면(또는 게이트웨이)과 연관된 처리 모듈은, 액티브 안경의 한 렌즈의 개방 상태로부터 폐쇄 상태로 및 다른 렌즈의 폐쇄 상태로부터 개방 상태로의 전환에 대한 정보를 포함하는 명령 신호를 전송한다(이 신호는 순차적 좌-우 스위칭 신호(subsequently left-right switching signal)로 불림). 렌즈에 대한 개방 상태로부터 폐쇄 상태로의 전환은, 입체 이미지의 제1 이미지의 표시로부터, 표시 화면 상의 동일한 입체 이미지의 제2 이미지의 표시로의 전환에 대응하는 전환과 직접적으로 관련되고, 이는 도 5a 및 5b와 관련하여 더 자세히 설명될 것이다. 좌-우 스위칭 신호는, 바람직하게, 안경의 렌즈의 상태의 변화(개방 상태로부터 블랭크 상태로의 전환 및 그 반대)와, 표시 화면 상의 입체 이미지의 제1 및 제2 이미지의 표시 전환을 동기화할 수 있다. 다시 말해, 좌-우 스위칭 신호는 바람직하게 표시 화면 상에 표시할 이미지를 나타내는 데이터를 전송하는 게이트웨이 및/또는 표시 화면과 액티브 안경을 동기화하는 동기화 신호에 대응한다.
임의의 제1 시간 t(401)에서, 사용자는 디스패리티의 현재 설정 레벨을 수정하기 위해 설정 레벨을 선택하는 명령을 활성화한다. 수신된 좌-우 스위칭 신호(4002)에 따라, 액티브 안경과 연관된 처리 모듈은, 좌-우 스위칭 신호의 수신 동안 및/또는 안경의 렌즈의 상태 변화 시간(개방 및 폐쇄) 동안 설정 정보가 전송되는 것을 막기 위한 방식으로, 결정된 시간(402) 동안 현재 디스패리티 설정의 수정을 나타내는 정보(사용자가 필요로 한 설정에 대응함)를 메모리에 저장한다.
좌-우 스위칭 신호(4002, 4003, 4005)는, 바람직하게, 주기적으로(예를 들어, 인터-프레임 시간(410)에 대응하는 정기적인 시간 슬롯들에) 전송되고(프레임은 바람직하게 입체 이미지의 왼쪽 이미지 또는 오른쪽 이미지에 대응함), 디스패리티 설정의 수정을 나타내는 정보가 액티브 안경과 표시 화면(또는 게이트웨이) 사이의 동기화에 있어 어떠한 충돌도 만들지 않고 전송될 수 있는 동안의 시간 슬롯은 일정한 지속기간 및 또한 주기적인 발생 빈도를 갖는다.
좌-우 스위칭 신호(4003)가 표시 화면(또는 게이트웨이)과 연관된 처리 모듈에 의해 전송되고, 액티브 안경과 연관된 처리 모듈에 의해 수신 및 해석될 때, 디스패리티 설정의 수정 정보를 포함하는 신호(4004)는 액티브 안경과 연관된 처리 모듈에 의해 전송된다. 신호가 디코드되고 그것이 포함하는 정보가 표시 화면(또는 게이트웨이)과 연관된 처리 모듈에 의해 해석되면, 사용자가 필요로 하는 새로운 디스패리티 레벨이 표시 화면 상에 표시된 3D 콘텐츠에 적용된다(411). 디스패리티 레벨의 변경의 적용은 예를 들어 소스 3D 콘텐츠의 디스패리티 보상 보간에 의해 적용되고, 이는 도 2와 관련하여 설명되었다.
임의의 제2 시간 t(40)에서, 사용자는 제2 시간에 새로운 디스패리티 레벨을 선택하는 명령을 활성화한다. 이 명령은, 액티브 안경의 왼쪽 및 오른쪽 렌즈의 교대 블랭킹과 표시 화면 상에 표시된 3D 콘텐츠의 제1 및 제2 이미지의 표시 사이의 동기화를 방해하지 않는 방식으로, 수신된 좌-우 스위칭 신호(4003)에 따라 적시에 표시 화면(또는 게이트웨이)과 연관된 처리 모듈로의 전송(4006)을 위한 액티브 안경과 연관된 처리 모듈의 메모리에 저장된다(404).
도 5a는, 본 발명의 제1 특정 비-제한적 실시예에 따른, 표시 화면(54)(또는 게이트웨이) 및 액티브 안경(57)과 각각 연관된 디스패리티 설정 정보의 처리 모듈(3)에 의해 실행된 태스크들의 시퀀싱을 보여준다. 도 5a는, 3D 콘텐츠(일반적으로 왼쪽 이미지와 오른쪽 이미지를 포함하는 입체 이미지)의 렌더링에 관여하는 3D 디바이스(일반적으로 한편에는 액티브 안경, 다른 한편에는 표시 화면 및/또는 게이트웨이)와 연관된 디스패리티 설정 정보의 처리 모듈들 사이의 정보 교환과 연관된 시간적 제약을 도시하므로, 디스패리티 설정을 나타내는 정보의 전송 및/또는 처리는 액티브 안경과 표시 화면(또는 게이트웨이) 사이에 설정된 동기화 프로세스를 방해하지 않는다. 도시된 시간 스케일은 인터-프레임 시간 T에 대응하는데, 다시 말해서, 제1 입체 이미지를 나타내는 제1 프레임은 게이트웨이에 의해 시간 0에 표시 화면으로 전송되고, 제1 입체 이미지에 시간적으로 후속하는 제2 입체 이미지를 나타내는 제2 프레임은 게이트웨이에 의해 시간 T에 표시 화면으로 전송된다. 도 5a에 표시된 화살표들 각각은 주어진 시간에 실행될 작업을 도시하고, 화살표의 시작은 화살표에 대응하는 작업의 처리에 필요한 시간을 나타내고, 화살표의 끝은 수행할 작업의 레벨에 위치한다.
시간 0에 대응하는 시간 t1에서, 좌-우 스위칭 신호(51)는 처리 모듈(표시 화면이나 게이트웨이와 연관된)에 의해 표시 화면(54)과 액티브 안경(57)에 전송된다.
t1 이후의 t2에서, 액티브 안경(57)의 오른쪽 렌즈 R(56)는 블랭크 상태로 된다. 사실, 입체 이미지를 나타내는 프레임에 포함된 제1 이미지는 왼쪽 이미지에 대응한다. 좌-우 스위칭 신호가 전송되면, 처리 시간을 고려하여 수행될 제1 작업은 오른쪽 렌즈의 블랭킹이다. 오른쪽 렌즈 블랭킹 실행 요청에 바로 후속하는 시간 슬롯(561)은 논-블랭크 상태(non-blank state)로부터 블랭크 상태로 변경하는데 필요한 시간에 대응한다. 이 시간(561)이 경과하면, 액티브 안경의 오른쪽 렌즈 R(56)는 시간 슬롯(562) 동안 블랭크 상태를 유지한다.
t2 이후의 시간 t3에서, 게이트웨이에 의해 표시 화면으로 전송된 프레임으로부터의 데이터의 추출 및 왼쪽 이미지의 렌더링은 표시 디바이스 D(54)의 레벨에서 시작된다. 3에 후속하는 시간 슬롯(541)은, 왼쪽 이미지를 나타내는 데이터의 추출, 및 앞선 입체 이미지의 오른쪽 이미지의 표시로부터 현재 입체 이미지의 왼쪽 이미지의 표시로의 변경에 필요한 시간에 대응한다.
t3 이후의 시간 t4에서, 사용자는 현재 디스패리티 레벨의 설정의 수정을 명령하고, 요구된 디스패리티 레벨을 나타내는 정보는 전송이 보류되고 저장된다.
t4 이후의 시간 t5에서, 액티브 안경(57)의 왼쪽 렌즈 L(55)는 시간 슬롯(552)에 대응하는 시간 후에 개방 상태로 변경된다. 그 다음 왼쪽 렌즈는 시간 슬롯(553)에 대해 개방 상태를 유지하므로, 시간 슬롯(542) 동안 왼쪽 눈이 표시 화면(54) 상에 표시된 왼쪽 이미지를 볼 시간을 허용한다.
t5 이후의 시간 t6에, 시간 윈도우들은, 좌-우 스위칭 신호(51)를 방해하지 않고, 표시 화면 상에서 오른쪽 이미지로부터 왼쪽 이미지로(또는 그 반대로) 변경되는 동안의 전환 시간들에 대응하는 시간 슬롯들(541 및 543)은 물론, 각각의 액티브 안경이 개방 상태로부터 폐쇄 상태로 또는 그 반대로 변경되는 동안의 전환 시간들에 대응하는 시간 간격들(552, 561, 543 및 554)을 방해하지 않고, 디스패리티 설정을 나타내는 정보가 게이트웨이나 표시 화면과 연관된 처리 모듈로 전송될 수 있는 동안의 타입 슬롯(532)에 대응하여 시작한다. 디스패리티 설정을 나타내는 정보가 전송되는 동안의 시간적 윈도우는 바람직하게 액티브 안경 및 표시 디바이스가 구축된 상태(즉, 액티브 안경의 블랭크 또는 개방 상태 및 표시 화면에 대해 구축된 표시 상태)인 동안의 시간 기간들에 대응한다.
왼쪽 이미지의 표시로부터 오른쪽 이미지로의 변경을 위한 전환 시간(543) 이후의 (시간 슬롯(544)에 대응하는) 표시 화면 상의 오른쪽 이미지의 표시에 대해, 왼쪽 렌즈(55)에 대한 개방 상태로부터 블랭크 상태로의 변환에 대해(전환 시간(554)을 포함하는 시간 기간(553)(개방 상태)으로부터 시간 기간(555)(블랭크 상태)으로의 전환), 및 오른쪽 렌즈(56)에 대해 블랭크 상태로부터 개방 상태로의 전환에 대해, 시간들(t7, t8, t9, 및 t10)은 각각 시간들(t5, t3, t2 및 t6)에 대응하므로, 후자는 시간 슬롯(544)(전환 시간(563)을 포함하는 시간 기간(562)(블랭크 상태)으로부터 시간 기간(564)(개방 상태)으로의 전환) 동안 표시된 오른쪽 이미지를 볼 수 있다. 좌-우 스위칭 신호(동기화 신호에 대응함)는 물론, 오른쪽 및 왼쪽 이미지들의 표시를 위한 그리고 안경(57)의 렌즈들(55, 56)에 대해 블랭크 상태로부터 개방 상태로(또는 그 반대로)의 전환을 위한 전환 시간들을 방해하지 않고, 디스패리티 설정을 나타내는 정보가 전송되는 동안의 시간적 윈도우는, 시간 t10에 시작하고, 액티브 안경과 표시 디바이스가 구축된 상태에 있는 동안의 시간 슬롯(534)에 대응한다.
디스패리티 레벨을 설정하기 위한 정보를 전송하기에 시기적절하지 않은 동안의 시간 슬롯들은, 전환 위상들(슬롯들 541, 551 및 561; 543, 554 및 563)에 대응하는 모든 시간 간격들에 대응하거나 그들을 커버하는, 시간 슬롯들(531 및 533)로 도시된다.
도 5b는, 본 발명의 제2 특정 비-제한적 실시예에 따른, 표시 화면(54)(또는 게이트웨이) 및 액티브 안경(57)과 각각 연관된 디스패리티 설정 정보의 처리 모듈(3)에 의해 실행된 작업들의 시퀀싱을 보여준다. 도 5a와 동일한 요소들은 도 5a에 사용한 것과 동일한 참조 번호를 갖는다. 이러한 제2 특정 구현 실시예에 따르면, 사용자는 시간 t11에 제2 디스패리티 설정을 수행한다. 이 실시예에 따르면, 제2 설정의 명령의 시간은, 좌-우 스위칭 신호는 물론 상이한 전환 기간들을 방해하지 않고 설정 정보를 전송할 수 있는 동안의 기간에 대응하는 시간적 윈도우 동안 발생한다. 시간 슬롯(535)은 바람직하게 제1 디스패리티 설정(시간 t4에 명령됨)이 실행되는 시간을 도시한다. 시간 t12는 따라서 제2 설정을 나타내는 정보가 시간적 윈도우 동안 전송될 수 있는 동안의 기간의 시작을 표기한다. 제2 설정을 나타내는 이 정보가 왼쪽 이미지에 대해 표시가 구축되는 대응하는 시간적 윈도우 동안 전송될 수 없는 경우, 이 정보는 오른쪽 이미지에 대해 표시가 구축되는 대응하는 시간적 윈도우(534) 동안 전송된다.
사용자의 제1 명령의 실행에 후속하는 디스패리티의 수정의 임의의 영향력은 도 5b에 도시되지 않는다는 것에 주목해야 한다. 도 2와 관련하여 설명된 바와 같이, 디스패리티의 변경은, 바람직하게, 소스 오른쪽 이미지를 대신하거나(안경의 렌즈의 상태의 전환에 있어 눈에 보이는 영향력은 없음), 왼쪽 및 오른쪽 이미지를 나타내는 데이터의 흐름에 통합되는, 예를 들어, (소스 왼쪽 및 오른쪽 이미지로부터의) 새로운 오른쪽 이미지의 생성 시에 보여진다(예를 들어, 두 개의 오른쪽 이미지에 대한 하나의 왼쪽 이미지는 상이한 디스패리티 레벨을 갖는 두 개의 왼쪽/오른쪽 이미지 쌍을 생성하고, 영향력은 따라서 안경의 렌즈의 블랭크로부터 개방 상태로(또는 그 반대로)의 전환 시에 관찰되는데, 즉, 왼쪽 렌즈는 두 개의 오른쪽 이미지의 표시 동안 블랭크 상태를 유지하고, 오른쪽 렌즈는 왼쪽 이미지에 대한 그의 디스패리티가 요구된 설정 레벨에 대응하지 않는 오른쪽 이미지 및 왼쪽 이미지의 표시 동안 블랭크 상태를 유지함).
도 6은, 본 발명의 특정 비-제한적 실시예에 따른, 도 3의 처리 모듈에서 바람직하게 구현된, 디스패리티 설정을 나타내는 정보의 전송 방법을 도시한다.
초기화 단계(60) 동안, 안경과 연관된 처리 모듈의 상이한 파라미터들과 표시 화면이나 게이트웨이와 연관된 처리 모듈의 상이한 파라미터들은 필요에 따라 업데이트된다. 특히, 디스패리티 설정 레벨(예를 들어, 화면과 연관된 레퍼런스 설정 레벨로서, 이 설정 레벨은 표시 화면 상의 3D 콘텐츠를 감상하는데 이전에 사용됨) 및/또는 액티브 안경의 렌즈의 블랭크 상태로부터 개방 상태로(및 그 반대로)의 전환을 입체 이미지의 제1 이미지의 표시와 제2 이미지의 표시 사이의 전환과 동기화하기 위한, 액티브 안경과 표시 화면이나 게이트웨이 사이의 동기화에 대응하는 파라미터들은 임의의 방식(예를 들어, 표시 화면이나 게이트웨이와 연련된 처리 모듈에 의해 전송된 초기화 메시지의 후속 수신, 또는 심지어 오퍼레이터로부터의 명령에 의해)으로 초기화된다.
다음에, 단계 61 동안, 제1 이미지(예를 들어, 왼쪽 이미지)와 제2 이미지(예를 들어, 오른쪽 이미지)를 포함하는 입체 이미지의 디스패리티 설정을 나타내는 정보의 전송 시간이 결정된다. 전송 시간은 표시 화면 상의 제1 및 제2 이미지의 순차적인 표시 사이의 전환 시간과 연관된 시간 기간에 따라 바람직하게 결정된다. 제1 이미지(예를 들어 왼쪽 이미지)의 표시는, 후자가 제1 이미지를 볼 수 있게 하는 제1 렌즈(예에 따르면 왼쪽 렌즈)의 블랭크 상태로부터 개방 상태로의 전환과, 후자가 제1 이미지를 볼 수 없게 하는 제2 렌즈(예에 따르면 오른쪽 렌즈)의 개방 상태로부터 블랭크 상태로의 전환이 동기화되고, 제2 이미지(예를 들어 오른쪽 이미지)의 표시는, 후자가 제2 이미지를 볼 수 없게 하는 제1 렌즈(예에 따르면 왼쪽 렌즈)의 개방 상태로부터 블랭크 상태로의 전환과, 후자가 제2 이미지를 볼 수 있게 하는 제2 렌즈(예에 따르면 오른쪽 렌즈)의 블랭크 상태로부터 개방 상태로의 전환이 동기화되어, 표시 화면 상의 제1 및 제2 이미지의 순차적인 표시 사이의 전환 시간에 따른 전송 시간의 결정은, 액티브 안경의 제1 및 제2 렌즈의 개방 상태로부터 블랭크 상태로의 전환 및 그 반대에 따라 전송 시간을 결정한다는 것을 의미한다.
바람직하게, 이러한 시간 기간들을 고려하면, 액티브 안경의 렌즈 중 하나가 개방 또는 블랭크 상태로 구축되는 동안의 시간 슬롯 동안 디스패리티 설정 정보를 전송하도록, 전송 시간을 결정할 수 있다.
변형예에 따르면, 전송 시간은, 가능한 한 일찍, 예를 들어, 설정 정보의 전송 시작 시에 렌즈 중 하나에 대해 구축된 상태에 대응하는 동일한 시간 기간 동안, 입체 이미지에 디스패리티의 변경을 적용하도록, 안경의 렌즈 중 하나에 대해 구축된 상태에 대응하는 시간 기간의 시작에 속한다.
또 다른 변형예에 따르면, 설정 정보의 전송 시간은, 또한, 설정 정보의 전송 시간이 동기화 신호의 수신 시간과 상이한 것을 방지하는 방식으로, 동기화 신호의 수신에 대응하는 시간 또는 기간에 따라 결정된다. 동기화 신호는, 입체 이미지가 표시되는 표시 화면과 연관되거나 표시 화면에 접속된 게이트웨이와 연관된 설정 정보의 처리 모듈에 의해 바람직하게 전송되고, 입체 이미지를 나타내는 데이터의 스트림을 표시 화면 상에 표시하기 위해 전송한다. 동기화 신호는 바람직하게 액티브 안경의 각각의 렌즈에 대한 상태 시간의 변경(개방 상태로부터 블랭크 상태로의 전환이나 그 반대)을 나타내는 정보에 대응하고, 상태를 변경하는 시간은 제1 이미지의 표시와 제2 이미지의 표시 사이의 전환 시간에 직접적으로 관련된다. 동기화 신호의 수신 시간과는 상이한 시간에 설정 정보를 전송하면, 하프-듀플렉스 링크(half-duplex link)를 사용할 수 있다는 장점을 갖는다.
또 다른 변형예에 따르면, 동기화 신호의 수신 시간에 부수적으로 따르는(concomitant with) 전송 시간은, 액티브 안경과 연관된 처리 모듈과 표시 화면(또는 게이트웨이)과 연관된 처리 모듈 사이의 풀-듀플렉스 링크(full-duplex link)를 수반한다.
전송 시간이 결정되면, 설정 정보는 바람직하게 전송 시간에 도달하기를 기다리기 위해 메모리에 저장된다.
그 다음, 단계 62에서, 디스패리티 설정을 나타내는 정보는, 입체 이미지가 표시되는 표시 화면과 연관된 디스패리티 설정 정보의 처리 유닛의 목적지 또는 표시 화면이나 표시 화면에 접속된 셋-톱 박스 상에 입체 이미지를 나타내는 데이터를 제공하는 게이트웨이와 연관된 디스패리티 설정 정보의 처리 유닛의 목적지로 전송된다.
디스패리티 설정 정보는 바람직하게 예를 들어 와이파이®, 블루투스 또는 지그비 유형의 무선 전송 채널을 통해 전송된다. 동기화 신호는 또한 바람직하게 동일한 유형의 무선 전송 채널을 사용하여 수신된다.
도 7은, 본 발명의 특정 비-제한적 실시예에 따른, 표시 화면 또는 표시 화면에 하나 이상의 입체 이미지를 나타내는 데이터를 전송하는 디바이스와 연관된 처리 모듈(3)에서 바람직하게 구현된, 디스패리티 설정 방법을 보여준다.
초기화 단계(70) 동안, 액티브 안경과 연관된 처리 모듈의 상이한 파라미터들 및 표시 화면이나 게이트웨이와 연관된 처리 모듈의 상이한 파라미터들은 필요에 따라 업데이트된다. 특히, 디스패리티 설정 레벨(예를 들어 스크린과 연관된 레퍼런스 설정 레벨로서, 이 설정 레벨은 표시 화면 상의 3D 콘텐츠를 감상하는데 이전에 사용됨) 및/또는 입체 이미지의 제1 이미지의 표시와 제2 이미지의 표시 사이의 전환과, 액티브 안경의 렌즈의 블랭크 상태로부터 개방 상태로(또는 그 반대로)의 전환을 동기화하기 위한, 액티브 안경과 표시 화면이나 게이트웨이 사이의 동기화에 대응하는 파라미터들은 임의의 방식(예를 들어, 표시 화면이나 게이트웨이와 연관된 처리 모듈에 의해 전송된 초기화 메시지의 후속 수신, 또는 심지어 오퍼레이터로부터의 명령에 의해)으로 초기화된다.
다음에, 단계 71 동안, 입체 이미지의 디스패리티 설정을 나타내는 정보는, 예를 들어, 액티브 안경과 연관된 설정 정보의 처리 모듈로부터 수신된다. 정보는 바람직하게 예를 들어 와이파이®, 블루투스 또는 지그비 유형의 무선 전송 채널을 통해 수신된 신호에 포함된다.
그 다음, 단계 72 동안, 설정 정보에 포함된 설정 레벨에 대응하는 디스패리티 설정이, 표시 화면 상에 표시할 입체 이미지에 적용된다. 입체 이미지로의 디스패리티 설정의 처리 또는 적용은, 바람직하게, 입체 이미지를 형성하는 제1 및 제2 이미지의 순차적인 표시 사이의 전환 시간에 따라 결정된 시간에 수행된다. 이러한 시간 기간을 고려하면, 표시가 제1 이미지로부터 제2 이미지로 이동하는 동안의 시간 슬롯 동안, 디스패리티 레벨의 변경이 입체 이미지에 적용되는 경우가 발생할 위험이 있는, 제1 및 제2 이미지의 표시 시퀀스를 방해하지 않는다는 장점을 갖는다. 제1 및 제2 이미지의 표시 사이의 전환 동안 디스패리티 레벨을 변경하면, 요구된 디스패리티 레벨을 획득하기 위해 표시할 이미지의 디코딩에 있어서 지연을 초래할 수 있고, 예를 들어, 표시 화면에 결합된 액티브 안경과의 동기화 문제들을 초래한다.
설정 정보를 수신하는 디바이스와 연관된 디스패리티 설정 정보의 처리 모듈의 레벨에서 디스패리티 설정의 처리 시간을 결정하면, 제약없이 임의의 순간에, 이 정보를 보내는 처리 모듈이 설정 정보를 전송하는 것을 가능하게 하여, 정보 전송의 타임아웃이 전혀 필요하지 않다.
하나의 변형예에 따르면, 방법은 하나 이상의 액티브 안경으로 동기화 신호를 전송하는 단계를 포함한다. 동기화 신호는 제1 및 제2 이미지의 표시 시퀀스를 나타내는 정보를 포함하므로, 액티브 안경의 제1 및 제2 렌즈는 제1 이미지와 제2 이미지 중 어느 것이 표시되는지에 따라 개방 상태 또는 블랭크 상태에 있다.
또 다른 변형예에 따르면, 방법은, 수신된 디스패리티 설정을 나타내는 정보를 메모리에 저장하는 단계를 포함하여, 이전에 결정된 시간에 입체 이미지에 설정을 적용하기 위해 기다린다.
바람직하게, 설정의 처리 시간은 제1 이미지 또는 제2 이미지의 표시가 구축된 것에 대응하는 시간 슬롯, 즉, 제1 및 제2 이미지의 표시 사이의 전환 기간들과는 상이한 시간 기간에 속한다.
물론, 본 발명은 이전에 설명된 실시예들로 한정되지 않는다.
특히, 본 발명은, 디스패리티 정보의 전송 방법, 디스패리티 설정 방법, 및 디스패리티 설정 정보의 전송을 위해 구성된 디바이스로 제한되지 않고, 전송을 위해 구성된 디바이스를 포함하는 임의의 시스템, 및 설정 방법을 구현하는 임의의 시스템, 예를 들어, 설정 정보의 처리 모듈을 포함하는 표시 화면으로 확장한다.
바람직하게, 3D 디바이스에 의해 렌더링된 3D 콘텐츠의 포맷은 본 발명의 기술 분야에서 당업자에 의해 알려진 3D 비디오 콘텐츠의 임의의 포맷에 대응하고, 왼쪽 이미지와 오른쪽 이미지를 포함하는 입체 이미지 유형의 3D 콘텐츠로 한정되지 않는다. 3D 콘텐츠는, 예를 들어, 디스패리티 맵이 연관되는 비디오 이미지 또는 심지어 한 쌍의 왼쪽 및 오른쪽 이미지에 대응하고, 오른쪽 이미지에 대한 왼쪽 이미지의 디스패리티 맵은 왼쪽 이미지와 연관되고, 왼쪽 이미지에 대한 오른쪽 이미지의 디스패리티 맵은 오른쪽 이미지와 연관된다. 하나 변형예에 따르면, 3D 콘텐츠는 2보다 많은 뷰, 예를 들어 3, 4, 5 또는 10개의 뷰를 포함하는 입체 이미지에 대응한다.

Claims (13)

  1. 입체 이미지의 디스패리티(disparity) 설정을 나타내는 정보의 전송 방법 - 상기 입체 이미지는, 두 개의 상이한 시점(viewpoint)에 따른, 동일한 장면을 나타내는 제1 이미지 및 적어도 제2 이미지를 포함함 - 으로서,
    결정된 시간에 상기 설정 정보를 전송하는 단계(62)
    를 포함하고,
    전송 시간은, 액티브 안경(active pair of glasses)의 한 렌즈가 개방 또는 폐쇄 상태로 구축되는 동안의 시간 슬롯에 속하는 디스패리티 설정 정보 전송 방법.
  2. 제1항에 있어서, 액티브 안경의 한 렌즈가 개방 또는 폐쇄 상태로 구축되는 동안의 시간 슬롯은 동기화 신호의 수신 시간에 따라 결정되는 디스패리티 설정 정보 전송 방법.
  3. 제1항 또는 제2항에 있어서, 전송 시간은 액티브 안경의 하나의 렌즈가 개방 또는 폐쇄 상태로 구축되는 동안의 시간 슬롯의 시작에 속하는 디스패리티 설정 정보 전송 방법.
  4. 제1항 또는 제2항에 있어서, 전송 전에, 메모리에 디스패리티 설정을 나타내는 정보를 저장하는 단계를 포함하는 디스패리티 설정 정보 전송 방법.
  5. 제1항 또는 제2항에 있어서, 디스패리티 설정을 나타내는 상기 정보는 무선 전송 채널을 통해 전송되는 디스패리티 설정 정보 전송 방법.
  6. 제1항 또는 제2항에 있어서, 상기 입체 이미지는 하나의 제1 이미지와 적어도 두 개의 제2 이미지를 포함하는 비디오 스트림에 속하고, 상이한 패리티 정보는 각각의 제2 이미지와 연관되는 디스패리티 설정 정보 전송 방법.
  7. 제1 이미지와 제2 이미지를 포함하는 입체 이미지의 디스패리티 설정을 나타내는 정보의 전송을 위해 구성된 디바이스로서,
    디스패리티 정보를 나타내는 상기 정보의 전송을 위해 구성된 송신기(31), 및
    액티브 안경의 한 렌즈가 개방 또는 폐쇄 상태로 구축되는 동안의 시간 슬롯에 속하는 디스패리티 설정을 나타내는 상기 정보의 전송 시간을 결정하도록 구성된 계산 유닛(33)
    을 포함하는 디스패리티 설정 정보 전송 디바이스.
  8. 제7항에 있어서, 제1 및 제2 이미지의 디스플레이 시퀀스를 나타내는 정보를 포함하는 동기화 신호의 수신을 위해 구성된 수신기(31)를 포함하는 디스패리티 설정 정보 전송 디바이스.
  9. 제7항 또는 제8항에 있어서, 입체 이미지의 디스패리티 설정을 수정하도록 구성된 명령 수단을 포함하는 디스패리티 설정 정보 전송 디바이스.
  10. 입체 이미지의 디스패리티 레벨을 조정하기 위한 방법 - 상기 입체 이미지는, 두 개의 상이한 시점에 따른, 동일한 장면을 나타내는 제1 이미지와 제2 이미지를 포함함 - 으로서,
    디스패리티 설정을 나타내는 정보를 수신하는 단계(71), 및
    수신된 디스패리티 설정을 나타내는 상기 정보에 따라 입체 이미지의 디스패리티 레벨을 설정하는 단계(72)
    를 포함하고,
    설정은 제1 이미지의 표시와 제2 이미지의 표시 사이의 전환 시간과 상이한 시간에 처리되는 디스패리티 레벨 조정 방법.
  11. 제10항에 있어서, 동기화 신호를 전송하는 단계를 포함하고, 상기 동기화 신호는 제1 및 제2 이미지의 표시 시퀀스를 나타내는 정보를 포함하는 디스패리티 레벨 조정 방법.
  12. 제10항 또는 제11항에 있어서, 디스패리티 레벨이 설정되기 전에, 메모리에 디스패리티 설정을 나타내는 정보를 저장하는 단계를 더 포함하는 디스패리티 레벨 조정 방법.
  13. 제10항 또는 제11항에 있어서, 설정의 처리 시간은 제1 및 제2 이미지 중 하나의 표시에 대응하는 시간 슬롯에 속하는 디스패리티 레벨 조정 방법.
KR1020120141830A 2011-12-09 2012-12-07 디스패리티 설정 방법 및 대응하는 디바이스 KR101994322B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1161399 2011-12-09
FR1161399 2011-12-09

Publications (2)

Publication Number Publication Date
KR20130065611A true KR20130065611A (ko) 2013-06-19
KR101994322B1 KR101994322B1 (ko) 2019-06-28

Family

ID=47257707

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120141830A KR101994322B1 (ko) 2011-12-09 2012-12-07 디스패리티 설정 방법 및 대응하는 디바이스

Country Status (5)

Country Link
US (1) US9390537B2 (ko)
EP (1) EP2603005B1 (ko)
JP (1) JP6667981B2 (ko)
KR (1) KR101994322B1 (ko)
CN (1) CN103167303B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9603684B2 (en) 2014-01-21 2017-03-28 Mungyo Gypsum & Engineering Corporation Apparatus for manufacturing tooth model aids
US9642681B2 (en) 2014-02-24 2017-05-09 Dk Mungyo Corporation Dental plaster and method for manufacturing the same

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130258463A1 (en) * 2013-03-11 2013-10-03 Allan Thomas Evans System, method, and apparatus for enhancing stereoscopic images
US10409079B2 (en) 2014-01-06 2019-09-10 Avegant Corp. Apparatus, system, and method for displaying an image using a plate
US10303242B2 (en) 2014-01-06 2019-05-28 Avegant Corp. Media chair apparatus, system, and method
US9823474B2 (en) 2015-04-02 2017-11-21 Avegant Corp. System, apparatus, and method for displaying an image with a wider field of view
US9995857B2 (en) 2015-04-03 2018-06-12 Avegant Corp. System, apparatus, and method for displaying an image using focal modulation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011111349A1 (ja) * 2010-03-10 2011-09-15 パナソニック株式会社 立体映像表示装置および視差調整方法
JP2011205241A (ja) * 2010-03-24 2011-10-13 Sony Corp シャッタメガネおよびシャッタメガネのシャッタ制御信号取得方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0353793A (ja) 1989-07-21 1991-03-07 Shimadzu Corp 医用画像表示装置
JP3053793B2 (ja) 1997-12-08 2000-06-19 株式会社九州メディカル 甲殻類養殖システム及び方法
US7092003B1 (en) 1999-01-21 2006-08-15 Mel Siegel 3-D imaging arrangements
US6687399B1 (en) 2000-08-03 2004-02-03 Silicon Integrated Systems Corp. Stereo synchronizing signal generator for liquid crystal shutter glasses
WO2007117485A2 (en) 2006-04-03 2007-10-18 Sony Computer Entertainment Inc. Screen sharing method and apparatus
US8269822B2 (en) * 2007-04-03 2012-09-18 Sony Computer Entertainment America, LLC Display viewing system and methods for optimizing display view based on active tracking
US8217996B2 (en) 2008-09-18 2012-07-10 Eastman Kodak Company Stereoscopic display system with flexible rendering for multiple simultaneous observers
CN102293005B (zh) 2009-01-22 2015-01-14 日本电气株式会社 三维影像鉴赏系统、显示系统、光学快门和三维影像鉴赏方法
US20100194857A1 (en) 2009-02-03 2010-08-05 Bit Cauldron Corporation Method of stereoscopic 3d viewing using wireless or multiple protocol capable shutter glasses
WO2010091113A2 (en) 2009-02-03 2010-08-12 Bit Cauldron Corporation Method of stereoscopic 3d image capture and viewing
US20110001808A1 (en) 2009-06-01 2011-01-06 Bit Cauldron Corporation Method of Stereoscopic Synchronization of Active Shutter Glasses
US20110025821A1 (en) * 2009-07-30 2011-02-03 Dell Products L.P. Multicast stereoscopic video synchronization
CN102687516B (zh) * 2010-03-05 2014-10-22 松下电器产业株式会社 影像系统、眼镜装置及影像再生装置
JP5390017B2 (ja) * 2010-03-24 2014-01-15 パナソニック株式会社 映像処理装置
WO2011118215A1 (ja) * 2010-03-24 2011-09-29 パナソニック株式会社 映像処理装置
WO2011118113A1 (ja) * 2010-03-26 2011-09-29 パナソニック株式会社 表示装置及び映像システム
KR20110114257A (ko) 2010-04-13 2011-10-19 삼성전자주식회사 3d 디스플레이 장치 및 그의 디스플레이 모드 설정 방법, 그리고 3d 영상 제공 시스템
JP2011250368A (ja) * 2010-05-31 2011-12-08 Sony Corp 立体表示装置、表示制御回路、および表示方法
US20110304689A1 (en) * 2010-06-15 2011-12-15 Sharp Laboratories Of America, Inc. Remote user control for stereoscopic display
US9946076B2 (en) * 2010-10-04 2018-04-17 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
US9237331B2 (en) * 2011-01-18 2016-01-12 Disney Enterprises, Inc. Computational stereoscopic camera system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011111349A1 (ja) * 2010-03-10 2011-09-15 パナソニック株式会社 立体映像表示装置および視差調整方法
JP2011205241A (ja) * 2010-03-24 2011-10-13 Sony Corp シャッタメガネおよびシャッタメガネのシャッタ制御信号取得方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9603684B2 (en) 2014-01-21 2017-03-28 Mungyo Gypsum & Engineering Corporation Apparatus for manufacturing tooth model aids
US9642681B2 (en) 2014-02-24 2017-05-09 Dk Mungyo Corporation Dental plaster and method for manufacturing the same

Also Published As

Publication number Publication date
KR101994322B1 (ko) 2019-06-28
EP2603005A3 (en) 2013-07-03
CN103167303B (zh) 2017-03-01
US9390537B2 (en) 2016-07-12
JP2013123220A (ja) 2013-06-20
EP2603005B1 (en) 2019-11-20
JP6667981B2 (ja) 2020-03-18
CN103167303A (zh) 2013-06-19
EP2603005A2 (en) 2013-06-12
US20130147791A1 (en) 2013-06-13

Similar Documents

Publication Publication Date Title
US9179136B2 (en) Method and system for synchronizing 3D shutter glasses to a television refresh rate
KR101994322B1 (ko) 디스패리티 설정 방법 및 대응하는 디바이스
US8994795B2 (en) Method for adjusting 3D image quality, 3D display apparatus, 3D glasses, and system for providing 3D image
US20110134231A1 (en) Method And System For Synchronizing Shutter Glasses To A Display Device Refresh Rate
US8624965B2 (en) 3D glasses driving method and 3D glasses and 3D image providing display apparatus using the same
US8896676B2 (en) Method and system for determining transmittance intervals in 3D shutter eyewear based on display panel response time
WO2011052125A1 (ja) 立体表示装置、立体表示システムおよび立体表示方法
JP2011188118A (ja) 表示装置、システム、及びメガネに関する
CN103188454A (zh) 用于显示的装置和方法
KR20120132240A (ko) 복수의 사용자에게 복수의 영상을 제공하는 듀얼 뷰 디스플레이 방법 및 듀얼 뷰 안경 구동 방법, 이를 적용한 디스플레이 장치 및 듀얼 뷰 안경
EP2424259A2 (en) Stereoscopic video display system with 2D/3D shutter glasses
US20130016196A1 (en) Display apparatus and method for displaying 3d image thereof
US20110134215A1 (en) Method and apparatus for providing 3d image and method and apparatus for displaying 3d image
US9973747B2 (en) Method for the synchronization of 3D devices and corresponding synchronization device
US9167238B2 (en) 3D display apparatus for use in synchronization with 3D glasses and 3D display method thereof
KR101768538B1 (ko) 3d 영상 화질 조정 방법, 3d 디스플레이 장치, 3d 안경 및 3d 영상 제공 시스템
KR20130139543A (ko) 멀티뷰 디바이스, 디스플레이장치 및 이들의 제어방법
US20130222536A1 (en) 3d glasses, 3d image display apparatus and a control method thereof
KR101722213B1 (ko) 3d 영상 컨버팅 시스템
EP2391141A2 (en) 3D glasses and a 3D display apparatus
JP2012227678A (ja) 表示装置及び映像システム
KR20130019273A (ko) 3d 영상 출력 방법 및 이를 적용한 디스플레이 장치
KR20120025730A (ko) 디스플레이장치 및 그 제어방법과, 셔터 안경 및 그 제어방법과, 디스플레이 시스템
KR20110057957A (ko) 디스플레이 장치 및 이에 적용되는 gui 제공 방법
JP2013157850A (ja) 立体映像表示装置、眼鏡、同期方法および立体画像システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant