KR20140073584A - 화상 처리 장치, 입체 화상 표시 장치, 화상 처리 방법 및 화상 처리 프로그램 - Google Patents

화상 처리 장치, 입체 화상 표시 장치, 화상 처리 방법 및 화상 처리 프로그램 Download PDF

Info

Publication number
KR20140073584A
KR20140073584A KR1020147012552A KR20147012552A KR20140073584A KR 20140073584 A KR20140073584 A KR 20140073584A KR 1020147012552 A KR1020147012552 A KR 1020147012552A KR 20147012552 A KR20147012552 A KR 20147012552A KR 20140073584 A KR20140073584 A KR 20140073584A
Authority
KR
South Korea
Prior art keywords
image
viewer
panel
display device
parameter
Prior art date
Application number
KR1020147012552A
Other languages
English (en)
Inventor
노리히로 나카무라
다케시 미타
겐이치 시모야마
류스케 히라이
나오 미시마
Original Assignee
가부시끼가이샤 도시바
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시끼가이샤 도시바 filed Critical 가부시끼가이샤 도시바
Publication of KR20140073584A publication Critical patent/KR20140073584A/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 실시 형태는 시청자의 위치에 관계없이 화질의 열화를 가능한 한 억제하고, 입체 화상을 시청할 수 있게 해준다. 패널과 광학적 개구부를 갖는 표시 장치 상에 입체 화상을 표시하는, 시차 화상 취득부, 시청자 위치 취득부 및 화상 생성부를 포함하는 화상 처리 장치가 제공된다. 시차 화상 취득부는, 하나의 시점에 대한 화상인 적어도 하나의 시차 화상을 취득한다. 시청자 위치 취득부는 시청자의 위치를 취득한다. 화상 생성부는 표시 장치에 대한 시청자의 위치에 기초하여, 패널과 광학적 개구부 사이의 대응 관계에 대한 파라미터를 보정하고, 보정된 상기 파라미터에 기초하여, 입체 화상이 표시 장치 상에 표시되었을 때에 시청자에게 보여지도록 시차 화상의 각 화소가 할당된 화상을 생성한다.

Description

화상 처리 장치, 입체 화상 표시 장치, 화상 처리 방법 및 화상 처리 프로그램{IMAGE PROCESSING DEVICE, THREE-DIMENSIONAL IMAGE DISPLAY DEVICE, IMAGE PROCESSING METHOD AND IMAGE PROCESSING PROGRAM}
본 발명의 실시 형태는, 화상 처리 장치, 입체 화상 표시 장치, 화상 처리 방법 및 화상 처리 프로그램에 관한 것이다.
입체 화상 표시 장치에서는, 시청자는 특수한 안경을 사용하지 않고 나안(naked eyes)으로 입체 화상을 관찰할 수 있다. 이러한 입체 화상 표시 장치는 시점이 상이한 복수의 화상(이하에서는 각각의 화상을 시차 화상(parallax image)이라 한다)을 표시하고, 이러한 시차 화상으로부터의 광선을, 예를 들어 패럴랙스 배리어, 렌티큘러 렌즈 등에 의해 제어한다. 이때, 표시될 화상은, 시청자가 패럴랙스 배리어, 렌티큘러 렌즈 등을 통하여 표시된 화상을 들여다 보았을 경우에 그들 각각이 의도한 방향에서 의도한 화상이 관찰되도록 재배열되어야 한다. 이러한 재배열 방법을 이하에서는 픽셀 맵핑이라 한다. 따라서, 패럴랙스 배리어, 렌티큘러 렌즈 등과, 그에 맞는 픽셀 맵핑에 의해 제어된 광선은 시청자의 양안으로 인도된다. 이 때, 시청자의 관찰 위치가 적절하면, 시청자는 입체 화상을 인식할 수 있다. 시청자가 입체 화상을 관찰할 수 있는 이러한 영역을 시역(viewing zone)이라 한다.
그러나, 이러한 시역은 제한적이라는 문제가 있다. 예를 들어, 좌안에 의해 지각되는 화상의 시점이, 우안에 의해 지각되는 화상의 시점에 비해 상대적으로 우측에 위치되어 입체 화상을 정확하게 인식할 수 없는 관찰 영역인 역시 영역(pseudoscopic viewing zone)이 존재한다.
종래, 시청자의 위치에 따라서 시역을 설정하는 기술로서, 시청자의 위치를 어떠한 수단(예를 들어 센서 등)에 의해 검출하고, 시청자의 위치에 따라, 픽셀 맵핑전의 시차 화상을 교체하여 시역을 제어하는 기술이 알려져 있다.
미국 특허 제6064424호
Image Preparation for 3D-LCD
그러나, 종래 기술에 의한 시차 화상의 교체에서는, 시역의 위치가 이산적으로만 제어되어, 연속적으로 움직이는 시청자의 위치에 충분히 적응될 수 없다. 그로 인해, 시점의 위치에 따라서 화상의 화질이 변화된다. 또한, 이동 중에, 구체적으로는, 시차 화상을 교체하는 타이밍 등에서는, 시청자가 영상이 돌연 전환되는 것을 발견하여 위화감을 느낀다. 이것은, 각 시차 화상이 시청될 수 있는 위치가 패럴렉스 배리어, 렌티큘러 렌즈의 설계와, 패널의 서브 픽셀과의 위치 관계에 의해 미리 고정되어 있어, 아무리 시차 화상을 교체해도 그 위치로부터 어긋나도록 할 수 없기 때문이다.
본 발명의 일 측면이 해결하고자 하는 과제는, 시청자의 위치에 관계없이, 화질의 열화를 가능한 한 억제하고, 입체 화상을 시청할 수 있게 하는 것이다.
일 실시 형태에 따르면, 패널과 광학적 개구부(optical aperture)를 갖는 표시 장치 상에 입체 화상을 표시하는 화상 처리 장치로서, 시차 화상 취득부, 시청자 위치 취득부 및 화상 생성부를 구비하는 화상 처리 장치가 제공된다.
상기 시차 화상 취득부는 하나의 시점에 대한 화상인 적어도 하나의 시차 화상을 취득한다.
상기 시청자 위치 취득부는 시청자의 위치를 취득한다.
상기 화상 생성부는 상기 표시 장치에 대한 상기 시청자의 위치에 기초하여, 상기 패널과 상기 광학적 개구부 사이의 대응 관계에 관한 파라미터를 보정하고, 보정된 상기 파라미터에 기초하여, 상기 입체 화상이 상기 표시 장치 상에 표시되었을 때에 상기 시청자에게 보여지도록 상기 시차 화상의 각 화소가 할당된 화상을 생성한다.
도 1은 실시 형태에 따른 화상 처리 장치를 포함하는 입체 화상 표시 장치의 구성예를 도시하는 도면이다.
도 2는 광학적 개구부 및 표시 소자를 도시하는 도면이다.
도 3은 도 1에 도시된 화상 처리 장치의 처리 플로우를 도시하는 도면이다.
도 4는 패널과 렌즈 사이의 각도, 픽셀 맵핑 및 각종 용어의 의미를 설명하기 위한 도면이다.
도 5는 패널과 광학적 개구부 사이의 대응 관계에 관한 파라미터와, 시역 사이의 관계를 설명하기 위한 도면이다.
도 6은 패널의 중심을 원점으로 설정한 "X", "Y", "Z" 좌표 공간을 도시하는 도면이다.
본 실시 형태에 따른 화상 처리 장치는 시청자가 나안으로 입체 화상을 관찰할 수 있는 TV, PC, 스마트폰, 디지털 포토 프레임 등의 입체 화상 표시 장치에 사용될 수 있다. 입체 화상은 서로 시차를 갖는 복수의 시차 화상을 포함하는 화상이다. 시청자는 이러한 화상을 렌티큘러 렌즈, 패럴랙스 배리어 등의 광학적 개구부를 통해 관찰함으로써, 입체 화상을 시각적으로 인식할 수 있다. 여기에서, 실시 형태에서 설명하는 화상은 정지 화상 또는 동화상 중 어느 것이어도 된다.
도 1은 본 실시 형태에 따른 입체 화상 표시 장치의 구성예를 도시하는 블록도이다. 입체 화상 표시 장치는, 화상 취득부(1), 시청 위치 취득부(2), 맵핑 제어 파라미터 산출부(3), 픽셀 맵핑 처리부(4)와, 표시부(표시 장치)(5)를 구비한다. 화상 취득부(1), 시청 위치 취득부(2), 맵핑 제어 파라미터 산출부(3) 및 픽셀 맵핑 처리부(4)는, 화상 처리 장치(7)를 형성한다. 맵핑 제어 파라미터 산출부(3)와 픽셀 맵핑 처리부(4)는 화상 생성부(8)를 형성한다.
표시부(5)는 입체 화상을 표시하기 위한 표시 장치이다. 표시 장치에 의해 표시되는 입체 화상을 시청자가 관찰 가능한 범위(영역)을 시역이라 한다.
본 실시 형태에서는, 도 6에 도시한 바와 같이, 실공간에서, 패널의 표시면(디스플레이)의 중심을 원점으로 설정하고, 표시면의 "X", "Y", "Z" 축을 수평 방향, 수직 방향, 법선 방향으로 각각 설정한다. 본 실시 형태에서는, 높이 방향은 "Y"축 방향을 가리킨다. 단, 실공간에서의 좌표의 설정 방법은 이에 한정되는 것은 아니다.
도 2의 (A)에 도시된 바와 같이, 표시 장치는 표시 소자(20)와 개구 제어부(26)를 포함한다. 시청자는 개구 제어부(26)를 통해 표시 소자(20)를 관찰함으로써, 표시 장치 상에 표시되는 입체 화상을 시각적으로 인지한다.
표시 소자(20)는 입체 화상의 표시에 사용하는 시차 화상을 표시한다. 표시 소자(20)는, 유기 EL(organic Electro Luminescence), LCD(Liquid crystal Display), PDP(Plasma Display Panel), 투사형 디스플레이(projection display) 등의 직시형 2차원 디스플레이(two-dimensional direct-view display)를 포함한다.
표시 소자(20)는 공지된 구성을 가질 수 있다. 예를 들어, RGB 각 색의 서브 픽셀은, RGB를 1 화소로 하여 매트릭스 형상으로 각각 배치된다(도 2의 (A)에서, 표시 소자(20)에서의 각각의 작은 직사각형은, RGB 서브 픽셀을 나타냄). 이 경우, 제1 방향으로 배열되는 RGB 각 색의 서브 픽셀들이 1 화소를 각각 구성하고, 제1 방향과 직교하는 제2 방향으로 시차의 수만큼 배열되는 인접하는 픽셀들이 화소군을 구성한다. 화소군 상에 표시되는 화상을 요소 화상(30)이라 한다. 제1 방향은, 예를 들어 열방향(수직 방향, 또는 "Y"축 방향)이며, 제2 방향은, 예를 들어 행방향(수평 방향, 또는 "X"축 방향)이다. 표시 소자(20)의 서브 픽셀 배열로서, 다른 공지된 배열을 채용할 수 있다. 또한, 서브 픽셀은 RGB의 3색에 한정되지 않는다. 예를 들어, 4색을 채용할 수 있다.
개구 제어부(26)는, 표시 소자(20)로부터 그 전방을 향하여 방출되는 광선을, 개구부를 통해 소정 방향으로 방출시킨다(이하, 이러한 기능을 갖는 개구부를 광학적 개구부라 함). 광학적 개구부(26)의 예로서, 렌티큘러 렌즈, 패럴랙스 배리어 등이 있다.
광학적 개구부는, 표시 소자(20)의 각 요소 화상(30)에 대응하도록 배열된다. 하나의 광학적 개구부는 하나의 요소 화상에 대응한다. 표시 소자(20) 상에 복수의 요소 화상(30)을 표시함에 있어서, 표시 소자(20)는 복수의 시차 방향에 대응하는 시차 화상(멀티 시차 화상)을 표시한다. 멀티 시차 화상으로부터의 광선은 각 광학적 개구부를 투과한다. 그리고, 시역 내에 위치하는 시청자(33)는, 요소 화상(30)에 포함되는 화소를, 좌안(33A) 및 우안(33B)을 통해 관찰한다. 이에 따라, 시청자(33)의 좌안(33A) 및 우안(33B)에 대하여 시차가 다른 화상이 각각 표시됨으로써, 시청자(33)가 입체 화상을 관찰할 수 있다.
본 실시 형태에서는, 도 2의 (B)의 평면도 및 도 4의 (A)의 사시도에 도시된 바와 같이, 광학적 개구부(26)는 패널 표시면과 평행하게 배치되고, 광학적 개구부의 연장 방향과 표시 소자(20)의 제1 방향("Y"축 방향) 사이에 소정의 기울기 "θ"를 갖는다.
이하, 도 1에 도시된 입체 화상 표시 장치의 각 블록을 상세하게 설명한다.
[화상 취득부(1)]
화상 취득부(1)는 표시하려는 시차 화상수(시차수)에 따라, 하나 이상의 시차 화상을 취득한다. 시차 화상은 기억 매체로부터 취득된다. 예를 들어, 시차 화상을 하드 디스크, 서버 등에 미리 저장해두어 그로부터 취득할 수 있다. 또는, 화상 취득부(1)는 카메라, 복수의 카메라가 서로 연결된 카메라 어레이, 스테레오 카메라 등의 입력 장치로부터 시차 화상을 직접 취득하도록 구성될 수 있다.
[시청 위치 취득부(2)]
시청 위치 취득부(2)는, 시역 내의 실공간에서의 시청자의 위치를 3차원 좌표값으로서 취득한다. 시청자의 위치는, 예를 들어 가시광선 카메라, 적외선 카메라 등의 촬상 장치, 또는 레이더, 센서 등의 다른 장치를 사용하여 취득될 수 있다. 이러한 장치에 의해 얻어진 정보(카메라의 경우에는 촬영 화상)로부터, 공지된 기술을 사용하여, 시청자의 위치가 취득된다.
예를 들어, 가시광선 카메라를 사용하는 경우에는, 촬상에 의해 얻은 화상을 화상 해석함으로써, 시청자가 검출되고 시청자의 위치가 산출된다. 이로써, 시청 위치 취득부(2)는 시청자의 위치를 취득한다.
레이더를 사용하는 경우에는, 취득된 레이더 신호를 신호 처리함으로써, 시청자가 검출되고 시청자의 위치가 산출된다. 이로써, 시청 위치 취득부(2)는 시청자의 위치를 취득한다.
또한, 인물 검출 및 위치 산출에 있어서의 시청자의 검출에 있어서는, 얼굴, 머리, 인물 몸 전체, 마커 등의, 인물인지 아닌지의 여부를 판정 가능한 임의의 대상을 검출해도 된다. 시청자의 눈의 위치를 검출해도 된다. 여기에서, 시청자의 위치 취득 방법은 상기의 방법에 한정되는 것은 아니다.
[픽셀 맵핑 처리부(4)]
픽셀 맵핑 처리부(4)는 화상 취득부(1)에 의해 취득된 시차 화상의 각 서브 픽셀을, 시차수 "N", 광학적 개구부의 "Y"축에 대한 기울기 "θ", 광학적 개구부와 패널 사이의 "X"축 방향으로의 어긋남량(패널 환산 시프트량) "koffset", 하나의 광학적 개구부에 대응하는 패널의 부분의 폭 "Xn" 등의 제어 파라미터에 기초하여 재배열한다(할당함). 이에 따라, 픽셀 맵핑 처리부(4)는 각 요소 화상(30)을 결정한다. 이하, 표시 소자(20) 전체에 표시되는 복수의 요소 화상(30)을 요소 화상 어레이라 한다. 요소 화상 어레이는, 표시 시에 시청자에게 입체 화상이 보여지도록 시차 화상의 각 화소가 할당된 화상이다.
재배열에 있어서는, 우선, 요소 화상 어레이의 각 서브 픽셀로부터 방사된 광선이 광학적 개구부(26)를 통하여 방출되는 방향을 산출한다. 이러한 산출에는, 예를 들어 "Image Preparation for 3D LCD"에 기재된 방법을 사용할 수 있다.
예를 들어, 이하의 수학식 1을 사용하여, 광선의 방출 방향을 산출할 수 있다. 수학식에서, "sub_x" 및 "sub_y"는 각각 패널 좌측 상단 코너를 기준으로 했을 경우의 서브 픽셀 좌표를 나타낸다. "v(sub_x, sub_y)"는 "sub_x", "sub_y"의 서브 픽셀로부터 방사된 광선이 광학적 개구부(26)를 통하여 방출되는 방향을 나타낸다.
Figure pct00001
수학식에 의해 결정된 광선의 방향은 각 서브 픽셀로부터 방사된 광선이 광학적 개구부(26)를 통하여 방출되는 방향을 지시하는 번호로 나타내어진다. 여기에서, 광학적 개구부(26)의 연장 방향을 따라 취해지며, "X"축을 기준으로 했을 경우의 수평 폭 "Xn"을 갖는 영역을 정의하고, X축에 대하여 가장 부(negative)의 경계선에 해당하는 상기 영역에서의 경계선에 대응하는 위치로부터 방사되는 광의 방출 방향을 0이라고 하고, 상기 경계선으로부터 "Xn/N" 이격된 위치로부터 방사되는 광의 방출 방향을 1이라고 하고, 마찬가지로 다른 방출 방향을 순서대로 정의한다. 보다 상세한 설명에 대해서는 "Image Preparation for 3D-LCD"을 참조 바란다.
그 후, 각 서브 픽셀마다 산출된 방향이 취득된 시차 화상과 연관된다. 예를 들어, 시차 화상들 중, 시차 화상 생성 시의 시점 위치가 광선의 방향에 가장 가까운 시차 화상을 선택하고, 중간 시점 위치의 시차 화상을 다른 시차 화상과의 보간에 의해 생성할 수 있다. 이에 의해, 서브 픽셀마다, 색을 취득하는 시차 화상(참조 시차 화상)이 결정된다.
도 4의 (B)에, 시차수 N =12로 하고, 각 시차 화상에 0 내지 11까지의 번호를 각각 할당한 경우의 참조 시차 화상의 번호 일례를 나타낸다. 지면 상에서 가로 방향으로 배열되는 "0, 1, 2, 3, …"은, 서브 픽셀의 X축 방향으로의 위치를 나타내고, 세로 방향으로 배열되는 "0, 1, 2, …"는 서브 픽셀의 Y축 방향으로의 위치를 나타낸다. 지면 상의 사선 방향의 선은, "Y"축에 대하여 "θ"의 각도로 배치된 광학적 개구부를 나타낸다. 직사각형의 각 셀 내에 기재된 숫자는, 참조 시차 화상의 번호에 대응하며, 전술한 광의 방출 방향에 대응한다. 숫자가 정수인 경우에, 그 정수는 동일한 번호의 참조 시차 화상에 대응한다. 소수는, 그 소수를 사이에 포함하는 2개의 번호의 참조 시차 화상에 의해 보간된 화상에 대응한다. 예를 들어 숫자가 7.0이라면, 번호 7의 시차 화상을 참조 시차 화상으로 사용하고, 숫자가 6.7이라면, 번호 6 및 7의 참조 시차 화상에 의해 보간된 화상을 참조 시차 화상으로 사용한다. 마지막으로, 대응하는 위치의 서브 픽셀에 요소 화상 어레이의 각 서브 픽셀이 할당되도록, 참조 시차 화상을 표시 소자(20) 전체에 적용시킨다. 이에 따라, 표시 장치에서의 각 표시 화소의 각 서브 픽셀에 할당되는 값이 결정된다. 여기에서, 시차 화상 취득부(1)가 하나의 시차 화상만을 판독하고 있는 경우에는, 해당 하나의 시차 화상으로부터 다른 화상이 생성될 수 있다. 예를 들어, 상기의 0번에 대응하는 시차 화상 하나가 판독된 경우에는, 해당 시차 화상으로부터, 1 내지 11번에 대응하는 시차 화상이 생성될 수 있다.
픽셀 맵핑 처리에 반드시 "Image Preparation for 3D-LCD"의 방법을 사용할 필요는 없다. 패널과 광학적 개구부 사이의 대응 관계에 관한 파라미터, 상기의 예에서는, 패널과 광학적 개구부 사이의 위치 어긋남을 정의하는 파라미터 및 하나의 광학적 개구부에 대응하는 패널의 부분의 폭을 정의하는 파라미터에 기초한 픽셀 맵핑 처리라면, 어떤 방법을 사용해도 된다.
본래, 각 파라미터는 패널(27)과 광학적 개구부(26) 사이의 관계에 의해 결정되어, 하드웨어를 재설계하지 않는 한 변경되지 않는다. 본 실시 형태에서는, 관찰자의 시점 위치에 기초하여 상기 파라미터(특히, 광학적 개구부와 패널 사이의 "X"축 방향으로의 어긋남량 "koffset" 및 하나의 광학적 개구부에 대응하는 패널의 부분의 폭 "Xn"을 보정함으로써, 원하는 위치로 시역을 이동시킨다. 예를 들어, "Image Preparation for 3D-LCD"의 방법을 픽셀 맵핑에 사용하는 경우에는, 이하의 수학식 2에 따라서 파라미터를 보정함으로써 시역이 이동될 수 있다.
Figure pct00002
"r_offset"은 "koffset"에 대한 보정량을 나타낸다. "rXn"은 "Xn"에 대한 보정량을 나타낸다. 이러한 보정량의 산출 방법에 대해서는 후술한다.
상기의 수학식 2에서는, "koffset"을 광학적 개구부에 대한 패널의 어긋남량으로 정의하였다. "koffset"을 패널에 대한 광학적 개구부의 어긋남량으로 정의하는 경우에는, 이하의 수학식 3이 이용된다. 또한, "Xn"에 대한 보정은 상기의 수학식 2와 같다.
Figure pct00003
[맵핑 제어 파라미터 산출부(3)]
맵핑 제어 파라미터 산출부(3)는, 시역을 관찰자에 따라서 이동시키기 위한 보정 파라미터(보정량)을 산출한다. 보정 파라미터는 맵핑 제어 파라미터라고도 한다. 본 실시 형태에서, 보정하려는 파라미터는 "koffset"과 "Xn"의 2개의 파라미터이다.
패널 및 광학적 개구부가 도 5의 (A)에 나타낸 상태에 있을 때, 패널과 광학적 개구부 사이의 위치 관계를 수평 방향으로 어긋나게 하면, 도 5의 (C)에 도시한 바와 같이, 어긋난 방향으로 시역이 이동한다. 도 5의 (C)의 예에서는, 광학적 개구부를 지면을 따라 왼쪽으로 시프트하여, 광선이 도 5의 (A)의 경우에 비해 "η" 각도로 왼쪽으로 편향되어, 이에 의해 시역도 왼쪽으로 편향되어 있다. 이것은, 렌즈의 위치가 원래 위치에 고정되었다고 상정한 경우, 표시된 화상이 역방향으로 움직인 것과 등가이다. 이러한 어긋남은 원래, 픽셀 맵핑 시에, "koffset"로서 부여되고, 양자 간의 어긋남을 고려하여 "v(sub_x, sub_y)"이 결정된다. 이에 의해, 양자가 상대적으로 서로 어긋났을 경우에도 패널 정면에 시역이 구성된다. 본 실시 형태에서는, 이에 대하여 개선점을 추가한다. 즉, 시청자의 위치에 따라, 패널과 광학적 개구부 사이의 어긋남인 "koffset"을 물리적인 어긋남량에 비해 증가 또는 감소되도록 보정한다. 이에 의해, 픽셀 맵핑에 의한 시역의 수평 방향("X"축 방향)으로의 위치 보정을 연속적으로(미세하게) 할 수 있고, 종래 기술에서는 시차 화상의 교체에 의해 이산적으로만 변화시킬 수 밖에 없었던 시역의 수평 방향("X"축 방향)으로의 위치를 연속적으로 변화시킬 수 있다. 따라서, 시청자가 임의의 수평 방향으로의 위치("X"축 방향으로의 위치)에 있을 경우에, 시청자에 대하여 적절하게 시역을 적응시키는 것이 가능하다.
또한, 패널 및 광학적 개구부가 도 5의 (A)에 나타낸 상태에 있을 때에, 도 5의 (B)에 도시한 바와 같이, 하나의 광학적 개구부에 대응하는 패널의 부분의 폭 "Xn"을 확장하면, 시역이 패널에 가까워진다(즉, 도 5의 (B)에서는 도 5의 (A)보다 요소 화상 폭이 커져 있음).
따라서, "Xn"의 값을, 실제의 값에 비해 증가 또는 감소시키도록 보정함으로써, 픽셀 맵핑에 의한 시역의 수직 방향("Z"축 방향)으로의 위치 보정을 연속적으로(미세하게) 할 수 있다. 이에 의해, 종래 기술에서는 시차 화상의 교체에 의해 이산적으로만 변화시킬 수 밖에 없었던 시역의 수직 방향("Z"축 방향)으로의 시역의 위치를 연속적으로 변화시키는 것이 가능하다. 따라서, 시청자가 임의의 수직 방향으로의 위치("Z"축 방향의 위치)에 있을 경우에, 적절하게 시역을 적응시키는 것이 가능하다.
이에 따라, 파라미터 "koffset" 및 "Xn"을 적절하게 보정함으로써, 수평 방향 및 수직 방향의 어느 쪽으로도 시역의 위치를 연속적으로 변화시킬 수 있다. 따라서, 관찰자가 임의의 위치에 있는 경우에도, 그 위치에 적응된 시역을 설정하는 것이 가능하다.
이하, "koffset"에 대한 보정량 "r_koffset" 및 Xn에 대한 보정량 "r_Xn"의 산출 방법을 나타낸다.
·"r_koffset"
"r_koffset"은 시청 위치의 "X"-좌표로부터 산출된다. 구체적으로는, 현재의 시청 위치의 "X"-좌표, 시청 위치로부터 패널(또는 렌즈)까지의 거리인 시청 거리 "L" 및 광학적 개구부(렌즈의 경우에는 주점(principal point) "P")와 패널 사이의 거리인 갭 "g"(도 4의 (C)를 참조)를 사용하여, 이하의 수학식 4에 의해 "r_koffset"이 산출된다. 또한, 현재의 시청 위치는 시청 위치 취득부(2)에 의해 취득되고, 시청 거리 "L"은 현재의 시청 위치로부터 산출된다.
Figure pct00004
·"r_Xn"
"r_Xn"은 시청 위치의 "Z"-좌표로부터 이하의 수학식 5에 의해 산출된다. 또한, "lens_width"(도 4의 (C) 참조)는 광학적 개구부를 X축 방향(렌즈의 길이 방향)을 따라 취했을 경우의 폭이다.
Figure pct00005
[표시부(5)]
표시부(5)는 전술된 표시 소자(20)와 광학적 개구부(26)를 포함하는 표시 장치이다. 시청자는 광학적 개구부(26)를 통해 표시 소자(20)를 관찰함으로써, 표시 장치 상에 표시되는 입체 화상을 관찰한다.
전술된 바와 같이, 표시 소자(20)는, 유기 EL(organic Electro Luminescence), LCD(Liquid crystal Display), PDP(Plasma Display Panel), 투사형 디스플레이(projection display) 등의 직시형 2차원 디스플레이(two-dimensional direct-view display)를 포함한다. 표시 소자(20)는 공지된 구성을 가질 수 있다. 예를 들어, RGB 각 색의 서브 픽셀은, 각 화소가 RGB 서브 픽셀의 세트로 구성된 매트릭스 형상으로 배치된다. 표시 소자(20)의 서브 픽셀 배열로서, 다른 공지된 배열을 채용할 수 있다. 또한, 서브 픽셀은 RGB의 3색에 한정되지 않는다. 예를 들어, 4색을 채용할 수 있다.
도 3은 도 1에 도시된 화상 처리 장치의 동작 흐름을 나타내는 흐름도이다.
단계 S101에서, 시차 화상 취득부(1)는 기억 매체로부터 하나 이상의 시차 화상을 취득한다.
단계 S102에서, 시청 위치 취득부(2)는 촬상 장치 또는, 레이더 및 센서 등의 장치를 사용하여 시청자의 위치 정보를 취득한다.
단계 S103에서, 맵핑 제어 파라미터 산출부(3)는 시청자의 위치 정보에 기초하여, 패널과 광학적 개구부 사이의 대응 관계에 관한 파라미터를 보정하기 위한 보정량(맵핑 제어 파라미터)을 산출한다. 보정량의 산출예는 수학식 4 및 5에 나타낸 대로이다.
단계 S104에서, 픽셀 맵핑 처리부(4)는 보정량에 기초하여 패널과 광학적 개구부 사이의 대응 관계에 관한 파라미터를 보정한다(수학식 2 및 3 참조). 픽셀 맵핑 처리부(4)는, 보정된 파라미터에 기초하여, 표시 장치 상에 표시되었을 때에 입체 화상이 시청자에게 보여지도록 시차 화상의 각 픽셀이 할당된 화상을 생성한다(수학식 1 참조).
이후, 표시부(5)는 생성된 화상이 패널에 표시되도록 각 표시 화소를 구동한다. 시청자는 광학적 개구부(26)를 통해 패널의 표시 소자를 관찰함으로써, 입체 화상을 관찰할 수 있다.
이상에서 설명한 바와 같이, 본 실시 형태에서는, 픽셀 맵핑 시에, 원래 고유하게 결정되어 있는 물리적 파라미터를 관찰자의 위치에 따라서 보정함으로써, 시청자의 방향에 있어서 시역을 제어한다. 물리적 파라미터로서, 패널과 광학적 개구부 사이의 위치 어긋남 및 하나의 광학적 개구부에 대응하는 패널의 부분의 폭이 사용된다. 이러한 파라미터는 임의의 값을 가질 수 있기 때문에, 종래 기술(시차 화상 교체에 의한 이산적인 제어)에 비해, 시역을 보다 정확하게 시청자에게 적응시키는 것이 가능하다. 따라서, 시청자의 이동에 응하여 시역을 정확하게 따르도록 할 수 있다.
이상, 본 발명의 실시 형태를 설명했다. 전술된 각 실시 형태는 예로서 제시한 것이며, 본 발명의 범위를 한정하려는 의도는 아니다. 이들 신규의 실시 형태는 여타 다양한 형태로 실시되는 것이 가능하고, 발명의 요지를 일탈하지 않고 다양한 생략, 치환, 변경이 행해질 수 있다.
전술된 실시 형태에 따른 화상 처리 장치는, CPU(Central Processing Unit), ROM, RAM 및, 통신 I/F 장치를 포함하는 하드웨어 구성을 갖는다. 상술한 각 부의 기능은 CPU가 ROM에 저장된 프로그램을 RAM에서 로딩하여 실행함으로써 실현된다. 또는, 이에 한정되지 않고, 각 부의 기능 중 적어도 일부는 개별의 회로(하드웨어)에서 실현될 수 있다.
전술된 실시 형태에 따른 화상 처리 장치에 의해 실행되는 프로그램을 인터넷 등의 네트워크에 접속된 컴퓨터에 저장하고, 네트워크를 경유하여 다운로드시킴으로써 제공할 수 있다. 또한, 전술된 각 실시 형태 및 변형예에 따른 화상 처리 장치에 의해 실행되는 프로그램은 인터넷 등의 네트워크를 경유하여 제공 또는 배포될 수 있다. 또한, 전술된 실시 형태에 따른 화상 처리 장치에 의해 실행되는 프로그램은 ROM 등에 미리 내장하여 제공될 수 있다.
1:화상 취득부
2:시청 위치 취득부
3:맵핑 제어 파라미터 산출부
4:픽셀 맵핑 처리부
5:표시부

Claims (10)

  1. 패널과 광학적 개구부(optical aperture)를 갖는 표시 장치 상에 입체 화상을 표시하는 화상 처리 장치로서,
    하나의 시점(view point)에 대한 화상인 적어도 하나의 시차 화상(parallax image)을 취득하도록 구성된 시차 화상 취득부,
    시청자의 위치를 취득하도록 구성된 시청자 위치 취득부, 및
    상기 표시 장치에 대한 상기 시청자의 위치에 기초하여, 상기 패널과 상기 광학적 개구부 사이의 대응 관계에 대한 파라미터를 보정하고, 보정된 상기 파라미터에 기초하여, 상기 입체 화상이 상기 표시 장치 상에 표시되었을 때에 상기 시청자에게 보여지도록 상기 시차 화상의 각 화소가 할당된 화상을 생성하도록 구성된 화상 생성부
    를 포함하는, 화상 처리 장치.
  2. 제1항에 있어서,
    상기 화상 생성부는, 상기 패널에 대한 상기 시청자의 수평 방향 위치 및 상기 시청자의 시청 거리에 따라서 상기 파라미터를 보정하는, 화상 처리 장치.
  3. 제2항에 있어서,
    맵핑 제어 파라미터 산출부를 더 포함하고,
    상기 파라미터는 상기 패널과 상기 광학적 개구부 사이의 위치 어긋남량이고,
    상기 맵핑 제어 파라미터 산출부는, 상기 패널에 대한 상기 시청자의 수평 방향 위치 및 상기 시청자의 시청 거리에 따라서 보정량을 산출하도록 구성되고,
    상기 화상 생성부는 상기 보정량에 기초하여 상기 파라미터를 보정하는, 화상 처리 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 화상 생성부는, 상기 패널에 대한 상기 시청자의 수직 방향 위치 및 상기 광학적 개구부의 폭에 따라서 상기 파라미터를 보정하는, 화상 처리 장치.
  5. 제4항에 있어서,
    맵핑 제어 파라미터 산출부를 더 포함하고,
    상기 파라미터는 하나의 광학적 개구부에 대응하는 상기 패널의 부분의 폭을 나타내고,
    상기 맵핑 제어 파라미터 산출부는, 상기 패널에 대한 상기 시청자의 수직 방향 위치 및 상기 광학적 개구부의 폭에 따라서 보정량을 산출하도록 구성되고,
    상기 화상 생성부는 상기 보정량에 기초하여 상기 파라미터를 보정하는, 화상 처리 장치.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 시청자 위치 취득부는, 촬상 장치에 의해 촬상된 화상을 해석함으로써 얼굴을 인식하고, 상기 화상에서 인식된 얼굴에 기초하여 상기 시청자의 위치를 취득하는, 화상 처리 장치.
  7. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 시청자 위치 취득부는, 시청자의 움직임을 검출하는 센서에 의해 검출된 신호를 처리함으로써 상기 시청자의 위치를 취득하는, 화상 처리 장치.
  8. 패널과 광학적 개구부를 갖는 표시 장치 상에 입체 화상을 표시하기 위한 화상 처리 방법으로서,
    하나의 시점에 대한 화상인 적어도 하나의 시차 화상을 취득하는 단계,
    시청자의 위치를 취득하는 단계, 및
    상기 표시 장치에 대한 상기 시청자의 위치에 기초하여, 상기 패널과 상기 광학적 개구부 사이의 대응 관계에 대한 파라미터를 보정하고, 보정된 상기 파라미터에 기초하여, 상기 입체 화상이 상기 표시 장치 상에 표시되었을 때에 상기 시청자에게 보여지도록 상기 시차 화상의 각 화소가 할당된 화상을 생성하는 단계
    를 포함하는, 화상 처리 방법.
  9. 패널과 광학적 개구부를 갖는 표시 장치 상에 입체 화상을 표시하기 위한 화상 처리 프로그램으로서,
    하나의 시점에 대한 화상인 적어도 하나의 시차 화상을 취득하는 단계,
    시청자의 위치를 취득하는 단계, 및
    상기 표시 장치에 대한 상기 시청자의 위치에 기초하여, 상기 패널과 상기 광학적 개구부 사이의 대응 관계에 대한 파라미터를 보정하고, 보정된 상기 파라미터에 기초하여, 상기 입체 화상이 상기 표시 장치 상에 표시되었을 때에 상기 시청자에게 보여지도록 상기 시차 화상의 각 화소가 할당된 화상을 생성하는 단계
    를 포함하는 처리를 컴퓨터에 실행시키는, 화상 처리 프로그램.
  10. 입체 화상 표시 장치로서,
    패널과 광학적 개구부를 갖는 표시부를 포함하고,
    상기 표시부는,
    하나의 시점에 대한 화상인 적어도 하나의 시차 화상을 취득하는 시차 화상 취득부,
    시청자의 위치를 취득하는 시청자 위치 취득부, 및
    상기 표시 장치에 대한 상기 시청자의 위치에 기초하여, 상기 패널과 상기 광학적 개구부 사이의 대응 관계에 대한 파라미터를 보정하고, 보정된 상기 파라미터에 기초하여, 상기 입체 화상이 상기 표시 장치 상에 표시되었을 때에 상기 시청자에게 보여지도록 상기 시차 화상의 각 화소가 할당된 화상을 생성하는 화상 생성부
    를 포함하고,
    상기 표시부는, 상기 화상 생성부에 의해 생성된 화상을 표시하는, 입체 화상 표시 장치.
KR1020147012552A 2011-11-16 2011-11-16 화상 처리 장치, 입체 화상 표시 장치, 화상 처리 방법 및 화상 처리 프로그램 KR20140073584A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/076447 WO2013073028A1 (ja) 2011-11-16 2011-11-16 画像処理装置、立体画像表示装置、画像処理方法および画像処理プログラム

Publications (1)

Publication Number Publication Date
KR20140073584A true KR20140073584A (ko) 2014-06-16

Family

ID=48429140

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147012552A KR20140073584A (ko) 2011-11-16 2011-11-16 화상 처리 장치, 입체 화상 표시 장치, 화상 처리 방법 및 화상 처리 프로그램

Country Status (6)

Country Link
US (1) US20140247329A1 (ko)
JP (1) JP5881732B2 (ko)
KR (1) KR20140073584A (ko)
CN (1) CN103947199A (ko)
TW (1) TW201322733A (ko)
WO (1) WO2013073028A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160087449A (ko) * 2015-01-13 2016-07-22 삼성디스플레이 주식회사 표시 제어 방법 및 장치
KR20160128549A (ko) * 2015-04-28 2016-11-08 삼성디스플레이 주식회사 입체 영상 표시 장치 및 그 구동 방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015132828A1 (ja) 2014-03-06 2017-03-30 パナソニックIpマネジメント株式会社 映像表示方法、及び、映像表示装置
KR102208898B1 (ko) * 2014-06-18 2021-01-28 삼성전자주식회사 무안경 3d 디스플레이 모바일 장치, 이의 설정방법 및 사용방법
US10394037B2 (en) 2014-06-18 2019-08-27 Samsung Electronics Co., Ltd. Glasses-free 3D display mobile device, setting method of the same, and using method of the same
TWI559731B (zh) * 2014-09-19 2016-11-21 大昱光電股份有限公司 製作立體影像方法
CN104601975B (zh) 2014-12-31 2016-11-16 深圳超多维光电子有限公司 广视角裸眼立体图像显示方法及显示设备
US10638119B2 (en) * 2015-05-05 2020-04-28 Koninklijke Philips N.V. Generation of image for an autostereoscopic display
JP6764574B2 (ja) * 2016-01-13 2020-10-07 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び、手術システム
JP6732617B2 (ja) * 2016-09-21 2020-07-29 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
EP3316575A1 (en) * 2016-10-31 2018-05-02 Thomson Licensing Method for providing continuous motion parallax effect using an auto-stereoscopic display, corresponding device, computer program product and computer-readable carrier medium
WO2019204012A1 (en) * 2018-04-20 2019-10-24 Covidien Lp Compensation for observer movement in robotic surgical systems having stereoscopic displays
CN112748796B (zh) * 2019-10-30 2024-02-20 京东方科技集团股份有限公司 显示方法及显示装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008185629A (ja) * 2007-01-26 2008-08-14 Seiko Epson Corp 画像表示装置
JP2008228199A (ja) * 2007-03-15 2008-09-25 Toshiba Corp 立体画像表示装置及び立体画像表示方法並びに立体画像用データの構造
US8331023B2 (en) * 2008-09-07 2012-12-11 Mediatek Inc. Adjustable parallax barrier 3D display
JP4711007B2 (ja) * 2009-06-05 2011-06-29 健治 吉田 パララッスクスバリア、裸眼立体ディスプレイ
JP2011141381A (ja) * 2010-01-06 2011-07-21 Ricoh Co Ltd 立体画像表示装置及び立体画像表示方法
WO2011111349A1 (ja) * 2010-03-10 2011-09-15 パナソニック株式会社 立体映像表示装置および視差調整方法
JP5306275B2 (ja) * 2010-03-31 2013-10-02 株式会社東芝 表示装置及び立体画像の表示方法
JP2011223482A (ja) * 2010-04-14 2011-11-04 Sony Corp 画像処理装置、画像処理方法、およびプログラム
CN101984670B (zh) * 2010-11-16 2013-01-23 深圳超多维光电子有限公司 一种立体显示方法、跟踪式立体显示器及图像处理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160087449A (ko) * 2015-01-13 2016-07-22 삼성디스플레이 주식회사 표시 제어 방법 및 장치
KR20160128549A (ko) * 2015-04-28 2016-11-08 삼성디스플레이 주식회사 입체 영상 표시 장치 및 그 구동 방법

Also Published As

Publication number Publication date
US20140247329A1 (en) 2014-09-04
CN103947199A (zh) 2014-07-23
WO2013073028A1 (ja) 2013-05-23
JP5881732B2 (ja) 2016-03-09
JPWO2013073028A1 (ja) 2015-04-02
TW201322733A (zh) 2013-06-01

Similar Documents

Publication Publication Date Title
KR20140073584A (ko) 화상 처리 장치, 입체 화상 표시 장치, 화상 처리 방법 및 화상 처리 프로그램
JP6308513B2 (ja) 立体画像表示装置、画像処理装置及び立体画像処理方法
JP5306275B2 (ja) 表示装置及び立体画像の表示方法
KR101629479B1 (ko) 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
JP6278323B2 (ja) 自動立体ディスプレイの製造方法
KR101292513B1 (ko) 입체 화상 표시 장치, 입체 화상 표시 방법 및 입체 화상 결정 장치
US9110296B2 (en) Image processing device, autostereoscopic display device, and image processing method for parallax correction
US9432657B2 (en) Naked-eye stereoscopic display apparatus, viewpoint adjustment method, and naked-eye stereoscopic vision-ready video data generation method
WO2015132828A1 (ja) 映像表示方法、及び、映像表示装置
JP2013527932A5 (ko)
CN111869202B (zh) 用于减少自动立体显示器上的串扰的方法
US9202305B2 (en) Image processing device, three-dimensional image display device, image processing method and computer program product
TW201320719A (zh) 立體畫像顯示裝置、畫像處理裝置及畫像處理方法
TWI500314B (zh) A portrait processing device, a three-dimensional portrait display device, and a portrait processing method
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
US20140192168A1 (en) Image processing device, method, and stereoscopic image display device
KR101831978B1 (ko) 회전된 렌티큘러시트를 부착한 디스플레이에 표시되는 요소영상콘텐츠 생성 방법
US20140313199A1 (en) Image processing device, 3d image display apparatus, method of image processing and computer-readable medium
JP2012157008A (ja) 立体画像決定装置、立体画像決定方法、および立体画像表示装置
EP2763419A1 (en) View supply for autostereoscopic display

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application