KR100905371B1 - 입체시용 영상 제공 방법 및 입체 영상 표시 장치 - Google Patents

입체시용 영상 제공 방법 및 입체 영상 표시 장치 Download PDF

Info

Publication number
KR100905371B1
KR100905371B1 KR1020057013297A KR20057013297A KR100905371B1 KR 100905371 B1 KR100905371 B1 KR 100905371B1 KR 1020057013297 A KR1020057013297 A KR 1020057013297A KR 20057013297 A KR20057013297 A KR 20057013297A KR 100905371 B1 KR100905371 B1 KR 100905371B1
Authority
KR
South Korea
Prior art keywords
information
image
depth information
depth
dimensional image
Prior art date
Application number
KR1020057013297A
Other languages
English (en)
Other versions
KR20050092122A (ko
Inventor
사또시 다께모또
고로 하마기시
도시오 노무라
Original Assignee
산요덴키가부시키가이샤
샤프 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 산요덴키가부시키가이샤, 샤프 가부시키가이샤 filed Critical 산요덴키가부시키가이샤
Publication of KR20050092122A publication Critical patent/KR20050092122A/ko
Application granted granted Critical
Publication of KR100905371B1 publication Critical patent/KR100905371B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

송신측 장치(1)에서는, 실사의 2차원 영상(100)에 대하여 화상 분석을 행하여 영상 데이터를 생성함과 함께 상기 2차원 영상을 입체시용 영상으로 변환하는 데 도움이 되는 깊이 정보를 생성한다. 또한, 스케일 정보, 함수 지정 정보, 테이블 지정 정보 등의 기타 부속 정보도 생성하고, 이들을 수신측 장치(2)에 송신한다. 수신측 장치(2)는, 영상 데이터, 깊이 정보, 및 상기 다른 부속 정보를 수신하고, 이들 정보에 기초하여 시차 영상을 생성하여 관찰자에게 입체시를 행하게 한다.
영상 데이터, 깊이 정보, 뎁스 맵, 뎁스값, 시차량, 2차원 영상, 스케일 정보

Description

입체시용 영상 제공 방법 및 입체 영상 표시 장치{THREE-DIMENSIONAL VIDEO PROVIDING METHOD AND THREE-DIMENSIONAL VIDEO DISPLAY DEVICE}
본 발명은, 입체시용 영상 제공 방법 및 입체 영상 표시 장치에 관한 것이다.
종래 기술로서는, 2차원 영상 신호로부터 추출한 깊이 정보와 2차원 영상 신호에 기초하여 입체 영상을 생성하는 입체 영상 수신 장치 및 입체 영상 시스템이 제안되어 있다(일본 특개2000-78611호 공보 참조).
상기 종래 기술에 따르면, 상기 깊이 정보에 의해 실사의 2차원 영상 등으로부터 시차 정보를 갖게 한 입체시용 영상을 생성할 수 있다. 그러나, 상기 종래 기술에서는, 다양한 입체 영상 표시를 가능하게 하거나, 송신하는 정보량을 적게 하는 것에 대해서는 실현되어 있지 않다.
<발명의 개시>
본 발명은, 상기의 사정을 감안하여 이루어진 것으로, 다양한 입체 영상 표시를 가능하게 하거나, 송신하는 정보량을 적게 할 수 있는 입체시용 영상 제공 방법 및 입체 영상 표시 장치를 제공하는 것을 목적으로 한다.
본 발명의 입체시용 영상 제공 방법은, 상기의 과제를 해결하기 위해, 2차원 영상을 데이터로서 제공할 때에 상기 2차원 영상의 데이터를 입체시용 영상으로 변환하는 데 도움이 되는 깊이 정보와 이 깊이 정보의 스케일 정보를 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하는 것을 특징으로 한다.
상기의 구성이면, 스케일 정보가 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공되기 때문에, 광협 다양한 깊이를 갖는 입체시용 영상을 피제공측에서 작성시키는 것이 가능하게 된다.
또한, 본 발명의 입체시용 영상 제공 방법은, 2차원 영상을 데이터로서 제공할 때에 상기 2차원 영상의 데이터를 입체시용 영상으로 변환하는 데 도움이 되는 깊이 정보와 이 깊이 정보의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차에 대하여 비등간격으로 하기 위한 정의 정보를 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하는 것을 특징으로 한다.
상기의 구성이면, 깊이 상의 임의의 위치에 원하는 분해능을 설정한다고 하는 것 등이 가능하게 되어, 다양한 입체 영상 표시를 가능하게 할 수 있다. 상기 정의 정보는, 함수군으로부터 임의의 함수를 지정하는 정보로 해도 된다. 그리고, 상기 깊이 정보의 값 중에서 어느 값이 화상 표시면 위치로 되는지를 나타내는 정보를 상기 부속 정보에 포함시키는 것으로 해도 된다. 혹은, 상기 정의 정보는, 깊이 정보의 값에 대하여 시차량이 사전에 설정되어 있는 테이블군으로부터 임의의 테이블을 지정하는 정보로 해도 된다. 또한, 상기 비등간격의 대간격으로 되는 영역을 관찰자로부터 먼 위치에 형성하고, 소간격으로 되는 영역을 관찰자에 가까운 위치에 형성하도록 상기 정의 정보를 설정해도 된다. 또한, 상기 비등간격의 대간격으로 되는 영역을 화상 표시면 위치로부터 먼 위치에 형성하고, 소간격으로 되는 영역을 화상 표시면 위치에 가까운 위치에 형성하도록 상기 정의 정보를 설정해도 된다.
또한, 본 발명의 입체시용 영상 제공 방법은, 2차원 영상을 데이터로서 제공할 때에, 상기 2차원 영상의 화면 영역에 따라 서로 다른 비트 수로 표시된 깊이 정보를 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하는 것을 특징으로 한다.
상기의 구성이면, 2차원 영상의 화면 전체에 걸쳐 일률적인 비트 수를 설정하는 경우에 비해, 제공하는 깊이 정보량을 삭감하면서 피제공측에서의 양질의 입체시용 영상의 생성을 가능하게 할 수 있다. 상기 2차원 영상의 중앙측에 비해 주변측에서는 상기 깊이 정보의 비트 수를 적게 하는 것으로 해도 된다. 또한, 화면의 어느 영역에서는 몇 비트로 깊이 정보가 표시되어 있는지를 나타내는 정보를 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하는 것으로 해도 된다. 또한, 각 화소마다 몇 비트로 깊이 정보가 표시되어 있는지를 나타내는 정보를 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하는 것으로 해도 된다.
또한, 본 발명의 입체시용 영상 제공 방법은, 2차원 영상을 데이터로서 제공할 때에, 상기 2차원 영상의 복수 화소에 대해 공통의 값의 깊이 정보를 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하는 것을 특징으로 한다.
상기의 구성이면, 2차원 영상의 모든 화소에 대하여 개개의 깊이 정보를 설정하는 경우에 비해, 제공하는 깊이 정보량을 삭감하면서 피제공측에서의 양질의 입체시용 영상의 생성을 가능하게 할 수 있다. 상기 2차원 영상의 중앙측에 비해 주변측에서는 상기 공통의 값의 깊이 정보가 제공되는 화소 수를 많게 해도 된다.
또한, 본 발명의 입체시용 영상 제공 방법은, 2차원 영상을 데이터로서 제공할 때에, 상기 2차원 영상 중의 각 오브젝트에 대하여 제공된 제1 깊이 정보와 각 오브젝트를 구성하는 화소에 대하여 제공된 제2 깊이 정보를 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하는 것을 특징으로 한다.
상기의 구성이면, 2차원 영상 중의 각 오브젝트에 대한 깊이를 제1 깊이 정보로써 제공하고, 각 오브젝트를 구성하는 화소의 깊이를 제2 깊이 정보로써 제공할 수 있기 때문에, 2차원 영상의 모든 화소에 대하여 개개의 깊이 정보를 설정하는 경우에 비해, 제공하는 깊이 정보량을 삭감하면서 피제공측에서의 양질의 입체시용 영상의 생성을 가능하게 할 수 있다.
또한, 본 발명의 입체시용 영상 제공 방법은, 2차원 영상을 데이터로서 제공할 때에, 상기 2차원 영상 중의 각 오브젝트에 대하여 제공된 깊이 정보와 각 오브젝트의 형상 정보를 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하는 것을 특징으로 한다.
상기의 구성이면, 2차원 영상 중의 각 오브젝트에 대한 깊이를 깊이 정보로써 제공하고, 또한 그 형상 정보를 제공함으로써 피제공측에서 보유하는 형상마다의 깊이값 테이블을 이용하여 각 오브젝트를 구성하는 화소의 깊이가 얻어지게 되 어, 2차원 영상의 모든 화소에 대하여 개개의 깊이 정보를 설정하는 경우에 비해, 제공하는 깊이 정보량을 삭감하면서 피제공측에서의 양질의 입체시용 영상의 생성을 가능하게 할 수 있다.
이들 입체시용 영상 제공 방법에서, 정보의 제공을, 방송, 통신, 기록 매체에의 기록 중 어느 하나에 의해 행하는 것으로 해도 된다.
또한, 본 발명의 입체 영상 표시 장치는, 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에서, 상기 부속 정보로부터 스케일 정보 및 깊이 정보를 취득하는 수단과, 상기 스케일 정보와 상기 깊이 정보에 의해 시차량을 생성하는 수단과, 상기 시차량에 기초하여 입체시용 영상을 생성하는 수단을 구비한 것을 특징으로 한다.
또한, 본 발명의 입체 영상 표시 장치는, 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에서, 상기 부속 정보로부터 깊이 정보 및 함수 지정 정보를 취득하는 수단과, 상기 깊이 정보의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차에 대하여 비등간격으로 하는 복수의 함수를 기억하는 수단과, 상기 함수 지정 정보에 기초하여 함수를 선택하는 수단과, 선택한 함수와 상기 깊이 정보에 의해 시차량을 생성하는 수단과, 상기 시차량에 기초하여 입체시용 영상을 생성하는 수단을 구비한 것을 특징으로 한다.
상기 구성에서, 화상 표시면 위치를 나타내는 정보로써 기준 시차량을 제공하는 깊이값을 판정하도록 구성되어 있어도 된다.
또한, 본 발명의 입체 영상 표시 장치는, 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에서, 상기 부속 정보로부터 깊이 정보 및 테이블 지정 정보를 취득하는 수단과, 상기 깊이 정보의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차에 대하여 비등간격으로 하는 복수의 테이블을 기억하는 수단과, 상기 테이블 지정 정보에 기초하여 테이블을 선택하는 수단과, 선택한 테이블과 상기 깊이 정보에 의해 시차량을 생성하는 수단과, 상기 시차량에 기초하여 입체시용 영상을 생성하는 수단을 구비한 것을 특징으로 한다.
또한, 본 발명의 입체 영상 표시 장치는, 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에서, 상기 부속 정보로부터 상기 2차원 영상의 화면 영역에 따라 서로 다른 비트 수로 표시된 깊이 정보를 취득한 경우에, 상기 2차원 영상의 화면 영역에서 서로 다른 비트 수로 표시된 깊이 정보를 화면 영역의 각 화소에 적용하여 입체시용 영상을 생성하는 수단을 구비한 것을 특징으로 한다.
또한, 본 발명의 입체 영상 표시 장치는, 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에서, 상기 부속 정보로부터 상기 2차원 영상의 화소 수보다 적은 수의 깊이 정보를 취득한 경우에, 상기 2차원 영상의 복수 화소에 대하여 공통의 값의 상기 깊이 정보를 적용하여 입체시용 영상을 생성하는 수단을 구비한 것을 특징으로 한다.
또한, 본 발명의 입체 영상 표시 장치는, 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에서, 상기 부속 정보로부터 상기 2차원 영상 중의 각 오브젝트에 대하여 제공된 제1 깊이 정보와 각 오브젝트를 구성하는 화소에 대하여 제공된 제2 깊이 정보를 취득하는 수단과, 상기 제1 깊이 정보에 상기 제2 깊이 정보를 가미하여 각 화소의 깊이 정보를 생성하는 수단과, 상기 각 화소의 깊이 정보에 기초하여 입체시용 영상을 생성하는 수단을 구비한 것을 특징으로 한다.
또한, 본 발명의 입체 영상 표시 장치는, 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에서, 상기 부속 정보로부터 상기 2차원 영상 중의 각 오브젝트에 대하여 제공된 깊이 정보와 각 오브젝트의 형상 정보를 취득하는 수단과, 각 형상을 구성하는 화소군의 각 화소에 깊이 정보를 대응시킨 테이블을 기억하는 수단과, 상기 형상 정보에 기초하여 상기 테이블을 선택하는 수단과, 상기 각 오브젝트에 대하여 제공된 깊이 정보에 상기 테이블로부터 얻어진 깊이 정보를 가미하여 각 화소의 깊이 정보를 생성하는 수단과, 상기 각 화소의 깊이 정보에 기초하여 입체시용 영상을 생성하는 수단을 구비한 것을 특징으로 한다.
도 1의 (a), (b), (c)는 본 발명의 실시 형태의 입체시용 영상 제공 방법 및 입체 영상 표시 장치를 도시한 설명도.
도 2는 2차원 영상 및 이것에 부수하는 뎁스 맵을 도시한 설명도.
도 3의 (a), (b)는 분해능과 표현 범위의 관계를 도시한 설명도.
도 4의 (a), (b)는 깊이 정보의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차에 대하여 비등간격으로 하는 것을 도시한 설명도.
도 5의 (a), (b)는 깊이 정보의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차에 대하여 비등간격으로 하는 것을 도시한 설명도.
도 6의 (a), (b)는 깊이 정보의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차에 대하여 비등간격으로 하는 것을 도시한 설명도.
도 7은 깊이 정보를 영상의 주변측에서는 3비트로 하고, 중앙의 50%×50%의 영역은 6비트로 하는 것을 도시한 설명도.
도 8은 깊이 정보를 영상 상의 위치에서 서로 다르게 한 다른 예를 도시한 설명도.
도 9의 (a)는 2차원 영상의 복수 화소에 대해 공통의 값의 깊이 정보를 제공하는 것을 도시한 설명도, 도 9의 (b)는 해당 깊이 정보의 송신 형태를 도시한 설명도.
도 10의 (a), (b), (c), (d)는 깊이 정보의 제공 방법의 다른 예를 도시한 설명도.
도 11은 도 10에서의 구체예를 도시한 설명도.
도 12는 도 10에서의 다른 구체예를 도시한 설명도.
<발명을 실시하기 위한 최량의 형태>
이하, 본 발명의 입체시용 영상 제공 방법 및 입체 영상 표시 장치를 도 1 내지 도 12에 기초하여 설명한다.
도 1에 기초하여 2차원 영상과 뎁스 맵(깊이 정보)에 의한 입체 영상의 생성에 대하여 설명한다. 또한, 이 도면에서는, 방송국이나 인터넷 상의 서버 등으로서 구성되는 송신측 장치(1)와, 방송 수신 장치나 네트 접속 환경을 구비한 퍼스널 컴퓨터나 휴대 전화 등의 수신측 장치(2)로 이루어지는 시스템으로서 설명한다.
도 1의 (a)는 원화상인 2차원 영상(100)을 나타내고 있다. 송신측 장치(1)에서는 2차원 영상(100)에 대하여 화상 분석을 행하여, 도 1의 (b)에 도시한 바와 같이, 배경 영상(101), 산의 영상(102), 나무의 영상(103), 사람의 영상(104)을 추출한다. 이들 추출된 영상이 오브젝트(예를 들면, 엣지 정보)로서 취급된다. 또한, 화소 단위로 깊이값을 제공하여, 뎁스 맵을 생성한다. 또한, 오브젝트 단위로 깊이값을 제공할 수도 있다. 깊이값은 자동적(추정적)으로 제공하도록 해도 되고, 수작업적으로 제공하는 것으로 해도 된다.
이와 같이, 송신측 장치(1)에서는, 영상을 제공(송신, 방송)할 때에, 뎁스 맵을 상기 영상의 부속 정보로서 송신한다. 또한, 이 실시 형태에서는, 그 밖의 부속 정보도 송신한다. 그 밖의 부속 정보에 대해서는 후에 상술한다. 디지털 방송의 경우, 영상 데이터와 각종 부속 정보를 하나의 트랜스포트 스트림에 다중하여 방송할 수 있다. 컴퓨터 네트워크를 이용한 배신에서도, 영상 데이터와 각종 부속 정보를 다중하여 송신할 수 있다.
그런데, 2차원 영상과 뎁스 맵에 의해 입체시용의 영상을 생성하는 경우, 뎁스 맵을 일종의 2차원 영상으로 생각할 수 있기 때문에, 도 2에 도시한 바와 같이, 2차원 영상과 뎁스 맵의 2매의 영상을 제공하면 된다. 따라서, 2안식 입체시에서 L 화상과 R 화상의 2매를 제공하는 것과 마찬가지의 방법을 적용할 수 있다. 단, 2안식 입체시용의 영상이나 다시점용의 영상에서는 각 시점 영상간에서 포맷이 상이하지 않은 것에 대하여, 2차원 영상과 뎁스 맵에 의해 입체시용의 영상을 작성하는 경우, 뎁스 맵은 모노크롬 화상이어도 되고 각 화소에 수비트를 할당한 화상으로 할 수 있다. 따라서, 뎁스 맵의 1화소(2차원 영상의 각 화소에 대응하는 깊이 정보)를 몇 비트로 표현할지를 사전에 규정해 두거나, 혹은, 송신측 장치(1)로부터 1화소의 비트 수를 나타내는 정보를 수신 장치(2)에 제공하게 된다. 또한, 뎁스 맵을 모노크롬 화상으로서 표현하는 경우, 보다 하얗게 되면 근거리 상당값을 나타내는 것인지, 보다 까맣게 되면 근거리 상당값을 나타내는 것인지를 구별하게 되지만, 이에 대해서도 사전에 규정해 두어도 되고, 송신측으로부터 그것을 나타내는 정보를 송신하는 것으로 해도 된다.
[기타 부속 정보]
① 송신측 장치(1)는, 2차원 영상을 데이터로서 제공할 때에 상기 뎁스 맵과 이 뎁스 맵의 값의 스케일 정보를 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 송신한다. 뎁스 맵의 1화소당의 비트 수가 결정된 것으로 하여, 또한 분해능과 절대적인 거리 상당값과의 관계를 나타내는 것이 바람직하다. 도 3은 1화소의 깊이값을 3비트로 나타내는 경우를 예시한 것이다(실제로는 3비트라는 것은 있을 수 없을 것이지만 설명의 편의상, 3비트로 하고 있다). 1화소당 3비트를 할당하는 경우, 8레벨의 뎁스를 표현할 수 있게 되는데, 1개의 단위가 절대적인 거리의 어느 정도에 상당하는지를 나타내기 위해 스케일 정보를 송신하는 것 으로 한다. 도 3의 (a)에서는, 분해능을 100㎜로 하고 있어, 0 내지 800㎜의 넓은 범위를 커버할 수 있다. 또한, 도 3의 (b)에서는, 분해능을 10㎜로 하고 있어, 0 내지 80㎜의 좁은 범위를 커버할 수 있다. 따라서, 스케일 정보를 송신함으로써, 광협 다양한 깊이를 갖는 입체시용 영상을 수신측 장치(2)에서 작성시키는 것이 가능하게 된다.
② 송신측 장치(1)는, 2차원 영상을 데이터로서 제공할 때에 상기 뎁스 맵과 이 뎁스 맵의 값에 의해 나타내어지는 거리 상당값을 해당 뎁스 맵의 값의 등차에 대하여 비등간격으로 하기 위한 정의 정보를 부속 정보로서 상기 2차원 영상의 데이터와 함께 송신한다. 상술한 도 3에서는 등간격으로 깊이(뎁스)를 표현하는 경우를 나타내었지만, 반드시 등간격일 필요는 없다. 깊이의 분해능에 대해서는, 예를 들면 앞쪽은 정밀한 것이 좋지만 먼 쪽은 거칠어도 된다고 생각할 수도 있기 때문에, 1화소당의 비트 수가 한정되어 있는 경우, 비등간격으로 표현한 쪽이 효율적이다라고 하는 케이스도 생각된다. 도 4의 (a)에서는 전방의 분해능을 정밀하게 하는 log형 표현을 나타내고 있다. 도 5를 이용하여 더 상술한다. 도 5에서는, M을 최대 뎁스값(여기서는 7(111))으로 하고, 뎁스값 A를 1 내지 M의 양수로 하며, B=(M-A)/2로 하고, 뎁스값 A와 A-1 사이의 시차 간격을 2의 B승으로 하는 것을 정의하고 있다. 그리고, 도 5의 (a)에서는 관면 위치를 (010)으로 하고, 도 5의 (b)에서는 관면 위치를 (100)으로 하고 있다. 이러한 함수를 이용하는 경우, 관면 위치에 상관없이 전방(관찰자측)의 분해능이 정밀하게 된다.
한편, 도 4의 (b)에 도시한 예에서는, 관면(화상 표시면 위치)에 가까울수록 뎁스의 분해능을 정밀하게 하고, 관면으로부터 멀어짐에 따라 뎁스의 분해능을 거칠게 하고 있다. 도 6을 이용하여 더 상술한다. 도 6에서는, 최대 시차(플러스)와 최소 시차(마이너스)의 차를 22로 하고, 시차 간격이 "1, 1, 2, 2, 4, 4, 8, 8"의 수치의 열을 순서대로 이용하는 것이 규정되는 것으로 한다. 그리고, 도 6의 (a)에서는 관면 위치를 010으로 하고, 도 6의 (b)에서는 관면 위치를 011로 하고 있다. 이와 같이 함으로써, 관면 위치 부근에서의 깊이를 정밀하게 설정할 수 있게 된다.
상술한 바와 같은 비등간격 표현으로 하는 경우, 하나의 비등간격 표현을 고정적으로 송수신간에서 정해 놓는 방법을 채용할 수 있지만, 몇개의 비등간격 표현을 송신측에서 자유롭게 지정할 수 있게 하는 것이 바람직하다. 예를 들면, 2비트의 지정 정보를 송신하는 것으로 하고, 수신측에서는 4개의 함수(상술한 수치 열의 규정을 포함함)를 준비해 둠으로써, 4종류의 비등간격 표현을 실현할 수 있게 된다. 또한, 관면 위치에 대해서도, 하나의 관면 위치를 고정적으로 송수신간에서 정해 놓는 방법(예를 들면, 010을 고정적으로 관면 위치로 하는 등)을 채용할 수 있지만, 임의의 관면 위치를 송신측에서 지정할 수 있게 하는 것이 바람직하다. 이 경우, 010을 관면 위치로 하는 것이면, 관면 위치 정보로서 010을 송신하면 된다.
상술한 바와 같은 함수에 따른 비등간격 표현에 한하지 않고, 테이블을 수신측이 갖는 것으로 해도 된다. 물론, 이러한 테이블을 수신측에서 복수 준비해 놓고, 송신측으로부터 보내어져 오는 테이블 지정 정보에 의해 테이블을 선택하는 것 으로 해도 된다.
③ 송신측 장치(1)는, 2차원 영상을 데이터로서 제공할 때에, 상기 2차원 영상의 화면 영역에 따라 서로 다른 비트 수로 표시된 뎁스 맵을 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 송신할 수도 있다. 이 경우에는, 2차원 영상의 중앙측에 비해 주변측에서는 상기 깊이 정보의 비트 수를 적게 하는 것이 바람직하다. 예를 들면, 도 7에 도시한 바와 같이, 주변은 3비트로 하고, 중앙의 50%×50%의 영역은 6비트로 한다. 하나의 영역 분할 패턴을 고정적으로 송수신간에서 정해 놓은 방법을 채용할 수 있지만, 복수의 영역 분할 패턴을 준비해 놓고, 임의의 패턴을 송신측에서 지정할 수 있게 해도 된다. 혹은, 각 화소의 최초에 몇 비트의 정보인지를 기술하는 것으로 해도 된다. 예를 들면, 0을 3비트, 1을 6비트로 정의하면, 화상 정보는, 화소1(0 000), 화소2(0 000), 화소3(1 000000) …와 같이 기술할 수 있다.
또한, 상기의 영역 분할예에서는 2분할로 하였지만, 이에 한하지 않고, 도 8에 도시한 바와 같이, 3비트 영역, 4비트 영역, 및 6비트 영역의 3영역으로 분할해도 되고, 또한, 영상 내용(오브젝트 배치 상태)이나 신에 따라(시간축 상에서) 분할 영역 패턴을 다르게 하는 것으로 해도 된다. 또한, 도 8에 도시한 바와 같은 인물 화상의 경우, 인물의 얼굴·몸통 등의 구조는 일의적으로 정의 가능하기 때문에, 그것에 대응한 뎁스 맵 테이블을 준비해 놓고, 촬상 대상이 인물일 때에는 그것에 대응한 뎁스 맵 테이블을 선택(오퍼레이터에 의한 선택 혹은, 촬상 대상을 자동 판정하는 것에 의한 선택)함으로써, 도 8의 분할 영역 패턴이 자동 선택되는 구 성으로 할 수 있다.
④ 송신측 장치(1)는, 2차원 영상을 데이터로서 제공할 때에, 상기 2차원 영상의 복수 화소에 대하여 공통의 값의 뎁스 맵을 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 송신한다. 뎁스 맵의 해상도를 2차원 영상과 동일하게 하는 것을 기본으로 해도 되지만, 이에 한하지 않고, 서로 다르게 하는 것도 가능하다. 예를 들면, 2차원 영상의 2×2 화소에 대하여 뎁스 맵의 1화소를 할당한다(뎁스 맵의 해상도는 2D 화상의 1/4로 된다). 또한, 2차원 영상의 중앙측에 비해 주변측에서는 상기 공통의 값의 깊이 정보가 제공되는 화소 수를 많게 하는 것으로 해도 된다. 예를 들면, 도 9의 (a)에 도시한 바와 같이, 주변은 3×3 픽셀로 공통의 깊이 정보를 제공하고, 중앙의 50%×50%의 영역은 2×2 픽셀로 공통의 깊이 정보를 제공한다. 하나의 영역 분할 패턴을 고정적으로 송수신간에서 정해 놓는 방법을 채용할 수 있지만, 복수의 영역 분할 패턴을 준비해 놓고, 임의의 패턴을 송신측에서 지정할 수 있는 것으로 해도 된다. 뎁스 맵(모노크롬 화상)의 송신에서는, 도 9의 (b)에 도시한 바와 같이, 4영역으로 분할하고(영역 V는 상기 중앙의 50%×50%의 영역에 상당함), 각 영역 단위로 순서대로 송신하는 것으로 한다.
⑤ 송신측 장치(1)는, 2차원 영상을 데이터로서 제공할 때에, 상기 2차원 영상 중의 각 오브젝트에 대하여 제공된 제1 뎁스 맵과 각 오브젝트를 구성하는 화소에 대하여 제공된 제2 뎁스 맵을 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 송신한다. 즉, 일단 크게 뎁스 맵에서 오브젝트를 표현하고, 각각의 오브젝트마다 뎁스 맵 정보를 더 세분화하여 할당한다. 도 10은 이러한 방 법의 개념을 도시한 설명도이다. 도 10의 (a)에 도시한 촬상 상태를 상측으로부터 보았을 때의 피사체(오브젝트)의 깊이 상태를 도 10의 (b)에 도시하고 있다. 이 도 10의 (b)의 깊이 상태는 영상으로서 존재하고 있는 것이 아니라, 촬영 시나 편집 시 등에서 정보로서 제공하는 것을 나타내고 있다. 즉, 도 10의 (c)에 도시한 바와 같이, 깊이 상태를 대략적인 레이어로 분할하고, 그 레이어 상에 위치하는 각 오브젝트에 대하여 레이어 정보(제1 뎁스 맵)를 제공한다. 그리고, 개개의 오브젝트의 화소에 대하여 제2 뎁스 맵 정보를 할당한다. 도 11은 영상 송신의 구체예를 나타내고 있다. 이 도 11의 화상 번호1은 원화상으로서 송신되는 것이고, 이것에 화상 번호2의 영상(제1 뎁스 맵)이 부수한다. 또한, 개개의 오브젝트의 제2 뎁스 맵 정보인 영상(화상 번호3, 화상 번호4, 화상 번호5)이 부수한다. 즉, 화상 번호1부터 화상 번호5의 영상이 송신측으로부터 송신되며, 수신측에서는 이들 5개의 영상을 이용하여 하나의 영상을 합성한다. 또한, 이 예에서는, 각 오브젝트의 제2 뎁스 맵 정보를 동일한 비트 수로 하는 것이 아니라, 사람은 8비트, 나무는 4비트와 같이 서로 다르게 하는 것으로 하고 있다.
⑥ 송신측 장치(1)는, 2차원 영상을 데이터로서 제공할 때에, 상기 2차원 영상 중의 각 오브젝트에 대하여 제공된 뎁스 맵과 각 오브젝트의 형상 정보를 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 송신한다. 도 12는 이러한 영상 송신의 구체예를 도시하고 있다. 이 도 12의 화상 번호1은 원화상으로서 송신되는 것이고, 이것에 화상 번호2의 모노크롬 영상(뎁스 맵)이 부수한다. 또한, 개개의 오브젝트의 구성 요소의 형상 정보 등이 부수한다. 이 형상 정보 등 은, 예를 들면, 오브젝트 번호(예를 들면, 사람, 나무 중 어느 것인지를 나타내는 정보), 구성 요소 번호(예를 들면, 사람의 두부, 동체, 다리 등의 구성 요소를 나타내는 정보), 형상 정보(상기 구성 요소가 구인지, 원주인지, 원추인지 등을 나타내는 정보), 구성 요소간의 배치 정보(예를 들면, 나무에서 삼각추구의 아래에 원주가 위치하는 등의 정보) 등으로 이루어진다. 형상을 특정할 수 없는 산에 대해서는, 모노크롬 영상(뎁스 맵)으로서 송신한다. 수신측에서는 이들 정보를 이용하여 하나의 영상을 합성한다.
[수신측 장치]
도 1의 (c)에 도시한 바와 같이, 수신측 장치(2)는, 영상 데이터, 뎁스 맵, 기타 부속 정보를 수신한다. 이들 데이터가 멀티플렉스되어 있는 것이면 디멀티플렉스(DEMUX) 처리를 행한다. 영상 데이터에 대한 디코드 처리는, 기본적으로는 예를 들면 MPEG에 기초한 처리 등이 채용된다. 그리고, 수신측 장치(2)에서는, 영상 데이터 및 뎁스 맵 등에 기초하여 시차를 제공한 우안 영상(105R) 및 좌안 영상(105L)을 생성한다. 따라서, 수신측 장치(2)에는, 데이터를 수신하기 위한 수신부(21)(모뎀, 튜너 등), 디멀티플렉서(22)(DEMUX), 디코드부(23), 2차원 영상의 데이터 및 뎁스 맵 등에 기초하여 시차 영상을 생성하는 영상 생성부(24), 모니터(25) 등이 구비된다.
수신측 장치(2)는, 예를 들면 모니터 앞 위치에 액정 배리어를 구비함으로써, 평면시 영상의 표시 및 입체시 영상의 표시의 양방을 행할 수 있도록 되어 있다. 입체시 영상이, 예를 들면, 우안 영상과 좌안 영상을 교대로 세로 스트라이프 형상으로 배치한 것이면, CPU(26)의 제어에 의해, 액정 배리어에서, 세로 스트라이프 형상의 차광 영역이 형성된다. 또한, 우안 영상과 좌안 영상을 교대로 세로 스트라이프 형상으로 배치한 입체시 영상에 한하지 않고, 예를 들면, 우안 영상과 좌안 영상을 경사 배치한 입체시 영상으로 해도 되며(일본 특허 제3096613호 공보 참조), 이 경우에는, 액정 배리어에서 경사 배리어를 형성한다.
수신측 장치(2)의 CPU(26)는, 상술한 기타 부속 정보를 디멀티플렉서(22)로부터 수취하여, 해당 부속 정보에 기초한 영상 표시 제어 처리를 실행한다. 이하, 이 영상 표시 제어 처리에 대하여 설명한다.
수신측 장치(2)의 CPU(26)는, 부속 정보로서 스케일 정보를 취득하면, 이 스케일 정보와 뎁스 맵에 의해 시차량(화소 변이량)을 결정한다. 즉, 임의의 화소에 대해 A라는 값의 뎁스값이 설정되어 있었다고 해도, 스케일 정보가 B인 경우와 C인 경우에서는(B≠C), 시차 영상에서의 화소 변이량이 달라지게 된다. CPU(26)는 시차량 정보를 영상 생성부(24)에 제공하고, 영상 생성부(24)가 시차량 정보에 기초하여 시차 영상을 생성한다.
수신측 장치(2)의 CPU(26)는, 부속 정보로서 함수 지정 정보를 취득하면, 이 함수 지정 정보에 기초하여 함수를 선택한다. 메모리(27)에는 뎁스 맵의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차에 대하여 비등간격으로 하는 복수의 함수(정의)가 기억되어 있다. CPU(26)는, 선택한 함수와 수신한 뎁스값에 기초하여 시차량(화소 변이량)을 산출한다. 여기서, 도 5의 (a)를 이용하여 구체적으로 설명한다. 수신측 장치(2)는, B=(M-A)/2의 연산 및 2의 B승의 연 산에 의해, 뎁스값 A와 A-1 사이의 시차 간격을 얻는다. 또한, 시차 간격 자체는 뎁스값을 나타내는 비트 수에 의해 결정할 수 있기 때문에, 시차 간격 자체는 비트 수에 대응시켜 상기 메모리(27)에 저장해 놓고, 이것을 판독하는 것으로 해도 된다. 관면 위치는 010의 뎁스값으로 되어 있는 개소이다. 수신한 뎁스값이 101일 때에는, 101은 010보다 3단위분 크기 때문에, 4+2+2의 연산에 의해 시차량 8을 얻게 된다. CPU(26)는 시차량 정보를 영상 생성부(24)에 제공하고, 영상 생성부(24)가 시차량 정보에 기초하여 시차 영상을 생성한다.
수신측 장치(2)의 CPU(26)는, 부속 정보로서 테이블 지정 정보를 취득하면, 이 테이블 지정 정보에 기초하여 테이블을 선택한다. 메모리(27)에는 뎁스값과 시차량을 대응시킨 복수의 테이블이 기억되어 있다. 테이블의 내용은 상기 도 5의 (a)를 예로 하면, 000=-12, 001=-4, 010=0, …과 같이 정해진 테이블로 된다. CPU(26)는 예를 들면 수신한 뎁스값을 어드레스로서 상기 테이블에 제공하여 해당 테이블로부터 시차량 정보를 판독하고, 이 시차량 정보를 영상 생성부(24)에 제공하여, 영상 생성부(24)가 시차량 정보에 기초하여 시차 영상을 생성한다.
수신측 장치(2)는, 도 5의 (a), (b)에 도시한 설정에 따를 때에는, 비등간격의 대간격으로 되는 영역을 관찰자로부터 먼 위치에 형성하고, 소간격으로 되는 영역을 관찰자에 가까운 위치에 형성하는 것에 상당한 시차 영상을 생성하게 된다. 또한, 수신측 장치(2)는, 도 5의 (a), (b)에 도시한 설정에 따를 때에는, 비등간격의 대간격으로 되는 영역을 화상 표시면 위치로부터 먼 위치에 형성하고, 소간격으로 되는 영역을 화상 표시면 위치에 가까운 위치에 형성하는 것에 상당한 시차 영 상을 생성하게 된다.
수신측 장치(2)는, 2차원 영상의 화면 영역에 따라 서로 다른 비트 수로 표시된 뎁스 맵을 취득한 경우에, 상기 2차원 영상의 화면 영역에서 서로 다른 비트 수로 표시된 뎁스 맵을 각 화소에 적용하여 입체시용 영상을 생성한다. 예를 들면, 도 7에 도시한 바와 같이, 주변은 3비트로 하고, 중앙의 50%×50%의 영역은 6비트로 하는 패턴을 선택하고 있는 것을 나타내는 정보를 송신측으로부터 받은 경우, 이 정보에 의해 특정되는 패턴으로부터 CPU(26)가 각 뎁스값의 비트 수를 판단한다. 또한, 각 뎁스값(화소)의 최초에 몇 비트의 정보인지가 기술되어 있는 경우에는, 그 기술에 의해 각 뎁스값의 비트 수를 판단할 수 있다.
수신측 장치(2)는, 2차원 영상의 화소 수보다 적은 수의 깊이 정보를 취득한 경우에, 상기 2차원 영상의 복수 화소에 대하여 공통의 값의 상기 깊이 정보를 적용하여 입체시용 영상을 생성한다. 예를 들면, 도 9의 (a)에 도시한 바와 같이, 주변은 3×3 픽셀로 공통의 깊이 정보를 제공하고, 중앙의 50%×50%의 영역은 2×2 픽셀로 공통의 깊이 정보를 제공하는 패턴을 선택하고 있는 것을 나타내는 정보를 송신측으로부터 받은 경우, 이 정보에 의해 특정되는 패턴으로부터, 어느 화소가 그룹화되어 공통의 깊이 정보가 제공되어 있는지를 CPU(26)가 판단한다. 그리고, 예를 들면, 2차원 영상에서의 제1 행의 좌측으로부터 3화소분, 제2 행의 좌측으로부터 3화소분, 제3 행의 좌측으로부터 3화소분의 합계 9화소분에 대한 시차 영상 생성 처리가 영상 생성부(24)에서 행해질 때에는, CPU(26)로부터 제공된 공통의(하나의) 시차량이 이용되게 된다.
수신측 장치(2)는, 2차원 영상 중의 각 오브젝트에 대하여 제공된 제1 깊이 정보와 각 오브젝트를 구성하는 화소에 대하여 제공된 제2 깊이 정보를 취득하고, 제1 깊이 정보에 상기 제2 깊이 정보를 가미하여 각 화소의 깊이 정보를 생성하며, 상기 각 화소의 깊이 정보에 기초하여 입체시용 영상을 생성한다. 예를 들면, 도 11에 도시한 바와 같이, 수신측 장치(2)는, 송신측으로부터 송신된 화상 번호1부터 화상 번호5의 영상을 수신하고, CPU(26)는, 화상 번호2에 의한 각 오브젝트의 2비트의 뎁스 맵과, 화상 번호3부터 화상 번호5에 의한 각 오브젝트의 구성 화소의 뎁스 맵에 의해, 각 화소의 시차량 정보를 생성한다. CPU(26)는 시차량 정보를 영상 생성부(24)에 제공하고, 영상 생성부(24)가 시차량 정보에 기초하여 시차 영상을 생성한다.
수신측 장치(2)는, 그 메모리(27)에서, 각 형상(구, 원주, 삼각추 등)을 구성하는 화소군의 각 화소에 깊이 정보를 대응시킨 뎁스 테이블을 기억하고 있다. 그리고, 부속 정보로서 각 오브젝트의 형상 정보를 취득하였을 때에는, 그 형상에 대응한 뎁스 테이블을 선택하여 깊이 정보를 판독한다. 이 깊이 정보(모노크롬 영상)에 대하여 소위 화소 보완이나 화소 씨닝 처리에 상당하는 처리를 행함으로써, 오브젝트의 크기에 뎁스 맵을 대응시킬 수 있다. CPU(26)는, 각 오브젝트에 대하여 제공된 깊이 정보에 상기 테이블로부터 얻어진 깊이 정보를 가미하여 각 화소의 시차량 정보를 생성한다. CPU(26)는 시차량 정보를 영상 생성부(24)에 제공하고, 영상 생성부(24)가 시차량 정보에 기초하여 시차 영상을 생성한다.
이상 설명한 바와 같이, 본 발명에 따르면, 다양한 입체 영상 표시가 가능하 게 된다. 또한, 제공하는 정보량을 삭감할 수 있다고 하는 효과를 발휘한다.

Claims (24)

  1. 삭제
  2. 삭제
  3. 2차원 영상을 데이터로서 제공할 때에 상기 2차원 영상의 데이터를 입체시용 영상으로 변환하는 데 도움이 되는 깊이 정보와 이 깊이 정보의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차(等差)에 대하여 비등간격(非等間隔)으로 하기 위한 정의 정보(定義情報)를 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하고,
    정보의 제공을, 방송, 통신, 기록 매체에의 기록 중 어느 하나에 의해 행하며,
    상기 정의 정보는, 깊이 정보의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차에 대하여 비등간격으로 하는 함수군으로부터 임의의 함수를 지정하는 정보인 것을 특징으로 하는 입체시용 영상 제공 방법.
  4. 제3항에 있어서,
    상기 깊이 정보의 값 중에서 어느 값이 화상 표시면 위치로 되는지를 나타내는 정보를 부속 정보에 포함시키는 것을 특징으로 하는 입체시용 영상 제공 방법.
  5. 2차원 영상을 데이터로서 제공할 때에 상기 2차원 영상의 데이터를 입체시용 영상으로 변환하는 데 도움이 되는 깊이 정보와 이 깊이 정보의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차(等差)에 대하여 비등간격(非等間隔)으로 하기 위한 정의 정보(定義情報)를 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하고,
    정보의 제공을, 방송, 통신, 기록 매체에의 기록 중 어느 하나에 의해 행하며,
    상기 정의 정보는, 깊이 정보의 값에 대하여 시차량이 사전에 설정되어 있는 테이블군으로부터 임의의 테이블을 지정하는 정보인 것을 특징으로 하는 입체시용 영상 제공 방법.
  6. 제3항 내지 제5항 중 어느 한 항에 있어서,
    상기 비등간격의 대간격으로 되는 영역을 관찰자로부터 먼 위치에 형성하고, 소간격으로 되는 영역을 관찰자에 가까운 위치에 형성하도록 상기 정의 정보를 설정하는 것을 특징으로 하는 입체시용 영상 제공 방법.
  7. 제3항 내지 제5항 중 어느 한 항에 있어서,
    상기 비등간격의 대간격으로 되는 영역을 화상 표시면 위치로부터 먼 위치에 형성하고, 소간격으로 되는 영역을 화상 표시면 위치에 가까운 위치에 형성하도록 상기 정의 정보를 설정하는 것을 특징으로 하는 입체시용 영상 제공 방법.
  8. 삭제
  9. 2차원 영상을 데이터로서 제공할 때에, 상기 2차원 영상의 화면 영역에 따라 서로 다른 비트 수로 표시된 깊이 정보를 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하고,
    정보의 제공을, 방송, 통신, 기록 매체에의 기록 중 어느 하나에 의해 행하며,
    상기 2차원 영상의 중앙측에 비해 주변측에서는 상기 깊이 정보의 비트 수를 적게 하는 것을 특징으로 하는 입체시용 영상 제공 방법.
  10. 제9항에 있어서,
    화면의 어느 영역에서는 몇 비트로 깊이 정보가 표시되어 있는지를 나타내는 정보를 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하는 것을 특징으로 하는 입체시용 영상 제공 방법.
  11. 제9항에 있어서,
    각 화소마다 몇 비트로 깊이 정보가 표시되어 있는지를 나타내는 정보를 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하는 것을 특징으로 하는 입체시용 영상 제공 방법.
  12. 삭제
  13. 2차원 영상을 데이터로서 제공할 때에, 상기 2차원 영상의 복수 화소에 대하여 공통의 값의 깊이 정보를 상기 2차원 영상의 부속 정보로서 상기 2차원 영상의 데이터와 함께 제공하며, 상기 2차원 영상의 중앙측에 비해 주변측에서는 상기 공통의 값의 깊이 정보가 제공되는 화소 수를 많게 하는 것을 특징으로 하는 입체시용 영상 제공 방법.
  14. 삭제
  15. 삭제
  16. 제13항에 있어서,
    정보의 제공을, 방송, 통신, 기록 매체에의 기록 중 어느 하나에 의해 행하는 것을 특징으로 하는 입체시용 영상 제공 방법.
  17. 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에 있어서,
    상기 부속 정보로부터 스케일 정보 및 깊이 정보를 취득하는 수단과,
    상기 스케일 정보와 상기 깊이 정보에 의해 시차량을 생성하는 수단과,
    상기 시차량에 기초하여 입체시용 영상을 생성하는 수단
    을 구비한 것을 특징으로 하는 입체 영상 표시 장치.
  18. 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에 있어서,
    상기 부속 정보로부터 깊이 정보 및 함수 지정 정보를 취득하는 수단과,
    상기 깊이 정보의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차에 대하여 비등간격으로 하는 복수의 함수를 기억하는 수단과,
    상기 함수 지정 정보에 기초하여 함수를 선택하는 수단과,
    선택한 함수와 상기 깊이 정보에 의해 시차량을 생성하는 수단과,
    상기 시차량에 기초하여 입체시용 영상을 생성하는 수단
    을 구비한 것을 특징으로 하는 입체 영상 표시 장치.
  19. 제18항에 있어서,
    화상 표시면 위치를 나타내는 정보로써 기준 시차량을 제공하는 깊이값을 판정하도록 구성된 것을 특징으로 하는 입체 영상 표시 장치.
  20. 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에 있어서,
    상기 부속 정보로부터 깊이 정보 및 테이블 지정 정보를 취득하는 수단과,
    상기 깊이 정보의 값에 의해 나타내어지는 거리 상당값을 상기 깊이 정보의 값의 등차에 대하여 비등간격으로 하는 복수의 테이블을 기억하는 수단과,
    상기 테이블 지정 정보에 기초하여 테이블을 선택하는 수단과,
    선택한 테이블과 상기 깊이 정보에 의해 시차량을 생성하는 수단과,
    상기 시차량을 이용하여 입체시용 영상을 생성하는 수단
    을 구비한 것을 특징으로 하는 입체 영상 표시 장치.
  21. 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에 있어서,
    상기 부속 정보로부터 상기 2차원 영상의 화면 영역에 따라 서로 다른 비트 수로 표시된 깊이 정보를 취득한 경우에, 상기 2차원 영상의 화면 영역에서 서로 다른 비트 수로 표시된 깊이 정보를 화면 영역의 각 화소에 적용하여 입체시용 영상을 생성하는 수단을 구비한 것을 특징으로 하는 입체 영상 표시 장치.
  22. 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에 있어서,
    상기 부속 정보로부터 상기 2차원 영상의 화소 수보다 적은 수의 깊이 정보를 취득한 경우에, 상기 2차원 영상의 복수 화소에 대하여 공통의 값의 상기 깊이 정보를 적용하여 입체시용 영상을 생성하는 수단을 구비한 것을 특징으로 하는 입 체 영상 표시 장치.
  23. 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에 있어서,
    상기 부속 정보로부터 상기 2차원 영상 중의 각 오브젝트에 대하여 제공된 제1 깊이 정보와 각 오브젝트를 구성하는 화소에 대하여 제공된 제2 깊이 정보를 취득하는 수단과,
    상기 제1 깊이 정보에 상기 제2 깊이 정보를 가미하여 각 화소의 깊이 정보를 생성하는 수단과,
    상기 각 화소의 깊이 정보에 기초하여 입체시용 영상을 생성하는 수단
    을 구비한 것을 특징으로 하는 입체 영상 표시 장치.
  24. 취득한 2차원 영상 데이터 및 그 부속 정보를 이용하여 입체시용 영상을 생성하는 입체 영상 표시 장치에 있어서,
    상기 부속 정보로부터 상기 2차원 영상 중의 각 오브젝트에 대하여 제공된 깊이 정보와 각 오브젝트의 형상 정보를 취득하는 수단과,
    각 형상을 구성하는 화소군의 각 화소에 깊이 정보를 대응시킨 테이블을 기억하는 수단과,
    상기 형상 정보에 기초하여 상기 테이블을 선택하는 수단과,
    상기 각 오브젝트에 대하여 제공된 깊이 정보에 상기 테이블에서 얻어진 깊 이 정보를 가미하여 각 화소의 깊이 정보를 생성하는 수단과,
    상기 각 화소의 깊이 정보에 기초하여 입체시용 영상을 생성하는 수단
    을 구비한 것을 특징으로 하는 입체 영상 표시 장치.
KR1020057013297A 2003-01-20 2005-07-19 입체시용 영상 제공 방법 및 입체 영상 표시 장치 KR100905371B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2003-00010804 2003-01-20
JP2003010804 2003-01-20

Publications (2)

Publication Number Publication Date
KR20050092122A KR20050092122A (ko) 2005-09-20
KR100905371B1 true KR100905371B1 (ko) 2009-07-01

Family

ID=32844080

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057013297A KR100905371B1 (ko) 2003-01-20 2005-07-19 입체시용 영상 제공 방법 및 입체 영상 표시 장치

Country Status (6)

Country Link
US (1) US7403201B2 (ko)
EP (1) EP1587329B1 (ko)
JP (1) JP4188968B2 (ko)
KR (1) KR100905371B1 (ko)
CN (1) CN100551083C (ko)
WO (1) WO2004071102A1 (ko)

Families Citing this family (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0329312D0 (en) * 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
KR100579135B1 (ko) * 2004-11-11 2006-05-12 한국전자통신연구원 수렴형 3차원 다시점 영상 획득 방법
US8270768B2 (en) * 2005-01-12 2012-09-18 Koninklijke Philips Electronics N. V. Depth perception
JP4283785B2 (ja) * 2005-05-10 2009-06-24 株式会社マーキュリーシステム 立体視画像生成装置およびプログラム
JP4645356B2 (ja) * 2005-08-16 2011-03-09 ソニー株式会社 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置
JP4463215B2 (ja) * 2006-01-30 2010-05-19 日本電気株式会社 立体化処理装置及び立体情報端末
KR101345364B1 (ko) * 2006-02-27 2013-12-30 코닌클리케 필립스 엔.브이. 출력 영상 렌더링
KR100763753B1 (ko) * 2006-09-21 2007-10-04 에스케이 텔레콤주식회사 통신망 기반의 3차원 입체방송 서비스 시스템 및 방법
JP2010510558A (ja) * 2006-10-11 2010-04-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 三次元グラフィックスのデータの作成
US8358301B2 (en) * 2006-10-30 2013-01-22 Koninklijke Philips Electronics N.V. Video depth map alignment
US8496575B2 (en) * 2006-11-14 2013-07-30 Olympus Corporation Measuring endoscope apparatus, program and recording medium
KR100913397B1 (ko) * 2006-12-04 2009-08-21 한국전자통신연구원 Dmb기반의 3차원 입체영상 서비스를 위한 객체 기술방법과, 그에 따른 3차원 입체영상 서비스 수신 및 영상포맷 변환 방법
JP2008141666A (ja) * 2006-12-05 2008-06-19 Fujifilm Corp 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法
KR100905723B1 (ko) * 2006-12-08 2009-07-01 한국전자통신연구원 비실시간 기반의 디지털 실감방송 송수신 시스템 및 그방법
WO2009034519A1 (en) * 2007-09-13 2009-03-19 Koninklijke Philips Electronics N.V. Generation of a signal
JP2009135686A (ja) 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
JP2009162748A (ja) * 2007-12-10 2009-07-23 Fujifilm Corp 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム
JP2009163717A (ja) * 2007-12-10 2009-07-23 Fujifilm Corp 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム
US20090148038A1 (en) * 2007-12-10 2009-06-11 Youichi Sawachi Distance image processing apparatus and method
JP4998956B2 (ja) * 2007-12-10 2012-08-15 富士フイルム株式会社 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム
JP5147650B2 (ja) * 2007-12-10 2013-02-20 富士フイルム株式会社 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム
KR101367282B1 (ko) * 2007-12-21 2014-03-12 삼성전자주식회사 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치
WO2009147581A1 (en) * 2008-06-02 2009-12-10 Koninklijke Philips Electronics N.V. Video signal with depth information
JP2010028456A (ja) * 2008-07-18 2010-02-04 Sony Corp データ構造、再生装置および方法、並びにプログラム
BRPI0911016B1 (pt) 2008-07-24 2021-01-05 Koninklijke Philips N.V. método de provisão de um sinal de imagem tridimensional, sistema de provisão de sinal de imagem tridimensional, sinal que contém uma imagem tridimensional, mídia de armazenamento, método de renderização de uma imagem tridimensional, sistema de renderização de imagem tridimensional para renderizar uma imagem tridimensional
JP5544361B2 (ja) * 2008-08-26 2014-07-09 コーニンクレッカ フィリップス エヌ ヴェ 三次元ビデオ信号を符号化するための方法及びシステム、三次元ビデオ信号を符号化するための符号器、三次元ビデオ信号を復号するための方法及びシステム、三次元ビデオ信号を復号するための復号器、およびコンピュータ・プログラム
CN101754042B (zh) * 2008-10-30 2012-07-11 华为终端有限公司 图像重构方法和图像重构系统
EP2332340B1 (en) * 2008-10-10 2015-12-23 Koninklijke Philips N.V. A method of processing parallax information comprised in a signal
GB2464521A (en) * 2008-10-20 2010-04-21 Sharp Kk Processing image data for multiple view displays
KR101502365B1 (ko) 2008-11-06 2015-03-13 삼성전자주식회사 삼차원 영상 생성기 및 그 제어 방법
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
CN102232294B (zh) 2008-12-01 2014-12-10 图象公司 用于呈现具有内容自适应信息的三维动态影像的方法和系统
EP2194504A1 (en) * 2008-12-02 2010-06-09 Koninklijke Philips Electronics N.V. Generation of a depth map
EP2197217A1 (en) * 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format
CN101765020B (zh) * 2008-12-23 2013-10-23 康佳集团股份有限公司 一种可感应立体图像的电视机
JP5627860B2 (ja) 2009-04-27 2014-11-19 三菱電機株式会社 立体映像配信システム、立体映像配信方法、立体映像配信装置、立体映像視聴システム、立体映像視聴方法、立体映像視聴装置
JP5274359B2 (ja) * 2009-04-27 2013-08-28 三菱電機株式会社 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
JP5369952B2 (ja) * 2009-07-10 2013-12-18 ソニー株式会社 情報処理装置および情報処理方法
US9294751B2 (en) 2009-09-09 2016-03-22 Mattel, Inc. Method and system for disparity adjustment during stereoscopic zoom
US8614737B2 (en) 2009-09-11 2013-12-24 Disney Enterprises, Inc. System and method for three-dimensional video capture workflow for dynamic rendering
JP4966431B2 (ja) * 2009-09-18 2012-07-04 株式会社東芝 画像処理装置
WO2011033668A1 (ja) * 2009-09-18 2011-03-24 株式会社 東芝 視差画像生成装置
US8884948B2 (en) * 2009-09-30 2014-11-11 Disney Enterprises, Inc. Method and system for creating depth and volume in a 2-D planar image
US9167226B2 (en) 2009-10-02 2015-10-20 Koninklijke Philips N.V. Selecting viewpoints for generating additional views in 3D video
JP5521913B2 (ja) * 2009-10-28 2014-06-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2011120233A (ja) * 2009-11-09 2011-06-16 Panasonic Corp 3d映像特殊効果装置、3d映像特殊効果方法、および、3d映像特殊効果プログラム
EP2323412A1 (en) * 2009-11-13 2011-05-18 Koninklijke Philips Electronics N.V. Generating an image signal
US8638329B2 (en) * 2009-12-09 2014-01-28 Deluxe 3D Llc Auto-stereoscopic interpolation
US8538135B2 (en) 2009-12-09 2013-09-17 Deluxe 3D Llc Pulling keys from color segmented images
US20110169818A1 (en) * 2010-01-13 2011-07-14 Sharp Laboratories Of America, Inc. Reducing viewing discomfort
JP5505881B2 (ja) * 2010-02-02 2014-05-28 学校法人早稲田大学 立体映像制作装置およびプログラム
KR101669486B1 (ko) * 2010-02-12 2016-10-26 엘지전자 주식회사 영상표시장치 및 그 동작방법
GB2477793A (en) 2010-02-15 2011-08-17 Sony Corp A method of creating a stereoscopic image in a client device
JP5660361B2 (ja) * 2010-03-26 2015-01-28 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4860763B2 (ja) * 2010-03-29 2012-01-25 シャープ株式会社 画像符号化装置、画像符号化装置の制御方法、制御プログラムおよび記録媒体
JP5227993B2 (ja) * 2010-03-31 2013-07-03 株式会社東芝 視差画像生成装置、及びその方法
JP2011223481A (ja) * 2010-04-14 2011-11-04 Sony Corp データ構造、画像処理装置、画像処理方法、およびプログラム
WO2011155212A1 (ja) * 2010-06-11 2011-12-15 富士フイルム株式会社 立体画像表示装置、立体撮像装置、及び方法
JP4806088B1 (ja) * 2010-06-28 2011-11-02 シャープ株式会社 画像変換装置、画像変換装置の制御方法、画像変換装置制御プログラムおよび記録媒体
CN101917643B (zh) * 2010-07-09 2012-05-30 清华大学 一种全自动2d转3d技术中的实时镜头检测方法和装置
US8446461B2 (en) * 2010-07-23 2013-05-21 Superd Co. Ltd. Three-dimensional (3D) display method and system
KR20120023268A (ko) * 2010-09-01 2012-03-13 삼성전자주식회사 디스플레이 장치 및 그 영상 생성 방법
JP2012089931A (ja) * 2010-10-15 2012-05-10 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2012060172A1 (ja) * 2010-11-04 2012-05-10 シャープ株式会社 動画像符号化装置、動画像復号装置、動画像伝送システム、動画像符号化装置の制御方法、動画像復号装置の制御方法、動画像符号化装置制御プログラム、動画像復号装置制御プログラム、および記録媒体
WO2012060168A1 (ja) * 2010-11-04 2012-05-10 シャープ株式会社 符号化装置、復号装置、符号化方法、復号方法、プログラム、記録媒体、および符号化データ
WO2012060179A1 (ja) * 2010-11-04 2012-05-10 シャープ株式会社 符号化装置、復号装置、符号化方法、復号方法、プログラム、記録媒体、および符号化データのデータ構造
JP5438082B2 (ja) * 2010-11-16 2014-03-12 パナソニック株式会社 表示装置及び表示方法
EP2670148B1 (en) * 2011-01-27 2017-03-01 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional imaging device and three-dimensional imaging method
KR20120105169A (ko) * 2011-03-15 2012-09-25 삼성전자주식회사 복수의 거리 픽셀들을 포함하는 3차원 이미지 센서의 구동 방법
JP5792662B2 (ja) * 2011-03-23 2015-10-14 シャープ株式会社 視差算出装置、距離算出装置及び視差算出方法
JP5291755B2 (ja) * 2011-04-21 2013-09-18 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
JP5355616B2 (ja) * 2011-04-21 2013-11-27 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
CN102158725B (zh) * 2011-05-06 2013-04-10 深圳超多维光电子有限公司 一种生成立体图像的方法和系统
CN102884803A (zh) * 2011-05-11 2013-01-16 松下电器产业株式会社 图像处理装置、影像处理方法、程序、集成电路
JP2011211739A (ja) * 2011-06-01 2011-10-20 Fujifilm Corp 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法
JP5582101B2 (ja) * 2011-06-23 2014-09-03 コニカミノルタ株式会社 画像処理装置、そのプログラム、および画像処理方法
JP5377589B2 (ja) * 2011-07-07 2013-12-25 三菱電機株式会社 再生方法、再生装置、光ディスク
JP5337218B2 (ja) * 2011-09-22 2013-11-06 株式会社東芝 立体画像変換装置、立体画像出力装置および立体画像変換方法
JP5383833B2 (ja) * 2012-01-20 2014-01-08 三菱電機株式会社 映像情報記録方法、映像情報再生方法、映像情報記録装置、映像情報再生装置、光ディスク
WO2013153523A2 (en) * 2012-04-13 2013-10-17 Koninklijke Philips N.V. Depth signaling data
WO2013186882A1 (ja) * 2012-06-13 2013-12-19 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
US20140267616A1 (en) * 2013-03-15 2014-09-18 Scott A. Krig Variable resolution depth representation
JP6294780B2 (ja) 2014-07-17 2018-03-14 株式会社ソニー・インタラクティブエンタテインメント 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ
JP6415179B2 (ja) * 2014-08-20 2018-10-31 キヤノン株式会社 画像処理装置、画像処理方法、および撮像装置並びにその制御方法
JP6109371B2 (ja) * 2016-03-31 2017-04-05 三菱電機株式会社 映像再生方法、映像再生装置、光ディスク
US10042421B2 (en) 2016-08-24 2018-08-07 Disney Enterprises, Inc. System and method of latency-aware rendering of a focal area of an animation
US10255714B2 (en) 2016-08-24 2019-04-09 Disney Enterprises, Inc. System and method of gaze predictive rendering of a focal area of an animation
DE112017005385T5 (de) * 2016-10-25 2019-08-01 Sony Corporation Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren
WO2018123801A1 (ja) * 2016-12-28 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
BR122021006807B1 (pt) 2017-04-11 2022-08-30 Dolby Laboratories Licensing Corporation Método para experiências de entretenimento aumentadas em camadas
JPWO2019167453A1 (ja) * 2018-02-28 2021-03-18 富士フイルム株式会社 画像処理装置、画像処理方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010047046A (ko) * 1999-11-17 2001-06-15 윤덕용 제트버퍼를 이용한 입체영상 생성방법
KR20040022100A (ko) * 2002-09-06 2004-03-11 임인성 2차원이미지에 대한 입체영상생성방법

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590573B1 (en) * 1983-05-09 2003-07-08 David Michael Geshwind Interactive computer system for creating three-dimensional image information and for converting two-dimensional image information for three-dimensional display systems
US5257345A (en) * 1990-05-11 1993-10-26 International Business Machines Corporation Computer system and method for displaying functional information with parallax shift
TW335466B (en) * 1995-02-28 1998-07-01 Hitachi Ltd Data processor and shade processor
US6384859B1 (en) 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
US5798762A (en) * 1995-05-10 1998-08-25 Cagent Technologies, Inc. Controlling a real-time rendering engine using a list-based control mechanism
JP3096613B2 (ja) 1995-05-30 2000-10-10 三洋電機株式会社 立体表示装置
JP3635359B2 (ja) * 1995-11-09 2005-04-06 株式会社ルネサステクノロジ 透視投影計算装置および透視投影計算方法
JP3231618B2 (ja) 1996-04-23 2001-11-26 日本電気株式会社 3次元画像符号化復号方式
WO1999006956A1 (en) * 1997-07-29 1999-02-11 Koninklijke Philips Electronics N.V. Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
US6208348B1 (en) * 1998-05-27 2001-03-27 In-Three, Inc. System and method for dimensionalization processing of images in consideration of a pedetermined image projection format
JP2000078611A (ja) 1998-08-31 2000-03-14 Toshiba Corp 立体映像受信装置及び立体映像システム
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6285779B1 (en) * 1999-08-02 2001-09-04 Trident Microsystems Floating-point complementary depth buffer
JP2001061164A (ja) 1999-08-19 2001-03-06 Toshiba Corp 立体映像信号伝送方法
WO2001039512A1 (en) * 1999-11-26 2001-05-31 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP2001320731A (ja) 1999-11-26 2001-11-16 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及びその方法
JP2004505394A (ja) * 2000-08-04 2004-02-19 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド イメージ変換および符号化技術
JP2002152776A (ja) 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 距離画像符号化方法及び装置、並びに、距離画像復号化方法及び装置
US6677945B2 (en) 2001-04-20 2004-01-13 Xgi Cayman, Ltd. Multi-resolution depth buffer
JP2003131683A (ja) * 2001-10-22 2003-05-09 Sony Corp 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
CA2507213C (en) * 2002-11-27 2013-01-22 Vision Iii Imaging, Inc. Parallax scanning through scene object position manipulation
JP4463215B2 (ja) * 2006-01-30 2010-05-19 日本電気株式会社 立体化処理装置及び立体情報端末

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010047046A (ko) * 1999-11-17 2001-06-15 윤덕용 제트버퍼를 이용한 입체영상 생성방법
KR20040022100A (ko) * 2002-09-06 2004-03-11 임인성 2차원이미지에 대한 입체영상생성방법

Also Published As

Publication number Publication date
CN100551083C (zh) 2009-10-14
WO2004071102A1 (ja) 2004-08-19
JPWO2004071102A1 (ja) 2006-06-01
US7403201B2 (en) 2008-07-22
CN1739303A (zh) 2006-02-22
US20060050383A1 (en) 2006-03-09
EP1587329A4 (en) 2009-12-23
KR20050092122A (ko) 2005-09-20
JP4188968B2 (ja) 2008-12-03
EP1587329B1 (en) 2015-04-15
EP1587329A1 (en) 2005-10-19

Similar Documents

Publication Publication Date Title
KR100905371B1 (ko) 입체시용 영상 제공 방법 및 입체 영상 표시 장치
KR100812905B1 (ko) 입체 화상 처리 방법, 장치 및 컴퓨터 판독가능 기록 매체
KR100950046B1 (ko) 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법
CN103348682B (zh) 在多视图系统中提供单一视觉的方法和装置
US7689031B2 (en) Video filtering for stereo images
JP2018507650A (ja) コンテンツの生成、送信、および/または、再生をサポートするための方法および装置
US20060171028A1 (en) Device and method for display capable of stereoscopic vision
CN101103380A (zh) 深度感知
US11961250B2 (en) Light-field image generation system, image display system, shape information acquisition server, image generation server, display device, light-field image generation method, and image display method
CN104756489A (zh) 一种虚拟视点合成方法及系统
JP6585938B2 (ja) 立体像奥行き変換装置およびそのプログラム
CN113891061B (zh) 一种裸眼3d显示方法及显示设备
JP2013520890A (ja) 3dディスプレイ装置で3次元映像を視覚化する方法および3dディスプレイ装置
US9258546B2 (en) Three-dimensional imaging system and image reproducing method thereof
CN102612837B (zh) 由2d视图产生部分视图和/或立体原图以便立体重现的方法和装置
CN102469319A (zh) 三维菜单生成方法及三维显示装置
TWI462569B (zh) 三維影像攝相機及其相關控制方法
KR101451236B1 (ko) 3차원 영상 변환 방법 및 그 장치
CN102186093B (zh) 一种生成立体图像的方法和系统
CN102404583A (zh) 三维影像的深度加强系统及方法
KR101831978B1 (ko) 회전된 렌티큘러시트를 부착한 디스플레이에 표시되는 요소영상콘텐츠 생성 방법
KR20120072892A (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
KR20070089554A (ko) 입체 영상 처리 장치
Sawahata et al. Depth-compressed expression for providing natural, visual experiences with integral 3D displays
KR101369006B1 (ko) 다시점 영상 재생 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130531

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140603

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150515

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160517

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee