KR950011822B1 - 입체 영상을 발생시키기 위한 장치 및 그 방법 - Google Patents

입체 영상을 발생시키기 위한 장치 및 그 방법 Download PDF

Info

Publication number
KR950011822B1
KR950011822B1 KR1019920003548A KR920003548A KR950011822B1 KR 950011822 B1 KR950011822 B1 KR 950011822B1 KR 1019920003548 A KR1019920003548 A KR 1019920003548A KR 920003548 A KR920003548 A KR 920003548A KR 950011822 B1 KR950011822 B1 KR 950011822B1
Authority
KR
South Korea
Prior art keywords
image
information
depth
image information
stereoscopic
Prior art date
Application number
KR1019920003548A
Other languages
English (en)
Other versions
KR920019203A (ko
Inventor
데쯔꼬 고마
겐지 기무라
요시미 혼다
시로 스즈끼
Original Assignee
샤프 가부시끼가이샤
쯔지 하루오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 샤프 가부시끼가이샤, 쯔지 하루오 filed Critical 샤프 가부시끼가이샤
Publication of KR920019203A publication Critical patent/KR920019203A/ko
Application granted granted Critical
Publication of KR950011822B1 publication Critical patent/KR950011822B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

내용 없음.

Description

입체 영상을 발생시키기 위한 장치 및 그 방법
제1도는 본 발명의 한 실시예에 따른 입체 영상을 발생시키기 위한 장치의 블럭도.
제2도는 입체 영상 정보를 발생시키기 위한 동작의 플로우챠트.
제3도는 제1도에 도시한 영상 입력부를 경유하여 입력된 2차원 영상 정보에 의해 형성된 원래의 영상의 한 예를 도시한 도면.
제4도는 제3도에 도시한 원래의 영상에 기초한 심도(depth) 영상의 한예를 도시한 도면.
제5도는 좌안용 영상 정보 및 우안용 영상 정보를 발생시키기 위한 방법을 도시한 도면.
제6도는 제3도에 도시한 원래의 영상 및 제4도에 도시한 심도 영상에 기초하여 좌안용 영상 정보 및 우안용 영상 정보를 발생시키기 위한 방법을 도시한 도면.
제7도는 좌안용 영상 정보를 발생시키기 위한 동작의 플로우챠트.
제8도는 우안용 영상 정보를 발생시키기 위한 동작의 플로우챠트.
제9도는 제3도에 도시한 원래의 영상에 기초하여 형성된 좌안용 영상의 한 예를 도시한 도면.
제10도는 제3도에 도시한 원래의 영상에 기초하여 형성된 우안용 영상의 한 예를 도시한 도면.
제11도는 정정된 좌안용 영상 정보에 기초하여 형성된 좌안용 영상의 한 예를 도시한 도면.
제12도는 정정된 우안용 영상 정보에 기초하여 형성된 우안용 영상의 한 예를 도시한 도면.
제13도는 좌안용 영상 및 우안용 영상이 디스플레이되는 상태를 도시한 도면.
제14도는 입체 영상의 디스플레이 루틴의 플로우챠트.
제15도는 입체 영상의 디스플레이중의 타이밍도.
제16도는 입체 영상을 획득하기 위한 종래의 방법을 도시한 도면.
제17도는 입체 영상을 획득하기 위한 다른 종래의 방법을 도시한 도면.
* 도면의 주요부분에 대한 부호의 설명
11 : 영상 입력부 12 : 2차원 영상 정보 저장부
13 : 심도 정보 발생부 14 : 심도 정보 저장부
15 : 입체 영상 정보 발생부 16 : 입체 영상 정보 저장부
17 : 영상 정보 출력부 18 : 게이트
19 : D/A 변환기 20 : 영상 디스플레이부
21 : 입체부 22 : 액정 셔터 안경
23 : 입체 영상 정보 정정부 24 : 입력부
25 : CPU
본 발명은 2차원 영상 정보에 기초하여 입체 스크린을 제시하기 위해 입체 영상을 발생시킬 수 있는 입체 영상을 발생시키기 위한 장치 및 입체 영상을 발생시키기 위한 방법에 관한 것이다.
사람이 두 눈을 통해 대상 물체를 볼 때, 좌안의 망막 상에 반사된 대상 물체의 영상의 위치는 우안의 망막 상에 반사된 대상 물체의 영상의 위치와 상이하다. 양쪽 눈에서의 대상 물체의 영상의 변위는 사람이 대상 물체의 심도를 느끼게 한다. 모니터 스크린 상에서 입체 영상을 획득하기 위해, 좌안의 망막 상에 반사된 대상 물체의 영상 및 우안의 망막 상에 반사된 대상 물체의 영상을 서로 변위시키는 영상 정보를 획득할 필요가 있다.
통상적으로 다음과 같은 방법이 실행된다. 즉, 입체 영상 정보는 다음과 같이 얻어진다. 입체 영상 정보는 2개의 영상 정보를 포함한다. 하나의 정보는 사람의 시점에 따라 우안의 망막 상에 대상 물체의 영상을 형성하기 위해 우안용으로 사용된다. 다른 한 정보는 사람의 시점에 따라 좌안의 망막 상에 대상 물체의 영상을 형성하기 위해 좌안용으로 사용된다. 우안은 우안용 영상 정보에 기초하여 우안용 영상을 보고 좌안은 좌안용 영상 정보에 기초하여 좌안용 영상을 본다.
통상적으로, 아래 2가지 방법은 입체 영상 정보에 기초하여 입체 영상을 획득하도록 수행된다.
제1방법에 따르면, 제16도에 도시된 바와 같이 좌안용 카메라(1) 및 우안용 카메라(2)는 3차원 대상 물체의 영상을 서로 시점을 변화시켜 촬상한다. 카메라(1)에 의해 획득된 좌안용 영상 정보 및 카메라(2)에 의해 획득된 우안용 영상 정보는 비디오 레코더(3)으로 입력된다.
비디오 레코더(3)은 비디오 신호를 발생시키기 위해 좌안용 영상 정보와 우안용 영상 정보를 합성한다.
비디오 레코더(3)은 좌안용 영상 정보에 기초하여 기수필드의 비디오 신호를 발생시키고, 우안용 영상 정보에 기초하여 우수 필드의 비디오 신호를 발생시킨다. 이렇게 비디오 레코더(3)에 의해 발생된 비디오 신호는 음극선관(CRT)으로 구성된 모니터 (4) 상에 디스플레이된다.
조작자는 비디오 레코더(3)의 제어하에 개폐되는 액정 셔터 안경(5)의 액정 셔터를 통해 모니터(4) 상에 디스플레이된 영상을 본다. 수직 동기 신호에 동기하여, 비디오 레코더(3)은 기수 필드가 디스플레이될 때 우안 측상의 액정 셔터를 폐쇄하고, 우수 필드가 디스플레이될 때 좌안 측상의 액정 셔터를 폐쇄한다.
모니터(4) 상에 디스플레이된 영상에 기초하여, 조작자는 우안으로 우안용 영상을 보는 것과 동시에 좌안으로 좌안용 영상을 본다. 그러므로, 좌안의 망막 상에 반사된 대상 물체의 영상 위치는 우안의 망막 상에 반사된 대상 물체의 영상 위치와 상이하다. 그러므로, 조작자는 모니터(4)상의 입체 영상을 본다.
제2방법에 따르면, 입체적으로 표현될 대상 물체의 각각의 위치 정보는 데이타에 의해 표시되고, 이 데이타는 제17도에 도시한 바와 같은 입체 영상 처리부(6)에 입력된다. 그 다음, 이 데이타에 기초하여 영상 처리부(6)은 대상 물체가 좌안의 시점으로부터 보여질 때 획득된 좌안용 영상 정보 및 대상 물체가 우안의 시점으로부터 보여질 때 획득된 우안용 영상 정보를 포함하는 입체 영상 정보를 찾는다. 좌안용 디지탈 영상 정보 및 우안용 디지탈 영상 정보는 제1방법과 유사하게 모니터(7)상의 좌안용 영상 및 우안용 영상을 교대로 디스플레이하기 위해 아날로그 영상 정보로 변환된다.
그러므로, 조작자는 액정 셔터 안경(8)을 통해 모니터(7) 상에 교대로 디스플레이되는 좌안용 영상 및 우안용 영상을 본다. 따라서, 조작자에 의해 관측된 대상 물체는 입체적으로 보인다.
그러나, 좌안용 및 우안용 영상 정보를 포함하는 입체 영상 정보에 기초하여 입체 영상을 획득하기 위한 상술한 종래의 방법은 아래의 문제점을 갖는다.
즉, 제1방법에 따르면, 대상 물체 영상이 좌안용 카메라(1) 및 우안용 카메라 (2)에 의해 촬상되도록 3차원 대상 물체를 형성할 필요가 있거나, 카메라(1 및 2)에 의해 대상 물체를 촬영하기 위한 위치로 이동시켜야 하는 문제점을 갖는다. 이러한 경우, 스크린 상에 외국의 풍경을 입체적으로 디스플레이하기 위한 수단으로서 작용하는 입체 영상 정보를 형성하기 위해서는 매우 많은 시간과 노동력을 필요로 한다.
이러한 제1방법에 의한 문제점이 발생하는 이유에 대하여 살펴보면, 이 방법은 우안용 영상과 좌안용 영상을 카메라로 촬영하는 방법으로서, 그에 따른 문제점은 1) 촬영 노력(勞力)이 많이 드는 경우가 있다. 예를 들면, 원거리 지역의 풍경, 또는 우주 공간과 같이, 실제로는 카메라 촬영이 곤란한 경우가 있다. 2) 찾고 있는 영상이 실제로 없는 경우도 상정된다. 현실에는 없는, 예를 들면 어떤 유명한 화가가 그린 그림 등을 입체적으로 하고 싶은 경우, 화가가 그린 세계를 현실로 조립하는 것은 곤란하다.
제1방법은 실제로 존재하는 자연물 등의 입체물의 입체 촬영에 적합한 방법이다. 제1방법의 결점은 2대의 카메라 사이의 조정이 곤란하다는 것이다. 즉, 1) 2대의 카메라 사이의 간격을 기본적으로는 인간의 양쪽 눈 간격에 동일하게 설치할 필요가 있고, 2) 2대의 카메라의 광축이 동일 수평면 상에 없으면 안되며, 3) 화면이 조금이라도 회전해서는 안되고, 4) 양쪽 카메라 사이에 휘도나 색재현성의 차이가 있어서는 안된다. 더우기, 이와 같은 조건을 만족시키는 카메라 시스템은 조정된 상태를 유지하기 위해 강하고 튼튼한 대(대)위에 구축될 필요가 있어서, 움직임량이나 크기 면에서 가반성(可搬性)에 큰 문제가 있다고 할 수 있다.
또한, 제1방법에서는 필연적으로 실물을 촬영해야 되기 때문에 입체물로서 현실적으로 존재하지 않는 것(예를 들면, 디자인하여 그려지고 있는 부품 등)을 입체적으로 표시하고자 하는 경우에는 해당 물건의 모형을 실제로 작성할 필요가 있다는 것도 곤란한 점이다.
제2방법에 따르면, 스크린 상에 입체적으로 표현될 3차원 대상 물체의 데이타를 영상 처리부(6)에 입력할 필요가 있다. 영상 처리부(6)에서 복잡한 영상의 좌안용 및 우안용 영상 정보 예를 들어, 풍경 영상 정보를 획득하기 위해, 3차원 대상 물체의 다수의 데이타를 발생시켜 영상 처리부(6)으로 입력할 필요가 있다. 그러므로, 이 방법으로 스크린 상에 디스플레이된 입체 영상은 우수하지 못하다.
이러한 제2방법에 의한 문제점이 발생하는 이유에 대하여 살펴보면, 이 방법은 3차원 데이타를 컴퓨터에 입력하여, 그 계산에 의해 입체적인 영상을 연산해서 작성하는 방법으로서, 그에 따른 문제점은 1) 입력하면 확실하게 입체적인 영상을 작성할 수 있지만, 입력에 상당한 시간이 걸리는 경우가 있다. 2) 작성된 입체 영상이 우수하지 않을 뿐만 아니라, 구하는 입체적인 영상에 따라서는 입력이 팽대(膨大)하여 곤란한 경우가 예상된다. 단, 동화상(動畵像)으로 입체적인 영상을 얻고 싶은 경우 등은 이 방법을 취하는 편이 효율적이라는 것은 말할 것도 없다.
제2방법은 2차원 상에서 밖에 표시되지 않는 것과 같은 가공(架空)의 물체를 입체적으로 표시하는 데에 적합한 방법으로서, 제2방법의 결점은 자연물과 같은 복잡한 3차원 형상을 입체적으로 표시하는 경우에는 막대한 데이타가 필요하게 되어 입력하는 데이타량을 저감시키면 단순한 영상밖에 얻어지지 않는다는 것이다. 즉, 데이타를 전부(x, y, z)의 3차원 데이타로 하지 않으면 안되기 때문에, 통상의 2차원 데이타와 비교한 경우, 필요로 되는 정보량이 급증한다. 통상의 2차원 영상이라면, 화면에 투영한 후의 데이타를 가지면 좋지만, 3차원 영상의 경우는 시점의 이동에 따라서 보는 방법을 변화시킬 필요가 있으므로, 자기 앞의 물체에 가리워져 있는 부분의 데이타도 기술(記述)할 필요가 있다.
또한, 직선을 표현하는 경우에는 양단의 2점의 기술(記述)만으로 끝나지만, 자연 영상과 같은 복잡한 영상을 표현하는 경우에는 물체가 복잡한 곡선으로 구성되기 때문에, 매우 세세한 샘플링이 필요하게 되어 막대한 샘플링 점마다 3차원 데이타를 기술할 필요가 있다.
따라서, 본 발명의 목적은 풍경과 같은 복잡한 입체 영상을 용이하게 발생시킬 수 있는 장치 및 이 장치를 구현하기 위한 방법을 제공하기 위한 것이다.
이 목적 및 다른 목적을 달성함에 있어서, 입체 영상을 발생시키기 위한 제1실시예에 따른 장치는, 대상 물체의 영상을 픽업(pick up)하여 이 픽업된 영상을 표시하는 2차원 영상 정보를 출력하기 위한 영상 입력부 ; 이 영상 입력부로부터 출력된 2차원 영상 정보를 저장하기 위한 2차원 영상 정보 저장부 ; 2차원 영상 정보에 기초하는 원래의 영상 내의 각 위치에서의 심도의 등급을 지정하기 위한 정보를 입력하는 입력부 ; 입력부로부터 입력된 심도 정보에 따라 원래의 영상내의 각 위치에서의 심도를 분류하여, 2차원 영상 정보내의 각 화소에서의 심도의 등급을 표시하는 심도 정보를 발생시키기 위한 심도 정보 발생부 ; 심도 정보 발생부에 의해 발생된 심도 정보를 저장시키기 위한 심도 정보 저장부 ; 2차원 영상 정보 저장부에 저장된 2차원 영상 정보 및 심도 정도 저장부에 저장된 심도 정보에 기초하여, 선정된 규정에 따라, 좌안의 시점으로부터 관측될 영상을 디스플레이하기 위한 영상 정보와 우안의 시점으로부터 관측될 영상을 디스플레이하기 위한 영상 정보로 이루어진 입체 영상 정보를 발생시키기 위한 입체 영상 정보 발생부 ;입체 영상 정보 발생부에 의해 발생된 입체 영상 정보를 저장하기 위한 입체 영상 정보 저장부 ; 입체 영상 정보 저장부에 저장된 입체 영상 정보로부터 좌안용 영상 정보 및 우안용 영상 정보를 교대로 판독하여, 좌안용 영상과 우안용 영상을 스크린 상에 선정된 규칙적인 시간 간격으로 교대로 디스플레이하는 스위칭 동작을 수행하기 위한 영상 디스플레이부 ; 영상 디스플레이부 상에 디스플레이된 좌안용 영상 및 우안용 영상을 관측하는데 사용될 셔터-구비 안경 ; 및 영상 디스플레이부에 의해 수행된 스위칭 동작과 동기하여, 좌안용 영상이 영상 디스플레이부의 스크린 상에 디스플레이될 때 우안측 셔터를 폐쇄하고, 우안용 영상이 영상 디스플레이부의 스크린 상에 디스플레이될 때 좌안측 셔터를 폐쇄하기 위한 셔터 제어부로 구성된다.
제1실시예에 따른 장치에 따르면, 대상 물체의 영상을 표시하는 2차원 영상 정보는 영상 입력부로부터 출력되어 2차원 영상 정보 저장부에 저장된다. 부수적으로, 원래의 영상내의 각 위치의 심도 정보는 2차원 영상 정보 저장부에 입력된다. 그 다음, 영상 입력부로부터 전소된 심도 정보에 따라, 심도 정보 발생부는 2차원 영상 정보에 기초한 원래의 영상내의 각 위치에서의 심도를 다수의 등급으로 분류하여 2차원 영상 정보내의 각 화소의 심도 등급을 표시하는 심도 정보를 발생시킨다. 심도 정보는 심도 정보 저장부에 의해 저장된다.
그 다음, 2차원 영상 정보 및 심도 정보에 기초하여, 입체 영상 정보 발생부는 선정된 규정에 따라 좌안용 영상 정보 및 우안용 영상 정보를 포함하는 입체 영상 정보를 발생시킨다. 입체 영상 정보는 입체 영상 정보 저장부에 의해 저장된다. 영상 디스플레이부는 좌안용 영상 정보 및 우안용 영상 정보를 판독한다. 결과적으로, 좌안용 영상 및 우안용 영상은 영상 디스플레이부의 스크린 상에 교대로 디스플레이된다. 좌안용 영상이 영상 디스플레이부의 스위칭 동작과 동기하여 영상 디스플레이부 스크린 상에 디스플레이될 때, 우안측 상에 배치된 안경의 셔터는 셔터 제어부의 제어하에 폐쇄되고, 이와 유사하게, 우안용 영상이 영상 디스플레이부의 스크린 상에 디스플레이될 때 좌안측 상에 배치된 안경의 셔터는 셔터 제어부의 제어하에 폐쇄된다.
그러므로, 조작자는 좌안으로 좌안용 영상을 보는 것과 거의 동시에 우안으로 우안용 영상을 봄으로써 입체 영상을 본다.
상술한 바와 같이, 입력부를 경유하여 심도 정보의 입력에 의해 원래의 영상내의 각 위치에서의 심도의 등급을 2차원 영상 정보 저장부에 표시할 때, 입체 영상 정보 발생부는 2차원 영상 정보에 기초하여 입체 영상 정보를 자동으로 발생시킨다. 그러므로, 입체 영상이 발생된다.
제2실시예에 따른 장치에 있어서, 제1실시예에서 정해진 바와 같이, 심도정보 발생부는 휘도 정보에 의해 2차원 영상 정보내의 각 화소의 심도 등급을 표시하는 심도 정보로서 작용하는 심도 영상 정보를 발생시키기 위한 휘도 정보 발생수단을 포함한다. 상기 구성에 있어서, 영상 디스플레이부는 스크린 상의 휘도 정도에 의해 원래의 영상내의 각 위치에서의 심도의 등급을 나타내는 심도 영상을 디스플레이하기 위해 필요에 따라 심도 영상 정보를 독출한다.
상기 구성에 따라, 심도 정보가 심도 정보 발생부에 의해 발생될 때, 휘도 정보 발생 수단을 휘도 정보에 의해 2차원 영상 정보내의 각 화소의 심도 등급을 표시하는 심도 영상 정보를 발생시킨다. 심도 영상 정보는 심도 정보로서 심도 정보 저장부에 저장된다. 결과적으로, 영상 디스플레이부는 휘도에 의해 원래의 영상내의 각 위치에서의 심도의 등급을 표시하는 심도 영상을 스크린 상에 디스플레이하기 위해 심도 정보 저장부로부터 심도 영상 정보를 판독한다.
따라서, 심도 정보에 의해 설정된 원래의 영상내의 각 위치의 심도 등급은 심도 영상의 휘도 정도에 의해 영상 디스플레이부의 스크린 상에 가시적으로 디스플레이될 수 있다.
제3실시예에 따른 장치에 있어서, 제1 또는 제2실시예에서 정해진 바와 같이, 입력부는 심도 정보 이외에 입체 영상 정보 발생부에 의해 발생된 입체 영상 정보에 기초한 입체 영상용 영상 그리기 정보를 입력시킨다. 또한, 이 장치는 입력부에 의해 입력된 영상 그리기 정보에 기초하여 원래의 영상내에서는 볼 수 없지만, 시점의 이동에 의해 좌안 및 우안용 영상내에 관측될 수 있는 사각(dead angle)의 영상 정보를 선정된 절차에 따라 발생시킴으로써 입체 영상 정보를 정정하기 위한 입체 영상 정보 정정부를 포함한다.
상기 구성에 따르면, 입체 영상 정보 발생부가 입체 영상 정보를 발생시킨 다음에 이 입체 영상 정보가 입체 영상 저장부에 저장된다. 그후, 입력부는 영상 그리기 정보를 입력시킨다. 이 영상 그리기 정보에 기초하여, 입체 영상 정정부는 원래의 영상에서는 볼 수 없지만 시점의 전이로 인한 좌안용 영상 및 우안용 영상에서는 볼 수 있는 사각 영역의 영상 정보를 발생시킴으로써 입체 영상 정보 저장부에 저장된 입체 영상 정보를 정정한다.
그러므로, 풍경의 영상과 같은 이러한 복잡한 형태를 제공하는 미세한 입체영상 정보는 2차원 영상 정보에 기초하여 발생될 수 있다.
제4실시예에 따른 장치에 있어서, 제1 내지 제3실시예중 한 실시예에서 정해진 바와 같이, 영상 입력부는 입력부에 의해 입력된 대상 물체용 영상 그리기 정보에 기초하여 대상 물체의 영상을 나타내는 2차원 영상 정보를 발생시키기 위한 영상 그리기 수단을 포함한다.
상기 구성에 따르면, 대상 물체의 영상 그리기 정보는 입력부를 경유하여 입력된다. 결과적으로, 대상 물체의 영상을 나타내는 2차원 영상 정보는 이 영상 그리기 정보에 기초하여 영상 입력부의 영상 그리기 수단에 의해 발생되어 2차원 영상 정보 저장부에 저장된다.
그러므로, 일러스트레이션과 같은 사진의 입체 영상 정보는 입력부에 의해 입력된 영상 그리기 정보에 기초하여 발생된다.
제5실시예에 따른 장치에 있어서, 제1 내지 제4의 실시예중 한 실시예에서 정해진 바와 같이, 입체 영상 정보 저장부는 외부 저장 수단으로 이루어진다.
상기 구성에 따르면, 입체 영상 정보 발생부에 의해 발생된 입체 영상 정보는 외부 저장 수단을 포함하는 입체 영상 정보 저장부에 저장된다.
그러므로, 입체 영상 정보 저장부에 저장된 입체 영상 정보는 유지된다. 그러므로, 유지된 입체 영상 정보에 기초하는 입체 영상은 필요에 따라 반복적으로 디스플레이된다.
사람이 시점으로부터 관측될 좌안용 영상 및 사람의 시점으로부터 관측될 우안용 영상으로 이루어지는 입체 영상을 발생시키기 위한 제6실시예에 따른 방법은 대상 물체의 영상을 표시하는 2차원 영상 정보를 발생시키는 단계, 2차원 영상 정보에 기초한 원래의 영상내의 각 위치에서의 심도를 다수의 등급으로 분류하여, 2차원 영상 정보내의 각 화소의 심도 등급을 나타내는 심도 정보를 발생시키는 단계, 심도 정보에 기초하여 좌안용 영상을 디스플레이하기 위한 좌안용 영상 정보내의 화소의 시차 및 우안용 영상을 디스플레이하기 위한 우안용 영상 정보내의 대응하는 화소의 시차를 찾는 단계, 찾아낸 시차 및 2차원 영상 정보에 기초하여 좌안용 영상 정보 및 우안용 영상 정보로 이루어지는 입체 영상 정보를 발생시키는 단계, 및 좌안용 영상 정보에 기초하는 좌안용 영상 및 우안용 영상 정보에 기초하는 우안용 영상을 선정된 규칙적인 시간 간격으로 교대로 디스플레이하는 단계를 포함한다.
제6실시예에서 정해진 바와 같이 입체 영상을 발생시키기 위한 제7실시예에 따른 방법은 심도 정보로서 2차원 영상 정보내의 각 화소의 심도 등급을 표시하는 심도 영상 정보를 발생시키는 단계, 심도 영상 발생정보에 기초하여, 원래의 영상내의 각 위에서의 심도의 등급을 표시하는 심도 영상을 필요에 따라 디스플레이하는 단계, 및 심도 영상 정보의 명 화소에 대응하는 위치가 원래의 영상의 전방에 배치되고 심도 영상 정보의 암 하소에 대응하는 위치가 원래의 영상의 후방에 배치된다고 가정함으로써 심도 정보로서 작용하는 심도 영상 정보에 기초하여 좌안용 영상 정보내의 화소의 시차 및 우안용 영상 정보내의 대응하는 화소의 시차를 찾는 단계를 포함한다.
본 발명의 이 특징, 다른 특징 및 구성은 첨부된 도면을 참조하여 본 발명의 양호한 실시예와 관련하여 설명된 아래의 상세한 설명으로부터 명백해진다.
본 발명을 설명하기 전에, 동일 요소에는 첨부 도면의 전반을 통해 동일한 참조 부호를 붙인다는 것을 인지하여야 한다.
본 발명은 2차원 영상 정보에 기초하여 좌안용 영상 정보 및 우안용 영상 정보를 포함하는 입체 영상 정보를 용이하게 발생시킴으로써, 이 발생된 입체 영상 정보에 기초하여 모니터 스크린 상에 입체 영상을 디스플레이하려는 것이다.
본 발명의 한 실시예에 따른 입체 영상을 발생시키기 위한 장치는 이 장치를 블럭도로 도시한 제1도를 참조하여 설명한다. 카메라 및 영상 스캐너를 포함하는 영상 입력부(11)은 3차원으로 표시될 대상 물체의 영상 및 원고(原槁)의 영상을 픽업하여 픽업된 원래의 영상을 표시하는 디지탈 2차원 영상 정보를 출력한다. 2차원 영상 정보 저장부(12)는 영상 입력부(11)로부터 출력된 2차원 영상 정보를 저장한다. 후술하는 바와 같이, 휘도 정보 발생 수단(도시되지 않음)을 포함하는 심도 정보 발생부(13)은 2차원 영상 정보 저장부(12)에 저장된 2차원 영상 정보에 기초하여 휘도 정보에 의해 원래의 영상의 대상 물체의 심도를 표시하는 심도 영상 정보를 발생시킨다. 심도 정보 저장부(14)는 이렇게 발생된 심도 영상 정보를 저장한다.
2차원 영상 정보 저장부(12)에 저장된 2차원 영상 정보 및 심도 정보 저장부 (14)에 저장된 심도 영상 정보에 기초하여, 입체 영상 정보 발생부(15)는 좌안용 영상 정보 및 우안용 영상 정보를 포함하는 디지탈 입체 영상 정보를 발생시킨다. 입체 영상 정보 저장부(16)은 이렇게 발생된 입체 영상 정보를 저장한다. 영상 정보 출력부(17)은 좌안용 영상 정보 및 우안용 영상 정보를 포함하는 디지탈 입체 영상 정보를 판독하여 게이트(18)을 통해 D/A 변환기(19)로 이 정보를 출력한다. 게이트(18)은 D/A 변환기(19)로 좌안용 영상 정보와 우안용 영상 정보를 규칙적인 시간 간격으로 교대로 출력하는 스위칭 동작을 실행한다.
상기 동작 이외에, 영상 정보 출력부(17)은 2차원 영상 정보 저장부(12)에 저장된 2차원 영상 정보 및 심도 정보 저장부(14)에 저장된 심도 영상 정보를 판독하여, 게이트(18)을 통해 D/A 변환기(19)로 이 정보를 출력한다. 이 동작에 있어서, 게이트(18)은 상술한 스위칭 동작을 수행하지 않고 2차원 영상 정보 및 심도 영상 정보를 D/A 변환기(19)로 출력한다.
좌안용 및 우안용 디지탈 영상 정보에 응답하여, D/A 변환기(19)는 이 정보를 아날로그 정보로 변환한다. 음극선관(CRT)를 포함하는 영상 디스플레이부(20)은 획득된 좌안용 아날로그 영상 정보에 기초한 좌안용 영상, 및 획득된 우안용 아날로그 영상 정보에 기초한 우안용 영상을 교대로 디스플레이한다. D/A 변환기(19)는 입력된 디지탈 2차원 영상 정보와 디지탈 심도 영상 정보를 각각 아날로그 영상 정보로 변환한다. 아날로그 2차원 영상 정보에 기초한 원래의 영상 또는 아날로그 심도 영상 정보에 기초한 심도 영상은 영상 디스플레이부(20) 상에 디스플레이된다.
입체부(21)은 후술하는 바와 같이 액정 셔터 안경(22)의 액정 셔터의 개폐를 제어한다. 즉, 좌안용 영상이 영상 디스플레이부(20)의 모니터 스크린 상에 디스플레이될 때, 입체부(21)은 액정 셔터 안경(22)의 우안측 셔터를 폐쇄하고, 우안용 영상이 디스플레이될 때 입체부(21)은 액정 셔터 안경(22)의 좌안측 셔터를 폐쇄한다. 그러므로, 조작자는 액정 셔터 안경(22)를 통해 입체 영상을 볼 수 있다.
키보드 및 마우스를 포함하는 입력부(24)로부터 출력된 영상 그리기 내용 및 영상 그리기 명령을 포함하는 영상 그리기 정보에 따라, 입체 영상 정보 정정부(23)은 후술하는 바와 같이 입체 영상 정보 발생부(15)에 의해 발생된 입체 영상 정보를 정정한다.
CPU(25)는 영상 입력부(11), 심도 정보 발생부(13), 입체 영상 정보 발생부 (15), 영상 정보 출력부(17), 게이트(18), 입체부(21) 및 입체 영상 정보 정정부(23)을 제어하여 입체 영상을 형성한다.
CPU(25)는 영상 디스플레이부(20)상에 디스플레이될 영상을 수직 동기시키기위해 수직 동기 신호를 발생시킨다. CPU(25)는 영상 디스플레이(20)상에 좌안용 영상 및 우안용 영상을 교대로 디스플레이할때 수직 동기 신호와 동기하여 게이트(18) 및 입체부(21)을 제어한다.
즉, 영상 디스플레이(20)은 영상 정보 출력부(17), 게이트(18) 및 D/A 변환기 ( 19)를 포함한다. 입체부(21)은 셔터 제어부를 구성한다.
입체 영상 정보를 발생시키기 위해 CPU(25)의 제어하에 수행될 동작은 이 동작의 플로우챠트를 도시한 제2도를 참조하여 간략하게 후술한다.
단계 S1에서, 영상 입력부(11)은 입체적으로 표시될 대상 물체 영상을 픽업하여 픽업된 대상 물체의 원래의 영상의 2차원 영상 정보를 발생시킨다. 그 다음, 2차원 영상 정보 저장부(12)는 발생된 2차원 영상 정보를 저장한다.
단계 S2에서, 심도 정보 발생부(13)은 2차원 영상 정보 저장부(12)로부터 2차원 영상 정보를 판독하여, 입력부(24)의 명령에 따라 심도 영상 정보를 발생시킨다. 그 다음, 심도 정보 저장부(14)는 발생된 심도 영상 정보를 저장한다.
단계 S3에서, 입체 영상 정보 발생부(15)는 2차원 영상 정보 저장부(12)로 부터 2차원 영상 정보를 판독하고, 심도 정도 저장부(14)로부터 심도 영상 정보를 판독하다. 이 두가지 영상 정보에 기초하여, 입체 영상 정보 발생부(15)는 좌안용 영상 정보 및 우안용 영상 정보를 포함하는 입체 영상 정보를 발생시킨다. 그 다음, 입체 영상 정보 저장부(16)은 발생된 입체 영상 정보를 저장한다.
단계 S4에서, 입체 영상 정보 정정부(23)은 입력부(24)의 명령에 기초하여 입체 영상 정보 저장부(16)에 저장된 입체 영상 정보를 정정한다.
그러므로, 입체 영상 정보를 발생시키기 위한 동작을 종료된다.
이제, 심도 영상 정보를 설명하였다. 심도 영상 정보는 원래의 영상내의 각 대상 물체의 심도를 표시한다. 이 실시예에 따르면, 2차원 영상 정보에 기초하는 원래의 영상내의 각 대상 물체의 심도는 아레와 같이 분류된다 : 가장 밝은 등급을 표시하는 값 "31"은 원래의 영상내에 배치된 최전방 대상 물체의 화소에 제공되고, 가장 어두운 등급을 표시하는 값 "0"은 이곳에 배치된 전후방 대상 물체의 화소에 제공된다. 그러므로, 심도 영상 정보 따르면, 명 화소에 대응하는 위치는 원래의 영상의 전방이고, 암 화소에 대응하는 위치는 원래의 영상의 후방이다.
심도 영상 정보는 아래와 같이 발생된다 : 즉, 입력부(24)는 2차원 영상 정보 저장부(12)에 저장된 2차원 영상 정보에 기초하는 원래의 영상내의 각 영역의 심도등급을 지정하는 심도 정보를 마우스를 통해 심도 정보 발생부(13)으로 입력한다. 입력부 (24)로부터 출력된 심도 정보에 응답하여, 심도 정보 발생부(13)은 원래의 영상내의 각 위치에서의 심도를 다수의 등급(이하, 심도 등급이하 칭함)으로 분류한다. 원래의 영상내의 각 화소의 심도 등급에 따르면, 휘도 정보는 화소값의 형태로 각 화소에 제공된다. 그러므로, 2차원 영상 정보내의 각 화소의 심도 등급을 표시하는 심도 영상 정보가 휘도 정보의 형태로 발생된다.
심도 영상 정보는 아래와 같이 제3도에 도시한 바와 같은 원래의 영상에 제공된다 ; "나무"가 원래의 영상의 최전방에 존재하고, "배경(background)"이 원래의 영상의 최후방에 존재하며, "자동차"가 "나무"의 위치와 "배경"의 위치 사이에 존재한다고 가정하면, 심도 영상 정보 "30"은 "나무"의 화소에 제공되고, 심도 영상 정보 "25"는 "자동차"의 화소에 제공되며, 심도 영상 정보 "0"은 "배경"의 화소에 제공된다. 영상 정보에 기초하여, 즉 획득된 심도 등급 값을 표시하는 휘도 정보에 기초하여, 제4도에 도시한 바와 같이 휘도 정도의 형태로 원래의 영상이 각 위치에서의 심도 등급을 나타내는 심도 영상을 획득할 수 있다. 제4도를 참조하면, 심도 영상 정보로서 "30"을 갖고 있는 가장 밝은 영역은 백색으로 표시되고, 심도 영상 정보로서 "0"을 갖는 가장 어두운 영역은 사선으로 표시된다.
상기 심도 영상 정보에 기초하여 발생된 입체 영상에 있어서, 심도 영상 정보로서 "30"을 갖는 "나무" 및 심도 영상 정보로서 "25"를 갖는 "자동차"는 심도 영상 정보로서 "0"을 갖는 "배경"보다 원래의 영상의 전방에 존재한다.
각각의 심도 영상 정보(심도 등급 값)은 심도 영상의 화서 값으로서 심도 정보 저장부(14)의 대응 어드레스내에 저장된다.
2차원 영상 정보의 각 화소의 심도는 휘도 정보에 의해 표현된 심도 영상 정보에 의해 표시된다. 그러므로, 심도 영상 정보에 기초하는 심도 영상은 영상 디스플레이부 (20)상에 디스플레이될 수 있다. 그러므로, 영상 디스플레이(20) 상에 디스플레이된 심도 영상의 휘도 정도에 따르면, 조작자는 원래의 영상의 각 위치에서의 심도 등급을 검사함으로써 입체 영상을 발생시킬 수 있다.
그러므로, 발생될 3차원 구성을 영상화하는 이 실시예에 따르면, 조작자는 원래의 영상이 각 위치의 심도 등급을 설정할 수 있다. 그래서, 조작자는 양호한 입체 영상을 용이하게 발생시킬 수 있다.
입체 영상 정보 발생부(15)는 획득된 2차원 영상 정보 및 심도 영상 정보에 기초하여 아래와 같이 입체 영상 정보를 발생시킨다.
제5도를 참조하면, 2차원 영상 정보에 기초한 원래의 영상(A)의 종방향 화소수는 (x)이고, 횡방향 화소수는 (y)이다. 유사하게, 심도 영상 정보에 기초한 심도 영상(D)의 종방향 화소 수는 (x)이고, 횡방향 화소수는 (y)이다. 원래의 영상(A)의 한 화소의 좌표가(i, j)(0≤i≤x, 0≤j≤y)이라고 가정한다. 상술한 바와같이, 영상 영역내의 각 화소위치는 심도 영상을 발생시키기 위한 심도 영상 정보가 원래의 영상(A)를 표시하는 2차원 영상 정보에 기초하여 발생될때 변경되지 않는다. 그러므로, 원래의 영상(A)내의 화소(A(i, j)]에 대응하는 심도 영상(D)의 화소는 D(i, j)로 표현될 수 있다.
원래의 영상(A)의 화소[D(i, j)]의 값은 "AIJ"이고 심도 영상(D)는 화소[D(i, j)]의 값(즉, 심도 등급 값)은 "DIJ"이다. 좌안용 영상 정보 및 우안용 영상 정보는 원래의 영상(A)내의 화소[A(i, j)]의 값 "AIJ" 및 심도 영상(D)의 화소[D(i, j)]의 값 "DIJ"에 기초하여 아래와 같이 획득된다.
좌안용 영상은 좌안의 시점으로부터 관측된 대상 물체의 영상을 의미한다. 결과적으로, 좌안용 대상 물체 영상은 원래의 영상내의 대상 물체의 위치에 관련하여 1/2의 시차로 우측에 배치된다. 유사하게, 우안용 영상은 우안의 시점으로부터 관측되는 대상 물체의 영상을 의미한다. 결과적으로, 우안용 대상 물체 영상은 원래의 영상내의 대상 물체의 위치에 관련하여 1/2의 시차로 좌측에 배치된다.
결과적으로, 조작자는 변위량의 합(즉, 시차)의 등급, 또는 원래의 영상내의 대상 물체의 위치에 관련하는 좌안 및 우안용 대상 물체의 영상의 거리에 따라 대상 물체의 심도를 감지한다. 즉, 조작자는 원래의 영상내의 대상 물체의 위치에 관련하여 큰 변위량을 갖는 대상 물체가 작은 변위량을 갖는 대상 물체보다 스크린내에서 전방에 존재한다는 것을 감지한다.
그러므로, 입체 영상 정보는 심도 영상 정보에 기초하여 원래의 영상내의 대상 물체 영상의 위치에 관련하는 좌안 및 우안용 대상 물체 영상의 변위 정도를 결정함으로써 발생될 수 있다.
제5도를 참조하면, 좌안용 영상(B1)의 화소[B1(i+d, j)]는 원래의 영상(A)내의 화소[A(i, j)]의 위치와 일치하는 화소[B1(i, j)]로부터 1/2의 시차와 동일한 거리(d)만큼 떨어져 있다. 좌안용 영상(B1)의 화소[B1(i+d, j)]는 원래의 영상(A)의 화소[A(i, j)]에 의해 표현된다. x-방향의 화소[B1(i, j)]와 화소[B1(i+d, j)]사이의 거리(D)는 아래의 식(1)로 설정된다.
좌안용 영상(B1)의 화소[B1(i+d, j)]의 값[B1(1+d)j]는 원래의 영상(A)의 화소[A(i, j)]의 값(AIJ)로 설정된다. 유사하게 우안용영상(B2)의 화소[B2(i-d, j]는 원래의 영상(A)의 화소[A(i, j)]에 의해 표현되고 우안용 영상(B2)의 화소[B2(i-d, j]의 값[B2(1-d)j]는 원래의 영상(A)의 화소[A(i, j)]의 값(AIJ)로 설정된다.
원래의 영상(A)의 화소 값(AIJ)는 "0"에서 "31"까지 선택된 정수를 취하는 3개의 성분 R(적색), G(녹색) 및 B(청색)으로 이루어진다.
제6a도에 도시한 바와 같이, 제3도에 도시한 원래의 영상을 표시하는 2차원 영상 정보 및 제4도에 도시한 심도 영상을 표시하는 심도 영상 정보에 기초하여 발생된 좌안용 영상은 제4도에 도시한 "나무"의 심도 영상 정보 "30"(심도 등급 값)에 따른 거리(d)에 의해 제3도에 도시한 원래의 영상내의 "나무"의 위치에 관련하여 우측으로 떨어져 있다. 제6b도에 도시한 바와 같이, 좌안용 영상과 유사하게 발생된 우안용 영상은 제3도에 도시된 원래의 영상내의 "나무"의 위치에 관련하여 좌측으로 거리(d)만큼 떨어져 있다.
이 실시예에 따르면, 조작자는 다수의 3차원 구성 데이타를 발생/입력시키지 않고 입력부(24)를 통해 원래의 영상내의 각 영역의 등급 값만을 지정함으로써 입체 영상을 용히가 발생시킬 수 있다.
좌안용 또는 우안용 영상 정보의 각 화소의 거리(d)는 각 대상 물체의 심도 정도에 따라 변화한다. 따라서, 대상 물체의 영상들이 서로 중첩하는 영역은 좌안용 영상 및 우안용 영상내에 각각 발생된다. 제6a도 및 제6b도를 참조하면, "나무" 및 "배경"의 스크린 영상 영역(d=0)이 서로 중첩하는 영역(31)에서는 "배경"보다 전방에 존재하는 "나무"의 영상이 "배경"에 의해 은폐될 수 있다. 이것을 방지하기 위해, 입체 영상 정보발생부(15)는 아래의 처리를 수행한다.
즉, 좌안용 영상 정보 및 우안용 영상 정보를 입체 영상 정보 저장부(16)내에 기입할 때, 우선, 최후방 대상 물체 "배경"을 표시하기 위한 화소값이 기입된다. 그 다음, 최전방 대상 물체 "나무"를 표기하기 위한 화소값이 기입된다.
다시 말하면, 작은 값의 심도 영상 정보에 기초한 좌안용 및 우안용 영상 정보는 큰 값의 심도 영상 정보에 기초한 좌안용 및 우안용 영상 정보보다 일찍 입체 영상 정보 저장부(16)내에 기입 된다.
그러므로, 제6a도 및 제6b도를 참조하면, "나무"의 스크린 영상 영역 및 "배경"의 스크린 영상 영역이 서로 중첩되는 영역(31)에 있어서, 영역(31)에 대응하는 스크린의 어드레스에서 입체 영상 정보 저장부(16)내로 기입된 "배경"의 영상 정보는 "나무"의 영상 정보에 의해 대체된다. 결과적으로, 제6a도 및 제6b도에 도시한 바와 같이 최전방 대상 물체 "나무"의 영상은 영역(31)에서 디스플레이된다.
최전방 대상 물체 "나무"의 스크린 영상과 중간 대상 물체 "자동차"의 스크린 영상이 서로 중첩된 영역(32) 및 중간 대상 물체 "자동차"의 스크린 영상과 최후방 대상 물체 "배경"의 스크린 영상이 서로 중첩되는 영역(도시되지 않음)에서도 또한 유사한 처리가 수행된다.
좌안용 영상 정보를 발생시키기 위해 CPU(25)의 제어하에 수행될 동작은 제7도에 도시한 플로우챠트를 참조하여 상세히 설명하겠다. 원래의 영상(A)의 종방향 및 횡방향의 화소 수 및 심도 영상(D)의 종방향 및 횡방향의 화소 수는 각각 "512"이다. 심도의 등급 수는 "32"이다.
단계 S11에서, 심도 등급 값(DEPTH)는 심도 등급의 최소값인 "0"으로 설정된다.
단계 S12에서, 횡방향 화소수(J)는 "0"으로 설정된다. 화소의 횡방향 화소수(J)는 원래의 영상(A)의 화소이고, 심도 영상(D)의 화소의 횡방향 화소 수를 원래의 영상(A)에 대응한다.
단계 S13에서, 종방향 회소 수(I)는 "0"으로 설정된다.
단계 S14에서, 입체 영상 정보 발생부(15)는 심도 정도 저장부(14)로부터 심도 정보(D)의 화소[D(i, j)]의 값과 동일한 심도 영상 정보(휘도 정보 : 심도 등급값) "DIJ"를 판독한다.
단계 S15에서, 단계14에서 판독된 화소 값 "DIJ"의 내용이 심도 등급 값(DEPTH)의 내용과 동일한지의 여부를 결정한다. 동일한 경우, 프로그램은 단계 S16으로 진행한다. 동일하지 않은 경우, 프로그램은 단계 S20으로 진행한다.
단계 S16에서, 원래의 영상(A)의 화소[A(i, j)]에 대응하는 좌안용 영상(B1)의 화소는 "B1(I+DEPTH, J)"이다.
즉, 이 경우 식(1)내의 비율=1이다.
단계 S17에서, 원래의 영상(A)의 화소[A(i, j)]의 값 "AIJ"는 2차원 영상 정보 저장부(12)로부터 판독된다.
단계 S18에서, 좌안용 영상(B1)내의 화소[B1(I+DEPTH, J)]의 값 [B1(I+DEPTH)J]는 원래의 영상(A)내의 화소[A(i, j)]의 화소값 "AIJ"으로 설정된다.
단계 S19에서, 입체 영상 정보 저장부(16)은 좌안용 영상(B1)의 화소 [B1(I+ DEPTH, J)]에 대응하는 어드레스에 화소 값[B1(I+DEPTH)J]를 저장한다.
단계 S20에서, 종방향 화소수(I)의 내용은 1씩 증가한다.
단계 S21에서, 종방향 화소 수(I)의 내용이 최대 화소 수 "512"보다 적은지의 여부를 결정한다. 작은 경우, 프로그램은 후속 화소가 종방향으로 처리되는 단계 S14로 복귀한다. 적지 않은 경우, 프로그램은 단계 S22로 진행한다.
단계 S22에서, 횡방향 화소 수(J)의 내용은 1씩 증가한다.
단계 S23에서, 종방향 화소 수(J)의 내용이 최대 화소 수 "512"보다 적은지의 여부를 결정한다. 적은 경우, 프로그램은 후속 화소가 횡방향으로 처리되는 단계 S13으로 복귀한다. 적지 않은 경우, 프로그램은 단계 S24로 진행한다.
단계 S24에서, 심도 등급 값(DEPTH)의 내용은 "1"씩 증가한다.
단계 S25에서, 심도 등급 값(DEPTH)의 내용이 [(심도 등급 수-1)에 대응하는] 심도 등급의 최대 값 "31"보다 적은지의 여부를 결정한다. 적은 경우, 좌안용 영상 정보를 발생시키기 위한 동작은 종료된다.
좌안용 영상 정보를 발생시키기 위한 동작에 따르면, 동일한 심도 등급 값을 각각 갖는 화소들은 낮은 심도 등급 값을 갖는 영상(최후방의 대상 물체 "배경")에서 높은 심도 등급 값을 갖는 영상 순으로 원래의 영상(A)의 화소들로부터 검색된다. 그 다음, 원래의 영상(A)의 검색된 화소에 대응하는 좌안용 영상(B1)의 화소 및 영상(B1)의 화소 값은 심도 등급 값 및 원래의 영상(A)의 화소 값에 기초하여 설정된다.
제8도는 CPU(25)의 제어하에 수행될 우안용 영상 정보를 발생시키기 위한 동작의 플로우챠트이다. 유사하게 원래의 영상(A)의 종방향 및 횡방향이 화소 수 및 심도 영상(D)의 종방향 및 횡방향의 화소 수는 각각 "512"이고 심도 등급 수는 "32"이다.
우안용 영상 정보를 발생시키기 위한 동작이 플로우챠트는 아래의 단계들을 제외하면 좌안용 영상 정보를 발생시키기 위한 동작이 플로우챠트와 유사하다.
단계 S36에서, 원래의 영상(A)의 화소[A(I, J)]에 대응하는 우안용 영상(B2)의 화소는 "B2(I-DEPTH, J)"으로 설정된다.
단계 S38에서, 우안용 영상(B2)내의 화소[B2(I-DEPTH, J)]의 (값[B2(I-DEPTH)J]는 원래의 영상(A)내의 화소[A(I, J)]의 화소 값 "AIJ"으로 설정된다.
단계 S39에서, 입체 영상 정보 저장부(16)은 우안용 영상(B2)이 화소[B2(I-DEPTH, J)]에 대응하는 어드레스에 화소 값[B2(I-DEPTH)J]를 저장한다.
상술한 알고리즘에 의해 발생된 좌안용 영상 정보에 기초하여 발생된 좌안용 한 예는 제3도에 도시한 원래의 영상에 관련하여 제9도에 도시하였다. 유사하게, 우안용 영상 정보에 기초하여 발생된 우안용 영상이 한 예는 제10도에 도시하였다.
좌안용 영상 정보 및 우안용 영상 정보는 후술하는 바와 같이 정정된다.
상술한 바와 같이, 좌안용 및 우안용 영상 정보의 화소의 거리(d)는 대상 물체의 심도 등급에 따라 좌우된다. 좌안용 영상 정보 및 우안용 영상 정보는 영상 정보가 각각 대상 물체의 스크린 영상들 사이에서 발생되지 않는 영역(사각 영역 ; dead angle region)을 갖는다. 2차원 영상 정보는 사각 영역이 원래의 영상 전방에 배치된 대상 물체의 사각내에 존재하기 때문에 사각 영역의 영상 정보를 포함하지 않는다. 제6a도 및 제6b도를 참조하면, 다음의 복사 처리 또는 영상 그리기 처리는 "나무"의 스크린 영상 영역과 "배경"의 스크린 영역 사이에서 발생된 사각 영역(33), "자동차의 스크린 영상 영역과 "배경"의 스크린 영상 영역사이에서 발생된 사각 영역(34) 및 자동차의 스크린 영상 영역과 "나무"의 스크린 영상 영역 사이에서 발생된 사각 영역(35)내에 영상이 형성되지 않도록 수행된다.
동일한 스크린 영상 예를 들어, "배경"의 스크린 영상의 원래의 영상내는 존재하는 사각 영역(33 및 34)내의 화소의 값은 입력부(24)를 경유하여 입체 영상 정보 정정부(23)에 입력된 영상 그리기 내용 "복사 처리"에 의해 정정된다. 그러므로, 입체 영상 정보 정정부(23)은 동일한 스크린 영상("배경")의 화소값을 복사함으로써 각각 사각 영역(33및 34)내의 영상을 발생시킨다. 동일한 스크린 영상이 원래의 영상내에 존재하지 않는 사각 영역(35)내의 화소의 값은 입력부(24)를 경유하여 입체 영상 정보 정정부(23)에 입력된 영상 그리기 명령 및 영상 그리기 내용 "영상 그리기 처리"에 의해 수정된다. 그러므로, 입체 영상 정보 정정부(23)은 영상 그리기 명령에 따라 사각 영역(35)내에 영상을 발생시킨다.
좌안용 영상 정보의 사각 영역(35)내에 영상을 그릴 때, 영상 정보 출력불(17)이 입체 영상 정보 저장부(16)으로부터 판독한 좌안용 영상 정보에 기초하여, 좌안용 영상만이 게이트(18)의 제어하에 영상 디스플레이부(20)상에 디스플레이된다. 영상 디스플레이(20)상에 디스플레이된 좌안용 영상의 사각 영역(35)를 관측할 때, 조작자는 사각 영역(35)내에 영상을 그린다.
입체 영상 정보 저장부(16)은 각각의 사각 영역에 대응하는 어드레스에서의 복사 처리 또는 영상 그리기 처리에 의해 발생된 각각의 사각 영역의 화소 값을 저장한다.
제9도에 도시한 바와 같은 좌안용 영상을 표시하는 좌안용 영상 정보의 정정의 결과로서, 제11도에 도시된 바와 같이 좌안용 영상 정보가 획득된다. 유사하게, 제10도에 도시한 바와 같은 우안용 영상을 표시하는 우안용 영상 정보의 정정의 결과로서, 제12도에 도시한 바와 같은 우안용 영상 정보가 획득된다.
이렇게 발생되어 입체 영상 정보 저장부(16)에 저장된 입체 영상 정보에 기초하여, 좌안용 영상 및 우안용 영상은 게이트(18)의 동작에 의해 제13도에 도시한 바와 같은 영상 디스플레이(20)상에 교대로 디스플레이된다. 조작자(36)은 스크린을 보기 위해 입체부(21)에 의해 제어되는 액정 셔터 안정(22)을 착용한다. 그러므로, 조작자 (36)은 입체 영상을 볼 수 있다.
이제, 좌안용 영상과 우안용 영상을 교대로 디스플레이함으로써 영상 디스플레이부(20)의 스크린 상에 입체 영상을 디스플레이하기 위한 동작을 설명하겠다.
입체 영상의 디스플레이는 CPU(25)의 제어하에 영상 정보 출력부(17), 게이트 (18), 입체부(21)에 의해 달성된다. CPU(25)는 수직 동기 신호와 동기하여 게이트 (18) 및 입체부(21)의 동작을 제어한다.
이제, 수직 동기 신호와 동기하여 CPU(25)에 의해 수행될 영상 디스플레이부(20)의 스크린상에 입체 영상을 디스플레이하기 위한 동작을 설명하겠다.
입체 영상 정보를 디스플레이하기 위한 동작은 CPU(25)의 제어 하에서 수행될 입체 영상 디스플레이 루틴의 플로우챠트인 제14도를 참조하여 설명하겠다.
CPU(25)는 입력부(24)로부터 출력되는 입체 영상을 디스플레이하기 위한 요구에 응답하여 인터럽션 처리를 수행하여, 입체 영상 디스플레이 루틴의 동작을 수행한다.
단게 S51에서, 수직 동기 신호의 레벨이 "H"(하이)에서 "L"(로우)로 변화되었는지의 여부를 결정한다.
"H"에서 "L"으로 변화된 경우, 프로그램은 단계 S52로 진행한다.
단계 S52에서, 영상 디스플레이부(20)상에 디스플레이되는 영상이 게이트 (18)로 출력된 제어 신호의 내용에 기초한 좌안용 영상인지의 여부를 결정한다. 좌안용 영상인 경우, 프로그램은 단계 S53으로 진행한다. 좌안용 영상이 아닌 경우, 프로그램은 단계 S55로 진행한다.
단계 S53에서, 우안 측상에 배치된 액정 셔터의 폐쇄 및 좌안 측상에 배치된 액정 셔터의 개방을 명령하는 제어 신호 CPU(25)에서 입체부(21)로 출력된다.
단계 S54에서, CPU(25)는 게이트(18)로 우안용 영상 정보의 출력을 명령하는 제어 신호를 출력한다.
결과적으로, 좌안 측상에 배치된 액정 셔터는 폐쇄되고 우안 측상에 배치된 액정 셔터는 개방된다. 결과적으로 우안용 영상이 영상 디스플레이(20)의 스크린 상에 디스플레이된다.
단계 S55에서, 우안 측상에 배치된 액정 셔터의 폐쇄 및 좌안 측상에 배치된 액정 셔터의 개방을 명령하는 제어 신호는 CPU(25)에서 입체부(21)로 출력된다.
단게 S56에서, CPU(25)는 게이트(18)로 좌안용 영상 정보의 출력을 명령하는 제어 신호를 출력한다.
결과적으로, 좌안 측상에 배치된 액정 셔터는 개방되고 우안 측상에 배치된 액정 셔터는 폐쇄된다. 결과적으로, 좌안용 영상은 영상 디스플레이부(20)의 스크린 상에 디스플레이된다.
단계 S57에서, 입체 영상 정보의 디스플레이를 정지시키기 위한 인터럽션 요구가 입력부(24)로부터 입력되었는지의 여부를 결정한다. 입력되지 않은 경우, 프로그램은 후속의 프레임을 수행하기 위해 단계 S51로 복귀한다. 입력된 경우 프로그램은 메인 루틴으로 복귀한다.
CPU(25)가 입력부(24)로부터 입체 영상 정보의 디스플레이를 정지하기 위한 인터렵션 요구를 수신할 때 가지 프로그램이 단계 S51에서 단계 S57로 반복적으로 진행하는 동안, 입체 영상은 영상 디스플레이(20)의 스크린 상에 디스플레이되고 우안 측상에 배치된 액정 셔터 및 좌안 측상에 배치된 액정 셔터는 서로 교대로 폐쇄된다.
상기 입체 영상이 디스플레이될 때, 수직 동기 신호의 레벨은 변화하고, 좌안용 영상 및 우안용 영상은 스크린 상에 교대로 디스플레이되며, 좌안 측상의 액정셔터 및 우안 측상의 셔터는 타이밍도인 제15도에 도시된 바와 같이 폐쇄되고 개방된다. 수직 동기 신호의 레벨은 매/120초 마다 "H"에서 "L"으로 변화한다.
수직 동기 신호의 레벨 변화와 동기하여, 액정 셔터 안경(22)의 액정 셔터를 개방 및 폐쇄하기 위한 제어, 및 좌안용 영상 및 우안용 영상을 교대로 디스플레이하기 위한 제어가 행해진다.
상술한 바와 같이, 이 실시예에 따르면, 영상 입력부(11)로부터 출력된 2차원 영상 정보에 기초하는 원래의 영상내의 각 영역의 심도 등급 값은 입력부(24)를 통해 입력된 심도 정보에 의해 지정된다. 그 다음, 심도 정보 발생부(13)은 지정된 심도 등급에 따라 휘도 정보에 의해 표시된 심도 영상 정보를 발생시킨다.
그 다음, 식(1)에 기초하여, 입체 영상 정보 발생부(15)는 거리(d)의 값 즉, 좌안용 스크린 영상과 우안용 스크린 영상의 시차의 1/2을 계산하여, 계산된 거리(d)의 값 및 2차원 영상 정보에 기초하여 좌안용 영상 정보 및 우안용 영상 정보를 발생시킨다. 이때, 대상 물체 전방의 스크린 영상 및 대상 물체 후방의 스크린 영상이 서로 중첩하는 영역의 화소값은 2차원 영상 정보내의 전방 대상 물체의 화소값으로 설정된다.
영상 정보 출력부(17)은 발생된 좌안용 영상 정보 및 우안용 영상 정보를 포함하는 입체 영상 정보를 판독하고, 좌안용 영상 및 우안용 영상은 게이트(18)의 제어하에 규칙적인 시간 간격으로 영상 디스플레이(20)의 스크린상에 교대로 디스플레이된다. 그러므로, 조작자는 좌안용 영상을 우안용 영상으로 전환하기 위해 그리고 우안용 영상을 좌안용 영상으로 전환하기 위해 게이트(18)의 동작과 동기하여 입체부(21)의 제어에 의해 개방 및 폐쇄되는 액정 셔터 안경(22)의 셔터를 통해 좌안으로 좌안용 영상을 볼 수 있고 우안으로 우안용 영상을 볼 수 있다.
그러므로, 조작자는 좌안내의 대상 물체의 스크린 영상과 우안내의 대상 물체의 스크린 영상의 변위(=2d=시차)량에 따라 각 대상 물체의 심도를 감지할 수 있으므로, 대상 물체가 입체적이라는 것을 감지한다.
이 실시예에 따르면, 조작자가 3차원 대상 물체를 형성하거나 3차원 형태의 다수의 데이타를 발생/입력할 필요가 없을뿐만 아니라, 원래의 영상의 각 영역의 심도 등급 값을 지정할 필요가 없으므로, 2차원 영상 정보에 기초하여 짧은 기간에 용이하게 입체 영상 정보를 발생시킨다.
좌안 및 우안용 영상내의 대상 물체 전방의 스크린 영역의 거리(d)와 좌안 및 우안용 영상내의 대상 물체 후방의 스크린 영상의 거리(d) 사이의 차이에 의해 발생되는 사각 영역의 화소값을 발생시키기 위해, 입체 영상 정보 정정부(23)은 입력부(24)를 경유하여 조작자에 의해 입력된 영상 그리기 명령 또는 영상 그리기 내용에 따라 영상 복사 처리 또는 영상 그리기 처리를 수행한다.
그러므로, 대상 물체의 형태가 복잡할지라도, 입체 영상 정보는 2차원 영상 정보에 기초하여 발생될 수 있다.
사각 영역(33, 34 또는 35)에서의 입체 영상 정보를 발생시키기 위해, 조작자는 입력부(24)를 통해 각각의 사각 영역에서 복사 처리 또는 영상 그리기를 지정한다. 그러나, 본 발명은 복사 처리 또는 영상 그리기의 방법에 제한되지 않는다.
예를 들어, 복사 처리는 각각의 사각 영역에서 수행된다. 즉, 화소들이 각각의 사각 영역의 윤곽을 구성하는 경우, 후방 대상 물체의 화소 값은 종방향으로 반복적으로 복사된다. 예를 들어, 화소들의 사각 영역(34)의 윤곽을 구성하는 경우, "나무"보다 후방에 배치된 "배경"의 스크린 영상을 구성하는 화소들의 값은 종방향으로 오른쪽으로 반복적으로 복사된다. 사각 영역(35)의 경우에, "나무"보다 후방에 배치된 "자동차"의 스크린 영상을 구성하는 화소의 값들은 종방향으로 오른쪽으로 반복적으로 복사된다.
이렇게 형성된 각 사각 영역의 스크린 영상은 영상 디스플레이부(20)에 의해 평가된다. 화소들이 사각 영역(35)의 윤곽을 구성하는 경우, "자동차"의 스크린 영상을 구성하는 화소들은 "자동차"의 "도어"를 표시하는 화소이고, 실제 폭보다 큰 "도어"의 스크린 영상이 사각 영역(35)내에 그려지며, 영상 그리기는 처리는 정정될 필요가 있는 사각 영역에서만 수행되므로, 입체 영상을 발생시킬 때 조작자의 부담을 감소시킨다.
본 발명은 한 대상 물체의 심도 영상 정보가 한 종류의 심도 영상 정보의 값으로 표시되는 상기 실시예에 제한되지 않는다. 다수의 심도 영상 정보에 의해 대상 물체를 표시하기 위해서는 대상 물체를 전방 영역 및 후방 영역으로 보다 미세하게 분류할 수 있다. 그러므로, 이 장치는 보다 입체적인 영상을 제공한다.
거리(d)를 계산하는 알고리즘, 좌안용 및 우안용 영상 정보를 발생시키기 위한 처리, 및 입체 영상을 디스플레이하기 위한 처리는 상술한 실시예의 알고리즘에 제한되지 않는다.
본 발명의 심도 정보로서 휘도 정보에 의해 표시된 심도 영상 정보를 발생시키는 심도 정보 발생부(13)에 의해 수행되는 방법에 제한되지 않는다.
상기 실시예의 입체 영상 정보 저장부(16)은 입체 영상 정보를 유지하기 위해 외부저장 수단에 의해 구성될 수 있다.
액정 셔터 안경(22) 대신에, 다른 수단을 갖는 셔터-구비 안경은 좌안용 영상 및 우안용 영상을 관측하는데 사용될 수 있다.
영상 입력부(11)은 카메라를 대신하는 다른 광학 장치 또는 2차원 영상 정보를 획득하는 영상 스캐너를 포함할 수 있다.
예를 들어, 영상 입력부(11)은 입력부(24)로부터 입력된 대상 물체의 영상 그리기 정보에 따라 2차원 영상 정보를 발생시키기 위한 영상 그리기 수단을 구비할 수 있다.
상술한 설명으로부터 명백해지는 바와 같이 제1실시예의 장치에 따르면, 심도 정보 발생부는 영상 입력부를 경유하여 입력된 2차원 영상 정보에 기초하는 원래의 영상내의 다수의 위치의 심도들을 입력부로부터 출력된 심도 정보에 응답하여 다수의 등급으로 분류하여, 2차원 영상 정보내의 각 화소의 심도의 등급을 표시하는 심도 정보를 발생시킨다.
그 다음, 2차원 영상 정보 및 심도 정보에 기초하여, 입체 영상 정보 발생부는 선정된 규칙에 따라 좌안용 영상 및 우안용 영상 정보를 구성하는 입체 영상 정보를 발생시킨다. 영상 디스플레이부는 영상 디스플레이부의 스크린 상에 좌안용 영상 및 우안용 영상을 교대로 디스플레이하는 스위칭 동작을 수행한다.
이 스위칭 동작에 동기하여, 우안측에 배치된 안경의 셔터는 좌안용 영상이 영상 디스플레이부의 스크린 상에 디스플레이될 때 셔터 제어부의 제어하에 폐쇄되고, 좌안측상에 배치된 안경의 셔터는 우안용 영상이 영상 디스플레이부의 스크린 상에 디스플레이될 때 셔터 제어부의 제어하에 폐쇄된다.
그러므로, 조작자는 좌안으로 좌안용 영상을 보는 것과 거의 동시에 우안으로 우안용 영상을 봄으로써 입체 영상을 관측한다.
제1실시예에 따르면, 조작자는 3차원 대상 물체를 형성하거나 3차원 형태에 다수의 데이터를 발생/입력할 필요가 없이, 입력부를 경유하여 심도 정보만을 입력시킴으로써 풍경과 같은 복잡한 입체 영상을 용이하게 발생시킬 수 있다.
제2실시예의 장치에 따르면, 심도 정보가 심도 정보 발생부에 의해 발생될때, 휘도 정보 발생 수단은 휘도 정보에 의해 2차원 영상 정보내의 각 화소의 심도 등급을 표시하는 심도 영상 정보를 발생시킨다. 결과적으로, 영상 디스플레이부는 스크린 상의 심도 영상 정보에 기초하는 심도 영상을 디스플레이한다. 그러므로, 심도 영상의 휘도 정도는 조작자가 원래의 영상내의 각 영역의 심도 등급을 인식할 수 있게 한다.
그러므로, 조작자는 입체 영상이 스크린 상에 디스플레이되기 전에 발생된 입체 영상 정보를 갖도록 원래의 영상의 각 영역의 심도 등급을 검사한다. 그러므로, 풍경과 같은 복잡한 형태를 갖는 대상 물체의 입체 영상이 용이하게 발생 할 수 있다.
제3실시예의 장치에 따르면, 입력부를 경유하여 입력된 영상 그리기 정보에 기초하여, 입체 영상 정보 정정부는, 원래의 영상에서는 볼 수 없지만, 시점의 전이로 인해 좌안용 영상 및 우안용 영상에서는 볼 수 있는 사각 영역의 영상 정보를 선정된 절차에 의해 발생시킴으로써 입체 영상 정보 저장부에 저장된 입체 영상 정보를 정정한다.
그러므로, 매우 복잡한 형태를 갖는 대상 물체의 입체 영상이 매우 용이하게 발생될 수 있다.
제4실시예에 따르면, 입력부에 의해 입력된 대상 물체의 영상 그리기 정보에 기초하여, 대상 물체의 영상을 표시하는 2차원 영상 정보는 영상 입력부의 영상 그리기 수단에 의해 발생되어 2차원 영상 정보 저장부에 저장된다.
그러므로, 실예와 같은 사진의 입체 영상 정보는 입력부에 의해 입력된 영상 그리기 정보에 기초하여 용이하게 발생될 수 있다.
제5실시예의 장치에 따르면, 입체 영상 정보 저장부는 외부 저장 수단에 의해 구성된다.
그러므로, 풍경과 같이 복잡한 형태를 제공하는 입체 영상 정보가 용이하게 발생되어 저장될 수 있다. 부수적으로, 저장된 입체 영상 정보에 기초하는 입체영상은 필요한 때 반복적으로 디스플레이될 수 있다.
제6실시예의 장치에 따르면, 대상 물체의 영상을 표시하는 2차원 영상 정보에 기초한 원래의 영상내의 다수의 위치의 심도는 다수의 등급으로 분류되고, 2차원 영상 정보내의 각 화소의 심도의 등급을 표시하는 심도 정보가 발생된다. 좌안용 영상 정보 및 우안용 영상 정보는 심도 정보에 기초하는 좌안용 영상 정보내의 화소의 시차, 및 심도 정보 및 2차원 영상 정보에 기초하는 우안용 영상 정보내의 대응하는 화소의 시차에 기초하는 발생된다. 좌안용 영상 정보에 기초하는 좌안용 영상 및 우안용 영상 정보에 기초하여 우안용 영상은 선정된 규칙적인 시간 간격으로 영상 디스플레이부의 스크린 상에 교대로 디스플레이된다.
제6실시예에 따르면, 조작자가 3차원 대상 물체를 형성하거나 3차원 형태를 표시하는 다수의 데이타를 발생/입력할 필요가 없을 뿐만 아니라, 원래의 영상내의 위치의 심도를 다수의 등급으로 분류함으로써, 풍경 영상과 같은 복잡한 입체 영상을 용이하게 발생시킨다.
제7실시예에 장치에 따르면, 2차원 영상 정보내의 각 화소의 심도의 등급을 표시하는 심도 영상 정보는 심도 정보로서 발생된다. 휘도 정도에 의해 원래의 영상내의 각 위치에서의 심도의 등급을 표시하는 심도 영상은 발생된 심도 영상 정보에 기초하여 필요에 따라 디스플레이된다. 좌안용 영상 정보내의 화소의 시차 및 우안용 영상 정보내의 대응하는 화소의 시차는 심도 영상 정보내의 보다 밝은 화소에 대응하는 위치가 원래의 영상 전방이고, 심도 영상 정보내의 보다 어두운 화소에 대응하는 위치가 원래의 영상 후방이라고 가정함으로써 심도 영상 정보에 기초하여 발견된다.
결과적으로, 각 영역의 심도 등급은 심도 영상 정보에 기초하는 심도 영상에 의해 인식될 수 있다.
그러므로, 조작자가 대상 물체 전체의 원래 영상의 각 위치의 심도 등급을 확인한 후, 조작자는 입체 영상 정보를 발생시키고 풍경 영상과 같은 복잡한 형태의 입체 영상을 발생시킬 수 있다.
본 발명이 첨부된 도면을 참조하여 본 발명의 양호한 실시예를 설명하였을지라도, 다양한 변경예 및 변형예가 본 분야에 숙련된 통상의 기술자에게는 명백하다는 것은 인식하여야 한다. 이러한 변경예 및 변형예는 이들의 본 발명의 범위를 벗어나지 않는다면 첨부된 특허 청구의 범위에 의해 정해진 본 발명의 범위내에 포함되는 것으로 이해될 수 있다.

Claims (7)

  1. 대상 물체의 영상을 픽업(pick up)하여 상기 픽업된 영상을 표시하는 2차원 영상 정보를 출력하기 위한 영상 입력부, 상기 영상 입력부로부터 출력된 상기 2차원 영상 정보를 저장하기 위한 2차원 영상 정보 저장부, 상기 2차원 영상 정보에 기초하는 원래의 영상내의 각각의 위치에서의 심도(depth)의 등급(class)을 지정하기 위한 정보를 입력하는 입력부, 상기 입력부로부터 입력된 상기 심도 정보에 따라 상기 원래의 영상내의 각 위치에서의 심도를 분류하여, 상기 2차원 영상 정보내의 각 화소에서의 심도 등급을 표시하는 심도 정보를 발생시키기 위한 심도 정보 발생부, 상기 심도 정보 발생부에 의해 발생된 심도 정보를 저장시키기 위한 심도 정보 저장부, 상기 2차원 영상 정보 저장부에 저장된 상기 2차원 영상 정보 및 상기 심도 정보 저장부에 저장된 상기 심도 정보에 기초하여, 선정된 규정에 따라, 좌안의 시점으로부터 관측될 영상을 디스플레이하기 위한 영상 정보와 우안의 시점으로부터 관측될 영상을 디스플레이하기 위한 영상 정보로 이루어진 입체 영상 정보를 발생시키기 위한 입체 영상 정보 발생부, 상기 입체 영상 정보 발생부에 의해 발생된 상기 입체 영상 정보를 저장하기 위한 입체 영상 정보 저장부, 상기 입체 영상 정보 저장부에 저장된 상기 입체 영상 정보로부터 좌안용 영상 정보 및 우안용 영상 정보를 교대로 판독하여, 상기 좌안용 영상과 상기 우안용 영상을 스크린 상에 선정된 규칙적인 시간 간격으로 교대로 디스플레이하는 스위칭 동작을 수행하기 위한 영상 디스플레이부, 상기 영상 디스플레이부 상에 디스플레이된 상기 좌안용 영상 및 상기 우안용 영상을 관측하는데 사용될 셔터-구비 안경, 및 상기 영상 디스플레이부에 의해 수행된 상기 스위칭 동작과 동기하여, 상기 좌안용 영상이 상기 영상 디스플레이부의 스크린 상에 디스플레이될 때 우안측 셔터를 폐쇄하고, 상기 우안용 영상이 상기 영상 디스플레이부의 스크린 상에 디스플레이될 때 좌완측 셔터를 폐쇄하기 위한 셔터 제어부를 포함하는 것을 특징으로 하는 입체 영상을 발생시키기 위한 장치.
  2. 제1항에 있어서, 상기 심도 정보 발생부는 휘도 정보에 의해 상기 2차원 영상 정보내의 각 화소의 심도 등급을 표시하는 심도 정보로서 작용하는 심도 영상 정보를 발생시키기 위한 휘도 정보 발생 수단을 포함하고, 상기 영상 디스플레이부는 스크린상의 휘도 정도(degree)에 의해 상기 원래의 영상내의 각 위치에서의 심도의 등급을 표시하는 상기 심도 영상을 디스플레이하기 위해 필요에 따라 상기 심도 영상 정보를 독출하는 것을 특징으로 하는 입체 영상을 발생시키기 위한 장치.
  3. 제1항 또는 제2항에 있어서, 상기 입력부는 상기 심도 정보 이외에, 상기 입체 영상 정보 발생부에 의해 발생된 상기 입체 영상 정보에 기초하는 입체 영상용 그리기(drawing) 정보를 입력하고, 상기 입력부에 의해 입력된 상기 영상 그리기 정보에 기초하여, 상기 원래의 영상에서 볼수 없지만, 시점의 이동에 의해 좌안과 우안용 영상내에 관측될 수 있는 사각(dead angle) 영역의 영상 정보를 선정된 절차에 따라 발생시켜 상기 입체 영상 정보를 선정된 절차에 따라 발생시켜 상기 입체 영상 정보를 정정하기 위한 입체 영상 정보 정정부를 더 포함하는 것을 특징으로 하는 입체 영상을 발생시키기 위한 장치.
  4. 제1항에 있어서, 상기 영상 입력부는 상기 입력부에 의해 입력된 상기 대상 물체에 대한 상기 영상 그리기 정보에 기초하여 상기 대상 물체의 영상을 표시하는 2차원 영상 정보를 발생시키기 위한 영상 그리기 수단을 포함하는 것을 특징으로 하는 입체 영상을 발생시키기 위한 장치.
  5. 제1항에 있어서, 상기 입체 영상 정보 저장부가 외부의 저장 수단으로 이루어진 것을 특징으로 하는 입체 영상을 발생시키기 위한 장치.
  6. 사람의 시점으로부터 관측될 좌안용 영상 및 사람의 시점으로부터 관측될 우안용 영상으로 이루어지는 입체 영상을 발생시키기 위한 방법에 있어서, 대상 물체의 영상을 표시하는 2차원 영상 정보를 발생시키는 단계, 상기 2차원 영상 정보에 기초한 원래의 영상내의 각 위치에서의 심도를 다수의 등급으로 분류하여, 상기 2차원 영상 정보내의 각 화소의 심도 등급을 표시하는 심도 정보를 발생시키는 단계, 상기 심도 정보에 기초하여, 상기 좌안용 영상을 디스플레이하기 위한 좌안용 영상 정보내의 화소의 시차 및 상기 우안용 영상을 디스플레이하기 위한 우안용 영상 정보내의 대응하는 화소의 시차를 찾는 단계, 찾아낸 시차 및 상기 2차원 영상 정보에 기초하여, 상기 좌안용 영상 정보 및 상기 우안용 영상 정보로 이루어지는 입체 영상 정보를 발생시키는 단계, 및 상기 좌안용 영상 정보에 기초하는 상기 좌안용 영상 및 상기 우안용 영상 정보에 기초하는 상기 우안용 영상을 선정된 규칙적인 시간 간격으로 교대로 디스플레이하는 단계를 포함하는 것을 특징으로 하는 입체 영상을 발생시키는 방법.
  7. 제6항에 있어서, 심도 정보로서 상기 2차원 영상 정보내의 각 화소의 심도 등급을 표시하는 심도 영상 정보를 발생시키는 단계, 심도 영상 발생 정보에 기초하여, 상기 원래의 영상내의 각 위치에서의 심도의 등급을 표시하는 심도 영상을 필요에 따라 디스플레이하는 단계, 및 상기 심도 영상 정보의 명(brighter)화소에 대응하는 위치가 상기 원래의 영상의 전방에 배치되고, 상기 심도 영상 정보의 암(darker) 화소에 대응하는 위치가 상기 원래의 영상의 후방에 배치된다고 가정함으로써, 상기 심도 정보로서 작용하는 상기 심도 영상 정보에 기초하여, 상기 좌안용 영상 정보내의 화소의 시차 및 상기 우안용 영상 정보내의 대응하는 화소의 시차를 찾는 단계를 포함하는 것을 특징으로 하는 입체 영상을 발생시키는 방법.
KR1019920003548A 1991-03-04 1992-03-04 입체 영상을 발생시키기 위한 장치 및 그 방법 KR950011822B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP3715091 1991-03-04
JP91-37150 1991-03-04
JP4037791A JPH0568268A (ja) 1991-03-04 1992-02-25 立体視画像作成装置および立体視画像作成方法
JP92-37791 1992-02-25

Publications (2)

Publication Number Publication Date
KR920019203A KR920019203A (ko) 1992-10-22
KR950011822B1 true KR950011822B1 (ko) 1995-10-10

Family

ID=26376234

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019920003548A KR950011822B1 (ko) 1991-03-04 1992-03-04 입체 영상을 발생시키기 위한 장치 및 그 방법

Country Status (5)

Country Link
US (1) US5379369A (ko)
EP (1) EP0502511B1 (ko)
JP (1) JPH0568268A (ko)
KR (1) KR950011822B1 (ko)
DE (1) DE69221346T2 (ko)

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5694142A (en) * 1993-06-21 1997-12-02 General Electric Company Interactive digital arrow (d'arrow) three-dimensional (3D) pointing
CN1113546C (zh) * 1993-12-24 2003-07-02 中国民用航空学院 时分式计算机立体图像显示系统
US5790086A (en) * 1995-01-04 1998-08-04 Visualabs Inc. 3-D imaging system
KR100414629B1 (ko) * 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
JPH11509998A (ja) * 1995-06-02 1999-08-31 フィリップ シュルツ 画像を立体像に変換する方法、並びに該方法により得られる像及び一連の像
JPH09139957A (ja) * 1995-11-14 1997-05-27 Mitsubishi Electric Corp グラフィック表示装置
EP0809913B1 (en) * 1995-12-19 2002-06-12 Koninklijke Philips Electronics N.V. Parallactic depth-dependent pixel shifts
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
JP3231618B2 (ja) * 1996-04-23 2001-11-26 日本電気株式会社 3次元画像符号化復号方式
GB9611938D0 (en) * 1996-06-07 1996-08-07 Philips Electronics Nv Stereo image generation
US5796373A (en) * 1996-10-10 1998-08-18 Artificial Parallax Electronics Corp. Computerized stereoscopic image system and method of using two-dimensional image for providing a view having visual depth
US6088052A (en) * 1997-01-08 2000-07-11 Recherches Point Lab Inc. 3D stereoscopic video display system
US5781229A (en) * 1997-02-18 1998-07-14 Mcdonnell Douglas Corporation Multi-viewer three dimensional (3-D) virtual display system and operating method therefor
KR100259837B1 (ko) * 1997-07-14 2000-06-15 윤종용 이차원 이미지로부터의 삼차원 이미지 디스플레이 방법
EP1044432A4 (en) * 1997-12-05 2007-02-21 Dynamic Digital Depth Res Pty IMPROVED IMAGE TRANSFORMATION AND CODING TECHNIQUES
US6515662B1 (en) * 1998-07-16 2003-02-04 Canon Kabushiki Kaisha Computer apparatus for providing stereoscopic views from monographic images and method
WO2000019265A1 (de) * 1998-09-30 2000-04-06 Siemens Aktiengesellschaft Anordnung und verfahren zur stereoskopischen darstellung eines objekts
US6344860B1 (en) * 1998-11-27 2002-02-05 Seriate Solutions, Inc. Methods and apparatus for a stereoscopic graphic user interface
KR100609743B1 (ko) * 1999-05-28 2006-08-09 엘지.필립스 엘시디 주식회사 입체화상 표시방법
KR20010011382A (ko) * 1999-07-27 2001-02-15 성필문 1장의 일반 이미지로 부터 입체영상구현을 위한 스테레오스코픽 이미지를 도출하기위한 방법을 기록한 롬
EP1098498A1 (fr) 1999-11-04 2001-05-09 Koninklijke Philips Electronics N.V. Appareil comportant un écran pour des images stéréoscopiques
US6687399B1 (en) * 2000-08-03 2004-02-03 Silicon Integrated Systems Corp. Stereo synchronizing signal generator for liquid crystal shutter glasses
JP2002123842A (ja) * 2000-10-13 2002-04-26 Takumi:Kk 立体視画像生成装置および情報記憶媒体
DE10109880A1 (de) * 2001-02-27 2002-09-05 4D Vision Gmbh Verfahren und Vorrichtung zur Erstellung einer Tiefenkarte zu einem zweidimensionalen Bild und zur Übertragung von räumlichen Bildinformationen
FI117146B (fi) * 2001-06-18 2006-06-30 Karri Tapani Palovuori Suljintoimintoon perustuva laitteisto stereo- tai monikanavakuvan projisoimiseksi
FI117810B (fi) 2001-06-18 2007-02-28 Karri Palovuori Pulssitukseen perustuva laitteisto stereo- tai monikanavakuvan projisoimiseksi
JP4708619B2 (ja) * 2001-07-31 2011-06-22 キヤノン株式会社 立体画像形成システムおよび立体画像形成方法
JP3816813B2 (ja) * 2002-02-18 2006-08-30 富士写真フイルム株式会社 表示装置
DE60332328D1 (de) * 2002-03-13 2010-06-10 Imax Corp Systeme und verfahren für ein digitales remastering oder anderweitiges modifizieren von beweglichen bildern oder anderen bildsequenzdaten
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP3857988B2 (ja) * 2002-03-27 2006-12-13 三洋電機株式会社 立体画像処理方法および装置
WO2003081921A1 (fr) * 2002-03-27 2003-10-02 Sanyo Electric Co., Ltd. Procede de traitement d'images tridimensionnelles et dispositif
JP2003284093A (ja) * 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
US20040100489A1 (en) * 2002-11-26 2004-05-27 Canon Kabushiki Kaisha Automatic 3-D web content generation
JP4562457B2 (ja) * 2003-10-02 2010-10-13 株式会社リコー 画像処理装置及び画像処理方法
EP1977395B1 (en) * 2006-01-27 2018-10-24 Imax Corporation Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
US20070247392A1 (en) * 2006-04-21 2007-10-25 International Business Machines Corporation Method for displaying private/secure data
CN101479765B (zh) 2006-06-23 2012-05-23 图象公司 对2d电影进行转换用于立体3d显示的方法和系统
JP5094219B2 (ja) * 2006-06-29 2012-12-12 パナソニック株式会社 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
US8207962B2 (en) * 2007-06-18 2012-06-26 Mediatek Inc. Stereo graphics system based on depth-based image rendering and processing method thereof
EP2225725A2 (en) * 2007-12-20 2010-09-08 Koninklijke Philips Electronics N.V. Segmentation of image data
TWI362628B (en) * 2007-12-28 2012-04-21 Ind Tech Res Inst Methof for producing an image with depth by using 2d image
JP4610634B2 (ja) * 2008-05-16 2011-01-12 シャープ株式会社 画像処理方法、その方法を実現するためにコンピュータにより実行されるプログラム、及びそのプログラムを記録した記録媒体
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
USRE45394E1 (en) 2008-10-20 2015-03-03 X6D Limited 3D glasses
US20110234775A1 (en) * 2008-10-20 2011-09-29 Macnaughton Boyd DLP Link System With Multiple Projectors and Integrated Server
USD666663S1 (en) 2008-10-20 2012-09-04 X6D Limited 3D glasses
USD624952S1 (en) 2008-10-20 2010-10-05 X6D Ltd. 3D glasses
USD603445S1 (en) 2009-03-13 2009-11-03 X6D Limited 3D glasses
CA2684513A1 (en) * 2008-11-17 2010-05-17 X6D Limited Improved performance 3d glasses
US20110205347A1 (en) * 2008-11-17 2011-08-25 X6D Limited Universal 3d glasses for use with televisions
US8542326B2 (en) * 2008-11-17 2013-09-24 X6D Limited 3D shutter glasses for use with LCD displays
US20100245999A1 (en) * 2009-03-30 2010-09-30 Carlow Richard A Cart For 3D Glasses
US20110216176A1 (en) * 2008-11-17 2011-09-08 Macnaughton Boyd 3D Glasses With RF Synchronization
EP2197217A1 (en) * 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format
USD646451S1 (en) 2009-03-30 2011-10-04 X6D Limited Cart for 3D glasses
USD672804S1 (en) 2009-05-13 2012-12-18 X6D Limited 3D glasses
USD650956S1 (en) 2009-05-13 2011-12-20 X6D Limited Cart for 3D glasses
GB2470759A (en) * 2009-06-03 2010-12-08 Sony Comp Entertainment Europe Displaying videogame on 3D display by generating stereoscopic version of game without modifying source code
JP5620651B2 (ja) * 2009-06-26 2014-11-05 キヤノン株式会社 再生装置、撮像装置、及びその制御方法
US20110025821A1 (en) * 2009-07-30 2011-02-03 Dell Products L.P. Multicast stereoscopic video synchronization
JP2011070415A (ja) * 2009-09-25 2011-04-07 Fujifilm Corp 画像処理装置及び画像処理方法
JP5794335B2 (ja) * 2009-10-28 2015-10-14 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5521913B2 (ja) 2009-10-28 2014-06-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
USD692941S1 (en) 2009-11-16 2013-11-05 X6D Limited 3D glasses
USD671590S1 (en) 2010-09-10 2012-11-27 X6D Limited 3D glasses
USD669522S1 (en) 2010-08-27 2012-10-23 X6D Limited 3D glasses
USD662965S1 (en) 2010-02-04 2012-07-03 X6D Limited 3D glasses
US10922870B2 (en) * 2010-06-01 2021-02-16 Vladimir Vaganov 3D digital painting
US9440484B2 (en) 2010-06-01 2016-09-13 Vladimir Vaganov 3D digital painting
US9734622B2 (en) 2010-06-01 2017-08-15 Vladimir Vaganov 3D digital painting
US10217264B2 (en) * 2010-06-01 2019-02-26 Vladimir Vaganov 3D digital painting
US8817017B2 (en) 2010-06-01 2014-08-26 Vladimir Vaganov 3D digital painting
JP5238767B2 (ja) * 2010-07-26 2013-07-17 株式会社東芝 視差画像生成方法及び装置
USD664183S1 (en) 2010-08-27 2012-07-24 X6D Limited 3D glasses
US8704879B1 (en) 2010-08-31 2014-04-22 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display
KR101640404B1 (ko) * 2010-09-20 2016-07-18 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
CN102457735B (zh) * 2010-10-28 2014-10-01 深圳Tcl新技术有限公司 一种兼容性3d快门眼镜的实现方法
JP5685079B2 (ja) * 2010-12-28 2015-03-18 任天堂株式会社 画像処理装置、画像処理プログラム、画像処理方法および画像処理システム
CN102547317A (zh) * 2010-12-30 2012-07-04 昆盈企业股份有限公司 立体动态影像的形成方法及立体动态影像撷取装置
US8681182B2 (en) 2011-04-19 2014-03-25 Deluxe 3D Llc Alternate viewpoint rendering
JP5100874B1 (ja) * 2011-08-31 2012-12-19 株式会社東芝 映像処理装置および映像処理方法
JP2013090185A (ja) * 2011-10-19 2013-05-13 Sharp Corp 画像ファイル生成装置、画像ファイル読込装置、画像ファイル生成方法、画像ファイル読込方法およびプログラム
US8605114B2 (en) * 2012-02-17 2013-12-10 Igt Gaming system having reduced appearance of parallax artifacts on display devices including multiple display screens
JP5963483B2 (ja) * 2012-03-12 2016-08-03 キヤノン株式会社 撮像装置および撮像装置の制御方法
US8934707B2 (en) 2012-03-21 2015-01-13 Industrial Technology Research Institute Image processing apparatus and image processing method
USD711959S1 (en) 2012-08-10 2014-08-26 X6D Limited Glasses for amblyopia treatment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4925294A (en) * 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
JPS62293381A (ja) * 1986-06-11 1987-12-19 Toshiba Corp 立体画像表示装置

Also Published As

Publication number Publication date
EP0502511A2 (en) 1992-09-09
US5379369A (en) 1995-01-03
JPH0568268A (ja) 1993-03-19
KR920019203A (ko) 1992-10-22
DE69221346T2 (de) 1998-03-19
EP0502511A3 (en) 1994-06-08
EP0502511B1 (en) 1997-08-06
DE69221346D1 (de) 1997-09-11

Similar Documents

Publication Publication Date Title
KR950011822B1 (ko) 입체 영상을 발생시키기 위한 장치 및 그 방법
US6175379B1 (en) Stereoscopic CG image generating apparatus and stereoscopic TV apparatus
KR101956149B1 (ko) 이미지 사이의 광학 흐름의 효율적 결정
US6233004B1 (en) Image processing method and apparatus
JP4065488B2 (ja) 3次元画像生成装置、3次元画像生成方法及び記憶媒体
US6314211B1 (en) Apparatus and method for converting two-dimensional image sequence into three-dimensional image using conversion of motion disparity into horizontal disparity and post-processing method during generation of three-dimensional image
US6384859B1 (en) Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
JPH08331607A (ja) 三次元表示画像生成方法
US20150249790A1 (en) Image processing apparatus, image display apparatus and imaging apparatus having the same, image processing method, and computer-readable medium storing image processing program
EP3163535A1 (en) Wide-area image acquisition method and device
EP1074943A2 (en) Image processing method and apparatus
EP1556736A1 (en) Image capture and and display and method for generating a synthesized image
US20220078385A1 (en) Projection method based on augmented reality technology and projection equipment
CN114241168A (zh) 显示方法、显示设备及计算机可读存储介质
US11043019B2 (en) Method of displaying a wide-format augmented reality object
JP3197801B2 (ja) 二次元表示画像生成方法
JPH08331599A (ja) 時分割方式立体映像信号検出方法、時分割方式立体映像信号検出装置および立体映像表示装置
JPH08201941A (ja) 3次元画像形成方法
JPH09288735A (ja) 画像処理装置
TW407237B (en) Image output device
CN115409707A (zh) 一种基于全景视频拼接的图像融合方法及系统
JPH09327037A (ja) 輪郭抽出方法及び画像抽出方法及び装置
JP3128467B2 (ja) 2次元映像を3次元映像に変換する方法
JP2003101690A (ja) 画像処理方法及びデジタルカメラ並びに記録媒体
KR100400209B1 (ko) 텔레비젼(tv)신호로부터삼차원동영상을발생시키는장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20011004

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee