KR100624431B1 - 입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치 - Google Patents

입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치 Download PDF

Info

Publication number
KR100624431B1
KR100624431B1 KR1020040061093A KR20040061093A KR100624431B1 KR 100624431 B1 KR100624431 B1 KR 100624431B1 KR 1020040061093 A KR1020040061093 A KR 1020040061093A KR 20040061093 A KR20040061093 A KR 20040061093A KR 100624431 B1 KR100624431 B1 KR 100624431B1
Authority
KR
South Korea
Prior art keywords
image
image data
guided
point
distance
Prior art date
Application number
KR1020040061093A
Other languages
English (en)
Other versions
KR20060012411A (ko
Inventor
손준일
배수현
조준기
이상국
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020040061093A priority Critical patent/KR100624431B1/ko
Priority to US11/194,696 priority patent/US20060028543A1/en
Publication of KR20060012411A publication Critical patent/KR20060012411A/ko
Application granted granted Critical
Publication of KR100624431B1 publication Critical patent/KR100624431B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치에 관한 것으로, 공간상의 소정 지점인 대상영상 위치점에 있는 대상물체를 입체적으로 촬상하여서 생성된 관찰자에게 보여주고자 하는 데이터인 대상영상 데이터를 저장하는 대상영상 저장부; 상기 대상영상 위치점을 중심으로 유도물체를 전후로 순차적으로 움직여 가면서 입체적으로 촬상하여서 생성된 데이터인 유도영상 데이터를 저장하는 유도영상 저장부; 상기 대상영상 데이터와 상기 유도영상 데이터를 입력받아 합성영상을 생성하는 영상 합성부; 및 상기 유도영상 저장부에 저장되어 있는 유도영상 데이터를 순차적으로 출력하도록 하다가 상기 유도영상 데이터의 촬상거리가 대상영상 위치점과 일치한다고 판단되는 경우 상기 유도영상 데이터의 출력을 중지하도록 하여 관찰자의 주시거리를 상기 대상영상 위치점에 일치시키도록 유도하는 제어부로 구성된다. 이에 따라서, 관찰자는 유도영상을 통한 주시거리 제어에 의하여 3차원 영화나 가상 현실과 같은 입체영상을 용이하게 볼 수 있다.

Description

입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치{Method and apparatus controlled convergence distance for observation of stereo image}
도 1은 종래의 입체 영상 표시 장치의 블럭도이다.
도 2는 안구와 주시점을 통하여 주시거리(convergence distance)를 나타내기 위하여 도시한 것이다.
도 3은 대상영상 거리를 나타내기 위하여 도시한 것이다.
도 4는 유도영상 거리를 나타내기 위하여 도시한 것이다.
도 5는 두 대의 카메라를 통하여 대상물체를 촬상하여 대상영상 데이터를 획득하는 것을 나타내기 위하여 도시한 것이다.
도 6은 도 5에서 획득된 대상영상 데이터를 재생하여 관찰자에게 보여주는 것을 나타내기 위하여 도시한 것이다.
도 7은 두 대의 카메라를 통하여 유도물체를 촬상하여 유도영상 데이터를 획득하는 것을 나타내기 위하여 도시한 것이다.
도 8은 도 7에서 획득된 유도영상 데이터를 재생하여 관찰자에게 보여주는 것을 나타내기 위하여 도시한 것이다.
도 9는 본 발명의 일실시예에 따른 입체영상 관찰을 위한 주시거리 조정 장치의 블럭도이다.
도 10은 본 발명의 일실시예에 따른 입체영상 관찰을 위한 주시거리 조정 방법에 대한 흐름도이다.
도 11은 본 발명의 일실시예에 따른 입체영상 관찰을 위한 주시거리 조정 방법에 대한 구체적인 동작 순서도이다.
본 발명은 입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치에 관한 것으로, 더욱 상세하게는 관찰자의 주시거리를 파악하기 위하여 머리/안구 움직임을 탐지할 수 있는 머리/안구 움직임 탐지부를 별도로 구비하지 않아도 되고, 또한 별도의 표시장치를 착용하는 불편함이 없이 입체 영상의 입체감을 용이하게 찾을 수 있는 것에 관한 것이다.
또한, 장시간 대상영상을 관찰하는 도중에 관찰자에게 안구운동을 유도하도록 하여 시각피로 현상을 줄일 수 있도록 하는 것에 관한 것이다.
사람은 좌우 양측에 안구를 가지고 있으며, 양측 안구의 위치가 달라 우측 안구의 망막에 맺히는 상과 좌측 안구의 망막에 맺히는 상이 서로 달라지게 된다. 또한, 시야에 들어오는 각 사물들은 보는 사람으로부터 떨어진 거리에 따라 양측 안구에 맺히는 상에서의 위치 차이가 달라진다. 즉, 사물이 가까울수록 양측 안구에 맺히는 상도 많이 달라지며, 반면에 사물이 멀리 떨어져 있을수록 양측 안구에 맺히는 상은 차이가 없어진다. 따라서, 양측 안구에 맺히는 상의 차이로부터 해당 거리에 대한 정보를 복원할 수 있으며, 이에 따라 입체감을 느끼게 된다.
이러한 원리를 응용하여 양측 안구에 각각 다른 영상이 보이도록 하여 입체 영상을 구현할 수 있다. 이러한 방법은 현재 입체 영화나 가상현실의 구현에 사용되고 있다.
그런데, 3차원 영상이 주는 뛰어난 현실감에도 불구하고 아직 이러한 장치가 널리 보급되고 있지 않은 것은 3차원 입체 영상 관람시에 눈이 쉽게 피로해진다는 문제점이 있다. 이와 같이 눈이 쉽게 피로한 이유는 종래의 입체 영상 표시 방법에서는 미리 정해진 양측 이미지를 좌측 안구와 우측 안구에 제공하여, 보는 관람자로 하여금 주어진 이미지에 주시거리를 맞추어야 하기 때문이다.
그러나, 일상생활에서 사람들은 얼굴이나 눈을 움직여서 원하는 곳을 마음대로 보고 있으며, 미리 정해진 이미지에 맞추어서 주시거리를 맞추는 것은 매우 부자연스러운 상황이 되어 눈에 큰 부담을 주게 된다.
이와 같이, 종래의 입체 영상 표시 방법 및 장치에서는 입체 영상을 나타내는 양측 이미지에서 주시거리가 일방적으로 주어짐에 따라 관람자가 이를 따라가기 위하여 무리하게 안구 운동을 하기 때문이다.
도 1 은 종래의 일실시예에 따른 가상현실 입체 영상 표시 장치의 구성도이다. 도 1은 대한민국특허청 등록특허공보 등록번호 제10-0380994(발명의 명칭: 주시지점을 따라가는 입체 영상 표시 장치 및 그 방법)에 공개되어 있다.
여기에는 관람자의 머리(얼굴) 위치와 안구 움직임으로부터 추출한 주시지점 정보를 기반으로 해당 주시지점에 해당하는 스테레오 이미지를 능동적으로 표시함 으로써, 관람자가 초점거리를 맞추어야 하는 제약을 제거하여 관람자가 시야에서 임의로 원하는 지점을 주시할 수 있고 주시지점을 임의로 바꿀 수 있도록 하여 입체 영상 관람시 눈의 피로감을 없애고 자연스러운 영상을 제공하기 위한 입체 영상 표시 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 공개되어 있다.
도 1을 자세히 살펴보면, 종래의 가상현실 입체 영상 표시 장치는, 사용자가 보게 될 가상현실 공간상에 존재하는 객체에 대한 3차원 모델을 미리 생성하여 저장하기 위한 3차원 모델 저장부(110), 머리(얼굴)의 위치를 추출하고 두 안구의 이미지를 추출하기 위한 머리/안구 움직임 탐지부(160), 상기 머리/안구 움직임 탐지부(160)로부터 전달받은 머리 위치와 안구 이미지로부터 사용자의 현재 주시점에 대한 정보를 추출하기 위한 주시 방향 및 거리 측정부(120), 상기 3차원 모델 저장부(110)에 저장되어 있는 객체의 3차원 모델을 기반으로 상기 주시 방향 및 거리 측정부(120)에서 추출한 현재의 주시점에 해당하는 스테레오 이미지를 생성하기 위한 이미지 생성부(130), 상기 이미지 생성부(130)에서 생성된 좌측 이미지를 표시하기 위한 좌측 이미지 표시부(140), 상기 이미지 생성부(130)에서 생성된 우측 이미지를 표시하기 위한 우측 이미지 표시부(150) 및 상기 좌, 우측 이미지 표시부(140,150)로부터의 좌,우측 이미지를 실제 화면에 디스플레이하기 위한 스테레오 이미지 표시부(160)를 포함하여 구성된다.
그러나, 종래에는 사용자의 머리 위치와 안구 이미지를 통하여 사용자의 현재 주시점을 파악하기 위하여 별도로 구성되는 머리/안구 움직임을 탐지할 수 있는 머리/안구 움직임 탐지부를 구비하여야 하고 별도의 표시장치를 착용하여야 한다는 문제점이 있다.
그리고, 머리 위치와 안구 이미지를 통하여 사용자의 현재 주시점을 실시간으로 파악하여야 하므로 처리하여야 할 데이터의 양이 많아지고 그럼으로써 시스템이 복잡해진다는 문제점이 있다.
한편, 장시간 입체영상을 입체감 있게 관찰하기 위하여 안구를 일정 지점에 고정하여야 함으로써 시각 피로 현상이 발생한다는 문제점이 있다.
본 발명은 입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치에 관한 것으로, 주시거리 조정 장치를 통하여 관찰자의 주시거리를 전후로 순차적으로 이동하면서 촬상되어 재생되는 유도영상을 보여줌으로써, 관찰자가 상기 유도영상을 통하여 주시거리를 조절하여 실제로 보고자 하는 대상영상이 표시되는 위치점을 쉽게 찾도록 하고자 하는 것이다.
상기 기술적 과제를 이루기 위한 본 발명에 의한 입체영상 관찰을 위한 주시거리 조정 장치는, 공간상의 소정 지점인 대상영상 위치점에 있는 대상물체를 입체적으로 촬상하여서 생성된 관찰자에게 보여주고자 하는 데이터인 대상영상 데이터를 저장하는 대상영상 저장부; 상기 대상영상 위치점을 중심으로 유도물체를 전후로 순차적으로 움직여 가면서 입체적으로 촬상하여서 생성된 관찰자의 주시거리를 유도하고자 하는 데이터인 유도영상 데이터를 저장하는 유도영상 저장부; 상기 대상영상 데이터와 상기 유도영상 데이터를 입력받아 합성영상을 생성하는 영상 합성부; 및 상기 유도영상 저장부에 저장되어 있는 유도영상 데이터를 순차적으로 출력하도록 하다가 상기 유도영상 데이터의 촬상거리가 대상영상 위치점과 일치한다고 판단되는 경우 상기 유도영상 데이터의 출력을 중지하도록 하여 관찰자의 주시거리를 상기 대상영상 위치점에 일치시키도록 제어하는 제어부를 포함하는 것을 특징으로 가진다.
상기 제어부는 상기 유도물체가 상기 주시거리 조정 장치에 위치하는 지점에서 상기 대상영상 위치점을 거쳐 상기 관찰자가 위치하는 지점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하다가, 상기 유도물체가 상기 관찰자 지점에서 상기 대상영상 위치점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하며, 상기 유도영상 데이터의 촬상거리가 상기 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 출력을 중지하도록 제어하는 것이 바람직하다.
다른 한편 제어부는 상기 유도물체가 상기 관찰자가 위치하는 지점에서 상기 주시거리 조정 장치에 위치하는 지점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하다가, 상기 유도물체가 상기 주시거리 조정 장치에 위치하는 지점에서 상기 대상영상 위치점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하며, 상기 유도영상 데이터의 촬상거리가 상기 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 출력을 중지하도록 제어하는 것이 바람직하다.
상기 기술적 과제를 이루기 위한 본 발명에 의한 입체영상 관찰을 위한 주시거리 조정 방법은, 입체영상 관찰을 위한 주시거리 조정 방법에 있어서, (a) 공간상의 소정 지점인 대상영상 위치점에 있는 대상물체를 입체적으로 촬상하여 생성된 관찰자에게 보여주고자 하는 데이터인 대상영상 데이터를 입력받는 단계; (b) 상기 대상영상 위치점을 중심으로 유도물체를 전후로 순차적으로 움직여 가면서 입체적으로 촬상하여서 생성된 관찰자의 주시거리를 유도하고자 하는 데이터인 유도영상 데이터를 입력받는 단계; (c) 상기 대상영상 데이터와 상기 유도영상 데이터를 입력받아 이를 합성하여 출력하는 단계; 및 (d) 상기 유도영상 데이터를 순차적으로 입력되도록 하다가 상기 유도영상 데이터의 촬상거리가 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 입력을 중지하도록 하여 관찰자의 주시거리를 상기 대상영상 위치점에 일치시키도록 하는 단계를 포함하는 것을 특징으로 가진다.
상기 (d)단계는 (d-1) 상기 유도물체가 상기 주시거리 조정 장치에 위치하는 지점에서 상기 대상영상 위치점을 거쳐 상기 관찰자가 위치하는 지점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하는 단계; (d-2) 상기 유도물체가 상기 관찰자 지점에서 상기 대상영상 위치점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하는 단계; 및 (d-3) 상기 유도영상 데이터의 촬상거리가 상기 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 출력을 중지하도록 하는 단계를 포함하는 것이 바람직하다.
다른 한편, 상기 (d)단계는 (d-1') 상기 유도물체가 상기 관찰자가 위치하는 지점에서 상기 주시거리 조정 장치에 위치하는 지점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하는 단계; (d-2') 상기 유도물체가 상기 주시거리 조정 장치에 위치하는 지점에서 상기 대상영상 위치점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하는 단계; 및 (d-3') 상기 유도영상 데이터의 촬상거리가 상기 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 출력을 중지하도록 하는 단계를 포함하는 것이 바람직하다.
그리고 상기 기재된 발명을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 것을 특징으로 가진다.
이하, 첨부된 도면들을 참조하여 본 발명에 따른 유도영상을 통하여 주시거리를 제어하는 입체 영상 표시 방법 및 그 장치를 상세히 설명한다.
도 2는 안구와 주시점을 통하여 주시 거리(convergence distance)를 나타내기 위하여 도시한 것이다.
도 2를 참조하면, 주시(convergence)는 좌측 안구(200)와 우측 안구(210)의 주시선 각각이 눈앞의 한 점으로 집중되는 것을 말한다. 여기에서, 양 주시선이 만나는 점을 주시점(convergence point)(220)이라고 한다. 양측 안구(200)(210)와 주시점(220)사이의 거리를 주시 거리(convergence distance)라고 한다.
도 3은 대상영상 거리를 나타내기 위하여 도시한 것이다.
도 3을 참조하면, 대상영상(320)은 주시거리 조정 장치(330)에 의해 구현된 가상의 영상으로 관찰자에게 보여주고자 하는 영상을 말한다. 예를 들어, 3차원 입체 영화나 가상현실의 구현을 들 수 있다.
대상영상(320)은 주시거리 조정 장치(330)에서 일정 거리만큼 떨어진 위치에서 관찰자의 양측 안구(300)(310)에 의하여 보여지는 것으로 인지되게 된다. 여기에서 관찰자의 양측 안구(300)(310)부터 대상영상(320)이 가상 공간 현실상에서 표시되는 지점인 대상영상 위치점까지의 거리를 대상영상 거리라 하고, 대상영상이 구현되는 가상의 공간이 위치하는 지점을 대상영상 위치점이라 한다.
도 4는 유도영상 거리를 나타내기 위하여 도시한 것이다.
도 4를 참조하면, 유도영상(420)은 주시거리 조정 장치(430)에 의해 구현된 가상의 영상으로 관찰자가 도 3의 대상영상(320)을 입체적으로 볼 수 있도록 유도하기 위하여 보여지는 영상을 말한다. 예를 들어, 관찰자가 보다 쉽게 대상체를 인지할 수 있도록 하는 입체 공(ball) 영상이라던가 만화 캐릭터 영상이 될 수 있을 것이다.
유도영상(420)은 주시거리 조정 장치(430)에서 소정의 거리만큼 떨어진 위치에서 관찰자의 양측 안구(400)(410)에 의하여 보여지는 것으로 인지되게 된다. 여기에서 관찰자의 양측 안구(400)(410)와 유도영상(420)이 가상 공간 현실상에서 표시되는 지점인 유도영상 위치점까지의 거리를 유상영상 거리라 하고, 유도영상이 구현되는 가상의 공간이 위치하는 지점을 유도영상 위치점이라 한다.
도 5는 두 대의 카메라를 통하여 대상물체를 촬상하여 대상영상 데이터를 획득하는 것을 나타내기 위하여 도시한 것이다.
도 5를 참조하면, 관찰자에게 2차원의 평면영상으로 되어 있는 대상물체(520)를 촬상하여 입체감을 느끼게 하기 위해서는 먼저 두 대의 카메라(500)(510) 를 이용하여 관찰자의 양측 안구로 보는 것과 같은 구조로 대상물체(520)를 촬상하여야 한다. 이 때, 각 카메라는 카메라 장치의 종류에 따라 두 카메라를 평행하게 배열하거나 두 카메라를 3차원 상의 대상물체(520)에 대하여 하나의 점으로 수렴하도록 배열할 수 있다. 여기에서, 수렴되는 하나의 점을 대상물체 위치점이라 한다.
이와 같이 대상물체(520)을 촬상하여 획득된 데이터를 관찰자의 각각의 안구에 보여지도록 함으로써 입체감을 느끼도록 할 수 있다. 입체영상의 관찰자는 촬상시 두 대의 카메라(500)(510)의 주시선이 만나는 주시점, 즉 대상물체 위치점과 상기 두 대의 카메라(500)(510)와의 거리인 대상영상 촬상거리만큼 떨어진 거리에 해당하는 만큼의 이격을 가진 위치에서 가상의 영상인 대상영상이 표시되는 것으로 인지하게 된다. 이와 관련하여서는 도 6을 살펴보기로 한다.
도 6은 도 5에서 획득된 대상영상 데이터를 재생하여 관찰자에게 보여주는 것을 나타내기 위하여 도시한 것이다.
도 6을 참조하면, 관찰자는 도 5에서 획득된 대상영상 데이터를 재생하여 양측 안구(600)(610)로부터 도 5의 대상영상 촬상거리만큼 떨어진 가상의 공간상에서 입체적으로 표시되는 대상영상(620)을 입체적으로 보기 위하여 주시거리를 대상영상 거리로 유지하여야 한다. 여기에서 대상영상 거리는 관찰자로부터 상기 대상영상 촬상거리만큼 떨어진 거리를 말하는 것이다. 관찰자는 대상영상 거리만큼 이격된 위치에 형성되어 있는 대상영상을 입체적으로 보기 위하여 주시거리를 대상영상 거리와 일치시키는 것이 쉽지 않다. 이와 같은 이유로 관찰자가 대상영상(620)을 보더라도 입체감을 느끼지 못하고 오히려 어지러움을 느끼게 된다. 그러므로, 관찰자의 주시거리를 대상영상 거리로 유도하는 방법이 필요하게 된다. 이와 관련하여서는 도 7과 도 8에 대하여 살펴보기로 한다.
도 7은 두 대의 카메라를 통하여 유도물체를 촬상하여 유도영상 데이터를 획득하는 것을 나타내기 위하여 도시한 것이다.
도 7을 참조하면, 관찰자에게 2차원의 평면영상으로 되어 있는 유도물체(720)(730)를 촬상하여 입체감을 느끼게 하기 위해서는 먼저 두 대의 카메라(700)(710)를 이용하여 관찰자의 양측 안구로 보는 것과 같은 구조로 유도물체(720)(730)를 촬상하여야 한다. 이 때, 각 카메라는 카메라 장치의 종류에 따라 두 카메라를 평행하게 배열하거나 두 카메라를 3차원 상의 유도물체(720)(730)에 대하여 유도물체가 위치하는 지점의 각각에 대하여 하나의 점으로 수렴하도록 배열할 수 있다. 여기에서, 수렴되는 하나의 점을 유도물체 위치점이라 한다.
이와 같이 유도물체(720)(730)를 촬상하여 획득된 데이터를 관찰자의 각각의 안구에 보여지도록 함으로써 입체감을 느끼도록 할 수 있다. 관찰자는 촬상시 두 대의 카메라(700)(710)의 주시선이 만나는 주시점, 즉 유도물체 위치점과 상기 두 대의 카메라(700)(710)와의 거리인 유도영상 촬상거리만큼 떨어진 위치에서 가상의 영상인 유도영상이 표시되는 것으로 인지하게 된다.
여기에서, 유도물체(720)(730)는 도 6에서 대상물체가 위치하는 대상영상 위치점을 중심으로 상기 주시거리 조정 장치에 위치하는 방향에서 상기 관찰자 방향으로 이동하거나 또는 상기 관찰자 방향에서 상기 주시거리 조정 장치 방향으로 이 동하게 된다. 두 대의 카메라(700)(710)는 이와 같이 순차적으로 이동하는 유도물체를 촬상하게 된다. 순차적으로 이동하는 유도물체를 촬상하여 얻어진 유도영상 데이터는 유도물체의 위치에 따라서 각각 유도영상 촬상거리가 상이하게 된다.
도 8은 도 7에서 획득된 유도영상 데이터를 재생하여 관찰자에게 보여주는 것을 나타내기 위하여 도시한 것이다.
도 8을 참조하면, 관찰자는 도 5에서 획득된 대상영상 데이터를 재생하여 양측 안구(800)(810)로부터 대상영상 거리만큼 떨어진 가상의 공간상에서 입체적으로 표시되는 대상영상(820)을 입체적으로 보기 위하여 주시거리를 대상영상 거리로 유지하여야 한다. 이와 같은 대상영상 거리는 관찰자로부터 일정거리 떨어진 가상의 공간에 형성되어 있는 것으로 관찰자가 주시거리를 대상영상 거리에 맞추는 것이 쉽지 않다.
도 6에서 살펴본 바와 같이, 관찰자가 대상영상(820)을 보더라도 입체감을 인지하지 못하고 오히려 어지러움을 느끼게 된다. 이와 같은 문제점을 해결하기 위하여 관찰자의 주시거리를 대상영상 거리로 유도하는 방법이 필요하게 된다.
도 7에서 획득된 유도영상 데이터를 재생하여 양측 안구(800)(810)로부터 유도영상 촬상거리만큼 떨어진 가상의 공간상에서 입체적으로 표시되는 유도영상(830)(840)을 관찰자는 인지하게 된다. 여기에서 양측 안구(800)(810)로부터 유도영상 촬상거리만큼 떨어진 가상의 공간상에서 입체적으로 표시되는 유도영상까지의 거리를 유도영상 거리라고 한다. 이와 같은 유도영상(830)(840)은 대상영상에 비하여 입체감이 높아 사용자는 쉽게 입체영상을 인지할 수 있는 것이다.
또한, 도 7에서 살펴본 바와 같이 유도영상 데이터는 유도물체를 전후로 이동하면서 촬상한 것으로, 주시거리 조정 장치(850)에서 유도영상 데이터를 재생하여 가상의 공간상에 표시되는 유도영상을 관찰하는 관찰자가 유도영상이 대상영상을 중심으로 전후로 이동하는 것으로 인지하게 된다. 주시거리 조정 장치(850)는 유도영상을 주시거리 조정 장치 방향(도 8에서 참조번호 830이 위치하는 방향)에서 관찰자의 방향(도 8에서 참조번호 840이 위치하는 방향)으로 순차적으로 이동하도록 제어하거나, 관찰자의 방향에서 주시거리 조정 장치 방향으로 순차적으로 이동하도록 제어하게 된다.
도 9는 본 발명의 일실시예에 따른 입체영상 관찰을 위한 주시거리 조정 장치의 블럭도이다.
도 9을 참조하면, 입체영상 관찰을 위한 주시거리 조정 장치 대상영상 저장부(900), 대상영상 촬상거리 추출부(910), 유도영상 저장부(920), 유도영상 촬상거리 추출부(930), 영상 합성부(950), 영상 출력부(960) 및 제어부(940)를 포함하여 이루어진다.
대상영상 저장부(900)는, 도 5에서 살펴본 바와 같이, 2차원의 평면영상으로 되어 있는 대상물체(520)에 대하여 입체감을 느끼게 하기 위해서 두 대의 카메라(500)(510)를 이용하여 관찰자의 양측 안구로 보는 것과 같은 구조로 대상물체(520)를 촬상하여 획득된 대상영상 데이터를 저장하고 있다.
이와 같이 대상물체(520)을 촬상하여 획득된 대상영상 데이터를 재생하여 출력되는 대상영상이 관찰자의 각각의 안구에 보여지도록 함으로써 입체감을 느끼게 할 수 있다.
대상영상 촬상거리 추출부(910)는 대상영상 저장부(900)에 저장되어 있는 대상영상 데이터중에서 현재 출력되고 있는 대상영상 데이터가 가상 공간상의 어느 지점에서 촬상 되었는지를 나타내는 대상영상 촬상거리를 추출하게 된다. 여기에서 대상영상 촬상거리를 추출하는 것은 대상영상 저장부(900)에 저장되고 있는 대상영상 데이터의 헤더 정보 등을 검색하여 이루어지게 된다.
유도영상 저장부(920)는, 도 7에서 살펴본 바와 같이, 2차원의 평면영상으로 되어 있는 유도물체(720)(730)에 대하여 입체감을 느끼게 하기 위해서 두 대의 카메라(700)(710)를 이용하여 관찰자의 양측 안구로 보는 것과 같은 구조로 대상물체(720)(730)를 촬상하여 획득된 유도영상 데이터를 저장하고 있다.
유도영상 촬상거리 추출부(930)는 유도영상 저장부(920)에 저장되어 있는 유도영상 데이터중에서 현재 출력되고 있는 유도영상 데이타가 가상 공간상의 어느 지점에서 촬상 되었는지를 나타내는 유도영상 촬상거리를 추출하게 된다. 여기에서 유도영상 촬상거리를 추출하는 것은 유도영상 저장부(920)에 저장되고 있는 유도영상 데이터의 헤더 정보등을 검색하여 이루어지게 된다.
영상 합성부(950)는 대상영상 저장부(900)로부터 대상영상 데이터를 입력받고 유도영상 저장부(920)로부터 유도영상 데이터를 입력받아 이를 상호 합성하여 합성영상을 생성하게 된다.
영상 출력부(960)는 영상 합성부(950)로부터 합성영상을 입력받아 이를 출력하게 된다. 여기에서, 영상 출력부(960)는 관찰자의 좌측 안구에 영상 합성부 (950)에서 입력되는 합성영상이 보이도록 하기 위한 좌측 영상 출력부(미도시)와 관찰자의 우측 안구에 합성영상이 보이도록 하기 위한 우측 영상 출력부를 포함하도록 구성할 수 있다.
제어부(940)는 현재 출력되고 있는 대상영상이 가상 공간상의 어느 지점에서 촬상된 것인지를 나타내는 대상영상 촬상거리를 대상영상 촬상거리 추출부(910)로부터 입력받는다.
그리고, 제어부(940)는 유도영상 저장부(920)에 저장되어 있는 유도영상 데이터를 순차적으로 출력되도록 제어하다가, 현재 출력되고 있는 유도영상 데이터가 상기 대상영상 촬상거리 추출부(910)로부터 입력받은 대상영상 촬상거리(대상영상 위치점과 관찰자와의 거리)와 일치하는 지점에서 촬상된 유도영상 데이터라고 판단되는 경우에 유도영상 데이터의 출력을 중지하도록 제어한다.
현재 출력되고 있는 유도영상 데이터가 상기 대상영상 촬상거리 추출부(910)로부터 입력받은 대상영상 촬상거리(대상영상 위치점과 관찰자와의 거리)와 일치하는 지점을 찾는 제어부(940)의 제어방법을 구체적으로 살펴보면 다음과 같다.
첫 번째 구체적인 제어방법은, 제어부(940)는 유도물체가 상기 주시거리 조정 장치에 위치하는 지점에서 대상영상 위치점을 거쳐 관찰자가 위치하는 지점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 한다. 그리고, 상기 유도물체가 상기 관찰자 지점에서 상기 대상영상 위치점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 한다. 그리고, 상기 유도영상 데이터의 촬상거리가 상기 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데 이터의 출력을 중지하도록 제어하게 된다.
두 번째 구체적인 제어방법은, 제어부(940)는 유도물체가 관찰자가 위치하는 지점에서 주시거리 조정 장치에 위치하는 지점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 한다. 그리고, 상기 유도물체가 상기 주시거리 조정 장치에 위치하는 지점에서 상기 대상영상 위치점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 한다. 그리고, 상기 유도영상 데이터의 촬상거리가 상기 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 출력을 중지하도록 제어하게 된다.
상기에서 살펴본 바와 같이 현재 출력되고 있는 유도영상 데이터가 상기 대상영상 촬상거리 추출부(910)로부터 입력받은 대상영상 촬상거리(대상영상 위치점과 관찰자와의 거리)와 일치하는 경우에 유도영상 데이터의 출력을 중지하도록 제어하는 제어부(940)의 구체적인 제어방법에 대하여 살펴보면 다음과 같다.
첫 번째 구체적인 제어방법은, 유도영상 저장부(920)를 제어하여 일치하는 지점에서 촬상된 유도영상 데이터를 더 이상 영상 합성부(950)로 출력되지 않도록 제어할 수 있다.
두 번째 구체적인 제어방법은, 유도영상 저장부(920)를 제어하여 일치하는 지점에서 촬상된 유도영상 데이터만을 영상 합성부(950)에 출력하도록 제어할 수 있다. 두 번째 방법의 경우, 제어부(940)는 영상 합성부(950)에 일치신호를 출력하고 영상 합성부(950)는 유도영상 저장부(920)로부터 일치되는 지점에서 촬상된 유도영상 데이터만을 입력받아 이를 점차 흐르게 나타나다가 없어지도록 하게 할 수 있다.
또한, 이와 같이 현재 출력되고 있는 유도영상 데이터의 유도영상 촬상거리가 대상영상 촬상거리와 일치하는 지점에서 촬상된 유도영상 데이터라고 판단하기 위하여, 제어부(940)는 현재 출력되고 있는 유도영상이 가상 공간상의 어느 지점에서 촬상되어 표시되는지에 대한 정보를 유도영상 촬상거리를 산출하는 유도영상 거리 산출부(930)로부터 입력받을 수 있다.
도 10은 본 발명의 일실시예에 따른 입체영상 관찰을 위한 주시거리 조정 방법에 대한 흐름도이다.
도 10을 참조하면, 도 9의 영상 합성부(950)는 대상영상 저장부(900)로부터 대상영상 데이터를 입력받는다(S1000). 여기에서, 대상영상 데이터는 도 5에서 살펴본 바와 같이 관찰자의 양측 안구로부터 대상물체 촬상거리만큼 이격된 위치에 있는 대상물체를 두 대의 카메라를 통하여 촬상하여 얻어진 데이터를 말한다.
다음으로, 유도영상 저장부(920)로부터 유도영상 데이터를 입력받는다(S1010).
여기에서, 유도영상 데이터는 도 7에서 살펴본 바와 같이 관찰자의 안구로부터 유도물체 촬상거리 만큼 이격된 위치에 있는 유도물체를 두 대의 카메라를 통하여 촬상하여 얻어진 데이터를 말한다. 주시거리 조정 장치에서 유도영상 데이터를 재생하여 얻어지는 유도영상은 대상영상 데이터를 재생하여 얻어지는 대상영상에 대하여 관찰자가 보다 용이하게 입체감을 느낄 수 있도록 되어 있다. 그럼으로써, 유도영상을 통하여 관찰자의 주시거리를 제어하는 것이다.
다음으로, 대상영상 저장부(900)로부터 입력받은 대상영상 데이터와 유도영상 저장부(920)로부터 입력받은 유도영상 데이터를 합성하여 합성영상을 생성한다(S1020).
다음으로, 단계S1020에서 생성된 합성영상을 관찰자가 입체적으로 인지할 수 있도록 출력하게 된다(S1030).
여기에서 나아가, 도 9의 제어부(940)는 상기 유도영상 데이터를 순차적으로 입력되도록 하다가 상기 유도영상 데이터의 촬상거리가 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 입력을 중지하도록 하여 관찰자의 주시거리를 상기 대상영상 위치점에 일치시키도록 하여 본 발명의 일실시예에 대한 주시 거리를 조정하여 관찰자에게 대상영상을 입체감 있게 볼 수 있도록 한다.
유도영상 데이터를 순차적으로 입력되도록 하다가 상기 유도영상 데이터의 촬상거리가 대상영상 위치점과 일치하는 시점을 찾는 도 9의 제어부(940)의 제어방법에 대하여는 도 11에서 살펴보기로 한다.
도 11은 본 발명의 일실시예에 따른 입체영상 관찰을 위한 주시거리 조정 방법에 대한 구체적인 동작 순서도이다.
도 11을 참조하면, 도 11a에서는 주시거리 조정 장치는 관찰자의 양측 안구와 소정거리만큼 이격된 가상 공간의 위치에 대상영상을 출력한다. 여기에서 소정거리는 대상영상 거리를 말한다. 대상영상이 대상영상 거리에 표시되는 지점을 대상영상 위치점이라 한다.
또한, 주시거리 조정 장치는 관찰자의 양측 안구과 소정거리 이격되어 유도 영상을 출력한다.
도 11a을 참조하면, 주시거리 조정 장치는 주시거리 조정 장치와 가장 근접한 위치, 즉 유도물체를 촬상시 카메라에서 가장 멀리 떨어진 위치에서 촬상된 유도영상 데이터부터 순차적으로 재생하여 유도영상을 출력하게 된다.
이와 같이, 주시거리 조정 장치와 가장 근접한 위치에서 촬상된 유도영상 데이터로부터 재생하여 유도영상을 출력하는 이유는 관찰자의 주시거리가 어디에 위치하는지 알 수 없기 때문이다. 도 11a에서는 관찰자의 양측 안구와 대상영상이 출력되는 위치 사이의 임의의 점에 주시거리가 형성되어 있는 것을 볼 수 있다. 주시거리 조정 장치는 주시거리 조정 장치와 가장 근접한 위치, 즉 유도물체를 촬상시 카메라에서 가장 멀리 떨어진 위치에서 촬상된 유도영상 데이터부터 관찰자의 주시거리가 형성되어 있는 위치까지 순차적으로 유도영상 데이터를 재생하여 유도영상을 출력한다.
도 11b를 참조하면, 주시거리 조정 장치는 현재 관찰자의 주시거리가 형성되어 있는 위치에서 촬상되어 생성된 유도영상 데이터를 재생하여 유도영상을 출력하는 것을 보이고 있다. 관찰자는 도11b에서 유도영상에 대한 입체감을 인지할 수 있게 된다.
도 11c를 참조하면, 주시거리 조정 장치는 현재 관찰자의 위치와 가장 근접한 위치, 즉 유도물체를 촬상시 카메라에서 가장 가까운 위치에서 촬상된 유도영상 데이터까지 순차적으로 재생하여 유도영상을 출력하는 것을 볼 수 있다. 이와 같이, 현재 관찰자의 위치와 가장 근접한 위치, 즉 유도물체를 촬상시 카메라에서 가 장 가까운 위치에서 촬상된 유도영상 데이터까지 재생하여 유도영상을 출력하는 이유는 상기에서 본 바와 같이 관찰자의 주시거리가 어디에 형성되어 있는지를 알 수 없기 때문이다. 즉, 관찰자의 주시점은 주시거리 조정 장치와 가장 근접한 위치부터 관찰자의 위치와 가장 근접한 위치까지의 임의의 위치에 있다는 것을 적용하여 유도영상 저장부에 저장되어 있는 유도영상 데이터를 순차적으로 재생하여 출력하는 것이다. 도11b에서 입체감을 인지한 관찰자는 도 11c까지 순차적으로 출력되는 유도영상을 따라가면서 유도영상의 입체감을 인지할 수 있게 된다.
도 11d를 참조하면, 주시거리 조정 장치는 카메라에서 가장 가까운 위치에서 촬상된 유도영상 데이터부터 대상영상 위치점까지 촬상된 유도영상 데이터를 역순으로 순차적으로 재생하여 출력한다. 대상영상 위치점에 대한 정보는 대상영상 촬상거리 추출부로부터 입력받은 대상영상 촬상거리를 통하여 알 수 있게 된다. 주시거리 조정 장치는 대상영상 위치점과 유도영상 데이터의 촬상거리가 일치한다고 판단되는 경우에는 유도영상 데이터의 순차적인 재생을 중지하게 된다. 이와 같은 경우에는 대상영상과 유도영상은 중첩하여 표시된다.
도 11c에서 이어 계속적으로 관찰자는 역순으로 순차적으로 재생하는 유도영상을 따라가면서 유도영상의 입체감을 인지하게 된다. 그러면서, 도 11d와 같이 대상영상 위치점과 유도영상의 위치점이 일치하는 지점, 즉 대상영상 거리에 관찰자의 주시거리가 일치하는 경우에는 유도영상뿐만 아니라 대상영상의 입체감을 인지할 수 있게 된다.
도 11e를 참조하면, 주시거리 조정 장치는 유도영상 데이터의 재생을 중지하 게 되어 관찰자는 원하는 영상인 대상영상의 입체감만을 인지하여 이 후 주시거리 조정 장치를 통하여 출력되는 대상영상을 입체감 있게 볼 수 있게 된다. 여기에서, 상기 유도영상 데이터의 촬상거리가 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 입력을 점차적으로 흐르게 입력하도록 제어하다가 없어지도록 할 수도 있다.
나아가 도11a 내지 도11e에서와 역순으로 제어하는 방법을 살펴보면 다음과 같다.
도 11a에 대응되도록, 주시거리 조정 장치는 주시거리 조정 장치와 가장 멀리 떨어진 위치, 즉 유도물체를 촬상시 카메라에서 가장 가까운 위치에서 촬상된 유도영상 데이터부터 순차적으로 재생하여 유도영상을 출력하도록 한다.
도 11b에 대응되도록, 현재 관찰자의 주시거리가 형성되어 있는 위치에서 촬상되어 생성된 유도영상 데이터를 재생하여 유도영상을 출력하도록 한다.
도 11c에 대응되도록, 주시거리 조정 장치는 현재 관찰자의 위치와 가장 멀리 떨어진 위치, 즉 유도물체를 촬상시 카메라에서 가장 멀리 떨어진 위치에서 촬상된 유도영상 데이터까지 순차적으로 재생하여 유도영상을 출력하도록 한다. 관찰자는 유도영상을 관찰함으로써 입체감을 느낄 수 있게 된다.
도 11d에 대응되도록, 주시거리 조정 장치는 카메라에서 가장 멀리 떨어진 위치에서 촬상된 유도영상 데이터부터 대상영상 위치점까지 촬상된 유도영상 데이터를 역순으로 순차적으로 재생하여 출력하도록 한다. 관찰자는 계속 유도영상을 관찰함으로써 입체감을 느낄 수 있게 된다.
도 11e에 대응되도록, 주시거리 조정 장치는 유도영상 데이터의 재생을 중지하게 되어 관찰자는 원하는 영상인 대상영상의 입체감만을 인지하여 이 후 주시거리 조정 장치를 통하여 출력되는 대상영상을 입체감 있게 볼 수 있게 된다.
본 발명의 일실시예와 관련하여서는 관찰자가 대상영상을 입체감 있게 볼 수 있도록 주시거리를 맞추는 관점에서 살펴보았으나, 나아가 대상영상을 보고 있는 도중에 주시거리 조정 장치는 유도영상을 보여주어 관찰자의 안구 운동을 유도할 수 있게 된다. 즉, 관찰자는 대상영상을 보고 있다가 주시거리 조정 장치에서 전후로 움직이는 것처럼 느껴지는 유도영상을 봄으로써 안구 운동을 하는 것이다. 그럼으로써, 관찰자는 대상영상을 보면서 발생하는 시각 피로 현상을 줄일 수 있게 된다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD_ROM, 자기테이프, 플로피디스크 및 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.
이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
본 발명은 입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치에 관한 것으로, 관찰자는 유도영상을 통하여 3차원 영화나 가상 현실과 같은 대상영상을 입체감 있게 볼 수 있는 주시거리를 용이하게 찾을 수 있게 된다.
또한, 관찰자는 주시거리 조정 장치에서 제공하는 유도영상을 따라서 주시거리를 조절하면 되어 관찰자의 주시거리를 파악하기 위하여 별도로 구성되는 머리/안구 움직임을 탐지할 수 있는 머리/안구 움직임 탐지부를 구비하지 않아도 되고 별도의 표시장치를 착용하여야 하는 불편함도 사라지게 된다.
나아가, 본원 발명을 통하여 장시간 대상영상을 관찰하는 도중에 유도영상을 제공함으로써 관찰자에게 안구운동을 하도록 유도할 수 있어 시각피로 현상을 줄일 수 있는 효과가 있다.

Claims (20)

  1. 공간상의 소정 지점인 대상영상 위치점에 있는 대상물체를 입체적으로 촬상하여서 생성된 관찰자에게 보여주고자 하는 데이터인 대상영상 데이터를 저장하는 대상영상 저장부;
    상기 대상영상 위치점을 중심으로 유도물체를 전후로 순차적으로 움직여 가면서 입체적으로 촬상하여서 생성된 데이터인 유도영상 데이터를 저장하는 유도영상 저장부;
    상기 대상영상 데이터와 상기 유도영상 데이터를 입력받아 합성영상을 생성하는 영상 합성부; 및
    상기 유도영상 저장부에 저장되어 있는 유도영상 데이터를 순차적으로 출력하도록 하다가 상기 유도영상 데이터의 촬상거리가 대상영상 위치점과 일치한다고 판단되는 경우 상기 유도영상 데이터의 출력을 중지하도록 하여 관찰자의 주시거리를 상기 대상영상 위치점에 일치시키도록 유도하는 제어부를 포함하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  2. 제 1 항에 있어서,
    상기 대상물체를 촬상하는 것은 두 대의 카메라에 의하여 수행되는데, 한 대의 카메라는 상기 관찰자 좌측 안구에 해당하는 위치에서 다른 한 대의 카메라는 상기 관찰자 우측 안구에 해당하는 위치에서 상기 대상물체를 촬상하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  3. 제 1 항에 있어서,
    상기 대상영상 데이터는 상기 대상영상 위치점을 중심으로 상기 주시거리 조 정 장치에 위치하는 방향에서 상기 관찰자 방향으로 이동하는 또는 상기 관찰자 방향에서 상기 주시거리 조정 장치 방향으로 이동하는 유도물체를 카메라로 촬상하여 얻어지는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  4. 제 3 항에 있어서,
    상기 유도물체를 촬상하는 것은 두 대의 카메라에 의해 수행되는데, 한 대의 카메라는 상기 관찰자의 좌측 안구에 해당하는 위치에서 다른 한 대의 카메라는 상기 관찰자의 우측 안구에 해당하는 위치에서 상기 유도물체를 촬상하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  5. 제 1 항에 있어서,
    상기 대상영상 데이터를 통한 입체감의 인지률보다 상기 유도영상 데이터를 통한 입체감의 인지률이 높은 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  6. 제 1 항에 있어서,
    상기 유도영상 데이터는 상기 대상영상 위치점을 중심으로 상기 주시거리 조정 장치에 위치하는 방향에서 상기 관찰자의 방향으로 이동하는 또는 상기 관찰자의 방향에서 상기 주시거리 조정 장치 방향으로 이동하는 유도물체를 카메라로 촬상하여 얻어지는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  7. 제 1 항에 있어서,
    상기 대상영상 저장부로부터 상기 대상영상 데이터를 입력받아 상기 대상영상 촬상위치점을 추출하는 대상영상 촬상거리 추출부; 및
    상기 유도영상 저장부로부터 현재 상기 영상합성부로 출력되는 상기 유도영상 데이터를 입력받아 상기 유도영상 촬상위치점을 추출하는 유도영상 촬상거리 추출부를 더 포함하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  8. 제 7 항에 있어서, 상기 제어부는
    상기 대상영상 촬상위치점과 상기 유도영상 촬상위치점을 입력받아 상호 비교 후 상기 유도영상 저장부로부터 상기 영상 합성부로 출력되는 유도영상 데이터를 제어하여 상기 유도영상 촬상위치점이 상기 대상영상 촬상위치점과 일치되도록 하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  9. 제 1 항에 있어서, 상기 제어부는
    상기 유도물체가 상기 주시거리 조정 장치에 위치하는 지점에서 상기 대상영상 위치점을 거쳐 상기 관찰자가 위치하는 지점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하다가, 상기 유도물체가 상기 관찰자 지점에서 상기 대상영상 위치점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적 으로 출력하도록 하며, 상기 유도영상 데이터의 촬상거리가 상기 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 출력을 중지하도록 제어하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  10. 제 1 항에 있어서, 상기 제어부는
    상기 유도물체가 상기 관찰자가 위치하는 지점에서 상기 주시거리 조정 장치에 위치하는 지점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하다가, 상기 유도물체가 상기 주시거리 조정 장치에 위치하는 지점에서 상기 대상영상 위치점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하며, 상기 유도영상 데이터의 촬상거리가 상기 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 출력을 중지하도록 제어하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  11. 제 1 항에 있어서, 상기 제어부는
    상기 유도영상 데이터의 촬상거리가 대상영상 위치점과 일치한다고 판단되는 경우에는 위치점 일치신호를 상기 영상 합성부에 출력하고,
    상기 영상 합성부는 상기 합성영상에서 상기 유도영상 데이터의 재생에 의한 유도영상을 점차적으로 흐르게 나타나다가 없어지도록 하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  12. 제 1 항에 있어서,
    상기 영상 합성부에서 출력되는 합성영상을 출력하는 영상 출력부를 더 포함하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  13. 제 12 항에 있어서, 상기 영상 출력부는
    상기 관찰자의 좌측 안구에 상기 합성영상이 보이도록 하기 위한 좌측 영상 출력부; 및
    상기 관찰자의 우측 안구에 상기 합성영상이 보이도록 하기 위한 우측 영상 출력부를 포함하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 장치.
  14. 입체영상 관찰을 위한 주시거리 조정 방법에 있어서,
    (a) 공간상의 소정 지점인 대상영상 위치점에 있는 대상물체를 입체적으로 촬상하여 생성된 관찰자에게 보여주고자 하는 데이터인 대상영상 데이터를 입력받는 단계;
    (b) 상기 대상영상 위치점을 중심으로 유도물체를 전후로 순차적으로 움직여 가면서 입체적으로 촬상하여서 생성된 관찰자의 주시거리를 유도하고자 하는 데이터인 유도영상 데이터를 입력받는 단계;
    (c) 상기 대상영상 데이터와 상기 유도영상 데이터를 입력받아 이를 합성하여 출력하는 단계; 및
    (d) 상기 유도영상 데이터를 순차적으로 입력되도록 하다가 상기 유도영상 데이터의 촬상거리가 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 입력을 중지하도록 하여 관찰자의 주시거리를 상기 대상영상 위치점에 일치시키도록 하는 단계를 포함하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 방법.
  15. 제 14 항에 있어서, 상기 유도영상 데이터는
    상기 대상영상 위치점을 중심으로 상기 주시거리 조정 장치에 위치하는 지점에서 상기 관찰자 지점으로 이동하는 또는 상기 관찰자 지점에서 상기 주시거리 조정 장치 지점으로 이동하는 유도물체를 카메라로 촬상하여 얻어지는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 방법.
  16. 제 15 항에 있어서, 상기 (d) 단계는
    (d-1) 상기 유도물체가 상기 주시거리 조정 장치에 위치하는 지점에서 상기 대상영상 위치점을 거쳐 상기 관찰자가 위치하는 지점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하는 단계; 및
    (d-2) 상기 유도물체가 상기 관찰자 지점에서 상기 대상영상 위치점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하는 단계; 및
    (d-3) 상기 유도영상 데이터의 촬상거리가 상기 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 출력을 중지하도록 하는 단계를 포함하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 방법.
  17. 제 15 항에 있어서, 상기 (d) 단계는
    (d-1') 상기 유도물체가 상기 관찰자가 위치하는 지점에서 상기 주시거리 조정 장치에 위치하는 지점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하는 단계;
    (d-2') 상기 유도물체가 상기 주시거리 조정 장치에 위치하는 지점에서 상기 대상영상 위치점으로 이동하는 경우에 촬상된 유도영상 데이터를 순차적으로 출력하도록 하는 단계; 및
    (d-3') 상기 유도영상 데이터의 촬상거리가 상기 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 출력을 중지하도록 하는 단계를 포함하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 방법.
  18. 제 14 항에 있어서,
    상기 (d)단계에서 상기 유도영상 데이터의 입력을 중지하는 것은
    상기 유도영상 데이터의 촬상거리가 대상영상 위치점과 일치하는 시점에서 상기 유도영상 데이터의 입력을 점차적으로 흐르게 입력하도록 제어하다가 없어지도록 하는 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 방법.
  19. 제 14 항에 있어서,
    상기 대상영상 데이터를 통한 입체감의 인지률보다 상기 유도영상 데이터를 통한 입체감의 인지률이 높은 것을 특징으로 하는 입체영상 관찰을 위한 주시거리 조정 방법.
  20. 제 14 항 내지 제 19 항 중 어느 한 항에 기재된 발명을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020040061093A 2004-08-03 2004-08-03 입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치 KR100624431B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020040061093A KR100624431B1 (ko) 2004-08-03 2004-08-03 입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치
US11/194,696 US20060028543A1 (en) 2004-08-03 2005-08-02 Method and apparatus for controlling convergence distance for observation of 3D image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040061093A KR100624431B1 (ko) 2004-08-03 2004-08-03 입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20060012411A KR20060012411A (ko) 2006-02-08
KR100624431B1 true KR100624431B1 (ko) 2006-09-19

Family

ID=35756994

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040061093A KR100624431B1 (ko) 2004-08-03 2004-08-03 입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치

Country Status (2)

Country Link
US (1) US20060028543A1 (ko)
KR (1) KR100624431B1 (ko)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
US8401336B2 (en) * 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US20090219383A1 (en) * 2007-12-21 2009-09-03 Charles Gregory Passmore Image depth augmentation system and method
KR20130000401A (ko) 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
KR20120051308A (ko) * 2010-11-12 2012-05-22 삼성전자주식회사 3d 입체감을 개선하고 시청 피로를 저감하는 방법 및 장치
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
ES2387782B1 (es) * 2011-03-04 2013-05-24 Davalor Consultoria Estrategica Y Tecnologica S.L. Equipo y procedimiento para exploracion, diagnostico o ayuda al diagnostico y terapia de problemas funcionales de la vision
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US20160033770A1 (en) 2013-03-26 2016-02-04 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
JP6232763B2 (ja) * 2013-06-12 2017-11-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
US10306215B2 (en) 2016-07-31 2019-05-28 Microsoft Technology Licensing, Llc Object display utilizing monoscopic view with controlled convergence
USD959447S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
USD959477S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
US11205296B2 (en) * 2019-12-20 2021-12-21 Sap Se 3D data exploration using interactive cuboids
USD959476S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07226959A (ja) * 1994-02-14 1995-08-22 Sharp Corp 立体映像表示装置
JPH085955A (ja) * 1994-06-17 1996-01-12 Sanyo Electric Co Ltd 虚像式立体画像表示装置および虚像式立体画像表示方法
JPH10239634A (ja) 1997-02-27 1998-09-11 Minolta Co Ltd 立体映像表示装置
JPH11168755A (ja) 1997-12-03 1999-06-22 Canon Inc 立体映像撮像装置
US6163336A (en) 1994-12-13 2000-12-19 Richards; Angus Duncan Tracking system for stereoscopic display systems
JP2002271691A (ja) 2001-03-13 2002-09-20 Canon Inc 画像処理方法、画像処理装置、記憶媒体及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07226959A (ja) * 1994-02-14 1995-08-22 Sharp Corp 立体映像表示装置
JPH085955A (ja) * 1994-06-17 1996-01-12 Sanyo Electric Co Ltd 虚像式立体画像表示装置および虚像式立体画像表示方法
US6163336A (en) 1994-12-13 2000-12-19 Richards; Angus Duncan Tracking system for stereoscopic display systems
JPH10239634A (ja) 1997-02-27 1998-09-11 Minolta Co Ltd 立体映像表示装置
JPH11168755A (ja) 1997-12-03 1999-06-22 Canon Inc 立体映像撮像装置
JP2002271691A (ja) 2001-03-13 2002-09-20 Canon Inc 画像処理方法、画像処理装置、記憶媒体及びプログラム

Also Published As

Publication number Publication date
US20060028543A1 (en) 2006-02-09
KR20060012411A (ko) 2006-02-08

Similar Documents

Publication Publication Date Title
KR100624431B1 (ko) 입체영상 관찰을 위한 주시거리 조정 방법 및 그 장치
JP5515301B2 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
JP5494284B2 (ja) 立体表示装置及び立体表示装置の制御方法
CN109196406B (zh) 利用混合现实的虚拟现实系统及其实施方法
WO2003081921A1 (fr) Procede de traitement d'images tridimensionnelles et dispositif
RU2015145510A (ru) Наголовное устройство отображения, способ управления наголовным устройством отображения и система отображения
WO2013185714A1 (zh) 增强现实中识别对象的方法及系统和计算机
WO2017141511A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US20190347864A1 (en) Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression
KR101740728B1 (ko) 영상 데이터 출력 시스템과 이를 위한 영상 출력 장치
TW201021546A (en) Interactive 3D image display method and related 3D display apparatus
EP4207067A1 (en) Apparatus and method for virtual reality
KR20090078085A (ko) 입체 영상 디스플레이 장치 및 그 입체 영상 디스플레이장치에서의 표시부 위치 조절 방법
CN113382222B (zh) 一种在用户移动过程中基于全息沙盘的展示方法
JP3425402B2 (ja) 立体画像を表示する装置および方法
GB2571286A (en) Virtual reality
JP2000182058A (ja) 三次元運動入力方法及び三次元運動入力システム
KR100380994B1 (ko) 응시지점을 따라가는 입체 영상 표시 장치 및 그 방법
CN113382229B (zh) 一种基于全息沙盘的动辅相机调整方法及装置
EP4030752A1 (en) Image generation system and method
CN108616740A (zh) 一种多镜头3d拍摄的方法、装置及系统
JP2016054417A (ja) 立体画像処理装置、立体撮像装置、立体表示装置および立体画像処理プログラム
Kevinç Perceptually driven stereoscopic camera control in 3D virtual environments
JP2006042280A (ja) 画像処理装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee