KR20090013925A - 실시간 입체영상 생성방법 - Google Patents

실시간 입체영상 생성방법 Download PDF

Info

Publication number
KR20090013925A
KR20090013925A KR1020070078080A KR20070078080A KR20090013925A KR 20090013925 A KR20090013925 A KR 20090013925A KR 1020070078080 A KR1020070078080 A KR 1020070078080A KR 20070078080 A KR20070078080 A KR 20070078080A KR 20090013925 A KR20090013925 A KR 20090013925A
Authority
KR
South Korea
Prior art keywords
camera
sphere
image
coordinates
coordinate
Prior art date
Application number
KR1020070078080A
Other languages
English (en)
Other versions
KR100893381B1 (ko
Inventor
이동천
염재홍
이선근
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020070078080A priority Critical patent/KR100893381B1/ko
Publication of KR20090013925A publication Critical patent/KR20090013925A/ko
Application granted granted Critical
Publication of KR100893381B1 publication Critical patent/KR100893381B1/ko

Links

Images

Classifications

    • H04N13/02

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

본 발명은 3차원 공간좌표를 갖는 대상물의 관측자의 관측방향 변화에 따른 입체영상을 실시간으로 생성하는 방법에 관한 것으로서, 보다 상세하게는 가상의 구 중심에 대상물이 놓여있고 관측자(즉, 카메라)는 구의 표면을 따라 이동하면서 대상물을 관측한다는 조건하에서 실시간으로 변하는 관측자의 관측위치(즉, 카메라의 촬영위치=카메라의 외부표정요소)에 대한 데이터 중 관측자가 구의 표면에서 수직방향으로 이동한 수직관측위치는 관측자가 수직방향으로 이동한 위치좌표로 취득하고, 관측자가 구의 표면에서 수평방향으로 이동한 수평관측위치는 관측자는 그대로 두고 대상물을 회전시키고 회전된 대상물의 공간좌표로 취득하고, 취득된 관측자의 관측위치를 나타내는 관측자의 위치좌표 및 대상물의 공간좌표를 가지고 양안시차의 원리와 공선조건식에 의해 관측위치에서 대상물을 촬영하여 투영시킨 2차원의 우측영상 및 좌측영상을 각각 제작하고, 제작된 우측영상 및 좌측영상을 이용하여 대상물의 입체영상을 실시간으로 생성하는 방법에 관한 것이다.
본 발명의 실시간 입체영상 생성방법은 대상물을 임의의 방향에서 바라본 입체영상을 실시간으로 생성하는 방법에 있어서, (S10) 상기 대상물의 어느 한점이 가상의 구(球) 중심에 위치하는 상기 대상물의 3차원 공간좌표를 취득하는 단계; (S20) 상기 가상의 구 표면 임의위치에서 구의 중심을 투영중심으로 하여 상기 대상물을 촬영하는 카메라의 외부표정요소(즉, 촬영위치)를 실시간으로 취득하되, 상기 외부표정요소 중 상기 카메라가 구의 수직방향(즉, 구의 XZ면 또는 YZ면)으로 이동한 위치는 카메라의 위치좌표로 취득하고, 카메라가 구의 수평방향(즉, 구의 XY면)으로 이동한 위치는 상기 대상물을 Z축을 축으로 회전시켜 변경된 대상물의 공간좌표로 취득하는 단계; (S30) 상기 구의 수직방향으로 이동한 카메라의 위치좌표를 양안시차의 원리에 의해 좌측좌표와 우측좌표로 분리하는 단계; (S40) 상기 변경된 대상물의 공간좌표와 상기 카메라의 좌측좌표, 상기 대상물의 공간좌표와 상기 카메라의 우측좌표를 각각 공선조건식에 대입하여 대상물의 좌측영상 및 우측영상을 실시간으로 제작하는 단계;를 포함하여 이루어진다.
대상물, 입체영상, 촬영위치, 좌측영상, 우측영상, 공선조건식

Description

실시간 입체영상 생성방법{METHODS GENERATING REAL-TIME STEREO IMAGES}
본 발명은 3차원 공간좌표를 갖는 대상물의 관측자의 관측방향 변화에 따른 입체영상을 실시간으로 생성하는 방법에 관한 것으로서, 보다 상세하게는 가상의 구 중심에 대상물이 놓여있고 관측자(즉, 카메라)는 구의 표면을 따라 이동하면서 대상물을 관측한다는 조건하에서 실시간으로 변하는 관측자의 관측위치(즉, 카메라의 촬영위치=카메라의 외부표정요소)에 대한 데이터 중 관측자가 구의 표면에서 수직방향으로 이동한 수직관측위치는 관측자가 수직방향으로 이동한 위치좌표로 취득하고, 관측자가 구의 표면에서 수평방향으로 이동한 수평관측위치는 관측자는 그대로 두고 대상물을 회전시키고 회전된 대상물의 공간좌표로 취득하고, 취득된 관측자의 관측위치를 나타내는 관측자의 위치좌표 및 대상물의 공간좌표를 가지고 양안시차의 원리와 공선조건식에 의해 관측위치에서 대상물을 촬영하여 투영시킨 2차원의 우측영상 및 좌측영상을 각각 제작하고, 제작된 우측영상 및 좌측영상을 이용하여 대상물의 입체영상을 실시간으로 생성하는 방법에 관한 것이다.
우리가 대상물을 현실에서 실제로 보는 형상은 3차원이나, 이 대상물을 TV, 영화, 컴퓨터 등을 통해 화면으로 볼 때는 화면의 평면성으로 인해 통상 2차원(또는 원근감이 표현된 2.5차원)이다. 그러나 최근에는 평면(2D)의 화면을 통해서도 대상물을 입체적(3D)으로 보고자 하는 시도가 적극적으로 행해지고 있다.
일반적으로 3차원을 표현하는 입체영상은 두 눈을 통한 스테레오 시각의 원리에 의존하는데, 두 눈의 시차 즉, 약 65mm 정도 떨어져 존재하는 두 눈 사이의 간격에 의한 양신시차는 입체감의 가장 중요한 요인이라 할 수 있다. 즉, 인체의 좌우 눈이 각각 서로 연관된 2D 영상을 볼 경우에 이들 두 영상이 망막을 통해 뇌로 전달되면 뇌는 이를 서로 융합하여 본래 3차원 영상의 깊이감과 실재감을 재생하게 된다.
이와 같이 2D 화면에서 대상물을 3D로 보기 위해서는 양안시차의 원리에 의해 대상물을 좌안으로 본 2D의 좌측영상과 우안으로 본 2D의 우측영상을 화면에 동시에 디스플레이하고 무안경방식(Side-by-Side), 편광입체방식(Interlace), 여색입체방식(Anaglyph) 등을 통해 관측자(시청자)의 눈을 속여야 한다.
대상물의 좌측영상과 우측영상을 화면에 동시에 디스플레이한 후에 이를 3차원의 입체영상으로 보이도록 하는 방법 및 장치에 관한 발명으로 공개특허 제2007-5091호 '입체 영상 표시 장치', 공개특허 제2006-78051호 '입체영상표시장치 및 입체영상표시방법', 공개특허 제2007-2503호 '입체영상 표시장치' 등이 공개되었다.
이들 공개특허는 대상물의 좌측영상 및 우측영상은 이미 확보되어 있다는 전제하에서 대상물을 입체영상을 얼마나 현실감 있게 생성할 것인가에 중점을 두고 있다. 물론 이것도 중요하지만, 입체영상의 생성을 위해 기초가 되는 대상물의 좌측영상과 우측영상을 어떻게 획득할 것인가도 중요하다.
본 발명은 대상물을 관측자가 원하는 방향에서 실시간으로 바라본 입체영상을 생성하는 방법에 관한 것으로서, 대상물을 모든 방향에서 본 좌측영상 및 우측영상이 필요한데,
대상물의 좌측영상과 우측영상을 획득하는 방법 중의 하나는 일정거리 이격되어 있는 두개의 카메라로 대상물을 직접 모든 방향에서 촬영하는 방법이다. 이 방법은 좌측영상 및 우측영상을 획득하기는 쉬우나, 대상물이 실물로 존재하고 카메라가 대상물을 직접 촬영해야 하는 번거로움이 있고, 대상물을 모든 방향에서 촬영한 영상 데이터를 저장해야 하므로 메모리의 용량이 커야하고, 관측자가 시시각각으로 관측방향을 변경 시에 그에 맞는 좌우측영상을 불러오기 위해서는 복잡한 연산과정이 필요하다.
본 발명은 상기와 같이 대상물의 좌측영상 및 우측영상을 취득하여 대상물을 임의의 방향에서 바라본 입체영상을 실시간으로 생성함에 있어, 대상물의 좌측영상 및 우측영상을 취득하기 위하여 카메라 및 대상물의 실물은 필요 없고 단지 대상물의 공간좌표와 가상의 카메라(보다 정확하게는 카메라의 내부,외부표정요소)만이 필요하고, 공선조건식에 의해 관측자의 시선(즉, 관측방향)이동에 따른 대상물의 좌우측 영상이 실시간으로 제작되어 입체영상이 생성되고, 대상물의 입체영상이 보다 정확하고 신속하게 생성될 수 있는 실시간 입체영상 생성방법을 제공함을 목적으로 한다.
이와 같은 목적을 달성하기 위한 본 발명의 실시간 입체영상 생성방법은
대상물을 임의의 방향에서 바라본 입체영상을 실시간으로 생성하는 방법에 있어서,
(S10) 상기 대상물의 어느 한점이 가상의 구(球) 중심에 위치하는 상기 대상물의 3차원 공간좌표를 취득하는 단계;
(S20) 상기 가상의 구 표면 임의위치에서 구의 중심을 투영중심으로 하여 상기 대상물을 촬영하는 카메라의 외부표정요소(즉, 촬영위치)를 실시간으로 취득하되,
상기 외부표정요소 중 상기 카메라가 구의 수직방향(즉, 구의 XZ면 또는 YZ면)으로 이동한 위치는 카메라의 위치좌표로 취득하고, 카메라가 구의 수평방향(즉, 구의 XY면)으로 이동한 위치는 상기 대상물을 Z축을 축으로 회전시켜 변경된 대상물의 공간좌표로 취득하는 단계;
(S30) 상기 구의 수직방향으로 이동한 카메라의 위치좌표를 양안시차의 원리에 의해 좌측좌표와 우측좌표로 분리하는 단계;
(S40) 상기 변경된 대상물의 공간좌표와 상기 카메라의 좌측좌표, 상기 대상물의 공간좌표와 상기 카메라의 우측좌표를 각각 공선조건식에 대입하여 대상물의 좌측영상 및 우측영상을 실시간으로 제작하는 단계;를 포함하여 이루어진다.
그리고 대상물의 입체영상 생성은 컴퓨터 상에서 수행되고, 상기 (S20)단계에서 카메라가 구의 수직방향으로 이동한 카메라의 위치좌표는 작업자가 마우스를 컴퓨터의 모니터에서 좌우(또는 상하)로 이동시킨 거리에 의해 결정되고, 카메라가 구의 수평방향으로 이동한 대상물의 공간좌표는 작업자가 마우스를 모니터에서 상하(또는 좌우)로 이동시킨 거리에 의해 결정되는 것을 특징으로 한다.
상기한 바와 같은 구성을 갖는 본 발명은 관측하고자하는 대상물의 공간좌표만이 필요하고, 대상물을 임의의 방향에서 본 좌우측영상은 양안시차의 원리와 공선조건식에 의해 실시간으로 제작되므로, 대상물의 공간좌표와 제작된 좌우측영상의 데이터를 저장하기 위한 메모리의 용량이 적어질 수 있고, 관측자의 시선이동에 따른 대상물의 입체영상이 즉각적으로 생성되고,
관측자의 관측방향 즉, 카메라의 외부표정요소로서 카메라가 가상의 구 표면에서 수직으로 이동한 수직관측위치는 카메라의 위치좌표로 구성되고, 카메라가 가상의 구 표면에서 수평방향으로 이동한 수평관측위치는 카메라는 이동되지 않고 대상물이 회전되어 변경된 대상물의 공간좌표로 구성됨으로서, 좌우측영상의 제작을 위한 연산속도가 빨라지고 입체영상의 소실점이 실제와 다른 방향에 생기는 것이 방지된다.
그리고 관측방향의 변화에 따라 대상물의 입체영상도 실시간으로 생성되므로 입체영상 데이터 처리기, 입체 디지털 영상 및 디지털 지도제공, 입체 도시모델링, 입체 광고물, 입체 게임, 입체 시뮬레이션, 입체 네비게이션 등에 폭 넓게 활용 가능하다.
이하에서는 도면을 참조하여 본 발명을 보다 구체적으로 설명한다.
도1은 본 발명에 따른 실시간 입체영상 생성방법의 플로우차트를 도시한 것으로서, 도면에서 보는 바와 같이 대상물의 공간좌표를 취득하는 단계(S10), 가상의 구 표면에서 대상물을 촬영하는 카메라의 외부표정요소를 취득하는 단계(S20)로 구의 수직방향으로 이동한 카메라의 위치좌표를 취득(S21)하고 Z축으로 회전된 대상물의 공간좌표를 취득(S23)하는 단계, 양안시차의 원리에 의해 카메라의 위치좌표를 좌측좌표와 우측좌표로 분리하는 단계(S30), 공선조건식에 의해 대상물의 2D 좌측영상 및 우측영상을 제작하는 단계(S40), 그리고 좌측영상 및 우측영상으로부터 대상물의 입체영상을 생성하는 단계(S50)를 포함하여 이루어진다.
상기 S10단계에서는 대상물(10)의 공간좌표 (X, Y, Z)를 취득한다. 여기서 상기 대상물은 실제 지표면 일정지역의 지형, 지물일 수 있고, 건축사가 설계한 가 상의 건물일 수 있고, 자동차일 수도 있는 드 그 대상은 다양하다.
그리고 이들 대상물(10)의 공간좌표 (X, Y, Z)는 대상물이 실제 지표면의 지형, 지물이라면 수치지도자료를 통해 얻을 수 있고, 대상물이 가상의 건물이나 자동차 등일 때에는 그 설계도 등을 통해 작업자가 공간좌표를 부여할 수 있다. 대상물(10)에 공간좌표를 부여하는 방식은 일반적이므로 더 이상의 구체적인 설명은 생략한다.
본 발명에 의해 입체영상을 생성하기 위해서는 대상물(10)의 한 점은 가상의 구 중심 (0, 0, 0)에 위치한다는 조건에서 출발하므로, 취득한 대상물(10)의 공간좌표에 (0, 0, 0)이 포함되어 있지 않다면 대상물을 선형 이동시켜 대상물(10)의 어느 한 점이 구 중심에 위치하도록 대상물(10)의 공간좌표(X, Y, Z)를 갱신한다.
다음으로 상기 S20단계에서는 카메라(20)의 외부표정요소를 취득한다. 여기서 카메라는 실제 카메라가 아닌 가상의 카메라로서, 우리가 필요한 것은 카메라(20)가 대상물(10)을 어느 위치에서 촬영한다는 가정 하에서 카메라(20)의 내부표정요소와 외부표정요소이다. 카메라의 내부표정요소로는 렌즈의 초점거리(f), 해상도 등이 있고, 외부표정요소로는 카메라의 위치좌표(x, y, z), 카메라의 촬영각도
Figure 112007056705015-PAT00001
등이 있다.
도2는 본 발명에서 적용된 가정(조건)에서 대상물(10)을 촬영하는 카메라(20)를 도시한 것으로서, 도면에서 보는 바와 같이 대상물(10)의 어느 한 점은 가상의 구 중심에 위치하고, 카메라(20)는 반지름이 r인 가상의 구 표면에 위치한다.
구의 반지름 r은 입체영상의 축적을 결정한다. 즉, 반지름 r이 크면 입체영상으로 생성되는 대상물은 작게 표현되고, 작으면 대상물은 크게 표현된다. 반지름 r 은 작업자가 선택할 사항이다.
그리고 카메라(20)는 가상의 구 표면에서 이동하여 대상물(10)을 촬영하며, 그 투영중심은 구의 중심을 향한다.
카메라(20)의 모든 촬영위치(x, y, z)는 도면에서 알 수 있듯이 카메라가 구의 수직방향(즉, 구의 XZ면 또는 YZ면)으로 이동한 각도
Figure 112007056705015-PAT00002
와 카메라가 구의 수평방향(즉, 구의 XY면)으로 이동한 각도
Figure 112007056705015-PAT00003
로 표현 가능하고, 아래의 수학식1과 같다.
Figure 112007056705015-PAT00004
Figure 112007056705015-PAT00005
x = r(sincos)
y = r(sin
Figure 112007056705015-PAT00006
sin
Figure 112007056705015-PAT00007
)
z = rcos
Figure 112007056705015-PAT00008
카메라(20)의 촬영위치(x, y, z)를 결정함에 있어, 상기 수학식1은 카메라(20)가 구의 수직방향을 이동한 수직관측위치를 결정(S21)하는데 사용되고,
카메라가 구의 수평방향으로 이동한 수평관측위치는 아래에서 설명하는 바와 같이 대상물(10)을 Z축을 축으로 회전시켜 대상물(10)의 공간좌표 (X, Y, Z)를 변경시켜 간접적으로 결정(S23)한다. 즉,
Figure 112007056705015-PAT00009
는 일정각도를 갖고,
Figure 112007056705015-PAT00010
는 0도 이다.
이와 같이 카메라(20)가 구의 수직방향으로 이동한 위치만을 카메라의 촬영위치로 하는 것은 공선조건식에 의해 대상물(10)의 좌측영상 및 우측영상의 제작하는 연산속도를 높이기 위한 것이다.
이를 보다 구체적으로 설명하면, 수학식4,5에서 보는 바와 같이 공선조건식에 적용되는 파리미터에는 카메라의 위치좌표
Figure 112007056705015-PAT00011
또는
Figure 112007056705015-PAT00012
와 카메라의 촬영각도
Figure 112007056705015-PAT00013
가 필요하다. 여기서
Figure 112007056705015-PAT00014
는 카메라가 각각 X축, Y축, Z축으로 회전한 각도를 나타내는 것으로서 카메라의 촬영위치를 나타내는 각도 (
Figure 112007056705015-PAT00015
,
Figure 112007056705015-PAT00016
)와 관계는 있지만 같은 값을 갖지는 않는다.
따라서 카메라(20)가 구의 수직방향과 수평방향으로 모두 이동된 위치를 카메라의 촬영위치 좌료로 사용하는 경우에는 카메라의 촬영각도
Figure 112007056705015-PAT00017
는 (
Figure 112007056705015-PAT00018
,
Figure 112007056705015-PAT00019
)로부터 직접적으로 구할 수 없고 카메라의 투영중심이 구의 중심을 향한다는 조건을 부가시켜 복잡한 수식을 통해 구해진다.
그러나 카메라(20)가 구의 수직방향으로 이동한 위치만을 카메라의 촬영위치 좌표로 사용(즉,
Figure 112007056705015-PAT00020
=0) 하고, 카메라가 구의 수평방향으로 이동한 위치는 대상물(10)을 회전시켜 변경된 공간좌표를 사용하는 경우에는 카메라의 촬영각도는 (
Figure 112007056705015-PAT00021
=-
Figure 112007056705015-PAT00022
,
Figure 112007056705015-PAT00023
=0,
Figure 112007056705015-PAT00024
=0)이 된다. 즉, 이때는 카메라의 촬영각도 셋 중 하나는 카메라 가 구 표면에서 수직으로 이동한 각도와 같아지고 나머지 둘은 0도가 됨으로서 카메라의 촬영각도
Figure 112007056705015-PAT00025
를 별도로 구할 필요가 없다.
그리고 다른 한편으로 생각할 수 있는 것은 카메라(20)는 구 표면의 특정위치에 고정시키고(이때는 카메라의 촬영위치(x, y, z) 및 촬영각도
Figure 112007056705015-PAT00026
가 모두 상수화 될 것이다.) 대상물(10)을 Z축 및 X축(또는 Y축)으로 회전시켜 대상물의 공간좌표만을 변경하여 대상물의 좌측영상 및 우측영상을 제작하는 것을 생각할 수 있다. 그러나 이 방식으로 생성되는 대상물의 입체영상은 그 소실점이 엉뚱한 방향에서 생성될 위험이 높다.
소실점은 어느 한 물체를 볼 때 물체의 원거리 지점이 어느 한 점으로 모이는 것을 말한다. 우리가 일정 폭의 도로를 볼 때 눈앞에 있는 도로의 폭은 넓지만 멀어질수록 도로의 폭이 좁아지는 것이 좋은 예이다.
대상물(10)을 위에서 내려다볼 때는 소실점이 아래에 생기고, 전방에서 볼 때는 소실점이 후방에 생겨야 정상적인데, 대상물(10)을 Z축 및 X축(또는 Y축)으로 회전시켜 대상물의 공간좌표를 변경하여 입체영상을 생성하는 경우에는 대상물을 바라보는 관측방향((
Figure 112007056705015-PAT00027
,
Figure 112007056705015-PAT00028
)에 상응)과 카메라의 시선방향(
Figure 112007056705015-PAT00029
에 상응)이 일치하지 않는 경우가 많아 소실점이 엉뚱한 방향에 생길 수 있다.
전술한 바와 같이 카메라(20)가 구의 수평방향으로 이동한 수평관측위치는 대상물(10)을 Z축을 축으로 회전시켜 대상물의 공간좌표를 변경시켜 간접적으로 결정(S23)된다. 대상물(10)의 공간좌표 변경은 아래의 수학식2에 의해 수행된다.
Figure 112007056705015-PAT00030
여기서
Figure 112007056705015-PAT00031
는 회전된 후 대상물(10)의 공간좌표이고,
Figure 112007056705015-PAT00032
는 회전되기 전 대상물(10)의 공간좌표이고,
Figure 112007056705015-PAT00033
는 Z축으로의 회전각도로서
Figure 112007056705015-PAT00034
=-
Figure 112007056705015-PAT00035
이다.
다음으로 상기 S30단계에서는 양안시차의 원리에 의해 카메라(20)가 구의 수직방향으로 이동한 위치좌표(x, y, z)를 좌측좌표
Figure 112007056705015-PAT00036
와 우측좌표
Figure 112007056705015-PAT00037
로 분리한다.
양안시차 원리는 사람의 좌안과 우안이 직선상에 일정거리 이격되어 있고, 좌안과 우안이 보는 영역 중 일부는 중복(공유)된다는 것을 적용한 것으로서, 카메라가 구의 수직방향으로 이동한 초기 위치(x, y, z)에서 카메라를 좌우측으로 일정거리 이동시키는 것으로서, 카메라의 x좌표가 변한다. 좌우측으로 각각 이동된 두 카메라의 간격
Figure 112007056705015-PAT00038
는 아래의 수학식3으로부터 구해진다.
Figure 112007056705015-PAT00039
여기서, b는 카메라가 촬영하는 대상물이 포함된 영역(즉, 영상)의 한 변의 길이, f는 카메라의 초점거리,
Figure 112007056705015-PAT00040
는 카메라에서 영상의 바닥면까지의 수직거리로서 통상 가상의 구 반지름 r에 상응한다. 그리고 R은 영상의 바닥면에서 돌출된 대상물의 최고높이 이고, P는 작업자(관측자)가 임의로 선택하는 좌측영상과 우측영상의 중복도로서 그 값은 60~90% 인 것이 바람직하다.
카메라가 구의 수직방향으로 이동한 초기 위치좌표(x, y, z)와 좌우측으로 각각 이동된 두 카메라의 간격
Figure 112007056705015-PAT00041
로부터 좌측좌표는
Figure 112007056705015-PAT00042
=(x-
Figure 112007056705015-PAT00043
/2, y, z), 우측좌표는
Figure 112007056705015-PAT00044
=(x+
Figure 112007056705015-PAT00045
/2, y, z)로 결정된다. 물론, 좌측좌표는
Figure 112007056705015-PAT00046
=(x, y, z), 우측좌표는
Figure 112007056705015-PAT00047
=(x+
Figure 112007056705015-PAT00048
, y, z)로 결정해도 된다.
이상의 과정을 통해 관측자(카메라)의 관측위치 변화에 따른 카메라의 좌측좌표
Figure 112007056705015-PAT00049
및 우측좌표
Figure 112007056705015-PAT00050
, 그리고 대상물의 변경된 공간좌표
Figure 112007056705015-PAT00051
가 모두 취득된 이후에는, 이들을 아래의 수학식4(공선조건식)에 적용하여 좌측영상과 우측영상을 제작한다.(S40) 이에 관한 일례가 도3에 도시되어 있다.
Figure 112007056705015-PAT00052
Figure 112007056705015-PAT00053
Figure 112007056705015-PAT00054
Figure 112007056705015-PAT00055
여기서, (
Figure 112007056705015-PAT00056
,
Figure 112007056705015-PAT00057
)은 좌측영상의 픽셀이고, (
Figure 112007056705015-PAT00058
,
Figure 112007056705015-PAT00059
)은 우측영상의 픽셀이다. 그리고
Figure 112007056705015-PAT00060
~
Figure 112007056705015-PAT00061
은 카메라의 촬영각도에 관련된 것으로서 아래의 수학식5와 같다.
Figure 112007056705015-PAT00062
전술한 바와 같이 임의의 관측위치에 대하여 구의 표면에서 수직방향으로 이동한 수직관측위치는 카메라(20)가 각도
Figure 112007056705015-PAT00063
만큼 이동한 카메라의 위치의 좌표로 구하고, 구의 표면에서 수평방향을 이동한 수평관측위치는 대상물(10)을 Z축을 축으로 각도
Figure 112007056705015-PAT00064
(=-
Figure 112007056705015-PAT00065
)만큼 회전시켜 변경된 대상물의 공간좌표로 구하므로, 수식5의
Figure 112007056705015-PAT00066
에 각각 (
Figure 112007056705015-PAT00067
, 0, 0)을 적용하면 r11=r22=r33=1이고 나머지는 0이 된다.
따라서 수학식4는 아래의 수학식6과 같이 단순해진다.
Figure 112007056705015-PAT00068
Figure 112007056705015-PAT00069
Figure 112007056705015-PAT00070
Figure 112007056705015-PAT00071
좌측영상 및 우측영상이 제작된 이후에는 상기 대상물(10)의 좌측영상 및 우측영상을 Side-by-Side 방식, Interlace 방식, Anaglyph 방식 중 어느 한 방식에 적용하여 대상물의 입체영상을 생성한다.(S50)
상기 Side-by-Side 방식은 일명 무안경 방식으로, 좌측영상과 우측영상을 일정거리 이격시켜 놓고 작업자가 직접 좌우측영상과의 거리를 조절하면서 보는 방식이고,
상기 Interlace 방식은 일명 편광입체 방식으로 좌측영상과 우측영상을 겹쳐 놓고 작업자가 편광안경을 쓰거나 또는 영상 위에 편광패널을 배치시키고 보는 방식이고,
상기 Anaglyph 방식은 일명 여색입체 방식으로, 좌측영상과 우측영상의 색상을 보색의 색상(예, 좌측영상은 빨강, 우측영상은 파랑)으로 표현하고 이들 두 영 사을 겹쳐 놓은 후에 보색의 색상을 갖는 안경(예 좌측안경은 빨강, 우측안경은 파랑)을 쓰고 보는 방식이다.
이상에서 설명한 입체영상의 생성과정, 즉 3차원 공간좌표를 갖는 대상물(10)의 어느 한 점이 가상의 구 중심에 위치하도록 대상물의 공간좌표를 새롭게 갱신한 후부터 대상물의 좌측영상 및 우측영상을 제작하고, 이들 좌우측 영상을 일정거리 이격시켜 배치하거나 겹치도록 배치하는 과정은 컴퓨터 상에서 수행된다.
상수의 성격을 갖는 구의 반지름 r, 카메라의 초점 f, 좌우측영상의 중복도 P, 좌우측영상의 한 변의 길이 b는 작업자(관측자)가 직접 결정하여 컴퓨터에 입력시키고,
변수의 성격을 갖는 대상물의 관측위치를 결정하는 카메라가 구의 수직방향으로 이동한 수직관측위치
Figure 112007056705015-PAT00072
와, 카메라가 구의 수평방향으로 이동한 수평관측위치
Figure 112007056705015-PAT00073
는 작업자가 컴퓨터의 모니터에서 이동시키는 마우스의 이동거리에 의해 실시간으로 연산된다.
예를 들어, 작업자가 마우스를 모니터에서 드래그 하여 좌우로 이동시키면 그 이동거리에 비례하여 수직관측위치를 나타내는
Figure 112007056705015-PAT00074
의 각도가 변하여 카메라의 위치좌표가 실시간으로 연산되고 , 작업자가 마우스를 모니터에서 드래그 하여 상하로 이동시키면 그 이동거리에 비례하여 수평관측위치를 나타내는
Figure 112007056705015-PAT00075
의 각도가 변하여 대상물의 회전된 공간좌표가 실시간으로 연산된다.
마우스의 이동방향에 따라 카메라의 위치좌표와 대상물의 공간좌표가 연산되면, 그와 동시에 대상물의 좌측영상 및 우측영상이 제작되고, 제작된 좌측영상과 우측영상은 즉시로 모니터에 디스플레이되어 대상물의 입체영상이 생성된다.
이상에서 본 발명을 설명함에 있어 첨부된 도면을 참조하여 특정 공정으로 이루어진 실시간 입체영상 생성방법에 대해 설명하였으나 본 발명은 당업자에 의하여 다양한 변형 및 변경이 가능하고, 이러한 변형 및 변경은 본 발명의 보호범위에 속하는 것으로 해석되어야 한다.
도 1 은 본 발명에 따른 실시간 입체영상 생성방법의 플로우차트.
도 2 는 가상의 구 상에서 위치하는 대상물과 카메라를 도시한 도면.
도 3 은 대상물의 좌측영상 및 우측영상을 제작하는 일례를 도시한 도면.
도 4 는 무안경방식이 적용된 입체영상의 일례도.
도 5 는 편광입체방식이 적용된 입체영상의 일례도.
도 6 은 여색입체방식이 적용된 입체영상의 일례도.
<도면의 주요부분에 대한 부호의 설명>
10 : 대상물 20 : 카메라

Claims (2)

  1. 대상물을 임의의 방향에서 바라본 입체영상을 실시간으로 생성하는 방법에 있어서,
    (S10) 상기 대상물의 어느 한점이 가상의 구(球) 중심에 위치하는 상기 대상물의 3차원 공간좌표를 취득하는 단계;
    (S20) 상기 가상의 구 표면 임의위치에서 구의 중심을 투영중심으로 하여 상기 대상물을 촬영하는 카메라의 외부표정요소(즉, 촬영위치)를 실시간으로 취득하되,
    상기 외부표정요소 중 상기 카메라가 구의 수직방향(즉, 구의 XZ면 또는 YZ면)으로 이동한 수직관측위치는 카메라의 위치좌표로 취득하고, 카메라가 구의 수평방향(즉, 구의 XY면)으로 이동한 수평관측위치는 상기 대상물을 Z축을 축으로 회전시켜 변경된 대상물의 공간좌표로 취득하는 단계;
    (S30) 상기 구의 수직방향으로 이동한 카메라의 위치좌표를 양안시차의 원리에 의해 좌측좌표와 우측좌표로 분리하는 단계;
    (S40) 상기 변경된 대상물의 공간좌표와 상기 카메라의 좌측좌표, 상기 대상물의 공간좌표와 상기 카메라의 우측좌표를 각각 공선조건식에 대입하여 대상물의 좌측영상 및 우측영상을 실시간으로 제작하는 단계;를 포함하여 이루어진 실시간 입체영상 생성방법.
  2. 제 1 항에 있어서,
    대상물의 입체영상 생성은 컴퓨터 상에서 수행되고,
    상기 (S20)단계에서 카메라가 구의 수직방향으로 이동한 카메라의 위치좌표는 작업자가 마우스를 컴퓨터의 모니터에서 좌우(또는 상하)로 이동시킨 거리에 의해 결정되고, 카메라가 구의 수평방향으로 이동한 대상물의 공간좌표는 작업자가 마우스를 모니터에서 상하(또는 좌우)로 이동시킨 거리에 의해 결정되는 것을 특징으로 하는 실시간 입체영상 생성방법.
KR1020070078080A 2007-08-03 2007-08-03 실시간 입체영상 생성방법 KR100893381B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070078080A KR100893381B1 (ko) 2007-08-03 2007-08-03 실시간 입체영상 생성방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070078080A KR100893381B1 (ko) 2007-08-03 2007-08-03 실시간 입체영상 생성방법

Publications (2)

Publication Number Publication Date
KR20090013925A true KR20090013925A (ko) 2009-02-06
KR100893381B1 KR100893381B1 (ko) 2009-04-17

Family

ID=40684154

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070078080A KR100893381B1 (ko) 2007-08-03 2007-08-03 실시간 입체영상 생성방법

Country Status (1)

Country Link
KR (1) KR100893381B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020027605A1 (ko) * 2018-08-01 2020-02-06 한국원자력연구원 평행축 방식의 양안 카메라 시스템에서 근거리 물체의 입체영상을 위한 영상처리 방법 및 장치
KR102541014B1 (ko) * 2022-10-14 2023-06-13 현대인프라코어 주식회사 노면상태를 고려한 화재 진압장치를 포함하는 전기자동차 충전지주

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09134450A (ja) * 1995-11-09 1997-05-20 Hitachi Medical Corp ステレオ画像表示法
KR100409194B1 (ko) * 2001-01-05 2003-12-06 주식회사 썸엔터미디어 가상 원형 카메라 시스템을 이용한 원형 극장 제작 시스템 및 방법, 그 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
KR20030015625A (ko) * 2001-08-17 2003-02-25 에이알비전 (주) 정육면체 프레임을 이용한 카메라 보정이 필요없는 물체의3차원 구조 복원 방법
JP2007003233A (ja) 2005-06-21 2007-01-11 Ritsumeikan コードターゲット、コード検出システム、及び3次元情報取得システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020027605A1 (ko) * 2018-08-01 2020-02-06 한국원자력연구원 평행축 방식의 양안 카메라 시스템에서 근거리 물체의 입체영상을 위한 영상처리 방법 및 장치
KR20200014631A (ko) * 2018-08-01 2020-02-11 한국원자력연구원 평행축 방식의 양안 카메라 시스템에서 근거리 물체의 입체영상을 위한 영상처리 방법 및 장치
US11902492B2 (en) 2018-08-01 2024-02-13 Korea Atomic Energy Research Institute Image processing method and apparatus for stereoscopic images of nearby object in binocular camera system of parallel axis type
KR102541014B1 (ko) * 2022-10-14 2023-06-13 현대인프라코어 주식회사 노면상태를 고려한 화재 진압장치를 포함하는 전기자동차 충전지주

Also Published As

Publication number Publication date
KR100893381B1 (ko) 2009-04-17

Similar Documents

Publication Publication Date Title
JP4228646B2 (ja) 立体視画像生成方法および立体視画像生成装置
JP3579162B2 (ja) 立体cg画像生成装置
CN103595988B (zh) 立体图像显示装置、图像处理装置及图像处理方法
CN110915206B (zh) 用于产生虚拟三维图像的系统和方法
WO2006001361A1 (ja) 立体視画像作成方法および装置
TW201225635A (en) Image processing device and method, and stereoscopic image display device
KR20120051287A (ko) 사용자 위치 기반의 영상 제공 장치 및 방법
JPWO2019198784A1 (ja) ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法
KR100893381B1 (ko) 실시간 입체영상 생성방법
JP2842735B2 (ja) 複数視点3次元画像入力装置、画像合成装置、及びその画像出力装置
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
KR20150091838A (ko) 초다시점형 3차원 디스플레이 시스템
KR101883883B1 (ko) 플립영상을 차단하는 무안경 원통형 홀로그램 디스플레이 방법
KR101831978B1 (ko) 회전된 렌티큘러시트를 부착한 디스플레이에 표시되는 요소영상콘텐츠 생성 방법
CN108881892B (zh) 用于桌面式虚拟现实系统的防眩晕方法、系统
JP2003348622A (ja) 立体映像表示方法及び記憶媒体
US10701345B2 (en) System and method for generating a stereo pair of images of virtual objects
KR101093929B1 (ko) 깊이 지도를 이용하여 3차원 영상을 표시하는 방법 및 시스템
KR101341597B1 (ko) 카메라의 위치 및 각도에 따른 2차원 영상의 깊이 맵 자동 생성 방법 및 이를 이용한 양안 및 다시점 입체영상 제작 방법
JP6543096B2 (ja) 視点位置用要素画像生成装置およびそのプログラム、ならびに、インテグラル立体シミュレーションシステム
JP2014116818A (ja) 全天周立体映像表示装置、全天周立体映像表示方法、映像データ補正プログラム
JP6179282B2 (ja) 3次元画像表示装置及び3次元画像表示方法
JP2024062935A (ja) 立体視表示コンテンツを生成する方法および装置
OA19355A (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
JP3691612B2 (ja) 画像表示装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120321

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130402

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee