KR100893381B1 - Methods generating real-time stereo images - Google Patents

Methods generating real-time stereo images Download PDF

Info

Publication number
KR100893381B1
KR100893381B1 KR1020070078080A KR20070078080A KR100893381B1 KR 100893381 B1 KR100893381 B1 KR 100893381B1 KR 1020070078080 A KR1020070078080 A KR 1020070078080A KR 20070078080 A KR20070078080 A KR 20070078080A KR 100893381 B1 KR100893381 B1 KR 100893381B1
Authority
KR
South Korea
Prior art keywords
sphere
camera
image
coordinates
observer
Prior art date
Application number
KR1020070078080A
Other languages
Korean (ko)
Other versions
KR20090013925A (en
Inventor
이동천
염재홍
이선근
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020070078080A priority Critical patent/KR100893381B1/en
Publication of KR20090013925A publication Critical patent/KR20090013925A/en
Application granted granted Critical
Publication of KR100893381B1 publication Critical patent/KR100893381B1/en

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

본 발명은 3차원 공간좌표를 갖는 대상물의 관측자의 관측방향 변화에 따른 입체영상을 실시간으로 생성하는 방법에 관한 것으로서, 보다 상세하게는 가상의 구 중심에 대상물이 놓여있고 관측자(즉, 카메라)는 구의 표면을 따라 이동하면서 대상물을 관측한다는 조건하에서 실시간으로 변하는 관측자의 관측위치(즉, 카메라의 촬영위치=카메라의 외부표정요소)에 대한 데이터 중 관측자가 구의 표면에서 수직방향으로 이동한 수직관측위치는 관측자가 수직방향으로 이동한 위치좌표로 취득하고, 관측자가 구의 표면에서 수평방향으로 이동한 수평관측위치는 관측자는 그대로 두고 대상물을 회전시키고 회전된 대상물의 공간좌표로 취득하고, 취득된 관측자의 관측위치를 나타내는 관측자의 위치좌표 및 대상물의 공간좌표를 가지고 양안시차의 원리와 공선조건식에 의해 관측위치에서 대상물을 촬영하여 투영시킨 2차원의 우측영상 및 좌측영상을 각각 제작하고, 제작된 우측영상 및 좌측영상을 이용하여 대상물의 입체영상을 실시간으로 생성하는 방법에 관한 것이다.The present invention relates to a method for generating a stereoscopic image in real time according to a change in the viewing direction of an object having a three-dimensional spatial coordinates, more specifically, the object is placed in the center of the virtual sphere and the observer (ie, the camera) The vertical observation position in which the observer moved vertically from the surface of the sphere of the data of the observer's observation position that changes in real time under the condition that the object is observed while moving along the surface of the sphere Is obtained by the position coordinates in which the observer moves in the vertical direction, and the horizontal observation position in which the observer moves in the horizontal direction on the surface of the sphere is rotated and the object is acquired in the spatial coordinates of the rotated object, leaving the observer intact. Principle of binocular disparity based on observer's position coordinate and spatial coordinate of object Relates to a method of photographing an object in the observation position by the collinearity condition equation to each produce a right image and left image of which projected onto a two-dimensional, and using the produced right image and left image generating a stereoscopic image of the object in real time.

본 발명의 실시간 입체영상 생성방법은 대상물을 임의의 방향에서 바라본 입체영상을 실시간으로 생성하는 방법에 있어서, (S10) 상기 대상물의 어느 한점이 가상의 구(球) 중심에 위치하는 상기 대상물의 3차원 공간좌표를 취득하는 단계; (S20) 상기 가상의 구 표면 임의위치에서 구의 중심을 투영중심으로 하여 상기 대상물을 촬영하는 카메라의 외부표정요소(즉, 촬영위치)를 실시간으로 취득하되, 상기 외부표정요소 중 상기 카메라가 구의 수직방향(즉, 구의 XZ면 또는 YZ면)으로 이동한 위치는 카메라의 위치좌표로 취득하고, 카메라가 구의 수평방향(즉, 구의 XY면)으로 이동한 위치는 상기 대상물을 Z축을 축으로 회전시켜 변경된 대상물의 공간좌표로 취득하는 단계; (S30) 상기 구의 수직방향으로 이동한 카메라의 위치좌표를 양안시차의 원리에 의해 좌측좌표와 우측좌표로 분리하는 단계; (S40) 상기 변경된 대상물의 공간좌표와 상기 카메라의 좌측좌표, 상기 대상물의 공간좌표와 상기 카메라의 우측좌표를 각각 공선조건식에 대입하여 대상물의 좌측영상 및 우측영상을 실시간으로 제작하는 단계;를 포함하여 이루어진다.In the method for generating a real-time three-dimensional image of the present invention in a method of generating a three-dimensional image in real time viewed from the target in any direction, (S10) any one point of the object is located at the virtual sphere 3 Obtaining dimensional spatial coordinates; (S20) An external expression element (that is, a photographing position) of a camera photographing the object is acquired in real time with the center of the sphere as the projection center at an arbitrary position of the virtual sphere surface, wherein the camera is vertical to the sphere among the external expression elements. The position moved in the direction (i.e., the sphere's XZ plane or YZ plane) is acquired by the camera's position coordinates, and the position in which the camera moves in the sphere's horizontal direction (i.e., the sphere's XY plane) rotates the object around its Z axis. Acquiring the spatial coordinates of the changed object; (S30) separating the position coordinates of the camera moved in the vertical direction of the sphere into left and right coordinates by the principle of binocular disparity; (S40) real-time production of the left image and the right image of the object by substituting the spatial coordinates of the object and the left coordinates of the camera, the spatial coordinates of the object and the right coordinate of the camera, respectively, in a collinear conditional expression; It is done by

대상물, 입체영상, 촬영위치, 좌측영상, 우측영상, 공선조건식 Object, stereoscopic image, shooting position, left image, right image, collinear conditional expression

Description

실시간 입체영상 생성방법{METHODS GENERATING REAL-TIME STEREO IMAGES} Real-time stereoscopic image generation method {METHODS GENERATING REAL-TIME STEREO IMAGES}

본 발명은 3차원 공간좌표를 갖는 대상물의 관측자의 관측방향 변화에 따른 입체영상을 실시간으로 생성하는 방법에 관한 것으로서, 보다 상세하게는 가상의 구 중심에 대상물이 놓여있고 관측자(즉, 카메라)는 구의 표면을 따라 이동하면서 대상물을 관측한다는 조건하에서 실시간으로 변하는 관측자의 관측위치(즉, 카메라의 촬영위치=카메라의 외부표정요소)에 대한 데이터 중 관측자가 구의 표면에서 수직방향으로 이동한 수직관측위치는 관측자가 수직방향으로 이동한 위치좌표로 취득하고, 관측자가 구의 표면에서 수평방향으로 이동한 수평관측위치는 관측자는 그대로 두고 대상물을 회전시키고 회전된 대상물의 공간좌표로 취득하고, 취득된 관측자의 관측위치를 나타내는 관측자의 위치좌표 및 대상물의 공간좌표를 가지고 양안시차의 원리와 공선조건식에 의해 관측위치에서 대상물을 촬영하여 투영시킨 2차원의 우측영상 및 좌측영상을 각각 제작하고, 제작된 우측영상 및 좌측영상을 이용하여 대상물의 입체영상을 실시간으로 생성하는 방법에 관한 것이다. The present invention relates to a method for generating a stereoscopic image in real time according to a change in the viewing direction of an object having a three-dimensional spatial coordinates, more specifically, the object is placed in the center of the virtual sphere and the observer (ie, the camera) The vertical observation position in which the observer moved vertically from the surface of the sphere of the data of the observer's observation position that changes in real time under the condition that the object is observed while moving along the surface of the sphere Is obtained by the position coordinates in which the observer moves in the vertical direction, and the horizontal observation position in which the observer moves in the horizontal direction on the surface of the sphere is rotated and the object is acquired in the spatial coordinates of the rotated object, leaving the observer intact. Principle of binocular disparity based on observer's position coordinate and spatial coordinate of object Relates to a method of photographing an object in the observation position by the collinearity condition equation to each produce a right image and left image of which projected onto a two-dimensional, and using the produced right image and left image generating a stereoscopic image of the object in real time.

우리가 대상물을 현실에서 실제로 보는 형상은 3차원이나, 이 대상물을 TV, 영화, 컴퓨터 등을 통해 화면으로 볼 때는 화면의 평면성으로 인해 통상 2차원(또는 원근감이 표현된 2.5차원)이다. 그러나 최근에는 평면(2D)의 화면을 통해서도 대상물을 입체적(3D)으로 보고자 하는 시도가 적극적으로 행해지고 있다. The shape that we actually see the object in reality is three-dimensional, but when the object is viewed on the screen through a TV, a movie, or a computer, it is usually two-dimensional (or 2.5-dimensional with perspective) due to the flatness of the screen. Recently, however, attempts have been actively made to view an object in three-dimensional (3D) mode even through a screen of a flat (2D) surface.

일반적으로 3차원을 표현하는 입체영상은 두 눈을 통한 스테레오 시각의 원리에 의존하는데, 두 눈의 시차 즉, 약 65mm 정도 떨어져 존재하는 두 눈 사이의 간격에 의한 양신시차는 입체감의 가장 중요한 요인이라 할 수 있다. 즉, 인체의 좌우 눈이 각각 서로 연관된 2D 영상을 볼 경우에 이들 두 영상이 망막을 통해 뇌로 전달되면 뇌는 이를 서로 융합하여 본래 3차원 영상의 깊이감과 실재감을 재생하게 된다.In general, three-dimensional images representing three-dimensional images depend on the principle of stereo vision through two eyes, and the parallax of two eyes, ie, the parallax due to the distance between two eyes that are about 65mm apart, is the most important factor of stereoscopic feeling. can do. That is, when the left and right eyes of the human body each see a 2D image associated with each other, when these two images are delivered to the brain through the retina, the brain fuses with each other to reproduce the depth and reality of the original 3D image.

이와 같이 2D 화면에서 대상물을 3D로 보기 위해서는 양안시차의 원리에 의해 대상물을 좌안으로 본 2D의 좌측영상과 우안으로 본 2D의 우측영상을 화면에 동시에 디스플레이하고 무안경방식(Side-by-Side), 편광입체방식(Interlace), 여색입체방식(Anaglyph) 등을 통해 관측자(시청자)의 눈을 속여야 한다. As described above, in order to view an object in 3D on a 2D screen, the left image of the 2D viewed from the left eye and the right image of the 2D viewed from the right eye are simultaneously displayed on the screen according to the principle of binocular disparity. The eye of the observer should be deceived through the use of polarization, interlace, and anaglyph.

대상물의 좌측영상과 우측영상을 화면에 동시에 디스플레이한 후에 이를 3차원의 입체영상으로 보이도록 하는 방법 및 장치에 관한 발명으로 공개특허 제2007-5091호 '입체 영상 표시 장치', 공개특허 제2006-78051호 '입체영상표시장치 및 입체영상표시방법', 공개특허 제2007-2503호 '입체영상 표시장치' 등이 공개되었다. The invention relates to a method and apparatus for displaying a left image and a right image of an object simultaneously on a screen and displaying the same as a 3D stereoscopic image. 78051 'stereoscopic image display apparatus and stereoscopic image display method', Patent Publication No. 2007-2503 'stereoscopic image display device' and the like have been published.

이들 공개특허는 대상물의 좌측영상 및 우측영상은 이미 확보되어 있다는 전제하에서 대상물을 입체영상을 얼마나 현실감 있게 생성할 것인가에 중점을 두고 있다. 물론 이것도 중요하지만, 입체영상의 생성을 위해 기초가 되는 대상물의 좌측영상과 우측영상을 어떻게 획득할 것인가도 중요하다. These publications focus on how realistically a three-dimensional image of an object can be created, provided that the left and right images of the object are already secured. Of course, this is important, but it is also important how to obtain the left and right images of the object that is the basis for the generation of the three-dimensional image.

본 발명은 대상물을 관측자가 원하는 방향에서 실시간으로 바라본 입체영상을 생성하는 방법에 관한 것으로서, 대상물을 모든 방향에서 본 좌측영상 및 우측영상이 필요한데, The present invention relates to a method of generating a stereoscopic image of an object viewed from a viewer in a desired direction in real time, and requires a left image and a right image of the object viewed from all directions.

대상물의 좌측영상과 우측영상을 획득하는 방법 중의 하나는 일정거리 이격되어 있는 두개의 카메라로 대상물을 직접 모든 방향에서 촬영하는 방법이다. 이 방법은 좌측영상 및 우측영상을 획득하기는 쉬우나, 대상물이 실물로 존재하고 카메라가 대상물을 직접 촬영해야 하는 번거로움이 있고, 대상물을 모든 방향에서 촬영한 영상 데이터를 저장해야 하므로 메모리의 용량이 커야하고, 관측자가 시시각각으로 관측방향을 변경 시에 그에 맞는 좌우측영상을 불러오기 위해서는 복잡한 연산과정이 필요하다. One of the methods of acquiring the left image and the right image of the object is a method of directly photographing the object from all directions with two cameras spaced a certain distance apart. This method makes it easy to acquire the left and right images, but it is cumbersome for the object to exist in real life and the camera has to shoot the object directly. It needs to be large, and complex calculation process is required to bring up the left and right images according to the observer's changing direction.

본 발명은 상기와 같이 대상물의 좌측영상 및 우측영상을 취득하여 대상물을 임의의 방향에서 바라본 입체영상을 실시간으로 생성함에 있어, 대상물의 좌측영상 및 우측영상을 취득하기 위하여 카메라 및 대상물의 실물은 필요 없고 단지 대상물의 공간좌표와 가상의 카메라(보다 정확하게는 카메라의 내부,외부표정요소)만이 필요하고, 공선조건식에 의해 관측자의 시선(즉, 관측방향)이동에 따른 대상물의 좌우측 영상이 실시간으로 제작되어 입체영상이 생성되고, 대상물의 입체영상이 보다 정확하고 신속하게 생성될 수 있는 실시간 입체영상 생성방법을 제공함을 목적으로 한다. According to the present invention, in order to acquire a left image and a right image of an object in real time to generate a stereoscopic image of the object viewed from an arbitrary direction, the real object of the camera and the object are necessary to acquire the left image and the right image of the object. Only the spatial coordinates of the object and the virtual camera (more precisely, the internal and external expression elements of the camera) are needed, and the left and right images of the object are generated in real time according to the observer's movement (ie, observation direction) by the collinear condition equation. The object is to provide a three-dimensional image is generated, a three-dimensional image of the real-time three-dimensional image generation method that can be generated more accurately and quickly.

이와 같은 목적을 달성하기 위한 본 발명의 실시간 입체영상 생성방법은 Real-time stereoscopic image generation method of the present invention for achieving the above object

대상물을 임의의 방향에서 바라본 입체영상을 실시간으로 생성하는 방법에 있어서, In the method for generating a three-dimensional image of the object viewed from any direction in real time,

(S10) 상기 대상물의 어느 한점이 가상의 구(球) 중심에 위치하는 상기 대상물의 3차원 공간좌표를 취득하는 단계;(S10) acquiring three-dimensional spatial coordinates of the object at which one point of the object is located at the center of a virtual sphere;

(S20) 상기 가상의 구 표면 임의위치에서 구의 중심을 투영중심으로 하여 상기 대상물을 촬영하는 카메라의 외부표정요소(즉, 촬영위치)를 실시간으로 취득하되, (S20) Acquire an external expression element (that is, a photographing position) of a camera photographing the object in real time with the center of the sphere as the projection center at an arbitrary position of the virtual sphere,

상기 외부표정요소 중 상기 카메라가 구의 수직방향(즉, 구의 XZ면 또는 YZ면)으로 이동한 위치는 카메라의 위치좌표로 취득하고, 카메라가 구의 수평방향(즉, 구의 XY면)으로 이동한 위치는 상기 대상물을 Z축을 축으로 회전시켜 변경된 대상물의 공간좌표로 취득하는 단계;The position in which the camera is moved in the vertical direction of the sphere (ie, the sphere's XZ plane or YZ plane) among the external expression elements is obtained by the position coordinates of the camera, and the position in which the camera moves in the horizontal direction of the sphere (ie, the sphere's XY plane). The method may include: obtaining the object as spatial coordinates of the object by rotating the object about a Z axis;

(S30) 상기 구의 수직방향으로 이동한 카메라의 위치좌표를 양안시차의 원리에 의해 좌측좌표와 우측좌표로 분리하는 단계;(S30) separating the position coordinates of the camera moved in the vertical direction of the sphere into left and right coordinates by the principle of binocular disparity;

(S40) 상기 변경된 대상물의 공간좌표와 상기 카메라의 좌측좌표, 상기 대상물의 공간좌표와 상기 카메라의 우측좌표를 각각 공선조건식에 대입하여 대상물의 좌측영상 및 우측영상을 실시간으로 제작하는 단계;를 포함하여 이루어진다. (S40) real-time production of the left image and the right image of the object by substituting the spatial coordinates of the object and the left coordinates of the camera, the spatial coordinates of the object and the right coordinate of the camera, respectively, in a collinear conditional expression; It is done by

그리고 대상물의 입체영상 생성은 컴퓨터 상에서 수행되고, 상기 (S20)단계에서 카메라가 구의 수직방향으로 이동한 카메라의 위치좌표는 작업자가 마우스를 컴퓨터의 모니터에서 좌우(또는 상하)로 이동시킨 거리에 의해 결정되고, 카메라가 구의 수평방향으로 이동한 대상물의 공간좌표는 작업자가 마우스를 모니터에서 상하(또는 좌우)로 이동시킨 거리에 의해 결정되는 것을 특징으로 한다. And the three-dimensional image generation of the object is performed on a computer, the position coordinates of the camera moved in the vertical direction of the sphere in the step (S20) by the distance the operator moved the mouse from side to side (or up and down) on the monitor of the computer The spatial coordinates of the object to which the camera is moved in the horizontal direction of the sphere are determined by the distance the operator moves the mouse up and down (or left and right) on the monitor.

상기한 바와 같은 구성을 갖는 본 발명은 관측하고자하는 대상물의 공간좌표만이 필요하고, 대상물을 임의의 방향에서 본 좌우측영상은 양안시차의 원리와 공선조건식에 의해 실시간으로 제작되므로, 대상물의 공간좌표와 제작된 좌우측영상의 데이터를 저장하기 위한 메모리의 용량이 적어질 수 있고, 관측자의 시선이동에 따른 대상물의 입체영상이 즉각적으로 생성되고, The present invention having the configuration as described above requires only the spatial coordinates of the object to be observed, and the left and right images of the object viewed from any direction are produced in real time according to the principle of binocular disparity and the collinear condition equation, and thus, the spatial coordinates of the object. And the capacity of the memory for storing the data of the produced left and right images can be reduced, the stereoscopic image of the object is generated immediately according to the observer's eye movement,

관측자의 관측방향 즉, 카메라의 외부표정요소로서 카메라가 가상의 구 표면에서 수직으로 이동한 수직관측위치는 카메라의 위치좌표로 구성되고, 카메라가 가상의 구 표면에서 수평방향으로 이동한 수평관측위치는 카메라는 이동되지 않고 대상물이 회전되어 변경된 대상물의 공간좌표로 구성됨으로서, 좌우측영상의 제작을 위한 연산속도가 빨라지고 입체영상의 소실점이 실제와 다른 방향에 생기는 것이 방지된다. The observation direction of the observer, that is, the vertical observation position where the camera is moved vertically from the virtual sphere surface as the external facing element of the camera is composed of the position coordinates of the camera, and the horizontal observation position where the camera is moved horizontally from the virtual sphere surface. Since the camera is not moved and the object is rotated and composed of the spatial coordinates of the changed object, the computational speed for producing the left and right images is increased, and the vanishing point of the stereoscopic image is prevented from occurring in a different direction from the actual one.

그리고 관측방향의 변화에 따라 대상물의 입체영상도 실시간으로 생성되므로 입체영상 데이터 처리기, 입체 디지털 영상 및 디지털 지도제공, 입체 도시모델링, 입체 광고물, 입체 게임, 입체 시뮬레이션, 입체 네비게이션 등에 폭 넓게 활용 가능하다. Also, the stereoscopic image of the object is generated in real time according to the change of observation direction, so it can be widely used for stereoscopic image data processor, stereoscopic digital image and digital map, stereoscopic city modeling, stereoscopic advertisement, stereoscopic game, stereoscopic simulation, stereoscopic navigation, etc. Do.

이하에서는 도면을 참조하여 본 발명을 보다 구체적으로 설명한다. Hereinafter, with reference to the drawings will be described the present invention in more detail.

도1은 본 발명에 따른 실시간 입체영상 생성방법의 플로우차트를 도시한 것으로서, 도면에서 보는 바와 같이 대상물의 공간좌표를 취득하는 단계(S10), 가상의 구 표면에서 대상물을 촬영하는 카메라의 외부표정요소를 취득하는 단계(S20)로 구의 수직방향으로 이동한 카메라의 위치좌표를 취득(S21)하고 Z축으로 회전된 대상물의 공간좌표를 취득(S23)하는 단계, 양안시차의 원리에 의해 카메라의 위치좌표를 좌측좌표와 우측좌표로 분리하는 단계(S30), 공선조건식에 의해 대상물의 2D 좌측영상 및 우측영상을 제작하는 단계(S40), 그리고 좌측영상 및 우측영상으로부터 대상물의 입체영상을 생성하는 단계(S50)를 포함하여 이루어진다. 1 is a flowchart of a method for generating a real-time stereoscopic image according to the present invention. As shown in the drawing, acquiring a spatial coordinate of an object (S10) and an external expression of a camera photographing an object from a virtual sphere surface Acquiring the element (S20), acquiring the position coordinates of the camera moved in the vertical direction of the sphere (S21), and acquiring the spatial coordinates of the object rotated on the Z axis (S23); Separating the position coordinates into left and right coordinates (S30), producing a 2D left image and a right image of the object by a collinear conditional expression (S40), and generating a stereoscopic image of the object from the left image and the right image A step S50 is made.

상기 S10단계에서는 대상물(10)의 공간좌표 (X, Y, Z)를 취득한다. 여기서 상기 대상물은 실제 지표면 일정지역의 지형, 지물일 수 있고, 건축사가 설계한 가 상의 건물일 수 있고, 자동차일 수도 있는 드 그 대상은 다양하다. In step S10, the spatial coordinates (X, Y, Z) of the object 10 are acquired. Here, the object may be a terrain, a feature of a certain surface area, a virtual building designed by an architect, or a vehicle, which may be a vehicle.

그리고 이들 대상물(10)의 공간좌표 (X, Y, Z)는 대상물이 실제 지표면의 지형, 지물이라면 수치지도자료를 통해 얻을 수 있고, 대상물이 가상의 건물이나 자동차 등일 때에는 그 설계도 등을 통해 작업자가 공간좌표를 부여할 수 있다. 대상물(10)에 공간좌표를 부여하는 방식은 일반적이므로 더 이상의 구체적인 설명은 생략한다. And the spatial coordinates (X, Y, Z) of these objects 10 can be obtained through the digital map data if the object is the terrain, features of the actual surface of the earth, and if the object is a virtual building or a car, the worker through the design, etc. Can give spatial coordinates. Since the method of giving the spatial coordinates to the object 10 is common, a detailed description thereof will be omitted.

본 발명에 의해 입체영상을 생성하기 위해서는 대상물(10)의 한 점은 가상의 구 중심 (0, 0, 0)에 위치한다는 조건에서 출발하므로, 취득한 대상물(10)의 공간좌표에 (0, 0, 0)이 포함되어 있지 않다면 대상물을 선형 이동시켜 대상물(10)의 어느 한 점이 구 중심에 위치하도록 대상물(10)의 공간좌표(X, Y, Z)를 갱신한다. In order to generate a stereoscopic image according to the present invention, one point of the object 10 starts on the condition that it is located at the center of the virtual sphere (0, 0, 0). Therefore, the space coordinate of the acquired object 10 is (0, 0). , 0) is not included, the spatial coordinate (X, Y, Z) of the object 10 is updated to linearly move the object so that any point of the object 10 is located at the center of the sphere.

다음으로 상기 S20단계에서는 카메라(20)의 외부표정요소를 취득한다. 여기서 카메라는 실제 카메라가 아닌 가상의 카메라로서, 우리가 필요한 것은 카메라(20)가 대상물(10)을 어느 위치에서 촬영한다는 가정 하에서 카메라(20)의 내부표정요소와 외부표정요소이다. 카메라의 내부표정요소로는 렌즈의 초점거리(f), 해상도 등이 있고, 외부표정요소로는 카메라의 위치좌표(x, y, z), 카메라의 촬영각도

Figure 112007056705015-pat00001
등이 있다. Next, in step S20, an external expression element of the camera 20 is acquired. Here, the camera is not a real camera but a virtual camera, and what we need is an internal expression element and an external expression element of the camera 20 under the assumption that the camera 20 photographs the object 10 at a certain position. The internal focusing elements of the camera include the focal length (f) of the lens and the resolution. The external focusing elements include the positional coordinates (x, y, z) of the camera and the shooting angle of the camera.
Figure 112007056705015-pat00001
Etc.

도2는 본 발명에서 적용된 가정(조건)에서 대상물(10)을 촬영하는 카메라(20)를 도시한 것으로서, 도면에서 보는 바와 같이 대상물(10)의 어느 한 점은 가상의 구 중심에 위치하고, 카메라(20)는 반지름이 r인 가상의 구 표면에 위치한다. Figure 2 shows a camera 20 for photographing the object 10 in the assumption (condition) applied in the present invention, as shown in the figure any one point of the object 10 is located in the center of the virtual sphere, the camera (20) is located on the surface of the imaginary sphere whose radius is r.

구의 반지름 r은 입체영상의 축적을 결정한다. 즉, 반지름 r이 크면 입체영상으로 생성되는 대상물은 작게 표현되고, 작으면 대상물은 크게 표현된다. 반지름 r 은 작업자가 선택할 사항이다. The radius r of the sphere determines the accumulation of stereoscopic images. That is, when the radius r is large, the object generated in the stereoscopic image is expressed small, and when the radius r is small, the object is expressed large. The radius r is your choice.

그리고 카메라(20)는 가상의 구 표면에서 이동하여 대상물(10)을 촬영하며, 그 투영중심은 구의 중심을 향한다. The camera 20 moves on the surface of the virtual sphere to photograph the object 10, and the projection center is directed toward the center of the sphere.

카메라(20)의 모든 촬영위치(x, y, z)는 도면에서 알 수 있듯이 카메라가 구의 수직방향(즉, 구의 XZ면 또는 YZ면)으로 이동한 각도

Figure 112007056705015-pat00002
와 카메라가 구의 수평방향(즉, 구의 XY면)으로 이동한 각도
Figure 112007056705015-pat00003
로 표현 가능하고, 아래의 수학식1과 같다. All shooting positions (x, y, z) of the camera 20 are angles at which the camera moves in the vertical direction of the sphere (ie, the sphere's XZ plane or YZ plane) as shown in the figure.
Figure 112007056705015-pat00002
And the angle the camera has moved in the horizontal direction of the sphere (ie, the XY plane of the sphere).
Figure 112007056705015-pat00003
Can be expressed as

Figure 112007056705015-pat00004
Figure 112007056705015-pat00005
x = r(sincos)
Figure 112007056705015-pat00004
Figure 112007056705015-pat00005
x = r (sincos)

y = r(sin

Figure 112007056705015-pat00006
sin
Figure 112007056705015-pat00007
)y = r (sin
Figure 112007056705015-pat00006
sin
Figure 112007056705015-pat00007
)

z = rcos

Figure 112007056705015-pat00008
z = rcos
Figure 112007056705015-pat00008

카메라(20)의 촬영위치(x, y, z)를 결정함에 있어, 상기 수학식1은 카메라(20)가 구의 수직방향을 이동한 수직관측위치를 결정(S21)하는데 사용되고, In determining the photographing position (x, y, z) of the camera 20, Equation 1 is used to determine the vertical observation position (S21) in which the camera 20 moved in the vertical direction of the sphere,

카메라가 구의 수평방향으로 이동한 수평관측위치는 아래에서 설명하는 바와 같이 대상물(10)을 Z축을 축으로 회전시켜 대상물(10)의 공간좌표 (X, Y, Z)를 변경시켜 간접적으로 결정(S23)한다. 즉,

Figure 112007056705015-pat00009
는 일정각도를 갖고,
Figure 112007056705015-pat00010
는 0도 이다. The horizontal observation position moved by the camera in the horizontal direction of the sphere is indirectly determined by changing the spatial coordinates (X, Y, Z) of the object 10 by rotating the object 10 about the Z axis as described below. S23). In other words,
Figure 112007056705015-pat00009
Has a certain angle,
Figure 112007056705015-pat00010
Is 0 degrees.

이와 같이 카메라(20)가 구의 수직방향으로 이동한 위치만을 카메라의 촬영위치로 하는 것은 공선조건식에 의해 대상물(10)의 좌측영상 및 우측영상의 제작하는 연산속도를 높이기 위한 것이다. In this way, only the position where the camera 20 is moved in the vertical direction of the sphere as the photographing position of the camera is to increase the calculation speed for producing the left image and the right image of the object 10 by the collinear conditional expression.

이를 보다 구체적으로 설명하면, 수학식4,5에서 보는 바와 같이 공선조건식에 적용되는 파리미터에는 카메라의 위치좌표

Figure 112007056705015-pat00011
또는
Figure 112007056705015-pat00012
와 카메라의 촬영각도
Figure 112007056705015-pat00013
가 필요하다. 여기서
Figure 112007056705015-pat00014
는 카메라가 각각 X축, Y축, Z축으로 회전한 각도를 나타내는 것으로서 카메라의 촬영위치를 나타내는 각도 (
Figure 112007056705015-pat00015
,
Figure 112007056705015-pat00016
)와 관계는 있지만 같은 값을 갖지는 않는다. In more detail, as shown in equations (4) and (5), the positional coordinates of the camera are included in the parameter applied to the collinear conditional expression.
Figure 112007056705015-pat00011
or
Figure 112007056705015-pat00012
Angle of camera and camera
Figure 112007056705015-pat00013
Is needed. here
Figure 112007056705015-pat00014
Is the angle that the camera rotates on the X, Y, and Z axes, respectively.
Figure 112007056705015-pat00015
,
Figure 112007056705015-pat00016
) But not the same value.

따라서 카메라(20)가 구의 수직방향과 수평방향으로 모두 이동된 위치를 카메라의 촬영위치 좌료로 사용하는 경우에는 카메라의 촬영각도

Figure 112007056705015-pat00017
는 (
Figure 112007056705015-pat00018
,
Figure 112007056705015-pat00019
)로부터 직접적으로 구할 수 없고 카메라의 투영중심이 구의 중심을 향한다는 조건을 부가시켜 복잡한 수식을 통해 구해진다. Therefore, when the camera 20 uses both the vertical and horizontal positions of the sphere as the left position of the camera, the shooting angle of the camera
Figure 112007056705015-pat00017
Is (
Figure 112007056705015-pat00018
,
Figure 112007056705015-pat00019
It can not be obtained directly from) but is obtained through a complex equation with the condition that the projection center of the camera is towards the center of the sphere.

그러나 카메라(20)가 구의 수직방향으로 이동한 위치만을 카메라의 촬영위치 좌표로 사용(즉,

Figure 112007056705015-pat00020
=0) 하고, 카메라가 구의 수평방향으로 이동한 위치는 대상물(10)을 회전시켜 변경된 공간좌표를 사용하는 경우에는 카메라의 촬영각도는 (
Figure 112007056705015-pat00021
=-
Figure 112007056705015-pat00022
,
Figure 112007056705015-pat00023
=0,
Figure 112007056705015-pat00024
=0)이 된다. 즉, 이때는 카메라의 촬영각도 셋 중 하나는 카메라 가 구 표면에서 수직으로 이동한 각도와 같아지고 나머지 둘은 0도가 됨으로서 카메라의 촬영각도
Figure 112007056705015-pat00025
를 별도로 구할 필요가 없다. However, only the position where the camera 20 moves in the vertical direction of the sphere is used as the camera's shooting position coordinates (that is,
Figure 112007056705015-pat00020
= 0), and the camera moves in the horizontal direction of the sphere. When the object 10 is used to change the spatial coordinates, the camera's shooting angle is (
Figure 112007056705015-pat00021
=-
Figure 112007056705015-pat00022
,
Figure 112007056705015-pat00023
= 0,
Figure 112007056705015-pat00024
= 0). In other words, one of the camera's three shooting angles is equal to the angle the camera moves vertically from the sphere surface, and the other two are zero degrees.
Figure 112007056705015-pat00025
There is no need to obtain

그리고 다른 한편으로 생각할 수 있는 것은 카메라(20)는 구 표면의 특정위치에 고정시키고(이때는 카메라의 촬영위치(x, y, z) 및 촬영각도

Figure 112007056705015-pat00026
가 모두 상수화 될 것이다.) 대상물(10)을 Z축 및 X축(또는 Y축)으로 회전시켜 대상물의 공간좌표만을 변경하여 대상물의 좌측영상 및 우측영상을 제작하는 것을 생각할 수 있다. 그러나 이 방식으로 생성되는 대상물의 입체영상은 그 소실점이 엉뚱한 방향에서 생성될 위험이 높다. And on the other hand, the camera 20 is fixed to a specific position of the sphere surface (in this case, the camera shooting position (x, y, z) and the shooting angle)
Figure 112007056705015-pat00026
Will be constant.) It is conceivable to produce the left and right images of the object by changing only the spatial coordinates of the object by rotating the object 10 along the Z axis and the X axis (or Y axis). However, stereoscopic images of objects created in this way have a high risk of their vanishing points being generated in the wrong direction.

소실점은 어느 한 물체를 볼 때 물체의 원거리 지점이 어느 한 점으로 모이는 것을 말한다. 우리가 일정 폭의 도로를 볼 때 눈앞에 있는 도로의 폭은 넓지만 멀어질수록 도로의 폭이 좁아지는 것이 좋은 예이다. Vanishing point means that when looking at an object, the far point of the object converges at a certain point. When we see a certain road, the road ahead is wide, but the farther it is, the narrower the road is.

대상물(10)을 위에서 내려다볼 때는 소실점이 아래에 생기고, 전방에서 볼 때는 소실점이 후방에 생겨야 정상적인데, 대상물(10)을 Z축 및 X축(또는 Y축)으로 회전시켜 대상물의 공간좌표를 변경하여 입체영상을 생성하는 경우에는 대상물을 바라보는 관측방향((

Figure 112007056705015-pat00027
,
Figure 112007056705015-pat00028
)에 상응)과 카메라의 시선방향(
Figure 112007056705015-pat00029
에 상응)이 일치하지 않는 경우가 많아 소실점이 엉뚱한 방향에 생길 수 있다. When looking down from the top of the object 10, the vanishing point should appear at the bottom, and from the front, the vanishing point should be at the rear, which is normal. In the case of generating a stereoscopic image, the viewing direction of the object ((
Figure 112007056705015-pat00027
,
Figure 112007056705015-pat00028
) And the camera's line of sight (
Figure 112007056705015-pat00029
Are often inconsistent, resulting in vanishing points in the wrong direction.

전술한 바와 같이 카메라(20)가 구의 수평방향으로 이동한 수평관측위치는 대상물(10)을 Z축을 축으로 회전시켜 대상물의 공간좌표를 변경시켜 간접적으로 결정(S23)된다. 대상물(10)의 공간좌표 변경은 아래의 수학식2에 의해 수행된다. As described above, the horizontal observation position where the camera 20 moves in the horizontal direction of the sphere is determined indirectly by changing the spatial coordinates of the object by rotating the object 10 about the Z axis. The spatial coordinate change of the object 10 is performed by Equation 2 below.

Figure 112007056705015-pat00030
Figure 112007056705015-pat00030

여기서

Figure 112007056705015-pat00031
는 회전된 후 대상물(10)의 공간좌표이고,
Figure 112007056705015-pat00032
는 회전되기 전 대상물(10)의 공간좌표이고,
Figure 112007056705015-pat00033
는 Z축으로의 회전각도로서
Figure 112007056705015-pat00034
=-
Figure 112007056705015-pat00035
이다. here
Figure 112007056705015-pat00031
Is the spatial coordinate of the object 10 after being rotated,
Figure 112007056705015-pat00032
Is the spatial coordinate of the object 10 before being rotated,
Figure 112007056705015-pat00033
Is the angle of rotation in the Z axis
Figure 112007056705015-pat00034
=-
Figure 112007056705015-pat00035
to be.

다음으로 상기 S30단계에서는 양안시차의 원리에 의해 카메라(20)가 구의 수직방향으로 이동한 위치좌표(x, y, z)를 좌측좌표

Figure 112007056705015-pat00036
와 우측좌표
Figure 112007056705015-pat00037
로 분리한다. Next, in step S30, the left coordinate of the position coordinates (x, y, z) in which the camera 20 is moved in the vertical direction of the sphere by the principle of binocular disparity.
Figure 112007056705015-pat00036
And right coordinate
Figure 112007056705015-pat00037
To separate.

양안시차 원리는 사람의 좌안과 우안이 직선상에 일정거리 이격되어 있고, 좌안과 우안이 보는 영역 중 일부는 중복(공유)된다는 것을 적용한 것으로서, 카메라가 구의 수직방향으로 이동한 초기 위치(x, y, z)에서 카메라를 좌우측으로 일정거리 이동시키는 것으로서, 카메라의 x좌표가 변한다. 좌우측으로 각각 이동된 두 카메라의 간격

Figure 112007056705015-pat00038
는 아래의 수학식3으로부터 구해진다. The binocular parallax principle applies that the left and right eyes of a person are separated by a certain distance on a straight line, and some of the areas seen by the left and right eyes are overlapped (shared), and the initial position (x, In y, z), the x-coordinate of the camera changes by moving the camera to the left and right a certain distance. Spacing of two cameras moved left and right, respectively
Figure 112007056705015-pat00038
Is obtained from Equation 3 below.

Figure 112007056705015-pat00039
Figure 112007056705015-pat00039

여기서, b는 카메라가 촬영하는 대상물이 포함된 영역(즉, 영상)의 한 변의 길이, f는 카메라의 초점거리,

Figure 112007056705015-pat00040
는 카메라에서 영상의 바닥면까지의 수직거리로서 통상 가상의 구 반지름 r에 상응한다. 그리고 R은 영상의 바닥면에서 돌출된 대상물의 최고높이 이고, P는 작업자(관측자)가 임의로 선택하는 좌측영상과 우측영상의 중복도로서 그 값은 60~90% 인 것이 바람직하다. Here, b is the length of one side of the region (that is, the image) containing the object to be photographed by the camera, f is the focal length of the camera,
Figure 112007056705015-pat00040
Is the vertical distance from the camera to the bottom of the image and usually corresponds to the virtual sphere radius r. And R is the highest height of the object protruding from the bottom of the image, P is the degree of redundancy of the left image and the right image arbitrarily selected by the operator (observer), the value is preferably 60 ~ 90%.

카메라가 구의 수직방향으로 이동한 초기 위치좌표(x, y, z)와 좌우측으로 각각 이동된 두 카메라의 간격

Figure 112007056705015-pat00041
로부터 좌측좌표는
Figure 112007056705015-pat00042
=(x-
Figure 112007056705015-pat00043
/2, y, z), 우측좌표는
Figure 112007056705015-pat00044
=(x+
Figure 112007056705015-pat00045
/2, y, z)로 결정된다. 물론, 좌측좌표는
Figure 112007056705015-pat00046
=(x, y, z), 우측좌표는
Figure 112007056705015-pat00047
=(x+
Figure 112007056705015-pat00048
, y, z)로 결정해도 된다. The initial position coordinates (x, y, z) that the camera moved in the vertical direction of the sphere and the distance between the two cameras that are moved left and right, respectively
Figure 112007056705015-pat00041
The left coordinate from
Figure 112007056705015-pat00042
= (x-
Figure 112007056705015-pat00043
/ 2, y, z), right coordinate
Figure 112007056705015-pat00044
= (x +
Figure 112007056705015-pat00045
/ 2, y, z). Of course, the left coordinate
Figure 112007056705015-pat00046
= (x, y, z), right coordinate
Figure 112007056705015-pat00047
= (x +
Figure 112007056705015-pat00048
, y, z).

이상의 과정을 통해 관측자(카메라)의 관측위치 변화에 따른 카메라의 좌측좌표

Figure 112007056705015-pat00049
및 우측좌표
Figure 112007056705015-pat00050
, 그리고 대상물의 변경된 공간좌표
Figure 112007056705015-pat00051
가 모두 취득된 이후에는, 이들을 아래의 수학식4(공선조건식)에 적용하여 좌측영상과 우측영상을 제작한다.(S40) 이에 관한 일례가 도3에 도시되어 있다. Through the above process, the left coordinate of the camera according to the change of the observation position of the observer (camera)
Figure 112007056705015-pat00049
And right coordinate
Figure 112007056705015-pat00050
, And the modified spatial coordinates of the object
Figure 112007056705015-pat00051
After all are obtained, the left and right images are produced by applying them to Equation 4 (collinear condition equation) below. (S40) An example thereof is shown in FIG.

Figure 112007056705015-pat00052
Figure 112007056705015-pat00052

Figure 112007056705015-pat00053
Figure 112007056705015-pat00053

Figure 112007056705015-pat00054
Figure 112007056705015-pat00054

Figure 112007056705015-pat00055
Figure 112007056705015-pat00055

여기서, (

Figure 112007056705015-pat00056
,
Figure 112007056705015-pat00057
)은 좌측영상의 픽셀이고, (
Figure 112007056705015-pat00058
,
Figure 112007056705015-pat00059
)은 우측영상의 픽셀이다. 그리고
Figure 112007056705015-pat00060
~
Figure 112007056705015-pat00061
은 카메라의 촬영각도에 관련된 것으로서 아래의 수학식5와 같다. here, (
Figure 112007056705015-pat00056
,
Figure 112007056705015-pat00057
) Is the pixel of the left image, (
Figure 112007056705015-pat00058
,
Figure 112007056705015-pat00059
) Is a pixel of the right image. And
Figure 112007056705015-pat00060
To
Figure 112007056705015-pat00061
Is related to the photographing angle of the camera as shown in Equation 5 below.

Figure 112007056705015-pat00062
Figure 112007056705015-pat00062

전술한 바와 같이 임의의 관측위치에 대하여 구의 표면에서 수직방향으로 이동한 수직관측위치는 카메라(20)가 각도

Figure 112007056705015-pat00063
만큼 이동한 카메라의 위치의 좌표로 구하고, 구의 표면에서 수평방향을 이동한 수평관측위치는 대상물(10)을 Z축을 축으로 각도
Figure 112007056705015-pat00064
(=-
Figure 112007056705015-pat00065
)만큼 회전시켜 변경된 대상물의 공간좌표로 구하므로, 수식5의
Figure 112007056705015-pat00066
에 각각 (
Figure 112007056705015-pat00067
, 0, 0)을 적용하면 r11=r22=r33=1이고 나머지는 0이 된다. As described above, the vertical observation position moved vertically from the surface of the sphere with respect to any observation position is determined by the angle of the camera 20.
Figure 112007056705015-pat00063
The horizontal observation position obtained by the coordinates of the position of the camera moved by as much as possible and the horizontal direction moved from the surface of the sphere is determined by the angle of the object 10 to the Z axis.
Figure 112007056705015-pat00064
(=-
Figure 112007056705015-pat00065
Rotate by) to obtain the spatial coordinates of the changed object.
Figure 112007056705015-pat00066
On each (
Figure 112007056705015-pat00067
, 0, 0), r11 = r22 = r33 = 1 and the rest is 0.

따라서 수학식4는 아래의 수학식6과 같이 단순해진다. Therefore, Equation 4 is simplified as Equation 6 below.

Figure 112007056705015-pat00068
Figure 112007056705015-pat00068

Figure 112007056705015-pat00069
Figure 112007056705015-pat00069

Figure 112007056705015-pat00070
Figure 112007056705015-pat00070

Figure 112007056705015-pat00071
Figure 112007056705015-pat00071

좌측영상 및 우측영상이 제작된 이후에는 상기 대상물(10)의 좌측영상 및 우측영상을 Side-by-Side 방식, Interlace 방식, Anaglyph 방식 중 어느 한 방식에 적용하여 대상물의 입체영상을 생성한다.(S50)After the left image and the right image are produced, the left image and the right image of the object 10 are applied to any one of Side-by-Side, Interlace, and Anaglyph methods to generate a stereoscopic image of the object. S50)

상기 Side-by-Side 방식은 일명 무안경 방식으로, 좌측영상과 우측영상을 일정거리 이격시켜 놓고 작업자가 직접 좌우측영상과의 거리를 조절하면서 보는 방식이고, The side-by-side method is a so-called auto glasses-free method, and the left image and the right image are separated from each other by a certain distance, and the operator directly controls the distance between the left and right images.

상기 Interlace 방식은 일명 편광입체 방식으로 좌측영상과 우측영상을 겹쳐 놓고 작업자가 편광안경을 쓰거나 또는 영상 위에 편광패널을 배치시키고 보는 방식이고, The interlace method is a method of overlapping the left image and the right image in a so-called polarization stereoscopic method, and the operator wears polarized glasses or arranges and views a polarizing panel on the image.

상기 Anaglyph 방식은 일명 여색입체 방식으로, 좌측영상과 우측영상의 색상을 보색의 색상(예, 좌측영상은 빨강, 우측영상은 파랑)으로 표현하고 이들 두 영 사을 겹쳐 놓은 후에 보색의 색상을 갖는 안경(예 좌측안경은 빨강, 우측안경은 파랑)을 쓰고 보는 방식이다. The Anaglyph method is a so called stereoscopic method, and the colors of the left image and the right image are expressed in complementary colors (eg, the left image is red, the right image is blue), and the glasses having complementary colors after the two projections are superimposed. (Yes, left glasses are red, right glasses are blue).

이상에서 설명한 입체영상의 생성과정, 즉 3차원 공간좌표를 갖는 대상물(10)의 어느 한 점이 가상의 구 중심에 위치하도록 대상물의 공간좌표를 새롭게 갱신한 후부터 대상물의 좌측영상 및 우측영상을 제작하고, 이들 좌우측 영상을 일정거리 이격시켜 배치하거나 겹치도록 배치하는 과정은 컴퓨터 상에서 수행된다. The left and right images of the object are manufactured after newly updating the spatial coordinates of the object so that any one point of the object 10 having the three-dimensional spatial coordinates is located at the center of the virtual sphere. In addition, the process of disposing the left and right images at a predetermined distance or overlapping the images is performed on a computer.

상수의 성격을 갖는 구의 반지름 r, 카메라의 초점 f, 좌우측영상의 중복도 P, 좌우측영상의 한 변의 길이 b는 작업자(관측자)가 직접 결정하여 컴퓨터에 입력시키고, The radius r of the sphere with constant characteristics, the focal point f of the camera, the degree of redundancy P of the left and right images, and the length b of one side of the left and right images are determined by the operator (observer) and input into the computer.

변수의 성격을 갖는 대상물의 관측위치를 결정하는 카메라가 구의 수직방향으로 이동한 수직관측위치

Figure 112007056705015-pat00072
와, 카메라가 구의 수평방향으로 이동한 수평관측위치
Figure 112007056705015-pat00073
는 작업자가 컴퓨터의 모니터에서 이동시키는 마우스의 이동거리에 의해 실시간으로 연산된다. Vertical observation position in which the camera moves in the vertical direction of the sphere to determine the observation position of the object with variable characteristics
Figure 112007056705015-pat00072
And the horizontal observation position where the camera moved in the horizontal direction of the sphere.
Figure 112007056705015-pat00073
Is calculated in real time by the movement distance of the mouse that the operator moves on the monitor of the computer.

예를 들어, 작업자가 마우스를 모니터에서 드래그 하여 좌우로 이동시키면 그 이동거리에 비례하여 수직관측위치를 나타내는

Figure 112007056705015-pat00074
의 각도가 변하여 카메라의 위치좌표가 실시간으로 연산되고 , 작업자가 마우스를 모니터에서 드래그 하여 상하로 이동시키면 그 이동거리에 비례하여 수평관측위치를 나타내는
Figure 112007056705015-pat00075
의 각도가 변하여 대상물의 회전된 공간좌표가 실시간으로 연산된다. For example, if a worker drags the mouse on the monitor and moves it to the left or right, it indicates the vertical observation position in proportion to the movement distance.
Figure 112007056705015-pat00074
The position coordinates of the camera are calculated in real time, and the operator drags the mouse on the monitor and moves it up and down to indicate the horizontal observation position in proportion to the movement distance.
Figure 112007056705015-pat00075
The angle of is changed so that the rotated spatial coordinates of the object are calculated in real time.

마우스의 이동방향에 따라 카메라의 위치좌표와 대상물의 공간좌표가 연산되면, 그와 동시에 대상물의 좌측영상 및 우측영상이 제작되고, 제작된 좌측영상과 우측영상은 즉시로 모니터에 디스플레이되어 대상물의 입체영상이 생성된다. When the position coordinates of the camera and the spatial coordinates of the object are calculated according to the moving direction of the mouse, the left image and the right image of the object are produced at the same time. The image is generated.

이상에서 본 발명을 설명함에 있어 첨부된 도면을 참조하여 특정 공정으로 이루어진 실시간 입체영상 생성방법에 대해 설명하였으나 본 발명은 당업자에 의하여 다양한 변형 및 변경이 가능하고, 이러한 변형 및 변경은 본 발명의 보호범위에 속하는 것으로 해석되어야 한다.In the above description of the present invention, a method of generating a real-time stereoscopic image made of a specific process is described with reference to the accompanying drawings, but the present invention can be variously modified and changed by those skilled in the art. Should be interpreted as being within the scope.

도 1 은 본 발명에 따른 실시간 입체영상 생성방법의 플로우차트.1 is a flowchart of a method for generating a real-time stereoscopic image according to the present invention.

도 2 는 가상의 구 상에서 위치하는 대상물과 카메라를 도시한 도면.2 shows an object and a camera located on a virtual sphere.

도 3 은 대상물의 좌측영상 및 우측영상을 제작하는 일례를 도시한 도면.3 is a diagram illustrating an example of producing a left image and a right image of an object;

도 4 는 무안경방식이 적용된 입체영상의 일례도.4 is an example of a stereoscopic image to which the autostereoscopic method is applied.

도 5 는 편광입체방식이 적용된 입체영상의 일례도.5 is an example of a stereoscopic image to which a polarized stereo system is applied.

도 6 은 여색입체방식이 적용된 입체영상의 일례도.6 is an example of a three-dimensional image to which the color scheme is applied.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

10 : 대상물 20 : 카메라10: object 20: camera

Claims (2)

대상물을 임의의 방향에서 바라본 입체영상을 실시간으로 생성하는 방법에 있어서, In the method for generating a three-dimensional image of the object viewed from any direction in real time, (S10) 상기 대상물의 어느 한점이 가상의 구(球) 중심에 위치하는 상기 대상물의 3차원 공간좌표를 취득하는 단계;(S10) acquiring three-dimensional spatial coordinates of the object at which one point of the object is located at the center of a virtual sphere; (S20) 상기 가상의 구 표면 임의위치에서 구의 중심을 투영중심으로 하여 상기 대상물을 촬영하는 카메라의 외부표정요소(즉, 촬영위치)를 실시간으로 취득하되, (S20) Acquire an external expression element (that is, a photographing position) of a camera photographing the object in real time with the center of the sphere as the projection center at an arbitrary position of the virtual sphere, 상기 외부표정요소 중 [도면]의 [도2]에서 보는 바와 같이 상기 카메라가 구의 수직방향(즉, 구의 XZ면 또는 YZ면)으로 이동한 수직관측위치는 [발명의 상세한 설명]의 [수학식1]을 이용하여 카메라의 위치좌표로 취득하고, [도면]의 [도3]에서 보는 바와 같이 카메라가 구의 수평방향(즉, 구의 XY면)으로 이동한 수평관측위치는 [발명의 상세한 설명]의 [수학식2]를 이용하여 상기 대상물을 Z축을 축으로 회전시켜 변경된 대상물의 공간좌표로 취득하는 단계;As shown in FIG. 2 of the drawing, the vertical observation position of the camera in the vertical direction of the sphere (i.e., the XZ plane or the YZ plane of the sphere) is represented by the Equation of [Detailed Invention]. [1], and the horizontal observation position where the camera is moved in the horizontal direction of the sphere (i.e., the XY plane of the sphere) as shown in [Fig. 3] of [Drawing]. Acquiring the object in spatial coordinates of the object by rotating the object in the Z axis using Equation 2; (S30) 상기 구의 수직방향으로 이동한 카메라의 위치좌표를 양안시차의 원리에 의해 좌측좌표와 우측좌표로 분리하는 단계;(S30) separating the position coordinates of the camera moved in the vertical direction of the sphere into left and right coordinates by the principle of binocular disparity; (S40) 상기 변경된 대상물의 공간좌표와 상기 카메라의 좌측좌표와, 상기 대상물의 공간좌표와 상기 카메라의 우측좌표를 각각 공선조건식([발명의 상세한 설명]의 [수학식6] 참조)에 대입하여 대상물의 좌측영상 및 우측영상을 실시간으로 제작하는 단계;를 포함하여 이루어진 실시간 입체영상 생성방법.(S40) Substituting the spatial coordinates of the changed object, the left coordinates of the camera, the spatial coordinates of the object and the right coordinates of the camera, respectively, into collinear conditional expressions (see [Equation 6] in [Detailed Description of the Invention]). Real-time stereoscopic image generation method comprising a; producing the left image and the right image of the object in real time. 제 1 항에 있어서,The method of claim 1, 대상물의 입체영상 생성은 컴퓨터 상에서 수행되고, Stereoscopic image generation of the object is performed on a computer, 상기 (S20)단계에서 카메라가 구의 수직방향으로 이동한 카메라의 위치좌표는 작업자가 마우스를 컴퓨터의 모니터에서 좌우(또는 상하)로 이동시킨 거리에 의해 결정되고, 카메라가 구의 수평방향으로 이동한 대상물의 공간좌표는 작업자가 마우스를 모니터에서 상하(또는 좌우)로 이동시킨 거리에 의해 결정되는 것을 특징으로 하는 실시간 입체영상 생성방법. The position coordinates of the camera moved by the camera in the vertical direction of the sphere in step S20 are determined by the distance the operator moves the mouse left and right (or up and down) on the monitor of the computer, and the object moved by the camera in the horizontal direction of the sphere. The spatial coordinate of the real-time stereoscopic image generation method, characterized in that determined by the distance the operator moves the mouse up and down (or left and right) on the monitor.
KR1020070078080A 2007-08-03 2007-08-03 Methods generating real-time stereo images KR100893381B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070078080A KR100893381B1 (en) 2007-08-03 2007-08-03 Methods generating real-time stereo images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070078080A KR100893381B1 (en) 2007-08-03 2007-08-03 Methods generating real-time stereo images

Publications (2)

Publication Number Publication Date
KR20090013925A KR20090013925A (en) 2009-02-06
KR100893381B1 true KR100893381B1 (en) 2009-04-17

Family

ID=40684154

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070078080A KR100893381B1 (en) 2007-08-03 2007-08-03 Methods generating real-time stereo images

Country Status (1)

Country Link
KR (1) KR100893381B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102113285B1 (en) * 2018-08-01 2020-05-20 한국원자력연구원 Image processing method and apparatus of parallel axis typed stereo camera system for 3d-vision of near objects
KR102541014B1 (en) * 2022-10-14 2023-06-13 현대인프라코어 주식회사 Charging pole for electric vehicle having fire suppression device considering road surface condition

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09134450A (en) * 1995-11-09 1997-05-20 Hitachi Medical Corp Method for displaying stereoscopic picture
KR20020057542A (en) * 2001-01-05 2002-07-11 최희송 System and method for making circle vision using virtuality circle vision camera system, and media for storing program source thereof
KR20030015625A (en) * 2001-08-17 2003-02-25 에이알비전 (주) Calibration-free Approach to 3D Reconstruction Using A Cube Frame
JP2007003233A (en) 2005-06-21 2007-01-11 Ritsumeikan Code target, cord detection system, and three-dimensional information acquisition system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09134450A (en) * 1995-11-09 1997-05-20 Hitachi Medical Corp Method for displaying stereoscopic picture
KR20020057542A (en) * 2001-01-05 2002-07-11 최희송 System and method for making circle vision using virtuality circle vision camera system, and media for storing program source thereof
KR20030015625A (en) * 2001-08-17 2003-02-25 에이알비전 (주) Calibration-free Approach to 3D Reconstruction Using A Cube Frame
JP2007003233A (en) 2005-06-21 2007-01-11 Ritsumeikan Code target, cord detection system, and three-dimensional information acquisition system

Also Published As

Publication number Publication date
KR20090013925A (en) 2009-02-06

Similar Documents

Publication Publication Date Title
JP4228646B2 (en) Stereoscopic image generation method and stereoscopic image generation apparatus
CN103595988B (en) Stereoscopic image display device, image processing device, and image processing method
JP3579162B2 (en) 3D CG image generation device
CN110915206B (en) System and method for generating virtual three-dimensional images
WO2006001361A1 (en) Stereoscopic image creating method and device
WO2010085549A1 (en) System and method for three-dimensional visualization of geographical data
TW201225635A (en) Image processing device and method, and stereoscopic image display device
JPWO2019198784A1 (en) Light field image generation system, image display system, shape information acquisition server, image generation server, display device, light field image generation method and image display method
JP7335233B2 (en) A system and method for displaying two-viewpoint autostereoscopic images on an N-viewpoint autostereoscopic display screen and a method for controlling the display on such a display screen
KR100893381B1 (en) Methods generating real-time stereo images
JP2842735B2 (en) Multi-viewpoint three-dimensional image input device, image synthesizing device, and image output device thereof
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
CN108881892B (en) Anti-dizziness method and system for desktop virtual reality system
KR101883883B1 (en) method for glass-free hologram display without flipping images
KR101831978B1 (en) Generation method of elemental image contents for display system with rotated lenticular sheet
JP2003348622A (en) Method for displaying stereoscopic vision and storage medium
US10701345B2 (en) System and method for generating a stereo pair of images of virtual objects
KR101093929B1 (en) Method and system for displaying 3-dimensional images using depth map
KR101341597B1 (en) Method of generating depth map of 2-dimensional image based on camera location and angle and method of generating binocular stereoscopic image and multiview image using the same
JP6543096B2 (en) Element image generating device for viewpoint position, program therefor, and integral three-dimensional simulation system
JP2014116818A (en) Whole-sky three-dimensional image display device, method for displaying whole-sky three-dimensional image, and image data correction program
OA19355A (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
JP2005284183A (en) Method and device for creating stereoscopic image
JP2021507655A (en) Stereoscopic image display adjusted to the viewer
NZ757902B2 (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120321

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130402

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee