KR20020075965A - Realization method of virtual navigation using still photograph - Google Patents

Realization method of virtual navigation using still photograph Download PDF

Info

Publication number
KR20020075965A
KR20020075965A KR1020010015760A KR20010015760A KR20020075965A KR 20020075965 A KR20020075965 A KR 20020075965A KR 1020010015760 A KR1020010015760 A KR 1020010015760A KR 20010015760 A KR20010015760 A KR 20010015760A KR 20020075965 A KR20020075965 A KR 20020075965A
Authority
KR
South Korea
Prior art keywords
picture
point
still picture
still
database
Prior art date
Application number
KR1020010015760A
Other languages
Korean (ko)
Other versions
KR100399735B1 (en
Inventor
이호균
Original Assignee
이호균
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이호균 filed Critical 이호균
Priority to KR10-2001-0015760A priority Critical patent/KR100399735B1/en
Publication of KR20020075965A publication Critical patent/KR20020075965A/en
Application granted granted Critical
Publication of KR100399735B1 publication Critical patent/KR100399735B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Abstract

PURPOSE: A method of realizing virtual navigation using a still image is provided to realize virtual navigation with a small storage space and rapid processing speed, to reduce a system load and to maximize the sense for the real. CONSTITUTION: An object to be photographed is divided into lattice points and still pictures of all directions of each lattice point are obtained(ST100), to form a panorama picture and store the picture in a database. A still picture with respect to each direction of the line of vision is extracted from the panorama picture according to a reverse panorama transformation(ST140). Characteristic points are extracted from the extracted still pictures(ST150). Correlation information of still pictures having the same direction of the line of vision as that of lattice points adjacent to each other is extracted for all lattice points according to the extracted characteristic points, to store the correlation information in the database. When a movement direction and speed are given by an observer, the still picture with respect to the direction of the line of vision of the lattice point of a starting point and the still picture with respect to the direction of the line of vision of the lattice point of an object to be moved are read from the database, and a picture for the movement direction is generated according to the correlation information based on the read still pictures and displayed.

Description

스틸 사진을 이용한 가상 네비게이션 구현 방법{Realization method of virtual navigation using still photograph}Realization method of virtual navigation using still photograph}

본 발명은 가상 네비게이션 구현 방법에 관한 것으로, 이동 시작 위치와 이동 완료 위치의 관측자 시선 방향에 대한 스틸 사진에 의해 가상 현실에서 관측자의 이동시에 동영상이 구현될 수 있도록 하는 스틸 사진을 이용한 가상 네비게이션 구현 방법에 관한 것이다.The present invention relates to a method for implementing virtual navigation, and to implementing a virtual navigation using a still picture to enable a video to be implemented when a viewer moves in the virtual reality by the still picture of the observer gaze direction of the movement start position and the movement completion position It is about.

일반적으로 가상 현실을 구현하기 위해서는 3차원 컴퓨터 그래픽 작업에 의하여 이루어진다.In general, the virtual reality is implemented by 3D computer graphics work.

즉, 3차원 그래픽 어플리케이션 및 관련 하드웨어에 의하여 가상의 3차원 공간을 랜더링하게 된다.That is, the virtual 3D space is rendered by the 3D graphics application and related hardware.

그런데, 이러한 3차원 그래픽에 의한 가상 현실은 실제 환경을 배경으로 하지 않기 때문에 현실감이 떨어지는 단점이 있다.However, since the virtual reality by the three-dimensional graphics does not set the background of the real environment, there is a disadvantage that the reality is inferior.

이러한 단점을 해결하고자 실사(實寫)를 이용하여 가상의 네비게이션을 구현하기도 하는데, 이러한 실사를 이용하여 가상 네비게이션의 동영상을 구현하는 경우 관측자의 의도와는 무관하게 미리 준비된 동영상만을 보여준다.In order to solve these drawbacks, a real navigation may be implemented using a real photo, and when a virtual navigation video is implemented using the real photo, only a pre-prepared video is displayed regardless of an observer's intention.

즉, 관측자가 참여하는 가상 네비게이션이 아닌 일방적으로 주어진 가상 네비게이션인 것이다.In other words, it is a virtual navigation given unilaterally rather than virtual navigation in which the observer participates.

또한, 관측자의 의도대로 구현되는 가상 네비게이션 환경일 경우 관측자의 이동 경로에 따르는 동영상 데이터가 구비되어야 하므로 그 양은 방대하여 실사에의한 가상 네비게이션의 작업이 힘들뿐 아니라 그 저장 용량도 그만큼 방대해질 수 밖에 없다.In addition, in the case of the virtual navigation environment implemented according to the observer's intention, the video data according to the observer's movement path must be provided, so the amount of the virtual navigation is not only difficult, but also the storage capacity of the virtual navigation is very large. .

본 발명은 상기와 같은 문제를 해결하기 위하여 창안된 것으로서, 가상 네비게이션으로 구현할 실제의 대상물을 격자점으로 구분한 다음 그 각 격자점에서 스틸 사진에 의한 파노라마 사진을 촬영하고, 임의의 격자점의 위치에서 다음 격자점의 위치로 관측자가 이동할 때 출발 위치의 격자점과 이동 완료 위치의 격자점과의 사이에 스틸 사진의 각종 정보에 의하여 가상의 동영상을 합성함으로써 작업이 쉽고 또한 적은 데이터량에 의해 가상 네비게이션을 구현할 수 있도록 하는 스틸 사진을 이용한 가상 네비게이션 구현 방법을 제공하는데 그 목적이 있다.The present invention was devised to solve the above problems, and divides a real object to be implemented by virtual navigation into grid points, and then takes a panoramic picture by a still picture at each grid point, and positions of arbitrary grid points. When the observer moves to the position of the next grid point at, the operation is easy by synthesizing the virtual video by the various information of the still picture between the grid point of the starting position and the grid point of the moving completion position. The purpose of the present invention is to provide a virtual navigation method using still pictures to implement navigation.

도 1 은 본 발명 스틸 사진을 이용한 가상 네비게이션 구현 장치를 나타낸 블럭도.1 is a block diagram showing an apparatus for implementing virtual navigation using the still picture of the present invention.

도 2및 도 3은 스틸 사진에 의하여 파노라마 사진을 형성하는 과정을 설명하기 위한 도.2 and 3 are views for explaining a process of forming a panoramic picture by a still picture.

도 4 는 가상 네비게이션을 구현하기 위해 실제 환경의 각 격자점에서 생성되는 파노라마 사진을 보여주는 개념도.4 is a conceptual diagram showing a panoramic picture generated at each grid point of a real environment to implement virtual navigation.

도 5 는 사영 변환을 설명하기 위한 도.5 is a diagram for explaining projective transformation.

도 6 은 임의의 격자점에서 이동 대상의 격자점으로 이동시에 보여지는 시선 방향의 스틸 사진들의 관계를 설명하기 위한 도.Fig. 6 is a diagram for explaining the relationship between the still photographs in the eye direction seen when moving from an arbitrary lattice point to a lattice point of a moving object.

도 7 은 임의의 격자점에서 시선 방향으로 바라본 사진의 특징점과 이동 대상 격자점에서 바라본 시선 방향의 사진과의 특징점 상관 관계를 설명하기 위한 도.7 is a view for explaining a feature point correlation between a feature point of a photograph viewed from an arbitrary grid point in a line of sight and a photograph in a line of sight viewed from a moving object grid point;

도 8 은 임의의 격자점과 이동 대상의 격자점에서 보여지는 시선 방향의 사진과 이들 사진으로부터 추출된 특징점을 도시한 도.Fig. 8 is a view showing photographs in the eye direction seen at arbitrary grid points and grid points of moving objects and feature points extracted from these pictures.

도 9 는 도 8의 각 특징점들로부터 삼각형의 도형 정보를 얻는 과정을 설명하기 위한 도.FIG. 9 is a diagram for describing a process of obtaining triangular figure information from respective feature points of FIG. 8; FIG.

도 10 및 도 11은 도 9에서 얻어진 서로 상관 관계를 갖는 삼각형의 도형 사이에 관측자의 이동 속도에 따라 n등분되어 중간 단계의 삼각형을 생성하는 과정을 설명하기 위한 도.10 and 11 are diagrams for explaining a process of generating an intermediate triangle by being divided equally n according to the moving speed of an observer between figures of triangles having correlation with each other obtained in FIG.

도 12 는 중간 단계에 생성된 삼각형의 위치에서 사진을 생성하는 과정을 보여주는 도.12 is a view showing a process of generating a picture at the position of the triangle created in the intermediate step.

도 13 및 도 14는 본 발명 스틸 사진을 이용한 가상 네비게이션 구현 방법을 나타낸 흐름도.13 and 14 are flowcharts illustrating a method for implementing virtual navigation using the still picture of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100 : 영상 입력부110 : 좌표 입력부100: image input unit 110: coordinate input unit

120 : 중앙 처리부130 : 데이터 베이스120: central processing unit 130: database

131 : 파노라마 데이터 베이스132 : 특징점 데이터 베이스131: panorama database 132: feature point database

133 : 트랙킹 정보 데이터 베이스133: tracking information database

134 : 삼각 분할 정보 데이터 베이스134: triangular partitioning information database

140 : 디스플레이부140: display unit

상기의 목적을 달성하기 위한 본 발명 스틸 사진을 이용한 가상 네비게이션 구현 방법은,Virtual navigation implementation method using a still picture of the present invention for achieving the above object,

촬영 대상물을 격자로 나누어 각 격자점에서 360도 전 방향에 대한 스틸 사진을 얻어 파노라마 사진을 형성하여 데이터 베이스에 저장하는 제 1 과정;A first process of dividing a photographing object into a grid to obtain still pictures of 360 degree directions at each grid point, forming a panoramic picture, and storing the photograph in a database;

상기 형성된 파노라마 사진으로부터 역 파노라마 변환에 의해 각 시선 방향에 대한 스틸 사진을 추출하는 제 2 과정;A second process of extracting a still picture for each gaze direction by an inverse panorama transformation from the formed panorama picture;

상기 추출된 스틸 사진들로부터 특징점을 추출하는 제 3 과정;A third process of extracting feature points from the extracted still pictures;

추출된 특징점에 의해 모든 격자점에 대해 이웃하는 격자점과 동일 시선 방향을 갖는 스틸 사진들의 상관 관계 정보를 추출하여 이를 데이터 베이스에 저장하는 제 4 과정;A fourth step of extracting correlation information of still pictures having the same gaze direction as neighboring grid points for all grid points by the extracted feature points and storing the correlation information in a database;

관측자로부터 이동 방향과 속도가 주어지면 출발지의 격자점의 시선 방향에 대한 스틸 사진과 이동 대상 격자점의 시선 방향에 대한 스틸 사진을 데이터 베이스로부터 읽어들여 이를 근거로 상관 관계 정보에 의하여 이동 방향에 대한 중간 단계의 사진을 생성하여 디스플레이하는 제 5 과정으로 수행됨을 특징으로 한다.Given the direction and speed of movement from the observer, a still picture of the gaze direction of the grid point of the starting point and a still picture of the gaze direction of the moving object grid point are read from the database and based on the correlation information, And a fifth process of generating and displaying an intermediate picture.

상기 제 1 과정은 촬영된 스틸 사진에서 촬영 대상물의 기울어진 상태를 보정하기 위하여 사영 변환을 수행하는 과정을 포함하는 것을 특징으로 한다.The first process may include performing a projective transformation to correct an inclined state of the photographing object in the captured still picture.

상기 제 4 과정은 모든 격자점에 대해 이웃하는 격자점과 동일 시선 방향을 갖는 스틸 사진의 특징점들 간의 가장 근사한 값을 갖는 특징점의 위치를 추출하여 이의 정보를 데이터 베이스에 저장하는 제 1 단계;The fourth process may include a first step of extracting a location of a feature point having the most approximate value among feature points of a still picture having the same line of sight as a neighboring grid point for all grid points, and storing the information thereof in a database;

각 사진에서 최인접 3개의 특징점들을 모아 삼각형들을 형성하고 이들 삼각형 정보를 데이터 베이스에 저장하는 제 2 단계로 수행됨을 특징으로 한다.The third feature is performed by collecting three nearest feature points in each picture to form triangles and storing the triangle information in a database.

상기 제 5 과정은 관측자로부터 이동 방향과 속도가 주어지면 출발지 격자점의 시선 방향에 대한 스틸 사진과 이동 대상 격자점의 시선 방향에 대한 스틸 사진과 이의 특징점에 따르는 삼각형 정보를 데이터 베이스로부터 읽어들이는 제 1 단계;In the fifth process, when a moving direction and speed are given from an observer, a still picture of a gaze direction of a starting grid point, a still picture of a gaze direction of a moving grid point, and triangular information according to a characteristic point thereof are read from a database. First step;

출발지 격자점의 시선 방향에 대한 스틸 사진과 이동 대상 격자점의 시선 방향에 대한 스틸 사진과의 사이에서 상관도가 큰 삼각형들간의 중간에 n개의 삼각형을 생성하는 제 2 단계;A second step of generating n triangles in the middle between triangles having a high correlation between the still picture of the starting point of the grid point and the still picture of the moving point of the grid point;

생성된 n개의 삼각형 내부에 변환 행렬을 적용하여 출발지 격자점의 시선 방향에 대한 스틸 사진 또는 이동 대상 격자점의 시선 방향에 대한 스틸 사진의 픽셀을 변환하여 위치시킨 다음 이를 디스플레이하는 제 3 단계로 수행됨을 특징으로 한다.Performing a third step of applying a transformation matrix inside the generated n triangles to convert and position a pixel of the still picture for the gaze direction of the starting grid point or the still picture for the gaze direction of the moving grid point, and then display the pixel. It is characterized by.

이와 같이 이루어진 본 발명 스틸 사진을 이용한 가상 네비게이션 구현 방법을 첨부한 도면을 참조하여 상세히 설명한다.A method for implementing virtual navigation using the still picture of the present invention made as described above will be described in detail with reference to the accompanying drawings.

먼저, 카메라를 통하여 촬영 대상물(실제의 거리, 전시관의 모형, 정적인 대상물 등)을 격자점으로 나누어 각 격자점의 위치에서 360도 전방향의 스틸 사진을 촬영한다(ST100).First, a photographing object (actual distance, a model of an exhibition hall, a static object, etc.) is divided into grid points through a camera, and a still picture of 360 degree omnidirectional is taken at each grid point (ST100).

즉, 도 2에 도시한 바와같이 격자점의 위치(O)에서 360도 전방향의 스틸 사진(P1, P2, P3, P4,..., P10)을 촬영하게 된다.That is, as shown in FIG. 2, still pictures P1, P2, P3, P4,..., P10 of 360 degrees in the lattice point position O are taken.

이때, 각 스틸 사진(P1, P2, P3, P4,..., P10)은 이웃하는 스틸 사진과 충분히 겹치도록(도면에서 빗금친 부분) 촬영한다.At this time, each still picture (P1, P2, P3, P4, ..., P10) is taken so as to fully overlap with the neighboring still picture (hatched portion in the drawing).

이러한 각 격자점 위치에서의 스틸 사진(P1, P2, P3, P4,..., P10)은 영상 입력부(100)를 통하여 중앙 처리부(120)로 인가되어 스티칭(stitching)기법에 의하여 도 3에 도시한 바와같은 파노라마 사진(P)이 형성된다(ST120).Still pictures P1, P2, P3, P4,..., P10 at each grid point position are applied to the central processing unit 120 through the image input unit 100, and are shown in FIG. 3 by a stitching technique. A panoramic photograph P as shown is formed (ST120).

상기 영상 입력부(100)는 디지털 카메라 또는 스캐너 등의 다양한 디지털 입력 장치가 될 수 있고, 360도 전방향의 조망을 위한 파노라마 사진 스티칭 툴은 기 공지된 애플사의 퀵타임 VR, IPIX, 라이브 픽쳐, 아루트사의 퀵스텃치 등을 이용할수 있다.The image input unit 100 may be various digital input devices such as a digital camera or a scanner, and a panoramic photo stitching tool for viewing 360 degrees in all directions is known as Apple's QuickTime VR, IPIX, Live Picture, and Arut. You can use the company's quick squelch.

이때, 상기 카메라를 통하여 대상물을 촬영 시 도 5에 도시한 바와같이 카메라의 위치에 따라 대상물이 기울어지게 촬영될 수 있으므로 사영 변환(perspective transformation)을 통하여 정면에서 촬영된 것과 같이 영상 처리를 하게 된다(ST110).In this case, when the object is photographed through the camera, as shown in FIG. 5, the object may be photographed at an inclined angle according to the position of the camera, thereby performing image processing as if photographed from the front through a perspective transformation (perspective transformation). ST110).

이러한 사영 변환은 다음 수학식 1에 의하여 수행될 수 있다.This projective transformation may be performed by Equation 1 below.

사영 변환 : (x,y)~→~(x',y')Projective Conversion: (x, y) ~ → ~ (x ', y')

여기서, 사영 변환의 계수(a_11 , a_12 , a_13 , a_21 , a_22 , a_32 , a_33 )는 표준 데이터를 이용한비선형 회귀(nonlinear regression) 방법에 의하여 예측한다.Here, the coefficients (a_11, a_12, a_13, a_21, a_22, a_32, a_33) of the projective transformation are predicted by a nonlinear regression method using standard data.

상기의 방식에 의하여 도 4에 도시한 바와같이 각각의 격자점(O1, O2, O3,..., O10, O11, 012)들의 위치에서 촬영된 스틸 사진에 의하여 형성된 파노라마 사진(P)은 데이터 베이스(130)의 파노라마 데이터 베이스(131)에 저장된다(ST130).By the above method, as shown in FIG. 4, the panorama picture P formed by the still picture taken at the positions of the respective grid points O1, O2, O3,..., O10, O11, 012 is obtained from the data. It is stored in the panorama database 131 of the base 130 (ST130).

이러한 방식에 의한 경우 저장되는 데이터 양은 스틸 사진을 그대로 저장할 때 보다 훨씬 줄어들게 된다.In this way, the amount of data stored will be much less than when still pictures are saved.

즉, 격자점이 X-방향으로 M개이고, Y-방향으로 N개이면서 각각의 격자점에서 P개의 스틸 사진을 얻었다면, 총 스틸 사진의 개수는 M*N*P개이다.That is, if there are M grid points in the X-direction, and N still in the Y-direction and P still pictures at each grid point, the total number of still pictures is M * N * P.

그러나, 이들 데이터를 이용해서 파노라마 영상 데이터를 만드는 경우에는 데이터 양이 이보다 훨씬 줄어들게 된다.However, when the panorama image data is generated using these data, the amount of data is much smaller than this.

한편, 중앙 처리부(120)는 파노라마 데이터 베이스(131)에 저장된 각 격자점의 파노라마 사진을 읽어들여 역파노라마 변환을 수행하게 되는데, 이는 파노라마 사진에서 스틸 사진을 형성하는 것이다(ST140).Meanwhile, the central processing unit 120 reads a panoramic picture of each grid point stored in the panoramic database 131 and performs inverse panoramic conversion, which forms a still picture from the panoramic picture (ST140).

이렇게, 중앙 처리부(120)는 파노라마 사진으로부터 역으로 형성된 스틸 사진들로부터 특징점을 추출하게 되는데, 이러한 특징점 추출 과정을 설명한다.In this way, the central processing unit 120 extracts the feature points from the still pictures formed in the reverse from the panorama picture, this feature point extraction process will be described.

각 스틸 사진에서 명암 정보를 추출한 다음 각 픽셀에서 x축과 y축의 명암 변화율을 계산한다.Contrast information is extracted from each still picture, and then the rate of change of contrast on the x- and y-axes of each pixel is calculated.

이때, 명암의 변화율은 다음 수학식 2와 수학식 3에 의하여 구해진다.At this time, the change rate of the contrast is calculated by the following equations (2) and (3).

DI = ( dI /dx , dI /dy )DI = (dI / dx, dI / dy)

여기서, I는 명암 정보 또는 컬러 사진에서 만든 흑백 사진이다.Here, I is a black and white picture made from contrast information or a color picture.

이후, 상기 수학식 3의 2*2 행렬의 고유치(eigenvalue)를 구한 다음 이중 작은 것을 해당 픽셀 위치에서의 특징점 값으로 취한다.Thereafter, an eigenvalue of the 2 * 2 matrix of Equation 3 is obtained, and the smaller one is taken as the feature point value at the pixel position.

각각의 픽셀에서 구한 특징점 값들 중 충분히 큰 것만을 골라서(사진당 대략 400개 정도) 그 지점을 특징점으로 결정하는 것이다.Only enough of the feature point values obtained at each pixel (about 400 per picture) is selected to determine the point as the feature point.

결국, 명암이 급격히 변하는 위치를 특징점의 위치로 결정하는 것이다.As a result, the position where the contrast sharply changes is determined as the position of the feature point.

이러한 특징점 추출 과정에 의하여 파노라마 사진으로부터 형성된 모든 스틸 사진으로부터 특징점을 추출하게 되면, 이의 특징점 정보를 특징점 데이터 베이스(132)가 저장하게 되는 것이다.When the feature point is extracted from all still pictures formed from the panorama picture by the feature point extraction process, the feature point database 132 stores the feature point information thereof.

이후 중앙 처리부(120)는 각 격자점의 스틸 사진으로부터 추출된 특징점에 의하여 이웃하는 격자점의 스틸 사진과의 특징점 트랙킹 정보를 추출하게 되는데, 예를 들어 도 6에서 도시한 바와같이 격자점(O6)의 스틸 사진(I1)과 동일 시선 방향을 갖는 격자점(O2)의 스틸 사진(I2)의 특징점 상관 관계 즉, 트랙킹 정보를 추출하게 된다(ST160).Thereafter, the central processing unit 120 extracts feature point tracking information from the still picture of the neighboring grid point by using the feature point extracted from the still picture of each grid point. For example, as illustrated in FIG. 6, the grid point O6 is extracted. A feature point correlation, that is, tracking information, of the still picture I2 of the grid point O2 having the same visual direction as the still picture I1 of FIG.

즉, 도 7에서 보는 바와같이 관측자가 동일 대상물을 보는 위치에 따라 그 스케일이 다르게 나타나게 되는데, 격자점(O6)의 위치에서는 대상물이 작게 보일 것이고, 격자점(O2)의 위치에서는 같은 대상물일지라고 더 크게 보일 것이다.That is, as shown in FIG. 7, the scale appears differently according to the position where the observer sees the same object, and the object will appear small at the position of the grid point O6, and the same object at the position of the grid point O2. Will look larger.

따라서, 사진(I1)에서의 특정 특징점 좌표 I1(x1,y1)를 기준으로 사진(I2)에서 사진(I1)과 명암 차이(I1-I2)의 제곱에 최소가 되는 해당 좌표 I2(x2,y2)를 찾는다.Therefore, based on the specific feature point coordinates I1 (x 1 , y 1 ) in the picture I1, the corresponding coordinate I2 (x) that is the minimum in the square of the difference between the picture I1 and the contrast I1-I2 in the picture I2. 2 , y 2 )

이는 다음 수학식 4에 의하여 정리할 수 있다.This can be summarized by the following equation (4).

결국, 두 사진(I1,I2)간에 명암 차이가 가장 작은 위치를 찾는 것이며, 이는 곧 특징점 트랙킹 정보가 되어 트랙킹 데이터 베이스(133)에 저장되는 것이다(ST160).As a result, the position where the difference in contrast between the two pictures I1 and I2 is the smallest is found, which is the feature point tracking information, which is stored in the tracking database 133 (ST160).

그러나 실제 상황에서는 영상잡음을 고려하기 때문에 그 해당 좌표에 해당하는 픽셀 주위의 7*7 정도 크기의 영역(7*7 window)을 잡은 다음 영상잡음 형태가 가우시안(Gaussian)이라는 점을 가정하여 그 영역에 대해 가우시안 마스크(mask)와 콘볼루션(convolution)을 이용함으로써 노이즈를 감쇄할 수 있다.In reality, however, the image noise is taken into account, so a 7 * 7 window around a pixel corresponding to the corresponding coordinates is captured, and then the image noise type is assumed to be Gaussian. Noise can be attenuated by using a Gaussian mask and convolution.

도 8a와 도 8b는 사진(I1)의 특징점 정보를 바탕으로 특징점 트랙킹을 행하여 사진(I2)에서 특징점을 찾아낸 것을 보여준다.8A and 8B show that the feature points are found on the picture I2 by tracking the feature points based on the feature point information of the picture I1.

이때 도 8a는 'I1'의 사진이고, 도 8b는 'I2'의 사진이며, 인덱싱된 숫자는 두 사진간의 매칭되는 특징점을 표시한 것이다.In this case, FIG. 8A is a picture of 'I1', FIG. 8B is a picture of 'I2', and the indexed numbers indicate matching feature points between the two pictures.

중앙 처리부(120)는 도 9에 도시한 바와같이 상기 두 사진들에서 각 특정점들 중 최인접 3개의 특징점을 모아서 삼각형으로 분할한 다음 그 삼각형 정보를 삼각 분할 데이터 베이스(134)에 저장하게 된다.As shown in FIG. 9, the central processing unit 120 collects the three nearest feature points among the specific points in the two pictures, divides them into triangles, and stores the triangle information in the triangulation partition database 134. .

결국, 각 스틸 사진에서 추출한 특징점 정보, 특징점간의 트랙킹 정보, 특징점의 삼각형 정보가 추출되어 데이터 베이스(130)에 저장되는 것이다(ST170, ST180).As a result, feature point information extracted from each still picture, tracking information between feature points, and triangle information of feature points are extracted and stored in the database 130 (ST170 and ST180).

이후, 관측자가 가상 네비게이션을 체험하기 위하여 도 4에 도시한 바와같은 임의의 격자점(예를 들어 O6의 격자점)에서 격자점(O2)로 경로 'M'을 따라서 이동하는 경우를 가정하여 디스플레이부(140)를 통해 디스플레이되는 과정을 설명한다.The display then assumes that the observer moves along the path 'M' from any lattice point (eg lattice point of O6) to lattice point O2 in order to experience the virtual navigation. A process displayed through the unit 140 will be described.

관측자가 격자점(O6)의 위치에서 좌표 입력부(110)(예를 들면, 키보드, 마우스, 조이스틱 등)를 통하여 시야를 좌우로 둘러보면, 중앙 처리부(120)는 상기 좌표 입력부(110)의 입력값에 따라 파노라마 데이터 베이스(131)로부터 이에 해당하는 파노라마 사진을 읽어들여 디스플레이부(140)를 통하여 디스플레이한다.When the observer looks left and right through the coordinate input unit 110 (eg, keyboard, mouse, joystick, etc.) at the position of the grid point O6, the central processing unit 120 inputs the coordinate input unit 110. According to the value, the corresponding panorama picture is read from the panorama database 131 and displayed on the display unit 140.

관측자가 격자점(O2)로 이동하는 경우 데이터 베이스(130)에는 각 격자점(O6,O2)에서의 시야 방향에 따르는 스틸 사진만을 가지고 있으므로 이동 경로(M) 사에서의 동영상을 생성하여야 한다.When the viewer moves to the grid point O2, the database 130 only has a still picture corresponding to the viewing direction at each grid point O6 or O2, and thus a video from the moving path M must be generated.

그러므로, 중앙 처리부(120)는 좌표 입력부(110)를 통하여 입력되는 이동 방향과 이동 속도에 대한 데이터를 입력받아 현 격자점(O6)과 이동 방향의 격자점(O2)의 시선 방향에 대한 사진(도 6에 도시한 바와같은 I1, I2 스틸 사진)에 해당하는 삼각형 정보를 삼각 분할 정보 데이터 베이스(134)로부터 읽어들이게 된다(ST200, ST210).Therefore, the central processing unit 120 receives data about the moving direction and the moving speed input through the coordinate input unit 110, and shows a photograph (see the direction of the line of sight of the current grid point O6 and the grid point O2 in the moving direction). Triangular information corresponding to I1 and I2 still pictures as shown in FIG. 6 is read from the triangulation division information database 134 (ST200, ST210).

그 읽어들여진 삼각형 정보에 의하여 격자점(O6)에서 격자점(O2)로의 이동시에 보여지는 동영상을 생성하게 되는데, 이를 좀 더 상세히 설명한다.The read triangular information generates a moving picture shown when the grid point O6 moves from the grid point O6 to the grid point O2, which will be described in more detail.

도 10에 도시한 바와같이 격자점(O6)의 스틸 사진(I1)과 격자점(O2)의 스틸 사진(I2)로부터 얻어진 삼각형 정보의 일부분을 가정하여 설명한다.As shown in FIG. 10, a part of the triangle information obtained from the still picture I1 of the grid point O6 and the still picture I2 of the grid point O2 will be described.

관측자가 격자점(O6)에서 격자점(O2)로의 이동을 마쳤을 때 점 1,2,4로 이루어진 삼각형은 그 형태가 I1에서 I2로 변화될 것이다.When the viewer finishes moving from grid point O6 to grid point O2, the triangle consisting of points 1,2 and 4 will change shape from I1 to I2.

각 삼각형의 꼭지점 좌표를 알고 있으므로 두 삼각형을 같은 평면에 그렸을 때 도 11에 도시한 바와같이 동일 특징점을 잇는 선분들을 그릴 수 있다(ST220).Since the vertex coordinates of each triangle are known, when two triangles are drawn on the same plane, line segments connecting the same feature point can be drawn as shown in FIG. 11 (ST220).

이 삼각형 I1과 I2의 중간에 n개의 사진을 생성하고 싶다면 이 선분들을 n등분하여 그 나누어진 각 등분마다 삼각형을 생성할 수 있다(ST230).If you want to create n pictures in the middle of the triangles I1 and I2, you can divide these line segments by n and create a triangle for each divided portion (ST230).

이들 선분들을 등분하는 개수는 관측자의 이동 속도를 조절함으로써 결정되는데, 이동 속도를 느리게 하려면 많은 개수로 등분하고, 이동 속도를 빠르게 하려면 비교적 적은 개수로 등분한다.The number of parts to be divided into equal parts is determined by adjusting the moving speed of the observer. To slow down the moving speed, the number is divided into a large number, and to increase the moving speed, the number is divided into a relatively small number.

예를 들어 삼각형의 선분들을 3등분하면 2개의 중간 단계의 삼각형(I' ,I")을 생성할 수 있다.For example, dividing a line segment of a triangle into three can produce two intermediate stages, I 'and I ".

이들 삼각형 두 개의 정보만 있으면 (x2, y2, 1) = H(x1, y1, 1)의 변환을 하는 3*3의 호모그라피(homography) 행렬 H를 구할 수 있으므로(affine 변환) I1 사진의 의 삼각형과 중간 단계의 삼각형(I', I")으로 변환 행렬 H를 구하였다면 I1 사진의 삼각형 내부의 픽셀에 대하여 변환 행렬 H를 적용하여 중간 단계의삼각형(I', I") 내부의 픽셀의 위치가 정해지게 된다.With just two pieces of information, we can get a 3 * 3 homography matrix H that transforms (x 2 , y 2 , 1) = H (x 1 , y 1 , 1) (affine transformation). If the transformation matrix H is obtained from the triangle of the I1 photo and the triangle (I ', I ") of the intermediate stage, the intermediate matrix (I', I") is applied by applying the transformation matrix H to the pixels inside the triangle of the I1 photo. The location of the pixels inside is determined.

즉 임의의 중간 단계 삼각형(I', I")에 대해 I1 사진의 1, 2, 4 특징점 내부의 픽셀들이 중간 단계의 삼각형(I', I") 내부의 올바른 위치로 변환(transform)을 할 수 있게 된다(ST240).That is, for any intermediate triangle (I ', I "), the pixels inside the 1, 2, and 4 feature points of the I1 picture will be transformed into the correct positions inside the triangle (I', I") of the intermediate picture. It becomes possible (ST240).

위의 과정을 사진(I1, I2)의 내부에 만들어진 모든 삼각형들에 대해 적용하게 되면 중간 단계의 사진들 모든 영역의 픽셀들을 그릴 수 있게 된다.Applying the above process to all the triangles created inside the pictures I1 and I2, it is possible to draw the pixels of all areas of the intermediate pictures.

결국, 첫 번째 사진(I1)의 특징점과 이에 상응하는 두 번째 사진(I2)의 특징점 정보(좌표)를 알고 있으면 도 12에 도시한 바와같이 n등분한 중간 단계의 사진(I', I",...)을 생성할 수 있어 이동 과정에서 동영상을 자연스럽게 구현할 수 있는 것이다.After all, if the feature point of the first picture I1 and the feature point information (coordinates) of the second picture I2 corresponding thereto are known, as shown in FIG. ...) can be created so that the video can be implemented naturally during the movement.

이와 같은 본 발명 스틸 사진을 이용한 가상 네비게이션 구현 방법은 다음과 같은 효과를 갖는다.Such a virtual navigation implementation method using the still picture of the present invention has the following effects.

1) 각 격자점에서의 파노라마 사진과 격자점과 격자점 사이를 이동하는 경우에 발생하는 사진간의 상관 관계 정보만을 저장하면 되므로 작은 저장 공간으로 구현 가능하다.1) Since only the correlation information between the panorama picture at each grid point and the picture generated when the grid point is moved between the grid point and the grid point is stored, it is possible to implement a small storage space.

2) 파노라마 사진과 상관 관계 정보가 미리 계산되어 저장되어 있으므로 실제 디스플레이하는 경우 단지 그 정보에 따라 사진의 단순 합성으로 가상의 동영상을 구현할 수 있어 시스템의 부하를 줄일 수 있고, 빠른 처리 속도를 갖는다.2) Since the panorama picture and the correlation information are pre-calculated and stored, the virtual video can be realized by simply synthesizing the pictures according to the information in the actual display, thereby reducing the load on the system and having a high processing speed.

3) 관측자가 실사로 이루어진 가상의 공간에서 이동 방향을 자유 자재로 고를 수 있어 현실감이 극대화되는 효과가 있다.3) The observer can freely choose the direction of movement in the virtual space consisting of due diligence, which has the effect of maximizing reality.

Claims (5)

촬영 대상물을 격자로 나누어 각 격자점에서 360도 전 방향에 대한 스틸 사진을 얻어 파노라마 사진을 형성하여 데이터 베이스에 저장하는 제 1 과정;A first process of dividing a photographing object into a grid to obtain still pictures of 360 degree directions at each grid point, forming a panoramic picture, and storing the photograph in a database; 상기 형성된 파노라마 사진으로부터 역 파노라마 변환에 의해 각 시선 방향에 대한 스틸 사진을 추출하는 제 2 과정;A second process of extracting a still picture for each gaze direction by an inverse panorama transformation from the formed panorama picture; 상기 추출된 스틸 사진들로부터 특징점을 추출하는 제 3 과정;A third process of extracting feature points from the extracted still pictures; 추출된 특징점에 의해 모든 격자점에 대해 이웃하는 격자점과 동일 시선 방향을 갖는 스틸 사진들의 상관 관계 정보를 추출하여 이를 데이터 베이스에 저장하는 제 4 과정;A fourth step of extracting correlation information of still pictures having the same gaze direction as neighboring grid points for all grid points by the extracted feature points and storing the correlation information in a database; 관측자로부터 이동 방향과 속도가 주어지면 출발지의 격자점의 시선 방향에 대한 스틸 사진과 이동 대상 격자점의 시선 방향에 대한 스틸 사진을 데이터 베이스로부터 읽어들여 이를 근거로 상관 관계 정보에 의하여 이동 방향에 대한 중간 단계의 사진을 생성하여 디스플레이하는 제 5 과정으로 수행됨을 특징으로 하는 스틸 사진을 이용한 가상 네비게이션 구현 방법.Given the direction and speed of movement from the observer, a still picture of the gaze direction of the grid point of the starting point and a still picture of the gaze direction of the moving object grid point are read from the database and based on the correlation information, And a fifth process of generating and displaying an intermediate picture. 제 1 항에 있어서,The method of claim 1, 상기 제 1 과정은 촬영된 스틸 사진에서 촬영 대상물의 기울어진 상태를 보정하기 위하여 사영 변환을 수행하는 과정을 포함하는 것을 특징으로 하는 스틸 사진을 이용한 가상 네비게이션 구현 방법.The first process may include performing projective transformation to correct an inclined state of a photographing object in the captured still picture. 제 1 항에 있어서,The method of claim 1, 상기 제 4 과정은 모든 격자점에 대해 이웃하는 격자점과 동일 시선 방향을 갖는 스틸 사진의 특징점들 간의 가장 근사한 값을 갖는 특징점의 위치를 추출하여 이의 정보를 데이터 베이스에 저장하는 제 1 단계;The fourth process may include a first step of extracting a location of a feature point having the most approximate value among feature points of a still picture having the same line of sight as a neighboring grid point for all grid points, and storing the information thereof in a database; 각 사진에서 최인접 3개의 특징점들을 모아 삼각형들을 형성하고 이들 삼각형 정보를 데이터 베이스에 저장하는 제 2 단계로 수행됨을 특징으로 하는 스틸 사진을 이용한 가상 네비게이션 구현 방법.And forming a triangle by collecting three nearest feature points in each picture and storing the triangle information in a database. 제 1 항에 있어서,The method of claim 1, 상기 제 5 과정은 관측자로부터 이동 방향과 속도가 주어지면 출발지 격자점의 시선 방향에 대한 스틸 사진과 이동 대상 격자점의 시선 방향에 대한 스틸 사진과 이의 특징점에 따르는 삼각형 정보를 데이터 베이스로부터 읽어들이는 제 1 단계;In the fifth process, when a moving direction and speed are given from an observer, a still picture of a gaze direction of a starting grid point, a still picture of a gaze direction of a moving grid point, and triangular information according to a characteristic point thereof are read from a database. First step; 출발지 격자점의 시선 방향에 대한 스틸 사진과 이동 대상 격자점의 시선 방향에 대한 스틸 사진과의 사이에서 상관도가 큰 삼각형들간의 중간에 n개의 삼각형을 생성하는 제 2 단계;A second step of generating n triangles in the middle between triangles having a high correlation between the still picture of the starting point of the grid point and the still picture of the moving point of the grid point; 생성된 n개의 삼각형 내부에 변환 행렬을 적용하여 출발지 격자점의 시선 방향에 대한 스틸 사진 또는 이동 대상 격자점의 시선 방향에 대한 스틸 사진의 픽셀을 변환하여 위치시킨 다음 이를 디스플레이하는 제 3 단계로 수행됨을 특징으로 하는 스틸 사진을 이용한 가상 네비게이션 구현 방법.Performing a third step of applying a transformation matrix inside the generated n triangles to convert and position a pixel of the still picture for the gaze direction of the starting grid point or the still picture for the gaze direction of the moving grid point, and then display the pixel. Virtual navigation implementation method using a still picture, characterized in that. 제 4 항에 있어서,The method of claim 4, wherein 새로이 생성되는 삼각형의 개수는 관측자의 이동 속도의 입력에 의하여 결정되는 것을 특징으로 하는 스틸 사진을 이용한 가상 네비게이션 구현 방법.The number of newly created triangles is determined by the input of the movement speed of the observer.
KR10-2001-0015760A 2001-03-26 2001-03-26 Realization method of virtual navigation using still photograph KR100399735B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2001-0015760A KR100399735B1 (en) 2001-03-26 2001-03-26 Realization method of virtual navigation using still photograph

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2001-0015760A KR100399735B1 (en) 2001-03-26 2001-03-26 Realization method of virtual navigation using still photograph

Publications (2)

Publication Number Publication Date
KR20020075965A true KR20020075965A (en) 2002-10-09
KR100399735B1 KR100399735B1 (en) 2003-09-29

Family

ID=27698759

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0015760A KR100399735B1 (en) 2001-03-26 2001-03-26 Realization method of virtual navigation using still photograph

Country Status (1)

Country Link
KR (1) KR100399735B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100879802B1 (en) * 2006-01-05 2009-01-22 (주)제니텀 엔터테인먼트 컴퓨팅 Method and apparatus of generating three dimensional scene in virtual view point
KR100928723B1 (en) * 2007-08-06 2009-11-27 단국대학교 산학협력단 Viewer system for showing images overlapping with real environment and image output method using them
KR101014877B1 (en) * 2010-08-31 2011-02-15 주식회사 파이로 Waterproof gloves

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101005594B1 (en) 2009-07-15 2011-01-11 엔에이치엔(주) Method, system and computer-readable recording medium for providing aerial panoramic image

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3112790B2 (en) * 1994-01-26 2000-11-27 シャープ株式会社 Virtual reality device
JPH09289613A (en) * 1996-04-22 1997-11-04 Nippon Telegr & Teleph Corp <Ntt> Image conversion method and its device
JP3934211B2 (en) * 1996-06-26 2007-06-20 松下電器産業株式会社 Stereoscopic CG video generation device
KR20010001740A (en) * 1999-06-08 2001-01-05 이호균 System and control method for viewing of panoramic image linking map
KR20020004298A (en) * 2000-07-04 2002-01-16 김정진 General lnformation System Map
KR20020025301A (en) * 2000-09-28 2002-04-04 오길록 Apparatus and Method for Furnishing Augmented-Reality Graphic using Panoramic Image with Supporting Multiuser

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100879802B1 (en) * 2006-01-05 2009-01-22 (주)제니텀 엔터테인먼트 컴퓨팅 Method and apparatus of generating three dimensional scene in virtual view point
KR100928723B1 (en) * 2007-08-06 2009-11-27 단국대학교 산학협력단 Viewer system for showing images overlapping with real environment and image output method using them
KR101014877B1 (en) * 2010-08-31 2011-02-15 주식회사 파이로 Waterproof gloves

Also Published As

Publication number Publication date
KR100399735B1 (en) 2003-09-29

Similar Documents

Publication Publication Date Title
US10096157B2 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP6950013B2 (en) Image processing equipment, image processing methods and programs
US6717586B2 (en) Apparatus, method, program code, and storage medium for image processing
US20150002636A1 (en) Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras
JP3524147B2 (en) 3D image display device
WO2006114898A1 (en) 3d image generation and display system
KR102382247B1 (en) Image processing apparatus, image processing method, and computer program
KR20190134715A (en) Systems, methods, and software for generating virtual three-dimensional images that appear to be projected in front of or on an electronic display
Park et al. Efficient viewer-centric depth adjustment based on virtual fronto-parallel planar projection in stereo 3D images
Okuma et al. An augmented reality system using a real-time vision based registration
KR20080034419A (en) 3d image generation and display system
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
JP2013171522A (en) System and method of computer graphics image processing using ar technology
CN108564654B (en) Picture entering mode of three-dimensional large scene
Pathak et al. Virtual reality with motion parallax by dense optical flow-based depth generation from two spherical images
US11043019B2 (en) Method of displaying a wide-format augmented reality object
JP3197801B2 (en) 2D display image generation method
KR100399735B1 (en) Realization method of virtual navigation using still photograph
Kropp et al. Acquiring and rendering high-resolution spherical mosaics
JPH10208074A (en) Picture generation method
Lee et al. Design and implementation of a fast integral image rendering method
Sun et al. Real-time depth-image-based rendering on GPU
JP2020017061A (en) Image processing device, image display device, image processing method, and program
Adachi et al. A telepresence system by using live video projection of wearable camera onto a 3d scene model
Han et al. Real-time double-depth-image-based rendering for autostereoscopic display systems

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080918

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee