KR100922544B1 - Live video compositing system by using realtime camera tracking and its method - Google Patents

Live video compositing system by using realtime camera tracking and its method Download PDF

Info

Publication number
KR100922544B1
KR100922544B1 KR1020070132360A KR20070132360A KR100922544B1 KR 100922544 B1 KR100922544 B1 KR 100922544B1 KR 1020070132360 A KR1020070132360 A KR 1020070132360A KR 20070132360 A KR20070132360 A KR 20070132360A KR 100922544 B1 KR100922544 B1 KR 100922544B1
Authority
KR
South Korea
Prior art keywords
camera
real
feature points
time
image
Prior art date
Application number
KR1020070132360A
Other languages
Korean (ko)
Other versions
KR20090064967A (en
Inventor
유정재
김재헌
김혜미
김진호
최병태
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070132360A priority Critical patent/KR100922544B1/en
Publication of KR20090064967A publication Critical patent/KR20090064967A/en
Application granted granted Critical
Publication of KR100922544B1 publication Critical patent/KR100922544B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Abstract

본 발명은 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템 및 그 방법에 관한 것으로, 2차원 특징점 추적 데이터에서 적합한 특징점들을 선별하여 상태(state) 예측기를 통해 카메라의 위치, 각도를 실시간으로 예측할 수 있다. 그리고 특징점들을 3차원으로 복원시킨 공간좌표를 DB의 도심 모델정보와 비교하여 도심모델 공간의 절대좌표계에서 카메라의 위치와 각도를 실시간으로 추정함으로써, 차량용 네비게이터에서 길안내 및 주변정보를 실사영상과 실시간으로 합성하여 출력할 수 있어 정확도와 실시간성을 보장할 수 있다.

Figure R1020070132360

합성, 카메라, 움직임, 예측

The present invention relates to a system for real-time image synthesis using real-time camera tracking and a method thereof, and selects suitable feature points from two-dimensional feature tracking data to predict the position and angle of a camera in real time through a state predictor. The spatial coordinates of the feature points restored in three dimensions are compared with the urban model information of the DB to estimate the position and angle of the camera in the absolute coordinate system of the urban model space in real time. Can be synthesized and output to ensure accuracy and real-time.

Figure R1020070132360

Compositing, camera, motion, prediction

Description

실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템 및 그 방법{LIVE VIDEO COMPOSITING SYSTEM BY USING REALTIME CAMERA TRACKING AND ITS METHOD}Live video composite system and method using real time camera tracking {LIVE VIDEO COMPOSITING SYSTEM BY USING REALTIME CAMERA TRACKING AND ITS METHOD}

본 발명은 차량용 네비게이터에서 영상 입력으로부터 카메라의 위치와 회전을 실시간으로 예측하는 실시간 카메라 트래킹과 이를 이용하여 실시간으로 영상을 합성할 수 있는 시스템 및 방법에 관한 것이다.The present invention relates to a real-time camera tracking for predicting the position and rotation of the camera from the image input in a vehicle navigator in real time, and a system and method for synthesizing the image in real time using the same.

주지된 바와 같이, 네비게이터는 주변 지도 또는 3차원 배경모델을 그래픽 화면만으로 보여주며 운전자가 이동해야 할 경로 역시 그래픽 배경 화면위에 도시된다. As is well known, the navigator shows the surrounding map or the 3D background model only on the graphic screen, and the path to which the driver should move is also shown on the graphic background screen.

이런 방식의 네비게이터는 고속도로와 외각 도로에서는 문제될 것이 없지만 진입로와 교차로 등이 복잡하게 얽혀 있는 도심 도로에서는 운전자에서 순간적인 착오를 일으킬 소지가 있다. 이에 그래픽 배경화면이 아닌 실제 전방의 실사 화면에 운전자가 가야 할 이동방향과 주변 건물 정보를 실시간으로 합성하여 도시한다면 운전자에게 한층 정확하고 직관적인 정보를 전달할 수 있다. 이를 위해선 실사 영상을 촬영하는 카메라의 위치 및 각도를 정확히 알고 있어야 하며 이를 예측하는 카메라 트래킹 기술은 지금까지 영화 제작 현장의 포스트 프로덕션 과정에서 컴퓨터 그래픽(CG) 요소와 실사영상을 합성하기 위해 빈번히 사용되어 왔다.This type of navigator is not a problem on highways and outer roads, but it can cause a momentary misunderstanding on the driver's side of the city road, where the roads and intersections are intricately intertwined. Therefore, if the real-time composite screen of the driver's moving direction and surrounding buildings is shown in real-time on the actual front screen instead of the graphic background screen, more accurate and intuitive information can be delivered to the driver. To do this, you need to know the exact position and angle of the camera that captures the live action, and the camera tracking technology that predicts it has been frequently used to synthesize computer graphics (CG) elements and live action images during the post production process of the film production site. come.

즉, 영상만을 입력으로 카메라의 움직임을 예측하는 것은 포스트 프로덕션 과정에서는 주로 비실시간으로 이루어지며 Boujou, Matchmover와 같은 외국 S/W들이 이 분야에서 뛰어난 성능을 보이는 것으로 알려져 있다. 하지만 네비게이션 시스템에서 실사 영상과 합성하기 위해서는 카메라 트래킹이 실시간으로 이루어질 필요가 있다. 실시간 카메라 트래킹 분야에서는 근래 Andrew J.Davison, Ali Azarbayejani 등이 비교적 우수한 성능을 갖는 실시간 카메라 트래커를 제안해 왔다. In other words, predicting camera movement using only video input is mainly done in non-real time during the post-production process, and it is known that foreign software such as Boujou and Matchmover perform well in this field. However, camera tracking needs to be done in real time in order to synthesize the live image in the navigation system. In the field of real-time camera tracking, Andrew J. Davidson and Ali Azarbayejani have recently proposed a real-time camera tracker with relatively good performance.

그들이 제안한 실시간 카메라 트래커는 KLT(Kanade Lucas Tomasi, 이하, KLT라 함) 등의 Natural Feature의 2차원 트래킹 데이터를 입력으로 확장형 칼만필터(Extended Kalman Filter, 이하 EKF라 함) 등의 상태(state) 예측기를 사용하여 카메라의 위치와 회전에 관한 변수값을 추정한다. Their proposed real-time camera tracker is a state predictor such as Extended Kalman Filter (EKF) with input of two-dimensional tracking data of Natural Feature such as KLT (Kanade Lucas Tomasi, KLT). Estimate the variable values for the camera position and rotation using.

그러나, 상기한 바와 같은 종래 기술에서와 같이 실시간으로 구동되는 시스템을 구현하기 위해서는 자동으로 검출되는 다수의 특징점 데이터 중 노이즈의 영향을 적게 받은 우수한 특징점들을 선별하여 실시간 연산을 가능하게 하는 적당한 개수의 특징점 세트를 상태 벡터(state vector) 안에서 유지되도록 하는 맵 관리(Map Management) 과정이 필수적인데, 그들이 제안한 실시간 카메라 트래커에 관한 자료에는 그 방법이 구체적으로 제안되지 않아 실제 구현에 있어서는 프로그래머의 임의적인 조치에 의존할 수 밖에 없는 문제점이 있다. However, in order to implement a system that is driven in real time as in the prior art as described above, an appropriate number of feature points are selected to enable real-time operation by selecting excellent feature points that are less affected by noise among a plurality of feature point data that are automatically detected. The process of map management to keep the set in a state vector is essential, and the data on their proposed real-time camera tracker is not specifically suggested. There is a problem that you have to rely on.

이에, 본 발명의 기술적 과제는 상술한 문제점을 해결하기 위해 안출한 것으로서, 2차원 특징점 추적 데이터에서 적합한 특징점들을 선별하여 상태(state) 예측기를 통해 카메라의 위치, 각도를 실시간으로 예측한다. 그리고 특징점들을 3차원으로 복원시킨 공간좌표를 데이터베이스(DataBase, 이하, DB라 함)의 도심 모델정보와 비교하여 도심모델 공간의 절대좌표계에서 카메라의 위치와 각도를 실시간으로 추정함으로써, 차량용 네비게이터에서 길안내 및 주변정보를 실사영상과 실시간으로 합성하여 출력할 수 있는 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템 및 그 방법을 제공한다. Accordingly, the technical problem of the present invention is to solve the above-described problems, and selects the appropriate feature points from the 2D feature tracking data to predict the position and angle of the camera in real time through a state predictor. In addition, the spatial coordinates of the feature points in three dimensions are compared with the urban model information of the database (DataBase, hereinafter referred to as DB) to estimate the position and angle of the camera in the absolute coordinate system of the urban model space in real time. The present invention provides a real-time image synthesis system and a method using real-time camera tracking that can output a guide and the surrounding information in real-time with the real-time image.

본 발명의 일 관점에 따른 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템은, 영상에 대한 특징점들중 3차원 위치가 복원된 특징점들만을 두개의 카메라 중심으로부터 각 이미지 플렌 상의 영역 안 경계선을 이어 생성된 원뿔모양의 방사형 내부의 공간을 통해 선별하는 특징점 예측 및 선별부와, 선별한 특징점들에 대하여 2차원 특징점 추적 데이터를 입력으로 하는 확장형 칼만 필터(Extended Kalman Filter : EKF)를 통해 카메라 움직임 정보를 예측하는 카메라 움직임 예측부와, 카메라의 현재 위치와, 도심 배경기하 모델 데이터베이스(DB)로부터 가져온 주변공간의 배경기하 모델 간을 비교 및 매칭시켜 로컬 좌표(Local Coordinate)에서 계산된 카메라의 위치 및 각도를 월드 좌표(World Coordinate)에서의 값으로 변환하는 매칭부와, 예측된 카메라 움직임 정보를 지도 및 주변 정보 DB에서 가져온 길안내 및 주변정보의 실사영상에 합성하여 출력하는 합성부를 포함하는 것을 특징으로 한다.In the photo-realistic image synthesis system using real-time camera tracking according to an aspect of the present invention, only the feature points for which the three-dimensional position is reconstructed among the feature points for the image is a cone generated by connecting the inner boundary of the area on each image plane from the center of the two cameras Feature point prediction and selection unit that selects through the radial inside of the shape, and the extended Kalman Filter (EKF) that inputs two-dimensional feature point tracking data for the selected feature points to predict camera movement information. Compares and matches the camera motion prediction unit, the current position of the camera, and the background geometry model of the surrounding space taken from the urban background geometry model database (DB) to determine the position and angle of the camera calculated in local coordinates. Matching unit for converting to a value in World Coordinate and predicted camera motion information It is characterized in that it comprises a synthesis unit for synthesizing and outputting the actual information of the road guidance and the surrounding information taken from the map and the surrounding information DB.

또한, 본 발명의 다른 관점에 따른 실시간 카메라 트래킹을 이용한 실사 영상 합성 방법은, 영상에 대한 특징점들중 3차원 위치가 복원된 특징점들만을 두개의 카메라 중심으로부터 각 이미지 플렌 상의 영역 안 경계선을 이어 생성된 원뿔모양의 방사형 내부의 공간을 통해 선별하는 단계와, 선별한 특징점들에 대하여 2차원 특징점 추적 데이터를 입력으로 하는 확장형 칼만 필터(Extended Kalman Filter)를 통해 카메라 움직임 정보를 예측하는 단계와, 카메라의 현재 위치와, 도심 배경기하 모델 데이터베이스(DB)로부터 가져온 주변공간의 배경기하 모델 간을 비교하여 매칭시켜 로컬 좌표에서 계산된 카메라의 위치 및 각도를 월드 좌표에서의 값으로 변환하는 단계와, 예측된 카메라 움직임 정보를 지도 및 주변 정보 DB에서 가져온 길안내 및 주변정보의 실사영상에 합성하여 출력하는 단계를 포함하는 것을 특징으로 한다.In addition, according to another aspect of the present invention, the method for synthesizing a real image using real-time camera tracking generates only the feature points whose three-dimensional positions are reconstructed among the feature points of the image by successive boundary lines in the regions on the image planes from two camera centers. Predicting the camera motion information through an extended Kalman filter that inputs two-dimensional feature tracking data for the selected feature points, and selecting the image through the conical radial inner space. Comparing and matching the current position of the camera with the background geometry model of the surrounding space taken from the urban background geometry model database (DB) and converting the position and angle of the camera calculated from the local coordinates into values in world coordinates, and predicting Guidance and surrounding information from the recorded camera movement information from the map and surrounding information DB Characterized in that it comprises the steps of synthesizing and outputting the image.

본 발명은 2차원 특징점 추적 데이터에서 적합한 특징점들을 선별하여 상태(state) 예측기를 통해 카메라의 위치, 각도를 실시간으로 예측한다. 그리고 특 징점들을 3차원으로 복원시킨 공간좌표를 DB의 도심 모델정보와 비교하여 도심모델 공간의 절대좌표계에서 카메라의 위치와 각도를 실시간으로 추정함으로써, 차량용 네비게이터에서 길안내 및 주변정보를 실사영상과 실시간으로 합성하여 출력할 수 있어 정확도와 실시간성을 보장할 수 있는 효과가 있다. The present invention selects suitable feature points from the 2D feature point tracking data and predicts the position and angle of the camera in real time through a state predictor. The spatial coordinates of the feature points restored in three dimensions are compared with the urban model information of the DB to estimate the position and angle of the camera in the absolute coordinate system of the urban model space in real time. Synthesis and output in real time has the effect of ensuring accuracy and real-time.

이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, with reference to the accompanying drawings will be described in detail the operating principle of the present invention. In the following description of the present invention, when it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Terms to be described later are terms defined in consideration of functions in the present invention, and may be changed according to intentions or customs of users or operators. Therefore, the definition should be made based on the contents throughout the specification.

도 1은 본 발명의 일 실시예에 따른 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템을 위한 블록 구성도로서, 카메라 초기 위치 예측부(11)와 카메라 움직임 예측부(13)와 특징점 추출부(15)와 버퍼(17)와 특징점 예측 및 선별부(19)와 매칭부(21)와 도심 배경 기하 모델 DB(23)와 합성부(25)와 지도 및 주변 정보 DB(27)와 출력부(29)를 포함한다. 1 is a block diagram for a real-time image synthesis system using real-time camera tracking according to an embodiment of the present invention, the camera initial position predictor 11, the camera motion predictor 13 and the feature point extractor 15 And buffer 17, feature point prediction and screening unit 19, matching unit 21, urban background geometric model DB 23, synthesis unit 25, map and surrounding information DB 27 and output unit 29 It includes.

카메라 초기 위치 예측부(11)는 처음 적당한 구간 N1 프레임 동안 일관되게 관찰되는 특징점들 중 임의의 M개를 선별하여 <수학식 1>The camera initial position predictor 11 selects any M of the feature points that are consistently observed during the first appropriate interval N 1 frame, and performs <Equation 1>.

Figure 112007090611446-pat00001
Figure 112007090611446-pat00001

(여기서, 벡터 상단의 꺽쇠표시^는 예측된 값임을 의미하고, x v는 카메라 움직임 즉, 카메라 이동과 회전 및 가속도 성분을 포함하는 벡터이며, y i는 i번째 특징점의 첫 등장 프레임에서의 x,y좌표와 깊이 z를 원소로 갖고 있으며, r,q,v,w는 각각 이동, 회전, 그리고 이들의 가속도 성분 벡터이며 우측 상단의 W은 World 좌표계에서의 변환을, WR은 해당 프레임 좌표계를 World 좌표계로 돌려 맞추는 변환을, R은 해당 프레임에서 카메라 축을 기준으로 하는 변환을 의미한다.)Where the angled bracket at the top of the vector is the predicted value, x v is the vector containing the camera's movement, i.e. camera movement, rotation and acceleration, and y i is the x in the first appearance frame of the i th feature point. where y, y, and depth z are elements, r, q, v, and w are the vectors of movement, rotation, and acceleration components, respectively, where W at the top right is the translation in the World coordinate system, and WR is the frame coordinate system. A transformation that returns to the World coordinate system, where R is the transformation relative to the camera axis in that frame.)

의 상태 벡터(state vector)의 구성요소로 입력하여 카메라(예컨대, 카메라는 차량에 부착된 네비게이션 시스템을 위한 카메라를 뜻하며 카메라의 내부변수 정보는 알고 있다고 가정함.)의 초기 위치를 예측하여 카메라 움직임 예측부(13)와 매칭부(21)에 각각 제공한다. 이때 y i에서 x,y 좌표는 각 특징점이 처음 등장한 프레임에서의 좌표이며 깊이 z는 사전 정보가 없으므로 일단 임의의 상수를 입력한다. 그리고 위에서 설명된 EKF를 N2프레임 동안 반복적으로 수행하여 앞에서 깊이정 보 z가 수렴될 경우에만 예측된 카메라의 초기 위치를 카메라 움직임 예측부(13)에 제공하는 것이 바람직하다. Camera movement by predicting the initial position of a camera (for example, a camera means a camera for a navigation system attached to a vehicle and knowing the internal variable information of the camera) by inputting as a component of a state vector of the camera. The prediction unit 13 and the matching unit 21 are provided respectively. In this case, x and y coordinates in y i are coordinates in the frame where each feature point first appears, and depth z has no prior information. In addition, it is preferable to repeatedly perform the above-described EKF for N 2 frames to provide the camera motion predictor 13 with the initial position of the predicted camera only when the depth information z converges.

카메라 움직임 예측부(13)는 도 2에 도시된 바와 같이 상태 벡터 갱신부(13a)와 예측부(13b)와 계산부(13c)와 업데이트부(13d)를 포함한다.The camera motion predictor 13 includes a state vector updater 13a, a predictor 13b, a calculator 13c, and an updater 13d, as shown in FIG.

상태 벡터 갱신부(13a)는 카메라 초기 위치 예측부(11)로부터 입력되는 카메라의 초기 위치와, 특징점 예측 및 선별부(19)로부터 입력되는 2차원 특징점 추적 데이터를 입력으로 EKF에 의해 얻어진 선별된 특징점들을 이용하여 상태 벡터(state vector) 안에 적정 수준의 특징점 변수들을 유지하고, 화면에서 벗어난 특징점과 새로 추가된 특징점들로 갱신하여 예측부(13b)에 제공하며, 업데이트부(13d)로부터 업데이트되어 입력된 최종 예측값을 상태 벡터안에서 정리 및 배열하여 합성부(25)에 제공한다. The state vector updater 13a selects the initial position of the camera input from the camera initial position predictor 11 and the two-dimensional feature point tracking data input from the feature point predictor and selector 19 as input. The feature points are used to maintain appropriate level feature points in a state vector, update the feature points off the screen and newly added feature points to the prediction unit 13b, and update them from the update unit 13d. The input final predicted value is arranged and arranged in the state vector and provided to the synthesis unit 25.

예측부(13b)는 EKF를 이용하여 현재 프레임에서 다음 프레임에서의 상태 벡터를 예측하여 계산부(13c)에 제공한다.The predictor 13b predicts the state vector of the next frame from the current frame using the EKF and provides it to the calculator 13c.

계산부(13c)는 예측부(13b)에 의해 예측된 상태 벡터를 프로세스 모델에 대한 사전지식을 바탕으로 칼만 게인(Kalman Gain)으로 계산하여 업데이트부(13d)에 제공한다.The calculation unit 13c calculates the state vector predicted by the prediction unit 13b as Kalman Gain based on prior knowledge of the process model and provides it to the updater 13d.

업데이트부(13d)는 <수학식 2>The updating unit 13d is represented by Equation 2

Figure 112007090611446-pat00002
Figure 112007090611446-pat00002

(여기서, x(t|t-1)은 이전 프레임에서 예측된 상태 벡터이고,

Figure 112007090611446-pat00003
은 예측 메트릭스(prediction matrix)이며, K(t)는 Kalman Gain이며, y(t)는 현재 프레임에서의 관찰치이며, h(x(t|t-1))은 이전 프레임에서 예측된 특징점의 3차원 좌표를 현재 프레임의 카메라 사영행렬을 통해 사영시켰을 때 예측되는 좌표를 의미한다.)(Where x (t | t-1) is the state vector predicted in the previous frame,
Figure 112007090611446-pat00003
Is the prediction matrix, K (t) is the Kalman Gain, y (t) is the observation in the current frame, and h ( x (t | t-1)) is 3 of the predicted feature points in the previous frame. The coordinates predicted when projecting the dimensional coordinates through the camera projection matrix of the current frame.)

에서와 같이 앞서 예측된 상태 벡터와 계산된 값을 결합하여 최종 예측값으로 업데이트하여 상태 벡터 갱신부(13a)에 제공한다. As described above, the predicted state vector and the calculated value are combined to be updated to the final predicted value and provided to the state vector updater 13a.

특징점 추출부(15)는 영상(S1) 입력에 대하여 KLT와 같은 네츄럴 특징점(Natural Feature)들을 실시간으로 추출하여 버퍼(17)와 매칭부(21)에 각각 제공한다.The feature point extractor 15 extracts natural features, such as KLT, in real time with respect to the input of the image S1 and provides them to the buffer 17 and the matching unit 21, respectively.

버퍼(17)는 특징점 추출부(15)로부터 입력되는 특징점들을 일정 구간 N3 프레임동안 데이터를 누적시키며 N3프레임 이상 일관되게 관찰된 특징점들만을 특징점 예측 및 선별부(19)에 제공한다. Buffer 17 provides the only feature point to be observed sikimyeo accumulate data during a predetermined period of the third frame N feature points input from the feature point extraction unit (15), N 3 or more frames consistent with the feature points and the prediction selection unit (19).

특징점 예측 및 선별부(19)는 버퍼(17)에 의해 일차적으로 걸러진 특징점들 중 3차원 위치가 비교적 정확하게 복원된 특징점들만을 선별하여 카메라 움직임 예측부(13)에 제공한다. The feature point predictor and selector 19 selects and provides only the feature points whose 3D position is relatively accurately reconstructed among the feature points filtered by the buffer 17 to the camera motion predictor 13.

예컨대, 특징점 선별은 도 4를 통해 이해할 수 있다. 즉, 도 4는 2차원 특징점 추적 데이터 중 카메라 움직임 예측에 사용될 특징점을 선별하기 위해서 해당 특징점의 3차원 복원 결과의 평가를 위한 척도를 설명하기 위한 도면이다. For example, feature point selection can be understood through FIG. 4. That is, FIG. 4 is a diagram for explaining a scale for evaluating a 3D reconstruction result of a feature point in order to select a feature point to be used for camera motion prediction among 2D feature point tracking data.

도 4를 참조하면, C 1은 해당 특징점이 처음 등장했던 j번재 프레임에서의 카메라 중심이며 C 2는 N3프레임이 지나고 특징점이 버퍼(17)에서의 대기기간을 마칠 시점에서의 카메라 중심이다. 좌, 우측 하단에서의 사각형은 이때의 이미지 플렌(Image Plane)을 의미하며 각각의 프레임에서 카메라 중심과 이미지 플렌(Image Plane)상에서 관찰된 특징점 좌표를 이어서 역사영 시킨 반직선이 점선 p1, p2이다. 여기서, p1, p2는 노이즈로 인해 일반적으로 교차하지 않지만 Mid Point Algorithm을 이용하면 공간상에서 최적의 해가 되는 좌표 X i를 구할 수 있다.Referring to FIG. 4, C 1 is the center of the camera in the jth frame in which the feature point first appeared, and C 2 is the center of the camera when the N 3 frame passes and the feature point finishes the waiting period in the buffer 17. The squares at the bottom left and right represent the image plane at this time, and the dotted lines dotted by the inverted lines after the feature center coordinates observed on the camera center and the image plane in each frame are p 1 and p 2 to be. Here, p 1 and p 2 do not generally intersect due to noise, but by using the Mid Point Algorithm, a coordinate X i that is an optimal solution in space can be obtained.

이렇게 계산된 X i를 각각의 프레임에서 예측된 카메라 사영행렬에 의해 재사영시키면 실제 관찰치와의 오차인 RPE(Reprojection Error, 이하 RPE라 함)를 계산할 수 있으며, 이 계산된 RPE의 N3구간에서 평균값을 계산하고 이 값을 반지름으로 하는 영역 R1, R2를 그려준다. 이때 R1, R2의 중심은 2차원 추적을 통해서 얻었던 특징점의 관찰치 좌표이다. 만약 해당 특징점이 노이즈가 없을 경우 실제로 보여져야 할 Ground Truth를 고려할 때 그 위치가 존재할 수 있는 관찰치 주변의 영역을 R1, R2의 영역으로 이해할 수 있다. By reprojecting the calculated X i with the predicted camera projection matrix in each frame, we can calculate the RPE (Reprojection Error), which is an error from the actual observation, in the N 3 interval of the calculated RPE. Calculate the average value and draw the areas R 1 and R 2 with this value as the radius. In this case, the centers of R 1 and R 2 are the observation coordinates of the feature points obtained through two-dimensional tracking. If the feature point is noisy, the area around the observation where the position may exist can be understood as the area of R 1 and R 2 when considering the ground truth that should be actually seen.

이제 카메라 중심 C 1, C 2로부터 이미지 플렌(Image Plane)상의 영역 R1, R2안의 경계선을 이어줬을 때 S1, S2와 같은 원뿔 모양의 방사형 내부의 공간을 생각할 수 있다. Now , when we connect the boundary lines in the areas R 1 and R 2 on the image plane from the camera centers C 1 and C 2 , we can think of conical radial spaces such as S 1 and S 2 .

그리고, <수학식 3>And, <Equation 3>

Figure 112007090611446-pat00004
Figure 112007090611446-pat00004

(여기서, S3가 작을수록 이 특징점이 공간상에서 존재할 수 있는 불확실성 영역은 좁아지며 이 특징점은 상대적으로 정확하게 3차원 복원된 특징점으로 간주할 수 있다. 이와 같은 경우는 RPE가 작아서 두 원뿔 S1, S2의 폭이 좁아야 하고 N3프레임 구간동안 움직인 카메라의 이동, 회전이 커야한다. S3의 부피를 특징점의 3차원 복원 정확도의 척도로 삼는 것이 바람직하다.)(Wherein, S 3 is smaller the more the feature points become narrower can uncertainty region that is present in space the feature points can be considered to be relatively accurately restore the three-dimensional feature point. In such a case two cone S 1 RPE is small, The width of S 2 should be narrow and the movement and rotation of the camera moved during the frame of N 3 should be large. It is desirable to use the volume of S 3 as a measure of the accuracy of three-dimensional reconstruction of the feature point.)

을 통해 이 특징점이 공간상에서 존재하리라고 예상되는 영역 S3를 예측할 수 있으며 이 공간의 부피는 해당 특징점의 3차원 위치가 얼마만큼 정확하게 예측되었는가를 비교할 수 있는 척도로 이용될 수 있다. We can predict the area S 3 where this feature point is expected to exist in space, and the volume of this space can be used as a measure to compare how accurately the three-dimensional position of the feature point is predicted.

매칭부(21)는 카메라 초기 위치 예측부(11)로부터 입력되는 카메라의 초기 위치와 특징점 추출부(15)로부터 입력되는 영상(S1)의 네츄럴 특징점(Natural Feature)들과 GPS(Global Positioning System) 수신부(S2)를 통해 수신되는 카메라의 대략적인 현재 위치와, 도심 배경기하 모델 DB(23)로부터 가져온 주변공간의 배경기하 모델 간을 비교하여 매칭함으로써 로컬 좌표(Local Coordinate)에서 계산된 카메라의 위치 및 각도를 월드 좌표(World Coordinate)에서의 값으로 변환하여 합성부(25)에 제공한다.The matching unit 21 is a natural position of the initial position of the camera input from the camera initial position predictor 11 and the natural feature of the image (S1) input from the feature point extractor 15 and the GPS (Global Positioning System) The position of the camera calculated in local coordinates by comparing and matching an approximate current position of the camera received through the receiver S2 with a background geometric model of the surrounding space taken from the urban background geometric model DB 23. And converts the angle into a value in world coordinates and provides it to the combining unit 25.

합성부(25)는 도 3에 도시된 바와 같이 실사 영상 합성부(25a) 및 상태 벡터 갱신부(25b)를 포함한다.The synthesizer 25 includes a live image synthesizer 25a and a state vector updater 25b as shown in FIG. 3.

실사 영상 합성부(25a)는 카메라 움직임 예측부(13)로부터 입력되는 최종 예측값인 카메라 움직임 정보와 상태 벡터 갱신부(25b)에 의해 정리된 특징점을 이용 하여 지도 및 주변 정보 DB(27)에서 가져온 길안내 및 주변정보의 실사영상에 합성하여 출력부(29)에 제공하고, 또한 실사 영상 합성부(25a)는 특징점 추출부(15)로부터 입력되는 영상(S1)의 네츄럴 특징점(Natural Feature)들을 상태 벡터 갱신부(25b)에 제공한다.The real picture synthesizing unit 25a is obtained from the map and the surrounding information DB 27 by using the camera motion information which is the final predicted value input from the camera motion predicting unit 13 and the feature points arranged by the state vector updating unit 25b. The synthesized image is provided to the output unit 29 by synthesizing the real-time image of the road guide and the surrounding information, and the real image synthesizing unit 25a may collect natural features of the image S1 input from the feature point extractor 15. The state vector updater 25b is provided.

상태 벡터 갱신부(25b)는 매칭부(21)의 매칭 결과를 기반으로 화면밖으로 나간 특징점들과 새로 추가된 특징점들을 상태 벡터 안에서 정리하여 시스템이 종료될 때까지 계속 반복적으로 실사 영상 합성부(25a)에 제공하고, 상태 벡터 갱신부(25b)는 카메라 움직임 예측부(13)의 움직임 예측 결과를 기반으로 화면밖으로 나간 특징점들과 새로 추가된 특징점들을 상태 벡터 안에서 정리하여 시스템이 종료될 때까지 계속 반복적으로 실사 영상 합성부(25a)에 제공한다. Based on the matching result of the matching unit 21, the state vector updating unit 25b arranges the feature points that have been left out of the screen and the newly added feature points in the state vector, and repeats the real image synthesizing unit 25a repeatedly until the system is terminated. ), And the state vector updater 25b arranges out-of-screen feature points and newly added feature points in the state vector based on the motion prediction result of the camera motion predictor 13 and continues until the system is terminated. It is repeatedly provided to the live image synthesizer 25a.

출력부(29)는 합성부(29)로부터 입력되는 합성된 결과 영상을 도 5에 도시된 바와 같이 사용자가 확인할 수 있도록 실시간으로 출력한다. 즉, 도 5에서와 같이 합성된 결과 영상을 보면 현재 전방에 보이는 실사 화면에 이동해야 할 경로와 주변 건물의 명칭, 거주자 정보등이 실제 대상물 위해 중첩되어 보여지는 것을 확인 할 수 있다. The output unit 29 outputs the synthesized result image input from the combiner 29 in real time so that a user can check it as shown in FIG. 5. That is, as shown in the synthesized result image as shown in FIG. 5, it can be seen that the path to be moved on the live screen shown in front of the present, the name of the surrounding buildings, the occupant information, etc. are overlapped for the actual object.

따라서, 본 발명은 2차원 특징점 추적 데이터에서 적합한 특징점들을 선별하여 상태 예측기를 통해 카메라의 위치, 각도를 실시간으로 예측한다. 그리고 특징점들을 3차원으로 복원시킨 공간좌표를 DB의 도심 모델정보와 비교하여 도심모델 공간의 절대좌표계에서 카메라의 위치와 각도를 실시간으로 추정함으로써, 차량용 네비게이터에서 길안내 및 주변정보를 실사영상과 실시간으로 합성하여 출력할 수 있다. Accordingly, the present invention selects suitable feature points from the 2D feature point tracking data and predicts the position and angle of the camera in real time through the state predictor. The spatial coordinates of the feature points restored in three dimensions are compared with the urban model information of the DB to estimate the position and angle of the camera in the absolute coordinate system of the urban model space in real time. Can be synthesized and output.

한편, 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되지 않으며, 후술되는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다. Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the scope of the following claims, but also by those equivalent to the scope of the claims.

도 1은 본 발명의 일 실시예에 따른 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템을 위한 블록 구성도,1 is a block diagram for a real-time image synthesis system using real-time camera tracking according to an embodiment of the present invention,

도 2는 도 1에 도시된 카메라 움직임 예측부를 상세하게 도시한 블록 구성도,2 is a block diagram illustrating in detail the camera motion predictor shown in FIG. 1;

도 3은 도 1에 도시된 합성부를 상세하게 도시한 블록 구성도,3 is a block diagram illustrating in detail the synthesis unit shown in FIG.

도 4는 본 발명에 따른 2차원 특징점 추적 데이터 중 카메라 움직임 예측에 사용될 특징점을 선별하기 위해서 해당 특징점의 3차원 복원 결과의 평가를 위한 척도를 설명하기 위한 도면,4 is a view for explaining a scale for evaluating a 3D reconstruction result of a feature point in order to select a feature point to be used for camera motion prediction among 2D feature point tracking data according to the present invention;

도 5는 도 1에 도시된 합성부에 의해 합성된 결과 영상을 사용자가 확인할 수 있도록 출력한 도면.FIG. 5 is a view illustrating a result image synthesized by the synthesis unit illustrated in FIG.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

11 : 카메라 초기 위치 예측부 13 : 카메라 움직임 예측부11: Camera initial position predictor 13: Camera motion predictor

15 : 특징점 추출부 17 : 버퍼15: feature point extraction unit 17: buffer

19 : 특징점 예측 및 선별부 21 : 매칭부19: feature point prediction and selection unit 21: matching unit

23 : 도심 배경 기하 모델 DB 25 : 합성부23: urban background geometric model DB 25: synthesis

27 : 지도 및 주변 정보 DB 29 : 출력부27: Map and surrounding information DB 29: Output

Claims (8)

영상에 대한 특징점들중 3차원 위치가 복원된 특징점들만을 두개의 카메라 중심으로부터 각 이미지 플렌 상의 영역 안 경계선을 이어 생성된 원뿔모양의 방사형 내부의 공간을 통해 선별하는 특징점 예측 및 선별부와, A feature point prediction and selection unit that selects only the feature points whose 3D positions are reconstructed among the image points from the two camera centers through conical radial spaces created by connecting the inner boundary of the region on each image plane; 선별한 상기 특징점들에 대하여 2차원 특징점 추적 데이터를 입력으로 하는 확장형 칼만 필터(Extended Kalman Filter : EKF)를 통해 카메라 움직임 정보를 예측하는 카메라 움직임 예측부와,A camera motion predictor for predicting camera motion information through an extended Kalman filter (EKF) for inputting two-dimensional feature point tracking data to the selected feature points; 카메라의 현재 위치와, 도심 배경기하 모델 데이터베이스(DB)로부터 가져온 주변공간의 배경기하 모델 간을 비교 및 매칭시켜 로컬 좌표(Local Coordinate)에서 계산된 카메라의 위치 및 각도를 월드 좌표(World Coordinate)에서의 값으로 변환하는 매칭부와, Compares and matches the current position of the camera with the background geometry model of the surrounding space taken from the urban background geometry model database (DB) to determine the position and angle of the camera calculated in local coordinates in world coordinates. A matching unit for converting to 상기 예측된 카메라 움직임 정보를 지도 및 주변 정보 DB에서 가져온 길안내 및 주변정보의 실사영상에 합성하여 출력하는 합성부Synthesis unit for synthesizing the predicted camera motion information into a live image of the road guidance and surrounding information obtained from the map and the surrounding information DB 를 포함하는 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템.Photorealistic image synthesis system using real-time camera tracking, including. 제 1 항에 있어서, The method of claim 1, 상기 카메라 움직임 예측부는,The camera motion predictor, 상기 선별된 특징점들을 이용하여 상태 벡터(state vector) 안에 적정 수준의 특징점 변수들을 유지하고, 화면에서 벗어난 특징점과 새로 추가된 특징점들로 갱신하는 상태 벡터 갱신부와, A state vector updating unit which maintains a proper level of feature point variables in a state vector by using the selected feature points and updates the feature points off the screen and newly added feature points; 현재 프레임에서 다음 프레임에서의 상태 벡터를 예측하는 예측부와,A prediction unit for predicting a state vector of the next frame in the current frame; 상기 예측된 상태 벡터를 칼만게인(Kalman Gain)으로 계산하는 계산부와, A calculation unit configured to calculate the predicted state vector using a Kalman gain, 상기 예측된 상태 벡터와 상기 계산된 값을 결합하여 최종 예측값으로 업데이트하는 업데이트부An update unit for combining the predicted state vector with the calculated value and updating the final predicted value 를 포함하는 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템.Photorealistic image synthesis system using real-time camera tracking, including. 제 2 항에 있어서, The method of claim 2, 상기 업데이트부는, The update unit, 수학식Equation
Figure 112009056366021-pat00005
Figure 112009056366021-pat00005
(여기서, x(t|t-1)은 이전 프레임에서 예측된 상태 벡터이고,
Figure 112009056366021-pat00006
은 예측 메트릭스(prediction matrix)이며, K(t)는 Kalman Gain이며, y(t)는 현재 프레임에서의 관찰치이며, h(x(t|t-1))은 이전 프레임에서 예측된 특징점의 3차원 좌표를 현재 프레임의 카메라 사영행렬을 통해 사영시켰을 때 예측되는 좌표를 의미한다.)
(Where x (t | t-1) is the state vector predicted in the previous frame,
Figure 112009056366021-pat00006
Is the prediction matrix, K (t) is the Kalman Gain, y (t) is the observation in the current frame, and h ( x (t | t-1)) is 3 of the predicted feature points in the previous frame. The coordinates predicted when projecting the dimensional coordinates through the camera projection matrix of the current frame.)
을 이용하여 상기 최종 예측값으로 업데이트하는 것을 특징으로 하는 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템.Real-time image synthesis system using real-time camera tracking, characterized in that for updating to the final prediction value using.
삭제delete 제 1 항에 있어서, The method of claim 1, 상기 시스템은, The system, 상기 카메라의 초기 위치를 예측하는 카메라 초기 위치 예측부와, A camera initial position predictor for predicting an initial position of the camera; 영상 입력에 대하여 네츄럴 특징점(Natural Feature)들을 실시간으로 추출하는 특징점 추출부와, A feature point extraction unit for extracting natural features in real time with respect to an image input; 상기 추출된 특징점들을 일정 구간 N3 프레임동안 데이터를 누적시키며 상기 N3프레임 이상 일관되게 관찰된 특징점들만을 상기 특징점 예측 및 선별부에 제공하는 버퍼Wherein the extracted feature points predetermined length N 3 sikimyeo accumulate data for a frame buffer to provide only the frame N 3 or more consistently observed feature points in the feature point selection unit and the prediction 를 더 포함하는 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템.Photorealistic image synthesis system using real-time camera tracking further comprising. 제 1 항에 있어서, The method of claim 1, 상기 카메라의 현재 위치는, GPS(Global Positioning System)에 의해 수신되는 것을 특징으로 하는 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템.And a current position of the camera is received by a GPS (Global Positioning System). 영상에 대한 특징점들중 3차원 위치가 복원된 특징점들만을 두개의 카메라 중심으로부터 각 이미지 플렌 상의 영역 안 경계선을 이어 생성된 원뿔모양의 방사형 내부의 공간을 통해 선별하는 단계와, Selecting only the feature points from which the three-dimensional positions of the image points are reconstructed from the two camera centers through conical radial spaces created by connecting the inner boundary of the region on each image plan; 선별한 상기 특징점들에 대하여 2차원 특징점 추적 데이터를 입력으로 하는 확장형 칼만 필터(Extended Kalman Filter)를 통해 카메라 움직임 정보를 예측하는 단계와, Predicting camera motion information through an extended Kalman filter that inputs two-dimensional feature point tracking data to the selected feature points; 카메라의 현재 위치와, 도심 배경기하 모델 데이터베이스(DB)로부터 가져온 주변공간의 배경기하 모델 간을 비교하여 매칭시켜 로컬 좌표에서 계산된 카메라의 위치 및 각도를 월드 좌표에서의 값으로 변환하는 단계와, Comparing and matching the current position of the camera with the background geometry model of the surrounding space obtained from the urban background geometry model database (DB) to convert the position and angle of the camera calculated from the local coordinates into values in the world coordinates; 상기 예측된 카메라 움직임 정보를 지도 및 주변 정보 DB에서 가져온 길안내 및 주변정보의 실사영상에 합성하여 출력하는 단계Synthesizing the predicted camera motion information into a live image of a road guide and surrounding information obtained from a map and a surrounding information DB; 를 포함하는 실시간 카메라 트래킹을 이용한 실사 영상 합성 방법.Photorealistic image synthesis method using real-time camera tracking comprising a. 제 7 항에 있어서,The method of claim 7, wherein 상기 특징점들은, The feature points, 두개의 카메라 중심으로부터 각 이미지 플렌 상의 영역 안의 경계선을 이을때 S1, S2 와 같은 원뿔모양의 방사형 내부의 공간을 형성하며, When connecting the boundary line within the area on each image plane from the center of the two cameras, it forms a conical radial inner space like S 1 , S 2 , 이는this is 수학식Equation
Figure 112009056366021-pat00007
Figure 112009056366021-pat00007
(여기서, S3가 작을수록 이 특징점이 공간상에서 존재할 수 있는 불확실성 영역은 좁아지며 이 특징점은 상대적으로 정확하게 3차원 복원된 특징점으로 간주할 수 있으며, RPE(Reprojection Error)가 작아서 두 원뿔(S1, S2)의 폭이 좁아야 하며, 프레임 구간동안 움직인 카메라의 이동, 회전이 커야하며, S3의 부피를 특징점의 3차원 복원 정확도의 척도로 삼는다. )(In this case, the smaller S 3 , the narrower the area of uncertainty that this feature may exist in space, and this feature can be regarded as a relatively precise three-dimensional reconstructed feature point, and the RPE (Reprojection Error) is small, resulting in two cones (S 1). , S 2 ) should be narrow, the camera moved and rotated during the frame period should be large, and the volume of S 3 is used as a measure of the accuracy of 3D reconstruction of the feature point. 을 이용하여 선별하는 것을 특징으로 하는 실시간 카메라 트래킹을 이용한 실사 영상 합성 방법.Real-time image synthesis method using real-time camera tracking, characterized in that the screening by using.
KR1020070132360A 2007-12-17 2007-12-17 Live video compositing system by using realtime camera tracking and its method KR100922544B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070132360A KR100922544B1 (en) 2007-12-17 2007-12-17 Live video compositing system by using realtime camera tracking and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070132360A KR100922544B1 (en) 2007-12-17 2007-12-17 Live video compositing system by using realtime camera tracking and its method

Publications (2)

Publication Number Publication Date
KR20090064967A KR20090064967A (en) 2009-06-22
KR100922544B1 true KR100922544B1 (en) 2009-10-21

Family

ID=40993445

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070132360A KR100922544B1 (en) 2007-12-17 2007-12-17 Live video compositing system by using realtime camera tracking and its method

Country Status (1)

Country Link
KR (1) KR100922544B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101295714B1 (en) 2010-06-30 2013-08-16 주식회사 팬택 Apparatus and Method for providing 3D Augmented Reality

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102565485B1 (en) 2016-01-11 2023-08-14 한국전자통신연구원 Server and Method for Providing City Street Search Service
CN116456048B (en) * 2023-06-19 2023-08-18 中汽信息科技(天津)有限公司 Automobile image recording method and system based on scene adaptation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0933271A (en) * 1995-07-21 1997-02-07 Canon Inc Navigation apparatus and image pickup device
JP2001099668A (en) 1999-09-30 2001-04-13 Sony Corp Navigation apparatus
KR20020084436A (en) * 2001-05-02 2002-11-09 이종선 Method to process an image using GPS
KR20050013000A (en) * 2003-07-26 2005-02-02 엘지전자 주식회사 Apparatus and method for guiding route of vehicle using three-dimensional information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0933271A (en) * 1995-07-21 1997-02-07 Canon Inc Navigation apparatus and image pickup device
JP2001099668A (en) 1999-09-30 2001-04-13 Sony Corp Navigation apparatus
KR20020084436A (en) * 2001-05-02 2002-11-09 이종선 Method to process an image using GPS
KR20050013000A (en) * 2003-07-26 2005-02-02 엘지전자 주식회사 Apparatus and method for guiding route of vehicle using three-dimensional information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101295714B1 (en) 2010-06-30 2013-08-16 주식회사 팬택 Apparatus and Method for providing 3D Augmented Reality

Also Published As

Publication number Publication date
KR20090064967A (en) 2009-06-22

Similar Documents

Publication Publication Date Title
EP2428769B1 (en) Generating a multi-layered geographic image and the use thereof
Johnson‐Roberson et al. Generation and visualization of large‐scale three‐dimensional reconstructions from underwater robotic surveys
KR100520708B1 (en) Method for displaying three dimensional map
TWI494898B (en) Extracting and mapping three dimensional features from geo-referenced images
EP2507768B1 (en) Method and system of generating a three-dimensional view of a real scene for military planning and operations
KR101199492B1 (en) Apparatus and Method for Real Time Camera Tracking for Large Map
CN108898676B (en) Method and system for detecting collision and shielding between virtual and real objects
KR102197732B1 (en) Method and apparatus for generating 3d map of indoor space
Senlet et al. A framework for global vehicle localization using stereo images and satellite and road maps
JP2000307949A (en) Image interpolating method, image processing method, image displaying method, image processor, image display device and computer program storage medium
US20040105573A1 (en) Augmented virtual environments
KR20170007102A (en) Device and method for generating and displaying three-dimentional map
JP2010533282A (en) Method and apparatus for generating a multi-view panorama
WO2021237471A1 (en) Depth-guided video inpainting for autonomous driving
JP2003510702A (en) How to build a 3D scene by analyzing a series of images
JPWO2019065536A1 (en) Reconstruction method and reconfiguration device
US10825250B2 (en) Method for displaying object on three-dimensional model
KR100922544B1 (en) Live video compositing system by using realtime camera tracking and its method
JP2005322002A (en) Compound artificial intelligence device
US10930079B1 (en) Techniques for displaying augmentations that represent cadastral lines and other near-ground features
JP4978941B2 (en) Three-dimensional modeling apparatus, method and program
Habib et al. Integration of lidar and airborne imagery for realistic visualization of 3d urban environments
JP2007279757A (en) Map display apparatus
EP1796048A2 (en) Augmented virtual environments
JP7448945B2 (en) 3D map generation method and 3D map generation device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121011

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130923

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140926

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150925

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20161101

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20171123

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180820

Year of fee payment: 10