KR100922544B1 - Live video compositing system by using realtime camera tracking and its method - Google Patents
Live video compositing system by using realtime camera tracking and its method Download PDFInfo
- Publication number
- KR100922544B1 KR100922544B1 KR1020070132360A KR20070132360A KR100922544B1 KR 100922544 B1 KR100922544 B1 KR 100922544B1 KR 1020070132360 A KR1020070132360 A KR 1020070132360A KR 20070132360 A KR20070132360 A KR 20070132360A KR 100922544 B1 KR100922544 B1 KR 100922544B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- real
- feature points
- time
- image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
Abstract
본 발명은 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템 및 그 방법에 관한 것으로, 2차원 특징점 추적 데이터에서 적합한 특징점들을 선별하여 상태(state) 예측기를 통해 카메라의 위치, 각도를 실시간으로 예측할 수 있다. 그리고 특징점들을 3차원으로 복원시킨 공간좌표를 DB의 도심 모델정보와 비교하여 도심모델 공간의 절대좌표계에서 카메라의 위치와 각도를 실시간으로 추정함으로써, 차량용 네비게이터에서 길안내 및 주변정보를 실사영상과 실시간으로 합성하여 출력할 수 있어 정확도와 실시간성을 보장할 수 있다.
합성, 카메라, 움직임, 예측
The present invention relates to a system for real-time image synthesis using real-time camera tracking and a method thereof, and selects suitable feature points from two-dimensional feature tracking data to predict the position and angle of a camera in real time through a state predictor. The spatial coordinates of the feature points restored in three dimensions are compared with the urban model information of the DB to estimate the position and angle of the camera in the absolute coordinate system of the urban model space in real time. Can be synthesized and output to ensure accuracy and real-time.
Compositing, camera, motion, prediction
Description
본 발명은 차량용 네비게이터에서 영상 입력으로부터 카메라의 위치와 회전을 실시간으로 예측하는 실시간 카메라 트래킹과 이를 이용하여 실시간으로 영상을 합성할 수 있는 시스템 및 방법에 관한 것이다.The present invention relates to a real-time camera tracking for predicting the position and rotation of the camera from the image input in a vehicle navigator in real time, and a system and method for synthesizing the image in real time using the same.
주지된 바와 같이, 네비게이터는 주변 지도 또는 3차원 배경모델을 그래픽 화면만으로 보여주며 운전자가 이동해야 할 경로 역시 그래픽 배경 화면위에 도시된다. As is well known, the navigator shows the surrounding map or the 3D background model only on the graphic screen, and the path to which the driver should move is also shown on the graphic background screen.
이런 방식의 네비게이터는 고속도로와 외각 도로에서는 문제될 것이 없지만 진입로와 교차로 등이 복잡하게 얽혀 있는 도심 도로에서는 운전자에서 순간적인 착오를 일으킬 소지가 있다. 이에 그래픽 배경화면이 아닌 실제 전방의 실사 화면에 운전자가 가야 할 이동방향과 주변 건물 정보를 실시간으로 합성하여 도시한다면 운전자에게 한층 정확하고 직관적인 정보를 전달할 수 있다. 이를 위해선 실사 영상을 촬영하는 카메라의 위치 및 각도를 정확히 알고 있어야 하며 이를 예측하는 카메라 트래킹 기술은 지금까지 영화 제작 현장의 포스트 프로덕션 과정에서 컴퓨터 그래픽(CG) 요소와 실사영상을 합성하기 위해 빈번히 사용되어 왔다.This type of navigator is not a problem on highways and outer roads, but it can cause a momentary misunderstanding on the driver's side of the city road, where the roads and intersections are intricately intertwined. Therefore, if the real-time composite screen of the driver's moving direction and surrounding buildings is shown in real-time on the actual front screen instead of the graphic background screen, more accurate and intuitive information can be delivered to the driver. To do this, you need to know the exact position and angle of the camera that captures the live action, and the camera tracking technology that predicts it has been frequently used to synthesize computer graphics (CG) elements and live action images during the post production process of the film production site. come.
즉, 영상만을 입력으로 카메라의 움직임을 예측하는 것은 포스트 프로덕션 과정에서는 주로 비실시간으로 이루어지며 Boujou, Matchmover와 같은 외국 S/W들이 이 분야에서 뛰어난 성능을 보이는 것으로 알려져 있다. 하지만 네비게이션 시스템에서 실사 영상과 합성하기 위해서는 카메라 트래킹이 실시간으로 이루어질 필요가 있다. 실시간 카메라 트래킹 분야에서는 근래 Andrew J.Davison, Ali Azarbayejani 등이 비교적 우수한 성능을 갖는 실시간 카메라 트래커를 제안해 왔다. In other words, predicting camera movement using only video input is mainly done in non-real time during the post-production process, and it is known that foreign software such as Boujou and Matchmover perform well in this field. However, camera tracking needs to be done in real time in order to synthesize the live image in the navigation system. In the field of real-time camera tracking, Andrew J. Davidson and Ali Azarbayejani have recently proposed a real-time camera tracker with relatively good performance.
그들이 제안한 실시간 카메라 트래커는 KLT(Kanade Lucas Tomasi, 이하, KLT라 함) 등의 Natural Feature의 2차원 트래킹 데이터를 입력으로 확장형 칼만필터(Extended Kalman Filter, 이하 EKF라 함) 등의 상태(state) 예측기를 사용하여 카메라의 위치와 회전에 관한 변수값을 추정한다. Their proposed real-time camera tracker is a state predictor such as Extended Kalman Filter (EKF) with input of two-dimensional tracking data of Natural Feature such as KLT (Kanade Lucas Tomasi, KLT). Estimate the variable values for the camera position and rotation using.
그러나, 상기한 바와 같은 종래 기술에서와 같이 실시간으로 구동되는 시스템을 구현하기 위해서는 자동으로 검출되는 다수의 특징점 데이터 중 노이즈의 영향을 적게 받은 우수한 특징점들을 선별하여 실시간 연산을 가능하게 하는 적당한 개수의 특징점 세트를 상태 벡터(state vector) 안에서 유지되도록 하는 맵 관리(Map Management) 과정이 필수적인데, 그들이 제안한 실시간 카메라 트래커에 관한 자료에는 그 방법이 구체적으로 제안되지 않아 실제 구현에 있어서는 프로그래머의 임의적인 조치에 의존할 수 밖에 없는 문제점이 있다. However, in order to implement a system that is driven in real time as in the prior art as described above, an appropriate number of feature points are selected to enable real-time operation by selecting excellent feature points that are less affected by noise among a plurality of feature point data that are automatically detected. The process of map management to keep the set in a state vector is essential, and the data on their proposed real-time camera tracker is not specifically suggested. There is a problem that you have to rely on.
이에, 본 발명의 기술적 과제는 상술한 문제점을 해결하기 위해 안출한 것으로서, 2차원 특징점 추적 데이터에서 적합한 특징점들을 선별하여 상태(state) 예측기를 통해 카메라의 위치, 각도를 실시간으로 예측한다. 그리고 특징점들을 3차원으로 복원시킨 공간좌표를 데이터베이스(DataBase, 이하, DB라 함)의 도심 모델정보와 비교하여 도심모델 공간의 절대좌표계에서 카메라의 위치와 각도를 실시간으로 추정함으로써, 차량용 네비게이터에서 길안내 및 주변정보를 실사영상과 실시간으로 합성하여 출력할 수 있는 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템 및 그 방법을 제공한다. Accordingly, the technical problem of the present invention is to solve the above-described problems, and selects the appropriate feature points from the 2D feature tracking data to predict the position and angle of the camera in real time through a state predictor. In addition, the spatial coordinates of the feature points in three dimensions are compared with the urban model information of the database (DataBase, hereinafter referred to as DB) to estimate the position and angle of the camera in the absolute coordinate system of the urban model space in real time. The present invention provides a real-time image synthesis system and a method using real-time camera tracking that can output a guide and the surrounding information in real-time with the real-time image.
본 발명의 일 관점에 따른 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템은, 영상에 대한 특징점들중 3차원 위치가 복원된 특징점들만을 두개의 카메라 중심으로부터 각 이미지 플렌 상의 영역 안 경계선을 이어 생성된 원뿔모양의 방사형 내부의 공간을 통해 선별하는 특징점 예측 및 선별부와, 선별한 특징점들에 대하여 2차원 특징점 추적 데이터를 입력으로 하는 확장형 칼만 필터(Extended Kalman Filter : EKF)를 통해 카메라 움직임 정보를 예측하는 카메라 움직임 예측부와, 카메라의 현재 위치와, 도심 배경기하 모델 데이터베이스(DB)로부터 가져온 주변공간의 배경기하 모델 간을 비교 및 매칭시켜 로컬 좌표(Local Coordinate)에서 계산된 카메라의 위치 및 각도를 월드 좌표(World Coordinate)에서의 값으로 변환하는 매칭부와, 예측된 카메라 움직임 정보를 지도 및 주변 정보 DB에서 가져온 길안내 및 주변정보의 실사영상에 합성하여 출력하는 합성부를 포함하는 것을 특징으로 한다.In the photo-realistic image synthesis system using real-time camera tracking according to an aspect of the present invention, only the feature points for which the three-dimensional position is reconstructed among the feature points for the image is a cone generated by connecting the inner boundary of the area on each image plane from the center of the two cameras Feature point prediction and selection unit that selects through the radial inside of the shape, and the extended Kalman Filter (EKF) that inputs two-dimensional feature point tracking data for the selected feature points to predict camera movement information. Compares and matches the camera motion prediction unit, the current position of the camera, and the background geometry model of the surrounding space taken from the urban background geometry model database (DB) to determine the position and angle of the camera calculated in local coordinates. Matching unit for converting to a value in World Coordinate and predicted camera motion information It is characterized in that it comprises a synthesis unit for synthesizing and outputting the actual information of the road guidance and the surrounding information taken from the map and the surrounding information DB.
또한, 본 발명의 다른 관점에 따른 실시간 카메라 트래킹을 이용한 실사 영상 합성 방법은, 영상에 대한 특징점들중 3차원 위치가 복원된 특징점들만을 두개의 카메라 중심으로부터 각 이미지 플렌 상의 영역 안 경계선을 이어 생성된 원뿔모양의 방사형 내부의 공간을 통해 선별하는 단계와, 선별한 특징점들에 대하여 2차원 특징점 추적 데이터를 입력으로 하는 확장형 칼만 필터(Extended Kalman Filter)를 통해 카메라 움직임 정보를 예측하는 단계와, 카메라의 현재 위치와, 도심 배경기하 모델 데이터베이스(DB)로부터 가져온 주변공간의 배경기하 모델 간을 비교하여 매칭시켜 로컬 좌표에서 계산된 카메라의 위치 및 각도를 월드 좌표에서의 값으로 변환하는 단계와, 예측된 카메라 움직임 정보를 지도 및 주변 정보 DB에서 가져온 길안내 및 주변정보의 실사영상에 합성하여 출력하는 단계를 포함하는 것을 특징으로 한다.In addition, according to another aspect of the present invention, the method for synthesizing a real image using real-time camera tracking generates only the feature points whose three-dimensional positions are reconstructed among the feature points of the image by successive boundary lines in the regions on the image planes from two camera centers. Predicting the camera motion information through an extended Kalman filter that inputs two-dimensional feature tracking data for the selected feature points, and selecting the image through the conical radial inner space. Comparing and matching the current position of the camera with the background geometry model of the surrounding space taken from the urban background geometry model database (DB) and converting the position and angle of the camera calculated from the local coordinates into values in world coordinates, and predicting Guidance and surrounding information from the recorded camera movement information from the map and surrounding information DB Characterized in that it comprises the steps of synthesizing and outputting the image.
본 발명은 2차원 특징점 추적 데이터에서 적합한 특징점들을 선별하여 상태(state) 예측기를 통해 카메라의 위치, 각도를 실시간으로 예측한다. 그리고 특 징점들을 3차원으로 복원시킨 공간좌표를 DB의 도심 모델정보와 비교하여 도심모델 공간의 절대좌표계에서 카메라의 위치와 각도를 실시간으로 추정함으로써, 차량용 네비게이터에서 길안내 및 주변정보를 실사영상과 실시간으로 합성하여 출력할 수 있어 정확도와 실시간성을 보장할 수 있는 효과가 있다. The present invention selects suitable feature points from the 2D feature point tracking data and predicts the position and angle of the camera in real time through a state predictor. The spatial coordinates of the feature points restored in three dimensions are compared with the urban model information of the DB to estimate the position and angle of the camera in the absolute coordinate system of the urban model space in real time. Synthesis and output in real time has the effect of ensuring accuracy and real-time.
이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, with reference to the accompanying drawings will be described in detail the operating principle of the present invention. In the following description of the present invention, when it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Terms to be described later are terms defined in consideration of functions in the present invention, and may be changed according to intentions or customs of users or operators. Therefore, the definition should be made based on the contents throughout the specification.
도 1은 본 발명의 일 실시예에 따른 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템을 위한 블록 구성도로서, 카메라 초기 위치 예측부(11)와 카메라 움직임 예측부(13)와 특징점 추출부(15)와 버퍼(17)와 특징점 예측 및 선별부(19)와 매칭부(21)와 도심 배경 기하 모델 DB(23)와 합성부(25)와 지도 및 주변 정보 DB(27)와 출력부(29)를 포함한다. 1 is a block diagram for a real-time image synthesis system using real-time camera tracking according to an embodiment of the present invention, the camera
카메라 초기 위치 예측부(11)는 처음 적당한 구간 N1 프레임 동안 일관되게 관찰되는 특징점들 중 임의의 M개를 선별하여 <수학식 1>The camera
(여기서, 벡터 상단의 꺽쇠표시^는 예측된 값임을 의미하고, x v는 카메라 움직임 즉, 카메라 이동과 회전 및 가속도 성분을 포함하는 벡터이며, y i는 i번째 특징점의 첫 등장 프레임에서의 x,y좌표와 깊이 z를 원소로 갖고 있으며, r,q,v,w는 각각 이동, 회전, 그리고 이들의 가속도 성분 벡터이며 우측 상단의 W은 World 좌표계에서의 변환을, WR은 해당 프레임 좌표계를 World 좌표계로 돌려 맞추는 변환을, R은 해당 프레임에서 카메라 축을 기준으로 하는 변환을 의미한다.)Where the angled bracket at the top of the vector is the predicted value, x v is the vector containing the camera's movement, i.e. camera movement, rotation and acceleration, and y i is the x in the first appearance frame of the i th feature point. where y, y, and depth z are elements, r, q, v, and w are the vectors of movement, rotation, and acceleration components, respectively, where W at the top right is the translation in the World coordinate system, and WR is the frame coordinate system. A transformation that returns to the World coordinate system, where R is the transformation relative to the camera axis in that frame.)
의 상태 벡터(state vector)의 구성요소로 입력하여 카메라(예컨대, 카메라는 차량에 부착된 네비게이션 시스템을 위한 카메라를 뜻하며 카메라의 내부변수 정보는 알고 있다고 가정함.)의 초기 위치를 예측하여 카메라 움직임 예측부(13)와 매칭부(21)에 각각 제공한다. 이때 y i에서 x,y 좌표는 각 특징점이 처음 등장한 프레임에서의 좌표이며 깊이 z는 사전 정보가 없으므로 일단 임의의 상수를 입력한다. 그리고 위에서 설명된 EKF를 N2프레임 동안 반복적으로 수행하여 앞에서 깊이정 보 z가 수렴될 경우에만 예측된 카메라의 초기 위치를 카메라 움직임 예측부(13)에 제공하는 것이 바람직하다. Camera movement by predicting the initial position of a camera (for example, a camera means a camera for a navigation system attached to a vehicle and knowing the internal variable information of the camera) by inputting as a component of a state vector of the camera. The
카메라 움직임 예측부(13)는 도 2에 도시된 바와 같이 상태 벡터 갱신부(13a)와 예측부(13b)와 계산부(13c)와 업데이트부(13d)를 포함한다.The
상태 벡터 갱신부(13a)는 카메라 초기 위치 예측부(11)로부터 입력되는 카메라의 초기 위치와, 특징점 예측 및 선별부(19)로부터 입력되는 2차원 특징점 추적 데이터를 입력으로 EKF에 의해 얻어진 선별된 특징점들을 이용하여 상태 벡터(state vector) 안에 적정 수준의 특징점 변수들을 유지하고, 화면에서 벗어난 특징점과 새로 추가된 특징점들로 갱신하여 예측부(13b)에 제공하며, 업데이트부(13d)로부터 업데이트되어 입력된 최종 예측값을 상태 벡터안에서 정리 및 배열하여 합성부(25)에 제공한다. The
예측부(13b)는 EKF를 이용하여 현재 프레임에서 다음 프레임에서의 상태 벡터를 예측하여 계산부(13c)에 제공한다.The
계산부(13c)는 예측부(13b)에 의해 예측된 상태 벡터를 프로세스 모델에 대한 사전지식을 바탕으로 칼만 게인(Kalman Gain)으로 계산하여 업데이트부(13d)에 제공한다.The calculation unit 13c calculates the state vector predicted by the
업데이트부(13d)는 <수학식 2>The updating
(여기서, x(t|t-1)은 이전 프레임에서 예측된 상태 벡터이고, 은 예측 메트릭스(prediction matrix)이며, K(t)는 Kalman Gain이며, y(t)는 현재 프레임에서의 관찰치이며, h(x(t|t-1))은 이전 프레임에서 예측된 특징점의 3차원 좌표를 현재 프레임의 카메라 사영행렬을 통해 사영시켰을 때 예측되는 좌표를 의미한다.)(Where x (t | t-1) is the state vector predicted in the previous frame, Is the prediction matrix, K (t) is the Kalman Gain, y (t) is the observation in the current frame, and h ( x (t | t-1)) is 3 of the predicted feature points in the previous frame. The coordinates predicted when projecting the dimensional coordinates through the camera projection matrix of the current frame.)
에서와 같이 앞서 예측된 상태 벡터와 계산된 값을 결합하여 최종 예측값으로 업데이트하여 상태 벡터 갱신부(13a)에 제공한다. As described above, the predicted state vector and the calculated value are combined to be updated to the final predicted value and provided to the
특징점 추출부(15)는 영상(S1) 입력에 대하여 KLT와 같은 네츄럴 특징점(Natural Feature)들을 실시간으로 추출하여 버퍼(17)와 매칭부(21)에 각각 제공한다.The
버퍼(17)는 특징점 추출부(15)로부터 입력되는 특징점들을 일정 구간 N3 프레임동안 데이터를 누적시키며 N3프레임 이상 일관되게 관찰된 특징점들만을 특징점 예측 및 선별부(19)에 제공한다.
특징점 예측 및 선별부(19)는 버퍼(17)에 의해 일차적으로 걸러진 특징점들 중 3차원 위치가 비교적 정확하게 복원된 특징점들만을 선별하여 카메라 움직임 예측부(13)에 제공한다. The feature point predictor and
예컨대, 특징점 선별은 도 4를 통해 이해할 수 있다. 즉, 도 4는 2차원 특징점 추적 데이터 중 카메라 움직임 예측에 사용될 특징점을 선별하기 위해서 해당 특징점의 3차원 복원 결과의 평가를 위한 척도를 설명하기 위한 도면이다. For example, feature point selection can be understood through FIG. 4. That is, FIG. 4 is a diagram for explaining a scale for evaluating a 3D reconstruction result of a feature point in order to select a feature point to be used for camera motion prediction among 2D feature point tracking data.
도 4를 참조하면, C 1은 해당 특징점이 처음 등장했던 j번재 프레임에서의 카메라 중심이며 C 2는 N3프레임이 지나고 특징점이 버퍼(17)에서의 대기기간을 마칠 시점에서의 카메라 중심이다. 좌, 우측 하단에서의 사각형은 이때의 이미지 플렌(Image Plane)을 의미하며 각각의 프레임에서 카메라 중심과 이미지 플렌(Image Plane)상에서 관찰된 특징점 좌표를 이어서 역사영 시킨 반직선이 점선 p1, p2이다. 여기서, p1, p2는 노이즈로 인해 일반적으로 교차하지 않지만 Mid Point Algorithm을 이용하면 공간상에서 최적의 해가 되는 좌표 X i를 구할 수 있다.Referring to FIG. 4, C 1 is the center of the camera in the jth frame in which the feature point first appeared, and C 2 is the center of the camera when the N 3 frame passes and the feature point finishes the waiting period in the
이렇게 계산된 X i를 각각의 프레임에서 예측된 카메라 사영행렬에 의해 재사영시키면 실제 관찰치와의 오차인 RPE(Reprojection Error, 이하 RPE라 함)를 계산할 수 있으며, 이 계산된 RPE의 N3구간에서 평균값을 계산하고 이 값을 반지름으로 하는 영역 R1, R2를 그려준다. 이때 R1, R2의 중심은 2차원 추적을 통해서 얻었던 특징점의 관찰치 좌표이다. 만약 해당 특징점이 노이즈가 없을 경우 실제로 보여져야 할 Ground Truth를 고려할 때 그 위치가 존재할 수 있는 관찰치 주변의 영역을 R1, R2의 영역으로 이해할 수 있다. By reprojecting the calculated X i with the predicted camera projection matrix in each frame, we can calculate the RPE (Reprojection Error), which is an error from the actual observation, in the N 3 interval of the calculated RPE. Calculate the average value and draw the areas R 1 and R 2 with this value as the radius. In this case, the centers of R 1 and R 2 are the observation coordinates of the feature points obtained through two-dimensional tracking. If the feature point is noisy, the area around the observation where the position may exist can be understood as the area of R 1 and R 2 when considering the ground truth that should be actually seen.
이제 카메라 중심 C 1, C 2로부터 이미지 플렌(Image Plane)상의 영역 R1, R2안의 경계선을 이어줬을 때 S1, S2와 같은 원뿔 모양의 방사형 내부의 공간을 생각할 수 있다. Now , when we connect the boundary lines in the areas R 1 and R 2 on the image plane from the camera centers C 1 and C 2 , we can think of conical radial spaces such as S 1 and S 2 .
그리고, <수학식 3>And, <Equation 3>
(여기서, S3가 작을수록 이 특징점이 공간상에서 존재할 수 있는 불확실성 영역은 좁아지며 이 특징점은 상대적으로 정확하게 3차원 복원된 특징점으로 간주할 수 있다. 이와 같은 경우는 RPE가 작아서 두 원뿔 S1, S2의 폭이 좁아야 하고 N3프레임 구간동안 움직인 카메라의 이동, 회전이 커야한다. S3의 부피를 특징점의 3차원 복원 정확도의 척도로 삼는 것이 바람직하다.)(Wherein, S 3 is smaller the more the feature points become narrower can uncertainty region that is present in space the feature points can be considered to be relatively accurately restore the three-dimensional feature point. In such a case two cone S 1 RPE is small, The width of S 2 should be narrow and the movement and rotation of the camera moved during the frame of N 3 should be large. It is desirable to use the volume of S 3 as a measure of the accuracy of three-dimensional reconstruction of the feature point.)
을 통해 이 특징점이 공간상에서 존재하리라고 예상되는 영역 S3를 예측할 수 있으며 이 공간의 부피는 해당 특징점의 3차원 위치가 얼마만큼 정확하게 예측되었는가를 비교할 수 있는 척도로 이용될 수 있다. We can predict the area S 3 where this feature point is expected to exist in space, and the volume of this space can be used as a measure to compare how accurately the three-dimensional position of the feature point is predicted.
매칭부(21)는 카메라 초기 위치 예측부(11)로부터 입력되는 카메라의 초기 위치와 특징점 추출부(15)로부터 입력되는 영상(S1)의 네츄럴 특징점(Natural Feature)들과 GPS(Global Positioning System) 수신부(S2)를 통해 수신되는 카메라의 대략적인 현재 위치와, 도심 배경기하 모델 DB(23)로부터 가져온 주변공간의 배경기하 모델 간을 비교하여 매칭함으로써 로컬 좌표(Local Coordinate)에서 계산된 카메라의 위치 및 각도를 월드 좌표(World Coordinate)에서의 값으로 변환하여 합성부(25)에 제공한다.The matching
합성부(25)는 도 3에 도시된 바와 같이 실사 영상 합성부(25a) 및 상태 벡터 갱신부(25b)를 포함한다.The
실사 영상 합성부(25a)는 카메라 움직임 예측부(13)로부터 입력되는 최종 예측값인 카메라 움직임 정보와 상태 벡터 갱신부(25b)에 의해 정리된 특징점을 이용 하여 지도 및 주변 정보 DB(27)에서 가져온 길안내 및 주변정보의 실사영상에 합성하여 출력부(29)에 제공하고, 또한 실사 영상 합성부(25a)는 특징점 추출부(15)로부터 입력되는 영상(S1)의 네츄럴 특징점(Natural Feature)들을 상태 벡터 갱신부(25b)에 제공한다.The real
상태 벡터 갱신부(25b)는 매칭부(21)의 매칭 결과를 기반으로 화면밖으로 나간 특징점들과 새로 추가된 특징점들을 상태 벡터 안에서 정리하여 시스템이 종료될 때까지 계속 반복적으로 실사 영상 합성부(25a)에 제공하고, 상태 벡터 갱신부(25b)는 카메라 움직임 예측부(13)의 움직임 예측 결과를 기반으로 화면밖으로 나간 특징점들과 새로 추가된 특징점들을 상태 벡터 안에서 정리하여 시스템이 종료될 때까지 계속 반복적으로 실사 영상 합성부(25a)에 제공한다. Based on the matching result of the
출력부(29)는 합성부(29)로부터 입력되는 합성된 결과 영상을 도 5에 도시된 바와 같이 사용자가 확인할 수 있도록 실시간으로 출력한다. 즉, 도 5에서와 같이 합성된 결과 영상을 보면 현재 전방에 보이는 실사 화면에 이동해야 할 경로와 주변 건물의 명칭, 거주자 정보등이 실제 대상물 위해 중첩되어 보여지는 것을 확인 할 수 있다. The
따라서, 본 발명은 2차원 특징점 추적 데이터에서 적합한 특징점들을 선별하여 상태 예측기를 통해 카메라의 위치, 각도를 실시간으로 예측한다. 그리고 특징점들을 3차원으로 복원시킨 공간좌표를 DB의 도심 모델정보와 비교하여 도심모델 공간의 절대좌표계에서 카메라의 위치와 각도를 실시간으로 추정함으로써, 차량용 네비게이터에서 길안내 및 주변정보를 실사영상과 실시간으로 합성하여 출력할 수 있다. Accordingly, the present invention selects suitable feature points from the 2D feature point tracking data and predicts the position and angle of the camera in real time through the state predictor. The spatial coordinates of the feature points restored in three dimensions are compared with the urban model information of the DB to estimate the position and angle of the camera in the absolute coordinate system of the urban model space in real time. Can be synthesized and output.
한편, 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되지 않으며, 후술되는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다. Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the scope of the following claims, but also by those equivalent to the scope of the claims.
도 1은 본 발명의 일 실시예에 따른 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템을 위한 블록 구성도,1 is a block diagram for a real-time image synthesis system using real-time camera tracking according to an embodiment of the present invention,
도 2는 도 1에 도시된 카메라 움직임 예측부를 상세하게 도시한 블록 구성도,2 is a block diagram illustrating in detail the camera motion predictor shown in FIG. 1;
도 3은 도 1에 도시된 합성부를 상세하게 도시한 블록 구성도,3 is a block diagram illustrating in detail the synthesis unit shown in FIG.
도 4는 본 발명에 따른 2차원 특징점 추적 데이터 중 카메라 움직임 예측에 사용될 특징점을 선별하기 위해서 해당 특징점의 3차원 복원 결과의 평가를 위한 척도를 설명하기 위한 도면,4 is a view for explaining a scale for evaluating a 3D reconstruction result of a feature point in order to select a feature point to be used for camera motion prediction among 2D feature point tracking data according to the present invention;
도 5는 도 1에 도시된 합성부에 의해 합성된 결과 영상을 사용자가 확인할 수 있도록 출력한 도면.FIG. 5 is a view illustrating a result image synthesized by the synthesis unit illustrated in FIG.
<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>
11 : 카메라 초기 위치 예측부 13 : 카메라 움직임 예측부11: Camera initial position predictor 13: Camera motion predictor
15 : 특징점 추출부 17 : 버퍼15: feature point extraction unit 17: buffer
19 : 특징점 예측 및 선별부 21 : 매칭부19: feature point prediction and selection unit 21: matching unit
23 : 도심 배경 기하 모델 DB 25 : 합성부23: urban background geometric model DB 25: synthesis
27 : 지도 및 주변 정보 DB 29 : 출력부27: Map and surrounding information DB 29: Output
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070132360A KR100922544B1 (en) | 2007-12-17 | 2007-12-17 | Live video compositing system by using realtime camera tracking and its method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070132360A KR100922544B1 (en) | 2007-12-17 | 2007-12-17 | Live video compositing system by using realtime camera tracking and its method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090064967A KR20090064967A (en) | 2009-06-22 |
KR100922544B1 true KR100922544B1 (en) | 2009-10-21 |
Family
ID=40993445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070132360A KR100922544B1 (en) | 2007-12-17 | 2007-12-17 | Live video compositing system by using realtime camera tracking and its method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100922544B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101295714B1 (en) | 2010-06-30 | 2013-08-16 | 주식회사 팬택 | Apparatus and Method for providing 3D Augmented Reality |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102565485B1 (en) | 2016-01-11 | 2023-08-14 | 한국전자통신연구원 | Server and Method for Providing City Street Search Service |
CN116456048B (en) * | 2023-06-19 | 2023-08-18 | 中汽信息科技(天津)有限公司 | Automobile image recording method and system based on scene adaptation |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0933271A (en) * | 1995-07-21 | 1997-02-07 | Canon Inc | Navigation apparatus and image pickup device |
JP2001099668A (en) | 1999-09-30 | 2001-04-13 | Sony Corp | Navigation apparatus |
KR20020084436A (en) * | 2001-05-02 | 2002-11-09 | 이종선 | Method to process an image using GPS |
KR20050013000A (en) * | 2003-07-26 | 2005-02-02 | 엘지전자 주식회사 | Apparatus and method for guiding route of vehicle using three-dimensional information |
-
2007
- 2007-12-17 KR KR1020070132360A patent/KR100922544B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0933271A (en) * | 1995-07-21 | 1997-02-07 | Canon Inc | Navigation apparatus and image pickup device |
JP2001099668A (en) | 1999-09-30 | 2001-04-13 | Sony Corp | Navigation apparatus |
KR20020084436A (en) * | 2001-05-02 | 2002-11-09 | 이종선 | Method to process an image using GPS |
KR20050013000A (en) * | 2003-07-26 | 2005-02-02 | 엘지전자 주식회사 | Apparatus and method for guiding route of vehicle using three-dimensional information |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101295714B1 (en) | 2010-06-30 | 2013-08-16 | 주식회사 팬택 | Apparatus and Method for providing 3D Augmented Reality |
Also Published As
Publication number | Publication date |
---|---|
KR20090064967A (en) | 2009-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2428769B1 (en) | Generating a multi-layered geographic image and the use thereof | |
Johnson‐Roberson et al. | Generation and visualization of large‐scale three‐dimensional reconstructions from underwater robotic surveys | |
KR100520708B1 (en) | Method for displaying three dimensional map | |
TWI494898B (en) | Extracting and mapping three dimensional features from geo-referenced images | |
EP2507768B1 (en) | Method and system of generating a three-dimensional view of a real scene for military planning and operations | |
KR101199492B1 (en) | Apparatus and Method for Real Time Camera Tracking for Large Map | |
CN108898676B (en) | Method and system for detecting collision and shielding between virtual and real objects | |
KR102197732B1 (en) | Method and apparatus for generating 3d map of indoor space | |
Senlet et al. | A framework for global vehicle localization using stereo images and satellite and road maps | |
JP2000307949A (en) | Image interpolating method, image processing method, image displaying method, image processor, image display device and computer program storage medium | |
US20040105573A1 (en) | Augmented virtual environments | |
KR20170007102A (en) | Device and method for generating and displaying three-dimentional map | |
JP2010533282A (en) | Method and apparatus for generating a multi-view panorama | |
WO2021237471A1 (en) | Depth-guided video inpainting for autonomous driving | |
JP2003510702A (en) | How to build a 3D scene by analyzing a series of images | |
JPWO2019065536A1 (en) | Reconstruction method and reconfiguration device | |
US10825250B2 (en) | Method for displaying object on three-dimensional model | |
KR100922544B1 (en) | Live video compositing system by using realtime camera tracking and its method | |
JP2005322002A (en) | Compound artificial intelligence device | |
US10930079B1 (en) | Techniques for displaying augmentations that represent cadastral lines and other near-ground features | |
JP4978941B2 (en) | Three-dimensional modeling apparatus, method and program | |
Habib et al. | Integration of lidar and airborne imagery for realistic visualization of 3d urban environments | |
JP2007279757A (en) | Map display apparatus | |
EP1796048A2 (en) | Augmented virtual environments | |
JP7448945B2 (en) | 3D map generation method and 3D map generation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121011 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130923 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140926 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150925 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20161101 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20171123 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20180820 Year of fee payment: 10 |