KR100981588B1 - A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point - Google Patents

A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point Download PDF

Info

Publication number
KR100981588B1
KR100981588B1 KR1020100015433A KR20100015433A KR100981588B1 KR 100981588 B1 KR100981588 B1 KR 100981588B1 KR 1020100015433 A KR1020100015433 A KR 1020100015433A KR 20100015433 A KR20100015433 A KR 20100015433A KR 100981588 B1 KR100981588 B1 KR 100981588B1
Authority
KR
South Korea
Prior art keywords
information
feature point
image
target image
unit
Prior art date
Application number
KR1020100015433A
Other languages
Korean (ko)
Inventor
오정환
김정욱
Original Assignee
(주)지오투정보기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)지오투정보기술 filed Critical (주)지오투정보기술
Priority to KR1020100015433A priority Critical patent/KR100981588B1/en
Application granted granted Critical
Publication of KR100981588B1 publication Critical patent/KR100981588B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)

Abstract

PURPOSE: A system for generating city space geographical information based on vector conversion using the size and direction information of a feature point pixel is provided to use an object identifying method without separately measuring a correction point, thereby increasing accuracy of city space geographical information. CONSTITUTION: A corresponding area extracting unit(133) extracts a corresponding area by comparing left eye/right eye images in each location coordinate of an extracted target image and a generated movement path. A photogrammetry performing unit(134) performs photogrammetry about the extracted corresponding area. A city space geographical information generating unit(135) obtains city space geographical information in the corresponding area from the photogrammetry result.

Description

특징점 픽셀의 크기와 방향 정보를 이용하는 벡터 변환에 기초한 도시공간 지리정보 생성 시스템{A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point}A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point}

본 발명은 도시공간의 지리정보를 생성하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for generating geographic information of urban space.

종래의 도시공간 지리정보 데이터 구축은 현장조사를 통해 수작업으로 구축되어 과도한 인건비, 지리정보의 오류가 발생되고 수정 및 갱신하기 어렵다는 단점을 가지고 있다. 또한, 이동 측량 장비(MMS; Mobile Mapping System) 등 최신 측량장비를 이용하여 도로 시설물 지리정보 데이터 구축을 시행하고 있으나 고가의 장비, 보정점 측량 등으로 인해 비용이 많이 소요되고, 더욱이 도심지에서는 그 정보의 정확도가 결여되어 지리 정보 데이터 베이스 구축에 많은 문제점을 초래한다.The conventional geospatial geospatial data construction is built by hand through field surveys, which has the disadvantage that excessive labor costs, errors in the geospatial information, are difficult to modify and update. In addition, although geotechnical data construction of road facilities is being carried out using the latest surveying equipment such as Mobile Mapping System (MMS), it is expensive due to expensive equipment, correction point surveying, and more. Lack of accuracy leads to many problems in building geographic database.

상술한 바와 같은 문제점을 해결하기 위해 본 발명은 고가의 관성 항법 장치없이 GPS 수신기와 스테레오 카메라만을 이용하여 도시공간 지리정보를 구축하는 방법 및 그 시스템을 제공하고자 한다.In order to solve the above problems, the present invention is to provide a method and system for constructing geospatial geographic information using only a GPS receiver and a stereo camera without an expensive inertial navigation device.

본 발명은, 도시공간 지리정보를 저장하되, 상기 도시공간 지리정보는 도로 시설물, 건물, 도로 점용 시설 및 부대 시설의 위치 정보, 거리 정보 및 면적 정보를 포함하는 기구축된 도시공간 지리정보 데이터 베이스; 이동 측량 장치의 위치 정보를 획득하는 GPS 정보 획득부; 상기 위치 정보에 대응되는 좌안, 우안 영상을 획득하는 스테레오 영상 획득부; 상기 획득된 좌안, 우안 영상 및 상기 위치 정보를 이용하여 상기 좌안, 우안 영상의 위치 정보를 획득하고, 상기 좌안, 우안 영상의 위치 정보로부터 상기 이동 측량 장치의 이동 경로를 생성하는 이동 경로 생성부; 상기 기구축된 도시공간 지리정보 데이터 베이스로부터 상기 좌안, 우안 영상의 위치 정보에 대응되는 타겟 영상을 추출하는 타겟 영상 추출부; 상기 추출된 타겟 영상과 상기 생성된 이동 경로의 각 위치 좌표에서의 좌안, 우안 영상을 비교하여 대응 영역을 추출하는 대응 영역 추출부; 상기 추출된 대응 영역에 대해 사진 측량을 수행하는 사진 측량 수행부; 상기 사진 측량 수행 결과로부터 상기 대응 영역 내의 도시공간 지리 정보를 획득하는 도시공간 지리정보 생성부; 및 상기 획득된 대응 영역 내의 도시공간 지리정보를 상기 기구축된 도시공간 지리정보 데이터 베이스로 전송하여 업데이트를 수행하는 업데이트부를 포함하되, 상기 대응 영역 추출부는, 상기 추출된 타겟 영상에 대해 가우시안 필터링을 수행하는 필터링부와; 상기 필터링된 타겟 영상을 스케일링하여 원 타겟 영상과 스케일링된 타겟 영상에 대해 순차적으로 감산 연산을 수행하여 차이 영상을 생성하고, 상기 차이 영상으로부터 극값에 해당하는 특징점 픽셀의 위치 정보를 획득하는 특징점 추출부와; 상기 특징점 픽셀의 위치 정보에 기초하여 상기 특징점 픽셀의 크기와 방향 정보를 설정하고, 상기 설정된 특징점 픽셀의 크기와 방향 정보를 이용하여 상기 특징점 픽셀을 벡터 좌표로 변환하는 벡터 변환부를 포함하여 이루어지고, 상기 특징점 픽셀은 상기 차이 영상 내에서 최대값 또는 최소값에 해당하는 픽셀을 나타내며, 상기 특징점의 픽셀 크기는, m(x,y) = {(L(x, y+1)-L(x, y-1))2/(L(x+1, y)-L(x-1, y))2}⌒(1/2) 에 의해 획득되고, 상기 특징점의 방향 정보는, θ(x,y) = tan-1 ((L(x, y+1)-L(x, y-1))/(L(x+1, y)-L(x-1, y))) 에 의해 획득되고, 여기서, L(x,y)는 필터링된 영상 함수를 나타내는 것을 특징으로 하는 도시공간의 지리정보 생성 시스템을 제공한다.The present invention stores the urban geospatial geographic information, wherein the urban geospatial geographic information is a mechanically constructed urban geospatial information database including location information, distance information and area information of road facilities, buildings, road utility facilities and auxiliary facilities. ; A GPS information acquisition unit obtaining location information of the mobile surveying device; A stereo image acquisition unit configured to acquire left and right eye images corresponding to the location information; A movement path generation unit for acquiring position information of the left eye and right eye images using the obtained left eye, right eye images and the position information, and generating a movement path of the mobile survey apparatus from position information of the left eye and right eye images; A target image extracting unit which extracts a target image corresponding to position information of the left eye and right eye images from the instrumented urban spatial geographic information database; A corresponding region extracting unit which extracts a corresponding region by comparing the extracted target image with left and right eye images at respective position coordinates of the generated movement path; A photogramgram performing unit configured to perform photogrammetry on the extracted corresponding region; A city-space geographic information generation unit for obtaining city-space geographic information in the corresponding area from the photogrammetry; And an updater configured to transmit the obtained city space geographic information in the corresponding area to the instrumented city space geographic information database, and perform an update, wherein the corresponding area extractor performs Gaussian filtering on the extracted target image. A filtering unit to perform; A feature point extractor which scales the filtered target image to sequentially subtract the original target image and the scaled target image to generate a difference image, and obtains position information of a feature pixel corresponding to an extreme value from the difference image. Wow; And a vector converter configured to set size and direction information of the feature point pixel based on the location information of the feature point pixel, and convert the feature point pixel into vector coordinates using the size and direction information of the set feature pixel. The feature point pixel represents a pixel corresponding to a maximum or minimum value in the difference image, and the pixel size of the feature point is m (x, y) = {(L (x, y + 1) -L (x, y -1)) 2 / (L (x + 1, y) -L (x-1, y)) 2 } ⌒ (1/2), wherein the direction information of the feature point is θ (x, y ) = tan -1 ((L (x, y + 1) -L (x, y-1)) / (L (x + 1, y) -L (x-1, y)))) Where L (x, y) represents a filtered image function.

또한, 본 발명에서, 상기 특징점 픽셀의 위치 정보는 상기 차이 영상 내 특징점 픽셀 값이 상기 특징점 픽셀에 인접한 8개의 픽셀들과 상기 순차적으로 생성된 전, 후의 차이 영상들 내의 각 9개 픽셀들보다 크거나 작을 경우에 획득되고, 상기 9개 픽셀들은 상기 전,후의 차이 영상 내에서 상기 특징점 픽셀과 동일 위치에 있는 픽셀과 그에 인접한 8개의 픽셀을 나타내는 것을 특징으로 한다.Also, in the present invention, the position information of the feature pixel is larger than the feature pixel value of the pixel in the difference image than each of the eight pixels adjacent to the feature pixel and each of the nine pixels in the sequentially generated before and after difference images. The nine pixels represent pixels located at the same position as the feature pixel pixel and eight pixels adjacent thereto in the before and after difference image.

또한, 본 발명에서, 상기 벡터 변환부는 상기 특징점 픽셀을 128차원의 형태의 벡터 좌표로 변환하는 것을 특징으로 한다.Further, in the present invention, the vector converter is characterized in that for converting the feature point pixel to a vector coordinate of the 128-dimensional form.

또한, 본 발명에서, 상기 업데이트부는 이동 통신 모듈, 무선 인터넷 접속을 위한 무선 인터넷 모듈 및 근거리 통신 모듈 중 적어도 하나를 포함하는 것을 특징으로 한다.Also, in the present invention, the update unit may include at least one of a mobile communication module, a wireless internet module for wireless internet access, and a short range communication module.

또한, 본 발명에서, 상기 대응 영역 추출부는 상기 타겟 영상 내 객체의 기하학적 특성에 기초한 필터링을 이용하여 상기 대응 영역을 추출하는 것을 특징으로 하되, 상기 타겟 영상 내 객체의 기하학적 특성은 상기 타겟 영상으로부터 추출된 특징점 픽셀을 연결하여 이루어지며, 상기 필터링은 상기 기하학적 특성을 반영한 필터 계수가 이용되는 것을 특징으로 한다.Also, in the present invention, the corresponding region extracting unit extracts the corresponding region using filtering based on the geometric characteristics of the object in the target image, wherein the geometric characteristic of the object in the target image is extracted from the target image. The feature point pixels are connected to each other, and the filtering is characterized in that a filter coefficient reflecting the geometric characteristics is used.

따라서 본 발명은 고가의 장비 없이 도로 시설물 지리정보를 구축할 수 있으므로 기존의 이동 측량 장비를 이용하여 도로 시설물 지리정보를 구축하는데 사용되는 비용을 절감시킬 수 있다. 그리고 별도의 보정점 측량 없이 객체 식별 방법을 이용함으로써 도시공간 지리정보의 정확도를 향상시킬 수 있으며, 이러한 데이터를 기초로 하는 데이터 베이스를 구축함으로써 도시공간 지리정보에 대한 관리업무의 효율성을 향상시킬 수 있다.Therefore, since the present invention can build road facility geographic information without expensive equipment, it is possible to reduce the cost used to build road facility geographic information using existing mobile surveying equipment. In addition, the accuracy of urban spatial geographic information can be improved by using the object identification method without additional calibration point measurement, and the efficiency of the management of urban spatial geographic information can be improved by building a database based on such data. have.

도 1은 본 발명이 적용되는 실시예로서, 도시공간 지리정보 구축 시스템의 개략적인 블록도를 나타낸다.
도 2는 본 발명이 적용되는 실시예로서, 타겟 영상으로부터 대응 영역을 추출하는 과정을 설명하기 위해 나타낸 블록도이다.
도 3은 본 발명이 적용되는 일실시예로서, 이동 경로 생성부로부터 생성된 이동 경로의 그래프와 그 위치 정보를 나타낸다.
도 4는 본 발명이 적용되는 일실시예로서, 대응 영역을 추출하기 위한 이동 경로 그래프 상의 임의의 위치 정보에서의 스테레오 영상과 타겟 영상을 나타낸다.
도 5는 본 발명이 적용되는 일실시예로서, 이동 측량 장치로부터 획득된 데이터를 이용하여 도시공간 지리정보를 생성하는 방법을 설명하기 위한 흐름도이다.
1 is an embodiment to which the present invention is applied and shows a schematic block diagram of a system for constructing urban spatial geographic information.
2 is an embodiment to which the present invention is applied and is a block diagram illustrating a process of extracting a corresponding region from a target image.
3 illustrates a graph of a moving path generated from a moving path generating unit and position information thereof according to an embodiment to which the present invention is applied.
4 illustrates a stereo image and a target image in arbitrary position information on a moving path graph for extracting a corresponding region, according to an embodiment to which the present invention is applied.
FIG. 5 is a flowchart illustrating a method of generating urban spatial geographic information using data obtained from a mobile surveying apparatus according to an embodiment to which the present invention is applied.

이하, 첨부된 도면을 참조하여 본 발명의 실시예의 구성과 그 작용을 설명하Hereinafter, with reference to the accompanying drawings illustrating the configuration and operation of the embodiment of the present invention.

며, 도면에 의해서 설명되는 본 발명의 구성과 작용은 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.In addition, the configuration and operation of the present invention described by the drawings will be described as one embodiment, by which the technical spirit of the present invention and its core configuration and operation is not limited.

아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적In addition, the terms used in the present invention are as widely used as possible now

인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어를 사용하여 설명한다. 그러한 경우에는 해당 부분의 상세 설명에서 그 의미를 명확히 기재하므로, 본 발명의 설명에서 사용된 용어의 명칭만으로 단순 해석되어서는 안 될 것이며 그 해당 용어의 의미까지 파악하여 해석되어야 함을 밝혀두고자 한다.Phosphorus terms were selected, but specific cases will be described using terms arbitrarily selected by the applicant. In such a case, since the meaning is clearly described in the detailed description of the part, it should not be interpreted simply by the name of the term used in the description of the present invention, and it should be understood that the meaning of the term should be interpreted. .

지리 정보 시스템(Geographic Information System, GIS)은 공간상 위치를 점유하는 지리 자료와 이에 관련된 속성 자료를 통합하여 처리하는 정보 시스템으로서 다양한 형태의 지리 정보를 효율적으로 수집, 저장, 갱신, 처리, 분석, 출력하기 위해 이용되는 하드웨어, 소프트웨어, 지리자료, 인적자원의 총체적 조직체라고 정의할 수 있다. 상기 지리 정보 시스템의 이용에 따라 공간 정보의 다양한 활용이 용이해졌다. 따라서, 급변하는 도심 내의 보다 명확하고 현실감있는 지리 정보를 제공하기 위해서는 이동 측량 데이터를 효율적으로 이용할 필요가 있다. 이하에서는 이동 측량 데이터를 효율적으로 이용하여 보다 명확한 도시공간 지리 정보를 생성하는 실시예들을 살펴보도록 한다.
Geographic Information System (GIS) is an information system that integrates and processes geographic data that occupies spatial location and related attribute data, and efficiently collects, stores, updates, processes, analyzes, and analyzes various types of geographic information. It can be defined as the collective organization of hardware, software, geographic data, and human resources used for printing. According to the use of the geographic information system, it is easy to use a variety of spatial information. Therefore, in order to provide more clear and realistic geographic information in a rapidly changing city center, it is necessary to efficiently use mobile survey data. Hereinafter, a description will be given of embodiments for generating more clear urban spatial geographic information by efficiently using mobile survey data.

도 1은 본 발명이 적용되는 실시예로서, 도시공간 지리정보 구축 시스템의 개략적인 블록도를 나타낸다.1 is an embodiment to which the present invention is applied and shows a schematic block diagram of a system for constructing urban spatial geographic information.

상기 도 1을 참조하면, 본 발명이 적용되는 도시공간 지리정보 구축 시스템(100)은 크게 이동 측량 장치(110), 기구축된 도시공간 지리정보 데이터 베이스(120), 데이터 프로세싱 장치(130) 및 업데이트 장치(140)로 구성된다. Referring to FIG. 1, the urban spatial geographic information construction system 100 to which the present invention is applied is largely a mobile surveying apparatus 110, an instrumented urban spatial geographic information database 120, a data processing apparatus 130, and It is composed of an update device 140.

여기서, 도시공간이란 도시 내의 공간을 차지하는 객체, 예를 들어, 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등을 의미할 수 있다. 그리고, 도시공간 지리 정보라 함은, 상기 객체, 즉 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등의 위치, 거리, 면적, 속성 정보 등을 의미할 수 있다. 상기 이동 측량 장치(110)는 스테레오 영상 획득부(111)와 GPS(Global Positioning System) 정보 획득부(112)로 구성된다. 상기 이동 측량 장치(110)는 이동하면서 측량 가능한 장치를 의미하며, 그 예로 자동차, 비행기 등을 들 수 있다. Here, the urban space may mean an object occupying space in the city, for example, road facilities, buildings, road occupancy facilities, and auxiliary facilities. In addition, the urban space geographic information may mean the location, distance, area, attribute information, etc. of the object, that is, road facilities, buildings, road occupancy facilities, and auxiliary facilities. The mobile surveying apparatus 110 includes a stereo image obtaining unit 111 and a GPS (Global Positioning System) information obtaining unit 112. The mobile surveying device 110 refers to a device that can be measured while moving, and examples thereof include a car and an airplane.

또한, 상기 데이터 프로세싱 장치(130)는 이동 경로 생성부(131), 대응 영역 추출부(133), 사진 측량 수행부(134), 도시공간 지리정보 생성부(135) 및 타겟 영상 추출부(132)로 구성된다. 상기 데이터 프로세싱 장치(130)는 상기 이동 측량 장치(110)와 상기 기구축된 도시공간 지리정보 데이터 베이스(120)로부터 획득된 데이터를 이용하여 도시공간 지리정보를 생성하는 장치를 의미한다.In addition, the data processing apparatus 130 may include a movement path generation unit 131, a corresponding area extraction unit 133, a photogrammetry execution unit 134, a city space geographic information generation unit 135, and a target image extraction unit 132. It consists of The data processing apparatus 130 refers to an apparatus for generating urban spatial geographic information using data obtained from the mobile surveying apparatus 110 and the instrumented urban spatial geographic information database 120.

먼저, 이동 측량 장치(110)는 도시 내의 경로를 이동하면서 도시 내의 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등을 측량할 수 있다. 상기 이동 측량 장치(110) 내의 스테레오 영상 획득부(111)는 좌안 영상 카메라와 우안 영상 카메라로 구성될 수 있다. 상기 스테레오 영상 획득부(111)는 좌안 영상 카메라와 우안 영상 카메라를 이용하여 상기 도로 시설물, 건물, 도로 점용 시설 및 부대 시설을 촬영함으로서 스테레오 영상을 획득할 수 있다. 또한, GPS 정보 획득부(112)는 인공 위성으로부터 GPS 정보를 수신받아 상기 이동 측량 장치(110)의 현재 위치 정보를 획득할 수 있다. 기존의 이동 측량 장치에서는 도심지에서의 차량의 위치 및 수평 정보를 획득하고 다중 센서 정보의 시각 동기화를 위해 IMU(Inertial Measurement Unit), 데이터 동기화 장치 등의 고가의 장비들을 이용하였으나, 본 발명에서는 이들을 이용하지 않고도 GPS 정보와 영상 매칭 방법을 통해 보다 정확한 도시공간 지리정보를 생성할 수 있게 된다. 이하에서 보다 상세히 설명하도록 한다.First, the mobile surveying apparatus 110 may survey road facilities, buildings, road occupancy facilities, and auxiliary facilities in the city while moving a path in the city. The stereo image acquisition unit 111 in the mobile survey apparatus 110 may be configured as a left eye image camera and a right eye image camera. The stereo image acquisition unit 111 may acquire a stereo image by photographing the road facilities, buildings, road occupancy facilities, and auxiliary facilities using a left eye image camera and a right eye image camera. In addition, the GPS information acquisition unit 112 may receive GPS information from the satellite and acquire current location information of the mobile surveying device 110. Existing mobile surveying devices use expensive equipment such as IMU (Inertial Measurement Unit) and data synchronization device for acquiring the position and horizontal information of the vehicle in the downtown area and synchronizing the time of the multi-sensor information, but the present invention uses them. GPS information and image matching methods can be used to generate more accurate geospatial geographic information. It will be described in more detail below.

이동 경로 생성부(131)는 상기 스테레오 영상 획득부(111)로부터 획득된 좌안 영상과 우안 영상, 그리고 상기 GPS 정보 획득부(112)로부터 획득된 상기 이동 측량 장치(110)의 위치 정보를 이용하여 상기 좌안 영상과 상기 우안 영상의 현재 위치 정보를 획득할 수 있다. 그리고, 상기 좌안 영상과 상기 우안 영상의 현재 위치 정보로부터 상기 이동 측량 장치(110)의 이동 경로를 생성할 수 있다. 즉, 상기 이동 측량 장치(110)의 위치 정보로부터 이동 경로를 결정하고 각 이동 경로마다, 상기 스테레오 영상 획득부(111)로부터 획득된 좌안 영상과 우안 영상를 연결한다. 도 3은 상기 이동 경로 생성부(131)로부터 생성된 이동 경로의 그래프와 그 위치 정보를 나타낸다. 상기 도 3의 좌측 그래프는 도심 내에서 상기 이동 측량 장치(110)가 이동한 경로를 위치 좌표로 나타낸 것이며, 우측의 데이터는 상기 그래프에 각 위치 좌표에 해당하는 실제 위치 데이터를 나타낸다.The movement path generation unit 131 uses the left eye image and the right eye image acquired from the stereo image acquisition unit 111, and the position information of the mobile surveying apparatus 110 obtained from the GPS information acquisition unit 112. Current location information of the left eye image and the right eye image may be obtained. In addition, a movement path of the mobile survey apparatus 110 may be generated from current location information of the left eye image and the right eye image. That is, the movement path is determined from the position information of the mobile surveying apparatus 110, and the left eye image and the right eye image acquired from the stereo image acquisition unit 111 are connected to each movement path. 3 shows a graph of the moving path generated from the moving path generating unit 131 and its location information. The left graph of FIG. 3 shows the path of the mobile surveying apparatus 110 in the city center by position coordinates, and the data on the right side shows actual position data corresponding to each position coordinate in the graph.

한편, 기구축된 도시공간 지리정보 데이터 베이스(120)는 상기 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등의 면적, 길이, 위치에 대한 정보 등을 포함하고 있다. 보다 구체적으로, 각 건물의 간판에 대한 정보, 즉 간판의 면적, 길이에 대한 정보도 포함하고 있다. 그러나, 기존에 구축된 도시공간 지리정보 데이터 베이스(120)는 각 건물 소유주 또는 관리자들로부터 신고된 정보에 기초하고 있어 그 정확성이 현저하게 떨어진다. 따라서, 본 발명에서는 기존에 구축된 데이터 베이스로부터 획득된 정보로부터 이에 대응되는 실제 촬영 영상을 탐색하고, 탐색 결과로부터 획득된 영상의 지리 정보를 이용하여 도시공간 지리정보를 생성함으로써 보다 정확한 데이터 베이스를 구축할 수 있게 된다.On the other hand, the structured urban geospatial information database 120 includes information on the area, length, location, etc. of the road facilities, buildings, road utility facilities and auxiliary facilities. More specifically, the information on the signage of each building, that is, information about the area and length of the signage is also included. However, the existing geospatial geospatial database 120 is based on the information reported from each building owner or managers, the accuracy is significantly reduced. Accordingly, in the present invention, a more accurate database can be obtained by searching for an actual photographed image corresponding to the captured image from information acquired from a previously constructed database, and generating urban spatial geographic information using geographic information of the image obtained from the search result. You can build it.

타겟 영상 추출부(132)는, 상기 GPS 정보 획득부(112)로부터 획득된 위치 정보에 따라 상기 위치 정보에 대응되는 타겟 영상을 상기 기구축된 도시공간 지리정보 데이터 베이스(120)로부터 추출할 수 있다. The target image extracting unit 132 may extract the target image corresponding to the position information from the mechanically coordinated urban space geographic information database 120 according to the position information acquired from the GPS information obtaining unit 112. have.

대응 영역 추출부(133)는 상기 타겟 영상 추출부(132)로부터 추출된 타겟 영상과 상기 이동 경로 생성부(131)로부터 생성된 각 이동 경로점에서의 좌안 영상 또는 우안 영상을 비교하여, 가장 유사한 영역인 대응 영역을 추출할 수 있다. 이때, 상기 대응 영역은 상기 각 이동 경로점에서의 좌안 영상 또는 우안 영상에 대한 정보로부터 추출될 수 있다. 여기서, 타겟 영상으로부터 대응 영역을 추출하는 과정에 대해서 상세히 살펴보도록 한다.
The corresponding region extracting unit 133 compares the target image extracted from the target image extracting unit 132 with the left eye image or the right eye image at each moving path point generated by the moving path generating unit 131 to obtain the most similar image. A corresponding area, which is an area, can be extracted. In this case, the corresponding region may be extracted from information about a left eye image or a right eye image at each of the moving path points. Here, the process of extracting the corresponding region from the target image will be described in detail.

도 2는 본 발명이 적용되는 실시예로서, 타겟 영상으로부터 대응 영역을 추출하는 과정을 설명하기 위해 나타낸 블록도이다.2 is an embodiment to which the present invention is applied and is a block diagram illustrating a process of extracting a corresponding region from a target image.

대응 영역 추출부(133)는 필터링부(133-1), 특징점 추출부(133-2), 벡터 변환부(133-3) 및 객체 탐색부(133-4)로 이루어진다. The correspondence region extractor 133 includes a filter 133-1, a feature point extractor 133-2, a vector converter 133-3, and an object searcher 133-4.

먼저, 상기 필터링부(133-1)는 상기 기구축된 도시공간 지리정보 데이터 베이스(120)로부터 추출된 타겟 영상을 다양한 분산값을 갖는 가우시안 필터에 통과시키고, 통과된 이미지들을 스케일에 따라 순차적으로 감산하여 차이 이미지를 생성한다. 상기 특징점 추출부(133-2)는 상기 생성된 차이 이미지로부터 극값(최대, 최소값)에 해당하는 픽셀의 위치를 추출할 수 있다. 여기서, 상기 극값(최대, 최소값)에 해당하는 픽셀의 위치는 선택된 픽셀값이 그에 이웃하는 8개의 픽셀과 스케일된 상,하 이미지의 9개 픽셀씩, 총 26개의 픽셀값보다 크거나 작을 경우로 결정된다. 즉, 상기 극값(최대, 최소값)에 해당하는 픽셀이 특징점으로 추출된다. First, the filtering unit 133-1 passes the target image extracted from the instrumented urban space geographic information database 120 through a Gaussian filter having various dispersion values, and sequentially passes the passed images according to the scale. Subtract to create a difference image. The feature point extractor 133-2 may extract a position of a pixel corresponding to an extreme value (maximum and minimum value) from the generated difference image. Herein, the position of the pixel corresponding to the extreme value (maximum and minimum value) is greater than or smaller than 26 pixel values, each of eight pixels adjacent to the selected pixel value and nine pixels of the scaled up and down images. Is determined. That is, pixels corresponding to the extreme values (maximum and minimum values) are extracted as feature points.

상기 벡터 변환부(133-3)는 상기 추출된 특징점들 중에서 노이즈 제거 및 강한 에지 성분을 제거하고, 남은 특징점들에 대하여 방향 정보 및 크기를 설정한다. 그리고, 상기 특징점을 중심으로 16x16 블록을 설정하고, 블록 내의 각 픽셀에 대하여 변화 방향을 측정한다. 상기 변화 방향은 변화 기울기에 비례하도록 설정되며, 변화 기울기가 클수록 변화 방향의 확률분포도 커지게 된다. 상기 변화 방향에 대한 확률분포는 8개의 방향으로 구분되어 저장되고, 이는 16x16 블록에 대하여 128 차원의 벡터 형태로 표현된다. The vector converter 133-3 removes noise and a strong edge component from the extracted feature points, and sets direction information and a magnitude of the remaining feature points. Then, a 16x16 block is set around the feature point, and the change direction is measured for each pixel in the block. The change direction is set to be proportional to the change slope, and the larger the change slope, the greater the probability distribution of the change direction. The probability distribution for the change direction is divided and stored in eight directions, which are represented in a 128-dimensional vector form for a 16x16 block.

상기 객체 탐색부(133-4)는 상기 타겟 영상의 특징점 벡터 정보와 좌안 영상(또는 우안 영상)의 특징점 벡터 정보를 비교하여 객체들 간의 매칭 여부를 확인함으로써 대응 영역을 추출하게 된다.The object searching unit 133-4 compares the feature point vector information of the target image with the feature point vector information of the left eye image (or the right eye image) and checks whether there is a match between objects to extract a corresponding region.

이처럼 대응 영역을 추출하는 과정은 도 4에서 나타난다. 도 4는 이동 경로 그래프 상의 임의의 위치 좌표에서의 촬영된 영상과 타겟 영상을 나타내고, 객체 식별 방법을 이용하여 상기 두 영상의 공통점을 추출하는 과정을 보여준다. 상기 객체 식별 방법을 적용하여 자동으로 공통점들을 추출함으로써 수작업으로 스테레오 영상 사이의 공통점들을 지정하지 않고 자동으로 다수 공통점을 확보하여 관성 항법 장치 없이도 정확한 위치 측정을 수행할 수 있다. 상기 객체 식별 방법은 도 5에서 상세히 설명하기로 한다.The process of extracting the corresponding region is shown in FIG. 4. FIG. 4 illustrates a photographed image and a target image at arbitrary position coordinates on a moving path graph, and illustrates a process of extracting a common point between the two images using an object identification method. By applying the object identification method and automatically extracting common points, a plurality of common points can be automatically obtained without specifying common points between stereo images manually, and accurate position measurement can be performed without an inertial navigation device. The object identification method will be described in detail with reference to FIG. 5.

이렇게 추출된 상기 대응 영역을 포함하는 좌안 영상과 우안 영상은 사진 측량 수행부(134)를 통하여 사진 측량을 수행하게 된다. 즉, 상기 좌안 영상과 우안 영상으로부터 영상 내 객체의 위치, 거리, 면적 및 속성 등에 대한 보다 정확한 정보를 획득할 수 있게 된다.The left eye image and the right eye image including the corresponding region extracted as described above are subjected to photogrammetry through the photogrammetry performing unit 134. That is, more accurate information about the position, distance, area, and property of an object in the image can be obtained from the left eye image and the right eye image.

만약, 상기 기구축된 도시공간 지리정보 데이터 베이스(120) 내에 상기 타겟 영상에 대한 정보가 존재하지 않는 경우에는, 상기 대응 영역 추출부(133)는 상기 이동 경로 생성부(131)로부터 생성된 각 이동 경로점에서의 좌안 영상과 우안 영상에 대한 지리 정보, 즉 영상 내 객체의 위치, 거리, 면적 및 속성 정보 등을 도로 선형 매칭 방법 또는 지적도 등을 연계하여 도시공간 지리정보 데이터 베이스의 초기화 정보로 이용할 수도 있다.If the information on the target image does not exist in the instrumented urban space geographic information database 120, the corresponding region extractor 133 may generate an angle generated by the movement path generator 131. Geographic information about the left eye image and right eye image at the moving path point, that is, the position, distance, area, and attribute information of the object in the image, are linked to the road linear matching method or cadastral map as initialization information of the urban spatial geographic information database. It can also be used.

도시공간 지리정보 생성부(135)는 이렇게 획득된 영상 내 객체의 위치, 거리, 면적 및 속성 정보 등을 이용하여 도시공간 지리정보를 생성할 수 있게 된다.The urban spatial geographic information generation unit 135 may generate urban spatial geographic information by using the position, distance, area, and attribute information of the object in the image thus obtained.

그리고, 상기 생성된 도시공간 지리정보는 업데이트 장치(140)를 통하여 상기 기구축된 도시공간 지리정보 데이터 베이스(120)로 전송되어 보다 정확한 도시공간 지리정보로 업데이트될 수 있다. 여기서, 상기 업데이트 장치(140)는 방송 송/수신 모듈, 이동 통신 모듈, 무선 인터넷 모듈, 또는 근거리 통신 모듈 등을 적용할 수 있으며, 방송 송/수신 모듈의 경우 상기 생성된 도시공간 지리정보를 방송신호로 송/수신할 수 있으며, 상기 이동통신 모듈은 이동 통신망 상에서 기지국, 상기 데이터 프로세싱 장치(130), 상기 기구축된 도시공간 지리정보 데이터 베이스(120) 중 적어도 하나와 무선 신호를 송수신한다. 또한, 무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 상기 무선 인터넷 모듈은 상기 데이터 프로세싱 장치(130) 또는 상기 기구축된 도시공간 지리정보 데이터 베이스(120)에 내장되거나 외장될 수 있다. 상기 근거리 통신 모듈은 근거리 통신을 위한 모듈을 말하며, 상기 데이터 프로세싱 장치(130)와 상기 기구축된 도시공간 지리정보 데이터 베이스(120)가 가까운 곳에 위치하고 있을 때 적용 가능하다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
The generated urban space geographic information may be transmitted to the instrumented urban space geographic information database 120 through the update device 140 and updated with more accurate urban space geographic information. Here, the update device 140 may apply a broadcast transmission / reception module, a mobile communication module, a wireless internet module, or a short-range communication module. In the case of a broadcast transmission / reception module, the updated urban space geographic information is broadcast. The mobile communication module transmits / receives a signal, and transmits / receives a wireless signal with at least one of a base station, the data processing device 130, and the pre-built urban spatial geographic information database 120 on a mobile communication network. In addition, the wireless Internet module refers to a module for wireless Internet access, and the wireless Internet module may be embedded in or external to the data processing apparatus 130 or the instrumented urban spatial geographic information database 120. The short range communication module refers to a module for short range communication, and is applicable when the data processing apparatus 130 and the instrumented urban spatial geographic information database 120 are located close to each other. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.

도 5는 본 발명이 적용되는 일실시예로서, 이동 측량 장치로부터 획득된 데이터를 이용하여 도시공간 지리정보를 생성하는 방법을 설명하기 위한 흐름도이다.FIG. 5 is a flowchart illustrating a method of generating urban spatial geographic information using data obtained from a mobile surveying apparatus according to an embodiment to which the present invention is applied.

먼저, 이동 측량 장치는 스테레오 영상을 획득할 수 있는 2대의 카메라를 장착하고 있으며, 현재 이동 측량 장치의 위치 정보를 획득할 수 있는 GPS 수신기를 장착하고 있다. 기존의 이동 측량 장치는 영상 획득 순간에 이동 측량 장치의 자세를 결정하는 IMU(Inertial Measurement Unit, 관성 측정 장치), INS(Inertial Navigation System, 관성 항법 장치), 그리고 영상과 위치 정보와의 동기를 맞추어 주는 데이터 동기화 장치 등을 장착하였다. 그러나, 상기 장치들은 고가의 장비일 뿐만 아니라, 도심 속에서는 그 기능을 제대로 발휘하지 못해 지리 정보의 정확도가 떨어지는 경향이 있다. 따라서, 본 발명에서는 상기 고가의 장비를 이용하지 않고 스테레오 영상을 획득할 수 있는 2대의 카메라와 현재 이동 측량 장치의 위치 정보를 획득할 수 있는 GPS 수신기만을 이용함으로써 현저한 비용 절감 효과를 가져올 수 있다. 또한, 본 발명은 객체 식별 방법을 이용하여 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등의 면적, 길이, 위치에 대한 정보를 획득함으로써 도심 내 지리 정보의 정확성을 향상시킬 수 있다.First, the mobile survey apparatus is equipped with two cameras capable of acquiring stereo images, and is currently equipped with a GPS receiver capable of acquiring position information of the mobile survey apparatus. Existing mobile surveying devices synchronize the inertial measurement unit (IMU), the inertial navigation system (INS), and the image and position information that determine the attitude of the mobile surveying device at the moment of image acquisition. The main is equipped with a data synchronization device. However, these devices are not only expensive equipment, but also do not function properly in urban areas, and thus the accuracy of geographic information tends to be inferior. Therefore, in the present invention, significant cost savings can be achieved by using only two cameras capable of acquiring stereo images and a GPS receiver capable of acquiring location information of the current mobile surveying device without using the expensive equipment. In addition, the present invention can improve the accuracy of geographic information in the city center by obtaining information on the area, length, location of road facilities, buildings, road occupancy facilities, and auxiliary facilities using the object identification method.

이동 측량 장치 내에 있는 GPS 수신기로부터 현재 이동 측량 장치의 위치 정보를 획득하고(S510), 상기 GPS 수신기로부터 획득된 현재 이동 측량 장치의 위치 정보는 상기 2대의 카메라로부터 획득된 영상 정보에 매핑된다. 즉, 도심 내 위치 좌표에 따른 스테레오 영상을 획득할 수 있다(S520). 한편, 기구축된 도시공간 지리정보 데이터 베이스로부터 원하는 위치 좌표에 대응되는 타겟 영상을 추출할 수 있다(S530).Obtaining location information of the current mobile surveying device from a GPS receiver in the mobile surveying device (S510), the location information of the current mobile surveying device obtained from the GPS receiver is mapped to image information obtained from the two cameras. That is, the stereo image according to the location coordinates in the city center may be obtained (S520). In operation S530, a target image corresponding to a desired location coordinate may be extracted from a mechanically coordinated urban space geographic information database.

상기 스테레오 영상과 상기 타겟 영상으로부터 공통점을 추출하여 객체들 간의 매칭 여부를 확인할 수 있다. 여기서, 본 발명이 적용되는 일실시예로서, 서로 다른 방향과 크기를 갖는 영상들로부터 크기와 회전에 불변한 특징점들을 추출함으로써 상기 공통점을 추출할 수 있다. 먼저, 상기 기구축된 도시공간 지리정보 데이터 베이스(120)로부터 추출된 타겟 영상을 다양한 분산값을 갖는 가우시안 필터에 통과시키고, 통과된 이미지들을 스케일에 따라 순차적으로 감산하여 차이 이미지를 생성한다. 이는 아래 수학식 1에 의해 수행될 수 있다.A common point may be extracted from the stereo image and the target image to check whether the objects match. Here, as an embodiment to which the present invention is applied, the common point may be extracted by extracting feature points invariant in size and rotation from images having different directions and sizes. First, a target image extracted from the instrumented urban space geographic information database 120 is passed through a Gaussian filter having various dispersion values, and the difference images are generated by sequentially subtracting the passed images according to a scale. This may be performed by Equation 1 below.

Figure 112010011187003-pat00001
Figure 112010011187003-pat00001

Figure 112010011187003-pat00002
Figure 112010011187003-pat00002

여기서, L(x,y,σ)는 가우시안 필터를 통과한 이미지의 함수값을 나타내고, G(x,y,σ)는 가우시안 필터를 나타내며, D(x,y,σ)는 스케일된 이미지와의 차이값을 나타낸다. 상기 생성된 차이 이미지로부터 극값(최대, 최소값)에 해당하는 픽셀의 위치를 추출할 수 있다. 여기서, 상기 극값(최대, 최소값)에 해당하는 픽셀의 위치는 선택된 픽셀값이 그에 이웃하는 8개의 픽셀과 스케일된 상,하 이미지의 9개 픽셀씩, 총 26개의 픽셀값보다 크거나 작을 경우로 결정된다. 즉, 상기 극값(최대, 최소값)에 해당하는 픽셀이 특징점으로써 추출된다(S540). 상기 추출된 특징점들 중에서 노이즈 제거 및 강한 에지 성분을 제거하고, 남은 특징점들에 대하여 방향 정보 및 크기를 설정한다. 방향 정보와 크기는 각각 아래 수학식 2와 3에 의해 결정된다.Where L (x, y, σ) represents the function value of the image passing through the Gaussian filter, G (x, y, σ) represents the Gaussian filter, and D (x, y, σ) represents the scaled image Indicates a difference value. A position of a pixel corresponding to an extreme value (maximum and minimum value) may be extracted from the generated difference image. Herein, the position of the pixel corresponding to the extreme value (maximum and minimum value) is greater than or smaller than 26 pixel values, each of eight pixels adjacent to the selected pixel value and nine pixels of the scaled up and down images. Is determined. That is, the pixel corresponding to the extreme value (maximum and minimum value) is extracted as the feature point (S540). Noise removal and strong edge components are removed from the extracted feature points, and direction information and size are set for the remaining feature points. Direction information and size are determined by Equations 2 and 3, respectively.

Figure 112010011187003-pat00003
Figure 112010011187003-pat00003

Figure 112010011187003-pat00004
Figure 112010011187003-pat00004

상기 특징점을 중심으로 16x16 블록을 설정하고, 블록 내의 각 픽셀에 대하여 변화 방향을 측정한다. 상기 변화 방향은 변화 기울기에 비례하도록 설정되며, 변화 기울기가 클수록 변화 방향의 확률분포도 커지게 된다. 상기 변화 방향에 대한 확률분포는 8개의 방향으로 구분되어 저장되고, 이는 16x16 블록에 대하여 128 차원의 벡터 형태로 표현된다(S550). 이와 같이 얻어진 상기 타겟 영상의 특징점 벡터 정보와 좌안 영상(또는 우안 영상)의 특징점 벡터 정보를 비교하여 객체들 간의 매칭 여부를 확인할 수 있다(S560). 그리고, 상기 탐색 결과에 기초하여 상기 타겟 영상 내 객체와 매칭되는 상기 스테레오 영상 내의 대응 영역을 추출할 수 있다(S570). A 16x16 block is set around the feature point, and the change direction is measured for each pixel in the block. The change direction is set to be proportional to the change slope, and the larger the change slope, the greater the probability distribution of the change direction. The probability distribution for the change direction is divided and stored in eight directions, which are represented in a 128-dimensional vector form for a 16x16 block (S550). The feature point vector information of the target image and the feature point vector information of the left eye image (or right eye image) obtained as described above may be compared to determine whether the objects match. In operation S570, a corresponding region in the stereo image that matches the object in the target image may be extracted based on the search result.

본 발명이 적용되는 다른 실시예로서, 객체 식별을 위해 필터링을 이용하여 대응 영역을 추출할 수 있다. 먼저, 영상 내 객체의 경계 영역을 확인하고 상기 경계 영역의 기하학적 특성을 이용하여 대응 영역을 추출할 수 있다. 예를 들어, 건물, 간판, 가로수 등은 각각의 기하학적 특성을 가지고 있으므로, 상기 건물, 간판, 가로수 등을 이루는 선분과 각 선분이 만나는 모서리의 점들만을 추출하여 비교함으로써 대응 영역을 추출할 수 있다.In another embodiment to which the present invention is applied, the corresponding region may be extracted using filtering for object identification. First, a boundary region of an object in an image may be identified and a corresponding region may be extracted using geometric characteristics of the boundary region. For example, since buildings, signs, roadside trees, etc. have their respective geometric characteristics, corresponding areas can be extracted by extracting and comparing only the points of the corners where the line segments meet each other. .

상기와 같이 추출된 대응 영역을 포함하는 좌안 영상 및 우안 영상은 사진 측량 수행부(134)를 통하여 사진 측량을 수행하게 된다. 상기 스테레오 영상 획득부(111)는 상기 이동 측량 장치(110)에 고정된 프레임으로 설치되어 카메라 축의 기울기가 고정되어 있고, 스테레오 카메라 사이의 기선이 고정되어 있으므로 스테레오 영상을 이용한 전방교회법으로 측정이 가능하다. 상기 전방교회법은 객체의 위치와 높이를 확인할 수 있는 검사점들을 더 많이 취득할수록 여러 결과 값의 평균을 낼 수 있어 보다 정확한 위치와 높이값을 기대할 수 있다. The left eye image and the right eye image including the corresponding region extracted as described above may perform photogrammetry through the photogrammetry performing unit 134. The stereo image acquisition unit 111 is installed as a frame fixed to the mobile surveying device 110, the tilt of the camera axis is fixed, and the baseline between the stereo camera is fixed, it is possible to measure by the front cross-section using a stereo image Do. In the forward intersection method, as more test points for identifying the position and height of an object are acquired, the resultant values can be averaged and more accurate position and height values can be expected.

이처럼, 상기 사진 측량을 통하여 상기 좌안 영상과 우안 영상으로부터 영상 내 객체의 위치, 거리, 면적 및 속성 등에 대한 보다 정확한 정보를 획득할 수 있게 된다. 이렇게 획득된 영상 내 객체의 위치, 거리, 면적 및 속성 정보 등을 이용하여 도시공간 지리정보를 생성할 수 있게 된다(S580). 그리고, 상기 생성된 도시공간 지리정보는 상기 기구축된 도시공간 지리정보 데이터 베이스로 전송되어 보다 정확한 도시공간 지리정보로 업데이트될 수 있다.As such, more accurate information about the position, distance, area, and property of an object in the image may be obtained from the left eye image and the right eye image through the photogrammetry. The geospatial geographic information can be generated using the position, distance, area, and attribute information of the object in the image thus obtained (S580). The generated urban space geographic information may be transmitted to the mechanically constructed urban space geographic information database and updated with more accurate urban space geographic information.

상기에서 설명한 바와 같이, 본 발명에서는 상기 고가의 장비를 이용하지 않고 영상 정보와 위치 정보를 획득함으로써 현저한 비용 절감 효과를 가져올 수 있고, 또한 객체 식별 방법을 이용함으로써 도심 내 지리 정보의 정확성을 향상시킬 수 있다.
As described above, in the present invention, it is possible to obtain a significant cost reduction effect by acquiring image information and location information without using the expensive equipment, and to improve the accuracy of geographical information in the city center by using the object identification method. Can be.

Claims (5)

도시공간 지리정보를 저장하되, 상기 도시공간 지리정보는 도로 시설물, 건물, 도로 점용 시설 및 부대 시설의 위치 정보, 거리 정보 및 면적 정보를 포함하는 기구축된 도시공간 지리정보 데이터 베이스;
이동 측량 장치의 위치 정보를 획득하는 GPS 정보 획득부;
상기 이동 측량 장치의 위치 정보에 대응되는 좌안, 우안 영상을 획득하는 스테레오 영상 획득부;
상기 획득된 좌안, 우안 영상 및 상기 이동 측량 장치의 위치 정보를 이용하여 상기 좌안, 우안 영상의 위치 정보를 획득하고, 상기 좌안, 우안 영상의 위치 정보로부터 상기 이동 측량 장치의 이동 경로를 생성하는 이동 경로 생성부;
상기 기구축된 도시공간 지리정보 데이터 베이스로부터 상기 좌안, 우안 영상의 위치 정보에 대응되는 타겟 영상을 추출하는 타겟 영상 추출부;
상기 추출된 타겟 영상과 상기 생성된 이동 경로의 각 위치 좌표에서의 좌안, 우안 영상을 비교하여 대응 영역을 추출하는 대응 영역 추출부;
상기 추출된 대응 영역에 대해 사진 측량을 수행하는 사진 측량 수행부;
상기 사진 측량 수행 결과로부터 상기 대응 영역 내의 도시공간 지리 정보를 획득하는 도시공간 지리정보 생성부; 및
상기 획득된 대응 영역 내의 도시공간 지리정보를 상기 기구축된 도시공간 지리정보 데이터 베이스로 전송하여 업데이트를 수행하는 업데이트부
를 포함하되,
상기 대응 영역 추출부는, 상기 추출된 타겟 영상에 대해 가우시안 필터링을 수행하는 필터링부와; 상기 필터링된 타겟 영상을 스케일링하여 원 타겟 영상과 스케일링된 타겟 영상에 대해 순차적으로 감산 연산을 수행하여 차이 영상을 생성하고, 상기 차이 영상으로부터 극값에 해당하는 특징점 픽셀의 위치 정보를 획득하는 특징점 추출부와; 상기 특징점 픽셀의 위치 정보에 기초하여 상기 특징점 픽셀의 크기와 방향 정보를 설정하고, 상기 설정된 특징점 픽셀의 크기와 방향 정보를 이용하여 상기 특징점 픽셀을 벡터 좌표로 변환하는 벡터 변환부를 포함하여 이루어지고,
상기 특징점 픽셀은 상기 차이 영상 내에서 최대값 또는 최소값에 해당하는 픽셀을 나타내며, 상기 특징점 픽셀의 크기는,
m(x,y) = {(L(x, y+1)-L(x, y-1))2/(L(x+1, y)-L(x-1, y))2}⌒(1/2)
에 의해 획득되고,
상기 특징점의 방향 정보는,
θ(x,y) = tan-1 ((L(x, y+1)-L(x, y-1))/(L(x+1, y)-L(x-1, y)))
에 의해 획득되고, 여기서, L(x,y)는 필터링된 영상 함수를 나타내며,
상기 벡터 변환부는 상기 특징점 픽셀을 128차원의 형태의 벡터 좌표로 변환하는 것을 특징으로 하는 도시공간의 지리정보 생성 시스템.
A geospatial geospatial information database for storing geospatial geospatial information, wherein the geospatial geospatial information includes location information, distance information, and area information of road facilities, buildings, road utility facilities, and auxiliary facilities;
A GPS information acquisition unit obtaining location information of the mobile surveying device;
A stereo image acquisition unit configured to acquire left and right eye images corresponding to position information of the mobile survey apparatus;
A movement of acquiring position information of the left eye and right eye images using the acquired left eye and right eye images and position information of the mobile survey apparatus, and generating a movement path of the mobile survey apparatus from position information of the left eye and right eye images A path generation unit;
A target image extracting unit which extracts a target image corresponding to position information of the left eye and right eye images from the instrumented urban spatial geographic information database;
A corresponding region extracting unit which extracts a corresponding region by comparing the extracted target image with left and right eye images at respective position coordinates of the generated movement path;
A photogramgram performing unit configured to perform photogrammetry on the extracted corresponding region;
A city-space geographic information generation unit for obtaining city-space geographic information in the corresponding area from the photogrammetry; And
An update unit which transmits the obtained urban space geographic information in the corresponding region to the instrumented urban space geographic information database to perform an update;
Including but not limited to:
The corresponding region extracting unit may include: a filtering unit which performs Gaussian filtering on the extracted target image; A feature point extractor which scales the filtered target image to sequentially subtract the original target image and the scaled target image to generate a difference image, and obtains position information of a feature pixel corresponding to an extreme value from the difference image. Wow; And a vector converter configured to set size and direction information of the feature point pixel based on the location information of the feature point pixel, and convert the feature point pixel into vector coordinates using the size and direction information of the set feature pixel.
The feature point pixel represents a pixel corresponding to a maximum value or a minimum value in the difference image, and the size of the feature point pixel is
m (x, y) = {(L (x, y + 1) -L (x, y-1)) 2 / (L (x + 1, y) -L (x-1, y)) 2 } ⌒ (1/2)
Obtained by
Direction information of the feature point,
θ (x, y) = tan -1 ((L (x, y + 1) -L (x, y-1)) / (L (x + 1, y) -L (x-1, y)) )
, Where L (x, y) represents the filtered image function,
And the vector converting unit converts the feature point pixel into vector coordinates in a 128-dimensional form.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020100015433A 2010-02-19 2010-02-19 A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point KR100981588B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100015433A KR100981588B1 (en) 2010-02-19 2010-02-19 A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100015433A KR100981588B1 (en) 2010-02-19 2010-02-19 A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020090093972A Division KR100959246B1 (en) 2009-10-01 2009-10-01 A method and a system for generating geographical information of city facilities using stereo images and gps coordination

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020100058846A Division KR101016071B1 (en) 2010-06-22 2010-06-22 An urban spatial image processing apparatus for obtaining a corresponding area based on vector transform from stereo images according to routes of mobile mapping equipment

Publications (1)

Publication Number Publication Date
KR100981588B1 true KR100981588B1 (en) 2010-09-10

Family

ID=43009992

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100015433A KR100981588B1 (en) 2010-02-19 2010-02-19 A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point

Country Status (1)

Country Link
KR (1) KR100981588B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013173383A1 (en) * 2012-05-15 2013-11-21 Brilakis Ioannis Methods and apparatus for processing image streams
KR20140066615A (en) * 2012-11-23 2014-06-02 현대엠엔소프트 주식회사 Apparatus and method for examination data
KR101428535B1 (en) 2013-08-07 2014-08-11 한국항공대학교산학협력단 Apparatus for driving image data process using global navigation satellite system
KR101992847B1 (en) * 2018-11-30 2019-06-25 대한민국 System for obtaining geographical data using uav and identifiable gcp based on image and method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100473331B1 (en) 2002-04-19 2005-03-08 주식회사 지피에스코리아 Mobile Mapping System and treating method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100473331B1 (en) 2002-04-19 2005-03-08 주식회사 지피에스코리아 Mobile Mapping System and treating method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013173383A1 (en) * 2012-05-15 2013-11-21 Brilakis Ioannis Methods and apparatus for processing image streams
KR20140066615A (en) * 2012-11-23 2014-06-02 현대엠엔소프트 주식회사 Apparatus and method for examination data
KR101977859B1 (en) 2012-11-23 2019-08-28 현대엠엔소프트 주식회사 Apparatus and method for examination data
KR101428535B1 (en) 2013-08-07 2014-08-11 한국항공대학교산학협력단 Apparatus for driving image data process using global navigation satellite system
KR101992847B1 (en) * 2018-11-30 2019-06-25 대한민국 System for obtaining geographical data using uav and identifiable gcp based on image and method thereof

Similar Documents

Publication Publication Date Title
TWI483215B (en) Augmenting image data based on related 3d point cloud data
US7733342B2 (en) Method of extracting 3D building information using shadow analysis
KR100884100B1 (en) System and method for detecting vegetation canopy using airborne laser surveying
JP5389964B2 (en) Map information generator
CN111028358B (en) Indoor environment augmented reality display method and device and terminal equipment
TW202001786A (en) Systems and methods for updating highly automated driving maps
CN112435300B (en) Positioning method and device
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
DE112011102132T5 (en) Method and device for image-based positioning
KR20190080009A (en) Automatic drawing method using lane information
US9208555B1 (en) Method for inspection of electrical equipment
KR101874498B1 (en) System and Method for Aerial Photogrammetry of Ground Control Point for Space Information Acquisition based on Unmanned Aerial Vehicle System
US20230334850A1 (en) Map data co-registration and localization system and method
KR20140055898A (en) Digital map generating system for performing spatial modelling through a distortion correction of image
CN114295139A (en) Cooperative sensing positioning method and system
JPWO2016031229A1 (en) Road map creation system, data processing device and in-vehicle device
KR100981588B1 (en) A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point
US9372081B2 (en) Method and system for geo-referencing at least one sensor image
CN110749323B (en) Method and device for determining operation route
CN113706594A (en) System and method for generating three-dimensional scene information and electronic equipment
KR101234917B1 (en) Method and system for generating 3-dimensional space data using image correction by threshold applied a weight information
Smaczyński et al. Low aerial imagery–an assessment of georeferencing errors and the potential for use in environmental inventory
KR101016071B1 (en) An urban spatial image processing apparatus for obtaining a corresponding area based on vector transform from stereo images according to routes of mobile mapping equipment
JP2022511147A (en) Systems and methods to facilitate the generation of geographic information
KR100959246B1 (en) A method and a system for generating geographical information of city facilities using stereo images and gps coordination

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130628

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140613

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160704

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20181004

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190819

Year of fee payment: 10