KR101720761B1 - system for building three-dimensional space information using MMS and multi-directional tilt aerial photos - Google Patents

system for building three-dimensional space information using MMS and multi-directional tilt aerial photos Download PDF

Info

Publication number
KR101720761B1
KR101720761B1 KR1020160133584A KR20160133584A KR101720761B1 KR 101720761 B1 KR101720761 B1 KR 101720761B1 KR 1020160133584 A KR1020160133584 A KR 1020160133584A KR 20160133584 A KR20160133584 A KR 20160133584A KR 101720761 B1 KR101720761 B1 KR 101720761B1
Authority
KR
South Korea
Prior art keywords
image
information
module
image information
aerial photograph
Prior art date
Application number
KR1020160133584A
Other languages
Korean (ko)
Inventor
조우진
Original Assignee
(주)엔토포스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엔토포스 filed Critical (주)엔토포스
Priority to KR1020160133584A priority Critical patent/KR101720761B1/en
Application granted granted Critical
Publication of KR101720761B1 publication Critical patent/KR101720761B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/006Geometric correction
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

The present invention relates to a system for building three-dimensional space information using an MMS and a multi-directional tilt aerial photo and, more specifically, to a system for building three-dimensional space information using the MMS and the multi-directional tilt aerial photo, wherein ground topography feature information are more accurately and efficiently obtained through a mobile mapping device (MMS) and the ground topography feature is combined with the multi-directional tilt aerial photo, thereby accurately building three-dimensional space information.

Description

엠엠에스 및 다방향 경사 항공사진을 이용한 3차원 공간정보 구축시스템{system for building three-dimensional space information using MMS and multi-directional tilt aerial photos}[0001] The present invention relates to a system for building three-dimensional spatial information using MMS and multi-directional oblique aerial photographs,

본 발명은 엠엠에스 및 다방향 경사 항공사진을 이용한 3차원 공간정보 구축시스템에 관한 것으로, 보다 상세하게는 모바일 매핑 장치(MMS)를 통한 지상 지형 지물 정보 취득을 더욱 더 정확하고 효율적으로 수행하여 다방향 경사 항공사진과 조합하여 3차원 공간정보를 정교하게 구축할 수 있도록 한 엠엠에스 및 다방향 경사 항공사진을 이용한 3차원 공간정보 구축시스템에 관한 것이다.The present invention relates to a three-dimensional spatial information construction system using MMS and a multidirectional oblique aerial photograph, more specifically, to more accurately and efficiently acquire terrain topographical information through a mobile mapping device (MMS) The present invention relates to a three-dimensional spatial information construction system using an MMS and a multi-directional oblique aerial photograph so as to precisely construct three-dimensional spatial information in combination with directional inclined aerial photographs.

일반적으로, 기존의 항공측량을 이용한 3D 공간 모델링 방법은 획득된 건물의 촬영된 부위까지만 이용할 수 있어 강제적으로 건물의 끝부분까지 영상을 확장시켜 완성시키는 작업 과정으로 진행되었다.In general, the 3D space modeling method using existing aerial surveying is available only up to the photographed part of the acquired building, and the process has been forcibly extended to the end of the building.

이렇게 영상을 강제적으로 확장시켰기 때문에 가시성이 현저히 떨어질 뿐만 아니라, 객체에 대한 정확한 좌표 정보도 획득할 수 없어 모델링 작업완료 후에도 사용자에게 보다 현실감 있는 영상 데이터를 제공하기 어려웠다.Since the image has been forcibly expanded, not only the visibility is significantly lowered but also the accurate coordinate information about the object can not be obtained, and it is difficult to provide more realistic image data to the user even after completing the modeling work.

또한, 종래의 공간 모델링 방법은 현장조사를 통해 수작업으로 구축된 데이터를 활용함으로써 과도한 인건비가 발생하게 되고, 이러한 수작업으로 인해 지리정보의 오류가 빈번하게 발생될 뿐만 아니라 수정 및 갱신이 어렵다는 단점이 있었다.In addition, the conventional space modeling method has a disadvantage in that an excessive labor cost is generated by utilizing data constructed manually by field investigation, and errors of geographical information are frequently generated due to such manual operation, and it is difficult to correct and update .

이러한 단점을 극복하기 위해 모바일 매핑 시스템(MMS;Mobile Mapping System) 등 최신 측량장비를 이용하여 건물 및 도로 시설물에 대한 지리정보 데이터를 구축하고 있다.To overcome these drawbacks, geographic information data on buildings and road facilities are being constructed using the latest surveying equipment such as Mobile Mapping System (MMS).

그러나, 보정점 측량 등으로 인해 비용이 많이 소요될 뿐만 아니라, 측정된 영상의 왜곡 등으로 인해 정확한 좌표 정보를 획득하기 어렵고, 더욱이 도심지에서는 그 정보의 정확도가 결여되어 지리 정보 데이터 베이스 구축에 많은 문제점을 초래하고 있다.However, it is difficult to acquire precise coordinate information due to distortion of the measured image, and the like. In addition, since the accuracy of the information is lacking in the urban area, there are many problems in building a geographic information database .

대한민국 특허 등록번호 제10-1234961호(2013.02.13.) '항공사진과 MMS(Mobile Mapping System) 기술을 이용한 자동 3D 공간 모델링 방법 및 시스템'Korean Patent Registration No. 10-1234961 (Feb. 23, 2013) 'Automatic 3D space modeling method and system using aerial photograph and MMS (Mobile Mapping System)

본 발명은 상술한 바와 같은 종래 기술상의 제반 문제점들을 감안하여 이를 해결하고자 창출된 것으로, 이동 측량 장비를 통해 획득된 영상을 획득한 후 필터링 과정을 통해 영상의 휘어짐 현상을 보정함으로써 보다 정확한 3차원 공간좌표 정보를 획득하고, 영상 보정을 위한 매개변수 추출시 가중치가 적용된 임계값을 이용하여 필터링을 수행함으로써 보다 세밀한 영상 보정을 수행하며, 영상 보정을 위한 매개변수 추출시 에러 요소를 중복적으로 제거함으로써 보다 세밀한 영상 보정을 수행할 수 있는 엠엠에스 및 다방향 경사 항공사진을 이용한 3차원 공간정보 구축시스템을 제공함에 그 주된 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems in the prior art, and it is an object of the present invention to provide a three- The coordinate information is obtained and filtering is performed using the weighted threshold value in extracting parameters for image correction to perform finer image correction and error components are redundantly removed in parameter extraction for image correction There is provided a three-dimensional spatial information construction system using MMS and a multidirectional oblique aerial photograph capable of performing more detailed image correction.

본 발명은 상기한 목적을 달성하기 위한 수단으로, 항공사진과 모바일 매핑 시스템을 이용한 3차원 공간정보를 구축할 때 복수개의 카메라로부터 영상 정보를 획득하는 촬영 영상 획득 모듈; 인공 위성으로부터 GPS 정보를 수신하여 상기 카메라의 현재 위치 정보를 획득하는 GPS 수신 모듈; 복수개의 센서를 이용하여 상기 카메라의 수평 정보를 획득하는 관성 측정 모듈; 상기 영상 정보, 상기 현재 위치 정보 및 수평 정보에 기초하여 상기 영상 정보를 보정하는 영상 처리 모듈; 상기 영상 정보, 현재 위치 정보 및 수평 정보를 상기 영상 처리 모듈로 전송할 수 있도록 제어하는 컨트롤 모듈; 및 영상 정보를 저장하는 버퍼를 포함하는 모바일 매핑 장치; 상기 모바일 매핑 장치로부터 상기 영상 정보를 수신하여 저장하거나 외부 데이터베이스로부터 항공사진 데이터를 수신하여 저장하는 항공사진 데이터베이스; 상기 모바일 매핑 장치로부터 획득된 영상 정보와 상기 항공사진 데이터베이스로부터 획득된 항공사진 데이터를 비교하여 대상 객체를 결정하고, 상기 결정된 대상 객체 정보를 이용하여 3차원 공간 모델링을 수행하는 데이터처리 모듈; 및 사용자로부터 공간 모델링 서비스에 대한 요청 정보를 수신하여 상기 모바일 매핑 장치, 상기 항공사진 데이터베이스 및 상기 데이터 처리 모듈로 전송하고, 상기 데이터 처리 모듈로부터 획득된 3차원 공간 데이터를 사용자에게 송신하는 통신 모듈; 을 포함하되, 상기 영상 처리 모듈은 상기 촬영 영상 획득 모듈로부터 수신된 상기 영상 정보로부터 커브를 검출하여 제1보정 그룹을 설정하고, 상기 영상 정보로부터 상기 제1보정 그룹을 제거하고, 상기 제1보정 그룹이 제거된 영상 정보로부터 3차원 좌표 상에서 중심점으로부터 임계값을 벗어나는 선들을 제2보정 그룹으로 설정하고, 상기 제1보정 그룹이 제거된 영상 정보로부터 상기 제 2 보정 그룹을 제거하되, 상기 임계값은

Figure 112017021574371-pat00033
(여기서, am 은 영상 중심점에서 곡선의 현에 내린 수선의 길이를 나타내고, R은 영상 대각선의 길이를 나타내고, m = 1~M , M은 선의 개수를 나타내며, ψ는 사용자 파라미터를 나타냄)에 의해 획득되는 필터링 모듈; 상기 제1보정 그룹과 상기 제2보정 그룹이 제거된 영상 정보에 기초하여, 영상의 휘어짐 정도를 나타내는 매개변수를 추출하는 매개변수 추출 모듈; 상기 매개변수를 이용하여 상기 영상 정보의 보정을 수행하는 영상보정 모듈을 구비한 3차원 공간정보 구축시스템에 있어서;
상기 모바일 매핑 장치를 차량(1)에 탑재하되, 차량(1)의 운전석(DRV)에는 주제어기인 컨트롤 모듈(150)과 통신하여 제어되는 제어패널(CTR)이 설치되고, 상기 제어패널(CTR)은 구동유닛(10)을 제어하도록 구성되며, 구동유닛(10)은 차량(1)의 상면을 관통하여 차량(1) 내부에 형성된 수납챔버(CHM)로 수납될 수 있도록 승강 가능하게 설치되고; 차량(1)의 천정에서 차량 내부의 수납챔버(CHM)에 매립되어 승하강 가능하게 설치되는 받침플레이트(12)와, 상기 받침플레이트(12) 상에 베어링고정된 메인축(22)과, 상기 메인축(22)과 일체를 이루면서 상기 메인축(22) 보다 더 큰 직경을 갖는 원형단면을 갖는 원형상의 서브축(24)과, 상기 서브축(24)의 원주방향으로 형성된 래크(26)와, 상기 래크(26)에 치결합된 피니언(28)과, 상기 피니언(28)이 고정되고 상기 받침플레이트(12) 상에 고정된 회동모터(30)와, 상기 서브축(24)의 상단에 고정된 상판(32)과, 상기 상판(32)에 안착된 사각프레임(34)과, 상기 사각프레임(34)을 관통하여 양단이 각각 자회전가능하게 베어링고정되되 길이 중앙을 기준으로 좌우 양측이 반대방향으로 스크류 가공된 볼스크류(36)와, 상기 볼스크류(36)의 사각프레임(34)을 관통한 일단에 고정된 종동기어(38)와, 상기 종동기어(38)에 기어결합하는 구동기어(40)와, 상기 구동기어(40)가 고정되고 상기 사각프레임(34)의 일측 외면에 고정된 구동모터(42)와, 상기 볼스크류(36)에 치결합된 상태로 끼워져 볼스크류(36)의 회전방향에 따라 모아지거나 벌어지는 형태로 유동하는 제1,2유동블럭(44a,44b)과, 상기 사각프레임(34)의 마주보는 내측면에 일정길이 형성된 가이드홈(46)과, 일단은 상기 가이드홈(46)에 끼워지고 타단은 상기 제1,2유동블럭(44a,44b)의 양측면에 나사조립되는 가이드바(48)와, 상기 제1,2유동블럭(44a,44b)의 각 외측면에 설치된 회전봉기동모터(50)와, 상기 제1,2유동블럭(44a,44b)의 상부에 설치되고 상기 회전봉기동모터(50)에 의해 회전제어되며 상단에는 각각 좌안 영상카메라(CAM1)와 우안 영상카메라(CAM2)가 설치된 회전봉(48)을 포함하는 것을 특징으로 하는 엠엠에스 및 다방향 경사 항공사진을 이용한 3차원 공간정보 구축시스템을 제공한다.An object of the present invention is to provide an image capture module for acquiring image information from a plurality of cameras when constructing three-dimensional spatial information using aerial photographs and a mobile mapping system. A GPS receiving module for receiving GPS information from a satellite and obtaining current position information of the camera; An inertia measurement module for obtaining horizontal information of the camera using a plurality of sensors; An image processing module for correcting the image information based on the image information, the current position information, and the horizontal information; A control module for controlling the image information, current position information and horizontal information to be transmitted to the image processing module; And a buffer for storing image information; An aerial photograph database for receiving and storing the image information from the mobile mapping device or receiving and storing aerial photograph data from an external database; A data processing module for determining a target object by comparing the image information obtained from the mobile mapping device with the aerial photograph data obtained from the aerial photograph database, and performing three-dimensional space modeling using the determined target object information; And a communication module for receiving request information for a spatial modeling service from a user, transmitting the request information to the mobile mapping device, the aerial photograph database, and the data processing module, and transmitting the three-dimensional spatial data obtained from the data processing module to a user; Wherein the image processing module detects a curve from the image information received from the captured image acquisition module to set a first correction group, removes the first correction group from the image information, Sets the lines out of the threshold value from the center point on the three-dimensional coordinates as the second correction group from the image information from which the group is removed, removes the second correction group from the image information from which the first correction group is removed, silver
Figure 112017021574371-pat00033
(Where am denotes the length of the waterline at the center of the curve at the center of the image, R denotes the length of the image diagonal, m = 1 to M, M denotes the number of lines, and ψ denotes the user parameter) A filtering module to be obtained; A parameter extracting module for extracting a parameter indicating a degree of warping of the image based on the image information from which the first correction group and the second correction group have been removed; And an image correction module for performing correction of the image information using the parameters, the system comprising:
A control panel CTR is installed in the driver's seat DRV of the vehicle 1 in communication with the control module 150 which is a main controller and the control panel CTR is installed in the driver's seat DRV of the vehicle 1, And the drive unit 10 is elevably installed so as to be housed in a storage chamber CHM formed inside the vehicle 1 through the upper surface of the vehicle 1; A main shaft 22 fixed to the bearing plate 12 by bearings, a support shaft 12 fixedly mounted on the support plate 12, A circular sub shaft 24 integrally formed with the main shaft 22 and having a circular cross section and having a diameter larger than that of the main shaft 22 and a rack 26 formed in the circumferential direction of the sub shaft 24 A pinion 28 coupled to the rack 26 and a rotary motor 30 fixed to the pinion 28 and fixed to the support plate 12; A rectangular frame 34 seated on the upper plate 32 and fixed to the frame so that both ends of the rectangular frame 34 are rotatable through the square frame 34, A ball screw 36 which is screwed in an opposite direction and a ball screw 36 which is fixed to one end of the square frame 34 of the ball screw 36 A drive gear 40 fixed to the outer surface of one side of the rectangular frame 34 and fixed to the drive gear 40; First and second flow blocks 44a and 44b that are inserted into the ball screw 36 in a state of being engaged with the ball screw 36 and flow in a manner of gathering or spreading according to the rotation direction of the ball screw 36, A guide groove 46 having one end fixed to the guide groove 46 and the other end screwed on both sides of the first and second flow blocks 44a and 44b; A rotary bar start motor 50 provided on each of the outer surfaces of the first and second flow blocks 44a and 44b and a second rotary block 44 installed on the first and second flow blocks 44a and 44b, And a rotation bar 48 which is rotatably controlled by a starter motor 50 and has upper left and lower right image cameras CAM1 and CAM2, And a three-dimensional spatial information construction system using multi-directional oblique aerial photographs.

본 발명에 따르면, MMS를 통해 획득된 영상을 획득한 후 필터링 과정을 통해 영상의 휘어짐 현상을 보정함으로써 보다 정확한 3차원 공간좌표 정보를 획득하는 효과를 얻을 수 있다.According to the present invention, it is possible to acquire more accurate three-dimensional space coordinate information by correcting the warping phenomenon of an image through filtering after acquiring an image acquired through MMS.

도 1은 본 발명이 적용되는 실시예로서, 3차원 공간정보 구축시스템의 개략적인 블록도를 나타낸다.
도 2는 본 발명이 적용되는 일실시예로서, 3차원 공간정보 구축시스템을 구성하는 영상 처리 모듈의 개략적인 내부 블록도를 나타낸다.
도 3은 본 발명이 적용되는 일실시예로서, 3차원 공간정보 구축시스템을 구성하는 제1보정 그룹과 제2보정 그룹을 정의함으로써 영상 보정을 수행하는 방법을 설명하기 위한 좌표계를 나타낸다.
도 4는 본 발명이 적용되는 일실시예로서, 영상 보정을 위해 가중치 적용된 임계값 산출 과정을 설명하기 위한 좌표계를 나타낸다.
도 5는 본 발명이 적용되는 일실시예로서, 3차원 공간정보 구축시스템을 구성하는 데이터 처리 모듈의 개략적인 내부 블록도를 나타낸다.
도 6은 본 발명이 적용되는 일실시예로서, 대상 객체의 좌표 정보를 이용하여 3차원 좌표 정보를 모델링하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명이 적용되는 일실시예로서, 3차원 공간 모델링 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명이 적용되는 일실시예로서, 3차원 공간 모델링을 위해 카메라로부터 획득된 영상을 보정하는 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명이 적용되는 일실시예로서, 3차원 공간 모델링을 위해 보정된 영상으로부터 대상 객체의 좌표 정보를 획득하기 위한 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명이 적용되는 일실시예로서, 3차원 공간정보 구축시스템을 구성하는 모바일 매핑 장치에서 구동유닛을 보인 예시도이다.
도 11은 도 10의 구동유닛 중 회전구동부를 보인 예시도이다.
Fig. 1 shows a schematic block diagram of a three-dimensional spatial information construction system to which the present invention is applied.
2 is a schematic block diagram of an image processing module constituting a three-dimensional spatial information construction system according to an embodiment of the present invention.
FIG. 3 shows a coordinate system for explaining a method of performing image correction by defining a first correction group and a second correction group constituting a three-dimensional spatial information construction system according to an embodiment of the present invention.
FIG. 4 shows a coordinate system for explaining a weighted threshold calculation process for image correction according to an embodiment of the present invention. Referring to FIG.
5 is a schematic internal block diagram of a data processing module constituting a three-dimensional spatial information construction system according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating a method of modeling three-dimensional coordinate information using coordinate information of a target object according to an embodiment of the present invention. Referring to FIG.
FIG. 7 is a flowchart for explaining a three-dimensional space modeling method according to an embodiment to which the present invention is applied.
8 is a flowchart for explaining a method of correcting an image obtained from a camera for three-dimensional space modeling according to an embodiment of the present invention.
9 is a flowchart for explaining a method for acquiring coordinate information of a target object from a corrected image for three-dimensional space modeling according to an embodiment of the present invention.
10 is an exemplary diagram illustrating a driving unit in a mobile mapping apparatus constituting a three-dimensional spatial information construction system according to an embodiment of the present invention.
FIG. 11 is an exemplary view showing the rotation drive unit of the drive unit of FIG. 10; FIG.

이하에서는, 첨부도면을 참고하여 본 발명에 따른 바람직한 실시예를 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명 설명에 앞서, 이하의 특정한 구조 내지 기능적 설명들은 단지 본 발명의 개념에 따른 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며, 본 명세서에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니된다.Before describing the present invention, the following specific structural or functional descriptions are merely illustrative for the purpose of describing an embodiment according to the concept of the present invention, and embodiments according to the concept of the present invention may be embodied in various forms, And should not be construed as limited to the embodiments described herein.

또한, 본 발명의 개념에 따른 실시예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로, 특정 실시예들은 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시 형태에 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경물, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In addition, since the embodiments according to the concept of the present invention can make various changes and have various forms, specific embodiments are illustrated in the drawings and described in detail herein. However, it should be understood that the embodiments according to the concept of the present invention are not intended to limit the present invention to specific modes of operation, but include all modifications, equivalents and alternatives falling within the spirit and scope of the present invention.

본 발명에 따른 구체적인 설명에 앞서, 공간 모델링 시스템(Space Modeling System)은 공간상 위치를 점유하는 지리 자료와 이에 관련된 속성 자료를 통합하여 처리하는 정보 시스템으로서 다양한 형태의 지리 정보를 효율적으로 수집, 저장, 갱신, 처리, 분석, 출력하기 위해 이용되는 하드웨어, 소프트웨어, 지리자료, 인적자원의 총체적 조직체라고 정의할 수 있으며, 이를 통해 공간 정보의 다양한 활용이 용이해졌다. 다만, 급변하는 도심 내의 보다 명확하고 현실감 있는 지리 정보를 제공하기 위해서는 이동 측량 데이터를 효율적으로 이용할 필요가 있다.Prior to the detailed description of the present invention, a space modeling system is an information system that integrates geographical data occupying a spatial position and attribute data related thereto, and efficiently collects and stores various types of geographical information Software, geographical data, and human resources used to update, process, analyze, and output data. This makes it easier to use various kinds of spatial information. However, in order to provide clear and realistic geographical information in a rapidly changing city center, it is necessary to use the mobile surveying data efficiently.

덧붙여, 본 발명은 선행기술인 등록특허 제10-1234961호의 기술을 대부분 그대로 이용하며, 추가적으로 항공사진의 취약성을 보완할 수 있는 구성을 더 포함하는 것을 주된 특징으로 하여 부가 설명하는 방식으로 기술하기로 한다. 다만, 등록특허에서 3차원 공간 모델링 시스템이라고 기재한 용어를 3차원 공간정보 구축시스템으로만 바꾸어 칭하기로 한다.It should be noted that the present invention will be described in further detail with the main feature that most of the techniques of the prior art No. 10-1234961 are used as it is, . However, in the registered patent, the term described as the three-dimensional space modeling system is referred to as a three-dimensional spatial information construction system only.

도 1을 참조하면, 본 발명이 적용되는 3차원 공간정보 구축시스템은 크게 모바일 매핑 장치(100), 통신 모듈(200), 업데이트 모듈(300), 항공사진 데이터베이스(400) 및 데이터 처리 모듈(500)로 구성되고, 상기 모바일 매핑 장치(100)는 촬영 영상 획득 모듈(110), 영상처리 모듈(120), 관성측정 모듈(130), GPS 수신모듈(140), 컨트롤 모듈(150) 및 버퍼(160)로 구성될 수 있다.1, a three-dimensional spatial information construction system to which the present invention is applied includes a mobile mapping apparatus 100, a communication module 200, an update module 300, an aerial photograph database 400, and a data processing module 500 The mobile mapping device 100 includes an image pickup module 110, an image processing module 120, an inertia measurement module 130, a GPS reception module 140, a control module 150, 160).

여기서, 공간 모델이란 3차원 이미지 내에서 공간을 차지하는 객체, 예를 들어, 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등을 의미할 수 있다. Here, the spatial model may mean an object occupying a space in a three-dimensional image, for example, a road facility, a building, a road facility, and an auxiliary facility.

그리고, 공간 모델 정보라 함은, 상기 객체, 즉 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등의 위치, 거리, 면적, 속성 정보 등을 의미할 수 있다.The spatial model information may refer to the location, distance, area, and property information of the object, i.e., a road facility, a building, a road facility, and an auxiliary facility.

상기 모바일 매핑 장치(100)는 대상 지역 내의 경로를 이동하면서 대상 지역 내의 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등을 측량할 수 있다. The mobile mapping apparatus 100 can measure a road facility, a building, a road-use facility, and an auxiliary facility in a target area while moving the route in the target area.

상기 모바일 매핑 장치(100)는 이동하면서 측량 가능한 장치를 의미하며, 그 예로 측량 가능한 카메라를 장착한 자동차, 비행기 등을 들 수 있다.The mobile mapping device 100 refers to a moving and measurable device, for example, a car or a plane equipped with a measurable camera.

촬영 영상 획득 모듈(110)는 좌안 영상 카메라와 우안 영상 카메라로 구성될 수 있으며, 좌안 영상 카메라와 우안 영상 카메라를 이용하여 상기 도로 시설물, 건물, 도로 점용 시설 및 부대 시설을 촬영함으로서 스테레오 영상을 획득할 수 있다. The photographed image acquisition module 110 may include a left-eye image camera and a right-eye image camera. The photographed image acquisition module 110 may acquire stereo images by photographing the road facilities, buildings, road facilities, and auxiliary facilities using a left- can do.

이 경우, 상기 촬영 영상 획득 모듈(110)은 상기 모바일 매핑 장치(100)의 흔들림으로 인한 촬영 당시의 카메라 흔들림 또는 카메라 렌즈 자체가 가지고 있는 휘어짐 문제 등으로 인해 획득된 영상의 보정이 필요하게 된다. In this case, the captured image acquisition module 110 needs to correct the acquired image due to the camera shake at the time of shooting due to the shake of the mobile mapping device 100, or a bending problem of the camera lens itself.

따라서, 본 발명이 적용되는 실시예에서는 이러한 영상의 보정을 위해 보정 매개변수를 추정하는 방법 및 가중치를 적용한 새로운 임계값 산정 방법을 제안하고자 한다. Therefore, in the embodiment to which the present invention is applied, a method of estimating a correction parameter for correcting such an image and a new threshold value calculating method using weighting are proposed.

이에 대해서는 도 3 및 도 4에서 보다 상세히 설명하도록 한다.This will be described in more detail in Fig. 3 and Fig.

상기 촬영 영상 획득 모듈(110)은 상기 모바일 매핑 장치(100) 내 장착된 카메라로부터 획득된 좌안 영상과 우안 영상을 획득하고, 상기 GPS 수신 모듈(140)로부터 획득된 상기 모바일 매핑 장치(100)의 위치 정보를 이용하여 상기 좌안 영상과 상기 우안 영상의 현재 위치 정보를 획득할 수 있다. The captured image acquisition module 110 acquires the left eye image and the right eye image acquired from the camera mounted in the mobile mapping device 100 and acquires the left eye image and the right eye image from the GPS receiving module 140, The current position information of the left eye image and the right eye image can be obtained using the position information.

그리고, 상기 좌안 영상과 상기 우안 영상의 현재 위치 정보로부터 상기 모바일 매핑 장치(100)의 이동 경로를 생성할 수 있다. The moving path of the mobile mapping apparatus 100 can be generated from the current position information of the left eye image and the right eye image.

즉, 상기 모바일 매핑 장치(100)의 위치 정보로부터 이동 경로를 결정하고 각 이동 경로마다, 상기 카메라로부터 획득된 좌안 영상과 우안 영상을 매칭시킬 수 있다.That is, the movement path may be determined from the position information of the mobile mapping apparatus 100, and the left eye image and the right eye image acquired from the camera may be matched for each movement path.

관성측정 모듈(130)은 다중 센서를 이용하여 센싱 정보를 수신함으로써 상기 모바일 매핑 장치(100)의 수평 정보를 획득할 수 있고, 이러한 수평 정보를 활용하여 보다 세밀한 영상 보정을 수행할 수 있다. The inertia measurement module 130 can acquire the horizontal information of the mobile mapping apparatus 100 by receiving sensing information using multiple sensors, and can perform more detailed image correction using the horizontal information.

본 발명이 적용되는 실시예로, 상기 관성측정 모듈(130)은 100Hz 간격으로 데이터를 로깅한다.In an embodiment to which the present invention is applied, the inertia measurement module 130 logs data at intervals of 100 Hz.

GPS 수신 모듈(140)은 인공 위성으로부터 GPS 정보를 수신받아 상기 모바일 매핑 장치(100)의 현재 위치 정보를 획득할 수 있다. The GPS receiving module 140 may receive the GPS information from the satellites and obtain the current position information of the mobile mapping device 100. [

상기 모바일 매핑 장치(100)는, 상기 GPS 수신 모듈(140)을 통해 도심지에서의 차량의 위치 정보를 획득하고, 다중 센서 정보의 시각 동기화를 위해 IMU(Inertial Measurement Unit), 데이터 동기화 장치 등을 통해 수평 정보를 획득함으로써 보다 정확한 3D 공간 모델링을 수행할 수 있게 된다. The mobile mapping device 100 acquires location information of a vehicle in a city center through the GPS receiving module 140 and transmits the location information of the vehicle through an IMU (Inertial Measurement Unit) By obtaining horizontal information, more accurate 3D space modeling can be performed.

본 발명이 적용되는 실시예로, 상기 GPS 수신 모듈(140)은 1Hz 간격으로 데이터를 로깅한다.In an embodiment to which the present invention is applied, the GPS receiving module 140 logs data at intervals of 1 Hz.

영상처리 모듈(120)은 획득된 영상의 보정을 위해 상기 관성측정 모듈(130)로부터 획득된 수평 정보 및 상기 GPS 수신 모듈(140)로부터 획득된 위치 정보를 활용하여 매개변수를 산출하게 된다. The image processing module 120 calculates parameters by using the horizontal information obtained from the inertia measurement module 130 and the position information obtained from the GPS receiving module 140 for correction of the acquired image.

본 발명이 적용되는 상기 매개변수 산출 방법은 3D 영상에서의 직선은 2D 영상으로 변환되어도 직선이 된다는 점을 이용하게 된다. The parameter calculation method to which the present invention is applied is that a straight line in a 3D image is a straight line even if it is converted into a 2D image.

즉, 3D 영상의 직선이 아닌 선들을 검출하고 이를 배제한 후 영상 보정을 수행함으로써 보다 명확한 3D 공간 모델링이 가능할 수 있다. That is, more accurate 3D space modeling can be performed by detecting lines that are not straight lines of the 3D image, excluding them, and then performing image correction.

또한, 상기 매개변수를 산출하는 과정에서 임계치를 벗어나는 선들을 배제함으로써 보다 빠른 3D 공간 모델링이 가능할 수 있다. In addition, in the process of calculating the parameters, faster 3D space modeling can be performed by excluding lines out of the threshold.

이러한 실시예들의 상세한 설명은 도 3 및 도 4에서 하도록 한다.A detailed description of these embodiments is given in Figs. 3 and 4. Fig.

컨트롤 모듈(150)은 상기 촬영 영상 획득 모듈(110)로부터 획득된 좌안 영상과 우안 영상, 상기 관성측정 모듈(130)로부터 획득된 수평 정보 및 상기 GPS 수신 모듈(140)로부터 획득된 위치 정보를 각각 상기 영상처리 모듈(120)로 전송하도록 제어하고, 상기 영상처리 모듈(120)에서 상기 영상 정보, 상기 수평 정보, 상기 위치 정보 등을 이용하여 매개변수를 산출하도록 제어할 수 있다. The control module 150 outputs the left eye image and the right eye image obtained from the captured image acquisition module 110, the horizontal information obtained from the inertia measurement module 130, and the position information obtained from the GPS reception module 140, respectively To the image processing module 120, and controls the image processing module 120 to calculate parameters using the image information, the horizontal information, the position information, and the like.

상기 컨트롤 모듈(150)은 상기 촬영 영상 획득 모듈(110), 상기 관성측정 모듈(130) 및 상기 GPS 수신 모듈(140) 사이의 동기화를 제어하며, 본 발명이 적용되는 실시예로 상기 GPS 수신 모듈(140)로부터 획득된 GPS 시간을 기초로 하여 트리거에서 제공되는 전압 신호를 상기 촬영 영상 획득 모듈(110), 상기 관성측정 모듈(130) 및 상기 GPS 수신 모듈(140)에 각각 전송함으로써 동기화시킬 수 있다.The control module 150 controls the synchronization between the sensed image acquisition module 110, the inertia measurement module 130 and the GPS reception module 140. In an embodiment to which the present invention is applied, The inertial measurement module 130, and the GPS reception module 140, respectively, based on the GPS time obtained from the GPS receiver 140, have.

버퍼(160)는 상기 촬영 영상 획득 모듈(110)로부터 획득된 좌안 영상과 우안 영상에 대한 영상 정보를 버퍼에 저장하고, 외부로부터 영상 정보를 요청받을 경우 요청받은 영상 정보를 제공하게 된다. The buffer 160 stores the image information of the left eye image and the right eye image obtained from the sensed image acquisition module 110 in a buffer and provides the requested image information when the image information is requested from the outside.

상기 버퍼(160)는 메모리와 메모리 제어 모듈로 구성될 수 있으며, 로그 분석 등을 통해 메모리를 재배열함으로써 보다 신속한 공간데이터 서비스를 제공할 수 있다. The buffer 160 may be composed of a memory and a memory control module. The memory 160 may be rearranged through a log analysis or the like to provide a faster spatial data service.

예를 들어, 수신된 요청 정보가 빈번하게 요청되는 영상 정보인지 로그 분석을 통해 판단하고, 그에 따라 영상 정보를 다른 방식으로 처리할 수 있다. For example, it is possible to determine the received request information through the log analysis, that is, frequently requested video information, and process the video information in a different manner accordingly.

수신된 요청 정보가 빈번하게 요청되는 영상 정보인 경우에는 상기 영상 정보를 레이어 단위로 메모리에 캐싱하고 자동으로 업데이트를 수행할 수 있다. If the received request information is frequently requested video information, the video information may be cached in a memory in units of layers and updated automatically.

반면, 빈번하게 요청되는 영상 정보가 아닌 경우에는 해당 영상 정보를 메모리에서 삭제하거나, 기존에 요청된 적이 없는 영상 정보인 경우에는 해당 영상 정보를 테이블 정보에 업데이트하고 그에 대응되는 코드를 생성하여 저장할 수 있다.On the other hand, if the image information is not frequently requested, the corresponding image information is deleted from the memory, or if the image information is not previously requested, the corresponding image information is updated to the table information and a corresponding code is generated and stored have.

통신 모듈(200)은 사용자로부터 공간 모델링 서비스에 대한 요청 정보를 수신할 경우 모바일 매핑 장치(100), 업데이트 모듈(300), 항공사진 데이터베이스(400) 및 데이터 처리 모듈(500)로 전송한다. The communication module 200 transmits the request information to the mobile mapping apparatus 100, the update module 300, the aerial photograph database 400, and the data processing module 500 when receiving the request information for the spatial modeling service from the user.

그리고, 수신된 요청정보가 상기 모바일 매핑 장치(100)의 영상 정보를 필요로 하는 경우, 상기 모바일 매핑 장치(100)에 해당 요청정보를 전송하며, 상기 모바일 매핑 장치(100)로부터 상기 요청 정보에 대응되는 공간 데이터를 수신할 수 있다. If the received request information requires video information of the mobile mapping apparatus 100, the mobile mapping apparatus 100 transmits the request information to the mobile mapping apparatus 100, and transmits the request information from the mobile mapping apparatus 100 It is possible to receive corresponding spatial data.

상기 통신 모듈(200)은 사용자 단말(미도시)과 외부 단말(미도시) 사이, 상기 모바일 매핑 장치(100)와 상기 데이터 처리 모듈(500) 사이의 통신을 관리하며, 이러한 통신 모듈(100)은 LAN(local area network), WLAN(wireless LAN), Wibro(wireless broadband), Wimax(world interoperability for microwave access), HSDPA(high speed downlink packet access) 및 그 밖의 다양한 통신 규격을 지원할 수 있다.The communication module 200 manages communication between a user terminal (not shown) and an external terminal (not shown) and between the mobile mapping apparatus 100 and the data processing module 500, May support a variety of communication standards such as local area network (LAN), wireless LAN (WLAN), wireless broadband (WIBRO), world interoperability for microwave access (WIMAX), high speed downlink packet access (HSDPA)

업데이트 모듈(300)은 상기 모바일 매핑 장치(100) 내 버퍼(160)에 저장된 데이터를 영상처리 모듈(120) 또는 데이터 처리모듈(500) 등을 통해 수정된 데이터로 업데이트를 수행할 수 있다. The update module 300 may update the data stored in the buffer 160 in the mobile mapping apparatus 100 with the modified data through the image processing module 120 or the data processing module 500 or the like.

또한, 상기 항공사진 데이터베이스(400)에 저장된 데이터에 대해서도 영상처리 모듈(120) 또는 데이터 처리모듈(500) 등을 통해 수정된 데이터로 업데이트를 수행할 수 있다.Also, the data stored in the aerial photograph database 400 can be updated with the modified data through the image processing module 120 or the data processing module 500. [

한편, 항공사진 데이터베이스(400)는 상기 도로 시설물, 건물, 도로 점용 시설 및 부대 시설 등의 면적, 길이, 위치에 대한 정보 등을 포함하고 있으며, 상기 모바일 매핑 장치(100)로부터 데이터를 수신하거나 외부 데이터베이스로부터 항공사진 데이터를 수신할 수 있다.The aerial photograph database 400 includes information on the area, length, and location of the road facilities, buildings, road facilities, and other facilities. The aerial photograph database 400 receives data from the mobile mapping device 100, And can receive the aerial photograph data from the database.

항공사진 데이터베이스(400)는 메모리와 메모리 제어 모듈로 구성될 수 있으며, 로그 분석 등을 통해 메모리를 재배열함으로써 보다 신속한 공간 데이터 서비스를 제공할 수 있다. The aerial photograph database 400 may include a memory and a memory control module. The aerial photograph database 400 may provide spatial data service more rapidly by rearranging memories through log analysis and the like.

예를 들어, 수신된 요청 정보가 빈번하게 요청되는 항공사진 데이터인지 로그 분석을 통해 판단하고, 그에 따라 항공사진 데이터를 다른 방식으로 처리할 수 있다. For example, it is possible to determine through the log analysis whether the received request information is frequently requested aerial photograph data, and to process the aerial photograph data accordingly.

수신된 요청 정보가 빈번하게 요청되는 항공사진 데이터인 경우에는 상기 항공사진 데이터를 레이어 단위로 메모리에 캐싱하고 자동으로 업데이트를 수행할 수 있다. If the received request information is frequently requested aerial photograph data, the aerial photograph data may be cached in a memory in units of layers and automatically updated.

반면, 빈번하게 요청되는 항공사진 데이터가 아닌 경우에는 해당 항공사진 데이터를 메모리에서 삭제하거나, 기존에 요청된 적이 없는 항공사진 데이터인 경우에는 해당 항공사진 데이터를 테이블 정보에 업데이트하고 그에 대응되는 코드를 생성하여 저장할 수 있다.On the other hand, if the data is not the frequently requested aerial photograph data, the corresponding aerial photograph data is deleted from the memory, or if the aerial photograph data is not previously requested, the corresponding aerial photograph data is updated to the table information, Can be created and stored.

데이터 처리 모듈(500)은 상기 모바일 매핑 장치(100)와 상기 항공사진 데이터베이스(400)로부터 획득된 데이터를 이용하여 3D 공간 모델링 정보를 생성한다.The data processing module 500 generates 3D space modeling information using the data obtained from the mobile mapping apparatus 100 and the aerial photographing database 400.

상기 데이터 처리 모듈(500)은 객체 추출 모듈(501), 항공사진 추출 모듈(502), 객체위치결정 모듈(503), 좌표비교 모듈(504) 및 3차원 모델링 모듈(505)로 구성될 수 있다.The data processing module 500 may include an object extraction module 501, an aerial photograph extraction module 502, an object positioning module 503, a coordinate comparison module 504, and a three-dimensional modeling module 505 .

이에 대해서는 도 5에서 보다 상세히 설명하도록 한다.This will be described in more detail in FIG.

한편, 도 2에 도시된 바와 같이, 영상 처리 모듈(120)은 매개변수 추출 모듈(121), 필터링 모듈(123) 및 영상보정 모듈(125)로 구성될 수 있다.2, the image processing module 120 may include a parameter extraction module 121, a filtering module 123, and an image correction module 125.

렌즈를 사용하는 카메라는 대부분 직선이 곡선으로 휘어지는 문제를 가지고 있으며, 영상이 휘어진 중심으로부터 방사상으로 확장되거나 축소되는 현상이 발생하게 된다. Most cameras using a lens have a problem that a straight line is bent into a curved line, and a phenomenon occurs in which the image is expanded or contracted radially from the bent center.

이러한 휘어짐 현상에 대한 보정이 제대로 이루어지지 않으면 3D 영상을 시청하는 경우나 디지털 이미지 분석시 심각한 문제가 야기될 수 있다.If the deflection phenomenon is not properly corrected, serious problems may occur in viewing 3D images or in digital image analysis.

이를 해결하기 위해서는 휘어짐 현상을 수학적으로 모델링하여 휘어짐 정도를 결정하는 매개변수를 추정하고 이를 역변환함으로써 보정을 수행할 수 있다. In order to solve this problem, it is possible to perform mathematical modeling of the bending phenomenon and to perform compensation by estimating parameters for determining the degree of bending and inversely converting the parameters.

그리고, 영상 내의 커브를 검출하고 이 중 3D 좌표 상에서 직선이 아닌 선들을 제1보정 그룹으로 정의하여 제거한 후 보정을 수행한다. Then, curves in the image are detected, and non-straight lines on the 3D coordinates are defined as a first correction group, and correction is performed.

더 나아가, 본 발명의 일실시예에서는 3D 좌표 상에서 커브가 아님에도 불구하고 매개변수 추정에 방해가 되는 선들을 제2보정 그룹으로 정의하여 제거할 수 있다.Furthermore, in one embodiment of the present invention, lines that are not a curve on the 3D coordinates and that interfere with parameter estimation can be defined and removed as a second correction group.

아울러, 도 3을 살펴보면, 기본 영상을 R이라 하고, 볼록 휘어짐 영상을 V, 오목 휘어짐 영상을 C라고 할 때, 중심점 A를 기준으로 휘어지지 않은 점의 좌표를 O =(X,Y)라 하고, 휘어진 점의 좌표를 Oc =(Xc,Yc)라 하면, 양 좌표 간의 관계는 아래 수학식 1 및 수학식 2와 같이 나타낼 수 있다. 3, assuming that the base image is R, the convex warped image is V, and the concave warped image is C, the coordinates of a point that is not bent with respect to the center point A is O = (X, Y) , And the coordinate of the bent point is Oc = (Xc, Yc), the relationship between the two coordinates can be expressed by the following equations (1) and (2).

Gi는 영상의 휘어짐 정도를 반영하는 매개변수를 나타내고, Gi>0이면 볼록 휘어짐을 나타내고, Gi<0 오목 휘어짐을 나타낸다.Gi denotes a parameter reflecting the degree of warping of the image, and when Gi > 0, it indicates convex warpage, and Gi < 0 indicates concave warpage.

[수학식 1][Equation 1]

Figure 112016099772735-pat00002
Figure 112016099772735-pat00002

[수학식 2]&Quot; (2) &quot;

Figure 112016099772735-pat00003
Figure 112016099772735-pat00003

여기서, a는 영상의 중심점 A로부터 볼록 휘어짐 영상의 좌표 Oc까지의 거리를 나타내고, a는 아래 수학식 3과 같다.Here, a represents the distance from the center point A of the image to the coordinate Oc of the convex curved image, and a is represented by the following equation (3).

[수학식 3]&Quot; (3) &quot;

Figure 112016099772735-pat00004
Figure 112016099772735-pat00004

본 발명이 적용되는 일실시예로서, 상기 매개변수를 산출하는 방법을 설명하도록 한다.As an embodiment to which the present invention is applied, a method of calculating the parameter will be described.

매개변수 추출 모듈(121)은 먼저 영상 내에 존재하는 세그먼트를 서치하고, 상기 세그먼트 내의 각 픽셀의 변화율과 각도를 산출한다. The parameter extraction module 121 first searches for a segment existing in the image, and calculates the rate of change and angle of each pixel in the segment.

그리고 동일한 직선을 이루고 있는 픽셀들을 하나의 그룹으로 만듦으로써 세그먼트를 검출할 수 있다. The segment can be detected by grouping the pixels of the same straight line into one group.

주어진 임계값보다 높은 변화율을 갖는 픽셀을 시작점으로 하여 기설정된 크기의 윈도우 내에 가장 큰 변화율을 갖는 픽셀을 하나의 그룹으로 설정하여 그 픽셀을 시작점으로 하여 다시 윈도우를 통해 다음 픽셀을 찾는다. A pixel having a rate of change higher than a given threshold value is set as a starting point and a pixel having the largest rate of change in a predetermined window is set as a group and the next pixel is searched again through the window using the pixel as a starting point.

이때, 상기 기설정된 크기의 윈도우는 3x3, 4x4 또는 5x5 윈도우를 이용할 수 있다.At this time, the window of the predetermined size may use 3x3, 4x4 or 5x5 window.

상기 과정을 통해 검출된 픽셀들로 구성된 그룹으로부터 세그먼트들을 연결시켜 커브를 형성할 수 있다. The curve may be formed by connecting the segments from the group consisting of the detected pixels through the above process.

이때, 두 세그먼트의 끝점 사이의 거리, 두 세그먼트 사이의 각도, 두 세그먼트의 수직거리를 산출하고, 상기 산출된 값들이 기설정된 임계값보다 작은 경우에는 상기 세그먼트들을 연결하여 하나의 선으로 간주할 수 있다.At this time, the distance between the end points of the two segments, the angle between the two segments, and the vertical distance of the two segments are calculated. If the calculated values are smaller than the preset threshold value, the segments are regarded as one line have.

상기 세그먼트들로 연결되어 이루어진 선 중 3D 좌표 상 커브로 간주되는 선은 제1보정 그룹으로 설정할 수 있고, 상기 제1보정 그룹은 영상 내에서 제거될 수 있다.A line that is connected to the segments and is regarded as a curve on a 3D coordinate may be set as a first correction group, and the first correction group may be removed in an image.

예를 들어, F 개의 커브들 중 하나의 타겟 라인을 Lm (m=1~M)이라 하고, Lm을 구성하는 Nm개의 픽셀들을 Pn = (Xn, Yn) (n=1~Nm) 이라 하면, Nm개의 픽셀들이 최대한 직선이 될 때의 매개변수 Gi를 구할 수 있다. For example, if one target line of the F curves is referred to as Lm (m = 1 to M) and Nm pixels constituting Lm are denoted by Pn = (Xn, Yn) (n = 1 to Nm) The parameter Gi when the Nm number of pixels are maximally straight can be obtained.

이렇게 산출된 Gi를 다른 커브들에도 적용하여 Pn을 구할 수 있다. The calculated Gi can also be applied to other curves to obtain Pn.

Pn에 대해 직선과의 차이를 각 픽셀의 오차 En이라 정의하고 En 절대값이 기설정된 임계값 δm을 넘는 픽셀들이 하나의 커브에서 기설정된 퍼센티지를 초과하는 경우 이들을 제1보정 그룹으로 설정하고, 상기 제1보정 그룹을 영상 내에서 제거할 수 있다.Pn is defined as an error En of each pixel, and when the pixels whose absolute magnitudes exceed the preset threshold value? M exceed a preset percentage in one curve, they are set as the first correction group, The first correction group can be removed in the image.

이러한 과정을 통해, 상기 제1보정 그룹이 제거된 선들 중 최대한 직선이 되게 하는 매개변수 Gi를 산출할 수 있게 된다.Through this process, it is possible to calculate the parameter Gi which causes the first correction group to be the maximum straight line among the removed lines.

필터링 모듈(123)은 3D 좌표 상에서 커브가 아님에도 불구하고 매개변수 산출시 에러 요소로 작용하는 선들을 제2보정 그룹으로 정의하여 필터링할 수 있다.The filtering module 123 can define and filter the lines serving as the error element in the parameter calculation as the second correction group even though the curve is not a curve on the 3D coordinates.

중심점 근처에 위치한 선들에 대해서는 임계값을 좀더 세밀하게 설정함으로써 매개변수가 적용되는 범위를 좁힐 수 있다. For lines located near the center point, you can narrow the range to which the parameter is applied by setting more precise thresholds.

예를 들어, 도 4를 살펴보면, 각 픽셀들의 오차가 기설정된 임계값을 넘는지 판단할 때, 영상 중심에서 곡선 Lm에 이르는 거리에 따라 임계값에 가중치를 적용하여 제2보정 그룹에 해당하는지 여부를 판단할 수 있다.For example, referring to FIG. 4, when it is determined that the error of each pixel exceeds a predetermined threshold value, a weight is applied to the threshold value according to the distance from the image center to the curve Lm to determine whether it corresponds to the second correction group Can be determined.

영상 중심점 A에서 곡선 Lm에 이르는 거리는 직선 F에 내린 수선의 길이 am으로 정의할 수 있고, 가중치는 0과 1 사이의 범위로 정규화할 수 있다. The distance from the image center point A to the curve Lm can be defined as the length am of the perpendicular line on the straight line F, and the weight can be normalized to a range between 0 and 1.

이때, am 은 아래 수학식 4와 같이 정의할 수 있다.At this time, am can be defined as shown in Equation (4) below.

[수학식 4]&Quot; (4) &quot;

Figure 112016099772735-pat00005
Figure 112016099772735-pat00005

정규화를 위한 상기 가중치가 0인 경우에는 am 이 0으로 선이 영상의 중심을 지날 때이고, 상기 가중치가 1인 경우는 am 이 영상의 중심에서 대각선 꼭지점까지의 거리일 때이다. When the weight for normalization is 0, am is 0 when the line passes the center of the image, and when the weight is 1, am is the distance from the center of the image to the diagonal vertex.

가중치를 적용한 새로운 임계값 δm_new 를 식으로 나타내면 아래 수학식 5와 같다.The new threshold value? M_new to which the weight is applied can be expressed by the following equation (5).

[수학식 5]&Quot; (5) &quot;

Figure 112016099772735-pat00006
Figure 112016099772735-pat00006

여기서, R은 영상 대각선의 길이를 나타내고, m = 1~M , M은 선의 개수를 나타내며, ψ는 사용자 파라미터이다.Here, R denotes the length of the image diagonal, m = 1 to M, M denotes the number of lines, and? Is a user parameter.

상기와 같이 영상의 중심에서부터 선의 거리에 따라 임계값에 가중치를 줌으로써 새로운 임계값 δm_new를 산출할 수 있고, 이를 통해 보다 정확한 매개변수 Gi를 획득함으로써 보다 정확한 영상 보정이 가능하게 된다.As described above, the new threshold value? M_new can be calculated by weighting the threshold value according to the distance from the center of the image to the line, and more precise image correction can be performed by obtaining a more accurate parameter Gi.

영상보정 모듈(125)은 상기와 같은 과정을 통해 획득된 매개변수를 이용하여 영상의 휘어짐 현상을 보정할 수 있다.The image correction module 125 may correct the image warping phenomenon using parameters obtained through the above process.

상기 모바일 매핑 장치(100)는 상기와 같은 과정을 통해 영상을 보정하고, 보정된 영상은 데이터 처리 모듈(500)로 전송된다.The mobile mapping apparatus 100 corrects the image through the process described above, and the corrected image is transmitted to the data processing module 500.

한편, 도 5에 따르면 데이터 처리 모듈(500)은 객체 추출 모듈(501), 항공사진 추출 모듈(502), 객체위치결정 모듈(503), 좌표비교 모듈(504) 및 3차원 모델링 모듈(505)로 구성될 수 있다.5, the data processing module 500 includes an object extraction module 501, an aerial photograph extraction module 502, an object positioning module 503, a coordinate comparison module 504, and a three-dimensional modeling module 505. [ &Lt; / RTI &gt;

객체 추출 모듈(501)은 상기 모바일 매핑 장치(100)로부터 획득된 보정 영상으로부터 사용자가 원하는 대상 객체를 추출하고 상기 대상 객체의 좌표 정보를 획득할 수 있다. The object extraction module 501 may extract a desired object from the corrected image obtained from the mobile mapping apparatus 100 and obtain coordinate information of the object.

상기 대상 객체를 추출하기 위해 서치 영역을 설정하고, 상기 서치 영역에 따라 상기 보정 영상으로부터 대상 객체를 추출할 수 있다. A search area may be set to extract the target object, and a target object may be extracted from the corrected image according to the search area.

이때, 상기 대상 객체는 상기 보정 영상의 각 픽셀 RGB값을 이용할 수 있으며, 예를 들어, 대상 픽셀과 인접한 8개의 픽셀 정수값을 확인함으로써 동일한 특성을 갖는 픽셀을 검출할 수 있다. At this time, the target object can use each pixel RGB value of the corrected image. For example, a pixel having the same characteristic can be detected by confirming eight integer pixel values adjacent to the target pixel.

상기 과정을 통해 추출된 대상 객체가 복수개일 경우에는 대상 객체의 이전 위치에서 가장 가까운 거리의 객체가 선택될 수 있으며, 어떠한 대상 객체도 추출되지 않는 경우에는 사용자의 입력에 의해 객체가 선택될 수 있다.If there are a plurality of target objects extracted through the above process, an object having the closest distance from the previous position of the target object can be selected. If no target object is extracted, the object can be selected by the user's input .

객체위치결정 모듈(503)은 상기 객체 추출 모듈(501)로부터 추출된 대상 객체에 대하여 중심점을 결정함으로써 대상 객체의 좌표 정보를 획득할 수 있다. The object position determination module 503 can obtain the coordinate information of the target object by determining the center point of the target object extracted from the object extraction module 501. [

상기 중심점은 아래 수학식 6에 의해 결정될 수 있다.The center point may be determined by Equation (6) below.

[수학식 6]&Quot; (6) &quot;

Figure 112016099772735-pat00007
Figure 112016099772735-pat00007

Figure 112016099772735-pat00008
Figure 112016099772735-pat00008

여기서, x, y는 중심점의 좌표를 나타내고, n은 x축 방향의 픽셀 개수, N은 y축 방향의 픽셀 개수를 나타낸다.Here, x and y represent the coordinates of the center point, n is the number of pixels in the x-axis direction, and N is the number of pixels in the y-axis direction.

항공사진 추출 모듈(502)은 상기 항공사진 데이터베이스(400)로부터 해당 영상에 대응되는 항공사진 좌표 정보를 추출할 수 있다. The aerial photograph extraction module 502 can extract the aerial photograph coordinate information corresponding to the corresponding image from the aerial photograph database 400. [

이때, 상기 항공사진 추출 모듈(502)은 상기 GPS 수신 모듈(140)로부터 획득된 위치 정보에 따라 상기 위치 정보에 대응되는 해당 영상을 상기 항공사진 데이터베이스(400)로부터 추출할 수 있다.At this time, the aerial photograph extracting module 502 may extract the corresponding image corresponding to the position information from the aerial photograph database 400 according to the position information obtained from the GPS receiving module 140. [

좌표비교 모듈(504)은 상기 객체위치결정 모듈(503)로부터 획득된 대상 객체의 좌표 정보와 상기 항공사진 추출모듈(502)로부터 획득된 항공사진 좌표 정보를 비교함으로써 객체들 간의 매칭 여부를 확인할 수 있다. The coordinate comparison module 504 can check whether the objects are matched by comparing the coordinate information of the object obtained from the object positioning module 503 with the aerial photograph coordinate information obtained from the aerial photograph extraction module 502 have.

예를 들어, 서로 다른 방향과 크기를 갖는 영상들로부터 크기와 회전에 불변한 공통점들을 추출함으로써 매칭 여부를 확인할 수 있다. For example, matching points can be identified by extracting common points unchanged in size and rotation from images having different directions and sizes.

상기 항공사진 데이터베이스(400)로부터 추출된 항공사진 영상을 다양한 분산값을 갖는 가우시안 필터에 통과시키고, 통과된 영상들을 스케일에 따라 순차적으로 감산하여 오차 영상을 생성할 수 있다. An aerial photograph image extracted from the aerial photograph database 400 may be passed through a Gaussian filter having various dispersion values and an error image may be generated by sequentially subtracting the passed images according to a scale.

이는 아래 수학식 7에 의해 수행될 수 있다.This can be performed by Equation (7) below.

[수학식 7]&Quot; (7) &quot;

Figure 112016099772735-pat00009
Figure 112016099772735-pat00009

Figure 112016099772735-pat00010
Figure 112016099772735-pat00010

여기서, L(x,y,σ)는 가우시안 필터를 통과한 영상의 함수값을 나타내고, G(x,y,σ)는 가우시안 필터를 나타내며, D(x,y,σ)는 스케일된 영상과의 차이값을 나타낸다. Where D (x, y, σ) represents the function of the image passed through the Gaussian filter and G (x, y, σ) represents the Gaussian filter. Respectively.

상기 생성된 오차 영상으로부터 극값(최대, 최소값)에 해당하는 픽셀의 위치를 추출할 수 있다. The position of the pixel corresponding to the extreme value (maximum and minimum values) can be extracted from the generated error image.

여기서, 상기 극값(최대, 최소값)에 해당하는 픽셀의 위치는 선택된 픽셀값이 그에 이웃하는 8개의 픽셀과 스케일된 상,하 영상의 9개 픽셀씩, 총 26개의 픽셀값보다 크거나 작을 경우로 결정된다. Here, the pixel position corresponding to the extreme value (maximum and minimum values) is a case where the selected pixel value is larger or smaller than a total of 26 pixel values, that is, eight pixels adjacent to the selected pixel value and nine pixels of the scaled upper and lower images .

즉, 상기 극값(최대, 최소값)에 해당하는 픽셀이 공통점으로써 추출될 수 잇다. 상기 추출된 공통점들 중에서 노이즈 제거 및 강한 에지 성분을 제거하고, 남은 공통점들에 대하여 방향 정보 및 크기를 설정한다. That is, pixels corresponding to the extreme values (maximum and minimum values) can be extracted as a common point. Noise removal and strong edge components are removed from the extracted common points, and direction information and size are set for the remaining common points.

방향 정보와 크기는 각각 아래 수학식 8 및 수학식 9에 의해 결정된다.The direction information and the size are determined by the following equations (8) and (9), respectively.

[수학식 8]&Quot; (8) &quot;

Figure 112016099772735-pat00011
Figure 112016099772735-pat00011

[수학식 9]&Quot; (9) &quot;

Figure 112016099772735-pat00012
Figure 112016099772735-pat00012

상기 공통점을 중심으로 16x16 블록을 설정하고, 블록 내의 각 픽셀에 대하여 변화 방향을 측정한다. A 16x16 block is set around the common point, and the direction of change is measured for each pixel in the block.

상기 변화방향은 변화 기울기에 비례하도록 설정되며, 변화 기울기가 클수록 변화 방향의 확률분포도 커지게 된다. The change direction is set to be proportional to the change slope, and the larger the change slope, the larger the probability distribution in the change direction.

상기 변화 방향에 대한 확률분포는 8개의 방향으로 구분되어 저장되고, 이는 16x16 블록에 대하여 128 차원의 벡터형태로 표현된다. The probability distribution for the change direction is divided into eight directions and stored, which is expressed in a 128-dimensional vector form with respect to a 16x16 block.

이와 같이 얻어진 상기 항공사진 영상의 공통점 벡터 정보와 상기 보정 영상의 공통점 벡터정보를 비교하여 객체들 간의 매칭 여부를 확인할 수 있다. The common point vector information of the aerial photographic images thus obtained and the common point vector information of the corrected image are compared to check whether the objects are matched.

그리고, 상기 매칭 확인 결과에 기초하여 상기 대상객체의 좌표 정보를 추출할 수 있다.The coordinate information of the target object can be extracted based on the matching check result.

본 발명이 적용되는 다른 실시예로서, 상기 대상 객체 식별을 위해 필터링을 이용할 수 있다. As another embodiment to which the present invention is applied, filtering may be used for the object identification.

먼저, 영상 내 객체의 경계 영역을 확인하고 상기 경계 영역의 기하학적 특성을 이용하여 대상 객체를 식별할 수 있다. First, a boundary region of an object in an image is identified, and a target object can be identified using the geometric characteristics of the boundary region.

예를 들어, 건물, 간판, 가로수 등은 각각의 기하학적 특성을 가지고 있으므로, 상기 건물, 간판, 가로수 등을 이루는 선분과 각 선분이 만나는 모서리의 점들만을 추출하여 비교함으로써 대상 객체를 식별할 수 있다.For example, since a building, a signboard, a roadside tree, and the like have respective geometric characteristics, a target object can be identified by extracting and comparing only the points of the corner of the building, the signboard, .

3차원 모델링 모듈(505)은 상기 대상 객체의 좌표 정보를 이용하여 3차원 좌표 정보를 모델링할 수 있다.The three-dimensional modeling module 505 can model the three-dimensional coordinate information using the coordinate information of the target object.

도 6에 따르면, 3차원 좌표 정보를 모델링하기 위하여 먼저 두 대의 좌우 카메라가 객체를 촬영하고 있다고 가정할 때, 삼각형의 내각과 좌우 카메라로부터 객체까지의 거리를 아래 수학식 10 내지 17을 이용하여 구할 수 있다.6, assuming that two left and right cameras photograph an object in order to model the three-dimensional coordinate information, the distances from the inner angle of the triangle and the left and right cameras to the object are obtained using Equations 10 to 17 below .

[수학식 10]&Quot; (10) &quot;

Figure 112016099772735-pat00013
Figure 112016099772735-pat00013

[수학식 11]&Quot; (11) &quot;

Figure 112016099772735-pat00014
Figure 112016099772735-pat00014

[수학식 12]&Quot; (12) &quot;

Figure 112016099772735-pat00015
Figure 112016099772735-pat00015

[수학식 13]&Quot; (13) &quot;

Figure 112016099772735-pat00016
Figure 112016099772735-pat00016

[수학식 14]&Quot; (14) &quot;

Figure 112016099772735-pat00017
Figure 112016099772735-pat00017

대상 객체 O의 3차원 좌표 (X_o, Y_o, Z_o)는 아래 수학식 15 내지 17에 의해 획득될 수 있으며, 이 중 Z_o 좌표는 좌측 카메라로부터 획득된 영상의 Y_l 좌표와 우측 카메라로부터 획득된 영상 Y_r 좌표의 평균값, 초점거리 정보 및 객체까지의 Y축 상 거리를 이용하여 획득할 수 있다.The three-dimensional coordinates (X_o, Y_o, Z_o) of the target object O can be obtained by the following equations (15) to (17), where Z_o coordinate is obtained by multiplying the Y_l coordinate of the image obtained from the left camera and the Y_l coordinate The average value of the coordinates, the focal length information, and the Y-axis distance to the object.

[수학식 15]&Quot; (15) &quot;

Figure 112016099772735-pat00018
Figure 112016099772735-pat00018

[수학식 16]&Quot; (16) &quot;

Figure 112016099772735-pat00019
Figure 112016099772735-pat00019

[수학식 17]&Quot; (17) &quot;

Figure 112016099772735-pat00020
Figure 112016099772735-pat00020

상기 수학식 15 내지 17에 의해 획득된 대상 객체 O의 3차원 좌표 (X_o, Y_o, Z_o)를 이용하여 3차원 공간 모델링을 수행할 수 있게 된다.Dimensional space modeling can be performed using the three-dimensional coordinates (X_o, Y_o, Z_o) of the object O obtained by the equations (15) to (17).

도 7은 본 발명이 적용되는 일실시예로서, 3차원 공간 모델링 방법을 설명하기 위한 흐름도이다.FIG. 7 is a flowchart for explaining a three-dimensional space modeling method according to an embodiment to which the present invention is applied.

먼저, 모바일 매핑 장치(100) 내 촬영 영상 획득 모듈(110)은 좌안 영상 카메라와 우안 영상 카메라로 구성되어 있고, 이들 카메라로부터 각각 좌안 영상과 우안 영상을 획득할 수 있다(S710).First, the captured image acquisition module 110 in the mobile mapping apparatus 100 includes a left eye image camera and a right eye image camera, and a left eye image and a right eye image can be obtained from the cameras, respectively (S710).

그리고, GPS 수신 모듈(140)로부터 상기 모바일 매핑 장치(100) 내의 카메라, 즉 획득된 좌안 영상과 우안 영상의 현재 위치 정보를 획득하고, 관성 측정 모듈(130)로부터 상기 카메라의 수평 정보를 획득할 수 있다(S720).The current position information of the cameras in the mobile mapping apparatus 100, that is, the obtained left and right eye images, is acquired from the GPS receiving module 140, and the horizontal information of the camera is acquired from the inertia measurement module 130 (S720).

영상 처리 모듈(120) 내 매개변수 추출 모듈(121)은 상기 카메라의 수평 정보 및 상기 현재 위치 정보를 이용하여 영상 보정을 위한 매개변수를 추출할 수 있다(S730). The parameter extraction module 121 in the image processing module 120 may extract parameters for image correction using the horizontal information and the current position information of the camera in operation S730.

이때, 필터링 모듈(123)은 상기 매개변수 추출시 가중치가 적용된 임계값을 이용하여 필터링을 수행할 수 있다(S740). 영상 보정 모듈(125)은 필터링까지 수행된 매개변수를 이용하여 영상 보정을 수행할 수 있다(S750).At this time, the filtering module 123 may perform filtering using the weighted threshold value at the time of extracting the parameters (S740). The image correction module 125 may perform image correction using parameters that have been performed until filtering (S750).

데이터 처리 모듈(500) 내 객체추출 모듈(501)은 상기 모바일 매핑 장치(100)로부터 상기 보정된 영상을 전송받아 대상 객체를 추출할 수 있다(S760).The object extraction module 501 in the data processing module 500 receives the corrected image from the mobile mapping device 100 and extracts the target object in operation S760.

그리고, 객체 위치 결정 모듈(503)은 상기 추출된 대상 객체에 대하여 중심점을 결정함으로써 대상 객체의 좌표 정보를 획득할 수 있다(S770).Then, the object position determination module 503 can obtain the coordinate information of the target object by determining the center point of the extracted target object (S770).

좌표 비교 모듈(504)은 상기 획득된 대상 객체의 좌표 정보와 그에 대응되는 항공사진의 좌표 정보를 비교함으로써 매칭 여부를 확인할 수 있다(S780).The coordinate comparison module 504 can check whether the matching is performed by comparing the coordinate information of the obtained object and the coordinate information of the corresponding aerial photograph (S780).

3차원 모델링 모듈(505)은 상기 대상 객체의 좌표 정보를 이용하여 3차원 공간 모델링을 수행할 수 있다(S790).The three-dimensional modeling module 505 can perform three-dimensional space modeling using the coordinate information of the target object (S790).

도 8은 본 발명이 적용되는 일실시예로서, 3차원 공간 모델링을 위해 카메라로부터 획득된 영상을 보정하는 방법을 설명하기 위한 흐름도이다.8 is a flowchart for explaining a method of correcting an image obtained from a camera for three-dimensional space modeling according to an embodiment of the present invention.

먼저, 촬영 영상 획득 모듈(110)로부터 획득된 영상 정보로부터 커브를 검출할 수 있다(S810). First, a curve may be detected from the image information obtained from the captured image acquisition module 110 (S810).

상기 검출된 커브 중 3차원 좌표 상에서 직선이 아닌 선들을 제1보정 그룹을 설정할 수 있다(S820).The first correction group may be set to non-straight lines on the three-dimensional coordinates of the detected curves (S820).

상기 영상 정보로부터 상기 설정된 제1보정 그룹에 해당하는 선들을 제거할 수 있다(S830).The lines corresponding to the set first correction group may be removed from the image information (S830).

그리고, 상기 제1보정 그룹이 제거된 영상으로부터 3차원 좌표 상에서 중심점으로부터 기설정된 임계값을 초과하는 선들을 검출하여 이를 제2보정 그룹으로 설정할 수 있다(S840). In step S840, the first correction group may be detected from the center of the three-dimensional coordinate image, and the second correction group may be set to a second correction group.

이때, 좀더 정밀한 임계값을 재설정하기 위해 영상 중심점에서 곡선에 이르는 거리에 따라 가중치를 적용하여 새로운 임계값을 재설정할 수 있다. At this time, in order to reset a more precise threshold value, a new threshold value can be reset by applying a weight according to the distance from the image center point to the curve.

재설정된 임계값에 기초하여 상기 제2보정 그룹을 설정할 수 있다. And the second correction group can be set based on the reset threshold value.

상기 영상 정보로부터 상기 설정된 제2보정 그룹에 해당하는 선들을 제거할 수 있다(S850).The lines corresponding to the set second correction group may be removed from the image information (S850).

상기 제2보정 그룹이 제거된 영상으로부터 매개변수를 추출할 수 있다(S860).The parameter may be extracted from the image from which the second correction group is removed (S860).

상기 추출된 매개변수를 이용하여 역변환을 수행함으로써 영상 보정을 수행할 수 있다(S870).The image correction may be performed by performing inverse transformation using the extracted parameters (S870).

도 9는 본 발명이 적용되는 일실시예로서, 3차원 공간 모델링을 위해 보정된 영상으로부터 대상 객체의 좌표 정보를 획득하기 위한 방법을 설명하기 위한 흐름도이다.9 is a flowchart for explaining a method for acquiring coordinate information of a target object from a corrected image for three-dimensional space modeling according to an embodiment of the present invention.

객체위치결정 모듈(503)로부터 획득된 대상 객체의 영상 정보를 추출할 수 있다(S910). The image information of the target object obtained from the object position determination module 503 can be extracted (S910).

그리고, 항공사진 데이터베이스(400)로부터 상기 보정된 영상에 대응되는 항공사진의 좌표 정보를 획득할 수 있다(S920). Then, the coordinate information of the aerial photograph corresponding to the corrected image can be obtained from the aerial photograph database 400 (S920).

상기 상기 대상 객체의 영상 정보와 상기 항공사진 좌표 정보를 비교함으로써 객체들 간의 매칭 여부를 확인할 수 있다. The image information of the target object is compared with the aerial photograph coordinate information to confirm whether the objects are matched.

예를 들어, 서로 다른 방향과 크기를 갖는 영상들로부터 크기와 회전에 불변한 공통점들을 추출함으로써 매칭 여부를 확인할 수 있다. For example, matching points can be identified by extracting common points unchanged in size and rotation from images having different directions and sizes.

상기 항공사진 영상을 가우시안 필터에 통과시키고, 통과된 영상들을 스케일에 따라 순차적으로 감산하여 오차 영상을 생성할 수 있다(S930).The aerial photographic image is passed through a Gaussian filter, and an error image is generated by sequentially subtracting the passed images according to a scale (S930).

상기 생성된 오차 영상으로부터 극값(최대, 최소값)에 해당하는 픽셀의 위치를 추출하여 공통점으로 설정할 수 있다(S940).The positions of pixels corresponding to extreme values (maximum and minimum values) from the generated error images can be extracted and set as common points (S940).

상기 추출된 공통점들 중에서 노이즈 제거 및 강한 에지 성분을 제거하고, 남은 공통점들에 대하여 방향 정보 및 크기를 설정함으로써 공통점 벡터 정보를 생성할 수 있다(S950).Common point vector information can be generated by removing noise and strong edge components from the extracted common points and setting direction information and size for the remaining common points (S950).

이와 같이 얻어진 상기 항공사진 영상의 공통점 벡터 정보와 보정 영상의 공통점 벡터 정보를 비교함으로써 객체들 간의 매칭 여부를 확인할 수 있다. By comparing the common point vector information of the aerial photographic images thus obtained and the common point vector information of the corrected image, it is possible to confirm whether or not the objects are matched.

그리고, 상기 매칭 확인 결과에 기초하여 상기 대상 객체의 좌표 정보를 획득할 수 있다(S960).The coordinate information of the target object may be obtained based on the matching result (S960).

본 발명은 이러한 구성에 더하여, 도 10 및 도 11과 같이, 모바일 매핑 장치(100)가 차량(1)에 구현할 수 있으며, 특히 촬영 영상 획득 모듈(110)의 설치 구조를 특정함으로써 효과적인 지상 영상 촬영이 가능하도록 개량될 수 있다.10 and 11, the mobile mapping apparatus 100 can be implemented in the vehicle 1, and in particular, by specifying the installation structure of the captured image acquisition module 110, Can be improved.

이를 위해, 본 발명에서는 도 10과 같은 구동유닛(10)을 포함한다.To this end, the present invention includes the driving unit 10 as shown in Fig.

이때, 상기 구동유닛(10)은 움직일 수 있는 차량(1)의 상면에 탑재되며, 차량(1)의 운전석(DRV)에는 상기 구동유닛(10)의 구동을 제어하는 제어패널(CTR)이 설치되고, 차량(1)의 전기를 이용하여 구동유닛(10)이 구동되도록 설계되며, 차량(1)의 메인제어박스(미도시)에 탑재된 컨트롤 모듈(150)과 연결되어 제어신호를 송수신하도록 구성된다. 즉, 상기 제어패널(CTR)은 단순히 상기 구동유닛(10)의 구동만을 제어하는데 관여하도록 설계되며, 메인제어박스(미도시)에 탑재된 컨트롤 모듈(150)은 상술한 본 발명의 주된 기능 제어에 사용된다.At this time, the driving unit 10 is mounted on the upper surface of the movable vehicle 1, and a control panel CTR for controlling the driving of the driving unit 10 is installed in the driver's seat DRV of the vehicle 1 And is connected to a control module 150 mounted on a main control box (not shown) of the vehicle 1 so as to transmit and receive a control signal, which is designed to drive the drive unit 10 using electricity of the vehicle 1 . That is, the control panel CTR is designed to merely control the driving of the driving unit 10, and the control module 150 mounted on the main control box (not shown) .

특히, 상기 구동유닛(10)은 차량(1)의 상면을 관통하여 차량(1) 내부에 형성된 수납챔버(CHM)로 수납될 수 있도록 승강 가능하게 설치된다.Particularly, the drive unit 10 is installed so as to be able to be lifted so as to be housed in a storage chamber CHM formed inside the vehicle 1 through the upper surface of the vehicle 1. [

이를 위해, 상기 수납챔버(CHM)의 양측면에는 슬릿(미도시)이 형성되고, 상기 슬릿에는 상기 구동유닛(10)을 구성하는 받침플레이트(12)의 양측면에서 돌출된 조인트편(JNT)이 끼워져 상기 조인트편(JNT)이 상기 슬릿을 타고 상하방향으로 움직일 수 있도록 구성된다.To this end, a slit (not shown) is formed on both sides of the housing chamber CHM and a joint piece JNT protruding from both sides of the support plate 12 constituting the drive unit 10 is inserted into the slit And the joint piece JNT can be moved up and down by the slit.

그리고, 상기 조인트편(JNT) 각각에는 스크류샤프트(BSC)가 스크류 결합되고, 스크류샤프트(BSC)의 각 상,하단부는 베어링(BR)에 의해 자회전가능하게 고정된다.A screw shaft BSC is screwed to each of the joint pieces JNT and the upper and lower ends of the screw shaft BSC are rotatably fixed by bearings BR.

또한, 상기 스크류샤프트(BSC)의 각 하단에는 종동베벨기어(BBV)가 일체로 고정되고, 상기 종동베벨기어(BBV) 각각은 모터회전축(MRT)에 키 고정된 한 쌍의 구동베벨기어(DBV)와 기어 결합하며, 상기 모터회전축(MRT)은 상기 차량(1)의 내부에 고정된 회동모터(MOT)에 연결된다.A driven bevel gear BBV is integrally fixed to each lower end of the screw shaft BSC and each of the driven bevel gears BBV is coupled to a pair of drive bevel gears DBV , And the motor rotation shaft (MRT) is connected to a rotation motor (MOT) fixed inside the vehicle (1).

따라서, 상기 회동모터(MOT)의 회전방향에 따라 상기 받침플레이트(12)는 상승 또는 하강하게 되므로 상기 받침플레이트(12)를 포함하는 구동유닛(10)은 필요시에 상승시켜 사용하고, 사용하지 않을 때는 하강시켜 수납시킴으로써 안전하게 유지 보관할 수 있다.Therefore, since the receiving plate 12 is raised or lowered according to the rotating direction of the rotating motor MOT, the driving unit 10 including the receiving plate 12 can be used by being raised when necessary, And when it is lowered, it can be safely kept and stored.

이 경우, 도시하지 않았지만 별도로 커버를 구비하여 구동유닛(10)이 수납되었을 때 개방된 차량(1)의 상면을 덮어 줌으로써 우천시, 혹은 눈이 올 때 구동유닛(10)을 보호할 수 있다.In this case, although not shown, a separate cover is provided to cover the upper surface of the opened vehicle 1 when the drive unit 10 is housed, thereby protecting the drive unit 10 when it rains or when the snow comes.

좀 더 구체적으로, 상기 구동유닛(10)은 도 11에 예시된 바와 같은 회전구동부(20)를 포함한다.More specifically, the drive unit 10 includes a rotation drive unit 20 as illustrated in FIG.

이때, 회전구동부(20)는 차량(1)의 천정에서 차량 내부의 수납챔버(CHM)로 매립되어 수납챔버(CHM) 내에서 승하강 가능하게 설치된 받침플레이트(12)와, 상기 받침플레이트(12) 상에 베어링고정된 메인축(22)과, 상기 메인축(22)과 일체를 이루면서 더 큰 직경을 갖는 서브축(24)과, 상기 서브축(24)의 원주방향으로 형성된 래크(26)와, 상기 래크(26)에 치결합된 피니언(28)과, 상기 피니언(28)이 고정되고 상기 받침플레이트(12) 상에 고정된 회동모터(30)와, 상기 서브축(24)의 상단에 고정된 상판(32)과, 상기 상판(32)에 안착된 사각프레임(34)과, 상기 사각프레임(34)을 관통하여 양단이 각각 자회전가능하게 베어링고정된 볼스크류(36)와, 상기 볼스크류(36)의 사각프레임(34)을 관통한 일단에 고정된 종동기어(38)와, 상기 종동기어(38)에 기어결합하는 구동기어(40)와, 상기 구동기어(40)가 고정되고 상기 사각프레임(34)의 일측 외면에 고정된 구동모터(42)와, 상기 볼스크류(36)에 치결합된 상태로 끼워져 볼스크류(36)의 회전방향에 따라 움직이는 한 쌍의 제1,2유동블럭(44a,44b)과, 상기 사각프레임(34)의 마주보는 내측면에 일정길이 형성된 가이드홈(46)과, 일단은 상기 가이드홈(46)에 각각 끼워지고 타단은 상기 제1,2유동블럭(44a,44b) 각각의 양측면에 각각 나사조립되는 가이드바(48)를 포함하여 구성된다.The rotation driving unit 20 includes a support plate 12 embedded in the housing chamber CHM of the vehicle 1 in the ceiling of the vehicle 1 to be elevated and lowered in the housing chamber CHM, A sub shaft 24 integrally formed with the main shaft 22 and having a larger diameter and a rack 26 formed in the circumferential direction of the sub shaft 24, A pinion 28 coupled to the rack 26 and a rotary motor 30 fixed to the pinion 28 and fixed to the pinion plate 12; A rectangular frame 34 seated on the upper plate 32, a ball screw 36 fixed to the square frame 34 so as to be rotatably rotatable at both ends thereof, A driven gear 38 fixed to one end of the ball screw 36 through the square frame 34, a drive gear 40 gear-coupled to the driven gear 38, A driving motor 42 fixed to the outer surface of the rectangular frame 34 with the gear 40 fixed and fixed to the ball screw 36 so as to be moved in the rotational direction of the ball screw 36 A pair of first and second flow blocks 44a and 44b and a guide groove 46 formed on the inner surface of the rectangular frame 34 facing the rectangular frame 34 and having a predetermined length, And the other end thereof includes a guide bar 48 screwed to both side surfaces of the first and second flow blocks 44a and 44b.

이때, 상기 메인축(22)은 상기 받침플레이트(12)의 상면 중앙에 요입된 상태로 홈이 형성되고, 그 홈 속에 베어링의 개재하에 박히는 형태로 세워 설치된다.At this time, the main shaft 22 is grooved in a state of being recessed in the center of the upper surface of the receiving plate 12, and is installed uprightly in a state where it is caught under the interposition of bearings in the grooves.

또한, 상기 상판(32)은 다수의 스크류 혹은 볼트를 통해 상기 서브축(24)의 상단면에 스크류 혹은 볼트 체결된다.The upper plate 32 is screwed or bolted to the upper surface of the sub shaft 24 through a plurality of screws or bolts.

뿐만 아니라, 상기 사각프레임(34)도 상기 상판(32)의 상면에 다수의 스크류 혹은 볼트를 이용하여 체결 고정된다.In addition, the square frame 34 is fastened and fixed to the upper surface of the upper plate 32 by using a plurality of screws or bolts.

특히, 상기 제1,2유동블럭(44a,44b)은 그 상단이 상기 사각프레임(34)의 상면 보다 높게 돌출되어야 하며, 돌출된 상면 중심에는 동일 구조의 회전봉(48)이 각각 설치되되, 공지의 베벨기어조합에 의해 제1,2유동블럭(44a,44b)의 외측면에 각각 설치된 동일 구조의 회전봉기동모터(50)에 의해 회전제어될 수 있도록 구성된다. 다만, 이러한 베벨기어 조합은 공지의 구조이므로 더 이상 설명은 생략한다.Particularly, the first and second flow blocks 44a and 44b should have an upper end protruding higher than the upper surface of the rectangular frame 34, and a rotating rod 48 having the same structure is installed at the center of the projected upper surface, The first and second flow blocks 44a and 44b are rotatably controlled by a rotating rod starting motor 50 having the same structure and provided on the outer surfaces of the first and second flow blocks 44a and 44b. However, such a combination of bevel gears is a well-known structure, and a description thereof will be omitted.

아울러, 상기 볼스크류(36)는 도면에 구체적으로 도시되지 않았으나, 길이 중앙을 기점으로 좌우 양측의 스크류(나선) 방향이 서로 반대로 형성되어 있어 회전시 한 쌍의 제1,2유동블럭(44a,44b)은 모였다 벌어졌다 하는 형태로 유동하게 된다.Although the ball screw 36 is not specifically shown in the figure, the screw (spiral) directions of both the left and right sides are reversed from the center of the length, and when rotating, the pair of first and second flow blocks 44a, 44b are gathered and flowed in the form of being opened.

그리고, 상기 회전봉(48)의 상단에는 각각 좌안 영상카메라(CAM1)과 우안 영상카메라(CAM2)가 고정설치된다.A left eye image camera CAM1 and a right eye image camera CAM2 are fixedly installed on the upper end of the rotation bar 48, respectively.

이러한 구성으로 이루어진 본 발명은 계측작업을 수행하기 전에는 수납챔버(CHM)에 수납되어 있다가 계측작업을 수행할 때에는 상승하게 된다.The present invention having such a configuration is accommodated in the storage chamber CHM before performing the measurement operation, but is raised when the measurement operation is performed.

즉, 수납챔버(CHM)로 수납할 때는 그대로 구동유닛(10) 전체가 하강하고, 측정작업을 할 때는 구동유닛(10) 전체를 상승시킨다.That is, when housed in the housing chamber CHM, the entire drive unit 10 is lowered as it is, and the entire drive unit 10 is lifted when performing a measurement operation.

또한, 회전이 필요할 경우, 제어패널(CTR)의 제어하에 회동모터(30)를 회전시킴으로써 메인축(22)과 서브축(24)을 회전시킬 수 있으므로 결국 서브축(24)에 고정되어 있는 사각프레임(34)을 회전시킬 수 있게 되어 지지대(30)의 위치와 방향을 제어할 수 있게 된다.When the rotation is required, the main shaft 22 and the sub-shaft 24 can be rotated by rotating the rotation motor 30 under the control of the control panel CTR, The frame 34 can be rotated and the position and direction of the support 30 can be controlled.

이와 같이, 본 발명은 지지대(30)의 위치를 쉽게 바꿀 수 있어 촬영시 장애를 최소화할 수 있고, 수납안정적이 뛰어나 계측하지 않을 때는 안전하게 수납 보관할 수 있다.As described above, the present invention can easily change the position of the support stand 30, minimizing the trouble during photographing, and is excellent in the storage stability, so that it can be stored safely when not being measured.

뿐만 아니라, 회전봉기동모터(50)를 통해 각 회전봉(48)을 개별적으로 회전시킬 수 있기 때문에 좌안 영상카메라(CAM1)와 우안 영상카메라(CAM2)의 회전 구동을 개별제어할 수 있어 촬영 범위, 방향을 다방향으로 다양하고 정확하게 촬영할 수 있게 된다.In addition, since the rotation rods 48 can be individually rotated through the rotation shaft starting motor 50, the rotational drive of the left eye image camera CAM1 and the right eye image camera CAM2 can be individually controlled, In various directions in various directions.

덧붙여, 본 발명에 따른 구동유닛(10)은 외부에 노출된 상태로 유지되는 시간이 많고, 또 기상 상태에 따라 눈, 비에 맞을 확률이 높기 때문에 내부식성을 높이기 위해 내식성물질로 코팅됨이 바람직하다.In addition, since the driving unit 10 according to the present invention has a long period of time in which the driving unit 10 is kept exposed to the outside and has a high probability of meeting the snow and rain according to the weather condition, it is preferable that the driving unit 10 is coated with a corrosion- Do.

본 발명에 따른 내식성물질은 Si(OH)4 단량체가 분산된 무기바인더 15중량%와, 콜로이달 실리카 25중량%, 기능성 나노물질로 유황나노 수용액을 유황개질제로 개질한 개질유황액 30중량% 및 나머지 안티몬주석화합물로 이루어진다.The corrosion-resistant material according to the present invention comprises 15 wt% of an inorganic binder in which Si (OH) 4 monomer is dispersed, 25 wt% of colloidal silica, 30 wt% of a modified nano- And the remaining antimony tin compound.

이때, 무기바인더는 Si(OH)4 단량체가 충분히 분산된 상태를 유지하는데, 이를 위해 실리콘 알콕사이드가 사용된다. 그리고, 무기바인더의 양이 상기 범위를 초과하거나 적게 되면 기능성 나노물질의 특성 발현이 어렵고, 코팅층 결합력이 떨어지기 때문에 상기 범위로 반드시 한정하여야 한다.At this time, the inorganic binder maintains a sufficiently dispersed state of the Si (OH) 4 monomer, and a silicon alkoxide is used for this purpose. If the amount of the inorganic binder exceeds or falls below the above range, the functional nanomaterial is difficult to manifest and the coating layer is deteriorated.

이 경우, 상기 실리콘 알콕사이드는 TEOS(Tetraethylorthosilicate)나 TMOS(Tetramethylorthosilicate)를 사용할 수 있는데, 가수분해 반응 후 TEOS는 에탄올이 TMOS는 메탄올이 부산물로 생성되므로 환경과 작업자의 위생을 고려하여 TEOS를 사용하는 것이 바람직하다.In this case, TEOS (Tetraethylorthosilicate) or TMOS (Tetramethylorthosilicate) can be used as the silicon alkoxide. Since TEOS is ethanol and TMOS is produced as a by-product after the hydrolysis reaction, TEOS is used in consideration of environment and workers' hygiene desirable.

그리고, 콜로이달 실리카(Ludox HS-30)는 15nm 이하의 입자 크기를 가짐이 바람직하고, pH 조절을 위해 첨가되는데 상기 수용성 무기바인더가 pH 3 정도이므로 pH 10 정도인 콜로이달 실리카를 적정량, 바람직하기로는 25중량% 첨가하여 혼합물의 pH 가 7정도로 중성을 유지토록 함이 좋다.Colloidal silica (Ludox HS-30) preferably has a particle size of 15 nm or less and is added for pH control. Since the water-soluble inorganic binder has a pH of about 3, colloidal silica having a pH of about 10 is preferably added in an appropriate amount, To 25% by weight, so that the pH of the mixture is maintained at about 7.

뿐만 아니라, 기능성 나노물질은 초음파를 이용하여 유황 분산물을 제조한 후 상기 분산물에 계면활성제를 첨가한 상태에서 상기 분산물 및 계면활성제 혼합물을 전기분해하여 얻은 유황 나노 수용액을 유황 개질제로 중합반응시켜 나노수경성 개질유황액을 얻되, 유황 개질제로서 디시클로 펜타디엔(DCPD)계 개질제를 사용한다. 이것은 염해저항성을 높이기 위한 것이다.In addition, the functional nanomaterial can be obtained by preparing a sulfur dispersion by using ultrasonic waves, adding a surfactant to the dispersion, and electrolyzing the dispersion and the surfactant mixture to obtain a sulfur nano-aqueous solution, And a dicyclopentadiene (DCPD) type modifier is used as a sulfur modifier. This is to increase resistance to salt.

마지막으로, 안티몬주석화합물은 열차단을 위해 사용되는 물질로서, 증류수 30 중량%와 1,4-butanediol 30 중량%를 섞은 후, 가성소다(NaOH)를 이용하여 pH=11로 조절한다. 여기에 사염화주석(SnCl4·5H2O)을 37 중량%와 삼염화안티몬(SbCl3) 3 중량%를 첨가하여 균일하게 혼합될 수 있도록 초음파로 분산시킨다.Finally, the antimony tin compound is a material used for heat shielding, and 30% by weight of distilled water and 30% by weight of 1,4-butanediol are mixed and adjusted to pH = 11 using caustic soda (NaOH). 37% by weight of tin tetrachloride (SnCl 4 .5H 2 O) and 3% by weight of antimony trichloride (SbCl 3 ) were added thereto and dispersed by ultrasonic waves so as to be uniformly mixed.

이렇게 제조된 혼합물을 가압반응기(Autoclave)에 넣고 결정화를 위해 질소분위기에서 300 ℃까지 5 ℃/min 속도로 승온시킨 후, 4시간 유지시켜 20 nm 크기의 안티몬주석화합물을 제조할 수 있다.The thus prepared mixture is put into an autoclave and heated to 300 ° C at a rate of 5 ° C / min in a nitrogen atmosphere for crystallization, and then maintained for 4 hours to prepare a 20 nm antimony tin compound.

100: 모바일 매핑 장치 200: 통신 모듈
300: 업데이트 모듈 400: 항공사진 데이터베이스
500: 데이터 처리모듈
100: mobile mapping device 200: communication module
300: Update module 400: Aerial photograph database
500: Data processing module

Claims (1)

항공사진과 모바일 매핑 시스템을 이용한 3차원 공간정보를 구축할 때 복수개의 카메라로부터 영상 정보를 획득하는 촬영 영상 획득 모듈; 인공 위성으로부터 GPS 정보를 수신하여 상기 카메라의 현재 위치 정보를 획득하는 GPS 수신 모듈; 복수개의 센서를 이용하여 상기 카메라의 수평 정보를 획득하는 관성 측정 모듈; 상기 영상 정보, 상기 현재 위치 정보 및 수평 정보에 기초하여 상기 영상 정보를 보정하는 영상 처리 모듈; 상기 영상 정보, 현재 위치 정보 및 수평 정보를 상기 영상 처리 모듈로 전송할 수 있도록 제어하는 컨트롤 모듈; 및 영상 정보를 저장하는 버퍼를 포함하는 모바일 매핑 장치; 상기 모바일 매핑 장치로부터 상기 영상 정보를 수신하여 저장하거나 외부 데이터베이스로부터 항공사진 데이터를 수신하여 저장하는 항공사진 데이터베이스; 상기 모바일 매핑 장치로부터 획득된 영상 정보와 상기 항공사진 데이터베이스로부터 획득된 항공사진 데이터를 비교하여 대상 객체를 결정하고, 상기 결정된 대상 객체 정보를 이용하여 3차원 공간 모델링을 수행하는 데이터처리 모듈; 및 사용자로부터 공간 모델링 서비스에 대한 요청 정보를 수신하여 상기 모바일 매핑 장치, 상기 항공사진 데이터베이스 및 상기 데이터 처리 모듈로 전송하고, 상기 데이터 처리 모듈로부터 획득된 3차원 공간 데이터를 사용자에게 송신하는 통신 모듈; 을 포함하되, 상기 영상 처리 모듈은 상기 촬영 영상 획득 모듈로부터 수신된 상기 영상 정보로부터 커브를 검출하여 제1보정 그룹을 설정하고, 상기 영상 정보로부터 상기 제1보정 그룹을 제거하고, 상기 제1보정 그룹이 제거된 영상 정보로부터 3차원 좌표 상에서 중심점으로부터 임계값을 벗어나는 선들을 제2보정 그룹으로 설정하고, 상기 제1보정 그룹이 제거된 영상 정보로부터 상기 제 2 보정 그룹을 제거하되, 상기 임계값은
Figure 112017021574371-pat00021
(여기서, am 은 영상 중심점에서 곡선의 현에 내린 수선의 길이를 나타내고, R은 영상 대각선의 길이를 나타내고, m = 1~M , M은 선의 개수를 나타내며, ψ는 사용자 파라미터를 나타냄)에 의해 획득되는 필터링 모듈; 상기 제1보정 그룹과 상기 제2보정 그룹이 제거된 영상 정보에 기초하여, 영상의 휘어짐 정도를 나타내는 매개변수를 추출하는 매개변수 추출 모듈; 상기 매개변수를 이용하여 상기 영상 정보의 보정을 수행하는 영상보정 모듈을 구비한 3차원 공간정보 구축시스템에 있어서;
상기 모바일 매핑 장치를 차량(1)에 탑재하되, 차량(1)의 운전석(DRV)에는 주제어기인 컨트롤 모듈(150)과 통신하여 제어되는 제어패널(CTR)이 설치되고, 상기 제어패널(CTR)은 구동유닛(10)을 제어하도록 구성되며, 구동유닛(10)은 차량(1)의 상면을 관통하여 차량(1) 내부에 형성된 수납챔버(CHM)로 수납될 수 있도록 승강 가능하게 설치되고; 차량(1)의 천정에서 차량 내부의 수납챔버(CHM)에 매립되어 승하강 가능하게 설치되는 받침플레이트(12)와, 상기 받침플레이트(12) 상에 베어링고정된 메인축(22)과, 상기 메인축(22)과 일체를 이루면서 상기 메인축(22) 보다 더 큰 직경을 갖는 원형단면을 갖는 원형상의 서브축(24)과, 상기 서브축(24)의 원주방향으로 형성된 래크(26)와, 상기 래크(26)에 치결합된 피니언(28)과, 상기 피니언(28)이 고정되고 상기 받침플레이트(12) 상에 고정된 회동모터(30)와, 상기 서브축(24)의 상단에 고정된 상판(32)과, 상기 상판(32)에 안착된 사각프레임(34)과, 상기 사각프레임(34)을 관통하여 양단이 각각 자회전가능하게 베어링고정되되 길이 중앙을 기준으로 좌우 양측이 반대방향으로 스크류 가공된 볼스크류(36)와, 상기 볼스크류(36)의 사각프레임(34)을 관통한 일단에 고정된 종동기어(38)와, 상기 종동기어(38)에 기어결합하는 구동기어(40)와, 상기 구동기어(40)가 고정되고 상기 사각프레임(34)의 일측 외면에 고정된 구동모터(42)와, 상기 볼스크류(36)에 치결합된 상태로 끼워져 볼스크류(36)의 회전방향에 따라 모아지거나 벌어지는 형태로 유동하는 제1,2유동블럭(44a,44b)과, 상기 사각프레임(34)의 마주보는 내측면에 일정길이 형성된 가이드홈(46)과, 일단은 상기 가이드홈(46)에 끼워지고 타단은 상기 제1,2유동블럭(44a,44b)의 양측면에 나사조립되는 가이드바(48)와, 상기 제1,2유동블럭(44a,44b)의 각 외측면에 설치된 회전봉기동모터(50)와, 상기 제1,2유동블럭(44a,44b)의 상부에 설치되고 상기 회전봉기동모터(50)에 의해 회전제어되며 상단에는 각각 좌안 영상카메라(CAM1)와 우안 영상카메라(CAM2)가 설치된 회전봉(48)을 포함하는 것을 특징으로 하는 엠엠에스 및 다방향 경사 항공사진을 이용한 3차원 공간정보 구축시스템.
An image capture module for acquiring image information from a plurality of cameras when building three-dimensional spatial information using an aerial photograph and a mobile mapping system; A GPS receiving module for receiving GPS information from a satellite and obtaining current position information of the camera; An inertia measurement module for obtaining horizontal information of the camera using a plurality of sensors; An image processing module for correcting the image information based on the image information, the current position information, and the horizontal information; A control module for controlling the image information, current position information and horizontal information to be transmitted to the image processing module; And a buffer for storing image information; An aerial photograph database for receiving and storing the image information from the mobile mapping device or receiving and storing aerial photograph data from an external database; A data processing module for determining a target object by comparing the image information obtained from the mobile mapping device with the aerial photograph data obtained from the aerial photograph database, and performing three-dimensional space modeling using the determined target object information; And a communication module for receiving request information for a spatial modeling service from a user, transmitting the request information to the mobile mapping device, the aerial photograph database, and the data processing module, and transmitting the three-dimensional spatial data obtained from the data processing module to a user; Wherein the image processing module detects a curve from the image information received from the captured image acquisition module to set a first correction group, removes the first correction group from the image information, Sets the lines out of the threshold value from the center point on the three-dimensional coordinates as the second correction group from the image information from which the group is removed, removes the second correction group from the image information from which the first correction group is removed, silver
Figure 112017021574371-pat00021
(Where am denotes the length of the waterline at the center of the curve at the center of the image, R denotes the length of the image diagonal, m = 1 to M, M denotes the number of lines, and ψ denotes the user parameter) A filtering module to be obtained; A parameter extracting module for extracting a parameter indicating a degree of warping of the image based on the image information from which the first correction group and the second correction group have been removed; And an image correction module for performing correction of the image information using the parameters, the system comprising:
A control panel CTR is installed in the driver's seat DRV of the vehicle 1 in communication with the control module 150 which is a main controller and the control panel CTR is installed in the driver's seat DRV of the vehicle 1, And the drive unit 10 is elevably installed so as to be housed in a storage chamber CHM formed inside the vehicle 1 through the upper surface of the vehicle 1; A main shaft 22 fixed to the bearing plate 12 by bearings, a support shaft 12 fixedly mounted on the support plate 12, A circular sub shaft 24 integrally formed with the main shaft 22 and having a circular cross section and having a diameter larger than that of the main shaft 22 and a rack 26 formed in the circumferential direction of the sub shaft 24 A pinion 28 coupled to the rack 26 and a rotary motor 30 fixed to the pinion 28 and fixed to the support plate 12; A rectangular frame 34 seated on the upper plate 32 and fixed to the frame so that both ends of the rectangular frame 34 are rotatable through the square frame 34, A ball screw 36 which is screwed in an opposite direction and a ball screw 36 which is fixed to one end of the square frame 34 of the ball screw 36 A drive gear 40 fixed to the outer surface of one side of the rectangular frame 34 and fixed to the drive gear 40; First and second flow blocks 44a and 44b that are inserted into the ball screw 36 in a state of being engaged with the ball screw 36 and flow in a manner of gathering or spreading according to the rotation direction of the ball screw 36, A guide groove 46 having one end fixed to the guide groove 46 and the other end screwed on both sides of the first and second flow blocks 44a and 44b; A rotary bar start motor 50 provided on each of the outer surfaces of the first and second flow blocks 44a and 44b and a second rotary block 44 installed on the first and second flow blocks 44a and 44b, And a rotation bar 48 which is rotatably controlled by a starter motor 50 and has upper left and lower right image cameras CAM1 and CAM2, 3D spatial information building system using MMS and multidirectional oblique aerial photograph.
KR1020160133584A 2016-10-14 2016-10-14 system for building three-dimensional space information using MMS and multi-directional tilt aerial photos KR101720761B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160133584A KR101720761B1 (en) 2016-10-14 2016-10-14 system for building three-dimensional space information using MMS and multi-directional tilt aerial photos

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160133584A KR101720761B1 (en) 2016-10-14 2016-10-14 system for building three-dimensional space information using MMS and multi-directional tilt aerial photos

Publications (1)

Publication Number Publication Date
KR101720761B1 true KR101720761B1 (en) 2017-03-29

Family

ID=58498282

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160133584A KR101720761B1 (en) 2016-10-14 2016-10-14 system for building three-dimensional space information using MMS and multi-directional tilt aerial photos

Country Status (1)

Country Link
KR (1) KR101720761B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210010309A (en) * 2019-07-19 2021-01-27 네이버랩스 주식회사 Apparatus and method for generating three dimensional map using aerial images
WO2021015435A1 (en) * 2019-07-19 2021-01-28 네이버랩스 주식회사 Apparatus and method for generating three-dimensional map by using aerial photograph
KR102319289B1 (en) * 2021-06-04 2021-11-01 한국공간정보(주) Image processing system securing captured image of natural ground features

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100907939B1 (en) * 2009-03-06 2009-07-16 새한항업(주) Indicating position control system for the reference point
KR101224080B1 (en) * 2012-09-17 2013-01-21 주식회사 미래지중정보 Digital map mamagement system for exact editing image based on gps confirming the position of constructure having the datum point
KR101234961B1 (en) * 2012-10-31 2013-02-25 (주)지오투정보기술 Method and system for modeling automatic 3-dimensional space using aerial image and mobile mapping system technology
KR101464167B1 (en) * 2014-08-21 2014-11-24 주식회사 지오스토리 3D image system synthesizing the private picture image in editting the digital aerial photography information
KR101525109B1 (en) * 2015-03-27 2015-06-03 (주)혜성 3D image system synthesizing the private picture image in editting the digital aerial photography information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100907939B1 (en) * 2009-03-06 2009-07-16 새한항업(주) Indicating position control system for the reference point
KR101224080B1 (en) * 2012-09-17 2013-01-21 주식회사 미래지중정보 Digital map mamagement system for exact editing image based on gps confirming the position of constructure having the datum point
KR101234961B1 (en) * 2012-10-31 2013-02-25 (주)지오투정보기술 Method and system for modeling automatic 3-dimensional space using aerial image and mobile mapping system technology
KR101464167B1 (en) * 2014-08-21 2014-11-24 주식회사 지오스토리 3D image system synthesizing the private picture image in editting the digital aerial photography information
KR101525109B1 (en) * 2015-03-27 2015-06-03 (주)혜성 3D image system synthesizing the private picture image in editting the digital aerial photography information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
대한민국 특허 등록번호 제10-1234961호(2013.02.13.) '항공사진과 MMS(Mobile Mapping System) 기술을 이용한 자동 3D 공간 모델링 방법 및 시스템'

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210010309A (en) * 2019-07-19 2021-01-27 네이버랩스 주식회사 Apparatus and method for generating three dimensional map using aerial images
WO2021015435A1 (en) * 2019-07-19 2021-01-28 네이버랩스 주식회사 Apparatus and method for generating three-dimensional map by using aerial photograph
KR102589296B1 (en) 2019-07-19 2023-10-13 네이버랩스 주식회사 Apparatus and method for generating three dimensional map using aerial images
KR102319289B1 (en) * 2021-06-04 2021-11-01 한국공간정보(주) Image processing system securing captured image of natural ground features

Similar Documents

Publication Publication Date Title
US10488198B2 (en) Surveying system
KR101879855B1 (en) Digital map generating system for performing spatial modelling through a distortion correction of image
US9057618B1 (en) System and method of determining map coordinates from images
CN106875467B (en) Three-dimensional city model fast updating method
WO2013109742A1 (en) Method, device, and system for computing a spherical projection image based on two-dimensional images
KR101720761B1 (en) system for building three-dimensional space information using MMS and multi-directional tilt aerial photos
KR101234961B1 (en) Method and system for modeling automatic 3-dimensional space using aerial image and mobile mapping system technology
KR101332042B1 (en) A system for processing spatial image using location information and horizontality information of camera
KR101234917B1 (en) Method and system for generating 3-dimensional space data using image correction by threshold applied a weight information
CN104599281A (en) Panoramic image and remote sensing image registration method based on horizontal line orientation consistency
KR101879858B1 (en) Spatial modelling system for modelling spatial data by extracting common feature using comparison process between coordinate information of target object extracted from corrected image and coordinate information of arial photograph
KR101332093B1 (en) Spatial image processing system for obtaining 3-dimensional space data using coordination information of target object obtained by a plurality of sensors
KR101277427B1 (en) Method and system for correcting a distortion of image data using a parameter and comparing the corrected image data and aerial photograph
KR101879859B1 (en) A image processing system for correcting camera image using image distortion parameter
KR101332077B1 (en) 3-dimensional coordination generation system for performing image correction using gps information and horizontality information obtained by sensor
WO2022059603A1 (en) Flood damage determination device, flood damage determination method, and program
KR101332164B1 (en) A system for correcting 3-dimensional space data by deleting curve component from image information obtained by a plurality of camera
CN110617800A (en) Emergency remote sensing monitoring method, system and storage medium based on civil aircraft
JP2004030011A (en) Three-dimensional form data acquisition system and method
CN115578657A (en) Multi-eyepiece camera oblique photogrammetry based aerial photo screening method, computer readable storage medium and computer device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant