KR102204044B1 - Image checking assembly used by overlap for each orthophoto - Google Patents

Image checking assembly used by overlap for each orthophoto Download PDF

Info

Publication number
KR102204044B1
KR102204044B1 KR1020200104550A KR20200104550A KR102204044B1 KR 102204044 B1 KR102204044 B1 KR 102204044B1 KR 1020200104550 A KR1020200104550 A KR 1020200104550A KR 20200104550 A KR20200104550 A KR 20200104550A KR 102204044 B1 KR102204044 B1 KR 102204044B1
Authority
KR
South Korea
Prior art keywords
image
shape
value
orthogonal
ground object
Prior art date
Application number
KR1020200104550A
Other languages
Korean (ko)
Inventor
한춘득
남양윤
김창훈
한영섭
Original Assignee
(주)동광지엔티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)동광지엔티 filed Critical (주)동광지엔티
Priority to KR1020200104550A priority Critical patent/KR102204044B1/en
Application granted granted Critical
Publication of KR102204044B1 publication Critical patent/KR102204044B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/12Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken
    • G01C11/26Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken using computers to control the position of the pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/28Special adaptation for recording picture point data, e.g. for profiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G01C2011/36

Abstract

The present invention relates to an orthogonal error checking device through an orthoimage overlapping method for each coordinate which minimizes an error and comprises a topographic map DB, an image DB, a cadastral map DB, a ground object information DB, an orthoimage processing module, a correction target detection module, an image analysis module, an object image extraction module, and an editing module.

Description

좌표별 정사영상 중첩 방식을 통한 정사 오차 확인장치{IMAGE CHECKING ASSEMBLY USED BY OVERLAP FOR EACH ORTHOPHOTO}Orthogonal error checking device through the method of overlapping orthogonal images by coordinates {IMAGE CHECKING ASSEMBLY USED BY OVERLAP FOR EACH ORTHOPHOTO}

본 발명은 지형 경사로 인한 촬영이미지의 경사왜곡을 보정하고 중첩해서 정밀한 연직 형태의 정사영상 이미지를 제작하고 오차를 최소화하는 좌표별 정사영상 중첩 방식을 통한 정사 오차 확인장치에 관한 것이다.The present invention relates to an orthogonal error checking apparatus through an orthogonal image superimposition method for each coordinate to produce a precise vertical orthogonal image image by correcting and superimposing a tilt distortion of a photographed image due to a terrain inclination and minimizing the error.

영상지도 또는 수치지도 제작을 위한 도화의 기준 이미지인 영상은 항공촬영 등을 통해 수집된다. 이렇게 수집된 촬영이미지는 기준점을 기준으로 대상을 분류하고 중첩 및 편집해서 정사영상 이미지를 제작한다. 정사영상 이미지는 지형적 구조와 건축물 또는 각종 식생물 등의 지상물에 의해 정사 왜곡과 사각지대(a2, a2'; 도 1 참조) 및 음영지대(이하 '사각지대')가 발생하고, 동일한 지상물이라도 지면 경사와 정사 왜곡률과 촬영 각도 등에 따라 사각지대(a2, a2')의 범위와 지상물 이미지의 왜곡 형태가 다양해질 수 있다.An image, which is a reference image for drawing for the production of an image map or digital map, is collected through aerial photography. The collected images are classified based on the reference point, overlapped, and edited to produce an orthogonal image. In the orthoimage image, orthogonal distortion, blind spots (a2, a2'; see Fig. 1) and shadow zones (hereinafter'blind spots') are generated by the topographic structure and ground objects such as buildings or various vegetation, and the same ground object Even if it is, the range of the blind spots (a2, a2') and the form of distortion of the image of the ground object may vary depending on the slope of the ground, the normal distortion rate, and the shooting angle.

그런데 사각지대(a2, a2')와 경사로 인한 지상물 이미지의 왜곡 현상은 정사영상 이미지에서 특정 구역과 지상물 이미지의 형태를 시각적으로나 영상적으로 정확히 파악할 수 없게 하므로, 사각지대(a2, a2')를 갖는 정사영상 이미지는 영상지도 또는 수치지도 제작에 그대로 활용할 수 없었다. 결국, 사각지대(a2, a2')에 대한 현장 조사를 별도로 진행해서 사각지대(a2, a2')의 위치좌표와 지상물 등의 형상 및 점유 범위 등을 파악하고 영상지도 또는 수치지도 제작에 활용하였다.However, the distortion of the ground object image due to the blind spots (a2, a2') and inclination makes it impossible to accurately grasp the shape of a specific area and ground object image visually or visually in the orthogonal image, so the blind spots (a2, a2') The orthogonal image with) could not be used as it is for video map or digital map production. In the end, a field survey for blind spots (a2, a2') is conducted separately to determine the location coordinates of the blind spots (a2, a2') and the shape and occupied range of the ground objects, etc., and used for video or digital map production. I did.

하지만, 이러한 제작 방법은 비용적으로나 업무적으로 부담이 있었고, 다수의 사각지대(a2, a2')를 일일이 현장 조사해야 하므로 시간적으로도 부담이 적지 않았다.However, this production method was both costly and work-intensive, and because a number of blind spots (a2, a2') had to be inspected on-site, the burden was not small in terms of time.

결국, 사각지대(a2, a2')를 좀 더 신속히 파악하고 복원 및 보정할 수 있는 기술이 절실하게 요구되었다.In the end, there is an urgent need for a technology that can more quickly identify, restore and correct blind spots (a2, a2').

선행기술문헌 1. 특허등록번호 제10-1938402호(2019.01.15 공고)Prior Art Document 1. Patent Registration No. 10-1938402 (announced on January 15, 2019)

이에 본 발명은 상기의 문제를 해소하기 위한 것으로, 지형 경사로 인한 촬영이미지의 경사왜곡을 보정하고 중첩해서 정밀한 연직 형태의 정사영상 이미지를 제작하고 오차를 최소화하는 좌표별 정사영상 중첩 방식을 통한 정사 오차 확인장치의 제공을 해결하고자 하는 과제로 한다.Accordingly, the present invention is to solve the above problem, and orthogonal error through a coordinate-specific orthoimage superposition method that corrects and overlaps the tilt distortion of the photographed image due to the terrain inclination to produce a precise vertical orthogonal image and minimizes the error. It is a task to solve the provision of a confirmation device.

상기의 과제를 달성하기 위하여 본 발명은,In order to achieve the above object, the present invention,

GPS좌표값별 해발고도값이 설정된 지형도 정보를 저장하는 지형지도DB; 다수의 촬영이미지가 GPS좌표에 맞춰 합성 편집된 정사영상 이미지를 저장하는 영상DB; GPS좌표에 맞춰 필지가 구분 표시된 지적도 정보를 저장하는 지적도DB; 지상물의 외형수치값 및 높이값을 포함한 제원데이터와 지상물의 GPS좌표값을 저장하는 지상물정보DB; 상기 정사영상 이미지에 구성된 지상물 이미지의 GPS좌표값을 확인해서 지형지도DB에서 해당 지상물의 해발고도값을 검색하며 해발고도 기준값과의 고도차를 확인하고, 지상물정보DB에서 해당 지상물의 제원데이터를 검색하여 지상물의 3차원 형상을 확인하고, 해당 지상물에 대한 촬영지점의 촬영좌표값을 시점으로 상기 해발고도값에 위치한 3차원 형상과 해발고도 기준값에 위치한 3차원 형상 각각의 가시적 평면형상 변형률을 확인하는 정사영상 처리모듈; 상기 영상DB에서 검색된 정사영상 이미지의 촬영 고도에 비례해서 정사영상 이미지의 보정대상 범위를 지정하는 보정대상 검출모듈; 상기 정사영상 이미지에서 보정대상 범위 이내의 픽셀들의 RGB값을 확인하여 지정된 대표색도 군에 속하는 색도의 픽셀의 RGB값을 해당 대표색도로 통일시키고, 상기 대표색도로 통일된 픽셀들의 위치값을 확인하여 동일한 RGB값을 갖는 픽셀들의 군집 형태를 딥러닝을 통해 정형화하고, 상기 정형화된 군집 형태를 독립된 형상이미지로 설정하고, 서로 접하는 3개 이상의 형상이미지의 집합체를 객체이미지로 지정하며, 상기 객체이미지의 형상이미지 중에서 면적이 가장 큰 형상이미지를 평면형상으로 지정하고, 다른 형상이미지는 측면형상으로 지정하는 이미지 분석모듈; 상기 객체이미지의 측면형상 중 평면형상과 미접하는 측면 외곽라인이 보정대상 범위에 기준비율 이상 위치하고, 상기 평면형상과 일 측면형상의 전체 폭 대비 일 측면형상의 폭이 기준치 이내이면, 해당 객체이미지를 보정대상으로 지정하는 객체이미지 추출모듈; 상기 측면 외곽라인에 평면형상이 맞춰지며 측면형상이 삭제된 제1편집이미지를 생성하고, 상기 객체이미지의 GPS좌표값에 해당하는 지상물의 제원데이터를 지상물정보DB에서 검색해서 해당 지상물과 촬영지점 간의 거리값과 촬영 고도와 지상물의 높이값과 촬영지점의 촬영좌표값과 지상물의 GPS좌표값을 확인하고, 상기 거리값과 촬영 고도와 높이값과 촬영지점의 GPS좌표값과 지상물의 GPS좌표값에 비례해서 제1편집이미지를 벡터량의 비율로 확장해서 제2편집이미지로 생성하고, 상기 제2편집이미지를 변형률에 맞춰 벡터량의 비율로 확장해서 제3편집이미지로 생성하고, 상기 정사영상 이미지의 보정대상 범위에 해당하는 지적도 정보를 지적도DB에서 검색하여 지적도 이미지를 보정대상 범위에 오버랩하고, 상기 지적도 이미지의 필지 경계선에 맞춰서 정사영상 이미지를 필지 별로 이미지 삭제하며 제3편집이미지를 해당 삭제영역에 합성하여 편집정사영상 이미지를 생성하는 편집모듈;A topographic map DB for storing topographic map information in which an elevation value for each GPS coordinate value is set; An image DB for storing orthogonal image images synthesized and edited according to GPS coordinates; A cadastral map DB that stores cadastral map information in which parcels are classified according to GPS coordinates; A ground object information DB for storing specification data including an external shape value and a height value of the ground object and a GPS coordinate value of the ground object; By checking the GPS coordinate value of the ground object image configured in the orthogonal image, searching for the altitude value of the ground object in the topographic map DB, checking the elevation difference from the reference altitude elevation value, and checking the specification data of the ground object in the ground object information DB. Search to check the three-dimensional shape of the ground object, and use the photographing coordinate value of the photographing point for the corresponding ground object as a starting point, and determine the visible plane shape deformation of each of the three-dimensional shape located at the elevation value and the three-dimensional shape located at the reference elevation value. An orthogonal image processing module to check; A correction target detection module for designating a correction target range of the orthogonal image in proportion to the photographing altitude of the orthogonal image retrieved from the image DB; In the orthogonal image, the RGB values of pixels within the range to be corrected are checked, the RGB values of the pixels of the chromaticity belonging to the designated representative chromaticity group are unified with the corresponding representative chromaticity, and the position values of the pixels unified with the representative chromaticity are checked. The cluster shape of pixels having the same RGB value is formalized through deep learning, the standardized cluster shape is set as an independent shape image, and a collection of three or more shape images in contact with each other is designated as an object image. An image analysis module for designating a shape image having the largest area among the shape images as a flat shape, and designating other shape images as a side shape; Among the side shapes of the object image, if a side outline that is not in contact with the planar shape is located at a reference ratio or more in the range to be corrected, and the width of one side shape relative to the total width of the flat shape and one side shape is within the reference value, the object image is An object image extraction module designated as a correction target; Creates a first edited image whose plane shape is aligned with the side outline and the side shape is deleted, and retrieves the specification data of the ground object corresponding to the GPS coordinate value of the object image from the ground object information DB and photographs the ground object Check the distance value between points, the shooting altitude, the height of the ground object, the shooting coordinate value of the shooting point, and the GPS coordinate value of the ground object, and the distance value, the shooting altitude and height value, the GPS coordinate value of the shooting point and the GPS coordinate of the ground object In proportion to the value, the first edited image is expanded at the ratio of the vector amount to generate a second edited image, the second edited image is expanded at the ratio of the vector amount according to the deformation rate to generate a third edited image, and the orthogonal image The cadastral map information corresponding to the correction target range of is searched in the cadastral map DB, the cadastral map image is overlapped with the correction target range, the orthogonal image image is deleted for each lot according to the lot boundary of the cadastral map image, and the third edited image is deleted in the corresponding deletion area. An editing module for generating an edited orthogonal image by combining the image;

을 포함하는 좌표별 정사영상 중첩 방식을 통한 정사 오차 확인장치이다.It is a device for checking orthogonal errors through an orthoimage overlapping method for each coordinate including a.

상기의 본 발명은, 지형 경사로 인한 촬영이미지의 경사왜곡을 보정하고 중첩해서 정밀한 연직 형태의 정사영상 이미지를 제작하고 오차를 최소화하는 효과가 있다.The present invention has the effect of correcting and overlapping the tilt distortion of the photographed image due to the terrain inclination to produce a precise vertical type orthogonal image and minimizing errors.

도 1은 본 발명에 따른 정사 오차 확인장치가 정사영상 이미지 생성을 위해 촬영이미지를 수집하는 모습을 개략적으로 도시한 도면이고,
도 2는 본 발명에 따른 정사 오차 확인장치가 정사영상 처리를 위해 지상물 이미지의 위치를 조정하는 모습을 개략적으로 도시한 도면이고,
도 3은 본 발명에 따른 정사 오차 확인장치가 지상물 이미지를 변형하는 모습을 개략적으로 도시한 도면이고,
도 4는 본 발명에 따른 정사 오차 확인장치에 구성된 모듈의 일실시 예를 도시한 블록도이고,
도 5은 본 발명에 따른 정사 오차 확인장치의 동작 프로세스를 순차로 보인 플로차트이고,
도 6는 본 발명에 따른 정사 오차 확인장치가 객체이미지의 보정 대상 여부를 검출하기 위한 기준을 보인 도면이고,
도 7는 본 발명에 따른 정사 오차 확인장치가 검색한 정사영상 이미지 구역의 지적도 모습을 도시한 도면이고,
도 8은 편집 이전의 정사영상 이미지에 지적도를 합성한 경우를 개략적으로 예시한 도면이고,
도 9은 본 발명에 따른 정사 오차 확인장치가 보정 대상 객체이미지가 위치한 필지를 정사영상 이미지에서 삭제한 모습을 보인 이미지이고,
도 10과 도 11는 촬영각도별 상기 객체이미지의 평면형상 변화를 개략적으로 도시한 도면이고,
도 12은 본 발명에 따른 정사 오차 확인장치가 지정 비율에 맞춰 평면형상을 보정하는 모습을 개략적으로 도시한 도면이고,
도 13은 본 발명에 따른 정사 오차 확인장치가 지적구역별로 객체이미지의 평면형상을 합성한 모습을 개략적으로 도시한 도면이고,
도 14는 도 13을 정사영상 이미지로 보인 이미지이다.
1 is a diagram schematically showing a state in which an orthogonal error checking apparatus according to the present invention collects a photographed image for generating an orthogonal image,
2 is a diagram schematically showing a state in which the orthogonal error checking apparatus according to the present invention adjusts the position of a ground object image for orthogonal image processing,
3 is a diagram schematically showing a state in which the orthogonal error checking apparatus according to the present invention transforms an image of a ground object,
4 is a block diagram showing an embodiment of a module configured in the orthogonal error checking apparatus according to the present invention,
5 is a flowchart sequentially showing the operation process of the orthogonal error checking apparatus according to the present invention,
6 is a diagram showing a standard for detecting whether an object image is to be corrected by an orthogonal error checking apparatus according to the present invention;
7 is a diagram showing an cadastral view of an orthogonal image image area searched by an orthogonal error checking apparatus according to the present invention,
8 is a diagram schematically illustrating a case where an cadastral map is synthesized with an orthogonal image before editing,
9 is an image showing a state in which the orthogonal error checking apparatus according to the present invention deletes the parcel where the object image to be corrected is located from the orthogonal image,
10 and 11 are diagrams schematically showing a change in the planar shape of the object image for each photographing angle,
12 is a diagram schematically showing a state in which the orthogonal error checking apparatus according to the present invention corrects a planar shape according to a specified ratio,
13 is a diagram schematically showing a state in which the apparatus for confirming an orthogonal error according to the present invention synthesizes a planar shape of an object image for each cadastral area,
14 is an image showing FIG. 13 as an orthogonal image.

상술한 본 발명의 특징 및 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다.The features and effects of the present invention described above will become apparent through the following detailed description in connection with the accompanying drawings, whereby those of ordinary skill in the technical field to which the present invention pertains can easily implement the technical idea of the present invention. There will be. Since the present invention can apply various changes and have various forms, specific embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific disclosed form, and it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention.

이하, 본 발명을 구체적인 내용이 첨부된 도면에 의거하여 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 정사 오차 확인장치가 정사영상 이미지 생성을 위해 촬영이미지를 수집하는 모습을 개략적으로 도시한 도면이고, 도 2는 본 발명에 따른 정사 오차 확인장치가 정사영상 처리를 위해 지상물 이미지의 위치를 조정하는 모습을 개략적으로 도시한 도면이고, 도 3은 본 발명에 따른 정사 오차 확인장치가 지상물 이미지를 변형하는 모습을 개략적으로 도시한 도면이고, 도 4는 본 발명에 따른 정사 오차 확인장치에 구성된 모듈의 일실시 예를 도시한 블록도이다.1 is a view schematically showing a state in which an orthogonal error checking apparatus according to the present invention collects a photographed image for generating an orthogonal image, and FIG. 2 is a view showing the orthogonal error checking apparatus according to the present invention on the ground for orthogonal image processing. It is a diagram schematically showing a state of adjusting the position of a water image, FIG. 3 is a diagram schematically showing a state in which the orthogonal error checking apparatus according to the present invention transforms the ground water image, and FIG. 4 is It is a block diagram showing an embodiment of a module configured in the orthogonal error checking device.

도 1 내지 도 4를 참조하면, 본 발명의 정사 오차 확인장치는, GPS좌표값별 해발고도값이 설정된 지형도 정보를 저장하는 지형지도DB(20); 다수의 촬영이미지가 GPS좌표에 맞춰 합성 편집된 정사영상 이미지(M1; 도 7 참조)를 저장하는 영상DB(11); GPS좌표에 맞춰 필지(Z1, Z2; 도 7 참조)가 구분 표시된 지적도 정보를 저장하는 지적도DB(12); 지상물(B1 내지 B3)의 외형수치값 및 높이값을 포함한 제원데이터와 지상물(B1 내지 B3)의 GPS좌표값을 저장하는 지상물정보DB(13); 정사영상 이미지(M1)에 구성된 지상물 이미지의 GPS좌표값을 확인해서 지형지도DB(20)에서 해당 지상물(B1 내지 B3)의 해발고도값을 검색하며 해발고도 기준값과의 고도차(t1)를 확인하고, 지상물정보DB(13)에서 해당 지상물(B1 내지 B3)의 제원데이터를 검색하여 지상물(B1 내지 B3)의 3차원 형상(SH1, SH2)을 확인하고, 해당 지상물(B1 내지 B3)에 대한 촬영지점(DP)의 촬영좌표값을 시점으로 상기 해발고도값에 위치한 3차원 형상(SH1)과 해발고도 기준값에 위치한 3차원 형상(SH2) 각각의 가시적 평면형상(S1, S3)의 변형률을 확인하는 정사영상 처리모듈(19); 영상DB(11)에서 검색된 정사영상 이미지(M1)의 촬영 고도에 비례한 보정대상 범위를 해당 정사영상 이미지(M1)에서 지정하는 보정대상 검출모듈(14); 정사영상 이미지(M1)에서 보정대상 범위 이내의 픽셀들의 RGB값을 확인하여 지정된 대표색도 군에 속하는 색도의 픽셀의 RGB값을 해당 대표색도로 통일시키고, 상기 대표색도로 통일된 픽셀들의 위치값을 확인하여 동일한 RGB값을 갖는 픽셀들의 군집 형태를 딥러닝을 통해 정형화하고, 상기 정형화된 군집 형태를 독립된 형상이미지로 설정하고, 서로 접하는 3개 이상의 형상이미지의 집합체를 객체이미지(BM, BM')로 지정하며, 객체이미지(BM, BM')의 형상이미지 중에서 면적이 가장 큰 형상이미지를 평면형상(P1, P1')으로 지정하고, 다른 형상이미지는 측면형상(P2, P2', P3, P3')으로 지정하는 이미지 분석모듈(15); 객체이미지(BM, BM')의 측면형상(P2, P2', P3, P3') 중 평면형상(P1, P1')과 미접하는 측면 외곽라인(UL1, UL2; 도 6 참조)이 보정대상 범위에 기준비율 이상 위치하면 해당 객체이미지(BM, BM')를 보정대상으로 지정하는 객체이미지 추출모듈(16); 측면 외곽라인(UL1, UL2)에 평면형상(P1, P1')이 맞춰지며 측면형상(P2, P2', P3, P3')이 삭제된 제1편집이미지를 생성하고, 객체이미지(BM, BM')의 GPS좌표값에 해당하는 지상물(B1 내지 B3)의 제원데이터를 지상물정보DB(13)에서 검색해서 해당 지상물(B1 내지 B3)과 촬영지점 간의 거리값과 지상물의 높이값(BH)을 확인하고, 상기 거리값과 높이값(BH)에 비례해서 제1편집이미지(MM)가 벡터량의 비율로 확장된 제2편집이미지(MM')를 생성하고, 상기 제2편집이미지(MM')가 변형률에 맞춰 벡터량의 비율로 확장된 제3편집이미지를 생성하고, 정사영상 이미지(M1)의 보정대상 범위에 해당하는 지적도 정보를 지적도DB(12)에서 검색하여 지적도 이미지(M2; 도 7 참조)를 보정대상 범위에 오버랩하고, 지적도 이미지(M2)의 필지 경계선(BL; 도 7 참조))에 맞춰서 정사영상 이미지(M1)를 필지(Z1, Z2) 별로 이미지 삭제하며 상기 제3편집이미지를 해당 삭제영역에 합성하는 편집모듈(17);을 포함한다.1 to 4, the orthogonal error checking apparatus of the present invention includes: a topographic map DB 20 for storing topographic map information in which an elevation value for each GPS coordinate value is set; An image DB 11 for storing an orthogonal image (M1; see FIG. 7) synthesized and edited according to GPS coordinates; A cadastral map DB 12 for storing cadastral map information on which parcels (Z1, Z2; see Fig. 7) are divided and displayed according to GPS coordinates; A ground object information DB (13) for storing specification data including the external numerical values and height values of the ground objects B1 to B3 and GPS coordinate values of the ground objects B1 to B3; By checking the GPS coordinate value of the ground object image configured in the orthogonal image (M1), searching the elevation value of the corresponding ground object (B1 to B3) in the terrain map DB 20, and calculating the elevation difference (t1) from the reference elevation value. Check, and search the specification data of the ground objects (B1 to B3) in the ground object information DB (13) to check the three-dimensional shape (SH1, SH2) of the ground objects (B1 to B3), and the corresponding ground object (B1 To B3), the three-dimensional shape SH1 located at the elevation value and the three-dimensional shape SH2 located at the elevation reference value as the viewpoint of the photographing coordinate value S1, S3 ) Orthogonal image processing module 19 to check the strain rate; A correction target detection module 14 that designates a range to be corrected in proportion to the photographing altitude of the orthogonal image M1 retrieved from the image DB 11, in the orthogonal image M1; In the orthogonal image (M1), the RGB values of pixels within the range to be corrected are checked, and the RGB values of the pixels of the chromaticity belonging to the designated representative chromaticity group are unified with the corresponding representative chromaticity, and the position values of the pixels unified with the representative chromaticity are determined. After checking, the cluster shape of pixels having the same RGB value is formalized through deep learning, the standardized cluster shape is set as an independent shape image, and a collection of three or more shape images in contact with each other is an object image (BM, BM') The shape image with the largest area among the shape images of the object image (BM, BM') is designated as the flat shape (P1, P1'), and the other shape images are the side shapes (P2, P2', P3, P3). An image analysis module 15 designated as'); Of the side shapes (P2, P2', P3, P3') of the object image (BM, BM'), the side outlines (UL1, UL2; see Fig. 6) that are not in contact with the planar shapes (P1, P1') are the target range An object image extraction module 16 for designating a corresponding object image (BM, BM') as a correction target if it is positioned at or above the reference ratio; Create a first edited image in which the plane shape (P1, P1') is aligned with the side outline (UL1, UL2) and the side shape (P2, P2', P3, P3') is deleted, and the object image (BM, BM) is deleted. ') of the ground object (B1 to B3) corresponding to the GPS coordinate value of the ground object (B1 to B3) by searching the ground object information DB (13), the distance value between the ground object (B1 to B3) and the shooting point and the height value of the ground object ( BH), and in proportion to the distance value and the height value BH, a second edited image MM' is generated in which the first edited image MM is expanded at a ratio of the vector amount, and the second edited image ( MM') generates a third edited image that is expanded at the ratio of the vector amount according to the deformation rate, and searches for cadastral map information corresponding to the correction target range of the orthogonal image M1 in the cadastral map DB 12, and the cadastral map image M2; 7) is overlapped with the area to be corrected, and the orthogonal image M1 is image deleted for each lot (Z1, Z2) according to the parcel boundary (BL; see FIG. 7) of the cadastral map image M2. And an editing module 17 for synthesizing the edited image to the corresponding deletion area.

본 발명에 따른 정사 오차 확인장치의 구성요소를 좀 더 구체적으로 설명하면, 지형지도DB(20)는 GPS좌표값 별로 해발고도값이 설정된 지형도 정보를 저장한다. 따라서 상기 지형도 정보를 로딩하면 GPS좌표별로 지면의 굴곡 형태를 표현할 수 있다. 또한 임의의 GPS좌표값을 입력하면 해당 지점의 해발고도값이 검색된다.To describe the components of the orthogonal error checking apparatus according to the present invention in more detail, the terrain map DB 20 stores topographic map information in which an elevation value is set for each GPS coordinate value. Therefore, when the topographic map information is loaded, the curved shape of the ground can be expressed for each GPS coordinate. In addition, if you input an arbitrary GPS coordinate value, the altitude value of the corresponding point is searched.

영상DB(11)는 영상지도의 배경을 이루는 통상의 정사영상 이미지(M1)를 저장한다. 정사영상 이미지(M1)는 드론 등의 항공기(D)가 항공 촬영해서 수집한 다수의 촬영이미지를 공지된 이미지 편집 프로세스에 따라 GPS좌표에 맞춰서 합성 및 편집한 것이다. 촬영이미지를 기반으로 한 정사영상 이미지(MI) 생성 기술은 이미 공지의 기술이므로 여기서는 이에 대한 구체적인 설명은 생략한다.The image DB 11 stores a normal orthogonal image M1 forming the background of the image map. The orthogonal image M1 is a composite and edited image of a plurality of photographed images collected by aerial photographing by an aircraft D such as a drone according to the GPS coordinates according to a known image editing process. Since the orthogonal image (MI) generation technology based on the photographed image is a known technology, a detailed description thereof will be omitted here.

지적도DB(12)는 GPS좌표에 맞춰 필지(Z1, Z2; 도 7 참조)가 구분 표시된 지적도 정보를 저장한다. 지적도 정보는 GPS좌표값과 지적도 이미지(M2)를 포함하므로, GPS좌표값을 이용해서 해당 구간의 필지(Z1, Z2)를 검색하고 모니터를 통해 출력시킬 수 있다.The cadastral map DB 12 stores cadastral map information in which parcels (Z1, Z2; see Fig. 7) are separated and displayed according to the GPS coordinates. Since the cadastral map information includes the GPS coordinate value and the cadastral map image (M2), the parcels (Z1, Z2) of the corresponding section can be searched using the GPS coordinate value and displayed through the monitor.

지상물정보DB(13)는 지상물(B1 내지 B3)의 외형수치값 및 높이값을 포함한 제원데이터와 지상물(B1 내지 B3)의 GPS좌표값을 저장한다. 정사영상 이미지(M1)에 게시된 지상물 이미지는 지상에 실재하는 건축물 및 구조물 등의 지상물(B1 내지 B3)이므로, 실재 위치값인 GPS좌표값과, 지상물의 높이, 층수, 폭, 명칭 등의 제원데이터를 구성한다. 또한, 상기 제원데이터는 지상물(B1 내지 B3)의 외형수치값 및 높이값을 포함한다. 따라서 정사영상 이미지(M1)에 게시된 해당 지상물 이미지별로 GPS좌표값과 제원데이터가 링크되고, 상기 GPS좌표값과 제원데이터는 지상물정보DB(13)에 저장된다. 상기 외형수치값은 지상물(B1 내지 B3)의 외관이미지를 3D로 표현하기 위한 구간별 길이와 위치에 관한 데이터이다. 상기 외형수치값은 지상물(B1 내지 B3)의 설계치에 상응하게 구성되므로, 정사영상 처리모듈(19)은 외형수치값을 활용해서 지상물(B1 내지 B3)의 GPS좌표값을 기준으로 외곽지점의 GPS좌표값을 추출할 수 있다.The ground object information DB 13 stores specification data including the external numerical values and height values of the ground objects B1 to B3 and the GPS coordinate values of the ground objects B1 to B3. Since the ground object image posted in the orthogonal image (M1) is ground objects (B1 to B3) such as buildings and structures that exist on the ground, the GPS coordinate value, which is the actual position value, and the height, floor number, width, name, etc. The specification data of In addition, the specification data includes an external dimension value and a height value of the ground objects B1 to B3. Therefore, the GPS coordinate value and specification data are linked for each corresponding ground object image posted on the orthogonal image M1, and the GPS coordinate value and specification data are stored in the ground object information DB 13. The external shape value is data on the length and location of each section for expressing the external image of the ground objects B1 to B3 in 3D. Since the external numerical value is configured to correspond to the design value of the ground objects B1 to B3, the orthogonal image processing module 19 uses the external numerical value to determine the outer point based on the GPS coordinate values of the ground objects B1 to B3. You can extract the GPS coordinate value of.

정사영상 처리모듈(19)은, 정사영상 이미지(M1)에 구성된 지상물 이미지의 해발고도값을 지형지도DB(20)에서 검색하여 지정된 해발고도 기준값과의 고도차(t1)를 확인한다. 일 예를 들어 설명하면, 도 1의 (a)도면과 같이 해발고도 기준값이 '0'이고 지상물(B3)의 해발고도값이 '-20'이면, 해당 지상물(B3)의 고도차(t1)는 '-20'이다. 이와 같은 방식을 통해 지상물(B1)의 고도차는 't2'로 확인하고, 지상물(B2)의 고도차는 '0'으로 확인한다.The orthogonal image processing module 19 searches for an elevation value of the ground object image configured in the orthogonal image M1 in the terrain map DB 20 and checks the elevation difference t1 from the specified elevation reference value. For example, if the reference value for elevation is '0' and the elevation value of the ground object B3 is'-20', as shown in Figure 1(a), the difference in elevation (t1) of the corresponding ground object B3 ) Is'-20'. Through this method, the difference in elevation of the ground object B1 is identified as't2', and the difference in elevation of the ground object B2 is identified as '0'.

전술한 과정을 통해 고도차(t2)가 확인되면, 정사영상 처리모듈(19)은 지상물정보DB(13)에서 해당 지상물(B1 내지 B3)의 제원데이터를 검색하여 지상물(B1 내지 B3)의 3차원 형상(SH1, SH2)을 확인한다. 전술한 바와 같이 상기 제원데이터는 해당 지상물(B1 내지 B3)의 높이값과 외형수치값을 포함하므로, 정사영상 처리모듈(19)은 높이값과 외형수치값을 활용해서 해당 지상물(B1 내지 B3)의 3차원 형상(SH1, SH2)을 산출하고 이미지화할 수 있다.When the altitude difference t2 is confirmed through the above-described process, the orthogonal image processing module 19 retrieves the specification data of the corresponding ground objects B1 to B3 from the ground object information DB 13 to determine the ground objects B1 to B3. Check the three-dimensional shape (SH1, SH2) of. As described above, since the specification data includes the height value and the external numerical value of the corresponding ground objects B1 to B3, the orthogonal image processing module 19 utilizes the height value and the external numerical value to The three-dimensional shape (SH1, SH2) of B3) can be calculated and imaged.

지상물(B1 내지 B3)의 높이값과 외형수치값을 기반으로 이미지화된 3차원 형상(SH1, SH2)은 꼭지점 좌표값(Q11 내지 Q14, Q21 내지 Q24)을 산출해 이루어지고, 이렇게 형성된 3차원 형상(SH1, SH2)은 평면형상(PO, PO')을 포함한다. The three-dimensional shape (SH1, SH2) imaged based on the height values and the external values of the ground objects (B1 to B3) is formed by calculating the vertex coordinate values (Q11 to Q14, Q21 to Q24). The shapes SH1 and SH2 include planar shapes PO and PO'.

계속해서, 도 2와 같이 정사영상 처리모듈(19)은 해발고도값에 위치한 3차원 형상(SH1)의 평면형상(PO)과, 해발고도 기준값에 위치한 3차원 형상(SH2)의 평면형상(PO') 각각에 대해서 해당 지상물(B3)에 대한 촬영지점의 촬영좌표값(DP)을 시점으로 한 가시적 평면형상(S1, S3)을 확인한다. 가시적 평면형상(S1, S3)은 평면형상(PO, PO')과 측면형상의 경계(Q13, Q23)를 촬영지점과 연결한 시선라인(W1, W2)의 직각선에서 평면형상(PO, PO')이 정사(正射)하는 범위이다.Subsequently, as shown in FIG. 2, the orthogonal image processing module 19 has a planar shape (PO) of a three-dimensional shape (SH1) located at an elevation value, and a planar shape (PO) of a three-dimensional shape (SH2) located at an elevation reference value. ') For each, check the visible planar shape (S1, S3) with the photographing coordinate value DP of the photographing point for the corresponding ground object B3 as a viewpoint. The visible planar shape (S1, S3) is a planar shape (PO, PO') at a right angle of the line of sight (W1, W2) connecting the boundary of the plane shape (PO, PO') and the side shape (Q13, Q23) with the shooting point. ') is the range to be correct.

전술한 바와 같이 지상물(B3)이 원래 위치한 해발고도값에서 3차원 형상(SH1)의 평면형상(PO)의 가시적 폭 길이가 'S1'이라면, 지상물(B3)의 해발고도값을 해발고도 기준값에 맞춰 확인한 3차원 형상(SH2)의 평면형상(PO')의 가시적 폭 길이는 'S3'로 변경된다. 따라서 정사영상 처리모듈(19)은 지상물(B1 내지 B3)의 고도차(t1)와 제원데이터와 촬영좌표값을 연산해서 고도차(t1)에 의한 평면형상의 변형률, 즉 'S1'에서 'S3'으로의 변형 정도를 확인한다.As described above, if the visible width and length of the planar shape PO of the three-dimensional shape SH1 is'S1' from the elevation value at which the ground object B3 is originally located, the elevation value of the ground object B3 The visible width and length of the planar shape PO' of the three-dimensional shape SH2 checked according to the reference value is changed to'S3'. Therefore, the orthogonal image processing module 19 calculates the height difference (t1) of the ground objects (B1 to B3), the specification data, and the photographing coordinate value, and the deformation rate of the plane shape by the elevation difference (t1), that is, from'S1' to'S3'. Check the degree of deformation of.

본 실시 예는 도 3과 같이 일측면 방향으로만 경사지게 보이는 지상물 이미지의 경우를 예시했으나, 서로 이웃하는 2측면 방향으로 경사지게 보이는 지상물 이미지의 경우에도 변형률을 연산할 수 있고, 이 경우에는 변형률이 벡터량으로 산출된다.This embodiment exemplifies the case of a ground object image that is inclined only in one side direction as shown in FIG. 3, but the strain can also be calculated in the case of a ground object image that is inclined in the direction of two adjacent sides. In this case, the strain rate It is calculated as this vector quantity.

보정대상 검출모듈(14)은, 영상DB(11)에서 검색된 정사영상 이미지(M1)의 촬영 고도에 비례해서 정사영상 이미지(ML)의 보정대상 범위를 지정한다. 도 1과 같이 카메라는 화각에 따라 촬영범위가 제한되고, 촬영 항공기(D)의 고도에 따라 촬영범위가 제한된다. 즉, 화각이 크거나 촬영고도가 높을수록 촬영범위는 증가한다. 그런데 촬영범위에서도 가장자리로 갈수록 이미지의 변형과 왜곡이 증가하므로, 정사영상 이미지(M1)에서 유효한 범위는 중앙부로 한정되고, 상기 중앙부에 위치한 지상물 이미지 중에서도 보정이 가능한 지상물 이미지는 극히 제한된다. 따라서 보정대상 검출모듈(14)은 정사영상 이미지(M1)의 생성 기반인 촬영이미지의 촬영 고도에 맞춰 지정된 비율에 따라 보정대상 범위가 설정된다. 상기 보정대상 범위가 설정되면, 후속 프로세스의 처리 대상은 해당 보정대상 범위로 제한되고, 상기 보정대상 범위 내에 위치하는 지상물 이미지로 처리 대상이 제한된다.The correction target detection module 14 designates a correction target range of the orthogonal image ML in proportion to the photographing altitude of the orthogonal image M1 retrieved from the image DB 11. As shown in FIG. 1, the camera is limited in the shooting range according to the angle of view, and the shooting range is limited according to the altitude of the shooting aircraft D. In other words, the larger the angle of view or the higher the photographing altitude, the greater the photographing range. However, since the deformation and distortion of the image increases toward the edge of the shooting range, the effective range of the orthogonal image M1 is limited to the center, and among the ground object images located at the center, the ground object image that can be corrected is extremely limited. Accordingly, the correction target detection module 14 sets the correction target range according to a specified ratio according to the photographing altitude of the photographed image, which is the basis for generating the orthogonal image M1. When the range to be corrected is set, the target to be processed in the subsequent process is limited to the range to be corrected, and the target to be processed is limited to an image of a ground object located within the range to be corrected.

이미지 분석모듈(15)은, 정사영상 이미지(M1)에서 보정대상 범위 이내의 픽셀들의 RGB값을 확인하여 지정된 대표색도 군에 속하는 색도의 픽셀의 RGB값을 해당 대표색도로 통일시키고, 상기 대표색도로 통일된 픽셀들의 위치값을 확인하여 동일한 RGB값을 갖는 픽셀들의 군집 형태를 딥러닝을 통해 정형화하고, 상기 정형화된 군집 형태를 독립된 형상이미지로 설정하고, 서로 접하는 3개 이상의 형상이미지의 집합체를 객체이미지(BM, BM'; 도 6 참조)로 지정하며, 객체이미지(BM, BM')의 형상이미지 중에서 면적이 가장 큰 형상이미지를 평면형상(P1, P1'; 도 6 참조)으로 지정하고, 다른 형상이미지는 측면형상(P2, P2', P3, P3')으로 지정한다. 이미지 분석모듈(15)은 보정대상 범위에 위치하는 픽셀들을 위치와 RGB값에 따라 분석해서 평면형상(P1, P1')과 측면형상(P2, P2', P3, P3')을 구성한 객체이미지(BM, BM')를 분류해 확인한다. 이에 대한 구체적인 설명은 프로차트를 설명하며 상세히 한다.The image analysis module 15 checks the RGB values of pixels within the range to be corrected in the orthogonal image M1 and unifies the RGB values of pixels of the chromaticity belonging to the designated representative chromaticity group with a corresponding representative chromaticity. By checking the position values of the unified pixels by using deep learning, the cluster shape of pixels having the same RGB value is formalized through deep learning, the standardized cluster shape is set as an independent shape image, and a collection of three or more shape images in contact with each other is formed. It is designated as an object image (BM, BM'; see Fig. 6), and the shape image with the largest area among the shape images of the object image (BM, BM') is designated as a flat shape (P1, P1'; see Fig. 6). , Other shape images are designated as side shapes (P2, P2', P3, P3'). The image analysis module 15 analyzes the pixels located in the range to be corrected according to the position and RGB value, and an object image (P1, P1') and side shape (P2, P2', P3, P3') BM, BM') are classified and confirmed. A detailed description of this will be described in detail by describing the pro chart.

객체이미지 추출모듈(16)은, 객체이미지(BM, BM')의 측면형상(P2, P2', P3, P3') 중 평면형상(P1, P1')과 미접하는 측면 외곽라인(UL1, UL2; 도 6 참조)이 보정대상 범위에 기준비율 이상 위치하면 해당 객체이미지(BM, BM')를 보정대상으로 지정한다. 보정대상 검출모듈(14)이 검출한 보정대상 범위에는 객체이미지(BM, BM') 전체가 위치할 수도 있지만, 그 일부만이 위치할 수도 있다. 따라서 객체이미지 추출모듈(16)은 보정대상 범위에 대한 측면 외곽라인(UL1, UL2)의 위치 정도를 기준으로 보정대상 여부를 판독한다. 이에 대한 구체적인 설명은 프로차트를 설명하며 상세히 한다.The object image extraction module 16 includes side outline lines (UL1, UL2) that are not in contact with the planar shapes (P1, P1') of the side shapes (P2, P2', P3, P3') of the object images (BM, BM'). 6) is positioned above the reference ratio in the range to be corrected, the object image (BM, BM') is designated as the target to be corrected. The entire object images BM and BM' may be located in the range of the target to be corrected detected by the target detection module 14, but only a part of the image may be located. Accordingly, the object image extraction module 16 reads whether or not to be corrected based on the position degree of the side outline lines UL1 and UL2 with respect to the range to be corrected. A detailed description of this will be described in detail by describing the pro chart.

편집모듈(17)은, 측면 외곽라인(UL1, UL2)에 평면형상(P1, P1')이 맞춰지며 측면형상(P2, P2', P3, P3')이 삭제된 제1편집이미지를 생성하고, 객체이미지(BM, BM')의 GPS좌표값에 해당하는 지상물(B1 내지 B3)의 제원데이터를 지상물정보DB(13)에서 검색해서 해당 지상물(B1 내지 B3)과 촬영지점 간의 거리값과 지상물의 높이값(BH)을 확인하고, 상기 거리값과 높이값(BH)에 비례해서 제1편집이미지(MM)가 벡터량의 비율로 확장된 제2편집이미지(MM')를 생성하고, 제2편집이미지(MM')를 변형률에 맞춰 벡터량의 비율로 확장해서 제3편집이미지를 생성하고, 정사영상 이미지(M1)의 보정대상 범위에 해당하는 지적도 정보를 지적도DB(12)에서 검색하여 지적도 이미지(M2; 도 7 참조)를 보정대상 범위에 오버랩하고, 지적도 이미지(M2)의 필지 경계선(BL; 도 7 참조)에 맞춰서 정사영상 이미지(M1)를 필지(Z1, Z2) 별로 이미지 삭제하며 제2편집이미지(MM')를 해당 삭제영역에 합성한다. 편집모듈(17)은 현장 정보 수집 및 재촬영 정보 수집 등의 추가 작업 없이도 지상물 이미지에서 촬영 각도에 의해 생성된 사각지대(a2)를 제거하며 정사영상 이미지를 편집할 수 있게 하는 기술이다. 이를 위해 편집모듈(17)은 정사영상 이미지(M1)에서 지상물 이미지의 주변 이미지, 즉 주차된 차량이미지, 나무 이미지, 벤치 이미지, 공원 이미지 등을 삭제하고 경사지게 촬영된 지상물 이미지를 편집하는 것이다. 이에 대한 구체적인 설명은 프로차트를 설명하며 상세히 한다.The editing module 17 generates a first edited image in which planar shapes (P1, P1') are aligned with side outline lines (UL1, UL2) and side shapes (P2, P2', P3, P3') are deleted, and , The distance between the ground object (B1 to B3) and the shooting point by searching the ground object information DB 13 for the specification data of the ground object (B1 to B3) corresponding to the GPS coordinate value of the object image (BM, BM') Check the value and the height value (BH) of the ground object, and generate a second edited image (MM') in which the first edited image (MM) is expanded by the ratio of the vector amount in proportion to the distance value and the height value (BH), , A third edited image is created by expanding the second edited image (MM') at the ratio of the vector amount according to the deformation rate, and the cadastral map information corresponding to the correction target range of the orthogonal image M1 is retrieved from the cadastral map DB (12). Thus, the cadastral map image (M2; see Fig. 7) is overlapped with the area to be corrected, and the orthogonal image M1 is imaged for each lot (Z1, Z2) in line with the lot boundary line BL (see Fig. 7) of the cadastral map image M2. It is deleted and the second edited image (MM') is combined in the corresponding deletion area. The editing module 17 is a technology that enables editing of an orthogonal image by removing the blind spot (a2) created by the shooting angle from the ground object image without additional work such as collecting field information and re-taking information. To this end, the editing module 17 deletes the surrounding image of the ground object image, that is, the parked vehicle image, the tree image, the bench image, the park image, etc. from the orthogonal image M1, and edits the obliquely photographed ground object image. . A detailed description of this will be described in detail by describing the pro chart.

도 5은 본 발명에 따른 정사 오차 확인장치의 동작 프로세스를 순차로 보인 플로차트이고, 도 6는 본 발명에 따른 정사 오차 확인장치가 객체이미지의 보정 대상 여부를 검출하기 위한 기준을 보인 도면이고, 도 7는 본 발명에 따른 정사 오차 확인장치가 검색한 정사영상 이미지 구역의 지적도 모습을 도시한 도면이고, 도 8은 편집 이전의 정사영상 이미지에 지적도를 합성한 경우를 개략적으로 예시한 도면이고, 도 9은 본 발명에 따른 정사 오차 확인장치가 보정 대상 객체이미지가 위치한 필지를 정사영상 이미지에서 삭제한 모습을 보인 이미지이고, 도 10과 도 11는 촬영각도별 상기 객체이미지의 평면형상 변화를 개략적으로 도시한 도면이고, 도 12은 본 발명에 따른 정사 오차 확인장치가 지정 비율에 맞춰 평면형상을 보정하는 모습을 개략적으로 도시한 도면이고, 도 13은 본 발명에 따른 정사 오차 확인장치가 지적구역별로 객체이미지의 평면형상을 합성한 모습을 개략적으로 도시한 도면이고, 도 14는 도 13을 정사영상 이미지로 보인 이미지이다.5 is a flowchart showing the operation process of the orthogonal error checking apparatus according to the present invention in sequence, and FIG. 6 is a view showing the criteria for detecting whether the orthogonal error checking apparatus according to the present invention is the object image to be corrected. 7 is a view showing the state of the cadastral map of the orthogonal image area searched by the orthogonal error checking apparatus according to the present invention, and FIG. 8 is a diagram schematically illustrating a case where the cadastral map is synthesized with the orthogonal image image before editing, and FIG. 9 is an image showing a state in which the orthogonal error checking apparatus according to the present invention deletes the parcel where the object image to be corrected is located from the orthogonal image, and FIGS. 10 and 11 schematically illustrate the change in the planar shape of the object image for each shooting angle. 12 is a diagram schematically showing a state in which the orthogonal error checking device according to the present invention corrects the planar shape according to a specified ratio, and FIG. 13 is a view showing the orthogonal error checking device according to the present invention for each pointed area. It is a diagram schematically showing a state in which the planar shape of an object image is synthesized, and FIG. 14 is an image showing FIG. 13 as an orthogonal image.

도 1 내지 도 14를 참조하면, 본 발명의 정사 오차 확인장치는 하기의 프로세스로 동작하여 영상지도이미지(M4)를 생성한다.1 to 14, the orthogonal error checking apparatus of the present invention generates an image map image M4 by operating in the following process.

S10; 보정대상 범위 지정 단계S10; Steps to specify the range to be corrected

보정대상 검출모듈(14)은, 작업자가 영상DB(11)에서 정사영상 이미지(M1)를 검색하면 정사영상 이미지(M1)를 구성한 촬영이미지의 촬영 고도를 확인하고, 상기 촬영 고도에 비례하여 지정된 비율에 맞춰서 정사영상 이미지(M1)에 보정대상 범위를 지정한다.When the operator searches for the orthogonal image M1 in the image DB 11, the correction target detection module 14 checks the photographing altitude of the photographed image constituting the orthogonal image M1, and is designated in proportion to the photographing altitude. The range to be corrected is specified in the orthogonal image M1 according to the ratio.

보정대상 범위는 해당 정사영상 이미지(M1)를 이루는 촬영이미지의 촬영 시점에 항공기(D)가 위치한 지점을 중심으로 하는 원형 구간이다.The range to be corrected is a circular section centered on the point where the aircraft D is located at the time of photographing the photographed image forming the corresponding orthogonal image M1.

결국, 항공기(D)의 고도가 높을수록 보정대상 범위는 넓어진다. 그런데 정사영상 이미지(M1) 제작을 위해 유효한 촬영이미지는 항공기(D)가 제한된 고도에 위치한 상태에서 수집한 촬영이미지로 한정되므로, 보정대상 검출모듈(14)이 정사영상 이미지(M1)에서 지정하는 보정대상 범위는 정사영상 이미지(M1)별로 큰 차이를 보이지 않는다.Consequently, the higher the altitude of the aircraft D, the wider the range to be corrected. However, since the effective shooting image for the production of the orthogonal image (M1) is limited to the captured image collected while the aircraft (D) is located at a limited altitude, the detection module 14 to be corrected is designated by the orthogonal image (M1). There is no significant difference in the range to be corrected for each orthogonal image M1.

S11; 정사영상 이미지 분석 단계S11; Stages of orthogonal image analysis

보정대상 검출모듈(14)이 검출한 보정대상 범위 내에 게시된 지상물 이미지를 이미지 분석모듈(15)이 픽셀의 위치값과 RGB값을 분석해서 지상물 이미지를 구성하는 평면형상(P1, P1'; 도 6 참조)과 측면형상(P2, P2', P3, P3')을 추출한다.The image analysis module 15 analyzes the position value and RGB value of the pixels on the ground object image posted within the range of the object to be corrected detected by the detection module 14 to be corrected to form a planar shape (P1, P1') ;See Fig. 6) and side shapes (P2, P2', P3, P3') are extracted.

항공기(D)에서 디지털 카메라로 수집된 촬영이미지는 정사영상 이미지(M1)로 보정 및 편집된 후에 RGB값이 설정된 픽셀을 통해 모니터에 출력된다. 따라서 이미지 분석모듈(15)은 정사영상 이미지(M1)를 모니터에 출력하기 위한 픽셀별로 위치값과 해당 RGB값을 확인한다. 지상물은 표면에 고유한 색상이 도색되므로, 이웃하는 다른 지상물과는 다른 색도를 갖는다. 그런데 동일한 색상으로 표면이 도색된 지상물이라도 지상물 이미지는 지상물의 표면 굴곡과 위치별 명암 차이 등에 의해 색도가 차이를 보일 수 있다. 즉, 동일한 지상물 이미지의 동일한 표면이라도 해당 픽셀에 설정된 RGB값에 다소 차이가 있을 수 있는 것이다.The photographed image collected by the digital camera in the aircraft D is corrected and edited into the orthogonal image M1, and then output to the monitor through the pixel set with the RGB value. Accordingly, the image analysis module 15 checks the position value and corresponding RGB value for each pixel for outputting the orthogonal image M1 to the monitor. Ground objects are painted with a unique color on their surface, so they have a different chromaticity than other adjacent ground objects. However, even if the surface is painted in the same color, the image of the ground object may show a difference in chromaticity due to the surface curvature of the ground object and the difference in contrast by location. That is, even with the same surface of the same ground object image, there may be a slight difference in the RGB value set for the corresponding pixel.

따라서 이미지 분석모듈(15)은 지정된 대표색도 군에 속하는 색도로 설정된 픽셀의 RGB값을 해당 대표색도로 통일시킨다. 일 예를 들면, 임의의 대표색도군에 적색과 옅은 적색과 밝은 적색이 일군을 이루고 이중 대표색도가 적색인 경우, 임의의 픽셀에 설정된 RGB값이 밝은 적색으로 확인되면 해당 픽셀의 설정 RGB값을 해당 색도의 대표색도인 적색으로 RGB값을 변경한다.Accordingly, the image analysis module 15 unifies the RGB values of pixels set as chromaticities belonging to the designated representative chromaticity group with the corresponding representative chromaticity. For example, if red, pale red, and bright red form a group in an arbitrary representative chromaticity group, and the representative chromaticity is red, if the RGB value set in a random pixel is confirmed as bright red, the set RGB value of the pixel is determined. The RGB value is changed to red, which is the representative chromaticity of the corresponding chromaticity.

상기와 같이 RGB값이 대표색도로 통일되면, 이미지 분석모듈(15)은 픽셀들의 위치값을 확인하여 동일한 RGB값을 갖는 픽셀들의 군집 형태를 딥러닝을 통해 정형화한다. 그런데 특정 형태로 정형화된 피사체라도 촬영으로 수집된 지상물 이미지는 경계라인이 불분명해지거나 왜곡될 수 있다. 즉, 피사체가 사각형이라도 해당 피사체의 경계를 이루는 변은 직선 형태가 아닌 굴곡진 형태를 이룰 수 있는 것이다. 따라서 지상물 이미지가 다소 굴곡진 사각형이라도 이미지 분석모듈(15)은 딥러닝 기술을 통해 지상물 이미지를 4각형으로 정형화해서 독립된 형상이미지를 생성한다.When the RGB values are unified by the representative chromaticity as described above, the image analysis module 15 checks the position values of the pixels and formalizes the cluster form of pixels having the same RGB value through deep learning. However, even if a subject has been stereotyped in a specific shape, the boundary line may become unclear or distorted in the image of the ground object collected by photographing. In other words, even if the subject is a square, the sides that form the boundary of the subject may form a curved shape rather than a straight line. Therefore, even if the ground object image is a somewhat curved square, the image analysis module 15 generates an independent shape image by forming the ground object image into a square shape through deep learning technology.

계속해서 이미지 분석모듈(15)은 정사영상 이미지(M1)를 분석해서 정형화된 형상이미지들 중 3개 이상의 형상이미지(P1, P2, P3)가 서로 접하는 집합체를 추출하고 해당 집합체를 객체이미지(BM, BM')로 지정한다. 정사영상 이미지(M1)에서 확인할 수 있는 바와 같이, 건축물은 항공 촬영 시 다소 기울어지게 촬영되므로, 평면과 적어도 4개 이상의 측면이 서로 접하는 형태로 수집된다. 따라서, 3개 이상의 형상이미지(P1, P2, P3)가 서로 접하는 집합체는 지상물 이미지로 간주하고 객체이미지(BM, BM')로 지정한다.Subsequently, the image analysis module 15 analyzes the orthogonal image M1, extracts an aggregate of three or more shape images (P1, P2, P3) in contact with each other among the standardized shape images, and converts the aggregate into an object image (BM). , BM'). As can be seen from the orthogonal image M1, the structure is photographed slightly inclined during aerial photographing, so the plane and at least four or more sides are collected in a contact form. Therefore, an aggregate of three or more shape images (P1, P2, P3) in contact with each other is regarded as a ground object image and is designated as an object image (BM, BM').

S12; 보정 대상 객체이미지 추출 단계S12; Step of extracting object image to be corrected

이미지 분석모듈(15)은 객체이미지(BM, BM')로 지정된 3개 이상의 형상이미지(P1, P2, P3)에서 면적이 가장 큰 형상이미지를 평면형상(P1, P1')으로 지정하고, 다른 형상이미지는 측면형상(P2, P2', P3, P3')으로 지정한다. The image analysis module 15 designates the shape image with the largest area from three or more shape images (P1, P2, P3) designated as object images (BM, BM') as flat shapes (P1, P1'), and The shape image is designated as the side shape (P2, P2', P3, P3').

계속해서 객체이미지 추출모듈(16)은, 평면형상(P1, P1')과 일 측면형상(P2, P2', P3, P3')의 전체 폭 대비 일 측면형상(P2, P2', P3, P3')의 폭이 기준치 이내이고, 객체이미지(BM, BM')의 측면형상(P2, P2', P3, P3') 중 평면형상(P1, P1')과 미접하는 측면 외곽라인(UL1, UL2)이 보정대상 범위에 기준비율 이상 위치하면 해당 객체이미지(BM, BM')를 보정대상으로 지정한다. Subsequently, the object image extraction module 16, compared to the total width of the planar shape (P1, P1') and one side shape (P2, P2', P3, P3'), one side shape (P2, P2', P3, P3). The width of') is within the standard value, and the side outlines (UL1, UL2) that are not in contact with the planar shapes (P1, P1') of the side shapes (P2, P2', P3, P3') of the object image (BM, BM') ) Is above the reference ratio in the range to be corrected, the object image (BM, BM') is designated as the target to be corrected.

이에 대해 좀 더 구체적으로 설명하면, 지상물 이미지가 지나치게 기울어진 상태로 수집되면, 평면형상(P1, P1')과 일 측면형상(P2, P2', P3, P3')의 전체 폭(d1, d1') 대비 일 측면형상(P2, P2', P3, P3')의 폭(d2, d2')이 증가한다. 즉, 촬영 과정에서 대상 지상물을 지나치게 측면으로 촬영해서 보정 대상으로는 무리가 있는 것이다. 따라서 이렇게 수집된 객체이미지(BM, BM')는 보정 대상에서 제외한다. 참고로, 도 6의 (a)도면은 평면형상(P1)과 일 측면형상(P2)의 전체 폭(d1) 대비 일 측면형상(P2)의 폭(d2)이 기준치 이상이므로, 객체이미지 추출모듈(16)은 보정 대상에서 제외한다.In more detail, when the ground object image is collected in an excessively inclined state, the overall width d1, P1' and one side shape P2, P2', P3, P3' Compared to d1'), the widths d2, d2' of one side shape (P2, P2', P3, P3') increase. In other words, it is unreasonable as a correction target because the target ground object is photographed too sideways during the shooting process. Therefore, object images (BM, BM') collected in this way are excluded from correction. For reference, in the drawing (a) of FIG. 6, since the width d2 of one side shape P2 is more than the reference value compared to the total width d1 of the plan shape P1 and one side shape P2, the object image extraction module (16) is excluded from correction.

또한, 객체이미지(BM, BM')의 측면형상(P2, P2', P3, P3') 중 평면형상(P1, P1')과 미접하는 측면 외곽라인(UL1, UL2)은 해당 지상물이 지면에 실제로 위치하는 지점이다. 결국, 평면형상(P1, P1')은 보정대상 범위를 벗어나더라도 측면 외곽라인(UL1, UL2)은 보정대상 범위 이내에 위치해야만 하는 것이다. 따라서 측면 외곽라인(UL1, UL2)이 보정대상 범위 이내에 기준비율 이상 즉, 90% 이상 위치하면, 해당 객체이미지(BM, BM')의 지상물은 보정대상 범위 이내에 위치한 것으로 간주하고 보정 대상으로 지정한다. 상기 기준비율은 필요에 따라 변경되므로, 예시된 90%로 한정하는 것은 아니다.In addition, of the side shapes (P2, P2', P3, P3') of the object image (BM, BM'), the side outline lines (UL1, UL2) that are not in contact with the planar shapes (P1, P1') are Is the point where it is actually located. As a result, even if the planar shapes P1 and P1' are outside the range to be corrected, the side outline lines UL1 and UL2 must be located within the range to be corrected. Therefore, if the lateral outline (UL1, UL2) is located within the range to be corrected above the reference ratio, that is, more than 90%, the ground object of the object image (BM, BM') is considered to be located within the range to be corrected and designated as the target for correction. do. Since the reference ratio is changed as necessary, it is not limited to the illustrated 90%.

S121; 위치별 고도값 확인 단계S121; Steps to check altitude values by location

정사영상 처리모듈(19)은, 정사영상 이미지(M1)에 구성된 지상물 이미지의 해발고도값을 지형지도DB(20)에서 검색하여 지정된 해발고도 기준값과의 고도차(t1)를 확인한다. 전술한 바와 같이 지상물(B1 내지 B3)은 실제 위치하는 GPS좌표값이 있으므로, 상기 GPS좌표값을 이용해서 지형지도DB(20)를 검색하여 해당 지상물(B1 내지 B3)이 위치하는 지점의 해발고도값을 확인한다. The orthogonal image processing module 19 searches for an elevation value of the ground object image configured in the orthogonal image M1 in the terrain map DB 20 and checks the elevation difference t1 from the specified elevation reference value. As described above, since the ground objects B1 to B3 have GPS coordinate values that are actually located, the topographic map DB 20 is searched using the GPS coordinate values, and the corresponding ground objects B1 to B3 are located. Check the altitude value.

지상물(B1 내지 B3)의 해발고도값을 확인하면, 상기 해발고도값을 해발고도 기준값과 비교해서 해당 지상물(B1 내지 B3)의 고도차(t1)를 확인한다. 해발고도 기준값은 필요에 따라 조정될 수 있다.When checking the altitude value of the ground objects B1 to B3, the altitude difference t1 of the above ground objects B1 to B3 is checked by comparing the altitude value with the reference altitude above sea level. The reference value for altitude above sea level can be adjusted as needed.

S122; 정사영상 변형률 확인 단계S122; Steps to check the orthogonal image strain

고도차(t2)가 확인되면 정사영상 처리모듈(19)은 지상물정보DB(13)에서 해당 지상물(B1 내지 B3)의 제원데이터를 검색하여 지상물(B1 내지 B3)의 3차원 형상(SH1, SH2)을 확인한다. 전술한 바와 같이 상기 제원데이터는 해당 지상물(B1 내지 B3)의 높이값과 외형수치값을 포함하므로, 정사영상 처리모듈(19)은 높이값과 외형수치값을 활용해서 해당 지상물(B1 내지 B3)의 3차원 형상(SH1, SH2)을 산출하고 이미지화할 수 있다.When the altitude difference t2 is confirmed, the orthogonal image processing module 19 searches for the data of the corresponding ground objects B1 to B3 in the ground object information DB 13 to determine the three-dimensional shape SH1 of the ground objects B1 to B3. , SH2). As described above, since the specification data includes the height value and the external numerical value of the corresponding ground objects B1 to B3, the orthogonal image processing module 19 utilizes the height value and the external numerical value to The three-dimensional shape (SH1, SH2) of B3) can be calculated and imaged.

지상물(B1 내지 B3)의 높이값과 외형수치값을 기반으로 이미지화된 3차원 형상(SH1, SH2)은 꼭지점 좌표값(Q11 내지 Q14, Q21 내지 Q24)을 산출해 이루어지고, 이렇게 형성된 3차원 형상(SH1, SH2)은 평면형상(PO, PO')을 포함한다. The three-dimensional shape (SH1, SH2) imaged based on the height values and the external values of the ground objects (B1 to B3) is formed by calculating the vertex coordinate values (Q11 to Q14, Q21 to Q24). The shapes SH1 and SH2 include planar shapes PO and PO'.

계속해서, 도 2와 같이 정사영상 처리모듈(19)은 해발고도값에 위치한 3차원 형상(SH1)의 평면형상(PO)과, 해발고도 기준값에 위치한 3차원 형상(SH2)의 평면형상(PO') 각각에 대해서 해당 지상물(B3)에 대한 촬영지점의 촬영좌표값(DP)을 시점으로 한 가시적 평면형상(S1, S3)을 확인한다. 가시적 평면형상(S1, S3)은 평면형상(PO, PO')과 측면형상의 경계(Q13, Q23)를 촬영지점과 연결한 시선라인(W1, W2)의 직각선에서 평면형상(PO, PO')이 정사(正射)하는 범위이다.Subsequently, as shown in FIG. 2, the orthogonal image processing module 19 has a planar shape (PO) of a three-dimensional shape (SH1) located at an elevation value, and a planar shape (PO) of a three-dimensional shape (SH2) located at an elevation reference value. ') For each, check the visible planar shape (S1, S3) with the photographing coordinate value DP of the photographing point for the corresponding ground object B3 as a viewpoint. The visible planar shape (S1, S3) is a planar shape (PO, PO') at a right angle of the line of sight (W1, W2) connecting the boundary of the plane shape (PO, PO') and the side shape (Q13, Q23) with the shooting point. ') is the range to be correct.

전술한 바와 같이 지상물(B3)이 원래 위치한 해발고도값에서 3차원 형상(SH1)의 평면형상(PO)의 가시적 폭 길이가 'S1'이라면, 지상물(B3)의 해발고도값을 해발고도 기준값에 맞춰 확인한 3차원 형상(SH2)의 평면형상(PO')의 가시적 폭 길이는 'S3'로 변경된다. 따라서 정사영상 처리모듈(19)은 지상물(B1 내지 B3)의 고도차(t1)와 제원데이터와 촬영좌표값을 연산해서 고도차(t1)에 의한 평면형상의 변형률, 즉 'S1'에서 'S3'으로의 변형 정도를 확인한다.As described above, if the visible width and length of the planar shape PO of the three-dimensional shape SH1 is'S1' from the elevation value at which the ground object B3 is originally located, the elevation value of the ground object B3 The visible width and length of the planar shape PO' of the three-dimensional shape SH2 checked according to the reference value is changed to'S3'. Therefore, the orthogonal image processing module 19 calculates the height difference (t1) of the ground objects (B1 to B3), the specification data, and the photographing coordinate value, and the deformation rate of the plane shape by the elevation difference (t1), that is, from'S1' to'S3'. Check the degree of deformation of.

본 실시 예는 도 3과 같이 일측면 방향으로만 경사지게 보이는 지상물 이미지의 경우를 예시했으나, 서로 이웃하는 2측면 방향으로 경사지게 보이는 지상물 이미지의 경우에도 변형률을 연산할 수 있고, 이 경우에는 변형률이 벡터량으로 산출된다.This embodiment exemplifies the case of a ground object image that is inclined only in one side direction as shown in FIG. 3, but the strain can also be calculated in the case of a ground object image that is inclined in the direction of two adjacent sides. In this case, the strain rate It is calculated as this vector quantity.

S13; 지적도 검색 단계S13; Cadastral Map Search Step

편집모듈(17)은 보정대상 범위의 GPS좌표를 확인하고 지적도DB(12)에서 해당하는 지적도 정보를 검색하며, 상기 지적도 정보에서 지적도 이미지(M2)를 추출한다.The editing module 17 checks the GPS coordinates of the range to be corrected, searches for corresponding cadastral map information from the cadastral map DB 12, and extracts a cadastral map image M2 from the cadastral map information.

S14; 정사영상 이미지의 지적구간별 삭제 편집 단계S14; Editing step of deleting orthogonal image by intellectual section

편집모듈(17)은 앞서 추출한 지적도 이미지(M2)를 보정대상 범위에 오버랩하고, 지적도 이미지(M2)의 필지 경계선(BL)에 맞춰서 정사영상 이미지(M1)를 필지(Z1, Z2) 별로 구간 삭제한다. 즉, 편집모듈(17)은 도 7의 (b)와 같이 지적도 이미지(M2)의 경계선(BL)을 정사영상 이미지(M1)에 오버랩해서 도 8과 같이 합성이미지(M12)로 생성하고, 해당 필지(Z1, Z2) 구간을 삭제해서 도 9과 같은 편집정사영상 이미지(M3)를 생성하는 것이다. The editing module 17 overlaps the previously extracted cadastral map image (M2) with the area to be corrected, and deletes the section of the orthogonal image (M1) for each parcel (Z1, Z2) in line with the parcel boundary (BL) of the cadastral map image (M2). do. That is, the editing module 17 overlaps the boundary line BL of the cadastral map image M2 on the orthogonal image M1 as shown in FIG. 7(b) to create a composite image M12 as shown in FIG. By deleting the section of the parcels Z1 and Z2, the edited orthogonal image M3 as shown in FIG. 9 is generated.

S15; 평면형상 보정 단계S15; Plane shape correction step

편집모듈(17)은 객체이미지(BM, BM')에서 평면형상(P1, P1')을 이동시켜서 측면 외곽라인(UL1, UL2)에 맞추고, 측면형상(P2, P2', P3, P3')을 삭제헤서 제1편집이미지(MM)를 생성한다.The editing module 17 moves the flat shape (P1, P1') from the object image (BM, BM') to fit the side outline (UL1, UL2), and the side shape (P2, P2', P3, P3') The first edited image (MM) is created by deleting.

그런데, 제1편집이미지(MM)를 구성하는 평면형상(P1, P1')은 동일한 지상물이어도 촬영 거리(L1, L2, h1, h2)와 촬영 각도와 항공기(D)와의 거리값(37, 37', 38, 38')과 촬영 고도(h1, h2) 등에 따라 해당 객체이미지(BM3 내지 BM8)의 촬영 면적(31 내지 36)이 달라진다. However, even if the planar shapes P1 and P1' constituting the first edited image MM are the same ground object, the shooting distances L1, L2, h1, h2, the shooting angle, and the distance value 37, 37', 38, 38') and photographing altitudes h1, h2, etc., the photographing areas 31 to 36 of the corresponding object images BM3 to BM8 vary.

따라서 편집모듈(17)은 제1편집이미지(MM)를 촬영 거리(L1, L2)와 촬영 고도(h1, h2)와 촬영 각도와 항공기(D)와의 거리(37, 37', 38, 38') 등과 같은 가변요소에 상관 없이 항공기(D)가 해당 지상물로부터 연직방향으로 평면을 정확히 촬영한 것과 같이 보정한다. 이를 위해 편집모듈(17)은 해당 객체이미지(BM, BM')의 GPS좌표값을 확인해서 해당하는 지상물(B1 내지 B3)의 제원데이터를 지상물정보DB(13)에서 검색하고, 해당 지상물(B1 내지 B3)과 촬영지점 간의 거리값(37, 37', 38, 38')과 지상물의 높이값(BH)을 확인해서 촬영 면적(31 내지 36)의 변화량을 확인한다. 즉, 도 10과 같이 항공기(D)가 지상물을 직상방에서 해당 촬영 고도(h1)와 'L1'의 촬영 거리로 촬영해 수집한 객체이미지(BM4)를 표준으로 본 평면의 촬영 면적(32)을 기준으로 보고, 촬영각과 촬영 거리(L2), 제원데이터에서 확인한 해당 지상물의 높이, 촬영지점 간의 거리값(37, 37', 38, 38') 등에 의해 달라진 촬영 면적(31, 33 내지 36)을 기준 면적(32)의 크기로 맞춰 보정하는 것이다.Therefore, the editing module 17 takes the first edited image (MM) from the shooting distance (L1, L2), the shooting altitude (h1, h2), the shooting angle, and the distance (37, 37', 38, 38') to the aircraft (D). Regardless of variable factors such as ), etc., it is corrected as if the aircraft D accurately photographed the plane in the vertical direction from the ground object. To this end, the editing module 17 checks the GPS coordinate value of the object image (BM, BM'), searches for the specification data of the corresponding ground object (B1 to B3) in the ground object information DB 13, and By checking the distance values (37, 37', 38, 38') between the water (B1 to B3) and the photographing point and the height value (BH) of the ground object, the amount of change in the photographing area (31 to 36) is confirmed. That is, as shown in FIG. 10, the plane D is taken as a standard view of the object image BM4 collected by photographing the ground object at the corresponding shooting altitude h1 and the shooting distance of'L1'. ), and the shooting area (31, 33 to 36) changed by the shooting angle and shooting distance (L2), the height of the corresponding ground object identified in the specification data, and the distance values between shooting points (37, 37', 38, 38'), etc. ) To the size of the reference area 32.

결국, 편집모듈(17)은 거리값(37, 37', 38, 38')과 높이값(BH)과 촬영 고도(h1, h2)와 촬영지점의 촬영좌표값과 지상물의 GPS좌표값에 비례해서 제1편집이미지(MM)를 도 12의 (c)도면과 같이 벡터량의 비율로 확장해서 제2편집이미지(MM')를 생성한다. 참고로, 거리값(37, 37', 38, 38')은 항공기(D) 촬영 시의 GPS좌표값과 해당 지상물(B1 내지 B3)의 GPS좌표값의 차이다.After all, the editing module 17 is proportional to the distance value (37, 37', 38, 38'), height value (BH), shooting altitude (h1, h2), shooting coordinate value of the shooting point and GPS coordinate value of the ground object. As a result, the first edited image MM is expanded at the ratio of the vector amount as shown in Fig. 12(c) to generate the second edited image MM'. For reference, the distance values 37, 37', 38, 38' are the difference between the GPS coordinate values of the aircraft D and the GPS coordinate values of the corresponding ground objects B1 to B3.

계속해서, 편집모듈(17)은 제2편집이미지(MM')를 정사영상 처리모듈(19)이 생성한 변형률에 맞춰 벡터량의 비율로 확장해서 제3편집이미지로 생성한다. 상기 제3편집이미지는 정사영상 처리 과정에서 지상물 이미지의 고도별 형상 차이로 인한 발생 오류를 방지한다.Subsequently, the editing module 17 generates a third edited image by expanding the second edited image MM' at a ratio of the vector amount according to the strain generated by the orthogonal image processing module 19. The third edited image prevents an error occurring due to a difference in shape of an image of a ground object according to altitude in a process of processing an orthogonal image.

S16; 평면형상 합성 단계S16; Planar shape synthesis step

도 13 및 도 14와 같이 편집모듈(17)은 편집정사영상 이미지(M3)에 구성된 필지(Z1, Z2)의 삭제영역별로 해당하는 제2편집이미지(MM1, MM2)를 합성해서 영상지도이미지(M4)를 생성한다. 편집정사영상 이미지(M3)는 GPS좌표계(미도시함)가 구성되므로, 지상물의 해당 좌표값이 링크된 제2편집이미지(MM1, MM2)는 상기 좌표값에 따라 편집정사영상 이미지(M3)에 합성된다.13 and 14, the editing module 17 synthesizes the second edited images MM1 and MM2 corresponding to the deletion areas of the parcels Z1 and Z2 composed of the edited orthogonal image M3, M4). Since the edited orthogonal image M3 is composed of a GPS coordinate system (not shown), the second edited images MM1 and MM2 to which the corresponding coordinate values of the ground object are linked are in the edited orthogonal image M3 according to the coordinate values. Is synthesized.

도 14에서 보인 영상지도이미지(M4)는 필지(Z2)에서 제2편집이미지(MM1, MM2)가 합성되는 구간(Z21)만을 삭제하고 다른 구간은 기존 이미지를 유지한 것이다.In the image map image M4 shown in FIG. 14, only the section Z21 in which the second edited images MM1 and MM2 are combined in the parcel Z2 is deleted, and the other section retains the existing image.

S17; 보조이미지 보강 단계S17; Secondary image enhancement step

편집모듈(17)은 정사영상 이미지를 필지(Z1, Z2) 단위로 삭제하므로, 제2편집이미지(MM')를 삭제영역에 합성해도 도 13과 같이 채워지지 않은 빈 공간이 잔존한다. 따라서 보조이미지 보강모듈(18)은 제2편집이미지(MM')를 제외한 삭제영역의 빈 공간에 나무이미지(미도시함), 도로이미지(미도시함)와 출입구 이미지(미도시함) 중 선택된 하나 이상을 합성해서 영상지도이미지(M4)를 미려하게 보강한다.Since the editing module 17 deletes the orthogonal image in units of parcels Z1 and Z2, an unfilled empty space remains as shown in FIG. 13 even when the second edited image MM' is combined in the deletion area. Therefore, the auxiliary image reinforcement module 18 is selected from a tree image (not shown), a road image (not shown), and an entrance image (not shown) in the empty space of the deleted area excluding the second edited image (MM'). By combining one or more, the image map image (M4) is beautifully reinforced.

결국, 영상지도이미지(M4)는 필지(Z1, Z2) 단위의 이미지 삭제로 인해 보이는 조잡한 외관 없이 사실적인 영상 모습을 이루며 활용할 수 있다.In the end, the image map image M4 can be used to form a realistic image without the crude appearance seen due to the deletion of images in the parcels (Z1, Z2).

앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예들을 참조해 설명했지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.In the detailed description of the present invention described above, it has been described with reference to preferred embodiments of the present invention, but those skilled in the art or those of ordinary skill in the relevant technical field, the spirit of the present invention described in the claims to be described later. And it will be understood that various modifications and changes can be made to the present invention within a range not departing from the technical field.

a2; 사각지대 B1 내지 B5; 지상물 BL; 경계선
BM, BM', BM1 내지 BM8; 객체이미지 D; 항공기
d1, d2; 폭 M1; 정사영상 이미지 M12; 합성이미지
M2; 지적도 이미지 M3; 편집정사영상 이미지 M4; 영상지도이미지
MM; 제1편집이미지 MM'; 제2편집이미지 P1, P1'; 평면형상
P2, P2', P3, P3'; 측명형상 UL1, UL2; 측면 외곽라인
a2; Blind spots B1 to B5; Ground water BL; boundary
BM, BM', BM1 to BM8; Object image D; aircraft
d1, d2; Width M1; Orthogonal image M12; Composite image
M2; Cadastral map image M3; Edited orthoimage image M4; Video map image
MM; The first edited image MM'; Second edited images P1, P1'; Plane shape
P2, P2', P3, P3'; Side name shape UL1, UL2; Side outline

Claims (1)

GPS좌표값별 해발고도값이 설정된 지형도 정보를 저장하는 지형지도DB; 다수의 촬영이미지가 GPS좌표에 맞춰 합성 편집된 정사영상 이미지를 저장하는 영상DB; GPS좌표에 맞춰 필지가 구분 표시된 지적도 정보를 저장하는 지적도DB; 지상물의 외형수치값 및 높이값을 포함한 제원데이터와 지상물의 GPS좌표값을 저장하는 지상물정보DB; 상기 정사영상 이미지에 구성된 지상물 이미지의 GPS좌표값을 확인해서 지형지도DB에서 해당 지상물의 해발고도값을 검색하며 해발고도 기준값과의 고도차를 확인하고, 지상물정보DB에서 해당 지상물의 제원데이터를 검색하여 지상물의 3차원 형상을 확인하고, 해당 지상물에 대한 촬영지점의 촬영좌표값을 시점으로 상기 해발고도값에 위치한 3차원 형상과 해발고도 기준값에 위치한 3차원 형상 각각의 가시적 평면형상 변형률을 확인하는 정사영상 처리모듈; 상기 영상DB에서 검색된 정사영상 이미지의 촬영 고도에 비례해서 정사영상 이미지의 보정대상 범위를 지정하는 보정대상 검출모듈; 상기 정사영상 이미지에서 보정대상 범위 이내의 픽셀들의 RGB값을 확인하여 지정된 대표색도 군에 속하는 색도의 픽셀의 RGB값을 해당 대표색도로 통일시키고, 상기 대표색도로 통일된 픽셀들의 위치값을 확인하여 동일한 RGB값을 갖는 픽셀들의 군집 형태를 딥러닝을 통해 정형화하고, 상기 정형화된 군집 형태를 독립된 형상이미지로 설정하고, 서로 접하는 3개 이상의 형상이미지의 집합체를 객체이미지로 지정하며, 상기 객체이미지의 형상이미지 중에서 면적이 가장 큰 형상이미지를 평면형상으로 지정하고, 다른 형상이미지는 측면형상으로 지정하는 이미지 분석모듈; 상기 객체이미지의 측면형상 중 평면형상과 미접하는 측면 외곽라인이 보정대상 범위에 기준비율 이상 위치하고, 상기 평면형상과 일 측면형상의 전체 폭 대비 일 측면형상의 폭이 기준치 이내이면, 해당 객체이미지를 보정대상으로 지정하는 객체이미지 추출모듈; 상기 측면 외곽라인에 평면형상이 맞춰지며 측면형상이 삭제된 제1편집이미지를 생성하고, 상기 객체이미지의 GPS좌표값에 해당하는 지상물의 제원데이터를 지상물정보DB에서 검색해서 해당 지상물과 촬영지점 간의 거리값과 촬영 고도와 지상물의 높이값과 촬영지점의 촬영좌표값과 지상물의 GPS좌표값을 확인하고, 상기 거리값과 촬영 고도와 높이값과 촬영지점의 GPS좌표값과 지상물의 GPS좌표값에 비례해서 제1편집이미지를 벡터량의 비율로 확장해서 제2편집이미지로 생성하고, 상기 제2편집이미지를 변형률에 맞춰 벡터량의 비율로 확장해서 제3편집이미지로 생성하고, 상기 정사영상 이미지의 보정대상 범위에 해당하는 지적도 정보를 지적도DB에서 검색하여 지적도 이미지를 보정대상 범위에 오버랩하고, 상기 지적도 이미지의 필지 경계선에 맞춰서 정사영상 이미지를 필지 별로 이미지 삭제하며 제3편집이미지를 해당 삭제영역에 합성하여 편집정사영상 이미지를 생성하는 편집모듈;
을 포함하는 것을 특징으로 하는 좌표별 정사영상 중첩 방식을 통한 정사 오차 확인장치.
A topographic map DB for storing topographic map information in which an elevation value for each GPS coordinate value is set; An image DB for storing orthogonal image images synthesized and edited according to GPS coordinates; A cadastral map DB that stores cadastral map information in which parcels are classified according to GPS coordinates; A ground object information DB for storing specification data including an external shape value and a height value of the ground object and a GPS coordinate value of the ground object; By checking the GPS coordinate value of the ground object image configured in the orthogonal image, searching for the altitude value of the ground object in the topographic map DB, checking the elevation difference from the reference altitude elevation value, and checking the specification data of the ground object in the ground object information DB. Search to check the three-dimensional shape of the ground object, and use the photographing coordinate value of the photographing point for the corresponding ground object as a starting point, and determine the visible plane shape deformation of each of the three-dimensional shape located at the elevation value and the three-dimensional shape located at the reference elevation value. An orthogonal image processing module to check; A correction target detection module for designating a correction target range of the orthogonal image in proportion to the photographing altitude of the orthogonal image retrieved from the image DB; In the orthogonal image, the RGB values of pixels within the range to be corrected are checked, the RGB values of the pixels of the chromaticity belonging to the designated representative chromaticity group are unified with the corresponding representative chromaticity, and the position values of the pixels unified with the representative chromaticity are checked. The cluster shape of pixels having the same RGB value is formalized through deep learning, the standardized cluster shape is set as an independent shape image, and a collection of three or more shape images in contact with each other is designated as an object image. An image analysis module for designating a shape image having the largest area among the shape images as a flat shape, and designating other shape images as a side shape; Among the side shapes of the object image, if a side outline that is not in contact with the planar shape is located at a reference ratio or more in the range to be corrected, and the width of one side shape relative to the total width of the flat shape and one side shape is within the reference value, the object image is An object image extraction module designated as a correction target; Creates a first edited image whose plane shape is aligned with the side outline and the side shape is deleted, and retrieves the specification data of the ground object corresponding to the GPS coordinate value of the object image from the ground object information DB and photographs the ground object Check the distance value between points, the shooting altitude, the height of the ground object, the shooting coordinate value of the shooting point, and the GPS coordinate value of the ground object, and the distance value, the shooting altitude and height value, the GPS coordinate value of the shooting point and the GPS coordinate of the ground object In proportion to the value, the first edited image is expanded at the ratio of the vector amount to generate a second edited image, the second edited image is expanded at the ratio of the vector amount according to the deformation rate to generate a third edited image, and the orthogonal image The cadastral map information corresponding to the correction target range of is searched in the cadastral map DB, the cadastral map image is overlapped with the correction target range, the orthogonal image image is deleted for each lot according to the lot boundary of the cadastral map image, and the third edited image is deleted in the corresponding deletion area. An editing module for generating an edited orthogonal image by combining the image;
Orthogonal error checking device through an orthoimage superimposition method for each coordinate, comprising a.
KR1020200104550A 2020-08-20 2020-08-20 Image checking assembly used by overlap for each orthophoto KR102204044B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200104550A KR102204044B1 (en) 2020-08-20 2020-08-20 Image checking assembly used by overlap for each orthophoto

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200104550A KR102204044B1 (en) 2020-08-20 2020-08-20 Image checking assembly used by overlap for each orthophoto

Publications (1)

Publication Number Publication Date
KR102204044B1 true KR102204044B1 (en) 2021-01-18

Family

ID=74236889

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200104550A KR102204044B1 (en) 2020-08-20 2020-08-20 Image checking assembly used by overlap for each orthophoto

Country Status (1)

Country Link
KR (1) KR102204044B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102343415B1 (en) * 2021-06-22 2021-12-27 (주)동광지엔티 Aerial photography system editable 3d target image of digital aerial photography information
KR102341486B1 (en) * 2021-06-22 2021-12-28 (주)신한항업 Editting system of 3d ortho image collected for each elevation
KR102345140B1 (en) * 2021-09-14 2021-12-30 서광항업 주식회사 Cadastral Survey Data Acquisition Apparatus using Ortho Image of Drone and Method Thereof
KR102362514B1 (en) * 2021-06-22 2022-02-16 (주)그린공간정보 Spatial image treatment system editing distortion on digital image
KR102407704B1 (en) * 2021-12-16 2022-06-10 이은석 Civil engineering design system using drone

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000058437A (en) * 2000-05-23 2000-10-05 박용선 Method of Manufacturing Map Using Satellite Image Data
KR100623666B1 (en) * 2006-01-27 2006-09-13 (자)한진개발공사 Method for manufacturing three-dimensional geographic information system digital image drawing using digital photommetry and non prism total station
KR101938402B1 (en) 2018-06-27 2019-01-15 동아항업 주식회사 Drawing image compositing system for features in blind area
KR102081332B1 (en) * 2019-10-15 2020-02-25 (주)그린공간정보 Equipment for confirming the error of image by overlapping of orthoimage

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000058437A (en) * 2000-05-23 2000-10-05 박용선 Method of Manufacturing Map Using Satellite Image Data
KR100623666B1 (en) * 2006-01-27 2006-09-13 (자)한진개발공사 Method for manufacturing three-dimensional geographic information system digital image drawing using digital photommetry and non prism total station
KR101938402B1 (en) 2018-06-27 2019-01-15 동아항업 주식회사 Drawing image compositing system for features in blind area
KR102081332B1 (en) * 2019-10-15 2020-02-25 (주)그린공간정보 Equipment for confirming the error of image by overlapping of orthoimage

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102343415B1 (en) * 2021-06-22 2021-12-27 (주)동광지엔티 Aerial photography system editable 3d target image of digital aerial photography information
KR102341486B1 (en) * 2021-06-22 2021-12-28 (주)신한항업 Editting system of 3d ortho image collected for each elevation
KR102362514B1 (en) * 2021-06-22 2022-02-16 (주)그린공간정보 Spatial image treatment system editing distortion on digital image
KR102345140B1 (en) * 2021-09-14 2021-12-30 서광항업 주식회사 Cadastral Survey Data Acquisition Apparatus using Ortho Image of Drone and Method Thereof
KR102407704B1 (en) * 2021-12-16 2022-06-10 이은석 Civil engineering design system using drone

Similar Documents

Publication Publication Date Title
KR102204044B1 (en) Image checking assembly used by overlap for each orthophoto
US8116530B2 (en) Map change detection device, map change detection method, and program
US6970593B2 (en) Stereo image processing apparatus and method of processing stereo image
JP5134784B2 (en) Aerial photogrammetry
US6768813B1 (en) Photogrammetric image processing apparatus and method
US7127085B2 (en) Image processing method for automatic image registration and correction
JP5389964B2 (en) Map information generator
JP5363752B2 (en) Road marking map generation method
US7149346B2 (en) Three-dimensional database generating system and method for generating three-dimensional database
KR102204043B1 (en) System for automatic satellite image processing for improving image accuracy by position correcting of geographic feature
Tscharf et al. On the use of UAVs in mining and archaeology-geo-accurate 3D reconstructions using various platforms and terrestrial views
KR102081332B1 (en) Equipment for confirming the error of image by overlapping of orthoimage
KR102070169B1 (en) Digital topographic map system updating the coordinates data no topographic map
CN113971768A (en) Unmanned aerial vehicle-based three-dimensional dynamic detection method for power transmission line illegal building
JP2012137933A (en) Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
KR101346192B1 (en) Aviation surveying system for correction realtime of aviation image
KR102204046B1 (en) Correcting system restoring dead zone on the image
JP2006195032A (en) Topographical map creating method and topographical map creating system
KR102204041B1 (en) System for correcting the error able to modify boundary line for mapping
CN113947638A (en) Image orthorectification method for fisheye camera
JP3808833B2 (en) Aerial photogrammetry
KR101938400B1 (en) Image drawing management system editing secure zone on 3d image
KR102204040B1 (en) Image processing system for unifying collecting images by altitude
CN107784666B (en) Three-dimensional change detection and updating method for terrain and ground features based on three-dimensional images
KR101393273B1 (en) System for advanced road texture image

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant