KR102204040B1 - Image processing system for unifying collecting images by altitude - Google Patents

Image processing system for unifying collecting images by altitude Download PDF

Info

Publication number
KR102204040B1
KR102204040B1 KR1020200121917A KR20200121917A KR102204040B1 KR 102204040 B1 KR102204040 B1 KR 102204040B1 KR 1020200121917 A KR1020200121917 A KR 1020200121917A KR 20200121917 A KR20200121917 A KR 20200121917A KR 102204040 B1 KR102204040 B1 KR 102204040B1
Authority
KR
South Korea
Prior art keywords
image
shape
collected
module
edited
Prior art date
Application number
KR1020200121917A
Other languages
Korean (ko)
Inventor
임형택
배재만
김형태
Original Assignee
주식회사 동신지티아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 동신지티아이 filed Critical 주식회사 동신지티아이
Priority to KR1020200121917A priority Critical patent/KR102204040B1/en
Application granted granted Critical
Publication of KR102204040B1 publication Critical patent/KR102204040B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/007Dynamic range modification
    • G06T5/008Local, e.g. shadow enhancement
    • G06T5/94
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

The present invention relates to an image processing apparatus for correction for unifying images collected at different altitudes. According to the present invention, the image processing apparatus for correction for unifying images collected at different altitudes comprises: an information DB; a correction target detection module; an image analysis module; an object image extraction module for designating an object image as a correction target; an editing module for generating an image map image; a shadow section search module; a resolution adjustment module; and an altitude image designation module. According to the present invention, a complete collected image can be generated.

Description

고도별 수집이미지의 통일화를 위한 보정용 영상처리장치{IMAGE PROCESSING SYSTEM FOR UNIFYING COLLECTING IMAGES BY ALTITUDE}Image processing device for correction for unification of collected images by altitude {IMAGE PROCESSING SYSTEM FOR UNIFYING COLLECTING IMAGES BY ALTITUDE}

본 발명은 하나로 통일된 영상지도이미지를 확대하거나 축소하는 방식으로 시점의 고도를 조정하고 시각적 효과를 배가하기 위해서 영상지도이미지의 출력 해상도와 지상물 이미지별 암영구간을 조정하는 고도별 수집이미지의 통일화를 위한 보정용 영상처리장치에 관한 것이다.The present invention is a method of expanding or reducing the unified image map image to adjust the height of the viewpoint and to increase the visual effect, the unification of the collected image by elevation by adjusting the output resolution of the image map image and the dark section for each ground image It relates to an image processing apparatus for correction for.

종래 영상지도이미지는 하나의 이미지를 확대 또는 축소하는 방식으로 사용자의 시점 고도에 대응하게 출력했다. 하지만, 이러한 출력 방식은 영상지도이미지를 단순히 확대 또는 축소해서 모니터에 출력하므로, 사용자가 느끼는 시각적 사실감이 낮았고, 수회에 걸친 편집 과정을 통해 인공적으로 제작된 영상지도이미지의 인위성이 배가 되었다. In the conventional video map image, one image is enlarged or reduced to correspond to the user's viewpoint altitude. However, since this output method simply enlarges or reduces the image map image and outputs it to the monitor, the visual realism felt by the user was low, and the artificiality of the artificially produced image map image was doubled through the editing process over several times.

따라서 시점의 고도 조정을 통해 영상지도이미지가 확대 또는 축소되면서 느껴지는 시각적인 사실감을 증대시키기 위한 영상처리 기술이 요구되었다.Therefore, an image processing technology is required to increase the visual realism felt when the image map image is enlarged or reduced through height adjustment of the viewpoint.

한편, 영상지도 또는 수치지도 제작을 위한 도화의 기준 이미지인 영상은 항공촬영 등을 통해 수집된다. 이렇게 수집된 촬영이미지는 기준점을 기준으로 대상을 분류하고 중첩 및 편집해서 수집이미지를 제작한다. 수집이미지는 지형적 구조와 건축물 또는 각종 식생물 등의 지상물에 의해 사각지대(a2; 도 1 참조) 및 음영지대(이하 '사각지대')가 발생하고, 동일한 지상물이라도 촬영 각도에 따라 사각지대(a2)의 범위는 다양해질 수 있다.Meanwhile, an image, which is a reference image of a drawing for making an image map or a digital map, is collected through aerial photography. The collected images are classified based on the reference point, overlapped, and edited to create a collection image. In the collected images, blind spots (a2; see Fig. 1) and shaded zones (hereinafter referred to as'blind spots') are generated by topographical structures and ground objects such as buildings or various vegetation, and even the same ground objects are blind spots according to the shooting angle. The scope of (a2) can be varied.

그런데 사각지대(a2)는 수집이미지에서 특정 구역을 시각적으로나 영상적으로 정확하게 파악할 수 없게 하므로, 사각지대(a2)를 갖는 수집이미지는 영상지도 또는 수치지도 제작에 그대로 활용할 수 없었다. 결국, 사각지대(a2)에 대한 현장 조사를 별도로 진행해서 사각지대(a2)의 위치좌표와 지상물 등의 형상 및 점유 범위 등을 파악하고 영상지도 또는 수치지도 제작에 활용하였다.However, since the blind spot (a2) makes it impossible to accurately identify a specific area visually or visually in the collected image, the collected image having the blind spot (a2) could not be used as it is for the production of an image map or digital map. Eventually, a field survey was conducted on the blind spot (a2) separately, and the location coordinates of the blind spot (a2) and the shape and occupied range of ground objects were identified and utilized in the production of image maps or digital maps.

하지만, 이러한 제작 방법은 비용적으로나 업무적으로 부담이 있었고, 다수의 사각지대(a2)를 일일이 현장 조사해야 하므로 시간적으로도 부담이 적지 않았다.However, this production method was burdensome in terms of cost and business, and the burden was not small in terms of time as a number of blind spots (a2) had to be inspected on-site.

결국, 사각지대(a2)를 좀 더 신속히 파악하고 복원 및 보정할 수 있는 기술이 절실하게 요구되었다.In the end, there is an urgent need for a technology capable of quickly identifying, restoring and correcting the blind spot (a2).

선행기술문헌 1. 특허등록번호 제10-1938402호(2019.01.15 공고)Prior Art Document 1. Patent Registration No. 10-1938402 (announced on January 15, 2019)

이에 본 발명은 상기의 문제를 해소하기 위한 것으로, 고도별 수집이미지를 하나의 영상지도이미지로 통일해서 고도별 시점에 따라 사실감 있게 출력할 수 있으며, 수집이미지에서 사각지대를 파악하여 제 형상으로 복원하고 지도 생성을 위한 기초자료로서 완전한 수집이미지를 생성시킬 수 있는 고도별 수집이미지의 통일화를 위한 보정용 영상처리장치의 제공을 해결하고자 하는 과제로 한다.Accordingly, the present invention is to solve the above problem, and the collected image for each elevation can be unified into one image map image and output in a realistic sense according to the viewpoint of each elevation, and the blind spot is identified from the collected image and restored to its original shape. And it is a task to solve the provision of an image processing device for correction for unification of collected images by elevation that can generate complete collection images as basic data for map generation.

상기의 과제를 달성하기 위하여 본 발명은,In order to achieve the above object, the present invention,

수집이미지와, GPS좌표에 맞춰 필지가 구분 표시된 지적도 정보와, 지상물의 GPS좌표값과 제원데이터를 저장하는 정보DB; An information DB for storing collected images, cadastral map information in which parcels are classified according to GPS coordinates, and GPS coordinate values and specification data of ground objects;

상기 정보DB에서 검색된 수집이미지의 수집 고도에 비례해서 수집이미지의 보정대상 범위를 지정하는 보정대상 검출모듈;A correction target detection module for designating a correction target range of the collected image in proportion to the collection altitude of the collected image retrieved from the information DB;

상기 수집이미지에서 보정대상 범위 이내의 픽셀들의 RGB값을 확인하여 지정된 대표색도 군에 속하는 색도의 픽셀의 RGB값을 해당 대표색도로 통일시키고, 상기 대표색도로 통일된 픽셀들의 위치값을 확인하여 동일한 RGB값을 갖는 픽셀들의 군집 형태를 딥러닝을 통해 정형화하고, 상기 정형화된 군집 형태를 독립된 형상이미지로 설정하고, 서로 접하는 3개 이상의 형상이미지의 집합체를 객체이미지로 지정하며, 상기 객체이미지의 형상이미지 중에서 면적이 가장 큰 형상이미지를 평면형상으로 지정하고, 다른 형상이미지는 측면형상으로 지정하는 이미지 분석모듈; In the collected image, the RGB values of pixels within the range to be corrected are checked, and the RGB values of the pixels of the chromaticity belonging to the designated representative chromaticity group are unified with the corresponding representative chromaticity, and the position values of the pixels unified with the representative chromaticity are checked. The cluster shape of pixels having RGB values is standardized through deep learning, the standardized cluster shape is set as an independent shape image, a collection of three or more shape images in contact with each other is designated as an object image, and the shape of the object image An image analysis module that designates a shape image having the largest area among the images as a flat shape, and designates another shape image as a side shape;

상기 객체이미지의 측면형상 중 평면형상과 미접하는 객체 외곽선이 보정대상 범위에 기준비율 이상 위치하고, 상기 평면형상과 일 측면형상의 전체 폭 대비 일 측면형상의 폭이 기준치 이내이면, 해당 객체이미지를 보정대상으로 지정하는 객체이미지 추출모듈;If the outline of the object that is not in contact with the planar shape among the side shapes of the object image is located at a reference ratio or more in the range to be corrected, and the width of one side shape relative to the total width of the flat shape and one side shape is within the reference value, the object image is corrected. An object image extraction module designated as a target;

상기 객체 외곽선에 평면형상이 맞춰지며 측면형상이 삭제된 제1편집이미지를 생성하고, 상기 객체이미지의 GPS좌표값에 해당하는 지상물의 제원데이터를 정보DB에서 검색해서 해당 지상물과 촬영지점 간의 거리값과 촬영 고도와 지상물의 높이값과 촬영지점의 GPS좌표값과 지상물의 GPS좌표값을 확인하고, 상기 거리값과 촬영 고도와 높이값과 촬영지점의 GPS좌표값과 지상물의 GPS좌표값에 비례해서 제1편집이미지를 벡터량의 비율로 확대해서 제2편집이미지로 생성하고, 상기 수집이미지의 보정대상 범위에 해당하는 지적도 정보를 정보DB에서 검색하여 지적도 이미지를 보정대상 범위에 오버랩하고, 상기 지적도 이미지의 필지 경계선에 맞춰서 수집이미지를 필지 별로 이미지 삭제하여 편집영상이미지를 생성하며, 상기 제2편집이미지를 편집영상이미지의 해당 삭제영역에 합성하여 영상지도이미지를 생성하는 편집모듈; A first edited image is created in which the plane shape is aligned with the object outline and the side shape is deleted, and the data of the ground object corresponding to the GPS coordinate value of the object image is retrieved from the information DB, and the distance between the ground object and the shooting point Value, shooting altitude, height of the ground object, GPS coordinate value of the shooting point, and GPS coordinate value of the ground object are checked, and the distance value, shooting altitude and height value, and the GPS coordinate value of the shooting point and the GPS coordinate value of the ground object are proportional Then, the first edited image is enlarged at the ratio of the vector amount to generate a second edited image, and the cadastral map information corresponding to the correction target range of the collected image is retrieved from the information DB, and the cadastral map image is overlapped with the correction target range, and the cadastral map An editing module for generating an edited video image by deleting the collected image for each lot according to the parcel boundary of the image, and synthesizing the second edited image with a corresponding deletion area of the edited video image to generate an image map image;

상기 편집모듈이 확인한 제원데이터로부터 제2편집이미지의 지상물의 높이와 폭과 촬영 고도에 따라 시각적으로 나타나는 지상물 주변의 암영구간 범위를 해당 제2편집이미지에 설정하는 암영구간 탐색모듈;A dark section search module for setting a range of a dark section around the ground object visually displayed according to the height and width of the ground object of the second edited image and the photographing altitude from the specification data checked by the editing module in the second edited image;

상기 영상지도이미지를 확대하거나 축소해서 시점의 고도 조정 효과가 시각적으로 발현되도록, 상기 시점의 고도별 해상도를 설정하는 해상도 조정모듈; 및A resolution adjustment module configured to set the resolution for each elevation of the viewpoint so that the elevation adjustment effect of the viewpoint is visually expressed by expanding or reducing the image map image; And

상기 영상지도이미지의 확대 또는 축소함에 따라 제2편집이미지별로 설정된 암영구간의 범위와, 상기 영상지도이미지의 해상도를 시각적으로 조정해서 출력시키는 고도이미지 지정모듈;An elevation image designation module for visually adjusting and outputting a range of dark regions set for each second edited image and a resolution of the image map image as the image map image is enlarged or reduced;

를 포함하는 고도별 수집이미지의 통일화를 위한 보정용 영상처리장치이다.It is an image processing device for correction for unification of the collected images by altitude including a.

상기의 본 발명은, 고도별 수집이미지를 하나의 영상지도이미지로 통일해서 고도별 시점에 따라 사실감 있게 출력할 수 있으며, 수집이미지에서 사각지대를 파악하여 제 형상으로 복원하고 지도 생성을 위한 기초자료로서 완전한 수집이미지를 생성시킬 수 있는 효과가 있다.In the present invention, the collected image for each elevation can be unified into one image map image and output in a realistic way according to the viewpoint of each elevation, and the blind spot in the collected image is identified and restored to its original shape, and basic data for map generation It has the effect of generating a complete collection image.

도 1은 본 발명에 따른 영상처리장치가 보정하는 수집이미지의 수집 모습을 개략적으로 도시한 도면이고,
도 2는 본 발명에 따른 영상처리장치에 구성된 모듈의 일실시 예를 도시한 블록도이고,
도 3와 도 4는 본 발명에 따른 영상처리장치가 지상물의 제원데이터를 기반으로 제2편집이미지의 둘레에서 암영구간을 탐색하는 모습을 도시한 도면이고,
도 5은 도 3와 도 4에서 탐색한 암영구간에 맞춰 제2편집이미지의 둘레에 암영구간이 표시된 모습을 도시한 도면이고,
도 6은 본 발명에 따른 영상처리장치의 동작 프로세스를 순차로 보인 플로차트이고,
도 7는 본 발명에 따른 영상처리장치가 객체이미지의 보정 대상 여부를 검출하기 위한 기준을 보인 도면이고,
도 8는 본 발명에 따른 영상처리장치가 검색한 수집이미지 구역의 지적도 모습을 도시한 도면이고,
도 9은 편집 이전의 수집이미지에 지적도를 합성한 경우를 개략적으로 예시한 도면이고,
도 10은 본 발명에 따른 영상처리장치가 보정 대상 객체이미지가 위치한 필지를 수집이미지에서 삭제한 모습을 보인 이미지이고,
도 11과 도 12는 촬영각도별 상기 객체이미지의 평면형상 변화를 개략적으로 도시한 도면이고,
도 13은 본 발명에 따른 영상처리장치가 지정 비율에 맞춰 평면형상을 보정하는 모습을 개략적으로 도시한 도면이고,
도 14는 본 발명에 따른 영상처리장치가 지적구역별로 객체이미지의 평면형상을 합성한 모습을 개략적으로 도시한 도면이고,
도 15는 도 14를 수집이미지로 보인 이미지이다.
1 is a diagram schematically showing a collection of collected images corrected by an image processing apparatus according to the present invention,
2 is a block diagram showing an embodiment of a module configured in the image processing apparatus according to the present invention,
3 and 4 are views showing a state in which the image processing apparatus according to the present invention searches for a dark section around a second edited image based on the specification data of the ground object,
5 is a diagram showing a state in which a dark area is displayed around a second edited image in accordance with the dark area searched in FIGS. 3 and 4;
6 is a flowchart sequentially showing the operation process of the image processing apparatus according to the present invention.
7 is a diagram showing a criterion for detecting whether an object image is to be corrected by an image processing apparatus according to the present invention;
8 is a diagram showing an cadastral view of a collected image area searched by an image processing apparatus according to the present invention;
9 is a diagram schematically illustrating a case of synthesizing an cadastral map to a collected image before editing,
10 is an image showing the image processing apparatus according to the present invention deleting the parcel where the object image to be corrected is located from the collected image,
11 and 12 are diagrams schematically showing a change in the planar shape of the object image for each photographing angle,
13 is a diagram schematically showing a state in which an image processing apparatus according to the present invention corrects a planar shape according to a specified ratio,
14 is a diagram schematically showing a state in which the image processing apparatus according to the present invention synthesizes the planar shape of object images for each cadastral area,
15 is an image showing FIG. 14 as a collection image.

상술한 본 발명의 특징 및 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다.The features and effects of the present invention described above will become apparent through the following detailed description in connection with the accompanying drawings, whereby those of ordinary skill in the technical field to which the present invention pertains can easily implement the technical idea of the present invention. There will be. Since the present invention can apply various changes and have various forms, specific embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific disclosed form, and it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention.

이하, 본 발명을 구체적인 내용이 첨부된 도면에 의거하여 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 영상처리장치가 보정하는 수집이미지의 수집 모습을 개략적으로 도시한 도면이고, 도 2는 본 발명에 따른 영상처리장치에 구성된 모듈의 일실시 예를 도시한 블록도이다.1 is a diagram schematically showing a collection of collected images corrected by an image processing apparatus according to the present invention, and FIG. 2 is a block diagram showing an embodiment of a module configured in the image processing apparatus according to the present invention.

도 1과 도 2를 참조하면, 본 발명의 영상처리장치는, 수집이미지(M1; 도 8 참조)와, GPS좌표에 맞춰 필지가 구분 표시된 지적도 정보와, 지물의 GPS좌표값 및 제원데이터를 저장하는 정보DB(11); 정보DB(11)에서 검색된 수집이미지(M1)의 수집 고도에 비례한 보정대상 범위를 해당 수집이미지(M1)에서 지정하는 보정대상 검출모듈(14); 수집이미지(M1)에서 보정대상 범위 이내의 픽셀들의 RGB값을 확인하여 지정된 대표색도 군에 속하는 색도의 픽셀의 RGB값을 해당 대표색도로 통일시키고, 상기 대표색도로 통일된 픽셀들의 위치값을 확인하여 동일한 RGB값을 갖는 픽셀들의 군집 형태를 딥러닝을 통해 정형화하고, 상기 정형화된 군집 형태를 독립된 형상이미지로 설정하고, 서로 접하는 3개 이상의 형상이미지의 집합체를 객체이미지(BM, BM'; 도 7 참조)로 지정하며, 객체이미지(BM, BM')의 형상이미지 중에서 면적이 가장 큰 형상이미지를 평면형상(P1, P1'; 도 7 참조)으로 지정하고, 다른 형상이미지는 측면형상(P2, P2', P3, P3')으로 지정하는 이미지 분석모듈(15); 객체이미지(BM, BM')의 측면형상(P2, P2', P3, P3') 중 평면형상(P1, P1')과 미접하는 객체 외곽선(UL1, UL2; 도 7 참조)이 보정대상 범위에 기준비율 이상 위치하면 해당 객체이미지(BM, BM')를 보정대상으로 지정하는 객체이미지 추출모듈(16); 객체 외곽선(UL1, UL2)에 평면형상(P1, P1')이 맞춰지며 측면형상(P2, P2', P3, P3')이 삭제된 제1편집이미지를 생성하고, 객체이미지(BM, BM')의 GPS좌표값에 해당하는 지상물(B1 내지 B3)의 제원데이터를 정보DB(11)에서 검색해서 해당 지상물(B1 내지 B3)과 촬영지점 간의 거리값과 지상물의 높이값을 확인하고, 상기 거리값과 높이값에 비례해서 제1편집이미지(MM)가 벡터량의 비율로 확대된 제2편집이미지(MM')를 생성하고, 수집이미지(M1)의 보정대상 범위에 해당하는 지적도 정보를 정보DB(11)에서 검색하여 지적도 이미지(M2; 도 8 참조)를 보정대상 범위에 오버랩하고, 지적도 이미지(M2)의 필지 경계선(BL; 도 8 참조)에 맞춰서 수집이미지(M1)를 필지(Z1, Z2) 별로 이미지 삭제하며 제2편집이미지(MM')를 해당 삭제영역에 합성하는 편집모듈(17a); 편집모듈(17a)이 확인한 제원데이터로부터 제2편집이미지(MM')의 지상물(B1 내지 B3)의 높이(e1)와 폭과 촬영 고도(e2)에 따라 시각적으로 나타나는 지상물(B1 내지 B3) 주변의 암영구간(t2, t2', t3, t3') 범위를 해당 제2편집이미지(MM')에 설정하는 암영구간 탐색모듈(18); 영상지도이미지(M4)를 확대하거나 축소해서 시점의 고도 조정 효과가 시각적으로 발현되도록, 상기 시점의 고도별 해상도를 설정하는 해상도 조정모듈(19); 영상지도이미지(M4)의 확대 또는 축소에 따라 제2편집이미지(MM')별로 설정된 암영구간(t2, t2', t3, t3')의 범위와, 영상지도이미지(M4)의 해상도를 시각적으로 조정해서 출력시키는 고도이미지 지정모듈(17b);을 포함한다.1 and 2, the image processing apparatus of the present invention stores a collected image (M1; see FIG. 8), cadastral map information where parcels are classified according to GPS coordinates, and GPS coordinate values and specification data of features. Information DB 11; A correction target detection module 14 for designating a correction target range proportional to the collection altitude of the collected image M1 retrieved from the information DB 11 in the collected image M1; In the collected image (M1), the RGB values of the pixels within the range to be corrected are checked, and the RGB values of the pixels of the chromaticity belonging to the designated representative chromaticity group are unified with the corresponding representative chromaticity, and the location values of the pixels unified with the representative chromaticity are checked. Thus, a cluster shape of pixels having the same RGB value is standardized through deep learning, the standardized cluster shape is set as an independent shape image, and a collection of three or more shape images in contact with each other is an object image (BM, BM'; 7), and the shape image with the largest area among the shape images of the object images (BM, BM') is designated as the flat shape (P1, P1'; see Fig. 7), and the other shape images are the side shape (P2). , An image analysis module 15 designated as P2', P3, P3'); Of the side shapes (P2, P2', P3, P3') of the object image (BM, BM'), the object outlines (UL1, UL2; see Fig. 7) that are not in contact with the flat shapes (P1, P1') are within the range to be corrected. An object image extraction module 16 for designating a corresponding object image (BM, BM') as a correction target if it is positioned above the reference ratio; Create a first edited image in which the flat shape (P1, P1') is aligned with the object outline (UL1, UL2) and the side shape (P2, P2', P3, P3') is deleted, and the object image (BM, BM') ) Of the ground object (B1 to B3) corresponding to the GPS coordinate value of) is searched in the information DB 11, and the distance value between the corresponding ground object (B1 to B3) and the shooting point and the height value of the ground object are checked, In proportion to the distance value and the height value, a second edited image MM' in which the first edited image MM is enlarged in proportion to the vector amount is generated, and cadastral map information corresponding to the correction target range of the collected image M1 is generated. By searching in the information DB 11, the cadastral map image (M2; see Fig. 8) is overlapped with the correction target range, and the collected image M1 is placed in accordance with the parcel boundary line BL (see Fig. 8) of the cadastral map image M2. An editing module 17a that deletes images for each Z1 and Z2) and combines the second edited image MM' into a corresponding deletion area; Ground objects B1 to B3 visually displayed according to the height (e1) and width of the ground objects (B1 to B3) of the second edit image (MM') and the photographing height (e2) from the specification data checked by the editing module (17a) ) A dark section search module 18 for setting the range of the surrounding dark section (t2, t2', t3, t3') to the corresponding second edited image (MM'); A resolution adjustment module 19 for setting a resolution for each elevation of the viewpoint so that the elevation adjustment effect of the viewpoint is visually expressed by expanding or reducing the image map image M4; According to the enlargement or reduction of the image map image M4, the range of the dark zone (t2, t2', t3, t3') set for each second edit image (MM') and the resolution of the image map image (M4) visually It includes; an altitude image designation module 17b that adjusts and outputs.

본 발명에 따른 영상처리장치의 구성요소를 좀 더 구체적으로 설명하면, 정보DB(11)는 영상지도의 배경을 이루는 통상의 수집이미지(M1)를 저장한다. 수집이미지(M1)는 드론 등의 항공기(D)가 항공 촬영해서 수집한 다수의 촬영이미지를 공지된 이미지 편집 프로세스에 따라 GPS좌표에 맞춰서 합성 및 편집한 것이다. 촬영이미지를 기반으로 한 수집이미지(MI) 생성 기술은 이미 공지의 기술이므로 여기서는 이에 대한 구체적인 설명은 생략한다. 정보DB(11)는 GPS좌표에 맞춰 필지(Z1, Z2; 도 8 참조)가 구분 표시된 지적도 정보를 저장한다. 지적도 정보는 GPS좌표값과 지적도 이미지(M2)를 포함하므로, GPS좌표값을 이용해서 해당 구간의 필지(Z1, Z2)를 검색하고 모니터를 통해 출력시킬 수 있다. 또한 정보DB(11)는 지상물(B1 내지 B3)의 GPS좌표값과 제원데이터를 저장한다. 수집이미지(M1)에 게시된 지상물 이미지는 지상에 실재하는 건축물 및 구조물 등의 지상물(B1 내지 B3)이므로, 실재 위치값인 GPS좌표값과, 지상물의 높이, 층수, 폭, 명칭 등의 제원데이터를 구성한다. 따라서 수집이미지(M1)에 게시된 해당 지상물 이미지별로 GPS좌표값과 제원데이터가 링크되고, 상기 GPS좌표값과 제원데이터는 정보DB(11)에 저장된다.In more detail, the constituent elements of the image processing apparatus according to the present invention will be described in more detail. The information DB 11 stores a conventional collected image M1 that forms the background of the image map. Collected image (M1) is a composite and edited according to the GPS coordinates according to the known image editing process a number of photographed images collected by the aircraft (D) such as drones aerial photography. Since the collected image (MI) generation technology based on the photographed image is a known technology, a detailed description thereof will be omitted here. The information DB 11 stores cadastral map information on which parcels (Z1, Z2; see FIG. 8) are divided and displayed according to GPS coordinates. Since the cadastral map information includes the GPS coordinate value and the cadastral map image (M2), the parcels (Z1, Z2) of the corresponding section can be searched using the GPS coordinate value and displayed through the monitor. In addition, the information DB 11 stores the GPS coordinate values and specification data of the ground objects B1 to B3. Since the ground object image posted in the collected image (M1) is ground objects (B1 to B3) such as buildings and structures that exist on the ground, the GPS coordinate value, which is the actual position value, and the height, number of floors, width, name, etc. Compose specification data. Accordingly, the GPS coordinate value and the specification data are linked for each corresponding ground object image posted in the collected image M1, and the GPS coordinate value and the specification data are stored in the information DB 11.

보정대상 검출모듈(14)은, 정보DB(11)에서 검색된 수집이미지(M1)의 수집 고도에 비례해서 수집이미지(M1)의 보정대상 범위를 지정한다. 도 1과 같이 카메라는 화각에 따라 촬영범위가 제한되고, 촬영 항공기(D)의 고도에 따라 촬영범위가 제한된다. 즉, 화각이 크거나 촬영고도가 높을수록 촬영범위는 증가한다. 그런데 촬영범위에서도 가장자리로 갈수록 이미지의 변형과 왜곡이 증가하므로, 수집이미지(M1)에서 유효한 범위는 중앙부로 한정되고, 상기 중앙부에 위치한 지상물 이미지 중에서도 보정이 가능한 지상물 이미지는 극히 제한된다. 따라서 보정대상 검출모듈(14)은 수집이미지(M1)의 생성 기반인 촬영이미지의 수집 고도에 맞춰 지정된 비율에 따라 보정대상 범위가 설정된다. 상기 보정대상 범위가 설정되면, 후속 프로세스의 처리 대상은 해당 보정대상 범위로 제한되고, 상기 보정대상 범위 내에 위치하는 지상물 이미지로 처리 대상이 제한된다.The correction object detection module 14 designates a correction object range of the collected image M1 in proportion to the collection altitude of the collected image M1 retrieved from the information DB 11. As shown in FIG. 1, the camera is limited in the shooting range according to the angle of view, and the shooting range is limited according to the altitude of the shooting aircraft D. In other words, the larger the angle of view or the higher the photographing altitude, the greater the photographing range. However, since the deformation and distortion of the image increases toward the edge of the shooting range, the effective range of the collected image M1 is limited to the center, and among the ground object images located at the center, the ground object image that can be corrected is extremely limited. Therefore, the correction target detection module 14 sets the correction target range according to a specified ratio according to the collection altitude of the photographed image, which is the basis for the generation of the collected image M1. When the range to be corrected is set, the target to be processed in the subsequent process is limited to the range to be corrected, and the target to be processed is limited to an image of a ground object located within the range to be corrected.

이미지 분석모듈(15)은, 수집이미지(M1)에서 보정대상 범위 이내의 픽셀들의 RGB값을 확인하여 지정된 대표색도 군에 속하는 색도의 픽셀의 RGB값을 해당 대표색도로 통일시키고, 상기 대표색도로 통일된 픽셀들의 위치값을 확인하여 동일한 RGB값을 갖는 픽셀들의 군집 형태를 딥러닝을 통해 정형화하고, 상기 정형화된 군집 형태를 독립된 형상이미지로 설정하고, 서로 접하는 3개 이상의 형상이미지의 집합체를 객체이미지(BM, BM'; 도 7 참조)로 지정하며, 객체이미지(BM, BM')의 형상이미지 중에서 면적이 가장 큰 형상이미지를 평면형상(P1, P1'; 도 7 참조)으로 지정하고, 다른 형상이미지는 측면형상(P2, P2', P3, P3')으로 지정한다. 이미지 분석모듈(15)은 보정대상 범위에 위치하는 픽셀들을 위치와 RGB값에 따라 분석해서 평면형상(P1, P1')과 측면형상(P2, P2', P3, P3')을 구성한 객체이미지(BM, BM')를 분류해 확인한다. 이에 대한 구체적인 설명은 프로차트를 설명하며 상세히 한다.The image analysis module 15 checks the RGB values of pixels within the range to be corrected in the collected image M1 and unifies the RGB values of the pixels of the chromaticity belonging to the designated representative chromaticity group with the corresponding representative chromaticity. By checking the position values of unified pixels, the cluster form of pixels having the same RGB value is formalized through deep learning, the standardized cluster form is set as an independent shape image, and a collection of three or more shape images in contact with each other is an object. It is designated as an image (BM, BM'; see Fig. 7), and the shape image with the largest area among the shape images of the object image (BM, BM') is designated as a flat shape (P1, P1'; see Fig. 7), Other shape images are designated as side shapes (P2, P2', P3, P3'). The image analysis module 15 analyzes the pixels located in the range to be corrected according to the position and RGB value, and an object image (P1, P1') and side shape (P2, P2', P3, P3') BM, BM') are classified and confirmed. A detailed description of this will be described in detail by describing the pro chart.

객체이미지 추출모듈(16)은, 객체이미지(BM, BM')의 측면형상(P2, P2', P3, P3') 중 평면형상(P1, P1')과 미접하는 객체 외곽선(UL1, UL2; 도 7 참조)이 보정대상 범위에 기준비율 이상 위치하면 해당 객체이미지(BM, BM')를 보정대상으로 지정한다. 보정대상 검출모듈(14)이 검출한 보정대상 범위에는 객체이미지(BM, BM') 전체가 위치할 수도 있지만, 그 일부만이 위치할 수도 있다. 따라서 객체이미지 추출모듈(16)은 보정대상 범위에 대한 객체 외곽선(UL1, UL2)의 위치 정도를 기준으로 보정대상 여부를 판독한다. 이에 대한 구체적인 설명은 프로차트를 설명하며 상세히 한다.The object image extraction module 16 includes object outlines (UL1, UL2) that are not in contact with the planar shapes (P1, P1') of the side shapes (P2, P2', P3, P3') of the object images (BM, BM'); 7) is positioned above the reference ratio in the range to be corrected, a corresponding object image (BM, BM') is designated as a correction target. The entire object images BM and BM' may be located in the range of the target to be corrected detected by the target detection module 14, but only a part of the image may be located. Accordingly, the object image extraction module 16 reads whether or not to be corrected based on the degree of position of the object outlines UL1 and UL2 with respect to the range to be corrected. A detailed description of this will be described in detail by describing the pro chart.

편집모듈(17a)은, 객체 외곽선(UL1, UL2)에 평면형상(P1, P1')이 맞춰지며 측면형상(P2, P2', P3, P3')이 삭제된 제1편집이미지를 생성하고, 객체이미지(BM, BM')의 GPS좌표값에 해당하는 지상물(B1 내지 B3)의 제원데이터를 정보DB(11)에서 검색해서 해당 지상물(B1 내지 B3)과 촬영지점 간의 거리값과 지상물의 높이값을 확인하고, 상기 거리값과 높이값에 비례해서 제1편집이미지(MM)가 벡터량의 비율로 확대된 제2편집이미지(MM')를 생성하고, 수집이미지(M1)의 보정대상 범위에 해당하는 지적도 정보를 정보DB(11)에서 검색하여 지적도 이미지(M2; 도 8 참조)를 보정대상 범위에 오버랩하고, 지적도 이미지(M2)의 필지 경계선(BL; 도 8 참조))에 맞춰서 수집이미지(M1)를 필지(Z1, Z2) 별로 이미지 삭제하며 제2편집이미지(MM')를 해당 삭제영역에 합성한다. 편집모듈(17a)은 현장 정보 수집 및 재촬영 정보 수집 등의 추가 작업 없이도 지상물 이미지에서 촬영 각도에 의해 생성된 사각지대(a2)를 제거하며 수집이미지를 편집할 수 있게 하는 기술이다. 이를 위해 편집모듈(17a)은 수집이미지(M1)에서 지상물 이미지의 주변 이미지, 즉 주차된 차량이미지, 나무 이미지, 벤치 이미지, 공원 이미지 등을 삭제하고 경사지게 촬영된 지상물 이미지를 편집하는 것이다. 이에 대한 구체적인 설명은 프로차트를 설명하며 상세히 한다.The editing module 17a generates a first edited image in which flat shapes (P1, P1') are matched to object outlines (UL1, UL2) and side shapes (P2, P2', P3, P3') are deleted, The data of the ground objects (B1 to B3) corresponding to the GPS coordinate values of the object images (BM, BM') are retrieved from the information DB 11, and the distance between the corresponding ground objects (B1 to B3) and the shooting point and the ground Check the height value of the water, generate a second edited image (MM') in which the first edited image (MM) is enlarged at a ratio of the vector amount in proportion to the distance value and the height value, and corrected the collected image (M1). The cadastral map information corresponding to the range is retrieved from the information DB 11, and the cadastral map image (M2; see Fig. 8) is overlapped with the correction target range, and matches the parcel boundary (BL; see Fig. 8) of the cadastral map image M2). The collected image M1 is deleted for each parcel Z1 and Z2, and the second edited image MM' is combined in the corresponding deletion area. The editing module 17a is a technology that allows the collection image to be edited by removing the blind spot (a2) generated by the shooting angle from the ground object image without additional work such as collecting field information and re-taking information. To this end, the editing module 17a deletes the surrounding image of the ground object image, that is, the parked vehicle image, the tree image, the bench image, the park image, etc. from the collected image M1, and edits the obliquely photographed ground object image. A detailed description of this will be described in detail by describing the pro chart.

암영구간 탐색모듈(18)과 해상도 조정모듈(19)과 고도이미지 지정모듈(17b)은 아래에서 좀 더 상세히 설명한다.The dark section search module 18, the resolution adjustment module 19, and the elevation image designation module 17b will be described in more detail below.

도 3과 도 4는 본 발명에 따른 영상처리장치가 지상물의 제원데이터를 기반으로 제2편집이미지의 둘레에서 암영구간을 탐색하는 모습을 도시한 도면이고, 도 5는 도 3와 도 4에서 탐색한 암영구간에 맞춰 제2편집이미지의 둘레에 암영구간이 표시된 모습을 도시한 도면이다.3 and 4 are diagrams showing a state in which an image processing apparatus according to the present invention searches for a dark section around a second edited image based on the specification data of a ground object, and FIG. 5 is a view showing the search in FIGS. 3 and 4 It is a diagram showing a state in which a dark area is displayed around a second edited image in accordance with one dark area.

도 2 내지 도 5를 참조하면, 암영구간 탐색모듈(18)은, 편집모듈(17a)이 확인한 제원데이터로부터 제2편집이미지(MM')의 지상물(B1 내지 B3)의 높이(e1)와 폭과 촬영 고도(e2)에 따라 시각적으로 나타나는 지상물(B1 내지 B3) 주변의 암영구간(t2, t2', t3, t3') 범위를 해당 제2편집이미지(MM')에 설정한다. 2 to 5, the dark section search module 18 includes the height e1 of the ground objects B1 to B3 of the second edited image MM' from the specification data checked by the editing module 17a. A range of dark sections (t2, t2', t3, t3') around the ground objects (B1 to B3) visually indicated according to the width and photographing altitude (e2) is set in the second edited image (MM').

항공기(D)는 상징적으로 관찰자 또는 카메라이므로 지상을 보거나 촬영을 하는 위치가다. 따라서 항공기(D)의 고도(e2)는 곧 시점의 고도(e2) 또는 촬영 고도(e2)이다. 그런데, 촬영 고도(e2)가 높아질수록 도 3 및 도 4와 같이 지상물(B1 내지 B3)의 높이(e1)와 촬영 고도(e2) 간의 차는 기하학적으로 증가하고, 시야각(q1, q2)은 좁아지며, 지상물(B1 내지 B3)에 의해 가려지는 암영구간(t2, t2', t3, t3') 범위도 좁아진다. 물론 지상물(B1 내지 B3)의 폭(t1)과 높이(e1)에 관한 제원데이터는 일정하므로, 이러한 관계를 기반으로 암영구간 탐색모듈(18)은 암영구간(t2, t2', t3, t3') 범위를 촬영 고도(e2)에 따라 연산해 확인한다.The aircraft (D) is symbolically an observer or a camera, so it is a position to see the ground or take a picture. Therefore, the altitude e2 of the aircraft D is the altitude e2 or the shooting altitude e2 of the viewpoint. However, as the photographing altitude e2 increases, the difference between the height e1 of the ground objects B1 to B3 and the photographing altitude e2 increases geometrically, and the viewing angles q1 and q2 narrow as shown in FIGS. 3 and 4. It also narrows the range of dark sections (t2, t2', t3, t3') that are covered by the above-ground water (B1 to B3). Of course, since the data regarding the width (t1) and the height (e1) of the ground objects (B1 to B3) are constant, the dark section search module 18 based on this relationship is used for the dark section (t2, t2', t3, t3). ') Check the range by calculating it according to the shooting altitude (e2).

해상도 조정모듈(19)은, 영상지도이미지(M4)를 확대하거나 축소해서 시점의 고도 조정 효과가 시각적으로 발현되도록, 상기 시점의 고도별 해상도를 설정한다. 일반적으로 타겟으로부터 거리가 멀어질수록 시야는 넓어지지만 타겟의 형체는 불분명해진다. 즉, 시각적 해상도는 크게 저하되는 것이다. 따라서 시점 고도의 조정을 통해 사용자의 시각적 사실감을 증대시키기 위해, 본 실시의 해상도 조정모듈(19))은 시점 고도가 높아질수록 지상에 대한 시야는 넓어지지만 지상물 이미지가 불분명해지도록 해상도를 저하시킨다. The resolution adjustment module 19 sets the resolution for each elevation of the viewpoint so that the elevation adjustment effect of the viewpoint is visually expressed by expanding or reducing the image map image M4. In general, as the distance from the target increases, the field of view becomes wider, but the shape of the target becomes unclear. In other words, the visual resolution is greatly reduced. Therefore, in order to increase the visual realism of the user through the adjustment of the viewpoint altitude, the resolution adjustment module 19 of the present embodiment decreases the resolution so that the field of view on the ground becomes wider as the viewpoint altitude increases, but the ground object image becomes unclear. .

고도이미지 지정모듈(17b)은, 영상지도이미지(M4)의 확대 또는 축소에 따라 제2편집이미지(MM')별로 설정된 암영구간(t2, t2', t3, t3')의 범위와, 영상지도이미지(M4)의 해상도를 시각적으로 조정해서 출력시킨다. 후술될 영상지도이미지(M4)는 편집모듈(17a)이 수집이미지(M1)를 픽셀별로 재조합하여 생성시킨 제2편집이미지(MM')의 군집이므로, 사용자가 영상지도이미지(M4)를 확대하여 시점의 고도를 높이면, 고도이미지 지정모듈(17b)은 영상지도이미지(M4)의 표현 사실감을 높이기 위해 해상도를 낮추고, 제2편집이미지(MM')의 암영구간(t3, t3')의 범위를 좁힌다. 이와는 반대로 사용자가 영상지도이미지(M4)를 축소하여 시점의 고도를 낮추면, 고도이미지 지정모듈(17b)은 해상도를 높이고, 제2편집이미지(MM')의 암영구간(t2, t2')의 범위를 넓힌다. The elevation image designation module 17b includes a range of dark sections (t2, t2', t3, t3') set for each second edited image (MM') according to the enlargement or reduction of the image map image (M4), and the image map The resolution of the image M4 is visually adjusted and output. The video map image (M4) to be described later is a cluster of second edited images (MM') generated by recombining the collected image (M1) by pixel by the editing module (17a), so the user enlarges the video map image (M4) When the elevation of the viewpoint is increased, the elevation image designation module 17b lowers the resolution to increase the realistic expression of the image map image M4, and adjusts the range of the dark sections (t3, t3') of the second edited image (MM'). Narrow. Conversely, when the user reduces the elevation of the viewpoint by reducing the image map image (M4), the elevation image designation module (17b) increases the resolution, and the range of dark sections (t2, t2') of the second edited image (MM') Widens

도 6은 본 발명에 따른 영상처리장치의 동작 프로세스를 순차로 보인 플로차트이고, 도 7는 본 발명에 따른 영상처리장치가 객체이미지의 보정 대상 여부를 검출하기 위한 기준을 보인 도면이고, 도 8는 본 발명에 따른 영상처리장치가 검색한 수집이미지 구역의 지적도 모습을 도시한 도면이고, 도 9은 편집 이전의 수집이미지에 지적도를 합성한 경우를 개략적으로 예시한 도면이고, 도 10은 본 발명에 따른 영상처리장치가 보정 대상 객체이미지가 위치한 필지를 수집이미지에서 삭제한 모습을 보인 이미지이고, 도 11과 도 12는 촬영각도별 상기 객체이미지의 평면형상 변화를 개략적으로 도시한 도면이고, 도 13은 본 발명에 따른 영상처리장치가 지정 비율에 맞춰 평면형상을 보정하는 모습을 개략적으로 도시한 도면이고, 도 14은 본 발명에 따른 영상처리장치가 지적구역별로 객체이미지의 평면형상을 합성한 모습을 개략적으로 도시한 도면이고, 도 15는 도 14을 수집이미지로 보인 이미지이다.6 is a flowchart sequentially showing the operation process of the image processing apparatus according to the present invention, FIG. 7 is a diagram showing the criteria for detecting whether an object image is to be corrected by the image processing apparatus according to the present invention, and FIG. It is a diagram showing the state of the cadastral map of the collected image area searched by the image processing apparatus according to the present invention, FIG. 9 is a diagram schematically illustrating a case of synthesizing the cadastral map to the collected image before editing, and FIG. 10 The image processing apparatus according to the image processing apparatus is an image showing a state in which the parcel where the object image to be corrected is located has been deleted from the collected image, and FIGS. 11 and 12 are diagrams schematically showing a change in the planar shape of the object image according to the photographing angle, and FIG. 13 Is a diagram schematically showing a state in which the image processing apparatus according to the present invention corrects the planar shape according to a specified ratio, and FIG. 14 is a view in which the image processing apparatus according to the present invention synthesizes the planar shape of object images for each intellectual area. Is a schematic diagram, and FIG. 15 is an image showing FIG. 14 as a collection image.

도 1 내지 도 15를 참조하면, 본 발명의 영상처리장치는 하기의 프로세스로 동작하여 영상지도이미지(M4)를 생성한다.1 to 15, the image processing apparatus of the present invention generates an image map image M4 by operating in the following process.

S10; 보정대상 범위 지정 단계S10; Steps to specify the range to be corrected

보정대상 검출모듈(14)은, 작업자가 정보DB(11)에서 수집이미지(M1)를 검색하면 수집이미지(M1)를 구성한 촬영이미지의 수집 고도를 확인하고, 상기 수집 고도에 비례하여 지정된 비율에 맞춰서 수집이미지(M1)에 보정대상 범위를 지정한다.When the operator searches the collected image M1 in the information DB 11, the correction target detection module 14 checks the collection altitude of the photographed image constituting the collected image M1, and at a specified ratio in proportion to the collection altitude. According to this, the range to be corrected is designated in the collected image (M1).

보정대상 범위는 해당 수집이미지(M1)를 이루는 촬영이미지의 촬영 시점에 항공기(D)가 위치한 지점을 중심으로 하는 원형 구간이다.The range to be corrected is a circular section centered on the point where the aircraft D is located at the time of photographing the photographed image forming the corresponding collection image M1.

결국, 항공기(D)의 고도가 높을수록 보정대상 범위는 넓어진다. 그런데 수집이미지(M1) 제작을 위해 유효한 촬영이미지는 항공기(D)가 제한된 고도에 위치한 상태에서 수집한 촬영이미지로 한정되므로, 보정대상 검출모듈(14)이 수집이미지(M1)에서 지정하는 보정대상 범위는 수집이미지(M1)별로 큰 차이를 보이지 않는다.Consequently, the higher the altitude of the aircraft D, the wider the range to be corrected. However, the effective shooting image for the production of the collected image (M1) is limited to the captured image collected while the aircraft (D) is located at a limited altitude, so the correction target detection module 14 designated by the collected image (M1) The range does not show much difference for each collection image (M1).

S11; 수집이미지 분석 단계S11; Steps to analyze collected images

보정대상 검출모듈(14)이 검출한 보정대상 범위 내에 게시된 지상물 이미지를 이미지 분석모듈(15)이 픽셀의 위치값과 RGB값을 분석해서 지상물 이미지를 구성하는 평면형상(P1, P1'; 도 7 참조)과 측면형상(P2, P2', P3, P3')을 추출한다.The image analysis module 15 analyzes the position value and RGB value of the pixels on the ground object image posted within the range of the object to be corrected detected by the detection module 14 to be corrected to form a planar shape (P1, P1') ; See Fig. 7) and side shapes (P2, P2', P3, P3') are extracted.

항공기(D)에서 디지털 카메라로 수집된 촬영이미지는 수집이미지(M1)로 보정 및 편집된 후에 RGB값이 설정된 픽셀을 통해 모니터에 출력된다. 따라서 이미지 분석모듈(15)은 수집이미지(M1)를 모니터에 출력하기 위한 픽셀별로 위치값과 해당 RGB값을 확인한다. 지상물은 표면에 고유한 색상이 도색되므로, 이웃하는 다른 지상물과는 다른 색도를 갖는다. 그런데 동일한 색상으로 표면이 도색된 지상물이라도 지상물 이미지는 지상물의 표면 굴곡과 위치별 명암 차이 등에 의해 색도가 차이를 보일 수 있다. 즉, 동일한 지상물 이미지의 동일한 표면이라도 해당 픽셀에 설정된 RGB값에 다소 차이가 있을 수 있는 것이다.The photographed image collected by the digital camera in the aircraft D is corrected and edited with the collected image M1, and then output to the monitor through the pixel with the RGB value set. Therefore, the image analysis module 15 checks the position value and corresponding RGB value for each pixel for outputting the collected image M1 to the monitor. Ground objects are painted with a unique color on their surface, so they have a different chromaticity than other adjacent ground objects. However, even if the surface is painted in the same color, the image of the ground object may show a difference in chromaticity due to the surface curvature of the ground object and the difference in contrast by location. That is, even with the same surface of the same ground object image, there may be a slight difference in the RGB value set for the corresponding pixel.

따라서 이미지 분석모듈(15)은 지정된 대표색도 군에 속하는 색도로 설정된 픽셀의 RGB값을 해당 대표색도로 통일시킨다. 일 예를 들면, 임의의 대표색도군에 적색과 옅은 적색과 밝은 적색이 일군을 이루고 이중 대표색도가 적색인 경우, 임의의 픽셀에 설정된 RGB값이 밝은 적색으로 확인되면 해당 픽셀의 설정 RGB값을 해당 색도의 대표색도인 적색으로 RGB값을 변경한다.Accordingly, the image analysis module 15 unifies the RGB values of pixels set as chromaticities belonging to the designated representative chromaticity group with the corresponding representative chromaticity. For example, if red, pale red, and bright red form a group in an arbitrary representative chromaticity group, and the representative chromaticity is red, if the RGB value set in a random pixel is confirmed as bright red, the set RGB value of the pixel is determined. The RGB value is changed to red, which is the representative chromaticity of the corresponding chromaticity.

상기와 같이 RGB값이 대표색도로 통일되면, 이미지 분석모듈(15)은 픽셀들의 위치값을 확인하여 동일한 RGB값을 갖는 픽셀들의 군집 형태를 딥러닝을 통해 정형화한다. 그런데 특정 형태로 정형화된 피사체라도 촬영으로 수집된 지상물 이미지는 경계라인이 불분명해지거나 왜곡될 수 있다. 즉, 피사체가 사각형이라도 해당 피사체의 경계를 이루는 변은 직선 형태가 아닌 굴곡진 형태를 이룰 수 있는 것이다. 따라서 지상물 이미지가 다소 굴곡진 사각형이라도 이미지 분석모듈(15)은 딥러닝 기술을 통해 지상물 이미지를 4각형으로 정형화해서 독립된 형상이미지를 생성한다.When the RGB values are unified by the representative chromaticity as described above, the image analysis module 15 checks the position values of the pixels and formalizes the cluster form of pixels having the same RGB value through deep learning. However, even if a subject has been stereotyped in a specific shape, the boundary line may become unclear or distorted in the image of the ground object collected by photographing. In other words, even if the subject is a square, the sides that form the boundary of the subject may form a curved shape rather than a straight line. Therefore, even if the ground object image is a somewhat curved square, the image analysis module 15 generates an independent shape image by forming the ground object image into a square shape through deep learning technology.

계속해서 이미지 분석모듈(15)은 수집이미지(M1)를 분석해서 정형화된 형상이미지들 중 3개 이상의 형상이미지(P1, P2, P3)가 서로 접하는 집합체를 추출하고 해당 집합체를 객체이미지(BM, BM')로 지정한다. 수집이미지(M1)에서 확인할 수 있는 바와 같이, 건축물은 항공 촬영 시 다소 기울어지게 촬영되므로, 평면과 적어도 2개 이상의 측면이 서로 접하는 형태로 수집된다. 따라서, 3개 이상의 형상이미지(P1, P2, P3)가 서로 접하는 집합체는 지상물 이미지로 간주하고 객체이미지(BM, BM')로 지정한다.Subsequently, the image analysis module 15 analyzes the collected image M1, extracts an aggregate of three or more shape images (P1, P2, P3) in contact with each other among the standardized shape images, and converts the aggregate into an object image (BM, P3). BM'). As can be seen from the collected image M1, the building is photographed slightly inclined during aerial photography, and thus the plane and at least two or more sides are collected in a contact with each other. Therefore, an aggregate of three or more shape images (P1, P2, P3) in contact with each other is regarded as a ground object image and is designated as an object image (BM, BM').

S12; 보정 대상 객체이미지 추출 단계S12; Step of extracting object image to be corrected

이미지 분석모듈(15)은 객체이미지(BM, BM')로 지정된 3개 이상의 형상이미지(P1, P2, P3)에서 면적이 가장 큰 형상이미지를 평면형상(P1, P1')으로 지정하고, 다른 형상이미지는 측면형상(P2, P2', P3, P3')으로 지정한다. The image analysis module 15 designates the shape image with the largest area from three or more shape images (P1, P2, P3) designated as object images (BM, BM') as flat shapes (P1, P1'), and The shape image is designated as the side shape (P2, P2', P3, P3').

계속해서 객체이미지 추출모듈(16)은, 평면형상(P1, P1')과 일 측면형상(P2, P2', P3, P3')의 전체 폭 대비 일 측면형상(P2, P2', P3, P3')의 폭이 기준치 이내이고, 객체이미지(BM, BM')의 측면형상(P2, P2', P3, P3') 중 평면형상(P1, P1')과 미접하는 객체 외곽선(UL1, UL2)이 보정대상 범위에 기준비율 이상 위치하면 해당 객체이미지(BM, BM')를 보정대상으로 지정한다. Subsequently, the object image extraction module 16, compared to the total width of the planar shape (P1, P1') and one side shape (P2, P2', P3, P3'), one side shape (P2, P2', P3, P3). The width of') is within the standard value, and the outline of the object (UL1, UL2) not in contact with the planar shape (P1, P1') of the side shapes (P2, P2', P3, P3') of the object image (BM, BM') If it is located above the reference ratio in the range to be corrected, the object image (BM, BM') is designated as the target to be corrected.

이에 대해 좀 더 구체적으로 설명하면, 지상물 이미지가 지나치게 기울어진 상태로 수집되면, 평면형상(P1, P1')과 일 측면형상(P2, P2', P3, P3')의 전체 폭(d1, d1') 대비 일 측면형상(P2, P2', P3, P3')의 폭(d2, d2')이 증가한다. 즉, 촬영 과정에서 대상 지상물을 지나치게 측면으로 촬영해서 보정 대상으로는 무리가 있는 것이다. 따라서 이렇게 수집된 객체이미지(BM, BM')는 보정 대상에서 제외한다. 참고로, 도 7의 (a)도면은 평면형상(P1)과 일 측면형상(P2)의 전체 폭(d1) 대비 일 측면형상(P2)의 폭(d2)이 기준치 이상이므로, 객체이미지 추출모듈(16)은 보정 대상에서 제외한다.In more detail, when the ground object image is collected in an excessively inclined state, the overall width d1, P1' and one side shape P2, P2', P3, P3' Compared to d1'), the widths d2, d2' of one side shape (P2, P2', P3, P3') increase. In other words, it is unreasonable as a correction target because the target ground object is photographed too sideways during the shooting process. Therefore, object images (BM, BM') collected in this way are excluded from correction. For reference, the drawing (a) of FIG. 7 shows that the width (d2) of one side shape (P2) compared to the total width (d1) of the plan shape (P1) and one side shape (P2) is more than the reference value, so the object image extraction module (16) is excluded from correction.

또한, 객체이미지(BM, BM')의 측면형상(P2, P2', P3, P3') 중 평면형상(P1, P1')과 미접하는 객체 외곽선(UL1, UL2)은 해당 지상물이 지면에 실제로 위치하는 지점이다. 결국, 평면형상(P1, P1')은 보정대상 범위를 벗어나더라도 객체 외곽선(UL1, UL2)은 보정대상 범위 이내에 위치해야만 하는 것이다. 따라서 객체 외곽선(UL1, UL2)이 보정대상 범위 이내에 기준비율 이상 즉, 90% 이상 위치하면, 해당 객체이미지(BM, BM')의 지상물은 보정대상 범위 이내에 위치한 것으로 간주하고 보정 대상으로 지정한다. 상기 기준비율은 필요에 따라 변경되므로, 예시된 90%로 한정하는 것은 아니다.Also, among the side shapes (P2, P2', P3, P3') of the object image (BM, BM'), the object outlines (UL1, UL2) that are not in contact with the planar shape (P1, P1') are This is where it is actually located. Consequently, even if the planar shapes P1 and P1' are out of the range to be corrected, the object outlines UL1 and UL2 must be located within the range to be corrected. Therefore, if the object outline (UL1, UL2) is located within the range to be corrected above the reference ratio, that is, more than 90%, the ground object of the object image (BM, BM') is considered to be located within the range to be corrected and designated as the target for correction. . Since the reference ratio is changed as necessary, it is not limited to the illustrated 90%.

S13; 지적도 검색 단계S13; Cadastral Map Search Step

편집모듈(17a)은 보정대상 범위의 GPS좌표를 확인하고 정보DB(11)에서 해당하는 지적도 정보를 검색하며, 상기 지적도 정보에서 지적도 이미지(M2)를 추출한다.The editing module 17a checks the GPS coordinates of the range to be corrected, searches for corresponding cadastral map information from the information DB 11, and extracts a cadastral map image M2 from the cadastral map information.

S14; 수집이미지의 지적구간별 삭제 편집 단계S14; Deletion and Editing Stage of Collected Images

편집모듈(17a)은 앞서 추출한 지적도 이미지(M2)를 보정대상 범위에 오버랩하고, 지적도 이미지(M2)의 필지 경계선(BL)에 맞춰서 수집이미지(M1)를 필지(Z1, Z2) 별로 구간 삭제한다. 즉, 편집모듈(17a)은 도 8의 (b)와 같이 지적도 이미지(M2)의 경계선(BL)을 수집이미지(M1)에 오버랩해서 도 9과 같이 합성이미지(M12)로 생성하고, 해당 필지(Z1, Z2) 구간을 삭제해서 도 10과 같은 편집영상이미지(M3)를 생성하는 것이다. The editing module 17a overlaps the previously extracted cadastral map image M2 with the correction target range, and deletes the collected image M1 for each parcel (Z1, Z2) in accordance with the parcel boundary BL of the cadastral map image M2. . That is, the editing module 17a overlaps the boundary line BL of the cadastral map image M2 as shown in FIG. 8(b) with the collected image M1 to create a composite image M12 as shown in FIG. The edited video image M3 as shown in FIG. 10 is created by deleting the section (Z1, Z2).

S15; 평면형상 보정 단계S15; Plane shape correction step

편집모듈(17a)은 객체이미지(BM, BM')에서 평면형상(P1, P1')을 이동시켜서 객체 외곽선(UL1, UL2)에 맞추고, 측면형상(P2, P2', P3, P3')을 삭제헤서 제1편집이미지(MM)를 생성한다.The editing module 17a moves the flat shape (P1, P1') from the object image (BM, BM') to fit the object outline (UL1, UL2), and adjusts the side shape (P2, P2', P3, P3'). After deletion, the first edited image (MM) is created.

그런데, 제1편집이미지(MM)를 구성하는 평면형상(P1, P1')은 동일한 지상물이어도 촬영 거리(L1, L2, h1, h2)와 촬영 각도와 항공기(D)와의 거리값(37, 37', 38, 38')과 촬영 고도(h1, h2) 등에 따라 해당 객체이미지(BM3 내지 BM8)의 촬영 면적(31 내지 36)이 달라진다. However, even if the planar shapes P1 and P1' constituting the first edited image MM are the same ground object, the shooting distances L1, L2, h1, h2, the shooting angle, and the distance value 37, 37', 38, 38') and photographing altitudes h1, h2, etc., the photographing areas 31 to 36 of the corresponding object images BM3 to BM8 vary.

따라서 편집모듈(17a)은 제1편집이미지(MM)를 촬영 거리(L1, L2)와 촬영 고도(h1, h2)와 촬영 각도와 항공기(D)와의 거리(37, 37', 38, 38') 등과 같은 가변요소에 상관 없이 항공기(D)가 해당 지상물로부터 연직방향으로 평면을 정확히 촬영한 것과 같이 보정한다. 이를 위해 편집모듈(17a)은 해당 객체이미지(BM, BM')의 GPS좌표값을 확인해서 해당하는 지상물(B1 내지 B3)의 제원데이터를 정보DB(11)에서 검색하고, 해당 지상물(B1 내지 B3)과 촬영지점 간의 거리값(37, 37', 38, 38')과 지상물의 높이값을 확인해서 촬영 면적(31 내지 36)의 변화량을 확인한다. 즉, 도 11과 같이 항공기(D)가 지상물을 직상방에서 해당 촬영 고도(h1)와 'L1'의 촬영 거리로 촬영해 수집한 객체이미지(BM4)를 표준으로 본 평면의 촬영 면적(32)을 기준으로 보고, 촬영각과 촬영 거리(L2), 제원데이터에서 확인한 해당 지상물의 높이, 촬영지점 간의 거리값(37, 37', 38, 38') 등에 의해 달라진 촬영 면적(31, 33 내지 36)을 기준 면적(32)의 크기로 맞춰 보정하는 것이다.Therefore, the editing module 17a uses the shooting distance (L1, L2), the shooting altitude (h1, h2), the shooting angle, and the distance (37, 37', 38, 38') between the first edited image (MM) and the aircraft (D). Regardless of variable factors such as ), etc., it is corrected as if the aircraft D accurately photographed the plane in the vertical direction from the ground object. To this end, the editing module 17a checks the GPS coordinate values of the corresponding object images (BM, BM') and searches the data of the corresponding ground objects B1 to B3 in the information DB 11, and the corresponding ground objects ( B1 to B3) and the distance values (37, 37', 38, 38') between the photographing points and the height value of the ground object are checked to confirm the amount of change in the photographing areas (31 to 36). That is, as shown in FIG. 11, the plane D is taken as a standard image of the object image (BM4) collected by photographing the ground object at the corresponding shooting altitude h1 and the shooting distance of'L1'. ), and the shooting area (31, 33 to 36) changed by the shooting angle and shooting distance (L2), the height of the corresponding ground object identified in the specification data, and the distance values between shooting points (37, 37', 38, 38'), etc. ) To the size of the reference area 32.

결국, 편집모듈(17a)은 거리값(37, 37', 38, 38')과 높이값과 촬영 고도(h1, h2)와 촬영지점의 GPS좌표값과 지상물의 GPS좌표값에 비례해서 제1편집이미지(MM)를 도 13의 (c)도면과 같이 벡터량의 비율로 확대해서 제2편집이미지(MM')를 생성한다. 참고로, 거리값(37, 37', 38, 38')은 항공기(D) 촬영 시의 GPS좌표값과 해당 지상물(B1 내지 B3)의 GPS좌표값의 차이다.Eventually, the editing module 17a is the first in proportion to the distance values 37, 37', 38, 38', the height values, the shooting altitudes (h1, h2), the GPS coordinate values of the shooting point and the GPS coordinate values of the ground object. As shown in (c) of FIG. 13, the edited image MM is enlarged at a ratio of the vector amount to generate a second edited image MM'. For reference, the distance values 37, 37', 38, 38' are the difference between the GPS coordinate values of the aircraft D and the GPS coordinate values of the corresponding ground objects B1 to B3.

S16; 평면형상 합성 단계S16; Planar shape synthesis step

도 14 및 도 15와 같이 편집모듈(17a)은 편집영상이미지(M3)에 구성된 필지(Z1, Z2)의 삭제영역별로 해당하는 제2편집이미지(MM1, MM2)를 합성해서 영상지도이미지(M4)를 생성한다. 편집영상이미지(M3)는 GPS좌표계(미도시함)가 구성되므로, 지상물의 해당 좌표값이 링크된 제2편집이미지(MM1, MM2)는 상기 좌표값에 따라 편집영상이미지(M3)에 합성된다.14 and 15, the editing module 17a synthesizes the second edited images MM1 and MM2 corresponding to the deletion areas of the parcels Z1 and Z2 configured in the edited video image M3, thereby synthesizing the image map image M4. ). Since the edited video image M3 is composed of a GPS coordinate system (not shown), the second edited images MM1 and MM2 linked to the corresponding coordinate values of the ground object are combined into the edited video image M3 according to the coordinate values. .

도 15에서 보인 영상지도이미지(M4)는 필지(Z2)에서 제2편집이미지(MM1, MM2)가 합성되는 구간(Z21)만을 삭제하고 다른 구간은 기존 이미지를 유지한 것이다.In the image map image M4 shown in FIG. 15, only the section Z21 in which the second edited images MM1 and MM2 are combined in the parcel Z2 is deleted, and the other section retains the existing image.

S17; 암영구간 탐색 단계S17; The dark section search phase

편집모듈(17a)이 확인한 제원데이터로부터 제2편집이미지(MM')의 지상물(B1 내지 B3)의 높이(e1)와 폭과 촬영 고도(e2)에 따라 시각적으로 나타나는 지상물(B1 내지 B3) 주변의 암영구간(t2, t2', t3, t3') 범위를 해당 제2편집이미지(MM')에 설정한다. Ground objects B1 to B3 visually displayed according to the height (e1) and width of the ground objects (B1 to B3) of the second edit image (MM') and the photographing height (e2) from the specification data checked by the editing module (17a) ) Set the range of the surrounding dark sections (t2, t2', t3, t3') to the second edited image (MM').

항공기(D)는 상징적으로 관찰자 또는 카메라이므로 지상을 보거나 촬영을 하는 위치가다. 따라서 항공기(D)의 고도(e2)는 곧 시점의 고도(e2) 또는 촬영 고도(e2)이다. 그런데, 촬영 고도(e2)가 높아질수록 도 3 및 도 4와 같이 지상물(B1 내지 B3)의 높이(e1)와 촬영 고도(e2) 간의 차는 기하학적으로 증가하고, 시야각(q1, q2)은 좁아지며, 지상물(B1 내지 B3)에 의해 가려지는 암영구간(t2, t2', t3, t3') 범위도 좁아진다. 물론 지상물(B1 내지 B3)의 폭(t1)과 높이(e1)에 관한 제원데이터는 일정하므로, 이러한 관계를 기반으로 암영구간 탐색모듈(18)은 암영구간(t2, t2', t3, t3') 범위를 촬영 고도(e2)에 따라 연산해 확인한다. 물론 촬영 고도(e2)가 낮아질수록 전술한 효과와는 반대의 효과가 일어난다.The aircraft (D) is symbolically an observer or a camera, so it is a position to see the ground or take a picture. Therefore, the altitude e2 of the aircraft D is the altitude e2 or the shooting altitude e2 of the viewpoint. However, as the photographing altitude e2 increases, the difference between the height e1 of the ground objects B1 to B3 and the photographing altitude e2 increases geometrically, and the viewing angles q1 and q2 narrow as shown in FIGS. 3 and 4. It also narrows the range of dark sections (t2, t2', t3, t3') that are covered by the above-ground water (B1 to B3). Of course, since the data regarding the width (t1) and the height (e1) of the ground objects (B1 to B3) are constant, the dark section search module 18 based on this relationship is used for the dark section (t2, t2', t3, t3). ') Check the range by calculating it according to the shooting altitude (e2). Of course, as the photographing altitude e2 decreases, the opposite effect to the above-described effect occurs.

S18; 해상도 조정 단계S18; Resolution adjustment steps

영상지도이미지(M4)를 확대하거나 축소해서 시점의 고도 조정 효과가 시각적으로 발현되도록, 상기 시점의 고도별 해상도를 설정한다. 결국, 영상지도이미지(M4)를 확대하면 이미지 해상도는 낮아지고, 축소하면 이미지 해상도는 증가한다.The resolution for each elevation of the viewpoint is set so that the elevation adjustment effect of the viewpoint is visually expressed by expanding or reducing the image map image M4. Consequently, when the image map image M4 is enlarged, the image resolution decreases, and when the image map image M4 is enlarged, the image resolution increases.

이를 좀 더 설명하면, 해상도 조정모듈(19)은 시점 고도가 높아질수록 지상에 대한 시야는 넓어지지만 지상물 이미지가 불분명해지도록 해상도를 저하시킨다. In more detail, the resolution adjustment module 19 decreases the resolution so that the ground object image becomes unclear, although the field of view on the ground becomes wider as the viewpoint altitude increases.

결국, 고도이미지 지정모듈(17b)은, 영상지도이미지(M4)의 확대 또는 축소에 따라 제2편집이미지(MM')별로 암영구간 탐색모듈(18)과 해상도 조정모듈(19)에 의해 각각 설정된 암영구간(t2, t2', t3, t3')의 범위와, 영상지도이미지(M4)의 해상도를 시각적으로 조정해서 출력시킨다. As a result, the elevation image designation module 17b is set by the dark section search module 18 and the resolution adjustment module 19 for each second edited image MM' according to the enlargement or reduction of the image map image M4. The range of the dark section (t2, t2', t3, t3') and the resolution of the image map image (M4) are visually adjusted and output.

앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예들을 참조해 설명했지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.In the detailed description of the present invention described above, it has been described with reference to preferred embodiments of the present invention, but those skilled in the art or those of ordinary skill in the relevant technical field, the spirit of the present invention described in the claims to be described later. And it will be understood that various modifications and changes can be made to the present invention within a range not departing from the technical field.

a2; 사각지대 B1 내지 B3; 지상물 BL; 경계선
BM, BM', BM1 내지 BM8; 객체이미지 D; 항공기
d1, d2; 폭 M1; 수집이미지 M12; 합성이미지
M2; 지적도 이미지 M3; 편집영상이미지 M4; 영상지도이미지
MM; 제1편집이미지 MM'; 제2편집이미지 P1, P1'; 평면형상
P2, P2', P3, P3'; 측명형상 UL1, UL2; 객체 외곽선
a2; Blind spots B1 to B3; Ground water BL; boundary
BM, BM', BM1 to BM8; Object image D; aircraft
d1, d2; Width M1; Collected image M12; Composite image
M2; Cadastral map image M3; Edited video image M4; Video map image
MM; The first edited image MM'; Second edited images P1, P1'; Plane shape
P2, P2', P3, P3'; Side name shape UL1, UL2; Object outline

Claims (1)

수집이미지와, GPS좌표에 맞춰 필지가 구분 표시된 지적도 정보와, 지상물의 GPS좌표값과 제원데이터를 저장하는 정보DB;
상기 정보DB에서 검색된 수집이미지의 수집 고도에 비례해서 수집이미지의 보정대상 범위를 지정하는 보정대상 검출모듈;
다수의 색도에 하나의 대표색도를 지정하여 군을 이루고, 상기 수집이미지에서 보정대상 범위 이내의 픽셀들의 RGB값을 확인해서 해당 RGB값의 색도가 속하는 군의 대표색도로 픽셀의 RGB값을 통일시키고, 상기 대표색도로 통일된 픽셀들의 위치값을 확인하여 동일한 RGB값을 갖는 픽셀들의 군집 형태를 딥러닝을 통해 정형화하고, 상기 정형화된 군집 형태를 독립된 형상이미지로 설정하고, 서로 접하는 3개 이상의 형상이미지의 집합체를 객체이미지로 지정하며, 상기 객체이미지의 형상이미지 중에서 면적이 가장 큰 형상이미지를 평면형상으로 지정하고, 다른 형상이미지는 측면형상으로 지정하는 이미지 분석모듈;
상기 객체이미지의 측면형상 중 평면형상과 미접하는 객체 외곽선의 전체 길이 대비 보정대상 범위 이내에 위치한 객체 외곽선 부분의 길이 간의 비율이 기준비율 이상이고, 상기 평면형상과 일 측면형상의 전체 폭 대비 일 측면형상의 폭이 기준치 이내이면, 해당 객체이미지를 보정대상으로 지정하는 객체이미지 추출모듈;
상기 객체 외곽선에 평면형상이 맞춰지며 측면형상이 삭제된 제1편집이미지를 생성하고, 상기 객체이미지의 GPS좌표값에 해당하는 지상물의 제원데이터를 정보DB에서 검색해서 해당 지상물과 촬영지점 간의 거리값과 촬영 고도와 지상물의 높이값과 촬영지점의 GPS좌표값과 지상물의 GPS좌표값을 확인하고, 상기 거리값과 촬영 고도와 높이값에 비례해서 제1편집이미지를 촬영지점의 GPS좌표값과 지상물의 GPS좌표값를 통해 확인된 방향에 따른 벡터량의 비율로 확대해서 제2편집이미지로 생성하고, 상기 수집이미지의 보정대상 범위에 해당하는 지적도 정보를 정보DB에서 검색하여 지적도 이미지를 보정대상 범위에 오버랩하고, 상기 지적도 이미지의 필지 경계선에 맞춰서 수집이미지를 필지 별로 이미지 삭제하여 편집영상이미지를 생성하며, 상기 제2편집이미지를 편집영상이미지의 해당 삭제영역에 합성하여 영상지도이미지로 생성하는 편집모듈;
상기 편집모듈이 확인한 제원데이터로부터 제2편집이미지의 지상물의 높이와 폭과 촬영 고도에 따라 시각적으로 나타나는 지상물 주변의 암영구간 범위를 해당 제2편집이미지에 설정하는 암영구간 탐색모듈;
상기 영상지도이미지를 확대하거나 축소해서 시점의 고도 조정 효과가 시각적으로 발현되도록, 상기 시점의 고도별 해상도를 설정하는 해상도 조정모듈; 및
상기 영상지도이미지의 확대 또는 축소함에 따라 제2편집이미지별로 설정된 암영구간의 범위와, 상기 영상지도이미지의 해상도를 시각적으로 조정해서 출력시키는 고도이미지 지정모듈;
를 포함하는 것을 특징으로 하는 고도별 수집이미지의 통일화를 위한 보정용 영상처리장치.
An information DB for storing collected images, cadastral map information in which parcels are classified according to GPS coordinates, and GPS coordinate values and specification data of ground objects;
A correction target detection module for designating a correction target range of the collected image in proportion to the collection altitude of the collected image retrieved from the information DB;
A group is formed by designating one representative chromaticity to a plurality of chromaticities, and by checking the RGB values of pixels within the range to be corrected in the collected image, unify the RGB values of the pixels with the representative chromaticity of the group to which the chromaticity of the corresponding RGB value belongs. , By checking the position values of pixels unified by the representative chromaticity, the cluster shape of pixels having the same RGB value is formalized through deep learning, the standardized cluster shape is set as an independent shape image, and three or more shapes in contact with each other An image analysis module that designates a collection of images as an object image, designates a shape image having the largest area among the shape images of the object image as a flat shape, and designates another shape image as a side shape;
Among the side shapes of the object image, the ratio between the total length of the object outline that is not in contact with the flat shape and the length of the object outline located within the range to be corrected is greater than or equal to the reference ratio, and one side shape compared to the total width of the flat shape and the side shape An object image extraction module that designates a corresponding object image as a correction target if the width of is within the reference value;
A first edited image is created in which the plane shape is aligned with the object outline and the side shape is deleted, and the data of the ground object corresponding to the GPS coordinate value of the object image is retrieved from the information DB, and the distance between the ground object and the shooting point The value, the shooting altitude, the height of the ground object, the GPS coordinate value of the shooting point, and the GPS coordinate value of the ground object are checked, and the first edited image is compared with the GPS coordinate value of the shooting point in proportion to the distance value and the shooting altitude and height value. A second edited image is created by expanding at the ratio of the amount of vector according to the direction identified through the GPS coordinate value of the ground object, and the cadastral map information corresponding to the correction target range of the collected image is searched in the information DB to convert the cadastral map image to the corrected range. An editing module that overlaps and creates an edited video image by deleting the collected image for each lot in accordance with the parcel boundary of the cadastral map image, and synthesizing the second edited image to the corresponding deletion area of the edited video image to create a video map image ;
A dark section search module for setting a range of a dark section around the ground object visually displayed according to the height and width of the ground object of the second edited image and the photographing altitude from the specification data checked by the editing module in the second edited image;
A resolution adjustment module configured to set the resolution for each elevation of the viewpoint so that the elevation adjustment effect of the viewpoint is visually expressed by expanding or reducing the image map image; And
An elevation image designation module for visually adjusting and outputting a range of a dark area set for each second edited image and a resolution of the image map image as the image map image is enlarged or reduced;
An image processing apparatus for correction for unification of collected images by elevation, comprising: a.
KR1020200121917A 2020-09-22 2020-09-22 Image processing system for unifying collecting images by altitude KR102204040B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200121917A KR102204040B1 (en) 2020-09-22 2020-09-22 Image processing system for unifying collecting images by altitude

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200121917A KR102204040B1 (en) 2020-09-22 2020-09-22 Image processing system for unifying collecting images by altitude

Publications (1)

Publication Number Publication Date
KR102204040B1 true KR102204040B1 (en) 2021-01-18

Family

ID=74236746

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200121917A KR102204040B1 (en) 2020-09-22 2020-09-22 Image processing system for unifying collecting images by altitude

Country Status (1)

Country Link
KR (1) KR102204040B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102449672B1 (en) * 2021-03-25 2022-09-30 한국항공우주연구원 Method and system for correcting sar images

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475895B1 (en) * 2014-06-24 2014-12-23 서울공간정보 주식회사 Image processing system recognizing point and auto-correcting for image update
KR101502866B1 (en) * 2014-09-29 2015-03-18 (주)아세아항측 System for processing reflection image editing the shooting image for making a 3d image
KR101820131B1 (en) * 2017-08-30 2018-01-18 주식회사 유성 Image processing system for precise processing of aerial image data and images
KR101938402B1 (en) 2018-06-27 2019-01-15 동아항업 주식회사 Drawing image compositing system for features in blind area
KR101938401B1 (en) * 2018-06-27 2019-01-15 동아항업 주식회사 Digital drawing modification system for drawing a partial of updating region
KR101942063B1 (en) * 2018-07-27 2019-01-24 아이씨티웨이주식회사 Image inspection system searching failure points automatically on images and updating the points

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475895B1 (en) * 2014-06-24 2014-12-23 서울공간정보 주식회사 Image processing system recognizing point and auto-correcting for image update
KR101502866B1 (en) * 2014-09-29 2015-03-18 (주)아세아항측 System for processing reflection image editing the shooting image for making a 3d image
KR101820131B1 (en) * 2017-08-30 2018-01-18 주식회사 유성 Image processing system for precise processing of aerial image data and images
KR101938402B1 (en) 2018-06-27 2019-01-15 동아항업 주식회사 Drawing image compositing system for features in blind area
KR101938401B1 (en) * 2018-06-27 2019-01-15 동아항업 주식회사 Digital drawing modification system for drawing a partial of updating region
KR101942063B1 (en) * 2018-07-27 2019-01-24 아이씨티웨이주식회사 Image inspection system searching failure points automatically on images and updating the points

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102449672B1 (en) * 2021-03-25 2022-09-30 한국항공우주연구원 Method and system for correcting sar images

Similar Documents

Publication Publication Date Title
US11551331B2 (en) Cut-line steering methods for forming a mosaic image of a geographical area
US11080911B2 (en) Mosaic oblique images and systems and methods of making and using same
KR102204043B1 (en) System for automatic satellite image processing for improving image accuracy by position correcting of geographic feature
KR102204044B1 (en) Image checking assembly used by overlap for each orthophoto
US6970593B2 (en) Stereo image processing apparatus and method of processing stereo image
US7616828B2 (en) Geospatial modeling system providing geospatial model data target point filtering based upon radial line segments and related methods
JP4103898B2 (en) Map information updating method and map updating apparatus
KR102204041B1 (en) System for correcting the error able to modify boundary line for mapping
KR102204046B1 (en) Correcting system restoring dead zone on the image
JP2006195032A (en) Topographical map creating method and topographical map creating system
KR102204040B1 (en) Image processing system for unifying collecting images by altitude
JPH05181411A (en) Map information collation and update system
KR101938400B1 (en) Image drawing management system editing secure zone on 3d image
JP4088386B2 (en) How to update map information
Nakagawa et al. Fusing stereo linear CCD image and laser range data for building 3D urban model
KR100977554B1 (en) Input method for tree image to constructing the 3d woods image
KR101954686B1 (en) System For Connecting Ortho Image
KR102474733B1 (en) System having automatic correcting function for missing images
JPH09179967A (en) Map data correcting method
AU2012205205B2 (en) Mosaic oblique images and methods of making and using same
CN113140022A (en) Digital mapping method, system and computer readable storage medium
IL194033A (en) Method for identifying changed shaped objects in an image of a scene compared to a previous image of the same scene

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant