KR102484401B1 - Method for classifying building change in a user-participating recognition platform using aritificial intelligence and apparatus therefore - Google Patents

Method for classifying building change in a user-participating recognition platform using aritificial intelligence and apparatus therefore Download PDF

Info

Publication number
KR102484401B1
KR102484401B1 KR1020200049514A KR20200049514A KR102484401B1 KR 102484401 B1 KR102484401 B1 KR 102484401B1 KR 1020200049514 A KR1020200049514 A KR 1020200049514A KR 20200049514 A KR20200049514 A KR 20200049514A KR 102484401 B1 KR102484401 B1 KR 102484401B1
Authority
KR
South Korea
Prior art keywords
building
aerial
buildings
aerial photograph
point
Prior art date
Application number
KR1020200049514A
Other languages
Korean (ko)
Other versions
KR20210131119A (en
Inventor
김희원
김상훈
최진욱
Original Assignee
주식회사 키센스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 키센스 filed Critical 주식회사 키센스
Priority to KR1020200049514A priority Critical patent/KR102484401B1/en
Publication of KR20210131119A publication Critical patent/KR20210131119A/en
Application granted granted Critical
Publication of KR102484401B1 publication Critical patent/KR102484401B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Abstract

인공지능 객체인식 기반으로 항공사진 분석을 이용한 건물 변화 구분 방법 및 그 장치가 개시된다. 본 발명의 일 실시예에 따른 건물 변화 구분 방법은 인공지능 객체 인식 기반의 건물 변화 구분 방법에 있어서, 대상 지역에 대하여, 현재 시점인 제1 시점의 제1 항공사진과 상기 제1 시점 이전의 제2 시점의 제2 항공사진을 분석하여 상기 제1 항공사진과 상기 제2 항공사진에 포함된 건물을 검출하는 단계; 동일 위치의 건물들 각각에 대하여, 상기 검출된 제1 항공사진의 건물과 제2 항공사진의 건물에 대한 모양을 비교하는 단계; 및 상기 동일 위치의 건물들 각각에 대하여, 건물 모양의 비교 결과에 기초하여 상기 제1 시점에서 변화된 부분을 획득하는 단계를 포함한다.Disclosed is a method and apparatus for classifying building changes using aerial photographic analysis based on artificial intelligence object recognition. A building change classification method according to an embodiment of the present invention is an artificial intelligence object recognition based building change classification method, with respect to a target area, a first aerial photograph at a first point in time, which is the current point of view, and a first point in time prior to the first point in time. analyzing second aerial photographs of two viewpoints and detecting buildings included in the first and second aerial photographs; Comparing shapes of the detected buildings of the first aerial photograph and the buildings of the second aerial photograph with respect to each of the buildings in the same location; and obtaining, for each of the buildings at the same location, a changed part at the first point of view based on a comparison result of a building shape.

Description

인공지능을 이용한 사용자 참여형 인식 플랫폼에서 건물 변화 구분 방법 및 그 장치 {METHOD FOR CLASSIFYING BUILDING CHANGE IN A USER-PARTICIPATING RECOGNITION PLATFORM USING ARITIFICIAL INTELLIGENCE AND APPARATUS THEREFORE}A method and device for classifying building changes in a user-participating recognition platform using artificial intelligence

본 발명은 항공사진 분석을 이용한 건물의 변화를 구분하는 기술에 관한 것으로, 보다 구체적으로는 인공지능 객체인식 기반으로 항공사진을 분석하여 건물의 변화와 거리의 변화를 파악할 수 있는 건물 변화 구분 방법 및 그 장치에 관한 것이다.The present invention relates to a technology for classifying changes in buildings using aerial photographic analysis, and more specifically, a method for distinguishing building changes that can identify changes in buildings and distances by analyzing aerial photographs based on artificial intelligence object recognition, and It's about the device.

일반적으로 지리정보시스템(GIS; Geographic Information System)이란 공간에 관련된 문제를 해결하기 위하여 지리자료를 이용하고 관리하는 컴퓨터 기반의 시스템을 의미한다. 1960년대 초반 GIS가 처음 개발되었을 때만 하더라도 GIS는 단지 지도 자료를 처리하기 위한 컴퓨터 기반의 프로그램에 지나지 않았다. 그러나 오늘날 GIS는 그 자체로 중요한 학문 연구 분야의 하나로 자리 잡고 있을 뿐만 아니라, 최신 정보기술과 결합하면서 사회 각 부문에 활발히 적용되고 있다.In general, a Geographic Information System (GIS) refers to a computer-based system that uses and manages geographic data to solve problems related to space. When GIS was first developed in the early 1960s, GIS was nothing more than a computer-based program for processing map data. However, today, GIS is not only positioned as one of the important academic research fields in itself, but also is actively applied to each sector of society while being combined with the latest information technology.

GIS의 기본적인 특성은 공간적인, 즉 지리적 공간 상에서 객체들의 위치와 관련된 속성정보를 다룰 수 있다는 것이다. 지도는 공간적으로 분포하는 객체들의 위치 및 속성을 나타내는 가장 효율적인 방법이다. 따라서 GIS 구축에 있어서 가장 기초적인 자료는 수치지도(digital map)이다. 수치지도는 고전적인 종이지도와 달리, 측량지도, 항공사진, 위성영상 등에 의하여 얻어진 각종 지형 자료들을 해석하고 수치 편집하여 색인화한 것이라 할 수 있다.A fundamental characteristic of GIS is that it can handle attribute information related to the location of objects in spatial, that is, geographic space. A map is the most efficient way to represent the location and properties of spatially distributed objects. Therefore, the most basic data in GIS construction is a digital map. Unlike the classic paper maps, digital maps can be said to be indexed by interpreting, numerically editing, and indexing various topographical data obtained from survey maps, aerial photographs, and satellite images.

수치지도의 구축 과정은 다음과 같이 여러 과정을 거쳐서 완성되게 된다. 먼저 종이지도가 디지타이징(digitizing)이나 스캐닝(scanning)을 거쳐 수치지도의 형태가 된 후, 각종 입력 오차를 수정하기 위한 절차를 거친다. 이어서 좌표 변환을 통해 사용자의 목적에 맞도록 실제 좌표계로 변환을 거친 후, 공간 객체 간의 상호 위치성과 연관성을 파악하기 위한 위상 구조를 정립하게 된다. 이후 위상 구조의 정립을 거친 수치지도에 각각의 도형자료와 관련된 속성자료를 입력시키게 된다.The process of constructing a digital map is completed through several processes as follows. First, the paper map is converted into a digital map through digitizing or scanning, and then various input errors are corrected. Then, after transforming into a real coordinate system to suit the user's purpose through coordinate transformation, a topological structure is established to determine mutual location and correlation between spatial objects. Afterwards, attribute data related to each figure data is entered into the numerical map that has undergone the establishment of the topological structure.

이렇게 제작된 수치지도는 종이지도에 비해 빠르고 정확한 지도검색을 가능하게 하고, 정보관리와 활용성 면에서 뛰어나 각종 계획수립과 의사결정을 보다 효과적으로 지원할 수 있도록 한다.Compared to paper maps, digital maps produced in this way enable faster and more accurate map retrieval, and are superior in information management and usability, enabling various planning and decision-making to be supported more effectively.

본 발명의 실시예들은, 인공지능 객체인식 기반으로 항공사진을 분석하여 건물의 변화와 거리의 변화를 파악할 수 있는 건물 변화 구분 방법 및 그 장치를 제공한다.Embodiments of the present invention provide a building change classification method and apparatus capable of identifying a change in a building and a change in a street by analyzing an aerial photograph based on artificial intelligence object recognition.

본 발명의 일 실시예에 따른 건물 변화 구분 방법은 인공지능 객체 인식 기반의 건물 변화 구분 방법에 있어서, 대상 지역에 대하여, 현재 시점인 제1 시점의 제1 항공사진과 상기 제1 시점 이전의 제2 시점의 제2 항공사진을 분석하여 상기 제1 항공사진과 상기 제2 항공사진에 포함된 건물을 검출하는 단계; 동일 위치의 건물들 각각에 대하여, 상기 검출된 제1 항공사진의 건물과 제2 항공사진의 건물에 대한 모양을 비교하는 단계; 및 상기 동일 위치의 건물들 각각에 대하여, 건물 모양의 비교 결과에 기초하여 상기 제1 시점에서 변화된 부분을 획득하는 단계를 포함한다.A building change classification method according to an embodiment of the present invention is an artificial intelligence object recognition based building change classification method, with respect to a target area, a first aerial photograph at a first point in time, which is the current point of view, and a first point in time prior to the first point in time. analyzing second aerial photographs of two viewpoints and detecting buildings included in the first and second aerial photographs; Comparing shapes of the detected buildings of the first aerial photograph and the buildings of the second aerial photograph with respect to each of the buildings in the same location; and obtaining, for each of the buildings at the same location, a changed part at the first point of view based on a comparison result of a building shape.

상기 검출하는 단계는 상기 대상 지역에 대하여, 상기 제1 항공사진과 상기 제2 항공사진을 분석하여 상기 제1 항공사진과 상기 제2 항공사진에 포함된 도로망을 검출하고, 상기 비교하는 단계는 상기 제1 항공사진에서 검출된 도로망과 상기 제2 항공사진에서 검출된 도로망을 비교하며, 상기 획득하는 단계는 상기 도로망의 비교 결과에 기초하여 상기 제1 시점에서 도로망의 변화된 부분을 획득할 수 있다.The detecting step may include analyzing the first aerial photo and the second aerial photo of the target area to detect a road network included in the first aerial photo and the second aerial photo, and the comparing step may include: In the step of comparing the road network detected in the first aerial photograph and the road network detected in the second aerial photograph, and acquiring, a changed part of the road network at the first time point may be obtained based on the comparison result of the road network.

상기 검출하는 단계는 상기 대상 지역에 대하여, 상기 제1 항공사진과 상기 제2 항공사진을 미리 설정된 세그멘테이션(segmentation) 기법을 이용하여 분석함으로써, 상기 제1 항공사진과 상기 제2 항공사진에 포함된 건물, 도로, 나무와 숲을 구분하여 검출할 수 있다.The detecting may include analyzing the first and second aerial photos of the target area using a preset segmentation technique, thereby analyzing the first and second aerial photos included in the first and second aerial photos. Buildings, roads, trees and forests can be distinguished and detected.

상기 검출하는 단계는 상기 대상 지역의 상기 제1 항공사진과 상기 제2 항공사진을 분석하여 미리 설정된 대상 건물을 검출하고, 상기 검출된 대상 건물을 제외한 나머지 부분을 제거함으로써, 상기 제1 항공사진과 상기 제2 항공사진 각각에서 상기 대상 건물만을 검출할 수 있다.The detecting may include detecting a preset target building by analyzing the first aerial photograph and the second aerial photograph of the target area, and removing remaining parts except for the detected target building, thereby capturing the first aerial photograph and the second aerial photograph. Only the target building may be detected in each of the second aerial photographs.

나아가, 본 발명의 일 실시예에 따른 건물 변화 구분 방법은 상기 제1 시점에서 변화된 부분이 획득되는 경우 상기 변화된 부분이 획득된 건물에 대한 정보를 제공하는 단계를 더 포함할 수 있다.Furthermore, the building change classification method according to an embodiment of the present invention may further include providing information on a building in which the changed portion is obtained when the changed portion is acquired at the first point of view.

본 발명의 일 실시예에 따른 건물 변화 구분 장치는 인공지능 객체 인식 기반의 건물 변화 구분 장치에 있어서, 대상 지역에 대하여, 현재 시점인 제1 시점의 제1 항공사진과 상기 제1 시점 이전의 제2 시점의 제2 항공사진을 분석하여 상기 제1 항공사진과 상기 제2 항공사진에 포함된 건물을 검출하는 검출부; 동일 위치의 건물들 각각에 대하여, 상기 검출된 제1 항공사진의 건물과 제2 항공사진의 건물에 대한 모양을 비교하는 판단부; 및 상기 동일 위치의 건물들 각각에 대하여, 건물 모양의 비교 결과에 기초하여 상기 제1 시점에서 변화된 부분을 획득하는 획득부를 포함한다.A building change classification device according to an embodiment of the present invention is an artificial intelligence object recognition based building change classification device, with respect to a target area, a first aerial photograph at a first point in time, which is the current point of view, and a first point in time before the first point in time. a detector configured to analyze second aerial photographs of two viewpoints and detect buildings included in the first and second aerial photographs; a determination unit comparing the shapes of the detected buildings in the first aerial photograph with those of the second aerial photograph for each of the buildings in the same location; and an acquiring unit that obtains a changed part from the first viewpoint based on a comparison result of a building shape for each of the buildings at the same location.

상기 검출부는 상기 대상 지역에 대하여, 상기 제1 항공사진과 상기 제2 항공사진을 분석하여 상기 제1 항공사진과 상기 제2 항공사진에 포함된 도로망을 검출하고, 상기 판단부는 상기 제1 항공사진에서 검출된 도로망과 상기 제2 항공사진에서 검출된 도로망을 비교하며, 상기 획득부는 상기 도로망의 비교 결과에 기초하여 상기 제1 시점에서 도로망의 변화된 부분을 획득할 수 있다.The detection unit analyzes the first aerial photograph and the second aerial photograph of the target area to detect a road network included in the first aerial photograph and the second aerial photograph, and the determination unit analyzes the first aerial photograph. The road network detected in the second aerial photograph may be compared with the road network detected in the second aerial photograph, and the acquisition unit may obtain a changed part of the road network at the first point in time based on the comparison result of the road network.

상기 검출부는 상기 대상 지역에 대하여, 상기 제1 항공사진과 상기 제2 항공사진을 미리 설정된 세그멘테이션(segmentation) 기법을 이용하여 분석함으로써, 상기 제1 항공사진과 상기 제2 항공사진에 포함된 건물, 도로, 나무와 숲을 구분하여 검출할 수 있다.The detection unit analyzes the first and second aerial photographs of the target area using a preset segmentation technique, so that the buildings included in the first and second aerial photographs; Roads, trees and forests can be distinguished and detected.

상기 검출부는 상기 대상 지역의 상기 제1 항공사진과 상기 제2 항공사진을 분석하여 미리 설정된 대상 건물을 검출하고, 상기 검출된 대상 건물을 제외한 나머지 부분을 제거함으로써, 상기 제1 항공사진과 상기 제2 항공사진 각각에서 상기 대상 건물만을 검출할 수 있다.The detection unit detects a preset target building by analyzing the first and second aerial photographs of the target area, and removes remaining parts except for the detected target building, thereby capturing the first aerial photograph and the first aerial photograph. In each of the 2 aerial photographs, only the target building can be detected.

나아가, 본 발명의 일 실시예에 따른 건물 변화 구분 장치는 상기 제1 시점에서 변화된 부분이 획득되는 경우 상기 변화된 부분이 획득된 건물에 대한 정보를 제공하는 제공부를 더 포함할 수 있다.Furthermore, the apparatus for classifying building change according to an embodiment of the present invention may further include a provision unit that provides information on a building in which the changed portion is obtained when the changed portion is acquired at the first point of view.

본 발명의 실시예들에 따르면, 인공지능 객체인식 기반으로 항공사진을 분석하여 건물의 변화와 거리의 변화를 파악함으로써, 특정 건물의 변화 예를 들어, 건물의 지붕 크랙 또는 파손 등을 검출할 수 있고, 재해와 재난 전후의 건물 피해상황을 식별할 수 있다. 따라서, 본 발명은 보험사와 수리업체 등에 이러한 정보를 제공할 수 있다.According to embodiments of the present invention, changes in a specific building, for example, cracks or damage to a roof of a building, can be detected by analyzing aerial photographs based on artificial intelligence object recognition to determine changes in buildings and distances. In addition, it is possible to identify the damage situation of buildings before and after disasters. Accordingly, the present invention can provide such information to insurance companies and repair companies.

본 발명의 실시예들에 따르면, 거리의 변화를 파악할 수 있기 때문에 거리 풍경 등을 조사하기 위한 비용을 절감할 수 있고, 도로의 불법 점유 여부를 파악할 수 있으며, 공공용지의 불법 점유 여부를 파악할 수도 있다.According to the embodiments of the present invention, since it is possible to determine the change in the street, it is possible to reduce the cost of examining street scenery, etc., to determine whether a road is illegally occupied, and to determine whether a public space is illegally occupied. there is.

이러한 본 발명은 도시 계획, 부동산 상권 분석, 건축법 위반 불법 건축물 식별 등의 다양한 서비스에 이용할 수 있으며, 본 발명을 통해 파악된 정보를 관공서와 특정 민간업체 등에 제공할 수 있다.The present invention can be used for various services such as urban planning, analysis of real estate commercial districts, and identification of illegal buildings violating building laws, and the information obtained through the present invention can be provided to public offices and specific private companies.

도 1은 본 발명의 일 실시예에 따른 인공지능 객체인식 기반의 건물 변화 구분 방법에 대한 동작 흐름도를 나타낸 것이다.
도 2는 제1 항공사진과 제2 항공사진에 대한 일 예시도를 나타낸 것이다.
도 3은 항공사진에서의 객체 검출 결과에 대한 일 예시도를 나타낸 것이다.
도 4는 본 발명의 일 실시예에 따른 인공지능 객체인식 기반의 건물 변화 구분 장치에 대한 구성을 나타낸 것이다.
1 is an operation flowchart of a method for distinguishing building changes based on artificial intelligence object recognition according to an embodiment of the present invention.
Figure 2 shows an exemplary diagram for a first aerial photograph and a second aerial photograph.
3 shows an example of an object detection result in an aerial photograph.
Figure 4 shows the configuration of the building change classification device based on artificial intelligence object recognition according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various forms different from each other, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention pertains. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" means that a stated component, step, operation, and/or element is present in the presence of one or more other components, steps, operations, and/or elements. or do not rule out additions.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used in a meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in more detail. The same reference numerals are used for the same components in the drawings, and redundant descriptions of the same components are omitted.

본 발명의 실시예들은, 인공지능 객체인식 기반으로 항공사진을 분석하여 건물의 변화와 거리의 변화를 파악함으로써, 특정 건물의 변화 예를 들어, 건물의 지붕 크랙 또는 파손 등을 검출할 수 있고, 재해와 재난 전후의 건물 피해상황을 식별하는 것을 그 요지로 한다.Embodiments of the present invention can detect changes in a specific building, for example, roof cracks or damage, etc., by analyzing aerial photographs based on AI object recognition to determine changes in buildings and distances The main point is to identify the damage situation of buildings before and after disasters.

이 때, 본 발명은 대상 조사 지역에 대하여, 현재 시점(이하, "제1 시점"이라 칭함)의 항공사진과 미리 설정된 과거 시점(이하, "제2 시점"이라 칭함)의 항공사진을 수신 또는 다운로드하여 항공사진 분석을 통해 사용자 또는 관리자에 의해 설정된 검출 대상 건물을 검출하고, 동일한 위치의 건물 모양을 비교함으로써, 건물 모양이 변화된 건물에 대한 정보를 제공할 수 있다. 여기서, 제공되는 건물에 대한 정보는 위도, 경도, 위치 정보, 건물 정보 등을 포함할 수 있다.At this time, the present invention receives an aerial photograph of a current point of view (hereinafter referred to as "first point of view") and a preset past point of view (hereinafter referred to as "second point of view") with respect to the target survey area, or It is possible to provide information on a building whose shape has changed by downloading, detecting a target building set by a user or manager through aerial photograph analysis, and comparing the shape of a building in the same location. Here, the provided information on the building may include latitude, longitude, location information, building information, and the like.

나아가, 본 발명은 대상 건물 뿐만 아니라 항공사진 분석을 통하여, 조사 대상 지역의 도로망을 검출하고, 제1 시점과 제2 시점의 도로망을 비교함으로써, 도로망의 변화를 구분할 수도 있다.Furthermore, the present invention may detect changes in the road network by detecting the road network of the area to be surveyed through aerial photograph analysis as well as the target building, and comparing the road networks of the first and second points of view.

즉, 본 발명은 제1 시점과 제2 시점의 항공사진의 분석을 통해 대상 건물, 도로망, 나무, 숲 등의 객체를 검출할 수 있으며, 제1 시점의 항공사진에서 검출된 객체를 기준으로 제2 시점의 항공사진에서 검출된 객체를 비교함으로써, 각 객체에 대하여 변화된 부분을 획득할 수도 있다.That is, the present invention can detect objects such as target buildings, road networks, trees, forests, etc. through analysis of aerial photographs of the first and second viewpoints, and based on the objects detected in the aerial photographs of the first viewpoint By comparing objects detected in aerial photographs of two points of view, a changed part of each object may be obtained.

이러한 본 발명은 항공사진 분석, 객체 인식, 모양 변화 획득 등의 과정을 인공지능 객체인식 기반으로 수행할 수 있다. 즉, 본 발명은 미리 설정된 트레이닝 데이터세트를 이용하여 인공지능을 트레이닝함으로써, 객체를 검출하거나 각 객체에 대하여 변환된 부분을 획득하는 각각의 학습 모델 또는 통합된 학습 모델을 생성할 수 있으며, 이렇게 생성된 학습 모델은 항공사진 분석을 통해 도출되는 결과물을 이용하여 갱신될 수도 있고, 추가로 수집된 트레이닝 데이터세트를 이용하여 갱신될 수도 있다. 인공지능은 컨볼루션 뉴럴 네트워크(CNN), 딥 러닝 뉴럴 네트워크(DNN) 등과 같은 뉴럴 네트워크에 의해 구현될 수 있으며, 이러한 내용은 본 발명의 기술 분야에 종사하는 당업자에게 있어서 자명하기에 이에 대한 상세한 설명은 생략한다.In the present invention, processes such as aerial photograph analysis, object recognition, and shape change acquisition can be performed based on artificial intelligence object recognition. That is, the present invention can create each learning model or an integrated learning model that detects objects or obtains transformed parts for each object by training artificial intelligence using a preset training dataset. The learned model may be updated using a result obtained through aerial photographic analysis or may be updated using an additionally collected training dataset. Artificial intelligence may be implemented by a neural network such as a convolutional neural network (CNN), a deep learning neural network (DNN), etc., and these details are obvious to those skilled in the art, so detailed descriptions thereof is omitted.

도 1은 본 발명의 일 실시예에 따른 인공지능 객체인식 기반의 건물 변화 구분 방법에 대한 동작 흐름도를 나타낸 것으로, 본 발명의 방법에 대한 알고리즘이 설치된 장치에 의해 수행될 수 있다.1 is an operation flowchart for a method for distinguishing building changes based on artificial intelligence object recognition according to an embodiment of the present invention, which can be performed by a device in which an algorithm for the method of the present invention is installed.

도 1을 참조하면, 본 발명의 일 실시예에 따른 건물 변화 구분 방법은 조사 대상 지역에 대하여, 제1 시점의 항공사진(제1 항공사진)과 미리 설정된 과거 시점인 제2 시점의 항공사진(제2 항공사진)을 수신 또는 다운로드하고, 제1 항공사진과 제2 항공사진을 인공지능 객체인식 기반으로 분석하여 제1 항공사진과 제2 항공사진에 포함된 건물들을 검출한다(S110).Referring to FIG. 1, a method for classifying building changes according to an embodiment of the present invention is an aerial photograph (first aerial photograph) of a first viewpoint and an aerial photograph of a second viewpoint, which is a preset past viewpoint (with respect to an area to be surveyed). second aerial photo) is received or downloaded, and buildings included in the first and second aerial photos are detected by analyzing the first and second aerial photos based on artificial intelligence object recognition (S110).

여기서, 단계 S110은 사용자 또는 관리자로부터 조사 대상 지역의 좌표의 위도와 경도를 입력받음으로써, 조사 대상 지역이 설정되고, 이렇게 설정된 조사 대상 지역에 대한 제1 항공사진과 제2 항공사진을 데이터베이스로부터 받아와서 제1 항공사진과 제2 항공사진을 인공지능 객체인식 기반으로 분석하여 제1 항공사진과 제2 항공사진에 포함된 특정 건물들 예를 들어, 미리 설정된 대상 건물들을 검출할 수 있다. Here, in step S110, the latitude and longitude of the coordinates of the target region are inputted by the user or administrator, the target region is set, and the first and second aerial photographs of the target region are received from the database. It is possible to detect specific buildings included in the first and second aerial photos, for example, preset target buildings, by analyzing the first and second aerial photos based on artificial intelligence object recognition.

여기서, 단계 S110은 화면에 표시된 지도 데이터에서 조사 대상 지역을 사용자 또는 관리자의 입력에 의해 드래그함으로써, 조사 대상 지역이 설정될 수도 있다.Here, in step S110, the survey target region may be set by dragging the survey target region in the map data displayed on the screen by input of a user or manager.

예컨대, 단계 S110은 도 2에 도시된 바와 같이 제1 항공사진(before)과 제2 항공사진(after)를 수신 또는 다운로드하고, 제1 항공사진과 제2 항공사진 각각에서 대상 건물들을 검출할 수 있다.For example, in step S110, as shown in FIG. 2, a first aerial photograph (before) and a second aerial photograph (after) may be received or downloaded, and target buildings may be detected from each of the first and second aerial photographs. there is.

본 발명에서 조사 대상 지역의 항공사진은 특정 서버의 데이터베이스로부터 조사 대상 지역만을 다운로드한 항공사진일 수도 있고, 본 발명의 방법을 제공하는 장치에 미리 다운로드되어 저장된 항공사진 중에서 조사 대상 지역에 해당하는 항공사진을 검색한 항공사진일 수도 있다. 물론, 본 발명은 제1 시점의 항공사진과 제2 시점의 항공사진을 해당 장치에 모두 저장할 수도 있고, 특정 서버로부터 다운로드할 수도 있다.In the present invention, the aerial photograph of the target area to be investigated may be an aerial photograph obtained by downloading only the target region from a database of a specific server, or an aerial photograph corresponding to the target region among aerial photographs downloaded and stored in a device providing the method of the present invention. It could be an aerial photo from a photo search. Of course, according to the present invention, both the aerial photograph of the first viewpoint and the aerial photograph of the second viewpoint may be stored in a corresponding device or may be downloaded from a specific server.

단계 S110에서의 대상 건물들은 가정용 건물, 상업용 건물, 일정 크기 이상의 건물 등을 포함할 수 있으며, 이러한 대상 건물들은 이 기술을 제공하는 사업자에 의해 결정되거나 대상 건물들을 설정할 수 있는 항목의 선택을 통하여 결정될 수 있다. 이 때, 단계 S110은 항공사진의 위도와 경도에 따른 건물의 목적과 사용 용도 그리고 가정용인지 상업용인지 등의 정보가 저장된 데이터베이스로부터 검출된 건물에 대한 정보를 검색함으로써, 해당 건물이 본 발명에서 대상이 되는 건물인지 판단할 수 있으며, 이를 통해 원하는 대상 건물을 검출할 수 있다. 물론, 본 발명은 상황에 따라 이러한 건물의 용도나 목적 등을 고려하지 않고, 일정 크기 이상의 건물을 검출할 수도 있다.Target buildings in step S110 may include residential buildings, commercial buildings, buildings of a certain size or more, and these target buildings may be determined by an operator providing the technology or through selection of items capable of setting target buildings. can At this time, in step S110, information on the detected building is retrieved from a database in which information such as the purpose and use of the building according to the latitude and longitude of the aerial photograph and whether it is for home or commercial use is stored, so that the building is a target in the present invention. It is possible to determine whether a building is a building, and through this, a desired target building can be detected. Of course, according to circumstances, the present invention may detect a building of a certain size or larger without considering the use or purpose of such a building.

나아가, 단계 S110은 조사 대상 지역의 제1 항공사진과 제2 항공사진을 분석하여 미리 설정된 대상 건물들을 검출하고, 검출된 대상 건물을 제외한 나머지 부분 예를 들어, 도로, 주차장, 하천 등을 포함하는 건물이 아닌 부분을 미리 설정된 세그멘테이션(segmentation) 기법을 이용하여 제거하며, 이러한 부분이 제거된 항공사진에서 대상 건물들을 검출할 수 있다.Furthermore, in step S110, preset target buildings are detected by analyzing the first and second aerial photographs of the area to be surveyed, and the remaining parts other than the detected target buildings, for example, including roads, parking lots, rivers, etc. Parts other than buildings are removed using a preset segmentation technique, and target buildings may be detected from an aerial photograph from which these parts are removed.

상황에 따라, 단계 S110은 세그멘테이션 기법을 이용하여 제1 항공사진과 제2 항공사진을 분석하고, 이를 통해 대상 건물 뿐만 아니라 도로망, 나무, 숲, 하천 등을 구분하여 검출할 수도 있다. 예를 들어, 도 3에 도시된 바와 같이, 본 발명은 인공지능 객체인식 기반으로 항공사진에서 대상 건물(빨간색), 도로(노란색)과 숲(파란색) 등의 객체를 검출할 수 있다.Depending on circumstances, in step S110, the first and second aerial photographs are analyzed using a segmentation technique, and through this, road networks, trees, forests, rivers, etc. as well as target buildings may be classified and detected. For example, as shown in FIG. 3 , the present invention can detect objects such as target buildings (red), roads (yellow), and forests (blue) from aerial photographs based on artificial intelligence object recognition.

이와 같은 경우, 본 발명은 건물의 변화 뿐만 아니라 도로망의 변화, 하천의 변화, 숲의 변화 등을 분석하여 제공할 수도 있다. 이하, 본 발명의 방법에 대한 설명의 편의를 위하여, 대상 건물만을 검출하고 대상 건물의 변화를 구분하는 것으로 한정하여 설명한다.In this case, the present invention may analyze and provide not only changes in buildings but also changes in road networks, changes in rivers, and changes in forests. Hereinafter, for convenience of description of the method of the present invention, only the target building is detected and the change of the target building is identified.

상술한 바와 같이, 단계 S110은 미리 학습된 학습 모델의 인공지능을 이용하여 조사 대상 지역의 제1 항공사진과 제2 항공사진에서 건물들 각각을 인식함으로써, 대상 건물을 검출할 수 있다.As described above, in step S110, a target building may be detected by recognizing each of the buildings in the first and second aerial photographs of the survey target area using artificial intelligence of a pre-learned learning model.

단계 S110에 의해 조사 대상 지역에 대하여, 제1 시점의 건물들과 제2 시점의 건물들이 검출되면, 동일 위치의 건물들 각각에 대하여 제1 시점의 건물들과 제2 시점의 건물들 각각에 대한 모양을 비교하고, 건물 모양 비교 결과에 기초하여 제1 시점에서 건물의 모양이 변화된 부분을 획득한다(S120, S130). 즉, 단계 S120은 제1 시점의 건물들에 대한 지붕 모양과 제2 시점의 건물들에 대한 지붕 모양을 비교함으로써, 지붕 모양이 차이 정보를 획득할 수 있으며, 단계 S130은 지붕 모양의 차이에 대한 정보를 통해 대상 건물들 각각에 대하여 모양이 변경되었는지 알 수 있다.When the first-time buildings and the second-time buildings are detected in the area to be surveyed in step S110, the first-time buildings and the second-time buildings for each of the buildings at the same location are detected. The shape is compared, and based on the result of comparing the shape of the building, a portion where the shape of the building has changed at the first point in time is obtained (S120 and S130). That is, in step S120, roof shape difference information may be obtained by comparing the roof shapes of the buildings of the first viewpoint with the roof shapes of the buildings of the second viewpoint, and in step S130, information on the difference in roof shapes From the information, it is possible to know if the shape has changed for each of the target buildings.

여기서, 단계 S120은 미리 학습된 학습 모델의 인공지능을 이용하여 검출된 제1 시점의 건물들과 제2 시점의 건물들 각각에 대한 모양을 비교할 수 있는데, 구체적으로 제2 시점의 건물들의 모양에서 제1 시점의 건물들의 모양이 어떻게 변화되었는지 그 변화 여부를 비교할 수 있다.Here, in step S120, the shapes of each of the buildings of the first point in time and the buildings of the second point in time detected using artificial intelligence of the pre-trained learning model may be compared. Specifically, in the shape of the buildings of the second point of view It is possible to compare how the shapes of the buildings at the first point in time have changed and whether or not they have changed.

여기서, 단계 S130은 단계 S120에서 비교한 결과를 통해 모양이 변화된 건물들 각각에 대하여 변화된 부분의 정보를 획득할 수 있다. 예를 들어, 단계 S130은 해당 위치의 건물에 대하여, 건물 모양이 일정 범위 내에서 변화된 경우에는 해당 건물의 모양이 변경되지 않은 것으로 판단할 수 있으며, 건물 모양이 일정 범위를 벗어날 정도로 변화된 경우에는 해당 건물이 변화된 것으로 판단하여 해당 건물의 변화된 정보 또는 해당 건물이 변화된 것으로 판단하는 정보를 획득할 수 있다. 예컨대, 단계 S130은 특정 위치의 건물에 대하여, 건물의 모양 또는 형상이 변경되었으며, 건물의 크기가 축소되거나 확장되었다는 정보 등을 획득할 수 있다.Here, in step S130, it is possible to obtain information on a changed part for each of the buildings whose shape has changed through the comparison result in step S120. For example, in step S130, if the shape of the building at the location has changed within a certain range, it can be determined that the shape of the corresponding building has not changed. When it is determined that the building has changed, information on the change of the corresponding building or information determining that the corresponding building has changed may be obtained. For example, in operation S130 , information indicating that the shape or shape of a building has been changed and the size of the building has been reduced or expanded may be obtained with respect to a building at a specific location.

단계 S130 또한 미리 학습된 학습 모델의 인공지능을 이용하여 수행될 수 있다.Step S130 may also be performed using artificial intelligence of a pre-learned learning model.

단계 S130에 의해 모양의 변화가 발생한 건물에 대한 정보 예를 들어, 위치 정보, 위도와 경도 정보 등이 획득되면, 제1 시점에서 변화된 부분 즉, 과거에 비하여 현재 모양이 변경된 건물에 대한 정보를 제공한다(S140).When information about a building whose shape has changed in step S130, for example, location information, latitude and longitude information, etc., is obtained, information about the changed part at the first point in time, that is, the building whose shape has changed compared to the past, is provided. Do (S140).

여기서, 단계 S140은 조사 대상 지역의 대상 건물들 중 건물 모양이 변경된 건물에 대한 정보를 특정 파일 형태로 제공할 수도 있으며, 제공되는 정보는 모양이 변경된 대상 건물의 주소 정보, 건물 정보, 용도 정보, 변경 정보, 위도와 경도 정보 중 적어도 하나를 포함할 수 있다.Here, in step S140, information on a building whose shape has been changed among target buildings in the survey target area may be provided in the form of a specific file, and the provided information includes address information, building information, use information, It may include at least one of change information and latitude and longitude information.

나아가, 본 발명의 실시예에 따른 방법은 조사 대상 지역에 포함된 도로망, 농수로, 농로, 하천, 숲 등을 객체로 인식하여 해당 객체 대하여 현재 시점에 어떻게 변화되었는지 알 수도 있다. 물론, 각 객체에 대한 변경 여부 또한 상술한 과정을 통해 수행될 수 있으며, 객체 인식을 통해 동일 위치에서 객체가 변경되는 경우 객체가 어떻게 변경되었는지에 대한 정보를 제공할 수도 있다.Furthermore, the method according to the embodiment of the present invention recognizes road networks, farm waterways, farm roads, rivers, forests, etc. included in the survey target area as objects, and can know how the objects have changed at the current time point. Of course, whether or not each object is changed can also be performed through the above-described process, and when an object is changed at the same location through object recognition, information on how the object has been changed may be provided.

더 나아가, 본 발명의 실시예에 따른 방법은 변경이 발생한 객체 예를 들어, 대상 건물에 대하여 추가적으로 대상 건물의 주변 거리 풍경을 분석할 수도 있으며, 주변 거리 풍경 분석을 통해 대상 건물의 용도를 추가적으로 파악할 수도 있다. 물론, 본 발명의 방법에서의 주변 거리 풍경은 주변 건물 정보, 도로 정보 등을 포함할 수 있으며, 주변 거리 풍경에 대한 정보는 상술한 정보로 한정되지 않고 본 발명의 방법에서 사용할 수 있는 모든 종류의 정보를 포함할 수 있다.Furthermore, the method according to an embodiment of the present invention may additionally analyze the surrounding street scenery of the target building with respect to the object where the change has occurred, for example, the target building, and additionally determine the use of the target building through the surrounding street scenery analysis. may be Of course, the surrounding street scenery in the method of the present invention may include surrounding building information, road information, etc., and the information on the surrounding street scenery is not limited to the above information, and all types of information that can be used in the method of the present invention information may be included.

이와 같이, 본 발명의 일 실시예에 따른 방법은 인공지능 객체인식 기반으로 항공사진을 분석하여 건물의 변화와 거리의 변화를 파악함으로써, 특정 건물의 변화 예를 들어, 건물의 지붕 크랙 또는 파손 등을 검출할 수 있고, 재해와 재난 전후의 건물 피해상황을 식별할 수 있다. 따라서, 본 발명은 보험사와 수리업체 등에 이러한 정보를 제공할 수 있다.As such, the method according to an embodiment of the present invention analyzes aerial photographs based on artificial intelligence object recognition to identify changes in buildings and distances, such as changes in a specific building, such as cracks or damage to the roof of the building. can be detected, and the damage situation of buildings before and after disasters can be identified. Accordingly, the present invention can provide such information to insurance companies and repair companies.

또한, 본 발명의 일 실시예에 따른 방법은 거리의 변화를 파악할 수 있기 때문에 거리 풍경 등을 조사하기 위한 비용을 절감할 수 있고, 도로의 불법 점유 여부를 파악할 수 있으며, 공공용지의 불법 점유 여부를 파악할 수도 있다.In addition, since the method according to an embodiment of the present invention can determine the change in the street, it is possible to reduce the cost of investigating the street scenery, etc., it is possible to determine whether or not the road is illegally occupied, and whether or not the public space is illegally occupied. can also figure out.

이러한 본 발명은 도시 계획, 부동산 상권 분석, 건축법 위반 불법 건축물 식별 등의 다양한 서비스에 이용할 수 있으며, 본 발명을 통해 파악된 정보를 관공서와 특정 민간업체 등에 제공할 수 있다.The present invention can be used for various services such as urban planning, analysis of real estate commercial districts, and identification of illegal buildings violating building laws, and the information obtained through the present invention can be provided to public offices and specific private companies.

도 4는 본 발명의 일 실시예에 따른 인공지능 객체인식 기반의 건물 변화 구분 장치에 대한 구성을 나타낸 것으로, 도 1 내지 도 3의 방법을 수행하는 장치에 대한 개념적인 구성을 나타낸 것이다.Figure 4 shows the configuration of the building change classification device based on artificial intelligence object recognition according to an embodiment of the present invention, and shows the conceptual configuration of the device performing the method of Figs. 1 to 3.

도 4를 참조하면, 본 발명의 일 실시예에 따른 장치(400)는 수신부(410), 검출부(420), 판단부(430), 획득부(440), 제공부(450)와 데이터베이스(DB)(460)를 포함한다.Referring to FIG. 4 , the apparatus 400 according to an embodiment of the present invention includes a receiving unit 410, a detecting unit 420, a determining unit 430, an acquiring unit 440, a providing unit 450 and a database (DB ) (460).

DB(460)는 본 발명을 수행하기 위한 데이터를 저장하는 수단으로, 항공사진, 지도 데이터, 인공지능 객체인식 기반 알고리즘, 학습 모델, 객체 변경에 따른 데이터 제공 알고리즘 등과 같은 다양한 데이터를 저장할 수 있으며, 이러한 데이터 뿐만 아니라 본 발명을 수행하는데 있어서 필요로 하는 모든 종류의 데이터를 저장할 수 있다.DB 460 is a means for storing data for carrying out the present invention, and can store various data such as aerial photographs, map data, artificial intelligence object recognition-based algorithms, learning models, and data providing algorithms according to object changes, In addition to these data, all kinds of data required for carrying out the present invention can be stored.

여기서, DB(460)는 유무선 네트워크를 통해 저장된 데이터가 갱신될 수도 있으며, 데이터 갱신 주기는 본 발명의 기술을 제공하는 사업자 또는 개인에 의해 결정될 수 있다.Here, data stored in the DB 460 may be updated through a wired/wireless network, and the data update cycle may be determined by a business operator or individual providing the technology of the present invention.

수신부(410)는 사용자 또는 관리자로부터 조사 대상 지역의 좌표의 위도와 경도를 입력받음으로써, 조사 대상 지역을 설정하고, 조사 대상 지역에 대한 제1 시점의 항공사진과 제2 시점의 항공사진을 수신한다.The receiving unit 410 sets the survey target area by receiving the latitude and longitude of the coordinates of the survey target area from the user or administrator, and receives an aerial photograph of the survey target area at a first point of view and a second point in time. do.

여기서, 수신부(410)는 지도 데이터에서 조사 대상 지역을 사용자 또는 관리자의 입력에 의해 드래그함으로써, 조사 대상 지역을 설정할 수도 있다.Here, the receiver 410 may set the survey target region by dragging the survey target region in the map data according to a user's or manager's input.

검출부(420)는 조사 대상 지역의 제1 항공사진과 제2 항공사진을 인공지능 객체인식 기반으로 분석하여 제1 항공사진과 제2 항공사진에 포함된 건물들 예를 들어, 미리 설정된 대상 건물들을 검출한다.The detection unit 420 analyzes the first and second aerial photos of the area to be investigated based on artificial intelligence object recognition to determine buildings included in the first and second aerial photos, for example, preset target buildings. detect

이 때, 검출부(420)는 항공사진의 위도와 경도에 따른 건물의 목적과 사용 용도 그리고 가정용인지 상업용인지 등의 정보가 저장된 데이터베이스로부터 검출된 건물에 대한 정보를 검색함으로써, 해당 건물이 본 발명에서 대상이 되는 건물인지 판단할 수 있으며, 이를 통해 원하는 대상 건물을 검출할 수 있다.At this time, the detection unit 420 retrieves information about the detected building from a database in which information such as the purpose and use of the building according to the latitude and longitude of the aerial photograph, and whether it is for home or commercial use is stored, so that the building is found in the present invention. It can be determined whether it is a target building, and through this, a desired target building can be detected.

상황에 따라, 검출부(420)는 검출된 대상 건물을 제외한 나머지 부분 예를 들어, 도로, 주차장, 하천 등을 포함하는 건물이 아닌 부분을 미리 설정된 세그멘테이션(segmentation) 기법을 이용하여 제거하며, 이러한 부분이 제거된 항공사진에서 대상 건물들을 검출할 수도 있다.Depending on circumstances, the detection unit 420 removes parts other than the detected target building, for example, non-building parts including roads, parking lots, rivers, etc., using a preset segmentation technique, and these parts Target buildings may be detected in the removed aerial photograph.

상황에 따라, 검출부(420)는 세그멘테이션 기법을 이용하여 제1 항공사진과 제2 항공사진을 분석하고, 이를 통해 대상 건물 뿐만 아니라 도로망, 나무, 숲, 하천 등을 구분하여 검출할 수도 있다. Depending on circumstances, the detection unit 420 may analyze the first and second aerial photographs by using a segmentation technique, and may classify and detect target buildings as well as road networks, trees, forests, and rivers through the analysis.

판단부(430)는 검출부(420)에 의해 제1 시점의 대상 건물들과 제2 시점의 대상 건물들이 검출되면, 동일 위치의 건물들 각각에 대하여 제1 시점의 건물들과 제2 시점의 건물들 각각에 대한 모양을 비교한다.When the target buildings of the first viewpoint and the target buildings of the second viewpoint are detected by the detection unit 420, the determination unit 430 determines the buildings of the first viewpoint and the buildings of the second viewpoint with respect to the buildings at the same location, respectively. Compare the shape of each of them.

여기서, 판단부(430)는 미리 학습된 학습 모델의 인공지능을 이용하여 검출된 제1 시점의 건물들과 제2 시점의 건물들 각각에 대한 모양을 비교함으로써, 제2 시점의 건물들의 모양에서 제1 시점의 건물들의 모양이 어떻게 변화되었는지 그 변화 여부를 비교할 수 있다.Here, the determination unit 430 compares the shapes of the buildings of the first point of view with the shapes of the buildings of the second point of time detected using artificial intelligence of the pre-learned learning model, thereby determining the shape of the buildings of the second point of view. It is possible to compare how the shapes of the buildings at the first point in time have changed and whether or not they have changed.

획득부(440)는 건물 모양 비교 결과에 기초하여 제1 시점에서 건물의 모양이 변화된 부분을 획득한다.The acquisition unit 440 acquires a part where the shape of the building has changed at the first point of view based on the comparison result of the building shape.

제공부(450)는 모양의 변화가 발생한 건물에 대한 정보 예를 들어, 위치 정보, 위도와 경도 정보 등이 획득되면, 제1 시점에서 변화된 부분 즉, 과거에 비하여 현재 모양이 변경된 건물에 대한 정보를 제공한다.When information about a building whose shape has changed, for example, location information, latitude and longitude information, etc. is acquired, the provision unit 450 provides information about a building whose shape has changed at the first point in time, that is, a building whose shape has changed compared to the past. provides

여기서, 제공부(450)는 조사 대상 지역의 대상 건물들 중 건물 모양이 변경된 건물에 대한 정보를 특정 파일 형태로 제공할 수도 있으며, 제공되는 정보는 모양이 변경된 대상 건물의 주소 정보, 건물 정보, 용도 정보, 변경 정보, 위도와 경도 정보 중 적어도 하나를 포함할 수 있다.Here, the provision unit 450 may provide information on a building whose shape has been changed among target buildings in the survey target area in the form of a specific file, and the provided information includes address information, building information, It may include at least one of usage information, change information, and latitude and longitude information.

비록, 도 4의 장치에서 그 설명이 생략되었더라도, 도 4를 구성하는 각 구성 수단은 도 1 내지 도 3의 방법에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Although the description is omitted in the device of FIG. 4, each constituent means constituting FIG. 4 may include all of the contents described in the method of FIGS. 1 to 3, which is obvious to those skilled in the art. Do.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. can be embodied in The software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.  The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (10)

인공지능 객체 인식 기반의 건물 변화 구분 방법에 있어서,
대상 지역에 대하여, 미리 학습된 학습 모델의 인공지능을 이용하여 현재 시점인 제1 시점의 제1 항공사진과 상기 제1 시점 이전의 제2 시점의 제2 항공사진을 분석하여 상기 제1 항공사진과 상기 제2 항공사진에 포함된 건물을 검출하는 단계;
동일 위치의 건물들 각각에 대하여, 상기 미리 학습된 학습 모델의 인공지능을 이용하여 상기 검출된 제1 항공사진의 건물과 제2 항공사진의 건물에 대한 모양을 비교하는 단계;
상기 동일 위치의 건물들 각각에 대하여, 상기 미리 학습된 학습 모델의 인공지능을 이용하여 건물 모양의 비교 결과에 기초하여 상기 제1 시점에서 변화된 부분을 획득하는 단계; 및
상기 제1 시점에서 변화된 부분이 획득되는 경우 상기 변화된 부분이 획득된 건물에 대한 정보를 제공하는 단계를 포함하되,
상기 검출하는 단계는
사용자 또는 관리자의 입력에 의해, 지도 데이터에서 드래그된 상기 대상 지역을 설정하며,
상기 검출하는 단계는
상기 대상 지역에 대하여, 상기 제1 항공사진과 상기 제2 항공사진을 미리 설정된 세그멘테이션(segmentation) 기법으로 분석하여 상기 제1 항공사진과 상기 제2 항공사진에 포함된 건물, 도로, 나무와 숲을 구분하여 검출하며, 미리 설정된 대상 건물을 검출하는 경우, 상기 제1 항공사진과 상기 제2 항공사진을 분석하여 미리 설정된 대상 건물을 검출하고, 상기 검출된 대상 건물을 제외한 나머지 부분을 제거함으로써, 상기 제1 항공사진과 상기 제2 항공사진 각각에서 상기 대상 건물만을 검출하고,
상기 정보를 제공하는 단계는
상기 대상 지역에서 모양이 변형된 건물에 대한 건물의 주소 정보, 건물 정보, 용도 정보, 변경 정보 및 위도와 경도 정보를 특정 파일 형태로 제공하며,
상기 검출하는 단계는
도로망을 검출하는 경우, 상기 대상 지역에 대하여, 상기 제1 항공사진과 상기 제2 항공사진을 분석하여 상기 제1 항공사진과 상기 제2 항공사진에 포함된 도로망을 검출하고,
상기 비교하는 단계는
상기 제1 항공사진에서 검출된 도로망과 상기 제2 항공사진에서 검출된 도로망을 비교하며,
상기 획득하는 단계는
상기 도로망의 비교 결과에 기초하여 상기 제1 시점에서 도로망의 변화된 부분을 획득하고,
미리 설정된 학습 데이터세트를 이용하여 인공지능을 학습함에 따라 객체를 검출하거나 각 객체에 대하여 변환된 부분을 획득하는 각각의 학습 모델 또는 통합된 학습 모델의 인공지능을 생성하며, 생성된 상기 미리 학습된 학습 모델의 인공 지능은 항공사진 분석을 통해 도출되는 결과물을 이용하여 갱신되고, 추가로 수집된 학습 데이터세트를 이용하여 갱신되는, 건물 변화 구분 방법.
In the building change classification method based on artificial intelligence object recognition,
For the target area, the first aerial photo of the first time point, which is the current point of time, and the second aerial photo of the second time point before the first point of time are analyzed using artificial intelligence of a pre-learned learning model to analyze the first aerial photo. and detecting a building included in the second aerial photograph;
Comparing shapes of the detected buildings of the first aerial photograph and the buildings of the second aerial photograph using artificial intelligence of the pre-learned learning model for each of the buildings in the same location;
Obtaining a changed part at the first point in time based on a comparison result of a building shape using AI of the pre-learned learning model for each of the buildings at the same location; and
Including providing information on a building in which the changed part is obtained when the changed part is obtained from the first point of view,
The step of detecting
Setting the target area dragged from map data by input of a user or administrator;
The step of detecting
With respect to the target area, buildings, roads, trees, and forests included in the first and second aerial photos are analyzed by analyzing the first and second aerial photos using a preset segmentation technique. In the case of detecting a preset target building, the first aerial photograph and the second aerial photograph are analyzed to detect a preset target building, and the remaining parts except for the detected target building are removed. Detecting only the target building in each of the first aerial photograph and the second aerial photograph;
The step of providing the information is
Provides building address information, building information, use information, change information, and latitude and longitude information of a building whose shape is deformed in the target area in the form of a specific file,
The step of detecting
When detecting a road network, with respect to the target area, analyzing the first aerial photo and the second aerial photo to detect a road network included in the first aerial photo and the second aerial photo;
The step of comparing
Comparing the road network detected in the first aerial photograph with the road network detected in the second aerial photograph;
The step of obtaining
Obtaining a changed part of the road network at the first point in time based on the comparison result of the road network;
As artificial intelligence is learned using a preset learning dataset, an object is detected or an artificial intelligence of each learning model or an integrated learning model that acquires a transformed part for each object is created, and the generated pre-learned A method for distinguishing building changes in which the artificial intelligence of the learning model is updated using the output derived from aerial photo analysis and is updated using the additionally collected learning dataset.
삭제delete 삭제delete 삭제delete 삭제delete 인공지능 객체 인식 기반의 건물 변화 구분 장치에 있어서,
대상 지역에 대하여, 미리 학습된 학습 모델의 인공지능을 이용하여 현재 시점인 제1 시점의 제1 항공사진과 상기 제1 시점 이전의 제2 시점의 제2 항공사진을 분석하여 상기 제1 항공사진과 상기 제2 항공사진에 포함된 건물을 검출하는 검출부;
동일 위치의 건물들 각각에 대하여, 상기 미리 학습된 학습 모델의 인공지능을 이용하여 상기 검출된 제1 항공사진의 건물과 제2 항공사진의 건물에 대한 모양을 비교하는 판단부;
상기 동일 위치의 건물들 각각에 대하여, 상기 미리 학습된 학습 모델의 인공지능을 이용하여 건물 모양의 비교 결과에 기초하여 상기 제1 시점에서 변화된 부분을 획득하는 획득부; 및
상기 제1 시점에서 변화된 부분이 획득되는 경우 상기 변화된 부분이 획득된 건물에 대한 위치 정보를 제공하는 제공부를 포함하되,
상기 검출부는
사용자 또는 관리자의 입력에 의해, 지도 데이터에서 드래그된 상기 대상 지역을 설정하며,
상기 검출부는
상기 대상 지역에 대하여, 상기 제1 항공사진과 상기 제2 항공사진을 미리 설정된 세그멘테이션(segmentation) 기법으로 분석하여 상기 제1 항공사진과 상기 제2 항공사진에 포함된 건물, 도로, 나무와 숲을 구분하여 검출하며, 미리 설정된 대상 건물을 검출하는 경우, 상기 제1 항공사진과 상기 제2 항공사진을 분석하여 미리 설정된 대상 건물을 검출하고, 상기 검출된 대상 건물을 제외한 나머지 부분을 제거함으로써, 상기 제1 항공사진과 상기 제2 항공사진 각각에서 상기 대상 건물만을 검출하고,
상기 제공부는
상기 대상 지역에서 모양이 변형된 건물에 대한 건물의 주소 정보, 건물 정보, 용도 정보, 변경 정보 및 위도와 경도 정보를 특정 파일 형태로 제공하며, 상기 검출부는
도로망을 검출하는 경우, 상기 대상 지역에 대하여, 상기 제1 항공사진과 상기 제2 항공사진을 분석하여 상기 제1 항공사진과 상기 제2 항공사진에 포함된 도로망을 검출하고,
상기 판단부는
상기 제1 항공사진에서 검출된 도로망과 상기 제2 항공사진에서 검출된 도로망을 비교하며,
상기 획득부는
상기 도로망의 비교 결과에 기초하여 상기 제1 시점에서 도로망의 변화된 부분을 획득하고,
미리 설정된 학습 데이터세트를 이용하여 인공지능을 학습함에 따라 객체를 검출하거나 각 객체에 대하여 변환된 부분을 획득하는 각각의 학습 모델 또는 통합된 학습 모델의 인공지능을 생성하며, 생성된 상기 미리 학습된 학습 모델의 인공 지능은 항공사진 분석을 통해 도출되는 결과물을 이용하여 갱신되고, 추가로 수집된 학습 데이터세트를 이용하여 갱신되는, 건물 변화 구분 장치.
In the building change classification device based on artificial intelligence object recognition,
For the target area, the first aerial photo of the first time point, which is the current point of time, and the second aerial photo of the second time point before the first point of time are analyzed using artificial intelligence of a pre-learned learning model to analyze the first aerial photo. and a detector detecting a building included in the second aerial photograph;
a determination unit comparing the shape of the detected building of the first aerial photograph and the building of the second aerial photograph using artificial intelligence of the pre-learned learning model for each of the buildings in the same location;
For each of the buildings at the same location, an acquisition unit for acquiring a changed part at the first point in time based on a comparison result of a building shape using artificial intelligence of the pre-learned learning model; and
Including a provision unit for providing location information on a building from which the changed portion is obtained when the changed portion is acquired at the first point of view,
the detection unit
Setting the target area dragged from map data by input of a user or administrator;
the detection unit
With respect to the target area, buildings, roads, trees, and forests included in the first and second aerial photographs are analyzed by analyzing the first and second aerial photographs using a preset segmentation technique. Classification and detection, in case of detecting a preset target building, the first aerial photograph and the second aerial photograph are analyzed to detect a preset target building, and by removing the remaining parts except for the detected target building, Detecting only the target building in each of the first aerial photograph and the second aerial photograph;
The provisioning department
Provides building address information, building information, use information, change information, and latitude and longitude information of a building whose shape is deformed in the target area in the form of a specific file, and the detection unit
When detecting a road network, with respect to the target area, analyzing the first aerial photograph and the second aerial photograph to detect a road network included in the first aerial photograph and the second aerial photograph;
The judge
Comparing the road network detected in the first aerial photograph with the road network detected in the second aerial photograph;
the acquisition unit
Obtaining a changed part of the road network at the first point in time based on the comparison result of the road network;
As artificial intelligence is learned using a preset learning dataset, an object is detected or an artificial intelligence of each learning model or an integrated learning model that obtains a transformed part for each object is created, and the generated pre-learned The artificial intelligence of the learning model is updated using the output derived from the aerial photograph analysis, and the building change classification device is updated using the additionally collected learning dataset.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020200049514A 2020-04-23 2020-04-23 Method for classifying building change in a user-participating recognition platform using aritificial intelligence and apparatus therefore KR102484401B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200049514A KR102484401B1 (en) 2020-04-23 2020-04-23 Method for classifying building change in a user-participating recognition platform using aritificial intelligence and apparatus therefore

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200049514A KR102484401B1 (en) 2020-04-23 2020-04-23 Method for classifying building change in a user-participating recognition platform using aritificial intelligence and apparatus therefore

Publications (2)

Publication Number Publication Date
KR20210131119A KR20210131119A (en) 2021-11-02
KR102484401B1 true KR102484401B1 (en) 2023-01-04

Family

ID=78476597

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200049514A KR102484401B1 (en) 2020-04-23 2020-04-23 Method for classifying building change in a user-participating recognition platform using aritificial intelligence and apparatus therefore

Country Status (1)

Country Link
KR (1) KR102484401B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003244A (en) 2005-06-21 2007-01-11 Pasuko:Kk Method of determining house movement
JP2007248364A (en) 2006-03-17 2007-09-27 Pasuko:Kk Building shape change detection method and building shape change detection system
JP2010015448A (en) * 2008-07-04 2010-01-21 Hitachi Software Eng Co Ltd Program and system for detecting change in shape of feature
JP2013101428A (en) 2011-11-07 2013-05-23 Pasuko:Kk Building contour extraction device, building contour extraction method, and building contour extraction program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003244A (en) 2005-06-21 2007-01-11 Pasuko:Kk Method of determining house movement
JP2007248364A (en) 2006-03-17 2007-09-27 Pasuko:Kk Building shape change detection method and building shape change detection system
JP2010015448A (en) * 2008-07-04 2010-01-21 Hitachi Software Eng Co Ltd Program and system for detecting change in shape of feature
JP2013101428A (en) 2011-11-07 2013-05-23 Pasuko:Kk Building contour extraction device, building contour extraction method, and building contour extraction program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Virginia Ng 등, Scalable Feature Extraction with Aerial and Satellite Imagery, SCIPY.(2018.07.09.)*

Also Published As

Publication number Publication date
KR20210131119A (en) 2021-11-02

Similar Documents

Publication Publication Date Title
Arietta et al. City forensics: Using visual elements to predict non-visual city attributes
Aljumaily et al. Urban point cloud mining based on density clustering and MapReduce
EP3736735A1 (en) Apparatus and method for providing application service using satellite image
Díaz-Vilariño et al. Indoor navigation from point clouds: 3D modelling and obstacle detection
Nyaruhuma et al. Verification of 2D building outlines using oblique airborne images
KR102096926B1 (en) Method and system for detecting change point of interest
KR102376912B1 (en) Land management device and method based on spatial information using artificial intelligence
CN113033516A (en) Object identification statistical method and device, electronic equipment and storage medium
Chen et al. Automatic concrete defect detection and reconstruction by aligning aerial images onto semantic‐rich building information model
CN110636248B (en) Target tracking method and device
WO2018042208A1 (en) Street asset mapping
KR102189926B1 (en) Method and system for detecting change point of interest
KR102484401B1 (en) Method for classifying building change in a user-participating recognition platform using aritificial intelligence and apparatus therefore
KR101817440B1 (en) The 3d model-based object recognition techniques and systems with a multi-camera
KR102156085B1 (en) Method for forest area change detection and regional change of pervious/impervious map utilizing high-resolution drone image
CN111649749A (en) Navigation method based on BIM (building information modeling), electronic equipment and related product
KR102405937B1 (en) Method for estimating building height in a user-participating recognition platform using aritificial intelligence and apparatus therefore
KR102596037B1 (en) Method for determining installation point of facilities in a user-participating recognition platform using aritificial intelligence and apparatus therefore
KR102376921B1 (en) Database building method and apparatus for land status analysis
KR102361663B1 (en) Method for determining purpose of building in a user-participating recognition platform using aritificial intelligence and apparatus therefore
Sun et al. Automatic building age prediction from street view images
JP2022056219A (en) Information processor, method for processing information, and program
Kim et al. Intelligent Risk-Identification Algorithm with Vision and 3D LiDAR Patterns at Damaged Buildings.
KR20230014595A (en) Method for determining installation point of facilities in a user-participating recognition platform using aritificial intelligence and apparatus therefore
Dos Santos et al. K-Means Clustering Based on Omnivariance Attribute for Building Detection from Airborne Lidar Data

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)