KR20220112590A - Artificial Intelligence-based Water Quality Contaminant Monitoring System and Method - Google Patents

Artificial Intelligence-based Water Quality Contaminant Monitoring System and Method Download PDF

Info

Publication number
KR20220112590A
KR20220112590A KR1020210016311A KR20210016311A KR20220112590A KR 20220112590 A KR20220112590 A KR 20220112590A KR 1020210016311 A KR1020210016311 A KR 1020210016311A KR 20210016311 A KR20210016311 A KR 20210016311A KR 20220112590 A KR20220112590 A KR 20220112590A
Authority
KR
South Korea
Prior art keywords
image
rgb
pollution source
monitoring
pollutant
Prior art date
Application number
KR1020210016311A
Other languages
Korean (ko)
Other versions
KR102507501B1 (en
Inventor
박경훈
석종원
송봉근
김경아
김성현
박건웅
문한솔
Original Assignee
창원대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 창원대학교 산학협력단 filed Critical 창원대학교 산학협력단
Priority to KR1020210016311A priority Critical patent/KR102507501B1/en
Publication of KR20220112590A publication Critical patent/KR20220112590A/en
Application granted granted Critical
Publication of KR102507501B1 publication Critical patent/KR102507501B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N21/35Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/18Water
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • B64C2201/12
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A20/00Water conservation; Efficient water supply; Efficient water use
    • Y02A20/20Controlling water pollution; Waste water treatment

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Analytical Chemistry (AREA)
  • Tourism & Hospitality (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Food Science & Technology (AREA)
  • Molecular Biology (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Medical Informatics (AREA)
  • Game Theory and Decision Science (AREA)

Abstract

Disclosed are an artificial intelligence-based water quality pollution source monitoring system and method. According to one embodiment of the present invention, the artificial intelligence-based water quality pollution source monitoring method implemented through a computer device may comprise: a step of generating input data by using at least any one of RGB, multiple spectroscopy, and thermal infrared images of an area to be monitored; a step of analyzing information on a type or state of a pollution source by inputting the input data to a trained image deep learning neural network; and a step of displaying information on the type or state of the pollution source by using location information of an image to monitor the pollution source.

Description

인공지능 기반 수계오염원 모니터링 시스템 및 방법{Artificial Intelligence-based Water Quality Contaminant Monitoring System and Method}Artificial Intelligence-based Water Quality Contaminant Monitoring System and Method}

아래의 실시예들은 인공지능 기반 수계오염원 모니터링 시스템 및 방법에 관한 것으로, 더욱 상세하게는 이미지 딥러닝을 기반으로 오염원의 종류와 정보를 판별하는 인공지능 기반 수계오염원 모니터링 시스템 및 방법에 관한 것이다. The following embodiments relate to an artificial intelligence-based water pollution source monitoring system and method, and more particularly, to an artificial intelligence-based water pollution source monitoring system and method for determining the type and information of a pollution source based on image deep learning.

비점오염원(非點汚染源)은 도시, 도로, 농지, 산지, 공사장 등 불특정 장소에서 불특정하게 수질오염물질을 배출하는 배출원을 의미한다. 점오염원(點汚染源)은 오염물질의 유출경로가 명확하여 수집이 쉽고, 계절에 따른 영향이 상대적으로 적은 만큼 연중 발생량 예측이 가능하여 관거 및 처리장 등 처리시설의 설계와 유지/관리가 용이하다. 반면, 비점오염원은 오염물질의 유출 및 배출 경로가 명확하게 구분되지 않아 수집이 어렵고, 발생량/배출량이 강수량 등 기상조건에 크게 좌우되기 때문에 처리시설의 설계 및 유지관리가 어려운 문제가 있다. 또한, 우수 유출로 인하여 부하가 발생되는 비점오염원은 그 발생원과 운반과정이 다양하므로 관리방법도 다양하며 점오염원과 같이 간단하게 처리하기는 매우 곤란하다. 따라서 초기 우수를 하수처리 수준으로 처리한다는 것은 불가능하며, 처리에 있어서도 어느 한가지의 처리방법을 이용하여 제어하기는 어렵다.Non-point pollution sources refer to sources that discharge water pollutants in unspecified places such as cities, roads, farmland, mountain areas, and construction sites. Point sources (點汚染源) are easy to collect because the discharge route of pollutants is clear, and the amount of pollutants generated throughout the year can be predicted because the seasonal influence is relatively small, making it easy to design and maintain/manage treatment facilities such as conduits and treatment plants. On the other hand, non-point source pollutants are difficult to collect because the outflow and discharge routes of pollutants are not clearly separated, and since the amount/discharge is greatly dependent on weather conditions such as precipitation, design and maintenance of treatment facilities is difficult. In addition, non-point pollution sources that generate a load due to rainwater runoff have various sources and transport processes, so management methods are diverse, and it is very difficult to treat them simply like point sources. Therefore, it is impossible to treat the initial rainwater to the level of sewage treatment, and it is difficult to control the treatment using any one treatment method.

현재 정부는 장기계획으로 비점오염원에 대한 단계별 대책을 추진하고 있다. 구체적으로 비점오염원 관리를 위한 법령 및 규정을 마련하고, 주요 사업장의 비점오염원의 관리의무를 부과하며 관리 대책을 반영한 개발 및 정비사업을 시행 중이며, 비점오염원을 모니터링하기 위한 사업을 추진 중이다. 따라서, 광활한 지역에 지엽적으로 분포된 다양한 종류의 비점오염원을 관리, 모니터링 할 수 있는 기술 개발이 시급하다.Currently, the government is promoting step-by-step measures against nonpoint pollution sources as a long-term plan. Specifically, laws and regulations for the management of non-point pollution sources are prepared, the management duties of non-point pollution sources are imposed on major business sites, and development and maintenance projects that reflect management measures are being implemented, and a project to monitor non-point pollution sources is being promoted. Therefore, it is urgent to develop a technology that can manage and monitor various types of nonpoint pollution sources distributed locally in a vast area.

한국등록특허 10-1659433호는 이러한 하천오염 관리시스템 및 그 운용방법에 관한 것으로, 도심하천으로 유입하는 점 및 비점오염원의 배후농도 분석 및 오염도를 평가하고, 조사 분석된 오염원 속성자료와 지형공간정보의 융합모니터링 기법을 활용하는 기술을 기재하고 있다.Korean Patent No. 10-1659433 relates to such a river pollution management system and its operation method, and it analyzes the concentration behind the point and nonpoint pollution sources flowing into urban rivers and evaluates the pollution degree, and investigates and analyzes pollution source attribute data and geospatial information. technology that utilizes the convergence monitoring technique of

한국등록특허 10-1659433호Korean Patent No. 10-1659433

실시예들은 인공지능 기반 수계오염원 모니터링 시스템 및 방법에 관하여 기술하며, 보다 구체적으로 이미지 딥러닝을 기반으로 오염원의 종류와 정보를 판별하는 기술을 제공한다. The embodiments describe an artificial intelligence-based water pollution source monitoring system and method, and more specifically, provide a technology for determining the type and information of a pollution source based on image deep learning.

실시예들은 RGB, 다중분광, 열적외선 영상을 각각 또는 정합하여 학습시킨 이미지 딥러닝 뉴럴 네트워크를 통해 오염원을 자동 판별하는 인공지능 기반 수계오염원 모니터링 시스템 및 방법을 제공하는데 있다. Embodiments are to provide an artificial intelligence-based water pollution source monitoring system and method for automatically determining a pollution source through an image deep learning neural network that is learned by matching RGB, multispectral, and thermal infrared images individually or by matching.

또한, 실시예들은 드론의 자율 비행을 오염원의 위치를 기반으로 설계하여 광범위한 영역을 자율 비행하는 알고리즘을 통해 모니터링 인력 소모를 최소화할 수 있는 인공지능 기반 수계오염원 모니터링 시스템 및 방법을 제공하는데 있다. In addition, embodiments provide an artificial intelligence-based water pollution source monitoring system and method that can minimize monitoring manpower consumption through an algorithm that autonomously flies over a wide area by designing autonomous flight of a drone based on the location of a pollution source.

일 실시예에 따른 컴퓨터 장치를 통해 구현되는 인공지능 기반 수계오염원 모니터링 방법은, 모니터링 대상 지역의 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 이용하여 입력 데이터를 생성하는 단계; 상기 입력 데이터를 학습된 이미지 딥러닝 뉴럴 네트워크에 입력하여 오염원의 종류 또는 상태에 대한 정보를 분석하는 단계; 및 상기 오염원을 모니터링하도록 이미지의 위치 정보를 활용하여 상기 오염원의 종류 또는 상태에 대한 정보를 표시하는 단계를 포함하여 이루어질 수 있다. An artificial intelligence-based water pollution source monitoring method implemented through a computer device according to an embodiment includes generating input data using at least one image of RGB, multi-spectral and thermal infrared of a monitoring target area; inputting the input data into a learned image deep learning neural network to analyze information on a type or state of a pollutant; and displaying information on the type or state of the pollution source by using the location information of the image to monitor the pollution source.

드론의 자율비행 경로의 설정을 통한 오염원에 대한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 획득하는 단계를 더 포함하고, 상기 영상을 이용하여 상기 입력 데이터를 생성할 수 있다. The method may further include acquiring an image of at least one of RGB, multispectral, and thermal infrared for a pollution source through setting of an autonomous flight path of the drone, and the input data may be generated using the image.

상기 영상을 획득하는 단계는, 드론의 자율비행 경로의 설정에 따라 모니터링 대상 지역의 영상을 RGB, 다중분광 및 열적외선으로 촬영한 후, 이미지 처리를 통해 정사영상으로 변환하고, 상기 입력 데이터를 생성하는 단계는, 상기 정사영상에서 오염원으로 의심되는 영역의 RGB, 다중분광 및 열적외선 영상을 이용하여 입력 데이터를 형성할 수 있다. In the acquiring of the image, the image of the monitoring target area is captured by RGB, multi-spectral and thermal infrared according to the setting of the autonomous flight path of the drone, and then converted into an orthographic image through image processing, and the input data is generated In the orthogonal image, input data may be formed using RGB, multi-spectral and thermal infrared images of regions suspected of contamination.

상기 영상을 획득하는 단계는, 드론이 모니터링 지역을 소정 높이의 고도에서 스캔하며 이동하여, RGB 영상을 획득하는 단계; 상기 RGB 영상을 오브젝트 디텍션(object detection)을 통해 오염원의 유무를 확인하는 단계; 상기 오브젝트 디텍션을 통해 오염원이 검출되는 경우, 상기 드론이 상기 오염원이 검출된 영역을 집중 촬영하도록 비행경로를 설정하는 단계; 및 설정된 상기 비행경로에 따라 상기 드론이 이동하며 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 집중 촬영하는 단계를 포함하여 이루어질 수 있다. The acquiring of the image may include: acquiring an RGB image by moving the drone while scanning the monitoring area at an altitude of a predetermined height; confirming the presence or absence of a contamination source through object detection in the RGB image; when a pollution source is detected through the object detection, setting a flight route so that the drone intensively captures an area in which the pollution source is detected; and the drone moves according to the set flight path and intensively captures at least one image of RGB, multi-spectral and thermal infrared rays.

상기 집중 촬영하는 단계는, 상기 드론이 위치, 각도 및 포커싱 중 적어도 어느 하나 이상의 설정을 변경하여 집중 촬영하여 서로 다른 관점에서의 영상을 획득할 수 있다. In the intensive photographing, the drone may acquire images from different viewpoints by intensively photographing by changing at least one setting of a position, an angle, and a focusing.

상기 오염원의 종류 또는 상태에 대한 정보를 표시하는 단계는, 상기 오염원의 종류 또는 상태에 대한 정보를 정사영상에 매칭하여 표시하여 비점오염원을 모니터링할 수 있다. In the displaying of the information on the type or state of the pollutant, the information on the type or state of the pollutant may be matched to the ortho image and displayed to monitor the non-point pollution source.

오염원을 촬영한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상과, 오염원 종류별로 레이블을 결합하여 학습 데이터를 생성하는 단계; 및 생성된 상기 학습 데이터를 이용하여 상기 이미지 딥러닝 뉴럴 네트워크를 학습시키는 단계를 더 포함할 수 있다. generating learning data by combining at least one image of RGB, multi-spectral, and thermal infrared of a pollutant source and a label for each type of pollutant; and training the image deep learning neural network using the generated training data.

상기 이미지 딥러닝 뉴럴 네트워크를 학습시키는 단계는, 생성된 상기 학습 데이터를 상기 이미지 딥러닝 뉴럴 네트워크에 입력하여 오염원의 종류를 이미지 분류(image classification)하는 단계; 및 분류된 각 상기 오염원을 이미지 세그멘테이션(image segmentation)을 통해 오염원의 상태를 파악하는 단계를 포함할 수 있다. The training of the image deep learning neural network may include: inputting the generated training data into the image deep learning neural network to classify a type of pollutant into an image; and identifying the state of each of the classified pollutants through image segmentation.

상기 이미지 딥러닝 뉴럴 네트워크는, RGB, 다중분광 및 열적외선 영상을 정합한 하나의 영상으로 학습하여 구성하거나, RGB, 다중분광 및 열적외선 영상을 개별적으로 학습한 후 최종적으로 결합하여 구성할 수 있다. The image deep learning neural network can be configured by learning RGB, multispectral and thermal infrared images as one matched image, or by learning RGB, multispectral and thermal infrared images individually and finally combining them. .

다른 실시예에 따른 인공지능 기반 수계오염원 모니터링 시스템은, 모니터링 대상 지역의 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 이용하여 입력 데이터를 생성하는 입력 데이터 생성부; 상기 입력 데이터를 학습된 이미지 딥러닝 뉴럴 네트워크에 입력하여 오염원의 종류 또는 상태에 대한 정보를 분석하는 분석 및 해석부; 및 상기 오염원을 모니터링하도록 이미지의 위치 정보를 활용하여 상기 오염원의 종류 또는 상태에 대한 정보를 표시하는 정보 표시부를 포함하여 이루어질 수 있다. An artificial intelligence-based water pollution source monitoring system according to another embodiment includes: an input data generator for generating input data using at least one image of RGB, multi-spectral, and thermal infrared of a monitoring target area; an analysis and analysis unit for inputting the input data into a learned image deep learning neural network and analyzing information on a type or state of a pollutant; and an information display unit for displaying information on the type or state of the pollution source by using the location information of the image to monitor the pollution source.

드론의 자율비행 경로의 설정을 통한 오염원에 대한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 획득하는 영상 수집부를 더 포함하고, 상기 영상을 이용하여 상기 입력 데이터를 생성할 수 있다. The drone may further include an image collector configured to acquire at least one image of RGB, multispectral, and thermal infrared for a pollution source through setting of an autonomous flight path of the drone, and may generate the input data using the image.

상기 영상 수집부는, 드론의 자율비행 경로의 설정에 따라 모니터링 대상 지역의 영상을 RGB, 다중분광 및 열적외선으로 촬영한 후, 이미지 처리를 통해 정사영상으로 변환하고, 상기 입력 데이터 생성부는, 상기 정사영상에서 오염원으로 의심되는 영역의 RGB, 다중분광 및 열적외선 영상을 이용하여 입력 데이터를 형성할 수 있다. The image collection unit, after taking an image of the monitoring target area in RGB, multi-spectral and thermal infrared according to the setting of the autonomous flight path of the drone, converts it into an orthographic image through image processing, and the input data generating unit, Input data can be formed using RGB, multispectral, and thermal infrared images of regions suspected of contamination in the image.

상기 영상 수집부는, 드론이 모니터링 지역을 소정 높이의 고도에서 스캔하며 이동하여, RGB 영상을 획득하고, 상기 RGB 영상을 오브젝트 디텍션(object detection)을 통해 오염원의 유무를 확인한 후, 상기 오브젝트 디텍션을 통해 오염원이 검출되는 경우, 상기 드론이 상기 오염원이 검출된 영역을 집중 촬영하도록 비행경로를 설정하고, 설정된 상기 비행경로에 따라 상기 드론이 이동하며 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 집중 촬영할 수 있다. The image collection unit, the drone moves while scanning the monitoring area at a predetermined height, acquires an RGB image, checks the RGB image for the presence of a contamination source through object detection, and then through the object detection When a pollution source is detected, a flight path is set so that the drone intensively captures the area where the pollution source is detected, and the drone moves according to the set flight path, and at least one image of RGB, multi-spectral and thermal infrared is displayed. You can focus on shooting.

상기 영상 수집부는, 상기 드론이 위치, 각도 및 포커싱 중 적어도 어느 하나 이상의 설정을 변경하여 집중 촬영하여 서로 다른 관점에서의 영상을 획득할 수 있다. The image collecting unit may acquire images from different viewpoints by intensively photographing the drone by changing at least one setting of a position, an angle, and a focusing.

오염원을 촬영한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상과, 오염원 종류별로 레이블을 결합하여 학습 데이터를 생성하고, 생성된 상기 학습 데이터를 이용하여 상기 이미지 딥러닝 뉴럴 네트워크를 학습시키는 모델 학습부를 더 포함할 수 있다. A model for generating training data by combining at least any one or more images of RGB, multispectral, and thermal infrared image of a pollutant and a label for each type of pollutant, and using the generated training data to train the image deep learning neural network It may further include a learning unit.

실시예들에 따르면 RGB, 다중분광, 열적외선 영상을 각각 또는 정합하여 학습시킨 이미지 딥러닝 뉴럴 네트워크를 통해 오염원을 자동 판별하는 인공지능 기반 수계오염원 모니터링 시스템 및 방법을 제공할 수 있다. According to embodiments, it is possible to provide an artificial intelligence-based water pollution source monitoring system and method for automatically determining a pollution source through an image deep learning neural network that is learned by individually or matching RGB, multispectral, and thermal infrared images.

또한, 실시예들에 따르면 드론의 자율 비행을 오염원의 위치를 기반으로 설계하여 광범위한 영역을 자율 비행하는 알고리즘을 통해 모니터링 인력 소모를 최소화할 수 있는 인공지능 기반 수계오염원 모니터링 시스템 및 방법을 제공할 수 있다. In addition, according to embodiments, it is possible to provide an artificial intelligence-based water pollution source monitoring system and method that can minimize monitoring manpower consumption through an algorithm that autonomously flies over a wide area by designing autonomous flight of a drone based on the location of a pollution source. have.

도 1은 일 실시예에 따른 컴퓨터 장치(시스템)의 내부 구성의 일례를 설명하기 위한 블록도이다.
도 2는 일 실시예에 따른 이미지 딥러닝 뉴럴 네트워크의 학습 방법을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 수계오염원 모니터링 시스템을 나타내는 블록도이다.
도 4는 일 실시예에 따른 수계오염원 모니터링 방법을 나타내는 흐름도이다.
도 5는 일 실시예에 따른 이미지 딥러닝 뉴럴 네트워크의 기초 학습 및 강화 학습의 수행 예시를 나타내는 도면이다.
도 6은 일 실시예에 따른 이미지 딥러닝 뉴럴 네트워크의 오염원 탐지 예시를 나타내는 도면이다.
도 7은 일 실시예에 따른 히트맵 및 클러스터 분포의 예시를 나타내는 도면이다.
도 8은 일 실시예에 따른 야적퇴비 탐지를 위한 모듈 구조의 예시를 나타내는 도면이다.
도 9는 일 실시예에 따른 야적퇴비 탐지 결과의 예시를 나타낸다. 도 9에 도시된 바와 같이, 야적퇴비 탐지 결과를 이미지에 표시하여 모니터링하도록 할 수 있다.
도 10은 일 실시예에 따른 드론을 이용한 학습 데이터 구축 방법을 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 오염원 분류 정확도 향상 방법을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 인공지능 기반 수계오염원 모니터링 시스템의 활용 방법을 설명하기 위한 도면이다.
1 is a block diagram for explaining an example of an internal configuration of a computer device (system) according to an embodiment.
2 is a diagram for explaining a learning method of an image deep learning neural network according to an embodiment.
3 is a block diagram illustrating a water pollution source monitoring system according to an embodiment.
4 is a flowchart illustrating a method for monitoring a water pollution source according to an embodiment.
5 is a diagram illustrating an example of performing basic learning and reinforcement learning of an image deep learning neural network according to an embodiment.
6 is a diagram illustrating an example of detecting a pollutant in an image deep learning neural network according to an embodiment.
7 is a diagram illustrating an example of a heat map and cluster distribution according to an embodiment.
8 is a diagram illustrating an example of a module structure for detecting yard compost according to an embodiment.
9 shows an example of a result of detecting open compost according to an embodiment. As shown in FIG. 9 , it is possible to monitor the result of the detection of yard compost by displaying it on the image.
10 is a diagram for explaining a method of constructing learning data using a drone according to an embodiment.
11 is a diagram for explaining a method for improving the accuracy of pollution source classification according to an embodiment.
12 is a view for explaining a method of using an artificial intelligence-based water pollution source monitoring system according to an embodiment.

이하, 첨부된 도면을 참조하여 실시예들을 설명한다. 그러나, 기술되는 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명되는 실시예들에 의하여 한정되는 것은 아니다. 또한, 여러 실시예들은 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 도면에서 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.Hereinafter, embodiments will be described with reference to the accompanying drawings. However, the described embodiments may be modified in various other forms, and the scope of the present invention is not limited by the embodiments described below. In addition, various embodiments are provided in order to more completely explain the present invention to those of ordinary skill in the art. The shapes and sizes of elements in the drawings may be exaggerated for clearer description.

아래의 실시예들은 RGB 영상뿐만 아니라 열적외선 영상 및 다중분광 영상을 입력 데이터로 하여, 개별적 오염원들의 특성을 파악하여 학습된 이미지 딥러닝 뉴럴 네트워크를 이용하여 오염원의 종류를 파악하고, 오염원의 상태를 판별해 모니터링하는 인공지능 오염원 모니터링 시스템을 제공할 수 있다. The following examples use not only RGB images but also thermal infrared images and multispectral images as input data to identify the characteristics of individual pollutants and use the learned image deep learning neural network to identify the types of pollutants and determine the status of pollutants. It is possible to provide an artificial intelligence pollution source monitoring system that identifies and monitors.

실시예들에 따르면 광범위한 영역에 다양한 종류의 점오염원, 비점오염원을 구분하여 모니터링하는 오염원 모니터링 시스템을 제공할 수 있다. 또한, 실시예들에 따르면 이미지 딥러닝을 기반으로 오염원의 종류와 정보를 판별하여, 오염원 상태별로 관리의 필요성을 파악하고 경고해줄 수 있는 모니터링 시스템을 제공할 수 있다. 또한, 실시예들에 따르면 드론의 자율 비행을 오염원의 위치를 기반으로 설계하여, 광범위한 영역을 자율 비행하는 알고리즘을 통해 모니터링 인력 소모를 최소화할 수 있다.According to the embodiments, it is possible to provide a pollution source monitoring system that distinguishes and monitors various types of point source and nonpoint source in a wide area. In addition, according to embodiments, it is possible to provide a monitoring system capable of determining the type and information of a pollutant source based on image deep learning, identifying the need for management for each pollutant state, and giving a warning. In addition, according to embodiments, autonomous flight of a drone may be designed based on the location of a pollutant, and monitoring manpower consumption may be minimized through an algorithm that autonomously flies over a wide area.

도 1은 일 실시예에 따른 컴퓨터 장치(시스템)의 내부 구성의 일례를 설명하기 위한 블록도이다. 예를 들어, 본 발명의 실시예들에 따른 수계오염원 모니터링 시스템이 도 1의 컴퓨터 시스템(100)을 통해 구현될 수 있다. 도 1에 도시한 바와 같이, 컴퓨터 시스템(100)은 수계오염원 모니터링 방법을 실행하기 위한 구성요소로서 프로세서(110), 메모리(120), 영구 저장 장치(130), 버스(140), 입출력 인터페이스(150) 및 네트워크 인터페이스(160)를 포함할 수 있다.1 is a block diagram for explaining an example of an internal configuration of a computer device (system) according to an embodiment. For example, the water pollution source monitoring system according to embodiments of the present invention may be implemented through the computer system 100 of FIG. 1 . As shown in FIG. 1, the computer system 100 is a component for executing the method for monitoring a water pollution source, and includes a processor 110, a memory 120, a permanent storage device 130, a bus 140, an input/output interface ( 150 ) and a network interface 160 .

프로세서(110)는 명령어들의 임의의 시퀀스를 처리할 수 있는 임의의 장치를 포함하거나 그의 일부일 수 있다. 프로세서(110)는 예를 들어 컴퓨터 프로세서, 이동 장치 또는 다른 전자 장치 내의 프로세서 및/또는 디지털 프로세서를 포함할 수 있다. 프로세서(110)는 예를 들어, 서버 컴퓨팅 디바이스, 서버 컴퓨터, 일련의 서버 컴퓨터들, 서버 팜, 클라우드 컴퓨터, 컨텐츠 플랫폼, 이동 컴퓨팅 장치, 스마트폰, 태블릿, 셋톱 박스, 미디어 플레이어 등에 포함될 수 있다. 프로세서(110)는 버스(140)를 통해 메모리(120)에 접속될 수 있다.Processor 110 may include or be part of any apparatus capable of processing any sequence of instructions. Processor 110 may include, for example, a computer processor, a processor in a mobile device, or other electronic device and/or a digital processor. The processor 110 may be included in, for example, a server computing device, a server computer, a set of server computers, a server farm, a cloud computer, a content platform, a mobile computing device, a smartphone, a tablet, a set-top box, a media player, and the like. The processor 110 may be connected to the memory 120 through the bus 140 .

메모리(120)는 컴퓨터 시스템(100)에 의해 사용되거나 그에 의해 출력되는 정보를 저장하기 위한 휘발성 메모리, 영구, 가상 또는 기타 메모리를 포함할 수 있다. 메모리(120)는 예를 들어 랜덤 액세스 메모리(RAM: random access memory) 및/또는 동적 RAM(DRAM: dynamic RAM)을 포함할 수 있다. 메모리(120)는 컴퓨터 시스템(100)의 상태 정보와 같은 임의의 정보를 저장하는 데 사용될 수 있다. 메모리(120)는 예를 들어 수계오염원 모니터링을 위한 명령어들을 포함하는 컴퓨터 시스템(100)의 명령어들을 저장하는 데에도 사용될 수 있다. 컴퓨터 시스템(100)은 필요에 따라 또는 적절한 경우에 하나 이상의 프로세서(110)를 포함할 수 있다.Memory 120 may include volatile memory, persistent, virtual, or other memory for storing information used by or output by computer system 100 . The memory 120 may include, for example, random access memory (RAM) and/or dynamic RAM (DRAM). Memory 120 may be used to store any information, such as state information of computer system 100 . Memory 120 may also be used to store instructions of computer system 100 including instructions for monitoring water sources, for example. Computer system 100 may include one or more processors 110 as needed or appropriate.

버스(140)는 컴퓨터 시스템(100)의 다양한 컴포넌트들 사이의 상호작용을 가능하게 하는 통신 기반 구조를 포함할 수 있다. 버스(140)는 예를 들어 컴퓨터 시스템(100)의 컴포넌트들 사이에, 예를 들어 프로세서(110)와 메모리(120) 사이에 데이터를 운반할 수 있다. 버스(140)는 컴퓨터 시스템(100)의 컴포넌트들 간의 무선 및/또는 유선 통신 매체를 포함할 수 있으며, 병렬, 직렬 또는 다른 토폴로지 배열들을 포함할 수 있다.Bus 140 may include a communications infrastructure that enables interaction between various components of computer system 100 . Bus 140 may carry data between, for example, components of computer system 100 , such as between processor 110 and memory 120 . Bus 140 may include wireless and/or wired communication media between components of computer system 100 and may include parallel, serial, or other topological arrangements.

영구 저장 장치(130)는 (예를 들어, 메모리(120)에 비해) 소정의 연장된 기간 동안 데이터를 저장하기 위해 컴퓨터 시스템(100)에 의해 사용되는 바와 같은 메모리 또는 다른 영구 저장 장치와 같은 컴포넌트들을 포함할 수 있다. 영구 저장 장치(130)는 컴퓨터 시스템(100) 내의 프로세서(110)에 의해 사용되는 바와 같은 비휘발성 메인 메모리를 포함할 수 있다. 영구 저장 장치(130)는 예를 들어 플래시 메모리, 하드 디스크, 광 디스크 또는 다른 컴퓨터 판독 가능 매체를 포함할 수 있다.Persistent storage 130 is a component, such as memory or other persistent storage, as used by computer system 100 to store data for an extended period of time (eg, compared to memory 120 ). may include Persistent storage 130 may include non-volatile main memory as used by processor 110 in computer system 100 . Persistent storage 130 may include, for example, flash memory, a hard disk, an optical disk, or other computer readable medium.

입출력 인터페이스(150)는 키보드, 마우스, 음성 명령 입력, 디스플레이 또는 다른 입력 또는 출력 장치에 대한 인터페이스들을 포함할 수 있다. 구성 명령들 및/또는 수계오염원 모니터링을 위한 정보가 입출력 인터페이스(150)를 통해 수신될 수 있다.The input/output interface 150 may include interfaces to a keyboard, mouse, voice command input, display, or other input or output device. Configuration commands and/or information for monitoring the water pollution source may be received through the input/output interface 150 .

네트워크 인터페이스(160)는 근거리 네트워크 또는 인터넷과 같은 네트워크들에 대한 하나 이상의 인터페이스를 포함할 수 있다. 네트워크 인터페이스(160)는 유선 또는 무선 접속들에 대한 인터페이스들을 포함할 수 있다. 구성 명령들 및/또는 수계오염원 모니터링을 위한 정보는 네트워크 인터페이스(160)를 통해 수신될 수 있다.Network interface 160 may include one or more interfaces to networks such as a local area network or the Internet. Network interface 160 may include interfaces for wired or wireless connections. Configuration commands and/or information for monitoring water sources may be received via the network interface 160 .

또한, 다른 실시예들에서 컴퓨터 시스템(100)은 도 1의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 시스템(100)은 상술한 입출력 인터페이스(150)와 연결되는 입출력 장치들 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.Also, in other embodiments, computer system 100 may include more components than those of FIG. 1 . However, there is no need to clearly show most of the prior art components. For example, the computer system 100 is implemented to include at least some of the input/output devices connected to the above-described input/output interface 150, or a transceiver, a global positioning system (GPS) module, a camera, various sensors, It may further include other components such as a database and the like.

도 2는 일 실시예에 따른 이미지 딥러닝 뉴럴 네트워크의 학습 방법을 설명하기 위한 도면이다.2 is a diagram for explaining a learning method of an image deep learning neural network according to an embodiment.

도 2를 참조하면, 일 실시예에 따른 이미지 딥러닝 뉴럴 네트워크를 이용하여 자동으로 오염원을 검출 및 분류할 수 있다. 이미지 딥러닝 뉴럴 네트워크의 학습을 위해 데이터를 수집(210)한 후, 이미지 딥러닝 뉴럴 네트워크의 입력 데이터를 생성(220)할 수 있다. 이미지 딥러닝 뉴럴 네트워크를 통해 입력 데이터를 분석 및 해석(230)하고, 영상을 분류(240)할 수 있으며, 결과를 통해 정확성을 검증(250)할 수 있다. 예를 들어, 데이터의 수집(210) 시 드론(무인비행체)을 이용하여 영상을 촬영(211)하고, 촬영된 영상을 전처리(212)하여 정사영상을 생성(213)할 수 있고, 입력 데이터의 생성(220) 시 NDVI, NDRE, NDBI, 열적외선 정보(211) 및 높이, 위치, 경사, 평면 정보(212) 등을 활용할 수 있다. 또한, 분석 및 해석(230) 시 구역통계기법, 사분위수기법, Norm.dist 함수 등을 활용하여 분석(231)하고, 프로파일, 상자그림, 분산 그래프 등으로 분석결과를 표시(232)할 수 있으며, 분석결과에 대한 해석(233)을 할 수 있다. 분석 후 분류항목을 설정(241)하고, 학습 데이터(242)를 통한 영상을 분류(243)할 수 있다. 이후, 정확성을 검증하고 효율성을 비교(250)할 수 있다.Referring to FIG. 2 , pollutants may be automatically detected and classified using an image deep learning neural network according to an embodiment. After collecting 210 data for learning of the image deep learning neural network, input data of the image deep learning neural network may be generated 220 . Through the image deep learning neural network, input data may be analyzed and interpreted (230), the image may be classified (240), and accuracy may be verified (250) through the result. For example, during data collection 210 , an image may be captured 211 using a drone (unmanned aerial vehicle), and the captured image may be pre-processed 212 to generate an orthodox image 213, and When generating 220 , NDVI, NDRE, NDBI, thermal infrared information 211 and height, position, inclination, plane information 212 and the like may be utilized. In addition, during analysis and analysis (230), it is possible to analyze (231) using the regional statistical method, the quartile method, the Norm.dist function, etc. , the analysis result can be interpreted (233). After the analysis, a classification item may be set 241 , and an image through the learning data 242 may be classified 243 . Thereafter, the accuracy can be verified and the efficiency compared 250 .

보다 구체적으로, 이미지 딥러닝 뉴럴 네트워크의 학습을 위해 각종 오염원을 RGB, 다중분광, 열적외선 카메라로 촬영한 영상과, 오염원 종류별로 레이블을 결합하여 학습 데이터를 생성할 수 있다. 이 때, 비점오염원이 등록된 위치로 드론을 무인비행하여, 비점오염원에 대한 RGB, 다중분광, 열적외선 영상 데이터를 자동으로 획득할 수 있다. 또한, 오브젝트 디텍션(object detection)을 통해 오염원으로 판별된 영역의 영상을 집중 촬영하도록 무인비행경로 설정할 수 있다. 오브젝트 디텍션을 통해 검출된 영역을 적어도 1회 이상의 서로 다른 관점에서 촬영할 수 있으며, 예를 들어 촬영 각도, 위치, 포커싱 등을 변경하여 서로 다른 관점에서 촬영할 수 있다.More specifically, for learning of an image deep learning neural network, learning data can be generated by combining images captured by RGB, multi-spectral, and thermal infrared cameras of various pollutants and labels for each type of pollutant. At this time, by unmanned flying the drone to the location where the nonpoint source is registered, it is possible to automatically acquire RGB, multispectral, and thermal infrared image data for the nonpoint source. In addition, an unmanned flight path may be set to intensively capture an image of an area determined as a contamination source through object detection. The area detected through object detection may be photographed from different viewpoints at least once or more, and may be photographed from different viewpoints by, for example, changing a photographing angle, position, focusing, and the like.

생성된 학습 데이터를 통해 이미지 딥러닝 뉴럴 네트워크를 학습할 수 있다. 이 때, RGB, 다중분광, 열적외선 영상을 정합한 하나의 영상으로 학습시키는 이미지 딥러닝 뉴럴 네트워크의 구성이 가능하고, 개별적으로 학습한 후 최종적으로 합치는 이미지 딥러닝 뉴럴 네트워크의 구성도 가능하다. The image deep learning neural network can be trained through the generated training data. At this time, it is possible to construct an image deep learning neural network that learns RGB, multispectral, and thermal infrared images as a single matched image. .

이미지 딥러닝 뉴럴 네트워크의 학습이 완료되면, 모니터링하고자 하는 지역의 영상을 획득한 후 이미지 처리를 통해 정사영상으로 변환할 수 있다. 그리고, 정사영상에서 오염원으로 의심되는 영역의 RGB, 다중분광, 열적외선 영상을 이미지 딥러닝 뉴럴 네트워크에 입력하여, 오염원의 종류 및 상태 파악하여 정사영상에 매칭하여 표시할 수 있다. 정사영상에 매칭된 오염원의 종류 및/또는 상태에 따라 비점오염원을 모니터링할 수 있다.When the training of the image deep learning neural network is completed, an image of the area to be monitored can be acquired and converted into an orthographic image through image processing. Then, by inputting RGB, multispectral, and thermal infrared images of regions suspected of contamination in the orthoimage to the image deep learning neural network, the type and state of the contamination source can be identified and matched to the orthographic image and displayed. The nonpoint pollution source may be monitored according to the type and/or state of the pollution source matched to the orthographic image.

아래에서는 드론의 자율비행 경로 설정을 통한 오염원 분석 영상을 획득하는 방법을 예를 들어 설명한다.Hereinafter, a method of acquiring a pollution source analysis image through setting the autonomous flight path of a drone will be described as an example.

드론은 모니터링 지역을 높은 고도에서 스캔하며 이동할 수 있다. 이 때 드론은 RGB 영상만 촬영할 수 있다. 이후, 드론이 스캔한 영상들을 가벼운 프로그램인 오브젝트 디텍션을 통해 오염원의 유무만을 파악할 수 있다. 오브젝트 디텍션으로 오염원 검출되면, 드론이 오염원 영역 측으로 자율비행 할 수 있다. 오염원 영역(bounding box)을 통해 파악한 후, 적어도 둘 이상의 위치, 각도, 포커싱을 달리하여 촬영하며, 이 때 RGB 영상뿐만 아니라 다중분광, 열적외선 영상을 획득할 수 있다. The drone can move while scanning the monitoring area at a high altitude. In this case, the drone can only shoot RGB images. Thereafter, only the presence or absence of a contamination source can be identified through object detection, which is a light program, in the images scanned by the drone. When a pollution source is detected by object detection, the drone can autonomously fly toward the pollution source area. After identifying through the contamination source area (bounding box), at least two or more positions, angles, and focusing are taken differently, and at this time, not only RGB images but also multi-spectral and thermal infrared images can be acquired.

각 영상들을 각각 학습된 이미지 딥러닝 뉴럴 네트워크에 입력하여 오염원 종류를 이미지 분류(image classification)할 수 있다. 그리고 각 분류된 오염원을 이미지 세그멘테이션(image segmentation)을 통해 오염원의 상태까지 정밀 파악할 수 있다. 이후, 파악된 오염원의 정보를 정사영상에 매칭하여, 전체영역에서 오염원 분포 및 정보를 모니터링 하도록 제공할 수 있다.By inputting each image into each trained image deep learning neural network, the type of pollutant may be classified into image classification. In addition, through image segmentation of each classified pollutant, the state of the pollutant can be precisely grasped. Thereafter, by matching the identified pollutant source information to the orthographic image, it is possible to provide monitoring of the pollutant source distribution and information in the entire area.

도 3은 일 실시예에 따른 수계오염원 모니터링 시스템을 나타내는 블록도이다.3 is a block diagram illustrating a water pollution source monitoring system according to an embodiment.

도 3은 도 1의 일 실시예에 따른 컴퓨터 시스템의 프로세서(110)가 포함할 수 있는 구성요소의 예를 도시한 도면이다. 여기서, 컴퓨터 시스템(100)의 프로세서(110)는 일 실시예에 따른 수계오염원 모니터링 시스템(300)을 포함할 수 있다. 일 실시예에 따른 수계오염원 모니터링 시스템(300)은 입력 데이터 생성부(330), 분석 및 해석부(340), 그리고 정보 표시부(350)를 포함하여 이루어질 수 있다. 또한 실시예에 따라 영상 수집부(310), 모델 학습부(320)를 더 포함하여 이루어질 수 있다.3 is a diagram illustrating an example of components that the processor 110 of the computer system according to the embodiment of FIG. 1 may include. Here, the processor 110 of the computer system 100 may include the water pollution source monitoring system 300 according to an embodiment. The water pollution source monitoring system 300 according to an embodiment may include an input data generation unit 330 , an analysis and analysis unit 340 , and an information display unit 350 . In addition, according to an embodiment, the image collection unit 310 and the model learning unit 320 may be further included.

프로세서(110) 및 프로세서(110)의 구성요소들은 도 4의 수계오염원 모니터링 방법이 포함하는 단계들(410 내지 460)을 수행할 수 있다. 예를 들어, 프로세서(110) 및 프로세서(110)의 구성요소들은 메모리(120)가 포함하는 운영체제의 코드와 상술한 적어도 하나의 프로그램 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 적어도 하나의 프로그램 코드는 수계오염원 모니터링 방법을 처리하기 위해 구현된 프로그램의 코드에 대응될 수 있다.The processor 110 and the components of the processor 110 may perform steps 410 to 460 included in the method for monitoring a water pollution source of FIG. 4 . For example, the processor 110 and the components of the processor 110 may be implemented to execute an operating system code included in the memory 120 and an instruction according to at least one program code described above. Here, at least one program code may correspond to a code of a program implemented to process the water pollution source monitoring method.

수계오염원 모니터링 방법은 도시된 순서대로 발생하지 않을 수 있으며, 단계들 중 일부가 생략되거나 추가의 과정이 더 포함될 수 있다.The water pollution source monitoring method may not occur in the order shown, and some of the steps may be omitted or additional processes may be further included.

도 4는 일 실시예에 따른 수계오염원 모니터링 방법을 나타내는 흐름도이다.4 is a flowchart illustrating a method for monitoring a water pollution source according to an embodiment.

도 4를 참조하면, 일 실시예에 따른 컴퓨터 장치를 통해 구현되는 인공지능 기반 수계오염원 모니터링 방법은, 모니터링 대상 지역의 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 이용하여 입력 데이터를 생성하는 단계(440), 입력 데이터를 학습된 이미지 딥러닝 뉴럴 네트워크에 입력하여 오염원의 종류 또는 상태에 대한 정보를 분석하는 단계(450), 및 오염원을 모니터링하도록 이미지의 위치 정보를 활용하여 오염원의 종류 또는 상태에 대한 정보를 표시하는 단계(460)를 포함하여 이루어질 수 있다. Referring to FIG. 4 , the artificial intelligence-based water pollution source monitoring method implemented through a computer device according to an embodiment generates input data using at least one image of RGB, multi-spectral, and thermal infrared of a monitoring target area. step 440, inputting the input data into the learned image deep learning neural network to analyze information on the type or state of the pollutant source 450, and the type of the pollutant source by using the location information of the image to monitor the pollutant source Alternatively, the step 460 of displaying information about the state may be included.

또한, 드론의 자율비행 경로의 설정을 통한 오염원에 대한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 획득하는 단계(410)를 더 포함하고, 영상을 이용하여 입력 데이터를 생성할 수 있다. In addition, the method may further include a step 410 of acquiring at least one image of RGB, multi-spectral, and thermal infrared for a pollution source through setting of an autonomous flight path of the drone, and generating input data using the image. .

또한, 오염원을 촬영한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상과, 오염원 종류별로 레이블을 결합하여 학습 데이터를 생성하는 단계(420), 및 생성된 학습 데이터를 이용하여 이미지 딥러닝 뉴럴 네트워크를 학습시키는 단계(430)를 더 포함할 수 있다. In addition, generating training data by combining at least any one or more images of RGB, multispectral, and thermal infrared image of a pollutant and a label for each pollutant type ( 420 ), and using the generated training data to perform an image deep learning neural The method may further include training the network (430).

아래에서는 일 실시예에 따른 수계오염원 모니터링 방법을 일 실시예에 따른 수계오염원 모니터링 시스템을 예를 들어 설명한다.Hereinafter, a method for monitoring a water pollution source according to an embodiment will be described with an example of a water pollution source monitoring system according to an embodiment.

먼저, 단계(410)에서, 영상 수집부(310)는 드론의 자율비행 경로의 설정을 통한 오염원에 대한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 획득할 수 있다. 이 때, 영상 수집부(310)는 오염원에 대한 RGB, 다중분광 및 열적외선 영상을 모두 획득하여 입력 데이터를 생성할 수 있다. First, in step 410 , the image collection unit 310 may acquire an image of at least any one of RGB, multispectral, and thermal infrared for a pollution source through setting of an autonomous flight path of the drone. In this case, the image collection unit 310 may generate input data by acquiring all RGB, multi-spectral, and thermal infrared images of the pollutant source.

영상 수집부(310)는 오염원에 대한 RGB, 다중분광 및 열적외선 영상을 이용하여 입력 데이터를 형성하거나, 획득한 오염원에 대한 RGB, 다중분광 및 열적외선 영상을 후처리 프로그램을 통해 정사영상으로 변환하여 입력 데이터를 형성할 수 있다. 예를 들어, 영상 수집부(310)는 드론의 자율비행 경로의 설정에 따라 모니터링 대상 지역의 영상을 RGB, 다중분광 및 열적외선으로 촬영한 후, 이미지 처리를 통해 정사영상으로 변환할 수 있다. 그리고, 입력 데이터 생성부(330)는 정사영상에서 오염원으로 의심되는 영역의 RGB, 다중분광 및 열적외선 영상을 이용하여 입력 데이터를 형성할 수 있다. The image collection unit 310 forms input data using RGB, multispectral and thermal infrared images of the pollutant source, or converts the acquired RGB, multispectral and thermal infrared images of the pollutant source into orthographic images through a post-processing program. to form input data. For example, the image collection unit 310 may take an image of a monitoring target area in RGB, multi-spectral and thermal infrared according to the setting of the autonomous flight path of the drone, and then convert it into an orthographic image through image processing. In addition, the input data generator 330 may form input data using RGB, multispectral, and thermal infrared images of regions suspected of being a contamination source in the orthogonal image.

영상 수집부(310)는 드론이 모니터링 지역을 소정 높이의 고도에서 스캔하며 이동하여, RGB 영상을 획득하고, RGB 영상을 오브젝트 디텍션(object detection)을 통해 오염원의 유무를 확인한 후, 오브젝트 디텍션을 통해 오염원이 검출되는 경우, 드론이 오염원이 검출된 영역을 집중 촬영하도록 비행경로를 설정하고, 설정된 비행경로에 따라 드론이 이동하며 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 집중 촬영할 수 있다. 이 때, 영상 수집부(310)는 드론이 위치, 각도 및 포커싱 중 적어도 어느 하나 이상의 설정을 변경하여 집중 촬영하여 서로 다른 관점에서의 영상을 획득할 수 있다. The image collection unit 310 moves the drone while scanning the monitoring area at an altitude of a predetermined height to obtain an RGB image, and after confirming the presence or absence of a contamination source through object detection in the RGB image, through object detection When a pollution source is detected, a flight path is set so that the drone intensively captures the area where the pollution source is detected, the drone moves according to the set flight path, and at least one image of RGB, multi-spectral and thermal infrared can be captured. . In this case, the image collection unit 310 may acquire images from different viewpoints by intensively capturing the drone by changing at least one setting among position, angle, and focusing.

한편, 모델 학습부(320)를 통해 이미지 딥러닝 뉴럴 네트워크를 학습시킬 수 있다.Meanwhile, the image deep learning neural network may be trained through the model learning unit 320 .

단계(420)에서, 모델 학습부(320)는 오염원을 촬영한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상과, 오염원 종류별로 레이블을 결합하여 학습 데이터를 생성할 수 있다.In step 420 , the model learning unit 320 may generate training data by combining at least one image of RGB, multi-spectral, and thermal infrared image of a pollutant and a label for each type of pollutant.

단계(430)에서, 모델 학습부(320)는 생성된 학습 데이터를 이용하여 이미지 딥러닝 뉴럴 네트워크를 학습시킬 수 있다. 모델 학습부(320)는 생성된 학습 데이터를 이미지 딥러닝 뉴럴 네트워크에 입력하여 오염원의 종류를 이미지 분류(image classification)한 후, 분류된 각 오염원을 이미지 세그멘테이션(image segmentation)을 통해 오염원의 상태를 파악할 수 있다. 여기서, 이미지 딥러닝 뉴럴 네트워크는 RGB, 다중분광 및 열적외선 영상을 정합한 하나의 영상으로 학습하여 구성하거나, RGB, 다중분광 및 열적외선 영상을 개별적으로 학습한 후 최종적으로 결합하여 구성할 수 있다. In step 430 , the model learning unit 320 may train the image deep learning neural network using the generated training data. The model learning unit 320 inputs the generated training data to the image deep learning neural network to image classification of the types of pollutants, and then analyzes the state of the pollutants through image segmentation of each classified pollutant. can figure out Here, the image deep learning neural network can be configured by learning RGB, multispectral and thermal infrared images as one matched image, or by learning RGB, multispectral and thermal infrared images individually and finally combining them. .

이에 따라 학습된 이미지 딥러닝 뉴럴 네트워크에 모니터링 대상 지역의 영상을 입력하여 오염원의 정보를 분석할 수 있다.Accordingly, by inputting the image of the monitoring target area to the learned image deep learning neural network, it is possible to analyze the information of the pollutant source.

단계(440)에서, 입력 데이터 생성부(330)는 모니터링 대상 지역의 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 이용하여 입력 데이터를 생성할 수 있다.In operation 440 , the input data generator 330 may generate input data using at least one image of RGB, multi-spectral, and thermal infrared of the monitoring target area.

단계(450)에서, 분석 및 해석부(340)는 입력 데이터를 학습된 이미지 딥러닝 뉴럴 네트워크에 입력하여 오염원의 종류 또는 상태에 대한 정보를 분석할 수 있다.In step 450 , the analysis and interpretation unit 340 may analyze information on the type or state of a pollutant by inputting the input data into the learned image deep learning neural network.

단계(460)에서, 정보 표시부(350)는 오염원을 모니터링하도록 이미지의 위치 정보를 활용하여 오염원의 종류 또는 상태에 대한 정보를 표시할 수 있다. 예를 들어, 정보 표시부(350)는 오염원의 종류 또는 상태에 대한 정보를 정사영상에 매칭하여 표시하여 비점오염원을 모니터링할 수 있다. In operation 460, the information display unit 350 may display information on the type or state of the pollution source by using the location information of the image to monitor the pollution source. For example, the information display unit 350 may monitor the non-point pollution source by matching and displaying information on the type or state of the pollution source to the orthographic image.

이와 같이, 일 실시예에 따른 인공지능 기반 수계오염원 모니터링 시스템 및 방법은 드론을 이용한 촬영을 통해 RGB, 다중분광 및 열적외선 영상을 획득하여, 이미지 딥러닝 뉴럴 네트워크를 학습시켜 오염원 탐지를 실행시킬 수 있고, 탐지 결과를 표시하여 모니터링할 수 있다.As such, the artificial intelligence-based water pollution source monitoring system and method according to an embodiment acquires RGB, multi-spectral and thermal infrared images through shooting using a drone, and learns an image deep learning neural network to detect pollution sources. and the detection result can be displayed and monitored.

도 5는 일 실시예에 따른 이미지 딥러닝 뉴럴 네트워크의 기초 학습 및 강화 학습의 수행 예시를 나타내는 도면이다.5 is a diagram illustrating an example of performing basic learning and reinforcement learning of an image deep learning neural network according to an embodiment.

도 5의 (a) 내지 (c)에 도시된 바와 같이, 획득한 영상을 이미지 딥러닝 뉴럴 네트워크에 입력하여 인공지능을 이용한 오염원을 탐지할 수 있다. 최적의 알고리즘 기반의 학습 모델을 통해 기초 학습 및 강화 학습 과정을 반복 수행함으로써 이미지 딥러닝 뉴럴 네트워크를 학습시킬 수 있다.As shown in (a) to (c) of FIG. 5 , an acquired image may be input to an image deep learning neural network to detect a contamination source using artificial intelligence. An image deep learning neural network can be trained by repeatedly performing basic learning and reinforcement learning through an optimal algorithm-based learning model.

도 6은 일 실시예에 따른 이미지 딥러닝 뉴럴 네트워크의 오염원 탐지 예시를 나타내는 도면이다.6 is a diagram illustrating an example of detecting a contamination source of an image deep learning neural network according to an embodiment.

도 6에 도시된 바와 같이, 드론에서 촬영한 이미지를 등록(a)하여 오염원을 탐지(b)할 수 있다. 예를 들어, 오염원 탐지는 임계점에 해당하는 이미지 분류하고, 식생지수 및 주변환경 등 정보를 이용하여 오염원과 비슷할수록 가중치를 적용할 수 있다. 이는 다시 학습 모델(이미지 딥러닝 뉴럴 네트워크)에 적용하여 재학습시킬 수 있다. As shown in FIG. 6 , an image taken by a drone may be registered (a) to detect a contamination source (b). For example, in the detection of a pollutant source, an image corresponding to a critical point may be classified, and a weight may be applied as it is similar to a pollutant source using information such as vegetation index and surrounding environment. This can be re-trained by applying it to the training model (image deep learning neural network).

도 7은 일 실시예에 따른 히트맵 및 클러스터 분포의 예시를 나타내는 도면이다.7 is a diagram illustrating an example of a heat map and cluster distribution according to an embodiment.

도 7의 (a) 내지 (c)에 도시된 바와 같이, 오염원의 탐지 결과를 히트맵 또는 클러스터 분포 등으로 나타낼 수 있다. 즉, 오염원의 탐지 결과를 이용하여 탐지 결과에 대한 위치 정보 기반 데이터베이스(예컨대, GIS DB)를 구축하거나, 웹 (Web) 기반 GIS DB 검색 시스템, Heat Map 형태의 분포지도, 클러스터 형태의 분포지도 등으로 나타낼 수 있다.As shown in (a) to (c) of FIG. 7 , the detection result of the contaminant may be expressed as a heat map or cluster distribution. That is, by using the detection result of the pollutant, a location information-based database (eg GIS DB) for the detection result is built, or a web-based GIS DB search system, a distribution map in the form of a heat map, a distribution map in the form of a cluster, etc. can be expressed as

아래에서는 인공지능 기반 수계오염원 모니터링 시스템을 이용한 실험 예시로서, 야적퇴비 탐지 방법 및 결과에 대해 설명한다.Below, as an example of an experiment using an artificial intelligence-based water pollution source monitoring system, a method and results for detecting yard compost will be described.

도 8은 일 실시예에 따른 야적퇴비 탐지를 위한 모듈 구조의 예시를 나타내는 도면이다.8 is a diagram illustrating an example of a module structure for detecting yard compost according to an embodiment.

도 8을 참조하면, 단계(810)에서, 전처리에서 YOLO 모델에 적합한 데이터 형태로 만들어 주기 위해서 이미지 크기를 [5472x3648] 사이즈에서 [416x416] 사이즈로 크기조정(resizing)을 하였으며, 이미지 픽셀값(pixel value)은 [0,255]에서 [0,1] 범위로 스케일링하여 분석하였다. 단계(820)에서, 이미지 레이블링(image labeling)을 통해 야적퇴비 탐지 학습 데이터를 구축할 수 있다. 하나의 예시로서, 단계(830)에서, Hyperparameters 중에서 score_threshold는 0.5로 설정하고, IOU_threshold는 0.3으로 설정할 수 있다. 출력값이 설정된 임계값 보다 큰 경우, 단계(840)에서 YOLO 모델에 전달하고, 단계(850)에서 출력을 표시하며, 단계(860)에서 결과를 저장한다. 한편, 출력값이 설정된 임계값 보다 작거나 같은 경우, 단계(870)에서 입력 데이터를 폐기한다.Referring to FIG. 8 , in step 810 , the image size was resized from [5472x3648] size to [416x416] size in pre-processing to make it into a data format suitable for the YOLO model, and the image pixel value (pixel value) was analyzed by scaling from [0,255] to [0,1]. In step 820 , it is possible to construct yard compost detection training data through image labeling. As an example, in step 830 , score_threshold among hyperparameters may be set to 0.5, and IOU_threshold may be set to 0.3. If the output value is greater than the set threshold, it passes to the YOLO model in step 840 , displays the output in step 850 , and stores the result in step 860 . On the other hand, if the output value is less than or equal to the set threshold, the input data is discarded in step 870 .

도 9는 일 실시예에 따른 야적퇴비 탐지 결과의 예시를 나타낸다. 도 9에 도시된 바와 같이, 야적퇴비 탐지 결과를 이미지에 표시하여 모니터링하도록 할 수 있다.9 shows an example of a result of detecting yard compost according to an embodiment. As shown in FIG. 9 , it is possible to monitor the result of the detection of yard compost by displaying it on the image.

도 10은 일 실시예에 따른 드론을 이용한 학습 데이터 구축 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of constructing learning data using a drone according to an embodiment.

도 10을 참조하면, 먼저 드론 촬영을 위해 촬영 계획을 수립(1010)하고, 촬영 및 비행 승인을 허가(1020) 받을 수 있다. 이후, 드론 촬영을 통해 드론의 이미지 기반 학습 데이터를 구축하거나 드론 정사영상 기반 학습 데이터를 구축할 수 있다.Referring to FIG. 10 , a shooting plan may be established ( 1010 ) for drone shooting, and permission ( 1020 ) for shooting and flight approval may be obtained. Thereafter, drone image-based learning data can be built through drone shooting, or drone orthographic image-based learning data can be built.

일 예로, 드론 촬영(1030)을 통해 RGB, 다중분광, 열적외선 영상을 획득(1040)하고, 드론의 이미지 기반 학습 데이터를 구축(1050)할 수 있다. 드론 이미지 기반 학습 데이터를 이용하여 학습을 한 경우 이미지의 위치 정보를 활용하여 오염원의 위치 정보를 표기할 수 있다.As an example, RGB, multispectral, and thermal infrared images may be acquired ( 1040 ) through drone photography ( 1030 ), and image-based learning data of the drone may be constructed ( 1050 ). When learning is performed using drone image-based learning data, the location information of the pollutant can be indicated by using the location information of the image.

다른 예로, 드론 영상을 후처리 프로그램을 통해 이미지의 왜곡 및 위치 정확도를 보정(1060, 1070)하고, 영상 정합을 통해 드론 정사영상(2차원 영상지도)을 획득(1080)함으로써, 드론 정사영상 기반 학습 데이터를 구축(1090)할 수 있다. 드론 정사영상 기반 학습 데이터를 이용하여 학습을 한 경우 오브젝트 디텍션 영역을 공간적인 위치와 형태를 표현할 수 있는 shape 파일 형식으로 변환함으로써, 오염원의 위치 정보를 표기할 수 있다.As another example, by correcting (1060, 1070) image distortion and positioning accuracy through a drone image post-processing program, and obtaining (1080) a drone orthographic image (two-dimensional image map) through image registration, the drone orthographic image based Build 1090 training data. In the case of learning using drone orthographic image-based learning data, the location information of the contamination source can be expressed by converting the object detection area into a shape file format that can express spatial location and shape.

도 11은 일 실시예에 따른 오염원 분류 정확도 향상 방법을 설명하기 위한 도면이다.11 is a diagram for explaining a method for improving the accuracy of pollution source classification according to an embodiment.

도 11을 참조하면, 단계(1110)에서, 영상 정보의 특성을 분석하고 영상을 분류할 수 있다. 예를 들어 학습 이미지의 GPS, 날짜 정보 등을 활용하여 오염원을 분류하여 1차 데이터베이스(DB)를 구축하고 분류 확률을 산정할 수 있다.Referring to FIG. 11 , in operation 1110 , characteristics of image information may be analyzed and images may be classified. For example, a primary database (DB) can be built by classifying pollutants using GPS, date information, etc. of the training image and the classification probability can be calculated.

단계(1120)에서, 오염원을 분류할 수 있으며, 여기서 식생지수, 피복도 등 관련 학습 정보를 활용하여 가중치를 설정할 수 있고, 1차 분류 확률에 부여된 가중치를 적용하여 2차 분류 확률을 산정할 수 있다.In step 1120, pollution sources can be classified, and weights can be set by using related learning information such as vegetation index and coverage, and the secondary classification probability can be calculated by applying the weight assigned to the primary classification probability. have.

단계(1130)에서, 데이터를 학습할 수 있다. 예를 들어 2차 분류 확률이 1차 임계값 미포함일 경우 분류된 학습 이미지는 학습 데이터로 활용할 수 있고, 1차 임계값 포함일 경우 분류된 학습 이미지를 휴리스틱 기법으로 재분류한 뒤 학습 데이터로 활용할 수 있다.In operation 1130, data may be learned. For example, if the secondary classification probability does not include the primary threshold, the classified training image can be used as training data. can

단계(1140)에서, 데이터를 저장할 수 있다. 예를 들어 학습 및 분류 완료된 이미지의 관련 학습 정보를 1차 데이터베이스에 추가하여 2차 데이터베이스를 구축할 수 있다.In step 1140 , data may be stored. For example, the secondary database can be built by adding related learning information of images that have been trained and classified to the primary database.

이와 같이, 기초 모델 학습부터 기초 학습 및 강화학습 과정을 반복 수행하여 정확도를 향상시킬 수 있다. 또한 학습 모델의 정확도를 향상시키기 위해 요인을 분석하고, 국가공간정보 자료, 식생지수 자료 등 추가적인 학습 데이터를 활용하여 가중치를 부여함으로써 학습 모델의 정확도를 향상시킬 수 있다.In this way, the accuracy can be improved by repeatedly performing the basic learning and reinforcement learning processes from the basic model learning. In addition, it is possible to improve the accuracy of the learning model by analyzing factors to improve the accuracy of the learning model and assigning weights using additional learning data such as national spatial information data and vegetation index data.

이상과 같이, 실시예들에 따르면 RGB, 다중분광, 열적외선 영상을 각각 또는 정합하여 학습시킨 이미지 딥러닝 뉴럴 네트워크를 통해 오염원 자동 판별할 수 있다. 또한, 오브젝트 디텍션을 통한 드론 자율비행을 통해 오염원 영역의 영상 데이터를 획득할 수 있다. 그리고 판별된 오염원을 정사지도에 매칭시켜 정확한 오염원 위치에 오염원 정보를 표기함으로써 감시 영역을 모니터링할 수 있다. As described above, according to embodiments, it is possible to automatically determine a contamination source through an image deep learning neural network trained by matching RGB, multi-spectral, and thermal infrared images, respectively. In addition, image data of a pollution source area can be acquired through autonomous drone flight through object detection. In addition, the monitoring area can be monitored by matching the identified pollutant source to the orthographic map and displaying the pollutant source information at the exact location of the pollutant source.

도 12는 일 실시예에 따른 인공지능 기반 수계오염원 모니터링 시스템의 활용 방법을 설명하기 위한 도면이다.12 is a diagram for explaining a method of using an artificial intelligence-based water pollution source monitoring system according to an embodiment.

도 12를 참조하면, 드론을 이용한 촬영 영상, 항공 사진, 위성 영상 등의 영상 정보를 획득(1210)하여, 인공지능 기반으로 오염원을 추출(1220)할 수 있으며, 이 때 오염원의 분포 정보를 추출할 수 있다. 이에 따라 중앙부처 등에서는 환경 공간 정보 서비스 등 오염원의 정보를 제공하여 오염원을 모니터링하고 관리(1230)할 수 있다. 또한, 지자체 등에서는 지적도 내 오염원 정보를 구축하여 오염원의 배출을 감시하고 관리(1240)할 수 있다. 또한, 강우 대비 오염원 관리를 안내할 수 있으며, 예컨대 기상 정보를 활용하여 사용자 단말 등으로 오염원 관리를 요하는 알림 메시지를 발송할 수 있다. Referring to FIG. 12 , image information such as a photographed image, an aerial photograph, and a satellite image using a drone may be acquired ( 1210 ), and a pollutant source may be extracted ( 1220 ) based on artificial intelligence, in which case distribution information of the pollutant is extracted. can do. Accordingly, the central government may provide information on the pollutant source, such as an environmental spatial information service, to monitor and manage the pollutant source (1230). In addition, local governments, etc. can build pollutant source information in the cadastral map to monitor and manage (1240) the emission of pollutants. In addition, it is possible to guide pollution source management in preparation for rainfall, and for example, a notification message requiring pollution source management may be sent to a user terminal using weather information.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. may be embodied in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (15)

컴퓨터 장치를 통해 구현되는 인공지능 기반 수계오염원 모니터링 방법에 있어서,
모니터링 대상 지역의 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 이용하여 입력 데이터를 생성하는 단계;
상기 입력 데이터를 학습된 이미지 딥러닝 뉴럴 네트워크에 입력하여 오염원의 종류 또는 상태에 대한 정보를 분석하는 단계; 및
상기 오염원을 모니터링하도록 이미지의 위치 정보를 활용하여 상기 오염원의 종류 또는 상태에 대한 정보를 표시하는 단계
를 포함하는, 수계오염원 모니터링 방법.
In the artificial intelligence-based water pollution source monitoring method implemented through a computer device,
generating input data using at least one image of RGB, multi-spectral, and thermal infrared of a monitoring target area;
inputting the input data into a learned image deep learning neural network to analyze information on a type or state of a pollutant; and
Displaying information on the type or state of the pollution source by using the location information of the image to monitor the pollution source
Containing, a water-based pollutant monitoring method.
제1항에 있어서,
드론의 자율비행 경로의 설정을 통한 오염원에 대한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 획득하는 단계
를 더 포함하고,
상기 영상을 이용하여 상기 입력 데이터를 생성하는, 수계오염원 모니터링 방법.
According to claim 1,
Acquiring at least one image of RGB, multi-spectral, and thermal infrared for the pollution source through setting the autonomous flight path of the drone
further comprising,
A method of monitoring a water-based pollutant source for generating the input data by using the image.
제2항에 있어서,
상기 영상을 획득하는 단계는,
드론의 자율비행 경로의 설정에 따라 모니터링 대상 지역의 영상을 RGB, 다중분광 및 열적외선으로 촬영한 후, 이미지 처리를 통해 정사영상으로 변환하고,
상기 입력 데이터를 생성하는 단계는,
상기 정사영상에서 오염원으로 의심되는 영역의 RGB, 다중분광 및 열적외선 영상을 이용하여 입력 데이터를 형성하는 것
을 특징으로 하는, 수계오염원 모니터링 방법.
3. The method of claim 2,
Acquiring the image includes:
According to the setting of the autonomous flight path of the drone, the image of the monitoring target area is captured in RGB, multi-spectral and thermal infrared, and then converted into orthographic images through image processing,
The step of generating the input data includes:
Forming input data using RGB, multispectral and thermal infrared images of regions suspected of being a contamination source in the orthogonal image
A method for monitoring water pollution sources, characterized in that.
제2항에 있어서,
상기 영상을 획득하는 단계는,
드론이 모니터링 지역을 소정 높이의 고도에서 스캔하며 이동하여, RGB 영상을 획득하는 단계;
상기 RGB 영상을 오브젝트 디텍션(object detection)을 통해 오염원의 유무를 확인하는 단계;
상기 오브젝트 디텍션을 통해 오염원이 검출되는 경우, 상기 드론이 상기 오염원이 검출된 영역을 집중 촬영하도록 비행경로를 설정하는 단계; 및
설정된 상기 비행경로에 따라 상기 드론이 이동하며 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 집중 촬영하는 단계
를 포함하는, 수계오염원 모니터링 방법.
3. The method of claim 2,
Acquiring the image includes:
acquiring an RGB image by moving the drone while scanning the monitoring area at a predetermined height;
confirming the presence or absence of a contamination source through object detection in the RGB image;
when a pollution source is detected through the object detection, setting a flight route so that the drone intensively captures an area in which the pollution source is detected; and
The drone moves according to the set flight path and intensively photographing at least one image of RGB, multi-spectral and thermal infrared rays
Containing, a water-based pollutant monitoring method.
제4항에 있어서,
상기 집중 촬영하는 단계는,
상기 드론이 위치, 각도 및 포커싱 중 적어도 어느 하나 이상의 설정을 변경하여 집중 촬영하여 서로 다른 관점에서의 영상을 획득하는 것
을 특징으로 하는, 수계오염원 모니터링 방법.
5. The method of claim 4,
The intensive shooting step is,
The drone acquires images from different viewpoints by changing at least one setting of position, angle, and focusing
A method for monitoring water pollution sources, characterized in that.
제1항에 있어서,
상기 오염원의 종류 또는 상태에 대한 정보를 표시하는 단계는,
상기 오염원의 종류 또는 상태에 대한 정보를 정사영상에 매칭하여 표시하여 비점오염원을 모니터링하는 것
을 특징으로 하는, 수계오염원 모니터링 방법.
According to claim 1,
The step of displaying information on the type or state of the pollutant source includes:
Monitoring non-point pollution sources by matching and displaying information on the type or state of the pollution source to the ortho image
A method for monitoring water pollution sources, characterized in that.
제1항에 있어서,
오염원을 촬영한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상과, 오염원 종류별로 레이블을 결합하여 학습 데이터를 생성하는 단계; 및
생성된 상기 학습 데이터를 이용하여 상기 이미지 딥러닝 뉴럴 네트워크를 학습시키는 단계
를 더 포함하는, 수계오염원 모니터링 방법.
According to claim 1,
generating learning data by combining at least one image of RGB, multi-spectral, and thermal infrared of a pollutant source and a label for each type of pollutant; and
Learning the image deep learning neural network using the generated training data
Further comprising, a water-based pollution source monitoring method.
제7항에 있어서,
상기 이미지 딥러닝 뉴럴 네트워크를 학습시키는 단계는,
생성된 상기 학습 데이터를 상기 이미지 딥러닝 뉴럴 네트워크에 입력하여 오염원의 종류를 이미지 분류(image classification)하는 단계; 및
분류된 각 상기 오염원을 이미지 세그멘테이션(image segmentation)을 통해 오염원의 상태를 파악하는 단계
를 포함하는, 수계오염원 모니터링 방법.
8. The method of claim 7,
The step of training the image deep learning neural network is,
inputting the generated training data into the image deep learning neural network to classify a type of pollutant into an image; and
Recognizing the state of each of the classified pollutants through image segmentation
Containing, a water-based pollutant monitoring method.
제7항에 있어서,
상기 이미지 딥러닝 뉴럴 네트워크는,
RGB, 다중분광 및 열적외선 영상을 정합한 하나의 영상으로 학습하여 구성하거나, RGB, 다중분광 및 열적외선 영상을 개별적으로 학습한 후 최종적으로 결합하여 구성하는 것
을 특징으로 하는, 수계오염원 모니터링 방법.
8. The method of claim 7,
The image deep learning neural network,
Learning and composing RGB, multispectral and thermal infrared images as one matched image, or learning RGB, multispectral and thermal infrared images individually and finally combining them
A method for monitoring water pollution sources, characterized in that.
인공지능 기반 수계오염원 모니터링 시스템에 있어서,
모니터링 대상 지역의 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 이용하여 입력 데이터를 생성하는 입력 데이터 생성부;
상기 입력 데이터를 학습된 이미지 딥러닝 뉴럴 네트워크에 입력하여 오염원의 종류 또는 상태에 대한 정보를 분석하는 분석 및 해석부; 및
상기 오염원을 모니터링하도록 이미지의 위치 정보를 활용하여 상기 오염원의 종류 또는 상태에 대한 정보를 표시하는 정보 표시부
를 포함하는, 수계오염원 모니터링 시스템.
In the artificial intelligence-based water pollution source monitoring system,
an input data generator for generating input data using at least one image of RGB, multi-spectral, and thermal infrared of a monitoring target area;
an analysis and analysis unit for inputting the input data into a learned image deep learning neural network and analyzing information on a type or state of a pollutant; and
An information display unit for displaying information on the type or state of the pollution source by using the location information of the image to monitor the pollution source
Containing, water pollution source monitoring system.
제10항에 있어서,
드론의 자율비행 경로의 설정을 통한 오염원에 대한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 획득하는 영상 수집부
를 더 포함하고,
상기 영상을 이용하여 상기 입력 데이터를 생성하는, 수계오염원 모니터링 시스템.
11. The method of claim 10,
An image collection unit that acquires at least one image of RGB, multi-spectral, and thermal infrared for a pollutant source through setting of an autonomous flight path of the drone
further comprising,
A water-based pollution source monitoring system that generates the input data using the image.
제11항에 있어서,
상기 영상 수집부는,
드론의 자율비행 경로의 설정에 따라 모니터링 대상 지역의 영상을 RGB, 다중분광 및 열적외선으로 촬영한 후, 이미지 처리를 통해 정사영상으로 변환하고,
상기 입력 데이터 생성부는,
상기 정사영상에서 오염원으로 의심되는 영역의 RGB, 다중분광 및 열적외선 영상을 이용하여 입력 데이터를 형성하는 것
을 특징으로 하는, 수계오염원 모니터링 시스템.
12. The method of claim 11,
The image collection unit,
According to the setting of the autonomous flight path of the drone, the image of the monitoring target area is captured in RGB, multi-spectral and thermal infrared, and then converted into orthographic images through image processing,
The input data generation unit,
Forming input data using RGB, multispectral and thermal infrared images of regions suspected of being a contamination source in the orthogonal image
Characterized in, the water pollution source monitoring system.
제12항에 있어서,
상기 영상 수집부는,
드론이 모니터링 지역을 소정 높이의 고도에서 스캔하며 이동하여, RGB 영상을 획득하고, 상기 RGB 영상을 오브젝트 디텍션(object detection)을 통해 오염원의 유무를 확인한 후, 상기 오브젝트 디텍션을 통해 오염원이 검출되는 경우, 상기 드론이 상기 오염원이 검출된 영역을 집중 촬영하도록 비행경로를 설정하고, 설정된 상기 비행경로에 따라 상기 드론이 이동하며 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상을 집중 촬영하는 것
을 특징으로 하는, 수계오염원 모니터링 시스템.
13. The method of claim 12,
The image collection unit,
When the drone scans and moves the monitoring area at a predetermined height, acquires an RGB image, checks the RGB image for the presence or absence of a contamination source through object detection, and the contamination source is detected through the object detection , Setting a flight path so that the drone intensively captures the area in which the pollution source is detected, the drone moves according to the set flight path, and intensively photographing at least one image of RGB, multi-spectral and thermal infrared rays
Characterized in, the water pollution source monitoring system.
제13항에 있어서,
상기 영상 수집부는,
상기 드론이 위치, 각도 및 포커싱 중 적어도 어느 하나 이상의 설정을 변경하여 집중 촬영하여 서로 다른 관점에서의 영상을 획득하는 것
을 특징으로 하는, 수계오염원 모니터링 시스템.
14. The method of claim 13,
The image collection unit,
The drone acquires images from different viewpoints by changing at least one setting of position, angle, and focusing
Characterized in, the water pollution source monitoring system.
제10항에 있어서,
오염원을 촬영한 RGB, 다중분광 및 열적외선 중 적어도 어느 하나 이상의 영상과, 오염원 종류별로 레이블을 결합하여 학습 데이터를 생성하고, 생성된 상기 학습 데이터를 이용하여 상기 이미지 딥러닝 뉴럴 네트워크를 학습시키는 모델 학습부
를 더 포함하는, 수계오염원 모니터링 시스템.
11. The method of claim 10,
A model for generating training data by combining at least any one or more images of RGB, multispectral, and thermal infrared image of a pollutant and a label for each type of pollutant, and using the generated training data to train the image deep learning neural network study department
Further comprising a, water-based pollution source monitoring system.
KR1020210016311A 2021-02-04 2021-02-04 Artificial Intelligence-based Water Quality Contaminant Monitoring System and Method KR102507501B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210016311A KR102507501B1 (en) 2021-02-04 2021-02-04 Artificial Intelligence-based Water Quality Contaminant Monitoring System and Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210016311A KR102507501B1 (en) 2021-02-04 2021-02-04 Artificial Intelligence-based Water Quality Contaminant Monitoring System and Method

Publications (2)

Publication Number Publication Date
KR20220112590A true KR20220112590A (en) 2022-08-11
KR102507501B1 KR102507501B1 (en) 2023-03-07

Family

ID=82803255

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210016311A KR102507501B1 (en) 2021-02-04 2021-02-04 Artificial Intelligence-based Water Quality Contaminant Monitoring System and Method

Country Status (1)

Country Link
KR (1) KR102507501B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115439757A (en) * 2022-08-26 2022-12-06 南方海洋科学与工程广东省实验室(广州) Water quality pollution source tracing method, device and equipment based on remote sensing image
CN115452759A (en) * 2022-09-14 2022-12-09 水利部交通运输部国家能源局南京水利科学研究院 River and lake health index evaluation method and system based on satellite remote sensing data
CN115586150A (en) * 2022-10-08 2023-01-10 吉林省正真检测有限公司 Water body vertical detection system based on ultraviolet visible spectrum
CN116216819A (en) * 2023-05-09 2023-06-06 湖南华博信息技术有限公司 Intelligent water affair data analysis management system and method
CN116310893A (en) * 2023-02-22 2023-06-23 中关村科学城城市大脑股份有限公司 Unmanned aerial vehicle-based water area pollution acquisition and recognition method and system
KR102570846B1 (en) * 2023-02-21 2023-08-28 (주) 아이렘기술개발 Field compost detection method and system capable of pollutant management

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101659433B1 (en) 2014-04-17 2016-09-26 한남대학교 산학협력단 System for pollution management of river-water and method of the same
KR101922831B1 (en) * 2018-01-31 2018-11-27 서울시립대학교 산학협력단 Image analysis apparatus and method for discriminating concrete status
KR102146009B1 (en) * 2019-06-26 2020-08-19 주식회사 자연과기술 Monitoring system for levee using hyperspectral imaging
KR20210011186A (en) * 2019-07-22 2021-02-01 주식회사 어플라이 Apparatus and method for analyzing images of drones

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101659433B1 (en) 2014-04-17 2016-09-26 한남대학교 산학협력단 System for pollution management of river-water and method of the same
KR101922831B1 (en) * 2018-01-31 2018-11-27 서울시립대학교 산학협력단 Image analysis apparatus and method for discriminating concrete status
KR102146009B1 (en) * 2019-06-26 2020-08-19 주식회사 자연과기술 Monitoring system for levee using hyperspectral imaging
KR20210011186A (en) * 2019-07-22 2021-02-01 주식회사 어플라이 Apparatus and method for analyzing images of drones

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
김성현 외 3인, ‘농업지역 소하천의 수질 특성 파악을 위한 UAV 영상 활용 가능성 분석’, 한국지리정보학회지 제22권 제3호, 2019. 1부.* *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115439757A (en) * 2022-08-26 2022-12-06 南方海洋科学与工程广东省实验室(广州) Water quality pollution source tracing method, device and equipment based on remote sensing image
CN115452759A (en) * 2022-09-14 2022-12-09 水利部交通运输部国家能源局南京水利科学研究院 River and lake health index evaluation method and system based on satellite remote sensing data
CN115452759B (en) * 2022-09-14 2023-08-22 水利部交通运输部国家能源局南京水利科学研究院 River and lake health index evaluation method and system based on satellite remote sensing data
CN115586150A (en) * 2022-10-08 2023-01-10 吉林省正真检测有限公司 Water body vertical detection system based on ultraviolet visible spectrum
KR102570846B1 (en) * 2023-02-21 2023-08-28 (주) 아이렘기술개발 Field compost detection method and system capable of pollutant management
CN116310893A (en) * 2023-02-22 2023-06-23 中关村科学城城市大脑股份有限公司 Unmanned aerial vehicle-based water area pollution acquisition and recognition method and system
CN116310893B (en) * 2023-02-22 2023-09-19 中关村科学城城市大脑股份有限公司 Unmanned aerial vehicle-based water area pollution acquisition and recognition method and system
CN116216819A (en) * 2023-05-09 2023-06-06 湖南华博信息技术有限公司 Intelligent water affair data analysis management system and method
CN116216819B (en) * 2023-05-09 2023-07-04 湖南华博信息技术有限公司 Intelligent water affair data analysis management system and method

Also Published As

Publication number Publication date
KR102507501B1 (en) 2023-03-07

Similar Documents

Publication Publication Date Title
KR102507501B1 (en) Artificial Intelligence-based Water Quality Contaminant Monitoring System and Method
Alcantarilla et al. Street-view change detection with deconvolutional networks
Akbari et al. Applications, databases and open computer vision research from drone videos and images: a survey
Chen et al. Vehicle detection in high-resolution aerial images via sparse representation and superpixels
RU2669656C2 (en) Condition detection with use of image processing
RU2694016C1 (en) Detecting the state of objects using an image processing system, a corresponding method and a persistent machine-readable medium
CN114612835A (en) Unmanned aerial vehicle target detection model based on YOLOv5 network
Wan et al. A novel neural network model for traffic sign detection and recognition under extreme conditions
CN113033516A (en) Object identification statistical method and device, electronic equipment and storage medium
KR102197930B1 (en) System and method for recognizing license plates
CN111178283A (en) Unmanned aerial vehicle image-based ground object identification and positioning method for established route
Sathvik et al. An intelligent convolutional neural network based potholes detection using YOLO-V7
CN116229292A (en) Inspection system and method based on unmanned aerial vehicle road surface inspection disease
Yang et al. Road intersection identification from crowdsourced big trace data using Mask‐RCNN
Silva et al. Automated road damage detection using UAV images and deep learning techniques
CN113012215A (en) Method, system and equipment for space positioning
Ranyal et al. Automated pothole condition assessment in pavement using photogrammetry-assisted convolutional neural network
Li et al. 3D map system for tree monitoring in hong kong using google street view imagery and deep learning
CN114529721B (en) Urban remote sensing image vegetation coverage recognition method based on deep learning
KR102516890B1 (en) Identification system and method of illegal parking and stopping vehicle numbers using drone images and artificial intelligence technology
Forkan et al. Aiot-citysense: Ai and iot-driven city-scale sensing for roadside infrastructure maintenance
Zou et al. Automated UAV route planning for bridge inspection using BIM-GIS data
Wu Computer Vision-Based Traffic Sign Detection and Extraction: A Hybrid Approach Using GIS And Machine Learning
Natarajan et al. Enhanced Road Damage Detection for Smart City Surveillance
CN109145715B (en) Air-based pedestrian boundary-crossing detection method, device and system for rail transit

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant