KR20210119843A - Monitoring device and monitoring method - Google Patents

Monitoring device and monitoring method Download PDF

Info

Publication number
KR20210119843A
KR20210119843A KR1020200036502A KR20200036502A KR20210119843A KR 20210119843 A KR20210119843 A KR 20210119843A KR 1020200036502 A KR1020200036502 A KR 1020200036502A KR 20200036502 A KR20200036502 A KR 20200036502A KR 20210119843 A KR20210119843 A KR 20210119843A
Authority
KR
South Korea
Prior art keywords
moss
image
unit
air pollution
building
Prior art date
Application number
KR1020200036502A
Other languages
Korean (ko)
Other versions
KR102386150B1 (en
Inventor
김법렬
Original Assignee
경일대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경일대학교산학협력단 filed Critical 경일대학교산학협력단
Priority to KR1020200036502A priority Critical patent/KR102386150B1/en
Publication of KR20210119843A publication Critical patent/KR20210119843A/en
Application granted granted Critical
Publication of KR102386150B1 publication Critical patent/KR102386150B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/10Devices for predicting weather conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30192Weather; Meteorology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Environmental & Geological Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental Sciences (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Atmospheric Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

A monitoring device is provided. The monitoring device includes: an acquisition unit for acquiring a lichen image obtained by photographing lichen that grows on the outside of a building; and an analysis unit for analyzing air pollution around the building through the analysis of the lichen image.

Description

모니터링 장치 및 모니터링 방법{MONITORING DEVICE AND MONITORING METHOD}MONITORING DEVICE AND MONITORING METHOD

본 발명은 이끼를 관찰하고, 대기 오염을 모니터링하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for observing moss and monitoring air pollution.

국내의 경우, 미세먼지와 기후변화, 에너지 정책 간 연계성을 고려하는 통합적 관점에서의 대기질 관리 대책 수립에 고심하고 있으며, 2019년에는 대기 오염의 저감을 목표로 하는 '청천' 프로젝트 등을 중국과 함께 추진하고 있다.In the case of Korea, we are struggling to establish air quality management measures from an integrated perspective that considers the linkage between fine dust, climate change, and energy policies. are promoting together.

해외의 경우, 인도네시아는 자카르타 청정 대기 2030 로드맵의 달성을 위해 교통, 도시계획 부문의 구체적 활동계획 14개를 제시하고 있다.In the case of overseas, Indonesia is proposing 14 specific action plans in the transportation and urban planning sectors to achieve the Jakarta Clean Air 2030 roadmap.

이러한 대기 관련 동향에 따르면, 건물 주변의 대기오염을 효율적으로 분석하는 방안이 마련될 필요가 있다.According to these air-related trends, it is necessary to prepare a plan to efficiently analyze air pollution around buildings.

한국등록특허공보 제1051142호에는 기상위성으로부터 수신된 원시자료를 이용해 RGB 합성영상을 생성하고, 합성영상을 이용해 황사와 인위적 대기오염을 분별하는 내용이 나타나 있다.Korean Patent Publication No. 1051142 describes the generation of RGB composite images using raw data received from weather satellites, and the classification of yellow dust and anthropogenic air pollution using the composite images.

한국등록특허공보 제1051142호Korean Patent Publication No. 1051142

본 발명은 이끼를 이용해서 건물 주변의 대기 오염을 분석하는 모니터링 장치 및 방법을 제공하기 위한 것이다.An object of the present invention is to provide a monitoring device and method for analyzing air pollution around a building using moss.

본 발명의 모니터링 장치는 건축물 외면에서 자생하는 이끼(lichen)가 촬영된 이끼 이미지를 획득하는 획득 유니트; 상기 이끼 이미지의 분석을 통해 상기 건축물 주변의 대기 오염을 분석하는 분석 유니트;를 포함할 수 있다.The monitoring device of the present invention includes: an acquisition unit for acquiring a moss image in which a moss (lichen) growing naturally on the exterior of a building is photographed; It may include; an analysis unit for analyzing the air pollution around the building through the analysis of the moss image.

본 발명의 모니터링 방법은 건축물 외면에서 자생하는 이끼(lichen)가 촬영된 이끼 이미지를 CNN(Convolutional neural network)에 적용하고, 상기 CNN을 통해 분석된 상기 이끼 이미지의 색상 특징을 이용해서 상기 건축물 주변의 대기 오염을 모니터링할 수 있다.The monitoring method of the present invention applies a moss image in which moss (lichen) that grows on the exterior of a building is photographed to a convolutional neural network (CNN), and uses the color characteristics of the moss image analyzed through the CNN. Air pollution can be monitored.

본 발명의 모니터링 방법은 대기 오염에 따라 변하는 이끼(lichen)의 색상을 대기 오염도별로 학습하고, 상기 학습에 기초해, 이끼가 포함된 이끼 이미지가 입력되면 상기 이끼 이미지에 포함된 상기 이끼의 색상을 분석하는 이끼 분류 모델을 생성하며, 상기 이끼 분류 모델은 상기 이끼 이미지의 분석을 통해 분석된 색상을 기 학습된 대기 오염도별 색상에 맞춰 분류할 수 있다.The monitoring method of the present invention learns the color of lichen that changes according to air pollution for each air pollution degree, and based on the learning, when a moss image containing moss is input, the color of the moss contained in the moss image is A moss classification model to be analyzed is generated, and the moss classification model may classify the color analyzed through the analysis of the moss image according to the pre-learned color for each air pollution degree.

본 발명의 모니터링 장치 및 방법은 건축물 외면에 존재하는 이끼의 분석을 통해 건축물 주변의 대기 오염을 파악할 수 있다.The monitoring apparatus and method of the present invention can determine the air pollution around the building through the analysis of the moss existing on the exterior of the building.

본 발명은 건축물의 외면에 자생하는 이끼의 이미지를 분석하고, 빌딩 등 건축물 주변의 대기 오염 수준을 파악할 수 있다.The present invention can analyze the image of moss that grows naturally on the exterior of a building, and can determine the level of air pollution around a building, such as a building.

본 발명은 건축물 외면에 존재하는 이끼를 촬영한 이미지를 이용해서, 건축물 주변의 대기 오염 상태를 분석하는 이끼 분류 모델을 제공할 수 있다.The present invention can provide a moss classification model that analyzes the air pollution state around the building by using an image of the moss existing on the exterior of the building.

도 1은 본 발명의 모니터링 장치를 나타낸 개략도이다.
도 2는 획득부, 탐색부, 편집부의 동작을 나타낸 개략도이다.
도 3은 VGG-16 아키텍쳐를 나타낸 개략도이다.
도 4는 VGG-16 아키텍쳐의 동작 절차를 나타낸 개략도이다.
도 5는 이끼의 데이터 세트를 나타낸 개략도이다.
도 6은 서로 다른 오염 수준에 접한 이끼의 색상을 시각적으로 나타낸 것이다.
도 7은 이미지 분류를 위한 VGG-16 아키텍쳐의 작동 단계를 나타낸 개략도이다.
도 8은 VGG-16을 사용한 오염 감지 모델을 나타낸 개략도이다.
도 9는 분류 정확도를 나타낸 그래프이다.
도 10은 분류 정밀도를 나타낸 나타낸 그래프이다.
도 11은 재호출을 나타낸 그래프이다.
도 12는 F-Measure를 나타낸 그래프이다.
도 13은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.
1 is a schematic diagram showing a monitoring device of the present invention.
2 is a schematic diagram illustrating operations of an acquisition unit, a search unit, and an editing unit.
3 is a schematic diagram showing the VGG-16 architecture.
4 is a schematic diagram showing the operation procedure of the VGG-16 architecture.
5 is a schematic diagram showing a data set of moss.
6 is a visual representation of the color of moss in contact with different levels of contamination.
7 is a schematic diagram showing the operational steps of the VGG-16 architecture for image classification.
8 is a schematic diagram illustrating a pollution detection model using VGG-16.
9 is a graph showing classification accuracy.
10 is a graph showing classification accuracy.
11 is a graph illustrating recall.
12 is a graph showing F-Measure.
13 is a diagram illustrating a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In the present specification, duplicate descriptions of the same components will be omitted.

또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when it is mentioned that a certain element is 'connected' or 'connected' to another element, it may be directly connected or connected to the other element, but another element in the middle. It should be understood that there may be On the other hand, in this specification, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that the other element does not exist in the middle.

또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, the terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention.

또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, the singular expression may include the plural expression unless the context clearly dictates otherwise.

또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.Also in this specification, terms such as 'include' or 'have' are only intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and one or more It should be understood that the existence or addition of other features, numbers, steps, operations, components, parts or combinations thereof is not precluded in advance.

또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of listed items or any of a plurality of listed items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.

또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.

도 1은 본 발명의 모니터링 장치를 나타낸 개략도이다.1 is a schematic diagram showing a monitoring device of the present invention.

도 1에 도시된 모니터링 장치는 획득 유니트(100), 분석 유니트(200)를 포함할 수 있다.The monitoring device shown in FIG. 1 may include an acquisition unit 100 and an analysis unit 200 .

획득 유니트(100)는 건축물(10) 외면에서 자생하는 이끼(lichen)(90)가 촬영된 이끼 이미지 i0를 획득할 수 있다.The acquisition unit 100 may acquire the moss image i0 in which the moss (lichen) 90 that grows on the outer surface of the building 10 is photographed.

분석 유니트(200)는 이끼 이미지 i0의 분석을 통해 건축물(10) 주변의 대기 오염을 분석할 수 있다.The analysis unit 200 may analyze air pollution around the building 10 through the analysis of the moss image i0.

본 발명의 모니터링 장치에는 획득부(110), 탐색부(130), 편집부(150), 추출부(210), 평탄화부(230), 분류부(250)가 마련될 수 있다. 획득부(110), 탐색부(130), 편집부(150)는 획득 유니트(100)에 마련될 수 있다. 추출부(210), 평탄화부(230), 분류부(250)는 분석 유니트(200)에 마련될 수 있다.The monitoring device of the present invention may include an acquisition unit 110 , a search unit 130 , an editing unit 150 , an extraction unit 210 , a flattening unit 230 , and a classification unit 250 . The acquisition unit 110 , the search unit 130 , and the editing unit 150 may be provided in the acquisition unit 100 . The extraction unit 210 , the planarization unit 230 , and the classification unit 250 may be provided in the analysis unit 200 .

도 2는 획득부(110), 탐색부(130), 편집부(150)의 동작을 나타낸 개략도이다.2 is a schematic diagram illustrating operations of the acquiring unit 110 , the search unit 130 , and the editing unit 150 .

획득부(110)는 건축물(10) 외면을 촬영하는 촬영하는 촬영부(300)로부터 복수의 촬영 이미지 i1, i2, i3,...를 획득할 수 있다. 일 예로, 획득부(110)에는 촬영부(300)와 실시간으로 무선 통신하는 무선 통신 모듈이 마련될 수 있다. 획득부(110)는 촬영부(300)와 실시간 통신하는 무선 통신 모듈을 통해 촬영부(300)가 촬영한 촬영 이미지 i1, i2, i3 등을 실시간으로 획득할 수 있다.The acquisition unit 110 may acquire a plurality of photographed images i1, i2, i3, ... from the photographing unit 300 photographing the exterior of the building 10 . For example, the acquisition unit 110 may be provided with a wireless communication module for wireless communication with the photographing unit 300 in real time. The acquisition unit 110 may acquire the photographed images i1, i2, i3, etc. captured by the photographing unit 300 in real time through a wireless communication module that communicates with the photographing unit 300 in real time.

탐색부(130)는 복수의 촬영 이미지 중에서 이끼(90)가 포함된 특정 촬영 이미지 i3를 탐색할 수 있다. 제어 편의성 및 신속성을 도모하기 위해 촬영부(300)는 이끼의 존재 유무에 상관없이 건물 외면을 설정 규칙 또는 랜덤하게 촬영할 수 있다. 따라서, 촬영부(300)에 의해 촬영된 촬영 이미지에는 이끼가 포함되지 않는 이미지도 존재할 수 있다. 탐색부(130)는 획득부(110)에 의해 입수된 복수의 촬영 이미지 i1, i2, i3 등을 대상으로 이미지 분석 기법, 딥 러닝 기법 등을 적용해 이끼가 포함된 특정 촬영 이미지 i3를 탐색할 수 있다.The search unit 130 may search for a specific photographed image i3 including the moss 90 from among a plurality of photographed images. In order to promote control convenience and speed, the photographing unit 300 may photograph the exterior of the building according to a set rule or randomly, regardless of the presence or absence of moss. Accordingly, there may be an image in which moss is not included in the photographed image photographed by the photographing unit 300 . The search unit 130 searches for a specific captured image i3 containing moss by applying an image analysis technique, a deep learning technique, etc. to the plurality of captured images i1, i2, i3, etc. obtained by the obtaining unit 110. can

편집부(150)는 이끼(90)가 포함된 특정 촬영 이미지 i3를 편집해서 이끼 이미지 i0를 생성할 수 있다. 일 예로, 편집부(150)는 특정 촬영 이미지 i3에 포함된 이끼(90)의 영역(이끼 영역 j)을 확대해서 이끼 영역 j만 포함된 확대 이미지 k를 생성할 수 있다. 이때, 이끼 이미지 i0는 확대 이미지 k를 포함할 수 있다. 예를 들어, 이끼 이미지 i0는 확대 이미지 k와 동일할 수 있다. 확대 이미지 k가 포함된 이끼 이미지 i0의 전체 영역에는 이끼가 가득 차고, 이끼 이미지 i0를 형성하는 아무 픽셀이 선택되더라도 해당 이끼의 색상이 파악될 수 있다.The editing unit 150 may create a moss image i0 by editing a specific captured image i3 including the moss 90 . For example, the editing unit 150 may generate an enlarged image k including only the moss area j by enlarging the area (moss area j) of the moss 90 included in the specific captured image i3. In this case, the moss image i0 may include an enlarged image k. For example, the moss image i0 may be the same as the enlarged image k. The entire area of the moss image i0 including the enlarged image k is filled with moss, and even if any pixel forming the moss image i0 is selected, the color of the moss can be recognized.

분석 유니트(200)는 확대 이미지 k에서 색상 정보를 추출하고, 추출된 색상 정보를 이용해서 대기 오염을 분석할 수 있다.The analysis unit 200 may extract color information from the enlarged image k and analyze air pollution using the extracted color information.

편집부(150)에 따르면, 분석 유니트(200)는 특정 촬영 이미지 i3에서 이끼(90)를 구분하기 위한 추가 작업을 수행하지 않아도 된다. 따라서, 편집부(150)에 따르면, 분석 유니트(200)의 처리 부하가 경감될 수 있다.According to the editing unit 150, the analysis unit 200 does not need to perform an additional operation for distinguishing the moss 90 from the specific photographed image i3. Accordingly, according to the editing unit 150 , the processing load of the analysis unit 200 may be reduced.

한편, 분석 유니트(200)에 마련된 추출부(210)는 편집부(150)의 도움없이 특정 촬영 이미지 i3에서 직접 이끼 영역 j를 구분할 수 있다. 본 실시예에 따르면, 편집부(150)는 배제되어도 무방하다. 편집부(150)가 배제된 경우, 이끼가 포함된 특정 촬영 이미지 i3가 그대로 이끼 이미지 i0로서 추출부(210)에 제공될 수 있다. 다시 말해, 탐색부(130)에 의해 탐색된 특정 촬영 이미지 i3가 곧 이끼 이미지 i0가 될 수 있다.On the other hand, the extraction unit 210 provided in the analysis unit 200 may directly distinguish the moss area j from the specific photographed image i3 without the help of the editing unit 150 . According to the present embodiment, the editing unit 150 may be excluded. When the editing unit 150 is excluded, the specific photographed image i3 including the moss may be provided to the extraction unit 210 as the moss image i0 as it is. In other words, the specific photographed image i3 searched for by the search unit 130 may soon become the moss image i0.

이 경우, 추출부(210)는 특정 촬영 이미지 i3에서 이끼(90)가 존재하는 이끼 영역 j를 직접 구분 또는 추출할 수 있다. 또한, 추출부(210)는 이끼 영역 j 전체 면적 또는 일부 면적의 색상 특징을 추출할 수 있다. 이끼 영역 j를 형성하는 복수의 이미지 픽셀의 색상 정보 또는 색상값은 서로 다를 수 있다. 추출부(210)는 표준 편차, 분산, 평탄화 등의 기법을 적용하여 이끼 영역(90)을 형성하는 전체 면적 또는 일부 면적의 색상을 대표하는 대표값 하나를 출력할 수 있다. 이때, 추출부(210)로부터 출력된 하나의 대표값이 색상 특징에 해당될 수 있다.In this case, the extraction unit 210 may directly classify or extract the moss area j in which the moss 90 exists from the specific photographed image i3 . Also, the extractor 210 may extract the color feature of the entire area or a partial area of the moss area j. Color information or color values of a plurality of image pixels forming the moss region j may be different from each other. The extractor 210 may output one representative value representing the color of the entire area or a partial area forming the moss area 90 by applying techniques such as standard deviation, dispersion, and planarization. In this case, one representative value output from the extractor 210 may correspond to the color feature.

분석 유니트(200)는 추출부(210)에 의해 추출된 색상 특징을 이용해서 대기 오염을 분석할 수 있다.The analysis unit 200 may analyze air pollution by using the color features extracted by the extraction unit 210 .

본 발명은 대기 오염에 따라 색상이 달라지는 이끼의 특성을 이용해서 대기 오염을 모니터링할 수 있다. 이끼의 색상을 이용해 대기 오염을 모니터링하기 위해서는 우선 이끼의 자생 위치가 파악되어야 한다. 또한, 색상을 선명하게 구분할 수 있는 상태에서 이끼의 모습이 촬영되어야 한다. 빌딩 등의 건축물(10)은 해당 조건을 모두 만족할 수 있다. 따라서, 이끼의 색상을 이용해서 대기 오염을 모니터링하는 대상으로 건축물(10)의 외면이 적합할 수 있다.The present invention can monitor air pollution by using the property of moss that changes color according to air pollution. To monitor air pollution using the color of moss, the native location of moss must first be identified. In addition, the appearance of the moss should be photographed in a state where the colors can be clearly distinguished. The building 10 such as a building may satisfy all the corresponding conditions. Therefore, the exterior of the building 10 may be suitable as a target for monitoring air pollution using the color of moss.

또한, 빌딩 등과 같이 높은 건축물(10)의 외면에 자생하는 이끼(90)를 모니터링하면, 고도별로 대기 오염이 파악될 수 있다.In addition, when the moss 90 that grows naturally on the outer surface of the high building 10 such as a building is monitored, air pollution can be identified for each altitude.

건축물(10)의 외면에 자생하는 이끼를 촬영하기 위해 촬영부(300)가 마련될 수 있다.The photographing unit 300 may be provided to photograph the moss that grows on the outer surface of the building 10 .

촬영부(300)는 공중을 비행하면서 건축물(10) 외면을 촬영할 수 있다. 일 예로, 촬영부(300)는 프로펠러의 회전 등을 이용해 공중을 비행하는 비행 모듈(310), 비행 모듈(310)에 설치되고 건축물(10)의 외면을 광학적으로 촬영하는 카메라(390), 비행 고도를 감지하는 고도계(330)를 포함할 수 있다.The photographing unit 300 may photograph the outer surface of the building 10 while flying in the air. As an example, the photographing unit 300 includes a flight module 310 that flies in the air using rotation of a propeller, etc., a camera 390 installed in the flight module 310 and optically photographing the outer surface of the building 10 , flight It may include an altimeter 330 for sensing the altitude.

촬영부(300)의 고도계(330)는 건축물 외면을 촬영한 특정 시점에 비행 고도를 감지할 수 있다.The altimeter 330 of the photographing unit 300 may detect the flight altitude at a specific point in time when the exterior of the building is photographed.

촬영부(300)는 특정 시점에 촬영된 촬영 이미지와 특정 시점에 감지된 비행 고도를 획득 유니트(100)에 제공할 수 있다.The photographing unit 300 may provide a photographed image photographed at a specific time point and a flight altitude sensed at a specific time point to the acquisition unit 100 .

획득 유니트(100)는 촬영 이미지를 이용해서 이끼 이미지를 획득하고, 이끼 이미지를 비행 고도와 함께 분석 유니트(200)에 제공할 수 있다.The acquisition unit 100 may acquire a moss image using the photographed image, and provide the moss image to the analysis unit 200 along with the flight altitude.

분석 유니트(200)는 이끼 이미지를 대상으로 분석된 대기 오염에 비행 고도를 매칭시켜서 고도별 대기 오염 정보를 생성할 수 있다. 촬영부(300)는 중력 방향에 수직한 방향을 따라 연장되는 광축 L을 갖는 카메라(390)를 이용해서 건축물(10) 외면을 촬영할 수 있다. 광축 L을 갖는 카메라(390)에 의해 촬영된 촬영 이미지에 포함된 건물 외면의 높이는 촬영부(300)의 비행 고도에 직접 대응될 수 있다. 다시 말해, 촬영 이미지에 포함된 건물 부분은 촬영부(300)와 동일한 높이에 위치할 수 있다. 따라서, 해당 촬영 이미지를 이용해 파악된 대기 오염 상태는 고도계(330)를 이용해 파악된 해당 높이 지점의 대기 오염을 나타내거나, 고도계(330)를 이용해 파악된 고도의 대기 오염을 나타낼 수 있다.The analysis unit 200 may generate air pollution information for each altitude by matching the flight altitude to the air pollution analyzed for the moss image. The photographing unit 300 may photograph the outer surface of the building 10 using a camera 390 having an optical axis L extending in a direction perpendicular to the direction of gravity. The height of the outer surface of the building included in the photographed image photographed by the camera 390 having the optical axis L may directly correspond to the flight altitude of the photographing unit 300 . In other words, the building part included in the photographed image may be located at the same height as the photographing unit 300 . Accordingly, the air pollution state determined using the corresponding photographed image may indicate air pollution at the corresponding height point determined using the altimeter 330 or may indicate the high level air pollution determined using the altimeter 330 .

분석 유니트(200)에 마련된 추출부(210)는 이끼 이미지에서 색상 특징을 추출할 수 있다.The extraction unit 210 provided in the analysis unit 200 may extract color features from the moss image.

평탄화부(230)는 추출부(210)에 의해 추출된 색상 특징을 평탄화시킬 수 있다.The planarization unit 230 may planarize the color features extracted by the extraction unit 210 .

분류부(250)는 평탄화부(230)로부터 출력된 데이터를 오염 수준에 따라 분류할 수 있다.The classification unit 250 may classify the data output from the planarization unit 230 according to the contamination level.

분석 유니트(200)는 CNN(Convolutional neural network) 기반의 VGG-16을 활용하는 이끼 분류 모델을 이용해서 대기 오염을 분석할 수 있다.The analysis unit 200 may analyze air pollution using a moss classification model using VGG-16 based on a convolutional neural network (CNN).

VGG-16은 컨볼루션(convolution)과 최대 풀 레이어(maxpool layer)가 조합된 16개의 스택을 가질 수 있다. VGG-16은 고밀도 레이어를 가질 수 있다.VGG-16 may have 16 stacks in which convolution and maxpool layers are combined. VGG-16 may have a high density layer.

이끼 분류 모델은 이끼 이미지에서 색상 특징을 추출하고, 추출된 색상 특징을 컨볼루션(convolution) 및 최대 풀 레이어(maxpool layer) 스택에 통과시켜서 평탄화된 결과를 출력하고, 평탄화된 결과를 고밀도 레이어(dense layer)에 통과시킬 수 있다.The moss classification model extracts color features from a moss image, passes the extracted color features through a convolution and maxpool layer stack to output a flattened result, and converts the flattened result to a dense layer. layer) can be passed through.

분석 유니트(200)는 고밀도 레이어의 출력 데이터를 이용해 이끼 이미지를 분류하고, 분류 결과에 따라 대기 오염을 분석할 수 있다.The analysis unit 200 may classify the moss image using the output data of the high-density layer, and analyze air pollution according to the classification result.

본 발명의 모니터링 방법은 도 1에 도시된 모니터링 장치에 의해 수행될 수 있다. 본 발명의 모니터링 방법은 건축물(10) 외면에서 자생하는 이끼(lichen)(90)가 촬영된 이끼 이미지를 CNN(Convolutional neural network)에 적용하고, CNN을 통해 분석된 이끼 이미지의 색상 특징을 이용해서 건축물(10) 주변의 대기 오염을 모니터링할 수 있다.The monitoring method of the present invention may be performed by the monitoring device shown in FIG. 1 . The monitoring method of the present invention applies a moss image in which a moss (lichen) 90 that grows on the outside of the building 10 is photographed to a convolutional neural network (CNN), and uses the color characteristics of the moss image analyzed through the CNN. Air pollution around the building 10 can be monitored.

이끼의 색상을 이용해서 대기 오염을 분석하는 이끼 분류 모델이 요구된다. 이끼 분류 모델을 획득하기 위한 다른 모니터링 방법이 제공될 수 있다.A moss classification model that analyzes air pollution using the color of moss is required. Other monitoring methods for obtaining a moss classification model may be provided.

일 예로, 본 발명의 모니터링 방법에 따르면, 모니터링 장치는 대기 오염에 따라 변하는 이끼(lichen)의 색상을 대기 오염도별로 학습할 수 있다. 해당 학습에 기초해, 모니터링 장치는 이끼가 포함된 이끼 이미지가 입력되면 이끼 이미지에 포함된 이끼의 색상을 분석하는 이끼 분류 모델을 생성할 수 있다.For example, according to the monitoring method of the present invention, the monitoring device may learn the color of lichen that changes according to air pollution for each air pollution degree. Based on the learning, when a moss image including moss is input, the monitoring device may generate a moss classification model that analyzes the color of moss included in the moss image.

이끼 분류 모델은 이끼 이미지의 분석을 통해 분석된 색상을 기 학습된 대기 오염도별 색상에 맞춰 분류할 수 있다. 이끼 분류 모델은 촬영 이미지를 분석하는 다른 모니터링 장치에서 이끼의 색상을 분류하는데 사용될 수 있다. 이끼가 특정 색상으로 분류되면, 해당 특정 색상에 기매칭된 대기 오염 상태가 해당 이끼가 포함된 건물 외면 주변의 오염을 나타내는 것으로 추정될 수 있다.The moss classification model can classify the color analyzed through the analysis of the moss image according to the pre-learned color for each air pollution level. The moss classification model can be used to classify the color of moss in other monitoring devices that analyze the captured images. When moss is classified as a specific color, it may be estimated that the air pollution state previously matched to the specific color represents pollution around the exterior of the building including the moss.

이상에서 설명된 이끼와 대기 오염 간의 관계, 이끼 분류 모델의 구체적인 내용이 이하에서 상술된다.The relationship between the moss and air pollution described above, and the specific content of the moss classification model will be described in detail below.

대기 오염은 살아있는 유기체에 각종 영향을 미칠 수 있다. 이끼는 공기 질에 매우 민감한 바이오 지표로써 공기 중에 존재하는 요소를 흡수한다. 이끼의 오염 수준은 살아있는 유기체에 대한 동일한 영향을 반영할 수 있다. 이끼에 대한 색상 특징의 추출을 통해 도시를 대상으로 하는 오염률의 영향을 분석하고 인체에 얼마나 많은 오염 물질이 퇴적되는지가 설명될 수 있다. 이끼의 색상은 대기 오염에 따라 다르게 변할 수 있다.Air pollution can have various effects on living organisms. Moss is a biomarker that is very sensitive to air quality and absorbs elements present in the air. Moss contamination levels can reflect the same impact on living organisms. Through the extraction of color features for moss, the impact of pollution rates on cities can be analyzed and how many pollutants are deposited in the human body can be explained. The color of moss can change differently depending on air pollution.

도 3은 VGG-16 아키텍쳐를 나타낸 개략도이다. 도 4는 VGG-16 아키텍쳐의 동작 절차를 나타낸 개략도이다.3 is a schematic diagram showing the VGG-16 architecture. 4 is a schematic diagram showing the operation procedure of the VGG-16 architecture.

본 발명에서 제안된 VGG-16 모델(이끼 분류 모델)은 이끼가 포함된 이끼 이미지를 입력으로 수신하고, 이끼 이미지에서 색상 특징을 추출할 수 있다. 추출된 색상 특징은 VGG-16 아키텍쳐에서 컨벌루션 및 최대 풀 레이어 스택을 통과할 수 있다. 마지막으로, 입력 이미지가 평평(flat)해지고(평탄화) 오염 수준에 따라 분류될 수 있다. 정확도는 벡터 머신 및 입자 스웜 최적화(particle swarm optimization)를 지원하는 기존의 방법과 비교될 수 있다.The VGG-16 model (moss classification model) proposed in the present invention can receive a moss image including moss as an input and extract color features from the moss image. The extracted color features can pass through convolution and max full-layer stack in VGG-16 architecture. Finally, the input image can be flattened (flattened) and classified according to the level of contamination. The accuracy can be compared with existing methods that support vector machines and particle swarm optimization.

지구의 대기는 엑스레이, UV 광선, 행성 주위에 충돌하는 우주 광선과 같은 많은 입자로부터 살아있는 유기체를 보호한다. 또한, 삶의 지속 가능성에 유리한 균형을 유지하여 정상적인 온도를 유지하는 데 도움을 준다. 독성 물질이 공기 중에 혼합되면 대기 오염이 생겨 생물에 영향을 미친다. 대기 오염은 차량 또는 공장에서 배출되는 가스 등에 기인할 수 있다.Earth's atmosphere protects living organisms from many particles, such as X-rays, UV rays, and cosmic rays colliding around planets. It also helps to maintain a normal temperature by maintaining a favorable balance for the sustainability of life. When toxic substances are mixed in the air, it creates air pollution and affects living things. Air pollution may be due to gases emitted from vehicles or factories, and the like.

도시를 가로지르는 스모그부터 집안의 연기에 이르기까지 대기 오염은 건강과 기후에 큰 위협이 될 수 있다.From smog across cities to smoke in homes, air pollution can be a huge threat to health and climate.

이끼(lichen)는 하나 또는 두 종의 곰팡이와 조류의 연합의 결과로 형성된 복합 유기체를 포함할 수 있다. 이끼는 나무 껍질, 벽, 바위, 묘비, 지붕 및 토양과 같은 다양한 곳에서 자생할 수 있다.Lichens may contain complex organisms formed as a result of the association of one or two species of fungi and algae. Moss can grow in a variety of places, such as bark, walls, rocks, tombstones, roofs, and soil.

본 발명에 따르면, 이끼의 이미지 분석을 기반으로 건물 주변의 오염 수준이 모니터링되거나 분석될 수 있다. 서로 다른 구조와 구성을 가진 이끼를 대상으로 하는 9718개의 이미지 모음이 건물 주변의 대기 오염을 분석하기 위해 제안된 본 발명에서 도 5와 같이 데이터 세트로 사용될 수 있다.According to the present invention, the level of contamination around a building can be monitored or analyzed based on image analysis of moss. A collection of 9718 images targeting moss with different structures and compositions can be used as a data set as shown in FIG. 5 in the present invention, which is proposed to analyze air pollution around buildings.

도 5는 이끼의 데이터 세트를 나타낸 개략도이다. 도 6은 서로 다른 오염 수준에 접한 이끼의 색상을 시각적으로 나타낸 것이다. 도 7은 이미지 분류를 위한 VGG-16 아키텍쳐의 작동 단계를 나타낸 개략도이다.5 is a schematic diagram showing a data set of moss. 6 is a visual representation of the color of moss in contact with different levels of contamination. 7 is a schematic diagram showing the operational steps of the VGG-16 architecture for image classification.

오염 식별을 위한 이끼 분석은 다중 클래스 이미지 분류 문제에 해당될 수 있다.Moss analysis for contamination identification may correspond to a multi-class image classification problem.

일 예로, 본 발명의 모니터링 장치는 대기 오염에 따라 달라지는 이끼의 색깔을 이용해서, 대기 오염 상태를 깨끗한 상태에서 심각한 오염 상태의 순서로 'Not Polluted', 'Moderately Polluted', 'Heavily Polluted', 'Extremely Polluted'와 같이 분류할 수 있다. 'Not Polluted'는 대기 오염이 없는 상태를 나타낼 수 있다. 'Extremely Polluted'는 대기 오염이 심각한 상태를 나타낼 수 있다.As an example, the monitoring device of the present invention uses the color of moss that varies according to air pollution, in the order of air pollution from a clean state to a serious pollution state, 'Not Polluted', 'Moderately Polluted', 'Heavily Polluted', ' It can be classified as 'Extremely Polluted'. 'Not Polluted' may indicate a state in which there is no air pollution. 'Extremely Polluted' may indicate a condition with severe air pollution.

VGG-16은 이미지 분류를 위해 제안된 CNN 기반 접근 방식일 수 있다. 이끼 분류는 2단계 프로세스를 포함할 수 있다. 1 단계(도 7의 'Step 1')는 입력 이미지에서 특징 세트를 학습하는데 중점을 둘 수 있다. VGG-16은 입력 이미지에서 특징 세트를 학습할 수 있는 컨볼루션과 최대 풀 레이어의 조합으로 스택될 수 있다. 2 단계(도 7의 'Step 2')는 1단계의 출력을 수신하고 평탄화할 수 있다.VGG-16 may be a proposed CNN-based approach for image classification. Moss classification may include a two-step process. Step 1 ('Step 1' in FIG. 7 ) may focus on learning a feature set from an input image. VGG-16 can be stacked as a combination of convolution and max full layers that can learn feature sets from input images. Step 2 ('Step 2' in FIG. 7 ) may receive and flatten the output of step 1.

평탄화된 출력은 도 4와 같이 고밀도 레이어에 대한 입력으로 제공될 수 있다. 드롭 아웃 기능으로 고밀도 레이어 2가 활성화될 수 있다. Softmax는 멀티 클래스 분류를 위한 활성화 기능으로 사용될 수 있다. 고밀도 레이어의 출력에 따라 입력 이미지가 분류되고 해당 분류는 곧 오염 수준을 나타낼 수 있다. VGG-16 모델은 데이터 세트에서 사용 가능한 전체 이미지 중 트레이닝 데이터를 사용하여 구성된다. 모델은 에포크 값으로 35로 제한되어 정방향 및 역방향 패스 수를 줄일 수 있다. The flattened output may be provided as an input to the high-density layer as shown in FIG. 4 . High-density layer 2 can be activated with the drop-out function. Softmax can be used as an activation function for multi-class classification. The input image is classified according to the output of the high-density layer, and the classification may indicate the level of contamination. The VGG-16 model is constructed using training data from all available images in the data set. The model is limited to an epoch value of 35, which can reduce the number of forward and backward passes.

빌딩 등과 같은 건축물(10) 주변의 전체 오염 감지는 VGG-16 아키텍쳐에 의해 수행될 수 있다. 이끼는 바위, 벽 및 지붕에서 자랄 수 있으며, 본 발명에서는 건물 주변의 오염 인디케이터로 이끼를 사용할 수 있다. 주변의 오염 수준을 나타내는 데 사용되는 다양한 물리적 및 화학적 조성을 가진 약 2300 종의 이끼가 있다. 이끼는 건물 주변에 자생할 수 있다. 드론과 같은 촬영부(300)를 통해 이끼를 모니터링할 수 있다. 촬영부(300)를 통해 캡처된 이미지는 VGG-16 이끼 분류 모델에 대한 입력으로 사용될 수 있다.The overall contamination detection around the building 10 , such as a building, may be performed by the VGG-16 architecture. Moss can grow on rocks, walls and roofs, and the present invention can use moss as an indicator of contamination around buildings. There are about 2300 species of lichens with varying physical and chemical compositions used to indicate the level of pollution in their surroundings. Moss can grow wild around buildings. The moss may be monitored through a photographing unit 300 such as a drone. The image captured through the photographing unit 300 may be used as an input to the VGG-16 moss classification model.

제안된 VGG-16 모델은 입력을 수신하고 이미지에서 색상 특징을 추출할 수 있다. 추출된 특징은 VGG-16 아키텍쳐에서 컨벌루션 및 최대 풀 레이어 스택을 통과할 수 있다. 마지막으로 입력 이미지가 평탄화되고 오염 수준에 따라 분류될 수 있다.The proposed VGG-16 model can receive input and extract color features from images. Extracted features can pass through convolution and max full-layer stack in VGG-16 architecture. Finally, the input image can be flattened and classified according to the level of contamination.

도 8은 VGG-16을 사용한 오염 감지 모델을 나타낸 개략도이다.8 is a schematic diagram illustrating a pollution detection model using VGG-16.

VGG-16 모델의 성능은 테스트 데이터와 도 8에 나와있는 기존의 다른 머신 러닝 모델을 통해 검증될 수 있다. 이 작업에서는 가장 친숙한 머신 러닝 모델 인 SVM과 PSO를 구현했다. VGG-16은 다른 머신 러닝 모델과 비교할 때 모든 성능 측정 측면에서 더 나은 성능을 제공할 수 있다.The performance of the VGG-16 model can be verified through test data and other existing machine learning models shown in FIG. 8 . In this work, we implemented the most familiar machine learning models, SVM and PSO. Compared to other machine learning models, VGG-16 can provide better performance in all performance measures.

도 9는 분류 정확도를 나타낸 그래프이다. 도 10은 분류 정밀도를 나타낸 나타낸 그래프이다. 도 11은 재호출을 나타낸 그래프이다. 도 12는 F-Measure를 나타낸 그래프이다.9 is a graph showing classification accuracy. 10 is a graph showing classification accuracy. 11 is a graph illustrating recall. 12 is a graph showing F-Measure.

기계 학습 알고리즘 SVM 및 PSO와 비교할 때, VGG-16 기반 딥 러닝 알고리즘은 최대 이미지 수를 올바르게 분류했다. VGG-16의 최고 정확도는 93.6%이며 PSO 및 SVM의 정확도는 84.8% 및 81.2%로 나타나 있다. SVM은 최고의 멀티 클래스 분류기 중 하나이지만 각 데이터 포인트의 특징 수가 트레이닝 데이터 샘플 수를 초과하게 되면 성능이 저하된다. VGG-16은 정밀도, 재호출 및 F-Measure 측정과 같은 다른 매개 변수 측정 측면에서 더 잘 수행되며 각각 94.4%, 92.9% 및 93.6%의 최대 값을 생성할 수 있다. VGG-16은 다른 머신 러닝 모델보다 개선된 멀티 클래스 분류를 수행할 수 있다.Compared with the machine learning algorithms SVM and PSO, the VGG-16 based deep learning algorithm correctly classified the maximum number of images. The highest accuracy of the VGG-16 is 93.6%, and the accuracies of PSO and SVM are 84.8% and 81.2%. SVM is one of the best multi-class classifiers, but its performance degrades when the number of features in each data point exceeds the number of training data samples. The VGG-16 performs better in terms of precision, recall, and other parameter measurements such as F-Measure measurements and can produce maxima of 94.4%, 92.9% and 93.6%, respectively. VGG-16 can perform improved multi-class classification over other machine learning models.

VGG-16은 컨볼루션과 최대 풀 레이어의 16 레이어 스택을 갖춘 딥 아키텍쳐이다. 이끼 이미지는 트레이닝 및 모델 검증을 위해 별도로 그룹화될 수 있다. VGG-16의 전체 성능은 정확도 및 손실 기능 측면에서 표 1과 같이 측정될 수 있다. 제안된 작업에서 최적화된 에포크 수(EPOCH)를 사용하여 총 순방향 및 역방향 패스 수를 제어한다. VGG-16 성능의 시각적 표현은 도 9 내지 도 12과 같다.The VGG-16 is a deep architecture with a 16-layer stack of convolutions and up to full layers. Moss images can be grouped separately for training and model validation. The overall performance of VGG-16 can be measured as shown in Table 1 in terms of accuracy and loss function. In the proposed task, we use the optimized number of epochs (EPOCH) to control the total number of forward and backward passes. A visual representation of the VGG-16 performance is shown in FIGS. 9 to 12 .

EPOCHEPOCH Training AccuracyTraining Accuracy Validation AccuracyValidation Accuracy Training LossTraining Loss Validation LossValidation Loss 33 0.580.58 0.690.69 0.810.81 0.730.73 77 0.8260.826 0.8410.841 0.560.56 0.450.45 1010 0.8450.845 0.860.86 0.260.26 0.190.19 1313 0.8860.886 0.890.89 0.130.13 0.090.09 1717 0.9260.926 0.9320.932 0.090.09 0.080.08 2020 0.9280.928 0.940.94 0.080.08 0.030.03 2323 0.9310.931 0.9350.935 0.040.04 0.020.02 2727 0.9350.935 0.9390.939 0.020.02 0.010.01 3030 0.9360.936 0.9410.941 0.020.02 0.010.01 3535 0.9360.936 0.9410.941 0.020.02 0.010.01

VGG-16 알고리즘은 93.6의 최대 트레이닝 정확도와 94.1의 유효성 검사 정확도를 생성할 수 있다. 이 모델은 에포크 값 17에서 안정된 정확도와 에포크 20에서 안정된 손실 값을 생성할 수 있다. 이는 모델의 안정성을 분명히 보여준다. 또한 VGG-16 모델은 30번째 에포크에서 최대 정확도를, 27 번째 에포크에서 최소 손실 값을 생성할 수 있다.The VGG-16 algorithm can produce a maximum training accuracy of 93.6 and a validation accuracy of 94.1. This model can produce stable accuracy at epoch value 17 and loss value stable at epoch 20. This clearly shows the stability of the model. In addition, the VGG-16 model can produce maximum accuracy at the 30th epoch and minimum loss values at the 27th epoch.

도 13은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 13의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 모니터링 장치 등) 일 수 있다. 13 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 13 may be a device (eg, a monitoring device, etc.) described herein.

도 13의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 13 , the computing device TN100 may include at least one processor TN110 , a transceiver device TN120 , and a memory TN130 . In addition, the computing device TN100 may further include a storage device TN140 , an input interface device TN150 , an output interface device TN160 , and the like. Components included in the computing device TN100 may be connected by a bus TN170 to communicate with each other.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to an embodiment of the present invention are performed. The processor TN110 may be configured to implement procedures, functions, methods, and the like described in connection with an embodiment of the present invention. The processor TN110 may control each component of the computing device TN100 .

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110 . Each of the memory TN130 and the storage device TN140 may be configured as at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of a read only memory (ROM) and a random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transceiver TN120 may transmit or receive a wired signal or a wireless signal. The transceiver TN120 may be connected to a network to perform communication.

한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. On the other hand, the embodiment of the present invention is not implemented only through the apparatus and/or method described so far, and a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded may be implemented. And, such an implementation can be easily implemented by those skilled in the art from the description of the above-described embodiments.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiment of the present invention has been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also presented. It belongs to the scope of the invention.

10...건축물 90...이끼
100...획득 유니트 110...획득부
130...탐색부 150...편집부
200...분석 유니트 210...추출부
230...평탄화부 250...분류부
300...촬영부 310...비행 모듈
330...고도계 390...카메라
10...Building 90...Moss
100...Acquisition unit 110...Acquisition Department
130...Search Department 150...Edition Department
200...analysis unit 210...extraction unit
230...flattening unit 250...classifying unit
300...Record 310...Flight Module
330...altimeter 390...camera

Claims (8)

건축물 외면에서 자생하는 이끼(lichen)가 촬영된 이끼 이미지를 획득하는 획득 유니트;
상기 이끼 이미지의 분석을 통해 상기 건축물 주변의 대기 오염을 분석하는 분석 유니트;
를 포함하는 모니터링 장치.
an acquisition unit that acquires a moss image in which lichens growing on the exterior of a building are photographed;
an analysis unit for analyzing air pollution around the building through the analysis of the moss image;
A monitoring device comprising a.
제1항에 있어서,
상기 이끼 이미지에서 색상 특징을 추출하는 추출부, 추출된 상기 색상 특징을 평탄화시키는 평탄화부, 상기 평탄화부로부터 출력된 데이터를 오염 수준에 따라 분류하는 분류부가 마련된 모니터링 장치.
According to claim 1,
A monitoring device provided with an extraction unit for extracting color features from the moss image, a flattening unit for flattening the extracted color features, and a classification unit for classifying data output from the flattening unit according to contamination levels.
제1항에 있어서,
상기 분석 유니트는 CNN(Convolutional neural network) 기반의 VGG-16을 활용하는 이끼 분류 모델을 이용해서 상기 대기 오염을 분석하고,
상기 VGG-16은 컨볼루션(convolution)과 최대 풀 레이어(maxpool layer)가 조합된 16개의 스택을 갖고, 상기 VGG-16은 고밀도 레이어를 가지며,
상기 이끼 분류 모델은 상기 이끼 이미지에서 색상 특징을 추출하고, 추출된 상기 색상 특징을 컨볼루션(convolution) 및 최대 풀 레이어(maxpool layer) 스택에 통과시켜서 평탄화된 결과를 출력하고, 상기 평탄화된 결과를 고밀도 레이어(dense layer)에 통과시키며,
상기 분석 유니트는 상기 고밀도 레이어의 출력 데이터를 이용해 상기 이끼 이미지를 분류하고, 상기 분류 결과에 따라 상기 대기 오염을 분석하는 모니터링 장치.
According to claim 1,
The analysis unit analyzes the air pollution using a moss classification model using VGG-16 based on CNN (Convolutional Neural Network),
The VGG-16 has 16 stacks in which convolution and maxpool layers are combined, and the VGG-16 has a high-density layer,
The moss classification model extracts color features from the moss image, passes the extracted color features through convolution and a maxpool layer stack, and outputs a flattened result, and the flattened result is pass through the dense layer,
The analysis unit classifies the moss image by using the output data of the high-density layer, and analyzes the air pollution according to the classification result.
제1항에 있어서,
상기 건축물 외면을 촬영하는 촬영부로부터 복수의 촬영 이미지를 획득하는 획득부, 복수의 상기 촬영 이미지 중에서 상기 이끼가 포함된 특정 촬영 이미지를 탐색하는 탐색부, 상기 특정 촬영 이미지를 편집해서 상기 이끼 이미지를 생성하는 편집부가 마련되고,
상기 편집부는 상기 특정 촬영 이미지에 포함된 이끼를 확대해서 상기 이끼만 포함된 확대 이미지를 생성하고,
상기 이끼 이미지는 상기 확대 이미지를 포함하며,
상기 분석 유니트는 상기 확대 이미지에서 색상 정보를 추출하고, 추출된 색상 정보를 이용해서 상기 대기 오염을 분석하는 모니터링 장치.
According to claim 1,
An acquisition unit for acquiring a plurality of photographed images from a photographing unit for photographing the exterior of the building, a search unit for searching for a specific photographed image including the moss among a plurality of the photographed images, and editing the specific photographed image to obtain the moss image An editorial unit to create is provided;
The editing unit generates an enlarged image including only the moss by magnifying the moss included in the specific shot image,
The moss image includes the enlarged image,
The analysis unit extracts color information from the enlarged image, and analyzes the air pollution by using the extracted color information.
제1항에 있어서,
상기 건축물 외면을 촬영하는 촬영부로부터 복수의 촬영 이미지를 획득하는 획득부, 복수의 상기 촬영 이미지 중에서 상기 이끼가 포함된 상기 이끼 이미지를 탐색하는 탐색부, 상기 이끼 이미지에서 상기 이끼가 존재하는 이끼 영역을 추출하고 상기 이끼 영역의 색상 특징을 추출하는 추출부가 마련되고,
상기 분석 유니트는 상기 추출부에 의해 추출된 상기 색상 특징을 이용해서 상기 대기 오염을 분석하는 모니터링 장치.
According to claim 1,
An acquisition unit for acquiring a plurality of photographed images from a photographing unit for photographing the exterior of the building, a search unit for searching for the moss image including the moss from among a plurality of the photographed images, a moss area in which the moss exists in the moss image An extraction unit for extracting and extracting color features of the moss area is provided,
The analysis unit is a monitoring device for analyzing the air pollution by using the color feature extracted by the extraction unit.
제1항에 있어서,
공중을 비행하면서 상기 건축물 외면을 촬영하고, 비행 고도를 감지하는 촬영부가 마련되고,
상기 촬영부는 상기 건축물 외면을 촬영한 특정 시점에 상기 비행 고도를 감지하며,
상기 촬영부는 상기 특정 시점에 촬영된 촬영 이미지와 상기 특정 시점에 감지된 비행 고도를 상기 획득 유니트에 제공하고,
상기 획득 유니트는 상기 촬영 이미지를 이용해서 상기 이끼 이미지를 획득하고, 상기 이끼 이미지를 상기 비행 고도와 함께 상기 분석 유니트에 제공하며,
상기 분석 유니트는 상기 이끼 이미지를 대상으로 분석된 대기 오염에 상기 비행 고도를 매칭시켜서, 고도별 대기 오염 정보를 생성하고,
상기 촬영부는 중력 방향에 수직한 방향을 따라 연장되는 광축을 갖는 카메라를 이용해서 상기 건축물 외면을 촬영하는 모니터링 장치.
According to claim 1,
A photographing unit for photographing the exterior of the building while flying in the air and sensing the flight altitude is provided,
The photographing unit detects the flight altitude at a specific point in time when the exterior of the building is photographed,
The photographing unit provides the photographed image photographed at the specific time point and the flight altitude sensed at the specific time point to the acquisition unit,
the acquisition unit acquires the moss image by using the photographed image, and provides the moss image along with the flight altitude to the analysis unit;
The analysis unit matches the flight altitude to the air pollution analyzed for the moss image, and generates air pollution information for each altitude,
The photographing unit is a monitoring device for photographing the exterior of the building using a camera having an optical axis extending in a direction perpendicular to the direction of gravity.
모니터링 장치에 의해 수행되는 모니터링 방법에 있어서,
건축물 외면에서 자생하는 이끼(lichen)가 촬영된 이끼 이미지를 CNN(Convolutional neural network)에 적용하고, 상기 CNN을 통해 분석된 상기 이끼 이미지의 색상 특징을 이용해서 상기 건축물 주변의 대기 오염을 모니터링하는 모니터링 방법.
A monitoring method performed by a monitoring device, comprising:
Monitoring to monitor air pollution around the building by applying a moss image from which lichens growing on the exterior of a building are photographed to a convolutional neural network (CNN), and using the color characteristics of the moss image analyzed through the CNN Way.
모니터링 장치에 의해 수행되는 모니터링 방법에 있어서,
대기 오염에 따라 변하는 이끼(lichen)의 색상을 대기 오염도별로 학습하고,
상기 학습에 기초해, 이끼가 포함된 이끼 이미지가 입력되면 상기 이끼 이미지에 포함된 상기 이끼의 색상을 분석하는 이끼 분류 모델을 생성하며,
상기 이끼 분류 모델은 상기 이끼 이미지의 분석을 통해 분석된 색상을 기 학습된 대기 오염도별 색상에 맞춰 분류하는 모니터링 방법.
A monitoring method performed by a monitoring device, comprising:
Learning the color of lichen that changes according to air pollution by air pollution level,
Based on the learning, when a moss image containing moss is input, a moss classification model is generated that analyzes the color of the moss contained in the moss image,
The moss classification model is a monitoring method for classifying the color analyzed through the analysis of the moss image according to the pre-learned color for each air pollution degree.
KR1020200036502A 2020-03-25 2020-03-25 Monitoring device and monitoring method KR102386150B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200036502A KR102386150B1 (en) 2020-03-25 2020-03-25 Monitoring device and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200036502A KR102386150B1 (en) 2020-03-25 2020-03-25 Monitoring device and monitoring method

Publications (2)

Publication Number Publication Date
KR20210119843A true KR20210119843A (en) 2021-10-06
KR102386150B1 KR102386150B1 (en) 2022-04-12

Family

ID=78077365

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200036502A KR102386150B1 (en) 2020-03-25 2020-03-25 Monitoring device and monitoring method

Country Status (1)

Country Link
KR (1) KR102386150B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101051142B1 (en) 2008-07-25 2011-07-22 김학성 Yellow Sea air pollution and yellow sand monitoring technology using satellites
KR20160096332A (en) * 2015-02-05 2016-08-16 (주)유엔이 System and method for prediction of environmental pollution
KR20180109665A (en) * 2017-03-27 2018-10-08 삼성전자주식회사 A method and apparatus of image processing for object detection
US20190325334A1 (en) * 2018-04-23 2019-10-24 National Chung-Shan Institute Of Science And Technology Method for predicting air quality with aid of machine learning models

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101051142B1 (en) 2008-07-25 2011-07-22 김학성 Yellow Sea air pollution and yellow sand monitoring technology using satellites
KR20160096332A (en) * 2015-02-05 2016-08-16 (주)유엔이 System and method for prediction of environmental pollution
KR20180109665A (en) * 2017-03-27 2018-10-08 삼성전자주식회사 A method and apparatus of image processing for object detection
US20190325334A1 (en) * 2018-04-23 2019-10-24 National Chung-Shan Institute Of Science And Technology Method for predicting air quality with aid of machine learning models

Also Published As

Publication number Publication date
KR102386150B1 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
Guerra-Hernández et al. Comparison of ALS-and UAV (SfM)-derived high-density point clouds for individual tree detection in Eucalyptus plantations
Lisein et al. Discrimination of deciduous tree species from time series of unmanned aerial system imagery
CN108369635B (en) Method for aerial image acquisition and analysis
US9626598B2 (en) Method and apparatus for image processing
Laliberte et al. Image processing and classification procedures for analysis of sub-decimeter imagery acquired with an unmanned aircraft over arid rangelands
AU2015324185B2 (en) Multi-spectral image labeling with radiometric attribute vectors of image space representation components
Franklin et al. Rationale and conceptual framework for classification approaches to assess forest resources and properties
CN112633354B (en) Pavement crack detection method, device, computer equipment and storage medium
WO2021187231A1 (en) Affected tree diagnosis system, affected tree diagnosis method, and affected tree diagnosis program
CN113312999B (en) High-precision detection method and device for diaphorina citri in natural orchard scene
Öztürk et al. The impacts of vegetation indices from UAV-based RGB imagery on land cover classification using ensemble learning
KR102386150B1 (en) Monitoring device and monitoring method
Kakhani et al. A new neuro-fuzzy-based classification approach for hyperspectral remote sensing images
JP2008152709A (en) Geographic image processor and program
Carbonell-Rivera et al. Classification of UAV-based photogrammetric point clouds of riverine species using machine learning algorithms: A case study in the Palancia river, Spain
Аksamentov et al. Approach to obstacle localization for robot navigation in agricultural territories
Happold et al. Autonomous learning of terrain classification within imagery for robot navigation
Zefri et al. Advanced Classification of Failure-Related Patterns on Solar Photovoltaic Farms Through Multiview Photogrammetry Thermal Infrared Sensing by Drones and Deep Learning
Huck et al. Study of remote sensor spectral responses and data processing algorithms for feature classification
Mudegol et al. Grapes insect detection and monitoring using yolov4
Stewart Detecting invasive insects using uncrewed aerial vehicles and variational autoencoders
Jech et al. Land Cover Change Detection Near Small Water Bodies Based on RGB Uav Data: Case Study of the Pond Baroch, Czech Republic
Grue Machine Learning for Classifying Marine Vegetation from Hyperspectral Drone Data in the Norwegian coast
Durgun et al. Evaluation of Tree Diameter and Height Measurements in UAV Data by Integrating Remote Sensing and Machine Learning Methods
Durgun et al. Evaluation of Tree Diameter and Height Measurements in UAV Data through the Integration of Remote Sensing and Machine Learning Methods.

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant