KR20240035366A - 인공지능을 활용한 저수조 관리 시스템 - Google Patents

인공지능을 활용한 저수조 관리 시스템 Download PDF

Info

Publication number
KR20240035366A
KR20240035366A KR1020230119156A KR20230119156A KR20240035366A KR 20240035366 A KR20240035366 A KR 20240035366A KR 1020230119156 A KR1020230119156 A KR 1020230119156A KR 20230119156 A KR20230119156 A KR 20230119156A KR 20240035366 A KR20240035366 A KR 20240035366A
Authority
KR
South Korea
Prior art keywords
module
neural network
output
water tank
cbs
Prior art date
Application number
KR1020230119156A
Other languages
English (en)
Inventor
김현석
Original Assignee
(주)에리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에리 filed Critical (주)에리
Publication of KR20240035366A publication Critical patent/KR20240035366A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/06Electricity, gas or water supply
    • EFIXED CONSTRUCTIONS
    • E03WATER SUPPLY; SEWERAGE
    • E03BINSTALLATIONS OR METHODS FOR OBTAINING, COLLECTING, OR DISTRIBUTING WATER
    • E03B11/00Arrangements or adaptations of tanks for water supply
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/18Water
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Strategic Management (AREA)
  • Chemical & Material Sciences (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Water Supply & Treatment (AREA)
  • Public Health (AREA)
  • General Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Analytical Chemistry (AREA)
  • Medicinal Chemistry (AREA)
  • Food Science & Technology (AREA)
  • Hydrology & Water Resources (AREA)
  • Structural Engineering (AREA)
  • Pathology (AREA)

Abstract

본 발명의 저수조 관리 시스템은, 저수조에 담긴 물의 상태를 감지하여 상태 측정값을 출력하는 적어도 하나의 상태감지센서와, 상기 저수조의 영상을 획득하는 영상 획득부와, 상태 측정값들을 바탕으로 기 학습된 제 1 인공 신경망과, 저수조의 영상을 바탕으로 기 학습된 제 2 인공 신경망을 바탕으로 상기 저수조의 상태를 판단하는 프로세서를 포함하고, 상기 프로세서는, 상기 상태감지센서에 의해 획득된 영상을 상기 제 1 인공 신경망에 입력하여 출력된 제 1 출력값과, 상기 영상 획득부에 의해 획득된 영상을 상기 제 2 인공 신경망에 입력하여 출력된 제 2 출력값을 바탕으로 상기 저수조의 상태를 판단한다.

Description

인공지능을 활용한 저수조 관리 시스템{WATER TANK MANAGEMENT SYSTEM USING ARTIFICIAL INTELLIGENCE}
본 발명은 인공 신경망을 이용한 저수조 관리 시스템에 관한 것으로, 보다 상세하게는, 저수조의 수질을 감지하는 센서들의 측정값과, 영상 획득부를 통해 획득한 저수조의 영상을 인공 신경망에 입력하여 저수조의 상태를 판단하는 저수조 관리 시스템에 관한 것이다.
저수조는 지하수, 수돗물 등의 음용수를 다량으로 비축해 두는 탱크이다. 지하에 매설하는 수수조와 옥상에 설치하여 계단 밑으로 배수하는 고치수조로 나뉘며, 단독주택, 집합주택, 빌딩, 병원, 학교 등에 설치된다. 최근 저수조안의 오염이 심각한 문제가 되고 있다.
한국등록특허 10-2340325호(이하, '종래기술'이라고 함.)는 IoT 기반의 음용수용 저수조 관리 플랫폼 서비스 시스템을 개시하고 있다. 이 종래기술은 pH 센서, TDS 센서, 탁도 센서, 온도 센서 및 잔류 염소 센서를 포함하여 구성되는 IoT 센서를 이용하여 저수조 내 물을 측정하고, 이렇게 측정된 센서의 측정값들이 수질관리 플랫폼 서버로 전달되어, 수질 분석에 활용되고 있다.
이러한 종래기술은 여러 센서들을 통해 구한 여러 항목의 측정값들을 활용하여 수질을 결정하기는 하나, 수질을 직접 측정하는 방식이므로 이미 물이 오염된 경우 이를 가능한 신속하게 파악하여 관리자에게 알리는 기능에 국한되는 한계가 있다.
특히, 저수조의 청결상태, 즉, 저수조의 부식이나, 저수조 내벽에서의 조류, 곰팡이, 세균 등의 번식은 현재는 물론 잠재적으로도 수질을 오염시킬 가능성이 높은 요인이 되므로 음용수 관리를 위해서는 수질뿐만 아니라 저수조의 청결 상태까지 종합적으로 고려할 필요가 있다.
한국등록특허 10-2340325호
본 발명이 해결하고자 하는 과제는, 첫째, 인공지능을 활용한 저수조 관리 시스템을 제공하는 것이다.
둘째, 수질을 직접 측정하는 센서들의 측정 정보와 저수조를 촬영한 영상 정보를 함께 고려함으로써 보다 신뢰성 있는 물관리가 가능한 저수조 관리 시스템을 제공하는 것이다.
셋째, 저수조의 청결 상태를 정확하게 분석하여 청소를 유도함으로써 현재의 수질 오염 요소를 즉각적으로 제거할 수 있을 뿐만 아니라 잠재적인 수질 오염 요소도 미연에 방지할 수 있는 저수조 관리 시스템을 제공하는 것이다.
넷째, YOLOv5의 신경망을 GoshtNet을 참조하여 개선한 신규 신경망을 이용한 저수조 관리 시스템을 제공하는 것이다.
본 발명의 저수조 관리 시스템은, 저수조에 담긴 물의 상태를 감지하여 상태 측정값을 출력하는 적어도 하나의 상태감지센서와, 상기 저수조의 영상을 획득하는 영상 획득부와, 상태 측정값들을 바탕으로 기 학습된 제 1 인공 신경망과, 저수조의 영상을 바탕으로 기 학습된 제 2 인공 신경망을 바탕으로 상기 저수조의 상태를 판단하는 프로세서를 포함한다.
상기 프로세서는, 상기 상태감지센서에 의해 획득된 영상을 상기 제 1 인공 신경망에 입력하여 출력된 제 1 출력값과, 상기 영상 획득부에 의해 획득된 영상을 상기 제 2 인공 신경망에 입력하여 출력된 제 2 출력값을 바탕으로 상기 저수조의 상태를 판단한다.
상기 제 2 인공 신경망은, 상기 제 2 인공 신경망은 백본(Backbone) 신경망, 넥(Neck) 신경망 및 헤드(Head) 신경망을 포함할 수 있고, 상기 백본 신경망(100)은, 상기 이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈(101)과, 상기 컨볼루션 모듈(101)의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망(102, 103, 104, 105)과, N번째의 백본 서브 신경망(105)의 출력단에 연결된 SPPF 모듈(106)과, 상기 SPPF 모듈(160)의 출력단에 연결된 제 2 컨볼루션 모듈(170)을 포함할 수 있다.
상기 백본 서브 신경망(102, 103, 104, 105)은, 고스트넷(GhostNet)의 컨볼루션 모듈(121, 131, 141, 151)과, 상기 고스트넷의 컨볼루션 모듈(121, 131, 141, 151)과 직렬로 연결된 C3Ghost모듈(122, 132, 142, 151)을 포함할 수 있다.
상기 넥 신경망(200)은, 상기 컨볼루션 모듈(170)의 출력을 CBS 모듈(201)을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망(140)의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈(204)을 통과시키도록 구성될 수 있다.
상기 제 1 C3_F모듈(204)은, 직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹과, 상기 CBS 그룹과 병렬로 연결된 CBS 모듈과, 상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈과, 상기 컨케트네이트 모듈의 출력단에 연결된 CBS 모듈을 포함할 수 있다.
상기 넥 신경망(200)은, 상기 제 1 C3_F 모듈(204)의 출력을 제 1 CBS 모듈(205)을 통과시킨 후 업샘플링시킨 것을, N-2 번째 백본 서브 신경망(130)의 출력과 접합하는 제 1 컨케트네이트 모듈(207)과, 상기 제 1 컨케트네이트 모듈(207)의 출력을 처리하는 제 2 C3_F 모듈(208)을 더 포함할 수 있다.
상기 헤드 신경망(300)은, 상기 제 2 C3_F 모듈(208)의 출력이 입력되는 제 3 컨볼루션 모듈(301)을 포함할 수 있고, 상기 넥 신경망(200)은, 상기 제 3 컨볼루션 모듈(301)과 병렬로 연결되어 상기 제 2 C3_F 모듈(208)의 출력을 입력 받는 제 2 CBS 모듈(209)과, 상기 제 2 CBS 모듈(209)의 출력을 상기 제 1 CBS 모듈(205)의 출력과 접합하는 제 2 컨케트네이트 모듈(210)과, 상기 제 2 컨케트네이트 모듈(210)의 출력을 처리하는 제 3 C3_F 모듈(211)을 더 포함할 수 있다.
상기 헤드 신경망(300)은, 상기 제 3 C3_F 모듈(211)의 출력을 입력 받는 제 4 컨볼루션 모듈(302)을 더 포함할 수 있다.
상기 넥 신경망(300)은, 상기 제 3 C3_F 모듈(211)의 출력을 입력 받는 제 3 CBS 모듈(212)과, 상기 제 3 CBS 모듈(212)의 출력과 상기 CBS 모듈(201)의 출력을 접합하는 제 3 컨케트네이트 모듈(213)과, 상기 제 3 컨케트네이트 모듈(213)의 출력을 처리하는 제 4 C3_F 모듈(214)을 더 포함할 수 있다.
상기 헤드 신경망(300)은, 상기 제 4 C3_F 모듈(214)의 출력을 입력 받는 컨볼루션 모듈(303)을 더 포함할 수 있다.
본 발명의 저수조 관리 시스템은 첫째, 인공지능에 기반한 정확하고 신속한 저수조 상태 판단이 가능하고, 특히, 수질을 직접 측정하는 센서들의 측정 정보를 제 1 인공 신경망에 입력하여 얻은 수질 오염도와, 저수조를 촬영한 영상 정보를 제 2 인공 신경망에 입력하여 얻은 저수조의 청결도 함께 고려함으로써 저수조의 상태를 종합적으로 판단하고, 신뢰성 있는 관리가 가능하다.
둘째, 현재의 수질 상태는 양호하다고 하더라도, 잠재적으로 수질을 오염시킬 우려가 있는 요소인 저수조의 청결 상태를 분석하여 저수조의 청결 관리를 가능케함으로써 수질 오염을 사전에 예방할 수 있는 효과가 있다.
셋째, GhostNet을 참조하여 기존의 YOLO 신경망을 개선함으로써 보다 정확도를 높일 수 있으면서도, 가볍고 신속한 추론이 가능한 효과가 있다.
넷째, 기존의 YOLOv5와 비교하여, 약 1.02%의 정확도가 향상되었으며, 추론시간을 기준으로 YOLOv5 대비 약 40ms이상의 속도 향상을 보이는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 저수조 관리 시스템을 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 저수조 관리 어플리케이션의 개요도이다.
도 3은 저수조 관리 어플리케이션을 구성하는 제 1 인공 신경망을 도시한 것이다.
도 4는 저수조 관리 어플리케이션을 구성하는 제 2 인공 신경망의 구조도이다.
도 5는 도 4에 도시된 CBS 모듈과 C3_F 모듈의 구조를 도시한 것이다.
도 6은 도 4에 도시된 C3Ghost 모듈의 구조를 도시한 것이다.
도 7은 본 발명의 일 실시예에 따른 저수조 관리 방법을 도시한 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
도 1은 본 발명의 일 실시예에 따른 저수조 관리 시스템을 도시한 것이다. 도 1을 참조하면, 본 발명의 일 실시예에 따른 저수조 관리 시스템(1)은 저수조에 담긴 물의 상태(이하, '수질'이라고 함.)를 감지하는 센서부(10)와, 저수조의 영상을 획득하는 영상 획득부(20)와, 센서부(10)에 의해 감지된 상태 정보와 영상 획득부(20)에 의해 획득된 영상 정보를 바탕으로 저수조의 관리 상태를 판단하는 프로세서(30)를 포함할 수 있다.
센서부(10)는 저수조에 담긴 물의 상태를 감지하여 상태 측정값을 출력하는 적어도 하나의 상태감지센서(11~ 17)를 포함할 수 있다. 상기 상태감지센서는, 저수조에 담긴 물의 특성들을 측정하는 것으로, 온도를 측정하는 수온센서(11), 탁도를 측정하는 탁도센서(12), 수소이온의 농도를 측정하는 pH센서(13), 염도를 측정하는 염도센서(14), 전기 전도도를 측정하는 전도도 센서(15), 총 용존 고형물질(TDS: Total Dissolved Solids)을 측정하기 위한 TDS 센서(16) 또는 잔류 염소를 측정하는 잔류 염소 센서(17)일 수 있다.
센서부(10) 또는 각각의 상태감지센서들은 데이터 전송을 위한 무선통신 모듈을 구비할 수 있으며, 이 경우, 별도의 유선 통신선을 시공할 필요가 없기 때문에 시공이 쉽고 시공비를 절감할 수 있다.
센서부(10)에 의해 구해진 측정값들은 데이터 저장부(50)에 저장될 수 있다.
영상 획득부(20)는 실시간으로 주변 영상을 촬영하는 카메라 또는 CCTV를 포함할 수 있다. 상기 카메라에 의해 촬영된 영상(또는, 이미지)은 디지털 정지 영상 또는 동영상이며, 영상 획득부(20)는 영상을 무선 또는 유선의 통신망으로 전송하기 위한 통신모듈을 포함할 수 있다. 상기 통신모듈은 바람직하게는 무선 통신이 가능한 것이나, 반드시 이에 한정되어야 하는 것은 아니며, 유선 통신 기능을 구비한 것도 가능하다.
영상 획득부(20)를 구성하는 카메라는 저수조의 내부 또는 외부에 설치될 수 있다. 실시예에 따라 상기 카메라는 저수 공간을 한정하는 저수조 내부의 표면에 대한 영상을 획득할 수 있다.
영상 획득부(20)에 의해 획득된 영상(또는 이미지)은 데이터 저장부(50)에 저장될 수 있다. 또한, 데이터 저장부(50)에는 저수조 관리 어플리케이션(AA)이 저장될 수 있다. 프로세서(30)는 상기 저수조 관리 어플리케이션(AA)을 구동하여 데이터 저장부(50)에 저장된 영상을 바탕으로 저수조 관리상태를 분석할 수 있으며, 이때, 센서부(10)의 측정값들도 분석에 활용될 수 있다.
프로세서(30)는 센서부(10)의 상태 측정값, 영상 획득부(20)의 영상 등 각종 데이터를 처리하고 어플리케이션(AA)을 구동하는 하드웨어며 중앙처리장치(Central Processing Unit)를 포함할 수 있다.
후술하는 저수조 관리 어플리케이션(AA)은 프로세서(30)에 의해 실행될 수 있으며, 이 경우, 관리 어플리케이션(AA)의 실행 결과가 통신망을 통해 관리장치(60)로 전달될 수 있다.
더 나아가, 관리 어플리케이션(AA)의 실행 결과는 통신망을 통해 표시장치(80) 및/또는 사용자 단말기(90)로 전송되는 것도 가능하다.
실시예에 따라, 표시장치(80)는 센서부(10)에 의해 측정된 각종 상태 측정값들을 표시하도록 구성되는 것도 가능하다.
사용자 단말기(90)는 PC(personal computer), 모바일 기기(예를 들어, 노트북, 스마트 폰, 스마트 워치, 스마트 패드 등) 등 일 수 있다.
한편, 실시예에서 프로세서(30)는 관리장치(60)와는 별도로 구비되나, 이에 한하지 않고, 실시예에 따라, 관리장치(60)를 구성하는 것일 수도 있다.
한편, 저수조 관리 시스템(1)은 프로세서(30)에 의해 처리된 데이터(또는, 정보)들을 통신망으로 전송하기 위한 통신부(40)를 포함할 수 있다. 통신부(40)는 바람직하게는 무선 통신이 가능한 것이나, 이에 한하지 않고 유선 통신도 가능하다.
저수조 관리 시스템(1)은 관리장치(60), 소독장치(70)를 더 포함할 수 있다.
소독장치(70)는 저수조를 소독하기 위한 것으로, 살균 소독을 위한 약액(예를 들어, 염소)을 물에 주입하는 약액 주입기, 자외선을 조사하는 UV살균기 등을 포함할 수 있다.
소독장치(70)는 저수조 안에 담긴 물을 직접 살균 또는 소독하도록 구성될 수 있다. 다만, 이에 한하지 않고, 실시예에 따라서는 저수조 내벽을 살균 또는 소독하도록 구성되는 것도 가능하다. 예를 들어, 저수조 내벽에서 성장하는 녹조류나 곰팡이 등의 유해 생물에 약액을 가하거나 자외선을 조사하도록 구성될 수 있다.
소독장치(70)는 통신망에 연결될 수 있다. 이 경우, 소독장치(70)는 프로세서(30) 및/또는 관리장치(60)의 제어에 의해 소독 기능을 수행할 수 있다.
관리장치(60)는 통신망에 연결될 수 있다. 프로세서(30)에 의해 이루어진 데이터 처리 결과가 통신부(40)를 통해 통신망으로 전송되어 관리장치(60)로 전달될 수 있다.
도 2는 본 발명의 일 실시예에 따른 저수조 관리 어플리케이션(AA)의 개요도이다. 도 2를 참조하면, 저수조 관리 어플리케이션(AA)은 인공 신경망 기반의 기계학습 모델일 수 있으며, 구체적으로는, 후술하는 제 1 인공 신경망(A1)과 제 2 인공 신경망(A2)을 포함할 수 있다.
도 3은 저수조 관리 어플리케이션(AA)을 구성하는 제 1 인공 신경망(A1)을 도시한 것이다. 도 3을 참조하면, 제 1 인공 신경망(A1)은 센서부(10)에 의해 감지된 상태 측정값을 바탕으로 저수조의 상태(예를 들어, 수질)를 판단하기 위한 것이다. 구체적으로, 제 1 인공 신경망(A1)은 센서부(10)를 구성하는 적어도 하나의 상태감지센서(11~17)로부터 출력된 측정값들을 입력 받는다.
제 1 인공 신경망(A1)은 센서부(10)로부터 출력된 적어도 하나의 상태 측정값을 바탕으로 저수조 내의 물의 오염도를 분석하기 위한 AN(Articial Neural Networks)일 수 있다.
이 경우, 제 1 인공 신경망(A1)은 상태감지센서(11~17)의 측정값들로 이루어진 데이터셋(date set)을 이용하여 미리 학습될 수 있다. 제 1 인공 신경망(A1)은 상태 측정값들을 바탕으로 학습되는 회귀(regression) 기반의 ANN(Artificial Neural Network) 일 수 있다.
제 1 인공 신경망(A1)은 출력 레이어(layer)에서 단순히 수질의 오염 여부를 출력하는 구조(Simple Neural Network)일 수 있다. 제 1 인공 신경망(A1)은, 바람직하게는, 15 레이어 이상으로 구성되나, 반드시 이에 한정되어야 하는 것은 아니다.
한편, 도 3은 제 1 인공 신경망(A1)의 일례로 1개 이상의 히든 레이어(hidden layer)를 갖는 다층 퍼셉트론(multilayer perception) 모델을 보이고 있다.
L3 레이어에서 사용되는 활성화 함수(activation function)은 가부(예를 들어, 오염/비오염)을 판정하는 것이다. 다만, 실시예에 따라서는 더 많은 클래스(class)로 분류가 가능하도록 소프트맥스 함수(Softmax Function)이 적용되는 것도 가능하다.
여기서, 소프트맥스 함수는 3 가지 이상의 결과를 분류하는 다중 클래스 분류에서 사용되는 활성화 함수로서, 출력 레이어(output layer)에 사용되며, 이진 분류도 가능하다. 이진 분류를 하게 될 경우 Sigmoid Function과 실질적으로 동일한 결과를 가져온다.
... (1)
제 1 인공 신경망(A1)을 훈련시키기 위한 손실함수(loss function)는 RMSE(Root Mean Square Error)를 기반으로 한 것일 수 있으나, 반드시 이에 한정되어야 하는 것은 아니다.
... (2)
한편, 이상에서 설명한 것에 한하지 않고, 제 1 인공 신경망(A1)은 기 알려진 다양한 형태의 ANN 모델로 이루어질 수 있다.
도 4는 저수조 관리 어플리케이션을 구성하는 제 2 인공 신경망의 구조도이다. 도 5는 도 4에 도시된 CBS 모듈과 C3_F 모듈의 구조를 도시한 것이다. 도 6은 도 4에 도시된 C3Ghost 모듈의 구조를 도시한 것이다. 이하, 도 4 내지 도 6을 참조한다.
제 2 인공 신경망(A2)은 영상 획득부(20)를 통해 획득한 영상을 바탕으로 저수조의 상태(예를 들어, 저수조 내벽의 청결상태)를 판단하기 위한 것이다. 구체적으로, 제 2 인공 신경망(A2)은 영상 획득부(20)에 의해 획득된 영상을 입력 받는다.
제 2 인공 신경망(A2)은 저수조의 영상들로 이루어진 데이터셋(date set)을 이용하여 미리 학습될 수 있다. 제 2 인공 신경망(A2)은 CNN(Convolutional Neural Network) 기반의 신경망일 수 있다.
제 2 인공 신경망(A2)은 YOLOv5의 신경망을 GoshtNet을 참조하여 개선한 것일 수 있다.
YOLO는 한번에 보고 바로 처리를 하겠다(You Only Look Once)라는 의미로, YOLO 신경망은 속도가 빠르다는 장점을 내세운 객체 감지(Object Detection) 신경망입니다. YOLO는 yolov1부터 2020년 7월 기준으로 yolov5까지 공개되어 개발자분들 뿐만 아니라 비전공자들부터 학생들까지 많은 사람들이 활용하고 있다.
YOLO 신경망은 단일 신경망 구조이기 때문에 구성이 단순하며 빠르고, 주변 정보까지 학습하며 이미지 전체를 처리하기 때문에 background error가 적으며, 훈련 단계에서 보지 못한 새로운 이미지에 대해서도 검출 정확도가 높은 장점이 있는 반면 SOTA 객체 검출 모델에 비해 정확도(mAP)가 다소 떨어지는 단점이 있다.
제 2 인공 신경망(A2)은, YOLO 신경망을 개선하여 장점인 속도는 살리면서 다소 부족한 정확도를 향상시킨 신규 신경망(이하, 'AeryNet'이라고 함.)에 관한 것이다. 실시예에서, AeryNet은, YOLOv5 신경망을 구성하는 C3 모듈 대신 G3Ghost 모듈을 적용한 백본 신경망(Backbone network)을 구성하고, CBS 모듈을 기반으로 새롭게 개발한 C3_F 모듈을 이용하여 넥 신경망(Neck network)을 구성한 것이다.
제 2 인공 신경망(A2)은 백본 신경망(100, Backbone network), 넥 신경망(200, Neck network) 및 헤드 신경망(300, Head network)를 포함할 수 있다. 백본 신경망(100), 넥 신경망(200) 및/또는 헤드 신경망(300)은 YOLO 신경망을 기반으로 개선한 것일 수 있다. 실시예에서는 YOLOv5를 개선한 것이나, 반드시 이에 한정되어야 하는 것은 아니다.
백본 신경망(100)은 입력 이미지를 특징맵(feature map)으로 변환할 수 있고, 헤드 신경망(300)은 특징맵의 위치(location) 작업을 하는 것으로 클래스 예측(predict classes)과 바운딩 박스(bounding box) 작업을 수행할 수 있다. 그리고, 넥 신경망(200)은 백본 신경망(100)과 헤드 신경망(200)을 연결하는 부분으로, 특징맵을 정제하고 재구성하는 역할을 할 수 있다.
한편, 백본 신경망(100)은, 컨볼루션 모듈(110), N개의 백본 서브 신경망(120, 130, 140, 150), SPPF 모듈(160) 및 컨볼루션 모듈(170)을 포함할 수 있다.
컨볼루션 모듈(110)로 이미지가 입력되며, 상기 이미지는 영상 획득부(10)에 의해 획득된 것일 수 있다.
N개의 백본 서브 신경망(120, 130, 140, 150)은 서로 직렬로 연결되어 앞의 백본 서브 신경망의 출력이 뒤의 백본 서브 신경망의 입력이 되도록 구성되어 있다. 각각의 백본 서브 신경망(120, 130, 140, 150)은 고스트넷(GhostNet)의 컨볼루션 모듈(121, 131, 141, 151)과, 상기 고스트넷의 컨볼루션 모듈과 직렬로 연결된 C3Ghost모듈(122, 132, 142, 152)을 포함할 수 있다.
N개의 백본 서브 신경망(120, 130, 140, 150) 중 적어도 하나로부터 출력된 결과는 넥 신경망(200)을 구성하는 컨케트네이트 모듈('Cancat', Concatenate module)로 입력될 수 있다. 실시예에서 백본 신경망(100)은 4개(N=4)의 백본 서브 신경망(120, 130, 140, 150)을 포함하고, 2번째 백본 서브 신경망(130)의 출력과 3번째 백본 서브 신경망(140)의 출력이 넥 신경망(200)의 두 개의 컨케트네이트 모듈(203, 207)로 각각 입력된다.
한편, C3Ghost 모듈(122, 132, 142, 152)의 구조는 도 4에 도시된 것처럼, 고스트넷의 컨볼루션(GhostConv)과 보틀넥(GhostBottelneck)을 기반으로 구성된 것으로 이미 잘 알려진 것이며, 이하, 구체적인 설명이 없더라도 아래 참고문헌들에 개시된 내용들을 원용하는 것으로 한다.
참고문헌 1: Yang,W.; Ma, X.; Hu,W.; Tang, P. Lightweight Blueberry Fruit Recognition Based on Multi-Scale and Attention Fusion NCBAM. Agronomy 2022, 12, 2354. https://doi.org/10.3390/agronomy12102354
참고문헌 2: Citation: Chen, X.; Lian, Q.; Chen, X.; Shang, J. Surface Crack Detection Method for Coal Rock Based on Improved YOLOv5. Appl. Sci. 2022, 12, 9695. https://doi.org/10.3390/app12199695
SPPF 모듈(160)은 YOLOv5의 SPP(Spatial Pyramid Pooling) 모듈을 개선한 것으로(참고문헌 1, 2 참조), N번째의 백본 서브 신경망(150)의 출력단에 연결될 수 있다. 즉, N번재 백본 서브 신경망(150)의 C3Ghost 모듈(152)로부터 출력된 결과가 SPPF 모듈(160)로 입력될 수 있다.
컨볼루션 모듈(170)은 SPPF 모듈(160)의 출력단에 연결될 수 있다.
넥 신경망(200)은, 컨볼루션 모듈(170)의 출력이 입력되는 CBS 모듈(201)과, CBS 모듈(201)의 출력단에 연결된 업샘플 모듈(upsample module, 202)과, 업샘플 모듈(202)의 출력단에 연결된 컨케트네이트 모듈(203)을 포함할 수 있다.
CBS 모듈(201)은, 도 3에 도시된 바와 같이 컨볼루션 모듈(conv), 배치 정규화 모듈(BatchNorm) 및 SILU 모듈(Sigmoid Linear Unit, SILU)가 직렬로 연결된 구조일 수 있다.
CBS 모듈(201)은 잘 알려진 것으로, 이하, 구체적인 설명이 없더라도 아래 참고문헌 3에 개시된 내용들을 원용하는 것으로 한다.
참고문헌 3: Qingqing Xu, Zhiyu Zhu, Huilin Ge, Zheqing Zhang, Xu Zang, "Effective Face Detector Based on YOLOv5 and Superresolution Reconstruction", Computational and Mathematical Methods in Medicine, 9 pages, 2021
컨볼루션 모듈(170)의 출력이 CBS 모듈(201)을 통과한 후 업샘플 모듈(202)에서 업샘플링(up sampling)된 후 컨케트네이트 모듈(203)으로 입력될 수 있다. 또한, N-1번째 백본 서브 모듈(140)의 출력도 컨케트네이트 모듈(203)로 입력되어, 상기한 업샘플링된 결과와 접합(Concatenate)될 수 있다.
컨케트네이트 모듈(203)에서 접합된 결과는 C3_F 모듈(204)로 입력될 수 있다. C3_F 모듈(204)은, 도 3에 도시된 바와 같이, 직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹과, 상기 CBS 그룹과 병렬로 연결된 CBS 모듈을 포함할 수 있다. 그리고, 상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈과, 상기 컨케트네이트 모듈의 출력단에는 CBS 모듈이 더 연결되도록 구성된다.
한편, 넥 신경망(300)은, C3_F 모듈(204)의 출력을 입력 받는 CBS 모듈(205)과, CBS 모듈(205)의 출력을 업샘플링시키는 업샘플 모듈(206)과, 업샘플 모듈(206)의 출력단에 연결된 컨케트네이트 모듈(207)을 더 포함할 수 있다.
N-2 번째 백본 서브 신경망(130)의 출력은 컨케트네이트 모듈(207)로도 입력이 이루어져, 업샘플 모듈(206)의 출력과 접합된다.
컨케트네이트 모듈(207)의 출력단에는 C3_F 모듈(208)이 연결될 수 있다. C3_F(208)로부터 출력된 결과는 헤드 신경망(300)의 컨볼루션 모듈(301)로 입력될 수 있다.
한편, C3_F 모듈(208)의 출력단에는 CBS 모듈(209)이 연결될 수 있다. 그리고, CBS 모듈(209)의 출력은 다시 컨케트네이트 모듈(210)로 입력되며, 이때 컨케트네이트 모듈(210)에는 전술한 CBS 모듈(205)의 출력도 함께 입력되어 양자가 접합될 수 있다.
이렇게 접합된 결과는 다시 C3_F 모듈(211)을 통과한 후 헤드 신경망(300)의 컨볼루션 모듈(302)로 전달되며, 이와 동시에 C3_F 모듈(211)의 출력단에는 CBS 모듈(212)이 더 연결되어, 상기 접합된 결과가 CBS 모듈(212)로도 입력된다.
CBS 모듈(212)의 출력단에는 컨케트네이트 모듈(213)이 연결될 수 있다. CBS 모듈(201)의 출력과 CBS 모듈(212)의 출력이 컨케트네이트 모듈(213)에서 접합되고, 그 결과는 C3_F 모듈(214)을 통과한 후 헤드 신경망(300)의 컨볼루션 모듈(303)로 입력된다.
한편, 영상 획득부(10)가 화재가 찍힌 사진(예를 들어, 연기나 불꽃이 찍힌 사진)을 촬영하여 얻은 이미지를 제 2 인공 신경망(A2)이 실제 화재로 오인하는 것을 방지하기 위해 신경망을 훈련(training)시킬 필요가 있다. 이를 위한 Dataset을 준비하고, 별도의 Class로 라벨링하여 신경망을 훈련시켰으며, 도 5는 실시예에 적용한 가짜 불과 연기를 구분하기 위한 데이터셋을 보인 것으로, 휴대폰 및 기타 사진의 형태로 제공되는 화면에서 불과 연기를 추출하여 Fake fire의 Class를 지정하여 신경망을 훈련시켰다.
실시예에서 신경망을 훈련하기 위한 손실함수는 다음의 식 (3) 과 같이 정의하였다.
여기서 lbox는 bounding box regression 손실함수를 나타내고, lcls는 clssification 손실함수를 나타내며, lobj는 object의 confidence 손실함수를 각각 나타낸다. lbox, lcls, 그리고 lobj의 수식은 각각 (4), (5), 그리고 (6)와 같이 정의한다.
여기서, 는 position loss coefficient를 의미하며, 는 category loss coefficient를 나타내고, x, y은 대상의 실재 좌표를 나타낸다. 그리고, w, h은 대상의 넓이와 높이를 나타낸다.
YOLOv5에서는 Bounding box가 겹치는 문제를 해결하기 위해서 GIoU를 손실함수로 사용하여, 최적의 프레임을 구한다. 식 (7)와 (8)은 제안 신경망에 사용된 GIoU 손실함수를 정의한다.
여기서, C는 A와 B를 포함하는 가장 작은 bounding box를 나타낸다. GIoU는 A와 B의 상황을 획득하고, IoU와 유사한 스케일 불변특성을 가지고 있다. GIoU는 IoU의 하한으로 볼 수 있다. GIoU는 커버영역 뿐만 아니라 다른 중복되지 않는 영역에 초점을 맞추고 있어 둘 사이의 교차 수준의 미러 수준을 높일 수 있다.
한편, 프로세서(30)는, 상태감지센서(11~17)에 의해 획득된 영상을 제 1 인공 신경망(A1)에 입력하여 출력된 제 1 출력값과, 영상 획득부(20)에 의해 획득된 영상을 제 2 인공 신경망(A2)에 입력하여 출력된 제 2 출력값을 바탕으로 저수조의 상태를 판단할 수 있다.
여기서, 상기 제 1 출력값은 수질을 판단한 결과(예를 들어, 적합/부적합)일 수 있으며, 상기 제 2 출력값은 저수조의 청결상태(예를 들어, 청결/불결)일 수 있다. 다만, 실시예에 따라 제 1 인공 신경망(A1) 및/또는 제 2 인공 신경망(A2)을 각각 3개 이상의 결과를 분류하도록 구성하는 경우 상기 제 1 출력값 및/또는 제 2 출력값은 더 세분화된 결과일 수 있다.
더 나아가, 프로세서(30)는 상기 제 1 출력값과 상기 제 2 출력값을 바탕으로 기 설정된 기준 또는 알고리즘에 따라 저수조의 상태를 종합적으로 판단한 결과를 출력할 수 있다.
도 7은 본 발명의 일 실시예에 따른 저수조 관리 방법을 도시한 순서도이다. 도 7을 참조하면, 본 발명의 일 실시예에 따른 저수조 관리 방법은, 데이터 입력 단계(S1), 저수조 오염 판단 단계(S2), 저수조 오염 알림 단계(S3) 및/또는 자동 소독 단계(S4)를 포함할 수 있다.
데이터 입력 단계(S1)는, 프로세서(30)에 저수조의 관리 상태를 판단하는데 필요한 데이터가 입력되는 단계일 수 있다. 상기 데이터는 센서부(10)의 상태 측정값 및 영상 획득부(20)에 의해 획득된 영상 중 적어도 하나 일 수 있다.
데이터들이 입력되면, 저수조 오염 판단 단계(S2)가 실시되고, 프로세서(30)는 전술한 저수조 관리 어플리케이션(AA)을 실행하여, 제 1 인공 신경망(A1) 및/또는 제 2 인공 신경망(A2)을 기반으로 한 저수조 상태 분석 작업을 실시하여 결과를 출력할 수 있다.
S2 단계에서 저수조가 오염된 것으로 판단된 경우, 프로세서(30)는 그 결과를 통신부(40)를 통해 통신망으로 전송하며, 저수조의 관리자 또는 사용자가 통신망에 접속된 다른 장치(60, 80, 90)를 통해 저수조의 오염을 인식할 수 있게 된다.(저수조 오염 알림 단계(S3))
한편, S2단계에서 저수조가 오염된 것으로 판단된 경우, 소독장치(70)를 통한 저수조의 소독(S4)이 실시될 수 있으며, 이 단계에서의 소독장치(70)의 제어는 프로세서(30), 관리장치(60) 및 사용자 단말기(90) 중 적어도 하나를 통해 이루어질 수 있다.
한편, 저수조 관리 어플리케이션(AA)은 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램 형태로 제공될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에는, 일시적이지 않은 유형의 매체(nontransitory computer recording medium)(예를 들어, 각종 주기억 장치 또는 보조 기억 장치) 기록 매체뿐만 아니라, 전파 신호(transitory computer recording medium)(예를 들어, 네트워크를 통해 제공 가능한 데이터 신호)도 포함된다.

Claims (5)

  1. 저수조에 담긴 물의 상태를 감지하여 상태 측정값을 출력하는 적어도 하나의 상태감지센서;
    상기 저수조의 영상을 획득하는 영상 획득부; 및
    상태 측정값들을 바탕으로 기 학습된 제 1 인공 신경망과, 저수조의 영상을 바탕으로 기 학습된 제 2 인공 신경망을 바탕으로 상기 저수조의 상태를 판단하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 상태감지센서에 의해 획득된 영상을 상기 제 1 인공 신경망에 입력하여 출력된 제 1 출력값과, 상기 영상 획득부에 의해 획득된 영상을 상기 제 2 인공 신경망에 입력하여 출력된 제 2 출력값을 바탕으로 상기 저수조의 상태를 판단하는 저수조 관리 시스템.
  2. 제 1 항에 있어서,
    상기 제 2 인공 신경망은,
    상기 제 2 인공 신경망은 백본(Backbone) 신경망, 넥(Neck) 신경망 및 헤드(Head) 신경망을 포함하고,
    상기 백본 신경망(100)은,
    상기 이미지가 입력되는 제 1 컨볼루션(Convolution) 모듈(101);
    상기 컨볼루션 모듈(101)의 출력을 처리하도록 직렬로 연결된 N개의 백본 서브 신경망(102, 103, 104, 105);
    N번째의 백본 서브 신경망(105)의 출력단에 연결된 SPPF 모듈(106); 및
    상기 SPPF 모듈(160)의 출력단에 연결된 제 2 컨볼루션 모듈(170)을 포함하고,
    상기 백본 서브 신경망(102, 103, 104, 105)은,
    고스트넷(GhostNet)의 컨볼루션 모듈(121, 131, 141, 151); 및
    상기 고스트넷의 컨볼루션 모듈(121, 131, 141, 151)과 직렬로 연결된 C3Ghost모듈(122, 132, 142, 151)을 포함하고,
    상기 넥 신경망(200)은,
    상기 컨볼루션 모듈(170)의 출력을 CBS 모듈(201)을 통과시킨 후 업샘플링(upsampling)하여 N-1번째 백본 서브 신경망(140)의 출력과 접합(Concatenate)한 후 제 1 C3_F 모듈(204)을 통과시키도록 구성되고,
    상기 제 1 C3_F모듈(204)은,
    직렬로 연결된 세 개의 CBS 모듈로 구성된 CBS 그룹;
    상기 CBS 그룹과 병렬로 연결된 CBS 모듈;
    상기 CBS 그룹의 출력과 상기 병렬로 연결된 CBS 모듈의 출력을 접합하는 컨케트네이트 모듈; 및
    상기 컨케트네이트 모듈의 출력단에 연결된 CBS 모듈을 포함하는 저수조 관리시스템.
  3. 제 2 항에 있어서,
    상기 넥 신경망(200)은,
    상기 제 1 C3_F 모듈(204)의 출력을 제 1 CBS 모듈(205)을 통과시킨 후 업샘플링시킨 것을, N-2 번째 백본 서브 신경망(130)의 출력과 접합하는 제 1 컨케트네이트 모듈(207); 및
    상기 제 1 컨케트네이트 모듈(207)의 출력을 처리하는 제 2 C3_F 모듈(208)을 더 포함하는 저수조 관리 시스템.
  4. 제 3 항에 있어서,
    상기 헤드 신경망(300)은,
    상기 제 2 C3_F 모듈(208)의 출력이 입력되는 제 3 컨볼루션 모듈(301)을 포함하고,
    상기 넥 신경망(200)은,
    상기 제 3 컨볼루션 모듈(301)과 병렬로 연결되어 상기 제 2 C3_F 모듈(208)의 출력을 입력 받는 제 2 CBS 모듈(209);
    상기 제 2 CBS 모듈(209)의 출력을 상기 제 1 CBS 모듈(205)의 출력과 접합하는 제 2 컨케트네이트 모듈(210); 및
    상기 제 2 컨케트네이트 모듈(210)의 출력을 처리하는 제 3 C3_F 모듈(211)을 더 포함하고,
    상기 헤드 신경망(300)은,
    상기 제 3 C3_F 모듈(211)의 출력을 입력 받는 제 4 컨볼루션 모듈(302)을 더 포함하는 저수조 관리 시스템.
  5. 제 4 항에 있어서,
    상기 넥 신경망(300)은,
    상기 제 3 C3_F 모듈(211)의 출력을 입력 받는 제 3 CBS 모듈(212);
    상기 제 3 CBS 모듈(212)의 출력과 상기 CBS 모듈(201)의 출력을 접합하는 제 3 컨케트네이트 모듈(213); 및
    상기 제 3 컨케트네이트 모듈(213)의 출력을 처리하는 제 4 C3_F 모듈(214)을 더 포함하고,
    상기 헤드 신경망(300)은,
    상기 제 4 C3_F 모듈(214)의 출력을 입력 받는 컨볼루션 모듈(303)을 더 포함하는 저수조 관리 시스템.
KR1020230119156A 2022-09-08 2023-09-07 인공지능을 활용한 저수조 관리 시스템 KR20240035366A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220114219 2022-09-08
KR20220114219 2022-09-08

Publications (1)

Publication Number Publication Date
KR20240035366A true KR20240035366A (ko) 2024-03-15

Family

ID=90272689

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230119156A KR20240035366A (ko) 2022-09-08 2023-09-07 인공지능을 활용한 저수조 관리 시스템

Country Status (1)

Country Link
KR (1) KR20240035366A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102340325B1 (ko) 2021-09-28 2021-12-16 금동한 IoT 기반 음용수용 저수조 관리 플랫폼 서비스 시스템 및 그 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102340325B1 (ko) 2021-09-28 2021-12-16 금동한 IoT 기반 음용수용 저수조 관리 플랫폼 서비스 시스템 및 그 방법

Similar Documents

Publication Publication Date Title
Rijal et al. Ensemble of deep neural networks for estimating particulate matter from images
Tan et al. Automatic detection of sewer defects based on improved you only look once algorithm
KR102579904B1 (ko) 비전 검사 관리 방법 및 비전 검사 시스템
KR102536822B1 (ko) 3d 디지털 트윈 댐 안전 관리 시스템 및 방법
KR102324684B1 (ko) 무인관측 기반 해양쓰레기 모니터링 시스템 및 이를 이용한 해양쓰레기 모니터링 방법
KR102423579B1 (ko) 3d 모델링 기반 댐 안전 관리를 위한 통합 유지보수 관제 방법 및 시스템
CN113642474A (zh) 一种基于yolov5的危险区域人员监控方法
US11087497B2 (en) Chemical detection system for water source
Rahman et al. A novel machine learning approach toward quality assessment of sensor data
Li et al. Vision-based defect inspection and condition assessment for sewer pipes: A comprehensive survey
CN112989989A (zh) 一种安检方法、装置、设备及存储介质
CN110298830A (zh) 基于卷积神经网络的新拌混凝土振捣表观质量识别方法
CN111898677A (zh) 一种基于深度学习的浮游生物自动检测方法
CN111104976B (zh) 一种基于时间序列图像的蓝藻覆盖率计算方法
KR20240035366A (ko) 인공지능을 활용한 저수조 관리 시스템
Ning et al. Small obstacle size prediction based on a GA-BP neural network
Rampal et al. Interpretable deep learning applied to rip current detection and localization
Su et al. Dual-light inspection method for automatic pavement surveys
Ntshako et al. Potable water quality monitoring: A survey of intelligent techniques
KR20220167826A (ko) 인공지능 기반의 시각지능을 활용한 비전 검사에 따른 불량 검출 통합 제어 시스템
Yang et al. Sewer pipe defects diagnosis assessment using multivariate analysis on CCTV video imagery
KR20220167827A (ko) 인공지능 기반의 불량 검출이 가능한 스마트 팩토리 시스템
CN110674764A (zh) 一种工地裸露土方的检测方法、装置及系统
CN117221391B (zh) 基于视觉语义大模型的智能摄像机推送方法、装置及设备
Aldea et al. Robust crack detection strategies for aerial inspection