KR20240005403A - 항공기 파트 제조환경의 화재감시시스템 - Google Patents

항공기 파트 제조환경의 화재감시시스템 Download PDF

Info

Publication number
KR20240005403A
KR20240005403A KR1020220082459A KR20220082459A KR20240005403A KR 20240005403 A KR20240005403 A KR 20240005403A KR 1020220082459 A KR1020220082459 A KR 1020220082459A KR 20220082459 A KR20220082459 A KR 20220082459A KR 20240005403 A KR20240005403 A KR 20240005403A
Authority
KR
South Korea
Prior art keywords
fire
model
manufacturing environment
image
aircraft parts
Prior art date
Application number
KR1020220082459A
Other languages
English (en)
Inventor
이종수
김효정
김덕현
Original Assignee
한국항공우주산업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주산업 주식회사 filed Critical 한국항공우주산업 주식회사
Priority to KR1020220082459A priority Critical patent/KR20240005403A/ko
Publication of KR20240005403A publication Critical patent/KR20240005403A/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

본 발명은 인공지능 모델을 이용하여, 제조환경에서 화재로 오인 가능한 상황을 정확하게 구분하기 위한 항공기 파트 제조환경의 화재감시시스템을 제공하기 위해, 본 발명에 따른 항공기 파트 제조환경의 화재감시시스템은 항공기 파트 제조환경에 대한 이미지를 머신러닝 모델에 적용하여 화재발생 유무를 판단하는 연산처리부를 포함하며, 상기 연산처리부는 상기 이미지를 특징추출 모델에 입력하여 상기 이미지로부터 화재발생, 분진발생 및 작업수행에 대한 특징을 각각 추출하고, 상기 특징으로 화재발생 유무를 판단하는 분류모델을 학습시키고, 상기 항공기 파트 제조환경에 배치되는 카메라로부터 실시간으로 획득되는 실측이미지를 기학습된 객체인식모델에 적용하여 상기 실측이미지로부터 분석영역을 추출하고, 상기 분석영역을 상기 분류모델에 입력하여 결과값을 생성하고, 상기 결과값을 기반으로 상기 항공기 파트 제조환경에 대한 화재발생 유무에 대한 정보를 생성한다. 이에, 본 발명은 화재발생으로 오인될 수 있는 상황을 고려하여 화재발생에 대한 판단을 수행함으로써, 보다 정확한 화재발생 정보를 제공할 수 있는 효과가 있다.

Description

항공기 파트 제조환경의 화재감시시스템{FIRE MONITORING SYSTEM OF AIRCRAFT PART'S MANUFACTURING ENVIRONMENT}
본 발명은 화재감시시스템에 관한 것으로, 보다 상세하게는 항공기 파트 제조환경의 화재감시시스템에 관한 것이다.
일반적으로 항공기 제조환경에서 발생하는 화재발생은 작업자가 제조환경에 설치되는 CCTV를 이용하여 확인하고 있다. 다만, 화재발생은 특정한 순간에 발생하여, 작업자가 직접 문제의 순간을 포착하는 것은 어려움이 있다.
이에, 현재에는 제조공정에서 이미지 분석을 통한 화재감시기술이 사용되고 있다. 이러한 화재감시기술은 이미 "대한민국 등록특허공고 제10-0851601호(화재 발생 감시 방법 및 시스템, 2008.08.05.)"에 의해 공개되어 있다. 상기 등록발명은 적외선 카메라를 활용하여 감시구역의 온도분포를 분석하고, 분석결과와 영상정보를 활용하여 감시구역의 화재발생 유무에 대한 정보를 제공한다.
다만, 종래의 화재감시기술은 단순히 온도분포를 기반으로 화재발생 유무를 판단한다. 그러나 제조환경에서는 다양한 공작기구가 이용됨에 따라 작업 중 발생하는 열, 분진 및 스파크 등으로 인해 온도분포만으로는 정확한 화재발생을 판단하기 어려운 문제점이 있었다.
대한민국 등록특허공고 제10-0851601호(화재 발생 감시 방법 및 시스템, 2008.08.05.)
본 발명의 목적은 인공지능 모델을 이용하여, 제조환경에서 화재로 오인 가능한 상황을 정확하게 구분하기 위한 항공기 파트 제조환경의 화재감시시스템을 제공하기 위한 것이다.
본 발명에 따른 항공기 파트 제조환경의 화재감시시스템은 항공기 파트 제조환경에 대한 이미지를 머신러닝 모델에 적용하여 화재발생 유무를 판단하는 연산처리부를 포함하며, 상기 연산처리부는 상기 이미지를 특징추출 모델에 입력하여 상기 이미지로부터 화재발생, 분진발생 및 작업수행에 대한 특징을 각각 추출하고, 상기 특징으로 화재발생 유무를 판단하는 분류모델을 학습시키고, 상기 항공기 파트 제조환경에 배치되는 카메라로부터 실시간으로 획득되는 실측이미지를 기학습된 객체인식모델에 적용하여 상기 실측이미지로부터 분석영역을 추출하고, 상기 분석영역을 상기 분류모델에 입력하여 결과값을 생성하고, 상기 결과값을 기반으로 상기 항공기 파트 제조환경에 대한 화재발생 유무에 대한 정보를 생성한다.
상기 분류모델은 군집화모델과 신경망모델을 포함하며, 상기 군집화모델 및 상기 신경망모델 각각에 상기 결과값에 영향을 주는 비중을 결정하는 가중치를 적용하여 상기 군집화모델 및 상기 신경망모델 각각이 예측값을 산출하도록 하고, 상기 예측값을 종합하여 결과값을 생성할 수 있다.
상기 연산처리부는 상기 예측값과 상기 결과값의 편차를 산출하고, 상기 편차에 따라 상기 군집화모델 및 상기 신경망모델에 적용되는 상기 각각의 가중치를 조정할 수 있다.
상기 신경망모델은 상기 실측이미지 및 상기 군집화모델의 예측값으로 재학습되고, 상기 연산처리부는 상기 신경망모델의 예측값이 상기 군집화모델의 예측값보다 상기 결과값에 더 높은 영향을 주도록 상기 각각의 가중치를 조정할 수 있다.
상기 객체인식모델은 상기 실측이미지 상에 서로 다른 크기를 가지는 복수 개의 박스를 생성하고, 상기 분석영역을 인식하기 위한 기설정된 속성값을 이용하여 상기 각각의 박스 내에 인식하려는 객체가 존재할 확률을 산출하여 신뢰도를 획득하고, 상기 복수 개의 박스 중 상기 신뢰도가 가장 높은 박스를 선정하여, 상기 분석영역을 추출할 수 있다.
상기 화재감시시스템은 상기 이미지와 및 상기 이미지 내에 발생한 상황정보를 기반으로 생성되는 화재데이터 저장하는 저장부를 더 포함하고, 상기 화재데이터는 상기 실측이미지 및 상기 화재발생 유무에 대한 정보로 업데이트될 수 있다.
본 발명에 따른 항공기 파트 제조환경의 화재감시시스템 및 화재감시방법은 다음과 같은 효과를 포함한다.
첫째, 본 발명은 화재발생으로 오인될 수 있는 상황을 고려하여 화재발생에 대한 판단을 수행함으로써, 보다 정확한 화재발생 정보를 제공할 수 있는 효과가 있다.
둘째, 본 발명은 원격으로 화재감시가 가능하여, 화재감시에 소요되는 공수 및 비용을 절감하도록 하는 효과가 있다.
셋째, 본 발명은 기존의 설치된 영상수집장치와 연동되도록 구비되어, 타 산업 분야에 확대 적용 가능한 효과가 있다.
이상과 같은 본 발명의 기술적 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 또 다른 기술적 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 실시예에 따른 항공기 파트 제조공정의 화재감시시스템을 나타낸 흐름도이다.
도 2는 본 실시예에 따른 항공기 파트 제조공정의 화재감시시스템을 나타낸 구성도이다.
도 3은 본 실시예에 따른 항공기 파트 제조공정의 화재감시방법을 나타낸 순서도이다.
도 4는 본 실시예에 따른 항공기 파트 제조공정의 화재감시방법 중 화재감시 단계를 나타낸 순서도이다.
이하 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 그러나 본 실시예는 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하며, 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 도면에서의 요소의 형상 등은 보다 명확한 설명을 위하여 과장되게 표현된 부분이 있을 수 있으며, 도면 상에서 동일 부호로 표시된 요소는 동일 요소를 의미한다.
도 1은 본 실시예에 따른 항공기 파트 제조공정의 화재감시시스템을 나타낸 흐름도이다.
도 1에 도시된 바와 같이, 본 실시예에 따른 항공기 파트 제조환경의 화재감시시스템(100, 이하 화재감시시스템이라 한다)은 항공기 파트 제조환경(1, 이하 제조환경이라 한다)으로부터 카메라(10)에 의해 획득되는 이미지를 머신러닝 모델에 입력하여 화재발생 유무를 판단한다. 그리고 화재감시시스템(100)은 화재발생 유무에 대한 정보를 생성하여 외부장치(50)에 제공할 수 있다.
제조환경(1)에서는 작업자가 항공기 파트를 제조하기 위해 다양한 작업이 수행한다. 여기서, 작업자는 용접 및 절삭 등을 포함하는 작업을 수행할 수 있다. 이에 따라, 제조환경(1)은 작업자가 수행하는 작업에 따라 복수 개의 구역을 포함할 수 있다.
카메라(10)는 제조환경(1)의 다양한 구역에 설치될 수 있다. 카메라는 각각이 기설정된 구역을 촬영한다. 이에, 카메라(10)는 제조환경(1)의 다양한 이미지를 수집하며, 각각의 카메라(10)에 의해 수집된 이미지는 중앙서버(30)에 제공될 수 있다.
중앙서버(30)는 제공받은 이미지를 외부장치(50) 및 화재감시시스템(100)에 제공한다.
외부장치(50)는 컴퓨터 및 휴대용 단말기 등으로 구비될 수 있다. 이에, 외부장치(50)는 제공받은 정보를 출력하여 사용자에게 제공하도록 한다. 그리고 외부장치(50)는 이미지, 소리 및 진동 등의 알람을 이용하여 사용자에게 정보를 제공할 수 있다.
화재감시시스템(100)은 제공받은 제조환경(1)에 대한 이미지를 머신러닝 모델에 적용하여 화재발생 유무를 판단한다. 그리고 화재감시시스템(100)은 제조환경(1)의 화재발생 유무를 판단하여 관련된 정보를 외부장치(50)에 제공한다. 따라서, 외부장치(50)는 화재발생 유무에 대한 정보를 출력하고, 이에 대한 알람을 수행하여 작업자에게 제조환경(1)의 화재발생정보를 제공하도록 한다.
한편, 이하에서는 도 2를 참조하여 본 실시예에 따른 항공기 파트 제조환경의 화재감시시스템의 구성에 대하여 설명하도록 한다.
도 2는 본 실시예에 따른 항공기 파트 제조공정의 화재감시시스템을 나타낸 구성도이다.
도 2에 도시된 바와 같이, 본 실시예에 따른 화재감시시스템(100)은 통신부(110), 저장부(120) 및 연산처리부(130)를 포함할 수 있다.
먼저, 통신부(110)는 중앙서버(30) 및 외부장치(50)와 연동되어 정보를 송수신한다.
한편, 저장부(120)는 과거의 수집된 이미지 및 이미지에 대한 정보로 생성된 화재데이터와, 화재발생을 판단하기 위한 머신러닝 모델을 저장한다.
여기서, 이미지는 제조환경(1) 및 제조환경(1)과는 상이하거나 유사한 환경에서 수집한 이미지를 포함할 수 있다. 그리고 이미지에 대한 정보는 이미지 내에 발생한 상황에 대한 정보 즉, 화재발생, 분진발생 및 작업수행 등에 대한 정보를 포함한다. 이에, 화재데이터는 이미지에 대한 정보로 라벨링된 이미지를 포함한다.
그리고 머신러닝 모델은 특징추출모델, 객체인식모델 및 분류모델을 포함할 수 있다.
여기서, 특징추출모델은 사전에 학습되어 저장될 수 있다. 이에, 특징추출모델은 상기 이미지로부터 화재발생, 분진발생 및 작업수행 등 이미지 내에 발생한 상황의 특징을 각각 추출한다.
그리고 객체인식모델은 사전에 학습되어 저장될 수 있다. 이에, 객체인식모델은 기설정된 속성값을 기반으로 제조환경(1)으로부터 실시간으로 수집되는 실측이미지로부터 화재발생 유무에 대한 분석이 필요할 것으로 판단되는 분석영역을 추출한다.
그리고 분류모델은 상기 특징추출모델이 화재데이터와 추출된 특징으로 학습될 수 있다. 학습된 분류모델은 상기 인식된 객체가 입력되어, 객체가 나타내는 특징을 분류하도록 한다.
저장부(120)는 후술할 연산처리부(130)의 연산과정에 따라 특징추출모델, 객체인식모델 및 분류모델 각각 제공할 수 있다.
한편, 연산처리부(130)는 연산처리를 통해, 특징추출모델, 객체인식모델 및 분류모델을 이용하여 화재발생 유무를 판단한다.
이때, 특징추출모델은 일 예시로써, 합성곱 신경망 네트워크(Convolution Neural Network; CNN)을 포함할 수 있다. 합성곱 신경망 네트워크는 이미지에 대한 합성곱 연산을 수행하여, 이미지 내에 상황의 특징을 추출할 수 있다. 이러한 합성곱 신경망 네트워크는 합성곱과정 및 풀링과정을 포함하는 연산과정을 통해 특징추출을 할 수 있다.
합성곱 신경망 네트워크는 합성곱과정에서 기설정된 크기의 블록으로 생성된 합성곱필터가 입력된 이미지를 순회하도록 한다. 이때, 합성곱필터는 복수 개의 블록을 포함할 수 있으며, 블록 내에는 기설정된 가중치가 입력될 수 있다. 이에, 합성곱필터는 이미지의 각 영역을 순회하면서, 이미지의 각 영역에 상기 가중치를 적용시킨다. 따라서, 합성곱필터는 이미지의 각 영역에 대한 특징값을 산출하도록 한다. 이러한 연산과정을 통해, 합성곱 신경망 네트워크는 이미지의 화소를 축소시킬 수 있으며, 이미지의 각 영역이 나타내는 특징을 강화시킬 수 있다.
그리고 합성곱 신경망 네트워크는 풀링과정에서 산출된 특징값을 추출하여 기설정된 크기의 블록 형태에 특징맵을 생성하도록 한다. 이때, 합성곱 신경망 네트워크는 축소된 이미지의 각 영역에서 상대적으로 가장 높은 값으로 산출된 특징값을 추출할 수 있다. 그리고 특징추출모델은 추출한 특징값을 기설정된 크기의 블록에 입력하여 특징맵을 생성하도록 한다.
합성곱 신경망 네트워크는 상술한 합성곱과정 및 풀링과정을 반복수행하며, 이에 따라 이미지가
Figure pat00001
의 크기를 가지는 특징맵을 추출할 수 있다. 특징추출모델은 특징맵의 각 특징값을 추출하여 이미지 내의 발생한 상황에 대한 특징을 추출할 수 있다.
일례로, 객체인식모델은 실측이미지에 서로 다른 크기로 생성되도록 하는 복수 개의 박스를 생성한다. 그리고 객체인식모델은 상술한 속성값을 이용하여 각각의 박스의 신뢰도를 산출한다. 여기서, 신뢰도는 박스 내에 인식하려는 객체가 존재할 확률을 의미한다. 이에, 객체인식모델은 각각의 박스에 대한 신뢰도를 비교하고, 신뢰도가 가장 높게 산출된 박스를 선정하여 분석영역을 추출할 수 있다.
일례로, 객체인식모델은 실측이미지에 합성곱 연산을 적용하여, 분석영역추출에 대한 연산속도를 향상시킬 수 있다. 이때, 객체인식모델은 실측이미지 및 박스에 합성곱연산을 수행하여 각각 소정의 크기로 축소시킬 수 있다. 이때, 실측이미지는 각 영역이 나타내는 특징이 강화될 수 있다. 이에, 객체인식모델은 축소된 실측이미지에 비교적 적은 박스를 생성할 수 있다. 이러한 객체인식모델은 객체인식을 위해 생성되는 박스의 개수를 저감시켜, 객체인식에 대한 연산속도를 향상시킬 수 있다.
한편, 분류모델은 군집화모델 및 신경망모델을 포함할 수 있다. 여기서, 군집화모델은 신경망모델에 비해 비교적 짧은 연산시간으로 예측값을 산출할 수 있다. 그러나 군집화모델은 각 모델의 학습량에 따라 신경망모델에 비해 예측값의 정확도가 낮아질 수 있다. 반면, 신경망모델은 학습량이 적은 상태에서 오분류를 초래할 수 있다. 이에, 분류모델은 앙상블 기법을 적용하여 군집화모델과 신경망모델이 상호보완하도록 하는 것이 바람직하다.
이때, 분류모델은 군집화모델 및 신경망모델 각각에 가중치를 부여하고, 각 모델이 산출하는 예측값을 종합하여 결과값을 생성할 수 있다. 여기서, 가중치는 각 예측값이 결과값에 영향을 주는 비중을 결정한다. 이에, 분류모델은 각 모델에 적용되는 가중치를 조정함으로써, 각 예측값이 결과값에 영향을 주는 비중을 조정할 수 있다.
이러한 분류모델은 상기 특징추출모델에 의해 추출된 특징을 기반으로 학습될 수 있다. 이때, 분류모델은 군집화모델 및 신경망모델에 이미지를 입력하고, 상기 추출된 특징으로 분류하도록 학습시킬 수 있다. 이때, 분류모델은 군집화모델에 신경모델보다 높은 가중치를 부여하도록 한다. 이에, 분류모델은 결과값에 군집화모델의 예측값이 더 높은 영향을 주도록 할 수 있다.
추가적으로, 분류모델은 신경망모델이 실측데이터 및 군집화모델의 예측값으로 재학습하도록 한다. 이때, 분류모델은 재학습된 신경망모델의 예측값에 대한 정확도를 산출하도록 한다. 여기서, 분류모델은 결과값 및 신경망모델의 예측값과의 편차를 산출하여 정확도를 산출한다. 이에, 분류모델은 신경망모델의 예측값에 대한 정확도에 따라 상기 가중치를 조정할 수 있다.
구체적으로, 재학습된 신경망모델의 예측값의 정확도가 기준치에 도달할 경우에는 분류모델이 신경망모델의 예측값이 결과값에 영향을 미치는 비중이 높아지도록 가중치를 조정할 수 있다. 추가적으로, 가중치 조정은 작업자가 판단하여, 임의로 조정될 수 있다.
따라서, 분류모델은 실측이미지로부터 신경망모델을 재학습 및 가중치조정을 반복수행할 수 있다. 최종적으로, 분류모델은 신경망모델의 예측값의 비중이 군집화모델의 예측값보다 상대적으로 높도록 가중치를 조정할 수 있다.
분류모델은 군집화모델 및 신경망모델을 통해 결과값을 산출함으로써, 실측이미지 내에 분석영역이 나타내는 특징을 분류하도록 한다. 따라서, 연산처리부(130)는 상기 결과값에 따라 화재발생 유무를 판단한다. 그리고 연산처리부(130)는 화재발생 유무에 대한 정보를 생성하며, 화재발생 유무에 대한 정보를 통신부(110)에 제공하여 외부장치(50)로 송신하도록 한다.
한편, 이하에서는 도 3 및 4를 참조하여 본 실시예에 따른 항공기 파트 제조환경의 화재감시시스템의 화재감시방법에 대하여 설명하도록 한다. 다만, 상술된 구성요소에 대해서는 상세한 설명을 생략하고, 동일한 참조부호를 부여하여 설명하도록 한다.
도 3은 본 실시예에 따른 항공기 파트 제조공정의 화재감시방법을 나타낸 순서도이고, 도 4는 본 실시예에 따른 항공기 파트 제조공정의 화재감시방법 중 화재감시 단계를 나타낸 순서도이다.
도 3에 도시된 바와 같이, 본 실시예에 따른 화재감시시스템(100)은 이미지 획득단계(S100), 특징추출단계(S200), 분류모델 학습단계(S300) 및 화재감시단계(S400)을 수행하여, 제조환경(1)의 화재발생 유무에 대한 정보를 생성한다.
먼저, 이미지획득단계(S100)에서는 연산처리부(130)가 저장부(120)로부터 이미지를 획득한다.
그리고 특징추출단계(S200)에서는 연산처리부(130)가 획득한 이미지를 특징추출모델에 입력하여 이미지 내에 발생한 상황의 특징을 추출하도록 한다. 이때, 연산처리부(130)는 추출된 특징을 이미지에 대한 정보로 라벨링할 수 있다. 이에, 연산처리부(130)는 이미지로부터 화재발생, 분진발생 및 작업수행 등의 특징을 각각 추출할 수 있다.
그리고 분류모델 학습단계(S300)에서는 연산처리부(130)가 추출된 특징으로 분류모델을 학습시킨다. 이때, 연산처리부(130)는 추출된 특징을 군집화모델 및 신경망모델 각각에 대한 적절한 데이터 형태로 변화시킬 수 있다. 그리고 연산처리부(130)는 변환된 특징을 이용하여, 군집화모델 및 신경망모델이 각 특징으로 분류를 수행하도록 학습시킨다. 따라서, 연산처리부(130)는 군집화모델 및 신경망모델 각각이 분류의 결과로써, 예측값을 산출하도록 한다.
또한, 연산처리부(130)는 분류모델이 앙상블방법을 적용하여 군집화모델 및 신경망모델 각각의 예측값을 종합하도록 한다. 이때, 연산처리부(130)는 군집화모델 및 신경망모델 각각의 가중치를 산정하여 적용시킬 수 있다. 여기서, 연산처리부(130)는 군집화모델이 신경망모델 보다 상대적으로 높은 가중치가 적용되도록 할 수 있다. 따라서, 연산처리부(130)는 각 모델의 예측값을 합하여 종합할 수 있으며, 이에 따라 결과값을 획득할 수 있다. 그리고 연산처리부(130)는 결과값을 이미지 내에 상황과 비교하여 정확도를 평가할 수 있다. 일례로, 연산처리부(130)는 결과값으로써, 이미지의 분류된 특징이, 저장부(120)에 저장된 이미지 내에 상황에 있는 특징과 비교하여, 일치여부를 판단할 수 있다.
그리고 연산처리부(130)는 학습된 분류모델을 저장부(120)에 입력하여 저장하도록 한다.
화재감시단계(S400)에서는 화재감시시스템(100)이 중앙서버(30)로부터 실시간으로 획득되는 제조환경(1)에 대한 실측이미지를 머신러닝 모델에 입력하여, 화재발생유무를 판단하도록 한다. 도 4를 참조하여 설명하면, 화재감시시스템(100)은 실측이미지 획득단계(S410), 분석영역 추출단계(S420), 화재발생 유무 정보 생성단계(S430) 및 화재발생 유무 정보 제공단계(S440)를 수행할 수 있다.
먼저, 실측이미지 획득단계(S410)에서는 통신부(110)가 중앙서버(30)로부터 실측이미지를 실시간으로 제공받을 수 있다. 그리고 통신부(110)는 제공받은 실측이미지를 저장부(120)에 제공하여 저장하도록 한다.
그리고 분석영역 추출단계(S420)에서는 연산처리부(130)가 저장부(120)로부터 실측이미지를 획득한다. 그리고 연산처리부(130)는 획득된 실측이미지를 객체인식모델에 입력하여 분석영역을 추출할 수 있다.
그리고 화재발생 유무 정보 생성단계(S430)에서는 연산처리부(130)가 추출된 분석영역을 분류모델에 입력하여, 화재발생, 분진발생 및 작업수행 등으로 분류하도록 한다.
이때, 연산처리부(130)는 저장부(120)로부터 분류모델을 불러올 수 있다. 그리고 연산처리부(130)는 분류모델에 분석영역을 입력하도록 한다. 분류모델은 분석영역을 군집화모델 및 신경망모델 각각에 입력한다. 이에, 군집화모델 및 신경망모델 각각은 예측값을 산출하며, 분류모델은 산출된 예측값을 종합하여, 결과값을 생성한다. 이때, 연산처리부(130)는 신경망모델의 예측값과 결과값을 비교하여 비교결과에 따라 재학습을 수행할 수 있다.
그리고 연산처리부(130)는 생성된 결과값으로 실측이미지의 화재발생 유무에 대한 정보를 생성한다. 이때, 화재발생 유무에 대한 정보는 화재발생, 분진발생 및 작업수행을 포함하는 특징 중 적어도 어느 하나의 특징 정보를 포함할 수 있다.
여기서, 연산처리부(130)는 생성된 화재발생 유무에 대한 정보를 저장부(120)에 입력하여 화재데이터를 업데이트하도록 한다.
화재발생 유무 정보 제공단계(S440)에서는 연산처리부(130)가 생성된 화재발생 유무에 대하 정보를 무선신호로 변환하여 화재알람신호를 생성할 수 있다. 일례로, 화재알람신호는 연산처리부(130)가 제조환경(1)에 화재가 발생한 것으로 판단될 때에 생성하도록 할 수 있다.
통신부(110)는 화재알람신호를 외부장치(50)로 제공할 수 있다. 이때, 중앙서버(30)는 실측이미지를 외부장치(50)에 송신할 수 있다. 이에, 외부장치(50)는 중앙서버(30) 및 화재감시시스템(100) 각각으로부터 실측이미지 및 화재알람신호를 동시에 제공받을 수 있다.
외부장치(50)는 실측이미지를 출력하여 작업자에게 제공하며, 동시에 화재발생 유무에 대한 정보를 제공할 수 있다. 화재발생 유무에 대한 정보가 화재발생에 대한 정보를 포함하는 경우, 외부장치(50)는 이미지, 소리 및 진동으로 알람하여 작업자에게 알람할 수 있다. 이에, 작업자는 외부장치(50)에 출력되는 실측이미지 및 화재발생 유무에 대한 정보를 확인하여 제조환경(1)에 대한 화재감시를 원격으로 수행할 수 있다.
이와 같이, 본 발명에 따른 항공기 파트 제조환경의 화재감시시스템은 제조환경으로부터 실시간으로 수집되는 실측이미지를 머신러닝모델에 입력하여 제조환경에 대한 화재발생 판단정보를 생성할 수 있다. 이때, 머신러닝모델은 화재발생으로 오인될 수 있는 상황의 특징을 포함한 데이터로 학습되어, 화재발생뿐만 아니라 분진발생 및 작업수행 등과 같은 상황으로 분류하여 판단하도록 한다. 그리고 화재감시시스템은 생성된 판단정보를 작업자에게 제공함으로써 화재원격감시가 가능하도록 한다.
이에, 본 발명은 화재발생으로 오인될 수 있는 상황을 고려하여 화재발생에 대한 판단을 수행함으로써, 보다 정확한 화재발생 정보를 제공할 수 있는 효과가 있다.
또한, 본 발명은 원격으로 화재감시가 가능하여, 화재감시에 소요되는 공수 및 비용을 절감하도록 하는 효과가 있다.
또한, 본 발명은 기존의 설치된 영상수집장치와 연동되도록 구비되어, 타 산업 분야에 확대 적용 가능한 효과가 있다.
앞에서 설명되고, 도면에 도시된 본 발명의 일 실시예는 본 발명의 기술적 사상을 한정하는 것으로 해석되어서는 안 된다. 본 발명의 보호범위는 청구범위에 기재된 사항에 의하여만 제한되고, 본 발명의 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 다양한 형태로 개량 변경하는 것이 가능하다. 따라서 이러한 개량 및 변경은 통상의 지식을 가진 자에게 자명한 것인 한 본 발명의 보호범위에 속하게 될 것이다.

Claims (6)

  1. 항공기 파트 제조환경에 대한 이미지를 머신러닝 모델에 적용하여 화재발생 유무를 판단하는 연산처리부를 포함하며,
    상기 연산처리부는
    상기 이미지를 특징추출 모델에 입력하여 상기 이미지로부터 화재발생, 분진발생 및 작업수행에 대한 특징을 각각 추출하고,
    상기 특징으로 화재발생 유무를 판단하는 분류모델을 학습시키고,
    상기 항공기 파트 제조환경에 배치되는 카메라로부터 실시간으로 획득되는 실측이미지를 기학습된 객체인식모델에 적용하여 상기 실측이미지로부터 분석영역을 추출하고,
    상기 분석영역을 상기 분류모델에 입력하여 결과값을 생성하고,
    상기 결과값을 기반으로 상기 항공기 파트 제조환경에 대한 화재발생 유무에 대한 정보를 생성하는 항공기 파트 제조환경의 화재감시시스템.
  2. 제1 항에 있어서,
    상기 분류모델은
    군집화모델과 신경망모델을 포함하며,
    상기 군집화모델 및 상기 신경망모델 각각에 상기 결과값에 영향을 주는 비중을 결정하는 가중치를 적용하여 상기 군집화모델 및 상기 신경망모델 각각이 예측값을 산출하도록 하고,
    상기 예측값을 종합하여 결과값을 생성하는 것을 특징으로 하는 항공기 파트 제조환경의 화재감시시스템.
  3. 제2 항에 있어서,
    상기 연산처리부는
    상기 예측값과 상기 결과값의 편차를 산출하고,
    상기 편차에 따라 상기 군집화모델 및 상기 신경망모델에 적용되는 상기 각각의 가중치를 조정하는 것을 특징으로 하는 항공기 파트 제조환경의 화재감시시스템.
  4. 제3 항에 있어서,
    상기 신경망모델은
    상기 실측이미지 및 상기 군집화모델의 예측값으로 재학습되고,
    상기 연산처리부는
    상기 신경망모델의 예측값이 상기 군집화모델의 예측값보다 상기 결과값에 더 높은 영향을 주도록 상기 각각의 가중치를 조정하는 것을 특징으로 하는 항공기 파트 제조환경의 화재감시시스템.
  5. 제1 항에 있어서,
    상기 객체인식모델은
    상기 실측이미지 상에 서로 다른 크기를 가지는 복수 개의 박스를 생성하고,
    상기 분석영역을 인식하기 위한 기설정된 속성값을 이용하여 상기 각각의 박스 내에 인식하려는 객체가 존재할 확률을 산출하여 신뢰도를 획득하고,
    상기 복수 개의 박스 중 상기 신뢰도가 가장 높은 박스를 선정하여, 상기 분석영역을 추출하는 것을 특징으로 하는 항공기 파트 제조환경의 화재감시시스템.
  6. 제1 항에 있어서,
    상기 화재감시시스템은
    상기 이미지와 및 상기 이미지 내에 발생한 상황정보를 기반으로 생성되는 화재데이터 저장하는 저장부를 더 포함하고,
    상기 화재데이터는
    상기 실측이미지 및 상기 화재발생 유무에 대한 정보로 업데이트되는 것을 특징으로 하는 항공기 파트 제조환경의 화재감시시스템.
KR1020220082459A 2022-07-05 2022-07-05 항공기 파트 제조환경의 화재감시시스템 KR20240005403A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220082459A KR20240005403A (ko) 2022-07-05 2022-07-05 항공기 파트 제조환경의 화재감시시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220082459A KR20240005403A (ko) 2022-07-05 2022-07-05 항공기 파트 제조환경의 화재감시시스템

Publications (1)

Publication Number Publication Date
KR20240005403A true KR20240005403A (ko) 2024-01-12

Family

ID=89541632

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220082459A KR20240005403A (ko) 2022-07-05 2022-07-05 항공기 파트 제조환경의 화재감시시스템

Country Status (1)

Country Link
KR (1) KR20240005403A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100851601B1 (ko) 2007-01-10 2008-08-12 한국서부발전 주식회사 화재 발생 감시 방법 및 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100851601B1 (ko) 2007-01-10 2008-08-12 한국서부발전 주식회사 화재 발생 감시 방법 및 시스템

Similar Documents

Publication Publication Date Title
KR101925907B1 (ko) 신경망 생성 모델을 이용한 객체 움직임 패턴 학습장치 및 그 방법
CN110084165B (zh) 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法
US7667596B2 (en) Method and system for scoring surveillance system footage
EP4137901A1 (en) Deep-learning-based real-time process monitoring system, and method therefor
US11928813B2 (en) Method and system for detecting change to structure by using drone
JP2023546672A (ja) レール特徴部識別システム
US20230221684A1 (en) Explaining Machine Learning Output in Industrial Applications
CN111862065A (zh) 基于多任务深度卷积神经网络的输电线路诊断方法和系统
EP3469434B1 (en) Automatic visual and acoustic analytics for event detection
WO2023104557A1 (en) Machine-learning for safety rule violation determination
CN117114420B (zh) 一种基于图像识别的工贸安全事故风险管控系统和方法
CN117423157A (zh) 一种结合迁移学习、区域入侵的矿井下异常视频动作理解方法
KR20240005403A (ko) 항공기 파트 제조환경의 화재감시시스템
CN116597501A (zh) 视频分析算法及边缘设备
KR20210122429A (ko) 영상 딥러닝을 이용한 ai 기반 화장품 용기 인쇄 제조 공정에서의 자동 결함 탐지 방법 및 시스템
KR102546356B1 (ko) 머신러닝 모델을 이용한 최적화 공정 알고리즘 자동 판정 시스템 및 방법
Ashfahani et al. Autonomous deep quality monitoring in streaming environments
CN114529869A (zh) 违章动火检测模型的训练方法及利用该模型的检测方法
Nain et al. Authentication control system for the efficient detection of hard-hats using deep learning algorithms
CN114663972A (zh) 基于动作差分的目标标记方法及装置
JP2023540841A (ja) ディープラーニングベースのリアルタイム工程監視システム及びその方法
Nagolu et al. Real-Time Forest Fire Detection Using IoT and Smart Sensors
CN115496931B (zh) 一种工业机器人健康监测方法及系统
US20230072641A1 (en) Image Processing and Automatic Learning on Low Complexity Edge Apparatus and Methods of Operation
EP4350639A1 (en) Safety rule violation detection in a construction or constructed site

Legal Events

Date Code Title Description
E902 Notification of reason for refusal