KR20220135021A - 영상기반 연기 감지 시스템 및 방법 - Google Patents

영상기반 연기 감지 시스템 및 방법 Download PDF

Info

Publication number
KR20220135021A
KR20220135021A KR1020210040473A KR20210040473A KR20220135021A KR 20220135021 A KR20220135021 A KR 20220135021A KR 1020210040473 A KR1020210040473 A KR 1020210040473A KR 20210040473 A KR20210040473 A KR 20210040473A KR 20220135021 A KR20220135021 A KR 20220135021A
Authority
KR
South Korea
Prior art keywords
smoke
image
motion pattern
disaster
learning model
Prior art date
Application number
KR1020210040473A
Other languages
English (en)
Inventor
김상원
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020210040473A priority Critical patent/KR20220135021A/ko
Publication of KR20220135021A publication Critical patent/KR20220135021A/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/005Fire alarms; Alarms responsive to explosion for forest fires, e.g. detecting fires spread over a large or outdoors area

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

영상기반 연기 감지 시스템이 연기를 감지하는 방법이 개시될 수 있다. 상기 방법은, 촬영된 동영상에 대응되는 이미지 시퀀스 데이터를 동작 패턴을 나타내는 제1 이미지로 변환하는 단계, 상기 제1 이미지를 신경망 학습 모델에 적용하여, 연기 발생 여부를 감지하는 단계, 그리고 상기 연기 발생 여부에 대한 정보를 바탕으로 연기 발생 여부를 결정하는 단계를 포함할 수 있다.

Description

영상기반 연기 감지 시스템 및 방법{SYSTEM AND METHOD FOR VISION-BASED SMOKE DETECTION}
본 기재는 영상기반 연기 감지 시스템 및 방법에 관한 것이다.
산에서 갑자기 연기가 피어나는 산불 화재나 강에서 갑자기 강물이 범람하는 홍수 사고가 발생할 때, 이러한 재난 사고를 조기에 감지하고 이를 즉각적으로 알리는 기술이 필요하다.
재난 사고를 감지하는 방법들은 주로 물리적인 센서를 사용하는 방법과 카메라를 통해 촬영된 영상을 분석하는 방법이 있다. 물리적인 센서를 사용하는 방법은 관련된 센서들이 많이 제품화되어 있고 널리 활용되고 있다. 그러나 많은 센서들을 촘촘하게 설치해야 하므로, 이에 따라 비용이 상승하는 문제가 있다. 영상 분석을 통해 감지하는 방법은 카메라 한대로 넓은 공간을 감시할 수 있고 원격지에서 관측이 가능하다. 그러나, 영상에서 사고 상황을 감지하기 위한 기술 수준이 높지 않아서 신뢰성이 낮은 문제점이 있다.
촬영된 영상으로부터 화재를 감지하는 여러 가지 방법들이 제안되었으나, 주로 화재를 근거리에서 촬영할 때 관측되는 불꽃을 감지하는 수준에 그치고 있다.
이에 따라, 원격지에서 저비용으로 산불이나 화재를 같은 재난 사고를 감지하는 시스템을 구축하는 것이 필요하다. 즉, CCTV 또는 드론에 장착된 카메라를 통해 수십 킬로미터 이내의 영역을 감시하는 저 비용의 시스템이 필요하다. 이를 위해, 카메라를 통해 촬영된 영상을 분석하여 높은 정확도와 빠른 시간에 재난 사고를 감지하는 기술이 필요하다. 영상 분석 기술로서 CNN과 같은 신경망 학습 방법이 유용하다. 다만, CNN 기반으로 이미지 한 장에서 재난 사고를 감지하는 것이 가능하지만 오류 확률이 높다는 문제점이 있다. 오류 확률을 줄이기 위해, 카메라를 통해서 촬영되는 이미지 한 장이 아닌 연속된 여러 장의 이미지를 이용하여 감지하는 것 바람직하다. 그러나, 동영상과 같은 이미지 시퀀스 데이터는 CNN 기반으로 한 방법에서 활용하기 어려운 측면이 있다.
실시예들 중 적어도 하나의 실시예는 신경망 학습 모델을 효과적으로 활용하여, 감지 성능을 향상시키는 연기 감시 시스템 및 방법을 제공할 수 있다.
실시예들 중 적어도 하나의 실시예에 따르면, 영상기반 연기 감지 시스템이 연기를 감지하는 방법이 제공될 수 있다. 상기 방법은, 촬영된 동영상에 대응되는 이미지 시퀀스 데이터를 동작 패턴을 나타내는 제1 이미지로 변환하는 단계, 상기 제1 이미지를 신경망 학습 모델에 적용하여, 연기 발생 여부를 감지하는 단계, 그리고 상기 연기 발생 여부에 대한 정보를 바탕으로 연기 발생 여부를 결정하는 단계를 포함할 수 있다.
실시예들 중 적어도 하나의 실시예에 따르면, 이미지지 시퀀스 데이터를 동작 패턴 이미지로 변환하고 변환된 동작 패턴 이미지를 신경망 학습 모델에 적용하여 연기를 감지함으로써, 감지 성능을 향상시킬 수 있다.
도 1은 한 실시예에 따른 영상기반 연기 감지 시스템을 나타내는 블록도이다.
도 2는 한 실시예에 따른 연기 분석부의 동작 방법을 나타내는 플로우차트이다.
도 3은 한 실시예에 따른 연기 감지부의 동작 방법을 나타내는 플로우차트이다.
도 4는 한 실시예에 따른 동작 패턴 이미지를 생성하는 방법을 나타내는 플로우차트이다.
도 5는 한 실시예에 따른 컴퓨팅 시스템을 나타내는 블록도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
아래의 설명에서, "영상" 용어는 정지 영상과 동영상을 모두 포함할 수 있다. "이미지" 용어는 "정지 영상" 또는 "이미지 프레임" 용어와 혼용하여 사용될 수 있다. 그리고, "동영상" 용어는 타임 라인 상의 연속된 이미지 또는 이미지 프레임의 집합을 의미하며, "이미지 시퀀스" 용어와 혼용하여 사용될 수 있다.
아래에서 설명하는 실시예들 중 적어도 하나의 실시예에 따른 연기 감지 방법은 카메라로부터 제공되는 동영상 데이터를 이미지 한 장으로 변환하는 과정을 통해 이미지 한 장에 연기의 동적 변화까지 포함시킬 수 있다. 연기의 동적 변화까지 포함된 한 장의 이미지를 CNN과 같은 신경망 학습 모델에 적용함으로써, 감지 성능을 극대화 할 수 있다. 이러한 실시예들에 대해서 이하에서 상세히 설명한다.
도 1은 한 실시예에 따른 영상기반 연기 감지 시스템(100)을 나타내는 블록도이다.
도 1에 나타낸 바와 같이, 한 실시예에 따른 영상기반 연기 감지 시스템은 영상 촬영부(110), 연기 감지부(120), 연기 분석부(130), 그리고 재난 경보부(140)를 포함할 수 있다.
영상 촬영부(110)는 연기를 감지하고자 하는 지역을 촬영하고, 촬영한 영상 데이터를 연기 감지부(120)로 전송한다. 영상 촬영부(110)는 CCTV나 이동이 가능한 드론에 설치된 카메라일 수 있다. 영상 촬영부(110)는 촬영한 영상 데이터를 원격에 있는 연기 감지부(120)로 실시간으로 전송할 수 있다. 영상 촬영부(110)는 일반 촬영 중에는 정해진 순서에 따라 근거리에서 원거리로 카메라의 방향을 순차적으로 조종하면서 연기 발생을 감시할 수 있다. 한편, 영상 촬영부(110)는 연기 분석부(130)로부터 재난 경계 신호를 수신하면 재난 경계 신호와 함께 전송된 연기 발생 의심 지점을 중심으로 카메라 방향을 조정하고 확대 촬영한 영상 데이터를 연기 감지부(120)로 전송할 수 있다.
연기 감지부(120)는 영상 촬영부(110)로부터 전송되는 이미지 시퀀스 데이터(즉, 촬영한 영상 데이터)에서 연기 발생을 감지하고 그 결과를 기록하는 재난 로그를 주기적으로 생성한다. 여기서, 재난 로그는 각 시간대별로 의심되는 연기발생 여부를 포함할 수 있다. 연기 감지부(120)가 이미지 시퀀스 데이터를 이용하여 연기 발생을 감지하는 방법에 대해서는 아래의 도 3 및 도 4에서 좀 더 상세히 설명한다.
연기 분석부(130)는 연기 감지부(120)에서 생성된 재난 로그를 입력 받으며, 입력 받은 재난 로그를 분석하여 연기 발생 여부를 결정한다. 연기 감지부(120)에서 감지한 연기 발생 정보는 항상 정확하지 않을 수 있다. 예를 들어, 연기 감지부(120)는 구름, 폭포, 파도, 새 등 다양한 원인에 의해 오인되는 결과를 발생시킬 수 있다. 이에 따라, 연기 분석부(130)는 입력 받은 재난 로그에 포함된 오인 정보를 배제하고 실제 연기가 발생하였음을 보장하는 역할을 수행한다.
도 2는 한 실시예에 따른 연기 분석부(130)의 동작 방법을 나타내는 플로우 차트이다.
연기 분석부(130)는 연기 감지부(120)로부터 재난 로그를 입력 받는다(S210).
연기 분석부(130)는 S210 단계에서 입력 받은 재난 로그를 분석하여, 연기 발생 확률 값을 계산한다(S220). 여기서, 계산된 연기 발생 확률 값이 0에 가까운 경우는 화재가 발생하지 않은 일반적인 상태이다. 연기 발생이 일정 빈도수 이상 발생하는 경우, 연기 발생 확률 값이 제1 임계치 이상이 될 수 있다.
연기 분석부(130)는 S220 단계에서 계산한 연기 발생 확률 값이 제1 임계치 이상이 되는 경우, 영상 촬영부(110)로 카메라 조정을 요청한다(S230, S40). 즉, 연기 분석부(130)는 계산된 연기 발생 확률 값이 제1 임계치 이상이 되는 경우 재난 경계 신호를 생성하며, 생성한 재난 경계 신호를 영상 촬영부(110)로 전송한다. 이때, 재난 경계 신호와 함께 연기 발생 의심 지점도 전송될 수 있다. 여기서, 영상 촬영부(110)는 연기 분석부(130)로부터 재난 경계 신호 경계 신호와 함께 전송된 연기 발생 의심 지점을 중심으로 카메라 방향을 조정하고 확대 촬영한 영상 데이터를 연기 감지부(120)로 전송할 수 있다.
연기 분석부(130)는 S220 단계에서 계산한 연기 발생 확률 값이 제2 임계치 이상이 되는 경우, 연기 발생을 확정하고 재난 경보부(140)로 연기 경보를 요청한다(S230, S250). 즉, 연기 발생 정보가 지속적으로 생성되어 계산한 연기 발생 확률값이 제2 임계치 이상으로 올라가는 경우, 연기 분석부(130)는 연기 발생을 확정하고 재난 경보로서 연기 경보를 재난 경보부(140)로 요청한다. 여기서, 제2 임계치는 제1 임계치보다 높은 값이며, 제1 및 제2 임계치는 실험적인 방법을 통해 미리 설정되는 값일 수 있다.
재난 경보부(140)는 연기 분석부(130)로부터 연기 경보 요청을 수신한 경우, 절차에 따라 연기 경보를 내리고 관련 종사나 재난 시스템 등으로 전파한다.
이하에서는 연기 감지부(120)가 영상 데이터(이미지 시퀀스 데이터)를 이용하여 연기 발생을 감지하는 방법에 대해서는 상세하게 설명한다. 여기서, 영상 촬영부(110)로부터 전송되는 영상 데이터는 연속되는 이미지 프레임들로 구성된 동영상 정보를 의미한다.
도 3은 한 실시예에 따른 연기 감지부(120)의 동작 방법을 나타내는 플로우차트이다.
먼저, 연기 감지부(120)는 영상 촬영부(110)로부터 전송되는 이미지 시퀀스 데이터에서 동작 패턴을 나타내는 한 장의 이미지(동작 패턴 이미지)로 변환한다(S310). 즉, 연기 감지부(120)는 동영상 데이터를 동작 패턴을 나타내는 한 장의 동작 패턴 이미지로 변환한다. 설명의 편의상 연기 감지부(120)가 이미지 시퀀스 데이터를 한 장의 이미지로 변환하는 것으로 하였지만 한 장의 이미지가 아니라 복수의 이미지일 수 있다. 즉, 동작 패턴 이미지의 개수는 이미지 시퀀스 보다 적은 개수일 수 있다.
연속되는 이미지 시퀀스에서 패턴을 찾아서 한 장의 이미지로 변환하는 방법은 다양할 수 있지만, 연기의 독특한 성질을 표현하기 위해서 유효한 방법이 필요 한다. 사람의 동작 패턴을 찾아서 한 장의 이미지로 변환하는 방법으로서, Md. Atiqur Rahman Ahad가 작성한 논문 "Motion history images for action recognition and understanding"이 있다. 이 논문에서는 연속되는 이미지 시퀀스에서 동작을 픽셀의 밝기 변화로 변환하고 이를 한 장의 이미지로 기록하는 방법을 제시하고 있다. 이미지 여러 장이 아닌 한 장의 이미지에서 사람의 동작을 구별하고 있다.
하지만, 위 논문의 방법은 사람과 같은 딱딱한 물체의 동작을 픽셀의 밝기 변화로 패턴을 만들어 동작을 구분한다. 연기 감지부(120)는 연기 발생을 감지하는데, 연기는 딱딱한 물체가 아니라 반투명하고 전방향으로 확산하는 성질을 가지고 있다. 이에 따라, 기존의 픽셀의 밝기 변화는 연기의 동작을 표현하는데 한계가 있다. 한편, 자연계에는 연기를 포함한 다양한 물체들의 동작들이 발생하는데, 연기의 동작 패턴과 다른 객체들의 동작 패턴을 구별하는 것이 필요하다.
한 실시예에 따른 연기 감지부(120)는 이미지 시퀀스 데이터에서, i번째 이미지와 i+1 번째 이미지 사이에서 픽셀 별 밝기 변화 차이인 i+1번째 차분 이미지를 구한다. 그리고 한 실시예에 따른 연기 감지부(120)는 구한 차분 이미지들을 누적하여 하나의 동작 패턴 이미지를 생성한다.
상기 차분 이미지를 누적하는 과정에서, 너무 많은 차분 이미지를 누적하는 경우, 패턴이 잘 보이지 않는 밋밋한 이미지가 될 수 있다. 이에 따라, 누적하는 차분 이미지의 개수에 대해서 제한을 둘 수 있다.
그리고 상기 차분 이미지를 누적하는 과정에서, 차분 이미지를 지속적으로 누적하는 경우에도, 패턴이 잘 보이지 않는 밋밋한 이미지가 될 수 있다. 이에 따라, 차분 이미지를 몇 개씩 건너뛰는 형태로 누적할 수 있다.
도 4는 한 실시예에 따른 동작 패턴 이미지를 생성하는 방법을 나타내는 플로우차트이다.
먼저, 연기 감지부(120)는 영상 촬영부(110)로부터 전송되는 이미지 시퀀스들을 각각 변형하여 단순화한다(S410). 이미지를 단순화하는 방법은 흑백 이미지로의 변환, 히스토그램 조정, 엣지 추출을 포함할 수 있다.
연기 감지부(120)는 S410 단계에서 단순화된 이미지 시퀀스에서 연속되는 이미지들간의 차분 이미지를 구한다(S420). 연기 감지부(120)는 시간 순서상 현재의 단순화된 이미지와 이후의 단순환된 이미지간의 픽셀 밝기 변화인 차분 값을 계산하고, 계산한 차분 값으로 구성된 차분 이미지를 생성한다. 여기서, 연기 감지부(120)는 차분 값의 조정을 수행할 수 있다. 연기 감지부(120)의 차분 값 조정을 통해, 소정의 속도 이하의 저속 물체와 소정의 속도 이상의 고속 물체는 차분 이미지에서 제외될 수 있다.
연기 감지부(120)는 S420 단계에서 구한 차분 이미지들로 구성된 이미지 시퀀스들을 누적하여 동적 패턴 이미지를 생성한다(S430). 여기서, 누적되는 이미지 시퀀스들의 개수는 조정될 수 있다. 예를 들어, 소정의 개수 이상의 차분 이미지가 누적될 수 있다. 그리고 차분 이미지는 연속적 또는 건너뛰면서 누적될 수 있다. 한편, 누적 과정에서 필터링를 통해 연기와 불꽃의 누적은 증폭되고 다른 물체의 누적은 감소될 수 있다.
한편, 도 3을 참조하면, 연기 감지부(120)는 S310 단계에서 변환된 동작 패턴 이미지를 학습 모델에 적용하여, 연기 발생을 감지한다(S320). 여기서, 학습 모델은 신경망 학습 모델로서 일반 배경과 연기 동영상으로부터 생성된 동작 패턴 이미지를 분류할 수 있도록 미리 학습되어 있다. 학습 모델의 한 예는 CNN(Convolutional Neural Network) 모델일 수 있다. 연기 감지부(120)는 CNN 모델을 이용하여, 이미지 분류 방식으로 연기 발생을 감지할 수 있다. 한편, CNN 모델로서 ResNet이 사용될 수 있다. 학습 모델을 통해 이미지를 분류하는 방법은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 알 수 있는 구체적인 설명은 생략한다.
이와 같은 실시예에 따르면, 이미지 시퀀스 정보를 한 장의 이미지(동작 패턴 이미지)로 변환하고, 이 한 장의 이미지를 사용하여 연기를 감지함으로써, 보다 간편하게 연기를 감지할 수 있다. RNN과 같은 학습 모델은 시계열 데이터에 적용되어 복잡하나, 실시예에서는 CNN으로 처리할 수 있도록 한 장의 이미지를 사용한다. 이에 따라, 보다 적은 변수 량으로 연기를 감지할 수 있다. 그리고, 실시예에 따르면, 이미지 시퀀스 정보의 취약점인 시작 시점과 종료 시점의 거리 N이 달라져도, 즉 다양한 길의 이미지 시퀀스를 처리할 수 있다. 다시 말하면, 실시예에 따르면, 이미지 시퀀스의 길이에 구애 받지 않고 강인하게 연기를 감지할 수 있다.
도 5는 한 실시예에 따른 컴퓨팅 시스템(500)을 나타내는 블록도이다.
도 5에 나타낸 바와 같이, 한 실시예에 따른 컴퓨팅 시스템(500)은 버스(520)를 통해 통신하는 프로세서(510), 메모리(530), 사용자 인터페이스 입력 장치(540), 사용자 인터페이스 출력 장치(550), 그리고 저장 장치(560)를 포함할 수 있다. 그리고, 컴퓨팅 시스템(500)은 다른 장치와 데이터를 송신 및 수신하기 위한 통신 인터페이스(570)를 더 포함할 수 있다. 상기 도 1에서 설명한 영상 촬영부(110), 연기 감지부(120), 연기 분석부(130), 그리고 재난 경보부(140)는 각각은 도 5의 컴퓨팅 시스템(500)과 같은 구성을 가질 수 있다.
프로세서(510)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(530) 또는 저장 장치(560)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 프로세서(510)는 도 1 내지 도 4에서 설명한 동작, 기능, 그리고 방법들을 구현하도록 구성될 수 있다. 하나의 예로서, 프로세서(510)는 연기를 감지하는 기능 또는 연기를 분석하는 기능을 포함할 수 있다.
메모리(530) 및 저장 장치(560)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(530)는 ROM(read only memory)(531) 및 RAM(random access memory)(532)를 포함할 수 있다. 실시예에서 메모리(530)는 프로세서(510)의 내부 또는 외부에 위치할 수 있고, 메모리(530)는 이미 알려진 다양한 수단을 통해 프로세서(510)와 연결될 수 있다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.

Claims (1)

  1. 영상기반 연기 감지 시스템이 연기를 감지하는 방법으로서,
    촬영된 동영상에 대응되는 이미지 시퀀스 데이터를 동작 패턴을 나타내는 제1 이미지로 변환하는 단계,
    상기 제1 이미지를 신경망 학습 모델에 적용하여, 연기 발생 여부를 감지하는 단계, 그리고
    상기 연기 발생 여부에 대한 정보를 바탕으로 연기 발생 여부를 결정하는 단계를 포함하는 방법.
KR1020210040473A 2021-03-29 2021-03-29 영상기반 연기 감지 시스템 및 방법 KR20220135021A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210040473A KR20220135021A (ko) 2021-03-29 2021-03-29 영상기반 연기 감지 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210040473A KR20220135021A (ko) 2021-03-29 2021-03-29 영상기반 연기 감지 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20220135021A true KR20220135021A (ko) 2022-10-06

Family

ID=83597079

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210040473A KR20220135021A (ko) 2021-03-29 2021-03-29 영상기반 연기 감지 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20220135021A (ko)

Similar Documents

Publication Publication Date Title
CN108073890B (zh) 用于由相机所捕获的视频序列中的动作识别的方法和系统
JP5644097B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101980551B1 (ko) 기계학습 객체검출을 이용한 실시간 지능형 cctv 영상 분석 행위 탐지 시스템 및 기계학습 객체검출을 이용한 실시간 지능형 cctv 영상 분석 행위 탐지 방법
CN102859565B (zh) 用于安全系统恶意干扰检测的方法与系统
KR102195706B1 (ko) 침입 탐지방법 및 그 장치
KR101910542B1 (ko) 객체 검출을 위한 영상분석 서버장치 및 방법
US7982774B2 (en) Image processing apparatus and image processing method
US20080136934A1 (en) Flame Detecting Method And Device
KR102002812B1 (ko) 객체 검출을 위한 영상분석 서버장치 및 방법
KR102172239B1 (ko) 영상 기반 비정상 상황 모니터링 방법 및 시스템
KR102407327B1 (ko) 화재감지장치 및 이를 포함하는 화재감지시스템
KR102247359B1 (ko) 원격 모니터링을 위한 영상 분석 시스템 및 방법
KR101352001B1 (ko) 영상 감시 시스템 및 그 방법
KR101454644B1 (ko) 보행자 추적기를 이용한 서성거림을 탐지하는 방법
JP2020057236A (ja) 煙検出装置及び煙識別方法
KR20110079939A (ko) 이미지 센싱 에이전트 및 usn 복합형 보안 시스템
Tahboub et al. Accuracy prediction for pedestrian detection
KR100513739B1 (ko) 얼굴특징을 이용한 움직임 검출장치 및 이를 적용한감시시스템
KR20220135021A (ko) 영상기반 연기 감지 시스템 및 방법
KR101581162B1 (ko) 실시간 영상 기반의 화염, 연기 및 물체 움직임 자동 감지 방법, 장치 및 시스템
KR20210094931A (ko) 영상 기반 재난 감지 방법 및 장치
KR20210013865A (ko) 생성적 대립 네트워크를 이용한 사람의 비정상 행동 탐지 시스템 및 방법
KR102481215B1 (ko) 통계적 인구 관제를 위한 공간 내 객체감지시스템
JP4925942B2 (ja) 画像センサ
KR101573875B1 (ko) 웨이블릿 변환 영역에서 부대역 에너지 비를 이용한 연기 감지장치

Legal Events

Date Code Title Description
A201 Request for examination