KR20190079110A - 자가학습 기반의 모니터링 영상 분석 장치 및 방법 - Google Patents

자가학습 기반의 모니터링 영상 분석 장치 및 방법 Download PDF

Info

Publication number
KR20190079110A
KR20190079110A KR1020170181076A KR20170181076A KR20190079110A KR 20190079110 A KR20190079110 A KR 20190079110A KR 1020170181076 A KR1020170181076 A KR 1020170181076A KR 20170181076 A KR20170181076 A KR 20170181076A KR 20190079110 A KR20190079110 A KR 20190079110A
Authority
KR
South Korea
Prior art keywords
learning
block
self
error
monitoring image
Prior art date
Application number
KR1020170181076A
Other languages
English (en)
Inventor
이전우
강동오
박종열
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170181076A priority Critical patent/KR20190079110A/ko
Publication of KR20190079110A publication Critical patent/KR20190079110A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • G06K9/00718
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

자가학습 기반의 모니터링 영상 분석 장치 및 방법이 개시된다. 본 발명에 따른 자가학습 기반의 모니터링 영상 분석 장치에 의해 수행되는 자가학습 기반의 모니터링 영상 분석 방법은, 모니터링 영상의 영상 프레임을 누적하여 프레임 누적 영상을 생성하는 단계, 상기 프레임 누적 영상의 입력 블록을 오토 인코더에 적용하는 단계, 상기 입력 블록과 상기 오토 인코더로부터 출력된 출력 블록 간 블록 오차 및 블록 내 프레임 오차 중 적어도 어느 하나를 산출하는 단계, 산출된 상기 블록 오차를 블록 오차 임계값과 비교하는 단계, 상기 블록 오차가 상기 블록 오차 임계값 이하인 것으로 판단된 경우, 상기 입력 블록을 정상 상황으로 분류하고, 상기 입력 블록의 특징을 학습하는 자가 학습을 수행하는 단계, 그리고 상기 블록 오차가 상기 블록 오차 임계값보다 큰 것으로 판단된 경우, 상기 프레임 오차를 기반으로 상기 입력 블록의 재분류를 수행하는 단계를 포함한다.

Description

자가학습 기반의 모니터링 영상 분석 장치 및 방법{APPARATUS AND METHOD FOR IMAGE ANALYZING BASED ON SELF-LEARNING}
본 발명은 자가학습 기반의 모니터링 영상 분석 기술에 관한 것으로, 특히 감시 지역의 모니터링 영상을 분석하여 지속적으로 자가 학습을 수행하고, 자가 학습을 기반으로 비정상 상황을 탐지하는 기술에 관한 것이다.
일반적인 CCTV 시스템은 일정한 지역을 촬영하고, 촬영된 영상을 전송하는 기능을 수행한다. 최근에는 영상 처리 기술이 발전함에 따라 CCTV 시스템에 영상 분석 기능이 추가되어, 촬영된 영상에서 이벤트를 탐지하는 등의 지능형 CCTV 시스템으로 진화하고 있다.
기존의 영상 분석 기능은 기 확보된 영상 정보를 이용하여 자동으로 특정 상황(이벤트)의 발생을 탐지하도록 설계 및 구현된 것으로, 적용 지역이나 이벤트를 고려하여 인위적으로 영상 분석 기능을 재구성하여 적용하였다.
기존의 영상 분석 기능은 설치 장소나 목적에 따른 영상 분석 기능의 재구성을 필요로 한다. 또한, 이벤트 설정을 위해서는 영상 분석 알고리즘이 요구하는 세팅 값을 직접 지정해야 한다. 이와 같이, 기존의 영상 분석 기능은 일반 사용자가 접근하기 힘든 복잡한 이벤트 설정 과정이 요구되며, 사용자가 원하는 이벤트 설정을 위한 적절한 설정 값을 지정해야 하는 불편함이 있다.
한편, 영상 분석 기능을 구현하기 위해서는 대량의 영상 데이터가 필요하다. 그러나 실제 설치 장소에서 촬영되는 영상의 특징을 충분히 반영할 수 있는 영상 데이터를 확보하지 못하여, 설계 시에 가정한 조건들을 벗어나는 경우가 빈발하며, 이로 인하여 오경보가 많이 발생한다. 잦은 오경보로 인해 사용자들이 영상 분석 기능을 신뢰하지 않게 되고, 영상 분석 기능을 끈 상태에서 시스템을 사용하다가, 정작 감시대상 이벤트가 발생했을 때는 감지를 하지 못하는 단점이 있었다.
따라서, 감시 지역의 상황을 지속적으로 자가 학습하여, 비정상 이벤트 검출 정확도를 향상시킬 수 있는 기술의 개발이 필요하다.
한국 공개 특허 제10-2015-0029006호, 2015년 03월 17일 공개 (명칭: 비디오 감시 시스템을 위한 피처 이례들의 무감독 학습)
본 발명의 목적은 감시 지역의 모니터링 영상을 이용하여 지속적으로 자가학습을 수행함으로써, 감시 지역의 현장 특성을 반영한 지능형 영상 분석 기능을 제공하는 것이다.
또한, 본 발명의 목적은 모니터링 영상 분석 장치 설치 후, 시간이 경과할수록 비정상 이벤트를 탐지하는 성능의 정확도가 향상되도록 자가학습 하는 것이다.
또한, 본 발명의 목적은 감시 지역의 장소나 목적에 따른 인위적인 영상 분석 기능의 재구성 과정, 사용자의 매개변수 설정 과정 등을 생략하여, 사용자의 개입을 최소화하는 하는 것이다.
또한, 본 발명의 목적은 모니터링 영상 분석 시, 오경보 가능성을 현저히 줄이는 것이다.
상기한 목적을 달성하기 위한 본 발명에 따른 자가학습 기반의 모니터링 영상 분석 장치에 의해 수행되는 자가학습 기반의 모니터링 영상 분석 방법은, 모니터링 영상의 영상 프레임을 누적하여 프레임 누적 영상을 생성하는 단계, 상기 프레임 누적 영상의 입력 블록을 오토 인코더에 적용하는 단계, 상기 입력 블록과 상기 오토 인코더로부터 출력된 출력 블록 간 블록 오차 및 블록 내 프레임 오차 중 적어도 어느 하나를 산출하는 단계, 산출된 상기 블록 오차를 블록 오차 임계값과 비교하는 단계, 상기 블록 오차가 상기 블록 오차 임계값 이하인 것으로 판단된 경우, 상기 입력 블록을 정상 상황으로 분류하고, 상기 입력 블록의 특징을 학습하는 자가 학습을 수행하는 단계, 그리고 상기 블록 오차가 상기 블록 오차 임계값보다 큰 것으로 판단된 경우, 상기 프레임 오차를 기반으로 상기 입력 블록의 재분류를 수행하는 단계를 포함한다.
이때, 상기 블록 오차 임계값을 설정하기 위하여, 초기 학습을 수행하는 단계를 더 포함하며, 상기 초기 학습을 수행하는 단계는, 상기 초기 학습의 대상이 되는 학습용 입력 블록을 상기 오토 인코더에 적용하는 단계, 상기 학습용 입력 블록과 상기 학습용 입력 블록을 상기 오토 인코더에 적용한 결과인 학습용 출력 블록 간 학습용 블록 오차를 산출하는 단계, 상기 학습용 블록 오차와 최소 블록 오차를 비교하여 오차 변화량을 산출하는 단계, 그리고 산출된 오차 변화량을 기반으로, 상기 초기 학습의 수행 반복 여부를 결정하는 단계를 포함할 수 있다.
이때, 상기 초기 학습을 수행하는 단계는, 상기 초기 학습의 수행이 종료된 경우, 상기 초기 학습 과정에서 상기 학습용 블록 오차의 최소 값에 가중치를 부여하여, 상기 블록 오차 임계값을 설정하는 단계를 더 포함할 수 있다.
이때, 상기 입력 블록의 재분류를 수행하는 단계는, 산출된 상기 프레임 오차와 프레임 오차 임계값을 비교하는 단계, 상기 프레임 오차가 상기 프레임 오차 임계값 이하인 것으로 판단된 경우, 상기 입력 블록을 상기 정상 상황으로 재분류하는 단계, 그리고 상기 프레임 오차가 상기 프레임 오차 임계값보다 큰 것으로 판단된 경우, 상기 입력 블록을 비정상 상황으로 분류하는 단계를 포함할 수 있다.
이때, 상기 비정상 상황으로 분류된 경우, 비정상 이벤트를 생성하고, 상기 입력 블록의 정보, 상기 블록 오차 및 상기 프레임 오차 중 적어도 어느 하나를 포함하는 상기 비정상 이벤트의 정보를 저장하는 단계를 더 포함할 수 있다.
또한, 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 장치는 모니터링 영상의 영상 프레임을 누적하여 프레임 누적 영상을 생성하는 프레임 누적 영상 생성부, 상기 프레임 누적 영상의 입력 블록을 오토 인코더에 적용하고, 상기 입력 블록과 상기 오토 인코더로부터 출력된 출력 블록 간 블록 오차 및 블록 내 프레임 오차 중 적어도 어느 하나를 산출하며, 산출된 상기 블록 오차를 블록 오차 임계값과 비교하고, 상기 블록 오차가 상기 블록 오차 임계값 이하인 것으로 판단된 경우 상기 입력 블록을 정상 상황으로 분류하는 상황 탐지부, 그리고 상기 정상 상황으로 분류된 경우, 상기 입력 블록의 특징을 학습하는 자가 학습을 수행하는 자가 학습 수행부를 포함하고, 상기 상황 탐지부는, 상기 블록 오차가 상기 블록 오차 임계값보다 큰 것으로 판단된 경우, 상기 프레임 오차를 기반으로 상기 입력 블록의 재분류를 수행한다.
이때, 상기 자가 학습 수행부는, 상기 블록 오차 임계값을 설정하기 위하여 초기 학습을 수행하며, 상기 초기 학습의 대상이 되는 학습용 입력 블록을 상기 오토 인코더에 적용하고, 상기 학습용 입력 블록과 상기 학습용 입력 블록을 상기 오토 인코더에 적용한 결과인 학습용 출력 블록 간 학습용 블록 오차를 산출하며, 상기 학습용 블록 오차와 최소 블록 오차를 비교하여 오차 변화량을 산출하고, 산출된 오차 변화량을 기반으로 상기 초기 학습의 수행 반복 여부를 결정할 수 있다.
이때, 상기 자가 학습 수행부는, 상기 초기 학습의 수행이 종료된 경우, 상기 초기 학습 과정에서 상기 학습용 블록 오차의 최소 값에 가중치를 부여하여, 상기 블록 오차 임계값을 설정할 수 있다.
이때, 상기 상황 탐지부는, 산출된 상기 프레임 오차와 프레임 오차 임계값을 비교하고, 상기 프레임 오차가 상기 프레임 오차 임계값 이하인 것으로 판단된 경우 상기 입력 블록을 상기 정상 상황으로 재분류하며, 상기 프레임 오차가 상기 프레임 오차 임계값보다 큰 것으로 판단된 경우 상기 입력 블록을 비정상 상황으로 분류할 수 있다.
이때, 상기 비정상 상황으로 분류된 경우, 비정상 이벤트를 생성하고, 상기 입력 블록의 정보, 상기 블록 오차 및 상기 프레임 오차 중 적어도 어느 하나를 포함하는 상기 비정상 이벤트의 정보를 저장하는 비정상 이벤트 처리부를 더 포함할 수 있다.
본 발명에 따르면, 감시 지역의 모니터링 영상을 이용하여 지속적으로 자가학습을 수행함으로써, 감시 지역의 현장 특성을 반영한 지능형 영상 분석 기능을 제공할 수 있다.
또한 본 발명에 따르면, 모니터링 영상 분석 장치 설치 후, 시간이 경과할수록 비정상 상황을 탐지하는 성능의 정확도가 향상되도록 자가학습 할 수 있다.
또한 본 발명에 따르면, 감시 지역의 장소나 목적에 따른 인위적인 영상 분석 기능의 재구성 과정, 사용자의 매개변수 설정 과정 등을 생략하여, 사용자의 개입을 최소화할 수 있다.
또한 본 발명에 따르면, 모니터링 영상 분석 시, 오경보 가능성을 현저히 줄일 수 있다.
도 1은 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 장치가 적용되는 환경을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 장치의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 따른 초기 학습을 수행하는 과정을 설명하기 위한 순서도이다.
도 4는 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 일실시예에 따른 프레임 누적 영상 및 입력 블록을 나타낸 예시도이다.
도 6은 본 발명의 일실시예에 따른 오토 인코더를 나타낸 예시도이다.
도 7은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 장치가 적용되는 환경을 개략적으로 나타낸 도면이다.
도 1에 도시한 바와 같이, 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 시스템은 하나 이상의 CCTV 카메라(100), 자가학습 기반의 모니터링 영상 분석 장치(200), 모니터링 영상 저장소(300) 및 경보 출력 장치(400)를 포함한다.
CCTV 카메라(100)는 모니터링 대상 영역을 촬영하여 모니터링 영상을 생성하고, 생성된 모니터링 영상을 자가학습 기반의 모니터링 영상 분석 장치(200)로 전송한다.
그리고 자가학습 기반의 모니터링 영상 분석 장치(200)는 자가학습 기반의 모니터링 영상 분석 시스템이 운용되는 초기 학습 과정 및 영상 모니터링 과정을 수행할 수 있다.
초기 학습 과정은, CCTV 카메라(100)가 모니터링 대상 영역인 현장에 설치된 후, CCTV 카메라(100)가 촬영한 모니터링 영상을 기반으로 자가학습 기반의 모니터링 영상 분석 장치(200)가 현장 영상의 특징을 자가 학습하는 과정이다. 초기 학습 과정에서 오토 인코더의 변수를 포함하는 모든 변수들은 초기화되어 있는 상태로, 종래의 다양한 초기화 방법 중에서 어느 하나의 방법으로 변수들이 초기화되어 있을 수 있다.
그리고 초기 학습 과정을 통해 블록 오차 임계값이 설정된 후, 자가학습 기반의 모니터링 영상 분석 장치(200)는 영상 모니터링 과정을 수행할 수 있다.
초기 학습 과정 및 영상 모니터링 과정에서, 자가학습 기반의 모니터링 영상 분석 장치(200)는 입력받은 모니터링 영상의 영상 프레임을 누적하여 프레임 누적 영상을 생성한다. 이때, 자가학습 기반의 모니터링 영상 분석 장치(200)는 CCTV 카메라(100)의 영상 데이터 스트림으로부터 일정 간격으로 복수의 프레임을 선택하여 프레임 누적 영상을 생성할 수 있다.
또한, 자가학습 기반의 모니터링 영상 분석 장치(200)는 프레임 누적 영상을 오토 인코더에 입력 블록으로 적용하고, 오토 인코더의 출력인 출력 블록과 입력 블록 간 블록 오차를 산출한다. 여기서, 오토 인코더는 비지도 온라인 학습이 가능한 콘볼루셔널 신경망(Convolutional Neural Network, CNN) 오토 인코더를 의미할 수 있다.
산출된 블록 오차가 블록 오차 임계값 이하인 경우, 자가학습 기반의 모니터링 영상 분석 장치(200)는 정상 상황으로 분류하고, 자가 학습을 수행할 수 있다. 이와 같이, 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 장치(200)는 정상 상황인 영상 블록에 대하여 지속적으로 자가 학습을 수행하여, 시간이 경과할수록 점점 더 성능이 향상될 수 있다.
그리고 산출된 블록 오차가 블록 오차 임계값보다 큰 경우, 자가학습 기반의 모니터링 영상 분석 장치(200)는 프레임 오차를 기반으로 재분류를 수행할 수 있다. 이때, 자가학습 기반의 모니터링 영상 분석 장치(200)는 산출된 프레임 오차가 프레임 오차 임계값보다 큰 경우, 비정상 상황으로 분류하고, 비정상 이벤트를 처리할 수 있다. 반면, 산출된 프레임 오차가 프레임 오차 임계값 이하인 경우, 자가학습 기반의 모니터링 영상 분석 장치(200)는 정상 상황으로 재분류 할 수 있다.
그리고 자가학습 기반의 모니터링 영상 분석 장치(200)는 CPU, 메모리, 입출력 장치 등으로 구성되는 컴퓨터 시스템일 수 있으며, 통상적인 키보드, 마우스, 모니터 등의 사용자 입출력 장치를 포함할 수 있다.
다음으로 모니터링 영상 저장소(300)는 CCTV 카메라(100)가 촬영한 모니터링 영상 및 비정상 이벤트 중 적어도 어느 하나를 저장할 수 있다. 그리고 모니터링 영상 저장소(300)는 NVR(Network Video Recorder), DVR(Digital Video Recorder) 또는 VMS용 대규모 스토리지 서버일 수 있다.
모니터링 영상 저장소(300)가 비정상 이벤트를 저장하는 경우, 비정상 상황에 상응하는 입력 블록의 정보, 블록 오차 및 프레임 오차 중 적어도 어느 하나를 포함하는 비정상 이벤트의 정보를 저장할 수 있다.
마지막으로, 경보 출력 장치(400)는 비정상 상황인 것으로 판단된 경우, 경보를 출력할 수 있다. 경보 출력 장치(400)는 모니터, 스피커, 경광등 등과 같이 통상적으로 채용되는 경고 출력 장치들로 구성될 수 있다.
이와 같이, 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 장치(200)는 모니터링 대상 영역(감시 지역)을 촬영한 모니터링 영상들을 이용하여, 모니터링 대상 영역의 상황을 지속적으로 자가 학습함으로써, 설치 후 시간이 경과할수록 비정상 상황에 대한 경보 발생의 정확도를 향상시킬 수 있다.
이하에서는 도 2를 통하여 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 장치의 구성에 대하여 더욱 상세하게 설명한다.
도 2는 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 장치의 구성을 나타낸 블록도이다.
도 2에 도시한 바와 같이, 자가학습 기반의 모니터링 영상 분석 장치(200)는 프레임 누적 영상 생성부(210), 상황 탐지부(220), 자가 학습 수행부(230) 및 비정상 이벤트 처리부(240)를 포함한다.
프레임 누적 영상 생성부(210)는 모니터링 영상의 영상 프레임을 누적하여, 프레임 누적 영상을 생성한다. 프레임 누적 영상 생성부(210)는 상황 탐지부(220)의 구동 및 학습에 필요한 포맷으로 영상 프레임을 선택적으로 누적하여 프레임 누적 영상을 생성하고, 생성된 프레임 누적 영상을 상황 탐지부(220)에 제공할 수 있다.
다음으로 상황 탐지부(220)는 프레임 누적 영상의 입력 블록을 오토 인코더에 적용하고, 입력 블록과 오토 인코더로부터 출력된 출력 블록간 블록 오차 및 블록 내 프레임 오차 중 적어도 어느 하나를 산출한다.
그리고 상황 탐지부(220)는 산출된 블록 오차를 블록 오차 임계값과 비교하고, 블록 오차가 블록 오차 임계값 이하인 것으로 판단된 경우, 입력 블록을 정상 상황으로 분류한다. 반면, 상황 탐지부(220)는 블록 오차가 블록 오차 임계값보다 큰 것으로 판단된 경우, 프레임 오차를 기반으로 재분류를 수행할 수 있다.
상황 탐지부(220)는 산출된 프레임 오차가 프레임 오차 임계값 이하인 것으로 판단된 경우, 입력 블록을 정상 상황으로 재분류한다. 반면, 산출된 프레임 오차가 프레임 오차 임계값보다 큰 경우 상황 탐지부(220)는 입력 블록을 비정상 상황으로 분류할 수 있다.
그리고 자가 학습 수행부(230)는 블록 오차 임계값을 설정하기 위하여 초기 학습을 수행한다. 초기 학습 수행 과정에서, 자가 학습 수행부(230)는 초기 학습의 대상이 되는 학습용 입력 블록을 오토 인코더에 적용한다. 그리고 자가 학습 수행부(230)는 학습용 입력 블록과 학습용 입력 블록을 오토 인코더에 적용한 결과인 학습용 출력 블록 간 학습용 블록 오차를 산출한다.
또한, 자가 학습 수행부(230)는 학습용 블록 오차와 최소 블록 오차를 비교하여 오차 변화량을 산출하고, 산출된 오차 변화량을 기반으로 초기 학습을 반복하여 수행할 지 여부를 결정할 수 있다.
이때, 산출된 오차 변화량이 초기 학습 임계값 미만인 경우, 자가 학습 수행부(230)는 블록 오차 임계값을 설정하고, 초기 학습 수행을 종료할 수 있다. 반면, 산출된 오차 변화량이 초기 학습 임계값 이상인 경우, 자가 학습 수행부(230)는 최소 블록 오차를 업데이트하고, 초기 학습 수행을 반복하여 수행할 수 있다.
그리고 자가 학습 수행부(230)는 초기 학습의 수행이 종료된 경우, 초기 학습 과정에서 학습용 블록 오차의 최소값에 가중치를 부여하여, 블록 오차 임계값을 설정할 수 있다. 자가 학습 수행부(230)는 정상 상황으로 분류된 경우, 입력 블록의 특징을 학습하는 자가 학습을 수행한다.
마지막으로, 비정상 이벤트 처리부(240)는 비정상 상황으로 분류된 경우, 비정상 이벤트를 생성하고, 입력 블록의 정보, 블록 오차 및 프레임 오차 중 적어도 어느 하나를 포함하는 비정상 이벤트의 정보를 저장할 수 있다.
이하에서는 도 3 및 도 4를 통하여, 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 장치에 의해 수행되는 자가학습 기반의 모니터링 영상 분석 방법에 대하여 더욱 상세하게 설명한다.
도 3에 도시한 과정은 자가학습 기반의 모니터링 영상 분석 장치(200)가 초기 학습을 수행하는 과정(초기 학습 과정)이고, 도 4에 도시한 과정은 자가학습 기반의 모니터링 영상 분석 장치(200)가 초기 학습을 수행한 후, 모니터링 영상을 분석하여 비정상 이벤트를 탐지 및 처리하는 과정(영상 모니터링 과정)이다.
도 3은 본 발명의 일실시예에 따른 초기 학습을 수행하는 과정을 설명하기 위한 순서도이다.
먼저, 자가학습 기반의 모니터링 영상 분석 장치(200)는 학습용 입력 블록을 오토 인코더에 적용한다(S310).
자가학습 기반의 모니터링 영상 분석 장치(200)는 CCTV 카메라(100)로부터 입력된 모니터링 영상의 영상 프레임을 누적하여 프레임 누적 영상을 생성한다. 그리고 자가학습 기반의 모니터링 영상 분석 장치(200)는 생성된 프레임 누적 영상의 학습용 입력 블록을 오토 인코더에 적용하여 학습용 출력 블록을 생성하고, 역전파(Backpropagation) 기법을 사용하여 학습용 입력 블록에 대한 CNN 오토 인코더 학습을 수행할 수 있다.
그리고 자가학습 기반의 모니터링 영상 분석 장치(200)는 학습용 블록 오차를 산출한다(S320).
자가학습 기반의 모니터링 영상 분석 장치(200)는 학습용 입력 블록과 학습용 출력 블록 간 오차인 학습용 블록 오차(
Figure pat00001
)를 산출한다. 시간 t에서, 학습용 입력 블록과 학습용 출력 블록의 동일한 위치 픽셀의 오차값은 다음의 수학식 1과 같이 산출될 수 있다.
[수학식 1]
Figure pat00002
여기서, 함수 I는 픽셀 값을 의미하고,
Figure pat00003
는 오토 인코더 출력 픽셀 값을 의미한다.
그리고 각 프레임 m의 오차는 다음의 수학식 2와 같이 산출될 수 있으며, 블록 전체의 블록 오차인 학습용 블록 오차는 수학식 3과 같을 수 있다.
[수학식 2]
Figure pat00004
[수학식 3]
Figure pat00005
다음으로 자가학습 기반의 모니터링 영상 분석 장치(200)는 오차 변화량을 산출하고(S330), 산출된 오차 변화량과 초기 학습 임계값을 비교한다(S340).
자가학습 기반의 모니터링 영상 분석 장치(200)는 산출된 학습용 블록 오차(
Figure pat00006
)와 이전에 입력된 블록 오차 최소값(
Figure pat00007
)을 비교하여, 오차 변화량(
Figure pat00008
)을 산출한다. 그리고 자가학습 기반의 모니터링 영상 분석 장치(200)는 다음의 수학식 4와 같이 산출된 오차 변화량과 초기 학습 임계값(
Figure pat00009
)을 비교한다. 여기서, 블록 오차 최소값(
Figure pat00010
)은 초기 학습 과정에서 계속 업데이트될 수 있다.
[수학식 4]
Figure pat00011
비교 결과, 오차 변화량이 초기 학습 임계값보다 작은 경우(S340 Yes), 자가학습 기반의 모니터링 영상 분석 장치(200)는 블록 오차 임계값을 설정한다(S350). 반면, 오차 변화량이 초기 학습 임계값보다 큰 경우(S340 No), 자가학습 기반의 모니터링 영상 분석 장치(200)는 최소 블록 오차 업데이트를 수행하고(S360), 다시 S310 단계를 수행할 수 있다.
S350 단계에서 자가학습 기반의 모니터링 영상 분석 장치(200)는 초기 학습 과정에서의 블록 오차 최소값(
Figure pat00012
)을 블록 오차 임계값으로 설정할 수 있다.
그리고 S360 단계에서 자가학습 기반의 모니터링 영상 분석 장치(200)는 다음의 수학식 5와 같이, 최소 블록 오차 업데이트를 수행하여, 블록 오차 최소값(
Figure pat00013
)을 업데이트할 수 있다.
[수학식 5]
Figure pat00014
설명의 편의를 위하여, 자가학습 기반의 모니터링 영상 분석 장치(200)가 오차 변화량과 초기 학습 임계값을 비교한 결과를 기반으로, S350 단계를 수행하여 블록 오차 임계값을 설정한 후 초기 학습 과정의 수행을 종료하거나, S360 단계를 수행하여 최소 블록 오차를 업데이트한 후 초기 학습 과정을 반복 수행하는 것으로 설명하였다.
그러나 이에 한정하지 않고, 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 장치(200)는 초기 학습 수행의 종료 여부를 결정하기 위하여, 안정화 횟수를 기반으로 초기 학습 과정의 반복 수행 여부를 결정할 수도 있다.
오차 변화량이 초기 학습 임계값보다 작은 경우(S340 Yes), 자가학습 기반의 모니터링 영상 분석 장치(200)는 최소 블록오차 업데이트를 수행하고, 안정화 횟수를 1 증가시키며, 안정화 횟수와 안정화 횟수 임계값을 비교하는 과정을 수행할 수 있다.
여기서, 초기 학습 임계값 및 안정화 횟수 임계값은 영상의 특성을 반영하여, 자가학습 기반의 모니터링 영상 분석 시스템 설계 시 입력된 값일 수 있다.
안정화 횟수가 안정화 횟수 임계값 미만인 경우, 자가학습 기반의 모니터링 영상 분석 장치(200)는 다시 S310 단계를 수행하여 도 3의 초기 학습 과정을 반복하여 수행할 수 있다.
반면, 안정화 횟수가 안정화 횟수 임계값 이상인 경우, 자가학습 기반의 모니터링 영상 분석 장치(200)는 오차 변화가 없는 것으로 판단하고, 도 3의 초기 학습 과정의 반복 수행을 종료하고, S350 단계를 수행할 수 있다.
즉, 자가학습 기반의 모니터링 영상 분석 장치(200)는 오차 변화량이 초기 학습 임계값 미만으로 블록 오차의 변화가 거의 없는 것으로 판단된 경우, 안정화된 것으로 판단하여 안정화 횟수를 1 증가시킨다. 또한, 자가학습 기반의 모니터링 영상 분석 장치(200)는 오차 변화량이 초기 학습 임계값 미만인 횟수(안정화 횟수)가 연속적으로 안정화 횟수 임계값 이상 반복되는 경우, 초기 학습 과정의 수행 종료를 결정할 수 있다.
그리고 초기 학습 과정의 수행 종료 결정 시, 자가학습 기반의 모니터링 영상 분석 장치(200)는 영상 모니터링 과정에서 비정상 상태를 검출하기 위하여 초기 학습 과정에서의 최소 블록 오차 값을 블록 오차 임계값으로 설정할 수 있다.
도 4는 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 방법을 설명하기 위한 순서도이다.
도 3의 과정을 수행하여 초기 학습을 완료한 후, 자가학습 기반의 모니터링 영상 분석 장치(200)는 프레임 누적 영상을 생성하고(S410), 입력 블록을 오토 인코더에 적용한다(S420).
도 5는 본 발명의 일실시예에 따른 프레임 누적 영상 및 입력 블록을 나타낸 예시도이다.
도 5에 도시한 바와 같이, 자가학습 기반의 모니터링 영상 분석 장치(200)는 CCTV 카메라(100)로부터 입력받은 모니터링 영상의 영상 프레임을 누적하여 프레임 누적 영상인 영상 데이터 스트림(510)을 생성하고, 영상 데이터 스트림(510)의 누적 영상 블록(525)을 오토 인코더에 입력 블록으로 적용한다.
도 5에서, 프레임 누적 영상 내 프레임 개수(m)=5이고, 프레임 선택 간격(n)=3이며, 연속된 누적 영상간 겹치는 프레임 수는 1이다. 그리고 프레임 누적 영상 내 프레임 개수(m)는 CCTV 카메라(100)를 통해 모니터링하는 모니터링 대상 영역의 환경 및 대상에 따라 달라질 수 있으며, 프레임 누적 영상 내 프레임 개수(m)가 클수록 상태 판단의 성능이 향상되지만, 정상 상태 탐지 변수의 수가 증가하므로 영상 분석에 필요한 컴퓨팅 성능 요구가 증가한다. 따라서, 프레임 누적 영상 내 프레임 개수(m)는 30개 이하일 수 있으며, 프레임 누적 영상 내 프레임 개수(m)는 필요에 따라 다양하게 설계 변경하여 적용될 수 있다.
자가학습 기반의 모니터링 영상 분석 장치(200)는 영상 데이터 스트림(510)에서 매 프레임을 모두 선택하거나, 일정 간격을 건너뛰어 최종 선택 프레임 이후 매 n번째 프레임을 선택할 수 있다. 이때, 프레임 선택 간격(n)은 모니터링 대상 객체들의 이동 속도를 고려하여 결정될 수 있으며, 이동 속도가 빠른 경우 n값을 작게 설정하고, 이동 속도가 느린 경우 n값을 크게 설정할 수 있다.
그리고 자가학습 기반의 모니터링 영상 분석 시스템 설계 시 설치 환경을 분석하여, 인코더에 1회에 입력되는 프레임 누적 영상 내 프레임 개수(m)에 최소 2회 이상 동일한 모니터링 대상 객체가 존재할 수 있도록, m 및 n을 선택적으로 설정하여 적용할 수 있다.
또한, 도 5에 도시한 바와 같이, 프레임 누적 영상(520)의 누적 영상블록에는 1개 이상의 프레임이 겹쳐서 입력되도록 프레임 누적 영상(520)을 구성할 수 있다.
도 6은 본 발명의 일실시예에 따른 오토 인코더를 나타낸 예시도이다.
도 6에 도시한 바와 같이, 자가학습 기반의 모니터링 영상 분석 장치(200)는 대표적인 콘볼루셔널 심층신경망인 알렉스넷을 참고한 CNN 오토 인코더를 이용하여 CNN 오토 인코더 학습을 수행할 수 있다.
CNN 오토 인코더는 인코더(610) 및 디코더(620)가 직렬로 연결된 형태로, 입력 프레임 누적 영상은 인코더(610)에 입력되어, 디코더(620)를 거처 복구될 수 있다.
또한, 본 발명의 일실시예에 따른 자가학습 기반의 모니터링 영상 분석 장치(200)에 포함되는 오토 인코더는 기 알려진 통상의 학습 방법들 중에서 온라인 학습 방법을 사용할 수 있다.
그리고 다시 도 4에 대하여 설명하면, 자가학습 기반의 모니터링 영상 분석 장치(200)는 블록 오차 및 프레임 오차를 산출한다(S430).
자가학습 기반의 모니터링 영상 분석 장치(200)는 도 6의 입력 프레임 누적 영상과 출력 프레임 누적 영상 간 블록 오차(
Figure pat00015
) 및 프레임 오차(
Figure pat00016
)를 산출한다. 이때, 블록 오차 및 프레임 오차를 산출하는 과정은 도 3의 S320 단계에서 수학식 1 내지 수학식 3을 통하여 학습용 블록 오차 및 프레임 오차를 산출하는 과정과 실질적으로 동일한 바, 중복되는 설명은 생략한다.
자가학습 기반의 모니터링 영상 분석 장치(200)는 산출된 블록 오차와 블록 오차 임계값을 비교한다(S440).
비교 결과, 블록 오차가 블록 오차 임계값 이하인 경우 자가학습 기반의 모니터링 영상 분석 장치(200)는 정상 상황으로 분류하고, 자가 학습을 수행한다(S450). 반면, 블록 오차가 블록 오차 임계값보다 큰 경우, 자가학습 기반의 모니터링 영상 분석 장치(200)는 입력 블록의 재분류를 수행할 수 있다(S460).
자가학습 기반의 모니터링 영상 분석 장치(200)는 초기 학습 과정에서 설정된 블록 오차 임계값과 현재의 블록 오차(
Figure pat00017
)를 비교하여 오차값의 크기를 점검할 수 있다. 이때, 자가학습 기반의 모니터링 영상 분석 장치(200)는 2 이상의 값을 갖는 제1 가중치를 블록 오차 임계값에 곱하여 블록 오차 임계값을 재 산출한 후, 현재의 블록 오차(
Figure pat00018
)가 재 산출된 블록 오차 임계값보다 작은 경우, 정상 상황으로 영상을 분류할 수 있다.
정상 상황으로 분류된 경우, 자가학습 기반의 모니터링 영상 분석 장치(200)는 S450 단계를 통하여 오토 인코더가 해당 영상의 특징을 학습하는 자가 학습 과정을 수행한 후, 다음 누적 영상 블록을 처리할 수 있다.
반면, 블록 오차(
Figure pat00019
)가 블록 오차 임계값보다 커, 정상 상황 범위를 넘는 경우, 자가학습 기반의 모니터링 영상 분석 장치(200)는 S460 단계를 통하여 입력 블록의 재분류를 수행할 수 있다.
그리고 자가학습 기반의 모니터링 영상 분석 장치(200)는 프레임 오차 임계값과 블록 내 프레임 오차를 비교한다(S470).
이때, 자가학습 기반의 모니터링 영상 분석 장치(200)는 프레임 오차 최소값에 설계 시 설정된 제2 가중치를 곱하여 프레임 오차 임계값을 생성하고, 블록 내 프레임 오차 최대값과 생성된 프레임 오차 임계값을 비교할 수 있다. 여기서, 제2 가중치는 3 이상의 값을 가질 수 있다.
블록 내 프레임 오차 최대값(프레임 오차)이 프레임 오차 임계값보다 작은 경우(S470 No), 자가학습 기반의 모니터링 영상 분석 장치(200)는 정상 상황으로 재분류 할 수 있다. 그리고 정상 상황으로 재분류된 경우, 자가학습 기반의 모니터링 영상 분석 장치(200)는 오토 인코더가 해당 영상의 특징을 학습하는 자가 학습 과정을 수행한 후 다음 누적 영상 블록을 처리하도록 할 수 있다.
반면, 블록 내 프레임 오차 최대값이 프레임 오차 임계값보다 큰 경우(S470 Yes), 자가학습 기반의 모니터링 영상 분석 장치(200)는 비정상 상황으로 분류하고(S480), 비정상 이벤트를 처리할 수 있다(S490).
설명의 편의상, 자가학습 기반의 모니터링 영상 분석 장치(200)가 S450 단계에서 자가 학습을 수행한 후 또는 S490 단계에서 비정상 이벤트를 처리한 후, 도 4의 자가학습 기반의 모니터링 영상 분석 과정의 수행을 종료하는 것으로 도시하였다. 그러나 다음 누적 영상의 입력 블록이 존재하는 경우, 자가학습 기반의 모니터링 영상 분석 장치(200)는 다음 누적 영상의 입력 블록을 처리하기 위하여 S420 단계를 수행할 수 있다.
도 7은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.
도 7을 참조하면, 본 발명의 실시예는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(700)에서 구현될 수 있다. 도 7에 도시된 바와 같이, 컴퓨터 시스템(700)은 버스(720)를 통하여 서로 통신하는 하나 이상의 프로세서(710), 메모리(730), 사용자 인터페이스 입력 장치(740), 사용자 인터페이스 출력 장치(750) 및 스토리지(760)를 포함할 수 있다. 또한, 컴퓨터 시스템(700)은 네트워크(780)에 연결되는 네트워크 인터페이스(770)를 더 포함할 수 있다. 프로세서(710)는 중앙 처리 장치 또는 메모리(730)나 스토리지(760)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(730) 및 스토리지(760)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(731)이나 RAM(732)을 포함할 수 있다.
따라서, 본 발명의 실시예는 컴퓨터로 구현된 방법이나 컴퓨터에서 실행 가능한 명령어들이 기록된 비일시적인 컴퓨터에서 읽을 수 있는 매체로 구현될 수 있다. 컴퓨터에서 읽을 수 있는 명령어들이 프로세서에 의해서 수행될 때, 컴퓨터에서 읽을 수 있는 명령어들은 본 발명의 적어도 한 가지 태양에 따른 방법을 수행할 수 있다.
이상에서와 같이 본 발명에 따른 자가학습 기반의 모니터링 영상 분석 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
100: CCTV 카메라
200: 자가학습 기반의 모니터링 영상 분석 장치
210: 프레임 누적 영상 생성부 220: 상황 탐지부
230: 자가 학습 수행부 240: 비정상 이벤트 처리부
300: 모니터링 영상 저장소 400: 경보 출력 장치
510: 영상 데이터 스트림 520: 입력 프레임 누적 영상
525: 누적 영상 블록 610: 인코더
620: 디코더 700: 컴퓨터 시스템
710: 프로세서 720: 버스
730: 메모리 731: 롬
732: 램
740: 사용자 인터페이스 입력 장치
750: 사용자 인터페이스 출력 장치
760: 스토리지 770: 네트워크 인터페이스
780: 네트워크

Claims (1)

  1. 자가학습 기반의 모니터링 영상 분석 장치에 의해 수행되는 자가학습 기반의 모니터링 영상 분석 방법에 있어서,
    모니터링 영상의 영상 프레임을 누적하여 프레임 누적 영상을 생성하는 단계,
    상기 프레임 누적 영상의 입력 블록을 오토 인코더에 적용하는 단계,
    상기 입력 블록과 상기 오토 인코더로부터 출력된 출력 블록 간 블록 오차 및 블록 내 프레임 오차 중 적어도 어느 하나를 산출하는 단계,
    산출된 상기 블록 오차를 블록 오차 임계값과 비교하는 단계,
    상기 블록 오차가 상기 블록 오차 임계값 이하인 것으로 판단된 경우, 상기 입력 블록을 정상 상황으로 분류하고, 상기 입력 블록의 특징을 학습하는 자가 학습을 수행하는 단계, 그리고
    상기 블록 오차가 상기 블록 오차 임계값보다 큰 것으로 판단된 경우, 상기 프레임 오차를 기반으로 상기 입력 블록의 재분류를 수행하는 단계를 포함하는 것을 특징으로 하는 자가학습 기반의 모니터링 영상 분석 방법.
KR1020170181076A 2017-12-27 2017-12-27 자가학습 기반의 모니터링 영상 분석 장치 및 방법 KR20190079110A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170181076A KR20190079110A (ko) 2017-12-27 2017-12-27 자가학습 기반의 모니터링 영상 분석 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170181076A KR20190079110A (ko) 2017-12-27 2017-12-27 자가학습 기반의 모니터링 영상 분석 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20190079110A true KR20190079110A (ko) 2019-07-05

Family

ID=67225484

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170181076A KR20190079110A (ko) 2017-12-27 2017-12-27 자가학습 기반의 모니터링 영상 분석 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20190079110A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210082412A (ko) * 2019-10-04 2021-07-05 에스케이텔레콤 주식회사 보안 비디오에 대한 어노말리 검출장치 및 방법
KR20210147559A (ko) * 2020-05-29 2021-12-07 한국전자통신연구원 영상 인식 장치 및 방법
KR20220036292A (ko) * 2020-09-15 2022-03-22 주식회사 뷰노 심전도 데이터 분류를 위한 심층 신경망 사전 학습 방법
KR20220067159A (ko) * 2020-11-17 2022-05-24 연세대학교 산학협력단 이상 상황 감지 장치 및 방법
KR20220147363A (ko) 2021-04-27 2022-11-03 주식회사 케이티 감시 대상 공간을 모니터링하는 이상 감지 서버

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150029006A (ko) 2012-06-29 2015-03-17 비헤이버럴 레코그니션 시스템즈, 인코포레이티드 비디오 감시 시스템을 위한 피처 이례들의 무감독 학습

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150029006A (ko) 2012-06-29 2015-03-17 비헤이버럴 레코그니션 시스템즈, 인코포레이티드 비디오 감시 시스템을 위한 피처 이례들의 무감독 학습

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210082412A (ko) * 2019-10-04 2021-07-05 에스케이텔레콤 주식회사 보안 비디오에 대한 어노말리 검출장치 및 방법
KR20210147559A (ko) * 2020-05-29 2021-12-07 한국전자통신연구원 영상 인식 장치 및 방법
KR20220036292A (ko) * 2020-09-15 2022-03-22 주식회사 뷰노 심전도 데이터 분류를 위한 심층 신경망 사전 학습 방법
WO2022059969A1 (ko) * 2020-09-15 2022-03-24 주식회사 뷰노 심전도 데이터 분류를 위한 심층 신경망 사전 학습 방법
KR20220067159A (ko) * 2020-11-17 2022-05-24 연세대학교 산학협력단 이상 상황 감지 장치 및 방법
KR20220147363A (ko) 2021-04-27 2022-11-03 주식회사 케이티 감시 대상 공간을 모니터링하는 이상 감지 서버

Similar Documents

Publication Publication Date Title
KR20190079110A (ko) 자가학습 기반의 모니터링 영상 분석 장치 및 방법
US7577542B2 (en) Method and apparatus for dynamically adjusting the resolution of telemetry signals
JP6609050B2 (ja) 時間的因果グラフにおける異常フュージョン
US20160292512A1 (en) Information transfer apparatus, learning system, information transfer method, and computer-readable recording medium
US7571347B2 (en) Method and apparatus for providing fault-tolerance in parallel-processing systems
US10606919B2 (en) Bivariate optimization technique for tuning SPRT parameters to facilitate prognostic surveillance of sensor data from power plants
KR102195706B1 (ko) 침입 탐지방법 및 그 장치
JP2017033554A (ja) ビデオデータ分析方法、装置及び駐車場モニタリングシステム
US20080317286A1 (en) Security device and system
JP2008234551A (ja) 異常検知装置及び異常検知プログラム
KR102002812B1 (ko) 객체 검출을 위한 영상분석 서버장치 및 방법
JP2007272436A (ja) 物体追跡装置、異常状態検知装置及び物体追跡方法
US20150046757A1 (en) Performance Metrics of a Computer System
US20200272524A1 (en) Method and system for auto-setting of image acquisition and processing modules and of sharing resources in large scale video systems
US20110019002A1 (en) Method and System for Low Complexity Analysis of Multiple Signals Using a Combined Sparse Set of Samples
US11487640B2 (en) Replacing stair-stepped values in time-series sensor signals with inferential values to facilitate prognostic-surveillance operations
US20180191995A1 (en) Method and apparatus for classifying video data
WO2022194147A1 (zh) 目标对象监控方法和监控设备
JP2007257184A (ja) 障害原因推定システム、方法、及び、プログラム
JP2021135679A (ja) 加工機状態推定システム、および加工機状態推定プログラム
JP2009545223A (ja) イベント検出方法及び上記方法を用いたビデオ監視システム
KR20230004124A (ko) 영상 감시 시스템에서의 실시간 이상 상황 탐지 방법 및 장치
CN112949352A (zh) 视频检测模型的训练方法及装置、存储介质与电子设备
US11574461B2 (en) Time-series based analytics using video streams
KR20230103890A (ko) 멀티-모달 비디오 캡셔닝 기반 영상 보안 시스템 및 방법