KR101572366B1 - Kidnapping event detector for intelligent video surveillance system - Google Patents

Kidnapping event detector for intelligent video surveillance system Download PDF

Info

Publication number
KR101572366B1
KR101572366B1 KR1020140035308A KR20140035308A KR101572366B1 KR 101572366 B1 KR101572366 B1 KR 101572366B1 KR 1020140035308 A KR1020140035308 A KR 1020140035308A KR 20140035308 A KR20140035308 A KR 20140035308A KR 101572366 B1 KR101572366 B1 KR 101572366B1
Authority
KR
South Korea
Prior art keywords
situation
frame
interest
crime
roi
Prior art date
Application number
KR1020140035308A
Other languages
Korean (ko)
Other versions
KR20150112096A (en
Inventor
김유성
김경연
권류혁
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020140035308A priority Critical patent/KR101572366B1/en
Publication of KR20150112096A publication Critical patent/KR20150112096A/en
Application granted granted Critical
Publication of KR101572366B1 publication Critical patent/KR101572366B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

지능형 영상 감시 시스템을 위한 납치 상황 인식 방법이 개시된다. 컴퓨터로 구현되는 범죄 상황 인식 방법에 있어서, CCTV 영상의 각 프레임에서 사람에 해당되는 복수의 관심영역(ROI, region of interest)을 추출하는 단계; 연속된 프레임에서 서로 다른 관심영역이 겹치는 조우(meeting) 상황을 인식하는 단계; 상기 조우 상황이 인식되면 상기 조우 상황을 기준으로 연속된 프레임에서 상기 관심영역의 변화에 따른 특징 값을 계산하는 단계; 및 상기 관심영역의 변화에 따른 특징 값으로부터 범죄 상황 발생 이벤트를 인식하는 단계를 포함하는 범죄 상황 인식 방법을 제공한다. A method of recognizing a kidnapping situation for an intelligent video surveillance system is disclosed. A computer-implemented method for recognizing a crime scene comprising: extracting a plurality of regions of interest (ROI) corresponding to a person in each frame of a CCTV image; Recognizing a meeting situation in which different interest areas overlap in successive frames; Calculating a feature value according to the change of the ROI in consecutive frames based on the encounter situation when the encounter situation is recognized; And recognizing a crime occurrence event from a feature value according to the change of the region of interest.

Description

지능형 영상 감시 시스템을 위한 납치 상황 인식 방법{KIDNAPPING EVENT DETECTOR FOR INTELLIGENT VIDEO SURVEILLANCE SYSTEM}{KIDNAPPING EVENT DETECTOR FOR INTELLIGENT VIDEO SURVEILLANCE SYSTEM FOR INTELLIGENT VIDEO MONITORING SYSTEM}

본 발명의 실시예들은 CCTV(closed-circuit television) 영상을 기반으로 범죄 상황을 인식할 수 있는 기술에 관한 것이다.Embodiments of the present invention relate to a technology capable of recognizing a crime scene based on a closed-circuit television (CCTV) image.

일반적으로 각종 사건/사고에 대한 사전 예방과 신속한 해결을 위하여 도심의 주택가, 학교, 도로 등에 CCTV를 설치하는 경우가 증가하고 있다.In general, CCTV is increasingly installed in residential areas, schools, and roads in urban areas in order to prevent and resolve various incidents / accidents quickly.

최근의 방범 CCTV 시스템은 방범 현장에 설치된 감시카메라를 이용한 원격지 관제센터 내 감시자 및 운영자에 의한 원격감시방식으로 이루어지고 있다.Recently, the CCTV system for security has been implemented by a remote monitoring system by a supervisor and an operator in a remote control center using a surveillance camera installed at a crime scene.

이러한 CCTV 영상 감시 기술로, 한국등록특허 제10-0995569호(등록일 2010년 11월 15일) "범죄예방 지능형 씨씨티브이 시스템 및 이를 이용한 범죄예방 시스템 및 방법"에는 다수의 방범현장에 설치되는 하나 이상의 카메라로부터 촬영된 영상과 범죄관리 키오스크(kiosk)를 이용한 다양한 범죄예방(용의자수배, 목격자 찾기, 실종아동 찾기 사건, 사고현장 영상정보 등) 정보를 표출하고, 실시간 영상정보와 범죄예방 정보를 이용하여 지능형 객체 인식을 수행하는 동시에 범죄 유형별로 산출된 결과물을 토대로 각종 범죄예방 서비스를 제공하는 기술이 개시되어 있다.As a CCTV video surveillance technology, Korean Patent No. 10-0995569 (Nov. 15, 2010) entitled " Crime Prevention Intelligent CCTV System and Crime Prevention System & Method using the CCTV Video Surveillance Technology " It is possible to display information on the images taken from the camera and various crime prevention using the crime management kiosk (finding suspects, finding witnesses, finding a missing child, and accident scene image information), using real-time image information and crime prevention information Discloses a technique for providing various crime prevention services based on the results of the intelligent object recognition and for each type of crime.

일반적인 영상 감시 시스템의 경우 CCTV를 모니터링 하는 감시 인력이 많은 모니터를 살펴보면서 특이 상황을 인지하고 이후 대응을 하는 형태이다. 그러나, 감시 인력이 모니터를 통해 감시할 경우 능동적인 감시가 어렵고 및 감시 효율성이 낮은 문제점을 가지고 있다. 한 감시 인력이 2개의 모니터를 보는 경우 10분 후에는 발생하는 사건의 45%를 인식하지 못하고 22분 후에는 95%를 인지하지 못한다고 하는 분석 결과가 있다. 이러한 이유로 감시 인력이 여러 CCTV 영상을 24시간 동안 감시하는 것은 효과적이지 못하다.In case of general video surveillance system, surveillance personnel monitoring CCTV monitor many monitors and recognize specific situation and respond accordingly. However, if the surveillance manpower is monitored through the monitor, active surveillance is difficult and the surveillance efficiency is low. When one monitoring person watches two monitors, it can not recognize 45% of events occurring after 10 minutes and 95% after 22 minutes. For this reason, it is not effective for surveillance personnel to monitor multiple CCTV images for 24 hours.

따라서, 본 명세서에서는 CCTV 영상을 분석하여 범죄 상황을 자동으로 인식할 수 있는 기술을 제안한다.Therefore, the present invention proposes a technology for automatically detecting a crime situation by analyzing a CCTV image.

CCTV 영상 분석을 통해 범죄 상황을 자동으로 인식하여 감시자에게 알려주는 납치 상황 인식 방법을 제공한다.It provides a method of recognizing the situation of abduction by informing the surveillant automatically by detecting the crime situation through CCTV image analysis.

CCTV에 등장하는 보행자 정보로부터 납치 상황 이벤트를 자동으로 인식하여 감시자에게 납치 상황 발생을 알려줄 수 있는 납치 상황 인식 방법을 제공한다.Provides a method of recognizing a kidnapping situation that automatically recognizes a kidnapping event from the pedestrian information appearing on the CCTV and informs the monitor of the occurrence of the kidnapping situation.

컴퓨터로 구현되는 범죄 상황 인식 방법에 있어서, CCTV 영상의 각 프레임에서 사람에 해당되는 복수의 관심영역(ROI, region of interest)을 추출하는 단계; 연속된 프레임에서 서로 다른 관심영역이 겹치는 조우(meeting) 상황을 인식하는 단계; 상기 조우 상황이 인식되면 상기 조우 상황을 기준으로 연속된 프레임에서 상기 관심영역의 변화에 따른 특징 값을 계산하는 단계; 및 상기 관심영역의 변화에 따른 특징 값으로부터 범죄 상황 발생 이벤트를 인식하는 단계를 포함하는 범죄 상황 인식 방법을 제공한다.A computer-implemented method for recognizing a crime scene comprising: extracting a plurality of regions of interest (ROI) corresponding to a person in each frame of a CCTV image; Recognizing a meeting situation in which different interest areas overlap in successive frames; Calculating a feature value according to the change of the ROI in consecutive frames based on the encounter situation when the encounter situation is recognized; And recognizing a crime occurrence event from a feature value according to the change of the region of interest.

일 측면에 따르면, 상기 추출하는 단계는, 하르-라이크 특징(haar-like feature) 또는 HOG 특징(Histogram of oriented gradient feature)을 이용하여 사람의 위치를 추출한 후, 사람 각각을 구분하기 위한 식별자로 관심영역 별로 고유한 인덱스를 부여할 수 있다.According to an aspect of the present invention, the extracting step may include extracting a position of a person using a haar-like feature or a histogram of oriented gradient feature, It is possible to assign a unique index to each region.

다른 측면에 따르면, 상기 계산하는 단계는, 상기 관심영역의 크기 변화, 이동 속도, 광학적 흐름(optical flow) 변화 중 적어도 하나를 나타내는 특징 값을 계산할 수 있다.According to another aspect, the calculating step may calculate a feature value indicating at least one of a size change, a movement speed, and an optical flow change of the ROI.

또 다른 측면에 따르면, 상기 계산하는 단계는, 연속된 프레임에서 관심영역의 가로 길이 변화율, 연속된 프레임에서 관심영역의 세로 길이 변화율, 상기 가로 길이 변화율과 상기 세로 길이 변화율의 합, 이전 프레임과 현재 프레임의 관심영역 중심의 X 좌표값 차이, 이전 프레임과 현재 프레임의 관심영역 중심의 Y 좌표값 차이, 상기 X 좌표값 차이와 상기 Y 좌표값 차이의 합, 연속된 프레임에서 관심영역 중심의 X 좌표값 변화율, 연속된 프레임에서 관심영역 중심의 Y 좌표값 변화율, 상기 X 좌표값 변화율과 상기 Y 좌표값 변화율의 합, 이전 프레임과 현재 프레임의 관심영역 가로 길이 차이, 이전 프레임과 현재 프레임의 관심영역 세로 길이 차이, 상기 가로 길이 차이와 상기 세로 길이 차이의 합, (조우 상황이 인식된 이후 관심영역의 가로 길이)/(조우 상황이 인식되기 전 각 관심영역의 최대 가로 길이의 합), 및 (조우 상황이 인식된 이후 관심영역의 세로 길이)/(조우 상황이 인식되기 전 각 관심영역의 최대 세로 길이의 합) 중 적어도 하나를 이용하여 상기 관심영역의 변화에 따른 특징 값을 계산할 수 있다.According to another aspect of the present invention, the step of calculating includes calculating a rate of change of the transverse length of the ROI in the consecutive frame, a rate of change of the longitudinal length of the ROI in the consecutive frame, a sum of the transverse rate of change and the rate of longitudinal variation, A difference between X coordinate values of the center of the frame of interest, a difference between Y coordinate values of the center of the previous frame and the current frame, a sum of the X coordinate difference and the difference between the Y coordinate values, A change rate of the Y coordinate value of the center of the ROI in the consecutive frame, a sum of the X coordinate value change rate and the Y coordinate value change rate, a difference between the previous frame and the ROI in the current frame, (The width of the region of interest after the encounter situation is recognized) / (The sum of the maximum lengths of the respective regions of interest before the situation is recognized) and the sum of the maximum lengths of the regions of interest (before the encounter situation is recognized) The feature value according to the change of the ROI can be calculated using one of the feature values.

또 다른 측면에 따르면, 상기 인식하는 단계는, 범죄 상황에 대해 학습된 범죄 상황 인식 모델을 이용하여 상기 관심영역의 변화에 따른 특징 값이 사전에 설정된 임계치를 초과하면 범죄 상황이 발생한 것으로 인식할 수 있다.According to another aspect of the present invention, the recognizing step may recognize that a crime situation occurs when a feature value according to a change in the ROI exceeds a preset threshold using a crime situation recognition model learned about a crime situation have.

또 다른 측면에 따르면, 상기 범죄 상황 발생 이벤트가 인식되면 범죄 상황 발생에 대한 알림을 제공하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, the method may further include providing a notification of a crime occurrence when the crime occurrence event is recognized.

컴퓨터로 구현되는 범죄 상황 인식 모델 생성 방법에 있어서, 적어도 두 보행자가 조우한 상태에서의 범죄 상황을 나타내는 영상과 일반 조우 상황을 나타내는 영상이 포함된 학습용 영상으로부터 상기 범죄 상황의 특징 데이터와 상기 일반 조우 상황의 특징 데이터를 추출하는 단계; 및 상기 범죄 상황의 특징 데이터와 상기 일반 조우 상황의 특징 데이터를 이용한 기계 학습 방법을 통해 상기 일반 조우 상황과의 속성 차이를 기준으로 상기 범죄 상황을 판단하는 룰을 생성하는 단계를 포함하는 범죄 상황 인식 모델 생성 방법을 제공한다.A computer-implemented method for generating a crime scene recognition model, the method comprising: generating, from a training image including at least two images of a crime scene in a state where two pedestrians are encountered and an image representing a general encounter situation, Extracting feature data of a situation; And generating a rule for determining the crime situation based on a property difference between the crime scene characteristic data and the general encounter situation through a machine learning method using characteristic data of the general encounter situation, Provides a model generation method.

본 발명의 실시예에 따르면, CCTV 영상 분석을 기반으로 범죄 상황을 자동으로 인식하여 감시자에게 알려줌으로써 범죄 발생에 대한 빠른 인지와 신속한 대응을 지원할 수 있다.According to the embodiment of the present invention, by automatically recognizing the crime situation based on the CCTV image analysis and informing the monitor, it is possible to promptly recognize the crime and promptly respond to the crime.

본 발명의 실시예에 따르면, CCTV에 등장하는 보행자 정보를 추출하고 보행자 정보로부터 납치 상황 이벤트를 자동으로 인식함으로써 빠르게 납치 상황을 인식함에 따라 납치 범죄에 신속하게 대응할 수 있어 결과적으로 납치 예방율을 높일 수 있다.According to the embodiment of the present invention, pedestrian information appearing in the CCTV is extracted and the abduction situation event is automatically recognized from the pedestrian information, thereby quickly recognizing the abduction situation, thereby promptly responding to the abduction crime, .

도 1은 본 발명의 일 실시예에 있어서, CCTV 영상을 이용한 납치 상황 인식 방법을 설명하기 위한 순서도이다.
도 2는 본 발명의 일 실시예에 있어서, 납치 상황을 인식하는 구체적인 과정을 설명하기 위한 순서도이다.
도 3은 납치 상황에 대한 예시 영상을 도시한 것이다.
도 4는 납치 상황에 대한 알림을 제공하는 프로그램 화면을 예시적으로 도시한 것이다.
도 5는 본 발명의 일 실시예에 있어서, 납치 상황 인식기 모델을 생성하는 구체적인 과정을 설명하기 위한 순서도이다.
FIG. 1 is a flowchart illustrating a method of recognizing a kidnapping situation using a CCTV image according to an exemplary embodiment of the present invention. Referring to FIG.
2 is a flowchart for explaining a specific process of recognizing a kidnapping situation in an embodiment of the present invention.
3 shows an example image of a kidnapping situation.
FIG. 4 exemplarily shows a program screen for providing a notification of a kidnapping situation.
FIG. 5 is a flowchart illustrating a specific process of generating a kidnapping condition recognizer model according to an exemplary embodiment of the present invention. Referring to FIG.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 실시예들은 CCTV 영상을 분석하여 납치 행위를 자동으로 인식할 수 있는 납치 상황 인식 방법 및 장치에 관한 것으로, 방범 목적의 CCTV 영상 감시 시스템에 적용될 수 있다.The embodiments of the present invention can be applied to a CCTV video surveillance system for a crime prevention purpose, and a method and apparatus for recognizing a kidnapping situation by automatically detecting a kidnapping behavior by analyzing a CCTV video image.

범죄 예방을 위해 CCTV의 수요는 계속 증가하고 있으나, 이에 비해 감시 인력은 턱없이 부족한 상황이다. 감시 인력이 모니터를 직접 감시하는 경우 감시효율이 대폭 감소한다. 이러한 문제를 해결하기 위한 지능형 비디오 감시 시스템의 개발이 국내외적으로 활발히 진행되고 있다.In order to prevent crime, demand for CCTV continues to increase, but there is a shortage of surveillance personnel. The monitoring efficiency is greatly reduced when the monitoring person directly monitors the monitor. To solve these problems, the development of an intelligent video surveillance system is progressing actively both domestically and abroad.

실제 CCTV를 통한 감시 대상은 납치, 싸움, 절도 등의 이벤트들이다. 그 중에서 납치 상황은 매우 중요한 감시 사항이라 할 수 있다. 납치 상황은 매우 짧은 순간에 일어나서 감시자가 CCTV 화면을 계속 감시하지 않으면 놓치기 쉽다. 그렇기 때문에 지능형 CCTV에서 납치 상황을 인식하는 기능은 매우 필요 시 되고 있다. 이에, 납치 상황을 자동으로 인식하여 감시자에게 알려주면 감시 효율이 증가할 뿐 아니라 범죄 예방율 또한 향상될 것이다.Surveillance targets through CCTV are events such as kidnapping, fighting, and theft. Among them, the abduction situation is very important. The kidnapping situation is likely to be missed in very short moments and if the monitor does not monitor the CCTV screen continuously. Therefore, the ability to recognize the kidnapping situation in intelligent CCTV is becoming very necessary. Therefore, if the kidnapping situation is automatically recognized and informed to the monitor, the monitoring efficiency will increase and the crime prevention rate will also improve.

따라서, 본 발명에서는 CCTV 영상을 분석하여 납치 행위를 자동으로 인식해 감시자에게 알려주는 납치 상황 인식기를 제안한다. 상세하게는, CCTV 영상에서 등장하는 보행자들의 정보를 추출하고 이를 바탕으로 납치 상황 이벤트를 자동으로 인식하여 CCTV 감시자에게 납치 상황의 발생을 알려줄 수 있다. 납치 상황을 인식하기 위해서는 비디오 동영상으로부터 상황 관련 정적 속성 정보와, 상황 관련 동적 속성 정보 및 보행자의 외관 정보, 그리고 이동 궤적 정보 등의 특징 정보를 추출한 후 이들 특징 정보를 학습 데이터로 입력하여 데이터 마이닝 기법을 활용하여 납치 상황 인식기 모델을 생성한다. 이렇게 생성된 납치 상황 인식기를 사용하여 CCTV 영상으로부터 보행자의 특징 정보를 자동으로 추출하고 학습된 납치 모델을 이용하여 납치 상황을 자동으로 인식할 수 있다.Accordingly, the present invention proposes a kidnapping situation recognizer that analyzes the CCTV image and automatically recognizes the abduction behavior and informs the surveillance person. In detail, the information of the pedestrians appearing on the CCTV video is extracted and based on the information, the CCTV monitor can inform the occurrence of the kidnapping situation by automatically recognizing the kidnapping event. In order to recognize the abduction situation, characteristic information such as situation related static property information, situation related dynamic property information, appearance information of the pedestrian, and moving trajectory information are extracted from a video movie, and these characteristic information is input as learning data, To create a kidnapping situation recognizer model. By using the generated abduction situation recognizer, pedestrian feature information can be automatically extracted from the CCTV image and the abduction situation can be automatically recognized using the learned abduction model.

이하의 실시예에서는 납치 상황 이벤트를 대표적인 예로 하여 설명하고 있으나 이에 한정되는 것은 아니며 폭행이나 절도와 같이 보행자에게 직접 가해질 수 있는 여러 상황의 이벤트 인식에도 적용 가능하다.In the following embodiments, the abduction situation event is described as a representative example. However, the present invention is not limited to this example, but can be applied to event recognition of various situations that can be directly applied to the pedestrian, such as assault or theft.

납치 상황 인식을 위한 특징 정보는 다음과 같이 정의될 수 있다.Feature information for recognition of abduction situation can be defined as follows.

(1) 보행자 추출(1) Pedestrian extraction

보행자 추출은 동영상의 각 프레임에서 영상에 등장하는 각 보행자의 위치를 찾아내는 것이다. 보행자 추출은 기존 보행자 추출 기능 시스템들에서 많이 사용하고 있는 하르-라이크 특징 정보(haar-like feature)나 HOG 특징 정보(Histogram of oriented gradient feature) 등을 이용하여 추출할 있다. 추출된 보행자의 이름을 알 수 없으니 추출된 보행자 별로 고유의 인덱스(index)를 부여하여 보행자를 구분하기 위한 식별자로 활용할 수 있다. 비디오 프레임에 존재하는 보행자의 위치는 ROI(Region Of Interest)로 나타낸다.The pedestrian extraction is to find the position of each pedestrian appearing in the video in each frame of the video. The pedestrian extraction can be performed using haar-like feature or Histogram of oriented gradient feature, which are widely used in existing pedestrian extraction systems. Since the name of the extracted pedestrian can not be known, it can be utilized as an identifier for distinguishing the pedestrian by assigning a unique index to each extracted pedestrian. The position of a pedestrian present in a video frame is represented by ROI (Region Of Interest).

(2) 납치 상황 인식기 학습 데이터(2) Abduction situation recognizer learning data

납치 상황 인식기를 기계학습 시키기 위한 학습 데이터는 정적 데이터와 동적 데이터로 구분할 수 있다.Learning data for machine learning of the abduction situation recognizer can be classified into static data and dynamic data.

먼저, 정적 데이터는 비디오의 각 프레임에서 추출할 수 있는 데이터로서 보행자의 현재 상태를 추출할 수 있다. 정적 데이터 중 컴퓨터 비전(computer vision) 알고리즘을 이용해 추출할 수 있는 데이터로는 ROI의 크기 및 비율, 실루엣, HOG, 컬러 히스토그램 등이 있다. 데이터 추출 알고리즘에 따라 각기 다른 데이터들을 추출할 수 있으며 해당 정보들은 보행자의 색상정보, 외형, 크기 등의 정보들을 가지고 있다. 표 1은 납치 상황 인식기 학습 데이터의 정적 데이터를 예시적으로 나열한 것이다.First, the static data can extract the current state of the pedestrian as data that can be extracted from each frame of the video. Among the static data, the data that can be extracted using the computer vision algorithm include ROI size and ratio, silhouette, HOG, and color histogram. According to the data extraction algorithm, different data can be extracted and the information has information such as pedestrian color information, appearance, and size. Table 1 shows an example of the static data of the abduction status recognizer learning data.

속성 이름Attribute Name 설명Explanation WidthWidth 보행자 ROI의 가로 길이Width of pedestrian ROI HeightHeight 보행자 ROI의 세로 길이Height of pedestrian ROI Center_xCenter_x ROI의 가로 중심Horizontal center of ROI Center_yCenter_y ROI의 세로 중심Vertical center of ROI HOGHOG 보행자의 방향성이 있는 그레디언트의 히스토그램Histogram of pedestrian directional gradient Color HistogramColor Histogram 보행자의 컬러 히스토그램Pedestrian color histogram

다음, 동적 데이터는 보행자의 연속된 움직임에 대한 정보로 동영상의 이전 프레임들과 현재 프레임의 차이로부터 유도할 수 있는 정보이다. 컴퓨터 비전 알고리즘을 이용해 연속된 프레임에서 ROI의 크기 변화, 이동 속도, 광학적 흐름(optical flow)의 변화 등을 추출하여 동적 데이터로서 사용할 수 있다. 또 이러한 데이터들을 가공하여 '걷기', '뛰기', '앉기', '일어서기' 등 간단한 움직임에 대한 속성으로 변환할 수 있다. 표 2는 납치 상황 인식기 학습 데이터의 동적 데이터를 예시적으로 나열한 것이다.Next, the dynamic data is information on continuous movement of the pedestrian, which can be derived from the difference between the previous frames and the current frame of the moving picture. The computer vision algorithm can be used to extract ROI size change, movement speed, optical flow change, etc. in successive frames as dynamic data. These data can also be transformed into attributes for simple movements such as 'walk', 'run', 'sit', and 'stand up'. Table 2 shows an example of dynamic data of the abduction status recognizer learning data.

속성 이름Attribute Name 설명Explanation Width_rateWidth_rate 일정 프레임의 ROI의 가로 길이 변화율Rate of change of transverse length of ROI of constant frame Height_rateHeight_rate 일정 프레임의 ROI의 세로 길이 변화율Vertical rate of change of ROI of constant frame Width_rate + Height_rateWidth_rate + Height_rate Width_rate and Height_rate의 합Sum of Width_rate and Height_rate X_distanceX_distance ROI 중심의 X값 차이Difference in X value centered on ROI Y_distanceY_distance ROI 중심의 Y값 차이ROI centered Y value difference All_distanceAll_distance X_distance, Y_distance의 합Sum of X_distance, Y_distance X_rateX_rate 일정 프레임의 ROI 중심의 X값 변화율The rate of change of X value centered on the ROI of a certain frame Y_rateY_rate 일정 프레임의 ROI 중심의 Y값 변화율Rate of change of Y value centered on ROI of certain frame X_rate + Y_rateX_rate + Y_rate X_rate와 Y_rate의 합Sum of X_rate and Y_rate Width_subWidth_sub 이전 프레임과의 가로 길이 차이Difference in width from previous frame Height_subHeight_sub 이전 프레임과의 세로 길이 차이Vertical length difference from previous frame Width_sub + Height_subWidth_sub + Height_sub Width_sub, Height_sub의 합Width_sub, Height_sub Maxwidth_rateMaxwidth_rate (조우 후 ROI의 가로 길이) / (조우 전 두 보행자의 ROI 가로 최대 길이 합)(Length of ROI after encounter) / (maximum length of ROI of two pedestrians before encounter) Maxheight_rateMaxheight_rate (조우 후 ROI의 세로 길이) / (조우 전 두 보행자의 ROI 세로 최대 길이 값)(Vertical length of ROI after encounter) / (ROI vertical maximum length value of two pedestrians before encounter) Optical Flow MapOptical Flow Map Optical Flow의 변화를 표현한 MapMap representing the change of optical flow WalkWalk 걷고 있는지의 여부Whether you are walking or not RunRun 달리고 있는지의 여부Whether you are running SitSit 앉아 있는지의 여부Whether you are sitting StandStand 서 있는지의 여부Whether or not standing HandshakeHandshake 악수 하고 있는지의 여부Whether you are shaking hands HugHug 포옹 하고 있는지의 여부Whether you are hugging

(3) 보행자의 외관 특징(3) Pedestrian appearance characteristics

보행자의 외관 특징은 CCTV에서 컴퓨터 비전 기술을 이용하여 인식할 수 있는 보행자의 정보이다. 보행자의 외관 특징은 비디오 영상의 정적 데이터와 동적 데이터를 활용하여 사용한다. 예를 들어, 보행자의 옷 색은 보행자의 인체 비율에 따라 옷의 위치를 찾고, 옷의 색상 히스토그램을 양자화 하여 가장 비율이 높은 색을 대표 색으로 선정하여 옷 색을 선정할 수 있다. 보행자의 외관 특징은 납치범, 납치당한 보행자, 실종자 등의 검색이나 이벤트 인식에서 매우 중요한 단서로 작용할 수 있다. CCTV의 화질과 외관 특징 정보 추출 알고리즘에 따라 표 3과 같은 특징 등을 추출할 수 있다.The appearance characteristics of pedestrians are pedestrian information that can be recognized by computer vision technology in CCTV. The appearance characteristics of the pedestrian are used by using static data and dynamic data of the video image. For example, the clothes color of a pedestrian can be determined by finding the position of the clothes according to the pedestrian's body ratio, quantizing the color histogram of the clothes, and selecting the representative color as the color having the highest ratio. The appearance characteristics of the pedestrian can be very important clues in search of a kidnapper, a kidnapped pedestrian, a missing person, or an event recognition. The characteristics such as Table 3 can be extracted according to the image quality and appearance feature information extraction algorithm of CCTV.

특징Characteristic 설명Explanation key 보행자의 실제 신장 값Actual height value of pedestrian 상의 색Color on top 보행자가 입은 상의의 색상으로 여러 색상이 될 수 있음The colors of the tops of the pedestrians can be multiple colors 하의 색Bottom color 보행자가 입은 하의의 색상으로 여러 색상이 될 수 있음 It can be multicolored by the color of the bottom of the pedestrian 상의 무늬Pattern on top 상의의 무늬로 민무늬, 줄무늬 등 개발자가 정의한 무늬 내에서 추출 가능Patterns of tops can be extracted from patterns defined by developers such as non-patterned and striped patterns. 하의 무늬Underlay 하의의 무늬로 민무늬, 줄무늬 등 개발자가 정의한 무늬 내에서 추출 가능Can be extracted from patterns defined by developers such as patterns, stripes, etc. 모자 착용 여부Whether hat is worn 모자를 착용했는지 여부로 true 또는 false로 표현Whether the hat is worn, expressed as true or false 안경 착용 여부Whether you wear glasses 안경을 착용했는지 여부로 true 또는 false로 표현 Whether the glasses are worn as true or false 신발 색Shoe color 보행자가 신은 신발의 색상으로 여러 색상이 될 수 있음Pedestrians can be multi-colored with shoes color 피부 색Skin color 보행자의 피부 색상으로 여러 색상이 될 수 있음May be multiple colors due to pedestrian skin color

(4) 보행자 이동 추적(4) Tracking movement of pedestrians

보행자의 이동 추적은 이전 프레임에서 발견된 보행자가 현재 프레임에서 어느 위치로 이동했는지 알아내고 동일 인물의 인덱스를 똑같이 맞춰주는 것을 의미한다. 보행자 이동 추적 기법으로는 광 불변성을 이용하는 광학적 흐름(optical flow), 확률을 이용하는 칼만 필터(Kalman filter), 히스토그램 매칭(histogram matching)을 이용하는 평균 이동(mean shift) 등을 이용할 수 있다. 현재 프레임에서 보행자 영역(ROI)을 추출한 후 보행자 이동 추적을 통해 기존에 발견된 보행자의 인덱스를 똑같이 맞춰주고, 새로 등장한 보행자는 새로운 인덱스를 부여한다.The movement tracking of a pedestrian means that the pedestrians found in the previous frame find out where they moved from the current frame and equally index the same person. As a pedestrian movement tracking method, optical flow using optical invariance, Kalman filter using probability, mean shift using histogram matching, and the like can be used. After extracting the pedestrian area (ROI) from the current frame, the index of the pedestrian that has been found is equally adjusted by tracking the movement of the pedestrian, and the newly introduced pedestrian gives the new index.

도 1은 본 발명의 일 실시예에 있어서, CCTV 영상을 이용한 납치 상황 인식 방법을 설명하기 위한 순서도이다.FIG. 1 is a flowchart illustrating a method of recognizing a kidnapping situation using a CCTV image according to an exemplary embodiment of the present invention. Referring to FIG.

도 1을 참조하면, 납치 상황 인식 장치는 CCTV 영상으로부터 획득한 프레임 각각에 대하여 배경 모델링을 수행한 후 해당 프레임에 등장하는 보행자를 추출할 수 있다(S101~S103). 고정된 카메라의 경우에는 배경의 불변성 때문에 배경을 가우시안 혼합 모델(Gaussian Mixture Model) 등을 통해 모델링할 수 있다. 모델링 된 배경을 사용하면 보다 정확하고 빠르게 보행자 추출이 가능하다. 하지만 PTZ(Pan-Tilt-Zoom) 카메라와 같이 카메라가 움직일 경우엔 배경 모델링을 생략할 수 있다. 이때, 납치 상황 인식 장치는 각 프레임에 대한 하르-라이크 특징이나 HOG 특징 등을 이용하여 각 보행자의 위치를 찾아냄으로써 보행자를 추출한 후, 추출된 보행자를 구분하기 위한 식별자로서 고유의 인덱스를 부여할 수 있다. 배경 모델링을 통해 객체를 추출하여도 보행자 외에 다른 객체들이 포함되어 있으므로 정확한 납치 상황 인식을 위해서는 HOG 알고리즘 등을 통해 보행자만을 추출하여야 한다. 뿐만 아니라, 배경 모델링을 통해 객체 추출을 하면 두 보행자가 겹쳐 있을 경우 하나의 객체로 추출하게 될 우려가 있기 때문에 보행자 추출 과정에서는 겹쳐져 있는 보행자도 따로 따로 추출하여야 한다.Referring to FIG. 1, the abduction situation recognition apparatus can perform background modeling on each frame obtained from a CCTV image, and then extract a pedestrian appearing in the frame (S101 to S103). In the case of a fixed camera, the background can be modeled through a Gaussian Mixture Model due to the invariance of the background. Using the modeled background makes it possible to extract pedestrians more accurately and quickly. However, background modeling can be omitted if the camera moves like a PTZ (Pan-Tilt-Zoom) camera. At this time, the abduction situation recognizing device extracts the pedestrian by finding the position of each pedestrian by using the Har-like characteristic or the HOG characteristic for each frame, and then assigns a unique index as an identifier for identifying the extracted pedestrian have. Since objects other than the pedestrian are included even if the object is extracted through the background modeling, only the pedestrian should be extracted through the HOG algorithm or the like in order to accurately recognize the abduction situation. In addition, if the object extraction is performed through the background modeling, there is a possibility that when two pedestrians overlap, the object may be extracted as one object. Therefore, the pedestrian overlapping in the pedestrian extraction process must be extracted separately.

그리고, 납치 상황 인식 장치는 각 프레임에서 추출된 보행자가 이전 프레임에서 등장한 보행자인지 여부를 판단하고 해당 프레임으로부터 보행자의 정적 데이터, 동적 데이터, 외관 특징, 이동 궤적 등의 특징 정보를 추출할 수 있다(S104~S108). 이때, 처음 등장하는 보행자인 경우 동적 데이터를 제외한 특징 정보들을 추출하고, 현재 등장한 보행자가 이전에 등장한 보행자일 경우에는 동적 데이터를 포함한 특징 정보들을 추출하면서 이전에 부여된 인덱스를 유지시켜주어야 한다. 이는 직전 프레임에서 존재했던 보행자면 광학적 흐름 등 이동 추적 알고리즘을 통해 인덱스를 유지시켜주고, CCTV에서 등장했다가 사라진 후 다시 등장한 보행자일 경우에는 히스토그램 비교 등을 통해 보행자의 인덱스를 유지시켜준다. 예를 들어 등장한 사람들의 칼라 히스토그램과 HOG를 데이터베이스에 저장해 두고, 새로 보행자가 등장했을 경우에 기존 등장했다가 사라진 보행자들의 정보들과 비교하여 일정 임계값 이상이면 기존 인덱스를 유지시켜준다. 인덱스 유지 방법은 비디오의 성능 및 카메라의 위치에 따라 달라질 수 있다.Then, the abduction situation recognizing device judges whether or not the pedestrian extracted from each frame is a pedestrian appearing in the previous frame, and extracts feature information such as static data, dynamic data, appearance characteristics, and moving trajectory of the pedestrian from the corresponding frame S104 to S108). In this case, the feature information excluding the dynamic data is extracted for the first-time pedestrian, and if the present pedestrian is a pedestrian presently present, the previously provided index should be maintained while extracting the feature information including the dynamic data. It maintains the index through the movement tracking algorithm such as the optical flow of the pedestrian surface that existed in the previous frame, maintains the index of the pedestrian through the histogram comparison when the pedestrian appeared after disappearing from the CCTV, and the like again. For example, the color histogram and HOG of the emergent people are stored in the database, and when the new pedestrian appears, it maintains the existing index in comparison with the information of the pedestrians who have already appeared and disappeared. The index maintenance method may vary depending on the performance of the video and the position of the camera.

상기한 특징 정보들은 프레임 각각에 대해 납치 상황 인식을 위한 데이터베이스에 지속적으로 업데이트 될 수 있다. 즉, 데이터베이스는 납치 인식에 사용하기 위해 동영상으로부터 추출한 정적 데이터, 동적 데이터뿐 아니라 보행자를 빠르게 검색할 수 있는 보행자 외관 특징 데이터를 포함한다. 이때, 정적 데이터와 동적 데이터는 각 프레임마다 추출하여 납치 상황을 학습한 인식기에서 인식을 위해 사용될 수 있다. 그리고, 보행자의 외관 특징 데이터는 정적 데이터나 동적 데이터를 가공하여 추출 가능한 것으로, 납치범이나 납치된 보행자에 대한 빠른 검색이 가능하도록 보행자의 외관 특징 데이터를 포함한 데이터베이스를 구성할 수 있다.The feature information may be continuously updated in the database for the kidnapping situation recognition for each of the frames. That is, the database includes pedestrian appearance feature data that can quickly search for pedestrians, as well as static data and dynamic data extracted from moving images for use in abduction recognition. At this time, the static data and the dynamic data can be extracted for each frame and used for recognition in the recognizer that learned the kidnapping situation. The appearance characteristic data of the pedestrian can be extracted by processing the static data or the dynamic data, and a database including the appearance characteristic data of the pedestrian can be constructed so that quick search for the kidnapped or abducted pedestrian can be performed.

마지막으로, 납치 상황 인식 장치는 납치 상황이 학습된 납치 상황 인식기 모델을 이용하여 보행자의 특징 정보에 대한 납치 상황을 인식할 수 있으며, 납치 상황이 발생되면 감시자에게 해당 상황에 대한 알림을 제공할 수 있다(S109~S111).Finally, the abduction situation recognition device can recognize the abduction situation of pedestrian characteristic information by using the learned abduction situation recognizer model, and when the abduction situation occurs, it can notify the observer about the situation (S109 to S111).

본 발명에서는 CCTV 영상을 통해 자동으로 납치 상황을 인식하고 CCTV 감시자에게 알려줌으로써 납치 상황 발생 시에 감시자가 빠르게 인지하고 대처하여 큰 사고로의 발전을 미연에 방지할 수 있게 해준다.In the present invention, the CCTV image automatically recognizes the abduction situation and informs the CCTV observer that the observer can quickly recognize and cope with the abduction situation, thereby preventing the development of a major accident in advance.

도 2는 본 발명의 일 실시예에 있어서, 납치 상황을 인식하는 구체적인 과정의 일 예를 설명하기 위한 순서도이다.2 is a flowchart for explaining an example of a specific process of recognizing a kidnapping situation in an embodiment of the present invention.

도 2를 참조하면, 납치 상황 인식 장치는 CCTV 영상의 각 프레임을 입력 받아 하나의 프레임 내에서 다수의 보행자가 인식되는 경우 각 보행자를 추적하면서 보행자 간의 첫 조우(meeting) 상황을 인식할 수 있다(S201~S203). 일 예로, 보행자 간 첫 조우 상황은 보행자의 위치인 ROI가 겹치는 최초의 시점으로 인식될 수 있다(도 3의 세 번째 프레임 참조). 이때, 보행자 간 첫 조우 상황이 발생하기 전에는 보행자 각각의 특징 정보를 수집하여 데이터베이스를 업데이트 함에 따라 보행자 특징 정보를 관리할 수 있다(S204). 한편, 납치 상황 인식 장치는 보행자 간 첫 조우 상황이 발생하면 보행자 특징 정보를 관리함과 동시에 납치 상황을 인식할 수 있는 함수(f)를 계산하고 해당 함수(f)의 계산 결과 값이 사전에 설정된 임계치(T)를 초과하면 납치 상황이 발생한 것으로 인식할 수 있다(S205~S207).Referring to FIG. 2, when a plurality of pedestrians are recognized in one frame by receiving each frame of the CCTV image, the abduction situation recognizing device can recognize a first meeting condition between pedestrians while tracking each pedestrian S201 to S203). As an example, the first encounter situation between pedestrians can be recognized as the first time the ROI, which is the pedestrian's position, overlaps (see the third frame in FIG. 3). At this time, before the first encounters between pedestrians occur, pedestrian characteristic information can be managed by collecting characteristic information of each pedestrian and updating the database (S204). On the other hand, when the first encounters between pedestrians occur, the abduction situation recognition apparatus manages the pedestrian characteristic information and calculates a function (f) capable of recognizing the abduction situation. The calculation result of the function (f) (T), it can be recognized that a kidnapping situation has occurred (S205 to S207).

납치 상황 인식 장치는 CCTV가 설치된 환경, CCTV의 성능에 따라 각기 다른 인식기가 될 수 있다. 즉, CCTV 활용 목적 및 환경, 기대 성능에 따라 납치 상황으로 분류하기 위한 기준 임계치 T값을 달리 설정할 수 있다.The abduction situation recognition device can be a different recognizer depending on the environment in which the CCTV is installed and the performance of the CCTV. In other words, the reference threshold T value can be set differently according to the purpose, environment, and expected performance of CCTV.

납치 상황 인식기 모델이 사용되기 위해서는 학습을 통해 룰을 생성해야 한다. 이 과정에서 임계 값 T를 결정할 수 있다. 일반적인 동행 영상과 납치 영상이 촬영된 학습용 데이터에서 보행자들이 조우한 이후의 상황에 대한 차이 속성을 기준으로 허용 임계치 T를 초과하면 납치 상황으로 분류할 수 있다.In order for the kidnapping situation recognizer model to be used, a rule must be created through learning. In this process, the threshold value T can be determined. In case of pedestrians encountered in the training data where the general coexistence video and the abduction image are captured, it can be classified as the abduction situation if it exceeds the allowable threshold T based on the difference property of the situation after the encounter.

예를 들면, 만약 조우 전 보행자들의 운동량이 k일 때 납치 상황에서는 운동량이 2k 이상이 되는 프레임들이 많고, 일반적인 동행에선 2k미만의 프레임이 많다면, 우선 이 룰이 납치 상황과 동행 상황을 구분하기에 적합한지 검토하고 납치 인식기에 사용되는 룰로 운동량을 사용할 수 있다. 생성된 룰을 사용하기 위해서는 조우 시점을 기준으로 전후의 운동량을 계산할 필요가 있다. 그렇기 때문에 조우 전에 보행자들의 운동량 등 룰에서 필요로 하는 데이터들을 수집하고 조우 프레임을 인식해서 조우 전 데이터들을 가지고 납치 룰에서 사용할 임계값(T)를 계산한다. 계산된 임계값을 가지고 CCTV 영상에 등장한 사람들을 대상으로 납치 상황을 판단할 최종 룰을 만들고 조우 후 데이터를 수집한다.For example, if the momentum of the pedestrians before the encounter is k, if there are many frames in which the amount of exercise is 2k or more in the abduction situation, and there are many frames of less than 2k in the general companion, this rule first identifies the abduction situation and the accompanying situation And to use the momentum as a rule for the kidnapping recognizer. In order to use the generated rule, it is necessary to calculate the momentum before and after the jumping time. Therefore, we collect the data needed by the rule such as the momentum of the pedestrians before the encounter, recognize the joke frame, and calculate the threshold value (T) to be used in the abduction rule with the jumping data. The final rule to judge the kidnapping situation for the people who appeared in the CCTV image with the calculated threshold value is created, and the data is collected after the encounter.

생성된 룰이 인식기에서 사용되는 부분은 f(Kidnap)>T이다. f(Kidnap)은 납치 상황을 인식하는 함수로 납치 상황이라고 판단되는 프레임의 개수 또는 비율 등을 계산해준다. T는 납치 상황을 분류하기 위한 임계값으로 납치 인식 함수의 결과 값이 T 이상이면 납치 상황으로 인식한다. 예컨대, 납치 인식 함수가 납치 상황으로 판단하는 프레임의 개수를 계산해 준다면 T는 납치 상황이라고 판단하는 최소 프레임의 개수가 될 것이다. 이에 따라, 조우 후에 납치로 판단되는 프레임의 개수가 임계 값 이상이면 납치로 판단하고 아닐 경우 동행으로 판단한다.The part where the generated rule is used in the recognizer is f (Kidnap)> T. f (Kidnap) is a function that recognizes the kidnapping situation. It calculates the number or percentage of frames that are considered to be kidnapped. T is a threshold value for classifying the kidnapping situation. If the result of the kidnapping recognition function is T or more, it is recognized as a kidnapping situation. For example, if the number of frames that the abduction recognition function judges as the abduction situation is calculated, T will be the number of the minimum frames judged as the abduction situation. Accordingly, if the number of frames judged as kidnapping after the encounter is greater than or equal to the threshold value, it is determined that kidnapping is performed.

도 3은 납치 상황의 예시 영상을 도시한 것이다. 납치 상황과 일반 동행 상황을 자동으로 판단하기 위해 표 4에 나타낸 보행자의 속성 데이터를 추출한다.Fig. 3 shows an example image of a kidnapping situation. The property data of the pedestrian shown in Table 4 is extracted to automatically determine the abduction situation and the general traveling situation.

속성 이름Attribute Name 설명Explanation Width_rateWidth_rate 일정 프레임의 ROI의 가로 길이 변화율Rate of change of transverse length of ROI of constant frame Height_rateHeight_rate 일정 프레임의 ROI의 세로 길이 변화율Vertical rate of change of ROI of constant frame Width_rate + Height_rateWidth_rate + Height_rate Width_rate and Height_rate의 합Sum of Width_rate and Height_rate X_distanceX_distance ROI 중심의 X값 차이Difference in X value centered on ROI Y_distanceY_distance ROI 중심의 Y값 차이ROI centered Y value difference All_distanceAll_distance X_distance, Y_distance의 합Sum of X_distance, Y_distance X_rateX_rate 일정 프레임의 ROI 중심의 X값 변화율The rate of change of X value centered on the ROI of a certain frame Y_rateY_rate 일정 프레임의 ROI 중심의 Y값 변화율Rate of change of Y value centered on ROI of certain frame X_rate + Y_rateX_rate + Y_rate X_rate와 Y_rate의 합Sum of X_rate and Y_rate Width_subWidth_sub 이전 프레임과의 가로 길이 차이Difference in width from previous frame Height_subHeight_sub 이전 프레임과의 세로 길이 차이Vertical length difference from previous frame Width_sub + Height_subWidth_sub + Height_sub Width_sub, Height_sub의 합Width_sub, Height_sub Maxwidth_rateMaxwidth_rate (조우 후 ROI의 가로 길이) / (조우 전 두 보행자의 ROI 가로 최대 길이 합)(Length of ROI after encounter) / (maximum length of ROI of two pedestrians before encounter) Maxheight_rateMaxheight_rate (조우 후 ROI의 세로 길이) / (조우 전 두 보행자의 ROI 세로 최대 길이 값)(Vertical length of ROI after encounter) / (ROI vertical maximum length value of two pedestrians before encounter)

기존의 촬영된 납치 상황과 일반적인 동행상황 모두에서 표 4의 속성들을 추출하여 각각 납치, 동행 클래스로 지정해서 학습시킨 뒤 납치와 동행을 구분하는 룰을 만들 수 있다. 이때, 납치 상황의 프레임과 동행 상황의 프레임을 구분하기 위해 이용되는 보행자의 운동량은 표 4의 속성 중 적어도 하나를 이용하여 계산될 수 있다. 이는 프레임 간 객체의 운동량을 계산하기 위해 사용되는 기 공지된 알고리즘들을 이용할 수 있다.The attributes of Table 4 can be extracted from both the existing captured situation and the general coexistence situation, and a rule can be made to distinguish between abduction and cohabitation after learning the abduction and accompanying class respectively. At this time, the amount of exercise of the pedestrian used to distinguish the frame of the abduction situation from the frame of the traveling situation can be calculated using at least one of the attributes of Table 4. [ It can use the well-known algorithms used to calculate the momentum of an object between frames.

보행자 정보 추출 알고리즘을 이용해 추출된 데이터들을 납치 인식 룰에 입력하여 납치 상황을 판단하고 이를 도 4와 같은 프로그램을 통해 납치 상황에 대한 알림을 제공할 수 있다. 납치 상황 알림 프로그램에서는 납치 상황으로 판단되는 소정 구간의 영상, 해당 영상에서 추출된 보행자의 특징 데이터, 납치 상황에 대한 알림 메시지 등이 표시될 수 있다.The data extracted using the pedestrian information extraction algorithm can be inputted into the abduction recognition rule to determine the abduction situation and the abduction situation notification can be provided through the program as shown in Fig. In the kidnapping situation notification program, a video of a predetermined section judged as a kidnapping situation, feature data of a pedestrian extracted from the video, and a notification message of a kidnapping status can be displayed.

도 5는 본 발명의 일 실시예에 있어서, 납치 상황 인식기 모델을 생성하는 구체적인 과정을 설명하기 위한 순서도이다.FIG. 5 is a flowchart illustrating a specific process of generating a kidnapping condition recognizer model according to an exemplary embodiment of the present invention. Referring to FIG.

도 5에 도시한 바와 같이, 납치 인식기를 생성하기 위해서 사용하는 CCTV 영상 데이터는 학습용 CCTV 영상, 테스트용 CCTV영상, 실제 CCTV 영상으로 총 3가지이다. 각 CCTV 영상은 고정된 CCTV에서 촬영된 영상일 경우 보다 정확한 모델을 생성할 수 있다. CCTV 영상을 이용해 납치 상황 인식기 모델을 생성하기 위해서는 다음의 3단계를 거쳐야 한다.As shown in FIG. 5, there are three types of CCTV image data used for generating the kidnap recognizer: a learning CCTV image, a test CCTV image, and an actual CCTV image. Each CCTV image can generate a more accurate model when it is captured in fixed CCTV. In order to create a model of the abduction situation recognizer using CCTV images, the following three steps must be taken.

첫 번째 단계(S501)는 학습용 CCTV 데이터를 이용한 납치 인식 룰 생성이다. 첫 번째 단계에서는 학습 데이터를 가공하여 보다 정확한 납치 인식을 할 수 있는 데이터 및 모델을 선택하여야 한다. 데이터마다 다른 정보들을 포함하고 있으므로 보다 정확한 납치 인식기를 생성하기 위해서 가공을 하고 필요한 속성들을 추출해야 한다. 뿐만 아니라 데이터 마이닝 모델마다 다른 특징을 가지고 있으므로 적절한 모델을 선택하여 학습한다. 매우 복잡한 모델을 통해 정확한 인식이 가능할지라도 납치 상황은 실시간으로 인식해야 하므로 실시간성을 만족하는 모델을 선택한다.The first step (S501) is the generation of a kidnap recognition rule using learning CCTV data. The first step is to process the training data and select data and models for more accurate abduction recognition. Since it contains different information for each data, it is necessary to process and extract necessary attributes to create more accurate kidnapping recognizer. In addition, each data mining model has different characteristics. Although it is possible to recognize accurately through a very complicated model, since the kidnapping situation should be recognized in real time, the model satisfying the real-time characteristic is selected.

학습에 필요한 데이터는 실제 CCTV 영상에서 추출한다. 학습에 사용할 데이터는 두 보행자 이상이 등장하여 납치하는 영상과 납치하지 않는 영상으로 나누어 데이터를 추출한다. CCTV 영상에서 납치 상황의 정적, 동적 데이터, 납치가 아닌 상황의 정적, 동적 데이터를 모두 추출한다. 데이터는 가공을 통해 원하는 데이터로 변환을 하고, 노이즈라고 판단되는 데이터들을 제거해준다. 이후 가공된 데이터를 이용해 학습을 한다.Data necessary for learning are extracted from actual CCTV images. The data to be used for learning comes from two pedestrians, and the data is extracted by dividing into the image that is kidnapped and the image which is not kidnapped. Static, dynamic data of abduction situation and static and dynamic data of non-abduction situation are all extracted from CCTV image. The data is transformed into the desired data through processing and removes data judged as noise. Then, learning is performed using the processed data.

추출한 학습 데이터를 데이터 마이닝 학습기를 통해 납치를 판단하는 룰을 생성한다. 다양한 학습 방법 중에 납치 인식에 효율적인 방법을 선택하고 학습을 한다. 데이터 마이닝에선 데이터가 많을수록 정확도가 높아지므로 많은 데이터들을 사용하여 학습을 한다. 또한 경우에 따라선 여러 모델들을 합쳐서 더욱 강력한 룰을 생성한다. 하지만 룰이 너무 복잡할 경우 실시간으로 납치 인식을 할 수 없으므로, 실시간성을 만족하면서 정확도가 높은 모델을 선택한다. CCTV 영상은 CCTV의 각도 및 위치에 따라 다른 양상의 데이터들이 추출될 수 있다. 그러므로 CCTV 마다 모델을 생성하면 보다 정확한 납치 인식이 가능할 것이다.And a rule for judging abduction through the data mining learning device is generated for the extracted learning data. Among various learning methods, we select and learn effective methods for abduction recognition. In data mining, the more data, the higher the accuracy. In some cases, multiple models are combined to create more powerful rules. However, if the rules are too complicated, it is impossible to recognize the kidnapping in real time. Therefore, the model with high accuracy and high accuracy is selected. According to the angle and position of CCTV, CCTV images can be extracted in different aspects. Therefore, if the model is created for each CCTV, more accurate kidnapping will be possible.

두 번째 단계(S502)는 테스트용 CCTV 데이터를 이용한 납치 인식기 테스트이다. 이 단계에서는 학습을 통해 생성된 인식기의 정확도를 평가하는 단계이다. 납치 상황 인식기 모델은 납치 상황 인식률이 중요하므로 납치 인식률을 중점으로 테스트한다.The second step (S502) is a hijacked recognizer test using CCTV data for test. In this step, the accuracy of the recognizer generated through learning is evaluated. The kidnapping situation recognizer model tests the kidnapping recognition rate as an important point because the recognition rate of the kidnapping situation is important.

학습을 통해 생성한 모델에 학습에서 사용하지 않은 데이터들을 사용해 납치 인식기의 성능을 테스트한다. 테스트에 사용하는 데이터들은 학습에 사용한 데이터들과 독립적인 데이터들을 사용해야 보다 정확한 테스트가 가능하다. 실제 상황에서 인식기가 납치 상황이 아닌 상황을 납치로 인식하는 것보다 납치 상황을 인식하지 못하는 것이 더 위험하므로 인식기가 납치 상황을 보다 정확히 인식하는지 테스트를 해야 한다.Test the performance of the kidnapping recognizer by using unused data in the learning model. The data used for the test are independent of the data used for the learning. In reality, it is more dangerous for a recognizer not to recognize a kidnapping situation than to recognize a non-kidnapping situation as a kidnapping, so it is necessary to test whether the recognizer correctly recognizes the kidnapping situation.

세 번째 단계(S503)는 실제 CCTV를 이용한 납치 인식이다. 상기한 두 단계(S501~S502)를 통해 생성한 모델을 실제 CCTV에 결합하여 납치 상황을 인식할 수 있도록 구현한다. 모델의 구현 방법 및 하드웨어의 성능에 따라 인식 속도가 달라진다. 납치 상황 인식기 모델은 실시간 인식이 중요하므로 최대한 실시간으로 납치 인식을 할 수 있도록 구현한다.The third step (S503) is the actual CCTV-based abduction recognition. The model created through the above two steps (S501 to S502) is combined with the actual CCTV so that the kidnapping situation can be recognized. The speed of recognition depends on the model implementation method and hardware performance. Since the real-time recognition of the kidnapping situation recognizer model is important, it is implemented to realize the abduction recognition as much as possible in real time.

이와 같이, 본 발명의 실시예에 따르면, CCTV 영상 분석을 기반으로 범죄 상황을 자동으로 인식하여 감시자에게 알려줌으로써 범죄 발생에 대한 빠른 인지와 신속한 대응을 지원할 수 있다. 따라서, CCTV에 등장하는 보행자 정보를 추출하고 보행자 정보로부터 납치 상황 이벤트를 자동으로 인식함으로써 빠르게 납치 상황을 인식함에 따라 납치 범죄에 신속하게 대응할 수 있어 결과적으로 납치 예방율을 높일 수 있다.As described above, according to the embodiment of the present invention, by automatically recognizing the crime situation based on the CCTV image analysis and informing the monitor, it is possible to promptly recognize the crime and promptly respond to the crime. Therefore, by extracting pedestrian information from CCTV and automatically recognizing a kidnapping event from pedestrian information, it is possible to quickly respond to a kidnapping crime by increasing awareness of the kidnapping situation, thereby increasing the kidnapping prevention rate.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (7)

컴퓨터로 구현되는 범죄 상황 인식 방법에 있어서,
CCTV 영상의 각 프레임에서 사람에 해당되는 복수의 관심영역(ROI, region of interest)을 추출하는 단계;
연속된 프레임에서 서로 다른 관심영역이 겹치는 조우(meeting) 상황을 인식하는 단계;
상기 조우 상황이 인식되면 상기 조우 상황을 기준으로 연속된 프레임에서 상기 관심영역의 변화에 따른 특징 값을 계산하는 단계; 및
상기 관심영역의 변화에 따른 특징 값으로부터 범죄 상황 발생 이벤트를 인식하는 단계
를 포함하고,
상기 추출하는 단계는,
상기 조우 상황이 인식되기 이전 각 프레임에서 관심영역 별로 사람의 외관 특징과 관련된 색상 정보와 외형 정보 및 크기 정보를 포함하는 외관 특징 데이터를 추출하고,
각 프레임에서 추출된 상기 관심영역의 외관 특징 데이터를 데이터베이스에 저장 및 유지하고,
각 프레임에서 사람 각각을 구분하기 위한 식별자로 사람의 위치를 나타내는 관심영역 별로 고유한 인덱스를 부여하고,
현재 프레임에서 추출된 관심영역에 대해 관심영역의 외관 특징 데이터를 상기 데이터베이스에 저장된 데이터와 비교하여 비교 결과에 따라 기존에 부여된 인덱스를 유지하거나 새로운 인덱스를 부여하고,
상기 계산하는 단계는,
상기 범죄 상황 발생 이벤트를 인식하기 위해 상기 조우 상황을 기준으로 상기 조우 상황이 인식된 전후의 연속된 프레임을 비교하여 상기 관심영역의 크기 변화와, 이동 속도, 및 광학적 흐름(optical flow) 변화를 나타내는 동적 데이터에 대한 특징 값을 계산하는 것
을 특징으로 하는 범죄 상황 인식 방법.
A computer-implemented crime scene recognition method,
Extracting a plurality of regions of interest (ROI) corresponding to a person in each frame of the CCTV image;
Recognizing a meeting situation in which different interest areas overlap in successive frames;
Calculating a feature value according to the change of the ROI in consecutive frames based on the encounter situation when the encounter situation is recognized; And
Recognizing a crime occurrence event from a feature value according to the change of the region of interest
Lt; / RTI >
Wherein the extracting comprises:
Extracting facial feature data including color information, appearance information, and size information related to a facial feature of a person in each frame of interest in each frame before the encounters are recognized,
Storing and maintaining the appearance characteristic data of the ROI extracted from each frame in a database,
A unique index is assigned to each region of interest representing the position of a person as an identifier for identifying each person in each frame,
Comparing the appearance characteristic data of the ROI with the data stored in the database with respect to the ROI extracted in the current frame, maintaining the existing index or giving a new index according to the comparison result,
Wherein the calculating step comprises:
A motion speed, and an optical flow change by comparing consecutive frames before and after the encounters are recognized based on the encounters to recognize the crime occurrence event Compute feature values for dynamic data
A crime scene recognition method.
제1항에 있어서,
상기 추출하는 단계는,
하르-라이크 특징(haar-like feature) 또는 HOG 특징(Histogram of oriented gradient feature)을 이용하여 사람의 위치를 추출하는 것
을 특징으로 하는 범죄 상황 인식 방법.
The method according to claim 1,
Wherein the extracting comprises:
Extracting a person's position using a haar-like feature or a Histogram of oriented gradient feature
A crime scene recognition method.
삭제delete 제1항에 있어서,
상기 계산하는 단계는,
연속된 프레임에서 관심영역의 가로 길이 변화율, 연속된 프레임에서 관심영역의 세로 길이 변화율, 상기 가로 길이 변화율과 상기 세로 길이 변화율의 합, 이전 프레임과 현재 프레임의 관심영역 중심의 X 좌표값 차이, 이전 프레임과 현재 프레임의 관심영역 중심의 Y 좌표값 차이, 상기 X 좌표값 차이와 상기 Y 좌표값 차이의 합, 연속된 프레임에서 관심영역 중심의 X 좌표값 변화율, 연속된 프레임에서 관심영역 중심의 Y 좌표값 변화율, 상기 X 좌표값 변화율과 상기 Y 좌표값 변화율의 합, 이전 프레임과 현재 프레임의 관심영역 가로 길이 차이, 이전 프레임과 현재 프레임의 관심영역 세로 길이 차이, 상기 가로 길이 차이와 상기 세로 길이 차이의 합, (조우 상황이 인식된 이후 관심영역의 가로 길이)/(조우 상황이 인식되기 전 각 관심영역의 최대 가로 길이의 합), 및 (조우 상황이 인식된 이후 관심영역의 세로 길이)/(조우 상황이 인식되기 전 각 관심영역의 최대 세로 길이의 합) 중 적어도 하나를 이용하여 상기 관심영역의 변화에 따른 특징 값을 계산하는 것
을 특징으로 하는 범죄 상황 인식 방법.
The method according to claim 1,
Wherein the calculating step comprises:
A ratio of a vertical length change rate of the ROI in the consecutive frame, a sum of the horizontal length change rate and the vertical length change rate, a difference between X coordinate values of the center of the ROI of the previous frame and the current frame, A difference between the X coordinate value difference of the frame and the current frame center of interest, a sum of the difference between the X coordinate value and the Y coordinate value, a change rate of the X coordinate value of the center of the interest region in the consecutive frame, A sum of the X coordinate value change rate and the Y coordinate value change rate, a difference between a previous frame and a current frame in a current frame, a difference between a previous frame and a current frame in a current frame, Sum of differences, (the width of the area of interest after the encounter situation is recognized) / (the maximum width of each area of interest Length of the area of interest after the encounters are recognized) / (sum of the maximum lengths of the respective areas of interest before the encounters are recognized) To calculate characteristic values
A crime scene recognition method.
제1항에 있어서,
상기 인식하는 단계는,
범죄 상황에 대해 학습된 범죄 상황 인식 모델을 이용하여 상기 관심영역의 변화에 따른 특징 값이 사전에 설정된 임계치를 초과하면 범죄 상황이 발생한 것으로 인식하는 것
을 특징으로 하는 범죄 상황 인식 방법.
The method according to claim 1,
Wherein the recognizing comprises:
A recognition that a crime situation has occurred when a feature value according to a change in the area of interest exceeds a preset threshold value using a crime situation recognition model learned about a crime situation
A crime scene recognition method.
제1항에 있어서,
상기 범죄 상황 발생 이벤트가 인식되면 범죄 상황 발생에 대한 알림을 제공하는 단계
를 더 포함하는 범죄 상황 인식 방법.
The method according to claim 1,
If the crime occurrence event is recognized, providing a notification of occurrence of a crime situation
The method comprising the steps of:
삭제delete
KR1020140035308A 2014-03-26 2014-03-26 Kidnapping event detector for intelligent video surveillance system KR101572366B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140035308A KR101572366B1 (en) 2014-03-26 2014-03-26 Kidnapping event detector for intelligent video surveillance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140035308A KR101572366B1 (en) 2014-03-26 2014-03-26 Kidnapping event detector for intelligent video surveillance system

Publications (2)

Publication Number Publication Date
KR20150112096A KR20150112096A (en) 2015-10-07
KR101572366B1 true KR101572366B1 (en) 2015-11-27

Family

ID=54343413

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140035308A KR101572366B1 (en) 2014-03-26 2014-03-26 Kidnapping event detector for intelligent video surveillance system

Country Status (1)

Country Link
KR (1) KR101572366B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200026368A (en) * 2018-08-30 2020-03-11 충북대학교 산학협력단 System and method for detection driver violence
KR102126498B1 (en) * 2019-11-15 2020-06-25 한국건설기술연구원 Apparatus, system and method for detecting dangerous situation based on image recognition

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101695127B1 (en) * 2016-03-10 2017-01-10 (주)디지탈라인 Group action analysis method by image
CN109460717B (en) * 2018-10-22 2022-04-19 青岛美迪康数字工程有限公司 Digestive tract confocal laser microscopy endoscope lesion image identification method and device
KR102323607B1 (en) * 2020-05-19 2021-11-08 부산대학교 산학협력단 Method and system for detecting anomaly based images

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101374138B1 (en) 2012-09-17 2014-03-25 주식회사 제론헬스케어 System for abnormal situation detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101374138B1 (en) 2012-09-17 2014-03-25 주식회사 제론헬스케어 System for abnormal situation detection

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200026368A (en) * 2018-08-30 2020-03-11 충북대학교 산학협력단 System and method for detection driver violence
KR102179995B1 (en) * 2018-08-30 2020-11-18 충북대학교 산학협력단 Method for detection driver violence
KR102126498B1 (en) * 2019-11-15 2020-06-25 한국건설기술연구원 Apparatus, system and method for detecting dangerous situation based on image recognition

Also Published As

Publication number Publication date
KR20150112096A (en) 2015-10-07

Similar Documents

Publication Publication Date Title
Tripathi et al. Suspicious human activity recognition: a review
US9652863B2 (en) Multi-mode video event indexing
Yogameena et al. Computer vision based crowd disaster avoidance system: A survey
US8189049B2 (en) Intrusion alarm video-processing device
KR101572366B1 (en) Kidnapping event detector for intelligent video surveillance system
Nam et al. Intelligent video surveillance system: 3-tier context-aware surveillance system with metadata
KR101541272B1 (en) Apparatus and method for detecting terrorism using irregular motion of peoples
GB2443739A (en) Detecting image regions of salient motion
Liu et al. Moving object detection and tracking based on background subtraction
WO2019220589A1 (en) Video analysis device, video analysis method, and program
Lin et al. Collaborative pedestrian tracking and data fusion with multiple cameras
D'Orazio et al. A survey of automatic event detection in multi-camera third generation surveillance systems
Xie et al. Motion instability based unsupervised online abnormal behaviors detection
Kolarow et al. APFel: The intelligent video analysis and surveillance system for assisting human operators
Biradar et al. DEARESt: deep Convolutional aberrant behavior detection in real-world scenarios
Satybaldina et al. Development of an algorithm for abnormal human behavior detection in intelligent video surveillance system
JP2005284652A (en) Video monitoring method and apparatus using moving vector
Deepak et al. Design and utilization of bounding box in human detection and activity identification
Shbib et al. Distributed monitoring system based on weighted data fusing model
Molina-Giraldo et al. Video segmentation framework by dynamic background modelling
Deepak et al. Human recognition for surveillance systems using bounding box
Ferreira et al. Integrating the university of são paulo security mobile app to the electronic monitoring system
Platte et al. Person tracking and statistical representation of person movements in surveillance areas
Hassan et al. Mixture of gaussian based background modelling for crowd tracking using multiple cameras
Shanthi et al. Automatic social distance monitoring system using deep learning algorithms

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180823

Year of fee payment: 4