KR20150100141A - Apparatus and method for analyzing behavior pattern - Google Patents

Apparatus and method for analyzing behavior pattern Download PDF

Info

Publication number
KR20150100141A
KR20150100141A KR1020140021555A KR20140021555A KR20150100141A KR 20150100141 A KR20150100141 A KR 20150100141A KR 1020140021555 A KR1020140021555 A KR 1020140021555A KR 20140021555 A KR20140021555 A KR 20140021555A KR 20150100141 A KR20150100141 A KR 20150100141A
Authority
KR
South Korea
Prior art keywords
interest
unit
modeling
pattern
behavior
Prior art date
Application number
KR1020140021555A
Other languages
Korean (ko)
Other versions
KR102217253B1 (en
KR102217253B9 (en
Inventor
김광중
김병민
유창동
권재철
박상혁
이동훈
정준영
Original Assignee
주식회사 케이티
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티, 한국과학기술원 filed Critical 주식회사 케이티
Priority to KR1020140021555A priority Critical patent/KR102217253B1/en
Publication of KR20150100141A publication Critical patent/KR20150100141A/en
Application granted granted Critical
Publication of KR102217253B1 publication Critical patent/KR102217253B1/en
Publication of KR102217253B9 publication Critical patent/KR102217253B9/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

Disclosed are an apparatus for analyzing a behavior pattern, and a method thereof. According to the present invention, the apparatus comprises: an image input unit for receiving image data collected through an image photographing apparatus; a background modeling unit for performing background modeling by using the image data inputted during a certain unit time to detect an object of interest from the image data; an object detection unit for detecting the object of interest by using a background model learned through the background modeling; a feature extraction unit for extracting the feature for a behavior pattern of the object of interest from the image data; a behavior pattern modeling unit for learning the behavior pattern of the object of interest by using the extracted feature, and modeling the same; and an analysis unit for analyzing the modeled behavior pattern to determine whether an unusual behavior event of the object of interest occurs or not.

Description

행동패턴 분석 장치 및 방법{Apparatus and method for analyzing behavior pattern}[0001] Apparatus and method for analyzing behavior pattern [

본 발명은 영상 감시 시스템에 관한 것으로서, 보다 상세하게는 영상 감시 시스템을 위한 행동패턴 분석 장치 및 방법에 관한 것이다.
The present invention relates to a video surveillance system, and more particularly, to an apparatus and method for analyzing a behavior pattern for a video surveillance system.

영상 감시 시스템은 개인의 안전, 회사의 보안 관리 그리고 군사용, 교통 상황 분석 등의 다양한 목적에 의해 지속적으로 그 중요성이 증가되고 있다. 이와 같은 영상 감시 시스템은 영상 내 객체들의 행동을 관찰하고 그 행동 패턴을 통해서 위협이 되는 특이 행동 상태의 발생 여부를 예측 및 검출해 낼 수 있다. Video surveillance systems are continuously increasing in importance due to various purposes such as personal safety, company security management, military use, and traffic situation analysis. Such a video surveillance system can observe the behavior of objects in an image and predict and detect the occurrence of a specific behavioral state which is a threat through the behavior pattern.

기존의 일반적인 영상 감시 시스템은 지속적으로 운영되기 위하여 감시를 위한 하드웨어 장치와 모니터링 위한 인력 자원에 많은 예산이 소요될 뿐 만 아니라, 사건이 발생된 후 기록된 영상을 검토하여 위험 상황 및 특이 행동의 사례를 찾는 수동적인 방식으로 운영된다.Conventional video surveillance systems require a lot of hardware resources for monitoring and manpower resources in order to operate continuously. In addition to reviewing the recorded images after the occurrence of the incident, the cases of risk situations and specific behaviors The search operates in a passive manner.

즉, 종래의 영상 감시 기술은, 사람이 CCTV 등의 비디오 촬영 장치를 이용하여 수집되는 다수의 영상 데이터를 직접 모니터를 통해 지속적으로 관찰하고, 특이 행동을 보이는 객체(출입 금지 구역에 접근하는 사람, 교통 신호 위반 자동차 등)를 수동적으로 찾는 방법이 주로 사용되고 있다. 그러나, 이와 같은 방대한 규모를 가지는 다수의 영상 데이터로부터 실시간으로 특이 행동 이벤트를 수동으로 검출해 내는 일은 매우 어렵고 비효율적이다. 그래서, 일부 영상 감시 시스템에서는 제한 금지 구역을 미리 설정하고, 설정된 제한 금지 구역에서 사람 및 물체의 움직임 정보가 발견되는 경우에 실시간 경보를 발생하는 방법이 이용되고 있다. 그러나, 이와 같은 방법은 미리 설정된 특정 지역만 감시 할 수 있는 제약을 가지고 있으며, 날씨 변화 등에 민감하여 실외 환경에서 운용하기 어려운 문제점이 있다. 또한, 감시 지역이 넓어지는 경우, 다수의 카메라 네트워크 등이 필요한 제약 조건을 가지고 있다.That is, the conventional video surveillance technology continuously observes a plurality of image data collected by a person using a video photographing apparatus such as a CCTV through a monitor and displays an object showing a specific behavior (a person approaching a prohibited area, Traffic signal violation cars, etc.) are mainly used. However, it is very difficult and inefficient to manually detect a specific behavior event in real time from a large number of image data having such a large scale. Thus, in some video surveillance systems, a restriction prohibited zone is set in advance, and a method of generating a real-time alarm when motion information of a person or an object is found in the set prohibited zone is used. However, such a method has a limitation that it is possible to monitor only a predetermined area, which is set in advance, and is sensitive to the change of the weather, so that it is difficult to operate in an outdoor environment. In addition, when the surveillance area is widened, a large number of camera networks and the like have constraint conditions necessary.

따라서, 영상 감시 시스템을 자동화하기 위해서는, 실내/외의 다양한 환경 변화와 더불어 장시간에 걸친 객체들의 반복적인 움직임들이 포함되어 지속적으로 입력되는 방대한 양의 영상 데이터로부터 특이 행동 이벤트 발생을 정확하고 효율적으로 검출하기 위한 지능적인 영상 처리 기술이 요구된다.
Accordingly, in order to automate the video surveillance system, it is necessary to accurately and efficiently detect the occurrence of a specific behavior event from a large amount of image data continuously input, including repeated changes of objects over a long period of time, Is required.

본 발명은 다양한 환경 변화와 장시간에 걸친 객체들의 반복적인 움직임들이 포함되어 지속적으로 입력되는 방대한 양의 영상 데이터로부터 행동패턴을 분석하여 특이 행동 이벤트 발생을 정확하고 효율적으로 검출하는 지능적인 행동패턴 분석 장치를 제안하는 것이다.
The present invention relates to an intelligent behavior pattern analyzing device that accurately and efficiently detects the occurrence of a specific behavior event by analyzing a behavior pattern from a large amount of continuously input image data including various environmental changes and repetitive movements of objects over a long time, .

본 발명의 일 측면에 따르면, 행동패턴 분석 장치가 개시된다.According to an aspect of the present invention, a behavior pattern analyzing apparatus is disclosed.

본 발명의 실시예에 따른 행동패턴 분석 장치는 영상 촬영 장치를 통해 수집되는 영상 데이터를 입력받는 영상 입력부, 상기 영상 데이터로부터 관심 객체를 검출하기 위하여 일정 단위 시간 동안 입력된 영상 데이터를 이용하여 배경 모델링을 수행하는 배경 모델링부, 상기 배경 모델링을 통해 학습된 배경 모델을 이용하여 관심 객체를 검출하는 객체 검출부, 상기 영상 데이터로부터 상기 관심 객체의 행동 패턴에 대한 특징을 추출하는 특징 추출부, 상기 추출된 특징을 이용하여 상기 관심 객체의 행동 패턴을 학습하여 모델링하는 행동패턴 모델링부 및 상기 모델링된 행동 패턴을 분석하여 상기 관심 객체의 특이 행동 이벤트 발생 여부를 판단하는 분석부를 포함한다.A behavior pattern analyzing apparatus according to an embodiment of the present invention includes an image input unit for receiving image data collected through a video photographing apparatus, a background modeling unit for performing a background modeling using image data input for a predetermined unit of time to detect an object of interest from the image data, An object detection unit for detecting an object of interest using the background model learned through the background modeling, a feature extraction unit for extracting a feature of a behavior pattern of the object of interest from the image data, A behavior pattern modeling unit for learning and modeling a behavior pattern of the object of interest using the feature, and an analyzer for analyzing the modeled behavior pattern to determine whether a specific behavior event of the object of interest is generated.

상기 배경 모델링부는 초기의 일정 단위 시간 동안 초기 배경 모델링을 수행하고, 상기 객체 검출부가 초기 또는 기존의 배경 모델링을 통해 학습된 배경 모델을 이용하여 상기 관심 객체를 검출하면, 배경 모델링을 재수행하고 초기 또는 기존의 배경 모델을 업데이트하여 배경 모델을 학습함으로써, 적응적으로 배경 모델링을 수행한다.The background modeling unit performs initial background modeling for an initial predetermined unit time, and if the object detecting unit detects the object of interest using the learned background model through initial or existing background modeling, the background modeling unit re- Background modeling is performed adaptively by learning the background model by updating the existing background model.

상기 배경 모델링부는 환경 변화와 노이즈에 강인한 배경 모델링과 이를 이용한 관심 객체 검출을 위하여, RPCA(Robust principal component analysis)를 이용한 배경 모델링을 수행한다.The background modeling unit performs background modeling using robust principal component analysis (RPCA) for background modeling robust against environmental changes and noise, and for detecting objects of interest using the background modeling.

상기 객체 검출부는 상기 학습된 배경 모델과 현재 입력된 영상 데이터 간의 차이를 이용하여 배경과 움직이는 전경 물체를 분리하고, 상기 분리된 전경 물체의 노이즈를 제거하여 분리된 전경 물체를 상기 관심 객체로 검출한다.The object detection unit separates the background and the moving foreground object using the difference between the learned background model and the currently inputted image data and detects the separated foreground object as the object of interest by removing the noise of the separated foreground object .

상기 특징 추출부는 상기 행동 패턴을 학습하여 모델링하기 위하여, 입력 영상 데이터에서 검출된 상기 관심 객체에 속하는 화소 단위의 움직임 패턴을 추출하여 특징을 추출한다.In order to learn and model the behavior pattern, the feature extraction unit extracts a motion pattern of a pixel unit pertaining to the interest object detected in the input image data, and extracts the feature.

상기 특징 추출부는 상기 입력 영상 데이터를 셀(cell) 단위의 그리드 영역으로 분할하고, 상기 분할한 각 영역에서 전경 객체들의 움직임 정보를 추출하고, 상기 추출한 움직임 정보를 특정 시간 단위로 누적하여 히스토그램 벡터의 형태로 특징 벡터를 생성하고, 복수의 영상 데이터로 이루어진 비디오 단위로 상기 특징 벡터를 누적하여 특징 벡터 히스토그램을 생성하고, 입력된 비디오의 프레임수로 이루어진 특징 벡터의 매트릭스를 생성한다.The feature extraction unit may divide the input image data into grid areas of a cell unit, extract motion information of foreground objects in the divided areas, accumulate the extracted motion information in units of a specific time, A feature vector histogram is generated by accumulating the feature vectors in a video unit composed of a plurality of image data, and a matrix of feature vectors composed of the number of frames of the input video is generated.

상기 행동패턴 모델링부는 입력 영상 데이터에서 추출된 화소 단위의 움직임 패턴을 이용하여 관심 객체의 행동 패턴을 학습하여 모델링한다.The behavior pattern modeling unit learns and models the behavior pattern of the object of interest using the motion pattern of the pixel unit extracted from the input image data.

상기 행동패턴 모델링부는 입력된 비디오 데이터와 상기 입력된 비디오 데이터로부터 추출된 특징벡터에 대한 제1 확률, 특이 행동 이벤트에 대한 상기 특징벡터의 제2 확률, 상기 입력된 비디오 데이터에 대한 상기 특이 행동 이벤트의 제3 확률을 산출하고, 상기 제2 확률 및 상기 제3 확률을 학습한다.The behavior pattern modeling unit may include a first probability of the feature vector extracted from the input video data and the input video data, a second probability of the feature vector of the specific behavior event, the specific behavior event And learns the second probability and the third probability.

상기 분석부는 복수의 정의된 특이 행동 이벤트 중에서, 상기 제3 확률의 값이 가장 큰 특이 행동 이벤트를 상기 입력된 비디오 데이터에 대한 특이 행동 이벤트 발생 또는 대표 행동 패턴으로 판단한다.The analysis unit determines a specific action event having the largest value of the third probability among a plurality of defined specific action events as a specific action event occurrence or representative action pattern for the input video data.

상기 분석부는 복수의 특이 행동 이벤트 대한 상기 제3 확률의 최대값이 미리 설정된 임계치보다 모두 작은 경우, 추출된 행동 패턴은 정의된 정상 행동 이벤트에 대한 확률값보다 작은 것이므로, 상기 추출된 행동 패턴을 비정상 행동 이벤트로 판단한다.If the maximum value of the third probability for a plurality of specific action events is smaller than a preset threshold value, the extracted action pattern is smaller than the probability value for the defined normal action event. Therefore, It is judged as an event.

상기 행동패턴 모델링부 및 상기 분석부는 롱텀(long-term)과 숏텀(short-term)의 행동 패턴을 동시에 고려하여 상기 행동 패턴의 학습과 상기 특이 행동 이벤트의 검출을 정확하게 수행한다.The behavior pattern modeling unit and the analysis unit simultaneously perform learning of the behavior pattern and detection of the singular behavior event by simultaneously taking into consideration long-term and short-term behavior patterns.

본 발명의 다른 측면에 따르면, 행동패턴 분석 장치가 수행하는 행동패턴 분석 방법이 개시된다.According to another aspect of the present invention, a behavior pattern analysis method performed by a behavior pattern analysis apparatus is disclosed.

본 발명의 실시예에 따른 행동패턴 분석 방법은 영상 촬영 장치를 통해 수집되는 영상 데이터를 입력받는 단계, 상기 영상 데이터로부터 관심 객체를 검출하기 위하여 일정 단위 시간 동안 입력된 영상 데이터를 이용하여 배경 모델링을 수행하는 단계, 상기 배경 모델링을 통해 학습된 배경 모델을 이용하여 관심 객체를 검출하는 단계, 상기 영상 데이터로부터 상기 관심 객체의 행동 패턴에 대한 특징을 추출하는 단계, 상기 추출된 특징을 이용하여 상기 관심 객체의 행동 패턴을 학습하여 모델링하는 단계 및 상기 모델링된 행동 패턴을 분석하여 상기 관심 객체의 특이 행동 이벤트 발생 여부를 판단하는 단계를 포함한다.A method for analyzing a behavior pattern according to an exemplary embodiment of the present invention includes receiving image data collected through an image capturing apparatus, performing background modeling using image data input for a predetermined unit of time to detect an object of interest from the image data, Extracting a feature of a behavior pattern of the object of interest from the image data using a background model learned through the background modeling, extracting a feature of a behavior pattern of the object of interest from the image data, Learning and modeling a behavior pattern of the object, and analyzing the modeled behavior pattern to determine whether a specific behavior event of the interest object is generated.

상기 배경 모델링을 수행하는 단계는, 초기의 일정 단위 시간 동안 초기 배경 모델링을 수행하는 단계, 초기 또는 기존의 배경 모델링을 통해 학습된 배경 모델을 이용하여 상기 관심 객체를 검출하면, 배경 모델링을 재수행하는 단계 및 상기 초기 또는 기존의 배경 모델을 업데이트하여 배경 모델을 학습함으로써, 적응적으로 배경 모델링을 수행하는 단계를 포함한다.The step of performing the background modeling may include performing initial background modeling for an initial predetermined unit time, detecting the object of interest using the learned background model through initial or existing background modeling, And performing background modeling adaptively by learning the background model by updating the initial or existing background model.

상기 관심 객체를 검출하는 단계는, 상기 학습된 배경 모델과 현재 입력된 영상 데이터 간의 차이를 이용하여 배경과 움직이는 전경 물체를 분리하는 단계 및 상기 분리된 전경 물체의 노이즈를 제거하여 분리된 전경 물체를 상기 관심 객체로 검출하는 단계를 포함한다.Wherein the step of detecting the object of interest comprises the steps of: separating the background and the moving foreground object using the difference between the learned background model and the currently input image data; and removing the foreground object, And detecting with the object of interest.

상기 특징을 추출하는 단계는, 상기 행동 패턴을 학습하여 모델링하기 위하여, 입력 영상 데이터에서 검출된 상기 관심 객체에 속하는 화소 단위의 움직임 패턴을 추출하여 특징을 추출하는 단계를 포함한다.The step of extracting the feature may include extracting a motion pattern of a pixel unit belonging to the interest object detected in the input image data and extracting the feature to learn and model the behavior pattern.

상기 화소 단위의 움직임 패턴을 추출하여 특징을 추출하는 단계는, 상기 입력 영상 데이터를 셀(cell) 단위의 그리드 영역으로 분할하는 단계, 상기 분할한 각 영역에서 전경 객체들의 움직임 정보를 추출하는 단계, 상기 추출한 움직임 정보를 특정 시간 단위로 누적하여 히스토그램 벡터의 형태로 특징 벡터를 생성하는 단계, 복수의 영상 데이터로 이루어진 비디오 단위로 상기 특징 벡터를 누적하여 특징 벡터 히스토그램을 생성하는 단계 및 입력된 비디오의 프레임수로 이루어진 특징 벡터의 매트릭스를 생성하는 단계를 포함한다.The step of extracting the motion pattern by extracting the motion pattern of the pixel unit may include dividing the input image data into a grid area of a cell unit, extracting motion information of foreground objects in each of the divided areas, Accumulating the extracted motion information in a specific time unit to generate a feature vector in the form of a histogram vector; accumulating the feature vectors in a video unit composed of a plurality of image data to generate a feature vector histogram; And generating a matrix of feature vectors consisting of the number of frames.

상기 관심 객체의 행동 패턴을 학습하여 모델링하는 단계는, 입력 영상 데이터에서 추출된 화소 단위의 움직임 패턴을 이용하여 관심 객체의 행동 패턴을 학습하여 모델링하는 단계를 포함한다.The step of learning and modeling the behavior pattern of the object of interest includes learning and modeling a behavior pattern of the object of interest using the motion pattern of the pixel unit extracted from the input image data.

상기 화소 단위의 움직임 패턴을 이용하여 관심 객체의 행동 패턴을 학습하여 모델링하는 단계는, 입력된 비디오 데이터와 상기 입력된 비디오 데이터로부터 추출된 특징벡터에 대한 제1 확률, 특이 행동 이벤트에 대한 상기 특징벡터의 제2 확률, 상기 입력된 비디오 데이터에 대한 상기 특이 행동 이벤트의 제3 확률을 산출하는 단계 및 상기 제2 확률 및 상기 제3 확률을 학습하는 단계를 포함한다.Wherein learning and modeling a behavior pattern of the object of interest using the motion pattern of the pixel unit comprises: inputting the input video data and a first probability for a feature vector extracted from the input video data, Calculating a third probability of the singular behavior event for the input video data, and learning the second probability and the third probability.

상기 상기 관심 객체의 특이 행동 이벤트 발생 여부를 판단하는 단계는, 복수의 정의된 특이 행동 이벤트 중에서, 상기 제3 확률의 값이 가장 큰 특이 행동 이벤트를 상기 입력된 비디오 데이터에 대한 특이 행동 이벤트 발생 또는 대표 행동 패턴으로 판단하는 단계를 포함한다.Wherein the step of determining whether or not a specific behavior event of the object of interest generates a specific action event includes generating a specific action event having the largest value of the third probability among a plurality of defined specific action events, And determining a representative behavior pattern.

상기 상기 관심 객체의 특이 행동 이벤트 발생 여부를 판단하는 단계는,Wherein the step of determining whether a specific behavior event of the object of interest is generated comprises:

복수의 특이 행동 이벤트 대한 상기 제3 확률의 최대값이 미리 설정된 임계치보다 모두 작은 경우, 추출된 행동 패턴은 정의된 정상 행동 이벤트에 대한 확률값보다 작은 것이므로, 상기 추출된 행동 패턴을 비정상 행동 이벤트로 판단하는 단계를 포함한다.
If the maximum value of the third probability for a plurality of specific behavioral events is smaller than a predetermined threshold value, the extracted behavioral pattern is smaller than the probability value for the defined normal behavioral event, so that the extracted behavioral pattern is determined as an abnormal behavioral event .

본 발명은 다양한 환경 변화와 장시간에 걸친 객체들의 반복적인 움직임들이 포함되어 지속적으로 입력되는 방대한 양의 영상 데이터로부터 행동패턴을 분석하여 특이 행동 이벤트 발생을 정확하고 효율적으로 검출할 수 있다.
The present invention can accurately and efficiently detect the occurrence of a specific behavior event by analyzing a behavior pattern from a vast amount of image data continuously input including various environmental changes and repetitive movements of objects over a long period of time.

도 1은 지능적인 행동패턴 분석 장치의 구성을 개략적으로 예시한 도면.
도 2 내지 도 10은 행동패턴 분석 장치를 설명하기 위한 예시도.
도 11은 행동패턴 분석 방법을 나타낸 흐름도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 schematically illustrates a configuration of an intelligent behavior pattern analyzing apparatus. FIG.
FIGS. 2 to 10 are diagrams for explaining a behavior pattern analyzing apparatus. FIG.
11 is a flowchart showing a behavior pattern analysis method.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the present invention has been described in connection with certain exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, numerals used in the description of the present invention are merely an identifier for distinguishing one component from another.

또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, in this specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.

이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate a thorough understanding of the present invention, the same reference numerals are used for the same means regardless of the number of the drawings.

도 1은 지능적인 행동패턴 분석 장치의 구성을 개략적으로 예시한 도면이고, 도 2 내지 도 10은 행동패턴 분석 장치를 설명하기 위한 예시도이다. 이하, 도 1을 중심으로 행동패턴 분석 장치에 대하여 설명하되, 도 2 내지 도 10을 참조한다.FIG. 1 schematically illustrates a configuration of an intelligent behavior pattern analyzing apparatus, and FIGS. 2 to 10 are diagrams for explaining a behavior pattern analyzing apparatus. Hereinafter, a behavior pattern analyzer will be described with reference to Fig. 1, with reference to Figs. 2 to 10. Fig.

도 1을 참조하면, 행동패턴 분석 장치는 영상 입력부(10), 배경 모델링부(20), 배경 데이터베이스(21), 객체 검출부(30), 특징 추출부(40), 행동패턴 모델링부(50), 행동패턴 데이터베이스(51) 및 분석부(60)를 포함한다.1, the behavior pattern analyzing apparatus includes an image input unit 10, a background modeling unit 20, a background database 21, an object detecting unit 30, a feature extracting unit 40, a behavior pattern modeling unit 50, A behavior pattern database 51, and an analysis unit 60. [

영상 입력부(10)는 영상 촬영 장치를 통해 수집되는 영상 데이터를 입력받는다. 예를 들어, 영상 입력부(10)는 특정 지역에 설치되어 감시를 수행하는 CCTV로부터 영상 데이터를 입력받거나, 동영상으로 촬영된 영상 데이터를 입력받을 수 있다.The image input unit 10 receives image data collected through the image photographing apparatus. For example, the image input unit 10 may receive image data from a CCTV installed in a specific area and perform surveillance, or may receive image data photographed by a moving image.

배경 모델링부(20)는 관심 객체를 검출하기 위하여 일정 단위 시간 동안 입력된 영상 데이터를 이용하여 배경 모델링을 수행한다. 즉, 배경 모델링부(20)는 초기의 일정 단위 시간 동안 초기 배경 모델링을 수행하고, 객체 검출부(30)가 초기 또는 기존의 배경 모델링을 통해 학습된 배경 모델을 이용하여 관심 객체를 검출하면, 배경 모델링을 재수행하고 초기 또는 기존의 배경 모델을 업데이트하여 배경 모델을 학습함으로써, 적응적으로 배경 모델링을 수행할 수 있다. 이때, 배경 모델링을 통해 산출되는 배경 모델은 배경 데이터베이스(21)에 저장될 수 있다.The background modeling unit 20 performs background modeling using image data input for a predetermined unit of time to detect an object of interest. That is, the background modeling unit 20 performs initial background modeling for a predetermined unit of time, and when the object detecting unit 30 detects an object of interest using the learned background model through initial or existing background modeling, Background modeling can be performed adaptively by reworking the model and updating the initial or existing background model to learn the background model. At this time, the background model calculated through the background modeling may be stored in the background database 21.

예를 들어, 배경 모델링부(20)는 도 2에 도시된 바와 같이, RPCA(Robust principal component analysis)를 이용한 배경 모델링을 수행할 수 있다.For example, the background modeling unit 20 may perform background modeling using robust principal component analysis (RPCA), as shown in FIG.

입력된 영상 데이터로부터 배경을 정확하게 검출하는 작업은 영상 감시 및 관심 객체 검출을 위하여 선행되어야 하는 영상 처리 기술로서, 기본적으로는 입력된 영상 데이터와 미리 학습된 배경 영상 데이터와의 차이를 통하여 전경 물체를 검출하는 방법이 주로 이용된다. 그러나, 이와 같은 방법은 노이즈에 취약하며, 날씨 변화와 같은 환경 변화에 민감한 문제점이 있다. The task of accurately detecting the background from the input image data is an image processing technique that must be preceded for video surveillance and detection of the object of interest. Basically, the foreground object is detected by the difference between the input image data and the pre- Is mainly used. However, such a method is susceptible to noise, and is susceptible to environmental changes such as weather changes.

그래서, 배경 모델링부(20)는 날씨 변화와 같은 환경 변화와 노이즈에 강인한 배경 모델링과 이를 이용한 관심 객체 검출을 위하여, RPCA를 이용한 배경 모델링을 수행할 수 있다. RPCA를 이용한 배경 모델링은 입력 영상 데이터 집합 M을 low-rank matrix L 성분과 sparse matrix S 성분으로 구분하는 matrix factorization 기법의 일종으로, 다음의 수학식 1을 최적화함으로써, 수행될 수 있다. 여기서, 산출되는 L 성분이 배경이 되고, S 성분이 전경 물체 또는 배경 이외의 물체로 간주될 수 있다.Therefore, the background modeling unit 20 can perform background modeling using RPCA for background modeling robust against noise and environment change such as weather change, and detection of an object of interest using the background modeling. Background modeling using RPCA is a type of matrix factorization technique that divides the input image data set M into low-rank matrix L components and sparse matrix S components, and can be performed by optimizing Equation 1 below. Here, the calculated L component becomes the background, and the S component can be regarded as the foreground object or an object other than the background.

[수학식 1][Equation 1]

minimize ∥L∥ + λ∥S∥minimize ∥L∥ + λ∥S∥

subject to L + S = M
subject to L + S = M

이와 같은 배경 모델링은, 기존 다수의 배경 모델링 방법들에서 배경 모델링을 위하여 움직임 변화가 없는 특정 시간의 동일한 상태의 영상 데이터가 필요한 문제점을 극복하고, 물체가 지속적으로 움직이고 있는 환경에서도 배경을 효과적으로 모델링이 가능한 장점이 있다.Such background modeling overcomes the problem of needing image data of the same state at a specific time without motion change for background modeling in many existing background modeling methods, and can effectively model the background even in an environment where the object is continuously moving There are advantages.

객체 검출부(30)는 초기 또는 기존의 배경 모델링을 통해 학습된 배경 모델을 이용하여 관심 객체를 검출한다. 예를 들어, 객체 검출부(30)는 도 3에 도시된 바와 같이, 학습된 배경 모델과 현재 입력된 영상 데이터 간의 차이를 이용하여 배경과 움직이는 전경 물체를 분리하고, 분리된 전경 물체의 노이즈를 제거하여 분리된 전경 물체를 관심 객체로 검출할 수 있다.The object detection unit 30 detects an object of interest using the learned background model through initial or existing background modeling. For example, as shown in FIG. 3, the object detecting unit 30 separates the background and the moving foreground object using the difference between the learned background model and the currently input image data, and removes the noise of the separated foreground object So that the separated foreground object can be detected as an object of interest.

특징 추출부(40)는 행동 패턴을 학습하여 모델링하기 위하여, 입력 영상 데이터로부터 관심 객체의 행동 패턴에 대한 특징을 추출한다. 즉, 특징 추출부(40)는 입력 영상 데이터에서 검출된 관심 객체에 속하는 화소 단위의 움직임 패턴을 추출하여 특징을 추출할 수 있다.The feature extraction unit 40 extracts a feature of a behavior pattern of the object of interest from the input image data in order to learn and model the behavior pattern. That is, the feature extracting unit 40 may extract a motion pattern of a pixel unit belonging to the interest object detected in the input image data, and extract the feature.

예를 들어, 특징 추출부(40)는 도 5에 도시된 예시와 같이, 입력 영상 데이터로부터 화소 단위의 움직임 패턴을 추출하여 특징을 추출할 수 있다.For example, the feature extracting unit 40 may extract a motion pattern on a pixel-by-pixel basis from the input image data to extract a feature, as illustrated in FIG.

행동 패턴을 모델링하여 특이 행동을 검출하기 위해서는, 기본적으로 관심 객체들의 움직임 검출과 추적을 통한 궤적 정보가 필요하다. 움직임 궤적을 바탕으로 행동 패턴을 모델링하고, 이를 토대로 새로운 입력 영상 데이터에 대해서 관심 객체들의 행동 패턴을 분석하여, 특이 행동 이벤트의 발생 여부가 판단될 수 있다. 일반적으로, 행동 패턴을 학습하여 모델링하기 위하여 특징을 추출하는 방법은 크게 두가지로 분류될 수 있다. 첫 번째는, 관심 객체를 검출하고 추적하면서 발생한 움직임 궤적 정보를 모델링하는 방법이고, 두 번째 방법은, 옵티컬 플로우(Optical flow)같은 화소 단위의 움직임 패턴을 추출하여 모델링하는 방법이다. 객체 단위의 특징을 이용하는 경우, 도 4에 도시된 바와 같이, 객체 단위의 움직임 궤적 정보를 추출하기 위하여, 배경에서 전경을 분리하고, 전경 내의 각각의 관심 객체들을 추적하는 방법이 주로 사용된다. 이 방법은 각 객체 단위의 세밀한 움직임 정의와 검출이 가능하지만, 다수의 객체가 동시에 나타나는 혼잡 환경에서는 객체 간 가려짐(Occlusion)이 발생하며, 이동 중인 자동차 환경에서는 배경이 수시로 변하기 때문에, 배경 모델링 후 배경에서 전경을 분리하기 쉽지 않은 문제점이 있다. 따라서, 특징 추출부(40)는 입력 영상 데이터에서 검출된 관심 객체에 속하는 화소 단위의 움직임 패턴을 추출하는 방법을 이용하여 특징을 추출할 수 있다.In order to detect a specific behavior by modeling a behavior pattern, locus information through motion detection and tracking of the objects of interest is basically required. A behavior pattern is modeled on the basis of the motion trajectory, and a behavior pattern of the objects of interest is analyzed for new input image data based on the behavior pattern, thereby determining whether a specific behavior event occurs. Generally, there are two methods for extracting features for learning and modeling behavior patterns. The first is a method of modeling motion trajectory information generated while detecting and tracking an object of interest, and the second is a method of extracting and modeling a motion pattern of a pixel unit such as an optical flow. In the case of using the feature of the object unit, as shown in FIG. 4, a method of separating the foreground in the background and tracking each interest object in the foreground is mainly used in order to extract motion trajectory information on an object basis. In this method, detailed motion definition and detection of each object unit can be performed. However, occlusion occurs between objects in a congested environment in which a plurality of objects appear at the same time. Since the background changes frequently in a moving automobile environment, There is a problem that it is not easy to separate the foreground from the background. Therefore, the feature extracting unit 40 can extract the feature using a method of extracting the motion pattern of the pixel unit pertaining to the interest object detected from the input image data.

화소 단위의 움직임 패턴을 추출하는 방법은 토픽 모델링과 같은 비교사 학습방법(Unsupervised learning)에 주로 사용된다. 토픽 모델링은 자연어 처리에 주로 사용되는 알고리즘으로, 장면 내에서 발생하는 작은 움직임을 단어(word)로 대입하고, 영상에서 이러한 단위 움직임들의 클러스터(Cluster)를 문서(document)로 대입하여 주제(topic)를 찾는 방식이다. 이와 같은 방법으로 검출된 주제는 영상 화면에서 의미 있는 영역으로 분류될 수 있고, 방대한 입력 데이터에 대한 사전 정보 없이 비교사 학습방법으로 학습이 가능한 장점이 있다.The method of extracting a motion pattern on a pixel basis is mainly used in an unsupervised learning method such as topic modeling. Topic modeling is an algorithm that is mainly used in natural language processing. It assigns small movements occurring in a scene as words, assigns clusters of these unit movements to a document, . The subject detected in this way can be classified as a meaningful region on the image screen, and there is an advantage that it can be learned by a comparative learning method without prior information on a large amount of input data.

다시, 도 5를 참조하면, 특징 추출부(40)는 입력 영상 데이터를 특정한 셀(cell) 단위의 그리드 영역으로 분할하고, 분할한 각 영역에서 전경 객체들의 움직임 정보를 추출하는 경우, 추출한 움직임 정보를 특정 시간 단위로 누적하여 히스토그램 벡터의 형태로 특징 벡터를 생성할 수 있다. 그리고, 특징 추출부(40)는 복수의 영상 데이터로 이루어진 비디오 단위로 특징 벡터를 누적하여 특징 벡터 히스토그램을 생성하고, 입력된 비디오의 프레임수(즉, 영상 데이터의 수)로 이루어진 특징 벡터의 매트릭스를 생성할 수 있다.5, the feature extraction unit 40 divides the input image data into a grid area of a specific cell and extracts motion information of the foreground objects in each of the divided areas, Can be accumulated in a specific time unit to generate a feature vector in the form of a histogram vector. The feature extracting unit 40 accumulates feature vectors in units of video composed of a plurality of video data to generate a feature vector histogram, and generates a matrix of feature vectors composed of the number of frames (i.e., the number of video data) Lt; / RTI >

행동패턴 모델링부(50)는 입력 영상 데이터로부터 추출된 특징을 이용하여, 관심 객체의 행동 패턴을 학습하여 모델링한다. 즉, 행동패턴 모델링부(50)는 추출된 화소 단위의 움직임 패턴을 이용하여 관심 객체의 행동 패턴을 학습하여 모델링한다. 이때, 학습된 행동패턴은 행동패턴 데이터베이스(51)에 저장된다.The behavior pattern modeling unit 50 learns and models a behavior pattern of the object of interest using the features extracted from the input image data. That is, the behavior pattern modeling unit 50 learns and models the behavior pattern of the object of interest using the extracted motion pattern of the pixel unit. At this time, the learned behavior pattern is stored in the behavior pattern database 51. [

예를 들어, 도 6을 참조하면, p(W|D)는 입력된 비디오 데이터D와 그로부터 추출된 특징벡터W에 대한 확률이고, p(W|Z)는 특이 행동 이벤트Z에 대한 특징 벡터W의 확률, p(Z|D)는 입력된 비디오 데이터D에 대한 특이 행동 이벤트의 확률이 될 수 있다. 행동패턴 모델링부(50)는 EM학습 알고리즘을 이용하여 p(W|Z) 및 p(Z|D)를 학습할 수 있다.For example, referring to FIG. 6, p (W | D) is the probability of the input video data D and the feature vector W extracted therefrom, p (W | Z) (Z | D) may be a probability of a specific action event for the input video data D. The behavior pattern modeling unit 50 can learn p (W | Z) and p (Z | D) using an EM learning algorithm.

분석부(60)는 학습하여 모델링된 행동 패턴을 분석하여 관심 객체의 특이 행동 이벤트 발생 여부를 판단한다.The analysis unit 60 analyzes the modeled behavior pattern to determine whether a specific behavior event of the interest object occurs.

예를 들어, 분석부(60)는 앞서 도 6에서 전술한 확률 학습 방법을 이용하여, p(W|Z) 및 p(Z|D)를 산출하고, 이를 이용하여 입력된 비디오 데이터D에 해당하는 특이 행동 이벤트Z를 도 7과 같이 판단할 수 있다. 즉, 분석부(60)는 k개의 정의된 특이 행동 이벤트(Zk) 중에서, p(Zk|D)의 값이 가장 큰 특이 행동 이벤트 Zk를 비디오 데이터 Di에 대한 특이 행동 이벤트 발생 또는 대표 행동 패턴으로 판단할 수 있다.For example, the analysis unit 60 calculates p (W | Z) and p (Z | D) using the probability learning method described above with reference to FIG. 6, The specific action event Z can be determined as shown in FIG. That is, the analysis section 60 is the k in the defined specific behavioral events (Z k), p (Z k | D) generating unusual behavior event of the Z k the value is the largest singular behavior events to the video data D i or It can be judged based on the representative behavior pattern.

예를 들어, 분석부(60)는 정상 행동 이벤트의 사전 정의를 이용하여 정상 행동 이벤트와 비정상 행동 이벤트로 구분하여 특이 행동 이벤트 발생 여부를 판단할 수 있다. 특이 행동은 발생 빈도가 드물게 나타나거나, 관심 객체(차량, 사람 등)의 행동 패턴이 정상 행동 이벤트로 정의된 행동 패턴에 어긋나는 특성이 있다. 도 8에 도시된 정상 행동과 비정상 행동에 대한 특징 분포를 참조하면, 유사한 장면에서 특정 단위 시간에 추출된 특징 벡터는 유사한 형태를 가지고 있으나, 왼쪽의 예시를 참조하면, 짧은 시간(short-time) 동안에 발생한 단위 이벤트 관측 시, 소방차가 수직성 교통흐름을 막고 도로를 수평으로 가로질러가는 비정상 행동 이벤트가 발생한 것을 알 수 있다. 따라서, 롱텀(long-term)과 숏텀(short-term)의 행동 패턴이 동시에 고려되어, 행동 패턴 의 학습과 특이 행동 이벤트의 검출이 정확하게 이루어질 수 있다. 이때, 선 정의된 행동의 개수 k는 시스템의 운용에 따라 능동적으로 증가될 수 있다.For example, the analyzer 60 may determine whether a specific behavior event is generated by dividing the normal behavior event into the abnormal behavior event using the dictionary definition of the normal behavior event. Unusual behaviors are characterized by a rare occurrence of frequency of occurrence, or behavior patterns of objects of interest (vehicles, people, etc.) deviate from behavior patterns defined as normal behavior events. Referring to the feature distribution of normal behavior and abnormal behavior shown in FIG. 8, the feature vectors extracted in a specific unit time in a similar scene have a similar shape. However, referring to the left example, , It can be seen that the fire engine has blocked the vertical traffic flow and the abnormal behavior event occurred across the road horizontally. Therefore, behavior patterns of long-term and short-term are considered at the same time, so that learning of a behavior pattern and detection of a specific behavior event can be accurately performed. At this time, the number k of predefined behaviors can be actively increased depending on the operation of the system.

예를 들어, 분석부(60)는 k개의 특이 행동 이벤트(Zk)에 대한 max p(Zk|D)의 값이 미리 설정된 임계치값보다 모두 작은 경우, 추출된 행동 패턴은 정의된 정상 행동 이벤트에 대한 확률값보다 작은 것이므로, 추출된 행동 패턴을 비정상 행동 이벤트로 판단할 수 있다. 이를 통하여, 도 9의 예시와 같이, 분석부(60)는 비디오 입력에 대하여 정상 행동 이벤트(수평적 교통 흐름, 수직적 교통 흐름 등)를 판단하고, 랜덤하게 발생한 비정상 행동 이벤트(소방차 통행과 같은 위급상황, 충돌위험, 불법유턴, 위급상황 등)를 검출할 수 있다. 또한, 분석부(60)는 도 10에 도시된 예시와 같이, 감시 지역 등에서 발생한 비정상 행동 이벤트를 검출할 수 있다.
For example, when the value of max p (Z k | D) for k specific action events (Z k ) is smaller than a predetermined threshold value, the analyzer 60 extracts the extracted normal action Is smaller than the probability value for the event, the extracted behavior pattern can be determined as an abnormal behavior event. 9, the analyzing unit 60 determines a normal behavior event (horizontal traffic flow, vertical traffic flow, and the like) with respect to the video input, and generates an abnormal behavior event (such as fire truck traffic) Situation, collision risk, illegal U-turn, emergency situation, etc.). In addition, the analyzer 60 can detect an abnormal behavior event occurring in a surveillance area or the like, as shown in the example shown in FIG.

도 11은 행동패턴 분석 방법을 나타낸 흐름도이다.11 is a flowchart showing a behavior pattern analysis method.

S1110 단계에서, 행동패턴 분석 장치는 영상 촬영 장치를 통해 수집되는 영상 데이터를 입력받는다. 예를 들어, 행동패턴 분석 장치는 특정 지역에 설치되어 감시를 수행하는 CCTV로부터 영상 데이터를 입력받거나, 동영상으로 촬영된 영상 데이터를 입력받을 수 있다.In step S1110, the behavior pattern analyzing apparatus receives image data collected through the image capturing apparatus. For example, the behavior pattern analyzer may receive image data from a CCTV installed in a specific area and perform surveillance, or receive image data photographed as a moving image.

S1120 단계에서, 행동패턴 분석 장치는 관심 객체를 검출하기 위하여 일정 단위 시간 동안 입력된 영상 데이터를 이용하여 배경 모델링을 수행한다. 즉, 행동패턴 분석 장치는 초기의 일정 단위 시간 동안 초기 배경 모델링을 수행하고, 초기 또는 기존의 배경 모델링을 통해 학습된 배경 모델을 이용하여 관심 객체를 검출하면, 배경 모델링을 재수행하고 초기 또는 기존의 배경 모델을 업데이트하여 배경 모델을 학습함으로써, 적응적으로 배경 모델링을 수행할 수 있다. In step S1120, the behavior pattern analyzing apparatus performs background modeling using image data input for a predetermined unit of time to detect an object of interest. That is, the behavior pattern analyzing apparatus performs initial background modeling for a predetermined unit of unit time, detects the object of interest using the learned background model through the initial or existing background modeling, re-executes the background modeling, Background modeling can be adaptively performed by learning the background model by updating the background model.

S1130 단계에서, 행동패턴 분석 장치는 초기 또는 기존의 배경 모델링을 통해 학습된 배경 모델을 이용하여 관심 객체를 검출한다. 예를 들어, 객체 행동패턴 분석 장치는 학습된 배경 모델과 현재 입력된 영상 데이터 간의 차이를 이용하여 배경과 움직이는 전경 물체를 분리하고, 분리된 전경 물체의 노이즈를 제거하여 분리된 전경 물체를 관심 객체로 검출할 수 있다.In step S1130, the behavior pattern analyzing apparatus detects an object of interest using the learned background model through initial or existing background modeling. For example, the object behavior pattern analyzer uses the difference between the learned background model and the currently inputted image data to separate the background and the moving foreground object, removes the noise of the separated foreground object, Can be detected.

S1140 단계에서, 행동패턴 분석 장치는 관심 객체의 행동 패턴을 학습하여 모델링하기 위하여, 입력 영상 데이터로부터 관심 객체의 행동패턴 특징을 추출한다. 즉, 행동패턴 분석 장치는 입력 영상 데이터에서 검출된 관심 객체에 속하는 화소 단위의 움직임 패턴을 추출하여 특징을 추출할 수 있다.In step S1140, the behavior pattern analyzing apparatus extracts a behavior pattern characteristic of the object of interest from the input image data to learn and model the behavior pattern of the object of interest. That is, the behavior pattern analyzing apparatus extracts a motion pattern of a pixel unit belonging to the interest object detected in the input image data, and extracts the feature.

S1150 단계에서, 행동패턴 분석 장치는 입력 영상 데이터로부터 추출된 특징을 이용하여, 관심 객체의 행동 패턴을 학습하여 모델링한다. 즉, 행동패턴 분석 장치는 추출된 화소 단위의 움직임 패턴을 이용하여 관심 객체의 행동 패턴을 학습하여 모델링한다.In step S1150, the behavior pattern analyzing apparatus learns and models the behavior pattern of the object of interest using the features extracted from the input image data. That is, the behavior pattern analyzing apparatus learns and models the behavior pattern of the object of interest using the extracted motion pattern of the pixel unit.

S1160 단계에서, 행동패턴 분석 장치는 학습하여 모델링된 행동 패턴을 분석하여 관심 객체의 특이 행동 이벤트 발생 여부를 판단한다.
In step S1160, the behavior pattern analyzing apparatus analyzes the modeled behavior pattern by learning and determines whether a specific behavior event of the interest object occurs.

한편, 본 발명의 실시예에 따른 행동패턴 분석 방법은 다양한 전자적으로 정보를 처리하는 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 저장 매체에 기록될 수 있다. 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조등을 단독으로 또는 조합하여 포함할 수 있다. Meanwhile, the behavior pattern analysis method according to an embodiment of the present invention may be implemented in a form of a program command that can be executed through a variety of means for processing information electronically and recorded in a storage medium. The storage medium may include program instructions, data files, data structures, and the like, alone or in combination.

저장 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. Program instructions to be recorded on the storage medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of software. Examples of storage media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, magneto-optical media and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. The above-mentioned medium may also be a transmission medium such as a light or metal wire, wave guide, etc., including a carrier wave for transmitting a signal designating a program command, a data structure and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as devices for processing information electronically using an interpreter or the like, for example, a high-level language code that can be executed by a computer.

상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.

10: 영상 입력부
20: 배경 모델링부
21: 배경 데이터베이스
30: 객체 검출부
40: 특징 추출부
50: 행동패턴 모델링부
51: 행동패턴 데이터베이스
60: 분석부
10:
20: background modeling unit
21: Background Database
30: Object detection unit
40: Feature extraction unit
50: behavior pattern modeling part
51: behavior pattern database
60: Analytical Department

Claims (20)

영상 촬영 장치를 통해 수집되는 영상 데이터를 입력받는 영상 입력부;
상기 영상 데이터로부터 관심 객체를 검출하기 위하여 일정 단위 시간 동안 입력된 영상 데이터를 이용하여 배경 모델링을 수행하는 배경 모델링부;
상기 배경 모델링을 통해 학습된 배경 모델을 이용하여 관심 객체를 검출하는 객체 검출부;
상기 영상 데이터로부터 상기 관심 객체의 행동 패턴에 대한 특징을 추출하는 특징 추출부;
상기 추출된 특징을 이용하여 상기 관심 객체의 행동 패턴을 학습하여 모델링하는 행동패턴 모델링부; 및
상기 모델링된 행동 패턴을 분석하여 상기 관심 객체의 특이 행동 이벤트 발생 여부를 판단하는 분석부를 포함하는 행동패턴 분석 장치.
A video input unit for receiving video data collected through a video photographing apparatus;
A background modeling unit for performing background modeling using image data input for a predetermined unit of time to detect an object of interest from the image data;
An object detection unit for detecting an object of interest using the background model learned through the background modeling;
A feature extraction unit for extracting a feature of a behavior pattern of the object of interest from the image data;
A behavior pattern modeling unit for learning and modeling a behavior pattern of the object of interest using the extracted features; And
And analyzing the modeled behavior pattern to determine whether a specific behavior event of the interest object is generated.
제1항에 있어서,
상기 배경 모델링부는 초기의 일정 단위 시간 동안 초기 배경 모델링을 수행하고, 상기 객체 검출부가 초기 또는 기존의 배경 모델링을 통해 학습된 배경 모델을 이용하여 상기 관심 객체를 검출하면, 배경 모델링을 재수행하고 초기 또는 기존의 배경 모델을 업데이트하여 배경 모델을 학습함으로써, 적응적으로 배경 모델링을 수행하는 것을 특징으로 하는 행동패턴 분석 장치.
The method according to claim 1,
The background modeling unit performs initial background modeling for an initial predetermined unit time, and if the object detecting unit detects the object of interest using the learned background model through initial or existing background modeling, the background modeling unit re- And the background model is adaptively performed by learning the background model by updating the existing background model.
제2항에 있어서,
상기 배경 모델링부는 환경 변화와 노이즈에 강인한 배경 모델링과 이를 이용한 관심 객체 검출을 위하여, RPCA(Robust principal component analysis)를 이용한 배경 모델링을 수행하는 것을 특징으로 하는 행동패턴 분석 장치.
3. The method of claim 2,
Wherein the background modeling unit performs background modeling using robust principal component analysis (RPCA) for background modeling robust against environmental changes and noise, and for detecting an object of interest using the background modeling.
제1항에 있어서,
상기 객체 검출부는 상기 학습된 배경 모델과 현재 입력된 영상 데이터 간의 차이를 이용하여 배경과 움직이는 전경 물체를 분리하고, 상기 분리된 전경 물체의 노이즈를 제거하여 분리된 전경 물체를 상기 관심 객체로 검출하는 것을 특징으로 하는 행동패턴 분석 장치.
The method according to claim 1,
The object detection unit separates the background and the moving foreground object using the difference between the learned background model and the currently input image data, and detects the separated foreground object as the object of interest by removing the noise of the separated foreground object And a behavior pattern analyzing device.
제1항에 있어서,
상기 특징 추출부는 상기 행동 패턴을 학습하여 모델링하기 위하여, 입력 영상 데이터에서 검출된 상기 관심 객체에 속하는 화소 단위의 움직임 패턴을 추출하여 특징을 추출하는 것을 특징으로 하는 행동패턴 분석 장치.
The method according to claim 1,
Wherein the feature extracting unit extracts a motion pattern of a pixel unit belonging to the interest object detected in the input image data and extracts a feature for learning and modeling the behavior pattern.
제5항에 있어서,
상기 특징 추출부는 상기 입력 영상 데이터를 셀(cell) 단위의 그리드 영역으로 분할하고, 상기 분할한 각 영역에서 전경 객체들의 움직임 정보를 추출하고, 상기 추출한 움직임 정보를 특정 시간 단위로 누적하여 히스토그램 벡터의 형태로 특징 벡터를 생성하고, 복수의 영상 데이터로 이루어진 비디오 단위로 상기 특징 벡터를 누적하여 특징 벡터 히스토그램을 생성하고, 입력된 비디오의 프레임수로 이루어진 특징 벡터의 매트릭스를 생성하는 것을 특징으로 하는 행동패턴 분석 장치.
6. The method of claim 5,
The feature extraction unit may divide the input image data into grid areas of a cell unit, extract motion information of foreground objects in the divided areas, accumulate the extracted motion information in units of a specific time, And generating a feature vector histogram by accumulating the feature vectors in video units composed of a plurality of image data and generating a matrix of feature vectors composed of the number of frames of the input video Pattern analyzer.
제1항에 있어서,
상기 행동패턴 모델링부는 입력 영상 데이터에서 추출된 화소 단위의 움직임 패턴을 이용하여 관심 객체의 행동 패턴을 학습하여 모델링하는 것을 특징으로 하는 행동패턴 분석 장치.
The method according to claim 1,
Wherein the behavior pattern modeling unit learns and models the behavior pattern of the object of interest using the pixel-by-pixel motion pattern extracted from the input image data.
제7항에 있어서,
상기 행동패턴 모델링부는 입력된 비디오 데이터와 상기 입력된 비디오 데이터로부터 추출된 특징벡터에 대한 제1 확률, 특이 행동 이벤트에 대한 상기 특징벡터의 제2 확률, 상기 입력된 비디오 데이터에 대한 상기 특이 행동 이벤트의 제3 확률을 산출하고, 상기 제2 확률 및 상기 제3 확률을 학습하는 것을 특징으로 하는 행동패턴 분석 장치.
8. The method of claim 7,
The behavior pattern modeling unit may include a first probability of the feature vector extracted from the input video data and the input video data, a second probability of the feature vector of the specific behavior event, the specific behavior event Calculates a third probability of the second probability, and learns the second probability and the third probability.
제8항에 있어서,
상기 분석부는 복수의 정의된 특이 행동 이벤트 중에서, 상기 제3 확률의 값이 가장 큰 특이 행동 이벤트를 상기 입력된 비디오 데이터에 대한 특이 행동 이벤트 발생 또는 대표 행동 패턴으로 판단하는 것을 특징으로 하는 행동패턴 분석 장치.
9. The method of claim 8,
Wherein the analysis unit determines a specific behavior event having the largest value of the third probability among a plurality of defined specific behavior events as a specific action event occurrence or representative action pattern for the input video data, Device.
제8항에 있어서,
상기 분석부는 복수의 특이 행동 이벤트 대한 상기 제3 확률의 최대값이 미리 설정된 임계치보다 모두 작은 경우, 추출된 행동 패턴은 정의된 정상 행동 이벤트에 대한 확률값보다 작은 것이므로, 상기 추출된 행동 패턴을 비정상 행동 이벤트로 판단하는 것을 특징으로 하는 행동패턴 분석 장치.
9. The method of claim 8,
If the maximum value of the third probability for a plurality of specific action events is smaller than a preset threshold value, the extracted action pattern is smaller than the probability value for the defined normal action event. Therefore, And determines that the event is an event.
제1항에 있어서,
상기 행동패턴 모델링부 및 상기 분석부는 롱텀(long-term)과 숏텀(short-term)의 행동 패턴을 동시에 고려하여 상기 행동 패턴의 학습과 상기 특이 행동 이벤트의 검출을 정확하게 수행하는 것을 특징으로 하는 행동패턴 분석 장치.
The method according to claim 1,
Wherein the behavior pattern modeling unit and the analyzing unit simultaneously perform the learning of the behavior pattern and the detection of the specific behavior event by simultaneously considering the behavior patterns of the long-term and the short-term. Pattern analyzer.
행동패턴 분석 장치가 수행하는 행동패턴 분석 방법에 있어서,
영상 촬영 장치를 통해 수집되는 영상 데이터를 입력받는 단계;
상기 영상 데이터로부터 관심 객체를 검출하기 위하여 일정 단위 시간 동안 입력된 영상 데이터를 이용하여 배경 모델링을 수행하는 단계;
상기 배경 모델링을 통해 학습된 배경 모델을 이용하여 관심 객체를 검출하는 단계;
상기 영상 데이터로부터 상기 관심 객체의 행동 패턴에 대한 특징을 추출하는 단계;
상기 추출된 특징을 이용하여 상기 관심 객체의 행동 패턴을 학습하여 모델링하는 단계; 및
상기 모델링된 행동 패턴을 분석하여 상기 관심 객체의 특이 행동 이벤트 발생 여부를 판단하는 단계를 포함하는 행동패턴 분석 방법.
A behavior pattern analyzing method performed by a behavior pattern analyzing apparatus,
Receiving image data collected through a video photographing apparatus;
Performing background modeling using image data input for a predetermined unit time to detect an object of interest from the image data;
Detecting an object of interest using a background model learned through the background modeling;
Extracting a characteristic of a behavior pattern of the object of interest from the image data;
Learning and modeling a behavior pattern of the object of interest using the extracted features; And
And analyzing the modeled behavior pattern to determine whether a specific behavior event of the interest object is generated.
제12항에 있어서,
상기 배경 모델링을 수행하는 단계는,
초기의 일정 단위 시간 동안 초기 배경 모델링을 수행하는 단계;
초기 또는 기존의 배경 모델링을 통해 학습된 배경 모델을 이용하여 상기 관심 객체를 검출하면, 배경 모델링을 재수행하는 단계; 및
상기 초기 또는 기존의 배경 모델을 업데이트하여 배경 모델을 학습함으로써, 적응적으로 배경 모델링을 수행하는 단계를 포함하는 것을 특징으로 하는 행동패턴 분석 방법.
13. The method of claim 12,
Wherein performing the background modeling comprises:
Performing initial background modeling during an initial predetermined unit time;
If the object of interest is detected using the background model learned through the initial or existing background modeling, re-executing the background modeling; And
And performing background modeling adaptively by learning the background model by updating the initial or existing background model.
제12항에 있어서,
상기 관심 객체를 검출하는 단계는,
상기 학습된 배경 모델과 현재 입력된 영상 데이터 간의 차이를 이용하여 배경과 움직이는 전경 물체를 분리하는 단계; 및
상기 분리된 전경 물체의 노이즈를 제거하여 분리된 전경 물체를 상기 관심 객체로 검출하는 단계를 포함하는 것을 특징으로 하는 행동패턴 분석 방법.
13. The method of claim 12,
Wherein detecting the object of interest comprises:
Separating the background and the moving foreground object using the difference between the learned background model and the currently input image data; And
Detecting a separated foreground object as the object of interest by removing noise of the separated foreground object.
제12항에 있어서,
상기 특징을 추출하는 단계는,
상기 행동 패턴을 학습하여 모델링하기 위하여, 입력 영상 데이터에서 검출된 상기 관심 객체에 속하는 화소 단위의 움직임 패턴을 추출하여 특징을 추출하는 단계를 포함하는 것을 특징으로 하는 행동패턴 분석 방법.
13. The method of claim 12,
Wherein the extracting of the feature comprises:
Extracting a motion pattern of a pixel unit belonging to the object of interest detected in the input image data and extracting a feature for learning and modeling the behavior pattern.
제15항에 있어서,
상기 화소 단위의 움직임 패턴을 추출하여 특징을 추출하는 단계는,
상기 입력 영상 데이터를 셀(cell) 단위의 그리드 영역으로 분할하는 단계;
상기 분할한 각 영역에서 전경 객체들의 움직임 정보를 추출하는 단계;
상기 추출한 움직임 정보를 특정 시간 단위로 누적하여 히스토그램 벡터의 형태로 특징 벡터를 생성하는 단계;
복수의 영상 데이터로 이루어진 비디오 단위로 상기 특징 벡터를 누적하여 특징 벡터 히스토그램을 생성하는 단계; 및
입력된 비디오의 프레임수로 이루어진 특징 벡터의 매트릭스를 생성하는 단계를 포함하는 것을 특징으로 하는 행동패턴 분석 방법.
16. The method of claim 15,
Wherein the step of extracting the motion pattern of the pixel unit and extracting the feature comprises:
Dividing the input image data into a grid area of a cell unit;
Extracting motion information of foreground objects in each of the divided regions;
Accumulating the extracted motion information by a specific time unit to generate a feature vector in the form of a histogram vector;
Accumulating the feature vectors in units of video composed of a plurality of video data to generate a feature vector histogram; And
And generating a matrix of feature vectors consisting of the number of frames of the input video.
제12항에 있어서,
상기 관심 객체의 행동 패턴을 학습하여 모델링하는 단계는,
입력 영상 데이터에서 추출된 화소 단위의 움직임 패턴을 이용하여 관심 객체의 행동 패턴을 학습하여 모델링하는 단계를 포함하는 것을 특징으로 하는 행동패턴 분석 방법.
13. The method of claim 12,
Learning and modeling a behavior pattern of the object of interest comprises:
And learning and modeling a behavior pattern of the object of interest using the pixel-by-pixel motion pattern extracted from the input image data.
제17항에 있어서,
상기 화소 단위의 움직임 패턴을 이용하여 관심 객체의 행동 패턴을 학습하여 모델링하는 단계는,
입력된 비디오 데이터와 상기 입력된 비디오 데이터로부터 추출된 특징벡터에 대한 제1 확률, 특이 행동 이벤트에 대한 상기 특징벡터의 제2 확률, 상기 입력된 비디오 데이터에 대한 상기 특이 행동 이벤트의 제3 확률을 산출하는 단계; 및
상기 제2 확률 및 상기 제3 확률을 학습하는 단계를 포함하는 것을 특징으로 하는 행동패턴 분석 방법.
18. The method of claim 17,
Learning and modeling a behavior pattern of the object of interest using the motion pattern of the pixel unit,
A first probability of a feature vector extracted from the input video data and a second probability of the feature vector with respect to a specific behavior event, a third probability of the specific behavior event with respect to the input video data, Calculating; And
And learning the second probability and the third probability.
제18항에 있어서,
상기 상기 관심 객체의 특이 행동 이벤트 발생 여부를 판단하는 단계는,
복수의 정의된 특이 행동 이벤트 중에서, 상기 제3 확률의 값이 가장 큰 특이 행동 이벤트를 상기 입력된 비디오 데이터에 대한 특이 행동 이벤트 발생 또는 대표 행동 패턴으로 판단하는 단계를 포함하는 것을 특징으로 하는 행동패턴 분석 방법.
19. The method of claim 18,
Wherein the step of determining whether a specific behavior event of the object of interest is generated comprises:
Determining a specific action event having the largest value of the third probability among a plurality of defined specific action events as a specific action event occurrence or representative action pattern for the input video data, Analysis method.
제18항에 있어서,
상기 상기 관심 객체의 특이 행동 이벤트 발생 여부를 판단하는 단계는,
복수의 특이 행동 이벤트 대한 상기 제3 확률의 최대값이 미리 설정된 임계치보다 모두 작은 경우, 추출된 행동 패턴은 정의된 정상 행동 이벤트에 대한 확률값보다 작은 것이므로, 상기 추출된 행동 패턴을 비정상 행동 이벤트로 판단하는 단계를 포함하는 것을 특징으로 하는 행동패턴 분석 방법.


19. The method of claim 18,
Wherein the step of determining whether a specific behavior event of the object of interest is generated comprises:
If the maximum value of the third probability for a plurality of specific behavioral events is smaller than a predetermined threshold value, the extracted behavioral pattern is smaller than the probability value for the defined normal behavioral event, so that the extracted behavioral pattern is determined as an abnormal behavioral event The method comprising the steps of:


KR1020140021555A 2014-02-24 2014-02-24 Apparatus and method for analyzing behavior pattern KR102217253B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140021555A KR102217253B1 (en) 2014-02-24 2014-02-24 Apparatus and method for analyzing behavior pattern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140021555A KR102217253B1 (en) 2014-02-24 2014-02-24 Apparatus and method for analyzing behavior pattern

Publications (3)

Publication Number Publication Date
KR20150100141A true KR20150100141A (en) 2015-09-02
KR102217253B1 KR102217253B1 (en) 2021-02-17
KR102217253B9 KR102217253B9 (en) 2021-10-27

Family

ID=54241899

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140021555A KR102217253B1 (en) 2014-02-24 2014-02-24 Apparatus and method for analyzing behavior pattern

Country Status (1)

Country Link
KR (1) KR102217253B1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017099292A1 (en) * 2015-12-11 2017-06-15 연세대학교 산학협력단 Object-activity relationship model-based activity recognition method and apparatus therefor
KR20170137350A (en) * 2016-06-03 2017-12-13 (주)싸이언테크 Apparatus and method for studying pattern of moving objects using adversarial deep generative model
KR20180020376A (en) * 2016-08-18 2018-02-28 고려대학교 산학협력단 Apparatus and method for action pattern recognition, and method for generating of action pattern classifier
KR102043366B1 (en) * 2018-11-21 2019-12-05 (주)터보소프트 Method for measuring trajectory similarity between geo-referenced videos using largest common view
KR20190139808A (en) * 2019-12-04 2019-12-18 주식회사 블루비즈 A behavior pattern abnormality discrimination system and method for providing the same
KR20200015001A (en) * 2018-08-02 2020-02-12 경북대학교 산학협력단 Apparatus and method for image processing
WO2020096111A1 (en) * 2018-11-08 2020-05-14 전자부품연구원 Deep learning-based abnormal behavior recognition device and method
US10713478B2 (en) 2015-11-30 2020-07-14 Korea Institute Of Industrial Technology Behaviour pattern analysis system and method using depth image
KR102152237B1 (en) * 2020-05-27 2020-09-04 주식회사 와치캠 Cctv central control system and method based on situation analysis
KR102187831B1 (en) * 2019-10-29 2020-12-07 곽찬우 Control method, device and program of congestion judgment system using cctv
WO2021010557A1 (en) * 2019-07-12 2021-01-21 숙명여자대학교산학협력단 Danger sensing system and method
KR20210039050A (en) 2019-10-01 2021-04-09 주식회사 넥스트케이 Apparatus for Sensing Event on Region of Interest and Driving Method Thereof
WO2021100919A1 (en) * 2019-11-21 2021-05-27 주식회사 두다지 Method, program, and system for determining whether abnormal behavior occurs, on basis of behavior sequence

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080051956A (en) * 2006-12-07 2008-06-11 한국전자통신연구원 System and method for analyzing of human motion based silhouettes of real-time video stream

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080051956A (en) * 2006-12-07 2008-06-11 한국전자통신연구원 System and method for analyzing of human motion based silhouettes of real-time video stream

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
J. Li외 2인,"Global Behaviour Inference Using Probabilistic Latent Semantic Analysis" In BMVC(2008.12.31.) 1부.* *
Khorrami P외 2인,"Mutiple animal species detection using robust principal component analysis and large displacement optical flow", ICPR, workshop,(2012.11.15.) 1부.* *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10713478B2 (en) 2015-11-30 2020-07-14 Korea Institute Of Industrial Technology Behaviour pattern analysis system and method using depth image
WO2017099292A1 (en) * 2015-12-11 2017-06-15 연세대학교 산학협력단 Object-activity relationship model-based activity recognition method and apparatus therefor
KR20170137350A (en) * 2016-06-03 2017-12-13 (주)싸이언테크 Apparatus and method for studying pattern of moving objects using adversarial deep generative model
KR20180020376A (en) * 2016-08-18 2018-02-28 고려대학교 산학협력단 Apparatus and method for action pattern recognition, and method for generating of action pattern classifier
KR20200015001A (en) * 2018-08-02 2020-02-12 경북대학교 산학협력단 Apparatus and method for image processing
WO2020096111A1 (en) * 2018-11-08 2020-05-14 전자부품연구원 Deep learning-based abnormal behavior recognition device and method
KR102043366B1 (en) * 2018-11-21 2019-12-05 (주)터보소프트 Method for measuring trajectory similarity between geo-referenced videos using largest common view
WO2021010557A1 (en) * 2019-07-12 2021-01-21 숙명여자대학교산학협력단 Danger sensing system and method
KR20210039050A (en) 2019-10-01 2021-04-09 주식회사 넥스트케이 Apparatus for Sensing Event on Region of Interest and Driving Method Thereof
KR102187831B1 (en) * 2019-10-29 2020-12-07 곽찬우 Control method, device and program of congestion judgment system using cctv
WO2021100919A1 (en) * 2019-11-21 2021-05-27 주식회사 두다지 Method, program, and system for determining whether abnormal behavior occurs, on basis of behavior sequence
KR20190139808A (en) * 2019-12-04 2019-12-18 주식회사 블루비즈 A behavior pattern abnormality discrimination system and method for providing the same
KR102152237B1 (en) * 2020-05-27 2020-09-04 주식회사 와치캠 Cctv central control system and method based on situation analysis

Also Published As

Publication number Publication date
KR102217253B1 (en) 2021-02-17
KR102217253B9 (en) 2021-10-27

Similar Documents

Publication Publication Date Title
KR102217253B1 (en) Apparatus and method for analyzing behavior pattern
KR101995107B1 (en) Method and system for artificial intelligence based video surveillance using deep learning
US20190156492A1 (en) Video Analysis Methods and Apparatus
Zabłocki et al. Intelligent video surveillance systems for public spaces–a survey
Doshi et al. An efficient approach for anomaly detection in traffic videos
Ullah et al. Gaussian mixtures for anomaly detection in crowded scenes
Pathak et al. Anomaly localization in topic-based analysis of surveillance videos
KR102028930B1 (en) method of providing categorized video processing for moving objects based on AI learning using moving information of objects
CN113673311A (en) Traffic abnormal event detection method, equipment and computer storage medium
KR102332229B1 (en) Method for Augmenting Pedestrian Image Data Based-on Deep Learning
KR101552344B1 (en) Apparatus and method for detecting violence situation
KR101547255B1 (en) Object-based Searching Method for Intelligent Surveillance System
CN116403162B (en) Airport scene target behavior recognition method and system and electronic equipment
Lu et al. Detecting unattended packages through human activity recognition and object association
KR20160035631A (en) Method for detecting motion vector based on histogram
CN114764895A (en) Abnormal behavior detection device and method
Duque et al. The OBSERVER: An intelligent and automated video surveillance system
KR101848367B1 (en) metadata-based video surveillance method using suspective video classification based on motion vector and DCT coefficients
Neto et al. Computer-vision-based surveillance of intelligent transportation systems
KR101766467B1 (en) Alarming apparatus and methd for event occurrence, and providing method of event occurrence determination model
KR102426591B1 (en) Methods and systems for recognizing object using machine learning model
Wang et al. Anomaly detection in crowd scene using historical information
CN111062294B (en) Passenger flow queuing time detection method, device and system
Kaviani et al. Automatic accident detection using topic models
Luo et al. Real-time detection algorithm of abnormal behavior in crowds based on Gaussian mixture model

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction