KR20230112038A - A device that detects specific patterns in traffic conditions using artificial neural network - Google Patents

A device that detects specific patterns in traffic conditions using artificial neural network Download PDF

Info

Publication number
KR20230112038A
KR20230112038A KR1020220126478A KR20220126478A KR20230112038A KR 20230112038 A KR20230112038 A KR 20230112038A KR 1020220126478 A KR1020220126478 A KR 1020220126478A KR 20220126478 A KR20220126478 A KR 20220126478A KR 20230112038 A KR20230112038 A KR 20230112038A
Authority
KR
South Korea
Prior art keywords
pattern
patterns
models
model
management unit
Prior art date
Application number
KR1020220126478A
Other languages
Korean (ko)
Other versions
KR102633205B1 (en
Inventor
박경용
Original Assignee
주식회사 엠아이엔테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엠아이엔테크 filed Critical 주식회사 엠아이엔테크
Priority to KR1020220126478A priority Critical patent/KR102633205B1/en
Publication of KR20230112038A publication Critical patent/KR20230112038A/en
Application granted granted Critical
Publication of KR102633205B1 publication Critical patent/KR102633205B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B23/00Alarms responsive to unspecified undesired or abnormal conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 실시예에 따르면, 인공신경망을 이용한 교통상황 특이패턴 감지 장치가 개시된다. 상기 특이패턴 감지 장치는, 카메라를 이용하여 촬영된 복수의 영역이미지들을 대상으로 객체를 식별하고, 상기 영역이미지들 중 상기 객체가 식별된 영역이미지들 각각에 대응하도록 상기 객체에 대한 복수의 객체정보들을 생성하는 객체 식별부; 상기 객체정보들에 기초하여 상기 객체에 대한 객체패턴을 생성하는 객체패턴 관리부; 기 설정된 기간동안 생성된 복수의 상기 객체패턴들을 기 설정된 시간간격별 및 기 설정된 요일별로 분류하여 복수의 객체패턴그룹들을 생성하고, 상기 객체패턴그룹들 각각과 대응하는 패턴모델을 생성 또는 학습시키는 패턴모델 관리부; 데이터베이스에서 현재시각 및 현재요일과 대응하는 복수의 상기 패턴모델들을 검색하고, 검색된 상기 패턴모델들에 기초하여 기준패턴모델을 생성하며, 상기 현재시각과 대응하는 상기 객체패턴들인 복수의 감시 객체패턴들과 상기 기준패턴모델을 비교하여 이상유무를 판단하는 객체패턴 감시부; 및 이상상태가 발생되지 않은 경우 상기 감시 객체패턴들, 상기 감시 객체패턴들을 포함하는 상기 영역이미지들을 디스플레이하고, 이상상태가 발생된 경우 상기 감시 객체패턴들 및 이상패턴알림을 디스플레이하는 영상 모니터링부를 포함한다. 또한, 상기 객체정보들 각각은, 상기 객체의 객체종류, 객체위치 및 식별시각을 포함하며, 상기 객체패턴 관리부는, 상기 객체정보들의 상기 객체위치 및 상기 식별시각에 기초하여 상기 객체에 대한 객체경로, 객체방향 및 객체속도를 결정하고, 상기 객체종류, 상기 객체경로, 상기 객체방향 및 상기 객체속도를 포함하는 상기 객체패턴을 생성하고, 상기 패턴모델 관리부는, 상기 객체패턴그룹에 포함된 상기 객체패턴들 중 상기 객체종류 및 상기 객체방향이 동일한 객체패턴들을 1차 객체패턴들로 결정하고, 상기 1차 객체패턴들 중 상기 객체경로의 적어도 일부가 중첩되는 1차 객체패턴들을 2차 객체패턴들로 결정하며, 상기 2차 객체패턴의 상기 객체경로에 기초하여 상기 2차 객체패턴들과 대응하는 패턴영역을 생성하고, 상기 패턴모델 관리부는, 이미 생성된 복수의 상기 패턴모델들 중, 상기 2차 객체패턴들과 상기 객체종류 및 상기 객체방향이 동일하고, 상기 2차 객체패턴들과 상기 패턴영역이 적어도 일부 중첩되는, 이미 생성된 상기 패턴모델을 상기 데이터베이스에서 검색하고, 이미 생성된 상기 패턴모델이 검색되는 경우, 검색된 이미 생성된 상기 패턴모델을 상기 2차 객체패턴들을 이용해 학습시키며, 이미 생성된 상기 패턴모델이 검색되지 않는 경우, 상기 2차 객체패턴들을 이용해 상기 패턴모델을 생성하고, 상기 객체패턴 감시부는, 검색된 상기 패턴모델들 중 상기 객체종류 및 상기 객체방향이 동일하고 상기 패턴영역의 적어도 일부가 중첩되는 패턴모델들을 제1 패턴모델들로 결정하고, 상기 제1 패턴모델들 각각의 상기 2차 객체패턴들에 기초하여 민감도 조건을 결정하며, 상기 제1 패턴모델들 중 상기 2차 객체패턴들이 상기 민감도 조건을 충족시키는 제1 패턴모델들을 제2 패턴모델들로 결정하고, 상기 제2 패턴모델들을 결합하여 기준패턴모델들을 생성하며, 상기 감시 객체패턴들과 상기 기준패턴모델을 비교하여 상기 이상유무를 판단하고, 상기 패턴모델 관리부는, 상기 감시 객체패턴에 이상상황의 종류가 라벨링된 학습데이터를 생성하고, 상기 학습데이터를 이용하여, 상기 감시 객체패턴을 입력값으로 입력했을 때 이상상황의 종류 및 확률을 출력하는 이상감지패턴탐지모델에 대한 기계학습을 수행한다.According to an embodiment of the present invention, an apparatus for detecting a traffic condition specific pattern using an artificial neural network is disclosed. The peculiar pattern detection apparatus includes: an object identification unit configured to identify an object from a plurality of area images photographed using a camera, and to generate a plurality of object information about the object corresponding to each of the area images in which the object is identified among the area images; an object pattern management unit generating an object pattern for the object based on the object information; A pattern model management unit that classifies the plurality of object patterns generated during a preset period by preset time intervals and preset days of the week to create a plurality of object pattern groups, and creates or learns a pattern model corresponding to each of the object pattern groups; An object pattern monitoring unit that searches a database for a plurality of the pattern models corresponding to the current time and the current day of the week, creates a reference pattern model based on the searched pattern models, and compares the reference pattern model with a plurality of monitored object patterns, which are the object patterns corresponding to the current time, to determine whether there is an abnormality; and a video monitoring unit for displaying the surveillance object patterns and the region images including the surveillance object patterns when an abnormal state does not occur, and displaying the surveillance object patterns and an abnormal pattern notification when an abnormal state occurs. In addition, each of the object information includes the object type, object location, and identification time of the object, and the object pattern management unit determines an object path, object direction, and object speed for the object based on the object location and identification time of the object information, and generates the object pattern including the object type, the object path, the object direction, and the object speed, and the pattern model management unit first selects object patterns having the same object type and object direction among the object patterns included in the object pattern group. determine as object patterns, determine primary object patterns overlapping at least a part of the object path among the primary object patterns as secondary object patterns, generate a pattern area corresponding to the secondary object patterns based on the object path of the secondary object pattern, and the pattern model management unit, among the plurality of pattern models already created, the secondary object patterns and the object type and the object direction are the same, and the secondary object patterns and the pattern area overlap at least partially, The generated pattern model is searched in the database, and if the already created pattern model is found, the searched already created pattern model is trained using the secondary object patterns, and if the already created pattern model is not found, the pattern model is created using the secondary object patterns, the object pattern monitoring unit determines, among the searched pattern models, the pattern models having the same object type and the same object direction and overlapping at least a part of the pattern area as first pattern models, and determining each of the first pattern models as first pattern models. A sensitivity condition is determined based on secondary object patterns, first pattern models for which the secondary object patterns satisfy the sensitivity condition among the first pattern models are determined as second pattern models, reference pattern models are created by combining the second pattern models, the presence or absence of the abnormality is determined by comparing the monitored object patterns with the reference pattern model, the pattern model management unit generates learning data in which a type of abnormal situation is labeled in the monitored object pattern, and inputs the monitored object pattern using the learning data. Machine learning is performed on the anomaly detection pattern detection model that outputs the type and probability of anomaly when input as a value.

Description

인공신경망을 이용해 교통상황에 대한 특이패턴을 감지하는 장치{A DEVICE THAT DETECTS SPECIFIC PATTERNS IN TRAFFIC CONDITIONS USING ARTIFICIAL NEURAL NETWORK}A device that detects a specific pattern for traffic conditions using an artificial neural network

본 발명은 인공신경망을 이용해 교통상황에 대한 특이패턴을 감지하는 장치에 관한 것이다.The present invention relates to an apparatus for detecting a specific pattern for a traffic situation using an artificial neural network.

CCTV는 특정 수신자를 대상으로 영상을 전송하는 카메라로서, 다양한 목적을 위해 다수의 CCTV가 운영되고 있다. 특히, CCTV는 교통관제용으로 빈번이 사용되고 있다. A CCTV is a camera that transmits an image to a specific receiver, and a number of CCTVs are operated for various purposes. In particular, CCTV is frequently used for traffic control.

종래에는, 교통상황을 관제하는 관제자가 CCTV가 전송하는 영상을 육안으로 식별하여 응급환자 발생, 교통사고 발생과 같은 이상상황의 발생을 감지하는 방식이 주로 사용되고 있다. Conventionally, a method of detecting the occurrence of an abnormal situation such as an emergency patient or a traffic accident by visually identifying an image transmitted by a CCTV is mainly used by a controller who controls traffic conditions.

다만, 이러한 방식은, 관제자의 부주의에 의해 이상상황 발생을 감지하는 못하는 경우가 발생될 수 있으며, 관제가 이루어져야 하는 시간이 증가하거나 관제가 이루어져야 하는 영역의 크기가 커질수록 관제에 소요되는 비용이 증가되는 문제가 발생되고 있다. However, in this method, there may be a case where the occurrence of an abnormal situation cannot be detected due to the carelessness of the controller, and the cost required for control increases as the time to be controlled increases or the size of the area to be controlled increases. A problem is occurring.

또한, 종래의 지능형 또는 AI CCTV 모니터링 기술들은, 운영 목표에 맞추어 감시영역을 설정하고 기 설정된 객체종류, 상황, 패턴인식 등 각 목적에 맞는 설정과 모니터링 수단을 마련하였으나, 이를 위해서는 각각의 모니터링 수단을 마련해야 하므로 비용이 증가되는 문제가 발생되었으며, 단일 목표에 의해 설정된 조건 하에 동작하기에 실시간 변화하는 CCTV영상 내 환경변화를 대응할 수 없는 문제가 발생되었다. In addition, conventional intelligent or AI CCTV monitoring technologies set surveillance areas according to operational goals and prepared settings and monitoring means suitable for each purpose, such as preset object types, situations, and pattern recognition, but for this, each monitoring means must be prepared. As a result, the problem of increasing cost occurred, and operating under conditions set by a single goal, there was a problem that it could not respond to environmental changes in CCTV images that change in real time.

또한, 종래의 지능형 또는 AI CCTV 모니터링 기술들은, 객체들의 움직임을 분석하여 특정상황에 대한 패턴학습을 기초하는데, 이는 기 설정된 또는 기 학습된 상황만 인지가 가능한 문제가 발생되었다. 나아가, 휴일, 주야간 시간대 마다 변화되는 감시 현장상황을 고려하지 않고 특정 시간대에 맞춰 고정된 설정은 현장의 환경변화에 대응하기 어려운 문제점이 발생되고 있다. In addition, conventional intelligent or AI CCTV monitoring technologies are based on pattern learning for specific situations by analyzing the movement of objects, which causes a problem in which only preset or pre-learned situations can be recognized. Furthermore, a fixed setting according to a specific time zone without considering the monitoring site conditions that change every holiday, day and night time zone has a problem in that it is difficult to respond to changes in the environment of the site.

본 발명의 일 실시예는, 인공신경망을 이용해 교통상황에 대한 특이패턴을 감지하는 장치를 제공한다. An embodiment of the present invention provides an apparatus for detecting a specific pattern for a traffic situation using an artificial neural network.

또한, 상기 특이패턴 감지 장치는, 카메라를 이용하여 촬영된 복수의 영역이미지들을 대상으로 객체를 식별하고, 상기 영역이미지들 중 상기 객체가 식별된 영역이미지들 각각에 대응하도록 상기 객체에 대한 복수의 객체정보들을 생성하는 객체 식별부; 상기 객체정보들에 기초하여 상기 객체에 대한 객체패턴을 생성하는 객체패턴 관리부; 기 설정된 기간동안 생성된 복수의 상기 객체패턴들을 기 설정된 시간간격별 및 기 설정된 요일별로 분류하여 복수의 객체패턴그룹들을 생성하고, 상기 객체패턴그룹들 각각과 대응하는 패턴모델을 생성 또는 학습시키는 패턴모델 관리부; 데이터베이스에서 현재시각 및 현재요일과 대응하는 복수의 상기 패턴모델들을 검색하고, 검색된 상기 패턴모델들에 기초하여 기본패턴모델을 생성하며, 상기 현재시각과 대응하는 상기 객체패턴들인 복수의 감시 객체패턴들과 상기 기본패턴모델을 비교하여 이상유무를 판단하는 객체패턴 감시부; 및 이상상태가 발생되지 않은 경우 상기 감시 객체패턴들, 상기 감시 객체패턴들을 포함하는 상기 영역이미지들을 디스플레이하고, 이상상태가 발생된 경우 상기 감시 객체패턴들, 상기 감시 객체패턴들 및 이상패턴알림을 디스플레이하는 영상 모니터링부를 포함할 수 있다.In addition, the peculiar pattern detecting apparatus includes an object identification unit configured to identify an object from a plurality of area images photographed using a camera, and to generate a plurality of object information about the object corresponding to each of the area images in which the object is identified among the area images; an object pattern management unit generating an object pattern for the object based on the object information; A pattern model management unit that classifies the plurality of object patterns generated during a preset period by preset time intervals and preset days of the week to create a plurality of object pattern groups, and creates or learns a pattern model corresponding to each of the object pattern groups; An object pattern monitoring unit that searches a database for a plurality of the pattern models corresponding to the current time and the current day of the week, creates a basic pattern model based on the searched pattern models, and compares the basic pattern model with a plurality of monitored object patterns, which are the object patterns corresponding to the current time, to determine whether there is an abnormality; and an image monitoring unit for displaying the surveillance object patterns and the area images including the surveillance object patterns when an abnormal state does not occur, and displaying the surveillance object patterns, the surveillance object patterns, and an abnormal pattern notification when an abnormal state occurs.

또한, 상기 객체정보들 각각은, 상기 객체의 객체종류, 객체위치 및 식별시각을 포함할 수 있다. In addition, each of the object information may include an object type, an object location, and an identification time of the object.

또한, 상기 객체패턴 관리부는, 상기 객체정보들의 상기 객체위치 및 상기 식별시각에 기초하여 상기 객체에 대한 객체경로, 객체방향 및 객체속도를 결정하고, 상기 객체종류, 상기 객체경로, 상기 객체방향 및 상기 객체속도를 포함하는 상기 객체패턴을 생성할 수 있다.In addition, the object pattern management unit may determine an object path, an object direction, and an object speed for the object based on the object location and the identification time of the object information, and generate the object pattern including the object type, the object path, the object direction, and the object speed.

또한, 상기 패턴모델 관리부는, 상기 객체패턴그룹에 포함된 상기 객체패턴들 중 상기 객체종류 및 상기 객체방향이 동일한 객체패턴들을 1차 객체패턴들로 결정하고, 상기 1차 객체패턴들 중 상기 객체경로의 적어도 일부가 중첩되는 1차 객체패턴들을 2차 객체패턴들로 결정하며, 상기 2차 객체패턴의 상기 객체경로에 기초하여 상기 2차 객체패턴들 각각과 대응하는 패턴영역을 생성할 수 있다.In addition, the pattern model management unit may determine, among the object patterns included in the object pattern group, object patterns having the same object type and the same object direction as primary object patterns, determine primary object patterns overlapping at least a part of the object path among the primary object patterns as secondary object patterns, and create a pattern area corresponding to each of the secondary object patterns based on the object path of the secondary object pattern.

또한, 상기 패턴모델 관리부는, 이미 생성된 복수의 상기 패턴모델들 중, 상기 2차 객체패턴들의 상기 객체종류 및 상기 객체방향과 상기 객체종류 및 상기 객체방향이 동일하고, 상기 2차 객체패턴들의 상기 패턴영역과 적어도 일부가 중첩되는 상기 패턴영역을 포함하는 이미 생성된 상기 패턴모델을 상기 데이터베이스에서 검색하고, 이미 생성된 상기 패턴모델이 검색되는 경우, 검색된 이미 생성된 상기 패턴모델을 상기 2차 객체패턴들을 이용해 학습시키며, 이미 생성된 상기 패턴모델이 검색되지 않는 경우, 상기 2차 객체패턴들을 이용해 상기 패턴모델을 생성할 수 있다.In addition, the pattern model management unit searches the database for already created pattern models, including pattern areas in which the object type and object direction of the secondary object patterns are the same as the object type and the object direction, and at least partially overlaps with the pattern areas of the secondary object patterns, among the plurality of already created pattern models, and when the already created pattern models are retrieved, the searched already created pattern models are trained using the secondary object patterns, and the already generated pattern models are not found. , The pattern model may be generated using the secondary object patterns.

또한, 상기 객체패턴 감시부는, 검색된 상기 패턴모델들 중 상기 객체종류 및 상기 객체방향이 동일하고 상기 패턴영역의 적어도 일부가 중첩되는 패턴모델들을 제1 패턴모델들로 결정하고, 상기 제1 패턴모델들 각각의 상기 2차 객체패턴들에 기초하여 민감도 조건을 결정하며, 상기 제1 패턴모델들 중 상기 제2 객체패턴들이 상기 민감도 조건을 충족시키는 제1 패턴모델들을 제2 패턴모델들로 결정하고, 상기 제2 패턴모델들을 결합하여 기준패턴모델들을 생성하며, 상기 감시 객체패턴들과 상기 기준패턴모델을 비교하여 상기 이상유무를 판단할 수 있다.In addition, the object pattern monitoring unit determines, among the searched pattern models, pattern models having the same object type and the same object direction and overlapping at least a part of the pattern area as first pattern models, determining a sensitivity condition based on the secondary object patterns of each of the first pattern models, determining first pattern models for which the second object patterns among the first pattern models satisfy the sensitivity condition as second pattern models, and generating reference pattern models by combining the second pattern models, It is possible to determine the presence or absence of the abnormality by comparing the model with the reference pattern model.

또한, 상기 패턴모델 관리부는, 상기 감시 객체패턴에 이상상황의 종류가 라벨링된 학습데이터를 생성하고, 상기 학습데이터를 이용하여, 상기 감시 객체패턴을 입력값으로 입력했을 때 이상상황의 종류 및 확률을 출력하는 이상감지패턴탐지모델에 대한 기계학습을 수행할 수 있다.In addition, the pattern model management unit generates learning data in which the type of anomaly situation is labeled in the monitoring object pattern, and when the monitoring object pattern is input as an input value, the type and probability of the abnormal situation are generated using the learning data. It can perform machine learning on an anomaly detection pattern detection model.

본 발명의 일 실시예에 따르면, 관제인원이 교통상황을 관제할 필요없이, 자동으로 교통상황에 대한 패턴이 생성되고 생성된 패턴을 벗어나는 특이패턴이 감지되므로, 교통관제에 소요되는 비용이 절감되고 교통관제의 효율성 및 정확성이 향상될 수 있다.According to an embodiment of the present invention, a traffic situation pattern is automatically generated without the need for a traffic controller to control the traffic situation, and a specific pattern that deviate from the generated pattern is detected. Thus, the cost required for traffic control is reduced, and the efficiency and accuracy of traffic control can be improved.

본 발명의 일 실시예에 따르면, 관제인원이 교통상황을 관제할 필요 없이, 발생된 특이패턴과 대응하는 이상상황의 종류 및 확률이 산출되므로, 교통관제에 소요되는 비용이 절감되고 특이패턴에 대한 신속하고 정확한 대응이 이루어질 수 있다. According to an embodiment of the present invention, since the type and probability of an abnormal situation corresponding to the generated peculiar pattern is calculated without the need for traffic control personnel to control the traffic situation, the cost required for traffic control is reduced and a quick and accurate response to the unusual pattern can be made.

실시예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.Effects obtainable from the embodiments are not limited to the effects mentioned above, and other effects not mentioned can be clearly derived and understood by those skilled in the art based on the detailed description below.

실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 특이패턴 감지 시스템을 나타내는 개략도이다.
도 2는 본 발명의 일 실시예에 따른 특이패턴 감지 장치의 구성을 나타내는 블록도다.
도 3는 도 2에 따른 객체패턴 관리부가 객체패턴을 생성하는 과정을 예시적으로 설명하는 도면이다.
도 4는 도 2에 따른 패턴모델 관리부가 패턴모델을 생성하는 과정을 도시하는 흐름도이다.
도 5은 도 2에 따른 객체패턴 감시부가 영역영상에 포함된 객체패턴들에 기초하여 이상유무를 판단하는 과정을 도시하는 흐름도이다.
도 6은 도 2에 따른 영상 모니터링부가 영역영상을 모니터링하는 과정을 도시하는 흐름도이다.
도 7는 도 2에 따른 패턴모델 관리부(104)가 이상패턴탐지모델에 대한 기계학습을 수행하는 과정을 도시하는 흐름도이다.
도 8은 도 2에 따른 객체패턴 감시부(105)가 이상패턴의 종류를 식별하는 과정을 도시하는 흐름도이다.
도 9은 도 2에 따른 특이패턴 감지 장치의 구성을 나타내는 블록도다.
BRIEF DESCRIPTION OF THE DRAWINGS Included as part of the detailed description to aid understanding of the embodiments, the accompanying drawings provide various embodiments and, together with the detailed description, describe technical features of the various embodiments.
1 is a schematic diagram showing a specific pattern detection system according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a peculiar pattern detection device according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating a process of generating an object pattern by the object pattern management unit according to FIG. 2 by way of example.
4 is a flowchart illustrating a process of generating a pattern model by the pattern model management unit according to FIG. 2 .
FIG. 5 is a flowchart illustrating a process of determining whether or not there is an abnormality based on object patterns included in a region image by the object pattern monitoring unit according to FIG. 2 .
FIG. 6 is a flowchart illustrating a process of monitoring an area image by the image monitoring unit according to FIG. 2 .
FIG. 7 is a flowchart illustrating a process in which the pattern model management unit 104 according to FIG. 2 performs machine learning on an abnormal pattern detection model.
FIG. 8 is a flowchart illustrating a process in which the object pattern monitoring unit 105 according to FIG. 2 identifies the type of abnormal pattern.
FIG. 9 is a block diagram showing the configuration of the singular pattern detection device according to FIG. 2 .

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It should be understood that when an element is referred to as being “connected” or “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "comprise" or "have" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, but it should be understood that the presence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof is not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and are not interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 특이패턴 감지 시스템의 나타내는 개략도다. 1 is a schematic diagram showing a system for detecting a specific pattern according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 특이패턴 감지 시스템은 특이패턴 감지 장치(100) 및 카메라(200)를 포함한다. 특이패턴 감지 장치(100)는 복수의 카메라(200)들과 정보통신 가능하게 연결될 수 있다. Referring to FIG. 1 , a singular pattern detection system according to an embodiment of the present invention includes a singular pattern detection device 100 and a camera 200 . The singular pattern detection device 100 may be connected to the plurality of cameras 200 in information communication.

카메라(200)는 촬영한 영역영상을 특이패턴 감지 장치(100)에 전송할 수 있도록 구성된다. 일 실시예에서, 카메라(200)는 초당 프레임 수(Frame Per Second)가 1 이상일 수 있다. 즉, 카메라(200)는 촬영하는 영역에 대하여 1초당 적어도 하나의 영역이미지를 촬영하여 특이패턴 감지 장치(100)에 전송할 수 있다. 영역영상은 1초당 적어도 하나의 영역이미지를 포함할 수 있다. The camera 200 is configured to transmit the captured region image to the device 100 for detecting a peculiar pattern. In one embodiment, the camera 200 may have 1 or more frames per second. That is, the camera 200 may capture at least one region image per second of the region to be photographed and transmit the image to the peculiar pattern detection device 100 . The area image may include at least one area image per second.

또한, 특이패턴 감지 장치(100)는, 카메라(200)가 촬영한 영역영상을 수신하고, 수신한 영역영상에 기 설정된 객체가 포함되는 경우, 영역영상 내에 포함된 객체를 탐지할 수 있다. 일 실시예에서, 객체는 사람, 사륜차(승용차, 버스 등), 이륜차 등과 같이 유동하는 대상과 대응하는 이미지일 수 있다. Also, the peculiar pattern detecting apparatus 100 may receive an area image photographed by the camera 200 and detect an object included in the area image when a predetermined object is included in the received area image. In one embodiment, the object may be an image corresponding to a moving object such as a person, a four-wheeled vehicle (passenger car, bus, etc.), a two-wheeled vehicle, and the like.

또한, 특이패턴 감지 장치(100)는, 탐지된 객체와 대응하는 정보인 객체정보를 산출하여 데이터베이스에 저장할 수 있다. 일 실시예에서, 객체정보는 객체의 종류, 크기, 색상, 영역이미지 내의 객체위치, 식별시각, 객체 ID, 객체영역 등을 포함할 수 있다. 일 실시예에서, 객체위치는 사각형태의 영역이미지의 가로축과 세로축을 좌표계로 하는 좌표에 의해 정의될 수 있다. 가로축과 세로축의 단위는 픽셀일 수 있으며, 객체위치는 객체의 중심점의 위치로 정의될 수 있다. 이리 실시예에서, 객체의 중심점은 객체를 포함하는 사각형의 영역인 객체영역의 중심점일 수 있다. 일 실시예에서, 객체의 중심점은 객체와 대응하는 객체이미지의 중심점일 수 있다. Also, the peculiar pattern detection apparatus 100 may calculate and store object information corresponding to the detected object in a database. In one embodiment, the object information may include the type, size, color, location of the object in the area image, identification time, object ID, object area, and the like of the object. In one embodiment, the object location may be defined by coordinates using the horizontal axis and the vertical axis of the rectangular area image as coordinate systems. Units of the horizontal axis and the vertical axis may be pixels, and the object location may be defined as the location of the center point of the object. In this embodiment, the center point of the object may be the center point of the object area, which is a rectangular area including the object. In one embodiment, the center point of the object may be the center point of the object image corresponding to the object.

또한, 특이패턴 감지 장치(100)는, 영역영상에서 객체가 식별된 시점부터 생성되는 객체의 객체정보에 기초하여 객체의 객체패턴을 생성할 수 있다. 객체패턴은 객체가 영역영상에서 식별된 시점부터 식별되지 않는 시점까지의 객체정보에 기초하여 생성될 수 있다. 객체패턴은 객체가 식별되는 복수의 영역이미지들 내의 객체위치들 및 식별시각들에 기초하여 생성되는 객체경로, 객체방향, 이동패턴 및 객체속도를 포함할 수 있다. 또한 객체패턴은 객체가 최초로 식별된 시각 및 객체의 식별이 종료된 시각을 포함할 수 있다. Also, the singular pattern detection apparatus 100 may generate an object pattern of an object based on object information of an object created from the point in time when the object is identified in the region image. The object pattern may be generated based on object information from a point in time when an object is identified in the region image to a point in time when the object is not identified. The object pattern may include an object path, an object direction, a movement pattern, and an object speed generated based on object positions and identification times in a plurality of area images in which the object is identified. Also, the object pattern may include a time when an object is first identified and a time when identification of the object is finished.

또한, 특이패턴 감지 장치(100)는, 기 설정된 기간동안 객체패턴들을 기 설정된 시간간격별 및 기 설정된 요일별로 분류하여 복수의 객체패턴그룹들을 생성하고, 객체패턴그룹들 각각과 대응하는 패턴모델을 생성 또는 학습시킬 수 있다.In addition, the peculiar pattern detection apparatus 100 classifies object patterns according to preset time intervals and preset days of the week for a preset period of time to generate a plurality of object pattern groups, and to generate or learn a pattern model corresponding to each of the object pattern groups.

또한, 특이패턴 감지 장치(100)는, 현재시각 및 현재요일과 대응하는 복수의 패턴모델들을 검색하고, 검색된 패턴모델들에 기초하여 기준패턴모델을 생성할 수 있다. 또한, 특이패턴 감지 장치(100)는, 현재시각과 대응하는 객체패턴들을 기준패턴모델과 비교하여 이상유무를 판단할 수 있다. Also, the peculiar pattern detection apparatus 100 may search for a plurality of pattern models corresponding to the current time and the current day of the week, and generate a reference pattern model based on the searched pattern models. In addition, the peculiar pattern detecting apparatus 100 may compare object patterns corresponding to the current time with a reference pattern model to determine whether there is an abnormality.

또한, 특이패턴 감지 장치(100)는, 영역영상, 현재시각과 대응하는 객체패턴들, 기준패턴모델 및 이상유무를 디스플레이할 수 있다. In addition, the peculiar pattern detection apparatus 100 may display a region image, object patterns corresponding to the current time, a reference pattern model, and the presence or absence of abnormalities.

또한, 특이패턴 감지 장치(100)는, 이상으로 판단된 객체패턴들에 실제이상상황을 라벨링하여 생성한 학습데이터를 이용해 기계학습을 수행하여 이상상황의 종류 및 확률을 출력하는 이상패턴탐지모델을 생성할 수 있다. In addition, the apparatus 100 for detecting unusual patterns performs machine learning using learning data generated by labeling object patterns determined to be abnormal with actual abnormal situations to generate an abnormal pattern detection model that outputs types and probabilities of abnormal situations.

도 2는 본 발명의 일 실시예에 따른 특이패턴 감지 장치(100)의 구성을 나타내는 블록도다.2 is a block diagram showing the configuration of the singular pattern detection device 100 according to an embodiment of the present invention.

도 2를 참조하면, 특이패턴 감지 장치(100)는, 카메라(200)로부터 촬영된 영역영상을 수신하는 영상 수신부(101)를 포함한다. 일 실시예에서, 영상 수신부(101)는 카메라(200)로부터 1초당 적어도 하나의 영역이미지를 수신할 수 있다. 즉, 영역영상은 기 설정된 시간간격으로 촬영된 복수의 영역이미지들로 구성되며, 기 설정된 시간은 1초당 수신되는 영역이미지들의 개수의 역수로 설정된다. Referring to FIG. 2 , the apparatus 100 for detecting a peculiar pattern includes an image receiving unit 101 that receives a region image photographed by a camera 200 . In one embodiment, the image receiving unit 101 may receive at least one area image per second from the camera 200 . That is, the area image is composed of a plurality of area images captured at preset time intervals, and the preset time is set as a reciprocal of the number of area images received per second.

또한, 특이패턴 감지 장치(100)는, 영역영상에서 객체를 식별하는 객체 식별부(102)를 포함한다. In addition, the singular pattern detection device 100 includes an object identification unit 102 that identifies objects in the region image.

객체 식별부(102)는 수신한 영역영상에 기 설정된 객체가 포함되는 경우, 영역영상 내에 포함된 객체를 탐지할 수 있다. 일 실시예에서, 객체는 사람, 사륜차(승용차, 버스 등), 이륜차 등과 같이 유동하는 대상과 대응하는 이미지일 수 있다. 도시된 실시예에서, 영역영상에는 사람과 대응하는 복수의 객체들, 승용차와 대응하는 복수의 객체들 및 트럭과 대응하는 복수의 객체들이 감지된다. When a preset object is included in the received region image, the object identification unit 102 may detect an object included in the region image. In one embodiment, the object may be an image corresponding to a moving object such as a person, a four-wheeled vehicle (passenger car, bus, etc.), a two-wheeled vehicle, and the like. In the illustrated embodiment, a plurality of objects corresponding to a person, a plurality of objects corresponding to a car, and a plurality of objects corresponding to a truck are detected in the region image.

영역영상 내에서 객체가 식별되면, 객체 식별부(102)는 객체가 영역영상 내에서 식별된 시점부터 식별되지 않는 시점까지의 복수의 영역이미지들에서 객체와 대응하는 객체정보들을 생성한다. 일 실시예에서, 객체정보는 객체의 종류, 크기, 색상, 영역이미지 내의 객체위치, 식별시각, 객체 ID, 객체영역 등을 포함할 수 있다. 일 실시예에서, 객체의 식별에는 기 학습된 기계학습모델이 사용될 수 있다. 객체 식별부(102)는, 영역이미지를 기계학습모델에 입력 값으로 입력하고, 기계학습모델로부터 영역이미지 내에 포함된 객체의 종류, 객체의 색깔, 영역이미지 내의 객체위치를 획득할 수 있다. 일 실시예에서, 영역이미지 내의 객체위치는 객체를 포함하는 객체영역의 중심위치일 수 있다. 일 실시예에서, 객체영역은 내측에 객체를 포함하는 사각영역일 수 있다. 일 실시예에서, 객체 식별부(102)는, 객체를 포함하는 영역이미지를 입력 값으로 입력했을 때, 영역이미지에 포함된 객체를 포함하는 사각형의 객체영역을 출력하고, 영역이미지 중 객체영역에 포함되는 부분이미지를 입력 값으로 입력했을 때, 부분이미지 내에서 객체가 차지하는 영역에 포함되는 객체이미지를 출력하며, 객체이미지를 입력 값으로 입력했을 때, 객체와 대응하는 특징들을 출력하도록 기 학습된 제1 기계학습모델을 사용할 수 있다. 일 실시예에서, 제1 기계학습모델에 대한 기계학습에는 Mask-rcnn(Mask region convolutional neural network)이 사용될 수 있다. 일 실시예에서, 객체 식별부(102)는, 제1 기계학습모델에서 출력된 특징들을 입력 값으로 입력했을 때, 객체와 대응하는 객체종류를 출력하도록 기 학습된 제2 기계학습모델을 사용할 수 있다. 일 실시예에서, 제2 기계학습모델에 대한 기계학습에는 random forest, xgboost 등이 사용될 수 있다. 일 실시예에서, 객체 식별부(102)는, 제1 기계학습모델에서 출력된 객체이미지를 입력 값으로 입력했을 때, 객체이미지와 대응하는 색상을 출력하도록 기 학습된 제3 기계학습모델을 사용할 수 있다. 일 실시예에서, 제3 기계학습모델에 대한 기계학습에는 CNN(Convolutional Neural Network)이 사용될 수 있다. 일 실시예에서, 객체 식별부(102)는, 부분이미지 또는 객체이미지에 기초하여 객체의 크기를 산출할 수 있다. When an object is identified in the region image, the object identification unit 102 generates object information corresponding to the object in a plurality of region images from a point in time when the object is identified within the region image to a time point when the object is not identified. In one embodiment, the object information may include the type, size, color, location of the object in the area image, identification time, object ID, object area, and the like of the object. In one embodiment, a pre-learned machine learning model may be used to identify an object. The object identification unit 102 may input the area image into the machine learning model as an input value, and obtain the type of object included in the area image, the color of the object, and the position of the object in the area image from the machine learning model. In one embodiment, the location of the object in the area image may be the center location of the object area including the object. In one embodiment, the object area may be a rectangular area including an object inside. In an embodiment, the object identification unit 102 may use a pre-learned first machine learning model to output a rectangular object region including an object included in the region image when a region image including an object is input as an input value, output an object image included in a region occupied by an object in the partial image when a partial image included in the object region among the region images is input as an input value, and output features corresponding to objects when the object image is input as an input value. In one embodiment, Mask region convolutional neural network (Mask-rcnn) may be used for machine learning of the first machine learning model. In one embodiment, the object identification unit 102 may use a pre-learned second machine learning model to output an object type corresponding to an object when features output from the first machine learning model are input as input values. In one embodiment, random forest, xgboost, and the like may be used for machine learning of the second machine learning model. In one embodiment, the object identification unit 102 may use a pre-learned third machine learning model to output a color corresponding to the object image when the object image output from the first machine learning model is input as an input value. In one embodiment, a convolutional neural network (CNN) may be used for machine learning of the third machine learning model. In one embodiment, the object identification unit 102 may calculate the size of an object based on a partial image or an object image.

영역영상에 포함된 객체를 식별하고 객체정보를 생성하기 위하여, 공지된 다양한 인공신경망(Neural Network)이 사용될 수 있다. In order to identify objects included in the region image and generate object information, various well-known artificial neural networks may be used.

영역영상에 포함된 어느 하나의 프레임의 영역이미지에서 객체가 식별되면, 객체 식별부(102)는 식별된 제1 객체에 객체 ID를 부여하고, 제1 객체의 종류, 색상 및 크기를 결정한다. 또한, 객체 식별부(102)는 다음 프레임의 영역이미지 내에서 식별된 제2 객체의 종류, 색상 및 크기를 결정한다. 또한, 객체 식별부(102)는, 제2 객체의 종류 및 색상이 제1 객체의 종류 및 색상과 동일하고, 제2 객체의 객체영역의 적어도 일부가 제1 객체의 객체영역과 중첩되는 경우, 제2 객체가 제1 객체와 동일한 것으로 판단하고 제2 객체에 제1 객체와 동일한 객체 ID를 부여한다. 이를 통해, 객체 식별부(102)는, 연속되는 프레임들에서 서로 동일한 객체를 식별할 수 있다. 이를 통해, 객체 식별부(102)는, 연속되는 복수의 프레임들과 대응하는 복수의 영역이미지들 내에서 특정 객체 ID를 갖는 객체위치들을 획득할 수 있다. When an object is identified in the area image of any frame included in the area image, the object identification unit 102 assigns an object ID to the identified first object, and determines the type, color, and size of the first object. Also, the object identification unit 102 determines the type, color and size of the second object identified in the area image of the next frame. In addition, when the type and color of the second object are the same as the type and color of the first object, and at least a part of the object area of the second object overlaps the object area of the first object, the object identification unit 102 determines that the second object is the same as the first object and assigns the same object ID to the second object as the first object. Through this, the object identification unit 102 may identify the same object in successive frames. Through this, the object identification unit 102 may obtain object positions having a specific object ID within a plurality of consecutive frames and a plurality of corresponding area images.

다시 도 2를 참조하면, 특이패턴 감지 장치(100)는, 영역영상에서 객체가 식별된 시점부터 생성되는 객체의 객체정보에 기초하여 객체의 객체패턴을 생성하는 객체패턴 관리부(103)를 포함한다. Referring back to FIG. 2 , the apparatus 100 for detecting a peculiar pattern includes an object pattern management unit 103 that generates an object pattern of an object based on object information of an object created from the point in time when an object is identified in a region image.

도 3는 도 2에 따른 객체패턴 관리부(103)가 객체패턴을 생성하는 과정을 예시적으로 설명하는 도면이다. FIG. 3 is a diagram illustrating a process of generating an object pattern by the object pattern management unit 103 according to FIG. 2 by way of example.

객체패턴 관리부(103)는, 연속되는 복수의 프레임들과 대응하는 복수의 영역이미지들에서 식별된 복수의 객체들에 대해 생성된 복수의 객체정보들을 객체 ID에 기초하여 분류한다. The object pattern management unit 103 classifies a plurality of object information generated for a plurality of objects identified from a plurality of consecutive frames and a plurality of corresponding area images based on the object ID.

객체패턴 관리부(103)는, 동일한 객체 ID를 포함하는 복수의 객체정보들에 기초하여 객체의 객체패턴을 생성할 수 있다. 객체패턴 관리부(103)는, 동일한 객체 ID를 포함하는 객체정보들에 포함된 복수의 객체위치들에 기초하여 객체경로, 객체방향, 이동패턴 및 객체속도를 생성할 수 있다. The object pattern management unit 103 may generate an object pattern of an object based on a plurality of pieces of object information including the same object ID. The object pattern management unit 103 may generate an object path, object direction, movement pattern, and object speed based on a plurality of object locations included in object information including the same object ID.

일 실시예에서, 객체패턴 관리부(103)는 복수의 객체위치들을 연속적으로 연결하여 생성되는 경로인 객체경로를 생성할 수 있다. 또한, 객체패턴 관리부(103)는, 연속되는 두 개의 프레임과 대응하는 두 개의 객체위치들 사이의 변위에 기초하여 객체방향을 결정할 수 있다. 또한, 객체패턴 관리부(103)는, 객체경로 및 객체방향에 기초하여 객체의 이동패턴을 결정할 수 있다. 일 실시예에서, 이동패턴은, 전체적으로 특정한 방향으로 이동하는 특정방향 이동, 위치의 변화가 없는 정지, 위치의 변화는 존재하나 특정한 방향성이 없고 제한된 영역 내에서 움직이는 배회 등을 포함할 수 있다. 도시된 실시예에서, 객체패턴 관리부(103)는, 특정한 객체 ID를 갖는 객체의 이동패턴을 "우하 이동"으로 결정할 수 있다. 또한, 객체패턴 관리부(103)는, 연속되는 두 개의 프레임과 대응하는 두 개의 객체위치들 사이의 거리를 프레임 사이의 시간으로 나누어 연속되는 두 개의 프레임 사이에서의 객체의 객체순간속도를 산출할 수 있다. 일 실시예에서, 두 개의 객체위치들 사이의 거리의 단위는 픽셀 1개의 길이일 수 있다. 일 실시예에서, 객체패턴 관리부(103)는 객체가 식별된 전체 프레임들의 사이에서 산출된 복수의 객체순간속도들의 평균값을 객체속도로 결정할 수 있다. In one embodiment, the object pattern management unit 103 may create an object path, which is a path created by continuously connecting a plurality of object locations. Also, the object pattern management unit 103 may determine the object direction based on displacement between two consecutive frames and corresponding two object positions. Also, the object pattern management unit 103 may determine a movement pattern of the object based on the object path and the object direction. In one embodiment, the movement pattern may include movement in a specific direction moving in a specific direction as a whole, stop without a change in location, change in location but no specific direction, and loitering within a limited area. In the illustrated embodiment, the object pattern management unit 103 may determine a movement pattern of an object having a specific object ID as "downward movement". In addition, the object pattern management unit 103 may calculate the object instantaneous velocity of an object between two consecutive frames by dividing the distance between two consecutive frames and the corresponding two object positions by the time between the frames. In one embodiment, a unit of the distance between two object positions may be the length of one pixel. In an embodiment, the object pattern management unit 103 may determine an average value of a plurality of object instantaneous velocities calculated among all frames in which the object is identified as the object speed.

객체패턴 관리부(103)는, 객체종류, 객체경로, 객체방향, 이동패턴 및 객체속도에 대한 정보를 포함하는 객체패턴을 생성할 수 있다. 객체패턴 관리부(103)는, 영역영상에서 식별되어 서로 다른 객체 ID를 부여받은 복수의 객체들에 대응하는 복수의 객체패턴들을 생성할 수 있다. The object pattern management unit 103 may create an object pattern including information about object type, object path, object direction, movement pattern, and object speed. The object pattern management unit 103 may generate a plurality of object patterns corresponding to a plurality of objects identified in the region image and given different object IDs.

다시 도 2를 참조하면, 특이패턴 감지 장치(100)는, 서로 다른 객체 ID를 부여받은 복수의 객체들과 대응하는 복수의 객체패턴들에 기초하여 패턴영역을 생성하는 패턴모델 관리부(104)를 포함한다. Referring back to FIG. 2 , the peculiar pattern detection apparatus 100 includes a pattern model management unit 104 that generates a pattern area based on a plurality of object patterns corresponding to a plurality of objects assigned different object IDs.

도 4는 도 2에 따른 패턴모델 관리부(104)가 패턴모델을 생성하는 과정을 도시하는 흐름도이다.FIG. 4 is a flowchart illustrating a process of generating a pattern model by the pattern model management unit 104 according to FIG. 2 .

패턴모델 관리부(104)는, 기 설정된 기간동안 수집된 복수의 객체패턴들을 기 설정된 시간간격별 및 요일별로 분류하여 복수의 객체패턴그룹들을 생성한다(S110). The pattern model management unit 104 classifies a plurality of object patterns collected during a preset period according to preset time intervals and days of the week to create a plurality of object pattern groups (S110).

일 실시예에서, 기 설정된 기간은 현재시각 이전의 30일 동안의 기간일 수 있다. 일 실시예에서, 기 설정된 시간간격은 10분일 수 있다. 일 실시예에서, 기 설정된 요일은, 월요일, 화요일, 수요일, 목요일, 금요일, 토요일, 일요일 및 공휴일일 수 있다. 예를 들어, 월요일 14:00부터 월요일 14:10까지 수집된 객체패턴들이 동일한 객체패턴그룹에 포함된다. In one embodiment, the preset period may be a period of 30 days prior to the current time. In one embodiment, the preset time interval may be 10 minutes. In one embodiment, the preset day of the week may be Monday, Tuesday, Wednesday, Thursday, Friday, Saturday, Sunday, and public holidays. For example, object patterns collected from Monday 14:00 to Monday 14:10 are included in the same object pattern group.

또한, 패턴모델 관리부(104)는, 객체패턴그룹에 포함된 복수의 객체패턴들 중 객체종류 및 객체방향이 동일한 객체패턴들을 1차 객체패턴들로 결정한다(S120). Also, the pattern model management unit 104 determines object patterns having the same object type and object direction as primary object patterns among a plurality of object patterns included in the object pattern group (S120).

일 실시예에서, 객체방향은, 상, 하, 좌, 우, 좌상, 좌하, 우상, 우하, 정지, 배회 등일 수 있다. In one embodiment, the object direction may be up, down, left, right, up left, down left, up right, down right, stop, wander, and the like.

또한, 패턴모델 관리부(104)는, 1차 객체패턴들 객체경로의 적어도 일부가 중첩되는 1차 객체패턴들을 2차 객체패턴들로 결정한다(S130). In addition, the pattern model management unit 104 determines primary object patterns overlapping at least a part of the object paths of the primary object patterns as secondary object patterns (S130).

일 실시예에서, 어느 하나의 객체패턴의 객체경로의 주변으로 기 설정된 영역 내에 다른 하나의 객체패턴의 객체경로의 적어도 일부가 포함되는 경우, 어느 하나의 객체패턴과 다른 하나의 객체패턴은 서로 중첩되는 것으로 판단될 수 있다. In one embodiment, when at least a part of an object path of another object pattern is included in a preset area around an object path of one object pattern, one object pattern and another object pattern may be determined to overlap each other.

또한, 패턴모델 관리부(104)는, 2차 객체패턴들의 객체경로에 기초하여 2차 객체패턴들과 대응하는 패턴영역을 생성한다(S140). Also, the pattern model management unit 104 creates pattern areas corresponding to the secondary object patterns based on the object paths of the secondary object patterns (S140).

일 실시예에서, 패턴모델 관리부(104)는, 2차 객체패턴들 각각의 객체경로 주변으로 기 설정된 범위 내에 포함되는 영역을 설정하고, 2차 객체팬턴들의 객체경로들의 영역을 합하여 패턴영역을 설정할 수 있다.In one embodiment, the pattern model management unit 104 may set a region included in a preset range around the object path of each of the secondary object patterns, and set the pattern region by combining the regions of the object paths of the secondary object patterns.

일 실시예에서, 패턴모델 관리부(104)는, 2차 객체패턴들 각각의 객체경로 주변으로 기 설정된 범위 내에 포함되는 영역을 설정하고, 영역이 중첩되는 횟수가 기 설정된 횟수 이상인 부분을 패턴영역으로 설정할 수 있다. In one embodiment, the pattern model management unit 104 may set a region included within a preset range around the object path of each of the secondary object patterns, and set a portion where the number of overlapping regions is equal to or greater than the preset number as the pattern region.

또한, 패턴모델 관리부(104)는, 이미 생성된 패턴모델들 중 2차 객체패턴들의 객체종류 및 객체방향과 객체종류 및 객체방향이 동일하고 2차 객체패턴들의 패턴영역과 적어도 일부가 중첩되는 패턴영역을 갖는 이미 생성된 패턴모델이 존재하는지 판단한다(S150). In addition, the pattern model management unit 104 determines whether there is an already created pattern model having a pattern area in which the object type and object direction of the secondary object patterns and the object type and object direction are the same and at least partially overlaps with the pattern area of the secondary object patterns among the pattern models already created (S150).

또한, 이미 생성된 패턴모델들 중 2차 객체패턴들의 객체종류 및 객체방향과 객체종류 및 객체방향이 동일하고 2차 객체패턴들의 패턴영역과 적어도 일부가 중첩되는 패턴영역을 갖는 이미 생성된 패턴모델이 존재하는 경우, 패턴모델 관리부(104)는, 2차 객체패턴들을 이용해 이미 생성된 패턴모델을 학습한다(S170). In addition, among the already created pattern models, if there is an already created pattern model having a pattern area in which the object type and object direction of the secondary object patterns are the same and the pattern area at least partially overlaps with the pattern area of the secondary object patterns, the pattern model management unit 104 learns the already created pattern model using the secondary object patterns (S170).

일 실시예에서, 이미 생성된 패턴모델을 생성하는데 사용되었던 기존 2차 객체패턴들과 2차 객체패턴들 모두에 기초하여 이미 생성된 패턴모델을 학습시킬 수 있다. 일 실시예에서, 패턴모델에는, 객체종류, 객체방향, 패턴영역, 2차 객체패턴들의 개수, 2차 객체패턴들의 분포도, 2차 객체패턴들의 평균속도 등이 포함될 수 있다. 일 실시예에서, 2차 객체패턴들을 통한 학습을 통해 이미 생성된 패턴모델의 패턴영역, 2차 객체패턴들의 개수, 2차 객체패턴들의 분포도 등이 변경될 수 있다. In an embodiment, the already created pattern model may be trained based on both existing secondary object patterns and secondary object patterns used to generate the already created pattern model. In one embodiment, the pattern model may include object type, object direction, pattern area, number of secondary object patterns, distribution of secondary object patterns, average speed of secondary object patterns, and the like. In one embodiment, a pattern area of a pattern model already generated through learning through secondary object patterns, the number of secondary object patterns, and a distribution of secondary object patterns may be changed.

또한, 이미 생성된 패턴모델들 중 2차 객체패턴들의 객체종류 및 객체방향과 객체종류 및 객체방향이 동일하고 2차 객체패턴들의 패턴영역과 적어도 일부가 중첩되는 패턴영역을 갖는 이미 생성된 패턴모델이 존재하지 않는 경우, 패턴모델 관리부(104)는, 2차 객체패턴들을 이용해 패턴모델을 생성한다(S160). In addition, among the already created pattern models, if there is no already created pattern model having a pattern area in which the object type and object direction of the secondary object patterns are the same and the pattern area at least partially overlaps with the pattern area of the secondary object patterns, the pattern model management unit 104 creates a pattern model using the secondary object patterns (S160).

일 실시예에서, 패턴모델에는, 객체종류, 객체방향, 패턴영역, 2차 객체패턴들의 개수, 2차 객체패턴들의 평균속도 등이 포함될 수 있다. In one embodiment, the pattern model may include object type, object direction, pattern area, number of secondary object patterns, average speed of secondary object patterns, and the like.

패턴모델 관리부(103)는, 객체종류 및 객체방향에 기초하여 복수의 패턴모델들을 생성한다. The pattern model management unit 103 generates a plurality of pattern models based on object types and object directions.

다시 도 2를 참조하면, 특이패턴 감지 장치(100)는, 특이패턴을 감지하는 객체패턴 감시부(105)를 포함한다.Referring back to FIG. 2 , the singular pattern detection device 100 includes an object pattern monitoring unit 105 that detects a singular pattern.

도 5은 도 2에 따른 객체패턴 감시부가 영역영상에 포함된 객체패턴들에 기초하여 이상유무를 판단하는 과정을 도시하는 흐름도이다.FIG. 5 is a flowchart illustrating a process of determining whether or not there is an abnormality based on object patterns included in a region image by the object pattern monitoring unit according to FIG. 2 .

먼저, 객체패턴 감시부(105)는, 데이터베이스에서 현지시각 및 현재요일과 대응하는 복수의 패턴모델들을 검색한다(S210).First, the object pattern monitoring unit 105 searches the database for a plurality of pattern models corresponding to the local time and the current day of the week (S210).

또한, 객체패턴 감시부(105)는, 검색된 패턴모델들 중 객체종류 및 객체방향이 동일하고 패턴영역의 적어도 일부가 중첩되는 패턴모델들을 제1 패턴모델들로 결정한다(S200). In addition, the object pattern monitoring unit 105 determines, among the searched pattern models, pattern models having the same object type and object direction and overlapping at least a part of the pattern area as first pattern models (S200).

또한, 객체패턴 감시부(105)는, 제1 패턴모델들의 각각의 2차 객체패턴들에 기초하여 민감도 조건을 결정한다(S230). In addition, the object pattern monitoring unit 105 determines a sensitivity condition based on each of the secondary object patterns of the first pattern models (S230).

일 실시예에서, 민감도 조건은, 2차 객체패턴들의 개수 및 2차 객체패턴들의 평균속도를 포함할 수 있다. In one embodiment, the sensitivity condition may include the number of secondary object patterns and the average speed of the secondary object patterns.

일 실시예에서, 객체패턴 감시부(105)는, 제1 패턴모델들의 2차 객체패턴들의 개수의 범위 및 2차 객체패턴들의 속도의 범위를 민감도 조건으로 결정할 수 있다. 예를 들어, 1차 패턴모델들의 2차 객체패턴들의 개수의 평균값에 2차 객체패턴들의 개수의 표준편차를 뺀 값을 최소값으로 하고 2차 객체패턴들의 개수의 평균값에 2차 객체패턴들의 개수의 표준편차를 더한 값을 최대값으로 하는 개수범위가 민감도 조건에 포함될 수 있다. 예를 들어, 1차 패턴모델들의 2차 객체패턴들의 평균속도의 평균값에 2차 객체패턴들의 평균속도의 표준편차를 뺀 값을 최소값으로 하고 2차 객체패턴들의 평균속도의 평균값에 2차 객체패턴들의 평균속도의 표준편차를 더한 값을 최대값으로 하는 속도범위가 민감도 조건에 포함될 수 있다. 다만, 이에 한정되는 것은 아니며 다양한 개수범위 및 속도범위가 민감도 조건에 포함될 수 있다. 예를 들어, 최대값과 최소값의 차이를 보다 작게 설정하여 민감도를 향상시킬 수 있다. In an embodiment, the object pattern monitor 105 may determine a range of the number of secondary object patterns of the first pattern models and a range of speeds of the secondary object patterns as sensitivity conditions. For example, the sensitivity condition may include a number range in which the average value obtained by subtracting the standard deviation of the number of secondary object patterns from the average value of the number of secondary object patterns of primary pattern models is the minimum value, and the value obtained by adding the standard deviation of the number of secondary object patterns to the average value of the secondary object patterns is the maximum value. For example, the sensitivity condition may include a speed range in which the average value obtained by subtracting the standard deviation of the average speed of the secondary object patterns from the average value of the average speed of the secondary object patterns of the primary pattern models is the minimum value, and the average value of the average speed of the secondary object patterns plus the standard deviation of the average speed of the secondary object patterns is the maximum value. However, it is not limited thereto, and various number ranges and speed ranges may be included in the sensitivity conditions. For example, sensitivity can be improved by setting the difference between the maximum value and the minimum value smaller.

또한, 객체패턴 감시부(105)는, 제1 패턴모델들 중 2차 객체패턴들이 민감도 조건을 만족하는 제1 패턴모델들을 제2 패턴모델들로 결정한다(S240).Also, the object pattern monitoring unit 105 determines, as second pattern models, first pattern models in which secondary object patterns satisfy a sensitivity condition among the first pattern models (S240).

제1 패턴모델들 중 2차 객체패턴들의 개수가 개수범위에 포함되고 2차 객체패턴들의 평균속도가 속도범위에 포함되는 제1 패턴모델들이 제2 패턴모델들로 결정된다. Among the first pattern models, first pattern models in which the number of secondary object patterns is included in the number range and the average speed of the secondary object patterns is included in the speed range are determined as second pattern models.

또한, 객체패턴 감시부(105)는, 제2 패턴모델들을 결합하여 기준패턴모델을 생성한다(S250). In addition, the object pattern monitoring unit 105 generates a reference pattern model by combining the second pattern models (S250).

일 실시예에서, 객체패턴 감시부(105)는, 복수의 기준패턴모델들을 생성할 수 있다. 예를 들어, 객체패턴 감시부(105)는, 객체종류가 차량인 기준패턴모델과 객체종류가 사람인 기준패턴모델을 생성할 수 있다. In one embodiment, the object pattern monitoring unit 105 may generate a plurality of reference pattern models. For example, the object pattern monitoring unit 105 may generate a reference pattern model in which the object type is a vehicle and a reference pattern model in which the object type is a person.

또한, 객체패턴 감시부(105)는, 영역영상의 객체패턴들과 기준패턴모델을 비교하여 이상유무를 판단한다(S260). In addition, the object pattern monitoring unit 105 compares the object patterns of the region image with the reference pattern model to determine whether there is an abnormality (S260).

일 실시예에서, 객체패턴 감시부(105)는, 현재시각과 대응하는 영역영상의 객체패턴들과 기준패턴모델을 비교하여 이상유무를 판단한다. In one embodiment, the object pattern monitoring unit 105 compares the object patterns of the region image corresponding to the current time with the reference pattern model to determine whether there is an abnormality.

일 실시예에서, 객체패턴 감시부(105)는, 현재시각 전의 기 설정된 시간간격동안 인식된 객체패턴들을 기준패턴모델과 비교하여 이상유무를 판단할 수 있다. 일 실시예에서, 기 설정된 시간간격은 10분일 수 있다. In one embodiment, the object pattern monitoring unit 105 may compare object patterns recognized during a preset time interval before the current time with a reference pattern model to determine whether there is an abnormality. In one embodiment, the preset time interval may be 10 minutes.

일 실시예에서, 객체패턴 감시부(105)는, 기준패턴모델에 포함된 제2 패턴모델들의 패턴영역에 기초하여 객체패턴들을 복수의 감시 객체패턴그룹들을 생성할 수 있다. 예를 들어, 어느 하나의 객체패턴의 객체경로가 어느 하나의 제2 패턴모델의 패턴영역에 포함되는 경우, 객체패턴 감시부(105)는, 상기 어느 하나의 체패턴을 상기 어느 하나의 제2 패턴모델과 대응하는 감시 객체패턴그룹에 포함시킬 수 있다. In one embodiment, the object pattern monitoring unit 105 may generate a plurality of monitoring object pattern groups of object patterns based on the pattern regions of the second pattern models included in the reference pattern model. For example, when the object path of any one object pattern is included in the pattern area of any one second pattern model, the object pattern monitoring unit 105 may include the any one body pattern in the monitoring object pattern group corresponding to the any one second pattern model.

감시 객체패턴그룹들 각각과 제2 패턴모델들 각각을 비교하여 이상유무를 판단할 수 있다. 예를 들어, 감시 객체패턴그룹의 객체패턴들의 개수 또는 객체패턴들의 평균속도가 제2 패턴모델의 민감도 조건을 만족시키지 않는 경우, 객체패턴 감시부(105)는, 감시 객체패턴그룹에 포함된 객체패턴들을 이상상태로 판단할 수 있다. 예를 들어, 감시 객체패턴그룹의 객체패턴들 중 객체종류 또는 객체방향이 제2 패턴모델의 객체종류 또는 객체방향과 동일하지 않은 경우, 객체패턴 감시부(105)는, 감시 객체패턴그룹에 포함된 객체패턴들을 이상상태로 판단할 수 있다. It is possible to determine whether there is an abnormality by comparing each of the monitoring object pattern groups with each of the second pattern models. For example, when the number of object patterns or the average speed of the object patterns in the object pattern group to be monitored does not satisfy the sensitivity condition of the second pattern model, the object pattern monitoring unit 105 may determine the object patterns included in the object pattern group to be monitored as abnormal. For example, if the object type or object direction among the object patterns of the monitored object pattern group is not the same as the object type or object direction of the second pattern model, the object pattern monitoring unit 105 may determine the object patterns included in the monitored object pattern group to be in an abnormal state.

다시 도 2를 참조하면, 특이패턴 감지 장치(100)는, 영역영상을 디스플레이하는 영상 모니터링부(106)를 포함한다. Referring back to FIG. 2 , the singular pattern detection device 100 includes an image monitoring unit 106 that displays an area image.

도 6은 도 2에 따른 영상 모니터링부(106)가 영역영상을 모니터링하는 과정을 도시하는 흐름도이다.FIG. 6 is a flowchart illustrating a process of monitoring a region image by the image monitoring unit 106 according to FIG. 2 .

영상 모니터링부(106)는, 객체패턴 감시부(105)로부터 현재시각과 대응하는 영역영상, 현재시각과 대응하는 영역영상의 객체패턴, 기준패턴모델 및 이상여부를 수신한다. The image monitoring unit 106 receives a region image corresponding to the current time, an object pattern of the region image corresponding to the current time, a reference pattern model, and an abnormality from the object pattern monitoring unit 105 .

먼저, 영상 모니터링부(106)는, 현재시각과 대응하는 영역영상의 객체패턴들이 정상상태인지 판단한다(S310). First, the image monitoring unit 106 determines whether the object patterns of the region image corresponding to the current time are in a normal state (S310).

일 실시예에서, 영상 모니터링부(106)는, 객체패턴 감시부(105)로부터 수신된 이상여부에 기초하여 현재시각과 대응하는 영역영상의 객체패턴들이 정상상태인지 판단할 수 있다. In an embodiment, the image monitoring unit 106 may determine whether the object patterns of the region image corresponding to the current time are in a normal state based on the abnormalities received from the object pattern monitoring unit 105 .

또한, 객체패턴들이 정상상태인 경우, 영상 모니터링부(106)는, 현재시각과 대응하는 영역영상, 현재시각과 대응하는 영역영상의 객체패턴들 및 기준패턴모델을 출력 인터페이스 장치를 통해 디스플레이한다(S320). Also, when the object patterns are in a normal state, the image monitoring unit 106 displays the region image corresponding to the current time, the object patterns of the region image corresponding to the current time, and the reference pattern model through the output interface device (S320).

또한, 객체패턴들이 이상상태인 경우, 영상 모니터링부(106)는, 현재시각과 대응하는 영역영상의 객체패턴들에 기초하여 이상패턴을 생성한다(S330). Also, when the object patterns are in an abnormal state, the image monitoring unit 106 generates an abnormal pattern based on the object patterns of the region image corresponding to the current time (S330).

일 실시예에서, 영상 모니터링부(106)는, 기준패턴모델에 포함된 제2 패턴모델들 중 이상이 발생된 제2 패턴모델과 대응하는 감시 객체패턴그룹에 포함된 객체패턴들에 기초하여 이상패턴을 생성할 수 있다. 이상패턴에는, 감시 객체패턴그룹에 포함된 객체패턴들의 객체종류의 비율, 객체패턴들의 개수, 객체패턴들의 객체방향의 비율, 객체패턴의 속도, 패턴영역 등이 포함될 수 있다. In one embodiment, the image monitoring unit 106 may generate an abnormality pattern based on object patterns included in a monitoring object pattern group corresponding to a second pattern model in which an abnormality has occurred among second pattern models included in the reference pattern model. The abnormal pattern may include the ratio of object types of object patterns included in the monitoring object pattern group, the number of object patterns, the ratio of object directions of object patterns, the speed of object patterns, the pattern area, and the like.

또한, 영상 모니터링부(106)는, 현재시각과 대응하는 영역영상, 현재시각과 대응하는 객체패턴들, 기준패턴모델 및 이상패턴 알림을 출력 인터페이스 장치를 통해 디스플레이한다(S340). In addition, the image monitoring unit 106 displays a region image corresponding to the current time, object patterns corresponding to the current time, a reference pattern model, and an abnormal pattern notification through the output interface device (S340).

이를 통해, 교통상황을 관제하는 관제자가 이상상태가 발생됨을 인지할 수 있다. Through this, the controller controlling the traffic situation can recognize that an abnormal state has occurred.

또한, 영상 모니터링부(106)는, 생성된 이상패턴에 대한 삭제요청이 수신되었는지 판단한다(S350). Also, the video monitoring unit 106 determines whether a deletion request for the generated abnormal pattern is received (S350).

영상 모니터링부(106)는, 입력 인터페이스 장치를 통해 운영자로부터 생성된 이상패턴에 대한 삭제요청을 수신할 수 있다. The video monitoring unit 106 may receive a deletion request for the generated abnormal pattern from an operator through an input interface device.

삭제요청이 수신된 경우, 영상 모니터링부(106)는, 생성된 이상패턴을 사용자 지정 패턴모델로 결정한다(S360). When the deletion request is received, the image monitoring unit 106 determines the generated abnormal pattern as a user-specified pattern model (S360).

영상 모니터링부(106)는, 생성된 이상패턴을 사용자 지정 패턴모델과 비교하고, 생성된 이상패턴이 사용자 지정 패턴모델과 대응하는 경우 이상패턴 알림을 디스플레이하지 않는다. The image monitoring unit 106 compares the generated abnormal pattern with a user-designated pattern model, and does not display an abnormal pattern notification when the generated abnormal pattern corresponds to the user-specified pattern model.

도 7는 도 2에 따른 패턴모델 관리부(104)가 이상패턴탐지모델에 대한 기계학습을 수행하는 과정을 도시하는 흐름도이다.FIG. 7 is a flowchart illustrating a process in which the pattern model management unit 104 according to FIG. 2 performs machine learning on an abnormal pattern detection model.

패턴모델 관리부(104)는, 이상패턴에 이상상황의 종류가 라벨링된 학습데이터를 생성한다(S410). The pattern model management unit 104 generates learning data in which the type of abnormal situation is labeled in the abnormal pattern (S410).

패턴모델 관리부(104)는, 관제자로부터 이상패턴과 대응하는 이상상황의 종류를 수신할 수 있으며, 이상패턴에 이상상황의 종류를 라벨링할 수 있다. 예를 들어, 도로에서 사람이 치인 경우, 도로에서 차량들 간의 추돌이 발생된 경우, 도로에서 차량이 역주행하는 경우, 인적이 드문 도보에서 사람이 쓰러진 경우 등이 이상상황의 종류에 해당될 수 있다. The pattern model management unit 104 may receive an abnormal situation type corresponding to an abnormal pattern from a controller, and may label the abnormal situation type to the abnormal pattern. For example, cases in which a person is hit by a person on a road, a collision between vehicles on a road, a case in which a vehicle drives in reverse on a road, and a case in which a person is knocked down on a walk with few people are examples of abnormal situations.

패턴모델 관리부(104)는, 학습데이터를 이용하여, 이상패턴을 입력값으로 입력했을 때 이상상황의 종류 및 확률을 출력하는 이상패턴탐지모델에 대한 기계학습을 수행할 수 있다(S420). The pattern model management unit 104 may perform machine learning on an abnormal pattern detection model that outputs the type and probability of an abnormal situation when an abnormal pattern is input as an input value using learning data (S420).

일 실시예에서, 기계학습에는 이상패턴에 포함되는 감시 객체패턴그룹에 포함된 객체패턴들의 객체종류의 비율, 객체패턴들의 개수, 객체패턴들의 객체방향의 비율, 객체패턴의 속도 및 패턴영역를 독립변수로 하고 이상상황의 종류를 종속변수로 하는 다중회귀분석방식이 사용될 수 있다. 일 실시예에서, 기계학습에는 랜덤 포레스트(Random Forest) 알고리즘, XGBoost 알고리즘 등이 사용될 수 있다. 다만, 이에 한정되는 것은 아니며 공지된 다양한 기계학습방식이 사용될 수 있다. In one embodiment, in machine learning, a multiple regression analysis method can be used in which the ratio of object types of object patterns included in the monitoring object pattern group included in the abnormal pattern, the number of object patterns, the ratio of object directions of object patterns, the speed and pattern area of the object pattern as independent variables and the type of abnormal situation as a dependent variable. In one embodiment, a random forest algorithm, an XGBoost algorithm, or the like may be used for machine learning. However, it is not limited thereto, and various known machine learning methods may be used.

일 실시예에서, 이상패턴탐지모델은 기 설정된 시간간격별 및 요일별로 생성될 수 있다. In one embodiment, the abnormal pattern detection model may be generated for each preset time interval and for each day of the week.

도 8은 도 2에 따른 객체패턴 감시부(105)가 이상패턴의 종류를 식별하는 과정을 도시하는 흐름도이다. FIG. 8 is a flowchart illustrating a process in which the object pattern monitoring unit 105 according to FIG. 2 identifies the type of abnormal pattern.

먼저, 객체패턴 감시부(105)는, 생성된 이상패턴을 이상패턴탐지모델에 입력 값으로 입력하고, 이상패턴탐지모델로부터 이상상황의 종류 및 확률을 획득한다(S510).First, the object pattern monitoring unit 105 inputs the generated abnormal pattern as an input value to the abnormal pattern detection model, and obtains the type and probability of the abnormal situation from the abnormal pattern detection model (S510).

또한, 객체패턴 감시부(105)는, 획득한 확률이 기 설정된 기준확률 이상인지 판단한다(S520).In addition, the object pattern monitoring unit 105 determines whether the obtained probability is greater than or equal to a preset reference probability (S520).

또한, 객체패턴 감시부(105)는, 획득한 확률이 기 설정된 기준확률 이상인 경우, 획득한 이상상황의 종류를 영상모니터링부(106)에 제공하고, 영상모니터링부(106)는 이상상황의 종류를 디스플레이한다(S530). In addition, when the obtained probability is greater than or equal to a preset reference probability, the object pattern monitoring unit 105 provides the obtained abnormal situation type to the image monitoring unit 106, and the image monitoring unit 106 displays the abnormal situation type (S530).

이를 통해, 상주하는 관제인원 없이 교통상황에서 발생되는 이상상황의 종류를 알 수 있으므로, 교통관제시스템의 운영비용이 절감됨과 동시에 이상상황에 대해 신속하고 정확한 대처가 이루어질 수 있다. Through this, since the type of abnormal situation occurring in the traffic situation can be known without a resident controller, the operation cost of the traffic control system can be reduced and at the same time, prompt and accurate response to the abnormal situation can be made.

도 9은 도 1에 따른 특이패턴 감지 장치(100)의 하드웨어 구성을 예시적으로 나타낸 도면이다.FIG. 9 is a diagram showing the hardware configuration of the singular pattern detection device 100 according to FIG. 1 by way of example.

도 9을 참조하면, 특이패턴 감지 장치(100)는, 적어도 하나의 프로세서(110) 및 상기 적어도 하나의 프로세서(110)가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함할 수 있다.Referring to FIG. 9, the singular pattern detection apparatus 100 may include at least one processor 110 and a memory for storing instructions instructing the at least one processor 110 to perform at least one operation.

상기 적어도 하나의 동작은 전술한 특이패턴 감지 장치(100)의 구성부들(101, 102, 103, 104, 105, 106)이나 기타 기능 또는 동작 방법을 포함할 수 있다.The at least one operation may include the components 101 , 102 , 103 , 104 , 105 , and 106 of the above-described peculiar pattern detection device 100 or other functions or operation methods.

여기서 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. Here, the at least one processor 110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Each of the memory 120 and the storage device 160 may include at least one of a volatile storage medium and a non-volatile storage medium.

예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.For example, the memory 120 may be one of a read only memory (ROM) and a random access memory (RAM), and the storage device 160 may be a flash-memory, a hard disk drive (HDD), a solid state drive (SSD), or various memory cards (eg, a micro SD card).

또한, 특이패턴 감지 장치(100)는, 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 특이패턴 감지 장치(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 특이패턴 감지 장치(100)에 포함된 각각의 구성 요소들은 버스(bus, 170)에 의해 연결되어 서로 통신을 수행할 수 있다.In addition, the singular pattern detection device 100 may include a transceiver 130 that performs communication through a wireless network. In addition, the singular pattern detection device 100 may further include an input interface device 140 , an output interface device 150 , a storage device 160 , and the like. Each component included in the singular pattern detection device 100 is connected by a bus 170 to communicate with each other.

특이패턴 감지 장치(100)의 예를 들면, 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), PDA(Personal Digital Assistant) 등일 수 있다.For example, a communicable desktop computer, a laptop computer, a notebook, a smart phone, a tablet PC, a mobile phone, a smart watch, smart glasses, an e-book reader, a portable multimedia player (PMP), a portable game machine, a navigation device, a digital camera, and a digital multimedia broadcasting (DMB) It may be a player, a digital audio recorder, a digital audio player, a digital video recorder, a digital video player, a personal digital assistant (PDA), and the like.

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in computer software.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter and the like. The hardware device described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. In addition, the above-described method or device may be implemented by combining all or some of its components or functions, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention described in the claims below. It will be understood that it can be changed.

Claims (1)

인공신경망을 이용한 교통상황 특이패턴 감지 장치에 있어서,
카메라를 이용하여 촬영된 복수의 영역이미지들을 대상으로 객체를 식별하고, 상기 영역이미지들 중 상기 객체가 식별된 영역이미지들 각각에 대응하도록 상기 객체에 대한 복수의 객체정보들을 생성하는 객체 식별부;
상기 객체정보들에 기초하여 상기 객체에 대한 객체패턴을 생성하는 객체패턴 관리부;
기 설정된 기간동안 생성된 복수의 상기 객체패턴들을 기 설정된 시간간격별 및 기 설정된 요일별로 분류하여 복수의 객체패턴그룹들을 생성하고, 상기 객체패턴그룹들 각각과 대응하는 패턴모델을 생성 또는 학습시키는 패턴모델 관리부;
데이터베이스에서 현재시각 및 현재요일과 대응하는 복수의 상기 패턴모델들을 검색하고, 검색된 상기 패턴모델들에 기초하여 기준패턴모델을 생성하며, 상기 현재시각과 대응하는 상기 객체패턴들인 복수의 감시 객체패턴들과 상기 기준패턴모델을 비교하여 이상유무를 판단하는 객체패턴 감시부; 및
이상상태가 발생되지 않은 경우 상기 감시 객체패턴들, 상기 감시 객체패턴들을 포함하는 상기 영역이미지들을 디스플레이하고, 이상상태가 발생된 경우 상기 감시 객체패턴들 및 이상패턴알림을 디스플레이하는 영상 모니터링부를 포함하고,
상기 객체정보들 각각은, 상기 객체의 객체종류, 객체위치 및 식별시각을 포함하며,
상기 객체패턴 관리부는,
상기 객체정보들의 상기 객체위치 및 상기 식별시각에 기초하여 상기 객체에 대한 객체경로, 객체방향 및 객체속도를 결정하고, 상기 객체종류, 상기 객체경로, 상기 객체방향 및 상기 객체속도를 포함하는 상기 객체패턴을 생성하고,
상기 패턴모델 관리부는,
상기 객체패턴그룹에 포함된 상기 객체패턴들 중 상기 객체종류 및 상기 객체방향이 동일한 객체패턴들을 1차 객체패턴들로 결정하고,
상기 1차 객체패턴들 중 상기 객체경로의 적어도 일부가 중첩되는 1차 객체패턴들을 2차 객체패턴들로 결정하며,
상기 2차 객체패턴의 상기 객체경로에 기초하여 상기 2차 객체패턴들과 대응하는 패턴영역을 생성하고,
상기 패턴모델 관리부는,
이미 생성된 복수의 상기 패턴모델들 중, 상기 2차 객체패턴들과 상기 객체종류 및 상기 객체방향이 동일하고, 상기 2차 객체패턴들과 상기 패턴영역이 적어도 일부 중첩되는, 이미 생성된 상기 패턴모델을 상기 데이터베이스에서 검색하고,
이미 생성된 상기 패턴모델이 검색되는 경우, 검색된 이미 생성된 상기 패턴모델을 상기 2차 객체패턴들을 이용해 학습시키며,
이미 생성된 상기 패턴모델이 검색되지 않는 경우, 상기 2차 객체패턴들을 이용해 상기 패턴모델을 생성하고,
상기 객체패턴 감시부는,
검색된 상기 패턴모델들 중 상기 객체종류 및 상기 객체방향이 동일하고 상기 패턴영역의 적어도 일부가 중첩되는 패턴모델들을 제1 패턴모델들로 결정하고,
상기 제1 패턴모델들 각각의 상기 2차 객체패턴들에 기초하여 민감도 조건을 결정하며,
상기 제1 패턴모델들 중 상기 2차 객체패턴들이 상기 민감도 조건을 충족시키는 제1 패턴모델들을 제2 패턴모델들로 결정하고,
상기 제2 패턴모델들을 결합하여 기준패턴모델들을 생성하며,
상기 감시 객체패턴들과 상기 기준패턴모델을 비교하여 상기 이상유무를 판단하고,
상기 패턴모델 관리부는,
상기 감시 객체패턴에 이상상황의 종류가 라벨링된 학습데이터를 생성하고,
상기 학습데이터를 이용하여, 상기 감시 객체패턴을 입력값으로 입력했을 때 이상상황의 종류 및 확률을 출력하는 이상감지패턴탐지모델에 대한 기계학습을 수행하는,
특이패턴 감지 장치.
In the traffic situation specific pattern detection device using an artificial neural network,
an object identification unit identifying an object from a plurality of area images captured using a camera, and generating a plurality of object information items corresponding to each of the area images in which the object is identified among the area images;
an object pattern management unit generating an object pattern for the object based on the object information;
A pattern model management unit that classifies the plurality of object patterns generated during a preset period by preset time intervals and preset days of the week to create a plurality of object pattern groups, and creates or learns a pattern model corresponding to each of the object pattern groups;
An object pattern monitoring unit that searches a database for a plurality of the pattern models corresponding to the current time and the current day of the week, creates a reference pattern model based on the searched pattern models, and compares the reference pattern model with a plurality of monitored object patterns, which are the object patterns corresponding to the current time, to determine whether there is an abnormality; and
a video monitoring unit for displaying the surveillance object patterns and the region images including the surveillance object patterns when an abnormal state does not occur, and displaying the surveillance object patterns and an abnormal pattern notification when an abnormal state occurs;
Each of the object information includes the object type, object location, and identification time of the object,
The object pattern management unit,
determining an object path, object direction, and object speed for the object based on the object location and the identification time of the object information, and generating the object pattern including the object type, the object path, the object direction, and the object speed;
The pattern model management unit,
Among the object patterns included in the object pattern group, object patterns having the same object type and object direction are determined as primary object patterns;
determining primary object patterns overlapping at least a part of the object path among the primary object patterns as secondary object patterns;
Creating pattern areas corresponding to the secondary object patterns based on the object path of the secondary object patterns;
The pattern model management unit,
Among the plurality of pattern models that have already been created, the already created pattern model, in which the secondary object patterns, the object type and the object direction are the same, and the secondary object patterns and the pattern area overlap at least in part, is searched in the database,
When the already created pattern model is searched for, the searched already created pattern model is learned using the secondary object patterns,
When the already created pattern model is not searched for, generating the pattern model using the secondary object patterns;
The object pattern monitoring unit,
Among the searched pattern models, pattern models having the same object type and the same object direction and overlapping at least a part of the pattern area are determined as first pattern models;
determining a sensitivity condition based on the secondary object patterns of each of the first pattern models;
Among the first pattern models, first pattern models for which the secondary object patterns satisfy the sensitivity condition are determined as second pattern models;
Combining the second pattern models to generate reference pattern models;
Comparing the monitoring object patterns with the reference pattern model to determine the presence or absence of the abnormality;
The pattern model management unit,
Creating learning data labeled with the type of abnormal situation in the monitoring object pattern;
Performing machine learning on an anomaly detection pattern detection model that outputs the type and probability of an anomaly situation when the monitoring object pattern is input as an input value using the learning data,
Unique pattern detection device.
KR1020220126478A 2022-01-19 2022-10-04 A device that detects specific patterns in traffic conditions using artificial neural network KR102633205B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220126478A KR102633205B1 (en) 2022-01-19 2022-10-04 A device that detects specific patterns in traffic conditions using artificial neural network

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220007791A KR102452570B1 (en) 2022-01-19 2022-01-19 Apparatus, method, and program for detecting specific patterns in traffic conditions through cctv images
KR1020220126478A KR102633205B1 (en) 2022-01-19 2022-10-04 A device that detects specific patterns in traffic conditions using artificial neural network

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220007791A Division KR102452570B1 (en) 2022-01-19 2022-01-19 Apparatus, method, and program for detecting specific patterns in traffic conditions through cctv images

Publications (2)

Publication Number Publication Date
KR20230112038A true KR20230112038A (en) 2023-07-26
KR102633205B1 KR102633205B1 (en) 2024-02-02

Family

ID=83599250

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220007791A KR102452570B1 (en) 2022-01-19 2022-01-19 Apparatus, method, and program for detecting specific patterns in traffic conditions through cctv images
KR1020220126478A KR102633205B1 (en) 2022-01-19 2022-10-04 A device that detects specific patterns in traffic conditions using artificial neural network

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020220007791A KR102452570B1 (en) 2022-01-19 2022-01-19 Apparatus, method, and program for detecting specific patterns in traffic conditions through cctv images

Country Status (1)

Country Link
KR (2) KR102452570B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101464344B1 (en) * 2014-03-25 2014-11-25 (주)그린아이티코리아 Surveillance camera and image managing system, and method for detecting abnormal state by training normal state of surveillance image
KR101803891B1 (en) * 2017-03-17 2017-12-28 주식회사 트라콤 The apparatus and method for smart reporting of traffic information with traffic factor and object tracking
KR101877294B1 (en) * 2018-01-16 2018-07-11 한국비전기술주식회사 Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101464344B1 (en) * 2014-03-25 2014-11-25 (주)그린아이티코리아 Surveillance camera and image managing system, and method for detecting abnormal state by training normal state of surveillance image
KR101803891B1 (en) * 2017-03-17 2017-12-28 주식회사 트라콤 The apparatus and method for smart reporting of traffic information with traffic factor and object tracking
KR101877294B1 (en) * 2018-01-16 2018-07-11 한국비전기술주식회사 Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events

Also Published As

Publication number Publication date
KR102452570B1 (en) 2022-10-11
KR102633205B1 (en) 2024-02-02

Similar Documents

Publication Publication Date Title
US20230036879A1 (en) Object movement behavior learning
US9594963B2 (en) Determination of object presence and motion state
US20200327313A1 (en) Anomaly detection method, system and computer readable medium
WO2020248386A1 (en) Video analysis method and apparatus, computer device and storage medium
EP3370416B1 (en) Cctv automatic selection monitoring system, and cctv automatic selection monitoring management server and management method
US10552687B2 (en) Visual monitoring of queues using auxillary devices
US8126833B2 (en) Detecting anomalous events using a long-term memory in a video analysis system
US20090131836A1 (en) Suspicious behavior detection system and method
CN104303218A (en) Alert directives and focused alert directives in a behavioral recognition system
US20220237277A1 (en) Visual login
US20140226857A1 (en) Information processing system, information processing method and program
CN104981818A (en) Systems and methods to classify moving airplanes in airports
CN115600953A (en) Monitoring method and device for warehouse positions, computer equipment and storage medium
KR101979375B1 (en) Method of predicting object behavior of surveillance video
US10860865B2 (en) Predictive security camera system
CN112351190A (en) Digital twin monitoring system and method
KR101719799B1 (en) CCTV monitoring system
JP7282186B2 (en) situational awareness surveillance
KR102633205B1 (en) A device that detects specific patterns in traffic conditions using artificial neural network
US10650275B2 (en) Method for detection of temporal pattern anomalies in video streams
JP7203277B2 (en) Method and apparatus for monitoring vehicle license plate recognition rate and computer readable storage medium
US20230282030A1 (en) Erratic behavior detection in a video stream
KR20230112037A (en) A device that creates a cctv spatial model using the ptz camera coordinates where the identified object is located at the center
KR102586132B1 (en) Closed circuit television system for detecting fallen people in industrial sites and operation method thereof
JP2022018808A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant