KR20180096038A - Crime prediction system based on moving behavior pattern - Google Patents

Crime prediction system based on moving behavior pattern Download PDF

Info

Publication number
KR20180096038A
KR20180096038A KR1020170022186A KR20170022186A KR20180096038A KR 20180096038 A KR20180096038 A KR 20180096038A KR 1020170022186 A KR1020170022186 A KR 1020170022186A KR 20170022186 A KR20170022186 A KR 20170022186A KR 20180096038 A KR20180096038 A KR 20180096038A
Authority
KR
South Korea
Prior art keywords
pattern
distance
behavior
person
hand
Prior art date
Application number
KR1020170022186A
Other languages
Korean (ko)
Inventor
윤용익
최지현
Original Assignee
숙명여자대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단 filed Critical 숙명여자대학교산학협력단
Priority to KR1020170022186A priority Critical patent/KR20180096038A/en
Publication of KR20180096038A publication Critical patent/KR20180096038A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q90/00Systems or methods specially adapted for administrative, commercial, financial, managerial or supervisory purposes, not involving significant data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

The present invention relates to a crime prediction apparatus based on a behavior pattern, capable of accurately predicting and preventing a crime, which comprises: a communication unit receiving an image transmitted from a camera; an analysis device analyzing behaviors of all people in the image received through the communication unit to predict a crime; and an output unit notifying a user of an object determined to have an abnormal behavior by the analysis device.

Description

행동 패턴 기반 범죄 예측 시스템{CRIME PREDICTION SYSTEM BASED ON MOVING BEHAVIOR PATTERN}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a crime prediction system,

본 발명은 인간의 행동을 예측하기 위한 모델링 방법에 관한 것으로서, 보다 구체적으로는 범죄 행위와 같은 행동시 수반되는 사람의 몸, 팔, 손의 패턴을 파악하여, 그 행동이 실제 범죄 행위에 연결되는지를 결정할 수 있는 행동 패턴 기반 범죄 예측 시스템에 관한 것이다.The present invention relates to a modeling method for predicting human behavior, and more specifically, it relates to a modeling method for predicting a behavior of a human being by grasping patterns of a person's body, arms, and hands accompanied by an action such as a criminal act, Based crime prediction system.

근래에, 범죄 발생을 예방하기 위해 우범지역이나 한적한 장소에 감시 카메라가 많이 설치되고 있다. 또한, 유동 인구가 많거나 차량 통행이 많아 사고 위험이 빈번한 장소에서도 사고 수습 목적으로 감시 카메라가 설치되고 있다(예컨대, 10-1520446).Recently, a lot of surveillance cameras have been installed in the outskirts or in a quiet place to prevent crime. In addition, a surveillance camera is installed for the purpose of accident detection even in a place where frequent traffic is frequent due to a large number of people with frequent flow (for example, 10-1520446).

이러한 감시 카메라 설치 시에는 설치 비용에 비해 얼마나 많은 정보를 획득할 수 있는지에 대한 여부와 사각 지역에 대한 해결 여부가 관건이 된다. 한편, 종래의 감시 시스템에서는 주로 고정형 카메라들이 복수 개 설치되는 것이 일반적이다. 여기서 고정형 카메라는 설치된 장소의 고정이 아닌 촬영 방향의 고정을 의미한다. 이러한 복수의 고정형 카메라들은 영역을 나누어 주변을 감시하기 때문에 사각 지역에 대한 촬영을 위해서는 하나의 장소에 많은 수의 검지 카메라가 설치되어야 하므로, 설치 비용 대비 감시 효율이 낮고 많은 수의 카메라에서 취득한 영상에 대한 분석을 위해 모니터링 용원의 충원이 수반되어야 한다는 문제가 있다.When installing such a surveillance camera, it is important to know how much information can be obtained in comparison with the installation cost and whether to solve the square area. On the other hand, in the conventional surveillance system, a plurality of fixed type cameras are generally installed. Here, the fixed camera means fixing of the shooting direction, not the fixed place. Since a plurality of fixed cameras monitor the periphery by dividing the area, a large number of detection cameras must be installed in one place in order to photograph a square area. Therefore, the installation efficiency and monitoring efficiency are low, There is a problem that monitoring personnel are required to be involved in the analysis.

이러한 문제를 개선하기 위해 추적 카메라라고 하는 이동형(회전형) 카메라와의 조합을 통해 설치 비용을 저감시키고 인건비 문제를 해결하려는 노력들이 제안되고 있다. 그러나 고정 카메라 및 추적 카메라의 조합을 통해 획득되는 영상들은 단순히 응급상황이나 범죄가 발생된 후에 응급상황 또는 범죄 상황을 조사하거나 확인하기 위한 사후 용도로만 사용될 뿐, 응급상황 또는 범죄가 발생하는 시점에서는 아무런 도움이 되지 못한다는 문제가 있다.In order to solve these problems, efforts have been made to reduce the installation cost and solve the labor cost problem by combining with a portable type (rotation type) camera called a tracking camera. However, the images obtained through the combination of the fixed camera and the tracking camera are used only for the post-use purpose to investigate or confirm the emergency situation or the crime situation after the occurrence of the emergency situation or the crime. In the case of the emergency situation or the crime, There is a problem that it does not help.

이와 관련하여, 카메라로부터 수집되는 영상을 통해 인간의 다음 행위를 인식하고자 하는 시도가 있다. 인간 행위 인식은 최근 컴퓨터 비전 및 인공 지능 커뮤니티에서 많은 관심을 받고 있지만, 모습의 변화, 다중-목적체 상호 작용 등으로 인하여 여전히 도전 과제가 남아 있다. 이전의 인간 행위 인식에 대한 연구는 입력 특징으로서 신체 성분 모션을 이용하였지만, 최근의 접근법은, 화상 처리 기술의 한계로 인하여, (골격으로서) 신체 표현 대신에, (국부적 공간-시간적 특징으로서) 낮은-레벨의 특징의 수집에 집중되고 있다. 다른 접근법은, 하나의 행위로부터 복합 행위로의 발전을 인간 대상물 사이의 상호 관계하에서 고려할 필요가 있다는 것이다. 어느 시점에서 캡처된 영상과 다른 시점에서 캡처된 영상 사이에서, 예컨대 A라고 하는 사람이 B라고 하는 사람에게 빠르게 접근하고 있다는 것을 파악할 수 있다면, A 행동을 예측하여 적절한 조치를 취할 수 있겠지만, 상기 제안되고 있는 기술들은 이러한 점을 고려하지 못하고 있다.In this regard, there is an attempt to recognize the next human action through the images collected from the camera. Human behavior awareness has received much attention in recent computer vision and artificial intelligence communities, but challenges still remain due to changes in appearance and multi-object interaction. Although previous studies on human behavior recognition used bodily component motion as an input feature, recent approaches have shown that, due to the limitations of image processing techniques, lower (as a local spatial-temporal feature) - is focused on collecting the features of the level. Another approach is that the development from one action to a complex action needs to be taken into account in the interrelationship between human objects. If it is possible to grasp, for example, between a captured image at a certain point of time and an image captured at a different point of time, a person A, for example, is quickly approaching a person named B, The technologies that are being used do not take this into account.

좀 더 구체적으로, 요즘의 범죄문제는 검거위주에서 예방위주로 우선순위를 두고, CCTV는 이러한 범죄 예방에 있어 부족한 인력과 장비를 보완해 주는 효과적인 수단이다. 이에 따라 CCTV를 이용한 얼굴인식, 범죄 행동 예측 등을 이용한 범죄예방에 대한 연구가 활발히 진행되고 있다. 얼굴인식은 원거리에서 인식된 CCTV 고해상도 이미지를 이용하여 사람의 얼굴을 추출하여 데이터베이스에 저장된 수배자 및 범죄자(비교대상자)의 얼굴과 비교, 판별하고, VMS를 이용하여 위험인물이 있을 경우 실시간으로 감시할 수 있도록 한다. 그러나 모든 범죄가 비교대상목록 중에서만 일어난다고 볼 수 없으며, 화면을 실시간으로 감시해야 하는 등의 불편이 따른다. 그 때문에 얼굴인식뿐만이 아닌 행동 예측에 대한 연구가 활발히 이루어지고 있다. 주로 두 대상의 성별, 거리, 움직임 등의 정보를 분석하여, 정상 행동과 이상 행동을 구분 짓게 된다. 그러나 CCTV의 기술적인 한계로 인해서 대상의 전체적인 움직임만 알아낼 수 있을 뿐, 손가락의 움직임과 같은 세밀한 정보는 분석할 수 없다. 그 때문에 대상들의 관계나 행동을 정확하게 분석할 수 없고, 정확도는 떨어지게 된다. 범죄 행동 예측에 대상의 손가락의 움직임이 포함된 정보를 받아올 수 있다면 범죄 행위자의 의도를 파악하고 공격성을 예측하여 전달해 줌으로서 화면을 실시간으로 감별하는 관찰자는 판단해야 하는 대상이 줄어들어 범죄 예측에 대해 정확도를 높일 수 있지만, 이러한 행동 패턴에 기초하여 범죄 행동을 예측하는 기술은 제안되지 않고 있다.More specifically, the current crime issue has priority in arrest and prevention, and CCTV is an effective means to supplement the scarcity of manpower and equipment in preventing such crime. Therefore, researches on crime prevention using face recognition and crime behavior prediction using CCTV are being actively carried out. Face recognition is a method of extracting human faces using CCTV high-resolution images recognized at a distance, comparing them with faces of criminals (comparison subjects) stored in the database, and monitoring them in real time when there is a dangerous person using VMS . However, it can not be said that all crimes occur only in the comparison list, and there is inconvenience that the screen should be monitored in real time. Therefore, research on behavior prediction, not just face recognition, has been actively conducted. It mainly analyzes information such as sex, distance, and motion of two subjects, and distinguishes between normal behavior and abnormal behavior. However, due to the technical limitations of CCTV, only the overall motion of the object can be detected, but detailed information such as finger movements can not be analyzed. As a result, it is impossible to accurately analyze the relationship or behavior of the objects, and the accuracy is lowered. If the criminal behavior prediction is able to receive the information including the movement of the finger of the target, the observer who identifies the crime actor's intention and predicts and transmits the aggressiveness, the observer who distinguishes the screen in real time decreases the object to be judged, Although the accuracy can be increased, no technique for predicting criminal behavior based on such a behavior pattern has been proposed.

범죄에 대한 연구는 범죄자의 특성을 중심으로 많은 연구가 이루어져 왔다. 범죄자의 개인적 특성이나 주변 환경 등을 통해 범죄가 일어나는 원인을 파악하고자 했다. 거기에 더하여 범죄를 저지르기 위해서 특정한 시간과 공간이라는 조건이 필요하다고 보고, 범죄 대책 중에서 환경설계를 통한 범죄예방이 주목받고 있다. 이러한 연구에 더하여 CCTV를 이용한 행동 예측을 통해 범죄를 미리 예측하고 예방하기 위한 연구가 진행되고 있지만, 범죄 행동을 예측할 수 있는 기술의 제안은 이루어지지 않고 있다.Many researches on crime have been conducted focusing on the characteristics of criminals. And to identify the causes of crime through personal characteristics of criminals and surrounding environment. In addition to this, it is necessary to have a specific time and space condition in order to commit crime, and prevention of crime through environmental design is attracting attention from crime measures. In addition to these studies, studies are being conducted to predict and prevent crime through behavior prediction using CCTV, but no proposal has been made for predicting criminal behavior.

거리에 따라 범죄의 위험성이 달라지는데, 상대방과의 거리를 네 가지로 분류한 에드워드 홀의 근접학을 기준으로 범죄시 위험한 거리를 구분한다. 에드워드 홀은 사람간의 거리를 개인적인 거리, 친밀한 거리, 사회적 거리, 공적인 거리 네가지로 분류하였다(개인적 거리와 친밀한 거리에서의 위험은 크게 다르지 않기 때문에 본 발명에서는 친밀한 거리에 개인적인 거리를 포함한다). 공적인 거리(예컨대, 3.7 m 초과)일 경우 범죄위험이 극히 낮지만, 사회적 거리(예컨대, 1.2 m 내지 3.7 m)나 친밀한 거리(예컨대, 1.2 m 미만)의 경우 범죄의 위험이 따른다고 볼 수 있다. 그러나, 카메라 등의 CCTV를 이용한 기존의 기술에 따르면, 이러한 거리에 따른 범죄 가능성, 범죄 행동시 수반되는 신체의 특정 부위의 행동 패턴에 따른 범죄 가능성 등을 고려하여, 범죄 가능성을 예측하는 시도는 하지 못하고 있다.According to the distance, the risk of crime is different. It distinguishes the dangerous distance by crime based on the proximity study of Edward Hall which classifies the distance to the other side. Edward Hall categorized human distance into four categories: personal distance, intimate distance, social distance, and public distance (personal distances include intimate distances because they are not so different from personal distances and intimate distances). Crime risk is extremely low for public distance (eg, over 3.7 m), but social distance (eg, 1.2 m to 3.7 m) or intimate distance (eg, less than 1.2 m) . However, according to the existing technology using CCTV such as cameras, attempts to predict the possibility of crime in consideration of the possibility of crime due to such distance, possibility of crime according to behavior pattern of a specific part of the body involved in crime behavior, I can not.

본 발명은 상기한 종래 기술에서 나타나는 문제점을 해결하기 위한 것으로서, CCTV가 사람의 손의 세밀한 움직임을 파악할 수 있다고 가정하여, 현재까지 연구된 범죄 행동 예측에 더하여 몸, 팔, 손의 움직임을 이용한 범죄 행동 분석을 통해, 보다 정확한 범죄 예측과 범죄 예방을 수행하는 것을 목적으로 한다.The present invention has been made to solve the problems of the prior art described above. It is assumed that CCTV can grasp the detailed movement of the human hand, and in addition to predicting crime behavior studied up to now, Through the behavior analysis, it is aimed to perform more accurate crime prediction and crime prevention.

본 발명은 또한 대상 간의 거리, 팔의 움직임, 손의 움직임을 순차적으로 파악하여 범죄행동을 예측하는 것을 목적으로 하며, 상대방을 가리키는 행동을 할 때 범죄가 일어나기 전의 타겟팅으로 보고 주의하도록 하고, 팔을 휘두르는 행동이 나타날 때는 폭행이 일어날 수 있다고 보고 당장 대처할 수 있도록 하는 범죄 예방 시스템을 제공하는 것이다.The present invention also aims at predicting the crime behavior by sequentially grasping the distance between the objects, the movement of the arms, and the movement of the hands. In the action pointing to the opponent, pay attention to the target before the crime occurs, And to provide a crime prevention system that can respond immediately when an act of wielding occurs when an assault occurs.

상기 목적을 달성하기 위하여, 본 발명에 따라서, 행동 패턴 기반 범죄 예측 장치가 제공된다. 상기 장치는 고정형 카메라 및 회전형 카메라 중 적어도 하나의 카메라로부터 전송되어 오는 영상을 수신하기 위한 통신부, 상기 통신부를 통해 수신된 영상 내 모든 인물들의 행동을 분석하여, 범죄를 예측하기 위한 분석 장치와, 상기 분석 장치에 의해 이상 행동을 한 것이라고 판단된 객체를 통보하기 위한 출력부를 포함하고, 상기 분석 장치는 상기 영상 내 모든 인물들 사이의 거리를 인지하기 위한 거리 인지 모듈로서, 상기 거리가 사회적 거리 범위 또는 친밀 거리 범위에 해당하는 경우, 그 거리 범위 내의 인물을 특정하도록 구성된 상기 거리 인지 모듈과, 상기 특정된 인물의 몸 패턴과 팔 패턴을 분석하기 위한 옴니 뷰 패턴 인지 모듈로서, 상기 인물의 골격의 적어도 일부분의 골격의 좌표를 획득하고, 이를 3차원 좌표로서 저장하여, 상기 인물의 몸의 패턴과 팔의 패턴을 분석하며, 분석 결과, 이러한 분석 결과, 상기 인물의 몸과 팔의 패턴이, 정상적인 패턴이라고 미리 정해진 기준 패턴에서 벗어나는 것으로 분석되면, 해당 결과를 결정 모듈에 전송하도록 구성되는, 옴니 뷰 패턴 인지 모듈과, 상기 3차원 좌표에 기초하여, 상기 인물의 손을 분석하여, 이상 행동시 일어나는 좌표 변화를 결정 모듈에 전송하는 핸드 패턴 인지 모듈로서, convexhull 알고리즘을 이용하여, 인물의 손가락 갯수를 찾아내어 위험을 예측하도록 구성된 핸드 패턴 인지 모듈과, 각 모듈의 분석 결과를 결합하여 이상 행동을 예측하기 위한 결정 모듈로서, 인물 간의 거리 인지부터 시작하여 몸 패턴, 팔 패턴, 손 패턴까지 순차적으로 파악하고, 각 단계에서 이상 행동이 인지되면, 다음 단계로 넘어가 각 단계에서 이상 행동이 미리 정해진 기준 패턴에서 벗어난다고 파악되면, 그 결과를 출력부를 통해 통보하도록 구성된 결정 모듈을 포함한다.In order to achieve the above object, according to the present invention, a behavior pattern-based crime predicting apparatus is provided. The apparatus includes a communication unit for receiving an image transmitted from at least one of a fixed camera and a rotary camera, an analyzing unit for analyzing the behavior of all the persons in the image received through the communication unit, And an output unit for notifying an object determined to have an abnormal behavior by the analyzing apparatus, wherein the analyzing apparatus is a distance recognizing module for recognizing distances between all the characters in the image, Or the distance range, a distance recognition module configured to specify a person within the distance range, and an omni view pattern recognition module for analyzing a body pattern and an arm pattern of the specified person, Acquires the coordinates of at least a part of the skeleton, stores the coordinates as three-dimensional coordinates, Analyzing the pattern of the body of water and the pattern of the arm and analyzing the analysis result that the body and arm patterns of the person are out of the predetermined pattern that is the normal pattern, A hand pattern recognition module for analyzing a hand of a person based on the three-dimensional coordinates and transmitting a coordinate change occurring in an abnormal behavior to a determination module, A hand pattern recognition module configured to detect the number of fingers of a person and predict a risk, and a decision module for predicting an abnormal behavior by combining analytical results of each module. The decision module includes a body pattern, an arm pattern, Patterns are identified sequentially, and if abnormal behavior is recognized at each step, proceed to the next step, And a determination module configured to notify, via the output unit, the result of the determination, if it is determined that the behavior deviates from a predetermined reference pattern.

한 가지 실시예에 있어서, 상기 골격의 좌표는 머리, 어깨, 척추, 중앙 힙, 오른쪽 어깨, 왼쪽 어깨, 오른쪽 팔꿈치, 왼쪽 팔꿈치, 오른쪽 손목, 왼쪽 손목, 오른손, 왼손, 오른쪽 힙, 왼쪽 힙, 오른쪽 무릎, 왼쪽 무릎, 오른쪽 발목, 왼쪽 발목, 오른발 및 왼발의 좌표 20개로 구성될 수 있다.In one embodiment, the skeletal coordinates are selected from the group consisting of head, shoulder, vertebra, central hip, right shoulder, left shoulder, right elbow, left elbow, right wrist, left wrist, right hand, Knee, left knee, right ankle, left ankle, right foot and left foot.

한 가지 실시예에 있어서, 상기 옴니 뷰 패턴 인지 모듈은 상기 인물의 팔이 전체적으로 움직이는 경우, 몸의 패턴이 이상 행동인 것으로 판단하고, 팔이 제3자를 행해 앞으로 쭉 뻗거나 치켜들어지는 것으로 판단되면, 팔의 패턴이 이상 행동인 것으로 판단할 수 있다.In one embodiment, the omni-view pattern recognition module determines that the pattern of the body is abnormal when the arm of the person is entirely moving, and if the arm is judged to be a third person, It can be judged that the pattern of the arm is an abnormal behavior.

한 가지 실시예에 있어서, 상기 핸드 패턴 인지 모듈은 상기 인물의 분석되는 손가락 갯수에 기초하여 위험 여부를 판단하도록 구성될 수 있다.In one embodiment, the hand pattern recognition module may be configured to determine a risk based on the number of fingers analyzed of the person.

한 가지 실시예에 있어서, 상기 결정 모듈은 거리 인지 모듈에 의해 인지된 거리에 따른 몸 패턴, 팔 패턴 및 손 패턴의 이상 행동이 일치하는 경우 이상 행동으로 판단할 수 있다.In one embodiment, the determination module may determine an abnormal behavior if the abnormal behavior of the body pattern, the arm pattern, and the hand pattern according to the distance recognized by the distance recognition module coincide with each other.

한 가지 실시예에 있어서, 상기 결정 모듈은 상기 거리 인지 모듈에 의해 인지된 인물 사이의 거리가 사회적 거리 또는 친밀 거리 범위 내에 있는 경우, 상기 옴니 뷰 패턴 인지 모듈에서 상기 인물의 몸 패턴이 이상 행동을 보이지 않는다고 판단하더라도, 상기 인물 사이의 거리가 사회적 거리 범위를 벗어날때가지 상기 인물의 몸 패턴을 지속적으로 분석하도록 구성될 수 있다.In one embodiment, the determination module determines whether the body pattern of the person in the omni view pattern recognition module is abnormal if the distance between the persons recognized by the distance sensing module is within a social distance or an intimate distance range It may be configured to continuously analyze the body pattern of the person when the distance between the persons is out of the social distance range, even if it is determined that the person is not invisible.

본 발명에 따르면, 대상 간의 거리, 팔의 움직임, 손의 움직임을 순차적으로 파악하여 범죄행동을 예측할 수 있다.According to the present invention, it is possible to predict the criminal behavior by sequentially grasping the distance between the objects, the movement of the arms, and the movements of the hands.

도 1은 본 발명의 한 가지 실시예에 따른 범죄 예방 시스템의 전체적인 구성을 모식적으로 보여주는 도면이다.
도 2는 본 발명에 따른 옴니 뷰(omni-view) 기반 범죄 행위 예측 흐름도이다.
도 3은 범죄 행위 예측시 고려할 수 있는 신체 부위를 모식적으로 보여주는 도면이다.
도 4는 본 발명의 한 가지 실시예에 따른 범죄 예방 시스템의 분석 장치의 구성을 모듈 형식으로 보여주는 도면이다.
도 5는 본 발명의 한 가지 실시예에 따른 범죄 예방 시스템에 적용되는 옴니 뷰 패턴 인식 알고리즘의 일예를 보여주는 도면이다.
도 6은 본 발명의 한 가지 실시예에 따른 범죄 예방 시스템에 적용되는 손의 패턴 인식 알고리즘의 일예를 보여주는 도면이다.
도 7은 결정 모듈의 알고리즘의 일예를 보여주는 도면이다.
도 8은 본 발명의 한 가지 실시예에 따른 범죄 예방 시스템을 적용하여 예측한 행동 패턴 분석 결과의 일예를 보여주는 도면이다.
FIG. 1 is a diagram schematically showing the overall configuration of a crime prevention system according to an embodiment of the present invention.
2 is a flowchart of an omni-view based crime prediction process according to the present invention.
FIG. 3 is a diagram schematically showing a body part that can be considered in predicting a criminal act.
FIG. 4 is a diagram showing a configuration of an analysis apparatus of a crime prevention system according to an embodiment of the present invention in a module format.
5 is a diagram showing an example of an omni view pattern recognition algorithm applied to a crime prevention system according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating an example of a hand pattern recognition algorithm applied to a crime prevention system according to an embodiment of the present invention.
7 is a diagram showing an example of the algorithm of the decision module.
8 is a diagram showing an example of behavior pattern analysis results predicted by applying the crime prevention system according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시예를 설명한다. 이하의 설명에 있어서, 행동 패턴 인식과 관련하여 이미 알려진 알고리즘 자체에 대한 설명은 생략한다. 이러한 설명을 생략하더라도, 당업자라면, 이하의 설명을 통해 본 발명이 제시하여 보호받고자 하는 기술적 특징을 쉽게 이해할 수 있을 것이다.Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the description of the algorithm itself, which is already known in association with the behavior pattern recognition, will be omitted. Even if these explanations are omitted, those skilled in the art will readily understand the technical features of the present invention to be protected by the following description.

도 1에는 본 발명의 한 가지 실시예에 따른 범죄 예방 시스템의 전체적인 구성이 개략적으로 도시되어 있다. 도시된 바와 같이, 상기 시스템은 예컨대, 복수 개의 고정형 카메라(10)와, 복수 개의 회전형 카메라(20)와, 범죄 행위 예측 장치(100)를 포함한다.FIG. 1 schematically shows a general configuration of a crime prevention system according to an embodiment of the present invention. As shown, the system includes, for example, a plurality of fixed cameras 10, a plurality of rotary cameras 20, and a criminal behavior prediction device 100. [

고정형 카메라(10)는 미리 설정된 영역의 객체(사람 등) 촬영하기 위해 마련된 카메라이고, 회전형 카메라(20)는 고정형 카메라와 달리, 미리 설정된 범위 내에서 회전하면서 객체를 촬영하기 위해 마련된 카메라이다. 이들 카메라로부터 촬영된 사람의 영상이 유무선 통신망을 통해 본 발명의 장치(100)에 전송되어, 통신부(110)를 통해 수신된다. 통신부(110)는 사람의 영상을 분석장치(120)로 전송하며, 분석 장치(120)는 소정의 행동 패턴 인식 모델링 알고리즘(후술)에 기초하여, 촬영된 영상 속의 인간의 행동을 모델링하고, 그 결과를 출력부(130), 예컨대 스피커나 디스플레이 장치를 통해 출력한다. 이러한 각 장치의 구성이나 카메라 자체는 이미 널리 알려진 구성이다. 본 발명에서 제시하고자 하는 것은, 분석 장치(120)에 전송된 사람의 영상으로부터, 사람과 제3간의 거리, 사람의 소정 행위, 예컨대, 몸, 팔, 손의 변화를 추적하고, 그 변화가 제3자로의 접근과 같은 특정 이벤트에 해당하는 경우, 이를 추적 관찰하여, 범죄와 같은 상황을 미연에 방지하고자 하는 것이다. 이하에서는, 이러한 범죄 예측의 구체적인 예를 설명한다. 이하에서 설명하는 구성은 본 발명의 목적을 달성하기 위하여 제시되는 한 가지 예로서, 본 발명이 이 구성 자체에 제한되는 것은 아니라는 점을 이해하여야 한다.The fixed camera 10 is a camera provided for photographing an object (such as a person) in a predetermined area. The rotary camera 20 is a camera provided for photographing an object while rotating within a predetermined range, unlike a fixed camera. An image of a person photographed from these cameras is transmitted to the apparatus 100 of the present invention via a wired / wireless communication network and is received through the communication unit 110. The communication unit 110 transmits a human image to the analysis apparatus 120. The analysis apparatus 120 models the human behavior in the photographed image based on a predetermined behavior pattern recognition modeling algorithm And outputs the result through the output unit 130, for example, a speaker or a display device. The configuration of each of these devices or the camera itself is a well-known configuration. In the present invention, it is desirable to track the distance between a person and a third person, a predetermined behavior of a person such as a body, an arm, and a hand from a person's image transmitted to the analysis apparatus 120, If a particular event, such as a three-way approach, is followed, it is intended to prevent a situation such as a crime by tracking it. Hereinafter, a specific example of such a crime prediction will be described. It should be understood that the configuration described below is only one example presented for achieving the object of the present invention, and that the present invention is not limited to this configuration itself.

1. 옴니 뷰 기반 범죄 행위 예측 흐름1. Omni-view-based crime prediction flow

본 발명에서는 대상간의 거리, 몸의 움직임, 팔의 움직임, 손의 움직임을 순차적으로 파악하여, 범죄 행동을 예측한다. 상대방을 가리키는 행동을 할 때 범죄가 일어나기 전의 타겟팅으로 보고 주의해야 하며, 팔을 휘두르는 행동일 나타날 때에는 폭행이 일어날 수 있다고 보고 당장 대처하는 조치를 취할 수 있도록 한다. 이하에서는 먼저 본 발명이 채용하는 행동 패턴의 전체적 개념을 구체적으로 설명한다.In the present invention, the distances between objects, body movements, arm movements, and hand movements are sequentially grasped and the criminal behavior is predicted. If you are doing something that points to your opponent, you should be careful with targeting before the crime occurs, and be prepared to take immediate action if the act of swinging your arms shows that an assault can occur. Hereinafter, the overall concept of a behavior pattern employed by the present invention will be described in detail.

본 발명에서는 기존의 범죄 예측을 더 확장한 범죄 예측 모델을 제시한다. 도 2에는 본 발명에 따른 범죄행동 예측을 위한 전체적인 분석 모델을 보여준다. 본 발명에서는, 범죄행동을 예측하기 위해서 순차적으로 거리 인지, 바디 패턴, 팔 패턴과 손 패턴 인지를 통해 소정의 결과를 도출한다.The present invention proposes a crime prediction model that further expands the existing crime prediction. FIG. 2 shows an overall analysis model for predicting criminal behavior according to the present invention. In the present invention, in order to predict a criminal behavior, a predetermined result is sequentially derived through distance, body pattern, arm pattern, and hand pattern.

본 발명에서는 몸의 전체적인 기울기와 다리의 위치 등을 파악하여, 위험이 판단되면 팔의 움직임을 파악한다. 팔의 움직임은 앞선 대상을 향해 뻗었을 때와 치켜들었을 때 위험행동으로 판단한다. 마지막으로 손의 움직임을 파악하여, 위의 모든 위험행동에 일치하고, 손의 움직임이 앞의 객체를 가리켰을 때 타겟팅, 손을 펴거나 주먹을 쥐었을 때 공격을 가한다고 판단한다.The present invention grasps the overall inclination of the body and the position of the legs, and grasps the movement of the arms when the risk is determined. Movement of the arm is judged to be a dangerous behavior when stretched toward the preceding object and when raised. Finally, we grasp the movements of the hand, agree with all of the above dangerous behaviors, judge that when the movement of the hand points to the previous object, it attacks when targeting, stretching or holding the fist.

한편, 거리는 이미 기존에 많은 연구가 이루어졌으므로, 본 발명에서는 이러한 기존의 방법에 따라 거리를 인지한 후(예컨대, CCTV를 이용한 거리 파악), 바디 패턴, 팔 패턴과 손 패턴을 기초로, 범죄를 예측하는 기술적 구성을 제공한다.On the other hand, since the distance has already been much studied, in the present invention, after recognizing distances according to the conventional method (for example, distance using CCTV), body patterns, arm patterns and hand patterns, Provide a predictable technical configuration.

2. 바디(body) 패턴 인지2. Body pattern recognition

바디 패턴을 파악할 때는 몸의 기울기와 팔, 다리의 움직임을 통해 행동을 판단한다. 정상적으로 걷고 있을 때는 하체의 움직임이 일정하고, 몸은 전체적으로 쭉 뻗어있거나, 상체가 앞으로 약간만 기울어져 있다. 그렇지 않고 대상의 몸이 전체적으로 상대방을 향해 기울어져 있고, 하체는 앞으로 나간 다리에 중심이 집중되어 있을 경우 이상행동으로 판단하고. 각각의 이상행동에 맞추어 몸의 움직임을 보게 되면, 타겟팅의 경우에는 팔과 손의 움직임이 변할 뿐, 몸에는 큰 변화가 없지만, 폭행을 가할 경우, 앞서 말한 바와 같이 하체의 중심이 한쪽 다리에 집중되어 있고, 몸은 전체적으로 상대방을 향해 기울어지게 된다. 또한 팔 움직임은 평범하게 걸어 다닐 경우, 보통 허벅지 부근에서 앞뒤로 흔들리고, 무언가 쥐고 있거나, 휴대폰을 만질 때도 손의 위치는 올라오지만, 팔꿈치부터 어깨까지의 위치는 거의 변하지 않는다. 반면 이상행동을 보일 경우, 팔 전체의 움직임이 확실히 보이게 된다. 타겟팅의 경우는 팔을 앞으로 쭉 뻗게 되고, 공격의 경우, 손의 위치는 머리 위까지 올라가게 되고, 팔꿈치가 어깨 부근까지 올라가게 된다. When you grasp the body pattern, you judge the behavior by the inclination of the body and movement of the arms and legs. When walking normally, the lower body moves constantly, and the body is stretched as a whole, or the upper body is slightly inclined forward. Otherwise, the body of the subject is tilted toward the partner as a whole, and the lower body is judged to be abnormal if the center of the lower leg is concentrated on the leg. If you see the movement of the body in accordance with each abnormal behavior, in the case of targeting, the movement of the arm and the hand changes, and there is not a big change in the body, but when the assault is applied, the center of the lower body concentrates on one leg And the body tilts toward the other side as a whole. Also, arm movements are usually shaken back and forth around thighs, holding something, holding hands when touching a cell phone, but the position of the elbow to shoulder is almost unchanged. On the other hand, when an abnormal behavior is shown, the movement of the entire arm is clearly visible. In the case of targeting, the arm is stretched forward, and in the case of an attack, the position of the hand is raised above the head, and the elbow is raised to the vicinity of the shoulder.

타겟팅은 팔 패턴만으로는 판단이 힘들기 때문에 손 패턴 파악이 가장 중요하다. 공격의 경우, 팔 전체를 휘두르게 되기 때문에 객체를 지속적으로 촬영할 경우, 팔의 전체 움직임이 짧은 시간이 크게 나타난다.Hand pattern recognition is the most important because targeting is difficult to judge by arm pattern alone. In the case of an attack, since the entire arm is wielded, when the object is continuously photographed, the entire movement of the arm becomes short in a short time.

3.손 패턴 인지3. Hand pattern recognition

팔 패턴과 함께 손 패턴은 이상행동을 판단하는데 중요한 역할을 한다. 공격의 경우, 손은 주먹을 쥐거나 쭉 펴고 있으며, 타겟팅의 경우 손가락 하나만 편 상태로 손가락 끝이 상대방을 향하고 있다. The hand pattern along with the arm pattern plays an important role in determining abnormal behavior. In the case of an attack, the hand is holding or stretching a fist, and in the case of targeting, the tip of the fingertip faces the other side with only one finger.

4. 옴니뷰 기반 예측 모듈4. Omni-view-based prediction module

위 과정을 통해 객체의 이상행동을 판단할 수 있다. 거리인지부터 손의 패턴인지까지 본 발명에서 정의한 패턴과 모두 일치된다면 이상행동으로 판단한다. 거리가 사회적 거리이면서 몸과 팔의 방향이 상대방을 향해 있고, 손가락이 상대방을 가리키고 있다면 타겟팅, 거리가 친밀한 거리이면서 몸이 상대방을 향해 방향으로 기울어져 있고, 팔의 위치가 어깨 이상 올라와 있으며, 손이 편 상태이거나 주먹을 쥐었다면 공격으로 판단할 수 있다. 도 2의 흐름도를 이용하여, 객체의 행동이 이상행동으로 관찰되면 다음 단계를 관찰하고, 그렇지 않으면 거리 인지 모듈부터 다시 객체를 관찰하여, 범죄를 예방한다.Through the above process, it is possible to judge the abnormal behavior of the object. It is judged to be abnormal if all of the patterns defined in the present invention are matched with the recognition of the distance from the recognition of the hand. If the distance is a social distance and the direction of the body and arm is pointing toward the other side and the finger is pointing to the other side, the target is a close distance, the body is inclined toward the other side, the arm position is above the shoulder, If you are on this side or holding your fist, you can judge it as an attack. Using the flowchart of FIG. 2, if the behavior of the object is observed as an abnormal behavior, the next step is observed. Otherwise, the object is observed again from the distance recognition module to prevent the crime.

5. Omni-View 기반 범죄 행위 예측 방법5. Omni-View based criminal behavior prediction method

이하에서는, 상기 제시한 패턴 인지를 구체적으로 구현하기 위한 방법의 일예를 설명한다.Hereinafter, an example of a method for specifically embodying the above-described pattern will be described.

도 4에는 본 발명의 한 가지 실시예에 따른 분석 장치(120)의 구성의 블록도이다. 도시한 바와 같이, 분석 장치(120)는 몸의 패턴과 팔의 패턴을 인지하기 위한 옴니뷰 패턴 인지 모듈(122), 손의 패턴을 인지하기 위한 해드 패턴 인지 모듈(124), 이들 모듈에 의해 인지된 패턴에 기초하여 사람의 행동 패턴을 결정하기 위한 결정 모듈(126)을 포함한다. 또한 도시하지는 않았지만 CCTV를 통해 촬영된 영상 내 사람들 사이의 거리를 인지하기 위한 거리 인지 모듈을 포함할 수도 있다.4 is a block diagram of a configuration of an analysis apparatus 120 according to an embodiment of the present invention. As shown, the analyzer 120 includes an omni view pattern recognition module 122 for recognizing body patterns and arm patterns, a head pattern recognition module 124 for recognizing hand patterns, And a decision module 126 for determining a behavior pattern of the person based on the perceived pattern. It may also include a distance-aware module to recognize the distance between people in the video shot via CCTV, though this is not shown.

5-1. 옴니뷰 패턴 인지 구현5-1. Implementation of omni view pattern

적외선 센서를 이용하면 밤에도 선명한 촬영을 할 수 있을 뿐만 아니라 다양한 방향에서 객체를 관찰할 수 있다. CCTV를 이용한 거리 파악은 기존에 이미 사용되어 왔기 때문에 가능하다고 가정하고 객체에 대한 옴니 뷰 패턴을 인지한다. 대상의 골격을 인식하게 되면 도 3과 같이 관절 부위와 머리, 손, 발을 포함하여 총 20개 포인트의 좌표를 가져오게 된다. 좌표는 3차원 좌표체계로 저장장치(도시 생략)에 저장되며, 가져온 좌표를 파악하여 몸의 패턴을 인지할 수 있다. 이러한 스켈레톤 포인트 인덱스를 표 1에 나타낸다.With infrared sensors, you can not only capture clear images at night, but also observe objects in various directions. CCTV-based distances are assumed to be possible because they have already been used, and they recognize the omni-view pattern of objects. When the skeleton of the object is recognized, a total of 20 points including the joint, head, hand, and foot are obtained as shown in FIG. The coordinates are stored in a storage device (not shown) in a three-dimensional coordinate system, and the body coordinates can be grasped to recognize the body pattern. Table 1 shows these skeleton point indices.

Figure pat00001
Figure pat00001

몸의 패턴 인지와 관련하여, 몸의 패턴은 몸의 기울기와 다리의 움직임을 통해 행동을 판단한다. 정상적으로 걷고 있을 때는 하체의 움직임이 일정하고, 몸은 전체적으로 쭉 뻗어있거나, 상체가 앞으로 약간만 기울어져 있다. 그렇지 않고 객체B의 몸이 전체적으로 A를 향해 기울어져 있고, 하체는 앞으로 나간 다리에 중심이 집중되어 있을 경우 이상행동으로 판단하고. 각각의 이상행동에 따라, 타겟팅의 경우에는 팔과 손의 움직임이 변할 뿐 몸에는 큰 변화가 없지만, 폭행을 가할 경우에는 앞서 말한 바와 같이 하체의 중심이 한쪽 다리에 집중되어 있고, 몸은 전체적으로 객체A를 향해 기울어지게 된다.In relation to the recognition of the pattern of the body, the pattern of the body judges the behavior through the inclination of the body and the movement of the legs. When walking normally, the lower body moves constantly, and the body is stretched as a whole, or the upper body is slightly inclined forward. Otherwise, the body of the object B is inclined toward A as a whole, and the lower body is judged to be abnormal if the center of the lower body is centered on the leg. According to each abnormal behavior, in the case of targeting, the movement of the arm and the hand changes and there is no big change in the body, but when the assault is applied, the center of the lower body is concentrated on one leg as mentioned above, A is tilted toward.

팔의 패턴 인지와 관련하여, 평범하게 걸어다닐 경우, 팔은 일상적으로 허벅지 부근에서 앞뒤로 흔들리고, 무언가 쥐고 있거나, 휴대폰을 만질 때도 손의 위치는 올라오지만, 팔꿈치부터 어깨까지의 위치는 거의 변하지 않는다. 반면 이상행동을 보일 경우, 팔 전체의 움직임이 확실히 보이게 된다. 타겟팅의 경우는 팔을 앞으로 쭉 뻗게 되고, 폭행의 경우, 손의 위치는 머리 위까지 올라가게 되고, 팔꿈치가 어깨 부근까지 올라가게 된다.Regarding the recognition of the pattern of the arm, when walking normally, the arm is shaken back and forth around the thigh on a daily basis, and the position of the hand is raised when touching the cell phone, but the position from the elbow to the shoulder hardly changes. On the other hand, when an abnormal behavior is shown, the movement of the entire arm is clearly visible. In targeting, the arm is stretched forward, in the case of assault, the position of the hand is raised above the head, and the elbow is raised to the vicinity of the shoulder.

부언하면, 3차원 좌표체계에서 대상의 오른쪽을 x축, 위쪽을 y축, 정면을 z축으로 놓는다. 폭행의 경우는 한쪽 팔의 ELBOW y좌표가 SHOULDER y좌표만큼, 혹은 그 이상 올라가게 되며, WRIST의 y좌표는 HEAD y좌표 이상 올라가게 된다. 몸은 객체A를 향해 기울게 돼 HIP_CENTER, SPINE, SHOULDER_CENTER의 z좌표는 순서대로 객체A와 가까워지게 된다. 또한 SHOULDER_CENTER부터 HIP_CENTER까지의 각도는 객체A의 방향으로 15도 이상 기울어지게 된다. 다리의 너비는 어깨 너비 이상 벌어지기 때문에 양쪽 FOOT의 x좌표의 차이가 양쪽 SHOULDER x좌표의 차이와 비슷하거나 이상이 되며, 한쪽 다리는 A를 향해 앞으로 뻗어있기 때문에 양쪽 FOOT의 z좌표는 큰 폭으로 차이를 보인다. 타겟팅의 경우에는 바디 패턴은 큰 변화를 찾기 힘들지만 대상의 팔이 상대방을 향해 쭉 뻗어있게 된다. SHOULDER, ELBOW, WRIST가 일직선상에 놓이게 되기 때문에 z축은 A와 가까운 방향으로 쭉 뻗어있고, x, y 좌표는 큰 차이를 보이지 않는다. 암의 각도는 바디에서 90도에 가깝게 된다.In other words, in the three-dimensional coordinate system, the right side of the object is placed in the x-axis, the top in the y-axis, and the front in the z-axis. In the case of assault, the ELBOW y coordinate of one arm is increased by SHOULDER y coordinate or more, and the y coordinate of WRIST is raised above the HEAD y coordinate. The body tilts toward object A, so that the z-coordinates of HIP_CENTER, SPINE, SHOULDER_CENTER become closer to object A in order. Also, the angle from SHOULDER_CENTER to HIP_CENTER is inclined by more than 15 degrees in the direction of object A. Because the width of the leg is greater than the width of the shoulder, the difference between the x coordinates of both FOOTs is equal to or greater than the difference between the two SHOULDER x coordinates, and one leg extends forward toward A, It shows a difference. In the case of targeting, the body pattern is hard to find a big change, but the target's arm is stretched straight toward the other side. Since the SHOULDER, ELBOW, and WRIST are placed on a straight line, the z-axis extends in a direction close to A, and the x and y coordinates do not show a large difference. The angle of the arm is close to 90 degrees in the body.

도 5는 몸과 팔의 패턴을 통해 이상행위를 예측하기 위한 순서, 즉 옴니뷰 패턴 인지 모듈(122)에 적용된 알고리즘의 일예를 나타낸다. 이 알고리즘에서는 편의상 표 1의 스켈레톤 인덱스를 따른다FIG. 5 shows an example of an algorithm applied to the omni-view pattern recognition module 122 in order to predict an abnormal behavior through the pattern of the body and the arm. This algorithm follows the skeleton indices in Table 1 for convenience

5.2 convexhull 기반 손 패턴 인지 모듈5.2 convexhull-based hand pattern recognition module

손 패턴을 파악하기 위해서는 convexhull과 defect를 이용한다. convexhull을 이용하면 모든 손가락의 끝점을 포함한 다각형을 만들 수 있다. convexhull 알고리즘에서는 depth 영상에서 관심영역을 설정하고, 크기를 조정하고, 윤곽선을 검촐하고, 다각형을 근사화한 후, convexhull과 defect를 검출하는 일련의 과정을 거친다. 즉 Depth 정보를 이용하여 손바닥 부근의 영상을 관심영역으로 설정한 뒤, depth 영상의 윤곽선을 검출한다. 검출한 윤곽선에서 다각형 근사화를 하여 생기는 점들을 이용하여 ConvexHull을 만든다. 이렇게 구한 convexhull과 defect를 이용하면 손의 패턴을 인지할 수 있다. convexhull의 꼭짓점과 defect의 수를 이용하면 손 패턴을 인지할 수 있다. 이러한 convexhull 알고리즘 자체는 이미 알려진 것으로서, 추가의 상세한 설명은 생략한다. 본 발명에서는 이러한 convexhull 알고리즘을 응용하여 손의 패턴을 찾아내는데, 도 6에는 convexhull을 찾기 위한 방법, 즉 핸드 패턴 인지 모듈(124)이 채택하고 있는 알고리즘의 일예가 도시되어 있다. 본 발명에서는, convexhull과 defect를 통하여 손가락의 갯수를 찾아내고, 이에 근거하여 표 2와 같이 위험을 예측한다.To grasp the hand pattern, we use convexhull and defect. Using convexhull, you can create a polygon that contains the end points of all the fingers. The convexhull algorithm sets a region of interest in the depth image, adjusts the size, scans the contour, approximates the polygon, and then performs a series of processes to detect convexhull and defect. That is, the image of the vicinity of the palm is set as the region of interest using the depth information, and the contour of the depth image is detected. ConvexHull is created using the points generated by polygonal approximation on the detected contour. Using this convexhull and defect, the pattern of the hand can be recognized. By using the convexhull's corners and the number of defects, you can recognize the hand pattern. The convexhull algorithm itself is already known, and further detailed description is omitted. In the present invention, a hand pattern is found by applying the convexhull algorithm. FIG. 6 shows an example of a method for finding a convex hull, that is, an algorithm adopted by the hand pattern recognition module 124. In the present invention, the number of fingers is found through the convexhull and the defect, and the risk is predicted as shown in Table 2 based on this.

공격(손을 폈을 때)Attack (when you open your hand) 폭행(주먹을 쥐었을 때)Assault (when holding a fist) 타겟팅Targeting 꼭짓점의 갯수Number of Corner Points 55 변동Variance 1 or 21 or 2 defect의 갯수Number of defects 44 00 1 or 21 or 2

5.3. 결정 모듈5.3. Decision module

위 내용들을 결합하여 이상행동을 예측할 수 있다. 객체 간의 거리인지부터 시작하여 몸 패턴, 팔 패턴, 손 패턴까지 순차적으로 파악한다. 각 단계에서 이상행동이 인지된다면 다음 단계로 넘어가게 된다. 만약 인지 도중 이상행동으로 판단되지 않는다 해도, 지속적인 관찰을 한다. 거리인지 모듈에서 두 객체 사이의 거리가 사회적 거리 이내의 가까운 거리라면, 바디 패턴에서 이상행동을 보이지 않는다고 해도 거리가 멀어질 때 까지 지속적인 바디패턴의 관찰을 한다. 각 단계별로 이상행동이 인지된다면 다음 단계로 넘어가게 되는데, 각 단계들에 대하여 거리와 그에 따른 몸 패턴, 팔 패턴, 손의 패턴의 이상행동이 일치하여야 한다. 예를 들어, 폭행과 같은 몸 패턴을 보인다 해도 두 객체간의 거리가 사회적 거리라면 이상행동으로 판단하지 않는다. 거리에 따른 몸(팔) 패턴과 손의 패턴까지 본 발명에서 정의한 패턴과 일치한다면 이상행동으로 판단한다. 도 7은 결정 모듈(126)에서 채택하여 전체적으로 결과를 도출하는 알고리즘 모델을 나타낸다.Combine these to predict abnormal behavior. Starting from the distance between the objects, the body pattern, the arm pattern, and the hand pattern are grasped sequentially. If abnormal behavior is recognized at each step, the next step is taken. Even if it is not judged abnormal behavior during recognition, continuous observation is done. If the distance between the two objects in the distance cognition module is close to the social distance, the body pattern is observed continuously until the distance is far from the body pattern, even if it does not show abnormal behavior. If an abnormal behavior is recognized at each step, the next step is recognized. For each step, the distance and the corresponding abnormal behavior of body pattern, arm pattern, and hand pattern must match. For example, even if a body pattern such as assault is shown, if the distance between two objects is social distance, it is not judged as abnormal behavior. It is judged to be an abnormal behavior if the pattern of the body (arm) along the distance and the pattern of the hand coincide with the pattern defined in the present invention. FIG. 7 shows an algorithm model adopted by the decision module 126 to derive the outcome as a whole.

5.4 결과 구현5.4 Implementing Results

상기한 알고리즘을 적용시켰을 때, 도 8에 도시한 것과 같은 결과가 나타나면 위험하다고 볼 수 있다. Depth 카메라를 이용하여 한 방향에서 보았을 때에도 위와 같이 다방면에서 보았을 때의 좌표를 가져올 수 있기 때문에 꼭 대상이 CCTV의 정면에 있지 않았을 때에도 프론트 뷰의 골격좌표를 알 수 있다. 대상의 좌표가 알고리즘에서 설명한 바와 같이, 손목, 팔꿈치, 어깨의 높이 값이 일정하고, 몸의 방향이 다른 대상을 향해있다면 타겟팅이라 할 수 있다. 또, 대상의 팔꿈치가 어깨와 비슷하거나 높은 위치에 있고, 손이 머리와 비슷하거나 높은 위치에 있으며, 다리가 어깨너비 정도로 벌어져있다면 공격의 위험이 있다. Hand Pattern은 다각형 근사화를 하여 손의 Cunvexhull과 Defect를 찾아낸 모습을 보여준다. 위험이 감지되면, 출력부(130)를 통해 경보음을 울리거나 VMS로 정보를 전달하여 대상을 감시한다.When the above-described algorithm is applied, the result as shown in FIG. 8 may be dangerous. Depth When viewing from one direction with a camera, it is possible to obtain the coordinates when viewing from various directions as above. Therefore, the skeletal coordinates of the front view can be known even when the object is not in front of the CCTV. As described in the algorithm of the target coordinates, if the height values of the wrist, elbow and shoulder are constant and the direction of the body is directed toward another object, it can be said as targeting. Also, there is a risk of attack if the elbow of the subject is similar to or higher than the shoulder, the hand is similar to or higher than the head, and the leg is extended to the shoulder width. The Hand Pattern shows a polygonal approximation to find the Cunvexhull and Defect of the hand. If a danger is detected, an audible alarm is sounded through the output unit 130 or information is transmitted to the VMS to monitor the object.

6. 구체예6. Concrete examples

먼저 범죄 행위 예측 장치(100)는 카메라(10, 20)를 통해 촬영되어 유무선 통신망을 통해 전송된 영상을 통신부(110)를 통해 수신한다. 이어서, 분석 장치(120)는 상기 영상을 분석하여 범죄 행위에 해당하는 행동이 발생하는지를 판단한다.First, the criminal behavior predicting apparatus 100 receives an image photographed through the cameras 10 and 20 and transmitted through a wired / wireless communication network through the communication unit 110. Then, the analysis apparatus 120 analyzes the image to determine whether a behavior corresponding to the criminal activity occurs.

구체적으로, 분석 장치의 거리 인지 모듈(도시 생략)은 상기 영상 내 모든 인물들 간의 거리를 파악한다. 이때, 거리 인지 모듈은, 인물들 사이의 거리가 제1 거리(공적인 거리로서, 3.7 m 초과)에 해당하는 경우, 범죄의 위험이 없으므로 이들 인물들은 제외한다. 그러나, 제2 거리(사회적 거리로서, 1.2m 내지 3.7m)나 제3 거리(친밀한 거리로서, 1.2m 이내)에 인물들이 포함되어 있을 경우, 범죄 가능성이 있으므로, 이들 거리 범위 내의 객체를 잠재 대상으로 분류한다.In particular, the distance perception module (not shown) of the analysis device determines the distance between all the characters in the image. At this time, the distance cognitive module excludes these persons because there is no risk of crime if the distance between the persons corresponds to the first distance (public distance, more than 3.7 m). However, if characters are included in the second distance (1.2m to 3.7m as a social distance) or the third distance (as an intimate distance, within 1.2m), there is a possibility of a crime. Therefore, .

옴니뷰 패턴 인지 모듈(122)은 인물의 몸 패턴과 팔 패턴을 분석한다. 이때, 옴니뷰 패턴 인지 모듈은 대상의 골격을 분석하여 20개 포인트, 즉 머리, 어깨, 척추, 중앙 힙, 오른쪽 어깨, 왼쪽 어깨, 오른쪽 팔꿈치, 왼쪽 팔꿈치, 오른쪽 손목, 왼쪽 손목, 오른손, 왼손, 오른쪽 힙, 왼쪽 힙, 오른쪽 무릎, 왼쪽 무릎, 오른쪽 발목, 왼쪽 발목, 오른발 및 왼발의 좌표를 획득한다. 옴니뷰 패턴 인지 모듈(1220은 이들 좌표를 3차원 좌표로 저장하여, 몸의 패턴을 분석한다. 이러한 분석 결과, 객체 A와 객체 B와 관련하여, 객체 A, B의 몸의 패턴이, 정상적인 패턴이라고 미리 정해진 몸의 패턴(이는 여러 실험이나 기준에 따라 미리 설정되는 패턴으로서, 정상 여부의 패턴은 고정적인 것이 아니고, 범죄 패턴이나 양상 등의 변화에 따라 변할 수 있으며, 몸의 패턴 변화가 정상인지 여부를 판단할 때 이용되는 기준 패턴이며, 이는 이하 팔의 패턴이나 손의 패턴에 대해서도 마찬가지이다)에 해당하는 경우라면, 이상 행동은 없다고 판단한다. 다른 한편으로, 예컨대, 분석된 객체 A의 몸의 패턴이 미리 정해진 기준 패턴과 벗어나는 패턴인 경우, 예컨대 객체 B를 행해 전체적으로 기울어져 있고 하체는 앞으로 나간 다리에 중심이 집중된 것으로 분석되면, 옴니뷰 패턴 인지 모듈(122)은 이상 행동으로 판단하고, 그 결과를 결정 모듈(126)로 전송한다.The omni-view pattern recognition module 122 analyzes a body pattern and an arm pattern of a person. At this time, the omni-view pattern recognition module analyzes the skeleton of the target, and calculates 20 points including the head, shoulder, vertebra, center heap, right shoulder, left shoulder, right elbow, left elbow, right wrist, left wrist, The right hip, the left hip, the right knee, the left knee, the right ankle, the left ankle, the right foot, and the left foot. The omni-view pattern recognition module 1220 stores these coordinates as three-dimensional coordinates and analyzes the body pattern. As a result of this analysis, it is found that the body patterns of the objects A and B are normal patterns (This is a pattern that is preset according to various experiments or criteria. The pattern of normal state is not fixed but may be changed according to a change of a crime pattern or a pattern. If the pattern change of the body is normal It is judged that there is no abnormal behavior. On the other hand, for example, in the case where the body of the analyzed object A is the reference pattern to be used When the pattern of the object is a pattern deviating from a predetermined reference pattern, for example, an object B is inclined as a whole and the lower body is centered on the leg When analyzed by, that the omni pattern view module 122 determines as abnormal behavior, and transmits the result to the determining module 126. The

옴니 뷰 패턴 인지 모듈(122)은 또한 객체 A의 팔의 패턴을 분석한다. 정상적인 패턴이라면, 객체 A의 팔은 허벅지 부근에서 앞뒤로 흔들리는 등의 패턴을 보인다. 그러나, 이상적인 패턴이라면, 예컨대 객체 A가 앞선 객체 B를 향해 팔을 뻗는다든지, 객체 B를 향해 팔을 치켜들거나 뻗는다든지의 행동을 하게 되면, 팔이 전체적으로 움직이는 것이 분석되므로, 옴니 뷰 패턴 인지 모듈(122)은 팔의 패턴이 이상 패턴을 보인다고 판단하고, 그 결과는 결정 모듈(126)로 전송된다. 한편, 상기한 바와 같이, 이러한 몸 및 팔의 패턴을 분석할 때에는 예컨대, 도 5에 도시한 것과 같은 알고리즘을 이용한다.The omni-view pattern recognition module 122 also analyzes the pattern of the arms of the object A. If it is a normal pattern, the arm of the object A shows a pattern such as shaking back and forth around the thigh. However, if it is an ideal pattern, for example, if the object A is moving toward the preceding object B or the object is moved toward or away from the object B, it is analyzed that the arm moves overall, 122 determines that the pattern of the arm shows an abnormal pattern, and the result is transmitted to the determination module 126. On the other hand, as described above, when analyzing the pattern of the body and the arm, for example, an algorithm as shown in Fig. 5 is used.

핸드 패턴 인지 모듈(124)은 상기 3차원 좌표에 기초하여, 객체의 손을 분석한다. 객체의 손이 다른 객체를 가리키거나, 손을 펴거나 주먹을 쥐거나, 타객체를 움켜쥐는 행동을 하게 되면, 손의 위치가 머리 위까지 올라가게 된다든지, 팔굼치가 어깨 부근까지 올라가는 등의 좌표 변화가 일어나므로, 이상 행동을 판단할 수 있으며, 이때 도 6에 도시한 것과 같은 convexhull 알고리즘을 이용한다.The hand pattern recognition module 124 analyzes the hand of the object based on the three-dimensional coordinates. When the hand of an object points to another object, stretches a hand, grasps a fist, or grasps another object, the position of the hand goes up to the head, or the elbow goes up to the shoulder. Since a coordinate change occurs, it is possible to determine an abnormal behavior. In this case, a convexhull algorithm as shown in FIG. 6 is used.

결정 모듈(126)은 이상과 같은 각 모듈의 분석 결과를 결합하여 이상 행동을 예측한다. 즉 객체 간의 거리 인지부터 시작하여 몸 패턴, 팔 패턴, 손 패턴까지 순차적으로 파악하고, 각 단계에서 이상 행동이 인지되면, 다음 단계로 넘어가 각 단계에서 이상 행동이 미리 정해진 기준 패턴에서 벗어난다고 파악되면, 범죄 행동으로 이어질 우려가 있으므로, 이를 출력부(130)를 통해 경보음을 울리거나 VMS로 정보를 전달하여 대상을 감시한다. 이때, 거리 인지에서 손 인지까지 각 단계별로 이상 행동이 인지되면, 다음 단계로 넘어가는데, 각 단계에 있어서, 거리와 그에 따른, 몸, 팔, 손의 패턴의 이상 행동이 일치하여야 이상 행동으로 판단한다. 즉 폭행과 같은 팔이나 손의 패턴이 분석되더라도, 두 객체간의 거리가 제2 거리를 벗어나는 제1 거리 범위에 있다면, 이상 행동으로 판단하지 않는다. 즉 거리 분석 결과, 예컨대 두 객체간 거리가 제2 거리 또는 제3 거리 범위에 있고, 몸 패턴 분석 결과 미리 정해진 기준 몸 패턴에 벗어나는 것으로 판단되면, 팔과 손의 패턴을 분석하여 이상 행동 여부를 판단한다.The determination module 126 predicts abnormal behavior by combining the analysis results of each module as described above. That is, starting from the distance between the objects, the body pattern, the arm pattern, and the hand pattern are sequentially grasped, and if an abnormal behavior is recognized at each step, it is determined that the abnormal behavior is deviated from a predetermined reference pattern at each step , It may lead to a criminal action, so the alarm is sounded through the output unit 130 or information is transmitted to the VMS to monitor the object. At this time, if the abnormal behavior is recognized for each step from the distance recognition to the hand recognition, the process proceeds to the next step. In each step, the distance and the corresponding abnormal behavior of the body, arm, do. That is, even if an arm or a hand pattern such as an assault is analyzed, if the distance between the two objects is within the first distance range out of the second distance, it is not judged as an abnormal behavior. That is, if the distance between the two objects is within the second distance or the third distance and the body pattern analysis result indicates that the object is out of the predetermined reference body pattern, do.

한편, 본 실시예의 경우, 결정 모듈은 정상으로 판단하는 경우, 객체 A가 객체 B를 향하는 것으로 판단하는 타겟팅, 객체 A가 객체 B를 공격할 가능성이 있는 공격 단계로 구분하여 행동 패턴 분석 결과를 통보하도록 구성된다.On the other hand, in the case of the present embodiment, if the decision module determines that the decision is normal, it is divided into the targeting in which the object A is determined to be directed to the object B and the attack stage in which the object A is likely to attack the object B, .

이처럼, 본 발명에 따르면, 범죄를 사전에 예방하기 위하여 이상 행동의 큰 틀을 포착하고 경고하는 기술을 보다 효과적으로 운용하는 것을 목적으로 한다. 시간적으로나 금전적으로 소모가 큰 인력을 사용하는 대신, CCTV가 무인으로 대상의 행동을 관찰하고 추후에 취할 제스쳐를 데이터베이스 내에서 예견할 수 있다면 간단한 경보기의 설치만으로도 충분한 범죄 예방 효과를 나타낼 수 있을 것이다. 이를 위하여 최우선적으로 필요한 기술은 감시의 대상인 객체의 좌표를 빠르고 정확하게 파악하여 객체 간의 거리나 순간적인 움직임을 모니터링하는 것이다. 나아가 기술을 발전시켜 지속적인 움직임의 변화 또한 감시할 수 있게 되고, 해당 움직임을 포함하는 데이터베이스를 가질 수 있다면 예측의 정확도는 보다 높아지게 된다. 부차적으로 기존에 통용되던 얼굴 인식이나 VMS 기술 또한 적용시킨다면 정밀한 감시를 24시간 시행할 수 있게 될 것이다.As described above, according to the present invention, it is intended to effectively utilize a technique for capturing and warning a large frame of abnormal behavior in order to prevent crime in advance. Instead of using time consuming and financially expensive manpower, if CCTV can observe the behavior of the subject with unattended and predict future gestures in the database, the installation of a simple alarm will be enough to prevent crime. For this purpose, the most important technology is to monitor the distance and instantaneous movement between objects by quickly and precisely grasping the coordinates of the objects to be monitored. Further, the technology can be developed to monitor continuous motion changes, and if the database containing the motion is available, the accuracy of the prediction becomes higher. Secondly, if the conventional face recognition or VMS technology is applied, it will be possible to carry out precise monitoring for 24 hours.

이상 본 발명을 특정 실시예를 참조하여 설명하였지만, 본 발명은 상기 실시예에 제한되는 것이 아니며, 후술하는 청구범위 내에서 다양하게 변형 및 수정할 수 있고, 이들 역시 본 발명의 범위 내에 속하는 것이다.While the present invention has been described with reference to the particular embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims.

Claims (6)

행동 패턴 기반 범죄 예측 장치로서,
고정형 카메라 및 회전형 카메라 중 적어도 하나의 카메라로부터 전송되어 오는 영상을 수신하기 위한 통신부,
상기 통신부를 통해 수신된 영상 내 모든 인물들의 행동을 분석하여, 범죄를 예측하기 위한 분석 장치와,
상기 분석 장치에 의해 이상 행동을 한 것이라고 판단된 객체를 통보하기 위한 출력부
를 포함하고,
상기 분석 장치는
상기 영상 내 모든 인물들 사이의 거리를 인지하기 위한 거리 인지 모듈로서, 상기 거리가 사회적 거리 범위 또는 친밀 거리 범위에 해당하는 경우, 그 거리 범위 내의 인물을 특정하도록 구성된 상기 거리 인지 모듈과,
상기 특정된 인물의 몸 패턴과 팔 패턴을 분석하기 위한 옴니 뷰 패턴 인지 모듈로서, 상기 인물의 골격의 적어도 일부분의 골격의 좌표를 획득하고, 이를 3차원 좌표로서 저장하여, 상기 인물의 몸의 패턴과 팔의 패턴을 분석하며, 분석 결과, 이러한 분석 결과, 상기 인물의 몸과 팔의 패턴이, 정상적인 패턴이라고 미리 정해진 기준 패턴에서 벗어나는 것으로 분석되면, 해당 결과를 결정 모듈에 전송하도록 구성되는, 옴니 뷰 패턴 인지 모듈과,
상기 3차원 좌표에 기초하여, 상기 인물의 손을 분석하여, 이상 행동시 일어나는 좌표 변화를 결정 모듈에 전송하는 핸드 패턴 인지 모듈로서, convexhull 알고리즘을 이용하여, 인물의 손가락 갯수를 찾아내어 위험을 예측하도록 구성된 핸드 패턴 인지 모듈과,
각 모듈의 분석 결과를 결합하여 이상 행동을 예측하기 위한 결정 모듈로서, 인물 간의 거리 인지부터 시작하여 몸 패턴, 팔 패턴, 손 패턴까지 순차적으로 파악하고, 각 단계에서 이상 행동이 인지되면, 다음 단계로 넘어가 각 단계에서 이상 행동이 미리 정해진 기준 패턴에서 벗어난다고 파악되면, 그 결과를 출력부를 통해 통보하도록 구성된 결정 모듈
을 포함하는 것을 특징으로 하는 행동 패턴 기반 범죄 예측 장치.
As a behavior pattern-based crime predicting device,
A communication unit for receiving an image transmitted from at least one of a fixed camera and a rotary camera,
An analyzing unit for analyzing the behavior of all the persons in the image received through the communication unit and for predicting the crime,
An output unit for notifying an object judged to have an abnormal behavior by the analyzing apparatus;
Lt; / RTI >
The analyzer
A distance recognition module for recognizing a distance between all the characters in the image, the distance recognition module being configured to specify a person within the distance range if the distance corresponds to a social distance range or an intimate distance range;
An omni view pattern recognition module for analyzing a body pattern and an arm pattern of the specified person, wherein coordinates of a skeleton of at least a part of the skeleton of the person are acquired and stored as three-dimensional coordinates, And analyzing the pattern of the arm and analyzing the result of the analysis so that the pattern of the body and arm of the person is determined to be a normal pattern and deviating from a predetermined reference pattern, A view pattern recognition module,
A hand pattern recognition module for analyzing the hand of the person based on the three-dimensional coordinates and transmitting a coordinate change occurring in an abnormal behavior to a determination module, the convexhull algorithm is used to find the number of fingers of a person, A hand pattern recognition module,
The module is a module for predicting anomalous behavior by combining the analysis results of each module. It is a module that sequentially grasps the body pattern, the arm pattern, and the hand pattern starting from the distance between the persons, and if abnormal behavior is recognized at each step, A determination module configured to notify, via the output unit, the result of the determination, if it is determined that the abnormal behavior is deviated from a predetermined reference pattern at each step,
Based on the behavior pattern of the user.
청구항 1에 있어서, 상기 골격의 좌표는 머리, 어깨, 척추, 중앙 힙, 오른쪽 어깨, 왼쪽 어깨, 오른쪽 팔꿈치, 왼쪽 팔꿈치, 오른쪽 손목, 왼쪽 손목, 오른손, 왼손, 오른쪽 힙, 왼쪽 힙, 오른쪽 무릎, 왼쪽 무릎, 오른쪽 발목, 왼쪽 발목, 오른발 및 왼발의 좌표 20개로 구성되는 것을 특징으로 하는 행동 패턴 기반 범죄 예측 장치.The method of claim 1 wherein the skeletal coordinates are selected from the group consisting of head, shoulders, spine, center heap, right shoulder, left shoulder, right elbow, left elbow, right wrist, left wrist, right hand, left hand, The left knee, the right ankle, the left ankle, the right foot, and the left foot. 청구항 2에 있어서, 상기 옴니 뷰 패턴 인지 모듈은 상기 인물의 팔이 전체적으로 움직이는 경우, 몸의 패턴이 이상 행동인 것으로 판단하고, 팔이 제3자를 행해 앞으로 쭉 뻗거나 치켜들어지는 것으로 판단되면, 팔의 패턴이 이상 행동인 것으로 판단하는 것을 특징으로 하는 행동 패턴 기반 범죄 예측 장치.The omni-vision pattern recognition module according to claim 2, wherein the omni-vision pattern recognition module determines that the pattern of the body is an abnormal behavior when the arm of the person moves as a whole, and when it is determined that the arm performs a third person And determines that the pattern is an abnormal behavior. 청구항 4에 있어서, 상기 핸드 패턴 인지 모듈은 상기 인물의 분석되는 손가락 갯수에 기초하여 위험 여부를 판단하도록 구성되는 것을 특징으로 하는 행동 패턴 기반 범죄 예측 장치.The apparatus of claim 4, wherein the hand pattern recognition module is configured to determine a risk based on the number of fingers analyzed by the person. 청구항 4에 있어서, 상기 결정 모듈은 거리 인지 모듈에 의해 인지된 거리에 따른 몸 패턴, 팔 패턴 및 손 패턴의 이상 행동이 일치하는 경우 이상 행동으로 판단하는 것을 특징으로 하는 행동 패턴 기반 범죄 예측 장치.[Claim 4] The behavior pattern-based crime predicting apparatus of claim 4, wherein the decision module determines that an abnormal behavior occurs when the abnormal behavior of the body pattern, the arm pattern, and the hand pattern according to the distance recognized by the distance recognition module coincides with each other. 청구항 5에 있어서, 상기 결정 모듈은 상기 거리 인지 모듈에 의해 인지된 인물 사이의 거리가 사회적 거리 또는 친밀 거리 범위 내에 있는 경우, 상기 옴니 뷰 패턴 인지 모듈에서 상기 인물의 몸 패턴이 이상 행동을 보이지 않는다고 판단하더라도, 상기 인물 사이의 거리가 사회적 거리 범위를 벗어날때가지 상기 인물의 몸 패턴을 지속적으로 분석하도록 구성되는 것을 특징으로 하는 행동 패턴 기반 범죄 예측 장치.

The method of claim 5, wherein the determination module determines that the body pattern of the person does not exhibit abnormal behavior in the omni view pattern recognition module when the distance between the persons recognized by the distance sensing module is within a social distance or an intimate distance range Wherein the controller is configured to continuously analyze the body pattern of the person when the distance between the persons is out of the social distance range.

KR1020170022186A 2017-02-20 2017-02-20 Crime prediction system based on moving behavior pattern KR20180096038A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170022186A KR20180096038A (en) 2017-02-20 2017-02-20 Crime prediction system based on moving behavior pattern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170022186A KR20180096038A (en) 2017-02-20 2017-02-20 Crime prediction system based on moving behavior pattern

Publications (1)

Publication Number Publication Date
KR20180096038A true KR20180096038A (en) 2018-08-29

Family

ID=63434857

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170022186A KR20180096038A (en) 2017-02-20 2017-02-20 Crime prediction system based on moving behavior pattern

Country Status (1)

Country Link
KR (1) KR20180096038A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200048098A (en) * 2018-10-29 2020-05-08 서울과학기술대학교 산학협력단 Apparatus for tracking abnormal behavior object in video
WO2021010557A1 (en) * 2019-07-12 2021-01-21 숙명여자대학교산학협력단 Danger sensing system and method
KR20210020723A (en) * 2019-08-14 2021-02-24 건국대학교 산학협력단 Cctv camera device having assault detection function and method for detecting assault based on cctv image performed
KR20210053534A (en) 2019-11-04 2021-05-12 주식회사 넥스트케이 Apparatus for Performing Recognition of Activity Based on Deep Learning and Driving Method Thereof
KR20220072478A (en) 2020-11-25 2022-06-02 주식회사 싸인텔레콤 Safety management system through image-based core framing detection
KR102635351B1 (en) * 2022-10-18 2024-02-13 (주)이미지데이 Crime prevention system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200048098A (en) * 2018-10-29 2020-05-08 서울과학기술대학교 산학협력단 Apparatus for tracking abnormal behavior object in video
WO2021010557A1 (en) * 2019-07-12 2021-01-21 숙명여자대학교산학협력단 Danger sensing system and method
KR20210020723A (en) * 2019-08-14 2021-02-24 건국대학교 산학협력단 Cctv camera device having assault detection function and method for detecting assault based on cctv image performed
KR20210053534A (en) 2019-11-04 2021-05-12 주식회사 넥스트케이 Apparatus for Performing Recognition of Activity Based on Deep Learning and Driving Method Thereof
KR20220072478A (en) 2020-11-25 2022-06-02 주식회사 싸인텔레콤 Safety management system through image-based core framing detection
KR102635351B1 (en) * 2022-10-18 2024-02-13 (주)이미지데이 Crime prevention system

Similar Documents

Publication Publication Date Title
KR20180096038A (en) Crime prediction system based on moving behavior pattern
Ann et al. Human activity recognition: A review
JP4984728B2 (en) Subject collation device and subject collation method
US20140307076A1 (en) Systems and methods for monitoring personal protection equipment and promoting worker safety
JP5523900B2 (en) Person search device, person search method, and person search program
JP2010244089A (en) Person detection device, person detection method, and person detection program
Sokolova et al. A fuzzy model for human fall detection in infrared video
JPWO2014125882A1 (en) Information processing system, information processing method, and program
JP5590945B2 (en) Person search device, person search method, and person search program
JP2010239992A (en) Person identification device, person identification method, and person identification program
KR100822476B1 (en) Remote emergency monitoring system and method
Nar et al. Abnormal activity detection for bank ATM surveillance
JP5718632B2 (en) Part recognition device, part recognition method, and part recognition program
CN113033521A (en) Perimeter dynamic early warning method and system based on target analysis
Kavya et al. Fall detection system for elderly people using vision-based analysis
KR101446422B1 (en) Video security system and method
Kapoor et al. Light-weight seated posture guidance system with machine learning and computer vision
Yoon et al. Tracking System for mobile user Based on CCTV
WO2023164782A1 (en) Harm prevention monitoring system and method
Kasturi et al. Classification of human fall in top Viewed kinect depth images using binary support vector machine
JP2012048691A (en) Image monitoring apparatus
JPH0773298A (en) Person recognition device
KR20210062375A (en) Method and Apparatus for detecting abnormal behavior based on psychological state
KR101703690B1 (en) Apparatus for recognizing iris and operating method thereof
KR102544147B1 (en) Image Analysis based One Person Fall Detection System and Method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application