KR101081861B1 - Violence detection method by analyzing the motion image of moving peoples - Google Patents

Violence detection method by analyzing the motion image of moving peoples Download PDF

Info

Publication number
KR101081861B1
KR101081861B1 KR1020090058578A KR20090058578A KR101081861B1 KR 101081861 B1 KR101081861 B1 KR 101081861B1 KR 1020090058578 A KR1020090058578 A KR 1020090058578A KR 20090058578 A KR20090058578 A KR 20090058578A KR 101081861 B1 KR101081861 B1 KR 101081861B1
Authority
KR
South Korea
Prior art keywords
head
frame image
vector
assault
current frame
Prior art date
Application number
KR1020090058578A
Other languages
Korean (ko)
Other versions
KR20110001172A (en
Inventor
최경호
박순영
김성진
김영환
고득구
이훈
이형각
Original Assignee
주식회사세오
목포대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사세오, 목포대학교산학협력단 filed Critical 주식회사세오
Priority to KR1020090058578A priority Critical patent/KR101081861B1/en
Publication of KR20110001172A publication Critical patent/KR20110001172A/en
Application granted granted Critical
Publication of KR101081861B1 publication Critical patent/KR101081861B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/027Syllables being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 폭행상황 검출방법에 관한 것으로, 보다 구체적으로는 입력되는 프레임 영상 내의 움직이는 객체 중 사람객체를 검출하고, 검출된 사람객체들 각각의 움직임벡터, 상기 사람객체들 간의 위치벡터 및 상기 프레임 영상의 음성정보를 분석하여 폭행상황 여부를 판단하여, 폭행상황 발생시에 영상메시지나 음성메시지를 외부로 출력함으로써, 감시자에게 폭행상황 발생을 알려 줄 수 있는 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법에 관한 것이다.The present invention relates to a method for detecting an assault situation, and more particularly, detects a human object among moving objects in an input frame image, and detects a motion vector of each detected human object, a position vector between the human objects, and the frame image. In the assault situation detection method based on the video information of a moving object that can inform the monitor of occurrence of the assault situation by analyzing the audio information and determining the assault situation, and outputting the video message or the audio message to the outside when the assault situation occurs. It is about.

폭행, 프레임 영상, 머리이동벡터, 머리위치벡터, 객체추적 Assault, frame image, head movement vector, head position vector, object tracking

Description

움직이는 객체의 영상정보에 기반한 폭행상황 검출방법{Violence detection method by analyzing the motion image of moving peoples}Violence detection method by analyzing the motion image of moving peoples}

본 발명은 폭행상황 검출방법에 관한 것으로, 보다 구체적으로는 입력되는 프레임 영상 내의 움직이는 객체 중 사람객체를 검출하고, 검출된 사람객체들 각각의 움직임벡터, 상기 사람객체들 간의 위치벡터 및 상기 프레임 영상의 음성정보를 분석하여 폭행상황 여부를 판단하여, 폭행상황 발생시에 영상메시지나 음성메시지를 외부로 출력함으로써, 감시자에게 폭행상황 발생을 알려 줄 수 있는 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법에 관한 것이다.The present invention relates to a method for detecting an assault situation, and more particularly, detects a human object among moving objects in an input frame image, and detects a motion vector of each detected human object, a position vector between the human objects, and the frame image. In the assault situation detection method based on the video information of a moving object that can inform the monitor of occurrence of the assault situation by analyzing the audio information and determining the assault situation, and outputting the video message or the audio message to the outside when the assault situation occurs. It is about.

CCTV(CCTV: closed-circuit television, 폐쇄 회로 텔레비전, 이하 'CCTV'라 함) 감시 시스템은 최근 범죄수사분야나 보안분야, 교통사고처리분야 등에서 영상정보를 통해 감시구역의 이상 유무를 판단하는 영상정보기술의 하나로써, 초기에는 공공장소나 위험장소에 설치되어 범죄를 예방하는 목적으로 주로 사용되어 왔으나, 최근에는 보안관리가 필요한 회사나 도로 등 다양한 장소에 설치되어 사용되고 있 다.CCTV (closed-circuit television, CCTV) surveillance system is a video information that judges the abnormality of the surveillance area through video information in the area of crime investigation, security, traffic accident processing, etc. As one of the technologies, it has been used mainly for the purpose of preventing crime by being installed in public places or dangerous places, but recently, it is installed and used in various places such as companies or roads that require security management.

종래의 CCTV 감시 시스템은 대부분 감시자의 모니터링을 통해 관리가 이루어지므로, 감시 소홀이 빈번하게 발생하게 되고, 감시할 CCTV 화면 수의 증가로 인한 실시간 대처 능력이 현저하게 떨어지는 문제점이 있다.Conventional CCTV surveillance systems are managed through the monitoring of the majority of monitors, the monitoring neglect occurs frequently, there is a problem that the ability to cope with the real-time response due to the increase in the number of CCTV screens to monitor significantly falls.

이러한 경우 녹화된 CCTV 영상을 분석하여 문제점을 해결할 수 있으나, 녹화된 CCTV 영상을 분석하는 방법은 위급상황에 실시간으로 대처할 수 없는 문제점이 있고, 또한, 영상의 해상도나 데이터 저장상태에 따라서 올바르지 않은 결과가 도출되기도 하는 문제점이 있다.In this case, the problem can be solved by analyzing the recorded CCTV image. However, the method of analyzing the recorded CCTV image cannot solve the emergency in real time, and the result is not correct according to the resolution or data storage state of the image. There is a problem that can be derived.

본 발명자들은 감시자의 모니터링에 의존하지 않고, CCTV영상을 영상 처리에 의해 실시간으로 폭행상황을 판단하여, 상기 감시자에게 폭행상황을 인지시켜 줄 수 있는 방법을 연구 노력한 결과, CCTV영상 내의 사람 객체의 움직임이나 사람 객체들 간의 관계 및 CCTV영상의 음성정보를 이용하여 폭행상황을 실시간으로 검출하고 감시자로 하여금 폭행상황을 인식할 수 있게 하는 기술적 구성을 개발하게 되어 본 발명을 완성하게 되었다.The present inventors have tried to determine the assault situation in real time by image processing of the CCTV image without relying on the monitoring of the monitor, and as a result of researching a method for recognizing the assault situation, the movement of a human object in the CCTV image. The present invention has been completed by developing a technical configuration that detects an assault situation in real time using a relationship between human objects and audio information of CCTV images and enables a monitor to recognize the assault situation.

따라서, 본 발명의 목적은 CCTV 영상과 같은 영상의 사람객체 각각의 움직임, 사람객체 간의 움직임을 검출하여 폭행상황을 실시간으로 자동으로 판단할 수 있는 폭행상황 검출방법을 제공하는 것이다.Accordingly, an object of the present invention is to provide an assault situation detection method that can automatically determine the assault situation in real time by detecting the movement of each of the human objects, the movement between the human objects, such as CCTV images.

또한, 본 발명의 다른 목적은 폭행상황 발생시에 영상메시지 또는 음성메시지를 감시자에게 제공하여 감시자로 하여금 즉시 감시구역 내의 폭행상황 발생여부를 인지시켜 줄 수 있는 폭행상황 검출방법을 제공하는 것이다.Another object of the present invention is to provide an assault situation detection method that provides a video message or a voice message to a supervisor at the time of an assault situation so that the supervisor can immediately recognize whether an assault situation occurs in the surveillance zone.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위하여 본 발명은 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계, 상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계, 상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계, 이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계, 상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계 및 상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계를 포함하는 폭행상황 검출방법을 제공한다.In order to achieve the above object, the present invention provides a head tracking box including a head region of each human object, the first step of receiving a current frame image, deleting a background without movement, and detecting human objects among moving objects. A second step of generating an image, and a third step of selecting the current frame image as an assault candidate image when the center coordinates of the head tracking boxes are located within a predetermined distance from each other, and the head from the previous frame images to the current frame image. A fourth step of obtaining first head movement vectors, which are motion vectors of each of the tracking boxes, a fifth step of obtaining second head movement vectors, which are motion vectors of each of the head tracking boxes, from the current frame image to a next frame image; A first angle that is an angle difference between the head movement vectors by comparing a first head movement vector and the second head movement vector; Calculate a difference, derive a first change vector using the acceleration information of the first angle difference and the second head movement vector, and then assault situation when the value of the first change vector changes to a value within a certain range. It provides a method for detecting an assault situation comprising a sixth step of determining.

바람직한 실시예에 있어서, 상기 제3단계 이후, 상기 제6단계 이전에, 상기 현재 프레임 영상 내의 머리추적박스들 간의 위치벡터인 제1머리위치벡터를 구하는 제3-1단계 및 상기 다음 프레임 영상에서 상기 머리추적박스들 간의 위치벡터인 제2머리위치벡터를 구하는 제3-2단계를 더 포함하고, 상기 제6단계는 상기 제1머리위치벡터와 상기 제2머리위치벡터를 비교하여 상기 머리위치벡터들 간의 각도차인 제2각도차를 계산하고, 상기 제2각도차와 상기 제2머리위치벡터의 가속도정보를 이용하여 제2변화벡터를 도출한 후, 상기 제2변화벡터의 값이 일정한 범위 내의 값으로 더 변화할 경우 상기 폭행상황으로 판단한다.In a preferred embodiment, after the third step and before the sixth step, steps 3-1 to obtain a first head position vector, which is a position vector between head tracking boxes in the current frame image, and the next frame image. And a third step of obtaining a second head position vector, which is a position vector between the head tracking boxes, wherein the sixth step compares the first head position vector and the second head position vector to the head position. After calculating a second angular difference, which is an angular difference between the vectors, deriving a second change vector using the acceleration information of the second angular difference and the second head position vector, the value of the second change vector is constant. In case of further change to the value within, it is determined as the assault situation.

바람직한 실시예에 있어서, 상기 제6단계는 상기 현재 프레임 영상 또는 상기 다음 프레임 영상의 음성정보가 폭행음성인지 아닌지 판단하여, 상기 음성정보가 폭행음성으로 더 판단될 경우 상기 폭행상황으로 판단한다.In a preferred embodiment, the sixth step determines whether the voice information of the current frame image or the next frame image is an assault voice, and if the voice information is further determined as an assault voice, it is determined as the assault situation.

바람직한 실시예에 있어서, 상기 제1단계는 가우시안 믹스쳐 모델(Gaussian Mixture Model)을 이용하여 상기 현재 프레임 영상의 배경을 제거하고 상기 움직이는 객체를 검출하는 제1-1단계, 미디언 필터링(Median Filtering) 및 마스크 연산(Masking)을 이용하여 상기 움직이는 객체의 영상잡음을 제거하는 제1-2단계 및 상기 움직이는 객체를 포함하는 사람객체박스를 생성하고, 상기 사람객체박스의 히스토그램을 구하여 사람객체표본의 히스토그램과 비교함으로써, 상기 움직이는 객체가 사람객체인지 판단하는 제1-3단계를 포함한다.In a preferred embodiment, the first step is a first-first step of removing a background of the current frame image and detecting the moving object by using a Gaussian Mixture Model, and median filtering. Step 1-2 of removing image noise of the moving object using masking and masking, and generating a human object box including the moving object, obtaining a histogram of the human object box, Comparing with the histogram, steps 1-3 are determined to determine whether the moving object is a human object.

바람직한 실시예에 있어서, 상기 제1-3단계는 상기 사람객체박스의 가로 및 세로의 비율을 이용하여 상기 움직이는 객체가 상기 사람객체인지 더 판단한다.In a preferred embodiment, the first to third steps further determine whether the moving object is the human object using the ratio of the width and the length of the human object box.

바람직한 실시예에 있어서, 상기 제2단계는 상기 사람객체박스를 Y축으로 삼등분하여 세 개의 박스로 분할하여, 상기 세 개의 박스들 중 최상위 박스의 Y축 히스토그램을 구하여 그 값의 도함수의 최고점을 사람의 목 좌표로 설정하고, 상기 목 좌표로부터 상기 사람객체의 최상위 좌표까지를 상기 머리영역으로 판단하여 상기 머리추적박스들을 생성한다.In a preferred embodiment, the second step divides the human object box into three boxes by dividing the human object box into three boxes, obtains a Y-axis histogram of the highest box among the three boxes, and obtains the highest point of the derivative of the value. The head tracking boxes may be generated by setting the neck coordinates of the head region to determine the head region from the neck coordinates to the highest coordinate of the human object.

바람직한 실시예에 있어서, 상기 제3단계는 상기 각 머리추적박스들을 포함하는 후보영상검출영역을 설정하고, 상기 각 후보영상검출영역이 서로 교차할 경 우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정한다.In a preferred embodiment, in the third step, a candidate image detection area including the head tracking boxes is set, and when the candidate image detection areas cross each other, the current frame image is selected as an assault candidate image. do.

바람직한 실시예에 있어서, 상기 제1 및 제2머리이동벡터들과 상기 제1 및 제2머리위치벡터들은 상기 각 머리추적박스의 중심좌표의 움직임벡터로 계산된다.In a preferred embodiment, the first and second head movement vectors and the first and second head position vectors are calculated as motion vectors of the center coordinates of the head tracking boxes.

바람직한 실시예에 있어서, 상기 폭행상황으로 판단될 경우, 영상메시지 또는 음성메시지를 출력하여 상기 폭행상황을 알리는 제7단계를 더 포함한다.In a preferred embodiment, if it is determined that the assault situation, a seventh step of notifying the assault situation by outputting a video message or a voice message.

바람직한 실시예에 있어서, 상기 제1변화벡터는 아래의 수학식 1에 의해 도출된다.In a preferred embodiment, the first change vector is derived by Equation 1 below.

Figure 112009039608087-pat00001
Figure 112009039608087-pat00001

여기서, V1은 상기 제1변화벡터, θ1은 상기 제1각도차, α1은 상기 제2머리이동벡터의 가속도정보이다.Here, V 1 is the first change vector, θ 1 is the first angle difference, α 1 is the acceleration information of the second head movement vector.

바람직한 실시예에 있어서, 상기 제1변화벡터의 값이 40 내지 100 사이의 일정한 값일 경우 상기 폭행상황으로 판단한다.In a preferred embodiment, when the value of the first change vector is a constant value between 40 and 100 is determined as the assault situation.

바람직한 실시예에 있어서, 상기 제2변화벡터는 아래의 수학식 2에 의해 도출된다.In a preferred embodiment, the second change vector is derived by Equation 2 below.

Figure 112009039608087-pat00002
Figure 112009039608087-pat00002

여기서, V2은 상기 제2변화벡터, θ2은 상기 제2각도차, α2은 상기 제2머리 위치벡터의 가속도정보이다.Here, V 2 is the second change vector, θ 2 is the second angle difference, α 2 is the acceleration information of the second head position vector.

바람직한 실시예에 있어서, 상기 프레임 영상들은 시시티브이(CCTV:closed-circuit television, 폐쇄 회로 텔레비전)로부터 입력된다.In a preferred embodiment, the frame images are input from a closed-circuit television (CCTV).

본 발명은 다음과 같은 우수한 효과를 가진다.The present invention has the following excellent effects.

먼저, 본 발명의 폭행상황 검출방법에 의하면, CCTV로부터 입력되는 프레임영상 내의 각각의 사람객체의 움직임에 대한 변화벡터, 프레임 영상 내의 사람객체들 간의 위치에 대한 변화벡터, 및 프레임 영상의 음성정보를 복합적으로 판단하여 폭행상황을 실시간으로 정확하게 판단할 수 있는 효과가 있다.First, according to the assault situation detection method of the present invention, a change vector for the movement of each human object in the frame image input from the CCTV, a change vector for the position between the human objects in the frame image, and audio information of the frame image Complex judgments have the effect of accurately determining the assault situation in real time.

또한, 본 발명의 폭행상황 검출방법에 의하면, 폭행상황 발생시에 영상메시지 또는 음성메시지를 감시자에게 즉시 전달하여 감시자로 하여금 빠르게 감시구역 내의 폭행상황에 대해 대처할 수 있게 하는 효과가 있다.In addition, the assault situation detection method of the present invention has an effect of promptly responding to the assault situation in the surveillance zone by delivering the video or audio message to the monitor immediately when the assault situation occurs.

본 발명에서 사용되는 용어는 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있는데 이 경우에는 단순한 용어의 명칭이 아닌 발명의 상세한 설명 부분에 기재되거나 사용된 의미를 고려하여 그 의미가 파악되어야 할 것이다.The terms used in the present invention were selected as general terms as widely used as possible, but in some cases, the terms arbitrarily selected by the applicant are included. In this case, the meanings described or used in the detailed description of the present invention are considered, rather than simply the names of the terms. The meaning should be grasped.

이하, 첨부한 도면 및 바람직한 실시예들을 참조하여 본 발명의 기술적 구성 을 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings and preferred embodiments will be described in detail the technical configuration of the present invention.

그러나, 본 발명은 여기서 설명되는 실시예에 한정되지 않고 다른 형태로 구체화 될 수도 있다. 명세서 전체에 걸쳐 동일한 참조번호는 동일한 구성요소를 나타낸다.However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. Like reference numerals designate like elements throughout the specification.

도 1은 본 발명의 일 실시예에 따른 폭행상황 검출방법을 수행하기 위한 폭행상황 검출시스템을 보여주는 도면, 도 2는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리추적박스를 설명하기 위한 도면, 도 3은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 프레임 영상들을 보여주는 도면, 도 4는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 폭행 후보 영상 선정방법을 설명하기 위한 도면, 도 5는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리이동벡터를 설명하기 위한 도면, 도 6은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리위치벡터를 설명하기 위한 도면, 도 7은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 흐름도이다.1 is a view showing an assault situation detection system for performing an assault situation detection method according to an embodiment of the present invention, Figure 2 is a head tracking box for explaining the assault situation detection method according to an embodiment of the present invention 3 is a view showing frame images of the assault situation detection method according to an embodiment of the present invention, Figure 4 is a view for explaining a method of selecting an assault candidate image of the assault situation detection method according to an embodiment of the present invention 5 is a view for explaining the head movement vector of the assault situation detection method according to an embodiment of the present invention, Figure 6 is a view for explaining the head position vector of the assault situation detection method according to an embodiment of the present invention. 7 is a flowchart illustrating a method of detecting an assault situation according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 폭행상황 검출방법은 폭행상황 검출시스템(100)을 이용하여 수행되며, 상기 폭행상황 검출시스템(100)은 배경삭제모듈(110), 객체추적모듈(120), 음성분석모듈(130), 폭행상황 판단모듈(140), 폭행상황 알람모듈(150), 디스플레이 수단(160) 및 스피커 수단(170)을 포함하여 이루어진다.Referring to FIG. 1, an assault situation detection method according to an embodiment of the present invention is performed using an assault situation detection system 100, and the assault situation detection system 100 includes a background deletion module 110 and object tracking. The module 120, the voice analysis module 130, the assault situation determination module 140, the assault situation alarm module 150, the display means 160, and the speaker means 170 are included.

또한, 상기 폭행상황 검출시스템(100)의 각 모듈들은 프로그래밍되어 컴퓨터의 저장매체에 저장되어 기능을 수행한다.In addition, each module of the assault situation detection system 100 is programmed and stored in a storage medium of a computer to perform a function.

또한, 상기 폭행상황 검출시스템(100)의 각 구성요소의 기능들은 도 7을 참조하여 설명하기로 한다.In addition, the functions of each component of the assault situation detection system 100 will be described with reference to FIG. 7.

도 7을 참조하면, 본 발명의 일 실시예에 따른 폭행상황 검출방법은 먼저, 상기 배경삭제모듈(110)이 CCTV(10)로부터 실시간으로 영상들을 입력받아, 현재 입력된 영상인 현재 프레임 영상(11) 중 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들(11a,11b)을 검출한다(S1000).Referring to FIG. 7, in the assault situation detection method according to an embodiment of the present invention, first, the background deletion module 110 receives images in real time from the CCTV 10, and displays a current frame image that is a currently input image ( 11, the background without motion is deleted, and the human objects 11a and 11b of the moving objects are detected (S1000).

도 2를 참조하여 더욱 자세하게 설명하면, 먼저 상기 배경삭제모듈(110)은 가우시안 믹스쳐 모델(GMM:Gaussian Mixture Model)을 이용하여 상기 현재 프레임 영상(11) 중 움직임이 없는 배경은 삭제하고 상기 움직이는 객체들을 검출한다. 다음, 미디언 필터링(Median filtering) 및 마스크 연산(Masking)을 통해 상기 움직이는 객체들의 영상잡음을 제거하며, 상기 각각의 움직이는 객체들을 포함하는 사람객체박스들(11a',11b')을 생성하여 상기 사람객체박스들(11a',11b')의 영상을 분석하고, 상기 움직이는 객체들이 각각 사람객체(11a,11b)인지 판단한다.Referring to FIG. 2, the background deleting module 110 deletes the background of the current frame image 11 without moving using the Gaussian Mixture Model (GMM). Detect objects Next, image noise of the moving objects is removed through median filtering and masking, and the human object boxes 11a 'and 11b' including the respective moving objects are generated to generate the image noise. The images of the human object boxes 11a 'and 11b' are analyzed and it is determined whether the moving objects are the human objects 11a and 11b, respectively.

또한, 상기 사람객체(11a,11b)의 판단방법은 먼저, 상기 각 사람객체박스(11a',11b')의 영상 히스토그램(Image histogram)을 계산하고, 다음, 계산된 각 사람객체박스(11a',11b')의 영상 히스토그램과 일반적인 사람의 표본인 사람객체표본이 갖는 영상 히스토그램의 유사성을 비교하여 상기 각 사람객체박스(11a',11b') 내의 움직이는 객체가 사람객체(11a,11b)인지 판단한다.In addition, the method of determining the human objects (11a, 11b), first calculates the image histogram (image histogram) of each of the human object boxes (11a ', 11b'), and then calculated each human object box (11a '). 11b ') and the image histogram of a sample of a human object, which is a sample of a general person, to determine whether a moving object in each of the human object boxes 11a' and 11b 'is a human object 11a or 11b. do.

또한, 상기 영상 히스토그램을 이용하여 사람객체(11a,11b)로 판단된 각 사람객체박스(11a',11b')의 가로(x) 및 세로(y)의 비율을 계산하여 일반적인 사람객체표본이 갖는 가로(x) 및 세로(y)의 비율과 비교하여 유사성을 판단한 후 상기 움직이는 객체가 진정한 사람객체(11a,11b)인지 판단한다.Also, by using the image histogram, a ratio of the horizontal (x) and the vertical (y) of each of the human object boxes 11a 'and 11b' determined as the human objects 11a and 11b is calculated to have a general human object sample. The similarity is determined by comparing the ratio of the width (x) and the length (y), and then the moving object is determined whether the moving object is a real human object (11a, 11b).

즉, 상기 현재 프레임 영상(11)에서 상기 사람객체를 검출하는 단계(S1000)는 상기 각 사람객체박스(11a',11b') 영상 히스토그램 및 가로 및 세로비율을 복합적으로 이용하여 움직이는 객체 중 사람객체(11a,11b)만을 정확하게 판단해낼 수 있다.That is, in the detecting of the human object in the current frame image 11 (S1000), the human object among the moving objects using the histogram and the horizontal and vertical ratios of each of the human object boxes 11a 'and 11b' are combined. Only (11a, 11b) can be judged correctly.

다음, 상기 객체추적모듈(120)은 상기 각 사람객체박스(11a',11b') 중에서 상기 각 사람객체(11a,11b)의 머리영역을 포함하는 머리추적박스(121a,121b)를 생성한다(S2000).Next, the object tracking module 120 generates the head tracking boxes 121a and 121b including the head regions of the human objects 11a and 11b among the human object boxes 11a 'and 11b' ( S2000).

또한, 상기 머리추적박스들(121a,121b)은 상기 각 사람객체박스(11a',11b')를 y축으로 삼등분하여 세 개의 박스로 분할한 후, 상기 세 개의 박스들 중 최상위 박스의 y축 히스토그램을 구하여 그 값의 도함수의 최고점, 즉, y축 상에서 객체의 폭이 가장 좁은 좌표를 상기 각 사람객체(11a,11b)의 목 좌표로 설정하고, 상기 목 좌표로부터 상기 각 사람객체(11a,11b)의 최상위 좌표까지의 영역으로 생성된다.In addition, the head tracking boxes 121a and 121b divide the human object boxes 11a 'and 11b' into three boxes by dividing the human object boxes 11a 'and 11b' into three boxes and then y-axis the highest box among the three boxes. A histogram is obtained and the highest point of the derivative of the value, that is, the narrowest coordinate of the object on the y-axis is set as the neck coordinate of each of the human objects 11a and 11b, and the respective human objects 11a, The area up to the highest coordinate of 11b) is generated.

여기서 상기 사람객체박스들(11a',11b') 중 상기 머리추적박스들(121a,121b)을 생성하여 추적하는 이유는 사람의 머리영역은 각 프레임 영상들(11-2,11-1,11,11+1)에서 변화가 가장 작게 일어나는 부분이므로, 추적이 쉽고 추적의 정확도도 높기 때문이다.Here, the reason for generating and tracking the head tracking boxes 121a and 121b among the human object boxes 11a 'and 11b' is that the head region of the human body is each of the frame images 11-2, 11-1, and 11b. (11 + 1) is the smallest change, so tracking is easy and tracking accuracy is high.

또한, 상기 머리추적박스들(121a,121b)은 각각 RGB데이터와 중심좌표(H1,H2)로 캐쉬메모리(도시하지 않음)에 저장된다.In addition, the head tracking boxes 121a and 121b are stored in a cache memory (not shown) as RGB data and center coordinates H 1 and H 2 , respectively.

다음, 상기 객체추적모듈(120)은 상기 머리추적박스들(121a,121b)이 서로 일정한 거리에 위치하는지 판단하여 상기 머리추적박스들(121a,121b)이 일정한 거리 내에 위치할 경우 상기 현재 프레임 영상(11)을 폭행 후보 영상으로 선정한다(S3000).Next, the object tracking module 120 determines whether the head tracking boxes 121a and 121b are located at a constant distance from each other, and the current frame image when the head tracking boxes 121a and 121b are located within a predetermined distance. 11 is selected as the assault candidate image (S3000).

도 3 및 도 4를 참조하면, 상기 객체추적모듈(120)은 상기 현재 프레임 영상(11) 내의 각 머리추적박스들(121a,121b)을 포함한 일정한 영역을 갖는 후보영상 검출영역들(122a,122b)을 설정하고, 상기 현재 프레임 영상(11) 내의 후보영상 검출영역들(122a,122b)이 서로 교차하면, 상기 현재 프레임 영상(11)을 상기 폭행 후보 영상으로 선정한다.3 and 4, the object tracking module 120 includes candidate image detection areas 122a and 122b having a predetermined area including respective head tracking boxes 121a and 121b in the current frame image 11. ), And if the candidate image detection regions 122a and 122b of the current frame image 11 intersect with each other, the current frame image 11 is selected as the assault candidate image.

다시 말해서, 상기 각 머리추적박스들(121a,121b)의 중심좌표들(H1,H2)이 서로 일정한 거리에 위치하면 상기 현재 프레임 영상(11)을 상기 폭행 후보 영상으로 선정하게 되는 것이다.In other words, when the center coordinates H 1 and H 2 of the head tracking boxes 121a and 121b are located at a constant distance from each other, the current frame image 11 is selected as the assault candidate image.

또한, 상기 후보영상 검출영역들(122a,122b)의 영역범위는 감시자의 요구에 따라 조절이 가능하며, 영역범위를 크게 할 경우 검출의 감도가 높으나 폭행상황 검출에 계산량이 많아지고, 영역범위를 작게 할 경우 검출의 감도는 낮으나 계산량이 적어지게 되므로 선택적으로 조절할 수 있다.In addition, the area range of the candidate image detection areas 122a and 122b can be adjusted according to the supervisor's request. When the area range is increased, the detection sensitivity is high, but the calculation amount is increased for the detection of the assault situation, and the area range is increased. If it is made small, the sensitivity of detection is low, but the amount of calculation becomes small.

또한, 상기 후보영상 검출영역들(122a,122b)은 사각형의 영역으로 도시하였 으나 원형의 영역으로 선정될 수도 있다.In addition, although the candidate image detection regions 122a and 122b are illustrated as rectangular regions, the candidate image detection regions 122a and 122b may be selected as circular regions.

다음, 상기 객체추적모듈(120)은 상기 머리추적박스들(121a,121b) 각각의 RGB데이터와 중심좌표(H1,H2)를 이용하여 상기 현재 프레임 영상(11)의 이전 프레임 영상들(11-1)(11-2) 각각의 중심좌표들(H1-1,H2-1)(H1-2,H2-2)을 구한다.Next, the object tracking module 120 uses the RGB data of each of the head tracking boxes 121a and 121b and the center coordinates H 1 and H 2 to display previous frame images of the current frame image 11. 11-1) (11-2) is obtained for each of the coordinates (H 1 -1, H 2 -1 ) (H 1 -2, H 2 -2).

이때, 상기 각 프레임 영상(11)(11-1)(11-2) 간의 머리추적박스들의 동일성은 상기 RGB데이터의 유사성과 상기 중심좌표들(H1,H2)(H1-1,H2-1)(H1-2,H2-2)의 거리를 이용하여 판단되며, 상기 RGB데이터가 서로 다르거나 상기 각 프레임 영상(11)(11-1)(11-2) 내의 동일한 중심좌표들(H1,H2)(H1-1,H2-1)(H1-2,H2-2)이 갑자기 멀어질 경우 동일성이 서로 낮은 것으로 판단하여 배경으로 처리된다.In this case, the identity of the head tracking boxes between the frame images 11, 11-1, and 11-2 is similar to the RGB data and the center coordinates H 1 , H 2 (H 1 -1, H). 2-1) in the same center (1 H -2, is determined by the distance H 2 -2), the RGB data is different from each other and each of the frame images 11 (11-1) (11-2) If the coordinates (H 1, H 2) ( H 1 -1, H 2 -1) (H 1 -2, H 2 -2) the quality suddenly away from each other, it is determined that this low identity is treated as a background.

다음, 상기 객체추적모듈(120)은 상기 이전 프레임 영상들(11-1,11-2)부터 상기 현재 프레임 영상(11)까지 상기 현재 프레임 영상(11)의 중심좌표(H1,H2)가 이동한 이동궤적을 이용하여 상기 각 중심좌표(H1,H2)의 움직임벡터인 제1머리이동벡터들(V1',V1")을 계산한다.Next, the object tracking module 120 coordinates the center coordinates H 1 and H 2 of the current frame image 11 from the previous frame images 11-1 and 11-2 to the current frame image 11. The first head movement vectors V 1 ′, V 1 ″, which are the motion vectors of the respective center coordinates H 1 and H 2 , are calculated using the movement trajectory.

즉, 상기 제1머리이동벡터들(V1',V1")은 하나의 사람객체가 과거에서부터 현재까지 이동한 움직임벡터로써, 폭행상황이 발생하기 이전의 움직임정보를 제공한다.That is, the first head movement vectors V 1 ′ and V 1 ″ are motion vectors obtained by moving one human object from the past to the present, and provide motion information before an assault situation occurs.

또한, 상기 제1머리이동벡터들(V1',V1")은 각각 x-y평면에서 이동한 방향에 관한 정보인 각도정보와, 얼마나 빨리 이동했는지에 관한 정보인 가속도정보를 포함한다.In addition, the first head movement vectors V 1 ′ and V 1 ″ each include angle information, which is information about a direction of movement in the xy plane, and acceleration information, which is information about how quickly it moves.

다음, 상기 객체추적모듈(120)은 상기 현재 프레임 영상(11)의 다음 프레임 영상(11+1) 내의 각 중심좌표들(H1+1,H2+1)을 추출하고, 상기 현재 프레임 영상(11)의 각 중심좌표(H1,H2)가 상기 다음 프레임 영상(11+1)에서 이동한 움직임벡터인 제2머리이동벡터들(V1'+1,V1"+1)를 도출한다(S4000a).Next, the object tracking module 120 extracts each of the center coordinates H 1 + 1 and H 2 + 1 in the next frame image 11 + 1 of the current frame image 11, and the current frame image. Each of the center coordinates (H 1 , H 2 ) of (11) represents second head movement vectors V 1 '+ 1, V 1 "+1, which are motion vectors moved in the next frame image 11 + 1. Derived (S4000a).

또한, 상기 각 제2머리이동벡터들(V1'+1,V1"+1) 역시 상기 제1머리이동벡터들(V1',V1")과 마찬가지로 각각 각도정보와 가속도정보를 포함한다.Also, the second head movement vectors V 1 '+ 1, V 1 "+1 also include angle information and acceleration information, respectively, like the first head movement vectors V 1 ', V 1 ". do.

다음, 상기 각 제2머리이동벡터들(V1'+1,V1"+1)과 상기 각 제1머리이동벡터들(V1',V1")의 각도차인 제1각도차(θ1',θ1") 및 상기 각 제2머리이동벡터들(V1'+1,V1"+1)의 가속도정보를 이용하여, 상기 현재 프레임 영상(11)의 각 중심좌표(H1,H2)와 상기 다음 프레임 영상(11+1)의 각 중심좌표(H1+1,H2+1) 간의 움직임벡터인 제1변화벡터들(V1)을 도출한다(S4000b).Next, a first angle difference θ that is an angle difference between the second head movement vectors V 1 '+ 1, V 1 "+1) and the first head movement vectors V 1 ', V 1 ". 1 ', θ 1 ″ and acceleration information of each of the second head movement vectors V 1 ′ +1 and V 1 ″ +1, respectively, for each center coordinate H 1 of the current frame image 11. H 2 ) and first change vectors V 1 , which are motion vectors between the center coordinates H 1 +1 and H 2 +1 of the next frame image 11 + 1 , are derived (S4000b).

또한, 상기 각 제1변화벡터들(V1)은 아래의 수학식 3에 의해 도출된다.In addition, each of the first change vectors V 1 is derived by Equation 3 below.

Figure 112009039608087-pat00003
Figure 112009039608087-pat00003

여기서, V1은 상기 제1변화벡터, θ1은 상기 제1각도차, α1은 상기 각 제2머리이동벡터(V1'+1,V1"+1)의 가속도정보이다.Here, V 1 is the first change vector, θ 1 is the first angular difference, α 1 is acceleration information of each of the second head moving vector (V 1 '+ 1, V 1 "+ 1).

즉, 상기 제1변화벡터(V1)는 상기 다음 프레임 영상(11+1) 내의 각각의 중심좌표(H1+1,H2+1)에 대해 도출된다.That is, the first change vector V 1 is derived for each center coordinate H 1 +1, H 2 +1 in the next frame image 11 + 1.

한편, 상기 다음 프레임 영상(11+1)의 그 다음 프레임 영상(11+2)의 각 제1변화벡터들(V1)은 상기 다음 프레임 영상(11+1)의 제1각도차(θ1',θ1")와 상기 그 다음 프레임 영상(11+2)의 제1각도차의 변화량 및 상기 다음 프레임 영상(11+1)의 가속도정보(α1)와 상기 그 다음 프레임 영상(11+2)의 가속도정보의 변화량에 의해 도출된다.Meanwhile, each of the first change vectors V 1 of the next frame image 11 + 2 of the next frame image 11 + 1 is a first angle difference θ 1 of the next frame image 11 + 1. ', θ 1 ′) and the change amount of the first angular difference between the next frame image 11 + 2 and the acceleration information α 1 of the next frame image 11 + 1 and the next frame image 11+. It is derived by the amount of change of acceleration information in 2).

따라서, 상기 그 다음 프레임 영상(11+2)부터의 제1변화벡터들(V1)은 아래의 수학식 4에 의해 도출된다.Therefore, the first change vectors V 1 from the next frame image 11 + 2 are derived by Equation 4 below.

Figure 112009039608087-pat00004
Figure 112009039608087-pat00004

여기서, 상기 △θ1은 상기 다음 프레임 영상(11+1)의 제1각도차(θ1',θ1") 및 상기 그 다음 프레임 영상(11+2)의 제1각도차의 변화량이고, 상기 △α1은 상기 다음 프레임 영상(11+1) 및 상기 그 다음 프레임 영상(11+1)의 제2머리이동벡터들의 가속도정보의 변화량이다.Here, Δθ 1 is a change amount of a first angle difference θ 1 ', θ 1 ″ of the next frame image 11 + 1 and a first angle difference of the next frame image 11 + 2, Δα 1 is a change amount of acceleration information of second head movement vectors of the next frame image 11 + 1 and the next frame image 11 + 1.

다음, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터들(V1)을 분석하여 상기 다음 프레임 영상(11+1)이 폭행상황인지 아닌지 판단한다(S5000).Next, the assault situation determination module 140 analyzes the first change vectors V 1 to determine whether the next frame image 11 + 1 is an assault situation (S5000).

더욱 자세하게는 상기 폭행상황 판단모듈(140)은 상기 다음 프레임 영상(11+1) 내의 각각의 중심좌표(H1+1,H2+1)에 대한 제1변화벡터들(V1) 중 어느 하나의 제1변화벡터(V1)의 값이 40 내지 100 사이의 일정한 값일 경우, 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단한다.In more detail, the assault situation determination module 140 may determine which of the first change vectors V 1 for each center coordinate H 1 + 1, H 2 + 1 in the next frame image 11 + 1. When the value of one first change vector V 1 is a constant value between 40 and 100, the next frame image 11 + 1 is determined as an assault situation.

참고로, 상기 사람객체(11a,11b)가 이동할 경우 상기 제1변화벡터(V1)는 10 내지 30의 값을 갖는다.For reference, when the human objects 11a and 11b move, the first change vector V 1 has a value of 10 to 30.

즉, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1)의 값이 갑자기 커질 경우 폭행상황으로 판단하는 것이다.That is, the assault situation determination module 140 determines the assault situation when the value of the first change vector V 1 suddenly increases.

다음, 상기 폭행상황 알람모듈(150)은 상기 다음 프레임 영상(11+1)이 폭행상황으로 판단될 경우, 영상 메시지 및 음성 메시지를 생성하여 각각 디스플레이수단(160) 및 스피커 수단(170)으로 출력해준다.Next, when it is determined that the next frame image 11 + 1 is an assault situation, the assault situation alarm module 150 generates a video message and an audio message and outputs the same to the display means 160 and the speaker means 170, respectively. Do it.

예들 들면, 상기 영상 메시지는 상기 CCTV(10)로부터 입력되는 프레임 영상들에 붉은색 영상을 주기적으로 오버랩하는 방법을 사용할 수 있고, 상기 음성 메시지는 사이렌음성과 같은 경보 음성일 수 있다.For example, the video message may use a method of periodically overlapping a red image with frame images input from the CCTV 10, and the voice message may be an alarm voice such as a siren voice.

그러나 상기 폭행상황 알람모듈(150)은 SMS(Short Message Service:단문메시지서비스)나 MMS(Multimedia Messaging Service:멀티미디어메시지서비스)를 이용하 여 감시자의 휴대전화 등으로 폭행상황 발생을 알려 줄 수도 있다.However, the assault situation alarm module 150 may notify the occurrence of the assault situation to the watcher's mobile phone using a short message service (SMS) or a multimedia messaging service (MMS).

한편, 도 6을 참조하면, 상기 객체추적모듈(120)은 상기 현재 프레임 영상(11)이 폭행 후보 영상으로 선정되면, 상기 현재 프레임 영상(11) 내의 중심좌표(H1,H2)들 간의 위치벡터인 제1머리위치벡터(V2')를 더 도출한다.Meanwhile, referring to FIG. 6, when the current frame image 11 is selected as an assault candidate image, the object tracking module 120 selects between center coordinates H 1 and H 2 in the current frame image 11. A first head position vector V 2 ′, which is a position vector, is further derived.

또한, 상기 제1머리위치벡터(V2')의 도출은 상기 제1변화벡터(V1)의 도출 후에 도출될 수도 있으며, 상기 제1변화벡터(V1)의 도출과 동시에 이루어질 수 있다.In addition, the first derivation of the head position vector (V 2 ') may be formed at the same time and derivation of the first change vector (V 1) of the first change vector (V 1) may be, derived after deriving the.

다음, 상기 객체추적모듈(120)은 다음 프레임 영상(11+1) 내의 중심좌표들(H1+1,H2+1) 간의 위치벡터인 제2머리위치벡터(V2")를 도출한다(S4000c).Next, the object tracking module 120 derives a second head position vector V 2 ″, which is a position vector between the center coordinates H 1 + 1 and H 2 + 1 in the next frame image 11 + 1. (S4000c).

다음, 상기 객체추적모듈(120)은 상기 제1머리위치벡터(V2')와 상기 제2머리위치벡터(V2")의 변화벡터인 제2변화벡터(V2)를 도출한다.Next, the object tracking module 120 derives a second change vector V 2 , which is a change vector of the first head position vector V 2 ′ and the second head position vector V 2 ″.

더욱 자세하게는 상기 제2변화벡터(V2)는 상기 제1머리위치벡터(V2')와 상기 제2머리위치벡터(V2")를 비교하여 상기 머리위치벡터들(V2',V2") 간의 각도차인 제2각도차(θ2)를 계산하고, 상기 제2각도차(θ2)와 상기 제2머리위치벡터의 가속도정보를 이용하여(α2) 상기 제2변화벡터(V2)를 도출한다(S4000d).More specifically, the second change vector V 2 compares the first head position vector V 2 ′ and the second head position vector V 2 ″ to compare the head position vectors V 2 ′, V. 2 ") an angle a difference between the second angle difference (θ 2) by using the acceleration information of the second angle difference (θ 2) and the second head position vector calculation, and the (α 2), the second change between vector ( V 2 ) is derived (S4000d).

또한, 상기 제2변화벡터(V2)는 아래의 수학식 4에 의해 도출된다.In addition, the second change vector V 2 is derived by Equation 4 below.

Figure 112009039608087-pat00005
Figure 112009039608087-pat00005

여기서, V2은 상기 제2변화벡터, θ2은 상기 제2각도차, α2은 상기 제2머리위치벡터(V2")의 가속도정보이다.Here, V 2 is the second change vector, θ 2 is the second angle difference, α 2 is the acceleration information of the second head position vector (V 2 ").

한편, 상기 그 다음 프레임 영상(11+2)의 제2변화벡터(V2)는 상기 다음 프레임 영상(11+1)의 제2각도차(θ2)와 상기 그 다음 프레임 영상(11+2)의 제2각도차(θ2)의 변화량 및 상기 다음 프레임 영상(11+1)의 제2머리위치벡터(V2")의 가속도정보(α1)와 상기 그 다음 프레임 영상(11+2)의 제2머리위치벡터(V2"')의 가속도정보의 변화량에 의해 도출된다.Meanwhile, the second change vector V 2 of the next frame image 11 + 2 is the second angle difference θ 2 of the next frame image 11 + 1 and the next frame image 11 + 2. Change amount of the second angle difference θ 2 and acceleration information α 1 of the second head position vector V 2 ″ of the next frame image 11 + 1 and the next frame image 11 + 2. Is derived from the amount of change in the acceleration information of the second head position vector V 2 ′ '.

따라서, 상기 그 다음 프레임 영상(11+2)부터의 제2변화벡터들(V2)은 아래의 수학식 6에 의해 도출된다.Therefore, the second change vectors V 2 from the next frame image 11 + 2 are derived by Equation 6 below.

Figure 112009039608087-pat00006
Figure 112009039608087-pat00006

여기서, 여기서, 상기 △θ2은 상기 다음 프레임 영상(11+1)과 상기 그 다음 프레임 영상(11+2)의 제2각도차 간의 변화량이고, 상기 △α2은 상기 다음 프레임 영상(11+1)과 상기 그 다음 프레임 영상(11+2)의 제2변화벡터들(V2) 간의 가속도정 보(α2)의 변화량이다.Here, Δθ 2 is a change amount between the second angular difference between the next frame image 11 + 1 and the next frame image 11 + 2, and Δα 2 is the next frame image 11+. The change amount of the acceleration information α 2 between 1) and the second change vectors V 2 of the next frame image 11 + 2.

즉, 상기 제1변화벡터(V1)는 하나의 중심좌표가 여러 프레임 영상에서 이동한 움직임정보에 의해 도출되고, 상기 제2변화벡터(V2)는 하나의 프레임 영상의 여러 중심좌표들 간의 거리 정보에 의해 도출되는 것이다.That is, the first change vector (V 1 ) is derived by motion information in which one center coordinate is moved in several frame images, and the second change vector (V 2 ) is between several center coordinates of one frame image. It is derived from the distance information.

또한, 상기 폭행상황 판단모듈(140)은 상기 제2변화벡터(V2)의 값이 일정한 값으로 계산될 경우 상기 다음 프레임 영상(11+1)을 폭행상황이 발생한 것으로 판단한다.In addition, the assault situation determination module 140 determines that the assault situation occurs in the next frame image 11 + 1 when the value of the second change vector V 2 is calculated to be a constant value.

즉, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1)와 제2변화벡터(V2)가 모두 폭행상황으로 판단될 경우 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단하는 것이다.That is, the assault situation determination module 140 determines that the next frame image 11 + 1 is an assault situation when both the first change vector V 1 and the second change vector V 2 are determined to be an assault situation. To judge.

그러나, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1)와 제2변화벡터(V2) 중 어느 하나의 벡터만이 폭행상황으로 판단되더라도 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단할 수 있다.However, the assault situation determination module 140 may determine the next frame image 11 + 1 even if only one vector of the first change vector V 1 and the second change vector V 2 is determined as the assault situation. Can be judged as an assault situation.

또 한편, 상기 음성분석모듈(130)은 상기 CCTV(10)로부터 상기 현재 프레임 영상(11) 또는 상기 다음 프레임 영상(11+1)의 음성정보를 입력받고, 상기 음성정보가 폭행음성인지 아닌지 판단한다(S4000e).In addition, the voice analysis module 130 receives voice information of the current frame image 11 or the next frame image 11 + 1 from the CCTV 10 and determines whether the voice information is an assault voice. (S4000e).

또한, 상기 폭행음성의 판단은 상기 제1변화벡터(V1)와 제2변화벡터(V2)의 도출과정 이후에 이루어질 수도 있고, 상기 제1변화벡터(V1)와 제2변화벡터(V2)의 도출과정과 동시에 이루어질 수 있다.In addition, the determination of the assault sound may be made after the derivation process of the first change vector V 1 and the second change vector V 2 , or the first change vector V 1 and the second change vector V. It can be done simultaneously with the derivation process of V 2 ).

예를 들면, 상기 음성분석모듈(130)은 상기 음성정보가 일정한 범위 내의 데시벨(dB) 값일 경우 상기 음성정보를 폭행음성으로 판단할 수 있고, 상기 음성정보의 음절정보가 "살려줘" 등의 폭행상황에서 발생하는 음절일 경우, 상기 음성정보를 폭생상황으로 판단할 수 있다.For example, the voice analysis module 130 may determine the voice information as an assault voice when the voice information has a decibel (dB) value within a predetermined range, and the assault information such as “save” the syllable information of the voice information. In the case of syllables occurring in a situation, the voice information may be determined to be a flood situation.

즉, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1), 상기 제2변화벡터(V2) 및 상기 음성정보가 모두 폭행상황으로 판단될 경우 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단하는 것이다.That is, the assault situation determination module 140 determines the next frame image 11 + 1 when the first change vector V 1 , the second change vector V 2 , and the audio information are all determined to be an assault situation. ) Is judged as an assault situation.

그러나 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1), 상기 제2변화벡터(V2) 및 상기 음성정보 중 어느 하나가 폭행상황으로 판단될 경우, 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단할 수도 있다.However, when the assault situation determination module 140 determines that any one of the first change vector V 1 , the second change vector V 2 , and the voice information is an assault situation, the next frame image 11 You can also judge +1) as an assault situation.

따라서, 상기 CCTV의 영상정보 및 음성정보를 복합적으로 이용하여 폭행상황을 정확하게 검출할 수 있는 효과가 있다.Therefore, the assault situation can be accurately detected by using the video and audio information of the CCTV in combination.

이상에서 살펴본 바와 같이 본 발명은 바람직한 실시예를 들어 도시하고 설명하였으나, 상기한 실시예에 한정되지 아니하며 본 발명의 정신을 벗어나지 않는 범위 내에서 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양 한 변경과 수정이 가능할 것이다.As described above, the present invention has been illustrated and described with reference to preferred embodiments, but is not limited to the above-described embodiments, and is provided to those skilled in the art without departing from the spirit of the present invention. Various changes and modifications will be possible.

도 1은 본 발명의 일 실시예에 따른 폭행상황 검출방법을 수행하기 위한 폭행상황 검출시스템을 보여주는 도면, 1 is a view showing an assault situation detection system for performing an assault situation detection method according to an embodiment of the present invention;

도 2는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리추적박스를 설명하기 위한 도면, 2 is a view for explaining the head tracking box of the assault situation detection method according to an embodiment of the present invention,

도 3은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 프레임 영상들을 보여주는 도면, 3 is a view showing frame images of an assault situation detection method according to an embodiment of the present invention;

도 4는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 폭행 후보 영상 선정방법을 설명하기 위한 도면, 4 is a view for explaining a method for selecting an assault candidate image of the assault situation detection method according to an embodiment of the present invention;

도 5는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리이동벡터를 설명하기 위한 도면, 5 is a view for explaining the head movement vector of the assault situation detection method according to an embodiment of the present invention,

도 6은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리위치벡터를 설명하기 위한 도면, 6 is a view for explaining the head position vector of the assault situation detection method according to an embodiment of the present invention;

도 7은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 흐름도이다.7 is a flowchart illustrating a method of detecting an assault situation according to an embodiment of the present invention.

본 발명에 따른 도면들에서 실질적으로 동일한 구성과 기능을 가진 구성요소들에 대하여는 동일한 참조부호를 사용한다.In the drawings according to the present invention, the same reference numerals are used for components having substantially the same configuration and function.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

100:폭행상황 검출 시스템 110:배경삭제모듈100: assault situation detection system 110: background deletion module

120:객체추적모듈 130:음성분석모듈120: object tracking module 130: voice analysis module

140:폭행상황 판단모듈 150:폭행상황 알람모듈140: assault situation determination module 150: assault situation alarm module

160:디스플레이 수단 170:스피커 수단160: display means 170: speaker means

11-2,11-1,11,11+1,11+2:프레임 영상 11a,11b:사람객체11-2, 11-1, 11, 11 + 1, 11 + 2: Frame video 11a, 11b: Human object

11a',11b':사람객체박스 121a,121b:머리추적박스11a ', 11b': Person Object Box 121a, 121b: Head Tracking Box

Claims (13)

현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;A first step of receiving a current frame image and deleting a background having no movement and detecting human objects among moving objects; 상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;A second step of generating head tracking boxes including head areas of the respective human objects; 상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;A third step of selecting the current frame image as an assault candidate image when the center coordinates of the head tracking boxes are located within a predetermined distance from each other; 이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;Obtaining first head movement vectors, which are motion vectors of the head tracking boxes, from previous frame images to the current frame image; 상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계; 및A fifth step of obtaining second head movement vectors, which are motion vectors of the head tracking boxes, from the current frame image to a next frame image; And 상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계;를 포함하고,Comparing the first head movement vector and the second head movement vector, a first angle difference, which is an angular difference between the head movement vectors, is calculated, and acceleration information of the first angle difference and the second head movement vector is used. And a sixth step of deciding a first change vector and determining an assault situation when the value of the first change vector changes to a value within a predetermined range. 상기 제1단계는, The first step, 상기 움직이는 객체를 포함하는 사람객체박스를 생성하고, 상기 사람객체박스의 히스토그램을 구하여 사람객체표본의 히스토그램과 비교함으로써, 상기 움직이는 객체가 사람객체인지 판단하는 것을 특징으로 하는 폭행상황 검출방법.Generating a human object box including the moving object, obtaining a histogram of the human object box, and comparing it with a histogram of a sample of the human object to determine whether the moving object is a human object. 제 1 항에 있어서,The method of claim 1, 상기 제3단계 이후, 상기 제6단계 이전에,After the third step and before the sixth step, 상기 현재 프레임 영상 내의 머리추적박스들 간의 위치벡터인 제1머리위치벡터를 구하는 제3-1단계; 및Obtaining a first head position vector which is a position vector between the head tracking boxes in the current frame image; And 상기 다음 프레임 영상에서 상기 머리추적박스들 간의 위치벡터인 제2머리위치벡터를 구하는 제3-2단계;를 더 포함하고,And calculating a second head position vector, which is a position vector between the head tracking boxes, in the next frame image. 상기 제6단계는 상기 제1머리위치벡터와 상기 제2머리위치벡터를 비교하여 상기 머리위치벡터들 간의 각도차인 제2각도차를 계산하고, 상기 제2각도차와 상기 제2머리위치벡터의 가속도정보를 이용하여 제2변화벡터를 도출한 후, 상기 제2변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 상기 폭행상황으로 판단하는 것을 특징으로 하는 폭행상황 검출방법.The sixth step may be performed by comparing the first head position vector and the second head position vector to calculate a second angle difference that is an angle difference between the head position vectors, and comparing the second head position vector with the second head position vector. After deriving the second change vector using the acceleration information, if the value of the second change vector changes to a value within a predetermined range assault situation detection method characterized in that it is determined as the assault situation. 삭제delete 제 1 항 또는 제 2 항에 있어서,The method according to claim 1 or 2, 상기 제1단계:는 The first step: 가우시안 믹스쳐 모델(Gaussian Mixture Model)을 이용하여 상기 현재 프레임 영상의 배경을 제거하고 상기 움직이는 객체를 검출하는 제1-1단계; 및A step 1-1 of removing a background of the current frame image and detecting the moving object by using a Gaussian Mixture Model; And 미디언 필터링(Median Filtering) 및 마스크 연산(Masking)을 이용하여 상기 움직이는 객체의 영상잡음을 제거하는 제1-2단계;를 포함하는 것을 특징으로 하는 폭행상황 검출방법.And a first to second step of removing image noise of the moving object by using median filtering and masking. 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;A first step of receiving a current frame image and deleting a background having no movement and detecting human objects among moving objects; 상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;A second step of generating head tracking boxes including head areas of the respective human objects; 상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;A third step of selecting the current frame image as an assault candidate image when the center coordinates of the head tracking boxes are located within a predetermined distance from each other; 이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;Obtaining first head movement vectors, which are motion vectors of the head tracking boxes, from previous frame images to the current frame image; 상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계; 및A fifth step of obtaining second head movement vectors, which are motion vectors of the head tracking boxes, from the current frame image to a next frame image; And 상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계;를 포함하고,Comparing the first head movement vector and the second head movement vector, a first angle difference, which is an angular difference between the head movement vectors, is calculated, and acceleration information of the first angle difference and the second head movement vector is used. And a sixth step of deciding a first change vector and determining an assault situation when the value of the first change vector changes to a value within a predetermined range. 상기 제1단계는, The first step, 상기 움직이는 객체를 포함하는 사람객체박스를 생성하고, 상기 사람객체박스의 가로 및 세로의 비율을 이용하여 상기 움직이는 객체가 상기 사람객체인지 판단하는 것을 특징으로 하는 폭행상황 검출방법.Generating a human object box including the moving object, and determining whether the moving object is the human object by using a ratio between the width and the length of the human object box. 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;A first step of receiving a current frame image and deleting a background having no movement and detecting human objects among moving objects; 상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;A second step of generating head tracking boxes including head areas of the respective human objects; 상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;A third step of selecting the current frame image as an assault candidate image when the center coordinates of the head tracking boxes are located within a predetermined distance from each other; 이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;Obtaining first head movement vectors, which are motion vectors of the head tracking boxes, from previous frame images to the current frame image; 상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계; 및A fifth step of obtaining second head movement vectors, which are motion vectors of the head tracking boxes, from the current frame image to a next frame image; And 상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계;를 포함하고,Comparing the first head movement vector and the second head movement vector, a first angle difference, which is an angular difference between the head movement vectors, is calculated, and acceleration information of the first angle difference and the second head movement vector is used. And a sixth step of deciding a first change vector and determining an assault situation when the value of the first change vector changes to a value within a predetermined range. 상기 제2단계는 상기 각 사람객체를 Y축으로 삼등분하여 세 개의 박스로 분할하고, 상기 세 개의 박스들 중 최상위 박스의 Y축 히스토그램을 구하여 그 값의 도함수의 최고점을 사람의 목 좌표로 설정하고, 상기 목 좌표로부터 상기 사람객체의 최상위 좌표까지를 상기 머리영역으로 판단하여 상기 머리추적박스들을 생성하는 것을 특징으로 하는 폭행상황 검출방법.In the second step, each human object is divided into three boxes by dividing the human object into Y-axis, and the Y-axis histogram of the highest box among the three boxes is obtained, and the highest point of the derivative of the value is set as the human neck coordinate. And determining the head tracking box from the neck coordinate to the highest coordinate of the human object as the head region to generate the head tracking boxes. 제 1 항, 제 5 항 또는 제 6 항에 있어서,The method according to claim 1, 5 or 6, 상기 제3단계는 상기 각 머리추적박스들을 포함하는 후보영상검출영역을 설정하고, 상기 각 후보영상검출영역이 서로 교차할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 것을 특징으로 하는 폭행상황 검출방법.In the third step, a candidate image detection region including the head tracking boxes is set, and when the candidate image detection regions cross each other, the assault situation is characterized in that the current frame image is selected as an assault candidate image. Detection method. 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;A first step of receiving a current frame image and deleting a background having no movement and detecting human objects among moving objects; 상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;A second step of generating head tracking boxes including head areas of the respective human objects; 상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;A third step of selecting the current frame image as an assault candidate image when the center coordinates of the head tracking boxes are located within a predetermined distance from each other; 이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;Obtaining first head movement vectors, which are motion vectors of the head tracking boxes, from previous frame images to the current frame image; 상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계; 및A fifth step of obtaining second head movement vectors, which are motion vectors of the head tracking boxes, from the current frame image to a next frame image; And 상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계;를 포함하고,Comparing the first head movement vector and the second head movement vector, a first angle difference, which is an angular difference between the head movement vectors, is calculated, and acceleration information of the first angle difference and the second head movement vector is used. And a sixth step of deciding a first change vector and determining an assault situation when the value of the first change vector changes to a value within a predetermined range. 상기 제1 및 제2머리이동벡터들과 상기 제1 및 제2머리위치벡터들은 상기 각 머리추적박스의 중심좌표의 움직임벡터로 계산되는 것을 특징으로 하는 폭행상황 검출방법.And the first and second head movement vectors and the first and second head position vectors are calculated as a motion vector of a center coordinate of each head tracking box. 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;A first step of receiving a current frame image and deleting a background having no movement and detecting human objects among moving objects; 상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;A second step of generating head tracking boxes including head areas of the respective human objects; 상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;A third step of selecting the current frame image as an assault candidate image when the center coordinates of the head tracking boxes are located within a predetermined distance from each other; 이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;Obtaining first head movement vectors, which are motion vectors of the head tracking boxes, from previous frame images to the current frame image; 상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계; A fifth step of obtaining second head movement vectors, which are motion vectors of the head tracking boxes, from the current frame image to a next frame image; 상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계; 및Comparing the first head movement vector and the second head movement vector, a first angle difference, which is an angular difference between the head movement vectors, is calculated, and acceleration information of the first angle difference and the second head movement vector is used. A sixth step of deriving a first change vector and determining an assault situation when the value of the first change vector changes to a value within a predetermined range; And 상기 폭행상황으로 판단될 경우, 영상메시지 또는 음성메시지를 출력하여 상기 폭행상황을 알리는 제7단계를 포함하는 것을 특징으로 하는 폭행상황 검출방법.And a seventh step of notifying the assault situation by outputting a video message or an audio message when it is determined as the assault situation. 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계;A first step of receiving a current frame image and deleting a background having no movement and detecting human objects among moving objects; 상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계;A second step of generating head tracking boxes including head areas of the respective human objects; 상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계;A third step of selecting the current frame image as an assault candidate image when the center coordinates of the head tracking boxes are located within a predetermined distance from each other; 이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계;Obtaining first head movement vectors, which are motion vectors of the head tracking boxes, from previous frame images to the current frame image; 상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계; 및A fifth step of obtaining second head movement vectors, which are motion vectors of the head tracking boxes, from the current frame image to a next frame image; And 상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계;를 포함하고,Comparing the first head movement vector and the second head movement vector, a first angle difference, which is an angular difference between the head movement vectors, is calculated, and acceleration information of the first angle difference and the second head movement vector is used. And a sixth step of deciding a first change vector and determining an assault situation when the value of the first change vector changes to a value within a predetermined range. 상기 제1변화벡터는 아래의 수학식 1에 의해 도출되는 것을 특징으로 하는 폭행상황 검출방법.The assault condition detection method of claim 1, wherein the first change vector is derived by Equation 1 below. [수학식 1][Equation 1]
Figure 112010067162658-pat00007
Figure 112010067162658-pat00007
여기서, V1은 상기 제1변화벡터, θ1은 상기 제1각도차, α1은 상기 제2머리이동벡터의 가속도정보이다.Here, V 1 is the first change vector, θ 1 is the first angle difference, α 1 is the acceleration information of the second head movement vector.
제 10 항에 있어서,11. The method of claim 10, 상기 제1변화벡터의 값이 40 내지 100 사이의 일정한 값일 경우 상기 폭행상황으로 판단하는 것을 특징으로 하는 폭행상황 검출방법.The assault situation detection method, characterized in that the determination as the assault situation when the value of the first change vector is a constant value between 40 and 100. 제 2 항에 있어서,The method of claim 2, 상기 제2변화벡터는 아래의 수학식 2에 의해 도출되는 것을 특징으로 하는 폭행상황 검출방법.The second change vector is an assault situation detection method, characterized in that derived by the following equation (2). [수학식 2][Equation 2]
Figure 112009039608087-pat00008
Figure 112009039608087-pat00008
여기서, V2은 상기 제2변화벡터, θ2은 상기 제2각도차, α2은 상기 제2머리위치벡터의 가속도정보이다.Here, V 2 is the second change vector, θ 2 is the second angle difference, α 2 is the acceleration information of the second head position vector.
삭제delete
KR1020090058578A 2009-06-29 2009-06-29 Violence detection method by analyzing the motion image of moving peoples KR101081861B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090058578A KR101081861B1 (en) 2009-06-29 2009-06-29 Violence detection method by analyzing the motion image of moving peoples

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090058578A KR101081861B1 (en) 2009-06-29 2009-06-29 Violence detection method by analyzing the motion image of moving peoples

Publications (2)

Publication Number Publication Date
KR20110001172A KR20110001172A (en) 2011-01-06
KR101081861B1 true KR101081861B1 (en) 2011-11-09

Family

ID=43609771

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090058578A KR101081861B1 (en) 2009-06-29 2009-06-29 Violence detection method by analyzing the motion image of moving peoples

Country Status (1)

Country Link
KR (1) KR101081861B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459104B1 (en) 2014-04-01 2014-11-13 주식회사 다이나맥스 Intelligent cctv system detecting emergency with motion analysis and method of emergency detection using the same
KR102247112B1 (en) * 2020-12-30 2021-05-03 주식회사세오 Edge computing-based IP camera in hazardous areas, artificial intelligence video surveillance system including the same, and operation method thereof
KR20230091380A (en) * 2021-12-16 2023-06-23 숭실대학교산학협력단 Behavioral recognition-based risk situation detection system and method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101292790B1 (en) * 2011-11-30 2013-08-02 최두 Real time security system and the mehtod thereof
KR101509223B1 (en) * 2013-03-07 2015-04-10 최숙자 Security system with an auto capturing for monitoring screen and method of the same
KR101423873B1 (en) * 2013-03-26 2014-08-06 가천대학교 산학협력단 Integrated management system with image monitoring system and method for detecting viloent events using the smae
KR101336825B1 (en) * 2013-04-19 2013-12-04 주원통신 주식회사 Monitoring system for prevention of crime and violence in school
KR101644443B1 (en) * 2014-02-05 2016-08-01 김세영 Warning method and system using prompt situation information data
KR101593187B1 (en) 2014-07-22 2016-02-11 주식회사 에스원 Device and method surveiling innormal behavior using 3d image information
CN108353149B (en) * 2015-10-26 2020-10-13 李炯勇 CCTV automatic sorting monitoring system, CCTV automatic sorting monitoring management method and medium
KR101669885B1 (en) * 2016-05-30 2016-10-27 이형각 method of detecting pedestrian collision and IoT apparatus thereof
CN110274590B (en) * 2019-07-08 2022-10-28 哈尔滨工业大学 Violent action detection method and system based on decision tree
CN113570575A (en) * 2021-07-28 2021-10-29 精英数智科技股份有限公司 Drilling depth statistical method and system based on target detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006276969A (en) 2005-03-28 2006-10-12 Mitsubishi Electric Corp Violence detecting device
KR100887942B1 (en) * 2007-01-31 2009-03-30 (주)씽크게이트테크놀러지 System for sensing abnormal phenomenon on realtime and method for controlling the same
KR100896949B1 (en) * 2006-08-30 2009-05-14 (주)로직아이텍 Image Monitoring System for Object Identification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006276969A (en) 2005-03-28 2006-10-12 Mitsubishi Electric Corp Violence detecting device
KR100896949B1 (en) * 2006-08-30 2009-05-14 (주)로직아이텍 Image Monitoring System for Object Identification
KR100887942B1 (en) * 2007-01-31 2009-03-30 (주)씽크게이트테크놀러지 System for sensing abnormal phenomenon on realtime and method for controlling the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459104B1 (en) 2014-04-01 2014-11-13 주식회사 다이나맥스 Intelligent cctv system detecting emergency with motion analysis and method of emergency detection using the same
KR102247112B1 (en) * 2020-12-30 2021-05-03 주식회사세오 Edge computing-based IP camera in hazardous areas, artificial intelligence video surveillance system including the same, and operation method thereof
KR20230091380A (en) * 2021-12-16 2023-06-23 숭실대학교산학협력단 Behavioral recognition-based risk situation detection system and method
KR102615378B1 (en) * 2021-12-16 2023-12-19 숭실대학교 산학협력단 Behavioral recognition-based risk situation detection system and method

Also Published As

Publication number Publication date
KR20110001172A (en) 2011-01-06

Similar Documents

Publication Publication Date Title
KR101081861B1 (en) Violence detection method by analyzing the motion image of moving peoples
US11228715B2 (en) Video surveillance system and video surveillance method
US7639840B2 (en) Method and apparatus for improved video surveillance through classification of detected objects
JP4966820B2 (en) Congestion estimation apparatus and method
US8189049B2 (en) Intrusion alarm video-processing device
JP2022166067A (en) Information processing system, information processing method and program
AU2014101406B4 (en) A portable alerting system and a method thereof
JP4984575B2 (en) Intruder detection device by image processing
US11776274B2 (en) Information processing apparatus, control method, and program
US9761248B2 (en) Action analysis device, action analysis method, and action analysis program
Velastin et al. A motion-based image processing system for detecting potentially dangerous situations in underground railway stations
JP2006252248A (en) Trespasser detecting system by image processing
US8665329B2 (en) Apparatus for automatically ignoring cast self shadows to increase the effectiveness of video analytics based surveillance systems
Ketcham et al. The intruder detection system for rapid transit using CCTV surveillance based on histogram shapes
Veni et al. Road accident detection and severity determination from CCTV surveillance
KR101840042B1 (en) Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System
Davies et al. A progress review of intelligent CCTV surveillance systems
CN112288975A (en) Event early warning method and device
Huang et al. Rapid detection of camera tampering and abnormal disturbance for video surveillance system
US20110033087A1 (en) Video content analysis
CN114220069A (en) Object monitoring method, electronic device and computer-readable storage medium
CN111460917B (en) Airport abnormal behavior detection system and method based on multi-mode information fusion
KR101669885B1 (en) method of detecting pedestrian collision and IoT apparatus thereof
KR101407394B1 (en) System for abandoned and stolen object detection
KR101294498B1 (en) Method of objects recognition for tunnel accident monitoring system

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141030

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150706

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161025

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20171025

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20181029

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20191031

Year of fee payment: 9