KR101081861B1 - Violence detection method by analyzing the motion image of moving peoples - Google Patents
Violence detection method by analyzing the motion image of moving peoples Download PDFInfo
- Publication number
- KR101081861B1 KR101081861B1 KR1020090058578A KR20090058578A KR101081861B1 KR 101081861 B1 KR101081861 B1 KR 101081861B1 KR 1020090058578 A KR1020090058578 A KR 1020090058578A KR 20090058578 A KR20090058578 A KR 20090058578A KR 101081861 B1 KR101081861 B1 KR 101081861B1
- Authority
- KR
- South Korea
- Prior art keywords
- head
- frame image
- vector
- assault
- current frame
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 45
- 239000013598 vector Substances 0.000 claims abstract description 190
- 230000004886 head movement Effects 0.000 claims abstract description 59
- 238000000034 method Methods 0.000 claims abstract description 18
- 230000008859 change Effects 0.000 claims description 77
- 230000001133 acceleration Effects 0.000 claims description 25
- 230000000873 masking effect Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 description 4
- 238000009795 derivation Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/027—Syllables being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 폭행상황 검출방법에 관한 것으로, 보다 구체적으로는 입력되는 프레임 영상 내의 움직이는 객체 중 사람객체를 검출하고, 검출된 사람객체들 각각의 움직임벡터, 상기 사람객체들 간의 위치벡터 및 상기 프레임 영상의 음성정보를 분석하여 폭행상황 여부를 판단하여, 폭행상황 발생시에 영상메시지나 음성메시지를 외부로 출력함으로써, 감시자에게 폭행상황 발생을 알려 줄 수 있는 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법에 관한 것이다.The present invention relates to a method for detecting an assault situation, and more particularly, detects a human object among moving objects in an input frame image, and detects a motion vector of each detected human object, a position vector between the human objects, and the frame image. In the assault situation detection method based on the video information of a moving object that can inform the monitor of occurrence of the assault situation by analyzing the audio information and determining the assault situation, and outputting the video message or the audio message to the outside when the assault situation occurs. It is about.
폭행, 프레임 영상, 머리이동벡터, 머리위치벡터, 객체추적 Assault, frame image, head movement vector, head position vector, object tracking
Description
본 발명은 폭행상황 검출방법에 관한 것으로, 보다 구체적으로는 입력되는 프레임 영상 내의 움직이는 객체 중 사람객체를 검출하고, 검출된 사람객체들 각각의 움직임벡터, 상기 사람객체들 간의 위치벡터 및 상기 프레임 영상의 음성정보를 분석하여 폭행상황 여부를 판단하여, 폭행상황 발생시에 영상메시지나 음성메시지를 외부로 출력함으로써, 감시자에게 폭행상황 발생을 알려 줄 수 있는 움직이는 객체의 영상정보에 기반한 폭행상황 검출방법에 관한 것이다.The present invention relates to a method for detecting an assault situation, and more particularly, detects a human object among moving objects in an input frame image, and detects a motion vector of each detected human object, a position vector between the human objects, and the frame image. In the assault situation detection method based on the video information of a moving object that can inform the monitor of occurrence of the assault situation by analyzing the audio information and determining the assault situation, and outputting the video message or the audio message to the outside when the assault situation occurs. It is about.
CCTV(CCTV: closed-circuit television, 폐쇄 회로 텔레비전, 이하 'CCTV'라 함) 감시 시스템은 최근 범죄수사분야나 보안분야, 교통사고처리분야 등에서 영상정보를 통해 감시구역의 이상 유무를 판단하는 영상정보기술의 하나로써, 초기에는 공공장소나 위험장소에 설치되어 범죄를 예방하는 목적으로 주로 사용되어 왔으나, 최근에는 보안관리가 필요한 회사나 도로 등 다양한 장소에 설치되어 사용되고 있 다.CCTV (closed-circuit television, CCTV) surveillance system is a video information that judges the abnormality of the surveillance area through video information in the area of crime investigation, security, traffic accident processing, etc. As one of the technologies, it has been used mainly for the purpose of preventing crime by being installed in public places or dangerous places, but recently, it is installed and used in various places such as companies or roads that require security management.
종래의 CCTV 감시 시스템은 대부분 감시자의 모니터링을 통해 관리가 이루어지므로, 감시 소홀이 빈번하게 발생하게 되고, 감시할 CCTV 화면 수의 증가로 인한 실시간 대처 능력이 현저하게 떨어지는 문제점이 있다.Conventional CCTV surveillance systems are managed through the monitoring of the majority of monitors, the monitoring neglect occurs frequently, there is a problem that the ability to cope with the real-time response due to the increase in the number of CCTV screens to monitor significantly falls.
이러한 경우 녹화된 CCTV 영상을 분석하여 문제점을 해결할 수 있으나, 녹화된 CCTV 영상을 분석하는 방법은 위급상황에 실시간으로 대처할 수 없는 문제점이 있고, 또한, 영상의 해상도나 데이터 저장상태에 따라서 올바르지 않은 결과가 도출되기도 하는 문제점이 있다.In this case, the problem can be solved by analyzing the recorded CCTV image. However, the method of analyzing the recorded CCTV image cannot solve the emergency in real time, and the result is not correct according to the resolution or data storage state of the image. There is a problem that can be derived.
본 발명자들은 감시자의 모니터링에 의존하지 않고, CCTV영상을 영상 처리에 의해 실시간으로 폭행상황을 판단하여, 상기 감시자에게 폭행상황을 인지시켜 줄 수 있는 방법을 연구 노력한 결과, CCTV영상 내의 사람 객체의 움직임이나 사람 객체들 간의 관계 및 CCTV영상의 음성정보를 이용하여 폭행상황을 실시간으로 검출하고 감시자로 하여금 폭행상황을 인식할 수 있게 하는 기술적 구성을 개발하게 되어 본 발명을 완성하게 되었다.The present inventors have tried to determine the assault situation in real time by image processing of the CCTV image without relying on the monitoring of the monitor, and as a result of researching a method for recognizing the assault situation, the movement of a human object in the CCTV image. The present invention has been completed by developing a technical configuration that detects an assault situation in real time using a relationship between human objects and audio information of CCTV images and enables a monitor to recognize the assault situation.
따라서, 본 발명의 목적은 CCTV 영상과 같은 영상의 사람객체 각각의 움직임, 사람객체 간의 움직임을 검출하여 폭행상황을 실시간으로 자동으로 판단할 수 있는 폭행상황 검출방법을 제공하는 것이다.Accordingly, an object of the present invention is to provide an assault situation detection method that can automatically determine the assault situation in real time by detecting the movement of each of the human objects, the movement between the human objects, such as CCTV images.
또한, 본 발명의 다른 목적은 폭행상황 발생시에 영상메시지 또는 음성메시지를 감시자에게 제공하여 감시자로 하여금 즉시 감시구역 내의 폭행상황 발생여부를 인지시켜 줄 수 있는 폭행상황 검출방법을 제공하는 것이다.Another object of the present invention is to provide an assault situation detection method that provides a video message or a voice message to a supervisor at the time of an assault situation so that the supervisor can immediately recognize whether an assault situation occurs in the surveillance zone.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.
상기의 목적을 달성하기 위하여 본 발명은 현재 프레임 영상을 입력받아 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들을 검출하는 제1단계, 상기 각 사람객체들의 머리 영역을 포함하는 머리추적박스들을 생성하는 제2단계, 상기 머리추적박스들의 중심좌표가 서로 일정한 거리 내에 위치할 경우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정하는 제3단계, 이전 프레임 영상들에서 상기 현재 프레임 영상까지 상기 머리추적박스들 각각의 움직임벡터인 제1머리이동벡터들을 구하는 제4단계, 상기 현재 프레임 영상에서 다음 프레임 영상으로 상기 머리추적박스들 각각의 움직임벡터인 제2머리이동벡터들을 구하는 제5단계 및 상기 제1머리이동벡터와 상기 제2머리이동벡터를 비교하여 상기 머리이동벡터들 간의 각도차인 제1각도차를 계산하고, 상기 제1각도 차와 상기 제2머리이동벡터의 가속도정보를 이용하여 제1변화벡터를 도출한 후, 상기 제1변화벡터의 값이 일정한 범위 내의 값으로 변화할 경우 폭행상황으로 판단하는 제6단계를 포함하는 폭행상황 검출방법을 제공한다.In order to achieve the above object, the present invention provides a head tracking box including a head region of each human object, the first step of receiving a current frame image, deleting a background without movement, and detecting human objects among moving objects. A second step of generating an image, and a third step of selecting the current frame image as an assault candidate image when the center coordinates of the head tracking boxes are located within a predetermined distance from each other, and the head from the previous frame images to the current frame image. A fourth step of obtaining first head movement vectors, which are motion vectors of each of the tracking boxes, a fifth step of obtaining second head movement vectors, which are motion vectors of each of the head tracking boxes, from the current frame image to a next frame image; A first angle that is an angle difference between the head movement vectors by comparing a first head movement vector and the second head movement vector; Calculate a difference, derive a first change vector using the acceleration information of the first angle difference and the second head movement vector, and then assault situation when the value of the first change vector changes to a value within a certain range. It provides a method for detecting an assault situation comprising a sixth step of determining.
바람직한 실시예에 있어서, 상기 제3단계 이후, 상기 제6단계 이전에, 상기 현재 프레임 영상 내의 머리추적박스들 간의 위치벡터인 제1머리위치벡터를 구하는 제3-1단계 및 상기 다음 프레임 영상에서 상기 머리추적박스들 간의 위치벡터인 제2머리위치벡터를 구하는 제3-2단계를 더 포함하고, 상기 제6단계는 상기 제1머리위치벡터와 상기 제2머리위치벡터를 비교하여 상기 머리위치벡터들 간의 각도차인 제2각도차를 계산하고, 상기 제2각도차와 상기 제2머리위치벡터의 가속도정보를 이용하여 제2변화벡터를 도출한 후, 상기 제2변화벡터의 값이 일정한 범위 내의 값으로 더 변화할 경우 상기 폭행상황으로 판단한다.In a preferred embodiment, after the third step and before the sixth step, steps 3-1 to obtain a first head position vector, which is a position vector between head tracking boxes in the current frame image, and the next frame image. And a third step of obtaining a second head position vector, which is a position vector between the head tracking boxes, wherein the sixth step compares the first head position vector and the second head position vector to the head position. After calculating a second angular difference, which is an angular difference between the vectors, deriving a second change vector using the acceleration information of the second angular difference and the second head position vector, the value of the second change vector is constant. In case of further change to the value within, it is determined as the assault situation.
바람직한 실시예에 있어서, 상기 제6단계는 상기 현재 프레임 영상 또는 상기 다음 프레임 영상의 음성정보가 폭행음성인지 아닌지 판단하여, 상기 음성정보가 폭행음성으로 더 판단될 경우 상기 폭행상황으로 판단한다.In a preferred embodiment, the sixth step determines whether the voice information of the current frame image or the next frame image is an assault voice, and if the voice information is further determined as an assault voice, it is determined as the assault situation.
바람직한 실시예에 있어서, 상기 제1단계는 가우시안 믹스쳐 모델(Gaussian Mixture Model)을 이용하여 상기 현재 프레임 영상의 배경을 제거하고 상기 움직이는 객체를 검출하는 제1-1단계, 미디언 필터링(Median Filtering) 및 마스크 연산(Masking)을 이용하여 상기 움직이는 객체의 영상잡음을 제거하는 제1-2단계 및 상기 움직이는 객체를 포함하는 사람객체박스를 생성하고, 상기 사람객체박스의 히스토그램을 구하여 사람객체표본의 히스토그램과 비교함으로써, 상기 움직이는 객체가 사람객체인지 판단하는 제1-3단계를 포함한다.In a preferred embodiment, the first step is a first-first step of removing a background of the current frame image and detecting the moving object by using a Gaussian Mixture Model, and median filtering. Step 1-2 of removing image noise of the moving object using masking and masking, and generating a human object box including the moving object, obtaining a histogram of the human object box, Comparing with the histogram, steps 1-3 are determined to determine whether the moving object is a human object.
바람직한 실시예에 있어서, 상기 제1-3단계는 상기 사람객체박스의 가로 및 세로의 비율을 이용하여 상기 움직이는 객체가 상기 사람객체인지 더 판단한다.In a preferred embodiment, the first to third steps further determine whether the moving object is the human object using the ratio of the width and the length of the human object box.
바람직한 실시예에 있어서, 상기 제2단계는 상기 사람객체박스를 Y축으로 삼등분하여 세 개의 박스로 분할하여, 상기 세 개의 박스들 중 최상위 박스의 Y축 히스토그램을 구하여 그 값의 도함수의 최고점을 사람의 목 좌표로 설정하고, 상기 목 좌표로부터 상기 사람객체의 최상위 좌표까지를 상기 머리영역으로 판단하여 상기 머리추적박스들을 생성한다.In a preferred embodiment, the second step divides the human object box into three boxes by dividing the human object box into three boxes, obtains a Y-axis histogram of the highest box among the three boxes, and obtains the highest point of the derivative of the value. The head tracking boxes may be generated by setting the neck coordinates of the head region to determine the head region from the neck coordinates to the highest coordinate of the human object.
바람직한 실시예에 있어서, 상기 제3단계는 상기 각 머리추적박스들을 포함하는 후보영상검출영역을 설정하고, 상기 각 후보영상검출영역이 서로 교차할 경 우, 상기 현재 프레임 영상을 폭행 후보 영상으로 선정한다.In a preferred embodiment, in the third step, a candidate image detection area including the head tracking boxes is set, and when the candidate image detection areas cross each other, the current frame image is selected as an assault candidate image. do.
바람직한 실시예에 있어서, 상기 제1 및 제2머리이동벡터들과 상기 제1 및 제2머리위치벡터들은 상기 각 머리추적박스의 중심좌표의 움직임벡터로 계산된다.In a preferred embodiment, the first and second head movement vectors and the first and second head position vectors are calculated as motion vectors of the center coordinates of the head tracking boxes.
바람직한 실시예에 있어서, 상기 폭행상황으로 판단될 경우, 영상메시지 또는 음성메시지를 출력하여 상기 폭행상황을 알리는 제7단계를 더 포함한다.In a preferred embodiment, if it is determined that the assault situation, a seventh step of notifying the assault situation by outputting a video message or a voice message.
바람직한 실시예에 있어서, 상기 제1변화벡터는 아래의 수학식 1에 의해 도출된다.In a preferred embodiment, the first change vector is derived by
여기서, V1은 상기 제1변화벡터, θ1은 상기 제1각도차, α1은 상기 제2머리이동벡터의 가속도정보이다.Here, V 1 is the first change vector, θ 1 is the first angle difference, α 1 is the acceleration information of the second head movement vector.
바람직한 실시예에 있어서, 상기 제1변화벡터의 값이 40 내지 100 사이의 일정한 값일 경우 상기 폭행상황으로 판단한다.In a preferred embodiment, when the value of the first change vector is a constant value between 40 and 100 is determined as the assault situation.
바람직한 실시예에 있어서, 상기 제2변화벡터는 아래의 수학식 2에 의해 도출된다.In a preferred embodiment, the second change vector is derived by
여기서, V2은 상기 제2변화벡터, θ2은 상기 제2각도차, α2은 상기 제2머리 위치벡터의 가속도정보이다.Here, V 2 is the second change vector, θ 2 is the second angle difference, α 2 is the acceleration information of the second head position vector.
바람직한 실시예에 있어서, 상기 프레임 영상들은 시시티브이(CCTV:closed-circuit television, 폐쇄 회로 텔레비전)로부터 입력된다.In a preferred embodiment, the frame images are input from a closed-circuit television (CCTV).
본 발명은 다음과 같은 우수한 효과를 가진다.The present invention has the following excellent effects.
먼저, 본 발명의 폭행상황 검출방법에 의하면, CCTV로부터 입력되는 프레임영상 내의 각각의 사람객체의 움직임에 대한 변화벡터, 프레임 영상 내의 사람객체들 간의 위치에 대한 변화벡터, 및 프레임 영상의 음성정보를 복합적으로 판단하여 폭행상황을 실시간으로 정확하게 판단할 수 있는 효과가 있다.First, according to the assault situation detection method of the present invention, a change vector for the movement of each human object in the frame image input from the CCTV, a change vector for the position between the human objects in the frame image, and audio information of the frame image Complex judgments have the effect of accurately determining the assault situation in real time.
또한, 본 발명의 폭행상황 검출방법에 의하면, 폭행상황 발생시에 영상메시지 또는 음성메시지를 감시자에게 즉시 전달하여 감시자로 하여금 빠르게 감시구역 내의 폭행상황에 대해 대처할 수 있게 하는 효과가 있다.In addition, the assault situation detection method of the present invention has an effect of promptly responding to the assault situation in the surveillance zone by delivering the video or audio message to the monitor immediately when the assault situation occurs.
본 발명에서 사용되는 용어는 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있는데 이 경우에는 단순한 용어의 명칭이 아닌 발명의 상세한 설명 부분에 기재되거나 사용된 의미를 고려하여 그 의미가 파악되어야 할 것이다.The terms used in the present invention were selected as general terms as widely used as possible, but in some cases, the terms arbitrarily selected by the applicant are included. In this case, the meanings described or used in the detailed description of the present invention are considered, rather than simply the names of the terms. The meaning should be grasped.
이하, 첨부한 도면 및 바람직한 실시예들을 참조하여 본 발명의 기술적 구성 을 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings and preferred embodiments will be described in detail the technical configuration of the present invention.
그러나, 본 발명은 여기서 설명되는 실시예에 한정되지 않고 다른 형태로 구체화 될 수도 있다. 명세서 전체에 걸쳐 동일한 참조번호는 동일한 구성요소를 나타낸다.However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. Like reference numerals designate like elements throughout the specification.
도 1은 본 발명의 일 실시예에 따른 폭행상황 검출방법을 수행하기 위한 폭행상황 검출시스템을 보여주는 도면, 도 2는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리추적박스를 설명하기 위한 도면, 도 3은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 프레임 영상들을 보여주는 도면, 도 4는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 폭행 후보 영상 선정방법을 설명하기 위한 도면, 도 5는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리이동벡터를 설명하기 위한 도면, 도 6은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리위치벡터를 설명하기 위한 도면, 도 7은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 흐름도이다.1 is a view showing an assault situation detection system for performing an assault situation detection method according to an embodiment of the present invention, Figure 2 is a head tracking box for explaining the assault situation detection method according to an embodiment of the present invention 3 is a view showing frame images of the assault situation detection method according to an embodiment of the present invention, Figure 4 is a view for explaining a method of selecting an assault candidate image of the assault situation detection method according to an embodiment of the present invention 5 is a view for explaining the head movement vector of the assault situation detection method according to an embodiment of the present invention, Figure 6 is a view for explaining the head position vector of the assault situation detection method according to an embodiment of the present invention. 7 is a flowchart illustrating a method of detecting an assault situation according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 폭행상황 검출방법은 폭행상황 검출시스템(100)을 이용하여 수행되며, 상기 폭행상황 검출시스템(100)은 배경삭제모듈(110), 객체추적모듈(120), 음성분석모듈(130), 폭행상황 판단모듈(140), 폭행상황 알람모듈(150), 디스플레이 수단(160) 및 스피커 수단(170)을 포함하여 이루어진다.Referring to FIG. 1, an assault situation detection method according to an embodiment of the present invention is performed using an assault
또한, 상기 폭행상황 검출시스템(100)의 각 모듈들은 프로그래밍되어 컴퓨터의 저장매체에 저장되어 기능을 수행한다.In addition, each module of the assault
또한, 상기 폭행상황 검출시스템(100)의 각 구성요소의 기능들은 도 7을 참조하여 설명하기로 한다.In addition, the functions of each component of the assault
도 7을 참조하면, 본 발명의 일 실시예에 따른 폭행상황 검출방법은 먼저, 상기 배경삭제모듈(110)이 CCTV(10)로부터 실시간으로 영상들을 입력받아, 현재 입력된 영상인 현재 프레임 영상(11) 중 움직임이 없는 배경은 삭제하고, 움직이는 객체들 중 사람객체들(11a,11b)을 검출한다(S1000).Referring to FIG. 7, in the assault situation detection method according to an embodiment of the present invention, first, the
도 2를 참조하여 더욱 자세하게 설명하면, 먼저 상기 배경삭제모듈(110)은 가우시안 믹스쳐 모델(GMM:Gaussian Mixture Model)을 이용하여 상기 현재 프레임 영상(11) 중 움직임이 없는 배경은 삭제하고 상기 움직이는 객체들을 검출한다. 다음, 미디언 필터링(Median filtering) 및 마스크 연산(Masking)을 통해 상기 움직이는 객체들의 영상잡음을 제거하며, 상기 각각의 움직이는 객체들을 포함하는 사람객체박스들(11a',11b')을 생성하여 상기 사람객체박스들(11a',11b')의 영상을 분석하고, 상기 움직이는 객체들이 각각 사람객체(11a,11b)인지 판단한다.Referring to FIG. 2, the
또한, 상기 사람객체(11a,11b)의 판단방법은 먼저, 상기 각 사람객체박스(11a',11b')의 영상 히스토그램(Image histogram)을 계산하고, 다음, 계산된 각 사람객체박스(11a',11b')의 영상 히스토그램과 일반적인 사람의 표본인 사람객체표본이 갖는 영상 히스토그램의 유사성을 비교하여 상기 각 사람객체박스(11a',11b') 내의 움직이는 객체가 사람객체(11a,11b)인지 판단한다.In addition, the method of determining the human objects (11a, 11b), first calculates the image histogram (image histogram) of each of the human object boxes (11a ', 11b'), and then calculated each human object box (11a '). 11b ') and the image histogram of a sample of a human object, which is a sample of a general person, to determine whether a moving object in each of the
또한, 상기 영상 히스토그램을 이용하여 사람객체(11a,11b)로 판단된 각 사람객체박스(11a',11b')의 가로(x) 및 세로(y)의 비율을 계산하여 일반적인 사람객체표본이 갖는 가로(x) 및 세로(y)의 비율과 비교하여 유사성을 판단한 후 상기 움직이는 객체가 진정한 사람객체(11a,11b)인지 판단한다.Also, by using the image histogram, a ratio of the horizontal (x) and the vertical (y) of each of the
즉, 상기 현재 프레임 영상(11)에서 상기 사람객체를 검출하는 단계(S1000)는 상기 각 사람객체박스(11a',11b') 영상 히스토그램 및 가로 및 세로비율을 복합적으로 이용하여 움직이는 객체 중 사람객체(11a,11b)만을 정확하게 판단해낼 수 있다.That is, in the detecting of the human object in the current frame image 11 (S1000), the human object among the moving objects using the histogram and the horizontal and vertical ratios of each of the
다음, 상기 객체추적모듈(120)은 상기 각 사람객체박스(11a',11b') 중에서 상기 각 사람객체(11a,11b)의 머리영역을 포함하는 머리추적박스(121a,121b)를 생성한다(S2000).Next, the
또한, 상기 머리추적박스들(121a,121b)은 상기 각 사람객체박스(11a',11b')를 y축으로 삼등분하여 세 개의 박스로 분할한 후, 상기 세 개의 박스들 중 최상위 박스의 y축 히스토그램을 구하여 그 값의 도함수의 최고점, 즉, y축 상에서 객체의 폭이 가장 좁은 좌표를 상기 각 사람객체(11a,11b)의 목 좌표로 설정하고, 상기 목 좌표로부터 상기 각 사람객체(11a,11b)의 최상위 좌표까지의 영역으로 생성된다.In addition, the
여기서 상기 사람객체박스들(11a',11b') 중 상기 머리추적박스들(121a,121b)을 생성하여 추적하는 이유는 사람의 머리영역은 각 프레임 영상들(11-2,11-1,11,11+1)에서 변화가 가장 작게 일어나는 부분이므로, 추적이 쉽고 추적의 정확도도 높기 때문이다.Here, the reason for generating and tracking the
또한, 상기 머리추적박스들(121a,121b)은 각각 RGB데이터와 중심좌표(H1,H2)로 캐쉬메모리(도시하지 않음)에 저장된다.In addition, the
다음, 상기 객체추적모듈(120)은 상기 머리추적박스들(121a,121b)이 서로 일정한 거리에 위치하는지 판단하여 상기 머리추적박스들(121a,121b)이 일정한 거리 내에 위치할 경우 상기 현재 프레임 영상(11)을 폭행 후보 영상으로 선정한다(S3000).Next, the
도 3 및 도 4를 참조하면, 상기 객체추적모듈(120)은 상기 현재 프레임 영상(11) 내의 각 머리추적박스들(121a,121b)을 포함한 일정한 영역을 갖는 후보영상 검출영역들(122a,122b)을 설정하고, 상기 현재 프레임 영상(11) 내의 후보영상 검출영역들(122a,122b)이 서로 교차하면, 상기 현재 프레임 영상(11)을 상기 폭행 후보 영상으로 선정한다.3 and 4, the
다시 말해서, 상기 각 머리추적박스들(121a,121b)의 중심좌표들(H1,H2)이 서로 일정한 거리에 위치하면 상기 현재 프레임 영상(11)을 상기 폭행 후보 영상으로 선정하게 되는 것이다.In other words, when the center coordinates H 1 and H 2 of the
또한, 상기 후보영상 검출영역들(122a,122b)의 영역범위는 감시자의 요구에 따라 조절이 가능하며, 영역범위를 크게 할 경우 검출의 감도가 높으나 폭행상황 검출에 계산량이 많아지고, 영역범위를 작게 할 경우 검출의 감도는 낮으나 계산량이 적어지게 되므로 선택적으로 조절할 수 있다.In addition, the area range of the candidate
또한, 상기 후보영상 검출영역들(122a,122b)은 사각형의 영역으로 도시하였 으나 원형의 영역으로 선정될 수도 있다.In addition, although the candidate
다음, 상기 객체추적모듈(120)은 상기 머리추적박스들(121a,121b) 각각의 RGB데이터와 중심좌표(H1,H2)를 이용하여 상기 현재 프레임 영상(11)의 이전 프레임 영상들(11-1)(11-2) 각각의 중심좌표들(H1-1,H2-1)(H1-2,H2-2)을 구한다.Next, the
이때, 상기 각 프레임 영상(11)(11-1)(11-2) 간의 머리추적박스들의 동일성은 상기 RGB데이터의 유사성과 상기 중심좌표들(H1,H2)(H1-1,H2-1)(H1-2,H2-2)의 거리를 이용하여 판단되며, 상기 RGB데이터가 서로 다르거나 상기 각 프레임 영상(11)(11-1)(11-2) 내의 동일한 중심좌표들(H1,H2)(H1-1,H2-1)(H1-2,H2-2)이 갑자기 멀어질 경우 동일성이 서로 낮은 것으로 판단하여 배경으로 처리된다.In this case, the identity of the head tracking boxes between the
다음, 상기 객체추적모듈(120)은 상기 이전 프레임 영상들(11-1,11-2)부터 상기 현재 프레임 영상(11)까지 상기 현재 프레임 영상(11)의 중심좌표(H1,H2)가 이동한 이동궤적을 이용하여 상기 각 중심좌표(H1,H2)의 움직임벡터인 제1머리이동벡터들(V1',V1")을 계산한다.Next, the
즉, 상기 제1머리이동벡터들(V1',V1")은 하나의 사람객체가 과거에서부터 현재까지 이동한 움직임벡터로써, 폭행상황이 발생하기 이전의 움직임정보를 제공한다.That is, the first head movement vectors V 1 ′ and V 1 ″ are motion vectors obtained by moving one human object from the past to the present, and provide motion information before an assault situation occurs.
또한, 상기 제1머리이동벡터들(V1',V1")은 각각 x-y평면에서 이동한 방향에 관한 정보인 각도정보와, 얼마나 빨리 이동했는지에 관한 정보인 가속도정보를 포함한다.In addition, the first head movement vectors V 1 ′ and V 1 ″ each include angle information, which is information about a direction of movement in the xy plane, and acceleration information, which is information about how quickly it moves.
다음, 상기 객체추적모듈(120)은 상기 현재 프레임 영상(11)의 다음 프레임 영상(11+1) 내의 각 중심좌표들(H1+1,H2+1)을 추출하고, 상기 현재 프레임 영상(11)의 각 중심좌표(H1,H2)가 상기 다음 프레임 영상(11+1)에서 이동한 움직임벡터인 제2머리이동벡터들(V1'+1,V1"+1)를 도출한다(S4000a).Next, the
또한, 상기 각 제2머리이동벡터들(V1'+1,V1"+1) 역시 상기 제1머리이동벡터들(V1',V1")과 마찬가지로 각각 각도정보와 가속도정보를 포함한다.Also, the second head movement vectors V 1 '+ 1, V 1 "+1 also include angle information and acceleration information, respectively, like the first head movement vectors V 1 ', V 1 ". do.
다음, 상기 각 제2머리이동벡터들(V1'+1,V1"+1)과 상기 각 제1머리이동벡터들(V1',V1")의 각도차인 제1각도차(θ1',θ1") 및 상기 각 제2머리이동벡터들(V1'+1,V1"+1)의 가속도정보를 이용하여, 상기 현재 프레임 영상(11)의 각 중심좌표(H1,H2)와 상기 다음 프레임 영상(11+1)의 각 중심좌표(H1+1,H2+1) 간의 움직임벡터인 제1변화벡터들(V1)을 도출한다(S4000b).Next, a first angle difference θ that is an angle difference between the second head movement vectors V 1 '+ 1, V 1 "+1) and the first head movement vectors V 1 ', V 1 ". 1 ', θ 1 ″ and acceleration information of each of the second head movement vectors V 1 ′ +1 and V 1 ″ +1, respectively, for each center coordinate H 1 of the
또한, 상기 각 제1변화벡터들(V1)은 아래의 수학식 3에 의해 도출된다.In addition, each of the first change vectors V 1 is derived by Equation 3 below.
여기서, V1은 상기 제1변화벡터, θ1은 상기 제1각도차, α1은 상기 각 제2머리이동벡터(V1'+1,V1"+1)의 가속도정보이다.Here, V 1 is the first change vector, θ 1 is the first angular difference, α 1 is acceleration information of each of the second head moving vector (V 1 '+ 1, V 1 "+ 1).
즉, 상기 제1변화벡터(V1)는 상기 다음 프레임 영상(11+1) 내의 각각의 중심좌표(H1+1,H2+1)에 대해 도출된다.That is, the first change vector V 1 is derived for each center coordinate H 1 +1, H 2 +1 in the
한편, 상기 다음 프레임 영상(11+1)의 그 다음 프레임 영상(11+2)의 각 제1변화벡터들(V1)은 상기 다음 프레임 영상(11+1)의 제1각도차(θ1',θ1")와 상기 그 다음 프레임 영상(11+2)의 제1각도차의 변화량 및 상기 다음 프레임 영상(11+1)의 가속도정보(α1)와 상기 그 다음 프레임 영상(11+2)의 가속도정보의 변화량에 의해 도출된다.Meanwhile, each of the first change vectors V 1 of the
따라서, 상기 그 다음 프레임 영상(11+2)부터의 제1변화벡터들(V1)은 아래의 수학식 4에 의해 도출된다.Therefore, the first change vectors V 1 from the
여기서, 상기 △θ1은 상기 다음 프레임 영상(11+1)의 제1각도차(θ1',θ1") 및 상기 그 다음 프레임 영상(11+2)의 제1각도차의 변화량이고, 상기 △α1은 상기 다음 프레임 영상(11+1) 및 상기 그 다음 프레임 영상(11+1)의 제2머리이동벡터들의 가속도정보의 변화량이다.Here, Δθ 1 is a change amount of a first angle difference θ 1 ', θ 1 ″ of the
다음, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터들(V1)을 분석하여 상기 다음 프레임 영상(11+1)이 폭행상황인지 아닌지 판단한다(S5000).Next, the assault
더욱 자세하게는 상기 폭행상황 판단모듈(140)은 상기 다음 프레임 영상(11+1) 내의 각각의 중심좌표(H1+1,H2+1)에 대한 제1변화벡터들(V1) 중 어느 하나의 제1변화벡터(V1)의 값이 40 내지 100 사이의 일정한 값일 경우, 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단한다.In more detail, the assault
참고로, 상기 사람객체(11a,11b)가 이동할 경우 상기 제1변화벡터(V1)는 10 내지 30의 값을 갖는다.For reference, when the
즉, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1)의 값이 갑자기 커질 경우 폭행상황으로 판단하는 것이다.That is, the assault
다음, 상기 폭행상황 알람모듈(150)은 상기 다음 프레임 영상(11+1)이 폭행상황으로 판단될 경우, 영상 메시지 및 음성 메시지를 생성하여 각각 디스플레이수단(160) 및 스피커 수단(170)으로 출력해준다.Next, when it is determined that the
예들 들면, 상기 영상 메시지는 상기 CCTV(10)로부터 입력되는 프레임 영상들에 붉은색 영상을 주기적으로 오버랩하는 방법을 사용할 수 있고, 상기 음성 메시지는 사이렌음성과 같은 경보 음성일 수 있다.For example, the video message may use a method of periodically overlapping a red image with frame images input from the
그러나 상기 폭행상황 알람모듈(150)은 SMS(Short Message Service:단문메시지서비스)나 MMS(Multimedia Messaging Service:멀티미디어메시지서비스)를 이용하 여 감시자의 휴대전화 등으로 폭행상황 발생을 알려 줄 수도 있다.However, the assault
한편, 도 6을 참조하면, 상기 객체추적모듈(120)은 상기 현재 프레임 영상(11)이 폭행 후보 영상으로 선정되면, 상기 현재 프레임 영상(11) 내의 중심좌표(H1,H2)들 간의 위치벡터인 제1머리위치벡터(V2')를 더 도출한다.Meanwhile, referring to FIG. 6, when the
또한, 상기 제1머리위치벡터(V2')의 도출은 상기 제1변화벡터(V1)의 도출 후에 도출될 수도 있으며, 상기 제1변화벡터(V1)의 도출과 동시에 이루어질 수 있다.In addition, the first derivation of the head position vector (V 2 ') may be formed at the same time and derivation of the first change vector (V 1) of the first change vector (V 1) may be, derived after deriving the.
다음, 상기 객체추적모듈(120)은 다음 프레임 영상(11+1) 내의 중심좌표들(H1+1,H2+1) 간의 위치벡터인 제2머리위치벡터(V2")를 도출한다(S4000c).Next, the
다음, 상기 객체추적모듈(120)은 상기 제1머리위치벡터(V2')와 상기 제2머리위치벡터(V2")의 변화벡터인 제2변화벡터(V2)를 도출한다.Next, the
더욱 자세하게는 상기 제2변화벡터(V2)는 상기 제1머리위치벡터(V2')와 상기 제2머리위치벡터(V2")를 비교하여 상기 머리위치벡터들(V2',V2") 간의 각도차인 제2각도차(θ2)를 계산하고, 상기 제2각도차(θ2)와 상기 제2머리위치벡터의 가속도정보를 이용하여(α2) 상기 제2변화벡터(V2)를 도출한다(S4000d).More specifically, the second change vector V 2 compares the first head position vector V 2 ′ and the second head position vector V 2 ″ to compare the head position vectors V 2 ′, V. 2 ") an angle a difference between the second angle difference (θ 2) by using the acceleration information of the second angle difference (θ 2) and the second head position vector calculation, and the (α 2), the second change between vector ( V 2 ) is derived (S4000d).
또한, 상기 제2변화벡터(V2)는 아래의 수학식 4에 의해 도출된다.In addition, the second change vector V 2 is derived by Equation 4 below.
여기서, V2은 상기 제2변화벡터, θ2은 상기 제2각도차, α2은 상기 제2머리위치벡터(V2")의 가속도정보이다.Here, V 2 is the second change vector, θ 2 is the second angle difference, α 2 is the acceleration information of the second head position vector (V 2 ").
한편, 상기 그 다음 프레임 영상(11+2)의 제2변화벡터(V2)는 상기 다음 프레임 영상(11+1)의 제2각도차(θ2)와 상기 그 다음 프레임 영상(11+2)의 제2각도차(θ2)의 변화량 및 상기 다음 프레임 영상(11+1)의 제2머리위치벡터(V2")의 가속도정보(α1)와 상기 그 다음 프레임 영상(11+2)의 제2머리위치벡터(V2"')의 가속도정보의 변화량에 의해 도출된다.Meanwhile, the second change vector V 2 of the
따라서, 상기 그 다음 프레임 영상(11+2)부터의 제2변화벡터들(V2)은 아래의 수학식 6에 의해 도출된다.Therefore, the second change vectors V 2 from the
여기서, 여기서, 상기 △θ2은 상기 다음 프레임 영상(11+1)과 상기 그 다음 프레임 영상(11+2)의 제2각도차 간의 변화량이고, 상기 △α2은 상기 다음 프레임 영상(11+1)과 상기 그 다음 프레임 영상(11+2)의 제2변화벡터들(V2) 간의 가속도정 보(α2)의 변화량이다.Here, Δθ 2 is a change amount between the second angular difference between the
즉, 상기 제1변화벡터(V1)는 하나의 중심좌표가 여러 프레임 영상에서 이동한 움직임정보에 의해 도출되고, 상기 제2변화벡터(V2)는 하나의 프레임 영상의 여러 중심좌표들 간의 거리 정보에 의해 도출되는 것이다.That is, the first change vector (V 1 ) is derived by motion information in which one center coordinate is moved in several frame images, and the second change vector (V 2 ) is between several center coordinates of one frame image. It is derived from the distance information.
또한, 상기 폭행상황 판단모듈(140)은 상기 제2변화벡터(V2)의 값이 일정한 값으로 계산될 경우 상기 다음 프레임 영상(11+1)을 폭행상황이 발생한 것으로 판단한다.In addition, the assault
즉, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1)와 제2변화벡터(V2)가 모두 폭행상황으로 판단될 경우 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단하는 것이다.That is, the assault
그러나, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1)와 제2변화벡터(V2) 중 어느 하나의 벡터만이 폭행상황으로 판단되더라도 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단할 수 있다.However, the assault
또 한편, 상기 음성분석모듈(130)은 상기 CCTV(10)로부터 상기 현재 프레임 영상(11) 또는 상기 다음 프레임 영상(11+1)의 음성정보를 입력받고, 상기 음성정보가 폭행음성인지 아닌지 판단한다(S4000e).In addition, the
또한, 상기 폭행음성의 판단은 상기 제1변화벡터(V1)와 제2변화벡터(V2)의 도출과정 이후에 이루어질 수도 있고, 상기 제1변화벡터(V1)와 제2변화벡터(V2)의 도출과정과 동시에 이루어질 수 있다.In addition, the determination of the assault sound may be made after the derivation process of the first change vector V 1 and the second change vector V 2 , or the first change vector V 1 and the second change vector V. It can be done simultaneously with the derivation process of V 2 ).
예를 들면, 상기 음성분석모듈(130)은 상기 음성정보가 일정한 범위 내의 데시벨(dB) 값일 경우 상기 음성정보를 폭행음성으로 판단할 수 있고, 상기 음성정보의 음절정보가 "살려줘" 등의 폭행상황에서 발생하는 음절일 경우, 상기 음성정보를 폭생상황으로 판단할 수 있다.For example, the
즉, 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1), 상기 제2변화벡터(V2) 및 상기 음성정보가 모두 폭행상황으로 판단될 경우 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단하는 것이다.That is, the assault
그러나 상기 폭행상황 판단모듈(140)은 상기 제1변화벡터(V1), 상기 제2변화벡터(V2) 및 상기 음성정보 중 어느 하나가 폭행상황으로 판단될 경우, 상기 다음 프레임 영상(11+1)을 폭행상황으로 판단할 수도 있다.However, when the assault
따라서, 상기 CCTV의 영상정보 및 음성정보를 복합적으로 이용하여 폭행상황을 정확하게 검출할 수 있는 효과가 있다.Therefore, the assault situation can be accurately detected by using the video and audio information of the CCTV in combination.
이상에서 살펴본 바와 같이 본 발명은 바람직한 실시예를 들어 도시하고 설명하였으나, 상기한 실시예에 한정되지 아니하며 본 발명의 정신을 벗어나지 않는 범위 내에서 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양 한 변경과 수정이 가능할 것이다.As described above, the present invention has been illustrated and described with reference to preferred embodiments, but is not limited to the above-described embodiments, and is provided to those skilled in the art without departing from the spirit of the present invention. Various changes and modifications will be possible.
도 1은 본 발명의 일 실시예에 따른 폭행상황 검출방법을 수행하기 위한 폭행상황 검출시스템을 보여주는 도면, 1 is a view showing an assault situation detection system for performing an assault situation detection method according to an embodiment of the present invention;
도 2는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리추적박스를 설명하기 위한 도면, 2 is a view for explaining the head tracking box of the assault situation detection method according to an embodiment of the present invention,
도 3은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 프레임 영상들을 보여주는 도면, 3 is a view showing frame images of an assault situation detection method according to an embodiment of the present invention;
도 4는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 폭행 후보 영상 선정방법을 설명하기 위한 도면, 4 is a view for explaining a method for selecting an assault candidate image of the assault situation detection method according to an embodiment of the present invention;
도 5는 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리이동벡터를 설명하기 위한 도면, 5 is a view for explaining the head movement vector of the assault situation detection method according to an embodiment of the present invention,
도 6은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 머리위치벡터를 설명하기 위한 도면, 6 is a view for explaining the head position vector of the assault situation detection method according to an embodiment of the present invention;
도 7은 본 발명의 일 실시예에 따른 폭행상황 검출방법의 흐름도이다.7 is a flowchart illustrating a method of detecting an assault situation according to an embodiment of the present invention.
본 발명에 따른 도면들에서 실질적으로 동일한 구성과 기능을 가진 구성요소들에 대하여는 동일한 참조부호를 사용한다.In the drawings according to the present invention, the same reference numerals are used for components having substantially the same configuration and function.
<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>
100:폭행상황 검출 시스템 110:배경삭제모듈100: assault situation detection system 110: background deletion module
120:객체추적모듈 130:음성분석모듈120: object tracking module 130: voice analysis module
140:폭행상황 판단모듈 150:폭행상황 알람모듈140: assault situation determination module 150: assault situation alarm module
160:디스플레이 수단 170:스피커 수단160: display means 170: speaker means
11-2,11-1,11,11+1,11+2:프레임 영상 11a,11b:사람객체11-2, 11-1, 11, 11 + 1, 11 + 2:
11a',11b':사람객체박스 121a,121b:머리추적박스11a ', 11b':
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090058578A KR101081861B1 (en) | 2009-06-29 | 2009-06-29 | Violence detection method by analyzing the motion image of moving peoples |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090058578A KR101081861B1 (en) | 2009-06-29 | 2009-06-29 | Violence detection method by analyzing the motion image of moving peoples |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110001172A KR20110001172A (en) | 2011-01-06 |
KR101081861B1 true KR101081861B1 (en) | 2011-11-09 |
Family
ID=43609771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090058578A KR101081861B1 (en) | 2009-06-29 | 2009-06-29 | Violence detection method by analyzing the motion image of moving peoples |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101081861B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101459104B1 (en) | 2014-04-01 | 2014-11-13 | 주식회사 다이나맥스 | Intelligent cctv system detecting emergency with motion analysis and method of emergency detection using the same |
KR102247112B1 (en) * | 2020-12-30 | 2021-05-03 | 주식회사세오 | Edge computing-based IP camera in hazardous areas, artificial intelligence video surveillance system including the same, and operation method thereof |
KR20230091380A (en) * | 2021-12-16 | 2023-06-23 | 숭실대학교산학협력단 | Behavioral recognition-based risk situation detection system and method |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101292790B1 (en) * | 2011-11-30 | 2013-08-02 | 최두 | Real time security system and the mehtod thereof |
KR101509223B1 (en) * | 2013-03-07 | 2015-04-10 | 최숙자 | Security system with an auto capturing for monitoring screen and method of the same |
KR101423873B1 (en) * | 2013-03-26 | 2014-08-06 | 가천대학교 산학협력단 | Integrated management system with image monitoring system and method for detecting viloent events using the smae |
KR101336825B1 (en) * | 2013-04-19 | 2013-12-04 | 주원통신 주식회사 | Monitoring system for prevention of crime and violence in school |
KR101644443B1 (en) * | 2014-02-05 | 2016-08-01 | 김세영 | Warning method and system using prompt situation information data |
KR101593187B1 (en) | 2014-07-22 | 2016-02-11 | 주식회사 에스원 | Device and method surveiling innormal behavior using 3d image information |
CN108353149B (en) * | 2015-10-26 | 2020-10-13 | 李炯勇 | CCTV automatic sorting monitoring system, CCTV automatic sorting monitoring management method and medium |
KR101669885B1 (en) * | 2016-05-30 | 2016-10-27 | 이형각 | method of detecting pedestrian collision and IoT apparatus thereof |
CN110274590B (en) * | 2019-07-08 | 2022-10-28 | 哈尔滨工业大学 | Violent action detection method and system based on decision tree |
CN113570575A (en) * | 2021-07-28 | 2021-10-29 | 精英数智科技股份有限公司 | Drilling depth statistical method and system based on target detection |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006276969A (en) | 2005-03-28 | 2006-10-12 | Mitsubishi Electric Corp | Violence detecting device |
KR100887942B1 (en) * | 2007-01-31 | 2009-03-30 | (주)씽크게이트테크놀러지 | System for sensing abnormal phenomenon on realtime and method for controlling the same |
KR100896949B1 (en) * | 2006-08-30 | 2009-05-14 | (주)로직아이텍 | Image Monitoring System for Object Identification |
-
2009
- 2009-06-29 KR KR1020090058578A patent/KR101081861B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006276969A (en) | 2005-03-28 | 2006-10-12 | Mitsubishi Electric Corp | Violence detecting device |
KR100896949B1 (en) * | 2006-08-30 | 2009-05-14 | (주)로직아이텍 | Image Monitoring System for Object Identification |
KR100887942B1 (en) * | 2007-01-31 | 2009-03-30 | (주)씽크게이트테크놀러지 | System for sensing abnormal phenomenon on realtime and method for controlling the same |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101459104B1 (en) | 2014-04-01 | 2014-11-13 | 주식회사 다이나맥스 | Intelligent cctv system detecting emergency with motion analysis and method of emergency detection using the same |
KR102247112B1 (en) * | 2020-12-30 | 2021-05-03 | 주식회사세오 | Edge computing-based IP camera in hazardous areas, artificial intelligence video surveillance system including the same, and operation method thereof |
KR20230091380A (en) * | 2021-12-16 | 2023-06-23 | 숭실대학교산학협력단 | Behavioral recognition-based risk situation detection system and method |
KR102615378B1 (en) * | 2021-12-16 | 2023-12-19 | 숭실대학교 산학협력단 | Behavioral recognition-based risk situation detection system and method |
Also Published As
Publication number | Publication date |
---|---|
KR20110001172A (en) | 2011-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101081861B1 (en) | Violence detection method by analyzing the motion image of moving peoples | |
US11228715B2 (en) | Video surveillance system and video surveillance method | |
US7639840B2 (en) | Method and apparatus for improved video surveillance through classification of detected objects | |
JP4966820B2 (en) | Congestion estimation apparatus and method | |
US8189049B2 (en) | Intrusion alarm video-processing device | |
JP2022166067A (en) | Information processing system, information processing method and program | |
AU2014101406B4 (en) | A portable alerting system and a method thereof | |
JP4984575B2 (en) | Intruder detection device by image processing | |
US11776274B2 (en) | Information processing apparatus, control method, and program | |
US9761248B2 (en) | Action analysis device, action analysis method, and action analysis program | |
Velastin et al. | A motion-based image processing system for detecting potentially dangerous situations in underground railway stations | |
JP2006252248A (en) | Trespasser detecting system by image processing | |
US8665329B2 (en) | Apparatus for automatically ignoring cast self shadows to increase the effectiveness of video analytics based surveillance systems | |
Ketcham et al. | The intruder detection system for rapid transit using CCTV surveillance based on histogram shapes | |
Veni et al. | Road accident detection and severity determination from CCTV surveillance | |
KR101840042B1 (en) | Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System | |
Davies et al. | A progress review of intelligent CCTV surveillance systems | |
CN112288975A (en) | Event early warning method and device | |
Huang et al. | Rapid detection of camera tampering and abnormal disturbance for video surveillance system | |
US20110033087A1 (en) | Video content analysis | |
CN114220069A (en) | Object monitoring method, electronic device and computer-readable storage medium | |
CN111460917B (en) | Airport abnormal behavior detection system and method based on multi-mode information fusion | |
KR101669885B1 (en) | method of detecting pedestrian collision and IoT apparatus thereof | |
KR101407394B1 (en) | System for abandoned and stolen object detection | |
KR101294498B1 (en) | Method of objects recognition for tunnel accident monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141030 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150706 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161025 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20171025 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20181029 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20191031 Year of fee payment: 9 |