KR101910033B1 - Method tracking and monitoring object - Google Patents

Method tracking and monitoring object Download PDF

Info

Publication number
KR101910033B1
KR101910033B1 KR1020170146505A KR20170146505A KR101910033B1 KR 101910033 B1 KR101910033 B1 KR 101910033B1 KR 1020170146505 A KR1020170146505 A KR 1020170146505A KR 20170146505 A KR20170146505 A KR 20170146505A KR 101910033 B1 KR101910033 B1 KR 101910033B1
Authority
KR
South Korea
Prior art keywords
factor
risk
target object
camera
predetermined
Prior art date
Application number
KR1020170146505A
Other languages
Korean (ko)
Inventor
정중기
Original Assignee
주식회사 티모스정보통신
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 티모스정보통신 filed Critical 주식회사 티모스정보통신
Priority to KR1020170146505A priority Critical patent/KR101910033B1/en
Application granted granted Critical
Publication of KR101910033B1 publication Critical patent/KR101910033B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • G08B13/19615Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion wherein said pattern is defined by the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

According to an embodiment of the present invention, a method of tracing and monitoring an object comprises the steps of: storing interested objects pre-selected from images in which a specific event has occurred among images transmitted through a plurality of cameras; detecting a target object from the images photographed in real time through the camera; extracting a second object factor for each region that is a feature of the interested objects when extracting a first object factor for each region that is a feature of any one of the interested object; counting the second object factors to select the second object factor with the highest number as a risk factor, deriving similarity for each region of the risk factors and the first object factors by using a predetermined similarity table, and deriving an applied weight for each region when the first object factor and the risk factor are determined to be the same as each other; calculating a risk of the target object by summing, by each region, the multiplication of the similarity and the weight; and operating the camera to track the target object according to a predetermined scenario corresponding to the calculated risk. The present invention is able to track only a target object such as an intruder or an enemy by operating a camera according to a preset scenario corresponding to a risk.

Description

객체를 추적감시하는 방법{METHOD TRACKING AND MONITORING OBJECT}{METHOD TRACKING AND MONITORING OBJECT}

본 발명의 일실시예들은 객체를 추적감시하는 방법에 관한 것으로, 보다 상세하게는, 실시간으로 탐지되는 대상객체에 대해 위험도를 산출하고, 상기 위험도에 따른 기설정된 시나리오에 따라 카메라를 조작하여 상기 대상객체를 추적할 수 있는 방법에 관한 것이다. More particularly, the present invention relates to a method of tracking and monitoring an object, and more particularly, to a method and apparatus for calculating a risk of a target object to be detected in real time and operating a camera according to a predetermined scenario according to the risk, And how to track objects.

전통적으로 비행장, 탄약고, 통신시설, GOP, 지휘통제소 등과 같은 군 병력 주둔지나 군 주요시설에는 적군의 침입, 침투에 대비하여 그 시설주변의 요소마다 초소를 설치하고 여기에 초병을 투입하여 경계임무를 수행하게 하고 있었으나, 최근의 정보통신기술의 발달로 인하여 감시카메라 시스템이 군 경계임무의 대체수단으로 도입됨에 따라 군병력의 감축이 가능하게 되고 있다.Traditionally, military facilities such as aerodromes, ammunition, communication facilities, GOPs, command centers, etc. are installed in main facilities of military or military facilities in order to prepare for enemy invasion and infiltration, However, due to the recent development of information and communication technology, the surveillance camera system has been introduced as an alternative means of military boundaries.

또한, 변전소 등 보안 경계가 필수적으로 필요한 시설은 인허가를 받은 사람 이외의 사람이 접근하는 것을 감시해야 되고, 외부 침입자 유무를 감시해야 한다. 이를 위하여 감시카메라 시스템이 주요 보안 설비 주변에 구축되고 있다.In addition, facilities that require a security boundary, such as a substation, should be monitored for access by persons other than those licensed and monitored for external intruders. To this end, a surveillance camera system is being built around major security facilities.

이러한 감시 카메라 시스템은 경계대상지역에 설치된 다수의 카메라에 포착된 영상을 중앙감시통제소의 관리자가 모니터링하는 것으로 현장을 무인 감시하는 것을 가능하게 한다.Such a surveillance camera system enables an unattended surveillance of a scene by monitoring an image captured by a plurality of cameras installed in a boundary target area by a supervisor of a central surveillance control station.

그러나 기존의 감시 카메라 시스템은 중앙감시통제소에서의 감시관리자가 경계대상 지역에 설치된 카메라로부터 올라오는 현장 영상에 기초하여 상황을 인식하고 판단하게 되므로 중앙감시통제소의 감시관리자의 숙련도에 따라 현장상황에 대한 인식과 판단에 오차가 있을 수 있다.However, since the existing surveillance camera system recognizes and judges the situation on the basis of the scene image coming from the camera installed in the boundary area, the surveillance manager at the central surveillance control station judges the situation according to the proficiency of the surveillance manager of the central surveillance station There may be errors in recognition and judgment.

즉, 이러한 감시카메라 시스템은 주요 보안 설비 또는 군 주둔지 등의 감시 및 경계 품질에 균질성을 얻을 수 없어 상황발생시 체계적이고 합리적인 대응을 어렵게 만든다.In other words, such a surveillance camera system can not achieve homogeneity in monitoring and boundary quality of major security facilities or military garrisons, making systematic and rational response difficult in situations.

또한, 기존의 감시 카메라 시스템은 적군이, 우리 군의 경계구역 예를 들어, 철책이나 담장 등을 침입이나 침투하여 주요시설로 이동할 때, 이를 중앙감시통제소에서의 감시관리자가 모니터링하지 않을 때, 상기 적군이 진행하는 방향을 추적할 수 없는 문제가 있다. In addition, the existing surveillance camera system can prevent the enemy army from moving to the main facility by intruding or infiltrating the border area of the army, for example, iron fence or fence, There is a problem that the direction of the enemy army can not be traced.

이에 따라, 본 발명에서는 중앙감시통제소에서의 감시관리자가 모니터링하지 않을 때, 상기 적군이 우리 군의 경계구역을 침입이나 침투하여 주요시설로 이동할 때, 자동으로 추적 및 촬영하여 신속하고 정확하게 대처할 수 있게 하는 서버, 이를 포함하는 시스템 및 방법을 제공하고자 한다. Accordingly, in the present invention, when the surveillance manager at the central surveillance control station does not monitor, when the enemy forces intrudes into or penetrates into the border area of the military, it can be automatically tracked and photographed, And a system and method for including the same.

본 발명의 일 목적은, 실시간으로 탐지되는 대상객체에 대해 위험도를 산출하고, 상기 위험도에 따른 기설정된 시나리오에 따라 카메라를 조작하여 상기 침입자나 적군인 대상객체에 대해서만 상기 대상객체를 추적할 수 있는 객체를 추적감시하는 방법을 제공하는 것을 목적으로 한다. An object of the present invention is to provide an image processing apparatus and method capable of calculating a risk level for a target object to be detected in real time and tracking the target object only for the intruder or enemy target object by operating a camera according to a predetermined scenario according to the risk The object of the present invention is to provide a method for tracking and monitoring an object.

본 발명의 다른 목적은, 감시구역에 위치한 대상객체의 부위별 대상인자들과 위험인자들과의 유사도에 기초하여 상기 대상객체의 위험도를 판단하기 때문에, 보행자나 등산객인 대상객체와 상기 감시구역을 침입하는 침입자나 적군인 대상객체를 효과적으로 구분하여 식별하고, 상기 침입자나 적군인 대상객체에 대해서 추적하도록 카메라들을 구동시키는 것을 목적으로 한다. It is another object of the present invention to provide a surveillance system and a surveillance system capable of detecting a risk of a target object based on similarities between target factors and risk factors of a target object located in a surveillance zone, The object of the present invention is to effectively distinguish and identify an intruding intruder or enemy target object and to drive the cameras to track the intruder or enemy target object.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)는 이하의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned task (s), and another task (s) not mentioned is to be clearly understood to those skilled in the art to which the present invention belongs It can be understood.

이와 같은 본 발명의 해결 과제를 달성하기 위하여, 본 발명의 일 실시예에 따르는 객체를 추적감시하는 방법은, 복수개의 카메라를 통해 전송받은 영상들 중 특정이벤트가 발생한 영상들로부터 기선정된 관심객체들을 저장하는 단계, 상기 카메라들을 통해 실시간으로 촬영된 영상들로부터 어느 하나의 대상객체를 탐지하는 단계, 상기 어느 하나의 대상객체의 특징이 되는 부위별 제1 대상인자를 추출할 때, 상기 관심객체들의 특징이 되는 부위별 제2 대상인자를 추출하는 단계, 상기 제2 대상인자를 카운트하여 부위별로 가장 높게 카운트된 제2 대상인자를 위험인자로 선정하고, 기설정된 유사도테이블을 이용하여 상기 위험인자와 상기 제1 대상인자의 부위별 유사도를 도출하며, 상기 제1 대상인자와 상기 위험인자가 서로 동일한 것으로 판단될 때 적용된 부위별 가중치를 도출하는 단계, 상기 유사도와 상기 가중치의 곱을 부위별로 합하여 상기 대상객체의 위험도를 산출하는 단계 및 상기 산출된 위험도에 따른 기설정된 시나리오에 따라 상기 대상객체를 추적하도록 상기 카메라를 조작하는 단계를 포함하는 것을 특징으로 한다. According to another aspect of the present invention, there is provided a method for tracking and monitoring an object, the method comprising: Detecting one of the target objects from the images photographed in real time through the cameras, extracting a first object factor for each feature of the target object, Calculating a second target factor for each region by counting the second target factor, selecting a second target factor that is the highest for each region as a risk factor, and using the preset similarity table, And the degree of similarity of each of the first subject factors and the first subject factors, and when the first subject factor and the risk factors are determined to be equal to each other Calculating a risk of the target object by summing the product of the similarity and the weight by the site, and calculating the risk of the target object by operating the camera to track the target object according to the predetermined scenario according to the calculated risk. The method comprising the steps of:

본 발명과 관련한 일 예에 따르면, 상기 산출하는 단계는, 상기 대상객체의 위험도에 대한 산출식(1)을 통해 산출하고, According to an example of the present invention, the calculating step may be performed through an equation (1) for the risk of the target object,

상기 산출식은

Figure 112017109692458-pat00001
(1) 이고, 이때, n은 상기 부위의 개수, k는 상기 부위별 기설정된 상수, A는 상기 제1 대상인자와 상기 위험인자와의 공통점에 따른 유사도, B는 상기 부위별 인자들이 동일할 때 적용되는 가중치인 것을 특징으로 한다. The calculation equation
Figure 112017109692458-pat00001
(1) where n is the number of sites, k is a predetermined constant for each site, A is the similarity between the first object factor and the risk factor, B is the site-specific factor Is a weight that is applied when

본 발명과 관련한 일 예에 따르면, 상기 위험도가 일정값 이상일 때, 상기 카메라로부터 실시간으로 촬영된 영상으로부터 분할된 영역마다 기설정된 좌표정보에 근거하여 상기 대상객체의 위치를 추정하는 제1 추정단계 및 추정되는 상기 대상객체의 제1 위치에서 제2 위치로 일정시간 동안 이동하는 상기 대상객체의 이동속도와 방향각을 추정하는 제2 추정단계를 더 포함하는 것을 특징으로 한다. According to another aspect of the present invention, there is provided a method for estimating a position of a target object, the method comprising: a first estimation step of estimating a position of the target object based on preset coordinate information for each of regions divided from an image captured in real- And a second estimating step of estimating a moving speed and a direction angle of the target object moving for a predetermined time from a first position to a second position of the target object to be estimated.

본 발명과 관련한 일 예에 따르면, 상기 제2 추정단계는, 상기 방향각에 따른 이동경로가 추정될 때, 상기 복수개의 카메라 중 상기 이동경로를 따라 일정거리 이내에 배치된 어느 하나의 카메라를 조작하도록 상기 시나리오를 업데이트하는 단계를 포함하는 것을 특징으로 한다. According to an example of the present invention, the second estimating step may include a step of estimating a movement path along the direction angle by operating one of the plurality of cameras disposed within a predetermined distance along the movement path And updating the scenario.

본 발명과 관련한 일 예에 따르면, 상기 제2 추정단계는, 상기 어느 하나의 카메라의 촬영영역의 위치, 상기 대상객체의 제1 위치, 상기 이동속도에 근거하여 상기 대상객체를 추적하기 위한 제어신호의 전송시간과 지연시간을 결정하는 단계 및 상기 전송시간 및 지연시간에 따라 상기 어느 하나의 카메라를 조작하도록 상기 시나리오를 업데이트하는 것을 특징으로 한다. According to an example of the present invention, the second estimating step may include: a control signal for tracking the target object based on a position of an imaging region of the camera, a first position of the target object, And the scenario is updated to operate the one of the cameras according to the transmission time and the delay time.

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 객체를 추적감시하는 방법은, 실시간으로 탐지되는 대상객체에 대해 위험도를 산출하고, 상기 위험도에 따른 기설정된 시나리오에 따라 카메라를 조작하여 상기 침입자나 적군인 대상객체에 대해서만 추적할 수 있게 하는 효과가 있다. A method for tracking and monitoring an object related to at least one embodiment of the present invention configured as described above includes the steps of calculating a risk level for a target object detected in real time and operating the camera according to a predetermined scenario according to the risk level, It has the effect of allowing only intruders or enemy target objects to be tracked.

또한, 감시구역에 위치한 대상객체의 부위별 대상인자들과 위험인자들과의 유사도에 기초하여 상기 대상객체의 위험도를 판단하기 때문에, 보행자나 등산객인 대상객체와 상기 감시구역을 침입하는 침입자나 적군인 대상객체를 효과적으로 구분하여 식별할 수 있게 하는 효과가 있다. In addition, since the risk of the target object is determined based on the degree of similarity between the target factors and the risk factors of the target object located in the surveillance zone, it is possible to prevent the intruder or the enemy It is possible to effectively distinguish and identify the target object.

도 1은 본 발명의 일실시예에 관련된 객체추적감시 시스템 도이다.
도 2는 본 발명의 일실시예에 관련된 객체추적감시 서버의 구성도이다.
도 3은 일실시예에 관련된 객체추적감시 서버의 동작프로세스이다.
도 4는 본 발명의 다른 실시예에 관련된 객체추적감시 시스템 도이다.
1 is an object tracking and monitoring system according to an embodiment of the present invention.
2 is a configuration diagram of an object tracking and monitoring server according to an embodiment of the present invention.
3 is an operation process of the object tracking monitoring server according to one embodiment.
4 is an object tracking and monitoring system according to another embodiment of the present invention.

이하, 본 발명에 관련된 객체를 추적감시하는 방법에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 본 명세서에서는 서로 다른 실시예라도 동일·유사한 구성에 대해서는 동일·유사한 참조번호를 부여하고, 그 설명은 처음 설명으로 갈음한다. 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Hereinafter, a method of tracking and monitoring objects related to the present invention will be described in more detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the present specification, the same or similar reference numerals are given to different embodiments in the same or similar configurations. As used herein, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise.

본 명세서의 도면들은 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 즉, 도면도에 표시된 기능들은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스에 의해 수행되는 것으로 이해되어야 한다.It is to be understood that the drawings herein illustrate conceptual aspects of exemplary circuits embodying the principles of the invention. That is, it should be understood that the functions shown in the figures may be substantially represented on a computer-readable medium and performed by various processes performed by the computer or processor, whether or not the computer or processor is explicitly shown.

그리고, 각각의 기능은 전용하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.And, each function can be provided not only with dedicated hardware, but also with the use of hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 관련된 객체추적감시 시스템 도이다. 1 is an object tracking and monitoring system according to an embodiment of the present invention.

도 1을 참조하면, 객체추적감시 시스템(1000)은 복수개의 카메라들(10-1~10-N)과 객체추적감시 서버(100)를 포함할 수 있다. Referring to FIG. 1, the object tracking and monitoring system 1000 may include a plurality of cameras 10-1 to 10-N and an object tracking and monitoring server 100.

여기서, 카메라들(10-1~10-N)은 고정형 카메라와 PTZ 카메라의 두 종류의 카메라로 구성되며, 이에 더하여 영상표출, 카메라의 팬(Pan)/틸트(Tilt)/줌(Zoom) 기능을 위한 일체의 모든 장비를 포함할 수 있다. 보다 구체적으로, 고정형 카메라는 일반 카메라, 돔 카메라, 적외선 카메라, 레이저 카메라, 열화상 카메라 등 다양한 형태의 영상을 표출하고, 일반적인 화각(약 80도)을 갖거나, 그 이상 또는 360도를 감시할 수 있는 카메라일 수 있으며, PTZ 카메라는 팬(Pan)/틸트(Tilt)/줌(Zoom) 기능을 가지며, 이를 위한 구동장치를 구비할 수 있다. Here, the cameras 10-1 to 10-N are composed of two types of cameras, namely, a fixed camera and a PTZ camera. In addition, the cameras 10-1 to 10-N include a video display, a pan / tilt / zoom function And may include any and all of the equipment for. More specifically, the fixed type camera displays various types of images such as a general camera, a dome camera, an infrared camera, a laser camera, a thermal camera, and the like, and has a general angle of view (about 80 degrees) And the PTZ camera has a pan / tilt / zoom function, and a driving device for the PTZ camera can be provided.

또한, 카메라들(10-1~10-N)은 창고 등과 같은 정적인 장소에 설치되거나, 사람이 다니는 길목과 같은 동적인 장소 등과 같은 감시구역에 일정거리마다 서로 이격되게 설치될 수 있다. The cameras 10-1 to 10-N may be installed in a static place such as a warehouse, or may be spaced apart from each other by a predetermined distance in a monitoring area such as a dynamic place such as a person's walking path.

다음으로, 객체추적감시 서버(100)는 네트워크(50)를 통해 카메라들(10-1~10-N)로부터 촬영된 영상들을 전송받을 수 있다. Next, the object tracking and monitoring server 100 can receive images photographed from the cameras 10-1 to 10-N via the network 50. [

보다 구체적으로, 객체추적감시 서버(100)는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 중 적어도 어느 하나를 포함하는 유선 통신 인터페이스, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 중 적어도 어느 하나를 포함하는 무선 통신 인터페이스 및 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 중 적어도 어느 하나를 포함하는 근거리 통신 인터페이스를 구비하여 네트워크(50)를 통해 카메라들(10-1~10-N)로부터 촬영된 영상들을 전송받을 수 있다. More specifically, the object tracking and monitoring server 100 is a wired communication system including at least one of a power line communication (PLC), a USB communication, an Ethernet, a serial communication, and an optical / Interface, a wireless LAN (WLAN), a Digital Living Network Alliance (DLNA), a Wireless Broadband (Wibro), a WiMAX, a High Speed Downlink Packet Access (HSDPA) (IEEE 802.16), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), and Wireless Broadband Mobile Broadband Service (WMBS) (Bluetooth), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC) A short distance communication interface including at least one of Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, and Wi-Fi Direct Images taken from the cameras 10-1 to 10-N through the network 50 can be received.

또한, 객체추적감시 서버(100)는 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O 포트, 비디오 I/O 포트, 이어폰 포트 등을 더 포함하여 출력장치 예컨대, 디스플레이, 외부저장장치, 마우스, 키보드와 연결될 수 있도록 형성될 수 있다. In addition, the object tracking and monitoring server 100 includes a port for connecting a device equipped with a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, O port, an earphone port, and the like, and can be connected to an output device such as a display, an external storage device, a mouse, and a keyboard.

이하, 도 2와 도 3을 참조하여, 객체추적감시 서버(100)를 보다 구체적으로 설명한다. Hereinafter, the object tracking monitoring server 100 will be described in more detail with reference to FIG. 2 and FIG.

도 2는 본 발명의 일실시예에 관련된 객체추적감시 서버의 구성도이고, 도 3은 일실시예에 관련된 객체추적감시 서버의 동작프로세스이다. FIG. 2 is a configuration diagram of an object tracking and monitoring server according to an embodiment of the present invention, and FIG. 3 is an operation process of an object tracking and monitoring server according to an embodiment.

도 1 내지 도 3을 참조하면, 객체추적감시 서버(100)는 저장부(110), 탐지부(120), 추출부(130), 산출부(140) 및 조작부(150)를 포함할 수 있다. 1 to 3, the object tracking and monitoring server 100 may include a storage unit 110, a detection unit 120, an extraction unit 130, a calculation unit 140, and an operation unit 150 .

먼저, 저장부(110)는 감시구역에 서로 이격된 위치에 배치되는 카메라들(10-1~10-N)을 통해 이전에 전송받은 영상들 중 특정이벤트가 발생한 영상들로부터 기선정된 관심객체들을 저장할 수 있다(S100). First, the storage unit 110 stores the objects of interest (hereinafter, referred to as " objects of interest ") selected from the images in which the specific events have occurred among the images transmitted through the cameras 10-1 to 10- (S100).

여기서, 특정이벤트는 외부로부터 예컨대, 비행장, 탄약고, 통신시설, GOP, 지휘통제소 등과 같은 기설정된 감시구역에 무단으로 침입 또는 침투한 행위를 의미하고, 상기 관심객체는 상기 행위를 수행하는 적군이나 탈북자, 침입자 등일 수 있다. Here, the specific event means an unauthorized intrusion or infiltration from the outside into a predetermined surveillance zone such as an aerodrome, ammunition, communication facility, GOP, command control station, etc., and the object of interest is an enemy , An intruder, and the like.

다른 실시예에 따라, 객체추적감시 서버(100)는 도 4에 도시된 바와 같이, 카메라들(10-1~10-N)을 통해 전송받은 영상들을 저장 DB(200)로 중계하고, 저장 DB(200)로부터 상기 저장된 영상들 중 특정이벤트가 발생한 영상들로부터 기선정된 관심객체들을 전송받을 수 있다. 4, the object tracking and monitoring server 100 relays the images received through the cameras 10-1 to 10-N to the storage DB 200, It is possible to receive interest objects selected from the images in which the specific event occurred from the stored images.

여기서, 저장 DB(200)는 객체추적감시 서버(100)로부터 전송된 영상들을 기설정된 특정이벤트에 따라 데이터베이스(DB)화하여 분류, 저장 및 관리하는 오라클(Oracle), 인포믹스(Infomix), 사이베이스(Sybase), DB2와 같은 관계형 데이터베이스 관리 시스템(RDBMS)이나, 겜스톤(Gemston), 오리온(Orion), O2 등과 같은 객체 지향 데이터베이스 관리 시스템(OODBMS)을 이용하여 본 발명의 목적에 맞게 구현될 수 있고, 자신의 기능을 달성하기 위하여 적당한 필드(field)들을 가지고 있다.Here, the storage DB 200 is a storage medium for storing images, which are transmitted from the object tracking monitoring server 100, in the form of a database (DB) according to predetermined events, such as Oracle, Infomix, Oriented database management system (OODBMS) such as a relational database management system (RDBMS) such as Sybase, DB2, or Gemston, Orion, O2, etc. And has the appropriate fields to achieve its function.

보다 구체적으로, 저장 DB(200)는 특정이벤트에 따라 객체추적감시 서버(100)로부터 중계된 영상들을 분류하고, 분류된 영상들로부터 기선정된 관심객체들을 추출하여 객체추적감시 서버(100)에 전송하도록 제어모듈과 통신모듈이 포함된 DVR(Digital Video Recorder), NVR(Network Video Recorder)로 구성될 수 있다. More specifically, the storage DB 200 classifies the images relayed from the object tracking monitoring server 100 according to a specific event, extracts interest objects selected from the classified images, and transmits the classified objects to the object tracking monitoring server 100 And a DVR (Digital Video Recorder) and an NVR (Network Video Recorder) that include a control module and a communication module to transmit data.

또한, 저장 DB(200)는 상기 감시구역에 서로 이격되게 배치된 카메라들(10-1~10-N)이 배치된 공간의 GIS(Geographic Information System) 정보를 미리 획득하여 수집할 수 있다. Also, the storage DB 200 can acquire and collect GIS (Geographic Information System) information of a space in which the cameras 10-1 to 10-N arranged in the monitoring area are arranged apart from each other.

즉, 저장 DB(200)는 일반적으로 공간상 위치를 점유하는 지리자료(Geographic data)와 이에 관련된 속성자료(Attribute data)를 통합하여 처리하는 지리정보시스템(Geographic Information System, 미도시)과 연동을 통해 상기 감시구역에 서로 이격되게 배치된 카메라들(10-1~10-N)이 배치된 공간의 GIS 정보를 수집, 저장, 갱신, 처리, 분석, 출력할 수 있다. That is, the storage DB 200 generally includes a geographic information system (not shown) that integrates geographical data occupying a spatial position and attribute data related thereto Store, update, process, analyze, and output the GIS information of the space in which the cameras 10-1 to 10-N arranged in the monitoring area are spaced apart from each other.

다시 도 1과 도 2를 참조하면, 탐지부(120)는 카메라들(10-1~10-N)을 통해 실시간으로 촬영되는 영상들로부터 어느 하나의 대상객체를 탐지할 수 있다(S110). Referring to FIGS. 1 and 2 again, the detection unit 120 may detect any one target object from images captured in real time through the cameras 10-1 through 10-N (S110).

여기서, 대상객체는 특정이벤트로 분류되기 이전에 또는 상기 관심객체로 선정되기 이전에 상기 영상들 내 포함된 객체일 수 있다. Here, the target object may be an object included in the images before being classified as a specific event or before being selected as the object of interest.

이때, 탐지부(120)는 카메라들(10-1~10-N)을 통해 촬영된 영상들로부터 Haar-Like Feature 방식을 이용하여 상기 대상객체를 탐지하거나, HOG(Histogram of oriented Gradient), CS-LBP(Center-Symmetric Local Binary Pattern) 및 Gabor Filter Response 등과 같은 그 어떤 방식이라도 적용 가능할 수 있다. At this time, the detection unit 120 detects the target object from the images photographed through the cameras 10-1 to 10-N using the Haar-Like Feature scheme, or detects the HOG (Histogram of Oriented Gradient), CS -LBP (Center-Symmetric Local Binary Pattern) and Gabor Filter Response, and the like.

다음으로, 추출부(130)는 탐지부(120)에서 탐지된 어느 하나의 대상객체로부터 상기 어느 하나의 대상객체의 특징이 되는 부위별 제1 대상인자들을 추출할 수 있다(S120). Next, the extracting unit 130 may extract the first target factors of each site, which is a characteristic of any one of the target objects, from any one of the target objects detected by the detecting unit 120 (S120).

여기서, 부위별 제1 대상인자들은 영상 내 객체의 부위별로 특징이 되는 상부위의 모자나 헬멧, 중부위의 군장가방이나 등산가방, 하부위의 군화 또는 운동화, 특정부위의 총이나 칼 등의 특정 소지품들을 의미하고, 본 발명에서 설명될 제2 대상인자들도 상기 설명과 동일한 의미로 사용될 수 있다. Here, the first object factors of each region are classified into specific areas such as a hat or a helmet, a suitcase bag or a climbing bag on the middle, And the second object factors to be described in the present invention may be used in the same sense as the above description.

보다 구체적으로, 추출부(130)는 탐지부(120)에서 탐지된 대상객체의 영상영역을 부위별로 분할하고, 분할된 영상영역과 기설정된 수집인자들을 부위별로 비교하여 대응되는 수집인자를 해당 부위의 제1 대상인자로 추출할 수 있다. More specifically, the extracting unit 130 divides the image region of the target object detected by the detecting unit 120 according to sites, compares the divided image region and predetermined collection factors by site, Can be extracted as the first object factor of the first.

여기서, 기설정된 수집인자들은, 캡모자, 헬멧, 등산모자와 같은 상부위의 수집인자, 군장가방, 군장벨트와 같은 군장용품을 포함하는 중부위의 수집인자, 운동화, 군화와 같은 하부위의 수집인자, 총, 칼과 같은 특정부위 예컨대, 손이나 허리의 수집인자를 포함할 수 있다. Here, the predetermined collection factors are collectors of upper parts such as cap hats, helmets, climbing caps, collectors on the middle, including accessories such as suitcases, Such as a factor, a gun, a knife, for example, a hand or waist collection factor.

이때, 추출부(130)는 상기 부위별 제1 대상인자들을 추출할 때, 저장부(110)에 미리 저장된 또는 저장 DB(200)로부터 전송받는 상기 관심객체들의 특징이 되는 부위별 제2 대상인자들을 추출할 수 있다(S130). At this time, when extracting the first object factors for each part, the extracting unit 130 extracts a second object factor for each part, which is a characteristic of the objects of interest received from the storage DB 200 or stored in the storage unit 110, (S130).

보다 구체적으로, 추출부(130)는 저장부(110)에 미리 저장된 상기 관심객체의 영상영역을 부위별로 분할하고, 분할된 영상영역들과 기설정된 수집인자들을 부위별로 비교하여 대응되는 수집인자를 해당 부위의 제2 대상인자로 추출할 수 있다. More specifically, the extracting unit 130 divides the image region of the object of interest previously stored in the storage unit 110 into regions, compares the divided image regions with predetermined collection factors on a site basis, It can be extracted as a second target factor of the site.

다음의 표 1 내지 표 4는 저장부(110)에 미리 저장된 제2 대상인자들이 부위별로 추출된 예를 나타낸다. Tables 1 to 4 below show examples in which second target factors stored in advance in the storage unit 110 are extracted for each region.

관심객체의 부위Areas of interest 제2 대상인자Second Target Factor 카운트된 횟수Counted counts 상부위Upper part 헬멧helmet 30회30 times 캡모자Cap hat 8회8 times 등산모자Climbing cap 2회Episode 2 털모자Fur hat 4회4 times 없음none 6회6 times

관심객체의 부위Areas of interest 제2 대상인자Second Target Factor 카운트된 횟수Counted counts 중부위

Central part

군장용품(가방, 수통등)Accessories (bag, water bottle, etc.) 20회20 times
등산용품Climbing goods 2회Episode 2 없음none 2828

관심객체의 부위Areas of interest 제2 대상인자Second Target Factor 카운트된 횟수Counted counts 하부위Lower part 군화Turf 38회38 times 운동화sports shoes 8회8 times 등산화Hiking 2회Episode 2 없음none 2회Episode 2

관심객체의 부위Areas of interest 제2 대상인자Second Target Factor 카운트된 횟수Counted counts 특정부위

Specific site

gun 40회40 times
knife 5회5 times 없음none 5회5 times

또한, 추출부(130)는 저장부(110)에서 추출된 상기 제2 대상인자들을 부위별로 카운트하여 가장 높게 카운트된 제2 대상인자를 위험인자, 예컨대, 헬멧을 상부위의 위험인자, 군장용품을 중부위의 위험인자, 군화를 하부위의 위험인자, 총을 특정부위의 위험인자로 선정할 수 있다(S140). The extracting unit 130 counts the second target factors extracted from the storage unit 110 according to the sites and calculates the second highest target factor as a risk factor such as a risk factor of the upper region, The risk factors for central, subcancer, and gun can be selected as risk factors for specific sites (S140).

실시예에 따라, 저장 DB(200) 또는 저장부(110)는 특정이벤트 예컨대, 기설정된 감시구역에 무단으로 침입 또는 침투한 행위에 따라 부위별 제2 대상인자들이 포함된 관심객체들에 대한 통계정보 예컨대, 표 1 내지 표 4에 기재된 예를 수동으로 미리 입력받아 저장하고, 이때, 추출부(130)는 상기 통계정보를 기반으로, 위험인자를 선정할 수 있다. According to the embodiment, the storage DB 200 or the storage unit 110 may store statistics about interesting objects including second target factors for each specific event, for example, an unauthorized intrusion or infiltration into a predetermined monitoring area Information, for example, the examples described in Tables 1 to 4 are manually inputted and stored in advance. At this time, the extracting unit 130 can select a risk factor based on the statistical information.

이때, 산출부(140)는 기설정된 유사도테이블을 이용하여 상기 제2 대상인들 중 부위별로 가장 높게 카운트되어 선정된 위험인자들과 상기 제1 대상인자들간의 공통점에 따른 부위별 유사도를 도출할 수 있다(S150). At this time, the calculating unit 140 may calculate the degree of similarity between the selected risk factors and the first object factors according to the common points between the first object factors and the second object, using the predetermined similarity table (S150).

보다 구체적으로, 산출부(140)는 하기의 표 5 내지 표 8에 기재된 유사도테이블을 이용하여 추출부(130)에서 선정된 상기 위험인자들과 추출부(130)에서 추출된 상기 제1 대상인자들간의 부위별 유사도를 도출할 수 있다.More specifically, the calculating unit 140 calculates the risk factors selected by the extracting unit 130 using the similarity table shown in Tables 5 to 8 below and the risk factors selected by the extracting unit 130, It is possible to derive the degree of similarity between sites.

다음의 표 5 내지 표 8은 기설정된 유사도테이블의 일 예이다.The following Tables 5 to 8 are examples of predetermined similarity tables.

상부위의 위험인자Risk factors for upper respiratory tract 제1 대상인자The first target factor 유사도(2.5~0)Similarity (2.5 ~ 0) 헬멧helmet 헬멧helmet 2.52.5 캡모자Cap hat 1.01.0 등산모자Climbing cap 0.10.1 털모자Fur hat 0.20.2 없음none 0.50.5

중부위의 위험인자Risk factors in the middle 제1 대상인자The first target factor 유사도(2.5~0)Similarity (2.5 ~ 0) 군장용품

Equipment accessories

군장용품(가방, 수통등)Accessories (bag, water bottle, etc.) 2.52.5
등산용품Climbing goods 0.10.1 없음none 1.51.5

하부위의 위험인자Risk factors for lower part 제1 대상인자The first target factor 유사도(2.5~0)Similarity (2.5 ~ 0) 군화Turf 군화Turf 2.52.5 운동화sports shoes 0.50.5 등산화Hiking 0.10.1 없음none 0.10.1

특정부위의 위험인자Risk factors for specific areas 제1 대상인자The first target factor 유사도(2.5~0)Similarity (2.5 ~ 0)
gun
gun 2.52.5
knife 0.50.5 없음none 0.50.5

이때, 산출부(140)는 상기 부위별 제1 대상인자와 상기 위험인자가 서로 동일한 것으로 판단될 때 적용되는 가중치를 부위별로 도출할 수 있다(S160). At this time, the calculating unit 140 may derive the weights applied when the first object factor and the risk factor are determined to be equal to each other (S160).

다음의 표 9는 상기 제1 대상인자와 상기 위험인자가 부위별로 동일할 때, 적용되는 가중치의 일 예를 나타낸다. Table 9 below shows an example of weights applied when the first object factor and the risk factor are the same for each site.

제1 대상인자와 위험인자의 동일한 부위Identical sites of the primary and risk factors 가중치weight 상부위Upper part 44 중부위Central part 22 하부위Lower part 66 특정부위Specific site 2020

보다 구체적으로, 산출부(140)는 상기 제1 대상인자와 상기 위험인자가 서로 동일한 것으로 판단될 때 적용되는 가중치와 상기 유사도의 곱을 부위별로 합하여 상기 대상객체의 위험도를 산출할 수 있다(S170). More specifically, the calculating unit 140 may calculate the risk of the target object by summing the products of the weights applied when the first object factor and the risk factor are determined to be equal to each other, .

여기서, 상기 대상객체의 위험도는 다음의 산출식(1)을 통해 산출될 수 있다. Here, the risk level of the target object can be calculated through the following equation (1).

여기서, 상기 산출식은

Figure 112017109692458-pat00002
(1) 이고, 이때, n은 상기 부위의 개수, k는 상기 부위별 기설정된 상수, a는 상기 제1 대상인자와 상기 위험인자의 공통점에 따른 유사도, b는 상기 부위별 인자들이 동일할 때 적용되는 가중치일 수 있다. Here,
Figure 112017109692458-pat00002
(1) where n is the number of sites, k is a predetermined constant for each site, a is the similarity between the first object factor and the risk factor, b is the site-specific factor It may be an applied weight.

예컨대, 상기 대상객체의 부위별 제1 대상인자가 상부위에서 캡모자, 중부위에서 없음, 하부위에서 없음, 특정부위에서 총이고, 상기 위험인자가 부위별로, 헬멧, 군장용품, 군화, 총인 경우, 부위별 유사도는 1.0, 1.5, 0.1, 2.5 이고, 이때, 가중치는 표 9에 기재된 바와 같이, 특정부위에서 동일한 인자일 때, 20이므로, 상기 대상객체의 위험도는 1.0+1.5+0.1+(2.5*20)=52.6일 수 있다. For example, if the first object of the target object is a cap on an upper part, a part on a central part, a part on a lower part, and a specific part, The risk of the target object is 1.0 + 1.5 + 0.1 + (2.5 * 20) because the similarities are 1.0, 1.5, 0.1 and 2.5, = 52.6.

이후, 조작부(150)는 상기 산출된 위험도에 따른 기설정된 시나리오에 따라 해당 대상객체를 추적하도록 카메라들(10-1~10-N)을 조작할 수 있다(S180). Thereafter, the operation unit 150 may operate the cameras 10-1 to 10-N to track the target object according to the predetermined scenarios according to the calculated risk (S180).

여기서, 상기 기설정된 시나리오는, 상기 대상객체를 추적하도록 상기 대상객체의 위치로부터 상기 카메라들이 활성화되는 영역, 상기 활성화된 영역 내 위치한 상기 카메라들의 구동타이밍, 네트워크(50)를 통해 외부로 경보신호를 전송할 지에 대한 여부 등을 포함하는 것으로, 상기 위험도의 크기에 따라 상기 대상객체의 침투나 이동에 대해 대응하기 위한 일련의 동작일 수 있다. Here, the predetermined scenario may include an area in which the cameras are activated, a driving timing of the cameras located in the activated area, and an alarm signal to the outside through the network 50 from the position of the target object to track the target object Whether the object is to be transmitted or not, and may be a series of operations for responding to penetration or movement of the object according to the magnitude of the risk.

즉, 객체추적감시 서버(100)는 상기 위험도에 따른 기설정된 시나리오에 따라 카메라들(10-1~10-N)뿐만 아니라, 경광등, 전화기, 스피커, 알람 발생기 등 다양한 감시 주변기기(미도시)를 조작할 수 있다. That is, the object tracking monitoring server 100 monitors various monitoring peripherals (not shown) such as a warning light, a telephone, a speaker, and an alarm generator in addition to the cameras 10-1 to 10-N according to a predetermined scenario according to the above- Can be operated.

실시예에 따라, 객체추적감시 서버(100)는 상기 위험도가 일정값 이상일 때, 상기 영상으로부터 분할된 영역마다 기설정된 좌표정보에 근거하여 상기 대상객체의 위치를 추정하는 제1 추정단계를 수행하고, 추정된 제1 위치에서 제2 위치로 일정시간 동안 이동한 상기 대상객체의 이동속도와 방향각을 추정하는 제2 추정단계를 수행하는 추정부(160)를 더 포함할 수 있다. According to an embodiment, the object tracking monitoring server 100 performs a first estimation step of estimating the position of the target object based on preset coordinate information for each of the divided regions from the image when the risk is equal to or greater than a predetermined value And a second estimating step of estimating a moving speed and a direction angle of the object moved from the estimated first position to the second position for a predetermined period of time.

예컨대, 객체추적감시 서버(100)는 상기 영상의 영역에 위치한 상기 대상객체의 좌표정보(X, Y, Z)가 (10, 15, 21)이고, 일정시간 이후 (20, 17, 23)일 때, 해당 카메라(예컨대, 10-1)의 매핑값(a, b, c)과 상기 좌표정보(X, Y, Z), 매핑하여 상기 대상객체의 제1 위치(a*10, b*15, c*21), 제2 위치(a*20, b*16, c*22)를 추정하고, 지리정보시스템(Geographic Information System, 미도시)과 연동을 통해제1 위치(a*10, b*15, c*21)의 진북을 기준으로 제2 위치(a*20, b*16, c*22)로 이동한 각도인 방향각(θ)을 추정하고, 이미 잘알려진 피타고라스 정리에 기초한 이동거리(m)와 상기 일정시간(s)에 기초하여 상기 대상객체의 이동속도(m/s)를 추정할 수 있다. For example, the object tracking monitoring server 100 determines that the coordinate information (X, Y, Z) of the target object located in the region of the image is (10, 15, 21) B * 15) of the target object by mapping the mapping values (a, b, c) of the camera (e.g., 10-1) and the coordinate information (X, Y, Z) (a * 10, b * 16, c * 22) through interlocking with a geographic information system (not shown) (A * 20, b * 16, c * 22) on the basis of the true north of the current position of the moving object on the basis of the already known Pythagorean theorem (M / s) of the target object based on the distance m and the predetermined time s.

이에, 추정부(160)는 상기 방향각에 따라 상기 대상객체의 이동경로를 추정할 수 있다. The estimating unit 160 may estimate the moving path of the target object according to the direction angle.

실시예에 따라, 조작부(150)는, 상기 방향각에 따른 이동경로가 상기 추정부를 통해 추정될 때, 카메라들(10-1~10-N) 중 상기 이동경로를 따라 일정거리 이내에 배치된 어느 하나의 카메라(예컨대, 10-1~10-5)를 조작하도록 상기 시나리오를 업데이트할 수 있다. According to the embodiment, when the movement path according to the direction angle is estimated through the estimation unit, the operation unit 150 may be provided with a camera (not shown) disposed within a predetermined distance along the movement path among the cameras 10-1 to 10- The scenario can be updated to operate one camera (e.g., 10-1 to 10-5).

이때, 조작부(150)는, 어느 하나의 카메라(예컨대, 10-1~10-5)의 위치, 상기 대상객체의 제1 위치, 상기 이동속도에 근거하여 상기 대상객체를 추적하기 위한 제어신호의 전송시간과 지연시간을 결정하고, 상기 전송시간 및 지연시간에 따라 어느 하나의 카메라(예컨대, 10-1~10-5)를 조작하도록 상기 시나리오를 업데이트할 수 있다. At this time, the operation unit 150 displays a control signal for tracking the target object based on the position of one of the cameras (e.g., 10-1 to 10-5), the first position of the target object, The transmission time and the delay time can be determined, and the scenario can be updated to operate one of the cameras (e.g., 10-1 to 10-5) according to the transmission time and the delay time.

본 발명의 다른 실시예에 따라, 객체추적감시 시스템(1000-1)은 방호장치(300)를 더 포함할 수 있다. According to another embodiment of the present invention, the object tracking and monitoring system 1000-1 may further include a protection device 300. [

실시예에 따른 방호장치(300)는 상기 대상객체의 위험도가 일정값 이상이고, 상기 감시구역 중 특정시설 주변으로 무단침입이 감지되며, 상기 조작된 어느 하나의 카메라(예컨대, 10-1~10-5)가 상기 무단침입으로 감지된 구역에 일정거리 내 위치할 때, 상기 대상객체의 무단침입을 경고하도록 형성될 수 있다. The protection device 300 according to the embodiment may be configured such that the risk of the target object is equal to or greater than a predetermined value and trespassing is detected around the specific facility in the monitoring area, -5) is positioned within a predetermined distance from the area detected as the trespassing, it is possible to warn the intruder of the target object.

보다 구체적으로, 방호장치(300)는 감지부(310), 요청부(330) 및 대응부(350)를 포함할 수 있다. More specifically, the protection device 300 may include a sensing unit 310, a requesting unit 330, and a corresponding unit 350.

먼저, 감지부(310)는, 상기 감시구역 중 군사용 주둔지나 유류창고와 같은 특정시설 주변에 설치되고, 객체추적감시 서버(100)와 연동을 통해 상기 대상객체의 위험도가 일정값 이상 여부를 확인하며, 상기 대상객체의 위험도가 일정값 이상일 때, 상기 특정시설 주변에서 상기 대상객체의 무단침입을 감지할 수 있다. First, the sensing unit 310 is installed in a vicinity of a specific facility such as a military station or a petroleum warehouse in the monitoring area, and interlocks with the object tracking monitoring server 100 to check whether the risk of the target object is above a predetermined value When the risk of the target object is equal to or greater than a predetermined value, it is possible to detect intrusion of the target object around the specific facility.

예컨대, 감지부(310)는 특정시설 주변의 경계망의 진동을 감지하는 진동센서(미도시), 출입문의 개폐를 감지하는 개폐센서(미도시), 상기 경계망에 설치되어 일정한 감지거리를 갖는 적외선을 통해 경계망 주변을 감지하는 적외선센서(미도시)로 구성될 수 있다. For example, the sensing unit 310 may include a vibration sensor (not shown) for sensing a vibration of a boundary around a specific facility, an open / close sensor (not shown) for detecting opening and closing of a door, And an infrared sensor (not shown) that detects the surroundings of the boundary through the antenna.

다음으로, 요청부(330)는 조작부(150)를 통해 상기 조작된 어느 하나의 카메라(예컨대, 10-1~10-5)의 위치와 촬영된 영상을 객체추적감시 서버(100)에 요청할 수 있다. Next, the request unit 330 can request the object tracking monitoring server 100 of the position and the photographed image of any one of the cameras (for example, 10-1 to 10-5) operated through the operation unit 150 have.

이후, 대응부(350)는 객체추적감시 서버(100)로부터 전송받는 상기 조작된 어느 하나의 카메라(예컨대, 10-1~10-5)를 통해 촬영된 영상에서 상기 대상객체와 상기 경계망이 추출될 때, 또는 상기 조작된 어느 하나의 카메라(예컨대, 10-1~10-5)가 상기 감지된 구역에 일정거리 내 위치할 때, 상기 대상객체의 무단침입을 경고하는 경고음을 해당구역에 구비된 스피커(351)를 통해 출력하고, 해당 구역을 담당하는 담당자의 모바일단말(353)에 경고메시지를 전송하거나 상황실에 구비된 모니터(355)에 경고메시지를 표시할 수 있다. Thereafter, the correspondence unit 350 extracts the target object and the boundary network from the image captured through any one of the cameras (for example, 10-1 to 10-5) operated by the object tracking monitoring server 100 (For example, 10-1 to 10-5) is located within a predetermined distance from the detected area, a warning sound is warned to warn against intrusion of the target object into the corresponding area And transmits a warning message to the mobile terminal 353 of the person in charge of the area or displays a warning message on the monitor 355 provided in the communication room.

상기와 같이 설명된 객체를 추적감시하는 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성된다. The method of tracking and monitoring the object described above can be applied to a case where the configuration and method of the embodiments described above are not limitedly applied. Instead, the embodiments may be modified such that all or some of the embodiments are selectively .

10-1~10-N: 카메라들
50: 네트워크
100: 객체추적감시 서버
110: 저장부
120: 탐지부
130: 추출부
140: 산출부
150: 조작부
160: 추정부
200: 저장 DB
300: 방호장치
310: 감지부
330: 요청부
350: 대응부
1000: 객체추적감시 시스템
10-1 to 10-N: Cameras
50: Network
100: Object tracking monitoring server
110:
120:
130:
140:
150:
160:
200: Storage DB
300: Protection device
310:
330:
350:
1000: Object tracking and monitoring system

Claims (5)

복수개의 카메라를 통해 이전에 전송받은 영상들 중 특정이벤트가 발생한 영상들로부터 기선정된 관심객체들을 저장하는 단계;
상기 카메라를 통해 실시간으로 촬영된 영상들로부터 어느 하나의 대상객체를 탐지하는 단계;
상기 어느 하나의 대상객체의 특징이 되는 부위별 제1 대상인자를 추출할 때, 상기 관심객체들의 특징이 되는 부위별 제2 대상인자를 추출하는 단계;
상기 제2 대상인자를 카운트하여 부위별로 가장 높게 카운트된 제2 대상인자를 위험인자로 선정하고, 기설정된 유사도테이블을 이용하여 상기 위험인자와 상기 제1 대상인자의 부위별 유사도를 도출하며, 상기 제1 대상인자와 상기 위험인자가 서로 동일한 것으로 판단될 때 적용된 부위별 가중치를 도출하는 단계;
상기 유사도와 상기 가중치의 곱을 부위별로 합하여 상기 대상객체의 위험도를 산출하는 단계; 및
상기 산출된 위험도에 따른 기설정된 시나리오에 따라 상기 대상객체를 추적하도록 상기 카메라를 조작하는 단계를 포함하고,
상기 산출하는 단계는,
상기 대상객체의 위험도에 대한 산출식(1)을 통해 산출하고,
상기 산출식은
Figure 112018082054316-pat00003
(1) 이고,
이때, 이때, n은 상기 부위의 개수, k는 상기 부위별 기설정된 상수, a는 상기 제1 대상인자와 상기 위험인자의 공통점에 따른 유사도, b는 상기 부위별 인자들이 동일할 때 적용되는 가중치인 것을 특징으로 하는 객체를 추적감시하는 방법.
Storing interest objects selected from images in which a specific event has occurred among images previously transmitted through a plurality of cameras;
Detecting a target object from images photographed in real time through the camera;
Extracting a second object factor for each region that is a feature of the ROI when extracting a first object factor for each region that is a feature of the ROI;
Counting the second object factor, selecting a second object factor that is highest in each region as a risk factor, deriving the similarity between the risk factor and the first object factor using a predetermined similarity table, Deriving a weight for each site applied when the first subject factor and the risk factor are determined to be equal to each other;
Calculating a risk of the target object by summing the product of the similarity and the weight by site; And
And operating the camera to track the target object according to a predetermined scenario according to the calculated risk,
Wherein the calculating step comprises:
(1) for the risk of the target object,
The calculation equation
Figure 112018082054316-pat00003
(1)
Here, n is the number of the sites, k is a predetermined constant for each site, a is the similarity between the first object factor and the risk factor, b is a weight value applied when the site-specific factors are the same, The method comprising the steps of:
삭제delete 제1항에 있어서,
상기 위험도가 일정값 이상일 때, 상기 카메라로부터 실시간으로 촬영된 영상으로부터 분할된 영역마다 기설정된 좌표정보에 근거하여 상기 대상객체의 위치를 추정하는 제1 추정단계: 및
추정되는 상기 대상객체의 제1 위치에서 제2 위치로 일정시간 동안 이동하는 상기 대상객체의 이동속도와 방향각을 추정하는 제2 추정단계를 더 포함하는 것을 특징으로 하는 객체를 추적감시하는 방법.
The method according to claim 1,
A first estimating step of estimating a position of the target object based on preset coordinate information for each of the areas divided from the image photographed from the camera in real time when the risk is equal to or greater than a predetermined value;
Further comprising a second estimating step of estimating a moving speed and a direction angle of the target object moving for a predetermined time from a first position to a second position of the target object to be estimated.
제3항에 있어서, 상기 제2 추정단계는,
상기 방향각에 따른 이동경로가 추정될 때, 상기 복수개의 카메라 중 상기 이동경로를 따라 일정거리 이내에 배치된 어느 하나의 카메라를 조작하도록 상기 시나리오를 업데이트하는 단계를 포함하는 것을 특징으로 하는 객체를 추적감시하는 방법.
4. The method of claim 3, wherein the second estimating step comprises:
And updating the scenario so as to operate one of the plurality of cameras disposed within a predetermined distance along the movement path when the movement path according to the direction angle is estimated. How to monitor.
제4항에 있어서, 상기 제2 추정단계는,
상기 어느 하나의 카메라의 촬영영역의 위치, 상기 대상객체의 제1 위치, 상기 이동속도에 근거하여 상기 대상객체를 추적하기 위한 제어신호의 전송시간과 지연시간을 결정하는 단계; 및
상기 전송시간 및 지연시간에 따라 상기 어느 하나의 카메라를 조작하도록 상기 시나리오를 업데이트하는 단계를 포함하는 것을 특징으로 포함하는 것을 특징으로 하는 객체를 추적감시하는 방법.
5. The method of claim 4, wherein the second estimating step comprises:
Determining a transmission time and a delay time of a control signal for tracking the target object based on a position of an imaging region of the camera, a first position of the target object, and a moving speed; And
And updating the scenario to operate the one of the cameras according to the transmission time and the delay time.
KR1020170146505A 2017-11-06 2017-11-06 Method tracking and monitoring object KR101910033B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170146505A KR101910033B1 (en) 2017-11-06 2017-11-06 Method tracking and monitoring object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170146505A KR101910033B1 (en) 2017-11-06 2017-11-06 Method tracking and monitoring object

Publications (1)

Publication Number Publication Date
KR101910033B1 true KR101910033B1 (en) 2018-10-19

Family

ID=64102113

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170146505A KR101910033B1 (en) 2017-11-06 2017-11-06 Method tracking and monitoring object

Country Status (1)

Country Link
KR (1) KR101910033B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287884A (en) * 2005-03-31 2006-10-19 Ara Software:Kk Intelligent video monitoring system
JP2009060261A (en) * 2007-08-30 2009-03-19 Toshiba Corp Video monitoring system
JP2017041022A (en) * 2015-08-18 2017-02-23 キヤノン株式会社 Information processor, information processing method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287884A (en) * 2005-03-31 2006-10-19 Ara Software:Kk Intelligent video monitoring system
JP2009060261A (en) * 2007-08-30 2009-03-19 Toshiba Corp Video monitoring system
JP2017041022A (en) * 2015-08-18 2017-02-23 キヤノン株式会社 Information processor, information processing method and program

Similar Documents

Publication Publication Date Title
EP3806456A1 (en) Video identification and analytical recognition system
KR101215948B1 (en) Image information masking method of monitoring system based on face recognition and body information
US6774905B2 (en) Image data processing
US20190130189A1 (en) Suppressing duplicated bounding boxes from object detection in a video analytics system
US11743431B2 (en) Video identification and analytical recognition system
US20210304577A1 (en) Integrated Camera and Ultra-Wideband Location Devices and Related Systems
US8681223B2 (en) Video motion detection, analysis and threat detection device and method
US10540552B2 (en) Device and method surveilling abnormal behavior using 3D image information
US11615620B2 (en) Systems and methods of enforcing distancing rules
CN106781165A (en) A kind of indoor multi-cam intelligent linkage supervising device based on depth sensing
US20200184227A1 (en) Improved generation of alert events based on a detection of objects from camera images
US10878578B2 (en) Exclusion zone in video analytics
US20180047193A1 (en) Adaptive bounding box merge method in blob analysis for video analytics
RU2720947C2 (en) Analytical identification and video identification system
CN108802758A (en) A kind of Intelligent security monitoring device, method and system based on laser radar
KR101459024B1 (en) Security System for Monitoring Facilities
CA2394926C (en) Image data processing
KR101975181B1 (en) Object tracking and monitoring server
KR101910034B1 (en) Tracking and monitoring system
US10692364B1 (en) Security systems integration
KR101213255B1 (en) System and method for context-aware using image processing and wireless sensor network
KR101795798B1 (en) Intelligent surveillance camera system
CN110956769A (en) Monitoring method of perimeter anti-intrusion system based on target position
EP3910539A1 (en) Systems and methods of identifying persons-of-interest
KR101910033B1 (en) Method tracking and monitoring object

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant