KR101910033B1 - Method tracking and monitoring object - Google Patents
Method tracking and monitoring object Download PDFInfo
- Publication number
- KR101910033B1 KR101910033B1 KR1020170146505A KR20170146505A KR101910033B1 KR 101910033 B1 KR101910033 B1 KR 101910033B1 KR 1020170146505 A KR1020170146505 A KR 1020170146505A KR 20170146505 A KR20170146505 A KR 20170146505A KR 101910033 B1 KR101910033 B1 KR 101910033B1
- Authority
- KR
- South Korea
- Prior art keywords
- factor
- risk
- target object
- camera
- predetermined
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19613—Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
- G08B13/19615—Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion wherein said pattern is defined by the user
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명의 일실시예들은 객체를 추적감시하는 방법에 관한 것으로, 보다 상세하게는, 실시간으로 탐지되는 대상객체에 대해 위험도를 산출하고, 상기 위험도에 따른 기설정된 시나리오에 따라 카메라를 조작하여 상기 대상객체를 추적할 수 있는 방법에 관한 것이다. More particularly, the present invention relates to a method of tracking and monitoring an object, and more particularly, to a method and apparatus for calculating a risk of a target object to be detected in real time and operating a camera according to a predetermined scenario according to the risk, And how to track objects.
전통적으로 비행장, 탄약고, 통신시설, GOP, 지휘통제소 등과 같은 군 병력 주둔지나 군 주요시설에는 적군의 침입, 침투에 대비하여 그 시설주변의 요소마다 초소를 설치하고 여기에 초병을 투입하여 경계임무를 수행하게 하고 있었으나, 최근의 정보통신기술의 발달로 인하여 감시카메라 시스템이 군 경계임무의 대체수단으로 도입됨에 따라 군병력의 감축이 가능하게 되고 있다.Traditionally, military facilities such as aerodromes, ammunition, communication facilities, GOPs, command centers, etc. are installed in main facilities of military or military facilities in order to prepare for enemy invasion and infiltration, However, due to the recent development of information and communication technology, the surveillance camera system has been introduced as an alternative means of military boundaries.
또한, 변전소 등 보안 경계가 필수적으로 필요한 시설은 인허가를 받은 사람 이외의 사람이 접근하는 것을 감시해야 되고, 외부 침입자 유무를 감시해야 한다. 이를 위하여 감시카메라 시스템이 주요 보안 설비 주변에 구축되고 있다.In addition, facilities that require a security boundary, such as a substation, should be monitored for access by persons other than those licensed and monitored for external intruders. To this end, a surveillance camera system is being built around major security facilities.
이러한 감시 카메라 시스템은 경계대상지역에 설치된 다수의 카메라에 포착된 영상을 중앙감시통제소의 관리자가 모니터링하는 것으로 현장을 무인 감시하는 것을 가능하게 한다.Such a surveillance camera system enables an unattended surveillance of a scene by monitoring an image captured by a plurality of cameras installed in a boundary target area by a supervisor of a central surveillance control station.
그러나 기존의 감시 카메라 시스템은 중앙감시통제소에서의 감시관리자가 경계대상 지역에 설치된 카메라로부터 올라오는 현장 영상에 기초하여 상황을 인식하고 판단하게 되므로 중앙감시통제소의 감시관리자의 숙련도에 따라 현장상황에 대한 인식과 판단에 오차가 있을 수 있다.However, since the existing surveillance camera system recognizes and judges the situation on the basis of the scene image coming from the camera installed in the boundary area, the surveillance manager at the central surveillance control station judges the situation according to the proficiency of the surveillance manager of the central surveillance station There may be errors in recognition and judgment.
즉, 이러한 감시카메라 시스템은 주요 보안 설비 또는 군 주둔지 등의 감시 및 경계 품질에 균질성을 얻을 수 없어 상황발생시 체계적이고 합리적인 대응을 어렵게 만든다.In other words, such a surveillance camera system can not achieve homogeneity in monitoring and boundary quality of major security facilities or military garrisons, making systematic and rational response difficult in situations.
또한, 기존의 감시 카메라 시스템은 적군이, 우리 군의 경계구역 예를 들어, 철책이나 담장 등을 침입이나 침투하여 주요시설로 이동할 때, 이를 중앙감시통제소에서의 감시관리자가 모니터링하지 않을 때, 상기 적군이 진행하는 방향을 추적할 수 없는 문제가 있다. In addition, the existing surveillance camera system can prevent the enemy army from moving to the main facility by intruding or infiltrating the border area of the army, for example, iron fence or fence, There is a problem that the direction of the enemy army can not be traced.
이에 따라, 본 발명에서는 중앙감시통제소에서의 감시관리자가 모니터링하지 않을 때, 상기 적군이 우리 군의 경계구역을 침입이나 침투하여 주요시설로 이동할 때, 자동으로 추적 및 촬영하여 신속하고 정확하게 대처할 수 있게 하는 서버, 이를 포함하는 시스템 및 방법을 제공하고자 한다. Accordingly, in the present invention, when the surveillance manager at the central surveillance control station does not monitor, when the enemy forces intrudes into or penetrates into the border area of the military, it can be automatically tracked and photographed, And a system and method for including the same.
본 발명의 일 목적은, 실시간으로 탐지되는 대상객체에 대해 위험도를 산출하고, 상기 위험도에 따른 기설정된 시나리오에 따라 카메라를 조작하여 상기 침입자나 적군인 대상객체에 대해서만 상기 대상객체를 추적할 수 있는 객체를 추적감시하는 방법을 제공하는 것을 목적으로 한다. An object of the present invention is to provide an image processing apparatus and method capable of calculating a risk level for a target object to be detected in real time and tracking the target object only for the intruder or enemy target object by operating a camera according to a predetermined scenario according to the risk The object of the present invention is to provide a method for tracking and monitoring an object.
본 발명의 다른 목적은, 감시구역에 위치한 대상객체의 부위별 대상인자들과 위험인자들과의 유사도에 기초하여 상기 대상객체의 위험도를 판단하기 때문에, 보행자나 등산객인 대상객체와 상기 감시구역을 침입하는 침입자나 적군인 대상객체를 효과적으로 구분하여 식별하고, 상기 침입자나 적군인 대상객체에 대해서 추적하도록 카메라들을 구동시키는 것을 목적으로 한다. It is another object of the present invention to provide a surveillance system and a surveillance system capable of detecting a risk of a target object based on similarities between target factors and risk factors of a target object located in a surveillance zone, The object of the present invention is to effectively distinguish and identify an intruding intruder or enemy target object and to drive the cameras to track the intruder or enemy target object.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)는 이하의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned task (s), and another task (s) not mentioned is to be clearly understood to those skilled in the art to which the present invention belongs It can be understood.
이와 같은 본 발명의 해결 과제를 달성하기 위하여, 본 발명의 일 실시예에 따르는 객체를 추적감시하는 방법은, 복수개의 카메라를 통해 전송받은 영상들 중 특정이벤트가 발생한 영상들로부터 기선정된 관심객체들을 저장하는 단계, 상기 카메라들을 통해 실시간으로 촬영된 영상들로부터 어느 하나의 대상객체를 탐지하는 단계, 상기 어느 하나의 대상객체의 특징이 되는 부위별 제1 대상인자를 추출할 때, 상기 관심객체들의 특징이 되는 부위별 제2 대상인자를 추출하는 단계, 상기 제2 대상인자를 카운트하여 부위별로 가장 높게 카운트된 제2 대상인자를 위험인자로 선정하고, 기설정된 유사도테이블을 이용하여 상기 위험인자와 상기 제1 대상인자의 부위별 유사도를 도출하며, 상기 제1 대상인자와 상기 위험인자가 서로 동일한 것으로 판단될 때 적용된 부위별 가중치를 도출하는 단계, 상기 유사도와 상기 가중치의 곱을 부위별로 합하여 상기 대상객체의 위험도를 산출하는 단계 및 상기 산출된 위험도에 따른 기설정된 시나리오에 따라 상기 대상객체를 추적하도록 상기 카메라를 조작하는 단계를 포함하는 것을 특징으로 한다. According to another aspect of the present invention, there is provided a method for tracking and monitoring an object, the method comprising: Detecting one of the target objects from the images photographed in real time through the cameras, extracting a first object factor for each feature of the target object, Calculating a second target factor for each region by counting the second target factor, selecting a second target factor that is the highest for each region as a risk factor, and using the preset similarity table, And the degree of similarity of each of the first subject factors and the first subject factors, and when the first subject factor and the risk factors are determined to be equal to each other Calculating a risk of the target object by summing the product of the similarity and the weight by the site, and calculating the risk of the target object by operating the camera to track the target object according to the predetermined scenario according to the calculated risk. The method comprising the steps of:
본 발명과 관련한 일 예에 따르면, 상기 산출하는 단계는, 상기 대상객체의 위험도에 대한 산출식(1)을 통해 산출하고, According to an example of the present invention, the calculating step may be performed through an equation (1) for the risk of the target object,
상기 산출식은 (1) 이고, 이때, n은 상기 부위의 개수, k는 상기 부위별 기설정된 상수, A는 상기 제1 대상인자와 상기 위험인자와의 공통점에 따른 유사도, B는 상기 부위별 인자들이 동일할 때 적용되는 가중치인 것을 특징으로 한다. The calculation equation (1) where n is the number of sites, k is a predetermined constant for each site, A is the similarity between the first object factor and the risk factor, B is the site-specific factor Is a weight that is applied when
본 발명과 관련한 일 예에 따르면, 상기 위험도가 일정값 이상일 때, 상기 카메라로부터 실시간으로 촬영된 영상으로부터 분할된 영역마다 기설정된 좌표정보에 근거하여 상기 대상객체의 위치를 추정하는 제1 추정단계 및 추정되는 상기 대상객체의 제1 위치에서 제2 위치로 일정시간 동안 이동하는 상기 대상객체의 이동속도와 방향각을 추정하는 제2 추정단계를 더 포함하는 것을 특징으로 한다. According to another aspect of the present invention, there is provided a method for estimating a position of a target object, the method comprising: a first estimation step of estimating a position of the target object based on preset coordinate information for each of regions divided from an image captured in real- And a second estimating step of estimating a moving speed and a direction angle of the target object moving for a predetermined time from a first position to a second position of the target object to be estimated.
본 발명과 관련한 일 예에 따르면, 상기 제2 추정단계는, 상기 방향각에 따른 이동경로가 추정될 때, 상기 복수개의 카메라 중 상기 이동경로를 따라 일정거리 이내에 배치된 어느 하나의 카메라를 조작하도록 상기 시나리오를 업데이트하는 단계를 포함하는 것을 특징으로 한다. According to an example of the present invention, the second estimating step may include a step of estimating a movement path along the direction angle by operating one of the plurality of cameras disposed within a predetermined distance along the movement path And updating the scenario.
본 발명과 관련한 일 예에 따르면, 상기 제2 추정단계는, 상기 어느 하나의 카메라의 촬영영역의 위치, 상기 대상객체의 제1 위치, 상기 이동속도에 근거하여 상기 대상객체를 추적하기 위한 제어신호의 전송시간과 지연시간을 결정하는 단계 및 상기 전송시간 및 지연시간에 따라 상기 어느 하나의 카메라를 조작하도록 상기 시나리오를 업데이트하는 것을 특징으로 한다. According to an example of the present invention, the second estimating step may include: a control signal for tracking the target object based on a position of an imaging region of the camera, a first position of the target object, And the scenario is updated to operate the one of the cameras according to the transmission time and the delay time.
상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 객체를 추적감시하는 방법은, 실시간으로 탐지되는 대상객체에 대해 위험도를 산출하고, 상기 위험도에 따른 기설정된 시나리오에 따라 카메라를 조작하여 상기 침입자나 적군인 대상객체에 대해서만 추적할 수 있게 하는 효과가 있다. A method for tracking and monitoring an object related to at least one embodiment of the present invention configured as described above includes the steps of calculating a risk level for a target object detected in real time and operating the camera according to a predetermined scenario according to the risk level, It has the effect of allowing only intruders or enemy target objects to be tracked.
또한, 감시구역에 위치한 대상객체의 부위별 대상인자들과 위험인자들과의 유사도에 기초하여 상기 대상객체의 위험도를 판단하기 때문에, 보행자나 등산객인 대상객체와 상기 감시구역을 침입하는 침입자나 적군인 대상객체를 효과적으로 구분하여 식별할 수 있게 하는 효과가 있다. In addition, since the risk of the target object is determined based on the degree of similarity between the target factors and the risk factors of the target object located in the surveillance zone, it is possible to prevent the intruder or the enemy It is possible to effectively distinguish and identify the target object.
도 1은 본 발명의 일실시예에 관련된 객체추적감시 시스템 도이다.
도 2는 본 발명의 일실시예에 관련된 객체추적감시 서버의 구성도이다.
도 3은 일실시예에 관련된 객체추적감시 서버의 동작프로세스이다.
도 4는 본 발명의 다른 실시예에 관련된 객체추적감시 시스템 도이다. 1 is an object tracking and monitoring system according to an embodiment of the present invention.
2 is a configuration diagram of an object tracking and monitoring server according to an embodiment of the present invention.
3 is an operation process of the object tracking monitoring server according to one embodiment.
4 is an object tracking and monitoring system according to another embodiment of the present invention.
이하, 본 발명에 관련된 객체를 추적감시하는 방법에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 본 명세서에서는 서로 다른 실시예라도 동일·유사한 구성에 대해서는 동일·유사한 참조번호를 부여하고, 그 설명은 처음 설명으로 갈음한다. 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Hereinafter, a method of tracking and monitoring objects related to the present invention will be described in more detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the present specification, the same or similar reference numerals are given to different embodiments in the same or similar configurations. As used herein, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise.
본 명세서의 도면들은 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 즉, 도면도에 표시된 기능들은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스에 의해 수행되는 것으로 이해되어야 한다.It is to be understood that the drawings herein illustrate conceptual aspects of exemplary circuits embodying the principles of the invention. That is, it should be understood that the functions shown in the figures may be substantially represented on a computer-readable medium and performed by various processes performed by the computer or processor, whether or not the computer or processor is explicitly shown.
그리고, 각각의 기능은 전용하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.And, each function can be provided not only with dedicated hardware, but also with the use of hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.
본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 관련된 객체추적감시 시스템 도이다. 1 is an object tracking and monitoring system according to an embodiment of the present invention.
도 1을 참조하면, 객체추적감시 시스템(1000)은 복수개의 카메라들(10-1~10-N)과 객체추적감시 서버(100)를 포함할 수 있다. Referring to FIG. 1, the object tracking and
여기서, 카메라들(10-1~10-N)은 고정형 카메라와 PTZ 카메라의 두 종류의 카메라로 구성되며, 이에 더하여 영상표출, 카메라의 팬(Pan)/틸트(Tilt)/줌(Zoom) 기능을 위한 일체의 모든 장비를 포함할 수 있다. 보다 구체적으로, 고정형 카메라는 일반 카메라, 돔 카메라, 적외선 카메라, 레이저 카메라, 열화상 카메라 등 다양한 형태의 영상을 표출하고, 일반적인 화각(약 80도)을 갖거나, 그 이상 또는 360도를 감시할 수 있는 카메라일 수 있으며, PTZ 카메라는 팬(Pan)/틸트(Tilt)/줌(Zoom) 기능을 가지며, 이를 위한 구동장치를 구비할 수 있다. Here, the cameras 10-1 to 10-N are composed of two types of cameras, namely, a fixed camera and a PTZ camera. In addition, the cameras 10-1 to 10-N include a video display, a pan / tilt / zoom function And may include any and all of the equipment for. More specifically, the fixed type camera displays various types of images such as a general camera, a dome camera, an infrared camera, a laser camera, a thermal camera, and the like, and has a general angle of view (about 80 degrees) And the PTZ camera has a pan / tilt / zoom function, and a driving device for the PTZ camera can be provided.
또한, 카메라들(10-1~10-N)은 창고 등과 같은 정적인 장소에 설치되거나, 사람이 다니는 길목과 같은 동적인 장소 등과 같은 감시구역에 일정거리마다 서로 이격되게 설치될 수 있다. The cameras 10-1 to 10-N may be installed in a static place such as a warehouse, or may be spaced apart from each other by a predetermined distance in a monitoring area such as a dynamic place such as a person's walking path.
다음으로, 객체추적감시 서버(100)는 네트워크(50)를 통해 카메라들(10-1~10-N)로부터 촬영된 영상들을 전송받을 수 있다. Next, the object tracking and
보다 구체적으로, 객체추적감시 서버(100)는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 중 적어도 어느 하나를 포함하는 유선 통신 인터페이스, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 중 적어도 어느 하나를 포함하는 무선 통신 인터페이스 및 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 중 적어도 어느 하나를 포함하는 근거리 통신 인터페이스를 구비하여 네트워크(50)를 통해 카메라들(10-1~10-N)로부터 촬영된 영상들을 전송받을 수 있다. More specifically, the object tracking and
또한, 객체추적감시 서버(100)는 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O 포트, 비디오 I/O 포트, 이어폰 포트 등을 더 포함하여 출력장치 예컨대, 디스플레이, 외부저장장치, 마우스, 키보드와 연결될 수 있도록 형성될 수 있다. In addition, the object tracking and
이하, 도 2와 도 3을 참조하여, 객체추적감시 서버(100)를 보다 구체적으로 설명한다. Hereinafter, the object
도 2는 본 발명의 일실시예에 관련된 객체추적감시 서버의 구성도이고, 도 3은 일실시예에 관련된 객체추적감시 서버의 동작프로세스이다. FIG. 2 is a configuration diagram of an object tracking and monitoring server according to an embodiment of the present invention, and FIG. 3 is an operation process of an object tracking and monitoring server according to an embodiment.
도 1 내지 도 3을 참조하면, 객체추적감시 서버(100)는 저장부(110), 탐지부(120), 추출부(130), 산출부(140) 및 조작부(150)를 포함할 수 있다. 1 to 3, the object tracking and
먼저, 저장부(110)는 감시구역에 서로 이격된 위치에 배치되는 카메라들(10-1~10-N)을 통해 이전에 전송받은 영상들 중 특정이벤트가 발생한 영상들로부터 기선정된 관심객체들을 저장할 수 있다(S100). First, the
여기서, 특정이벤트는 외부로부터 예컨대, 비행장, 탄약고, 통신시설, GOP, 지휘통제소 등과 같은 기설정된 감시구역에 무단으로 침입 또는 침투한 행위를 의미하고, 상기 관심객체는 상기 행위를 수행하는 적군이나 탈북자, 침입자 등일 수 있다. Here, the specific event means an unauthorized intrusion or infiltration from the outside into a predetermined surveillance zone such as an aerodrome, ammunition, communication facility, GOP, command control station, etc., and the object of interest is an enemy , An intruder, and the like.
다른 실시예에 따라, 객체추적감시 서버(100)는 도 4에 도시된 바와 같이, 카메라들(10-1~10-N)을 통해 전송받은 영상들을 저장 DB(200)로 중계하고, 저장 DB(200)로부터 상기 저장된 영상들 중 특정이벤트가 발생한 영상들로부터 기선정된 관심객체들을 전송받을 수 있다. 4, the object tracking and
여기서, 저장 DB(200)는 객체추적감시 서버(100)로부터 전송된 영상들을 기설정된 특정이벤트에 따라 데이터베이스(DB)화하여 분류, 저장 및 관리하는 오라클(Oracle), 인포믹스(Infomix), 사이베이스(Sybase), DB2와 같은 관계형 데이터베이스 관리 시스템(RDBMS)이나, 겜스톤(Gemston), 오리온(Orion), O2 등과 같은 객체 지향 데이터베이스 관리 시스템(OODBMS)을 이용하여 본 발명의 목적에 맞게 구현될 수 있고, 자신의 기능을 달성하기 위하여 적당한 필드(field)들을 가지고 있다.Here, the
보다 구체적으로, 저장 DB(200)는 특정이벤트에 따라 객체추적감시 서버(100)로부터 중계된 영상들을 분류하고, 분류된 영상들로부터 기선정된 관심객체들을 추출하여 객체추적감시 서버(100)에 전송하도록 제어모듈과 통신모듈이 포함된 DVR(Digital Video Recorder), NVR(Network Video Recorder)로 구성될 수 있다. More specifically, the storage DB 200 classifies the images relayed from the object
또한, 저장 DB(200)는 상기 감시구역에 서로 이격되게 배치된 카메라들(10-1~10-N)이 배치된 공간의 GIS(Geographic Information System) 정보를 미리 획득하여 수집할 수 있다. Also, the
즉, 저장 DB(200)는 일반적으로 공간상 위치를 점유하는 지리자료(Geographic data)와 이에 관련된 속성자료(Attribute data)를 통합하여 처리하는 지리정보시스템(Geographic Information System, 미도시)과 연동을 통해 상기 감시구역에 서로 이격되게 배치된 카메라들(10-1~10-N)이 배치된 공간의 GIS 정보를 수집, 저장, 갱신, 처리, 분석, 출력할 수 있다. That is, the
다시 도 1과 도 2를 참조하면, 탐지부(120)는 카메라들(10-1~10-N)을 통해 실시간으로 촬영되는 영상들로부터 어느 하나의 대상객체를 탐지할 수 있다(S110). Referring to FIGS. 1 and 2 again, the
여기서, 대상객체는 특정이벤트로 분류되기 이전에 또는 상기 관심객체로 선정되기 이전에 상기 영상들 내 포함된 객체일 수 있다. Here, the target object may be an object included in the images before being classified as a specific event or before being selected as the object of interest.
이때, 탐지부(120)는 카메라들(10-1~10-N)을 통해 촬영된 영상들로부터 Haar-Like Feature 방식을 이용하여 상기 대상객체를 탐지하거나, HOG(Histogram of oriented Gradient), CS-LBP(Center-Symmetric Local Binary Pattern) 및 Gabor Filter Response 등과 같은 그 어떤 방식이라도 적용 가능할 수 있다. At this time, the
다음으로, 추출부(130)는 탐지부(120)에서 탐지된 어느 하나의 대상객체로부터 상기 어느 하나의 대상객체의 특징이 되는 부위별 제1 대상인자들을 추출할 수 있다(S120). Next, the extracting
여기서, 부위별 제1 대상인자들은 영상 내 객체의 부위별로 특징이 되는 상부위의 모자나 헬멧, 중부위의 군장가방이나 등산가방, 하부위의 군화 또는 운동화, 특정부위의 총이나 칼 등의 특정 소지품들을 의미하고, 본 발명에서 설명될 제2 대상인자들도 상기 설명과 동일한 의미로 사용될 수 있다. Here, the first object factors of each region are classified into specific areas such as a hat or a helmet, a suitcase bag or a climbing bag on the middle, And the second object factors to be described in the present invention may be used in the same sense as the above description.
보다 구체적으로, 추출부(130)는 탐지부(120)에서 탐지된 대상객체의 영상영역을 부위별로 분할하고, 분할된 영상영역과 기설정된 수집인자들을 부위별로 비교하여 대응되는 수집인자를 해당 부위의 제1 대상인자로 추출할 수 있다. More specifically, the extracting
여기서, 기설정된 수집인자들은, 캡모자, 헬멧, 등산모자와 같은 상부위의 수집인자, 군장가방, 군장벨트와 같은 군장용품을 포함하는 중부위의 수집인자, 운동화, 군화와 같은 하부위의 수집인자, 총, 칼과 같은 특정부위 예컨대, 손이나 허리의 수집인자를 포함할 수 있다. Here, the predetermined collection factors are collectors of upper parts such as cap hats, helmets, climbing caps, collectors on the middle, including accessories such as suitcases, Such as a factor, a gun, a knife, for example, a hand or waist collection factor.
이때, 추출부(130)는 상기 부위별 제1 대상인자들을 추출할 때, 저장부(110)에 미리 저장된 또는 저장 DB(200)로부터 전송받는 상기 관심객체들의 특징이 되는 부위별 제2 대상인자들을 추출할 수 있다(S130). At this time, when extracting the first object factors for each part, the extracting
보다 구체적으로, 추출부(130)는 저장부(110)에 미리 저장된 상기 관심객체의 영상영역을 부위별로 분할하고, 분할된 영상영역들과 기설정된 수집인자들을 부위별로 비교하여 대응되는 수집인자를 해당 부위의 제2 대상인자로 추출할 수 있다. More specifically, the extracting
다음의 표 1 내지 표 4는 저장부(110)에 미리 저장된 제2 대상인자들이 부위별로 추출된 예를 나타낸다. Tables 1 to 4 below show examples in which second target factors stored in advance in the
Central part
Specific site
또한, 추출부(130)는 저장부(110)에서 추출된 상기 제2 대상인자들을 부위별로 카운트하여 가장 높게 카운트된 제2 대상인자를 위험인자, 예컨대, 헬멧을 상부위의 위험인자, 군장용품을 중부위의 위험인자, 군화를 하부위의 위험인자, 총을 특정부위의 위험인자로 선정할 수 있다(S140). The extracting
실시예에 따라, 저장 DB(200) 또는 저장부(110)는 특정이벤트 예컨대, 기설정된 감시구역에 무단으로 침입 또는 침투한 행위에 따라 부위별 제2 대상인자들이 포함된 관심객체들에 대한 통계정보 예컨대, 표 1 내지 표 4에 기재된 예를 수동으로 미리 입력받아 저장하고, 이때, 추출부(130)는 상기 통계정보를 기반으로, 위험인자를 선정할 수 있다. According to the embodiment, the
이때, 산출부(140)는 기설정된 유사도테이블을 이용하여 상기 제2 대상인들 중 부위별로 가장 높게 카운트되어 선정된 위험인자들과 상기 제1 대상인자들간의 공통점에 따른 부위별 유사도를 도출할 수 있다(S150). At this time, the calculating
보다 구체적으로, 산출부(140)는 하기의 표 5 내지 표 8에 기재된 유사도테이블을 이용하여 추출부(130)에서 선정된 상기 위험인자들과 추출부(130)에서 추출된 상기 제1 대상인자들간의 부위별 유사도를 도출할 수 있다.More specifically, the calculating
다음의 표 5 내지 표 8은 기설정된 유사도테이블의 일 예이다.The following Tables 5 to 8 are examples of predetermined similarity tables.
Equipment accessories
gun
이때, 산출부(140)는 상기 부위별 제1 대상인자와 상기 위험인자가 서로 동일한 것으로 판단될 때 적용되는 가중치를 부위별로 도출할 수 있다(S160). At this time, the calculating
다음의 표 9는 상기 제1 대상인자와 상기 위험인자가 부위별로 동일할 때, 적용되는 가중치의 일 예를 나타낸다. Table 9 below shows an example of weights applied when the first object factor and the risk factor are the same for each site.
보다 구체적으로, 산출부(140)는 상기 제1 대상인자와 상기 위험인자가 서로 동일한 것으로 판단될 때 적용되는 가중치와 상기 유사도의 곱을 부위별로 합하여 상기 대상객체의 위험도를 산출할 수 있다(S170). More specifically, the calculating
여기서, 상기 대상객체의 위험도는 다음의 산출식(1)을 통해 산출될 수 있다. Here, the risk level of the target object can be calculated through the following equation (1).
여기서, 상기 산출식은 (1) 이고, 이때, n은 상기 부위의 개수, k는 상기 부위별 기설정된 상수, a는 상기 제1 대상인자와 상기 위험인자의 공통점에 따른 유사도, b는 상기 부위별 인자들이 동일할 때 적용되는 가중치일 수 있다. Here, (1) where n is the number of sites, k is a predetermined constant for each site, a is the similarity between the first object factor and the risk factor, b is the site-specific factor It may be an applied weight.
예컨대, 상기 대상객체의 부위별 제1 대상인자가 상부위에서 캡모자, 중부위에서 없음, 하부위에서 없음, 특정부위에서 총이고, 상기 위험인자가 부위별로, 헬멧, 군장용품, 군화, 총인 경우, 부위별 유사도는 1.0, 1.5, 0.1, 2.5 이고, 이때, 가중치는 표 9에 기재된 바와 같이, 특정부위에서 동일한 인자일 때, 20이므로, 상기 대상객체의 위험도는 1.0+1.5+0.1+(2.5*20)=52.6일 수 있다. For example, if the first object of the target object is a cap on an upper part, a part on a central part, a part on a lower part, and a specific part, The risk of the target object is 1.0 + 1.5 + 0.1 + (2.5 * 20) because the similarities are 1.0, 1.5, 0.1 and 2.5, = 52.6.
이후, 조작부(150)는 상기 산출된 위험도에 따른 기설정된 시나리오에 따라 해당 대상객체를 추적하도록 카메라들(10-1~10-N)을 조작할 수 있다(S180). Thereafter, the
여기서, 상기 기설정된 시나리오는, 상기 대상객체를 추적하도록 상기 대상객체의 위치로부터 상기 카메라들이 활성화되는 영역, 상기 활성화된 영역 내 위치한 상기 카메라들의 구동타이밍, 네트워크(50)를 통해 외부로 경보신호를 전송할 지에 대한 여부 등을 포함하는 것으로, 상기 위험도의 크기에 따라 상기 대상객체의 침투나 이동에 대해 대응하기 위한 일련의 동작일 수 있다. Here, the predetermined scenario may include an area in which the cameras are activated, a driving timing of the cameras located in the activated area, and an alarm signal to the outside through the
즉, 객체추적감시 서버(100)는 상기 위험도에 따른 기설정된 시나리오에 따라 카메라들(10-1~10-N)뿐만 아니라, 경광등, 전화기, 스피커, 알람 발생기 등 다양한 감시 주변기기(미도시)를 조작할 수 있다. That is, the object
실시예에 따라, 객체추적감시 서버(100)는 상기 위험도가 일정값 이상일 때, 상기 영상으로부터 분할된 영역마다 기설정된 좌표정보에 근거하여 상기 대상객체의 위치를 추정하는 제1 추정단계를 수행하고, 추정된 제1 위치에서 제2 위치로 일정시간 동안 이동한 상기 대상객체의 이동속도와 방향각을 추정하는 제2 추정단계를 수행하는 추정부(160)를 더 포함할 수 있다. According to an embodiment, the object
예컨대, 객체추적감시 서버(100)는 상기 영상의 영역에 위치한 상기 대상객체의 좌표정보(X, Y, Z)가 (10, 15, 21)이고, 일정시간 이후 (20, 17, 23)일 때, 해당 카메라(예컨대, 10-1)의 매핑값(a, b, c)과 상기 좌표정보(X, Y, Z), 매핑하여 상기 대상객체의 제1 위치(a*10, b*15, c*21), 제2 위치(a*20, b*16, c*22)를 추정하고, 지리정보시스템(Geographic Information System, 미도시)과 연동을 통해제1 위치(a*10, b*15, c*21)의 진북을 기준으로 제2 위치(a*20, b*16, c*22)로 이동한 각도인 방향각(θ)을 추정하고, 이미 잘알려진 피타고라스 정리에 기초한 이동거리(m)와 상기 일정시간(s)에 기초하여 상기 대상객체의 이동속도(m/s)를 추정할 수 있다. For example, the object
이에, 추정부(160)는 상기 방향각에 따라 상기 대상객체의 이동경로를 추정할 수 있다. The estimating unit 160 may estimate the moving path of the target object according to the direction angle.
실시예에 따라, 조작부(150)는, 상기 방향각에 따른 이동경로가 상기 추정부를 통해 추정될 때, 카메라들(10-1~10-N) 중 상기 이동경로를 따라 일정거리 이내에 배치된 어느 하나의 카메라(예컨대, 10-1~10-5)를 조작하도록 상기 시나리오를 업데이트할 수 있다. According to the embodiment, when the movement path according to the direction angle is estimated through the estimation unit, the
이때, 조작부(150)는, 어느 하나의 카메라(예컨대, 10-1~10-5)의 위치, 상기 대상객체의 제1 위치, 상기 이동속도에 근거하여 상기 대상객체를 추적하기 위한 제어신호의 전송시간과 지연시간을 결정하고, 상기 전송시간 및 지연시간에 따라 어느 하나의 카메라(예컨대, 10-1~10-5)를 조작하도록 상기 시나리오를 업데이트할 수 있다. At this time, the
본 발명의 다른 실시예에 따라, 객체추적감시 시스템(1000-1)은 방호장치(300)를 더 포함할 수 있다. According to another embodiment of the present invention, the object tracking and monitoring system 1000-1 may further include a
실시예에 따른 방호장치(300)는 상기 대상객체의 위험도가 일정값 이상이고, 상기 감시구역 중 특정시설 주변으로 무단침입이 감지되며, 상기 조작된 어느 하나의 카메라(예컨대, 10-1~10-5)가 상기 무단침입으로 감지된 구역에 일정거리 내 위치할 때, 상기 대상객체의 무단침입을 경고하도록 형성될 수 있다. The
보다 구체적으로, 방호장치(300)는 감지부(310), 요청부(330) 및 대응부(350)를 포함할 수 있다. More specifically, the
먼저, 감지부(310)는, 상기 감시구역 중 군사용 주둔지나 유류창고와 같은 특정시설 주변에 설치되고, 객체추적감시 서버(100)와 연동을 통해 상기 대상객체의 위험도가 일정값 이상 여부를 확인하며, 상기 대상객체의 위험도가 일정값 이상일 때, 상기 특정시설 주변에서 상기 대상객체의 무단침입을 감지할 수 있다. First, the sensing unit 310 is installed in a vicinity of a specific facility such as a military station or a petroleum warehouse in the monitoring area, and interlocks with the object
예컨대, 감지부(310)는 특정시설 주변의 경계망의 진동을 감지하는 진동센서(미도시), 출입문의 개폐를 감지하는 개폐센서(미도시), 상기 경계망에 설치되어 일정한 감지거리를 갖는 적외선을 통해 경계망 주변을 감지하는 적외선센서(미도시)로 구성될 수 있다. For example, the sensing unit 310 may include a vibration sensor (not shown) for sensing a vibration of a boundary around a specific facility, an open / close sensor (not shown) for detecting opening and closing of a door, And an infrared sensor (not shown) that detects the surroundings of the boundary through the antenna.
다음으로, 요청부(330)는 조작부(150)를 통해 상기 조작된 어느 하나의 카메라(예컨대, 10-1~10-5)의 위치와 촬영된 영상을 객체추적감시 서버(100)에 요청할 수 있다. Next, the
이후, 대응부(350)는 객체추적감시 서버(100)로부터 전송받는 상기 조작된 어느 하나의 카메라(예컨대, 10-1~10-5)를 통해 촬영된 영상에서 상기 대상객체와 상기 경계망이 추출될 때, 또는 상기 조작된 어느 하나의 카메라(예컨대, 10-1~10-5)가 상기 감지된 구역에 일정거리 내 위치할 때, 상기 대상객체의 무단침입을 경고하는 경고음을 해당구역에 구비된 스피커(351)를 통해 출력하고, 해당 구역을 담당하는 담당자의 모바일단말(353)에 경고메시지를 전송하거나 상황실에 구비된 모니터(355)에 경고메시지를 표시할 수 있다. Thereafter, the
상기와 같이 설명된 객체를 추적감시하는 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성된다. The method of tracking and monitoring the object described above can be applied to a case where the configuration and method of the embodiments described above are not limitedly applied. Instead, the embodiments may be modified such that all or some of the embodiments are selectively .
10-1~10-N: 카메라들
50: 네트워크
100: 객체추적감시 서버
110: 저장부
120: 탐지부
130: 추출부
140: 산출부
150: 조작부
160: 추정부
200: 저장 DB
300: 방호장치
310: 감지부
330: 요청부
350: 대응부
1000: 객체추적감시 시스템10-1 to 10-N: Cameras
50: Network
100: Object tracking monitoring server
110:
120:
130:
140:
150:
160:
200: Storage DB
300: Protection device
310:
330:
350:
1000: Object tracking and monitoring system
Claims (5)
상기 카메라를 통해 실시간으로 촬영된 영상들로부터 어느 하나의 대상객체를 탐지하는 단계;
상기 어느 하나의 대상객체의 특징이 되는 부위별 제1 대상인자를 추출할 때, 상기 관심객체들의 특징이 되는 부위별 제2 대상인자를 추출하는 단계;
상기 제2 대상인자를 카운트하여 부위별로 가장 높게 카운트된 제2 대상인자를 위험인자로 선정하고, 기설정된 유사도테이블을 이용하여 상기 위험인자와 상기 제1 대상인자의 부위별 유사도를 도출하며, 상기 제1 대상인자와 상기 위험인자가 서로 동일한 것으로 판단될 때 적용된 부위별 가중치를 도출하는 단계;
상기 유사도와 상기 가중치의 곱을 부위별로 합하여 상기 대상객체의 위험도를 산출하는 단계; 및
상기 산출된 위험도에 따른 기설정된 시나리오에 따라 상기 대상객체를 추적하도록 상기 카메라를 조작하는 단계를 포함하고,
상기 산출하는 단계는,
상기 대상객체의 위험도에 대한 산출식(1)을 통해 산출하고,
상기 산출식은 (1) 이고,
이때, 이때, n은 상기 부위의 개수, k는 상기 부위별 기설정된 상수, a는 상기 제1 대상인자와 상기 위험인자의 공통점에 따른 유사도, b는 상기 부위별 인자들이 동일할 때 적용되는 가중치인 것을 특징으로 하는 객체를 추적감시하는 방법.
Storing interest objects selected from images in which a specific event has occurred among images previously transmitted through a plurality of cameras;
Detecting a target object from images photographed in real time through the camera;
Extracting a second object factor for each region that is a feature of the ROI when extracting a first object factor for each region that is a feature of the ROI;
Counting the second object factor, selecting a second object factor that is highest in each region as a risk factor, deriving the similarity between the risk factor and the first object factor using a predetermined similarity table, Deriving a weight for each site applied when the first subject factor and the risk factor are determined to be equal to each other;
Calculating a risk of the target object by summing the product of the similarity and the weight by site; And
And operating the camera to track the target object according to a predetermined scenario according to the calculated risk,
Wherein the calculating step comprises:
(1) for the risk of the target object,
The calculation equation (1)
Here, n is the number of the sites, k is a predetermined constant for each site, a is the similarity between the first object factor and the risk factor, b is a weight value applied when the site-specific factors are the same, The method comprising the steps of:
상기 위험도가 일정값 이상일 때, 상기 카메라로부터 실시간으로 촬영된 영상으로부터 분할된 영역마다 기설정된 좌표정보에 근거하여 상기 대상객체의 위치를 추정하는 제1 추정단계: 및
추정되는 상기 대상객체의 제1 위치에서 제2 위치로 일정시간 동안 이동하는 상기 대상객체의 이동속도와 방향각을 추정하는 제2 추정단계를 더 포함하는 것을 특징으로 하는 객체를 추적감시하는 방법.
The method according to claim 1,
A first estimating step of estimating a position of the target object based on preset coordinate information for each of the areas divided from the image photographed from the camera in real time when the risk is equal to or greater than a predetermined value;
Further comprising a second estimating step of estimating a moving speed and a direction angle of the target object moving for a predetermined time from a first position to a second position of the target object to be estimated.
상기 방향각에 따른 이동경로가 추정될 때, 상기 복수개의 카메라 중 상기 이동경로를 따라 일정거리 이내에 배치된 어느 하나의 카메라를 조작하도록 상기 시나리오를 업데이트하는 단계를 포함하는 것을 특징으로 하는 객체를 추적감시하는 방법.
4. The method of claim 3, wherein the second estimating step comprises:
And updating the scenario so as to operate one of the plurality of cameras disposed within a predetermined distance along the movement path when the movement path according to the direction angle is estimated. How to monitor.
상기 어느 하나의 카메라의 촬영영역의 위치, 상기 대상객체의 제1 위치, 상기 이동속도에 근거하여 상기 대상객체를 추적하기 위한 제어신호의 전송시간과 지연시간을 결정하는 단계; 및
상기 전송시간 및 지연시간에 따라 상기 어느 하나의 카메라를 조작하도록 상기 시나리오를 업데이트하는 단계를 포함하는 것을 특징으로 포함하는 것을 특징으로 하는 객체를 추적감시하는 방법.
5. The method of claim 4, wherein the second estimating step comprises:
Determining a transmission time and a delay time of a control signal for tracking the target object based on a position of an imaging region of the camera, a first position of the target object, and a moving speed; And
And updating the scenario to operate the one of the cameras according to the transmission time and the delay time.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170146505A KR101910033B1 (en) | 2017-11-06 | 2017-11-06 | Method tracking and monitoring object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170146505A KR101910033B1 (en) | 2017-11-06 | 2017-11-06 | Method tracking and monitoring object |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101910033B1 true KR101910033B1 (en) | 2018-10-19 |
Family
ID=64102113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170146505A KR101910033B1 (en) | 2017-11-06 | 2017-11-06 | Method tracking and monitoring object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101910033B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006287884A (en) * | 2005-03-31 | 2006-10-19 | Ara Software:Kk | Intelligent video monitoring system |
JP2009060261A (en) * | 2007-08-30 | 2009-03-19 | Toshiba Corp | Video monitoring system |
JP2017041022A (en) * | 2015-08-18 | 2017-02-23 | キヤノン株式会社 | Information processor, information processing method and program |
-
2017
- 2017-11-06 KR KR1020170146505A patent/KR101910033B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006287884A (en) * | 2005-03-31 | 2006-10-19 | Ara Software:Kk | Intelligent video monitoring system |
JP2009060261A (en) * | 2007-08-30 | 2009-03-19 | Toshiba Corp | Video monitoring system |
JP2017041022A (en) * | 2015-08-18 | 2017-02-23 | キヤノン株式会社 | Information processor, information processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3806456A1 (en) | Video identification and analytical recognition system | |
KR101215948B1 (en) | Image information masking method of monitoring system based on face recognition and body information | |
US6774905B2 (en) | Image data processing | |
US20190130189A1 (en) | Suppressing duplicated bounding boxes from object detection in a video analytics system | |
US11743431B2 (en) | Video identification and analytical recognition system | |
US20210304577A1 (en) | Integrated Camera and Ultra-Wideband Location Devices and Related Systems | |
US8681223B2 (en) | Video motion detection, analysis and threat detection device and method | |
US10540552B2 (en) | Device and method surveilling abnormal behavior using 3D image information | |
US11615620B2 (en) | Systems and methods of enforcing distancing rules | |
CN106781165A (en) | A kind of indoor multi-cam intelligent linkage supervising device based on depth sensing | |
US20200184227A1 (en) | Improved generation of alert events based on a detection of objects from camera images | |
US10878578B2 (en) | Exclusion zone in video analytics | |
US20180047193A1 (en) | Adaptive bounding box merge method in blob analysis for video analytics | |
RU2720947C2 (en) | Analytical identification and video identification system | |
CN108802758A (en) | A kind of Intelligent security monitoring device, method and system based on laser radar | |
KR101459024B1 (en) | Security System for Monitoring Facilities | |
CA2394926C (en) | Image data processing | |
KR101975181B1 (en) | Object tracking and monitoring server | |
KR101910034B1 (en) | Tracking and monitoring system | |
US10692364B1 (en) | Security systems integration | |
KR101213255B1 (en) | System and method for context-aware using image processing and wireless sensor network | |
KR101795798B1 (en) | Intelligent surveillance camera system | |
CN110956769A (en) | Monitoring method of perimeter anti-intrusion system based on target position | |
EP3910539A1 (en) | Systems and methods of identifying persons-of-interest | |
KR101910033B1 (en) | Method tracking and monitoring object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |