KR20230115231A - Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method - Google Patents
Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method Download PDFInfo
- Publication number
- KR20230115231A KR20230115231A KR1020220187272A KR20220187272A KR20230115231A KR 20230115231 A KR20230115231 A KR 20230115231A KR 1020220187272 A KR1020220187272 A KR 1020220187272A KR 20220187272 A KR20220187272 A KR 20220187272A KR 20230115231 A KR20230115231 A KR 20230115231A
- Authority
- KR
- South Korea
- Prior art keywords
- image sensor
- intruder
- sensor device
- tracking
- ptz
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19617—Surveillance camera constructional details
- G08B13/1963—Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19645—Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
침입자 위치 기반 동적 가상 펜스 구성 및 다중 영상 센서 장치 운용 방법이 개시된다. 일 실시예에 따른 가상 펜스 기반 침입자 감시 방법은 제1 영상 센서 장치를 이용하여 보호 지역에 설정된 가상 펜스를 침범하는 침입자를 검출하는 동작과, 상기 침입자에 대한 정보에 기초하여 상기 제1 영상 센서 장치에 인접한 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하는 동작을 포함할 수 있다.A method for constructing a dynamic virtual fence based on an intruder's location and operating a multi-image sensor device is disclosed. A virtual fence-based intruder monitoring method according to an embodiment includes an operation of detecting an intruder invading a virtual fence set in a protection area using a first image sensor device, and the first image sensor device based on information about the intruder. It may include an operation of tracking the intruder through cooperation of second image sensor devices adjacent to .
Description
아래 개시는 침입자 위치 기반 동적 가상 펜스 구성 및 다중 영상 센서 장치 운용 방법에 관한 것이다.The disclosure below relates to a method for constructing a dynamic virtual fence based on an intruder's location and operating a multi-image sensor device.
국가의 주요 시설물이나 산업시설물을 외부의 침입자들로부터 보호하기 위해서는 보호시설물을 방어하는 가상의 감시선을 설정하고, 이 가상의 선을 넘어서는 침입자를 검출하고 추적을 수행하며 대응전략을 추진해야 한다. 이와 같은 외부의 침입자를 감시하기 위해서는 주로 배율렌즈가 장착된 카메라와 영상처리장치로 구성되는 영상센서가 사용되고 있으나, 카메라의 광학적 특성상 배율렌즈와 이미지센서의 특성에 의존하여 감시구역이 제한적으로 설정되므로 이를 효율적으로 사용하여 감시구역을 설정하고 운용하는 방법이 필요하다.In order to protect the country's major facilities or industrial facilities from outside intruders, it is necessary to set up a virtual surveillance line that defends the protected facilities, detect intruders who cross this virtual line, perform tracking, and implement a response strategy. In order to monitor such an outside intruder, an image sensor composed of a camera equipped with a magnification lens and an image processing device is mainly used, but the surveillance area is limited depending on the characteristics of the magnification lens and the image sensor due to the optical characteristics of the camera. It is necessary to use this effectively to set up and operate the surveillance area.
위에서 설명한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다.The background art described above is possessed or acquired by the inventor in the process of deriving the disclosure of the present application, and cannot necessarily be said to be known art disclosed to the general public prior to the present application.
외부의 침입자로부터 주요 시설물을 보호하기 위해서 영상 센서로 시설물 외곽에 가상의 펜스를 설치하고, 이 가상의 펜스를 넘어서는 침입자를 영상 딥러닝 기술로 검출한 후 검출한 칩입자를 지속적으로 추적하는 시스템이 구축될 필요가 있다. 이때 침입자를 검출하기 위해서는 침입 객체의 영상이 일정 크기 이상의 픽셀을 갖도록 카메라 줌 렌즈의 배율을 조절하고 카메라의 관측 방향을 제어(예: PT제어(Panning Tilting))하여야 한다. 이후 카메라의 방향과 렌즈의 배율이 검출된 침입자가 이동하는 경로에 따라 조정되어야 하므로, 초기에 설정한 카메라의 관측 범위가 변화하게 됨에 따라 관측의 사각 지대가 발생하게 되므로 이를 극복하는 기술이 필요하다.In order to protect major facilities from outside intruders, a system that installs a virtual fence outside the facility with an image sensor, detects an intruder that crosses the virtual fence with image deep learning technology, and continuously tracks the detected intruder. need to be built At this time, in order to detect an intruder, the magnification of the zoom lens of the camera must be adjusted so that the image of the intruding object has pixels of a certain size or more, and the observation direction of the camera must be controlled (eg, PT control (panning tilting)). Since the direction of the camera and the magnification of the lens must be adjusted according to the path the detected intruder moves, as the initially set observation range of the camera changes, a blind spot in observation occurs, so a technique to overcome this is required. .
일 실시예는 외부의 칩임자로부터 인적, 물적 자산의 보호를 위해 복수의 영상 센서들 기반으로 가상의 펜스를 설치하고, 침입 객체(예: 침입자)를 검출하고 침입 객체를 지속적으로 추적할 때 카메라의 관측 범위 변화로 발생하는 침입 객체에 대한 감시 사각지대(또는 관측 사각지대)를 극복하기 위해 여분의 영상 센서 장치를 사용하거나 인접 영상 센서 장치 간의 협력을 기반으로 가상의 펜스를 동적으로 구성하고 운용하는 방법을 제공할 수 있다.In one embodiment, a virtual fence is installed based on a plurality of image sensors to protect human and material assets from outside intruders, and a camera is installed when an intrusive object (eg, intruder) is detected and the intrusive object is continuously tracked. To overcome surveillance blind spots (or observation blind spots) for intruding objects caused by changes in the observation range of the system, use redundant image sensor devices or dynamically configure and operate virtual fences based on cooperation between adjacent image sensor devices. can provide a way to do it.
일 실시예는 감시 구역에 침입하는 침입 객체(예: 침입자)의 이동 특성을 분석하여 복수의 영상 센서 장치들의 협력을 통해 가상의 감시선(예: 가상 펜스)을 동적으로 구성하고 운용하는 방법을 제공할 수 있다.An embodiment is a method for dynamically configuring and operating a virtual surveillance line (eg, a virtual fence) through cooperation of a plurality of image sensor devices by analyzing the movement characteristics of an intruding object (eg, an intruder) intruding into a surveillance area. can provide
일 실시예는 영상 센서 장치에 가상의 펜스를 설정하고, 침입자의 이동 경로에 따라 가상 펜스를 동적으로 재설정함으로써 침입자의 감시를 누락시키지 않을 수 있다.According to an embodiment, a virtual fence is set in the image sensor device and the virtual fence is dynamically reset according to the moving path of the intruder, so that monitoring of the intruder may not be missed.
일 실시예는 침입자의 검출과 추적 딥러닝 엔진을 분류 수행함으로써 딥러닝 추론시간을 절감하여 다수의 침입자를 추적할 수 있다.An embodiment can track multiple intruders by reducing deep learning inference time by classifying and performing intruder detection and tracking deep learning engine.
일 실시예는 다수의 침입자를 구분하기 위해 보호 지역에 최초로 출현하는 침입자의 위치 정보를 고유 식별자로 설정하고 지속적으로 침입자의 위치 정보를 데이터 속성으로 관리함으로써 다수의 침범자를 구분하여 추적 관리할 수 있다.In one embodiment, in order to distinguish multiple intruders, location information of an intruder who first appears in a protected area is set as a unique identifier, and the intruder's location information is continuously managed as a data attribute, so that multiple intruders can be identified and tracked. .
다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenges are not limited to the above-described technical challenges, and other technical challenges may exist.
일 실시예에 따른 가상 펜스 기반 침입자 감시 방법은 제1 영상 센서 장치를 이용하여 보호 지역에 설정된 가상 펜스를 침범하는 침입자를 검출하는 동작과, 상기 침입자에 대한 정보에 기초하여 상기 제1 영상 센서 장치에 인접한 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하는 동작을 포함할 수 있다.A virtual fence-based intruder monitoring method according to an embodiment includes an operation of detecting an intruder invading a virtual fence set in a protection area using a first image sensor device, and the first image sensor device based on information about the intruder. It may include an operation of tracking the intruder through cooperation of second image sensor devices adjacent to .
상기 방법은 상기 제1 영상 센서 장치의 PTZ를 제어함에 따라 상기 제2 영상 센서 장치들의 협력을 통해 상기 가상 펜스를 동적으로 설정하는 동작을 더 포함할 수 있다.The method may further include dynamically setting the virtual fence through cooperation of the second image sensor devices according to controlling the PTZ of the first image sensor device.
상기 방법은 상기 제1 영상 센서 장치가 상기 침입자를 검출한 초기 위치 정보를 상기 침입자를 구별하기 위한 식별자로 설정하는 동작을 더 포함할 수 있다.The method may further include setting, by the first image sensor device, initial location information at which the intruder is detected as an identifier for distinguishing the intruder.
상기 추적하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어난 경우, 상기 침입자에 대한 정보에 기초하여 상기 제2 영상 센서 장치들 중에서 상기 침입자를 추적할 영상 센서 장치를 선택하는 동작과, 선택된 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작을 포함할 수 있다.The tracking operation may include selecting an image sensor device to track the intruder from among the second image sensor devices based on information about the intruder when the intruder is out of the observation range of the first image sensor device. and assigning a task of tracking the intruder to the selected image sensor device.
상기 추적하는 동작은, 상기 제1 영상 센서 장치가 상기 침입자를 추적에 따라 발생하는 상기 제1 영상 센서 장치의 사각지대인 Neighborhood Takeover Region을 계산하는 동작을 더 포함할 수 있다.The tracking operation may further include calculating a Neighborhood Takeover Region, which is a blind spot of the first image sensor device, generated as the first image sensor device tracks the intruder.
상기 Neighborhood Takeover Region은, 상기 제1 영상 센서 장치의 초기 관측 범위와 상기 침입자를 추적함에 따라 갱신된 상기 제1 영상 센서 장치의 갱신 관측 범위의 차일 수 있다.The Neighborhood Takeover Region may be a difference between an initial observation range of the first image sensor device and an updated observation range of the first image sensor device that is updated while tracking the intruder.
상기 추적하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간에 기초하여 상기 제1 영상 센서 장치와 상기 제2 영상 센서 장치들 간에 협력 가능한 거리를 설정하는 동작을 더 포함할 수 있다.The tracking operation may be performed based on the time when the intruder leaves the observation range of the first image sensor device and the time required for the second image sensor devices to observe the Neighborhood Takeover Region by controlling the PTZ. An operation of setting a cooperative distance between the sensor device and the second image sensor devices may be further included.
상기 선택하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간을 비교하여 상기 제2 영상 센서 장치 중에서 상기 소요되는 시간이 적은 영상 센서 장치를 선택하는 동작을 포함할 수 있다.The operation of selecting the second image by comparing the time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor device to control the PTZ to observe the Neighborhood Takeover Region. An operation of selecting an image sensor device that takes less time from among sensor devices may be included.
상기 방법은 상기 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하지 못하는 경우, 예비용 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작을 더 포함할 수 있다.The method may further include an operation of allocating a task of tracking the intruder to a spare image sensor device when the intruder cannot be tracked through cooperation of the second image sensor devices.
일 실시예에 따른 가상 펜스 기반 침입자 감시 방법은 보호 지역에 설정된 가상 펜스를 침범하는 객체를 검출하는 동작과, 검출 객체가 침입자인 경우에 응답하여 상기 침입자를 추적하는 동작과, 관제 센터로부터 전송된 명령에 따라 영상 센서 장치의 PTZ를 제어하여 상기 영상 센서 장치의 관측 범위를 제어하는 동작을 포함하고, 상기 가상 펜스는 상기 영상 센서 장치의 PTZ를 제어함에 따라 상기 영상 센서 장치에 인접한 영상 센서 장치들의 협력을 통해 동적으로 설정되는 것일 수 있다.A method for monitoring an intruder based on a virtual fence according to an embodiment includes an operation of detecting an object invading a virtual fence set in a protection area, an operation of tracking the intruder in response when the detected object is an intruder, and an operation of tracking the intruder transmitted from a control center. and controlling a PTZ of the image sensor device according to a command to control an observation range of the image sensor device, wherein the virtual fence controls the PTZ of the image sensor device so that the image sensor devices adjacent to the image sensor device It may be dynamically set through cooperation.
일 실시예에 따른 가상 펜스 기반 침입자를 감시하는 장치는 프로세서와, 상기 프로세서와 전기적으로 연결되고 상기 프로세서에 의해 실행 가능한 인스트럭션들을 저장하는 메모리를 포함하고, 상기 프로세서에 의해 상기 인스터력션들 실행될 때, 상기 프로세서는 복수의 동작들을 수행하며, 상기 복수의 동작들은, 제1 영상 센서 장치를 이용하여 보호 지역에 설정된 가상 펜스를 침범하는 침입자를 검출하는 동작과, 상기 침입자에 대한 정보에 기초하여 상기 제1 영상 센서 장치에 인접한 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하는 동작을 포함할 수 있다.An apparatus for monitoring an intruder based on a virtual fence according to an embodiment includes a processor, and a memory electrically connected to the processor and storing instructions executable by the processor, when the instructions are executed by the processor. , The processor performs a plurality of operations, and the plurality of operations include an operation of detecting an intruder invading a virtual fence set in a protection area using a first image sensor device, and an operation of detecting an intruder based on information about the intruder An operation of tracking the intruder through cooperation of second image sensor devices adjacent to the first image sensor device may be included.
상기 복수의 동작들은 상기 제1 영상 센서 장치의 PTZ를 제어함에 따라 상기 제2 영상 센서 장치들의 협력을 통해 상기 가상 펜스를 동적으로 설정하는 동작을 더 포함할 수 있다.The plurality of operations may further include dynamically setting the virtual fence through cooperation of the second image sensor devices according to controlling the PTZ of the first image sensor device.
상기 복수의 동작들은 상기 제1 영상 센서 장치가 상기 침입자를 검출한 초기 위치 정보를 상기 침입자를 구별하기 위한 식별자로 설정하는 동작을 더 포함할 수 있다.The plurality of operations may further include setting, by the first image sensor device, initial location information at which the intruder is detected as an identifier for distinguishing the intruder.
상기 추적하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어난 경우, 상기 침입자에 대한 정보에 기초하여 상기 제2 영상 센서 장치들 중에서 상기 침입자를 추적할 영상 센서 장치를 선택하는 동작과, 선택된 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작을 포함할 수 있다.The tracking operation may include selecting an image sensor device to track the intruder from among the second image sensor devices based on information about the intruder when the intruder is out of the observation range of the first image sensor device. and assigning a task of tracking the intruder to the selected image sensor device.
상기 추적하는 동작은, 상기 제1 영상 센서 장치가 상기 침입자를 추적에 따라 발생하는 상기 제1 영상 센서 장치의 사각지대인 Neighborhood Takeover Region을 계산하는 동작을 더 포함할 수 있다.The tracking operation may further include calculating a Neighborhood Takeover Region, which is a blind spot of the first image sensor device, generated as the first image sensor device tracks the intruder.
상기 Neighborhood Takeover Region은, 상기 제1 영상 센서 장치의 초기 관측 범위와 상기 침입자를 추적함에 따라 갱신된 상기 제1 영상 센서 장치의 갱신 관측 범위의 차일 수 있다.The Neighborhood Takeover Region may be a difference between an initial observation range of the first image sensor device and an updated observation range of the first image sensor device that is updated while tracking the intruder.
상기 추적하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간에 기초하여 상기 제1 영상 센서 장치와 상기 제2 영상 센서 장치들 간에 협력 가능한 거리를 설정하는 동작을 더 포함할 수 있다.The tracking operation may be performed based on the time when the intruder leaves the observation range of the first image sensor device and the time required for the second image sensor devices to observe the Neighborhood Takeover Region by controlling the PTZ. An operation of setting a cooperative distance between the sensor device and the second image sensor devices may be further included.
상기 선택하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간을 비교하여 상기 제2 영상 센서 장치 중에서 상기 소요되는 시간이 적은 영상 센서 장치를 선택하는 동작을 포함할 수 있다.The operation of selecting the second image by comparing the time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor device to control the PTZ to observe the Neighborhood Takeover Region. An operation of selecting an image sensor device that takes less time from among sensor devices may be included.
상기 복수의 동작들은 상기 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하지 못하는 경우, 예비용 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작을 더 포함할 수 있다.The plurality of operations may further include assigning a task of tracking the intruder to a spare image sensor device when the second image sensor devices cannot track the intruder through cooperation.
도 1은 일 실시예에 따른 가상펜스 기반 침입자 검출 시스템을 나타낸다.
도 2는 일 실시예에 따른 영상 센서 장치의 개략적인 블록도를 나타낸다.
도 3은 일 실시예에 따른 관제 센터의 개략적인 블록도를 나타내다.
도 4는 일 실시예에 따른 다중 영상 센서 장치를 운용하는 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 침입자가 보호 지역을 침범할 때 가상 펜스를 동적으로 구성하여 운용하는 동작을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 동적 가상 펜스를 기반으로 침입자 보호 구역을 구성하는 동작을 설명하기 도면이다.
도 7은 일 실시예에 따른 관제 센터에서 침입자 보호 지역을 관리하는 동작을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 복수의 영상 센서 장치 간 협력을 기반으로 침입자를 추적하는 임무를 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 동적 가상 펜스 운용을 위한 영상 센서 장치의 임무 절차를 설명하기 위한 순서도를 나타낸다.
도 10은 일 실시예에 따른 동적 가상 펜스 운용을 위한 관제 센터의 임무 절차를 설명하기 위한 순서도를 나타낸다.1 shows an intruder detection system based on a virtual fence according to an embodiment.
2 shows a schematic block diagram of an image sensor device according to an exemplary embodiment.
3 shows a schematic block diagram of a control center according to an embodiment.
4 is a diagram for explaining an operation of operating a multi-image sensor device according to an exemplary embodiment.
5 is a diagram for explaining an operation of dynamically configuring and operating a virtual fence when an intruder invades a protection area according to an embodiment.
6 is a diagram for explaining an operation of configuring an intruder protection area based on a dynamic virtual fence according to an exemplary embodiment.
7 is a diagram for explaining an operation of managing an intruder protection area in a control center according to an exemplary embodiment.
8 is a diagram for explaining a task of tracking an intruder based on cooperation between a plurality of image sensor devices according to an exemplary embodiment.
9 is a flowchart illustrating a mission procedure of an image sensor device for operating a dynamic virtual fence according to an exemplary embodiment.
10 is a flowchart illustrating a task procedure of a control center for operating a dynamic virtual fence according to an embodiment.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be changed and implemented in various forms. Therefore, the form actually implemented is not limited only to the specific embodiments disclosed, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but one or more other features or numbers, It should be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted.
도 1은 일 실시예에 따른 가상펜스 기반 침입자 검출 시스템을 나타낸다.1 shows an intruder detection system based on a virtual fence according to an embodiment.
도 1을 참조하면, 침입자 검출 시스템(10)은 하나 이상의 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4) 및 관제 센터(4000)를 포함할 수 있다. 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 보호 지역(또는 감시 구역)을 침입하는 침입 객체(예: 침입자(200, 300))를 검출하기 위해 보호 지역에 설치될 수 있다. 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 카메라 및 영상 딥러닝 알고리즘을 수행하는 프로세서(예: GPU)를 포함할 수 있다. 관제 센터(4000)는 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)를 제어 및 관리할 수 있다. 각 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)와 관제 센터(4000)는 유무선 망을 통해서 상호 연동이 될 수 있다. 침입자 검출 시스템(10)은 영상 학습 서버(5000)를 더 포함할 수 있다.Referring to FIG. 1 , the
영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 카메라의 영상(예: 카메라가 촬영한 영상)에 대한 딥러닝 알고리즘(예: Yolo, ResNet, RE3 등) 분석을 통해 침입자를 검출하고 추적하는 기능을 수행할 수 있다. 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)의 카메라의 경우 광학적 한계로 침입자를 검출하고 추적하는데 있어 거리에 대한 제약을 받게 되어 보호 지역 내 감시를 위해서는 카메라 간의 협력이 필요할 수 있다.The image sensor devices (2000-1, 2000-2, 2000-3, 2000-4) analyze the video of the camera (eg, the video taken by the camera) by deep learning algorithm (eg, Yolo, ResNet, RE3, etc.) It can perform the function of detecting and tracking intruders. In the case of the cameras of the image sensor devices (2000-1, 2000-2, 2000-3, 2000-4), there are restrictions on the distance in detecting and tracking intruders due to optical limitations, so cooperation between cameras is required for surveillance within the protected area. this may be needed
보호 지역을 침범하는 침입 객체(200,300)를 효율적으로 검출 및 추적하기 위해서, 가상 펜스(예: 가상의 감시선 또는 펜스선)(100)가 보호 지역에 설정될 수 있다. 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 가상 펜스(100)를 넘는 객체에 대한 영상 딥러닝을 통해 침입자(200, 300)를 검출하고 추적할 수 있다. 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)의 카메라를 통해 관측하는(또는 획득하는) 이미지의 크기인 감시 영역 경계선(3110, 3210) 내에 각각 가상 펜스(100)(예: 가상 펜스 A_Image(3120), 가상 펜스 B_Image(3220))를 설치하고 영상 딥러닝 알고리즘을 통해 가상 펜스(100)를 침범하는 객체에 대한 검출 및 추적을 하게 된다. 가상 펜스 A_Image(3120)는 영상 센서 장치(2000-1)의 카메라를 통해 관측하는 감시 영역 경계선(3110) 내에서 설정된 가상 펜스(100)이고, 가상 펜스 B_Image(3220)는 영상 센서 장치(2000-2)의 카메라를 통해 관측하는 감시 영역 경계선(3210) 내에서 설정된 가상 펜스(100)일 수 있다.In order to efficiently detect and track intruding
영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 영상 학습 서버(5000)에서 학습한 모델(예: 영상 딥러닝 알고리즘)을 다운로드받아 탑재하여 침입자를 검출하는 기능을 수행할 수 있다. 침입자를 검출하고 추적하는 과정에서 각 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 렌즈 배율 조정을 통해 화각(예: 화각(2010, 2110))을 제어할 수 있다.The image sensor devices (2000-1, 2000-2, 2000-3, 2000-4) have a function of detecting an intruder by downloading and loading a model (eg, image deep learning algorithm) learned from the
관제 센터(4000)는 각 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)를 관리하고, 침입 객체(예: 침입자(200, 300))의 이동 경로가 해당 영상 센서 장치(예: 영상 센서 장치(2000-1), 영상 센서 장치(2000-2))의 감시 영역을 벗어나는 경우 인접한 영상 센서 장치(예: 영상 센서 장치(2000-3)) 또는 예비용의 영상 센서 장치에 특정 침입자(예: 침입자(200, 300))를 추적할 수 있도록 임무를 할당하는 기능을 수행할 수 있다.The
도 2는 일 실시예에 따른 영상 센서 장치의 개략적인 블록도를 나타낸다.2 shows a schematic block diagram of an image sensor device according to an exemplary embodiment.
도 2를 참조하면, 일 실시예에 따르면, 영상 센서 장치(2000)(예: 도 1의 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4))는 영상 센서(2010)(예: 카메라), 프로세서(2020), 및 통신부(2090)를 포함할 수 있다. 영상 센서 장치(2000)는 메모리(2095)를 더 포함할 수 있다.Referring to FIG. 2 , according to an embodiment, an image sensor device 2000 (eg, the image sensor devices 2000-1, 2000-2, 2000-3, and 2000-4 of FIG. 1) is an image sensor 2010 ) (eg, a camera), a
메모리(2095)는 프로세서(2020)에 의해 실행가능한 인스트럭션(instruction)들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서(2020)의 동작 및/또는 프로세서(2020)의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.
메모리(2095)는 하나 이상의 컴퓨터 판독 가능한 저장 매체(computer-readable storage media)를 포함할 수 있다. 메모리(2095)는 비휘발성 저장 소자들(예: 자기 하드 디스크(magnetic hard disc), 광 디스크(optical disc), 플로피 디스크(floppy disc), 플래시 메모리(flash memory), EPROM(electrically programmable memories), EEPROM(electrically erasable and programmable))을 포함할 수 있다.
메모리(2095)는 비일시적 매체(non-transitory media)일 수 있다. "비일시적"이라는 용어는 저장 매체가 반송파 또는 전파된 신호로 구현되지 않음을 나타낼 수 있다. 단, "비일시적"이라는 용어는 메모리(2095)가 움직일 수 없는 것으로 해석되어서는 안 된다.
프로세서(2020)는 메모리(2095)에 저장된 데이터를 처리할 수 있다. 프로세서(2020)는 메모리(2095)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(2020)에 의해 유발된 인스트럭션들을 실행할 수 있다.The
프로세서(2020)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들을 포함할 수 있다.The
예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.For example, a data processing unit implemented in hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , Application-Specific Integrated Circuit (ASIC), and Field Programmable Gate Array (FPGA).
프로세서(2020)는 객체 검출부(object detection unit)(2030), 검출 객체 이동 경로 예측부(detection object movement path prediction unit)(2040), PTZ 제어 신호 생성부(PTZ control signal generator)(2050), 검출 객체 위치 정보 추출부(detection object location information extraction unit)(2060), 객체 위치 추적부(object location tracking unit)(2070), 및 관측 범위 관리부(observation range management unit)(2080)를 포함할 수 있다. 객체 검출부(2030), 검출 객체 이동 경로 예측부(2040), PTZ제어 신호 생성부(2050), 검출 객체 위치 정보 추출부(2060), 객체 위치 추적부(2070), 및 관측 범위 관리부(2080)는 프로세서(2020)에 임베디드 되거나 메모리(2095)로부터 프로세서(2020)로 로딩될 수 있다.The
영상 센서(2010)(예: 카메라)는 촬영하는 영상을 객체 검출부(2030)로 전송할 수 있다. 객체 검출부(2030)는 영상 딥러닝 알고리즘을 이용하여 영상(또는 화면) 내에서 객체를 검출한 후 검출 객체가 침입자인지 여부를 판단할 수 있다. 검출 객체가 침입자인 것으로 판단되면, 객체 검출부(2030)는 침입자에 관한 정보를 검출 객체 이동 경로 예측부(2040)와 검출 객체 위치 정보 추출부(2060)로 전송할 수 있다.The image sensor 2010 (eg, a camera) may transmit a photographed image to the object detector 2030 . The object detector 2030 may detect an object in an image (or screen) using an image deep learning algorithm and then determine whether the detected object is an intruder. If it is determined that the detected object is an intruder, the object detector 2030 may transmit information about the intruder to the detected object moving path predictor 2040 and the detected object location information extractor 2060 .
검출 객체 위치 정보 추출부(2060)는 영상(또는 화면) 상의 객체 위치와 영상 센서 장치(2000)에 장착된 PTZ(pan tilt zoom) 정보를 결합하여 검출 객체의 위치 정보를 추출할 수 있다. PTZ 정보는 영상 센서(2010) 및/또는 영상 센서 장치(2000)로부터 획득될 수 있다. 검출 객체 위치 정보 추출부(2060)는 검출 객체의 위치 정보를 검출 객체 위치 추적부(2070)로 전송할 수 있다. 즉, 검출 객체의 위치정보는 영상 내 검출 객체의 바운딩 박스 크기 및 좌표와 GPS가 탑재된 영상 센서(2010)의 PTZ정보를 결합하여 검출 객체의 위치를 GPS 위치 정보로 환산한 것일 수 있다.The detected object location information extractor 2060 may extract the location information of the detected object by combining the object location on the image (or screen) with pan tilt zoom (PTZ) information mounted in the
검출 객체 위치 추적부(2070)는 영상의 프레임단위로 검출 객체의 위치를 추적할 수 있다. 검출 객체 이동 경로 예측부(2040)는 추적된 정보에 기초하여 검출 객체의 이동 경로를 예측하여 영상 센서(2010)의 PTZ을 제어할 수 있다. 또한, 검출 객체 위치 추적부(2070)는 관제 센터(4000)에서 검출 객체의 이동 경로를 디스플레이시킬 수 있도록 통신부(2090)를 통해 검출 객체의 이동 경로를 관제 센터(4000)로 전송할 수 있다. 검출 객체 이동 경로 예측부(2040)는 검출 객체의 이동 방향, 속도와 같은 정보에 기초하여 검출 객체의 이동 경로(또는 이동 추정 경로)를 실시간으로 생성하고, 검출 객체의 이동 경로를 PTZ제어 신호 생성부(2050)로 전송할 수 있다.The detection object position tracking unit 2070 may track the position of the detection object in units of frames of an image. The detection object movement path predictor 2040 may control the PTZ of the
PTZ 제어 신호 생성부(2050)는 검출 객체의 이동 경로에 기초하여 PTZ 제어 신호(예: 영상 센서(2010)에 대한 PTZ 제어 신호)를 생성하여 영상 센서(2010)를 제어할 수 있다. PTZ 제어 신호 생성부(2050)는 관제 센터(4000)로부터 전송된 제어 명령(예: 관제 센터(4000)가 각 영상 센서(2010)를 직접 제어하기 위한 명령)에 응답하여 PTZ 제어 신호를 생성할 수 있다. The PTZ control
PTZ제어 신호 생성부(2050)는 생성된 PTZ 제어 신호를 관측 범위 관리부(2080)로도 전송할 수 있다. 관측 범위 관리부(2080)는 PTZ 제어 신호에 응답하여 영상 센서(2010)의 특성(예: 줌 배율 특성, 화각표와 같은 특성)에 기초하여 영상 센서(2010)가 현재 관측할 수 있는 범위를 실시간으로 업데이트하고, 업데이트된 정보를 통신부(2090)를 통해 관제 센터(4000)로 전송할 수 있다.The PTZ control
도 3은 일 실시예에 따른 관제 센터의 개략적인 블록도를 나타내다.3 shows a schematic block diagram of a control center according to an embodiment.
도 3을 참조하면, 일 실시예에 따르면, 관제 센터(4000)(예: 관제 서버 장치)는 통신부(5010) 및 프로세서(5080)를 포함할 수 있다. 관제 센터(4000)는 메모리(5090)를 더 포함할 수 있다.Referring to FIG. 3 , according to an embodiment, a control center 4000 (eg, a control server device) may include a
통신부(5010)는 영상 센서 장치(2000)(예: 도 1의 각 영상 센서 장치(2000-1~2000-4))와 통신기능을 수행할 수 있다.The
메모리(5090)는 프로세서(5080)에 의해 실행가능한 인스트럭션(instruction)들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서(5080)의 동작 및/또는 프로세서(5080)의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.
메모리(5090)는 하나 이상의 컴퓨터 판독 가능한 저장 매체(computer-readable storage media)를 포함할 수 있다. 메모리(5090)는 비휘발성 저장 소자들(예: 자기 하드 디스크(magnetic hard disc), 광 디스크(optical disc), 플로피 디스크(floppy disc), 플래시 메모리(flash memory), EPROM(electrically programmable memories), EEPROM(electrically erasable and programmable))을 포함할 수 있다.
메모리(5090)는 비일시적 매체(non-transitory media)일 수 있다. "비일시적"이라는 용어는 저장 매체가 반송파 또는 전파된 신호로 구현되지 않음을 나타낼 수 있다. 단, "비일시적"이라는 용어는 메모리(5090)가 움직일 수 없는 것으로 해석되어서는 안 된다.
프로세서(5080)는 메모리(5090)에 저장된 데이터를 처리할 수 있다. 프로세서(5080)는 메모리(5090)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(5080)에 의해 유발된 인스트럭션들을 실행할 수 있다.The
프로세서(5080)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들을 포함할 수 있다.The
예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.For example, a data processing unit implemented in hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , Application-Specific Integrated Circuit (ASIC), and Field Programmable Gate Array (FPGA).
프로세서(5080)는 제어 메시지 처리부(control message processing unit)(5020), 침입자 추적부(intruder tracking unit)(5030), 감시 구역 관리부(surveillance area management unit)(5050), 영상 센서 협력부(image sensor cooperation unit)(5060), 및 침입자 관리부(intruder management unit)(5070)를 포함할 수 있다. 제어 메시지 처리부(5020), 침입자 추적부(5030), 감시 구역 관리부(5050), 영상 센서 협력부(5060), 및 침입자 관리부(5070)는 프로세서(5080)에 임베디드 되거나 메모리(5090)로부터 프로세서(5080)로 로딩될 수 있다.The
제어 메시지 처리부(5020)는 영상 센서 장치(2000)의 영상 센서(2010)를 제어하는 메시지(예: 명령)를 생성하고, 통신부(5010)를 통해 메시지를 영상 센서 장치(2000)로 전송할 수 있다. 침입자 추적부(5030)는 검출 객체(예: 침입자)의 위치를 추적할 수 있다. 감시 구역 관리부(5050)는 각 영상 센서 장치(2000)(예: 도 1의 영상 센서 장치(2000-1~2000-4))의 감시 영역을 실시간으로 관리할 수 있다. 영상 센서 협력부(5060)는 영상 센서 장치(예: 도 1의 영상 센서 장치 A(2000-1))에서 검출한 침입자가 이동함에 따라 해당 영상 센서 장치의 관측 범위를 벗어나는 경우 지속적으로 침입자를 추적하기 위해 다른 영상 센서 장치(예: 도 1의 영상 센서 장치 C(2000-3))에 해당 임무를 부여할 수 있다. 침입자 관리부(5070)는 감시 구역(예: 침입자 감시 구역) 내에 출현한 침입자에 대해 고유 식별자를 부여하여 관리할 수 있다. 예를 들어, 침입자별로 고유 식별자를 부여하는 방안은 처음으로 침입자를 검출했을 때의 GPS시각을 고유 식별자로 선정하고 지속적으로 이동 경로를 관리하는 방식을 포함할 수 있다.The control
도 4는 일 실시예에 따른 다중 영상 센서 장치를 운용하는 동작을 설명하기 위한 도면이다.4 is a diagram for explaining an operation of operating a multi-image sensor device according to an exemplary embodiment.
도 4는 도 1의 영상 센서 장치 A(2000-1)의 관측 범위(또는 촬영 범위)(2500)와 영상 센서 장치 B(2000-2)의 관측 범위(2600)내에서 영상 센서 장치를 운용하는 동작을 설명하기 위한 것일 수 있다.FIG. 4 shows a method for operating an image sensor device within an observation range (or photographing range) 2500 of image sensor device A 2000-1 and an
영상 센서(예: 도 2의 영상 센서(2010)), 즉 카메라는 렌즈의 배율이 1인 광각 화면(2510)으로부터 렌즈의 배율을 높여 피사체의 이미지 크기를 확대시키는 협각 화면(2530)을 설정하여 침입자를 검출하기 위한 영상을 획득할 수 있다. 광각 화면(2510)에서는 침입자를 관측하는 범위가 넓지만 영상내 침입자의 크기가 작게되어 영상 딥러닝으로 침입자를 검출하는데 어려움이 따를 수 있으며, 이를 극복하기 위해 카메라의 렌즈 배율을 높이게 되면(줌인) 피사체의 이미지 크기가 증대되는 반면에 관측 범위가 줄어들게 될 수 있다.An image sensor (e.g., the
도 4를 참조하면, 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))는 영상 센서(2010)의 렌즈의 배율을 조절하여 초기 설정 화면(2520)(예: 초기 감시 영역)을 설정할 수 있다. 설정 이후, 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))는 침입자(예: 검출 객체)를 검출하는 임무를 시작하여 침입자에 대한 명확한 이미지를 얻거나 또는 침입자가 이동함에 따라 침입자를 추적할 수 있다. 추적하기 위해 영상 센서(2010)의 PTZ(Panning Tilting Zooming)을 제어했을 때의 영상 센서(2010)의 화면은 화면(2530)일 수 있다. 이때, 영상 센서(2010)의 화면이 작아짐(예: 2520 -> 2530)으로써 원래의 광각 화면(2510)과의 차이가 발생하며 이를 Tolerance area(2550)(예: 관측 범위)라 할 수 있다. 즉, 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))는 이 Tolerance area(2550) 범위내에서 영상 센서(2010)의 PTZ을 자유스럽게 제어하여 침입자를 검출하거나 추적할 수 있다. 도 8의 Neighborhood takeover(handover) region (6710)이나, Third party Takeover(Handover) region (6200)은 이 Tolerance area(2550) 범위내에서 결정될 수 있다.Referring to FIG. 4 , an image sensor device (eg, image sensor device A 2000-1 or image sensor device B 2000-2) adjusts the magnification of a lens of an
복수의 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))를 설치하여 운용하는 환경을 고려할 때, 영상 센서 장치 A(2000-1)의 관측 범위(2500)가 줄어 관측 사각 지대가 발생하는 경우, 이 시각 지대에서 영상 센서 장치 B(2000-2)(예: 영상 센서 장치 A(2000-1)에 인접한 영상 센서 장치)가 대신하여 침입자 감시 임무를 수행할 수 있다.Considering the environment in which a plurality of image sensor devices (e.g., image sensor device A (2000-1) and image sensor device B (2000-2)) are installed and operated, the observation range of the image sensor device A (2000-1) If (2500) is reduced and an observation blind spot occurs, in this visual zone, the image sensor device B (2000-2) (eg, the image sensor device adjacent to the image sensor device A (2000-1)) replaces the intruder surveillance task. can be performed.
복수의 영상 센서 장치가 운용되는 환경에서, 인접 영상 센서 장치 간에 협력가능한 거리(2560)가 설정될 수 있다. 협력가능한 거리(2560)는 침입자(들)의 평균 이동 속도를 기반으로 침입자가 협각 화면(2530)을 벗어나는 시간 t_out과 인접한 영상 센서 장치(예: 영상 센서 장치 B(2000-2))가 영상 센서(2010)의 PTZ을 제어하여 영상 센서 장치 A(2000-1)의 Tolerance area(2550)를 관측하는 데 소요되는 안정화 시간 t_setup을 비교하여 t_setup이 t_out 보다 적게되는 범위내에서 설정되게 될 수 있다. 한편, 영상 센서(2010)의 렌즈 배율을 제어했을 때 영상 센서(2010)의 심도(Depth of Field)(2540) 범위내에서만 명확한 영상을 얻을 수 있으므로 침입자의 이동 속도를 고려하여 카메라 렌즈의 배율을 선제적으로 제어하는 방식이 적용될 수 있다.In an environment where a plurality of image sensor devices are operated, a cooperative distance 2560 between adjacent image sensor devices may be set. The cooperative distance 2560 is the time t_out when the intruder leaves the narrow angle screen 2530 based on the average moving speed of the intruder(s) and the image sensor device (eg, the image sensor device B (2000-2)) adjacent to the image sensor By comparing the stabilization time t_setup required to observe the
도 5는 일 실시예에 따른 침입자가 보호 지역을 침범할 때 가상 펜스를 동적으로 구성하여 운용하는 동작을 설명하기 위한 도면이다.5 is a diagram for explaining an operation of dynamically configuring and operating a virtual fence when an intruder invades a protection area according to an embodiment.
t1 시각에 가변 화각(2010)를 갖는 영상 센서 장치 A(2000-1)는 가상 펜스 A_Image_t1(3121)를 구성하여 침입자(200)를 감시하고, 영상 센서 장치 B(2000-2)는 가상 펜스 B_Image_t1(3221)를 구성하여 침입자(200)를 감시할 수 있다.At time t1, the image sensor device A (2000-1) having a
t1 시각에 위치 정보가 "위치정보_t1(Xt1, Yt1, Zt1)(201)"인 침입자(200)를 감시하는 영상 센서 장치(2000-1)의 카메라 화각은 FoV_t1(2011)이며, 영상 센서 장치(2000-1)는 촬영하는 영상에 대한 딥러닝을 통해 침입자(200)를 검출할 수 있다. 이후, 침입자가 가상 펜스(예: 도 1의 가상 펜스(100))를 월경하여 침입을 계속하게 되어 t2 시각에 위치 정보_t2(Xt2, Yt2, Zt2)(202)가 되면, 영상 센서 장치 A(2000-1)는 침입자(200)를 지속적으로 정밀하게 추적하기 위한 목적으로 침입자(200)의 영상을 확대하기 위해 영상 센서(2010)의 화각을 FoV_t2(2012)로 조정할 수 있다. 영상 센서(2010)의 렌즈 배율을 높여 큰 영상을 얻게 되는 반면에 영상 센서 장치 A(2000-1)의 화각이 FoV_t2(2012)로 줄어들고 가상 펜스에 대한 감시 영역도 줄어들게 되어, 영상 센서 장치 A(2000-1)는 가상 펜스 A_Image_t2(3122)를 구성할 수 있다.The camera angle of view of the image sensor device 2000-1 that monitors the
이와 같이 줄어든 영상 센서 장치 A(2000-1)의 감시영역을 보상하기 위해, 영상 센서 장치 B(2000-2)는 영상 센서 장치(2000-2)에 포함된 영상 센서(2010)의 PTZ을 제어하여 가상 펜스 B_Image_t2(3222)를 구성할 수 있다. 이에 따라 감시 영역의 축소를 보상하기 위해 영상 센서 장치 C(2000-3)도 영상 센서 장치 C(2000-3)에 포함된 영상 센서(2010)의 PTZ을 제어하여 가상 펜스 C_Image_t2(3322)를 구성할 수 있다. 이와 같이 가상 펜스(예: 도 1의 가상 펜스(100))는 당초(예: t1시각)의 일직선 형태에서 직선과 사선이 결합된 형태로 변경 설정될 수 있다.To compensate for the reduced surveillance area of the image sensor device A (2000-1), the image sensor device B (2000-2) controls the PTZ of the
이후 지속적으로 침입자가 보호 지역 내부로 침입하는 경우, 영상 센서 장치 A(2000-1)는 영상 센서 장치 A(2000-1)의 영상 센서(2010)의 화각을 FoV_t3(2013)로 조절하게 되어 가상 펜스 A_Image_t3(3123)를 구성할 수 있다. 이에 따라, 영상 센서 장치 A(2000-1)의 감시 영역을 보상하기 위해, 영상 센서 장치 B(2000-2)는 영상 센서 장치 B(2000-2)에 포함된 영상 센서(2010)의 PTZ을 제어하여 가상 펜스 B_Image_t3(3222)를 구성하며, 영상 센서 장치 C(2000-3)도 영상 센서 장치 C(2000-3)에 포함된 영상 센서(2010)의 PTZ을 제어하여 가상 펜스 C_Image_t3(3223)를 구성할 수 있다. 이때, 침입자(200)의 위치정보는 위치정보_t3(Xt3, Yt3, Zt3)(203)가 될 수 있다.After that, when an intruder continuously invades the inside of the protected area, the image sensor device A (2000-1) adjusts the angle of view of the
도 6은 일 실시예에 따른 동적 가상 펜스를 기반으로 침입자 보호 구역을 구성하는 동작을 설명하기 도면이다.6 is a diagram for explaining an operation of configuring an intruder protection area based on a dynamic virtual fence according to an exemplary embodiment.
도 6은 도5에서 설명한 동적 가상 펜스 운용 동작을 기반으로 침입자 보호 구역을 구성할 때 각 영상 센서 장치(2000, 2100, 2200)가 담당하는 감시 영역(3100, 3200, 3300)을 나타내는 것일 수 있다. 영상 센서 장치 A(2000-1)의 감시 영역(3100)은 영상 센서 장치 A(2000-1)의 감시 영역 경계선(3110)과 감시 구역 면적 A(3120), 및 관측 시각별로 "가상 펜스_Image_t1(3121), 가상 펜스_Image_t2(3122), 가 상펜스_Image_t3(3123)" 로 각각 달리 구성될 수 있다. 이와 유사하게, 영상 센서 장치 B(2000-2)의 감시 영역(3200)에 대한 면적은 감시 구역 면적 B(3220)과 같고, 영상 센서 장치 C(2000-3)의 감시 영역(3300)에 대한 면적은 감시 구역 면적 C(3320)와 같을 수 있다.FIG. 6 may show surveillance areas 3100, 3200, and 3300 in charge of each of the
각 영상 센서 장치(2000-1~2000-3)의 영상 센서(2010)에서 촬영되는 영상은 영상 센서(2010)의 심도(Depth of Field)내에 있는 물체의 경우에 한해 윤곽이 뚜렷하게 나타나므로 영상 딥러닝으로 객체를 검출할 수 있는 영역이 결정될 수 있다. 영상 센서 장치(2000-1~2000-3)의 관측 범위(예: 카메라 관측 범위)는 해당 장치에 포함된 영상 센서(2010)의 PTZ제어값에 따라 결정될 수 있다.The image captured by the
시각 t1에서, 영상 센서 장치 A(2000-1)의 카메라 PTZ 제어값은 Ca_A_PTZ_t1=(PA1, TA1, ZA1)(2051)이고, 영상 센서 장치 B(2000-2)의 카메라 PTZ 제어값은 Ca_B_PTZ_t1=(PB1, TB1, ZB1)(2151)일 수 있다. 시각 t2에서, 영상 센서 장치 A(2000-1)의 카메라 PTZ 제어값은 Ca_A_PTZ_t2=(PA2, TA2, ZA2)(2052)이고, 영상 센서 장치 B(2000-2)의 카메라 PTZ 제어값은 Ca_B_PTZ_t2=(PB2, TB2, ZB2)(2152)이고, 영상 센서 장치 C(2000-3)의 카메라 PTZ 제어값은 Ca_C_PTZ_t2=(PC2, TC2, ZC2)(2252)일 수 있다. 시각 t3에서, 영상 센서 장치 A(2000-1)의 카메라 PTZ 제어값은 Ca_A_PTZ_t3=(PA3, TA3, ZA3)(2053)이고, 영상 센서 장치 B(2000-2)의 카메라 PTZ 제어값은 Ca_B_PTZ_t3=(PB3, TB3, ZB3)(2153)이고, 영상 센서 장치 C(2000-3)의 카메라 PTZ 제어값은 Ca_C_PTZ_t3=(PC3, TC3, ZC3)(2253)와 같을 수 있다. 영상 센서 장치(2000-1~2000-3)로 침입자를 검출하고 추적 및 분류, 이상행동을 추출할 수 있는 범위는 범위(6000)와 같을 수 있다.At time t1, the camera PTZ control value of image sensor device A (2000-1) is Ca_A_PTZ_t1 = (PA1, TA1, ZA1) (2051), and the camera PTZ control value of image sensor device B (2000-2) is Ca_B_PTZ_t1 = (PB1, TB1, ZB1) (2151). At time t2, the PTZ control value of the camera of the image sensor device A (2000-1) is Ca_A_PTZ_t2 = (PA2, TA2, ZA2) (2052), and the PTZ control value of the camera of the image sensor device B (2000-2) is Ca_B_PTZ_t2 = (PB2, TB2, ZB2) 2152, and the camera PTZ control value of the image sensor device C 2000-3 may be Ca_C_PTZ_t2 = (PC2, TC2, ZC2) 2252. At time t3, the PTZ control value of the camera of the image sensor device A (2000-1) is Ca_A_PTZ_t3 = (PA3, TA3, ZA3) (2053), and the PTZ control value of the camera of the image sensor device B (2000-2) is Ca_B_PTZ_t3 = (PB3, TB3, ZB3) 2153, and the camera PTZ control value of the image sensor device C (2000-3) may be equal to Ca_C_PTZ_t3 = (PC3, TC3, ZC3) 2253. The range in which the image sensor devices 2000-1 to 2000-3 can detect intruders, track and classify, and extract abnormal behaviors may be the same as the range 6000.
도 6에 도시에 도시된 바와 같이, 시각 t1에는 침입 객체를 검출 및 추적 가능한 범위(6100)에 대응하는 가상 펜스_Image_t1(3121)가 설정되고, 시각 t2에는 침입 객체를 분류 및 추적 가능한 범위(6200)에 대응하는 가상 펜스_Image_t2(3122)가 설정되고, 시각 t3에는 침입 객체의 이상 행동까지 추출 가능한 범위(또는 거리)(6300)에 대응하는 할 정도의 거리에 해당하는 가상 펜스_Image_t3(3123)가 설정될 수 있다.As shown in FIG. 6 , at time t1, a
도 7은 일 실시예에 따른 관제 센터에서 침입자 보호 지역을 관리하는 동작을 설명하기 위한 도면이다.7 is a diagram for explaining an operation of managing an intruder protection area in a control center according to an exemplary embodiment.
관제 센터(4000)는 침입자 보호지역에 침입하는 객체(예: 침입자)를 검출하는 영상 센서 장치(2000, 2100, 2200, 2300)의 감시 영역과 가상 펜스(3120, 3220, 3320, 3420)의 설정을 제어할 수 있다. 또한, 관제 센터(4000)는 검출한 침입자(200, 210, 220)의 이동을 추적하기 위한 기능을 수행할 수 있다. The
도 7에서, 침입자 보호 지역의 전체 감시 구역(3000)의 면적은 S이며, 각 영상 센서 장치(2000-1~2000-4)가 감시하는 면적은 A(3130), B(3230), C(3330), 및 D(3430)으로 가정한다. 각 영상 센서 장치(2000-1~2000-4)가 감시하는 면적의 총합이 S가 되도록 각 영상 센서 장치(2000-1~2000-4)의 영상 센서(2010)를 설정할 수 있다.In FIG. 7, the area of the entire monitoring area 3000 in the intruder protection area is S, and the areas monitored by each of the image sensor devices 2000-1 to 2000-4 are A (3130), B (3230), and C ( 3330), and D (3430). The
침입자 보호 지역에 설치되는 각 영상 센서 장치(2000-1~2000-4)의 영상 센서(2010)의 특성이 동일하다고 가정하는 경우, 영상 센서(2010)의 심도와 렌즈의 배율을 고려할 때, 영상 센서 장치(2000-1~2000-4)가 침입자를 감시할 수 있는 한계는 감시 깊이(예: 거리D)(3500)가 될 수 있다. 각 영상 센서 장치(2000-1~2000-4)와 관제 센터(4000)는 다음의 시나리오 예와 같이 상호 협력을 통해 침입자를 검출하고 추적하는 기능을 수행할 수 있다.Assuming that the characteristics of the
① 시각 t1에서, 침입자#1(200)은 영상 센서 장치 A(2000-1)의 감시 영역 경계선(3110) 내에 출현하고, 침입자#2(210)는 영상 센서 장치 D(2000-4)의 감시 영역 경계선(3410) 내에 출현하고, 침입자#3(220)은 영상 센서 장치 C(2000-3)의 감시 영역 경계선(3310)내에 출현한 것으로 가정한다. 각 영상 센서 장치(2000-1, 2000-3, 2000-4)는 각 침입자(200, 210, 220)가 가상 펜스(3120, 3420, 3320)내에 존재하므로 영상 딥러닝을 통해 침입자를 검출하고, 검출한 침입자의 위치 정보(예: 침입자#1(200)의 위치 정보(X1, Y1, Z1), 침입자#2(210)의 위치 정보(X2, Y2, Z2), 침입자#3(220)의 위치 정보(X3, Y3, Z3))를 추출한 후 지속적으로 영상의 프레임기반으로 검출한 침입자(200, 210, 220)의 이동 경로를 추적하면서 이에 대한 정보(예: 추적된 정보)를 관제 센터(4000)로 전송할 수 있다. 관제 센터(4000)는 전체 감시 구역을 각 영상 센서 장치(2000-1~2000-4) 감시하는 영역으로 구별하여 관리할 수 있다. 또한, 관제 센터(4000)는 각 영상 센서 장치(2000-1, 2000-3, 2000-4)에서 검출한 침입자의 위치 정보를 침입자 구별 식별자로 사용하여 다음과 같이 관리할 수 있다.① At time t1, intruder #1 (200) appears within the surveillance area boundary 3110 of the video sensor device A (2000-1), and intruder #2 (210) monitors the video sensor device D (2000-4) It is assumed that the intruder #3 (220) appears within the border line 3410 of the area and that the intruder #3 (220) appears within the border line 3310 of the monitoring area of the image sensor device C (2000-3). Each of the image sensor devices 2000-1, 2000-3, and 2000-4 detects an intruder through image deep learning since each
- 침입자#1(200)의 식별자: A_X1,Y1,Z1, 침입자#1(200)의 속성: A,X1_t1,Y1_t1,Z1_t1- Identifier of intruder #1 (200): A_X1, Y1, Z1, attributes of intruder #1 (200): A, X1_t1, Y1_t1, Z1_t1
- 침입자#2(210)의 식별자: D_X2,Y2,Z2, 침입자#2(210)의 속성: D,X2_t1,Y2_t1,Z2_t1- Identifier of intruder #2 (210): D_X2, Y2, Z2, attributes of intruder #2 (210): D, X2_t1, Y2_t1, Z2_t1
- 침입자#3(220)의 식별자: C_X3,Y3,Z3, 침입자#3(220)의 속성: C,X3_t1,Y3_t1,Z3_t1- Identifier of intruder #3 (220): C_X3, Y3, Z3, attribute of intruder #3 (220): C, X3_t1, Y3_t1, Z3_t1
② 시각 t2에서, 침입자#1(200)이 영상 센서 장치 B(2000-2)의 감시 영역 경계선(3210) 내로 이동하고, 침입자#2(210)도 영상 센서 장치 B(2000-2)의 감시 영역 경계선(3210) 내로 이동하고, 침입자#3(220)은 영상 센서 장치 A(2000-1)의 감시 영역 경계선(3110) 내로 이동하는 경우를 가정한다. 각 영상 센서 장치(2000-1~2000-4)는 침입자를 검출한 시각 t1이후 지속적으로 검출 객체(예: 침입자)의 이동 방향과 속도를 지속적으로 추적하여 관제 센터(4000)로 전송할 수 있다. 관제 센터(4000)는 침입자가 어느 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))의 감시 영역 방향으로 이동하는지를 판단하여 해당 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))에게 이를 통보(예: 침입자 추적 핸드오버 시작 메시지)하고, 통보를 받은 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))는 해당 침입자의 추적이 가능하다고 판단되는 경우 승인 메시지(예: 침입자 추적 핸드오버 승인)를 관제 센터(4000)로 전송할 수 있다. 이후, 침입자 추적 핸드오버(Handover)를 승인한 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))는 영상 센서(2010)의 PTZ제어시 이를 참조하여 핸드오버된 침입자를 지속적으로 추적하는 동시에 신규 침입자를 감시하는 임무를 수행할 수 있다. 이때 관제 센터(4000)가 관리하는 침입자의 속성은 다음과 같을 수 있다.② At time t2, the intruder #1 (200) moves into the
- 침입자#1(200)의 식별자: A_X1,Y1,Z1, 침입자#1(200)의 속성: A_B,X1_t2,Y1_t2,Z1_t2- Identifier of intruder #1 (200): A_X1, Y1, Z1, attributes of intruder #1 (200): A_B, X1_t2, Y1_t2, Z1_t2
- 침입자#2(210)의 식별자: D_X2,Y2,Z2, 침입자#2(210)의 속성: D_B,X2_t2,Y2_t2,Z2_t2- Identifier of intruder #2 (210): D_X2, Y2, Z2, attribute of intruder #2 (210): D_B, X2_t2, Y2_t2, Z2_t2
- 침입자#3(220)의 식별자: C_X3,Y3,Z3, 침입자#3(220)의 속성: C_A,X3_t2,Y3_t2,Z3_t2- Identifier of intruder #3 (220): C_X3, Y3, Z3, attribute of intruder #3 (220): C_A, X3_t2, Y3_t2, Z3_t2
도 8은 일 실시예에 따른 복수의 영상 센서 장치 간 협력을 기반으로 침입자를 추적하는 임무를 설명하기 위한 도면이다.8 is a diagram for explaining a task of tracking an intruder based on cooperation between a plurality of image sensor devices according to an exemplary embodiment.
도 8에서 도시된 바와 같이, 영상 센서 장치 B(2000-2)의 초기의 감시 영역(6300)은 영상 센서 장치 A(2000-1)의 감시 영역(6200), 영상 센서 장치 C(2000-3)의 감시 영역(6400), 영상 센서 장치 D(2000-4)의 감시 영역(6500)과 인접해 있을 수 있다. 감시 영역(6300) 내 침입자의 출현으로, 영상 센서 장치 B(2000-2)가 영상 센서(2010)의 렌즈 배율과 PTZ를 조정하여 침입자를 검출하는 과정에서 영상 센서(2010)의 화면이 축소되게 되어, 감시 영역(6300)의 사각지대가 발생할 수 있다. 사각지역은 인접 영상 센서 장치(2000-1, 2000-3, 2000-4)의 영상 센서(2010)와의 협력을 통해 보완될 수 있으며, 이 사각지역을 Neighborhood takeover(or handover) region(6110, 6120, 6130)이라 칭할 수 있다.As shown in FIG. 8 , the initial monitoring area 6300 of the image sensor device B (2000-2) is the
관제 센터(4000)는 관측 범위(예: 감시 영역)에 사각지대가 생기는 경우 인접 영상 센서 장치(2000-1, 2000-3, 2000-4)의 상태(예: 침입자 검출 및 추적 유무, 현재의 카메라 관측범위)를 분석하여 사각지대의 인접한 영상 센서 장치(2000-1, 2000-3, 2000-4)에게 Neighborhood takeover(handover) region(6110, 6120, 6130)을 포함하여 감시하도록 PTZ 제어 명령을 전송함으로써 사각지대를 없앨 수 있다. 각 영상 센서 장치(2000-1, 2000-3, 2000-4)는 관제 센터(4000)로부터 전송된 PTZ 제어 명령에 응답하여 영상을 프레임단위로 분석하여 침입자의 이동 방향을 추정한 후, 침입자에 대한 정보(예: 침입자의 이동 방향, 이동 속도, 현재 좌표 정보)를 관제 센터(4000)로 제공할 수 있다. 침입자에 대한 정보를 수신한 관제 센터(4000)는 침입자가 현재의 관측 영상 센서 장치(예: 영상 센서 장치 B(2000-2))의 영역을 벗어날 때에 지속적으로 침입자를 추적할 타겟 영상 센서 장치를 선정한 후 선정한 영상 센서 장치에게 침입자 추적 임무를 부여할 수 있다.The
도 8에서, 침입자가 ①의 빙향으로 이동하는 경우, 영상 센서 장치 D(2000-4)가 관측 센터(4000)로부터 침입자를 추적하는 임무를 부여받아 침입자를 추적하는 임무를 수행할 수 있다. 침입자가 ②의 방향으로 이동하는 경우, 인근에 영상 센서 장치가 부재한 경우에는 관제 센터(4000)가 Third party Takeover(Handover) Region (6200)을 감시하도록 예비용 영상 센서 장치 R에 감시 명령을 내릴 수 있다. 이와 같이, 가상 펜스 동작 영역(6700), Neighborhood takeover(handover) 동작 한계(6710), 및 Third party Takeover(Handover) 동작 한계(6720)는 도 8에 도시된 바와 같을 수 있다.In FIG. 8 , when an intruder moves in the direction of ①, the image sensor device D (2000-4) is assigned a task of tracking the intruder from the
또한, 침입자가 이동함에 따라 침입자를 감시하는 영상 센서 장치의 관측임무는 다음과 같이 수행될 수 있다.In addition, the observation mission of the image sensor device for monitoring the intruder as the intruder moves may be performed as follows.
① 영상 센서 장치의 관측 범위(면적)가 특정 임계값(STh1)이내로 줄어드는 경우,① When the observation range (area) of the image sensor device is reduced within a certain threshold value (S Th1 ),
- 침입자의 이동 속도와 방향에 따라 축소되는 관측 범위가 일정시간 동안 인접 영상 센서 장치의 협력 없이도 침입자를 추적할 수 있는 범위(STh_N)에 있을 때에는 해당 영상 센서 장치가 침입자를 지속적으로 추적할 수 있다.- When the observation range, which is reduced according to the moving speed and direction of the intruder, is within the range (S Th_N ) in which the intruder can be tracked without the cooperation of the adjacent image sensor device for a certain period of time, the image sensor device can continuously track the intruder. there is.
[수학식 1][Equation 1]
- 침입자의 이동 속도와 방향에 따라 축소되는 관측 범위가 인접 영상 센서 장치의 협력을 통해서만 침입자를 추적할 수 있는 범위(STh_N)이상으로 줄어들 때, Neighborhood takeover(handover) region에서는 인접 영상 센서 장치에서 침입자를 추적하는 임무 수행할 수 있다.- When the observation range, which is reduced according to the moving speed and direction of the intruder, is reduced to more than the range (S Th_N ) in which the intruder can be tracked only through the cooperation of the neighboring image sensor device, in the Neighborhood takeover (handover) region, the adjacent image sensor device It can perform missions to track intruders.
[수학식 2][Equation 2]
② 영상 센서 장치의 관측 범위(면적)가 특정 임계값(STh1)이상으로 줄어드는 경우,② When the observation range (area) of the image sensor device is reduced beyond a certain threshold value (S Th1 ),
- 관제 센터(4000)는 Third party Takeover(Handover) Region을 감시하기 위해 예비용 영상 센서 장치를 통해 침입자를 추적하는 임무를 수행할 수 있다. - The control center (4000) can perform the task of tracking intruders through a spare image sensor device to monitor the Third party Takeover (Handover) Region.
도 9는 일 실시예에 따른 동적 가상 펜스 운용을 위한 영상 센서 장치의 임무 절차를 설명하기 위한 순서도를 나타낸다.9 is a flowchart illustrating a mission procedure of an image sensor device for operating a dynamic virtual fence according to an exemplary embodiment.
동작 8010에서, 영상 센서 장치(예: 도 1의 영상 센서 장치(2000-1~2000-4))는 영상 센서(2010)에 의해 획득된 영상에 대한 딥러닝을 수행하여 객체를 검출하고 검출 객체가 침입자인지 여부를 판단할 수 있다. In
동작 8020에서, 검출 객체가 침입자인 경우, 영상 센서 장치(2000)는 영상 프레임 기반으로 침입자에 대한 정보(예: 침입자의 위치 및 진행 방향)을 추정할 수 있다.In
동작 8030에서, 영상 센서 장치(2000)는 침입자에 대한 정보에 따라 영상 센서(2010)의 PTZ을 제어(8030)하여 침입자를 추적할 수 있다.In
동작 8040에서, 영상 센서 장치(2000)는 PTZ 정보를 관제 센터(4000)로 전송할 수 있다. 관제 센터(4000)는 PTZ 정보를 기반으로 각 영상 센서 장치(2000)(예: 영상 센서 장치(2000-1~2000-4))의 관측 범위를 관리할 수 있다.In
동작 8050에서, 침입자가 현재 검출하고 있는 영상 센서 장치(2000)의 감시 영역을 벗어나는 가를 분석(예: 판단)할 수 있다. 감시 영역을 벗어나지 않는 경우, 영상 센서 장치(2000)는 지속적으로 침입자를 추적하여 침입자에 대한 정보를 관제 센터로 전송할 수 있다(8020~8050). In
동작 8060에서, 침입자가 감시 영역을 벗어난 경우, 침입자의 추적임무를 인접 영상 센서 장치 및/또는 예비용 영상 센서 장치에 할당하기 위해, 영상 센서 장치(2000)는 관제 센터(4000)로 침입자에 대한 정보(예: 침입자의 이동 방향 및 이동 속도) 및 PTZ 정보를 전송할 수 있다.In
동작 8070에서, 영상 센서 장치92000)는 관제 센터(4000)의 명령을 대기할 수 있다. 영상 센서 장치(2000)는 대기하면서 지속적으로 객체를 검출하고 추적하는 기능을 수행할 수 있다.In
도 10은 일 실시예에 따른 동적 가상 펜스 운용을 위한 관제 센터의 임무 절차를 설명하기 위한 순서도를 나타낸다.10 is a flowchart illustrating a task procedure of a control center for operating a dynamic virtual fence according to an embodiment.
동작 8510에서, 관제 센터(4000)는 초기에 각 영상 센서 장치(예: 도 1의 영상 센서 장치(2000-1~2000-4)의 관측 범위를 할당할 수 있다.In
동작 8520에서, 관제 센터(4000)는 각 영상 센서 장치(2000-1~2000-4)가 전송한 PTZ 정보를 수신할 수 있다.In
동작 8530에서, 관제 센터(4000)는 PTZ 정보에 기초하여 지속적으로 각 영상 센서 장치(2000-1~2000-4)의 관측 범위를 갱신할 수 있다.In
동작 8540에서, 관제 센터(4000)는 각 영상 센서 장치(2000-1~2000-4)이 침입자를 검출하고 추적하는 과정에서 발생하는 사각지대인 Neighborhood Takeover(Handover) Region을 계산할 수 있다. 초기의 영상 센서 장치(2000-1~2000-4)의 초기의 관측 범위와 영상 센서 장치(2000-1~2000-4)의 갱신된 관측 범위의 차가 Neighborhood Takeover(Handover) Region이 될 수 있다.In
동작 8550에서, 관제 센터(4000)는 인접 영상 센서 장치(2000-1~2000-4)의 관측 범위를 분석할 수 있다.In
동작 8560에서, 관제 센터(4000)는 분석 결과에 기초하여 인접 영상 센서 장치(2000-1~2000-4)가 Neighborhood Takeover(Handover) Region을 담당 가능한지의 여부를 분석할 수 있다. 인접 영상 센서 장치(4000)의 Takeover(Handover) 기준을 설정하는 파라미터는 다음과 같이 결정될 수 있다.In
(1) 침입자의 이동 방향: 침입자의 이동 방향과 인접하는 영상 센서 장치를 핸드오버 타겟 영상 센서 장치로 선정 (1) Moving direction of intruder: Select an image sensor device adjacent to the moving direction of the intruder as a handover target image sensor device
(2) 침입자의 이동 속도: 침입자의 이동 속도를 추정하여 현재의 영상 센서 장치의 관측 범위를 벗어나는 시간을 I_t라 하고, 인접 영상 센서 장치가 PTZ을 제어하여 Neighborhood Takeover(Handover) Region을 관측하는데 걸리는 set-up 시간을 N_S_t라 할때,(2) Moving speed of intruder: The time taken to estimate the moving speed of the intruder and get out of the observation range of the current image sensor device is I_t, and it takes the neighboring image sensor device to control the PTZ to observe the Neighborhood Takeover (Handover) Region. When the set-up time is N_S_t,
- I_t N_S_t 인 경우: Neighborhood Takeover(Handover) 절차 수행 -I_t In case of N_S_t: Perform Neighborhood Takeover (Handover) procedure
(3) 예비용 영상 센서 장치가 Neighborhood Takeover(Handover) Region을 관측하기 위해 PTZ을 제어하여 안정화되는 시간을 R_S_t 라 할 때,(3) When R_S_t is the stabilization time by controlling the PTZ for the spare image sensor device to observe the Neighborhood Takeover (Handover) Region,
- N_S_t R_S_t 인 경우: Third party Takeover(Handover) Region 절차 수행- N_S_t In case of R_S_t: Perform third party takeover (handover) region procedure
동작 8570에서, 관제 센터(4000)는 Neighborhood Takeover(Handover) 절차가 필요한 경우에 인접 영상 센서 장치에게 Neighborhood Takeover(Handover) Region 정보를 전송하여 침입자의 추적 임무를 할당시킬 수 있다. In operation 8570, the
동작 8580에서, 인접 영상 센서 장치로 침입자를 추적하는데 걸리는 카메라 설정 시간이 길거나, 인접 영상 센서 장치가 없는 경우, 영상 센서 장치로부터 지속적으로 침입자에 대한 정보(예: 침입자의 이동 방향 및 이동 속도)와 PTZ 정보를 수신할 수 있다.In
동작 8590 및 동작 8595에서, 관제 센터(4000)는 Third party Takeover(Handover) Region을 계산한 후 예비용 영상 센서 장치에게 이에 대한 정보를 전송하여 침입자를 추적하는 임무를 할당할 수 있다.In
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. A computer readable medium may store program instructions, data files, data structures, etc. alone or in combination, and program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in the art of computer software. there is. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware device described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques may be performed in an order different from the method described, and/or the components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (19)
제1 영상 센서 장치를 이용하여 보호 지역에 설정된 가상 펜스를 침범하는 침입자를 검출하는 동작; 및
상기 침입자에 대한 정보에 기초하여 상기 제1 영상 센서 장치에 인접한 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하는 동작
을 포함하는, 침입자 감시 방법.
In the virtual fence-based intruder monitoring method,
detecting an intruder invading a virtual fence set in a protection area by using a first image sensor device; and
An operation of tracking the intruder through cooperation of second image sensor devices adjacent to the first image sensor device based on the information about the intruder.
Including, intruder monitoring method.
상기 제1 영상 센서 장치의 PTZ를 제어함에 따라 상기 제2 영상 센서 장치들의 협력을 통해 상기 가상 펜스를 동적으로 설정하는 동작
을 더 포함하는, 침입자 감시 방법.
According to claim 1,
An operation of dynamically setting the virtual fence through cooperation of the second image sensor devices as the PTZ of the first image sensor device is controlled.
Further comprising, intruder monitoring method.
상기 제1 영상 센서 장치가 상기 침입자를 검출한 초기 위치 정보를 상기 침입자를 구별하기 위한 식별자로 설정하는 동작
을 더 포함하는, 침입자 감시 방법.
According to claim 1,
An operation of setting, by the first image sensor device, the initial location information at which the intruder is detected as an identifier for distinguishing the intruder.
Further comprising, intruder monitoring method.
상기 추적하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어난 경우, 상기 침입자에 대한 정보에 기초하여 상기 제2 영상 센서 장치들 중에서 상기 침입자를 추적할 영상 센서 장치를 선택하는 동작;
선택된 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작
을 포함하는, 침입자 감시 방법.
According to claim 1,
The tracking operation is
selecting an image sensor device to track the intruder from among the second image sensor devices based on information about the intruder when the intruder is out of the observation range of the first image sensor device;
Allocating the task of tracking the intruder to the selected image sensor device
Including, intruder monitoring method.
상기 추적하는 동작은,
상기 제1 영상 센서 장치가 상기 침입자를 추적에 따라 발생하는 상기 제1 영상 센서 장치의 사각지대인 Neighborhood Takeover Region을 계산하는 동작
을 더 포함하는, 침입자 감시 방법.
According to claim 4,
The tracking operation is
An operation of calculating a Neighborhood Takeover Region, which is a blind spot of the first image sensor device, generated as the first image sensor device tracks the intruder.
Further comprising, intruder monitoring method.
상기 Neighborhood Takeover Region은,
상기 제1 영상 센서 장치의 초기 관측 범위와 상기 침입자를 추적함에 따라 갱신된 상기 제1 영상 센서 장치의 갱신 관측 범위의 차인, 침입자 감시 방법.
According to claim 5,
The Neighborhood Takeover Region,
A difference between an initial observation range of the first image sensor device and an updated observation range of the first image sensor device updated as the intruder is tracked.
상기 추적하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간에 기초하여 상기 제1 영상 센서 장치와 상기 제2 영상 센서 장치들 간에 협력 가능한 거리를 설정하는 동작
을 더 포함하는, 침입자 감시 방법.
According to claim 5,
The tracking operation is
Based on the time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor devices to observe the Neighborhood Takeover Region by controlling the PTZ, the first image sensor device and the second image sensor device Operation of setting a cooperative distance between image sensor devices
Further comprising, intruder monitoring method.
상기 선택하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간을 비교하여 상기 제2 영상 센서 장치 중에서 상기 소요되는 시간이 적은 영상 센서 장치를 선택하는 동작
을 포함하는, 침입자 감시 방법.
According to claim 5,
The selection operation is
The time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor devices to control the PTZ to observe the Neighborhood Takeover Region are compared to obtain the Operation of selecting an image sensor device with less time
Including, intruder monitoring method.
상기 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하지 못하는 경우, 예비용 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작
을 더 포함하는, 침입자 감시 방법.
According to claim 1,
Assigning a task of tracking the intruder to a spare image sensor device when the intruder cannot be tracked through cooperation of the second image sensor devices
Further comprising, intruder monitoring method.
보호 지역에 설정된 가상 펜스를 침범하는 객체를 검출하는 동작;
검출 객체가 침입자인 경우에 응답하여 상기 침입자를 추적하는 동작; 및
관제 센터로부터 전송된 명령에 따라 영상 센서 장치의 PTZ를 제어하여 상기 영상 센서 장치의 관측 범위를 제어하는 동작
을 포함하고,
상기 가상 펜스는,
상기 영상 센서 장치의 PTZ를 제어함에 따라 상기 영상 센서 장치에 인접한 영상 센서 장치들의 협력을 통해 동적으로 설정되는 것인, 침입자 감시 방법.
을 더 포함하는, 침입자 감시 방법.
In the virtual fence-based intruder monitoring method,
detecting an object invading a virtual fence set in the protected area;
tracking the intruder in response when the detection object is the intruder; and
An operation of controlling the observation range of the image sensor device by controlling the PTZ of the image sensor device according to a command transmitted from the control center.
including,
The virtual fence,
In accordance with controlling the PTZ of the image sensor device, the intruder monitoring method is dynamically set through cooperation of image sensor devices adjacent to the image sensor device.
Further comprising, intruder monitoring method.
프로세서; 및
상기 프로세서와 전기적으로 연결되고 상기 프로세서에 의해 실행 가능한 인스트럭션들을 저장하는 메모리
를 포함하고,
상기 프로세서에 의해 상기 인스터력션들 실행될 때, 상기 프로세서는 복수의 동작들을 수행하며,
상기 복수의 동작들은,
제1 영상 센서 장치를 이용하여 보호 지역에 설정된 가상 펜스를 침범하는 침입자를 검출하는 동작; 및
상기 침입자에 대한 정보에 기초하여 상기 제1 영상 센서 장치에 인접한 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하는 동작
을 포함하는, 장치.
An apparatus for monitoring an intruder based on a virtual fence,
processor; and
A memory electrically connected to the processor and storing instructions executable by the processor.
including,
When the instructions are executed by the processor, the processor performs a plurality of operations;
The plurality of operations,
detecting an intruder invading a virtual fence set in a protection area by using a first image sensor device; and
An operation of tracking the intruder through cooperation of second image sensor devices adjacent to the first image sensor device based on the information about the intruder.
Including, device.
상기 복수의 동작들은,
상기 제1 영상 센서 장치의 PTZ를 제어함에 따라 상기 제2 영상 센서 장치들의 협력을 통해 상기 가상 펜스를 동적으로 설정하는 동작
을 더 포함하는, 장치.
According to claim 11,
The plurality of operations,
An operation of dynamically setting the virtual fence through cooperation of the second image sensor devices as the PTZ of the first image sensor device is controlled.
Further comprising a device.
상기 복수의 동작들은,
상기 제1 영상 센서 장치가 상기 침입자를 검출한 초기 위치 정보를 상기 침입자를 구별하기 위한 식별자로 설정하는 동작
을 더 포함하는, 장치.
According to claim 11,
The plurality of operations,
An operation of setting, by the first image sensor device, the initial location information at which the intruder is detected as an identifier for distinguishing the intruder.
Further comprising a device.
상기 추적하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어난 경우, 상기 침입자에 대한 정보에 기초하여 상기 제2 영상 센서 장치들 중에서 상기 침입자를 추적할 영상 센서 장치를 선택하는 동작;
선택된 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작
을 포함하는, 장치.
According to claim 11,
The tracking operation is
selecting an image sensor device to track the intruder from among the second image sensor devices based on information about the intruder when the intruder is out of the observation range of the first image sensor device;
Allocating the task of tracking the intruder to the selected image sensor device
Including, device.
상기 추적하는 동작은,
상기 제1 영상 센서 장치가 상기 침입자를 추적에 따라 발생하는 상기 제1 영상 센서 장치의 사각지대인 Neighborhood Takeover Region을 계산하는 동작
을 더 포함하는, 장치.
According to claim 14,
The tracking operation is
An operation of calculating a Neighborhood Takeover Region, which is a blind spot of the first image sensor device, generated as the first image sensor device tracks the intruder.
Further comprising a device.
상기 Neighborhood Takeover Region은,
상기 제1 영상 센서 장치의 초기 관측 범위와 상기 침입자를 추적함에 따라 갱신된 상기 제1 영상 센서 장치의 갱신 관측 범위의 차인, 장치.
According to claim 15,
The Neighborhood Takeover Region,
A difference between an initial observation range of the first image sensor device and an updated observation range of the first image sensor device updated as the intruder is tracked.
상기 추적하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간에 기초하여 상기 제1 영상 센서 장치와 상기 제2 영상 센서 장치들 간에 협력 가능한 거리를 설정하는 동작
을 더 포함하는, 장치.
According to claim 15,
The tracking operation is
Based on the time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor devices to observe the Neighborhood Takeover Region by controlling the PTZ, the first image sensor device and the second image sensor device Operation of setting a cooperative distance between image sensor devices
Further comprising a device.
상기 선택하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간을 비교하여 상기 제2 영상 센서 장치 중에서 상기 소요되는 시간이 적은 영상 센서 장치를 선택하는 동작
을 포함하는, 장치.
According to claim 15,
The selection operation is
The time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor devices to control the PTZ to observe the Neighborhood Takeover Region are compared to obtain the Operation of selecting an image sensor device with less time
Including, device.
상기 복수의 동작들은,
상기 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하지 못하는 경우, 예비용 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작
을 더 포함하는, 장치.According to claim 11,
The plurality of operations,
Assigning a task of tracking the intruder to a spare image sensor device when the intruder cannot be tracked through cooperation of the second image sensor devices
Further comprising a device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18/098,808 US20230237890A1 (en) | 2022-01-26 | 2023-01-19 | Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220011722 | 2022-01-26 | ||
KR20220011722 | 2022-01-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230115231A true KR20230115231A (en) | 2023-08-02 |
Family
ID=87566760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220187272A KR20230115231A (en) | 2022-01-26 | 2022-12-28 | Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230115231A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118155352A (en) * | 2024-05-09 | 2024-06-07 | 广东华兰海电测科技股份有限公司 | Intelligent self-adaptive electronic fence system and control method thereof |
-
2022
- 2022-12-28 KR KR1020220187272A patent/KR20230115231A/en unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118155352A (en) * | 2024-05-09 | 2024-06-07 | 广东华兰海电测科技股份有限公司 | Intelligent self-adaptive electronic fence system and control method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7428213B2 (en) | Information processing system, information processing method and program | |
JP4241742B2 (en) | Automatic tracking device and automatic tracking method | |
JP5153302B2 (en) | Computer-implemented method for measuring the performance of a monitoring system | |
US7783076B2 (en) | Moving-object tracking control apparatus, moving-object tracking system, moving-object tracking control method, and program | |
US20050104958A1 (en) | Active camera video-based surveillance systems and methods | |
KR100879623B1 (en) | Automated wide area surveillance system using ptz camera and method therefor | |
KR20180032400A (en) | multiple object tracking apparatus based Object information of multiple camera and method therefor | |
KR101019384B1 (en) | Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera | |
JP2002522980A (en) | Image tracking in multiple camera systems | |
US20100002083A1 (en) | Moving object automatic tracking apparatus | |
WO2019139579A1 (en) | Duplicate monitored area prevention | |
JP6413530B2 (en) | Surveillance system, video analysis apparatus, video analysis method and program | |
AU2015203666A1 (en) | Methods and systems for controlling a camera to perform a task | |
JP2007272733A (en) | Image processing device and method, and program | |
KR20230115231A (en) | Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method | |
KR101832274B1 (en) | System for crime prevention of intelligent type by video photographing and method for acting thereof | |
JP2016009877A (en) | Control apparatus, control method, and program | |
KR101290782B1 (en) | System and method for Multiple PTZ Camera Control Based on Intelligent Multi-Object Tracking Algorithm | |
Kumar et al. | Real time target tracking with pan tilt zoom camera | |
US20230237890A1 (en) | Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method | |
KR101454644B1 (en) | Loitering Detection Using a Pedestrian Tracker | |
CN115760912A (en) | Moving object tracking method, device, equipment and computer readable storage medium | |
JP2005346425A (en) | Automatic tracking system and automatic tracking method | |
JP6613976B2 (en) | Imaging control program, imaging control method, and imaging control apparatus | |
US11209796B2 (en) | Surveillance system with intelligent robotic surveillance device |