KR20230115231A - Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method - Google Patents

Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method Download PDF

Info

Publication number
KR20230115231A
KR20230115231A KR1020220187272A KR20220187272A KR20230115231A KR 20230115231 A KR20230115231 A KR 20230115231A KR 1020220187272 A KR1020220187272 A KR 1020220187272A KR 20220187272 A KR20220187272 A KR 20220187272A KR 20230115231 A KR20230115231 A KR 20230115231A
Authority
KR
South Korea
Prior art keywords
image sensor
intruder
sensor device
tracking
ptz
Prior art date
Application number
KR1020220187272A
Other languages
Korean (ko)
Inventor
김영일
박성희
여건민
정운철
허태욱
진성언
Original Assignee
한국전자통신연구원
주식회사 에세텔
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 주식회사 에세텔 filed Critical 한국전자통신연구원
Priority to US18/098,808 priority Critical patent/US20230237890A1/en
Publication of KR20230115231A publication Critical patent/KR20230115231A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

침입자 위치 기반 동적 가상 펜스 구성 및 다중 영상 센서 장치 운용 방법이 개시된다. 일 실시예에 따른 가상 펜스 기반 침입자 감시 방법은 제1 영상 센서 장치를 이용하여 보호 지역에 설정된 가상 펜스를 침범하는 침입자를 검출하는 동작과, 상기 침입자에 대한 정보에 기초하여 상기 제1 영상 센서 장치에 인접한 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하는 동작을 포함할 수 있다.A method for constructing a dynamic virtual fence based on an intruder's location and operating a multi-image sensor device is disclosed. A virtual fence-based intruder monitoring method according to an embodiment includes an operation of detecting an intruder invading a virtual fence set in a protection area using a first image sensor device, and the first image sensor device based on information about the intruder. It may include an operation of tracking the intruder through cooperation of second image sensor devices adjacent to .

Figure P1020220187272
Figure P1020220187272

Description

침입자 위치 기반 동적 가상 펜스 구성 및 다중 영상 센서 장치 운용 방법{INTRUDER LOCATION-BASED DYNAMIC VIRTUAL FENCE CONFIGURATION AND MULTIPLE IMAGE SENSOR DEVICE OPERATION METHOD}Intruder location-based dynamic virtual fence configuration and multi-image sensor device operating method

아래 개시는 침입자 위치 기반 동적 가상 펜스 구성 및 다중 영상 센서 장치 운용 방법에 관한 것이다.The disclosure below relates to a method for constructing a dynamic virtual fence based on an intruder's location and operating a multi-image sensor device.

국가의 주요 시설물이나 산업시설물을 외부의 침입자들로부터 보호하기 위해서는 보호시설물을 방어하는 가상의 감시선을 설정하고, 이 가상의 선을 넘어서는 침입자를 검출하고 추적을 수행하며 대응전략을 추진해야 한다. 이와 같은 외부의 침입자를 감시하기 위해서는 주로 배율렌즈가 장착된 카메라와 영상처리장치로 구성되는 영상센서가 사용되고 있으나, 카메라의 광학적 특성상 배율렌즈와 이미지센서의 특성에 의존하여 감시구역이 제한적으로 설정되므로 이를 효율적으로 사용하여 감시구역을 설정하고 운용하는 방법이 필요하다.In order to protect the country's major facilities or industrial facilities from outside intruders, it is necessary to set up a virtual surveillance line that defends the protected facilities, detect intruders who cross this virtual line, perform tracking, and implement a response strategy. In order to monitor such an outside intruder, an image sensor composed of a camera equipped with a magnification lens and an image processing device is mainly used, but the surveillance area is limited depending on the characteristics of the magnification lens and the image sensor due to the optical characteristics of the camera. It is necessary to use this effectively to set up and operate the surveillance area.

위에서 설명한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다.The background art described above is possessed or acquired by the inventor in the process of deriving the disclosure of the present application, and cannot necessarily be said to be known art disclosed to the general public prior to the present application.

외부의 침입자로부터 주요 시설물을 보호하기 위해서 영상 센서로 시설물 외곽에 가상의 펜스를 설치하고, 이 가상의 펜스를 넘어서는 침입자를 영상 딥러닝 기술로 검출한 후 검출한 칩입자를 지속적으로 추적하는 시스템이 구축될 필요가 있다. 이때 침입자를 검출하기 위해서는 침입 객체의 영상이 일정 크기 이상의 픽셀을 갖도록 카메라 줌 렌즈의 배율을 조절하고 카메라의 관측 방향을 제어(예: PT제어(Panning Tilting))하여야 한다. 이후 카메라의 방향과 렌즈의 배율이 검출된 침입자가 이동하는 경로에 따라 조정되어야 하므로, 초기에 설정한 카메라의 관측 범위가 변화하게 됨에 따라 관측의 사각 지대가 발생하게 되므로 이를 극복하는 기술이 필요하다.In order to protect major facilities from outside intruders, a system that installs a virtual fence outside the facility with an image sensor, detects an intruder that crosses the virtual fence with image deep learning technology, and continuously tracks the detected intruder. need to be built At this time, in order to detect an intruder, the magnification of the zoom lens of the camera must be adjusted so that the image of the intruding object has pixels of a certain size or more, and the observation direction of the camera must be controlled (eg, PT control (panning tilting)). Since the direction of the camera and the magnification of the lens must be adjusted according to the path the detected intruder moves, as the initially set observation range of the camera changes, a blind spot in observation occurs, so a technique to overcome this is required. .

일 실시예는 외부의 칩임자로부터 인적, 물적 자산의 보호를 위해 복수의 영상 센서들 기반으로 가상의 펜스를 설치하고, 침입 객체(예: 침입자)를 검출하고 침입 객체를 지속적으로 추적할 때 카메라의 관측 범위 변화로 발생하는 침입 객체에 대한 감시 사각지대(또는 관측 사각지대)를 극복하기 위해 여분의 영상 센서 장치를 사용하거나 인접 영상 센서 장치 간의 협력을 기반으로 가상의 펜스를 동적으로 구성하고 운용하는 방법을 제공할 수 있다.In one embodiment, a virtual fence is installed based on a plurality of image sensors to protect human and material assets from outside intruders, and a camera is installed when an intrusive object (eg, intruder) is detected and the intrusive object is continuously tracked. To overcome surveillance blind spots (or observation blind spots) for intruding objects caused by changes in the observation range of the system, use redundant image sensor devices or dynamically configure and operate virtual fences based on cooperation between adjacent image sensor devices. can provide a way to do it.

일 실시예는 감시 구역에 침입하는 침입 객체(예: 침입자)의 이동 특성을 분석하여 복수의 영상 센서 장치들의 협력을 통해 가상의 감시선(예: 가상 펜스)을 동적으로 구성하고 운용하는 방법을 제공할 수 있다.An embodiment is a method for dynamically configuring and operating a virtual surveillance line (eg, a virtual fence) through cooperation of a plurality of image sensor devices by analyzing the movement characteristics of an intruding object (eg, an intruder) intruding into a surveillance area. can provide

일 실시예는 영상 센서 장치에 가상의 펜스를 설정하고, 침입자의 이동 경로에 따라 가상 펜스를 동적으로 재설정함으로써 침입자의 감시를 누락시키지 않을 수 있다.According to an embodiment, a virtual fence is set in the image sensor device and the virtual fence is dynamically reset according to the moving path of the intruder, so that monitoring of the intruder may not be missed.

일 실시예는 침입자의 검출과 추적 딥러닝 엔진을 분류 수행함으로써 딥러닝 추론시간을 절감하여 다수의 침입자를 추적할 수 있다.An embodiment can track multiple intruders by reducing deep learning inference time by classifying and performing intruder detection and tracking deep learning engine.

일 실시예는 다수의 침입자를 구분하기 위해 보호 지역에 최초로 출현하는 침입자의 위치 정보를 고유 식별자로 설정하고 지속적으로 침입자의 위치 정보를 데이터 속성으로 관리함으로써 다수의 침범자를 구분하여 추적 관리할 수 있다.In one embodiment, in order to distinguish multiple intruders, location information of an intruder who first appears in a protected area is set as a unique identifier, and the intruder's location information is continuously managed as a data attribute, so that multiple intruders can be identified and tracked. .

다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenges are not limited to the above-described technical challenges, and other technical challenges may exist.

일 실시예에 따른 가상 펜스 기반 침입자 감시 방법은 제1 영상 센서 장치를 이용하여 보호 지역에 설정된 가상 펜스를 침범하는 침입자를 검출하는 동작과, 상기 침입자에 대한 정보에 기초하여 상기 제1 영상 센서 장치에 인접한 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하는 동작을 포함할 수 있다.A virtual fence-based intruder monitoring method according to an embodiment includes an operation of detecting an intruder invading a virtual fence set in a protection area using a first image sensor device, and the first image sensor device based on information about the intruder. It may include an operation of tracking the intruder through cooperation of second image sensor devices adjacent to .

상기 방법은 상기 제1 영상 센서 장치의 PTZ를 제어함에 따라 상기 제2 영상 센서 장치들의 협력을 통해 상기 가상 펜스를 동적으로 설정하는 동작을 더 포함할 수 있다.The method may further include dynamically setting the virtual fence through cooperation of the second image sensor devices according to controlling the PTZ of the first image sensor device.

상기 방법은 상기 제1 영상 센서 장치가 상기 침입자를 검출한 초기 위치 정보를 상기 침입자를 구별하기 위한 식별자로 설정하는 동작을 더 포함할 수 있다.The method may further include setting, by the first image sensor device, initial location information at which the intruder is detected as an identifier for distinguishing the intruder.

상기 추적하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어난 경우, 상기 침입자에 대한 정보에 기초하여 상기 제2 영상 센서 장치들 중에서 상기 침입자를 추적할 영상 센서 장치를 선택하는 동작과, 선택된 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작을 포함할 수 있다.The tracking operation may include selecting an image sensor device to track the intruder from among the second image sensor devices based on information about the intruder when the intruder is out of the observation range of the first image sensor device. and assigning a task of tracking the intruder to the selected image sensor device.

상기 추적하는 동작은, 상기 제1 영상 센서 장치가 상기 침입자를 추적에 따라 발생하는 상기 제1 영상 센서 장치의 사각지대인 Neighborhood Takeover Region을 계산하는 동작을 더 포함할 수 있다.The tracking operation may further include calculating a Neighborhood Takeover Region, which is a blind spot of the first image sensor device, generated as the first image sensor device tracks the intruder.

상기 Neighborhood Takeover Region은, 상기 제1 영상 센서 장치의 초기 관측 범위와 상기 침입자를 추적함에 따라 갱신된 상기 제1 영상 센서 장치의 갱신 관측 범위의 차일 수 있다.The Neighborhood Takeover Region may be a difference between an initial observation range of the first image sensor device and an updated observation range of the first image sensor device that is updated while tracking the intruder.

상기 추적하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간에 기초하여 상기 제1 영상 센서 장치와 상기 제2 영상 센서 장치들 간에 협력 가능한 거리를 설정하는 동작을 더 포함할 수 있다.The tracking operation may be performed based on the time when the intruder leaves the observation range of the first image sensor device and the time required for the second image sensor devices to observe the Neighborhood Takeover Region by controlling the PTZ. An operation of setting a cooperative distance between the sensor device and the second image sensor devices may be further included.

상기 선택하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간을 비교하여 상기 제2 영상 센서 장치 중에서 상기 소요되는 시간이 적은 영상 센서 장치를 선택하는 동작을 포함할 수 있다.The operation of selecting the second image by comparing the time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor device to control the PTZ to observe the Neighborhood Takeover Region. An operation of selecting an image sensor device that takes less time from among sensor devices may be included.

상기 방법은 상기 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하지 못하는 경우, 예비용 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작을 더 포함할 수 있다.The method may further include an operation of allocating a task of tracking the intruder to a spare image sensor device when the intruder cannot be tracked through cooperation of the second image sensor devices.

일 실시예에 따른 가상 펜스 기반 침입자 감시 방법은 보호 지역에 설정된 가상 펜스를 침범하는 객체를 검출하는 동작과, 검출 객체가 침입자인 경우에 응답하여 상기 침입자를 추적하는 동작과, 관제 센터로부터 전송된 명령에 따라 영상 센서 장치의 PTZ를 제어하여 상기 영상 센서 장치의 관측 범위를 제어하는 동작을 포함하고, 상기 가상 펜스는 상기 영상 센서 장치의 PTZ를 제어함에 따라 상기 영상 센서 장치에 인접한 영상 센서 장치들의 협력을 통해 동적으로 설정되는 것일 수 있다.A method for monitoring an intruder based on a virtual fence according to an embodiment includes an operation of detecting an object invading a virtual fence set in a protection area, an operation of tracking the intruder in response when the detected object is an intruder, and an operation of tracking the intruder transmitted from a control center. and controlling a PTZ of the image sensor device according to a command to control an observation range of the image sensor device, wherein the virtual fence controls the PTZ of the image sensor device so that the image sensor devices adjacent to the image sensor device It may be dynamically set through cooperation.

일 실시예에 따른 가상 펜스 기반 침입자를 감시하는 장치는 프로세서와, 상기 프로세서와 전기적으로 연결되고 상기 프로세서에 의해 실행 가능한 인스트럭션들을 저장하는 메모리를 포함하고, 상기 프로세서에 의해 상기 인스터력션들 실행될 때, 상기 프로세서는 복수의 동작들을 수행하며, 상기 복수의 동작들은, 제1 영상 센서 장치를 이용하여 보호 지역에 설정된 가상 펜스를 침범하는 침입자를 검출하는 동작과, 상기 침입자에 대한 정보에 기초하여 상기 제1 영상 센서 장치에 인접한 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하는 동작을 포함할 수 있다.An apparatus for monitoring an intruder based on a virtual fence according to an embodiment includes a processor, and a memory electrically connected to the processor and storing instructions executable by the processor, when the instructions are executed by the processor. , The processor performs a plurality of operations, and the plurality of operations include an operation of detecting an intruder invading a virtual fence set in a protection area using a first image sensor device, and an operation of detecting an intruder based on information about the intruder An operation of tracking the intruder through cooperation of second image sensor devices adjacent to the first image sensor device may be included.

상기 복수의 동작들은 상기 제1 영상 센서 장치의 PTZ를 제어함에 따라 상기 제2 영상 센서 장치들의 협력을 통해 상기 가상 펜스를 동적으로 설정하는 동작을 더 포함할 수 있다.The plurality of operations may further include dynamically setting the virtual fence through cooperation of the second image sensor devices according to controlling the PTZ of the first image sensor device.

상기 복수의 동작들은 상기 제1 영상 센서 장치가 상기 침입자를 검출한 초기 위치 정보를 상기 침입자를 구별하기 위한 식별자로 설정하는 동작을 더 포함할 수 있다.The plurality of operations may further include setting, by the first image sensor device, initial location information at which the intruder is detected as an identifier for distinguishing the intruder.

상기 추적하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어난 경우, 상기 침입자에 대한 정보에 기초하여 상기 제2 영상 센서 장치들 중에서 상기 침입자를 추적할 영상 센서 장치를 선택하는 동작과, 선택된 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작을 포함할 수 있다.The tracking operation may include selecting an image sensor device to track the intruder from among the second image sensor devices based on information about the intruder when the intruder is out of the observation range of the first image sensor device. and assigning a task of tracking the intruder to the selected image sensor device.

상기 추적하는 동작은, 상기 제1 영상 센서 장치가 상기 침입자를 추적에 따라 발생하는 상기 제1 영상 센서 장치의 사각지대인 Neighborhood Takeover Region을 계산하는 동작을 더 포함할 수 있다.The tracking operation may further include calculating a Neighborhood Takeover Region, which is a blind spot of the first image sensor device, generated as the first image sensor device tracks the intruder.

상기 Neighborhood Takeover Region은, 상기 제1 영상 센서 장치의 초기 관측 범위와 상기 침입자를 추적함에 따라 갱신된 상기 제1 영상 센서 장치의 갱신 관측 범위의 차일 수 있다.The Neighborhood Takeover Region may be a difference between an initial observation range of the first image sensor device and an updated observation range of the first image sensor device that is updated while tracking the intruder.

상기 추적하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간에 기초하여 상기 제1 영상 센서 장치와 상기 제2 영상 센서 장치들 간에 협력 가능한 거리를 설정하는 동작을 더 포함할 수 있다.The tracking operation may be performed based on the time when the intruder leaves the observation range of the first image sensor device and the time required for the second image sensor devices to observe the Neighborhood Takeover Region by controlling the PTZ. An operation of setting a cooperative distance between the sensor device and the second image sensor devices may be further included.

상기 선택하는 동작은, 상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간을 비교하여 상기 제2 영상 센서 장치 중에서 상기 소요되는 시간이 적은 영상 센서 장치를 선택하는 동작을 포함할 수 있다.The operation of selecting the second image by comparing the time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor device to control the PTZ to observe the Neighborhood Takeover Region. An operation of selecting an image sensor device that takes less time from among sensor devices may be included.

상기 복수의 동작들은 상기 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하지 못하는 경우, 예비용 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작을 더 포함할 수 있다.The plurality of operations may further include assigning a task of tracking the intruder to a spare image sensor device when the second image sensor devices cannot track the intruder through cooperation.

도 1은 일 실시예에 따른 가상펜스 기반 침입자 검출 시스템을 나타낸다.
도 2는 일 실시예에 따른 영상 센서 장치의 개략적인 블록도를 나타낸다.
도 3은 일 실시예에 따른 관제 센터의 개략적인 블록도를 나타내다.
도 4는 일 실시예에 따른 다중 영상 센서 장치를 운용하는 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 침입자가 보호 지역을 침범할 때 가상 펜스를 동적으로 구성하여 운용하는 동작을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 동적 가상 펜스를 기반으로 침입자 보호 구역을 구성하는 동작을 설명하기 도면이다.
도 7은 일 실시예에 따른 관제 센터에서 침입자 보호 지역을 관리하는 동작을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 복수의 영상 센서 장치 간 협력을 기반으로 침입자를 추적하는 임무를 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 동적 가상 펜스 운용을 위한 영상 센서 장치의 임무 절차를 설명하기 위한 순서도를 나타낸다.
도 10은 일 실시예에 따른 동적 가상 펜스 운용을 위한 관제 센터의 임무 절차를 설명하기 위한 순서도를 나타낸다.
1 shows an intruder detection system based on a virtual fence according to an embodiment.
2 shows a schematic block diagram of an image sensor device according to an exemplary embodiment.
3 shows a schematic block diagram of a control center according to an embodiment.
4 is a diagram for explaining an operation of operating a multi-image sensor device according to an exemplary embodiment.
5 is a diagram for explaining an operation of dynamically configuring and operating a virtual fence when an intruder invades a protection area according to an embodiment.
6 is a diagram for explaining an operation of configuring an intruder protection area based on a dynamic virtual fence according to an exemplary embodiment.
7 is a diagram for explaining an operation of managing an intruder protection area in a control center according to an exemplary embodiment.
8 is a diagram for explaining a task of tracking an intruder based on cooperation between a plurality of image sensor devices according to an exemplary embodiment.
9 is a flowchart illustrating a mission procedure of an image sensor device for operating a dynamic virtual fence according to an exemplary embodiment.
10 is a flowchart illustrating a task procedure of a control center for operating a dynamic virtual fence according to an embodiment.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be changed and implemented in various forms. Therefore, the form actually implemented is not limited only to the specific embodiments disclosed, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but one or more other features or numbers, It should be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted.

도 1은 일 실시예에 따른 가상펜스 기반 침입자 검출 시스템을 나타낸다.1 shows an intruder detection system based on a virtual fence according to an embodiment.

도 1을 참조하면, 침입자 검출 시스템(10)은 하나 이상의 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4) 및 관제 센터(4000)를 포함할 수 있다. 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 보호 지역(또는 감시 구역)을 침입하는 침입 객체(예: 침입자(200, 300))를 검출하기 위해 보호 지역에 설치될 수 있다. 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 카메라 및 영상 딥러닝 알고리즘을 수행하는 프로세서(예: GPU)를 포함할 수 있다. 관제 센터(4000)는 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)를 제어 및 관리할 수 있다. 각 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)와 관제 센터(4000)는 유무선 망을 통해서 상호 연동이 될 수 있다. 침입자 검출 시스템(10)은 영상 학습 서버(5000)를 더 포함할 수 있다.Referring to FIG. 1 , the intruder detection system 10 may include one or more image sensor devices 2000-1, 2000-2, 2000-3, and 2000-4 and a control center 4000. Image sensor devices (2000-1, 2000-2, 2000-3, 2000-4) are installed in the protected area (or surveillance area) to detect intrusive objects (e.g., intruders 200 and 300) invading the protected area (or surveillance area). can be installed The image sensor devices 2000-1, 2000-2, 2000-3, and 2000-4 may include a camera and a processor (eg, a GPU) that performs an image deep learning algorithm. The control center 4000 may control and manage the image sensor devices 2000-1, 2000-2, 2000-3, and 2000-4. Each of the image sensor devices 2000-1, 2000-2, 2000-3, and 2000-4 and the control center 4000 may interwork with each other through a wired or wireless network. The intruder detection system 10 may further include an image learning server 5000 .

영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 카메라의 영상(예: 카메라가 촬영한 영상)에 대한 딥러닝 알고리즘(예: Yolo, ResNet, RE3 등) 분석을 통해 침입자를 검출하고 추적하는 기능을 수행할 수 있다. 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)의 카메라의 경우 광학적 한계로 침입자를 검출하고 추적하는데 있어 거리에 대한 제약을 받게 되어 보호 지역 내 감시를 위해서는 카메라 간의 협력이 필요할 수 있다.The image sensor devices (2000-1, 2000-2, 2000-3, 2000-4) analyze the video of the camera (eg, the video taken by the camera) by deep learning algorithm (eg, Yolo, ResNet, RE3, etc.) It can perform the function of detecting and tracking intruders. In the case of the cameras of the image sensor devices (2000-1, 2000-2, 2000-3, 2000-4), there are restrictions on the distance in detecting and tracking intruders due to optical limitations, so cooperation between cameras is required for surveillance within the protected area. this may be needed

보호 지역을 침범하는 침입 객체(200,300)를 효율적으로 검출 및 추적하기 위해서, 가상 펜스(예: 가상의 감시선 또는 펜스선)(100)가 보호 지역에 설정될 수 있다. 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 가상 펜스(100)를 넘는 객체에 대한 영상 딥러닝을 통해 침입자(200, 300)를 검출하고 추적할 수 있다. 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)의 카메라를 통해 관측하는(또는 획득하는) 이미지의 크기인 감시 영역 경계선(3110, 3210) 내에 각각 가상 펜스(100)(예: 가상 펜스 A_Image(3120), 가상 펜스 B_Image(3220))를 설치하고 영상 딥러닝 알고리즘을 통해 가상 펜스(100)를 침범하는 객체에 대한 검출 및 추적을 하게 된다. 가상 펜스 A_Image(3120)는 영상 센서 장치(2000-1)의 카메라를 통해 관측하는 감시 영역 경계선(3110) 내에서 설정된 가상 펜스(100)이고, 가상 펜스 B_Image(3220)는 영상 센서 장치(2000-2)의 카메라를 통해 관측하는 감시 영역 경계선(3210) 내에서 설정된 가상 펜스(100)일 수 있다.In order to efficiently detect and track intruding objects 200 and 300 invading the protected area, a virtual fence (eg, a virtual surveillance line or fence line) 100 may be set in the protected area. The image sensor devices 2000-1, 2000-2, 2000-3, and 2000-4 may detect and track intruders 200 and 300 through image deep learning of an object crossing the virtual fence 100. Each virtual fence 100 is within the monitoring area boundaries 3110 and 3210, which is the size of the image observed (or acquired) through the cameras of the image sensor devices 2000-1, 2000-2, 2000-3, and 2000-4. (Example: virtual fence A_Image 3120, virtual fence B_Image 3220) is installed, and an object invading the virtual fence 100 is detected and tracked through an image deep learning algorithm. The virtual fence A_Image 3120 is a virtual fence 100 set within the surveillance area boundary 3110 observed through the camera of the image sensor device 2000-1, and the virtual fence B_Image 3220 is the image sensor device 2000-1. It may be the virtual fence 100 set within the surveillance area boundary 3210 observed through the camera of 2).

영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 영상 학습 서버(5000)에서 학습한 모델(예: 영상 딥러닝 알고리즘)을 다운로드받아 탑재하여 침입자를 검출하는 기능을 수행할 수 있다. 침입자를 검출하고 추적하는 과정에서 각 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)는 렌즈 배율 조정을 통해 화각(예: 화각(2010, 2110))을 제어할 수 있다.The image sensor devices (2000-1, 2000-2, 2000-3, 2000-4) have a function of detecting an intruder by downloading and loading a model (eg, image deep learning algorithm) learned from the image learning server 5000. can be done In the process of detecting and tracking an intruder, each image sensor device (2000-1, 2000-2, 2000-3, 2000-4) can control the angle of view (eg, angle of view (2010, 2110)) by adjusting the magnification of the lens. there is.

관제 센터(4000)는 각 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4)를 관리하고, 침입 객체(예: 침입자(200, 300))의 이동 경로가 해당 영상 센서 장치(예: 영상 센서 장치(2000-1), 영상 센서 장치(2000-2))의 감시 영역을 벗어나는 경우 인접한 영상 센서 장치(예: 영상 센서 장치(2000-3)) 또는 예비용의 영상 센서 장치에 특정 침입자(예: 침입자(200, 300))를 추적할 수 있도록 임무를 할당하는 기능을 수행할 수 있다.The control center 4000 manages each of the image sensor devices 2000-1, 2000-2, 2000-3, and 2000-4, and tracks the moving path of an intruder (eg, intruder 200, 300) to the corresponding image sensor. When the device (eg, image sensor device 2000-1, image sensor device 2000-2) is out of the monitoring area, an adjacent image sensor device (eg, image sensor device 2000-3) or a spare image sensor A function of assigning a task to the device to track a specific intruder (eg, intruders 200 and 300) may be performed.

도 2는 일 실시예에 따른 영상 센서 장치의 개략적인 블록도를 나타낸다.2 shows a schematic block diagram of an image sensor device according to an exemplary embodiment.

도 2를 참조하면, 일 실시예에 따르면, 영상 센서 장치(2000)(예: 도 1의 영상 센서 장치(2000-1, 2000-2, 2000-3, 2000-4))는 영상 센서(2010)(예: 카메라), 프로세서(2020), 및 통신부(2090)를 포함할 수 있다. 영상 센서 장치(2000)는 메모리(2095)를 더 포함할 수 있다.Referring to FIG. 2 , according to an embodiment, an image sensor device 2000 (eg, the image sensor devices 2000-1, 2000-2, 2000-3, and 2000-4 of FIG. 1) is an image sensor 2010 ) (eg, a camera), a processor 2020, and a communication unit 2090. The image sensor device 2000 may further include a memory 2095.

메모리(2095)는 프로세서(2020)에 의해 실행가능한 인스트럭션(instruction)들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서(2020)의 동작 및/또는 프로세서(2020)의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.Memory 2095 may store instructions (or programs) executable by processor 2020 . For example, the instructions may include instructions for executing an operation of the processor 2020 and/or an operation of each component of the processor 2020 .

메모리(2095)는 하나 이상의 컴퓨터 판독 가능한 저장 매체(computer-readable storage media)를 포함할 수 있다. 메모리(2095)는 비휘발성 저장 소자들(예: 자기 하드 디스크(magnetic hard disc), 광 디스크(optical disc), 플로피 디스크(floppy disc), 플래시 메모리(flash memory), EPROM(electrically programmable memories), EEPROM(electrically erasable and programmable))을 포함할 수 있다.Memory 2095 may include one or more computer-readable storage media. The memory 2095 may include non-volatile storage elements (eg, magnetic hard disk, optical disk, floppy disk, flash memory, electrically programmable memories (EPROM), electrically erasable and programmable (EEPROM).

메모리(2095)는 비일시적 매체(non-transitory media)일 수 있다. "비일시적"이라는 용어는 저장 매체가 반송파 또는 전파된 신호로 구현되지 않음을 나타낼 수 있다. 단, "비일시적"이라는 용어는 메모리(2095)가 움직일 수 없는 것으로 해석되어서는 안 된다.Memory 2095 may be non-transitory media. The term “non-transitory” may indicate that the storage medium is not implemented as a carrier wave or propagated signal. However, the term "non-temporary" should not be interpreted as the memory 2095 being immovable.

프로세서(2020)는 메모리(2095)에 저장된 데이터를 처리할 수 있다. 프로세서(2020)는 메모리(2095)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(2020)에 의해 유발된 인스트럭션들을 실행할 수 있다.The processor 2020 may process data stored in the memory 2095. Processor 2020 may execute computer readable code (eg, software) stored in memory 2095 and instructions invoked by processor 2020 .

프로세서(2020)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들을 포함할 수 있다.The processor 2020 may be a data processing device implemented in hardware having a circuit having a physical structure for executing desired operations. For example, desired operations may include codes or instructions included in a program.

예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.For example, a data processing unit implemented in hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , Application-Specific Integrated Circuit (ASIC), and Field Programmable Gate Array (FPGA).

프로세서(2020)는 객체 검출부(object detection unit)(2030), 검출 객체 이동 경로 예측부(detection object movement path prediction unit)(2040), PTZ 제어 신호 생성부(PTZ control signal generator)(2050), 검출 객체 위치 정보 추출부(detection object location information extraction unit)(2060), 객체 위치 추적부(object location tracking unit)(2070), 및 관측 범위 관리부(observation range management unit)(2080)를 포함할 수 있다. 객체 검출부(2030), 검출 객체 이동 경로 예측부(2040), PTZ제어 신호 생성부(2050), 검출 객체 위치 정보 추출부(2060), 객체 위치 추적부(2070), 및 관측 범위 관리부(2080)는 프로세서(2020)에 임베디드 되거나 메모리(2095)로부터 프로세서(2020)로 로딩될 수 있다.The processor 2020 includes an object detection unit 2030, a detection object movement path prediction unit 2040, a PTZ control signal generator 2050, detection It may include a detection object location information extraction unit 2060, an object location tracking unit 2070, and an observation range management unit 2080. Object detection unit 2030, detection object movement path prediction unit 2040, PTZ control signal generation unit 2050, detection object location information extraction unit 2060, object location tracking unit 2070, and observation range management unit 2080 may be embedded in the processor 2020 or loaded into the processor 2020 from the memory 2095.

영상 센서(2010)(예: 카메라)는 촬영하는 영상을 객체 검출부(2030)로 전송할 수 있다. 객체 검출부(2030)는 영상 딥러닝 알고리즘을 이용하여 영상(또는 화면) 내에서 객체를 검출한 후 검출 객체가 침입자인지 여부를 판단할 수 있다. 검출 객체가 침입자인 것으로 판단되면, 객체 검출부(2030)는 침입자에 관한 정보를 검출 객체 이동 경로 예측부(2040)와 검출 객체 위치 정보 추출부(2060)로 전송할 수 있다.The image sensor 2010 (eg, a camera) may transmit a photographed image to the object detector 2030 . The object detector 2030 may detect an object in an image (or screen) using an image deep learning algorithm and then determine whether the detected object is an intruder. If it is determined that the detected object is an intruder, the object detector 2030 may transmit information about the intruder to the detected object moving path predictor 2040 and the detected object location information extractor 2060 .

검출 객체 위치 정보 추출부(2060)는 영상(또는 화면) 상의 객체 위치와 영상 센서 장치(2000)에 장착된 PTZ(pan tilt zoom) 정보를 결합하여 검출 객체의 위치 정보를 추출할 수 있다. PTZ 정보는 영상 센서(2010) 및/또는 영상 센서 장치(2000)로부터 획득될 수 있다. 검출 객체 위치 정보 추출부(2060)는 검출 객체의 위치 정보를 검출 객체 위치 추적부(2070)로 전송할 수 있다. 즉, 검출 객체의 위치정보는 영상 내 검출 객체의 바운딩 박스 크기 및 좌표와 GPS가 탑재된 영상 센서(2010)의 PTZ정보를 결합하여 검출 객체의 위치를 GPS 위치 정보로 환산한 것일 수 있다.The detected object location information extractor 2060 may extract the location information of the detected object by combining the object location on the image (or screen) with pan tilt zoom (PTZ) information mounted in the image sensor device 2000 . PTZ information may be acquired from the image sensor 2010 and/or the image sensor device 2000. The detection object location information extraction unit 2060 may transmit location information of the detection object to the detection object location tracking unit 2070 . That is, the location information of the detection object may be obtained by converting the location of the detection object into GPS location information by combining the size and coordinates of the bounding box of the detection object in the image and the PTZ information of the image sensor 2010 equipped with GPS.

검출 객체 위치 추적부(2070)는 영상의 프레임단위로 검출 객체의 위치를 추적할 수 있다. 검출 객체 이동 경로 예측부(2040)는 추적된 정보에 기초하여 검출 객체의 이동 경로를 예측하여 영상 센서(2010)의 PTZ을 제어할 수 있다. 또한, 검출 객체 위치 추적부(2070)는 관제 센터(4000)에서 검출 객체의 이동 경로를 디스플레이시킬 수 있도록 통신부(2090)를 통해 검출 객체의 이동 경로를 관제 센터(4000)로 전송할 수 있다. 검출 객체 이동 경로 예측부(2040)는 검출 객체의 이동 방향, 속도와 같은 정보에 기초하여 검출 객체의 이동 경로(또는 이동 추정 경로)를 실시간으로 생성하고, 검출 객체의 이동 경로를 PTZ제어 신호 생성부(2050)로 전송할 수 있다.The detection object position tracking unit 2070 may track the position of the detection object in units of frames of an image. The detection object movement path predictor 2040 may control the PTZ of the image sensor 2010 by predicting the movement path of the detection object based on the tracked information. Also, the detection object position tracking unit 2070 may transmit the movement path of the detected object to the control center 4000 through the communication unit 2090 so that the control center 4000 can display the movement path of the detected object. The detection object movement path predictor 2040 generates a movement path (or estimated movement path) of the detection object in real time based on information such as the movement direction and speed of the detection object, and generates a PTZ control signal for the movement path of the detection object. It can be sent to unit 2050.

PTZ 제어 신호 생성부(2050)는 검출 객체의 이동 경로에 기초하여 PTZ 제어 신호(예: 영상 센서(2010)에 대한 PTZ 제어 신호)를 생성하여 영상 센서(2010)를 제어할 수 있다. PTZ 제어 신호 생성부(2050)는 관제 센터(4000)로부터 전송된 제어 명령(예: 관제 센터(4000)가 각 영상 센서(2010)를 직접 제어하기 위한 명령)에 응답하여 PTZ 제어 신호를 생성할 수 있다. The PTZ control signal generating unit 2050 may control the image sensor 2010 by generating a PTZ control signal (eg, a PTZ control signal for the image sensor 2010) based on the movement path of the detected object. The PTZ control signal generator 2050 generates a PTZ control signal in response to a control command transmitted from the control center 4000 (eg, a command for the control center 4000 to directly control each image sensor 2010). can

PTZ제어 신호 생성부(2050)는 생성된 PTZ 제어 신호를 관측 범위 관리부(2080)로도 전송할 수 있다. 관측 범위 관리부(2080)는 PTZ 제어 신호에 응답하여 영상 센서(2010)의 특성(예: 줌 배율 특성, 화각표와 같은 특성)에 기초하여 영상 센서(2010)가 현재 관측할 수 있는 범위를 실시간으로 업데이트하고, 업데이트된 정보를 통신부(2090)를 통해 관제 센터(4000)로 전송할 수 있다.The PTZ control signal generation unit 2050 may also transmit the generated PTZ control signal to the observation range management unit 2080. The observation range management unit 2080 determines the currently observable range of the image sensor 2010 in real time based on the characteristics of the image sensor 2010 (eg, characteristics such as zoom magnification and angle of view) in response to the PTZ control signal. , and the updated information may be transmitted to the control center 4000 through the communication unit 2090.

도 3은 일 실시예에 따른 관제 센터의 개략적인 블록도를 나타내다.3 shows a schematic block diagram of a control center according to an embodiment.

도 3을 참조하면, 일 실시예에 따르면, 관제 센터(4000)(예: 관제 서버 장치)는 통신부(5010) 및 프로세서(5080)를 포함할 수 있다. 관제 센터(4000)는 메모리(5090)를 더 포함할 수 있다.Referring to FIG. 3 , according to an embodiment, a control center 4000 (eg, a control server device) may include a communication unit 5010 and a processor 5080. The control center 4000 may further include a memory 5090.

통신부(5010)는 영상 센서 장치(2000)(예: 도 1의 각 영상 센서 장치(2000-1~2000-4))와 통신기능을 수행할 수 있다.The communication unit 5010 may perform a communication function with the image sensor device 2000 (eg, each image sensor device 2000 - 1 to 2000 - 4 in FIG. 1 ).

메모리(5090)는 프로세서(5080)에 의해 실행가능한 인스트럭션(instruction)들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서(5080)의 동작 및/또는 프로세서(5080)의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.Memory 5090 may store instructions (or programs) executable by processor 5080 . For example, the instructions may include instructions for executing an operation of the processor 5080 and/or an operation of each component of the processor 5080 .

메모리(5090)는 하나 이상의 컴퓨터 판독 가능한 저장 매체(computer-readable storage media)를 포함할 수 있다. 메모리(5090)는 비휘발성 저장 소자들(예: 자기 하드 디스크(magnetic hard disc), 광 디스크(optical disc), 플로피 디스크(floppy disc), 플래시 메모리(flash memory), EPROM(electrically programmable memories), EEPROM(electrically erasable and programmable))을 포함할 수 있다.Memory 5090 may include one or more computer-readable storage media. The memory 5090 may include non-volatile storage elements (eg, magnetic hard disk, optical disk, floppy disk, flash memory, electrically programmable memories (EPROM), electrically erasable and programmable (EEPROM).

메모리(5090)는 비일시적 매체(non-transitory media)일 수 있다. "비일시적"이라는 용어는 저장 매체가 반송파 또는 전파된 신호로 구현되지 않음을 나타낼 수 있다. 단, "비일시적"이라는 용어는 메모리(5090)가 움직일 수 없는 것으로 해석되어서는 안 된다.Memory 5090 may be non-transitory media. The term “non-transitory” may indicate that the storage medium is not implemented as a carrier wave or propagated signal. However, the term "non-temporary" should not be interpreted as meaning that the memory 5090 is immovable.

프로세서(5080)는 메모리(5090)에 저장된 데이터를 처리할 수 있다. 프로세서(5080)는 메모리(5090)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(5080)에 의해 유발된 인스트럭션들을 실행할 수 있다.The processor 5080 may process data stored in the memory 5090. Processor 5080 may execute computer readable code (eg, software) stored in memory 5090 and instructions invoked by processor 5080 .

프로세서(5080)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들을 포함할 수 있다.The processor 5080 may be a hardware-implemented data processing device having a circuit having a physical structure for executing desired operations. For example, desired operations may include codes or instructions included in a program.

예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.For example, a data processing unit implemented in hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , Application-Specific Integrated Circuit (ASIC), and Field Programmable Gate Array (FPGA).

프로세서(5080)는 제어 메시지 처리부(control message processing unit)(5020), 침입자 추적부(intruder tracking unit)(5030), 감시 구역 관리부(surveillance area management unit)(5050), 영상 센서 협력부(image sensor cooperation unit)(5060), 및 침입자 관리부(intruder management unit)(5070)를 포함할 수 있다. 제어 메시지 처리부(5020), 침입자 추적부(5030), 감시 구역 관리부(5050), 영상 센서 협력부(5060), 및 침입자 관리부(5070)는 프로세서(5080)에 임베디드 되거나 메모리(5090)로부터 프로세서(5080)로 로딩될 수 있다.The processor 5080 includes a control message processing unit 5020, an intruder tracking unit 5030, a surveillance area management unit 5050, and an image sensor cooperation unit 5050. unit 5060, and an intruder management unit 5070. The control message processing unit 5020, intruder tracking unit 5030, surveillance area management unit 5050, image sensor cooperation unit 5060, and intruder management unit 5070 are embedded in the processor 5080 or from the memory 5090 to the processor 5080. ) can be loaded.

제어 메시지 처리부(5020)는 영상 센서 장치(2000)의 영상 센서(2010)를 제어하는 메시지(예: 명령)를 생성하고, 통신부(5010)를 통해 메시지를 영상 센서 장치(2000)로 전송할 수 있다. 침입자 추적부(5030)는 검출 객체(예: 침입자)의 위치를 추적할 수 있다. 감시 구역 관리부(5050)는 각 영상 센서 장치(2000)(예: 도 1의 영상 센서 장치(2000-1~2000-4))의 감시 영역을 실시간으로 관리할 수 있다. 영상 센서 협력부(5060)는 영상 센서 장치(예: 도 1의 영상 센서 장치 A(2000-1))에서 검출한 침입자가 이동함에 따라 해당 영상 센서 장치의 관측 범위를 벗어나는 경우 지속적으로 침입자를 추적하기 위해 다른 영상 센서 장치(예: 도 1의 영상 센서 장치 C(2000-3))에 해당 임무를 부여할 수 있다. 침입자 관리부(5070)는 감시 구역(예: 침입자 감시 구역) 내에 출현한 침입자에 대해 고유 식별자를 부여하여 관리할 수 있다. 예를 들어, 침입자별로 고유 식별자를 부여하는 방안은 처음으로 침입자를 검출했을 때의 GPS시각을 고유 식별자로 선정하고 지속적으로 이동 경로를 관리하는 방식을 포함할 수 있다.The control message processing unit 5020 may generate a message (eg, command) for controlling the image sensor 2010 of the image sensor device 2000 and transmit the message to the image sensor device 2000 through the communication unit 5010. . The intruder tracking unit 5030 may track the location of a detection object (eg, intruder). The monitoring area manager 5050 may manage the monitoring area of each image sensor device 2000 (eg, the image sensor devices 2000-1 to 2000-4 of FIG. 1) in real time. The image sensor cooperation unit 5060 continuously tracks the intruder when the intruder detected by the image sensor device (eg, the image sensor device A (2000-1) of FIG. 1) moves and moves out of the observation range of the corresponding image sensor device. For this purpose, another image sensor device (eg, image sensor device C 2000-3 of FIG. 1) may be given a corresponding task. The intruder management unit 5070 may assign a unique identifier to an intruder appearing in a monitoring area (eg, an intruder monitoring area) and manage the intruder. For example, a method of assigning a unique identifier to each intruder may include a method of selecting a GPS time when an intruder is detected for the first time as a unique identifier and continuously managing a movement path.

도 4는 일 실시예에 따른 다중 영상 센서 장치를 운용하는 동작을 설명하기 위한 도면이다.4 is a diagram for explaining an operation of operating a multi-image sensor device according to an exemplary embodiment.

도 4는 도 1의 영상 센서 장치 A(2000-1)의 관측 범위(또는 촬영 범위)(2500)와 영상 센서 장치 B(2000-2)의 관측 범위(2600)내에서 영상 센서 장치를 운용하는 동작을 설명하기 위한 것일 수 있다.FIG. 4 shows a method for operating an image sensor device within an observation range (or photographing range) 2500 of image sensor device A 2000-1 and an observation range 2600 of image sensor device B 2000-2 of FIG. 1 . It may be to describe the action.

영상 센서(예: 도 2의 영상 센서(2010)), 즉 카메라는 렌즈의 배율이 1인 광각 화면(2510)으로부터 렌즈의 배율을 높여 피사체의 이미지 크기를 확대시키는 협각 화면(2530)을 설정하여 침입자를 검출하기 위한 영상을 획득할 수 있다. 광각 화면(2510)에서는 침입자를 관측하는 범위가 넓지만 영상내 침입자의 크기가 작게되어 영상 딥러닝으로 침입자를 검출하는데 어려움이 따를 수 있으며, 이를 극복하기 위해 카메라의 렌즈 배율을 높이게 되면(줌인) 피사체의 이미지 크기가 증대되는 반면에 관측 범위가 줄어들게 될 수 있다.An image sensor (e.g., the image sensor 2010 of FIG. 2), that is, a camera sets a narrow-angle screen 2530 that enlarges the size of an image of a subject by increasing the magnification of the lens from the wide-angle screen 2510 where the magnification of the lens is 1. It is possible to obtain an image for detecting an intruder. In the wide-angle screen 2510, the range of observing the intruder is wide, but the size of the intruder in the image is small, so it may be difficult to detect the intruder by image deep learning. While the image size of the subject is increased, the observation range may be reduced.

도 4를 참조하면, 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))는 영상 센서(2010)의 렌즈의 배율을 조절하여 초기 설정 화면(2520)(예: 초기 감시 영역)을 설정할 수 있다. 설정 이후, 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))는 침입자(예: 검출 객체)를 검출하는 임무를 시작하여 침입자에 대한 명확한 이미지를 얻거나 또는 침입자가 이동함에 따라 침입자를 추적할 수 있다. 추적하기 위해 영상 센서(2010)의 PTZ(Panning Tilting Zooming)을 제어했을 때의 영상 센서(2010)의 화면은 화면(2530)일 수 있다. 이때, 영상 센서(2010)의 화면이 작아짐(예: 2520 -> 2530)으로써 원래의 광각 화면(2510)과의 차이가 발생하며 이를 Tolerance area(2550)(예: 관측 범위)라 할 수 있다. 즉, 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))는 이 Tolerance area(2550) 범위내에서 영상 센서(2010)의 PTZ을 자유스럽게 제어하여 침입자를 검출하거나 추적할 수 있다. 도 8의 Neighborhood takeover(handover) region (6710)이나, Third party Takeover(Handover) region (6200)은 이 Tolerance area(2550) 범위내에서 결정될 수 있다.Referring to FIG. 4 , an image sensor device (eg, image sensor device A 2000-1 or image sensor device B 2000-2) adjusts the magnification of a lens of an image sensor 2010 to display an initial setting screen 2520. ) (e.g. initial surveillance area) can be set. After setup, the image sensor device (e.g. image sensor device A (2000-1), image sensor device B (2000-2)) starts the task of detecting an intruder (e.g. detection object) and produces a clear image of the intruder. or track the intruder as it moves. A screen of the image sensor 2010 when panning tilting zooming (PTZ) of the image sensor 2010 is controlled for tracking may be the screen 2530 . At this time, as the screen of the image sensor 2010 becomes smaller (eg, 2520 -> 2530), a difference from the original wide-angle screen 2510 occurs, and this may be referred to as a tolerance area 2550 (eg, an observation range). That is, the image sensor devices (eg, image sensor device A (2000-1) and image sensor device B (2000-2)) freely control the PTZ of the image sensor 2010 within the range of this tolerance area (2550). Intruders can be detected or tracked. Neighborhood takeover (handover) region 6710 of FIG. 8 or third party takeover (handover) region 6200 may be determined within the tolerance area 2550.

복수의 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))를 설치하여 운용하는 환경을 고려할 때, 영상 센서 장치 A(2000-1)의 관측 범위(2500)가 줄어 관측 사각 지대가 발생하는 경우, 이 시각 지대에서 영상 센서 장치 B(2000-2)(예: 영상 센서 장치 A(2000-1)에 인접한 영상 센서 장치)가 대신하여 침입자 감시 임무를 수행할 수 있다.Considering the environment in which a plurality of image sensor devices (e.g., image sensor device A (2000-1) and image sensor device B (2000-2)) are installed and operated, the observation range of the image sensor device A (2000-1) If (2500) is reduced and an observation blind spot occurs, in this visual zone, the image sensor device B (2000-2) (eg, the image sensor device adjacent to the image sensor device A (2000-1)) replaces the intruder surveillance task. can be performed.

복수의 영상 센서 장치가 운용되는 환경에서, 인접 영상 센서 장치 간에 협력가능한 거리(2560)가 설정될 수 있다. 협력가능한 거리(2560)는 침입자(들)의 평균 이동 속도를 기반으로 침입자가 협각 화면(2530)을 벗어나는 시간 t_out과 인접한 영상 센서 장치(예: 영상 센서 장치 B(2000-2))가 영상 센서(2010)의 PTZ을 제어하여 영상 센서 장치 A(2000-1)의 Tolerance area(2550)를 관측하는 데 소요되는 안정화 시간 t_setup을 비교하여 t_setup이 t_out 보다 적게되는 범위내에서 설정되게 될 수 있다. 한편, 영상 센서(2010)의 렌즈 배율을 제어했을 때 영상 센서(2010)의 심도(Depth of Field)(2540) 범위내에서만 명확한 영상을 얻을 수 있으므로 침입자의 이동 속도를 고려하여 카메라 렌즈의 배율을 선제적으로 제어하는 방식이 적용될 수 있다.In an environment where a plurality of image sensor devices are operated, a cooperative distance 2560 between adjacent image sensor devices may be set. The cooperative distance 2560 is the time t_out when the intruder leaves the narrow angle screen 2530 based on the average moving speed of the intruder(s) and the image sensor device (eg, the image sensor device B (2000-2)) adjacent to the image sensor By comparing the stabilization time t_setup required to observe the tolerance area 2550 of the image sensor device A (2000-1) by controlling the PTZ of (2010), t_setup may be set within a range less than t_out. On the other hand, when the lens magnification of the image sensor 2010 is controlled, a clear image can be obtained only within the range of the depth of field 2540 of the image sensor 2010. A preemptive control method may be applied.

도 5는 일 실시예에 따른 침입자가 보호 지역을 침범할 때 가상 펜스를 동적으로 구성하여 운용하는 동작을 설명하기 위한 도면이다.5 is a diagram for explaining an operation of dynamically configuring and operating a virtual fence when an intruder invades a protection area according to an embodiment.

t1 시각에 가변 화각(2010)를 갖는 영상 센서 장치 A(2000-1)는 가상 펜스 A_Image_t1(3121)를 구성하여 침입자(200)를 감시하고, 영상 센서 장치 B(2000-2)는 가상 펜스 B_Image_t1(3221)를 구성하여 침입자(200)를 감시할 수 있다.At time t1, the image sensor device A (2000-1) having a variable view angle 2010 configures the virtual fence A_Image_t1 (3121) to monitor the intruder 200, and the image sensor device B (2000-2) constructs the virtual fence B_Image_t1 3221 can be configured to monitor the intruder 200.

t1 시각에 위치 정보가 "위치정보_t1(Xt1, Yt1, Zt1)(201)"인 침입자(200)를 감시하는 영상 센서 장치(2000-1)의 카메라 화각은 FoV_t1(2011)이며, 영상 센서 장치(2000-1)는 촬영하는 영상에 대한 딥러닝을 통해 침입자(200)를 검출할 수 있다. 이후, 침입자가 가상 펜스(예: 도 1의 가상 펜스(100))를 월경하여 침입을 계속하게 되어 t2 시각에 위치 정보_t2(Xt2, Yt2, Zt2)(202)가 되면, 영상 센서 장치 A(2000-1)는 침입자(200)를 지속적으로 정밀하게 추적하기 위한 목적으로 침입자(200)의 영상을 확대하기 위해 영상 센서(2010)의 화각을 FoV_t2(2012)로 조정할 수 있다. 영상 센서(2010)의 렌즈 배율을 높여 큰 영상을 얻게 되는 반면에 영상 센서 장치 A(2000-1)의 화각이 FoV_t2(2012)로 줄어들고 가상 펜스에 대한 감시 영역도 줄어들게 되어, 영상 센서 장치 A(2000-1)는 가상 펜스 A_Image_t2(3122)를 구성할 수 있다.The camera angle of view of the image sensor device 2000-1 that monitors the intruder 200 whose location information is "location information_t1 (Xt1, Yt1, Zt1) 201" at time t1 is FoV_t1 (2011), and the image sensor The apparatus 2000-1 may detect the intruder 200 through deep learning on a captured image. Thereafter, the intruder crosses the virtual fence (e.g., the virtual fence 100 of FIG. 1) and continues invading, and when the location information_t2 (Xt2, Yt2, Zt2) 202 is obtained at time t2, the image sensor device A (2000-1) may adjust the angle of view of the image sensor 2010 to FoV_t2 (2012) in order to enlarge the image of the intruder 200 for the purpose of continuously and precisely tracking the intruder 200. While the magnification of the lens of the image sensor 2010 is increased to obtain a large image, the angle of view of the image sensor device A (2000-1) is reduced to FoV_t2 (2012) and the monitoring area for the virtual fence is also reduced, so that the image sensor device A ( 2000-1) may configure a virtual fence A_Image_t2 (3122).

이와 같이 줄어든 영상 센서 장치 A(2000-1)의 감시영역을 보상하기 위해, 영상 센서 장치 B(2000-2)는 영상 센서 장치(2000-2)에 포함된 영상 센서(2010)의 PTZ을 제어하여 가상 펜스 B_Image_t2(3222)를 구성할 수 있다. 이에 따라 감시 영역의 축소를 보상하기 위해 영상 센서 장치 C(2000-3)도 영상 센서 장치 C(2000-3)에 포함된 영상 센서(2010)의 PTZ을 제어하여 가상 펜스 C_Image_t2(3322)를 구성할 수 있다. 이와 같이 가상 펜스(예: 도 1의 가상 펜스(100))는 당초(예: t1시각)의 일직선 형태에서 직선과 사선이 결합된 형태로 변경 설정될 수 있다.To compensate for the reduced surveillance area of the image sensor device A (2000-1), the image sensor device B (2000-2) controls the PTZ of the image sensor 2010 included in the image sensor device 2000-2. Thus, the virtual fence B_Image_t2 (3222) can be configured. Accordingly, in order to compensate for the reduction of the monitoring area, the image sensor device C (2000-3) also controls the PTZ of the image sensor 2010 included in the image sensor device C (2000-3) to configure a virtual fence C_Image_t2 (3322). can do. In this way, the virtual fence (eg, the virtual fence 100 of FIG. 1 ) may be changed from the original (eg, time t1 ) straight line shape to a combination of a straight line and an oblique line.

이후 지속적으로 침입자가 보호 지역 내부로 침입하는 경우, 영상 센서 장치 A(2000-1)는 영상 센서 장치 A(2000-1)의 영상 센서(2010)의 화각을 FoV_t3(2013)로 조절하게 되어 가상 펜스 A_Image_t3(3123)를 구성할 수 있다. 이에 따라, 영상 센서 장치 A(2000-1)의 감시 영역을 보상하기 위해, 영상 센서 장치 B(2000-2)는 영상 센서 장치 B(2000-2)에 포함된 영상 센서(2010)의 PTZ을 제어하여 가상 펜스 B_Image_t3(3222)를 구성하며, 영상 센서 장치 C(2000-3)도 영상 센서 장치 C(2000-3)에 포함된 영상 센서(2010)의 PTZ을 제어하여 가상 펜스 C_Image_t3(3223)를 구성할 수 있다. 이때, 침입자(200)의 위치정보는 위치정보_t3(Xt3, Yt3, Zt3)(203)가 될 수 있다.After that, when an intruder continuously invades the inside of the protected area, the image sensor device A (2000-1) adjusts the angle of view of the image sensor 2010 of the image sensor device A (2000-1) to FoV_t3 (2013), so that the virtual A fence A_Image_t3 (3123) can be configured. Accordingly, in order to compensate for the surveillance area of the image sensor device A (2000-1), the image sensor device B (2000-2) sets the PTZ of the image sensor 2010 included in the image sensor device B (2000-2). The virtual fence B_Image_t3 (3222) is formed by controlling the virtual fence, and the image sensor device C (2000-3) also controls the PTZ of the image sensor 2010 included in the image sensor device C (2000-3) to form the virtual fence C_Image_t3 (3223). can be configured. At this time, the location information of the intruder 200 may be location information_t3 (Xt3, Yt3, Zt3) 203.

도 6은 일 실시예에 따른 동적 가상 펜스를 기반으로 침입자 보호 구역을 구성하는 동작을 설명하기 도면이다.6 is a diagram for explaining an operation of configuring an intruder protection area based on a dynamic virtual fence according to an exemplary embodiment.

도 6은 도5에서 설명한 동적 가상 펜스 운용 동작을 기반으로 침입자 보호 구역을 구성할 때 각 영상 센서 장치(2000, 2100, 2200)가 담당하는 감시 영역(3100, 3200, 3300)을 나타내는 것일 수 있다. 영상 센서 장치 A(2000-1)의 감시 영역(3100)은 영상 센서 장치 A(2000-1)의 감시 영역 경계선(3110)과 감시 구역 면적 A(3120), 및 관측 시각별로 "가상 펜스_Image_t1(3121), 가상 펜스_Image_t2(3122), 가 상펜스_Image_t3(3123)" 로 각각 달리 구성될 수 있다. 이와 유사하게, 영상 센서 장치 B(2000-2)의 감시 영역(3200)에 대한 면적은 감시 구역 면적 B(3220)과 같고, 영상 센서 장치 C(2000-3)의 감시 영역(3300)에 대한 면적은 감시 구역 면적 C(3320)와 같을 수 있다.FIG. 6 may show surveillance areas 3100, 3200, and 3300 in charge of each of the image sensor devices 2000, 2100, and 2200 when configuring an intruder protection area based on the operation of the dynamic virtual fence described in FIG. 5. . The monitoring area 3100 of the image sensor device A (2000-1) is defined by the boundary line 3110 of the monitoring area of the image sensor device A (2000-1), the area of the monitoring area A (3120), and the observation time "virtual fence_Image_t1". (3121), virtual fence_Image_t2 (3122), and virtual fence_Image_t3 (3123). Similarly, the area of the monitoring area 3200 of the image sensor device B 2000-2 is the same as the area B 3220 of the monitoring area, and the area of the monitoring area 3300 of the image sensor device C 2000-3 The area may be equal to the surveillance zone area C 3320 .

각 영상 센서 장치(2000-1~2000-3)의 영상 센서(2010)에서 촬영되는 영상은 영상 센서(2010)의 심도(Depth of Field)내에 있는 물체의 경우에 한해 윤곽이 뚜렷하게 나타나므로 영상 딥러닝으로 객체를 검출할 수 있는 영역이 결정될 수 있다. 영상 센서 장치(2000-1~2000-3)의 관측 범위(예: 카메라 관측 범위)는 해당 장치에 포함된 영상 센서(2010)의 PTZ제어값에 따라 결정될 수 있다.The image captured by the image sensor 2010 of each image sensor device 2000-1 to 2000-3 has a clear contour only for an object within the depth of field of the image sensor 2010, so the image is deep. An area in which an object can be detected by running may be determined. An observation range (eg, a camera observation range) of the image sensor devices 2000-1 to 2000-3 may be determined according to a PTZ control value of the image sensor 2010 included in the corresponding device.

시각 t1에서, 영상 센서 장치 A(2000-1)의 카메라 PTZ 제어값은 Ca_A_PTZ_t1=(PA1, TA1, ZA1)(2051)이고, 영상 센서 장치 B(2000-2)의 카메라 PTZ 제어값은 Ca_B_PTZ_t1=(PB1, TB1, ZB1)(2151)일 수 있다. 시각 t2에서, 영상 센서 장치 A(2000-1)의 카메라 PTZ 제어값은 Ca_A_PTZ_t2=(PA2, TA2, ZA2)(2052)이고, 영상 센서 장치 B(2000-2)의 카메라 PTZ 제어값은 Ca_B_PTZ_t2=(PB2, TB2, ZB2)(2152)이고, 영상 센서 장치 C(2000-3)의 카메라 PTZ 제어값은 Ca_C_PTZ_t2=(PC2, TC2, ZC2)(2252)일 수 있다. 시각 t3에서, 영상 센서 장치 A(2000-1)의 카메라 PTZ 제어값은 Ca_A_PTZ_t3=(PA3, TA3, ZA3)(2053)이고, 영상 센서 장치 B(2000-2)의 카메라 PTZ 제어값은 Ca_B_PTZ_t3=(PB3, TB3, ZB3)(2153)이고, 영상 센서 장치 C(2000-3)의 카메라 PTZ 제어값은 Ca_C_PTZ_t3=(PC3, TC3, ZC3)(2253)와 같을 수 있다. 영상 센서 장치(2000-1~2000-3)로 침입자를 검출하고 추적 및 분류, 이상행동을 추출할 수 있는 범위는 범위(6000)와 같을 수 있다.At time t1, the camera PTZ control value of image sensor device A (2000-1) is Ca_A_PTZ_t1 = (PA1, TA1, ZA1) (2051), and the camera PTZ control value of image sensor device B (2000-2) is Ca_B_PTZ_t1 = (PB1, TB1, ZB1) (2151). At time t2, the PTZ control value of the camera of the image sensor device A (2000-1) is Ca_A_PTZ_t2 = (PA2, TA2, ZA2) (2052), and the PTZ control value of the camera of the image sensor device B (2000-2) is Ca_B_PTZ_t2 = (PB2, TB2, ZB2) 2152, and the camera PTZ control value of the image sensor device C 2000-3 may be Ca_C_PTZ_t2 = (PC2, TC2, ZC2) 2252. At time t3, the PTZ control value of the camera of the image sensor device A (2000-1) is Ca_A_PTZ_t3 = (PA3, TA3, ZA3) (2053), and the PTZ control value of the camera of the image sensor device B (2000-2) is Ca_B_PTZ_t3 = (PB3, TB3, ZB3) 2153, and the camera PTZ control value of the image sensor device C (2000-3) may be equal to Ca_C_PTZ_t3 = (PC3, TC3, ZC3) 2253. The range in which the image sensor devices 2000-1 to 2000-3 can detect intruders, track and classify, and extract abnormal behaviors may be the same as the range 6000.

도 6에 도시에 도시된 바와 같이, 시각 t1에는 침입 객체를 검출 및 추적 가능한 범위(6100)에 대응하는 가상 펜스_Image_t1(3121)가 설정되고, 시각 t2에는 침입 객체를 분류 및 추적 가능한 범위(6200)에 대응하는 가상 펜스_Image_t2(3122)가 설정되고, 시각 t3에는 침입 객체의 이상 행동까지 추출 가능한 범위(또는 거리)(6300)에 대응하는 할 정도의 거리에 해당하는 가상 펜스_Image_t3(3123)가 설정될 수 있다.As shown in FIG. 6 , at time t1, a virtual fence_Image_t1 3121 corresponding to the range 6100 capable of detecting and tracking intruding objects is set, and at time t2, the range capable of classifying and tracking intruding objects ( 6200), a virtual fence_Image_t2 (3122) is set, and at time t3, the virtual fence_Image_t3 ( 3123) may be set.

도 7은 일 실시예에 따른 관제 센터에서 침입자 보호 지역을 관리하는 동작을 설명하기 위한 도면이다.7 is a diagram for explaining an operation of managing an intruder protection area in a control center according to an exemplary embodiment.

관제 센터(4000)는 침입자 보호지역에 침입하는 객체(예: 침입자)를 검출하는 영상 센서 장치(2000, 2100, 2200, 2300)의 감시 영역과 가상 펜스(3120, 3220, 3320, 3420)의 설정을 제어할 수 있다. 또한, 관제 센터(4000)는 검출한 침입자(200, 210, 220)의 이동을 추적하기 위한 기능을 수행할 수 있다. The control center 4000 sets monitoring areas of image sensor devices 2000, 2100, 2200, and 2300 and virtual fences 3120, 3220, 3320, and 3420 that detect objects (eg, intruders) intruding into an intruder protection area. can control. In addition, the control center 4000 may perform a function for tracking the movement of the detected intruders 200, 210, and 220.

도 7에서, 침입자 보호 지역의 전체 감시 구역(3000)의 면적은 S이며, 각 영상 센서 장치(2000-1~2000-4)가 감시하는 면적은 A(3130), B(3230), C(3330), 및 D(3430)으로 가정한다. 각 영상 센서 장치(2000-1~2000-4)가 감시하는 면적의 총합이 S가 되도록 각 영상 센서 장치(2000-1~2000-4)의 영상 센서(2010)를 설정할 수 있다.In FIG. 7, the area of the entire monitoring area 3000 in the intruder protection area is S, and the areas monitored by each of the image sensor devices 2000-1 to 2000-4 are A (3130), B (3230), and C ( 3330), and D (3430). The image sensors 2010 of the image sensor devices 2000-1 to 2000-4 may be set so that the sum of areas monitored by the image sensor devices 2000-1 to 2000-4 is S.

침입자 보호 지역에 설치되는 각 영상 센서 장치(2000-1~2000-4)의 영상 센서(2010)의 특성이 동일하다고 가정하는 경우, 영상 센서(2010)의 심도와 렌즈의 배율을 고려할 때, 영상 센서 장치(2000-1~2000-4)가 침입자를 감시할 수 있는 한계는 감시 깊이(예: 거리D)(3500)가 될 수 있다. 각 영상 센서 장치(2000-1~2000-4)와 관제 센터(4000)는 다음의 시나리오 예와 같이 상호 협력을 통해 침입자를 검출하고 추적하는 기능을 수행할 수 있다.Assuming that the characteristics of the image sensor 2010 of each image sensor device 2000-1 to 2000-4 installed in the intruder protection area are the same, considering the depth of field and the magnification of the lens of the image sensor 2010, the image A limit at which the sensor devices 2000-1 to 2000-4 can monitor an intruder may be a monitoring depth (eg, distance D) 3500. Each of the image sensor devices 2000-1 to 2000-4 and the control center 4000 may perform a function of detecting and tracking an intruder through mutual cooperation as in the following example scenario.

① 시각 t1에서, 침입자#1(200)은 영상 센서 장치 A(2000-1)의 감시 영역 경계선(3110) 내에 출현하고, 침입자#2(210)는 영상 센서 장치 D(2000-4)의 감시 영역 경계선(3410) 내에 출현하고, 침입자#3(220)은 영상 센서 장치 C(2000-3)의 감시 영역 경계선(3310)내에 출현한 것으로 가정한다. 각 영상 센서 장치(2000-1, 2000-3, 2000-4)는 각 침입자(200, 210, 220)가 가상 펜스(3120, 3420, 3320)내에 존재하므로 영상 딥러닝을 통해 침입자를 검출하고, 검출한 침입자의 위치 정보(예: 침입자#1(200)의 위치 정보(X1, Y1, Z1), 침입자#2(210)의 위치 정보(X2, Y2, Z2), 침입자#3(220)의 위치 정보(X3, Y3, Z3))를 추출한 후 지속적으로 영상의 프레임기반으로 검출한 침입자(200, 210, 220)의 이동 경로를 추적하면서 이에 대한 정보(예: 추적된 정보)를 관제 센터(4000)로 전송할 수 있다. 관제 센터(4000)는 전체 감시 구역을 각 영상 센서 장치(2000-1~2000-4) 감시하는 영역으로 구별하여 관리할 수 있다. 또한, 관제 센터(4000)는 각 영상 센서 장치(2000-1, 2000-3, 2000-4)에서 검출한 침입자의 위치 정보를 침입자 구별 식별자로 사용하여 다음과 같이 관리할 수 있다.① At time t1, intruder #1 (200) appears within the surveillance area boundary 3110 of the video sensor device A (2000-1), and intruder #2 (210) monitors the video sensor device D (2000-4) It is assumed that the intruder #3 (220) appears within the border line 3410 of the area and that the intruder #3 (220) appears within the border line 3310 of the monitoring area of the image sensor device C (2000-3). Each of the image sensor devices 2000-1, 2000-3, and 2000-4 detects an intruder through image deep learning since each intruder 200, 210, and 220 exists within the virtual fence 3120, 3420, and 3320, Location information of the detected intruder (e.g. location information (X1, Y1, Z1) of intruder #1 (200), location information (X2, Y2, Z2) of intruder #2 (210), location information (X2, Y2, Z2) of intruder #3 (220) After extracting the location information (X3, Y3, Z3), continuously tracking the movement path of the intruder (200, 210, 220) detected based on the frame of the image, information (e.g., tracked information) about this is sent to the control center ( 4000). The control center 4000 may classify the entire monitoring area into areas monitored by each of the image sensor devices 2000-1 to 2000-4 and manage them. In addition, the control center 4000 may use the location information of the intruder detected by each of the image sensor devices 2000-1, 2000-3, and 2000-4 as an intruder identification identifier and manage the intruder as follows.

- 침입자#1(200)의 식별자: A_X1,Y1,Z1, 침입자#1(200)의 속성: A,X1_t1,Y1_t1,Z1_t1- Identifier of intruder #1 (200): A_X1, Y1, Z1, attributes of intruder #1 (200): A, X1_t1, Y1_t1, Z1_t1

- 침입자#2(210)의 식별자: D_X2,Y2,Z2, 침입자#2(210)의 속성: D,X2_t1,Y2_t1,Z2_t1- Identifier of intruder #2 (210): D_X2, Y2, Z2, attributes of intruder #2 (210): D, X2_t1, Y2_t1, Z2_t1

- 침입자#3(220)의 식별자: C_X3,Y3,Z3, 침입자#3(220)의 속성: C,X3_t1,Y3_t1,Z3_t1- Identifier of intruder #3 (220): C_X3, Y3, Z3, attribute of intruder #3 (220): C, X3_t1, Y3_t1, Z3_t1

② 시각 t2에서, 침입자#1(200)이 영상 센서 장치 B(2000-2)의 감시 영역 경계선(3210) 내로 이동하고, 침입자#2(210)도 영상 센서 장치 B(2000-2)의 감시 영역 경계선(3210) 내로 이동하고, 침입자#3(220)은 영상 센서 장치 A(2000-1)의 감시 영역 경계선(3110) 내로 이동하는 경우를 가정한다. 각 영상 센서 장치(2000-1~2000-4)는 침입자를 검출한 시각 t1이후 지속적으로 검출 객체(예: 침입자)의 이동 방향과 속도를 지속적으로 추적하여 관제 센터(4000)로 전송할 수 있다. 관제 센터(4000)는 침입자가 어느 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))의 감시 영역 방향으로 이동하는지를 판단하여 해당 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))에게 이를 통보(예: 침입자 추적 핸드오버 시작 메시지)하고, 통보를 받은 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))는 해당 침입자의 추적이 가능하다고 판단되는 경우 승인 메시지(예: 침입자 추적 핸드오버 승인)를 관제 센터(4000)로 전송할 수 있다. 이후, 침입자 추적 핸드오버(Handover)를 승인한 영상 센서 장치(예: 영상 센서 장치 A(2000-1), 영상 센서 장치 B(2000-2))는 영상 센서(2010)의 PTZ제어시 이를 참조하여 핸드오버된 침입자를 지속적으로 추적하는 동시에 신규 침입자를 감시하는 임무를 수행할 수 있다. 이때 관제 센터(4000)가 관리하는 침입자의 속성은 다음과 같을 수 있다.② At time t2, the intruder #1 (200) moves into the boundary line 3210 of the surveillance area of the video sensor device B (2000-2), and the intruder #2 (210) also monitors the video sensor device B (2000-2). It is assumed that the intruder #3 (220) moves within the area boundary 3210 and the intruder #3 (220) moves within the surveillance area boundary 3110 of the image sensor device A (2000-1). Each of the image sensor devices 2000-1 to 2000-4 may continuously track and transmit the moving direction and speed of the detected object (eg, intruder) to the control center 4000 after time t1 at which the intruder is detected. The control center 4000 determines which image sensor device (eg, image sensor device A (2000-1) or image sensor device B (2000-2)) the intruder is moving in the direction of the surveillance area, and determines which image sensor device (eg, image sensor device (2000-2)) : Image sensor device A (2000-1) and image sensor device B (2000-2) are notified of this (eg, intruder tracking handover start message), and the notified image sensor device (eg, image sensor device A ( 2000-1) and the image sensor device B (2000-2)) may transmit an approval message (eg, intruder tracking handover approval) to the control center 4000 when it is determined that tracking of the intruder is possible. Thereafter, the image sensor devices (eg, image sensor device A (2000-1) and image sensor device B (2000-2)) that have approved the intruder tracking handover refer to this when controlling the PTZ of the image sensor 2010. Thus, the handed over intruder can be continuously tracked and the new intruder can be monitored at the same time. In this case, attributes of the intruder managed by the control center 4000 may be as follows.

- 침입자#1(200)의 식별자: A_X1,Y1,Z1, 침입자#1(200)의 속성: A_B,X1_t2,Y1_t2,Z1_t2- Identifier of intruder #1 (200): A_X1, Y1, Z1, attributes of intruder #1 (200): A_B, X1_t2, Y1_t2, Z1_t2

- 침입자#2(210)의 식별자: D_X2,Y2,Z2, 침입자#2(210)의 속성: D_B,X2_t2,Y2_t2,Z2_t2- Identifier of intruder #2 (210): D_X2, Y2, Z2, attribute of intruder #2 (210): D_B, X2_t2, Y2_t2, Z2_t2

- 침입자#3(220)의 식별자: C_X3,Y3,Z3, 침입자#3(220)의 속성: C_A,X3_t2,Y3_t2,Z3_t2- Identifier of intruder #3 (220): C_X3, Y3, Z3, attribute of intruder #3 (220): C_A, X3_t2, Y3_t2, Z3_t2

도 8은 일 실시예에 따른 복수의 영상 센서 장치 간 협력을 기반으로 침입자를 추적하는 임무를 설명하기 위한 도면이다.8 is a diagram for explaining a task of tracking an intruder based on cooperation between a plurality of image sensor devices according to an exemplary embodiment.

도 8에서 도시된 바와 같이, 영상 센서 장치 B(2000-2)의 초기의 감시 영역(6300)은 영상 센서 장치 A(2000-1)의 감시 영역(6200), 영상 센서 장치 C(2000-3)의 감시 영역(6400), 영상 센서 장치 D(2000-4)의 감시 영역(6500)과 인접해 있을 수 있다. 감시 영역(6300) 내 침입자의 출현으로, 영상 센서 장치 B(2000-2)가 영상 센서(2010)의 렌즈 배율과 PTZ를 조정하여 침입자를 검출하는 과정에서 영상 센서(2010)의 화면이 축소되게 되어, 감시 영역(6300)의 사각지대가 발생할 수 있다. 사각지역은 인접 영상 센서 장치(2000-1, 2000-3, 2000-4)의 영상 센서(2010)와의 협력을 통해 보완될 수 있으며, 이 사각지역을 Neighborhood takeover(or handover) region(6110, 6120, 6130)이라 칭할 수 있다.As shown in FIG. 8 , the initial monitoring area 6300 of the image sensor device B (2000-2) is the monitoring area 6200 of the image sensor device A (2000-1) and the image sensor device C (2000-3). may be adjacent to the monitoring area 6400 of ) and the monitoring area 6500 of the image sensor device D (2000-4). When an intruder appears in the monitoring area 6300, the image sensor device B (2000-2) adjusts the magnification of the lens and the PTZ of the image sensor 2010 so that the screen of the image sensor 2010 is reduced in the process of detecting the intruder. As a result, a blind spot in the monitoring area 6300 may occur. The blind area can be supplemented through cooperation with the image sensor 2010 of the neighboring image sensor devices (2000-1, 2000-3, 2000-4), and this blind area is referred to as the Neighborhood takeover (or handover) region (6110, 6120). , 6130).

관제 센터(4000)는 관측 범위(예: 감시 영역)에 사각지대가 생기는 경우 인접 영상 센서 장치(2000-1, 2000-3, 2000-4)의 상태(예: 침입자 검출 및 추적 유무, 현재의 카메라 관측범위)를 분석하여 사각지대의 인접한 영상 센서 장치(2000-1, 2000-3, 2000-4)에게 Neighborhood takeover(handover) region(6110, 6120, 6130)을 포함하여 감시하도록 PTZ 제어 명령을 전송함으로써 사각지대를 없앨 수 있다. 각 영상 센서 장치(2000-1, 2000-3, 2000-4)는 관제 센터(4000)로부터 전송된 PTZ 제어 명령에 응답하여 영상을 프레임단위로 분석하여 침입자의 이동 방향을 추정한 후, 침입자에 대한 정보(예: 침입자의 이동 방향, 이동 속도, 현재 좌표 정보)를 관제 센터(4000)로 제공할 수 있다. 침입자에 대한 정보를 수신한 관제 센터(4000)는 침입자가 현재의 관측 영상 센서 장치(예: 영상 센서 장치 B(2000-2))의 영역을 벗어날 때에 지속적으로 침입자를 추적할 타겟 영상 센서 장치를 선정한 후 선정한 영상 센서 장치에게 침입자 추적 임무를 부여할 수 있다.The control center 4000 monitors the status of neighboring image sensor devices 2000-1, 2000-3, and 2000-4 (eg, presence or absence of intruder detection and tracking, current Camera observation range) is analyzed and a PTZ control command is given to the adjacent image sensor devices (2000-1, 2000-3, 2000-4) in the blind spot to monitor including the Neighborhood takeover (handover) region (6110, 6120, 6130). Blind spots can be eliminated by transmission. Each image sensor device (2000-1, 2000-3, 2000-4) analyzes the video frame by frame in response to the PTZ control command transmitted from the control center (4000), estimates the moving direction of the intruder, and then detects the intruder Information about the intruder (eg, movement direction, movement speed, current coordinate information) of the intruder may be provided to the control center 4000 . The control center 4000 receiving the information about the intruder sets up a target image sensor device to continuously track the intruder when the intruder leaves the area of the current observation image sensor device (eg, image sensor device B (2000-2)). After selection, the intruder tracking mission can be assigned to the selected image sensor device.

도 8에서, 침입자가 ①의 빙향으로 이동하는 경우, 영상 센서 장치 D(2000-4)가 관측 센터(4000)로부터 침입자를 추적하는 임무를 부여받아 침입자를 추적하는 임무를 수행할 수 있다. 침입자가 ②의 방향으로 이동하는 경우, 인근에 영상 센서 장치가 부재한 경우에는 관제 센터(4000)가 Third party Takeover(Handover) Region (6200)을 감시하도록 예비용 영상 센서 장치 R에 감시 명령을 내릴 수 있다. 이와 같이, 가상 펜스 동작 영역(6700), Neighborhood takeover(handover) 동작 한계(6710), 및 Third party Takeover(Handover) 동작 한계(6720)는 도 8에 도시된 바와 같을 수 있다.In FIG. 8 , when an intruder moves in the direction of ①, the image sensor device D (2000-4) is assigned a task of tracking the intruder from the observation center 4000 and may perform the task of tracking the intruder. If the intruder moves in the direction of ② and there is no video sensor device nearby, the control center (4000) will issue a surveillance command to the spare video sensor device R to monitor the Third party Takeover (Handover) Region (6200). can As such, the virtual fence operation area 6700, the neighborhood takeover (handover) operation limit 6710, and the third party takeover (handover) operation limit 6720 may be as shown in FIG. 8 .

또한, 침입자가 이동함에 따라 침입자를 감시하는 영상 센서 장치의 관측임무는 다음과 같이 수행될 수 있다.In addition, the observation mission of the image sensor device for monitoring the intruder as the intruder moves may be performed as follows.

① 영상 센서 장치의 관측 범위(면적)가 특정 임계값(STh1)이내로 줄어드는 경우,① When the observation range (area) of the image sensor device is reduced within a certain threshold value (S Th1 ),

- 침입자의 이동 속도와 방향에 따라 축소되는 관측 범위가 일정시간 동안 인접 영상 센서 장치의 협력 없이도 침입자를 추적할 수 있는 범위(STh_N)에 있을 때에는 해당 영상 센서 장치가 침입자를 지속적으로 추적할 수 있다.- When the observation range, which is reduced according to the moving speed and direction of the intruder, is within the range (S Th_N ) in which the intruder can be tracked without the cooperation of the adjacent image sensor device for a certain period of time, the image sensor device can continuously track the intruder. there is.

[수학식 1][Equation 1]

- 침입자의 이동 속도와 방향에 따라 축소되는 관측 범위가 인접 영상 센서 장치의 협력을 통해서만 침입자를 추적할 수 있는 범위(STh_N)이상으로 줄어들 때, Neighborhood takeover(handover) region에서는 인접 영상 센서 장치에서 침입자를 추적하는 임무 수행할 수 있다.- When the observation range, which is reduced according to the moving speed and direction of the intruder, is reduced to more than the range (S Th_N ) in which the intruder can be tracked only through the cooperation of the neighboring image sensor device, in the Neighborhood takeover (handover) region, the adjacent image sensor device It can perform missions to track intruders.

[수학식 2][Equation 2]

② 영상 센서 장치의 관측 범위(면적)가 특정 임계값(STh1)이상으로 줄어드는 경우,② When the observation range (area) of the image sensor device is reduced beyond a certain threshold value (S Th1 ),

- 관제 센터(4000)는 Third party Takeover(Handover) Region을 감시하기 위해 예비용 영상 센서 장치를 통해 침입자를 추적하는 임무를 수행할 수 있다. - The control center (4000) can perform the task of tracking intruders through a spare image sensor device to monitor the Third party Takeover (Handover) Region.

도 9는 일 실시예에 따른 동적 가상 펜스 운용을 위한 영상 센서 장치의 임무 절차를 설명하기 위한 순서도를 나타낸다.9 is a flowchart illustrating a mission procedure of an image sensor device for operating a dynamic virtual fence according to an exemplary embodiment.

동작 8010에서, 영상 센서 장치(예: 도 1의 영상 센서 장치(2000-1~2000-4))는 영상 센서(2010)에 의해 획득된 영상에 대한 딥러닝을 수행하여 객체를 검출하고 검출 객체가 침입자인지 여부를 판단할 수 있다. In operation 8010, the image sensor device (eg, the image sensor devices 2000-1 to 2000-4 of FIG. 1) detects an object by performing deep learning on the image acquired by the image sensor 2010, and detects the object. It is possible to determine whether or not is an intruder.

동작 8020에서, 검출 객체가 침입자인 경우, 영상 센서 장치(2000)는 영상 프레임 기반으로 침입자에 대한 정보(예: 침입자의 위치 및 진행 방향)을 추정할 수 있다.In operation 8020, when the detection object is an intruder, the image sensor device 2000 may estimate information about the intruder (eg, the intruder's location and moving direction) based on the image frame.

동작 8030에서, 영상 센서 장치(2000)는 침입자에 대한 정보에 따라 영상 센서(2010)의 PTZ을 제어(8030)하여 침입자를 추적할 수 있다.In operation 8030, the image sensor device 2000 may track the intruder by controlling the PTZ of the image sensor 2010 according to information about the intruder (8030).

동작 8040에서, 영상 센서 장치(2000)는 PTZ 정보를 관제 센터(4000)로 전송할 수 있다. 관제 센터(4000)는 PTZ 정보를 기반으로 각 영상 센서 장치(2000)(예: 영상 센서 장치(2000-1~2000-4))의 관측 범위를 관리할 수 있다.In operation 8040, the image sensor device 2000 may transmit PTZ information to the control center 4000. The control center 4000 may manage the observation range of each image sensor device 2000 (eg, image sensor devices 2000-1 to 2000-4) based on the PTZ information.

동작 8050에서, 침입자가 현재 검출하고 있는 영상 센서 장치(2000)의 감시 영역을 벗어나는 가를 분석(예: 판단)할 수 있다. 감시 영역을 벗어나지 않는 경우, 영상 센서 장치(2000)는 지속적으로 침입자를 추적하여 침입자에 대한 정보를 관제 센터로 전송할 수 있다(8020~8050). In operation 8050, it is possible to analyze (eg, determine) whether an intruder leaves the surveillance area of the image sensor device 2000 that is currently being detected. When not leaving the monitoring area, the image sensor device 2000 may continuously track the intruder and transmit information about the intruder to the control center (8020 to 8050).

동작 8060에서, 침입자가 감시 영역을 벗어난 경우, 침입자의 추적임무를 인접 영상 센서 장치 및/또는 예비용 영상 센서 장치에 할당하기 위해, 영상 센서 장치(2000)는 관제 센터(4000)로 침입자에 대한 정보(예: 침입자의 이동 방향 및 이동 속도) 및 PTZ 정보를 전송할 수 있다.In operation 8060, when the intruder leaves the monitoring area, the image sensor device 2000 transmits information about the intruder to the control center 4000 in order to allocate the intruder's tracking task to an adjacent image sensor device and/or a spare image sensor device. Information (eg, direction and speed of movement of an intruder) and PTZ information can be transmitted.

동작 8070에서, 영상 센서 장치92000)는 관제 센터(4000)의 명령을 대기할 수 있다. 영상 센서 장치(2000)는 대기하면서 지속적으로 객체를 검출하고 추적하는 기능을 수행할 수 있다.In operation 8070, the image sensor device 92000 may wait for a command from the control center 4000. The image sensor device 2000 may continuously detect and track an object while waiting.

도 10은 일 실시예에 따른 동적 가상 펜스 운용을 위한 관제 센터의 임무 절차를 설명하기 위한 순서도를 나타낸다.10 is a flowchart illustrating a task procedure of a control center for operating a dynamic virtual fence according to an embodiment.

동작 8510에서, 관제 센터(4000)는 초기에 각 영상 센서 장치(예: 도 1의 영상 센서 장치(2000-1~2000-4)의 관측 범위를 할당할 수 있다.In operation 8510, the control center 4000 may initially allocate an observation range of each image sensor device (eg, image sensor devices 2000-1 to 2000-4 of FIG. 1).

동작 8520에서, 관제 센터(4000)는 각 영상 센서 장치(2000-1~2000-4)가 전송한 PTZ 정보를 수신할 수 있다.In operation 8520, the control center 4000 may receive PTZ information transmitted by each of the image sensor devices 2000-1 to 2000-4.

동작 8530에서, 관제 센터(4000)는 PTZ 정보에 기초하여 지속적으로 각 영상 센서 장치(2000-1~2000-4)의 관측 범위를 갱신할 수 있다.In operation 8530, the control center 4000 may continuously update the observation range of each image sensor device 2000-1 to 2000-4 based on the PTZ information.

동작 8540에서, 관제 센터(4000)는 각 영상 센서 장치(2000-1~2000-4)이 침입자를 검출하고 추적하는 과정에서 발생하는 사각지대인 Neighborhood Takeover(Handover) Region을 계산할 수 있다. 초기의 영상 센서 장치(2000-1~2000-4)의 초기의 관측 범위와 영상 센서 장치(2000-1~2000-4)의 갱신된 관측 범위의 차가 Neighborhood Takeover(Handover) Region이 될 수 있다.In operation 8540, the control center 4000 may calculate a Neighborhood Takeover (Handover) Region, which is a blind spot generated in the process of each image sensor device 2000-1 to 2000-4 detecting and tracking an intruder. A difference between the initial observation range of the image sensor devices 2000-1 to 2000-4 and the updated observation range of the image sensor devices 2000-1 to 2000-4 may be a neighborhood takeover (handover) region.

동작 8550에서, 관제 센터(4000)는 인접 영상 센서 장치(2000-1~2000-4)의 관측 범위를 분석할 수 있다.In operation 8550, the control center 4000 may analyze the observation ranges of the adjacent image sensor devices 2000-1 to 2000-4.

동작 8560에서, 관제 센터(4000)는 분석 결과에 기초하여 인접 영상 센서 장치(2000-1~2000-4)가 Neighborhood Takeover(Handover) Region을 담당 가능한지의 여부를 분석할 수 있다. 인접 영상 센서 장치(4000)의 Takeover(Handover) 기준을 설정하는 파라미터는 다음과 같이 결정될 수 있다.In operation 8560, the control center 4000 may analyze whether the neighboring image sensor devices 2000-1 to 2000-4 can take charge of the Neighborhood Takeover (Handover) Region based on the analysis result. A parameter for setting a takeover (handover) criterion of the adjacent image sensor device 4000 may be determined as follows.

(1) 침입자의 이동 방향: 침입자의 이동 방향과 인접하는 영상 센서 장치를 핸드오버 타겟 영상 센서 장치로 선정 (1) Moving direction of intruder: Select an image sensor device adjacent to the moving direction of the intruder as a handover target image sensor device

(2) 침입자의 이동 속도: 침입자의 이동 속도를 추정하여 현재의 영상 센서 장치의 관측 범위를 벗어나는 시간을 I_t라 하고, 인접 영상 센서 장치가 PTZ을 제어하여 Neighborhood Takeover(Handover) Region을 관측하는데 걸리는 set-up 시간을 N_S_t라 할때,(2) Moving speed of intruder: The time taken to estimate the moving speed of the intruder and get out of the observation range of the current image sensor device is I_t, and it takes the neighboring image sensor device to control the PTZ to observe the Neighborhood Takeover (Handover) Region. When the set-up time is N_S_t,

- I_t N_S_t 인 경우: Neighborhood Takeover(Handover) 절차 수행 -I_t In case of N_S_t: Perform Neighborhood Takeover (Handover) procedure

(3) 예비용 영상 센서 장치가 Neighborhood Takeover(Handover) Region을 관측하기 위해 PTZ을 제어하여 안정화되는 시간을 R_S_t 라 할 때,(3) When R_S_t is the stabilization time by controlling the PTZ for the spare image sensor device to observe the Neighborhood Takeover (Handover) Region,

- N_S_t R_S_t 인 경우: Third party Takeover(Handover) Region 절차 수행- N_S_t In case of R_S_t: Perform third party takeover (handover) region procedure

동작 8570에서, 관제 센터(4000)는 Neighborhood Takeover(Handover) 절차가 필요한 경우에 인접 영상 센서 장치에게 Neighborhood Takeover(Handover) Region 정보를 전송하여 침입자의 추적 임무를 할당시킬 수 있다. In operation 8570, the control center 4000 transmits Neighborhood Takeover (Handover) Region information to a neighboring image sensor device when a Neighborhood Takeover (Handover) procedure is required to assign an intruder tracking task.

동작 8580에서, 인접 영상 센서 장치로 침입자를 추적하는데 걸리는 카메라 설정 시간이 길거나, 인접 영상 센서 장치가 없는 경우, 영상 센서 장치로부터 지속적으로 침입자에 대한 정보(예: 침입자의 이동 방향 및 이동 속도)와 PTZ 정보를 수신할 수 있다.In operation 8580, if the camera setup time required to track the intruder with the adjacent image sensor device is long, or if there is no adjacent image sensor device, information about the intruder (eg, moving direction and moving speed of the intruder) is continuously obtained from the image sensor device and PTZ information can be received.

동작 8590 및 동작 8595에서, 관제 센터(4000)는 Third party Takeover(Handover) Region을 계산한 후 예비용 영상 센서 장치에게 이에 대한 정보를 전송하여 침입자를 추적하는 임무를 할당할 수 있다.In operations 8590 and 8595, the control center 4000 calculates a third party takeover (handover) region and transmits information thereon to a preliminary image sensor device to assign a task of tracking an intruder.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. A computer readable medium may store program instructions, data files, data structures, etc. alone or in combination, and program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in the art of computer software. there is. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware device described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques may be performed in an order different from the method described, and/or the components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (19)

가상 펜스 기반 침입자 감시 방법에 있어서,
제1 영상 센서 장치를 이용하여 보호 지역에 설정된 가상 펜스를 침범하는 침입자를 검출하는 동작; 및
상기 침입자에 대한 정보에 기초하여 상기 제1 영상 센서 장치에 인접한 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하는 동작
을 포함하는, 침입자 감시 방법.
In the virtual fence-based intruder monitoring method,
detecting an intruder invading a virtual fence set in a protection area by using a first image sensor device; and
An operation of tracking the intruder through cooperation of second image sensor devices adjacent to the first image sensor device based on the information about the intruder.
Including, intruder monitoring method.
제1항에 있어서,
상기 제1 영상 센서 장치의 PTZ를 제어함에 따라 상기 제2 영상 센서 장치들의 협력을 통해 상기 가상 펜스를 동적으로 설정하는 동작
을 더 포함하는, 침입자 감시 방법.
According to claim 1,
An operation of dynamically setting the virtual fence through cooperation of the second image sensor devices as the PTZ of the first image sensor device is controlled.
Further comprising, intruder monitoring method.
제1항에 있어서,
상기 제1 영상 센서 장치가 상기 침입자를 검출한 초기 위치 정보를 상기 침입자를 구별하기 위한 식별자로 설정하는 동작
을 더 포함하는, 침입자 감시 방법.
According to claim 1,
An operation of setting, by the first image sensor device, the initial location information at which the intruder is detected as an identifier for distinguishing the intruder.
Further comprising, intruder monitoring method.
제1항에 있어서,
상기 추적하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어난 경우, 상기 침입자에 대한 정보에 기초하여 상기 제2 영상 센서 장치들 중에서 상기 침입자를 추적할 영상 센서 장치를 선택하는 동작;
선택된 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작
을 포함하는, 침입자 감시 방법.
According to claim 1,
The tracking operation is
selecting an image sensor device to track the intruder from among the second image sensor devices based on information about the intruder when the intruder is out of the observation range of the first image sensor device;
Allocating the task of tracking the intruder to the selected image sensor device
Including, intruder monitoring method.
제4항에 있어서,
상기 추적하는 동작은,
상기 제1 영상 센서 장치가 상기 침입자를 추적에 따라 발생하는 상기 제1 영상 센서 장치의 사각지대인 Neighborhood Takeover Region을 계산하는 동작
을 더 포함하는, 침입자 감시 방법.
According to claim 4,
The tracking operation is
An operation of calculating a Neighborhood Takeover Region, which is a blind spot of the first image sensor device, generated as the first image sensor device tracks the intruder.
Further comprising, intruder monitoring method.
제5항에 있어서,
상기 Neighborhood Takeover Region은,
상기 제1 영상 센서 장치의 초기 관측 범위와 상기 침입자를 추적함에 따라 갱신된 상기 제1 영상 센서 장치의 갱신 관측 범위의 차인, 침입자 감시 방법.
According to claim 5,
The Neighborhood Takeover Region,
A difference between an initial observation range of the first image sensor device and an updated observation range of the first image sensor device updated as the intruder is tracked.
제5항에 있어서,
상기 추적하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간에 기초하여 상기 제1 영상 센서 장치와 상기 제2 영상 센서 장치들 간에 협력 가능한 거리를 설정하는 동작
을 더 포함하는, 침입자 감시 방법.
According to claim 5,
The tracking operation is
Based on the time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor devices to observe the Neighborhood Takeover Region by controlling the PTZ, the first image sensor device and the second image sensor device Operation of setting a cooperative distance between image sensor devices
Further comprising, intruder monitoring method.
제5항에 있어서,
상기 선택하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간을 비교하여 상기 제2 영상 센서 장치 중에서 상기 소요되는 시간이 적은 영상 센서 장치를 선택하는 동작
을 포함하는, 침입자 감시 방법.
According to claim 5,
The selection operation is
The time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor devices to control the PTZ to observe the Neighborhood Takeover Region are compared to obtain the Operation of selecting an image sensor device with less time
Including, intruder monitoring method.
제1항에 있어서,
상기 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하지 못하는 경우, 예비용 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작
을 더 포함하는, 침입자 감시 방법.
According to claim 1,
Assigning a task of tracking the intruder to a spare image sensor device when the intruder cannot be tracked through cooperation of the second image sensor devices
Further comprising, intruder monitoring method.
가상 펜스 기반 침입자 감시 방법에 있어서,
보호 지역에 설정된 가상 펜스를 침범하는 객체를 검출하는 동작;
검출 객체가 침입자인 경우에 응답하여 상기 침입자를 추적하는 동작; 및
관제 센터로부터 전송된 명령에 따라 영상 센서 장치의 PTZ를 제어하여 상기 영상 센서 장치의 관측 범위를 제어하는 동작
을 포함하고,
상기 가상 펜스는,
상기 영상 센서 장치의 PTZ를 제어함에 따라 상기 영상 센서 장치에 인접한 영상 센서 장치들의 협력을 통해 동적으로 설정되는 것인, 침입자 감시 방법.
을 더 포함하는, 침입자 감시 방법.
In the virtual fence-based intruder monitoring method,
detecting an object invading a virtual fence set in the protected area;
tracking the intruder in response when the detection object is the intruder; and
An operation of controlling the observation range of the image sensor device by controlling the PTZ of the image sensor device according to a command transmitted from the control center.
including,
The virtual fence,
In accordance with controlling the PTZ of the image sensor device, the intruder monitoring method is dynamically set through cooperation of image sensor devices adjacent to the image sensor device.
Further comprising, intruder monitoring method.
가상 펜스 기반 침입자를 감시하는 장치에 있어서,
프로세서; 및
상기 프로세서와 전기적으로 연결되고 상기 프로세서에 의해 실행 가능한 인스트럭션들을 저장하는 메모리
를 포함하고,
상기 프로세서에 의해 상기 인스터력션들 실행될 때, 상기 프로세서는 복수의 동작들을 수행하며,
상기 복수의 동작들은,
제1 영상 센서 장치를 이용하여 보호 지역에 설정된 가상 펜스를 침범하는 침입자를 검출하는 동작; 및
상기 침입자에 대한 정보에 기초하여 상기 제1 영상 센서 장치에 인접한 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하는 동작
을 포함하는, 장치.
An apparatus for monitoring an intruder based on a virtual fence,
processor; and
A memory electrically connected to the processor and storing instructions executable by the processor.
including,
When the instructions are executed by the processor, the processor performs a plurality of operations;
The plurality of operations,
detecting an intruder invading a virtual fence set in a protection area by using a first image sensor device; and
An operation of tracking the intruder through cooperation of second image sensor devices adjacent to the first image sensor device based on the information about the intruder.
Including, device.
제11항에 있어서,
상기 복수의 동작들은,
상기 제1 영상 센서 장치의 PTZ를 제어함에 따라 상기 제2 영상 센서 장치들의 협력을 통해 상기 가상 펜스를 동적으로 설정하는 동작
을 더 포함하는, 장치.
According to claim 11,
The plurality of operations,
An operation of dynamically setting the virtual fence through cooperation of the second image sensor devices as the PTZ of the first image sensor device is controlled.
Further comprising a device.
제11항에 있어서,
상기 복수의 동작들은,
상기 제1 영상 센서 장치가 상기 침입자를 검출한 초기 위치 정보를 상기 침입자를 구별하기 위한 식별자로 설정하는 동작
을 더 포함하는, 장치.
According to claim 11,
The plurality of operations,
An operation of setting, by the first image sensor device, the initial location information at which the intruder is detected as an identifier for distinguishing the intruder.
Further comprising a device.
제11항에 있어서,
상기 추적하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어난 경우, 상기 침입자에 대한 정보에 기초하여 상기 제2 영상 센서 장치들 중에서 상기 침입자를 추적할 영상 센서 장치를 선택하는 동작;
선택된 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작
을 포함하는, 장치.
According to claim 11,
The tracking operation is
selecting an image sensor device to track the intruder from among the second image sensor devices based on information about the intruder when the intruder is out of the observation range of the first image sensor device;
Allocating the task of tracking the intruder to the selected image sensor device
Including, device.
제14항에 있어서,
상기 추적하는 동작은,
상기 제1 영상 센서 장치가 상기 침입자를 추적에 따라 발생하는 상기 제1 영상 센서 장치의 사각지대인 Neighborhood Takeover Region을 계산하는 동작
을 더 포함하는, 장치.
According to claim 14,
The tracking operation is
An operation of calculating a Neighborhood Takeover Region, which is a blind spot of the first image sensor device, generated as the first image sensor device tracks the intruder.
Further comprising a device.
제15항에 있어서,
상기 Neighborhood Takeover Region은,
상기 제1 영상 센서 장치의 초기 관측 범위와 상기 침입자를 추적함에 따라 갱신된 상기 제1 영상 센서 장치의 갱신 관측 범위의 차인, 장치.
According to claim 15,
The Neighborhood Takeover Region,
A difference between an initial observation range of the first image sensor device and an updated observation range of the first image sensor device updated as the intruder is tracked.
제15항에 있어서,
상기 추적하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간에 기초하여 상기 제1 영상 센서 장치와 상기 제2 영상 센서 장치들 간에 협력 가능한 거리를 설정하는 동작
을 더 포함하는, 장치.
According to claim 15,
The tracking operation is
Based on the time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor devices to observe the Neighborhood Takeover Region by controlling the PTZ, the first image sensor device and the second image sensor device Operation of setting a cooperative distance between image sensor devices
Further comprising a device.
제15항에 있어서,
상기 선택하는 동작은,
상기 침입자가 상기 제1 영상 센서 장치의 관측 범위를 벗어나는 시간 및 상기 제2 영상 센서 장치들이 PTZ를 제어하여 상기 Neighborhood Takeover Region를 관측하는데 소요되는 시간을 비교하여 상기 제2 영상 센서 장치 중에서 상기 소요되는 시간이 적은 영상 센서 장치를 선택하는 동작
을 포함하는, 장치.
According to claim 15,
The selection operation is
The time required for the intruder to leave the observation range of the first image sensor device and the time required for the second image sensor devices to control the PTZ to observe the Neighborhood Takeover Region are compared to obtain the Operation of selecting an image sensor device with less time
Including, device.
제11항에 있어서,
상기 복수의 동작들은,
상기 제2 영상 센서 장치들의 협력을 통해 상기 침입자를 추적하지 못하는 경우, 예비용 영상 센서 장치에 상기 침입자를 추적하는 임무를 할당하는 동작
을 더 포함하는, 장치.
According to claim 11,
The plurality of operations,
Assigning a task of tracking the intruder to a spare image sensor device when the intruder cannot be tracked through cooperation of the second image sensor devices
Further comprising a device.
KR1020220187272A 2022-01-26 2022-12-28 Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method KR20230115231A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/098,808 US20230237890A1 (en) 2022-01-26 2023-01-19 Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220011722 2022-01-26
KR20220011722 2022-01-26

Publications (1)

Publication Number Publication Date
KR20230115231A true KR20230115231A (en) 2023-08-02

Family

ID=87566760

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220187272A KR20230115231A (en) 2022-01-26 2022-12-28 Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method

Country Status (1)

Country Link
KR (1) KR20230115231A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118155352A (en) * 2024-05-09 2024-06-07 广东华兰海电测科技股份有限公司 Intelligent self-adaptive electronic fence system and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118155352A (en) * 2024-05-09 2024-06-07 广东华兰海电测科技股份有限公司 Intelligent self-adaptive electronic fence system and control method thereof

Similar Documents

Publication Publication Date Title
JP7428213B2 (en) Information processing system, information processing method and program
JP4241742B2 (en) Automatic tracking device and automatic tracking method
JP5153302B2 (en) Computer-implemented method for measuring the performance of a monitoring system
US7783076B2 (en) Moving-object tracking control apparatus, moving-object tracking system, moving-object tracking control method, and program
US20050104958A1 (en) Active camera video-based surveillance systems and methods
KR100879623B1 (en) Automated wide area surveillance system using ptz camera and method therefor
KR20180032400A (en) multiple object tracking apparatus based Object information of multiple camera and method therefor
KR101019384B1 (en) Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera
JP2002522980A (en) Image tracking in multiple camera systems
US20100002083A1 (en) Moving object automatic tracking apparatus
WO2019139579A1 (en) Duplicate monitored area prevention
JP6413530B2 (en) Surveillance system, video analysis apparatus, video analysis method and program
AU2015203666A1 (en) Methods and systems for controlling a camera to perform a task
JP2007272733A (en) Image processing device and method, and program
KR20230115231A (en) Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method
KR101832274B1 (en) System for crime prevention of intelligent type by video photographing and method for acting thereof
JP2016009877A (en) Control apparatus, control method, and program
KR101290782B1 (en) System and method for Multiple PTZ Camera Control Based on Intelligent Multi-Object Tracking Algorithm
Kumar et al. Real time target tracking with pan tilt zoom camera
US20230237890A1 (en) Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
CN115760912A (en) Moving object tracking method, device, equipment and computer readable storage medium
JP2005346425A (en) Automatic tracking system and automatic tracking method
JP6613976B2 (en) Imaging control program, imaging control method, and imaging control apparatus
US11209796B2 (en) Surveillance system with intelligent robotic surveillance device