KR20120122779A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
KR20120122779A
KR20120122779A KR1020110041135A KR20110041135A KR20120122779A KR 20120122779 A KR20120122779 A KR 20120122779A KR 1020110041135 A KR1020110041135 A KR 1020110041135A KR 20110041135 A KR20110041135 A KR 20110041135A KR 20120122779 A KR20120122779 A KR 20120122779A
Authority
KR
South Korea
Prior art keywords
monitoring unit
point
terrain
unit
recognized
Prior art date
Application number
KR1020110041135A
Other languages
Korean (ko)
Other versions
KR101209598B1 (en
Inventor
이지환
Original Assignee
주식회사 영국전자
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 영국전자 filed Critical 주식회사 영국전자
Priority to KR1020110041135A priority Critical patent/KR101209598B1/en
Publication of KR20120122779A publication Critical patent/KR20120122779A/en
Application granted granted Critical
Publication of KR101209598B1 publication Critical patent/KR101209598B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/19626Surveillance camera constructional details optical details, e.g. lenses, mirrors or multiple lenses
    • G08B13/19628Surveillance camera constructional details optical details, e.g. lenses, mirrors or multiple lenses of wide angled cameras and camera groups, e.g. omni-directional cameras, fish eye, single units having multiple cameras achieving a wide angle view

Abstract

PURPOSE: A monitoring system is provided to automatically extract an object to be monitored and to classify the kind of the object by extracting topographical information through a monitoring image of a first monitoring part and a second monitoring part. CONSTITUTION: A monitoring system comprises a first monitoring part(MFP), a second monitoring part(PTZ), a topographical map creating part(10), an object data generating part(20), and a controller(30). The topographical map creating part creates a topographical map in around the first monitoring part and the second monitoring part using a first monitoring image and a second monitoring image. The object data generating part generates object information using the location of an object according to the topographical map when the object is acknowledged through the first monitoring image. The controller controls object monitoring of the second monitor part using the topographical map and the topographical map and. [Reference numerals] (10) Topographical map creating part; (20) Object data generating part; (30) Controller; (40) Object type sorting part; (AA,CC,DD,EE) Second monitoring part; (BB) First monitoring part

Description

감시 시스템{MONITORING SYSTEM}Surveillance System {MONITORING SYSTEM}

본 발명은 감시 시스템에 관한 것으로, 더욱 상세하게는 제1 감시부와 제2 감시부의 감시영상을 통해 주위의 지형정보를 추출하여 3차원 지형도를 제작하고, 이를 통해 효과적인 보안, 감시 및 추적이 이루어질 수 있도록 하며, 제1 감시부와 제2 감시부의 감시영상을 통해 객체의 종류를 구분하고, 구분된 객체의 종류에 따라 감시여부를 판단할 수 있을 뿐만 아니라 감시물을 자동 추적하여 감시할 수 있는 감시 시스템에 관한 것이다.
The present invention relates to a surveillance system, and more particularly, to produce a three-dimensional topographic map by extracting the surrounding topographic information through the surveillance image of the first monitoring unit and the second monitoring unit, through which effective security, monitoring and tracking is achieved. It is possible to distinguish the types of objects through the surveillance images of the first monitoring unit and the second monitoring unit, and to determine whether to monitor according to the type of the separated objects, as well as to automatically monitor and monitor the monitoring objects. It relates to a surveillance system.

도심의 주택가, 상업지역 또는 전원주택단지 등에서 보안이나 경비유지 또는 감시를 위하여 이동 물체를 추적하는 감시 시스템이 보편화되고 있다. Surveillance systems that track moving objects for security, security, or surveillance in urban residential, commercial or rural housing complexes are becoming commonplace.

통상적으로 이동 물체에 대한 추적 기술은 보안 및 감시 시스템, 지능형 로봇의 시각처리, 사용자 인터페이스 등 수많은 응용 영역을 갖고 있으며, 이의 실현을 위하여 다양한 방법의 카메라 장치들이 이용되고 있다. In general, a tracking technology for a moving object has a number of application areas such as security and surveillance systems, visual processing of intelligent robots, and user interfaces, and various methods of camera devices are used for realization thereof.

이와 같은 이동 물체 추적 방법 중 하나는, 하나 이상의 고정된 카메라 장치를 이용하여 미리 정해진 영역의 영상을 획득 및 분석한 후에 이를 통하여 목표물을 탐지해내는 기술이다. One of such moving object tracking methods is a technique of detecting and detecting a target through an image of a predetermined area by using one or more fixed camera devices.

그리고, 이동 물체 추적 방법 중에는 보안 및 감시 시스템에서 회전줌, 즉 PTZ(Pan/Tilt/Zoom) 제어가 가능한 카메라 장치를 이용하여 원격지에서 수동으로 카메라 장치를 제어함으로써 원하는 영역에서 영상을 획득 및 분석하여 목표물을 탐지해 내는 기술이 사용된다. In addition, during a moving object tracking method, a camera device capable of rotating zoom, that is, PTZ (Pan / Tilt / Zoom) control in a security and surveillance system, is used to acquire and analyze an image in a desired area by manually controlling the camera device at a remote location. Techniques for detecting targets are used.

또한, 최근 들어 이동 물체 추적 방법으로서 망원렌즈(Telephoto Lens) 및 광각 렌즈(Wide-angle Lens)가 장착된 카메라 장치를 동시에 이용하여, 고정된 영역에서 광각 렌즈를 통하여 촬영된 영상으로부터 목표물의 위치를 예측하고, 망원렌즈를 통하여 예측된 위치에서 목표물 영상을 획득하여 분석하는 기술이 사용되고 있다. In addition, recently, as a moving object tracking method, using a camera device equipped with a telephoto lens and a wide-angle lens at the same time, the position of the target from the image taken through the wide-angle lens in a fixed area A technique for predicting and acquiring and analyzing a target image at a predicted position through a telephoto lens is used.

그러나, 이러한 종래의 이동 물체 추적방법들은 효율적으로 이동 물체를 추적하기 위한 카메라 장치들 간의 상호협력 등에 관한 유연성이 부족하여, 고속의 카메라 제어 및 이동 물체 추적 시스템 등에 효과적인 성능을 제공하지 못하고 있으며, 또한 회전줌 카메라의 장점을 효과적으로 이용하지 못하는 문제점이 있었다.
However, these conventional moving object tracking methods lack flexibility in mutual cooperation between camera devices for efficiently tracking moving objects, and thus do not provide effective performance for high speed camera control and moving object tracking systems. There was a problem that can not effectively use the advantages of the rotation zoom camera.

본 발명은 전술한 바와 같은 종래의 감시 시스템에서 기인되는 제반 문제점을 해결 보완하기 위한 것으로,The present invention is to solve and solve the problems caused by the conventional monitoring system as described above,

본 발명의 목적은 제1 감시부와 제2 감시부의 감시영상을 통해 주위의 지형정보를 추출하여 3차원 지형도를 제작하고, 이를 통해 효과적인 보안, 감시 및 추적이 이루어질 수 있도록 하는 감시 시스템을 제공하는 데 있다.An object of the present invention is to provide a surveillance system to extract the topographic information of the surroundings through the surveillance image of the first surveillance unit and the second surveillance unit to produce a three-dimensional topographic map, through which effective security, surveillance and tracking can be achieved. There is.

본 발명의 다른 목적은 제1 감시부와 제2 감시부의 감시영상을 통해 객체의 종류를 구분하고, 구분된 객체의 종류에 따라 감시여부를 판단할 수 있는 감시 시스템을 제공하는 데 있다.Another object of the present invention is to provide a surveillance system that can distinguish the type of object through the surveillance image of the first monitoring unit and the second monitoring unit, and determine whether to monitor according to the type of the divided object.

본 발명의 또 다른 목적은 감시물을 자동 추적하여 감시할 수 있는 감시 시스템을 제공하는 데 있다.
Still another object of the present invention is to provide a surveillance system capable of automatically tracking and monitoring a surveillance object.

전술한 과제를 달성하기 위한 본 발명에 따르면 감시 시스템에 있어서, 제1 감시부와; 특정 영역을 감시하는 제2 감시부와; 제1 감시부에 의한 제1 감시영상과, 제2 감시부에 의한 제2 감시영상을 이용하여 제1 감시부와 제2 감시부 주위의 지형도를 작성하는 지형도작성부와; 제1 감시영상을 통해 객체가 인식되는 경우, 객체의 정보와 지형도에 따른 객체의 위치를 이용하여 객체정보를 생성하는 객체정보생성부; 및 지형도와 객체정보를 이용하여 제2 감시부가 객체를 감시하도록 제어하는 제어부; 를 포함하는 감시 시스템을 제공한다.According to the present invention for achieving the above object, a monitoring system comprising: a first monitoring unit; A second monitoring unit for monitoring a specific area; A topographic map creation unit for creating a topographical map around the first monitoring unit and the second monitoring unit by using the first surveillance image by the first surveillance unit and the second surveillance image by the second surveillance unit; An object information generation unit configured to generate object information by using the information of the object and the position of the object according to the topographical map when the object is recognized through the first surveillance image; And a controller configured to control the second monitor to monitor the object using the topographic map and the object information. It provides a surveillance system comprising a.

제1 감시부는 어안렌즈 카메라, 초광각렌즈 카메라, 회전줌 카메라 중 어느 하나인 것으로 구성될 수 있다.The first monitoring unit may be configured to be any one of a fisheye lens camera, an ultra wide-angle lens camera, and a rotation zoom camera.

지형도작성부, 객체정보생성부, 제어부 중 어느 하나 또는 둘 이상은 제1 감시부에 설치되도록 구성될 수 있다.One or more of the topographic map creation unit, the object information generation unit, and the control unit may be configured to be installed in the first monitoring unit.

제2 감시부는 회전줌 카메라인 것으로 구성될 수 있다.The second monitoring unit may be configured to be a rotation zoom camera.

지형도작성부는, 제1 감시부가 위치하는 지점과 제2 감시부가 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형정보를 생성하고, 지형정보를 3차원 그래픽화하여 지형도를 작성하도록 구성될 수 있다.The topographic map creation unit generates topographic information by extracting a distance on the horizontal line between the point where the first monitoring unit is located and the point where the second monitoring unit is located, the height difference of the terrain, and the slope of the terrain, and generates the topographic information by three-dimensional graphics. It can be configured to create a topographic map.

제1 감시영상에 객체가 인식되고, 제2 감시영상에 객체가 인식되지 않는 경우, 제어부는, 제2 감시부가 객체를 추적하도록 하고, 제2 감시영상에 객체가 인식되면 객체의 객체정보를 생성하도록 하며, 객체가 인식된 지점과 제1 감시부, 제2 감시부, 지점 중 어느 하나 또는 둘 이상이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형도에 반영하도록 제어하도록 구성될 수 있다.When the object is recognized in the first surveillance image and the object is not recognized in the second surveillance image, the controller causes the second surveillance unit to track the object, and generates object information of the object when the object is recognized in the second surveillance image. The distance on the horizontal line, the height difference of the terrain, and the slope of the terrain between the point where the object is recognized and the point where one or more of the first monitoring unit, the second monitoring unit, or two or more points are located are extracted and reflected on the topographic map. Can be configured to control.

제2 감시부는 지형도를 이용하여 객체, 즉 감시물을 추적하도록 구성될 수 있다.The second monitoring unit may be configured to track the object, that is, the surveillance object using the topographic map.

제어부는, 객체가 인식된 지점에서의 객체의 실제높이와 객체가 인식되지 않은 지점에서의 객체의 가상높이를 추출하도록 하고, 객체의 실제높이와 객체의 가상높이를 이용하여 객체가 실제로 위치했던 지점을 추출하며, 객체가 실제로 위치했던 지점과 제1 감시부, 제2 감시부 중 어느 하나 또는 둘 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형정보에 반영하도록 구성될 수 있다.The controller extracts the actual height of the object at the point where the object is recognized and the virtual height of the object at the point where the object is not recognized, and uses the actual height of the object and the virtual height of the object to locate the object. And extract the distance on the horizontal line, the height difference of the terrain, and the slope of the terrain between the point where the object is actually located and one or two of the first monitoring unit and the second monitoring unit to reflect the terrain information. have.

제1 감시부, 제2 감시부 중 어느 하나 또는 둘의 주위에 하나 또는 둘 이상의 특이지점을 지정하고, 특이지점과 제1 감시부, 제2 감시부 중 어느 하나 또는 둘이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형정보에 반영하도록 구성될 수 있다.Designate one or more singular points around either or both of the first and second monitors, and a horizontal line between the singular point and the point at which one or both of the first and second monitors are located. It may be configured to extract the phase distance, the height difference of the terrain and the slope of the terrain to reflect the terrain information.

한편, 본 발명에 따르면 감시 시스템에 있어서, 제1 감시부와; 특정 영역을 감시하는 제2 감시부와; 제1 감시부에 의한 제1 감시영상을 통해 객체가 인식되는 경우, 객체의 폭과 높이정보를 이용하여 객체정보를 생성하는 객체정보생성부와; 및 객체정보를 통해 객체의 종류를 구분하는 객체종류구분부; 및 객체종류구분부에 의해 구분된 객체의 종류에 따라 객체의 감시여부를 판단하며, 판단 결과 객체를 감시하고자 하는 경우 객체정보를 이용하여 제2 감시부가 객체를 감시하도록 제어하는 제어부; 를 포함하는 감시 시스템을 제공한다.Meanwhile, according to the present invention, there is provided a monitoring system comprising: a first monitoring unit; A second monitoring unit for monitoring a specific area; An object information generation unit for generating object information using the width and height information of the object when the object is recognized through the first surveillance image by the first monitoring unit; And an object type classification unit for classifying an object type through object information. And a control unit which determines whether to monitor the object according to the type of the object classified by the object type classification unit, and controls the second monitoring unit to monitor the object by using the object information when the determination result is to monitor the object. It provides a surveillance system comprising a.

제1 감시영상과, 제2 감시부에 의한 제2 감시영상을 이용하여 제1 감시부와 제2 감시부 주위의 지형도를 작성하는 지형도작성부가 포함되고, 객체정보에는 지형도에 따른 객체의 위치정보가 포함되며, 제어부는 객체를 감시하고자 하는 경우 지형도와, 객체의 위치정보가 포함된 객체정보를 이용하도록 구성될 수 있다.A topographic map creation unit for creating a topographic map around the first monitoring unit and the second monitoring unit by using the first surveillance image and the second surveillance image by the second surveillance unit, and the object information includes position information of the object according to the terrain map. The controller may be configured to use a topographic map and object information including location information of the object when the object is to be monitored.

지형도작성부는, 제1 감시부가 위치하는 지점과 제2 감시부가 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형정보를 생성하고, 지형정보를 3차원 그래픽화하여 지형도를 작성하도록 구성될 수 있다.The topographic map creation unit generates topographic information by extracting a distance on the horizontal line between the point where the first monitoring unit is located and the point where the second monitoring unit is located, the height difference of the terrain, and the slope of the terrain, and generates the topographic information by three-dimensional graphics. It can be configured to create a topographic map.

제1 감시영상에 객체가 인식되고, 제2 감시영상에 객체가 인식되지 않는 경우, 제어부는, 제2 감시부가 객체를 추적하도록 하고, 제2 감시영상에 객체가 인식되면 객체의 객체정보를 생성하도록 하며, 객체가 인식된 지점과 제1 감시부, 제2 감시부, 지점 중 어느 하나 또는 둘 이상이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형정보에 반영하도록 구성될 수 있다.When the object is recognized in the first surveillance image and the object is not recognized in the second surveillance image, the controller causes the second surveillance unit to track the object, and generates object information of the object when the object is recognized in the second surveillance image. The distance on the horizontal line, the height difference of the terrain, and the slope of the terrain between the point where the object is recognized and the first monitoring unit, the second monitoring unit, or any one or more of the points are located, and the slope of the terrain is extracted. It can be configured to reflect.

제2 감시부는 지형도를 이용하여 객체를 추적하도록 구성될 수 있다.The second monitoring unit may be configured to track the object using the topographic map.

제어부는, 객체가 인식된 지점에서의 객체의 실제높이를 연산하여 객체가 인식되지 않은 지점에서의 객체의 가상높이를 추출하도록 하고, 객체의 실제높이와 객체의 가상높이를 이용하여 객체가 실제로 위치했던 지점을 추출하며, 객체가 실제로 위치했던 지점과 제1 감시부, 제2 감시부 중 어느 하나 또는 둘 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형정보에 반영하도록 구성될 수 있다.The controller calculates the actual height of the object at the point where the object is recognized to extract the virtual height of the object at the point where the object is not recognized, and uses the actual height of the object and the virtual height of the object to actually position the object. It extracts the point where the object was actually located, and extracts the distance on the horizontal line between the point where the object is actually located, one or both of the first monitoring unit and the second monitoring unit, the height difference of the terrain, and the slope of the terrain to reflect the terrain information. Can be.

제1 감시부, 제2 감시부 중 어느 하나 또는 둘의 주위에 하나 또는 둘 이상의 특이지점을 지정하고, 특이지점과 제1 감시부, 제2 감시부 중 어느 하나 또는 둘이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형정보에 반영하도록 구성될 수 있다.Designate one or more singular points around either or both of the first and second monitors, and a horizontal line between the singular point and the point at which one or both of the first and second monitors are located. It may be configured to extract the phase distance, the height difference of the terrain and the slope of the terrain to reflect the terrain information.

제1 감시부는 어안렌즈 카메라, 초광각렌즈 카메라, 회전줌 카메라 중 어느 하나인 것으로 구성될 수 있다.The first monitoring unit may be configured to be any one of a fisheye lens camera, an ultra wide-angle lens camera, and a rotation zoom camera.

제2 감시부는 회전줌 카메라인 것으로 구성될 수 있다.The second monitoring unit may be configured to be a rotation zoom camera.

지형도작성부, 객체정보생성부, 제어부 중 어느 하나 또는 둘 이상은 제1 감시부에 설치되도록 구성될 수 있다.
One or more of the topographic map creation unit, the object information generation unit, and the control unit may be configured to be installed in the first monitoring unit.

본 발명에 따른 감시 시스템에 의하면, 제1 감시부와 제2 감시부의 감시영상을 통해 주위의 지형정보를 추출하여 3차원 지형도를 제작하고, 이를 통해 효과적인 보안, 감시 및 추적이 이루어질 수 있도록 하는 효과가 있다.According to the monitoring system according to the present invention, by extracting the surrounding topographic information through the surveillance image of the first and second monitoring unit to produce a three-dimensional topographic map, through which the effective security, monitoring and tracking effect can be achieved There is.

또, 본 발명은 제1 감시부와 제2 감시부의 감시영상을 통해 객체의 종류를 구분하고, 구분된 객체의 종류에 따라 감시여부를 판단할 수 있는 효과가 있다.In addition, the present invention has the effect of distinguishing the type of object through the surveillance image of the first monitoring unit and the second monitoring unit, it is possible to determine whether to monitor according to the type of the divided object.

또한, 본 발명은 감시물을 자동 추적하여 감시할 수 있는 효과가 있다.
In addition, the present invention has the effect that can be monitored by automatically monitoring the surveillance.

도 1의 (a) 내지 (d)는 본 발명의 제1 내지 제4 실시예에 따른 감시 시스템의 개략적인 구성도이다.
도 2 및 도 3은 본 발명에 따른 감시 시스템의 제1 감시부에서 사용되는 렌즈의 특성을 나타낸 도면이다.
도 4 내지 도 10은 본 발명에 따른 감시 시스템을 설정하는 상태를 나타낸 도이다.
도 11 및 도 12는 본 발명에 따른 감시 시스템에 의해 감시물을 구분하는 상태를 나타낸 도이다.
도 13 및 도 14는 본 발명에 따른 감시 시스템에서 사용되는 제2 감시부가 감시물을 감시하기 위해 동작되는 상태를 나타낸 도이다.
도 15 및 도 16은 본 발명에 따른 감시 시스템에 의한 감시물 추적이 실패하는 경우 지형도를 수정하기 위해 지형정보를 산출하는 상태를 나타낸 도이다.
1A to 1D are schematic configuration diagrams of a monitoring system according to the first to fourth embodiments of the present invention.
2 and 3 is a view showing the characteristics of the lens used in the first monitoring unit of the monitoring system according to the present invention.
4 to 10 are diagrams showing a state of setting a monitoring system according to the present invention.
11 and 12 are diagrams showing a state in which the monitoring object is divided by the monitoring system according to the present invention.
13 and 14 are views illustrating a state in which the second monitoring unit used in the monitoring system according to the present invention operates to monitor the monitoring object.
15 and 16 are diagrams illustrating a state in which the terrain information is calculated in order to correct the topographic map when tracking of the surveillance object by the monitoring system according to the present invention fails.

이하 도면을 참조하여 상세히 설명한다. 그러나 이들 도면은 예시적인 목적일 뿐, 본 발명이 이에 한정되는 것은 아니다.Hereinafter, with reference to the drawings will be described in detail. However, these drawings are for illustrative purposes only and the present invention is not limited thereto.

도 1의 (a) 내지 (d)는 본 발명의 제1 내지 제4 실시예에 따른 감시 시스템의 개략적인 구성도이다.1A to 1D are schematic configuration diagrams of a monitoring system according to the first to fourth embodiments of the present invention.

먼저, 도 1의 (a)에 도시된 도면은 감시 시스템의 제1 실시예를 나타낸 것으로, 본 발명의 제1 실시예에 따른 감시 시스템은 크게 제1 감시부(MFP)와 제2 감시부(PTZ), 지형도작성부(10), 객체정보생성부(20) 및 제어부(30)를 포함하여 구성되며, 제1 감시부(MFP)가 제2 감시부(PTZ)를 제어하게 된다.First, the diagram shown in (a) of FIG. 1 shows a first embodiment of a monitoring system, and the monitoring system according to the first embodiment of the present invention largely includes a first monitoring unit MFP and a second monitoring unit ( PTZ), the topographic map creation unit 10, the object information generation unit 20 and the control unit 30, the first monitoring unit (MFP) is to control the second monitoring unit (PTZ).

제1 감시부(MFP)는 감시 영역을 감시하고, 감시 영역에서 객체(Object), 즉 감시물을 인식하게 되는 구성요소이며, 원활한 감시를 위해 지표면으로부터 어느 정도 떨어진 공중에 설치된다. 객체(Object)는 제1 감시부(MFP)가 움직임을 인식할 수 있는 물체로써, 사람이나 차량 등이 해당될 수 있으며, 객체(Object)를 인식하기 위해 제1 감시부(MFP)에 의해 촬영되는 제1 감시영상의 전후 프레임을 비교함으로써 객체(Object)의 출현을 인식하도록 구성될 수 있다. 이러한 제1 감시부(MFP)는 어안렌즈 카메라, 초광각렌즈 카메라, 회전줌 카메라 중 어느 하나를 사용할 수 있으며, 본 명세서에서는 제1 감시부(MFP)로써 넓은 지역의 감시가 가능한 어안렌즈 카메라를 사용하는 것을 예로 들어 설명하기로 한다. The first monitoring unit MFP is a component that monitors a monitoring area and recognizes an object, that is, a monitoring object in the monitoring area, and is installed in the air to some extent from the ground for smooth monitoring. The object is an object that the first monitoring unit MFP can recognize a movement, and may correspond to a person or a vehicle, and is photographed by the first monitoring unit MFP to recognize the object. It may be configured to recognize the appearance of the object by comparing the front and rear frames of the first surveillance image to be. The first monitoring unit MFP may use any one of a fisheye lens camera, an ultra wide-angle lens camera, and a rotation zoom camera. In the present specification, the first monitoring unit MFP uses a fisheye lens camera capable of monitoring a large area. This will be described using an example.

제2 감시부(PTZ)는 넓은 지역을 감시하는 제1 감시부(MFP)에 비해 좁은 지역을 집중적으로 감시할 수 있는 구성요소이다. 이러한 제2 감시부(PTZ)는 제1 감시부(MFP)와 마찬가지로 지표면으로부터 어느 정도 떨어진 공중에 설치된다. 제2 감시부(PTZ)로 다양한 카메라가 사용될 수 있으나, 본 발명에서는 회전줌 카메라, 예를 들어 팬(Pan), 틸트(Tilt), 줌(Zoom) 기능을 갖는 PTZ 카메라를 사용하는 것을 예로 들어 설명한다.The second monitoring unit PTZ is a component capable of intensively monitoring a narrow area compared to the first monitoring unit MFP that monitors a large area. Like the first monitoring unit MFP, the second monitoring unit PTZ is installed in the air to some extent from the ground surface. Various cameras may be used as the second monitoring unit PTZ, but in the present invention, for example, a PTZ camera having a pan, tilt, and zoom function may be used. Explain.

지형도작성부(10)는 제1 감시부(MFP)에 의한 제1 감시영상과, 제2 감시부(PTZ)에 의해 촬영되는 제2 감시영상을 이용하여 제1 감시부(MFP)와 제2 감시부(PTZ) 주위의 높낮이 차이에 따른 지형을 지도화하여 지형도를 작성하는 구성요소이다. The topographic map creation unit 10 uses the first monitoring image by the first monitoring unit MFP and the second monitoring image captured by the second monitoring unit PTZ to monitor the first monitoring unit MFP and the second. It is a component that creates a topographic map by mapping the terrain according to the height difference around the monitoring unit (PTZ).

이를 위해 제1 감시부(MFP)로부터 수직하방에 위치하는 지점(이하, "제1 감시부(MFP)가 위치하는 지점" 이라 함)과 제2 감시부(PTZ)로부터 수직하방에 위치하는 지점(이하, "제2 감시부(PTZ)가 위치하는 지점" 이라 함) 사이의 수평선상 거리와, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형정보를 생성하고, 이를 3차원 그래픽화하여 지형도를 작성하게 된다. 여기에, 좀더 실제 지형을 반영한 지형도를 작성하기 위하여 제1 감시부(MFP), 제2 감시부(PTZ) 중 어느 하나 또는 둘의 주위에 하나 또는 둘 이상의 특이지점(P)을 지정하고, 특이지점(P)과 제1 감시부(MFP), 제2 감시부(PTZ) 중 어느 하나 또는 둘이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이를 추출하여 지형정보에 반영하도록 구성될 수 있다. 이때, 특이지점(P)과 제1 감시부(MFP), 제2 감시부(PTZ) 중 어느 하나 또는 둘이 위치하는 지점 사이 지형의 경사도를 추출하여 사용하는 것도 가능하다. For this purpose, a point located vertically downward from the first monitoring unit MFP (hereinafter, referred to as a point at which the first monitoring unit MFP is located) and a point located vertically downward from the second monitoring unit PTZ. (Hereinafter referred to as "the point where the second monitoring unit (PTZ) is located"), the topographical map by extracting the distance on the horizontal line, the height difference of the terrain and the slope of the terrain to generate the topographic map You will write Here, in order to create a topographic map that reflects more real terrain, one or more singular points P are specified around one or two of the first monitoring unit MFP and the second monitoring unit PTZ, The distance on the horizontal line between the point P, the first monitoring unit MFP, and the second monitoring unit PTZ, or the point where the two monitoring units are located may be extracted and reflected in the terrain information. . In this case, it is also possible to extract and use the inclination of the terrain between the point where any one or two of the singular point (P), the first monitoring unit (MFP), the second monitoring unit (PTZ) is located.

객체정보생성부(20)는 제1 감시영상을 통해 객체(Object)가 인식되는 경우, 인식된 객체(Object)의 정보와 지형도작성부(10)에 의해 작성된 지형도에 따른 객체(Object)의 위치를 포함하여 객체정보를 생성하는 구성요소이다. 객체(Object)의 정보에는 객체(Object)의 폭과 높이가 포함될 수 있다.When the object is recognized through the first surveillance image, the object information generation unit 20 may locate the object according to the information of the recognized object and the topographic map created by the topographic map creation unit 10. It is a component that creates object information including. The information of the object may include the width and height of the object.

제어부(30)는 지형도와 객체정보를 이용하여 제2 감시부(PTZ)가 객체(Object)를 감시하도록 제어하는 구성요소이다.The controller 30 is a component that controls the second monitoring unit PTZ to monitor the object using the topographic map and the object information.

그리고, 도 1의 (b)에 도시된 본 발명의 제2 실시예에 따른 감시 시스템은 전술한 제1 실시예와 유사하게 구성되나, 제1 감시부(MFP)가 제2 감시부(PTZ)를 제어하는 제1 실시예와는 달리 지형도작성부(10)와 객체정보생성부(20) 및 제어부(30)가 포함되는 별도의 구성, 예를 들어 통제실에서 제1 감시부(MFP)와 제2 감시부(PTZ)를 제어하도록 구성된다.In addition, the monitoring system according to the second embodiment of the present invention shown in FIG. 1B is configured similarly to the above-described first embodiment, but the first monitoring unit MFP is configured as the second monitoring unit PTZ. Unlike the first embodiment to control the control unit 10, the object information generating unit 20 and the control unit 30, a separate configuration, for example, the first monitoring unit (MFP) and the first control unit in the control room 2 is configured to control the monitoring unit (PTZ).

이와 같이, 본 발명에 따른 감시 시스템은 구성요소, 특히 제어부(30)가 어디에 위치하는지에 따라 제2 감시부(PTZ)를 제어하는 주체가 달라질 수 있으며, 지형도작성부(10)가 제1 감시부(MFP)에 설치되거나, 객체정보생성부(20)가 제1 감시부(MFP)에 설치될 수도 있고, 지형도작성부(10)와 객체정보생성부(20) 모두가 제1 감시부(MFP)에 설치될 수도 있다.As described above, in the monitoring system according to the present invention, subjects controlling the second monitoring unit PTZ may vary according to where components, in particular, the control unit 30 is located, and the topographic drawing unit 10 monitors the first. The MFP may be installed, or the object information generator 20 may be installed in the first monitor MFP, and both the topographic creation unit 10 and the object information generator 20 may be installed in the first monitor. MFP) may be installed.

도 1의 (c)는 본 발명의 제3 실시예에 따른 감시 시스템의 개략적인 구성도로써 제1 실시예와 유사하게 구성되지만, 제1 감시부(MFP)에 지형도작성부(10) 대신 객체종류구분부(40)가 포함된다는 점에서 구분된다. 이때, 본 발명의 제1 실시예에 대한 설명에서 제1 감시부(MFP)와 제2 감시부(PTZ), 객체정보생성부(20) 및 제어부(30)에 대하여 상세히 설명하였으므로 여기에서는 제1 실시예에 는 나타나지 않는 객체종류구분부(40)에 대하여 상세히 설명하기로 한다.FIG. 1C is a schematic configuration diagram of a monitoring system according to a third embodiment of the present invention, similarly to the first embodiment, but instead of the topographic mapper 10 in the first monitoring unit MFP. It is distinguished in that it includes the kind classification unit 40. In this case, since the first monitoring unit MFP, the second monitoring unit PTZ, the object information generating unit 20 and the control unit 30 have been described in detail in the description of the first embodiment of the present invention, the first monitoring unit is described in detail herein. The object type classification unit 40, which does not appear in the embodiment, will be described in detail.

객체종류구분부(40)는 객체정보, 특히 객체의 폭과 높이를 통해 객체(Object)의 종류를 구분하는 구성요소이다. 통상, 감시 시스템이 통상적으로 추적하는 객체는 사람이나 차량이 해당된다. 이에, 사람의 평균적인 체형과 키에 대한 정보와 차량의 대략적인 차폭, 높이(전고;Over-all height)에 대한 정보 등이 기저장되어 있게 된다. 이에, 제1 감시영상에 의해 인식된 객체(Object)의 폭과 높이를 산출하여 기저장된 정보와 비교함으로써 인식된 객체(Object)의 종류, 즉 사람인지 차량인지, 차량이라면 대형차량인지 소형차량인지 등을 판단할 수 있게 된다. 이와 같이 기저장되는 정보는, 본 발명에 따른 감시 시스템이 어떤 물체를 감시하고자 하는지에 따라 다양한 종류에 대한 정보가 사용될 수 있다. 예를 들어 야생동물의 개체수를 확인하고자 하는 경우 해당 야생동물의 폭과 높이에 대한 정보를 기저장하고, 제1 감시영상에 의해 인식된 객체(Object)의 폭과 높이가 개체수를 확인하고자 하는 야생동물에 부합하는지 확인하여 종류를 구분할 수 있는 것이다. 이때, 이와 같이 객체(Object)의 종류를 구분하기 위해 기저장되는 정보는 객체종류구분부(40)에 저장될 수도 있고, 객체종류구분부(40)와 연결되는 별도의 구성, 예를 들어 저장부(도시하지 않음)에 저장될 수도 있다.The object type classification unit 40 is a component for classifying object types through object information, in particular, the width and height of the object. Typically, the objects that a surveillance system typically tracks are people or vehicles. Thus, information on an average body shape and height of a person, an approximate vehicle width, and an information about an over-all height are stored in advance. Accordingly, by calculating the width and height of the object recognized by the first surveillance image and comparing it with previously stored information, the type of the recognized object, that is, whether it is a person or a vehicle, and whether it is a large vehicle or a small vehicle. Etc. can be judged. As previously stored information, information about various kinds may be used according to which object the monitoring system of the present invention intends to monitor. For example, if you want to check the number of wild animals, the information about the width and height of the wild animals is stored in advance, and the width and height of the object recognized by the first surveillance image are wild. It can be identified by matching with the animal. At this time, the information previously stored in order to distinguish the type of the object (Object) may be stored in the object type classification unit 40, a separate configuration connected to the object type classification unit 40, for example, storage It may be stored in a portion (not shown).

이때, 본 발명의 제3 실시예에 따른 감시 시스템에서 사용되는 제어부(30)는 객체종류구분부(40)를 통해 구분된 객체(Object)의 종류에 따라 객체(Object)의 감시여부를 판단하며, 판단 결과 객체(Object)를 감시하고자 하는 경우 객체정보를 이용하여 제2 감시부(PTZ)가 객체(Object)를 감시하도록 제어하게 된다.At this time, the control unit 30 used in the monitoring system according to the third embodiment of the present invention determines whether to monitor the object (Object) according to the type of the object (Object) divided by the object type classification unit 40 As a result of the determination, when the object is to be monitored, the second monitoring unit PTZ is controlled to monitor the object using the object information.

한편, 도 1의 (d)에 도시된 본 발명의 제4 실시예에 따른 감시 시스템은 전술한 제3 실시예와 유사하게 구성되나, 위에서 언급된 각종 구성요소, 즉 지형도작성부(10), 객체정보생성부(20), 제어부(30) 및 객체종류구분부(40)가 제1 감시부(MFP)에 포함된다는 점에서 다른 실시예들과 차이가 있는 것이다. On the other hand, the monitoring system according to the fourth embodiment of the present invention shown in (d) of FIG. 1 is configured similarly to the third embodiment described above, but the various components mentioned above, that is, the topographic drawing section 10, The object information generation unit 20, the control unit 30 and the object type classification unit 40 is different from the other embodiments in that it is included in the first monitoring unit (MFP).

여기서, 본 발명의 제3 및 제4 실시예에 따른 감시 시스템의 경우 제1 실시예와 유사하게 제1 감시부(MFP)가 제2 감시부(PTZ)를 제어하는 것으로 나타내었으나, 이 외에 제2 실시예와 같이 통제실에서 제1 감시부(MFP)와 제2 감시부(PTZ)를 제어하는 것으로 구성할 수도 있다.Herein, in the case of the monitoring system according to the third and fourth embodiments of the present invention, the first monitoring unit MFP is shown to control the second monitoring unit PTZ similarly to the first embodiment. As in the second embodiment, the control room may be configured to control the first monitoring unit MFP and the second monitoring unit PTZ.

한편, 본 발명의 제1 내지 제4 실시예에 따른 감시 시스템을 구성하는 제1 감시부(MFP)와 제2 감시부(PTZ), 지형도작성부(10), 객체정보생성부(20), 제어부(30) 및 객체종류구분부(40)는 네트워크(Network)에 연결된다. 네트워크는 유선 또는 무선 인터넷망이나 인트라넷, 전화망, 위성통신망 또는 모바일망 중 어느 하나 또는 둘 이상의 결합이나 이들과 유사한 네트워크을 사용할 수 있다. 유선 네트워크의 구성은 광케이블을 통한 구성이 바람직하며, 무선 네트워크의 구성은 초광대역(UWB; Ultra Wideband)이나 와이파이(Wi-Fi) 또는 와이브로(Wibro)를 통해 구성할 수 있다. On the other hand, the first monitoring unit (MFP) and the second monitoring unit (PTZ), the topographic map creation unit 10, the object information generation unit 20, constituting the monitoring system according to the first to fourth embodiments of the present invention, The control unit 30 and the object type classification unit 40 are connected to a network. The network may use a wired or wireless Internet network, an intranet, a telephone network, a satellite communication network, or a combination of two or more or similar networks. The wired network is preferably configured through an optical cable, and the wireless network may be configured through ultra wideband (UWB), Wi-Fi, or Wibro.

이 외에도 본 발명의 제1 내지 제4 실시예에 따른 감시 시스템에는 각종 구성요소, 예를 들어 제1 감시부(MFP)와 제2 감시부(PTZ), 지형도작성부(10), 객체정보생성부(20), 제어부(30) 및 객체종류구분부(40)가 네트워크에 연결되도록 하는 접속장치나 데이터베이스, 모듈 등이 포함되어 구성될 수 있으나, 본 발명의 이해를 돕기 위해 본 발명을 구성하는 주요 구성요소 외에 이미 공지되어 사용되고 있는 일반적인 구성요소들에 대한 설명은 생략한다.
In addition to the monitoring system according to the first to fourth embodiments of the present invention, various components, for example, the first monitoring unit (MFP) and the second monitoring unit (PTZ), the topographic map creation unit 10, object information generation The unit 20, the control unit 30 and the object type classification unit 40 may be configured to include a connection device, a database, a module, etc. to be connected to the network, but it is configured to help the understanding of the present invention In addition to the main components, descriptions of general components already known and used will be omitted.

이하에서는, 도 1의 (d)에 도시된 본 발명의 제4 실시예에 따른 감시 시스템을 활용하는 것을 예로 들어 설명한다.Hereinafter, a description will be given taking the use of the monitoring system according to the fourth embodiment of the present invention shown in FIG.

도 2 및 도 3은 본 발명에 따른 감시 시스템의 제1 감시부(MFP)에서 사용되는 렌즈의 특성을 나타낸 도면이다.2 and 3 are views showing the characteristics of the lens used in the first monitoring unit (MFP) of the monitoring system according to the present invention.

본 발명에서 사용되는 제1 감시부(MFP), 즉 어안렌즈 카메라에 의해 촬영되는 영상(제1 감시영상)을 해석하기 용이한 렌즈로 등거리사영(Equidistance Projection)의 특성을 갖는 어안렌즈를 들 수 있다.The first surveillance unit (MFP) used in the present invention, that is, a lens that is easy to interpret an image (first surveillance image) photographed by a fisheye lens camera, may include a fisheye lens having the characteristics of equidistance projection. have.

이는 도 2에 도시된 것과 같이, 렌즈의 초점거리를 "F" 라 하고, 렌즈를 통해서 카메라가 이미지를 담을 수 있도록 상이 맺히는 각도(화각;Angle of view)를 "θ" 라 하며, 렌즈에 상이 맺히는 높이(상고;像高)를 "Y" 라고 할 때, "Y=Fθ" 라는 간단한 공식을 이용하여 구할 수 있기 때문이며, 이하에서 언급되는 어안렌즈는 이와 같이 등거리사영의 특성을 갖는 어안렌즈를 의미한다.As shown in FIG. 2, the focal length of the lens is referred to as "F", and the angle (angle of view) (Angle of view) that forms an image so that the camera can capture an image through the lens is referred to as "θ". This is because when the height to be formed is "Y", it can be obtained by using a simple formula of "Y = Fθ", and the fisheye lens mentioned below uses a fisheye lens having such an equidistant projection characteristic. it means.

그리고, 도 3은 본 발명에서 사용되는 어안렌즈 카메라에 의한 영상, 즉 제1 감시영상의 해석에 필요한 기준을 나타내기 위한 것으로, 본 발명에서는 제1 감시영상의 해석시 항상 다음 기준에 의하여 접근한다.In addition, FIG. 3 is a diagram illustrating a criterion necessary for analyzing an image of a fisheye lens camera used in the present invention, that is, a first surveillance image. In the present invention, the present invention always approaches the following criteria when interpreting a first surveillance image. .

첫째, 제1 감시영상의 중심은 극좌표계의 원점에 대응된다.First, the center of the first surveillance image corresponds to the origin of the polar coordinate system.

둘째, 제1 감시영상의 원주(Circumference)에 대응되는 각도(F°)는 어안렌즈의 화각의 1/2이다.Second, the angle F ° corresponding to the circumference of the first surveillance image is 1/2 of the angle of view of the fisheye lens.

셋째, 제1 감시영상의 중심에서부터 원주까지의 거리(T)는 F°에 대응된다.Third, the distance T from the center of the first surveillance image to the circumference corresponds to F °.

넷째, 제1 감시영상에서 객체(Object)까지의 거리(L)는 다음의 수학식 1에 의해 쉽게 원점과 객체 간의 각도(Object°)로 변환이 가능하다.Fourth, the distance (L) from the first surveillance image to the object can be easily converted into an angle (Object °) between the origin and the object by the following equation (1).

Figure pat00001
Figure pat00001

도 4 내지 도 10은 본 발명에 따른 감시 시스템을 설정하는 상태를 나타낸 도이다.4 to 10 are diagrams showing a state of setting a monitoring system according to the present invention.

우선, 도 4의 (a)는 본 발명에 따른 감시 시스템을 설정하기 위해 작업자가 제1 감시부(MFP)로부터 일정 거리 떨어진 지점에 특정 표지를 놓고 제1 감시부(MFP)로부터 수직하방의 지표면까지 거리(MFPH; 이하, "제1 감시부(MFP)의 높이"라 함)를 측정하는 상태를 나타낸 것이고, 도 4의 (b)는 특정 표지가 위치한 지점이 제1 감시부(MFP)에 의한 제1 감시영상에 나타나는 상태를 나타낸 것이다.First, Figure 4 (a) is a ground surface vertically downward from the first monitoring unit (MFP) by placing a specific mark at a point away from the first monitoring unit (MFP) to set the monitoring system according to the present invention Distance (MFPH; hereinafter referred to as "height of the first monitoring unit (MFP)") is a state that is measured, Figure 4 (b) is a point where a specific mark is located in the first monitoring unit (MFP) It shows the state appearing in the first surveillance image.

이때, 제1 감시부(MFP)가 위치하는 지점과 특정 표지가 위치하는 지점 사이의 거리(L)는 작업자가 미리 정해놓은 거리, 예를 들어 1m나 2m 등으로 떨어져 배치되도록 한다. 이외에, 길이가 정해져 있는 봉을 제1 감시부(MFP)가 위치하는 지점으로부터 일정 거리로 지표면에 눕혀놓고 봉의 말단까지의 거리를 쉽게 알 수 있도록 하여 사용할 수도 있다.In this case, the distance L between the point where the first monitoring unit MFP is located and the point where the specific mark is located may be arranged to be separated by a predetermined distance, for example, 1 m or 2 m. In addition, the rod having a predetermined length may be laid on the ground surface at a predetermined distance from the point where the first monitoring unit MFP is located, and the rod to the end of the rod may be easily known.

즉, 제1 감시부(MFP)가 위치하는 지점과 특정 표지가 위치하는 지점 사이의 거리(L)를 인지하고 있으므로, 전술한 수학식 1에 의해 제1 감시영상에서 원점과 특정 표지가 위치하는 지점 간의 각도(Object°)로 변환할 수 있다.That is, since the distance L between the point where the first monitoring unit MFP is located and the point where the specific mark is located is recognized, the origin and the specific mark are located in the first surveillance image by Equation 1 described above. You can convert it to an angle between points (Object °).

따라서, 제1 감시부(MFP)와 제1 감시부(MFP)가 위치하는 지점, 그리고 특정 표지가 위치하는 지점 사이에 가상의 직각삼각형 형상이 이루어지게 되며, 제1 감시부(MFP)가 위치하는 지점과 특정 표지가 위치하는 지점 사이의 거리(L)와, 제1 감시영상에서 원점과 특정 표지가 위치하는 지점 간의 각도(Object°), 즉 제1 감시부(MFP)가 특정 표지가 위치한 지점을 바라보는 각도를 알게 되므로 다음의 수학식 2를 이용하여 제1 감시부(MFP)의 높이(MFPH)를 구할 수 있게 된다.Therefore, a virtual right triangle shape is formed between the point where the first monitoring unit MFP and the first monitoring unit MFP are located, and the point where a specific mark is located, and the first monitoring unit MFP is located. Distance (L) between the point where the specific mark is located and the point where the specific mark is located, and the angle (Object °) between the origin and the point where the specific mark is located in the first surveillance image, that is, the first monitoring unit (MFP) is located. Since the angle of looking at the point is known, the height MFPH of the first monitoring unit MFP can be obtained using Equation 2 below.

Figure pat00002
Figure pat00002

이와 같이 제1 감시부(MFP)의 높이(MFPH)를 특정 표지를 이용하여 연산할 수 있으며, 이 외에 작업자가 실측하여 구할 수도 있다.
In this manner, the height MFPH of the first monitoring unit MFP may be calculated using a specific mark, and in addition, the operator may actually measure and obtain the height MFPH.

도 5는 도 4와 같이 본 발명에 따른 감시 시스템을 설정하기 위해 작업자가 제2 감시부(PTZ)로부터 일정 거리 떨어진 지점에 특정 표지를 놓고 제2 감시부(PTZ)로부터 수직하방의 지표면까지 거리(PTZH; 이하, "제2 감시부(PTZ)의 높이"라 함)를 측정하는 상태를 나타낸 것이다.FIG. 5 is a distance from the second monitoring unit PTZ to the ground surface vertically from the second monitoring unit PTZ by placing a specific mark at a point away from the second monitoring unit PTZ to set up the monitoring system according to the present invention as shown in FIG. 4. (PTZH; hereafter referred to as "the height of the second monitoring unit PTZ") is shown.

이러한 과정은 제1 감시부(MFP)의 경우와 유사하게 이루어지는데, 먼저 제2 감시부(PTZ)가 제2 감시부(PTZ)가 위치하는 지점을 바라보게 한 후 특정 표지가 위치하는 지점을 바라보도록 동작시키게 된다.This process is similar to the case of the first monitoring unit (MFP). First, the second monitoring unit (PTZ) looks at the point where the second monitoring unit (PTZ) is located, and then the point where the specific mark is located. To look at it.

이에 따라 제2 감시부(PTZ)에 의한 제2 감시영상 중앙에 특정 표지가 위치하는 지점이 나타나도록 하기 위해 회전하는 각도(Object°)를 추출할 수 있으므로, 제2 감시부(PTZ)가 위치하는 지점과 특정 표지가 위치하는 지점 사이의 거리(L)를 이용하여 수학식 2와 유사한 수학식 3에 의해 제2 감시부(PTZ)의 높이(PTZH)를 구할 수 있게 된다.Accordingly, the angle of rotation (Object °) can be extracted so that the point where the specific mark is located in the center of the second surveillance image by the second surveillance unit PTZ is extracted, so that the second surveillance unit PTZ is positioned. The height PTZH of the second monitoring unit PTZ can be obtained by using Equation 3 similar to Equation 2 using the distance L between the point where the specific mark is located and the point where the specific mark is located.

Figure pat00003
Figure pat00003

제1 감시부(MFP)에서와 마찬가지로, 제2 감시부(PTZ)의 높이(PTZH)는 작업자가 실측하여 구할 수 있다.
As in the first monitoring unit MFP, the height PTZH of the second monitoring unit PTZ can be measured and obtained by an operator.

도 6에는 제1 감시영상에 제2 감시부(PTZ)가 위치하는 지점이 나타나 있다.FIG. 6 shows a position where the second monitoring unit PTZ is located in the first surveillance image.

이때, 도시된 제1 감시영상에서 표시된 "MFPF°"은 제1 감시부(MFP)를 통해 제2 감시부(PTZ)가 위치하는 지점을 바라보는 각도로써, 전술한 도 3의 설명에 기재된 수학식 1과 같이 다음의 수학식 4로 나타낼 수 있다.In this case, the “MFPF °” displayed in the first surveillance image shown is an angle of looking at a point where the second surveillance unit PTZ is positioned through the first surveillance unit MFP, and is described in the above description of FIG. 3. Like Equation 1, it can be represented by the following Equation 4.

Figure pat00004
Figure pat00004

전술한 도 4 내지 도 6은 제1 감시부(MFP)와 제2 감시부(PTZ), 그리고 특정 표지가 위치하는 지점이 지형상의 높낮이 차이가 없는 동일한 높이, 즉 같은 수평선상에 위치하는 경우를 나타낸 것이며, 실제로 본 발명에 따른 감시 시스템을 설치하는 경우 제1 감시부(MFP)와 제2 감시부(PTZ) 사이에 지형적인 높낮이 차이가 발생할 수 있다.4 to 6 illustrate a case where the first monitoring unit MFP, the second monitoring unit PTZ, and a specific mark are located at the same height, that is, on the same horizontal line without height difference on the terrain. In fact, when installing the monitoring system according to the present invention, there may occur a topographic height difference between the first monitoring unit (MFP) and the second monitoring unit (PTZ).

이에, 도 7은 제1 감시부(MFP)와 제2 감시부(PTZ)가 설치된 지역에 따라 제1 감시부(MFP)가 위치하는 지점과 제2 감시부(PTZ)가 위치하는 지점 사이 지형의 높낮이 차이(C)와 수평선상의 거리(D), 지형의 경사도(PTZC°, MFPC°)를 산출하는 것을 나타낸 것이다. 이때, 도 7에서는 제1 감시부(MFP)가 위치하는 지점이 제2 감시부(PTZ)가 위치하는 지점보다 높은 위치인 것으로 도시되어 있으나, 지역에 따라 제1 감시부(MFP)가 제2 감시부(PTZ)보다 더 낮은 위치에 설치될 수도 있다.Therefore, FIG. 7 illustrates a terrain between a point where the first monitor MFP is located and a point where the second monitor PTZ is located according to a region where the first monitor MFP and the second monitor PTZ are installed. It is shown that the height difference (C) and the distance (D) on the horizon and the slope of the terrain (PTZC °, MFPC °) are calculated. In this case, in FIG. 7, the point where the first monitoring unit MFP is located is higher than the point where the second monitoring unit PTZ is located, but according to a region, the first monitoring unit MFP may have a second position. It may be installed at a lower position than the monitoring unit PTZ.

우선, 제1 감시부(MFP)를 통해 제2 감시부(PTZ)가 위치하는 지점을 바라보는 각도(MFPF°)는 도 6의 설명에 기재된 수학식 4를 이용하여 산출할 수 있다.First, the angle MFPF ° of looking at the point where the second monitoring unit PTZ is located through the first monitoring unit MFP may be calculated using Equation 4 described in FIG. 6.

그리고, 제2 감시부(PTZ)를 통해 제1 감시부(MFP)가 위치하는 지점을 바라보는 각도(PTZR°)를 구하게 되는데, 이러한 과정은 전술한 도 5의 특정 표지 대신 제1 감시부(MFP)가 사용된다는 점을 제외하면 동일하다. 즉, 제2 감시부(PTZ)를 통해 제2 감시부(PTZ)가 위치하는 지점을 바라보게 한 후 제1 감시부(MFP)가 위치하는 지점을 바라보기 위해 회전하는 각도를 추출하여 제2 감시부(PTZ)를 통해 제1 감시부(MFP)가 위치하는 지점을 바라보는 각도(PTZR°)를 산출할 수 있다.In addition, an angle PTZR ° of looking at a point at which the first monitoring unit MFP is located is obtained through the second monitoring unit PTZ. The same is true except that MFP) is used. That is, the second monitoring unit (PTZ) to look at the point where the second monitoring unit (PTZ) is located after extracting the angle to rotate to look at the point where the first monitoring unit (MFP) is located by the second Through the monitoring unit PTZ, the angle PTZR ° of looking at the point where the first monitoring unit MFP is located may be calculated.

그리고, 제1 감시부(MFP)를 통해 제2 감시부(PTZ)가 위치하는 지점을 바라보는 가상의 선과, 제2 감시부(PTZ)를 통해 제1 감시부(MFP)가 위치하는 지점을 바라보는 가상의 선이 교차하는 가상의 교차점을 두고, 제1 감시부(MFP)에서 가상의 교차점까지의 거리(A)를 하기의 수학식 5를 이용하여 구한다. 이때, 제1 감시부(MFP)의 높이(MFPH)는 전술한 도 4의 설명에 기재되어 있는 수학식 2에 의해 구해진다.A virtual line looking at the point where the second monitoring unit PTZ is located through the first monitoring unit MFP and a point at which the first monitoring unit MFP is located through the second monitoring unit PTZ are located. With the virtual intersection point at which the virtual line viewed intersect, the distance A from the first monitoring unit MFP to the virtual intersection point is obtained using Equation 5 below. At this time, the height MFPH of the first monitoring unit MFP is obtained by Equation 2 described in the above description of FIG. 4.

Figure pat00005
Figure pat00005

마찬가지로, 제2 감시부(PTZ)에서 가상의 교차점까지의 거리(B)를 하기의 수학식 6를 이용하여 구하며, 제2 감시부(PTZ)의 높이(PTZH)는 도 5의 설명에 기재되어 있는 수학식 3에 의해 구해진다.Similarly, the distance B from the second monitoring unit PTZ to the virtual intersection point is obtained using Equation 6 below, and the height PTZH of the second monitoring unit PTZ is described in the description of FIG. 5. It is obtained by the following equation.

Figure pat00006
Figure pat00006

이러한 과정을 거쳐 구한 MFPF°, PTZR°, A 및 B를 이용하여 제1 감시부(MFP)가 위치하는 지점과 제2 감시부(PTZ)가 위치하는 지점 사이 지형의 높낮이 차이(C)를 하기의 수학식 7에 의해 구할 수 있다.Using the MFPF °, PTZR °, A and B obtained through this process, the height difference (C) of the terrain between the point where the first monitoring unit (MFP) is located and the point where the second monitoring unit (PTZ) is located is Can be obtained by the following equation.

Figure pat00007
Figure pat00007

다음, 제1 감시부(MFP)와 제2 감시부(PTZ)가 동일한 높이의 지점에 위치한다고 했을 때의 거리, 즉 제1 감시부(MFP)가 위치하는 지점과 제2 감시부(PTZ)가 위치하는 지점 사이의 수평선상의 거리(D)를 하기의 수학식 8에 의해 구한다.Next, the distance when the first monitoring unit MFP and the second monitoring unit PTZ are located at the same height, that is, the point where the first monitoring unit MFP is located and the second monitoring unit PTZ are located. The distance D on the horizontal line between the points where is located is obtained by the following equation (8).

Figure pat00008
Figure pat00008

그리고, 제1 감시부(MFP)가 위치하는 지점과 제2 감시부(PTZ)가 위치하는 지점 사이 지형의 경사도(PTZC°, MFPC°)는 수학식 9 및 10에 의해 구할 수 있다.The slopes PTZC ° and MFPC ° of the terrain between the point where the first monitoring unit MFP is located and the point where the second monitoring unit PTZ is located can be obtained by Equations 9 and 10.

Figure pat00009
Figure pat00009

Figure pat00010
Figure pat00010

도 8의 (a) 내지 (c)는 지형도작성부(10)를 이용하여 제1 감시부(MFP)와 다수의 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4) 주위의 지형도를 작성하는 상태를 나타낸 것이다.8A to 8C illustrate a first monitoring unit MFP and a plurality of second monitoring units PTZ-1, PTZ-2, PTZ-3, and PTZ-4 using the topographic mapper 10. ) Shows the state of creating a topographic map around it.

도 8의 (a)는 도 6과 같이 제1 감시부(MFP)에 의한 제1 감시영상에서 제1 감시부(MFP)가 위치하는 지점과 다수의 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4)가 위치하는 지점이 나타나는 것을 도시한 것이다. 이러한 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4)의 개수는 감시 지역의 환경이나 설치비용 등에 따라 가감이 가능하다.FIG. 8A illustrates a position where the first monitoring unit MFP is located and a plurality of second monitoring units PTZ-1 and PTZ- in the first surveillance image by the first monitoring unit MFP as shown in FIG. 6. 2, PTZ-3, PTZ-4) shows the position where the location appears. The number of the second monitoring units PTZ-1, PTZ-2, PTZ-3, PTZ-4 can be added or subtracted according to the environment or installation cost of the monitoring area.

이러한 상태에서, 도 4 및 도 5의 설명에서와 같이 제1 감시부(MFP)의 높이(MFPH) 및 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4) 각각의 높이(PTZH)를 구하고, 도 6 및 도 7의 설명과 같이 제1 감시부(MFP)를 통해 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4)가 위치하는 지점을 바라보는 각도(MFPF°), 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4)를 통해 제1 감시부(MFP)가 위치하는 지점을 바라보는 각도(PTZR°), 제1 감시부(MFP)에서 가상의 교차점까지의 거리(A), 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4)에서 가상의 교차점까지의 거리(B), 제1 감시부(MFP)가 위치하는 지점과 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4)가 위치하는 지점 사이 지형의 높낮이 차이(C), 수평선상의 거리(D), 지형의 경사도(PTZC°, MFPC°)를 구하여 지형정보를 생성할 수 있다.In this state, the height MFPH of the first monitoring unit MFP and the second monitoring units PTZ-1, PTZ-2, PTZ-3, and PTZ-4, respectively, as described in FIGS. 4 and 5. The height PTZH is obtained, and the points where the second monitoring units PTZ-1, PTZ-2, PTZ-3, and PTZ-4 are located through the first monitoring unit MFP as described in FIGS. 6 and 7 are described. Angle of view (MFPF °), angle of view of the point where the first monitoring unit (MFP) is located through the second monitoring unit (PTZ-1, PTZ-2, PTZ-3, PTZ-4) ), The distance from the first monitoring unit (MFP) to the virtual intersection point (A), the distance from the second monitoring unit (PTZ-1, PTZ-2, PTZ-3, PTZ-4) to the virtual intersection point (B) ), The height difference of the terrain (C) between the point where the first monitoring unit (MFP) is located and the point where the second monitoring unit (PTZ-1, PTZ-2, PTZ-3, PTZ-4) is located, on the horizontal line The terrain information can be generated by obtaining the distance D and the slope of the terrain (PTZC °, MFPC °).

도 8의 (b)와 (c)에는 이와 같이 생성된 지형정보를 이용하여 지형도가 작성되는 것이 나타나 있다. 즉, 제1 감시부(MFP)와 다수의 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4) 각각에 대한 지형의 높낮이 차이(C), 수평선상의 거리(D)에 따라 이를 3차원 그래픽화하여 나타내고, 제1 감시부(MFP)가 위치하는 지점을 중심으로 제1 감시부(MFP)와 다수의 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4) 각각의 지형의 경사도(PTZC°, MFPC°)에 따라 각각의 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4)가 위치하는 지점을 연결하여 정리함으로써 제1 감시부(MFP)와 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4) 주위 지형의 대략적인 고저차를 입체적으로 판단할 수 있는 가상의 지형도를 작성할 수 있게 되는 것이다.
8 (b) and (c) show that a topographic map is created using the topographic information generated as described above. That is, the height difference (C) of the terrain for each of the first monitoring unit (MFP) and the plurality of second monitoring units (PTZ-1, PTZ-2, PTZ-3, PTZ-4), the distance (D) on the horizontal line According to the three-dimensional graphics, the first monitoring unit (MFP) and the plurality of second monitoring units (PTZ-1, PTZ-2, PTZ-3) around the point where the first monitoring unit (MFP) is located , PTZ-4) Organize by connecting the points where the second monitoring units (PTZ-1, PTZ-2, PTZ-3, PTZ-4) are located according to the slope (PTZC °, MFPC °) of each terrain. This allows the creation of a virtual topographical map that can determine in three dimensions the approximate elevation of the terrain around the first monitoring unit (MFP) and the second monitoring unit (PTZ-1, PTZ-2, PTZ-3, PTZ-4). Will be.

도 9와 도 10의 (a) 및 (b)는 도 8의 설명과 같이 작성되는 지형도에 비해 좀더 실제 지형을 반영한 지형도를 작성하는 것을 나타낸다.9 and 10 (a) and (b) show that a topographic map reflecting a more real terrain is prepared as compared to the topographic map created as described in FIG. 8.

이를 위해 제1 감시부(MFP), 제2 감시부(PTZ) 중 어느 하나 또는 둘의 주위에 도 4나 도 5에서 사용되는 것과 같이 특정 표지를 특이지점(P)에 위치시킨다. 여기서, 도 4나 도 5의 설명에서 특정 표지를 위치시키는 것과 다른 점은, 도 4나 도 5에서는 특정 표지가 위치하는 지점이 작업자가 미리 정해놓은 거리만큼 떨어져 배치되고, 제1 감시부(MFP)와 제2 감시부(PTZ)를 연결하는 가상의 선상에 위치되는 것에 비해, 여기에서는 특정 표지가 위치된 특이지점(P)까지의 거리를 알 수 없고, 특정 표지가 위치된 특이지점(P)이 제1 감시부(MFP)와 제2 감시부(PTZ)를 연결하는 가상의 선상에 위치하지 않을 수 있다는 점에서 차이가 있다. 즉, 제1 감시영상에서 특정 표지를 인식할 수 있는 정도의 거리로 떨어져 있는 특이지점(P)에 특정 표지를 위치시키는 것이며, 특정 표지가 위치하는 특이지점(P)은 제1 감시부(MFP)나 제2 감시부(PTZ) 주위에 형성되어 있는 비탈이나 돌출 지형 등 특이 지형이 형성되어 있는 곳이 해당될 수 있다. 따라서, 도 4나 도 5의 설명에서는 제1 감시부(MFP)나 제2 감시부(PTZ)가 특정 표지가 위치한 지점을 바라보는 각도가 각각 "MFPF°"와 "PTZR°" 의 하나만 표시되지만, 여기에서는 제1 감시부(MFP)나 제2 감시부(PTZ)가 특정 표지가 위치한 특이지점(P)을 바라보기 위해 필요한 각도가 2가지, 예를 들어 상하방향의 각도와 좌우방향의 각도가 필요하게 된다.For this purpose, a specific mark is positioned at a specific point P as used in FIG. 4 or FIG. 5 around one or two of the first monitoring unit MFP and the second monitoring unit PTZ. Here, the difference from positioning the specific mark in the description of FIG. 4 and FIG. 5 is that, in FIG. 4 or FIG. 5, the point at which the specific mark is located is disposed apart by a predetermined distance from the operator, and the first monitoring unit (MFP). ) And the distance to the singular point (P) where a specific mark is located is not known, and the singular point (P) where the specific mark is located is compared to the virtual line connecting the second monitoring unit (PTZ). ) May not be located on an imaginary line connecting the first monitoring unit MFP and the second monitoring unit PTZ. That is, the specific marker is positioned at the singular point P which is separated by a distance enough to recognize the specific marker in the first surveillance image, and the singular point P where the specific marker is located is the first monitoring unit MFP. ) Or a region in which unusual terrain is formed, such as a slope or a protruding terrain formed around the second monitoring unit PTZ. Therefore, in the description of FIGS. 4 and 5, only one angle of “MFPF °” and “PTZR °” is displayed for the first monitoring unit MFP or the second monitoring unit PTZ to look at the point where a specific mark is located. In this case, the first monitoring unit (MFP) or the second monitoring unit (PTZ) has two angles required to look at the singular point (P) where a specific mark is located, for example, the angle in the vertical direction and the left and right angles Will be needed.

다시 말해서, 도 9에서 제2 감시부(PTZ)를 통해 특정 표지가 위치하는 특이지점(P)을 바라보는 각도(PTZVER°), 즉 상하(틸트; Tilt)방향의 각도는 제2 감시부(PTZ)를 통해 제2 감시부(PTZ)가 위치하는 지점을 바라보게 한 후 특정 표지가 위치하는 특이지점을 바라보기 위해 회전하는 각도를 추출하여 구할 수 있고, 제2 감시부(PTZ)를 통해 제1 감시부(MFP)를 바라보는 시점을 기준으로 특정 표지가 위치하는 특이지점(P)을 바라보기 위해 회전하는 각도를 추출하여 좌우(팬; Pan)방향의 각도(PTZHOR°)를 구할 수 있다.In other words, in FIG. 9, the angle (PTZVER °), ie, the up-down (tilt; Tilt) direction of looking at the singular point P at which the specific mark is located through the second monitoring unit PTZ, is determined by the second monitoring unit (PTZ). PTZ) to look at the point where the second monitoring unit (PTZ) is located, and then extract the angle of rotation to look at the singular point where a specific mark is located, and obtain it through the second monitoring unit (PTZ). Based on the point of view of the first monitoring unit (MFP), the angle of rotation (PTZHOR °) in the left and right (pan) direction can be obtained by extracting the angle of rotation to look at the singular point (P) where the specific mark is located. have.

그리고, 제1 감시부(MFP)를 통해 특정 표지가 위치하는 특이지점(P)을 바라보는 상하방향의 각도(MFPVER°)는 수학식 4를 통해 구할 수 있고, 제1 감시부(MFP)의 좌우방향의 각도(MFPVER°)는 제1 감시부(MFP)에 의한 제1 감시영상의 원점에서 특정 표지가 위치하는 특이지점(P)까지 극좌표계 상의 회전각을 추출하여 구할 수 있다.In addition, the up-down angle (MFPVER °) looking at the singular point (P) where the specific mark is located through the first monitoring unit (MFP) can be obtained through Equation 4, and the first monitoring unit (MFP) The left and right angles MFPVER ° may be obtained by extracting a rotation angle on the polar coordinate system from the origin of the first surveillance image by the first monitoring unit MFP to the singular point P where the specific mark is located.

다음, 도 8의 설명과 같이 작성된 지형도 상에서 제1 감시부(MFP)가 위치하는 지점의 높이에, 도 4의 설명에 기재되어 있는 수학식 2를 이용하여 산출한 제1 감시부(MFP)의 높이(MFPH)를 더하여 "MFPRH" 를 설정하고, 동일한 방법으로 "PTZRH" 를 설정한다.Next, the height of the point where the first monitoring unit MFP is located on the topographical map created as described in FIG. 8, of the first monitoring unit MFP calculated using Equation 2 described in the description of FIG. 4. Add height MFPH to set "MFPRH" and set "PTZRH" in the same way.

제1 감시부(MFP)가 위치하는 지점과 제2 감시부(PTZ)가 위치하는 지점 사이의 수평선상의 거리(D)는 도 7의 설명 중 수학식 8에 의해 구해진다.The distance D on the horizontal line between the point where the first monitoring unit MFP is located and the point where the second monitoring unit PTZ is located is calculated by Equation 8 in the description of FIG. 7.

따라서, 제1 감시부(MFP)와 특정 표지가 위치하는 특이지점(P), 그리고 제2 감시부(PTZ) 사이를 연결하는 가상의 삼각형 형상이 이루어지게 되고, 제1 감시부(MFP)가 위치하는 지점과 제2 감시부(PTZ)가 위치하는 지점 사이의 수평선상의 거리(D)와 제1 감시부(MFP)에서 특정 표지가 위치하는 특이지점(P)을 바라보는 좌우방향의 각도(MFPVER°), 그리고 제2 감시부(PTZ)가 특정 표지가 위치하는 특이지점(P)을 바라보기 위한 좌우(팬)방향의 각도(PTZHOR°)를 알고 있으므로 제1 감시부(MFP)와 특정 표지가 위치하는 특이지점(P) 사이의 거리(E)와, 제2 감시부(PTZ)와 특정 표지가 위치하는 특이지점(P) 사이의 거리(F)는 다음의 수학식 11 및 12에 의해 구할 수 있다.Accordingly, a virtual triangular shape is formed between the first monitoring unit MFP, the singular point P where the specific mark is located, and the second monitoring unit PTZ, and the first monitoring unit MFP is The angle D in the horizontal direction between the position D and the position where the second monitoring unit PTZ is located and the distance D on the horizontal line and the singular point P where the specific mark is located in the first monitoring unit MFP ( MFPVER °) and the second monitoring unit (PTZ) knows the angle (PTZHOR °) in the left and right (pan) direction for looking at the singular point (P) where the specific mark is located, so that the second monitoring unit (PTZ) The distance E between the singular point P at which the mark is located and the distance F between the second monitoring unit PTZ and the singular point P at which the specific mark are located are shown in Equations 11 and 12 below. Can be obtained by

Figure pat00011
Figure pat00011

Figure pat00012
Figure pat00012

그리고, 제1 감시부(MFP)와 특정 표지가 위치하는 특이지점(P), 그리고 제1 감시부(MFP)로부터 수직하방을 바라보는 방향 사이에 가상의 직각삼각형 형상이 이루어지게 되고, 제2 감시부(PTZ)와 특정 표지가 위치하는 특이지점(P), 제2 감시부(PTZ)로부터 수직하방을 바라보는 방향 사이에도 가상의 직각삼각형 형상이 이루어지게 된다.In addition, a virtual right triangle is formed between the first monitoring unit MFP, the singular point P at which the specific mark is located, and the direction of looking downward from the first monitoring unit MFP, and the second A virtual right triangle is also formed between the monitoring unit PTZ, the singular point P where the specific mark is located, and the direction looking downward from the second monitoring unit PTZ.

수학식 11과 12에 의해 제1 감시부(MFP)와 특정 표지가 위치하는 특이지점(P) 사이의 거리(E), 제2 감시부(PTZ)와 특정 표지가 위치하는 특이지점(P) 사이의 거리(F)를 산출하였고, 제1 감시부(MFP)가 특정 표지가 위치하는 특이지점(P)을 바라보는 상하방향의 각도(MFPVER°)와 제2 감시부(PTZ)가 특정 표지가 위치하는 특이지점을 바라보는 상하방향의 각도(PTZVER°)를 알고 있으므로, 하기의 수학식 13과 14를 통해 "STMFPH" 와 "STPTZH" 를 구할 수 있다.According to Equations 11 and 12, the distance E between the first monitoring unit MFP and the singular point P at which the specific mark is located, and the singular point P at which the second monitoring unit PTZ and the specific mark are located The distance F between the first and second monitoring units MFPVER ° and the second monitoring unit PTZ in which the first monitoring unit MFP faces the singular point P where the specific marking is located are calculated. Since the vertical direction (PTZVER °) looking at the singular point where is located is known, "STMFPH" and "STPTZH" can be obtained through the following equations (13) and (14).

Figure pat00013
Figure pat00013

Figure pat00014
Figure pat00014

즉, "STMFPH" 와 "STPTZH"를 구하게 되면 미리 설정된 "MFPRH" 와 "PTZRH"를 이용하여 "STH=MFPRH-STMFPH" 또는 "STH=PTZRH-STPTZH" 와 같은 수식의 연산을 통해 제1 감시부(MFP) 또는 제2 감시부(PTZ)가 위치하는 지점과 특정 표지가 위치하는 특이지점(P) 사이 지형의 높낮이 차이(STH)를 구할 수 있게 된다.That is, when "STMFPH" and "STPTZH" are obtained, the first monitoring unit is operated by calculating an expression such as "STH = MFPRH-STMFPH" or "STH = PTZRH-STPTZH" using the preset "MFPRH" and "PTZRH". The height difference (STH) of the terrain between the point where the MFP or the second monitoring unit PTZ is located and the singular point P where the specific mark is located can be obtained.

이렇게 산출된 각종 정보는 도 10의 (a) 내지 (c)에 도시된 것과 같이 지형정보에 반영되어 좀 더 실제적인 지형도가 작성된다.The various types of information thus calculated are reflected in the terrain information as shown in FIGS. 10A to 10C to create a more realistic topographical map.

도 10의 (a)에는 제1 감시영상에서 다수의 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4)가 위치하는 지점과 다수의 특정 표지가 위치하는 특이지점(P-1, P-2, P-3)이 각각 나타나 있다. 이러한 특정 표지가 위치하는 특이지점(P-1, P-2, P-3)의 개수는 상황에 따라 가감할 수 있다.FIG. 10A illustrates a point where a plurality of second monitoring units PTZ-1, PTZ-2, PTZ-3, and PTZ-4 are located in a first surveillance image and a singular point where a plurality of specific marks are located ( P-1, P-2 and P-3) are shown, respectively. The number of singular points (P-1, P-2, P-3) in which the specific label is located may be added or subtracted according to circumstances.

그리고, 도 9의 설명과 같이 각각의 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4)를 적용하여 연산한 각종 정보를 이용하여 도 10의 (b) 및 (c)에 도시된 것과 같이, 제1 감시부(MFP)가 위치하는 지점과 다수의 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4)가 위치하는 지점, 다수의 특이지점(P-1, P-2, P-3) 각각에 대한 지형의 높낮이 차이(C) 및 수평선 상의 거리(D)와, 경우에 따라 지형의 경사도(PTZC°, MFPC°)를 3차원 그래픽화하여 나타내고, 제1 감시부(MFP)가 위치하는 지점을 중심으로 제1 감시부(MFP)와 다수의 제2 감시부(PTZ-1, PTZ-2, PTZ-3, PTZ-4), 다수의 특이지점(P-1, P-2, P-3) 각각이 위치하는 지점을 연결하여 정리함으로써 좀 더 실제 지형을 반영한 가상의 지형도가 작성된다.
And, as described in FIG. 9, using the various information calculated by applying the respective second monitoring unit (PTZ-1, PTZ-2, PTZ-3, PTZ-4) of Figure 10 (b) and (c) As shown in), the point where the first monitoring unit (MFP) is located and the point where the plurality of second monitoring units (PTZ-1, PTZ-2, PTZ-3, PTZ-4) are located, a plurality of singularities Three-dimensional graphics of the elevation difference (C) of the terrain and the distance (D) on the horizon and, optionally, the slope of the terrain (PTZC °, MFPC °) for each of the points (P-1, P-2, P-3) The first monitoring unit (MFP) and the plurality of second monitoring units (PTZ-1, PTZ-2, PTZ-3, PTZ-4) around the point where the first monitoring unit (MFP) is located; By connecting and arranging the points where each of the plurality of singular points (P-1, P-2, P-3) are located, a virtual topographical map reflecting more real terrain is created.

도 11 및 도 12는 제1 감시부(MFP)에 의한 제1 감시영상을 통해 객체(Object)가 인식되는 경우, 인식된 객체(Object)의 폭과 높이를 측정하고, 이를 통해 객체(Object)의 종류를 구분함으로써 해당 객체(Object)가 추적대상인지 추적대상이 아닌지를 구별하도록 하는 것을 나타낸 것이다.11 and 12 measure the width and height of the recognized object when the object is recognized through the first surveillance image by the first monitoring unit MFP, and through this, the object. This is to distinguish between the types of objects to indicate whether the object is a tracking object or not.

우선, 도 11에서는 제1 감시영상에 객체(Object), 예를 들어 사람과 차량이 인식되었다고 했을 때, 객체(Object)의 폭을 연산하는 것이 도시되어 있다.First, in FIG. 11, when the object, for example, a person and a vehicle, is recognized in the first surveillance image, the width of the object is calculated.

즉, 인식된 객체(Object)의 폭을 측정하기 위해 지형도작성부(10)에 의해 작성된 지형도 상의 고저차를 감안하여 객체(Object)의 일측끝단과 타측끝단을 임의의 지점으로 설정하고, 제1 감시영상의 원점과 객체(Object)의 일측끝단 사이의 거리(G)와, 제1 감시영상의 원점과 객체(Object)의 타측끝단 사이의 거리(H) 및 객체(Object)의 일측끝단과 타측끝단 사이의 각도(θ)를 산출한다.That is, in order to measure the width of the recognized object, the one end and the other end of the object are set to an arbitrary point in consideration of the height difference on the topographic map created by the topographic map creation unit 10, and the first monitoring. The distance G between the origin of the image and one end of the object, the distance H between the origin of the first surveillance image and the other end of the object, and one end and the other end of the object. The angle θ between them is calculated.

따라서, 제1 감시부(MFP)와 객체(Object)의 일측끝단, 객체(Object)의 타측끝단 사이에 가상의 삼각형 형상이 이루어지게 되며, 하기의 수학식 15를 이용하여 객체(Object)의 폭(I)이 산출된다.Therefore, a virtual triangular shape is formed between the first monitoring unit MFP, one end of the object, and the other end of the object, and the width of the object is expressed using Equation 15 below. (I) is calculated.

Figure pat00015
Figure pat00015

그리고, 도 12에서는 제1 감시영상에 인식된 객체(Object)의 높이(OH)를 연산하게 된다. 이때, 기본적으로 객체(Object)의 높이는 제1 감시영상 중 객체(Object)가 차지하는 크기, 즉 제1 감시영상의 원점으로부터 멀어지는 방향을 따라 객체(Object)가 차지하는 화소수를 세어 구하게 된다. 그러나, 객체(Object)가 제1 감시영상으로부터 얼마나 떨어진 위치에 있는지, 객체(Object)가 위치하고 있는 지점의 지형 형상이 어떤지 등에 따라 실제적인 객체(Object)의 높이가 달라질 수 있으므로 거리와 지형을 감안하여 객체(Object)의 높이를 연산해야 한다.In FIG. 12, the height OH of the object recognized in the first surveillance image is calculated. At this time, the height of the object is basically obtained by counting the size occupied by the object in the first surveillance image, that is, the number of pixels occupied by the object along the direction away from the origin of the first surveillance image. However, since the height of the actual object may vary depending on how far the object is from the first surveillance image and the shape of the terrain at which the object is located, the distance and the terrain are considered. To calculate the height of the object.

이를 위해, 제1 감시영상에서 제1 감시부(MFP)가 객체(Object)를 바라보기 위한 최저 각도(OBA°)와 최고 각도(OHA°)를 추출한다.To this end, the first monitoring unit MFP extracts the lowest angle OBA ° and the highest angle OHA ° for viewing the object from the first surveillance image.

그리고, 지형도작성부(10)에 의해 작성된 지형도 상의 고저차를 적용하여 객체(Object)가 위치하는 지점과 기준이 되는 지점 사이 지형의 높이(OBH)를 구하게 된다. 이때, 기준이 되는 지점은 지형도 상에서 가장 낮은 위치에 위치하는 지점을 사용하는 것이 바람직하며, 상황에 따라 제1 감시부(MFP)나 제2 감시부(PTZ)가 위치하는 지점 또는 지형도 작성시 특이지점(P)을 사용하여 보다 실제 지형을 반영한 지형도를 작성한 경우 특이지점(P)을 기준이 되는 지점으로 설정할 수도 있다.Then, by applying the height difference on the topographic map created by the topographic map creation unit 10 to obtain the height (OBH) of the terrain between the point where the object (Object) is located and the reference point. At this time, it is preferable to use a point which is located at the lowest position on the topographic map as a reference point, and depending on the situation, the point where the first monitoring unit MFP or the second monitoring unit PTZ is located or when the topographic map is created When using a point P to create a topographic map that reflects more real terrain, the singular point P may be set as a reference point.

그리고, 제1 감시부(MFP)가 위치하는 지점과 객체(Object)가 위치하는 지점 사이의 수평선상의 거리(OD)를 구하고, 도 9의 설명에 기재된 것과 같이 지형도의 고저차를 반영한 제1 감시부(MFP)의 높이(MFPRH)를 구하게 되면, 다음의 수학식 16과 같이 제1 감시부(MFP)로부터 객체(Object)가 위치하는 지점 사이의 수평선 상의 거리(ORD)를 산출할 수 있다.The first monitoring unit obtains the distance OD on the horizontal line between the point where the first monitoring unit MFP is located and the point where the object is located, and reflects the elevation difference of the topographical map as described in FIG. 9. When the height MFPRH of the MFP is obtained, the distance ORD on the horizontal line between the points where the object is located can be calculated from the first monitoring unit MFP as shown in Equation 16 below.

Figure pat00016
Figure pat00016

산출된 "ORD" 와 알고 있는 각종 정보를 이용하면 하기의 수학식 17에 의해 객체(Object)의 높이(OH)를 구할 수 있다.By using the calculated "ORD" and known information, the height OH of the object can be obtained by the following equation (17).

Figure pat00017
Figure pat00017

이와 같이 산출되는 객체(Object)의 폭(I)과 높이(OH) 값을 통하여 제1 감시영상을 통해 인식되는 객체(Object)의 일부 특성을 확인할 수 있고, 객체(Object)가 추적대상인지 아닌지를 구분할 수 있으며, 추적하던 객체(Object)의 추적을 잠시 멈추었다가 다시 추적할 때 해당 객체(Object)가 맞는지 확인하는 등의 다양한 방면에서 유용하게 사용될 수 있다.Through the width (I) and height (OH) value of the object calculated in this way, it is possible to check some characteristics of the object recognized through the first surveillance image, and whether the object is a tracking object or not. It can be useful in various ways, such as checking whether an object is correct when pausing and tracing again.

예를 들어, 본 발명에 따른 감시 시스템이 감시하는 지역에 눈이 오거나 바람이 불어 낙엽이 날릴 수도 있고, 곤충이 날아가거나 동물이 지나갈 수도 있다.For example, snow or wind can blow leaves on areas monitored by the surveillance system according to the invention, insects can fly, or animals can pass.

이러한 경우 제1 감시영상을 통해 인식되는 모든 객체를 추적하는 것은 엄청난 낭비가 되며, 실제로 추적해야 하는 객체를 추적하지 못하는 경우가 발생할 수도 있다.In this case, tracking all objects recognized through the first surveillance image is a huge waste, and it may occur that the tracking of the objects to be tracked is not possible.

이에, 본 발명에 따른 감시 시스템에서는 객체(Object)의 종류에 따른 폭과 높이에 대한 정보가 기저장되어 있는 객체종류구분부(40)를 통해 제1 감시영상을 통해 인식된 객체(Object)를 구분하게 된다. 다시 말해서, 지형도를 이용하여 객체(Object)의 실질적인 폭과 높이를 산출하고, 이를 기저장된 정보와 비교하여 인식된 객체(Object)가 대략 무엇인지를 판단할 수 있는 것이다.Accordingly, in the surveillance system according to the present invention, the object recognized through the first surveillance image through the object type classification unit 40 in which information on the width and height according to the type of the object is stored in advance. Will be distinguished. In other words, it is possible to calculate the actual width and height of the object using the topographic map, and compare it with previously stored information to determine what the recognized object is.

또한, 설정에 따라 인식된 객체(Object)의 종류가 구분되면, 객체(Object)의 어떤 부분을 제2 감시영상의 중심에 놓고 촬영할 것인지를 설정할 수 있다. 예를 들어, 인식된 객체(Object)가 사람일 경우 사람의 평균적인 키를 이용하여 사람의 가슴 윗부분을 촬영함으로써 사람의 얼굴을 확인할 수 있도록 바스트 샷(Bust shot)으로 촬영하거나, 인식된 객체(Object)가 차량일 경우 차량의 평균적인 높이를 이용하여 차량에 탑승하고 있는 사람이나 차량의 번호판이 제2 감시영상의 중심에 배치되도록 하여 촬영할 수 있는 각도로 설정할 수 있는 것이다. 이러한 설정은 인식된 객체(Object)가 사람일 경우 얼굴이 잘 보일 수 있도록 산출된 객체(Object)의 최고 높이로부터 사람 얼굴의 대략적인 크기에 의해 머리끝으로부터 얼굴까지의 일정 높이를 뺀 감시높이를 설정하는 등 다양하게 설정될 수 있다. 한편, 객체(Object)의 종류에 따라 어떤 부분을 제2 감시영상의 중심에 놓고 촬영할 것인지를 결정하는, 즉 감시높이에 대한 설정은 객체종류구분부(40)나 제어부(30)에 저장될 수도 있고, 네트워크로 연결되는 별도의 구성요소 등에 저장될 수도 있다.In addition, when the type of the recognized object is classified according to the setting, it is possible to set which part of the object is to be photographed with the center of the second surveillance image. For example, if the recognized object is a human, shoot with a bust shot so that the face of the person can be identified by photographing the upper part of the human chest using the average height of the person, or the recognized object ( If the object is a vehicle, the average height of the vehicle can be set to an angle that can be photographed by placing the license plate of a person or vehicle in the vehicle at the center of the second surveillance image. This setting sets the monitoring height minus a certain height from the end of the head to the face by the approximate size of the human face, which is calculated so that the face can be easily seen if the recognized object is a human. It can be set in various ways. On the other hand, according to the type of the object (Object) to determine what part to shoot in the center of the second surveillance image, that is, the setting for the monitoring height may be stored in the object type classification unit 40 or the controller 30. It may be stored in a separate component connected to the network.

이와 같이, 제1 감시영상에 의해 인식된 객체(Object)의 종류를 객체종류구분부(40)를 통해 1차적으로 구분하여 감시 효율을 높일 수 있고, 2차적으로 제2 감시부(PTZ)를 통해 감시함으로써 해당 객체(Object)가 감시해야 되는 대상이 맞는지를 확인함과 동시에 해당 객체(Object)의 실질적인 감시가 수행될 수 있게 된다.
As such, the type of the object recognized by the first surveillance image may be primarily classified through the object type classification unit 40 to increase the monitoring efficiency, and the second surveillance unit PTZ may be secondarily. By monitoring through this, it is possible to check whether the object to be monitored is correct and at the same time, the actual monitoring of the object can be performed.

도 13 및 도 14는 제1 감시영상을 통해 객체(Object)가 인식되고, 인식된 객체(Object)가 감시해야 하는 객체(Object)일 경우 제2 감시부(PTZ)가 객체(Object)를 감시하기 위해 동작되는 상태를 나타낸 것이다.13 and 14 illustrate that an object is recognized through a first surveillance image, and when the recognized object is an object to be monitored, the second monitoring unit PTZ monitors the object. It shows the state to operate.

도 13의 (a) 및 (b)는 도 10의 (a) 및 (c)에 도시된 도면과 동일한 것으로, 도 13의 (a)에서는 제1 감시영상에 객체(Object)가 인식된 상태로 나타나 있다. 13A and 13B are the same as those shown in FIGS. 10A and 10C, and in FIG. 13A, the object is recognized in the first surveillance image. Is shown.

이에 따라, 인식된 객체(Object)의 좌표가 산출될 수 있으며, 지형도작성부(10)에 의해 작성된 지형도에 산출된 객체(Object)의 좌표를 대입하여 도 13의 (b)와 같이 지형도 상에서 객체(Object)가 위치하는 지점을 추출할 수 있다.Accordingly, the coordinates of the recognized object may be calculated, and the coordinates of the object calculated on the topographic map created by the topographic map creation unit 10 are substituted for the object on the topographic map as shown in FIG. You can extract the point where (Object) is located.

이와 같은 상태에서, 도 14에서는 제2 감시부(PTZ)가 인식된 객체(Object)를 추적할 수 있도록 동작된다.In this state, the second monitoring unit PTZ operates in FIG. 14 to track the recognized object.

이때, 도 9 및 도 12에서 설명한 것과 같이 제1 감시영상의 원점에서 객체(Object)가 위치하는 지점까지 극좌표계 상의 회전각을 추출하여 제1 감시부(MFP)의 좌우방향의 각도(MFPHTA°)와 지형도의 고저차를 반영한 제1 감시부(MFP)의 높이(MFPRH), 지형도의 고저차를 반영한 제2 감시부(PTZ)의 높이(PTZRH), 지형도 상의 고저차를 적용하여 객체(Object)가 위치하는 지점과 기준이 되는 지점 사이의 높이(OBH)와, 제1 감시영상에서 제1 감시부(MFP)가 객체(Object)를 바라보기 위한 최저 각도(OBA°), 최고 각도(OHA°)를 추출할 수 있다. 이때, 전술한 것과 같이 저장부를 사용할 경우 인식된 객체(Object)가 사람인지, 추적해야 하는지의 여부를 판단할 수 있으며, 인식된 객체(Object)가 사람이고 추적해야 한다면 얼굴이 제2 감시영상의 중심에 배치되어 촬영할 수 있도록 객체(Object)의 최고 높이로부터 일정 높이를 뺀 감시높이(OTP)를 불러와서 사용할 수 있다.In this case, as described in FIGS. 9 and 12, the rotation angle on the polar coordinate system is extracted from the origin of the first surveillance image to the point where the object is located, and thus the angle MFPHTA ° in the left and right directions of the first monitoring unit MFP. ), The height (MFPRH) of the first monitoring unit (MFP) reflecting the elevation difference of the topographical map, the height (PTZRH) of the second monitoring unit (PTZ) reflecting the elevation difference of the topographic map, and the height of the elevation on the topographic map are applied. Height (OBH) between the reference point and the reference point, and the lowest angle (OBA °) and the highest angle (OHA °) for the first monitoring unit (MFP) to see the object in the first surveillance image. Can be extracted. In this case, when the storage unit is used as described above, it is possible to determine whether the recognized object is a person or whether it should be tracked. It is possible to load and use the monitoring height (OTP) by subtracting a certain height from the highest height of the object so that it can be placed in the center and shoot.

이와 같이 제1 감시부(MFP)와 객체(Object)가 위치하는 지점, 그리고 제1 감시부(MFP)로부터 수직하방을 바라보는 방향 사이에 가상의 직각삼각형 형상이 이루어지므로 제1 감시부(MFP)와 객체(Object) 사이의 수평선상의 거리(MFPOD)는 다음의 수학식 18에 의해 산출된다.As such, a virtual right triangle is formed between the point where the first monitoring unit MFP and the object are located and the direction of looking downward from the first monitoring unit MFP. ) And the distance MFPOD on the horizontal line between the object is calculated by the following equation (18).

Figure pat00018
Figure pat00018

한편, 객체(Object)가 위치하는 지점과 제1 감시부(MFP)로부터 수직하방을 바라보는 방향, 그리고 제2 감시부(PTZ)로부터 수직하방을 바라보는 방향 사이에 가상의 삼각형 형상이 이루어진다. 이때, 제1 감시부(MFP)와 제2 감시부(PTZ) 사이의 수평선상의 거리(D)는 구해져 있으므로 제2 감시부(PTZ)와 객체(Object) 사이의 수평선상의 거리(PTZOD)는 다음의 수학식 19에 의해 산출된다.On the other hand, a virtual triangular shape is formed between the position where the object is located, the direction looking downward from the first monitoring unit (MFP), and the direction looking downward from the second monitoring unit (PTZ). At this time, since the distance D on the horizontal line between the first monitoring unit MFP and the second monitoring unit PTZ is determined, the distance PTZOD on the horizontal line between the second monitoring unit PTZ and the object is determined. It is calculated by the following equation (19).

Figure pat00019
Figure pat00019

그리고, 제2 감시부(PTZ)가 객체(Object)가 위치하는 지점을 바라보기 위해 회전해야 하는 좌우방향의 각도(PTZPA°)는 객체(Object)가 위치하는 지점과 제1 감시부(MFP)로부터 수직하방을 바라보는 방향, 그리고 제2 감시부(PTZ)로부터 수직하방을 바라보는 방향 사이에 이루어지는 가상의 삼각형 형상을 이용하여 다음의 수학식 20을 통해 구할 수 있다.The left and right angles PTZPA ° of which the second monitor PTZ should rotate to look at the point where the object is located are the point where the object is located and the first monitor MFP. It can be obtained through the following equation (20) using a virtual triangular shape formed between the direction of looking downward from the vertical direction and the direction of looking downward from the second monitoring unit (PTZ).

Figure pat00020
Figure pat00020

다음, 제2 감시부(PTZ)와 객체(Object)가 위치하는 지점, 그리고 제2 감시부(PTZ)로부터 수직하방을 바라보는 방향 사이에 가상의 직각삼각형 형상이 이루어지므로 제2 감시부(PTZ)가 객체(Object)가 위치한 지점을 바라보기 위해 회전해야 하는 상하방향의 각도(PTZTA°)는 다음의 수학식 21에 의해 산출된다.Next, since the virtual right triangle is formed between the point where the second monitoring unit PTZ and the object are located and the direction of looking downward from the second monitoring unit PTZ, the second monitoring unit PTZ is formed. The up-and-down angle (PTZTA °) in which) should rotate to look at the point where the object is located is calculated by the following equation (21).

Figure pat00021
Figure pat00021

이와 같이 산출된 "PTZTA°"는 제2 감시부(PTZ)가 객체(Object)가 위치한 지점, 즉 사람의 발이 닿고 있는 지면을 바라보는 각도이므로 제2 감시부(PTZ)가 객체(Object)인 사람의 얼굴을 촬영할 수 없다. The "PTZTA °" calculated as described above is an angle at which the second monitoring unit PTZ looks at the point where the object is located, that is, the ground on which the human foot is touching, so that the second monitoring unit PTZ is the object. You cannot shoot a person's face.

따라서, 사람의 얼굴이 제2 감시영상의 중심에 나타나게 촬영할 수 있는 각도로 보정하기 위해 객체(Object)인 사람이 지면에 대해 수직으로 서있다는 가정 하에, 제2 감시부(PTZ)와 객체(Object)가 위치하는 지점, 그리고 객체(Object)를 촬영하고자 하는 감시높이(OTP)에 해당하는 가상의 점 사이에 이루어지는 가상의 삼각형 형상을 이용하여 제2 감시부(PTZ)로부터 객체(Object)가 위치하는 지점 사이의 거리(PTZRD)와 제2 감시부(PTZ)로부터 감시높이(OTP) 사이의 거리(PTZTD)를 각각 하기의 수학식 22와 23에 의해 산출한다.Therefore, the second monitor PTZ and the object under the assumption that a person, who is an object, stands perpendicular to the ground in order to correct the angle at which the face of the person appears in the center of the second surveillance image. The object is positioned from the second monitoring unit PTZ by using a virtual triangle shape formed between a point where is located and a virtual point corresponding to the monitoring height OTP to which the object is to be photographed. The distance PTZRD between the points and the distance PTZTD between the monitoring height OTP from the second monitoring unit PTZ are calculated by the following equations (22) and (23), respectively.

Figure pat00022
Figure pat00022

Figure pat00023
Figure pat00023

이와 같이 "PTZRD" 와 "PTZTD" 를 산출하게 되면, 객체(Object)를 촬영하고자 하는 감시높이(OTP)에 해당하는 제2 감시부(PTZ)가 객체(Object)의 특정 부분, 즉 얼굴을 제2 감시영상의 중심에 위치할 수 있도록 회전해야 하는 상하방향의 각도(PTZTTA°)는 하기의 수학식 24에 의해 산출할 수 있다.When the "PTZRD" and "PTZTD" are calculated in this way, the second monitoring unit (PTZ) corresponding to the monitoring height (OTP) in which the object is to be photographed removes a specific part of the object, that is, a face. 2 The up-down angle (PTZTTA °) to be rotated to be located at the center of the surveillance image can be calculated by the following equation (24).

Figure pat00024
Figure pat00024

이와 같은 과정을 통해 제2 감시부(PTZ)가 지형도 상에 나타나는 객체(Object)의 특정 부분, 예를 들어 사람의 얼굴을 제2 감시부(PTZ)에 의한 제2 감시영상의 중심에 배치되도록 하여 감시 및 추적할 수 있게 되는 것이다.
Through this process, the second monitoring unit PTZ is arranged so that a specific part of the object, for example, a human face, that appears on the topographical map is located at the center of the second surveillance image by the second monitoring unit PTZ. Can be monitored and tracked.

전술한 것과 같은 과정을 통해 객체(Object)의 인식과 객체(Object)의 감시 및 추적이 이루어지게 되나, 제1 감시부(MFP)와 제2 감시부(PTZ) 주위의 지형은 자연재해나 각종 공사 등 다양한 이유에 의해 달라질 수 있으며, 지형도작성부(10)에 의해 작성되어 있는 지형도에는 달라진 지형이 반영되지 않아 객체(Object)의 감시 및 추적에 실패할 수 있으므로, 달라진 실제 지형을 지형정보에 반영하여 지형도를 수정해야 할 필요가 있다. 여기서, 달라진 실제 지형에 대한 각종 정보를 산출하기 위해 사용되는 방법들은 전술한 도 4 내지 도 14의 설명을 참조할 수 있으므로 상세한 설명은 생략한다.Through the same process as described above, the object is recognized and the object is monitored and tracked, but the terrain around the first monitoring unit (MFP) and the second monitoring unit (PTZ) is a natural disaster or various construction work. For example, the terrain created by the topographic map creation unit 10 may not reflect the changed terrain, and thus may fail to monitor and track the object. It is necessary to modify the topographic map. Here, the methods used to calculate various kinds of information about the changed actual terrain may refer to the description of FIGS. 4 to 14, and thus the detailed description thereof will be omitted.

도 15 및 도 16은 제2 감시부(PTZ)를 통한 객체(Object)의 감시 및 추적이 실패, 즉 제2 감시부(PTZ)에 의한 제2 감시영상에 객체(Object)가 나타나지 않는 경우가 도시되어 있다.15 and 16 illustrate a case in which the monitoring and tracking of the object through the second monitoring unit PTZ fail, that is, the object does not appear in the second surveillance image by the second monitoring unit PTZ. Is shown.

제1 감시영상을 통해 객체(Object)가 인식되면, 도 13의 설명에서와 같이 인식된 객체(Object)의 좌표를 산출하여 지형도 상에서 객체(Object)가 위치하는 지점을 추출하고, 제2 감시부(PTZ)가 객체(Object)를 감시 및 추적하기 위해 동작해야 하는 각도를 연산하게 된다.When the object is recognized through the first surveillance image, as shown in FIG. 13, the coordinates of the recognized object are calculated to extract a point where the object is located on the topographic map, and the second monitoring unit (PTZ) calculates the angle that should be operated to monitor and track the object.

이와 같이 연산된 각도에 따라 제2 감시부(PTZ)가 회전하였으나 지형이 달라져 도 15와 같이 제2 감시부(PTZ)가 바라보는 각도 상에 객체(Object)가 존재하지 않아 제2 감시영상에 객체(Object)가 인식되지 않을 수 있다. 즉, 실제로 객체(Object)가 위치한 지점을 제1 지점이라고 하고, 객체(Object)가 위치하고 있을 것이라고 판단한 지점을 제2 지점이라고 했을 때, 객체(Object)는 제1 지점에 있음에도 불구하고 제2 감시부(PTZ)가 제2 지점을 감시함으로써 객체(Object)가 제2 감시영상에 나타나지 않는 것이다.Although the second monitoring unit PTZ is rotated according to the calculated angle as described above, the terrain is changed, and as shown in FIG. 15, the object is not present on the angle viewed by the second monitoring unit PTZ. Object may not be recognized. That is, when the point where the object is actually located is called the first point, and the point where the object is determined to be located is called the second point, the second monitor despite the object being at the first point Since the PTPT monitors the second point, the object does not appear on the second surveillance image.

이렇게 객체(Object)의 감시 및 추적에 실패하는 경우 제어부(30)에서는 해당하는 위치, 즉 제2 지점을 지형도 상의 오류지점으로 설정한다. If the monitoring and tracking of the object fails, the controller 30 sets the corresponding position, that is, the second point, as an error point on the topographic map.

이때, 제1 지점에 위치하고 있는 객체(Object)의 높이는 실제로 "TTH(실제높이)" 이지만, 제2 지점에 있는 것으로 판단한 경우 실제높이(TTH)와는 다른 값, 즉 "FTH(가상높이)" 로 산출되게 된다. 그리고, 제1 감시부(MFP)가 오류지점으로 설정한 제2 지점을 바라보는 최저 각도(FOBA°)와 제2 지점에 객체(Object)가 있을 경우 객체(Object)의 높이(FTH)를 추출할 수 있는 최고 각도(FOHA°)를 추출할 수 있으며, 제1 감시부(MFP)가 위치한 지점과 객체(Object)의 추적을 실패한 제2 지점 사이의 수평선상의 거리(ROD), 제2 지점과 기준이 되는 지점 사이 지형의 높이(FOBH), 지형도의 고저차를 반영한 제1 감시부(MFP)의 높이(MFPRH) 및 지형도의 고저차를 반영한 제2 감시부(PTZ)의 높이(PTZRH)와 같은 정보를 구할 수 있다.At this time, the height of the object located at the first point is actually "TTH" (actual height), but if it is determined to be at the second point, it is different from the actual height (TTH), that is, "FTH (virtual height)". Will be calculated. In addition, when the first monitoring unit MFP looks at the second angle set as an error point, the minimum angle FOBA ° and the height FTH of the object when the object is present at the second point. The highest possible angle (FOHA °) can be extracted, the distance on the horizontal line (ROD) between the point where the first monitoring unit (MFP) is located and the second point that fails to track the object (ROD), the second point and Information such as height of topography (FOBH) between reference points, height of first monitoring unit (MFPRH) reflecting the height difference of the topographic map, and height of second monitoring unit (PTZRH) reflecting the elevation difference of the topographic map Can be obtained.

지형도 상에 오류지점을 설정한 제어부(30)는 제2 감시부(PTZ)로 하여금 객체(Object)가 어디에 있는지 추적하도록 제어한다. 이때, 제2 감시부(PTZ)의 추적방법은 지형도를 이용하거나, 지형도와는 상관없이 제2 감시부(PTZ)에 의한 제2 감시영상만을 이용할 수도 있고, 지형도 및 제2 감시영상을 모두 이용할 수도 있다.The controller 30 setting an error point on the topographic map controls the second monitoring unit PTZ to track where the object is. In this case, the tracking method of the second monitoring unit PTZ may use a topographic map, or may use only the second surveillance image by the second monitoring unit PTZ regardless of the topographic map, and use both the topographic map and the second surveillance image. It may be.

지형도를 이용하여 추적하는 경우, 객체(Object)는 제1 감시영상에 계속해서 인식되어 있는 상태이므로 기존에 작성되어 있는 지형도를 이용하여 추적, 예를 들어 제2 감시부(PTZ)가 추적에 실패한 상태에서 움직이지 않고 계속 감시하도록 하게 된다..In the case of tracking by using the topographical map, the object is continuously recognized in the first surveillance image, so tracking using the previously prepared topographic map, for example, when the second monitoring unit PTZ fails to track It keeps on monitoring without moving.

그리고, 지형도와는 상관없이 제2 감시영상만을 이용하는 경우 제2 감시영상을 축소시키도록 줌아웃(Zoom out)시키면서 제2 감시부(PTZ)가 움직여 추적을 진행하게 된다.In addition, when only the second surveillance image is used regardless of the topographical map, the second surveillance unit PTZ moves while tracking out to reduce the second surveillance image.

이러한 결과, 도 16에 나타나는 것과 같이 이동하던 객체(Object)가 제2 감시영상에 인식되면 객체정보생성부(20)를 통해 객체정보를 생성하고, 도 8이나 도 10의 설명과 같이 객체(Object)가 인식된 지점과 관련하여 각종 정보, 예를 들어 객체(Object)가 인식된 지점과 제1 감시부(MFP), 제2 감시부(PTZ) 중 어느 하나 또는 둘이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이, 지형의 경사도에 대한 정보를 추출하여 지형정보에 반영함으로써 지형도가 보다 실제 지형에 가깝게 수정될 수 있다. 여기서, 제2 감시부(PTZ)가 지형도를 이용하여 객체(Object)를 추적하는 경우 제2 감시영상에 객체(Object)가 인식되었다는 것은 객체(Object)가 인식된 지점에 대한 지형도의 지형정보가 실제 지형과 같다고 볼 수 있으므로 이러한 경우 지형정보에 반영하더라도 지형도의 수정이 이루어지지 않는다.As a result, when the moving object as shown in FIG. 16 is recognized in the second surveillance image, the object information is generated through the object information generation unit 20, and the object as described in FIG. 8 or 10. In relation to the point at which) is recognized, for example, on a horizontal line between a point at which an object is recognized and a point at which one or two of the first monitoring unit MFP and the second monitoring unit PTZ are located. The topographic map can be modified to be closer to the actual terrain by extracting information on distance, height difference of the terrain, and slope of the terrain and reflecting the information on the terrain information. Here, when the second monitoring unit PTZ tracks the object using the topographic map, the object is recognized in the second surveillance image because the topographic information of the topographic map of the point where the object is recognized is In this case, the topographical map is not modified even if it is reflected in the topographical information.

한편, 객체(Object)가 제2 감시영상에 인식됨으로써 제1 감시부(MFP)가 제2 감시영상에 객체(Object)가 인식된 지점을 바라보는 최저 각도(TOBA°)와 객체(Object)의 높이를 추출할 수 있는 최고 각도(TOHA°)를 추출할 수 있고, 객체(Object)가 인식된 지점에서의 객체(Object)의 실제높이(TTH)를 산출할 수 있다.Meanwhile, the object is recognized in the second surveillance image, so that the first monitoring unit MFP looks at the point where the object is recognized in the second surveillance image, and the minimum angle TOBA ° of the object and the object. The maximum angle TOHA ° from which the height can be extracted can be extracted, and the actual height TTH of the object at the point where the object is recognized can be calculated.

특히, 지형도를 이용하여 추적하는 경우 제2 감시영상에 객체(Object)가 인식되면, 객체(Object)가 인식된 지점에서 산출된 객체(Object)의 실제높이(TTH)를 제2 지점에 있는 것으로 판단한 경우의 가상높이(FTH) 대신 대입하여 실제로 객체(Object)가 위치했던 제1 지점에 대한 정보를 구할 수 있게 된다. 다시 말해서, 제1 감시부(MFP)가 위치하는 지점과 제1 지점 사이의 수평선상의 거리, 즉 제1 감시부(MFP)가 위치하는 지점과 객체의 추적을 실패한 제2 지점 사이의 수평선상의 거리(ROD)에서 어느 만큼의 수평선상의 거리(COD)를 이동해야 제1 지점에 도달할 수 있는지와, 제1 지점과 기준이 되는 지점 사이 지형의 높이, 즉 실제 지형의 높이(ROBH)를 역산하여 산출할 수 있는 것이다.In particular, when tracking using a topographic map, if an object is recognized in the second surveillance image, the actual height TTH of the object calculated at the point where the object is recognized is at the second point. In place of the virtual height FTH in the case of determination, information on the first point where the object is actually located can be obtained. In other words, the distance on the horizontal line between the point where the first monitoring unit MFP is located and the first point, that is, the distance on the horizontal line between the point where the first monitoring unit MFP is located and the second point that fails to track the object. How much horizontal distance (COD) in (ROD) to move to the first point, and the height of the terrain between the first point and the reference point, ie the height of the actual terrain (ROBH) It can be calculated.

한편, 제2 감시영상만을 이용하여 객체(Object)를 추적하다가 객체(Object)를 인식하여 제2 감시영상의 중심에 놓이게 되었을 때, 도 9의 설명에 기재되어 있는 내용에 따라 수정된 정보를 추출한다. 이때, 제2 감시영상에 객체(Object)가 인식되기 전까지 정보는 계속 수정될 수 있다. 그리고, 제1 지점의 실제 지형의 높이(ROBH)를 추출하기 위하여 도 13에서 설명한 감시높이(OTP)를 계상한다.Meanwhile, when tracking an object using only the second surveillance image and recognizing the object and placing it in the center of the second surveillance image, the modified information is extracted according to the contents described in the description of FIG. 9. do. In this case, the information may be continuously modified until the object is recognized in the second surveillance image. In order to extract the height ROBH of the actual terrain of the first point, the monitoring height OTP described in FIG. 13 is calculated.

이러한 과정을 통해 제1 감시부(MFP)와 제1 지점 사이의 거리, 즉 제1 감시부(MFP)와 객체(Object)의 추적을 실패한 제2 지점 사이의 거리에서 어느 만큼을 이동해야 제1 지점에 도달할 수 있는 거리(X)가 산출되는지를 하기의 수학식 25를 통해 구할 수 있다.Through this process, the distance between the first monitoring unit MFP and the first point, that is, the distance between the first monitoring unit MFP and the second point that fails to track the object must be moved to some extent. Whether the distance X to reach the point is calculated may be obtained through Equation 25 below.

Figure pat00025
Figure pat00025

그리고, 산출된 "X" 를 이용하여 제1 감시부(MFP)가 위치하는 지점과 제2 지점 사이의 수평선상의 거리(ROD)에서 어느 만큼의 수평선상의 거리(COD)를 이동해야 제1 지점에 도달할 수 있는지, 그리고 제1 지점과 기준이 되는 지점 사이 지형의 실제 높이(ROBH)를 하기의 수학식 26과 27을 통해 산출한다.Then, by using the calculated "X", the distance COD on the horizontal line must be moved from the distance ROD on the horizontal line between the point where the first monitoring unit MFP is located and the second point. Whether it can be reached and the actual height (ROBH) of the terrain between the first point and the reference point is calculated by the following equations (26) and (27).

Figure pat00026
Figure pat00026

Figure pat00027
Figure pat00027

이와 같은 과정을 통해 실제로 객체(Object)가 위치했던 제1 지점을 추출할 수 있게 되고, 이러한 제1 지점과 제1 감시부(MFP)나 제2 감시부(PTZ)가 위치하는 지점 또는 지형도 작성시 특이지점(P)을 사용하여 보다 실제 지형을 반영한 지형도를 작성한 경우 특이지점(P) 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형정보에 반영함으로써 지형도를 수정할 수 있으며, 이러한 과정이 반복될수록 지형도는 점차적으로 실제 지형에 가까워지게 된다.Through this process, the first point where the object is actually located can be extracted, and the point or the topographic map where the first point and the first monitoring unit MFP or the second monitoring unit PTZ are located is created. If you create a topographic map that reflects the actual terrain using the city singularity point (P), you can modify the topographic map by extracting the distance on the horizontal line between the singularity point (P), the height difference of the terrain, and the slope of the terrain to reflect the topographic information. As the process is repeated, the topographic map gradually approaches the actual topography.

한편, 제1 감시부(MFP)는 도 12의 설명에서 언급한 것처럼 객체(Object)의 가상높이(FTH)와 기 설정된 허용오차를 계산하여 지형도 상의 오류 예상지역을 표시할 수 있으며, 추후 제2 감시부(PTZ)의 동작을 제어할 때 체크 포인트로 활용하거나 보조 수정값으로 이용할 수 있다.Meanwhile, as mentioned in the description of FIG. 12, the first monitoring unit MFP may display an error expected region on the topographical map by calculating a virtual height FTH of the object and a preset tolerance. When controlling the operation of the monitoring unit (PTZ) it can be used as a check point or an auxiliary correction value.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof.

그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 하고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
It is therefore to be understood that the embodiments described above are to be considered in all respects as illustrative and not restrictive and the scope of the invention is indicated by the appended claims rather than the foregoing description, It is intended that all changes and modifications derived from the equivalent concept be included within the scope of the present invention.

MFP: 제1 감시부
PTZ, PTZ-1, PTZ-2, PTZ-3, PTZ-4: 제2 감시부
10: 지형도작성부 20: 객체정보생성부
30: 제어부 40: 객체종류구분부
Object: 객체 P, P-1, P-2, P-3: 특이지점
MFP: first monitoring unit
PTZ, PTZ-1, PTZ-2, PTZ-3, PTZ-4: second monitoring unit
10: topographic map creator 20: object information generator
30: control unit 40: object type classification unit
Object: Objects P, P-1, P-2, and P-3: Singular Points

Claims (33)

감시 시스템에 있어서,
제1 감시부와;
특정 영역을 감시하는 제2 감시부와;
상기 제1 감시부에 의한 제1 감시영상과, 상기 제2 감시부에 의한 제2 감시영상을 이용하여 상기 제1 감시부와 상기 제2 감시부 주위의 지형도를 작성하는 지형도작성부와;
상기 제1 감시영상을 통해 객체가 인식되는 경우, 상기 객체의 정보와 상기 지형도에 따른 상기 객체의 위치를 이용하여 객체정보를 생성하는 객체정보생성부; 및
상기 지형도와 상기 객체정보를 이용하여 상기 제2 감시부가 상기 객체를 감시하도록 제어하는 제어부;
를 포함하는 감시 시스템.
In the surveillance system,
A first monitoring unit;
A second monitoring unit for monitoring a specific area;
A topographic map creation unit for creating a topographical map around the first monitoring unit and the second monitoring unit by using the first surveillance image by the first surveillance unit and the second surveillance image by the second surveillance unit;
An object information generation unit configured to generate object information by using the information of the object and the position of the object according to the topographical map when the object is recognized through the first surveillance image; And
A control unit controlling the second monitoring unit to monitor the object by using the topographic map and the object information;
Surveillance system comprising a.
제 1 항에 있어서,
제1 감시부는 어안렌즈 카메라, 초광각렌즈 카메라, 회전줌 카메라 중 어느 하나인 것을 특징으로 하는 감시 시스템.
The method of claim 1,
The first surveillance unit is any one of a fisheye lens camera, an ultra wide-angle lens camera, a zoom camera.
제 2 항에 있어서,
상기 지형도작성부, 상기 객체정보생성부, 상기 제어부 중 어느 하나 또는 둘 이상은 상기 제1 감시부에 설치되는 것을 특징으로 하는 감시 시스템.
The method of claim 2,
Any one or two or more of the topographic map creation unit, the object information generation unit, the control unit is installed in the first monitoring unit.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
제2 감시부는 회전줌 카메라인 것을 특징으로 하는 감시 시스템.
The method according to any one of claims 1 to 3,
And the second monitoring unit is a rotation zoom camera.
제 4 항에 있어서,
상기 지형도작성부는,
상기 제1 감시부가 위치하는 지점과 상기 제2 감시부가 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형정보를 생성하고,
상기 지형정보를 3차원 그래픽화하여 상기 지형도를 작성하는 것을 특징으로 하는 감시 시스템.
The method of claim 4, wherein
The topographic map creation unit,
Generating terrain information by extracting a distance on a horizontal line between the point where the first monitoring unit is located and the point where the second monitoring unit is located, a height difference of the terrain, and a slope of the terrain;
Surveillance system, characterized in that for producing the topographical map by three-dimensional graphics of the topographic information.
제 5 항에 있어서,
상기 제1 감시영상에 상기 객체가 인식되고, 상기 제2 감시영상에 상기 객체가 인식되지 않는 경우,
상기 제어부는,
상기 제2 감시부가 상기 객체를 추적하도록 하고,
상기 제2 감시영상에 상기 객체가 인식되면 상기 객체의 객체정보를 생성하도록 하며,
상기 객체가 인식된 지점과 상기 제1 감시부, 상기 제2 감시부, 상기 지점 중 어느 하나 또는 둘 이상이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형도에 반영하도록 제어하는 것을 특징으로 하는 감시 시스템.
The method of claim 5, wherein
When the object is recognized in the first surveillance image, the object is not recognized in the second surveillance image,
The control unit,
Let the second monitor track the object,
When the object is recognized in the second surveillance image, object information of the object is generated.
The topographical map by extracting the distance on the horizontal line, the height difference of the terrain and the slope of the terrain between the point where the object is recognized and the first monitoring unit, the second monitoring unit, any one or two or more of the points are located Surveillance system, characterized in that the control to reflect on.
제 6 항에 있어서,
상기 제2 감시부는 상기 지형도를 이용하여 상기 객체를 추적하는 것을 특징으로 하는 감시 시스템.
The method according to claim 6,
And the second monitoring unit tracks the object using the topographic map.
제 6 항에 있어서,
상기 제어부는,
상기 객체가 인식된 지점에서의 상기 객체의 실제높이를 연산하여 상기 객체가 인식되지 않은 지점에서의 상기 객체의 가상높이를 추출하도록 하고,
상기 객체의 실제높이와 상기 객체의 가상높이를 이용하여 상기 객체가 실제로 위치했던 지점을 추출하며,
상기 객체가 실제로 위치했던 지점과 상기 제1 감시부, 상기 제2 감시부 중 어느 하나 또는 둘 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하는 것을 특징으로 하는 감시 시스템.
The method according to claim 6,
The control unit,
Calculate the actual height of the object at the point where the object is recognized to extract the virtual height of the object at the point where the object is not recognized,
Extracting the point where the object is actually located by using the actual height of the object and the virtual height of the object,
Characterized in that the distance on the horizontal line, the height difference of the terrain and the slope of the terrain between the point where the object is actually located and the one or two of the first monitoring unit, the second monitoring unit is extracted and reflected in the terrain information. Surveillance system.
제 7 항에 있어서,
상기 제어부는,
상기 객체가 인식된 지점에서의 상기 객체의 실제높이를 연산하여 상기 객체가 인식되지 않은 지점에서의 상기 객체의 가상높이를 추출하도록 하고,
상기 객체의 실제높이와 상기 객체의 가상높이를 이용하여 상기 객체가 실제로 위치했던 지점을 추출하며,
상기 객체가 실제로 위치했던 지점과 상기 제1 감시부, 상기 제2 감시부 중 어느 하나 또는 둘 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하는 것을 특징으로 하는 감시 시스템.
The method of claim 7, wherein
The control unit,
Calculate the actual height of the object at the point where the object is recognized to extract the virtual height of the object at the point where the object is not recognized,
Extracting the point where the object is actually located by using the actual height of the object and the virtual height of the object,
Characterized in that the distance on the horizontal line, the height difference of the terrain and the slope of the terrain between the point where the object is actually located and the one or two of the first monitoring unit, the second monitoring unit is extracted and reflected in the terrain information. Surveillance system.
제 5 항에 있어서,
상기 제1 감시부, 상기 제2 감시부 중 어느 하나 또는 둘의 주위에 하나 또는 둘 이상의 특이지점을 지정하고,
상기 특이지점과 상기 제1 감시부, 상기 제2 감시부 중 어느 하나 또는 둘이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하는 것을 특징으로 하는 감시 시스템.
The method of claim 5, wherein
Designate one or more singular points around one or two of the first monitoring unit and the second monitoring unit,
Characterized in that the distance on the horizontal line between the singular point and the point where any one or two of the first monitoring unit, the second monitoring unit is located, the height difference of the terrain and the slope of the terrain is extracted and reflected in the terrain information Surveillance system.
제 10 항에 있어서,
상기 제1 감시영상에 상기 객체가 인식되고, 상기 제2 감시영상에 상기 객체가 인식되지 않는 경우,
상기 제어부는,
상기 제2 감시부가 상기 객체를 추적하도록 하고,
상기 제2 감시영상에 상기 객체가 인식되면 상기 객체의 객체정보를 생성하도록 하며,
상기 객체가 인식된 지점과 상기 제1 감시부, 상기 제2 감시부, 상기 지점 중 어느 하나 또는 둘 이상이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형도에 반영하도록 제어하는 것을 특징으로 하는 감시 시스템.
11. The method of claim 10,
When the object is recognized in the first surveillance image, the object is not recognized in the second surveillance image,
The control unit,
Let the second monitor track the object,
When the object is recognized in the second surveillance image, object information of the object is generated.
The topographical map by extracting the distance on the horizontal line, the height difference of the terrain and the slope of the terrain between the point where the object is recognized and the first monitoring unit, the second monitoring unit, any one or two or more of the points are located Surveillance system, characterized in that the control to reflect on.
제 11 항에 있어서,
상기 제2 감시부는 상기 지형도를 이용하여 상기 객체를 추적하는 것을 특징으로 하는 감시 시스템.
The method of claim 11,
And the second monitoring unit tracks the object using the topographic map.
제 11 항에 있어서,
상기 제어부는,
상기 객체가 인식된 지점에서의 상기 객체의 실제높이를 연산하여 상기 객체가 인식되지 않은 지점에서의 상기 객체의 가상높이를 추출하도록 하고,
상기 객체의 실제높이와 상기 객체의 가상높이를 이용하여 상기 객체가 실제로 위치했던 지점을 추출하며,
상기 객체가 실제로 위치했던 지점과 상기 제1 감시부, 상기 제2 감시부, 상기 특이지점 중 어느 하나 또는 둘 이상 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하는 것을 특징으로 하는 감시 시스템.
The method of claim 11,
The control unit,
Calculate the actual height of the object at the point where the object is recognized to extract the virtual height of the object at the point where the object is not recognized,
Extracting the point where the object is actually located by using the actual height of the object and the virtual height of the object,
The distance on the horizontal line between the point where the object is actually located and one or more of the first monitoring unit, the second monitoring unit, and the singular point, the height difference of the terrain, and the slope of the terrain are extracted to the terrain information. Surveillance system, characterized in that reflected.
제 12 항에 있어서,
상기 제어부는,
상기 객체가 인식된 지점에서의 상기 객체의 실제높이를 연산하여 상기 객체가 인식되지 않은 지점에서의 상기 객체의 가상높이를 추출하도록 하고,
상기 객체의 실제높이와 상기 객체의 가상높이를 이용하여 상기 객체가 실제로 위치했던 지점을 추출하며,
상기 객체가 실제로 위치했던 지점과 상기 제1 감시부, 상기 제2 감시부, 상기 특이지점 중 어느 하나 또는 둘 이상 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하는 것을 특징으로 하는 감시 시스템.
13. The method of claim 12,
The control unit,
Calculate the actual height of the object at the point where the object is recognized to extract the virtual height of the object at the point where the object is not recognized,
Extracting the point where the object is actually located by using the actual height of the object and the virtual height of the object,
The distance on the horizontal line between the point where the object is actually located and one or more of the first monitoring unit, the second monitoring unit, and the singular point, the height difference of the terrain, and the slope of the terrain are extracted to the terrain information. Surveillance system, characterized in that reflected.
감시 시스템에 있어서,
제1 감시부와;
특정 영역을 감시하는 제2 감시부와;
상기 제1 감시부에 의한 제1 감시영상을 통해 객체가 인식되는 경우, 상기 객체의 폭과 높이정보를 이용하여 객체정보를 생성하는 객체정보생성부와; 및
상기 객체정보를 통해 상기 객체의 종류를 구분하는 객체종류구분부; 및
상기 객체종류구분부에 의해 구분된 상기 객체의 종류에 따라 상기 객체의 감시여부를 판단하며, 판단 결과 상기 객체를 감시하고자 하는 경우 상기 객체정보를 이용하여 상기 제2 감시부가 상기 객체를 감시하도록 제어하는 제어부;
를 포함하는 감시 시스템.
In the surveillance system,
A first monitoring unit;
A second monitoring unit for monitoring a specific area;
An object information generation unit for generating object information using the width and height information of the object when the object is recognized through the first surveillance image by the first monitoring unit; And
An object type classification unit for classifying the type of the object through the object information; And
It is determined whether the object is monitored according to the type of the object classified by the object type classification unit, and when the result is determined to monitor the object, the second monitoring unit monitors the object by using the object information. A control unit;
Surveillance system comprising a.
제 15 항에 있어서,
상기 제1 감시영상과, 상기 제2 감시부에 의한 제2 감시영상을 이용하여 상기 제1 감시부와 상기 제2 감시부 주위의 지형도를 작성하는 지형도작성부가 포함되고,
상기 객체정보에는 상기 지형도에 따른 상기 객체의 위치정보가 포함되며,
상기 제어부는 상기 객체를 감시하고자 하는 경우 상기 지형도와, 상기 객체의 위치정보가 포함된 객체정보를 이용하는 것을 특징으로 하는 감시 시스템.
The method of claim 15,
A topographic map creation unit for creating a topographical map around the first monitoring unit and the second monitoring unit by using the first surveillance image and the second surveillance image by the second monitoring unit;
The object information includes location information of the object according to the topographic map.
And the control unit uses the topographical map and object information including location information of the object when the object is to be monitored.
제 16 항에 있어서,
상기 지형도작성부는,
상기 제1 감시부가 위치하는 지점과 상기 제2 감시부가 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 지형정보를 생성하고,
상기 지형정보를 3차원 그래픽화하여 상기 지형도를 작성하는 것을 특징으로 하는 감시 시스템.
17. The method of claim 16,
The topographic map creation unit,
Generating terrain information by extracting a distance on a horizontal line between the point where the first monitoring unit is located and the point where the second monitoring unit is located, a height difference of the terrain, and a slope of the terrain;
Surveillance system, characterized in that for producing the topographical map by three-dimensional graphics of the topographic information.
제 17 항에 있어서,
상기 제1 감시영상에 상기 객체가 인식되고, 상기 제2 감시영상에 상기 객체가 인식되지 않는 경우,
상기 제어부는,
상기 제2 감시부가 상기 객체를 추적하도록 하고,
상기 제2 감시영상에 상기 객체가 인식되면 상기 객체의 객체정보를 생성하도록 하며,
상기 객체가 인식된 지점과 상기 제1 감시부, 상기 제2 감시부, 상기 지점 중 어느 하나 또는 둘 이상이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하도록 제어하는 것을 특징으로 하는 감시 시스템.
The method of claim 17,
When the object is recognized in the first surveillance image, the object is not recognized in the second surveillance image,
The control unit,
Let the second monitor track the object,
When the object is recognized in the second surveillance image, object information of the object is generated.
Extracts a distance on a horizontal line, a height difference of a terrain, and a slope of a terrain between a point at which the object is recognized and the first monitoring unit, the second monitoring unit, or a point at which one or more of the points are located; Surveillance system characterized in that the control to reflect the information.
제 18 항에 있어서,
상기 제2 감시부는 상기 지형도를 이용하여 상기 객체를 추적하는 것을 특징으로 하는 감시 시스템.
The method of claim 18,
And the second monitoring unit tracks the object using the topographic map.
제 18 항에 있어서,
상기 제어부는,
상기 객체가 인식된 지점에서의 상기 객체의 실제높이와 상기 객체가 인식되지 않은 지점에서의 상기 객체의 가상높이를 추출하도록 하고,
상기 객체의 실제높이와 상기 객체의 가상높이를 이용하여 상기 객체가 실제로 위치했던 지점을 추출하며,
상기 객체가 실제로 위치했던 지점과 상기 제1 감시부, 상기 제2 감시부 중 어느 하나 또는 둘 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하는 것을 특징으로 하는 감시 시스템.
The method of claim 18,
The control unit,
Extract the actual height of the object at the point where the object is recognized and the virtual height of the object at the point where the object is not recognized,
Extracting the point where the object is actually located by using the actual height of the object and the virtual height of the object,
Characterized in that the distance on the horizontal line, the height difference of the terrain and the slope of the terrain between the point where the object is actually located and the one or two of the first monitoring unit, the second monitoring unit is extracted and reflected in the terrain information. Surveillance system.
제 19 항에 있어서,
상기 제어부는,
상기 객체가 인식된 지점에서의 상기 객체의 실제높이를 연산하여 상기 객체가 인식되지 않은 지점에서의 상기 객체의 가상높이를 추출하도록 하고,
상기 객체의 실제높이와 상기 객체의 가상높이를 이용하여 상기 객체가 실제로 위치했던 지점을 추출하며,
상기 객체가 실제로 위치했던 지점과 상기 제1 감시부, 상기 제2 감시부 중 어느 하나 또는 둘 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하는 것을 특징으로 하는 감시 시스템.
The method of claim 19,
The control unit,
Calculate the actual height of the object at the point where the object is recognized to extract the virtual height of the object at the point where the object is not recognized,
Extracting the point where the object is actually located by using the actual height of the object and the virtual height of the object,
Characterized in that the distance on the horizontal line, the height difference of the terrain and the slope of the terrain between the point where the object is actually located and the one or two of the first monitoring unit, the second monitoring unit is extracted and reflected in the terrain information. Surveillance system.
제 17 항에 있어서,
상기 제1 감시부, 상기 제2 감시부 중 어느 하나 또는 둘의 주위에 하나 또는 둘 이상의 특이지점을 지정하고,
상기 특이지점과 상기 제1 감시부, 상기 제2 감시부 중 어느 하나 또는 둘이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하는 것을 특징으로 하는 감시 시스템.
The method of claim 17,
Designate one or more singular points around one or two of the first monitoring unit and the second monitoring unit,
Characterized in that the distance on the horizontal line between the singular point and the point where any one or two of the first monitoring unit, the second monitoring unit is located, the height difference of the terrain and the slope of the terrain is extracted and reflected in the terrain information Surveillance system.
제 22 항에 있어서,
상기 제1 감시영상에 상기 객체가 인식되고, 상기 제2 감시영상에 상기 객체가 인식되지 않는 경우,
상기 제어부는,
상기 제2 감시부가 상기 객체를 추적하도록 하고,
상기 제2 감시영상에 상기 객체가 인식되면 상기 객체의 객체정보를 생성하도록 하며,
상기 객체가 인식된 지점과 상기 제1 감시부, 상기 제2 감시부, 상기 지점 중 어느 하나 또는 둘 이상이 위치하는 지점 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하도록 제어하는 것을 특징으로 하는 감시 시스템.
The method of claim 22,
When the object is recognized in the first surveillance image, the object is not recognized in the second surveillance image,
The control unit,
Let the second monitor track the object,
When the object is recognized in the second surveillance image, object information of the object is generated.
Extracts a distance on a horizontal line, a height difference of a terrain, and a slope of a terrain between a point at which the object is recognized and the first monitoring unit, the second monitoring unit, or a point at which one or more of the points are located; Surveillance system characterized in that the control to reflect the information.
제 23 항에 있어서,
상기 제2 감시부는 상기 지형도를 이용하여 상기 객체를 추적하는 것을 특징으로 하는 감시 시스템.
24. The method of claim 23,
And the second monitoring unit tracks the object using the topographic map.
제 22 항에 있어서,
상기 제어부는,
상기 객체가 인식된 지점에서의 상기 객체의 실제높이와 상기 객체가 인식되지 않은 지점에서의 상기 객체의 가상높이를 추출하도록 하고,
상기 객체의 실제높이와 상기 객체의 가상높이를 이용하여 상기 객체가 실제로 위치했던 지점을 추출하며,
상기 객체가 실제로 위치했던 지점과 상기 제1 감시부, 상기 제2 감시부 중 어느 하나 또는 둘 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하는 것을 특징으로 하는 감시 시스템.
The method of claim 22,
The control unit,
Extract the actual height of the object at the point where the object is recognized and the virtual height of the object at the point where the object is not recognized,
Extracting the point where the object is actually located by using the actual height of the object and the virtual height of the object,
Characterized in that the distance on the horizontal line, the height difference of the terrain and the slope of the terrain between the point where the object is actually located and the one or two of the first monitoring unit, the second monitoring unit is extracted and reflected in the terrain information. Surveillance system.
제 23 항에 있어서,
상기 제어부는,
상기 객체가 인식된 지점에서의 상기 객체의 실제높이를 연산하여 상기 객체가 인식되지 않은 지점에서의 상기 객체의 가상높이를 추출하도록 하고,
상기 객체의 실제높이와 상기 객체의 가상높이를 이용하여 상기 객체가 실제로 위치했던 지점을 추출하며,
상기 객체가 실제로 위치했던 지점과 상기 제1 감시부, 상기 제2 감시부 중 어느 하나 또는 둘 사이의 수평선상 거리, 지형의 높낮이 차이 및 지형의 경사도를 추출하여 상기 지형정보에 반영하는 것을 특징으로 하는 감시 시스템.
24. The method of claim 23,
The control unit,
Calculate the actual height of the object at the point where the object is recognized to extract the virtual height of the object at the point where the object is not recognized,
Extracting the point where the object is actually located by using the actual height of the object and the virtual height of the object,
Characterized in that the distance on the horizontal line, the height difference of the terrain and the slope of the terrain between the point where the object is actually located and the one or two of the first monitoring unit, the second monitoring unit is extracted and reflected in the terrain information. Surveillance system.
제 15 항 내지 제 26 항 중 어느 한 항에 있어서,
제1 감시부는 어안렌즈 카메라, 초광각렌즈 카메라, 회전줌 카메라 중 어느 하나인 것을 특징으로 하는 감시 시스템.
27. The method according to any one of claims 15 to 26,
The first surveillance unit is any one of a fisheye lens camera, an ultra wide-angle lens camera, a zoom camera.
제 15 항 내지 제 26 항 중 어느 한 항에 있어서,
제2 감시부는 회전줌 카메라인 것을 특징으로 하는 감시 시스템.
27. The method according to any one of claims 15 to 26,
And the second monitoring unit is a rotation zoom camera.
제 27 항에 있어서,
제2 감시부는 회전줌 카메라인 것을 특징으로 하는 감시 시스템.
The method of claim 27,
And the second monitoring unit is a rotation zoom camera.
제 15 항 내지 제 26 항 중 어느 한 항에 있어서,
상기 지형도작성부, 상기 객체정보생성부, 상기 제어부 중 어느 하나 또는 둘 이상은 상기 제1 감시부에 설치되는 것을 특징으로 하는 감시 시스템.
27. The method according to any one of claims 15 to 26,
Any one or two or more of the topographic map creation unit, the object information generation unit, the control unit is installed in the first monitoring unit.
제 27 항에 있어서,
상기 지형도작성부, 상기 객체정보생성부, 상기 제어부 중 어느 하나 또는 둘 이상은 상기 제1 감시부에 설치되는 것을 특징으로 하는 감시 시스템.
The method of claim 27,
Any one or two or more of the topographic map creation unit, the object information generation unit, the control unit is installed in the first monitoring unit.
제 28 항에 있어서,
상기 지형도작성부, 상기 객체정보생성부, 상기 제어부 중 어느 하나 또는 둘 이상은 상기 제1 감시부에 설치되는 것을 특징으로 하는 감시 시스템.
29. The method of claim 28,
Any one or two or more of the topographic map creation unit, the object information generation unit, the control unit is installed in the first monitoring unit.
제 29 항에 있어서,
상기 지형도작성부, 상기 객체정보생성부, 상기 제어부 중 어느 하나 또는 둘 이상은 상기 제1 감시부에 설치되는 것을 특징으로 하는 감시 시스템.
30. The method of claim 29,
Any one or two or more of the topographic map creation unit, the object information generation unit, the control unit is installed in the first monitoring unit.
KR1020110041135A 2011-04-29 2011-04-29 Monitoring system KR101209598B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110041135A KR101209598B1 (en) 2011-04-29 2011-04-29 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110041135A KR101209598B1 (en) 2011-04-29 2011-04-29 Monitoring system

Publications (2)

Publication Number Publication Date
KR20120122779A true KR20120122779A (en) 2012-11-07
KR101209598B1 KR101209598B1 (en) 2012-12-07

Family

ID=47508984

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110041135A KR101209598B1 (en) 2011-04-29 2011-04-29 Monitoring system

Country Status (1)

Country Link
KR (1) KR101209598B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470316B1 (en) * 2014-08-11 2014-12-09 (주)엔토스정보통신 Closed-circuit television system of sensing risk according to the characteristic of sensing area and method thereof
KR20190072323A (en) * 2017-12-15 2019-06-25 동의대학교 산학협력단 Image Monitoring System and Method for Monitoring Image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4828359B2 (en) 2006-09-05 2011-11-30 三菱電機株式会社 Monitoring device and monitoring program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470316B1 (en) * 2014-08-11 2014-12-09 (주)엔토스정보통신 Closed-circuit television system of sensing risk according to the characteristic of sensing area and method thereof
KR20190072323A (en) * 2017-12-15 2019-06-25 동의대학교 산학협력단 Image Monitoring System and Method for Monitoring Image

Also Published As

Publication number Publication date
KR101209598B1 (en) 2012-12-07

Similar Documents

Publication Publication Date Title
CN105245850B (en) The methods, devices and systems of across monitoring camera carry out target tracking
KR102152318B1 (en) Tracking system that can trace object's movement path
US20140072170A1 (en) 3d human pose and shape modeling
WO2012029058A9 (en) Method and system for extracting three-dimensional information
WO2004004320A1 (en) Digital processing of video images
CN109773783B (en) Patrol intelligent robot based on space point cloud identification and police system thereof
KR20130123092A (en) System and method for indoor navigation
US20140049600A1 (en) Method and system for improving surveillance of ptz cameras
CN108259827B (en) Method, device, AR equipment and system for realizing security
CN103593641B (en) Object detecting method and device based on stereo camera
CN115597659B (en) Intelligent safety management and control method for transformer substation
KR101992662B1 (en) Gis 3 cctv 3 cctv
JP2023502239A (en) Stereo camera device with wide viewing angle and depth image processing method using same
CN114969221A (en) Method for updating map and related equipment
KR101209598B1 (en) Monitoring system
CN116778094B (en) Building deformation monitoring method and device based on optimal viewing angle shooting
WO2021248564A1 (en) Panoramic big data application monitoring and control system
CN107538485B (en) Robot guiding method and system
CN112396997A (en) Intelligent interactive system for shadow sand table
KR101758786B1 (en) Apparatus for determining location of special point in image and method thereof
KR20210140766A (en) Digital reconstruction methods, devices and systems for traffic roads
CN116259001A (en) Multi-view fusion three-dimensional pedestrian posture estimation and tracking method
CN112818866B (en) Vehicle positioning method and device and electronic equipment
KR102473804B1 (en) method of mapping monitoring point in CCTV video for video surveillance system
CN111780744B (en) Mobile robot hybrid navigation method, equipment and storage device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151203

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161205

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20171204

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181002

Year of fee payment: 7