KR101586026B1 - device and method of calculating coverage of camera in video surveillance system - Google Patents

device and method of calculating coverage of camera in video surveillance system Download PDF

Info

Publication number
KR101586026B1
KR101586026B1 KR1020140087279A KR20140087279A KR101586026B1 KR 101586026 B1 KR101586026 B1 KR 101586026B1 KR 1020140087279 A KR1020140087279 A KR 1020140087279A KR 20140087279 A KR20140087279 A KR 20140087279A KR 101586026 B1 KR101586026 B1 KR 101586026B1
Authority
KR
South Korea
Prior art keywords
surveillance
camera
unit
monitoring
area
Prior art date
Application number
KR1020140087279A
Other languages
Korean (ko)
Inventor
김학일
이성철
강지훈
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020140087279A priority Critical patent/KR101586026B1/en
Application granted granted Critical
Publication of KR101586026B1 publication Critical patent/KR101586026B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

Disclosed are a device and method for calculating a surveillance coverage of a camera for an image surveillance system. The device for calculating a surveillance coverage of a camera comprises: an input unit for receiving product information and installation information on the camera; a control unit for forming an expected surveillance coverage when the camera is installed on a three-dimensional map by using the information inputted by the input unit; a storage unit for storing the information inputted by the input unit and the surveillance coverage formed by the control unit; a display unit for displaying the surveillance coverage formed on the three-dimensional map; and an interface unit for sensing an operation of a user who instructs a user′s command on formation of the surveillance coverage. The method for calculating the surveillance coverage of the camera comprises the following steps: estimating a position where a camera is to be installed; converting a surveillance coverage into latitude and longitude coordinates based on the estimated position; connecting the converted latitude and longitude coordinates to form a polygon; and forming the surveillance coverage on the three-dimensional map by using the formed polygon.

Description

영상감시 시스템을 위한 카메라 감시 영역 산출 장치 및 방법{device and method of calculating coverage of camera in video surveillance system}Technical Field [0001] The present invention relates to a device and method for calculating a camera surveillance area for a video surveillance system,

본 발명은 영상감시 시스템을 위한 카메라 감시 영역 산출 장치 및 방법에 관한 것이다. 보다 상세하게는, 핀홀 카메라 모델을 이용하여 산출된 카메라 감시 영역을 위도, 경도, 고도 좌표로 변환하여 공간 정보 오픈 플랫폼 기반의 가상 3D 지도에서 감시 영역을 확인할 수 있는 영상감시 시스템을 위한 카메라 감시 영역 산출 장치 및 방법에 관한 것이다.
The present invention relates to an apparatus and method for calculating a camera surveillance area for a surveillance system. More particularly, the present invention relates to a camera surveillance area for a video surveillance system capable of confirming a surveillance area on a virtual 3D map based on a spatial information open platform by converting a camera surveillance area calculated using a pinhole camera model into latitude, longitude, And more particularly,

날로 증가하는 각종 강력 범죄들로 인해 안전에 대한 사람들의 요구가 증가하고 있다. 최근의 범죄들은 그 수법이 더욱 지능화되고 다양해지고 있으며 때와 장소를 가리지 않는 예측 불가능한 특징으로 인해 보다 지능적이고 체계적인 보안 솔루션이 필요하게 되었다. 이에 따라 다수의 감시 장비로 넓은 지역을 실시간으로 감시하며 여러 지역에서 발생할 수 있는 사건들에 대해 상호 연관성을 파악하여 대처할 수 있는 대규모 종합 감시시스템은 이러한 위협을 효과적으로 억제할 수 있는 수단으로 각광받으며 학교나 주거단지 및 지자체 등에서 그 수요와 설치 사례가 증가하고 있다.
People are increasingly demanding safety because of the increasing number of violent crimes. Recent crimes have become more intelligent and diverse, and more and more intelligent and systematic security solutions have become necessary due to unpredictable features, both time and place. As a result, a large-scale comprehensive surveillance system capable of monitoring large areas in real time with a large number of surveillance devices and correlating the events that may occur in various regions can be effectively used as a means of effectively suppressing such threats. The demand and installation cases are increasing in the residential complexes and local governments.

설치된 종합 감시시스템은 적게는 수십에서 많게는 수천 대의 감시 카메라를 통합하여 운용하는 등 그 규모가 다양하고 설치 목적도 범죄 예방뿐 아니라 쓰레기 무단 투기나 재난경보까지 포함하는 등 사회 문제의 여러 부분을 책임지게 된다.
The installed comprehensive monitoring system has various sizes such as integrating several dozens to many thousands of surveillance cameras, and the purpose of installation is not only to prevent crime but also to cover various parts of social problems including waste disposal and disaster warning. do.

그러나 이러한 대규모 감시 시스템을 체계적으로 운용하고 설계하기 위한 기준이나 경험이 부족하여 큰 비용을 들여 구축한 감시 시스템이 무용지물이 되는 사례가 발생하고 있다.
However, there is a case that the surveillance system constructed with high cost is useless due to lack of standard or experience for systematically operating and designing such a large - scale surveillance system.

가장 큰 원인은 감시 카메라의 잘못된 설치로 인해 발생하게 되는 감시 영역의 오차이다. 잘못 설치된 감시 카메라는 범죄 현장을 놓칠 수 있으며, 시스템의 신뢰도를 떨어뜨리고 뒤늦은 설치 교정으로 인한 비용의 낭비를 일으킨다.
The biggest cause is the error of the surveillance area caused by erroneous installation of the surveillance camera. Incorrectly installed surveillance cameras can miss crime scenes, degrade system reliability, and cause waste of cost due to late installation calibration.

현재 감시 카메라설치를 시뮬레이션 할 수 있는 소프트웨어(CCTV-CAD, CCTV Design Tool, Archispace Video, FLIR Raven Security Site Planning Tool)들이 상용화되어 제공되고 있지만 대부분 시뮬레이션을 위해 모델링 된 건축물의 3D 공간정보와 실내 전용의 좌표를 사용하기 때문에 주거단지나 마을과 같은 복잡하고 넓은 지형에 적용하지 못한다. 실외용 시뮬레이션 기능을 제공하더라도 2차원 맵 상에 표현되며 정확히 계산된 감시 영역을 제공하지 않는다.
Currently, software (CCTV-CAD, CCTV Design Tool, Archispace Video, and FLIR Raven Security Site Planning Tool) that simulates the installation of surveillance cameras is commercially available but most of them are 3D spatial information of buildings modeled for simulation, Because it uses coordinates, it does not apply to complex and wide terrain such as residential complexes and villages. Even if the outdoor simulation function is provided, it is expressed on a two-dimensional map and does not provide a precisely calculated surveillance area.

이와 같이 감시 카메라의 특성뿐 아니라 설치 위치, 감시 방향, 주변 지형까지 고려하여 설치 예정인 감시 카메라가 어떠한 감시 영역을 가지는지 파악할 수 있는 방법은 실외 감시 카메라설치에 있어서 제공되는 사례가 존재하지 않았다. 대안으로 경험적 판단에 의존하거나, 오차를 감수하면서 간단한 계산 방법을 통해 대략적인 설치 조건을 결정하는 방법이 선택되고 있는 실정이다.
In this way, there is no case in which an outdoor surveillance camera is installed in a way that can observe the surveillance area of a surveillance camera scheduled to be installed considering the installation location, the surveillance direction, and the surrounding terrain as well as the characteristics of the surveillance camera. As a alternative, a method of determining the approximate installation condition by a simple calculation method is selected depending on empirical judgment or taking an error.

하지만 적게는 수십, 많게는 수천 대의 감시 카메라가 유기적으로 연동되어야 하는 종합 감시시스템에 있어 이러한 기존의 방법은 잘못 설계된 감시시스템을 바로잡는 등의 불필요한 비용 낭비를 발생시키며 체계적인 감시계획의 수립을 어렵게 하여 감시시스템의 신뢰도와 활용 효율을 저하시키게 된다. 또한 앞으로 더욱 지능적으로 발전하게 될 감시시스템에 있어서도 가장 기본이 되는 감시 영역의 부정확성은 치명적인 문제가 될 수 있다.
However, in the case of an integrated surveillance system in which dozens or even thousands of surveillance cameras have to be linked organically, this conventional method causes unnecessary expenditure such as correcting a wrongly designed surveillance system and makes it difficult to establish a systematic surveillance plan Thereby reducing the reliability and utilization efficiency of the system. In addition, the inaccuracy of the surveillance area, which is the most basic in the surveillance system that will be developed more intelligently in the future, can be a fatal problem.

따라서, 체계적인 감시계획 설계와, 정확한 감시 현황 파악을 통한 감시시스템의 신뢰성 및 비용 효율성 증대를 위해 실외 감시 카메라 설치에 있어서, 직접 설치하기 전에 감시 카메라의 정확한 감시 영역을 계산할 수 있는 방법 및 감시 영역을 시각적으로 확인할 수 있는 어플리케이션이 요구되고 있다.
Therefore, in order to increase the reliability and cost efficiency of the surveillance system through the systematic monitoring plan design and the accurate monitoring status, it is necessary to set up the surveillance area and the method of calculating the accurate surveillance area of the surveillance camera before installing the outdoor surveillance camera There is a demand for an application that can be visually confirmed.

본 발명이 이루고자 하는 기술적 과제는 감시 카메라 설치 전에 핀 홀 카메라 모델을 이용하여 감시 카메라의 정확한 감시 영역을 산출하는 카메라 감시 영역 산출 장치 및 방법을 제공하는데 있다.
An object of the present invention is to provide an apparatus and method for calculating a camera surveillance area using a pinhole camera model before the installation of a surveillance camera.

상기 목적을 달성하기 위한, 본 발명에 따른 카메라 감시 영역 산출 장치는 카메라 제품 정보 및 상기 카메라 설치 정보를 입력 받는 입력부, 상기 입력부에서 입력된 정보를 이용하여 3차원 지도상에 감시 카메라 설치 시, 예상되는 감시 영역을 형성하는 제어부, 상기 입력부에서 입력된 정보 및 상기 제어부에서 형성된 감시 영역을 저장하는 저장부, 상기 3차원 지도상에 상기 형성된 감시 영역을 디스플레이하는 디스플레이부 및 상기 감시 영역의 형성에 대한 사용자 명령을 지시하는 사용자 조치를 감지하는 인터페이스부를 포함할 수 있다.
According to an aspect of the present invention, there is provided an apparatus for calculating camera surveillance regions, the apparatus comprising: an input unit for receiving camera product information and camera installation information; A display unit for displaying the surveillance area on the three-dimensional map, and a display unit for displaying the surveillance area on the three-dimensional map, And an interface unit for sensing a user action indicating a user command.

또한, 본 발명에 따른 따른 카메라 감시 영역 산출 방법은 카메라가 설치될 위치를 추정하는 단계, 상기 추정된 위치를 기초로 감시 영역을 위/경도 좌표로 변환하는 단계, 상기 변환된 위/경도 좌표를 연결하여 폴리곤을 형성하는 단계; 및 상기 형성된 폴리곤을 이용하여 상기 3차원 지도상에 감시 영역을 형성하는 단계를 포함할 수 있다.
According to another aspect of the present invention, there is provided a method for calculating a camera surveillance region, comprising the steps of: estimating a position where a camera is to be installed; converting a surveillance region into positional / longitudinal coordinates based on the estimated position; To form a polygon; And forming a surveillance region on the three-dimensional map using the formed polygon.

본 발명에 따른 제목에 의하면, 실외 감시 카메라를 설치하기 전에, 카메라의 감시 영역을 산출하여 카메라가 설치될 위치를 설정하여 감시 시스템의 효율성을 증대시키고, 비용을 감소시킬 수 있다.
According to the title of the present invention, before the outdoor surveillance camera is installed, the surveillance area of the camera can be calculated to set the location where the camera is installed, thereby increasing the efficiency of the surveillance system and reducing the cost.

또한, 감시 대상의 정확한 좌표를 계산하는 지능형 영상 보안 분야에 응용될 수 있으며, 감시 카메라의 설계 결과를 빠르게 예상할 수 있다.
In addition, it can be applied to intelligent video security field that calculates accurate coordinates of a surveillance target, and the design result of surveillance camera can be predicted quickly.

도 1은 본 발명의 일 실시예에 따른 카메라 감시 영역 산출 장치가 도시된 블록도이다.
도 2는 본 발명의 일 실시예에 따른 카메라 감시 영역 산출 장치의 제어부가 도시된 블록도이다.
도 3은 본 발명의 일 실시예에 따른 카메라감시 영역 산출 장치의 좌표 변환 모듈이 도시된 블록도이다.
도 4는 본 발명의 일 실시예에 따른 유효 감시 거리 산출을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 3차원 피라미드 형성을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 3차원 피라미드의 각 꼭지점 산출 및 위/경도 좌표로 변환을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 감시 영역 산출을 설명하기 위한 도면이다.
도 8는 본 발명의 일 실시예에 따른 어플리케이션의 구동 화면을 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 감시 목적 선택 유닛을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 카메라감시 영역 산출 방법을 도시한 흐름도이다.
도 11은 본 발며의 일 실시예에 따른 어플리케이션의 실험 결과를 도시한 도면이다.
FIG. 1 is a block diagram illustrating a camera surveillance area calculating apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a control unit of the camera surveillance zone calculation apparatus according to an exemplary embodiment of the present invention.
3 is a block diagram illustrating a coordinate transformation module of the camera surveillance region calculation apparatus according to an embodiment of the present invention.
4 is a view for explaining calculation of effective monitoring distance according to an embodiment of the present invention.
FIG. 5 is a view for explaining the formation of a three-dimensional pyramid according to an embodiment of the present invention.
FIG. 6 is a diagram for explaining the calculation of each vertex of a 3D pyramid and the conversion of the vertex / longitude coordinates according to an embodiment of the present invention.
FIG. 7 is a diagram for explaining a surveillance area calculation according to an embodiment of the present invention.
FIG. 8 is a view showing a driving screen of an application according to an embodiment of the present invention.
9 is a view for explaining a monitoring purpose selection unit according to an embodiment of the present invention.
FIG. 10 is a flowchart illustrating a camera surveillance area calculation method according to an embodiment of the present invention.
11 is a diagram illustrating an experimental result of an application according to an embodiment of the present invention.

이하 본 발명의 실시예를 첨부된 도면들을 참조하여 상세히 설명할 수 있다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 할 수 있다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 당업자에게 자명하거나 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather obvious or understandable to those skilled in the art.

도 1은 본 발명의 일 실시예에 따른 카메라 감시 영역 산출 장치가 도시된 블록도이다. FIG. 1 is a block diagram illustrating a camera surveillance area calculating apparatus according to an embodiment of the present invention.

도 1을 참조하면, 카메라감시 영역 산출 장치(1)는 입력부(100), 제어부(200), 디스플레이부(300), 사용자 인터페이스부(400) 및 저장부(500)를 포함할 수 있다.
Referring to FIG. 1, the camera surveillance area calculation apparatus 1 may include an input unit 100, a control unit 200, a display unit 300, a user interface unit 400, and a storage unit 500.

입력부(100)는 감시 카메라 제품 특징인 수평 및 수직 FOV(Field of View), 감시 거리를 사용자 명령에 의해 입력할 수 있다. 또한, 입력부(100)는 설치할 위치의 위도, 경도, 고도, 수직 기울기 각도 및 수평 기울기 각도를 입력할 수 있다. 입력부(100)의 입력 방식에는 사용자가 위도, 경도 및 고도를 직접 입력하는 방식이 있을 수 있으며, 임의의 지점을 터치하거나 클릭하여 위도 및 경도가 자동으로 입력되는 방식이 있을 수 있다. 이 때, 임의의 지점을 터치하거나 클릭하여 위도 및 경도를 자동으로 입력되게 하는 방식에서 고도는 사용자가 설정한다.
The input unit 100 can input horizontal and vertical FOV (field of view) and monitoring distance, which are features of a surveillance camera product, by a user command. In addition, the input unit 100 can input latitude, longitude, altitude, vertical inclination angle, and horizontal inclination angle of a location to be installed. The input method of the input unit 100 may include a method of directly inputting latitude, longitude, and altitude by a user, and there may be a method of automatically inputting latitude and longitude by touching or clicking on an arbitrary point. At this time, the altitude is set by the user in such a manner that a certain point is touched or clicked to automatically input latitude and longitude.

제어부(200)는 입력부(100)에서 입력된 수평 및 수직 FOV(Field of View), 감시 거리, 위도, 경도, 고도, 수직 기울기 각도 및 수평 기울기 각도를 이용하여 지도상에 감시 영역을 형성할 수 있다. 이 때, 지도는 공간정보 오픈 플랫폼을 포함할 수 있다. 공간 정보 오픈 플랫폼은 개인과 기업이 자유롭게 활용하여 2차, 3차 공간정보 서비스를 개발할 수 있도록 다양한 방법을 제공하는 플랫폼을 의미한다. 예를 들어, 구글의 구글 어스, 국토교통부의 VworldVWorld 서비스를 들 수 있다.
The control unit 200 can form a surveillance region on the map by using the horizontal and vertical FOV (field of view), the observation distance, the latitude, the longitude, the altitude, the vertical slope angle and the horizontal slope angle input from the input unit 100 have. At this time, the map may include a spatial information open platform. Spatial information open platform means a platform providing various methods to freely utilize individual and company to develop secondary and tertiary spatial information service. For example, Google Earth in Google and VWorldVWorld in the Ministry of Land, Transport and Maritime.

디스플레이부(300)는 3차원 지도 영상을 디스플레이 할 수 있다. 또한, 디스플레이부(300)는 제어부(200)에서 지도상에 형성한 감시 영역의 영상을 출력할 수 있다. 디스플레이부(300)는 터치스크린 기능을 포함할 수 있다.
The display unit 300 may display a three-dimensional map image. In addition, the display unit 300 can output the image of the surveillance region formed on the map by the control unit 200. [ The display unit 300 may include a touch screen function.

사용자 인터페이스부(400)는 제어부(200)와 사용자를 연결해 줄 수 있다. 사용자 인터페이스부(400)는 사용자 명령을 감지하고 감지한 사용자 명령을 제어부(200)로 출력할 수 있다.
The user interface unit 400 can connect the control unit 200 and a user. The user interface unit 400 may sense a user command and output the detected user command to the control unit 200.

저장부(500)는 카메라감시 영역 산출 과정을 수행하기 위한 소프트웨어를 저장할 수 있다. 저장부(500)에 저장된 정보는 제어부(200)의 제어를 통해서 업데이트 될 수 있다. 또한, 저장부(500)는 입력부(100)에서 입력된 정보 및 제어부(200)에서 형성된 감시 영역을 저장할 수 있다.
The storage unit 500 may store software for performing the camera surveillance area calculation process. The information stored in the storage unit 500 may be updated through the control of the control unit 200. The storage unit 500 may store the information input from the input unit 100 and the monitoring area formed in the controller 200. [

도 2는 본 발명의 일 실시예에 따른 카메라 감시 영역 산출 장치의 제어부가 도시된 블록도이다. 2 is a block diagram illustrating a control unit of the camera surveillance zone calculation apparatus according to an exemplary embodiment of the present invention.

도 2를 참조하면, 제어부(200)는 카메라설치 위치 추정 모듈(210), 좌표 변화 모듈(220), 폴리곤 형성 모듈(230) 및 감시 영역 형성 모듈(240)을 포함할 수 있다.
2, the control unit 200 may include a camera installation position estimation module 210, a coordinate change module 220, a polygon formation module 230, and a monitoring area formation module 240. FIG.

감시 카메라설치 위치 추정 모듈(210)은 입력부(100)에서 입력받은 카메라정보를 내부 데이터로 변환할 수 있다. 카메라설치 위치 추정 모듈(210)은 변환된 내부 데이터를 이용하여 카메라설치 위치를 추정할 수 있다. 카메라설치 위치 추정 모듈(210)은 추정된 카메라설치 위치를 이용하여, 설치될 카메라의 촬영이 예상되는 영역을 디스플레이부(300)에 생성할 수 있다. 즉, 카메라설치 위치 추정 모듈(210)은 설치될 카메라의 위치에 따라 촬영되는 각각의 영역을 디스플레이부가 디스플레이 하도록 제어할 수 있다.
The surveillance camera installation position estimation module 210 may convert the camera information received from the input unit 100 into internal data. The camera installation position estimation module 210 can estimate the camera installation position using the converted internal data. The camera installed position estimation module 210 can generate an area in the display unit 300 where an image of the camera to be installed is expected, using the estimated camera installed position. That is, the camera installed position estimation module 210 can control the display unit to display each region photographed according to the position of the camera to be installed.

이 때, 입력부(100)에서 입력받은 카메라정보는 위도, 경도, 고도를 포함할 수 있다. 또한, 카메라설치 위치 추정 모듈(210)은 위도, 경도 및 고도 세 가지로 나눠진 변수를 하나의 객체로 결합한 내부 데이터 타입으로 변환할 수 있다.
At this time, the camera information received from the input unit 100 may include latitude, longitude, and altitude. In addition, the camera installed position estimation module 210 may convert an internal data type combining variables divided into latitude, longitude, and altitude into one object.

좌표 변환 모듈(220)은 감시 목적을 선택한 뒤, 유효 감시 거리를 산출할 수 있다. 좌표 변환 모듈(220)은 산출된 유효 감시 거리를 기초로 3차원 피라미드를 형성할 수 있으며, 형성된 3차원 피라미드의 꼭지점을 이용하여 지면과 교차하는 점을 추출할 수 있다. 이를 통해, 좌표 변환 모듈(220)은 3차원 피라미드와 지면과 교차하는 점을 위/경도 좌표로 변환할 수 있다.
The coordinate transformation module 220 can calculate the effective monitoring distance after selecting the monitoring purpose. The coordinate transformation module 220 can form a three-dimensional pyramid on the basis of the calculated effective monitoring distance, and can extract a point intersecting the ground using the vertex of the formed three-dimensional pyramid. Accordingly, the coordinate transformation module 220 can convert the point intersecting the three-dimensional pyramid and the ground into the position / hardness coordinate.

폴리곤 형성 모듈(230)은 좌표 변화 모듈(220)에서 변환한 위/경도 좌표를 연결하여 폴리곤을 형성할 수 있다. 이 때, 폴리곤은 3차원 컴퓨터 그래픽에서 입체형상을 표현할 때 사용하는 가장 작은 단위인 다각형을 의미하며, 빠른 계산이 필요한 3차원 컴퓨터그래픽이나 3차원 캐드(3D CAD)에서 많이 이용된다.
The polygon forming module 230 may form polygons by connecting the converted position / hardness coordinates in the coordinate change module 220. In this case, the polygon refers to a polygon, which is the smallest unit used to represent a three-dimensional shape in a three-dimensional computer graphic, and is often used in a three-dimensional computer graphic or a three-dimensional CAD (3D CAD).

감시 영역 형성 모듈(240)은 폴리곤 형성 모듈(230)에서 형성한 폴린곤을 이용하여 지도상에 감시 영역을 형성할 수 있다. 보다 상세하게, 감시 영역 형성 모듈(140)은 폴리곤 형성 모듈(230)에서 형성한 폴린곤의 색과 테두리 속성을 지정하여 감시 영역을 지도상에 표현될 수 있도록 한다.
The surveillance area forming module 240 can form a surveillance area on the map by using the polygon gon formed by the polygon forming module 230. In more detail, the surveillance area forming module 140 designates the color and border attributes of the polygon gon formed by the polygon forming module 230 so that the surveillance area can be expressed on the map.

도 3은 본 발명의 일 실시예에 따른 카메라감시 영역 산출 장치의 좌표 변환 모듈이 도시된 블록도이다. 3 is a block diagram illustrating a coordinate transformation module of the camera surveillance region calculation apparatus according to an embodiment of the present invention.

도 3을 참조하면, 좌표 변환 모듈(220)은 감시 목적 선택 유닛(221), 유효 감시 거리 산출 유닛(222), 3차원 피라미드 형성 유닛(223) 및 위/경도 좌표 변환 유닛(224)을 포함할 수 있다.
3, the coordinate transformation module 220 includes a monitoring target selection unit 221, an effective monitoring distance calculation unit 222, a three-dimensional pyramid formation unit 223 and a stomach / hardness coordinate transformation unit 224 can do.

감시 목적 선택 유닛(221)은 감시 목적을 선택할 수 있다. 감시 목적 선택 유닛(221)은 감시 목적에 따라 카메라의 유효 감시 영역이 달라지므로, 사람의 신원 확인이 목적인지, 단순히 사람의 탐지가 목적인지 정할 수 있다. 감시 목적 선택 유닛(221)은 목적에 따라 영상의 높이와 사람의 배율을 다르게 형성할 수 있다. 보다 상세하게, 감시 목적 선택 유닛(221)은 감시 목적에 따라 사람에 해당하는 영역의 화소수는 달라져야 하므로, 예를 들어, 도 9에 도시된 바와 같이, 카메라가 촬영한 영상의 높이를 100%라고 할 때, 사람의 신원을 확인하기 위한 경우는 영상의 높이에 100%에 해당하는 크기만큼 사람이 위치되도록 하며, 단순 관찰이 목적인 경우는 영상 높이의 25%에 해당하는 크기만큼 사람이 위치되도록 할 수 있다. 또한, 감시 목적 선택 유닛(221)은 사용자 명령에 의해 영상 높이의 퍼센트를 설정할 수 있다.
The monitoring purpose selection unit 221 can select the monitoring purpose. Since the effective surveillance area of the camera is changed according to the purpose of surveillance, the surveillance objective selection unit 221 can determine whether the purpose of the person is to confirm the identity of the person or simply to detect the person. The monitoring purpose selection unit 221 may form the image height and the magnification of the person differently according to the purpose. More specifically, since the number of pixels of the region corresponding to the person must be different according to the purpose of monitoring, the monitoring target selection unit 221 may set the height of the image photographed by the camera as 100% In order to confirm the identity of a person, the person shall be placed at a height corresponding to 100% of the height of the image. can do. Also, the monitoring purpose selection unit 221 can set a percentage of the image height by a user command.

유효 감시 거리 산출 유닛(222)은 핀홀 카메라 모델을 이용하여 유효 감시 거리를 산출할 수 있다. 유효 감시 거리 산출 유닛(222)의 산출과정은 도 4를 참조하여 보다 상세하게 설명한다.
The effective monitoring distance calculating unit 222 can calculate the effective monitoring distance using the pinhole camera model. The calculation process of the effective monitoring distance calculation unit 222 will be described in more detail with reference to FIG.

3차원 피라미드 형성 유닛(223)은 3차원 피라미드를 형성하기 위한 삼각형을 형성할 수 있다. 3차원 피라미드 형성 유닛(223)은 감시 영역을 3차원 피라미드 형태로 형성할 수 있다. 이 때, 카메라에 따라 다른 감시 영역을 가지므로, 설치 위치, 높이, 감시방향, FOV(field of view)은 감시 영역을 설정하는 변수가 될 수 있다. 카메라의 설치 위치, 높이, 감시방향, FOV(field of view)은 도 5를 참조하여 보다 상세하게 설명한다.
The three-dimensional pyramid forming unit 223 can form a triangle for forming a three-dimensional pyramid. The three-dimensional pyramid forming unit 223 can form a surveillance region in the form of a three-dimensional pyramid. At this time, since the camera has different surveillance regions, the installation position, height, surveillance direction, and field of view (FOV) can be parameters for setting the surveillance region. The installation position, height, monitoring direction, and field of view (FOV) of the camera will be described in more detail with reference to FIG.

위/경도 좌표 변환 유닛(224)은 3차원 피라미드를 이용하여 각 꼭지점을 추출할 수 있으며, 3차원 피라미드와 땅이 만나는 지점을 추출할 수 있다. 위/경도 좌표 변환 유닛(224)은 3차원 피라미드와 땅이 만나는 지점을 위/경도 좌표로 변환할 수 있다.
The position / hardness coordinate transformation unit 224 can extract each vertex using a three-dimensional pyramid and extract a point where the three-dimensional pyramid meets the ground. The up / down co-ordinate transformation unit 224 can convert the point where the three-dimensional pyramid and the ground meet into the up / down co-ordinates.

도 4는 본 발명의 일 실시예에 따른 유효 감시 거리 산출을 설명하기 위한 도면이다. 4 is a view for explaining calculation of effective monitoring distance according to an embodiment of the present invention.

도 4를 참조하면, 감시 목적 선택 유닛(221)이 목적에 맞게 설정한 배율을 기초로 유효 감시 거리 산출 유닛(222)은 핀홀 카메라 모델을 이용하여 유효 감시 거리를 산출할 수 있다. 보다 상세하게, 유효 감시 거리 산출 유닛(222)은 도 4를 기초로 수학식 1 및 수학식 2를 이용하여 유효 감시 거리를 산출할 수 있다.
Referring to FIG. 4, the effective monitoring distance calculating unit 222 can calculate the effective monitoring distance using the pinhole camera model based on the magnification set by the monitoring target selection unit 221 in accordance with the purpose. More specifically, the effective monitoring distance calculation unit 222 can calculate the effective monitoring distance using Equations (1) and (2) based on FIG.

Figure 112014065261278-pat00001
Figure 112014065261278-pat00001

Figure 112014065261278-pat00002
Figure 112014065261278-pat00002

이 때,

Figure 112014065261278-pat00003
는 카메라의 초점거리이고,
Figure 112014065261278-pat00004
는 화소 크기이며,
Figure 112014065261278-pat00005
는 배율(scale factor)이다. 또한,
Figure 112014065261278-pat00006
는 물체의 크기이며,
Figure 112014065261278-pat00007
은 영상의 높이가 100%인 경우의 감시 거리이며,
Figure 112014065261278-pat00008
는 유효 감시 거리이다.
At this time,
Figure 112014065261278-pat00003
Is the focal length of the camera,
Figure 112014065261278-pat00004
Is a pixel size,
Figure 112014065261278-pat00005
Is a scale factor. Also,
Figure 112014065261278-pat00006
Is the size of the object,
Figure 112014065261278-pat00007
Is a monitoring distance when the height of the image is 100%
Figure 112014065261278-pat00008
Is the effective monitoring distance.

카메라 초점 거리(

Figure 112014065261278-pat00009
)는 카메라 캘리브레이션을 이용하여 구할 수 있으며, 배율(
Figure 112014065261278-pat00010
)은 감시 목적에 따라 정할 수 있다. 우선, 영상의 높이의 100%에 해당하는 거리에서 영상을 촬영하고, 그 때의 감시 거리(
Figure 112014065261278-pat00011
)를 기록한다. 그 후, 원하는 목적에 따라 배율(
Figure 112014065261278-pat00012
)을 정하고, 수학식 1을 이용하여
Figure 112014065261278-pat00013
를 구한다. 마지막으로, 수학식 2를 이용하여 유효 감시 거리(
Figure 112014065261278-pat00014
)를 산출한다.
Camera focus distance (
Figure 112014065261278-pat00009
) Can be obtained using camera calibration, and the magnification (
Figure 112014065261278-pat00010
) May be determined according to the purpose of surveillance. First, an image is taken at a distance corresponding to 100% of the height of the image, and the monitoring distance
Figure 112014065261278-pat00011
). Thereafter, the magnification (
Figure 112014065261278-pat00012
) Is determined, and using Equation (1)
Figure 112014065261278-pat00013
. Finally, using the equation (2), the effective monitoring distance (
Figure 112014065261278-pat00014
).

도 5는 본 발명의 일 실시예에 따른 3차원 피라미드 형성을 설명하기 위한 도면이다. FIG. 5 is a view for explaining the formation of a three-dimensional pyramid according to an embodiment of the present invention.

도 5를 참조하면, 카메라를 측면에서 바라본 경우로,

Figure 112014065261278-pat00015
는 수직 FOV를 나타내며,
Figure 112014065261278-pat00016
는 수평 FOV를 나타낸다. 또한,
Figure 112014065261278-pat00017
는 카메라의 수직 기울기 각도(Tilt angle),
Figure 112014065261278-pat00018
는 카메라의 높이를 나타낸다.
Referring to FIG. 5, when the camera is viewed from the side,
Figure 112014065261278-pat00015
Lt; / RTI > represents the vertical FOV,
Figure 112014065261278-pat00016
Represents the horizontal FOV. Also,
Figure 112014065261278-pat00017
The vertical tilt angle of the camera,
Figure 112014065261278-pat00018
Represents the height of the camera.

도 6은 본 발명의 일 실시예에 따른 3차원 피라미드의 각 꼭지점 산출 및 위/경도 좌표로 변환을 설명하기 위한 도면이다. FIG. 6 is a diagram for explaining the calculation of each vertex of a 3D pyramid and the conversion of the vertex / longitude coordinates according to an embodiment of the present invention.

도 6을 참조하면, 감시 영역을 3차원 지도상에 나타내기 때문에 카메라의 수직 기울기 각도(Tilt angle)에 따라서 모양도 변하게 된다. 지도상에서 좌표의 표현은 위도, 경도, 고도를 이용하여 나타내기 때문에 위에서 바라본 시점에서 삼각형의 모양 변화를 직접 계산해 주어야 한다. 따라서, 도 6의 변화한 삼각형 모양은 수학식 3내지 수학식 7을 이용하여 산출할 수 있다.
Referring to FIG. 6, since the surveillance region is displayed on the three-dimensional map, the shape changes according to the vertical angle of the camera. Since the representation of coordinates on the map is expressed by using latitude, longitude and altitude, it is necessary to directly calculate the shape change of the triangle at the above viewpoint. Therefore, the changed triangular shape of FIG. 6 can be calculated using Equations (3) to (7).

Figure 112014065261278-pat00019
Figure 112014065261278-pat00019

이 때,

Figure 112014065261278-pat00020
은 수직 기울기 각도가 90도 일 때, 추가 높이이다.
At this time,
Figure 112014065261278-pat00020
Is an additional height when the vertical tilt angle is 90 degrees.

Figure 112014065261278-pat00021
Figure 112014065261278-pat00021

이 때,

Figure 112014065261278-pat00022
는 수직 기울기 각도가 90도 일 때, 최소 수평 거리이다.
At this time,
Figure 112014065261278-pat00022
Is the minimum horizontal distance when the vertical tilt angle is 90 degrees.

Figure 112014065261278-pat00023
Figure 112014065261278-pat00023

이 때,

Figure 112014065261278-pat00024
는 수직 기울기 각도에 따른 수평 거리이다.
At this time,
Figure 112014065261278-pat00024
Is the horizontal distance along the vertical tilt angle.

Figure 112014065261278-pat00025
Figure 112014065261278-pat00025

이 때,

Figure 112014065261278-pat00026
는 수직 기울기 각도에 따른 추가 높이이다.
At this time,
Figure 112014065261278-pat00026
Is an additional height according to the vertical tilt angle.

Figure 112014065261278-pat00027
Figure 112014065261278-pat00027

이 때,

Figure 112014065261278-pat00028
는 수직 기울기 각도에 따른 수평 보정각이다.
At this time,
Figure 112014065261278-pat00028
Is the horizontal correction angle according to the vertical tilt angle.

도 7은 본 발명의 일 실시예에 따른 감시 영역 산출을 설명하기 위한 도면이다. FIG. 7 is a diagram for explaining a surveillance area calculation according to an embodiment of the present invention.

도 7을 참조하면, 도 7은카메라의 측면에서 바라본 모델을 나타내며, 도 7을 기초로 수학식 8 및 수학식 9를 이용하여3차원 피라미드와 땅이 만나는 지점에 생긴 면을 구할 수 있다. 즉, 감시 영역을 계산할 수 있다.
Referring to FIG. 7, FIG. 7 shows a model viewed from the side of the camera. Using FIG. 7, Equation 8 and Equation 9 can be used to find the plane at which the 3D pyramid meets the ground. That is, the surveillance area can be calculated.

Figure 112014065261278-pat00029
Figure 112014065261278-pat00029

이 때,

Figure 112014065261278-pat00030
는 카메라로부터 3차원 피라미드와 땅이 만나는 지점(
Figure 112014065261278-pat00031
)까지의 거리이다.
At this time,
Figure 112014065261278-pat00030
Is a point from the camera where the 3D pyramid meets the ground
Figure 112014065261278-pat00031
).

Figure 112014065261278-pat00032
Figure 112014065261278-pat00032

이 때,

Figure 112014065261278-pat00033
는 카메라로부터 3차원 피라미드와 땅이 만나는 지점(
Figure 112014065261278-pat00034
)까지의 거리이다.
At this time,
Figure 112014065261278-pat00033
Is a point from the camera where the 3D pyramid meets the ground
Figure 112014065261278-pat00034
).

도 8는 본 발명의 일 실시예에 따른 어플리케이션의 구동 화면을 도시한 도면이다. FIG. 8 is a view showing a driving screen of an application according to an embodiment of the present invention.

도 8을 참조하면, 어플리케이션의 구동 화면(80)은 국토교통부에서 제공하는 공간정보 오픈 플랫폼인 VworldVWorld를 기반으로 하고, 카메라설치 각도와 높이를 입력하면 감시 영역이 형성될 수 있다. 입력된 카메라설치 각도와 높이에 따라 어플리케이션의 구동 화면(80)에 형성되는 감시 영역을 기초로 최적의 감시 카메라설치 각도와 높이를 추출할 수 있다.
Referring to FIG. 8, the application screen 80 is based on VworldVWorld, a space information open platform provided by the Ministry of Land, Transport and Maritime Affairs, and a surveillance area can be formed by inputting a camera installation angle and height. It is possible to extract an optimal angle and height of the surveillance camera based on the surveillance region formed on the driving screen 80 of the application according to the inputted camera installation angle and height.

보다 상세하게, 위도(Latitude)(81), 경도(Longitude)(82), 감시거리(Distance)(83), 고도(Altitude)(84), 수평 기울기 각도(pan angle)(85), 수직 기울기 각도(Tilt angle)(86), hFov(87), vFOV(88)을 설정할 수 있다. 이 때, 수평 기울기 각도(pan angle)(85)은 동서남북 방향이며, 수직 기울기 각도(Tilt angle)(86)는 상하각이다.
More specifically, a latitude 81, a longitude 82, a distance 83, an altitude 84, a horizontal angle 85, Tilt angle 86, hFov 87, and vFOV 88 can be set. At this time, the horizontal pan angle 85 is in the north-south direction and the vertical tilt angle 86 is the vertical angle.

또한, 수평 기울기 각도(pan angle)(81) 및 수직 기울기 각도(Tilt angle)(86)은 사용자에 의해 설정될 수 있으며, IMU센서를 이용하여 측정할 수 있다. 또한, hFov(87)는 수직 FOV 를 나타내며, vFOV(88)는 수평 FOV를 나타낸다. 이 때, hFov(87) 및 vFOV(88)는 카메라의 제원이다.
Further, the horizontal pan angle 81 and the vertical tilt angle 86 can be set by the user and can be measured using the IMU sensor. Further, hFov (87) represents the vertical FOV and vFOV (88) represents the horizontal FOV. At this time, hFov (87) and vFOV (88) are specifications of the camera.

또한, 임의의 지점을 터치 또는 클릭 했을 때, 터치 또는 클릭한 지점을 좌표로 인식하여 위도(81) 및 경도(82)를 표시하여 줄 수 있다. 이 때, 임의의 높이값인 고도(84)는 사용자가 미리 설정할 수 있다.
In addition, when touching or clicking an arbitrary point, it is possible to display the latitude 81 and the longitude 82 by recognizing the touch or click point as coordinates. At this time, the altitude 84, which is an arbitrary height value, can be preset by the user.

또한, 어플리케이션의 구동 화면(80)은 감시영역이 잘 보이도록 편집될 수 있다.
Further, the driving screen 80 of the application can be edited so that the surveillance area can be seen clearly.

도 9는 본 발명의 일 실시예에 따른 감시 목적 선택 유닛을 설명하기 위한 도면이다. 9 is a view for explaining a monitoring purpose selection unit according to an embodiment of the present invention.

도 9를 참조하면, 도 9의 이미지들은 감시 목적 선택 유닛(211)이 감시 목적을 선택할 때, 감시 목적에 따른 영상의 높이와 사람의 비율을 보여주고 있다. 9, the images of FIG. 9 show the height of the image and the ratio of the person according to the monitoring purpose when the monitoring purpose selection unit 211 selects the monitoring purpose.

제 2 이미지(92)는 단순 관찰을 목적으로 배율을 선택한 경우며, 영상 높이의 25%에 해당하는 크기만큼 사람이 위치하고 있다. 제 4 이미지(94)는 사람의 신원을 확인하기 위한 목적으로 배율을 선택한 경우며, 영상의 높이의 100%에 해당하는 크기만큼 사람이 위치하고 있다. 또한, 제 1 이미지(91)는 영상 높이의 10%에 해당하는 크기만큼 사람이 위치하도록 설정한 경우의 이미지이며, 제 3 이미지(93)는 영상 높이의 50%에 해당하는 크기만큼 사람이 위치하도록 설정한 경우의 이미지이다.
The second image 92 is selected when magnification is selected for the purpose of simple observation, and is located at a size corresponding to 25% of the image height. The fourth image 94 is a case where a magnification is selected for the purpose of confirming the identity of a person, and a person is located at a size corresponding to 100% of the height of the image. In addition, the first image 91 is an image when a person is set to a size corresponding to 10% of the image height, and the third image 93 is an image when a person is placed at a size corresponding to 50% Is set to "

도 10은 본 발명의 일 실시예에 따른 카메라감시 영역 산출 방법을 도시한 흐름도이다.
FIG. 10 is a flowchart illustrating a camera surveillance area calculation method according to an embodiment of the present invention.

도 10을 참조하면, 카메라설치 위치 추정 모듈(210)은 카메라가 설치될 위치를 추정한다(S110).
Referring to FIG. 10, the camera installed position estimation module 210 estimates a position where the camera is installed (S110).

다음, 좌표 변환 모듈(220)은 카메라설치 위치 추정 모듈(210)이 추정한 위치를 기초로 감시 영역을 위/경도 좌표로 변환한다(S120). 보다 상세하게, 카메라감시 목적을 선택하고, 감시 목적에 따라 유효 감시 거리를 산출하며, 유효 감시 거리를 기초로 3차원 피라미드를 형성하고, 3차원 피라미드의 꼭지점을 이용하여 지면과 교차하는 점을 추출하고, 추출된 교차하는 점을 위/경도 좌표로 변환할 수 있다.
Next, the coordinate transformation module 220 converts the surveillance region into up / down coordinates based on the position estimated by the camera installed position estimation module 210 (S120). More specifically, the camera monitoring object is selected, the effective monitoring distance is calculated according to the monitoring purpose, the 3D pyramid is formed based on the effective monitoring distance, and the point intersecting the ground is extracted using the vertex of the 3D pyramid , And convert the extracted intersecting points into the up / down coordinates.

다음, 폴리곤 형성 모듈(230)은 좌표 변환 모듈(220)이 변환한 위/경도 좌표를 연결하여 폴리곤을 형성한다(S130).
Next, the polygon forming module 230 forms a polygon by connecting the coordinates converted by the coordinate transformation module 220 (S130).

마지막으로, 감시 영역 형성 모듈(240)은 폴리곤 형성 모듈(230)이 형성한 폴리곤을 이용하여 상기 3차원 지도상에 감시 영역을 형성한다(S140).
Finally, the surveillance area formation module 240 forms a surveillance area on the three-dimensional map using the polygon formed by the polygon formation module 230 (S140).

도 11은 본 발명의 일 실시예에 따른 어플리케이션의 실험 결과를 도시한 도면이다. 11 is a diagram illustrating an experimental result of an application according to an embodiment of the present invention.

도 11을 참조하면, 도 11(a)의 상단 이미지는 실제 촬영한 영상이며, 하단 이미지는 어플리케이션을 이용하여 Vworld에 생성한 감시 영역이다. 상단 이미지의 사각형 구역(11) 및 하단 이미지의 사각형 구역(12)을 보면, 도로의 코너 부분이 거의 일치하는 것을 확인할 수 있다.
Referring to FIG. 11, the upper image in FIG. 11 (a) is the actually photographed image, and the lower image is the surveillance region generated in Vworld using the application. It can be seen that the corner portions of the road almost coincide when the square section 11 of the upper image and the rectangular section 12 of the lower image are viewed.

또한, 도 11(b) 의 상단 이미지는 실제 촬영한 영상이며, 하단 이미지는 어플리케이션을 이용하여 Vworld에 생성한 감시 영역이다. 상단 이미지의 사각형 구역(13) 및 하단 이미지의 사각형 구역(14)을 보면, 주차장 지역이 거의 일치하는 것을 확인할 수 있다.
11 (b) is the actually photographed image, and the lower image is the surveillance region created in Vworld using the application. The rectangular area 13 of the top image and the rectangular area 14 of the bottom image show that the parking areas are almost identical.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.

100: 입력부
200: 제어부
210: 카메라 설치 위치 추정 모듈
220: 좌표 변환 모듈
221: 감시 목적 선택 유닛
222: 유효 감시 거리 산출 유닛
223: 3차원 피라미드 형성 유닛
224: 위/경도 좌표 변환 유닛
230: 플리곤 형성 모듈
240: 감시 영역 모듈
300: 디스플레이부
400: 사용자 인터페이스부
500: 저장부
100: Input unit
200:
210: camera installation position estimation module
220: Coordinate transformation module
221: Monitoring target selection unit
222: Effective monitoring distance calculating unit
223: 3D pyramid forming unit
224: position / hardness coordinate conversion unit
230: Flickon forming module
240: Surveillance zone module
300:
400: user interface unit
500:

Claims (10)

감시 카메라를 설치하기 전에 상기 감시 카메라가 설치될 위치를 설정하기 위해 감시 카메라 제품 정보 및 상기 감시 카메라 설치 정보를 입력 받는 입력부;
상기 입력부에서 입력된 정보를 이용하여 3차원 지도상에 감시 카메라 설치 시, 예상되는 감시 영역을 형성하는 제어부
를 포함하고,
상기 제어부는,
상기 입력부에서 입력된 정보를 이용하여 설치될 감시 카메라의 위치에 따라 촬영될 영역을 디스플레이부가 디스플레이 하도록 제어하여 감시 카메라가 설치될 위치를 추정하는 감시 카메라 설치 위치 추정 모듈;
상기 감시 영역을 위/경도 좌표로 변환하는 좌표 변환 모듈;
상기 변환된 위/경도 좌표를 연결하여 폴리곤을 형성하는 폴리곤 형성 모듈;
상기 형성된 폴리곤을 이용하여 상기 3차원 지도상에 감시 영역을 형성하는 감시 영역 형성 모듈을 포함하고,
상기 좌표 변환 모듈은,
상기 카메라의 감시 목적을 선택하는 감시 목적 선택 유닛;
상기 감시 목적에 따라 유효 감시 거리를 산출하는 유효 감시 거리 산출 유닛;
상기 유효 감시 거리를 기초로 3차원 피라미드를 형성하는 3차원 피라미드 형성 유닛; 및
상기 3차원 피라미드의 꼭지점을 이용하여 지면과 교차하는 점을 추출하고, 상기 추출된 교차하는 점을 위/경도 좌표로 변환하는 위/경도 좌표 변환 유닛을 포함하는 것을 특징으로 하는 영상감시 시스템을 위한 카메라 감시 영역 산출 장치.
An input unit for inputting the surveillance camera product information and the surveillance camera installation information to set a position where the surveillance camera is installed before installing the surveillance camera;
When a surveillance camera is installed on a three-dimensional map using information input from the input unit, a control unit
Lt; / RTI >
Wherein,
A surveillance camera installation position estimation module for controlling a display unit to display an area to be photographed according to a position of the surveillance camera to be installed using the information input from the input unit, thereby estimating a location where the surveillance camera is to be installed;
A coordinate conversion module for converting the surveillance area into up / down coordinates;
A polygon forming module for forming a polygon by connecting the converted stiffness / hardness coordinates;
And a monitoring area forming module for forming a monitoring area on the three-dimensional map by using the formed polygon,
Wherein the coordinate transformation module comprises:
A monitoring purpose selecting unit for selecting a monitoring purpose of the camera;
An effective monitoring distance calculating unit for calculating an effective monitoring distance according to the monitoring purpose;
A three-dimensional pyramid-forming unit for forming a three-dimensional pyramid based on the effective monitoring distance; And
And a stomach / hardness coordinate conversion unit for extracting points intersecting the ground using the vertices of the three-dimensional pyramid and converting the extracted intersection points into stomach / hardness coordinates. Camera surveillance area computing device.
제 1항에 있어서,
상기 입력부에서 입력된 정보 및 상기 제어부에서 형성된 감시 영역을 저장하는 저장부;
상기 3차원 지도상에 상기 형성된 감시 영역을 디스플레이하는 디스플레이부; 및
상기 감시 영역의 형성에 대한 사용자 명령을 지시하는 사용자 조치를 감지하는 인터페이스부를 더 포함하는 영상감시 시스템을 위한 카메라 감시 영역 산출 장치.
The method according to claim 1,
A storage unit for storing information input from the input unit and a monitoring area formed in the control unit;
A display unit for displaying the monitoring area formed on the three-dimensional map; And
Further comprising an interface unit for sensing a user action indicating a user command for forming the surveillance region.
제 1항에 있어서,
상기 감시 카메라 제품 정보는 수평 및 수직 FOV(Field of View) 및 감시 거리을 포함하며, 상기 카메라 설치 정보는 상기 카메라 설치될 위치의 위도, 경도, 고도, 수직 기울기 각도 및 수평 기울기 각도를 포함하는 영상감시 시스템을 위한 카메라 감시 영역 산출 장치.
The method according to claim 1,
The surveillance camera product information includes a horizontal and vertical field of view (FOV) and a surveillance distance, and the camera installation information includes at least one of video surveillance information including latitude, longitude, altitude, vertical inclination angle, A camera surveillance area calculation device for a system.
제 1항에 있어서,
상기 제어부는,
상기 입력부에서 입력되는 정보에 따라 다른 감시 영역을 형성하며, 상기 형성된 감시 영역을 추출하도록 감시 카메라 설치 위치를 추정하는 영상감시 시스템을 위한 카메라 감시 영역 산출 장치.
The method according to claim 1,
Wherein,
And forms a monitoring area according to information input from the input unit and estimates a surveillance camera installation position to extract the surveillance area.
삭제delete 삭제delete 제 1항에 있어서,
상기 유효 감시 거리 산출 유닛은,
상기 감시 목적에 따라 다른 배율을 적용하고, 핀홀 카메라 모델을 이용하여 유효 감시 거리를 산출하는 영상감시 시스템을 위한 카메라 감시 영역 산출 장치.
The method according to claim 1,
The effective monitoring distance calculating unit calculates,
A camera surveillance area calculation device for a video surveillance system applying different magnifications according to the surveillance purpose and calculating an effective surveillance distance using a pinhole camera model.
제 1항에 있어서,
상기 유효 감시 거리 산출 유닛은,
하기의 수학식을 이용하여 유효 감시 거리를 산출하는 영상감시 시스템을 위한 카메라 감시 영역 산출 장치:
Figure 112015098626023-pat00035

Figure 112015098626023-pat00036

여기서,
Figure 112015098626023-pat00037
는 카메라의 초점거리이고,
Figure 112015098626023-pat00038
는 화소 크기이고,
Figure 112015098626023-pat00039
는 배율(scale factor)이고,
Figure 112015098626023-pat00040
는 물체의 크기이고,
Figure 112015098626023-pat00041
은 영상의 높이가 100%인 경우의 감시 거리이며,
Figure 112015098626023-pat00042
는 유효 감시 거리이다.
The method according to claim 1,
The effective monitoring distance calculating unit calculates,
A camera surveillance area calculation device for a surveillance system for calculating an effective surveillance distance using the following equation:
Figure 112015098626023-pat00035

Figure 112015098626023-pat00036

here,
Figure 112015098626023-pat00037
Is the focal length of the camera,
Figure 112015098626023-pat00038
Is the pixel size,
Figure 112015098626023-pat00039
Is a scale factor,
Figure 112015098626023-pat00040
Is the size of the object,
Figure 112015098626023-pat00041
Is a monitoring distance when the height of the image is 100%
Figure 112015098626023-pat00042
Is the effective monitoring distance.
감시 카메라가 설치될 위치를 추정하는 단계;
상기 추정된 위치를 기초로 감시 영역을 위/경도 좌표로 변환하는 단계;
상기 변환된 위/경도 좌표를 연결하여 폴리곤을 형성하는 단계; 및
상기 형성된 폴리곤을 이용하여 3차원 지도상에 감시 영역을 형성하는 단계
를 포함하고,
상기 위/경도 좌표로 변환하는 단계는,
상기 카메라 감시 목적을 선택하고, 상기 감시 목적에 따라 유효 감시 거리를 산출하며, 상기 유효 감시 거리를 기초로 3차원 피라미드를 형성하고, 상기 3차원 피라미드의 꼭지점을 이용하여 지면과 교차하는 점을 추출하고, 상기 추출된 교차하는 점을 위/경도 좌표로 변환하는 것을 특징으로 하는 영상감시 시스템을 위한 카메라 감시 영역 산출 방법.
Estimating a position at which a surveillance camera is to be installed;
Converting the surveillance region into up / down coordinates based on the estimated position;
Forming a polygon by connecting the converted stomach / hardness coordinates; And
Forming a surveillance region on the three-dimensional map using the formed polygon
Lt; / RTI >
The step of converting to the up /
A camera monitoring object is selected, an effective monitoring distance is calculated in accordance with the monitoring purpose, a three-dimensional pyramid is formed based on the effective monitoring distance, and a point intersecting the ground is extracted using the vertex of the three-dimensional pyramid And converting the extracted intersection points into up / down co-ordinates.
삭제delete
KR1020140087279A 2014-07-11 2014-07-11 device and method of calculating coverage of camera in video surveillance system KR101586026B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140087279A KR101586026B1 (en) 2014-07-11 2014-07-11 device and method of calculating coverage of camera in video surveillance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140087279A KR101586026B1 (en) 2014-07-11 2014-07-11 device and method of calculating coverage of camera in video surveillance system

Publications (1)

Publication Number Publication Date
KR101586026B1 true KR101586026B1 (en) 2016-01-18

Family

ID=55305835

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140087279A KR101586026B1 (en) 2014-07-11 2014-07-11 device and method of calculating coverage of camera in video surveillance system

Country Status (1)

Country Link
KR (1) KR101586026B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112230257A (en) * 2020-09-04 2021-01-15 勤上光电股份有限公司 Positioning monitoring method based on PTZ camera
US10922554B2 (en) 2019-01-21 2021-02-16 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US11587418B2 (en) 2021-06-11 2023-02-21 Motorola Solutions, Inc. System, device, and method for camera placement based on access tier attributes

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110023472A (en) * 2009-08-31 2011-03-08 주식회사 이미지넥스트 Apparatus and method for tracking object based on ptz camera using coordinate map
KR20130130544A (en) * 2012-05-22 2013-12-02 삼성테크윈 주식회사 Method and system for presenting security image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110023472A (en) * 2009-08-31 2011-03-08 주식회사 이미지넥스트 Apparatus and method for tracking object based on ptz camera using coordinate map
KR20130130544A (en) * 2012-05-22 2013-12-02 삼성테크윈 주식회사 Method and system for presenting security image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10922554B2 (en) 2019-01-21 2021-02-16 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
CN112230257A (en) * 2020-09-04 2021-01-15 勤上光电股份有限公司 Positioning monitoring method based on PTZ camera
US11587418B2 (en) 2021-06-11 2023-02-21 Motorola Solutions, Inc. System, device, and method for camera placement based on access tier attributes

Similar Documents

Publication Publication Date Title
US11935288B2 (en) Systems and methods for generating of 3D information on a user display from processing of sensor data for objects, components or features of interest in a scene and user navigation thereon
US11216663B1 (en) Systems and methods for generating of 3D information on a user display from processing of sensor data for objects, components or features of interest in a scene and user navigation thereon
JP6741009B2 (en) Monitoring information generation device, shooting direction estimation device, monitoring information generation method, shooting direction estimation method, and program
CN106931945B (en) Robot navigation method and system
US8390617B1 (en) Visualizing oblique images
US10839612B1 (en) Method and system for visualizing overlays in virtual environments
KR101871764B1 (en) Industrial infrastructure management platform building system based on virtual reality
KR20180132183A (en) Mobile terminal, management server for underground facility and system for managing underground facility based on 3d spatial information
US11668577B1 (en) Methods and systems for response vehicle deployment
JP5535025B2 (en) Outdoor feature detection system, program for outdoor feature detection system, and recording medium for program for outdoor feature detection system
WO2021113268A1 (en) Systems and methods for generating of 3d information on a user display from processing of sensor data
KR20190058230A (en) System and method for modeling surveillance camera layout
US10733777B2 (en) Annotation generation for an image network
US11682168B1 (en) Method and system for virtual area visualization
KR101992662B1 (en) Gis 3 cctv 3 cctv
US20150186559A1 (en) X-ray vision for buildings
US20150304568A1 (en) Field display system, field display method, and field display program
KR20180036075A (en) Method for Generating 3D Structure Model Mapped with Damage Information, and Media Being Recorded with Program Executing the Method
JP6310149B2 (en) Image generation apparatus, image generation system, and image generation method
KR101586026B1 (en) device and method of calculating coverage of camera in video surveillance system
Liu et al. Image-based semantic construction reconstruction
JP5862865B2 (en) Composite image display device and composite image display program
KR101700651B1 (en) Apparatus for tracking object using common route date based on position information
US20160349409A1 (en) Photovoltaic shade impact prediction
KR101559739B1 (en) System for merging virtual modeling and image data of cameras

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181204

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191230

Year of fee payment: 5