KR20190013104A - Surveillance system and operation method thereof - Google Patents

Surveillance system and operation method thereof Download PDF

Info

Publication number
KR20190013104A
KR20190013104A KR1020170097131A KR20170097131A KR20190013104A KR 20190013104 A KR20190013104 A KR 20190013104A KR 1020170097131 A KR1020170097131 A KR 1020170097131A KR 20170097131 A KR20170097131 A KR 20170097131A KR 20190013104 A KR20190013104 A KR 20190013104A
Authority
KR
South Korea
Prior art keywords
camera
processor
ptz
vertical height
coordinate
Prior art date
Application number
KR1020170097131A
Other languages
Korean (ko)
Other versions
KR102315525B1 (en
Inventor
이현진
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020170097131A priority Critical patent/KR102315525B1/en
Publication of KR20190013104A publication Critical patent/KR20190013104A/en
Application granted granted Critical
Publication of KR102315525B1 publication Critical patent/KR102315525B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • H04N5/23241
    • H04N5/23296

Abstract

According to an aspect of the present invention, a surveillance system including a first camera and a second camera which are separated by a horizontal distance comprises: a communication interface for receiving a first camera shot image from the first camera, transmitting a first rotation control signal to the second camera and receiving rotation state information corresponding to the first rotation control signal from the second camera; a user interface for receiving a user input for controlling the shot area of the second camera; and a processor for extracting a first pan angle for the second camera from the first camera shot image, generating the first rotation control signal based on the user input, calculating a difference pan angle between the first fan angle and the second fan angle of the second camera extracted from the rotation state information, calculating a three-dimensional distance coordinate indicating a distance between the first camera and the second camera, and calculating an interlocking parameter according to the difference fan angle and the three-dimensional distance coordinate.

Description

감시 시스템 및 그 동작 방법{SURVEILLANCE SYSTEM AND OPERATION METHOD THEREOF}TECHNICAL FIELD [0001] The present invention relates to a surveillance system,

본 발명은 복수의 카메라들을 이용하여 감시 영역 전체와 감시 영역 일부를 동시에 감시하는 감시 시스템 및 그 동작 방법에 관한 것이다.The present invention relates to a surveillance system for simultaneously monitoring a surveillance region and a surveillance region using a plurality of cameras and an operation method thereof.

감시 시스템은 감시 영역을 촬영하는 카메라로부터 수신한 영상 등을 관제사가 눈으로 감지한 후, 직접 카메라의 회전 방향이나 줌 배율을 조절함으로써, 관심 객체 등을 추적하는 방식으로 동작된다.The surveillance system is operated in such a manner that the controller directly detects the image or the like received from the camera that captures the surveillance area, and then tracks the object of interest by adjusting the rotation direction or the zoom magnification of the camera.

감시 영역 전체를 촬영하는 카메라와 감시 영역 일부를 촬영하는 카메라를 포함하는 감시 시스템은 감시 영역 전체를 촬영하는 카메라로부터 수신한 저화질 영상을 관제사가 눈으로 감지한 후, 직접 감시 영역 일부를 촬영하는 카메라의 회전 방향이나 줌 배율을 조절함으로써, 감시 영역 일부를 촬영하는 카메라로부터 관심 객체에 대한 고화질 영상을 획득하는 방식으로 동작된다.A surveillance system including a camera for photographing the entire surveillance region and a camera for photographing a part of the surveillance region is a surveillance system for capturing a part of the surveillance region directly after the controller senses the low- By adjusting the rotation direction or the zoom magnification of the surveillance region, a high-quality image of the object of interest is obtained from a camera that photographs a part of the surveillance region.

뿐만 아니라, 감시 시스템은 감시 영역 전체를 촬영하는 카메라로부터 관심 객체가 감지되면, 자동으로 감시 영역 일부를 촬영하는 카메라의 회전 방향이나 줌 배율을 조절하는 방식으로 동작된다. 이때, 관심 객체를 보다 정확하고 신속하게 추적하기 위하여, 두 카메라의 좌표계를 연동시킬 필요가 있다.In addition, when the object of interest is detected from a camera that captures the entire surveillance region, the surveillance system is operated in such a manner that the rotation direction or the zoom magnification of the camera for automatically photographing a part of the surveillance region is adjusted. At this time, in order to track the object of interest more accurately and quickly, it is necessary to coordinate the coordinate systems of the two cameras.

KR1120131 10KR1120131 10

본 발명이 해결하고자 하는 과제는 좌표계가 연동된 복수의 카메라들을 이용하여 감시 영역 전체와 감시 영역 일부를 동시에 감시하는 감시 시스템 및 그 동작 방법에 관한 것이다.SUMMARY OF THE INVENTION The present invention is directed to a surveillance system and a method of operating the surveillance system that simultaneously monitors the entire surveillance region and a part of the surveillance region using a plurality of cameras in which a coordinate system is interlocked.

본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템에 있어서, 상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하고, 상기 제2 카메라에 제1 회전 제어 신호를 전송하고, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 통신 인터페이스, 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 사용자 인터페이스, 및 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하고, 상기 사용자 입력에 기초하여 상기 제1 회전 제어 신호를 생성하고, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하고, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하고, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 프로세서를 포함한다.According to an aspect of the present invention, there is provided a surveillance system including a first camera and a second camera separated by a horizontal distance, the surveillance system comprising: A communication interface for transmitting a first rotation control signal to the second camera and receiving rotation state information corresponding to the first rotation control signal from the second camera, A user interface for receiving a user input and a first pan angle for the second camera from the first camera shot image and generating the first rotation control signal based on the user input, Calculates a difference pan angle between a first pan angle and a second pan angle of the second camera extracted from the rotation status information, And a processor for calculating three-dimensional distance coordinates indicating the distance between the camera and the second camera, and calculating an inter-working parameter according to the difference pan angle and the three-dimensional distance coordinate.

본 실시예에서, 상기 제1 카메라는 상기 제2 카메라보다 화각이 넓고, 상기 제2 카메라를 촬영하고, 상기 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라일 수 있다.In the present embodiment, the first camera may have a wider angle of view than the second camera, may photograph the second camera, and the second camera may be a camera capable of adjusting a rotation direction or a zoom magnification.

본 실시예에서, 상기 사용자 인터페이스는 상기 수평거리를 선택하는 사용자 입력 및 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력 중 적어도 하나를 수신하고, 상기 프로세서는 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력에 대응하여 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 상기 제1 팬각을 추출할 수 있다.In the present embodiment, the user interface receives at least one of a user input for selecting the horizontal distance and a user input for designating the second camera with respect to the first camera shot image, Extracting the first pan angle for the second camera from the first camera photographic image corresponding to a user input for designating the second camera with respect to the image.

본 실시예에서, 상기 연동 파라미터는 상기 차이 팬각과 상기 3차원 거리 좌표를 이용한 오일러 회전 변환 행렬일 수 있다.In this embodiment, the interlocking parameter may be an Eulerian rotation transformation matrix using the difference pan angle and the 3D distance coordinate.

본 실시예에서, 상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고, 상기 프로세서는, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하고, 상기 수평거리 및 상기 제1 틸트각에 기초하여 상기 제1 카메라 및 상기 제2 카메라 사이의 제1 수직높이를 산출하고, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 제2 카메라의 제2 수직높이를 산출하고, 상기 제1 수직높이 및 상기 제2 수직높이로부터 상기 제1 카메라의 제3 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 제3 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 제1 카메라 좌표 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 제1 카메라 좌표 값을 상기 제2 카메라의 제2 카메라 좌표 값으로 변환하고, 상기 제2 카메라 좌표 값에 기초하여 상기 제2 회전 제어 신호를 생성할 수 있다.In the present embodiment, the communication interface receives event information from the first camera and transmits a second rotation control signal to the second camera, and the processor transmits the second rotation control signal to the second camera Extracting a first tilt angle for the first camera and the second camera, calculating a first vertical height between the first camera and the second camera based on the horizontal distance and the first tilt angle, Calculating a second vertical height of the second camera based on the second tilt angle of the second camera extracted from the state information, calculating a second vertical height of the second camera from the first vertical height and the second vertical height, The horizontal coordinate of the event occurrence position extracted from the first camera photographic image corresponding to the event information, and the horizontal vertical coordinate of the third vertical height and the event information Generating the first camera coordinate value of the first camera including the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the first camera coordinate value and applying the first camera coordinate value to the first camera coordinate value, To the second camera coordinate value, and generate the second rotation control signal based on the second camera coordinate value.

본 실시예에서, 상기 제2 수직높이 및 상기 제3 수직높이는 상이할 수 있다.In this embodiment, the second vertical height and the third vertical height may be different.

본 실시예에서, 상기 제1 카메라 좌표 값은 디지털 PTZ 값이고, 상기 제2 카메라 좌표 값은 아날로그 PTZ 값일 수 있다.In the present embodiment, the first camera coordinate value may be a digital PTZ value, and the second camera coordinate value may be an analog PTZ value.

본 실시예에서, 상기 제1 카메라 및 상기 제2 카메라가 동일한 수직높이를 가지고, 상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고, 상기 프로세서는, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 디지털 PTZ 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 디지털 PTZ 값을 상기 제2 카메라의 아날로그 PTZ 값으로 변환하고, 상기 아날로그 PTZ 값을 포함하는 상기 제2 회전 제어 신호를 생성할 수 있다.In this embodiment, the first camera and the second camera have the same vertical height, the communication interface receives event information from the first camera, transmits a second rotation control signal to the second camera, The processor calculates the vertical height based on the horizontal distance and the second tilt angle of the second camera extracted from the rotation state information, and calculates the vertical height based on the event extracted from the first camera photographed image Generates the digital PTZ value of the first camera including the horizontal coordinate of the generated position and the vertical height and the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information, Converts the digital PTZ value to an analog PTZ value of the second camera, And the second rotation control signal.

본 실시예에서, 상기 제1 카메라 촬영 영상은 제1 특징점 집합을 포함하고, 상기 통신 인터페이스는 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송한 후 상기 제2 카메라로부터 제2 카메라 촬영 영상을 수신하고, 상기 프로세서는, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 상기 회전 상태 정보에 기초하여 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되면 상기 연동 파라미터를 산출하고, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되지 않으면 상기 사용자 인터페이스를 통해 사용자 단말에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청할 수 있다.In the present embodiment, the first camera photographed image includes a first set of minutia points, and the communication interface transmits the second camera photographed image from the second camera after transmitting the first rotation control signal to the second camera And the processor further comprises a second feature point set corresponding to the first feature point set in the second camera photographed image, and when the first feature point set and the second feature point set are matched based on the rotation state information If the second feature point set corresponding to the first feature point set does not exist in the second camera photographed image or if the first feature point set and the second feature point set do not match, The user terminal can request a user input for controlling the photographing area of the second camera.

본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템 동작 방법은 수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템의 동작 방법에 있어서, 통신 인터페이스에 의해, 상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하는 단계, 프로세서에 의해, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하는 단계, 사용자 인터페이스에 의해, 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 단계, 상기 프로세서에 의해, 상기 사용자 입력에 기초하여 제1 회전 제어 신호를 생성하는 단계, 상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송하는 단계, 상기 통신 인터페이스에 의해, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 단계, 상기 프로세서에 의해, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하는 단계, 상기 프로세서에 의해, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하는 단계, 및 상기 프로세서에 의해, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of operating a surveillance system including a first camera and a second camera separated by a horizontal distance, The method comprising the steps of: receiving a first camera photographic image from a first camera; extracting a first pan angle for the second camera from the first camera photographic image by a processor; 2) receiving a user input for controlling a shooting area of a camera, generating, by the processor, a first rotation control signal based on the user input, by the communication interface, Transmitting a rotation control signal from the second camera via the communication interface, Receiving, by the processor, the difference pan angle between the first pan angle and the second pan angle of the second camera extracted from the rotation state information; , Calculating three-dimensional distance coordinates indicating a distance between the first camera and the second camera, and calculating, by the processor, an interlocking parameter according to the difference pan angle and the three-dimensional distance coordinate .

본 실시예에서, 상기 제1 카메라는 상기 제2 카메라보다 화각이 넓고, 상기 제2 카메라를 촬영하고, 상기 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라일 수 있다.In the present embodiment, the first camera may have a wider angle of view than the second camera, may photograph the second camera, and the second camera may be a camera capable of adjusting a rotation direction or a zoom magnification.

본 실시예에서, 상기 사용자 인터페이스에 의해, 상기 수평거리를 선택하는 사용자 입력을 수신하는 단계 및 상기 사용자 인터페이스에 의해, 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력을 수신하는 단계를 더 포함하고, 상기 제2 카메라에 대한 상기 제1 팬각을 추출하는 단계는, 상기 프로세서에 의해, 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력에 대응하여 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 상기 제1 팬각을 추출하는 단계일 수 있다.In this embodiment, the user interface is used to receive a user input for selecting the horizontal distance and a user input for designating the second camera for the first camera shot image by the user interface Wherein the step of extracting the first pan angle with respect to the second camera further comprises a step of extracting, by the processor, the first pan angle corresponding to the first camera photographed image corresponding to the user input designating the second camera with respect to the first camera photographed image And extracting the first pan angle with respect to the second camera from the camera photographed image.

본 실시예에서, 상기 연동 파라미터는 상기 차이 팬각과 상기 3차원 거리 좌표를 이용한 오일러 회전 변환 행렬일 수 있다.In this embodiment, the interlocking parameter may be an Eulerian rotation transformation matrix using the difference pan angle and the 3D distance coordinate.

본 실시예에서, 상기 프로세서에 의해, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하는 단계, 상기 프로세서에 의해, 상기 수평거리 및 상기 제1 틸트각에 기초하여 상기 제1 카메라 및 상기 제2 카메라 사이의 제1 수직높이를 산출하는 단계, 상기 프로세서에 의해, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 제2 카메라의 제2 수직높이를 산출하는 단계, 상기 프로세서에 의해, 상기 제1 수직높이 및 상기 제2 수직높이로부터 상기 제1 카메라의 제3 수직높이를 산출하는 단계, 상기 통신 인터페이스에 의해, 상기 제1 카메라로부터 이벤트 정보를 수신하는 단계, 상기 프로세서에 의해, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 제3 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 제1 카메라 좌표 값을 생성하는 단계, 상기 프로세서에 의해, 상기 연동 파라미터를 적용하여 상기 제1 카메라 좌표 값을 상기 제2 카메라의 제2 카메라 좌표 값으로 변환하는 단계, 상기 프로세서에 의해, 상기 제2 카메라 좌표 값을 포함하는 제2 회전 제어 신호를 생성하는 단계, 및 상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제2 회전 제어 신호를 전송하는 단계를 더 포함하고, 상기 제2 수직높이 및 상기 제3 수직높이는 상이할 수 있다.In the present embodiment, the processor extracts a first tilt angle for the second camera from the first camera photographed image, and the processor calculates the horizontal distance and the first tilt angle Calculating a first vertical height between the first camera and the second camera based on the horizontal distance and the rotation state information based on the second tilt angle of the second camera extracted from the horizontal distance and the rotation state information, Calculating a third vertical height of the first camera from the first vertical height and the second vertical height by the processor, calculating a second vertical height of the first camera by the processor, Receiving event information from the first camera by the processor, extracting from the first camera photographed image corresponding to the event information, Generating a first camera coordinate value of the first camera including the horizontal coordinate of the generated event occurrence position and the vertical coordinate of the event occurrence position extracted from the third vertical height and the average event height corresponding to the event information Transforming the first camera coordinate value to a second camera coordinate value of the second camera by applying the interlocking parameter by the processor, and by the processor, converting the first camera coordinate value to a second camera coordinate value of the second camera Generating a rotation control signal, and transmitting the second rotation control signal to the second camera by the communication interface, wherein the second vertical height and the third vertical height may be different .

본 실시예에서, 상기 제1 카메라 좌표 값은 디지털 PTZ 값이고, 상기 제2 카메라 좌표 값은 아날로그 PTZ 값일 수 있다.In the present embodiment, the first camera coordinate value may be a digital PTZ value, and the second camera coordinate value may be an analog PTZ value.

본 실시예에서, 상기 제1 카메라 및 상기 제2 카메라가 동일한 수직높이를 가지고, 상기 프로세서에 의해, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 수직높이를 산출하는 단계, 상기 통신 인터페이스에 의해, 상기 제1 카메라로부터 이벤트 정보를 수신하는 단계, 상기 프로세서에 의해, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 디지털 PTZ 값을 생성하는 단계, 상기 프로세서에 의해, 상기 연동 파라미터를 적용하여 상기 디지털 PTZ 값을 상기 제2 카메라의 아날로그 PTZ 값으로 변환하는 단계, 상기 프로세서에 의해, 상기 아날로그 PTZ 값에 기초하여 제2 회전 제어 신호를 생성하는 단계, 및 상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제2 회전 제어 신호를 전송하는 단계를 더 포함할 수 있다.In the present embodiment, the first camera and the second camera have the same vertical height, and the processor calculates, based on the horizontal distance and the second tilt angle of the second camera extracted from the rotation state information, The method of claim 1, further comprising the steps of: calculating a vertical height; receiving event information from the first camera by the communication interface; And generating a digital PTZ value of the first camera including the vertical height and the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information, To convert the digital PTZ value into the analog PTZ value of the second camera Generating, by the processor, a second rotation control signal based on the analog PTZ value, and transmitting the second rotation control signal to the second camera by the communication interface .

본 실시예에서, 상기 제1 카메라 촬영 영상은 제1 특징점 집합을 포함하고, 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송하는 단계 이후에, 상기 통신 인터페이스에 의해, 상기 제2 카메라로부터 제2 카메라 촬영 영상을 수신하는 단계, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 상기 회전 상태 정보에 기초하여 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되면, 상기 프로세서에 의해, 상기 연동 파라미터를 산출하는 단계, 및 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되지 않으면, 상기 사용자 인터페이스에 의해, 사용자 단말에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청하는 단계를 더 포함할 수 있다.In the present embodiment, the first camera photographed image includes a first set of feature points, and after the step of transmitting the first rotation control signal to the second camera, A second feature point set corresponding to the first feature point set is present in the second camera photographed image, and the first feature point set and the second feature point set are based on the rotation state information, And if the second feature point set corresponding to the first feature point set does not exist in the second camera photographed image or if the second feature point set corresponding to the first feature point set and the second feature point set does not exist, If the set is not matched, the user interface instructs the user terminal It may further comprise the step of requesting the force.

본 발명의 실시예들에 따르면, 보다 넓은 영역을 촬영하는 어안 카메라를 활용함으로써 이벤트 발생 위치를 빠짐없이 촬영할 수 있고, 고화질 영상을 획득하는 PTZ 카메라를 활용함으로써 이벤트를 보다 상세하게 확인할 수 있다.According to the embodiments of the present invention, by utilizing a fish-eye camera that photographs a wider area, the event occurrence position can be captured without fail and the event can be confirmed in detail by utilizing the PTZ camera for acquiring a high-quality image.

또한, 본 발명의 실시예들에 따르면, 연동 파라미터를 이용하여 어안 카메라의 좌표계와 PTZ 카메라의 좌표계를 연동시킴으로써 이벤트를 보다 정확하게 촬영할 수 있다.In addition, according to the embodiments of the present invention, the coordinate system of the fisheye camera and the coordinate system of the PTZ camera are interlocked with each other using the interlocking parameter, so that the event can be photographed more accurately.

또한, 본 발명의 실시예들에 따르면, 연동 파라미터를 적용하는 것만으로 PTZ 카메라가 이벤트를 보다 정확하게 촬영할 수 있으므로, 감시 시스템의 연산량을 감소시켜 자원을 보다 효율적으로 이용할 수 있다.In addition, according to the embodiments of the present invention, since the PTZ camera can photograph the event more precisely by applying the interlocking parameter, the calculation amount of the surveillance system can be reduced and resources can be used more efficiently.

따라서, 본 발명의 실시예들에 따르면, 보다 효율적이고 사용자 니즈에 부합하는 감시 시스템을 제공할 수 있다.Therefore, according to the embodiments of the present invention, it is possible to provide a surveillance system that is more efficient and meets user needs.

도 1은 일 실시예에 따른 감시 시스템을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 감시 시스템을 구성하는 복수의 카메라들의 설치 구조를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 감시 시스템을 구성하는 컨트롤러의 구성을 나타내는 블록도이다.
도 4는 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.
도 5 및 도 6은 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 8a 및 도 8b는 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 도면이다.
도 9는 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.
도 10은 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.
도 11은 다른 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 12는 일 실시예에 따른 연동 파라미터 산출을 위한 조건을 설명하기 위한 흐름도이다.
1 is a view for explaining a surveillance system according to an embodiment.
2 is a view for explaining an installation structure of a plurality of cameras constituting a surveillance system according to an embodiment.
3 is a block diagram showing a configuration of a controller constituting a monitoring system according to an embodiment.
4 is a flowchart for explaining a method of calculating an interworking parameter of a surveillance system according to an embodiment.
5 and 6 are views for explaining a method of calculating a linkage parameter of a surveillance system according to an embodiment.
7 is a flowchart illustrating an operation method of a monitoring system based on an interlocking parameter according to an embodiment.
8A and 8B are views for explaining a method of operating a monitoring system based on an interlocking parameter according to an embodiment.
9 is a flowchart for explaining a method of calculating a linkage parameter of a surveillance system according to another embodiment.
10 is a diagram for explaining a method of calculating a linkage parameter of a surveillance system according to another embodiment.
11 is a flowchart for explaining an operation method of a monitoring system based on an interlocking parameter according to another embodiment.
FIG. 12 is a flowchart for explaining conditions for calculating an interlocking parameter according to an embodiment.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following embodiments, the terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.

이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 다수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the following examples are used only to illustrate specific embodiments and are not intended to limit the invention. The singular forms "a," "an," and "the" include plural referents unless the context clearly dictates otherwise. In the following description, the terms "comprises" or "having ", and the like, specify that the presence of stated features, integers, steps, operations, elements, But do not preclude the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in a wide variety of hardware and / or software configurations that perform particular functions. For example, embodiments of the invention may be embodied directly in hardware, such as memory, processing, logic, look-up tables, etc., that can perform various functions by control of one or more microprocessors or by other control devices Circuit configurations can be employed. Similar to the components of an embodiment of the present invention may be implemented with software programming or software components, embodiments of the present invention include various algorithms implemented with a combination of data structures, processes, routines, or other programming constructs , C, C ++, Java, assembler, and the like. Functional aspects may be implemented with algorithms running on one or more processors. Embodiments of the present invention may also employ conventional techniques for electronic configuration, signal processing, and / or data processing. Terms such as mechanisms, elements, means, and configurations are widely used and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.

이하 첨부된 도면들을 참조하여 본 발명의 여러 가지 실시 예를 상세히 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

도 1은 일 실시예에 따른 감시 시스템을 설명하기 위한 도면이다.1 is a view for explaining a surveillance system according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 감시 시스템(1)은 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 네트워크(40), 서버(50), 및 사용자 단말(60)을 포함한다.1, a monitoring system 1 according to an exemplary embodiment includes a fisheye camera 10, a PTZ camera 20, a gateway 30, a network 40, a server 50, and a user terminal 60. [ .

감시 시스템(1)은 게이트웨이(30)에서 수집된 어안 카메라(10) 및/또는 PTZ 카메라(20)의 정보가 네트워크(40)를 통해 서버(50)로 전송되면, 관리자가 사용자 단말(60)을 이용하여 서버(50)에 전송된 정보를 모니터링하는 구성을 제공할 수 있다.When the information of the fisheye camera 10 and / or the PTZ camera 20 collected by the gateway 30 is transmitted to the server 50 via the network 40, To monitor the information transmitted to the server 50 by using the information.

어안 카메라(10)는 180도 이상의 화각을 가지는 광각 카메라일 수 있다. 감시 시스템(1)은 어안 카메라(10)뿐만 아니라 PTZ 카메라(20)보다 화각이 넓은 다양한 광각 카메라를 포함할 수 있다. 이하에서는, 대표적인 광각 카메라인 어안 카메라(10)를 예로 들어 설명하며, 어안 카메라(10)에 대한 설명은 다양한 광각 카메라에 적용 가능하다.The fisheye camera 10 may be a wide angle camera having an angle of view of 180 degrees or more. The surveillance system 1 may include not only the fisheye camera 10 but also various wide angle cameras having a wider angle of view than the PTZ camera 20. [ Hereinafter, a fish-eye camera 10, which is a typical wide-angle camera, will be described as an example, and the description of the fish-eye camera 10 is applicable to various wide-angle cameras.

어안 카메라(10)는 감시 영역 전체를 촬영할 수 있다. 어안 카메라(10)는 PTZ 카메라(20)를 촬영할 수 있다. 즉, 어안 카메라(10)에서 촬영된 원본 영상은 PTZ 카메라(20)를 포함할 수 있고, 광각 영상으로서 다양한 왜곡을 가질 수 있다.The fisheye camera 10 can take the entire surveillance area. The fisheye camera 10 can take a picture of the PTZ camera 20. That is, the original image captured by the fisheye camera 10 may include the PTZ camera 20, and may have various distortions as the wide-angle image.

PTZ 카메라(20)는 패닝(panning)과 틸팅(tilting)이 가능하며 렌즈의 줌(zoom) 배율이 조절 가능한 카메라일 수 있다. PTZ 카메라(20)는 패닝, 틸팅, 및/또는 줌 배율 조절을 수행함으로써, 감시 영역을 변경할 수 있다.The PTZ camera 20 may be a camera capable of panning and tilting and capable of adjusting the zoom magnification of the lens. The PTZ camera 20 can change the surveillance region by performing panning, tilting, and / or zoom magnification adjustment.

PTZ 카메라(20)는 배터리로 구동되는 저전력 카메라일 수 있다. PTZ 카메라(20)는 평상시 슬립 모드를 유지하고, 주기적으로 깨어나 이벤트가 발생하였는지 여부를 체크할 수 있다. PTZ 카메라(20)는 이벤트가 발생한 경우 액티브 모드로 전환되고, 이벤트가 발생하지 않은 경우 다시 슬립 모드로 복귀할 수 있다. 이와 같이, 이벤트가 발생한 경우에만 액티브 모드를 유지함으로써 PTZ 카메라(20)의 전력 소모를 줄일 수 있다.The PTZ camera 20 may be a battery powered low power camera. The PTZ camera 20 maintains the normal sleep mode and can periodically wake up to check whether or not an event has occurred. The PTZ camera 20 is switched to the active mode when an event occurs, and can return to the sleep mode again if an event does not occur. In this manner, the power consumption of the PTZ camera 20 can be reduced by maintaining the active mode only when an event occurs.

어안 카메라(10) 및/또는 PTZ 카메라(20)는 이벤트를 감지하는 센서를 포함할 수 있다. 이벤트를 감지하는 센서는 외부에 설치될 수도 있다.The fisheye camera 10 and / or the PTZ camera 20 may include a sensor for detecting an event. The sensor for detecting the event may be installed externally.

센서는 감시 또는 보안의 목적으로 센싱 영역에서 이벤트가 발생하는지 여부를 실시간으로 감지할 수 있다. 센서는 이미지 센서, 음향 센서, 적외선 센서, 모션 센서, 가스 센서, 누수 센서, 온도 센서, 습도 센서, 가속도 센서, 자이로 센서, 촉각 센서, 압력 센서, 진동 센서 등을 포함할 수 있다.The sensor can detect in real time whether an event occurs in the sensing area for monitoring or security purposes. The sensor may include an image sensor, an acoustic sensor, an infrared sensor, a motion sensor, a gas sensor, a leakage sensor, a temperature sensor, a humidity sensor, an acceleration sensor, a gyro sensor, a tactile sensor, a pressure sensor,

어안 카메라(10)가 이벤트를 감지하면, PTZ 카메라(20)가 이벤트 발생 위치를 촬영할 수 있다. 다시 말해, 어안 카메라(10)를 통해 이벤트 발생 위치를 확인한 후, PTZ 카메라(20)를 통해 이벤트 발생 위치를 고화질로 상세하게 촬영할 수 있다.When the fisheye camera 10 detects an event, the PTZ camera 20 can photograph the event occurrence position. In other words, after the event occurrence position is confirmed through the fisheye camera 10, the event occurrence position can be photographed in detail with high quality through the PTZ camera 20. [

즉, 보다 넓은 영역을 촬영하는 어안 카메라(10)를 활용함으로써 이벤트 발생 위치를 빠짐없이 촬영할 수 있고, 고화질 영상을 획득하는 PTZ 카메라(20)를 활용함으로써 이벤트를 보다 상세하게 확인할 수 있다.That is, by utilizing the fisheye camera 10 for photographing a wider area, the event occurrence position can be completely captured and the event can be confirmed in detail by utilizing the PTZ camera 20 for acquiring a high-quality image.

이를 위해, 어안 카메라(10)의 좌표계와 PTZ 카메라(20)의 좌표계를 연동시킬 필요가 있다. 본 발명은 연동 파라미터를 이용하여 어안 카메라(10)의 좌표계와 PTZ 카메라(20)의 좌표계를 연동시킴으로써 이벤트를 보다 정확하게 촬영할 수 있다.For this purpose, it is necessary to coordinate the coordinate system of the fisheye camera 10 with the coordinate system of the PTZ camera 20. [ The present invention can more accurately photograph an event by linking the coordinate system of the fish-eye camera 10 and the coordinate system of the PTZ camera 20 using the linking parameter.

어안 카메라(10) 및/또는 PTZ 카메라(20)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 등 다양한 통신 방식을 이용하여 게이트웨이(30)와 통신할 수 있다. 예를 들어, 어안 카메라(10) 및/또는 PTZ 카메라(20)는 ISM 대역(Industrial Scientific Medical band)의 무선 주파수(Radio Frequency)를 사용하는 저전력 무선 통신 프로토콜에 따라 게이트웨이(30)와 통신할 수 있다.The fisheye camera 10 and / or the PTZ camera 20 may be connected to various communication methods such as a wired / wireless LAN (local area network), a Wi-Fi, a ZigBee, a Bluetooth, To communicate with the gateway 30. [ For example, the fisheye camera 10 and / or the PTZ camera 20 may communicate with the gateway 30 in accordance with a low power wireless communication protocol using the Radio Frequency of the Industrial Scientific Medical (ISM) band have.

어안 카메라(10) 및/또는 PTZ 카메라(20)는 하나 이상 구비될 수 있다.One or more fisheye cameras 10 and / or PTZ cameras 20 may be provided.

게이트웨이(30)에서 어안 카메라(10) 및/또는 PTZ 카메라(20)에서 전송된 정보에 기초하여 어안 카메라(10) 및/또는 PTZ 카메라(20)의 상태를 인식할 수 있고, 인식된 어안 카메라(10) 및/또는 PTZ 카메라(20)의 상태에 따라 다른 어안 카메라(10) 및/또는 PTZ 카메라(20) 또는 사용자 단말(60)에 명령 또는 알림을 전송할 수 있다.The gateway 30 can recognize the state of the fisheye camera 10 and / or the PTZ camera 20 based on the information transmitted from the fisheye camera 10 and / or the PTZ camera 20, The PTZ camera 20 or the user terminal 60 depending on the status of the PTZ camera 10 and /

게이트웨이(30)는 이더넷(Ethernet), 와이파이, 블루투스 등 다양한 유무선 통신 방식을 이용하여 서버(50)에 정보를 전송할 수도 있고, 서버(50)로부터 명령을 수신할 수도 있다.The gateway 30 may transmit information to the server 50 or may receive the command from the server 50 using various wired and wireless communication methods such as Ethernet, Wi-Fi, and Bluetooth.

네트워크(40)는 유선 네트워크 또는 무선 네트워크를 포함할 수 있다. 무선 네트워크는 2G(Generation) 또는 3G 셀룰러 통신 시스템, 3GPP(3rd Generation Partnership Project), 4G 통신 시스템, LTE(Long-Term Evolution), WiMAX(World Interoperability for Microwave Access) 등일 수 있다.The network 40 may include a wired network or a wireless network. The wireless network may be a 2G (Generation) or 3G cellular communication system, a 3rd Generation Partnership Project (3GPP), a 4G communication system, a Long-Term Evolution (LTE), or a World Interoperability for Microwave Access (WiMAX).

서버(50)는 네트워크(40)를 통해 어안 카메라(10), PTZ 카메라(20) 및/또는 게이트웨이(30)로부터 전송된 정보에 기초하여 사용자 단말(60)에 알림을 전송할 수 있고, 사용자 단말(60)로부터 전송된 명령을 어안 카메라(10), PTZ 카메라(20) 및/또는 게이트웨이(30)에 전송할 수 있다.The server 50 can send a notification to the user terminal 60 based on the information transmitted from the fisheye camera 10, the PTZ camera 20 and / or the gateway 30 via the network 40, The PTZ camera 20, and / or the gateway 30, to the fisheye camera 10, the PTZ camera 20, and /

사용자 단말(60)은 서버(50)로부터 전송된 정보를 디스플레이할 수 있고, 저장할 수도 있다. 예를 들어, 사용자 단말(60)은 서버(50)로부터 전송된 알림을 디스플레이할 수 있다. 사용자 단말(60)은 적어도 하나 이상의 프로세서를 포함할 수 있다. 사용자 단말(60)은 마이크로 프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수 있다. 사용자 단말(60)은 개인용 컴퓨터 또는 이동 단말일 수 있다.The user terminal 60 may display and store the information transmitted from the server 50. [ For example, the user terminal 60 may display the notification sent from the server 50. [ The user terminal 60 may comprise at least one or more processors. The user terminal 60 may be run in the form embedded in other hardware devices such as a microprocessor or general purpose computer system. The user terminal 60 may be a personal computer or a mobile terminal.

사용자 단말(60)은 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30) 및/또는 서버(50)의 동작을 제어하기 위한 사용자 인터페이스를 포함할 수 있다.The user terminal 60 may include a user interface for controlling operations of the fisheye camera 10, the PTZ camera 20, the gateway 30, and / or the server 50. [

본 발명의 실시예들에 따른 감시 시스템(1)은 하나의 물리적 장치로 구현될 수도 있고, 복수의 물리적 장치가 유기적으로 결합되어 구현될 수도 있다. 이를 위해 감시 시스템(1)에 포함된 구성 중 일부는 어느 하나의 물리적 장치로 구현되거나 설치되고, 나머지 일부는 다른 물리적 장치로 구현되거나 설치될 수도 있다. 이때, 어느 하나의 물리적 장치는 서버(50)의 일부로 구현될 수 있고, 다른 물리적 장치는 사용자 단말(60)의 일부로 구현될 수 있다.The surveillance system 1 according to the embodiments of the present invention may be implemented as one physical device or a plurality of physical devices may be organically combined. To this end, some of the configurations included in the monitoring system 1 may be implemented or installed with any one physical device, and some of the configurations may be implemented or installed with different physical devices. At this time, any one of the physical devices may be implemented as a part of the server 50, and the other physical devices may be implemented as a part of the user terminal 60.

한편, 감시 시스템(1)은 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50) 또는 사용자 단말(60)에 내장될 수도 있고, 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50) 또는 사용자 단말(60)과 별개로 구비된 장치에 적용될 수도 있다.The monitoring system 1 may be embedded in the fisheye camera 10, the PTZ camera 20, the gateway 30, the server 50 or the user terminal 60, 20, the gateway 30, the server 50, or the user terminal 60, as shown in FIG.

도 2는 일 실시예에 따른 감시 시스템을 구성하는 복수의 카메라들의 설치 구조를 설명하기 위한 도면이다.2 is a view for explaining an installation structure of a plurality of cameras constituting a surveillance system according to an embodiment.

도 2를 참조하면, 감시 시스템(1)은 복수의 카메라들을 포함할 수 있으며, 복수의 카메라들은 어안 카메라(10) 및 PTZ 카메라(20)를 포함할 수 있다.Referring to FIG. 2, the surveillance system 1 may include a plurality of cameras, and the plurality of cameras may include a fisheye camera 10 and a PTZ camera 20.

일 실시예에 따르면, 어안 카메라(10) 및 PTZ 카메라(20)는 상이한 수평선상에 설치될 수 있다. 즉, 어안 카메라(10)와 PTZ 카메라(20)는 상이한 높이에 설치될 수 있다. 따라서, 바닥으로부터 어안 카메라(10)에 이르는 수직높이와, 바닥으로부터 PTZ 카메라(20)에 이르는 수직높이는 상이할 수 있다.According to one embodiment, the fisheye camera 10 and the PTZ camera 20 may be installed on different horizontal lines. That is, the fisheye camera 10 and the PTZ camera 20 can be installed at different heights. Therefore, the vertical height from the floor to the fisheye camera 10 and the vertical height from the bottom to the PTZ camera 20 may be different.

다른 실시예에 따르면, 어안 카메라(10) 및 PTZ 카메라(20)는 동일한 수평선상에 설치될 수 있다. 즉, 어안 카메라(10)와 PTZ 카메라(20)는 동일한 높이에 설치될 수 있다. 따라서, 바닥으로부터 어안 카메라(10)에 이르는 수직높이와, 바닥으로부터 PTZ 카메라(20)에 이르는 수직높이는 동일할 수 있다.According to another embodiment, the fisheye camera 10 and the PTZ camera 20 may be installed on the same horizontal line. That is, the fisheye camera 10 and the PTZ camera 20 can be installed at the same height. Therefore, the vertical height from the bottom to the fish-eye camera 10 and the vertical height from the bottom to the PTZ camera 20 can be the same.

한편, 어안 카메라(10) 및 PTZ 카메라(20)는 상이한 수직선상에 설치될 수 있다. 즉, 어안 카메라(10)와 PTZ 카메라(20)는 이격될 수 있다. 이에 따라, 어안 카메라(10)는 PTZ 카메라(20)를 촬영할 수 있다. 어안 카메라(10)와 PTZ 카메라(20) 사이의 수평거리는 미리 정해질 수 있다.On the other hand, the fisheye camera 10 and the PTZ camera 20 can be installed on different vertical lines. That is, the fisheye camera 10 and the PTZ camera 20 can be spaced apart. Accordingly, the fisheye camera 10 can take a picture of the PTZ camera 20. The horizontal distance between the fisheye camera 10 and the PTZ camera 20 can be predetermined.

한편, 감시 시스템(1)은 수평거리만큼 이격된 제1 카메라 및 제2 카메라와, 제1 카메라 촬영 영상 및 제2 카메라 촬영 영상에 기초하여 감시 시스템(1)의 전반적인 동작을 제어하는 컨트롤러(100)를 포함할 수 있다. 제1 카메라는 제2 카메라보다 화각이 넓고 제2 카메라를 촬영할 수 있다. 제1 카메라는 어안 카메라(10)일 수 있다. 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라일 수 있다. 제2 카메라는 PTZ 카메라(20)일 수 있다.On the other hand, the surveillance system 1 includes a first camera and a second camera which are spaced apart by a horizontal distance, a controller 100 that controls the overall operation of the surveillance system 1 based on the first camera image and the second camera image ). The first camera can photograph the second camera with a wider angle of view than the second camera. The first camera may be a fisheye camera 10. The second camera may be a camera capable of adjusting a rotation direction or a zoom magnification. The second camera may be a PTZ camera 20.

컨트롤러(100)는 제1 카메라의 좌표계와 제2 카메라의 좌표계를 연동시킬 수 있다.The controller 100 can coordinate the coordinate system of the first camera with the coordinate system of the second camera.

예를 들어, 제1 카메라의 좌표계와 제2 카메라의 좌표계를 3차원 직교 좌표계로 파악하는 경우, 각 좌표계의 XY 평면은 감시 영역의 천정 및 바닥과 평행하고, 각 좌표계의 YZ 평면 및 ZX 평면은 감시 영역의 천정과 바닥을 잇는 수직선과 평행할 수 있다. 이때, 컨트롤러(100)는 제1 카메라의 X 축(

Figure pat00001
), 제1 카메라의 Y 축(
Figure pat00002
), 제1 카메라의 Z 축(
Figure pat00003
)이 각각 제2 카메라의 X 축(
Figure pat00004
), 제2 카메라의 Y 축(
Figure pat00005
), 제2 카메라의 Z 축(
Figure pat00006
)과 동일한 방향을 향하도록 즉, 연동되도록 제2 카메라를 회전시키거나 줌 배율을 조절시킬 수 있다.For example, when the coordinate system of the first camera and the coordinate system of the second camera are grasped as a three-dimensional orthogonal coordinate system, the XY plane of each coordinate system is parallel to the ceiling and the floor of the surveillance region, and the YZ plane and ZX plane of each coordinate system It can be parallel to the vertical line connecting the ceiling and floor of the surveillance area. At this time, the controller 100 determines whether the X-
Figure pat00001
), The Y axis of the first camera
Figure pat00002
), The Z-axis of the first camera
Figure pat00003
(X-axis) of the second camera
Figure pat00004
), The Y-axis of the second camera
Figure pat00005
), The Z-axis of the second camera
Figure pat00006
The second camera can be rotated or the zoom magnification can be adjusted so as to be interlocked.

이처럼 제1 카메라의 좌표계와 제2 카메라의 좌표계가 연동되면, 제1 카메라를 통해 감지된 이벤트를 제2 카메라를 통해 정확하게 촬영할 수 있으므로, 보다 효율적이고 사용자 니즈에 부합하는 감시 시스템(1)을 제공할 수 있다.When the coordinate system of the first camera and the coordinate system of the second camera cooperate with each other, the event sensed through the first camera can be accurately photographed through the second camera, thereby providing a surveillance system 1 that is more efficient and suited to the user's needs can do.

컨트롤러(100)는 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50), 및/또는 사용자 단말(60)에 구현될 수 있다. 컨트롤러(100)는 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50), 또는 사용자 단말(60)에 전부 구현될 수 있다.The controller 100 may be implemented in a fisheye camera 10, a PTZ camera 20, a gateway 30, a server 50, and / or a user terminal 60. The controller 100 may be fully implemented in the fisheye camera 10, the PTZ camera 20, the gateway 30, the server 50, or the user terminal 60. [

한편, 컨트롤러(100)는 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50), 및/또는 사용자 단말(60)에 각각 일부가 구현될 수 있다.The controller 100 may be partially implemented in the fisheye camera 10, the PTZ camera 20, the gateway 30, the server 50, and / or the user terminal 60, respectively.

이하에서는, 도 3을 참조하며 감시 시스템(1)을 구성하는 컨트롤러(100)의 구성에 대하여 상세하게 설명한다.Hereinafter, the configuration of the controller 100 constituting the monitoring system 1 will be described in detail with reference to FIG.

도 3은 일 실시예에 따른 감시 시스템을 구성하는 컨트롤러의 구성을 나타내는 블록도이다.3 is a block diagram showing a configuration of a controller constituting a monitoring system according to an embodiment.

도 3을 참조하면, 일 실시예에 따른 감시 시스템(1)을 구성하는 컨트롤러(100)는 통신 인터페이스(110), 사용자 인터페이스(130), 프로세서(150), 및 메모리(170)를 포함한다.3, the controller 100 constituting the monitoring system 1 according to an embodiment includes a communication interface 110, a user interface 130, a processor 150, and a memory 170. [

통신 인터페이스(110)는 제1 카메라, 제2 카메라, 게이트웨이(30), 서버(50), 및/또는 사용자 단말(60)과 통신한다.The communication interface 110 communicates with a first camera, a second camera, a gateway 30, a server 50, and / or a user terminal 60.

통신 인터페이스(110)는 제1 카메라로부터 제1 카메라 촬영 영상 및/또는 이벤트 정보를 수신할 수 있다.The communication interface 110 may receive the first camera image and / or event information from the first camera.

제1 카메라 촬영 영상은 감시 영역 전체를 촬영한 저화질 영상일 수 있다. 제1 카메라 촬영 영상은 제1 특징점 집합을 포함할 수 있다. 제1 특징점 집합은 제1 카메라 촬영 영상의 중심에 존재할 수 있다.The first camera photographed image may be a low-quality image photographed over the entire surveillance region. The first camera photographed image may include a first set of feature points. The first set of feature points may exist at the center of the first camera photographed image.

이벤트 정보는 카메라 식별 정보, 센서 식별 정보, 이벤트 촬영 영상, 이벤트 촬영 시간, 이벤트 식별 정보 등일 수 있다.The event information may be camera identification information, sensor identification information, event shooting image, event shooting time, event identification information, and the like.

통신 인터페이스(110)는 제2 카메라에 제1 회전 제어 신호를 전송하고, 제2 카메라로부터 회전 상태 정보를 수신할 수 있다.The communication interface 110 may transmit the first rotation control signal to the second camera and receive the rotation state information from the second camera.

제1 회전 제어 신호 및 회전 상태 정보는 각각 회전 각도 및/또는 줌 배율을 포함할 수 있다. 회전 각도는 팬각 및/또는 틸트각을 포함할 수 있다.The first rotation control signal and the rotation state information may each include a rotation angle and / or a zoom magnification. The rotation angle may include a fan angle and / or a tilt angle.

통신 인터페이스(110)는 제2 카메라로부터 제2 카메라 촬영 영상을 수신할 수 있다.The communication interface 110 may receive the second camera photographed image from the second camera.

제2 카메라 촬영 영상은 감시 영역 일부를 촬영한 고화질 영상일 수 있다. 제2 카메라 촬영 영상은 제2 특징점 집합을 포함할 수 있다. 제2 특징점 집합은 제2 카메라 촬영 영상의 중심에 존재할 수 있다.The second camera photographed image may be a high-quality image photographed in a part of the surveillance area. The second camera photographed image may include a second set of feature points. And the second set of feature points may exist at the center of the second camera photographed image.

제1 카메라 촬영 영상의 제1 특징점 집합은 제2 카메라 촬영 영상의 제2 특징점 집합과 대응될 수 있다. 예를 들어, 감시 영역의 바닥에 특징점 집합이 존재하고, 제1 카메라가 특징점 집합을 마주보도록 감시 영역의 천정에 설치되고, 제2 카메라가 제1 카메라와 소정 수평거리 이격되도록 감시 영역의 천정에 설치된 경우, 제1 카메라와 제2 카메라는 동일한 특징점 집합을 각각 상이한 각도에서 촬영할 수 있다.The first set of feature points of the first camera photographed image may correspond to the second set of feature points of the second camera photographed image. For example, a feature point set exists at the bottom of the surveillance area, the first camera is installed on the ceiling of the surveillance area so as to face the set of feature points, and the second camera is positioned on the ceiling of the surveillance area When installed, the first camera and the second camera can shoot the same set of feature points at different angles, respectively.

특징점 집합은 2차원 모양 또는 3차원 구조를 포함할 수 있다. 특징점 집합은 미리 정해질 수 있고, 변경될 수 있다.The feature point set may include a two-dimensional shape or a three-dimensional structure. The feature point set can be predetermined and can be changed.

사용자 인터페이스(130)는 제2 카메라의 촬영 영역 제어를 위한 사용자 입력, 제1 카메라 및 제2 카메라 사이의 수평거리를 선택하는 사용자 입력, 및 제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력 중 적어도 하나를 수신할 수 있다.The user interface 130 includes a user input for controlling the shooting area of the second camera, a user input for selecting a horizontal distance between the first camera and the second camera, and a user specifying a second camera Or at least one of the inputs.

제2 카메라의 촬영 영역 제어를 위한 사용자 입력은 회전 각도 및/또는 줌 배율을 포함할 수 있다.The user input for controlling the shooting area of the second camera may include a rotation angle and / or a zoom magnification.

제1 카메라 및 제2 카메라 사이의 수평거리를 선택하는 사용자 입력은 소정 수평거리를 포함할 수 있다. 즉, 제1 카메라 및 제2 카메라 사이의 수평거리는 사용자 입력에 의해 설정 또는 변경될 수 있다.The user input for selecting the horizontal distance between the first camera and the second camera may include a predetermined horizontal distance. That is, the horizontal distance between the first camera and the second camera can be set or changed by user input.

제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력은 제1 카메라 촬영 영상에서 하나의 지점을 선택하는 사용자 입력일 수 있다. 제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력에 따라 제1 카메라 촬영 영상에서의 제2 카메라에 대응하는 좌표 값이 결정될 수 있다.The user input for designating the second camera with respect to the first camera photographed image may be a user input for selecting one point from the first camera photographed image. The coordinate value corresponding to the second camera in the first camera photographed image may be determined according to a user input for designating the second camera with respect to the first camera photographed image.

제1 카메라 촬영 영상에서의 제2 카메라에 대응하는 좌표 값은 디지털 PTZ 값일 수 있다. 디지털 PTZ 값은 디지털 팬각, 디지털 틸트각, 및 디지털 줌 배율 중 적어도 하나를 포함할 수 있다.The coordinate value corresponding to the second camera in the first camera photographed image may be a digital PTZ value. The digital PTZ value may include at least one of a digital pan angle, a digital tilt angle, and a digital zoom magnification.

사용자 인터페이스(130)는 특징점 집합을 선택하는 사용자 입력을 수신할 수 있다.The user interface 130 may receive user input to select a set of feature points.

따라서, 특징점 집합은 사용자 입력에 따라 설정되거나 변경될 수 있다.Therefore, the feature point set can be set or changed according to user input.

사용자 인터페이스(130)는 제2 카메라의 촬영 영역 제어를 위한 사용자 입력 요청을 출력할 수 있다. 예를 들어, 사용자 인터페이스(130)는 사용자 단말(60)에 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청할 수 있다. 제2 카메라의 촬영 영역 제어를 위한 사용자 입력 요청은 제2 카메라가 특징점 집합을 마주보도록 제2 카메라의 촬영 영역을 제어하라는 알림을 포함할 수 있다.The user interface 130 may output a user input request for controlling the shooting area of the second camera. For example, the user interface 130 may request the user terminal 60 for user input for controlling the shooting area of the second camera. The user input request for controlling the shooting area of the second camera may include an instruction to control the shooting area of the second camera so that the second camera faces the set of feature points.

프로세서(150)는 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 팬각(pan angle)을 추출하고, 사용자 입력에 기초하여 제1 회전 제어 신호를 생성하고, 제1 팬각 및 회전 상태 정보로부터 추출된 제2 카메라의 제2 팬각 사이의 차이 팬각(

Figure pat00007
)을 산출하고, 제1 카메라 및 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표(
Figure pat00008
)를 산출하고, 차이 팬각(
Figure pat00009
) 및 3차원 거리 좌표(
Figure pat00010
)에 따른 연동 파라미터를 산출한다.The processor 150 extracts a first pan angle for the second camera from the first camera photographed image, generates a first rotation control signal based on the user input, extracts from the first pan angle and rotation state information The difference between the second pan angle of the second camera < RTI ID = 0.0 >
Figure pat00007
), And calculates three-dimensional distance coordinates ("
Figure pat00008
), And the difference pan angle (
Figure pat00009
) And three-dimensional distance coordinates (
Figure pat00010
) Is calculated.

제1 팬각은, 제1 카메라 촬영 영상의 기준선으로부터, 제1 카메라 촬영 영상의 중심과 제1 카메라 촬영 영상의 제2 카메라를 잇는 직선이 이루는 수평적인 각도를 의미한다. 예를 들어, 제1 팬각은 제1 카메라의 3차원 직교 좌표계의 XY 평면 상에서 X 축(

Figure pat00011
)으로부터 제1 카메라의 중심과 제2 카메라의 중심을 잇는 직선이 이루는 각도일 수 있다.The first fan angle means a horizontal angle formed by a straight line connecting the center of the first camera photographic image and the second camera of the first camera photographic image from the reference line of the first camera photographic image. For example, the first pan angle is an X-axis (x, y) on the XY plane of the three-dimensional Cartesian coordinate system of the first camera
Figure pat00011
The angle formed by the straight line connecting the center of the first camera and the center of the second camera.

프로세서(150)는 제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력에 대응하여 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 팬각을 추출할 수 있다.The processor 150 may extract a first fan angle for the second camera from the first camera shot image corresponding to a user input for designating the second camera with respect to the first camera shot image.

한편, 프로세서(150)는 제1 카메라 촬영 영상에서 제2 카메라를 자동으로 인식하는 알고리즘을 적용함으로써, 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 팬각을 추출할 수 있다.Meanwhile, the processor 150 may extract a first angle of incidence for the second camera from the first camera image by applying an algorithm for automatically recognizing the second camera from the first camera image.

프로세서(150)는 제2 카메라의 촬영 영역 제어를 위한 사용자 입력에 기초하여 제1 회전 제어 신호를 생성할 수 있다.The processor 150 may generate a first rotation control signal based on a user input for controlling the shooting area of the second camera.

제1 회전 제어 신호는 PTZ 카메라(20)의 절대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제1 회전 제어 신호를 수신한 PTZ 카메라(20)는 현재의 회전 각도 및/또는 줌 배율과 무관하게, 제1 회전 제어 신호에 포함된 회전 각도 및/또는 줌 배율과 동일하도록 회전 각도 및/또는 줌 배율을 조절할 수 있다.The first rotation control signal may include an absolute rotation angle and / or a zoom magnification of the PTZ camera 20. [ At this time, the PTZ camera 20, which has received the first rotation control signal, determines the rotation angle and / or the zoom magnification so as to be equal to the rotation angle and / or zoom magnification included in the first rotation control signal, regardless of the current rotation angle and / / Or adjust the zoom magnification.

한편, 제1 회전 제어 신호는 PTZ 카메라(20)의 상대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제1 회전 제어 신호를 수신한 PTZ 카메라(20)는 현재의 회전 각도 및/또는 줌 배율을 기준으로, 제1 회전 제어 신호에 포함된 상대적인 회전 각도 및/또는 줌 배율만큼 회전 각도 및/또는 줌 배율을 조절할 수 있다.On the other hand, the first rotation control signal may include a relative rotation angle and / or zoom magnification of the PTZ camera 20. At this time, the PTZ camera 20 having received the first rotation control signal, based on the current rotation angle and / or the zoom magnification, calculates the rotation angle and / or the rotation angle corresponding to the relative rotation angle and / Or the zoom magnification can be adjusted.

프로세서(150)는 회전 상태 정보로부터 제2 카메라의 제2 팬각을 추출할 수 있다. 제2 팬각은, 제2 카메라의 기준선으로부터 제2 카메라가 제1 회전 제어 신호에 대응하여 물리적으로 패닝한 각도를 의미한다. 예를 들어, 제2 팬각은 제2 카메라의 3차원 직교 좌표계의 XY 평면 상에서 X 축(

Figure pat00012
)으로부터 제2 카메라가 패닝을 종료한 지점에 이르는 각도일 수 있다.The processor 150 may extract the second angle of incidence of the second camera from the rotation state information. The second fan angle refers to an angle that the second camera physically pans from the reference line of the second camera in response to the first rotation control signal. For example, the second angle of incidence is defined as the angle between the X-axis and the X-axis on the XY plane of the three-dimensional Cartesian coordinate system of the second camera
Figure pat00012
) To the point at which the second camera ends the panning.

회전 상태 정보는 제2 카메라의 아날로그 PTZ 값을 포함할 수 있다. 아날로그 PTZ 값은 아날로그 팬각, 아날로그 틸트각, 및 아날로그 줌 배율 중 적어도 하나를 포함할 수 있다.The rotation status information may include an analog PTZ value of the second camera. The analog PTZ value may include at least one of an analog pan angle, an analog tilt angle, and an analog zoom magnification.

제1 팬각 및 제2 팬각은 각각 0도 이상 360도 이하일 수 있다.The first fan angle and the second fan angle may be 0 degree or more and 360 degrees or less, respectively.

프로세서(150)는 제1 팬각 및 제2 팬각 사이의 차이 팬각(

Figure pat00013
)을 산출할 수 있다. 즉, 프로세서(150)는 디지털 PTZ 값과 아날로그 PTZ 값 사이의 차이 값을 산출할 수 있다.The processor 150 may determine the difference pan angle < RTI ID = 0.0 >
Figure pat00013
) Can be calculated. That is, the processor 150 may calculate the difference value between the digital PTZ value and the analog PTZ value.

프로세서(150)는 제1 카메라 및 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표(

Figure pat00014
)를 산출할 수 있다.The processor 150 may determine three-dimensional distance coordinates (< RTI ID = 0.0 >
Figure pat00014
) Can be calculated.

제1 카메라의 좌표계와 제2 카메라의 좌표계가 3차원 직교 좌표계인 경우, 3차원 거리 좌표(

Figure pat00015
)는 제1 카메라의 X 좌표 값과 제2 카메라의 X 좌표 값의 차이, 제1 카메라의 Y 좌표 값과 제2 카메라의 Y 좌표 값의 차이, 및 제1 카메라의 Z 좌표 값과 제2 카메라의 Z 좌표 값의 차이로 구성될 수 있다.When the coordinate system of the first camera and the coordinate system of the second camera are three-dimensional Cartesian coordinates, three-dimensional distance coordinates (
Figure pat00015
The difference between the X coordinate value of the first camera and the X coordinate value of the second camera, the difference between the Y coordinate value of the first camera and the Y coordinate value of the second camera, and the difference between the Z coordinate value of the first camera, And the Z coordinate value of the Z coordinate.

예를 들어, 제1 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제1 카메라의 중앙의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다. 제2 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제2 카메라의 렌즈의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다.For example, the X coordinate value, Y coordinate value, and Z coordinate value of the first camera may be the X coordinate value, Y coordinate value, and Z coordinate value of the center of the first camera, respectively. The X coordinate value, the Y coordinate value, and the Z coordinate value of the second camera may be the X coordinate value, the Y coordinate value, and the Z coordinate value of the lens of the second camera, respectively.

한편, 제1 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제1 카메라 촬영 영상의 중심의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다. 제2 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제2 카메라 촬영 영상의 중심의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다.The X-coordinate value, the Y-coordinate value, and the Z-coordinate value of the first camera may be an X-coordinate value, a Y-coordinate value, and a Z-coordinate value of the center of the first camera photographed image, respectively. The X coordinate value, the Y coordinate value, and the Z coordinate value of the second camera may be the X coordinate value, the Y coordinate value, and the Z coordinate value of the center of the second camera photographed image, respectively.

프로세서(150)는 차이 팬각(

Figure pat00016
) 및 3차원 거리 좌표(
Figure pat00017
)에 따른 연동 파라미터를 산출할 수 있다. 연동 파라미터는 어안 카메라(10)의 좌표계로부터 PTZ 카메라(20)의 좌표계를 획득하기 위해 필요한 파라미터를 의미한다. 연동 파라미터는 차이 팬각(
Figure pat00018
)과 3차원 거리 좌표(
Figure pat00019
)를 이용한 오일러 회전 변환 행렬일 수 있다.The processor 150 determines the difference pan angle
Figure pat00016
) And three-dimensional distance coordinates (
Figure pat00017
) Can be calculated. The interlocking parameter means a parameter necessary for obtaining the coordinate system of the PTZ camera 20 from the coordinate system of the fisheye camera 10. [ The interlocking parameters are the difference pan angle (
Figure pat00018
) And three-dimensional distance coordinates (
Figure pat00019
Lt; RTI ID = 0.0 > Euler < / RTI >

제1 카메라의 수직높이와 제2 카메라의 수직높이가 상이한 경우, 프로세서(150)는 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하고, 수평거리 및 제1 틸트각에 기초하여 제1 카메라 및 제2 카메라 사이의 제1 수직높이를 산출하고, 수평거리 및 회전 상태 정보로부터 추출된 제2 카메라의 제2 틸트각에 기초하여 제2 카메라의 제2 수직높이를 산출하고, 제1 수직높이 및 제2 수직높이로부터 제1 카메라의 제3 수직높이를 산출하고, 이벤트 정보에 대응하여 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 제3 수직높이와 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 제1 카메라의 제1 카메라 좌표 값을 생성하고, 연동 파라미터를 적용하여 제1 카메라 좌표 값을 제2 카메라의 제2 카메라 좌표 값으로 변환하고, 제2 카메라 좌표 값에 기초하여 제2 회전 제어 신호를 생성할 수 있다.When the vertical height of the first camera differs from the vertical height of the second camera, the processor 150 extracts a first tilt angle for the second camera from the first camera shot image, Calculating a first vertical height between the first camera and the second camera based on the tilt angle and calculating a second vertical height of the second camera based on the second tilt angle of the second camera extracted from the horizontal distance and the rotation state information, Calculates the third vertical height of the first camera from the first vertical height and the second vertical height, calculates the horizontal coordinate of the event occurrence position extracted from the first camera photographic image and the third vertical height And the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information, and outputs the first camera coordinate value of the first camera to the first camera The coordinate value may be converted into the second camera coordinate value of the second camera, and the second rotation control signal may be generated based on the second camera coordinate value.

프로세서(150)는 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 틸트각을 추출할 수 있다. 제1 틸트각은, 제1 카메라 촬영 영상의 기준선으로부터, 제1 카메라 촬영 영상의 중심과 제1 카메라 촬영 영상의 제2 카메라를 잇는 직선이 이루는 수직적인 각도를 의미한다. 예를 들어, 제1 틸트각은 제1 카메라의 3차원 직교 좌표계의 XY 평면으로부터 제1 카메라의 중심과 제2 카메라의 중심을 잇는 직선이 이루는 Z 축(

Figure pat00020
) 방향의 각도일 수 있다.The processor 150 may extract a first tilt angle for the second camera from the first camera shot image. The first tilt angle means a vertical angle formed by a straight line connecting the center of the first camera photographic image and the second camera of the first camera photographic image from the reference line of the first camera photographic image. For example, the first tilt angle may be calculated from the XY plane of the three-dimensional orthogonal coordinate system of the first camera, and the Z axis of the straight line connecting the center of the first camera and the center of the second camera
Figure pat00020
) Direction.

프로세서(150)는 제1 카메라와 제2 카메라 사이의 수평거리와 제1 틸트각에 삼각 함수를 적용함으로써, 제1 카메라와 제2 카메라 사이의 제1 수직높이를 산출할 수 있다.The processor 150 may calculate a first vertical height between the first camera and the second camera by applying a trigonometric function to the horizontal distance between the first camera and the second camera and the first tilt angle.

프로세서(150)는 회전 상태 정보로부터 제2 카메라의 제2 틸트각을 추출할 수 있다. 제2 틸트각은, 제2 카메라의 기준선으로부터 제2 카메라가 제1 회전 제어 신호에 대응하여 물리적으로 틸팅한 각도를 의미한다. 예를 들어, 제2 틸트각은 제2 카메라의 3차원 직교 좌표계의 XY 평면으로부터 제2 카메라가 틸팅을 종료한 지점에 이르는 Z 축(

Figure pat00021
) 방향의 각도일 수 있다.The processor 150 may extract the second tilt angle of the second camera from the rotation state information. The second tilt angle means an angle that the second camera physically tilts from the reference line of the second camera in response to the first rotation control signal. For example, the second tilt angle may be a Z-axis extending from the XY plane of the three-dimensional rectangular coordinate system of the second camera to the point where the second camera ends the tilting
Figure pat00021
) Direction.

프로세서(150)는 제1 카메라와 제2 카메라 사이의 수평거리와 제2 틸트각에 삼각 함수를 적용함으로써, 바닥으로부터 제2 카메라에 이르는 제2 수직높이를 산출할 수 있다.The processor 150 may calculate a second vertical height from the floor to the second camera by applying a trigonometric function to the horizontal distance between the first camera and the second camera and the second tilt angle.

프로세서(150)는 제1 수직높이와 제2 수직높이를 더하여 바닥으로부터 제1 카메라에 이르는 제3 수직높이를 산출할 수 있다.The processor 150 may calculate the third vertical height from the floor to the first camera by adding the first vertical height and the second vertical height.

프로세서(150)는 센서 등으로부터 전송된 이벤트 정보에 대응하여 제1 카메라 촬영 영상으로부터 이벤트 발생 위치의 수평 좌표를 추출할 수 있다. 예를 들어, 프로세서(150)는 제1 카메라 촬영 영상에 제1 카메라의 3차원 직교 좌표를 적용하여 이벤트 발생 위치의 X 좌표 값 및 Y 좌표 값을 추출할 수 있다.The processor 150 may extract the horizontal coordinate of the event occurrence position from the first camera photographic image corresponding to the event information transmitted from the sensor or the like. For example, the processor 150 may extract the X coordinate value and the Y coordinate value of the event occurrence position by applying the three-dimensional rectangular coordinate of the first camera to the first camera photograph image.

프로세서(150)는 앞서 산출한 제3 수직높이와 평균 이벤트 높이인 제4 수직높이의 차이로부터 이벤트 발생 위치의 수직 좌표를 추출할 수 있다. 이벤트 발생 위치의 수직 좌표는 제1 카메라의 3차원 직교 좌표에서 Z 좌표 값일 수 있다.The processor 150 may extract the vertical coordinate of the event occurrence position from the difference between the third vertical height calculated above and the fourth vertical height that is the average event height. The vertical coordinate of the event occurrence position may be the Z coordinate value in the three-dimensional rectangular coordinate of the first camera.

평균 이벤트 높이는 이벤트 정보로부터 추출될 수 있다. 예를 들어, 평균 이벤트 높이는 이벤트 식별 정보로부터 추출될 수 있다.The average event height can be extracted from the event information. For example, the average event height can be extracted from the event identification information.

이벤트 발생 위치의 수평 좌표 및 수직 좌표는 제1 카메라 좌표 값을 구성할 수 있다. 제1 카메라 좌표 값은 디지털 PTZ 값일 수 있다.The horizontal coordinate and the vertical coordinate of the event occurrence position may constitute the first camera coordinate value. The first camera coordinate value may be a digital PTZ value.

프로세서(150)는 제1 카메라 좌표 값에 연동 파라미터를 적용하여 제2 카메라의 제2 카메라 좌표 값을 산출할 수 있다. 이때, 프로세서(150)는 제1 카메라 좌표 값과 연동 파라미터를 행렬 곱셈하여 제2 카메라 좌표 값을 산출할 수 있다. 제2 카메라 좌표 값은 아날로그 PTZ 값일 수 있다. 즉, 프로세서(150)는 디지털 PTZ 값에 연동 파라미터를 적용하여 아날로그 PTZ 값을 생성할 수 있다.The processor 150 may calculate the second camera coordinate value of the second camera by applying the interlocking parameter to the first camera coordinate value. At this time, the processor 150 may calculate the second camera coordinate value by performing matrix multiplication of the first camera coordinate value and the interlocking parameter. The second camera coordinate value may be an analog PTZ value. That is, the processor 150 may generate an analog PTZ value by applying an interlocking parameter to the digital PTZ value.

프로세서(150)는 제2 카메라 좌표 값에 기초하여 제2 회전 제어 신호를 생성할 수 있다.The processor 150 may generate the second rotation control signal based on the second camera coordinate value.

제2 회전 제어 신호는 제2 카메라의 절대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제2 회전 제어 신호를 수신한 제2 카메라는 현재의 회전 각도 및/또는 줌 배율과 무관하게, 제2 회전 제어 신호에 포함된 회전 각도 및/또는 줌 배율과 동일하도록 회전 각도 및/또는 줌 배율을 조절할 수 있다.The second rotation control signal may include an absolute rotation angle and / or zoom magnification of the second camera. At this time, the second camera, which has received the second rotation control signal, determines the rotation angle and / or the zoom magnification so as to be equal to the rotation angle and / or the zoom magnification included in the second rotation control signal, regardless of the current rotation angle and / You can adjust the zoom magnification.

한편, 제2 회전 제어 신호는 제2 카메라의 상대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제2 회전 제어 신호를 수신한 제2 카메라는 현재의 회전 각도 및/또는 줌 배율을 기준으로, 제2 회전 제어 신호에 포함된 상대적인 회전 각도 및/또는 줌 배율만큼 회전 각도 및/또는 줌 배율을 조절할 수 있다.On the other hand, the second rotation control signal may include a relative rotation angle and / or zoom magnification of the second camera. At this time, the second camera, which has received the second rotation control signal, determines the rotation angle and / or the zoom angle corresponding to the relative rotation angle and / or zoom magnification included in the second rotation control signal based on the current rotation angle and / You can adjust the magnification.

이처럼, 제1 카메라의 좌표계와 제2 카메라의 좌표계를 연동시키는 경우, 연동 파라미터를 적용하는 것만으로 제2 카메라가 이벤트를 보다 정확하게 촬영할 수 있으므로, 프로세서(150)의 연산량을 감소시켜 자원을 보다 효율적으로 이용할 수 있다.In this case, when the coordinate system of the first camera and the coordinate system of the second camera are interlocked, the second camera can photograph the event more accurately by applying the interlocking parameter, so that the calculation amount of the processor 150 is reduced, .

한편, 제1 카메라 및 제2 카메라가 동일한 수직높이를 가지는 경우, 프로세서(150)는 수평거리 및 회전 상태 정보로부터 추출된 제2 카메라의 제2 틸트각에 기초하여 수직높이를 산출하고, 이벤트 정보에 대응하여 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 수직높이와 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 제1 카메라의 디지털 PTZ 값을 생성하고, 연동 파라미터를 적용하여 디지털 PTZ 값을 제2 카메라의 아날로그 PTZ 값으로 변환하고, 아날로그 PTZ 값을 포함하는 제2 회전 제어 신호를 생성할 수 있다.If the first camera and the second camera have the same vertical height, the processor 150 calculates the vertical height based on the second tilt angle of the second camera extracted from the horizontal distance and the rotation state information, And generates the digital PTZ value of the first camera including the horizontal coordinates and vertical height of the event occurrence position extracted from the first camera shot image and the vertical coordinates of the event occurrence position extracted from the average event height corresponding to the event information The digital PTZ value is converted into the analog PTZ value of the second camera by applying the interlocking parameter, and the second rotation control signal including the analog PTZ value can be generated.

이하에서는 앞서 제1 카메라의 수직높이와 제2 카메라의 수직높이가 상이한 경우에 대한 설명과 동일한 설명은 생략하거나 간략히 한다.Hereinafter, the description of the case where the vertical height of the first camera is different from the vertical height of the second camera is omitted or briefly described below.

프로세서(150)는 제1 카메라와 제2 카메라 사이의 수평거리와 제2 틸트각에 삼각 함수를 적용함으로써, 바닥으로부터 제2 카메라에 이르는 수직높이를 산출할 수 있다. 이때, 바닥으로부터 제2 카메라에 이르는 수직높이는 바닥으로부터 제1 카메라에 이르는 수직높이와 동일하다.The processor 150 may calculate a vertical height from the floor to the second camera by applying a trigonometric function to the horizontal distance between the first camera and the second camera and the second tilt angle. At this time, the vertical height from the bottom to the second camera is equal to the vertical height from the bottom to the first camera.

프로세서(150)는 앞서 산출한 수직높이와 평균 이벤트 높이의 차이로부터 이벤트 발생 위치의 수직 좌표를 추출할 수 있다.The processor 150 can extract the vertical coordinate of the event occurrence position from the difference between the vertical height calculated above and the average event height.

프로세서(150)는 이벤트 발생 위치의 수평 좌표 및 수직 좌표로 구성된 제1 카메라의 디지털 PTZ 값에 연동 파라미터를 적용하여 제2 카메라의 아날로그 PTZ 값을 산출할 수 있다.The processor 150 may calculate the analog PTZ value of the second camera by applying an interlocking parameter to the digital PTZ value of the first camera configured by the horizontal coordinate and the vertical coordinate of the event occurrence position.

이처럼, 제1 카메라 및 제2 카메라가 동일한 수직높이를 가지는 경우에는 제1 카메라의 수직높이와 제2 카메라의 수직높이가 상이한 경우보다 간단한 연산을 통해 제1 카메라의 좌표계와 제2 카메라의 좌표계를 연동시킬 수 있으므로, 보다 효율적이고 정확하게 고화질 이벤트 영상을 획득할 수 있다.In the case where the first camera and the second camera have the same vertical height, the coordinate system of the first camera and the coordinate system of the second camera can be obtained through simpler operations than when the vertical height of the first camera is different from the vertical height of the second camera. It is possible to obtain a high-quality event image more efficiently and accurately.

프로세서(150)는 제2 카메라 촬영 영상에 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 회전 상태 정보에 기초하여 제1 특징점 집합과 제2 특징점 집합이 매치되면 연동 파라미터를 산출하고, 제2 카메라 촬영 영상에 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 제1 특징점 집합과 제2 특징점 집합이 매치되지 않으면 사용자 인터페이스를 통해 사용자 단말(60)에 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청할 수 있다.The processor 150 calculates a linkage parameter if the second feature point set corresponding to the first feature point set exists in the second camera image and the first feature point set and the second feature point set are matched based on the rotation state information, If the second feature point set corresponding to the first feature point set does not exist in the second camera photographed image or if the first feature point set and the second feature point set do not match, the user terminal 60 controls the shooting area control of the second camera Lt; / RTI >

프로세서(150)는 제1 카메라 촬영 영상에 제1 특징점 집합이 존재하고, 제2 카메라 촬영 영상에 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하면, 제1 특징점 집합과 제2 특징점 집합이 매치되는지 여부를 판단할 수 있다.If the first feature point set exists in the first camera image and the second feature point set corresponding to the first feature point set exists in the second camera image, the processor 150 determines that the first feature point set and the second feature point set are matched Or not.

프로세서(150)는 제2 카메라의 회전 상태 정보에 기초하여 제1 특징점 집합과 제2 특징점 집합이 매치되는지 여부를 판단할 수 있다.The processor 150 may determine whether the first feature point set and the second feature point set are matched based on the rotation state information of the second camera.

제1 카메라 촬영 영상에 존재하는 제1 특징점 집합은, 제1 특징점 집합이 정면에서 촬영된 모양을 의미한다. 제2 카메라 촬영 영상에 존재하는 제2 특징점 집합은, 제1 특징점 집합이 측면에서 소정 각도로 촬영된 모양을 의미한다.The first set of feature points existing in the first camera photographed image means a form in which the first set of feature points are photographed from the front side. The second set of feature points present in the second camera photographed image means a form in which the first set of feature points is photographed at a predetermined angle from the side.

따라서, 프로세서(150)는 소정 각도로 촬영된 제1 특징점 집합의 모양이 제2 특징점 집합의 모양과 소정 오차 범위 내에서 동일하다면, 제1 특징점 집합과 제2 특징점 집합이 매치된다고 판단할 수 있다.Accordingly, the processor 150 may determine that the first feature point set and the second feature point set are matched if the shape of the first feature point set photographed at an angle is the same within a predetermined error range with respect to the shape of the second feature point set.

프로세서(150)는 제1 특징점 집합과 제2 특징점 집합이 매치되는 경우에 한하여 연동 파라미터를 산출하고, 제1 특징점 집합과 제2 특징점 집합이 매치되지 않는 경우에는 제2 카메라가 제1 특징점 집합을 촬영할 수 있도록 제2 카메라의 촬영 영역을 제어하도록 사용자 입력을 요청할 수 있다.The processor 150 calculates the linkage parameter only when the first set of feature points and the second set of feature points are matched, and if the first set of feature points and the set of second feature points do not match, the second camera can take a set of first feature points The user may request a user input to control the shooting area of the second camera.

즉, 프로세서(150)는 제2 카메라가 제1 특징점 집합을 촬영할 때까지 제2 카메라의 회전 각도 및/또는 줌 배율을 조절시킴으로써, 연동 파라미터를 보다 정확하게 계산할 수 있다.That is, the processor 150 can calculate the linking parameter more accurately by adjusting the rotation angle and / or the zoom magnification of the second camera until the second camera captures the first set of feature points.

메모리(170)는 통신 인터페이스(110)와 사용자 인터페이스(130)를 통해 수신하거나 전송한 정보 및 프로세서(150)를 통해 생성된 정보를 저장할 수 있다.The memory 170 may store information received or transmitted through the communication interface 110 and the user interface 130 and information generated through the processor 150. [

메모리(170)는 제1 카메라 촬영 영상, 제2 카메라 촬영 영상, 제1 카메라와 제2 카메라 사이의 수평거리, 제1 카메라의 회전 상태 정보, 제1 카메라 및 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표(

Figure pat00022
), 연동 파라미터, 이벤트 정보 등을 저장할 수 있다.The memory 170 stores the first camera photographed image, the second camera photographed image, the horizontal distance between the first camera and the second camera, the rotation state information of the first camera, the information indicating the distance between the first camera and the second camera, Dimension Distance Coordinates (
Figure pat00022
), Interworking parameters, event information, and the like.

메모리(170)는 제1 특징점 집합이 전면에서 촬영된 모양 및 제1 특징점 집합이 소정 각도로 촬영된 모양을 매치하여 저장할 수 있다. 소정 각도는 복수일 수 있다.The memory 170 may match and store the shape of the first feature point set captured from the front side and the shape of the first feature point set captured at a predetermined angle. The predetermined angle may be plural.

이하에서는, 도 4 내지 도 8a 및 도 8b를 참조하여 어안 카메라(10)의 수직높이와 PTZ 카메라(20)의 수직높이가 상이한 경우의 감시 시스템(1)의 동작 방법에 대하여 설명한다.Hereinafter, an operation method of the surveillance system 1 when the vertical height of the fisheye camera 10 and the vertical height of the PTZ camera 20 are different will be described with reference to Figs. 4 to 8A and 8B.

이하에서, 도 4 내지 도 6을 참조하여, 감시 시스템(1)의 연동 파라미터 산출 방법을 상세하게 설명한다.Hereinafter, a method of calculating the linkage parameter of the monitoring system 1 will be described in detail with reference to Figs. 4 to 6. Fig.

도 4는 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.4 is a flowchart for explaining a method of calculating an interworking parameter of a surveillance system according to an embodiment.

도 5 및 도 6은 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.5 and 6 are views for explaining a method of calculating a linkage parameter of a surveillance system according to an embodiment.

도 4 내지 도 6을 참조하면, 수평거리(D)만큼 이격된 어안 카메라(10) 및 PTZ 카메라(20)를 포함하는 감시 시스템(1)의 동작 방법에 있어서, 컨트롤러(100)는 어안 카메라(10)로부터 어안 카메라 촬영 영상을 수신하고(S101), PTZ 카메라(20)로부터 PTZ 카메라 촬영 영상을 수신한다(S103).4 to 6, in the operation method of the surveillance system 1 including the fisheye camera 10 and the PTZ camera 20 separated by the horizontal distance D, the controller 100 controls the fisheye camera 10) (S101), and receives the PTZ camera image from the PTZ camera 20 (S103).

이어서, 컨트롤러(100)는 어안 카메라(10)와 PTZ 카메라(20) 사이의 수평거리(D)를 입력받는다(S105).Next, the controller 100 receives the horizontal distance D between the fisheye camera 10 and the PTZ camera 20 (S105).

컨트롤러(100)는 수평거리(D)를 선택하는 사용자 입력을 수신할 수 있다.The controller 100 may receive a user input that selects the horizontal distance D.

한편, 컨트롤러(100)는 센서에 의해 인식된 수평거리(D)를 입력받을 수 있다.On the other hand, the controller 100 can receive the horizontal distance D recognized by the sensor.

이어서, 컨트롤러(100)는 어안 카메라 촬영 영상에 대하여 PTZ 카메라(20)를 지정하는 사용자 입력을 수신한다(S107).Next, the controller 100 receives a user input for specifying the PTZ camera 20 with respect to the fisheye camera shot image (S107).

컨트롤러(100)는 PTZ 카메라(20)를 지정하는 사용자 입력에 따라 어안 카메라 촬영 영상에서의 PTZ 카메라(20)에 대응하는 좌표 값을 획득할 수 있다.The controller 100 may acquire a coordinate value corresponding to the PTZ camera 20 in the fisheye camera taken image according to a user input specifying the PTZ camera 20. [

한편, 어안 카메라 촬영 영상에서의 PTZ 카메라(20)에 대응하는 좌표 값은 센서 등에 의해 자동으로 획득될 수 있으며, 이에 한정하지 않는다.On the other hand, the coordinate value corresponding to the PTZ camera 20 in the fisheye camera taken image can be acquired automatically by a sensor or the like, but is not limited thereto.

이어서, 컨트롤러(100)는 어안 카메라 촬영 영상으로부터 PTZ 카메라(20)에 대한 제1 팬각 및 제1 틸트각(T1)을 추출한다(S109). 제1 팬각 및 제1 틸트각(T1)은 디지털 PTZ 값일 수 있다.Next, the controller 100 extracts the first pan angle and the first tilt angle T1 for the PTZ camera 20 from the fisheye camera image (S109). The first pan angle and the first tilt angle T1 may be digital PTZ values.

한편, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 수신한다(S111). PTZ 제어를 위한 사용자 입력은 PTZ 카메라(20)의 촬영 영역 제어를 위한 사용자 입력을 의미한다. 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력에 기초하여 제1 PTZ 제어 신호를 생성할 수 있다.Meanwhile, the controller 100 receives a user input for PTZ control (S111). The user input for PTZ control means a user input for controlling the photographing area of the PTZ camera 20. [ The controller 100 may generate a first PTZ control signal based on a user input for PTZ control.

컨트롤러(100)가 PTZ 카메라(20)에 제1 PTZ 제어 신호를 전송하면(S113), PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S115). PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 줌 배율을 조절할 수도 있다.When the controller 100 transmits the first PTZ control signal to the PTZ camera 20 in step S113, the PTZ camera 20 performs panning and / or tilting in response to the first PTZ control signal in step S115. The PTZ camera 20 may adjust the zoom magnification corresponding to the first PTZ control signal.

제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한 PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)을 추출한다(S117). 제2 팬각 및 제2 틸트각(T2)은 아날로그 PTZ 값일 수 있다.The PTZ camera 20 that performs panning and / or tilting in response to the first PTZ control signal extracts the second pan angle and the second tilt angle T2 (S117). The second pan angle and the second tilt angle T2 may be analog PTZ values.

이어서, PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)이 포함된 PTZ 정보를 컨트롤러(100)에 전송한다(S119). PTZ 정보는 제1 PTZ 제어 신호에 대응하는 PTZ 카메라(20)의 회전 상태 정보를 의미한다.Then, the PTZ camera 20 transmits the PTZ information including the second pan angle and the second tilt angle T2 to the controller 100 (S119). The PTZ information indicates the rotation state information of the PTZ camera 20 corresponding to the first PTZ control signal.

컨트롤러(100)는 S109 단계에서 추출한 제1 팬각과 S119 단계에서 수신한 제2 팬각 사이의 차이 팬각(

Figure pat00023
)을 산출한다(S121).The controller 100 determines whether the difference fan angle between the first fan angle extracted in step S109 and the second fan angle received in step S119
Figure pat00023
(S121).

이어서, 컨트롤러(100)는 어안 카메라(10) 및 PTZ 카메라(20) 사이의 거리를 나타내는 3차원 거리 좌표(

Figure pat00024
)를 산출한다(S123).Next, the controller 100 calculates three-dimensional distance coordinates (" x ") indicating the distance between the fisheye camera 10 and the PTZ camera 20
Figure pat00024
(Step S123).

어안 카메라(10)의 좌표계와 PTZ 카메라(20)의 좌표계가 3차원 직교 좌표계인 경우, 3차원 거리 좌표(

Figure pat00025
)는 어안 카메라(10)의 X 좌표 값과 PTZ 카메라(20)의 X 좌표 값의 차이, 어안 카메라(10)의 Y 좌표 값과 PTZ 카메라(20)의 Y 좌표 값의 차이, 및 어안 카메라(10)의 Z 좌표 값과 PTZ 카메라(20)의 Z 좌표 값의 차이로 구성될 수 있다.When the coordinate system of the fisheye camera 10 and the coordinate system of the PTZ camera 20 are three-dimensional rectangular coordinate systems, three-dimensional distance coordinates (
Figure pat00025
The difference between the X coordinate value of the fisheye camera 10 and the X coordinate value of the PTZ camera 20 and the difference between the Y coordinate value of the fisheye camera 10 and the Y coordinate value of the PTZ camera 20, 10) and the Z coordinate value of the PTZ camera 20, as shown in FIG.

이어서, 컨트롤러(100)는 차이 팬각(

Figure pat00026
) 및 3차원 거리 좌표(
Figure pat00027
)에 따른 연동 파라미터를 산출한다(S125).The controller 100 then determines the difference pan angle (< RTI ID = 0.0 >
Figure pat00026
) And three-dimensional distance coordinates (
Figure pat00027
) Is calculated (S125).

일 실시예에 따른 연동 파라미터는 수학식 1을 이용하여 구할 수 있다.The interworking parameter according to one embodiment can be obtained using Equation (1).

Figure pat00028
Figure pat00028

수학식 1에서,

Figure pat00029
는 연동 파라미터를 나타낸다. In Equation (1)
Figure pat00029
Represents an interlocking parameter.

즉, 연동 파라미터는 차이 팬각(

Figure pat00030
)과 3차원 거리 좌표(
Figure pat00031
)를 이용한 오일러 회전 변환 행렬일 수 있다.In other words,
Figure pat00030
) And three-dimensional distance coordinates (
Figure pat00031
Lt; RTI ID = 0.0 > Euler < / RTI >

이하에서, 도 5, 도 7, 도 8a, 및 도 8b를 참조하여, 감시 시스템(1)의 동작 방법을 상세하게 설명한다.Hereinafter, an operation method of the surveillance system 1 will be described in detail with reference to Figs. 5, 7, 8A, and 8B.

도 7은 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating an operation method of a monitoring system based on an interlocking parameter according to an embodiment.

도 8a 및 도 8b는 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 도면이다.8A and 8B are views for explaining a method of operating a monitoring system based on an interlocking parameter according to an embodiment.

도 5, 도 7, 도 8a, 및 도 8b를 참조하면, 컨트롤러(100)는 수평거리(D) 및 제1 틸트각(T1)에 기초하여 어안 카메라(10) 및 PTZ 카메라(20) 사이의 제1 수직높이(H1)를 산출한다(S201).Referring to Figs. 5, 7, 8A and 8B, the controller 100 calculates the distance between the fisheye camera 10 and the PTZ camera 20 based on the horizontal distance D and the first tilt angle T1. The first vertical height H1 is calculated (S201).

일 실시예에 따른 제1 수직높이(H1)는 수학식 2를 이용하여 구할 수 있다.The first vertical height H1 according to an exemplary embodiment can be calculated using Equation (2).

Figure pat00032
Figure pat00032

이어서, 컨트롤러(100)는 수평거리(D) 및 S119 단계에서 수신한 제2 틸트각(T2)에 기초하여 PTZ 카메라(20)의 제2 수직높이(H2)를 산출한다(S205).Subsequently, the controller 100 calculates the second vertical height H2 of the PTZ camera 20 based on the horizontal distance D and the second tilt angle T2 received in step S119 (S205).

일 실시예에 따른 제2 수직높이(H2)는 수학식 3을 이용하여 구할 수 있다.The second vertical height H2 according to one embodiment can be obtained using Equation (3).

Figure pat00033
Figure pat00033

이어서, 컨트롤러(100)는 제1 수직높이(H1) 및 제2 수직높이(H2)로부터 어안 카메라(10)의 제3 수직높이(H3)를 산출한다(S205). 컨트롤러(100)는 제1 수직높이(H1)와 제2 수직높이(H2)를 더하여 제3 수직높이(H3)를 산출할 수 있다.Next, the controller 100 calculates the third vertical height H3 of the fisheye camera 10 from the first vertical height H1 and the second vertical height H2 (S205). The controller 100 may calculate the third vertical height H3 by adding the first vertical height H1 and the second vertical height H2.

한편, 어안 카메라(10)는 이벤트를 검출한다(S207). 어안 카메라(10)는 어안 카메라 촬영 영상으로부터 이벤트를 검출할 수 있다. 어안 카메라(10)는 센서 등을 통해 이벤트를 검출할 수 있다. 어안 카메라(10)뿐만 아니라, 별도의 센서 등을 통해 이벤트가 검출될 수도 있다.On the other hand, the fisheye camera 10 detects an event (S207). The fisheye camera 10 can detect an event from the fisheye camera taken image. The fisheye camera 10 can detect an event through a sensor or the like. An event may be detected not only by the fisheye camera 10 but also through a separate sensor or the like.

이벤트는 예를 들어, 사람의 얼굴 인식일 수 있다.The event can be, for example, human face recognition.

컨트롤러(100)는 어안 카메라(10)로부터 이벤트 정보를 수신하면(S209), 어안 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 제3 수직높이(H3)와 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 디지털 PTZ 값을 생성한다(S211).When the controller 100 receives the event information from the fisheye camera 10 (S209), the controller 100 generates the event extracted from the horizontal coordinate of the event occurrence position extracted from the fisheye camera taken image, the third vertical height H3, A digital PTZ value including the vertical coordinates of the position is generated (S211).

컨트롤러(100)는 이벤트 정보에 대응하여 어안 카메라 촬영 영상으로부터 이벤트 발생 위치의 수평 좌표를 추출할 수 있다.The controller 100 can extract the horizontal coordinates of the event occurrence position from the fisheye camera photographed image corresponding to the event information.

예를 들어, 도 8b와 같이, 어안 카메라 촬영 영상으로부터 이벤트 발생 위치의 수평 좌표(x, y)를 추출할 수 있다.For example, as shown in FIG. 8B, the horizontal coordinate (x, y) of the event occurrence position can be extracted from the fisheye camera image.

이때, 컨트롤러(100)는 수학식 4를 이용하여 디지털 팬각(pan)을 생성할 수 있다.At this time, the controller 100 may generate a digital pan angle using Equation (4).

Figure pat00034
Figure pat00034

한편, 컨트롤러(100)는 이벤트 정보에 기초하여 평균 이벤트 높이인 제4 수직높이(H4)를 추출할 수 있다. 컨트롤러(100)는 제3 수직높이(H4)와 제4 수직높이(H4)의 차이로부터 이벤트 발생 위치의 수직 좌표(z)를 추출할 수 있다.Meanwhile, the controller 100 may extract the fourth vertical height H4, which is the average event height, based on the event information. The controller 100 can extract the vertical coordinate z of the event occurrence position from the difference between the third vertical height H4 and the fourth vertical height H4.

이때, 컨트롤러(100)는 수학식 5를 이용하여 디지털 틸트각(tilt)을 생성할 수 있다.At this time, the controller 100 may generate a digital tilt angle tilt using Equation (5).

Figure pat00035
Figure pat00035

컨트롤러(100)는 어안 카메라 촬영 영상으로부터 디지털 줌 배율을 추출할 수 있다.The controller 100 can extract the digital zoom magnification from the fisheye camera photographed image.

이어서, 컨트롤러(100)는 연동 파라미터를 적용하여 어안 카메라 좌표 값을 PTZ 카메라 좌표 값으로 변환한다(S213).Next, the controller 100 converts the fisheye camera coordinate value into the PTZ camera coordinate value by applying the interlocking parameter (S213).

예를 들어, 컨트롤러(100)는 S211 단계에서 생성한 디지털 팬각(pan), 디지털 틸트각(tilt), 및 디지털 줌 배율에 연동 파라미터를 적용한 결과를 PTZ 카메라 좌표 값으로서 획득할 수 있다.For example, the controller 100 can obtain the result of applying the interlocking parameter to the digital pan angle, tilt angle, and digital zoom magnification, which are generated in step S211, as PTZ camera coordinate values.

이어서, 컨트롤러(100)는 PTZ 카메라 좌표 값을 포함하는 제2 PTZ 회전 제어 신호를 생성하고, PTZ 카메라(20)에 제2 PTZ 제어 신호를 전송한다(S215).Next, the controller 100 generates a second PTZ rotation control signal including the PTZ camera coordinates and transmits a second PTZ control signal to the PTZ camera 20 (S215).

PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S217). PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 줌 배율을 조절할 수도 있다.The PTZ camera 20 performs panning and / or tilting in response to the second PTZ control signal (S217). The PTZ camera 20 may adjust the zoom magnification corresponding to the second PTZ control signal.

이처럼, PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 패닝, 틸팅, 및/또는 줌 배율 조절을 수행함으로써, 사람의 얼굴과 같은 이벤트를 중점적으로 촬영할 수 있다. 이에 따라, 감시 시스템(1)은 PTZ 카메라(20)에 의해 이벤트가 정확하게 촬영된 고화질 영상을 사용자에게 제공할 수 있다.In this manner, the PTZ camera 20 performs panning, tilting, and / or zoom magnification control corresponding to the second PTZ control signal, thereby focusing on an event such as a face of a person. Accordingly, the surveillance system 1 can provide the user with a high-quality image in which the event is accurately photographed by the PTZ camera 20. [

이하에서는, 도 9 내지 도 11을 참조하여 어안 카메라(10)의 수직높이와 PTZ 카메라(20)의 수직높이가 동일한 경우의 감시 시스템(1)의 동작 방법에 대하여 설명한다.Hereinafter, an operation method of the surveillance system 1 when the vertical height of the fisheye camera 10 and the vertical height of the PTZ camera 20 are equal will be described with reference to Figs. 9 to 11. Fig.

이하에서는 앞서 어안 카메라(10)의 수직높이와 PTZ 카메라(20)의 수직높이가 상이한 경우에 대한 설명과 동일한 설명은 생략하거나 간략히 한다.Hereinafter, the same description as that for the case where the vertical height of the fisheye camera 10 is different from the vertical height of the PTZ camera 20 is omitted or briefly described below.

도 9는 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.9 is a flowchart for explaining a method of calculating a linkage parameter of a surveillance system according to another embodiment.

도 10은 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of calculating a linkage parameter of a surveillance system according to another embodiment.

도 11은 다른 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.11 is a flowchart for explaining an operation method of a monitoring system based on an interlocking parameter according to another embodiment.

도 9 내지 도 11을 참조하면, 컨트롤러(100)는 어안 카메라(10)로부터 어안 카메라 촬영 영상을 수신하고(S301), PTZ 카메라(20)로부터 PTZ 카메라 촬영 영상을 수신한다(S303).9 to 11, the controller 100 receives a fisheye camera image from the fisheye camera 10 (S301) and receives the PTZ camera image from the PTZ camera 20 (S303).

이어서, 컨트롤러(100)는 어안 카메라(10)와 PTZ 카메라(20) 사이의 수평거리(D)를 입력받는다(S305).Next, the controller 100 receives the horizontal distance D between the fisheye camera 10 and the PTZ camera 20 (S305).

한편, 컨트롤러(100)는 어안 카메라 촬영 영상에 대하여 PTZ 카메라(20)를 지정하는 사용자 입력을 수신한다(S307).On the other hand, the controller 100 receives a user input for specifying the PTZ camera 20 with respect to the fisheye camera shot image (S307).

이어서, 컨트롤러(100)는 어안 카메라 촬영 영상으로부터 PTZ 카메라(20)에 대한 제1 팬각을 추출한다(S309).Next, the controller 100 extracts the first pan angle for the PTZ camera 20 from the fisheye camera photographed image (S309).

한편, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 수신한다(S311). 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력에 기초하여 제1 PTZ 제어 신호를 생성할 수 있다.Meanwhile, the controller 100 receives a user input for PTZ control (S311). The controller 100 may generate a first PTZ control signal based on a user input for PTZ control.

컨트롤러(100)가 PTZ 카메라(20)에 제1 PTZ 제어 신호를 전송하면(S313), PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S315).When the controller 100 transmits the first PTZ control signal to the PTZ camera 20 at step S313, the PTZ camera 20 performs panning and / or tilting at step S315 in accordance with the first PTZ control signal.

이어서, PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)을 추출하고(S317). 제2 팬각 및 제2 틸트각(T2)이 포함된 PTZ 정보를 컨트롤러(100)에 전송한다(S919).Subsequently, the PTZ camera 20 extracts the second pan angle and the second tilt angle T2 (S317). The PTZ information including the second pan angle and the second tilt angle T2 is transmitted to the controller 100 (S919).

컨트롤러(100)는 S309 단계에서 추출한 제1 팬각과 S319 단계에서 수신한 제2 팬각 사이의 차이 팬각(

Figure pat00036
)을 산출한다(S321).The controller 100 determines whether the difference fan angle between the first fan angle extracted in step S309 and the second fan angle received in step S319
Figure pat00036
(S321).

이어서, 컨트롤러(100)는 어안 카메라(10) 및 PTZ 카메라(20) 사이의 거리를 나타내는 3차원 거리 좌표(

Figure pat00037
)를 산출한다(S323).Next, the controller 100 calculates three-dimensional distance coordinates (" x ") indicating the distance between the fisheye camera 10 and the PTZ camera 20
Figure pat00037
(Step S323).

컨트롤러(100)는 차이 팬각(

Figure pat00038
) 및 3차원 거리 좌표(
Figure pat00039
)에 따른 연동 파라미터를 산출한다(S325).The controller 100 determines the difference pan angle
Figure pat00038
) And three-dimensional distance coordinates (
Figure pat00039
) Is calculated (S325).

한편, 컨트롤러(100)는 수평거리(D) 및 제2 틸트각(T2)에 기초하여 어안 카메라(10)의 제3 수직높이(H3)를 산출한다(S401). 어안 카메라(10) 및 PTZ 카메라(20)가 동일한 제3 수직높이(H3)를 가질 수 있다.On the other hand, the controller 100 calculates the third vertical height H3 of the fisheye camera 10 based on the horizontal distance D and the second tilt angle T2 (S401). The fisheye camera 10 and the PTZ camera 20 may have the same third vertical height H3.

한편, 어안 카메라(10)는 이벤트를 검출하고(S403), 컨트롤러(100)는 어안 카메라(10)로부터 이벤트 정보를 수신한다(S405).On the other hand, the fisheye camera 10 detects the event (S403), and the controller 100 receives the event information from the fisheye camera 10 (S405).

컨트롤러(100)는 이벤트 정보에 대응하여 어안 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 제3 수직높이(H3)와 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 어안 카메라(10)의 디지털 PTZ 값을 생성한다(S407).The controller 100 calculates the horizontal coordinate of the event occurrence position extracted from the fisheye camera photographed image and the vertical coordinate of the event occurrence position extracted from the third vertical height H3 and the average event height corresponding to the event information, And generates a digital PTZ value of the included fisheye camera 10 (S407).

컨트롤러(100)는 수학식 4 및 수학식 5를 이용하여 디지털 팬각(pan) 및 디지털 틸트각(tilt)을 생성하고, 어안 카메라 촬영 영상으로부터 디지털 줌 배율을 추출할 수 있다. 이와 같은 디지털 PTZ 값은 어안 카메라 좌표 값을 의미한다.The controller 100 can generate a digital pan angle and a digital tilt angle tilt using Equations 4 and 5 and extract a digital zoom magnification from the fisheye camera photographed image. Such a digital PTZ value means a fisheye camera coordinate value.

이어서, 컨트롤러(100)는 연동 파라미터를 적용하여 디지털 PTZ 값을 아날로그 PTZ 값으로 변환한다(S409). 아날로그 PTZ 값은 PTZ 카메라 좌표 값을 의미한다.Next, the controller 100 converts the digital PTZ value to an analog PTZ value by applying the linkage parameter (S409). The analog PTZ value refers to the PTZ camera coordinate value.

컨트롤러(100)는 S407 단계에서 생성한 디지털 팬각(pan), 디지털 틸트각(tilt), 및 디지털 줌 배율에 연동 파라미터를 적용하여 PTZ 카메라 좌표 값을 획득할 수 있다.The controller 100 may acquire the PTZ camera coordinate values by applying the interlocking parameter to the digital pan angle, tilt angle, and digital zoom magnification generated in step S407.

이어서, 컨트롤러(100)는 아날로그 PTZ 값에 기초하여 제2 PTZ 회전 제어 신호를 생성하고, PTZ 카메라(20)에 제2 PTZ 제어 신호를 전송한다(S411).Next, the controller 100 generates a second PTZ rotation control signal based on the analog PTZ value and transmits a second PTZ control signal to the PTZ camera 20 (S411).

PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S413).The PTZ camera 20 performs panning and / or tilting in response to the second PTZ control signal (S413).

이하에서는 앞서 기재한 설명과 동일한 설명은 생략하거나 간략히 한다.Hereinafter, the same description as the above description will be omitted or simplified.

도 12는 일 실시예에 따른 연동 파라미터 산출을 위한 조건을 설명하기 위한 흐름도이다.FIG. 12 is a flowchart for explaining conditions for calculating an interlocking parameter according to an embodiment.

도 12를 참조하면, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 수신하면(S511), PTZ 카메라(20)에 제1 PTZ 제어 신호를 전송한다(S513).Referring to FIG. 12, when the controller 100 receives a user input for PTZ control (S511), the controller 100 transmits a first PTZ control signal to the PTZ camera 20 (S513).

이어서, PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행하고, 제2 팬각 및 제2 틸트각(T2)을 추출한다(S517).Subsequently, the PTZ camera 20 performs panning and / or tilting in response to the first PTZ control signal, and extracts the second pan angle and the second tilt angle T2 (S517).

PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)이 포함된 PTZ 정보를 컨트롤러(100)에 전송하고(S519). 제2 팬각 및 제2 틸트각(T2)을 유지한 상태에서 감시 영역을 촬영한다(S529).The PTZ camera 20 transmits the PTZ information including the second pan angle and the second tilt angle T2 to the controller 100 (S519). The surveillance area is photographed while the second fan angle and the second tilt angle T2 are maintained (S529).

컨트롤러(100)는 PTZ 카메라(20)로부터 PTZ 카메라 촬영 영상을 수신하고(S529), 어안 카메라 촬영 영상에 제1 특징점 집합이 존재하는지 여부를 판단한다(S531). 예를 들어, 제1 특징점 집합은 2차원 정n각형 도형일 수 있다.The controller 100 receives the PTZ camera image from the PTZ camera 20 in step S529 and determines whether a first feature point set is present in the fisheye camera image in step S531. For example, the first set of feature points may be a two-dimensional positive rectangular shape.

어안 카메라 촬영 영상에 제1 특징점 집합이 존재하는 경우, 컨트롤러(100)는 PTZ 카메라 촬영 영상에 제2 특징점 집합이 존재하는지 여부를 판단한다(S533). 예를 들어, 제2 특징점 집합은 2차원 n각형 도형일 수 있다.If there is a first feature point set in the fisheye camera image, the controller 100 determines whether a second feature point set exists in the PTZ camera image (S533). For example, the second set of feature points may be a two-dimensional n-angular shape.

컨트롤러(100)는 PTZ 카메라 촬영 영상에 제2 특징점 집합이 존재하는 경우, 제1 특징점 집합과 제2 특징점 집합이 매치되는지 여부를 판단한다(S535).If there is a second feature point set in the PTZ camera image, the controller 100 determines whether the first feature point set and the second feature point set are matched (S535).

예를 들어, 어안 카메라 촬영 영상에 존재하는 2차원 정n각형 도형을 틸트각 45도에서 촬영한 모양과 PTZ 카메라 촬영 영상에 존재하는 2차원 n각형 도형이 소정 오차 범위 내에서 일치하면, 컨트롤러(100)는 제1 특징점 집합과 제2 특징점 집합이 매치된다고 판단할 수 있다.For example, if a two-dimensional n-angular shape existing in a fisheye camera taken image is photographed at a tilt angle of 45 degrees and a two-dimensional n-like shape existing in a PTZ camera photographed image coincide within a predetermined error range, 100) may determine that the first feature point set and the second feature point set are matched.

컨트롤러(100)는 제1 특징점 집합과 제2 특징점 집합이 매치되면, 제1 팬각 및 제2 팬각 사이의 차이 팬각(

Figure pat00040
)을 산출하고(S537), 이어서 연동 파라미터를 산출한다.When the first set of feature points and the second set of feature points are matched, the controller 100 determines the difference pan angle < RTI ID = 0.0 >
Figure pat00040
(S537), and then calculates the interlocking parameter.

어안 카메라 촬영 영상에 제1 특징점 집합이 존재하는 경우, PTZ 카메라 촬영 영상에 제2 특징점 집합이 존재하지 않거나 제1 특징점 집합과 제2 특징점 집합이 매치되지 않으면, 컨트롤러(100)는 사용자 단말(60)에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청한다. 즉, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 재수신함으로써, PTZ 카메라가 제1 특징점 집합을 촬영할 수 있도록 PTZ 카메라의 촬영 영역을 제어할 수 있다.If the first feature point set is present in the fisheye camera captured image and the second feature point set does not exist in the PTZ camera image or the first feature point set and the second feature point set do not match, To request a user input for controlling the shooting area of the second camera. That is, the controller 100 can control the photographing area of the PTZ camera so that the PTZ camera can photograph the first feature point set by receiving the user input for PTZ control again.

이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof.

그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.Therefore, the above-described embodiments should be considered in a descriptive sense rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and the inventions claimed by the claims and the inventions equivalent to the claimed invention are to be construed as being included in the present invention.

1: 감시 시스템 10: 어안 카메라
20: PTZ 카메라 30: 게이트웨이
40: 네트워크 50: 서버
60: 사용자 단말
1: surveillance system 10: fish camera
20: PTZ camera 30: Gateway
40: network 50: server
60: User terminal

Claims (17)

수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템에 있어서,
상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하고, 상기 제2 카메라에 제1 회전 제어 신호를 전송하고, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 통신 인터페이스;
상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 사용자 인터페이스; 및
상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하고, 상기 사용자 입력에 기초하여 상기 제1 회전 제어 신호를 생성하고, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하고, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하고, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 프로세서;를 포함하는, 감시 시스템.
A surveillance system comprising a first camera and a second camera separated by a horizontal distance,
A communication interface for receiving a first camera photographing image from the first camera, transmitting a first rotation control signal to the second camera, and receiving rotation state information corresponding to the first rotation control signal from the second camera, ;
A user interface for receiving a user input for controlling the shooting area of the second camera; And
Extracting a first pan angle with respect to the second camera from the first camera photographed image, generating the first rotation control signal based on the user input, extracting a first pan angle from the first pan angle, Calculating a difference pan angle between the extracted second pan angle of the second camera and calculating a three-dimensional distance coordinate indicating a distance between the first camera and the second camera, and calculating the difference pan angle and the three- And a processor to calculate an associated parameter.
청구항 1에 있어서,
상기 제1 카메라는 상기 제2 카메라보다 화각이 넓고, 상기 제2 카메라를 촬영하고,
상기 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라인, 감시 시스템.
The method according to claim 1,
Wherein the first camera has a wider angle of view than the second camera, photographs the second camera,
Wherein the second camera is a camera capable of adjusting a rotation direction and a zoom magnification.
청구항 1에 있어서,
상기 사용자 인터페이스는 상기 수평거리를 선택하는 사용자 입력 및 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력 중 적어도 하나를 수신하고,
상기 프로세서는 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력에 대응하여 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 상기 제1 팬각을 추출하는, 감시 시스템.
The method according to claim 1,
Wherein the user interface receives at least one of a user input for selecting the horizontal distance and a user input for specifying the second camera with respect to the first camera shot image,
Wherein the processor extracts the first pan angle for the second camera from the first camera shot image in response to a user input for designating the second camera for the first camera shot image.
청구항 1에 있어서,
상기 연동 파라미터는 상기 차이 팬각과 상기 3차원 거리 좌표를 이용한 오일러 회전 변환 행렬인, 감시 시스템.
The method according to claim 1,
Wherein the interlocking parameter is an Eulerian rotation transformation matrix using the difference pan angle and the 3D distance coordinate.
청구항 1에 있어서,
상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고,
상기 프로세서는, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하고, 상기 수평거리 및 상기 제1 틸트각에 기초하여 상기 제1 카메라 및 상기 제2 카메라 사이의 제1 수직높이를 산출하고, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 제2 카메라의 제2 수직높이를 산출하고, 상기 제1 수직높이 및 상기 제2 수직높이로부터 상기 제1 카메라의 제3 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 제3 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 제1 카메라 좌표 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 제1 카메라 좌표 값을 상기 제2 카메라의 제2 카메라 좌표 값으로 변환하고, 상기 제2 카메라 좌표 값에 기초하여 상기 제2 회전 제어 신호를 생성하는, 감시 시스템.
The method according to claim 1,
Wherein the communication interface receives event information from the first camera, transmits a second rotation control signal to the second camera,
Wherein the processor is configured to extract a first tilt angle for the second camera from the first camera photographed image and to output the first tilt angle to the first camera and the second camera based on the horizontal distance and the first tilt angle, Calculates a second vertical height of the second camera based on the horizontal distance and the second tilt angle of the second camera extracted from the rotation state information, And a third vertical height of the first camera from the second vertical height, the horizontal coordinate of the event occurrence position extracted from the first camera photographic image corresponding to the event information, The first camera coordinate value of the first camera including the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information, And monitoring system by applying the parameter group interlocking the first conversion on the camera coordinates to the second camera, the second camera coordinate values of the and, on the basis of the second camera coordinate values for generating the second rotation control signal.
청구항 5에 있어서,
상기 제2 수직높이 및 상기 제3 수직높이는 상이한, 감시 시스템.
The method of claim 5,
Wherein the second vertical height and the third vertical height are different.
청구항 5에 있어서,
상기 제1 카메라 좌표 값은 디지털 PTZ 값이고,
상기 제2 카메라 좌표 값은 아날로그 PTZ 값인, 감시 시스템.
The method of claim 5,
Wherein the first camera coordinate value is a digital PTZ value,
Wherein the second camera coordinate value is an analog PTZ value.
청구항 1에 있어서,
상기 제1 카메라 및 상기 제2 카메라가 동일한 수직높이를 가지고,
상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고,
상기 프로세서는, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 디지털 PTZ 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 디지털 PTZ 값을 상기 제2 카메라의 아날로그 PTZ 값으로 변환하고, 상기 아날로그 PTZ 값을 포함하는 상기 제2 회전 제어 신호를 생성하는, 감시 시스템.
The method according to claim 1,
The first camera and the second camera have the same vertical height,
Wherein the communication interface receives event information from the first camera, transmits a second rotation control signal to the second camera,
The processor calculates the vertical height based on the horizontal distance and the second tilt angle of the second camera extracted from the rotation state information, and calculates the vertical height based on the event extracted from the first camera photographed image Generates the digital PTZ value of the first camera including the horizontal coordinate of the generated position and the vertical height and the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information, Converts the digital PTZ value to an analog PTZ value of the second camera, and generates the second rotation control signal including the analog PTZ value.
청구항 1에 있어서,
상기 제1 카메라 촬영 영상은 제1 특징점 집합을 포함하고,
상기 통신 인터페이스는 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송한 후 상기 제2 카메라로부터 제2 카메라 촬영 영상을 수신하고,
상기 프로세서는, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 상기 회전 상태 정보에 기초하여 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되면 상기 연동 파라미터를 산출하고, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되지 않으면 상기 사용자 인터페이스를 통해 사용자 단말에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청하는, 감시 시스템.
The method according to claim 1,
Wherein the first camera shot image comprises a first set of feature points,
Wherein the communication interface transmits the first rotation control signal to the second camera, receives the second camera photographing image from the second camera,
Wherein when the first feature point set and the second feature point set are matched based on the rotation state information, the processor determines that the second camera shot image has the second feature point set corresponding to the first feature point set, If the second feature point set corresponding to the first feature point set does not exist in the second camera photographed image or if the first feature point set and the second feature point set do not match with each other, And requests a user input for controlling the shooting area of the second camera.
수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템의 동작 방법에 있어서,
통신 인터페이스에 의해, 상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하는 단계;
프로세서에 의해, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하는 단계;
사용자 인터페이스에 의해, 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 단계;
상기 프로세서에 의해, 상기 사용자 입력에 기초하여 제1 회전 제어 신호를 생성하는 단계;
상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송하는 단계;
상기 통신 인터페이스에 의해, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 단계;
상기 프로세서에 의해, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하는 단계;
상기 프로세서에 의해, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하는 단계; 및
상기 프로세서에 의해, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 단계;를 포함하는 감시 시스템의 동작 방법.
A method of operating a surveillance system including a first camera and a second camera separated by a horizontal distance,
Receiving, by the communication interface, a first camera photographic image from the first camera;
Extracting, by the processor, a first pan angle for the second camera from the first camera shot image;
Receiving, by a user interface, a user input for controlling the shooting area of the second camera;
Generating, by the processor, a first rotation control signal based on the user input;
Transmitting the first rotation control signal to the second camera by the communication interface;
Receiving rotation state information corresponding to the first rotation control signal from the second camera by the communication interface;
Calculating, by the processor, a difference pan angle between the first pan angle and the second pan angle of the second camera extracted from the rotation status information;
Calculating, by the processor, three-dimensional distance coordinates indicating a distance between the first camera and the second camera; And
And calculating, by the processor, an interworking parameter according to the difference pan angle and the three-dimensional distance coordinate.
청구항 10에 있어서,
상기 제1 카메라는 상기 제2 카메라보다 화각이 넓고, 상기 제2 카메라를 촬영하고,
상기 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라인, 감시 시스템의 동작 방법.
The method of claim 10,
Wherein the first camera has a wider angle of view than the second camera, photographs the second camera,
Wherein the second camera is a camera capable of adjusting a rotation direction and a zoom magnification.
청구항 10에 있어서,
상기 사용자 인터페이스에 의해, 상기 수평거리를 선택하는 사용자 입력을 수신하는 단계; 및
상기 사용자 인터페이스에 의해, 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력을 수신하는 단계;를 더 포함하고,
상기 제2 카메라에 대한 상기 제1 팬각을 추출하는 단계는,
상기 프로세서에 의해, 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력에 대응하여 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 상기 제1 팬각을 추출하는 단계인, 감시 시스템의 동작 방법.
The method of claim 10,
Receiving, by the user interface, a user input for selecting the horizontal distance; And
Further comprising: receiving, by the user interface, a user input designating the second camera for the first camera shot image,
Wherein the extracting of the first pan angle with respect to the second camera comprises:
Wherein the step of extracting, by the processor, the first pan angle for the second camera from the first camera shot image in response to a user input for designating the second camera for the first camera shot image, Lt; / RTI >
청구항 10에 있어서,
상기 연동 파라미터는 상기 차이 팬각과 상기 3차원 거리 좌표를 이용한 오일러 회전 변환 행렬인, 감시 시스템의 동작 방법.
The method of claim 10,
Wherein the interlocking parameter is an Eulerian rotation transformation matrix using the difference pan angle and the 3D distance coordinate.
청구항 10에 있어서,
상기 프로세서에 의해, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하는 단계;
상기 프로세서에 의해, 상기 수평거리 및 상기 제1 틸트각에 기초하여 상기 제1 카메라 및 상기 제2 카메라 사이의 제1 수직높이를 산출하는 단계;
상기 프로세서에 의해, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 제2 카메라의 제2 수직높이를 산출하는 단계;
상기 프로세서에 의해, 상기 제1 수직높이 및 상기 제2 수직높이로부터 상기 제1 카메라의 제3 수직높이를 산출하는 단계;
상기 통신 인터페이스에 의해, 상기 제1 카메라로부터 이벤트 정보를 수신하는 단계;
상기 프로세서에 의해, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 제3 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 제1 카메라 좌표 값을 생성하는 단계;
상기 프로세서에 의해, 상기 연동 파라미터를 적용하여 상기 제1 카메라 좌표 값을 상기 제2 카메라의 제2 카메라 좌표 값으로 변환하는 단계;
상기 프로세서에 의해, 상기 제2 카메라 좌표 값을 포함하는 제2 회전 제어 신호를 생성하는 단계; 및
상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제2 회전 제어 신호를 전송하는 단계;를 더 포함하고,
상기 제2 수직높이 및 상기 제3 수직높이는 상이한, 감시 시스템의 동작 방법.
The method of claim 10,
Extracting, by the processor, a first tilt angle for the second camera from the first camera shot image;
Calculating, by the processor, a first vertical height between the first camera and the second camera based on the horizontal distance and the first tilt angle;
Calculating, by the processor, a second vertical height of the second camera based on the horizontal distance and the second tilt angle of the second camera extracted from the rotation state information;
Calculating, by the processor, a third vertical height of the first camera from the first vertical height and the second vertical height;
Receiving event information from the first camera by the communication interface;
The processor calculates horizontal coordinates of an event occurrence position extracted from the first camera photographed image corresponding to the event information and horizontal coordinate of an event occurrence position extracted from an average event height corresponding to the third vertical height and the event information Generating a first camera coordinate value of the first camera including a vertical coordinate;
Transforming the first camera coordinate value to a second camera coordinate value of the second camera by applying the interlocking parameter by the processor;
Generating, by the processor, a second rotation control signal including the second camera coordinate value; And
Further comprising: transmitting, by the communication interface, the second rotation control signal to the second camera,
Wherein the second vertical height and the third vertical height are different.
청구항 14에 있어서,
상기 제1 카메라 좌표 값은 디지털 PTZ 값이고,
상기 제2 카메라 좌표 값은 아날로그 PTZ 값인, 감시 시스템의 동작 방법.
15. The method of claim 14,
Wherein the first camera coordinate value is a digital PTZ value,
Wherein the second camera coordinate value is an analog PTZ value.
청구항 10에 있어서,
상기 제1 카메라 및 상기 제2 카메라가 동일한 수직높이를 가지고,
상기 프로세서에 의해, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 수직높이를 산출하는 단계;
상기 통신 인터페이스에 의해, 상기 제1 카메라로부터 이벤트 정보를 수신하는 단계;
상기 프로세서에 의해, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 디지털 PTZ 값을 생성하는 단계;
상기 프로세서에 의해, 상기 연동 파라미터를 적용하여 상기 디지털 PTZ 값을 상기 제2 카메라의 아날로그 PTZ 값으로 변환하는 단계;
상기 프로세서에 의해, 상기 아날로그 PTZ 값에 기초하여 제2 회전 제어 신호를 생성하는 단계; 및
상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제2 회전 제어 신호를 전송하는 단계;를 더 포함하는, 감시 시스템의 동작 방법.
The method of claim 10,
The first camera and the second camera have the same vertical height,
Calculating, by the processor, the vertical height based on the horizontal distance and the second tilt angle of the second camera extracted from the rotation state information;
Receiving event information from the first camera by the communication interface;
The processor calculates horizontal coordinates of the event occurrence position extracted from the first camera photographed image corresponding to the event information, and vertical coordinates of the event occurrence position extracted from the vertical height and the average event height corresponding to the event information Generating a digital PTZ value of the first camera;
Converting, by the processor, the digital PTZ value to an analog PTZ value of the second camera by applying the linkage parameter;
Generating, by the processor, a second rotation control signal based on the analog PTZ value; And
And transmitting the second rotation control signal to the second camera by the communication interface.
청구항 10에 있어서,
상기 제1 카메라 촬영 영상은 제1 특징점 집합을 포함하고,
상기 제2 카메라에 상기 제1 회전 제어 신호를 전송하는 단계 이후에,
상기 통신 인터페이스에 의해, 상기 제2 카메라로부터 제2 카메라 촬영 영상을 수신하는 단계;
상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 상기 회전 상태 정보에 기초하여 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되면, 상기 프로세서에 의해, 상기 연동 파라미터를 산출하는 단계; 및
상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되지 않으면, 상기 사용자 인터페이스에 의해, 사용자 단말에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청하는 단계;를 더 포함하는, 감시 시스템의 동작 방법.
The method of claim 10,
Wherein the first camera shot image comprises a first set of feature points,
After the step of transmitting the first rotation control signal to the second camera,
Receiving, by the communication interface, a second camera photographed image from the second camera;
Wherein the second camera shot image has a second set of feature points corresponding to the first set of feature points and the first feature point set and the second feature point set are matched based on the rotation state information, Calculating an interworking parameter; And
If the second feature point set corresponding to the first feature point set does not exist in the second camera photographed image or if the first feature point set and the second feature point set do not match, 2. A method of operating a surveillance system, the method comprising: requesting a user input for controlling a shooting area of a camera.
KR1020170097131A 2017-07-31 2017-07-31 Surveillance system and operation method thereof KR102315525B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170097131A KR102315525B1 (en) 2017-07-31 2017-07-31 Surveillance system and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170097131A KR102315525B1 (en) 2017-07-31 2017-07-31 Surveillance system and operation method thereof

Publications (2)

Publication Number Publication Date
KR20190013104A true KR20190013104A (en) 2019-02-11
KR102315525B1 KR102315525B1 (en) 2021-10-21

Family

ID=65369985

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170097131A KR102315525B1 (en) 2017-07-31 2017-07-31 Surveillance system and operation method thereof

Country Status (1)

Country Link
KR (1) KR102315525B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113329181A (en) * 2021-06-08 2021-08-31 厦门四信通信科技有限公司 Angle switching method, device, equipment and storage medium of camera
WO2022114558A1 (en) * 2020-11-25 2022-06-02 한국전자기술연구원 Method, device, and system for controlling multiple cctv cameras
CN115190237A (en) * 2022-06-20 2022-10-14 亮风台(上海)信息科技有限公司 Method and equipment for determining rotation angle information of bearing equipment
CN115242969A (en) * 2022-06-22 2022-10-25 天翼数字生活科技有限公司 Method and system for controlling rotation of network camera
KR102473078B1 (en) * 2022-04-26 2022-12-02 주식회사 제노시스 Location Calculating Device of a surveillance area photographed by a plurality of PTZ cameras
KR102610488B1 (en) * 2023-10-10 2023-12-07 주식회사 원우이엔지 Monitoring system using multi camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004364212A (en) * 2003-06-09 2004-12-24 Fujitsu Ltd Object photographing apparatus, object photographing method and object photographing program
KR101120131B1 (en) 2009-05-29 2012-03-22 주식회사 영국전자 Intelligent Panorama Camera, Circuit and Method for Controlling thereof, and Video Monitoring System
KR20130114899A (en) * 2012-04-10 2013-10-21 한국기술교육대학교 산학협력단 Image sensing method using dual camera and apparatus thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004364212A (en) * 2003-06-09 2004-12-24 Fujitsu Ltd Object photographing apparatus, object photographing method and object photographing program
KR101120131B1 (en) 2009-05-29 2012-03-22 주식회사 영국전자 Intelligent Panorama Camera, Circuit and Method for Controlling thereof, and Video Monitoring System
KR20130114899A (en) * 2012-04-10 2013-10-21 한국기술교육대학교 산학협력단 Image sensing method using dual camera and apparatus thereof

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114558A1 (en) * 2020-11-25 2022-06-02 한국전자기술연구원 Method, device, and system for controlling multiple cctv cameras
CN113329181A (en) * 2021-06-08 2021-08-31 厦门四信通信科技有限公司 Angle switching method, device, equipment and storage medium of camera
KR102473078B1 (en) * 2022-04-26 2022-12-02 주식회사 제노시스 Location Calculating Device of a surveillance area photographed by a plurality of PTZ cameras
CN115190237A (en) * 2022-06-20 2022-10-14 亮风台(上海)信息科技有限公司 Method and equipment for determining rotation angle information of bearing equipment
CN115190237B (en) * 2022-06-20 2023-12-15 亮风台(上海)信息科技有限公司 Method and device for determining rotation angle information of bearing device
CN115242969A (en) * 2022-06-22 2022-10-25 天翼数字生活科技有限公司 Method and system for controlling rotation of network camera
CN115242969B (en) * 2022-06-22 2023-10-13 天翼数字生活科技有限公司 Method and system for controlling rotation of network camera
KR102610488B1 (en) * 2023-10-10 2023-12-07 주식회사 원우이엔지 Monitoring system using multi camera

Also Published As

Publication number Publication date
KR102315525B1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
KR20190013104A (en) Surveillance system and operation method thereof
JP4478510B2 (en) Camera system, camera, and camera control method
JP6696615B2 (en) Monitoring system, monitoring method, and recording medium storing monitoring program
US9464819B2 (en) Air conditioning control system and air conditioning control method
AU2011343674B2 (en) Zooming factor computation
US9509900B2 (en) Camera control method, and camera control device for same
JP6141079B2 (en) Image processing system, image processing apparatus, control method therefor, and program
JP6587489B2 (en) Image processing apparatus, image processing method, and image processing system
JP5147761B2 (en) Image monitoring device
JP2016100696A (en) Image processing device, image processing method, and image processing system
JP6562437B1 (en) Monitoring device and monitoring method
WO2005076620A1 (en) Detection range adjustment device
JP6239164B2 (en) Air conditioning system
WO2017187694A1 (en) Region of interest image generating device
JP5147760B2 (en) Image monitoring device
KR102228663B1 (en) Method of providing photographing guide and system therefor
US20190020498A1 (en) Intelligent Smart Room Control System
JP6624800B2 (en) Image processing apparatus, image processing method, and image processing system
CN109754419B (en) Position estimation system
US20200167948A1 (en) Control system, method of performing analysis and storage medium
KR102374357B1 (en) Video Surveillance Apparatus for Congestion Control
JP2004128646A (en) Monitoring system and controller
JP2007208659A (en) Cooperation camera system
KR101572800B1 (en) System for controlling camera on the 3d virtual modeling
TW201205506A (en) System and method for managing security of a roof

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right