KR102315525B1 - Surveillance system and operation method thereof - Google Patents
Surveillance system and operation method thereof Download PDFInfo
- Publication number
- KR102315525B1 KR102315525B1 KR1020170097131A KR20170097131A KR102315525B1 KR 102315525 B1 KR102315525 B1 KR 102315525B1 KR 1020170097131 A KR1020170097131 A KR 1020170097131A KR 20170097131 A KR20170097131 A KR 20170097131A KR 102315525 B1 KR102315525 B1 KR 102315525B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- ptz
- control signal
- processor
- event
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H04N5/23241—
-
- H04N5/23296—
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템에 있어서, 상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하고, 상기 제2 카메라에 제1 회전 제어 신호를 전송하고, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 통신 인터페이스, 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 사용자 인터페이스, 및 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하고, 상기 사용자 입력에 기초하여 상기 제1 회전 제어 신호를 생성하고, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하고, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하고, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 프로세서를 포함한다.A monitoring system according to an embodiment for solving the problem to be solved by the present invention is a monitoring system including a first camera and a second camera spaced apart by a horizontal distance, wherein the first camera captures an image from the first camera. A communication interface for receiving, transmitting a first rotation control signal to the second camera, and receiving rotation state information corresponding to the first rotation control signal from the second camera, for controlling a shooting area of the second camera extracting a first pan angle with respect to the second camera from a user interface for receiving a user input, and an image captured by the first camera, and generating the first rotation control signal based on the user input; calculating a difference pan angle between a first pan angle and a second pan angle of the second camera extracted from the rotation state information, calculating a three-dimensional distance coordinate representing a distance between the first camera and the second camera, and and a processor for calculating an interlocking parameter according to the difference pan angle and the three-dimensional distance coordinates.
Description
본 발명은 복수의 카메라들을 이용하여 감시 영역 전체와 감시 영역 일부를 동시에 감시하는 감시 시스템 및 그 동작 방법에 관한 것이다.The present invention relates to a monitoring system for simultaneously monitoring an entire monitoring area and a part of a monitoring area using a plurality of cameras, and a method of operating the same.
감시 시스템은 감시 영역을 촬영하는 카메라로부터 수신한 영상 등을 관제사가 눈으로 감지한 후, 직접 카메라의 회전 방향이나 줌 배율을 조절함으로써, 관심 객체 등을 추적하는 방식으로 동작된다.The surveillance system is operated in such a way that the controller detects the image received from the camera that captures the surveillance area with the eyes, and then directly adjusts the rotation direction or zoom magnification of the camera to track the object of interest.
감시 영역 전체를 촬영하는 카메라와 감시 영역 일부를 촬영하는 카메라를 포함하는 감시 시스템은 감시 영역 전체를 촬영하는 카메라로부터 수신한 저화질 영상을 관제사가 눈으로 감지한 후, 직접 감시 영역 일부를 촬영하는 카메라의 회전 방향이나 줌 배율을 조절함으로써, 감시 영역 일부를 촬영하는 카메라로부터 관심 객체에 대한 고화질 영상을 획득하는 방식으로 동작된다.A surveillance system including a camera that captures the entire monitoring area and a camera that captures a part of the monitoring area is a camera that directly captures a part of the monitoring area after a controller detects a low-quality image received from a camera that captures the entire monitoring area. By adjusting the rotation direction or zoom magnification, it operates in such a way that a high-quality image of the object of interest is obtained from a camera that captures a part of the surveillance area.
뿐만 아니라, 감시 시스템은 감시 영역 전체를 촬영하는 카메라로부터 관심 객체가 감지되면, 자동으로 감시 영역 일부를 촬영하는 카메라의 회전 방향이나 줌 배율을 조절하는 방식으로 동작된다. 이때, 관심 객체를 보다 정확하고 신속하게 추적하기 위하여, 두 카메라의 좌표계를 연동시킬 필요가 있다.In addition, when an object of interest is detected by a camera that captures the entire monitoring area, the monitoring system is operated by automatically adjusting a rotation direction or a zoom magnification of a camera that captures a part of the monitoring area. In this case, in order to more accurately and quickly track the object of interest, it is necessary to link the coordinate systems of the two cameras.
본 발명이 해결하고자 하는 과제는 좌표계가 연동된 복수의 카메라들을 이용하여 감시 영역 전체와 감시 영역 일부를 동시에 감시하는 감시 시스템 및 그 동작 방법에 관한 것이다.The problem to be solved by the present invention relates to a monitoring system for simultaneously monitoring the entire monitoring area and a part of the monitoring area using a plurality of cameras interlocked with a coordinate system, and an operating method thereof.
본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템에 있어서, 상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하고, 상기 제2 카메라에 제1 회전 제어 신호를 전송하고, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 통신 인터페이스, 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 사용자 인터페이스, 및 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하고, 상기 사용자 입력에 기초하여 상기 제1 회전 제어 신호를 생성하고, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하고, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하고, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 프로세서를 포함한다.A monitoring system according to an embodiment for solving the problem to be solved by the present invention is a monitoring system including a first camera and a second camera spaced apart by a horizontal distance, wherein the first camera captures an image from the first camera. A communication interface for receiving, transmitting a first rotation control signal to the second camera, and receiving rotation state information corresponding to the first rotation control signal from the second camera, for controlling a shooting area of the second camera extracting a first pan angle with respect to the second camera from a user interface for receiving a user input, and an image captured by the first camera, and generating the first rotation control signal based on the user input; calculating a difference pan angle between a first pan angle and a second pan angle of the second camera extracted from the rotation state information, calculating a three-dimensional distance coordinate representing a distance between the first camera and the second camera, and and a processor for calculating an interlocking parameter according to the difference pan angle and the three-dimensional distance coordinates.
본 실시예에서, 상기 제1 카메라는 상기 제2 카메라보다 화각이 넓고, 상기 제2 카메라를 촬영하고, 상기 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라일 수 있다.In the present embodiment, the first camera may have a wider angle of view than the second camera, photograph the second camera, and the second camera may be a camera capable of adjusting a rotation direction or a zoom magnification.
본 실시예에서, 상기 사용자 인터페이스는 상기 수평거리를 선택하는 사용자 입력 및 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력 중 적어도 하나를 수신하고, 상기 프로세서는 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력에 대응하여 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 상기 제1 팬각을 추출할 수 있다.In this embodiment, the user interface receives at least one of a user input for selecting the horizontal distance and a user input for designating the second camera with respect to the image captured by the first camera, and the processor captures the first camera The first pan angle with respect to the second camera may be extracted from the image captured by the first camera in response to a user input for designating the second camera with respect to an image.
본 실시예에서, 상기 연동 파라미터는 상기 차이 팬각과 상기 3차원 거리 좌표를 이용한 오일러 회전 변환 행렬일 수 있다.In this embodiment, the interlocking parameter may be an Euler rotation transformation matrix using the difference pan angle and the 3D distance coordinates.
본 실시예에서, 상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고, 상기 프로세서는, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하고, 상기 수평거리 및 상기 제1 틸트각에 기초하여 상기 제1 카메라 및 상기 제2 카메라 사이의 제1 수직높이를 산출하고, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 제2 카메라의 제2 수직높이를 산출하고, 상기 제1 수직높이 및 상기 제2 수직높이로부터 상기 제1 카메라의 제3 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 제3 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 제1 카메라 좌표 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 제1 카메라 좌표 값을 상기 제2 카메라의 제2 카메라 좌표 값으로 변환하고, 상기 제2 카메라 좌표 값에 기초하여 상기 제2 회전 제어 신호를 생성할 수 있다.In this embodiment, the communication interface receives event information from the first camera, transmits a second rotation control signal to the second camera, and the processor, from the first camera captured image to the second camera extracting a first tilt angle with respect to , calculating a first vertical height between the first camera and the second camera based on the horizontal distance and the first tilt angle, and calculating the horizontal distance and the rotation A second vertical height of the second camera is calculated based on a second tilt angle of the second camera extracted from the state information, and a third vertical height of the first camera is calculated from the first vertical height and the second vertical height. The height is calculated, and the horizontal coordinates of the event occurrence position extracted from the first camera-captured image in response to the event information and the third vertical height and the average event height corresponding to the event information are extracted from the event occurrence position. generating a first camera coordinate value of the first camera including vertical coordinates, converting the first camera coordinate value into a second camera coordinate value of the second camera by applying the linkage parameter, and the second camera The second rotation control signal may be generated based on the coordinate value.
본 실시예에서, 상기 제2 수직높이 및 상기 제3 수직높이는 상이할 수 있다.In this embodiment, the second vertical height and the third vertical height may be different.
본 실시예에서, 상기 제1 카메라 좌표 값은 디지털 PTZ 값이고, 상기 제2 카메라 좌표 값은 아날로그 PTZ 값일 수 있다.In this embodiment, the first camera coordinate value may be a digital PTZ value, and the second camera coordinate value may be an analog PTZ value.
본 실시예에서, 상기 제1 카메라 및 상기 제2 카메라가 동일한 수직높이를 가지고, 상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고, 상기 프로세서는, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 디지털 PTZ 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 디지털 PTZ 값을 상기 제2 카메라의 아날로그 PTZ 값으로 변환하고, 상기 아날로그 PTZ 값을 포함하는 상기 제2 회전 제어 신호를 생성할 수 있다.In this embodiment, the first camera and the second camera have the same vertical height, the communication interface receives event information from the first camera, and transmits a second rotation control signal to the second camera, The processor calculates the vertical height based on a second tilt angle of the second camera extracted from the horizontal distance and the rotation state information, and an event extracted from the image captured by the first camera in response to the event information Generate a digital PTZ value of the first camera including the horizontal coordinate and vertical height of the occurrence position and the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information, and apply the linkage parameter The digital PTZ value may be converted into an analog PTZ value of the second camera, and the second rotation control signal including the analog PTZ value may be generated.
본 실시예에서, 상기 제1 카메라 촬영 영상은 제1 특징점 집합을 포함하고, 상기 통신 인터페이스는 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송한 후 상기 제2 카메라로부터 제2 카메라 촬영 영상을 수신하고, 상기 프로세서는, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 상기 회전 상태 정보에 기초하여 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되면 상기 연동 파라미터를 산출하고, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되지 않으면 상기 사용자 인터페이스를 통해 사용자 단말에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청할 수 있다.In this embodiment, the first camera-captured image includes a first feature point set, and the communication interface transmits the first rotation control signal to the second camera and then receives the second camera-captured image from the second camera. In response, the processor is configured to: When a second feature point set corresponding to the first feature point set exists in the second camera-captured image, and the first feature point set and the second feature point set match based on the rotation state information If the linkage parameter is calculated, and the second feature point set corresponding to the first feature point set does not exist in the image captured by the second camera, or the first feature point set and the second feature point set do not match, the user interface A user input for controlling the capturing area of the second camera may be requested from the user terminal.
본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템 동작 방법은 수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템의 동작 방법에 있어서, 통신 인터페이스에 의해, 상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하는 단계, 프로세서에 의해, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하는 단계, 사용자 인터페이스에 의해, 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 단계, 상기 프로세서에 의해, 상기 사용자 입력에 기초하여 제1 회전 제어 신호를 생성하는 단계, 상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송하는 단계, 상기 통신 인터페이스에 의해, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 단계, 상기 프로세서에 의해, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하는 단계, 상기 프로세서에 의해, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하는 단계, 및 상기 프로세서에 의해, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 단계를 포함한다.A method of operating a monitoring system according to an embodiment for solving the problem to be solved by the present invention is a method of operating a monitoring system including a first camera and a second camera spaced apart by a horizontal distance, by a communication interface, the Receiving a first camera captured image from a first camera, extracting, by a processor, a first pan angle with respect to the second camera from the first camera captured image, by a user interface, the second 2 Receiving a user input for controlling a shooting area of a camera, generating, by the processor, a first rotation control signal based on the user input, by the communication interface, to the second camera transmitting a rotation control signal; receiving, by the communication interface, rotation state information corresponding to the first rotation control signal from the second camera; by the processor, the first pan angle and the rotation state information calculating, by the processor, a difference pan angle between second pan angles of the second camera extracted from and calculating, by the processor, an interlocking parameter according to the difference pan angle and the three-dimensional distance coordinate.
본 실시예에서, 상기 제1 카메라는 상기 제2 카메라보다 화각이 넓고, 상기 제2 카메라를 촬영하고, 상기 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라일 수 있다.In the present embodiment, the first camera may have a wider angle of view than the second camera, photograph the second camera, and the second camera may be a camera capable of adjusting a rotation direction or a zoom magnification.
본 실시예에서, 상기 사용자 인터페이스에 의해, 상기 수평거리를 선택하는 사용자 입력을 수신하는 단계 및 상기 사용자 인터페이스에 의해, 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력을 수신하는 단계를 더 포함하고, 상기 제2 카메라에 대한 상기 제1 팬각을 추출하는 단계는, 상기 프로세서에 의해, 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력에 대응하여 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 상기 제1 팬각을 추출하는 단계일 수 있다.In this embodiment, receiving a user input for selecting the horizontal distance by the user interface and receiving a user input for designating the second camera with respect to the first camera shot image by the user interface The method further comprising the step of, wherein the extracting of the first pan angle with respect to the second camera includes, by the processor, the first camera in response to a user input designating the second camera for the image captured by the first camera. It may be a step of extracting the first pan angle with respect to the second camera from an image captured by the camera.
본 실시예에서, 상기 연동 파라미터는 상기 차이 팬각과 상기 3차원 거리 좌표를 이용한 오일러 회전 변환 행렬일 수 있다.In this embodiment, the interlocking parameter may be an Euler rotation transformation matrix using the difference pan angle and the 3D distance coordinates.
본 실시예에서, 상기 프로세서에 의해, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하는 단계, 상기 프로세서에 의해, 상기 수평거리 및 상기 제1 틸트각에 기초하여 상기 제1 카메라 및 상기 제2 카메라 사이의 제1 수직높이를 산출하는 단계, 상기 프로세서에 의해, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 제2 카메라의 제2 수직높이를 산출하는 단계, 상기 프로세서에 의해, 상기 제1 수직높이 및 상기 제2 수직높이로부터 상기 제1 카메라의 제3 수직높이를 산출하는 단계, 상기 통신 인터페이스에 의해, 상기 제1 카메라로부터 이벤트 정보를 수신하는 단계, 상기 프로세서에 의해, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 제3 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 제1 카메라 좌표 값을 생성하는 단계, 상기 프로세서에 의해, 상기 연동 파라미터를 적용하여 상기 제1 카메라 좌표 값을 상기 제2 카메라의 제2 카메라 좌표 값으로 변환하는 단계, 상기 프로세서에 의해, 상기 제2 카메라 좌표 값을 포함하는 제2 회전 제어 신호를 생성하는 단계, 및 상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제2 회전 제어 신호를 전송하는 단계를 더 포함하고, 상기 제2 수직높이 및 상기 제3 수직높이는 상이할 수 있다.In this embodiment, extracting, by the processor, a first tilt angle with respect to the second camera from the image captured by the first camera, by the processor, the horizontal distance and the first tilt angle calculating a first vertical height between the first camera and the second camera based on a second tilt angle of the second camera extracted from the horizontal distance and the rotation state information by the processor to calculate a second vertical height of the second camera, calculating, by the processor, a third vertical height of the first camera from the first vertical height and the second vertical height, to the communication interface by, receiving event information from the first camera, by the processor, in response to the event information, the horizontal coordinates of the event occurrence location extracted from the first camera captured image, and the third vertical height and the event information generating, by the processor, a first camera coordinate value of the first camera including the vertical coordinates of the event occurrence position extracted from the average event height corresponding to the first camera coordinates by applying the interlocking parameter converting a value into a second camera coordinate value of the second camera, generating, by the processor, a second rotation control signal comprising the second camera coordinate value, and by the communication interface, the second The method may further include transmitting the second rotation control signal to a second camera, wherein the second vertical height and the third vertical height may be different from each other.
본 실시예에서, 상기 제1 카메라 좌표 값은 디지털 PTZ 값이고, 상기 제2 카메라 좌표 값은 아날로그 PTZ 값일 수 있다.In this embodiment, the first camera coordinate value may be a digital PTZ value, and the second camera coordinate value may be an analog PTZ value.
본 실시예에서, 상기 제1 카메라 및 상기 제2 카메라가 동일한 수직높이를 가지고, 상기 프로세서에 의해, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 수직높이를 산출하는 단계, 상기 통신 인터페이스에 의해, 상기 제1 카메라로부터 이벤트 정보를 수신하는 단계, 상기 프로세서에 의해, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 디지털 PTZ 값을 생성하는 단계, 상기 프로세서에 의해, 상기 연동 파라미터를 적용하여 상기 디지털 PTZ 값을 상기 제2 카메라의 아날로그 PTZ 값으로 변환하는 단계, 상기 프로세서에 의해, 상기 아날로그 PTZ 값에 기초하여 제2 회전 제어 신호를 생성하는 단계, 및 상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제2 회전 제어 신호를 전송하는 단계를 더 포함할 수 있다.In this embodiment, the first camera and the second camera have the same vertical height, and based on the second tilt angle of the second camera extracted from the horizontal distance and the rotation state information by the processor, the Calculating a vertical height, receiving event information from the first camera by the communication interface, by the processor, horizontal of the event occurrence position extracted from the first camera captured image in response to the event information generating a digital PTZ value of the first camera including coordinates and vertical coordinates of the event occurrence position extracted from the vertical height and the average event height corresponding to the event information; converting the digital PTZ value to an analog PTZ value of the second camera by applying, generating, by the processor, a second rotation control signal based on the analog PTZ value, and by the communication interface, the The method may further include transmitting the second rotation control signal to a second camera.
본 실시예에서, 상기 제1 카메라 촬영 영상은 제1 특징점 집합을 포함하고, 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송하는 단계 이후에, 상기 통신 인터페이스에 의해, 상기 제2 카메라로부터 제2 카메라 촬영 영상을 수신하는 단계, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 상기 회전 상태 정보에 기초하여 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되면, 상기 프로세서에 의해, 상기 연동 파라미터를 산출하는 단계, 및 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되지 않으면, 상기 사용자 인터페이스에 의해, 사용자 단말에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청하는 단계를 더 포함할 수 있다.In the present embodiment, the first camera-captured image includes a first set of feature points, and after transmitting the first rotation control signal to the second camera, the second camera 2 Receiving a camera-captured image, wherein a second feature point set corresponding to the first feature point set exists in the second camera-captured image, and the first feature point set and the second feature point set are determined based on the rotation state information If there is a match, calculating, by the processor, the interlocking parameter, and the second feature point set corresponding to the first feature point set does not exist in the image captured by the second camera, or the first feature point set and the second feature point set If the set does not match, requesting a user input for controlling the shooting area of the second camera to the user terminal through the user interface may further include.
본 발명의 실시예들에 따르면, 보다 넓은 영역을 촬영하는 어안 카메라를 활용함으로써 이벤트 발생 위치를 빠짐없이 촬영할 수 있고, 고화질 영상을 획득하는 PTZ 카메라를 활용함으로써 이벤트를 보다 상세하게 확인할 수 있다.According to embodiments of the present invention, by using a fisheye camera that captures a wider area, it is possible to photograph an event occurrence location without omission, and by using a PTZ camera that acquires a high-quality image, an event can be confirmed in more detail.
또한, 본 발명의 실시예들에 따르면, 연동 파라미터를 이용하여 어안 카메라의 좌표계와 PTZ 카메라의 좌표계를 연동시킴으로써 이벤트를 보다 정확하게 촬영할 수 있다.In addition, according to embodiments of the present invention, an event can be more accurately captured by linking the coordinate system of the fisheye camera and the coordinate system of the PTZ camera using the interlocking parameter.
또한, 본 발명의 실시예들에 따르면, 연동 파라미터를 적용하는 것만으로 PTZ 카메라가 이벤트를 보다 정확하게 촬영할 수 있으므로, 감시 시스템의 연산량을 감소시켜 자원을 보다 효율적으로 이용할 수 있다.In addition, according to embodiments of the present invention, since the PTZ camera can more accurately capture an event only by applying the interlocking parameter, the amount of computation of the monitoring system can be reduced and resources can be used more efficiently.
따라서, 본 발명의 실시예들에 따르면, 보다 효율적이고 사용자 니즈에 부합하는 감시 시스템을 제공할 수 있다.Accordingly, according to embodiments of the present invention, it is possible to provide a monitoring system that is more efficient and meets user needs.
도 1은 일 실시예에 따른 감시 시스템을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 감시 시스템을 구성하는 복수의 카메라들의 설치 구조를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 감시 시스템을 구성하는 컨트롤러의 구성을 나타내는 블록도이다.
도 4는 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.
도 5 및 도 6은 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 8a 및 도 8b는 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 도면이다.
도 9는 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.
도 10은 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.
도 11은 다른 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 12는 일 실시예에 따른 연동 파라미터 산출을 위한 조건을 설명하기 위한 흐름도이다.1 is a view for explaining a monitoring system according to an embodiment.
2 is a view for explaining an installation structure of a plurality of cameras constituting a monitoring system according to an embodiment.
3 is a block diagram illustrating a configuration of a controller constituting a monitoring system according to an exemplary embodiment.
4 is a flowchart illustrating a method of calculating an interlocking parameter of a monitoring system according to an embodiment.
5 and 6 are diagrams for explaining a method of calculating an interlocking parameter of a monitoring system according to an embodiment.
7 is a flowchart illustrating a method of operating a monitoring system based on interlocking parameters according to an embodiment.
8A and 8B are diagrams for explaining a method of operating a monitoring system based on interlocking parameters according to an embodiment.
9 is a flowchart illustrating a method of calculating an interlocking parameter of a monitoring system according to another embodiment.
10 is a view for explaining a method of calculating an interlocking parameter of a monitoring system according to another embodiment.
11 is a flowchart illustrating a method of operating a monitoring system based on interlocking parameters according to another embodiment.
12 is a flowchart illustrating a condition for calculating an interlocking parameter according to an embodiment.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.
이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following embodiments, terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 다수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the following examples are only used to describe specific examples, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the following examples, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification is present, but one or more It should be understood that this does not preclude the possibility of addition or presence of other features or numbers, steps, operations, components, parts, or combinations thereof.
본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in any number of hardware and/or software configurations that perform specific functions. For example, embodiments of the present invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by control of one or more microprocessors or other control devices. Circuit configurations may be employed. Similar to how components of an embodiment of the invention may be implemented as software programming or software elements, embodiments of the invention may include various algorithms implemented in combinations of data structures, processes, routines, or other programming constructs. , C, C++, Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors. Also, embodiments of the present invention may employ conventional techniques for electronic configuration, signal processing, and/or data processing, and the like. Terms such as mechanism, element, means, and configuration may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in association with a processor or the like.
이하 첨부된 도면들을 참조하여 본 발명의 여러 가지 실시 예를 상세히 설명한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 일 실시예에 따른 감시 시스템을 설명하기 위한 도면이다.1 is a view for explaining a monitoring system according to an embodiment.
도 1을 참조하면, 일 실시예에 따른 감시 시스템(1)은 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 네트워크(40), 서버(50), 및 사용자 단말(60)을 포함한다.Referring to FIG. 1 , a
감시 시스템(1)은 게이트웨이(30)에서 수집된 어안 카메라(10) 및/또는 PTZ 카메라(20)의 정보가 네트워크(40)를 통해 서버(50)로 전송되면, 관리자가 사용자 단말(60)을 이용하여 서버(50)에 전송된 정보를 모니터링하는 구성을 제공할 수 있다.The
어안 카메라(10)는 180도 이상의 화각을 가지는 광각 카메라일 수 있다. 감시 시스템(1)은 어안 카메라(10)뿐만 아니라 PTZ 카메라(20)보다 화각이 넓은 다양한 광각 카메라를 포함할 수 있다. 이하에서는, 대표적인 광각 카메라인 어안 카메라(10)를 예로 들어 설명하며, 어안 카메라(10)에 대한 설명은 다양한 광각 카메라에 적용 가능하다.The
어안 카메라(10)는 감시 영역 전체를 촬영할 수 있다. 어안 카메라(10)는 PTZ 카메라(20)를 촬영할 수 있다. 즉, 어안 카메라(10)에서 촬영된 원본 영상은 PTZ 카메라(20)를 포함할 수 있고, 광각 영상으로서 다양한 왜곡을 가질 수 있다.The
PTZ 카메라(20)는 패닝(panning)과 틸팅(tilting)이 가능하며 렌즈의 줌(zoom) 배율이 조절 가능한 카메라일 수 있다. PTZ 카메라(20)는 패닝, 틸팅, 및/또는 줌 배율 조절을 수행함으로써, 감시 영역을 변경할 수 있다.The
PTZ 카메라(20)는 배터리로 구동되는 저전력 카메라일 수 있다. PTZ 카메라(20)는 평상시 슬립 모드를 유지하고, 주기적으로 깨어나 이벤트가 발생하였는지 여부를 체크할 수 있다. PTZ 카메라(20)는 이벤트가 발생한 경우 액티브 모드로 전환되고, 이벤트가 발생하지 않은 경우 다시 슬립 모드로 복귀할 수 있다. 이와 같이, 이벤트가 발생한 경우에만 액티브 모드를 유지함으로써 PTZ 카메라(20)의 전력 소모를 줄일 수 있다.The
어안 카메라(10) 및/또는 PTZ 카메라(20)는 이벤트를 감지하는 센서를 포함할 수 있다. 이벤트를 감지하는 센서는 외부에 설치될 수도 있다.The
센서는 감시 또는 보안의 목적으로 센싱 영역에서 이벤트가 발생하는지 여부를 실시간으로 감지할 수 있다. 센서는 이미지 센서, 음향 센서, 적외선 센서, 모션 센서, 가스 센서, 누수 센서, 온도 센서, 습도 센서, 가속도 센서, 자이로 센서, 촉각 센서, 압력 센서, 진동 센서 등을 포함할 수 있다.The sensor may detect in real time whether an event occurs in the sensing area for the purpose of monitoring or security. The sensor may include an image sensor, an acoustic sensor, an infrared sensor, a motion sensor, a gas sensor, a water leak sensor, a temperature sensor, a humidity sensor, an acceleration sensor, a gyro sensor, a tactile sensor, a pressure sensor, a vibration sensor, and the like.
어안 카메라(10)가 이벤트를 감지하면, PTZ 카메라(20)가 이벤트 발생 위치를 촬영할 수 있다. 다시 말해, 어안 카메라(10)를 통해 이벤트 발생 위치를 확인한 후, PTZ 카메라(20)를 통해 이벤트 발생 위치를 고화질로 상세하게 촬영할 수 있다.When the
즉, 보다 넓은 영역을 촬영하는 어안 카메라(10)를 활용함으로써 이벤트 발생 위치를 빠짐없이 촬영할 수 있고, 고화질 영상을 획득하는 PTZ 카메라(20)를 활용함으로써 이벤트를 보다 상세하게 확인할 수 있다.That is, by using the
이를 위해, 어안 카메라(10)의 좌표계와 PTZ 카메라(20)의 좌표계를 연동시킬 필요가 있다. 본 발명은 연동 파라미터를 이용하여 어안 카메라(10)의 좌표계와 PTZ 카메라(20)의 좌표계를 연동시킴으로써 이벤트를 보다 정확하게 촬영할 수 있다.To this end, it is necessary to link the coordinate system of the
어안 카메라(10) 및/또는 PTZ 카메라(20)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 등 다양한 통신 방식을 이용하여 게이트웨이(30)와 통신할 수 있다. 예를 들어, 어안 카메라(10) 및/또는 PTZ 카메라(20)는 ISM 대역(Industrial Scientific Medical band)의 무선 주파수(Radio Frequency)를 사용하는 저전력 무선 통신 프로토콜에 따라 게이트웨이(30)와 통신할 수 있다.The
어안 카메라(10) 및/또는 PTZ 카메라(20)는 하나 이상 구비될 수 있다.One or more
게이트웨이(30)에서 어안 카메라(10) 및/또는 PTZ 카메라(20)에서 전송된 정보에 기초하여 어안 카메라(10) 및/또는 PTZ 카메라(20)의 상태를 인식할 수 있고, 인식된 어안 카메라(10) 및/또는 PTZ 카메라(20)의 상태에 따라 다른 어안 카메라(10) 및/또는 PTZ 카메라(20) 또는 사용자 단말(60)에 명령 또는 알림을 전송할 수 있다.The
게이트웨이(30)는 이더넷(Ethernet), 와이파이, 블루투스 등 다양한 유무선 통신 방식을 이용하여 서버(50)에 정보를 전송할 수도 있고, 서버(50)로부터 명령을 수신할 수도 있다.The
네트워크(40)는 유선 네트워크 또는 무선 네트워크를 포함할 수 있다. 무선 네트워크는 2G(Generation) 또는 3G 셀룰러 통신 시스템, 3GPP(3rd Generation Partnership Project), 4G 통신 시스템, LTE(Long-Term Evolution), WiMAX(World Interoperability for Microwave Access) 등일 수 있다.The
서버(50)는 네트워크(40)를 통해 어안 카메라(10), PTZ 카메라(20) 및/또는 게이트웨이(30)로부터 전송된 정보에 기초하여 사용자 단말(60)에 알림을 전송할 수 있고, 사용자 단말(60)로부터 전송된 명령을 어안 카메라(10), PTZ 카메라(20) 및/또는 게이트웨이(30)에 전송할 수 있다.The
사용자 단말(60)은 서버(50)로부터 전송된 정보를 디스플레이할 수 있고, 저장할 수도 있다. 예를 들어, 사용자 단말(60)은 서버(50)로부터 전송된 알림을 디스플레이할 수 있다. 사용자 단말(60)은 적어도 하나 이상의 프로세서를 포함할 수 있다. 사용자 단말(60)은 마이크로 프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수 있다. 사용자 단말(60)은 개인용 컴퓨터 또는 이동 단말일 수 있다.The
사용자 단말(60)은 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30) 및/또는 서버(50)의 동작을 제어하기 위한 사용자 인터페이스를 포함할 수 있다.The
본 발명의 실시예들에 따른 감시 시스템(1)은 하나의 물리적 장치로 구현될 수도 있고, 복수의 물리적 장치가 유기적으로 결합되어 구현될 수도 있다. 이를 위해 감시 시스템(1)에 포함된 구성 중 일부는 어느 하나의 물리적 장치로 구현되거나 설치되고, 나머지 일부는 다른 물리적 장치로 구현되거나 설치될 수도 있다. 이때, 어느 하나의 물리적 장치는 서버(50)의 일부로 구현될 수 있고, 다른 물리적 장치는 사용자 단말(60)의 일부로 구현될 수 있다.The
한편, 감시 시스템(1)은 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50) 또는 사용자 단말(60)에 내장될 수도 있고, 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50) 또는 사용자 단말(60)과 별개로 구비된 장치에 적용될 수도 있다.On the other hand, the
도 2는 일 실시예에 따른 감시 시스템을 구성하는 복수의 카메라들의 설치 구조를 설명하기 위한 도면이다.2 is a view for explaining an installation structure of a plurality of cameras constituting a monitoring system according to an embodiment.
도 2를 참조하면, 감시 시스템(1)은 복수의 카메라들을 포함할 수 있으며, 복수의 카메라들은 어안 카메라(10) 및 PTZ 카메라(20)를 포함할 수 있다.Referring to FIG. 2 , the
일 실시예에 따르면, 어안 카메라(10) 및 PTZ 카메라(20)는 상이한 수평선상에 설치될 수 있다. 즉, 어안 카메라(10)와 PTZ 카메라(20)는 상이한 높이에 설치될 수 있다. 따라서, 바닥으로부터 어안 카메라(10)에 이르는 수직높이와, 바닥으로부터 PTZ 카메라(20)에 이르는 수직높이는 상이할 수 있다.According to an embodiment, the
다른 실시예에 따르면, 어안 카메라(10) 및 PTZ 카메라(20)는 동일한 수평선상에 설치될 수 있다. 즉, 어안 카메라(10)와 PTZ 카메라(20)는 동일한 높이에 설치될 수 있다. 따라서, 바닥으로부터 어안 카메라(10)에 이르는 수직높이와, 바닥으로부터 PTZ 카메라(20)에 이르는 수직높이는 동일할 수 있다.According to another embodiment, the
한편, 어안 카메라(10) 및 PTZ 카메라(20)는 상이한 수직선상에 설치될 수 있다. 즉, 어안 카메라(10)와 PTZ 카메라(20)는 이격될 수 있다. 이에 따라, 어안 카메라(10)는 PTZ 카메라(20)를 촬영할 수 있다. 어안 카메라(10)와 PTZ 카메라(20) 사이의 수평거리는 미리 정해질 수 있다.Meanwhile, the
한편, 감시 시스템(1)은 수평거리만큼 이격된 제1 카메라 및 제2 카메라와, 제1 카메라 촬영 영상 및 제2 카메라 촬영 영상에 기초하여 감시 시스템(1)의 전반적인 동작을 제어하는 컨트롤러(100)를 포함할 수 있다. 제1 카메라는 제2 카메라보다 화각이 넓고 제2 카메라를 촬영할 수 있다. 제1 카메라는 어안 카메라(10)일 수 있다. 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라일 수 있다. 제2 카메라는 PTZ 카메라(20)일 수 있다.On the other hand, the
컨트롤러(100)는 제1 카메라의 좌표계와 제2 카메라의 좌표계를 연동시킬 수 있다.The
예를 들어, 제1 카메라의 좌표계와 제2 카메라의 좌표계를 3차원 직교 좌표계로 파악하는 경우, 각 좌표계의 XY 평면은 감시 영역의 천정 및 바닥과 평행하고, 각 좌표계의 YZ 평면 및 ZX 평면은 감시 영역의 천정과 바닥을 잇는 수직선과 평행할 수 있다. 이때, 컨트롤러(100)는 제1 카메라의 X 축(), 제1 카메라의 Y 축(), 제1 카메라의 Z 축()이 각각 제2 카메라의 X 축(), 제2 카메라의 Y 축(), 제2 카메라의 Z 축()과 동일한 방향을 향하도록 즉, 연동되도록 제2 카메라를 회전시키거나 줌 배율을 조절시킬 수 있다.For example, if the coordinate system of the first camera and the coordinate system of the second camera are identified as a three-dimensional Cartesian coordinate system, the XY plane of each coordinate system is parallel to the ceiling and floor of the monitoring area, and the YZ plane and ZX plane of each coordinate system are It may be parallel to a vertical line connecting the ceiling and floor of the monitoring area. At this time, the
이처럼 제1 카메라의 좌표계와 제2 카메라의 좌표계가 연동되면, 제1 카메라를 통해 감지된 이벤트를 제2 카메라를 통해 정확하게 촬영할 수 있으므로, 보다 효율적이고 사용자 니즈에 부합하는 감시 시스템(1)을 제공할 수 있다.In this way, when the coordinate system of the first camera and the coordinate system of the second camera are interlocked, the event detected by the first camera can be accurately captured through the second camera, thereby providing a
컨트롤러(100)는 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50), 및/또는 사용자 단말(60)에 구현될 수 있다. 컨트롤러(100)는 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50), 또는 사용자 단말(60)에 전부 구현될 수 있다.The
한편, 컨트롤러(100)는 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50), 및/또는 사용자 단말(60)에 각각 일부가 구현될 수 있다.Meanwhile, a part of the
이하에서는, 도 3을 참조하며 감시 시스템(1)을 구성하는 컨트롤러(100)의 구성에 대하여 상세하게 설명한다.Hereinafter, the configuration of the
도 3은 일 실시예에 따른 감시 시스템을 구성하는 컨트롤러의 구성을 나타내는 블록도이다.3 is a block diagram illustrating a configuration of a controller constituting a monitoring system according to an exemplary embodiment.
도 3을 참조하면, 일 실시예에 따른 감시 시스템(1)을 구성하는 컨트롤러(100)는 통신 인터페이스(110), 사용자 인터페이스(130), 프로세서(150), 및 메모리(170)를 포함한다.Referring to FIG. 3 , the
통신 인터페이스(110)는 제1 카메라, 제2 카메라, 게이트웨이(30), 서버(50), 및/또는 사용자 단말(60)과 통신한다.The
통신 인터페이스(110)는 제1 카메라로부터 제1 카메라 촬영 영상 및/또는 이벤트 정보를 수신할 수 있다.The
제1 카메라 촬영 영상은 감시 영역 전체를 촬영한 저화질 영상일 수 있다. 제1 카메라 촬영 영상은 제1 특징점 집합을 포함할 수 있다. 제1 특징점 집합은 제1 카메라 촬영 영상의 중심에 존재할 수 있다.The first camera captured image may be a low-quality image obtained by capturing the entire monitoring area. The first camera-captured image may include a first set of feature points. The first set of feature points may exist in the center of the image captured by the first camera.
이벤트 정보는 카메라 식별 정보, 센서 식별 정보, 이벤트 촬영 영상, 이벤트 촬영 시간, 이벤트 식별 정보 등일 수 있다.The event information may be camera identification information, sensor identification information, an event photographed image, an event photographing time, event identification information, and the like.
통신 인터페이스(110)는 제2 카메라에 제1 회전 제어 신호를 전송하고, 제2 카메라로부터 회전 상태 정보를 수신할 수 있다.The
제1 회전 제어 신호 및 회전 상태 정보는 각각 회전 각도 및/또는 줌 배율을 포함할 수 있다. 회전 각도는 팬각 및/또는 틸트각을 포함할 수 있다.The first rotation control signal and the rotation state information may include a rotation angle and/or a zoom magnification, respectively. The rotation angle may include a pan angle and/or a tilt angle.
통신 인터페이스(110)는 제2 카메라로부터 제2 카메라 촬영 영상을 수신할 수 있다.The
제2 카메라 촬영 영상은 감시 영역 일부를 촬영한 고화질 영상일 수 있다. 제2 카메라 촬영 영상은 제2 특징점 집합을 포함할 수 있다. 제2 특징점 집합은 제2 카메라 촬영 영상의 중심에 존재할 수 있다.The second camera-captured image may be a high-quality image obtained by capturing a portion of the surveillance area. The second camera-captured image may include a second set of feature points. The second set of feature points may exist in the center of the image captured by the second camera.
제1 카메라 촬영 영상의 제1 특징점 집합은 제2 카메라 촬영 영상의 제2 특징점 집합과 대응될 수 있다. 예를 들어, 감시 영역의 바닥에 특징점 집합이 존재하고, 제1 카메라가 특징점 집합을 마주보도록 감시 영역의 천정에 설치되고, 제2 카메라가 제1 카메라와 소정 수평거리 이격되도록 감시 영역의 천정에 설치된 경우, 제1 카메라와 제2 카메라는 동일한 특징점 집합을 각각 상이한 각도에서 촬영할 수 있다.The first set of feature points of the image captured by the first camera may correspond to the set of second features of the image captured by the second camera. For example, a set of feature points is present at the bottom of the surveillance area, the first camera is installed on the ceiling of the surveillance area to face the set of features, and the second camera is located on the ceiling of the surveillance area to be spaced apart from the first camera by a predetermined horizontal distance. When installed, the first camera and the second camera may photograph the same set of feature points at different angles, respectively.
특징점 집합은 2차원 모양 또는 3차원 구조를 포함할 수 있다. 특징점 집합은 미리 정해질 수 있고, 변경될 수 있다.The feature point set may include a two-dimensional shape or a three-dimensional structure. The feature point set may be predetermined or may be changed.
사용자 인터페이스(130)는 제2 카메라의 촬영 영역 제어를 위한 사용자 입력, 제1 카메라 및 제2 카메라 사이의 수평거리를 선택하는 사용자 입력, 및 제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력 중 적어도 하나를 수신할 수 있다.The
제2 카메라의 촬영 영역 제어를 위한 사용자 입력은 회전 각도 및/또는 줌 배율을 포함할 수 있다.The user input for controlling the capturing area of the second camera may include a rotation angle and/or a zoom magnification.
제1 카메라 및 제2 카메라 사이의 수평거리를 선택하는 사용자 입력은 소정 수평거리를 포함할 수 있다. 즉, 제1 카메라 및 제2 카메라 사이의 수평거리는 사용자 입력에 의해 설정 또는 변경될 수 있다.A user input for selecting a horizontal distance between the first camera and the second camera may include a predetermined horizontal distance. That is, the horizontal distance between the first camera and the second camera may be set or changed by a user input.
제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력은 제1 카메라 촬영 영상에서 하나의 지점을 선택하는 사용자 입력일 수 있다. 제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력에 따라 제1 카메라 촬영 영상에서의 제2 카메라에 대응하는 좌표 값이 결정될 수 있다.The user input for designating the second camera with respect to the image captured by the first camera may be a user input for selecting one point in the image captured by the first camera. A coordinate value corresponding to the second camera in the image captured by the first camera may be determined according to a user input for designating a second camera with respect to the image captured by the first camera.
제1 카메라 촬영 영상에서의 제2 카메라에 대응하는 좌표 값은 디지털 PTZ 값일 수 있다. 디지털 PTZ 값은 디지털 팬각, 디지털 틸트각, 및 디지털 줌 배율 중 적어도 하나를 포함할 수 있다.A coordinate value corresponding to the second camera in the image captured by the first camera may be a digital PTZ value. The digital PTZ value may include at least one of a digital pan angle, a digital tilt angle, and a digital zoom factor.
사용자 인터페이스(130)는 특징점 집합을 선택하는 사용자 입력을 수신할 수 있다.The
따라서, 특징점 집합은 사용자 입력에 따라 설정되거나 변경될 수 있다.Accordingly, the feature point set may be set or changed according to a user input.
사용자 인터페이스(130)는 제2 카메라의 촬영 영역 제어를 위한 사용자 입력 요청을 출력할 수 있다. 예를 들어, 사용자 인터페이스(130)는 사용자 단말(60)에 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청할 수 있다. 제2 카메라의 촬영 영역 제어를 위한 사용자 입력 요청은 제2 카메라가 특징점 집합을 마주보도록 제2 카메라의 촬영 영역을 제어하라는 알림을 포함할 수 있다.The
프로세서(150)는 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 팬각(pan angle)을 추출하고, 사용자 입력에 기초하여 제1 회전 제어 신호를 생성하고, 제1 팬각 및 회전 상태 정보로부터 추출된 제2 카메라의 제2 팬각 사이의 차이 팬각()을 산출하고, 제1 카메라 및 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표()를 산출하고, 차이 팬각() 및 3차원 거리 좌표()에 따른 연동 파라미터를 산출한다.The
제1 팬각은, 제1 카메라 촬영 영상의 기준선으로부터, 제1 카메라 촬영 영상의 중심과 제1 카메라 촬영 영상의 제2 카메라를 잇는 직선이 이루는 수평적인 각도를 의미한다. 예를 들어, 제1 팬각은 제1 카메라의 3차원 직교 좌표계의 XY 평면 상에서 X 축()으로부터 제1 카메라의 중심과 제2 카메라의 중심을 잇는 직선이 이루는 각도일 수 있다.The first pan angle means a horizontal angle formed by a straight line connecting the center of the image captured by the first camera and the second camera of the image captured by the first camera from the reference line of the image captured by the first camera. For example, the first pan angle is the X axis ( ) may be an angle formed by a straight line connecting the center of the first camera and the center of the second camera.
프로세서(150)는 제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력에 대응하여 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 팬각을 추출할 수 있다.The
한편, 프로세서(150)는 제1 카메라 촬영 영상에서 제2 카메라를 자동으로 인식하는 알고리즘을 적용함으로써, 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 팬각을 추출할 수 있다.Meanwhile, the
프로세서(150)는 제2 카메라의 촬영 영역 제어를 위한 사용자 입력에 기초하여 제1 회전 제어 신호를 생성할 수 있다.The
제1 회전 제어 신호는 PTZ 카메라(20)의 절대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제1 회전 제어 신호를 수신한 PTZ 카메라(20)는 현재의 회전 각도 및/또는 줌 배율과 무관하게, 제1 회전 제어 신호에 포함된 회전 각도 및/또는 줌 배율과 동일하도록 회전 각도 및/또는 줌 배율을 조절할 수 있다.The first rotation control signal may include an absolute rotation angle and/or a zoom magnification of the
한편, 제1 회전 제어 신호는 PTZ 카메라(20)의 상대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제1 회전 제어 신호를 수신한 PTZ 카메라(20)는 현재의 회전 각도 및/또는 줌 배율을 기준으로, 제1 회전 제어 신호에 포함된 상대적인 회전 각도 및/또는 줌 배율만큼 회전 각도 및/또는 줌 배율을 조절할 수 있다.Meanwhile, the first rotation control signal may include a relative rotation angle and/or a zoom magnification of the
프로세서(150)는 회전 상태 정보로부터 제2 카메라의 제2 팬각을 추출할 수 있다. 제2 팬각은, 제2 카메라의 기준선으로부터 제2 카메라가 제1 회전 제어 신호에 대응하여 물리적으로 패닝한 각도를 의미한다. 예를 들어, 제2 팬각은 제2 카메라의 3차원 직교 좌표계의 XY 평면 상에서 X 축()으로부터 제2 카메라가 패닝을 종료한 지점에 이르는 각도일 수 있다.The
회전 상태 정보는 제2 카메라의 아날로그 PTZ 값을 포함할 수 있다. 아날로그 PTZ 값은 아날로그 팬각, 아날로그 틸트각, 및 아날로그 줌 배율 중 적어도 하나를 포함할 수 있다.The rotation state information may include an analog PTZ value of the second camera. The analog PTZ value may include at least one of an analog pan angle, an analog tilt angle, and an analog zoom factor.
제1 팬각 및 제2 팬각은 각각 0도 이상 360도 이하일 수 있다.The first fan angle and the second fan angle may be 0 degrees or more and 360 degrees or less, respectively.
프로세서(150)는 제1 팬각 및 제2 팬각 사이의 차이 팬각()을 산출할 수 있다. 즉, 프로세서(150)는 디지털 PTZ 값과 아날로그 PTZ 값 사이의 차이 값을 산출할 수 있다.The
프로세서(150)는 제1 카메라 및 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표()를 산출할 수 있다.The
제1 카메라의 좌표계와 제2 카메라의 좌표계가 3차원 직교 좌표계인 경우, 3차원 거리 좌표()는 제1 카메라의 X 좌표 값과 제2 카메라의 X 좌표 값의 차이, 제1 카메라의 Y 좌표 값과 제2 카메라의 Y 좌표 값의 차이, 및 제1 카메라의 Z 좌표 값과 제2 카메라의 Z 좌표 값의 차이로 구성될 수 있다.When the coordinate system of the first camera and the coordinate system of the second camera are the three-dimensional Cartesian coordinate system, the three-dimensional distance coordinate ( ) is the difference between the X coordinate value of the first camera and the X coordinate value of the second camera, the difference between the Y coordinate value of the first camera and the Y coordinate value of the second camera, and the Z coordinate value of the first camera and the second camera can be composed of the difference in the Z coordinate values of .
예를 들어, 제1 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제1 카메라의 중앙의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다. 제2 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제2 카메라의 렌즈의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다.For example, the X coordinate value, Y coordinate value, and Z coordinate value of the first camera may be the X coordinate value, Y coordinate value, and Z coordinate value of the center of the first camera, respectively. The X coordinate value, Y coordinate value, and Z coordinate value of the second camera may be the X coordinate value, Y coordinate value, and Z coordinate value of the lens of the second camera, respectively.
한편, 제1 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제1 카메라 촬영 영상의 중심의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다. 제2 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제2 카메라 촬영 영상의 중심의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다.Meanwhile, the X coordinate value, the Y coordinate value, and the Z coordinate value of the first camera may be the X coordinate value, the Y coordinate value, and the Z coordinate value of the center of the image captured by the first camera, respectively. The X coordinate value, Y coordinate value, and Z coordinate value of the second camera may be an X coordinate value, a Y coordinate value, and a Z coordinate value of the center of the image captured by the second camera, respectively.
프로세서(150)는 차이 팬각() 및 3차원 거리 좌표()에 따른 연동 파라미터를 산출할 수 있다. 연동 파라미터는 어안 카메라(10)의 좌표계로부터 PTZ 카메라(20)의 좌표계를 획득하기 위해 필요한 파라미터를 의미한다. 연동 파라미터는 차이 팬각()과 3차원 거리 좌표()를 이용한 오일러 회전 변환 행렬일 수 있다.The
제1 카메라의 수직높이와 제2 카메라의 수직높이가 상이한 경우, 프로세서(150)는 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하고, 수평거리 및 제1 틸트각에 기초하여 제1 카메라 및 제2 카메라 사이의 제1 수직높이를 산출하고, 수평거리 및 회전 상태 정보로부터 추출된 제2 카메라의 제2 틸트각에 기초하여 제2 카메라의 제2 수직높이를 산출하고, 제1 수직높이 및 제2 수직높이로부터 제1 카메라의 제3 수직높이를 산출하고, 이벤트 정보에 대응하여 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 제3 수직높이와 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 제1 카메라의 제1 카메라 좌표 값을 생성하고, 연동 파라미터를 적용하여 제1 카메라 좌표 값을 제2 카메라의 제2 카메라 좌표 값으로 변환하고, 제2 카메라 좌표 값에 기초하여 제2 회전 제어 신호를 생성할 수 있다.When the vertical height of the first camera and the vertical height of the second camera are different, the
프로세서(150)는 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 틸트각을 추출할 수 있다. 제1 틸트각은, 제1 카메라 촬영 영상의 기준선으로부터, 제1 카메라 촬영 영상의 중심과 제1 카메라 촬영 영상의 제2 카메라를 잇는 직선이 이루는 수직적인 각도를 의미한다. 예를 들어, 제1 틸트각은 제1 카메라의 3차원 직교 좌표계의 XY 평면으로부터 제1 카메라의 중심과 제2 카메라의 중심을 잇는 직선이 이루는 Z 축() 방향의 각도일 수 있다.The
프로세서(150)는 제1 카메라와 제2 카메라 사이의 수평거리와 제1 틸트각에 삼각 함수를 적용함으로써, 제1 카메라와 제2 카메라 사이의 제1 수직높이를 산출할 수 있다.The
프로세서(150)는 회전 상태 정보로부터 제2 카메라의 제2 틸트각을 추출할 수 있다. 제2 틸트각은, 제2 카메라의 기준선으로부터 제2 카메라가 제1 회전 제어 신호에 대응하여 물리적으로 틸팅한 각도를 의미한다. 예를 들어, 제2 틸트각은 제2 카메라의 3차원 직교 좌표계의 XY 평면으로부터 제2 카메라가 틸팅을 종료한 지점에 이르는 Z 축() 방향의 각도일 수 있다.The
프로세서(150)는 제1 카메라와 제2 카메라 사이의 수평거리와 제2 틸트각에 삼각 함수를 적용함으로써, 바닥으로부터 제2 카메라에 이르는 제2 수직높이를 산출할 수 있다.The
프로세서(150)는 제1 수직높이와 제2 수직높이를 더하여 바닥으로부터 제1 카메라에 이르는 제3 수직높이를 산출할 수 있다.The
프로세서(150)는 센서 등으로부터 전송된 이벤트 정보에 대응하여 제1 카메라 촬영 영상으로부터 이벤트 발생 위치의 수평 좌표를 추출할 수 있다. 예를 들어, 프로세서(150)는 제1 카메라 촬영 영상에 제1 카메라의 3차원 직교 좌표를 적용하여 이벤트 발생 위치의 X 좌표 값 및 Y 좌표 값을 추출할 수 있다.The
프로세서(150)는 앞서 산출한 제3 수직높이와 평균 이벤트 높이인 제4 수직높이의 차이로부터 이벤트 발생 위치의 수직 좌표를 추출할 수 있다. 이벤트 발생 위치의 수직 좌표는 제1 카메라의 3차원 직교 좌표에서 Z 좌표 값일 수 있다.The
평균 이벤트 높이는 이벤트 정보로부터 추출될 수 있다. 예를 들어, 평균 이벤트 높이는 이벤트 식별 정보로부터 추출될 수 있다.The average event height may be extracted from event information. For example, the average event height may be extracted from event identification information.
이벤트 발생 위치의 수평 좌표 및 수직 좌표는 제1 카메라 좌표 값을 구성할 수 있다. 제1 카메라 좌표 값은 디지털 PTZ 값일 수 있다.The horizontal coordinates and vertical coordinates of the event occurrence location may constitute a first camera coordinate value. The first camera coordinate value may be a digital PTZ value.
프로세서(150)는 제1 카메라 좌표 값에 연동 파라미터를 적용하여 제2 카메라의 제2 카메라 좌표 값을 산출할 수 있다. 이때, 프로세서(150)는 제1 카메라 좌표 값과 연동 파라미터를 행렬 곱셈하여 제2 카메라 좌표 값을 산출할 수 있다. 제2 카메라 좌표 값은 아날로그 PTZ 값일 수 있다. 즉, 프로세서(150)는 디지털 PTZ 값에 연동 파라미터를 적용하여 아날로그 PTZ 값을 생성할 수 있다.The
프로세서(150)는 제2 카메라 좌표 값에 기초하여 제2 회전 제어 신호를 생성할 수 있다.The
제2 회전 제어 신호는 제2 카메라의 절대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제2 회전 제어 신호를 수신한 제2 카메라는 현재의 회전 각도 및/또는 줌 배율과 무관하게, 제2 회전 제어 신호에 포함된 회전 각도 및/또는 줌 배율과 동일하도록 회전 각도 및/또는 줌 배율을 조절할 수 있다.The second rotation control signal may include an absolute rotation angle and/or a zoom factor of the second camera. At this time, the second camera that has received the second rotation control signal rotates angle and/or so as to be the same as the rotation angle and/or zoom magnification included in the second rotation control signal, regardless of the current rotation angle and/or zoom magnification. You can adjust the zoom factor.
한편, 제2 회전 제어 신호는 제2 카메라의 상대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제2 회전 제어 신호를 수신한 제2 카메라는 현재의 회전 각도 및/또는 줌 배율을 기준으로, 제2 회전 제어 신호에 포함된 상대적인 회전 각도 및/또는 줌 배율만큼 회전 각도 및/또는 줌 배율을 조절할 수 있다.Meanwhile, the second rotation control signal may include a relative rotation angle and/or zoom magnification of the second camera. In this case, the second camera receiving the second rotation control signal rotates and/or zooms by the relative rotation angle and/or zoom factor included in the second rotation control signal based on the current rotation angle and/or zoom magnification. You can adjust the magnification.
이처럼, 제1 카메라의 좌표계와 제2 카메라의 좌표계를 연동시키는 경우, 연동 파라미터를 적용하는 것만으로 제2 카메라가 이벤트를 보다 정확하게 촬영할 수 있으므로, 프로세서(150)의 연산량을 감소시켜 자원을 보다 효율적으로 이용할 수 있다.As such, when the coordinate system of the first camera and the coordinate system of the second camera are interlocked, the second camera can more accurately capture the event only by applying the interlocking parameter, so the amount of computation of the
한편, 제1 카메라 및 제2 카메라가 동일한 수직높이를 가지는 경우, 프로세서(150)는 수평거리 및 회전 상태 정보로부터 추출된 제2 카메라의 제2 틸트각에 기초하여 수직높이를 산출하고, 이벤트 정보에 대응하여 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 수직높이와 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 제1 카메라의 디지털 PTZ 값을 생성하고, 연동 파라미터를 적용하여 디지털 PTZ 값을 제2 카메라의 아날로그 PTZ 값으로 변환하고, 아날로그 PTZ 값을 포함하는 제2 회전 제어 신호를 생성할 수 있다.On the other hand, when the first camera and the second camera have the same vertical height, the
이하에서는 앞서 제1 카메라의 수직높이와 제2 카메라의 수직높이가 상이한 경우에 대한 설명과 동일한 설명은 생략하거나 간략히 한다.Hereinafter, the same description as that of the case where the vertical height of the first camera is different from the vertical height of the second camera will be omitted or simplified.
프로세서(150)는 제1 카메라와 제2 카메라 사이의 수평거리와 제2 틸트각에 삼각 함수를 적용함으로써, 바닥으로부터 제2 카메라에 이르는 수직높이를 산출할 수 있다. 이때, 바닥으로부터 제2 카메라에 이르는 수직높이는 바닥으로부터 제1 카메라에 이르는 수직높이와 동일하다.The
프로세서(150)는 앞서 산출한 수직높이와 평균 이벤트 높이의 차이로부터 이벤트 발생 위치의 수직 좌표를 추출할 수 있다.The
프로세서(150)는 이벤트 발생 위치의 수평 좌표 및 수직 좌표로 구성된 제1 카메라의 디지털 PTZ 값에 연동 파라미터를 적용하여 제2 카메라의 아날로그 PTZ 값을 산출할 수 있다.The
이처럼, 제1 카메라 및 제2 카메라가 동일한 수직높이를 가지는 경우에는 제1 카메라의 수직높이와 제2 카메라의 수직높이가 상이한 경우보다 간단한 연산을 통해 제1 카메라의 좌표계와 제2 카메라의 좌표계를 연동시킬 수 있으므로, 보다 효율적이고 정확하게 고화질 이벤트 영상을 획득할 수 있다.As such, when the first camera and the second camera have the same vertical height, the coordinate system of the first camera and the coordinate system of the second camera are calculated through a simpler operation than when the vertical height of the first camera and the vertical height of the second camera are different. Since it can be linked, it is possible to obtain a high-quality event image more efficiently and accurately.
프로세서(150)는 제2 카메라 촬영 영상에 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 회전 상태 정보에 기초하여 제1 특징점 집합과 제2 특징점 집합이 매치되면 연동 파라미터를 산출하고, 제2 카메라 촬영 영상에 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 제1 특징점 집합과 제2 특징점 집합이 매치되지 않으면 사용자 인터페이스를 통해 사용자 단말(60)에 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청할 수 있다.The
프로세서(150)는 제1 카메라 촬영 영상에 제1 특징점 집합이 존재하고, 제2 카메라 촬영 영상에 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하면, 제1 특징점 집합과 제2 특징점 집합이 매치되는지 여부를 판단할 수 있다.If the first set of features exists in the first camera-captured image and the second set of features corresponding to the first set of features exists in the second camera-captured image, the first set of feature points and the second set of features match It can be determined whether or not
프로세서(150)는 제2 카메라의 회전 상태 정보에 기초하여 제1 특징점 집합과 제2 특징점 집합이 매치되는지 여부를 판단할 수 있다.The
제1 카메라 촬영 영상에 존재하는 제1 특징점 집합은, 제1 특징점 집합이 정면에서 촬영된 모양을 의미한다. 제2 카메라 촬영 영상에 존재하는 제2 특징점 집합은, 제1 특징점 집합이 측면에서 소정 각도로 촬영된 모양을 의미한다.The first feature point set present in the first camera-captured image means a shape in which the first feature point set is photographed from the front. The second set of feature points present in the image captured by the second camera means a shape in which the first set of feature points is photographed at a predetermined angle from the side.
따라서, 프로세서(150)는 소정 각도로 촬영된 제1 특징점 집합의 모양이 제2 특징점 집합의 모양과 소정 오차 범위 내에서 동일하다면, 제1 특징점 집합과 제2 특징점 집합이 매치된다고 판단할 수 있다.Accordingly, if the shape of the first feature point set photographed at a predetermined angle is the same as the shape of the second feature point set within a predetermined error range, the
프로세서(150)는 제1 특징점 집합과 제2 특징점 집합이 매치되는 경우에 한하여 연동 파라미터를 산출하고, 제1 특징점 집합과 제2 특징점 집합이 매치되지 않는 경우에는 제2 카메라가 제1 특징점 집합을 촬영할 수 있도록 제2 카메라의 촬영 영역을 제어하도록 사용자 입력을 요청할 수 있다.The
즉, 프로세서(150)는 제2 카메라가 제1 특징점 집합을 촬영할 때까지 제2 카메라의 회전 각도 및/또는 줌 배율을 조절시킴으로써, 연동 파라미터를 보다 정확하게 계산할 수 있다.That is, the
메모리(170)는 통신 인터페이스(110)와 사용자 인터페이스(130)를 통해 수신하거나 전송한 정보 및 프로세서(150)를 통해 생성된 정보를 저장할 수 있다.The
메모리(170)는 제1 카메라 촬영 영상, 제2 카메라 촬영 영상, 제1 카메라와 제2 카메라 사이의 수평거리, 제1 카메라의 회전 상태 정보, 제1 카메라 및 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표(), 연동 파라미터, 이벤트 정보 등을 저장할 수 있다.The
메모리(170)는 제1 특징점 집합이 전면에서 촬영된 모양 및 제1 특징점 집합이 소정 각도로 촬영된 모양을 매치하여 저장할 수 있다. 소정 각도는 복수일 수 있다.The
이하에서는, 도 4 내지 도 8a 및 도 8b를 참조하여 어안 카메라(10)의 수직높이와 PTZ 카메라(20)의 수직높이가 상이한 경우의 감시 시스템(1)의 동작 방법에 대하여 설명한다.Hereinafter, an operation method of the
이하에서, 도 4 내지 도 6을 참조하여, 감시 시스템(1)의 연동 파라미터 산출 방법을 상세하게 설명한다.Hereinafter, a method of calculating an interlocking parameter of the
도 4는 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a method of calculating an interlocking parameter of a monitoring system according to an embodiment.
도 5 및 도 6은 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.5 and 6 are diagrams for explaining a method of calculating an interlocking parameter of a monitoring system according to an embodiment.
도 4 내지 도 6을 참조하면, 수평거리(D)만큼 이격된 어안 카메라(10) 및 PTZ 카메라(20)를 포함하는 감시 시스템(1)의 동작 방법에 있어서, 컨트롤러(100)는 어안 카메라(10)로부터 어안 카메라 촬영 영상을 수신하고(S101), PTZ 카메라(20)로부터 PTZ 카메라 촬영 영상을 수신한다(S103).4 to 6, in the operating method of the
이어서, 컨트롤러(100)는 어안 카메라(10)와 PTZ 카메라(20) 사이의 수평거리(D)를 입력받는다(S105).Next, the
컨트롤러(100)는 수평거리(D)를 선택하는 사용자 입력을 수신할 수 있다.The
한편, 컨트롤러(100)는 센서에 의해 인식된 수평거리(D)를 입력받을 수 있다.Meanwhile, the
이어서, 컨트롤러(100)는 어안 카메라 촬영 영상에 대하여 PTZ 카메라(20)를 지정하는 사용자 입력을 수신한다(S107).Next, the
컨트롤러(100)는 PTZ 카메라(20)를 지정하는 사용자 입력에 따라 어안 카메라 촬영 영상에서의 PTZ 카메라(20)에 대응하는 좌표 값을 획득할 수 있다.The
한편, 어안 카메라 촬영 영상에서의 PTZ 카메라(20)에 대응하는 좌표 값은 센서 등에 의해 자동으로 획득될 수 있으며, 이에 한정하지 않는다.Meanwhile, a coordinate value corresponding to the
이어서, 컨트롤러(100)는 어안 카메라 촬영 영상으로부터 PTZ 카메라(20)에 대한 제1 팬각 및 제1 틸트각(T1)을 추출한다(S109). 제1 팬각 및 제1 틸트각(T1)은 디지털 PTZ 값일 수 있다.Next, the
한편, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 수신한다(S111). PTZ 제어를 위한 사용자 입력은 PTZ 카메라(20)의 촬영 영역 제어를 위한 사용자 입력을 의미한다. 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력에 기초하여 제1 PTZ 제어 신호를 생성할 수 있다.Meanwhile, the
컨트롤러(100)가 PTZ 카메라(20)에 제1 PTZ 제어 신호를 전송하면(S113), PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S115). PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 줌 배율을 조절할 수도 있다.When the
제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한 PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)을 추출한다(S117). 제2 팬각 및 제2 틸트각(T2)은 아날로그 PTZ 값일 수 있다.The
이어서, PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)이 포함된 PTZ 정보를 컨트롤러(100)에 전송한다(S119). PTZ 정보는 제1 PTZ 제어 신호에 대응하는 PTZ 카메라(20)의 회전 상태 정보를 의미한다.Subsequently, the
컨트롤러(100)는 S109 단계에서 추출한 제1 팬각과 S119 단계에서 수신한 제2 팬각 사이의 차이 팬각()을 산출한다(S121).The
이어서, 컨트롤러(100)는 어안 카메라(10) 및 PTZ 카메라(20) 사이의 거리를 나타내는 3차원 거리 좌표()를 산출한다(S123).Then, the
어안 카메라(10)의 좌표계와 PTZ 카메라(20)의 좌표계가 3차원 직교 좌표계인 경우, 3차원 거리 좌표()는 어안 카메라(10)의 X 좌표 값과 PTZ 카메라(20)의 X 좌표 값의 차이, 어안 카메라(10)의 Y 좌표 값과 PTZ 카메라(20)의 Y 좌표 값의 차이, 및 어안 카메라(10)의 Z 좌표 값과 PTZ 카메라(20)의 Z 좌표 값의 차이로 구성될 수 있다.When the coordinate system of the
이어서, 컨트롤러(100)는 차이 팬각() 및 3차원 거리 좌표()에 따른 연동 파라미터를 산출한다(S125).Then, the
일 실시예에 따른 연동 파라미터는 수학식 1을 이용하여 구할 수 있다.The interlocking parameter according to an embodiment may be obtained using Equation (1).
수학식 1에서, 는 연동 파라미터를 나타낸다. In
즉, 연동 파라미터는 차이 팬각()과 3차원 거리 좌표()를 이용한 오일러 회전 변환 행렬일 수 있다.That is, the interlocking parameter is the difference pan angle ( ) and three-dimensional distance coordinates ( ) may be an Euler rotation transformation matrix using
이하에서, 도 5, 도 7, 도 8a, 및 도 8b를 참조하여, 감시 시스템(1)의 동작 방법을 상세하게 설명한다.Hereinafter, an operation method of the
도 7은 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a method of operating a monitoring system based on interlocking parameters according to an embodiment.
도 8a 및 도 8b는 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 도면이다.8A and 8B are diagrams for explaining a method of operating a monitoring system based on interlocking parameters according to an embodiment.
도 5, 도 7, 도 8a, 및 도 8b를 참조하면, 컨트롤러(100)는 수평거리(D) 및 제1 틸트각(T1)에 기초하여 어안 카메라(10) 및 PTZ 카메라(20) 사이의 제1 수직높이(H1)를 산출한다(S201).5, 7, 8A, and 8B, the
일 실시예에 따른 제1 수직높이(H1)는 수학식 2를 이용하여 구할 수 있다.The first vertical height H1 according to an embodiment may be obtained using Equation (2).
이어서, 컨트롤러(100)는 수평거리(D) 및 S119 단계에서 수신한 제2 틸트각(T2)에 기초하여 PTZ 카메라(20)의 제2 수직높이(H2)를 산출한다(S205).Next, the
일 실시예에 따른 제2 수직높이(H2)는 수학식 3을 이용하여 구할 수 있다.The second vertical height H2 according to an embodiment may be obtained using Equation (3).
이어서, 컨트롤러(100)는 제1 수직높이(H1) 및 제2 수직높이(H2)로부터 어안 카메라(10)의 제3 수직높이(H3)를 산출한다(S205). 컨트롤러(100)는 제1 수직높이(H1)와 제2 수직높이(H2)를 더하여 제3 수직높이(H3)를 산출할 수 있다.Next, the
한편, 어안 카메라(10)는 이벤트를 검출한다(S207). 어안 카메라(10)는 어안 카메라 촬영 영상으로부터 이벤트를 검출할 수 있다. 어안 카메라(10)는 센서 등을 통해 이벤트를 검출할 수 있다. 어안 카메라(10)뿐만 아니라, 별도의 센서 등을 통해 이벤트가 검출될 수도 있다.On the other hand, the
이벤트는 예를 들어, 사람의 얼굴 인식일 수 있다.The event may be, for example, recognition of a person's face.
컨트롤러(100)는 어안 카메라(10)로부터 이벤트 정보를 수신하면(S209), 어안 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 제3 수직높이(H3)와 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 디지털 PTZ 값을 생성한다(S211).When the
컨트롤러(100)는 이벤트 정보에 대응하여 어안 카메라 촬영 영상으로부터 이벤트 발생 위치의 수평 좌표를 추출할 수 있다.The
예를 들어, 도 8b와 같이, 어안 카메라 촬영 영상으로부터 이벤트 발생 위치의 수평 좌표(x, y)를 추출할 수 있다.For example, as shown in FIG. 8B , the horizontal coordinates (x, y) of the event occurrence location may be extracted from the image captured by the fisheye camera.
이때, 컨트롤러(100)는 수학식 4를 이용하여 디지털 팬각(pan)을 생성할 수 있다.In this case, the
한편, 컨트롤러(100)는 이벤트 정보에 기초하여 평균 이벤트 높이인 제4 수직높이(H4)를 추출할 수 있다. 컨트롤러(100)는 제3 수직높이(H4)와 제4 수직높이(H4)의 차이로부터 이벤트 발생 위치의 수직 좌표(z)를 추출할 수 있다.Meanwhile, the
이때, 컨트롤러(100)는 수학식 5를 이용하여 디지털 틸트각(tilt)을 생성할 수 있다.In this case, the
컨트롤러(100)는 어안 카메라 촬영 영상으로부터 디지털 줌 배율을 추출할 수 있다.The
이어서, 컨트롤러(100)는 연동 파라미터를 적용하여 어안 카메라 좌표 값을 PTZ 카메라 좌표 값으로 변환한다(S213).Next, the
예를 들어, 컨트롤러(100)는 S211 단계에서 생성한 디지털 팬각(pan), 디지털 틸트각(tilt), 및 디지털 줌 배율에 연동 파라미터를 적용한 결과를 PTZ 카메라 좌표 값으로서 획득할 수 있다.For example, the
이어서, 컨트롤러(100)는 PTZ 카메라 좌표 값을 포함하는 제2 PTZ 회전 제어 신호를 생성하고, PTZ 카메라(20)에 제2 PTZ 제어 신호를 전송한다(S215).Next, the
PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S217). PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 줌 배율을 조절할 수도 있다.The
이처럼, PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 패닝, 틸팅, 및/또는 줌 배율 조절을 수행함으로써, 사람의 얼굴과 같은 이벤트를 중점적으로 촬영할 수 있다. 이에 따라, 감시 시스템(1)은 PTZ 카메라(20)에 의해 이벤트가 정확하게 촬영된 고화질 영상을 사용자에게 제공할 수 있다.As such, the
이하에서는, 도 9 내지 도 11을 참조하여 어안 카메라(10)의 수직높이와 PTZ 카메라(20)의 수직높이가 동일한 경우의 감시 시스템(1)의 동작 방법에 대하여 설명한다.Hereinafter, an operation method of the
이하에서는 앞서 어안 카메라(10)의 수직높이와 PTZ 카메라(20)의 수직높이가 상이한 경우에 대한 설명과 동일한 설명은 생략하거나 간략히 한다.Hereinafter, the same description as that of the case where the vertical height of the
도 9는 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a method of calculating an interlocking parameter of a monitoring system according to another embodiment.
도 10은 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.10 is a view for explaining a method of calculating an interlocking parameter of a monitoring system according to another embodiment.
도 11은 다른 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.11 is a flowchart illustrating a method of operating a monitoring system based on interlocking parameters according to another embodiment.
도 9 내지 도 11을 참조하면, 컨트롤러(100)는 어안 카메라(10)로부터 어안 카메라 촬영 영상을 수신하고(S301), PTZ 카메라(20)로부터 PTZ 카메라 촬영 영상을 수신한다(S303).9 to 11 , the
이어서, 컨트롤러(100)는 어안 카메라(10)와 PTZ 카메라(20) 사이의 수평거리(D)를 입력받는다(S305).Next, the
한편, 컨트롤러(100)는 어안 카메라 촬영 영상에 대하여 PTZ 카메라(20)를 지정하는 사용자 입력을 수신한다(S307).Meanwhile, the
이어서, 컨트롤러(100)는 어안 카메라 촬영 영상으로부터 PTZ 카메라(20)에 대한 제1 팬각을 추출한다(S309).Next, the
한편, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 수신한다(S311). 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력에 기초하여 제1 PTZ 제어 신호를 생성할 수 있다.Meanwhile, the
컨트롤러(100)가 PTZ 카메라(20)에 제1 PTZ 제어 신호를 전송하면(S313), PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S315).When the
이어서, PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)을 추출하고(S317). 제2 팬각 및 제2 틸트각(T2)이 포함된 PTZ 정보를 컨트롤러(100)에 전송한다(S919).Then, the
컨트롤러(100)는 S309 단계에서 추출한 제1 팬각과 S319 단계에서 수신한 제2 팬각 사이의 차이 팬각()을 산출한다(S321).The
이어서, 컨트롤러(100)는 어안 카메라(10) 및 PTZ 카메라(20) 사이의 거리를 나타내는 3차원 거리 좌표()를 산출한다(S323).Then, the
컨트롤러(100)는 차이 팬각() 및 3차원 거리 좌표()에 따른 연동 파라미터를 산출한다(S325).The
한편, 컨트롤러(100)는 수평거리(D) 및 제2 틸트각(T2)에 기초하여 어안 카메라(10)의 제3 수직높이(H3)를 산출한다(S401). 어안 카메라(10) 및 PTZ 카메라(20)가 동일한 제3 수직높이(H3)를 가질 수 있다.Meanwhile, the
한편, 어안 카메라(10)는 이벤트를 검출하고(S403), 컨트롤러(100)는 어안 카메라(10)로부터 이벤트 정보를 수신한다(S405).Meanwhile, the
컨트롤러(100)는 이벤트 정보에 대응하여 어안 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 제3 수직높이(H3)와 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 어안 카메라(10)의 디지털 PTZ 값을 생성한다(S407).The
컨트롤러(100)는 수학식 4 및 수학식 5를 이용하여 디지털 팬각(pan) 및 디지털 틸트각(tilt)을 생성하고, 어안 카메라 촬영 영상으로부터 디지털 줌 배율을 추출할 수 있다. 이와 같은 디지털 PTZ 값은 어안 카메라 좌표 값을 의미한다.The
이어서, 컨트롤러(100)는 연동 파라미터를 적용하여 디지털 PTZ 값을 아날로그 PTZ 값으로 변환한다(S409). 아날로그 PTZ 값은 PTZ 카메라 좌표 값을 의미한다.Next, the
컨트롤러(100)는 S407 단계에서 생성한 디지털 팬각(pan), 디지털 틸트각(tilt), 및 디지털 줌 배율에 연동 파라미터를 적용하여 PTZ 카메라 좌표 값을 획득할 수 있다.The
이어서, 컨트롤러(100)는 아날로그 PTZ 값에 기초하여 제2 PTZ 회전 제어 신호를 생성하고, PTZ 카메라(20)에 제2 PTZ 제어 신호를 전송한다(S411).Next, the
PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S413).The
이하에서는 앞서 기재한 설명과 동일한 설명은 생략하거나 간략히 한다.Hereinafter, the same description as that described above will be omitted or simplified.
도 12는 일 실시예에 따른 연동 파라미터 산출을 위한 조건을 설명하기 위한 흐름도이다.12 is a flowchart illustrating a condition for calculating an interlocking parameter according to an embodiment.
도 12를 참조하면, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 수신하면(S511), PTZ 카메라(20)에 제1 PTZ 제어 신호를 전송한다(S513).Referring to FIG. 12 , when receiving a user input for PTZ control ( S511 ), the
이어서, PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행하고, 제2 팬각 및 제2 틸트각(T2)을 추출한다(S517).Next, the
PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)이 포함된 PTZ 정보를 컨트롤러(100)에 전송하고(S519). 제2 팬각 및 제2 틸트각(T2)을 유지한 상태에서 감시 영역을 촬영한다(S529).The
컨트롤러(100)는 PTZ 카메라(20)로부터 PTZ 카메라 촬영 영상을 수신하고(S529), 어안 카메라 촬영 영상에 제1 특징점 집합이 존재하는지 여부를 판단한다(S531). 예를 들어, 제1 특징점 집합은 2차원 정n각형 도형일 수 있다.The
어안 카메라 촬영 영상에 제1 특징점 집합이 존재하는 경우, 컨트롤러(100)는 PTZ 카메라 촬영 영상에 제2 특징점 집합이 존재하는지 여부를 판단한다(S533). 예를 들어, 제2 특징점 집합은 2차원 n각형 도형일 수 있다.When the first feature point set exists in the fisheye camera captured image, the
컨트롤러(100)는 PTZ 카메라 촬영 영상에 제2 특징점 집합이 존재하는 경우, 제1 특징점 집합과 제2 특징점 집합이 매치되는지 여부를 판단한다(S535).When the second feature point set exists in the image captured by the PTZ camera, the
예를 들어, 어안 카메라 촬영 영상에 존재하는 2차원 정n각형 도형을 틸트각 45도에서 촬영한 모양과 PTZ 카메라 촬영 영상에 존재하는 2차원 n각형 도형이 소정 오차 범위 내에서 일치하면, 컨트롤러(100)는 제1 특징점 집합과 제2 특징점 집합이 매치된다고 판단할 수 있다.For example, if the shape of a two-dimensional regular n-gonal figure present in a fisheye camera shot image at a tilt angle of 45 degrees and a two-dimensional n-gonal figure existing in a PTZ camera shot image match within a predetermined error range, the controller ( 100) may determine that the first feature point set and the second feature point set match.
컨트롤러(100)는 제1 특징점 집합과 제2 특징점 집합이 매치되면, 제1 팬각 및 제2 팬각 사이의 차이 팬각()을 산출하고(S537), 이어서 연동 파라미터를 산출한다.When the first feature point set and the second feature point set match, the
어안 카메라 촬영 영상에 제1 특징점 집합이 존재하는 경우, PTZ 카메라 촬영 영상에 제2 특징점 집합이 존재하지 않거나 제1 특징점 집합과 제2 특징점 집합이 매치되지 않으면, 컨트롤러(100)는 사용자 단말(60)에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청한다. 즉, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 재수신함으로써, PTZ 카메라가 제1 특징점 집합을 촬영할 수 있도록 PTZ 카메라의 촬영 영역을 제어할 수 있다.When the first feature point set exists in the fisheye camera captured image, the second feature point set does not exist in the PTZ camera captured image, or the first feature point set and the second feature point set do not match, the
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. So far, the present invention has been focused on preferred embodiments. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in modified forms without departing from the essential characteristics of the present invention.
그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the above description, and the invention claimed by the claims and inventions equivalent to the claimed invention should be construed as being included in the present invention.
1: 감시 시스템 10: 어안 카메라
20: PTZ 카메라 30: 게이트웨이
40: 네트워크 50: 서버
60: 사용자 단말1: Surveillance System 10: Fisheye Camera
20: PTZ camera 30: gateway
40: network 50: server
60: user terminal
Claims (17)
상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하고, 상기 제2 카메라에 제1 회전 제어 신호를 전송하고, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 통신 인터페이스;
상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 사용자 인터페이스; 및
상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하고, 상기 사용자 입력에 기초하여 상기 제1 회전 제어 신호를 생성하고, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하고, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하고, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 프로세서;를 포함하는, 감시 시스템.In the surveillance system comprising a first camera and a second camera spaced apart by a horizontal distance,
A communication interface for receiving a first camera shot image from the first camera, transmitting a first rotation control signal to the second camera, and receiving rotation state information corresponding to the first rotation control signal from the second camera ;
a user interface for receiving a user input for controlling the shooting area of the second camera; and
extracting a first pan angle with respect to the second camera from the image captured by the first camera, generating the first rotation control signal based on the user input, and from the first pan angle and the rotation state information Calculate the difference pan angle between the extracted second pan angles of the second camera, calculate 3D distance coordinates representing the distance between the first camera and the second camera, and calculate the difference pan angle and the 3D distance coordinates A processor for calculating an interlocking parameter according to; Containing, a monitoring system.
상기 제1 카메라는 상기 제2 카메라보다 화각이 넓고, 상기 제2 카메라를 촬영하고,
상기 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라인, 감시 시스템.The method according to claim 1,
The first camera has a wider angle of view than the second camera, and shoots the second camera,
The second camera is a camera capable of adjusting a rotation direction or a zoom magnification, a surveillance system.
상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고,
상기 프로세서는, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하고, 상기 수평거리 및 상기 제1 틸트각에 기초하여 상기 제1 카메라 및 상기 제2 카메라 사이의 제1 수직높이를 산출하고, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 제2 카메라의 제2 수직높이를 산출하고, 상기 제1 수직높이 및 상기 제2 수직높이로부터 상기 제1 카메라의 제3 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 제3 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 제1 카메라 좌표 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 제1 카메라 좌표 값을 상기 제2 카메라의 제2 카메라 좌표 값으로 변환하고, 상기 제2 카메라 좌표 값에 기초하여 상기 제2 회전 제어 신호를 생성하는, 감시 시스템.The method according to claim 1,
The communication interface receives event information from the first camera and transmits a second rotation control signal to the second camera,
The processor extracts a first tilt angle with respect to the second camera from the image captured by the first camera, and the first camera and the second camera based on the horizontal distance and the first tilt angle calculating a first vertical height between The third vertical height of the first camera is calculated from the height and the second vertical height, and the horizontal coordinates of the event occurrence location extracted from the first camera captured image in response to the event information, the third vertical height, and the Generates a first camera coordinate value of the first camera including the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information, and applies the linkage parameter to obtain the first camera coordinate value as the second A surveillance system for converting a second camera coordinate value of two cameras and generating the second rotation control signal based on the second camera coordinate value.
상기 제1 카메라 및 상기 제2 카메라가 동일한 수직높이를 가지고,
상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고,
상기 프로세서는, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 디지털 PTZ 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 디지털 PTZ 값을 상기 제2 카메라의 아날로그 PTZ 값으로 변환하고, 상기 아날로그 PTZ 값을 포함하는 상기 제2 회전 제어 신호를 생성하는, 감시 시스템.The method according to claim 1,
The first camera and the second camera have the same vertical height,
The communication interface receives event information from the first camera and transmits a second rotation control signal to the second camera,
The processor calculates the vertical height based on a second tilt angle of the second camera extracted from the horizontal distance and the rotation state information, and an event extracted from the image captured by the first camera in response to the event information Generate a digital PTZ value of the first camera including the horizontal coordinate and vertical height of the occurrence position and the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information, and apply the linkage parameter converting the digital PTZ value into an analog PTZ value of the second camera, and generating the second rotation control signal including the analog PTZ value.
상기 제1 카메라 촬영 영상은 제1 특징점 집합을 포함하고,
상기 통신 인터페이스는 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송한 후 상기 제2 카메라로부터 제2 카메라 촬영 영상을 수신하고,
상기 프로세서는, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 상기 회전 상태 정보에 기초하여 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되면 상기 연동 파라미터를 산출하고, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되지 않으면 상기 사용자 인터페이스를 통해 사용자 단말에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청하는, 감시 시스템.The method according to claim 1,
The first camera-captured image includes a first set of feature points,
The communication interface receives the second camera shot image from the second camera after transmitting the first rotation control signal to the second camera,
The processor is configured to: When a second feature point set corresponding to the first feature point set exists in the second camera-captured image, and the first feature point set and the second feature point set match based on the rotation state information, the linkage parameter , and if the second feature point set corresponding to the first feature point set does not exist in the image captured by the second camera, or the first feature point set and the second feature point set do not match, the user terminal is sent to the user terminal through the user interface. A monitoring system that requests a user input for controlling the shooting area of the second camera.
통신 인터페이스에 의해, 상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하는 단계;
프로세서에 의해, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하는 단계;
사용자 인터페이스에 의해, 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 단계;
상기 프로세서에 의해, 상기 사용자 입력에 기초하여 제1 회전 제어 신호를 생성하는 단계;
상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송하는 단계;
상기 통신 인터페이스에 의해, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 단계;
상기 프로세서에 의해, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하는 단계;
상기 프로세서에 의해, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하는 단계; 및
상기 프로세서에 의해, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 단계;를 포함하는 감시 시스템의 동작 방법.A method of operating a surveillance system comprising a first camera and a second camera spaced apart by a horizontal distance, the method comprising:
receiving a first camera-captured image from the first camera through a communication interface;
extracting, by a processor, a first pan angle with respect to the second camera from the image captured by the first camera;
receiving a user input for controlling a photographing area of the second camera through a user interface;
generating, by the processor, a first rotation control signal based on the user input;
transmitting, by the communication interface, the first rotation control signal to the second camera;
receiving, by the communication interface, rotation state information corresponding to the first rotation control signal from the second camera;
calculating, by the processor, a difference pan angle between the first pan angle and a second pan angle of the second camera extracted from the rotation state information;
calculating, by the processor, three-dimensional distance coordinates indicating a distance between the first camera and the second camera; and
and calculating, by the processor, an interlocking parameter according to the difference pan angle and the three-dimensional distance coordinate.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170097131A KR102315525B1 (en) | 2017-07-31 | 2017-07-31 | Surveillance system and operation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170097131A KR102315525B1 (en) | 2017-07-31 | 2017-07-31 | Surveillance system and operation method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190013104A KR20190013104A (en) | 2019-02-11 |
KR102315525B1 true KR102315525B1 (en) | 2021-10-21 |
Family
ID=65369985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170097131A KR102315525B1 (en) | 2017-07-31 | 2017-07-31 | Surveillance system and operation method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102315525B1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220072498A (en) * | 2020-11-25 | 2022-06-02 | 한국전자기술연구원 | Method, apparatus and system for contolling multiple cctv cameras |
CN113329181B (en) * | 2021-06-08 | 2022-06-14 | 厦门四信通信科技有限公司 | Angle switching method, device, equipment and storage medium of camera |
KR102473078B1 (en) * | 2022-04-26 | 2022-12-02 | 주식회사 제노시스 | Location Calculating Device of a surveillance area photographed by a plurality of PTZ cameras |
CN115190237B (en) * | 2022-06-20 | 2023-12-15 | 亮风台(上海)信息科技有限公司 | Method and device for determining rotation angle information of bearing device |
CN115242969B (en) * | 2022-06-22 | 2023-10-13 | 天翼数字生活科技有限公司 | Method and system for controlling rotation of network camera |
KR102610488B1 (en) * | 2023-10-10 | 2023-12-07 | 주식회사 원우이엔지 | Monitoring system using multi camera |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004364212A (en) | 2003-06-09 | 2004-12-24 | Fujitsu Ltd | Object photographing apparatus, object photographing method and object photographing program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101120131B1 (en) | 2009-05-29 | 2012-03-22 | 주식회사 영국전자 | Intelligent Panorama Camera, Circuit and Method for Controlling thereof, and Video Monitoring System |
KR101347450B1 (en) * | 2012-04-10 | 2014-01-09 | 한국기술교육대학교 산학협력단 | Image sensing method using dual camera and apparatus thereof |
-
2017
- 2017-07-31 KR KR1020170097131A patent/KR102315525B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004364212A (en) | 2003-06-09 | 2004-12-24 | Fujitsu Ltd | Object photographing apparatus, object photographing method and object photographing program |
Also Published As
Publication number | Publication date |
---|---|
KR20190013104A (en) | 2019-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102315525B1 (en) | Surveillance system and operation method thereof | |
JP4478510B2 (en) | Camera system, camera, and camera control method | |
JP6141079B2 (en) | Image processing system, image processing apparatus, control method therefor, and program | |
JP6587489B2 (en) | Image processing apparatus, image processing method, and image processing system | |
CN110785993A (en) | Control method and device of shooting equipment, equipment and storage medium | |
KR101722664B1 (en) | Multi-viewpoint System, Wearable Camera, CCTV, Control Server And Method For Active Situation Recognition | |
JP2016100696A (en) | Image processing device, image processing method, and image processing system | |
EP3398029B1 (en) | Intelligent smart room control system | |
CN106612417B (en) | Network camera, monitoring server, and method of controlling monitoring system | |
KR102228663B1 (en) | Method of providing photographing guide and system therefor | |
EP3398328A1 (en) | Method and apparatus for imaging a scene | |
WO2017187694A1 (en) | Region of interest image generating device | |
JP2014222825A (en) | Video processing apparatus and video processing method | |
JP6624800B2 (en) | Image processing apparatus, image processing method, and image processing system | |
US10713480B2 (en) | Information processing device and information processing method | |
CN114527669A (en) | Equipment control method and device and electronic equipment | |
KR102374357B1 (en) | Video Surveillance Apparatus for Congestion Control | |
TW201722145A (en) | 3D video surveillance system capable of automatic camera dispatching function, and surveillance method for using the same | |
US10922825B2 (en) | Image data processing method and electronic device | |
JP6483326B2 (en) | Monitoring system and terminal device | |
KR20190114223A (en) | Surveillance system and operation method thereof | |
KR20150028623A (en) | Method and apparatus for processing images | |
CN112291701B (en) | Positioning verification method, positioning verification device, robot, external equipment and storage medium | |
US20200311968A1 (en) | Apparatus, system, and method for controlling an imaging device | |
CN106856558B (en) | Send the 3D image monitoring and its monitoring method of function automatically with video camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |