KR102315525B1 - Surveillance system and operation method thereof - Google Patents

Surveillance system and operation method thereof Download PDF

Info

Publication number
KR102315525B1
KR102315525B1 KR1020170097131A KR20170097131A KR102315525B1 KR 102315525 B1 KR102315525 B1 KR 102315525B1 KR 1020170097131 A KR1020170097131 A KR 1020170097131A KR 20170097131 A KR20170097131 A KR 20170097131A KR 102315525 B1 KR102315525 B1 KR 102315525B1
Authority
KR
South Korea
Prior art keywords
camera
ptz
control signal
processor
event
Prior art date
Application number
KR1020170097131A
Other languages
Korean (ko)
Other versions
KR20190013104A (en
Inventor
이현진
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020170097131A priority Critical patent/KR102315525B1/en
Publication of KR20190013104A publication Critical patent/KR20190013104A/en
Application granted granted Critical
Publication of KR102315525B1 publication Critical patent/KR102315525B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • H04N5/23241
    • H04N5/23296

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템에 있어서, 상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하고, 상기 제2 카메라에 제1 회전 제어 신호를 전송하고, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 통신 인터페이스, 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 사용자 인터페이스, 및 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하고, 상기 사용자 입력에 기초하여 상기 제1 회전 제어 신호를 생성하고, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하고, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하고, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 프로세서를 포함한다.A monitoring system according to an embodiment for solving the problem to be solved by the present invention is a monitoring system including a first camera and a second camera spaced apart by a horizontal distance, wherein the first camera captures an image from the first camera. A communication interface for receiving, transmitting a first rotation control signal to the second camera, and receiving rotation state information corresponding to the first rotation control signal from the second camera, for controlling a shooting area of the second camera extracting a first pan angle with respect to the second camera from a user interface for receiving a user input, and an image captured by the first camera, and generating the first rotation control signal based on the user input; calculating a difference pan angle between a first pan angle and a second pan angle of the second camera extracted from the rotation state information, calculating a three-dimensional distance coordinate representing a distance between the first camera and the second camera, and and a processor for calculating an interlocking parameter according to the difference pan angle and the three-dimensional distance coordinates.

Description

감시 시스템 및 그 동작 방법{SURVEILLANCE SYSTEM AND OPERATION METHOD THEREOF}SURVEILLANCE SYSTEM AND OPERATION METHOD THEREOF

본 발명은 복수의 카메라들을 이용하여 감시 영역 전체와 감시 영역 일부를 동시에 감시하는 감시 시스템 및 그 동작 방법에 관한 것이다.The present invention relates to a monitoring system for simultaneously monitoring an entire monitoring area and a part of a monitoring area using a plurality of cameras, and a method of operating the same.

감시 시스템은 감시 영역을 촬영하는 카메라로부터 수신한 영상 등을 관제사가 눈으로 감지한 후, 직접 카메라의 회전 방향이나 줌 배율을 조절함으로써, 관심 객체 등을 추적하는 방식으로 동작된다.The surveillance system is operated in such a way that the controller detects the image received from the camera that captures the surveillance area with the eyes, and then directly adjusts the rotation direction or zoom magnification of the camera to track the object of interest.

감시 영역 전체를 촬영하는 카메라와 감시 영역 일부를 촬영하는 카메라를 포함하는 감시 시스템은 감시 영역 전체를 촬영하는 카메라로부터 수신한 저화질 영상을 관제사가 눈으로 감지한 후, 직접 감시 영역 일부를 촬영하는 카메라의 회전 방향이나 줌 배율을 조절함으로써, 감시 영역 일부를 촬영하는 카메라로부터 관심 객체에 대한 고화질 영상을 획득하는 방식으로 동작된다.A surveillance system including a camera that captures the entire monitoring area and a camera that captures a part of the monitoring area is a camera that directly captures a part of the monitoring area after a controller detects a low-quality image received from a camera that captures the entire monitoring area. By adjusting the rotation direction or zoom magnification, it operates in such a way that a high-quality image of the object of interest is obtained from a camera that captures a part of the surveillance area.

뿐만 아니라, 감시 시스템은 감시 영역 전체를 촬영하는 카메라로부터 관심 객체가 감지되면, 자동으로 감시 영역 일부를 촬영하는 카메라의 회전 방향이나 줌 배율을 조절하는 방식으로 동작된다. 이때, 관심 객체를 보다 정확하고 신속하게 추적하기 위하여, 두 카메라의 좌표계를 연동시킬 필요가 있다.In addition, when an object of interest is detected by a camera that captures the entire monitoring area, the monitoring system is operated by automatically adjusting a rotation direction or a zoom magnification of a camera that captures a part of the monitoring area. In this case, in order to more accurately and quickly track the object of interest, it is necessary to link the coordinate systems of the two cameras.

KR1120131 10KR1120131 10

본 발명이 해결하고자 하는 과제는 좌표계가 연동된 복수의 카메라들을 이용하여 감시 영역 전체와 감시 영역 일부를 동시에 감시하는 감시 시스템 및 그 동작 방법에 관한 것이다.The problem to be solved by the present invention relates to a monitoring system for simultaneously monitoring the entire monitoring area and a part of the monitoring area using a plurality of cameras interlocked with a coordinate system, and an operating method thereof.

본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템에 있어서, 상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하고, 상기 제2 카메라에 제1 회전 제어 신호를 전송하고, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 통신 인터페이스, 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 사용자 인터페이스, 및 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하고, 상기 사용자 입력에 기초하여 상기 제1 회전 제어 신호를 생성하고, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하고, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하고, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 프로세서를 포함한다.A monitoring system according to an embodiment for solving the problem to be solved by the present invention is a monitoring system including a first camera and a second camera spaced apart by a horizontal distance, wherein the first camera captures an image from the first camera. A communication interface for receiving, transmitting a first rotation control signal to the second camera, and receiving rotation state information corresponding to the first rotation control signal from the second camera, for controlling a shooting area of the second camera extracting a first pan angle with respect to the second camera from a user interface for receiving a user input, and an image captured by the first camera, and generating the first rotation control signal based on the user input; calculating a difference pan angle between a first pan angle and a second pan angle of the second camera extracted from the rotation state information, calculating a three-dimensional distance coordinate representing a distance between the first camera and the second camera, and and a processor for calculating an interlocking parameter according to the difference pan angle and the three-dimensional distance coordinates.

본 실시예에서, 상기 제1 카메라는 상기 제2 카메라보다 화각이 넓고, 상기 제2 카메라를 촬영하고, 상기 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라일 수 있다.In the present embodiment, the first camera may have a wider angle of view than the second camera, photograph the second camera, and the second camera may be a camera capable of adjusting a rotation direction or a zoom magnification.

본 실시예에서, 상기 사용자 인터페이스는 상기 수평거리를 선택하는 사용자 입력 및 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력 중 적어도 하나를 수신하고, 상기 프로세서는 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력에 대응하여 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 상기 제1 팬각을 추출할 수 있다.In this embodiment, the user interface receives at least one of a user input for selecting the horizontal distance and a user input for designating the second camera with respect to the image captured by the first camera, and the processor captures the first camera The first pan angle with respect to the second camera may be extracted from the image captured by the first camera in response to a user input for designating the second camera with respect to an image.

본 실시예에서, 상기 연동 파라미터는 상기 차이 팬각과 상기 3차원 거리 좌표를 이용한 오일러 회전 변환 행렬일 수 있다.In this embodiment, the interlocking parameter may be an Euler rotation transformation matrix using the difference pan angle and the 3D distance coordinates.

본 실시예에서, 상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고, 상기 프로세서는, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하고, 상기 수평거리 및 상기 제1 틸트각에 기초하여 상기 제1 카메라 및 상기 제2 카메라 사이의 제1 수직높이를 산출하고, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 제2 카메라의 제2 수직높이를 산출하고, 상기 제1 수직높이 및 상기 제2 수직높이로부터 상기 제1 카메라의 제3 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 제3 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 제1 카메라 좌표 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 제1 카메라 좌표 값을 상기 제2 카메라의 제2 카메라 좌표 값으로 변환하고, 상기 제2 카메라 좌표 값에 기초하여 상기 제2 회전 제어 신호를 생성할 수 있다.In this embodiment, the communication interface receives event information from the first camera, transmits a second rotation control signal to the second camera, and the processor, from the first camera captured image to the second camera extracting a first tilt angle with respect to , calculating a first vertical height between the first camera and the second camera based on the horizontal distance and the first tilt angle, and calculating the horizontal distance and the rotation A second vertical height of the second camera is calculated based on a second tilt angle of the second camera extracted from the state information, and a third vertical height of the first camera is calculated from the first vertical height and the second vertical height. The height is calculated, and the horizontal coordinates of the event occurrence position extracted from the first camera-captured image in response to the event information and the third vertical height and the average event height corresponding to the event information are extracted from the event occurrence position. generating a first camera coordinate value of the first camera including vertical coordinates, converting the first camera coordinate value into a second camera coordinate value of the second camera by applying the linkage parameter, and the second camera The second rotation control signal may be generated based on the coordinate value.

본 실시예에서, 상기 제2 수직높이 및 상기 제3 수직높이는 상이할 수 있다.In this embodiment, the second vertical height and the third vertical height may be different.

본 실시예에서, 상기 제1 카메라 좌표 값은 디지털 PTZ 값이고, 상기 제2 카메라 좌표 값은 아날로그 PTZ 값일 수 있다.In this embodiment, the first camera coordinate value may be a digital PTZ value, and the second camera coordinate value may be an analog PTZ value.

본 실시예에서, 상기 제1 카메라 및 상기 제2 카메라가 동일한 수직높이를 가지고, 상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고, 상기 프로세서는, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 디지털 PTZ 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 디지털 PTZ 값을 상기 제2 카메라의 아날로그 PTZ 값으로 변환하고, 상기 아날로그 PTZ 값을 포함하는 상기 제2 회전 제어 신호를 생성할 수 있다.In this embodiment, the first camera and the second camera have the same vertical height, the communication interface receives event information from the first camera, and transmits a second rotation control signal to the second camera, The processor calculates the vertical height based on a second tilt angle of the second camera extracted from the horizontal distance and the rotation state information, and an event extracted from the image captured by the first camera in response to the event information Generate a digital PTZ value of the first camera including the horizontal coordinate and vertical height of the occurrence position and the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information, and apply the linkage parameter The digital PTZ value may be converted into an analog PTZ value of the second camera, and the second rotation control signal including the analog PTZ value may be generated.

본 실시예에서, 상기 제1 카메라 촬영 영상은 제1 특징점 집합을 포함하고, 상기 통신 인터페이스는 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송한 후 상기 제2 카메라로부터 제2 카메라 촬영 영상을 수신하고, 상기 프로세서는, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 상기 회전 상태 정보에 기초하여 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되면 상기 연동 파라미터를 산출하고, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되지 않으면 상기 사용자 인터페이스를 통해 사용자 단말에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청할 수 있다.In this embodiment, the first camera-captured image includes a first feature point set, and the communication interface transmits the first rotation control signal to the second camera and then receives the second camera-captured image from the second camera. In response, the processor is configured to: When a second feature point set corresponding to the first feature point set exists in the second camera-captured image, and the first feature point set and the second feature point set match based on the rotation state information If the linkage parameter is calculated, and the second feature point set corresponding to the first feature point set does not exist in the image captured by the second camera, or the first feature point set and the second feature point set do not match, the user interface A user input for controlling the capturing area of the second camera may be requested from the user terminal.

본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템 동작 방법은 수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템의 동작 방법에 있어서, 통신 인터페이스에 의해, 상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하는 단계, 프로세서에 의해, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하는 단계, 사용자 인터페이스에 의해, 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 단계, 상기 프로세서에 의해, 상기 사용자 입력에 기초하여 제1 회전 제어 신호를 생성하는 단계, 상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송하는 단계, 상기 통신 인터페이스에 의해, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 단계, 상기 프로세서에 의해, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하는 단계, 상기 프로세서에 의해, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하는 단계, 및 상기 프로세서에 의해, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 단계를 포함한다.A method of operating a monitoring system according to an embodiment for solving the problem to be solved by the present invention is a method of operating a monitoring system including a first camera and a second camera spaced apart by a horizontal distance, by a communication interface, the Receiving a first camera captured image from a first camera, extracting, by a processor, a first pan angle with respect to the second camera from the first camera captured image, by a user interface, the second 2 Receiving a user input for controlling a shooting area of a camera, generating, by the processor, a first rotation control signal based on the user input, by the communication interface, to the second camera transmitting a rotation control signal; receiving, by the communication interface, rotation state information corresponding to the first rotation control signal from the second camera; by the processor, the first pan angle and the rotation state information calculating, by the processor, a difference pan angle between second pan angles of the second camera extracted from and calculating, by the processor, an interlocking parameter according to the difference pan angle and the three-dimensional distance coordinate.

본 실시예에서, 상기 제1 카메라는 상기 제2 카메라보다 화각이 넓고, 상기 제2 카메라를 촬영하고, 상기 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라일 수 있다.In the present embodiment, the first camera may have a wider angle of view than the second camera, photograph the second camera, and the second camera may be a camera capable of adjusting a rotation direction or a zoom magnification.

본 실시예에서, 상기 사용자 인터페이스에 의해, 상기 수평거리를 선택하는 사용자 입력을 수신하는 단계 및 상기 사용자 인터페이스에 의해, 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력을 수신하는 단계를 더 포함하고, 상기 제2 카메라에 대한 상기 제1 팬각을 추출하는 단계는, 상기 프로세서에 의해, 상기 제1 카메라 촬영 영상에 대하여 상기 제2 카메라를 지정하는 사용자 입력에 대응하여 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 상기 제1 팬각을 추출하는 단계일 수 있다.In this embodiment, receiving a user input for selecting the horizontal distance by the user interface and receiving a user input for designating the second camera with respect to the first camera shot image by the user interface The method further comprising the step of, wherein the extracting of the first pan angle with respect to the second camera includes, by the processor, the first camera in response to a user input designating the second camera for the image captured by the first camera. It may be a step of extracting the first pan angle with respect to the second camera from an image captured by the camera.

본 실시예에서, 상기 연동 파라미터는 상기 차이 팬각과 상기 3차원 거리 좌표를 이용한 오일러 회전 변환 행렬일 수 있다.In this embodiment, the interlocking parameter may be an Euler rotation transformation matrix using the difference pan angle and the 3D distance coordinates.

본 실시예에서, 상기 프로세서에 의해, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하는 단계, 상기 프로세서에 의해, 상기 수평거리 및 상기 제1 틸트각에 기초하여 상기 제1 카메라 및 상기 제2 카메라 사이의 제1 수직높이를 산출하는 단계, 상기 프로세서에 의해, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 제2 카메라의 제2 수직높이를 산출하는 단계, 상기 프로세서에 의해, 상기 제1 수직높이 및 상기 제2 수직높이로부터 상기 제1 카메라의 제3 수직높이를 산출하는 단계, 상기 통신 인터페이스에 의해, 상기 제1 카메라로부터 이벤트 정보를 수신하는 단계, 상기 프로세서에 의해, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 제3 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 제1 카메라 좌표 값을 생성하는 단계, 상기 프로세서에 의해, 상기 연동 파라미터를 적용하여 상기 제1 카메라 좌표 값을 상기 제2 카메라의 제2 카메라 좌표 값으로 변환하는 단계, 상기 프로세서에 의해, 상기 제2 카메라 좌표 값을 포함하는 제2 회전 제어 신호를 생성하는 단계, 및 상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제2 회전 제어 신호를 전송하는 단계를 더 포함하고, 상기 제2 수직높이 및 상기 제3 수직높이는 상이할 수 있다.In this embodiment, extracting, by the processor, a first tilt angle with respect to the second camera from the image captured by the first camera, by the processor, the horizontal distance and the first tilt angle calculating a first vertical height between the first camera and the second camera based on a second tilt angle of the second camera extracted from the horizontal distance and the rotation state information by the processor to calculate a second vertical height of the second camera, calculating, by the processor, a third vertical height of the first camera from the first vertical height and the second vertical height, to the communication interface by, receiving event information from the first camera, by the processor, in response to the event information, the horizontal coordinates of the event occurrence location extracted from the first camera captured image, and the third vertical height and the event information generating, by the processor, a first camera coordinate value of the first camera including the vertical coordinates of the event occurrence position extracted from the average event height corresponding to the first camera coordinates by applying the interlocking parameter converting a value into a second camera coordinate value of the second camera, generating, by the processor, a second rotation control signal comprising the second camera coordinate value, and by the communication interface, the second The method may further include transmitting the second rotation control signal to a second camera, wherein the second vertical height and the third vertical height may be different from each other.

본 실시예에서, 상기 제1 카메라 좌표 값은 디지털 PTZ 값이고, 상기 제2 카메라 좌표 값은 아날로그 PTZ 값일 수 있다.In this embodiment, the first camera coordinate value may be a digital PTZ value, and the second camera coordinate value may be an analog PTZ value.

본 실시예에서, 상기 제1 카메라 및 상기 제2 카메라가 동일한 수직높이를 가지고, 상기 프로세서에 의해, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 수직높이를 산출하는 단계, 상기 통신 인터페이스에 의해, 상기 제1 카메라로부터 이벤트 정보를 수신하는 단계, 상기 프로세서에 의해, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 디지털 PTZ 값을 생성하는 단계, 상기 프로세서에 의해, 상기 연동 파라미터를 적용하여 상기 디지털 PTZ 값을 상기 제2 카메라의 아날로그 PTZ 값으로 변환하는 단계, 상기 프로세서에 의해, 상기 아날로그 PTZ 값에 기초하여 제2 회전 제어 신호를 생성하는 단계, 및 상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제2 회전 제어 신호를 전송하는 단계를 더 포함할 수 있다.In this embodiment, the first camera and the second camera have the same vertical height, and based on the second tilt angle of the second camera extracted from the horizontal distance and the rotation state information by the processor, the Calculating a vertical height, receiving event information from the first camera by the communication interface, by the processor, horizontal of the event occurrence position extracted from the first camera captured image in response to the event information generating a digital PTZ value of the first camera including coordinates and vertical coordinates of the event occurrence position extracted from the vertical height and the average event height corresponding to the event information; converting the digital PTZ value to an analog PTZ value of the second camera by applying, generating, by the processor, a second rotation control signal based on the analog PTZ value, and by the communication interface, the The method may further include transmitting the second rotation control signal to a second camera.

본 실시예에서, 상기 제1 카메라 촬영 영상은 제1 특징점 집합을 포함하고, 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송하는 단계 이후에, 상기 통신 인터페이스에 의해, 상기 제2 카메라로부터 제2 카메라 촬영 영상을 수신하는 단계, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 상기 회전 상태 정보에 기초하여 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되면, 상기 프로세서에 의해, 상기 연동 파라미터를 산출하는 단계, 및 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되지 않으면, 상기 사용자 인터페이스에 의해, 사용자 단말에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청하는 단계를 더 포함할 수 있다.In the present embodiment, the first camera-captured image includes a first set of feature points, and after transmitting the first rotation control signal to the second camera, the second camera 2 Receiving a camera-captured image, wherein a second feature point set corresponding to the first feature point set exists in the second camera-captured image, and the first feature point set and the second feature point set are determined based on the rotation state information If there is a match, calculating, by the processor, the interlocking parameter, and the second feature point set corresponding to the first feature point set does not exist in the image captured by the second camera, or the first feature point set and the second feature point set If the set does not match, requesting a user input for controlling the shooting area of the second camera to the user terminal through the user interface may further include.

본 발명의 실시예들에 따르면, 보다 넓은 영역을 촬영하는 어안 카메라를 활용함으로써 이벤트 발생 위치를 빠짐없이 촬영할 수 있고, 고화질 영상을 획득하는 PTZ 카메라를 활용함으로써 이벤트를 보다 상세하게 확인할 수 있다.According to embodiments of the present invention, by using a fisheye camera that captures a wider area, it is possible to photograph an event occurrence location without omission, and by using a PTZ camera that acquires a high-quality image, an event can be confirmed in more detail.

또한, 본 발명의 실시예들에 따르면, 연동 파라미터를 이용하여 어안 카메라의 좌표계와 PTZ 카메라의 좌표계를 연동시킴으로써 이벤트를 보다 정확하게 촬영할 수 있다.In addition, according to embodiments of the present invention, an event can be more accurately captured by linking the coordinate system of the fisheye camera and the coordinate system of the PTZ camera using the interlocking parameter.

또한, 본 발명의 실시예들에 따르면, 연동 파라미터를 적용하는 것만으로 PTZ 카메라가 이벤트를 보다 정확하게 촬영할 수 있으므로, 감시 시스템의 연산량을 감소시켜 자원을 보다 효율적으로 이용할 수 있다.In addition, according to embodiments of the present invention, since the PTZ camera can more accurately capture an event only by applying the interlocking parameter, the amount of computation of the monitoring system can be reduced and resources can be used more efficiently.

따라서, 본 발명의 실시예들에 따르면, 보다 효율적이고 사용자 니즈에 부합하는 감시 시스템을 제공할 수 있다.Accordingly, according to embodiments of the present invention, it is possible to provide a monitoring system that is more efficient and meets user needs.

도 1은 일 실시예에 따른 감시 시스템을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 감시 시스템을 구성하는 복수의 카메라들의 설치 구조를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 감시 시스템을 구성하는 컨트롤러의 구성을 나타내는 블록도이다.
도 4는 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.
도 5 및 도 6은 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 8a 및 도 8b는 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 도면이다.
도 9는 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.
도 10은 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.
도 11은 다른 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 12는 일 실시예에 따른 연동 파라미터 산출을 위한 조건을 설명하기 위한 흐름도이다.
1 is a view for explaining a monitoring system according to an embodiment.
2 is a view for explaining an installation structure of a plurality of cameras constituting a monitoring system according to an embodiment.
3 is a block diagram illustrating a configuration of a controller constituting a monitoring system according to an exemplary embodiment.
4 is a flowchart illustrating a method of calculating an interlocking parameter of a monitoring system according to an embodiment.
5 and 6 are diagrams for explaining a method of calculating an interlocking parameter of a monitoring system according to an embodiment.
7 is a flowchart illustrating a method of operating a monitoring system based on interlocking parameters according to an embodiment.
8A and 8B are diagrams for explaining a method of operating a monitoring system based on interlocking parameters according to an embodiment.
9 is a flowchart illustrating a method of calculating an interlocking parameter of a monitoring system according to another embodiment.
10 is a view for explaining a method of calculating an interlocking parameter of a monitoring system according to another embodiment.
11 is a flowchart illustrating a method of operating a monitoring system based on interlocking parameters according to another embodiment.
12 is a flowchart illustrating a condition for calculating an interlocking parameter according to an embodiment.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following embodiments, terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 다수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the following examples are only used to describe specific examples, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the following examples, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification is present, but one or more It should be understood that this does not preclude the possibility of addition or presence of other features or numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in any number of hardware and/or software configurations that perform specific functions. For example, embodiments of the present invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by control of one or more microprocessors or other control devices. Circuit configurations may be employed. Similar to how components of an embodiment of the invention may be implemented as software programming or software elements, embodiments of the invention may include various algorithms implemented in combinations of data structures, processes, routines, or other programming constructs. , C, C++, Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors. Also, embodiments of the present invention may employ conventional techniques for electronic configuration, signal processing, and/or data processing, and the like. Terms such as mechanism, element, means, and configuration may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in association with a processor or the like.

이하 첨부된 도면들을 참조하여 본 발명의 여러 가지 실시 예를 상세히 설명한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 감시 시스템을 설명하기 위한 도면이다.1 is a view for explaining a monitoring system according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 감시 시스템(1)은 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 네트워크(40), 서버(50), 및 사용자 단말(60)을 포함한다.Referring to FIG. 1 , a surveillance system 1 according to an embodiment includes a fisheye camera 10 , a PTZ camera 20 , a gateway 30 , a network 40 , a server 50 , and a user terminal 60 . includes

감시 시스템(1)은 게이트웨이(30)에서 수집된 어안 카메라(10) 및/또는 PTZ 카메라(20)의 정보가 네트워크(40)를 통해 서버(50)로 전송되면, 관리자가 사용자 단말(60)을 이용하여 서버(50)에 전송된 정보를 모니터링하는 구성을 제공할 수 있다.The monitoring system 1 transmits the information of the fisheye camera 10 and/or the PTZ camera 20 collected by the gateway 30 to the server 50 through the network 40, the administrator to the user terminal 60 It is possible to provide a configuration for monitoring information transmitted to the server 50 using

어안 카메라(10)는 180도 이상의 화각을 가지는 광각 카메라일 수 있다. 감시 시스템(1)은 어안 카메라(10)뿐만 아니라 PTZ 카메라(20)보다 화각이 넓은 다양한 광각 카메라를 포함할 수 있다. 이하에서는, 대표적인 광각 카메라인 어안 카메라(10)를 예로 들어 설명하며, 어안 카메라(10)에 대한 설명은 다양한 광각 카메라에 적용 가능하다.The fisheye camera 10 may be a wide-angle camera having an angle of view of 180 degrees or more. The surveillance system 1 may include not only the fisheye camera 10 but also various wide-angle cameras having a wider angle of view than the PTZ camera 20 . Hereinafter, the fisheye camera 10, which is a representative wide-angle camera, will be described as an example, and the description of the fisheye camera 10 is applicable to various wide-angle cameras.

어안 카메라(10)는 감시 영역 전체를 촬영할 수 있다. 어안 카메라(10)는 PTZ 카메라(20)를 촬영할 수 있다. 즉, 어안 카메라(10)에서 촬영된 원본 영상은 PTZ 카메라(20)를 포함할 수 있고, 광각 영상으로서 다양한 왜곡을 가질 수 있다.The fisheye camera 10 may photograph the entire surveillance area. The fisheye camera 10 may photograph the PTZ camera 20 . That is, the original image captured by the fisheye camera 10 may include the PTZ camera 20 and may have various distortions as a wide-angle image.

PTZ 카메라(20)는 패닝(panning)과 틸팅(tilting)이 가능하며 렌즈의 줌(zoom) 배율이 조절 가능한 카메라일 수 있다. PTZ 카메라(20)는 패닝, 틸팅, 및/또는 줌 배율 조절을 수행함으로써, 감시 영역을 변경할 수 있다.The PTZ camera 20 may be a camera capable of panning and tilting, and a zoom magnification of a lens. The PTZ camera 20 may change the surveillance area by panning, tilting, and/or adjusting the zoom magnification.

PTZ 카메라(20)는 배터리로 구동되는 저전력 카메라일 수 있다. PTZ 카메라(20)는 평상시 슬립 모드를 유지하고, 주기적으로 깨어나 이벤트가 발생하였는지 여부를 체크할 수 있다. PTZ 카메라(20)는 이벤트가 발생한 경우 액티브 모드로 전환되고, 이벤트가 발생하지 않은 경우 다시 슬립 모드로 복귀할 수 있다. 이와 같이, 이벤트가 발생한 경우에만 액티브 모드를 유지함으로써 PTZ 카메라(20)의 전력 소모를 줄일 수 있다.The PTZ camera 20 may be a battery-powered, low-power camera. The PTZ camera 20 may normally maintain a sleep mode and periodically wake up to check whether an event has occurred. The PTZ camera 20 may be switched to the active mode when an event occurs, and return to the sleep mode when an event does not occur. As described above, power consumption of the PTZ camera 20 can be reduced by maintaining the active mode only when an event occurs.

어안 카메라(10) 및/또는 PTZ 카메라(20)는 이벤트를 감지하는 센서를 포함할 수 있다. 이벤트를 감지하는 센서는 외부에 설치될 수도 있다.The fisheye camera 10 and/or the PTZ camera 20 may include a sensor for detecting an event. A sensor for detecting an event may be installed outside.

센서는 감시 또는 보안의 목적으로 센싱 영역에서 이벤트가 발생하는지 여부를 실시간으로 감지할 수 있다. 센서는 이미지 센서, 음향 센서, 적외선 센서, 모션 센서, 가스 센서, 누수 센서, 온도 센서, 습도 센서, 가속도 센서, 자이로 센서, 촉각 센서, 압력 센서, 진동 센서 등을 포함할 수 있다.The sensor may detect in real time whether an event occurs in the sensing area for the purpose of monitoring or security. The sensor may include an image sensor, an acoustic sensor, an infrared sensor, a motion sensor, a gas sensor, a water leak sensor, a temperature sensor, a humidity sensor, an acceleration sensor, a gyro sensor, a tactile sensor, a pressure sensor, a vibration sensor, and the like.

어안 카메라(10)가 이벤트를 감지하면, PTZ 카메라(20)가 이벤트 발생 위치를 촬영할 수 있다. 다시 말해, 어안 카메라(10)를 통해 이벤트 발생 위치를 확인한 후, PTZ 카메라(20)를 통해 이벤트 발생 위치를 고화질로 상세하게 촬영할 수 있다.When the fisheye camera 10 detects an event, the PTZ camera 20 may photograph an event occurrence location. In other words, after confirming the location of the event occurrence through the fisheye camera 10 , the location of the event occurrence may be photographed in detail with high quality through the PTZ camera 20 .

즉, 보다 넓은 영역을 촬영하는 어안 카메라(10)를 활용함으로써 이벤트 발생 위치를 빠짐없이 촬영할 수 있고, 고화질 영상을 획득하는 PTZ 카메라(20)를 활용함으로써 이벤트를 보다 상세하게 확인할 수 있다.That is, by using the fisheye camera 10 that captures a wider area, the event occurrence location can be photographed without omission, and the event can be confirmed in more detail by using the PTZ camera 20 that acquires a high-quality image.

이를 위해, 어안 카메라(10)의 좌표계와 PTZ 카메라(20)의 좌표계를 연동시킬 필요가 있다. 본 발명은 연동 파라미터를 이용하여 어안 카메라(10)의 좌표계와 PTZ 카메라(20)의 좌표계를 연동시킴으로써 이벤트를 보다 정확하게 촬영할 수 있다.To this end, it is necessary to link the coordinate system of the fisheye camera 10 and the coordinate system of the PTZ camera 20 . In the present invention, an event can be more accurately captured by linking the coordinate system of the fisheye camera 10 and the coordinate system of the PTZ camera 20 using the interlocking parameter.

어안 카메라(10) 및/또는 PTZ 카메라(20)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 등 다양한 통신 방식을 이용하여 게이트웨이(30)와 통신할 수 있다. 예를 들어, 어안 카메라(10) 및/또는 PTZ 카메라(20)는 ISM 대역(Industrial Scientific Medical band)의 무선 주파수(Radio Frequency)를 사용하는 저전력 무선 통신 프로토콜에 따라 게이트웨이(30)와 통신할 수 있다.The fisheye camera 10 and/or the PTZ camera 20 includes various communication methods such as wired and wireless Local Area Network (LAN), Wi-Fi, ZigBee, Bluetooth, Near Field Communication, etc. may be used to communicate with the gateway 30 . For example, the fisheye camera 10 and/or the PTZ camera 20 may communicate with the gateway 30 according to a low-power wireless communication protocol using a radio frequency of an Industrial Scientific Medical band (ISM). have.

어안 카메라(10) 및/또는 PTZ 카메라(20)는 하나 이상 구비될 수 있다.One or more fisheye cameras 10 and/or PTZ cameras 20 may be provided.

게이트웨이(30)에서 어안 카메라(10) 및/또는 PTZ 카메라(20)에서 전송된 정보에 기초하여 어안 카메라(10) 및/또는 PTZ 카메라(20)의 상태를 인식할 수 있고, 인식된 어안 카메라(10) 및/또는 PTZ 카메라(20)의 상태에 따라 다른 어안 카메라(10) 및/또는 PTZ 카메라(20) 또는 사용자 단말(60)에 명령 또는 알림을 전송할 수 있다.The gateway 30 may recognize the state of the fisheye camera 10 and/or the PTZ camera 20 based on information transmitted from the fisheye camera 10 and/or the PTZ camera 20 , and the recognized fisheye camera According to the state of (10) and/or the PTZ camera 20 , a command or notification may be transmitted to another fisheye camera 10 and/or the PTZ camera 20 or the user terminal 60 .

게이트웨이(30)는 이더넷(Ethernet), 와이파이, 블루투스 등 다양한 유무선 통신 방식을 이용하여 서버(50)에 정보를 전송할 수도 있고, 서버(50)로부터 명령을 수신할 수도 있다.The gateway 30 may transmit information to the server 50 using various wired/wireless communication methods such as Ethernet, Wi-Fi, and Bluetooth, and may receive commands from the server 50 .

네트워크(40)는 유선 네트워크 또는 무선 네트워크를 포함할 수 있다. 무선 네트워크는 2G(Generation) 또는 3G 셀룰러 통신 시스템, 3GPP(3rd Generation Partnership Project), 4G 통신 시스템, LTE(Long-Term Evolution), WiMAX(World Interoperability for Microwave Access) 등일 수 있다.The network 40 may include a wired network or a wireless network. The wireless network may be a 2G (Generation) or 3G cellular communication system, a 3rd Generation Partnership Project (3GPP), a 4G communication system, Long-Term Evolution (LTE), World Interoperability for Microwave Access (WiMAX), or the like.

서버(50)는 네트워크(40)를 통해 어안 카메라(10), PTZ 카메라(20) 및/또는 게이트웨이(30)로부터 전송된 정보에 기초하여 사용자 단말(60)에 알림을 전송할 수 있고, 사용자 단말(60)로부터 전송된 명령을 어안 카메라(10), PTZ 카메라(20) 및/또는 게이트웨이(30)에 전송할 수 있다.The server 50 may transmit a notification to the user terminal 60 based on information transmitted from the fisheye camera 10 , the PTZ camera 20 and/or the gateway 30 through the network 40 , and the user terminal The command transmitted from 60 may be transmitted to the fisheye camera 10 , the PTZ camera 20 and/or the gateway 30 .

사용자 단말(60)은 서버(50)로부터 전송된 정보를 디스플레이할 수 있고, 저장할 수도 있다. 예를 들어, 사용자 단말(60)은 서버(50)로부터 전송된 알림을 디스플레이할 수 있다. 사용자 단말(60)은 적어도 하나 이상의 프로세서를 포함할 수 있다. 사용자 단말(60)은 마이크로 프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수 있다. 사용자 단말(60)은 개인용 컴퓨터 또는 이동 단말일 수 있다.The user terminal 60 may display and store information transmitted from the server 50 . For example, the user terminal 60 may display a notification transmitted from the server 50 . The user terminal 60 may include at least one processor. The user terminal 60 may be driven in a form included in another hardware device such as a microprocessor or a general-purpose computer system. The user terminal 60 may be a personal computer or a mobile terminal.

사용자 단말(60)은 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30) 및/또는 서버(50)의 동작을 제어하기 위한 사용자 인터페이스를 포함할 수 있다.The user terminal 60 may include a user interface for controlling operations of the fisheye camera 10 , the PTZ camera 20 , the gateway 30 , and/or the server 50 .

본 발명의 실시예들에 따른 감시 시스템(1)은 하나의 물리적 장치로 구현될 수도 있고, 복수의 물리적 장치가 유기적으로 결합되어 구현될 수도 있다. 이를 위해 감시 시스템(1)에 포함된 구성 중 일부는 어느 하나의 물리적 장치로 구현되거나 설치되고, 나머지 일부는 다른 물리적 장치로 구현되거나 설치될 수도 있다. 이때, 어느 하나의 물리적 장치는 서버(50)의 일부로 구현될 수 있고, 다른 물리적 장치는 사용자 단말(60)의 일부로 구현될 수 있다.The monitoring system 1 according to the embodiments of the present invention may be implemented as one physical device, or a plurality of physical devices may be organically combined. To this end, some of the components included in the monitoring system 1 may be implemented or installed as any one physical device, and the remaining parts may be implemented or installed with other physical devices. In this case, any one physical device may be implemented as a part of the server 50 , and the other physical device may be implemented as a part of the user terminal 60 .

한편, 감시 시스템(1)은 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50) 또는 사용자 단말(60)에 내장될 수도 있고, 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50) 또는 사용자 단말(60)과 별개로 구비된 장치에 적용될 수도 있다.On the other hand, the surveillance system 1 may be built in the fisheye camera 10, the PTZ camera 20, the gateway 30, the server 50 or the user terminal 60, the fisheye camera 10, the PTZ camera ( 20), the gateway 30, the server 50, or the user terminal 60 may be applied to a separately provided device.

도 2는 일 실시예에 따른 감시 시스템을 구성하는 복수의 카메라들의 설치 구조를 설명하기 위한 도면이다.2 is a view for explaining an installation structure of a plurality of cameras constituting a monitoring system according to an embodiment.

도 2를 참조하면, 감시 시스템(1)은 복수의 카메라들을 포함할 수 있으며, 복수의 카메라들은 어안 카메라(10) 및 PTZ 카메라(20)를 포함할 수 있다.Referring to FIG. 2 , the surveillance system 1 may include a plurality of cameras, and the plurality of cameras may include a fisheye camera 10 and a PTZ camera 20 .

일 실시예에 따르면, 어안 카메라(10) 및 PTZ 카메라(20)는 상이한 수평선상에 설치될 수 있다. 즉, 어안 카메라(10)와 PTZ 카메라(20)는 상이한 높이에 설치될 수 있다. 따라서, 바닥으로부터 어안 카메라(10)에 이르는 수직높이와, 바닥으로부터 PTZ 카메라(20)에 이르는 수직높이는 상이할 수 있다.According to an embodiment, the fisheye camera 10 and the PTZ camera 20 may be installed on different horizontal lines. That is, the fisheye camera 10 and the PTZ camera 20 may be installed at different heights. Accordingly, the vertical height from the floor to the fisheye camera 10 and the vertical height from the floor to the PTZ camera 20 may be different.

다른 실시예에 따르면, 어안 카메라(10) 및 PTZ 카메라(20)는 동일한 수평선상에 설치될 수 있다. 즉, 어안 카메라(10)와 PTZ 카메라(20)는 동일한 높이에 설치될 수 있다. 따라서, 바닥으로부터 어안 카메라(10)에 이르는 수직높이와, 바닥으로부터 PTZ 카메라(20)에 이르는 수직높이는 동일할 수 있다.According to another embodiment, the fisheye camera 10 and the PTZ camera 20 may be installed on the same horizontal line. That is, the fisheye camera 10 and the PTZ camera 20 may be installed at the same height. Accordingly, the vertical height from the floor to the fisheye camera 10 and the vertical height from the floor to the PTZ camera 20 may be the same.

한편, 어안 카메라(10) 및 PTZ 카메라(20)는 상이한 수직선상에 설치될 수 있다. 즉, 어안 카메라(10)와 PTZ 카메라(20)는 이격될 수 있다. 이에 따라, 어안 카메라(10)는 PTZ 카메라(20)를 촬영할 수 있다. 어안 카메라(10)와 PTZ 카메라(20) 사이의 수평거리는 미리 정해질 수 있다.Meanwhile, the fisheye camera 10 and the PTZ camera 20 may be installed on different vertical lines. That is, the fisheye camera 10 and the PTZ camera 20 may be spaced apart. Accordingly, the fisheye camera 10 may photograph the PTZ camera 20 . A horizontal distance between the fisheye camera 10 and the PTZ camera 20 may be predetermined.

한편, 감시 시스템(1)은 수평거리만큼 이격된 제1 카메라 및 제2 카메라와, 제1 카메라 촬영 영상 및 제2 카메라 촬영 영상에 기초하여 감시 시스템(1)의 전반적인 동작을 제어하는 컨트롤러(100)를 포함할 수 있다. 제1 카메라는 제2 카메라보다 화각이 넓고 제2 카메라를 촬영할 수 있다. 제1 카메라는 어안 카메라(10)일 수 있다. 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라일 수 있다. 제2 카메라는 PTZ 카메라(20)일 수 있다.On the other hand, the monitoring system 1 includes a first camera and a second camera spaced apart by a horizontal distance, and a controller 100 for controlling the overall operation of the monitoring system 1 based on the first camera and the second camera captured image. ) may be included. The first camera may have a wider angle of view than the second camera and may photograph the second camera. The first camera may be a fisheye camera 10 . The second camera may be a camera capable of adjusting a rotation direction or a zoom magnification. The second camera may be the PTZ camera 20 .

컨트롤러(100)는 제1 카메라의 좌표계와 제2 카메라의 좌표계를 연동시킬 수 있다.The controller 100 may link the coordinate system of the first camera and the coordinate system of the second camera.

예를 들어, 제1 카메라의 좌표계와 제2 카메라의 좌표계를 3차원 직교 좌표계로 파악하는 경우, 각 좌표계의 XY 평면은 감시 영역의 천정 및 바닥과 평행하고, 각 좌표계의 YZ 평면 및 ZX 평면은 감시 영역의 천정과 바닥을 잇는 수직선과 평행할 수 있다. 이때, 컨트롤러(100)는 제1 카메라의 X 축(

Figure 112017073840677-pat00001
), 제1 카메라의 Y 축(
Figure 112017073840677-pat00002
), 제1 카메라의 Z 축(
Figure 112017073840677-pat00003
)이 각각 제2 카메라의 X 축(
Figure 112017073840677-pat00004
), 제2 카메라의 Y 축(
Figure 112017073840677-pat00005
), 제2 카메라의 Z 축(
Figure 112017073840677-pat00006
)과 동일한 방향을 향하도록 즉, 연동되도록 제2 카메라를 회전시키거나 줌 배율을 조절시킬 수 있다.For example, if the coordinate system of the first camera and the coordinate system of the second camera are identified as a three-dimensional Cartesian coordinate system, the XY plane of each coordinate system is parallel to the ceiling and floor of the monitoring area, and the YZ plane and ZX plane of each coordinate system are It may be parallel to a vertical line connecting the ceiling and floor of the monitoring area. At this time, the controller 100 controls the X axis (
Figure 112017073840677-pat00001
), the Y axis of the first camera (
Figure 112017073840677-pat00002
), the Z axis of the first camera (
Figure 112017073840677-pat00003
) is the X axis of the second camera (
Figure 112017073840677-pat00004
), the Y axis of the second camera (
Figure 112017073840677-pat00005
), the Z axis of the second camera (
Figure 112017073840677-pat00006
) to face the same direction, that is, to be linked, the second camera may be rotated or the zoom magnification may be adjusted.

이처럼 제1 카메라의 좌표계와 제2 카메라의 좌표계가 연동되면, 제1 카메라를 통해 감지된 이벤트를 제2 카메라를 통해 정확하게 촬영할 수 있으므로, 보다 효율적이고 사용자 니즈에 부합하는 감시 시스템(1)을 제공할 수 있다.In this way, when the coordinate system of the first camera and the coordinate system of the second camera are interlocked, the event detected by the first camera can be accurately captured through the second camera, thereby providing a monitoring system 1 that is more efficient and meets user needs can do.

컨트롤러(100)는 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50), 및/또는 사용자 단말(60)에 구현될 수 있다. 컨트롤러(100)는 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50), 또는 사용자 단말(60)에 전부 구현될 수 있다.The controller 100 may be implemented in the fisheye camera 10 , the PTZ camera 20 , the gateway 30 , the server 50 , and/or the user terminal 60 . The controller 100 may be all implemented in the fisheye camera 10 , the PTZ camera 20 , the gateway 30 , the server 50 , or the user terminal 60 .

한편, 컨트롤러(100)는 어안 카메라(10), PTZ 카메라(20), 게이트웨이(30), 서버(50), 및/또는 사용자 단말(60)에 각각 일부가 구현될 수 있다.Meanwhile, a part of the controller 100 may be implemented in each of the fisheye camera 10 , the PTZ camera 20 , the gateway 30 , the server 50 , and/or the user terminal 60 .

이하에서는, 도 3을 참조하며 감시 시스템(1)을 구성하는 컨트롤러(100)의 구성에 대하여 상세하게 설명한다.Hereinafter, the configuration of the controller 100 constituting the monitoring system 1 will be described in detail with reference to FIG. 3 .

도 3은 일 실시예에 따른 감시 시스템을 구성하는 컨트롤러의 구성을 나타내는 블록도이다.3 is a block diagram illustrating a configuration of a controller constituting a monitoring system according to an exemplary embodiment.

도 3을 참조하면, 일 실시예에 따른 감시 시스템(1)을 구성하는 컨트롤러(100)는 통신 인터페이스(110), 사용자 인터페이스(130), 프로세서(150), 및 메모리(170)를 포함한다.Referring to FIG. 3 , the controller 100 constituting the monitoring system 1 according to an embodiment includes a communication interface 110 , a user interface 130 , a processor 150 , and a memory 170 .

통신 인터페이스(110)는 제1 카메라, 제2 카메라, 게이트웨이(30), 서버(50), 및/또는 사용자 단말(60)과 통신한다.The communication interface 110 communicates with the first camera, the second camera, the gateway 30 , the server 50 , and/or the user terminal 60 .

통신 인터페이스(110)는 제1 카메라로부터 제1 카메라 촬영 영상 및/또는 이벤트 정보를 수신할 수 있다.The communication interface 110 may receive the first camera captured image and/or event information from the first camera.

제1 카메라 촬영 영상은 감시 영역 전체를 촬영한 저화질 영상일 수 있다. 제1 카메라 촬영 영상은 제1 특징점 집합을 포함할 수 있다. 제1 특징점 집합은 제1 카메라 촬영 영상의 중심에 존재할 수 있다.The first camera captured image may be a low-quality image obtained by capturing the entire monitoring area. The first camera-captured image may include a first set of feature points. The first set of feature points may exist in the center of the image captured by the first camera.

이벤트 정보는 카메라 식별 정보, 센서 식별 정보, 이벤트 촬영 영상, 이벤트 촬영 시간, 이벤트 식별 정보 등일 수 있다.The event information may be camera identification information, sensor identification information, an event photographed image, an event photographing time, event identification information, and the like.

통신 인터페이스(110)는 제2 카메라에 제1 회전 제어 신호를 전송하고, 제2 카메라로부터 회전 상태 정보를 수신할 수 있다.The communication interface 110 may transmit a first rotation control signal to the second camera and receive rotation state information from the second camera.

제1 회전 제어 신호 및 회전 상태 정보는 각각 회전 각도 및/또는 줌 배율을 포함할 수 있다. 회전 각도는 팬각 및/또는 틸트각을 포함할 수 있다.The first rotation control signal and the rotation state information may include a rotation angle and/or a zoom magnification, respectively. The rotation angle may include a pan angle and/or a tilt angle.

통신 인터페이스(110)는 제2 카메라로부터 제2 카메라 촬영 영상을 수신할 수 있다.The communication interface 110 may receive an image captured by the second camera from the second camera.

제2 카메라 촬영 영상은 감시 영역 일부를 촬영한 고화질 영상일 수 있다. 제2 카메라 촬영 영상은 제2 특징점 집합을 포함할 수 있다. 제2 특징점 집합은 제2 카메라 촬영 영상의 중심에 존재할 수 있다.The second camera-captured image may be a high-quality image obtained by capturing a portion of the surveillance area. The second camera-captured image may include a second set of feature points. The second set of feature points may exist in the center of the image captured by the second camera.

제1 카메라 촬영 영상의 제1 특징점 집합은 제2 카메라 촬영 영상의 제2 특징점 집합과 대응될 수 있다. 예를 들어, 감시 영역의 바닥에 특징점 집합이 존재하고, 제1 카메라가 특징점 집합을 마주보도록 감시 영역의 천정에 설치되고, 제2 카메라가 제1 카메라와 소정 수평거리 이격되도록 감시 영역의 천정에 설치된 경우, 제1 카메라와 제2 카메라는 동일한 특징점 집합을 각각 상이한 각도에서 촬영할 수 있다.The first set of feature points of the image captured by the first camera may correspond to the set of second features of the image captured by the second camera. For example, a set of feature points is present at the bottom of the surveillance area, the first camera is installed on the ceiling of the surveillance area to face the set of features, and the second camera is located on the ceiling of the surveillance area to be spaced apart from the first camera by a predetermined horizontal distance. When installed, the first camera and the second camera may photograph the same set of feature points at different angles, respectively.

특징점 집합은 2차원 모양 또는 3차원 구조를 포함할 수 있다. 특징점 집합은 미리 정해질 수 있고, 변경될 수 있다.The feature point set may include a two-dimensional shape or a three-dimensional structure. The feature point set may be predetermined or may be changed.

사용자 인터페이스(130)는 제2 카메라의 촬영 영역 제어를 위한 사용자 입력, 제1 카메라 및 제2 카메라 사이의 수평거리를 선택하는 사용자 입력, 및 제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력 중 적어도 하나를 수신할 수 있다.The user interface 130 provides a user input for controlling a shooting area of the second camera, a user input for selecting a horizontal distance between the first camera and the second camera, and a user designating a second camera for the image captured by the first camera. At least one of the inputs may be received.

제2 카메라의 촬영 영역 제어를 위한 사용자 입력은 회전 각도 및/또는 줌 배율을 포함할 수 있다.The user input for controlling the capturing area of the second camera may include a rotation angle and/or a zoom magnification.

제1 카메라 및 제2 카메라 사이의 수평거리를 선택하는 사용자 입력은 소정 수평거리를 포함할 수 있다. 즉, 제1 카메라 및 제2 카메라 사이의 수평거리는 사용자 입력에 의해 설정 또는 변경될 수 있다.A user input for selecting a horizontal distance between the first camera and the second camera may include a predetermined horizontal distance. That is, the horizontal distance between the first camera and the second camera may be set or changed by a user input.

제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력은 제1 카메라 촬영 영상에서 하나의 지점을 선택하는 사용자 입력일 수 있다. 제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력에 따라 제1 카메라 촬영 영상에서의 제2 카메라에 대응하는 좌표 값이 결정될 수 있다.The user input for designating the second camera with respect to the image captured by the first camera may be a user input for selecting one point in the image captured by the first camera. A coordinate value corresponding to the second camera in the image captured by the first camera may be determined according to a user input for designating a second camera with respect to the image captured by the first camera.

제1 카메라 촬영 영상에서의 제2 카메라에 대응하는 좌표 값은 디지털 PTZ 값일 수 있다. 디지털 PTZ 값은 디지털 팬각, 디지털 틸트각, 및 디지털 줌 배율 중 적어도 하나를 포함할 수 있다.A coordinate value corresponding to the second camera in the image captured by the first camera may be a digital PTZ value. The digital PTZ value may include at least one of a digital pan angle, a digital tilt angle, and a digital zoom factor.

사용자 인터페이스(130)는 특징점 집합을 선택하는 사용자 입력을 수신할 수 있다.The user interface 130 may receive a user input for selecting a feature point set.

따라서, 특징점 집합은 사용자 입력에 따라 설정되거나 변경될 수 있다.Accordingly, the feature point set may be set or changed according to a user input.

사용자 인터페이스(130)는 제2 카메라의 촬영 영역 제어를 위한 사용자 입력 요청을 출력할 수 있다. 예를 들어, 사용자 인터페이스(130)는 사용자 단말(60)에 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청할 수 있다. 제2 카메라의 촬영 영역 제어를 위한 사용자 입력 요청은 제2 카메라가 특징점 집합을 마주보도록 제2 카메라의 촬영 영역을 제어하라는 알림을 포함할 수 있다.The user interface 130 may output a user input request for controlling the capturing area of the second camera. For example, the user interface 130 may request a user input for controlling the capturing area of the second camera from the user terminal 60 . The user input request for controlling the capturing area of the second camera may include a notification to control the capturing area of the second camera so that the second camera faces the set of feature points.

프로세서(150)는 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 팬각(pan angle)을 추출하고, 사용자 입력에 기초하여 제1 회전 제어 신호를 생성하고, 제1 팬각 및 회전 상태 정보로부터 추출된 제2 카메라의 제2 팬각 사이의 차이 팬각(

Figure 112017073840677-pat00007
)을 산출하고, 제1 카메라 및 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표(
Figure 112017073840677-pat00008
)를 산출하고, 차이 팬각(
Figure 112017073840677-pat00009
) 및 3차원 거리 좌표(
Figure 112017073840677-pat00010
)에 따른 연동 파라미터를 산출한다.The processor 150 extracts a first pan angle with respect to the second camera from the image captured by the first camera, generates a first rotation control signal based on a user input, and extracts the first pan angle and rotation state information The difference between the second pan angles of the second camera
Figure 112017073840677-pat00007
), and three-dimensional distance coordinates representing the distance between the first camera and the second camera (
Figure 112017073840677-pat00008
) is calculated, and the difference pan angle (
Figure 112017073840677-pat00009
) and three-dimensional distance coordinates (
Figure 112017073840677-pat00010
) to calculate the interlocking parameters.

제1 팬각은, 제1 카메라 촬영 영상의 기준선으로부터, 제1 카메라 촬영 영상의 중심과 제1 카메라 촬영 영상의 제2 카메라를 잇는 직선이 이루는 수평적인 각도를 의미한다. 예를 들어, 제1 팬각은 제1 카메라의 3차원 직교 좌표계의 XY 평면 상에서 X 축(

Figure 112017073840677-pat00011
)으로부터 제1 카메라의 중심과 제2 카메라의 중심을 잇는 직선이 이루는 각도일 수 있다.The first pan angle means a horizontal angle formed by a straight line connecting the center of the image captured by the first camera and the second camera of the image captured by the first camera from the reference line of the image captured by the first camera. For example, the first pan angle is the X axis (
Figure 112017073840677-pat00011
) may be an angle formed by a straight line connecting the center of the first camera and the center of the second camera.

프로세서(150)는 제1 카메라 촬영 영상에 대하여 제2 카메라를 지정하는 사용자 입력에 대응하여 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 팬각을 추출할 수 있다.The processor 150 may extract a first pan angle with respect to the second camera from the image captured by the first camera in response to a user input for designating the second camera with respect to the image captured by the first camera.

한편, 프로세서(150)는 제1 카메라 촬영 영상에서 제2 카메라를 자동으로 인식하는 알고리즘을 적용함으로써, 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 팬각을 추출할 수 있다.Meanwhile, the processor 150 may extract the first pan angle with respect to the second camera from the image captured by the first camera by applying an algorithm for automatically recognizing the second camera in the image captured by the first camera.

프로세서(150)는 제2 카메라의 촬영 영역 제어를 위한 사용자 입력에 기초하여 제1 회전 제어 신호를 생성할 수 있다.The processor 150 may generate a first rotation control signal based on a user input for controlling the capturing area of the second camera.

제1 회전 제어 신호는 PTZ 카메라(20)의 절대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제1 회전 제어 신호를 수신한 PTZ 카메라(20)는 현재의 회전 각도 및/또는 줌 배율과 무관하게, 제1 회전 제어 신호에 포함된 회전 각도 및/또는 줌 배율과 동일하도록 회전 각도 및/또는 줌 배율을 조절할 수 있다.The first rotation control signal may include an absolute rotation angle and/or a zoom magnification of the PTZ camera 20 . At this time, the PTZ camera 20 receiving the first rotation control signal rotates the rotation angle and/or zoom ratio to be the same as the rotation angle and/or zoom factor included in the first rotation control signal, regardless of the current rotation angle and/or zoom magnification. / or you can adjust the zoom factor.

한편, 제1 회전 제어 신호는 PTZ 카메라(20)의 상대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제1 회전 제어 신호를 수신한 PTZ 카메라(20)는 현재의 회전 각도 및/또는 줌 배율을 기준으로, 제1 회전 제어 신호에 포함된 상대적인 회전 각도 및/또는 줌 배율만큼 회전 각도 및/또는 줌 배율을 조절할 수 있다.Meanwhile, the first rotation control signal may include a relative rotation angle and/or a zoom magnification of the PTZ camera 20 . At this time, the PTZ camera 20 that has received the first rotation control signal rotates by the relative rotation angle and/or zoom factor included in the first rotation control signal based on the current rotation angle and/or zoom factor. Alternatively, you can adjust the zoom magnification.

프로세서(150)는 회전 상태 정보로부터 제2 카메라의 제2 팬각을 추출할 수 있다. 제2 팬각은, 제2 카메라의 기준선으로부터 제2 카메라가 제1 회전 제어 신호에 대응하여 물리적으로 패닝한 각도를 의미한다. 예를 들어, 제2 팬각은 제2 카메라의 3차원 직교 좌표계의 XY 평면 상에서 X 축(

Figure 112017073840677-pat00012
)으로부터 제2 카메라가 패닝을 종료한 지점에 이르는 각도일 수 있다.The processor 150 may extract the second pan angle of the second camera from the rotation state information. The second pan angle means an angle physically panned by the second camera in response to the first rotation control signal from the reference line of the second camera. For example, the second pan angle is the X axis (
Figure 112017073840677-pat00012
) to the point at which the second camera finishes panning.

회전 상태 정보는 제2 카메라의 아날로그 PTZ 값을 포함할 수 있다. 아날로그 PTZ 값은 아날로그 팬각, 아날로그 틸트각, 및 아날로그 줌 배율 중 적어도 하나를 포함할 수 있다.The rotation state information may include an analog PTZ value of the second camera. The analog PTZ value may include at least one of an analog pan angle, an analog tilt angle, and an analog zoom factor.

제1 팬각 및 제2 팬각은 각각 0도 이상 360도 이하일 수 있다.The first fan angle and the second fan angle may be 0 degrees or more and 360 degrees or less, respectively.

프로세서(150)는 제1 팬각 및 제2 팬각 사이의 차이 팬각(

Figure 112017073840677-pat00013
)을 산출할 수 있다. 즉, 프로세서(150)는 디지털 PTZ 값과 아날로그 PTZ 값 사이의 차이 값을 산출할 수 있다.The processor 150 determines the difference fan angle between the first fan angle and the second fan angle (
Figure 112017073840677-pat00013
) can be calculated. That is, the processor 150 may calculate a difference value between the digital PTZ value and the analog PTZ value.

프로세서(150)는 제1 카메라 및 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표(

Figure 112017073840677-pat00014
)를 산출할 수 있다.The processor 150 is a three-dimensional distance coordinate indicating the distance between the first camera and the second camera (
Figure 112017073840677-pat00014
) can be calculated.

제1 카메라의 좌표계와 제2 카메라의 좌표계가 3차원 직교 좌표계인 경우, 3차원 거리 좌표(

Figure 112017073840677-pat00015
)는 제1 카메라의 X 좌표 값과 제2 카메라의 X 좌표 값의 차이, 제1 카메라의 Y 좌표 값과 제2 카메라의 Y 좌표 값의 차이, 및 제1 카메라의 Z 좌표 값과 제2 카메라의 Z 좌표 값의 차이로 구성될 수 있다.When the coordinate system of the first camera and the coordinate system of the second camera are the three-dimensional Cartesian coordinate system, the three-dimensional distance coordinate (
Figure 112017073840677-pat00015
) is the difference between the X coordinate value of the first camera and the X coordinate value of the second camera, the difference between the Y coordinate value of the first camera and the Y coordinate value of the second camera, and the Z coordinate value of the first camera and the second camera can be composed of the difference in the Z coordinate values of .

예를 들어, 제1 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제1 카메라의 중앙의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다. 제2 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제2 카메라의 렌즈의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다.For example, the X coordinate value, Y coordinate value, and Z coordinate value of the first camera may be the X coordinate value, Y coordinate value, and Z coordinate value of the center of the first camera, respectively. The X coordinate value, Y coordinate value, and Z coordinate value of the second camera may be the X coordinate value, Y coordinate value, and Z coordinate value of the lens of the second camera, respectively.

한편, 제1 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제1 카메라 촬영 영상의 중심의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다. 제2 카메라의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값은 각각 제2 카메라 촬영 영상의 중심의 X 좌표 값, Y 좌표 값, 및 Z 좌표 값일 수 있다.Meanwhile, the X coordinate value, the Y coordinate value, and the Z coordinate value of the first camera may be the X coordinate value, the Y coordinate value, and the Z coordinate value of the center of the image captured by the first camera, respectively. The X coordinate value, Y coordinate value, and Z coordinate value of the second camera may be an X coordinate value, a Y coordinate value, and a Z coordinate value of the center of the image captured by the second camera, respectively.

프로세서(150)는 차이 팬각(

Figure 112017073840677-pat00016
) 및 3차원 거리 좌표(
Figure 112017073840677-pat00017
)에 따른 연동 파라미터를 산출할 수 있다. 연동 파라미터는 어안 카메라(10)의 좌표계로부터 PTZ 카메라(20)의 좌표계를 획득하기 위해 필요한 파라미터를 의미한다. 연동 파라미터는 차이 팬각(
Figure 112017073840677-pat00018
)과 3차원 거리 좌표(
Figure 112017073840677-pat00019
)를 이용한 오일러 회전 변환 행렬일 수 있다.The processor 150 determines the difference pan angle (
Figure 112017073840677-pat00016
) and three-dimensional distance coordinates (
Figure 112017073840677-pat00017
) according to the interlocking parameters can be calculated. The interlocking parameter means a parameter necessary to obtain the coordinate system of the PTZ camera 20 from the coordinate system of the fisheye camera 10 . The interlocking parameter is the difference pan angle (
Figure 112017073840677-pat00018
) and three-dimensional distance coordinates (
Figure 112017073840677-pat00019
) may be an Euler rotation transformation matrix using

제1 카메라의 수직높이와 제2 카메라의 수직높이가 상이한 경우, 프로세서(150)는 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하고, 수평거리 및 제1 틸트각에 기초하여 제1 카메라 및 제2 카메라 사이의 제1 수직높이를 산출하고, 수평거리 및 회전 상태 정보로부터 추출된 제2 카메라의 제2 틸트각에 기초하여 제2 카메라의 제2 수직높이를 산출하고, 제1 수직높이 및 제2 수직높이로부터 제1 카메라의 제3 수직높이를 산출하고, 이벤트 정보에 대응하여 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 제3 수직높이와 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 제1 카메라의 제1 카메라 좌표 값을 생성하고, 연동 파라미터를 적용하여 제1 카메라 좌표 값을 제2 카메라의 제2 카메라 좌표 값으로 변환하고, 제2 카메라 좌표 값에 기초하여 제2 회전 제어 신호를 생성할 수 있다.When the vertical height of the first camera and the vertical height of the second camera are different, the processor 150 extracts a first tilt angle with respect to the second camera from the image captured by the first camera, and the horizontal distance and the first A first vertical height between the first camera and the second camera is calculated based on the tilt angle, and a second vertical height of the second camera is calculated based on the second tilt angle of the second camera extracted from the horizontal distance and rotation state information. , calculates a third vertical height of the first camera from the first vertical height and the second vertical height, and the horizontal coordinates and third vertical height of the event occurrence location extracted from the first camera captured image in response to the event information and the first camera coordinate value of the first camera including the vertical coordinate of the event occurrence location extracted from the average event height corresponding to the event information, and the first camera coordinate value of the second camera by applying the interlocking parameter It may be converted into two camera coordinate values, and a second rotation control signal may be generated based on the second camera coordinate values.

프로세서(150)는 제1 카메라 촬영 영상으로부터 제2 카메라에 대한 제1 틸트각을 추출할 수 있다. 제1 틸트각은, 제1 카메라 촬영 영상의 기준선으로부터, 제1 카메라 촬영 영상의 중심과 제1 카메라 촬영 영상의 제2 카메라를 잇는 직선이 이루는 수직적인 각도를 의미한다. 예를 들어, 제1 틸트각은 제1 카메라의 3차원 직교 좌표계의 XY 평면으로부터 제1 카메라의 중심과 제2 카메라의 중심을 잇는 직선이 이루는 Z 축(

Figure 112017073840677-pat00020
) 방향의 각도일 수 있다.The processor 150 may extract a first tilt angle with respect to the second camera from the image captured by the first camera. The first tilt angle refers to a vertical angle formed by a straight line connecting the center of the image captured by the first camera and the second camera of the image captured by the first camera from the reference line of the image captured by the first camera. For example, the first tilt angle is the Z-axis (
Figure 112017073840677-pat00020
) may be an angle of the direction.

프로세서(150)는 제1 카메라와 제2 카메라 사이의 수평거리와 제1 틸트각에 삼각 함수를 적용함으로써, 제1 카메라와 제2 카메라 사이의 제1 수직높이를 산출할 수 있다.The processor 150 may calculate the first vertical height between the first camera and the second camera by applying a trigonometric function to the first tilt angle and the horizontal distance between the first camera and the second camera.

프로세서(150)는 회전 상태 정보로부터 제2 카메라의 제2 틸트각을 추출할 수 있다. 제2 틸트각은, 제2 카메라의 기준선으로부터 제2 카메라가 제1 회전 제어 신호에 대응하여 물리적으로 틸팅한 각도를 의미한다. 예를 들어, 제2 틸트각은 제2 카메라의 3차원 직교 좌표계의 XY 평면으로부터 제2 카메라가 틸팅을 종료한 지점에 이르는 Z 축(

Figure 112017073840677-pat00021
) 방향의 각도일 수 있다.The processor 150 may extract a second tilt angle of the second camera from the rotation state information. The second tilt angle means an angle at which the second camera physically tilts in response to the first rotation control signal from the reference line of the second camera. For example, the second tilt angle is the Z axis (
Figure 112017073840677-pat00021
) may be an angle of the direction.

프로세서(150)는 제1 카메라와 제2 카메라 사이의 수평거리와 제2 틸트각에 삼각 함수를 적용함으로써, 바닥으로부터 제2 카메라에 이르는 제2 수직높이를 산출할 수 있다.The processor 150 may calculate a second vertical height from the floor to the second camera by applying a trigonometric function to the horizontal distance between the first camera and the second camera and the second tilt angle.

프로세서(150)는 제1 수직높이와 제2 수직높이를 더하여 바닥으로부터 제1 카메라에 이르는 제3 수직높이를 산출할 수 있다.The processor 150 may calculate the third vertical height from the floor to the first camera by adding the first vertical height and the second vertical height.

프로세서(150)는 센서 등으로부터 전송된 이벤트 정보에 대응하여 제1 카메라 촬영 영상으로부터 이벤트 발생 위치의 수평 좌표를 추출할 수 있다. 예를 들어, 프로세서(150)는 제1 카메라 촬영 영상에 제1 카메라의 3차원 직교 좌표를 적용하여 이벤트 발생 위치의 X 좌표 값 및 Y 좌표 값을 추출할 수 있다.The processor 150 may extract the horizontal coordinates of the event occurrence location from the first camera-captured image in response to event information transmitted from a sensor or the like. For example, the processor 150 may extract the X coordinate value and the Y coordinate value of the event occurrence location by applying the 3D Cartesian coordinates of the first camera to the image captured by the first camera.

프로세서(150)는 앞서 산출한 제3 수직높이와 평균 이벤트 높이인 제4 수직높이의 차이로부터 이벤트 발생 위치의 수직 좌표를 추출할 수 있다. 이벤트 발생 위치의 수직 좌표는 제1 카메라의 3차원 직교 좌표에서 Z 좌표 값일 수 있다.The processor 150 may extract the vertical coordinates of the event occurrence position from the difference between the previously calculated third vertical height and the fourth vertical height that is the average event height. The vertical coordinate of the event occurrence location may be a Z coordinate value in 3D Cartesian coordinates of the first camera.

평균 이벤트 높이는 이벤트 정보로부터 추출될 수 있다. 예를 들어, 평균 이벤트 높이는 이벤트 식별 정보로부터 추출될 수 있다.The average event height may be extracted from event information. For example, the average event height may be extracted from event identification information.

이벤트 발생 위치의 수평 좌표 및 수직 좌표는 제1 카메라 좌표 값을 구성할 수 있다. 제1 카메라 좌표 값은 디지털 PTZ 값일 수 있다.The horizontal coordinates and vertical coordinates of the event occurrence location may constitute a first camera coordinate value. The first camera coordinate value may be a digital PTZ value.

프로세서(150)는 제1 카메라 좌표 값에 연동 파라미터를 적용하여 제2 카메라의 제2 카메라 좌표 값을 산출할 수 있다. 이때, 프로세서(150)는 제1 카메라 좌표 값과 연동 파라미터를 행렬 곱셈하여 제2 카메라 좌표 값을 산출할 수 있다. 제2 카메라 좌표 값은 아날로그 PTZ 값일 수 있다. 즉, 프로세서(150)는 디지털 PTZ 값에 연동 파라미터를 적용하여 아날로그 PTZ 값을 생성할 수 있다.The processor 150 may calculate the second camera coordinate value of the second camera by applying the linkage parameter to the first camera coordinate value. In this case, the processor 150 may calculate a second camera coordinate value by matrix-multiplying the first camera coordinate value and the interlocking parameter. The second camera coordinate value may be an analog PTZ value. That is, the processor 150 may generate an analog PTZ value by applying an interlocking parameter to the digital PTZ value.

프로세서(150)는 제2 카메라 좌표 값에 기초하여 제2 회전 제어 신호를 생성할 수 있다.The processor 150 may generate a second rotation control signal based on the second camera coordinate value.

제2 회전 제어 신호는 제2 카메라의 절대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제2 회전 제어 신호를 수신한 제2 카메라는 현재의 회전 각도 및/또는 줌 배율과 무관하게, 제2 회전 제어 신호에 포함된 회전 각도 및/또는 줌 배율과 동일하도록 회전 각도 및/또는 줌 배율을 조절할 수 있다.The second rotation control signal may include an absolute rotation angle and/or a zoom factor of the second camera. At this time, the second camera that has received the second rotation control signal rotates angle and/or so as to be the same as the rotation angle and/or zoom magnification included in the second rotation control signal, regardless of the current rotation angle and/or zoom magnification. You can adjust the zoom factor.

한편, 제2 회전 제어 신호는 제2 카메라의 상대적인 회전 각도 및/또는 줌 배율을 포함할 수 있다. 이때, 제2 회전 제어 신호를 수신한 제2 카메라는 현재의 회전 각도 및/또는 줌 배율을 기준으로, 제2 회전 제어 신호에 포함된 상대적인 회전 각도 및/또는 줌 배율만큼 회전 각도 및/또는 줌 배율을 조절할 수 있다.Meanwhile, the second rotation control signal may include a relative rotation angle and/or zoom magnification of the second camera. In this case, the second camera receiving the second rotation control signal rotates and/or zooms by the relative rotation angle and/or zoom factor included in the second rotation control signal based on the current rotation angle and/or zoom magnification. You can adjust the magnification.

이처럼, 제1 카메라의 좌표계와 제2 카메라의 좌표계를 연동시키는 경우, 연동 파라미터를 적용하는 것만으로 제2 카메라가 이벤트를 보다 정확하게 촬영할 수 있으므로, 프로세서(150)의 연산량을 감소시켜 자원을 보다 효율적으로 이용할 수 있다.As such, when the coordinate system of the first camera and the coordinate system of the second camera are interlocked, the second camera can more accurately capture the event only by applying the interlocking parameter, so the amount of computation of the processor 150 is reduced to use resources more efficiently. is available as

한편, 제1 카메라 및 제2 카메라가 동일한 수직높이를 가지는 경우, 프로세서(150)는 수평거리 및 회전 상태 정보로부터 추출된 제2 카메라의 제2 틸트각에 기초하여 수직높이를 산출하고, 이벤트 정보에 대응하여 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 수직높이와 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 제1 카메라의 디지털 PTZ 값을 생성하고, 연동 파라미터를 적용하여 디지털 PTZ 값을 제2 카메라의 아날로그 PTZ 값으로 변환하고, 아날로그 PTZ 값을 포함하는 제2 회전 제어 신호를 생성할 수 있다.On the other hand, when the first camera and the second camera have the same vertical height, the processor 150 calculates the vertical height based on the second tilt angle of the second camera extracted from the horizontal distance and rotation state information, and event information To generate a digital PTZ value of the first camera including the horizontal coordinate and vertical height of the event occurrence location extracted from the first camera captured image, and the vertical coordinate of the event occurrence location extracted from the average event height corresponding to the event information and convert the digital PTZ value to the analog PTZ value of the second camera by applying the interlocking parameter, and generate a second rotation control signal including the analog PTZ value.

이하에서는 앞서 제1 카메라의 수직높이와 제2 카메라의 수직높이가 상이한 경우에 대한 설명과 동일한 설명은 생략하거나 간략히 한다.Hereinafter, the same description as that of the case where the vertical height of the first camera is different from the vertical height of the second camera will be omitted or simplified.

프로세서(150)는 제1 카메라와 제2 카메라 사이의 수평거리와 제2 틸트각에 삼각 함수를 적용함으로써, 바닥으로부터 제2 카메라에 이르는 수직높이를 산출할 수 있다. 이때, 바닥으로부터 제2 카메라에 이르는 수직높이는 바닥으로부터 제1 카메라에 이르는 수직높이와 동일하다.The processor 150 may calculate a vertical height from the floor to the second camera by applying a trigonometric function to the horizontal distance between the first camera and the second camera and the second tilt angle. In this case, the vertical height from the floor to the second camera is the same as the vertical height from the floor to the first camera.

프로세서(150)는 앞서 산출한 수직높이와 평균 이벤트 높이의 차이로부터 이벤트 발생 위치의 수직 좌표를 추출할 수 있다.The processor 150 may extract the vertical coordinates of the event occurrence location from the difference between the previously calculated vertical height and the average event height.

프로세서(150)는 이벤트 발생 위치의 수평 좌표 및 수직 좌표로 구성된 제1 카메라의 디지털 PTZ 값에 연동 파라미터를 적용하여 제2 카메라의 아날로그 PTZ 값을 산출할 수 있다.The processor 150 may calculate the analog PTZ value of the second camera by applying the interlocking parameter to the digital PTZ value of the first camera composed of horizontal and vertical coordinates of the event occurrence location.

이처럼, 제1 카메라 및 제2 카메라가 동일한 수직높이를 가지는 경우에는 제1 카메라의 수직높이와 제2 카메라의 수직높이가 상이한 경우보다 간단한 연산을 통해 제1 카메라의 좌표계와 제2 카메라의 좌표계를 연동시킬 수 있으므로, 보다 효율적이고 정확하게 고화질 이벤트 영상을 획득할 수 있다.As such, when the first camera and the second camera have the same vertical height, the coordinate system of the first camera and the coordinate system of the second camera are calculated through a simpler operation than when the vertical height of the first camera and the vertical height of the second camera are different. Since it can be linked, it is possible to obtain a high-quality event image more efficiently and accurately.

프로세서(150)는 제2 카메라 촬영 영상에 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 회전 상태 정보에 기초하여 제1 특징점 집합과 제2 특징점 집합이 매치되면 연동 파라미터를 산출하고, 제2 카메라 촬영 영상에 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 제1 특징점 집합과 제2 특징점 집합이 매치되지 않으면 사용자 인터페이스를 통해 사용자 단말(60)에 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청할 수 있다.The processor 150 calculates an interlocking parameter when a second feature point set corresponding to the first feature point set exists in the second camera-captured image, and the first feature point set and the second feature point set match based on the rotation state information, If the second feature point set corresponding to the first feature point set does not exist in the image captured by the two cameras, or the first feature point set and the second feature point set do not match, the user terminal 60 controls the capturing area of the second camera through the user interface You can request user input for

프로세서(150)는 제1 카메라 촬영 영상에 제1 특징점 집합이 존재하고, 제2 카메라 촬영 영상에 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하면, 제1 특징점 집합과 제2 특징점 집합이 매치되는지 여부를 판단할 수 있다.If the first set of features exists in the first camera-captured image and the second set of features corresponding to the first set of features exists in the second camera-captured image, the first set of feature points and the second set of features match It can be determined whether or not

프로세서(150)는 제2 카메라의 회전 상태 정보에 기초하여 제1 특징점 집합과 제2 특징점 집합이 매치되는지 여부를 판단할 수 있다.The processor 150 may determine whether the first feature point set and the second feature point set match based on the rotation state information of the second camera.

제1 카메라 촬영 영상에 존재하는 제1 특징점 집합은, 제1 특징점 집합이 정면에서 촬영된 모양을 의미한다. 제2 카메라 촬영 영상에 존재하는 제2 특징점 집합은, 제1 특징점 집합이 측면에서 소정 각도로 촬영된 모양을 의미한다.The first feature point set present in the first camera-captured image means a shape in which the first feature point set is photographed from the front. The second set of feature points present in the image captured by the second camera means a shape in which the first set of feature points is photographed at a predetermined angle from the side.

따라서, 프로세서(150)는 소정 각도로 촬영된 제1 특징점 집합의 모양이 제2 특징점 집합의 모양과 소정 오차 범위 내에서 동일하다면, 제1 특징점 집합과 제2 특징점 집합이 매치된다고 판단할 수 있다.Accordingly, if the shape of the first feature point set photographed at a predetermined angle is the same as the shape of the second feature point set within a predetermined error range, the processor 150 may determine that the first feature point set and the second feature point set match.

프로세서(150)는 제1 특징점 집합과 제2 특징점 집합이 매치되는 경우에 한하여 연동 파라미터를 산출하고, 제1 특징점 집합과 제2 특징점 집합이 매치되지 않는 경우에는 제2 카메라가 제1 특징점 집합을 촬영할 수 있도록 제2 카메라의 촬영 영역을 제어하도록 사용자 입력을 요청할 수 있다.The processor 150 calculates the interlocking parameter only when the first set of key points and the second set of key points match, and when the first set of key points and the second set of key points do not match, the second camera can photograph the first set of key points. A user input may be requested to control the photographing area of the second camera.

즉, 프로세서(150)는 제2 카메라가 제1 특징점 집합을 촬영할 때까지 제2 카메라의 회전 각도 및/또는 줌 배율을 조절시킴으로써, 연동 파라미터를 보다 정확하게 계산할 수 있다.That is, the processor 150 may more accurately calculate the interlocking parameter by adjusting the rotation angle and/or zoom magnification of the second camera until the second camera captures the first set of feature points.

메모리(170)는 통신 인터페이스(110)와 사용자 인터페이스(130)를 통해 수신하거나 전송한 정보 및 프로세서(150)를 통해 생성된 정보를 저장할 수 있다.The memory 170 may store information received or transmitted through the communication interface 110 and the user interface 130 and information generated through the processor 150 .

메모리(170)는 제1 카메라 촬영 영상, 제2 카메라 촬영 영상, 제1 카메라와 제2 카메라 사이의 수평거리, 제1 카메라의 회전 상태 정보, 제1 카메라 및 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표(

Figure 112017073840677-pat00022
), 연동 파라미터, 이벤트 정보 등을 저장할 수 있다.The memory 170 includes 3 representing the first camera captured image, the second camera captured image, the horizontal distance between the first camera and the second camera, rotation state information of the first camera, and the distance between the first camera and the second camera. dimensional distance coordinates (
Figure 112017073840677-pat00022
), interlocking parameters, and event information can be stored.

메모리(170)는 제1 특징점 집합이 전면에서 촬영된 모양 및 제1 특징점 집합이 소정 각도로 촬영된 모양을 매치하여 저장할 수 있다. 소정 각도는 복수일 수 있다.The memory 170 may match and store a shape in which the first set of key points is photographed from the front and a shape in which the first set of key points is photographed at a predetermined angle. The predetermined angle may be plural.

이하에서는, 도 4 내지 도 8a 및 도 8b를 참조하여 어안 카메라(10)의 수직높이와 PTZ 카메라(20)의 수직높이가 상이한 경우의 감시 시스템(1)의 동작 방법에 대하여 설명한다.Hereinafter, an operation method of the monitoring system 1 when the vertical height of the fisheye camera 10 is different from the vertical height of the PTZ camera 20 will be described with reference to FIGS. 4 to 8A and 8B .

이하에서, 도 4 내지 도 6을 참조하여, 감시 시스템(1)의 연동 파라미터 산출 방법을 상세하게 설명한다.Hereinafter, a method of calculating an interlocking parameter of the monitoring system 1 will be described in detail with reference to FIGS. 4 to 6 .

도 4는 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a method of calculating an interlocking parameter of a monitoring system according to an embodiment.

도 5 및 도 6은 일 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.5 and 6 are diagrams for explaining a method of calculating an interlocking parameter of a monitoring system according to an embodiment.

도 4 내지 도 6을 참조하면, 수평거리(D)만큼 이격된 어안 카메라(10) 및 PTZ 카메라(20)를 포함하는 감시 시스템(1)의 동작 방법에 있어서, 컨트롤러(100)는 어안 카메라(10)로부터 어안 카메라 촬영 영상을 수신하고(S101), PTZ 카메라(20)로부터 PTZ 카메라 촬영 영상을 수신한다(S103).4 to 6, in the operating method of the surveillance system 1 including a fisheye camera 10 and a PTZ camera 20 spaced apart by a horizontal distance D, the controller 100 includes a fisheye camera ( 10) receives a fisheye camera captured image (S101), and receives a PTZ camera captured image from the PTZ camera 20 (S103).

이어서, 컨트롤러(100)는 어안 카메라(10)와 PTZ 카메라(20) 사이의 수평거리(D)를 입력받는다(S105).Next, the controller 100 receives the horizontal distance D between the fisheye camera 10 and the PTZ camera 20 ( S105 ).

컨트롤러(100)는 수평거리(D)를 선택하는 사용자 입력을 수신할 수 있다.The controller 100 may receive a user input for selecting the horizontal distance D.

한편, 컨트롤러(100)는 센서에 의해 인식된 수평거리(D)를 입력받을 수 있다.Meanwhile, the controller 100 may receive the horizontal distance D recognized by the sensor.

이어서, 컨트롤러(100)는 어안 카메라 촬영 영상에 대하여 PTZ 카메라(20)를 지정하는 사용자 입력을 수신한다(S107).Next, the controller 100 receives a user input for designating the PTZ camera 20 for the fisheye camera image (S107).

컨트롤러(100)는 PTZ 카메라(20)를 지정하는 사용자 입력에 따라 어안 카메라 촬영 영상에서의 PTZ 카메라(20)에 대응하는 좌표 값을 획득할 수 있다.The controller 100 may obtain a coordinate value corresponding to the PTZ camera 20 in an image captured by the fisheye camera according to a user input designating the PTZ camera 20 .

한편, 어안 카메라 촬영 영상에서의 PTZ 카메라(20)에 대응하는 좌표 값은 센서 등에 의해 자동으로 획득될 수 있으며, 이에 한정하지 않는다.Meanwhile, a coordinate value corresponding to the PTZ camera 20 in the image taken by the fisheye camera may be automatically obtained by a sensor or the like, but is not limited thereto.

이어서, 컨트롤러(100)는 어안 카메라 촬영 영상으로부터 PTZ 카메라(20)에 대한 제1 팬각 및 제1 틸트각(T1)을 추출한다(S109). 제1 팬각 및 제1 틸트각(T1)은 디지털 PTZ 값일 수 있다.Next, the controller 100 extracts a first pan angle and a first tilt angle T1 for the PTZ camera 20 from the fisheye camera captured image (S109). The first pan angle and the first tilt angle T1 may be digital PTZ values.

한편, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 수신한다(S111). PTZ 제어를 위한 사용자 입력은 PTZ 카메라(20)의 촬영 영역 제어를 위한 사용자 입력을 의미한다. 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력에 기초하여 제1 PTZ 제어 신호를 생성할 수 있다.Meanwhile, the controller 100 receives a user input for PTZ control (S111). The user input for PTZ control means a user input for controlling the shooting area of the PTZ camera 20 . The controller 100 may generate a first PTZ control signal based on a user input for PTZ control.

컨트롤러(100)가 PTZ 카메라(20)에 제1 PTZ 제어 신호를 전송하면(S113), PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S115). PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 줌 배율을 조절할 수도 있다.When the controller 100 transmits the first PTZ control signal to the PTZ camera 20 (S113), the PTZ camera 20 performs panning and/or tilting in response to the first PTZ control signal (S115). The PTZ camera 20 may adjust the zoom ratio in response to the first PTZ control signal.

제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한 PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)을 추출한다(S117). 제2 팬각 및 제2 틸트각(T2)은 아날로그 PTZ 값일 수 있다.The PTZ camera 20 that has performed panning and/or tilting in response to the first PTZ control signal extracts a second pan angle and a second tilt angle T2 ( S117 ). The second pan angle and the second tilt angle T2 may be analog PTZ values.

이어서, PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)이 포함된 PTZ 정보를 컨트롤러(100)에 전송한다(S119). PTZ 정보는 제1 PTZ 제어 신호에 대응하는 PTZ 카메라(20)의 회전 상태 정보를 의미한다.Subsequently, the PTZ camera 20 transmits PTZ information including the second pan angle and the second tilt angle T2 to the controller 100 ( S119 ). The PTZ information means rotation state information of the PTZ camera 20 corresponding to the first PTZ control signal.

컨트롤러(100)는 S109 단계에서 추출한 제1 팬각과 S119 단계에서 수신한 제2 팬각 사이의 차이 팬각(

Figure 112017073840677-pat00023
)을 산출한다(S121).The controller 100 determines the difference between the first fan angle extracted in step S109 and the second fan angle received in step S119 (
Figure 112017073840677-pat00023
) is calculated (S121).

이어서, 컨트롤러(100)는 어안 카메라(10) 및 PTZ 카메라(20) 사이의 거리를 나타내는 3차원 거리 좌표(

Figure 112017073840677-pat00024
)를 산출한다(S123).Then, the controller 100 is a three-dimensional distance coordinate indicating the distance between the fisheye camera 10 and the PTZ camera 20 (
Figure 112017073840677-pat00024
) is calculated (S123).

어안 카메라(10)의 좌표계와 PTZ 카메라(20)의 좌표계가 3차원 직교 좌표계인 경우, 3차원 거리 좌표(

Figure 112017073840677-pat00025
)는 어안 카메라(10)의 X 좌표 값과 PTZ 카메라(20)의 X 좌표 값의 차이, 어안 카메라(10)의 Y 좌표 값과 PTZ 카메라(20)의 Y 좌표 값의 차이, 및 어안 카메라(10)의 Z 좌표 값과 PTZ 카메라(20)의 Z 좌표 값의 차이로 구성될 수 있다.When the coordinate system of the fisheye camera 10 and the coordinate system of the PTZ camera 20 are a three-dimensional Cartesian coordinate system, the three-dimensional distance coordinate (
Figure 112017073840677-pat00025
) is the difference between the X coordinate value of the fisheye camera 10 and the X coordinate value of the PTZ camera 20, the difference between the Y coordinate value of the fisheye camera 10 and the Y coordinate value of the PTZ camera 20, and the fisheye camera ( 10) and the difference between the Z coordinate value of the PTZ camera 20 and the Z coordinate value of the PTZ camera 20 .

이어서, 컨트롤러(100)는 차이 팬각(

Figure 112017073840677-pat00026
) 및 3차원 거리 좌표(
Figure 112017073840677-pat00027
)에 따른 연동 파라미터를 산출한다(S125).Then, the controller 100 determines the difference pan angle (
Figure 112017073840677-pat00026
) and three-dimensional distance coordinates (
Figure 112017073840677-pat00027
) calculates the interlocking parameters according to (S125).

일 실시예에 따른 연동 파라미터는 수학식 1을 이용하여 구할 수 있다.The interlocking parameter according to an embodiment may be obtained using Equation (1).

Figure 112017073840677-pat00028
Figure 112017073840677-pat00028

수학식 1에서,

Figure 112017073840677-pat00029
는 연동 파라미터를 나타낸다. In Equation 1,
Figure 112017073840677-pat00029
represents the interlocking parameters.

즉, 연동 파라미터는 차이 팬각(

Figure 112017073840677-pat00030
)과 3차원 거리 좌표(
Figure 112017073840677-pat00031
)를 이용한 오일러 회전 변환 행렬일 수 있다.That is, the interlocking parameter is the difference pan angle (
Figure 112017073840677-pat00030
) and three-dimensional distance coordinates (
Figure 112017073840677-pat00031
) may be an Euler rotation transformation matrix using

이하에서, 도 5, 도 7, 도 8a, 및 도 8b를 참조하여, 감시 시스템(1)의 동작 방법을 상세하게 설명한다.Hereinafter, an operation method of the monitoring system 1 will be described in detail with reference to FIGS. 5, 7, 8A, and 8B.

도 7은 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a method of operating a monitoring system based on interlocking parameters according to an embodiment.

도 8a 및 도 8b는 일 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 도면이다.8A and 8B are diagrams for explaining a method of operating a monitoring system based on interlocking parameters according to an embodiment.

도 5, 도 7, 도 8a, 및 도 8b를 참조하면, 컨트롤러(100)는 수평거리(D) 및 제1 틸트각(T1)에 기초하여 어안 카메라(10) 및 PTZ 카메라(20) 사이의 제1 수직높이(H1)를 산출한다(S201).5, 7, 8A, and 8B, the controller 100 is configured to control the distance between the fisheye camera 10 and the PTZ camera 20 based on the horizontal distance D and the first tilt angle T1. A first vertical height H1 is calculated (S201).

일 실시예에 따른 제1 수직높이(H1)는 수학식 2를 이용하여 구할 수 있다.The first vertical height H1 according to an embodiment may be obtained using Equation (2).

Figure 112017073840677-pat00032
Figure 112017073840677-pat00032

이어서, 컨트롤러(100)는 수평거리(D) 및 S119 단계에서 수신한 제2 틸트각(T2)에 기초하여 PTZ 카메라(20)의 제2 수직높이(H2)를 산출한다(S205).Next, the controller 100 calculates the second vertical height H2 of the PTZ camera 20 based on the horizontal distance D and the second tilt angle T2 received in step S119 ( S205 ).

일 실시예에 따른 제2 수직높이(H2)는 수학식 3을 이용하여 구할 수 있다.The second vertical height H2 according to an embodiment may be obtained using Equation (3).

Figure 112017073840677-pat00033
Figure 112017073840677-pat00033

이어서, 컨트롤러(100)는 제1 수직높이(H1) 및 제2 수직높이(H2)로부터 어안 카메라(10)의 제3 수직높이(H3)를 산출한다(S205). 컨트롤러(100)는 제1 수직높이(H1)와 제2 수직높이(H2)를 더하여 제3 수직높이(H3)를 산출할 수 있다.Next, the controller 100 calculates a third vertical height H3 of the fisheye camera 10 from the first vertical height H1 and the second vertical height H2 ( S205 ). The controller 100 may calculate the third vertical height H3 by adding the first vertical height H1 and the second vertical height H2.

한편, 어안 카메라(10)는 이벤트를 검출한다(S207). 어안 카메라(10)는 어안 카메라 촬영 영상으로부터 이벤트를 검출할 수 있다. 어안 카메라(10)는 센서 등을 통해 이벤트를 검출할 수 있다. 어안 카메라(10)뿐만 아니라, 별도의 센서 등을 통해 이벤트가 검출될 수도 있다.On the other hand, the fisheye camera 10 detects an event (S207). The fisheye camera 10 may detect an event from an image captured by the fisheye camera. The fisheye camera 10 may detect an event through a sensor or the like. In addition to the fisheye camera 10 , an event may be detected through a separate sensor or the like.

이벤트는 예를 들어, 사람의 얼굴 인식일 수 있다.The event may be, for example, recognition of a person's face.

컨트롤러(100)는 어안 카메라(10)로부터 이벤트 정보를 수신하면(S209), 어안 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 제3 수직높이(H3)와 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 디지털 PTZ 값을 생성한다(S211).When the controller 100 receives the event information from the fisheye camera 10 (S209), the event is generated from the horizontal coordinates and the third vertical height H3 and the average event height of the event occurrence location extracted from the fisheye camera captured image A digital PTZ value including the vertical coordinates of the position is generated (S211).

컨트롤러(100)는 이벤트 정보에 대응하여 어안 카메라 촬영 영상으로부터 이벤트 발생 위치의 수평 좌표를 추출할 수 있다.The controller 100 may extract the horizontal coordinates of the event occurrence location from the fisheye camera captured image in response to the event information.

예를 들어, 도 8b와 같이, 어안 카메라 촬영 영상으로부터 이벤트 발생 위치의 수평 좌표(x, y)를 추출할 수 있다.For example, as shown in FIG. 8B , the horizontal coordinates (x, y) of the event occurrence location may be extracted from the image captured by the fisheye camera.

이때, 컨트롤러(100)는 수학식 4를 이용하여 디지털 팬각(pan)을 생성할 수 있다.In this case, the controller 100 may generate a digital pan angle using Equation (4).

Figure 112017073840677-pat00034
Figure 112017073840677-pat00034

한편, 컨트롤러(100)는 이벤트 정보에 기초하여 평균 이벤트 높이인 제4 수직높이(H4)를 추출할 수 있다. 컨트롤러(100)는 제3 수직높이(H4)와 제4 수직높이(H4)의 차이로부터 이벤트 발생 위치의 수직 좌표(z)를 추출할 수 있다.Meanwhile, the controller 100 may extract a fourth vertical height H4 that is an average event height based on the event information. The controller 100 may extract the vertical coordinate z of the event occurrence position from the difference between the third vertical height H4 and the fourth vertical height H4.

이때, 컨트롤러(100)는 수학식 5를 이용하여 디지털 틸트각(tilt)을 생성할 수 있다.In this case, the controller 100 may generate a digital tilt angle (tilt) using Equation (5).

Figure 112017073840677-pat00035
Figure 112017073840677-pat00035

컨트롤러(100)는 어안 카메라 촬영 영상으로부터 디지털 줌 배율을 추출할 수 있다.The controller 100 may extract a digital zoom magnification from an image captured by the fisheye camera.

이어서, 컨트롤러(100)는 연동 파라미터를 적용하여 어안 카메라 좌표 값을 PTZ 카메라 좌표 값으로 변환한다(S213).Next, the controller 100 converts the fisheye camera coordinate value into a PTZ camera coordinate value by applying the interlocking parameter ( S213 ).

예를 들어, 컨트롤러(100)는 S211 단계에서 생성한 디지털 팬각(pan), 디지털 틸트각(tilt), 및 디지털 줌 배율에 연동 파라미터를 적용한 결과를 PTZ 카메라 좌표 값으로서 획득할 수 있다.For example, the controller 100 may obtain the result of applying the interlocking parameter to the digital pan angle, the digital tilt angle, and the digital zoom magnification generated in step S211 as the PTZ camera coordinate values.

이어서, 컨트롤러(100)는 PTZ 카메라 좌표 값을 포함하는 제2 PTZ 회전 제어 신호를 생성하고, PTZ 카메라(20)에 제2 PTZ 제어 신호를 전송한다(S215).Next, the controller 100 generates a second PTZ rotation control signal including the PTZ camera coordinate values and transmits the second PTZ control signal to the PTZ camera 20 ( S215 ).

PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S217). PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 줌 배율을 조절할 수도 있다.The PTZ camera 20 performs panning and/or tilting in response to the second PTZ control signal (S217). The PTZ camera 20 may adjust the zoom ratio in response to the second PTZ control signal.

이처럼, PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 패닝, 틸팅, 및/또는 줌 배율 조절을 수행함으로써, 사람의 얼굴과 같은 이벤트를 중점적으로 촬영할 수 있다. 이에 따라, 감시 시스템(1)은 PTZ 카메라(20)에 의해 이벤트가 정확하게 촬영된 고화질 영상을 사용자에게 제공할 수 있다.As such, the PTZ camera 20 may focus on capturing an event such as a human face by performing panning, tilting, and/or zoom magnification in response to the second PTZ control signal. Accordingly, the monitoring system 1 may provide the user with a high-definition image in which the event is accurately captured by the PTZ camera 20 .

이하에서는, 도 9 내지 도 11을 참조하여 어안 카메라(10)의 수직높이와 PTZ 카메라(20)의 수직높이가 동일한 경우의 감시 시스템(1)의 동작 방법에 대하여 설명한다.Hereinafter, an operation method of the monitoring system 1 when the vertical height of the fisheye camera 10 and the vertical height of the PTZ camera 20 is the same will be described with reference to FIGS. 9 to 11 .

이하에서는 앞서 어안 카메라(10)의 수직높이와 PTZ 카메라(20)의 수직높이가 상이한 경우에 대한 설명과 동일한 설명은 생략하거나 간략히 한다.Hereinafter, the same description as that of the case where the vertical height of the fisheye camera 10 and the vertical height of the PTZ camera 20 is different from the previous description will be omitted or simplified.

도 9는 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a method of calculating an interlocking parameter of a monitoring system according to another embodiment.

도 10은 다른 실시예에 따른 감시 시스템의 연동 파라미터 산출 방법을 설명하기 위한 도면이다.10 is a view for explaining a method of calculating an interlocking parameter of a monitoring system according to another embodiment.

도 11은 다른 실시예에 따른 연동 파라미터에 기초한 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.11 is a flowchart illustrating a method of operating a monitoring system based on interlocking parameters according to another embodiment.

도 9 내지 도 11을 참조하면, 컨트롤러(100)는 어안 카메라(10)로부터 어안 카메라 촬영 영상을 수신하고(S301), PTZ 카메라(20)로부터 PTZ 카메라 촬영 영상을 수신한다(S303).9 to 11 , the controller 100 receives a fisheye camera captured image from the fisheye camera 10 ( S301 ), and receives a PTZ camera captured image from the PTZ camera 20 ( S303 ).

이어서, 컨트롤러(100)는 어안 카메라(10)와 PTZ 카메라(20) 사이의 수평거리(D)를 입력받는다(S305).Next, the controller 100 receives the horizontal distance D between the fisheye camera 10 and the PTZ camera 20 (S305).

한편, 컨트롤러(100)는 어안 카메라 촬영 영상에 대하여 PTZ 카메라(20)를 지정하는 사용자 입력을 수신한다(S307).Meanwhile, the controller 100 receives a user input for designating the PTZ camera 20 for the fisheye camera image (S307).

이어서, 컨트롤러(100)는 어안 카메라 촬영 영상으로부터 PTZ 카메라(20)에 대한 제1 팬각을 추출한다(S309).Next, the controller 100 extracts the first pan angle of the PTZ camera 20 from the fisheye camera photographed image (S309).

한편, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 수신한다(S311). 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력에 기초하여 제1 PTZ 제어 신호를 생성할 수 있다.Meanwhile, the controller 100 receives a user input for PTZ control ( S311 ). The controller 100 may generate a first PTZ control signal based on a user input for PTZ control.

컨트롤러(100)가 PTZ 카메라(20)에 제1 PTZ 제어 신호를 전송하면(S313), PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S315).When the controller 100 transmits the first PTZ control signal to the PTZ camera 20 (S313), the PTZ camera 20 performs panning and/or tilting in response to the first PTZ control signal (S315).

이어서, PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)을 추출하고(S317). 제2 팬각 및 제2 틸트각(T2)이 포함된 PTZ 정보를 컨트롤러(100)에 전송한다(S919).Then, the PTZ camera 20 extracts the second pan angle and the second tilt angle T2 (S317). PTZ information including the second pan angle and the second tilt angle T2 is transmitted to the controller 100 (S919).

컨트롤러(100)는 S309 단계에서 추출한 제1 팬각과 S319 단계에서 수신한 제2 팬각 사이의 차이 팬각(

Figure 112017073840677-pat00036
)을 산출한다(S321).The controller 100 determines the difference between the first fan angle extracted in step S309 and the second fan angle received in step S319 (
Figure 112017073840677-pat00036
) is calculated (S321).

이어서, 컨트롤러(100)는 어안 카메라(10) 및 PTZ 카메라(20) 사이의 거리를 나타내는 3차원 거리 좌표(

Figure 112017073840677-pat00037
)를 산출한다(S323).Then, the controller 100 is a three-dimensional distance coordinate indicating the distance between the fisheye camera 10 and the PTZ camera 20 (
Figure 112017073840677-pat00037
) is calculated (S323).

컨트롤러(100)는 차이 팬각(

Figure 112017073840677-pat00038
) 및 3차원 거리 좌표(
Figure 112017073840677-pat00039
)에 따른 연동 파라미터를 산출한다(S325).The controller 100 determines the difference pan angle (
Figure 112017073840677-pat00038
) and three-dimensional distance coordinates (
Figure 112017073840677-pat00039
) calculates the interlocking parameters according to (S325).

한편, 컨트롤러(100)는 수평거리(D) 및 제2 틸트각(T2)에 기초하여 어안 카메라(10)의 제3 수직높이(H3)를 산출한다(S401). 어안 카메라(10) 및 PTZ 카메라(20)가 동일한 제3 수직높이(H3)를 가질 수 있다.Meanwhile, the controller 100 calculates the third vertical height H3 of the fisheye camera 10 based on the horizontal distance D and the second tilt angle T2 ( S401 ). The fisheye camera 10 and the PTZ camera 20 may have the same third vertical height H3 .

한편, 어안 카메라(10)는 이벤트를 검출하고(S403), 컨트롤러(100)는 어안 카메라(10)로부터 이벤트 정보를 수신한다(S405).Meanwhile, the fisheye camera 10 detects an event (S403), and the controller 100 receives event information from the fisheye camera 10 (S405).

컨트롤러(100)는 이벤트 정보에 대응하여 어안 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 제3 수직높이(H3)와 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 이벤트 발생 위치의 수직 좌표를 포함하는 어안 카메라(10)의 디지털 PTZ 값을 생성한다(S407).The controller 100 determines the horizontal coordinates and the third vertical height (H3) of the event occurrence position extracted from the fisheye camera shot image in response to the event information and the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information. A digital PTZ value of the included fisheye camera 10 is generated (S407).

컨트롤러(100)는 수학식 4 및 수학식 5를 이용하여 디지털 팬각(pan) 및 디지털 틸트각(tilt)을 생성하고, 어안 카메라 촬영 영상으로부터 디지털 줌 배율을 추출할 수 있다. 이와 같은 디지털 PTZ 값은 어안 카메라 좌표 값을 의미한다.The controller 100 may generate a digital pan angle and a digital tilt angle using Equations 4 and 5, and extract a digital zoom magnification from an image captured by the fisheye camera. Such a digital PTZ value means a fisheye camera coordinate value.

이어서, 컨트롤러(100)는 연동 파라미터를 적용하여 디지털 PTZ 값을 아날로그 PTZ 값으로 변환한다(S409). 아날로그 PTZ 값은 PTZ 카메라 좌표 값을 의미한다.Next, the controller 100 converts the digital PTZ value into an analog PTZ value by applying the interlocking parameter (S409). Analog PTZ value means PTZ camera coordinate value.

컨트롤러(100)는 S407 단계에서 생성한 디지털 팬각(pan), 디지털 틸트각(tilt), 및 디지털 줌 배율에 연동 파라미터를 적용하여 PTZ 카메라 좌표 값을 획득할 수 있다.The controller 100 may obtain a PTZ camera coordinate value by applying an interlocking parameter to the digital pan angle, digital tilt angle, and digital zoom magnification generated in step S407 .

이어서, 컨트롤러(100)는 아날로그 PTZ 값에 기초하여 제2 PTZ 회전 제어 신호를 생성하고, PTZ 카메라(20)에 제2 PTZ 제어 신호를 전송한다(S411).Next, the controller 100 generates a second PTZ rotation control signal based on the analog PTZ value and transmits the second PTZ control signal to the PTZ camera 20 ( S411 ).

PTZ 카메라(20)는 제2 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행한다(S413).The PTZ camera 20 performs panning and/or tilting in response to the second PTZ control signal (S413).

이하에서는 앞서 기재한 설명과 동일한 설명은 생략하거나 간략히 한다.Hereinafter, the same description as that described above will be omitted or simplified.

도 12는 일 실시예에 따른 연동 파라미터 산출을 위한 조건을 설명하기 위한 흐름도이다.12 is a flowchart illustrating a condition for calculating an interlocking parameter according to an embodiment.

도 12를 참조하면, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 수신하면(S511), PTZ 카메라(20)에 제1 PTZ 제어 신호를 전송한다(S513).Referring to FIG. 12 , when receiving a user input for PTZ control ( S511 ), the controller 100 transmits a first PTZ control signal to the PTZ camera 20 ( S513 ).

이어서, PTZ 카메라(20)는 제1 PTZ 제어 신호에 대응하여 패닝 및/또는 틸팅을 수행하고, 제2 팬각 및 제2 틸트각(T2)을 추출한다(S517).Next, the PTZ camera 20 performs panning and/or tilting in response to the first PTZ control signal, and extracts the second pan angle and the second tilt angle T2 ( S517 ).

PTZ 카메라(20)는 제2 팬각 및 제2 틸트각(T2)이 포함된 PTZ 정보를 컨트롤러(100)에 전송하고(S519). 제2 팬각 및 제2 틸트각(T2)을 유지한 상태에서 감시 영역을 촬영한다(S529).The PTZ camera 20 transmits PTZ information including the second pan angle and the second tilt angle T2 to the controller 100 (S519). The monitoring area is photographed while maintaining the second pan angle and the second tilt angle T2 (S529).

컨트롤러(100)는 PTZ 카메라(20)로부터 PTZ 카메라 촬영 영상을 수신하고(S529), 어안 카메라 촬영 영상에 제1 특징점 집합이 존재하는지 여부를 판단한다(S531). 예를 들어, 제1 특징점 집합은 2차원 정n각형 도형일 수 있다.The controller 100 receives an image captured by the PTZ camera from the PTZ camera 20 (S529), and determines whether a first feature point set exists in the image captured by the fisheye camera (S531). For example, the first set of feature points may be a 2D regular n-gonal figure.

어안 카메라 촬영 영상에 제1 특징점 집합이 존재하는 경우, 컨트롤러(100)는 PTZ 카메라 촬영 영상에 제2 특징점 집합이 존재하는지 여부를 판단한다(S533). 예를 들어, 제2 특징점 집합은 2차원 n각형 도형일 수 있다.When the first feature point set exists in the fisheye camera captured image, the controller 100 determines whether a second feature point set exists in the PTZ camera captured image ( S533 ). For example, the second set of feature points may be a two-dimensional n-gonal figure.

컨트롤러(100)는 PTZ 카메라 촬영 영상에 제2 특징점 집합이 존재하는 경우, 제1 특징점 집합과 제2 특징점 집합이 매치되는지 여부를 판단한다(S535).When the second feature point set exists in the image captured by the PTZ camera, the controller 100 determines whether the first feature point set and the second feature point set match ( S535 ).

예를 들어, 어안 카메라 촬영 영상에 존재하는 2차원 정n각형 도형을 틸트각 45도에서 촬영한 모양과 PTZ 카메라 촬영 영상에 존재하는 2차원 n각형 도형이 소정 오차 범위 내에서 일치하면, 컨트롤러(100)는 제1 특징점 집합과 제2 특징점 집합이 매치된다고 판단할 수 있다.For example, if the shape of a two-dimensional regular n-gonal figure present in a fisheye camera shot image at a tilt angle of 45 degrees and a two-dimensional n-gonal figure existing in a PTZ camera shot image match within a predetermined error range, the controller ( 100) may determine that the first feature point set and the second feature point set match.

컨트롤러(100)는 제1 특징점 집합과 제2 특징점 집합이 매치되면, 제1 팬각 및 제2 팬각 사이의 차이 팬각(

Figure 112017073840677-pat00040
)을 산출하고(S537), 이어서 연동 파라미터를 산출한다.When the first feature point set and the second feature point set match, the controller 100 determines the difference between the first fan angle and the second fan angle (
Figure 112017073840677-pat00040
) is calculated (S537), and then the interlocking parameters are calculated.

어안 카메라 촬영 영상에 제1 특징점 집합이 존재하는 경우, PTZ 카메라 촬영 영상에 제2 특징점 집합이 존재하지 않거나 제1 특징점 집합과 제2 특징점 집합이 매치되지 않으면, 컨트롤러(100)는 사용자 단말(60)에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청한다. 즉, 컨트롤러(100)는 PTZ 제어를 위한 사용자 입력을 재수신함으로써, PTZ 카메라가 제1 특징점 집합을 촬영할 수 있도록 PTZ 카메라의 촬영 영역을 제어할 수 있다.When the first feature point set exists in the fisheye camera captured image, the second feature point set does not exist in the PTZ camera captured image, or the first feature point set and the second feature point set do not match, the controller 100 controls the user terminal 60 to request a user input for controlling the shooting area of the second camera. That is, the controller 100 may control the capturing area of the PTZ camera so that the PTZ camera may photograph the first feature point set by re-receiving a user input for PTZ control.

이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. So far, the present invention has been focused on preferred embodiments. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in modified forms without departing from the essential characteristics of the present invention.

그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the above description, and the invention claimed by the claims and inventions equivalent to the claimed invention should be construed as being included in the present invention.

1: 감시 시스템 10: 어안 카메라
20: PTZ 카메라 30: 게이트웨이
40: 네트워크 50: 서버
60: 사용자 단말
1: Surveillance System 10: Fisheye Camera
20: PTZ camera 30: gateway
40: network 50: server
60: user terminal

Claims (17)

수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템에 있어서,
상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하고, 상기 제2 카메라에 제1 회전 제어 신호를 전송하고, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 통신 인터페이스;
상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 사용자 인터페이스; 및
상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하고, 상기 사용자 입력에 기초하여 상기 제1 회전 제어 신호를 생성하고, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하고, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하고, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 프로세서;를 포함하는, 감시 시스템.
In the surveillance system comprising a first camera and a second camera spaced apart by a horizontal distance,
A communication interface for receiving a first camera shot image from the first camera, transmitting a first rotation control signal to the second camera, and receiving rotation state information corresponding to the first rotation control signal from the second camera ;
a user interface for receiving a user input for controlling the shooting area of the second camera; and
extracting a first pan angle with respect to the second camera from the image captured by the first camera, generating the first rotation control signal based on the user input, and from the first pan angle and the rotation state information Calculate the difference pan angle between the extracted second pan angles of the second camera, calculate 3D distance coordinates representing the distance between the first camera and the second camera, and calculate the difference pan angle and the 3D distance coordinates A processor for calculating an interlocking parameter according to; Containing, a monitoring system.
청구항 1에 있어서,
상기 제1 카메라는 상기 제2 카메라보다 화각이 넓고, 상기 제2 카메라를 촬영하고,
상기 제2 카메라는 회전 방향이나 줌 배율을 조절할 수 있는 카메라인, 감시 시스템.
The method according to claim 1,
The first camera has a wider angle of view than the second camera, and shoots the second camera,
The second camera is a camera capable of adjusting a rotation direction or a zoom magnification, a surveillance system.
삭제delete 삭제delete 청구항 1에 있어서,
상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고,
상기 프로세서는, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 틸트각(tilt angle)을 추출하고, 상기 수평거리 및 상기 제1 틸트각에 기초하여 상기 제1 카메라 및 상기 제2 카메라 사이의 제1 수직높이를 산출하고, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 제2 카메라의 제2 수직높이를 산출하고, 상기 제1 수직높이 및 상기 제2 수직높이로부터 상기 제1 카메라의 제3 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 제3 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 제1 카메라 좌표 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 제1 카메라 좌표 값을 상기 제2 카메라의 제2 카메라 좌표 값으로 변환하고, 상기 제2 카메라 좌표 값에 기초하여 상기 제2 회전 제어 신호를 생성하는, 감시 시스템.
The method according to claim 1,
The communication interface receives event information from the first camera and transmits a second rotation control signal to the second camera,
The processor extracts a first tilt angle with respect to the second camera from the image captured by the first camera, and the first camera and the second camera based on the horizontal distance and the first tilt angle calculating a first vertical height between The third vertical height of the first camera is calculated from the height and the second vertical height, and the horizontal coordinates of the event occurrence location extracted from the first camera captured image in response to the event information, the third vertical height, and the Generates a first camera coordinate value of the first camera including the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information, and applies the linkage parameter to obtain the first camera coordinate value as the second A surveillance system for converting a second camera coordinate value of two cameras and generating the second rotation control signal based on the second camera coordinate value.
삭제delete 삭제delete 청구항 1에 있어서,
상기 제1 카메라 및 상기 제2 카메라가 동일한 수직높이를 가지고,
상기 통신 인터페이스는 상기 제1 카메라로부터 이벤트 정보를 수신하고, 상기 제2 카메라에 제2 회전 제어 신호를 전송하고,
상기 프로세서는, 상기 수평거리 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 틸트각에 기초하여 상기 수직높이를 산출하고, 상기 이벤트 정보에 대응하여 상기 제1 카메라 촬영 영상으로부터 추출된 이벤트 발생 위치의 수평 좌표 및 상기 수직높이와 상기 이벤트 정보에 대응하는 평균 이벤트 높이로부터 추출된 상기 이벤트 발생 위치의 수직 좌표를 포함하는 상기 제1 카메라의 디지털 PTZ 값을 생성하고, 상기 연동 파라미터를 적용하여 상기 디지털 PTZ 값을 상기 제2 카메라의 아날로그 PTZ 값으로 변환하고, 상기 아날로그 PTZ 값을 포함하는 상기 제2 회전 제어 신호를 생성하는, 감시 시스템.
The method according to claim 1,
The first camera and the second camera have the same vertical height,
The communication interface receives event information from the first camera and transmits a second rotation control signal to the second camera,
The processor calculates the vertical height based on a second tilt angle of the second camera extracted from the horizontal distance and the rotation state information, and an event extracted from the image captured by the first camera in response to the event information Generate a digital PTZ value of the first camera including the horizontal coordinate and vertical height of the occurrence position and the vertical coordinate of the event occurrence position extracted from the average event height corresponding to the event information, and apply the linkage parameter converting the digital PTZ value into an analog PTZ value of the second camera, and generating the second rotation control signal including the analog PTZ value.
청구항 1에 있어서,
상기 제1 카메라 촬영 영상은 제1 특징점 집합을 포함하고,
상기 통신 인터페이스는 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송한 후 상기 제2 카메라로부터 제2 카메라 촬영 영상을 수신하고,
상기 프로세서는, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하고, 상기 회전 상태 정보에 기초하여 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되면 상기 연동 파라미터를 산출하고, 상기 제2 카메라 촬영 영상에 상기 제1 특징점 집합에 대응하는 제2 특징점 집합이 존재하지 않거나, 상기 제1 특징점 집합과 상기 제2 특징점 집합이 매치되지 않으면 상기 사용자 인터페이스를 통해 사용자 단말에 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 요청하는, 감시 시스템.
The method according to claim 1,
The first camera-captured image includes a first set of feature points,
The communication interface receives the second camera shot image from the second camera after transmitting the first rotation control signal to the second camera,
The processor is configured to: When a second feature point set corresponding to the first feature point set exists in the second camera-captured image, and the first feature point set and the second feature point set match based on the rotation state information, the linkage parameter , and if the second feature point set corresponding to the first feature point set does not exist in the image captured by the second camera, or the first feature point set and the second feature point set do not match, the user terminal is sent to the user terminal through the user interface. A monitoring system that requests a user input for controlling the shooting area of the second camera.
수평거리만큼 이격된 제1 카메라 및 제2 카메라를 포함하는 감시 시스템의 동작 방법에 있어서,
통신 인터페이스에 의해, 상기 제1 카메라로부터 제1 카메라 촬영 영상을 수신하는 단계;
프로세서에 의해, 상기 제1 카메라 촬영 영상으로부터 상기 제2 카메라에 대한 제1 팬각(pan angle)을 추출하는 단계;
사용자 인터페이스에 의해, 상기 제2 카메라의 촬영 영역 제어를 위한 사용자 입력을 수신하는 단계;
상기 프로세서에 의해, 상기 사용자 입력에 기초하여 제1 회전 제어 신호를 생성하는 단계;
상기 통신 인터페이스에 의해, 상기 제2 카메라에 상기 제1 회전 제어 신호를 전송하는 단계;
상기 통신 인터페이스에 의해, 상기 제2 카메라로부터 상기 제1 회전 제어 신호에 대응하는 회전 상태 정보를 수신하는 단계;
상기 프로세서에 의해, 상기 제1 팬각 및 상기 회전 상태 정보로부터 추출된 상기 제2 카메라의 제2 팬각 사이의 차이 팬각을 산출하는 단계;
상기 프로세서에 의해, 상기 제1 카메라 및 상기 제2 카메라 사이의 거리를 나타내는 3차원 거리 좌표를 산출하는 단계; 및
상기 프로세서에 의해, 상기 차이 팬각 및 상기 3차원 거리 좌표에 따른 연동 파라미터를 산출하는 단계;를 포함하는 감시 시스템의 동작 방법.
A method of operating a surveillance system comprising a first camera and a second camera spaced apart by a horizontal distance, the method comprising:
receiving a first camera-captured image from the first camera through a communication interface;
extracting, by a processor, a first pan angle with respect to the second camera from the image captured by the first camera;
receiving a user input for controlling a photographing area of the second camera through a user interface;
generating, by the processor, a first rotation control signal based on the user input;
transmitting, by the communication interface, the first rotation control signal to the second camera;
receiving, by the communication interface, rotation state information corresponding to the first rotation control signal from the second camera;
calculating, by the processor, a difference pan angle between the first pan angle and a second pan angle of the second camera extracted from the rotation state information;
calculating, by the processor, three-dimensional distance coordinates indicating a distance between the first camera and the second camera; and
and calculating, by the processor, an interlocking parameter according to the difference pan angle and the three-dimensional distance coordinate.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020170097131A 2017-07-31 2017-07-31 Surveillance system and operation method thereof KR102315525B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170097131A KR102315525B1 (en) 2017-07-31 2017-07-31 Surveillance system and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170097131A KR102315525B1 (en) 2017-07-31 2017-07-31 Surveillance system and operation method thereof

Publications (2)

Publication Number Publication Date
KR20190013104A KR20190013104A (en) 2019-02-11
KR102315525B1 true KR102315525B1 (en) 2021-10-21

Family

ID=65369985

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170097131A KR102315525B1 (en) 2017-07-31 2017-07-31 Surveillance system and operation method thereof

Country Status (1)

Country Link
KR (1) KR102315525B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220072498A (en) * 2020-11-25 2022-06-02 한국전자기술연구원 Method, apparatus and system for contolling multiple cctv cameras
CN113329181B (en) * 2021-06-08 2022-06-14 厦门四信通信科技有限公司 Angle switching method, device, equipment and storage medium of camera
KR102473078B1 (en) * 2022-04-26 2022-12-02 주식회사 제노시스 Location Calculating Device of a surveillance area photographed by a plurality of PTZ cameras
CN115190237B (en) * 2022-06-20 2023-12-15 亮风台(上海)信息科技有限公司 Method and device for determining rotation angle information of bearing device
CN115242969B (en) * 2022-06-22 2023-10-13 天翼数字生活科技有限公司 Method and system for controlling rotation of network camera
KR102610488B1 (en) * 2023-10-10 2023-12-07 주식회사 원우이엔지 Monitoring system using multi camera

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004364212A (en) 2003-06-09 2004-12-24 Fujitsu Ltd Object photographing apparatus, object photographing method and object photographing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101120131B1 (en) 2009-05-29 2012-03-22 주식회사 영국전자 Intelligent Panorama Camera, Circuit and Method for Controlling thereof, and Video Monitoring System
KR101347450B1 (en) * 2012-04-10 2014-01-09 한국기술교육대학교 산학협력단 Image sensing method using dual camera and apparatus thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004364212A (en) 2003-06-09 2004-12-24 Fujitsu Ltd Object photographing apparatus, object photographing method and object photographing program

Also Published As

Publication number Publication date
KR20190013104A (en) 2019-02-11

Similar Documents

Publication Publication Date Title
KR102315525B1 (en) Surveillance system and operation method thereof
JP4478510B2 (en) Camera system, camera, and camera control method
JP6141079B2 (en) Image processing system, image processing apparatus, control method therefor, and program
JP6587489B2 (en) Image processing apparatus, image processing method, and image processing system
CN110785993A (en) Control method and device of shooting equipment, equipment and storage medium
KR101722664B1 (en) Multi-viewpoint System, Wearable Camera, CCTV, Control Server And Method For Active Situation Recognition
JP2016100696A (en) Image processing device, image processing method, and image processing system
EP3398029B1 (en) Intelligent smart room control system
CN106612417B (en) Network camera, monitoring server, and method of controlling monitoring system
KR102228663B1 (en) Method of providing photographing guide and system therefor
EP3398328A1 (en) Method and apparatus for imaging a scene
WO2017187694A1 (en) Region of interest image generating device
JP2014222825A (en) Video processing apparatus and video processing method
JP6624800B2 (en) Image processing apparatus, image processing method, and image processing system
US10713480B2 (en) Information processing device and information processing method
CN114527669A (en) Equipment control method and device and electronic equipment
KR102374357B1 (en) Video Surveillance Apparatus for Congestion Control
TW201722145A (en) 3D video surveillance system capable of automatic camera dispatching function, and surveillance method for using the same
US10922825B2 (en) Image data processing method and electronic device
JP6483326B2 (en) Monitoring system and terminal device
KR20190114223A (en) Surveillance system and operation method thereof
KR20150028623A (en) Method and apparatus for processing images
CN112291701B (en) Positioning verification method, positioning verification device, robot, external equipment and storage medium
US20200311968A1 (en) Apparatus, system, and method for controlling an imaging device
CN106856558B (en) Send the 3D image monitoring and its monitoring method of function automatically with video camera

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right