KR101452342B1 - Surveillance Camera Unit And Method of Operating The Same - Google Patents

Surveillance Camera Unit And Method of Operating The Same Download PDF

Info

Publication number
KR101452342B1
KR101452342B1 KR1020140036436A KR20140036436A KR101452342B1 KR 101452342 B1 KR101452342 B1 KR 101452342B1 KR 1020140036436 A KR1020140036436 A KR 1020140036436A KR 20140036436 A KR20140036436 A KR 20140036436A KR 101452342 B1 KR101452342 B1 KR 101452342B1
Authority
KR
South Korea
Prior art keywords
camera
angle
subject
panning
tilt angle
Prior art date
Application number
KR1020140036436A
Other languages
Korean (ko)
Other versions
KR20140121345A (en
Inventor
신동균
Original Assignee
주식회사 이오씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이오씨 filed Critical 주식회사 이오씨
Publication of KR20140121345A publication Critical patent/KR20140121345A/en
Application granted granted Critical
Publication of KR101452342B1 publication Critical patent/KR101452342B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6815Motion detection by distinguishing pan or tilt from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명은 감시시스템에 관한 것으로서, 특히, 광역 카메라를 이용하여 감시대상영역 전체를 감시하며, 상기 감시대상영역 중 상기 광역감시 카메라에 의해 지정된 특정 영역을 종속 카메라가 정밀하게 감시할 수 있는, 감시카메라 유닛 및 그 구동방법을 제공하는 것을 기술적 과제로 한다. 이를 위해 본 발명에 따른 감시카메라 유닛은, 어안렌즈로 구성되어, 감시대상영역 전체를 감시하는 광역카메라; PTZ(Pen-Tilt Zoom) 카메라로 구성되어, 상기 감시대상영역의 특정위치를 세부적으로 감시하는 종속카메라; 상기 종속카메라의 패닝각과 틸트각을 변경시키는 구동부; 및 상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여 산출된 상기 종속카메라의 패닝각과 틸트각에 대응되는 제어신호를, 상기 구동부로 전송하는 제어부를 포함한다. The present invention relates to a surveillance system, and more particularly, to a surveillance system that monitors the entire surveillance target area using a wide area camera, and that can monitor precisely the specific area designated by the wide area surveillance camera, A camera unit and a driving method thereof are provided. To this end, the surveillance camera unit according to the present invention comprises: a wide-area camera composed of a fish-eye lens and monitoring the entire surveillance target area; A subordinate camera configured by a PTZ (Pen-Tilt Zoom) camera to closely monitor a specific position of the monitored area; A driver for changing a panning angle and a tilt angle of the slave camera; And a control unit for transmitting a control signal corresponding to a panning angle and a tilt angle of the slave camera calculated using the position information of the subject received from the wide area camera to the driving unit.

Description

감시카메라 유닛 및 그 구동방법{Surveillance Camera Unit And Method of Operating The Same}Technical Field [0001] The present invention relates to a surveillance camera unit,

본 발명은 감시시스템에 관한 것으로서, 특히, 두 대의 감시카메라를 이용하여 감시대상영역 전체와 감시대상영역 중 특정 영역을 동시에 감시할 수 있는, 감시카메라 유닛 및 그 구동방법에 관한 것이다.
The present invention relates to a surveillance system, and more particularly, to a surveillance camera unit and a method of driving the surveillance camera unit capable of simultaneously monitoring a whole of a surveillance target area and a specific surveillance target area using two surveillance cameras.

복잡해지는 사회 속에서 날로 증가하는 범죄, 그리고 일상적인 인간의 행위에 대한 기록, 확인을 위한 가장 효과적인 도구로서 감시카메라가 사용되고 있다.Surveillance cameras are being used as the most effective tool for recording everyday crime and everyday human behavior in an increasingly complex society.

감시카메라로 인한 사생활 침해 등과 같은 부정적인 측면이 있으나, 감시카메라의 필요성 및 중요성은 증가되고 있으며, 이에 따라, 감시카메라의 수요는 비약적으로 증가되고 있다. There is a negative aspect such as a surveillance camera infringement, but the necessity and importance of a surveillance camera is increasing, and thus the demand of a surveillance camera is dramatically increasing.

감시카메라를 이용한 다양한 감시방법을 설명하면 다음과 같다.Various surveillance methods using surveillance cameras will be described as follows.

첫째, 일반적으로, 고정된 관찰지역을 감시하기 위해, 고정형 감시카메라가 설치되어 운영되고 있다. 그러나, 고정형 감시카메라는 특정 지역만을 감시할 수 있기 때문에, 동일한 공간 내에서도 감시가 이루어지지 않는 사각지대가 발생될 수 있다.First, in general, a fixed surveillance camera is installed and operated to monitor a fixed observation area. However, since fixed-type surveillance cameras can monitor only a specific area, blind spots that can not be monitored even within the same space can be generated.

둘째, 고정형 감시카메라의 문제점을 해결하기 위해, 수평회전(패닝) 및 수직회전(틸팅)이 가능하고, 촬영각도의 가변이 가능할 뿐만 아니라, 줌 기능이 복합되어 있는 PTZ 카메라도 널리 이용되고 있다. 그러나, PTZ 카메라 역시 한정된 지역만을 감시대상으로 하고 있다.Second, to solve the problem of the fixed type surveillance camera, a PTZ camera in which a horizontal rotation (panning) and a vertical rotation (tilting) are possible, a photographing angle is variable, and a zoom function is combined are widely used. However, the PTZ camera is limited to the limited area.

즉, 상기한 바와 같은 고정형 감시카메라 및 PTZ 카메라는 국부적인 부분을 감시하고 있다. That is, the fixed-type surveillance camera and the PTZ camera as described above monitor a local part.

또한, 상기 고정형 감시카메라 및 상기 PTZ카메라는 근본적인 감시각이 좁기 때문에(좌우 90, 상하 60도가 보통), 범죄자가 상기 고정형 감시카메라 및 상기 PTZ 카메라가 지향하는 방향과 각도를 파악하고 있으면, 범죄자는 상기 방향과 각도를 벗어난 지역을 이용하거나 유회하여 범죄를 일으킬 수도 있다. 따라서, 상기 고정형 감시카메라 및 상기 PTZ카메라는 감시기능을 완벽하게 수행하지 못하고 있다. In addition, since the fixed surveillance camera and the PTZ camera have a narrow monitoring angle (left and right 90 °, and 60 ° normal), if the criminal grasps the direction and angle of the fixed surveillance camera and the PTZ camera, It is possible to use an area outside the above direction and angle, or it may cause crime by deliberation. Accordingly, the fixed surveillance camera and the PTZ camera do not perform monitoring functions perfectly.

셋째, 상기한 바와 같은 문제들을 해결하기 위하여, 어안렌즈를 사용하는 방식의 카메라(이하, 간단히 '파노라마 카메라'라 함)가 있다. 상기 파노라마 카메라는 상기 어안렌즈의 특성에 의해 넓은 지역을 감시할 수 있다. 그러나, 상기 파노라마 카메라는 모든 방위각의 무한 거리를 감시하는 특성을 가지고 있기 때문에, 중심부의 일부 근거리를 제외하고는, 피사체의 명확한 화상을 촬영하는 것이 불가능하다. 즉, 상기 파노라마 카메라(대한민국 특허 663483)의 영상은 원형의 이미지로 보일 뿐 아니라, 왜곡되어 표시된다. Third, in order to solve the above problems, there is a camera using a fish-eye lens (hereinafter, simply referred to as a panoramic camera). The panoramic camera can monitor a wide area by the characteristics of the fish-eye lens. However, since the panoramic camera has the characteristic of monitoring the infinite distance of all the azimuth angles, it is impossible to capture a clear image of the subject, except for a part near the center. That is, the image of the panoramic camera (Korean Patent 663483) is displayed not only as a circular image but also distorted.

따라서, 이를 해결하기 위한 기술(특허 공개 1020090078463)도 제안되고 있다. 그러나, 상기 파노라마 카메라의 해상도의 한계는 여전히 해결되지 못하고 있으며, 따라서, 상기 파노라마 카메라는 여전히 감시기능으로서의 한계를 가지고 있다. Therefore, a technique for solving this problem (Patent Publication No. 1020090078463) has also been proposed. However, the resolution limit of the panoramic camera is still not solved, and therefore, the panoramic camera still has a limitation as a monitoring function.

또한, 상기 파노라마 카메라는, 상기 어안렌즈의 특성상, 줌(ZOOM) 기능을 실행하기 어렵다. 따라서, 상기 파노라마 카메라는, 전체적인 감시는 가능하나 세부적인 감시는 불가능하다는 문제점을 가지고 있다. In addition, the panorama camera is difficult to perform a zoom function due to the characteristics of the fish-eye lens. Therefore, the panoramic camera has a problem that it is possible to perform overall monitoring but not to perform detailed monitoring.

넷째, 상기 파노라마 카메라의 문제를 해결하기 위하여, 다수의 카메라를 이용하여 넓은 지역을 감시하고, 상기 다수의 카메라의 영상을 상기 PTZ 카메라와 연계하여 감시기능을 수행하는 기술(대한민국 공개특허 1020110136907)이 제안되고 있다.Fourth, in order to solve the problem of the panoramic camera, a technique of monitoring a large area using a plurality of cameras and performing surveillance by linking the images of the plurality of cameras with the PTZ camera (Korean Patent Laid-Open Publication No. 1020110136907) Has been proposed.

그러나, 여러 대의 감시카메라가 이용되고 있기 때문에, 효율적인 측면에서 큰 의미가 없고, 설치비용이 비싸며, PTZ 카메라가 집중감시해야하는 방향을 찾는데 어렵다는 한계를 가지고 있다. However, since a plurality of surveillance cameras are used, there is no meaning in terms of efficiency, installation cost is high, and it is difficult to find a direction to be intensively monitored by a PTZ camera.

다섯째, 상기 파노라마 카메라를 이용한 무인감시 방법 및 장치(특허등록번호 10-2011-201310000)가 개발되고 있다. 그러나, 상기 기술은 어안렌즈에서 촬영된 원형의 영상부를 다수의 지역으로 나누어, 감시대상 지역을 PZT카메라가 찾아가도록 하는 복잡한 방법을 이용하고 있다. Fifth, an unmanned monitoring method and apparatus using the panoramic camera (Patent Registration No. 10-2011-201310000) are being developed. However, the above technique uses a complicated method of dividing a circular image portion captured by a fish-eye lens into a plurality of regions, and allowing the PZT camera to search the monitored region.

따라서, 설치하는 지역이나 위치에 따라서, 광역감시기능을 갖는 광역카메라(파노라마 카메라)와 종속 카메라(PTZ카메라)의 위치좌표가 변하면, 감시 기능을 실행하기 위해 복잡한 설정과정이 이루어져야 한다. 이로 인해, 광역 카메라(파노라마 카메라)와 종속 카메라(PTZ카메라)로 구성된 종래의 감시카메라 유니트는, 설치 및 이용이 어렵다는 문제점을 가지고 있다.
Therefore, if the location coordinates of a wide area camera (panorama camera) and a subordinate camera (PTZ camera) with wide area monitoring function change depending on the area or location to be installed, a complicated setting process must be performed in order to execute the monitoring function. Therefore, the conventional surveillance camera unit composed of the wide-area camera (panoramic camera) and the subordinate camera (PTZ camera) has a problem that it is difficult to install and use.

본 발명은 상술한 문제점을 해결하기 위한 것으로서, 광역 카메라를 이용하여 감시대상영역 전체를 감시하며, 상기 감시대상영역 중 상기 광역감시 카메라에 의해 지정된 특정 영역을 종속 카메라가 정밀하게 감시할 수 있는, 감시카메라 유닛 및 그 구동방법을 제공하는 것을 기술적 과제로 한다.
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a surveillance camera capable of monitoring a whole surveillance target area using a wide- A surveillance camera unit and a driving method thereof are provided.

상술한 기술적 과제를 달성하기 위한 본 발명에 따른 감시카메라 유닛은, 어안렌즈로 구성되어, 감시대상영역 전체를 감시하는 광역카메라; PTZ(Pen-Tilt Zoom) 카메라로 구성되어, 상기 감시대상영역의 특정위치를 세부적으로 감시하는 종속카메라; 상기 종속카메라의 패닝각과 틸트각을 변경시키는 구동부; 및 상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여 산출된 상기 종속카메라의 패닝각과 틸트각에 대응되는 제어신호를, 상기 구동부로 전송하는 제어부를 포함하며, 상기 제어부는, 상기 광역카메라 및 상기 구동부와 통신을 수행하기 위한 인터페이스; 상기 광역카메라에 촬영된 상기 피사체의 위치정보에 따른 상기 패닝각과 상기 틸트각 간의 맵핑정보를 저장하고 있는 저장기; 상기 광역카메라로부터 수신된 촬영정보를 이용하여 상기 피사체의 위치정보를 분석하기 위한 감지기; 및 상기 감지기로부터 수신된 상기 위치정보와 상기 맵핑정보를 이용하여 상기 종속카메라의 패닝각과 틸트각을 산출한 후, 상기 제어신호를 생성하여 상기 구동부로 전송하는 제어기를 포함한다.According to an aspect of the present invention, there is provided a surveillance camera unit comprising: a wide-area camera configured to include a fish-eye lens and to monitor an entire surveillance target area; A subordinate camera configured by a PTZ (Pen-Tilt Zoom) camera to closely monitor a specific position of the monitored area; A driver for changing a panning angle and a tilt angle of the slave camera; And a control unit for transmitting to the driving unit a control signal corresponding to a panning angle and a tilt angle of the slave camera calculated using the position information of the subject received from the wide area camera, An interface for performing communication with the driving unit; A storage for storing mapping information between the panning angle and the tilt angle according to positional information of the subject photographed by the wide area camera; A sensor for analyzing the position information of the subject using the photographing information received from the wide area camera; And a controller for calculating a panning angle and a tilt angle of the slave camera using the positional information and the mapping information received from the sensor, and transmitting the generated control signal to the driving unit.

상술한 기술적 과제를 달성하기 위한 본 발명에 따른 감시카메라 유닛 구동방법은, 어안렌즈로 구성되어, 감시대상영역 전체를 감시하는 광역카메라와, PTZ(Pen-Tilt Zoom) 카메라로 구성되어, 상기 감시대상영역의 특정위치를 세부적으로 감시하는 종속카메라와, 상기 종속카메라의 패닝각과 틸트각을 변경시키는 구동부, 및 상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여 산출된 상기 종속카메라의 패닝각과 틸트각에 대응되는 제어신호를, 상기 구동부로 전송하는 제어부를 포함하는 감시카메라 유닛이, 피사체에 대한 영상을 수신하는 단계; 상기 제어부가, 상기 광역카메라에 촬영된 상기 피사체의 위치정보에 따른 상기 패닝각과 상기 틸트각 간의 맵핑정보와, 상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여, 상기 종속카메라의 패닝각과 틸트각을 산출하는 단계; 상기 제어부가, 상기 패닝각과 상기 틸트각에 대응되는 제어신호를 생성하여 상기 구동부로 전송하는 단계; 상기 구동부가 상기 제어신호에 따라 상기 종속카메라의 패닝각과 틸팅각을 변경시키는 단계; 및 상기 패닝각 및 상기 틸팅각이 변경된 상기 종속카메라가 상기 피사체를 정밀하게 감시하는 단계를 포함한다.
According to another aspect of the present invention, there is provided a method for driving a surveillance camera unit, the surveillance camera unit including a fish-eye lens, the surveillance camera unit including a wide-area camera for monitoring the entire surveillance target area and a PTZ (Pen- A slave camera having a panning angle and a tilt angle of the slave camera calculated by using the position information of the subject received from the wide area camera; A surveillance camera unit including a control unit for transmitting a control signal corresponding to each angle to the driving unit, the method comprising: receiving an image of a subject; Wherein the controller is configured to calculate a tilt angle and a tilt angle of the slave camera based on mapping information between the panning angle and the tilt angle according to positional information of the subject photographed by the wide area camera and positional information of the subject received from the wide- ; Generating a control signal corresponding to the panning angle and the tilt angle and transmitting the generated control signal to the driving unit; Changing a panning angle and a tilting angle of the slave camera according to the control signal; And the slave camera having the panning angle and the tilting angle changed precisely monitors the subject.

본 발명에 따른 감시카메라 유닛은, 설치가 간편하며, 적은 비용으로도 효과적으로 감시기능을 수행할 수 있다.
The surveillance camera unit according to the present invention is easy to install and can effectively perform a surveillance function with a small cost.

도 1은 본 발명에 따른 감시카메라 유닛의 구성을 나타낸 예시도.
도 2는 본 발명에 따른 감시카메라 유닛에 적용되는 제어부의 일실시예 구성도.
도 3은 본 발명에 따른 감시카메라 유닛에 적용되는 광역카메라의 어안렌즈를 통하여 피사체의 광정보가 입사하고, 입사된 광정보가 제어부를 구성하는 감지기의 각 화소에 촬상되는 것을 나타낸 예시도.
도 4는 본 발명에 따른 감시카메라 유닛에 적용되는 종속카메라의 패닝각을 제어하는 방법을 설명하기 위한 예시도.
도 5는 본 발명에 따른 감시카메라 유닛에 적용되는 종속카메라의 틸트각을 제어하는 방법을 설명하기 위한 예시도.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is an exemplary view showing a configuration of a surveillance camera unit according to the present invention; Fig.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a surveillance camera unit.
FIG. 3 is an exemplary view showing that light information of a subject enters through a fisheye lens of a wide-angle camera applied to a surveillance camera unit according to the present invention, and the incident light information is picked up by each pixel of the sensor constituting the control unit.
4 is an exemplary view for explaining a method of controlling a panning angle of a slave camera applied to a surveillance camera unit according to the present invention;
5 is a view for explaining a method of controlling a tilt angle of a slave camera applied to a surveillance camera unit according to the present invention;

이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 대해 상세히 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 감시카메라 유닛의 구성을 나타낸 예시도이고, 도 2는 본 발명에 따른 감시카메라 유닛에 적용되는 제어부의 일실시예 구성도이며, 도 3은 본 발명에 따른 감시카메라 유닛에 적용되는 광역카메라의 어안렌즈를 통하여 피사체의 광정보가 입사하고, 입사된 광정보가 제어부를 구성하는 감지기의 각 화소에 촬상되는 것을 나타낸 예시도이다. 도 4는 본 발명에 따른 감시카메라 유닛에 적용되는 종속카메라의 패닝각을 제어하는 방법을 설명하기 위한 예시도이며, 도 5는 본 발명에 따른 감시카메라 유닛에 적용되는 종속카메라의 틸트각을 제어하는 방법을 설명하기 위한 예시도이다. FIG. 1 is a diagram illustrating the configuration of a surveillance camera unit according to the present invention. FIG. 2 is a block diagram of a control unit applied to a surveillance camera unit according to the present invention. The optical information of the subject enters through a fisheye lens of a wide-angle camera applied to the sensor, and the incident optical information is picked up by each pixel of the sensor constituting the control unit. FIG. 4 is a view for explaining a method of controlling a panning angle of a slave camera applied to a surveillance camera unit according to the present invention, and FIG. 5 is a view for explaining a method of controlling a tilt angle of a slave camera applied to a surveillance camera unit according to the present invention And FIG.

본 발명에 따른 감시카메라 유닛은, 도 1에 도시된 바와 같이, 감시대상영역 전체를 감시하는 광역카메라(100), 상기 감시대상영역 중 특정영역을 세부적으로 감시하는 종속카메라(200), 상기 종속카메라의 패닝각과 틸트각을 변경시키는 구동부(400) 및 상기 광역카메라(100)로부터 수신된 피사체의 위치정보를 이용하여 산출된 상기 종속카메라의 패닝각과 틸트각에 대응되는 제어신호를 상기 구동부로 전송하기 위한 제어부(300)를 포함한다.
1, the surveillance camera unit according to the present invention includes a wide-area camera 100 that monitors the entire surveillance target area, a slave camera 200 that closely monitors a specific area of the surveillance target area, A driving unit 400 for changing a panning angle and a tilt angle of the camera and a control signal corresponding to a panning angle and a tilt angle of the slave camera calculated using the position information of the subject received from the wide area camera 100, And a control unit 300 for controlling the display unit.

우선, 상기 광역카메라(100)는 감시대상영역 전체를 감시하는 기능을 수행한다. 상기 광역카메라(100)는 예를 들어, 어안렌즈가 장착되어 있는 파노라마 카메라가 적용될 수 있다.
First, the wide area camera 100 performs a function of monitoring the entire monitored area. For example, the wide-area camera 100 may be a panoramic camera equipped with a fish-eye lens.

다음, 상기 종속카메라(200)는 상기 감시대상영역 중 특정영역을 세부적으로 감시하는 기능을 수행한다.Next, the slave camera 200 performs a function of monitoring a specific area of the monitored area in detail.

상기 종속카메라(200)는 예를 들어, PTZ(Pen-Tilt Zoom) 카메라가 적용될 수 있다.
For example, a PTZ (Pen-Tilt Zoom) camera may be applied to the slave camera 200.

다음, 상기 구동부(400)는 상기 제어부(300)로부터 전송되어온 제어신호를 이용하여 상기 종속카메라의 패닝각과 틸트각을 변경시키는 기능을 수행한다.Next, the driving unit 400 performs a function of changing the panning angle and the tilt angle of the slave camera using the control signal transmitted from the controller 300.

상기 패닝각(P)이란, 도 4에 도시된 바와 같이, 상기 종속카메라(200)와 피사체(500)가 동일 평면상에 있다고 가정할 때, 기준점(0도)으로부터, 상기 종속카메라(200)와 상기 피사체(500) 사이의 직선이 이루는 각도(P)를 말한다. 즉, 상기 피사체(500)와 상기 종속카메라(200)는, 0도 내지 360도의 각도 중 어느 하나의 패닝각(P)을 가진 상태로 배치되어 있다. 4, from the reference point (0 degree) to the slave camera 200, it is assumed that the slave camera 200 and the subject 500 are on the same plane, And the angle (P) formed by the straight line between the subject 500 and the subject 500. That is, the subject 500 and the slave camera 200 are arranged with a panning angle P of 0 to 360 degrees.

상기 구동부(400)는 상기 패닝각(P)에 따라, 상기 종속카메라(200)를 수평면 상에서 회전시킨다. The driving unit 400 rotates the slave camera 200 on the horizontal plane according to the panning angle P.

상기 틸트각(T)이란, 도 5에 도시된 바와 같이, 상기 종속카메라(200)와 지면이 수직하게 만나는 직선과, 상기 종속카메라와 상기 피사체(500)가 이루는 직선간의 각도를 말한다. 5, the tilt angle T refers to an angle between a straight line where the ground surface of the slave camera 200 is perpendicular to a line and a straight line between the slave camera and the subject 500, as shown in FIG.

상기 틸트각(T)은 상기 피사체(500)와 상기 종속카메라(200) 사이의 거리에 따라 변경된다. 예를 들어, 상기 피사체(500)가, 도 5의 (A)와 같이, 상기 종속카메라(200)의 수직 하단에 배치되어 있는 경우, 상기 틸트각(T)은 0도가 된다. 상기 피사체(500)가, 상기 종속카메라(200)로부터 멀어질수록, 상기 틸트각(T)은 점점 커지며, 상기 피사체(500)가 상기 종속카메라(200)로부터 상당히 멀리 떨어져 있는 경우, 상기 틸트각(T)은 90도에 가까워진다. The tilt angle T is changed according to the distance between the subject 500 and the slave camera 200. For example, when the subject 500 is disposed at the vertical lower end of the slave camera 200 as shown in FIG. 5A, the tilt angle T is 0 degrees. As the subject 500 is farther from the slave camera 200 the tilt angle T increases and if the subject 500 is far away from the slave camera 200, (T) approaches 90 degrees.

즉, 상기 틸트각(T)은 0도 이상, 90도보다는 작은 각도 중 어느 하나의 각도를 형성한다.
That is, the tilt angle T forms an angle of 0 degrees or more and a smaller angle than 90 degrees.

마지막으로, 상기 제어부(300)는 상기 광역카메라(100)로부터 수신된 상기 피사체(500)의 위치정보를 이용하여, 상기 종속카메라(200)의 패닝각과 틸트각을 산출한 후, 상기 패닝각과 틸트각에 대응되는 제어신호를 생성한다.Finally, the control unit 300 calculates the panning angle and the tilt angle of the slave camera 200 using the position information of the subject 500 received from the wide area camera 100, And generates a control signal corresponding to each angle.

상기 구동부(400)가, 상기 제어신호에 따라, 상기 종속카메라(200)의 패닝각과 틸트각을 변경시킴으로써, 상기 종속카메라(200)는 상기 피사체(500) 방향으로 회전된다. 또한, 상기 종속카메라(200)가 상기 피사체(500) 방향으로 회전됨에 따라 상기 종속카메라(200)가 상기 피사체(500)를 정밀하게 감시할 수 있다. The driving unit 400 rotates the slave camera 200 in the direction of the subject 500 by changing the panning angle and the tilt angle of the slave camera 200 according to the control signal. In addition, as the slave camera 200 is rotated in the direction of the subject 500, the slave camera 200 can precisely monitor the subject 500.

상기 제어부(300)는 도 2에 도시된 바와 같이, 상기 광역카메라(100)와 상기 구동부(400)와 통신을 수행하기 위한 인터페이스(310), 상기 광역카메라(100)에 촬영된 상기 피사체(500)의 위치정보에 따른 상기 패닝각과 상기 틸트각의 맵핑(Mapping)정보를 저장하고 있는 저장기(330), 상기 광역카메라(100)로부터 수신된 촬영정보를 이용하여 상기 피사체(500)의 위치정보를 분석하기 위한 감지기(340) 및 상기 감지기(340)로부터 수신된 상기 위치정보와 상기 맵핑정보를 이용하여 상기 종속카메라(200)의 패닝각과 틸트각을 산출한 후, 상기 패닝각과 상기 틸트각에 따라 상기 구동부(400)를 제어할 제어신호를 생성하여, 상기 제어신호를 상기 구동부로 전송하는 제어기(320)를 포함한다.
2, the control unit 300 includes an interface 310 for performing communication with the wide area camera 100 and the driving unit 400, an object 310 A storage 330 for storing the panning angle and the mapping information of the tilt angle according to the position information of the subject 500 and the position information of the subject 500 using the photographing information received from the wide- And the tilting angle of the slave camera 200 using the position information and the mapping information received from the detector 340. The panning angle and tilt angle of the slave camera 200 are calculated, And a controller 320 for generating a control signal for controlling the driving unit 400 and transmitting the control signal to the driving unit.

상기한 바와 같은 본 발명은, 감시대상영역의 전체 영역을 감시할 수 있는 어안렌즈가 달린 광역카메라(파노라마 카메라)(100)와, 감시대상영역 중 특정 영역을 정밀하게 감시할 수 있는 종속카메라(PTZ(Pen-Tilt Zoom))(200)로 구성된 감시카메라 유니 및 그 구동방법에 관한 것이다. The present invention as described above includes a wide-area camera (panoramic camera) 100 having a fisheye lens for monitoring the entire area of the monitored area, and a slave camera capable of precisely monitoring a specific area of the monitored area PTZ (Pen-Tilt Zoom)) 200 and a driving method thereof.

즉, 본 발명은 현장에서의 설치가 표준화될 수 있고, 그 표준화된 설치 방법에 의해서 상기 광역카메라(어안렌즈가 부착된 카메라)(100)와 상기 종속카메라(PTZ)(200)의 설치가 기구적으로 일체화될 수 있고, 프로그램의 연계에 의하여 상기 종속카메라(200)의 패닝각(P) 및 틸트각(T)이 변경될 수 있으며, 상기 패닝각(P) 및 틸트각(T)의 변경과 상기 종속카메라(200)의 줌인(ZOOM-IN) 기능을 이용하여하여 상기 감시대상영역의 특정 영역을 정밀하게 감시할 수 있는, 감시카메라 유닛 및 그 구동방법에 관한 것이다. That is, according to the present invention, installation on the field can be standardized, and the installation of the wide-area camera (camera with fish-eye lens) 100 and the slave camera (PTZ) The panning angle P and the tilt angle T of the slave camera 200 can be changed by the combination of the programs and the change of the panning angle P and the tilt angle T can be changed And a ZOOM-IN function of the slave camera 200 to precisely monitor a specific area of the monitored area, and a driving method thereof.

본 발명에 따른 감시카메라 유닛은, 도 1에 도시된 바와 같이, 광역의 촬영이 가능한 어안렌즈가 달린 광역카메라(100) 및 이와 연계된 종속카메라(200)가 하나의 유닛으로 제작된다. 즉, 본 발명에 따른 감시카메라 유닛은, 광역감시와 특정 영역의 줌에 의한 정밀감시가 가능하도록, 어안렌즈가 부착된 광역카메라(100)와 종속카메라(200)가 단일 유닛에 기구적으로 연결되어 있다. As shown in FIG. 1, the surveillance camera unit according to the present invention includes a wide-area camera 100 having a fisheye lens capable of wide-area imaging and a slave camera 200 associated therewith as a single unit. That is, in the surveillance camera unit according to the present invention, a wide-area camera 100 and a slave camera 200, to which a fisheye lens is attached, are mechanically connected to a single unit so that wide- .

본 발명에 따른 감시카메라 유닛은, 어안렌즈의 기능을 갖는 상기 광역카메라(100)에 의해서, 상기 광역카메라(100)의 수평 방향의 하향면의 전영역을 촬영할 수 있다. 이 경우, 화소수가 한정되어 있는 상기 광역카메라(100)의 해상도로는, 피사체(500)의 정확한 형상을 확인하는데 한계가 있다. The surveillance camera unit according to the present invention can photograph the entire area of the downward surface in the horizontal direction of the wide-area camera 100 by the wide-area camera 100 having the function of a fish-eye lens. In this case, resolution of the wide-area camera 100 in which the number of pixels is limited has a limitation in confirming the accurate shape of the subject 500.

부연하여 설명하면, 상기 광역카메라(100)는, 센서의 중심부, 즉, 화면의 중심부에서 촬영되는 피사체(도 3 및 도 5의 (A), (B))에 대하여는, 상기 피사체와 상기 광역카메라(100)의 거리가 멀지 않기 때문에, 대체적으로 명확한 화상을 제공해준다. 그러나, 화상의 중심으로부터 떨어진 화소에서 촬상되는 피사체(도 3 및 도 5의 (C))의 화상은, 상기 피사체(500)와 상기 광역카메라(100)와의 거리가 멀기 때문에, 명확하지 않다.3 and 5 (A) and 5 (B)) taken at the center of the sensor, that is, at the center of the screen, the wide- Since the distance of the light source 100 is not so long, it provides a clear image. However, the image of the subject (FIGS. 3 and 5 (C)) picked up by the pixel apart from the center of the image is not clear because the distance between the subject 500 and the wide-area camera 100 is far.

이 문제점을 해결하기 위하여, 본 발명은 상기 종속카메라(200)가 특정 영역의 피사체를 명확하게 촬영하는 기능을 수행한다. In order to solve this problem, the present invention performs the function of clearly capturing a subject of a specific area by the slave camera 200.

즉, 본 발명은 광역카메라(100)를 이용하여 1차적으로 피사체(500)의 위치를 확인한 후, 2차적으로 상기 피사체(500)의 위치를 종속카메라(200)를 이용하여 세밀하게 감시할 수 있다. 이때, 상기 종속카메라(200)가 상기 피사체(500)의 위치를 향할 수 있도록, 상기 제어부(300)는 상기 종속카메라(200)의 패닝각(P) 및 틸트각(T)을 산출하며, 상기 패닝각(P) 및 틸트각(T)에 대응하는 제어신호를 생성한다. 상기 구동부(400)는 상기 제어신호에 따라 상기 종속카메라(200)의 패닝각(P) 및 틸트각(T)을 변경시킨다.
That is, in the present invention, the position of the subject 500 is firstly checked using the wide-angle camera 100, and then the position of the subject 500 is secondly closely monitored using the slave camera 200 have. The control unit 300 calculates a panning angle P and a tilt angle T of the slave camera 200 so that the slave camera 200 can point to the position of the subject 500, And generates a control signal corresponding to the panning angle P and the tilt angle T, respectively. The driving unit 400 changes the panning angle P and the tilt angle T of the slave camera 200 according to the control signal.

이하에서는, 상기 감시카메라 유닛의 구동방법이 상세히 설명된다.Hereinafter, a method of driving the surveillance camera unit will be described in detail.

우선, 상기 저장기(330)에는 상기 광역카메라(100)에 촬영된 상기 피사체(500)의 위치정보에 따른 상기 패닝각과 상기 틸트각의 맵핑정보가 저장된다.The panning angle and the tilt angle mapping information according to the position information of the subject 500 photographed by the wide-area camera 100 are stored in the storage 330.

즉, 상기 광역카메라(100)에서 촬영된 피사체(500)의 각각의 위치정보에 대응되는 패닝각과 상기 틸트각의 맵핑정보가 상기 저장기(330)에 저장된다.That is, the panning angle and the tilt angle mapping information corresponding to the respective position information of the subject 500 photographed by the wide-area camera 100 are stored in the storage 330.

여기서, 상기 맵핑정보는, 모든 특정 좌표와 모든 특정 패닝각 또는 모든 특정 틸트각이 일대일로 맵핑되어 있을 수 있다. 그러나, 이 경우, 맵핑정보가 방대해 질 수 있다. 따라서, 상기 맵핑정보는, 기준이 되는 몇 개의 특정 좌표와 이에 대응되는 특정 패닝각 또는 특정 틸트각에 대한 정보와 함께, 이들 정보로 부터 모든 특정 좌표에 대한 패닝각 및 틸트각을 산출할 수 있는 간단한 계산식을 포함할 수 있다. Here, the mapping information may have all the specific coordinates and all the specific panning angles or all the specific tilt angles mapped on a one-to-one basis. However, in this case, the mapping information can be enormous. Accordingly, the mapping information may include information on a certain specific coordinates as a reference, information on a specific panning angle or a specific tilt angle corresponding thereto, and information on the panning angle and tilt angle for all specific coordinates from the information You can include simple calculations.

예를 들어, (B) 및 (C)영역에 있는 피사체의 위치정보들과, 상기 위치정보들 각각에 대응되는 패닝각 및 틸트각에 대한 정보들이 상기 매핍정보에 저장되어 있고, 상기 (B)와 (C) 사이의 간격과, 상기 간격에서의 상기 패닝각 및 틸트각의 변경정보가 상기 매핍정보에 저장되어 있다면, 상기 제어부는, 상기 (B) 및 (C)영역 사이에 있는 피사체들에 대한 패닝각 및 틸트각을 산출할 수 있다.
For example, the position information of the subject in the areas (B) and (C), and the information about the panning angle and the tilt angle corresponding to the position information are stored in the detail information, And the tilt angle change information in the interval are stored in the picture information, the control unit may determine whether or not the objects between the areas (B) and (C) The panning angle and the tilt angle can be calculated.

다음, 상기 감시카메라 유닛을 구매한 사용자 또는 판매자(이하, 간단히 '사용자'라 함), 상기 감시대상영역의 특정 위치에 상기 광역카메라(100)와 상기 종속카메라(200)를 장착한다.Next, a user or a seller who purchases the surveillance camera unit (hereinafter, simply referred to as a 'user') mounts the wide area camera 100 and the slave camera 200 at specific locations in the surveillance area.

상기 감시카메라 유닛을 설치한 사용자는, 상기 광역카메라(100)와 상기 종속카메라(200)의 패닝각(P)을 설정한다.The user installing the surveillance camera unit sets the panning angle P of the wide area camera 100 and the slave camera 200.

즉, 상기 종속카메라(200)의 패닝각(P)을 정확하게 제어하기 위해, 상기 광역카메라(100)의 기준좌표(0도)와 상기 종속카메라(200)의 기준좌표(0도)를 일치시킨다. That is, to precisely control the panning angle P of the slave camera 200, the reference coordinates (0 degrees) of the wide area camera 100 and the reference coordinates (0 degrees) of the slave camera 200 are matched .

이러한 설정은, 상기 광역카메라(100) 및 상기 종속카메라(200)에 설정되어 있는 센서 또는 입출력장치를 이용하여 수행될 수 있다.This setting can be performed using the wide area camera 100 and the sensor or input / output device set in the slave camera 200. [

상기 방법 이외에도, 사용자는 다양한 방법을 이용하여 상기 광역카메라(100)와 상기 종속카메라(200)의 기준좌표를 동일하게 설정할 수 있다. In addition to the above method, the user can set the reference coordinates of the wide area camera 100 and the slave camera 200 to be the same using various methods.

예를 들어, 상기 사용자는, 상기 종속카메라(200)가 향하고 있는 현재의 패닝각(P) 또는 상기 패닝각에 대응되는 방향의 좌표(이하, 간단히 '설정 패닝각'이라 함)를, 상기 저장기(330)에 저장할 수 있다. 이 경우, 상기 제어부(300)는 상기설정 패닝각을 기준으로 하여, 상기 위치정보에 따라 산출된 상기 패닝각에 따라 상기 구동부(400)를 구동시킬 수 있다. For example, the user can input the current panning angle P or the coordinates of the direction corresponding to the panning angle (hereinafter, simply referred to as 'setting panning angle') that the slave camera 200 is heading to (330). ≪ / RTI > In this case, the control unit 300 may drive the driving unit 400 according to the panning angle calculated based on the position information, based on the setting panning angle.

또한, 상기 감시카메라 유닛을 설치한 사용자는, 상기 광역카메라(100)와 상기 종속카메라(200)의 틸트각(T)을 설정한다.Further, the user installing the surveillance camera unit sets the tilt angle (T) between the wide area camera 100 and the slave camera 200.

즉, 상기 패닝각(P)과 마찬가지로, 상기 사용자는 상기 종속카메라(200)의 현재의 틸트각(T)에 대한 정보(이하, 간단히 '설정 틸트각'이라 함)를 상기 저장기(330)에 저장할 수 있다. 이 경우, 상기 제어부(300)는 상기 설정 틸트각을 기준으로 하여, 상기 위치정보에 따라 산출된 상기 틸트각에 따라 상기 구동부(400)를 구동시킬 수 있다.
That is, similar to the panning angle P, the user can input information (hereinafter, simply referred to as 'set tilt angle') of the current tilt angle T of the slave camera 200 to the storage 330, Lt; / RTI > In this case, the control unit 300 may drive the driving unit 400 according to the tilt angle calculated based on the positional information with reference to the set tilt angle.

다음, 상기 제어부(300)는 상기 감시대상영역을 감시하면서, 상기 감시대상영역에 위치하는 피사체를 촬영하여, 상기 피사체(500)의 패닝각(P)을 산출한다.Next, while monitoring the monitored area, the controller 300 photographs a subject located in the monitored area and calculates a panning angle (P) of the subject 500.

이 경우, 상기 제어부(300)는 별도의 모션감지센서에 의해 피사체가 감지된 경우, 상기 피사체의 패닝각(P)을 산출하는 기능을 수행할 수도 있으며, 상기 감지기(340)로부터 감지된 영상의 변화를 이용하여, 상기 피사체의 패닝각(P)을 산출할 수도 있다. 그러나, 상기 제어부(300)는 상기 틸트각(T)을 먼저 산출한 후 상기 패닝각(P)을 산출할 수도 있다.In this case, the control unit 300 may calculate the panning angle P of the subject when the subject is detected by a separate motion sensor, , The panning angle (P) of the subject can be calculated. However, the controller 300 may first calculate the tilt angle T and then calculate the panning angle P.

도 3의 (a)는 상기 광역카메라(100)의 어안렌즈를 통하여, 상기 피사체(500)의 광정보가 입사하는 상태를 나타낸 것으로서, (A)는 상기 광역카메라(100)의 수직 하단에 있는 피사체의 광정보가 입사하는 상태를 나타내고 있으며, (B)와 (C)는 상기 광역카메라(100)의 수직 하단으로부터 일정 각도(틸트각) 이격되어 있는 피사체들로부터 입사되는 광정보를 나타내고 있다. 3A shows a state in which optical information of the subject 500 is incident through a fisheye lens of the wide-angle camera 100. FIG. 3A shows a state in which the optical information of the subject 500 is incident on the fisheye lens of the wide- (B) and (C) show optical information that is incident on subjects that are separated from a vertical lower end of the wide-angle camera 100 by a predetermined angle (tilt angle).

여기서, (C)에 대응되는 피사체(500)는, (B)에 대응되는 피사체(500)보다, 상기 광역카메라(100)의 수직 하단으로부터 더 멀리 이격되어 있다. 따라서, (C)에 대응되는 피사체(500)와 상기 광역카메라(100) 또는 상기 종속카메라(200)가 이루는 틸트각(T)은, (B)에 대응되는 피사체(500)와 상기 광역카메라(100) 또는 상기 종속카메라(200)가 이루는 틸트각(T)보다 크다.Here, the subject 500 corresponding to (C) is farther away from the vertical lower end of the wide-angle camera 100 than the subject 500 corresponding to (B). The tilt angle T between the wide-angle camera 100 or the slave camera 200 corresponding to the object C and the tilt angle T between the subject 500 and the wide- 100) or the tilt angle (T) of the slave camera (200).

도 3의 (b)는 상기 광역카메라(100)의 어안렌즈를 통하여, 입사된 광정보가 상기 감지기(340)의 화소에 촬상되는 상태를 나타낸 것이다. 도 3의 (b)에 도시된 바와 같이, 상기 광역카메라(100)에서 얻어지는 화상은 원형을 이루고 있다.3B shows a state in which the incident light information is picked up by the pixels of the detector 340 through the fisheye lens of the wide-angle camera 100. FIG. As shown in FIG. 3 (b), the image obtained by the wide-area camera 100 has a circular shape.

한편, 상기 종속카메라(200)의 패닝각(P)은, 도 4에 도시된 바와 같이, 상기 광역카메라(100)로부터 촬상된 상기 피사체(500)가 상기 감지기(센서)(330)의 기준점(0도)으로부터 얼마만큼의 각도로 이격되어 있는지를 판단하는 것에 의해 산출될 수 있다. 4, the panning angle P of the slave camera 200 is set such that the subject 500 picked up from the wide-area camera 100 is positioned at a reference point of the sensor 330 0 deg.) Of a predetermined angle.

예를 들어, 도 4에 도시된 바와 같이, 상기 감지기(센서)(340)의 6시 방향을 기준점(0도)으로 한 경우, 상기 광역카메라(200)로부터 촬영된 피사체(500)가 8시 방향에서 감지되었다면, 상기 피사체(500)는 상기 6시 방향으로부터의 상기 피사체(500)가 이루는 각도에 해당되는 패닝각(P)을 갖는다.4, when the 6 o'clock direction of the detector (sensor) 340 is set as a reference point (0 degree), the subject 500 photographed from the wide area camera 200 is set at 8 o'clock The subject 500 has a panning angle P corresponding to the angle formed by the subject 500 from the 6 o'clock direction.

즉, 상기 제어기(320)는 상기한 바와 같은 정보들을 이용하여, 상기 피사체(500)의 패닝각(P)을 산출한다. 부연하여 설명하면, 상기 패닝각(P)의 계산은 상기 감지기(340)를 구성하는 센서의 각 화소들 중 중심에 위치한 화소로부터 상기 피사체(500)의 XY좌표에 의하여 쉽게 계산된다.That is, the controller 320 calculates the panning angle P of the subject 500 using the information as described above. The calculation of the panning angle P is easily calculated by the XY coordinates of the subject 500 from the pixel positioned at the center among the pixels of the sensor constituting the sensor 340. [

이 경우, 상기 제어부(300)는, 상기 감지기(340)를 통해, 상기 피사체(500)가 이동되는 것을 감지하여, 피사체(500)가 있음을 확인한 후, 상기한 바와 같이 패닝각(P)을 계산할 수 있다. In this case, the controller 300 detects the movement of the subject 500 through the detector 340, confirms that the subject 500 exists, and then determines the panning angle P as described above Can be calculated.

따라서, 상기 감지기(340) 및 상기 제어기(320)는 상기 피사체(500) 자체를 감지하는 기능을 수행할 수도 있다. 이를 위해, 상기 감지기(330)에는 모션감지센서가 더 포함될 수도 있다.
Accordingly, the detector 340 and the controller 320 may detect the subject 500 itself. To this end, the sensor 330 may further include a motion detection sensor.

다음, 상기 제어부(300)는 상기 감시대상영역을 감시하면서, 상기 감시대상영역에 위치하는 피사체를 촬영하여, 상기 피사체(500)의 틸트각(T)을 산출한다.Next, while monitoring the monitored area, the controller 300 photographs a subject located in the monitored area and calculates a tilt angle (T) of the subject 500.

즉, 상기 제어기(320)는, 도 5에 도시된 바와 같이, 상기 감지기(340)를 구성하는 센서의 각 화소들 중, 중심에 위치한 화소로부터, 상기 센서에 표시된 상기 피사체(500)의 거리를 이용하여, 상기 피사체(500)의 틸트각(T)을 산출한다.That is, as shown in FIG. 5, the controller 320 calculates the distance of the subject 500 displayed on the sensor from the pixel located at the center among the pixels of the sensor constituting the sensor 340 The tilt angle T of the subject 500 is calculated.

이 경우, 상기 피사체(500)가 상기 센서의 상기 중심점으로부터 멀어질수록, 상기 피사체와 상기 광역카메라(100)의 거리는 상대적으로 점점더 멀어진다. 즉, 상기 중심점으로부터 2 x S 만큼 이격되어 있는 피사체는, 상기 중심점으로부터 S만큼 이격되어 있는 피사체보다, 2배 이상 상기 중심점으로부터 더 멀리 이격되어 있다. 이러한 맵핑정보는 상기한 바와 같이, 상기 저장기(330)에 저장되어 있다. In this case, the farther the subject 500 is from the center point of the sensor, the more distant the distance between the subject and the wide-area camera 100 becomes. That is, the subject, which is spaced apart from the center point by 2 x S, is farther away from the center point by more than twice the distance from the center point by S. The mapping information is stored in the storage 330 as described above.

즉, 상기 패닝각을 산출한 상기 제어부(300)는, 상기 광역카메라(100)와 상기 종속카메라(200)와 상기 피사체(500)의 위치정보 및 상기 맵핑정보를 이용하여 상기 틸트각(T)을 산출한다. 상기 틸트각(T)을 얻기 위하여는 먼저 상기 광역카메라(100)로 입사되는 상기 피사체(500)의 광의 입사각을 알아야 한다. The control unit 300 calculates the tilt angle T using the position information of the wide area camera 100, the slave camera 200, and the subject 500 and the mapping information, . In order to obtain the tilt angle T, first, the angle of incidence of the light of the subject 500 incident on the wide-angle camera 100 should be known.

한편, 상기 틸트각(T)의 계산을 위해서는 일반적으로 복잡한 계산식이 이용되어야 하나, 본 발명에서는, 상기한 설명 및 도 5에 도시된 바와 같은 방법을 이용하여, 상기 틸트각(T)을 간단히 산출하고 있다. In order to calculate the tilt angle T, a complex calculation formula is generally used. In the present invention, the tilt angle T is simply calculated using the above description and the method shown in FIG. .

도 5에는 각 픽셀의 정보를 실제 정보입력 방법에 의하여 입력하는 간단한 입력방식을 보여주고 있다. 즉, 본 발명에서는, 도 5에 도시된 바와 같이, 상기 광역카메라(100)로부터 촬영된 피사체의 위치와 상기 피사체의 거리를 맵핑시켜, 상기 저장기(330에 저장하고 있다. 따라서, 상기 감지기(340)의 중심점으로부터 상기 피사체의 거리만 산출되면, 상기 광역카메라(100)로부터 상기 피사체까지의 실제 거리가 판단된다. 상기 제어부(300)는 상기 실제 거리를 이용하여 상기 종속카메라의 상기 틸트각(T)을 산출할 수 있다.5 shows a simple input method of inputting information of each pixel by an actual information input method. 5, the position of the subject photographed by the wide-area camera 100 is mapped with the distance of the subject, and is stored in the storage 330. Accordingly, The controller 300 determines the actual distance from the wide area camera 100 to the subject by calculating the distance of the subject from the center point of the tilting angle of the slave camera 340. [ T) can be calculated.

상기 방법은, 도 5에 도시된 바와 같이, 상기 광역카메라(100)를 구성하는 어안렌즈와 같은 형태의 원형의 좌표표지 판을 이용하는 것으로서, 각 원의 원호상에 있는 픽셀은 같은 틸트각을 갖는다는 점을 이용하고 있다. 여기서, 상기 원형의 좌표표시 판의 각 영역은 상기 감지기(340)의 각 화소들에 대응된다.As shown in Fig. 5, the method uses a circular coordinate mark plate of the same type as that of a fish-eye lens constituting the wide-angle camera 100, and the pixels on the circular arc of each circle have the same tilt angle Is using the point. Here, each area of the circular coordinate indicating plate corresponds to each pixel of the detector 340.

즉, 종래에는, 복잡한 계산식을 이용하여 상기 틸트각을 산출하였다. 이 경우, 상기 광역카메라(100)의 어안렌즈로 들어오는 피사체로부터의 반사광의 입사각은, 렌즈의 설계와 광학계의 설계에 의해서 변하기 때문에 광학계 전체의 광로를 계산해야하는 어려운 공식이 된다. 이 방법에 의해서 얻어진 입사광과 센서의 화소와의 관계는 렌즈의 설계공차가 발생하여 실제의 센서의 화소와 일치시키기가 어려운 면이 있다. 또한, 제품을 생산시에 렌즈와 센서와의 조립과정에서 조립 오차가 발생하기 때문에 최종적인 제품의 생산을 위하여는 품질관리 시스템이 있어야한다.That is, in the past, the tilt angle was calculated using a complex calculation formula. In this case, since the angle of incidence of the reflected light from the subject coming into the fish-eye lens of the wide-area camera 100 varies depending on the design of the lens and the design of the optical system, it becomes a difficult formula to calculate the optical path of the entire optical system. The relationship between the incident light obtained by this method and the pixel of the sensor is that it is difficult to match the pixel of the actual sensor due to the design tolerance of the lens. Also, since the assembly error occurs during the assembly process between the lens and the sensor when producing the product, a quality control system is required for the final product production.

상기한 바와 같은 종래의 문제를 해결하기 하기 위해, 본 발명에서는, 도 5에 도시된 In order to solve the above-described conventional problems, in the present invention, 좌표각Coordinate angle 입력표와Input table and , 본 발명에서 응용되는 입사각과 좌표를 완성 후, 각각의 제품의 최종생산시에 화소의 각 원호가 , After completing the incidence angle and the coordinates used in the present invention, it is possible that each arc of the pixel 촬상되는Captured 원호를 따라서, 그 입사각 정보를 입력하면 되는 아주 간단한 방법을 이용하고 있다.  A very simple method of inputting the incident angle information along an arc is used.

즉, 최종 입사각 확정을 위하여, That is, in order to determine the final incidence angle, 좌표각Coordinate angle 입력표는The input table 각각의 원호에 대하여, 센서와 각각의 원호와 중심각으로부터의 입사각이 이미 계산되어 있기 때문에, 최종의 생산시에는  For each arc, since the angles of incidence from the sensor, each arc and the central angle have already been calculated, 촬상된Captured 각각의 원호에 해당하는 입사각을 입력하고, 그 픽셀로부터 원래의 계산한 것과 벗어나는 것에 대하여 상하, 좌우의 수정만을 입력하면, 입사각의 계산이 완료된다.  Inputting the angle of incidence corresponding to each arc and inputting only the up and down and left and right modifications to the deviation from the original calculation from the pixel, the calculation of the angle of incidence is completed.

이 계산된 입사각과 상기 광역카메라(100) 또는 상기 종속카메라(200) 사이의 거리를 계산하여 The calculated incidence angle and the distance between the wide area camera 100 and the slave camera 200 are calculated 틸트각을Tilt angle 계산하면, 상기 종속카메라(200)의  As a result, 틸트각(T)이The tilt angle (T) 쉽게 계산된다. It is easily calculated.

이 경우, 상기 광역카메라(100)가 지상으로부터 10미터 이내에 설치되어 있고, 상기 광역카메라(100)와 상기 종속카메라(200) 사이의 거리가 50센티미터 이내인 경우는, 상기 광역카메라(100)의 광입사각의 정보를 그대로 상기 종속카메라(200)의 좌표정보로 사용해도, 상기 틸트각(T)의 오차는 크게 발생되지 않는다. In this case, if the wide area camera 100 is installed within 10 meters from the ground, and the distance between the wide area camera 100 and the slave camera 200 is within 50 centimeters, The error of the tilt angle T does not occur largely even if the information of the incident angle of light is used as the coordinate information of the slave camera 200 as it is.

즉, 도 1에서, X1은 상기 피사체(500)와 상기 광역카메라(100) 간의 거리이고, X2는 상기 광역카메라(100)와 지면과의 거리이고, X3은 상기 광역카메라(100)와 상기 피사체(500)와의 거리이고, X4는 상기 종속카메라(200)와 상기 피사체(500)와의 거리이며, X5는 상기 광역카메라(100)와 상기 종속카메라(200) 사이의 간격이다.1, X1 is the distance between the subject 500 and the wide area camera 100, X2 is the distance between the wide area camera 100 and the ground, X3 is the distance between the wide area camera 100 and the subject 100, X4 is the distance between the slave camera 200 and the subject 500 and X5 is the distance between the wide area camera 100 and the slave camera 200. [

이 경우, 상기 광역카메라(100)와 상기 종속카메라(200) 사이의 간격이 50센티미터 이내인 경우, 상기 광역카메라(100)와 상기 피사체(500)와의 거리, 틸트각 및 패닝각은, 상기 종속카메라(200)와 상기 피사체(500)와의 거리, 틸트각 및 패닝각으로 이용될 수 있다.In this case, when the distance between the wide area camera 100 and the slave camera 200 is within 50 centimeters, the distance between the wide area camera 100 and the subject 500, the tilt angle and the panning angle, A distance between the camera 200 and the subject 500, a tilt angle and a panning angle.

그러나, 보다 정밀한 감시를 위해서는, 상기 광역카메라(100)와 상기 피사체(500) 사이에서 산출된 거리, 틸트각 및 패닝각을, 상기 광역카메라(100)와 상기 종속카메라(200) 사이의 간격(X5)을 이용하여 보정할 수도 있다.
However, in order to monitor more precisely, the distance, the tilt angle and the panning angle calculated between the wide area camera 100 and the subject 500 are set to a distance between the wide area camera 100 and the slave camera 200 X5).

다음, 상기 제어부(300)는 상기 과정들을 통해 산출된 상기 패닝각(P)과 상기 틸트각(T)을 이용하여, 상기 구동부를 제어할 제어신호를 산출하여 상기 구동부(400)로 전송한다. Next, the controller 300 calculates a control signal for controlling the driving unit using the panning angle P and the tilt angle T calculated through the above processes, and transmits the calculated control signal to the driving unit 400.

즉, 상기 제어부(300)는 상기 구동부(400)가 상기 패닝각(P) 및 상기 틸트각(T) 만큼 상기 종속카메라(200)를 회전시킬 수 있도록, 상기 패닝각(P) 및 상기 틸트각(T)에 대응되는 제어신호를 생성하여, 상기 제어신호를 상기 구동부(400)로 전송한다.
That is, the control unit 300 controls the panning angle P and the tilt angle T so that the driving unit 400 can rotate the slave camera 200 by the panning angle P and the tilt angle T, (T), and transmits the control signal to the driving unit (400).

다음, 상기 구동부(400)는 상기 제어신호를 이용하여, 상기 종속카메라(200)의 패닝각(P) 및 틸트각(T)을 변경시킨다.
Next, the driving unit 400 changes the panning angle P and the tilt angle T of the slave camera 200 using the control signal.

마지막으로, 상기 종속카메라(200)는 상기 구동부(400)에 의해 패닝각(P) 및 틸트각(T)이 변경된 상태에서, 줌인 기능 등을 사용하여, 상기 피사체를 정밀하게 감시할 수 있다.
Lastly, the slave camera 200 can precisely monitor the subject using a zoom-in function or the like while the panning angle P and the tilt angle T are changed by the driving unit 400.

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.  그러므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100 : 광역카메라 200 : 종속카메라
300 : 제어부 400 : 구동부
100: Wide area camera 200: Dependent camera
300: control unit 400:

Claims (6)

어안렌즈로 구성되어, 감시대상영역 전체를 감시하는 광역카메라;
PTZ(Pen-Tilt Zoom) 카메라로 구성되어, 상기 감시대상영역의 특정위치를 세부적으로 감시하는 종속카메라;
상기 종속카메라의 패닝각과 틸트각을 변경시키는 구동부; 및
상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여 산출된 상기 종속카메라의 패닝각과 틸트각에 대응되는 제어신호를, 상기 구동부로 전송하는 제어부를 포함하며,
상기 제어부는,
상기 광역카메라 및 상기 구동부와 통신을 수행하기 위한 인터페이스;
상기 광역카메라에 촬영된 상기 피사체의 위치정보에 따른 상기 패닝각과 상기 틸트각 간의 맵핑정보를 저장하고 있는 저장기;
상기 광역카메라로부터 수신된 촬영정보를 이용하여 상기 피사체의 위치정보를 분석하기 위한 감지기; 및
상기 감지기로부터 수신된 상기 위치정보와, 상기 맵핑정보를 이용하여 상기 종속카메라의 패닝각과 틸트각을 산출한 후, 상기 제어신호를 생성하여 상기 구동부로 전송하는 제어기를 포함하고,
상기 맵핑정보는, 기준이 되는 적어도 하나 이상의 특정 좌표들과, 이에 대응되는 특정 패닝각들 또는 특정 틸트각들에 대한 정보들을 포함하며,
상기 제어부는, 상기 감지기를 구성하는 센서의 각 화소들 중, 중심에 위치한 화소로부터, 상기 센서에 표시된 상기 피사체가 검출된 XY좌표 및 상기 맵핑정보를 이용하여, 상기 패닝각을 산출하며, 상기 감지기를 구성하는 센서의 각 화소들 중, 중심에 위치한 화소로부터, 상기 센서에 표시된 상기 피사체 사이의 거리 및 상기 맵핑정보를 이용하여, 상기 피사체의 틸트각을 산출하는 것을 특징으로 하는 감시카메라 유닛.
A wide-angle camera composed of a fisheye lens for monitoring the entire surveillance target area;
A subordinate camera configured by a PTZ (Pen-Tilt Zoom) camera to closely monitor a specific position of the monitored area;
A driver for changing a panning angle and a tilt angle of the slave camera; And
And a control unit for transmitting a control signal corresponding to a panning angle and a tilt angle of the slave camera calculated using the position information of the subject received from the wide area camera to the driving unit,
Wherein,
An interface for performing communication with the wide area camera and the driving unit;
A storage for storing mapping information between the panning angle and the tilt angle according to positional information of the subject photographed by the wide area camera;
A sensor for analyzing the position information of the subject using the photographing information received from the wide area camera; And
And a controller for calculating a panning angle and a tilt angle of the slave camera using the position information received from the sensor and the mapping information, and transmitting the generated control signal to the driving unit,
The mapping information includes at least one or more specific coordinates serving as a reference and information about specific panning angles or specific tilt angles corresponding thereto,
Wherein the controller calculates the panning angle using the XY coordinate and the mapping information of the object displayed on the sensor from the pixel located at the center among the pixels of the sensor constituting the sensor, Wherein the tilt angle of the subject is calculated using the distance between the subject located on the center of the pixels of the sensor and the mapping information displayed on the sensor.
삭제delete 삭제delete 어안렌즈로 구성되어, 감시대상영역 전체를 감시하는 광역카메라와, PTZ(Pen-Tilt Zoom) 카메라로 구성되어, 상기 감시대상영역의 특정위치를 세부적으로 감시하는 종속카메라와, 상기 종속카메라의 패닝각과 틸트각을 변경시키는 구동부, 및 상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여 산출된 상기 종속카메라의 패닝각과 틸트각에 대응되는 제어신호를, 상기 구동부로 전송하는 제어부를 포함하는 감시카메라 유닛이, 피사체에 대한 영상을 수신하는 단계;
상기 제어부가, 상기 광역카메라에 촬영된 상기 피사체의 위치정보에 따른 상기 패닝각과 상기 틸트각 간의 맵핑정보와, 상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여, 상기 종속카메라의 패닝각과 틸트각을 산출하는 단계;
상기 제어부가, 상기 패닝각과 상기 틸트각에 대응되는 제어신호를 생성하여 상기 구동부로 전송하는 단계;
상기 구동부가 상기 제어신호에 따라 상기 종속카메라의 패닝각과 틸팅각을 변경시키는 단계; 및
상기 패닝각 및 상기 틸팅각이 변경된 상기 종속카메라가 상기 피사체를 정밀하게 감시하는 단계를 포함하고,
상기 맵핑정보는, 기준이 되는 적어도 하나 이상의 특정 좌표들과, 이에 대응되는 특정 패닝각들 또는 특정 틸트각들에 대한 정보들을 포함하며,
상기 패닝각과 틸트각을 산출하는 단계는,
상기 제어부가, 상기 광역카메라로부터 수신된 촬영정보를 이용하여 상기 피사체의 위치정보를 분석하는 감지기를, 구성하는 센서의 각 화소들 중, 중심에 위치한 화소로부터, 상기 센서에 표시된 상기 피사체가 검출된 XY좌표 및 상기 맵핑정보를 이용하여, 상기 패닝각을 산출하며, 상기 감지기를 구성하는 센서의 각 화소들 중, 중심에 위치한 화소로부터, 상기 센서에 표시된 상기 피사체 사이의 거리 및 상기 맵핑정보를 이용하여, 상기 피사체의 틸트각을 산출하는 것을 특징으로 하는 감시카메라 유닛 구동방법.
A slave camera configured by a fisheye lens and configured to monitor a specific position of the monitored area in detail, the slave camera being composed of a wide-area camera that monitors the entire monitored area and a PTZ (Pen-Tilt Zoom) And a control unit for transmitting a control signal corresponding to a panning angle and a tilt angle of the slave camera calculated using the position information of the subject received from the wide area camera to the driving unit, The unit receiving an image of a subject;
Wherein the controller is configured to calculate a tilt angle and a tilt angle of the slave camera based on mapping information between the panning angle and the tilt angle according to positional information of the subject photographed by the wide area camera and positional information of the subject received from the wide- ;
Generating a control signal corresponding to the panning angle and the tilt angle and transmitting the generated control signal to the driving unit;
Changing a panning angle and a tilting angle of the slave camera according to the control signal; And
Wherein the slave camera with the panning angle and the tilting angle changed precisely monitors the subject,
The mapping information includes at least one or more specific coordinates serving as a reference and information about specific panning angles or specific tilt angles corresponding thereto,
Wherein the step of calculating the panning angle and the tilt angle comprises:
Wherein the control unit controls the sensor to analyze the positional information of the subject using the photographing information received from the wide area camera from the pixel located at the center among the pixels of the sensor constituting the sensor, Calculating the panning angle using the XY coordinates and the mapping information, calculating a distance between the center of the pixels of the sensor constituting the sensor and the object displayed on the sensor, and using the mapping information And the tilt angle of the subject is calculated based on the tilt angle of the subject.
삭제delete 삭제delete
KR1020140036436A 2013-04-04 2014-03-28 Surveillance Camera Unit And Method of Operating The Same KR101452342B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20130036642 2013-04-04
KR1020130036642 2013-04-04

Publications (2)

Publication Number Publication Date
KR20140121345A KR20140121345A (en) 2014-10-15
KR101452342B1 true KR101452342B1 (en) 2014-10-23

Family

ID=51992940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140036436A KR101452342B1 (en) 2013-04-04 2014-03-28 Surveillance Camera Unit And Method of Operating The Same

Country Status (1)

Country Link
KR (1) KR101452342B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017099541A1 (en) * 2015-12-09 2017-06-15 공간정보기술 주식회사 Subject spatial movement tracking system using multiple stereo cameras
KR20180065552A (en) 2016-12-08 2018-06-18 (주)케이아이오티 Intelligent camera system and managing method thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102183903B1 (en) * 2014-12-15 2020-11-27 한화테크윈 주식회사 Surveillance camera and control method thereof
KR102148749B1 (en) * 2017-03-15 2020-08-27 한국전자통신연구원 Video surveillance network system and video surveillance method thereof
KR102193984B1 (en) * 2019-05-31 2020-12-22 주식회사 아이디스 Monitoring System and Method for Controlling PTZ using Fisheye Camera thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100663483B1 (en) * 2005-08-09 2007-01-02 삼성전자주식회사 Apparatus and method of unmanned surveillance using an omni-directional camera
KR20080015994A (en) * 2006-08-17 2008-02-21 엘지전자 주식회사 Method for macro photographing of monitoring camera
KR20110026731A (en) * 2009-09-08 2011-03-16 삼성전기주식회사 Monitoring camera system
KR20120118790A (en) * 2011-04-19 2012-10-29 삼성테크윈 주식회사 Visual survailance system and method based on cooperation between cameras

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100663483B1 (en) * 2005-08-09 2007-01-02 삼성전자주식회사 Apparatus and method of unmanned surveillance using an omni-directional camera
KR20080015994A (en) * 2006-08-17 2008-02-21 엘지전자 주식회사 Method for macro photographing of monitoring camera
KR20110026731A (en) * 2009-09-08 2011-03-16 삼성전기주식회사 Monitoring camera system
KR20120118790A (en) * 2011-04-19 2012-10-29 삼성테크윈 주식회사 Visual survailance system and method based on cooperation between cameras

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017099541A1 (en) * 2015-12-09 2017-06-15 공간정보기술 주식회사 Subject spatial movement tracking system using multiple stereo cameras
KR20180065552A (en) 2016-12-08 2018-06-18 (주)케이아이오티 Intelligent camera system and managing method thereof

Also Published As

Publication number Publication date
KR20140121345A (en) 2014-10-15

Similar Documents

Publication Publication Date Title
US8488001B2 (en) Semi-automatic relative calibration method for master slave camera control
US8390686B2 (en) Surveillance camera apparatus and surveillance camera system
KR101452342B1 (en) Surveillance Camera Unit And Method of Operating The Same
JP4979525B2 (en) Multi camera system
JP2006352851A (en) Method and device for acquiring image of scene using composite camera
CN112399033B (en) Camera assembly and monitoring camera
KR101096157B1 (en) watching apparatus using dual camera
KR101778744B1 (en) Monitoring system through synthesis of multiple camera inputs
KR101204870B1 (en) Surveillance camera system and method for controlling thereof
JP2011109630A (en) Universal head for camera apparatus
EP3745718B1 (en) Method of controlling pan-tilt-zoom camera by using fisheye camera and monitoring system
KR101821159B1 (en) System for tracking moving path of objects using multi-camera
KR20100121086A (en) Ptz camera application system for photographing chase using sound source recognition and method therefor
US20110063466A1 (en) Image capturing system, image capturing device, information processing device, and image capturing method
CN111818270B (en) Automatic control method and system for multi-camera shooting
KR102482341B1 (en) Automatic Coordinates correction system of Vehicle control area
KR101916093B1 (en) Method for tracking object
JP2002101408A (en) Supervisory camera system
KR101341632B1 (en) Optical axis error compensation system of the zoom camera, the method of the same
KR101738514B1 (en) Monitoring system employing fish-eye thermal imaging camera and monitoring method using the same
KR101996907B1 (en) Apparatus for tracking object
JP2005175852A (en) Photographing apparatus and method of controlling photographing apparatus
JP2004320175A (en) Monitoring camera system
JP2017011598A (en) Monitoring system
KR102598630B1 (en) Object tracking pan-tilt apparatus based on ultra-wide camera and its operation method

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181025

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191014

Year of fee payment: 6