KR101341632B1 - Optical axis error compensation system of the zoom camera, the method of the same - Google Patents

Optical axis error compensation system of the zoom camera, the method of the same Download PDF

Info

Publication number
KR101341632B1
KR101341632B1 KR1020080109471A KR20080109471A KR101341632B1 KR 101341632 B1 KR101341632 B1 KR 101341632B1 KR 1020080109471 A KR1020080109471 A KR 1020080109471A KR 20080109471 A KR20080109471 A KR 20080109471A KR 101341632 B1 KR101341632 B1 KR 101341632B1
Authority
KR
South Korea
Prior art keywords
camera
zoom
target
coordinates
optical axis
Prior art date
Application number
KR1020080109471A
Other languages
Korean (ko)
Other versions
KR20100050264A (en
Inventor
권영상
Original Assignee
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사 filed Critical 삼성테크윈 주식회사
Priority to KR1020080109471A priority Critical patent/KR101341632B1/en
Publication of KR20100050264A publication Critical patent/KR20100050264A/en
Application granted granted Critical
Publication of KR101341632B1 publication Critical patent/KR101341632B1/en

Links

Images

Classifications

    • G06T5/75
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Abstract

본 발명은, (a) 시작 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계; (b) 전체 줌 측정 구간이 완료될 때까지 다음 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계; 및 (c) 전체 줌 측정 구간이 완료되면, 상기 각 단계의 줌에서 측정된 표적의 좌표를 상기 카메라로 전송하는 단계;를 포함하는 줌 카메라의 광축 오차 보상 방법을 제공한다.

Figure R1020080109471

The present invention comprises the steps of (a) moving the camera zoom to the starting zoom position to measure the coordinates of the target; (b) measuring the coordinates of the target by moving the camera zoom to the next zoom position until the entire zoom measurement interval is completed; And (c) transmitting the coordinates of the target measured in the zoom of each step to the camera when the entire zoom measurement interval is completed.

Figure R1020080109471

Description

줌 카메라의 광축 오차 보상 시스템, 그 보상 방법{Optical axis error compensation system of the zoom camera, the method of the same}Optical axis error compensation system of the zoom camera, the method of the same}

본 발명은 줌 카메라의 광축 오차를 보상하는 방법, 그 보상 시스템 및 상기 광축 오차 보상을 구현할 수 있는 줌 카메라에 관한 것이다. The present invention relates to a method of compensating for an optical axis error of a zoom camera, a compensation system thereof, and a zoom camera capable of realizing the optical axis error compensation.

최근, 범죄 및 도난 방지를 위해 건물이나 길거리에 감시 카메라가 많이 설치되고 있다. 이러한 감시 카메라를 통해 촬영된 영상은 경찰서나 건물 관리실의 모니터를 통해 표시되어 감시 카메라가 설치된 장소의 현재 상태를 알려준다. 일반적으로 감시 카메라는 피사체를 확대 또는 축소하여 보여줄 수 있는 줌(zoom) 기능을 구비하고 있어 사용자에게 많은 편리성을 제공한다.Recently, many surveillance cameras have been installed in buildings and streets to prevent crime and theft. The images taken by these surveillance cameras are displayed on the monitors of the police station or building management office to inform the current state of the place where the surveillance cameras are installed. In general, a surveillance camera has a zoom function for zooming in or out of a subject to provide much convenience to a user.

그런데, 이와 같은 줌 기능을 구비한 감시 카메라는, 복수개의 렌즈군 및 CCD(charge-coupled device) 등과 같은 촬상소자를 카메라에 조립할 때, 또는 광학계의 공차 등과 같은 수많은 원인으로 광축 오차가 발생하여, 줌의 이동에 따라 카메라의 광축이 변동하는 문제가 발생한다. However, a surveillance camera having such a zoom function causes an optical axis error to be caused when assembling a plurality of lens groups and an imaging device such as a charge-coupled device (CCD) to the camera, or for a number of reasons such as an optical system tolerance. The optical axis of the camera fluctuates as the zoom moves.

예를 들어, 사생활 보호 목적으로 촬영 영역의 일부 화면을 전자적으로 마스킹 처리하는 프라이버시 마스킹(privacy masking) 기능을 줌 카메라에서 구현하기 위해서는, 카메라의 줌 시, 마스킹 영역의 확대 및 축소도 동시에 일어나야 한다. 그런데, 줌 카메라의 광축 오차가 크면, 가려야 할 영역이 지정된 마스킹 영역 밖으로 이동하는 경우가 발생한다. For example, in order to implement a privacy masking function for electronically masking a part of a screen of a photographing area for a privacy purpose in a zoom camera, when the camera is zoomed, the masking area should be simultaneously enlarged and reduced. However, when the optical axis error of a zoom camera is large, the area | region to be covered may move out of the designated masking area | region.

도 1은 종래의 감시용 줌 카메라에서 프라이버시 마스킹 기능이 수행되는 모습을 개략적으로 도시한 것이다. 1 schematically illustrates a state in which a privacy masking function is performed in a conventional zoom camera.

상기 도면의 상단을 참조하면, 최대 광각단(WIDE_max)(Z1) => 중간단(Z2) => 최대 망원단(TELE_max)(Z3)으로 카메라의 줌이 점차 이동되면서, 피사체(B1,B2,B3)의 영상이 확대됨과 동시에, 광축의 중심(0,0)이 점차 (4,2), (8,4)로 오프셋(off-set) 되는 것을 볼 수 있다(여기서, 도 1의 가로 방향은 Y축, 세로 방향은 X축을 나타낸다). 상기 도면의 하단을 참조하면, 카메라의 줌이 최대 광각단(WIDE_max)(Z1) => 중간단(Z2) => 최대 망원단(TELE_max)(Z3)으로 이동되면서, 마스킹 영역(M1,M2,M3)이 동시에 확대되는 모습을 보여준다. 그런데, 줌이 진행되어 광축 중심의 오프셋이 증가할 수록, 가려야 할 피사체(B1,B2,B3)의 영역이 마스킹 영역(M1,M2,M3) 밖으로 이탈하기 때문에 프라이버시 마스킹의 본래의 기능을 하지 못하는 경우가 발생한다. Referring to the upper part of the drawing, the zoom of the camera is gradually moved to the maximum wide-angle end WIDE_max (Z1) => middle end (Z2) => maximum telephoto end (TELE_max) (Z3), and the subjects B1, B2, As the image of B3) is enlarged, the center (0,0) of the optical axis is gradually offset to (4,2), (8,4) (here, the horizontal direction of FIG. 1). Is the Y axis, and the vertical direction is the X axis). Referring to the bottom of the figure, the zoom of the camera is moved to the maximum wide-angle end (WIDE_max) (Z1) => middle end (Z2) => maximum telephoto end (TELE_max) (Z3), masking areas (M1, M2, M3) is expanded at the same time. However, as the zooming progresses and the offset of the center of the optical axis increases, the area of the subjects B1, B2, and B3 to be masked out of the masking areas M1, M2, and M3 does not function as a privacy mask. The case occurs.

이러한 현상은 고배율의 카메라일수록, 가려야 할 영역이 작을수록 발생할 확률이 크다. 그러나, 복수대의 동일 기종의 카메라가 같은 양 및 방향의 편차를 가지는 것은 아니기 때문에 제품의 편차가 발생하며, 양산 시 기구적으로 양질의 조립 품질을 기대하기도 어려운 문제점이 있다.  This phenomenon is more likely to occur in high magnification cameras and smaller areas to be covered. However, since a plurality of cameras of the same model does not have the same amount and direction of deviation, product deviation occurs, and when mass production, it is difficult to expect high quality assembly quality.

본 발명은 광축 오차가 발생할 수 있는 여러 원인으로 제조가 완료되어 일정 수준에 도달한 줌 카메라의 미세한 광축 오차를 보상하는 방법, 그 보상 시스템 및 상기 보상 방법에 의해 광축 오차를 보상할 수 있는 줌 카메라를 제공하는 것을 목적으로 한다. The present invention provides a method for compensating for a fine optical axis error of a zoom camera that has been manufactured and reached a certain level due to various causes of optical axis errors, a compensation system, and a zoom camera capable of compensating optical axis errors by the compensation method. The purpose is to provide.

상기와 같은 과제 및 그 밖의 과제 해결을 위하여 본 발명은, (a) 시작 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계; (b) 전체 줌 측정 구간이 완료될 때까지 다음 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계; 및 (c) 전체 줌 측정 구간이 완료되면, 상기 각 단계의 줌에서 측정된 표적의 좌표를 상기 카메라로 전송하는 단계;를 포함하는 줌 카메라의 광축 오차 보상 방법을 제공한다.In order to solve the above problems and other problems, the present invention, (a) moving the camera zoom to the starting zoom position to measure the coordinates of the target; (b) measuring the coordinates of the target by moving the camera zoom to the next zoom position until the entire zoom measurement interval is completed; And (c) transmitting the coordinates of the target measured in the zoom of each step to the camera when the entire zoom measurement interval is completed.

상기 (a) 및 (b) 단계에서 상기 표적의 좌표를 측정하는 단계는, (a1) 상기 카메라를 통해 입력된 이미지를 캡쳐하는 단계; (a2) 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일화 하는 단계; (a3) 상기 이미지 정보를 일정 역치값으로 이진화하고, 상기 타겟을 배경과 분리하는 단계; 및 (a4) 노이즈를 제거하고 상기 타겟의 좌표를 저장하는 단계;를 포함할 수 있다.Measuring the coordinates of the target in the steps (a) and (b), (a1) capturing an image input through the camera; (a2) setting a target detection area and unifying image information in the detection area; (a3) binarizing the image information to a predetermined threshold value and separating the target from a background; And (a4) removing noise and storing coordinates of the target.

상기 (a) 단계에서, 상기 시작 줌 위치에서, 상기 카메라의 장착 위치를 확인하는 단계를 더 포함할 수 있다.In the step (a), it may further comprise the step of confirming the mounting position of the camera at the start zoom position.

상기 카메라의 장착 위치를 확인하는 단계는, ⅰ) 상기 시작 줌 위치에서, 상기 카메라를 통해 입력된 이미지를 캡쳐하는 단계, ⅱ) 캡쳐된 이미지에서 타겟 검출 영역을 설정하여 이미지 정보를 단일화 하는 단계, ⅲ) 상기 이미지 정보를 일정 역치값으로 이진화하고, 상기 타겟을 배경과 분리하는 단계, ⅳ) 노이즈를 제거하고 상기 타겟의 좌표를 측정하는 단계, ⅴ) 타겟의 중심과 카메라의 중심이 일치되는 지 확인하는 단계를 포함할 수 있다.The checking of the mounting position of the camera may include: i) capturing an image input through the camera at the starting zoom position; ii) unifying image information by setting a target detection area in the captured image; Iii) binarizing the image information to a predetermined threshold value, separating the target from the background, iii) removing noise and measuring coordinates of the target, iii) whether the center of the target coincides with the center of the camera; It may include the step of identifying.

상기 시작 줌의 위치는 최대 망원단 일 수 있다. The position of the starting zoom may be the maximum telephoto end.

또한 본 발명은, 소정 설정된 단계의 줌을 수행하는 카메라; 상기 카메라 전방에 배치된 표적을 포함하는 챠트부; 상기 소정 설정된 단계의 줌을 수행하는 카메라에서 출력된 이미지를 캡쳐하는 이미지 캡쳐부; 및 상기 캡쳐된 이미지로부터 타겟의 좌표를 검출 및 저장하여, 상기 타겟의 좌표를 상기 줌 카메라에 전송하는 제어부;를 포함하는 줌 카메라의 광축 오차 보상 시스템을 제공한다. In another aspect, the present invention, the camera performs a zoom of a predetermined step; A chart unit including a target disposed in front of the camera; An image capture unit for capturing an image output from a camera which performs the zoom in the predetermined step; And a controller for detecting and storing coordinates of a target from the captured image and transmitting the coordinates of the target to the zoom camera.

상기 제어부는, 상기 소정 설정된 각 줌 단계에서 캡쳐된 이미지의 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일화 하고, 상기 이미지 정보를 일정 역치값으로 이진화하여 상기 타겟을 배경으로부터 분리하고 노이즈를 제거함으로써, 상기 타겟의 좌표를 검출할 수 있다.The control unit sets a target detection area of the image captured in each predetermined zooming step, unifies the image information in the detection area, binarizes the image information to a predetermined threshold value, and separates the target from the background and makes noise. By removing, the coordinates of the target can be detected.

상기 카메라는 팬(pan), 틸트(tilt), 업(up), 다운(down) 및 회전(rotation) 중 적어도 하나 이상의 모션을 가능하게 하는 다축 조절 장치를 구비한 고정치구 상에 안착되고, 시작 줌 단계에서, 상기 카메라의 장착 위치를 확인하여 에러 발생시 상기 고정치구로 상기 카메라의 장착 위치를 조절할 수 있다.The camera is mounted on a fixture having a multi-axis adjustment device that enables at least one or more motions of pan, tilt, up, down and rotation. In the zooming step, the mounting position of the camera may be checked to adjust the mounting position of the camera with the fixing jig when an error occurs.

상기 카메라의 장착 위치는, 상기 시작 줌 위치에서 캡쳐된 이미지의 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일화 하고, 상기 이미지 정보를 일정 역치값으로 이진화하여 상기 타겟을 배경으로부터 분리하고 노이즈를 제거함으로써, 상기 타겟의 중심과 카메라의 중심이 일치되는 지를 확인함으로써 수행할 수 있다.The mounting position of the camera sets a target detection area of the image captured at the starting zoom position, unifies the image information in the detection area, binarizes the image information to a predetermined threshold value, and separates the target from the background. By removing the noise, it may be performed by checking whether the center of the target coincides with the center of the camera.

상기 시작 줌의 위치는 최대 망원단 일 수 있다.The position of the starting zoom may be the maximum telephoto end.

상기 챠트부와 카메라 사이에 배치되며 무한 광원을 제공하는 2차 광학계를 더 구비할 수 있다.A secondary optical system may be further disposed between the chart unit and the camera to provide an infinite light source.

또한 본 발명은, 상기 방법에 의하여 줌에 의한 광축 오차 보상을 구현할 수 있는 줌 카메라를 제공한다. The present invention also provides a zoom camera capable of realizing optical axis error compensation by zooming by the above method.

본 발명에 따른 광축 오차 보상 방법 및 그 시스템에 의하면, 제조가 완료되어 일정 수준에 도달한 줌 카메라의 미세한 광축 오차 정보를 소프트웨어적으로 정확하고 신속하게 구하여, 그 정보를 다시 카메라에 전송할 수 있다. 또한, 본 발명에 따른 광축 오차 정보를 포함하는 줌 카메라는, 프라이버시 마스킹 기능, 관찰 영역의 중심으로의 확대, 및 움직이는 물체의 추적 기능 등을 수행함에 있어서, 줌에 의한 광축 오차를 보상할 수 있다. According to the optical axis error compensation method and system according to the present invention, fine optical axis error information of a zoom camera that has been manufactured and reached a certain level can be accurately and quickly obtained by software, and the information can be transmitted back to the camera. In addition, the zoom camera including the optical axis error information according to the present invention may compensate for the optical axis error due to zoom in performing a privacy masking function, an enlargement to the center of the viewing area, and a tracking function of a moving object. .

이하, 첨부된 도면을 참조하여 바람직한 실시예에 따른 본 발명을 상세히 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 바람직한 실시예에 따른 줌 카메라의 광축 오차 보상 시스템에 대한 개념도이고, 도 3은 각 줌 단계에서 발생한 광축 오차를 개념적으로 도시한 도면이다. 2 is a conceptual diagram of an optical axis error compensation system of a zoom camera according to an exemplary embodiment of the present invention, and FIG. 3 conceptually illustrates optical axis errors generated in each zoom step.

상기 도면을 참조하면, 본 실시예에 따른 광축 오차 보상 시스템(100)은 카메라(110), 고정치구(120), 챠트부(130), 2차 광학계(140), 및 이미지 캡쳐부(151)와 제어부(152)를 포함하는 컴퓨터(150)를 구비한다. Referring to the drawings, the optical axis error compensation system 100 according to the present embodiment is the camera 110, the fixture 120, the chart unit 130, the secondary optical system 140, and the image capture unit 151 And a computer 150 including a control unit 152.

카메라(110)는 줌 기능을 수행할 수 있는 복수개의 줌 렌즈(111)를 포함하며, 상기 도면에 상세히 도시되지는 않았지만 포커스 렌즈(미도시), 조리개(미도시), CCD(미도시), 디지털 신호 처리부(미도시), 통신부(미도시) 등을 더 구비할 수 있다. 렌즈 구동부(미도시)는 디지털 신호 처리부의 신호에 의해 상기 줌 렌즈를 구동하고, 상기 디지털 신호 처리부는 후술할 컴퓨터 제어부(152)의 명령에 의해 소정 설정된 단계로 줌 렌즈(111)를 이동시킬 수 있다. 또는 상기 렌즈 구동부는 직접 컴퓨터 제어부(152)의 신호에 의해 구동 될수도 있다. 이러한 카메라(110)로는 일반적인 줌 기능을 구현할 수 있는 카메라로서, 정지영상을 촬영할 수 있는 스틸 카메라는 물론, 동영상을 촬영할 수 있는 비디오 카메라, 및 감시용 줌 카메라 등을 포함할 수 있다. The camera 110 includes a plurality of zoom lenses 111 capable of performing a zoom function, and although not shown in detail in the drawing, a focus lens (not shown), an aperture (not shown), a CCD (not shown), The apparatus may further include a digital signal processor (not shown), a communication unit (not shown), and the like. A lens driver (not shown) may drive the zoom lens according to a signal of the digital signal processor, and the digital signal processor may move the zoom lens 111 in a predetermined step by a command of the computer controller 152 which will be described later. have. Alternatively, the lens driver may be directly driven by the signal of the computer controller 152. The camera 110 is a camera capable of implementing a general zoom function, and may include a still camera capable of capturing still images, a video camera capable of capturing a video, and a surveillance zoom camera.

카메라(110)는 고정치구(120) 상에 안착되어 있는데, 상기 고정치구(120)는 팬(pan), 틸트(tilt), 업(up), 다운(down) 및 회전(rotation) 중 적어도 하나 이상의 모션을 가능하게 하는 다축 조절 장치(미도시)를 구비한다. 카메라(110)의 초기 위치 셋팅 시, 카메라(110)의 중심이 타겟(T)의 중심과 불일치 하는 경우, 상기 다 축 조절 장치를 이용하여 카메라(110)의 중심과 타겟(T)의 중심을 일치시킨다.  The camera 110 is seated on the fixture jig 120, wherein the fixture jig 120 is at least one of pan, tilt, up, down, and rotation. A multi-axis adjusting device (not shown) for enabling the above motion is provided. When the initial position of the camera 110 is set, when the center of the camera 110 is inconsistent with the center of the target T, the center of the camera 110 and the center of the target T are adjusted using the multi-axis adjusting device. Match.

카메라(110) 전방에는 영상 처리에 용이하게 고안된 표적(T)을 포함하는 챠트부(130)가 배치되어 있다. In front of the camera 110, a chart unit 130 including a target T easily designed for image processing is disposed.

상기 챠트부(130)와 카메라(110) 사이에는 무한 광원을 제공하는 2차 광학계(140)가 구비된다. 이러한 2차 광학계(140)는 작업 공간을 축소하기 위한 것으로 비디오 콜리메이터(video collimator)(미도시) 등을 사용할 수 있다. 또한 상기 도면에는 상세히 도시되지 않았지만 2차 광학계(140)는 조절 가능한 조명 시스템을 더 포함할 수 있다. A secondary optical system 140 is provided between the chart unit 130 and the camera 110 to provide an infinite light source. The secondary optical system 140 may be used to reduce a work space, such as a video collimator (not shown). In addition, although not shown in detail in the drawing, the secondary optical system 140 may further include an adjustable illumination system.

본 발명에 따른 광축 오차 보상 시스템(100)은 이미지 캡쳐부(151)와 제어부(152)를 포함하는 컴퓨터(150)를 구비한다.The optical axis error compensation system 100 according to the present invention includes a computer 150 including an image capture unit 151 and a controller 152.

이미지 캡쳐부(151)는 이미지 그래버(image grabber)와 같은 이미지 캡쳐 장치를 포함한다. 이미지 캡쳐부(151)는 소정 설정된 단계, 예를 들어 카메라(110)를 최대 광각단(WIDE_max) 내지 최대 망원단(TELE_max)의 어느 위치에 고정시킨 후, 카메라(110)로부터 입력되는 이미지 정보를 비디호 신호규격에 따라 2차원 픽셀 좌표를 갖는 영상 정보로 변환한다. 이때, 이미지 형식(RGB, YUV, 등)은 구현하고자 하는 형식에 맞게 적절히 선택한다. The image capture unit 151 includes an image capture device such as an image grabber. The image capturing unit 151 may fix the image information input from the camera 110 after a predetermined step, for example, fixing the camera 110 at a position of the wide-angle end WIDE_max to the telephoto end TELE_max. Converts to video information having two-dimensional pixel coordinates according to the video signal standard. At this time, the image format (RGB, YUV, etc.) is appropriately selected according to the format to be implemented.

제어부(152)는 상기 캡쳐된 이미지로부터 타겟(T)의 좌표를 검출하는 타겟 좌표 검출부(153) 및 상기 각 줌 단계에서 검출된 타겟(T)의 좌표를 저장하는 광축 데이터 저장부(154)를 포함한다. The controller 152 may include a target coordinate detector 153 that detects the coordinates of the target T from the captured image, and an optical axis data storage unit 154 that stores the coordinates of the target T detected in each zoom step. Include.

타겟 좌표 검출부(153)는 소정 설정된 각 줌 단계에서 캡쳐된 이미지의 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를, 예를 들어, 색정보 또는 휘도 정보 등과 같이 단일화한다. 타겟 좌표 검출부(152)는 컴퓨터(150)의 RAM 상에 올려진 상기 이미지 정보를 일정 역치값으로 이진화하고, 히스토그램 또는 라벨링 등의 비젼 알고리즘을 사용하여 원하는 타겟(T)을 배경(background)으로부터 분리함으로써, 각 줌 단계에서의 원하는 타겟(T)의 좌표를 검출할 수 있다. 이때, 타겟 좌표 검출부(152)는 타겟(T)의 좌표를 정확하게 검출하기 위하여 일정 크기 이하의 타겟을 제거하거나 노이즈를 제거할 수 있다. 타겟 좌표 검출부(153)는 제어부(152)의 제어하에 사전 설정된 각 줌 단계가 완료될 때까지 상기 과정을 반복적으로 수행한다. The target coordinate detector 153 sets a target detection area of the image captured in each predetermined zoom step, and unifies the image information in the detection area, for example, color information or luminance information. The target coordinate detector 152 binarizes the image information loaded on the RAM of the computer 150 to a predetermined threshold value, and separates the desired target T from the background by using a vision algorithm such as histogram or labeling. By doing so, the coordinates of the desired target T in each zoom step can be detected. In this case, the target coordinate detector 152 may remove a target having a predetermined size or less or remove noise in order to accurately detect the coordinates of the target T. The target coordinate detector 153 repeatedly performs the above process until each preset zooming step is completed under the control of the controller 152.

도 3을 참조하면, 최대 광각단(WIDE_max)(Z1) => 중간단(Z2) => 최대 망원단(TELE_max)(Z3)으로 카메라의 줌이 점차 이동되면서, 전술한 비젼 알고리즘에 의해 처리된 타겟(T1,T2,T3)의 영상이 확대됨과 동시에, 광축의 중심(0,0)이 점차 (4,2), (8,4)로 오프셋 되는 것을 볼 수 있다(여기서, 도 1의 가로 방향은 Y축, 세로 방향은 X축을 나타낸다). 한편, 상기 도면에 도시된 타겟 좌표 검출에 사용된 비젼 알고리즘은 라벨링 기법을 사용하였으며, 타겟(T)의 각 사각 포인트의 좌표들을 검출하여 원래의 광축 중심(0,0)을 기준으로 오프셋된 타겟(T2, T3)의 광축 기준 좌표(4,2)(8,4)를 검출하였다. 본 발명은 상기 라벨링 방법에 한정되지 않고 다양한 방법으로 줌에 의한 광축의 오프셋값을 구할 수 있다. 이와 같이 각 줌 단계에서 오프셋 된 타겟(T)의 좌표들은 광축 오프셋 데이터로서 광축 데이터 저장부(154)에 저장된다. Referring to FIG. 3, the zoom of the camera is gradually moved to the maximum wide-angle end WIDE_max (Z1) => middle end (Z2) => maximum telephoto end (TELE_max) (Z3), which is processed by the aforementioned vision algorithm. As the image of the targets T1, T2, and T3 is enlarged, the center of the optical axis (0,0) is gradually offset to (4,2), (8,4) (here, horizontally in FIG. 1). Direction represents the Y axis, and the vertical direction represents the X axis). Meanwhile, the vision algorithm used to detect the target coordinates shown in the drawing uses a labeling technique, and targets offset from the original optical axis center (0,0) by detecting coordinates of each rectangular point of the target (T). The optical axis reference coordinates (4, 2) (8, 4) of (T2, T3) were detected. The present invention is not limited to the above labeling method, and the offset value of the optical axis due to zoom can be obtained by various methods. As such, the coordinates of the target T offset in each zoom step are stored in the optical axis data storage unit 154 as optical axis offset data.

광축 데이터 저장부(154)는 상기와 같이 각 줌 단계에서 검출된 타겟(T)의 좌표들을 저장하고, 제어부(152)의 제어하에 상기 타겟(T)의 좌표 데이터를 카메라(110)에 전송한다. The optical axis data storage unit 154 stores coordinates of the target T detected in each zoom step as described above, and transmits coordinate data of the target T to the camera 110 under the control of the controller 152. .

카메라(110)로 전송된 타겟(T)의 좌표 데이터들은 카메라(110)의 저장부(미도시)에 저장된다. 카메라(110)의 디지털 신호 처리부(미도시)는 이와 같이 카메라(110)에 저장된 광축 데이터를 이용하여 줌 기능 수행시 오프셋 되는 광축의 중심을 보상한다. Coordinate data of the target T transmitted to the camera 110 is stored in a storage unit (not shown) of the camera 110. The digital signal processor (not shown) of the camera 110 compensates the center of the optical axis offset when the zoom function is performed using the optical axis data stored in the camera 110.

전술한 타겟 좌표 검출부(153)와 광축 데이터 저장부(154)의 기능들은 컴퓨터(150)의 제어부(152)에 의해 수행되거나, 제어부(152) 주변 기기의 도움으로 수행될 수 있다. 또한, 상기 도면에 상세히 도시되지 않았지만, 상기 시스템(100)에는 카메라(110)와 컴퓨터(150) 사이의 통신을 담당하는 복수의 통신부(미도시)가 더 구비될 수 있다. The above-described functions of the target coordinate detector 153 and the optical axis data storage 154 may be performed by the controller 152 of the computer 150 or may be performed with the help of peripheral devices of the controller 152. In addition, although not shown in detail in the drawing, the system 100 may be further provided with a plurality of communication units (not shown) in charge of communication between the camera 110 and the computer 150.

한편, 전술한 카메라(110)를 고정치구(120)에 안착시키는 카메라(110)의 초기 위치의 세팅은, 전술한 타겟의 좌표를 검출하는 알고리즘을 유사하게 이용한다. 먼저, 카메라(110)를 고정치구(120)에 고정시킨 다음, 시작 줌 위치에서 캡쳐된 이미지의 타겟 검출 영역을 설정한다. 상기 검출 영역 내의 이미지 정보를, 예를 들어, 색정보 또는 휘도 정보 등으로 단일화한다. 이 이미지 정보를 일정 역치값으로 이진화하고, 히스토그램 또는 라벨링 등의 비젼 알고리즘을 사용하여 원하는 타겟(T)을 배경(background)으로부터 분리함으로써, 각 줌 단계에서의 원하는 타겟(T)의 좌표를 검출할 수 있다. 이로써 타겟의 기준점과 카메라의 중심이 일치되 는 지를 확인하여, 일치하지 않는 경우에는 전술한 고정 치구의 다축 조절 장치를 이용하여 카메라(110)의 중심과 타겟(T)의 기준점을 일치시킨다. On the other hand, the setting of the initial position of the camera 110 to mount the camera 110 to the fixed jig 120 similarly uses an algorithm for detecting the coordinates of the target described above. First, the camera 110 is fixed to the fixture 120, and then a target detection area of the image captured at the start zoom position is set. The image information in the detection area is unified with, for example, color information or luminance information. By binarizing this image information to a predetermined threshold value and separating the desired target T from the background using a vision algorithm such as histogram or labeling, the coordinates of the desired target T in each zoom step can be detected. Can be. As a result, the reference point of the target and the center of the camera are checked to match, and if it does not match, the center of the camera 110 and the reference point of the target T are matched using the above-described multi-axis adjusting device of the fixed jig.

이때, 시작 줌의 위치를 최대 망원단에서 수행할 경우, 타겟의 넓은 영역을 보면서 타겟(T)과 카메라(110)의 중심을 비교할 수 있기 때문에 보다 정확한 광축 오차 데이터를 구할 수 있다.In this case, when the position of the start zoom is performed at the telephoto end, since the center of the target T and the camera 110 can be compared while looking at a wide area of the target, more accurate optical axis error data can be obtained.

도 4는 본 발명에 따른 바람직한 실시예인 줌 카메라의 광축 오차 보상 방법에 따른 흐름도이고, 도 5는 도 4의 S260을 상세히 도시한 흐름도이다. 줌 카메라의 광축 오차 보상 방법은 도 2의 광축 오차 보상 시스템에 의하여 구현될 수 있다.  4 is a flowchart illustrating an optical axis error compensation method of a zoom camera according to an exemplary embodiment of the present invention, and FIG. 5 is a flowchart illustrating S260 of FIG. 4 in detail. The optical axis error compensation method of the zoom camera may be implemented by the optical axis error compensation system of FIG. 2.

상기 도면을 참조하면, 광축 오차 보상 방법(S200)은 먼저 시작 줌 위치로 카메라 줌을 이동하면서 시작한다(S210). 이러한 줌의 시작 줌은 최대 광각단(WIDE_max) 또는 최대 망원단(TELE_max)에서 시작할 수 있다. Referring to the figure, the optical axis error compensation method (S200) starts by moving the camera zoom to the starting zoom position (S210). The starting zoom of this zoom may start at the maximum wide-angle end WIDE_max or the maximum telephoto end TELE_max.

다음으로, 시작 줌의 위치에서 카메라(110)의 장착 위치가 정확한지 여부를 확인한다(S220). 이는 전술한 바와 같이 타겟(T)의 좌표를 검출하는 알고리즘을 유사하게 이용하여 타겟(T)의 중심과 카메라(110)의 중심이 일치하지 않는 경우, 즉 오차가 발생하는 경우(S230)에는 에러 메시지를 출력하여(S240), 전술한 고정 치구(120)의 다축 조절 장치(미도시)를 이용하여 수동으로 또는 자동으로 카메라(110)의 중심과 타겟(T)의 기준점을 일치시킨다. Next, it is checked whether the mounting position of the camera 110 is correct at the position of the start zoom (S220). This is similar to using the algorithm for detecting the coordinates of the target T as described above, the center of the target T and the center of the camera 110 does not match, that is, if an error occurs (S230) By outputting a message (S240), the center of the camera 110 and the reference point of the target (T) are matched manually or automatically using the aforementioned multi-axis adjustment device (not shown) of the fixed jig 120.

전체 줌 측정 구간이 완료될 때까지(S250), 해당 줌 단계에서 타겟(T)의 기준 좌표를 측정한다(S260). 도 5를 참조하면, 먼저 이미지 캡쳐부(151)는 각 줌 단 계에서 카메라(110)를 통해 출력된 이미지를 캡쳐한다(S261). 다음으로 캡쳐된 이미지의 타겟 검출 영역을 설정하고(S262), 상기 검출 영역 내의 이미지 정보를, 예를 들어, 색정보 또는 휘도 정보 등과 같이 단일화한다(S263). 타겟 좌표 검출부(152)는 컴퓨터(150)의 RAM 상에 올려진 상기 이미지 정보를 일정 역치값으로 이진화하고(S264), 히스토그램 또는 라벨링 등의 비젼 알고리즘을 사용하여 원하는 타겟(T)을 배경(background)으로부터 분리함으로써(S265), 각 줌 단계에서의 원하는 타겟(T)의 좌표를 검출할 수 있다. 이때, 타겟 좌표 검출부(152)는 타겟(T)의 좌표를 정확하게 검출하기 위하여 일정 크기 이하의 타겟을 제거하거나 노이즈를 제거할 수 있다(S266). 이와 같이 노이즈가 제거된 타겟의 좌표는 광축 데이터 저장부(154)에 저장된다(S267). 타겟 좌표 검출부(153)는 제어부(152)의 제어하에 사전 설정된 각 줌 단계가 완료될 때까지 상기 과정을 반복적으로 수행한다(S270).Until the entire zoom measuring section is completed (S250), the reference coordinate of the target T is measured in the corresponding zooming step (S260). Referring to FIG. 5, first, the image capture unit 151 captures an image output through the camera 110 at each zoom step (S261). Next, a target detection area of the captured image is set (S262), and image information in the detection area is unified, for example, color information or luminance information (S263). The target coordinate detector 152 binarizes the image information loaded on the RAM of the computer 150 to a predetermined threshold value (S264), and uses a vision algorithm such as a histogram or labeling to set a background of a desired target T. ), The coordinates of the desired target T in each zoom step can be detected. In this case, the target coordinate detector 152 may remove a target having a predetermined size or less or remove noise in order to accurately detect the coordinates of the target T (S266). The coordinates of the target from which the noise is removed are stored in the optical axis data storage unit 154 (S267). The target coordinate detector 153 repeatedly performs the above process until each preset zooming step is completed under the control of the controller 152 (S270).

상기와 같이 각 줌 단계에서 검출되어 저장된 타겟(T)의 기준 좌표들은 제어부(152)의 제어하에 카메라(110)에 전송된다(S280). As described above, the reference coordinates of the target T detected and stored in each zoom step are transmitted to the camera 110 under the control of the controller 152 (S280).

상기와 같이 카메라(110)로 전송된 타겟(T)의 좌표 데이터들은 카메라(110)의 저장부(미도시)에 저장된다. 카메라(110)의 디지털 신호 처리부(미도시)는 이와 같이 카메라(110)에 저장된 광축 데이터를 이용하여 줌 기능 수행시 오프셋 되는 광축의 중심을 보상 할 수 있다. As described above, the coordinate data of the target T transmitted to the camera 110 is stored in a storage unit (not shown) of the camera 110. The digital signal processor (not shown) of the camera 110 may compensate for the center of the optical axis offset when the zoom function is performed using the optical axis data stored in the camera 110.

이하, 도 6 내지 8을 참조하여 전술한 방법으로 광축 오차 값을 전송받은 줌 카메라에서 광축 오차 보상을 구현하는 다양한 실시예를 설명한다. Hereinafter, various embodiments of implementing the optical axis error compensation in the zoom camera receiving the optical axis error value by the above-described method will be described with reference to FIGS. 6 to 8.

도 6은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 프라이 버시 마스킹이 수행되는 모습을 개략적으로 도시한 것이다.FIG. 6 schematically illustrates a state in which privacy masking is performed in a zoom camera in which an optical axis error compensation method according to the present invention is implemented.

상기 도면의 상단(A)의 종래 마스킹 방법을 참조하면, 최대 광각단(WIDE_max)(Z1) => 중간단(Z2) => 최대 망원단(TELE_max)(Z3)으로 카메라(110)의 줌이 점차 이동되면서, 피사체(B1,B2,B3) 및 마스킹 영역(M1,M2,M3)의 영상이 확대된다. 그러나, 줌에 의한 광축의 중심(0,0)이 점차 (4,2), (8,4)로 오프셋(off-set) 됨으로써, 피사체(B1,B2,B3)의 중심은 이동하지만, 마스킹 영역(M1,M2,M3)의 중심은 이동하지 않기 때문에, 가려야 할 피사체(B1,B2,B3)의 영역이 마스킹 영역(M1,M2,M3) 밖으로 이탈하게 된다.Referring to the conventional masking method of the upper portion (A) of the figure, the zoom of the camera 110 to the maximum wide-angle end (WIDE_max) (Z1) => middle end (Z2) => maximum telephoto end (TELE_max) (Z3). As the image is gradually moved, images of the subjects B1, B2, and B3 and the masking regions M1, M2, and M3 are enlarged. However, as the center (0,0) of the optical axis by zoom is gradually offset to (4,2), (8,4), the center of the subjects (B1, B2, B3) moves, but masking. Since the centers of the areas M1, M2, and M3 do not move, the areas of the subjects B1, B2, and B3 to be covered are separated from the masking areas M1, M2, and M3.

그러나, 도면 하단(B)의 본 발명에 따른 광축 오차 보상 방법이 적용된 줌 카메라에 있어서는, 최대 광각단(WIDE_max)(Z1) => 중간단(Z2) => 최대 망원단(TELE_max)(Z3)으로 카메라의 줌이 점차 이동되면서, 피사체(B1,B2,B3) 및 마스킹 영역(M1',M2',M3')의 영상이 확대됨과 동시에, 카메라(110)의 저장부에 저장된 오프셋 된 광축 데이터를 이용하여, 마스킹 영역(M1',M2',M3')의 중심을 각 줌 단계의 오프셋 된 광축 데이터만큼 보정할 수 있기 때문에, 마스킹 영역(M1',M2',M3')의 중심과 피사체(B1,B2,B3)의 중심이 동일하게 된다. 따라서, 마스킹 영역(M1',M2',M3')은 가려야 할 피사체(B1,B2,B3)의 영역을 그대로 가릴 수 있다.However, in the zoom camera to which the optical axis error compensation method according to the present invention in the lower part of the figure (B) is applied, the maximum wide-angle end WIDE_max (Z1) => middle end (Z2) => maximum telephoto end (TELE_max) (Z3) As the zoom of the camera is gradually moved, the images of the subjects B1, B2, and B3 and the masking areas M1 ', M2', and M3 'are enlarged, and the offset optical axis data stored in the storage of the camera 110 is enlarged. Since the centers of the masking areas M1 ', M2', and M3 'can be corrected by the offset optical axis data of each zoom step, the centers of the masking areas M1', M2 'and M3' and the subjects can be corrected. The centers of (B1, B2, B3) become the same. Therefore, the masking areas M1 ', M2', and M3 'may cover the areas of the subjects B1, B2, and B3 to be covered.

도 7은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 일정 영역을 중심으로 팬/틸트/줌이 수행되는 모습을 개략적으로 도시한 것이다.FIG. 7 schematically illustrates a state in which a pan / tilt / zoom is performed around a predetermined area in a zoom camera in which an optical axis error compensation method according to the present invention is implemented.

상기 도면의 상단(A)의 종래 방법을 참조하면, 모니터상의 출력 이미지 상에 서 사용자가 확대하여 보고 싶은 일정 영역(P) 또는 영역 중심을 지정하면, 줌이 연동되어 해당 지정된 영역을 확대시키고, 팬/틸트가 연동되어 해당 영역의 중심(C1)을 모니터의 중심(O)으로 이동시켜야 한다. 그러나 이 경우, 줌에 의한 광축 오차로 해당 영역(P) 및 피사체(B)의 중심(C2)은 모니터의 중심(0)에 위치하지 못하고 오프셋 된다. Referring to the conventional method of the upper portion (A) of the drawing, when the user designates a certain area P or the center of the area that the user wants to enlarge on the output image on the monitor, the zoom is linked to enlarge the designated area, Pan / Tilt should be linked to move the center (C1) of the area to the center (O) of the monitor. However, in this case, due to the optical axis error due to the zoom, the center C2 of the area P and the subject B is not located at the center 0 of the monitor and is offset.

그러나, 도면 하단(B)의 본 발명에 따른 광축 오차 보상 방법이 적용된 줌 카메라에 있어서는, 사용자가 모니터상의 출력 이미지에서 일정 영역(P) 또는 영역 중심을 지정하였을 경우, 줌이 연동되어 지정된 영역을 확대되고, 카메라(110)의 저장부에 저장된 오프셋 된 광축 데이터를 이용하여 해당 오프셋 값만큼 팬/틸트 값이 보상되기 때문에 확대된 영역 및 피사체의 중심(C2)이 모니터 중심(O)에 위치하게 된다. However, in the zoom camera to which the optical axis error compensation method according to the present invention in the lower part of the drawing (B) is applied, when the user designates a certain area P or the center of the area in the output image on the monitor, the zoom is interlocked to designate the designated area. Since the pan / tilt value is compensated by the offset value using the offset optical axis data stored in the storage unit of the camera 110, the enlarged area and the center C2 of the subject are positioned at the monitor center O. do.

도 8은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 팬/틸트 장치로 움직임 추적(motion tracking) 기능을 수행하는 모습을 개략적으로 도시한 것이다.FIG. 8 schematically illustrates a motion tracking function performed by a pan / tilt device in a zoom camera in which an optical axis error compensation method according to the present invention is implemented.

상기 도면의 상단(A)의 종래 방법을 참조하면, 모니터상의 출력 이미지 상에서, 사용자가 움직이는 피사체 또는 일정 영역(P1, P2)을 화면의 중심에서 확대된 모습으로 그 움직임을 계속 추적하고자 할 경우, 줌이 연동되어 해당 지정된 영역(P1, P2)을 확대시키고, 팬/틸트가 연동되어 해당 영역의 중심(C1)을 모니터의 중심(O)으로 이동시켜야 한다. 그러나 이 경우, 줌에 의한 광축 오차로 해당 영역(P3) 또는 피사체의 중심(C2)은 모니터의 중심(0)에 위치하지 못하고 오프셋 된 다. Referring to the conventional method of the upper portion (A) of the drawing, if the user wants to keep track of the moving object or a certain area (P1, P2) in a magnified view from the center of the screen on the output image on the monitor, Zooming is linked to enlarge the designated areas P1 and P2, and pan / tilt is linked to move the center C1 of the area to the center O of the monitor. However, in this case, due to the optical axis error due to the zoom, the corresponding area P3 or the center C2 of the subject is not located at the center 0 of the monitor and is offset.

그러나, 도면 하단(B)의 본 발명에 따른 광축 오차 보상 방법이 적용된 줌 카메라에 있어서는, 줌이 연동되어 해당 지정된 영역(P1, P2)이 확대되고(P3'), 카메라(110)의 저장부에 저장된 오프셋 된 광축 데이터를 이용하여 해당 오프셋 값만큼 팬/틸트 값이 보상되기 때문에 움직이는 물체 또는 영역의 확대된 영역(P3') 또는 피사체의 중심(C2)이 모니터 중심(O)에 위치하게 된다. However, in the zoom camera to which the optical axis error compensation method according to the present invention in the lower part of the drawing (B) is applied, the zoom area is interlocked so that the designated areas P1 and P2 are enlarged (P3 '), and the storage unit of the camera 110 is provided. Since the pan / tilt value is compensated by the offset value using the offset optical axis data stored in, the enlarged area P3 'of the moving object or area or the center C2 of the object is positioned at the monitor center O. .

본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다. Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Accordingly, the true scope of protection of the present invention should be determined by the technical idea of the appended claims.

도 1은 종래의 감시용 줌 카메라에서 프라이버시 마스킹 기능이 수행되는 모습을 개략적으로 도시한 것이다.1 schematically illustrates a state in which a privacy masking function is performed in a conventional zoom camera.

도 2는 본 발명의 바람직한 실시예에 따른 줌 카메라의 광축 오차 보상 시스템에 대한 개념도이다. 2 is a conceptual diagram of an optical axis error compensation system of a zoom camera according to an exemplary embodiment of the present invention.

도 3은 각 줌 단계에서 발생한 광축 오차를 개념적으로 도시한 도면이다. 3 is a diagram conceptually illustrating an optical axis error generated in each zoom step.

도 4는 본 발명에 따른 바람직한 실시예인 줌 카메라의 광축 오차 보상 방법에 따른 흐름도이다. 4 is a flowchart illustrating an optical axis error compensation method of a zoom camera according to an exemplary embodiment of the present invention.

도 5는 도 4의 S260을 상세히 도시한 흐름도이다. 5 is a detailed flowchart of S260 of FIG. 4.

도 6은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 프라이버시 마스킹이 수행되는 모습을 개략적으로 도시한 것이다.FIG. 6 schematically illustrates a state in which privacy masking is performed in a zoom camera in which an optical axis error compensation method according to the present invention is implemented.

도 7은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 일정 영역을 중심으로 팬/틸트/줌이 수행되는 모습을 개략적으로 도시한 것이다.FIG. 7 schematically illustrates a state in which a pan / tilt / zoom is performed around a predetermined area in a zoom camera in which an optical axis error compensation method according to the present invention is implemented.

도 8은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 팬/틸트 장치로 움직임 추적(motion tracking) 기능을 수행하는 모습을 개략적으로 도시한 것이다.FIG. 8 schematically illustrates a motion tracking function performed by a pan / tilt device in a zoom camera in which an optical axis error compensation method according to the present invention is implemented.

Claims (12)

(a) 시작 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계;(a) measuring the coordinates of the target by moving the camera zoom to a starting zoom position; (b) 전체 줌 측정 구간이 완료될 때까지 다음 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계; 및(b) measuring the coordinates of the target by moving the camera zoom to the next zoom position until the entire zoom measurement interval is completed; And (c) 전체 줌 측정 구간이 완료되면, 상기 각 단계의 줌에서 측정된 표적의 좌표를 상기 카메라로 전송하는 단계;를 포함하며, (c) transmitting the coordinates of the target measured in the zoom of each step to the camera when the entire zoom measurement interval is completed; 상기 (a) 및 (b) 단계에서 상기 표적의 좌표를 측정하는 단계는,Measuring the coordinates of the target in the step (a) and (b), (a1) 상기 카메라를 통해 입력된 이미지를 캡쳐하는 단계; (a1) capturing an image input through the camera; (a2) 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일화 하는 단계;(a2) setting a target detection area and unifying image information in the detection area; (a3) 상기 이미지 정보를 일정 역치값으로 이진화하고, 상기 타겟을 배경과 분리하는 단계; 및 (a3) binarizing the image information to a predetermined threshold value and separating the target from a background; And (a4) 노이즈를 제거하고 상기 타겟의 좌표를 저장하는 단계;를 포함하는 줌 카메라의 광축 오차 보상 방법.and (a4) removing noise and storing coordinates of the target. 삭제delete 제 1 항에 있어서,The method of claim 1, 상기 (a) 단계에서, 상기 시작 줌 위치에서, 상기 카메라의 장착 위치를 확인하는 단계를 더 포함하는 것을 특징으로 하는 줌 카메라의 광축 오차 보상 방법.In the step (a), the optical zoom error compensation method of the zoom camera, characterized in that further comprising the step of confirming the mounting position of the camera at the starting zoom position. 제 3 항에 있어서,The method of claim 3, wherein 상기 카메라의 장착 위치를 확인하는 단계는, ⅰ) 상기 시작 줌 위치에서, 상기 카메라를 통해 입력된 이미지를 캡쳐하는 단계, ⅱ) 캡쳐된 이미지에서 타겟 검출 영역을 설정하여 이미지 정보를 단일화 하는 단계, ⅲ) 상기 이미지 정보를 일정 역치값으로 이진화하고, 상기 타겟을 배경과 분리하는 단계, ⅳ) 노이즈를 제거하고 상기 타겟의 좌표를 측정하는 단계, ⅴ) 타겟의 중심과 카메라의 중심이 일치되는 지 확인하는 단계를 포함하는 것을 특징으로 하는 줌 카메라의 광축 오차 보상 방법. The checking of the mounting position of the camera may include: i) capturing an image input through the camera at the starting zoom position; ii) unifying image information by setting a target detection area in the captured image; Iii) binarizing the image information to a predetermined threshold value, separating the target from the background, iii) removing noise and measuring coordinates of the target, iii) whether the center of the target coincides with the center of the camera; Compensating for the optical axis error of the zoom camera, characterized in that it comprises a step of confirming. 청구항 5은(는) 설정등록료 납부시 포기되었습니다.Claim 5 was abandoned upon payment of a set-up fee. 제 3 항에 있어서, The method of claim 3, wherein 상기 시작 줌의 위치는 최대 망원단인 것을 특징으로 하는 줌 카메라의 광축 오차 보상 방법. The optical zoom error compensation method of the zoom camera, characterized in that the position of the starting zoom is the maximum telephoto end. 소정 설정된 단계의 줌을 수행하는 카메라; A camera which performs a zoom in a predetermined step; 상기 카메라 전방에 배치된 표적을 포함하는 챠트부; A chart unit including a target disposed in front of the camera; 상기 소정 설정된 단계의 줌을 수행하는 카메라에서 출력된 이미지를 캡쳐하는 이미지 캡쳐부; 및 An image capture unit for capturing an image output from a camera which performs the zoom in the predetermined step; And 상기 캡쳐된 이미지로부터 타겟의 좌표를 검출 및 저장하여, 상기 타겟의 좌표를 상기 줌 카메라에 전송하는 제어부;를 포함하며, And a controller for detecting and storing coordinates of a target from the captured image, and transmitting the coordinates of the target to the zoom camera. 상기 제어부는, 상기 소정 설정된 각 줌 단계에서 캡쳐된 이미지의 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일화 하고, 상기 이미지 정보를 일정 역치값으로 이진화하여 상기 타겟을 배경으로부터 분리하고 노이즈를 제거함으로써, 상기 타겟의 좌표를 검출하는 줌 카메라의 광축 오차 보상 시스템. The control unit sets a target detection area of the image captured in each predetermined zooming step, unifies the image information in the detection area, binarizes the image information to a predetermined threshold value, and separates the target from the background and makes noise. And an optical axis error compensation system of the zoom camera to detect the coordinates of the target. 삭제delete 제 6 항에 있어서, The method of claim 6, 상기 카메라는 팬(pan), 틸트(tilt), 업(up), 다운(down) 및 회전(rotation) 중 적어도 하나 이상의 모션을 가능하게 하는 다축 조절 장치를 구비한 고정치구 상에 안착되고, The camera is mounted on a fixture having a multi-axis adjustment device that enables at least one or more motions of pan, tilt, up, down, and rotation, 시작 줌 단계에서, 상기 카메라의 장착 위치를 확인하여 에러 발생시 상기 고정치구로 상기 카메라의 장착 위치를 조절하는 것을 특징으로 하는 줌 카메라의 광축 오차 보상 시스템. In the starting zooming step, the optical camera error compensation system of the zoom camera, characterized in that to check the mounting position of the camera to adjust the mounting position of the camera with the fixed jig when an error occurs. 제 8 항에 있어서, 9. The method of claim 8, 상기 카메라의 장착 위치는, 상기 시작 줌 위치에서 캡쳐된 이미지의 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일화 하고, 상기 이미지 정보를 일정 역치값으로 이진화하여 상기 타겟을 배경으로부터 분리하고 노이즈를 제거함으로써, 상기 타겟의 중심과 카메라의 중심이 일치되는 지를 확인함으로써 수행하는 것을 특징으로 하는 줌 카메라의 줌 카메라의 광축 오차 보상 시스템. The mounting position of the camera sets a target detection area of the image captured at the starting zoom position, unifies the image information in the detection area, binarizes the image information to a predetermined threshold value, and separates the target from the background. And removing the noise to determine whether the center of the target coincides with the center of the camera. 청구항 10은(는) 설정등록료 납부시 포기되었습니다.Claim 10 has been abandoned due to the setting registration fee. 제 8 항에 있어서, 9. The method of claim 8, 상기 시작 줌의 위치는 최대 망원단인 것을 특징으로 하는 줌 카메라의 광축 오차 보상 시스템.The optical zoom error compensation system of the zoom camera, characterized in that the position of the start zoom is the maximum telephoto end. 청구항 11은(는) 설정등록료 납부시 포기되었습니다.Claim 11 was abandoned when the registration fee was paid. 제 8 항에 있어서, 9. The method of claim 8, 상기 챠트부와 카메라 사이에 배치되며 무한 광원을 제공하는 2차 광학계를 더 구비하는 것을 특징으로 하는 줌 카메라의 광축 오차 보상 시스템. And a second optical system disposed between the chart unit and the camera and providing an infinite light source. 삭제delete
KR1020080109471A 2008-11-05 2008-11-05 Optical axis error compensation system of the zoom camera, the method of the same KR101341632B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080109471A KR101341632B1 (en) 2008-11-05 2008-11-05 Optical axis error compensation system of the zoom camera, the method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080109471A KR101341632B1 (en) 2008-11-05 2008-11-05 Optical axis error compensation system of the zoom camera, the method of the same

Publications (2)

Publication Number Publication Date
KR20100050264A KR20100050264A (en) 2010-05-13
KR101341632B1 true KR101341632B1 (en) 2013-12-16

Family

ID=42276435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080109471A KR101341632B1 (en) 2008-11-05 2008-11-05 Optical axis error compensation system of the zoom camera, the method of the same

Country Status (1)

Country Link
KR (1) KR101341632B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019124622A1 (en) * 2017-12-21 2019-06-27 한화테크윈 주식회사 Method, apparatus, and computer program for correcting optical axis of zoom lens

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101324250B1 (en) * 2011-12-29 2013-11-01 삼성테크윈 주식회사 optical axis error compensation method using image processing, the method of the same, and the zoom camera provided for the compensation function of the optical axis error
KR102238147B1 (en) * 2016-10-18 2021-04-08 한화디펜스 주식회사 Remote arming system and trajectory of projectiles correction method using the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157104A (en) * 1999-11-29 2001-06-08 Canon Inc Image processor, its control method and memory medium applied to control of the image processor
JP2002314868A (en) 2001-04-13 2002-10-25 Olympus Optical Co Ltd Imaging device
JP2004171344A (en) 2002-11-21 2004-06-17 Matsushita Electric Ind Co Ltd Image reading apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157104A (en) * 1999-11-29 2001-06-08 Canon Inc Image processor, its control method and memory medium applied to control of the image processor
JP2002314868A (en) 2001-04-13 2002-10-25 Olympus Optical Co Ltd Imaging device
JP2004171344A (en) 2002-11-21 2004-06-17 Matsushita Electric Ind Co Ltd Image reading apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019124622A1 (en) * 2017-12-21 2019-06-27 한화테크윈 주식회사 Method, apparatus, and computer program for correcting optical axis of zoom lens
US11076101B2 (en) 2017-12-21 2021-07-27 Hanwha Techwin Co., Ltd. Method, apparatus, and computer program for correcting optical axis of zoom lens

Also Published As

Publication number Publication date
KR20100050264A (en) 2010-05-13

Similar Documents

Publication Publication Date Title
EP1765014B1 (en) Surveillance camera apparatus and surveillance camera system
US5602584A (en) Apparatus for producing a panoramic image using a plurality of optical systems
JP4140591B2 (en) Imaging system and imaging method
US8619120B2 (en) Imaging apparatus, imaging method and recording medium with program recorded therein
EP1343332A2 (en) Stereoscopic image characteristics examination system
JP5895270B2 (en) Imaging device
US8223214B2 (en) Camera system with masking processor
US20110090341A1 (en) Intruding object detection system and controlling method thereof
CN101494743B (en) Dust detection system and digital camera
JP5183152B2 (en) Image processing device
JP2005184776A (en) Imaging device and its method, monitoring system, program and recording medium
KR101452342B1 (en) Surveillance Camera Unit And Method of Operating The Same
KR101341632B1 (en) Optical axis error compensation system of the zoom camera, the method of the same
CN100562102C (en) Be used to catch the wide field's image and the method and system of area-of-interest wherein
KR20200137744A (en) Monitoring System and Method for Controlling PTZ using Fisheye Camera thereof
KR20030064437A (en) Surveillance device for panorama shooting and its method
JP2004354256A (en) Calibration slippage detector, and stereo camera and stereo camera system equipped with the detector
JP2007049266A (en) Picture imaging apparatus
JP2002101408A (en) Supervisory camera system
KR101670247B1 (en) System for magnifying-moving object using one click of cctv real-time image and method therefor
JP2007081826A (en) Monitoring system
JP2005175852A (en) Photographing apparatus and method of controlling photographing apparatus
JP2011030104A (en) Image capturing apparatus, and method of controlling the same
KR20190110369A (en) Intelligent camera system for automatic tracking of specified subject and image capturing method using the same
JP6089232B2 (en) Imaging device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161128

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181126

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191126

Year of fee payment: 7