KR20100050264A - 줌 카메라의 광축 오차 보상 시스템, 그 보상 방법 및 광축오차 보상 기능이 구현된 줌 카메라 - Google Patents

줌 카메라의 광축 오차 보상 시스템, 그 보상 방법 및 광축오차 보상 기능이 구현된 줌 카메라 Download PDF

Info

Publication number
KR20100050264A
KR20100050264A KR1020080109471A KR20080109471A KR20100050264A KR 20100050264 A KR20100050264 A KR 20100050264A KR 1020080109471 A KR1020080109471 A KR 1020080109471A KR 20080109471 A KR20080109471 A KR 20080109471A KR 20100050264 A KR20100050264 A KR 20100050264A
Authority
KR
South Korea
Prior art keywords
camera
zoom
target
optical axis
coordinates
Prior art date
Application number
KR1020080109471A
Other languages
English (en)
Other versions
KR101341632B1 (ko
Inventor
권영상
Original Assignee
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사 filed Critical 삼성테크윈 주식회사
Priority to KR1020080109471A priority Critical patent/KR101341632B1/ko
Publication of KR20100050264A publication Critical patent/KR20100050264A/ko
Application granted granted Critical
Publication of KR101341632B1 publication Critical patent/KR101341632B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은, (a) 시작 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계; (b) 전체 줌 측정 구간이 완료될 때까지 다음 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계; 및 (c) 전체 줌 측정 구간이 완료되면, 상기 각 단계의 줌에서 측정된 표적의 좌표를 상기 카메라로 전송하는 단계;를 포함하는 줌 카메라의 광축 오차 보상 방법을 제공한다.

Description

줌 카메라의 광축 오차 보상 시스템, 그 보상 방법 및 광축 오차 보상 기능이 구현된 줌 카메라{Optical axis error compensation system of the zoom camera, the method of the same, and the zoom camera provided for the compensation function of the optical axis error}
본 발명은 줌 카메라의 광축 오차를 보상하는 방법, 그 보상 시스템 및 상기 광축 오차 보상을 구현할 수 있는 줌 카메라에 관한 것이다.
최근, 범죄 및 도난 방지를 위해 건물이나 길거리에 감시 카메라가 많이 설치되고 있다. 이러한 감시 카메라를 통해 촬영된 영상은 경찰서나 건물 관리실의 모니터를 통해 표시되어 감시 카메라가 설치된 장소의 현재 상태를 알려준다. 일반적으로 감시 카메라는 피사체를 확대 또는 축소하여 보여줄 수 있는 줌(zoom) 기능을 구비하고 있어 사용자에게 많은 편리성을 제공한다.
그런데, 이와 같은 줌 기능을 구비한 감시 카메라는, 복수개의 렌즈군 및 CCD(charge-coupled device) 등과 같은 촬상소자를 카메라에 조립할 때, 또는 광학계의 공차 등과 같은 수많은 원인으로 광축 오차가 발생하여, 줌의 이동에 따라 카메라의 광축이 변동하는 문제가 발생한다.
예를 들어, 사생활 보호 목적으로 촬영 영역의 일부 화면을 전자적으로 마스킹 처리하는 프라이버시 마스킹(privacy masking) 기능을 줌 카메라에서 구현하기 위해서는, 카메라의 줌 시, 마스킹 영역의 확대 및 축소도 동시에 일어나야 한다. 그런데, 줌 카메라의 광축 오차가 크면, 가려야 할 영역이 지정된 마스킹 영역 밖으로 이동하는 경우가 발생한다.
도 1은 종래의 감시용 줌 카메라에서 프라이버시 마스킹 기능이 수행되는 모습을 개략적으로 도시한 것이다.
상기 도면의 상단을 참조하면, 최대 광각단(WIDE_max)(Z1) => 중간단(Z2) => 최대 망원단(TELE_max)(Z3)으로 카메라의 줌이 점차 이동되면서, 피사체(B1,B2,B3)의 영상이 확대됨과 동시에, 광축의 중심(0,0)이 점차 (4,2), (8,4)로 오프셋(off-set) 되는 것을 볼 수 있다(여기서, 도 1의 가로 방향은 Y축, 세로 방향은 X축을 나타낸다). 상기 도면의 하단을 참조하면, 카메라의 줌이 최대 광각단(WIDE_max)(Z1) => 중간단(Z2) => 최대 망원단(TELE_max)(Z3)으로 이동되면서, 마스킹 영역(M1,M2,M3)이 동시에 확대되는 모습을 보여준다. 그런데, 줌이 진행되어 광축 중심의 오프셋이 증가할 수록, 가려야 할 피사체(B1,B2,B3)의 영역이 마스킹 영역(M1,M2,M3) 밖으로 이탈하기 때문에 프라이버시 마스킹의 본래의 기능을 하지 못하는 경우가 발생한다.
이러한 현상은 고배율의 카메라일수록, 가려야 할 영역이 작을수록 발생할 확률이 크다. 그러나, 복수대의 동일 기종의 카메라가 같은 양 및 방향의 편차를 가지는 것은 아니기 때문에 제품의 편차가 발생하며, 양산 시 기구적으로 양질의 조립 품질을 기대하기도 어려운 문제점이 있다.
본 발명은 광축 오차가 발생할 수 있는 여러 원인으로 제조가 완료되어 일정 수준에 도달한 줌 카메라의 미세한 광축 오차를 보상하는 방법, 그 보상 시스템 및 상기 보상 방법에 의해 광축 오차를 보상할 수 있는 줌 카메라를 제공하는 것을 목적으로 한다.
상기와 같은 과제 및 그 밖의 과제 해결을 위하여 본 발명은, (a) 시작 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계; (b) 전체 줌 측정 구간이 완료될 때까지 다음 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계; 및 (c) 전체 줌 측정 구간이 완료되면, 상기 각 단계의 줌에서 측정된 표적의 좌표를 상기 카메라로 전송하는 단계;를 포함하는 줌 카메라의 광축 오차 보상 방법을 제공한다.
상기 (a) 및 (b) 단계에서 상기 표적의 좌표를 측정하는 단계는, (a1) 상기 카메라를 통해 입력된 이미지를 캡쳐하는 단계; (a2) 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일화 하는 단계; (a3) 상기 이미지 정보를 일정 역치값으로 이진화하고, 상기 타겟을 배경과 분리하는 단계; 및 (a4) 노이즈를 제거하고 상기 타겟의 좌표를 저장하는 단계;를 포함할 수 있다.
상기 (a) 단계에서, 상기 시작 줌 위치에서, 상기 카메라의 장착 위치를 확인하는 단계를 더 포함할 수 있다.
상기 카메라의 장착 위치를 확인하는 단계는, ⅰ) 상기 시작 줌 위치에서, 상기 카메라를 통해 입력된 이미지를 캡쳐하는 단계, ⅱ) 캡쳐된 이미지에서 타겟 검출 영역을 설정하여 이미지 정보를 단일화 하는 단계, ⅲ) 상기 이미지 정보를 일정 역치값으로 이진화하고, 상기 타겟을 배경과 분리하는 단계, ⅳ) 노이즈를 제거하고 상기 타겟의 좌표를 측정하는 단계, ⅴ) 타겟의 중심과 카메라의 중심이 일치되는 지 확인하는 단계를 포함할 수 있다.
상기 시작 줌의 위치는 최대 망원단 일 수 있다.
또한 본 발명은, 소정 설정된 단계의 줌을 수행하는 카메라; 상기 카메라 전방에 배치된 표적을 포함하는 챠트부; 상기 소정 설정된 단계의 줌을 수행하는 카메라에서 출력된 이미지를 캡쳐하는 이미지 캡쳐부; 및 상기 캡쳐된 이미지로부터 타겟의 좌표를 검출 및 저장하여, 상기 타겟의 좌표를 상기 줌 카메라에 전송하는 제어부;를 포함하는 줌 카메라의 광축 오차 보상 시스템을 제공한다.
상기 제어부는, 상기 소정 설정된 각 줌 단계에서 캡쳐된 이미지의 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일하 하고, 상기 이미지 정보를 일정 역치값으로 이진화하여 상기 타겟을 배경으로부터 분리하고 노이즈를 제거함으로써, 상기 타겟의 좌표를 검출할 수 있다.
상기 카메라는 팬(pan), 틸트(tilt), 업(up), 다운(down) 및 회전(rotation) 중 적어도 하나 이상의 모션을 가능하게 하는 다축 조절 장치를 구비한 고정치구 상에 안착되고, 시작 줌 단계에서, 상기 카메라의 장착 위치를 확인하여 에러 발생시 상기 고정치구로 상기 카메라의 장착 위치를 조절할 수 있다.
상기 카메라의 장착 위치는, 상기 시작 줌 위치에서 캡쳐된 이미지의 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일하 하고, 상기 이미지 정보를 일정 역치값으로 이진화하여 상기 타겟을 배경으로부터 분리하고 노이즈를 제거함으로써, 상기 타겟의 중심과 카메라의 중심이 일치되는 지를 확인함으로써 수행할 수 있다.
상기 시작 줌의 위치는 최대 망원단 일 수 있다.
상기 챠트부와 카메라 사이에 배치되며 무한 광원을 제공하는 2차 광학계를 더 구비할 수 있다.
또한 본 발명은, 상기 방법에 의하여 줌에 의한 광축 오차 보상을 구현할 수 있는 줌 카메라를 제공한다.
본 발명에 따른 광축 오차 보상 방법 및 그 시스템에 의하면, 제조가 완료되어 일정 수준에 도달한 줌 카메라의 미세한 광축 오차 정보를 소프트웨어적으로 정확하고 신속하게 구하여, 그 정보를 다시 카메라에 전송할 수 있다. 또한, 본 발명에 따른 광축 오차 정보를 포함하는 줌 카메라는, 프라이버시 마스킹 기능, 관찰 영역의 중심으로의 확대, 및 움직이는 물체의 추적 기능 등을 수행함에 있어서, 줌에 의한 광축 오차를 보상할 수 있다.
이하, 첨부된 도면을 참조하여 바람직한 실시예에 따른 본 발명을 상세히 설명하기로 한다.
도 2는 본 발명의 바람직한 실시예에 따른 줌 카메라의 광축 오차 보상 시스템에 대한 개념도이고, 도 3은 각 줌 단계에서 발생한 광축 오차를 개념적으로 도시한 도면이다.
상기 도면을 참조하면, 본 실시예에 따른 광축 오차 보상 시스템(100)은 카메라(110), 고정치구(120), 챠트부(130), 2차 광학계(140), 및 이미지 캡쳐부(151)와 제어부(152)를 포함하는 컴퓨터(150)를 구비한다.
카메라(110)는 줌 기능을 수행할 수 있는 복수개의 줌 렌즈(111)를 포함하며, 상기 도면에 상세히 도시되지는 않았지만 포커스 렌즈(미도시), 조리개(미도시), CCD(미도시), 디지털 신호 처리부(미도시), 통신부(미도시) 등을 더 구비할 수 있다. 렌즈 구동부(미도시)는 디지털 신호 처리부의 신호에 의해 상기 줌 렌즈를 구동하고, 상기 디지털 신호 처리부는 후술할 컴퓨터 제어부(152)의 명령에 의해 소정 설정된 단계로 줌 렌즈(111)를 이동시킬 수 있다. 또는 상기 렌즈 구동부는 직접 컴퓨터 제어부(152)의 신호에 의해 구동 될수도 있다. 이러한 카메라(110)로는 일반적인 줌 기능을 구현할 수 있는 카메라로서, 정지영상을 촬영할 수 있는 스틸 카메라는 물론, 동영상을 촬영할 수 있는 비디오 카메라, 및 감시용 줌 카메라 등을 포함할 수 있다.
카메라(110)는 고정치구(120) 상에 안착되어 있는데, 상기 고정치구(120)는 팬(pan), 틸트(tilt), 업(up), 다운(down) 및 회전(rotation) 중 적어도 하나 이상의 모션을 가능하게 하는 다축 조절 장치(미도시)를 구비한다. 카메라(110)의 초기 위치 셋팅 시, 카메라(110)의 중심이 타겟(T)의 중심과 불일치 하는 경우, 상기 다 축 조절 장치를 이용하여 카메라(110)의 중심과 타겟(T)의 중심을 일치시킨다.
카메라(110) 전방에는 영상 처리에 용이하게 고안된 표적(T)을 포함하는 챠트부(130)가 배치되어 있다.
상기 챠트부(130)와 카메라(110) 사이에는 무한 광원을 제공하는 2차 광학계(140)가 구비된다. 이러한 2차 광학계(140)는 작업 공간을 축소하기 위한 것으로 비디오 콜리메이터(video collimator)(미도시) 등을 사용할 수 있다. 또한 상기 도면에는 상세히 도시되지 않았지만 2차 광학계(140)는 조절 가능한 조명 시스템을 더 포함할 수 있다.
본 발명에 따른 광축 오차 보상 시스템(100)은 이미지 캡쳐부(151)와 제어부(152)를 포함하는 컴퓨터(150)를 구비한다.
이미지 캡쳐부(151)는 이미지 그래버(image grabber)와 같은 이미지 캡쳐 장치를 포함한다. 이미지 캡쳐부(151)는 소정 설정된 단계, 예를 들어 카메라(110)를 최대 광각단(WIDE_max) 내지 최대 망원단(TELE_max)의 어느 위치에 고정시킨 후, 카메라(110)로부터 입력되는 이미지 정보를 비디호 신호규격에 따라 2차원 픽셀 좌표를 갖는 영상 정보로 변환한다. 이때, 이미지 형식(RGB, YUV, 등)은 구현하고자 하는 형식에 맞게 적절히 선택한다.
제어부(152)는 상기 캡쳐된 이미지로부터 타겟(T)의 좌표를 검출하는 타겟 좌표 검출부(153) 및 상기 각 줌 단계에서 검출된 타겟(T)의 좌표를 저장하는 광축 데이터 저장부(154)를 포함한다.
타겟 좌표 검출부(153)는 소정 설정된 각 줌 단계에서 캡쳐된 이미지의 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를, 예를 들어, 색정보 또는 휘도 정보 등과 같이 단일화한다. 타겟 좌표 검출부(152)는 컴퓨터(150)의 RAM 상에 올려진 상기 이미지 정보를 일정 역치값으로 이진화하고, 히스토그램 또는 라벨링 등의 비젼 알고리즘을 사용하여 원하는 타겟(T)을 배경(background)으로부터 분리함으로써, 각 줌 단계에서의 원하는 타겟(T)의 좌표를 검출할 수 있다. 이때, 타겟 좌표 검출부(152)는 타겟(T)의 좌표를 정확하게 검출하기 위하여 일정 크기 이하의 타겟을 제거하거나 노이즈를 제거할 수 있다. 타겟 좌표 검출부(153)는 제어부(152)의 제어하에 사전 설정된 각 줌 단계가 완료될 때까지 상기 과정을 반복적으로 수행한다.
도 3을 참조하면, 최대 광각단(WIDE_max)(Z1) => 중간단(Z2) => 최대 망원단(TELE_max)(Z3)으로 카메라의 줌이 점차 이동되면서, 전술한 비젼 알고리즘에 의해 처리된 타겟(T1,T2,T3)의 영상이 확대됨과 동시에, 광축의 중심(0,0)이 점차 (4,2), (8,4)로 오프셋 되는 것을 볼 수 있다(여기서, 도 1의 가로 방향은 Y축, 세로 방향은 X축을 나타낸다). 한편, 상기 도면에 도시된 타겟 좌표 검출에 사용된 비젼 알고리즘은 라벨링 기법을 사용하였으며, 타겟(T)의 각 사각 포인트의 좌표들을 검출하여 원래의 광축 중심(0,0)을 기준으로 오프셋된 타겟(T2, T3)의 광축 기준 좌표(4,2)(8,4)를 검출하였다. 본 발명은 상기 라벨링 방법에 한정되지 않고 다양한 방법으로 줌에 의한 광축의 오프셋값을 구할 수 있다. 이와 같이 각 줌 단계에서 오프셋 된 타겟(T)의 좌표들은 광축 오프셋 데이터로서 광축 데이터 저장부(154)에 저장된다.
광축 데이터 저장부(154)는 상기와 같이 각 줌 단계에서 검출된 타겟(T)의 좌표들을 저장하고, 제어부(152)의 제어하에 상기 타겟(T)의 좌표 데이터를 카메라(110)에 전송한다.
카메라(110)로 전송된 타겟(T)의 좌표 데이터들은 카메라(110)의 저장부(미도시)에 저장된다. 카메라(110)의 디지털 신호 처리부(미도시)는 이와 같이 카메라(110)에 저장된 광축 데이터를 이용하여 줌 기능 수행시 오프셋 되는 광축의 중심을 보상한다.
전술한 타겟 좌표 검출부(153)와 광축 데이터 저장부(154)의 기능들은 컴퓨터(150)의 제어부(152)에 의해 수행되거나, 제어부(152) 주변 기기의 도움으로 수행될 수 있다. 또한, 상기 도면에 상세히 도시되지 않았지만, 상기 시스템(100)에는 카메라(110)와 컴퓨터(150) 사이의 통신을 담당하는 복수의 통신부(미도시)가 더 구비될 수 있다.
한편, 전술한 카메라(110)를 고정치구(120)에 안착시키는 카메라(110)의 초기 위치의 세팅은, 전술한 타겟의 좌표를 검출하는 알고리즘을 유사하게 이용한다. 먼저, 카메라(110)를 고정치구(120)에 고정시킨 다음, 시작 줌 위치에서 캡쳐된 이미지의 타겟 검출 영역을 설정한다. 상기 검출 영역 내의 이미지 정보를, 예를 들어, 색정보 또는 휘도 정보 등으로 단일화한다. 이 이미지 정보를 일정 역치값으로 이진화하고, 히스토그램 또는 라벨링 등의 비젼 알고리즘을 사용하여 원하는 타겟(T)을 배경(background)으로부터 분리함으로써, 각 줌 단계에서의 원하는 타겟(T)의 좌표를 검출할 수 있다. 이로써 타겟의 기준점과 카메라의 중심이 일치되 는 지를 확인하여, 일치하지 않는 경우에는 전술한 고정 치구의 다축 조절 장치를 이용하여 카메라(110)의 중심과 타겟(T)의 기준점을 일치시킨다.
이때, 시작 줌의 위치를 최대 망원단에서 수행할 경우, 타겟의 넓은 영역을 보면서 타겟(T)과 카메라(110)의 중심을 비교할 수 있기 때문에 보다 정확한 광축 오차 데이터를 구할 수 있다.
도 4는 본 발명에 따른 바람직한 실시예인 줌 카메라의 광축 오차 보상 방법에 따른 흐름도이고, 도 5는 도 4의 S160을 상세히 도시한 흐름도이다. 줌 카메라의 광축 오차 보상 방법은 도 2의 광축 오차 보상 시스템에 의하여 구현될 수 있다.
상기 도면을 참조하면, 광축 오차 보상 방법(S200)은 먼저 시작 줌 위치로 카메라 줌을 이동하면서 시작한다(S210). 이러한 줌의 시작 줌은 최대 광각단(WIDE_max) 또는 최대 망원단(TELE_max)에서 시작할 수 있다.
다음으로, 시작 줌의 위치에서 카메라(110)의 장착 위치가 정확한지 여부를 확인한다(S220). 이는 전술한 바와 같이 타겟(T)의 좌표를 검출하는 알고리즘을 유사하게 이용하여 타겟(T)의 중심과 카메라(110)의 중심이 일치하지 않는 경우, 즉 오차가 발생하는 경우(S230)에는 에러 메시지를 출력하여(S240), 전술한 고정 치구(120)의 다축 조절 장치(미도시)를 이용하여 수동으로 또는 자동으로 카메라(110)의 중심과 타겟(T)의 기준점을 일치시킨다.
전체 줌 측정 구간이 완료될 때까지(S250), 해당 줌 단계에서 타겟(T)의 기준 좌표를 측정한다(S260). 도 5를 참조하면, 먼저 이미지 캡쳐부(151)는 각 줌 단 계에서 카메라(110)를 통해 출력된 이미지를 캡쳐한다(S261). 다음으로 캡쳐된 이미지의 타겟 검출 영역을 설정하고(S262), 상기 검출 영역 내의 이미지 정보를, 예를 들어, 색정보 또는 휘도 정보 등과 같이 단일화한다(S263). 타겟 좌표 검출부(152)는 컴퓨터(150)의 RAM 상에 올려진 상기 이미지 정보를 일정 역치값으로 이진화하고(S264), 히스토그램 또는 라벨링 등의 비젼 알고리즘을 사용하여 원하는 타겟(T)을 배경(background)으로부터 분리함으로써(S265), 각 줌 단계에서의 원하는 타겟(T)의 좌표를 검출할 수 있다. 이때, 타겟 좌표 검출부(152)는 타겟(T)의 좌표를 정확하게 검출하기 위하여 일정 크기 이하의 타겟을 제거하거나 노이즈를 제거할 수 있다(S266). 이와 같이 노이즈가 제거된 타겟의 좌표는 광축 데이터 저장부(154)에 저장된다(S267). 타겟 좌표 검출부(153)는 제어부(152)의 제어하에 사전 설정된 각 줌 단계가 완료될 때까지 상기 과정을 반복적으로 수행한다(S270).
상기와 같이 각 줌 단계에서 검출되어 저장된 타겟(T)의 기준 좌표들은 제어부(152)의 제어하에 카메라(110)에 전송된다(S280).
상기와 같이 카메라(110)로 전송된 타겟(T)의 좌표 데이터들은 카메라(110)의 저장부(미도시)에 저장된다. 카메라(110)의 디지털 신호 처리부(미도시)는 이와 같이 카메라(110)에 저장된 광축 데이터를 이용하여 줌 기능 수행시 오프셋 되는 광축의 중심을 보상 할 수 있다.
이하, 도 6 내지 8을 참조하여 전술한 방법으로 광축 오차 값을 전송받은 줌 카메라에서 광축 오차 보상을 구현하는 다양한 실시예를 설명한다.
도 6은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 프라이 버시 마스킹이 수행되는 모습을 개략적으로 도시한 것이다.
상기 도면의 상단(A)의 종래 마스킹 방법을 참조하면, 최대 광각단(WIDE_max)(Z1) => 중간단(Z2) => 최대 망원단(TELE_max)(Z3)으로 카메라(110)의 줌이 점차 이동되면서, 피사체(B1,B2,B3) 및 마스킹 영역(M1,M2,M3)의 영상이 확대된다. 그러나, 줌에 의한 광축의 중심(0,0)이 점차 (4,2), (8,4)로 오프셋(off-set) 됨으로써, 피사체(B1,B2,B3)의 중심은 이동하지만, 마스킹 영역(M1,M2,M3)의 중심은 이동하지 않기 때문에, 가려야 할 피사체(B1,B2,B3)의 영역이 마스킹 영역(M1,M2,M3) 밖으로 이탈하게 된다.
그러나, 도면 하단(B)의 본 발명에 따른 광축 오차 보상 방법이 적용된 줌 카메라에 있어서는, 최대 광각단(WIDE_max)(Z1) => 중간단(Z2) => 최대 망원단(TELE_max)(Z3)으로 카메라의 줌이 점차 이동되면서, 피사체(B1,B2,B3) 및 마스킹 영역(M1',M2',M3')의 영상이 확대됨과 동시에, 카메라(110)의 저장부에 저장된 오프셋 된 광축 데이터를 이용하여, 마스킹 영역(M1',M2',M3')의 중심을 각 줌 단계의 오프셋 된 광축 데이터만큼 보정할 수 있기 때문에, 마스킹 영역(M1',M2',M3')의 중심과 피사체(B1,B2,B3)의 중심이 동일하게 된다. 따라서, 마스킹 영역(M1',M2',M3')은 가려야 할 피사체(B1,B2,B3)의 영역을 그대로 가릴 수 있다.
도 7은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 일정 영역을 중심으로 팬/틸트/줌이 수행되는 모습을 개략적으로 도시한 것이다.
상기 도면의 상단(A)의 종래 방법을 참조하면, 모니터상의 출력 이미지 상에 서 사용자가 확대하여 보고 싶은 일정 영역(P) 또는 영역 중심을 지정하면, 줌이 연동되어 해당 지정된 영역을 확대시키고, 팬/틸트가 연동되어 해당 영역의 중심(C1)을 모니터의 중심(O)으로 이동시켜야 한다. 그러나 이 경우, 줌에 의한 광축 오차로 해당 영역(P) 및 피사체(B)의 중심(C2)은 모니터의 중심(0)에 위치하지 못하고 오프셋 된다.
그러나, 도면 하단(B)의 본 발명에 따른 광축 오차 보상 방법이 적용된 줌 카메라에 있어서는, 사용자가 모니터상의 출력 이미지에서 일정 영역(P) 또는 영역 중심을 지정하였을 경우, 줌이 연동되어 지정된 영역을 확대되고, 카메라(110)의 저장부에 저장된 오프셋 된 광축 데이터를 이용하여 해당 오프셋 값만큼 팬/틸트 값이 보상되기 때문에 확대된 영역 및 피사체의 중심(C2)이 모니터 중심(O)에 위치하게 된다.
도 8은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 팬/틸트 장치로 움직임 추적(motion tracking) 기능을 수행하는 모습을 개략적으로 도시한 것이다.
상기 도면의 상단(A)의 종래 방법을 참조하면, 모니터상의 출력 이미지 상에서, 사용자가 움직이는 피사체 또는 일정 영역(P1, P2)을 화면의 중심에서 확대된 모습으로 그 움직임을 계속 추적하고자 할 경우, 줌이 연동되어 해당 지정된 영역(P1, P2)을 확대시키고, 팬/틸트가 연동되어 해당 영역의 중심(C1)을 모니터의 중심(O)으로 이동시켜야 한다. 그러나 이 경우, 줌에 의한 광축 오차로 해당 영역(P3) 또는 피사체의 중심(C2)은 모니터의 중심(0)에 위치하지 못하고 오프셋 된 다.
그러나, 도면 하단(B)의 본 발명에 따른 광축 오차 보상 방법이 적용된 줌 카메라에 있어서는, 줌이 연동되어 해당 지정된 영역(P1, P2)이 확대되고(P3'), 카메라(110)의 저장부에 저장된 오프셋 된 광축 데이터를 이용하여 해당 오프셋 값만큼 팬/틸트 값이 보상되기 때문에 움직이는 물체 또는 영역의 확대된 영역(P3') 또는 피사체의 중심(C2)이 모니터 중심(O)에 위치하게 된다.
본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
도 1은 종래의 감시용 줌 카메라에서 프라이버시 마스킹 기능이 수행되는 모습을 개략적으로 도시한 것이다.
도 2는 본 발명의 바람직한 실시예에 따른 줌 카메라의 광축 오차 보상 시스템에 대한 개념도이다.
도 3은 각 줌 단계에서 발생한 광축 오차를 개념적으로 도시한 도면이다.
도 4는 본 발명에 따른 바람직한 실시예인 줌 카메라의 광축 오차 보상 방법에 따른 흐름도이다.
도 5는 도 4의 S160을 상세히 도시한 흐름도이다.
도 6은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 프라이버시 마스킹이 수행되는 모습을 개략적으로 도시한 것이다.
도 7은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 일정 영역을 중심으로 팬/틸트/줌이 수행되는 모습을 개략적으로 도시한 것이다.
도 8은 본 발명에 따른 광축 오차 보상 방법이 구현된 줌 카메라에서 팬/틸트 장치로 움직임 추적(motion tracking) 기능을 수행하는 모습을 개략적으로 도시한 것이다.

Claims (12)

  1. (a) 시작 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계;
    (b) 전체 줌 측정 구간이 완료될 때까지 다음 줌 위치로 카메라 줌을 이동하여 표적의 좌표를 측정하는 단계; 및
    (c) 전체 줌 측정 구간이 완료되면, 상기 각 단계의 줌에서 측정된 표적의 좌표를 상기 카메라로 전송하는 단계;를 포함하는 줌 카메라의 광축 오차 보상 방법.
  2. 제 1 항에 있어서,
    상기 (a) 및 (b) 단계에서 상기 표적의 좌표를 측정하는 단계는,
    (a1) 상기 카메라를 통해 입력된 이미지를 캡쳐하는 단계;
    (a2) 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일화 하는 단계;
    (a3) 상기 이미지 정보를 일정 역치값으로 이진화하고, 상기 타겟을 배경과 분리하는 단계; 및
    (a4) 노이즈를 제거하고 상기 타겟의 좌표를 저장하는 단계;를 포함하는 것을 특징으로 줌 카메라의 광축 오차 보상 방법.
  3. 제 1 항에 있어서,
    상기 (a) 단계에서, 상기 시작 줌 위치에서, 상기 카메라의 장착 위치를 확인하는 단계를 더 포함하는 것을 특징으로 하는 줌 카메라의 광축 오차 보상 방법.
  4. 제 3 항에 있어서,
    상기 카메라의 장착 위치를 확인하는 단계는, ⅰ) 상기 시작 줌 위치에서, 상기 카메라를 통해 입력된 이미지를 캡쳐하는 단계, ⅱ) 캡쳐된 이미지에서 타겟 검출 영역을 설정하여 이미지 정보를 단일화 하는 단계, ⅲ) 상기 이미지 정보를 일정 역치값으로 이진화하고, 상기 타겟을 배경과 분리하는 단계, ⅳ) 노이즈를 제거하고 상기 타겟의 좌표를 측정하는 단계, ⅴ) 타겟의 중심과 카메라의 중심이 일치되는 지 확인하는 단계를 포함하는 것을 특징으로 하는 줌 카메라의 광축 오차 보상 방법.
  5. 제 3 항에 있어서,
    상기 시작 줌의 위치는 최대 망원단인 것을 특징으로 하는 줌 카메라의 광축 오차 보상 방법.
  6. 소정 설정된 단계의 줌을 수행하는 카메라;
    상기 카메라 전방에 배치된 표적을 포함하는 챠트부;
    상기 소정 설정된 단계의 줌을 수행하는 카메라에서 출력된 이미지를 캡쳐하는 이미지 캡쳐부; 및
    상기 캡쳐된 이미지로부터 타겟의 좌표를 검출 및 저장하여, 상기 타겟의 좌표를 상기 줌 카메라에 전송하는 제어부;를 포함하는 줌 카메라의 광축 오차 보상 시스템.
  7. 제 6 항에 있어서,
    상기 제어부는, 상기 소정 설정된 각 줌 단계에서 캡쳐된 이미지의 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일하 하고, 상기 이미지 정보를 일정 역치값으로 이진화하여 상기 타겟을 배경으로부터 분리하고 노이즈를 제거함으로써, 상기 타겟의 좌표를 검출하는 것을 특징으로 하는 줌 카메라의 광축 오차 보상 시스템.
  8. 제 6 항에 있어서,
    상기 카메라는 팬(pan), 틸트(tilt), 업(up), 다운(down) 및 회전(rotation) 중 적어도 하나 이상의 모션을 가능하게 하는 다축 조절 장치를 구비한 고정치구 상에 안착되고,
    시작 줌 단계에서, 상기 카메라의 장착 위치를 확인하여 에러 발생시 상기 고정치구로 상기 카메라의 장착 위치를 조절하는 것을 특징으로 하는 줌 카메라의 광축 오차 보상 시스템.
  9. 제 8 항에 있어서,
    상기 카메라의 장착 위치는, 상기 시작 줌 위치에서 캡쳐된 이미지의 타겟 검출 영역을 설정하고, 상기 검출 영역 내의 이미지 정보를 단일하 하고, 상기 이미지 정보를 일정 역치값으로 이진화하여 상기 타겟을 배경으로부터 분리하고 노이즈를 제거함으로써, 상기 타겟의 중심과 카메라의 중심이 일치되는 지를 확인함으로써 수행하는 것을 특징으로 하는 줌 카메라의 줌 카메라의 광축 오차 보상 시스템.
  10. 제 8 항에 있어서,
    상기 시작 줌의 위치는 최대 망원단인 것을 특징으로 하는 줌 카메라의 광축 오차 보상 시스템.
  11. 제 8 항에 있어서,
    상기 챠트부와 카메라 사이에 배치되며 무한 광원을 제공하는 2차 광학계를 더 구비하는 것을 특징으로 하는 줌 카메라의 광축 오차 보상 시스템.
  12. 제 1 항 내지 제 5항 중 어느 한 한의 방법에 의하여 줌에 의한 광축 오차 보상을 구현할 수 있는 줌 카메라.
KR1020080109471A 2008-11-05 2008-11-05 줌 카메라의 광축 오차 보상 시스템, 그 보상 방법 KR101341632B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080109471A KR101341632B1 (ko) 2008-11-05 2008-11-05 줌 카메라의 광축 오차 보상 시스템, 그 보상 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080109471A KR101341632B1 (ko) 2008-11-05 2008-11-05 줌 카메라의 광축 오차 보상 시스템, 그 보상 방법

Publications (2)

Publication Number Publication Date
KR20100050264A true KR20100050264A (ko) 2010-05-13
KR101341632B1 KR101341632B1 (ko) 2013-12-16

Family

ID=42276435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080109471A KR101341632B1 (ko) 2008-11-05 2008-11-05 줌 카메라의 광축 오차 보상 시스템, 그 보상 방법

Country Status (1)

Country Link
KR (1) KR101341632B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103188442A (zh) * 2011-12-29 2013-07-03 三星泰科威株式会社 用于图像稳定的系统和方法及使用该方法的变焦相机
KR20180042735A (ko) * 2016-10-18 2018-04-26 한화지상방산 주식회사 원격 무장 시스템 및 이를 이용하는 탄도 보정 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516175B1 (ko) * 2017-12-21 2023-03-30 한화비전 주식회사 줌 렌즈의 광축 보정 방법, 장치 및 컴퓨터 프로그램

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157104A (ja) * 1999-11-29 2001-06-08 Canon Inc 画像処理装置及びその制御方法並びにその制御に供するメモリ媒体
JP2002314868A (ja) 2001-04-13 2002-10-25 Olympus Optical Co Ltd 撮像装置
JP4415539B2 (ja) 2002-11-21 2010-02-17 パナソニック株式会社 画像読取装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103188442A (zh) * 2011-12-29 2013-07-03 三星泰科威株式会社 用于图像稳定的系统和方法及使用该方法的变焦相机
CN103188442B (zh) * 2011-12-29 2018-02-06 韩华泰科株式会社 用于图像稳定的系统和方法及使用该方法的变焦相机
KR20180042735A (ko) * 2016-10-18 2018-04-26 한화지상방산 주식회사 원격 무장 시스템 및 이를 이용하는 탄도 보정 방법

Also Published As

Publication number Publication date
KR101341632B1 (ko) 2013-12-16

Similar Documents

Publication Publication Date Title
EP1765014B1 (en) Surveillance camera apparatus and surveillance camera system
US5602584A (en) Apparatus for producing a panoramic image using a plurality of optical systems
US8488001B2 (en) Semi-automatic relative calibration method for master slave camera control
US20160323504A1 (en) Auto-tracking imaging apparatus
JP4140591B2 (ja) 撮像システム及び撮像方法
EP1343332A2 (en) Stereoscopic image characteristics examination system
US20110090341A1 (en) Intruding object detection system and controlling method thereof
US8223214B2 (en) Camera system with masking processor
JP2015194672A (ja) 撮像装置
JP2011182176A (ja) 広視野角画像処理方法と広視野角画像撮影装置
CN101494743A (zh) 灰尘检测系统以及数码相机
JP5183152B2 (ja) 画像処理装置
EP3745718B1 (en) Method of controlling pan-tilt-zoom camera by using fisheye camera and monitoring system
KR101452342B1 (ko) 감시카메라 유닛 및 그 구동방법
KR101341632B1 (ko) 줌 카메라의 광축 오차 보상 시스템, 그 보상 방법
CN100562102C (zh) 用于捕捉广视场图像以及其中感兴趣区域的方法和系统
JP2005303493A (ja) 障害物適応投射型表示装置
KR20030064437A (ko) 파노라마 촬영용 감시 장치 및 그 방법
JP2002101408A (ja) 監視カメラシステム
JP2007049266A (ja) 画像撮像装置
JP2007081826A (ja) 監視システム
JP2004320175A (ja) 監視カメラシステム
JP6089232B2 (ja) 撮像装置
KR20190110369A (ko) 지정 피사체의 자동 추적이 가능한 지능형 카메라 시스템 및 이를 이용한 영상촬영 방법
US20100118151A1 (en) Autofocus system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161128

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181126

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191126

Year of fee payment: 7