KR20180030437A - 자동포커스를 수행하는 방법, 자동포커스 시스템 및 자동포커스 모듈을 포함하는 카메라 - Google Patents

자동포커스를 수행하는 방법, 자동포커스 시스템 및 자동포커스 모듈을 포함하는 카메라 Download PDF

Info

Publication number
KR20180030437A
KR20180030437A KR1020170115123A KR20170115123A KR20180030437A KR 20180030437 A KR20180030437 A KR 20180030437A KR 1020170115123 A KR1020170115123 A KR 1020170115123A KR 20170115123 A KR20170115123 A KR 20170115123A KR 20180030437 A KR20180030437 A KR 20180030437A
Authority
KR
South Korea
Prior art keywords
camera
object distance
focus
zoom position
zoom
Prior art date
Application number
KR1020170115123A
Other languages
English (en)
Other versions
KR101943564B1 (ko
Inventor
요한 니스트룀
칸 쉬
Original Assignee
엑시스 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엑시스 에이비 filed Critical 엑시스 에이비
Publication of KR20180030437A publication Critical patent/KR20180030437A/ko
Application granted granted Critical
Publication of KR101943564B1 publication Critical patent/KR101943564B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/282Autofocusing of zoom lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/285Systems for automatic generation of focusing signals including two or more different focus detection devices, e.g. both an active and a passive focus detecting device
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/02Focusing arrangements of general interest for cameras, projectors or printers moving lens along baseboard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • H04N5/23212
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming

Abstract

줌잉 동작 동안 카메라를 자동포커싱하는 방법이 개시되며, 상기 렌즈를 제1 줌 위치로 줌잉하는 단계(S1)와; 상기 카메라로부터 포커싱하는 객체까지의 제1 객체 거리를 측정하는 단계(S2)와; 제1 객체 거리를 사용하여 제1 포커스 시작 위치를 결정하는 단계(S3)와; 시작점으로서 상기 제1 포커스 시작 위치를 사용하여 제1 자동포커싱 동작을 수행(S4)하고, 이를 통해 제1 결정된 포커스 위치를 결정하는 단계를 포함한다. 제1 룩업 객체 거리는 상기 제1 결정된 포커스 위치에 기초하여 결정된다(S5). 제1 보정 팩터는 상기 제1 룩업 객체 거리와 상기 제1 객체 거리 사이의 비(ratio)로서 계산된다(S6). 상기 렌즈는 제2 줌 위치로 줌잉되고(S13), 그리고 제2 포커스 위치는, 제2 줌 위치 및 제1 줌 위치에서 피사계 심도들의 비에 기초한 제2 보정 팩터(S15)와 제1 객체 거리의 곱으로서 계산되는 제2 객체 거리(S16)를 사용하여 제2 포커스 위치가 결정된다(S17).

Description

자동포커스를 수행하는 방법, 자동포커스 시스템 및 자동포커스 모듈을 포함하는 카메라{METHOD OF PERFORMING AUTOFOCUS, AUTOFOCUS SYSTEM, AND CAMERA COMPRISING AN AUTOFOCUS MODULE}
본 발명은 카메라들의 자동포커싱 분야, 특히, PTZ 카메라들(즉, 패닝, 틸팅 및 줌잉을 할 수 있는 카메라들)의 자동포커싱 분야에 관한 것이다.
자동포커스는 카메라들에서 널리 사용되는 기능이다. 이 기능은 휴대용 카메라들 뿐 아니라 모니터링 카메라들, 정지 이미지 카메라들 및 비디오 카메라들에서 사용된다. 자동포커스를 수행하는 다수의 상이한 방법들이 알려져 있고 그리고 일반적으로 패시브, 액티브 또는 하이브리드 방법들로 분류될 수 있다. 하나의 알려진 방법은 최대 콘트라스트 방법 또는 콘트라스트 검출 방법으로 언급된다. 이 방법에서, 캡처된 이미지에서의 인접한 픽셀들 사이의 콘트라스트가 조사되고, 그리고 시작하는 점 주변의 포커스를 약간 변경함으로써, 가장 높은 콘트라스트의 포커스 위치를 찾으며, 그리고 포커스 위치를 발견할 수도 있다. 최대 콘트라스트의 탐색은, 예를 들어, "힐-클라이밍(hill-climbing)"으로 불리는 수학적 최적화 기술을 사용하여 수행될 수 있다. 포커스 위치가 발견될 때, 이러한 포커스 위치 및 줌 모터 위치는 렌즈의 설계자 또는 공급자에 의해 제공된 트레이스 곡선들(trace curves)의 세트에서 대응하는 객체 거리 트레이스를 발견하기 위해 사용된다. 상기 트레이스 곡선들은 줌 모터 위치에 대해 포커스 모터 위치를 플롯하고, 다수의 객체 거리들의 각각에 대해 하나의 곡선을 갖는다. 이러한 곡선들은 일반적으로 가변포커스 렌즈 시스템에 포함되는 다양한 렌즈들의 이론적인 특성들을 사용하여 이론적으로 계산된다. 각 곡선이 개별 객체 거리에 기초하는 다수의 곡선들이 제공된다. 동일한 객체 거리에서 포커스를 유지하려는 경우 줌 인 및 줌 아웃할 때, 이후 트레이스 곡선은 적절한 포커스를 부여할 포커스 모터 위치를 발견하가 위해 사용되어, 각각의 줌 위치에 대해 콘트라스트 결정이 수행될 필요가 없다. 객체 거리가 트레이스 곡선들 중 어느 것과 매칭하지 않으면, 2개의 곡선들 사이의 객체 거리들을 획득하기 위해 보간이 수행된다.
낮은 광 조건들에서 또는 콘트라스트가 낮은 장면이거나 점 광원으로 된 장면에서와 같은 일부 상황들에서, 콘트라스트에 대한 최대치를 찾는 것이 어려울 수 있고 그리고 상기 자동포커스 알고리즘은 "헌팅(hunting)"으로 끝날 수 있으며, 이는 최대치를 발견할 수 없어도 포커스 모터 위치를 계속 변경하는 것을 의미한다.
양호한 광 조건들에서도, 알고리즘이 최적의 포커스 모터 위치를 탐색할 때, 자동포커스 프로세스 동안 발생하는 포커스의 변화들은, 이미지의 성가신 흔들림으로 나타날 수 있다.
액티브 자동포커스 방법들에서, 예를 들어, 레이저를 사용하여, 포커싱하는 대상에 대한 실제 거리 측정이 이루어진다. 이후, 포커스 위치는 렌즈에 대한 트레이스 곡선을 사용하여 결정될 수 있다. 그와 같은 액티브 방법들은 거리 측정 시스템의 추가가 필요하기 때문에 카메라의 비용을 추가되지만, 낮은 광 조건들에서 자동포커스를 용이하게 하는 장점을 제공한다. 그것들은 또한, 패시브 자동포커스 방법들로 발생할 수 있는 흔들림 및 "헌팅"이 없도록 즉각적인 포커스 위치의 장점을 제공한다.
패시브 방법 및 액티브 방법에 대한 공통적인 문제는, 카메라에 장착된 렌즈가 트레이스 곡선이 만들어진 렌즈에서 벗어날 수 있으며, 결정된 객체 거리에 대해 지시된 포커스 위치를 사용하여 적절한 포커스가 달성되지 않도록 한다. 개별 렌즈는, 적절한 포커스 위치를 선택할 때 사용되는 이론적인 트레이스 곡선으로부터 생산 오프셋을 계산하기 위해 카메라의 제조동안 테스트될 수 있다. 하지만, 그와 같은 오프셋 테스트는 일반적으로, 단지 "먼(tele)" 및 "넓은(wide)" 2개의 줌 위치에 대해서 그리고 무한대로 포커싱하기 위해 수행된다. 또한, 경제성 때문에, 오프셋 테스트는 일부 경우들에서, 렌즈 유형에 따라 한 번만 수행되며 각 개별 렌즈에 대해 수행되지 않는다. 각각의 개별 렌즈가 테스트되더라도, 렌즈 제조업자에 의한 내부 설계 허용오차 및 잠재적인 조정은 일반적으로 이론적인 것에서 벗어나는 실제 트레이스 곡선 형태를 초래할 것이며, 제조 오프셋은 트레이스 곡선들을 따라 모두 적용되지 않는다. 다른 렌즈 표본의 실제 동작과 다른 줌 위치들 및 객체 거리들은, 공장 또는 생산 오프셋을 고려하더라도 트레이스 곡선에서 벗어날 수 있다. 사정을 더 악화시키기 위해, 렌즈의 거동은, 예를 들어, 온도들의 변화 또는 렌즈 컴포넌트들의 연식이 늘어감으로 인해 시간에 따라 변할 수 있다.
자동포커싱을 향상시키기 위해, 패시브 방법과 액티브 방법을 결합한 하이브리드 방법이 사용될 수 있다. 예를 들어, 레이저 거리 측정은, 콘트라스트 검출 방법의 시작점을 제공하기 위해 사용될 수 있어, 도전적인 장면들에서 자동포커싱을 용이하게 한다. 또한, 하이브리드 방법은, "헌팅"의 위험을 감소시키고 그리고 잠재적으로 더 양호한 시작점을 가진 패시브 방법을 더 빠르게 수행할 수 있어, 최적의 포커스 위치를 찾는 동안 성가신 흔들림을 줄인다.
알려진 자동포커싱 방법들과 관련된 문제들은 종종 PTZ 카메라들에서 악화된다. 카메라가 새로운 방향으로 패닝되고 그리고/또는 틸팅될 때, 자동포커싱은 새로운 시야의 객체들에 포커싱하기 위해 필요하다. 일반적으로, 자동포커싱 프로세스는, 모니터링되는 장면의 하나의 지점에서 다른 지점으로 패닝 및/또는 틸팅 움직임 동안 포커싱된 이미지들을 제공하기에 충분히 빠르지 않다. 따라서, 포커싱된 이미지들은 이동의 시작 및 이동의 끝에서 얻어질 수 있지만, 그 사이의 이미지들은 흐려질 수 있을 것이다. 카메라가 줌 인 또는 줌 아웃되는 경우에도 마찬가지이다. 이동 및 줌잉동안 이러한 흘려짐은, 예를 들어, 소위 "가드 투어(guard tour)"로부터 캡처된 비디오 시퀀스, 즉, 모니터링된 영역들의 다양한 부분들을 모니터링하기 위해 수행되는 패닝, 틸팅 및 줌잉 동작들의 사전-프로그래밍된 시퀀스를 보는 오퍼레이터에게 성가실 수 있다. 패닝, 틸팅 및 줌잉동안 오퍼레이터는 중요한 시각 정보를 잃을 수 있다.
본 발명의 목적은 더 양호한 포커싱된 이미지들을 제공할 수 있는 자동포커싱하는 방법을 제공하는 것이다. 또한, 본 발명의 목적은, 패닝, 틸팅 및 줌잉 동안에도 더 양호하게 포커싱된 이미지들을 제공할 수 있는 자동포커싱을 하는 방법을 제공하는 것이다. 본 발명의 다른 목적은 종래 기술의 방법들보다 더 신속하게 수행될 수 있는 자동포커싱하는 방법을 제공하는 것이다.
제1 양상에 따르면, 이들 및 다른 목적들은, 전체적으로 또는 부분적으로, 줌잉(zooming) 동작 동안 카메라를 자동포커싱하는 방법에 의해 달성되며, 상기 카메라는 줌 렌즈를 포함하고, 상기 방법은: 상기 렌즈를 제1 줌 위치로 줌잉하는 단계와; 상기 카메라로부터 포커싱하는 객체까지의 제1 객체 거리를 측정하는 단계와; 상기 제1 객체 거리를 사용하여 제1 포커스 시작 위치를 결정하는 단계와; 패시브(passive) 자동포커스 알고리즘을 사용하고 그리고 상기 알고리즘에 대한 시작점으로서 상기 제1 포커스 시작 위치를 사용하여 제1 자동포커싱 동작을 수행하고, 이를 통해 제1 결정된 포커스 위치를 결정하는 단계와; 상기 제1 결정된 포커스 위치에 기초하여 제1 룩업 객체 거리(lookup object distance)를 결정하는 단계와; 상기 제1 룩업 객체 거리와 상기 제1 객체 거리 사이의 비(ratio)로서 제1 보정 팩터를 계산하는 단계와; 상기 제1 줌 위치에 대한 제1 피사계 심도(depth of field)를 결정하는 단계와; 상기 렌즈를 제2 줌 위치에 줌잉하는 단계와; 상기 제2 줌 위치에 대한 제2 피사계 심도를 결정하는 단계와; 상기 제2 피사계 심도와 상기 제1 피사계 심도 사이의 비와 상기 제1 보정 팩터의 곱(product)으로서 제2 보정 팩터를 계산하는 단계와; 상기 제1 객체 거리와 상기 제2 객체 거리의 곱으로서 제2 객체 거리를 계산하는 단계와; 그리고 상기 제2 객체 거리를 사용하여 제2 포커스 위치를 결정하는 단계를 포함한다.
그와 같은 자동포커스 방법을 사용하면, 렌즈 제조업체가 제공하는 트레이스 곡선들을 더 잘 사용할 수 있다. 카메라에 사용된 개별 렌즈가 트레이스 곡선들이 계산된 렌즈와 정확하게 같지 않은 경우에도, 그리고 카메라의 제조 중에 렌즈 유형에 대해 결정된 생산 오프셋이 개개의 렌즈에 맞지 않는 경우에도, 측정된 객체 거리 및 상기 패시브 자동포커스 알고리즘에 의해 발견된 포커스 모터 위치에 대응하는 거리에 기초한 상기 제1 보정 팩터의 계산은, 줌잉동안 더 적합한 보간된 물체 거리를 따라가는 것이 가능할 수 있다. 이러한 방식으로, 더 양호하게 포커싱된 이미지들이 줌잉동안 제공될 수 있다. 따라서, 카메라로부터 비디오 시퀀스를 보는 오퍼레이터는 이미지들로부터 더 많은 정보를 얻을 수 있고, 그리고 흐린 이미지들을 보는 성가심으로부터 벗어날 수 있다. 오퍼레이터는 또한, 더 양호한 시작점이 패시브 자동포커스 알고리즘을 사용하여 포커스에 대한 탐색을 가속화할 수 있기에, 패시브 자동포커스 알고리즘을 사용하여 자동포커싱 동안 흔들리는 이미지들을 보는 것에서 벗어날 수 있다.
또한, 현재의 줌 위치에서의 피사계 심도와 줌잉 동안 이전의 줌 위치에서의 피사계 심도의 비(ratio)에 기초하여, 예를 들어, 캡처되거나 또는 송신된 이미지 프레임마다 한번, 업데이트된 보정 팩터들을 계속해서 계산함으로써, 이론적인 트레이스 곡선들로부터의 편차는 더 잘 고려될 수 있어, 각각의 프레임 또는 새로운 줌 위치에 대해, 트레이스 곡선에서 사용하기 위한 새로운 물체 거리가 결정된다.
렌즈가 원하는 줌 위치에 도달하면, 줌잉 동작 동안 트레이스 곡선들을 사용하여 발견된 포커스 모터 위치는, 제2 결정된 포커스 위치를 결정하기 위해 패시브 자동포커스 알고리즘에 대한 시작점으로서 사용될 수 있다. 따라서, 적절한 포커스는 더 빨리 발견될 수 있다. 가드 투어가 진행 중이면, 오퍼레이터가 관심있는 것을 장면에서 보고 그리고 줌잉 동작을 방행하는 경우에도 또한 유용하다. 보정 팩터들 및 트레이스 곡선들을 사용하여 발견된 최신의 포커스 모터 위치는, 이때, 패시브 자동포커스 알고리즘에 대한 시작점으로서 사용될 수 있어, 상기 포커싱된 이미지들은 신속하게 제공될 수 있다.
제2 룩업 객체 거리는 제2 결정된 포커스 위치에 기초하여 결정될 수 있고, 그리고 새로운 보정 팩터는 상기 제2 룩업 객체 거리와 제1 객체 거리 사이의 비로서 계산될 수 있다. 이러한 방식으로, 적절한 포커스를 용이하게 찾도록 하는 업데이트된 보정 팩터가 계산될 수 있다.
상기 방법은, 상기 제1 줌 위치와 제2 줌 위치 사이의 중간 줌 위치에 상기 렌즈를 줌잉하는 단계와; 상기 중간 줌 위치에 대한 중간 피사계 심도를 결정하는 단계와; 상기 중간 피사계 심도와 상기 제1 피사계 심도 사이의 비와 상기 제1 보정 팩터의 곱으로서 중간 보정 팩터를 계산하는 단계와; 상기 제1 객체 거리와 상기 중간 보정 팩터의 곱으로서 중간 객체 거리를 계산하는 단계와; 그리고 상기 중간 객체 거리를 사용하여 중간 포커스 위치를 결정하는 단계를 더 포함할 수 있다. 이로 인해, 시간 소모적인 패시브 자동포커스 알고리즘을 수행할 필요없이, 자동포커스 위치들은 중간 줌 위치에서 결정될 수 있다. 이러한 접근법을 사용하여, 줌 동작 동안 보정 팩터들이 연속적으로 계산될 수 있어, 적절한 트레이스 곡선들을 따라 양호한 포커스가 획득될 수 있다.
변형에 따라, 상기 방법은, 상기 패시브 자동포커스 알고리즘을 사용하고 그리고 상기 알고리즘에 대한 시작점으로서 상기 중간 포커스 위치를 사용하여 중간 자동포커싱 동작을 수행하고, 이를 통해 중간 결정된 포커스 위치를 결정하는 단계를 더 포함한다. 이러한 방식으로, 제1 줌 위치로부터 제2 줌 위치로의 줌 동작 중에 줌 위치들에서도 개선된 포커스가 달성될 수 있다. 시간이 허용될 때, 예를 들어, 패시브 자동포커스 알고리즘에 대한 높은 입력 프레임 레이트가 있고 그리고 사용자가 더 낮은 출력 프레임 레이트를 요구할 때, 가장 최근에 결정된 포커스 위치를 시작점으로 갖는 패시브 자동포커스 알고리즘이 사용될 수 있어, 이를 통해, 트레이스 곡선들을 따른 것보다 더 나은 포커스가 가능할 수 있다. 이것은, 예를 들어, 줌잉 동작동안 각 프레임마다 행해질 수 있는 것이 아니라 규칙적 또는 비규적인 간격들로 행해질 수 있다.
패시브 자동포커스 알고리즘이 사용될 때마다, 보정 팩터가 업데이트될 수 있다. 예를 들어, 중간 룩업 객체 거리는 중간 결정된 포커스 위치에 기초하여 결정될 수 있고 그리고 새로운 중간 보정 팩터는 중간 룩업 객체 거리와 상기 제1 객체 거리 사이이 비로서 계산될 수 있다. 패시브 자동포커스 알고리즘은 새로운 줌 위치에 도달하는 것보다 다른 이유들로 활성화될 수도 있다. 예를 들어, 패시브 오토포커스 알고리즘은, 카메라가 패닝 또는 틸팅될 때, 예를 들어, 광이 변경되기 때문에 상기 모니터링된 장면이 변할 때, 그리고 주위 온도가 변할 때 활성화될 수 있다. 포커싱할 대상이 가장 최근에 저장된 보정 팩터가 결정된 대상과 다른 거리에 있는 경우에도 가장 최근에 저장된 보정 패터는 사용될 수 있다.
각 줌 위치에 대한 피사계 심도는 렌즈를 제어하는 렌즈 제어기로부터 요구함으로써 결정될 수 있다.
많은 렌즈들의 경우, 과도적인 줌 위치의 양쪽에서 서로 다른 보정 팩터들을 사용하는 것이 유익할 수 있다. 따라서, 상기 방법은, 미리결정된 과도적인 줌 위치에서, 상기 제1 줌 위치와 상기 과도적인 줌 위치 사이의 줌 위치에 대한 피사계 심도에 기초하는 대신에, 상기 제2 줌 위치를 벗어나는 제3 줌 위치와 상기 과도적인 줌 위치 사이의 줌 위치에 대한 피사계 심도에 기초하여 이전에 저장된 보정 팩터가 사용되는 것을 더 포함한다. 예를 들어, 5x 줌의 줌 위치에서, 피사계 심도와 객체 거리 사이의 관계를 나타내는 곡선에서 "킹크(kink)"가 존재할 수 있다. 이를 처리하기 위해, 과도적인 줌 위치의 "다른 쪽 상의(on the other hand)" 줌 위치에 대해 이전에 결정된 보정 팩터가 사용된다. 따라서, 텔레 보정 팩터(tele correction factor)로 언급될 수 있는 것은 과도적인 줌 위치의 "먼(tele)" 측상의 줌잉동안 계속해서 업데이트될 수 있고, 그리고 와이드 보정 팩터(wide correction factor)로 언급될 수 있는 것은 과도적인 줌 위치의 "넓은(wide)" 측상의 줌잉동안 계속해서 업데이트될 수 있다. 일단 줌잉이, 줌 인 또는 줌 아웃 어느 한 방향으로 과도적인 줌 위치에 도달하면, 과도적인 줌 위치의 다른 측면 상의 줌 위치들에 대한 가장 최근에 결정된 보정 팩터는 객체 거리들을 계산하는데 사용되어야 한다.
카메라로부터 포커싱하는 객체까지의 객체 거리를 측정하는 것은 카메라에 포함된 거리 측정 시스템을 사용하여 수행될 수 있다. 거리 측정 시스템은, 예를 들어, 레이저 거리 측정 시스템일 수 있다.
본 발명의 제2 양상에 따라, 상기에서 언급된 목적들은, 줌잉 동작동안 카메라를 자동포커싱하는 자동포커스 시스템에 의해, 전체적으로 또는 적어도 부분적으로 달성될 수 있고, 상기 자동포커스 시스템은, 카메라와; 상기 카메라로부터 포커싱하는 객체까지의 제1 객체 거리를 측정하도록 구성된 거리 측정 시스템과; 그리고 제1 양상의 방법을 수행하도록 구성된 자동포커스 모듈을 포함한다. 제2 양상의 자동포커스 시스템은, 이점들을 수반하는 제1 양상의 방법과 유사하게 실시될 수 있다.
제3 양상에 따라, 이들 및 다른 목적들은, 제1 양상의 방법을 수행하도록 구성된 줌 렌즈 및 자동포커스 모듈을 포함하는 카메라에 의해, 전체적으로 또는 적어도 부분적으로 달성된다.
상기 카메라는 카메라로부터 포커싱하는 객체까지의 제1 객체 거리를 측정하도록 구성된 통합 객체 거리 측정 시스템을 포함할 수 있다. 상기 객체 거리 측정 시스템은, 예를 들어, 레이저 거리 측정 시스템일 수 있다.
제3 양상의 카메라는 일반적으로 제1 양상의 방법과 유사하게 이점들을 동반하여 구현될 수 있다.
제4 양상에 따라, 이들 및 다른 목적들은, 프로세서에 의해 실행될 때 제1 양상의 방법을 수행하도록 하는 명령어들을 구비한 컴퓨터 판독가능한 저장 매체를 포함하는 컴퓨터 프로그램 제품에 의해, 전체적으로 또는 적어도 부분적으로 달성된다. 프로세서는, 임의의 종류의 프로세서, 예를 들어, 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 통합 회로에 구현된 주문형 처리 디바이스, ASIC, FPGA 또는 개별 컴포넌트들을 포함하는 논리 회로일 수 있다.
본 발명의 다른 적용 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 하지만, 본 발명의 바람직한 실시예들을 나타내는 상세한 설명 및 특정 예시들은, 단지 설명만을 위해 제시된 것으로서, 본 발명의 범위 내의 여러 변경들 및 수정들은 상세한 설명으로부터 당업자에게 명백해 질 것이다.
따라서, 본 발명은, 그와 같은 디바이스 및 방법이 변할 수 있는 것으로 서술된 디바이스의 특정 컴포넌트 부분들 또는 방법들의 특정 단계들에 제한되지 않는다. 여기에서 사용된 용어는 단지 특정 실시예를 설명하기 위한 것이며, 제한하도록 의도된 것임 아님을 또한 할 수 있다. 상세한 설명 및 첨부된 청구범위에서 사용된 바와 같이, "하나" 및 "상기"를 나타내는 용어는, 문맥에서 명확하게 다르게 지시하지 않으면 하나 이상의 요소들이 존재하는 것을 의미하도록 의도된다. 따라서, 예를 들어, "객체" 또는 "상기 객체"에 대한 참조는, 여러 객체들 등을 포함할 수 있다. 더욱이, 단어 "포함하는"은 다른 요소들 또는 단계들을 배제하지 않는다.
본 발명은 첨부된 개략적인 도면들을 참조하여 예시로서 상세하게 기술될 것이다.
도 1은 카메라로부터의 다양한 거리에 있는 객체들을 갖는 PTZ 카메라에 의해 모니터링되는 장면을 도시한다.
도 2는 상기에서 도시된 도 1의 장면을 도시한다.
도 3은 도 1의 카메라의 블록도이다.
도 4는 도 3에 도시된 카메라의 자동포커싱 모듈을 도시하는 블록도이다.
도 5는 도 1과 같은 카메라에 대한 트레이스 곡선들의 세트의 예이다.
도 6은 자동포커싱의 방법을 도시하는 흐름도이다.
도 1에 도시된 바와 같이, 장면(1)은 카메라(2)를 사용하여 모니터링된다.
장면(1)은 도 2에서 위에서부터 도시된다.
장면(1)에서, 3개의 문들(4, 5, 6)을 갖는 건물(3)이 존재한다. 각 문에는, 각각의 경로(7, 8, 9)가 존재한다. 건물(3) 밖에는, 3개의 관목들(10, 11, 12)이 존재한다.
카메라(2)는 이 예에서 PTZ 카메라, 즉, 패닝, 틸팅 및 줌잉이 가능한 카메라이다. 동일한 종류의 기능성은, 줌 렌즈를 갖는 카메라를 사용하고, 소위 PT 헤드, 즉, 다르게 고정된 카메라를 패닝하고 틸팅하는 디바이스 상에 장착함으로써 달성될 수 있다.
카메라(2)가, 장면(1)의 이미지들을 캡처하고, 이미지들을 인코딩하며 그리고 비디오 시퀀스로서 이미지들을, 예를 들어, 비디오 시퀀스가 디코딩되는 컨트롤 센터에 전송하여, 오퍼레이터가 비디오 시퀀스 라이브를 볼 수 있도록 한다. 비디오 시퀀스는 나중에 리뷰하기 위해 저장될 수도 있다. 카메라(2)는 또한, 예를 들어, SD 카드상에 온-보드 저장 장치를 가질 수 있으며, 비디오 시퀀스들은 이후 검색을 위해 저장될 수 있다.
카메라(2)의 시야는, 도 1에 도시된 장면의 일부분만을 동시에 모니터링하는 것이 가능할 수 있다. 카메라(2)를 패닝, 틸팅 및 줌잉함으로써, 오퍼레이터는 장면(1)의 상이한 부분들을 모니터링할 수 있다. 이는, 예를 들어, 조이스틱을 사용하여 수동으로 행해질 수 있다. 또한, 이는, 미리결정된 시퀀스로 장면의 다수의 관심 지점들을 방문하고 그리고 미리결정된 시간 동안 각 관심 지점에 머물러 있는 사전 프로그래밍된 가드 투어을 이용하여 수행될 수 있다. 카메라가 패닝되고 그리고 새로운 위치로 틸팅될 때마다, 포커스를 맞추는 객체들이 카메라와 상이한 거리들에 있을 가능성이 높으므로 포커스를 재조정할 필요가 있다. 예를 들어, 카메라는 처음에 좌측 문(4)을 향할 수 있고 그리고 좌측 문(4)을 통해 건물(3)로 들어가거나 또는 나오는 사람을 모니터링하기 위해 그 좌측 문(4)에 포커싱될 수 있다. 이후, 카메라(3)는 좌측 문(4)보다 카메라(2)로부터 약간 더 멀리 떨어져 있는 중앙 문(5)을 커버하기 위해 우측으로 패닝될 수 있다. 따라서, 중앙 문(5)을 통과하는 사람들의 적절한 포커스 이미지들을 얻기 위해, 카메라(2)는 재포커싱(refocusing)될 필요가 있다. 후속적으로, 카메라(2)는, 카메라(2)로부터 더 멀리 떨어져 있는 우측 문(6)의 이미지들을 캡처하기 위해 더 오른쪽으로 패닝될 수 있다. 다시, 카메라(2)는 우측 문(6)을 통해 통과하는 사람들의 적절하게 포커싱된 이미지들을 제공하기 위해 재포커싱될 수 있다. 그와 같은 자동포커싱을 할 때마다, 자동포커싱 절차가 사용된다. 유사하게, 포커스 모터가 실제 줌 렌즈라고 언급될 수 있는 유사 포커싱 줌 렌즈와 같이 줌 모터에 고정되지 않으면, 카메라(2)를 확대 또는 축소할 때 마다 재포커싱이 필요하다. 가변 포커싱 렌즈를 사용하면, 포커스는 줌잉동안 손실되고 그리고 상기 렌즈는 재포커싱되어야 한다.
도 3을 참조하면, 카메라(2)의 일부 컴포넌트들을 도시하는 단순화된 블록도가 도시된다. 카메라(2)는 줌 렌즈(20), 또는 엄밀하게 말하면 가변 포커싱 렌즈를 갖는다. 렌즈(20)는 줌 모터 또는 포커스 모터를 포함하고, 이들 중 어느 것도 도면들에 명시적으로 도시되지 않았지만, 이들 모두 줌 렌즈들의 잘 알려진 피처들이다. 또한, 카메라(2)는 모니터링된 장면의 이미지들을 캡처하기 위한 이미지 센서(21) 및 이미지들을 처리하고 인코딩하기 위한 프로세싱 회로(22)를 갖는다. 카메라는 또한, 프로세싱 회로(22)에 의해 사용하기 위한 메모리(23), 예를 들어, SD 카드 상의 카메라에 이미지들을 저장하기 위한 로컬 스토리지(24), 및 카메라(2)로부터 예를 들어, 제어 센터로 이미지들을 저장하기 위한 네트워크 인터페이스(25)를 갖는다. 카메라(2)는 카메라로부터 포커싱할 객체들까지의 객체 거리들을 측정하기 위한 레이저 거리 측정 시스템(26)을 갖는다. 추가적으로, 카메라(2)는 자동포커싱을 수행하도록 배열된 자동포커스 모듈(30)을 갖는다.
자동포커스 모듈(30)은 도 3에 개략적으로 도시된다. 자동포커스 모듈(30)은 거리 입력 모듈(31), 패시브 자동포커스 알고리즘 모듈(32) 및 보정 팩터 업데이트 모듈(33)로 구성된다.
도 1 내지 도 6을 참조하면, 카메라(2), 더 구체적으로는, 자동포커스 모듈(30)의 기능은 이제는 사용 시나리오(usage scenario)의 도움으로 서술될 것이다. 카메라(2)는 자동포커싱을 위한 통합 시스템을 형성하는 것을 알 수 있다.
오퍼레이터가 장면(1)을 모니터링하고 있다. 처음에는, 카메라(2)가 포커싱되어야 하는 좌측 문(4)에 카메라(2)가 향하게 된다. 렌즈(20)는 제1 줌 위치에 설정된다(도 6에서 단계 S1). 레이저 거리 측정 시스템(26)은 카메라(2)로부터 좌측 문(4)까지의 거리 D1을 측정한다(S2). 측정된 거리 D1에 대한 적합한 포커스 모터 위치를 선택하기 위해, 렌즈 제조업체가 제공하는 트레이스 곡선(trace curve)이 참조될 수 있다. 렌즈에 대한 트레이스 곡선들의 세트의 예가 도 5에 도시된다. 렌즈(20)가 렌즈 제조업체에 의해 제공된 트레이스 곡선들 트레이스 곡선들에 따라 정확하게 행동하면, 적절한 포커스 모터 위치는, 객체 거리(D1)에 대응하는 곡선을 발견함으로써 그리고 수평축상의 현재 줌 위치에 대응하는 수직축상의 포커스 모터 위치를 발견함으로써 간단하게 결정될 수 있다. 하지만, 대부분의 경우들에서, 최적의 포커스 위치를 제공하지 못하는데, 이는 개별 렌즈가 트레이스 곡선들의 동작에서 벗어날 수 있으며, 생산 오프셋들을 고려할지라도 마찬가지이다. 따라서, 패시브 자동포커스 알고리즘이 또한 사용되어, 자동포커스 방법이 하이브리드 방법으로 사용된다. 이 예에서, 패시브 자동포커스 알고리즘은 콘트라스트 검출 알고리즘이다. 측정된 거리 D1에 기초하여 트레이스 곡선에서 발견된 자동포커스 위치에 AF1시작을 라벨링하면, 제1 결정된 자동포커스 위치(AF1)로 언급되는 새로운, 조정된 자동포커스 위치는 콘트라스트 검출 알고리즘(S4)을 사용하여 결정된다. 콘트라스트 검출 알고리즘을 수행할 때, 제1 자동포커스 시작 위치(AF1시작)는 시작점으로 사용된다. 최대 콘트라스트를 유도하는 모터 포커스 위치에 대한 탐색은, 피사계 심도 DOF에 대응하는 제1 포커스 시작 위치 주변의 범위, 또는 예를 들어, 현재의 줌 위치에서, 제1 포커스 시작 위치(AF1시작)에 대해 중심에서 피사계 심도 DOF의 80%에서 수행될 수 있다. 피사계 심도 DOF는 렌즈를 제어하는 렌즈 제어기(도시되지 않음)로부터 획득될 수 있다(S7). 콘트라스트 검출 알고리즘에 의해 발견된 포커스 모터 위치(AF1)는, 많은 경우들에서, AF1시작과 다를 것이다. 트레이스 곡선들을 참조함으로써, 제1 결정된 포커스 위치(AF1)에 대응하는 제1 룩업 객체 거리(D1')는 발견될 수 있다(S5). 제1 보정 팩터(ACF1)는 다음의 일반식
Figure pat00001
에 따라 제1 룩업 객체 거리(D1')와 제1 객체 거리(D1) 사이의 비율로서 계산된다(S6).
여기서, ACF는 보정 팩터이고, D는 측정된 객체 거리이며, 그리고 D'는 패시브 자동포커스 알고리즘을 사용하여 발견된 객체 거리이다. 제1 줌 위치에서 줌 인 또는 줌 아웃할 때, 제1 보정 팩터는 새로운 줌 위치에서 정확한 트레이스 곡선을 발견하기 위해 사용된다. 하지만, 각각의 줌 위치에서 피사계의 심도가 고려되면, 더 나은 보정이 달성될 수 있다.
좌측 문(4)을 모니터링하는 오퍼레이터의 예로 돌아가서, 출입구에 사람이 나타나고, 그리고 오퍼레이터는, 사람을 식별하기 위한 시도를 하기 위해 사람의 얼굴을 줌 인하기를 원한다. 따라서, 오퍼레이터는 제1 줌 위치로부터 제2 위치로 줌 인하기 원한다. 줌잉은 순간적이지는 않지만, 다수의 이미지 프레임들에 대해 발생할 것이다. 여기서, 제1 줌 위치 이후 중간 줌 위치에 도달하고, 제2 줌 위치에 도달하기 전에 추가 줌 위치에 도달했다고 가정할 것이다. 통상의 기술자는, 제1 줌 위치에서 제2 줌 위치로 줌잉하는 동안 임의의 수의 추가적인 줌 위치들이 이동될 수 있음을 알 것이다. 렌즈가 중간 줌 위치로 줌잉되었을 때(S8), 중간 줌 위치에서의 피사계의 심도가 결정되고(S9), 중간 피사계 심도(DOFi)로 라벨링된다. 중간 피사계의 심도와 제1 피사계 심도(DOF1)으로 라벨링되는 제1 줌 위치에서의 피사계의 심도 사이의 비율이 계산되고, 그리고 보정 팩터는 제1 보정 팩터(ACF1)와 피사계 심도들의 비(DOFi/DOF1)의 곱으로서 중간 보정 팩터(ACFi)를 계산(S10)함으로써 업데이트된다. 따라서, 업데이트된 보정 팩터는 다음의 일반식
Figure pat00002
에 따라 계산된다.
여기서, 인덱스 k는 이전의 줌 위치를 나타내며, 그리고 인덱스 k+1은 현재의 줌 위치를 나타낸다. 새로운 보정 팩터가 계산될 때, 이전의 보정 팩터는 중복 기재된다.
측정된 제1 객체 거리(D1)와 중간 보정 팩터(ACFi)의 곱으로서 중간 객체 거리(Di)가 계산된다(S11). 중간 줌 위치에서의 객체 거리의 계산은 다음의 일반식
Figure pat00003
을 사용하여 서술될 수 있다.
여기에서, 인덱스 k는 이전 줌 위치를 나타내고, 인덱스 k+1은 현재의 줌 위치를 나타내며, 그리고 인덱스 1은 초기 측정을 나타낸다.
이러한 중간 물체 거리(Di)는, 트레이스 곡선들에서 중간 포커스 모터 위치(AFi)를 발견하기 위해 사용된다(S12). 이러한 방식으로, 시간 소모적인 콘트라스트 검출을 수행할 필요없이, 포커싱된 이미지는 중간 줌 위치에서 또한 제공될 수 있다.
그 후, 상기 렌즈는 추가적인 줌 위치로 줌잉되고, 그리고 중간 줌 위치에서의 프로세스는 반복된다. 따라서, 추가 줌 위치에서의 피사계 심도(DOFa)가 결정되며, 이러한 추가 피사계 심도와 중간 피사계 심도 사이의 비율이 계산된다. 보정 팩터는, 중간 보정 팩터(ACFi)와 피사계 심도들의 비(DOFa/DOFi)의 곱으로서 추가 보정 팩터(ACFa)를 계산함으로써 업데이트된다.
추가 객체 거리(Da)는 제1 객체 거리(D1)와 추가 보정 팩터(ACFi)의 곱으로서 계산된다. 이러한 추가 객체 거리(Da)는 트레이스 곡선들에서 추가 포커스 모터 위치(AFa)를 찾기 위해 사용된다. 따라서, 양호한 포커스는 추가적인 줌 위치에서도 또한 달성될 수 있다.
제2 줌 위치에 도달(S13)되면, 이 제2 줌 위치에서의 피사계 심도(DOF2)가 결정되고(S14), 그리고 보정 팩터는 제2 피사계 심도(DOF2)와 추가 피사계 심도(DOFa) 사이의 비와 추가 보정 팩터의 곱을 계산함으로써 업데이트된다(S15). 제2 객체 거리(D2)는, 제2 보정 팩터(ACF2)와 측정된 제1 객체 거리(D1)의 곱으로서 계산된다(S16). 제2 객체 거리는 트레이스 곡선들에서 제2 포커스 위치(AF2)를 발견하기 위해 사용된다(S17). 이러한 제2 포커스 위치(AF2)를 시작점으로 사용하여, 콘트라스트 검출 알고리즘은 제2 줌 위치에서 적절한 포커스를 찾기 위해 다시 한 번 사용될 수 있다. 이것은, 제2 룩업 객체 거리(D2')에 대응하는 제2 결정된 자동포커스 위치를 제공할 것이다. 보정 팩터는, 측정된 제1 객체 거리(D1)과 제2 룩업 객체 거리(D2')의 비로서 새로운 보정 팩터(ACF신규)를 계산함으로써 지금 업데이트될 수 있다. 이후, 새로운 보정 팩터는 저장되고 그리고 이후 줌 인 및 줌 아웃될 때 사용될 수 있다.
줌잉 프로세스가, 제1 줌 위치에서, 중간 줌 위치 및 추가 줌 위치를 거쳐, 제2 줌 위치로 진행하는 것으로 여기에서 서술되지만, 제1 줌 위치로부터 제2 줌 위치까지의 줌 위치에서의 거리가 너무 짧아 중간 줌 위치 및 추가 줌 위치와 같은 다른 줌 위치들 사이에 어떤 이미지 프레임들도 존재하지 않는 경우들이 있을 수 있음을 알아야 한다. 이 경우에서, 이 방법은, 제2 객체 거리가 제1 객체 거리(D1), 제1 보정 팩터(ACF1), 및 제2 피사계심도와 제1 피사계심도(DOF2/DOF1)의 비의 곱으로서 계산된다. 이는, 예를 들어, 낮은 출력 프레임 레이트에서 매우 느린 줌잉 동안 발생할 수 있다.
요약에서 언급되었듯이, 렌즈는, "먼(tele)" 거리의 줌 위치들 및 "넓은(wide)" 범위의 줌 위치들에 대한 서로 다른 보정 팩터들을 사용할 필요가 있는 동작을 나타낼 수 있다. 일 예로서, 이러한 과도적인 줌 위치는 5x 줌에서 발생할 수 있다. 하나의 보정 팩터는 ACFT로 언급되는 "먼(tele)" 거리에 대해 사용될 수 있고, 그리고 다른 보정 팩터는 ACFW로 언급되는 "넓은(wide)" 범위에 대해 사용될 수 있다. 이러한 보정 팩터들 모두는 상기에서 서술된 것과 동일한 방식으로 계산되지만, 각각은 과도적인 줌 위치의 각 측면 상의 줌 위치들 사이에서 줌잉을 한다.
장면(1)에서 좌측 문(4)을 모니터링하는 오퍼레이터의 예로 다시 돌아가면, 카메라는 방금 설명한 것처럼 제1 줌 위치로부터 제2 줌 위치로 줌잉될 수 있고, 이러한 2개의 줌 위치들 모두는 과도적인 줌 위치의 "먼(tele)" 측면 상에 존재한다. 출입구에 나타나는 사람의 얼굴을 연구한 후, 오퍼레이터는 좌측 문(4) 뿐만 아니라 중앙 문(5)을 모니터링할 수 있도록 제3 줌 위치로 줌 아웃하기를 원하지만, 포커싱할 객체까지의 거리를 유지해야 한다. 사람의 얼굴에 줌잉한 제2 줌 위치로부터 약간 더 넓지만 여전히 "먼(tele)" 측면 상에 있는 제1 줌 위치로 줌 백(zoom back)하면, 위에서 설명한 것과 같은 동일한 프로세스가 줌잉 동작동안 포커싱된 이미지들을 획득하기 위해 사용된다. 계속해서 줌 아웃하면, 렌즈(20)는 과도적인 줌 위치를 통과한다. 과도적인 객체 거리(Dt)를 계산하기 위해, 과도적인 줌 위치의 "넓은(wide)" 측면에 대한 이전에 저장된 보정 팩터(ACFW)가 사용된다. 이러한 넓은 보정 팩터(ACFW)는 상기에서 서술된 것과 동일한 방식으로 결정되었지만, 과도적인 줌 위치의 "넓은(wide)" 측면 상의 줌 위치들에서 피사계 심도를 갖는다.
과도적인 피사계 심도(DOFt)가 결정되고, 그리고 넓은 보정 팩터(ACFW)가 이전에 저장된 넓은 보정 팩터와 피사계 심도들의 비의 곱을 계산함으로써 업데이트되며, 이는 보다 일반적으로는 다음의 공식
Figure pat00004
으로 서술될 것이다.
마찬가지로, 과도적인 줌 위치의 "먼(tele)" 측면 상에서 줌잉할 때, 텔레 보정 팩터(ACFT)는
Figure pat00005
로서 업데이트된다.
이전과 같이, 인덱스 k는 이전의 줌 위치를 나타내며, 인덱스 k+1은 현재의 줌 위치를 나타낸다.
따라서, 과도적 객체 거리(Dt)는 업데이트된 넓은 보정 팩터(ACFW)와 측정된 제1 객체 거리(D1)의 곱으로서 계산된다. 이전과 동일한 방식으로, 과도적 객체 거리(Dt)는 트레이스 곡선들에서 과도적 포커스 모터 위치(AFt)를 발견하기 위해 사용된다.
카메라(2) 및 자동포커스 모듈(30)이 처음 시작될 때, 각 보정 팩터의 값을 1로 설정함으로써, 즉, ACFW = 1 및 ACFT = 1로 설정함으로써 자동 포커스 모듈(30)이 초기화된다. 콘트라스트 자동포커스 알고리즘에 의해 결정된 객체 거리를 레이저 거리 측정 시스템에 의해 측정된 객체 거리로 나눔으로써 새로운 보정 팩터가 계산되자 마자, 대응하는 보정 팩터가 새로운 값으로 업데이트된다. 따라서, 상기 렌즈가 "넓은(wide)" 범위의 줌 위치로 설정되면, ACFW가 업데이트되고, 반면에, 상기 렌즈가 "먼(tele)" 범위의 줌 위치로 설정되면, ACFT가 업데이트된다. 유사하게, 각각의 보정 팩터인, ACFW 또는 ACFT는 상기에서 서술한 것처럼 연속적인 줌 위치들에서의 피사계 심도들 사이의 비를 사용하여 업데이트된다.
상기 렌즈 제어기는 보통 내지는 큰 객체 거리들에서 다음의 식
Figure pat00006
에 따라 피사계 심도를 결정할 수 있고, 여기서, N은 조리개 설정 또는 f-수이고, c는 착란원(circle of confusion), f는 포커스 거리 및 s는 객체 거리이다. 상기의 설명에서, 포커스 거리는 상세하게 논의되지 않았지만, 줌 위치가 논의되었다는 것을 알 수 있다. 하지만, 이러한 2개의 파라미터들은, 줌 모터 위치를 변경하는 것이 렌즈의 포커스 길이를 변경하는 것을 수반함으로, 밀접한 관련이 있다.
클로즈-업의 경우, 피사계 심도는 다음의 식
Figure pat00007
에 따라 결정될 수 있고, 여기서, m은 배율이다.
상이한 렌즈 제조업체들은 피사계 심도를 계산하기 위해 약간 상이한 공식을 사용할 수 있지만, 피사계 심도가 결정될 수 있는 한, 사용되는 정확한 공식은 본 발명의 자동포커스 방법에 중요하지 않다.
통상의 기술자는 상기에서 서술한 실시예들을 많은 방식들로 변형할 수 있고 그리고 여전히 상기의 실시예들에서 나타난 본 발명의 이점들을 여전히 사용할 수 있다. 일 예로서, 본 발명의 방법은 카메라로부터 일정한 거리에 있는 객체를 줌잉하는 것의 맥락으로 서술되었지만, 동일한 원리가 카메라로부터 멀어지게 이동하거나 또는 카메라 쪽으로 이동하는 객체에 대한 일정한 줌을 위해 사용될 수 있어, 객체의 거리는 변하게 된다. 동일한 저장된 보정 팩터는 객체 거리에 관계없이 사용될 수 있거나 또는 하나의 보정 팩터는 다수의 물체의 거리들 각각에 대해 저장될 수 있다. 접근 방식의 선택은 사용된 렌즈의 타입에 의존할 수 있다.
또한, 상기에서 서술된 실시예에서, 카메라에는, 상기 카메라로부터 포커싱하고 있는 물체까지의 거리를 측정하기 위해 사용되는 레이저 거리 측정 시스템이 장착되지만, 상기 측정 시스템은 대신에, 예를 들어, 레이터 또는 초음파를 사용할 수 있다. 또한, 카메라에 통합되지 않은 별도의 측정 시스템을 사용하는 것도 가능하다. 간단한 측정 시스템으로, 테이프 측정 또는 측정 막대가 사용될 수 있다.
실제로 포커싱할 객체까지의 거리를 측정하는 대신에, 다른 패시브 자동포커스 방법이 사용될 수 있다. 예를 들어, 더 신뢰할 수 있는 다른 카메라에서 수행되는 동일한 알고리즘은, 물리적으로 측정된 거리 대신에 참조로서 사용될 수 있다. 대안적으로, 다른 자동포커스 알고리즘이 동일한 카메라상에서 수행될 수 있고 그리고 참조로서 사용될 수 있다. 이것은, 다른 자동포커스 알고리즘이 더 나은 결과들을 제공하지만 더 많은 시간이나 컴퓨팅 성능을 필요로 할 때, 이점이 있을 수 있다.
상기에서 서술된 것처럼, 피사계 심도는, 카메라가 새로운 줌 위치에 도달할 때 결정된다. 하지만, 방법의 단계들이 수행되는 순서는 중요하지 않다. 예를 들어, 제1 줌 위치에서 제2 줌 위치까지의 줌잉 조작에 대비하여, 제1 줌 위치 및 제2 줌 위치 사이의 다수의 중간 줌 위치들에 대한 피사계 심도들은 렌즈 제어기로부터 요구될 수 있어, 이러한 중간 줌 위치들이 도달하기 이전에 이미 상기 피사계 심도들은 알려지게 된다.
서술된 예에서, 패시브 자동포커스 알고리즘은 콘트라스트 결정 알고리즘이다. 통상의 기술자는, 다른 패시브 자동포커스 알고리즘들이 사용될 수 있음을 알 것이다. 예를 들어, 위상 검출 알고리즘이 사용될 수 있다.
보정 팩터(ACF)는, 콘트라스트 검출 알고리즘에 의해 얻어진 포커스 모터 위치에 대응하는 객체 거리와 레이저 측정 시스템에 의해 측정된 객체 거리 사이의 비로서 초기에 계산되는 것으로 서술되었다. 객체 거리와 포커스 모터 위치가 트레이스 곡선들을 통해 밀접하게 연결되어 있기에, 콘트라스트 검출 알고리즘에 의해 획득된 포커스 모터 위치와 측정된 객체 거리에 대응하는 포커스 모터 위치 사이의 비로서 보정 팩터를 계산하는 것이 또한 가능함을 알 수 있다.
렌즈 제조업체로부터의 트레이스 곡선들은 임의의 요구된 방식으로 자동포커스 방법으로 구현될 수 있다. 예를 들어, 상기 트레이스 곡선들 상의 이산 점들은 룩업 테이블에 저장될 수 있다. 트레이스 곡선 세트에서 자체 곡선이 없는 경우들에서, 값들을 보간할 수 있다. 대안으로, 룩업 테이블을 형성하는 대신에, 다항식 형태의 함수는 각각의 트레이스 곡선에 맞춰질 수 있고 그리고 객체 거리, 줌 모터 위치 및 포커스 모터 위치 사이의 관계를 결정하는데 사용될 수 있다.
과도적인 줌 위치의 일 예로서, 5x 줌이 언급되었다. 하지만, 과도적인 줌 위치는 렌즈마다 다를 수 있다. 일부 렌즈들은 하나 보다 많은 과도적인 줌 위치를 가질 수 있다. 일부 렌즈들의 경우, 과도적인 줌 위치를 넘어서는 줌 위치들에 대해 이전에 저장된 보정 팩터를 사용하지 않고 업데이트된 보정 팩터들을 계속해서 계산하는 것이 가능할 수도 있다. 일부 렌즈 타입들은 과도적인 줌 위치를 갖지 않을 수도 있다. 특정 렌즈 타입의 행동은 테스트를 통해 결정될 수 있다.
본 발명은 PTZ 카메라들에 관하여 서술되었지만, 이미 언급된 바와 같이, 고정된 줌 카메라는 PT 헤드 상에 배치되면, PTZ 카메라로서도 기능할 수 있다. 또한, 본 발명은, 패닝 및 틸팅이 가능하지만, 줌 렌즈 또는 좀더 정확하게 말하면 가변 포커스 렌즈가 제공되는 고정식 박스 카메라로도 종종 언급되는, 고정식 줌 카메라들에도 동일하게 적용가능하다.
상기 카메라는 모니터링 카메라일 수 있다. 상기 카메라는 디지털 카메라 또는 아날로그 카메라일 수 있다. 카메라는, 가시 광선 카메라, IR 카메라 또는 열 카메라와 같은 임의의 종류의 카메라 일 수 있다.
상기에서 서술된 바와 같이, 카메라(2)는 자동-포커싱을 위한 통합 시스템을 형성한다. 하지만, 그와 같은 시스템은 둘 이상의 개별 컴포넌트들로 구성될 수도 있다. 예를 들어, 거리 측정 시스템은 카메라에 통합될 필요는 없지만, 별도로 제공될 수 있다. 이후, 측정 시스템에 의해 측정된 물체 거리들은 자동포커스 방법에서 사용하기 위해 자동포커스 모듈에 제공된다. 또한, 자동포커스 모듈은 카메라 외부에 배치될 수 있지만, 카메라에 동작가능하게 접속된다. 추가 옵션으로, 거리 측정 시스템 및 자동포커스 모듈은 카메라에 동작하게 연결된 공통 유닛에 배치될 수 있다.
본 발명의 개념을 사용하여, 줌 동작중에 또는 포커스를 맞추는 객체가 일정한 줌 위치에서 카메라로부터 멀어질 때 또는 카메라쪽으로 다가갈때 더 빠르게 자동포커싱을 수행하는 것이 가능하다. 이러한 방식으로, 패시브 자동포커스 알고리즘이 수행될 때 흔들림이 적고, 패시브 자동포커스 알고리즘이 사용들 사이에서 프레임들에 대해 더 양호한 포커싱이 달성될 수 있다. 보정 팩터들이 연속적으로 업데이트되기 때문에, 예를 들어, 주변 온도 변화들에 의해 야기되거나 또는 렌즈의 사용 년수가 늘어감에 따라 야기되는 렌즈의 동작들에서의 변화들은 보상될 수 있다. 또한, 보정 팩터들이 모니터링될 수 있고 그리고 보정 팩터들 중 하나 또는 둘 모두가 미리결정된 임계치보다 더 크면 알람 이벤트가 생성될 수 있다. 이는 렌즈가 재교정되거나, 정비되거나 또는 교체될 수 있다.
따라서, 본 발명은 도시된 실시예들에 한정되어서는 안되면, 첨부된 청구범위에 의해서만 정의되어야 한다.

Claims (12)

  1. 줌잉(zooming) 동작 동안 카메라를 자동포커싱하는 방법으로서,
    상기 카메라는 줌 렌즈를 포함하고, 상기 방법은:
    상기 렌즈를 제1 줌 위치로 줌잉하는 단계와;
    상기 카메라로부터 포커싱하는 객체까지의 제1 객체 거리를 측정하는 단계와;
    상기 제1 객체 거리를 사용하고 그리고 객체 거리, 줌 위치 및 포커스 위치 사이의 관계를 사용하여 제1 포커스 시작 위치를 결정하는 단계와;
    패시브(passive) 자동포커스 알고리즘을 사용하고 그리고 상기 알고리즘에 대한 시작점으로서 상기 제1 포커스 시작 위치를 사용하여 제1 자동포커싱 동작을 수행하고, 이를 통해 제1 결정된 포커스 위치를 결정하는 단계와;
    상기 제1 결정된 포커스 위치에 기초하여 제1 룩업 객체 거리(lookup object distance)를 결정하는 단계와;
    상기 제1 룩업 객체 거리와 상기 제1 객체 거리 사이의 비(ratio)로서 제1 보정 팩터를 계산하는 단계와;
    상기 제1 줌 위치에 대한 제1 피사계 심도(depth of field)를 결정하는 단계와;
    상기 렌즈를 제2 줌 위치로 줌잉하는 단계와;
    상기 제2 줌 위치에 대한 제2 피사계 심도를 결정하는 단계와;
    상기 제2 피사계 심도와 상기 제1 피사계 심도 사이의 비와 상기 제1 보정 팩터의 곱(product)으로서 제2 보정 팩터를 계산하는 단계와;
    상기 제1 객체 거리와 상기 제2 객체 거리의 곱으로서 제2 객체 거리를 계산하는 단계와; 그리고
    상기 제2 객체 거리를 사용하고 그리고 객체 거리, 줌 위치 및 포커스 위치 사이의 관계를 사용하여 제2 포커스 위치를 결정하는 단계를 포함하는 것을 특징으로하는
    카메라를 자동포커싱하는 방법.
  2. 제1항에 있어서,
    패시브 자동포커스 알고리즘을 사용하고 그리고 상기 알고리즘에 대한 시작점으로서 상기 제2 포커스 위치를 사용하여 제2 자동포커싱 동작을 수행하고, 이를 통해 제2 결정된 포커스 위치를 결정하는 단계와;
    상기 제2 결정된 포커스 위치에 기초하여 제2 룩업 객체 거리를 결정하는 단계와; 그리고
    상기 제2 룩업 객체 거리와 상기 제1 객체 거리 사이의 비로서 새로운 보정 팩터를 계산하는 단계를 더 포함하는,
    카메라를 자동포커싱하는 방법.
  3. 제1항에 있어서,
    상기 제1 줌 위치와 제2 줌 위치 사이의 중간 줌 위치에 상기 렌즈를 줌잉하는 단계와;
    상기 중간 줌 위치에 대한 중간 피사계 심도를 결정하는 단계와;
    상기 중간 피사계 심도와 상기 제1 피사계 심도 사이의 비와 상기 제1 보정 팩터의 곱으로서 중간 보정 팩터를 계산하는 단계와;
    상기 제1 객체 거리와 상기 중간 보정 팩터의 곱으로서 중간 객체 거리를 계산하는 단계와; 그리고
    상기 중간 객체 거리를 사용하여 중간 포커스 위치를 결정하는 단계를 더 포함하는 것을 특징으로 하는
    카메라를 자동포커싱하는 방법.
  4. 제3항에 있어서,
    상기 패시브 자동포커스 알고리즘을 사용하고 그리고 상기 알고리즘에 대한 시작점으로서 상기 중간 포커스 위치를 사용하여 중간 자동포커싱 동작을 수행하고, 이를 통해 중간 결정된 포커스 위치를 결정하는 단계를 더 포함하는 것을 특징으로 하는
    카메라를 자동포커싱하는 방법.
  5. 제4항에 있어서,
    상기 중간 결정된 포커스 위치에 기초하여 중간 룩업 객체 거리를 결정하는 단계 및 상기 중간 룩업 객체 거리와 상기 제1 객체 거리 사이의 비로서 새로운 중간 보정 팩터를 계산하는 단계를 더 포함하는 것을 특징으로 하는
    카메라를 자동포커싱하는 방법.
  6. 제1항에 있어서,
    상기 피사계 심도는 상기 렌즈를 제어하는 렌즈 제어기로부터 요청함으로써 결정되는 것을 특징으로 하는
    카메라를 자동포커싱하는 방법.
  7. 제1항에 있어서,
    미리결정된 과도적인 줌 위치에서, 상기 제1 줌 위치와 상기 과도적인 줌 위치 사이의 줌 위치에 대한 피사계 심도에 기초하는 대신에, 상기 제2 줌 위치를 벗어나는 제3 줌 위치와 상기 과도적인 줌 위치 사이의 줌 위치에 대한 피사계 심도에 기초하여 이전에 저장된 보정 팩터가 사용되는 것을 특징으로 하는
    카메라를 자동포커싱하는 방법.
  8. 제1항에 있어서,
    상기 카메라로부터 상기 포커싱하는 객체까지의 상기 제1 객체 거리를 측정하는 단계는, 상기 카메라에 포함되는 거리 측정 시스템을 사용하여 수행되는 것을 특징으로 하는
    카메라를 자동포커싱하는 방법.
  9. 줌잉 동작동안 카메라를 자동포커싱하는 자동포커스 시스템으로서,
    카메라와;
    상기 카메라로부터 포커싱하는 객체까지의 제1 객체 거리를 측정하도록 구성된 거리 측정 시스템과; 그리고
    제1항의 방법을 수행하도록 구성된 자동포커스 모듈을 포함하는 것을 특징으로 하는
    자동포커스 시스템.
  10. 제1항의 방법을 수행하도록 구성된 줌 렌즈 및 자동포커스 모듈을 포함하는 카메라.
  11. 제10항에 있어서,
    상기 카메라로부터 상기 포커싱하는 객체까지의 상기 제1 객체 거리를 측정하도록 구성된 통합 객체 거리 측정 시스템을 더 포함하는 것을 특징으로 하는
    카메라.
  12. 프로세서에 의해 실행될 때 제1항에 따른 방법을 수행하도록 하는 명령어들을 구비한 컴퓨터 판독가능한 저장 매체를 포함하는 컴퓨터 프로그램 제품.
KR1020170115123A 2016-09-15 2017-09-08 자동포커스를 수행하는 방법, 자동포커스 시스템 및 자동포커스 모듈을 포함하는 카메라 KR101943564B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16189024.9 2016-09-15
EP16189024.9A EP3296788B1 (en) 2016-09-15 2016-09-15 Method of performing autofocus, autofocus system, and camera comprising an autofocus module

Publications (2)

Publication Number Publication Date
KR20180030437A true KR20180030437A (ko) 2018-03-23
KR101943564B1 KR101943564B1 (ko) 2019-01-29

Family

ID=56936366

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170115123A KR101943564B1 (ko) 2016-09-15 2017-09-08 자동포커스를 수행하는 방법, 자동포커스 시스템 및 자동포커스 모듈을 포함하는 카메라

Country Status (6)

Country Link
US (1) US10324268B2 (ko)
EP (1) EP3296788B1 (ko)
JP (1) JP6537568B2 (ko)
KR (1) KR101943564B1 (ko)
CN (1) CN107835357B (ko)
TW (1) TWI680339B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020153703A1 (ko) * 2019-01-22 2020-07-30 엘지이노텍 주식회사 카메라 장치 및 그의 오토포커싱 방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10073239B1 (en) * 2017-05-15 2018-09-11 Omnivision Technologies, Inc. Dual photodiode for phase detection autofocus
CN108259760B (zh) * 2018-03-22 2020-05-26 浙江大华技术股份有限公司 一种球罩球机的变倍聚焦补偿方法及装置
CN110557547B (zh) * 2018-05-30 2021-06-08 北京小米移动软件有限公司 镜头位置调整方法及装置
WO2020019261A1 (zh) * 2018-07-26 2020-01-30 深圳市瑞尔幸电子有限公司 共光路数码成像的激光测距仪
CN208836252U (zh) * 2018-09-26 2019-05-07 深圳市大疆创新科技有限公司 相机和无人机
CN109218624B (zh) * 2018-11-15 2020-10-13 中国科学院光电技术研究所 一种光电跟踪系统的温度调焦补偿方法
CN111314602B (zh) * 2020-02-17 2021-09-17 浙江大华技术股份有限公司 目标对象聚焦方法、装置、存储介质及电子装置
CN113382155B (zh) * 2020-03-10 2023-02-28 浙江宇视科技有限公司 自动聚焦方法、装置、设备和存储介质
CN111880283A (zh) * 2020-08-24 2020-11-03 长春通视光电技术有限公司 一种变焦距光学系统的控制系统
US11606492B2 (en) * 2021-05-24 2023-03-14 Anduril Industries, Inc. Auto-focus acquisition for remote flying targets
US11611707B2 (en) 2021-05-24 2023-03-21 Anduril Industries, Inc. Auto-focus tracking for remote flying targets

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009003208A (ja) * 2007-06-22 2009-01-08 Casio Comput Co Ltd カメラ装置、フォーカス制御方法、及びフォーカス制御プログラム
JP2009217112A (ja) * 2008-03-12 2009-09-24 Nikon Corp 測距装置および撮像装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5384615A (en) * 1993-06-08 1995-01-24 Industrial Technology Research Institute Ambient depth-of-field simulation exposuring method
JP2001281529A (ja) * 2000-03-29 2001-10-10 Minolta Co Ltd デジタルカメラ
US7733412B2 (en) * 2004-06-03 2010-06-08 Canon Kabushiki Kaisha Image pickup apparatus and image pickup method
CN101552911B (zh) * 2009-04-14 2012-09-26 重庆市海普软件产业有限公司 远程户外监控装置及自动监测控制方法
JP2011118021A (ja) * 2009-12-01 2011-06-16 Canon Inc 撮像装置及びその制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009003208A (ja) * 2007-06-22 2009-01-08 Casio Comput Co Ltd カメラ装置、フォーカス制御方法、及びフォーカス制御プログラム
JP2009217112A (ja) * 2008-03-12 2009-09-24 Nikon Corp 測距装置および撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020153703A1 (ko) * 2019-01-22 2020-07-30 엘지이노텍 주식회사 카메라 장치 및 그의 오토포커싱 방법
US11539873B2 (en) 2019-01-22 2022-12-27 Lg Innotek Co., Ltd. Camera apparatus and autofocusing method therefor

Also Published As

Publication number Publication date
EP3296788A1 (en) 2018-03-21
EP3296788B1 (en) 2018-08-22
TW201814387A (zh) 2018-04-16
KR101943564B1 (ko) 2019-01-29
US20180074287A1 (en) 2018-03-15
JP6537568B2 (ja) 2019-07-03
JP2018077457A (ja) 2018-05-17
CN107835357B (zh) 2019-11-26
TWI680339B (zh) 2019-12-21
US10324268B2 (en) 2019-06-18
CN107835357A (zh) 2018-03-23

Similar Documents

Publication Publication Date Title
KR101943564B1 (ko) 자동포커스를 수행하는 방법, 자동포커스 시스템 및 자동포커스 모듈을 포함하는 카메라
JP6245885B2 (ja) 撮像装置およびその制御方法
JP6727791B2 (ja) 追尾制御装置および追尾制御方法、撮像装置
US8284261B2 (en) External ranging image pickup apparatus and ranging method
US20050052564A1 (en) Image-taking apparatus and focus control program for image-taking apparatus
JP2019082646A (ja) レンズ制御装置、該レンズ制御装置を備える撮像装置、及びレンズ制御方法
KR101784787B1 (ko) 이미징 기기 및 이미징 기기에서의 자동 초점맞춤 방법과 대응하는 컴퓨터 프로그램
CN110971810B (zh) 机芯镜头回程差处理方法及装置
JP2020046637A (ja) 制御装置、撮像装置、制御方法、および、プログラム
WO2006075657A1 (ja) オートフォーカス装置
JP2014202771A (ja) 撮像装置、及びその制御方法
JP2017181979A (ja) レンズ制御装置、制御方法
CN116567412A (zh) 变焦跟踪曲线确定方法、装置、计算机设备和存储介质
JP7271353B2 (ja) 撮像装置および波長取得方法
JP2016024315A5 (ko)
JP6639151B2 (ja) 撮像制御装置、撮像装置および撮像制御プログラム
TWI423661B (zh) Face block assisted focus method
US20240155238A1 (en) Imaging control apparatus, imaging control method, and storage medium
JP2017216599A (ja) 撮像装置及びその制御方法
JP6778014B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP6700698B2 (ja) 光学機器、表示制御方法および表示制御プログラム
JP2022150602A (ja) 撮像装置、情報処理装置、撮像装置の制御方法、及びプログラム
JP2877979B2 (ja) 撮像装置
JP2005338514A (ja) レンズ制御装置及び撮像機器
CN115103087A (zh) 一种机器人视觉自动聚焦系统及自动聚焦方法及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant