JP2018077457A - Method of performing autofocus, autofocus system, and camera comprising autofocus module - Google Patents

Method of performing autofocus, autofocus system, and camera comprising autofocus module Download PDF

Info

Publication number
JP2018077457A
JP2018077457A JP2017169227A JP2017169227A JP2018077457A JP 2018077457 A JP2018077457 A JP 2018077457A JP 2017169227 A JP2017169227 A JP 2017169227A JP 2017169227 A JP2017169227 A JP 2017169227A JP 2018077457 A JP2018077457 A JP 2018077457A
Authority
JP
Japan
Prior art keywords
object distance
camera
zoom
zoom position
correction factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017169227A
Other languages
Japanese (ja)
Other versions
JP2018077457A5 (en
JP6537568B2 (en
Inventor
ヨハン ニストレーム,
Nystrom Johan
ヨハン ニストレーム,
ツァン シュイ,
Can Xu
ツァン シュイ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axis AB
Original Assignee
Axis AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axis AB filed Critical Axis AB
Publication of JP2018077457A publication Critical patent/JP2018077457A/en
Publication of JP2018077457A5 publication Critical patent/JP2018077457A5/ja
Application granted granted Critical
Publication of JP6537568B2 publication Critical patent/JP6537568B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/282Autofocusing of zoom lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/285Systems for automatic generation of focusing signals including two or more different focus detection devices, e.g. both an active and a passive focus detecting device
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/02Focusing arrangements of general interest for cameras, projectors or printers moving lens along baseboard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress autofocus hunting when performing autofocus.SOLUTION: A method of autofocusing a camera during a zooming operation is provided, comprising (S1) zooming the lens to a first zoom position, (S2) measuring a first object distance from the camera to an object on which to focus, (S3) determining a first focus start position using the first object distance, (S4) performing a first autofocusing operation using the first focus start position as a starting point, thereby determining a first determined focus position, (S5) determining a first lookup object distance based on the first determined focus position, (S6) calculating first correction factor as a ratio between the first lookup object distance and the first object distance, (S13) zooming the lens to a second zoom position, and (S17) determining a second focus position using a second object distance (S16) calculated as a product of the first object distance and a second correction factor (S15) which is based on a ratio of depths of field at the second and first zoom positions.SELECTED DRAWING: Figure 6

Description

本発明は、カメラのオートフォーカシングの分野に関し、特に、PTZカメラ(すなわち、パニング、チルティング、およびズーミングの能力のあるカメラ)のオートフォーカシングに関する。   The present invention relates to the field of camera autofocusing, and more particularly to autofocusing of PTZ cameras (ie, cameras capable of panning, tilting, and zooming).

オートフォーカスは、カメラにおいて広く使用されている機能である。それは、手持ちカメラならびにモニタカメラで、静止画像カメラならびにビデオカメラで使用されている。オートフォーカスを実行するいくつかの異なる方式が知られており、一般に、受動方式、能動方式、またはハイブリッド方式のいずれかとして分類することができる。1つの既知の受動方式は、最大コントラスト方式またはコントラスト検出方式と呼ばれる。この方式では、捕捉された画像中の隣接画素間のコントラストが調べられ、開始点のまわりで焦点をわずかに変化させることによって、最も高いコントラストの合焦位置が探され、願わくば見いだされる。最大コントラストの探索は、例えば、「ヒルクライミング」と呼ばれる数学的最適化技法を使用して実行することができる。合焦位置が見いだされると、この合焦位置およびズームモータ位置を使用して、レンズの設計者または供給業者によって提供された1組のトレース曲線中の対応する物体距離トレース曲線が見いだされる。トレース曲線は、ズームモータ位置に対する合焦モータ位置をプロットしており、いくつかの物体距離の各々に対して1つの曲線がある。これらの曲線は、一般に、可変焦点レンズシステムに含まれる様々なレンズの理論的特性を使用して理論的に計算される。各々が別個の物体距離に基づくいくつかの曲線が提供される。焦点を同じ物体距離に保持しながらズームインおよびズームアウトする場合、トレース曲線を使用して、適切な焦点を与えると想定される合焦モータ位置が見出される。その結果、ズーム位置ごとにコントラスト決定が実行される必要はない。物体距離がトレース曲線のいずれにも一致しない場合、補間が、2つの曲線間の物体距離を得るために実行される。   Autofocus is a function that is widely used in cameras. It is used in handheld cameras as well as monitor cameras, still image cameras and video cameras. Several different ways of performing autofocus are known and can generally be classified as either passive, active, or hybrid. One known passive method is called the maximum contrast method or contrast detection method. In this scheme, the contrast between adjacent pixels in the captured image is examined, and the focus position with the highest contrast is found and hopefully found by slightly changing the focus around the starting point. The search for maximum contrast can be performed, for example, using a mathematical optimization technique called “hill climbing”. Once the in-focus position is found, the in-focus position and zoom motor position are used to find a corresponding object distance trace curve in a set of trace curves provided by the lens designer or supplier. The trace curve plots the focus motor position against the zoom motor position, with one curve for each of several object distances. These curves are generally calculated theoretically using the theoretical characteristics of the various lenses included in the variable focus lens system. Several curves are provided, each based on a distinct object distance. When zooming in and out while keeping the focus at the same object distance, the trace curve is used to find the focus motor position that is supposed to give the proper focus. As a result, contrast determination need not be performed for each zoom position. If the object distance does not match any of the trace curves, interpolation is performed to obtain the object distance between the two curves.

低照明条件におけるまたは低コントラストもしくは点状光源による光景におけるなどのいくつかの状況では、コントラストの最大値を見いだすことが困難であることがあり、オートフォーカシングアルゴリズムは、「ハンチング」で終わることになる場合があり、それは、オートフォーカシングアルゴリズムが、最大値を見いだすことができずに、合焦モータ位置を変化させ続けることを意味する。   In some situations, such as in low lighting conditions or in a scene with low contrast or a point light source, it may be difficult to find the maximum contrast value, and the autofocusing algorithm will end in "hunting" In some cases, it means that the auto-focusing algorithm cannot find the maximum value and keeps changing the focus motor position.

良好な照明条件においてさえ、アルゴリズムが最良の合焦モータ位置を探しているとき、オートフォーカスプロセス中に生じる焦点の変化が、画像の苛立たしいウォブリングとして現われることがある。   Even in good lighting conditions, when the algorithm is looking for the best focus motor position, focus changes that occur during the autofocus process may appear as annoying wobbling of the image.

能動オートフォーカス方式では、合焦すべき物体までの実際の距離測定が、例えば、レーザを使用して行われる。次いで、合焦位置は、レンズのトレース曲線を使用して決定することができる。そのような能動方式は、距離測定システムの追加を必要とするので、カメラのコストを増加させるが、低照明条件でのオートフォーカスを容易にするという利点を与える。そのような能動方式はまた、即時の合焦位置の利点を与え、その結果、受動オートフォーカス方式で生じることがあるようなウォブリングおよび「ハンチング」がない。   In the active autofocus method, an actual distance measurement to an object to be focused is performed using, for example, a laser. The in-focus position can then be determined using the lens trace curve. Such an active scheme requires the addition of a distance measurement system, which increases the cost of the camera but provides the advantage of facilitating autofocus in low illumination conditions. Such an active scheme also provides an immediate focus position advantage, so that there is no wobbling and “hunting” that may occur with a passive autofocus scheme.

受動方式および能動方式に共通する課題は、カメラに装着されたレンズが、トレース曲線が作成されたレンズから外れていることがあり、その結果、適切な合焦が、決定された物体距離に対して示された合焦位置を使用して達成されないことである。個々のレンズは、カメラの製造中に、適切な合焦位置を選択するときに使用されるべき理論トレース曲線からの生産オフセット(production offset)を計算するために試験することができる。しかしながら、そのようなオフセット試験は、通常、2つのズーム位置、すなわち、「テレ」および「ワイド」に対してのみ、および無限遠に向けた合焦に対してのみ行われる。さらに、生産経済の理由で、オフセット試験は、場合によっては、レンズタイプ当たり1回しか行われず、各個別のレンズには行われない。各個別のレンズが試験される場合でさえ、内部設計公差と、レンズ製造業者による潜在的な調節とが、通常、理論曲線から外れている実際的なトレース曲線形状をもたらすことになり、その結果、生産オフセットはトレース曲線に沿った全体に適用されるわけではない。他のズーム位置および物体距離での別のレンズ試験体の実際の挙動は、工場または生産オフセットを考慮に入れてさえ、トレース曲線から大幅に外れることがある。さらに困ったことには、レンズの挙動は、例えば、温度変化のためにまたはレンズ構成要素の経時変化のために、時間とともに変化することがある。   A challenge common to both passive and active methods is that the lens attached to the camera may be off the lens on which the trace curve was created, so that proper focusing is achieved for the determined object distance. Is not achieved using the in-focus position indicated. Individual lenses can be tested during camera manufacture to calculate the production offset from the theoretical trace curve to be used when selecting an appropriate focus position. However, such an offset test is usually performed only for the two zoom positions, namely “tele” and “wide” and only for focusing towards infinity. Furthermore, for reasons of production economy, in some cases, the offset test is only performed once per lens type and not for each individual lens. Even when each individual lens is tested, internal design tolerances and potential adjustments by the lens manufacturer will usually result in a practical trace curve shape that deviates from the theoretical curve. The production offset is not applied globally along the trace curve. The actual behavior of another lens specimen at other zoom positions and object distances may deviate significantly from the trace curve, even taking into account the factory or production offset. To make matters worse, the behavior of the lens may change over time, for example, due to temperature changes or due to changes in lens components over time.

オートフォーカシングを改善するために、受動方式と能動方式とを組み合わせたハイブリッド方式を使用することができる。例えば、レーザ距離測定を使用して、コントラスト検出方式に開始点を与え、それによって、難易度が高い光景におけるオートフォーカシングを容易にすることができる。さらに、ハイブリッド方式は、「ハンチング」のリスクを減少させ、潜在的により良好な開始点を用いて受動方式をより迅速に実行し、それにより、最適な合焦位置の探索の間の苛立たしいウォブリングを低減することを可能にすることができる。   In order to improve autofocusing, a hybrid method combining a passive method and an active method can be used. For example, laser distance measurement can be used to provide a starting point for the contrast detection scheme, thereby facilitating autofocusing in highly challenging scenes. In addition, the hybrid method reduces the risk of “hunting” and performs the passive method more quickly with a potentially better starting point, thereby frustrating wobbling during the search for the optimal focus position Can be reduced.

既知のオートフォーカシング方式に関連する課題は、多くの場合、PTZカメラで悪化する。カメラが、新しい方向にパンおよび/またはチルトされるとき、新しい視野内の物体に合焦するためにオートフォーカシングが必要である。一般に、オートフォーカシングプロセスは速さが十分でないので、モニタしている光景のある点から別の点までパニングおよび/またはチルティング移動する間合焦画像を提供することができない。それゆえに、移動の開始時および移動の終了時に合焦画像を得ることができるが、それらの間の画像はぼやけることになる。カメラがズームインまたはズームアウトされる状況についても同じである。移動およびズーミングの間のこのぼやけは、例えば、いわゆる「ガードツアー(guard tour)」からの、すなわち、モニタ区域の様々な部分をモニタするために実行されるパニング、チルティング、およびズーミング動作の事前プログラムされたシーケンスからの捕捉ビデオシーケンスを見ているオペレータを苛立たせることがある。重要な視覚情報が、パニング、チルティング、およびズーミングの間オペレータには失われることがある。   Problems associated with known autofocusing methods are often exacerbated by PTZ cameras. When the camera is panned and / or tilted in a new direction, autofocusing is necessary to focus on objects in the new field of view. In general, the autofocusing process is not fast enough to provide a focused image while panning and / or tilting from one point of the scene being monitored to another. Therefore, a focused image can be obtained at the start of movement and at the end of movement, but the image between them becomes blurred. The same is true for situations where the camera is zoomed in or out. This blurring during movement and zooming, for example, from a so-called “guard tour”, ie prior to panning, tilting and zooming operations performed to monitor various parts of the monitoring area. It may irritate an operator who is viewing a captured video sequence from a programmed sequence. Important visual information may be lost to the operator during panning, tilting, and zooming.

本発明の目的は、より良好な合焦画像を供給することができるオートフォーカシングの方法を提供することである。さらに、本発明の目的は、パニング、チルティング、およびズーミングの間にもより良好な合焦画像を与えることができるオートフォーカシングの方法を提供することである。本発明の別の目的は、先行技術の方法よりも迅速に実行され得るオートフォーカシングの方法を提供することである。   An object of the present invention is to provide an auto-focusing method capable of supplying a better focused image. It is a further object of the present invention to provide an autofocusing method that can provide a better focused image during panning, tilting and zooming. Another object of the present invention is to provide a method of autofocusing that can be performed more quickly than prior art methods.

第1の態様によれば、これらのおよび他の目的は、ズーミング動作の間にカメラをオートフォーカスする方法によって完全にまたは少なくとも部分的に達成され、カメラはズームレンズを備え、この方法は、レンズを第1のズーム位置にズームすることと、カメラから合焦すべき物体までの第1の物体距離を測定することと、前記第1の物体距離を使用して第1の合焦開始位置を決定することと、受動オートフォーカスアルゴリズムを使用し、かつ、第1の合焦開始位置をアルゴリズムの開始点として使用して、第1のオートフォーカシング動作を実行し、それによって、第1の決定合焦位置(determined focus position)を決定することと、第1のルックアップ物体距離を第1の決定合焦位置に基づいて決定することと、第1のルックアップ物体距離と第1の物体距離との間の比として第1の補正係数を計算することと、前記第1のズーム位置の第1の被写界深度を決定することと、レンズを第2のズーム位置にズームすることと、前記第2のズーム位置の第2の被写界深度を決定することと、第1の補正係数と、第2の被写界深度と第1の被写界深度との間の比との積として、第2の補正係数を計算することと、第1の物体距離と第2の補正係数との積として第2の物体距離を計算することと、第2の物体距離を使用して第2の合焦位置を決定することとを含む。   According to a first aspect, these and other objects are achieved in whole or at least in part by a method of autofocusing a camera during a zooming operation, the camera comprising a zoom lens, the method comprising: Zooming to a first zoom position, measuring a first object distance from the camera to the object to be focused, and using the first object distance to determine a first focus start position Using the passive autofocus algorithm and using the first focus start position as a starting point of the algorithm to perform a first autofocusing operation, thereby Determining a focused focus position and determining a first lookup object distance based on the first determined focus position; Calculating a first correction factor as a ratio between the first lookup object distance and the first object distance, and determining a first depth of field at the first zoom position. Zooming the lens to a second zoom position; determining a second depth of field at the second zoom position; a first correction factor; and a second depth of field. Calculating the second correction factor as the product of the ratio between the first object depth and the first depth of field, and the second object distance as the product of the first object distance and the second correction factor. Calculating and determining a second focus position using the second object distance.

そのようなオートフォーカス方式を使用して、レンズ製造業者によって提供されたトレース曲線をよりよく利用することが可能である。カメラで使用されている個々のレンズが、トレース曲線が計算されたレンズのように正確に挙動しない場合でさえ、およびカメラの製造中にレンズタイプに対して決定された生産オフセットが個々のレンズに必ずしもフィットしない場合でさえ、測定された物体距離と、受動オートフォーカスアルゴリズムによって見いだされた合焦モータ位置に対応する距離とに基づいた第1の補正係数の計算により、ズーミングの間により好適な補間された物体距離トレース曲線に従うことが可能になる。このようにして、より良好な合焦画像をズーミングの間提供することができる。したがって、カメラからのビデオシーケンスを見るオペレータは、画像からより多くの情報を得ることができ、ぼやけた画像を見る苛立ちから解放され得る。より良好な開始点は受動オートフォーカスアルゴリズムを使用する合焦の探索をスピードアップすることができるので、オペレータは、さらに、受動オートフォーカスアルゴリズムを使用するオートフォーカシングの間ウォブリング画像を見ることから解放され得る。   Using such an autofocus scheme, it is possible to better utilize the trace curve provided by the lens manufacturer. Even if the individual lens used in the camera does not behave exactly as the lens for which the trace curve has been calculated, and the production offset determined for the lens type during camera manufacture is on the individual lens More suitable interpolation during zooming by calculating a first correction factor based on the measured object distance and the distance corresponding to the in-focus motor position found by the passive autofocus algorithm even if it does not necessarily fit It is possible to follow the measured object distance trace curve. In this way, a better focused image can be provided during zooming. Thus, an operator viewing a video sequence from the camera can obtain more information from the image and can be freed from the irritation of viewing the blurred image. A better starting point can speed up the focus search using the passive autofocus algorithm, so the operator is further freed from viewing the wobbling image during autofocusing using the passive autofocus algorithm. obtain.

さらに、現在のズーム位置の被写界深度とズーミング中の前のズーム位置の被写界深度の比に基づいて、例えば、捕捉または送信された画像フレーム当たり1回、更新補正係数を計算し続けることによって、理論トレース曲線からのずれをよりよく考慮に入れることができ、その結果、各フレームまたは新しいズーム位置に対して、トレース曲線で使用すべき新しい物体距離が決定される。   In addition, based on the ratio of the depth of field at the current zoom position to the depth of field at the previous zoom position during zooming, the update correction factor continues to be calculated, for example, once per captured or transmitted image frame. This can better account for deviations from the theoretical trace curve, so that for each frame or new zoom position, a new object distance to be used in the trace curve is determined.

ひとたびレンズが所望のズーム位置に達したならば、ズーミング動作中にトレース曲線を使用して見いだされた合焦モータ位置を受動オートフォーカスアルゴリズムの開始点として使用して、第2の決定合焦位置を決定することができる。それにより、適切な合焦をより迅速に見いだすことができる。さらに、これは、ガードツアーが進行中であるが、オペレータが光景内の注目する何かを見てズーミング動作を中断する場合でも有益である。次いで、補正係数とトレース曲線とを使用して見いだされた最新の合焦モータ位置を受動オートフォーカスアルゴリズムの開始点として使用することができ、その結果、合焦画像を迅速に提供することができる。   Once the lens has reached the desired zoom position, the second determined focus position using the focus motor position found using the trace curve during zooming as the starting point of the passive autofocus algorithm. Can be determined. Thereby, it is possible to find an appropriate focus more quickly. In addition, this is beneficial even when a guard tour is in progress but the operator interrupts the zooming operation by looking at something of interest in the scene. The latest focus motor position found using the correction factor and the trace curve can then be used as a starting point for the passive autofocus algorithm, resulting in a quick in-focus image. .

第2のルックアップ物体距離を第2の決定合焦位置に基づいて決定することができ、新しい補正係数は、第2のルックアップ物体距離と第1の物体距離との間の比として計算することができる。このようにして、適切な合焦を見いだすのをより容易にする更新補正係数を決定することができる。   A second lookup object distance can be determined based on the second determined in-focus position, and a new correction factor is calculated as a ratio between the second lookup object distance and the first object distance. be able to. In this way, an update correction factor that makes it easier to find an appropriate focus can be determined.

この方法は、第1のズーム位置と第2のズーム位置との間の中間ズーム位置にレンズをズームすることと、前記中間ズーム位置の中間被写界深度を決定することと、第1の補正係数と、中間被写界深度と第1の被写界深度との間の比との積として、中間補正係数を計算することと、第1の物体距離と中間補正係数との積として中間物体距離を計算することと、中間物体距離を使用して中間合焦位置を決定することとをさらに含むことができる。これによって、オートフォーカス位置が、時間のかかる受動オートフォーカスアルゴリズムを実行する必要なしに、中間ズーム位置において決定され得る。そのような手法により、補正係数は、ズーミング動作の間連続的に計算することができ、その結果、好適なトレース曲線に従うことによって良好な合焦を得ることができる。   The method includes zooming the lens to an intermediate zoom position between a first zoom position and a second zoom position, determining an intermediate depth of field at the intermediate zoom position, and a first correction. Calculating the intermediate correction factor as the product of the coefficient and the ratio between the intermediate depth of field and the first depth of field and the intermediate object as the product of the first object distance and the intermediate correction factor The method may further include calculating the distance and determining the intermediate focus position using the intermediate object distance. This allows the autofocus position to be determined at the intermediate zoom position without having to perform a time consuming passive autofocus algorithm. With such an approach, the correction factor can be calculated continuously during the zooming operation, so that good focus can be obtained by following a suitable trace curve.

変形例によれば、この方法は、受動オートフォーカスアルゴリズムを使用し、かつ、中間合焦位置をアルゴリズムの開始点として使用して、中間オートフォーカシング動作を実行し、それによって、中間決定合焦位置を決定することをさらに含む。このようにして、改善された合焦が、第1のズーム位置から第2のズーム位置までのズーム動作の間のズーム位置においても達成され得る。受動オートフォーカスアルゴリズムへの高い入力フレームレートがあり、ユーザが低い出力フレームレートを要請する場合などの時間が許す場合、開始点としての最新の決定合焦位置を用いて受動オートフォーカスアルゴリズムを使用し、それによって、単にトレース曲線に従うよりも多分良好な合焦を可能にすることができる。これは、例えば、ズーミング動作の間フレームごとでなく規則的なまたは不規則な間隔で行うことができる。   According to a variant, the method performs an intermediate autofocusing operation using a passive autofocus algorithm and using the intermediate focus position as the starting point of the algorithm, thereby providing an intermediate determined focus position. Further including determining. In this way, improved focus can also be achieved at the zoom position during the zoom operation from the first zoom position to the second zoom position. If you have a high input frame rate to the passive autofocus algorithm and allow time, such as when the user requests a low output frame rate, use the passive autofocus algorithm with the latest determined focus position as the starting point. , Thereby allowing possibly better focus than simply following the trace curve. This can be done, for example, at regular or irregular intervals rather than every frame during the zooming operation.

受動オートフォーカスアルゴリズムが使用されるたびに、補正係数を更新することができる。例えば、中間ルックアップ物体距離は中間決定合焦位置に基づいて決定することができ、新しい中間補正係数は中間ルックアップ物体距離と第1の物体距離との間の比として計算することができる。受動オートフォーカスアルゴリズムは、新しいズーム位置に達する以外の理由でも作動することができる。例えば、受動オートフォーカスアルゴリズムは、カメラがパンまたはチルトするとき、モニタしている光景が、例えば照明変化のために変化するとき、および周囲温度が変化するとき、作動することができる。合焦すべき物体が、最新の格納された補正係数が決定された距離以外の別の距離にある場合、やはり、最新の格納された補正係数を使用することができる。   Each time a passive autofocus algorithm is used, the correction factor can be updated. For example, the intermediate lookup object distance can be determined based on the intermediate determined focus position, and the new intermediate correction factor can be calculated as a ratio between the intermediate lookup object distance and the first object distance. The passive autofocus algorithm can work for reasons other than reaching a new zoom position. For example, a passive autofocus algorithm can operate when the camera pans or tilts, when the monitored scene changes, for example, due to lighting changes, and when the ambient temperature changes. If the object to be focused is at another distance other than the distance for which the latest stored correction factor is determined, the latest stored correction factor can still be used.

ズーム位置ごとの被写界深度が、レンズを制御するレンズコントローラからの要請によって決定され得る。   The depth of field for each zoom position can be determined by a request from a lens controller that controls the lens.

多くのレンズの場合、過渡的ズーム位置の両側の異なる補正係数を使用することが有益であり得る。それゆえに、この方法は、所定の過渡的ズーム位置において、以前に格納された補正係数が使用されることをさらに含むことができ、以前に格納された補正係数は、前記第1のズーム位置と前記過渡的ズーム位置との間のズーム位置の被写界深度に基づく代わりに、前記過渡的ズーム位置と、前記第2のズーム位置を越えている第3のズーム位置との間のズーム位置の被写界深度に基づいている。例えば、5xズームのズーム位置において、被写界深度比と物体距離との間の関係を示す曲線に「キンク」があることがある。これを扱うために、過渡的ズーム位置の「他の側の」ズーム位置のために以前に決定された補正係数が使用される。したがって、テレ補正係数と呼ぶことができるものは、過渡的ズーム位置の「テレ」側でのズーミングの間連続的に更新することができ、ワイド補正係数と呼ぶことができるものは、過渡的ズーム位置の「ワイド」側でのズーミングの間連続的に更新することができる。ひとたびズームインまたはズームアウトのいずれかの1つの方向のズーミングが過渡的ズーム位置に達すると、過渡的ズーム位置の他の側のズーム位置のための最新の決定された補正係数が、物体距離の計算のために使用されるべきである。   For many lenses, it may be beneficial to use different correction factors on either side of the transient zoom position. Therefore, the method may further include using a previously stored correction factor at a predetermined transient zoom position, wherein the previously stored correction factor is the first zoom position. Instead of being based on the depth of field of the zoom position between the transient zoom position and the zoom position between the transient zoom position and a third zoom position beyond the second zoom position. Based on depth of field. For example, at a zoom position of 5 × zoom, there may be a “kink” on the curve indicating the relationship between the depth of field ratio and the object distance. To handle this, a correction factor previously determined for the “other side” zoom position of the transient zoom position is used. Thus, what can be referred to as the tele correction factor can be continuously updated during zooming on the “tele” side of the transient zoom position, and what can be referred to as the wide correction factor is what is referred to as the transient zoom factor. It can be continuously updated during zooming on the “wide” side of the position. Once zooming in one direction of either zooming in or zooming out reaches the transient zoom position, the latest determined correction factor for the zoom position on the other side of the transient zoom position is the object distance calculation. Should be used for.

カメラから合焦すべき物体までの物体距離を測定することは、カメラに備えられた距離測定システムを使用して実行することができる。距離測定システムは、例えば、レーザ距離測定システムとすることができる。   Measuring the object distance from the camera to the object to be focused can be performed using a distance measurement system provided in the camera. The distance measurement system can be, for example, a laser distance measurement system.

本発明の第2の態様によれば、上記の目的は、ズーミング動作中にカメラをオートォーカスするためのオートフォーカスシステムによって完全にまたは少なくとも部分的に達成され、オートフォーカスシステムは、カメラと、カメラから合焦すべき物体までの第1の物体距離を測定するように配置された距離測定システムと、第1態様の方法を実行するように配置されたオートフォーカスモジュールとを備える。第2の態様のオートフォーカスシステムは、利点を伴って第1の態様の方法と同様に具現することができる。   According to a second aspect of the present invention, the above object is achieved in whole or at least in part by an autofocus system for autofocusing a camera during a zooming operation, the autofocus system comprising: A distance measuring system arranged to measure a first object distance from the object to be focused to and an autofocus module arranged to carry out the method of the first aspect. The autofocus system of the second aspect can be implemented in the same way as the method of the first aspect with advantages.

第3の態様によれば、これらのおよび他の目的は、ズームレンズと第1の態様の方法を実行するように配置されたオートフォーカスモジュールとを備えるカメラによって完全にまたは少なくとも部分的に達成される。   According to a third aspect, these and other objects are achieved in whole or at least in part by a camera comprising a zoom lens and an autofocus module arranged to perform the method of the first aspect. The

カメラは、カメラから合焦すべき物体までの第1の物体距離を測定するように配置された統合物体距離測定システムを備えることができる。物体距離測定システムは、例えば、レーザ距離測定システムとすることができる。   The camera can comprise an integrated object distance measurement system arranged to measure a first object distance from the camera to the object to be focused. The object distance measurement system can be, for example, a laser distance measurement system.

第3の態様のカメラは、一般に、利点を伴って第1の態様の方法と同様に具現することができる。   The camera of the third aspect can generally be implemented similarly to the method of the first aspect with advantages.

第4の態様によれば、これらのおよび他の目的は、プロセッサによって実行されたとき第1の態様の方法を実行するように構成された命令をもつコンピュータ可読記憶媒体を含むコンピュータプログラム製品によって完全にまたは少なくとも部分的に達成される。プロセッサは、任意の種類のプロセッサ、例えば、中央制御装置(CPU)、グラフィック処理装置(GPU)、集積回路に実装されたカスタムメイド処理デバイス、ASIC、FPGA、または個別部品を含む論理回路とすることができる。   According to a fourth aspect, these and other objects are fully met by a computer program product comprising a computer-readable storage medium having instructions configured to perform the method of the first aspect when executed by a processor. Or at least partially achieved. The processor may be any type of processor, for example, a central control unit (CPU), graphics processing unit (GPU), custom-made processing device implemented in an integrated circuit, ASIC, FPGA, or logic circuit including discrete components. Can do.

本発明の適用可能性のさらなる範囲が、以下に与えられる詳細な説明から明らかになるであろう。しかしながら、詳細な説明および特定の例は、本発明の好ましい実施形態を示しているが、本発明の範囲内の様々な変更および変形がこの詳細な説明から当業者には明らかになるはずであるので、単に例証として与えられていることを理解すべきである。   Further scope of the applicability of the present invention will become apparent from the detailed description given below. However, although the detailed description and specific examples illustrate preferred embodiments of the present invention, various changes and modifications within the scope of the invention should be apparent to those skilled in the art from this detailed description. So it should be understood that it is given merely as an illustration.

したがって、本発明は、そのようなデバイスおよび方法が変わることがあるので、記載するデバイスの特定の構成部品または記載する方法のステップに限定されないことを理解すべきである。さらに、本明細書で使用される用語は、特定の実施形態のみを説明する目的のものであり、限定することを意図しないことを理解すべきである。本明細書および添付の特許請求の範囲で使用される「1つの(a)」、「1つの(an)」、「その(the)」、および「前記の(said)」という冠詞は、文脈が特に明確に指示しない限り、1つまたは複数の要素があることを意味するように意図されることに留意しなければならない。したがって、例えば、「1つの物体」または「その物体」への言及は、いくつかの物体などを含むことができる。さらに、「備えている、含んでいる(comprising)」という単語は、他の要素またはステップを排除しない。   Thus, it is to be understood that the invention is not limited to the specific components of the described device or the method steps described, as such devices and methods may vary. Further, it is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting. As used herein and in the appended claims, the articles “a”, “an”, “the”, and “said” refer to contexts It should be noted that unless specifically indicated otherwise, it is intended to mean that there is one or more elements. Thus, for example, reference to “an object” or “the object” can include several objects and the like. Further, the word “comprising” does not exclude other elements or steps.

次に、本発明が、例として、添付の概略図を参照して、より詳細に説明される。   The present invention will now be described in more detail, by way of example, with reference to the accompanying schematic drawings.

物体がカメラから様々な距離にある、PTZカメラでモニタされている光景を示す図である。FIG. 3 shows a scene being monitored with a PTZ camera, where the object is at various distances from the camera. 上方から示された図1の光景を示す図である。It is a figure which shows the sight of FIG. 1 shown from the top. 図1のカメラのブロック図である。It is a block diagram of the camera of FIG. 図3に示したカメラのオートフォーカスモジュールを示すブロック図である。It is a block diagram which shows the autofocus module of the camera shown in FIG. 図1のカメラなどのカメラのための1組のトレース曲線の一例を示す図である。FIG. 2 illustrates an example of a set of trace curves for a camera such as the camera of FIG. オートフォーカシングの方法を示す流れ図である。It is a flowchart which shows the method of autofocusing.

図1で分かるように、光景1は、カメラ2を使用してモニタされる。光景1は、図2では上方から示される。   As can be seen in FIG. 1, the scene 1 is monitored using a camera 2. The scene 1 is shown from above in FIG.

光景1には、3つのドア4、5、6をもつ建物3がある。各ドアに、それぞれの通路7、8、9がある。建物3の外に、3つの低木10、11、12がある。   The sight 1 has a building 3 with three doors 4, 5, 6. Each door has a respective passage 7, 8, 9. There are three shrubs 10, 11, 12 outside the building 3.

カメラ2は、この例では、PTZカメラ、すなわち、パニング、チルティング、およびズーミングの能力のあるカメラである。同じ種類の機能は、ズームレンズを有するカメラを使用し、それをいわゆるPTヘッド、すなわち、別な方法で固定されたカメラをパンおよびチルトするデバイスに装着して達成することができる。   In this example, the camera 2 is a PTZ camera, that is, a camera capable of panning, tilting, and zooming. The same kind of function can be achieved by using a camera with a zoom lens and mounting it on a so-called PT head, ie a device that pans and tilts another fixed camera.

カメラ2は、光景1の画像を捕捉し、それを符号化し、それをビデオシーケンスとして例えば制御センターに送信し、制御センターで、ビデオシーケンスが復号され、その結果、オペレータはビデオシーケンスをライブで見ることができる。ビデオシーケンスは、さらに、後のレビューのために格納されてもよい。カメラ2は、例えばSDカードといったオンボードストレージをさらに有することができ、後の検索のためにビデオシーケンスを格納することができる。   The camera 2 captures an image of the scene 1 and encodes it and sends it as a video sequence, for example to a control center, where the video sequence is decoded, so that the operator views the video sequence live be able to. The video sequence may further be stored for later review. The camera 2 can further have an on-board storage, for example an SD card, and can store a video sequence for later retrieval.

カメラ2の視野は、一度に図1に示された光景1の一部のみをモニタできるものとすることができる。カメラ2をパン、チルト、およびズームすることによって、オペレータは、光景1の様々な部分をモニタすることができる。これは、手動で、例えば、ジョイスティックを使用して行うことができる。それは、さらに、所定のシーケンスで光景中のいくつかの注目する点を訪れ、所定の時間の間注目する各点にとどまる事前プログラムされたガードツアーを利用して行われてもよい。カメラが新しい位置にパンおよびチルトされるたびに、合焦すべき物体がカメラから異なる距離にある可能性が極めて高いことになるので、カメラは再合焦される必要があり得る。例えば、左のドア4を通って建物3に入るまたは建物3から出る人々をモニタするために、カメラは、最初に左のドア4に向けられ、そのドアに合焦され得る。次いで、カメラ2は、左のドア4よりもカメラ2からわずかに離れている中央のドア5をカバーするために右にパンされ得る。したがって、中央のドア5を通過する人々の適切に合焦された画像を得るために、カメラ2は再合焦される必要があることになる。続いて、カメラ2は、カメラ2からさらに離れている右のドア6の画像を捕捉するためにさらに右にパンされ得る。再度、カメラ2は、右のドア6を通過する人々の適切に合焦された画像を提供するために再合焦される必要があることになる。そのような再合焦ごとに、オートフォーカシング手順が使用される。同様に、合焦モータが、トゥルーズームレンズと呼ばれることがある同焦点ズームレンズなどでズームモータにロックされているのでない限り、カメラ2がズームインまたはズームアウトするたびに、再合焦される必要がある。可変焦点レンズでは、ズーミングの間に合焦が失われ、レンズは再合焦されなければならない。   The field of view of the camera 2 can only monitor a part of the scene 1 shown in FIG. 1 at a time. By panning, tilting, and zooming the camera 2, the operator can monitor various parts of the scene 1. This can be done manually, for example using a joystick. It may also be done using a pre-programmed guard tour that visits several points of interest in the scene in a predetermined sequence and stays at each point of interest for a predetermined time. Each time the camera is panned and tilted to a new position, it is very likely that the object to be focused is at a different distance from the camera, so the camera may need to be refocused. For example, to monitor people entering or leaving the building 3 through the left door 4, the camera may first be directed to the left door 4 and focused on that door. The camera 2 can then be panned to the right to cover the central door 5 that is slightly further away from the camera 2 than the left door 4. Thus, the camera 2 will need to be refocused to obtain a properly focused image of people passing through the central door 5. Subsequently, the camera 2 can be panned further to the right to capture an image of the right door 6 that is further away from the camera 2. Again, the camera 2 will need to be refocused to provide a properly focused image of people passing through the right door 6. For each such refocusing, an autofocusing procedure is used. Similarly, every time the camera 2 zooms in or out, it needs to be refocused unless the focus motor is locked to the zoom motor, such as a confocal zoom lens, sometimes called a true zoom lens. There is. With variable focus lenses, the focus is lost during zooming and the lens must be refocused.

次に、カメラ2のいくつかの構成要素を示す簡略化されたブロック図である図3を参照する。カメラ2は、ズームレンズ20、または厳密に言えば可変焦点レンズを有する。レンズ20はズームモータと合焦モータとを備え、それらのどれも図面に明確に示されていないが、両方ともズームレンズのよく知られている機構である。さらに、カメラ2は、モニタする光景の画像を捕捉するための画像センサ21と、画像を処理し、それを符号化するための処理回路22とを有する。カメラは、処理回路22で使用するためのメモリ23と、例えばSDカードといった、カメラに画像を格納するためのローカルストレージ24と、カメラ2から例えば制御センターに画像を送信するためのネットワークインタフェース25とをさらに有する。カメラ2は、カメラから合焦すべき物体までの物体距離を測定するためのレーザ距離測定システム26を有する。追加として、カメラ2は、オートフォーカシングを実行するように配置されたオートフォーカスモジュール30を有する。   Reference is now made to FIG. 3, which is a simplified block diagram showing some components of the camera 2. The camera 2 has a zoom lens 20 or, strictly speaking, a variable focus lens. Lens 20 includes a zoom motor and a focusing motor, none of which are clearly shown in the drawings, but both are well-known mechanisms of zoom lenses. Further, the camera 2 includes an image sensor 21 for capturing an image of a scene to be monitored, and a processing circuit 22 for processing the image and encoding it. The camera has a memory 23 for use in the processing circuit 22, a local storage 24 for storing images in the camera, such as an SD card, and a network interface 25 for transmitting images from the camera 2 to, for example, a control center. It has further. The camera 2 has a laser distance measuring system 26 for measuring the object distance from the camera to the object to be focused. In addition, the camera 2 has an autofocus module 30 arranged to perform autofocusing.

オートフォーカスモジュール30が、図3に概略的に示される。それは、距離入力モジュール31と、受動オートフォーカスアルゴリズムモジュール32と、補正係数更新モジュール33とから構成される。   The autofocus module 30 is schematically shown in FIG. It comprises a distance input module 31, a passive autofocus algorithm module 32, and a correction coefficient update module 33.

図1〜図6を参照して、次に、カメラ2の機能、より具体的にはオートフォーカスモジュール30の機能を、使用シナリオの助けを借りて説明する。カメラ2はオートフォーカシングのための統合システムを形成することが分かるであろう。   With reference to FIGS. 1-6, the function of the camera 2, more specifically the function of the autofocus module 30, will now be described with the help of a usage scenario. It will be appreciated that the camera 2 forms an integrated system for autofocusing.

オペレータは光景1をモニタしている。最初、カメラ2は、カメラ2が合焦されるべき左のドア4に向けられる。レンズ20は、第1のズーム位置に設定される(図6のステップS1)。レーザ距離測定システム26が、カメラ2から左のドア4までの距離D1を測定する(S2)。測定された距離D1に対する好適な合焦モータ位置を選ぶために、レンズ製造業者によって提供されたトレース曲線を調べることができる。レンズの1組のトレース曲線の一例が図5に示される。仮にレンズ20がレンズ製造業者によって提供されたトレース曲線に従って正確に挙動するならば、物体距離D1に対応する曲線を見いだし、水平軸の現在のズーム位置に対応する垂直軸の合焦モータ位置を見いだすことによって、適切な合焦モータ位置を簡単に決定することができる。しかしながら、これは、生産オフセットを考慮に入れても、各個別のレンズがトレース曲線の挙動から外れることがあるので、ほとんどの場合最適な合焦位置を与えないことになる。それゆえに、受動オートフォーカスアルゴリズムがさらに使用され、それにより、オートフォーカス方式はハイブリッド方式になる。この例では、受動オートフォーカスアルゴリズムはコントラスト検出アルゴリズムである。測定された距離D1に基づいてトレース曲線において見いだされたオートフォーカス位置を第1のオートフォーカス開始位置AF1startとラベル付けし(S3)、第1の決定オートフォーカス位置AF1と呼ぶ新しく調節されたオートフォーカス位置が、コントラスト検出アルゴリズムを使用して決定される(S4)。コントラスト検出アルゴリズムを実行するとき、第1のオートフォーカス開始位置AF1startが開始点として使用される。最大コントラストをもたらすモータ合焦位置の探索は、第1のオートフォーカス開始位置AF1startを中心とした、現在のズーム位置における被写界深度DOFに対応する第1の合焦開始位置のまわりの範囲で、つまり、例えば被写界深度の80%の範囲で、実行することができる。被写界深度DOFは、レンズを制御するレンズコントローラ(図示せず)から得ることができる(S7)。コントラスト検出アルゴリズムで見いだされた合焦モータ位置AF1は、多くの場合、AF1startと異なることになる。トレース曲線を調べることによって、第1のルックアップ物体距離D1’を見いだすことができ(S5)、それは、第1の決定合焦位置AF1に対応する。第1の補正係数ACF1が、以下の一般式に従って、第1のルックアップ物体距離D1’と第1の物体距離D1との間の比として計算される(S6)。

Figure 2018077457
The operator is monitoring the scene 1. Initially, the camera 2 is directed to the left door 4 where the camera 2 is to be focused. The lens 20 is set to the first zoom position (step S1 in FIG. 6). The laser distance measurement system 26 measures the distance D1 from the camera 2 to the left door 4 (S2). In order to select a suitable focus motor position for the measured distance D1, the trace curve provided by the lens manufacturer can be examined. An example of a set of trace curves for a lens is shown in FIG. If the lens 20 behaves exactly according to the trace curve provided by the lens manufacturer, find the curve corresponding to the object distance D1 and find the vertical focus motor position corresponding to the current zoom position of the horizontal axis. Thus, it is possible to easily determine an appropriate focusing motor position. However, this will in most cases not give the optimum focus position, even if the production offset is taken into account, since each individual lens may deviate from the behavior of the trace curve. Therefore, a passive autofocus algorithm is further used, thereby making the autofocus scheme a hybrid scheme. In this example, the passive autofocus algorithm is a contrast detection algorithm. The autofocus position found in the trace curve based on the measured distance D1 is labeled as a first autofocus start position AF1 start (S3), and a newly adjusted auto called the first determined autofocus position AF1. A focus position is determined using a contrast detection algorithm (S4). When executing the contrast detection algorithm, the first autofocus start position AF1 start is used as the start point. The search for the motor focus position that provides the maximum contrast is a range around the first focus start position corresponding to the depth of field DOF at the current zoom position, centered on the first autofocus start position AF1 start. That is, for example, it can be executed in a range of 80% of the depth of field. The depth of field DOF can be obtained from a lens controller (not shown) that controls the lens (S7). The focus motor position AF1 found by the contrast detection algorithm is often different from AF1 start . By examining the trace curve, the first lookup object distance D1 ′ can be found (S5), which corresponds to the first determined focus position AF1. The first correction factor ACF1 is calculated as a ratio between the first lookup object distance D1 ′ and the first object distance D1 according to the following general formula (S6).
Figure 2018077457

ここで、ACFは補正係数であり、Dは測定された物体距離であり、D’は受動オートフォーカスアルゴリズムを使用して見いだされた物体距離である。第1のズーム位置にズームインするかまたは第1のズーム位置からズームアウトするとき、第1の補正係数が、新しいズーム位置での正しいトレース曲線を見いだすために使用される。しかしながら、それぞれのズーム位置での被写界深度が考慮に入れられた場合、さらにより良好な補正が達成可能である。   Where ACF is the correction factor, D is the measured object distance, and D 'is the object distance found using the passive autofocus algorithm. When zooming in to or from the first zoom position, the first correction factor is used to find the correct trace curve at the new zoom position. However, even better correction can be achieved if the depth of field at each zoom position is taken into account.

オペレータが左のドア4をモニタする例に戻ると、人が出入口に現われており、オペレータは、人の顔にズームインして人の識別を試みたいと思う。それゆえに、オペレータは、第1のズーム位置から第2の位置までズームインしたいと思うことがある。ズーミングは、即時ではなく、いくつかの画像フレームにわたって生じることになる。ここで、中間ズーム位置が第1のズーム位置の後に達せられること、および追加ズーム位置がその後達せられ、その後、第2のズーム位置が達せられることが仮定されている。第1のズーム位置から第2のズーム位置までのズーミングの間に、任意の数の追加ズーム位置を横切ることができることを当業者は理解するであろう。レンズが中間ズーム位置にズームされた(S8)とき、中間ズーム位置の被写界深度が決定され(S9)、中間被写界深度DOFiとラベル付けされる。中間被写界深度と、第1の被写界深度DOF1とラベル付けされた第1のズーム位置での被写界深度との間の比が計算され、補正係数が、第1の補正係数ACF1と被写界深度比DOFi/DOF1との積として中間補正係数ACFiを計算する(S10)ことによって更新される。したがって、更新された補正係数は、以下の一般式に従って計算される。

Figure 2018077457
Returning to the example where the operator monitors the left door 4, a person appears at the doorway and the operator wants to zoom in on the person's face and attempt to identify the person. Therefore, the operator may wish to zoom in from the first zoom position to the second position. Zooming will occur over several image frames, not immediately. Here, it is assumed that the intermediate zoom position is reached after the first zoom position, and that the additional zoom position is reached afterwards, and then the second zoom position is reached. One skilled in the art will appreciate that any number of additional zoom positions can be traversed during zooming from the first zoom position to the second zoom position. When the lens is zoomed to the intermediate zoom position (S8), the depth of field at the intermediate zoom position is determined (S9) and labeled as intermediate depth of field DOFi. The ratio between the intermediate depth of field and the depth of field at the first zoom position labeled first depth of field DOF1 is calculated and the correction factor is the first correction factor ACF1. Is updated by calculating the intermediate correction coefficient ACFi as the product of the depth of field ratio DOFi / DOF1 (S10). Therefore, the updated correction coefficient is calculated according to the following general formula.
Figure 2018077457

ここで、添え字kは前のズーム位置を意味し、添え字k+1は現在のズーム位置を意味する。新しい補正係数が計算されるたびに、前の補正係数が上書きされる。   Here, the subscript k means the previous zoom position, and the subscript k + 1 means the current zoom position. Each time a new correction factor is calculated, the previous correction factor is overwritten.

中間物体距離Diが、測定された第1の物体距離D1と中間補正係数ACFiとの積として計算される(S11)。中間ズーム位置での物体距離の計算は、以下の一般式を使用して記述することができる。

Figure 2018077457
The intermediate object distance Di is calculated as the product of the measured first object distance D1 and the intermediate correction coefficient ACFi (S11). The calculation of the object distance at the intermediate zoom position can be described using the following general formula:
Figure 2018077457

ここで、添え字kは前のズーム位置を意味し、添え字k+1は現在のズーム位置を意味し、添え字1は初期測定を意味する。   Here, the subscript k means the previous zoom position, the subscript k + 1 means the current zoom position, and the subscript 1 means the initial measurement.

この中間物体距離Diは、トレース曲線における中間合焦モータ位置AFiを見いだすために使用される(S12)。このようにして、合焦画像が、中間ズーム位置においても、時間のかかるコントラスト検出を実行する必要なしに提供され得る。   This intermediate object distance Di is used to find the intermediate focusing motor position AFi in the trace curve (S12). In this way, a focused image can be provided without having to perform time-consuming contrast detection even at intermediate zoom positions.

次いで、レンズは追加ズーム位置にズームされ、中間ズーム位置でのプロセスが繰り返される。したがって、追加ズーム位置の被写界深度DOFaが決定され、この追加被写界深度と中間被写界深度との間の比が計算される。補正係数が、追加補正係数ACFaを、中間補正係数ACFiと被写界深度比DOFa/DOFiとの積として計算することによって更新される。   The lens is then zoomed to the additional zoom position and the process at the intermediate zoom position is repeated. Accordingly, the depth of field DOFa at the additional zoom position is determined, and the ratio between this additional depth of field and the intermediate depth of field is calculated. The correction factor is updated by calculating the additional correction factor ACFa as the product of the intermediate correction factor ACFi and the depth of field ratio DOFa / DOFi.

追加物体距離Daが、測定された第1の物体距離D1と追加補正係数ACFiとの積として計算される。この追加物体距離Daは、トレース曲線における追加合焦モータ位置AFaを見いだすために使用される。このようにして、良好な合焦が、追加ズーム位置においても達成され得る。   The additional object distance Da is calculated as the product of the measured first object distance D1 and the additional correction factor ACFi. This additional object distance Da is used to find the additional in-focus motor position AFa in the trace curve. In this way, good focus can be achieved even at the additional zoom position.

第2のズーム位置が達せられる(S13)と、この第2のズーム位置の被写界深度DOF2が決定され(S14)、補正係数が、追加補正係数と、第2の被写界深度DOF2と追加被写界深度DOFaとの間の比との積を計算することによって更新される(S15)。第2の物体距離D2が、第2の補正係数ACF2と測定された第1の物体距離D1との積として計算される(S16)。この第2の物体距離は、トレース曲線における第2の合焦位置AF2を見いだすために使用される(S17)。この第2の合焦位置AF2を開始点として使用して、コントラスト検出アルゴリズムが、もう一度、第2のズーム位置における適切な合焦を見いだすために使用されてもよい。これは、第2の決定オートフォーカス位置を与えることになり、それは、第2のルックアップ物体距離D2’に対応することになる。補正係数は、今では、新しい補正係数ACFnewを、測定された第1の物体距離D1と第2のルックアップ物体距離D2’の比として計算することによって更新することができる。次いで、新しい補正係数を格納し、後でズームインおよびズームアウトするときに使用することができる。   When the second zoom position is reached (S13), the depth of field DOF2 of the second zoom position is determined (S14), the correction coefficient is the additional correction coefficient, and the second depth of field DOF2. Updated by calculating the product of the ratio with the additional depth of field DOFa (S15). The second object distance D2 is calculated as the product of the second correction coefficient ACF2 and the measured first object distance D1 (S16). This second object distance is used to find the second focus position AF2 in the trace curve (S17). Using this second focus position AF2 as a starting point, a contrast detection algorithm may be used once again to find a proper focus at the second zoom position. This will give a second determined autofocus position, which will correspond to a second lookup object distance D2 '. The correction factor can now be updated by calculating the new correction factor ACFnew as the ratio of the measured first object distance D1 and second lookup object distance D2 '. The new correction factor can then be stored and used later when zooming in and out.

ズーミングプロセスを、ここまで、第1のズーム位置から、中間ズーム位置および追加ズーム位置を介して、第2のズーム位置に行くとして説明したが、第1のズーム位置から第2のズーム位置までのズーム位置の距離が、非常に短いので、それらの間に、中間ズーム位置および追加ズーム位置などの他のズーム位置を有する画像フレームがないことになる事例があり得ることを理解すべきである。そのような事例では、方法は、第2の物体距離が、第1の物体距離D1と、第1の補正係数ACF1と、第2の被写界深度と第1の被写界深度の比DOF2/DOF1との積として計算されるものとして適応される。これは、例えば、低い出力フレームレートにおける非常に遅いズーミングの間に起こることがある。   The zooming process has been described so far as going from the first zoom position to the second zoom position via the intermediate zoom position and the additional zoom position, but from the first zoom position to the second zoom position. It should be understood that the distance between the zoom positions is so short that there may be instances where there are no image frames between them with other zoom positions, such as an intermediate zoom position and an additional zoom position. In such a case, the method is such that the second object distance is the first object distance D1, the first correction factor ACF1, and the ratio DOF2 between the second depth of field and the first depth of field. Adapted to be calculated as a product of / DOF1. This can occur, for example, during very slow zooming at low output frame rates.

発明の概要で述べたように、レンズは、ズーム位置の「テレ」範囲およびズーム位置の「ワイド」範囲で異なる補正係数の使用が必要になる挙動を示すことがある。一例として、この過渡的ズーム位置が、5xズームで生じることがある。ある補正係数を、ACFと呼ばれる「テレ」範囲で使用することがあり、別の補正係数を、ACFと呼ばれる「ワイド」範囲で使用することがある。これらの補正係数の両方は、上述と同じように計算されるが、各々は、過渡的ズーム位置のそれぞれの側のズーム位置間のズーミングのためのものである。 As stated in the Summary of the Invention, the lens may behave in a manner that requires the use of different correction factors in the “tele” range of the zoom position and the “wide” range of the zoom position. As an example, this transient zoom position may occur at 5x zoom. One correction factor may be used in a “tele” range called ACF T, and another correction factor may be used in a “wide” range called ACF W. Both of these correction factors are calculated in the same way as described above, but each is for zooming between zoom positions on each side of the transient zoom position.

オペレータが光景1の左のドア4をモニタする例にもう一度戻ると、ちょうど説明したように、カメラが第1のズーム位置から第2の位置までズームし終わっており、これらの2つのズーム位置の両方は過渡的ズーム位置の「テレ」側にある。出入口に現われた人の顔を調べた後、オペレータは、第3のズーム位置にズームアウトして左のドア4ならびに中央のドア5をモニタし、ただし合焦すべき物体までの距離を保持できるようにしたいと思う。人の顔にズームインされた第2のズーム位置から、わずかにワイドであるが依然として「テレ」側の第1のズーム位置にズームバックして、ちょうど説明したような同じプロセスが、ズーミング動作の間に合焦画像を得るために使用される。ズームアウトし続けると、レンズ20は過渡的ズーム位置を通り過ぎる。過渡的物体距離Dtを計算するために、過渡的ズーム位置の「ワイド」側に対する以前に格納された補正係数ACFが使用される。このワイド補正係数ACFは、上述と同じように、しかし、過渡的ズーム位置の「ワイド」側のズーム位置の被写界深度を用いて決定されている。 Returning again to the example where the operator monitors the left door 4 of the scene 1, as just described, the camera has zoomed from the first zoom position to the second position, and the two zoom positions are Both are on the “tele” side of the transient zoom position. After examining the face of the person appearing at the doorway, the operator can zoom out to the third zoom position and monitor the left door 4 as well as the central door 5, but keep the distance to the object to be focused on. I want to do so. Zooming back from the second zoom position zoomed into the person's face to the first zoom position slightly wider but still on the “tele” side, the same process just described is the same during the zooming operation. Used to obtain an in-focus image. If you continue to zoom out, the lens 20 passes through the transient zoom position. In order to calculate the transient object distance Dt, the previously stored correction factor ACF W for the “wide” side of the transient zoom position is used. The wide correction coefficient ACF W is determined in the same manner as described above, but using the depth of field at the zoom position on the “wide” side of the transient zoom position.

過渡的被写界深度DOFtが決定され、ワイド補正係数ACFは、以前に格納されたワイド補正係数と被写界深度比との積を計算することによって更新され、以下の計算式でより一般的に記述することができる。

Figure 2018077457
The transient depth of field DOFt is determined and the wide correction factor ACF W is updated by calculating the product of the previously stored wide correction factor and the depth of field ratio and is more general in the following formula: Can be described.
Figure 2018077457

類似して、過渡的ズーム位置の「テレ」側でズームする場合、テレ補正係数ACFは以下のように更新される。

Figure 2018077457
Similarly, when zooming in "tele" side of the transitional zoom position, tele correction factor ACF T is updated as follows.
Figure 2018077457

以前の通り、添え字kは前のズーム位置を意味し、添え字k+1は現在のズーム位置を意味する。   As before, the subscript k means the previous zoom position, and the subscript k + 1 means the current zoom position.

したがって、過渡的物体距離Dtは、更新されたワイド補正係数ACFと測定された第1の物体距離D1との積として計算される。以前と同じように、過渡的物体距離Dtは、トレース曲線における過渡的合焦モータ位置AFtを見いだすために使用される。 Thus, transient object distance Dt is calculated as the product of the first object distance D1, which is measured and updated wide correction coefficient ACF W. As before, the transient object distance Dt is used to find the transient focus motor position AFt in the trace curve.

カメラ2およびオートフォーカスモジュール30が初めて開始されるとき、オートフォーカスモジュール30は、各補正係数の値を1に、すなわち、ACF=1およびACF=1に設定することによって初期化される。新しい補正係数が、コントラストオートフォーカスアルゴリズムで決定された物体距離をレーザ距離測定システムで測定された物体距離で割ることによって計算されるとすぐに、対応する補正係数が新しい値で更新される。したがって、レンズが「ワイド」範囲のズーム位置に設定されている場合、ACFが更新され、一方、レンズが「テレ」範囲のズーム位置に設定されている場合、ACFが更新される。同様に、それぞれの補正係数ACFまたはACFは、上述のような連続するズーム位置における被写界深度間の比を使用して更新される。 When the camera 2 and the autofocus module 30 are started for the first time, the autofocus module 30 is initialized by setting the value of each correction coefficient to 1, that is, ACF W = 1 and ACF T = 1. As soon as a new correction factor is calculated by dividing the object distance determined with the contrast autofocus algorithm by the object distance measured with the laser distance measurement system, the corresponding correction factor is updated with the new value. Thus, if the lens is set to the “wide” range zoom position, the ACF W is updated, while if the lens is set to the “tele” range zoom position, the ACF T is updated. Similarly, each correction factor ACF W or ACF T is updated using the ratio between the depth of field at successive zoom positions as described above.

レンズコントローラは、中程度の物体距離から大きい物体距離において以下の計算式に従って被写界深度を決定することができ、

Figure 2018077457
ここで、Nは開口設定値またはFナンバであり、cは錯乱円であり、fは焦点距離であり、sは物体距離である。上述の説明では、焦点距離が詳細に論じられるのではなく、むしろズーム位置が論じられていることに留意することができる。しかしながら、これらの2つのパラメータは、ズームモータ位置の変化がレンズの焦点距離の変化を伴うので密接に関連している。 The lens controller can determine the depth of field according to the following formula at medium to large object distances:
Figure 2018077457
Here, N is an aperture setting value or F number, c is a circle of confusion, f is a focal length, and s is an object distance. It can be noted that in the above description, the focal length is not discussed in detail, but rather the zoom position is discussed. However, these two parameters are closely related because changes in the zoom motor position are accompanied by changes in the focal length of the lens.

クローズアップの場合、被写界深度は以下の計算式に従って決定することができ、

Figure 2018077457
ここで、mは倍率である。 For close-up, the depth of field can be determined according to the following formula:
Figure 2018077457
Here, m is a magnification.

異なるレンズ製造業者は、被写界深度の計算のためにわずかに異なる計算式を使用することがあるが、被写界深度を決定することができる限り、使用される計算式の正確さは、本発明のオートフォーカシング方式にとって重要ではないことに留意すべきである。   Different lens manufacturers may use slightly different formulas for depth of field calculations, but as long as the depth of field can be determined, the accuracy of the formula used is It should be noted that it is not important for the autofocusing scheme of the present invention.

当業者は上述の実施形態を多くの方法で変更し、上述の実施形態に示したような本発明の利点を依然として利用できることを理解されよう。一例として、本発明の方法が、カメラから一定距離にある物体へのズーミングとの関連で説明されたが、同じ原理は、物体距離が変化するようにカメラから遠ざかるかまたはカメラに近づく物体への一定不変のズームのために使用することができる。格納された同じ補正係数が物体距離にかかわらず使用されてもよく、または1つの補正係数がいくつかの物体距離の各々に対して格納されてもよい。手法の選択は、使用されるレンズのタイプに依存することができる。   Those skilled in the art will appreciate that the embodiments described above can be modified in many ways and still benefit from the advantages of the present invention as shown in the embodiments described above. As an example, the method of the present invention has been described in the context of zooming to an object at a distance from the camera, but the same principle applies to objects that move away from or approach the camera as the object distance changes. Can be used for constant zoom. The same stored correction factor may be used regardless of the object distance, or one correction factor may be stored for each of several object distances. The choice of approach can depend on the type of lens used.

さらに、上述の実施形態では、カメラは、カメラから合焦すべき物体までの距離を測定するために使用されるレーザ距離測定システムを備えているが、測定システムは、代わりに、例えば、レーダーまたは超音波を使用することができる。カメラに統合されていない別個の測定システムを使用することも可能である。簡単な測定システムとして、巻尺または測定ロッドを使用することができる。   Furthermore, in the above-described embodiments, the camera is equipped with a laser distance measuring system that is used to measure the distance from the camera to the object to be focused, but the measuring system can instead be e.g. Ultrasound can be used. It is also possible to use a separate measurement system that is not integrated in the camera. A tape measure or measuring rod can be used as a simple measuring system.

合焦すべき物体までの距離を実際に測定する代わりに、別の受動オートフォーカス方式を使用することができる。例えば、多分より信頼できる別のカメラで実行された同じアルゴリズムを、物理的に測定された距離の代わりに基準として使用することができる。代替として、別のオートフォーカスアルゴリズムを同じカメラで実行し、基準として使用することができる。これは、他のオートフォーカスアルゴリズムがより良好な結果を提供する場合有益であり得るが、より多くの時間または計算能力を要する。   Instead of actually measuring the distance to the object to be focused, another passive autofocus method can be used. For example, the same algorithm implemented with another camera, perhaps more reliable, can be used as a reference instead of a physically measured distance. Alternatively, another autofocus algorithm can be run on the same camera and used as a reference. This can be beneficial if other autofocus algorithms provide better results, but requires more time or computational power.

上述のように、カメラが新しいズーム位置に達したとき、被写界深度が決定される。しかしながら、方法のステップが実行される順序は重要ではない。例えば、第1のズーム位置から第2のズーム位置へのズーミング動作に備えて、第1のズーム位置と第2のズーム位置との間のいくつかの中間ズーム位置の被写界深度が、それらの中間ズーム位置が達せられる前に既に分かっているように、レンズコントローラから要請されることがある。   As described above, the depth of field is determined when the camera reaches a new zoom position. However, the order in which the method steps are performed is not important. For example, in preparation for zooming from the first zoom position to the second zoom position, the depth of field at some intermediate zoom positions between the first zoom position and the second zoom position It may be requested by the lens controller as already known before the intermediate zoom position is reached.

説明した例では、受動オートフォーカスアルゴリズムはコントラスト決定アルゴリズムである。他の受動オートフォーカスアルゴリズムを使用することができることを当業者は理解されよう。例えば、位相検出アルゴリズムを使用することができる。   In the example described, the passive autofocus algorithm is a contrast determination algorithm. One skilled in the art will appreciate that other passive autofocus algorithms can be used. For example, a phase detection algorithm can be used.

補正係数ACFが、最初に、コントラスト検出アルゴリズムで得られた合焦モータ位置に対応する物体距離とレーザ測定システムで測定された物体距離との間の比として計算されるとして説明された。物体距離および合焦モータ位置はトレース曲線により密接に連結しているので、コントラスト検出アルゴリズムで得られた合焦モータ位置と測定された物体距離に対応する合焦モータ位置との間の比として補正係数を計算することも可能であることを理解すべきである。   The correction factor ACF was first described as being calculated as the ratio between the object distance corresponding to the in-focus motor position obtained with the contrast detection algorithm and the object distance measured with the laser measurement system. Since the object distance and focus motor position are more closely linked by the trace curve, it is corrected as the ratio between the focus motor position obtained by the contrast detection algorithm and the focus motor position corresponding to the measured object distance. It should be understood that the coefficients can also be calculated.

レンズ製造業者からのトレース曲線は、望ましい方法でオートフォーカシング方式に実装することができる。例えば、トレース曲線上の離散的な点をルックアップテーブルに格納することができる。トレース曲線セットにそれ自体の曲線がない距離では、値を補間することができる。代替として、ルックアップテーブルを形成する代わりに、多項式の形態の関数が、各トレース曲線にフィットされ、物体距離とズームモータ位置と合焦モータ位置との間の関係を決定するために使用されてもよい。   Trace curves from lens manufacturers can be implemented in an autofocusing manner in any desired way. For example, discrete points on the trace curve can be stored in a lookup table. At distances where the trace curve set does not have its own curve, the values can be interpolated. Alternatively, instead of forming a lookup table, a function in the form of a polynomial is fitted to each trace curve and used to determine the relationship between object distance, zoom motor position and focus motor position Also good.

過渡的ズーム位置の一例として、5xズームを述べた。しかしながら、過渡的ズーム位置は、レンズタイプによって変わり得る。レンズによっては、1つを超える過渡的ズーム位置がある場合がある。いくつかのレンズでは、過渡的ズーム位置を越えるズーム位置のための以前に格納した補正係数を使用することなしに、更新された補正係数を計算し続けることも可能であり得る。レンズタイプによっては、過渡的ズーム位置がないことさえあり得る。特定のレンズタイプの挙動は、試験によって決定することができる。   As an example of the transient zoom position, 5x zoom has been described. However, the transient zoom position can vary depending on the lens type. Depending on the lens, there may be more than one transient zoom position. For some lenses, it may be possible to continue to calculate updated correction factors without using previously stored correction factors for zoom positions beyond the transient zoom position. Depending on the lens type, there may even be no transient zoom position. The behavior of a particular lens type can be determined by testing.

本発明をPTZカメラとの関連で説明したが、既に述べたように、固定ズームカメラも、PTヘッドに配置されるならば、PTZカメラとして機能することができる。さらに、本発明は、パニングおよびチルティングの能力がないが、ズームレンズをまたはより厳密に言えば可変焦点レンズを備えている、しばしば固定ボックスカメラと呼ばれる固定ズームカメラに等しく適用可能である。   Although the present invention has been described in the context of a PTZ camera, as already mentioned, a fixed zoom camera can also function as a PTZ camera if it is placed on the PT head. Furthermore, the present invention is equally applicable to fixed zoom cameras, often referred to as fixed box cameras, that do not have panning and tilting capabilities, but have zoom lenses or, more strictly speaking, variable focus lenses.

カメラは、モニタリングカメラとすることができる。それは、デジタルカメラまたはアナログカメラとすることができる。カメラは、可視光カメラ、IRカメラ、またはサーマルカメラなどの任意の種類のカメラとすることができる。   The camera can be a monitoring camera. It can be a digital camera or an analog camera. The camera can be any type of camera such as a visible light camera, an IR camera, or a thermal camera.

上述のように、カメラ2は、オートフォーカシングのための統合システムを形成する。しかしながら、そのようなシステムはまた、2つ以上の別個の構成要素から構成されてもよい。例えば、距離測定システムは、カメラに統合される必要はなく、別個に備えられてもよい。次いで、測定システムで測定された物体距離は、オートフォーカス方式での使用のためにオートフォーカスモジュールに供給されることになる。さらに、オートフォーカスモジュールは、カメラの外部に配置され、カメラに動作可能に接続されてもよい。さらなるオプションとして、距離測定システムおよびオートフォーカスモジュールは、共通ユニットに配置され、カメラに動作可能に接続されてもよい。   As described above, the camera 2 forms an integrated system for autofocusing. However, such a system may also be composed of two or more separate components. For example, the distance measurement system need not be integrated into the camera and may be provided separately. The object distance measured by the measurement system is then supplied to the autofocus module for use in the autofocus method. Further, the autofocus module may be disposed outside the camera and operably connected to the camera. As a further option, the distance measurement system and the autofocus module may be located in a common unit and operably connected to the camera.

本発明の概念を使用して、ズーミング動作の間に、または合焦すべき物体が一定不変のズーム位置のカメラから遠ざかっているかまたはカメラに近づいているとき、より速いオートフォーカシングを実行することが可能である。このように、受動オートフォーカスアルゴリズムが実行されるとき、ウォブリングがより少なく、受動オートフォーカスアルゴリズムの使用の間のフレームに対してより良好な合焦が達成され得る。補正係数が連続的に更新されるので、例えば、周囲温度変化によってまたはレンズの経時変化によって引き起こされるレンズの挙動の変化を補償することができる。さらに、補正係数をモニタすることができ、補正係数の一方または両方が所定の閾値よりも大きくなる場合、警報事象を発生させることができる。これにより、レンズが再較正されるか、保守点検されるか、またはさらに取り替えられる必要があることを示すことができる。   Using the concepts of the present invention, faster autofocusing can be performed during zooming operations or when the object to be focused is away from or approaching the camera at a constant zoom position. Is possible. In this way, when the passive autofocus algorithm is executed, there is less wobbling and better focus can be achieved for frames during use of the passive autofocus algorithm. Since the correction factor is continuously updated, it is possible to compensate for changes in lens behavior caused by, for example, ambient temperature changes or lens aging. Further, the correction factor can be monitored and an alarm event can be generated if one or both of the correction factors is greater than a predetermined threshold. This can indicate that the lens needs to be recalibrated, serviced, or further replaced.

したがって、本発明は、示した実施形態に限定されるべきでなく、添付された特許請求範囲によってのみ規定されるべきである。   Accordingly, the invention should not be limited to the illustrated embodiments, but should be defined only in accordance with the appended claims.

Claims (12)

ズーミング動作の間にカメラをオートフォーカスする方法であって、前記カメラがズームレンズを備え、前記方法が、
前記レンズを第1のズーム位置にズームすることと、
前記カメラから合焦すべき物体までの第1の物体距離を測定することと、
前記第1の物体距離を使用し、かつ、物体距離とズーム位置と合焦位置との間の関係を使用して、第1の合焦開始位置を決定することと、
受動オートフォーカスアルゴリズムを使用し、かつ、前記第1の合焦開始位置を前記アルゴリズムの開始点として使用して、第1のオートフォーカシング動作を実行し、それによって、第1の決定合焦位置を決定することと、
第1のルックアップ物体距離を前記第1の決定合焦位置に基づいて決定することと、
前記第1のルックアップ物体距離と前記第1の物体距離との間の比として第1の補正係数を計算することと、
前記第1のズーム位置の第1の被写界深度を決定することと、
前記レンズを第2のズーム位置にズームすることと、
前記第2のズーム位置の第2の被写界深度を決定することと、
前記第1の補正係数と、前記第2の被写界深度と前記第1の被写界深度との間の比との積として、第2の補正係数を計算することと、
前記第1の物体距離と前記第2の補正係数との積として第2の物体距離を計算することと、
前記第2の物体距離を使用し、かつ、物体距離とズーム位置と合焦位置との間の前記関係を使用して、第2の合焦位置を決定することと
を含む、方法。
A method for autofocusing a camera during a zooming operation, the camera comprising a zoom lens, the method comprising:
Zooming the lens to a first zoom position;
Measuring a first object distance from the camera to the object to be focused;
Determining a first focus start position using the first object distance and using a relationship between the object distance, the zoom position and the focus position;
A first autofocusing operation is performed using a passive autofocus algorithm and using the first focus start position as the start point of the algorithm, thereby determining a first determined focus position. To decide,
Determining a first lookup object distance based on the first determined focus position;
Calculating a first correction factor as a ratio between the first lookup object distance and the first object distance;
Determining a first depth of field at the first zoom position;
Zooming the lens to a second zoom position;
Determining a second depth of field at the second zoom position;
Calculating a second correction factor as a product of the first correction factor and a ratio between the second depth of field and the first depth of field;
Calculating a second object distance as a product of the first object distance and the second correction factor;
Using the second object distance and determining the second focus position using the relationship between the object distance, the zoom position and the focus position.
前記受動オートフォーカスアルゴリズムを使用し、かつ、前記第2の合焦位置を前記アルゴリズムの開始点として使用して、第2のオートフォーカシング動作を実行し、それによって、第2の決定合焦位置を決定することと、
第2のルックアップ物体距離を前記第2の決定合焦位置に基づいて決定することと、
前記第2のルックアップ物体距離と前記第1の物体距離との間の比として新しい補正係数を計算することと
をさらに含む、請求項1に記載の方法。
A second autofocusing operation is performed using the passive autofocus algorithm and the second focus position as a starting point of the algorithm, thereby determining a second determined focus position. To decide,
Determining a second lookup object distance based on the second determined focus position;
The method of claim 1, further comprising calculating a new correction factor as a ratio between the second lookup object distance and the first object distance.
前記第1のズーム位置と前記第2のズーム位置との間の中間ズーム位置に前記レンズをズームすることと、
前記中間ズーム位置の中間被写界深度を決定することと、
前記第1の補正係数と、前記中間被写界深度と前記第1の被写界深度との間の比との積として、中間補正係数を計算することと、
前記第1の物体距離と前記中間補正係数との積として中間物体距離を計算することと、
前記中間物体距離を使用して中間合焦位置を決定することと
をさらに含む、請求項1または2に記載の方法。
Zooming the lens to an intermediate zoom position between the first zoom position and the second zoom position;
Determining an intermediate depth of field at the intermediate zoom position;
Calculating an intermediate correction factor as a product of the first correction factor and a ratio between the intermediate depth of field and the first depth of field;
Calculating an intermediate object distance as a product of the first object distance and the intermediate correction factor;
The method of claim 1, further comprising determining an intermediate focus position using the intermediate object distance.
前記受動オートフォーカスアルゴリズムを使用し、かつ、前記中間合焦位置を前記アルゴリズムの開始点として使用して、中間オートフォーカシング動作を実行し、それによって、中間決定合焦位置を決定すること
をさらに含む、請求項3に記載の方法。
Further comprising performing an intermediate autofocusing operation using the passive autofocus algorithm and using the intermediate focus position as a starting point of the algorithm, thereby determining an intermediate determined focus position. The method according to claim 3.
中間ルックアップ物体距離を前記中間決定合焦位置に基づいて決定することと、前記中間ルックアップ物体距離と前記第1の物体距離との間の比として新しい中間補正係数を計算することと
をさらに含む、請求項4に記載の方法。
Determining an intermediate lookup object distance based on the intermediate determined focus position, and calculating a new intermediate correction factor as a ratio between the intermediate lookup object distance and the first object distance The method of claim 4 comprising.
被写界深度が、前記レンズを制御するレンズコントローラからの要請によって決定される、請求項1から5のいずれか一項に記載の方法。   The method according to claim 1, wherein a depth of field is determined by a request from a lens controller that controls the lens. 所定の過渡的ズーム位置において、以前に格納された補正係数が使用され、
前記以前に格納された補正係数が、前記第1のズーム位置と前記過渡的ズーム位置との間のズーム位置の被写界深度に基づく代わりに、前記過渡的ズーム位置と、前記第2のズーム位置を越えている第3のズーム位置との間のズーム位置の被写界深度に基づいている、請求項1から6のいずれか一項に記載の方法。
At a given transient zoom position, the previously stored correction factor is used,
Instead of the previously stored correction factor being based on the depth of field of the zoom position between the first zoom position and the transient zoom position, the transient zoom position and the second zoom 7. A method according to any one of the preceding claims, wherein the method is based on a depth of field at a zoom position between a third zoom position beyond the position.
前記カメラから、合焦すべき前記物体までの前記第1の物体距離を測定することが、前記カメラに備えられた距離測定システムを使用して実行される、請求項1から7のいずれか一項に記載の方法。   The measurement of the first object distance from the camera to the object to be focused is performed using a distance measurement system provided in the camera. The method according to item. ズーミング動作の間にカメラをオートフォーカスするためのオートフォーカスシステムであって、
カメラと、
前記カメラから合焦すべき物体までの第1の物体距離を測定するように配置された距離測定システムと、
請求項1から8のいずれか一項に記載の方法を実行するように配置されたオートフォーカスモジュールと
を備える、オートフォーカスシステム。
An autofocus system for autofocusing a camera during zooming operation,
A camera,
A distance measuring system arranged to measure a first object distance from the camera to the object to be focused;
An autofocus system comprising an autofocus module arranged to perform the method according to any one of claims 1-8.
ズームレンズと請求項1から8のいずれか一項に記載の方法を実行するように配置されたオートフォーカスモジュールとを備えるカメラ。   A camera comprising a zoom lens and an autofocus module arranged to carry out the method according to claim 1. 前記カメラから合焦すべき前記物体までの前記第1の物体距離を測定するように配置された統合物体距離測定システム
をさらに備える、請求項10に記載のカメラ。
The camera of claim 10, further comprising an integrated object distance measurement system arranged to measure the first object distance from the camera to the object to be focused.
プロセッサによって実行されたとき請求項1から8のいずれか一項に記載の方法を実行するように構成された命令をもつコンピュータ可読記憶媒体を含むコンピュータプログラム製品。   A computer program product comprising a computer readable storage medium having instructions configured to perform the method of any one of claims 1 to 8 when executed by a processor.
JP2017169227A 2016-09-15 2017-09-04 Method for performing autofocus, autofocus system, and camera comprising an autofocus module Active JP6537568B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16189024.9A EP3296788B1 (en) 2016-09-15 2016-09-15 Method of performing autofocus, autofocus system, and camera comprising an autofocus module
EP16189024.9 2016-09-15

Publications (3)

Publication Number Publication Date
JP2018077457A true JP2018077457A (en) 2018-05-17
JP2018077457A5 JP2018077457A5 (en) 2018-11-01
JP6537568B2 JP6537568B2 (en) 2019-07-03

Family

ID=56936366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017169227A Active JP6537568B2 (en) 2016-09-15 2017-09-04 Method for performing autofocus, autofocus system, and camera comprising an autofocus module

Country Status (6)

Country Link
US (1) US10324268B2 (en)
EP (1) EP3296788B1 (en)
JP (1) JP6537568B2 (en)
KR (1) KR101943564B1 (en)
CN (1) CN107835357B (en)
TW (1) TWI680339B (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10073239B1 (en) * 2017-05-15 2018-09-11 Omnivision Technologies, Inc. Dual photodiode for phase detection autofocus
CN108259760B (en) * 2018-03-22 2020-05-26 浙江大华技术股份有限公司 Zoom focusing compensation method and device for dome camera
CN110557547B (en) * 2018-05-30 2021-06-08 北京小米移动软件有限公司 Lens position adjusting method and device
WO2020019261A1 (en) * 2018-07-26 2020-01-30 深圳市瑞尔幸电子有限公司 Laser range finder for common optical path digital imaging
CN208836252U (en) * 2018-09-26 2019-05-07 深圳市大疆创新科技有限公司 Camera and unmanned plane
CN109218624B (en) * 2018-11-15 2020-10-13 中国科学院光电技术研究所 Temperature focusing compensation method of photoelectric tracking system
KR20200091197A (en) 2019-01-22 2020-07-30 엘지이노텍 주식회사 Camera device and autofocusing method of the same
CN111314602B (en) * 2020-02-17 2021-09-17 浙江大华技术股份有限公司 Target object focusing method, target object focusing device, storage medium and electronic device
CN113382155B (en) * 2020-03-10 2023-02-28 浙江宇视科技有限公司 Automatic focusing method, device, equipment and storage medium
CN111880283A (en) * 2020-08-24 2020-11-03 长春通视光电技术有限公司 Control system of zoom optical system
US11611707B2 (en) 2021-05-24 2023-03-21 Anduril Industries, Inc. Auto-focus tracking for remote flying targets
US11606492B2 (en) * 2021-05-24 2023-03-14 Anduril Industries, Inc. Auto-focus acquisition for remote flying targets

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5384615A (en) * 1993-06-08 1995-01-24 Industrial Technology Research Institute Ambient depth-of-field simulation exposuring method
JP2001281529A (en) * 2000-03-29 2001-10-10 Minolta Co Ltd Digital camera
US7733412B2 (en) * 2004-06-03 2010-06-08 Canon Kabushiki Kaisha Image pickup apparatus and image pickup method
JP4552974B2 (en) * 2007-06-22 2010-09-29 カシオ計算機株式会社 Camera device, focus control method and program
JP5098714B2 (en) * 2008-03-12 2012-12-12 株式会社ニコン Ranging device and imaging device
CN101552911B (en) * 2009-04-14 2012-09-26 重庆市海普软件产业有限公司 A remote outdoor monitoring apparatus and automatic monitoring control method
JP2011118021A (en) * 2009-12-01 2011-06-16 Canon Inc Imaging device and method for controlling the same

Also Published As

Publication number Publication date
US10324268B2 (en) 2019-06-18
TW201814387A (en) 2018-04-16
US20180074287A1 (en) 2018-03-15
KR20180030437A (en) 2018-03-23
EP3296788B1 (en) 2018-08-22
KR101943564B1 (en) 2019-01-29
CN107835357B (en) 2019-11-26
JP6537568B2 (en) 2019-07-03
TWI680339B (en) 2019-12-21
CN107835357A (en) 2018-03-23
EP3296788A1 (en) 2018-03-21

Similar Documents

Publication Publication Date Title
JP6537568B2 (en) Method for performing autofocus, autofocus system, and camera comprising an autofocus module
JP6245885B2 (en) Imaging apparatus and control method thereof
KR102510704B1 (en) Imaging apparatus
US20080297648A1 (en) Focus detection apparatus
WO2015050008A1 (en) Imaging device and method for operating imaging device
JP6447840B2 (en) Image device, method for automatic focusing in an image device, and corresponding computer program
JP2008165142A (en) Photographing apparatus and focusing method
US20190273860A1 (en) Imaging device, control method of imaging device, and recording medium storing focus adjustment program
JP2020046637A (en) Control device, image capturing device, control method, and program
JP6432038B2 (en) Imaging device
JP2017173480A (en) Focus controller, imaging apparatus, and focus control method
JP2014202771A (en) Imaging apparatus and method for controlling the same
JP7271353B2 (en) Imaging device and wavelength acquisition method
JP2013076823A (en) Image processing apparatus, endoscope system, image processing method, and program
JP5454392B2 (en) Ranging device and imaging device
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP2016024315A5 (en)
JP6639151B2 (en) Imaging control device, imaging device, and imaging control program
JP2014160186A (en) Focus detection device and imaging device
TWI554098B (en) Video recording device and associated video recording method
JP6429724B2 (en) Imaging apparatus and control method thereof
JP2019061228A (en) Control device, imaging device, control method, and program
JP2019219529A (en) Control device, imaging device, control method, program, and storage medium
US20240155238A1 (en) Imaging control apparatus, imaging control method, and storage medium
JP6984003B2 (en) Surveillance camera system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180918

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180918

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180918

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190604

R150 Certificate of patent or registration of utility model

Ref document number: 6537568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250