JP2013130827A - Lens control device - Google Patents

Lens control device Download PDF

Info

Publication number
JP2013130827A
JP2013130827A JP2011282056A JP2011282056A JP2013130827A JP 2013130827 A JP2013130827 A JP 2013130827A JP 2011282056 A JP2011282056 A JP 2011282056A JP 2011282056 A JP2011282056 A JP 2011282056A JP 2013130827 A JP2013130827 A JP 2013130827A
Authority
JP
Japan
Prior art keywords
lens
lens unit
focus
correction
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011282056A
Other languages
Japanese (ja)
Inventor
Hideyasu Motomiya
英育 本宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011282056A priority Critical patent/JP2013130827A/en
Publication of JP2013130827A publication Critical patent/JP2013130827A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Lens Barrels (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a lens control device that reduces occurrence of an image blur during zooming.SOLUTION: The lens control device that controls the drive of a second lens unit 105 in order to correct the movement of an image surface when a first lens unit 102 for varying power is moved comprises: storage means 120 storing data indicating the position of the second lens unit according to the position of the first lens unit, which data are created for a predetermined focal distance; control means 119 (116) configured to create information for controlling the drive of the second lens unit on the basis of the data, and to control the drive of the second lens unit on the basis of this information; distance detecting means 127 for detecting the distance of a focused object; and determination means for determining whether the limit of the range of the information is applied or not. According to photographing information and information about the operation state of the lens device, the determination means determines whether the limit of the range of the information is applied or not.

Description

本発明は、ビデオカメラ等の光学機器に用いられるレンズを制御するレンズ制御装置に関する。   The present invention relates to a lens control device that controls a lens used in an optical apparatus such as a video camera.

特許文献1には、コントラスト方式で映像信号の高周波成分から得られるAF評価値信号(鮮鋭度信号)を用いて、ズームレンズの移動(変倍)の際に、フォーカスレンズを合焦位置よりピントをずらすように強制的に移動させる構成が開示されている。また特許文献1には、フォーカスレンズを合焦方向に向かうように切換え移動させる(軌跡に対する追従速度を変化させる)制御を繰り返し行う制御方法(ジグザグ動作)が開示されている。これにより、追従軌跡が補正される。   In Patent Document 1, an AF evaluation value signal (sharpness signal) obtained from a high-frequency component of a video signal by a contrast method is used to focus the focus lens from the in-focus position when the zoom lens is moved (magnification). A configuration for forcibly moving so as to shift is disclosed. Further, Patent Document 1 discloses a control method (zigzag operation) in which the focus lens is switched and moved so as to be in the in-focus direction (changes the tracking speed with respect to the trajectory). As a result, the tracking locus is corrected.

しかしながら、AF評価値は像のぼけ状態によって変化するだけでなく、被写体の絵柄変化によっても変化するため、追従軌跡の補正範囲は広範囲に設定されている。ところが、広い補正範囲が設定されている場合、本来の追従すべき軌跡から外れてしまうと、再び正しい軌跡に戻るまでに像ぼけが発生する。   However, since the AF evaluation value not only changes depending on the blurred state of the image, but also changes depending on the change in the pattern of the subject, the correction range of the tracking locus is set in a wide range. However, when a wide correction range is set, if the trajectory deviates from the original trajectory to follow, image blurring occurs before returning to the correct trajectory again.

そこで特許文献2には、検出した合焦対象物までの距離に基づいてレンズユニットの移動範囲を制限するズーム制御方法が開示されている。このズーム制御方法においては、検出した合焦対象物までの距離に基づいて追従軌跡の補正範囲を設定することで、レンズユニットの移動範囲を制限する。このため、本来の追従すべき軌跡から外れた距離情報が生成されることを回避でき、ズーミング中の像ぼけの発生を低減させることが可能となる。   Therefore, Patent Document 2 discloses a zoom control method for limiting the movement range of the lens unit based on the detected distance to the in-focus object. In this zoom control method, the movement range of the lens unit is limited by setting the correction range of the tracking locus based on the detected distance to the in-focus object. For this reason, it is possible to avoid the generation of distance information that deviates from the original locus to be followed, and to reduce the occurrence of image blur during zooming.

特許第2795439号公報Japanese Patent No. 2795439 特開2010−164680号公報JP 2010-164680 A

しかしながら、特許文献2のズーム制御方法では、撮影条件を考慮せずに全ての場合においてその移動範囲を制限している。このため、撮影条件によっては、レンズユニットの移動範囲の制限が適切でない場合がある。このように不適切な移動範囲の制限を行うと、ズーミング中に像ぼけが発生してしまう。   However, in the zoom control method of Patent Document 2, the movement range is limited in all cases without taking the photographing conditions into consideration. For this reason, depending on the photographing conditions, there is a case where the restriction on the movement range of the lens unit is not appropriate. If the movement range is improperly limited in this way, image blur occurs during zooming.

そこで本発明は、ズーミング中の像ぼけの発生を低減させるレンズ制御装置を提供する。   Therefore, the present invention provides a lens control device that reduces the occurrence of image blur during zooming.

本発明の一側面としてのレンズ制御装置は、変倍用の第1レンズユニットおよび焦点調節用の第2レンズユニットの移動を制御するレンズ制御装置であって、所定の被写体距離ごとに作成された、前記第1レンズユニットの位置と前記第2レンズユニットの位置との関係を示すデータを記憶した記憶手段と、前記データに基づいて、前記第2レンズユニットの移動を制御するための情報を生成し、前記第1レンズユニットの移動に伴う該第2レンズユニットの移動を制御する制御手段と、前記被写体距離に対応する情報を検出する検出手段とを有し、前記制御手段は、前記被写体距離に対応する前記情報および撮影条件に応じて前記第2レンズユニットの移動範囲を変更する。   A lens control device according to one aspect of the present invention is a lens control device that controls movement of a first lens unit for zooming and a second lens unit for focus adjustment, and is created for each predetermined subject distance. , Storing means for storing data indicating the relationship between the position of the first lens unit and the position of the second lens unit, and generating information for controlling the movement of the second lens unit based on the data And control means for controlling movement of the second lens unit accompanying movement of the first lens unit, and detection means for detecting information corresponding to the subject distance, wherein the control means comprises the subject distance The movement range of the second lens unit is changed according to the information corresponding to the above and the shooting conditions.

本発明の他の目的及び特徴は、以下の実施例において説明される。   Other objects and features of the present invention are illustrated in the following examples.

本発明によれば、ズーミング中の像ぼけの発生を低減させるレンズ制御装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the lens control apparatus which reduces generation | occurrence | production of the image blur during zooming can be provided.

実施例1におけるレンズ制御装置を搭載した撮像装置(光学機器)の構成図である。1 is a configuration diagram of an imaging device (optical apparatus) equipped with a lens control device in Embodiment 1. FIG. 実施例1におけるカム軌跡の補正範囲を示す概念図である。It is a conceptual diagram which shows the correction range of the cam locus | trajectory in Example 1. FIG. 実施例1におけるレンズ制御装置のズーム制御のフローチャートである。3 is a flowchart of zoom control of the lens control device in Embodiment 1. 本実施例におけるズーム制御のフローチャートである。It is a flowchart of the zoom control in a present Example. 本実施例におけるズーム制御のフローチャートである。It is a flowchart of the zoom control in a present Example. 本実施例におけるズーム制御のフローチャートである。It is a flowchart of the zoom control in a present Example. 本実施例におけるズーム制御のフローチャートである。It is a flowchart of the zoom control in a present Example. 本実施例において、被写体距離に応じた合焦軌跡を示す概念図である。In this embodiment, it is a conceptual diagram showing a focus locus according to the subject distance. 本実施例において、インナーフォーカスタイプのレンズシステムにおけるフォーカスレンズの軌跡追従方法の説明図である。In this example, it is explanatory drawing of the locus | trajectory tracking method of the focus lens in the lens system of an inner focus type. 本実施例において、ズームレンズの移動方向における内挿方法の説明図である。In this example, it is explanatory drawing of the interpolation method in the moving direction of a zoom lens. 本実施例において、マイクロコンピュータに予め記憶されている合焦軌跡情報のテーブルデータの一例である。In this embodiment, it is an example of table data of in-focus locus information stored in advance in a microcomputer. 本実施例における軌跡追従方法の説明図である。It is explanatory drawing of the locus | trajectory tracking method in a present Example. 本実施例において、補正量パラメータδに応じた補正速度Vf+、Vf−の算出方法の説明図である。In this example, it is explanatory drawing of the calculation method of correction speed Vf + and Vf- according to correction amount parameter (delta). 実施例1における三角測距方式による距離測定の説明図である。It is explanatory drawing of the distance measurement by the triangulation system in Example 1. FIG. 実施例1における位相差検出方式による距離測定の説明図である。It is explanatory drawing of the distance measurement by the phase difference detection system in Example 1. FIG. 実施例1におけるレンズ制御装置が補正範囲の適用可否を判定するフローチャートである。5 is a flowchart for determining whether or not a correction range can be applied by the lens control device according to the first exemplary embodiment.

以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each figure, the same members are denoted by the same reference numerals, and redundant description is omitted.

まず、本実施例における概略的事項について説明する。図9は、インナーフォーカスタイプのレンズシステムにおけるフォーカスレンズの軌跡追従方法の説明図である。図9において、Z0、Z1、Z2、…、Z6はズームレンズの位置を示し、a0、a1、a2、…、a6およびb0、b1、b2、…、b6は、不図示のマイクロコンピュータに予め記憶されている被写体距離に応じたフォーカスレンズの位置を示す。これらのフォーカスレンズ位置の集合体(a0、a1、a2、…、a6およびb0、b1、b2、…、b6)が、代表的な被写体距離ごとのフォーカスレンズが追従すべき合焦軌跡(代表軌跡)となる。   First, schematic items in the present embodiment will be described. FIG. 9 is an explanatory diagram of a locus tracking method of the focus lens in the inner focus type lens system. 9, Z0, Z1, Z2,..., Z6 indicate zoom lens positions, and a0, a1, a2,..., A6 and b0, b1, b2,..., B6 are stored in advance in a microcomputer (not shown). The position of the focus lens according to the subject distance is shown. A set of focus lens positions (a0, a1, a2,..., A6 and b0, b1, b2,..., B6) is a focus locus (representative locus) that the focus lens should follow for each representative subject distance. )

また、p0、p1、p2、…、p6は、上記2つの代表軌跡に基づいて算出された、フォーカスレンズが追従すべき合焦軌跡上の位置である。この合焦軌跡上の位置P(n+1)は、以下の式(1)で表される。   Further, p0, p1, p2,..., P6 are positions on the in-focus locus that should be followed by the focus lens, calculated based on the two representative loci. The position P (n + 1) on the in-focus locus is expressed by the following expression (1).

p(n+1)=|p(n)−a(n)|/|b(n)−a(n)|×|b(n+1)−a(n+1)|+a(n+1) … (1)
上記の式(1)によれば、例えば図9においてフォーカスレンズが位置p0にある場合、位置p0が線分b0−a0を内分する比を求め、 この比に従って線分b1−a1を内分する点を位置p1とする。この位置差p1−p0と、ズームレンズが位置Z0からZ1まで移動するのに要する時間とから、合焦を保つためのフォーカスレンズの移動速度が得られる。
p (n + 1) = | p (n) −a (n) | / | b (n) −a (n) | × | b (n + 1) −a (n + 1) | + a (n + 1) (1)
According to the above equation (1), for example, when the focus lens is at the position p0 in FIG. 9, the ratio at which the position p0 internally divides the line segment b0-a0 is obtained, and the line segment b1-a1 is internally divided according to this ratio. A point to be set is a position p1. From this position difference p1−p0 and the time required for the zoom lens to move from the position Z0 to Z1, the moving speed of the focus lens for maintaining focus can be obtained.

次に、ズームレンズの停止位置が、記憶された代表軌跡データを有するズームエリアの境界上のみという制限がないとした場合について説明する。図10は、ズームレンズの移動方向における内挿方法の説明図であり、図9の一部を抽出してズームレンズの位置を任意としたものである。   Next, a case where there is no restriction that the stop position of the zoom lens is only on the boundary of the zoom area having the stored representative trajectory data will be described. FIG. 10 is an explanatory diagram of an interpolation method in the moving direction of the zoom lens, in which a part of FIG. 9 is extracted to arbitrarily set the position of the zoom lens.

図10において、縦軸はフォーカスレンズの位置、横軸はズームレンズの位置を示している。ズームレンズの位置をZ0、Z1、…、Zk−1、Zk、…、Znとしたとき、フォーカスレンズ位置を被写体距離別に、a0、a1、…、ak−1、…、ak、…an、および、b0、b1、…、bk−1、bk、…、bnとする。これらの関係は、マイクロコンピュータに記憶されている。   In FIG. 10, the vertical axis indicates the position of the focus lens, and the horizontal axis indicates the position of the zoom lens. When the zoom lens positions are Z0, Z1,..., Zk-1, Zk,..., Zn, the focus lens positions are a0, a1,. , B0, b1, ..., bk-1, bk, ..., bn. These relationships are stored in the microcomputer.

ここで、ズームレンズがズームエリア境界上でない位置Zxにあり、フォーカスレンズが位置pxにある場合、位置ax、bxはそれぞれ以下の式(2)、(3)のように表される。   Here, when the zoom lens is at a position Zx that is not on the boundary of the zoom area and the focus lens is at the position px, the positions ax and bx are expressed by the following equations (2) and (3), respectively.

ax=ak−(Zk−Zx)×(ak−ak−1)/(Zk−Zk−1) … (2)
bx=bk−(Zk−Zx)×(bk−bk−1)/(Zk−Zk−1) … (3)
すなわち、位置ax、bxは、現在のズームレンズ位置とそれを挟む2つのズームエリア境界位置(例えば、図10におけるZkとZk−1)とから得られる内分比に従って求められる。より具体的には、位置ax、bxは、マイクロコンピュータに記憶されている4つの代表軌跡データ(図10中の位置ak、ak−1、bk、bk−1)のうち同一被写体距離のものを上述の内分比で内分することにより求められる。そして、 位置ax、px、bxから得られる内分比に従い、マイクロコンピュータに予め記憶されている上記4つの代表データのうち、同一焦点距離のものを式(1)のように上述の内分比で内分することにより、位置pk、pk−1を求めることができる。
ax = ak− (Zk−Zx) × (ak−ak−1) / (Zk−Zk−1) (2)
bx = bk− (Zk−Zx) × (bk−bk−1) / (Zk−Zk−1) (3)
That is, the positions ax and bx are obtained according to the internal ratio obtained from the current zoom lens position and two zoom area boundary positions (for example, Zk and Zk-1 in FIG. 10). More specifically, the positions ax and bx are those of the same subject distance among the four representative trajectory data (positions ak, ak-1, bk, bk-1 in FIG. 10) stored in the microcomputer. It is calculated | required by dividing internally with the above internal ratio. Then, according to the internal ratio obtained from the positions ax, px, bx, among the above four representative data stored in advance in the microcomputer, those having the same focal length are represented by the above-described internal ratio as shown in Equation (1). The positions pk and pk-1 can be obtained by dividing internally by.

そして、ワイドからテレへのズーム時には、追従移動先のフォーカス位置pkおよび現在のフォーカス位置pxの差と、ズームレンズが位置Zxから位置Zkまで移動するのに要する時間とから、合焦を保つために必要なフォーカスレンズの移動速度が得られる。一方、テレからワイドへのズーム時には、追従移動先のフォーカス位置pk−1および現在のフォーカス位置Pxの差と、ズームレンズが位置Zxから位置Zk−1まで移動するのに要する時間とから、合焦を保つためのフォーカスレンズの移動速度が得られる。   When zooming from wide to tele, in order to keep the focus from the difference between the focus position pk of the follow-up movement destination and the current focus position px and the time required for the zoom lens to move from the position Zx to the position Zk. It is possible to obtain the moving speed of the focus lens necessary for the operation. On the other hand, when zooming from tele to wide, the difference between the focus position pk-1 of the follow-up movement destination and the current focus position Px and the time required for the zoom lens to move from the position Zx to the position Zk-1 are combined. The moving speed of the focus lens for maintaining the focus can be obtained.

図11は、マイクロコンピュータに予め記憶されている合焦軌跡情報のテーブルデータの一例である。図11は、ズームレンズ位置により変化する、被写体距離別のフォーカスレンズ位置データA(n、v)を示している。 変数nの列方向に被写体距離、変数vの行方向にズームレンズ位置(焦点距離)が変化している。ここでは、n=0が無限遠の被写体距離を表し、nが大きくなるに従って被写体距離は最至近距離側に変化する。n=mは1cmの被写体距離を示す。一方、v=0はワイド端を表す。さらに、vが大きくなるに従って焦点距離が増し、v=sがテレ端のズームレンズ位置を表している。従って、1列のテーブルデータで1本の代表軌跡が描かれることになる。   FIG. 11 is an example of table data of in-focus locus information stored in advance in the microcomputer. FIG. 11 shows focus lens position data A (n, v) for each subject distance, which varies depending on the zoom lens position. The subject distance changes in the column direction of the variable n, and the zoom lens position (focal length) changes in the row direction of the variable v. Here, n = 0 represents a subject distance at infinity, and the subject distance changes to the closest distance side as n increases. n = m represents a subject distance of 1 cm. On the other hand, v = 0 represents the wide end. Furthermore, the focal length increases as v increases, and v = s represents the zoom lens position at the tele end. Therefore, one representative trajectory is drawn with one column of table data.

次に、図12を参照して、ワイドからテレ方向におけるズーミング時にフォーカスレンズが辿るべき軌跡が判別できなくなる問題を解消するための軌跡追従方法について説明する。図12(A)、(B)において、横軸は変倍レンズ(ズームレンズ)の位置を示している。また、図12(A)において、縦軸はTV−AF方式により撮像信号から得られるAF評価信号を示す。このAF評価信号は、撮像信号の高周波成分(鮮鋭度信号)のレベルを表している。また図12(B)において、横軸はフォーカスレンズの位置を示す。図12(B)において、1304は、ある距離に位置する被写体に対して合焦を得ながらズーミングを行う際にフォーカスレンズが辿るべきカム軌跡(フォーカスレンズ位置の集合体)であり、フォーカスレンズの目標軌跡を示す。   Next, with reference to FIG. 12, a trajectory tracking method for solving the problem that the trajectory to be followed by the focus lens during zooming in the telephoto direction from wide can be solved. 12A and 12B, the horizontal axis indicates the position of the variable magnification lens (zoom lens). In FIG. 12A, the vertical axis indicates the AF evaluation signal obtained from the image pickup signal by the TV-AF method. This AF evaluation signal represents the level of the high-frequency component (sharpness signal) of the imaging signal. In FIG. 12B, the horizontal axis indicates the position of the focus lens. In FIG. 12B, reference numeral 1304 denotes a cam locus (collection of focus lens positions) that the focus lens should follow when performing zooming with respect to a subject located at a certain distance. Indicates the target trajectory.

ここで、ズームレンズの位置1306(位置Z14)よりもワイド側での合焦軌跡追従のための標準移動速度を正(フォーカスレンズ至近方向に移動)とする。また、位置1306よりもテレ側でフォーカスレンズが無限遠方向に移動する際の合焦軌跡追従のための標準移動速度を負とする。合焦を維持しながらフォーカスレンズが目標軌跡1304を辿るとき、AF評価信号の大きさは、図12(A)に最大値1301として示されるレベルとなる。一般に、合焦を維持したズーミングでは、AF評価信号レベルはほぼ一定値となる。   Here, the standard moving speed for tracking the in-focus locus on the wide side from the zoom lens position 1306 (position Z14) is positive (moves in the direction closer to the focus lens). Further, the standard moving speed for tracking the in-focus locus when the focus lens moves in the infinity direction on the telephoto side from the position 1306 is set to be negative. When the focus lens follows the target locus 1304 while maintaining the in-focus state, the magnitude of the AF evaluation signal becomes a level indicated as the maximum value 1301 in FIG. In general, in zooming with focus maintained, the AF evaluation signal level is a substantially constant value.

図12(B)において、ズーミングの際に、目標軌跡1304をトレースするフォーカスレンズの標準移動速度をVf0とする。実際のフォーカスレンズの移動速度をVfとし、移動速度Vfを標準移動速度Vf0 に対して大小させながらズーミングすると、その軌跡は1305で示されるようにジグザグな軌跡となる(以下、このようなズーミング動作を「ジクザク補正動作」という)。このとき、AF評価信号レベルは、図12(A)中に1303で示されるように、山と谷を生ずるように変化する。目標軌跡1304と実際のジグサグな軌跡1305が交わる位置において、AF評価信号レベル1303は最大値1301(位置Z0、Z1、Z2、…、Z16の偶数のポイント)となる。また、実際の軌跡1305の移動方向ベクトルが切り換わる位置Z0、Z1、Z2、…、Z16の奇数のポイントにおいて、AF評価信号レベル1303は最小値1302となる。   In FIG. 12B, the standard moving speed of the focus lens that traces the target locus 1304 during zooming is Vf0. When zooming is performed while the actual moving speed of the focus lens is Vf and the moving speed Vf is made larger or smaller than the standard moving speed Vf0, the locus becomes a zigzag locus as indicated by 1305 (hereinafter referred to as such zooming operation). Is called “zigzag correction operation”). At this time, the AF evaluation signal level changes so as to generate peaks and valleys as indicated by reference numeral 1303 in FIG. At the position where the target locus 1304 and the actual zigzag locus 1305 intersect, the AF evaluation signal level 1303 has a maximum value 1301 (even points at positions Z0, Z1, Z2,..., Z16). Also, the AF evaluation signal level 1303 has a minimum value 1302 at odd points of positions Z0, Z1, Z2,..., Z16 at which the movement direction vector of the actual locus 1305 switches.

一方、AF評価信号レベル1303の最小値1302である値TH1を予め設定する(すなわち、合焦とみなせる最小レベルTH1のAF評価信号を下限とする合焦許容範囲を設定する)。そして、AF評価信号レベル1303の大きさがTH1と等しくなる毎に、軌跡1305の移動方向ベクトルを切り換える。これにより、切り換え後のフォーカスレンズの移動方向は、目標軌跡1304に近づく方向に設定される。すなわち、AF評価信号の最大値1301と最小値1302(TH1)の差分だけ像がぼける毎に、このぼけを減らすようにフォーカスレンズの駆動条件である駆動方向および駆動速度を制御することで、ぼけ量の発生を低減したズーミングが可能となる。   On the other hand, a value TH1 that is the minimum value 1302 of the AF evaluation signal level 1303 is set in advance (that is, an in-focus allowable range with the AF evaluation signal at the minimum level TH1 that can be regarded as in-focus is set as a lower limit). Each time the AF evaluation signal level 1303 is equal to TH1, the moving direction vector of the locus 1305 is switched. Thereby, the moving direction of the focus lens after switching is set to a direction approaching the target locus 1304. That is, every time an image is blurred by the difference between the maximum value 1301 and the minimum value 1302 (TH1) of the AF evaluation signal, the driving direction and the driving speed, which are driving conditions of the focus lens, are controlled so as to reduce this blur. Zooming with reduced amount of generation becomes possible.

このような手法を用いることにより、被写体距離別の合焦軌跡が収束から発散していくワイドからテレへのズーミングにおいて、合焦を維持する標準移動速度Vf0がそのときの被写体距離に対して最適でない場合でも、合焦軌跡の再特定が可能である。図8は、被写体距離に応じた合焦軌跡を示す概念図である。式(1)から得られる位置p(n+1)に基づき算出される標準移動速度に対して、フォーカスレンズの移動速度Vfを制御しながら、AF評価信号レベルの変化に従って軌跡1305で示されるような切り換え動作を繰り返す。これにより、AF評価信号レベルが最小値1302(TH1)より低下することなく、すなわち一定量以上のぼけを生じることなく、合焦軌跡の再特定(再生成)を行うことができる。また、TH1を適切に設定することにより、見た目には像ぼけが判別できないようなズーミングが可能である。   By using such a method, the standard moving speed Vf0 for maintaining the focus is optimal with respect to the subject distance at that time in zooming from wide to tele where the focus locus for each subject distance diverges from convergence. Even if it is not, it is possible to respecify the in-focus locus. FIG. 8 is a conceptual diagram showing a focus locus according to the subject distance. Switching as shown by the locus 1305 according to the change in the AF evaluation signal level while controlling the moving speed Vf of the focus lens with respect to the standard moving speed calculated based on the position p (n + 1) obtained from the expression (1). Repeat the operation. Thereby, the refocusing (regeneration) of the in-focus locus can be performed without the AF evaluation signal level falling below the minimum value 1302 (TH1), that is, without causing a certain amount of blurring. Further, by appropriately setting TH1, it is possible to perform zooming so that image blur cannot be visually recognized.

ここで、フォーカスレンズの移動速度Vfは、標準移動速度に対して加える正方向の補正速度をVf+、負方向の補正速度をVf−とすると、以下の式(4)または式(5)のように表される。   Here, the moving speed Vf of the focus lens is represented by the following expression (4) or expression (5), where Vf + is a correction speed in the positive direction applied to the standard movement speed and Vf− is a correction speed in the negative direction. It is expressed in

Vf=Vf0+Vf+ … (4)
Vf=Vf0+Vf− … (5)
補正速度Vf+、Vf−は、上記ズーミング手法による追従軌跡の選択時に片寄りが生じないように、式(4)、(5)により得られる移動速度Vfの2つの方向ベクトルの内角が、標準移動速度Vf0の方向ベクトルにより2等分されるように決定される。なお、以上のズーミング制御は、撮像素子からの撮像信号を用いて焦点検出を行うため、一般的には映像の垂直同期信号に同期して行われる。
Vf = Vf0 + Vf + (4)
Vf = Vf0 + Vf− (5)
The correction speeds Vf + and Vf− are such that the internal angles of the two direction vectors of the movement speed Vf obtained by the equations (4) and (5) are standard movements so that no deviation occurs when the tracking locus is selected by the zooming method. It is determined to be divided into two equal parts by the direction vector of the velocity Vf0. Note that the above zooming control is generally performed in synchronization with the vertical synchronization signal of the video because focus detection is performed using the imaging signal from the imaging device.

次に、図7を参照して、本実施例におけるズーム制御について説明する。図7は、ズーム制御のフローチャートであり、マイクロコンピュータ(制御手段)の指令に基づいて実行される。ステップS701においてズーミング制御が開始すると、ステップS702において初期設定が行われる。初期設定では、マイクロコンピュータ内のRAMや各種ポートの初期化が行われる。続いてステップS703において、マイクロコンピュータは、カメラ本体の操作系の状態を検出する。マイクロコンピュータは、ここで撮影者が操作するズームスイッチユニットの情報を受け取り、撮影者にズーム処理の実行中であることを知らせるための、ズームレンズ位置などの変倍動作情報をディスプレイに表示する。   Next, zoom control in the present embodiment will be described with reference to FIG. FIG. 7 is a flowchart of zoom control, which is executed based on a command from a microcomputer (control means). When zooming control is started in step S701, initial setting is performed in step S702. In the initial setting, the RAM and various ports in the microcomputer are initialized. In step S703, the microcomputer detects the state of the operation system of the camera body. The microcomputer receives information on the zoom switch unit operated by the photographer here, and displays on the display zooming operation information such as a zoom lens position for notifying the photographer that the zoom process is being executed.

次にステップS704において、マイクロコンピュータはAF処理を行う。すなわち、AF評価信号の変化に応じて自動焦点調節処理を行う。続いてステップS705において、マイクロコンピュータはズーミング処理を行う。すなわち、変倍に際して合焦を維持するためのコンペセータ動作(補正動作)の処理を行う。具体的には、図9に示されるような軌跡をほぼトレースするために、フォーカスレンズの標準駆動方向および標準駆動速度を算出する。   In step S704, the microcomputer performs AF processing. That is, the automatic focus adjustment process is performed according to the change of the AF evaluation signal. In step S705, the microcomputer performs zooming processing. That is, the compensator operation (correction operation) for maintaining the focus during zooming is performed. Specifically, the standard driving direction and standard driving speed of the focus lens are calculated in order to substantially trace the locus as shown in FIG.

続いてS706において、AF処理およびズーム処理の際に(ステップS704およびステップS705の処理ルーチンで)算出されるズームレンズおよびフォーカスレンズの駆動方向および駆動速度のうちいずれを使用するかを選択する。これらの処理ルーチンは、ズームレンズやフォーカスレンズを、それぞれがメカ端に当たらないようにソフト的に設けている制御上のテレ端およびワイド端の間または制御上の至近端および無限端の間で駆動するルーチンである。続いてステップS707において、マイクロコンピュータは、ステップS706で選択されたズームおよびフォーカス用の駆動方向情報および駆動速度情報に応じて、モータドライバに制御信号を出力し、レンズの駆動/停止を制御する。そしてステップS707の処理終了後、フローはステップS703に戻る。なお、図7に示される一連の処理は、垂直同期信号に同期して実行される(ステップS703において、次の垂直同期信号が入力されるまで待機する)。   Subsequently, in S706, it is selected which of the driving direction and the driving speed of the zoom lens and the focus lens calculated during the AF process and the zoom process (in the processing routines of Step S704 and Step S705) is used. In these processing routines, the zoom lens and focus lens are softly provided so that they do not hit the mechanical end, respectively, between the telephoto end and wide end on control, or between the close end and infinite end on control It is a routine driven by. In step S707, the microcomputer outputs a control signal to the motor driver in accordance with the zoom and focus drive direction information and drive speed information selected in step S706, and controls driving / stopping of the lens. Then, after the processing of step S707 is completed, the flow returns to step S703. Note that the series of processing shown in FIG. 7 is executed in synchronization with the vertical synchronization signal (waiting until the next vertical synchronization signal is input in step S703).

図4乃至図6は、1垂直同期時間に1回、マイクロコンピュータで実行される制御のフローチャートであり、図7のステップS705で実行されるズーム処理に関する制御を示す。以下、図4乃至図7、および、図9を参照して、本実施例におけるズーム処理について詳述する。 図4乃至図7に示されるズーム処理は、マイクロコンピュータの指令に基づいて行われる。図4のステップS400では、ズームスイッチユニットの操作情報に応じて、自然な変倍動作が行えるようズームモータの駆動速度Zspを設定する。続いてステップS401では、現在のズームレンズおよびフォーカスレンズの位置から、撮影している被写体までの距離(被写体距離)を特定(推定)する。そして、その被写体距離情報を3つの軌跡パラメータ(目標位置情報を得るためのデータ)α、β、γとしてRAMなどのメモリ領域に記憶する。本実施例では、図5に示される処理が行われる。なお、以下の説明を簡単にするため、現在のレンズ位置にて合焦状態が維持されているものとして図5に示される処理について説明する。図5のステップS501では、現在のズームレンズ位置Zx が、図11に示したデータテーブル上で、ワイド端からテレ端までをs等分したうちの何番目のズームエリアvに存在するのかを算出する。その算出方法については、以下、図6を参照して詳述する。   4 to 6 are flowcharts of control executed by the microcomputer once in one vertical synchronization time, and shows control related to zoom processing executed in step S705 of FIG. Hereinafter, the zoom process in the present embodiment will be described in detail with reference to FIGS. 4 to 7 and FIG. 9. The zoom process shown in FIGS. 4 to 7 is performed based on a command from the microcomputer. In step S400 in FIG. 4, the driving speed Zsp of the zoom motor is set so that a natural zooming operation can be performed according to the operation information of the zoom switch unit. In step S401, the distance (subject distance) from the current zoom lens and focus lens positions to the subject being photographed is specified (estimated). Then, the subject distance information is stored in a memory area such as a RAM as three trajectory parameters (data for obtaining target position information) α, β, and γ. In this embodiment, the process shown in FIG. 5 is performed. In order to simplify the following description, the processing shown in FIG. 5 will be described assuming that the in-focus state is maintained at the current lens position. In step S501 in FIG. 5, the current zoom lens position Zx is calculated in which zoom area v of the data table shown in FIG. To do. The calculation method will be described in detail below with reference to FIG.

まずステップS601において、ズームエリア変数vをクリアする。ステップS602において、以下の式(6)に従って、ズームエリアvの境界上のズームレンズ位置Z(v)を算出する。ズームレンズ位置Z(v)は、図9で示されるズームレンズ位置Z0、Z1、Z2、…に相当する。   First, in step S601, the zoom area variable v is cleared. In step S602, the zoom lens position Z (v) on the boundary of the zoom area v is calculated according to the following equation (6). The zoom lens position Z (v) corresponds to the zoom lens positions Z0, Z1, Z2,... Shown in FIG.

Z(v)=(テレ端ズームレンズ位置−ワイド端ズームレンズ位置)×v/s+ワイド端ズームレンズ位置 … (6)
続いてステップS603において、ステップS602で求めたズームレンズ位置Z(v) が現在のズームレンズ位置Zxと等しいか否かを判定する。これらの位置が等しい場合、ズームレンズ位置Zxはズームエリアvの境界上に位置するとして、ステップS607において境界フラグに1を立てる。一方、ステップS603でこれらの位置が等しくない場合、ステップS604において、Zx<Z(v)が成立するか否かを判定する。ステップS604における不等式が成立する場合(Yes)、位置Zxは位置Z(v−1)と位置Z(v)との間にあることになり、ステップS606において境界フラグを0とする。一方、ステップS604における不等式が成立しない場合(No)、ステップS605でズームエリアvをインクリメントし、ステップS602に戻る。
Z (v) = (tele end zoom lens position−wide end zoom lens position) × v / s + wide end zoom lens position (6)
Subsequently, in step S603, it is determined whether or not the zoom lens position Z (v) obtained in step S602 is equal to the current zoom lens position Zx. If these positions are equal, the zoom lens position Zx is positioned on the boundary of the zoom area v, and 1 is set to the boundary flag in step S607. On the other hand, if these positions are not equal in step S603, it is determined in step S604 whether Zx <Z (v) is satisfied. When the inequality in step S604 is satisfied (Yes), the position Zx is between the position Z (v-1) and the position Z (v), and the boundary flag is set to 0 in step S606. On the other hand, if the inequality in step S604 is not satisfied (No), the zoom area v is incremented in step S605, and the process returns to step S602.

以上の処理を繰り返し行うことにより、図6のフローを抜けるときには、現在のズームレンズ位置Zxが図11のデータテーブル上におけるv=k番目のズームエリアに存在し、さらに位置Zxがズームエリア境界上であるか否かを知ることができる。図5のステップS501で図6に示される処理により現在のズームエリアが定まったため、続いてフォーカスレンズが図11のデータテーブル上のどこに位置するのかを算出する。   By repeating the above processing, when exiting the flow of FIG. 6, the current zoom lens position Zx is present in the v = kth zoom area on the data table of FIG. 11, and the position Zx is on the zoom area boundary. It is possible to know whether or not. Since the current zoom area is determined by the process shown in FIG. 6 in step S501 in FIG. 5, the position where the focus lens is located on the data table in FIG. 11 is calculated.

まずステップS502において、被写体距離変数nをクリアする。続いてステップS503において、現在のズームレンズ位置がズームエリアの境界上に存在しているか否かを判定する。境界フラグが0である場合、境界上にないとしてステップS505に進む。ステップS505では、ZkにZ(v)をセットし、またZk−1にZ(v−1)をセットする。次にステップS506では、4つのテーブルデータA(n、v−1)、A(n、v)、A(n+1、v−1)、A(n+1、v)を読み出す。そしてステップS507において、上記の式(2)、(3)から位置ax、bx をそれぞれ算出する。一方、ステップS503にて境界フラグが1と判定された場合、ステップS504に進む。ステップS504では、被写体距離nでのズームレンズ位置(ここではv)に対する合焦位置A(n、v)および被写体距離n+1でのズームレンズ位置に対する合焦位置A(n+1、v)を呼び出し、これらの合焦位置をそれぞれ位置ax、bxとして記憶する。   First, in step S502, the subject distance variable n is cleared. In step S503, it is determined whether the current zoom lens position is on the boundary of the zoom area. If the boundary flag is 0, it is determined not to be on the boundary, and the process proceeds to step S505. In step S505, Z (v) is set in Zk, and Z (v-1) is set in Zk-1. In step S506, four table data A (n, v-1), A (n, v), A (n + 1, v-1), and A (n + 1, v) are read out. In step S507, the positions ax and bx are calculated from the above equations (2) and (3), respectively. On the other hand, if the boundary flag is determined to be 1 in step S503, the process proceeds to step S504. In step S504, the focus position A (n, v) for the zoom lens position (here, v) at the subject distance n and the focus position A (n + 1, v) for the zoom lens position at the subject distance n + 1 are called. Are stored as positions ax and bx, respectively.

続いてステップS508において、現在のフォーカスレンズ位置pxが位置ax以上であるか否かを判定する。現在のフォーカスレンズ位置pxが位置ax以上である場合、ステップS509において現在のフォーカスレンズ位置pxが位置bx以上であるか否かを判定する。ステップS509にて現在のフォーカスレンズ位置pxが位置bx以上でない場合、フォーカスレンズ位置pxは被写体距離nとn+1の間にあることになり、このときの軌跡パラメータをステップS513、S514、S515においてメモリに格納する。ステップS513にてα=px−ax、ステップS514にてβ=bx−ax、ステップS515にてγ=nとする。   In step S508, it is determined whether or not the current focus lens position px is greater than or equal to the position ax. If the current focus lens position px is greater than or equal to the position ax, it is determined in step S509 whether or not the current focus lens position px is greater than or equal to the position bx. If the current focus lens position px is not greater than or equal to the position bx in step S509, the focus lens position px is between the subject distances n and n + 1, and the trajectory parameters at this time are stored in the memory in steps S513, S514, and S515. Store. In step S513, α = px−ax, β = bx−ax in step S514, and γ = n in step S515.

ステップS508でNoとなるのは、フォーカスレンズ位置pxが超無限遠位置である場合である。このとき、ステップS512でα=0としてステップS514およびS515に進み、無限遠の軌跡パラメータを記憶する。ステップS509でYesとなるのは、フォーカスレンズ位置pxがより至近側である場合である。このとき、ステップS510で被写体距離nをインクリメントし、ステップS511でnが最至近距離に対応した位置mより無限遠側であるか否かを判定する。最至近距離位置mより無限遠側である場合、ステップS503へ戻る。ステップS511でNoとなるのは、フォーカスレンズ位置pxが超至近位置である場合である。このとき、ステップS512、S514、および、S515へ進み、最至近距離に対する軌跡パラメータを記憶する。   No in step S508 is a case where the focus lens position px is a super-infinity position. At this time, α = 0 is set in step S512, and the process proceeds to steps S514 and S515 to store a trajectory parameter at infinity. Yes in step S509 is when the focus lens position px is closer to the camera. At this time, the subject distance n is incremented in step S510, and it is determined in step S511 whether n is on the infinity side from the position m corresponding to the closest distance. When it is on the infinity side from the closest distance position m, the process returns to step S503. No is determined in step S511 when the focus lens position px is an extremely close position. At this time, the process proceeds to steps S512, S514, and S515, and the trajectory parameter for the closest distance is stored.

前述のように、図4中のステップS401では、現在のズームレンズ位置およびフォーカスレンズ位置が図8に示されるいずれの軌跡上の位置であるかを知るための軌跡パラメータの記憶を行う。続いてS402では、1垂直同期時間(1V)後にズームレンズが到達しているズームレンズ位置(現在位置からの移動先の位置)Zx’を算出する。ここで、ステップS400で決定されたズーム速度をZsp(pps)とすると、1垂直同期時間後のズームレンズ位置Zx’は、以下の式(7)で表される。ppsは、ステッピングモータの回転速度を表す単位であり、1秒間当たりの回転するステップ量(1ステップ=1パルス)を示す。また式(7)の符号は、ズームレンズの移動方向に応じて、テレ方向は+、ワイド方向は−としている。   As described above, in step S401 in FIG. 4, a trajectory parameter for knowing on which trajectory shown in FIG. 8 the current zoom lens position and focus lens position are stored. Subsequently, in S402, a zoom lens position (position of movement destination from the current position) Zx ′ reached by the zoom lens after one vertical synchronization time (1V) is calculated. Here, if the zoom speed determined in step S400 is Zsp (pps), the zoom lens position Zx 'after one vertical synchronization time is expressed by the following equation (7). pps is a unit representing the rotation speed of the stepping motor, and indicates a step amount (1 step = 1 pulse) to be rotated per second. Further, the sign of Expression (7) is + for the tele direction and-for the wide direction according to the moving direction of the zoom lens.

Zx’=Zx±Zsp/垂直同期周波数 … (7)
次に、ズームレンズ位置Zx’がいずれのズームエリアv’に存在するかをステップS403において決定する。ステップS403では、図6の処理と同様の処理を行い、図6におけるズームレンズ位置ZxをZx’に、ズームエリアvをv’に置き換えて、図6と同様の処理を行う。 続いてステップS404において、1垂直同期時間後のズームレンズ位置Zx’がズームエリアの境界上に存在しているか否かを判定する。ここで境界フラグ=0である場合には境界上ではないとして、ステップS405に進む。ステップS405では、Zk←Z(v’)、Zk−1←Z(v’−1)と設定する。次にステップS406では、図5の処理により被写体距離γが特定された4つのテーブルデータA(γ、v’−1)、A(γ、v’)、A(γ+1、v’−1)、A(γ+1、v’)を読み出す。またステップS407において、上記の式(2)、(3)から位置ax’、bx’を算出する。一方、ステップS403でYesと判定された場合、ステップS408において被写体距離γでのズームエリアv’に対する合焦位置A(γ,v’)、および、被写体距離γ+1でのズームエリアv’に対する合焦位置A(γ+1,v’)を呼び出す。そして、それぞれを位置ax’、bx’として記憶する。
Zx ′ = Zx ± Zsp / vertical synchronization frequency (7)
Next, in which zoom area v ′ the zoom lens position Zx ′ exists is determined in step S403. In step S403, the same process as in FIG. 6 is performed, and the zoom lens position Zx in FIG. 6 is replaced with Zx ′ and the zoom area v is replaced with v ′, and the same process as in FIG. 6 is performed. Subsequently, in step S404, it is determined whether or not the zoom lens position Zx ′ after one vertical synchronization time exists on the boundary of the zoom area. Here, if the boundary flag = 0, it is not on the boundary and the process proceeds to step S405. In step S405, Zk ← Z (v ′) and Zk−1 ← Z (v′−1) are set. Next, in step S406, four table data A (γ, v′−1), A (γ, v ′), A (γ + 1, v′−1) in which the subject distance γ is specified by the processing of FIG. Read A (γ + 1, v ′). In step S407, the positions ax ′ and bx ′ are calculated from the above equations (2) and (3). On the other hand, when it is determined Yes in step S403, in step S408, the focus position A (γ, v ′) with respect to the zoom area v ′ at the subject distance γ and the focus with respect to the zoom area v ′ at the subject distance γ + 1. Call position A (γ + 1, v ′). And each is memorize | stored as position ax ', bx'.

続いてS409において、ズームレンズ位置がZx’ に達したときのフォーカスレンズの合焦位置(目標位置)px’を算出する。式(1)を用いて、1垂直同期時間後の追従目標位置は、以下の式(8)のように表せる。   Subsequently, in step S409, the focus position (target position) px 'of the focus lens when the zoom lens position reaches Zx' is calculated. Using the equation (1), the follow target position after one vertical synchronization time can be expressed as the following equation (8).

px’=(bx’−ax’)×α/β+ax’ … (8)
したがって、追従目標位置と現在のフォーカスレンズ位置との差ΔFは、以下の式(8a)のように表される。
px ′ = (bx′−ax ′) × α / β + ax ′ (8)
Therefore, the difference ΔF between the tracking target position and the current focus lens position is expressed by the following equation (8a).

ΔF=(bx’−ax’)×α/β+ax’−px … (8a)
次にステップS410において、フォーカスレンズの標準移動速度Vf0を算出する。標準移動速度Vf0は、フォーカスレンズの位置差ΔFを移動するのに要するズームレンズの移動時間で除算して得られる。以下、図12(B)に示されるフォーカスレンズの移動速度補正(ジグザグ動作)を行うための補正速度の算出方法について説明する。
ΔF = (bx′−ax ′) × α / β + ax′−px (8a)
Next, in step S410, the standard moving speed Vf0 of the focus lens is calculated. The standard moving speed Vf0 is obtained by dividing the position difference ΔF of the focus lens by the moving time of the zoom lens required for moving. Hereinafter, a correction speed calculation method for correcting the movement speed (zigzag operation) of the focus lens shown in FIG. 12B will be described.

ステップS411では、各種パラメータを初期値化し、以後の処理で用いる「反転フラグ」をクリアする。ステップS412では、ステップS410で得られた標準移動速度Vf0から、ジグザグ動作用の補正速度Vf+、Vf−を算出する。ここで、補正量パラメータδおよび補正速度Vf+、Vf−は、以下のように算出される。図13は、補正量パラメータδに応じた補正速度Vf+、Vf−の算出方法の説明図である。図13において、横軸はズームレンズ位置を示し、縦軸はフォーカスレンズ位置を示している。1304は、追従すべき目標軌跡である。   In step S411, various parameters are initialized and “inversion flag” used in the subsequent processing is cleared. In step S412, correction speeds Vf + and Vf− for zigzag operation are calculated from the standard movement speed Vf0 obtained in step S410. Here, the correction amount parameter δ and the correction speeds Vf + and Vf− are calculated as follows. FIG. 13 is an explanatory diagram of a method of calculating the correction speeds Vf + and Vf− according to the correction amount parameter δ. In FIG. 13, the horizontal axis represents the zoom lens position, and the vertical axis represents the focus lens position. Reference numeral 1304 denotes a target locus to be followed.

ズームレンズ位置がxだけ変化するとき、フォーカスレンズ位置がy変化する(すなわち、目標位置に到達する)フォーカス速度がベクトル1403で示される標準移動速度Vf0である。ズームレンズ位置がxだけ変化するとき、フォーカスレンズ位置が変位yを基準としてn又はmだけ変化するフォーカス速度が、それぞれ、補正速度Vf+、Vf−である。図13において、1401は、変位yよりさらに至近側に駆動する速度(標準移動速度Vf0に正方向の補正速度Vf+を加算した速度)の方向ベクトルである。1402は、変位yより無限遠側に駆動する速度(標準移動速度Vf0に負方向の補正速度Vf−を加算した速度)の方向ベクトルである。方向ベクトル1401、1402が、方向ベクトル1403に対して等しい角度δだけ互いに離れた方向ベクトルとなるように、n、mの値を決定する。   When the zoom lens position changes by x, the focus speed at which the focus lens position changes by y (ie, reaches the target position) is a standard movement speed Vf0 indicated by a vector 1403. When the zoom lens position changes by x, the focus speeds at which the focus lens position changes by n or m with reference to the displacement y are correction speeds Vf + and Vf−, respectively. In FIG. 13, reference numeral 1401 denotes a direction vector of a speed (speed obtained by adding a correction speed Vf + in the positive direction to the standard movement speed Vf0) for driving closer to the displacement y. Reference numeral 1402 denotes a direction vector of a speed (speed obtained by adding a correction speed Vf− in the negative direction to the standard moving speed Vf0) for driving toward the infinity side from the displacement y. The values of n and m are determined so that the direction vectors 1401 and 1402 are direction vectors separated from each other by an equal angle δ with respect to the direction vector 1403.

m、nは、図13を参照して、以下の式(9a)、(9b)、(9c)、(10)を用いて求められる。   m and n are calculated | required using the following formula | equation (9a), (9b), (9c), (10) with reference to FIG.

tanθ=y/x … (9a)
tan(θ−δ)=(y−m)/x … (9b)
tan(θ+δ)=(y+n)/x … (9c)
tan(θ±δ)=(tanθ±tanδ)/{1±(−1)×tanθ×tanδ) … (10)
そして、式(9a)、(9b)(9c)、(10)より、m、nはそれぞれ以下の式(11)、(12)のように得られる。
tan θ = y / x (9a)
tan (θ−δ) = (ym) / x (9b)
tan (θ + δ) = (y + n) / x (9c)
tan (θ ± δ) = (tan θ ± tan δ) / {1 ± (−1) × tan θ × tan δ) (10)
Then, from the equations (9a), (9b), (9c), and (10), m and n are obtained as the following equations (11) and (12), respectively.

m=(x2+y2)/(x/k+y) … (11)
n=(x2+y2)/(x/k−y) … (12)
(但し、tanδ=k)
ここで補正角度δは、被写界深度の深さや、焦点距離等をパラメータとした変数としている。これにより、フォーカスレンズの駆動状態に応じて変化するAF評価信号レベルの増減周期を、所定のフォーカスレンズ位置変化量に対して一定に保つことができる。このため、ズーミング中にフォーカスレンズが追従すべき合焦軌跡を見逃す可能性を低減することが可能となる。
m = (x2 + y2) / (x / k + y) (11)
n = (x2 + y2) / (x / ky) (12)
(However, tan δ = k)
Here, the correction angle δ is a variable having parameters such as the depth of field and the focal length. Thereby, the increase / decrease period of the AF evaluation signal level that changes according to the driving state of the focus lens can be kept constant with respect to a predetermined focus lens position change amount. For this reason, it is possible to reduce the possibility of missing the in-focus locus that the focus lens should follow during zooming.

補正角度δの値に応じて、マイクロコンピュータのメモリ内にデータテーブルとしてkの値を記憶し、必要に応じて読み出すことにより、上記の式(11)、(12)の演算を行う。ここで、ズームレンズ位置が単位時間当たりx変化する場合、ズーム速度Zsp=x、標準速度Vf0=y、補正速度Vf+=n、Vf−=mとなる。そして式(11)、(12)により、補正速度Vf+、Vf−(負の速度)が得られる。   According to the value of the correction angle δ, the value of k is stored as a data table in the memory of the microcomputer, and the calculations of the above formulas (11) and (12) are performed by reading out as necessary. Here, when the zoom lens position changes by x per unit time, the zoom speed Zsp = x, the standard speed Vf0 = y, the correction speed Vf + = n, and Vf− = m. Then, the correction speeds Vf + and Vf− (negative speed) are obtained from the equations (11) and (12).

ステップS413では、図7のステップS703で得られたズームスイッチユニットの操作状態を示す情報に応じて、ズーミング中であるか否かを判定する。ズーミング中の場合、ステップS416に進む。一方、ズーミング中でない場合、ステップS414にてAF評価信号レベルの現在値から任意の定数μを減算した値をTH1に設定する。このTH1は、図12(A)を参照して説明したように、補正方向のベクトルの切換基準(ジグザグ動作の切換基準)となるAF評価信号レベルを決定する。このTH1は、ズーミング開始直前に決定され、値TH1が図12(A)中の最小値1302に対応する。続いてステップS415では、補正フラグをクリアし、本処理(ステップS705)を抜ける。ここで、補正フラグとは、軌跡追従状態が正方向の補正がかかった状態(補正フラグ=1)、または、負方向の補正状態(補正フラグ=0)のいずれであるかを示すフラグである。   In step S413, it is determined whether zooming is in progress according to the information indicating the operation state of the zoom switch unit obtained in step S703 of FIG. If it is during zooming, the process proceeds to step S416. On the other hand, if zooming is not in progress, a value obtained by subtracting an arbitrary constant μ from the current value of the AF evaluation signal level is set to TH1 in step S414. This TH1, as described with reference to FIG. 12A, determines the AF evaluation signal level that becomes the vector switching reference (zigzag operation switching reference) in the correction direction. This TH1 is determined immediately before the start of zooming, and the value TH1 corresponds to the minimum value 1302 in FIG. In step S415, the correction flag is cleared and the process exits (step S705). Here, the correction flag is a flag indicating whether the tracking state is a state in which a positive correction is applied (correction flag = 1) or a negative correction state (correction flag = 0). .

一方、ステップS413でズーミング中と判定されると、ステップS414において、ズーミング方向がワイドからテレ方向であるか否かを判定する。テレからワイド方向である場合、ステップS419でVf+=0、Vf−=0とし、ステップS420に進む。一方、ワイドからテレ方向である場合、ステップS417で現在のAF評価信号レベルが、値TH1より小さいか否かを判定する。AF評価信号レベルが値TH1以上である場合、ステップ420へ進む。一方、AF評価信号レベルが値TH1より小さい場合、現在のAF評価信号レベルが図12(A)の値TH1(1302)のレベルを下回ったことになる。したがって、補正方向の切り換えを行うため、ステップS418で反転フラグに1をセットする。   On the other hand, if it is determined in step S413 that zooming is in progress, it is determined in step S414 whether the zooming direction is from wide to tele. If the direction is tele to wide, Vf + = 0 and Vf− = 0 in step S419, and the process proceeds to step S420. On the other hand, if the direction is wide to tele, it is determined in step S417 whether or not the current AF evaluation signal level is smaller than the value TH1. If the AF evaluation signal level is greater than or equal to the value TH1, the process proceeds to step 420. On the other hand, when the AF evaluation signal level is smaller than the value TH1, the current AF evaluation signal level is lower than the level TH1 (1302) in FIG. Accordingly, in order to switch the correction direction, 1 is set to the inversion flag in step S418.

ステップS420では、反転フラグが1か否かを判定する。反転フラグ=1である場合、ステップS421において、補正フラグが1か否かを判定する。一方、ステップS421で補正フラグ=1でない場合、ステップS424において、補正フラグ=1(正方向の補正状態)とする。そして式(4)により、フォーカスレンズの移動速度Vf=Vf0+Vf+(但し、Vf+≧0)とする。一方、ステップS421にて補正フラグ=1である場合、ステップS423において補正フラグ=0(負方向の補正状態)とする。そして式(5)により、フォーカスレンズの移動速度Vf=Vf0+Vf−(但し、Vf−≦0)とする。   In step S420, it is determined whether or not the inversion flag is 1. If the inversion flag = 1, it is determined in step S421 whether the correction flag is 1. On the other hand, if the correction flag is not 1 in step S421, the correction flag is set to 1 (correction state in the positive direction) in step S424. Then, the moving speed of the focus lens is set to Vf = Vf0 + Vf + (where Vf + ≧ 0) according to equation (4). On the other hand, if the correction flag = 1 in step S421, the correction flag = 0 (negative correction state) is set in step S423. Then, the moving speed of the focus lens is set to Vf = Vf0 + Vf− (where Vf− ≦ 0) according to Expression (5).

また、ステップS420で反転フラグが1でない場合、ステップS422において、補正フラグ=1か否かを判定する。補正フラグ=1である場合、ステップS424に進む。一方、補正フラグ=1でない場合、ステップS423に進む。本処理(ステップS705)の終了後、図7に示されるステップS706において、動作モードに応じてフォーカスレンズおよびズームレンズの駆動方向と駆動速度が選択される。ズーミング動作の場合、ステップS423またはステップS424で求めたフォーカスレンズの移動速度Vfが正または負のいずれかであるのかに応じて、フォーカスレンズの駆動方向がそれぞれ、至近方向、無限遠方向に設定される。このように、フォーカスレンズのジグザグ駆動を行いながら、トレースすべき軌跡の再特定を行うよう動作する。   If the reverse flag is not 1 in step S420, it is determined in step S422 whether the correction flag = 1. If the correction flag = 1, the process proceeds to step S424. On the other hand, if the correction flag is not 1, the process proceeds to step S423. After the completion of this process (step S705), in step S706 shown in FIG. 7, the driving direction and driving speed of the focus lens and zoom lens are selected according to the operation mode. In the zooming operation, the focus lens drive direction is set to the close direction or the infinity direction depending on whether the focus lens movement speed Vf obtained in step S423 or step S424 is positive or negative. The As described above, the zigzag driving of the focus lens is performed, and the locus to be traced is re-specified.

次に、本発明の実施例1におけるレンズ制御装置について説明する。図1は、本実施例のレンズ制御装置を搭載した撮像装置(光学機器)としてのビデオカメラの構成図である。本実施例のレンズ制御装置は、後述のように、変倍用の第1レンズユニットおよび焦点調節用の第2レンズユニットの移動を制御する。なお本実施例は、撮影レンズ一体型の撮像装置を対象としているが、これに限定されるものではなく、交換レンズとこれに装着されるカメラ本体とを有する撮像システムの交換レンズ(光学機器)にも適用可能である。この場合、カメラ本体側から送信された信号に応答してレンズ内のマイクロコンピュータが後述のズーミング動作を行う。また本実施例は、ビデオカメラに限定されるものではなく、デジタルスチルカメラ等の各種の撮像装置にも適用可能である。   Next, the lens control device in Embodiment 1 of the present invention will be described. FIG. 1 is a configuration diagram of a video camera as an imaging device (optical apparatus) equipped with the lens control device of this embodiment. As will be described later, the lens control device of the present embodiment controls the movement of the first lens unit for zooming and the second lens unit for focus adjustment. The present embodiment is intended for an imaging device integrated with a photographing lens, but is not limited to this, and an interchangeable lens (optical apparatus) of an imaging system having an interchangeable lens and a camera body attached to the interchangeable lens. It is also applicable to. In this case, the microcomputer in the lens performs a zooming operation described later in response to a signal transmitted from the camera body side. In addition, the present embodiment is not limited to a video camera, and can be applied to various imaging devices such as a digital still camera.

図1において、物体側から順に、101は固定の前玉レンズユニット、102は光軸OAの方向(光軸方向)に移動して変倍を行うズームレンズユニット(第1レンズユニット)、103は絞り、104は固定レンズユニットである。105は、焦点調節機能と変倍による像面移動を補正するコンペセータ機能とを兼ね備え、光軸方向に移動するフォーカスレンズユニット(第2レンズユニット)である。前玉レンズユニット101、ズームレンズユニット102、絞り103、固定レンズユニット104、および、フォーカスレンズユニット105は、物体側から像側へ順に配置されている。これらのレンズユニットにより構成される撮影光学系は、物体側(図の左側)から順に、正、負、正、正の光学パワーを有する4つのレンズユニットで構成されたリアフォーカス光学系である。なお図1中には、各レンズユニットが1枚のレンズにより構成されているように記載されているが、実際には、1枚のレンズにより構成されていてもよいし、また、複数枚のレンズにより構成されていてもよい。   In FIG. 1, in order from the object side, 101 is a fixed front lens unit, 102 is a zoom lens unit (first lens unit) that moves in the direction of the optical axis OA (optical axis direction) and performs zooming, and 103 A diaphragm 104 is a fixed lens unit. Reference numeral 105 denotes a focus lens unit (second lens unit) that has a focus adjustment function and a compensator function that corrects image plane movement due to zooming and moves in the optical axis direction. The front lens unit 101, the zoom lens unit 102, the diaphragm 103, the fixed lens unit 104, and the focus lens unit 105 are sequentially arranged from the object side to the image side. The photographing optical system constituted by these lens units is a rear focus optical system constituted by four lens units having positive, negative, positive, and positive optical powers in order from the object side (left side in the figure). In FIG. 1, each lens unit is described as being configured by a single lens. However, in actuality, it may be configured by a single lens or a plurality of lenses. You may be comprised with the lens.

106は、CCDやCMOSセンサにより構成される撮像素子である。撮影光学系を通ってきた物体からの光束は、撮像素子106上に結像する。撮像素子106は、結像した物体像を光電変換して撮像信号を出力する。撮像信号は、増幅器107(AGC)で最適なレベルに増幅されてカメラ信号処理回路108へ入力される。カメラ信号処理回路108は、入力された撮像信号を標準テレビ信号に変換した後、増幅器110に出力する。増幅器110で最適レベルに増幅されたテレビ信号は、磁気記録再生装置111に出力され、磁気記録再生装置111において磁気テープ等の磁気記録媒体に記録される。記録媒体としては、磁気記録媒体に限定されるものではなく、半導体メモリや光ディスクなど他の種類の記録媒体を用いてもよい。   Reference numeral 106 denotes an image pickup element constituted by a CCD or a CMOS sensor. A light beam from an object that has passed through the imaging optical system forms an image on the image sensor 106. The imaging element 106 photoelectrically converts the formed object image and outputs an imaging signal. The imaging signal is amplified to an optimum level by an amplifier 107 (AGC) and input to the camera signal processing circuit 108. The camera signal processing circuit 108 converts the input imaging signal into a standard television signal, and then outputs it to the amplifier 110. The television signal amplified to the optimum level by the amplifier 110 is output to the magnetic recording / reproducing apparatus 111, and is recorded on a magnetic recording medium such as a magnetic tape by the magnetic recording / reproducing apparatus 111. The recording medium is not limited to a magnetic recording medium, and other types of recording media such as a semiconductor memory and an optical disk may be used.

また、増幅器110で増幅されたテレビ信号は、LCD表示回路114にも送られ、LCD115に撮影画像として表示される。なお、LCD115には、撮影モードや撮影状態、警告等を撮影者に知らせる画像も表示される。このような画像は、カメラマイクロコンピュータ116(制御手段)がキャラクタジェネレータ113を制御して、ここからの出力信号をLCD表示回路114でテレビ信号にミックスすることで、撮影画像に重畳して表示される。   The television signal amplified by the amplifier 110 is also sent to the LCD display circuit 114 and displayed on the LCD 115 as a photographed image. The LCD 115 also displays an image that informs the photographer of the shooting mode, shooting state, warning, and the like. Such an image is displayed superimposed on the photographed image by the camera microcomputer 116 (control means) controlling the character generator 113 and mixing the output signal from this with the television signal by the LCD display circuit 114. The

一方、カメラ信号処理回路108に入力された撮像信号を、同時に内部メモリを使って圧縮処理した後、カードメディア等の静止画記録媒体112に記録することもできる。また、カメラ信号処理回路108に入力された撮像信号は、焦点情報生成手段としてのAF信号処理回路109へも入力される。AF信号処理回路109で生成されたAF評価値信号(焦点信号)は、カメラマイクロコンピュータ116との通信によりデータとして読み出される。また、カメラマイクロコンピュータ116は、ズームスイッチ130およびAFスイッチ131の状態を読み込み、さらにフォトスイッチ134の状態も検出する。   On the other hand, the image pickup signal input to the camera signal processing circuit 108 can be simultaneously compressed using an internal memory and then recorded on a still image recording medium 112 such as a card medium. The imaging signal input to the camera signal processing circuit 108 is also input to the AF signal processing circuit 109 serving as focus information generating means. The AF evaluation value signal (focus signal) generated by the AF signal processing circuit 109 is read as data by communication with the camera microcomputer 116. Further, the camera microcomputer 116 reads the states of the zoom switch 130 and the AF switch 131 and further detects the state of the photo switch 134.

フォトスイッチ134が半押しの状態では、AFによる合焦動作が開始され、合焦状態にてフォーカスロックされる。さらに、全押し(深押し)状態では、合焦非合焦に関わらずフォーカスロックして、カメラ信号処理回路108内のメモリ(不図示)に画像を取り込み、磁気テープや静止画記録媒体112に静止画記録を行う。なお、カメラマイクロコンピュータ116は、モードスイッチ133の状態に応じて動画撮影モードまたは静止画撮影モードのいずれであるかを判定し、カメラ信号処理回路108を介して磁気記録再生装置111や静止画記録媒体112を制御する。これにより、記録媒体に適したテレビ信号をこれに供給し、また、モードスイッチ133が再生モードにセットされている場合には磁気記録再生装置111や静止画記録媒体112からこれらに記録されたテレビ信号の再生制御を行う。   When the photo switch 134 is half-pressed, the focusing operation by AF is started and the focus is locked in the focused state. Further, in the fully-pressed (deep-pressed) state, the focus is locked regardless of the in-focus state, the image is taken into a memory (not shown) in the camera signal processing circuit 108, and is stored in the magnetic tape or the still image recording medium 112. Record still images. The camera microcomputer 116 determines whether the moving image shooting mode or the still image shooting mode is set according to the state of the mode switch 133, and the magnetic recording / reproducing apparatus 111 or the still image recording is performed via the camera signal processing circuit 108. The medium 112 is controlled. As a result, a television signal suitable for the recording medium is supplied thereto, and when the mode switch 133 is set to the reproduction mode, the television recorded on the magnetic recording / reproducing apparatus 111 and the still image recording medium 112 is recorded on these. Performs signal reproduction control.

カメラマイクロコンピュータ116内のコンピュータズームユニット119(制御手段)は、AFスイッチ131がオフでズームスイッチ130が操作されている場合、内部のプログラムに従い、ズームモータドライバ122に対して所定の駆動信号を出力する。所定の駆動信号は、ズームレンズユニット102をズームスイッチ130の操作されている方向に対応したテレまたはワイド方向に駆動するための信号である。ズームモータドライバ122は、この駆動信号を受けて、ズームモータ121を介してズームレンズユニット102をテレまたはワイド方向に駆動する。   The computer zoom unit 119 (control means) in the camera microcomputer 116 outputs a predetermined drive signal to the zoom motor driver 122 according to an internal program when the AF switch 131 is off and the zoom switch 130 is operated. To do. The predetermined drive signal is a signal for driving the zoom lens unit 102 in the tele or wide direction corresponding to the direction in which the zoom switch 130 is operated. The zoom motor driver 122 receives this drive signal and drives the zoom lens unit 102 in the tele or wide direction via the zoom motor 121.

120は、所定の被写体距離ごとに作成された、ズームレンズユニット102の位置とフォーカスレンズユニット105の位置との関係を示すデータを記憶したカムデータメモリ(記憶手段)である。コンピュータズームユニット119は、カムデータメモリ120に予め記憶されたレンズカムデータ(図10に示されるような複数の被写体距離に応じた代表軌跡のデータや軌跡パラメータのデータ)に基づいて、フォーカスモータドライバ126を制御する。フォーカスモータドライバ126は、フォーカスモータ125を駆動し、変倍に伴う像面移動を補正するようにフォーカスレンズユニット105を移動させる。このようにコンピュータズームユニット119は、カムデータメモリ120のデータに基づいて、フォーカスレンズユニット105の移動を制御するための情報を生成し、ズームレンズユニット102の移動に伴うフォーカスレンズユニット105の移動を制御する。   Reference numeral 120 denotes a cam data memory (storage means) that stores data indicating the relationship between the position of the zoom lens unit 102 and the position of the focus lens unit 105, which is created for each predetermined subject distance. The computer zoom unit 119 is a focus motor driver based on lens cam data (representative trajectory data and trajectory parameter data corresponding to a plurality of subject distances as shown in FIG. 10) stored in advance in the cam data memory 120. 126 is controlled. The focus motor driver 126 drives the focus motor 125 and moves the focus lens unit 105 so as to correct the image plane movement caused by zooming. As described above, the computer zoom unit 119 generates information for controlling the movement of the focus lens unit 105 based on the data in the cam data memory 120, and moves the focus lens unit 105 in accordance with the movement of the zoom lens unit 102. Control.

また、カメラマイクロコンピュータ116内のAF制御ユニット117は、AFスイッチ131がオンで、ズームスイッチ130が操作されている場合、合焦状態を保ち続けつつ変倍動作を行う必要がある。このため、コンピュータズームユニット119は、内部プログラムにより、ズームレンズユニット102およびフォーカスレンズユニット105を駆動する。この駆動は、カムデータメモリ120に記憶されたレンズカムデータのみならず、AF信号処理回路109から送られるAF評価値信号や被写体距離検出回路127により検出された被写体距離に対応する情報(合焦対象物までの距離情報)に基づいて行われる。本実施例において、コンピュータズームユニット119は、被写体距離に対応する情報および撮影条件に応じてフォーカスレンズユニット105の移動範囲を変更する。より具体的には、コンピュータズームユニット119は、被写体距離に対応する情報に基づいてフォーカスレンズユニット105の補正範囲を決定し、撮影条件に基づいて、決定した補正範囲を適用するか否かを判定する。この判定方法については図16を参照して後述する。   Further, the AF control unit 117 in the camera microcomputer 116 needs to perform a zooming operation while keeping the focused state when the AF switch 131 is on and the zoom switch 130 is operated. Therefore, the computer zoom unit 119 drives the zoom lens unit 102 and the focus lens unit 105 according to an internal program. This driving is performed not only on the lens cam data stored in the cam data memory 120 but also on the AF evaluation value signal sent from the AF signal processing circuit 109 and information corresponding to the subject distance detected by the subject distance detection circuit 127 (focusing). Based on distance information to the object). In this embodiment, the computer zoom unit 119 changes the movement range of the focus lens unit 105 according to information corresponding to the subject distance and shooting conditions. More specifically, the computer zoom unit 119 determines the correction range of the focus lens unit 105 based on information corresponding to the subject distance, and determines whether to apply the determined correction range based on shooting conditions. To do. This determination method will be described later with reference to FIG.

なお、被写体距離検出回路127(検出回路)からの出力信号は、カメラマイクロコンピュータ116内の距離情報処理部128で演算処理される。距離情報処理部128は、一定時間の出力信号を蓄積し、距離のばらつき範囲W’の算出と、その結果に基づいた信頼性を表す情報の算出を行う。ここで、信頼性を表す情報とは、被写体までの距離算出に伴い得られる情報のことをいい、詳細は後述する。   Note that an output signal from the subject distance detection circuit 127 (detection circuit) is arithmetically processed by the distance information processing unit 128 in the camera microcomputer 116. The distance information processing unit 128 accumulates output signals for a predetermined time, calculates a distance variation range W ′, and calculates information representing reliability based on the result. Here, the information indicating reliability refers to information obtained along with the calculation of the distance to the subject, details of which will be described later.

また、ズームレンズユニット102およびフォーカスレンズユニット105と被写体距離検出回路127にはパララックスがある。このため、被写体距離検出回路127の測距枠は、撮像素子106上の常に中心とは限らない。測距枠の位置は、被写体距離と焦点距離によって変化するため、上記の情報に基づいて測距枠位置SDistを算出する。そして、被写体距離検出回路127からの出力は、被写体距離情報、信頼性を表す情報、距離ばらつき範囲、測距枠位置SDistとして、コンピュータズームユニット119に出力される。 The zoom lens unit 102, the focus lens unit 105, and the subject distance detection circuit 127 are parallax. For this reason, the distance measurement frame of the subject distance detection circuit 127 is not always the center on the image sensor 106. Since the position of the distance measurement frame varies depending on the subject distance and the focal distance, the distance measurement frame position S Dist is calculated based on the above information. The output from the subject distance detection circuit 127 is output to the computer zoom unit 119 as subject distance information, information indicating reliability, a distance variation range, and a distance measurement frame position S Dist .

また、装置動き検出回路127Aからの出力は、カメラマイクロコンピュータ116内の装置動き情報処理部128Aで演算処理され、動き情報としてコンピュータズームユニット119に出力される。装置動き情報処理部128Aは、角速度センサや、加速度センサ、画像処理による動きベクトル抽出による方法も用いることができる。角速度センサを用いる場合、装置動き情報処理部128Aにおいて、角速度センサから得られる角速度ωを算出する。角速度ωは、動き情報としてコンピュータズームユニット119に出力される。   The output from the device motion detection circuit 127A is subjected to arithmetic processing by the device motion information processing unit 128A in the camera microcomputer 116, and is output to the computer zoom unit 119 as motion information. The apparatus motion information processing unit 128A can also use an angular velocity sensor, an acceleration sensor, and a method based on motion vector extraction by image processing. When the angular velocity sensor is used, the apparatus motion information processing unit 128A calculates the angular velocity ω obtained from the angular velocity sensor. The angular velocity ω is output to the computer zoom unit 119 as motion information.

また、被写体動き検出回路127Bからの出力は、カメラマイクロコンピュータ116内の被写体動き情報処理部128Bで演算処理され、被写体動き情報としてコンピュータズームユニット119に出力される。被写体動き情報処理部128Bは、画像処理による動き検出や被写体距離変化による動き検出による方法も用いることができる。   The output from the subject motion detection circuit 127B is processed by the subject motion information processing unit 128B in the camera microcomputer 116 and output to the computer zoom unit 119 as subject motion information. The subject motion information processing unit 128B can also use a method of motion detection by image processing or motion detection by subject distance change.

画像処理による動き検出方法の場合、撮像素子106により取得された画像情報に基づいて動きベクトルを抽出する。時間Tにおいて取得された画像Iと時間T’において取得された画像I’を比較し、変化量を求める、その変化量から動きベクトルVと算出する。例えば、カメラがパンニング動作をした場合や被写体が動いた場合、画像IとI’に変化が生じるため、動きベクトルVが増加する。よって、動きベクトルVを検出することにより、パンニング動作や、被写体動き判定に用いることが可能である。   In the case of a motion detection method based on image processing, a motion vector is extracted based on image information acquired by the image sensor 106. The image I acquired at time T and the image I ′ acquired at time T ′ are compared to determine the amount of change, and the motion vector V is calculated from the amount of change. For example, when the camera performs a panning operation or the subject moves, the images I and I ′ change, and the motion vector V increases. Therefore, by detecting the motion vector V, it can be used for panning operation and subject motion determination.

また、AFスイッチ131がオンで、ズームスイッチ130が操作されていない場合、AF制御ユニット117は、AF信号処理回路109からのAF評価値信号が最大となるようにフォーカスモータドライバ126に信号を出力する。この信号に基づいて、フォーカスモータドライバ126は、フォーカスモータ125を駆動してフォーカスレンズユニット105を移動させる。これにより、自動焦点調節動作が行われる。   When the AF switch 131 is on and the zoom switch 130 is not operated, the AF control unit 117 outputs a signal to the focus motor driver 126 so that the AF evaluation value signal from the AF signal processing circuit 109 is maximized. To do. Based on this signal, the focus motor driver 126 drives the focus motor 125 to move the focus lens unit 105. Thereby, an automatic focus adjustment operation is performed.

ここで、被写体距離検出回路127は、アクティブセンサを用いた三角測距方式で被写体までの距離を測定し、その測定結果である距離情報を出力する。この場合のアクティブセンサとしては、コンパクトカメラによく使用される赤外線センサを用いることができる。なお本実施例の距離検出手段は、三角測距方式で距離検出を行うように構成されているが、これに限定されるものではなく、三角測距方式以外の距離検出手段を用いることもできる。例えば、TTL位相差検出方式による距離検出を行ってもよい。この場合、撮影レンズの射出瞳を通過した光を分割する素子(ハーフプリズム又はハーフミラー)を設け、この素子から射出した光をサブミラーや結像レンズを介して少なくとも2つのラインセンサへと導く。そして、これらラインセンサの出力の相関を取り、これらの出力のずれ方向およびずれ量を検出し、これらの検出結果から被写体までの距離を求める。   Here, the subject distance detection circuit 127 measures the distance to the subject by a triangulation method using an active sensor, and outputs distance information that is the measurement result. As an active sensor in this case, an infrared sensor often used for a compact camera can be used. The distance detection means of the present embodiment is configured to detect distance by the triangulation method, but is not limited to this, and distance detection means other than the triangulation method can be used. . For example, distance detection by a TTL phase difference detection method may be performed. In this case, an element (half prism or half mirror) that divides the light that has passed through the exit pupil of the photographing lens is provided, and the light emitted from this element is guided to at least two line sensors via the sub-mirror and the imaging lens. Then, the correlation between the outputs of these line sensors is taken, the shift direction and shift amount of these outputs are detected, and the distance to the subject is obtained from these detection results.

図14および図15を参照して、三角測距および位相差検出方式による距離測定について説明する。図14は、三角測距方式による距離測定の説明図である。図15は、位相差検出方式による距離測定の説明図である。図14において、201は被写体、202は第1の光路用の結像レンズ、203は第1の光路用のラインセンサ、204は第2の光路用の結像レンズ、205は第2の光路用のラインセンサである。両ラインセンサ203、205は、基線長Bだけ離れて設置されている。被写体201からの光のうち、結像レンズ202によって第1の光路を通った光がラインセンサ203上に結像し、結像レンズ204によって第2の光路を通った光がラインセンサ205上に結像する。   With reference to FIG. 14 and FIG. 15, the distance measurement by the triangulation and the phase difference detection method will be described. FIG. 14 is an explanatory diagram of distance measurement by the triangulation method. FIG. 15 is an explanatory diagram of distance measurement by the phase difference detection method. In FIG. 14, 201 is a subject, 202 is an imaging lens for the first optical path, 203 is a line sensor for the first optical path, 204 is an imaging lens for the second optical path, and 205 is for the second optical path. This is a line sensor. Both line sensors 203 and 205 are installed apart by a base line length B. Of the light from the subject 201, the light passing through the first optical path by the imaging lens 202 forms an image on the line sensor 203, and the light passing through the second optical path by the imaging lens 204 is applied to the line sensor 205. Form an image.

図15は、第1の光路と第2の光路を通って結像した2つの被写体像を受けたラインセンサ203、205から読み出された信号の例を示している。2つのラインセンサ203、205は基線長Bだけ離れているため、図14からわかるように、被写体像信号は画素数Xだけずれたものとなる。そこで2つの信号の相関を、画素をずらしながら演算し、相関が最大になる画素ずらし量を求めることで画素数Xが演算可能である。画素数Xと基線長B、および結像レンズ202、204の焦点距離fより、三角測量の原理で被写体までの距離Lが、L=B×f/Xにより求められる。   FIG. 15 shows an example of signals read from the line sensors 203 and 205 that have received two subject images formed through the first optical path and the second optical path. Since the two line sensors 203 and 205 are separated by the base line length B, the subject image signal is shifted by the number of pixels X as can be seen from FIG. Thus, the number of pixels X can be calculated by calculating the correlation between the two signals while shifting the pixels and obtaining the pixel shift amount that maximizes the correlation. From the number of pixels X, the base line length B, and the focal length f of the imaging lenses 202 and 204, the distance L to the subject is determined by L = B × f / X based on the principle of triangulation.

また、同時に距離情報処理部128において信頼性を表す情報の算出を行う。位相差検出方式の場合、2つの信号の相関値から算出することができる。被写体までの距離Lを算出する際に、2つの信号の相関量が最大となる画素ずらし量を求める。この相関値の最大量、すなわちピーク値は、入力された2つの信号によって変化する。コントラストの低い信号などは、相間値のピークが低くなる場合があるため、同じ被写体距離結果でも、相関値のピークが高い場合と低い場合の結果が混在する。そこで、相関値を被写体距離の信頼性を表す情報として利用する。相間値のピークが高い場合、高い信頼性を持つ距離検出結果であるとする。なお、位相差検出方式の場合、信頼性が低い計測結果は利用しないこととする。   At the same time, the distance information processing unit 128 calculates information representing reliability. In the case of the phase difference detection method, it can be calculated from the correlation value of two signals. When calculating the distance L to the subject, the pixel shift amount that maximizes the correlation amount between the two signals is obtained. The maximum amount of the correlation value, that is, the peak value varies depending on the two input signals. Since the peak of the interphase value may be low for a signal with low contrast, the result of the case where the correlation value peak is high and low is mixed even in the same subject distance result. Therefore, the correlation value is used as information representing the reliability of the subject distance. When the peak of the interphase value is high, it is assumed that the distance detection result has high reliability. In the case of the phase difference detection method, measurement results with low reliability are not used.

また距離検出手段として、超音波センサを用いてその伝搬速度を測定して被写体までの距離を検出する方法も採用することができる。この場合、信頼性を表す情報として、反射率や減衰率などを利用する。被写体表面の性質によっては、超音波の反射率が下がり、計測が困難になる。このため、反射率を求めることにより、検出結果の信頼性を把握することが可能となる。また、超音波信号の被写体距離に伴う減衰率も同様である。   Further, as a distance detection means, a method of detecting the distance to the subject by measuring the propagation speed using an ultrasonic sensor can be employed. In this case, a reflectance, an attenuation factor, or the like is used as information representing reliability. Depending on the nature of the surface of the subject, the reflectance of the ultrasonic wave decreases, making measurement difficult. For this reason, it is possible to grasp the reliability of the detection result by obtaining the reflectance. The same applies to the attenuation rate associated with the subject distance of the ultrasonic signal.

被写体距離検出回路127からの距離情報は、距離情報処理部128に送られる。距離情報処理部128では、以下の3つの処理を行う。第一に、現在のズームレンズユニット102およびフォーカスレンズユニット105の位置が、図8上のどの距離のカム軌跡上の位置に対応するかを算出する。カム軌跡の算出は、例えば、図4のステップS401で説明したように、現在のレンズユニット位置を基に、図11の列方向のγ列とγ+1列のカム軌跡をα/βの比率に内分する仮想的なカム軌跡が、被写体距離として何mに相当するのかを出力する。軌跡パラメータα、β、γと、被写体距離とは、所定の相関テーブルデータで変換され、主被写体の実距離が出力可能である。   The distance information from the subject distance detection circuit 127 is sent to the distance information processing unit 128. The distance information processing unit 128 performs the following three processes. First, it calculates which distance on the cam locus in FIG. 8 corresponds to the current positions of the zoom lens unit 102 and the focus lens unit 105. For example, as described in step S401 in FIG. 4, the cam trajectory is calculated based on the current lens unit position by adding the cam trajectories in the γ row and γ + 1 row in the column direction in FIG. 11 to the ratio of α / β. It outputs how many meters the virtual cam trajectory corresponds to the subject distance. The trajectory parameters α, β, γ and subject distance are converted by predetermined correlation table data, and the actual distance of the main subject can be output.

第二に、被写体距離検出回路127からの被写体の実距離を、上記の相関テーブルの逆変換を行うことで、軌跡パラメータα、β、γで表現される図8上のカム軌跡を求める。このとき、相関テーブルの逆変換処理は、図8のカム軌跡が収束しているワイド側のデータは使用せず、軌跡が分散している、出来るだけテレ側のデータを用いて行われ、最も分解能の高い軌跡パラメータが得られるようにしている。   Second, the actual distance of the subject from the subject distance detection circuit 127 is inversely transformed in the above correlation table to obtain the cam locus in FIG. 8 expressed by the locus parameters α, β, γ. At this time, the inverse conversion processing of the correlation table is performed using data on the tele side as much as possible, with the locus being dispersed, without using the data on the wide side where the cam locus in FIG. 8 is converged. A trajectory parameter with high resolution is obtained.

第三に、上述の第一の処理と第二の処理における実距離差と差分方向を算出する。これら3つの処理のうち、第二の処理により、被写体距離検出回路127で検出された検出距離に相当するカム軌跡データの特定を行うことができる。一方、カメラマイクロコンピュータ116は、露出制御も行う。カメラマイクロコンピュータ116は、カメラ信号処理回路108で生成されたテレビ信号の輝度レベルを参照し、輝度レベルが露出に適正となるようアイリスドライバ124を制御してIGメータ123を駆動し、絞り103の開口を制御する。絞り103の開口量は、アイリスエンコーダ129により検出され、絞り103のフィードバック制御が行われる。また、絞り103のみでは適正な露出制御ができない場合、撮像素子106の露光時間をタイミングジェネレータ132(TG)により制御し、高速シャッターから所謂スローシャッターと呼ばれる長時間露光まで対応する。また、低照度下での撮影など露出が不足する際には、増幅器107を通じてテレビ信号のゲインを制御する。撮影者は、メニュースイッチユニット135を操作することで、撮影条件に適した撮影モードやカメラの機能切換えをマニュアル操作できる。   Third, an actual distance difference and a difference direction in the first process and the second process described above are calculated. Of these three processes, the second process can identify cam locus data corresponding to the detected distance detected by the subject distance detection circuit 127. On the other hand, the camera microcomputer 116 also performs exposure control. The camera microcomputer 116 refers to the luminance level of the television signal generated by the camera signal processing circuit 108, controls the iris driver 124 so that the luminance level is appropriate for exposure, drives the IG meter 123, and Control the opening. The opening amount of the diaphragm 103 is detected by an iris encoder 129, and feedback control of the diaphragm 103 is performed. In addition, when appropriate exposure control cannot be performed only with the aperture 103, the exposure time of the image sensor 106 is controlled by the timing generator 132 (TG), and it corresponds to a high-speed shutter to a long-time exposure called a so-called slow shutter. Further, when exposure is insufficient such as shooting under low illumination, the gain of the television signal is controlled through the amplifier 107. The photographer can manually operate the shooting mode and camera function switching suitable for the shooting conditions by operating the menu switch unit 135.

次に、図3を参照して、ズーミング動作時のアルゴリズムについて説明する。本実施例では、カメラマイクロコンピュータ116内のコンピュータズームユニット119が、前述の各動作フロー(プログラム)を含めて、以下に説明する動作フローの処理を実行する。また本実施例では、被写体距離検出回路127より得られる距離情報に応じて、追従すべきカム軌跡を特定(生成)し、ズーミング動作を行う。図3の動作フローは、距離情報を用いて、追従すべきカム軌跡であるズームトラッキングカーブを特定(生成)しながらズーミング動作する方法の例である。この方法は、超高速ズームなどAF評価値の検出周期が粗くなり、TV−AFの参照信号(AF評価値信号)だけではズームトラッキングカーブの特定に充分な精度が上げられない場合に有効である。   Next, an algorithm during a zooming operation will be described with reference to FIG. In this embodiment, the computer zoom unit 119 in the camera microcomputer 116 executes the processing of the operation flow described below including the above-described operation flows (programs). In this embodiment, the cam locus to be followed is specified (generated) according to the distance information obtained from the subject distance detection circuit 127, and the zooming operation is performed. The operation flow in FIG. 3 is an example of a method for performing a zooming operation while specifying (generating) a zoom tracking curve that is a cam locus to be followed using distance information. This method is effective when the AF evaluation value detection cycle becomes rough, such as ultra-high-speed zoom, and the accuracy sufficient for specifying the zoom tracking curve cannot be increased only by the TV-AF reference signal (AF evaluation value signal). .

図3のフローは、本実施例において、先に説明した図7のステップS705に相当し、図4と同様な処理(ステップ)については、同一符号を付して説明を省略する。まずステップS400において、ズーム動作時のズーム速度を決定する。続いてステップS300では、被写体距離検出回路127の出力信号に応じて、現在の主被写体の撮影距離が、図8に示される代表軌跡のうちいずれのカム軌跡に対応する距離であるかを判定し、軌跡パラメータα、β、γを算出する。また同時に、図4のステップS401で説明した、現在のズームレンズ位置およびフォーカスレンズ位置に応じた軌跡パラメータαnow、βnow、γnowを算出する。ここで、αnow、βnow、γnow は、図5のステップS512からステップS515に至る処理で算出したα、β、γをそれぞれαnow、βnow、γnowとしてメモリに格納された値である。   The flow of FIG. 3 corresponds to step S705 of FIG. 7 described above in the present embodiment, and the same processing (step) as in FIG. First, in step S400, the zoom speed during the zoom operation is determined. Subsequently, in step S300, in accordance with the output signal from the subject distance detection circuit 127, it is determined which of the representative trajectories shown in FIG. The trajectory parameters α, β, γ are calculated. At the same time, the trajectory parameters αnow, βnow, and γnow corresponding to the current zoom lens position and focus lens position described in step S401 of FIG. 4 are calculated. Here, αnow, βnow, and γnow are values stored in the memory as αnow, βnow, and γnow, respectively, that are calculated in the processing from step S512 to step S515 in FIG.

一方、被写体距離検出回路127により得られた距離情報に基づく軌跡パラメータは、α、β、γとして、例えば以下の方法で算出される。まず、出力される距離情報と図8に示される代表軌跡(カム軌跡)との相関を得るために、予め代表的な被写体距離のカム軌跡(カムカーブ)形状が均一な範囲で、距離の変化と軌跡パラメータとの相関をテーブルデータ化する。これにより、距離情報を入力として、軌跡パラメータの算出を行う。カム軌跡形状が変化する被写体距離では、別の相関関係を表すルックアップテーブルを設け、これらテーブルを複数持つことで、全ての被写体距離毎に軌跡パラメータが得られる。   On the other hand, the trajectory parameters based on the distance information obtained by the subject distance detection circuit 127 are calculated as α, β, γ, for example, by the following method. First, in order to obtain the correlation between the output distance information and the representative trajectory (cam trajectory) shown in FIG. The correlation with the trajectory parameter is converted into table data. Thus, the trajectory parameter is calculated using the distance information as an input. For subject distances in which the cam trajectory shape changes, a lookup table representing another correlation is provided, and by having a plurality of these tables, trajectory parameters can be obtained for every subject distance.

焦点距離に関しては、メモリ内にデータとして有している図8の離散的なカム軌跡情報のうち、軌跡パラメータα、β、γの分解能が最も高い長焦点距離側での軌跡パラメータが出力できるように構成する。これにより、図8に示されるように、ワイド側でカム軌跡が収束している位置に現在のレンズ位置が存在しても、距離情報に応じて、カム軌跡が発散しているテレ側のポイントでの軌跡パラメータを引き出すことが可能となる。したがって、ズームレンズユニット102がワイド側に位置している時点で、テレ側での軌跡パラメータを基に(内挿)演算することで、フォーカスレンズユニット105が辿るべきカム軌跡を1本特定することが可能となる。なお、ステップS300は、所定周期(例えば、1垂直同期周期)ごとに実行される。このため、ズーミング中に被写体距離が変化したとしても、被写体距離検出回路127の出力に従い、最新の辿るべきカム軌跡が逐次更新される。   Regarding the focal length, the trajectory parameters on the long focal length side where the resolution of the trajectory parameters α, β, γ is the highest among the discrete cam trajectory information of FIG. 8 held as data in the memory can be output. Configure. As a result, as shown in FIG. 8, even if the current lens position exists at the position where the cam locus converges on the wide side, the point on the tele side where the cam locus diverges according to the distance information. It is possible to extract the trajectory parameters at. Accordingly, when the zoom lens unit 102 is positioned on the wide side, one cam locus that the focus lens unit 105 should follow is specified by performing (interpolation) calculation based on the locus parameter on the tele side. Is possible. Step S300 is executed every predetermined cycle (for example, one vertical synchronization cycle). For this reason, even if the subject distance changes during zooming, the latest cam trajectory to be followed is sequentially updated according to the output of the subject distance detection circuit 127.

次にステップS301では、被写体距離検出回路127の出力(すなわちステップS300で算出したα、β、γ)に基づき、カム軌跡の補正範囲を決定する。この補正範囲は、TV−AF信号(AF評価値)を用いた追従カム軌跡の補正動作における補正範囲に相当する。この補正範囲は、例えば、図2に示されるカム軌跡の補正範囲において、補正範囲上限1201と補正範囲下限1202とで挟まれた範囲である。この補正範囲は、被写体距離検出回路127による距離情報と検出精度に基づいて大まかな追従すべきカム軌跡を特定した後、TV−AF信号による補正動作(ジグザグ動作)により精密な追従カム軌跡を再特定する際の再特定範囲を制限するために設定される。   In step S301, the cam locus correction range is determined based on the output of the subject distance detection circuit 127 (that is, α, β, γ calculated in step S300). This correction range corresponds to the correction range in the tracking cam locus correction operation using the TV-AF signal (AF evaluation value). This correction range is, for example, a range sandwiched between a correction range upper limit 1201 and a correction range lower limit 1202 in the cam locus correction range shown in FIG. This correction range specifies a cam locus that should be roughly followed based on distance information and detection accuracy by the subject distance detection circuit 127, and then regenerates a precise following cam locus by a correction operation (zigzag operation) using a TV-AF signal. It is set to limit the re-specific range when specifying.

例えば、被写体距離検出回路127からの出力が、5mの被写体距離1203に対応する場合、補正範囲をその被写体距離の±50cmの範囲に制限する。すなわち、補正範囲上限1201は4.5mの被写体距離に対応するカム軌跡に相当し、補正範囲下限1202は5.5mの被写体距離に対応するカム軌跡に相当する。なお、この補正範囲は、被写体距離検出回路127の検出精度に応じて決定すればよい。   For example, when the output from the subject distance detection circuit 127 corresponds to a subject distance 1203 of 5 m, the correction range is limited to a range of ± 50 cm of the subject distance. That is, the correction range upper limit 1201 corresponds to a cam locus corresponding to a subject distance of 4.5 m, and the correction range lower limit 1202 corresponds to a cam locus corresponding to a subject distance of 5.5 m. The correction range may be determined according to the detection accuracy of the subject distance detection circuit 127.

ただし、この補正範囲の制限を全ての撮影条件と全てのカメラ動作状況に対して適用すると、被写体距離に対応しない補正範囲の制限や、追従すべきカム軌跡の特定を妨げる場合がある。そこで本実施例のレンズ制御装置は、撮影条件(撮影情報およびレンズ制御装置の動作状態に関する情報)に応じて、補正範囲の制限を適用するか否かを判定する。以下、図16を参照して、この判定方法について説明する。   However, if this limitation on the correction range is applied to all shooting conditions and all camera operating conditions, it may interfere with the limitation of the correction range that does not correspond to the subject distance and the identification of the cam locus to be followed. Therefore, the lens control device of the present embodiment determines whether or not to apply the limitation of the correction range according to the shooting conditions (shooting information and information regarding the operation state of the lens control device). Hereinafter, this determination method will be described with reference to FIG.

図16は、レンズ制御装置が補正範囲の適用の可否を判定するフローチャートである。移動範囲判定部128Cは、コンピュータズームユニット119に送られる情報およびマイクロコンピュータ118で算出される情報に基づいて、補正範囲の適用の可否を判定する。まずステップS801において、検出精度に基づいて補正範囲Wを決定する。補正範囲Wは、例えば被写体距離5mに対してその±50cmの範囲というように、被写体距離に対応する情報に基づいて予め決められた範囲である。   FIG. 16 is a flowchart in which the lens control device determines whether or not the correction range can be applied. The movement range determination unit 128C determines whether or not the correction range can be applied based on information sent to the computer zoom unit 119 and information calculated by the microcomputer 118. First, in step S801, the correction range W is determined based on the detection accuracy. The correction range W is a predetermined range based on information corresponding to the subject distance, for example, a range of ± 50 cm with respect to the subject distance of 5 m.

続いて、ステップS802〜S805において、被写体距離検出回路127の測距対象と撮像素子106から得られる焦点信号の測距対象とが同一であるか否か、すなわち同一被写体を測定しているか否かを判定する。まずステップS802において、AF信号処理回路109からの焦点信号(焦点状態を表す焦点信号)の測距枠位置SAFを取得する。続いてステップS803において、距離情報処理部128(被写体距離検出回路127)からの測距枠位置SDistを取得する。ステップS804において、取得した測距枠位置SAF、SDistに基づいて、これら2つの枠位置の一致率Eを算出する。そしてステップS805において、一致率Eを閾値Th1と比較する。一致率Eが閾値Th1未満である場合、同一被写体を測距していないと判定し、補正範囲Wを適用しない(ステップS823)。一方、一致率Eが閾値Th1よりも高い場合、同一被写体を測距しているものと判定し、ステップS806に進む。 Subsequently, in steps S802 to S805, whether or not the distance measurement target of the subject distance detection circuit 127 and the distance measurement target of the focus signal obtained from the image sensor 106 are the same, that is, whether or not the same subject is being measured. Determine. First, in step S802, the obtaining the measurement frame position S AF of the focus signal from the AF signal processing circuit 109 (focus signal representing a focus state). In step S803, the distance measurement frame position S Dist is acquired from the distance information processing unit 128 (subject distance detection circuit 127). In step S804, the coincidence rate E between these two frame positions is calculated based on the acquired distance measurement frame positions S AF and S Dist . In step S805, the coincidence rate E is compared with a threshold value Th1. When the coincidence rate E is less than the threshold value Th1, it is determined that the same subject has not been measured, and the correction range W is not applied (step S823). On the other hand, when the coincidence rate E is higher than the threshold value Th1, it is determined that the same subject is being measured, and the process proceeds to step S806.

このようにカメラマイクロコンピュータ116は、被写体距離検出回路127の測距枠位置SDistと焦点状態を表す焦点信号の測距枠位置SAFとの差異を検出する差異検出手段(不図示)を有する。そしてコンピュータズームユニット119は、この差異が所定の閾値以上(一致率Eが閾値Th1以下)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は差異検出手段により検出される差異である。   As described above, the camera microcomputer 116 has difference detection means (not shown) for detecting a difference between the distance measurement frame position SDist of the subject distance detection circuit 127 and the distance measurement frame position SAF of the focus signal representing the focus state. The computer zoom unit 119 controls the movement of the focus lens unit 105 without applying the correction range W when the difference is equal to or greater than a predetermined threshold (the coincidence rate E is equal to or less than the threshold Th1). At this time, the photographing condition is a difference detected by the difference detecting means.

次にステップS806、S807において、カメラのパンニング動作の判定を行う。まずステップS806において、装置動き情報処理部128Aは、装置動き検出回路127A(角速度検出手段)により検出された角速度ωを取得する。そしてステップS807において、角速度ω(|ω|)を閾値Th2と比較する。閾値Th2は、パンニング動作を判定するのに十分な値であるとする。角速度ωが閾値Th2以上である場合、パンニング動作にて被写体が変更されるものと判定し、補正範囲Wを適用しない(ステップS823)。一方、角速度ωが閾値Th2よりも小さい場合、パンニング動作ではなく被写体の変更がないものと判定し、ステップS808に進む。このようにコンピュータズームユニット119は、角速度ωが所定の閾値以上(閾値Th2以上)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、装置動き検出回路127Aにより検出される角速度ωである。   Next, in steps S806 and S807, the camera panning operation is determined. First, in step S806, the device motion information processing unit 128A acquires the angular velocity ω detected by the device motion detection circuit 127A (angular velocity detection means). In step S807, the angular velocity ω (| ω |) is compared with the threshold value Th2. The threshold value Th2 is assumed to be a value sufficient to determine the panning operation. When the angular velocity ω is equal to or higher than the threshold Th2, it is determined that the subject is changed by the panning operation, and the correction range W is not applied (step S823). On the other hand, when the angular velocity ω is smaller than the threshold value Th2, it is determined that the subject is not changed rather than the panning operation, and the process proceeds to step S808. As described above, the computer zoom unit 119 controls the movement of the focus lens unit 105 without applying the correction range W when the angular velocity ω is equal to or greater than a predetermined threshold (threshold Th2 or greater). At this time, the photographing condition is an angular velocity ω detected by the apparatus motion detection circuit 127A.

次にステップS808、S809において、被写体の変更の有無を判定する。まずステップS808において、被写体動き情報処理部128Bは、被写体動き検出回路127B(被写体動き検出手段)により検出された動きベクトルVを取得する。そしてステップS809において、動きベクトルV(|V|)を閾値Th3と比較する。なお、閾値Th3は被写体の動きを検知できる十分な値とする。動きベクトルVが閾値Th3以上であり、被写体の動きが検知されたと判定された場合、合焦を得たい被写体が移動し被写体距離の変更が生じた可能性があるため、補正範囲Wを適用しない(ステップS823)。以上の各処理を行うことにより、実際に合焦を得たい被写体までの距離に対応しない補正範囲の決定を回避できる。一方、被写体が同一であると判定され、かつ、レンズ一体型カメラのパンニング動作、被写体が動いたことによる被写体距離の変化がないと判定された場合、ステップS810に進む。このようにコンピュータズームユニット119は、動きベクトルVが所定の閾値以上(閾値Th3以上)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、被写体動き検出回路127Bにより検出される動きベクトルVである。   Next, in steps S808 and S809, it is determined whether or not the subject has been changed. First, in step S808, the subject motion information processing unit 128B acquires the motion vector V detected by the subject motion detection circuit 127B (subject motion detection means). In step S809, the motion vector V (| V |) is compared with a threshold value Th3. Note that the threshold Th3 is set to a value sufficient to detect the movement of the subject. If the motion vector V is equal to or greater than the threshold value Th3 and it is determined that the motion of the subject has been detected, the subject to be focused may have moved and the subject distance may have changed, so the correction range W is not applied. (Step S823). By performing the above processes, it is possible to avoid the determination of the correction range that does not correspond to the distance to the subject that actually wants to be focused. On the other hand, if it is determined that the subject is the same, and it is determined that there is no change in the subject distance due to the panning operation of the lens-integrated camera and the subject moving, the process proceeds to step S810. Thus, the computer zoom unit 119 controls the movement of the focus lens unit 105 without applying the correction range W when the motion vector V is greater than or equal to a predetermined threshold (threshold greater than or equal to threshold Th3). At this time, the photographing condition is a motion vector V detected by the subject motion detection circuit 127B.

続いてステップS810〜S814では、被写体距離検出回路127の出力と信頼性を表す情報に基づいて、補正範囲Wを適用するか否かの判定を行う。まずステップS810、S811において、被写体距離検出回路127から検出された、一定時間における被写体距離に対応する情報のばらつき分布(ばらつき範囲W’)に応じた補正範囲Wの適用有無の判定を行う。ステップS810にて、距離情報処理部128は、ばらつき分布(ばらつき範囲W’)を取得する。ばらつき範囲W’が、ステップS801にて検出精度に基づき決定された補正範囲Wより比較的大きい場合、測距対象の測距が困難である可能性がある。例えば、被写体距離検出回路127が位相差方式である場合や、測定対象から得られる輝度信号が同じ波形の繰り返しである場合など、誤った相関を取って測定結果がばらつくことがある。このとき、ばらつき範囲W’が比較的大きくなる。この場合、検出結果に基づいた補正範囲Wを適用すると、誤差により、フォーカスレンズが焦点深度を超えて像ボケの原因になる可能性がある。このため、ばらつき範囲W’が比較的大きい場合には補正範囲Wを適用しない。本実施例では、ステップS811において、補正範囲Wに係数Kをかけた値とばらつき範囲W’とを比較している。この値がばらつき範囲W’以上である場合、補正範囲Wを適用しない(ステップS823)。一方、この値がばらつき範囲W’よりも小さい場合、ステップS812に進む。このようにコンピュータズームユニット119は、ばらつき範囲W’が補正範囲Wに所定の定数を掛けて得られた値がばらつき範囲W’を超えている場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、距離情報処理部128により得られたばらつき範囲W’である。   Subsequently, in steps S810 to S814, it is determined whether or not to apply the correction range W based on the output of the subject distance detection circuit 127 and information indicating the reliability. First, in steps S810 and S811, it is determined whether or not the correction range W is applied according to the variation distribution (variation range W ′) of information corresponding to the subject distance in a certain time detected from the subject distance detection circuit 127. In step S810, the distance information processing unit 128 acquires a variation distribution (variation range W ′). If the variation range W ′ is relatively larger than the correction range W determined based on the detection accuracy in step S801, it may be difficult to measure the distance to be measured. For example, when the subject distance detection circuit 127 is a phase difference method or when the luminance signal obtained from the measurement target is a repetition of the same waveform, the measurement result may vary due to erroneous correlation. At this time, the variation range W ′ becomes relatively large. In this case, when the correction range W based on the detection result is applied, the focus lens may exceed the depth of focus and cause image blur due to an error. For this reason, the correction range W is not applied when the variation range W ′ is relatively large. In this embodiment, in step S811, a value obtained by multiplying the correction range W by the coefficient K is compared with the variation range W ′. If this value is greater than or equal to the variation range W ′, the correction range W is not applied (step S823). On the other hand, if this value is smaller than the variation range W ′, the process proceeds to step S812. As described above, when the variation range W ′ is obtained by multiplying the correction range W by a predetermined constant, the computer zoom unit 119 does not apply the correction range W and applies the focus lens unit. The movement of 105 is controlled. At this time, the photographing condition is a variation range W ′ obtained by the distance information processing unit 128.

また、距離情報処理部128は、被写体距離に対応する情報の信頼性を取得するが、この信頼性を表す情報においても同様である。信頼性が低い結果に基づく制限は、実際に合焦を得たい対象物までの距離に対応しない補正範囲を生成する場合がある。そこで、まずステップS812において、距離情報処理部128は、被写体距離検出回路127から被写体距離に対応する情報の信頼性を取得する。そしてステップS813において、この情報(信頼性)が所定の閾値Th4以下である場合、その検出結果には誤差を含んでいる可能性があるため補正範囲Wを適用しない。このようにコンピュータズームユニット119は、信頼性が所定の閾値以下(閾値Th4以下)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、距離情報処理部128により得られた信頼性である。   The distance information processing unit 128 acquires the reliability of the information corresponding to the subject distance, but the same applies to the information representing the reliability. The restriction based on the result with low reliability may generate a correction range that does not correspond to the distance to the object that is actually desired to be focused. Therefore, first, in step S812, the distance information processing unit 128 acquires the reliability of information corresponding to the subject distance from the subject distance detection circuit 127. In step S813, if this information (reliability) is equal to or less than the predetermined threshold Th4, the correction range W is not applied because the detection result may include an error. As described above, the computer zoom unit 119 controls the movement of the focus lens unit 105 without applying the correction range W when the reliability is equal to or lower than the predetermined threshold value (threshold value Th4 or lower). At this time, the imaging condition is the reliability obtained by the distance information processing unit 128.

ただし、明るさにより、信頼性が閾値Th4を超えていなくても補正範囲Wを適用したほうがよい場合がある。そこでステップS814において、この信頼性と、閾値Th4よりも小さい閾値Th5とを比較する。この信頼性が閾値Th5以下である場合、いかなる明るさであっても補正範囲Wを適用しない(ステップS823)。一方、信頼性が閾値Th5より大きい場合、明るさの判定を行うため、ステップS815に進む。   However, depending on the brightness, it may be better to apply the correction range W even if the reliability does not exceed the threshold Th4. In step S814, the reliability is compared with a threshold Th5 that is smaller than the threshold Th4. When the reliability is equal to or less than the threshold Th5, the correction range W is not applied at any brightness (step S823). On the other hand, if the reliability is greater than the threshold value Th5, the process proceeds to step S815 to determine brightness.

撮像素子106は撮影可能照度を有するため、この照度よりも低い照度での撮影は困難である。また、映像信号を用いるTVAF制御方式も制御が困難となる。そこで、被写体距離検出回路127の検出可能最低照度が撮像素子106の撮影可能最低照度よりも低い場合、被写体距離検出回路127の検出結果を信頼し、補正範囲Wを適用する。このためステップS815において、撮像素子106(CCD)からの明るさYを取得する。そしてステップS816において、明るさYが基準照度(閾値Th6)以上である場合、補正範囲Wを適用しない(ステップS823)。一方、明るさYが閾値Th6より小さい場合、撮像素子106の照度不足と判定する。この場合、信頼性が低い場合でも距離検出結果を用いた制限を行う。このように、被写体距離がある程度信頼できると判定された場合、ステップS817に進む。   Since the imaging element 106 has a illuminance that can be photographed, it is difficult to photograph at an illuminance lower than this illuminance. Also, the TVAF control method using a video signal is difficult to control. Therefore, when the lowest illuminance detectable by the subject distance detection circuit 127 is lower than the lowest illuminance that can be photographed by the image sensor 106, the detection result of the subject distance detection circuit 127 is trusted and the correction range W is applied. Therefore, in step S815, the brightness Y from the image sensor 106 (CCD) is acquired. In step S816, if the brightness Y is equal to or higher than the reference illuminance (threshold Th6), the correction range W is not applied (step S823). On the other hand, when the brightness Y is smaller than the threshold Th6, it is determined that the illuminance of the image sensor 106 is insufficient. In this case, even if the reliability is low, the restriction using the distance detection result is performed. As described above, when it is determined that the subject distance is reliable to some extent, the process proceeds to step S817.

このように、撮像素子106は、ズームレンズユニット102およびフォーカスレンズユニット105を含む光学系により形成された光学像を検出する照度検出手段である。そしてコンピュータズームユニット119は、明るさY(照度)が所定の閾値以上(閾値Th6以上)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、撮像素子106により検出された明るさY(照度)である。   As described above, the image sensor 106 is illuminance detection means that detects an optical image formed by an optical system including the zoom lens unit 102 and the focus lens unit 105. The computer zoom unit 119 controls the movement of the focus lens unit 105 without applying the correction range W when the brightness Y (illuminance) is equal to or greater than a predetermined threshold (threshold Th6 or greater). At this time, the photographing condition is brightness Y (illuminance) detected by the image sensor 106.

次にステップS817〜S821において、撮影時のカメラの設定に応じた判定を行う。まずステップS817において、ズームレンズ速度Vzを取得する。続いてステップS818において、シャッター速度Vsを取得する。ズームレンズが低速で動いている場合、ワイドからテレまでの移動に十分な時間が取れるため、AF評価値信号の取得回数も必然的に多くなる。このため、補正範囲Wを適用しなくても追従すべき軌跡を特定することが可能である。一方、ズームレンズが高速の場合、AF評価値信号の取得回数が少ないため、軌跡の特定が困難である。このため、距離検出結果を用いた補正範囲Wを適用する方が軌跡の特定に効果的である。これにより、低速の場合の不必要な補正範囲Wを回避できる。また、シャッター速度Vsについても同様である。シャッター速度Vsが低速の場合、ズーミング中のAF評価値信号の取得回数が少なくなるため、軌跡の特定が困難である。このため、距離検出結果を用いた補正範囲Wを適用する方が軌跡の特定に効果的である。   Next, in steps S817 to S821, a determination is made according to the camera settings at the time of shooting. First, in step S817, the zoom lens speed Vz is acquired. In step S818, the shutter speed Vs is acquired. When the zoom lens is moving at a low speed, a sufficient time is required for the movement from wide to telephoto, and the number of acquisitions of the AF evaluation value signal inevitably increases. For this reason, it is possible to specify the locus to be followed without applying the correction range W. On the other hand, when the zoom lens is high-speed, it is difficult to specify the locus because the number of AF evaluation value signal acquisitions is small. For this reason, applying the correction range W using the distance detection result is more effective for specifying the trajectory. Thereby, an unnecessary correction range W in the case of low speed can be avoided. The same applies to the shutter speed Vs. When the shutter speed Vs is low, the number of acquisitions of the AF evaluation value signal during zooming is reduced, so that it is difficult to specify the locus. For this reason, applying the correction range W using the distance detection result is more effective for specifying the trajectory.

このためステップS819において、ステップS817にてズームスイッチ130の情報から得られたズームレンズ速度Vzと、ステップS818にてカメラマイクロコンピュータ116により算出されたシャッター速度Vsとを用いた判定が行われる。具体的には、ステップS819において、ズームレンズ速度Vzと所定の閾値Th7とを比較し、また、シャッター速度Vsと所定の閾値Th8とを比較する。このように、ズームレンズ速度Vzおよびシャッター速度Vsに応じた補正範囲Wの適用判定を行うことで、不必要な補正範囲の設定を回避する。なお、閾値Th7としてはTVAFで十分に合焦できるズームレンズ速度が設定される。閾値Th8としては、通常撮影時のサンプル周期(一般的なビデオカメラの場合は60Hz)などが設定される。ステップS819において、ズームレンズ速度Vzが閾値Th7以下であり、かつ、シャッター速度Vsが閾値Th8以上である場合、補正範囲Wを適用しない(ステップS823)。一方、ズームレンズ速度Vzが閾値Th7より大きいか、または、シャッター速度Vsが閾値Th8よりも小さい場合、ステップS820に進む。   Therefore, in step S819, determination is performed using the zoom lens speed Vz obtained from the information of the zoom switch 130 in step S817 and the shutter speed Vs calculated by the camera microcomputer 116 in step S818. Specifically, in step S819, the zoom lens speed Vz is compared with a predetermined threshold Th7, and the shutter speed Vs is compared with a predetermined threshold Th8. In this way, unnecessary correction range setting is avoided by performing application determination of the correction range W according to the zoom lens speed Vz and the shutter speed Vs. The threshold Th7 is set to a zoom lens speed that can be sufficiently focused by TVAF. As the threshold Th8, a sample period during normal shooting (60 Hz in the case of a general video camera) is set. In step S819, if the zoom lens speed Vz is equal to or lower than the threshold Th7 and the shutter speed Vs is equal to or higher than the threshold Th8, the correction range W is not applied (step S823). On the other hand, if the zoom lens speed Vz is larger than the threshold value Th7 or the shutter speed Vs is smaller than the threshold value Th8, the process proceeds to step S820.

このように、レンズ制御装置はズームレンズユニット102の速度を検出する速度検出手段を有する。そしてコンピュータズームユニット119は、速度が所定の閾値以上(閾値Th7以下)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、ズームレンズユニット102の速度である。またレンズ制御装置は、ズームレンズユニット102およびフォーカスレンズユニット105を含む光学系により形成された光学像の撮像素子106に対する露光時間を制御するシャッター(露光時間制御手段)を有する。そしてコンピュータズームユニット119は、露光時間が所定の閾値以下(シャッター速度Vsが閾値Th8以上)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。   As described above, the lens control device includes speed detection means for detecting the speed of the zoom lens unit 102. The computer zoom unit 119 controls the movement of the focus lens unit 105 without applying the correction range W when the speed is equal to or higher than a predetermined threshold (threshold Th7 or lower). At this time, the photographing condition is the speed of the zoom lens unit 102. The lens control device also includes a shutter (exposure time control means) that controls the exposure time of the optical image formed by the optical system including the zoom lens unit 102 and the focus lens unit 105 with respect to the image sensor 106. The computer zoom unit 119 controls the movement of the focus lens unit 105 without applying the correction range W when the exposure time is equal to or less than a predetermined threshold (the shutter speed Vs is equal to or greater than the threshold Th8).

次にステップS820、S821において、絞り103(光量調節手段)の光量調節結果から決定される焦点深度に応じた補正範囲Wの適用可否の判定を行う。絞り103が小さく開いている場合には焦点深度が大きくなるため、焦点深度よりも小さい補正範囲にする必要はない。一方、焦点深度が小さい場合、距離検出結果を用いた補正範囲Wを適用する。このため、まずステップS820において、絞り103の値(絞り値)から焦点深度Wfを取得する。そしてステップS821において、ばらつき範囲W’と焦点深度Wfとを比較する。ばらつき範囲W’が焦点深度Wfより大きい場合、ステップS822に進み、補正範囲Wを適用する。一方、ばらつき範囲W’が焦点深度Wf以下である場合、ステップS823に進み、補正範囲Wを適用しない。このようにコンピュータズームユニット119は、焦点深度Wfがばらつき範囲W’を超えている場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。   Next, in steps S820 and S821, it is determined whether or not the correction range W can be applied according to the depth of focus determined from the light amount adjustment result of the diaphragm 103 (light amount adjusting unit). When the aperture 103 is small and open, the depth of focus becomes large, so that it is not necessary to make the correction range smaller than the depth of focus. On the other hand, when the depth of focus is small, the correction range W using the distance detection result is applied. Therefore, first, in step S820, the focal depth Wf is acquired from the value of the diaphragm 103 (aperture value). In step S821, the variation range W 'is compared with the focal depth Wf. When the variation range W ′ is larger than the focal depth Wf, the process proceeds to step S822, and the correction range W is applied. On the other hand, if the variation range W ′ is equal to or less than the focal depth Wf, the process proceeds to step S823, and the correction range W is not applied. As described above, when the depth of focus Wf exceeds the variation range W ′, the computer zoom unit 119 controls the movement of the focus lens unit 105 without applying the correction range W.

以上のとおり、撮影情報及びレンズ装置の動作状態に関する情報に基づいて補正範囲の適用有無を判定することにより、実際に合焦を得たい対象物までの距離に対応しない、不必要な補正範囲の適用を回避できる。また、補正範囲を適用することにより、被写体距離検出回路127の検出分解能(検出精度)を高める必要はない。この結果、安価で小型の撮像装置を提供することができる。また本実施例では、TV−AF信号を用いて追従カム軌跡を再特定する際のジグザグ動作の方向の切替回数を増加させ、かつ、同一の補正方向に補正し続ける頻度を減らす。このため、周波数の高い被写体を撮影する場合等で発生する場合があった、ジグザグ動作の動きどおりにジャスピンと若干の像ぼけを周期的に繰り返す様なぼけの発生を防止することが可能となる。更に、追従カム軌跡を間違えた時の像ぼけや正しいカム軌跡にリカバーする際の像ぼけの発生を低減することが可能となる。   As described above, by determining whether or not the correction range is applied based on the shooting information and information on the operation state of the lens apparatus, an unnecessary correction range that does not correspond to the distance to the target object that is actually desired to be focused is obtained. Application can be avoided. Moreover, it is not necessary to increase the detection resolution (detection accuracy) of the subject distance detection circuit 127 by applying the correction range. As a result, an inexpensive and small imaging device can be provided. Further, in this embodiment, the number of times of switching the direction of the zigzag operation when respecifying the tracking cam locus using the TV-AF signal is increased, and the frequency of continuing correction in the same correction direction is reduced. For this reason, it is possible to prevent the occurrence of blurring that repeats jaspin and slight image blur periodically according to the movement of the zigzag operation, which may have occurred when shooting a subject with a high frequency. . Furthermore, it is possible to reduce the occurrence of image blur when the following cam trajectory is mistaken or image blur when recovering to the correct cam trajectory.

実際の動作としては、TV−AF信号を用いた追従カム軌跡の補正動作(ジグザグ駆動)を、補正範囲上限1201と補正範囲下限1202とで挟まれた範囲内でのみ行う。この範囲を超えるような場合には、この補正範囲内に戻るようにフォーカスレンズユニット105の駆動方向を反転させるようにする。この結果、補正範囲上限1201と補正範囲下限1202との間の範囲外でのカム軌跡の再特定が禁止される。   As an actual operation, the tracking cam locus correction operation (zigzag driving) using the TV-AF signal is performed only within a range between the correction range upper limit 1201 and the correction range lower limit 1202. When exceeding this range, the drive direction of the focus lens unit 105 is reversed so as to return to the correction range. As a result, re-specification of the cam locus outside the range between the correction range upper limit 1201 and the correction range lower limit 1202 is prohibited.

本実施例では、被写体距離検出回路127の検出分解能に応じて補正範囲を設定し、その範囲内でのみTV−AF信号による精密な追従カム軌跡の特定を許可することにより、TV−AF信号の併用による誤動作および像ぼけの誘発を低減する。すなわち、被写体距離検出回路127からの出力に基づくカム軌跡の特定方法とTV−AF信号という合焦状態の検出信号に基づくカム軌跡の特定方法の2種類のカム軌跡特定方法による特定結果が一致する場合にのみ追従カム軌跡の再特定を許可する。この結果、それぞれの特定方法の長所のみを組み合わせた極めて精度の高いカム軌跡追従方式が実現可能となる。   In the present embodiment, a correction range is set in accordance with the detection resolution of the subject distance detection circuit 127, and the specification of the precise tracking cam locus by the TV-AF signal is permitted only within the range, whereby the TV-AF signal Reduce malfunction and image blur induced by the combined use. That is, the identification results of the two types of cam locus identification methods, the cam locus identification method based on the output from the subject distance detection circuit 127, and the cam locus identification method based on the in-focus state detection signal of the TV-AF signal match. Only when it is necessary to re-specify the tracking cam trajectory. As a result, it is possible to realize an extremely accurate cam trajectory tracking method that combines only the advantages of the specific methods.

特に、TV−AF信号による追従軌跡の特定時には、ジグザグ動作のためのフォーカスレンズの駆動速度(補正速度)を、無限側のカム軌跡から至近側のカム軌跡までカバー可能な速度に設定する必要がある。これに対し、本実施例ではカム軌跡の補正範囲を限定することにより、例えばフォーカスレンズの補正速度が同一でもその移動範囲が狭くなるため、単位時間当たりのジグザグ動作回数を第1の回数まで増やすことが可能となる。したがって、高速ズームの場合でもTV−AF信号によるカム軌跡特定精度を向上させることが可能となる。   In particular, when specifying the tracking locus by the TV-AF signal, it is necessary to set the driving speed (correction speed) of the focus lens for the zigzag operation to a speed that can cover from the infinite cam locus to the closest cam locus. is there. On the other hand, in this embodiment, by limiting the correction range of the cam trajectory, for example, even if the correction speed of the focus lens is the same, the movement range becomes narrow, so the number of zigzag operations per unit time is increased to the first number. It becomes possible. Therefore, it is possible to improve the cam locus specifying accuracy by the TV-AF signal even in the case of high speed zoom.

一方、ジグザグ動作回数を第1の回数まで増やさない場合、その分補正速度の設定値を下げることが可能となる。このため、高周波被写体を撮影する際の補正動作でのジャスピンと若干の像ぼけを周期的に繰り返すようなぼけの発生も低減可能である(詳細は実施例2で説明する)。従って、同じ手法であっても、ズーム速度優先、見え優先と、提供する撮像装置の製品仕様に応じて最適な制御方法でズーム性能を実現する高い自由度を有するズーミングシステムが提供可能となる。   On the other hand, when the number of zigzag operations is not increased to the first number, the set value of the correction speed can be lowered accordingly. Therefore, it is possible to reduce the occurrence of blur that periodically repeats justin and slight image blur in the correction operation when shooting a high-frequency subject (details will be described in the second embodiment). Therefore, even with the same technique, it is possible to provide a zooming system having a high degree of freedom for realizing zoom performance by a zoom speed priority, a visual priority, and an optimal control method according to the product specifications of the provided imaging apparatus.

図3の説明に戻る。以下、制限範囲を適用した場合のレンズ制御について説明する。ステップS302では、「AF補正フラグ」がセット状態か否かを判定する。セット状態であれば、ステップS303に進む。ステップS303では、軌跡パラメータαAF、βAF、γAFが、図2に示される補正範囲(補正範囲上限1201と補正範囲下限1202の間の範囲)内に含まれているか否かを判定する。軌跡パラメータαAF、βAF、γAFは、後述するステップS311において、AF評価値が図12にて説明した最大値1301となったことが検出されるごとに更新される。ステップS303において、軌跡パラメータαAF、βAF、γAFが補正範囲内にある場合、ステップS304において、軌跡パラメータαAF、βAF、γAFのそれぞれをα、β、γに設定する。そして、フォーカスレンズユニット105がこの補正動作によって再特定されたカム軌跡をトレースするように制御する。   Returning to the description of FIG. Hereinafter, lens control when the limited range is applied will be described. In step S302, it is determined whether or not the “AF correction flag” is set. If so, the process proceeds to step S303. In step S303, it is determined whether or not the trajectory parameters αAF, βAF, and γAF are included in the correction range shown in FIG. 2 (the range between the correction range upper limit 1201 and the correction range lower limit 1202). The trajectory parameters αAF, βAF, and γAF are updated each time it is detected that the AF evaluation value reaches the maximum value 1301 described with reference to FIG. If the trajectory parameters αAF, βAF, and γAF are within the correction range in step S303, the trajectory parameters αAF, βAF, and γAF are set to α, β, and γ, respectively, in step S304. Then, control is performed so that the focus lens unit 105 traces the cam locus re-specified by the correction operation.

一方、ステップS303で軌跡パラメータαAF、βAF、γAFが補正範囲外である場合、または、ステップS302で「AF補正フラグ」がクリアであった場合、ステップS300で既に決定されている軌跡パラメータα、β、γを保持する。軌跡パラメータα、β、γは、被写体距離検出回路127による距離情報に基づいて特定されている。そして、軌跡パラメータα、β、γにより特定されるカム軌跡をトレースするようにフォーカスレンズユニット105を制御する。   On the other hand, if the trajectory parameters αAF, βAF, and γAF are out of the correction range in step S303, or if the “AF correction flag” is cleared in step S302, the trajectory parameters α, β that have already been determined in step S300. , Hold γ. The trajectory parameters α, β, and γ are specified based on distance information from the subject distance detection circuit 127. Then, the focus lens unit 105 is controlled so as to trace the cam locus specified by the locus parameters α, β, and γ.

ここで、「AF補正フラグ」は、後述するTV−AF信号によって追従カム軌跡が再特定されたか否かを表すフラグである。被写体距離検出回路127による距離情報に基づく特定しかなされていない場合(再特定されていないか、または再特定されようとしているカム軌跡が図2の補正範囲外であり、誤特定の可能性が高い場合)、ステップS305で「AF補正フラグ」をクリアする。そして次回以降、補正動作によるカム軌跡の再特定がなされるまで、距離情報に基づく特定結果を優先して軌跡トレース制御を行う。   Here, the “AF correction flag” is a flag indicating whether or not the following cam locus is re-specified by a TV-AF signal described later. When only identification based on distance information by the subject distance detection circuit 127 has been made (the cam locus that has not been re-specified or is being re-specified is outside the correction range of FIG. 2 and is likely to be erroneously specified) ), The “AF correction flag” is cleared in step S305. From the next time onward, until the cam trajectory is re-specified by the correction operation, the trajectory trace control is performed by giving priority to the specifying result based on the distance information.

以下、図4と同様にステップS402〜S410を行う。その後、本処理を終了して、図7のステップS706に進む。ズーミング動作中である場合、ステップS410で決定したフォーカス速度で、フォーカス速度の符号方向(至近方向を正、無限遠方向を負とする)に移動し、コンペンセータ動作(補正動作)が行われる。ステップS411では、各種パラメータが初期値化される。ここでは、以後の処理で用いる「反転フラグ」のクリアを行う。ステップS412では、ステップS410で得たフォーカス標準移動速度Vf0から、ジグザグ動作用の補正速度Vf+,Vf−を算出する。ここで、補正量パラメータδおよび補正速度Vf+,Vf−は、図13を用いて説明したように、式(9)〜(12)を用いて算出される。   Thereafter, steps S402 to S410 are performed as in FIG. Thereafter, the present process is terminated, and the process proceeds to step S706 in FIG. When the zooming operation is being performed, the movement is performed in the sign direction of the focus speed (the close direction is positive and the infinity direction is negative) at the focus speed determined in step S410, and the compensator operation (correction operation) is performed. In step S411, various parameters are initialized. Here, the “inversion flag” used in the subsequent processing is cleared. In step S412, correction speeds Vf + and Vf− for zigzag operation are calculated from the standard focus movement speed Vf0 obtained in step S410. Here, the correction amount parameter δ and the correction speeds Vf + and Vf− are calculated using the equations (9) to (12) as described with reference to FIG.

ステップS413では、図7のステップS703で得られたズームスイッチ130の操作状態を示す情報に応じて、ズーミング中か否かを判定する。判定結果がYesの場合、ステップS416に進む。判定結果がNoの場合、ステップS309で「AF補正フラグ」をクリアし、次回のワイドからテレ方向のズーミング動作の準備をする。そしてステップS414では、AF評価信号レベルの現在値から任意の定数μを減算した値をTH1(図12(A)中の最小値1302)とする。そして、前述の補正方向のベクトルの切換基準(ジグザグ動作の切換基準)となるAF評価信号レベルを決定する。   In step S413, whether or not zooming is in progress is determined according to the information indicating the operation state of the zoom switch 130 obtained in step S703 of FIG. If the determination result is Yes, the process proceeds to step S416. If the determination result is No, the “AF correction flag” is cleared in step S309, and the zooming operation in the tele direction from the next wide is prepared. In step S414, a value obtained by subtracting an arbitrary constant μ from the current value of the AF evaluation signal level is set to TH1 (minimum value 1302 in FIG. 12A). Then, an AF evaluation signal level that serves as a reference for switching vectors in the correction direction (switching reference for zigzag operation) is determined.

次にステップS415では、「補正フラグ」をクリアし、本処理を抜ける。ここで「補正フラグ」とは、前述したように、カム軌跡の追従状態が正方向の補正がかかった状態(補正フラグ=1)、または、負方向の補正がかかった状態(補正フラグ=0)のいずれであるかを示すフラグである。   Next, in step S415, the “correction flag” is cleared and the process is exited. Here, as described above, the “correction flag” is a state in which the tracking state of the cam locus is corrected in the positive direction (correction flag = 1) or a state in which the correction in the negative direction is applied (correction flag = 0). ).

ステップS413でズームミング中であると判定すると、ステップS414において、ズーミング方向がワイドからテレ方向であるか否かを判定する。判定結果がNoの場合にはステップS309と同様に、「AF補正フラグ」をクリアし、次回のワイドからテレ方向のズーミング動作の準備を行う(ステップS308)。そして、ステップS419において、Vf+=0,Vf−=0とし、ステップS420に進み、ジグザグ駆動を実質行わない。   If it is determined in step S413 that zooming is being performed, it is determined in step S414 whether the zooming direction is from wide to tele. If the determination result is No, as in step S309, the “AF correction flag” is cleared, and preparation for a zooming operation in the tele direction from the next wide is performed (step S308). In step S419, Vf + = 0 and Vf− = 0 are set, and the process proceeds to step S420, where zigzag driving is not substantially performed.

ステップS413での判定結果がYesである場合、ステップS306において、現在のズームレンズ位置に対するフォーカスレンズ位置が、図2に示される補正範囲上限1201を超えているか否かを判定する。補正範囲上限1201を超えている場合、補正範囲内へフォーカスレンズ位置を戻すようにステップS423へ進む。ステップS423では、算出されたフォーカス速度(標準移動速度)Vf0に負の補正速度Vf−が加算される(無限遠方向に補正される)。これにより、フォーカスレンズユニット105は、補正範囲上限1201よりも補正範囲下限1202の方向に強制的に戻される。   If the determination result in step S413 is Yes, it is determined in step S306 whether or not the focus lens position with respect to the current zoom lens position exceeds the correction range upper limit 1201 shown in FIG. If the correction range upper limit 1201 is exceeded, the process advances to step S423 to return the focus lens position to the correction range. In step S423, a negative correction speed Vf− is added to the calculated focus speed (standard movement speed) Vf0 (corrected toward infinity). As a result, the focus lens unit 105 is forcibly returned to the correction range lower limit 1202 rather than the correction range upper limit 1201.

一方、ステップS306で補正範囲上限1201を超えていない場合、ステップS307において、現在のズームレンズ位置に対するフォーカスレンズ位置が、図2の補正範囲下限1202を超えているか否かを判定する。補正範囲下限1202を超えている場合、補正範囲内へフォーカスレンズ位置を戻すためにステップS424へ進む。ステップS424では、算出されたフォーカス速度(標準移動速度)Vf0に正の補正速度Vf+が加算される(至近方向に補正される)。これにより、フォーカスレンズユニット105は、補正範囲下限1202よりも補正範囲上限1201の方向に強制的に戻される。このように、フォーカスレンズユニット105の移動範囲は補正範囲内に制限される。この結果、ジグザグ動作によって再特定されるカム軌跡もこの補正範囲内に制限される。   On the other hand, if the correction range upper limit 1201 is not exceeded in step S306, it is determined in step S307 whether the focus lens position with respect to the current zoom lens position exceeds the correction range lower limit 1202 in FIG. If the correction range lower limit 1202 is exceeded, the process advances to step S424 to return the focus lens position to the correction range. In step S424, a positive correction speed Vf + is added to the calculated focus speed (standard movement speed) Vf0 (corrected in the closest direction). As a result, the focus lens unit 105 is forcibly returned to the correction range upper limit 1201 rather than the correction range lower limit 1202. As described above, the movement range of the focus lens unit 105 is limited within the correction range. As a result, the cam trajectory re-specified by the zigzag operation is also limited within this correction range.

ステップS306およびS307にてフォーカスレンズ位置が補正範囲を超えていない場合、ジグザグ動作を実行するために、ステップS417において現在のAF評価信号レベルがTH1より小さいか否かを判定する。判定結果がYesの場合、現在のAF評価信号レベルが図12(A)のTH1(1302)のレベルを下回るため、補正方向の切り換えを行うためにステップS418で反転フラグをセットする。   If the focus lens position does not exceed the correction range in steps S306 and S307, it is determined in step S417 whether or not the current AF evaluation signal level is lower than TH1 in order to execute the zigzag operation. If the determination result is Yes, the current AF evaluation signal level is lower than the level of TH1 (1302) in FIG. 12A. Therefore, in order to switch the correction direction, an inversion flag is set in step S418.

ステップS420では、反転フラグ=1か否かを判定する。判定結果がYesの場合、ステップS421に進み、補正フラグが1か否かを判定する。一方、ステップS421で判定結果がNoの場合、ステップS424に進み、補正フラグに1(正方向の補正状態)をセットする。また、上記の式(4)により、フォーカス速度Vfを、Vf=Vf0+Vf+(但し、Vf+≧0)とする。一方、ステップS421で判定結果がYesの場合、ステップS423に進み、補正フラグに0(負方向の補正状態)をセットする。また、上記の式(5)により、フォーカス速度VfをVf=Vf0+Vf−(但し、Vf−≦0)とする。   In step S420, it is determined whether or not the inversion flag = 1. If the determination result is Yes, the process proceeds to step S421 to determine whether or not the correction flag is 1. On the other hand, if the determination result is No in step S421, the process proceeds to step S424, and 1 (correction state in the positive direction) is set in the correction flag. Further, according to the above equation (4), the focus speed Vf is set to Vf = Vf0 + Vf + (where Vf + ≧ 0). On the other hand, if the determination result is Yes in step S421, the process proceeds to step S423, and 0 (correction state in the negative direction) is set in the correction flag. Further, the focus speed Vf is set to Vf = Vf0 + Vf− (where Vf− ≦ 0) by the above equation (5).

ステップS420でNoと判定された場合、ステップS422で補正フラグが1であるか否かを判定する。この判定結果がYesの場合にはステップS424へ進む。一方、この判定結果がNoの場合にはステップS423へ進む。   When it is determined No in step S420, it is determined whether or not the correction flag is 1 in step S422. If the determination result is Yes, the process proceeds to step S424. On the other hand, if this determination is No, the process proceeds to step S423.

本処理の終了後、図7に示されるステップS706において、動作モードに応じて、フォーカスレンズユニット105およびズームレンズユニット102の駆動方向と駆動速度が選択される。ズーミング動作の場合、ここでは、ステップS423またはステップS424で求めたフォーカス速度Vf が正であるのか負であるのかにより、フォーカスレンズユニット105の駆動方向をそれぞれ、至近方向または無限方向に設定する。このようにして、フォーカスレンズユニット105のジグザグ駆動を行いながらトレースすべきカム軌跡の再特定を行う。   After the completion of this process, in step S706 shown in FIG. 7, the driving direction and driving speed of the focus lens unit 105 and the zoom lens unit 102 are selected according to the operation mode. In the case of the zooming operation, here, the driving direction of the focus lens unit 105 is set to the closest direction or the infinite direction depending on whether the focus speed Vf obtained in step S423 or step S424 is positive or negative. In this way, the cam locus to be traced is re-specified while performing the zigzag driving of the focus lens unit 105.

ジグザグ駆動を行いながらステップS417からステップS424において、TV−AFにおけるAF評価信号が、図12(A)に示される最大値1301になったことが検出される。ステップS417でNoと判定された場合、ステップS310で最大値1301が検出されたか否かを判定する。ピークレベルが検出された場合、ステップS311で、「AF補正フラグ=1」および軌跡パラメータの現在値をTV−AFによる再特定軌跡パラメータとして、αAF←αnow、βAF←βnow、γAF←γnowとセットする。そして、次回のステップS302およびステップS303における条件が満たされた場合(両ステップの判別結果がともにYesである場合)、ステップS304において、特定カム軌跡が更新される。今回、ステップS304で更新され再特定された軌跡パラメータは、検出した距離情報の変化によりステップS301における補正範囲の変更、ズーミング動作の停止、または、ズーミング方向の逆転により、距離情報に基づいて特定されるカム軌跡に更新される。   While performing zigzag driving, in steps S417 to S424, it is detected that the AF evaluation signal in the TV-AF has reached the maximum value 1301 shown in FIG. If it is determined No in step S417, it is determined in step S310 whether the maximum value 1301 has been detected. When the peak level is detected, in step S311, “AF correction flag = 1” and the current value of the trajectory parameter are set as αAF ← αnow, βAF ← βnow, γAF ← γnow as re-specific trajectory parameters by TV-AF. . Then, when the conditions in the next step S302 and step S303 are satisfied (when the determination results of both steps are both Yes), the specific cam trajectory is updated in step S304. The trajectory parameter updated and respecified in step S304 is specified based on the distance information by changing the correction range in step S301, stopping the zooming operation, or reversing the zooming direction due to the change in the detected distance information. Updated to the cam trajectory.

次回のステップS302またはS303での条件が満たされない場合、新たにピークレベルが検出されるごとに(ステップS310)、ステップS311でαAF、βAF、γAFの更新を繰り返しつつ、ズーミング動作中に最適なカム軌跡が随時更新される。なお、ステップS310でAF評価値レベルがピークレベルになったことが検出されない場合、そのままステップS420に進む。そして、ジグザグ動作による補正方向の切り換えを行わずに、前回決定済の補正方向に補正しながらフォーカスレンズユニット105を駆動する。   If the condition at the next step S302 or S303 is not satisfied, an optimum cam during zooming operation is repeated while repeating the update of αAF, βAF, and γAF at step S311 each time a new peak level is detected (step S310). The trajectory is updated as needed. If it is not detected in step S310 that the AF evaluation value level has reached the peak level, the process directly proceeds to step S420. Then, the focus lens unit 105 is driven while correcting in the previously determined correction direction without switching the correction direction by the zigzag operation.

以上の処理により、被写体までの距離情報に基づいて、TV−AF信号を用いた追従すべきカム軌跡の特定を行う際の特定範囲(補正範囲)を限定することにより、TV−AF信号を用いたカム軌跡の特定精度を大幅に改善することができる。したがって、誤ったカム軌跡をトレースすべき軌跡と誤判断することが低減される。また、ジグザグ動作の切り換えタイミングを間違うなどの誤動作問題の発生を低減することもできる。したがって、像ぼけの発生を低減することが可能である。   With the above processing, the TV-AF signal is used by limiting the specific range (correction range) when specifying the cam locus to be followed using the TV-AF signal based on the distance information to the subject. The accuracy of specifying the cam trajectory can be greatly improved. Accordingly, erroneous determination of an erroneous cam track as a track to be traced is reduced. In addition, it is possible to reduce the occurrence of malfunction problems such as wrong timing for switching the zigzag operation. Therefore, occurrence of image blur can be reduced.

特に、距離情報で基準となるカム軌跡を特定し、補正範囲を限定しつつTV−AF信号を用いてカム軌跡を補正する(再特定する)ことで、TV−AF信号に基づく追従カム軌跡の補正精度を向上させることができる。このため、被写体距離検出回路127の検出精度をある程度粗くすることが可能となり、被写体距離検出回路127を小型で安価なタイプを選定することが可能となる。   In particular, by identifying a cam trajectory serving as a reference based on distance information and correcting (respecifying) the cam trajectory using a TV-AF signal while limiting the correction range, the tracking cam trajectory based on the TV-AF signal is determined. Correction accuracy can be improved. For this reason, the detection accuracy of the subject distance detection circuit 127 can be roughened to some extent, and a small and inexpensive type of the subject distance detection circuit 127 can be selected.

次に、本発明の実施例2におけるレンズ制御装置について説明する。 実施例1では、TV−AF信号によるフォーカスレンズユニット105の補正動作における補正速度が、図4の場合と同じ速度が算出される場合について説明した。このため、実施例1では、補正範囲の限定によりフォーカスレンズユニット105の移動距離(移動範囲)が減少し、その結果、補正範囲内のジグザグ動作の周波数が高くなる。したがって、高速ズーム等でも追従カム軌跡の特定能力が高いシステムとなっている。   Next, a lens control apparatus in Embodiment 2 of the present invention will be described. In the first embodiment, the case where the correction speed in the correction operation of the focus lens unit 105 based on the TV-AF signal is calculated as in FIG. 4 has been described. For this reason, in Example 1, the movement distance (movement range) of the focus lens unit 105 decreases due to the limitation of the correction range, and as a result, the frequency of the zigzag operation within the correction range increases. Therefore, the system has a high ability to specify the tracking cam locus even at high speed zoom or the like.

これに対し、本実施例では、補正速度を実施例1の場合よりも遅く設定することにより、ジグザグ動作に伴って像がぼけたりピントがあったりの周期的な像ぼけの低減を図っている。例えば、補正速度を実施例1の1/2の大きさに設定すると、図12(B)に示されるフォーカスレンズユニット105の駆動方向反転タイミング(AF評価値信号が最小値1302以下となるタイミング)でのオーバーシュート量が減少する。このため、見た目において像がぼけたりピントがあったりの周期的な変化を軽減することが可能となる。   On the other hand, in the present embodiment, by setting the correction speed slower than that in the case of the first embodiment, it is possible to reduce periodic image blur such as an image that is blurred or in focus due to the zigzag operation. . For example, when the correction speed is set to ½ that of the first embodiment, the driving direction inversion timing of the focus lens unit 105 shown in FIG. 12B (timing at which the AF evaluation value signal becomes equal to or less than the minimum value 1302). The amount of overshoot at is reduced. For this reason, it is possible to reduce a periodic change in which the image is visually blurred or in focus.

補正速度を1/2にするには、例えば、図3中のステップS412で算出される補正速度Vf+、Vf−を1/2とする処理を追加すればよい。また、式(4)、(5)に係数を設けることにより、それぞれ以下の式(4’)、(5’)として演算すればよい。   In order to reduce the correction speed to 1/2, for example, a process for reducing the correction speeds Vf + and Vf− calculated in step S412 in FIG. 3 to 1/2 may be added. Moreover, what is necessary is just to calculate as the following formula | equation (4 ') and (5'), respectively, by providing a coefficient in Formula (4), (5).

フォーカス速度Vf=Vf0+Vf+/2(但し、Vf+≧0) …(4’)
フォーカス速度Vf=Vf0+Vf−/2(但し、Vf−≦0) …(5’)
なお、上記各実施例では、被写体までの距離情報に基づいて追従すべきカム軌跡(α,β,γ)を特定(生成)する際のその範囲を制限する場合について説明したが、これに限定されるものでない。各実施例は、フォーカスレンズの目標位置を算出(生成)する際に、その範囲を被写体までの距離情報に基づいて制限する場合にも適用することができる。
Focus speed Vf = Vf0 + Vf + / 2 (where Vf + ≧ 0) (4 ′)
Focus speed Vf = Vf0 + Vf− / 2 (Vf− ≦ 0) (5 ′)
In each of the above embodiments, a case has been described in which the range for specifying (generating) the cam trajectory (α, β, γ) to be followed based on the distance information to the subject is limited. It is not what is done. Each embodiment can be applied to a case where the range is limited based on distance information to the subject when the target position of the focus lens is calculated (generated).

上記各実施例によれば、検出した合焦対象物までの距離と撮影情報及びレンズ装置の動作状態に関する情報に応じて、第2レンズユニットの駆動を制御するために生成する情報(軌跡情報等)の範囲を制限するかの適用有無の判定を行う。これにより、実際に合焦を得たい対象物までの距離に対応しない移動範囲の制限や、不必要な移動範囲制限を回避することが可能となる。このため、ズーミング中の像ぼけの発生を低減させるレンズ制御装置を提供することができる。   According to each of the embodiments described above, information (trajectory information, etc.) generated to control the driving of the second lens unit according to the detected distance to the in-focus object, shooting information, and information on the operating state of the lens apparatus. ) To determine whether to limit the range. As a result, it is possible to avoid a movement range restriction that does not correspond to the distance to the object that is actually desired to be focused, and an unnecessary movement range restriction. Therefore, it is possible to provide a lens control device that reduces the occurrence of image blur during zooming.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

102 ズームレンズユニット
105 フォーカスレンズユニット
119 コンピュータズームユニット
120 カムデータメモリ
127 被写体距離検出回路
102 Zoom lens unit 105 Focus lens unit 119 Computer zoom unit 120 Cam data memory 127 Subject distance detection circuit

Claims (11)

変倍用の第1レンズユニットおよび焦点調節用の第2レンズユニットの移動を制御するレンズ制御装置であって、
所定の被写体距離ごとに作成された、前記第1レンズユニットの位置と前記第2レンズユニットの位置との関係を示すデータを記憶した記憶手段と、
前記データに基づいて、前記第2レンズユニットの移動を制御するための情報を生成し、前記第1レンズユニットの移動に伴う該第2レンズユニットの移動を制御する制御手段と、
前記被写体距離に対応する情報を検出する検出手段と、を有し、
前記制御手段は、前記被写体距離に対応する前記情報および撮影条件に応じて前記第2レンズユニットの移動範囲を変更する、ことを特徴とするレンズ制御装置。
A lens control device for controlling movement of a first lens unit for zooming and a second lens unit for focus adjustment,
Storage means for storing data indicating the relationship between the position of the first lens unit and the position of the second lens unit, created for each predetermined subject distance;
Control means for generating information for controlling movement of the second lens unit based on the data, and for controlling movement of the second lens unit accompanying movement of the first lens unit;
Detecting means for detecting information corresponding to the subject distance,
The lens control apparatus according to claim 1, wherein the control unit changes a moving range of the second lens unit in accordance with the information corresponding to the subject distance and a photographing condition.
前記制御手段は、
前記被写体距離に対応する前記情報に基づいて前記第2レンズユニットの補正範囲を決定し、
前記撮影条件に基づいて前記補正範囲を適用するか否かを判定する、ことを特徴とする請求項1に記載のレンズ制御装置。
The control means includes
Determining a correction range of the second lens unit based on the information corresponding to the subject distance;
The lens control device according to claim 1, wherein it is determined whether to apply the correction range based on the photographing condition.
前記検出手段の測距枠の位置と焦点状態を表す焦点信号の測距枠の位置との差異を検出する差異検出手段を更に有し、
前記撮影条件は、前記差異検出手段により検出される前記差異であり、
前記制御手段は、前記差異が所定の閾値以上である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2に記載のレンズ制御装置。
A difference detection means for detecting a difference between the position of the distance measurement frame of the detection means and the position of the distance measurement frame of the focus signal representing the focus state;
The photographing condition is the difference detected by the difference detecting means,
The lens control device according to claim 2, wherein the control unit controls movement of the second lens unit without applying the correction range when the difference is equal to or greater than a predetermined threshold.
前記レンズ制御装置の角速度を検出する角速度検出手段を更に有し、
前記撮影条件は、前記角速度検出手段により検出される前記角速度であり、
前記制御手段は、前記角速度が所定の閾値以上である場合、前記補正範囲を適用しないように前記第2レンズユニットの移動を制御することを特徴とする請求項2または3に記載のレンズ制御装置。
Further comprising angular velocity detection means for detecting the angular velocity of the lens control device;
The photographing condition is the angular velocity detected by the angular velocity detecting means,
4. The lens control device according to claim 2, wherein the control unit controls the movement of the second lens unit so that the correction range is not applied when the angular velocity is equal to or greater than a predetermined threshold. 5. .
被写体の動きベクトルを検出する被写体動き検出手段を更に有し、
前記撮影条件は、前記被写体動き検出手段により検出される前記動きベクトルであり、
前記制御手段は、前記動きベクトルが所定の閾値以上である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至4のいずれか1項に記載のレンズ制御装置。
It further includes subject motion detection means for detecting a subject motion vector,
The shooting condition is the motion vector detected by the subject motion detection means,
5. The control unit according to claim 2, wherein the control unit controls movement of the second lens unit without applying the correction range when the motion vector is equal to or greater than a predetermined threshold value. 6. The lens control device described in 1.
前記検出手段により一定時間における前記被写体距離に対応する前記情報のばらつき範囲を取得する距離情報処理手段を更に有し、
前記撮影条件は、前記距離情報処理手段により得られた前記ばらつき範囲であり、
前記制御手段は、前記ばらつき範囲が前記補正範囲に所定の定数を掛けて得られた値が前記ばらつき範囲を超えている場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至5のいずれか1項に記載のレンズ制御装置。
A distance information processing means for acquiring a variation range of the information corresponding to the subject distance at a predetermined time by the detection means;
The photographing condition is the variation range obtained by the distance information processing means,
The control means controls the movement of the second lens unit without applying the correction range when the value obtained by multiplying the correction range by a predetermined constant exceeds the variation range. The lens control device according to claim 2, wherein the lens control device is a lens control device.
前記検出手段により前記被写体距離に対応する前記情報の信頼性を取得する距離情報処理手段を更に有し、
前記撮影条件は、前記距離情報処理手段により得られた前記信頼性であり、
前記制御手段は、前記信頼性が所定の閾値以下である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至6のいずれか1項に記載のレンズ制御装置。
Further comprising distance information processing means for acquiring reliability of the information corresponding to the subject distance by the detection means;
The photographing condition is the reliability obtained by the distance information processing means,
7. The control unit according to claim 2, wherein, when the reliability is equal to or less than a predetermined threshold value, the control unit controls movement of the second lens unit without applying the correction range. The lens control device described in 1.
前記第1レンズユニットおよび前記第2レンズユニットを含む光学系により形成された光学像の照度を検出する照度検出手段を更に有し、
前記撮影条件は、前記照度検出手段により検出された前記照度であり、
前記制御手段は、前記照度が所定の閾値以上である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至7のいずれか1項に記載のレンズ制御装置。
Illuminance detection means for detecting the illuminance of an optical image formed by an optical system including the first lens unit and the second lens unit;
The photographing condition is the illuminance detected by the illuminance detection means,
8. The control unit according to claim 2, wherein when the illuminance is equal to or greater than a predetermined threshold, the control unit controls movement of the second lens unit without applying the correction range. 9. The lens control device described.
前記第1レンズユニットの速度を検出する速度検出手段を更に有し、
前記撮影条件は、前記速度検出手段により検出された前記速度であり、
前記制御手段は、前記速度が所定の閾値以下である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至8のいずれか1項に記載のレンズ制御装置。
A speed detecting means for detecting the speed of the first lens unit;
The photographing condition is the speed detected by the speed detecting means,
9. The control unit according to claim 2, wherein the control unit controls the movement of the second lens unit without applying the correction range when the speed is equal to or lower than a predetermined threshold value. 10. The lens control device described.
前記第1レンズユニットおよび前記第2レンズユニットを含む光学系により形成された光学像の撮像素子に対する露光時間を制御する露光時間制御手段を更に有し、
前記撮影条件は、前記露光時間制御手段により制御される前記露光時間であり、
前記制御手段は、前記露光時間が所定の閾値以下である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至9のいずれか1項に記載のレンズ制御装置。
An exposure time control means for controlling an exposure time for an image sensor of an optical image formed by an optical system including the first lens unit and the second lens unit;
The photographing condition is the exposure time controlled by the exposure time control means,
10. The control unit according to claim 2, wherein when the exposure time is equal to or less than a predetermined threshold, the control unit controls the movement of the second lens unit without applying the correction range. The lens control device described in 1.
前記第1レンズユニットを介して得られた光量を調節する光量調節手段と、
前記検出手段により一定時間における前記被写体距離に対応する前記情報のばらつき範囲を取得する距離情報処理手段と、を更に有し、
前記撮影条件は、前記光量調節手段により得られた焦点深度であり、
前記制御手段は、前記焦点深度が前記ばらつき範囲を超えている場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至10のいずれか1項に記載のレンズ制御装置。
A light amount adjusting means for adjusting the light amount obtained through the first lens unit;
Distance information processing means for acquiring a variation range of the information corresponding to the subject distance in a fixed time by the detection means;
The photographing condition is a depth of focus obtained by the light amount adjusting means,
The control unit according to any one of claims 2 to 10, wherein when the depth of focus exceeds the variation range, the control unit controls the movement of the second lens unit without applying the correction range. The lens control device according to Item.
JP2011282056A 2011-12-22 2011-12-22 Lens control device Pending JP2013130827A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011282056A JP2013130827A (en) 2011-12-22 2011-12-22 Lens control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011282056A JP2013130827A (en) 2011-12-22 2011-12-22 Lens control device

Publications (1)

Publication Number Publication Date
JP2013130827A true JP2013130827A (en) 2013-07-04

Family

ID=48908393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011282056A Pending JP2013130827A (en) 2011-12-22 2011-12-22 Lens control device

Country Status (1)

Country Link
JP (1) JP2013130827A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103856717A (en) * 2014-03-06 2014-06-11 浙江宇视科技有限公司 Camera focusing control method and device
WO2017169491A1 (en) * 2016-03-30 2017-10-05 富士フイルム株式会社 Imaging device and focus control method
JP2017181979A (en) * 2016-03-31 2017-10-05 キヤノン株式会社 Lens controller and control method
KR20180124981A (en) * 2016-06-03 2018-11-21 구글 엘엘씨 Light flow based auto focus
WO2019061887A1 (en) * 2017-09-28 2019-04-04 深圳市大疆创新科技有限公司 Control device, photographing device, aircraft, control method and program
WO2020020042A1 (en) * 2018-07-23 2020-01-30 深圳市大疆创新科技有限公司 Control device, moving body, control method and program
US10617282B2 (en) 2016-01-13 2020-04-14 Olympus Corporation Endoscope apparatus and method for focusing based on motion information
US10799085B2 (en) 2015-06-11 2020-10-13 Olympus Corporation Endoscope apparatus and focus control method
JP7087052B2 (en) 2020-12-10 2022-06-20 キヤノン株式会社 Lens control device, control method
WO2023234050A1 (en) * 2022-05-30 2023-12-07 ソニーグループ株式会社 Lens device, processing method in lens device, program, and imaging device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103856717B (en) * 2014-03-06 2017-04-19 浙江宇视科技有限公司 Camera focusing control method and device
CN103856717A (en) * 2014-03-06 2014-06-11 浙江宇视科技有限公司 Camera focusing control method and device
US10799085B2 (en) 2015-06-11 2020-10-13 Olympus Corporation Endoscope apparatus and focus control method
US10617282B2 (en) 2016-01-13 2020-04-14 Olympus Corporation Endoscope apparatus and method for focusing based on motion information
JP2019074756A (en) * 2016-03-30 2019-05-16 富士フイルム株式会社 Imaging apparatus and focus control method
WO2017169491A1 (en) * 2016-03-30 2017-10-05 富士フイルム株式会社 Imaging device and focus control method
JP6462183B2 (en) * 2016-03-30 2019-01-30 富士フイルム株式会社 Imaging apparatus and focus control method
JPWO2017169491A1 (en) * 2016-03-30 2019-02-28 富士フイルム株式会社 Imaging apparatus and focus control method
US10564392B2 (en) 2016-03-30 2020-02-18 Fujifilm Corporation Imaging apparatus and focus control method
US9973684B2 (en) 2016-03-31 2018-05-15 Canon Kabushiki Kaisha Lens control apparatus and control method
JP2017181979A (en) * 2016-03-31 2017-10-05 キヤノン株式会社 Lens controller and control method
KR20180124981A (en) * 2016-06-03 2018-11-21 구글 엘엘씨 Light flow based auto focus
KR102137768B1 (en) * 2016-06-03 2020-07-24 구글 엘엘씨 Autofocus based on light flow
CN109844634A (en) * 2017-09-28 2019-06-04 深圳市大疆创新科技有限公司 Control device, photographic device, flying body, control method and program
WO2019061887A1 (en) * 2017-09-28 2019-04-04 深圳市大疆创新科技有限公司 Control device, photographing device, aircraft, control method and program
CN109844634B (en) * 2017-09-28 2021-08-17 深圳市大疆创新科技有限公司 Control device, imaging device, flight object, control method, and program
WO2020020042A1 (en) * 2018-07-23 2020-01-30 深圳市大疆创新科技有限公司 Control device, moving body, control method and program
JP7087052B2 (en) 2020-12-10 2022-06-20 キヤノン株式会社 Lens control device, control method
WO2023234050A1 (en) * 2022-05-30 2023-12-07 ソニーグループ株式会社 Lens device, processing method in lens device, program, and imaging device

Similar Documents

Publication Publication Date Title
JP5328384B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP5335445B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP2013130827A (en) Lens control device
JP5247044B2 (en) Imaging device
JP4478419B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
US8619374B2 (en) Lens control apparatus and interchangeable lens including lens control apparatus
US20110305445A1 (en) Image pickup apparatus and method for controlling image pickup apparatus
US8861948B2 (en) Image pickup apparatus
US20080187302A1 (en) Imaging device
US20050052564A1 (en) Image-taking apparatus and focus control program for image-taking apparatus
CN106054350B (en) Optical device and display control method
JP5559242B2 (en) Interchangeable lens, camera and camera system
JP6639117B2 (en) Optical equipment and focus control program
JP2016118636A (en) Imaging device and method for controlling the same
JP4721394B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP4868434B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP4721395B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP7362299B2 (en) Lens device, camera, camera system, control method
JP5930979B2 (en) Imaging device
JP2014035505A (en) Lens device, image pickup device, and control method for these devices
JP5743710B2 (en) Imaging apparatus and control method thereof
JP6700698B2 (en) Optical device, display control method, and display control program
JP2023054610A (en) Control device, lens device, control method, and program
JP2016224344A (en) Optical instrument, display control method, and display control program
JP2003057524A (en) Imaging device, lens control method therefor and storage medium