JP3382321B2 - Optical equipment - Google Patents

Optical equipment

Info

Publication number
JP3382321B2
JP3382321B2 JP27843393A JP27843393A JP3382321B2 JP 3382321 B2 JP3382321 B2 JP 3382321B2 JP 27843393 A JP27843393 A JP 27843393A JP 27843393 A JP27843393 A JP 27843393A JP 3382321 B2 JP3382321 B2 JP 3382321B2
Authority
JP
Japan
Prior art keywords
focal length
image
distance
zoom
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27843393A
Other languages
Japanese (ja)
Other versions
JPH07134238A (en
Inventor
眞一 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP27843393A priority Critical patent/JP3382321B2/en
Priority to US08/332,870 priority patent/US5615398A/en
Publication of JPH07134238A publication Critical patent/JPH07134238A/en
Application granted granted Critical
Publication of JP3382321B2 publication Critical patent/JP3382321B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Lens Barrels (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、被写体像に基づき変更
すべき焦点距離を決定する光学機器に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an optical device for determining a focal length to be changed based on a subject image.

【0002】[0002]

【従来の技術】従来、撮影倍率を一定に保つ或いは焦点
距離を自動的に設定する所謂オートズーム装置或いはカ
メラは、はじめに何らかの手段で一定に保つべき撮影倍
率或いはそれに類する情報をプリセットする必要があっ
た。また被写体距離を求め、それに応じて所望の撮影倍
率を得るべく、焦点距離を決定していた。
2. Description of the Related Art Conventionally, a so-called auto-zoom device or a camera for keeping a photographing magnification constant or automatically setting a focal length has to first preset a photographing magnification or information similar thereto which should be kept constant by some means. It was In addition, the focal length is determined so as to obtain the subject distance and obtain the desired photographing magnification accordingly.

【0003】[0003]

【発明が解決しようとしている課題】しかしながら、上
記従来例では、被写体距離によってのみ焦点距離を決定
するが故に、被写体が想定されていた物体或いは想定さ
れていた物体にほぼ等しい大きさでない限り、その時の
被写体に適当な画角は得られないといった欠点があっ
た。
However, in the above-mentioned conventional example, since the focal length is determined only by the object distance, if the object is not the size of the expected object or the expected object at that time, However, there was a drawback that an appropriate angle of view could not be obtained for the subject.

【0004】[0004]

【課題を解決するための手段】本発明は、焦点距離可変
光学系を介して被写体像を画像信号に変換する撮像手段
と、該撮像手段から得られた前記画像信号を用いて被写
体像信号を抽出する被写体像検出手段と、該検出手段に
て抽出された被写体像信号の画面に占める大きさを判別
し、該大きさが所定の大きさを占めるための焦点距離に
関する情報を演算する演算手段と、該演算手段で演算さ
れた焦点距離に関する情報に応じて前記焦点距離可変光
学系の焦点距離を変更する光学機器において、前記演算
手段で演算された焦点距離に関する情報に応じて前記焦
点距離可変光学系の焦点距離を変更した後前記被写体像
検出手段による像信号の前記抽出動作と前記演算手段に
よる前記演算動作及び演算結果に応じた前記焦点距離可
変光学系の焦点距離変更動作を、前回と今回の演算結果
が所定の範囲に収束するまで繰り返し行う光学機器を提
供するものである。本発明は、上記の構成で、画面にお
ける被写体像の大きさをファクターとして焦点距離をき
めるのでより適正なオートズームを提供でき、かつ、焦
点距離決定の動作を焦点距離が変化しなくなるまで繰り
返すので、例えば、ワイド状態で上記の演算にて一旦焦
点距離を決めて、ズームした場合、画面がワイドで被写
体が画面上小さい時に精度よく焦点距離を演算できなく
ても、再度の上記演算ではテレ側にズームされた状態で
焦点距離が演算されることになり精度が向上する。ま
た、この動作を演算された焦点距離が変わらなくなるま
で繰り返されるので、一度ズームして得た焦点距離でも
精度が出ないときでも、演算結果が変わらなくなる状態
即ち、精度として十分な状態を補償しえるものである。
According to the present invention, an image pickup means for converting a subject image into an image signal through a variable focal length optical system, and a subject image signal by using the image signal obtained from the image pickup means. A subject image detecting means for extracting, and a computing means for determining the size of the subject image signal extracted by the detecting means on the screen and computing information on the focal length for the size to occupy a predetermined size. And an optical device for changing the focal length of the variable focal length optical system according to the information on the focal length calculated by the arithmetic means, wherein the focal length is changed according to the information on the focal length calculated by the arithmetic means. After changing the focal length of the optical system, the focal length of the variable focal length optical system according to the extracting operation of the image signal by the subject image detecting means, the arithmetic operation by the arithmetic means and the arithmetic result. The change operation, the current and previous calculation result is to provide an optical device that repeated until convergence to a predetermined range. The present invention can provide a more appropriate auto zoom because the focal length is determined by the size of the subject image on the screen as a factor in the above configuration, and the operation of determining the focal length is repeated until the focal length does not change. , For example, if the focal length is once determined by the above calculation in the wide state and zoomed, even if the focal length cannot be calculated accurately when the screen is wide and the subject is small on the screen, the tele side is calculated again in the above calculation. The focal length is calculated in the zoomed state and the accuracy is improved. In addition, since this operation is repeated until the calculated focal length does not change, even when the accuracy is not obtained even with the focal length obtained by zooming once, the state where the calculation result does not change, that is, the state where the accuracy is sufficient is compensated. It is a worm.

【0005】[0005]

【0006】[0006]

【0007】[0007]

【実施例】【Example】

〔実施例1〕図1は本発明実施例1のカメラ自動ズーム
装置である。
[Embodiment 1] FIG. 1 shows a camera automatic zoom device according to Embodiment 1 of the present invention.

【0008】図1において、1はカメラの撮影レンズ、
2は撮影レンズ1の一部を構成するフォーカシングレン
ズ、3は撮影レンズ1の一部を構成するバリエータ、4
は撮影レンズ1の一部を構成するコンペンセータであっ
て、バリエータ3とコンペンセータ4はズームモータ1
6を駆動源としてカム手段等を用いて光軸方向に駆動さ
れズーミングを行う。5は撮影レンズ1の一部を構成す
るリレーレンズである。6は揺動するカメラのクイック
リターンミラー、7はカメラのフィルム面、8はフィー
ルドレンズ、9は1対の2次結像レンズ、10は画像信
号を発生する一対の撮像画面を有するエリアセンサ、1
1はエリアセンサ10の画像出力信号をディジタル化す
るADコンバータ、12はディジタル化された画像信号
を記憶するためのフレームメモリ、13はエリアセンサ
10、ADコンバータ11、フレームメモリ12をセン
サドライバ14を介して制御し、画像信号を得て、それ
に基づきズーム制御を行うマイクロコンピュータ、14
はマイクロコンピュータ13の指示によりエリアセンサ
10を駆動し、ADコンバータ11に変換タイミング信
号を与え、フレームメモリ12にデータ取り込みタイミ
ングを与えるセンサドライバ、15はマイクロコンピュ
ータ13の指示によりズームモータ16を駆動して撮影
レンズ1のズーミングを行わせるズームモータドライ
バ、16は不図示の駆動手段(カム手段)を介してバリ
エータ3、コンペンセータ4を光軸方向に駆動しズーミ
ングを行うズームモータ、17はズームの動きと位置
(焦点距離)を検出するためのズームエンコーダであ
る。
In FIG. 1, 1 is a taking lens of a camera,
Reference numeral 2 is a focusing lens which constitutes a part of the taking lens 1, 3 is a variator which constitutes a part of the taking lens 1, 4
Is a compensator forming a part of the taking lens 1, and the variator 3 and the compensator 4 are the zoom motor 1
6 is used as a drive source and is driven in the optical axis direction using a cam means or the like to perform zooming. A relay lens 5 constitutes a part of the taking lens 1. 6 is a quick return mirror of a swinging camera, 7 is a film surface of the camera, 8 is a field lens, 9 is a pair of secondary imaging lenses, 10 is an area sensor having a pair of imaging screens for generating image signals, 1
1 is an AD converter for digitizing an image output signal of the area sensor 10, 12 is a frame memory for storing the digitized image signal, 13 is an area sensor 10, an AD converter 11, a frame memory 12 and a sensor driver 14. A microcomputer for controlling the zoom control to obtain an image signal and performing zoom control based on the image signal.
Is a sensor driver that drives the area sensor 10 according to an instruction from the microcomputer 13, gives a conversion timing signal to the AD converter 11 and gives a data fetch timing to the frame memory 12, and 15 drives a zoom motor 16 according to an instruction from the microcomputer 13. A zoom motor driver for zooming the photographing lens 1, a zoom motor 16 for driving the variator 3 and the compensator 4 in the optical axis direction via a driving means (cam means) (not shown), and a zoom movement 17 And a zoom encoder for detecting the position (focal length).

【0009】図2は、図1に示したカメラの自動ズーム
装置の撮影レンズ1、フィールドレンズ8、2次結像レ
ンズ9及びエリアセンサ10の光学的位置関係を示した
図であり、エリアセンサ10の2つの撮像画面10a、
10b上には各々撮影レンズ1の互いに異なる瞳位置か
らの光束が導かれ、フィールドレンズ8、二次結像レン
ズ9により結像倍率βで再結像される。この時撮像画面
10a、10b上の2像の間隔は、撮影レンズ1のデフ
ォーカス状態に依存する。また、図2において、50は
撮影レンズ1に対してフィルム面7と、光学的に等価な
撮像光路上の結像面であり、撮像画面10a、10bは
各々、その結像面の大きさのβ倍の大きさを持つ。つま
り、撮影画面に等しい視野を撮像画面は有する。
FIG. 2 is a view showing the optical positional relationship among the taking lens 1, the field lens 8, the secondary imaging lens 9 and the area sensor 10 of the automatic zoom device for the camera shown in FIG. Two imaging screens 10a of 10,
Light fluxes from the different pupil positions of the photographing lens 1 are guided onto 10b, and are re-imaged by the field lens 8 and the secondary imaging lens 9 at the imaging magnification β. At this time, the distance between the two images on the imaging screens 10a and 10b depends on the defocused state of the taking lens 1. Further, in FIG. 2, reference numeral 50 denotes an image forming surface on the image pickup optical path that is optically equivalent to the film surface 7 with respect to the taking lens 1, and the image pickup screens 10a and 10b respectively have a size of the image forming surface. It has β times the size. That is, the imaging screen has the same field of view as the imaging screen.

【0010】図3は、図1、図2に示したカメラの自動
ズーム装置を一眼レフカメラへ適用した場合のレイアウ
トを示したものであり、18はペンタプリズム、19は
分割プリズム、20は反射ミラーであり、6、8、9、
10は図1、図2のそれらと同じものを示す。
FIG. 3 shows a layout when the automatic zoom device of the camera shown in FIGS. 1 and 2 is applied to a single-lens reflex camera. 18 is a penta prism, 19 is a split prism, and 20 is a reflection prism. It ’s a mirror, 6, 8, 9,
10 shows the same thing as those of FIG. 1, FIG.

【0011】図4は、図3のレイアウトをカメラ上部方
向より見た図である。
FIG. 4 is a view of the layout of FIG. 3 as seen from above the camera.

【0012】図5はエリアセンサ10の撮像画面10
a、10bと画素の配列を示したものであり、2つの撮
影画面10a、10bは、何れも横X画素、縦Y画素ず
つ画素が配列されている。またその中に横i画素、縦j
画素の大きさの演算ブロックを横M個縦N個配置する。
FIG. 5 shows an image pickup screen 10 of the area sensor 10.
a and 10b are shown as an array of pixels, and in each of the two shooting screens 10a and 10b, pixels are arrayed in horizontal X pixels and vertical Y pixels. In addition, the horizontal i pixel, vertical j
Arithmetic blocks of M pixels in the horizontal direction and N pixels in the vertical direction are arranged.

【0013】以上の構成にて、被写体からの光束は撮影
レンズ1に入射され、クイックリターンミラー6にて上
方へ向きを変え、フィルム面7と光学的に等価な距離近
傍で結像し、フィールドレンズ8を通過し、ペンタプリ
ズム18へ導かれる。ペンタプリズム18にて方向を変
え、後方へ出た光束は光分割ミラー19にて分割され、
一部はファインダー視野へ、残りは反射して横方向に出
力され反射ミラー20を介して1対の二次結像レンズ9
に向う。1対の二次結像レンズ9は、エリアセンサ10
の撮像画面10aと10bに、以上の構成を介して撮影
レンズ1の異なる瞳位置よりの光束を各々結像し与え
る。この2像の間隔は、撮影レンズのデフォーカス量に
応じて変化する。
With the above structure, the light flux from the subject is incident on the taking lens 1, is turned upward by the quick return mirror 6, and is imaged in the vicinity of a distance optically equivalent to the film surface 7 to form a field. The light passes through the lens 8 and is guided to the penta prism 18. The direction of light is changed by the pentaprism 18, and the light flux emitted rearward is split by the light splitting mirror 19,
A part of the light is reflected in the finder field, and the rest is reflected and output in the lateral direction.
Head to. The pair of secondary imaging lenses 9 includes an area sensor 10
The light beams from different pupil positions of the photographing lens 1 are imaged and applied to the image pickup screens 10a and 10b, respectively, through the above configuration. The interval between the two images changes according to the defocus amount of the taking lens.

【0014】ここで、図1のマイクロコンピュータ13
の動作をフローチャートとしての図6、図7、図8、図
9を用いて説明する。
Here, the microcomputer 13 shown in FIG.
The operation will be described with reference to FIGS. 6, 7, 8, and 9 as flowcharts.

【0015】ステップ1:主被写体の大きさ等より前回
求めた撮影レンズ1の適切な焦点距離を示すfn-1 に、
初期設定として撮影レンズ1の最広角焦点距離に相当す
る値を与える。
Step 1: In f n -1 which indicates the appropriate focal length of the taking lens 1 previously obtained from the size of the main subject,
As an initial setting, a value corresponding to the widest-angle focal length of the taking lens 1 is given.

【0016】ステップ2:ズームモータドライバ15を
してズームモータ16を駆動し、駆動手段(カム手段)
を介してバリエータ3、コンペンセータ4を光軸方向に
動かし撮影レンズ1の焦点距離を最広角焦点距離にす
る。
Step 2: The zoom motor driver 15 is driven to drive the zoom motor 16 to drive means (cam means).
The variator 3 and the compensator 4 are moved in the direction of the optical axis via the, to set the focal length of the taking lens 1 to the widest angle focal length.

【0017】ステップ3:輝度画像読み込み。先ず、セ
ンサドライバ14を介してエリアセンサ10を駆動し、
信号蓄積を行わせ、被写界の輝度分布即ち、センサ面上
の照度分布を光電変換、蓄積により画像信号に変換す
る。蓄積終了後、画像信号の読み出しを行う。読み出し
時、読み出しのタイミングに同期して、センサドライバ
14を介してADコンバータ11を動作させ、エリアセ
ンサ10の出力する画像信号をディジタル化し、フレー
ムメモリ12に与える。フレームメモリ12には、セン
サドライバ14を介して読み込みタイミング信号を与
え、ディジタル化された画像信号を読み込ませる。
Step 3: Read luminance image. First, the area sensor 10 is driven via the sensor driver 14,
Signal accumulation is performed, and the luminance distribution of the field, that is, the illuminance distribution on the sensor surface is photoelectrically converted and converted into an image signal. After the accumulation is completed, the image signal is read. At the time of reading, the AD converter 11 is operated via the sensor driver 14 in synchronization with the reading timing to digitize the image signal output from the area sensor 10 and give it to the frame memory 12. A read timing signal is given to the frame memory 12 via the sensor driver 14 to read the digitized image signal.

【0018】以上のようにして輝度分布の画像(以下、
輝度画像)をエリアセンサ10で捕え、フレームメモリ
12に画像信号として取り込む。
The image of the luminance distribution as described above (hereinafter,
The brightness image) is captured by the area sensor 10 and captured as an image signal in the frame memory 12.

【0019】ステップ4:距離画像生成。エリアセンサ
10の2つの撮像画面10aと10b上に結像した像の
間隔を、撮像画面内を複数のブロックに分割し、各ブロ
ック毎に求める。2像の間隔はデフォーカス量に依存
し、撮影レンズ1の焦点距離、フォーカス位置などから
被写体距離を表わす値を得ることができる。これにより
画面内の距離の分布即ち距離画像が得られる。この距離
画像生成については後に図7を用いて更に説明する。
Step 4: Distance image generation. The interval between the images formed on the two image pickup screens 10a and 10b of the area sensor 10 is divided into a plurality of blocks in the image pickup screen and is obtained for each block. The distance between the two images depends on the defocus amount, and a value representing the subject distance can be obtained from the focal length, focus position, etc. of the taking lens 1. As a result, a distribution of distances on the screen, that is, a distance image is obtained. This distance image generation will be further described later with reference to FIG. 7.

【0020】ステップ5:主被写体判別。ステップ4で
得た距離画像より、物体を抽出して主被写体を選別す
る。この主被写体判別については後に図11をを用いて
更に説明する。
Step 5: Main subject discrimination. From the distance image obtained in step 4, an object is extracted and a main subject is selected. This main subject discrimination will be further described later with reference to FIG.

【0021】ステップ6:焦点距離決定。現状の撮影レ
ンズ1の焦点距離で画像内でステップ5で認識された主
被写体の上端、下端、左端、右端がどこにあるか、主被
写体の画面上の形と大きさと位置を得て、撮影画面内に
その主被写体が適度な大きさと位置を占めるような撮影
レンズ1の焦点距離fn を求める。
Step 6: Determine focal length. The shape, size, and position of the main subject on the screen are obtained to find out where the top, bottom, left, and right ends of the main subject recognized in step 5 in the image with the current focal length of the taking lens 1 are obtained, and the shooting screen is obtained. The focal length f n of the taking lens 1 is determined so that the main subject occupies an appropriate size and position.

【0022】ステップ7:前回求めた焦点距離fn-1
今回求めた焦点距離fn を比較し、実効的に等しい場合
は終了し、実効的に等しくない場合はステップ8のズー
ム駆動に進む。
[0022] Step 7: comparison of the focal length f n obtained this time with the focal length f n-1 previously determined, if effectively equal ends, if not effectively equal proceeds to the zoom drive Step 8 .

【0023】ステップ8:ズーム駆動。ステップ6で求
めた焦点距離fn に変化させる為に、ズームモータドラ
イバ15をしてズームモータ16を所定の方向に駆動
し、カム手段等によってバリエータ3、コンペンセータ
4を光軸方向に動かし撮影レンズ1の焦点距離を変化さ
せる。
Step 8: Zoom drive. In order to change the focal length f n obtained in step 6, the zoom motor driver 15 is driven to drive the zoom motor 16 in a predetermined direction, and the variator 3 and the compensator 4 are moved in the optical axis direction by the cam means or the like to take the photographing lens. The focal length of 1 is changed.

【0024】ステップ9:前回求めた焦点距離fn-1
に、今回求めた焦点距離fn の値を与え、次回の“前回
求めた焦点距離を示すfn-1 ”とし、ステップ3より再
び繰り返す。
Step 9: Previously obtained focal length f n-1
Then, the value of the focal length f n obtained this time is given to be the next "f n-1 indicating the previously obtained focal length", and the process is repeated from step 3.

【0025】以上のごとくマイクロコンピュータ13は
動作し、例えば、図12に示すように、自動ズーム動作
が行われる。図12は、実施例1の動作の視野の変化を
示した図であり、図において、左は各焦点距離の視野そ
のものと、距離画像の各画素に依る分割を示したもので
あり、右は、それに距離画像上の主被写体を示す斜線部
を加えたものである。図12において、aは初期の最広
角視野を、bは最広角視野aで検出された被写体に基づ
き決定し、撮像倍率変更手段(この場合はズームモータ
ドライバ15、ズームモータ16等よりなる撮影倍率変
更手段と同一)にて変更された視野を、cは前回の視野
bで検出された被写体に基づき決定し、撮像倍率変更手
段にて変更された視野を示す。図12に示したように、
初めは広角にて広い視野を観察し、主被写体を検出す
る。次にその結果に基づき、視野を狭めて必要な部分、
即ち前回検出された主被写体及びその近傍の画像の精細
さを向上させ、再度主被写体を検出することで、主被写
体及びその大きさ等をより高い精度で得てより最適な視
野を得る。
The microcomputer 13 operates as described above, and, for example, an automatic zoom operation is performed as shown in FIG. FIG. 12 is a diagram showing a change in the visual field in the operation of the first embodiment. In the figure, the left shows the visual field itself at each focal length and the division according to each pixel of the distance image, and the right shows. , And a shaded area showing the main subject on the distance image. In FIG. 12, a is an initial wide-angle field of view, b is determined based on the subject detected in the wide-angle field of view a, and imaging magnification changing means (in this case, a photographing magnification including a zoom motor driver 15 and a zoom motor 16) is used. The visual field changed by the changing unit) is determined based on the subject detected in the previous visual field b, and the visual field changed by the imaging magnification changing unit is shown. As shown in FIG.
Initially, a wide field of view is observed at a wide angle to detect the main subject. Next, based on the results, narrow the field of view and
That is, by improving the fineness of the previously detected main subject and the image in the vicinity thereof and detecting the main subject again, the main subject and the size thereof can be obtained with higher accuracy and a more optimal visual field can be obtained.

【0026】ここで、図7のフローチャートにて図6の
ステップ4の距離画像生成について更に説明する。
The distance image generation in step 4 of FIG. 6 will be further described with reference to the flowchart of FIG.

【0027】ステップ10:演算ブロック位置の初期設
定として、図5に示した撮像画面の左上の端のブロック
(m、n)=(0、0)を指定する。
Step 10: As the initial setting of the calculation block position, the block (m, n) = (0, 0) at the upper left end of the image pickup screen shown in FIG. 5 is designated.

【0028】ステップ11:撮像画面10a上の指定さ
れた演算ブロックとそれに対応した撮像画面10b上の
領域間の相関を求め、互いに最も相関の高い像の間隔を
得る。2像の間隔は、デフォーカス量に依存し、撮影レ
ンズ1の焦点距離、フォーカス位置などから被写体距離
を表わす値を得ることができる。こうして、指定された
演算ブロックの画面上の位置の被写体までの距離を表わ
す値が得られる。
Step 11: The correlation between the designated calculation block on the image pickup screen 10a and the corresponding area on the image pickup screen 10b is obtained, and the image intervals having the highest correlation with each other are obtained. The distance between the two images depends on the defocus amount, and a value representing the subject distance can be obtained from the focal length, the focus position, etc. of the taking lens 1. Thus, a value representing the distance to the subject at the position on the screen of the designated calculation block is obtained.

【0029】ステップ12:演算したブロックが図5上
の最下段(m、N−1)でなければステップ13へ、で
あればステップ14へ、進む。
Step 12: If the calculated block is not the lowest stage (m, N-1) in FIG. 5, proceed to step 13, and if so, proceed to step 14.

【0030】ステップ13:演算するブロックを隣(下
段)のブロック(m、n+1)にし、ステップ11へ進
み計算を行う。
Step 13: The block to be calculated is set to the adjacent (lower) block (m, n + 1), and the process proceeds to step 11 for calculation.

【0031】ステップ14:演算すべきブロックを最上
段のブロック(m、0)にする。
Step 14: The block to be calculated is set to the uppermost block (m, 0).

【0032】ステップ15:演算した縦の列が最右端の
列(M−1、n)でなければステップ16へ、最右端で
あれば距離画像生成を終了する。
Step 15: If the calculated vertical column is not the rightmost column (M-1, n), go to step 16; if it is the rightmost column, the distance image generation is terminated.

【0033】ステップ16:演算すべきブロック列を右
隣りの列(m+1、n)にし、ステップ11に進み計算
を行う。
Step 16: The block sequence to be calculated is set to the next column on the right (m + 1, n), and the process proceeds to step 11 to perform the calculation.

【0034】即ち、左上端の演算ブロックより計算を始
め、計算が終了すると下段へ移行し、最下段まで終了し
たら、つまり縦1列分演算ブロックの計算が終了したら
右隣りの次の列の最上段へ、そこから又縦に計算を進
め、再び最下段まで達したら再び右隣りの最上段へ、こ
れを繰り返して右下端の演算ブロックの計算が終了する
まで行い、距離画像を得る。
That is, the calculation is started from the operation block at the upper left corner, and when the calculation is completed, the process moves to the lower stage, and when the calculation is completed up to the lowest stage, that is, when the calculation of the operation block for one vertical column is completed, The calculation proceeds to the upper stage, and vertically from there, and when it reaches the lowermost stage again, the process is repeated again to the rightmost uppermost stage until the calculation of the arithmetic block at the lower right end is completed, and the distance image is obtained.

【0035】ここで、ステップ11のデフォーカス量
(距離)の計算について、図8を用いて説明する。
Here, the calculation of the defocus amount (distance) in step 11 will be described with reference to FIG.

【0036】ステップ20:撮像画面10aの指定され
た演算ブロックとそれに対応する撮像画面10bの領域
の相関を、画素ピッチ単位に間隔を変えて相関量を求め
る。
Step 20: The correlation between the designated calculation block of the image pickup screen 10a and the corresponding region of the image pickup screen 10b is calculated by changing the interval in pixel pitch units.

【0037】ステップ21:相関度の最も高い間隔の検
出を行う。
Step 21: The interval having the highest correlation is detected.

【0038】ステップ22:相関度の最も高い間隔近傍
の相関量の変化より、画素ピッチ未満の精度で最も相関
度の高い間隔を補間計算を行い求める。
Step 22: From the change in the correlation amount near the interval having the highest correlation degree, the interval having the highest correlation degree is calculated by interpolation with accuracy less than the pixel pitch.

【0039】ステップ23:演算ブロック内の輝度コン
トラストが、像のずれを2像の相関で求めるに十分であ
ったか否か確認する。コントラストが低ければ計算を終
了し、高ければステップ24にすすむ。
Step 23: It is confirmed whether or not the brightness contrast in the calculation block is sufficient to obtain the image shift by the correlation between the two images. If the contrast is low, the calculation is ended, and if it is high, the process proceeds to step 24.

【0040】ステップ24:求めた2像の間隔から、撮
影レンズ1、フィールドレンズ8、2次結像レンズ9の
焦点距離、光学的位置関係など光学特性情報を基に、デ
フォーカス量、更には距離を表わす値を得て計算を終了
する。
Step 24: The defocus amount, and further the defocus amount, based on the optical characteristic information such as the focal lengths of the taking lens 1, the field lens 8 and the secondary imaging lens 9 and the optical positional relationship from the obtained distance between the two images. The value representing the distance is obtained, and the calculation ends.

【0041】ここで、さらにステップ20の相関演算に
ついて図9を用いて説明する。
Here, the correlation calculation in step 20 will be further described with reference to FIG.

【0042】ステップ30:撮像画面10aの画像を基
準画像、撮像画面10bの画像を参照画像とし、撮影レ
ンズ1が撮影面に対して合焦状態にあるとき基準画面と
理想的には同一の像が得られる像間隔の位置を基準位置
とし、その基準位置よりのシフト量(画素ピッチ単位)
shiftを像がずれ得るあるいは像のずれが検出でき
る最大のシフト量S、図5上では上方向にずれた位置か
ら相関演算を行う。
Step 30: Using the image of the image pickup screen 10a as a standard image and the image of the image pickup screen 10b as a reference image, ideally the same image as the reference screen when the photographing lens 1 is in focus with respect to the photographing surface. The position of the image interval at which is obtained is the reference position, and the shift amount from that reference position (pixel pitch unit)
Correlation calculation is performed from the shift amount S that is the maximum shift amount S in which the image shift or the image shift can be detected, that is, the shift position in the upward direction in FIG.

【0043】ステップ31:相関度を示す相関量を計算
する。
Step 31: Calculate the correlation amount indicating the degree of correlation.

【0044】各間隔(シフト量)での相関量の計算は次
のように行う。
The calculation of the correlation amount at each interval (shift amount) is performed as follows.

【0045】[0045]

【外1】 但し、data(画面、画素の横位置、画素の縦位置) =( )内に示された位置の画素の輝度値 f:相関量を示す関数[Outer 1] However, data (screen, horizontal position of pixel, vertical position of pixel) = luminance value f of the pixel at the position shown in (): function indicating the correlation amount

【0046】相関量を示す関数fは例えば次のような式
で表わされる。
The function f indicating the correlation amount is expressed by the following equation, for example.

【0047】[0047]

【外2】 このような関数で相関量を求める場合、ステップ22の
補間演算では図10に示すP点の位置を求めることにな
る。
[Outside 2] When the correlation amount is obtained by such a function, the position of the point P shown in FIG. 10 is obtained by the interpolation calculation in step 22.

【0048】ステップ32:基準位置より最大のシフト
量S、図5上では下方向にずれた位置まで相関量を求め
たら相関演算を終了し、そうでない場合はステップ33
に進む。
Step 32: When the correlation amount is obtained up to the maximum shift amount S from the reference position, that is, the position shifted downward in FIG. 5, the correlation calculation is terminated, and if not, step 33.
Proceed to.

【0049】ステップ33:シフト量shiftに1加
算し、即ち図5上で1画素ピッチ分下方に参照画像とす
る位置をシフトし、ステップ31にて計算する。
Step 33: Add 1 to the shift amount shift, that is, shift the position of the reference image downward by one pixel pitch in FIG. 5, and calculate in step 31.

【0050】以上の様にして相関演算を行う。The correlation calculation is performed as described above.

【0051】ここで、図6、ステップ5の主被写体判別
について、図11に従い、更に説明する。
The main subject discrimination in step 5 in FIG. 6 will be further described with reference to FIG.

【0052】ステップ40:先のステップで得た距離画
像を微分する。
Step 40: Differentiate the distance image obtained in the previous step.

【0053】微分は、例えば 3×3画素のオペレータであれば、 ((d(m−1、n−1)+d(m、n−1)+d(m
+1、n−1)−d(m−1、n+1)−d(m、n+
1)−d(m+1、n+1))2 +(d(m−1、n−
1)+d(m−1n)+d(m−1、n+1)−d(m
+1、n−1)−d(m+1、n)−d(m+1、n+
1))21/2 或いは d(m、n)−min(d(m−1、n−1)、d
(m、n−1)、d(m+1、n−1)、d(m−1、
n)、d(m+1、n)、d(m−1、n+1)、d
(m、n+1),d(m+1、n+1)) 或いは d(m、n)−(d(m−1、n−1)+d(m、n−
1)+d(m+1、n−1)+d(m−1、n)+d
(m+1、n)+d(m−1、n+1)+d(m、n+
1)+d(m+1、n+1))/8 等の微分オペレータを、用いることで行える。
For example, if the operator is a 3 × 3 pixel operator, ((d (m-1, n-1) + d (m, n-1) + d (m
+1, n-1) -d (m-1, n + 1) -d (m, n +
1) -d (m + 1, n + 1)) 2 + (d (m-1, n-
1) + d (m-1n) + d (m-1, n + 1) -d (m
+1, n-1) -d (m + 1, n) -d (m + 1, n +
1)) 2 ) 1/2 or d (m, n) -min (d (m-1, n-1), d
(M, n-1), d (m + 1, n-1), d (m-1,
n), d (m + 1, n), d (m-1, n + 1), d
(M, n + 1), d (m + 1, n + 1)) or d (m, n)-(d (m-1, n-1) + d (m, n-
1) + d (m + 1, n-1) + d (m-1, n) + d
(M + 1, n) + d (m-1, n + 1) + d (m, n +
1) + d (m + 1, n + 1)) / 8 etc. can be used.

【0054】ステップ41:微分値の絶対値が所定値以
上の点を検出する。
Step 41: Detect a point where the absolute value of the differential value is a predetermined value or more.

【0055】ステップ42:微分値の絶対値が所定値以
上の点で像を切り分け、物体を抽出する。
Step 42: The object is extracted by dividing the image at points where the absolute value of the differential value is equal to or greater than a predetermined value.

【0056】ステップ43:比較的近距離に存在し、比
較的撮影画面中央付近に存在する物体を主被写体と認識
する。以上でステップ5の主被写体判別を終了する。
Step 43: Recognize an object existing relatively near and relatively near the center of the photographic screen as the main subject. This is the end of the main subject determination in step 5.

【0057】尚、図11において、60−64はステッ
プ5の主被写体判別の処理の例として、各過程で処理さ
れた状態の画像を示したものであり、60は原画像、6
1は生成された距離画像、62はステップ42で検出さ
れる微分された距離画像の微分値が所定値以上の部分
を、63はステップ42にて微分値が所定値以上の点で
切り分けられ抽出された物体を、64はステップ43に
て主被写体と認識された物体を示した一例である。
In FIG. 11, reference numerals 60-64 represent images processed in each process as an example of the main subject discrimination processing in step 5, where 60 is an original image and 6 is an image.
Reference numeral 1 is a generated distance image, 62 is a portion of the differentiated distance image detected in step 42 having a differential value of a predetermined value or more, and 63 is a step 42, in which the differential value is separated by a point of a predetermined value or more and extracted. The reference numeral 64 indicates an object which is recognized as a main subject in step 43.

【0058】〔実施例2〕図13は本発明実施のカメラ
の自動ズーム装置である。
[Embodiment 2] FIG. 13 shows an automatic zoom device for a camera according to the present invention.

【0059】図13に於いて、71はカメラの撮影レン
ズ、72は撮影レンズ71の一部を構成するフォーカシ
ングレンズ、73は撮影レンズ71の一部を構成するバ
リエータ、74は撮影レンズ71の一部を構成するコン
ペンセータであって、バリエータ73とコンペンセータ
74を組み合わせて不図示のズームカム環を介してズー
ムモータ86によって駆動されズーミングを行う。75
は撮影レンズ71の一部を構成するリレーレンズであ
り、77はカメラのフィルム面である。79は可変焦点
距離の1対の撮像レンズであって、一対の撮像画面を有
するエリアセンサ80の撮像画面80a、80bの各々
の画面上に反射ミラー89、90を介して結像する。8
9、90は一対の撮像レンズ79の結像光をエリアセン
サ80の撮像画面80a、80bへ導く反射ミラー、8
0は1対の撮像画面80a、80bを有するエリアセン
サ、81はエリアセンサ80の画像出力信号をディジタ
ル化するADコンバータ、82はディジタル化された画
像信号を記憶するためのフレームメモリ、83はエリア
センサ80、ADコンバータ81、フレームメモリ82
をセンサドライバ84を介して制御して画像信号を得
て、それに基づきズーム制御を行うマイクロコンピュー
タ、84はマイクロコンピュータ83の指示によりエリ
アセンサ80を駆動し、ADコンバータ81に変換タイ
ミング信号を与え、フレームメモリ82にデータ取り込
みタイミングを与えるセンサドライバ、85はマイクロ
コンピュータ83の指示によりズームモータ86を駆動
して撮影レンズ71のズーミングを行わせるズームモー
タドライバ、86は不図示のズームカム環を介してバリ
エータ73、コンペンセータ74を駆動しズーミングを
行うズームモータ、87はズームの動きと位置(焦点距
離)を検出するためのズームエコンコーダである。93
はマイクロコンピュータ83の指示によりモータ94を
駆動して一対の可変焦点距離の撮像レンズ79の焦点距
離を変化させるモータドライバ、94は一対の可変焦点
距離の撮像レンズ79を駆動し焦点距離を変化させるモ
ータ、95は一対の可変焦点距離の撮像レンズ79の焦
点距離の動きと位置(焦点距離)を検出するためのエン
コーダである。
In FIG. 13, reference numeral 71 is a taking lens of the camera, 72 is a focusing lens forming a part of the taking lens 71, 73 is a variator forming a part of the taking lens 71, and 74 is a part of the taking lens 71. A compensator forming a unit, which is a combination of a variator 73 and a compensator 74, driven by a zoom motor 86 via a zoom cam ring (not shown) to perform zooming. 75
Is a relay lens forming a part of the taking lens 71, and 77 is a film surface of the camera. Reference numeral 79 denotes a pair of image pickup lenses having a variable focal length, which forms an image on the respective image pickup screens 80a and 80b of the area sensor 80 having a pair of image pickup screens via reflecting mirrors 89 and 90. 8
Reference numerals 9 and 90 denote reflection mirrors that guide the image formation light of the pair of image pickup lenses 79 to the image pickup screens 80a and 80b of the area sensor 80.
0 is an area sensor having a pair of image pickup screens 80a and 80b, 81 is an AD converter for digitizing the image output signal of the area sensor 80, 82 is a frame memory for storing the digitized image signal, and 83 is an area Sensor 80, AD converter 81, frame memory 82
Is controlled via the sensor driver 84 to obtain an image signal and zoom control is performed based on the image signal. Reference numeral 84 of the microcomputer 83 drives the area sensor 80 to give a conversion timing signal to the AD converter 81. A sensor driver that gives a timing for capturing data to the frame memory 82, a zoom motor driver 85 that drives a zoom motor 86 according to an instruction from the microcomputer 83 to zoom the photographing lens 71, and a variator 86 through a zoom cam ring (not shown). 73, a zoom motor for driving the compensator 74 for zooming; and 87, a zoom econcoder for detecting the movement and position (focal length) of the zoom. 93
Is a motor driver that drives a motor 94 according to an instruction from the microcomputer 83 to change the focal lengths of the pair of variable focal length imaging lenses 79, and 94 drives the pair of variable focal length imaging lenses 79 to change the focal lengths. A motor 95 is an encoder for detecting the movement and position (focal length) of the focal length of the pair of variable focal length imaging lenses 79.

【0060】図14、図15は、図13に示したカメラ
の自動ズーム装置の反射ミラー89、90と、撮像レン
ズ79、エリアセンサ80の光学的位置関係を示した図
とその斜視図であり、エリアセンサ80の2つの撮像画
面80a、80b上には、基線長Bだけ互いに離れた光
束が、撮像レンズ79、反射ミラー89、90を介して
結像される。この時撮像画面80a、80b上の2像の
間隔は、撮像レンズ79と撮像画面80a、80bの光
学的な間隔fと、基線長Bと、被写体距離Dに依存す
る。
14 and 15 are a perspective view and a view showing an optical positional relationship between the reflecting mirrors 89 and 90 of the automatic zoom device for the camera shown in FIG. 13, the image pickup lens 79, and the area sensor 80. On the two image pickup screens 80a and 80b of the area sensor 80, light fluxes separated from each other by the base line length B are imaged via the image pickup lens 79 and the reflection mirrors 89 and 90. At this time, the distance between the two images on the image pickup screens 80a and 80b depends on the optical distance f between the image pickup lens 79 and the image pickup screens 80a and 80b, the base line length B, and the subject distance D.

【0061】図16は、図14、図15に示したカメラ
の自動ズーム装置の、前記2像の間隔、撮像レンズと撮
像画面の光学的な間隔f、基線長B、被写体距離Dの関
係を、反射ミラー89、90を排して、簡潔に示した図
である。図14において、基線長Bだけ互いに離れた光
束は反射ミラー89、90によって、間隔B′離れた撮
像画面80a、80bに導かれているが、これは、図1
6に示したように、反射ミラー89、90或いはそれら
に相当するものが無く、基線長Bに大まかに等しい間隔
互いに離れた撮像画面80a′、80b′と、撮像レン
ズ79から構成されているものと等価と見なせる。2像
の間隔は被写体が無限遠にあるとき、基線長Bに等しく
なる。被写体が有限距離にある時の2像の間隔は、無限
遠にあるときのそれよりもΔ拡がる。
FIG. 16 shows the relationship between the distance between the two images, the optical distance f between the image pickup lens and the image pickup screen, the base line length B, and the object distance D in the automatic zoom device for the camera shown in FIGS. It is the figure which simplified and abbreviate | omitted the reflective mirrors 89 and 90. In FIG. 14, the light beams separated from each other by the base line length B are guided by the reflection mirrors 89 and 90 to the image pickup screens 80a and 80b which are separated by the distance B ′.
As shown in FIG. 6, there are no reflecting mirrors 89, 90 or their equivalents, and are composed of image pickup screens 80a ', 80b' and an image pickup lens 79 which are spaced apart from each other at intervals roughly equal to the base line length B. Can be considered equivalent to The distance between the two images is equal to the baseline length B when the subject is at infinity. The distance between the two images when the subject is at a finite distance is wider by Δ than when it is at infinity.

【0062】2像の間隔(Δ)、撮像レンズと撮像画面
の光学的な間隔f、基線長B、被写体距離Dの関係は、 D/B=f/Δ の式で示され、2像の間隔から距離を得ることが出来
る。
The relationship between the distance (Δ) between the two images, the optical distance f between the image pickup lens and the image pickup screen, the base line length B, and the subject distance D is expressed by the following equation: D / B = f / Δ You can get the distance from the interval.

【0063】図17は、フィルム面77と撮影レンズ7
1の撮影視野と、撮像画面80a′、80b′と、撮像
レンズ79の撮影視野の関係を示した図である。 図1
7は、図16と同様に反射ミラー89、90を排し、視
野と画面とレンズの関係を簡潔に示したものであり、図
中において、80′、80a′80b′は図16のそれ
らと同じものを示し、71、77、79は図14、図1
5と同構成である。91、92は何れも撮影レンズ71
とフィルム面77の撮影視野を示しており、91は撮影
レンズ71の焦点距離がズーミングによる最長焦点距離
(望遠端)時の、92は撮影レンズ71の焦点距離がズ
ーミングによる最短焦点距離(広角端)時の撮影視野を
各々示している。また、撮像レンズと撮像画面の撮像視
野は、その可変焦点距離範囲のうち最も短焦点距離側の
焦点距離のとき、略広角端時の撮影視野92に等しく、
その可変焦点距離範囲のうち最も長焦点距離側の焦点距
離のとき、略望遠端時の撮影視野91に等しい。
FIG. 17 shows the film surface 77 and the taking lens 7.
FIG. 3 is a diagram showing the relationship between the imaging field of view No. 1, imaging screens 80 a ′ and 80 b ′, and the imaging field of view of the imaging lens 79. Figure 1
Similar to FIG. 16, reference numeral 7 shows the relationship between the field of view, the screen and the lens by omitting the reflecting mirrors 89 and 90, and 80 ', 80a' and 80b 'in FIG. The same thing is shown, 71, 77 and 79 are shown in FIG. 14 and FIG.
It has the same configuration as that of No. 5. Both 91 and 92 are photographing lenses 71.
And 91 the filming field of view of the film surface 77. 91 is the longest focal length (telephoto end) of the taking lens 71 due to zooming, and 92 is the shortest focal length (wide-angle end) of the taking lens 71 due to zooming. ) Shows the field of view at each time. Further, the imaging field of view of the imaging lens and the imaging screen is equal to the imaging field of view 92 at the wide-angle end when the focal length on the shortest focal length side in the variable focal length range is set,
The focal length on the longest focal length side of the variable focal length range is substantially equal to the photographing field 91 at the telephoto end.

【0064】尚、エリアセンサ80の撮像画面80a、
80bと画素の配列は、実施例1の図5のエリアセンサ
10と同様に、2つの撮像画面80a、80bは、何れ
も横X画素、縦Y画素ずつ配列されており、またその中
に横i画素、縦j画素の大きさの演算ブロックが横M個
縦N個配列される。
The image pickup screen 80a of the area sensor 80,
Similar to the area sensor 10 of FIG. 5 of the first embodiment, the two image pickup screens 80a and 80b are arranged such that horizontal X pixels and vertical Y pixels are arranged in the horizontal direction. Arithmetic blocks having a size of i pixels and j pixels in the vertical direction are arranged in M horizontal rows and N vertical rows.

【0065】ここで、図13のマイクロコンピュータ8
3の動作のフローチャート図18に従い、自動ズーム装
置の動作を説明する。
Here, the microcomputer 8 of FIG.
Flowchart of Operation 3 The operation of the automatic zoom device will be described with reference to FIG.

【0066】ステップ401:主被写体の大きさ等より
前回求めた撮影レンズ71の適切な焦点距離を示すf
n-1 に、初期設定として撮影レンズ71の最広角焦点距
離に相当する値を与える。
Step 401: f which indicates an appropriate focal length of the taking lens 71 previously obtained from the size of the main subject, etc.
A value corresponding to the widest-angle focal length of the taking lens 71 is given to n-1 as an initial setting.

【0067】ステップ402:モータドライバ93にて
モータを駆動し、可変焦点距離の撮像レンズ79の焦点
距離を撮影レンズ71の最広角焦点距離時の撮影視野9
2に略等しい撮像視野が得られる最短焦点距離側の焦点
距離にする。
Step 402: The motor is driven by the motor driver 93 so that the focal length of the image pickup lens 79 having a variable focal length is changed to the photographing field of view 9 when the photographing lens 71 has the widest focal length.
The focal length on the shortest focal length side is obtained so that an imaging field of view substantially equal to 2 is obtained.

【0068】ステップ403:輝度画像読み込み。先
ず、センサドライバ84を介してエリアセンサ80を駆
動し、信号蓄積を行わせ、被写界の輝度分布即ち、セン
サ面上の照度分布を光電変換、蓄積により画像信号に変
換する。蓄積終了後、画像信号の読み出しを行う。読み
出し時、読み出しのタイミングに同期して、センサドラ
イバ84を介してADコンバータ81を動作させ、エリ
アセンサ80の出力する画像信号をディジタル化し、フ
レームメモリ82に与える。フレームメモリ82には、
センサドライバ84を介して読み込みタイミング信号を
与え、ディジタル化された画像信号を読み込ませる。
Step 403: Read luminance image. First, the area sensor 80 is driven through the sensor driver 84 to cause signal accumulation, and the luminance distribution of the object field, that is, the illuminance distribution on the sensor surface is photoelectrically converted and converted into an image signal. After the accumulation is completed, the image signal is read. At the time of reading, the AD converter 81 is operated via the sensor driver 84 in synchronization with the timing of reading, and the image signal output from the area sensor 80 is digitized and given to the frame memory 82. In the frame memory 82,
A reading timing signal is given through the sensor driver 84 to read the digitized image signal.

【0069】ステップ404:距離画像生成。エリアセ
ンサ80の2つの撮像画面80aと80b上に結像した
像の間隔を、撮像画面内を複数のブロックに分割し、各
ブロック毎に求める。2像の間隔(Δ)は前述のごとく
被写体距離Dに依存し、撮像レンズ79と撮像画面80
a、80bの光学的な間隔f、基線長Bから被写体距離
を表わす値を得ることができる。これにより画面内の距
離の分布即ち距離画像が得られる。この距離画像生成に
ついては後に図19を用いて更に説明する。
Step 404: Range image generation. The interval between the images formed on the two image pickup screens 80a and 80b of the area sensor 80 is obtained for each block by dividing the image pickup screen into a plurality of blocks. The interval (Δ) between the two images depends on the subject distance D as described above, and the imaging lens 79 and the imaging screen 80
A value representing the subject distance can be obtained from the optical distance f between a and 80b and the base line length B. As a result, a distribution of distances on the screen, that is, a distance image is obtained. This distance image generation will be further described later with reference to FIG.

【0070】ステップ405:主被写体判別。ステップ
404で得た距離画像より、物体を抽出し、主被写体を
選別する。この主被写体判別については実施例1の図6
のステップ4の主被写体判別と同様であり、先に図11
を用いて説明したとおりである。
Step 405: Main subject discrimination. From the distance image obtained in step 404, an object is extracted and a main subject is selected. Regarding this main subject discrimination, FIG.
This is similar to the main subject determination in step 4 of step 1.
As described above.

【0071】ステップ406:焦点距離決定。現状の撮
像レンズ79の焦点距離による視野の画像内でステップ
405で認識された主被写体の上端、下端、左端、右端
がどこにあるか、主被写体の画面上の形と大きさと位置
を得て、撮影画面内にその主被写体が適位な大きさと位
置を占める様な撮影レンズ71の焦点距離fn とそれに
相当する撮像視野を得る撮像レンズ79の焦点距離を求
める。
Step 406: Determine focal length. In the image of the field of view based on the current focal length of the imaging lens 79, the shape, size, and position of the main subject on the screen are obtained, where the top end, bottom end, left end, and right end of the main subject recognized in step 405 are obtained. The focal length f n of the photographing lens 71 so that the main subject occupies an appropriate size and position in the photographing screen, and the focal length of the photographing lens 79 that obtains an imaging field of view corresponding thereto are obtained.

【0072】ステップ407:前回求めた焦点距離f
n-1 と今回求めた焦点距離fn を比較し、実質的に等し
い場合はステップ411、412実行後に終了し、実質
的に等しくない場合はステップ408の撮像レンズの焦
点距離変更に進む。
Step 407: Previously obtained focal length f
The focal length f n obtained this time is compared with n−1. If they are substantially equal, the process ends after executing steps 411 and 412. If they are not substantially equal, the process proceeds to step 408, where the focal length of the imaging lens is changed.

【0073】ステップ408:撮像レンズの焦点距離変
更。ステップ406で求めた撮影レンズ71の焦点距離
n に相当する撮像視野を得る焦点距離に変化させる為
に、モータドライバ93にてモータ94を所定方向に駆
動し、可変焦点距離の撮像レンズ79の焦点距離を変更
する。
Step 408: Change the focal length of the image pickup lens. In order to change the focal length to obtain the imaging field of view corresponding to the focal length f n of the photographing lens 71 obtained in step 406, the motor driver 93 drives the motor 94 in a predetermined direction to change the focal length of the imaging lens 79 of the variable focal length. Change the focal length.

【0074】ステップ409:ズーム駆動。ステップ4
06で求めた焦点距離fn になるように、ズームモータ
ドライバ85をしてズームモータ86を所定方向に駆動
し、不図示のズームカム環を介してバリエータ73、コ
ンペンセータ74を光軸方向に動かし撮影レンズ71の
焦点距離を変化させる。
Step 409: Zoom drive. Step 4
The zoom motor driver 85 is driven to drive the zoom motor 86 in a predetermined direction so that the focal length f n obtained in 06 is obtained, and the variator 73 and the compensator 74 are moved in the optical axis direction via a zoom cam ring (not shown) for photographing. The focal length of the lens 71 is changed.

【0075】ステップ410:前回求めた焦点距離を示
すfn-1 に、今回求めた焦点距離fn の値を与え、次回
の“前回求めた焦点距離を示すfn-1 ”とし、ステップ
403より再び繰り返す。
[0075] Step 410: the f n-1 indicating the focal length previously determined, given a value of the focal length f n obtained this time, and "f n-1 indicating the last focal distance obtained" next, step 403 Repeat again.

【0076】ステップ411:現状の撮影レンズ71の
焦点距離と今回求めた焦点距離fnが既に実質的に等し
いと判断された場合は、ステップ412を実行せず終了
し、実質的に等しくないと判断された場合は、次にステ
ップ412を実行する。
Step 411: When it is determined that the current focal length of the taking lens 71 and the focal length f n obtained this time are already substantially equal, step 412 is ended without executing, and they are not substantially equal. If it is determined, then step 412 is executed.

【0077】ステップ412:ステップ409と同様な
ズーム駆動。ステップ406で求めた焦点距離fn とな
るように、ズームモータドライバ85をしてズームモー
タ86を駆動し、不図示のズームカム環を介してバリエ
ータ73、コンペンセータ74を光軸方向に動かし撮影
レンズ71の焦点距離を変化させた後、終了する。
Step 412: Zoom drive similar to step 409. The zoom motor driver 85 is driven to drive the zoom motor 86 so that the focal length f n obtained in step 406 is obtained, and the variator 73 and the compensator 74 are moved in the optical axis direction via a zoom cam ring (not shown) to take the photographing lens 71. After changing the focal length of, finish.

【0078】以上のごとくマイクロコンピュータ83は
動作し、第1の実施例同様に、図12に示した様に撮像
視野を変化させ、自動ズーム動作が行われる。
The microcomputer 83 operates as described above, and as in the first embodiment, the imaging field of view is changed as shown in FIG. 12, and the automatic zoom operation is performed.

【0079】ここで、図19のフローチャートにて図1
8のステップ404の距離画像生成について更に説明す
る。
Here, in the flow chart of FIG.
The distance image generation in step 404 of 8 will be further described.

【0080】ステップ110:演算ブロック位置の初期
設定として、図5に示した撮像画面の左上の端のブロッ
ク(m、n)=(0、0)を指定する。
Step 110: As the initial setting of the calculation block position, the block (m, n) = (0, 0) at the upper left end of the image pickup screen shown in FIG. 5 is designated.

【0081】ステップ111:撮像画面80a上の指定
された演算ブロックとそれに対応した撮像画面80b上
の領域間の相関を求め、互いに最も相関の高い像の間隔
を得る。2像の間隔は、被写体距離に依存し、撮像レン
ズ79の焦点距離f、基線長Bから被写体距離を表わす
値を得ることができる。こうして、指定された演算ブロ
ックの画面上の位置における被写体までの距離を表わす
値が得られる。
Step 111: The correlation between the designated calculation block on the image pickup screen 80a and the corresponding area on the image pickup screen 80b is obtained, and the image intervals having the highest correlation with each other are obtained. The distance between the two images depends on the subject distance, and a value representing the subject distance can be obtained from the focal length f of the imaging lens 79 and the base line length B. Thus, a value representing the distance to the subject at the position on the screen of the designated calculation block is obtained.

【0082】ステップ112:演算したブロックが図5
上の最下段(m、N−1)でなければステップ113
へ、最下段であればステップ114へ進む。
Step 112: The calculated block is shown in FIG.
If it is not the uppermost stage (m, N-1), step 113
If it is at the bottom, go to step 114.

【0083】ステップ113:演算するブロックを隣
(下段)のブロック(m、n+1)にし、ステップ11
1へ進み計算を行う。
Step 113: The block to be calculated is set to the adjacent (lower) block (m, n + 1), and Step 11
Go to 1 and calculate.

【0084】ステップ114:演算すべきブロックを最
上段のブロック(m、0)にする。
Step 114: The block to be calculated is set to the uppermost block (m, 0).

【0085】ステップ115:演算した縦の列が最右端
の列(M−1、n)でなければステップ116へ、最右
端であれば距離画像生成を終了する。
Step 115: If the calculated vertical column is not the rightmost column (M-1, n), go to step 116. If it is the rightmost column, the distance image generation is terminated.

【0086】ステップ116:演算すべきブロック列を
右隣の列(m+1、n)にし、ステップ111に進み計
算を行う。
Step 116: The block sequence to be calculated is set to the next column on the right (m + 1, n), and the process proceeds to step 111 for calculation.

【0087】即ち、左上端の演算ブロックより計算を始
め、計算が終了すると下段へ、最下段まで終了したら、
つまり縦1列分演算ブロックの計算が終了したら右隣の
次の列の最上段へ、そこからまた縦に計算を進め、再び
最下段まで達したら再び右隣の最上段へ、これを繰り返
し、右下端の演算ブロックの計算が終了するまで行い、
距離画像を得る。
That is, calculation is started from the arithmetic block at the upper left corner, and when the calculation is completed, go to the lower stage.
In other words, when the calculation of the calculation block for one vertical column is completed, proceed to the uppermost row of the next column on the right next to it, and from there, proceed vertically again, and when it reaches the lowermost row, repeat this to the uppermost row on the right next again, Perform until the calculation of the operation block at the lower right corner is completed,
Get a range image.

【0088】ここで、ステップ111の距離の計算につ
いて、図20を用いて説明する。
Here, the calculation of the distance in step 111 will be described with reference to FIG.

【0089】ステップ120:撮像画面80aの指定さ
れた演算ブロックとそれに対応する撮像画面30bの領
域の相関を、画素ピッチ単位に間隔を変えて相関量を求
める。
Step 120: The correlation between the designated calculation block of the image pickup screen 80a and the corresponding region of the image pickup screen 30b is calculated by changing the interval in pixel pitch units.

【0090】ステップ121:相関度の最も高い間隔の
検出を行う。
Step 121: The interval with the highest degree of correlation is detected.

【0091】ステップ122:相関度の最も高い間隔近
傍の相関量の変化より、画素ピッチ未満の精度で最も相
関度の高い間隔を補間計算を行い求める。
Step 122: Interpolation calculation is performed on the interval having the highest correlation degree with an accuracy of less than the pixel pitch based on the change in the correlation amount near the interval having the highest correlation degree.

【0092】ステップ123:演算ブロック内の輝度コ
ントラストが、像のずれを2像の相関で求めるに十分で
あったか否か確認する。コントラストが低ければ計算を
終了し、高ければステップ124に進む。
Step 123: It is confirmed whether or not the brightness contrast in the calculation block is sufficient to obtain the image shift by the correlation between the two images. If the contrast is low, the calculation is terminated, and if it is high, the process proceeds to step 124.

【0093】ステップ124:求めた2像の間隔から、
撮像レンズ79の焦点距離fなどの光学特性情報、基線
長Bなどを基に、距離を表わす値を得て計算を終了す
る。
Step 124: From the obtained distance between the two images,
Based on the optical characteristic information such as the focal length f of the imaging lens 79 and the base line length B, a value representing the distance is obtained and the calculation is completed.

【0094】ここで、さらにステップ120の相関演算
について図21を用いて説明する。
Here, the correlation calculation in step 120 will be further described with reference to FIG.

【0095】ステップ130:撮像画面80aを基準画
面とし、その画像を基準画像、撮像画面80bの画像を
参照画像とし、基準とすべき被写体距離に被写体距離が
あるとき、即ち基準画面と理想的には同一の像が得られ
る像間隔の位置を基準位置とする。そして、その基準位
置よりのシフト量(画素ピッチ単位)shiftを像が
ずれ得るあるいは像のずれが検出でき得る最大のシフト
量S、図5上では上方向にずれた位置から、相関演算を
行う。
Step 130: When the image pickup screen 80a is used as a reference screen, the image is used as a reference image, and the image of the image pickup screen 80b is used as a reference image, and when the object distance to be the reference is the object distance, that is, ideally with the reference screen. Is the reference position which is the position of the image interval at which the same image is obtained. Then, the correlation calculation is performed from the shift amount (pixel pitch unit) shift from the reference position, which is the maximum shift amount S at which the image shift or the image shift can be detected, that is, the position shifted upward in FIG. .

【0096】ステップ131:相関度を示す相関量を計
算する。
Step 131: Calculate the correlation amount indicating the degree of correlation.

【0097】各間隔(シフト量)での相関量の計算は次
のように行う。
The correlation amount at each interval (shift amount) is calculated as follows.

【0098】[0098]

【外3】 但し、data(画面、画素の横位置、画素の縦位置) =( )内に示された位置の画素の輝度値 f:相関量を示す関数[Outside 3] However, data (screen, horizontal position of pixel, vertical position of pixel) = luminance value f of the pixel at the position shown in (): function indicating the correlation amount

【0099】相関量を示す関数fは、例えば次のような
式で表わされる。
The function f indicating the correlation amount is expressed by the following equation, for example.

【0100】[0100]

【外4】 このような関数で相関量を求める場合、ステップ122
の補間演算では実施例1の図8のステップ22と同様
に、図10に示すP点の位置を求めることになる。
[Outside 4] When obtaining the correlation amount by such a function, step 122
In the interpolation calculation of, the position of the point P shown in FIG. 10 is obtained as in step 22 of FIG. 8 of the first embodiment.

【0101】ステップ132:基準位置より最大のシフ
ト量S、図5上では下方向にずれた位置まで相関量を求
めたら相関演算を終了し、そうでない場合はステップ1
33に進む。
Step 132: When the correlation amount is obtained up to the maximum shift amount S from the reference position, that is, the position shifted downward in FIG. 5, the correlation calculation is ended.
Proceed to 33.

【0102】ステップ133:シフト量shiftに1
加算し、即ち図5上で1画素ピッチ分下方に参照画像と
する位置をシフトし、ステップ131にて計算する。
Step 133: 1 for shift amount shift
In other words, the position of the reference image is shifted downward by one pixel pitch in FIG. 5, and calculation is performed in step 131.

【0103】以上を繰り返し相関演算を進める。The above operation is repeated to proceed the correlation calculation.

【0104】〔実施例3〕実施例1と同様に、図1〜図
5に示される構成にて、マイクロコンピュータ13は図
22のフローチャートに従い動作する。
[Third Embodiment] Similar to the first embodiment, the microcomputer 13 operates according to the flowchart of FIG. 22 with the configuration shown in FIGS.

【0105】フローチャート図22を用いて、自動ズー
ム装置の動作を説明する。
Flowchart The operation of the automatic zoom device will be described with reference to FIG.

【0106】ステップ501:主被写体の大きさ等より
前回求めた撮影レンズ1の適切な焦点距離を示すfn-1
に、初期設定として、撮影レンズ1の最広角焦点距離に
相当する値を与える。
Step 501: f n-1 indicating the appropriate focal length of the taking lens 1 previously obtained from the size of the main subject and the like.
As a default setting, a value corresponding to the widest-angle focal length of the taking lens 1 is given.

【0107】ステップ502:ズームモータドライバ1
5をしてズームモータ16を駆動し、カム手段等を介し
てバリエータ3、コンペンセータ4を光軸方向に動かし
撮影レンズ1の焦点距離を最広角焦点距離にする。
Step 502: Zoom motor driver 1
5, the zoom motor 16 is driven, and the variator 3 and the compensator 4 are moved in the optical axis direction via the cam means or the like to bring the focal length of the taking lens 1 to the widest angle focal length.

【0108】ステップ503:輝度画像読み込み。先
ず、センサドライバ14を介してエリアセンサ10を駆
動し、信号蓄積を行わせ、被写界の輝度分布即ち、セン
サ面上の照度分布を光電変換、蓄積により画像信号に変
換する。蓄積終了後、画像信号の読み出しを行う。読み
出し時、読み出しのタイミングに同期して、センサドラ
イバ14を介してADコンバータ11を動作させ、エリ
アセンサ10の出力する画像信号をディジタル化し、フ
レームメモリ12に与える。フレームメモリ12には、
センサドライバ14を介して読み込みタイミング信号を
与え、ディジタル化された画像信号を読み込ませる。
Step 503: Read luminance image. First, the area sensor 10 is driven through the sensor driver 14 to cause signal accumulation, and the luminance distribution of the field, that is, the illuminance distribution on the sensor surface is photoelectrically converted and converted into an image signal. After the accumulation is completed, the image signal is read. At the time of reading, the AD converter 11 is operated via the sensor driver 14 in synchronization with the reading timing to digitize the image signal output from the area sensor 10 and give it to the frame memory 12. In the frame memory 12,
A reading timing signal is given through the sensor driver 14 to read the digitized image signal.

【0109】以上のようにして輝度分布の画像(以下、
輝度画像)をエリアセンサ10で捕え、フレームメモリ
12に画像信号として取り込む。
As described above, the image of the luminance distribution (hereinafter,
The brightness image) is captured by the area sensor 10 and captured in the frame memory 12 as an image signal.

【0110】ステップ504:距離画像生成。エリアセ
ンサ10の2つの撮像画面10aと10b上に結像した
像の間隔を、撮像画面内を複数のブロックに分割し、各
ブロック毎に求める。2像の間隔はデフォーカス量に依
存し、撮影レンズ1の焦点距離、フォーカス位置などか
ら被写体距離を表わす値を得ることができる。これによ
り画面内の距離の分布即ち距離画像が得られる。この距
離画像生成は先の実施例1の図6のステップ4と同様で
あり、その詳細は図7を用いて説明した通りである。
Step 504: Distance image generation. The interval between the images formed on the two image pickup screens 10a and 10b of the area sensor 10 is divided into a plurality of blocks in the image pickup screen and is obtained for each block. The distance between the two images depends on the defocus amount, and a value representing the subject distance can be obtained from the focal length, focus position, etc. of the taking lens 1. As a result, a distribution of distances on the screen, that is, a distance image is obtained. This distance image generation is the same as step 4 in FIG. 6 of the first embodiment, and the details thereof are as described with reference to FIG. 7.

【0111】ステップ505:主被写体判別。ステップ
504で得た距離画像より、物体を抽出、主被写体を選
別する。この主被写体判別は、先の実施例1の図6のス
テップ5と同様であり、その詳細は図11を用いて説明
した通りである。
Step 505: Main subject discrimination. From the distance image obtained in step 504, an object is extracted and a main subject is selected. This main subject determination is the same as step 5 of FIG. 6 of the first embodiment, and the details thereof are as described with reference to FIG.

【0112】ステップ506:焦点距離決定。現状の撮
影レンズ1の焦点距離で画像内でステップ505で認識
された主被写体の上端、下端、左端、右端がどこにある
か、主被写体の画面上の形と大きさと位置を得て、撮影
画面内にその主被写体が適当な大きさと位置を占める様
な撮影レンズ1の焦点距離fn を求める。
Step 506: Determine focal length. The shape, size, and position of the main subject on the screen are obtained to find out where the upper end, the lower end, the left end, and the right end of the main subject recognized in step 505 in the image with the current focal length of the taking lens 1 are obtained. The focal length f n of the taking lens 1 is determined so that the main subject occupies an appropriate size and position.

【0113】ステップ507:前回求めた焦点距離f
n-1 と今回求めた焦点距離fn を比較し、実質的に等し
い場合は終了し、実質的に等しくない場合はステップ5
08に進みズーム駆動を行う。
Step 507: Previously obtained focal length f
n-1 is compared with the focal length f n obtained this time, and if substantially equal, the process ends; otherwise, step 5
In step 08, zoom driving is performed.

【0114】ステップ508:ズーム駆動開始。現状の
ズーム位置からステップ506で求めた焦点距離fn
なるように、ズームモータドライバ15をしてズームモ
ータ16の駆動を開始し、カム手段等を介してバリエー
タ3、コンペンセータ4を光軸方向に動かし撮影レンズ
1の焦点距離を変化させる。
Step 508: Start zoom drive. The zoom motor driver 15 is started to drive the zoom motor 16 so that the focal length f n obtained in step 506 is reached from the current zoom position, and the variator 3 and the compensator 4 are moved in the optical axis direction via cam means or the like. To change the focal length of the taking lens 1.

【0115】ステップ509:現状のズーム位置が、焦
点距離fn に相当するズーム位置から所定値以上離れて
いる場合は、ステップ510からステップ513までを
順次実行し、近い場合はステップ510からステップ5
13までを実行せず、次はステップ514に進む。
Step 509: If the current zoom position is away from the zoom position corresponding to the focal length f n by a predetermined value or more, steps 510 to 513 are sequentially executed, and if close, steps 510 to 5
13 is not executed, and the process proceeds to step 514.

【0116】ステップ510:輝度画像読み込み。先
ず、センサドライバ14を介してエリアセンサ10を駆
動し、信号蓄積を行わせ、被写界の輝度分布即ち、セン
サ面上の照度分布を光電変換、蓄積により画像信号に変
換する。蓄積終了後、画像信号の読み出しを行う。読み
出し時、読み出しのタイミングに同期して、センサドラ
イバ14を介してADコンバータ11を動作させ、エリ
アセンサ10の出力する画像信号をディジタル化し、フ
レームメモリ12に与える。フレームメモリ12には、
センサドライバ14を介して読み込みタイミング信号を
与え、ディジタル化された画像信号を読み込ませる。
Step 510: Read luminance image. First, the area sensor 10 is driven through the sensor driver 14 to cause signal accumulation, and the luminance distribution of the field, that is, the illuminance distribution on the sensor surface is photoelectrically converted and converted into an image signal. After the accumulation is completed, the image signal is read. At the time of reading, the AD converter 11 is operated via the sensor driver 14 in synchronization with the reading timing to digitize the image signal output from the area sensor 10 and give it to the frame memory 12. In the frame memory 12,
A reading timing signal is given through the sensor driver 14 to read the digitized image signal.

【0117】また、この時、蓄積の開始、終了時等の時
刻、ズーム位置(或は焦点距離)を記憶、演算し、蓄積
中のズーミングによる画像の変化に対し、蓄積に依り得
た画像が如何なる焦点距離における画像として取り扱う
べきかを決定する。
At this time, the time at the start and end of the accumulation, the zoom position (or the focal length) is stored and calculated, and the image obtained by the accumulation is compared with the change of the image due to the zooming during the accumulation. Decide what focal length should be treated as an image.

【0118】ステップ511:距離画像生成。ステップ
504と同様に距離画像を生成する。但し、この時に用
いる焦点距離は先にステップ510にて求めた蓄積中の
焦点距離である。
Step 511: Range image generation. Similar to step 504, a range image is generated. However, the focal length used at this time is the focal length during accumulation previously obtained in step 510.

【0119】ステップ512:主被写体判別。ステップ
505と同様に、ステップ511で得た距離画像より、
物体を抽出して主被写体を選別する。
Step 512: Main subject discrimination. Similar to step 505, from the range image obtained in step 511,
The object is extracted and the main subject is selected.

【0120】ステップ513:焦点距離決定。先にステ
ップ510にて求めた蓄積中の撮影レンズ1の焦点距離
で画像内でステップ512で認識された主被写体の上
端、下端、左端、右端がどこにあるか、主被写体の画面
上の形と大きさと位置を得て、撮影画面内にその主被写
体が適位な大きさと位置を占める様な撮影レンズ1の焦
点距離fn を求める。
Step 513: Focal length determination. With the focal length of the taking lens 1 being accumulated previously obtained in step 510, where the upper end, the lower end, the left end, and the right end of the main subject recognized in step 512 are in the image, and the shape of the main subject on the screen is displayed. After obtaining the size and the position, the focal length f n of the photographing lens 1 is determined so that the main subject occupies the proper size and position in the photographing screen.

【0121】ステップ514:現状の撮影レンズ1の焦
点距離と焦点距離fn が実質的に等しい、即ち、目標と
すべき焦点距離にズーム位置が達していれば、ステップ
515に進み、ズーム駆動を停止し、等しくなければ再
びステップ509より繰り返す。
Step 514: If the current focal length of the taking lens 1 and the focal length f n are substantially equal, that is, if the zoom position has reached the target focal length, the process proceeds to step 515 to perform zoom drive. Stop and if not equal, repeat from step 509 again.

【0122】ステップ515:ズーム駆動停止。ステッ
プ508で開始したズーム駆動を停止する。
Step 515: Stop zoom drive. The zoom drive started in step 508 is stopped.

【0123】ステップ516:前回求めた焦点距離を示
すfn-1 に、今回求めた焦点距離fn の値を与え、次回
は“前回求めた焦点距離を示すfn-1 ”とし、ステップ
503より再び繰り返す。
[0123] Step 516: the f n-1 indicating the focal length previously determined, given a value of the focal length f n obtained this time, the next time the "f n-1 indicating the focal length previously determined", the step 503 Repeat again.

【0124】以上のようにして、ズーム駆動中において
も、画像より求めたズーム位置より離れている場合は、
再度画像を得て焦点距離を得直すことで、よりはやく適
切な焦点距離を得る。
As described above, even when the zoom position is far from the zoom position obtained from the image even during zoom driving,
By obtaining the image again and obtaining the focal length again, an appropriate focal length can be obtained more quickly.

【0125】〔実施例4〕実施例1と同様に、図1〜図
5に示される構成にて、マイクロコンピュータ13は図
23のフローチャートに従い動作する。
[Fourth Embodiment] Similar to the first embodiment, the microcomputer 13 operates according to the flow chart of FIG. 23 in the configuration shown in FIGS.

【0126】図23のフローチャートに従い、自動ズー
ム装置の動作を説明する。
The operation of the automatic zoom device will be described with reference to the flowchart of FIG.

【0127】ステップ701:主被写体の大きさ等より
前回求めた撮影レンズ1の適切な焦点距離を示すfn-1
に、初期設定として撮影レンズ1の最広角焦点距離に相
当する値を与える。
Step 701: f n-1 indicating an appropriate focal length of the taking lens 1 previously obtained from the size of the main subject, etc.
Is given as a default value corresponding to the widest focal length of the taking lens 1.

【0128】ステップ702:ズームモータドライバ1
5をしてズームモータ16を駆動し、カム手段等を介し
てバリエータ3、コンペンセータ4を光軸方向に動かし
撮影レンズ1の焦点距離を最広角焦点距離にする。
Step 702: Zoom motor driver 1
5, the zoom motor 16 is driven, and the variator 3 and the compensator 4 are moved in the optical axis direction via the cam means or the like to bring the focal length of the taking lens 1 to the widest angle focal length.

【0129】ステップ703:輝度画像読み込み。先
ず、センサドライバ14を介してエリアセンサ10を駆
動し、信号蓄積を行わせ、被写界の輝度分布即ち、セン
サ面上の照度分布を光電変換、蓄積により画像信号に変
換する。蓄積終了後、画像信号の読み出しを行う。読み
出し時、読み出しのタイミングに同期して、センサドラ
イバ14を介してADコンバータ11を動作させ、エリ
アセンサ10の出力する画像信号をディジタル化し、フ
レームメモリ12に与える。フレームメモリ12には、
センサドライバ14を介して読み込みタイミング信号を
与え、ディジタル化された画像信号を読み込ませる。
Step 703: Read luminance image. First, the area sensor 10 is driven through the sensor driver 14 to cause signal accumulation, and the luminance distribution of the field, that is, the illuminance distribution on the sensor surface is photoelectrically converted and converted into an image signal. After the accumulation is completed, the image signal is read. At the time of reading, the AD converter 11 is operated via the sensor driver 14 in synchronization with the reading timing to digitize the image signal output from the area sensor 10 and give it to the frame memory 12. In the frame memory 12,
A reading timing signal is given through the sensor driver 14 to read the digitized image signal.

【0130】以上のようにして輝度分布の画像(以下、
輝度画像)をエリアセンサ10で捕え、フレームメモリ
12に画像信号として取り込む。
As described above, the image of the luminance distribution (hereinafter,
The brightness image) is captured by the area sensor 10 and captured in the frame memory 12 as an image signal.

【0131】ステップ704:距離画像生成。エリアセ
ンサ10の2つの撮像画面10aと10b上に結像した
像の間隔を、撮像画面内を複数のブロックに分割し、各
ブロック毎に求める。2像の間隔はデフォーカス量に依
存し、撮影レンズ1の焦点距離、フォーカス位置などか
ら被写体距離を表わす値を得ることができる。これによ
り画面内の距離の分布即ち距離画像が得られる。この距
離画像生成は先の実施例1の図6のステップ4と同様で
あり、その詳細は図7を用いて説明した通りである。
Step 704: Distance image generation. The interval between the images formed on the two image pickup screens 10a and 10b of the area sensor 10 is divided into a plurality of blocks in the image pickup screen and is obtained for each block. The distance between the two images depends on the defocus amount, and a value representing the subject distance can be obtained from the focal length, focus position, etc. of the taking lens 1. As a result, a distribution of distances on the screen, that is, a distance image is obtained. This distance image generation is the same as step 4 in FIG. 6 of the first embodiment, and the details thereof are as described with reference to FIG. 7.

【0132】ステップ705:主被写体判別。ステップ
704で得た距離画像より、物体を抽出、主被写体を選
別する。この主被写体判別は、先の実施例1の図6のス
テップ5と同様である。
Step 705: Main subject discrimination. An object is extracted and a main subject is selected from the distance image obtained in step 704. This main subject determination is the same as step 5 in FIG. 6 of the first embodiment.

【0133】ステップ706:焦点距離決定。現状の撮
影レンズ1の焦点距離で画像内でステップ705で認識
された主被写体の上端、下端、左端、右端がどこにある
か、主被写体の画面上の形と大きさと位置を得て、撮影
画面内にその主被写体が適位な大きさと位置を占める様
な撮影レンズ1の焦点距離fn を求める。
Step 706: Focal length determination. The shape, size, and position of the main subject on the screen are obtained to find out where the upper end, the lower end, the left end, and the right end of the main subject recognized in step 705 in the image with the current focal length of the taking lens 1 are obtained. The focal length f n of the taking lens 1 is determined so that the main subject occupies an appropriate size and position.

【0134】ステップ707:現状の撮影レンズ1の焦
点距離を示す値と今回求めた焦点距離fn を示す値を比
較し、今回求めた焦点距離fn を示す値が現状の撮影レ
ンズ1の焦点距離を示す値より所定値α以上離れている
場合はステップ708に進めてズーム駆動を行い、近接
している場合はステップ710、711の実行後に終了
する。
[0134] Step 707: comparing the focal length value indicating the f n obtained this time and a value that indicates the focal length of the photographic lens 1 the current focus of the photographing lens 1 of a value indicating the focal length f n obtained this time current If the distance is more than the predetermined value α, the process proceeds to step 708 to drive the zoom.

【0135】ここで焦点距離を示す値は、必ずしも焦点
距離そのもの或は焦点距離に比例する値である必要はな
く、例えばカム手段の一部のズームカム環の繰り出し量
や回転量でも良い。また、その離れている量も、所定値
の差に限らず、例えば比であっても良い。
Here, the value indicating the focal length does not necessarily have to be the focal length itself or a value proportional to the focal length, and may be, for example, the amount of extension or rotation of a part of the zoom cam ring of the cam means. Further, the distance is not limited to the difference between the predetermined values, and may be a ratio, for example.

【0136】ステップ708:ズーム駆動。ステップ7
06で求めた焦点距離fn に、ズームモータドライバ1
5をしてズームモータ16を駆動し、カム手段等を介し
てバリエータ3、コンペンセータ4を適当に光軸方向に
動かし撮影レンズ1の焦点距離を変化させる。
Step 708: Zoom drive. Step 7
At the focal length f n obtained in 06, the zoom motor driver 1
5, the zoom motor 16 is driven, and the variator 3 and the compensator 4 are appropriately moved in the optical axis direction via the cam means or the like to change the focal length of the taking lens 1.

【0137】ステップ709:前回求めた焦点距離を示
すfn-1 に、今回求めた焦点距離fn の値を与え、次回
は“前回求めた焦点距離を示すfn-1 ”とし、ステップ
603より再び繰り返す。
[0137] Step 709: the f n-1 indicating the focal length previously determined, given a value of the focal length f n obtained this time, the next time the "f n-1 indicating the focal length previously determined", the step 603 Repeat again.

【0138】ステップ710:現状の撮影レンズ1の焦
点距離と今回求めた焦点距離fn が既に実効的に等しい
と判断された場合は、ステップ711を実行せず終了
し、実効的に等しくないと判断された場合は、次にステ
ップ711を実行する。
Step 710: When it is judged that the current focal length of the taking lens 1 and the focal length f n obtained this time are already effectively equal, step 711 is ended without executing, and they are not effectively equal. If determined, then step 711 is executed.

【0139】ステップ711:ステップ709と同様な
ズーム駆動。ステップ706で求めた焦点距離fn に、
ズームモータドライバ15を介してズームモータ16を
駆動し、カム手段等を介してバリエータ3、コンペンセ
ータ4を適当に光軸方向に動かし撮影レンズ1の焦点距
離を変化させた後に終了する。
Step 711: Zoom drive similar to step 709. At the focal length f n obtained in step 706,
The zoom motor 16 is driven via the zoom motor driver 15, and the variator 3 and the compensator 4 are appropriately moved in the optical axis direction via the cam means or the like to change the focal length of the taking lens 1, and then the process ends.

【0140】以上のごとくマイクロコンピュータ13は
動作し、自動ズーム動作が行われる。
As described above, the microcomputer 13 operates and the automatic zoom operation is performed.

【0141】尚、実施例中、撮像手段の画像を距離画像
とし、全て説明したが、被写体の認識の為の画像は、当
然のことながら、距離画像に限られるものではなく、輝
度画像等他の画像であっても、本発明の効果は失われる
ものではない。
In the embodiments, the image of the image pickup means is used as the distance image, but all of the explanations have been made. However, the image for recognizing the subject is not limited to the distance image, and a luminance image or the like can be used. The effect of the present invention is not lost even with the above image.

【0142】[0142]

【発明の効果】以上説明したように、画像信号により被
写体像を検出し、その被写体像を用いて主被写体の大き
さを判別し、この主被写体の大きさに基づいて変更すべ
き焦点距離(撮影倍率)を決定したので、被写体距離の
情報だけではなく、主被写体の大きさに基づいた、常に
最適な焦点距離(撮影倍率)が得られた。又、この主被
写体の判別の際に、被写体像を焦点距離可変光学系を動
作させることにより被写体像の視野を変化させたので、
主被写体の判別をより正確にすることができた。なお、
主被写体の判別の為の焦点距離光学系の動作をワイド側
からテレ方向に行うことにより、撮影可能な全視野から
正確に主被写体を判別することができる。
As described above, the subject image is detected from the image signal, the size of the main subject is discriminated using the subject image, and the focal length to be changed based on the size of the main subject ( Since the shooting magnification) was determined, the optimum focal length (shooting magnification) was always obtained based not only on the subject distance information but also on the size of the main subject. Further, when the main subject is discriminated, the field of view of the subject image is changed by operating the variable focal length optical system for the subject image.
I was able to make the main subject more accurate. In addition,
By performing the operation of the focal length optical system for determining the main subject in the tele direction from the wide side, it is possible to accurately determine the main subject from the entire viewable field.

【0143】なお、実施例においては最初にワイド側で
の被写体像を検出し、その後にテレ方向に焦点距離を変
化させた状態で再び被写体像を検出し、順次この検出を
繰り返すことにより、主被写体の大きさに基づく撮影焦
点距離の設定が正確に行える。
In the embodiment, the object image on the wide side is first detected, and then the object image is detected again with the focal length changed in the tele direction, and this detection is repeated successively to obtain the main image. It is possible to accurately set the shooting focal length based on the size of the subject.

【0144】又、本発明は被写体の画像を距離画像と
し、距離画像上の変化箇所を物体間の境界と認識するこ
とで、主被写体や背景の輝度コントラストパターンに惑
わされることなく、確実に主被写体と背景を識別するこ
とが可能になった。
Further, according to the present invention, the image of the subject is used as the distance image, and the changed portion on the distance image is recognized as the boundary between the objects, so that the main subject and the luminance contrast pattern of the background are not confused and the main subject is surely detected. It is now possible to distinguish between the subject and the background.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明実施例1のカメラの自動ズーム装置のブ
ロック図。
FIG. 1 is a block diagram of an automatic zoom device for a camera according to a first embodiment of the present invention.

【図2】本発明実施例1のカメラの自動ズーム装置の光
学的位置関係を示した図。
FIG. 2 is a diagram showing an optical positional relationship of the camera automatic zoom device according to the first embodiment of the present invention.

【図3】本発明実施例1のカメラの自動ズーム装置を一
眼レフカメラへ適用した場合のレイアウトを示した図。
FIG. 3 is a diagram showing a layout when the automatic zoom device for a camera according to the first embodiment of the present invention is applied to a single-lens reflex camera.

【図4】図3のレイアウトをカメラ上部方向より見た
図。
FIG. 4 is a diagram of the layout of FIG. 3 as viewed from above the camera.

【図5】エリアセンサの撮像画面と画素の配列を示した
図。
FIG. 5 is a diagram showing an image pickup screen of an area sensor and an array of pixels.

【図6】マイクロコンピュータの動作を示すフローチャ
ート。
FIG. 6 is a flowchart showing the operation of the microcomputer.

【図7】図6の距離画像生成の詳細なフローチャート。7 is a detailed flowchart of the distance image generation of FIG.

【図8】図7のデフォーカス量の計算の詳細なフローチ
ャート。
8 is a detailed flowchart of the calculation of the defocus amount in FIG.

【図9】図8の相関演算の詳細なフローチャート。9 is a detailed flowchart of the correlation calculation of FIG.

【図10】補間計算を説明する図。FIG. 10 is a diagram illustrating interpolation calculation.

【図11】図6の主被写体判別を説明する図。FIG. 11 is a diagram for explaining the main subject determination of FIG.

【図12】本発明実施例2の動作と撮像視野の関係を説
明する図。
FIG. 12 is a diagram illustrating a relationship between an operation and an imaging visual field according to the second embodiment of the present invention.

【図13】本発明実施例2のカメラの自動ズーム装置の
ブロック図。
FIG. 13 is a block diagram of an automatic zoom device for a camera according to a second embodiment of the present invention.

【図14】本発明実施例2のカメラの自動ズーム装置の
光学的位置関係を示した図。
FIG. 14 is a diagram showing an optical positional relationship of an automatic zoom device for a camera according to a second embodiment of the present invention.

【図15】本発明実施例2のカメラの自動ズーム装置の
光学的位置関係を示した図。
FIG. 15 is a diagram showing an optical positional relationship of an automatic zoom device for a camera according to a second embodiment of the present invention.

【図16】本発明実施例2の距離測定原理を説明する
図。
FIG. 16 is a diagram for explaining the principle of distance measurement according to the second embodiment of the present invention.

【図17】本発明実施例2の撮影視野と撮像視野の関係
を説明する図。
FIG. 17 is a diagram for explaining the relationship between the imaging visual field and the imaging visual field according to the second embodiment of the present invention.

【図18】本発明実施例2のマイクロコンピュータの動
作を示すフローチャート。
FIG. 18 is a flowchart showing the operation of the microcomputer according to the second embodiment of the present invention.

【図19】図13の距離画像生成の詳細なフローチャー
ト。
FIG. 19 is a detailed flowchart of the distance image generation of FIG.

【図20】図19の距離計算の詳細なフローチャート。20 is a detailed flowchart of the distance calculation of FIG.

【図21】図20の相関演算の詳細なフローチャート。21 is a detailed flowchart of the correlation calculation of FIG.

【図22】本発明実施例3のマイクロコンピュータの動
作を示すフローチャート。
FIG. 22 is a flowchart showing the operation of the microcomputer according to the third embodiment of the present invention.

【図23】本発明実施例4のマイクロコンピュータの動
作を示すフローチャート。
FIG. 23 is a flowchart showing the operation of the microcomputer according to the fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 カメラの撮影レンズ 3 バリエータ 4 コンペンセータ 7 フィルム面 9 1対2次結像レンズ 10 1対の撮像画面を有するエリアセンサ 13 マイクロコンピュータ 15 ズームモータドライバ 16 ズームモータ 17 ズームエンコーダ 20 反射ミラー 50 撮像光路上の一次結像面 65 1対の2次結像レンズ 66 1対の撮像画面を有するエリアセンサ 67 マイクロコンピュータ 71 カメラの撮影レンズ 73 バリエータ 74 コンペンセータ 77 フィルム面 79 1対の撮像レンズ 80 1対の撮像画面を有するエリアセンサ 83 マイクロコンピュータ 85 ズームモータドライバ 86 ズームモータ 87 ズームエンコーダ 89、90 反射ミラー 91 望遠時の撮影視野 92 広角時の撮影視野 93 撮像レンズモータドライバ 94 撮像レンズモータ 95 撮像レンズのエンコーダ 1 Camera lens 3 variator 4 Compensator 7 Film side 9 1-to-2 secondary imaging lens Area sensor having a pair of imaging screens 13 Microcomputer 15 Zoom motor driver 16 zoom motor 17 Zoom encoder 20 reflective mirror 50 Primary image plane on imaging optical path 65 1 pair of secondary imaging lenses 66 Area sensor having a pair of imaging screens 67 Microcomputer 71 Camera lens 73 Variator 74 Compensator 77 Film side 79 1 pair of imaging lenses 80 Area sensor having a pair of imaging screens 83 Microcomputer 85 Zoom Motor Driver 86 Zoom motor 87 Zoom encoder 89, 90 Reflective mirror 91 Field of view at telephoto 92 Wide-angle shooting field of view 93 Imaging lens motor driver 94 Imaging lens motor 95 Imaging lens encoder

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G02B 7/02 - 7/16 G02B 7/28 - 7/40 G03B 19/00 - 19/16 H04N 5/222 - 5/257 ─────────────────────────────────────────────────── ─── Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) G02B 7 /02-7/16 G02B 7 /28-7/40 G03B 19/00-19/16 H04N 5 / 222-5/257

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 焦点距離可変光学系を介して被写体像を
画像信号に変換する撮像手段と、該撮像手段から得られ
た前記画像信号を用いて被写体像信号を抽出する被写体
像検出手段と、該検出手段にて抽出された被写体像信号
の画面に占める大きさを判別し、該大きさが所定の大き
さを占めるための焦点距離に関する情報を演算する演算
手段と、該演算手段で演算された焦点距離に関する情報
に応じて前記焦点距離可変光学系の焦点距離を変更する
光学機器において、 前記演算手段で演算された焦点距離に関する情報に応じ
て前記焦点距離可変光学系の焦点距離を変更した後前記
被写体像検出手段による像信号の前記抽出動作と前記演
算手段による前記演算動作及び演算結果に応じた前記焦
点距離可変光学系の焦点距離変更動作を、前回と今回の
演算結果が所定の範囲に収束するまで繰り返し行うこと
を特徴とする光学機器。
1. An image pickup means for converting a subject image into an image signal via a variable focal length optical system, and a subject image detection means for extracting a subject image signal using the image signal obtained from the image pickup means. A calculation unit that determines the size of the image of the subject image signal extracted by the detection unit and calculates information about the focal length for the size to occupy a predetermined size; and the calculation unit. In the optical device for changing the focal length of the variable focal length optical system according to the information on the focal length, the focal length of the variable focal length optical system is changed according to the information on the focal length calculated by the calculating means. After that, the extracting operation of the image signal by the subject image detecting means, the arithmetic operation by the arithmetic means, and the focal length changing operation of the focal length variable optical system according to the arithmetic result are performed last time and this time. Optical instrument operation result and performing repeatedly to converge to a predetermined range.
【請求項2】 前記演算手段により焦点距離に関する情
報が演算されるごとに、繰り返し撮影光学系の焦点距離
を変更する撮影光学系が設けられることを特徴とする請
求項1に記載の光学機器。
2. The optical apparatus according to claim 1, further comprising a photographing optical system that repeatedly changes the focal length of the photographing optical system every time the calculation unit calculates the information on the focal length.
【請求項3】 前記焦点距離可変光学系の初期値として
ワイド側の焦点距離にセットする初期セット手段が設け
られることを特徴とする請求項1または2に記載の光学
装置。
3. The optical apparatus according to claim 1, further comprising initial setting means for setting a focal length on a wide side as an initial value of the variable focal length optical system.
JP27843393A 1993-11-08 1993-11-08 Optical equipment Expired - Fee Related JP3382321B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP27843393A JP3382321B2 (en) 1993-11-08 1993-11-08 Optical equipment
US08/332,870 US5615398A (en) 1993-11-08 1994-11-01 Optical apparatus with image area sensors for controlling lens focal length

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27843393A JP3382321B2 (en) 1993-11-08 1993-11-08 Optical equipment

Publications (2)

Publication Number Publication Date
JPH07134238A JPH07134238A (en) 1995-05-23
JP3382321B2 true JP3382321B2 (en) 2003-03-04

Family

ID=17597283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27843393A Expired - Fee Related JP3382321B2 (en) 1993-11-08 1993-11-08 Optical equipment

Country Status (1)

Country Link
JP (1) JP3382321B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6088539A (en) * 1997-12-24 2000-07-11 Canon Kabushiki Kaisha Optical apparatus with focus adjusting function and focus adjustment control circuit
JP4018218B2 (en) 1997-12-25 2007-12-05 キヤノン株式会社 Optical apparatus and distance measuring point selection method
US6175692B1 (en) 1998-05-26 2001-01-16 Canon Kabushiki Kaisha Focus detecting device, distance measuring device, and optical apparatus for adjusting focus
JP5744581B2 (en) * 2011-03-18 2015-07-08 キヤノン株式会社 Imaging apparatus and control method thereof

Also Published As

Publication number Publication date
JPH07134238A (en) 1995-05-23

Similar Documents

Publication Publication Date Title
US5867217A (en) Photographing apparatus and lens position control device
JP3230098B2 (en) Focus detection device
US7071985B1 (en) Optical device and method for selecting object of focus
JPH10161013A (en) Environment recognition device and camera provided therewith
US20040223073A1 (en) Focal length detecting method and focusing device
JPH0888788A (en) Image pickup device
JPH05257062A (en) Automatic focusing device
US5615398A (en) Optical apparatus with image area sensors for controlling lens focal length
JPH0629895B2 (en) Focus state determination device
JP3335419B2 (en) Camera ranging device
JP4892014B2 (en) camera
JPH10108057A (en) Image-pickup device, camera and image processor
JP2002365524A (en) Autofocus device and imaging device using the same
JP3382321B2 (en) Optical equipment
JPH1138313A (en) Optical device and camera
JP4011738B2 (en) Optical device
JP3412713B2 (en) Focus adjustment method
JPH07270674A (en) Focusing detecting device
JPH07318787A (en) Automatic zoom device
JPH11109218A (en) Automatic focus detector
US5138360A (en) Camera focus detector
JPH07281080A (en) Camera
JPH08194153A (en) Automatic zooming device
JPH07134237A (en) Optical instrument
JP2000019386A (en) Camera

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021126

LAPS Cancellation because of no payment of annual fees