JP2005134621A - Focus detector of camera - Google Patents

Focus detector of camera Download PDF

Info

Publication number
JP2005134621A
JP2005134621A JP2003370247A JP2003370247A JP2005134621A JP 2005134621 A JP2005134621 A JP 2005134621A JP 2003370247 A JP2003370247 A JP 2003370247A JP 2003370247 A JP2003370247 A JP 2003370247A JP 2005134621 A JP2005134621 A JP 2005134621A
Authority
JP
Japan
Prior art keywords
image
optical system
focus
camera
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003370247A
Other languages
Japanese (ja)
Inventor
Masabumi Yamazaki
正文 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003370247A priority Critical patent/JP2005134621A/en
Publication of JP2005134621A publication Critical patent/JP2005134621A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a focus detector for a camera that can focus on arbitrary region of an object, with simple configuration. <P>SOLUTION: The focus detector for the camera comprises a first image imaged with an imaging device 5 used for photography; and an AF processing circuit 108 for detecting the distance to an object, on the basis of the calculation result by detecting the focus on the basis of a triangular positioning principle, on the basis of a second image imaged with an imaging device 104 arranging the direction of a base line length at the horizontal face and a prescribed angle of the camera, and calculating the position of a reference image matched with the reference image set in the second image, while gradually shifting the reference image set in the first image at prescribed pitches in the direction of the base line length. The long-side direction of the imaging device 5 is made parallel to the horizontal face of the camera, and the long-side direction of the imaging device 104 is made to coincide with the direction of the base line length. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、例えばデジタルカメラやビデオカメラ等に用いられるカメラの焦点検出装置に関するものである。   The present invention relates to a camera focus detection device used for, for example, a digital camera or a video camera.

従来、デジタルカメラやビデオカメラ等の撮像装置においては、撮像素子の出力信号の高周波成分が最大になる位置に撮影レンズを駆動して被写体にピントを合わせる、所謂山登り方式による焦点検出が広く採用されている。しかしながら、この方式は、撮影レンズを駆動しながら被写体にピントを合わせる方式である為、合焦状態に至るまでに比較的時間がかかるという問題がある。これに対して、三角測距方式や位相差方式による焦点検出は、被写体までの距離やピントのずれ量を求めることができる為、迅速な焦点検出が可能であり、特に速写性能が要求されるスチルカメラに向いた方式である。   Conventionally, in an imaging apparatus such as a digital camera or a video camera, focus detection by a so-called hill-climbing method, in which a photographing lens is driven to a position where the high-frequency component of an output signal of an imaging element is maximized to focus on a subject, has been widely adopted. ing. However, since this method focuses on the subject while driving the photographic lens, there is a problem that it takes a relatively long time to reach the in-focus state. On the other hand, the focus detection by the triangulation method or the phase difference method can obtain the distance to the subject and the amount of focus shift, so that it is possible to detect the focus quickly, and particularly high speed performance is required. This method is suitable for still cameras.

ここで、特許文献1では、2つの瞳を具備する焦点検出用絞り板を撮影レンズの光路に配設し、遮蔽板で瞳を交互に隠蔽して左像信号Lと右像信号Rを撮像素子からそれぞれ読み出し、上記左像信号Lと右像信号Rの相対的な位置ズレに基づいて焦点状態を検出する撮像装置に関する技術が開示されている。   Here, in Patent Document 1, a focus detection diaphragm having two pupils is disposed in the optical path of the photographing lens, and the left image signal L and the right image signal R are captured by alternately concealing the pupil with a shielding plate. A technique relating to an imaging apparatus that reads out from each element and detects a focus state based on a relative positional shift between the left image signal L and the right image signal R is disclosed.

さらに、特許文献2では、撮影画面上の複数の焦点検出領域に到達する被写体光束を分割結像し、焦点検出領域毎に一組の光像を形成する焦点検出用光学系を設け、この一組の光像毎に光電変換を行う複数の光電変換手段の出力レベルに応じて電荷蓄積時間を個別に制御し、上記複数の光電変換手段の出力から焦点情報を算出する焦点検出装置に関する技術が開示されている。   Further, Patent Document 2 provides a focus detection optical system that divides and forms a subject luminous flux that reaches a plurality of focus detection areas on a photographing screen and forms a set of optical images for each focus detection area. There is a technique related to a focus detection device that individually controls charge accumulation time according to output levels of a plurality of photoelectric conversion units that perform photoelectric conversion for each set of light images, and calculates focus information from outputs of the plurality of photoelectric conversion units. It is disclosed.

また、特許文献3では、基線長離れた2つのレンズ系からそれぞれ入射する同一被写体からの反射光を受光する一対の固体撮像素子を設け、上記一対の固体撮像素子の撮像面に結像する一対の画像中の任意の位置を指定し、三角測量法を利用したアルゴリズムにより被写体の前記位置指定点までの距離を求めることができるデジタル電子スチルカメラに関する技術が開示されている。
特開平11−142723号公報 特開平9−311269号公報 特開平5−18748号公報
In Patent Document 3, a pair of solid-state image sensors that receive reflected light from the same subject incident from two lens systems that are separated from each other by the baseline length are provided, and a pair that forms an image on the imaging surface of the pair of solid-state image sensors. A technique related to a digital electronic still camera is disclosed in which an arbitrary position in an image of the subject is designated and the distance to the position designated point of the subject can be obtained by an algorithm using a triangulation method.
JP 11-142723 A JP-A-9-311269 Japanese Patent Laid-Open No. 5-18748

しかしながら、特許文献1に記載の技術では、1つの撮像素子のみで焦点検出が可能になるものの、撮影レンズに遮蔽板を設ける必要がある為、通常の撮影レンズを使うことができない。従って、特にレンズ交換式の撮影レンズを用いる一眼レフカメラでは、レンズの互換性を損ないユーザーに大きな負担を与えるという問題がある。   However, although the technique described in Patent Document 1 enables focus detection with only one image sensor, it is necessary to provide a shielding plate on the photographing lens, and thus a normal photographing lens cannot be used. Therefore, in particular, a single-lens reflex camera using an interchangeable lens taking lens has a problem that the compatibility of the lens is lost and a large burden is imposed on the user.

さらに、特許文献2に記載の技術では、焦点検出領域が限られた位置にしかピントを合わせることができないという問題がある。   Furthermore, the technique described in Patent Document 2 has a problem that the focus detection area can be focused only at a limited position.

また、特許文献3に記載の技術では、一対の撮影光学系及び撮像素子が同じ構成であるため、撮影光学系及び撮像素子が高性能高機能なものであるとカメラのコストが高くなるばかりかカメラが大きくなりすぎるという問題がある。   Further, in the technique described in Patent Document 3, since the pair of photographing optical system and the image sensor have the same configuration, the cost of the camera is not only high if the photographing optical system and the image sensor have high performance and high functionality. There is a problem that the camera becomes too large.

本発明は、簡単な構成で被写体の任意の領域にピントを合わせることが可能なカメラの焦点検出装置を提供することを目的とする。   An object of the present invention is to provide a focus detection device for a camera that can focus on an arbitrary area of a subject with a simple configuration.

上記目的を達成するために、本発明の第1の態様では、撮影に用いる第1の二次元撮像素子で撮像される第1画像と、基線長方向がカメラの水平面と所定の角度をもって配置された第2の二次元撮像素子で撮像される第2画像に基づいて三角測距の原理に基づいて焦点を検出するカメラの焦点検出装置であって、上記第1画像の中に設定された参照像を基線長方向に所定ピッチずつずらしながら、上記第2画像の中に設定された基準像と一致する上記参照像の位置を演算する相関量演算手段と、上記相関量演算手段の出力に基づき被写体までの距離を検出する距離演算手段とを備え、上記第1の二次元撮像素子の長辺方向を上記カメラの水平面と平行にし、上記第2の二次元撮像素子の長辺方向を上記基線長方向と一致させたことを特徴とするカメラの焦点検出装置が提供される。この第1の態様によれば、被写体の任意の位置に簡単に高速に焦点を合わせることが可能である。   In order to achieve the above object, in the first aspect of the present invention, the first image picked up by the first two-dimensional image pickup device used for shooting and the baseline length direction are arranged at a predetermined angle with the horizontal plane of the camera. A focus detection device for a camera that detects a focal point based on a principle of triangulation based on a second image captured by the second two-dimensional image sensor, and the reference set in the first image Based on the correlation amount calculation means for calculating the position of the reference image that matches the reference image set in the second image while shifting the image by a predetermined pitch in the baseline length direction, and based on the output of the correlation amount calculation means Distance calculating means for detecting a distance to a subject, the long side direction of the first two-dimensional image sensor is parallel to the horizontal plane of the camera, and the long side direction of the second two-dimensional image sensor is the base line Characterized by matching with the long direction Focus detecting apparatus for a camera is provided. According to the first aspect, it is possible to easily focus on an arbitrary position of the subject at high speed.

本発明の第2の態様では、上記第1の態様において、上記第2の二次元撮像素子は、カメラの把持部よりも上面に配置されていることを特徴とするカメラの焦点検出装置が提供される。この第2の態様によれば、第2の二次元撮像素子に到達する被写体光束が遮られないので、確実に被写体の任意の位置に焦点を合わせることが可能である。   According to a second aspect of the present invention, there is provided a camera focus detection device according to the first aspect, wherein the second two-dimensional imaging element is disposed on an upper surface of the camera grip. Is done. According to the second aspect, since the subject luminous flux reaching the second two-dimensional imaging device is not blocked, it is possible to reliably focus on an arbitrary position of the subject.

本発明の第3の態様では、上記第1の態様において、上記基準像に対応する画像データのアドレスを上記基線長方向に回転変換する変換手段を更に有することを特徴とするカメラの焦点検出装置が提供される。この第3の態様によれば、被写体の任意の位置に簡単に高速に焦点を合わせることが可能である。   According to a third aspect of the present invention, in the first aspect, the camera focus detection apparatus further comprises conversion means for rotationally converting the address of the image data corresponding to the reference image in the baseline length direction. Is provided. According to the third aspect, it is possible to easily focus on an arbitrary position of the subject at high speed.

本発明によれば、簡単な構成で被写体の任意の領域にピントを合わせることが可能なカメラの焦点検出装置を提供することができる。   According to the present invention, it is possible to provide a focus detection device for a camera that can focus on an arbitrary region of a subject with a simple configuration.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[第1の実施の形態]
図1には、本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置の構成例を示し説明する。図1に示されるように、撮像装置1は、撮影光学系としての、ズームレンズ2及びフォーカスレンズ3を有している。光線は、これらレンズ2,3、絞り4を通過して、CCD等の撮像素子5の受光面に結像される。この撮像素子5で光電変換された信号は、撮像回路6に入力され、当該撮像回路6により映像信号が生成される。そして、この映像信号は、A/D変換器7によってデジタルの映像信号(画像データ)に変換され、メモリ8に一時的に記憶される。メモリ8に格納された画像データは、所定の画面レート(例えば1/30秒)で読み出され、D/A変換器9でアナログの映像信号に変換される。液晶表示素子(以下、LCDと略記する)10では、このアナログの映像信号に基づく被写体像の表示がなされる。
[First Embodiment]
FIG. 1 shows and describes a configuration example of an imaging apparatus that employs a focus detection apparatus according to a first embodiment of the present invention. As shown in FIG. 1, the imaging apparatus 1 includes a zoom lens 2 and a focus lens 3 as a photographing optical system. The light beam passes through the lenses 2 and 3 and the diaphragm 4 and forms an image on the light receiving surface of the image sensor 5 such as a CCD. A signal photoelectrically converted by the image pickup device 5 is input to the image pickup circuit 6, and a video signal is generated by the image pickup circuit 6. The video signal is converted into a digital video signal (image data) by the A / D converter 7 and temporarily stored in the memory 8. The image data stored in the memory 8 is read out at a predetermined screen rate (for example, 1/30 second) and converted into an analog video signal by the D / A converter 9. A liquid crystal display element (hereinafter abbreviated as LCD) 10 displays a subject image based on the analog video signal.

操作スイッチ(以下、操作SWと略記する)24に含まれるレリーズスイッチを操作して記録操作を行った場合には、メモリ8の画像データは圧縮/伸張回路11の圧縮回路で圧縮された後、記録用メモリ12に記憶される。また、再生操作が行われた場合には、記録用メモリ12に圧縮されて記憶されたデータは、圧縮/伸張回路11の伸張回路で伸張された後、メモリ8に一時的に記憶され、D/A変換器9でアナログの映像信号に変換される。LCD10では、このアナログの映像信号に基づく再生画像の表示がなされる。   When a recording operation is performed by operating a release switch included in an operation switch (hereinafter abbreviated as operation SW) 24, the image data in the memory 8 is compressed by the compression circuit of the compression / expansion circuit 11; Stored in the recording memory 12. When a reproduction operation is performed, the data compressed and stored in the recording memory 12 is decompressed by the decompression circuit of the compression / expansion circuit 11 and then temporarily stored in the memory 8. / A converter 9 converts it to an analog video signal. On the LCD 10, a reproduced image is displayed based on the analog video signal.

ここで、LCD10では、その表示画面上に、三角測距が可能な視野を示す指標201と測距領域を示す指標202を併せて表示する(図2参照)。即ち、LCD10では、撮影光学系のズームレンズ2のズーム値に応じて変化する三角測距可能な視野を示す指標201を、CCD5で撮像された画像と重ねて表示することができるので、当該指標201により、三角測距可能な領域を容易に確認することができる。仮に、操作SW24等の操作により、三角測距が可能な視野を示す指標201の外(測距が不能な領域)に、測距領域が指示された場合には、所謂山登り方式に基づきAFがなされる。   Here, the LCD 10 displays an index 201 indicating a visual field capable of triangulation and an index 202 indicating a distance measurement area on the display screen (see FIG. 2). That is, the LCD 10 can display the index 201 indicating the field of view that can be measured by the triangulation that changes according to the zoom value of the zoom lens 2 of the photographing optical system, so as to overlap the image captured by the CCD 5. By 201, it is possible to easily confirm an area where triangulation is possible. If the distance measurement area is instructed by the operation of the operation SW 24 or the like outside the index 201 indicating the field of view capable of triangulation (area where distance measurement is impossible), AF is performed based on the so-called hill-climbing method. Made.

A/D変換器7によってA/D変換された画像データは、オート露出処理回路(以下、AE処理回路と略記する)13とオートフォーカス処理回路(以下、AF処理回路と略記する)14に入力される。AE処理回路13は、1フレーム(1画面)分の画像データの輝度値を算出する等して被写体の明るさに対応したAE評価値を算出し、CPU15に出力する。また、AF処理回路14は、1フレーム(1画面)分の画像データの輝度成分に高周波成分をハイパスフィルタ等で抽出して、累積加算値を算出する等して高域側の輪郭成分等に対応したAF評価値を算出し、CPU15に出力する。   Image data A / D converted by the A / D converter 7 is input to an auto exposure processing circuit (hereinafter abbreviated as AE processing circuit) 13 and an autofocus processing circuit (hereinafter abbreviated as AF processing circuit) 14. Is done. The AE processing circuit 13 calculates an AE evaluation value corresponding to the brightness of the subject by calculating a luminance value of image data for one frame (one screen), and outputs it to the CPU 15. Further, the AF processing circuit 14 extracts a high frequency component from a luminance component of image data for one frame (one screen) with a high-pass filter or the like, calculates a cumulative addition value, etc., and converts it into a high frequency side contour component or the like. A corresponding AF evaluation value is calculated and output to the CPU 15.

一方、撮影光学系の光軸と基線長Lだけ隔てて配置されたオートフォーカス専用の光学系(以下、AF光学系と称する)であるフォーカスレンズ102を経た光線は、絞り103を通過して、CCD等の撮像素子104に被写体像を結ぶ。この撮像素子104で光電変換された信号は撮像回路105に入力され、当該撮像回路105により、映像信号が生成される。そして、この映像信号は、A/D変換器106によってデジタルの映像信号(画像データ)に変換され、メモリ107に一時的に格納される。   On the other hand, a light beam that has passed through a focus lens 102 that is an optical system dedicated to autofocus (hereinafter referred to as an AF optical system) that is disposed apart from the optical axis of the imaging optical system by a base line length L passes through a diaphragm 103, A subject image is connected to an image sensor 104 such as a CCD. A signal photoelectrically converted by the imaging element 104 is input to the imaging circuit 105, and a video signal is generated by the imaging circuit 105. The video signal is converted into a digital video signal (image data) by the A / D converter 106 and temporarily stored in the memory 107.

AF処理回路108では、上記撮影光学系に基づき得られ上記メモリ8に記憶されている画像データと、上記AF光学系に基づき得られ上記メモリ107に記憶されている画像データを用いて、所謂三角測距の原理に基づき測距領域選択回路113により選択された被写体までの距離を求める。この測距領域選択回路113は、カメラの操作者により手動で選択するものでも、公知の視線検出装置により選択するものでもよい。上記三角測距の原理に基づき得られた被写体距離情報を基に撮影光学系のフォーカスレンズ102を合焦位置に駆動した後、被写体に対する合焦精度を高める為に必要に応じて又は毎回のフォーカスレンズ102の合焦駆動の度に、最終的なピント位置の調整を所謂山登り方式により行う。この為に、AF処理回路108は、1フレーム(1画面)分の画像データの輝度成分における高周波成分をハイパスフィルタ等で抽出して、累積加算値を算出する等して高域側の輪郭成分量等に対応したAF評価値を算出し、CPU100に出力する。   The AF processing circuit 108 uses a so-called triangle using image data obtained based on the photographing optical system and stored in the memory 8 and image data obtained based on the AF optical system and stored in the memory 107. Based on the principle of distance measurement, the distance to the subject selected by the distance measurement area selection circuit 113 is obtained. The ranging area selection circuit 113 may be manually selected by a camera operator or selected by a known visual line detection device. After driving the focus lens 102 of the photographic optical system to the in-focus position based on the object distance information obtained based on the principle of triangulation, the focus is adjusted as necessary or every time in order to increase the accuracy of focusing on the object. Every time the lens 102 is driven to focus, the final focus position adjustment is performed by a so-called hill-climbing method. For this purpose, the AF processing circuit 108 extracts a high-frequency component in the luminance component of image data for one frame (one screen) with a high-pass filter or the like, calculates a cumulative added value, and the like, thereby calculating a high-frequency side contour component. An AF evaluation value corresponding to the amount or the like is calculated and output to the CPU 100.

CPU100には、タイミングジェネレータ(以下、TG回路と略記する)109から画面レートに同期した所定のタイミング信号が入力される。CPU100は、このタイミング信号に同期して、各種の制御動作を行う。また、このTG回路109のタイミング信号は、撮像回路105にも入力される。また、TG回路109は、所定のタイミングでCCD104を駆動するように、CCDドライバ110を制御する。   A predetermined timing signal synchronized with the screen rate is input to the CPU 100 from a timing generator (hereinafter abbreviated as TG circuit) 109. The CPU 100 performs various control operations in synchronization with this timing signal. The timing signal of the TG circuit 109 is also input to the imaging circuit 105. Further, the TG circuit 109 controls the CCD driver 110 so as to drive the CCD 104 at a predetermined timing.

CPU15には、TG回路16から画面レートに同期した所定のタイミング信号が入力される。CPU15は、このタイミング信号に同期して、各種の制御動作を行う。このTG回路16のタイミング信号は、撮像回路6にも入力される。撮像回路6は、このタイミング信号に同期して、色信号の分離等の各種処理を行う。また、このTG回路16は、所定のタイミングでCCD5を駆動するようにCCDドライバ17を制御する。   A predetermined timing signal synchronized with the screen rate is input from the TG circuit 16 to the CPU 15. The CPU 15 performs various control operations in synchronization with this timing signal. The timing signal of the TG circuit 16 is also input to the imaging circuit 6. The imaging circuit 6 performs various processes such as color signal separation in synchronization with the timing signal. The TG circuit 16 controls the CCD driver 17 so as to drive the CCD 5 at a predetermined timing.

CPU15は、第1乃至第3のモータドライブ回路18乃至20のそれぞれを制御することで、第1乃至第3のモータ21乃至23を介して、絞り4、フォーカスレンズ3、ズームレンズ2の駆動を制御する。つまり、CPU15は、AE評価値を基に、第1のモータドライブ回路18を制御して、第1のモータ21を回転駆動して、絞り4の絞り量を適正な値に調整する、即ちオート露出制御を行う。   The CPU 15 controls the first to third motor drive circuits 18 to 20 to drive the diaphragm 4, the focus lens 3, and the zoom lens 2 via the first to third motors 21 to 23. Control. That is, the CPU 15 controls the first motor drive circuit 18 on the basis of the AE evaluation value and rotationally drives the first motor 21 to adjust the aperture amount of the aperture 4 to an appropriate value, that is, auto Perform exposure control.

また、CPU15は、CPU100と接続され、当該CPU100から三角測距の原理に基づく距離データを受信して、この距離データに基づき、第2のモータドライブ回路19を制御して第2のモータ22を回転駆動して、フォーカスレンズ3を駆動して、合焦状態に設定する。しかしながら、一般的には、撮像素子5のコントラストが最大になる位置にフォーカスレンズ3を駆動する山登り方式に基づき制御した方が精度が向上する。そこで、上記三角測距の原理に基づきフォーカスレンズを駆動した後に、必要に応じて、AF評価値を基に、第2のモータドライブ回路19を制御して第2のモータ22を回転駆動して、AF処理回路14からのAF評価値を得る。そして、こうして得られたAF評価値に基づき、CPU15は、そのAF評価値が最大となるレンズ位置にフォーカスレンズ3を駆動して、合焦状態に設定する、即ちオートフォーカスを行う。   The CPU 15 is connected to the CPU 100, receives distance data based on the principle of triangulation from the CPU 100, and controls the second motor drive circuit 19 to control the second motor 22 based on the distance data. The focus lens 3 is driven by rotation to set the focus state. However, in general, the accuracy is improved when the control is performed based on the hill-climbing method in which the focus lens 3 is driven to the position where the contrast of the image sensor 5 is maximized. Therefore, after driving the focus lens based on the principle of triangulation, the second motor drive circuit 19 is controlled to rotate and drive the second motor 22 based on the AF evaluation value as necessary. The AF evaluation value from the AF processing circuit 14 is obtained. Then, based on the AF evaluation value obtained in this way, the CPU 15 drives the focus lens 3 to the lens position where the AF evaluation value is maximized to set the focus state, that is, performs autofocus.

但し、上記山登り方式の制御には比較的時間がかかるので、上記山登り方式に基づくフォーカスレンズ3の駆動は省略してもよいことは勿論である。   However, since it takes a relatively long time to control the hill-climbing method, it goes without saying that the driving of the focus lens 3 based on the hill-climbing method may be omitted.

また、CPU15には、例えば電気的に書換可能で不揮発性の読み出し専用メモリとしてのEEPROM25が接続されており、このEEPROM25にはCPU15を介して各種の制御等を行うプログラムや、各種の動作を行うのに使用されるデータや、後述する撮像素子5と撮像素子104の結像位置の関係を知るための情報や、撮像素子5と撮像素子104の撮像面の明るさを補正する為の情報等が格納されている。これら情報は、撮像装置1の電源がONされた場合等に読み出されて使用される。尚、CPU15は、電池26の電圧を検出して、所定の電圧値以下になった事を検出した場合、電池26の残量が少ない旨の表示や電池の充電或いは交換等を促す表示をLCD10にて行う。   The CPU 15 is connected with, for example, an electrically rewritable and nonvolatile read-only memory EEPROM 25, and the EEPROM 25 performs various controls and various operations via the CPU 15. Data used for image processing, information for knowing the relationship between the imaging positions of the image sensor 5 and the image sensor 104 described later, information for correcting the brightness of the imaging surface of the image sensor 5 and the image sensor 104, etc. Is stored. These pieces of information are read and used when the power of the imaging device 1 is turned on. Note that when the CPU 15 detects the voltage of the battery 26 and detects that the voltage is lower than a predetermined voltage value, the CPU 15 displays a display indicating that the remaining amount of the battery 26 is low and a display prompting charging or replacement of the battery. To do.

尚、撮像素子104の撮像面サイズは撮像素子5の撮像面サイズに比べて小さくてもよく、撮像素子104の画素数は撮像素子5の画素数に比べて少なくてもよい。これによれば、AF用に安価な撮像素子を用いることができるので、コストが安くなる。   Note that the image pickup surface size of the image pickup element 104 may be smaller than the image pickup surface size of the image pickup element 5, and the number of pixels of the image pickup element 104 may be smaller than the number of pixels of the image pickup element 5. According to this, since an inexpensive image sensor can be used for AF, the cost is reduced.

また、撮影光学系を三角測距に兼用するのでパララックスが発生することがなく、任意の領域の被写体に正確に焦点を合わせることができる。   Further, since the photographing optical system is also used for triangulation, parallax does not occur, and a subject in an arbitrary region can be accurately focused.

ここで、図3を参照して、本発明の第1の実施の形態に係る焦点検出装置に関連する測距原理を説明する。これは、後述する実施の形態にも共通する。   Here, with reference to FIG. 3, the principle of distance measurement related to the focus detection apparatus according to the first embodiment of the present invention will be described. This is common to the embodiments described later.

図3において、撮影光学系M1とAF光学系M2は、基線用Lだけ隔てて配設されている。撮影光学系M1の撮像素子5に対する焦点距離はf1、AF光学系M2の撮像素子104に対する焦点距離はf2である。更に、被写体Oの像の撮影光学系M1の光軸からのずれはΔL1であり、AF光学系の光軸からのずれはΔL2であり、被写体Oまでの距離はRである。このような場合、次式(1)が成立する。   In FIG. 3, the photographing optical system M1 and the AF optical system M2 are disposed apart from each other by a base line L. The focal length of the imaging optical system M1 with respect to the imaging device 5 is f1, and the focal length of the AF optical system M2 with respect to the imaging device 104 is f2. Further, the deviation of the image of the subject O from the optical axis of the photographing optical system M1 is ΔL1, the deviation from the optical axis of the AF optical system is ΔL2, and the distance to the subject O is R. In such a case, the following equation (1) is established.

R/L1=f1/ΔL1
R/L2=f2/ΔL2
L=L1+L2
L/R=(1/f1)・(ΔL1+(f1/f2)・ΔL2) ・・・(1)
即ち、この(1)式より、像Oの撮影光学系M1の光軸からのずれΔL1及びAF光学系M2の光軸からのずれΔL2、上記両光学系M1,M2の焦点距離f1,f2、及び基線長Lが定まれば、被写体までの距離Rが求まることが分かる。
R / L1 = f1 / ΔL1
R / L2 = f2 / ΔL2
L = L1 + L2
L / R = (1 / f1) · (ΔL1 + (f1 / f2) · ΔL2) (1)
That is, from this equation (1), the deviation ΔL1 of the image O from the optical axis of the photographing optical system M1 and the deviation ΔL2 from the optical axis of the AF optical system M2, the focal lengths f1, f2 of both the optical systems M1, M2, If the base line length L is determined, the distance R to the subject can be found.

以下、図4のフローチャートを参照して、本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置の動作を詳細に説明する。   Hereinafter, the operation of the imaging apparatus employing the focus detection apparatus according to the first embodiment of the present invention will be described in detail with reference to the flowchart of FIG.

操作SW24に含まれるパワースイッチがオンされ、電源投入されると、CPU15やCPU100がパワーオンリセットされ、本動作に入ることとなる。   When the power switch included in the operation SW 24 is turned on and the power is turned on, the CPU 15 and the CPU 100 are reset to power on, and this operation is started.

先ず、AE処理回路13は、1フレーム(1画面)分の画像データの輝度値を算出する等して被写体の明るさに対応したAE評価値を算出し、当該AE評価値をCPU15に出力する(ステップS1)。続いて、CPU15は、操作SW24に含まれるレリーズスイッチの初段の第1のレリーズ(以下、1stレリーズと称する)が行われたかどうかを判断し、それが行われるのを待つ待機状態となる(ステップS2)。   First, the AE processing circuit 13 calculates an AE evaluation value corresponding to the brightness of the subject by calculating a luminance value of image data for one frame (one screen), and outputs the AE evaluation value to the CPU 15. (Step S1). Subsequently, the CPU 15 determines whether or not the first release (hereinafter referred to as 1st release) of the release switch included in the operation SW 24 has been performed, and enters a standby state waiting for the release (step 1). S2).

このステップS2で1stレリーズが行われていれば、CPU100は、測距領域選択回路113により選択された測距領域の位置を読み込む(ステップS3)。   If the first release is performed in step S2, the CPU 100 reads the position of the distance measurement area selected by the distance measurement area selection circuit 113 (step S3).

次いで、CPU100は、サブルーチン“三角測距AF”をコールし、三角測距の原理に基づき被写体までの距離を求める(ステップS4)。尚、このサブルーチン“三角測距AF”による三角測距の動作については、図5を参照して後述する。   Next, the CPU 100 calls a subroutine “triangulation ranging AF” and obtains the distance to the subject based on the principle of triangulation (step S4). The operation of triangulation by this subroutine “triangulation AF” will be described later with reference to FIG.

このステップS4で被写体までの距離が求まると、CPU15は、この被写体までの距離に基づいてフォーカスレンズ3を合焦位置まで駆動する(ステップS5)。   When the distance to the subject is obtained in step S4, the CPU 15 drives the focus lens 3 to the in-focus position based on the distance to the subject (step S5).

続いて、CPU15は、1stレリーズが解除されたかどうかを判断し、それが行われるのを待つ待機状態となる(ステップS6)。1stレリーズ解除されたならば、CPU15は、操作SW24に含まれるレリーズスイッチの次段の第2のレリーズ(以下、2ndレリーズと称する)が行われたかどうかを判断し(ステップS7)、2ndレリーズが行われてなければJ1に分岐する。一方、上記ステップS7で、2ndレリーズが行われていれば、次にCPU15はAE評価値を基にオート露出制御を行い(ステップS8)、こうして一連の撮影動作を終了する。   Subsequently, the CPU 15 determines whether or not the first release has been released, and enters a standby state for waiting for the release (step S6). If the first release has been released, the CPU 15 determines whether or not the second release (hereinafter referred to as the 2nd release) of the next stage of the release switch included in the operation SW 24 has been performed (step S7). If not, branch to J1. On the other hand, if the second release has been performed in step S7, the CPU 15 next performs auto exposure control based on the AE evaluation value (step S8), thus ending a series of photographing operations.

次に、図5のフローチャートを参照して、図4のステップS4で実行されるサブルーチン“三角測距AF”について詳細に説明する。   Next, the subroutine “triangulation AF” executed in step S4 of FIG. 4 will be described in detail with reference to the flowchart of FIG.

撮影光学系のフォーカスレンズ3の位置が合焦位置から大きくはずれていると、絞り開口が大きくなるほど像がボケるため正確にズレ量を求めるのが難しくなる。   If the position of the focus lens 3 of the photographic optical system is greatly deviated from the in-focus position, the larger the aperture opening, the more blurred the image, making it difficult to accurately determine the amount of deviation.

この為に、CPU15は、ズレ量の演算に先立ち、撮影光学系の絞り4を予め決めた所定の値に絞り込む(ステップS11)。撮影レンズが合焦位置から大きく外れていても、比較的鮮明な画像が結像されるので、正確にズレ量を求める上で効果的である。   For this purpose, the CPU 15 narrows down the diaphragm 4 of the photographing optical system to a predetermined value prior to the calculation of the shift amount (step S11). Even if the photographic lens is greatly deviated from the in-focus position, a relatively clear image is formed, which is effective in accurately obtaining the amount of deviation.

また、撮影光学系の絞り値は、AF光学系の絞り103と等しいことが望ましい。   Further, it is desirable that the aperture value of the photographing optical system is equal to that of the aperture 103 of the AF optical system.

これは、撮影光学系により結像される像とAF光学系により結像される像のぼけと照度分布を等しくして、ズレ量を正確に求める為である。すなわち、このように撮影光学系の絞り値を設定すれば、撮影光学系により結像される像とAF光学系に結像される像のぼけと照度分布が近似するので、正確にズレ量を求める上で効果的である。   This is because the blur and illuminance distribution of the image formed by the photographing optical system and the image formed by the AF optical system are made equal to obtain the amount of deviation accurately. That is, if the aperture value of the photographic optical system is set in this way, the blur and illuminance distribution of the image formed by the photographic optical system and the image formed by the AF optical system are approximated. It is effective in seeking.

次いで、CPU15,100は、AE処理回路13で求めたAE評価値を基に撮像素子5と撮像素子104の露光を行い、画像データを取得する(ステップS12)。   Next, the CPUs 15 and 100 perform exposure of the image sensor 5 and the image sensor 104 based on the AE evaluation value obtained by the AE processing circuit 13, and acquire image data (step S12).

そして、CPU100は、サブルーチン“ΔL1,ΔL2演算”により、撮影光学系により結像された測距領域の画像の撮影光学系の光軸中心からのズレであるΔL1と、AF光学系に結像された上記測距領域の画像に対応する画像のAF光学系の光軸中心からのズレであるΔL2を演算するようにAF処理回路108を制御する(ステップS13)。このサブルーチン“ΔL1,ΔL2演算”については、図14を参照して後に詳述する。こうして、CPU100は、上記(1)式(図3参照)に基づいて被写体までの距離Rを演算し(ステップS14)、このサブルーチン“三角測距AF”からリターンする。   Then, the CPU 100 forms an image on the AF optical system by ΔL1, which is a deviation from the optical axis center of the imaging optical system of the image of the distance measuring area imaged by the imaging optical system, by the subroutine “ΔL1, ΔL2 calculation”. The AF processing circuit 108 is controlled so as to calculate ΔL2 which is a deviation from the center of the optical axis of the AF optical system of the image corresponding to the image in the distance measuring area (step S13). This subroutine “ΔL1, ΔL2 calculation” will be described in detail later with reference to FIG. Thus, the CPU 100 calculates the distance R to the subject based on the above equation (1) (see FIG. 3) (step S14), and returns from this subroutine “triangulation ranging AF”.

ここで、図6,7を参照して、像のズレ量を求める相関演算の原理について説明する。   Here, with reference to FIGS. 6 and 7, the principle of the correlation calculation for obtaining the image shift amount will be described.

先ず、図6(a)は、測距領域選択回路113によって選択された第1測距領域の撮像素子5の画素の配列を示す。1つの画素のサイズはH1×W1とする。この第1測距領域内の所定範囲P1の像を基準像とする。この基準像の重心位置から撮影光学系の光軸までの距離をΔL1とする。そして、上記基準像の撮影光学系の光軸から基線長方向にi番目の画素の出力をS(i)とする。   First, FIG. 6A shows an array of pixels of the image sensor 5 in the first distance measurement area selected by the distance measurement area selection circuit 113. The size of one pixel is H1 × W1. An image in a predetermined range P1 in the first distance measurement area is set as a reference image. The distance from the position of the center of gravity of the reference image to the optical axis of the photographing optical system is assumed to be ΔL1. The output of the i-th pixel in the base line length direction from the optical axis of the imaging optical system for the reference image is S (i).

一方、図6(b)は、上記第1測距領域に対応するAF光学系によって結像される像の第2測距領域の画素の配列を示す。1つの画素のサイズはH2×W2とする。この第2測距領域の中に上記基準像と同じ画素数からなる参照像P2を設定し、この参照像のAF光学系の中心から基線長方向にj番目の出力をC(j)とする。   On the other hand, FIG. 6B shows an arrangement of pixels in the second distance measuring area of an image formed by the AF optical system corresponding to the first distance measuring area. The size of one pixel is H2 × W2. A reference image P2 having the same number of pixels as that of the reference image is set in the second ranging area, and a jth output from the center of the AF optical system of the reference image in the base line length direction is C (j). .

そして、対応する画素の出力の差の絶対値の和をとり、これをA(m)とし、相関量とする。この場合、次式(2)が成立する。

Figure 2005134621
And the sum of the absolute value of the difference of the output of a corresponding pixel is taken, this is set to A (m), and it is set as a correlation amount. In this case, the following expression (2) is established.
Figure 2005134621

ここで、iとは基準部の最初の画素の番号であり、jは参照部の最初の画素の番号である。また、kは基準部及び参照部の最初の画素から数えてk番目の画素を意味する。   Here, i is the number of the first pixel in the reference portion, and j is the number of the first pixel in the reference portion. Further, k means the kth pixel counted from the first pixel of the standard part and the reference part.

参照部はj+nに、更に左右に±m程度の余裕を見込む。   The reference portion expects a margin of about ± m on the left and right in j + n.

ここで、参照部のデータに付いているmはCPU15の内部で、基準部のデータ番号は固定し、参照部のデータ番号を1個ずつ送っていく操作の為に付けられている。   Here, m attached to the data of the reference part is attached to the CPU 15 for the operation of fixing the data number of the reference part and sending the data number of the reference part one by one.

そして、mを順次1からpまで変えながら上記相関量A(m)を求め、当該相関量A(m)が最小値をとるとき基準部と参照部の像が一致するものとして、基準部と参照部の像の相対的な距離を求める。尚、上記相関量A(m)は最小1画素毎の値である為、基準部と参照部の像の相対的な距離の精度も1画素が限界となる。   Then, the correlation amount A (m) is obtained while sequentially changing m from 1 to p, and when the correlation amount A (m) takes the minimum value, the images of the reference portion and the reference portion coincide with each other. The relative distance of the image of the reference part is obtained. Since the correlation amount A (m) is a value for each minimum pixel, the accuracy of the relative distance between the image of the reference portion and the reference portion is limited to one pixel.

そこで、図7に示すように、相関量A(m)が最小値をとる前後の相関量の幾何学的な関係から補間により1画素ピッチ以下の高い精度の相対的な距離を求める。この補間によると、経験的に1/10画素以下の高い精度で基準部と参照部の像の相対的な距離を求めることが可能である。尚、この補間演算自体は公知のものであるが、以下、簡単に説明すると、図7において、相関量A(m)の3番目に小さな値A(1)と最小値A(2)を直線で結び、この直線と水平線のなす角度θが、相関量A(m)の2番目に小さな値A(3)を通る直線と上記水平線となす角度θと等しくなるようにしたとき、上記2つの直線の交差する点のズレ量mを求めるものである。   Therefore, as shown in FIG. 7, a relative distance with high accuracy of one pixel pitch or less is obtained by interpolation from the geometric relationship of the correlation amount before and after the correlation amount A (m) takes the minimum value. According to this interpolation, it is possible to empirically determine the relative distance between the image of the reference portion and the reference portion with a high accuracy of 1/10 pixel or less. This interpolation calculation itself is known, but will be briefly described below. In FIG. 7, the third smallest value A (1) and the minimum value A (2) of the correlation amount A (m) are represented by a straight line. When the angle θ between the straight line and the horizontal line is made equal to the angle θ between the straight line passing through the second smallest value A (3) of the correlation amount A (m) and the horizontal line, the above two The amount of deviation m of the points where the straight lines intersect is obtained.

ところで、本願発明の第1の実施の形態において、基準像と参照像とで相関演算を行い精度の高いズレ量を求めるためには、以下の「第1乃至第3の条件」を満たす必要がある。   By the way, in the first embodiment of the present invention, in order to perform a correlation operation between the reference image and the reference image and obtain a highly accurate deviation amount, it is necessary to satisfy the following “first to third conditions”. is there.

これは、他の実施の形態についても共通する考え方である。   This is the same concept for other embodiments.

より詳細には、「第1の条件」とは、基準像の基線長方向の中心線を被写体上に投影したラインと参照像の基線長方向の中心線を被写体上に投影したラインとが一致することである。そして、「第2の条件」とは、単位画素の光電変換部に投影される被写体面上の面積及び形状が同じであることである。更に、「第3の条件」とは、同一被写体に対応する画像データのレベルが同じであることである。以下、これら第1乃至第3の条件を満たす為の具体的解決手段について更に詳細に述べる。   More specifically, the “first condition” is the same as the line in which the center line in the baseline length direction of the reference image is projected onto the subject and the line in which the center line in the baseline length direction of the reference image is projected onto the subject. It is to be. The “second condition” is that the area and shape on the subject surface projected onto the photoelectric conversion unit of the unit pixel are the same. Furthermore, the “third condition” is that the levels of image data corresponding to the same subject are the same. Hereinafter, specific means for satisfying these first to third conditions will be described in more detail.

(第1の条件)
第1の条件を満たすための具体的解決手段について説明する。
(First condition)
Specific means for satisfying the first condition will be described.

撮影光学系の光軸上の無限大の位置にスポット光(光源)を配置する。撮影光学系の焦点距離と絞り値をそれぞれf1、F1の値に設定し、このときの撮像素子5の画素データを読み出して上記スポット光が撮像素子5の撮像面に結像する座標位置P1(Px1,Py1)を検出する。同様に、撮像素子104の画素データを読み出して上記スポット光が撮像素子104の撮像面に結像する座標位置P2(Px2,Py2)を検出し、上記P1とP2の座標位置を1組のデータとしてEEPROM25に記録する。   Spot light (light source) is arranged at an infinite position on the optical axis of the photographing optical system. The focal length and aperture value of the photographic optical system are set to f1 and F1, respectively, the pixel data of the image sensor 5 at this time is read, and the coordinate position P1 (the image position of the spot light on the imaging surface of the image sensor 5 ( Px1, Py1) are detected. Similarly, the pixel data of the image sensor 104 is read out to detect the coordinate position P2 (Px2, Py2) at which the spot light forms an image on the imaging surface of the image sensor 104, and the coordinate positions of P1 and P2 are set as a set of data. Is recorded in the EEPROM 25.

以上では、撮影光学系の光軸上の無限大の位置のスポット光に対応する1組のデータを記録したが、撮影光学系の光軸周辺の無限大の位置の複数点にスポット光を配置し、この複数点のスポット光が結像する撮像素子5と撮像素子104のそれぞれの撮像面上の座標位置をEEPROM25に記録してもよい。この場合、撮影光学系、AF光学系の撮影倍率が変化しても結像位置が変化しないので、撮像素子5の結像面上に結像する被写体が上記撮像素子104の結像面上のどの位置に結像しているかを容易に求めることができることになり、基準像と参照像の相関演算を容易に行うことができる。   In the above, a set of data corresponding to spot light at an infinite position on the optical axis of the photographing optical system was recorded. However, spot light is arranged at a plurality of infinite positions around the optical axis of the photographing optical system. Then, the coordinate positions on the image pickup surfaces of the image pickup device 5 and the image pickup device 104 on which the plurality of spot lights are imaged may be recorded in the EEPROM 25. In this case, since the imaging position does not change even if the imaging magnification of the imaging optical system and the AF optical system changes, the subject that forms an image on the imaging surface of the image sensor 5 is on the imaging surface of the image sensor 104. The position where the image is formed can be easily obtained, and the correlation calculation between the reference image and the reference image can be easily performed.

また、上記スポット光(光源)を撮影光学系の光軸外の有限の距離に設置し、このスポット光が結像する撮像素子5と撮像素子104のそれぞれの撮像面上の座標位置をEEPROM25に記録するようにしてもよいことは勿論である。   Further, the spot light (light source) is set at a finite distance outside the optical axis of the photographing optical system, and the coordinate positions on the image pickup surfaces of the image pickup device 5 and the image pickup device 104 on which the spot light is imaged are stored in the EEPROM 25. Of course, it may be recorded.

このようにしてEEPROM25に記録された上記座標位置P1(Px1,Py2),P2(Px2,Py2)から光軸上の無限大に位置する被写体が結像する撮像素子5の撮像面の位置、及び撮像素子104の撮像面の位置が分かる。   The position of the imaging surface of the imaging device 5 on which the subject located at infinity on the optical axis from the coordinate positions P1 (Px1, Py2), P2 (Px2, Py2) recorded in the EEPROM 25 in this way, and The position of the imaging surface of the image sensor 104 is known.

したがって、撮影光学系の光軸外の被写体が結像する撮像素子5と撮像素子104の各撮像面上の座標位置は、計算により簡単に求めることができる。   Therefore, the coordinate positions on the imaging surfaces of the imaging element 5 and the imaging element 104 on which an object outside the optical axis of the imaging optical system forms an image can be easily obtained by calculation.

例えば、撮影光学系の焦点距離をf1、AF光学系の焦点距離をf2とし、撮像素子5の撮像面上の上記EEPROM25に記録された座標位置P1(Px1,Py1)を原点とした座標(x1,y1)の位置に像が結像しているものとする。   For example, the focal length of the imaging optical system is f1, the focal length of the AF optical system is f2, and the coordinate (x1) with the coordinate position P1 (Px1, Py1) recorded on the EEPROM 25 on the imaging surface of the imaging device 5 as the origin is used. , Y1), an image is formed.

この場合、上記(x1,y1)の位置の像に対応する像が結像する撮像素子104上の位置(x2,y2)は、上記EEPROM25に記録された座標位置P2(Px2,Py2)を原点として(x2,y1・f2/f1)となる。x1に対応する値x2は相関演算で求めるものであり、x2=x1・f2/f1であれば被写体距離は無限大であり、被写体が近づく程、x2とx1・f2/f1との差は大きくなる。   In this case, the position (x2, y2) on the image sensor 104 where an image corresponding to the image at the position (x1, y1) is formed is based on the coordinate position P2 (Px2, Py2) recorded in the EEPROM 25. (X2, y1 · f2 / f1). The value x2 corresponding to x1 is obtained by correlation calculation. If x2 = x1 · f2 / f1, the subject distance is infinite. The closer the subject is, the larger the difference between x2 and x1 · f2 / f1. Become.

この両者の差を求めるのが上記相関演算である。   The correlation calculation is to obtain the difference between the two.

ここで、図8には、撮像装置1の製造時に上記EEPROM25に上記データを書き込むシステムの構成例を示し説明する。この図8において、書き込み装置801から撮像装置1のCPU15に所定の信号が送られると、CPU15は上記EEPROM25に撮像面上の座標位置に係るデータを書き込むための命令を実行することになる。   Here, FIG. 8 shows a configuration example of a system for writing the data into the EEPROM 25 when the imaging apparatus 1 is manufactured. In FIG. 8, when a predetermined signal is sent from the writing device 801 to the CPU 15 of the imaging device 1, the CPU 15 executes a command for writing data relating to the coordinate position on the imaging surface to the EEPROM 25.

以下、図9のフローチャートを参照して、このシステムによる撮像装置1のEEPROM25への座標位置に係るデータの書き込み動作について更に詳細に説明する。   Hereinafter, with reference to the flowchart of FIG. 9, the operation of writing data relating to the coordinate position to the EEPROM 25 of the imaging apparatus 1 by this system will be described in more detail.

先ず、書き込み装置801により撮像装置1をEEPROM25の書き込みモードに設定し(ステップS21)、撮影光学系の焦点距離を予め定めた焦点距離に設定し(ステップS22)、撮影光学系の絞りを予め決めた絞り値に絞り込む(ステップS23)。   First, the imaging device 1 is set to the writing mode of the EEPROM 25 by the writing device 801 (step S21), the focal length of the photographing optical system is set to a predetermined focal length (step S22), and the aperture of the photographing optical system is determined in advance. The aperture value is narrowed down (step S23).

そして、撮像素子5と撮像素子104の画像データを読み出し(ステップS24)、この読み出した画像データに基づいて、上記撮像面上の座標位置P1,P2をEEPROM25に書き込み(ステップS25)、この動作を終了する。   Then, image data of the image sensor 5 and the image sensor 104 are read (step S24), and based on the read image data, the coordinate positions P1 and P2 on the image pickup surface are written in the EEPROM 25 (step S25), and this operation is performed. finish.

(第2の条件)
第2の条件を満たすための具体的解決手段について説明する。
(Second condition)
A specific means for solving the second condition will be described.

撮影光学系とAF光学系の撮影倍率や、撮像素子5と撮像素子104の1画素のサイズは異なるので、上記第2の条件を満たす為には、これらを考慮する必要がある。   Since the photographing magnification of the photographing optical system and the AF optical system and the size of one pixel of the image pickup element 5 and the image pickup element 104 are different, it is necessary to consider these in order to satisfy the second condition.

そこで、撮影光学系とAF光学系の像倍率の比α1/α2を演算する。   Therefore, the ratio α1 / α2 of the image magnification between the photographing optical system and the AF optical system is calculated.

尚、α1/α2=f1/f2である。但し、このf1,f2は、図3で先に説明したように、それぞれ撮影光学系の焦点距離とAF光学系の焦点距離である。   Note that α1 / α2 = f1 / f2. However, f1 and f2 are the focal length of the photographing optical system and the focal length of the AF optical system, respectively, as described above with reference to FIG.

次に、図6(a)、図10(a)に示すように、撮影光学系による像を受ける撮像素子5の基線長方向の上記第1測距領域に対応する複数画素を、基線長方向に長さW1毎に等分する。基線長と直角方向の長さをH1として、上記W1×H1を新たな1つの画素とする。そして、上記W1×H1に含まれる元の複数の画素を加算した信号又はその平均値を求め、上記撮像素子5の新たな画素(以下「仮想画素」という)の出力とする。尚、上記仮想画素は、上記W1×H1に含まれる特定のラインを間引いて加算してもよい。   Next, as shown in FIGS. 6A and 10A, a plurality of pixels corresponding to the first distance measuring area in the base line length direction of the image sensor 5 that receives an image by the photographing optical system are arranged in the base line length direction. Divide equally into lengths W1. The length in the direction perpendicular to the base line length is H1, and W1 × H1 is a new pixel. Then, a signal obtained by adding the plurality of original pixels included in W1 × H1 or an average value thereof is obtained and used as an output of a new pixel (hereinafter referred to as “virtual pixel”) of the imaging device 5. The virtual pixels may be added by thinning out a specific line included in the W1 × H1.

これと同様に、図6(b)、図10(b)に示すように、AF光学系による像を受ける撮像素子104の基線長方向の上記第2測距領域に対応する複数画素を、基線長方向に長さW2毎に等分する。基線長と直角方向の長さをH2として、上記W2×H2を新たな1つの画素とする。そして、上記上記W2×H2に含まれる元の複数の画素の信号を加算した信号又はその平均値を、上記撮像素子104の仮想画素の出力とする。   Similarly, as shown in FIGS. 6B and 10B, a plurality of pixels corresponding to the second distance measuring area in the base line length direction of the image sensor 104 that receives an image by the AF optical system is represented by a base line. Divide equally in the long direction for each length W2. The length in the direction perpendicular to the base line length is set as H2, and W2 × H2 is set as one new pixel. Then, a signal obtained by adding the signals of the plurality of original pixels included in the W2 × H2 or an average value thereof is set as an output of the virtual pixel of the image sensor 104.

ここで、上記W1,W2,H1,H2は、
α1/α2=W1/W2=H1/H2
の関係を満たすように設定する。
このように、撮像素子5の単位画素のサイズと撮像素子104の単位画素のサイズの比が、撮影光学系の倍率とAF光学系の倍率の比に等しくなるようにすれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を併せることが可能となる。尚、上記単位画素のサイズとは、複数の画素をまとめて、仮想的な1つの画素(即ち、上記仮想画素)とみなしたものである。
Here, W1, W2, H1, and H2 are
α1 / α2 = W1 / W2 = H1 / H2
Set to satisfy the relationship.
As described above, if the ratio between the size of the unit pixel of the image sensor 5 and the size of the unit pixel of the image sensor 104 is made equal to the ratio of the magnification of the photographing optical system and the magnification of the AF optical system, the optical for imaging is used. The system (photographing optical system) and the image sensor 5 can be used together to quickly focus on a wide area of the subject with a simple configuration. The size of the unit pixel means that a plurality of pixels are collectively regarded as one virtual pixel (that is, the virtual pixel).

次に、上述した基本的な考え方を基に仮想画素のサイズを具体的に設計してみる。   Next, the virtual pixel size is specifically designed based on the basic concept described above.

上記(1)式より、AF光学系の検出誤差dΔL2と測距誤差dRの関係は、
dR=−dΔL2・R/(L・f2) ・・・(3)
となる。
From the above equation (1), the relationship between the detection error dΔL2 of the AF optical system and the distance measurement error dR is
dR = −dΔL 2 · R 2 / (L · f 2 ) (3)
It becomes.

一方、撮影レンズの被写界深度は、
被写界深度=−F・δ・R/f1 ・・・(4)
F:撮影光学系の絞り値、δ:許容錯乱円
となる。
On the other hand, the depth of field of the taking lens is
Depth of field = −F · δ · R 2 / f1 2 (4)
F: aperture value of the photographing optical system, δ: allowable circle of confusion.

ここで、測距誤差が撮影レンズの被写界深度内に収まっていれば、ピントが合ったといえる。この為には、
|測距誤差| < |被写界深度|
ということになり、上記(3)式、(4)式から
dΔL2・R/(L・f2)<F・δ・R/f1
が成立する。
Here, if the distance measurement error is within the depth of field of the photographic lens, it can be said that the camera is in focus. For this,
| Ranging error | <| Depth of field |
From the above formulas (3) and (4)
dΔL 2 · R 2 / (L · f 2 ) <F · δ · R 2 / f 1 2
Is established.

従って、
dΔL2<F・δ・L・f2/f1 ・・・(5)
が成立する。
Therefore,
dΔL2 <F · δ · L · f2 / f1 2 (5)
Is established.

いま、設計値として、F=1、δ=1/30mm、L=40mm(撮影光学系の光軸中心の測距誤差を求めるものとし、L2=Lとした)、f2=10mm、f1=30mmとすると、
dΔL2<15 (μm)
となる。
Now, as design values, F = 1, δ = 1/30 mm, L = 40 mm (the distance measurement error at the center of the optical axis of the photographing optical system is obtained, L2 = L), f2 = 10 mm, f1 = 30 mm Then,
dΔL2 <15 (μm)
It becomes.

この例では、AF光学系が設計通りに製作されていたと仮定すると、撮像素子104の基線長方向の画素ピッチが15μm以下のピッチであれば、既述の補間によらない相関演算により必要な精度が得られることになる。   In this example, assuming that the AF optical system is manufactured as designed, if the pixel pitch in the base line length direction of the image sensor 104 is 15 μm or less, the necessary accuracy is obtained by the correlation calculation not described above. Will be obtained.

しかしながら、既述の補間法により最終的なズレ量を演算するものとし、これにより1画素ピッチの1/10の精度を確保できるとすると、画素ピッチは150μm以下であれば必要な精度が得られることになる。撮像素子104の基線長方向の画素ピッチを10μmとすると、十分な精度が得られることになる。   However, assuming that the final shift amount is calculated by the above-described interpolation method, and the accuracy of 1/10 of one pixel pitch can be secured by this, the required accuracy can be obtained if the pixel pitch is 150 μm or less. It will be. If the pixel pitch in the base line length direction of the image sensor 104 is 10 μm, sufficient accuracy can be obtained.

そこで、上記補間演算をすることを条件に、上記(5)式を修正して、
dΔL2<10・F・δ・L・f2/f1・・・(6)
とする。
Therefore, on the condition that the above interpolation calculation is performed, the above equation (5) is corrected,
dΔL2 <10 · F · δ · L · f2 / f1 2 (6)
And

撮影光学系がズームレンズであり、そのズーム倍率が大きくなると、上記(6)式から明らかなように、AF精度及び測距可能な範囲に制約が出てくる。   When the photographic optical system is a zoom lens and the zoom magnification becomes large, as is clear from the above equation (6), the AF accuracy and the range that can be measured are limited.

図11は、このような関係を示したものである。即ち、図11(b)では、撮影光学系の視野1101bとAF光学系の視野1102bが一致しており、AF精度も上記具体的な数値で示した精度が確保されているものとする。しかし、撮影光学系の焦点距離が短くなり像の倍率が大きくなると(広角側)、撮影光学系の視野1101aに比べてAF光学系の視野1102aは狭くなる(図11(a)参照)。この場合、上記(5)式から明らかなように、AF光学系のズレ量の誤差の許容値は、図11(b)に比べて大きくなり、十分な精度が得られる。一方、撮影光学系の焦点距離が長くなり像の倍率が小さくなると(望遠側)、撮影光学系の視野1101cに比べてAF光学系の視野1102cは広くなる(図11(c)参照)。この場合、AF光学系のズレ量の誤差の許容値は、図11(b)に比べて小さくなり、十分な精度が得られなくなる場合がある。   FIG. 11 shows such a relationship. That is, in FIG. 11B, it is assumed that the field of view 1101b of the photographing optical system and the field of view 1102b of the AF optical system coincide with each other, and the AF accuracy is ensured by the above-described specific numerical values. However, when the focal length of the photographing optical system is shortened and the magnification of the image is increased (wide angle side), the field of view 1102a of the AF optical system becomes narrower than the field of view 1101a of the photographing optical system (see FIG. 11A). In this case, as is apparent from the above equation (5), the tolerance value of the deviation amount of the AF optical system is larger than that in FIG. 11B, and sufficient accuracy can be obtained. On the other hand, when the focal length of the photographic optical system is increased and the magnification of the image is reduced (on the telephoto side), the visual field 1102c of the AF optical system becomes wider than the visual field 1101c of the photographic optical system (see FIG. 11C). In this case, the allowable value of the deviation error of the AF optical system is smaller than that in FIG. 11B, and sufficient accuracy may not be obtained.

ここで、撮像素子5(撮像兼AF用)の撮像面の有効サイズを18.5mm(H)×13.5mm(v)、水平方向の画素ピッチを10μm、撮像素子104(AF専用)の撮像面の有効サイズを7.4mm(H)×5.94mm(V)、水平方向の画素ピッチを10μm、AF光学系の焦点距離をf2=10mm、撮影光学系の焦点距離f1を10mmから100mmまで10mmステップで変えた場合の、撮影光学系の水平方向視野Hv1に対するAF光学系の水平方向視野Hv2の視野比(f1・Hv2/(f2・Hv1))を求めた結果は表1に示される通りである。尚、撮像素子104のサイズが撮像素子5のサイズに比べて小さくしたのは、一般に撮像素子104は画素数が多く大きなサイズの高価なものであるのに対し、撮像素子104はそれに比べて安価な比較的画素数の少ないものを使う為である。また、上記(6)式を用いて、AF光学系の許容測距誤差を撮像素子104の画素数を単位として求めた結果は表1に示される通りである。   Here, the effective size of the imaging surface of the imaging element 5 (for imaging and AF) is 18.5 mm (H) × 13.5 mm (v), the horizontal pixel pitch is 10 μm, and the imaging element 104 (for AF only) is imaged. The effective size of the surface is 7.4 mm (H) × 5.94 mm (V), the horizontal pixel pitch is 10 μm, the focal length of the AF optical system is f2 = 10 mm, and the focal length f1 of the photographing optical system is from 10 mm to 100 mm. Table 1 shows the result of obtaining the field ratio (f1 · Hv2 / (f2 · Hv1)) of the horizontal field of view Hv2 of the AF optical system to the horizontal field of view Hv1 of the photographing optical system when changed in steps of 10 mm. It is. Note that the size of the image sensor 104 is smaller than the size of the image sensor 5. In general, the image sensor 104 has a large number of pixels and is large and expensive, but the image sensor 104 is cheaper than that. This is because a relatively small number of pixels is used. Further, Table 1 shows the result of obtaining the allowable distance measurement error of the AF optical system in units of the number of pixels of the image sensor 104 using the above equation (6).

そして、上記許容測距誤差以下となるように、撮像素子104の仮想画素の横、即ち基線長方向のサイズW2を撮像素子104の画素数を単位として適宜表1のように選択すると、撮像素子5の仮想画素の横方向のサイズW1は、既に述べたようにf1/f2=W1/W2の関係から自動的に決まり、画素数を単位として表1のようになる。   When the size W2 of the virtual pixel of the image sensor 104, that is, the length in the base line length direction is appropriately selected as shown in Table 1 so that the number of pixels of the image sensor 104 is a unit, the image sensor As described above, the horizontal size W1 of 5 virtual pixels is automatically determined from the relationship of f1 / f2 = W1 / W2, and is as shown in Table 1 with the number of pixels as a unit.

表1において、撮影光学系の焦点距離が10mmにおいては許容測距誤差135画素に比べて、W2が10画素となっており、他の撮影光学系と比べてやや過剰な精度になっているが、これはW2をなるべく統一してアルゴリズムを簡単にするためであり、理論上はW2は135画素以下であればよい。

Figure 2005134621
In Table 1, when the focal length of the photographic optical system is 10 mm, W2 is 10 pixels compared to the allowable distance measurement error of 135 pixels, which is slightly more accurate than the other photographic optical systems. This is for unifying W2 as much as possible to simplify the algorithm. Theoretically, W2 may be 135 pixels or less.
Figure 2005134621

この表1からも明らかなように、撮影光学系の焦点距離に応じて測距可能な範囲が変化する。そこで、本願発明においては、図11に示すように撮影光学系の焦点距離に応じて三角測距に基づく測距が可能な視野を表示する。また、測距領域も表示する。   As can be seen from Table 1, the range that can be measured varies depending on the focal length of the photographing optical system. Therefore, in the present invention, as shown in FIG. 11, a visual field capable of distance measurement based on triangulation is displayed according to the focal length of the photographing optical system. It also displays the ranging area.

一方、撮影光学系の焦点距離が長くなるほど許容測距誤差は小さくなり望遠側では精度を確保できなくなる可能性がある。そこで、後述する第2の実施の形態においては、撮影光学系のズーム値に応じてAF光学系のズーム値を変えるようにしている(これについての詳細は後述する)。   On the other hand, the longer the focal length of the photographic optical system, the smaller the allowable distance measurement error, and there is a possibility that accuracy cannot be ensured on the telephoto side. Therefore, in the second embodiment to be described later, the zoom value of the AF optical system is changed in accordance with the zoom value of the photographing optical system (details will be described later).

仮想画素の基線長と直角方向のサイズH1,H2についてもf1/f2=H1/H2の関係を満たすように適宜決めればよい。   The size H1 and H2 in the direction perpendicular to the base line length of the virtual pixel may be appropriately determined so as to satisfy the relationship of f1 / f2 = H1 / H2.

(第3の条件)
第3の条件を満たすための具体的解決手段について説明する。
(Third condition)
Specific means for satisfying the third condition will be described.

撮影光学系とAF光学系の構成や、撮像素子5と撮像素子104の感度が異なることから、撮像素子5の画像データの値と撮像素子104の画像データの値は異なる。   The image data value of the image sensor 5 and the image data value of the image sensor 104 are different because the configurations of the photographing optical system and the AF optical system and the sensitivity of the image sensor 5 and the image sensor 104 are different.

従って、以下のように、カメラの製造時に補正のためのデータをEEPROM25に記録しておき、相関演算を行う前に撮像素子5の画像データと撮像素子104の画像データを正規化し、同一被写体に対応する画像データの出力レベルを実質的に同じにする。   Therefore, as described below, correction data is recorded in the EEPROM 25 at the time of manufacturing the camera, and the image data of the image sensor 5 and the image data of the image sensor 104 are normalized before the correlation calculation is performed. The output level of the corresponding image data is made substantially the same.

即ち、撮影光学系により結像される第1像と、AF光学系により結像される第2像のそれぞれ同一の像の領域の信号レベル又はその比をEEPROM25に記憶しておき、この情報を基に、出力レベルを補正する。これによれば、基準像に対応する参照像の画像信号のレベルを合わせることができる。以下、詳述する。   That is, the signal level or the ratio of the same image area of the first image formed by the photographing optical system and the second image formed by the AF optical system is stored in the EEPROM 25, and this information is stored. Based on this, the output level is corrected. According to this, the level of the image signal of the reference image corresponding to the reference image can be matched. Details will be described below.

いま、撮影光学系の絞りを所定の値に絞り込んだ状態で撮像素子5の撮像面に被写体の領域A1の像Im1が結像しているものとする。同時に、撮像素子104の撮像面に被写体の領域A1の像Im2が結像しているものとする。   Now, it is assumed that an image Im1 of the subject area A1 is formed on the imaging surface of the imaging device 5 in a state where the aperture of the imaging optical system is reduced to a predetermined value. At the same time, it is assumed that an image Im2 of the subject area A1 is formed on the imaging surface of the imaging element 104.

このときの上記Im1に対応する撮像素子5の画素データの平均値Vm1と撮像素子104の画素データの平均値Vm2の比である、
K=Vm1/Vm2
をEEPROM25に記録する。
The ratio of the average value Vm1 of the pixel data of the image sensor 5 corresponding to the Im1 at this time and the average value Vm2 of the pixel data of the image sensor 104,
K = Vm1 / Vm2
Is recorded in the EEPROM 25.

尚、被写体を広い拡散板にして、このときの撮像素子5の複数画素の出力の平均値と撮像素子104の複数画素の出力の平均値の比をKとしてもよい。また、上記Vm1とVm2をEEPROM25に記録しておき、両者の比は後で計算してもよい。また、上記撮影光学系の絞りを撮影光学系の焦点距離に応じた所定の絞り値に設定して、この焦点距離毎に上記係数Kを求めてEEPROM25に記憶してもよい。   Note that the subject may be a wide diffusion plate, and the ratio of the average value of the output of the plurality of pixels of the image sensor 5 and the average value of the output of the plurality of pixels of the image sensor 104 at this time may be K. The Vm1 and Vm2 may be recorded in the EEPROM 25, and the ratio between the two may be calculated later. Alternatively, the aperture of the imaging optical system may be set to a predetermined aperture value corresponding to the focal length of the imaging optical system, and the coefficient K may be obtained for each focal length and stored in the EEPROM 25.

相関演算の前に撮像素子104の画像データをK倍することにより、基準像と参照像の明るさを実質的に同じにすることができる。   By multiplying the image data of the image sensor 104 by K before the correlation calculation, the brightness of the standard image and the reference image can be made substantially the same.

ここで、図12には、撮像装置1の製造時に上記EEPROM25に上記データを書き込むシステムの構成例を示し説明する。ここでは、図8と同一構成については同一符号を付している。書き込み装置1201から撮像装置1のCPU15に所定の信号が送られると、CPU15はEEPROM25にデータを書き込むための命令を実行する。   Here, FIG. 12 shows a configuration example of a system for writing the data in the EEPROM 25 when the imaging apparatus 1 is manufactured. Here, the same components as those in FIG. When a predetermined signal is sent from the writing device 1201 to the CPU 15 of the imaging device 1, the CPU 15 executes a command for writing data to the EEPROM 25.

以下、図13のフローチャートを参照して、上記EEPROM25へのデータの書き込み動作の流れを更に詳細に説明する。書き込み装置1201により撮像装置1をEEPROM25の書き込みモードに設定する(ステップS31)。次いで、撮影光学系の焦点距離を予め定めた焦点距離に設定し(ステップS32)、撮影光学系の絞りを予め決めた絞り値に絞り込む(ステップS33)。そして、撮像素子5と撮像素子104のデータを読み出し(ステップS34)、この読み出した画像データに基づいて上記係数KをEEPROM25に書き込み(ステップS35)、本動作を終了することになる。   Hereinafter, the flow of the data writing operation to the EEPROM 25 will be described in more detail with reference to the flowchart of FIG. The imaging device 1 is set to the writing mode of the EEPROM 25 by the writing device 1201 (step S31). Next, the focal length of the photographic optical system is set to a predetermined focal length (step S32), and the aperture of the photographic optical system is narrowed down to a predetermined aperture value (step S33). Then, the data of the image sensor 5 and the image sensor 104 are read (step S34), the coefficient K is written in the EEPROM 25 based on the read image data (step S35), and this operation is finished.

以上が第1乃至第3の条件を満たす為の具体的解決手段の説明である。   The above is the description of specific means for satisfying the first to third conditions.

次に、図14のフローチャートを参照して、図5のステップS13で実行されるサブルーチン“ΔL1,ΔL2演算”について詳細に説明する。このサブルーチンでは、測距領域の画像の光軸中心からのズレ量ΔL1、ΔL2を演算する。   Next, the subroutine “ΔL1, ΔL2 calculation” executed in step S13 of FIG. 5 will be described in detail with reference to the flowchart of FIG. In this subroutine, deviation amounts ΔL1 and ΔL2 from the optical axis center of the image in the distance measurement area are calculated.

先ず、CPU100は、測距領域選択回路113により選択された測距領域を読み込む(ステップS41)。次いで、CPU100は、基準像の重心位置(ΔL1)を演算する為に、上記測距領域の中から適宜基準像を選択する。この基準像の位置は、上記測距領域と等しくてもよく、上記測距領域の中から相関演算に適した所定のコントラストを有する小領域を選択したものでもよいことは勿論である。そして、CPU100は、この基準像の重心位置を求めて撮影光学系の光軸からのズレ量をΔL1とし(ステップS42)、上記基準像の重心位置に対応する参照像の重心位置を求める(ステップS43)。   First, the CPU 100 reads the ranging area selected by the ranging area selection circuit 113 (step S41). Next, the CPU 100 appropriately selects the reference image from the distance measurement area in order to calculate the barycentric position (ΔL1) of the reference image. Of course, the position of this reference image may be equal to the distance measurement area, or a small area having a predetermined contrast suitable for correlation calculation may be selected from the distance measurement areas. Then, the CPU 100 obtains the barycentric position of the reference image, sets the shift amount from the optical axis of the photographing optical system to ΔL1 (step S42), and obtains the barycentric position of the reference image corresponding to the barycentric position of the reference image (step S42). S43).

次いで、CPU100は、表1から得られる撮影光学系の焦点距離f1と撮像素子5と撮像素子104のそれぞれの仮想画素サイズ(W1,W2,H1,H2)をテーブル表としてEEPROM25に記憶しておき、このテーブル表を参照して、基準像と参照像の各仮想画素の出力を演算する。尚、仮想画素の出力値は、元の複数画素の出力の平均値とする(ステップS44)。次いで、EEPROM25に記憶した既述の係数Kを基に基準像と参照像のそれぞれに対応する仮想画素出力のレベルを正規化する(ステップS45)。   Next, the CPU 100 stores the focal length f1 of the photographing optical system obtained from Table 1 and the virtual pixel sizes (W1, W2, H1, H2) of the image pickup device 5 and the image pickup device 104 in the EEPROM 25 as a table. Referring to this table, the output of each virtual pixel of the reference image and the reference image is calculated. Note that the output value of the virtual pixel is the average value of the outputs of the original plurality of pixels (step S44). Next, the level of the virtual pixel output corresponding to each of the standard image and the reference image is normalized based on the above-described coefficient K stored in the EEPROM 25 (step S45).

そして、CPU100の制御の下、AF処理回路108は、既述の相関演算式、即ち上記(2)式を基にして、基準像と参照像の相関演算を行う。この相関演算は、AF光学系の光軸からの参照像のズレ量ΔL2を求めるものであるので、基準像の重心位置がAF光学系の光軸上にあるものとして相関演算を行い、上記ズレ量ΔL1,ΔL2を基に被写体までの距離を演算し(ステップS46)、図5の処理にリターンする。   Then, under the control of the CPU 100, the AF processing circuit 108 performs the correlation calculation between the reference image and the reference image based on the above-described correlation calculation expression, that is, the above expression (2). Since this correlation calculation is to obtain the deviation ΔL2 of the reference image from the optical axis of the AF optical system, the correlation calculation is performed assuming that the center of gravity position of the reference image is on the optical axis of the AF optical system, and the above-mentioned deviation calculation is performed. The distance to the subject is calculated based on the amounts ΔL1 and ΔL2 (step S46), and the process returns to the process of FIG.

以上説明したように、本発明の第1の実施の形態によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して、簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。また、撮影光学系とAF光学系の倍率が異なっても任意の領域の被写体に対して精度良く測距を行うことが可能となる。   As described above, according to the first embodiment of the present invention, the imaging optical system (imaging optical system) and the imaging element 5 are used together, and the focus is quickly focused on a wide area of the subject with a simple configuration. Can be combined. In addition, even if the magnification of the photographing optical system and that of the AF optical system are different, it is possible to accurately perform distance measurement on a subject in an arbitrary region.

[第2の実施の形態]
図15には、本発明の第2の実施の形態に係る焦点検出装置を採用した撮像装置の構成を示し説明する。ここでは、説明の簡略化の為、前述した図1と同一構成要素には同一符号を付し、重複した説明を省略し、両者の相違点を中心に説明する。
[Second Embodiment]
FIG. 15 shows and describes the configuration of an imaging apparatus that employs a focus detection apparatus according to a second embodiment of the present invention. Here, for simplification of description, the same components as those in FIG. 1 described above are denoted by the same reference numerals, overlapping description is omitted, and differences between the two will be mainly described.

撮影光学系のズームレンズ2のズーム値と、AF光学系のズームレンズ101のズーム値が大きくかけ離れていると、撮影光学系による像の視野とAF光学系による像の視野が大きく異なり、その結果、被写体距離の演算誤差が大きくなり、被写体の広い視野に対して被写体距離を求めることができなくなるおそれがある。   If the zoom value of the zoom lens 2 of the photographing optical system and the zoom value of the zoom lens 101 of the AF optical system are greatly different from each other, the field of view of the image by the photographing optical system and the field of view of the image by the AF optical system are greatly different. The subject distance calculation error increases, and the subject distance may not be obtained for a wide field of view of the subject.

このような点に鑑みて、この第2の実施の形態に係る焦点検出装置を採用した撮像装置では、上記撮影光学系のズームレンズ2のズーム値を読み込み、上記ズーム値に応じてAF光学系のズームレンズ101のズーム値を所定の値に設定するように、CPU200が第5モータドライブ111を制御して、モータ112を駆動する。尚、ズームレンズ101のズーム値は段階的に所定の値に設定するようにしてもよいことは勿論である。   In view of such a point, in the imaging apparatus adopting the focus detection apparatus according to the second embodiment, the zoom value of the zoom lens 2 of the photographing optical system is read, and the AF optical system according to the zoom value. The CPU 200 controls the fifth motor drive 111 to drive the motor 112 so that the zoom value of the zoom lens 101 is set to a predetermined value. Of course, the zoom value of the zoom lens 101 may be set to a predetermined value step by step.

このように、ズームレンズ101のズーム値を段階的に所定の値に設定するのは、AF光学系のズームレンズ101のズーム値を撮影光学系のズームレンズ2と同様に連続的に変えるようにすると、装置が大掛かりになりコストが高くなるからである。   In this way, the zoom value of the zoom lens 101 is set to a predetermined value step by step so that the zoom value of the zoom lens 101 of the AF optical system is continuously changed in the same manner as the zoom lens 2 of the photographing optical system. This is because the apparatus becomes large and the cost increases.

上記のように、ズームレンズ101のズーム値を段階的に所定の値に設定することにより、途中のズーム値については精度を確保する必要がないので簡単な構成でよく、また段階的なズーム値の精度を高めることが可能となる。   As described above, by setting the zoom value of the zoom lens 101 to a predetermined value in a stepwise manner, it is not necessary to ensure the accuracy of the intermediate zoom value, so a simple configuration is possible, and a stepwise zoom value is also possible. It is possible to improve the accuracy of the.

ここで、第2の実施の形態に係る焦点検出装置を採用した撮像装置の前提とする基本原理や主動作は、第1の実施の形態で説明した内容と略同じであるが、図4のステップS4で実行されるサブルーチン“三角測距AF”が大きく異なる。   Here, the basic principle and main operation of the imaging apparatus adopting the focus detection apparatus according to the second embodiment are substantially the same as the contents described in the first embodiment. The subroutine “triangulation AF” executed in step S4 is greatly different.

そこで、以下、図16のフローチャートを参照して、第2の実施の形態によるサブルーチン“三角測距AF”の処理の流れを詳細に説明する。   Therefore, the flow of processing of the subroutine “triangulation AF” according to the second embodiment will be described in detail below with reference to the flowchart of FIG.

先ず、CPU200は、CPU15を介して、撮影光学系のズームレンズ2のズーム値を読み込む(ステップS51)。そして、このズーム値に応じて、AF光学系のズームレンズ101のズーム値を所定の値に設定するように、第5モータドライブ111に基づいてモータ112を駆動する(ステップS52)。このようにズームレンズ2のズーム値に応じて、AF光学系のズームレンズ101のズーム値を所定の値に設定するのは、以下の理由による。即ち、前述したように、撮影光学系のズームレンズ2のズーム値と、AF光学系のズームレンズ101のズーム値が大きくかけ離れていると、撮影光学系による像の視野とAF光学系による像の視野が大きく異なり、被写体距離の演算誤差が大きくなり、被写体の広い視野に対して被写体距離を求めることができなくなるからである。   First, the CPU 200 reads the zoom value of the zoom lens 2 of the photographing optical system via the CPU 15 (step S51). Then, the motor 112 is driven based on the fifth motor drive 111 so as to set the zoom value of the zoom lens 101 of the AF optical system to a predetermined value according to the zoom value (step S52). The reason why the zoom value of the zoom lens 101 of the AF optical system is set to a predetermined value in accordance with the zoom value of the zoom lens 2 is as follows. That is, as described above, if the zoom value of the zoom lens 2 of the photographing optical system and the zoom value of the zoom lens 101 of the AF optical system are greatly different from each other, the field of view of the image by the photographing optical system and the image of the image by the AF optical system are different. This is because the field of view differs greatly and the subject distance calculation error increases, making it impossible to determine the subject distance for a wide field of view of the subject.

ここで、ズームレンズ101のズーム値は、段階的に所定の値に設定するようにしてもよいことは勿論である。このようにズームレンズ101のズーム値を段階的に所定の値に設定するのは、以下の理由による、即ち、AF光学系のズームレンズ101のズーム値を撮影光学系のズームレンズ2と同様に連続的に変えるようにすると、装置が大掛かりになりコストが高くなるからである。このようにズームレンズ101のズーム値を段階的に所定の値に設定すれば、途中のズーム値については精度を確保する必要がないので簡単な構成でよく、また段階的なズーム値の精度を高めることが可能となる。   Here, it goes without saying that the zoom value of the zoom lens 101 may be set to a predetermined value step by step. The zoom value of the zoom lens 101 is set to a predetermined value step by step for the following reason, that is, the zoom value of the zoom lens 101 of the AF optical system is set in the same manner as the zoom lens 2 of the photographing optical system. This is because if the change is made continuously, the apparatus becomes large and the cost increases. If the zoom value of the zoom lens 101 is set to a predetermined value step by step in this way, it is not necessary to ensure the accuracy of the intermediate zoom value, so a simple configuration is sufficient, and the accuracy of the stepwise zoom value is improved. It becomes possible to raise.

続いて、CPU15は、撮影光学系の絞り4を予め決めた所定の値に絞り込んだ後(ステップS53)、AE処理回路13で画像データを取得する(ステップS54)。尚、このステップS53,S54の詳細については、図5のステップS11,S12と同じであるので、これ以上の説明は省略する。次いで、CPU200はAF処理回路108を制御して、撮影光学系により結像された第1測距領域の画像の光軸中心からのズレであるΔL1と、AF光学系に結像された上記第2測距領域の画像に対応する画像の光軸中心からのズレであるΔL2を演算する(ステップS55)。尚、このサブルーチン“ΔL1,ΔL2演算”については図14で、前述した通りであるので、ここでは重複説明を省略する。   Subsequently, the CPU 15 narrows down the diaphragm 4 of the photographing optical system to a predetermined value (step S53), and then acquires image data by the AE processing circuit 13 (step S54). The details of steps S53 and S54 are the same as steps S11 and S12 of FIG. 5, and thus further description thereof is omitted. Next, the CPU 200 controls the AF processing circuit 108, and ΔL1 which is a deviation from the optical axis center of the image of the first distance measuring area imaged by the photographing optical system, and the above-mentioned first image imaged by the AF optical system. ΔL2 that is a deviation from the center of the optical axis of the image corresponding to the image of the two distance measurement areas is calculated (step S55). The subroutine “ΔL1, ΔL2 calculation” is as described above with reference to FIG.

こうして、CPU200は、AF処理回路108により上記(1)式(図3参照)に基づいて被写体までの距離Rを演算し(ステップS56)、リターンする。   Thus, the CPU 200 calculates the distance R to the subject based on the above expression (1) (see FIG. 3) by the AF processing circuit 108 (step S56), and returns.

以上説明したように、本発明の第2の実施の形態によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。   As described above, according to the second embodiment of the present invention, the imaging optical system (imaging optical system) and the imaging element 5 are combined to quickly focus on a wide area of the subject with a simple configuration. It becomes possible to match.

[第3の実施の形態]
これは、第1又は第2の実施の形態の改良例として位置付けられるものである。
[Third Embodiment]
This is positioned as an improved example of the first or second embodiment.

本発明の第3の実施の形態に係る焦点検出装置を採用した撮像装置の構成は図1又は15と同じであるので、ここでは当該図面を参照しつつ、相違点を中心に説明する。   Since the configuration of the imaging apparatus employing the focus detection apparatus according to the third embodiment of the present invention is the same as that shown in FIG. 1 or 15, the description will focus on the differences with reference to the drawings.

上述した三角測距は、AF光学系の機械的な誤差や相関演算に伴う誤差が発生する可能性がある。一方、撮影レンズを駆動しながら撮像素子に結像する画像信号の高周波成分が最大になる位置にレンズを駆動する所謂山登り方式は、撮像信号そのものを用いて合焦させるので理想的である。しかしながら、合焦位置から撮影レンズが大きく離れていると十分なコントラストが得られず、合焦までに時間がかかるという問題がある。   The above-described triangulation may cause a mechanical error of the AF optical system or an error accompanying a correlation calculation. On the other hand, the so-called hill-climbing method, in which the lens is driven to a position where the high-frequency component of the image signal imaged on the image sensor becomes the maximum while driving the photographing lens, is ideal because the image signal itself is used for focusing. However, if the photographing lens is far away from the in-focus position, sufficient contrast cannot be obtained, and there is a problem that it takes time until in-focus.

かかる点に鑑みて、第3の実施の形態では、先ず最初に三角測距の原理に基づき撮影レンズを駆動した後、最後は山登り方式に基づき撮影レンズを合焦位置に駆動する。   In view of this point, in the third embodiment, first, the photographic lens is driven based on the principle of triangulation, and finally, the photographic lens is driven to the in-focus position based on the hill-climbing method.

以下、図17のフローチャートを参照して、本発明の第3の実施の形態に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明する。   Hereinafter, with reference to the flowchart of FIG. 17, the main operation by the imaging apparatus employing the focus detection apparatus according to the third embodiment of the present invention will be described in detail.

ここでは、図1の構成を適宜参照しつつ説明を進める。   Here, the description will be made with reference to the configuration of FIG. 1 as appropriate.

ステップS61,S62は、図4のステップS1,S2と同じであるので、説明を省略する。次いで、CPU100は、測距領域選択回路113により選択された測距領を読み込み(ステップS63)、この選択された上記視野領域が三角測距による測距が可能な領域かどうか(図3参照)を判断し(ステップS64)、三角測距が可能な領域であれば、三角測距を行う(ステップS65)。尚、このサブルーチン“三角測距AF”については、図5又は図16で説明したのと同じであるので説明を省略する。   Steps S61 and S62 are the same as steps S1 and S2 in FIG. Next, the CPU 100 reads the distance measurement area selected by the distance measurement area selection circuit 113 (step S63), and determines whether or not the selected visual field area can be measured by the triangulation (see FIG. 3). (Step S64), and if it is an area where triangulation is possible, triangulation is performed (step S65). The subroutine “triangulation AF” is the same as that described with reference to FIG. 5 or FIG.

次いで、CPU15は、三角測距により求めた被写体距離と現在の撮影光学系のフォーカスレンズ3のピント位置を比較する(ステップS66)。   Next, the CPU 15 compares the subject distance obtained by the triangulation with the focus position of the focus lens 3 of the current photographing optical system (step S66).

尚、現在の撮影光学系のフォーカスレンズのピント位置は、フォーカスレンズ3の駆動部材にエンコーダを設けて、フォーカスレンズ3の駆動位置を検出するという公知の方法により知ることができる。これについては、説明を省略する。   The focus position of the focus lens of the current photographing optical system can be known by a known method of detecting the drive position of the focus lens 3 by providing an encoder on the drive member of the focus lens 3. Description of this is omitted.

そして、CPU15は、フォーカスレンズ3が合焦点近傍であると判断したときは(ステップS67)、直ちに所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS69)。一方、合焦点近傍でないと判断すると、CPU15は、上記三角測距で求めた距離情報に基づきフォーカスレンズ3を駆動した後(ステップS68)、所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS69)。ステップS70〜S72は、図4のステップS6〜S8と同様であるので、重複した説明は省略する。   When the CPU 15 determines that the focus lens 3 is in the vicinity of the focal point (step S67), the CPU 15 immediately drives the focus lens 3 by a so-called hill-climbing method (step S69). On the other hand, when determining that it is not in the vicinity of the in-focus point, the CPU 15 drives the focus lens 3 based on the distance information obtained by the triangulation (step S68), and then drives the focus lens 3 by a so-called hill-climbing method (step S69). . Steps S70 to S72 are the same as steps S6 to S8 in FIG.

ここで、図18は横軸にフォーカスレンズ3の駆動位置を縦軸に時間を示したものである。同図に示されるように、第3の実施の形態では、時間t1までは三角測距に基づいて撮影レンズを駆動し、t1〜t2の間は所謂山登り方式により駆動する。   Here, FIG. 18 shows the drive position of the focus lens 3 on the horizontal axis and the time on the vertical axis. As shown in the figure, in the third embodiment, the photographing lens is driven based on triangulation until time t1, and is driven by a so-called hill-climbing method between t1 and t2.

以上説明したように、本発明の第3の実施の形態によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。さらに、例えば、撮影光学系の撮影レンズが合焦位置から大きく離れている場合でも、短時間で焦点を合わせることが可能となる。   As described above, according to the third embodiment of the present invention, the imaging optical system (imaging optical system) and the imaging element 5 are combined to quickly focus on a wide area of the subject with a simple configuration. It becomes possible to match. Further, for example, even when the photographing lens of the photographing optical system is far away from the in-focus position, it is possible to focus in a short time.

[第4の実施の形態]
これは、第1の実施の形態の改良例として位置付けられるものである。
[Fourth Embodiment]
This is positioned as an improved example of the first embodiment.

本発明の第4の実施の形態に係る焦点検出装置を採用した撮像装置の構成は図1と同じであるので、ここでは当該図面を参照しつつ、相違点を中心に説明する。   Since the configuration of an imaging apparatus that employs a focus detection apparatus according to the fourth embodiment of the present invention is the same as that of FIG. 1, here, differences will be mainly described with reference to the drawings.

この第4の実施の形態に係る焦点検出装置を採用した撮像装置では、三角測距の原理に基づくAF方式と所謂山登り方式に基づくAF方式を併用し、状況に応じていずれかの方式を優先的に採用することを特徴とする。   In an imaging apparatus employing the focus detection apparatus according to the fourth embodiment, an AF method based on the principle of triangulation and an AF method based on a so-called hill-climbing method are used in combination, and either method is given priority depending on the situation. It is characterized by adopting automatically.

より具体的には、AF光学系を通過する被写体光の明るさが所定値より明るいと判断した場合には三角測距AFを優先的に行い、AF光学系を通過する被写体光の明るさが所定値より暗いと判断した場合は、所謂山登り方式によるAFを優先的に行うものである。   More specifically, when it is determined that the brightness of the subject light passing through the AF optical system is brighter than a predetermined value, triangulation AF is preferentially performed, and the brightness of the subject light passing through the AF optical system is determined. When it is determined that the image is darker than the predetermined value, AF based on the so-called hill climbing method is preferentially performed.

但し、上記判断すべき状況は、明るさには限定されない。   However, the situation to be determined is not limited to brightness.

以下、図19のフローチャートを参照して、本発明の第4の実施の形態に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明する。   Hereinafter, with reference to the flowchart of FIG. 19, the main operation of the imaging apparatus employing the focus detection apparatus according to the fourth embodiment of the present invention will be described in detail.

ステップS81,S82は、図4のステップS1,S2と同じであるので、説明を省略する。次いで、CPU100は、測距領域選択回路113により選択された測距領域を読み込む(ステップS83)。そして、CPU100は、AF光学系を通過した像の明るさB1を検出する(ステップS84)。より具体的には、撮像素子104の出力信号を読み出し被写体の比較的広い領域の平均的な明るさを求める。次に、上記被写体の平均的な明るさB1の値が所定値αより小さいか否かを判断する(ステップS85)。   Steps S81 and S82 are the same as steps S1 and S2 in FIG. Next, the CPU 100 reads the distance measurement area selected by the distance measurement area selection circuit 113 (step S83). Then, the CPU 100 detects the brightness B1 of the image that has passed through the AF optical system (step S84). More specifically, an output signal from the image sensor 104 is read, and an average brightness of a relatively wide area of the subject is obtained. Next, it is determined whether or not the average brightness B1 of the subject is smaller than a predetermined value α (step S85).

このステップS805にて、上記被写体の平均的な明るさB1の値が所定値αより小さいときは、三角測距不能としてステップS87の所謂山登りAFの処理に進む。このようなケースとしては、例えば撮影時に撮影者がAF光学系を手で遮っていることが考えられる。一方、上記ステップS85において、上記被写体の平均的な明るさB1の値が所定値αより大きいときは、CPU100は、次にサブルーチン“三角測距AF”により三角測距によるAFを行う(ステップS86)。尚、このサブルーチン“三角測距AF”については、図6で説明したのと同じであるので説明を省略する。   If the average brightness B1 of the subject is smaller than the predetermined value α in step S805, it is determined that triangulation cannot be performed, and the process proceeds to so-called hill-climbing AF processing in step S87. As such a case, for example, the photographer may be blocking the AF optical system by hand at the time of photographing. On the other hand, if the average brightness B1 of the subject is larger than the predetermined value α in step S85, the CPU 100 next performs AF by triangulation by the subroutine “triangulation AF” (step S86). ). The subroutine “triangulation AF” is the same as that described with reference to FIG.

続いて、CPU15は、第2モータドライブ19を制御して、所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS87)。これ以降のステップS88〜S90までの動作は、図4のステップS6からステップS8までの動作と同じであるので、ここでは重複した説明を省略する。以上で、一連の処理を終了する。   Subsequently, the CPU 15 controls the second motor drive 19 to drive the focus lens 3 by a so-called hill climbing method (step S87). The subsequent operations from step S88 to S90 are the same as the operations from step S6 to step S8 in FIG. Thus, a series of processing is completed.

以上説明したように、本発明の第4の実施の形態によれば、撮影レンズが合焦位置近傍にあるかどうかを三角測距AFによらず簡便な方法で検出することにより、合焦位置近傍にあるときは三角測距AFを省略して高速且つ精度よく合焦させることができる。   As described above, according to the fourth embodiment of the present invention, it is possible to detect whether the photographing lens is in the vicinity of the in-focus position by a simple method regardless of the triangulation AF. When in the vicinity, triangulation AF can be omitted and focusing can be performed with high speed and accuracy.

[第5の実施の形態]
これは、第1又は第2の実施の形態の改良例として位置付けられるものである。
[Fifth Embodiment]
This is positioned as an improved example of the first or second embodiment.

本発明の第5の実施の形態に係る焦点検出装置を採用した撮像装置の構成は図1又は図15と同じであるので、ここでは図1等を参照しつつ、相違点を中心に説明する。   Since the configuration of the imaging apparatus employing the focus detection apparatus according to the fifth embodiment of the present invention is the same as that of FIG. 1 or FIG. 15, here, differences will be mainly described with reference to FIG. .

図20には、本発明の第5の実施の形態に係る焦点検出装置を採用した撮像装置としてのカメラの外観構成を示し詳細に説明する。   FIG. 20 shows an external configuration of a camera as an imaging apparatus that employs a focus detection apparatus according to a fifth embodiment of the present invention, and will be described in detail.

この図20に示すように、撮影光学系(撮影レンズ204)とAF専用光学系203の光軸を結ぶライン(基線長方向)は、カメラ本体の水平方向に対して傾いている。   As shown in FIG. 20, the line (baseline length direction) connecting the optical axes of the photographing optical system (photographing lens 204) and the AF dedicated optical system 203 is inclined with respect to the horizontal direction of the camera body.

被写体までの距離は、図3で前述したように、2つの撮像素子の撮像面に結像する対応する2像の基線長方向の相対的なズレ量に基づいて求められることになるので、従来の手法を用いて被写体までの距離を求めるには、撮像素子5と撮像素子104のそれぞれの画素の読み出し方向(長辺方向又は短辺方向)を基線長方向に一致させた方が、前述したようなズレ量計算の処理が簡単になることは容易に推察される。   As described above with reference to FIG. 3, the distance to the subject is obtained based on the relative shift amount in the base line length direction of the two corresponding images formed on the imaging surfaces of the two imaging elements. In order to obtain the distance to the subject using the above method, it is preferable that the readout direction (long side direction or short side direction) of each pixel of the image pickup device 5 and the image pickup device 104 is matched with the baseline length direction. It is easily guessed that the process of calculating the deviation amount is simplified.

しかしながら、このような配置は、撮影に用いる撮像素子5がカメラ本体に対して傾くので採用することができない。このような問題を解決するために、上記基線長方向をカメラ本体の水平方向にすると、撮影者がカメラを把持するときAF光学系が手によって遮られる可能性が高いので設計上好ましくない。このような観点から、第5の実施の形態に係るカメラでも、図20の外観図に示すように、上記基線長方向がカメラ本体の水平方向と所定の角度をもって配置されるように構成している。   However, such an arrangement cannot be adopted because the image sensor 5 used for photographing is inclined with respect to the camera body. In order to solve such a problem, if the base length direction is set to the horizontal direction of the camera body, the AF optical system is likely to be blocked by the hand when the photographer holds the camera, which is not preferable in design. From this point of view, the camera according to the fifth embodiment is configured such that the base line length direction is arranged at a predetermined angle with the horizontal direction of the camera body as shown in the external view of FIG. Yes.

この場合、撮影光学系の結像位置に配置される撮像素子5とAF専用光学系203の結像位置に配置される撮像素子104を図22に示されるように構成すると、撮像素子5が受ける像面上に設定した基準像2201に対応する、撮像素子104が受ける像面上の上記基準像に対応する参照像2202の位置を演算するときに、上記参照像2202が上記基準像に対して基線長方向にずれるので、参照像2202を上記基線長方向に所定ピッチずつずらしながら既述の上記(2)式に基づく相関量を演算して、上記基準像と一致する参照像の位置を求める。そうすると、撮像素子104の画素の読み出し方向が、通常の撮像素子の読み出し方向と異なり、通常の読み出し方向に対して斜めになるので、参照像の設定のために、比較的複雑な演算が必要になると共に演算に時間がかかる。   In this case, if the image pickup device 5 arranged at the image forming position of the photographing optical system and the image pickup device 104 arranged at the image forming position of the AF dedicated optical system 203 are configured as shown in FIG. When the position of the reference image 2202 corresponding to the reference image on the image plane received by the image sensor 104 corresponding to the reference image 2201 set on the image plane is calculated, the reference image 2202 is relative to the reference image. Since the reference image 2202 is shifted in the baseline length direction, the correlation amount based on the above-described equation (2) is calculated while shifting the reference image 2202 by a predetermined pitch in the baseline length direction, and the position of the reference image that matches the reference image is obtained. . As a result, the pixel readout direction of the image sensor 104 is different from the normal image sensor readout direction, and is inclined with respect to the normal readout direction. Therefore, a relatively complicated calculation is required for setting the reference image. And it takes time to calculate.

この場合であっても基準像はずらす必要ないので図22の構成でもよい。   Even in this case, since the reference image does not need to be shifted, the configuration of FIG. 22 may be used.

しかしながら、第5の実施の形態では、更に図21に示すように撮像素子104の配置のみを基線長方向に傾けることで、撮像素子104の画素信号の読み出し方向を基線長方向に一致させた。第5の実施の形態では、このような配置にすることで、上記相関量の演算を簡単なものとし、高速の相関演算を可能としている。   However, in the fifth embodiment, as shown in FIG. 21, only the arrangement of the image sensor 104 is tilted in the baseline length direction so that the pixel signal readout direction of the image sensor 104 matches the baseline length direction. In the fifth embodiment, such an arrangement simplifies the calculation of the correlation amount and enables high-speed correlation calculation.

次に、図21に示すように撮像素子の配置したときの、撮像素子5と撮像素子104の仮想画素の生成方法について詳細に説明する。先ず、撮像素子5の仮想画素の配列方向と基線長方向が一致するように撮像素子5の画素のアドレス変換を行う。   Next, a method for generating virtual pixels of the image sensor 5 and the image sensor 104 when the image sensor is arranged as shown in FIG. 21 will be described in detail. First, the address conversion of the pixels of the image sensor 5 is performed so that the arrangement direction of the virtual pixels of the image sensor 5 and the baseline length direction coincide.

以下、図23を参照してこのアドレス変換について説明する。   The address conversion will be described below with reference to FIG.

図23は、細線で示される原画を、θ(カメラの水平方向と基線長方向のなす角度)だけ回転して斜め走査による太線画像を得る際のアドレス位置関係を示している。図中、白丸はメモリ8に記憶された実画素を示し、黒丸はメモリ8から読み出す仮想画素を示している。各アドレス位置P(00),P(10),P(20),P(01),P(11),P(21),P(02),P(12),P(22)に対応する画素データがメモリ8に書き込まれており、これらアドレス位置の画素データを用いて、位置P(0、0)を中心にしてθだけ回転した後の太線で示す対応アドレス位置Q(10),Q(20),Q(01),Q(11),Q(21),…を求め、アドレス信号Addとしてメモリ8に送出する。   FIG. 23 shows the address positional relationship when an original image indicated by a thin line is rotated by θ (an angle formed by the horizontal direction of the camera and the baseline length direction) to obtain a thick line image by oblique scanning. In the figure, white circles indicate actual pixels stored in the memory 8, and black circles indicate virtual pixels read from the memory 8. Corresponding to each address position P (00), P (10), P (20), P (01), P (11), P (21), P (02), P (12), P (22) Pixel data is written in the memory 8, and corresponding address positions Q (10), Q indicated by bold lines after rotating by θ around the position P (0, 0) using the pixel data at these address positions. (20), Q (01), Q (11), Q (21),... Are obtained and sent to the memory 8 as an address signal Add.

例えば、図23におけるアドレス位置Q(10),Q(20),Q(01),Q(11)の仮想画素アドレスは、図示の関係から次のようにして求まる。   For example, the virtual pixel addresses at the address positions Q (10), Q (20), Q (01), and Q (11) in FIG. 23 are obtained as follows from the illustrated relationship.

Q(10) x…P(00)+cosθ
y…P(00)+sinθ
Q(20) x…P(00)+2cosθ
=P(10)+2cosθ−1
y…P(00)+2sinθ
=P(10)+2sinθ
Q(01) x…P(00)−sinθ
y…P(00)+cosθ
Q(11) x…P(00)−sinθ+cosθ
=P(01)−sinθ+cosθ
y…P(00)+cosθ+sinθ
=P(01)+cosθ+sinθ−1
図24には、図23に示すアドレス変換原理図をθ=30度回転した場合のアドレス変換図が示されている。(XST,YST)を原点のアドレスとする。
Q (10) x ... P (00) + cos θ
y ... P (00) + sinθ
Q (20) x ... P (00) +2 cos θ
= P (10) +2 cos θ−1
y ... P (00) + 2sinθ
= P (10) + 2sin θ
Q (01) x ... P (00) -sinθ
y ... P (00) + cosθ
Q (11) x ... P (00) −sin θ + cos θ
= P (01) -sin θ + cos θ
y ... P (00) + cos θ + sin θ
= P (01) + cos θ + sin θ−1
FIG. 24 shows an address conversion diagram when the address conversion principle diagram shown in FIG. 23 is rotated by θ = 30 degrees. Let (XST, YST) be the address of the origin.

図24では、
XST=0 XW=0.866 X0=−2.4×0.5
YST=0 YW=0.5/2.4 Y0=0.866
であり、図24からも明らかなように、画素数m、ライン数nにおけるXアドレスXmnとYアドレスYmnを表す一般式は、次のようになる。
In FIG.
XST = 0 XW = 0.866 X0 = −2.4 × 0.5
YST = 0 YW = 0.5 / 2.4 Y0 = 0.866
As is clear from FIG. 24, general expressions representing the X address Xmn and the Y address Ymn in the number of pixels m and the number of lines n are as follows.

Xmn=XST+m・XW+n・X0
Ymn=YST+m・YW+n・Y0
例えば、0ライン目(n=0)のアドレス(座標)は、(XY)=(0,0),(0.866,0.208),(1.732,0.417),…、1ライン目(n=1)では、(XY)=(−1.2,0.866),(−0.334,1.074),(0.532,1.28),…となる。ここで、各アドレスの整数部がアドレスAddを、少数部が補間係数Kを示していることは図から明らかである。
Xmn = XST + m · XW + n · X0
Ymn = YST + m · YW + n · Y0
For example, the address (coordinates) of the 0th line (n = 0) is (XY) = (0, 0), (0.866, 0.208), (1.732, 0.417),. In the line (n = 1), (XY) = (− 1.2, 0.866), (−0.334, 1.074), (0.532, 1.28),. Here, it is clear from the figure that the integer part of each address indicates the address Add and the decimal part indicates the interpolation coefficient K.

上記補間処理は、例えば図25に示すような4点加重方式を用いるのが好ましい。   For the interpolation process, it is preferable to use a four-point weighting method as shown in FIG.

メモリ8から読み出すべきアドレス位置Qは、図25に示すように、X1とX2を定めると、周囲の4点P(11),P(21),P(12),P(22)のデータを、同一の符号を用いて、それぞれP(11)、P(21)、P(12)、P(22)と定義すると、これらの加重平均を用いて、下式により求める。   As shown in FIG. 25, when the address position Q to be read from the memory 8 is determined as X1 and X2, the data of the surrounding four points P (11), P (21), P (12), P (22) are obtained. If the same symbols are used to define P (11), P (21), P (12), and P (22), respectively, these weighted averages are used to obtain the following equation.

Q=(1−Ky)X1+Ky・X2
X1=(1−Kx)P(11)+KxP(21)
X2=(1−Kx)P(12)+KxP(22)
したがって、
Q=(1−Kx)(1−Ky)P(11)+Kx(1−Ky)P(21)
+Ky(1−Kx)P(12)+Kx・Ky・P(22) ・・・(7)
この(7)式の演算は、1サイクル内に4画素アドレスのデータであるP(11),P(21),P(12),P(22)を読み出すことにより実現することができる。
Q = (1-Ky) X1 + Ky · X2
X1 = (1-Kx) P (11) + KxP (21)
X2 = (1-Kx) P (12) + KxP (22)
Therefore,
Q = (1-Kx) (1-Ky) P (11) + Kx (1-Ky) P (21)
+ Ky (1−Kx) P (12) + Kx · Ky · P (22) (7)
The calculation of equation (7) can be realized by reading out P (11), P (21), P (12), and P (22), which are data of four pixel addresses within one cycle.

以上説明したように第5の実施の形態では、上記のようにしてアドレス変換後の各アドレスの画素データの値を演算し、これらの新しいアドレスの画素データを複数合成して既述のとおりの仮想画素データを生成する。上述のとおり、座標を回転したときの新しいアドレス上の画素データを求めるには比較的複雑な演算を必要とする。しかし、第5の実施の形態においては、撮像素子104は基線長方向に対して傾きが零であり、撮像素子5のみ基線長方向に対して傾けて配置するので、座標変換の演算量が少なくて済む。   As described above, in the fifth embodiment, the value of the pixel data of each address after address conversion is calculated as described above, and a plurality of pixel data of these new addresses are synthesized, as described above. Virtual pixel data is generated. As described above, in order to obtain pixel data at a new address when coordinates are rotated, a relatively complicated operation is required. However, in the fifth embodiment, the imaging element 104 has a zero inclination with respect to the baseline length direction, and only the imaging element 5 is arranged to be inclined with respect to the baseline length direction. I'll do it.

しかも、撮像素子5で受ける画像上に上記基準像を設定するので、基準像のみのアドレス変換を行えばよいので、相関量を求めるために基線長方向に像をシフトする必要のある参照像については複雑なアドレス変換を行う必要がないので演算量が極めて少なくて済むというメリットもある。尚、第5の実施の形態では、上記アドレス変換として回転のみについて述べたが、基準像と参照像の基線長方向と垂直方向のアドレス変換についても同様の4点加重方式により簡単に実現できる。これにより、基準像と参照像の基線長方向と垂直方向の画素のずれを補正して精度の高い相関演算を行うこともできる。   In addition, since the reference image is set on the image received by the image pickup device 5, it is sufficient to perform address conversion of only the reference image. Therefore, for a reference image that needs to be shifted in the baseline length direction in order to obtain the correlation amount. Has a merit that the amount of calculation is very small because it is not necessary to perform complicated address conversion. In the fifth embodiment, only the rotation is described as the address conversion. However, the address conversion in the base line length direction and the vertical direction of the reference image and the reference image can be easily realized by the same four-point weighting method. Thereby, it is also possible to perform a correlation calculation with high accuracy by correcting a pixel shift between the base length direction and the vertical direction of the reference image and the reference image.

[まとめ]
以上、本発明の第1乃至第5実施の形態について説明したが、本発明はこれに限定されることなく、その趣旨を逸脱しない範囲で種々の改良・変更が可能であることは勿論である。例えば、図1及び図15では、三角測距AFを統括するCPUと所謂山登り方式AFを統括するCPUを分けた例を示したが、これに限定されず、一のCPUが両者を統括するようにしても、更なるCPUを用いてもよい。
[Summary]
The first to fifth embodiments of the present invention have been described above. However, the present invention is not limited to this, and various improvements and modifications can be made without departing from the spirit of the present invention. . For example, FIGS. 1 and 15 show an example in which the CPU that controls the triangulation AF and the CPU that controls the so-called hill-climbing AF are divided. However, the present invention is not limited to this, and one CPU controls both. However, a further CPU may be used.

また、上記第1乃至第5の実施の形態は、デジタルカメラやデジタルビデオカメラのみならず、カメラ機能付きの携帯電話機、PDA、ノート型パーソナルコンピュータ等といった所謂モバイル機器等にも幅広く適用可能であることは勿論である。   The first to fifth embodiments can be widely applied not only to digital cameras and digital video cameras but also to so-called mobile devices such as mobile phones with camera functions, PDAs, and notebook personal computers. Of course.

また、上記第1乃至第5の実施の形態の技術的事項の一部又は全部の相互の組み合わせは適宜可能であることは勿論である。   It goes without saying that some or all of the technical matters of the first to fifth embodiments can be appropriately combined with each other.

(付記)
(1)被写体の像を記録する為の撮像と焦点検出に兼用する第1光学系及び第1撮像素子と、上記第1光学系及び上記第1撮像素子と所定の基線長隔てて配置された上記第1光学系とは倍率の異なる第2光学系及び第2撮像素子と、上記第2撮像素子から読み出した画像の中に設定された参照像を、基線長方向に所定の単位画素ずつずらしながら、上記第1撮像素子から読み出した画像の中に設定された基準像と一致する上記参照像の位置を演算する相関量演算手段と、上記相関量演算手段の出力に基づき上記基準像に対応する被写体までの距離を検出する距離演算手段とを備え、上記第1撮像素子の単位画素のサイズと上記第2撮像素子の単位画素のサイズの比が、上記第1光学系の倍率と上記第2光学系の倍率の比に等しくなるようにしたことを特徴とする焦点検出装置。この態様によれば撮像用の光学系及び撮像素子を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能になる。
(Appendix)
(1) The first optical system and the first image sensor that are used for both imaging and focus detection for recording an image of the subject, and the first optical system and the first image sensor are arranged at a predetermined baseline length. The second optical system and the second image sensor having different magnifications from the first optical system, and the reference image set in the image read from the second image sensor are shifted by predetermined unit pixels in the baseline length direction. However, the correlation amount calculating means for calculating the position of the reference image that matches the reference image set in the image read from the first image sensor, and corresponding to the reference image based on the output of the correlation amount calculating means Distance calculating means for detecting the distance to the subject to be measured, and the ratio of the size of the unit pixel of the first image sensor to the size of the unit pixel of the second image sensor is the magnification of the first optical system and the first To be equal to the magnification ratio of the two optical systems Focus detection device, characterized in that. According to this aspect, it is possible to quickly focus on a wide area of the subject with a simple configuration using both the imaging optical system and the imaging element.

(2)上記第1撮像素子の単位画素のサイズ又は上記第2撮像素子の単位画素のサイズは、複数の画素をまとめて仮想的な1つの画素とみなしたものであることを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、撮像用の光学系及び撮像素子を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能になる。   (2) The size of the unit pixel of the first image sensor or the size of the unit pixel of the second image sensor is a combination of a plurality of pixels regarded as one virtual pixel. The focus detection apparatus according to (1). According to this aspect, it is possible to quickly focus on a wide area of the subject with a simple configuration using both the imaging optical system and the imaging element.

(3)上記第1光学系の光路中に配置された第1絞りと、この第1絞りを所定の値に設定する絞り設定手段とを更に有し、上記相関量演算手段は、上記絞り設定手段により上記第1絞りを予め決められた所定の絞り値に絞り込んだ後に撮像された画像データに基づいて上記基準像と一致する上記参照像の位置を演算することを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、撮影レンズが合焦位置から大きくはずれていても比較的鮮明な画像が結像されるので正確にズレ量を求めることができる。   (3) It further includes a first diaphragm disposed in the optical path of the first optical system, and diaphragm setting means for setting the first diaphragm to a predetermined value, and the correlation amount calculation means includes the diaphragm setting. The position of the reference image that coincides with the reference image is calculated based on image data captured after the first aperture is reduced to a predetermined aperture value by means. The focus detection apparatus described in 1. According to this aspect, since a relatively clear image is formed even if the photographing lens is largely deviated from the in-focus position, the amount of deviation can be accurately obtained.

(4)上記第2光学系の光路中に配置された第2絞りを有し、上記絞り設定手段により設定される第1絞りの絞り値を上記第2絞りの絞り値と等しくすることを特徴とする上記(3)に記載の焦点検出装置。この態様によれば、第1光学系により結像される像と第2光学系により結像される像のぼけと照度分布が近似するので、ズレ量を正確に求めることができる。   (4) It has a second aperture disposed in the optical path of the second optical system, and the aperture value of the first aperture set by the aperture setting means is made equal to the aperture value of the second aperture. The focus detection apparatus according to (3) above. According to this aspect, since the blur and the illuminance distribution of the image formed by the first optical system and the image formed by the second optical system are approximated, the amount of deviation can be accurately obtained.

(5)上記第1光学系はズーム値を可変に構成され、上記第1光学系のズーム値に応じて測距が可能な領域が変化する測距可能領域を示す指標を上記第1撮像素子により撮像された画像と重ねて表示する表示手段を更に有することを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、三角測距に基づく測距が可能な領域を確認することができるので便利である。   (5) The first optical system is configured such that the zoom value is variable, and an index indicating a distance-measurable area in which the area in which the distance can be measured changes according to the zoom value of the first optical system includes the first image sensor. The focus detection apparatus according to (1), further including display means for displaying the image picked up by the superimposing method. According to this aspect, it is possible to confirm an area in which distance measurement based on triangulation can be performed, which is convenient.

(6)被写体の測距領域を指示する測距領域指示手段を有し、測距が不能な領域に上記測距領域を設定するように指示されたときは、山登り方式に基づき撮影レンズを合焦位置に駆動することを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、山登り方式により焦点検出可能となる。   (6) It has a distance measuring area instruction means for instructing a distance measuring area of the subject, and when it is instructed to set the distance measuring area in an area where distance measurement is impossible, the photographic lens is attached based on the mountain climbing method. The focus detection apparatus according to (1), wherein the focus detection apparatus is driven to a focal position. According to this aspect, the focus can be detected by the hill climbing method.

(7)上記第1光学系は連続的に切り換えが可能であり、上記第2光学系は連続的に変化する上記第1光学系の焦点距離に応じて焦点距離を不連続に切り換えることを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、撮像用の光学系及び撮像素子を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能になる。   (7) The first optical system can be switched continuously, and the second optical system can switch the focal length discontinuously according to the focal length of the first optical system that changes continuously. The focus detection apparatus according to (1) above. According to this aspect, it is possible to quickly focus on a wide area of the subject with a simple configuration using both the imaging optical system and the imaging element.

(8)上記第2撮像素子の撮像面サイズは、上記第1撮像素子の撮像面のサイズに比べて小さいことを特徴とする上記(7)に記載の焦点検出装置。この態様によれば、高価な撮像用の撮像素子に比べて安価な撮像素子を用いるのでコストが安くなる。   (8) The focus detection apparatus according to (7), wherein an image pickup surface size of the second image pickup element is smaller than a size of the image pickup surface of the first image pickup element. According to this aspect, since an inexpensive image sensor is used as compared with an expensive image sensor, the cost is reduced.

(9)上記第2撮像素子の画素数は、上記第1撮像素子の画素数に比べて少ないことを特徴とする上記(1)に記載の焦点検出装置。この態様によれば、高価な撮像用の撮像素子に比べて安価な撮像素子を用いるのでコストが安くなる。   (9) The focus detection apparatus according to (1), wherein the number of pixels of the second image sensor is smaller than the number of pixels of the first image sensor. According to this aspect, since an inexpensive image sensor is used as compared with an expensive image sensor, the cost is reduced.

(10)第1光学系により結像される第1像を受ける第1撮像素子と、上記第1光学系と所定の基線長隔てて配置された第2光学系により結像される第2像を受ける第2撮像素子と、所定の距離に配置された被写体が結像する上記第1撮像素子と記第2撮像素子のそれぞれの撮像面上の座標位置が予め記憶された不揮発性メモリと、上記第1像の中に所定範囲の基準像の領域を設定する基準像領域設定手段と、上記不揮発性メモリに記録された座標位置を基に、上記基準像と一致する像の存在する参照像検索領域を上記第2像の中に設定する参照像検索領域設定手段と、上記参照像検索領域の中から上記基準像と一致する参照像が存在する領域の上記第2光学系の光軸からの基線長方向の距離を演算する演算手段と、上記基準像の上記第1光学系の光軸からの基線長方向の距離、及び上記演算手段により求めた参照像が存在する領域の上記第2光学系の光軸からの基線長方向の距離に基づき被写体までの距離を検出する距離演算手段とを備えたことを特徴とする焦点検出装置。この態様によれば、基準像に対応する参照像の位置を容易に検出することができるので、たとえ第1光学系と第2光学系の倍率が異なっても任意の領域の被写体に対して精度良く測距を行うことが可能となる。 (10) A first image sensor that receives a first image formed by the first optical system, and a second image that is formed by a second optical system that is disposed at a predetermined baseline length from the first optical system. A non-volatile memory in which coordinate positions on the respective imaging surfaces of the first imaging element and the second imaging element on which a subject arranged at a predetermined distance forms an image are stored in advance. Reference image area setting means for setting a reference image area within a predetermined range in the first image, and a reference image in which an image matching the reference image exists based on the coordinate position recorded in the nonvolatile memory Reference image search area setting means for setting a search area in the second image, and an optical axis of the second optical system in an area where a reference image matching the reference image exists in the reference image search area Calculating means for calculating the distance in the base line length direction, and the first light of the reference image The distance to the subject is detected based on the distance in the base line length direction from the optical axis of the system and the distance in the base line length direction from the optical axis of the second optical system in the region where the reference image obtained by the calculation means exists. A focus detection apparatus comprising a distance calculation means. According to this aspect, since the position of the reference image corresponding to the reference image can be easily detected, even if the magnifications of the first optical system and the second optical system are different, the accuracy of the subject in an arbitrary region is improved. It becomes possible to perform distance measurement well.

(11)上記第1光学系の光軸上無限大の位置の被写体が結像する上記第1撮像素子の撮像面上の位置を、上記不揮発性メモリに予め記録することを特徴とする上記(10)に記載の焦点検出装置。この態様によれば、第1光学系又は第2光学系の撮影倍率が変化しても結像位置が変化しないので、上記第1撮像素子の撮像面上に結像する被写体が上記第2撮像素子の撮像面上のどの位置に結像しているかを容易に求めることができ、上記基準像と参照像の相関演算を容易に行うことが可能となる。 (11) The position on the imaging surface of the first image sensor on which an object at an infinite position on the optical axis of the first optical system forms an image is recorded in advance in the nonvolatile memory. The focus detection apparatus according to 10). According to this aspect, since the imaging position does not change even when the imaging magnification of the first optical system or the second optical system changes, the subject that forms an image on the imaging surface of the first imaging element is not subject to the second imaging. It is possible to easily determine at which position on the imaging surface of the element the image is formed, and it is possible to easily perform the correlation calculation between the reference image and the reference image.

(12)上記第1光学系は撮影の対象となる像を結像する撮像用の光学系であり、上記第2光学系は上記第1光学系と対を構成して三角測距の原理に基づき被写体までの距離を検出するためのオートフォーカス用の光学系であることを特徴とする上記(10)に記載の焦点検出装置。この態様によれば、撮影光学系を三角測距に兼用するのでパララックスが発生することがなく、任意の領域の被写体に正確に焦点を合わせることが可能となる。 (12) The first optical system is an imaging optical system that forms an image to be photographed, and the second optical system forms a pair with the first optical system and is based on the principle of triangulation. The focus detection apparatus according to (10), wherein the focus detection apparatus is an optical system for autofocus for detecting a distance to a subject. According to this aspect, since the photographing optical system is also used for triangulation, parallax does not occur, and it is possible to accurately focus on a subject in an arbitrary region.

(13)上記第1光学系は撮影倍率が可変自在であることを特徴とする上記(10)に記載の焦点検出装置。この態様によれば、撮影光学系の倍率が変化しても基準像に対応する参照像の位置を容易に検出することができるので、任意の領域の被写体に対して精度良く測距を行うことが可能となる。 (13) The focus detection apparatus according to (10), wherein the first optical system has a variable shooting magnification. According to this aspect, since the position of the reference image corresponding to the reference image can be easily detected even if the magnification of the photographing optical system changes, distance measurement can be performed with high accuracy for a subject in an arbitrary region. Is possible.

(14)上記参照像検索領域の中から基準像と一致する参照像を検出できないときは山登り方式に基づき上記撮影光学系のフォーカスレンズを合焦位置に駆動することを特徴とする上記(13)に記載の焦点検出装置。この態様によれば、撮影光学系とAF光学系のそれぞれの倍率が違いすぎるなどして三角測距が不能となっても山登り方式で焦点検出を行うのでピントがずれた撮影を行うおそれがない。 (14) When the reference image matching the reference image cannot be detected from the reference image search area, the focus lens of the photographing optical system is driven to the in-focus position based on the hill climbing method. The focus detection apparatus described in 1. According to this aspect, even if the respective magnifications of the photographing optical system and the AF optical system are different from each other, the focus detection is performed by the hill-climbing method even when the triangulation cannot be performed, so that there is no possibility of performing photographing out of focus. .

(15)第1光学系により結像される第1像を受ける第1撮像素子と、上記第1光学系と所定の基線長隔てて配置された第2光学系により結像される第2像を受ける第2撮像素子と、上記所定の距離に配置された被写体が結像する上記第1撮像素子と記第2撮像素子のそれぞれの撮像面上の座標位置、及び上記第1像と上記第2像のそれぞれ同一の像の領域の信号レベル又はその比を予め記憶する不揮発性メモリと、上記第1像の中に所定範囲の基準像の領域を設定する基準像領域設定手段と、上記不揮発性メモリに記録された座標位置を基に上記基準像と一致する像の存在する参照像検索領域を上記第2像の中に設定する参照像検索領域設定手段と、上記基準像と上記参照像検索領域の像のそれぞれの画像信号レベルを、上記不揮発性メモリに記憶された情報を基に補正する補正手段と、上記補正後の画像信号に基づいて、上記参照像検索領域の中から上記基準像と一致する参照像が存在する領域の上記第2光学系の光軸からの基線長方向の距離を演算する相関演算手段と、上記基準像の上記第1光学系の光軸からの基線長方向の距離、及び上記相関演算手段により求めた参照像が存在する領域の上記第2光学系の光軸からの基線長方向の距離に基づき被写体までの距離を検出する距離演算手段とを備えたことを特徴とする焦点検出装置。この態様によれば、基準像に対応する参照像の画像信号のレベルを合わせることができるので参照像検索領域の中から上記基準像と一致する参照像が存在する領域の上記第2光学系の光軸からの基線長方向の距離を相関演算により精度良く求めることができる。 (15) A first image sensor that receives a first image formed by the first optical system, and a second image that is formed by a second optical system that is disposed at a predetermined baseline length from the first optical system. A second imaging device that receives the image, a coordinate position on each imaging surface of the first imaging device and the second imaging device on which the subject arranged at the predetermined distance forms an image, and the first image and the first image A non-volatile memory for storing in advance the signal level or the ratio of the same image area of each of the two images; a reference image area setting means for setting a predetermined range of a reference image area in the first image; and the non-volatile memory Reference image search area setting means for setting, in the second image, a reference image search area in which an image matching the reference image exists based on the coordinate position recorded in the memory, the reference image and the reference image The image signal level of each image in the search area is Correction means for correcting based on information stored in the second optical system in a region where a reference image matching the reference image is present from the reference image search region based on the corrected image signal There is a correlation calculation means for calculating the distance in the baseline length direction from the optical axis, the distance in the baseline length direction from the optical axis of the first optical system of the reference image, and the reference image obtained by the correlation calculation means And a distance calculating means for detecting the distance to the subject based on the distance in the base line length direction from the optical axis of the second optical system of the area to be detected. According to this aspect, since the level of the image signal of the reference image corresponding to the reference image can be adjusted, the second optical system in the region where the reference image that matches the reference image exists in the reference image search region. The distance in the baseline length direction from the optical axis can be obtained with high accuracy by correlation calculation.

(16)上記第1光学系は撮影の対象となる像を結像する撮影光学系であり、上記第2光学系は上記第1光学系と対を構成して三角測距の原理に基づき被写体までの距離を検出するためのAF光学系であることを特徴とする上記(15)に記載の焦点検出装置。この態様によれば、撮影光学系を三角測距に兼用するのでパララックスが発生することがなく、任意の領域の被写体に正確に焦点を合わせることが可能となる。 (16) The first optical system is a photographing optical system that forms an image to be photographed, and the second optical system forms a pair with the first optical system based on the principle of triangulation. The focus detection apparatus according to (15) above, which is an AF optical system for detecting a distance up to According to this aspect, since the photographing optical system is also used for triangulation, parallax does not occur, and it is possible to accurately focus on a subject in an arbitrary region.

(17)上記第1光学系の光路中に絞り値を可変に設定可能な絞り設定手段を有し、焦点検出の前に上記絞りを予め決められた所定の絞り値に設定することを特徴とする上記(15)に記載の焦点検出装置。この態様によれば、絞り値毎の基準像と参照像の明るさの比を不揮発性メモリに記憶する必要がない。また、絞り値を所定の値に絞り込むことにより鮮明な基準像を得ることができ相関演算の精度を高めることができる。 (17) A diaphragm setting unit capable of variably setting a diaphragm value in the optical path of the first optical system, wherein the diaphragm is set to a predetermined diaphragm value before focus detection. The focus detection apparatus according to (15) above. According to this aspect, it is not necessary to store the brightness ratio of the reference image and the reference image for each aperture value in the nonvolatile memory. Further, by narrowing the aperture value to a predetermined value, a clear reference image can be obtained, and the accuracy of correlation calculation can be improved.

(18)被写体の像を記録するための撮像と焦点検出に兼用する第1光学系及び第1撮像素子と、上記第1光学系及び上記第1撮像素子と対を構成して、上記第1光学系の光軸と所定の基線長だけ隔てて配置された第2光学系及び第2撮像素子と、上記第1撮像素子の出力信号と上記第2の撮像素子の出力信号を基に三角測距の原理に基づき被写体までの距離を検出して、この検出結果に基づいて上記第1光学系を合焦位置に駆動する第1の焦点検出手段と、上記第1の撮像素子の出力信号の高周波成分が最大になるように上記第1光学系を合焦位置に駆動する第2の焦点検出手段と、上記第2光学系を通過する被写体の明るさを所定値と比較する比較手段と、上記比較手段により上記第2光学系を通過する被写体の明るさが所定値より明るいと判断したときは上記第1の焦点検出手段により優先的に焦点検出を行い、上記比較手段により上記第2光学系を通過する被写体の明るさが所定値より暗いと判断したときは、上記第2の焦点検出手段により優先的に焦点検出を行う制御手段とを備えたことを特徴とする撮像装置。この態様によれば、被写体の像を記録するための撮像用の撮像素子の出力信号と上記撮像素子と基線長だけ隔てて配置されたAF用の撮像素子の出力信号に基づいて、通常は三角測距の原理に基づいて迅速に被写体にピントを合わせることが可能であると共に上記AF用の撮像素子に導かれる被写体光が何らかの原因で遮られるなどした場合は、三角測距ができないことを検出して誤った焦点検出を未然に防止することができる。 (18) The first optical system and the first image sensor that are used for both imaging and focus detection for recording the image of the subject, and the first optical system and the first image sensor are configured as a pair, and the first Triangular measurement based on the second optical system and the second image sensor, which are arranged apart from the optical axis of the optical system by a predetermined baseline length, the output signal of the first image sensor and the output signal of the second image sensor. Based on the principle of distance, the distance to the subject is detected, and based on the detection result, the first focus detection means for driving the first optical system to the in-focus position, and the output signal of the first image sensor Second focus detection means for driving the first optical system to the in-focus position so as to maximize the high-frequency component; and comparison means for comparing the brightness of the subject passing through the second optical system with a predetermined value; The brightness of the subject passing through the second optical system is brighter than a predetermined value by the comparing means. When it is determined that the brightness of the subject passing through the second optical system is darker than a predetermined value by the comparison means, the focus detection is performed preferentially by the first focus detection means. An imaging apparatus comprising: control means for performing focus detection with priority by two focus detection means. According to this aspect, based on the output signal of the image pickup device for image pickup for recording the image of the subject and the output signal of the image pickup device for AF arranged by being separated from the image pickup device by the base line length, usually the triangle It is possible to quickly focus on the subject based on the principle of distance measurement, and detect that triangulation cannot be performed if the subject light guided to the AF image sensor is interrupted for some reason Thus, erroneous focus detection can be prevented in advance.

(19)上記比較手段は、上記第2光学系を通過する被写体の明るさと上記第1光学系を通過する被写体の明るさとを比較するものであることを特徴する上記(18)に記載の撮像装置。この態様によれば、撮影レンズである第1光学系により結像する被写体像が記録の対象とするものであるので、この被写体像と異なる被写体像に基づく焦点検出を防止することができる。 (19) The imaging device according to (18), wherein the comparison means compares the brightness of the subject passing through the second optical system with the brightness of the subject passing through the first optical system. apparatus. According to this aspect, since the subject image formed by the first optical system that is a photographing lens is a recording target, focus detection based on a subject image different from the subject image can be prevented.

(20)撮影に用いる第1の二次元撮像素子で撮像される第1画像と基線長方向がカメラの水平面と所定の角度をもって配置された第2の二次元撮像素子で撮像される第2画像に基づいて三角測距の原理に基づいて焦点を検出するカメラの焦点検出装置であって、上記第1画像の中に設定された参照像を基線長方向に所定ピッチずつずらしながら上記第2画像の中に設定された基準像と一致する上記参照像の位置を演算する相関量演算手段と、上記相関量演算手段の出力に基づき被写体までの距離を検出する距離演算手段とを備え、上記第1の二次元撮像素子の長辺方向を上記カメラの水平面と平行にし、上記第2の二次元撮像素子の長辺方向を上記基線長方向と一致させたことを特徴とするカメラの焦点検出装置。この態様によれば、被写体の任意の位置に簡単に高速に焦点を合わせることが可能である。 (20) A first image picked up by the first two-dimensional image pickup device used for shooting and a second image picked up by the second two-dimensional image pickup device in which the base line length direction is arranged at a predetermined angle with the horizontal plane of the camera A focus detection apparatus for a camera that detects a focus based on the principle of triangulation based on the second image, while shifting the reference image set in the first image by a predetermined pitch in the baseline length direction. Correlation amount calculating means for calculating the position of the reference image that matches the reference image set in the image, and distance calculating means for detecting the distance to the subject based on the output of the correlation amount calculating means. A focus detection apparatus for a camera, characterized in that a long side direction of one two-dimensional image sensor is made parallel to a horizontal plane of the camera, and a long side direction of the second two-dimensional image sensor is made to coincide with the base line length direction. . According to this aspect, it is possible to easily focus on an arbitrary position of the subject at high speed.

(21)上記第2の二次元撮像素子は、カメラの把持部よりも上面に配置されていることを特徴とする上記(20)に記載のカメラの焦点検出装置。この態様によれば、第2の二次元撮像素子に到達する被写体光束が遮られないので、確実に被写体の任意の位置に焦点を合わせることが可能である。 (21) The focus detection apparatus for a camera according to (20), wherein the second two-dimensional imaging element is disposed on an upper surface of the camera grip. According to this aspect, since the subject luminous flux reaching the second two-dimensional imaging element is not blocked, it is possible to focus on an arbitrary position of the subject reliably.

(22)上記基準像に対応する画像データのアドレスを上記基線長方向に回転変換する変換手段を更に有することを特徴とする上記(20)に記載のカメラの焦点検出装置。この態様によれば、被写体の任意の位置に簡単に高速に焦点を合わせることができる。 (22) The focus detection apparatus for a camera according to (20), further comprising conversion means for rotationally converting the address of the image data corresponding to the reference image in the baseline length direction. According to this aspect, it is possible to easily focus on an arbitrary position of the subject at high speed.

尚、第1の光学系とは撮影光学系等に相当し、第1の撮像素子とは撮像素子5等に相当し、第2の光学系とはAF光学系等に相当し、第2の撮像素子とは撮像素子104等に相当する。表示手段とはLCD10等に相当する。相関量演算手段、距離演算手段、相関演算手段とは、AF処理回路108及びそれを統括するCPU100等が機能的に備えるものである。絞り設定手段とは、CPU100,200,15等が機能的に備えるものである。そして、測距領域指示手段とは、測距領域選択回路113等に相当し、基準領域設定手段、参照領域設定手段、補正手段とは、CPU100又は200等が機能的に備えるものである。第1の焦点検出手段とはAF処理回路108及びそれを統括するCPU100等に相当し、第2の焦点検出手段とはAF処理回路14及びそれを統括するCPU15等に相当する。比較手段、制御手段とはCPU15及び/又はCPU100,200等に相当する。但し、これらの関係は一例であり、これらに限定されないことは勿論である。   The first optical system corresponds to an imaging optical system, the first imaging element corresponds to the imaging element 5, etc., the second optical system corresponds to an AF optical system, etc. The image sensor corresponds to the image sensor 104 or the like. The display means corresponds to the LCD 10 or the like. The correlation amount calculating means, the distance calculating means, and the correlation calculating means are functionally provided in the AF processing circuit 108 and the CPU 100 that controls the AF processing circuit 108. The aperture setting means is functionally provided by the CPUs 100, 200, 15 and the like. The distance measurement area instruction means corresponds to the distance measurement area selection circuit 113 and the like, and the reference area setting means, the reference area setting means, and the correction means are functionally provided in the CPU 100 or 200 or the like. The first focus detection means corresponds to the AF processing circuit 108 and the CPU 100 etc. that controls it, and the second focus detection means corresponds to the AF processing circuit 14 and the CPU 15 etc. that controls it. The comparison unit and the control unit correspond to the CPU 15 and / or the CPUs 100 and 200. However, these relationships are merely examples, and the present invention is not limited to these.

本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an imaging apparatus that employs a focus detection apparatus according to a first embodiment of the present invention. 図1のLCD10の表示画面上に、三角測距が可能な視野を示す指標201と測距領域を示す指標202を併せて表示した例を示す図。The figure which shows the example which displayed on the display screen of LCD10 of FIG. 1 the parameter | index 201 which shows the visual field which can perform a triangular distance measurement, and the parameter | index 202 which shows a distance measurement area | region together. 本発明の第1の実施の形態に係る焦点検出装置に関連する測距原理を説明するための概念図。The conceptual diagram for demonstrating the ranging principle relevant to the focus detection apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置の動作を詳細に説明するフローチャート。6 is a flowchart for explaining in detail the operation of the imaging apparatus employing the focus detection apparatus according to the first embodiment of the present invention. 、図4のステップS4で実行されるサブルーチン“三角測距AF”について詳細に説明するフローチャート。FIG. 5 is a flowchart for explaining in detail the subroutine “triangulation AF” executed in step S4 of FIG. (a)は第1測距領域の撮像素子5の画素の配列を示す図、(b)は第2測距領域の撮像素子104の画素の配列を示す図。(A) is a figure which shows the arrangement | sequence of the pixel of the image pick-up element 5 of a 1st ranging area, (b) is a figure which shows the arrangement | sequence of the pixel of the image pick-up element 104 of a 2nd ranging area. 参照部のデータ番号mと相関量A(m)との関係を示す図。The figure which shows the relationship between the data number m of a reference part, and correlation amount A (m). 本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置1の製造時にEEPROM25にデータを書き込むシステムの構成図。1 is a configuration diagram of a system that writes data to an EEPROM 25 when the imaging apparatus 1 employing the focus detection apparatus according to the first embodiment of the present invention is manufactured. 図8のシステムによる撮像装置1のEEPROM25への座標位置に係るデータの書き込み動作について説明するフローチャート。9 is a flowchart for explaining a data writing operation related to a coordinate position in the EEPROM 25 of the imaging apparatus 1 by the system of FIG. (a)は撮像素子5の画素サイズを示す図、(b)は撮像素子104の画素サイズを示す図。(A) is a figure which shows the pixel size of the image pick-up element 5, (b) is a figure which shows the pixel size of the image pick-up element 104. (a)乃至(c)は撮影光学系の視野とAF光学系の視野の関係を示す図。(A) thru | or (c) is a figure which shows the relationship between the visual field of an imaging optical system, and the visual field of AF optical system. 本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置1の製造時にEEPROM25にデータを書き込むシステムの構成図。1 is a configuration diagram of a system that writes data to an EEPROM 25 when the imaging apparatus 1 employing the focus detection apparatus according to the first embodiment of the present invention is manufactured. 図12のシステムによる撮像装置1のEEPROM25へのデータの書き込み動作の流れを説明するフローチャート。13 is a flowchart for explaining a flow of data writing operation to the EEPROM 25 of the imaging apparatus 1 by the system of FIG. 図5のステップS13で実行されるサブルーチン“ΔL1,ΔL2演算”について詳細に説明するフローチャート。6 is a flowchart for explaining in detail a subroutine “ΔL1, ΔL2 calculation” executed in step S13 of FIG. 本発明の第2の実施の形態に係る焦点検出装置を採用した撮像装置の構成例を示すブロック図。The block diagram which shows the structural example of the imaging device which employ | adopted the focus detection apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態によるサブルーチン“三角測距AF”の処理の流れを詳細に説明するフローチャート。The flowchart explaining in detail the flow of processing of a subroutine “triangulation AF” according to the second embodiment of the present invention. 本発明の第3の実施の形態に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明するフローチャート。10 is a flowchart for explaining in detail a main operation of an imaging apparatus employing a focus detection apparatus according to a third embodiment of the present invention. 横軸にフォーカスレンズ3の駆動位置を縦軸に時間を示した図。The horizontal axis represents the drive position of the focus lens 3 and the vertical axis represents time. 本発明の第4の実施の形態に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明するフローチャート。The flowchart explaining in detail the main operation | movement by the imaging device which employ | adopted the focus detection apparatus which concerns on the 4th Embodiment of this invention. 本発明の第5の実施の形態に係る焦点検出装置を採用した撮像装置としてのカメラの外観構成図。The external appearance block diagram of the camera as an imaging device which employ | adopted the focus detection apparatus which concerns on the 5th Embodiment of this invention. 撮像素子104の配置のみを基線長方向に傾け、撮像素子104の画素信号の読み出し方向を基線長方向に一致させた様子を示す図。FIG. 6 is a diagram illustrating a state in which only the arrangement of the image sensor 104 is tilted in the baseline length direction and the pixel signal readout direction of the image sensor 104 is made to coincide with the baseline length direction. 撮影光学系の結像位置に配置される撮像素子5とAF専用光学系203の結像位置に配置される撮像素子104の位置関係を示す図。The figure which shows the positional relationship of the image pick-up element 5 arrange | positioned in the image formation position of an imaging optical system, and the image pick-up element 104 arrange | positioned in the image formation position of the AF exclusive use optical system 203. アドレス変換原理図。Address conversion principle diagram. 図22をθ=30度回転した場合のアドレス変換原理図。FIG. 23 is a diagram illustrating an address conversion principle when FIG. 22 is rotated by θ = 30 degrees. 4点加重方式について説明するための概念図。The conceptual diagram for demonstrating a 4-point weighting system.

符号の説明Explanation of symbols

1・・・撮像装置、2・・・ズームレンズ、3・・・フォーカスレンズ、4・・・絞り、5・・・撮像素子、6・・・撮像回路、7・・・A/D変換器、8・・・メモリ、9・・・D/A変換器、10・・・LCD、11・・・圧縮/伸長回路、12・・・記録用メモリ、13・・・AE処理回路、14・・・AF処理回路、15・・・CPU、16・・・TG回路、17・・・CCDドライバ、18〜20・・・第1乃至第3のモータドライバ、21〜23・・・モータ、24・・・操作スイッチ、25・・・EEPROM、26・・・電池、100・・・CPU、101・・・ズームレンズ、102・・・フォーカスレンズ、103・・・絞り、104・・・撮像素子、105・・・撮像回路、106・・・A/D変換器、107・・・メモリ、108・・・AF処理回路、109・・・TG回路、110・・・CCDドライバ、111・・・モータドライバ、112・・・モータ、113・・・測距領域選択回路、200・・・CPU。   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Zoom lens, 3 ... Focus lens, 4 ... Diaphragm, 5 ... Imaging element, 6 ... Imaging circuit, 7 ... A / D converter 8 ... Memory, 9 ... D / A converter, 10 ... LCD, 11 ... Compression / decompression circuit, 12 ... Recording memory, 13 ... AE processing circuit, 14. ..AF processing circuit, 15 ... CPU, 16 ... TG circuit, 17 ... CCD driver, 18-20 ... first to third motor drivers, 21-23 ... motor, 24 ... Operation switch, 25 ... EEPROM, 26 ... Battery, 100 ... CPU, 101 ... Zoom lens, 102 ... Focus lens, 103 ... Aperture, 104 ... Image sensor 105 ... Imaging circuit 106 ... A / D converter 107 ... Mori, 108 ... AF processing circuit, 109 ... TG circuit, 110 ... CCD driver, 111 ... motor driver, 112 ... motor, 113 ... ranging area selection circuit, 200 ... CPU.

Claims (3)

撮影に用いる第1の二次元撮像素子で撮像される第1画像と、基線長方向がカメラの水平面と所定の角度をもって配置された第2の二次元撮像素子で撮像される第2画像に基づいて三角測距の原理に基づいて焦点を検出するカメラの焦点検出装置であって、
上記第1画像の中に設定された参照像を基線長方向に所定ピッチずつずらしながら、上記第2画像の中に設定された基準像と一致する上記参照像の位置を演算する相関量演算手段と、
上記相関量演算手段の出力に基づき被写体までの距離を検出する距離演算手段と、
を備え、上記第1の二次元撮像素子の長辺方向を上記カメラの水平面と平行にし、上記第2の二次元撮像素子の長辺方向を上記基線長方向と一致させたことを特徴とするカメラの焦点検出装置。
Based on the first image picked up by the first two-dimensional image pickup device used for shooting, and the second image picked up by the second two-dimensional image pickup device whose base line length direction is arranged at a predetermined angle with the horizontal plane of the camera. A focus detection device for a camera that detects the focus based on the principle of triangulation,
Correlation amount calculation means for calculating the position of the reference image that matches the reference image set in the second image while shifting the reference image set in the first image by a predetermined pitch in the baseline length direction. When,
Distance calculating means for detecting the distance to the subject based on the output of the correlation amount calculating means;
The long side direction of the first two-dimensional image sensor is made parallel to the horizontal plane of the camera, and the long side direction of the second two-dimensional image sensor is made to coincide with the baseline length direction. Camera focus detection device.
上記第2の二次元撮像素子は、カメラの把持部よりも上面に配置されていることを特徴とする請求項1に記載のカメラの焦点検出装置。   The camera focus detection apparatus according to claim 1, wherein the second two-dimensional image sensor is disposed on an upper surface of the camera grip. 上記基準像に対応する画像データのアドレスを上記基線長方向に回転変換する変換手段を更に有することを特徴とする請求項1に記載のカメラの焦点検出装置。   2. The camera focus detection apparatus according to claim 1, further comprising conversion means for rotationally converting an address of image data corresponding to the reference image in the base line length direction.
JP2003370247A 2003-10-30 2003-10-30 Focus detector of camera Withdrawn JP2005134621A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003370247A JP2005134621A (en) 2003-10-30 2003-10-30 Focus detector of camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003370247A JP2005134621A (en) 2003-10-30 2003-10-30 Focus detector of camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007321137A Division JP4558781B2 (en) 2007-12-12 2007-12-12 Camera focus detection device

Publications (1)

Publication Number Publication Date
JP2005134621A true JP2005134621A (en) 2005-05-26

Family

ID=34647322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003370247A Withdrawn JP2005134621A (en) 2003-10-30 2003-10-30 Focus detector of camera

Country Status (1)

Country Link
JP (1) JP2005134621A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036802A (en) * 2005-07-28 2007-02-08 Fujitsu Ltd Information processing apparatus, information processing method, and information processing program
JP2011248106A (en) * 2010-05-27 2011-12-08 Nikon Corp Imaging apparatus
JP2014215551A (en) * 2013-04-26 2014-11-17 キヤノン株式会社 Image-capturing device and control method therefor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036802A (en) * 2005-07-28 2007-02-08 Fujitsu Ltd Information processing apparatus, information processing method, and information processing program
JP4669340B2 (en) * 2005-07-28 2011-04-13 富士通株式会社 Information processing apparatus, information processing method, and information processing program
JP2011248106A (en) * 2010-05-27 2011-12-08 Nikon Corp Imaging apparatus
JP2014215551A (en) * 2013-04-26 2014-11-17 キヤノン株式会社 Image-capturing device and control method therefor

Similar Documents

Publication Publication Date Title
US8810713B2 (en) Image pickup apparatus and image pickup device for performing auto-focusing
JP4946059B2 (en) Imaging device
JP6029309B2 (en) Focus detection device
US10038849B2 (en) Imaging device with controlled timing of images to be synthesized based on shake residual
JP6405531B2 (en) Imaging device
JP3530906B2 (en) Imaging position detection program and camera
JP6326631B2 (en) Imaging device
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
JP4558781B2 (en) Camera focus detection device
JP2005134617A (en) Focus detector
WO2013069279A1 (en) Image capturing device
JP6590894B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2008122981A5 (en)
JP2005134621A (en) Focus detector of camera
JP2019087923A (en) Imaging apparatus, imaging method, and program
JP7233261B2 (en) Three-dimensional surveying device, imaging device, control method and program
JP2005134619A (en) Focus detector
JP2005134618A (en) Focus detector
JP2005134620A (en) Imaging apparatus
JP6590899B2 (en) Imaging apparatus, imaging method, and program
TWI639338B (en) Image capturing apparatus and image smooth zooming method thereof
JP2015200908A (en) imaging device
JP2005249432A (en) Projector device and distance measuring method
JP2020036091A (en) Imaging device and control method therefor, program, and storage medium
US20220232166A1 (en) Range measurement apparatus, storage medium and range measurement method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071016

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20071214