JP4558781B2 - Camera focus detection device - Google Patents

Camera focus detection device Download PDF

Info

Publication number
JP4558781B2
JP4558781B2 JP2007321137A JP2007321137A JP4558781B2 JP 4558781 B2 JP4558781 B2 JP 4558781B2 JP 2007321137 A JP2007321137 A JP 2007321137A JP 2007321137 A JP2007321137 A JP 2007321137A JP 4558781 B2 JP4558781 B2 JP 4558781B2
Authority
JP
Japan
Prior art keywords
image
optical system
imaging
cpu
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007321137A
Other languages
Japanese (ja)
Other versions
JP2008122981A (en
JP2008122981A5 (en
Inventor
正文 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2007321137A priority Critical patent/JP4558781B2/en
Publication of JP2008122981A publication Critical patent/JP2008122981A/en
Publication of JP2008122981A5 publication Critical patent/JP2008122981A5/ja
Application granted granted Critical
Publication of JP4558781B2 publication Critical patent/JP4558781B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、例えばデジタルカメラやビデオカメラ等に用いられるカメラの焦点検出装置に関するものである。   The present invention relates to a camera focus detection apparatus used for a digital camera or a video camera, for example.

従来、デジタルカメラやビデオカメラ等の撮像装置においては、撮像素子の出力信号の高周波成分が最大になる位置に撮影レンズを駆動して被写体にピントを合わせる、所謂山登り方式による焦点検出が広く採用されている。しかしながら、この方式は、撮影レンズを駆動しながら被写体にピントを合わせる方式である為、合焦状態に至るまでに比較的時間がかかるという問題がある。これに対して、三角測距方式や位相差方式による焦点検出は、被写体までの距離やピントのずれ量を求めることができる為、迅速な焦点検出が可能であり、特に速写性能が要求されるスチルカメラに向いた方式である。   Conventionally, in an imaging apparatus such as a digital camera or a video camera, focus detection by a so-called hill-climbing method, in which a photographing lens is driven to a position where the high-frequency component of an output signal of an imaging element is maximized to focus on a subject, has been widely adopted. ing. However, since this method focuses on the subject while driving the photographic lens, there is a problem that it takes a relatively long time to reach the in-focus state. On the other hand, the focus detection by the triangulation method or the phase difference method can obtain the distance to the subject and the amount of focus shift, so that it is possible to detect the focus quickly, and particularly high speed performance is required. This method is suitable for still cameras.

また、特許文献では、基線長離れた2つのレンズ系からそれぞれ入射する同一被写体からの反射光を受光する一対の固体撮像素子を設け、上記一対の固体撮像素子の撮像面に結像する一対の画像中の任意の位置を指定し、三角測量法を利用したアルゴリズムにより被写体の前記位置指定点までの距離を求めることができるデジタル電子スチルカメラに関する技術が開示されている。
特開平5−18748号公報
Further, in Patent Document 1 , a pair of solid-state imaging devices that receive reflected light from the same subject incident from two lens systems that are separated from each other by a base line length are provided, and a pair that forms an image on the imaging surface of the pair of solid-state imaging devices. A technique related to a digital electronic still camera is disclosed in which an arbitrary position in an image of the subject is designated and the distance to the position designated point of the subject can be obtained by an algorithm using a triangulation method.
Japanese Patent Laid-Open No. 5-18748

特許文献に記載の技術では、一対のレンズ系の基線方向が、カメラの底面とほぼ平行に配置されているため、カメラを把持したとき撮影レンズが指に触れる可能性がある。この問題を解決するために、一方のレンズ系(撮像と焦点検出に兼用する)を、従来の単レンズにより構成されるカメラと同じようにカメラ前面の中央寄りの位置に配置し、他方のレンズ系(焦点検出専用とする)を、カメラを把持したときに指の触れにくい、例えば斜め上方に配置したとする。この場合、上記斜め上方に配置したレンズ系の結像位置に配置した撮像素子も、カメラ前面の中央寄りの位置に配置した撮像素子と同様に、長辺方向がカメラの水平方向と一致するように配置すると、画素の並び方向と2つのレンズ系の基線方向が一致しないため、焦点検出のための信号処理が複雑になり処理に時間がかるという問題がある。 In the technique described in Patent Document 1 , since the baseline direction of the pair of lens systems is arranged substantially parallel to the bottom surface of the camera, there is a possibility that the photographing lens touches the finger when the camera is held. In order to solve this problem, one lens system (used for both imaging and focus detection) is arranged at a position near the center of the front of the camera in the same way as a camera constituted by a conventional single lens, and the other lens It is assumed that the system (dedicated to focus detection) is placed at an upper position, for example, obliquely above the finger when touching the camera. In this case, the image sensor arranged at the imaging position of the lens system arranged obliquely above also has the long side direction aligned with the horizontal direction of the camera, like the image sensor arranged near the center of the front surface of the camera. In this case, the pixel arrangement direction and the baseline direction of the two lens systems do not coincide with each other, so that the signal processing for focus detection becomes complicated and the processing takes time .

本発明は、簡単で高速処理が可能なカメラの焦点検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a camera focus detection device that is simple and capable of high-speed processing .

上記目的を達成するために、本発明では、撮影と焦点検出に兼用する第1光学系と、上記第1光学系の結像位置に配置され、長辺方向又は短辺方向がカメラの水平方向と一致するように配置された第1撮像素子と、上記第1光学系と所定の基線長隔てて配置された焦点検出用の第2光学系と、上記第2光学系の結像位置に配置され、長辺方向又は短辺方向が、上記第1撮像素子の長辺方向及び短辺方向と所定の角度をもって且つ該第2光学系と上記第1光学系の基線方向と一致するように配置された第2撮像素子と、上記第1撮像素子で撮像され第1画像を表す第1画像データと上記第2撮像素子で撮像され第2画像を表す第2画像データを基に、上記第1画像の一部の領域に設定された基準像上記第2画像のうち該基準像と一致する画像である参照像との間の、上記基線方向の相対的なずれ量を演算する相関量演算手段と、を備えたことを特徴とするカメラの焦点検出装置が提供される。 In order to achieve the above object, according to the present invention, the first optical system that is used for both photographing and focus detection is disposed at the imaging position of the first optical system, and the long side direction or the short side direction is the horizontal direction of the camera. match the arranged first imaging element to a second optical system for focus detection, which is spaced above the first optical system and a predetermined base line length, the imaging position of said second optical system Arranged such that the long side direction or the short side direction has a predetermined angle with the long side direction and the short side direction of the first image sensor and coincides with the baseline direction of the second optical system and the first optical system. the group and placed second imaging device, a first image data representing a first image captured by the first image sensor, a second image data representing a second image captured by the second image sensor the a reference image that has been set in the partial region of the first image, consistent with the reference image of the second image That between the reference image is an image, the focus detection device for a camera, characterized in that it and a correlation amount calculating means for calculating a relative deviation amount of the base line Direction is provided.

本発明によれば、焦点検出用の第2撮像素子は、基線方向が上記第1撮像素子の長辺方向及び短辺方向と所定の角度をもって配置されるので、カメラを把持するとき焦点検出光学系が手によって遮られる可能性が低くなる。また、焦点検出用の第2撮像素子は、その長辺方向が上記第1光学系と上記第2光学系の基線方向と一致するように配置されることにより、相関量演算手段による演算が簡単になる。 According to the present invention, the second imaging device for focus detection, since group line Direction is arranged with a long side direction and the short side direction at a predetermined angle of the first image pickup device, when gripping the camera The possibility that the focus detection optical system is blocked by the hand is reduced. The second image pickup element for focus detection by Rukoto the long side direction are arranged so as to coincide with the base line direction of the first optical system and the second optical system, easy operation by the correlation amount calculating means become.

本発明によれば、簡単で高速処理が可能なカメラの焦点検出装置を提供することができる。 According to the present invention, it is possible to provide a camera focus detection device that is simple and capable of high-speed processing .

以下、図面を参照して、本発明の実施の形態及び本発明に関連する技術について説明する。   Hereinafter, embodiments of the present invention and techniques related to the present invention will be described with reference to the drawings.

[第1の技術]
図1には、本発明に関連する第1の技術に係る焦点検出装置を採用した撮像装置の構成例を示し説明する。図1に示されるように、撮像装置1は、撮影光学系としての、ズームレンズ2及びフォーカスレンズ3を有している。光線は、これらレンズ2,3、絞り4を通過して、CCD等の撮像素子5の受光面に結像される。この撮像素子5で光電変換された信号は、撮像回路6に入力され、当該撮像回路6により映像信号が生成される。そして、この映像信号は、A/D変換器7によってデジタルの映像信号(画像データ)に変換され、メモリ8に一時的に記憶される。メモリ8に格納された画像データは、所定の画面レート(例えば1/30秒)で読み出され、D/A変換器9でアナログの映像信号に変換される。液晶表示素子(以下、LCDと略記する)10では、このアナログの映像信号に基づく被写体像の表示がなされる。
[First technology]
FIG. 1 shows and describes a configuration example of an imaging apparatus that employs a focus detection apparatus according to a first technique related to the present invention. As shown in FIG. 1, the imaging apparatus 1 includes a zoom lens 2 and a focus lens 3 as a photographing optical system. The light beam passes through the lenses 2 and 3 and the diaphragm 4 and forms an image on the light receiving surface of the image sensor 5 such as a CCD. A signal photoelectrically converted by the image pickup device 5 is input to the image pickup circuit 6, and a video signal is generated by the image pickup circuit 6. The video signal is converted into a digital video signal (image data) by the A / D converter 7 and temporarily stored in the memory 8. The image data stored in the memory 8 is read out at a predetermined screen rate (for example, 1/30 second) and converted into an analog video signal by the D / A converter 9. A liquid crystal display element (hereinafter abbreviated as LCD) 10 displays a subject image based on the analog video signal.

操作スイッチ(以下、操作SWと略記する)24に含まれるレリーズスイッチを操作して記録操作を行った場合には、メモリ8の画像データは圧縮/伸張回路11の圧縮回路で圧縮された後、記録用メモリ12に記憶される。また、再生操作が行われた場合には、記録用メモリ12に圧縮されて記憶されたデータは、圧縮/伸張回路11の伸張回路で伸張された後、メモリ8に一時的に記憶され、D/A変換器9でアナログの映像信号に変換される。LCD10では、このアナログの映像信号に基づく再生画像の表示がなされる。   When a recording operation is performed by operating a release switch included in an operation switch (hereinafter abbreviated as operation SW) 24, the image data in the memory 8 is compressed by the compression circuit of the compression / expansion circuit 11; Stored in the recording memory 12. When a reproduction operation is performed, the data compressed and stored in the recording memory 12 is decompressed by the decompression circuit of the compression / expansion circuit 11 and then temporarily stored in the memory 8. / A converter 9 converts it to an analog video signal. On the LCD 10, a reproduced image is displayed based on the analog video signal.

ここで、LCD10では、その表示画面上に、三角測距が可能な視野を示す指標201と測距領域を示す指標202を併せて表示する(図2参照)。即ち、LCD10では、撮影光学系のズームレンズ2のズーム値に応じて変化する三角測距可能な視野を示す指標201を、CCD5で撮像された画像と重ねて表示することができるので、当該指標201により、三角測距可能な領域を容易に確認することができる。仮に、操作SW24等の操作により、三角測距が可能な視野を示す指標201の外(測距が不能な領域)に、測距領域が指示された場合には、所謂山登り方式に基づきAFがなされる。   Here, the LCD 10 displays an index 201 indicating a visual field capable of triangulation and an index 202 indicating a distance measurement area on the display screen (see FIG. 2). That is, the LCD 10 can display the index 201 indicating the field of view that can be measured by the triangulation that changes according to the zoom value of the zoom lens 2 of the photographing optical system, so as to overlap the image captured by the CCD 5. By 201, it is possible to easily confirm an area where triangulation is possible. If the distance measurement area is instructed by the operation of the operation SW 24 or the like outside the index 201 indicating the field of view capable of triangulation (area where distance measurement is impossible), AF is performed based on the so-called hill-climbing method. Made.

A/D変換器7によってA/D変換された画像データは、オート露出処理回路(以下、AE処理回路と略記する)13とオートフォーカス処理回路(以下、AF処理回路と略記する)14に入力される。AE処理回路13は、1フレーム(1画面)分の画像データの輝度値を算出する等して被写体の明るさに対応したAE評価値を算出し、CPU15に出力する。また、AF処理回路14は、1フレーム(1画面)分の画像データの輝度成分に高周波成分をハイパスフィルタ等で抽出して、累積加算値を算出する等して高域側の輪郭成分等に対応したAF評価値を算出し、CPU15に出力する。   Image data A / D converted by the A / D converter 7 is input to an auto exposure processing circuit (hereinafter abbreviated as AE processing circuit) 13 and an autofocus processing circuit (hereinafter abbreviated as AF processing circuit) 14. Is done. The AE processing circuit 13 calculates an AE evaluation value corresponding to the brightness of the subject by calculating a luminance value of image data for one frame (one screen), and outputs it to the CPU 15. Further, the AF processing circuit 14 extracts a high frequency component from a luminance component of image data for one frame (one screen) with a high-pass filter or the like, calculates a cumulative addition value, etc., and converts it into a high frequency side contour component or the like. A corresponding AF evaluation value is calculated and output to the CPU 15.

一方、撮影光学系の光軸と基線長Lだけ隔てて配置されたオートフォーカス専用の光学系(以下、AF光学系と称する)であるフォーカスレンズ102を経た光線は、絞り103を通過して、CCD等の撮像素子104に被写体像を結ぶ。この撮像素子104で光電変換された信号は撮像回路105に入力され、当該撮像回路105により、映像信号が生成される。そして、この映像信号は、A/D変換器106によってデジタルの映像信号(画像データ)に変換され、メモリ107に一時的に格納される。   On the other hand, a light beam that has passed through a focus lens 102 that is an optical system dedicated to autofocus (hereinafter referred to as an AF optical system) that is disposed apart from the optical axis of the imaging optical system by a base line length L passes through a diaphragm 103, A subject image is connected to an image sensor 104 such as a CCD. A signal photoelectrically converted by the imaging element 104 is input to the imaging circuit 105, and a video signal is generated by the imaging circuit 105. The video signal is converted into a digital video signal (image data) by the A / D converter 106 and temporarily stored in the memory 107.

AF処理回路108では、上記撮影光学系に基づき得られ上記メモリ8に記憶されている画像データと、上記AF光学系に基づき得られ上記メモリ107に記憶されている画像データを用いて、所謂三角測距の原理に基づき測距領域選択回路113により選択された被写体までの距離を求める。この測距領域選択回路113は、カメラの操作者により手動で選択するものでも、公知の視線検出装置により選択するものでもよい。上記三角測距の原理に基づき得られた被写体距離情報を基に撮影光学系のフォーカスレンズ102を合焦位置に駆動した後、被写体に対する合焦精度を高める為に必要に応じて又は毎回のフォーカスレンズ102の合焦駆動の度に、最終的なピント位置の調整を所謂山登り方式により行う。この為に、AF処理回路108は、1フレーム(1画面)分の画像データの輝度成分における高周波成分をハイパスフィルタ等で抽出して、累積加算値を算出する等して高域側の輪郭成分量等に対応したAF評価値を算出し、CPU100に出力する。   The AF processing circuit 108 uses a so-called triangle using image data obtained based on the photographing optical system and stored in the memory 8 and image data obtained based on the AF optical system and stored in the memory 107. Based on the principle of distance measurement, the distance to the subject selected by the distance measurement area selection circuit 113 is obtained. The ranging area selection circuit 113 may be manually selected by a camera operator or selected by a known visual line detection device. After driving the focus lens 102 of the photographic optical system to the in-focus position based on the object distance information obtained based on the principle of triangulation, the focus is adjusted as necessary or every time in order to increase the accuracy of focusing on the object. Every time the lens 102 is driven to focus, the final focus position adjustment is performed by a so-called hill-climbing method. For this purpose, the AF processing circuit 108 extracts a high-frequency component in the luminance component of image data for one frame (one screen) with a high-pass filter or the like, calculates a cumulative added value, and the like, thereby calculating a high-frequency side contour component. An AF evaluation value corresponding to the amount or the like is calculated and output to the CPU 100.

CPU100には、タイミングジェネレータ(以下、TG回路と略記する)109から画面レートに同期した所定のタイミング信号が入力される。CPU100は、このタイミング信号に同期して、各種の制御動作を行う。また、このTG回路109のタイミング信号は、撮像回路105にも入力される。また、TG回路109は、所定のタイミングでCCD104を駆動するように、CCDドライバ110を制御する。   A predetermined timing signal synchronized with the screen rate is input to the CPU 100 from a timing generator (hereinafter abbreviated as TG circuit) 109. The CPU 100 performs various control operations in synchronization with this timing signal. The timing signal of the TG circuit 109 is also input to the imaging circuit 105. Further, the TG circuit 109 controls the CCD driver 110 so as to drive the CCD 104 at a predetermined timing.

CPU15には、TG回路16から画面レートに同期した所定のタイミング信号が入力される。CPU15は、このタイミング信号に同期して、各種の制御動作を行う。このTG回路16のタイミング信号は、撮像回路6にも入力される。撮像回路6は、このタイミング信号に同期して、色信号の分離等の各種処理を行う。また、このTG回路16は、所定のタイミングでCCD5を駆動するようにCCDドライバ17を制御する。   A predetermined timing signal synchronized with the screen rate is input from the TG circuit 16 to the CPU 15. The CPU 15 performs various control operations in synchronization with this timing signal. The timing signal of the TG circuit 16 is also input to the imaging circuit 6. The imaging circuit 6 performs various processes such as color signal separation in synchronization with the timing signal. The TG circuit 16 controls the CCD driver 17 so as to drive the CCD 5 at a predetermined timing.

CPU15は、第1乃至第3のモータドライブ回路18乃至20のそれぞれを制御することで、第1乃至第3のモータ21乃至23を介して、絞り4、フォーカスレンズ3、ズームレンズ2の駆動を制御する。つまり、CPU15は、AE評価値を基に、第1のモータドライブ回路18を制御して、第1のモータ21を回転駆動して、絞り4の絞り量を適正な値に調整する、即ちオート露出制御を行う。   The CPU 15 controls the first to third motor drive circuits 18 to 20 to drive the diaphragm 4, the focus lens 3, and the zoom lens 2 via the first to third motors 21 to 23. Control. That is, the CPU 15 controls the first motor drive circuit 18 on the basis of the AE evaluation value and rotationally drives the first motor 21 to adjust the aperture amount of the aperture 4 to an appropriate value, that is, auto Perform exposure control.

また、CPU15は、CPU100と接続され、当該CPU100から三角測距の原理に基づく距離データを受信して、この距離データに基づき、第2のモータドライブ回路19を制御して第2のモータ22を回転駆動して、フォーカスレンズ3を駆動して、合焦状態に設定する。しかしながら、一般的には、撮像素子5のコントラストが最大になる位置にフォーカスレンズ3を駆動する山登り方式に基づき制御した方が精度が向上する。そこで、上記三角測距の原理に基づきフォーカスレンズを駆動した後に、必要に応じて、AF評価値を基に、第2のモータドライブ回路19を制御して第2のモータ22を回転駆動して、AF処理回路14からのAF評価値を得る。そして、こうして得られたAF評価値に基づき、CPU15は、そのAF評価値が最大となるレンズ位置にフォーカスレンズ3を駆動して、合焦状態に設定する、即ちオートフォーカスを行う。   The CPU 15 is connected to the CPU 100, receives distance data based on the principle of triangulation from the CPU 100, and controls the second motor drive circuit 19 to control the second motor 22 based on the distance data. The focus lens 3 is driven by rotation to set the focus state. However, in general, the accuracy is improved when the control is performed based on the hill-climbing method in which the focus lens 3 is driven to the position where the contrast of the image sensor 5 is maximized. Therefore, after driving the focus lens based on the principle of triangulation, the second motor drive circuit 19 is controlled to rotate and drive the second motor 22 based on the AF evaluation value as necessary. The AF evaluation value from the AF processing circuit 14 is obtained. Then, based on the AF evaluation value obtained in this way, the CPU 15 drives the focus lens 3 to the lens position where the AF evaluation value is maximized to set the focus state, that is, performs autofocus.

但し、上記山登り方式の制御には比較的時間がかかるので、上記山登り方式に基づくフォーカスレンズ3の駆動は省略してもよいことは勿論である。   However, since it takes a relatively long time to control the hill-climbing method, it goes without saying that the driving of the focus lens 3 based on the hill-climbing method may be omitted.

また、CPU15には、例えば電気的に書換可能で不揮発性の読み出し専用メモリとしてのEEPROM25が接続されており、このEEPROM25にはCPU15を介して各種の制御等を行うプログラムや、各種の動作を行うのに使用されるデータや、後述する撮像素子5と撮像素子104の結像位置の関係を知るための情報や、撮像素子5と撮像素子104の撮像面の明るさを補正する為の情報等が格納されている。これら情報は、撮像装置1の電源がONされた場合等に読み出されて使用される。尚、CPU15は、電池26の電圧を検出して、所定の電圧値以下になった事を検出した場合、電池26の残量が少ない旨の表示や電池の充電或いは交換等を促す表示をLCD10にて行う。   The CPU 15 is connected with, for example, an electrically rewritable and nonvolatile read-only memory EEPROM 25, and the EEPROM 25 performs various controls and various operations via the CPU 15. Data used for image processing, information for knowing the relationship between the imaging positions of the image sensor 5 and the image sensor 104 described later, information for correcting the brightness of the imaging surface of the image sensor 5 and the image sensor 104, etc. Is stored. These pieces of information are read and used when the power of the imaging device 1 is turned on. Note that when the CPU 15 detects the voltage of the battery 26 and detects that the voltage is lower than a predetermined voltage value, the CPU 15 displays a display indicating that the remaining amount of the battery 26 is low and a display prompting charging or replacement of the battery. To do.

尚、撮像素子104の撮像面サイズは撮像素子5の撮像面サイズに比べて小さくてもよく、撮像素子104の画素数は撮像素子5の画素数に比べて少なくてもよい。これによれば、AF用に安価な撮像素子を用いることができるので、コストが安くなる。   Note that the image pickup surface size of the image pickup element 104 may be smaller than the image pickup surface size of the image pickup element 5, and the number of pixels of the image pickup element 104 may be smaller than the number of pixels of the image pickup element 5. According to this, since an inexpensive image sensor can be used for AF, the cost is reduced.

また、撮影光学系を三角測距に兼用するのでパララックスが発生することがなく、任意の領域の被写体に正確に焦点を合わせることができる。   Further, since the photographing optical system is also used for triangulation, parallax does not occur, and a subject in an arbitrary region can be accurately focused.

ここで、図3を参照して、本第1の技術に係る焦点検出装置に関連する測距原理を説明する。これは、後述する他の本発明に関連する技術及び実施の形態にも共通する。   Here, the principle of distance measurement related to the focus detection apparatus according to the first technology will be described with reference to FIG. This is common to other technologies and embodiments related to the present invention described later.

図3において、撮影光学系M1とAF光学系M2は、基線Lだけ隔てて配設されている。撮影光学系M1の撮像素子5に対する焦点距離はf1、AF光学系M2の撮像素子104に対する焦点距離はf2である。更に、被写体Oの像の撮影光学系M1の光軸からのずれはΔL1であり、AF光学系の光軸からのずれはΔL2であり、被写体Oまでの距離はRである。このような場合、次式(1)が成立する。 In FIG. 3, the photographing optical system M1 and the AF optical system M2 are disposed apart from each other by the base line length L. The focal length of the imaging optical system M1 with respect to the imaging device 5 is f1, and the focal length of the AF optical system M2 with respect to the imaging device 104 is f2. Further, the deviation of the image of the subject O from the optical axis of the photographing optical system M1 is ΔL1, the deviation from the optical axis of the AF optical system is ΔL2, and the distance to the subject O is R. In such a case, the following equation (1) is established.

R/L1=f1/ΔL1
R/L2=f2/ΔL2
L=L1+L2
L/R=(1/f1)・(ΔL1+(f1/f2)・ΔL2) ・・・(1)
即ち、この(1)式より、像Oの撮影光学系M1の光軸からのずれΔL1及びAF光学系M2の光軸からのずれΔL2、上記両光学系M1,M2の焦点距離f1,f2、及び基線長Lが定まれば、被写体までの距離Rが求まることが分かる。
R / L1 = f1 / ΔL1
R / L2 = f2 / ΔL2
L = L1 + L2
L / R = (1 / f1) · (ΔL1 + (f1 / f2) · ΔL2) (1)
That is, from this equation (1), the deviation ΔL1 of the image O from the optical axis of the photographing optical system M1 and the deviation ΔL2 from the optical axis of the AF optical system M2, the focal lengths f1, f2 of the two optical systems M1, M2, If the base line length L is determined, the distance R to the subject can be found.

以下、図4のフローチャートを参照して、本第1の技術に係る焦点検出装置を採用した撮像装置の動作を詳細に説明する。   Hereinafter, the operation of the imaging apparatus employing the focus detection apparatus according to the first technique will be described in detail with reference to the flowchart of FIG.

操作SW24に含まれるパワースイッチがオンされ、電源投入されると、CPU15やCPU100がパワーオンリセットされ、本動作に入ることとなる。   When the power switch included in the operation SW 24 is turned on and the power is turned on, the CPU 15 and the CPU 100 are reset to power on, and this operation is started.

先ず、AE処理回路13は、1フレーム(1画面)分の画像データの輝度値を算出する等して被写体の明るさに対応したAE評価値を算出し、当該AE評価値をCPU15に出力する(ステップS1)。続いて、CPU15は、操作SW24に含まれるレリーズスイッチの初段の第1のレリーズ(以下、1stレリーズと称する)が行われたかどうかを判断し、それが行われるのを待つ待機状態となる(ステップS2)。   First, the AE processing circuit 13 calculates an AE evaluation value corresponding to the brightness of the subject by calculating a luminance value of image data for one frame (one screen), and outputs the AE evaluation value to the CPU 15. (Step S1). Subsequently, the CPU 15 determines whether or not the first release (hereinafter referred to as 1st release) of the release switch included in the operation SW 24 has been performed, and enters a standby state waiting for the release (step 1). S2).

このステップS2で1stレリーズが行われていれば、CPU100は、測距領域選択回路113により選択された測距領域の位置を読み込む(ステップS3)。   If the first release is performed in step S2, the CPU 100 reads the position of the distance measurement area selected by the distance measurement area selection circuit 113 (step S3).

次いで、CPU100は、サブルーチン“三角測距AF”をコールし、三角測距の原理に基づき被写体までの距離を求める(ステップS4)。尚、このサブルーチン“三角測距AF”による三角測距の動作については、図5を参照して後述する。   Next, the CPU 100 calls a subroutine “triangulation ranging AF” and obtains the distance to the subject based on the principle of triangulation (step S4). The operation of triangulation by this subroutine “triangulation AF” will be described later with reference to FIG.

このステップS4で被写体までの距離が求まると、CPU15は、この被写体までの距離に基づいてフォーカスレンズ3を合焦位置まで駆動する(ステップS5)。   When the distance to the subject is obtained in step S4, the CPU 15 drives the focus lens 3 to the in-focus position based on the distance to the subject (step S5).

続いて、CPU15は、1stレリーズが解除されたかどうかを判断し、それが行われるのを待つ待機状態となる(ステップS6)。1stレリーズ解除されたならば、CPU15は、操作SW24に含まれるレリーズスイッチの次段の第2のレリーズ(以下、2ndレリーズと称する)が行われたかどうかを判断し(ステップS7)、2ndレリーズが行われてなければJ1に分岐する。一方、上記ステップS7で、2ndレリーズが行われていれば、次にCPU15はAE評価値を基にオート露出制御を行い(ステップS8)、こうして一連の撮影動作を終了する。   Subsequently, the CPU 15 determines whether or not the first release has been released, and enters a standby state for waiting for the release (step S6). If the first release has been released, the CPU 15 determines whether or not the second release (hereinafter referred to as the second release) of the release switch included in the operation SW 24 has been performed (step S7). If not, branch to J1. On the other hand, if the second release has been performed in step S7, the CPU 15 next performs auto exposure control based on the AE evaluation value (step S8), thus ending a series of photographing operations.

次に、図5のフローチャートを参照して、図4のステップS4で実行されるサブルーチン“三角測距AF”について詳細に説明する。   Next, the subroutine “triangulation AF” executed in step S4 of FIG. 4 will be described in detail with reference to the flowchart of FIG.

撮影光学系のフォーカスレンズ3の位置が合焦位置から大きくはずれていると、絞り開口が大きくなるほど像がボケるため正確にズレ量を求めるのが難しくなる。   If the position of the focus lens 3 of the photographic optical system is greatly deviated from the in-focus position, the larger the aperture opening, the more blurred the image, making it difficult to accurately determine the amount of deviation.

この為に、CPU15は、ズレ量の演算に先立ち、撮影光学系の絞り4を予め決めた所定の値に絞り込む(ステップS11)。撮影レンズが合焦位置から大きく外れていても、比較的鮮明な画像が結像されるので、正確にズレ量を求める上で効果的である。   For this purpose, the CPU 15 narrows down the diaphragm 4 of the photographing optical system to a predetermined value prior to the calculation of the shift amount (step S11). Even if the photographic lens is greatly deviated from the in-focus position, a relatively clear image is formed, which is effective in accurately obtaining the amount of deviation.

また、撮影光学系の絞り値は、AF光学系の絞り103と等しいことが望ましい。   Further, it is desirable that the aperture value of the photographing optical system is equal to that of the aperture 103 of the AF optical system.

これは、撮影光学系により結像される像とAF光学系により結像される像のぼけと照度分布を等しくして、ズレ量を正確に求める為である。すなわち、このように撮影光学系の絞り値を設定すれば、撮影光学系により結像される像とAF光学系に結像される像のぼけと照度分布が近似するので、正確にズレ量を求める上で効果的である。   This is because the blur and illuminance distribution of the image formed by the photographing optical system and the image formed by the AF optical system are made equal to obtain the amount of deviation accurately. That is, if the aperture value of the photographic optical system is set in this way, the blur and illuminance distribution of the image formed by the photographic optical system and the image formed by the AF optical system are approximated. It is effective in seeking.

次いで、CPU15,100は、AE処理回路13で求めたAE評価値を基に撮像素子5と撮像素子104の露光を行い、画像データを取得する(ステップS12)。   Next, the CPUs 15 and 100 perform exposure of the image sensor 5 and the image sensor 104 based on the AE evaluation value obtained by the AE processing circuit 13, and acquire image data (step S12).

そして、CPU100は、サブルーチン“ΔL1,ΔL2演算”により、撮影光学系により結像された測距領域の画像の撮影光学系の光軸中心からのズレであるΔL1と、AF光学系に結像された上記測距領域の画像に対応する画像のAF光学系の光軸中心からのズレであるΔL2を演算するようにAF処理回路108を制御する(ステップS13)。このサブルーチン“ΔL1,ΔL2演算”については、図14を参照して後に詳述する。こうして、CPU100は、上記(1)式(図3参照)に基づいて被写体までの距離Rを演算し(ステップS14)、このサブルーチン“三角測距AF”からリターンする。   Then, the CPU 100 forms an image on the AF optical system by ΔL1, which is a deviation from the optical axis center of the imaging optical system of the image of the distance measuring area imaged by the imaging optical system, by the subroutine “ΔL1, ΔL2 calculation”. The AF processing circuit 108 is controlled so as to calculate ΔL2 which is a deviation from the center of the optical axis of the AF optical system of the image corresponding to the image in the distance measuring area (step S13). This subroutine “ΔL1, ΔL2 calculation” will be described in detail later with reference to FIG. Thus, the CPU 100 calculates the distance R to the subject based on the above equation (1) (see FIG. 3) (step S14), and returns from this subroutine “triangulation ranging AF”.

ここで、図6,7を参照して、像のズレ量を求める相関演算の原理について説明する。   Here, with reference to FIGS. 6 and 7, the principle of the correlation calculation for obtaining the image shift amount will be described.

先ず、図6(a)は、測距領域選択回路113によって選択された第1測距領域の撮像素子5の画素の配列を示す。1つの画素のサイズはH1×W1とする。この第1測距領域内の所定範囲P1の像を基準像とする。この基準像の重心位置から撮影光学系の光軸までの距離をΔL1とする。そして、上記基準像の撮影光学系の光軸から基線方向にi番目の画素の出力をS(i)とする。 First, FIG. 6A shows an array of pixels of the image sensor 5 in the first distance measurement area selected by the distance measurement area selection circuit 113. The size of one pixel is H1 × W1. An image in a predetermined range P1 in the first distance measurement area is set as a reference image. The distance from the position of the center of gravity of the reference image to the optical axis of the photographing optical system is denoted by ΔL1. Then, the output of the i-th pixel to S (i) based on line Direction from the optical axis of the imaging optical system of the reference image.

一方、図6(b)は、上記第1測距領域に対応するAF光学系によって結像される像の第2測距領域の画素の配列を示す。1つの画素のサイズはH2×W2とする。この第2測距領域の中に上記基準像と同じ画素数からなる参照像P2を設定し、この参照像のAF光学系の中心から基線方向にj番目の出力をC(j)とする。 On the other hand, FIG. 6B shows an arrangement of pixels in the second distance measuring area of an image formed by the AF optical system corresponding to the first distance measuring area. The size of one pixel is H2 × W2. Set a reference image P2 having the same number of pixels as the reference image in the second ranging area, the j-th output from the center of the AF optical system of the reference image based on line Direction and C (j) To do.

そして、対応する画素の出力の差の絶対値の和をとり、これをA(m)とし、相関量とする。この場合、次式(2)が成立する。

Figure 0004558781
And the sum of the absolute value of the difference of the output of a corresponding pixel is taken, this is set to A (m), and it is set as a correlation amount. In this case, the following expression (2) is established.
Figure 0004558781

ここで、iとは基準部の最初の画素の番号であり、jは参照部の最初の画素の番号である。また、kは基準部及び参照部の最初の画素から数えてk番目の画素を意味する。   Here, i is the number of the first pixel in the reference portion, and j is the number of the first pixel in the reference portion. Further, k means the kth pixel counted from the first pixel of the standard part and the reference part.

参照部はj+nに、更に左右に±m程度の余裕を見込む。   The reference portion expects a margin of about ± m on the left and right in j + n.

ここで、参照部のデータに付いているmはCPU15の内部で、基準部のデータ番号は固定し、参照部のデータ番号を1個ずつ送っていく操作の為に付けられている。   Here, m attached to the data of the reference part is attached to the CPU 15 for the operation of fixing the data number of the reference part and sending the data number of the reference part one by one.

そして、mを順次1からpまで変えながら上記相関量A(m)を求め、当該相関量A(m)が最小値をとるとき基準部と参照部の像が一致するものとして、基準部と参照部の像の相対的な距離を求める。尚、上記相関量A(m)は最小1画素毎の値である為、基準部と参照部の像の相対的な距離の精度も1画素が限界となる。   Then, the correlation amount A (m) is obtained while sequentially changing m from 1 to p, and when the correlation amount A (m) takes the minimum value, the images of the reference portion and the reference portion coincide with each other. The relative distance of the image of the reference part is obtained. Since the correlation amount A (m) is a value for each minimum pixel, the accuracy of the relative distance between the image of the reference portion and the reference portion is limited to one pixel.

そこで、図7に示すように、相関量A(m)が最小値をとる前後の相関量の幾何学的な関係から補間により1画素ピッチ以下の高い精度の相対的な距離を求める。この補間によると、経験的に1/10画素以下の高い精度で基準部と参照部の像の相対的な距離を求めることが可能である。尚、この補間演算自体は公知のものであるが、以下、簡単に説明すると、図7において、相関量A(m)の3番目に小さな値A(1)と最小値A(2)を直線で結び、この直線と水平線のなす角度θが、相関量A(m)の2番目に小さな値A(3)を通る直線と上記水平線となす角度θと等しくなるようにしたとき、上記2つの直線の交差する点のズレ量mを求めるものである。   Therefore, as shown in FIG. 7, a relative distance with high accuracy of one pixel pitch or less is obtained by interpolation from the geometric relationship of the correlation amount before and after the correlation amount A (m) takes the minimum value. According to this interpolation, it is possible to empirically determine the relative distance between the image of the reference portion and the reference portion with a high accuracy of 1/10 pixel or less. This interpolation calculation itself is known, but will be briefly described below. In FIG. 7, the third smallest value A (1) and the minimum value A (2) of the correlation amount A (m) are represented by a straight line. When the angle θ between the straight line and the horizontal line is made equal to the angle θ between the straight line passing through the second smallest value A (3) of the correlation amount A (m) and the horizontal line, the above two The amount of deviation m of the points where the straight lines intersect is obtained.

ところで、本第1の技術において、基準像と参照像とで相関演算を行い精度の高いズレ量を求めるためには、以下の「第1乃至第3の条件」を満たす必要がある。   By the way, in the first technique, it is necessary to satisfy the following “first to third conditions” in order to perform correlation calculation between the standard image and the reference image and obtain a highly accurate deviation amount.

これは、他の本発明に関連する技術及び実施の形態についても共通する考え方である。   This is the same concept for other technologies and embodiments related to the present invention.

より詳細には、「第1の条件」とは、基準像の基線方向の中心線を被写体上に投影したラインと参照像の基線方向の中心線を被写体上に投影したラインとが一致することである。そして、「第2の条件」とは、単位画素の光電変換部に投影される被写体面上の面積及び形状が同じであることである。更に、「第3の条件」とは、同一被写体に対応する画像データのレベルが同じであることである。以下、これら第1乃至第3の条件を満たす為の具体的解決手段について更に詳細に述べる。 More specifically, the "first condition", and line the center line baseline direction of the center line of the base line Direction reference image and the projected line on the object of the reference image is projected onto the object matches It is to be. The “second condition” is that the area and shape on the subject surface projected onto the photoelectric conversion unit of the unit pixel are the same. Furthermore, the “third condition” is that the levels of image data corresponding to the same subject are the same. Hereinafter, specific means for satisfying these first to third conditions will be described in more detail.

(第1の条件)
第1の条件を満たすための具体的解決手段について説明する。
(First condition)
Specific means for satisfying the first condition will be described.

撮影光学系の光軸上の無限大の位置にスポット光(光源)を配置する。撮影光学系の焦点距離と絞り値をそれぞれf1、F1の値に設定し、このときの撮像素子5の画素データを読み出して上記スポット光が撮像素子5の撮像面に結像する座標位置P1(Px1,Py1)を検出する。同様に、撮像素子104の画素データを読み出して上記スポット光が撮像素子104の撮像面に結像する座標位置P2(Px2,Py2)を検出し、上記P1とP2の座標位置を1組のデータとしてEEPROM25に記録する。   Spot light (light source) is arranged at an infinite position on the optical axis of the photographing optical system. The focal length and aperture value of the photographic optical system are set to f1 and F1, respectively, the pixel data of the image sensor 5 at this time is read, and the coordinate position P1 (the image position of the spot light on the imaging surface of the image sensor 5 ( Px1, Py1) are detected. Similarly, the pixel data of the image sensor 104 is read out to detect the coordinate position P2 (Px2, Py2) at which the spot light forms an image on the imaging surface of the image sensor 104, and the coordinate positions of P1 and P2 are set as a set of data. Is recorded in the EEPROM 25.

以上では、撮影光学系の光軸上の無限大の位置のスポット光に対応する1組のデータを記録したが、撮影光学系の光軸周辺の無限大の位置の複数点にスポット光を配置し、この複数点のスポット光が結像する撮像素子5と撮像素子104のそれぞれの撮像面上の座標位置をEEPROM25に記録してもよい。この場合、撮影光学系、AF光学系の撮影倍率が変化しても結像位置が変化しないので、撮像素子5の結像面上に結像する被写体が上記撮像素子104の結像面上のどの位置に結像しているかを容易に求めることができることになり、基準像と参照像の相関演算を容易に行うことができる。   In the above, a set of data corresponding to spot light at an infinite position on the optical axis of the photographing optical system was recorded. However, spot light is arranged at a plurality of infinite positions around the optical axis of the photographing optical system. Then, the coordinate positions on the image pickup surfaces of the image pickup device 5 and the image pickup device 104 on which the plurality of spot lights are imaged may be recorded in the EEPROM 25. In this case, since the imaging position does not change even if the imaging magnification of the imaging optical system and the AF optical system changes, the subject that forms an image on the imaging surface of the image sensor 5 is on the imaging surface of the image sensor 104. The position where the image is formed can be easily obtained, and the correlation calculation between the reference image and the reference image can be easily performed.

また、上記スポット光(光源)を撮影光学系の光軸外の有限の距離に設置し、このスポット光が結像する撮像素子5と撮像素子104のそれぞれの撮像面上の座標位置をEEPROM25に記録するようにしてもよいことは勿論である。   Further, the spot light (light source) is set at a finite distance outside the optical axis of the photographing optical system, and the coordinate positions on the image pickup surfaces of the image pickup device 5 and the image pickup device 104 on which the spot light is imaged are stored in the EEPROM 25. Of course, it may be recorded.

このようにしてEEPROM25に記録された上記座標位置P1(Px1,Py2),P2(Px2,Py2)から光軸上の無限大に位置する被写体が結像する撮像素子5の撮像面の位置、及び撮像素子104の撮像面の位置が分かる。   The position of the imaging surface of the imaging device 5 on which the subject located at infinity on the optical axis from the coordinate positions P1 (Px1, Py2), P2 (Px2, Py2) recorded in the EEPROM 25 in this way, and The position of the imaging surface of the image sensor 104 is known.

したがって、撮影光学系の光軸外の被写体が結像する撮像素子5と撮像素子104の各撮像面上の座標位置は、計算により簡単に求めることができる。   Therefore, the coordinate positions on the imaging surfaces of the imaging element 5 and the imaging element 104 on which an object outside the optical axis of the imaging optical system forms an image can be easily obtained by calculation.

例えば、撮影光学系の焦点距離をf1、AF光学系の焦点距離をf2とし、撮像素子5の撮像面上の上記EEPROM25に記録された座標位置P1(Px1,Py1)を原点とした座標(x1,y1)の位置に像が結像しているものとする。   For example, the focal length of the imaging optical system is f1, the focal length of the AF optical system is f2, and the coordinate (x1) with the coordinate position P1 (Px1, Py1) recorded on the EEPROM 25 on the imaging surface of the imaging device 5 as the origin is used. , Y1), an image is formed.

この場合、上記(x1,y1)の位置の像に対応する像が結像する撮像素子104上の位置(x2,y2)は、上記EEPROM25に記録された座標位置P2(Px2,Py2)を原点として(x2,y1・f2/f1)となる。x1に対応する値x2は相関演算で求めるものであり、x2=x1・f2/f1であれば被写体距離は無限大であり、被写体が近づく程、x2とx1・f2/f1との差は大きくなる。   In this case, the position (x2, y2) on the image sensor 104 where an image corresponding to the image at the position (x1, y1) is formed is based on the coordinate position P2 (Px2, Py2) recorded in the EEPROM 25 as the origin. (X2, y1 · f2 / f1). The value x2 corresponding to x1 is obtained by correlation calculation. If x2 = x1 · f2 / f1, the subject distance is infinite. The closer the subject is, the larger the difference between x2 and x1 · f2 / f1 is. Become.

この両者の差を求めるのが上記相関演算である。   The correlation calculation is to obtain the difference between the two.

ここで、図8には、撮像装置1の製造時に上記EEPROM25に上記データを書き込むシステムの構成例を示し説明する。この図8において、書き込み装置801から撮像装置1のCPU15に所定の信号が送られると、CPU15は上記EEPROM25に撮像面上の座標位置に係るデータを書き込むための命令を実行することになる。   Here, FIG. 8 shows a configuration example of a system for writing the data into the EEPROM 25 when the imaging apparatus 1 is manufactured. In FIG. 8, when a predetermined signal is sent from the writing device 801 to the CPU 15 of the imaging device 1, the CPU 15 executes a command for writing data relating to the coordinate position on the imaging surface to the EEPROM 25.

以下、図9のフローチャートを参照して、このシステムによる撮像装置1のEEPROM25への座標位置に係るデータの書き込み動作について更に詳細に説明する。   Hereinafter, with reference to the flowchart of FIG. 9, the operation of writing data relating to the coordinate position to the EEPROM 25 of the imaging apparatus 1 by this system will be described in more detail.

先ず、書き込み装置801により撮像装置1をEEPROM25の書き込みモードに設定し(ステップS21)、撮影光学系の焦点距離を予め定めた焦点距離に設定し(ステップS22)、撮影光学系の絞りを予め決めた絞り値に絞り込む(ステップS23)。   First, the imaging device 1 is set to the writing mode of the EEPROM 25 by the writing device 801 (step S21), the focal length of the photographing optical system is set to a predetermined focal length (step S22), and the aperture of the photographing optical system is determined in advance. The aperture value is narrowed down (step S23).

そして、撮像素子5と撮像素子104の画像データを読み出し(ステップS24)、この読み出した画像データに基づいて、上記撮像面上の座標位置P1,P2をEEPROM25に書き込み(ステップS25)、この動作を終了する。   Then, image data of the image sensor 5 and the image sensor 104 are read (step S24), and based on the read image data, the coordinate positions P1 and P2 on the image pickup surface are written in the EEPROM 25 (step S25), and this operation is performed. finish.

(第2の条件)
第2の条件を満たすための具体的解決手段について説明する。
(Second condition)
A specific means for solving the second condition will be described.

撮影光学系とAF光学系の撮影倍率や、撮像素子5と撮像素子104の1画素のサイズは異なるので、上記第2の条件を満たす為には、これらを考慮する必要がある。   Since the photographing magnification of the photographing optical system and the AF optical system and the size of one pixel of the image pickup element 5 and the image pickup element 104 are different, it is necessary to consider these in order to satisfy the second condition.

そこで、撮影光学系とAF光学系の像倍率の比α1/α2を演算する。   Therefore, the ratio α1 / α2 of the image magnification between the photographing optical system and the AF optical system is calculated.

尚、α1/α2=f1/f2である。但し、このf1,f2は、図3で先に説明したように、それぞれ撮影光学系の焦点距離とAF光学系の焦点距離である。   Note that α1 / α2 = f1 / f2. However, f1 and f2 are the focal length of the photographing optical system and the focal length of the AF optical system, respectively, as described above with reference to FIG.

次に、図6(a)、図10(a)に示すように、撮影光学系による像を受ける撮像素子5の基線方向の上記第1測距領域に対応する複数画素を、基線方向に長さW1毎に等分する。基線長と直角方向の長さをH1として、上記W1×H1を新たな1つの画素とする。そして、上記W1×H1に含まれる元の複数の画素を加算した信号又はその平均値を求め、上記撮像素子5の新たな画素(以下「仮想画素」という)の出力とする。尚、上記仮想画素は、上記W1×H1に含まれる特定のラインを間引いて加算してもよい。 Next, FIG. 6 (a), the as shown in FIG. 10 (a), a plurality of pixels corresponding to the group line Direction of the first ranging region of the imaging element 5 for receiving the image formed by the photographing optical system, based on line rectangular aliquoted into each length W1 countercurrent. The length in the direction perpendicular to the base line length is H1, and W1 × H1 is a new pixel. Then, a signal obtained by adding the plurality of original pixels included in W1 × H1 or an average value thereof is obtained and used as an output of a new pixel (hereinafter referred to as “virtual pixel”) of the imaging device 5. The virtual pixels may be added by thinning out a specific line included in the W1 × H1.

これと同様に、図6(b)、図10(b)に示すように、AF光学系による像を受ける撮像素子104の基線方向の上記第2測距領域に対応する複数画素を、基線方向に長さW2毎に等分する。基線長と直角方向の長さをH2として、上記W2×H2を新たな1つの画素とする。そして、上記W2×H2に含まれる元の複数の画素の信号を加算した信号又はその平均値を、上記撮像素子104の仮想画素の出力とする。 Similarly, FIG. 6 (b), the as shown in FIG. 10 (b), a plurality of pixels corresponding to the second ranging area groups line Direction of the imaging device 104 which receives the image formed by the AF optical system, aliquoted into each length W2 based on line direction. The length in the direction perpendicular to the base line length is set as H2, and W2 × H2 is set as one new pixel. Then, a signal obtained by adding the signals of the plurality of original pixels included in W2 × H2 or an average value thereof is set as an output of the virtual pixel of the image sensor 104.

ここで、上記W1,W2,H1,H2は、
α1/α2=W1/W2=H1/H2
の関係を満たすように設定する。
このように、撮像素子5の単位画素のサイズと撮像素子104の単位画素のサイズの比が、撮影光学系の倍率とAF光学系の倍率の比に等しくなるようにすれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を併せることが可能となる。尚、上記単位画素のサイズとは、複数の画素をまとめて、仮想的な1つの画素(即ち、上記仮想画素)とみなしたものである。
Here, W1, W2, H1, and H2 are
α1 / α2 = W1 / W2 = H1 / H2
Set to satisfy the relationship.
As described above, if the ratio between the size of the unit pixel of the image sensor 5 and the size of the unit pixel of the image sensor 104 is made equal to the ratio of the magnification of the photographing optical system and the magnification of the AF optical system, the optical for imaging is used. The system (photographing optical system) and the image sensor 5 can be used together to quickly focus on a wide area of the subject with a simple configuration. The size of the unit pixel means that a plurality of pixels are collectively regarded as one virtual pixel (that is, the virtual pixel).

次に、上述した基本的な考え方を基に仮想画素のサイズを具体的に設計してみる。   Next, the virtual pixel size is specifically designed based on the basic concept described above.

上記(1)式より、AF光学系の検出誤差dΔL2と測距誤差dRの関係は、
dR=−dΔL2・R /(L・f2) ・・・(3)
となる。
From the above equation (1), the relationship between the detection error dΔL2 of the AF optical system and the distance measurement error dR is
dR = −dΔL 2 · R 2 / (L · f 2 ) (3)
It becomes.

一方、撮影レンズの被写界深度は、
被写界深度=−F・δ・R /f1 ・・・(4)
F:撮影光学系の絞り値、δ:許容錯乱円
となる。
On the other hand, the depth of field of the taking lens is
Depth of field = −F · δ · R 2 / f1 2 (4)
F: Aperture value of the photographing optical system, δ: Allowable circle of confusion
It becomes.

ここで、測距誤差が撮影レンズの被写界深度内に収まっていれば、ピントが合ったといえる。この為には、
|測距誤差| < |被写界深度|
ということになり、上記(3)式、(4)式から
dΔL2・R /(L・f2)<F・δ・R /f1
が成立する。
Here, if the distance measurement error is within the depth of field of the photographic lens, it can be said that the camera is in focus. For this,
| Ranging error | <| Depth of field |
From the above formulas (3) and (4)
dΔL 2 · R 2 / (L · f 2 ) <F · δ · R 2 / f 1 2
Is established.

従って、
dΔL2<F・δ・L・f2/f1 ・・・(5) が成立する。
Therefore,
dΔL2 <F · δ · L · f2 / f1 2 (5) is established.

いま、設計値として、F=1、δ=1/30mm、L=40mm(撮影光学系の光軸中心の測距誤差を求めるものとし、L2=Lとした)、f2=10mm、f1=30mmとすると、
dΔL2<15 (μm)
となる。
Now, as design values, F = 1, δ = 1/30 mm, L = 40 mm (the distance measurement error at the center of the optical axis of the photographing optical system is obtained, L2 = L), f2 = 10 mm, f1 = 30 mm Then,
dΔL2 <15 (μm)
It becomes.

この例では、AF光学系が設計通りに製作されていたと仮定すると、撮像素子104の基線方向の画素ピッチが15μm以下のピッチであれば、既述の補間によらない相関演算により必要な精度が得られることになる。 In this example, the AF optical system is assumed to have been manufactured as designed, as long as it is a group line side pitch pixel pitch less 15μm in direction of the imaging device 104, necessary by correlation operation does not depend on the aforementioned interpolation Accuracy will be obtained.

しかしながら、既述の補間法により最終的なズレ量を演算するものとし、これにより1画素ピッチの1/10の精度を確保できるとすると、画素ピッチは150μm以下であれば必要な精度が得られることになる。撮像素子104の基線方向の画素ピッチを10μmとすると、十分な精度が得られることになる。 However, assuming that the final shift amount is calculated by the above-described interpolation method, and the accuracy of 1/10 of one pixel pitch can be secured by this, the required accuracy can be obtained if the pixel pitch is 150 μm or less. It will be. When the group line direction pixel pitch of the direction of the image sensor 104 and 10 [mu] m, so that sufficient accuracy can be obtained.

そこで、上記補間演算をすることを条件に、上記(5)式を修正して、
dΔL2<10・F・δ・L・f2/f1 ・・・(6)
とする。
Therefore, on the condition that the above interpolation calculation is performed, the above equation (5) is corrected,
dΔL2 <10 · F · δ · L · f2 / f1 2 (6)
And

撮影光学系がズームレンズであり、そのズーム倍率が大きくなると、上記(6)式から明らかなように、AF精度及び測距可能な範囲に制約が出てくる。   When the photographic optical system is a zoom lens and the zoom magnification becomes large, as is clear from the above equation (6), the AF accuracy and the range that can be measured are limited.

図11は、このような関係を示したものである。即ち、図11(b)では、撮影光学系の視野1101bとAF光学系の視野1102bが一致しており、AF精度も上記具体的な数値で示した精度が確保されているものとする。しかし、撮影光学系の焦点距離が短くなり像の倍率が大きくなると(広角側)、撮影光学系の視野1101aに比べてAF光学系の視野1102aは狭くなる(図11(a)参照)。この場合、上記(5)式から明らかなように、AF光学系のズレ量の誤差の許容値は、図11(b)に比べて大きくなり、十分な精度が得られる。一方、撮影光学系の焦点距離が長くなり像の倍率が小さくなると(望遠側)、撮影光学系の視野1101cに比べてAF光学系の視野1102cは広くなる(図11(c)参照)。この場合、AF光学系のズレ量の誤差の許容値は、図11(b)に比べて小さくなり、十分な精度が得られなくなる場合がある。   FIG. 11 shows such a relationship. That is, in FIG. 11B, it is assumed that the field of view 1101b of the photographing optical system and the field of view 1102b of the AF optical system coincide with each other, and the AF accuracy is ensured by the above-described specific numerical values. However, when the focal length of the photographing optical system is shortened and the magnification of the image is increased (wide angle side), the field of view 1102a of the AF optical system becomes narrower than the field of view 1101a of the photographing optical system (see FIG. 11A). In this case, as is apparent from the above equation (5), the tolerance value of the deviation amount of the AF optical system is larger than that in FIG. 11B, and sufficient accuracy can be obtained. On the other hand, when the focal length of the photographic optical system is increased and the magnification of the image is reduced (on the telephoto side), the visual field 1102c of the AF optical system becomes wider than the visual field 1101c of the photographic optical system (see FIG. 11C). In this case, the allowable value of the deviation error of the AF optical system is smaller than that in FIG. 11B, and sufficient accuracy may not be obtained.

ここで、撮像素子5(撮像兼AF用)の撮像面の有効サイズを18.5mm(H)×13.5mm(v)、水平方向の画素ピッチを10μm、撮像素子104(AF専用)の撮像面の有効サイズを7.4mm(H)×5.94mm(V)、水平方向の画素ピッチを10μm、AF光学系の焦点距離をf2=10mm、撮影光学系の焦点距離f1を10mmから100mmまで10mmステップで変えた場合の、撮影光学系の水平方向視野に対するAF光学系の水平方向視野の比(f1・H2/(f2・H1))(ただし、H1は撮像素子5(撮像兼AF用)の水平方向の有効サイズ(18.5mm)、H2は撮像素子104(AF専用)の水平方向の有効サイズ(7.4mm)を表す。)、を求めた結果は表1に示される通りである。尚、撮像素子104のサイズを撮像素子5のサイズに比べて小さくしたのは、一般に撮像素子104は画素数が多く大きなサイズの高価なものであるのに対し、撮像素子104はそれに比べて安価な比較的画素数の少ないものを使う為である。また、上記(6)式を用いて、AF光学系の許容測距誤差を撮像素子104の画素数を単位として求めた結果は表1に示される通りである。   Here, the effective size of the imaging surface of the imaging element 5 (for imaging and AF) is 18.5 mm (H) × 13.5 mm (v), the horizontal pixel pitch is 10 μm, and the imaging element 104 (for AF only) is imaged. The effective size of the surface is 7.4 mm (H) × 5.94 mm (V), the horizontal pixel pitch is 10 μm, the focal length of the AF optical system is f2 = 10 mm, and the focal length f1 of the photographing optical system is from 10 mm to 100 mm. Ratio of the horizontal field of view of the AF optical system to the horizontal field of view of the photographic optical system when changed in steps of 10 mm (f1 · H2 / (f2 · H1)) (where H1 is the image pickup device 5 (for image pickup and AF)) The horizontal effective size (18.5 mm) and H2 represents the horizontal effective size (7.4 mm) of the image sensor 104 (for AF)). . Note that the size of the image sensor 104 is smaller than that of the image sensor 5. In general, the image sensor 104 has a large number of pixels and is large and expensive, but the image sensor 104 is cheaper than that. This is because a relatively small number of pixels is used. Further, Table 1 shows the result of obtaining the allowable distance measurement error of the AF optical system in units of the number of pixels of the image sensor 104 using the above equation (6).

そして、上記許容測距誤差以下となるように、撮像素子104の仮想画素の横、即ち基線方向のサイズW2を撮像素子104の画素数を単位として適宜表1のように選択すると、撮像素子5の仮想画素の横方向のサイズW1は、既に述べたようにf1/f2=W1/W2の関係から自動的に決まり、画素数を単位として表1のようになる。 Then, to be equal to or less than the allowable range finding errors, next to the virtual pixel of the image sensor 104, that is, a group line direction size of direction W2 selected as appropriate Table 1 the number of pixels of the image pickup element 104 as a unit, imaging As described above, the horizontal size W1 of the virtual pixel of the element 5 is automatically determined from the relationship of f1 / f2 = W1 / W2, and is as shown in Table 1 with the number of pixels as a unit.

表1において、撮影光学系の焦点距離が10mmにおいては許容測距誤差135画素に比べて、W2が10画素となっており、他の撮影光学系と比べてやや過剰な精度になっているが、これはW2をなるべく統一してアルゴリズムを簡単にするためであり、理論上はW2は135画素以下であればよい。

Figure 0004558781
In Table 1, when the focal length of the photographic optical system is 10 mm, W2 is 10 pixels compared to the allowable distance measurement error of 135 pixels, which is slightly more accurate than the other photographic optical systems. This is for unifying W2 as much as possible to simplify the algorithm. Theoretically, W2 may be 135 pixels or less.
Figure 0004558781

この表1からも明らかなように、撮影光学系の焦点距離に応じて測距可能な範囲が変化する。そこで、本願発明においては、図11に示すように撮影光学系の焦点距離に応じて三角測距に基づく測距が可能な視野を表示する。また、測距領域も表示する。   As can be seen from Table 1, the range that can be measured varies depending on the focal length of the photographing optical system. Therefore, in the present invention, as shown in FIG. 11, a visual field capable of distance measurement based on triangulation is displayed according to the focal length of the photographing optical system. It also displays the ranging area.

一方、撮影光学系の焦点距離が長くなるほど許容測距誤差は小さくなり望遠側では精度を確保できなくなる可能性がある。そこで、後述する本発明に関連する第2の技術においては、撮影光学系のズーム値に応じてAF光学系のズーム値を変えるようにしている(これについての詳細は後述する)。   On the other hand, the longer the focal length of the photographic optical system, the smaller the allowable distance measurement error, and there is a possibility that accuracy cannot be ensured on the telephoto side. Therefore, in the second technique related to the present invention described later, the zoom value of the AF optical system is changed in accordance with the zoom value of the photographing optical system (details will be described later).

仮想画素の基線長と直角方向のサイズH1,H2についてもf1/f2=H1/H2の関係を満たすように適宜決めればよい。   The size H1 and H2 in the direction perpendicular to the base line length of the virtual pixel may be appropriately determined so as to satisfy the relationship of f1 / f2 = H1 / H2.

(第3の条件)
第3の条件を満たすための具体的解決手段について説明する。
(Third condition)
Specific means for satisfying the third condition will be described.

撮影光学系とAF光学系の構成や、撮像素子5と撮像素子104の感度が異なることから、撮像素子5の画像データの値と撮像素子104の画像データの値は異なる。   The image data value of the image sensor 5 and the image data value of the image sensor 104 are different because the configurations of the photographing optical system and the AF optical system and the sensitivity of the image sensor 5 and the image sensor 104 are different.

従って、以下のように、カメラの製造時に補正のためのデータをEEPROM25に記録しておき、相関演算を行う前に撮像素子5の画像データと撮像素子104の画像データを正規化し、同一被写体に対応する画像データの出力レベルを実質的に同じにする。   Therefore, as described below, correction data is recorded in the EEPROM 25 at the time of manufacturing the camera, and the image data of the image sensor 5 and the image data of the image sensor 104 are normalized before the correlation calculation is performed. The output level of the corresponding image data is made substantially the same.

即ち、撮影光学系により結像される第1像と、AF光学系により結像される第2像のそれぞれ同一の像の領域の信号レベル又はその比をEEPROM25に記憶しておき、この情報を基に、出力レベルを補正する。これによれば、基準像に対応する参照像の画像信号のレベルを合わせることができる。以下、詳述する。   That is, the signal level or the ratio of the same image area of the first image formed by the photographing optical system and the second image formed by the AF optical system is stored in the EEPROM 25, and this information is stored. Based on this, the output level is corrected. According to this, the level of the image signal of the reference image corresponding to the reference image can be matched. Details will be described below.

いま、撮影光学系の絞りを所定の値に絞り込んだ状態で撮像素子5の撮像面に被写体の領域A1の像Im1が結像しているものとする。同時に、撮像素子104の撮像面に被写体の領域A1の像Im2が結像しているものとする。   Now, it is assumed that an image Im1 of the subject area A1 is formed on the imaging surface of the imaging device 5 in a state where the aperture of the imaging optical system is reduced to a predetermined value. At the same time, it is assumed that an image Im2 of the subject area A1 is formed on the imaging surface of the imaging element 104.

このときの上記Im1に対応する撮像素子5の画素データの平均値Vm1と撮像素子104の画素データの平均値Vm2の比である、
K=Vm1/Vm2
をEEPROM25に記録する。
The ratio of the average value Vm1 of the pixel data of the image sensor 5 corresponding to the Im1 at this time and the average value Vm2 of the pixel data of the image sensor 104,
K = Vm1 / Vm2
Is recorded in the EEPROM 25.

尚、被写体を広い拡散板にして、このときの撮像素子5の複数画素の出力の平均値と撮像素子104の複数画素の出力の平均値の比をKとしてもよい。また、上記Vm1とVm2をEEPROM25に記録しておき、両者の比は後で計算してもよい。また、上記撮影光学系の絞りを撮影光学系の焦点距離に応じた所定の絞り値に設定して、この焦点距離毎に上記係数Kを求めてEEPROM25に記憶してもよい。   Note that the subject may be a wide diffusion plate, and the ratio of the average value of the output of the plurality of pixels of the image sensor 5 and the average value of the output of the plurality of pixels of the image sensor 104 at this time may be K. The Vm1 and Vm2 may be recorded in the EEPROM 25, and the ratio between the two may be calculated later. Alternatively, the aperture of the imaging optical system may be set to a predetermined aperture value corresponding to the focal length of the imaging optical system, and the coefficient K may be obtained for each focal length and stored in the EEPROM 25.

相関演算の前に撮像素子104の画像データをK倍することにより、基準像と参照像の明るさを実質的に同じにすることができる。   By multiplying the image data of the image sensor 104 by K before the correlation calculation, the brightness of the standard image and the reference image can be made substantially the same.

ここで、図12には、撮像装置1の製造時に上記EEPROM25に上記データを書き込むシステムの構成例を示し説明する。ここでは、図8と同一構成については同一符号を付している。書き込み装置1201から撮像装置1のCPU15に所定の信号が送られると、CPU15はEEPROM25にデータを書き込むための命令を実行する。   Here, FIG. 12 shows a configuration example of a system for writing the data in the EEPROM 25 when the imaging apparatus 1 is manufactured. Here, the same components as those in FIG. When a predetermined signal is sent from the writing device 1201 to the CPU 15 of the imaging device 1, the CPU 15 executes a command for writing data to the EEPROM 25.

以下、図13のフローチャートを参照して、上記EEPROM25へのデータの書き込み動作の流れを更に詳細に説明する。書き込み装置1201により撮像装置1をEEPROM25の書き込みモードに設定する(ステップS31)。次いで、撮影光学系の焦点距離を予め定めた焦点距離に設定し(ステップS32)、撮影光学系の絞りを予め決めた絞り値に絞り込む(ステップS33)。そして、撮像素子5と撮像素子104のデータを読み出し(ステップS34)、この読み出した画像データに基づいて上記係数KをEEPROM25に書き込み(ステップS35)、本動作を終了することになる。   Hereinafter, the flow of the data writing operation to the EEPROM 25 will be described in more detail with reference to the flowchart of FIG. The imaging device 1 is set to the writing mode of the EEPROM 25 by the writing device 1201 (step S31). Next, the focal length of the photographic optical system is set to a predetermined focal length (step S32), and the aperture of the photographic optical system is narrowed down to a predetermined aperture value (step S33). Then, the data of the image sensor 5 and the image sensor 104 are read (step S34), the coefficient K is written in the EEPROM 25 based on the read image data (step S35), and this operation is finished.

以上が第1乃至第3の条件を満たす為の具体的解決手段の説明である。   The above is the description of specific means for satisfying the first to third conditions.

次に、図14のフローチャートを参照して、図5のステップS13で実行されるサブルーチン“ΔL1,ΔL2演算”について詳細に説明する。このサブルーチンでは、測距領域の画像の光軸中心からのズレ量ΔL1、ΔL2を演算する。   Next, the subroutine “ΔL1, ΔL2 calculation” executed in step S13 of FIG. 5 will be described in detail with reference to the flowchart of FIG. In this subroutine, deviation amounts ΔL1 and ΔL2 from the optical axis center of the image in the distance measurement area are calculated.

先ず、CPU100は、測距領域選択回路113により選択された測距領域を読み込む(ステップS41)。次いで、CPU100は、基準像の重心位置(ΔL1)を演算する為に、上記測距領域の中から適宜基準像を選択する。この基準像の位置は、上記測距領域と等しくてもよく、上記測距領域の中から相関演算に適した所定のコントラストを有する小領域を選択したものでもよいことは勿論である。そして、CPU100は、この基準像の重心位置を求めて撮影光学系の光軸からのズレ量をΔL1とし(ステップS42)、上記基準像の重心位置に対応する参照像の重心位置を求める(ステップS43)。   First, the CPU 100 reads the ranging area selected by the ranging area selection circuit 113 (step S41). Next, the CPU 100 appropriately selects the reference image from the distance measurement area in order to calculate the barycentric position (ΔL1) of the reference image. Of course, the position of this reference image may be equal to the distance measurement area, or a small area having a predetermined contrast suitable for correlation calculation may be selected from the distance measurement areas. Then, the CPU 100 obtains the barycentric position of the reference image, sets the shift amount from the optical axis of the photographing optical system to ΔL1 (step S42), and obtains the barycentric position of the reference image corresponding to the barycentric position of the reference image (step S42). S43).

次いで、CPU100は、表1から得られる撮影光学系の焦点距離f1と撮像素子5と撮像素子104のそれぞれの仮想画素サイズ(W1,W2,H1,H2)をテーブル表としてEEPROM25に記憶しておき、このテーブル表を参照して、基準像と参照像の各仮想画素の出力を演算する。尚、仮想画素の出力値は、元の複数画素の出力の平均値とする(ステップS44)。次いで、EEPROM25に記憶した既述の係数Kを基に基準像と参照像のそれぞれに対応する仮想画素出力のレベルを正規化する(ステップS45)。   Next, the CPU 100 stores the focal length f1 of the photographing optical system obtained from Table 1 and the virtual pixel sizes (W1, W2, H1, H2) of the image pickup device 5 and the image pickup device 104 in the EEPROM 25 as a table. Referring to this table, the output of each virtual pixel of the reference image and the reference image is calculated. Note that the output value of the virtual pixel is the average value of the outputs of the original plurality of pixels (step S44). Next, the level of the virtual pixel output corresponding to each of the standard image and the reference image is normalized based on the above-described coefficient K stored in the EEPROM 25 (step S45).

そして、CPU100の制御の下、AF処理回路108は、既述の相関演算式、即ち上記(2)式を基にして、基準像と参照像の相関演算を行う。この相関演算は、AF光学系の光軸からの参照像のズレ量ΔL2を求めるものであるので、基準像の重心位置がAF光学系の光軸上にあるものとして相関演算を行い、上記ズレ量ΔL1,ΔL2を基に被写体までの距離を演算し(ステップS46)、図5の処理にリターンする。   Then, under the control of the CPU 100, the AF processing circuit 108 performs the correlation calculation between the reference image and the reference image based on the above-described correlation calculation expression, that is, the above expression (2). Since this correlation calculation is to obtain the deviation ΔL2 of the reference image from the optical axis of the AF optical system, the correlation calculation is performed assuming that the center of gravity position of the reference image is on the optical axis of the AF optical system, and the above-mentioned deviation calculation is performed. The distance to the subject is calculated based on the amounts ΔL1 and ΔL2 (step S46), and the process returns to the process of FIG.

以上説明したように、本発明に関連する第1の技術によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して、簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。また、撮影光学系とAF光学系の倍率が異なっても任意の領域の被写体に対して精度良く測距を行うことが可能となる。   As described above, according to the first technique related to the present invention, the imaging optical system (imaging optical system) and the imaging element 5 are used together, and the focus is quickly focused on a wide area of the subject with a simple configuration. Can be combined. In addition, even if the magnification of the photographing optical system and that of the AF optical system are different, it is possible to accurately perform distance measurement on a subject in an arbitrary region.

[第2の技術]
図15には、本発明に関連する第2の技術に係る焦点検出装置を採用した撮像装置の構成を示し説明する。ここでは、説明の簡略化の為、前述した図1と同一構成要素には同一符号を付し、重複した説明を省略し、両者の相違点を中心に説明する。
[Second technology]
FIG. 15 shows and describes the configuration of an imaging apparatus that employs a focus detection apparatus according to a second technique related to the present invention. Here, for simplification of description, the same components as those in FIG. 1 described above are denoted by the same reference numerals, overlapping description is omitted, and differences between the two will be mainly described.

撮影光学系のズームレンズ2のズーム値と、AF光学系のズームレンズ101のズーム値が大きくかけ離れていると、撮影光学系による像の視野とAF光学系による像の視野が大きく異なり、その結果、被写体距離の演算誤差が大きくなり、被写体の広い視野に対して被写体距離を求めることができなくなるおそれがある。   If the zoom value of the zoom lens 2 of the photographing optical system and the zoom value of the zoom lens 101 of the AF optical system are greatly different from each other, the field of view of the image by the photographing optical system and the field of view of the image by the AF optical system are greatly different. The subject distance calculation error increases, and the subject distance may not be obtained for a wide field of view of the subject.

このような点に鑑みて、この第2の技術に係る焦点検出装置を採用した撮像装置では、上記撮影光学系のズームレンズ2のズーム値を読み込み、上記ズーム値に応じてAF光学系のズームレンズ101のズーム値を所定の値に設定するように、CPU200が第5モータドライブ111を制御して、モータ112を駆動する。尚、ズームレンズ101のズーム値は段階的に所定の値に設定するようにしてもよいことは勿論である。 In view of such a point, in the imaging apparatus employing the focus detection apparatus according to the second technique , the zoom value of the zoom lens 2 of the photographing optical system is read, and the zoom of the AF optical system is read according to the zoom value. The CPU 200 controls the fifth motor drive 111 to drive the motor 112 so that the zoom value of the lens 101 is set to a predetermined value. Of course, the zoom value of the zoom lens 101 may be set to a predetermined value step by step.

このように、ズームレンズ101のズーム値を段階的に所定の値に設定するのは、AF光学系のズームレンズ101のズーム値を撮影光学系のズームレンズ2と同様に連続的に変えるようにすると、装置が大掛かりになりコストが高くなるからである。   In this way, the zoom value of the zoom lens 101 is set to a predetermined value step by step so that the zoom value of the zoom lens 101 of the AF optical system is continuously changed in the same manner as the zoom lens 2 of the photographing optical system. This is because the apparatus becomes large and the cost increases.

上記のように、ズームレンズ101のズーム値を段階的に所定の値に設定することにより、途中のズーム値については精度を確保する必要がないので簡単な構成でよく、また段階的なズーム値の精度を高めることが可能となる。   As described above, by setting the zoom value of the zoom lens 101 to a predetermined value in a stepwise manner, it is not necessary to ensure the accuracy of the intermediate zoom value, so a simple configuration is possible, and a stepwise zoom value is also possible. It is possible to improve the accuracy of the.

ここで、本第2の技術に係る焦点検出装置を採用した撮像装置の前提とする基本原理や主動作は、本発明に関連する第1の技術で説明した内容と略同じであるが、図4のステップS4で実行されるサブルーチン“三角測距AF”が大きく異なる。   Here, the basic principle and main operation of the imaging apparatus employing the focus detection apparatus according to the second technique are substantially the same as the contents described in the first technique related to the present invention. The subroutine “triangulation ranging AF” executed in step S4 of FIG.

そこで、以下、図16のフローチャートを参照して、本第2の技術によるサブルーチン“三角測距AF”の処理の流れを詳細に説明する。   Accordingly, the flow of processing of the subroutine “triangulation AF” according to the second technique will be described in detail below with reference to the flowchart of FIG.

先ず、CPU200は、CPU15を介して、撮影光学系のズームレンズ2のズーム値を読み込む(ステップS51)。そして、このズーム値に応じて、AF光学系のズームレンズ101のズーム値を所定の値に設定するように、第5モータドライブ111に基づいてモータ112を駆動する(ステップS52)。このようにズームレンズ2のズーム値に応じて、AF光学系のズームレンズ101のズーム値を所定の値に設定するのは、以下の理由による。即ち、前述したように、撮影光学系のズームレンズ2のズーム値と、AF光学系のズームレンズ101のズーム値が大きくかけ離れていると、撮影光学系による像の視野とAF光学系による像の視野が大きく異なり、被写体距離の演算誤差が大きくなり、被写体の広い視野に対して被写体距離を求めることができなくなるからである。   First, the CPU 200 reads the zoom value of the zoom lens 2 of the photographing optical system via the CPU 15 (step S51). Then, the motor 112 is driven based on the fifth motor drive 111 so as to set the zoom value of the zoom lens 101 of the AF optical system to a predetermined value according to the zoom value (step S52). The reason why the zoom value of the zoom lens 101 of the AF optical system is set to a predetermined value in accordance with the zoom value of the zoom lens 2 is as follows. That is, as described above, if the zoom value of the zoom lens 2 of the photographing optical system and the zoom value of the zoom lens 101 of the AF optical system are greatly different from each other, the field of view of the image by the photographing optical system and the image of the image by the AF optical system are different. This is because the field of view differs greatly and the subject distance calculation error increases, making it impossible to determine the subject distance for a wide field of view of the subject.

ここで、ズームレンズ101のズーム値は、段階的に所定の値に設定するようにしてもよいことは勿論である。このようにズームレンズ101のズーム値を段階的に所定の値に設定するのは、以下の理由による、即ち、AF光学系のズームレンズ101のズーム値を撮影光学系のズームレンズ2と同様に連続的に変えるようにすると、装置が大掛かりになりコストが高くなるからである。このようにズームレンズ101のズーム値を段階的に所定の値に設定すれば、途中のズーム値については精度を確保する必要がないので簡単な構成でよく、また段階的なズーム値の精度を高めることが可能となる。   Here, it goes without saying that the zoom value of the zoom lens 101 may be set to a predetermined value step by step. The zoom value of the zoom lens 101 is set to a predetermined value step by step for the following reason, that is, the zoom value of the zoom lens 101 of the AF optical system is set in the same manner as the zoom lens 2 of the photographing optical system. This is because if the change is made continuously, the apparatus becomes large and the cost increases. If the zoom value of the zoom lens 101 is set to a predetermined value step by step in this way, it is not necessary to ensure the accuracy of the intermediate zoom value, so a simple configuration is sufficient, and the accuracy of the stepwise zoom value is improved. It becomes possible to raise.

続いて、CPU15は、撮影光学系の絞り4を予め決めた所定の値に絞り込んだ後(ステップS53)、AE処理回路13で画像データを取得する(ステップS54)。尚、このステップS53,S54の詳細については、図5のステップS11,S12と同じであるので、これ以上の説明は省略する。次いで、CPU200はAF処理回路108を制御して、撮影光学系により結像された第1測距領域の画像の光軸中心からのズレであるΔL1と、AF光学系に結像された上記第2測距領域の画像に対応する画像の光軸中心からのズレであるΔL2を演算する(ステップS55)。尚、このサブルーチン“ΔL1,ΔL2演算”については図14で、前述した通りであるので、ここでは重複説明を省略する。   Subsequently, the CPU 15 narrows down the diaphragm 4 of the photographing optical system to a predetermined value (step S53), and then acquires image data by the AE processing circuit 13 (step S54). The details of steps S53 and S54 are the same as steps S11 and S12 of FIG. 5, and thus further description thereof is omitted. Next, the CPU 200 controls the AF processing circuit 108, and ΔL1 which is a deviation from the optical axis center of the image of the first distance measuring area imaged by the photographing optical system, and the above-mentioned first image imaged by the AF optical system. ΔL2 that is a deviation from the center of the optical axis of the image corresponding to the image of the two distance measurement areas is calculated (step S55). The subroutine “ΔL1, ΔL2 calculation” is as described above with reference to FIG.

こうして、CPU200は、AF処理回路108により上記(1)式(図3参照)に基づいて被写体までの距離Rを演算し(ステップS56)、リターンする。   Thus, the CPU 200 calculates the distance R to the subject based on the above expression (1) (see FIG. 3) by the AF processing circuit 108 (step S56), and returns.

以上説明したように、本第2の技術によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。   As described above, according to the second technique, it is possible to quickly focus on a wide area of a subject with a simple configuration using both the imaging optical system (imaging optical system) and the imaging element 5. It becomes.

[第3の技術]
これは、本発明に関連する第1又は第2の技術の改良例として位置付けられるものである。
[Third technology]
This is positioned as an improvement example of the first or second technique related to the present invention.

本発明に関連する第3の技術に係る焦点検出装置を採用した撮像装置の構成は図1又は15と同じであるので、ここでは当該図面を参照しつつ、相違点を中心に説明する。   Since the configuration of the imaging apparatus that employs the focus detection apparatus according to the third technique related to the present invention is the same as that of FIG. 1 or 15, here, the differences will be mainly described with reference to the drawings.

上述した三角測距は、AF光学系の機械的な誤差や相関演算に伴う誤差が発生する可能性がある。一方、撮影レンズを駆動しながら撮像素子に結像する画像信号の高周波成分が最大になる位置にレンズを駆動する所謂山登り方式は、撮像信号そのものを用いて合焦させるので理想的である。しかしながら、合焦位置から撮影レンズが大きく離れていると十分なコントラストが得られず、合焦までに時間がかかるという問題がある。   The above-described triangulation may cause a mechanical error of the AF optical system or an error accompanying a correlation calculation. On the other hand, the so-called hill-climbing method, in which the lens is driven to a position where the high-frequency component of the image signal imaged on the image sensor becomes the maximum while driving the photographing lens, is ideal because the image signal itself is used for focusing. However, if the photographing lens is far away from the in-focus position, sufficient contrast cannot be obtained, and there is a problem that it takes time until in-focus.

かかる点に鑑みて、本第3の技術では、先ず最初に三角測距の原理に基づき撮影レンズを駆動した後、最後は山登り方式に基づき撮影レンズを合焦位置に駆動する。   In view of this point, in the third technique, first, the photographic lens is driven based on the principle of triangulation, and finally, the photographic lens is driven to the in-focus position based on the hill-climbing method.

以下、図17のフローチャートを参照して、本第3の技術に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明する。   Hereinafter, with reference to the flowchart of FIG. 17, the main operation by the imaging apparatus employing the focus detection apparatus according to the third technique will be described in detail.

ここでは、図1の構成を適宜参照しつつ説明を進める。   Here, the description will be made with reference to the configuration of FIG. 1 as appropriate.

ステップS61,S62は、図4のステップS1,S2と同じであるので、説明を省略する。次いで、CPU100は、測距領域選択回路113により選択された測距領を読み込み(ステップS63)、この選択された上記視野領域が三角測距による測距が可能な領域かどうか(図3参照)を判断し(ステップS64)、三角測距が可能な領域であれば、三角測距を行う(ステップS65)。尚、このサブルーチン“三角測距AF”については、図5又は図16で説明したのと同じであるので説明を省略する。   Steps S61 and S62 are the same as steps S1 and S2 in FIG. Next, the CPU 100 reads the distance measurement area selected by the distance measurement area selection circuit 113 (step S63), and determines whether or not the selected visual field area can be measured by the triangulation (see FIG. 3). (Step S64), and if it is an area where triangulation is possible, triangulation is performed (step S65). The subroutine “triangulation AF” is the same as that described with reference to FIG. 5 or FIG.

次いで、CPU15は、三角測距により求めた被写体距離と現在の撮影光学系のフォーカスレンズ3のピント位置を比較する(ステップS66)。   Next, the CPU 15 compares the subject distance obtained by the triangulation with the focus position of the focus lens 3 of the current photographing optical system (step S66).

尚、現在の撮影光学系のフォーカスレンズのピント位置は、フォーカスレンズ3の駆動部材にエンコーダを設けて、フォーカスレンズ3の駆動位置を検出するという公知の方法により知ることができる。これについては、説明を省略する。   The focus position of the focus lens of the current photographing optical system can be known by a known method of detecting the drive position of the focus lens 3 by providing an encoder on the drive member of the focus lens 3. Description of this is omitted.

そして、CPU15は、フォーカスレンズ3が合焦点近傍であると判断したときは(ステップS67)、直ちに所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS69)。一方、合焦点近傍でないと判断すると、CPU15は、上記三角測距で求めた距離情報に基づきフォーカスレンズ3を駆動した後(ステップS68)、所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS69)。ステップS70〜S72は、図4のステップS6〜S8と同様であるので、重複した説明は省略する。   When the CPU 15 determines that the focus lens 3 is in the vicinity of the focal point (step S67), the CPU 15 immediately drives the focus lens 3 by a so-called hill-climbing method (step S69). On the other hand, when determining that it is not in the vicinity of the in-focus point, the CPU 15 drives the focus lens 3 based on the distance information obtained by the triangulation (step S68), and then drives the focus lens 3 by a so-called hill-climbing method (step S69). . Steps S70 to S72 are the same as steps S6 to S8 in FIG.

ここで、図18は横軸にフォーカスレンズ3の駆動位置を縦軸に時間を示したものである。同図に示されるように、本第3の技術では、時間t1までは三角測距に基づいて撮影レンズを駆動し、t1〜t2の間は所謂山登り方式により駆動する。   Here, FIG. 18 shows the drive position of the focus lens 3 on the horizontal axis and the time on the vertical axis. As shown in the figure, in the third technique, the photographing lens is driven based on the triangulation until time t1, and is driven by a so-called hill-climbing method between t1 and t2.

以上説明したように、本第3の技術によれば、撮像用の光学系(撮影光学系)及び撮像素子5を兼用して簡単な構成で被写体の広い領域に迅速に焦点を合わせることが可能となる。さらに、例えば、撮影光学系の撮影レンズが合焦位置から大きく離れている場合でも、短時間で焦点を合わせることが可能となる。   As described above, according to the third technique, it is possible to quickly focus on a wide area of a subject with a simple configuration using both the imaging optical system (imaging optical system) and the imaging element 5. It becomes. Further, for example, even when the photographing lens of the photographing optical system is far away from the in-focus position, it is possible to focus in a short time.

[第4の技術]
これは、本発明に関連する第1の技術の改良例として位置付けられるものである。
[Fourth technology]
This is positioned as an improvement of the first technique related to the present invention.

本発明に関連する第4の技術に係る焦点検出装置を採用した撮像装置の構成は図1と同じであるので、ここでは当該図面を参照しつつ、相違点を中心に説明する。   Since the configuration of the imaging apparatus that employs the focus detection apparatus according to the fourth technique related to the present invention is the same as that in FIG. 1, the differences will be mainly described with reference to the drawings.

この第4の技術に係る焦点検出装置を採用した撮像装置では、三角測距の原理に基づくAF方式と所謂山登り方式に基づくAF方式を併用し、状況に応じていずれかの方式を優先的に採用することを特徴とする。   In an imaging apparatus that employs the focus detection apparatus according to the fourth technique, an AF method based on the principle of triangulation and an AF method based on a so-called hill-climbing method are used in combination, and one of the methods is given priority depending on the situation. It is characterized by adopting.

より具体的には、AF光学系を通過する被写体光の明るさが所定値より明るいと判断した場合には三角測距AFを優先的に行い、AF光学系を通過する被写体光の明るさが所定値より暗いと判断した場合は、所謂山登り方式によるAFを優先的に行うものである。   More specifically, when it is determined that the brightness of the subject light passing through the AF optical system is brighter than a predetermined value, the triangulation AF is preferentially performed, and the brightness of the subject light passing through the AF optical system is determined. When it is determined that the image is darker than the predetermined value, AF based on the so-called hill-climbing method is preferentially performed.

但し、上記判断すべき状況は、明るさには限定されない。   However, the situation to be determined is not limited to brightness.

以下、図19のフローチャートを参照して、本第4の技術に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明する。   Hereinafter, with reference to the flowchart of FIG. 19, the main operation by the imaging apparatus employing the focus detection apparatus according to the fourth technique will be described in detail.

ステップS81,S82は、図4のステップS1,S2と同じであるので、説明を省略する。次いで、CPU100は、測距領域選択回路113により選択された測距領域を読み込む(ステップS83)。そして、CPU100は、AF光学系を通過した像の明るさB1を検出する(ステップS84)。より具体的には、撮像素子104の出力信号を読み出し被写体の比較的広い領域の平均的な明るさを求める。次に、上記被写体の平均的な明るさB1の値が所定値αより小さいか否かを判断する(ステップS85)。   Steps S81 and S82 are the same as steps S1 and S2 in FIG. Next, the CPU 100 reads the distance measurement area selected by the distance measurement area selection circuit 113 (step S83). Then, the CPU 100 detects the brightness B1 of the image that has passed through the AF optical system (step S84). More specifically, an output signal from the image sensor 104 is read, and an average brightness of a relatively wide area of the subject is obtained. Next, it is determined whether or not the average brightness B1 of the subject is smaller than a predetermined value α (step S85).

このステップS805にて、上記被写体の平均的な明るさB1の値が所定値αより小さいときは、三角測距不能としてステップS87の所謂山登りAFの処理に進む。このようなケースとしては、例えば撮影時に撮影者がAF光学系を手で遮っていることが考えられる。一方、上記ステップS85において、上記被写体の平均的な明るさB1の値が所定値αより大きいときは、CPU100は、次にサブルーチン“三角測距AF”により三角測距によるAFを行う(ステップS86)。尚、このサブルーチン“三角測距AF”については、図6で説明したのと同じであるので説明を省略する。   If the average brightness B1 of the subject is smaller than the predetermined value α in step S805, it is determined that triangulation cannot be performed, and the process proceeds to so-called hill-climbing AF processing in step S87. As such a case, for example, the photographer may be blocking the AF optical system by hand at the time of photographing. On the other hand, if the average brightness B1 of the subject is greater than the predetermined value α in step S85, the CPU 100 next performs AF by triangulation using the subroutine “triangulation AF” (step S86). ). The subroutine “triangulation AF” is the same as that described with reference to FIG.

続いて、CPU15は、第2モータドライブ19を制御して、所謂山登り方式によりフォーカスレンズ3を駆動する(ステップS87)。これ以降のステップS88〜S90までの動作は、図4のステップS6からステップS8までの動作と同じであるので、ここでは重複した説明を省略する。以上で、一連の処理を終了する。   Subsequently, the CPU 15 controls the second motor drive 19 to drive the focus lens 3 by a so-called hill climbing method (step S87). The subsequent operations from step S88 to S90 are the same as the operations from step S6 to step S8 in FIG. Thus, a series of processing is completed.

以上説明したように、本第4の技術によれば、撮影レンズが合焦位置近傍にあるかどうかを三角測距AFによらず簡便な方法で検出することにより、合焦位置近傍にあるときは三角測距AFを省略して高速且つ精度よく合焦させることができる。   As described above, according to the fourth technique, when the photographing lens is in the vicinity of the in-focus position by detecting whether the photographing lens is in the vicinity of the in-focus position by a simple method regardless of the triangulation AF, Can eliminate the triangulation AF and focus at high speed with high accuracy.

[第1の実施の形態]
これは、本発明に関連する第1又は第2の技術の改良例として位置付けられるものである。
[First Embodiment]
This is positioned as an improvement example of the first or second technique related to the present invention.

本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置の構成は図1又は図15と同じであるので、ここでは図1等を参照しつつ、相違点を中心に説明する。   Since the configuration of the imaging apparatus adopting the focus detection apparatus according to the first embodiment of the present invention is the same as that of FIG. 1 or FIG. 15, here, the differences will be mainly described with reference to FIG. .

図20には、本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置としてのカメラの外観構成を示し詳細に説明する。   FIG. 20 shows an external configuration of a camera as an imaging apparatus that employs the focus detection apparatus according to the first embodiment of the present invention, and will be described in detail.

この図20に示すように、撮影光学系(撮影レンズ204)とAF専用光学系203の光軸を結ぶライン(基線方向)は、カメラ本体の水平方向に対して傾いている。 As shown in this FIG. 20, connecting the optical axes lines (group line Direction) of the photographing optical system (photographing lens 204) AF-only optical system 203 is inclined relative to the horizontal direction of the camera body.

被写体までの距離は、図3で前述したように、2つの撮像素子の撮像面に結像する2像の基線方向の相対的なズレ量に基づいて求められることになるので、従来の手法を用いて被写体までの距離を求めるには、撮像素子5と撮像素子104のそれぞれの画素の読み出し方向(長辺方向又は短辺方向)を基線方向に一致させた方が、前述したようなズレ量計算の処理が簡単になることは容易に推察される。 Distance to the object, as described above in FIG. 3, it means obtained based on the relative shift amount of the base line Direction of 2 images you focused on the imaging plane of the two imaging devices, conventional to determine the distance to the subject using techniques, better-matched reading direction of each of the pixels of the imaging device 5 and the image pickup device 104 (the long side direction or the short side direction) based on line direction, described above It is easily guessed that the process of calculating the deviation amount as described above becomes simple.

しかしながら、このような配置は、撮影に用いる撮像素子5がカメラ本体に対して傾くので採用することができない。このような問題を解決するために、上記基線方向をカメラ本体の水平方向にすると、撮影者がカメラを把持するときAF光学系が手によって遮られる可能性が高いので設計上好ましくない。このような観点から、第1の実施の形態に係るカメラでも、図20の外観図に示すように、上記基線方向がカメラ本体の水平方向と所定の角度をもって配置されるように構成している。 However, such an arrangement cannot be adopted because the image sensor 5 used for photographing is inclined with respect to the camera body. To solve such a problem, when the group line Direction in the horizontal direction of the camera body, the design is not preferable because there is a high possibility that AF optical system is blocked by the hand when the photographer grips the camera. From this point of view, even in a camera according to the first embodiment, as shown in the external view of FIG. 20, configured as described above based on line Direction is arranged with a horizontal and a predetermined angle of the camera body ing.

この場合、撮影光学系の結像位置に配置される撮像素子5とAF専用光学系203の結像位置に配置される撮像素子104を図22に示されるように構成すると、撮像素子5が受ける像面上に設定した基準像2201に対応する、撮像素子104が受ける像面上の上記基準像に対応する参照像2202の位置を演算するときに、上記参照像2202が上記基準像に対して基線方向にずれるので、参照像2202を上記基線方向に所定ピッチずつずらしながら既述の上記(2)式に基づく相関量を演算して、上記基準像と一致する参照像の位置を求める。そうすると、撮像素子104の画素の読み出し方向が、通常の撮像素子の読み出し方向と異なり、通常の読み出し方向に対して斜めになるので、参照像の設定のために、比較的複雑な演算が必要になると共に演算に時間がかかる。 In this case, if the image pickup device 5 arranged at the image forming position of the photographing optical system and the image pickup device 104 arranged at the image forming position of the AF dedicated optical system 203 are configured as shown in FIG. When the position of the reference image 2202 corresponding to the reference image on the image plane received by the image sensor 104 corresponding to the reference image 2201 set on the image plane is calculated, the reference image 2202 is relative to the reference image. since shifts based line direction, the reference image 2202 and calculates a correlation amount based on the above-described equation (2) while shifting by a predetermined pitch in direction said group line, the position of the reference image matching the reference image Ask for. As a result, the pixel readout direction of the image sensor 104 is different from the normal image sensor readout direction, and is inclined with respect to the normal readout direction. Therefore, a relatively complicated calculation is required for setting the reference image. And it takes time to calculate.

この場合であっても基準像はずらす必要ないので図22の構成でもよい。   Even in this case, since the reference image does not need to be shifted, the configuration of FIG. 22 may be used.

しかしながら、第1の実施の形態では、更に図21に示すように撮像素子104の配置のみを基線方向に傾けることで、撮像素子104の画素信号の読み出し方向を基線方向に一致させた。第1の実施の形態では、このような配置にすることで、上記相関量の演算を簡単なものとし、高速の相関演算を可能としている。 However, in the first embodiment, and further by inclining only the arrangement of the imaging device 104 based on line Direction As shown in FIG. 21, to match the reading direction of the pixel signals of the image sensor 104 based on line Direction It was. In the first embodiment, such an arrangement simplifies the calculation of the correlation amount and enables high-speed correlation calculation.

次に、図21に示すように撮像素子の配置したときの、撮像素子5と撮像素子104の仮想画素の生成方法について詳細に説明する。先ず、撮像素子5の仮想画素の配列方向と基線方向が一致するように撮像素子5の画素のアドレス変換を行う。 Next, a method for generating virtual pixels of the image sensor 5 and the image sensor 104 when the image sensor is arranged as shown in FIG. 21 will be described in detail. First, the address conversion of pixels of the image sensor 5 as the arrangement direction and group lines Direction of virtual pixels of the image sensor 5 coincides.

以下、図23を参照してこのアドレス変換について説明する。   The address conversion will be described below with reference to FIG.

図23は、細線で示される原画を、θ(カメラの水平方向と基線方向のなす角度)だけ回転して斜め走査による太線画像を得る際のアドレス位置関係を示している。図中、白丸はメモリ8に記憶された実画素を示し、黒丸はメモリ8から読み出す仮想画素を示している。各アドレス位置P(00),P(10),P(20),P(01),P(11),P(21),P(02),P(12),P(22)に対応する画素データがメモリ8に書き込まれており、これらアドレス位置の画素データを用いて、位置P(00)を中心にしてθだけ回転した後の太線で示す対応アドレス位置Q(10),Q(20),Q(01),Q(11),Q(21),…を求め、アドレス信号Addとしてメモリ8に送出する。 Figure 23 shows the original a, theta (horizontal and base line direction angle of direction of the camera) by a rotation to address the positional relationship in obtaining the thick line image due to the oblique scanning indicated by the thin line. In the figure, white circles indicate actual pixels stored in the memory 8, and black circles indicate virtual pixels read from the memory 8. Corresponding to each address position P (00), P (10), P (20), P (01), P (11), P (21), P (02), P (12), P (22) Pixel data is written in the memory 8, and the corresponding address positions Q (10) and Q (20) indicated by bold lines after rotating by θ around the position P (00) using the pixel data at these address positions. ), Q (01), Q (11), Q (21),... Are obtained and sent to the memory 8 as an address signal Add.

例えば、図23におけるアドレス位置Q(10),Q(20),Q(01),Q(11)の仮想画素アドレスは、図示の関係から次のようにして求まる。   For example, the virtual pixel addresses at the address positions Q (10), Q (20), Q (01), and Q (11) in FIG. 23 are obtained as follows from the illustrated relationship.

Q(10) x…Px(00)+cosθ
y…Py(00)+sinθ
Q(20) x…Px(00)+2cosθ
=Px(10)+2cosθ−1
y…Py(00)+2sinθ
=Py(10)+2sinθ
Q(01) x…Px(00)−sinθ
y…Py(00)+cosθ
Q(11) x…Px(00)−sinθ+cosθ
=Px(01)−sinθ+cosθ
y…Py(00)+cosθ+sinθ
=Py(01)+cosθ+sinθ−1
ただし、x、yはQ(XY)を変換前の座標で表した値であり、Px(XY)、Py(XY)は、それぞれアドレス位置P(XY)のX座標、及びY座標の値を表すものとする。
図24には、図23に示すアドレス変換原理図をθ=30度回転した場合のアドレス変換図が示されている。(XST,YST)を原点のアドレスとする。
Q (10) x ... Px (00) + cos θ
y ... Py (00) + sin θ
Q (20) x ... Px (00) +2 cos θ
= Px (10) +2 cos θ−1
y ... Py (00) + 2sinθ
= Py (10) + 2sin θ
Q (01) x ... Px (00) -sinθ
y ... Py (00) + cosθ
Q (11) x... Px (00) −sin θ + cos θ
= Px (01) −sin θ + cos θ
y ... Py (00) + cos θ + sin θ
= Py (01) + cos θ + sin θ−1
However, x and y are values representing Q (XY) in coordinates before conversion, and Px (XY) and Py (XY) are values of the X coordinate and Y coordinate of the address position P (XY), respectively. It shall represent.
FIG. 24 shows an address conversion diagram when the address conversion principle diagram shown in FIG. 23 is rotated by θ = 30 degrees. Let (XST, YST) be the address of the origin.

図24では、
XST=0 XW=0.866 X0=−2.4×0.5
YST=0 YW=0.5/2.4 Y0=0.866
であり、図24からも明らかなように、列数m、ライン数n(変換後の座標(m、n))におけるXアドレスを変換前の座標で表したXmnとYアドレスを変換前の座標で表したYmnを表す一般式は、次のようになる。
In FIG.
XST = 0 XW = 0.866 X0 = −2.4 × 0.5
YST = 0 YW = 0.5 / 2.4 Y0 = 0.866
As is clear from FIG. 24, Xmn and Y address in which the X address in the number of columns m and the number of lines n (coordinates after conversion (m, n)) is represented by the coordinates before conversion are the coordinates before conversion. The general formula representing Ymn is as follows.

Xmn=XST+m・XW+n・X0
Ymn=YST+m・YW+n・Y0
例えば、0ライン目(n=0)の変換後の座標(m、n)を変換前の座標で表したアドレス(座標)は、(XY)=(0,0),(0.866,0.208),(1.732,0.417),…、1ライン目(n=1)では、(XY)=(−1.2,0.866),(−0.334,1.074),(0.532,1.28),…となる。ここで、各アドレスの整数部がアドレスAddを、少数部が補間係数Kを示していることは図から明らかである。
Xmn = XST + m · XW + n · X0
Ymn = YST + m · YW + n · Y0
For example, the addresses (coordinates) representing the coordinates (m, n) after the conversion of the 0th line (n = 0) with the coordinates before the conversion are (XY) = (0, 0), (0.866, 0 .208), (1.732, 0.417),... (XY) = (− 1.2, 0.866), (−0.334, 1.074) in the first line (n = 1). ), (0.532, 1.28),. Here, it is clear from the figure that the integer part of each address indicates the address Add and the decimal part indicates the interpolation coefficient K.

上記補間処理は、例えば図25に示すような4点加重方式を用いるのが好ましい。   For the interpolation process, it is preferable to use a four-point weighting method as shown in FIG.

メモリ8から読み出すべきアドレス位置Qの画素データをQとし、図25に示すように、画素データX1と画素データX2を定め、周囲の4点P(11),P(21),P(12),P(22)の画素データを、同一の符号を用いて、それぞれP(11)、P(21)、P(12)、P(22)と定義し、下式により画素データQを求める。 As shown in FIG. 25, pixel data X1 and pixel data X2 are defined as shown in FIG. 25, and the surrounding four points P (11), P (21), P (12) are defined as Q. the pixel data of the P (22), using the same reference numerals, P (11), respectively, P (21), is defined as P (12), P (22 ), obtaining the pixel data Q by the following equation .

Q=(1−Ky)X1+Ky・X2
X1=(1−Kx)P(11)+KxP(21)
X2=(1−Kx)P(12)+KxP(22)
したがって、
Q=(1−Kx)(1−Ky)P(11)+Kx(1−Ky)P(21)
+Ky(1−Kx)P(12)+Kx・Ky・P(22) ・・・(7) この(7)式の演算は、1サイクル内に4画素アドレスのデータであるP(11),P(21),P(12),P(22)を読み出すことにより実現することができる。
Q = (1-Ky) X1 + Ky · X2
X1 = (1-Kx) P (11) + KxP (21)
X2 = (1-Kx) P (12) + KxP (22)
Therefore,
Q = (1-Kx) (1-Ky) P (11) + Kx (1-Ky) P (21)
+ Ky (1−Kx) P (12) + Kx · Ky · P (22) (7) The calculation of the equation (7) is P (11), P which is data of 4 pixel addresses in one cycle. This can be realized by reading (21), P (12), and P (22).

以上説明したように第1の実施の形態では、上記のようにしてアドレス変換後の各アドレスの画素データの値を演算し、これらの新しいアドレスの画素データを複数合成して既述のとおりの仮想画素データを生成する。上述のとおり、座標を回転したときの新しいアドレス上の画素データを求めるには比較的複雑な演算を必要とする。しかし、第1の実施の形態においては、撮像素子104は基線方向に対して傾きが零であり、撮像素子5のみ基線方向に対して傾けて配置するので、座標変換の演算量が少なくて済む。 As described above, in the first embodiment, the value of pixel data at each address after address conversion is calculated as described above, and a plurality of pixel data at these new addresses are synthesized, as described above. Virtual pixel data is generated. As described above, in order to obtain pixel data at a new address when coordinates are rotated, a relatively complicated operation is required. However, in the first embodiment, the imaging device 104 is the slope is zero with respect to the base line Direction, so arranged to be inclined with respect to the base line Direction only the imaging device 5, the amount of computation of the coordinate transformation Is less.

しかも、撮像素子5で受ける画像上に上記基準像を設定するので、基準像のみのアドレス変換を行えばよいので、相関量を求めるために基線方向に像をシフトする必要のある参照像については複雑なアドレス変換を行う必要がないので演算量が極めて少なくて済むというメリットもある。尚、第1の実施の形態では、上記アドレス変換として回転のみについて述べたが、基準像と参照像の基線方向と垂直方向のアドレス変換についても同様の4点加重方式により簡単に実現できる。これにより、基準像と参照像の基線方向と垂直方向の画素のずれを補正して精度の高い相関演算を行うこともできる。 Moreover, the reference image so setting the reference image on the image received at the image pickup device 5, since it is sufficient to address translation of only the reference image, which needs to shift an image based on line Direction for correlating the amount of Since there is no need to perform complicated address conversion, there is also an advantage that the amount of calculation is extremely small. In the first embodiment, has been described only rotated the address conversion can be easily realized by the same 4-point weighted scheme applies address translation based line Direction and vertical reference image as a reference image . Thus, by correcting the deviation of the group line Direction and vertical pixels of the reference image and the reference image can be performed with high correlation calculation accuracy.

[まとめ]
以上、本発明に関連する第1乃至第4の技術及び第1の実施の形態について説明したが、本発明はこれに限定されることなく、その趣旨を逸脱しない範囲で種々の改良・変更が可能であることは勿論である。例えば、図1及び図15では、三角測距AFを統括するCPUと所謂山登り方式AFを統括するCPUを分けた例を示したが、これに限定されず、一のCPUが両者を統括するようにしても、更なるCPUを用いてもよい。
また、上記本発明に関連する第1乃至第4の技術及び第1の実施の形態は、デジタルカメラやデジタルビデオカメラのみならず、カメラ機能付きの携帯電話機、PDA、ノート型パーソナルコンピュータ等といった所謂モバイル機器等にも幅広く適用可能であることは勿論である。
[Summary]
The first to fourth techniques and the first embodiment related to the present invention have been described above. However, the present invention is not limited to this, and various improvements and modifications can be made without departing from the spirit of the present invention. Of course, it is possible. For example, FIGS. 1 and 15 show an example in which the CPU that controls the triangulation AF and the CPU that controls the so-called hill-climbing AF are separated. However, the present invention is not limited to this, and one CPU controls both. However, a further CPU may be used.
The first to fourth techniques and the first embodiment related to the present invention are not only digital cameras and digital video cameras but also so-called mobile phones with camera functions, PDAs, notebook personal computers, and the like. Of course, it can be widely applied to mobile devices and the like.

また、上記本発明に関連する第1乃至第4の技術及び第1の実施の形態の技術的事項の一部又は全部の相互の組み合わせは適宜可能であることは勿論である。   Of course, some or all of the technical matters of the first to fourth techniques and the first embodiment related to the present invention can be combined as appropriate.

本発明に関連する第1の技術に係る焦点検出装置を採用した撮像装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an imaging apparatus that employs a focus detection apparatus according to a first technique related to the present invention. 図1のLCD10の表示画面上に、三角測距が可能な視野を示す指標201と測距領域を示す指標202を併せて表示した例を示す図。The figure which shows the example which displayed on the display screen of LCD10 of FIG. 1 the parameter | index 201 which shows the visual field which can perform a triangular distance measurement, and the parameter | index 202 which shows a distance measurement area | region together. 本発明に関連する第1の技術に係る焦点検出装置に関連する測距原理を説明するための概念図。The conceptual diagram for demonstrating the ranging principle relevant to the focus detection apparatus which concerns on the 1st technique relevant to this invention. 本発明に関連する第1の技術に係る焦点検出装置を採用した撮像装置の動作を詳細に説明するフローチャート。6 is a flowchart for explaining in detail the operation of the imaging apparatus employing the focus detection apparatus according to the first technique related to the present invention. 図4のステップS4で実行されるサブルーチン“三角測距AF”について詳細に説明するフローチャート。5 is a flowchart for explaining in detail a subroutine “triangulation AF” executed in step S4 of FIG. (a)は第1測距領域の撮像素子5の画素の配列を示す図、(b)は第2測距領域の撮像素子104の画素の配列を示す図。(A) is a figure which shows the arrangement | sequence of the pixel of the image pick-up element 5 of a 1st ranging area, (b) is a figure which shows the arrangement | sequence of the pixel of the image pick-up element 104 of a 2nd ranging area. 参照部のデータ番号mと相関量A(m)との関係を示す図。The figure which shows the relationship between the data number m of a reference part, and correlation amount A (m). 本発明に関連する第1の技術に係る焦点検出装置を採用した撮像装置1の製造時にEEPROM25にデータを書き込むシステムの構成図。1 is a configuration diagram of a system that writes data to an EEPROM 25 when manufacturing an imaging apparatus 1 that employs a focus detection apparatus according to a first technique related to the present invention. 図8のシステムによる撮像装置1のEEPROM25への座標位置に係るデータの書き込み動作について説明するフローチャート。9 is a flowchart for explaining a data writing operation related to a coordinate position in the EEPROM 25 of the imaging apparatus 1 by the system of FIG. (a)は撮像素子5の画素サイズを示す図、(b)は撮像素子104の画素サイズを示す図。(A) is a figure which shows the pixel size of the image pick-up element 5, (b) is a figure which shows the pixel size of the image pick-up element 104. (a)乃至(c)は撮影光学系の視野とAF光学系の視野の関係を示す図。(A) thru | or (c) is a figure which shows the relationship between the visual field of an imaging optical system, and the visual field of AF optical system. 本発明に関連する第1の技術に係る焦点検出装置を採用した撮像装置1の製造時にEEPROM25にデータを書き込むシステムの構成図。1 is a configuration diagram of a system that writes data to an EEPROM 25 when manufacturing an imaging apparatus 1 that employs a focus detection apparatus according to a first technique related to the present invention. 図12のシステムによる撮像装置1のEEPROM25へのデータの書き込み動作の流れを説明するフローチャート。13 is a flowchart for explaining a flow of data writing operation to the EEPROM 25 of the imaging apparatus 1 by the system of FIG. 図5のステップS13で実行されるサブルーチン“ΔL1,ΔL2演算”について詳細に説明するフローチャート。6 is a flowchart for explaining in detail a subroutine “ΔL1, ΔL2 calculation” executed in step S13 of FIG. 本発明に関連する第2の技術に係る焦点検出装置を採用した撮像装置の構成例を示すブロック図。The block diagram which shows the structural example of the imaging device which employ | adopted the focus detection apparatus which concerns on the 2nd technique relevant to this invention. 本発明に関連する第2の技術によるサブルーチン“三角測距AF”の処理の流れを詳細に説明するフローチャート。10 is a flowchart for explaining in detail the flow of processing of a subroutine “triangulation AF” according to a second technique related to the present invention; 本発明に関連する第3の技術に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明するフローチャート。10 is a flowchart for explaining in detail the main operation of an imaging apparatus employing a focus detection apparatus according to a third technique related to the present invention. 横軸にフォーカスレンズ3の駆動位置を縦軸に時間を示した図。The horizontal axis represents the drive position of the focus lens 3 and the vertical axis represents time. 本発明に関連する第4の技術に係る焦点検出装置を採用した撮像装置による主動作を詳細に説明するフローチャート。The flowchart explaining in detail the main operation | movement by the imaging device which employ | adopted the focus detection apparatus which concerns on the 4th technique relevant to this invention. 本発明の第1の実施の形態に係る焦点検出装置を採用した撮像装置としてのカメラの外観構成図。1 is an external configuration diagram of a camera as an imaging apparatus that employs a focus detection apparatus according to a first embodiment of the present invention. 撮像素子104の配置のみを基線方向に傾け、撮像素子104の画素信号の読み出し方向を基線方向に一致させた様子を示す図。Tilt the only arrangement of the image sensor 104 based on line Direction, diagram showing a state in which to match the reading direction of the pixel signals of the image sensor 104 based on line Direction. 撮影光学系の結像位置に配置される撮像素子5とAF専用光学系203の結像位置に配置される撮像素子104の位置関係を示す図。The figure which shows the positional relationship of the image pick-up element 5 arrange | positioned in the image formation position of an imaging optical system, and the image pick-up element 104 arrange | positioned in the image formation position of the AF exclusive use optical system 203. FIG. アドレス変換原理図。Address conversion principle diagram. 図22をθ=30度回転した場合のアドレス変換原理図。FIG. 23 is a principle diagram of address conversion when FIG. 22 is rotated by θ = 30 degrees. 4点加重方式について説明するための概念図。The conceptual diagram for demonstrating a 4-point weighting system.

1・・・撮像装置、2・・・ズームレンズ、3・・・フォーカスレンズ、4・・・絞り、5・・・撮像素子、6・・・撮像回路、7・・・A/D変換器、8・・・メモリ、9・・・D/A変換器、10・・・LCD、11・・・圧縮/伸長回路、12・・・記録用メモリ、13・・・AE処理回路、14・・・AF処理回路、15・・・CPU、16・・・TG回路、17・・・CCDドライバ、18〜20・・・第1乃至第3のモータドライバ、21〜23・・・モータ、24・・・操作スイッチ、25・・・EEPROM、26・・・電池、100・・・CPU、101・・・ズームレンズ、102・・・フォーカスレンズ、103・・・絞り、104・・・撮像素子、105・・・撮像回路、106・・・A/D変換器、107・・・メモリ、108・・・AF処理回路、109・・・TG回路、110・・・CCDドライバ、111・・・モータドライバ、112・・・モータ、113・・・測距領域選択回路、200・・・CPU。   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Zoom lens, 3 ... Focus lens, 4 ... Diaphragm, 5 ... Imaging element, 6 ... Imaging circuit, 7 ... A / D converter 8 ... Memory, 9 ... D / A converter, 10 ... LCD, 11 ... Compression / decompression circuit, 12 ... Recording memory, 13 ... AE processing circuit, 14. ..AF processing circuit, 15 ... CPU, 16 ... TG circuit, 17 ... CCD driver, 18-20 ... first to third motor drivers, 21-23 ... motor, 24 ... Operation switch, 25 ... EEPROM, 26 ... Battery, 100 ... CPU, 101 ... Zoom lens, 102 ... Focus lens, 103 ... Aperture, 104 ... Image sensor 105 ... Imaging circuit 106 ... A / D converter 107 ... Mori, 108 ... AF processing circuit, 109 ... TG circuit, 110 ... CCD driver, 111 ... motor driver, 112 ... motor, 113 ... ranging area selection circuit, 200 ... CPU.

Claims (2)

撮影と焦点検出に兼用する第1光学系と、
上記第1光学系の結像位置に配置され、長辺方向又は短辺方向がカメラの水平方向と一致するように配置された第1撮像素子と、
上記第1光学系と所定の基線長隔てて配置された焦点検出用の第2光学系と、
上記第2光学系の結像位置に配置され、長辺方向又は短辺方向が、上記第1撮像素子の長辺方向及び短辺方向と所定の角度をもって且つ該第2光学系と上記第1光学系の基線方向と一致するように配置された第2撮像素子と、
上記第1撮像素子で撮像され第1画像を表す第1画像データと上記第2撮像素子で撮像され第2画像を表す第2画像データを基に、上記第1画像の一部の領域に設定された基準像上記第2画像のうち該基準像と一致する画像である参照像との間の、上記基線方向の相対的なずれ量を演算する相関量演算手段と
備えたことを特徴とするカメラの焦点検出装置。
A first optical system that is used for both photographing and focus detection;
Disposed at an imaging position of the first optical system, a first imaging element the long side direction or the short side direction are arranged to coincide with the horizontal direction of the camera,
A second optical system for focus detection arranged at a predetermined baseline length from the first optical system;
The second optical system is disposed at the imaging position, and the long side direction or the short side direction has a predetermined angle with the long side direction and the short side direction of the first image sensor, and the second optical system and the first optical system. A second image sensor arranged to coincide with the baseline direction of the optical system ;
A first image data representing a first image captured by the first image pickup device, based on the second image data representing a second image captured by the second image sensor, the portion of the first image a reference image that has been set in the area, and the between the reference image is an image that matches the reference image of the second image, the correlation amount calculating means for calculating a relative deviation amount of the base line direction ,
Focus detecting apparatus of a camera, characterized in that it comprises a.
上記基準像は、上記第1画像データのうち上記基線方向に配列する仮想的な画素のデータによって表されるものであり、上記参照像は、上記第2画像データのうち上記基線方向に配列する画素のデータによって表されるものであることを特徴とする請求項1に記載のカメラの焦点検出装置。 The reference image is what is represented by the data of the virtual pixels arranged in the base line Direction of the first image data, the reference image is to the baseline direction of the second image data The camera focus detection apparatus according to claim 1, wherein the focus detection apparatus is represented by data of pixels to be arranged .
JP2007321137A 2007-12-12 2007-12-12 Camera focus detection device Expired - Fee Related JP4558781B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007321137A JP4558781B2 (en) 2007-12-12 2007-12-12 Camera focus detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007321137A JP4558781B2 (en) 2007-12-12 2007-12-12 Camera focus detection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003370247A Division JP2005134621A (en) 2003-10-30 2003-10-30 Focus detector of camera

Publications (3)

Publication Number Publication Date
JP2008122981A JP2008122981A (en) 2008-05-29
JP2008122981A5 JP2008122981A5 (en) 2008-11-27
JP4558781B2 true JP4558781B2 (en) 2010-10-06

Family

ID=39507719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007321137A Expired - Fee Related JP4558781B2 (en) 2007-12-12 2007-12-12 Camera focus detection device

Country Status (1)

Country Link
JP (1) JP4558781B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5709532B2 (en) 2011-01-05 2015-04-30 キヤノン株式会社 Automatic focusing device, lens device having the same, and imaging system
CN115379108B (en) * 2018-11-20 2024-05-10 中山市远尚光电科技有限公司 Automatic ranging-based tele lens

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61116311A (en) * 1984-11-12 1986-06-03 Canon Inc Base line length modifying device
JPH11122517A (en) * 1997-10-13 1999-04-30 Canon Inc Image pickup device and storage medium read by computer
JP2002296490A (en) * 2001-03-30 2002-10-09 Minolta Co Ltd Range-finding device and camera using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61116311A (en) * 1984-11-12 1986-06-03 Canon Inc Base line length modifying device
JPH11122517A (en) * 1997-10-13 1999-04-30 Canon Inc Image pickup device and storage medium read by computer
JP2002296490A (en) * 2001-03-30 2002-10-09 Minolta Co Ltd Range-finding device and camera using the same

Also Published As

Publication number Publication date
JP2008122981A (en) 2008-05-29

Similar Documents

Publication Publication Date Title
JP4413261B2 (en) Imaging apparatus and optical axis control method
US8922703B2 (en) Focus detection apparatus
JP4946059B2 (en) Imaging device
US8810713B2 (en) Image pickup apparatus and image pickup device for performing auto-focusing
US10038849B2 (en) Imaging device with controlled timing of images to be synthesized based on shake residual
JP2008026802A (en) Imaging apparatus
US9197808B2 (en) Image capturing apparatus, method of controlling the same, and storage medium
CN103119494B (en) Imaging device
JP6405531B2 (en) Imaging device
JP2015194672A (en) Imaging apparatus
CN103067656A (en) Imaging device and imaging method
US7423685B2 (en) Image-taking apparatus with first control method in which focus lens is driven based upon signal from image-pickup device and second control method in which focus lens is driven based on signal representing object distance
JP2011081186A (en) Imaging apparatus
JP4558781B2 (en) Camera focus detection device
JP2005134617A (en) Focus detector
JP2008122981A5 (en)
JP2005134621A (en) Focus detector of camera
JP4228430B2 (en) Focus position determination method and apparatus
JP2005134618A (en) Focus detector
JP2005134620A (en) Imaging apparatus
JP2005134619A (en) Focus detector
JP2011055084A (en) Imaging apparatus and electronic device
JP2005249432A (en) Projector device and distance measuring method
TWI639338B (en) Image capturing apparatus and image smooth zooming method thereof
JP6089232B2 (en) Imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100721

R151 Written notification of patent or utility model registration

Ref document number: 4558781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees