JP2005121885A - Imaging apparatus, its control method, program, and storage medium - Google Patents

Imaging apparatus, its control method, program, and storage medium Download PDF

Info

Publication number
JP2005121885A
JP2005121885A JP2003356336A JP2003356336A JP2005121885A JP 2005121885 A JP2005121885 A JP 2005121885A JP 2003356336 A JP2003356336 A JP 2003356336A JP 2003356336 A JP2003356336 A JP 2003356336A JP 2005121885 A JP2005121885 A JP 2005121885A
Authority
JP
Japan
Prior art keywords
subject
light
image
light emitting
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003356336A
Other languages
Japanese (ja)
Inventor
Kazuki Konishi
一樹 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003356336A priority Critical patent/JP2005121885A/en
Publication of JP2005121885A publication Critical patent/JP2005121885A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To achieve a high-speed and high-precision auto focusing operation at low cost. <P>SOLUTION: The imaging apparatus is provided with: a photographing optical system 31 having a focus adjustment lens 3; an imaging device 5 for subjecting the formed image of a subject to photoelectric conversion; an LED 30 for emitting a luminous flux toward the subject; an arithmetic section 15 for calculating an approximate distance to the subject, based on the position of an image signal which is formed in the imaging device by its receiving light emitted by the LED and reflected by the subject; a lens driving device 22 for scanning the focus adjustment lens over a prescribed front and rear range in the optical axis direction of the center position which is a position in the optical axis direction of this lens in focusing on the approximate distance; and a focus detection section 14 for determining the position of the focus adjustment lens in focusing on the subject, on the basis of the image signal formed by the imaging device at each position of the focus adjustment lens when scanned. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、撮像光学系により結像される被写体像を光電変換する撮像素子により取得される画像信号を使用して、焦点調整を行う技術に関するものである。   The present invention relates to a technique for performing focus adjustment using an image signal acquired by an image sensor that photoelectrically converts a subject image formed by an imaging optical system.

撮像光学系により結像される被写体像を光電変換する撮像素子により取得される画像信号を使用して、焦点調整を行う自動焦点調整装置に関する従来の技術としては、特開平5−119250号公報、特開2000−111792号公報などに開示されているものが知られている。   As a conventional technique related to an automatic focus adjustment device that performs focus adjustment using an image signal acquired by an image sensor that photoelectrically converts a subject image formed by an imaging optical system, Japanese Patent Laid-Open No. 5-119250, What is disclosed in Japanese Patent Application Laid-Open No. 2000-111792 is known.

特開平5−119250号公報には以下のような技術が開示されている。   Japanese Patent Laid-Open No. 5-119250 discloses the following technique.

コントラスト検出を用いたオートフォーカスと赤外光検出を用いたオートフォーカスを併用し、通常の撮影動作時にはコントラスト検出を用いたオートフォーカス手段を用いて焦点調整動作を行う一方で、このコントラスト検出を用いたオートフォーカス手段による焦点調整動作が困難となる撮影環境下においてのみ赤外光検出を用いたオートフォーカス手段に切換えて、所望の被写体に対する測距動作及びオートフォーカス動作を行うようにしている。従ってこれによれば被写体の明るさによらず適切なオートフォーカスを行うことができる。   Autofocus using contrast detection and autofocus using infrared light detection are used together, and during normal shooting operations, focus adjustment is performed using autofocus means using contrast detection. Only in a shooting environment where the focus adjustment operation by the conventional autofocus means is difficult, the autofocus means using infrared light detection is switched to perform the distance measuring operation and the autofocus operation for a desired subject. Therefore, according to this, appropriate autofocus can be performed regardless of the brightness of the subject.

特開2000−111792号公報には以下のような技術が開示されている。   Japanese Patent Laid-Open No. 2000-111792 discloses the following technique.

被写体像を光電変換して画像信号を生成し、生成された画像信号から所定の高周波成分を検出してそれにより焦点調節を行うコントラスト検出を用いたオートフォーカス手段と、赤外光を照射する発光手段(LED)と被写体からの反射光を受光し被写体距離に応じた出力信号を検出する赤外光検出を用いたオートフォーカス手段を併用し、環境温度を検出する温度検出手段の出力に応じて、コントラスト検出を用いたオートフォーカス手段と赤外光検出を用いたオートフォーカス手段のいずれか一方を選択し、オートフォーカス動作を行うようにしている。従ってこれによれば使用環境温度の変化によらず適切なオートフォーカスを行うことができる
特開平5−119250号公報 特開2000−111792号公報
Autofocus means using contrast detection that performs photoelectric conversion of the subject image to generate an image signal, detects a predetermined high-frequency component from the generated image signal, and adjusts the focus accordingly, and light emission that irradiates infrared light In accordance with the output of the temperature detection means for detecting the ambient temperature, the means (LED) and the autofocus means using infrared light detection for receiving the reflected light from the subject and detecting the output signal according to the subject distance are used together. One of the autofocus means using contrast detection and the autofocus means using infrared light detection is selected to perform the autofocus operation. Therefore, according to this, it is possible to perform an appropriate autofocus regardless of changes in the use environment temperature.
Japanese Patent Laid-Open No. 5-119250 JP 2000-111792 A

しかしながら上記の従来例では、被写体の明るさや使用環境温度に応じてコントラスト検出を用いたオートフォーカス手段と赤外光検出を用いたオートフォーカス手段のいずれか一方を選択し、オートフォーカス動作を行っているため、撮像光学系により結像される被写体像を光電変換する撮像素子の他に赤外光検出を用いたオートフォーカス手段を別個に設ける必要がある。そのため、コストアップになるという問題点がある。またのいずれか一方を選択しオートフォーカス動作を行っている場合、高速かつ高精度なオートフォーカス動作ができないという問題点がある。   However, in the above conventional example, one of the autofocus means using contrast detection and the autofocus means using infrared light detection is selected according to the brightness of the subject and the operating environment temperature, and the autofocus operation is performed. Therefore, it is necessary to separately provide an autofocus means using infrared light detection in addition to an image sensor that photoelectrically converts a subject image formed by the imaging optical system. Therefore, there is a problem that the cost increases. Further, when either one of them is selected and an autofocus operation is performed, there is a problem that a high-speed and high-precision autofocus operation cannot be performed.

従って、本発明は上述した課題に鑑みてなされたものであり、その目的は、ローコストで、高速且つ高精度なオートフォーカス動作を実現できるようにすることである。   Accordingly, the present invention has been made in view of the above-described problems, and an object thereof is to realize a high-speed and high-precision autofocus operation at a low cost.

上述した課題を解決し、目的を達成するために、本発明に係わる撮像装置は、被写体像を目標の焦点面に結像させるために光軸方向に移動する焦点調節レンズを備える撮影光学系と、該撮影光学系により結像された被写体像を光電変換して電気的な画像信号を生成する撮像手段と、被写体に向けて光束を照射する投光手段と、該投光手段から照射されて前記被写体で反射された光を前記撮像手段が受けることにより該撮像手段で生成される画像信号の位置に基づいて、前記被写体までの概略距離を算出する演算手段と、前記概略距離に焦点を合わせるための前記焦点調節レンズの光軸方向の位置を中心位置として、前記焦点調節レンズを前記中心位置の光軸方向の前後の所定範囲にわたって走査させるレンズ駆動手段と、前記焦点調節レンズを走査させたときに該焦点調節レンズの各位置において前記撮像手段により生成される画像信号に基づいて、前記被写体に焦点を合わせるための前記焦点調節レンズの位置を求める焦点検出手段とを具備することを特徴とする。   In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes a photographing optical system including a focusing lens that moves in an optical axis direction in order to form a subject image on a target focal plane. An imaging means for photoelectrically converting an object image formed by the photographing optical system to generate an electrical image signal, a light projecting means for irradiating a light beam toward the object, and a light emitted from the light projecting means. Focusing on the approximate distance and calculation means for calculating the approximate distance to the subject based on the position of the image signal generated by the image capture means when the image capture means receives the light reflected by the subject. Lens driving means for scanning the focus adjustment lens over a predetermined range before and after the center position in the optical axis direction, with the position in the optical axis direction of the focus adjustment lens for the center position as the center position, and the focus adjustment lens Focus detecting means for obtaining a position of the focus adjusting lens for focusing on the subject based on an image signal generated by the imaging means at each position of the focus adjusting lens when scanned. It is characterized by.

また、この発明に係わる撮像装置において、前記投光手段は、撮影画面中に設けられた複数の焦点検出領域の数よりも多い複数の発光素子を有し、該複数の発光素子から前記焦点検出領域の数と同じ数の発光素子を選択し、該選択された複数の発光素子を順次発光させることを特徴とする。   Further, in the imaging apparatus according to the present invention, the light projecting unit includes a plurality of light emitting elements larger than the number of the plurality of focus detection areas provided in the photographing screen, and the focus detection is performed from the plurality of light emitting elements. The same number of light-emitting elements as the number of regions are selected, and the plurality of selected light-emitting elements are caused to emit light sequentially.

また、この発明に係わる撮像装置において、前記投光手段は、撮影画面中に設けられた複数の焦点検出領域の数よりも多い複数の発光素子を有し、該複数の発光素子から前記焦点検出領域の数と同じ数の発光素子を選択し、該選択された複数の発光素子を同時に発光させるように構成されており、前記発光素子から照射されて前記被写体で反射された反射像の前記撮像手段上の位置に基づいて、前記概略距離の妥当性を判定する判定手段をさらに具備することを特徴とする。   Further, in the imaging apparatus according to the present invention, the light projecting unit includes a plurality of light emitting elements larger than the number of the plurality of focus detection areas provided in the photographing screen, and the focus detection is performed from the plurality of light emitting elements. The same number of light-emitting elements as the number of regions are selected, and the plurality of selected light-emitting elements are configured to emit light simultaneously, and the imaging of the reflected image irradiated from the light-emitting elements and reflected by the subject The apparatus further comprises determination means for determining the validity of the approximate distance based on the position on the means.

また、この発明に係わる撮像装置において、前記投光手段から照射されて前記被写体で反射された光を前記撮像手段で撮像する場合には、該撮像手段で形成される画像信号の一部分の領域のみが読み出されることを特徴とする。   In the image pickup apparatus according to the present invention, when the light emitted from the light projecting means and reflected by the subject is picked up by the image pickup means, only a partial region of the image signal formed by the image pickup means is used. Is read out.

また、この発明に係わる撮像装置において、前記一部分の領域を、発光する発光素子に応じて異ならせることを特徴とする。   In the imaging apparatus according to the present invention, the partial area is made different depending on a light emitting element that emits light.

また、この発明に係わる撮像装置において、前記一部分の領域を、前記撮影光学系の焦点距離に応じて異ならせることを特徴とする。   In the image pickup apparatus according to the present invention, the partial area is made different according to a focal length of the photographing optical system.

また、この発明に係わる撮像装置において、前記撮像手段によって生成された画像信号に基づいて、前記被写体が想定した距離よりも近距離に存在するか否かを検出する検出手段をさらに具備し、該検出手段の検出結果に基づいて、前記投光手段に備えられた複数の発光素子の中から発光させる発光素子を選択することを特徴とする。   The image pickup apparatus according to the present invention further includes a detection unit that detects whether or not the subject exists at a shorter distance than an assumed distance based on an image signal generated by the image pickup unit, A light emitting element that emits light is selected from a plurality of light emitting elements provided in the light projecting unit based on a detection result of the detecting unit.

また、この発明に係わる撮像装置において、前記投光手段に備えられた複数の発光素子の内の一つを発光させて、前記被写体によって反射された光を前記撮像手段によって撮像させることにより、前記被写体が想定した距離よりも近距離に存在するか否かを検出する検出手段をさらに具備し、該検出手段の検出結果に基づいて、前記複数の発光素子のうちの他の発光素子を発光させるか否かを判定することを特徴とする。   Further, in the imaging apparatus according to the present invention, by causing one of a plurality of light emitting elements provided in the light projecting unit to emit light and causing the imaging unit to capture the light reflected by the subject, It further comprises detection means for detecting whether or not the subject exists at a shorter distance than the assumed distance, and causes the other light emitting elements of the plurality of light emitting elements to emit light based on the detection result of the detection means. It is characterized by determining whether or not.

また、本発明に係わる撮像装置の制御方法は、被写体像を目標の焦点面に結像させるために光軸方向に移動する焦点調節レンズを備える撮影光学系と、該撮影光学系により結像された被写体像を光電変換して電気的な画像信号を生成する撮像手段と、被写体に向けて光束を照射する投光手段とを備える撮像装置を制御するための撮像装置の制御方法であって、前記投光手段から照射されて前記被写体で反射された光を前記撮像手段が受けることにより該撮像手段で生成される画像信号の位置に基づいて、前記被写体までの概略距離を算出する演算工程と、前記概略距離に焦点を合わせるための前記焦点調節レンズの光軸方向の位置を中心位置として、前記焦点調節レンズを前記中心位置の光軸方向の前後の所定範囲にわたって走査させるレンズ駆動工程と、前記焦点調節レンズを走査させたときに該焦点調節レンズの各位置において前記撮像手段により生成される画像信号に基づいて、前記被写体に焦点を合わせるための前記焦点調節レンズの位置を求める焦点検出工程と、
を具備することを特徴とする。
The image pickup apparatus control method according to the present invention includes a photographing optical system including a focus adjustment lens that moves in the optical axis direction to form a subject image on a target focal plane, and an image formed by the photographing optical system. An imaging device control method for controlling an imaging device comprising imaging means for photoelectrically converting the subject image to generate an electrical image signal and light projecting means for irradiating a light beam toward the subject, A calculation step of calculating a rough distance to the subject based on a position of an image signal generated by the imaging unit when the imaging unit receives light irradiated from the light projecting unit and reflected by the subject; A lens that scans the focus adjustment lens over a predetermined range before and after the center position in the optical axis direction with the position in the optical axis direction of the focus adjustment lens for focusing on the approximate distance as the center position. And a position of the focus adjustment lens for focusing on the subject based on an image signal generated by the imaging means at each position of the focus adjustment lens when the focus adjustment lens is scanned. A desired focus detection step;
It is characterized by comprising.

また、本発明に係わるプログラムは、上記の撮像装置の制御方法をコンピュータに実行させることを特徴とする。   A program according to the present invention causes a computer to execute the above-described method for controlling an imaging apparatus.

また、本発明に係わる記憶媒体は、上記のプログラムをコンピュータ読み取り可能に記憶したことを特徴とする記憶媒体。   A storage medium according to the present invention stores the above program in a computer-readable manner.

以上のように、本発明によれば、ローコストで、高速且つ高精度なオートフォーカス動作を実現することが可能となる。   As described above, according to the present invention, it is possible to realize a high-speed and high-precision autofocus operation at a low cost.

以下、本発明の好適な実施形態について説明する。   Hereinafter, preferred embodiments of the present invention will be described.

まず、本実施形態の概要について説明する。   First, an outline of the present embodiment will be described.

本実施形態では、アクティブAF(オートフォーカス)の受光手段としてCCD5を用い、受光手段の出力から複数の被写体までの距離を概算し、その結果から適当な被写体までの距離を推測し、その距離に相当する位置を中心として設定された範囲内において、フォーカスレンズ群3を移動しながらCCD5によって生成された画像信号から出力される高周波成分が最も多くなるフォーカスレンズ群3の位置を求める。すなわち、被写体までの概略の距離を求め、そこを中心に正確な合焦位置を検出するスキャンAF処理を行うことによって、投光手段を追加するだけの低コストな構成で高速かつ正確に合焦位置を検出することを可能にした。   In the present embodiment, the CCD 5 is used as the light receiving means for active AF (autofocus), the distances from the light receiving means output to a plurality of subjects are estimated, the distances to the appropriate subjects are estimated from the results, and the distances are estimated. Within the range set with the corresponding position as the center, the position of the focus lens group 3 where the high frequency component output from the image signal generated by the CCD 5 is the largest is obtained while moving the focus lens group 3. In other words, by obtaining a rough distance to the subject and performing a scan AF process that detects an accurate in-focus position around that distance, it is possible to focus at high speed and accurately with a low-cost configuration that only requires light projection means. Made it possible to detect the position.

複数の発光素子を同時に点灯することで複数の被写体までの距離の概算を更なる高速で行うことを可能にするとともに、複数の被写体までの距離を概算することで画面内にある多種多様の被写体に対して、合焦位置を検出することを可能にした。   By turning on multiple light emitting elements at the same time, it is possible to estimate the distance to multiple subjects at a higher speed, and by estimating the distance to multiple subjects, a wide variety of subjects on the screen On the other hand, the in-focus position can be detected.

アクティブAFに先立ちマクロ領域におけるスキャンAFを行い被写体が想定した距離より近距離に存在するか否かを知ることで、「想定した範囲外に反射像が形成され、反射像の分別が困難になる」という複数の発光素子を同時に点灯する際の問題点を解消した。   By performing scan AF in the macro area prior to the active AF and knowing whether or not the subject exists at a shorter distance than the assumed distance, a “reflected image is formed outside the assumed range, making it difficult to separate the reflected image. The problem of lighting multiple light-emitting elements at the same time has been resolved.

まず中央の測距点でアクティブAFを行い被写体が想定した距離より近距離に存在するか否かを知ることで、「想定した範囲外に反射像が形成され、反射像の分別が困難になる」という複数の発光素子を同時に点灯する際の問題点を解消した。   First, by performing active AF at the center distance measuring point and knowing whether or not the subject is closer than the assumed distance, a reflection image is formed outside the assumed range, making it difficult to separate the reflection image. The problem of lighting multiple light-emitting elements at the same time has been resolved.

照明蓄積時の画像をLCD10に表示しないことにより、LCDに「一時的に一部の画像のみが表示される」、「発光素子の反射像が写りこんだ画像が表示される」などの違和感のある画像がLCD10に表示されるのを避けることができる。そして直後に非照明蓄積の画像が表示されることで、画面がフリーズするような違和感を撮影者に与えるという弊害も回避している。   By not displaying the image at the time of storing the illumination on the LCD 10, there is a sense of incongruity such as “a part of the image is temporarily displayed” or “an image in which the reflection image of the light emitting element is reflected” is displayed on the LCD. A certain image can be prevented from being displayed on the LCD 10. The non-illuminated accumulated image is displayed immediately after that, thereby avoiding the adverse effect of giving the photographer an uncomfortable feeling that the screen freezes.

照明蓄積時の画像をLCD10に表示しないことにより、演算に使用する一部の画像のみを読み出すことが可能になるので、処理が高速化される。   By not displaying the image at the time of storing the illumination on the LCD 10, it becomes possible to read out only a part of the image used for the calculation, so that the processing is speeded up.

(第1の実施形態)
図1は、本発明が適用される撮像装置の第1の実施形態の構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a first embodiment of an imaging apparatus to which the present invention is applied.

図1において、1は撮像装置、2はズームレンズ群、3はフォーカスレンズ群、4はズームレンズ群2及びフォーカスレンズ群3等からなる撮影光学系を透過する光束の量を制御する光量調節手段であり露出手段である絞り、31はズームレンズ群2及びフォーカスレンズ群3及び絞り4等を内蔵する撮影レンズ鏡筒、5は撮影光学系を透過した被写体像が結像し、これを光電変換するCCD等の固体撮像素子(以下CCD)、6はこのCCD5によって光電変換された電気信号を受けて各種の画像処理を施すことにより所定の画像信号を生成する撮像回路、7はこの撮像回路6により生成されたアナログ画像信号をデジタル画像信号に変換するA/D変換回路、8はこのA/D変換回路7の出力を受けてこの画像信号を一時的に記憶するバッファメモリ等のメモリ(VRAM)、9はこのVRAM8に記憶された画像信号を読み出してこれをアナログ信号に変換するとともに再生出力に適する形態の画像信号に変換するD/A変換回路、10はこの画像信号を表示する液晶表示装置(LCD)等の画像表示装置(以下LCD)、12は半導体メモリ等からなる画像データを記憶する記憶用メモリ、11はVRAM8に一時記憶された画像信号を読み出して記憶用メモリ12に対する記憶に適した形態にするために画像データの圧縮処理や符号化処理を施す圧縮回路及び記憶用メモリ12に記憶された画像データを再生表示等をするのに最適な形態とするための復号化処理や伸長処理等を施す伸長回路とからなる圧縮伸長回路、13はA/D変換回路7からの出力を受けて自動露出(AE)処理を行うAE処理回路、14はA/D変換回路7からの出力を受けて自動焦点調節(AF)処理を行うスキャンAF処理回路、15は撮像装置の制御を行う演算用のメモリを内蔵したCPU、16は所定のタイミング信号を発生するタイミングジェネレータ(以下TG)、17はCCDドライバー、21は絞り4を駆動する絞り駆動モータ、18は絞り駆動モータ21を駆動制御する第1モータ駆動回路、22はフォーカスレンズ群3を駆動するフォーカス駆動モータ、19はフォーカス駆動モータ22を駆動制御する第2モータ駆動回路、23はズームスレンズ群2を駆動するズーム駆動モータ、20はズーム駆動モータ23を駆動制御する第3モータ駆動回路、24は各種のスイッチ群からなる操作スイッチ、25は各種制御等を行うプログラムや各種動作を行わせるために使用するデータ等が予め記憶されている電気的に書き換え可能な読み出し専用メモリであるEEPROM、26は電池、28はストロボ発光部、27はストロボ発光部28の閃光発光を制御するスイッチング回路、30は被写体に向けて複数の光束を照射するための投光レンズ及び発光ダイオードなどの複数の発光素子からなる発光手段(以下LED)、32は赤外光を遮断するiRカットフィルター、33はiRカットフィルター32をCCD5の前面に挿入退避させるためのフィルター駆動装置である。被写体に向けて複数の光束を照射するための発光ダイオードはスキャンAFを行う際に被写体を補助的に照明するAF補助光として用いることも可能である。逆にAF補助光を被写体に向けて複数の光束を照射するための手段として用いることも可能である。   In FIG. 1, 1 is an imaging device, 2 is a zoom lens group, 3 is a focus lens group, 4 is a light amount adjusting means for controlling the amount of light beam transmitted through a photographing optical system including the zoom lens group 2, the focus lens group 3, and the like. The aperture 31 is an exposure means, 31 is a photographic lens barrel incorporating the zoom lens group 2, the focus lens group 3, the aperture 4, and the like, 5 is a subject image that has passed through the photographic optical system, and this is photoelectrically converted. A solid-state image pickup device (hereinafter referred to as a CCD) such as a CCD, an image pickup circuit 6 that receives an electric signal photoelectrically converted by the CCD 5 and performs various image processing to generate a predetermined image signal, and 7 is an image pickup circuit 6 An A / D conversion circuit 8 converts the analog image signal generated by the digital image signal into a digital image signal, and 8 is a buffer for receiving the output of the A / D conversion circuit 7 and temporarily storing the image signal. A memory (VRAM), such as a memory, 9 reads out an image signal stored in the VRAM 8, converts it into an analog signal, and converts it into an image signal in a form suitable for reproduction output. An image display device (hereinafter referred to as LCD) such as a liquid crystal display device (LCD) for displaying signals, a storage memory 12 for storing image data such as a semiconductor memory, and 11 for reading and storing image signals temporarily stored in the VRAM 8 In order to obtain a form suitable for storage in the storage memory 12, a compression circuit that performs compression processing and encoding processing of image data and a form optimal for reproducing and displaying the image data stored in the storage memory 12 are used. A compression / decompression circuit comprising a decompression circuit for performing a decoding process, a decompression process, and the like, and an automatic exposure in response to an output from the A / D conversion circuit 7 AE) AE processing circuit that performs processing, 14 is a scan AF processing circuit that receives an output from the A / D conversion circuit 7 and performs automatic focus adjustment (AF) processing, and 15 is an arithmetic memory that controls the imaging apparatus. Built-in CPU, 16 is a timing generator (hereinafter referred to as TG) that generates a predetermined timing signal, 17 is a CCD driver, 21 is a diaphragm drive motor that drives the diaphragm 4, and 18 is a first motor drive that drives and controls the diaphragm drive motor 21. Circuit, 22 a focus drive motor that drives the focus lens group 3, 19 a second motor drive circuit that drives and controls the focus drive motor 22, 23 a zoom drive motor that drives the zoom lens group 2, and 20 a zoom drive motor A third motor drive circuit for driving and controlling 23, 24 an operation switch comprising various switch groups, 25 a variety of controls, etc. EEPROM, which is an electrically rewritable read-only memory in which data for use in performing various operations and data used for performing various operations are stored in advance, 26 is a battery, 28 is a strobe light emitting unit, and 27 is a strobe light emitting unit 28 A switching circuit for controlling the flash emission of light, a light emitting means (hereinafter referred to as LED) 30 comprising a plurality of light emitting elements such as a light projecting lens and a light emitting diode for irradiating a subject with a plurality of light beams, and 32 for emitting infrared light. The iR cut filter 33 to be blocked is a filter driving device for inserting and retracting the iR cut filter 32 to the front surface of the CCD 5. A light-emitting diode for irradiating a subject with a plurality of light beams can also be used as AF auxiliary light for illuminating the subject supplementarily when performing scan AF. Conversely, it is also possible to use the AF auxiliary light as means for irradiating a subject with a plurality of light beams.

なお、画像データ等の記憶媒体である記憶用メモリ12は、フラッシュメモリ等の固定型の半導体メモリや、カード形状やスティック形状からなり装置に対して着脱自在に構成されるカード型フラッシュメモリ等の半導体メモリの他、ハードディスクやフロッピィ−ディスク等の磁気記憶媒体等、様々な形態のものが適用される。   The storage memory 12 that is a storage medium for image data or the like is a fixed type semiconductor memory such as a flash memory, a card type flash memory that has a card shape or a stick shape, and is detachable from the apparatus. In addition to the semiconductor memory, various forms such as a magnetic storage medium such as a hard disk or a floppy disk are applied.

また、操作スイッチ24としては、本撮像装置1を起動させ電源供給を行うための主電源スイッチや撮影動作(記憶動作)等を開始させるレリーズスイッチ、再生動作を開始させる再生スイッチ、撮影光学系のズームレンズ群2を移動させズームを行わせるズームスイッチ等がある。   The operation switch 24 includes a main power switch for starting the imaging apparatus 1 to supply power, a release switch for starting a photographing operation (storage operation), a reproducing switch for starting a reproducing operation, and a photographing optical system. There is a zoom switch for moving the zoom lens group 2 to perform zooming.

そしてレリーズスイッチは撮影動作に先立ち行われるAE処理、AF処理を開始させる指示信号を発生する第1ストローク(以下SW1)と実際の露光動作を開始させる指示信号を発生する第2ストローク(以下SW2)との2段スイッチにより構成される。   The release switch then performs a first stroke (hereinafter referred to as SW1) for generating an instruction signal for starting AE processing and AF processing performed prior to the photographing operation and a second stroke (hereinafter referred to as SW2) for generating an instruction signal for starting an actual exposure operation. And a two-stage switch.

このように構成された撮像装置の動作を以下に説明する。   The operation of the imaging apparatus configured as described above will be described below.

まず、撮像装置1の撮影レンズ鏡筒31を透過した被写体光束は絞り部4によってその光量が調整された後、CCD5の受光面に結像される。この被写体像は、CCD5による光電変換処理により電気的な信号に変換され撮像回路6に出力される。撮像回路6では、入力された信号に対して各種の信号処理を施し、所定の画像信号を生成する。この画像信号はA/D変換回路7に出力されデジタル信号(画像データ)に変換された後、VRAM8に一時的に格納される。   First, the light flux of the subject that has passed through the taking lens barrel 31 of the image pickup apparatus 1 is adjusted on the light amount by the diaphragm 4 and then imaged on the light receiving surface of the CCD 5. This subject image is converted into an electrical signal by photoelectric conversion processing by the CCD 5 and output to the imaging circuit 6. The imaging circuit 6 performs various signal processing on the input signal to generate a predetermined image signal. The image signal is output to the A / D conversion circuit 7 and converted into a digital signal (image data), and then temporarily stored in the VRAM 8.

VRAM8に格納された画像データはD/A変換回路9へ出力されアナログ信号に変換され表示するのに適した形態の画像信号に変換された後、LCDに画像として表示される。一方VRAM8に格納された画像データは圧縮伸長回路11にも出力される。この圧縮伸長回路11における圧縮回路によって圧縮処理が行われた後、記憶に適した形態の画像データに変換され、記憶用メモリ12に記憶される。   The image data stored in the VRAM 8 is output to the D / A conversion circuit 9, converted into an analog signal, converted into an image signal in a form suitable for display, and then displayed as an image on the LCD. On the other hand, the image data stored in the VRAM 8 is also output to the compression / decompression circuit 11. After compression processing is performed by the compression circuit in the compression / decompression circuit 11, it is converted into image data in a form suitable for storage and stored in the storage memory 12.

また。例えば操作スイッチ24のうち不図示の再生スイッチが操作されオン状態になると、再生動作が開始される。すると記憶用メモリ12に圧縮された形で記憶された画像データは圧縮伸長回路11に出力され、伸長回路において復号化処理や伸長処理等が施された後、VRAM8に出力され一時的に記憶される。更に、この画像データはD/A変換回路9へ出力されアナログ信号に変換され表示するのに適した形態の画像信号に変換された後、LCDに画像として表示される。   Also. For example, when a reproduction switch (not shown) of the operation switches 24 is operated and turned on, the reproduction operation is started. Then, the image data stored in a compressed form in the storage memory 12 is output to the compression / expansion circuit 11, subjected to decoding processing, expansion processing, etc. in the expansion circuit, and then output to the VRAM 8 and temporarily stored. The Further, this image data is output to the D / A conversion circuit 9, converted into an analog signal, converted into an image signal in a form suitable for display, and then displayed as an image on the LCD.

他方、A/D変換回路7によってデジタル化された画像データは、上述のVRAM8とは別にAE処理回路13及びスキャンAF処理回路14に対しても出力される。まずAE処理回路13においては、入力されたデジタル画像信号を受けて、一画面分の画像データの輝度値に対して累積加算等の演算処理が行われる。これにより、被写体の明るさに応じたAE評価値が算出される。このAE評価値はCPU15に出力される。   On the other hand, the image data digitized by the A / D conversion circuit 7 is output to the AE processing circuit 13 and the scan AF processing circuit 14 separately from the VRAM 8 described above. First, the AE processing circuit 13 receives the input digital image signal and performs arithmetic processing such as cumulative addition on the luminance value of the image data for one screen. Thereby, the AE evaluation value corresponding to the brightness of the subject is calculated. This AE evaluation value is output to the CPU 15.

またスキャンAF処理回路14においては、入力されたデジタル画像信号を受けて一画面分の画像データの高周波成分がハイパスフィルター(HPF)等を介して抽出され、更に累積加算等の演算処理が行われる。これにより、高域側の輪郭成分量等に対応するAF評価値が算出される。このようにスキャンAF処理回路14は、AF処理を行う過程において、CCD5によって生成された画像信号から所定の高周波成分を検出する高周波成分検出手段の役割を担っている。   The scan AF processing circuit 14 receives an input digital image signal, extracts a high-frequency component of image data for one screen through a high-pass filter (HPF) or the like, and performs arithmetic processing such as cumulative addition. . Thereby, an AF evaluation value corresponding to the contour component amount on the high frequency side is calculated. As described above, the scan AF processing circuit 14 plays a role of high-frequency component detection means for detecting a predetermined high-frequency component from the image signal generated by the CCD 5 in the process of performing the AF processing.

一方、TG16からは所定のタイミング信号がCPU15、撮像回路6、CCDドライバー17へ出力されており、CPU15はこのタイミング信号に同期させて各種の制御を行う。また撮像回路6は、TG16からのタイミング信号を受け、これに同期させて色信号の分離等の各種画像処理を行う。さらにCCDドライバー17は、TG16のタイミング信号を受けこれに同期してCCD5を駆動する。   On the other hand, a predetermined timing signal is output from the TG 16 to the CPU 15, the imaging circuit 6, and the CCD driver 17, and the CPU 15 performs various controls in synchronization with this timing signal. The imaging circuit 6 receives the timing signal from the TG 16 and performs various image processing such as separation of color signals in synchronization with the timing signal. Further, the CCD driver 17 receives the timing signal of the TG 16 and drives the CCD 5 in synchronization therewith.

またCPU15は、第1モータ駆動回路18、第2モータ駆動回路19、第3モータ駆動回路20をそれぞれ制御することにより、絞り駆動モータ21、フォーカス駆動モータ22、ズーム駆動モータ23を介して、絞り4、フォーカスレンズ群3、ズームスレンズ群2を駆動制御する。すなわちCPU15はAE処理回路13において算出されたAE評価値等に基づき第1モータ駆動回路18を制御して絞り駆動モータ21を駆動し、絞り4の絞り量を適正になるように調整するAE制御を行う。またCPU15はスキャンAF処理回路14において算出されるAF評価値や、後述するアクティブAF手段によって得られた出力に基づき第2モータ駆動回路19を制御してフォーカス駆動モータ22を駆動し、フォーカスレンズ群3を合焦位置に移動させるAF制御を行う。また操作スイッチ24のうち不図示のズームスイッチが操作された場合は、これを受けてCPU15は、第3モータ駆動回路20を制御してズームモータ23を駆動制御することによりズームレンズ群2を移動させ、撮影光学系の変倍動作(ズーム動作)を行う。   Further, the CPU 15 controls the first motor drive circuit 18, the second motor drive circuit 19, and the third motor drive circuit 20, respectively, and thereby controls the aperture through the aperture drive motor 21, the focus drive motor 22, and the zoom drive motor 23. 4. Drive control of the focus lens group 3 and the zoom lens group 2 is performed. That is, the CPU 15 controls the first motor drive circuit 18 based on the AE evaluation value calculated by the AE processing circuit 13 to drive the aperture drive motor 21 and adjust the aperture amount of the aperture 4 so as to be appropriate. I do. The CPU 15 controls the second motor drive circuit 19 based on the AF evaluation value calculated by the scan AF processing circuit 14 and the output obtained by the active AF means described later to drive the focus drive motor 22, and the focus lens group. AF control for moving 3 to the in-focus position is performed. When a zoom switch (not shown) among the operation switches 24 is operated, the CPU 15 moves the zoom lens group 2 by controlling the third motor drive circuit 20 and driving the zoom motor 23 in response to the operation. Then, the zooming operation of the photographing optical system is performed.

次に本実施形態の撮像装置の実際の撮影動作を図2に示すフローチャートを用いて説明する。   Next, an actual photographing operation of the imaging apparatus according to the present embodiment will be described with reference to a flowchart shown in FIG.

撮像装置1の主電源スイッチがオン状態であり、かつ撮像装置の動作モードが撮影(録画)モードにあるときは、撮影処理シーケンスが実行される。   When the main power switch of the image pickup apparatus 1 is in the on state and the operation mode of the image pickup apparatus is in the shooting (recording) mode, the shooting processing sequence is executed.

まずステップS1においてCPU15は、撮影レンズ鏡筒31を透過しCCD5上に結像した像をLCDに画像として表示する。すなわちCCD5上に結像した被写体像は、CCD5により光電変換処理され電気的な信号に変換された後、撮像回路6に出力される。そこで入力された信号に対して各種の信号処理が施され、所定の画像信号が生成された後、A/D変換回路7に出力されデジタル信号(画像データ)に変換されてVRAM8に一時的に格納される。VRAM8に格納された画像データはD/A変換回路9へ出力されアナログ信号に変換され表示するのに適した形態の画像信号に変換された後、LCDに画像として表示される。   First, in step S1, the CPU 15 displays an image formed on the CCD 5 through the photographing lens barrel 31 as an image on the LCD. That is, the subject image formed on the CCD 5 is photoelectrically converted by the CCD 5 and converted into an electrical signal, and then output to the imaging circuit 6. Then, various signal processing is performed on the input signal to generate a predetermined image signal, which is then output to the A / D conversion circuit 7 and converted into a digital signal (image data) and temporarily stored in the VRAM 8. Stored. The image data stored in the VRAM 8 is output to the D / A conversion circuit 9, converted into an analog signal, converted into an image signal in a form suitable for display, and then displayed as an image on the LCD.

次いでステップS2において、レリーズスイッチの状態を確認する。撮影者によってレリーズスイッチが操作され、SW1(レリーズスイッチの第1ストローク)がオン状態になったことをCPU15が確認すると、次のステップS3に進み、通常のAE処理が実行される。続いてステップS4においてアクティブAF処理が行われる。これはCPU15が、発光手段30を制御し被写体に向けて複数の光束を順次照射し、その反射光を撮影レンズ鏡筒31を介してCCD5で受光する。そしてCPU15は、CCD5で得られた画像よりそれぞれの光束に対応する複数の反射像の位置を求め、更にその反射像の位置より被写体までの距離を演算する。そして求まった複数の被写体までの距離から所定のアルゴリズムに従って合焦位置を算出し、後述のスキャンAFを行う領域を決定する。上記の所定のアルゴリズムとしては、特公平7−069513号公報、特開昭64−935号公報、特開昭64−48050号公報、特開昭64−48051号公報、特開昭64−48052号公報などに記載されているアルゴリズムを用いることとする。但し、実際には外光除去動作を行ったのちにその反射像の位置を求め、距離の演算を行う。   Next, in step S2, the state of the release switch is confirmed. When the photographer operates the release switch and the CPU 15 confirms that SW1 (first stroke of the release switch) has been turned on, the process proceeds to the next step S3, and normal AE processing is executed. Subsequently, active AF processing is performed in step S4. In this case, the CPU 15 controls the light emitting means 30 to sequentially irradiate a plurality of light beams toward the subject, and the reflected light is received by the CCD 5 via the photographing lens barrel 31. Then, the CPU 15 obtains the positions of a plurality of reflected images corresponding to the respective light fluxes from the image obtained by the CCD 5, and further calculates the distance to the subject from the positions of the reflected images. Then, an in-focus position is calculated according to a predetermined algorithm from the obtained distances to a plurality of subjects, and an area for performing scan AF, which will be described later, is determined. Examples of the predetermined algorithm include Japanese Patent Publication No. 7-069513, Japanese Patent Application Laid-Open No. 64-935, Japanese Patent Application Laid-Open No. 64-48050, Japanese Patent Application Laid-Open No. 64-48051, and Japanese Patent Application Laid-Open No. 64-48052. An algorithm described in a gazette is used. However, in practice, after the external light removal operation is performed, the position of the reflected image is obtained and the distance is calculated.

このようにして行われるアクティブAF処理は、所望の被写体に対するおおまかな被写体距離(フォーカスレンズ群3の合焦位置)を検出するための処理であって、いわゆる粗調整のためのAF処理である。この後正確な合焦位置を検出する微調整のためのスキャンAF処理を行う。   The active AF process performed in this way is a process for detecting a rough subject distance (focus position of the focus lens group 3) with respect to a desired subject, and is an AF process for so-called rough adjustment. Thereafter, scan AF processing for fine adjustment for detecting an accurate in-focus position is performed.

すなわちCPU15は、その後、ステップS5で正確な合焦位置を検出する微調整のためのスキャンAF処理を行う。これは、アクティブAF処理の測距結果で求められた合焦位置付近までフォーカスレンズ群3を移動した後、フォーカスレンズ群3を微小に駆動しながら、決定されたスキャンAF領域における画像信号に基づくスキャンAF処理回路の出力をモニターし、CCD5によって生成された画像信号から出力される高周波成分が最も多くなるフォーカスレンズ群3の位置を求めることにより行われる。   That is, the CPU 15 then performs a scan AF process for fine adjustment to detect an accurate in-focus position in step S5. This is based on the image signal in the determined scan AF area while moving the focus lens group 3 minutely after moving the focus lens group 3 to the vicinity of the in-focus position obtained from the distance measurement result of the active AF process. This is done by monitoring the output of the scan AF processing circuit and determining the position of the focus lens group 3 where the high-frequency component output from the image signal generated by the CCD 5 is the largest.

このようにして所定のAF処理が終了したならば、CPU15はステップS6において、SW2(レリーズスイッチの第2ストローク)の確認を行い、SW2がオンになっていたならば、ステップS7に進み、実際の露光処理を実行する。   When the predetermined AF processing is completed in this way, the CPU 15 confirms SW2 (second stroke of the release switch) in step S6. If SW2 is on, the CPU 15 proceeds to step S7 and actually The exposure process is executed.

このSW2(レリーズスイッチの第2ストローク)の確認を行っている間は、CCD5に結像した被写体像はLCDに表示される。   While the SW2 (second stroke of the release switch) is being confirmed, the subject image formed on the CCD 5 is displayed on the LCD.

ここで図2のステップS4にて実行されるアクティブAFの詳細について説明する。図3にそのフローチャートを示す。   Details of the active AF executed in step S4 of FIG. 2 will be described here. The flowchart is shown in FIG.

上述のように撮像装置1においてSW1がオンとなるとAE処理、AF処理が実行される。このうちAF処理は、まずアクティブAF処理によって粗調整がなされた後、この測距結果に基づいて、その測距結果を中心値とする所定の範囲において正確な合焦位置を検出するスキャンAF処理を行う。   As described above, when SW1 is turned on in the imaging apparatus 1, AE processing and AF processing are executed. Of these, the AF process is a scan AF process in which, after coarse adjustment is first made by the active AF process, an accurate in-focus position is detected based on the distance measurement result within a predetermined range centered on the distance measurement result. I do.

まずステップS20において、CPU15は操作スイッチ24のうち不図示のズームスイッチが操作されたことにより設定されている撮影光学系の焦点距離に関する情報を読み込む。そしてステップS21において、発光手段30にある複数個の発光素子の中から点灯する発光素子を選択する。これはズームスイッチの操作により変倍動作が行われた場合でも、発光素子を機械的に動かさずに、被写体に向けて照射する光束の撮影画面上での位置を同様にするための処理である。今、撮影画面上の三点でアクティブAFを行うので、(ズームの倍率にもよるが)発光素子としては7個ほどを用意しておき、ワイド(広角)側の焦点距離の時は外側の2個と中心の1個の発光素子、中間の焦点距離の時は外側から2番目の2個と中心の1個の発光素子、テレ(望遠)側の焦点距離の時は中心の3個の発光素子を、点灯する発光素子として選択する。その後ステップS22においてCPU15はフィルター駆動装置33を駆動しiRカットフィルター32をCCD5の前面から退避させ、撮影時には減衰させている赤外光成分を減衰させないようにする。これは赤外光の方が被写体による反射率差が小さく良好な測距が期待できるため、アクティブAF手段の発光素子として赤外発光素子を用いるためである。   First, in step S20, the CPU 15 reads information on the focal length of the photographing optical system set by operating a zoom switch (not shown) of the operation switches 24. In step S21, a light emitting element to be lit is selected from a plurality of light emitting elements in the light emitting means 30. This is a process for making the position of the luminous flux irradiated toward the subject the same on the photographing screen without mechanically moving the light emitting element even when the zooming operation is performed by operating the zoom switch. . Currently, active AF is performed at three points on the shooting screen, so about 7 light emitting elements are prepared (depending on the zoom magnification), and when the focal length is on the wide (wide angle) side, Two light emitting elements at the center, one light emitting element from the outside at the middle focal length, and one light emitting element at the center from the outside, and three at the center at the tele (telephoto) focal length The light emitting element is selected as the light emitting element to be lit. Thereafter, in step S22, the CPU 15 drives the filter driving device 33 to retract the iR cut filter 32 from the front surface of the CCD 5 so that the infrared light component attenuated during photographing is not attenuated. This is because infrared light uses an infrared light-emitting element as a light-emitting element of the active AF means because infrared light has a smaller difference in reflectance depending on the subject and can be expected to provide good distance measurement.

以下の処理においては、選択された発光素子を順次発光させ同様の処理を行い、それぞれの発光素子を発光した際の反射像の重心を求める。   In the following processing, the selected light emitting elements are sequentially emitted to perform the same processing, and the center of gravity of the reflected image when each light emitting element emits light is obtained.

まずステップS23において照明蓄積を行う。最初にこのルーチンを実行する際には、CPU15は選択された3個の発光素子のうち、右側の測距点に対応する発光素子を発光させ被写体に向けて赤外光を照射する。2番目にこのルーチンを実行する際は中央の測距点に対応する発光素子を発光させ被写体に向けて赤外光を照射する。そして3番目にこのルーチンを実行する際は左側の測距点に対応する発光素子を発光させ被写体に向けて赤外光を照射する。この発光素子を発光させた時に、絞り部4によってCCD5に受光する光量を調整する。外光が明るいときは絞り4を絞って発光素子の発光量を増し、外光が暗いときはは絞り4を開き発光素子の発光量を減らすように制御を行う。受光された被写体像はCCD5による光電変換処理により電気的な信号に変換され撮像回路6に出力される。ステップS24において、CPU15は撮像回路6を制御しCCD5からの出力信号の中央部分に相当する部分のみを読み出し、その出力をA/D変換回路7に出力させデジタル信号(画像データ)に変換された後読み込み、内蔵メモリに記憶される。これは被写体からの反射像が結像する部分のみを記憶すればよいからである。また発光する発光素子が異なれば投射され反射光が生じる被写体が異なるので、この被写体からの反射像が結像する部分は当然異なる。よって読み出す領域は発光する発光素子によって異ならせている。また撮影レンズの焦点距離が異なれば同じ被写体からの反射像でも中央の測距点以外は被写体からの反射像が結像する部分は異なる。よって読み出す領域は撮影レンズの焦点距離によっても異ならせている。このように一部分だけを読み出すことで処理の高速化も実現できる。この際はA/D変換回路7の出力はCPU15に入力されるように制御されるので、A/D変換回路7の出力はVRAM8に一時記憶されない。よってLCD10には照明蓄積時の画像は表示されず、その直前に一時記憶された画像が表示される。   First, in step S23, illumination accumulation is performed. When executing this routine for the first time, the CPU 15 emits the light emitting element corresponding to the right distance measuring point among the selected three light emitting elements and irradiates the subject with infrared light. Secondly, when executing this routine, the light emitting element corresponding to the center distance measuring point emits light and irradiates infrared light toward the subject. When this routine is executed third, the light emitting element corresponding to the left distance measuring point emits light and irradiates infrared light toward the subject. When the light emitting element is caused to emit light, the amount of light received by the CCD 5 is adjusted by the diaphragm unit 4. When the outside light is bright, the diaphragm 4 is controlled to increase the light emission amount of the light emitting element, and when the external light is dark, the diaphragm 4 is opened to reduce the light emission amount of the light emitting element. The received subject image is converted into an electrical signal by photoelectric conversion processing by the CCD 5 and output to the imaging circuit 6. In step S24, the CPU 15 controls the image pickup circuit 6 to read out only the portion corresponding to the central portion of the output signal from the CCD 5, and outputs the output to the A / D conversion circuit 7 to be converted into a digital signal (image data). Later read and stored in internal memory. This is because it is only necessary to store the portion where the reflection image from the subject is formed. In addition, since the subject in which the reflected light is projected when the light emitting element that emits light is different, the portion where the reflected image from the subject is formed is naturally different. Therefore, the area to be read out differs depending on the light emitting element that emits light. Also, if the focal length of the photographic lens is different, the portion where the reflected image from the subject is formed is different except for the center distance measuring point even in the reflected image from the same subject. Therefore, the area to be read out varies depending on the focal length of the photographing lens. In this way, the processing speed can be increased by reading only a part. At this time, since the output of the A / D conversion circuit 7 is controlled to be input to the CPU 15, the output of the A / D conversion circuit 7 is not temporarily stored in the VRAM 8. Therefore, the image at the time of accumulation of illumination is not displayed on the LCD 10, and an image temporarily stored immediately before that is displayed.

ステップS25に進み、スッテプS23の照明蓄積の時と同じ絞りで非照明蓄積を行う。絞り部4によってその光量が調整された後CCD5の受光面に結像した被写体像は、ステップS26において画像として読み出され、VRAM8に記憶される。CCD5による光電変換処理により電気的な信号に変換された信号は撮像回路6に出力され、撮像回路6では、入力された信号に対して各種の信号処理を施し、所定の画像信号が生成される。この画像信号はA/D変換回路7に出力されデジタル信号(画像データ)に変換された後VRAM8に一時的に格納される。そしてD/A変換回路9へ出力されアナログ信号に変換され表示するのに適した形態の画像信号に変換された後、LCDに画像として表示される。   Proceeding to step S25, non-illumination accumulation is performed with the same aperture as in the illumination accumulation in step S23. The subject image formed on the light receiving surface of the CCD 5 after the amount of light is adjusted by the diaphragm unit 4 is read as an image in step S 26 and stored in the VRAM 8. A signal converted into an electrical signal by photoelectric conversion processing by the CCD 5 is output to the image pickup circuit 6, and the image pickup circuit 6 performs various signal processing on the input signal to generate a predetermined image signal. . This image signal is output to the A / D conversion circuit 7, converted into a digital signal (image data), and then temporarily stored in the VRAM 8. Then, it is output to the D / A conversion circuit 9, converted into an analog signal, converted into an image signal in a form suitable for display, and then displayed as an image on the LCD.

ステップS27に進み外光除去動作を行う。これは照明蓄積のデータと非照明蓄積のデータの差を求めることで、発光素子による反射像のみのデータを求める行為である。外光によって形成された像を除去することができるので、反射像の中心を求めることが容易になる。実際にはVRAM8に格納されているデータのCPU15の内蔵メモリに記憶されたデータに相当する部分のデータをCPU15は読み込み、CPU15の内蔵メモリに記憶されたデータとの差を演算し適当な正規化を行うことで外光除去を行う。この外光除去された演算結果はCPU15の内蔵メモリに記憶される。   In step S27, an external light removal operation is performed. This is an act of obtaining data of only a reflection image by a light emitting element by obtaining a difference between illumination accumulation data and non-illumination accumulation data. Since the image formed by the external light can be removed, the center of the reflected image can be easily obtained. Actually, the CPU 15 reads the data corresponding to the data stored in the internal memory of the CPU 15 of the data stored in the VRAM 8, calculates the difference from the data stored in the internal memory of the CPU 15, and performs proper normalization. To remove external light. The calculation result from which the external light is removed is stored in a built-in memory of the CPU 15.

次いでステップS28において、反射像を抽出しその重心を演算する。急峻な立ち上がり立下りを持つ比較的輝度の高い光像を抽出し、その光像の重心を求める。詳細は後に説明する。   Next, in step S28, the reflected image is extracted and the center of gravity is calculated. A light image having a relatively high brightness with a steep rise and fall is extracted, and the center of gravity of the light image is obtained. Details will be described later.

ステップ29において、アクティブAFを行うべき三点についての処理が終了したかを判定する。   In step 29, it is determined whether or not the processing for the three points for which active AF is to be performed has been completed.

三点についての処理が終了したならば、ステップS30において、反射像の重心の位置から三点の被写体までの距離を求める。被写体までの距離Lは三角測量の原理から
L=(f+Δz)×B/x
と求められる。但し、fは撮影レンズの焦点距離、Δzは撮影レンズの繰り出し量、Bは基線長(発光手段の光軸と撮影レンズの光軸の間隔)、xは反射像の光軸中心からのずれ量である。
When the processing for the three points is completed, in step S30, the distance from the position of the center of gravity of the reflected image to the three points of the subject is obtained. The distance L to the subject is L = (f + Δz) × B / x from the principle of triangulation
Is required. Where f is the focal length of the photographic lens, Δz is the taking-out amount of the photographic lens, B is the base length (interval between the optical axis of the light emitting means and the optical axis of the photographic lens), and x is the amount of deviation of the reflected image from the optical axis center. It is.

そして三点の被写体までの距離から所定のアルゴリズムに従って合焦距離Dを算出し、スキャンAFを行う領域を決定する。この所定のアルゴリズムは、特公平7−069513号公報、特開昭64−935号公報、特開昭64−48050号公報、特開昭64−48051号公報、特開昭64−48052号公報などに記載されているアルゴリズムを用いることとする。この合焦距離Dは、三点のうち適当な一点を選択し、その点の被写体までの距離を用いることもあれば、三点の平均や、三点のうちの適当な二点の平均を用いる場合もある。また平均も単純平均の場合や、加重平均の場合がある。   Then, an in-focus distance D is calculated from the distances to the three subjects according to a predetermined algorithm, and an area for performing the scan AF is determined. This predetermined algorithm is disclosed in Japanese Patent Publication No. 7-069513, Japanese Patent Application Laid-Open No. 64-935, Japanese Patent Application Laid-Open No. 64-48050, Japanese Patent Application Laid-Open No. 64-48051, Japanese Patent Application Laid-Open No. 64-48052, and the like. Will be used. For the in-focus distance D, an appropriate one of the three points is selected and the distance to the subject at that point may be used, or the average of the three points or the average of the appropriate two of the three points may be used. Sometimes used. The average may be a simple average or a weighted average.

そしてこの合焦距離Dに相当するフォーカスレンズ群3の位置を示す設定値を求め、それをアクティブAFの合焦位置G1とする。   Then, a setting value indicating the position of the focus lens group 3 corresponding to the in-focus distance D is obtained, and this is set as the in-focus position G1 of the active AF.

またステップS28で反射像の重心が求められない場合は、被写体が遠方にあり反射像の強度が小さい場合と予測されるので、被写体までの距離を無限遠とする。三点全てが無限遠の距離に被写体があると演算された場合は、スキャンAF処理による焦点位置の検出動作の開始位置を無限遠とするため、アクティブAFの合焦位置を無限遠からスキャンAFの範囲を示す変数Gsを減じた値とする。   If the center of gravity of the reflected image cannot be obtained in step S28, it is predicted that the subject is far away and the intensity of the reflected image is small, so the distance to the subject is set to infinity. When all three points are calculated to have a subject at an infinite distance, the focus AF detection operation position by the scan AF process is set to infinity, so that the focus position of the active AF is changed from infinity to scan AF. A value obtained by subtracting the variable Gs indicating the range is used.

その後ステップS31に進み、スッテプS22においてCCD5の前面から退避させたiRカットフィルター32を再びCCD5の前面に挿入する。   Thereafter, the process proceeds to step S31, and the iR cut filter 32 retracted from the front surface of the CCD 5 in step S22 is inserted into the front surface of the CCD 5 again.

このように照明蓄積時の画像をLCD10に表示しないのは、演算の高速化のために一部の画像しか読み出していないこと、さらには発光素子の反射像が写りこんでいることによる違和感のある画像がLCD10に表示されるのを避けるためである。また直後に非照明蓄積の画像が表示されるので、画面がフリーズするような違和感を撮影者に与えることもない。   The reason why the image during illumination accumulation is not displayed on the LCD 10 in this way is that there is a sense of incongruity because only a part of the image is read out in order to speed up the calculation, and the reflected image of the light emitting element is reflected. This is to prevent the image from being displayed on the LCD 10. In addition, since the non-illuminated image is displayed immediately afterward, the photographer is not given an uncomfortable feeling that the screen freezes.

ここでステップS28における、反射像の抽出及びその重心演算について、その詳細を図4A、図4Bを用いて説明する。   Here, details of the extraction of the reflected image and the calculation of the center of gravity in step S28 will be described with reference to FIGS. 4A and 4B.

まずステップS400においてCPU15は、演算に用いる変数の初期化を行う。すなわちカウンターi,kや光像のデータを記憶するワークエリアをクリアする。また反射像と思われる光像が複数検出されることも考えられるので、光像のデータを記憶する演算用のメモリエリアは複数個用意する。   First, in step S400, the CPU 15 initializes variables used for calculation. That is, the work area for storing the counters i and k and the optical image data is cleared. In addition, since it is conceivable that a plurality of light images that are considered to be reflected images are detected, a plurality of memory areas for calculation for storing light image data are prepared.

次いでステップS401において、内蔵メモリに記憶された外光除去された演算結果のデータを読み出す。この値をd[i]とする。そしてステップS402において、d[i]を第1のしきい値Th1と比較する。第1のしきい値以上のデータが検出された場合はステップS403において、複数画素(例えば2画素)隣の画素の値との差をとり光像の立ち上がりの傾斜を求め、その傾斜が第2のしきい値Th2以上かを調べる。光像の立ち上がりの傾斜が第2のしきい値以上ならば、この光像のデータをCPU15の内蔵メモリに記憶するステップS404に進む。これにより急峻な立ち上がりを持つ比較的輝度の高い光像が検出されたことになる。ステップS402、S403で条件を満たさなかった場合は、ステップS413に進む。   Next, in step S401, the data of the calculation result from which external light has been removed stored in the built-in memory is read out. This value is d [i]. In step S402, d [i] is compared with the first threshold value Th1. If data equal to or greater than the first threshold value is detected, in step S403, the difference between the values of adjacent pixels of a plurality of pixels (for example, two pixels) is obtained to determine the rising slope of the optical image, and the slope is the second. It is checked whether the threshold value Th2 is greater than or equal to the threshold value Th2. If the rising slope of the optical image is greater than or equal to the second threshold value, the process proceeds to step S404 where the optical image data is stored in the internal memory of the CPU 15. As a result, a light image having a relatively high luminance with a steep rise is detected. If the conditions are not satisfied in steps S402 and S403, the process proceeds to step S413.

ステップS404では、光像のデータの記憶は以下のように行なわれる。すなわち、信号の輝度d[i]の和、信号の輝度と座標の積の和d[i]×iを求め記憶する。またiを光像の左側の座標としてL[k]にして記憶する。今、k番目の光像の輝度の和をSd[k]、輝度と座標の積の和をSe[k]とした時
Sd[k]=d[i]+d[i−1]
Se[k]=d[i]×i+d[i−1]×(i−1)
となる。
In step S404, optical image data is stored as follows. That is, the sum of the luminance d [i] of the signal and the sum d [i] × i of the product of the luminance of the signal and the coordinates are obtained and stored. Further, i is stored as L [k] as coordinates on the left side of the optical image. Sd [k] = d [i] + d [i−1] where Sd [k] is the sum of the luminances of the kth light image and Se [k] is the sum of the product of the luminance and coordinates.
Se [k] = d [i] × i + d [i−1] × (i−1)
It becomes.

ステップS405ではカウンターiを+1して次の画素を演算の対象とする。そしてステップS406にて、内蔵メモリに記憶された外光除去された演算結果のデータを読み出す。この値をd[i]とする。そしてステップS407において、d[i]を第1のしきい値Th1と比較する。第1のしきい値以上のデータが検出された場合はまだ光像が継続しているので、ステップS408に進み光像のデータを以下の式に従い更新する。   In step S405, the counter i is incremented by 1, and the next pixel is set as a calculation target. In step S406, the calculation result data from which external light has been removed is stored in the built-in memory. This value is d [i]. In step S407, d [i] is compared with the first threshold value Th1. If data equal to or greater than the first threshold is detected, the optical image is still continuing, and thus the process proceeds to step S408 and the optical image data is updated according to the following equation.

Sd[k]=Sd[k]+d[i]
Se[k]=Se[k]+d[i]×i
この光像のデータを更新する作業をステップS407の条件を満たさなくなるまで、ステップS405でカウンターiを更新しながら行う。但し、この処理を行っている途中に全画素に対する検出が終了した場合は、立下りの条件を満足していないので、検出を行っている光像は不適当なものと判断し、そのデータをクリアし、ただちにステップS415に進む。
Sd [k] = Sd [k] + d [i]
Se [k] = Se [k] + d [i] × i
The operation of updating the optical image data is performed while updating the counter i in step S405 until the condition of step S407 is not satisfied. However, if the detection for all pixels is completed during this process, the fall condition is not satisfied, so the light image being detected is determined to be inappropriate and the data is Clear and immediately proceed to step S415.

ステップS407の条件を満たさない場合(第1のしきい値以上のデータが検出されなかった場合)は、光像が終了したと判断できるので、急峻な立下りを持つか否かのチェックを行う。ステップS409において、複数画素(例えば2画素)隣の画素の値との差をとり光像の立ち下がりの傾斜を求め、その傾斜が第2のしきい値Th2以上かを調べる。光像の立ち下がりの傾斜が第2のしきい値以上ならば、急峻な立ち上がり立下りを持つ比較的輝度の高い光像が抽出されたことになるので、ステップS410に進み光像のデータを以下の式に従い更新する。   When the condition of step S407 is not satisfied (when data of the first threshold value or more is not detected), it can be determined that the optical image has been completed, and thus it is checked whether or not there is a steep fall. . In step S409, the difference between the values of adjacent pixels of a plurality of pixels (for example, two pixels) is obtained to determine the slope of the fall of the optical image, and it is checked whether the slope is equal to or greater than the second threshold Th2. If the falling slope of the optical image is greater than or equal to the second threshold value, a light image having a relatively high brightness having a steep rising / falling edge has been extracted. Update according to the following formula.

Sd[k]=Sd[k]+d[i]+d[i+1]
Se[k]=Se[k]+d[i]×i+d[i+1]×(i+1)
さらにiを光像の右側の座標としてR[k]にして記憶する。そしてカウンターkを+1して、光像のデータを記憶するメモリのアドレスを更新する。一方ステップS409で条件を満たさなかった場合は、急峻な立ち上がり立下りを持つ比較的輝度の高い光像が抽出されなかったことになるので、それまでに記憶された光像のデータをクリアする。
Sd [k] = Sd [k] + d [i] + d [i + 1]
Se [k] = Se [k] + d [i] × i + d [i + 1] × (i + 1)
Further, i is stored as R [k] as coordinates on the right side of the optical image. Then, the counter k is incremented by 1, and the address of the memory storing the optical image data is updated. On the other hand, if the condition is not satisfied in step S409, a light image having a relatively high brightness having a steep rise and fall has not been extracted, and thus the optical image data stored so far is cleared.

そしてステップS413に進み、カウンターiを+1して次の画素を演算の対象とした後、ステップS414において全画素に対する検出が終了しかた否かをチェックする。   In step S413, the counter i is incremented by 1 and the next pixel is set as a calculation target. In step S414, it is checked whether or not the detection for all the pixels has been completed.

全画素に対する検出が終了したならば、ステップS415にて検出された光像の重心を求める。光像の重心の座標Pxは
Px=Se[k]/Sd[k]
となる。
If the detection for all pixels is completed, the center of gravity of the optical image detected in step S415 is obtained. The coordinate Px of the center of gravity of the optical image is Px = Se [k] / Sd [k]
It becomes.

但し、複数個光像が検出されたときは、R[k]−L[k]が所定の範囲内のものを選択する。これはCCD5の面上での発光素子の反射像の大きさはほぼ一定になるはずなので、誤差を想定した一定範囲内にはいるもののみが正しい発光素子による反射像と考えられるからである。なおも複数個の光像が残った場合はSd[k]/(R[k]−L[k])の値が最も大きいものを選択する。Sd[k]/(R[k]−L[k])の値が最も大きいものを選択するのは、外光除去を行っているので、発光素子による反射像の輝度が最大になると考えられるからである。   However, when a plurality of light images are detected, one having R [k] -L [k] within a predetermined range is selected. This is because the size of the reflected image of the light emitting element on the surface of the CCD 5 should be substantially constant, so that only those within a certain range assuming an error are considered to be reflected images by the correct light emitting element. If a plurality of optical images remain, the one having the largest value of Sd [k] / (R [k] −L [k]) is selected. The reason why the largest value of Sd [k] / (R [k] −L [k]) is selected is because the luminance of the reflected image by the light emitting element is maximized because external light is removed. Because.

光像を検出する際にCCD5の前面に配置される色分離フィルターの各色の赤外光に対する感度に関しては無視してきたが、実際には感度の違いがあるので、フィルターの各色の赤外光に対する感度にあわせてデータの補正を行ったのち上記の光像検出の処理を行うことになる。   Although the sensitivity of each color of the color separation filter arranged in front of the CCD 5 to detect infrared light has been ignored, there is actually a difference in sensitivity. After correcting the data in accordance with the sensitivity, the above-described optical image detection process is performed.

次いで、図2のステップS5にて実行されるスキャンAFの詳細について説明する。   Next, details of the scan AF executed in step S5 of FIG. 2 will be described.

図5にスキャンAFのシーケンスのフローチャートを示す。また図6にスキャンAFが実行される際の高周波成分量とフォーカスレンズ位置の関係を示す。ただしこの動作はアクティブAF処理で所定のアルゴリズムに従って決定された領域についてのみ行う。例えば、動作はアクティブAF処理で所定のアルゴリズムで左側のスキャンAFを行う領域に被写体があると判定された場合は左側のスキャンAFを行う領域において以下の処理を行う。なおアクティブAF処理のアルゴリズム次第で、左側と中央のように連続する二つの領域が選ばれる場合や、全ての領域(三つの領域)が選ばれる場合も発生する。この場合は選ばれた複数領域を一つの広い領域として以下の処理を行う。   FIG. 5 shows a flowchart of the scan AF sequence. FIG. 6 shows the relationship between the high-frequency component amount and the focus lens position when the scan AF is executed. However, this operation is performed only for the area determined according to a predetermined algorithm in the active AF process. For example, when it is determined that there is a subject in the area where the left side scan AF is performed by a predetermined algorithm in the active AF process, the following process is performed in the area where the left side scan AF is performed. Depending on the algorithm of the active AF process, there are cases where two continuous areas such as the left side and the center are selected or all areas (three areas) are selected. In this case, the following processing is performed with the selected plurality of regions as one wide region.

図5のステップS51において、CPU15はスキャンAF処理による焦点位置の検出動作を行うためにフォーカスレンズ群3を駆動させる開始位置及び停止位置を、アクティブAF処理演算結果から設定する。ここで設定される開始位置の設定値は、アクティブAF合焦位置(アクティブAF処理演算結果の被写体距離に相当するフォーカスレンズ群3の位置を示す設定値)G1からスキャンAFの範囲を示す変数Gsを減じた値となる。また停止位置の設定値は、アクティブAF合焦位置(アクティブAF処理演算結果の被写体距離に相当するフォーカスレンズ群3の位置を示す設定値)G1にスキャンAFの範囲を示す変数Gsを加えた値となる。すなわち、スキャンAFを実行する範囲は、アクティブAF処理演算結果による被写体距離を中心とする所定の範囲となる。   In step S51 of FIG. 5, the CPU 15 sets a start position and a stop position for driving the focus lens group 3 in order to perform a focus position detection operation by the scan AF process from the result of the active AF process calculation. The set value of the start position set here is an active AF in-focus position (a set value indicating the position of the focus lens group 3 corresponding to the subject distance of the active AF processing calculation result) G1 to a variable Gs indicating a range of scan AF. The value obtained by subtracting. The set value of the stop position is a value obtained by adding a variable Gs indicating the range of the scan AF to the active AF in-focus position (a set value indicating the position of the focus lens group 3 corresponding to the subject distance of the active AF processing calculation result) G1. It becomes. That is, the range in which the scan AF is performed is a predetermined range centered on the subject distance based on the active AF processing calculation result.

なおこのスキャンAFの範囲を示す変数Gsは、撮影レンズの焦点距離・アクティブAF処理演算結果(被写体距離)、パララックス、アクティブAF処理において想定される測距誤差等を考慮して決定される。   The variable Gs indicating the range of the scan AF is determined in consideration of the focal length of the photographing lens / active AF processing calculation result (subject distance), parallax, distance measurement error assumed in the active AF processing, and the like.

一般的に撮像装置における焦点調節動作は、撮影光学系によって集光された所望の被写体からの光束を撮像素子(CCDなど)の撮像面(受光面)上に合焦状態で結像させるための動作である。そのために撮影光学系の一部であるフォーカスレンズ群を光軸方向に動かし合焦状態を得る。この光軸方向の移動量は被写体が近づくほど多くなる傾向にある。また撮影レンズの焦点距離が長くなるほど多くなる傾向にある。   In general, the focus adjustment operation in an imaging apparatus is for focusing a light beam from a desired subject collected by a photographing optical system on an imaging surface (light receiving surface) of an imaging device (CCD or the like) in a focused state. Is the action. For this purpose, a focus lens group which is a part of the photographing optical system is moved in the optical axis direction to obtain a focused state. The amount of movement in the optical axis direction tends to increase as the subject approaches. Moreover, it tends to increase as the focal length of the photographing lens increases.

またパララックスも被写体が近づくほど、撮影レンズの焦点距離が長くなるほど大きくなる傾向にある。   Also, the parallax tends to increase as the subject gets closer and the focal length of the photographic lens becomes longer.

測距誤差としては撮像装置の製造時の調整誤差、撮影レンズ鏡筒31の環境温度変化によって生じる歪などの温度誤差、アクティブAF手段を構成する各部材(CCD5、発光手段30など)の機械的誤差に起因する測距誤差、フォーカスレンズ群3の移動誤差などが考えられる。   The distance measurement error includes an adjustment error at the time of manufacturing the image pickup apparatus, a temperature error such as a distortion caused by a change in the environmental temperature of the photographing lens barrel 31, and a mechanical component of each member (CCD 5, light emitting means 30, etc.) constituting the active AF means. A distance measurement error caused by the error, a movement error of the focus lens group 3, and the like are conceivable.

従ってスキャンAFの範囲を示す変数Gsは、アクティブAF処理演算結果から得られる被写体まで距離が近いほど、また撮影レンズの焦点距離が長いほど大きな値となる。そして被写体までの距離と撮影レンズの焦点距離から求められた値に測距誤差等を考慮した係数を加えてスキャンAFの範囲を示す変数Gsを設定する。例えば以下の式にて求めればよい。   Therefore, the variable Gs indicating the range of the scan AF becomes a larger value as the distance to the subject obtained from the active AF processing calculation result is shorter and the focal length of the photographing lens is longer. Then, a variable Gs indicating the range of the scan AF is set by adding a coefficient considering a distance measurement error to a value obtained from the distance to the subject and the focal length of the photographing lens. For example, the following formula may be used.

Gs=K1×f/L+δL
但し、K1は定数、Lは被写体までの距離、fは撮影レンズの焦点距離、δLは測距誤差等に関する係数である。
Gs = K1 × f / L + δL
Here, K1 is a constant, L is the distance to the subject, f is the focal length of the photographic lens, and δL is a coefficient relating to distance measurement error and the like.

ついでステップS52において、CPU15は第2モータ駆動回路19を介してフォーカスモータ22を駆動させ、フォーカスレンズ群3をステップS51において設定された開始位置に移動させる。そして開始位置を起点として所定の移動量でフォーカスレンズ群3を移動させながら合焦位置を探すスキャンAF処理を実行する。   In step S52, the CPU 15 drives the focus motor 22 via the second motor drive circuit 19, and moves the focus lens group 3 to the start position set in step S51. Then, scan AF processing for searching for the in-focus position is performed while moving the focus lens group 3 by a predetermined movement amount starting from the start position.

ステップS53においてCPU15は、フォーカスレンズ群3がステップS51において設定された終了位置に到達したか否かを判定する。ここでフォーカスレンズ群3が終了位置に到達していない場合は、CPU15は撮像手段等を制御して、その時点におけるフォーカスレンズ群3の位置に対応する画像データを取得する。この画像データは撮像回路6及びA/D変換回路7を介してAF処理回路14に出力され、ステップS54に示すようにAF評価値が算出される。このAF評価値はCPU15に出力され、CPU15に内蔵された演算用メモリに記憶される。次のステップS55においてCPU15は所定の移動量だけフォーカスレンズ群3を移動させる。その後ステップS53に戻り、フォーカスレンズ群3が設定された終了位置に到達するまで同様の処理を繰り返す。   In step S53, the CPU 15 determines whether or not the focus lens group 3 has reached the end position set in step S51. If the focus lens group 3 has not reached the end position, the CPU 15 controls the imaging means and acquires image data corresponding to the position of the focus lens group 3 at that time. This image data is output to the AF processing circuit 14 via the imaging circuit 6 and the A / D conversion circuit 7, and an AF evaluation value is calculated as shown in step S54. The AF evaluation value is output to the CPU 15 and stored in a calculation memory built in the CPU 15. In the next step S55, the CPU 15 moves the focus lens group 3 by a predetermined movement amount. Thereafter, the process returns to step S53, and the same processing is repeated until the focus lens group 3 reaches the set end position.

そしてステップS53においてフォ−カスレンズ群3が終了位置に到達したと判定されたならば、ステップS56に進む。ステップS56において、CPU15はステップS55において算出されたAF評価値に基づいて合焦位置の演算を行う。そしてこの演算結果に基づいてCPU15は、ステップS57において第2モータ駆動回路19を介してフォーカスモータ22を駆動させ、フォーカスレンズ群3を合焦位置に移動させ、この位置に停止させると一連のシーケンスを終了する。その後、図2のステップS6に進む。   If it is determined in step S53 that the focus lens group 3 has reached the end position, the process proceeds to step S56. In step S56, the CPU 15 calculates the in-focus position based on the AF evaluation value calculated in step S55. Based on the calculation result, the CPU 15 drives the focus motor 22 via the second motor drive circuit 19 in step S57, moves the focus lens group 3 to the in-focus position, and stops at this position. Exit. Then, it progresses to step S6 of FIG.

図6を用いてこの一連の動作を説明すると以下のようになる。   This series of operations will be described with reference to FIG.

例えば、フォーカスレンズ群3が図6のAで示す位置にある状態において、フォーカスレンズ群3はまずAの位置から、開始位置であるアクティブAFの測距結果からGsを減じた位置Bまで移動する(スッテプS52)。この開始位置を起点としフォーカスレンズ群3が、終了位置であるアクティブAFの測距結果にGsを加えた位置Cに達するまで、スキャンAF処理が実行される(ステップS52〜S55)。そしてこれにより取得されたAF評価値に基づいてCPU15は合焦位置の演算を行う(ステップS56)。この演算により図6のDの位置、即ち高周波成分のピーク値に対応するフォーカスレンズ群3の位置が合焦位置として求められる。その後CPU15はその位置へフォーカスレンズ群3を駆動する(ステップS57)。   For example, in a state where the focus lens group 3 is at the position indicated by A in FIG. 6, the focus lens group 3 first moves from the position A to a position B obtained by subtracting Gs from the distance measurement result of the active AF that is the start position. (Step S52). The scan AF process is executed until the focus lens group 3 starts from this start position and reaches the position C obtained by adding Gs to the active AF distance measurement result, which is the end position (steps S52 to S55). Based on the AF evaluation value acquired in this way, the CPU 15 calculates the in-focus position (step S56). By this calculation, the position of D in FIG. 6, that is, the position of the focus lens group 3 corresponding to the peak value of the high frequency component is obtained as the in-focus position. Thereafter, the CPU 15 drives the focus lens group 3 to that position (step S57).

このように、アクティブAFの受光手段としてCCD5を用い、受光手段の出力から複数の被写体までの距離を概算し、その結果から適当な被写体までの距離を推測し、その距離に相当する位置を中心として設定された範囲内において、フォーカスレンズ群3を移動させながらCCD5によって生成された画像信号から出力される高周波成分が最も多くなるフォーカスレンズ群3の位置を求める。すなわち、アクティブAFで得られた被写体までの概略距離を中心に、正確な合焦位置を検出するスキャンAF処理を行うことによって、投光手段を追加するだけの低コストな構成で高速かつ正確に合焦位置を検出することを可能にした。また複数の被写体までの距離を概算しその後スキャンAF処理を行うことで、画面内にある多種多様の被写体に対して、合焦位置を検出することを可能にした。   In this way, the CCD 5 is used as the light receiving means of the active AF, the distances from the light receiving means output to the plurality of subjects are estimated, the distances to the appropriate subjects are estimated from the results, and the position corresponding to the distance is centered. The position of the focus lens group 3 in which the high frequency component output from the image signal generated by the CCD 5 is the largest is obtained while moving the focus lens group 3 within the set range. In other words, by performing a scan AF process that detects an accurate in-focus position around the approximate distance to the subject obtained by active AF, it can be performed at high speed and accurately with a low-cost configuration that only requires a light projection means. The focus position can be detected. In addition, by estimating the distances to a plurality of subjects and then performing scan AF processing, it is possible to detect in-focus positions for a wide variety of subjects in the screen.

更に照明蓄積時の画像をLCD10に表示しないことにより、LCDに「一時的に一部の画像のみが表示される」、「発光素子の反射像が写りこんだ画像が表示される」などの違和感のある画像がLCD10に表示されるのを避けることができる。そして直後に非照明蓄積の画像が表示されることで、画面がフリーズするような違和感を撮影者に与える弊害も回避している。   Further, by not displaying the image at the time of storing the illumination on the LCD 10, an uncomfortable feeling such as “a part of the image is temporarily displayed” or “an image in which the reflection image of the light emitting element is reflected” is displayed on the LCD. It is possible to avoid a certain image from being displayed on the LCD 10. Then, immediately after the non-illuminated accumulated image is displayed, the adverse effect of giving the photographer an uncomfortable feeling that the screen freezes is avoided.

説明の都合上、測距点数を三点として説明してきたが、本発明は測距点数を三点に限定するものではない。この他の測距点数にも本発明を応用することは可能である。これは以下の実施形態についても同様である。   For convenience of explanation, the number of distance measuring points has been described as three, but the present invention does not limit the number of distance measuring points to three. The present invention can be applied to other distance measuring points. The same applies to the following embodiments.

(第2の実施形態)
この第2実施形態においては、その基本的構成や基本的な動作手順は第1の実施形態と同様であり、図1の撮像装置のブロック図、図2のフローチャートによって示されている。
(Second Embodiment)
In the second embodiment, the basic configuration and the basic operation procedure are the same as those in the first embodiment, and are shown in the block diagram of the imaging apparatus in FIG. 1 and the flowchart in FIG.

本実施形態では複数個(3個)の発光素子を同時に点灯することより処理時間を短縮している。第1の実施形態と異なる本実施形態におけるアクティブAFのフローチャートについて図7を用いて説明する。   In this embodiment, the processing time is shortened by simultaneously lighting a plurality (three) of light emitting elements. A flowchart of active AF in the present embodiment, which is different from the first embodiment, will be described with reference to FIG.

まずスッテプS700において、CPU15は操作スイッチ24のうち不図示のズームスイッチが操作されたことにより設定されている撮影光学系の焦点距離に関する情報を読み込む。そしてステップS701において、発光手段30にある複数個の発光素子の中から点灯する発光素子を選択する。これはズームスイッチの操作により変倍動作が行われた場合でも、発光素子を機械的に動かさずに、被写体に向けて照射する光束の撮影画面上での位置を同様にするための処理である。今、撮影画面上の三点でアクティブAFを行うので、(ズームの倍率にもよるが)発光素子としては7個ほどを用意しておき、ワイド側の焦点距離の時は外側の2個と中心の1個の発光素子、中間の焦点距離の時は外側から2番目の2個と中心の1個の発光素子、テレ側の焦点距離の時は中心の3個の発光素子を、点灯する発光素子として選択する。その後ステップS702においてCPU15はフィルター駆動装置33を駆動しiRカットフィルター32をCCD5の前面から退避させ、撮影時には減衰させている赤外光成分を減衰させないようにする。これは赤外光の方が被写体による反射率差が小さく良好な測距が期待できるため、アクティブAF手段の発光素子として赤外発光素子を用いるためである。   First, in step S700, the CPU 15 reads information on the focal length of the photographing optical system set by operating a zoom switch (not shown) of the operation switches 24. In step S701, a light emitting element to be lit is selected from a plurality of light emitting elements in the light emitting means 30. This is a process for making the position of the luminous flux irradiated toward the subject the same on the photographing screen without mechanically moving the light emitting element even when the zooming operation is performed by operating the zoom switch. . Now, since active AF is performed at three points on the shooting screen, about seven light-emitting elements are prepared (depending on the zoom magnification). One central light-emitting element, the second two from the outside and one central light-emitting element at the middle focal length, and the three central light-emitting elements at the tele-side focal length Select as light emitting element. Thereafter, in step S702, the CPU 15 drives the filter driving device 33 to retract the iR cut filter 32 from the front surface of the CCD 5 so as not to attenuate the infrared light component that is attenuated during photographing. This is because infrared light uses an infrared light-emitting element as a light-emitting element of the active AF means because infrared light has a smaller difference in reflectance depending on the subject and can be expected to provide good distance measurement.

以下の処理においては、選択された発光素子を同時に発光させ同様の処理を行い、それぞれの発光素子を発光した際の反射像の重心を求める。   In the following processing, the selected light emitting elements emit light simultaneously and the same processing is performed, and the center of gravity of the reflected image when each light emitting element emits light is obtained.

まずステップS703において照明蓄積を行う。CPU15は選択された3個の発光素子を発光させ被写体に向けて赤外光を照射する。それと同時に、絞り部4によってCCD5に受光する光量を調整する。外光が明るいときは絞り4を絞り発光素子の発光量を増し、外光が暗いときは絞り4を開き発光素子の発光量を減らすように制御を行う。   First, in step S703, illumination accumulation is performed. The CPU 15 causes the selected three light emitting elements to emit light and irradiates infrared light toward the subject. At the same time, the amount of light received by the CCD 5 by the diaphragm 4 is adjusted. When the outside light is bright, the aperture 4 is controlled to increase the light emission amount of the aperture light emitting element, and when the external light is dark, the aperture 4 is opened to reduce the light emission amount of the light emitting element.

受光された被写体像はCCD5による光電変換処理により電気的な信号に変換され撮像回路6に出力される。ステップS704において、CPU15は撮像回路6を制御しCCD5からの出力信号の中央部分に相当する部分のみを読み出し、その出力をA/D変換回路7に出力させデジタル信号(画像データ)に変換させた後読み込み、内蔵メモリに記憶する。これは被写体からの反射像が結像する部分のみを記憶すればよいからである。また発光する発光素子が異なれば投射され反射光が生じる被写体が異なるので、この被写体からの反射像が結像する部分は当然異なる。よって読み出す領域は発光する発光素子によって異ならせている。また撮影レンズの焦点距離が異なれば同じ被写体からの反射像でも中央の測距点以外は被写体からの反射像が結像する部分は異なる。よって読み出す領域は撮影レンズの焦点距離によって異ならせている。このように一部分だけを読み出すことで処理の高速化も実現できる。この際はA/D変換回路7の出力はCPU15に入力されるように制御されるので、A/D変換回路7の出力はVRAM8に一時記憶されない。よってLCD10には照明蓄積時の画像は表示されず、その直前に一時記憶された画像が表示される。   The received subject image is converted into an electrical signal by photoelectric conversion processing by the CCD 5 and output to the imaging circuit 6. In step S704, the CPU 15 controls the image pickup circuit 6 to read out only the portion corresponding to the central portion of the output signal from the CCD 5, and outputs the output to the A / D conversion circuit 7 to convert it into a digital signal (image data). Read later and store in internal memory. This is because it is only necessary to store the portion where the reflection image from the subject is formed. In addition, since the subject in which the reflected light is projected when the light emitting element that emits light is different, the portion where the reflected image from the subject is formed is naturally different. Therefore, the area to be read out differs depending on the light emitting element that emits light. Also, if the focal length of the photographic lens is different, the portion where the reflected image from the subject is formed is different except for the center distance measuring point even in the reflected image from the same subject. Therefore, the area to be read out differs depending on the focal length of the photographing lens. In this way, the processing speed can be increased by reading only a part. At this time, since the output of the A / D conversion circuit 7 is controlled to be input to the CPU 15, the output of the A / D conversion circuit 7 is not temporarily stored in the VRAM 8. Therefore, the image at the time of accumulation of illumination is not displayed on the LCD 10, and an image temporarily stored immediately before that is displayed.

ステップS705に進み、スッテプS703の照明蓄積の時と同じ絞りで非照明蓄積を行う。絞り部4によってその光量が調整された後CCD5の受光面に結像した被写体像は、ステップS706において画像として読み出され、VRAM8に記憶される。CCD5による光電変換処理により電気的な信号に変換された信号は撮像回路6に出力され、撮像回路6では、入力された信号に対して各種の信号処理を施し、所定の画像信号が生成される。この画像信号はA/D変換回路7に出力されデジタル信号(画像データ)に変換された後VRAM8に一時的に格納される。そしてD/A変換回路9へ出力されアナログ信号に変換され表示するのに適した形態の画像信号に変換された後、LCDに画像として表示される。   Proceeding to step S705, non-illumination accumulation is performed with the same aperture as that during the illumination accumulation in step S703. The subject image formed on the light receiving surface of the CCD 5 after the amount of light is adjusted by the diaphragm unit 4 is read as an image in step S706 and stored in the VRAM 8. A signal converted into an electrical signal by photoelectric conversion processing by the CCD 5 is output to the image pickup circuit 6, and the image pickup circuit 6 performs various signal processing on the input signal to generate a predetermined image signal. . This image signal is output to the A / D conversion circuit 7, converted into a digital signal (image data), and then temporarily stored in the VRAM 8. Then, it is output to the D / A conversion circuit 9, converted into an analog signal, converted into an image signal in a form suitable for display, and then displayed as an image on the LCD.

ステップS707に進み外光除去動作を行う。これは照明蓄積のデータと非照明蓄積のデータの差を求めることで、発光素子による反射像のみのデータを求める行為である。外光によって形成された像を除去することができるので、反射像の中心を求めることが容易になる。実際にはVRAM8に格納されているデータのCPU15の内蔵メモリに記憶されたデータに相当する部分のデータをCPU15は読み込み、CPU15の内蔵メモリに記憶されたデータとの差を演算し適当な正規化を行うことで外光除去を行う。この外光除去された演算結果はCPU15の内蔵メモリに記憶される。   Proceeding to step S707, an external light removing operation is performed. This is an act of obtaining data of only a reflection image by a light emitting element by obtaining a difference between illumination accumulation data and non-illumination accumulation data. Since the image formed by the external light can be removed, the center of the reflected image can be easily obtained. Actually, the CPU 15 reads the data corresponding to the data stored in the internal memory of the CPU 15 of the data stored in the VRAM 8, calculates the difference from the data stored in the internal memory of the CPU 15, and performs proper normalization. To remove external light. The calculation result from which the external light is removed is stored in a built-in memory of the CPU 15.

次いでステップS708において、反射像を抽出しその重心を演算し、その結果から発光素子を発光した各測距点における被写体までの距離を求める。反射像の重心は急峻な立ち上がり立下りを持つ比較的輝度の高い光像を抽出し、その光像の重心を求める。その詳細は第1の実施形態と同じなので説明は省略する。反射像の重心の位置から三点の被写体までの距離Lは三角測量の原理から
L=(f+Δz)×B/x
と求められる。但し、fは撮影レンズの焦点距離、Δzは撮影レンズの繰り出し量、Bは基線長(発光手段の光軸と撮影レンズの光軸の間隔)、xは反射像の光軸中心からのずれ量である。
Next, in step S708, the reflected image is extracted, the center of gravity is calculated, and the distance to the subject at each distance measuring point that emits light from the light emitting element is obtained from the result. As for the center of gravity of the reflected image, a light image having a relatively high brightness with a steep rise and fall is extracted, and the center of gravity of the light image is obtained. Since the details are the same as those of the first embodiment, the description thereof is omitted. The distance L from the position of the center of gravity of the reflected image to the three subjects is calculated from the principle of triangulation L = (f + Δz) × B / x
Is required. Where f is the focal length of the photographic lens, Δz is the taking-out amount of the photographic lens, B is the base length (interval between the optical axis of the light emitting means and the optical axis of the photographic lens), and x is the amount of deviation of the reflected image from the optical axis center. It is.

被写体が撮影可能な範囲にあれば、反射像の位置は同時に発光素子を複数点灯しても、どの発光素子によるものなのかを判別することができる。今3個の発光素子を点灯させたので、例えば図8Aに示すように反射像は存在する。図に示すように3つの発光素子を点灯した場合、右側の発光素子による反射像の存在する範囲は右側の長方形の範囲内であり、隣の中央の発光素子による反射像の存在する範囲(真中の長方形の範囲)と重なることはない。中央や左の発光素子による反射像についても同様である。よって、同時点灯しても各発光素子による反射像の抽出及び、各点の測距が可能となる。アクティブAFの光学系おいては、撮影可能な距離及びそれよりカメラ側にある程度の余裕を取った被写体が存在すると想定できる距離に被写体がある場合は、その被写体による反射像が重ならないように設計されている。   As long as the subject is within the shootable range, it is possible to determine which light emitting element is the position of the reflected image even if a plurality of light emitting elements are lit at the same time. Since three light emitting elements are now turned on, a reflected image exists as shown in FIG. 8A, for example. As shown in the figure, when three light emitting elements are turned on, the range where the reflected image by the right light emitting element exists is within the rectangular range on the right side, and the range where the reflected image by the adjacent central light emitting element exists (middle). (The rectangular area) does not overlap. The same applies to the reflection image by the center or left light emitting element. Therefore, it is possible to extract a reflection image by each light emitting element and to measure each point even if the light is simultaneously turned on. In the active AF optical system, if there is a subject at a distance that can be taken and a subject with a certain margin on the camera side, it is designed so that the reflected images from the subject do not overlap. Has been.

しかし、被写体が撮影可能な距離より大きく近づくと想定した距離を越え、隣接する発光素子による反射像との判別が困難になる。その例を図8Bに示す。図8Bの一番下に示した例は、中央、左に想定した距離に被写体があり、右には想定した距離外(想定した距離より近く)に被写体が存在する場合を示す。この場合は、右側の発光素子による被写体からの反射像が図中で黒く塗りつぶしたように、中央の発光素子による被写体からの反射像が形成されるべき範囲に生じる。そのため、中央と右の発光素子による被写体からの反射像を区別することが出来なくなる。   However, it is difficult to discriminate the reflected image from the adjacent light emitting element beyond the distance that the subject is assumed to be closer than the distance that can be photographed. An example is shown in FIG. 8B. The example shown at the bottom of FIG. 8B shows a case where there is a subject at the assumed distance at the center and left, and the subject exists outside the assumed distance (closer to the assumed distance) on the right. In this case, the reflection image from the subject by the right light emitting element is generated in a range in which the reflection image from the subject by the central light emitting element is to be formed, as shown in black in the drawing. Therefore, it becomes impossible to distinguish the reflected images from the subject by the light emitting elements at the center and the right.

そこで本実施形態においては、図8Bに示すように左側の発光素子による被写体からの反射光を受光する範囲の左隣に、左側の被写体が想定される距離より近い場合に反射光が存在すると予想される範囲を設け、この部分も反射像抽出の対称とする処理を行い、この不具合を解消する。図8BにおいてOBレンジと記された部分である。図8Bにおいて黒く塗りつぶした丸(●)は、被写体が想定される距離より近い場合の反射光で、隣の発光素子による被写体の反射光が存在する範囲に、反射光が生じている。同図における白い丸(○)は被写体が想定される距離にある場合の反射光で、想定した範囲に発光素子による被写体の反射光が生じている。   Therefore, in the present embodiment, as shown in FIG. 8B, the reflected light is expected to exist when the left subject is closer than the assumed distance to the left of the range where the reflected light from the subject by the left light emitting element is received. This area is provided, and processing for making this part symmetrical with respect to the extraction of the reflected image is also performed to eliminate this problem. FIG. 8B is a portion indicated as OB range. In FIG. 8B, a black circle (•) is reflected light when the subject is closer than the assumed distance, and the reflected light is generated in a range where the reflected light of the subject by the adjacent light emitting element exists. White circles (◯) in the figure are reflected light when the subject is at an assumed distance, and the reflected light of the subject by the light emitting element is generated in the assumed range.

三点とも想定した距離外にある時は、図8Bの一番上に示すようになる。OB範囲に左の点の被写体からの反射光が、左の範囲に中央の点の被写体からの反射光が、中央の範囲に右の点の被写体からの反射光が存在する。よって三点の各発光素子による反射像の抽出及び、各点の測距が可能となる。だたしこの場合は、被写体が近すぎて合焦した写真を撮ることが困難なのでステップS712でその旨の警告を行ったのち、スッテプS711に進む。そしてスッテプS702においてCCD5の前面から退避させたiRカットフィルター32を再びCCD5の前面に挿入し、リターンする。   When all of the three points are outside the assumed distance, it is as shown at the top of FIG. 8B. Reflected light from the subject at the left point in the OB range, reflected light from the subject at the center point in the left range, and reflected light from the subject at the right point in the center range. Therefore, it is possible to extract a reflected image by each of the three light emitting elements and to measure the distance of each point. However, in this case, since it is difficult to take a focused photograph because the subject is too close, a warning to that effect is given in step S712, and then the process proceeds to step S711. In step S702, the iR cut filter 32 retracted from the front surface of the CCD 5 is inserted again into the front surface of the CCD 5, and the process returns.

また右側のみ想定距離内にある場合は、図8Bの2番目に示すようになり、各点の測距が可能である。ただし有効な測距結果は右側の発光素子によるもののみなので、後のステップ710で設定される合焦距離Dは右側の発光素子による測距結果によって決定される。   Further, when only the right side is within the assumed distance, it becomes as shown in the second part of FIG. 8B, and distance measurement of each point is possible. However, since the effective distance measurement result is only by the right light emitting element, the focusing distance D set in the subsequent step 710 is determined by the distance measurement result by the right light emitting element.

中央のみ想定距離内にある場合は、図8Bの3番目に示すようになり、中央と右側の点の反射像が同じ中央の点の反射像が生じる範囲に生じる。そこで中央の発光素子によるもののみを有効な測距結果とし、後のステップ710で中央の発光素子のみ点灯して再AFを行い、中央の発光素子による測距結果によって合焦距離Dは決定される。   When only the center is within the assumed distance, it becomes as shown in the third part of FIG. 8B, and the reflected image of the center and the right point occurs in the range where the reflected image of the same center point is generated. Therefore, only the center light emitting element is regarded as an effective distance measurement result, and only the center light emitting element is turned on in the subsequent step 710 to perform AF again, and the focusing distance D is determined by the distance measuring result by the center light emitting element. The

左側のみ想定距離内にある場合は、図8Bの4番目に示すようになり、中央と左側の点の反射像が同じ左側の点の反射像が生じる範囲に生じる。そこで左側の発光素子によるもののみを有効な測距結果とし、後のステップ710で左側の発光素子のみ点灯して再AFを行い、左側の発光素子による測距結果によって合焦距離Dは決定される。   When only the left side is within the assumed distance, it becomes as shown in the fourth part of FIG. 8B, and the reflection image of the center and the left point occurs in the range where the reflection image of the left point is the same. Therefore, only the left light emitting element is regarded as an effective distance measurement result, and only the left light emitting element is turned on in the subsequent step 710 and re-AF is performed. The focus distance D is determined by the distance measurement result by the left light emitting element. The

右側と中央が想定距離内にある場合は、図8Bの5番目に示すようになり、各点の測距が可能である。ただし有効な測距結果は右側と中央の発光素子によるものなので、後のステップ710で設定される合焦距離Dは右側と中央の発光素子による測距結果によって決定される。   When the right side and the center are within the assumed distance, it becomes as shown in the fifth of FIG. 8B, and distance measurement of each point is possible. However, since the effective distance measurement result is based on the right and center light emitting elements, the focusing distance D set in the subsequent step 710 is determined by the distance measurement result obtained on the right and center light emitting elements.

右側と左側が想定距離内にある場合は、図8Bの6番目に示すようになり、中央と左側の点の反射像が同じ左側の点の反射像が生じる範囲に生じる。そこで右側と左側の発光素子によるものを有効な測距結果とし、後のステップ710で左側の発光素子のみ点灯して再AFを行い、右側と左側の発光素子による測距結果によって合焦距離Dは決定される。   When the right side and the left side are within the assumed distance, as shown in FIG. 8B, the reflection image of the center and the left point occurs in the range where the reflection image of the left point is the same. Therefore, the effective distance measurement result is obtained by using the right and left light emitting elements, and only the left light emitting element is turned on and re-AF is performed in a later step 710, and the focusing distance D is determined by the distance measurement results by the right and left light emitting elements. Is determined.

中央と左側が想定距離内にある場合は、図8Bの7番目に示すようになり、中央と右側の点の反射像が同じ中央の点の反射像が生じる範囲に生じる。そこで中央と左側の発光素子によるものを有効な測距結果とし、後のステップ710で中央の発光素子のみ点灯して再AFを行い、中央と左側の発光素子による測距結果によって合焦距離Dは決定される。   When the center and the left side are within the assumed distance, as shown in FIG. 8B, the reflection image of the center and the right point occurs in the range where the reflection image of the same center point is generated. Therefore, the effective distance measurement result is obtained by using the center and left light emitting elements, and only the center light emitting element is turned on in the subsequent step 710 to perform AF again. Is determined.

ステップS709において、三点とも想定距離外かどうかの判定をし、三点とも想定距離外ならスッテプS712に進み警告を行う。   In step S709, it is determined whether all three points are outside the assumed distance, and if all three points are outside the assumed distance, the process proceeds to step S712 to give a warning.

想定範囲内のものがあればステップS710に進み、必要があれば再AF(アクティブAF)を行い、ステップS708と同様に、反射像を抽出しその重心を演算し、その結果から発光素子を発光した各測距点における被写体までの距離を求める。   If it is within the assumed range, the process proceeds to step S710. If necessary, re-AF (active AF) is performed, and the reflected image is extracted and its center of gravity is calculated in the same manner as in step S708. The distance to the subject at each distance measuring point is obtained.

そして三点の被写体までの距離のうち有効とされたものから所定のアルゴリズムに従って合焦距離Dを算出し、スキャンAFを行う領域を決定する。所定のアルゴリズムは、特公平7−069513号公報、特開昭64−935号公報、特開昭64−48050号公報、特開昭64−48051号公報、特開昭64−48052号公報などに記載されているアルゴリズムを用いることとする。   Then, an in-focus distance D is calculated according to a predetermined algorithm from the three effective distances to the subject, and an area for performing the scan AF is determined. The predetermined algorithm is disclosed in Japanese Patent Publication No. 7-069513, Japanese Patent Application Laid-Open No. 64-935, Japanese Patent Application Laid-Open No. 64-48050, Japanese Patent Application Laid-Open No. 64-48051, Japanese Patent Application Laid-Open No. 64-48052, and the like. The algorithm described is used.

そしてこの合焦距離Dに相当するフォーカスレンズ群3の位置を示す設定値を求め、それをアクティブAFの合焦位置G1とする。   Then, a setting value indicating the position of the focus lens group 3 corresponding to the in-focus distance D is obtained, and this is set as the in-focus position G1 of the active AF.

またステップS708で反射像の重心が求められない場合は、被写体が遠方にあり反射像の強度が小さい場合と予測されるので、被写体までの距離を無限遠とする。三点全てが無限遠の距離に被写体があると演算された場合は、スキャンAF処理による焦点位置の検出動作の開始位置を無限遠とするため、アクティブAFの合焦位置を無限遠からスキャンAFの範囲を示す変数Gsを減じた値とする。   If the center of gravity of the reflected image cannot be obtained in step S708, it is predicted that the subject is far away and the intensity of the reflected image is small, so the distance to the subject is set to infinity. When all three points are calculated to have a subject at an infinite distance, the focus AF detection operation position by the scan AF process is set to infinity, so that the focus position of the active AF is changed from infinity to scan AF. A value obtained by subtracting the variable Gs indicating the range is used.

その後ステップS711に進み、スッテプS702においてCCD5の前面から退避させたiRカットフィルター32を再びCCD5の前面に挿入する。   Thereafter, the process proceeds to step S711, and the iR cut filter 32 retracted from the front surface of the CCD 5 in step S702 is inserted into the front surface of the CCD 5 again.

このように照明蓄積時の画像をLCD10に表示しないのは、演算の高速化のために一部の画像しか読み出していないこと、さらには発光素子の反射像が写りこんでいることによる違和感のある画像がLCD10に表示されるのを避けるためである。また直後に非照明蓄積の画像が表示されるので、画面がフリーズするような違和感を撮影者に与えることもない。   The reason why the image during illumination accumulation is not displayed on the LCD 10 in this way is that there is a sense of incongruity because only a part of the image is read out in order to speed up the calculation, and the reflected image of the light emitting element is reflected. This is to prevent the image from being displayed on the LCD 10. In addition, since the non-illuminated image is displayed immediately afterward, the photographer is not given an uncomfortable feeling that the screen freezes.

当然、ステップS712において警告を行った場合は、図2のステップS5におけるスキャンAFは実行されない。   Naturally, when a warning is given in step S712, the scan AF in step S5 in FIG. 2 is not executed.

このように、アクティブAFの受光手段としてCCD5を用い、受光手段の出力から複数の被写体までの距離を概算し、その結果から適当な被写体までの距離を推測し、その距離に相当する位置を中心として設定された範囲内において、フォーカスレンズ群3を移動しながらCCD5によって生成された画像信号から出力される高周波成分が最も多くなるフォーカスレンズ群3の位置を求める。すなわち、アクティブAFで得られた被写体までの概略距離を中心に、正確な合焦位置を検出するスキャンAF処理を行うことによって、投光手段を追加するだけでの低コストな構成で高速かつ正確に合焦位置を検出することを可能にした。また複数の発光素子を同時に点灯することで複数の被写体までの距離の概算を更なる高速で行うことを可能にするとともに、複数の被写体までの距離を概算しその後スキャンAF処理を行うことで、画面内にある多種多様の被写体に対して、合焦位置を検出することを可能にした。   In this way, the CCD 5 is used as the light receiving means of the active AF, the distances from the light receiving means output to the plurality of subjects are estimated, the distances to the appropriate subjects are estimated from the results, and the position corresponding to the distance is centered. The position of the focus lens group 3 in which the high frequency component output from the image signal generated by the CCD 5 is the largest is obtained while moving the focus lens group 3 within the set range. In other words, by performing scan AF processing that detects an accurate in-focus position around the approximate distance to the subject obtained by active AF, it is possible to achieve high-speed and accurate with a low-cost configuration by simply adding a light projection means. It was possible to detect the in-focus position. In addition, by simultaneously lighting a plurality of light emitting elements, it is possible to estimate the distance to a plurality of subjects at a further high speed, and by approximating the distance to a plurality of subjects and then performing a scan AF process, The focus position can be detected for a wide variety of subjects on the screen.

(第3の実施形態)
この第3実施形態においては、その基本的構成や基本的な動作手順は第1の実施形態と同様であり、図1の撮像装置のブロック図、図2のフローチャートによって示されている。
(Third embodiment)
In the third embodiment, the basic configuration and the basic operation procedure are the same as those in the first embodiment, and are shown in the block diagram of the imaging apparatus in FIG. 1 and the flowchart in FIG.

本実施形態では、マクロモード時にはまずマクロ領域にてスキャンAFを実行することで、被写体のある距離を特定する。そして想定距離内に被写体のある位置の発光素子を同時に点灯することよりアクティブAFを行う。第1の実施形態と異なる本実施形態におけるアクティブAFのフローチャートについて図9を用いて説明する。   In the present embodiment, in the macro mode, first, the scan AF is executed in the macro area, thereby specifying a certain distance of the subject. Then, active AF is performed by simultaneously lighting the light emitting elements at a position where the subject is within the assumed distance. A flowchart of active AF in the present embodiment, which is different from the first embodiment, will be described with reference to FIG.

まずスッテプS900において、マクロモードに設定されているか否かを判定する。マクロモードに設定されていなければ、想定距離外に被写体は無いと考えられるのでステップS904に進む。   First, in step S900, it is determined whether or not the macro mode is set. If it is not set to the macro mode, it is considered that there is no subject outside the assumed distance, and thus the process proceeds to step S904.

マクロモードに設定されている場合は、ステップS901においてマクロ撮影領域でのスキャンAFを行う。マクロ撮影領域はカメラの仕様等によって変化するが、おおよそ70cmからその撮影レンズの最短撮影距離の範囲である。ここで行われるスキャンAFは図2のステップS5にて実行されるスキャンAFと同等のものであり、そのスキャン範囲がマクロ撮影領域に限定されたものである。   If the macro mode is set, scan AF is performed in the macro imaging region in step S901. The macro shooting area varies depending on the specifications of the camera and the like, but ranges from approximately 70 cm to the shortest shooting distance of the shooting lens. The scan AF performed here is equivalent to the scan AF executed in step S5 of FIG. 2, and the scan range is limited to the macro imaging region.

その結果をスッテプS902で判定し、マクロ領域に被写体が存在して合焦と判断できるフォーカスレンズ群3の位置が存在する場合は、合焦と判断しこのAF動作を終了しリターンする。この合焦の判断は、画像信号から出力される高周波成分を示す評価値(AF評価値)が最も多くなり、かつそのAF評価値が所定量以上の場合に合焦と判断される。そのためマクロ領域に被写体が存在しても、著しく暗い場合や被写体のコントラクトが著しく低い場合などは合焦ではないと判断される場合もある。   The result is determined in step S902. If the subject is present in the macro area and the position of the focus lens group 3 that can be determined to be in focus exists, it is determined that the focus is in focus, the AF operation is terminated, and the process returns. This in-focus determination is determined to be in-focus when the evaluation value (AF evaluation value) indicating the high-frequency component output from the image signal is the largest and the AF evaluation value is greater than or equal to a predetermined amount. Therefore, even when a subject exists in the macro area, it may be determined that the subject is not in focus when the subject is extremely dark or the subject contract is extremely low.

合焦と判定されなかった場合はステップS903において、ステップS901のスキャンAFの結果、三点全てが想定距離範囲外(レンズの撮影可能距離より近距離)と判定された場合はステップS913にてその旨の警告を行い、このAF動作を終了しリターンする。   If it is not determined to be in focus, in step S903, as a result of scan AF in step S901, if all three points are determined to be out of the assumed distance range (closer to the lens shooting distance), in step S913 A warning to that effect is issued, the AF operation is terminated, and the process returns.

想定距離範囲内の測距点がある場合はステップS904に進みアクティブAFの処理を開始する。   If there is a distance measuring point within the assumed distance range, the process proceeds to step S904 to start the active AF process.

ステップS904において、CPU15は操作スイッチ24のうち不図示のズームスイッチが操作されたことにより設定されている撮影光学系の焦点距離に関する情報を読み込む。そしてステップS905において、発光手段30にある複数個の発光素子の中から点灯する発光素子を選択する。これはズームスイッチの操作により変倍動作が行われた場合でも、発光素子を機械的に動かさずに、被写体に向けて照射する光束の撮影画面上での位置を同様にするための処理である。今、撮影画面上の三点でアクティブAFを行うので、(ズームの倍率にもよるが)発光素子としては7個ほどを用意しておき、ワイド側の焦点距離の時は外側の2個と中心の1個の発光素子、中間の焦点距離の時は外側から2番目の2個と中心の1個の発光素子、テレ側の焦点距離の時は中心の3個の発光素子を、点灯する発光素子として選択する。さらにその中からS901で実行されたスキャンAFの結果に基づき、想定距離範囲外の測距点を除外する。   In step S <b> 904, the CPU 15 reads information related to the focal length of the photographing optical system set by operating a zoom switch (not shown) of the operation switches 24. In step S905, a light emitting element to be lit is selected from a plurality of light emitting elements in the light emitting means 30. This is a process for making the position of the luminous flux irradiated toward the subject the same on the photographing screen without mechanically moving the light emitting element even when the zooming operation is performed by operating the zoom switch. . Now, since active AF is performed at three points on the shooting screen, about seven light-emitting elements are prepared (depending on the zoom magnification). One central light-emitting element, the second two from the outside and one central light-emitting element at the middle focal length, and the three central light-emitting elements at the tele-side focal length Select as light emitting element. Further, based on the result of the scan AF executed in S901, ranging points outside the assumed distance range are excluded.

その後ステップS906においてCPU15はフィルター駆動装置33を駆動しiRカットフィルター32をCCD5の前面から退避させ、撮影時には減衰させている赤外光成分を減衰させないようにする。   Thereafter, in step S906, the CPU 15 drives the filter driving device 33 to retract the iR cut filter 32 from the front surface of the CCD 5 so as not to attenuate the infrared light component attenuated during photographing.

以下の処理においては、選択された発光素子を同時に発光させ同様の処理を行い、それぞれの発光素子を発光した際の反射像の重心を求める。   In the following processing, the selected light emitting elements emit light simultaneously and the same processing is performed, and the center of gravity of the reflected image when each light emitting element emits light is obtained.

まずステップS907において照明蓄積を行う。CPU15は選択された発光素子を発光させ被写体に向けて赤外光を照射する。それと同時に、絞り部4によってCCD5に受光する光量を調整する。外光が明るいときは絞り4を絞り発光素子の発光量を増し、外光が暗いときはは絞り4を開き発光素子の発光量を減らすように制御を行う。   First, in step S907, illumination accumulation is performed. The CPU 15 emits the selected light emitting element to emit infrared light toward the subject. At the same time, the amount of light received by the CCD 5 by the diaphragm 4 is adjusted. When the outside light is bright, the diaphragm 4 is controlled to increase the light emission amount of the light emitting element, and when the outside light is dark, the diaphragm 4 is opened to reduce the light emission amount of the light emitting element.

受光された被写体像はCCD5による光電変換処理により電気的な信号に変換され撮像回路6に出力される。CPU15は撮像回路6を制御しCCD5からの出力信号の中央部分に相当する部分のみを読み出し、その出力をA/D変換回路7に出力させデジタル信号(画像データ)に変換された後読み込み、内蔵メモリに記憶する。これは被写体からの反射像が結像する部分のみを記憶すればよいからである。また発光する発光素子が異なれば投射され反射光が生じる被写体が異なるので、この被写体からの反射像が結像する部分は当然異なる。よって読み出す領域は発光する発光素子によって異ならせている。また撮影レンズの焦点距離が異なれば同じ被写体からの反射像でも中央の測距点以外は被写体からの反射像が結像する部分は異なる。よって読み出す領域は撮影レンズの焦点距離によって異ならせている。このように一部分だけを読み出すことで処理の高速化も実現できる。この際はA/D変換回路7の出力はCPU15に入力されるように制御されるので、A/D変換回路7の出力はVRAM8に一時記憶されない。よってLCD10には照明蓄積時の画像は表示されず、その直前に一時記憶された画像が表示される。   The received subject image is converted into an electrical signal by photoelectric conversion processing by the CCD 5 and output to the imaging circuit 6. The CPU 15 controls the image pickup circuit 6 to read out only the portion corresponding to the central portion of the output signal from the CCD 5, and outputs the output to the A / D conversion circuit 7, which is converted into a digital signal (image data) and read. Store in memory. This is because it is only necessary to store the portion where the reflection image from the subject is formed. In addition, since the subject in which the reflected light is projected when the light emitting element that emits light is different, the portion where the reflected image from the subject is formed is naturally different. Therefore, the area to be read out differs depending on the light emitting element that emits light. Also, if the focal length of the photographic lens is different, the portion where the reflected image from the subject is formed is different except for the center distance measuring point even in the reflected image from the same subject. Therefore, the area to be read out differs depending on the focal length of the photographing lens. In this way, the processing speed can be increased by reading only a part. At this time, since the output of the A / D conversion circuit 7 is controlled to be input to the CPU 15, the output of the A / D conversion circuit 7 is not temporarily stored in the VRAM 8. Therefore, the image at the time of accumulation of illumination is not displayed on the LCD 10, and an image temporarily stored immediately before that is displayed.

ステップS908に進み、スッテプS907の照明蓄積の時と同じ絞りで非照明蓄積を行う。絞り部4によってその光量が調整された後CCD5の受光面に結像した被写体像は読み出されVRAM8に記憶される。CCD5による光電変換処理により電気的な信号に変換された信号は撮像回路6に出力され、撮像回路6では、入力された信号に対して各種の信号処理を施し、所定の画像信号を生成する。この画像信号はA/D変換回路7に出力されデジタル信号(画像データ)に変換された後VRAM8に一時的に格納される。そしてD/A変換回路9へ出力されアナログ信号に変換され表示するのに適した形態の画像信号に変換された後、LCDに画像として表示される。   Proceeding to step S908, non-illumination accumulation is performed with the same aperture as in the illumination accumulation of step S907. The subject image formed on the light receiving surface of the CCD 5 after the amount of light is adjusted by the diaphragm 4 is read out and stored in the VRAM 8. A signal converted into an electrical signal by photoelectric conversion processing by the CCD 5 is output to the image pickup circuit 6, and the image pickup circuit 6 performs various signal processing on the input signal to generate a predetermined image signal. This image signal is output to the A / D conversion circuit 7, converted into a digital signal (image data), and then temporarily stored in the VRAM 8. Then, it is output to the D / A conversion circuit 9, converted into an analog signal, converted into an image signal in a form suitable for display, and then displayed as an image on the LCD.

ステップS909に進み外光除去動作を行う。これは照明蓄積のデータと非照明蓄積のデータの差を求めることで、発光素子による反射像のみのデータを求める行為である。外光によって形成された像を除去することができるので、反射像の中心を求めることが容易になる。実際にはVRAM8に格納されているデータのCPU15の内蔵メモリに記憶されたデータに相当する部分のデータをCPU15は読み込み、CPU15の内蔵メモリに記憶されたデータとの差を演算し適当な正規化を行うことで外光除去を行う。この外光除去された演算結果はCPU15の内蔵メモリに記憶される。   In step S909, an external light removal operation is performed. This is an act of obtaining data of only a reflection image by a light emitting element by obtaining a difference between illumination accumulation data and non-illumination accumulation data. Since the image formed by the external light can be removed, the center of the reflected image can be easily obtained. Actually, the CPU 15 reads the data corresponding to the data stored in the internal memory of the CPU 15 of the data stored in the VRAM 8, calculates the difference from the data stored in the internal memory of the CPU 15, and performs proper normalization. To remove external light. The calculation result from which the external light is removed is stored in a built-in memory of the CPU 15.

次いでステップS910において、反射像を抽出しその重心を演算し、その結果から発光素子を発光した各測距点における被写体までの距離を求める。反射像の重心は急峻な立ち上がり立ち下りを持つ比較的輝度の高い光像を抽出し、その光像の重心を求める。その詳細は第1の実施形態と同じなので説明は省略する。反射像の重心の位置から三点の被写体までの距離Lは三角測量の原理から
L=(f+Δz)×B/x
と求められる。但し、fは撮影レンズの焦点距離、Δzは撮影レンズの繰り出し量、Bは基線長(発光手段の光軸と撮影レンズの光軸の間隔)、xは反射像の光軸中心からのずれ量である。
Next, in step S910, the reflected image is extracted, the center of gravity is calculated, and the distance to the subject at each distance measuring point that emits light from the light emitting element is obtained from the result. As for the center of gravity of the reflected image, a light image having a relatively high brightness with a steep rise and fall is extracted, and the center of gravity of the light image is obtained. Since the details are the same as those of the first embodiment, the description thereof is omitted. The distance L from the position of the center of gravity of the reflected image to the three subjects is calculated from the principle of triangulation L = (f + Δz) × B / x
Is required. Where f is the focal length of the photographic lens, Δz is the taking-out amount of the photographic lens, B is the base length (interval between the optical axis of the light emitting means and the optical axis of the photographic lens), and x is the amount of deviation of the reflected image from the optical axis center. It is.

そして求まった被写体までの距離を用いて所定のアルゴリズムに従い合焦距離Dを算出し、スキャンAFを行う領域を決定する。   Then, an in-focus distance D is calculated according to a predetermined algorithm using the obtained distance to the subject, and an area for performing the scan AF is determined.

そしてこの合焦距離Dに相当するフォーカスレンズ群3の位置を示す設定値を求め、それをアクティブAFの合焦位置G1とする。   Then, a setting value indicating the position of the focus lens group 3 corresponding to the in-focus distance D is obtained, and this is set as the in-focus position G1 of the active AF.

第1及び第2の実施形態と同様に、反射像の重心が求められない場合は被写体までの距離を無限遠とする。三点全てが無限遠の距離に被写体があると演算された場合は、スキャンAF処理による焦点位置の検出動作の開始位置を無限遠とするため、アクティブAFの合焦位置を無限遠からスキャンAFの範囲を示す変数Gsを減じた値とする。   Similar to the first and second embodiments, when the center of gravity of the reflected image cannot be obtained, the distance to the subject is set to infinity. When all three points are calculated to have a subject at an infinite distance, the focus AF detection operation position by the scan AF process is set to infinity, so that the focus position of the active AF is changed from infinity to scan AF. A value obtained by subtracting the variable Gs indicating the range is used.

その後ステップS912に進み、ステップS906においてCCD5の前面から退避させたiRカットフィルター32を再びCCD5の前面に挿入する。   Thereafter, the process proceeds to step S912, and the iR cut filter 32 retracted from the front surface of the CCD 5 in step S906 is inserted into the front surface of the CCD 5 again.

このように照明蓄積時の画像をLCD10に表示しないのは、演算の高速化のために一部の画像しか読み出していないこと、さらには発光素子の反射像が写りこんでいることによる違和感のある画像がLCD10に表示されるのを避けるためである。また直後に非照明蓄積の画像が表示されるので、画面がフリーズするような違和感を撮影者に与えることもない。   The reason why the image during illumination accumulation is not displayed on the LCD 10 in this way is that there is a sense of incongruity because only a part of the image is read out in order to speed up the calculation, and the reflected image of the light emitting element is reflected. This is to prevent the image from being displayed on the LCD 10. In addition, since the non-illuminated image is displayed immediately afterward, the photographer is not given an uncomfortable feeling that the screen freezes.

当然、ステップS913において警告を行った場合は、図2のステップS5におけるスキャンAFは実行されない。   Naturally, when a warning is given in step S913, the scan AF in step S5 in FIG. 2 is not executed.

ステップS901で実行されるスキャンAFは、マクロ領域でももう一度AF(アクティブAF及びスキャンAF)を行うことを前提に、想定距離範囲外(レンズの撮影可能距離より近距離)の測距点を判定するためのAFと捉えれば、このステップS901で実行されるスキャンAFは、スキャンの幅を粗くして高速に行うようにすることができる。   The scan AF executed in step S901 determines a distance measurement point that is outside the assumed distance range (closer to the lens photographing distance) on the premise that AF (active AF and scan AF) is performed again even in the macro area. In this case, the scan AF executed in step S901 can be performed at a high speed with a rough scan width.

マクロモードが指定されていなくても(設定のし忘れなどにより)、近くに被写体がある場合もあるので、マクロモードが設定されていなくても上記のアルゴリズムを実行しても良い。この場合は遠景モード以外の時に上記のアルゴリズムを実行するようにすることが好ましい。   Even if the macro mode is not specified (for example, because of forgetting to set), there may be a subject nearby, so the above algorithm may be executed even if the macro mode is not set. In this case, it is preferable to execute the above-described algorithm in a mode other than the distant view mode.

このように、アクティブAFの受光手段としてCCD5を用い、受光手段の出力から複数の被写体までの距離を概算し、その結果から適当な被写体までの距離を推測し、その距離に相当する位置を中心として設定された範囲内において、フォーカスレンズ群3を移動しながらCCD5によって生成された画像信号から出力される高周波成分が最も多くなるフォーカスレンズ群3の位置を求める。すなわち、アクティブAFで得られた被写体までの概略距離を中心に、正確な合焦位置を検出するスキャンAF処理を行うことによって、投光手段を追加するだけでの低コストな構成で高速かつ正確に合焦位置を検出することを可能にした。アクティブAFに先立ちマクロ領域におけるスキャンAFを行い被写体が想定した距離より近距離に存在するか否かを知ることで、「想定した範囲外に反射像が形成され、反射像の分別が困難になる」という複数の発光素子を同時に点灯する際の問題点を解消した。   In this way, the CCD 5 is used as the light receiving means of the active AF, the distances from the light receiving means output to the plurality of subjects are estimated, the distances to the appropriate subjects are estimated from the results, and the position corresponding to the distance is centered. The position of the focus lens group 3 in which the high frequency component output from the image signal generated by the CCD 5 is the largest is obtained while moving the focus lens group 3 within the set range. In other words, by performing scan AF processing that detects an accurate in-focus position around the approximate distance to the subject obtained by active AF, it is possible to achieve high-speed and accurate with a low-cost configuration by simply adding a light projection means. It was possible to detect the in-focus position. By performing scan AF in the macro area prior to the active AF and knowing whether or not the subject exists at a shorter distance than the assumed distance, a “reflected image is formed outside the assumed range, making it difficult to separate the reflected image. The problem of lighting multiple light-emitting elements at the same time has been resolved.

そして、複数の被写体までの距離を概算しその後スキャンAF処理を行うことで、画面内にある多種多様の被写体に対して、合焦位置を検出することを可能にした。   Then, by estimating the distances to a plurality of subjects and then performing scan AF processing, it is possible to detect in-focus positions for a wide variety of subjects on the screen.

(第4の実施形態)
この第4の実施形態においては、その基本的構成や基本的な動作手順は第1の実施形態と同様であり、図1の撮像装置のブロック図、図2のフローチャートによって示されている。
(Fourth embodiment)
In the fourth embodiment, the basic configuration and the basic operation procedure are the same as those in the first embodiment, and are shown in the block diagram of the imaging apparatus in FIG. 1 and the flowchart in FIG.

本実施形態ではまず中央の被写体に対するアクティブAFを行い、その結果に応じて、他の2点のアクティブAFを行うか、近距離の警告を行うかを決定している。第1の実施形態と異なる本実施形態におけるアクティブAFのフローチャートについて図10を用いて説明する。   In the present embodiment, first, active AF is performed on the center subject, and it is determined whether to perform other two points of active AF or a short distance warning according to the result. A flowchart of active AF in this embodiment different from the first embodiment will be described with reference to FIG.

まずステップS1000において、CPU15はフィルター駆動装置33を駆動しiRカットフィルター32をCCD5の前面から退避させ、撮影時には減衰させている赤外光成分を減衰させないようにする。   First, in step S1000, the CPU 15 drives the filter driving device 33 to retract the iR cut filter 32 from the front surface of the CCD 5 so as not to attenuate the infrared light component that is attenuated during photographing.

ついでステップS1001において中央の点のみでアクティブAFを行う。中央の被写体に光束を照射する発光素子は撮影レンズの焦点距離に依らず決まるので、その発光素子を点灯しアクティブAFを行う。具体的手順は、第1、第2、及び第3の実施形態と同様で、照明蓄積、非照明蓄積、外光除去を行い、その結果から反射像の重心位置を求め、被写体までの距離を算出する。いま中央の被写体に光束を照射する発光素子しか点灯していないので、被写体がどの距離にあっても、反射像を抽出しその距離を求めることは可能である。   In step S1001, active AF is performed only at the center point. Since the light emitting element for irradiating the central subject with the light flux is determined regardless of the focal length of the photographing lens, the light emitting element is turned on to perform active AF. The specific procedure is the same as in the first, second, and third embodiments. Illumination accumulation, non-illumination accumulation, and external light removal are performed, and the center of gravity position of the reflected image is obtained from the result, and the distance to the subject is determined. calculate. Since only the light emitting element for irradiating the central subject with the luminous flux is turned on, it is possible to extract the reflected image and obtain the distance regardless of the distance of the subject.

ステップS1002においてステップS1001の測距結果を評価する。その結果想定距離範囲外(レンズの撮影可能距離より近距離)に中央の測距結果があれば、ステップS1006に進みその旨の警告を行い、リターンする。   In step S1002, the distance measurement result in step S1001 is evaluated. As a result, if there is a center distance measurement result outside the assumed distance range (closer to the lens photographing distance), the process proceeds to step S1006 to give a warning to that effect and return.

中央の測距結果が想定距離範囲内の場合は、ステップS1003で左右の測距位置においてアクティブAFを行う。具体的手順は、これまでと同様である。焦点距離情報から点灯する発光素子を選択し、照明蓄積、非照明蓄積、外光除去を行い、その結果から反射像の重心位置を求め、被写体までの距離を算出する。いま中央の測距位置の測距結果から左右の被写体も想定距離範囲内と推測できる。なぜなら、相当小さな被写体以外は想定距離より近くに存在する場合は画面に占める面積が大きくなるので、左右どちらかの測距点にのみ存在し、中央に存在しないということは考えられない。もし、そのようなことがあったとしても、その場合は該当する被写体は非常に小さいので、発光素子からの光束があたらない可能性が高く、測距に悪影響を及ぼしにくい。   When the center distance measurement result is within the assumed distance range, active AF is performed at the right and left distance measurement positions in step S1003. The specific procedure is the same as before. A light emitting element to be lit is selected from the focal length information, illumination accumulation, non-illumination accumulation, and external light removal are performed, and the center of gravity position of the reflected image is obtained from the result, and the distance to the subject is calculated. From the distance measurement result at the center distance measurement position, it can be estimated that the left and right subjects are also within the assumed distance range. This is because the area occupied on the screen increases when an object other than a considerably small object is present near the assumed distance, so it cannot be considered that it exists only at one of the right and left distance measuring points and does not exist at the center. Even in such a case, since the corresponding subject is very small in that case, there is a high possibility that the light beam from the light emitting element will not be hit, and the distance measurement is hardly adversely affected.

逆に中央にのみ想定距離より近くに被写体が存在し、左右には存在しないという状況も稀である。そのような場合も被写体は非常に小さく発光素子からの光束があたらない可能性が高く、測距に悪影響を及ぼしにくい。   On the other hand, there is rarely a situation where the subject exists near the expected distance only in the center and does not exist on the left and right. In such a case as well, the subject is very small and there is a high possibility that the light beam from the light emitting element will not be hit, and the distance measurement is hardly adversely affected.

三点の測距が終了したらスッテプS1004に進み、求まった被写体までの距離を用いて所定のアルゴリズムに従い合焦距離Dを算出し、スキャンAFを行う領域を決定する。   When the three-point distance measurement is completed, the process proceeds to step S1004, and the focus distance D is calculated according to a predetermined algorithm using the obtained distance to the subject, and the area for performing the scan AF is determined.

そしてこの合焦距離Dに相当するフォーカスレンズ群3の位置を示す設定値を求め、それをアクティブAFの合焦位置G1とする。   Then, a setting value indicating the position of the focus lens group 3 corresponding to the in-focus distance D is obtained, and this is set as the in-focus position G1 of the active AF.

反射像の重心が求められない場合の処理はこれまでと同様である。   The process when the center of gravity of the reflected image is not obtained is the same as before.

その後ステップS1005に進み、ステップS1000においてCCD5の前面から退避させたiRカットフィルター32を再びCCD5の前面に挿入する。   Thereafter, the process proceeds to step S1005, and the iR cut filter 32 retracted from the front surface of the CCD 5 in step S1000 is inserted into the front surface of the CCD 5 again.

当然、ステップS1006において警告を行った場合は、図2のステップS5におけるスキャンAFは実行されない。   Naturally, when a warning is given in step S1006, the scan AF in step S5 in FIG. 2 is not executed.

このように、アクティブAFの受光手段としてCCD5を用い、受光手段の出力から複数の被写体までの距離を概算し、その結果から適当な被写体までの距離を推測し、その距離に相当する位置を中心として設定された範囲内において、フォーカスレンズ群3を移動させながらCCD5によって生成された画像信号から出力される高周波成分が最も多くなるフォーカスレンズ群3の位置を求める。すなわち、アクティブAFで得られた被写体までの概略距離を中心に、正確な合焦位置を検出するスキャンAF処理を行うことによって、投光手段を追加するだけでの低コストな構成で高速かつ正確に合焦位置を検出することを可能にした。まず中央の測距点でアクティブAFを行い被写体が想定した距離より近距離に存在するか否かを知ることで、「想定した範囲外に反射像が形成され、反射像の分別が困難になる」という複数の発光素子を同時に点灯する際の問題点を解消した。   In this way, the CCD 5 is used as the light receiving means of the active AF, the distances from the light receiving means output to the plurality of subjects are estimated, the distances to the appropriate subjects are estimated from the results, and the position corresponding to the distance is centered. The position of the focus lens group 3 in which the high frequency component output from the image signal generated by the CCD 5 is the largest is obtained while moving the focus lens group 3 within the set range. In other words, by performing scan AF processing that detects an accurate in-focus position around the approximate distance to the subject obtained by active AF, it is possible to achieve high-speed and accurate with a low-cost configuration by simply adding a light projection means. It was possible to detect the in-focus position. First, by performing active AF at the center distance measuring point and knowing whether or not the subject is closer than the assumed distance, a reflection image is formed outside the assumed range, making it difficult to separate the reflection image. The problem of lighting multiple light-emitting elements at the same time has been resolved.

そして、複数の被写体までの距離を概算しその後スキャンAF処理を行うことで、画面内にある多種多様の被写体に対して、合焦位置を検出することを可能にした。   Then, by estimating the distances to a plurality of subjects and then performing scan AF processing, it is possible to detect in-focus positions for a wide variety of subjects on the screen.

(他の実施形態)
また、各実施形態の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
(Other embodiments)
In addition, an object of each embodiment is to supply a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU) of the system or apparatus Needless to say, this can also be achieved by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明の第1乃至第4の実施形態の撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device of the 1st thru | or 4th embodiment of this invention. 第1乃至第4の実施形態の撮像装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the imaging device of 1st thru | or 4th embodiment. 第1の実施形態のアクティブAFの動作を説明するためのフローチャートである。5 is a flowchart for explaining an operation of active AF according to the first embodiment. 第1乃至第4の実施形態のアクティブAFにおける光像検出の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement of the optical image detection in the active AF of 1st thru | or 4th embodiment. 第1乃至第4の実施形態のアクティブAFにおける光像検出の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement of the optical image detection in the active AF of 1st thru | or 4th embodiment. 第1乃至第4の実施形態のスキャンAFの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the scan AF of 1st thru | or 4th embodiment. 第1乃至第4の実施形態のスキャンAFが実行される際の高周波成分量とフォーカスレンズ位置の関係を示す図である。It is a figure which shows the relationship between the high frequency component amount at the time of performing the scan AF of 1st thru | or 4th embodiment, and a focus lens position. 第2の実施形態のアクティブAFの動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement of active AF of 2nd Embodiment. 反射像が形成される位置の説明図である。It is explanatory drawing of the position where a reflected image is formed. 反射像が形成される位置の説明図である。It is explanatory drawing of the position where a reflected image is formed. 第3の実施形態のアクティブAFの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of active AF of 3rd Embodiment. 第4の実施形態のアクティブAFの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of active AF of 4th Embodiment.

符号の説明Explanation of symbols

1 撮像装置
2 ズームレンズ群
3 フォーカスレンズ群
4 絞り
5 固体撮像素子
6 撮像回路
7 A/D変換回路
8 メモリ(VRAM)
9 D/A変換回路
10 画像表示装置
11 圧縮伸長回路
12 記憶用メモリ
13 AE処理回路
14 スキャンAF処理回路、
15 CPU
16 タイミングジェネレータ(TG)
17 CCDドライバー
18 第1モータ駆動回路
19 第2モーター駆動回路
20 第3モータ駆動回路
21 絞り駆動モータ
22 フォーカス駆動モータ
23 ズーム駆動モータ
24 操作スイッチ
25 EEPROM
26 電池
28 ストロボ発光部
27 スイッチング回路
30 発光手段(LED)
31 撮影レンズ鏡筒
32 iRカットフィルター
33 フィルター駆動装置。
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Zoom lens group 3 Focus lens group 4 Aperture 5 Solid-state image sensor 6 Imaging circuit 7 A / D conversion circuit 8 Memory (VRAM)
9 D / A conversion circuit 10 Image display device 11 Compression / decompression circuit 12 Memory for storage 13 AE processing circuit 14 Scan AF processing circuit,
15 CPU
16 Timing generator (TG)
17 CCD driver 18 First motor drive circuit 19 Second motor drive circuit 20 Third motor drive circuit 21 Aperture drive motor 22 Focus drive motor 23 Zoom drive motor 24 Operation switch 25 EEPROM
26 Battery 28 Strobe light emitting unit 27 Switching circuit 30 Light emitting means (LED)
31 Shooting lens barrel 32 iR cut filter 33 Filter drive unit.

Claims (11)

被写体像を目標の焦点面に結像させるために光軸方向に移動する焦点調節レンズを備える撮影光学系と、
該撮影光学系により結像された被写体像を光電変換して電気的な画像信号を生成する撮像手段と、
被写体に向けて光束を照射する投光手段と、
該投光手段から照射されて前記被写体で反射された光を前記撮像手段が受けることにより該撮像手段で生成される画像信号の位置に基づいて、前記被写体までの概略距離を算出する演算手段と、
前記概略距離に焦点を合わせるための前記焦点調節レンズの光軸方向の位置を中心位置として、前記焦点調節レンズを前記中心位置の光軸方向の前後の所定範囲にわたって走査させるレンズ駆動手段と、
前記焦点調節レンズを走査させたときに該焦点調節レンズの各位置において前記撮像手段により生成される画像信号に基づいて、前記被写体に焦点を合わせるための前記焦点調節レンズの位置を求める焦点検出手段と、
を具備することを特徴とする撮像装置。
A photographing optical system including a focusing lens that moves in the optical axis direction to form a subject image on a target focal plane;
Imaging means for photoelectrically converting a subject image formed by the photographing optical system to generate an electrical image signal;
A light projecting means for irradiating a subject with a light beam;
Calculating means for calculating a rough distance to the subject based on a position of an image signal generated by the imaging means when the imaging means receives light emitted from the light projecting means and reflected by the subject; ,
A lens driving unit that scans the focus adjustment lens over a predetermined range before and after the central position in the optical axis direction, with the position in the optical axis direction of the focus adjustment lens for focusing on the approximate distance as a central position;
Focus detection means for obtaining the position of the focus adjustment lens for focusing on the subject based on the image signal generated by the imaging means at each position of the focus adjustment lens when the focus adjustment lens is scanned. When,
An imaging apparatus comprising:
前記投光手段は、撮影画面中に設けられた複数の焦点検出領域の数よりも多い複数の発光素子を有し、該複数の発光素子から前記焦点検出領域の数と同じ数の発光素子を選択し、該選択された複数の発光素子を順次発光させることを特徴とする請求項1に記載の撮像装置。   The light projecting unit has a plurality of light emitting elements larger than the number of the plurality of focus detection areas provided in the photographing screen, and the same number of light emitting elements as the number of the focus detection areas from the plurality of light emitting elements. The imaging apparatus according to claim 1, wherein the imaging device is selected, and the plurality of selected light emitting elements emit light sequentially. 前記投光手段は、撮影画面中に設けられた複数の焦点検出領域の数よりも多い複数の発光素子を有し、該複数の発光素子から前記焦点検出領域の数と同じ数の発光素子を選択し、該選択された複数の発光素子を同時に発光させるように構成されており、前記発光素子から照射されて前記被写体で反射された反射像の前記撮像手段上の位置に基づいて、前記概略距離の妥当性を判定する判定手段をさらに具備することを特徴とする請求項1に記載の撮像装置。   The light projecting means has a plurality of light emitting elements larger than the number of focus detection areas provided in the photographing screen, and the same number of light emitting elements as the number of the focus detection areas from the plurality of light emitting elements. The selected plurality of light emitting elements are configured to emit light at the same time, and based on the position on the imaging unit of a reflected image irradiated from the light emitting elements and reflected by the subject, the outline The imaging apparatus according to claim 1, further comprising a determination unit that determines the validity of the distance. 前記投光手段から照射されて前記被写体で反射された光を前記撮像手段で撮像する場合には、該撮像手段で形成される画像信号の一部分の領域のみが読み出されることを特徴とする請求項2又は3に記載の撮像装置。   2. The method according to claim 1, wherein when the light emitted from the light projecting unit and reflected by the subject is imaged by the imaging unit, only a partial region of an image signal formed by the imaging unit is read out. The imaging apparatus according to 2 or 3. 前記一部分の領域を、発光する発光素子に応じて異ならせることを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the partial area is made different depending on a light emitting element that emits light. 前記一部分の領域を、前記撮影光学系の焦点距離に応じて異ならせることを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the partial area is made different according to a focal length of the photographing optical system. 前記撮像手段によって生成された画像信号に基づいて、前記被写体が想定した距離よりも近距離に存在するか否かを検出する検出手段をさらに具備し、該検出手段の検出結果に基づいて、前記投光手段に備えられた複数の発光素子の中から発光させる発光素子を選択することを特徴とする請求項1に記載の撮像装置。   Based on the image signal generated by the imaging means, further comprising a detecting means for detecting whether or not the subject exists at a shorter distance than the assumed distance, and based on the detection result of the detecting means, The imaging device according to claim 1, wherein a light emitting element that emits light is selected from a plurality of light emitting elements provided in the light projecting unit. 前記投光手段に備えられた複数の発光素子の内の一つを発光させて、前記被写体によって反射された光を前記撮像手段によって撮像させることにより、前記被写体が想定した距離よりも近距離に存在するか否かを検出する検出手段をさらに具備し、該検出手段の検出結果に基づいて、前記複数の発光素子のうちの他の発光素子を発光させるか否かを判定することを特徴とする請求項1に記載の撮像装置。   By causing one of a plurality of light emitting elements provided in the light projecting unit to emit light and causing the light reflected by the subject to be imaged by the imaging unit, the distance to the subject is closer than expected. It further comprises detection means for detecting whether or not it exists, and based on the detection result of the detection means, it is determined whether or not other light emitting elements of the plurality of light emitting elements are caused to emit light. The imaging device according to claim 1. 被写体像を目標の焦点面に結像させるために光軸方向に移動する焦点調節レンズを備える撮影光学系と、該撮影光学系により結像された被写体像を光電変換して電気的な画像信号を生成する撮像手段と、被写体に向けて光束を照射する投光手段とを備える撮像装置を制御するための撮像装置の制御方法であって、
前記投光手段から照射されて前記被写体で反射された光を前記撮像手段が受けることにより該撮像手段で生成される画像信号の位置に基づいて、前記被写体までの概略距離を算出する演算工程と、
前記概略距離に焦点を合わせるための前記焦点調節レンズの光軸方向の位置を中心位置として、前記焦点調節レンズを前記中心位置の光軸方向の前後の所定範囲にわたって走査させるレンズ駆動工程と、
前記焦点調節レンズを走査させたときに該焦点調節レンズの各位置において前記撮像手段により生成される画像信号に基づいて、前記被写体に焦点を合わせるための前記焦点調節レンズの位置を求める焦点検出工程と、
を具備することを特徴とする撮像装置の制御方法。
An imaging optical system including a focusing lens that moves in the optical axis direction to form a subject image on a target focal plane, and an electrical image signal obtained by photoelectrically converting the subject image formed by the imaging optical system An imaging apparatus control method for controlling an imaging apparatus comprising: an imaging unit that generates a light source; and a light projecting unit that irradiates a subject with a light beam,
A calculation step of calculating a rough distance to the subject based on a position of an image signal generated by the imaging unit when the imaging unit receives light irradiated from the light projecting unit and reflected by the subject; ,
A lens driving step of scanning the focus adjustment lens over a predetermined range before and after the center position in the optical axis direction, with the position in the optical axis direction of the focus adjustment lens for focusing on the approximate distance as a center position;
A focus detection step for obtaining a position of the focus adjustment lens for focusing on the subject based on an image signal generated by the imaging unit at each position of the focus adjustment lens when the focus adjustment lens is scanned. When,
An image pickup apparatus control method comprising:
請求項9に記載の撮像装置の制御方法をコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute the method for controlling an imaging apparatus according to claim 9. 請求項10に記載のプログラムをコンピュータ読み取り可能に記憶したことを特徴とする記憶媒体。   A storage medium storing the program according to claim 10 in a computer-readable manner.
JP2003356336A 2003-10-16 2003-10-16 Imaging apparatus, its control method, program, and storage medium Withdrawn JP2005121885A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003356336A JP2005121885A (en) 2003-10-16 2003-10-16 Imaging apparatus, its control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003356336A JP2005121885A (en) 2003-10-16 2003-10-16 Imaging apparatus, its control method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2005121885A true JP2005121885A (en) 2005-05-12

Family

ID=34613613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003356336A Withdrawn JP2005121885A (en) 2003-10-16 2003-10-16 Imaging apparatus, its control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2005121885A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020513538A (en) * 2016-10-20 2020-05-14 株式会社ハイモ Portable scanner and scanning method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020513538A (en) * 2016-10-20 2020-05-14 株式会社ハイモ Portable scanner and scanning method thereof
JP7027414B2 (en) 2016-10-20 2022-03-01 有限責任会社ハイモ Portable scanner and its scanning method

Similar Documents

Publication Publication Date Title
US7053350B2 (en) Autofocus control apparatus and method
JP6116277B2 (en) Imaging apparatus and control method thereof
JP4804210B2 (en) Imaging apparatus and control method thereof
CN105704365A (en) Focus detection apparatus and control method for focus detection apparatus
JP5403111B2 (en) Image tracking device
JP2005157268A (en) Image pickup device, control method therefor, program, and storage medium
JP5056136B2 (en) Image tracking device
JP5879736B2 (en) Image tracking device and imaging device
JP2007133301A (en) Autofocus camera
JP2015055635A (en) Imaging device and control method of the same
JP2004101766A (en) Method for detecting focus, focus detection device and image pickup device
JP6272015B2 (en) Focus adjustment apparatus and method, and imaging apparatus
JP4185740B2 (en) Automatic focus adjustment device, imaging device, reliability determination method, program, and storage medium
JP4985155B2 (en) Focus adjustment device and imaging device
JP2005173254A (en) Camera system
JP2019008005A (en) Control device, imaging apparatus, control method, program, and storage medium
JP2005121885A (en) Imaging apparatus, its control method, program, and storage medium
JP2010200138A (en) Photographic subject tracking device
JP4510436B2 (en) Automatic focus adjustment apparatus and imaging apparatus having the same
JP2015075648A (en) Focus detection device, control method therefor, control program and imaging device
JP2006215311A (en) Automatic focusing adjustment apparatus
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP5541396B2 (en) Image tracking device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP5176845B2 (en) Image tracking device and imaging device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070109