JP2011118058A - Characteristic adjustment method and characteristic adjustment device for imaging element - Google Patents

Characteristic adjustment method and characteristic adjustment device for imaging element Download PDF

Info

Publication number
JP2011118058A
JP2011118058A JP2009273831A JP2009273831A JP2011118058A JP 2011118058 A JP2011118058 A JP 2011118058A JP 2009273831 A JP2009273831 A JP 2009273831A JP 2009273831 A JP2009273831 A JP 2009273831A JP 2011118058 A JP2011118058 A JP 2011118058A
Authority
JP
Japan
Prior art keywords
focus
image
focus evaluation
image sensor
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009273831A
Other languages
Japanese (ja)
Other versions
JP2011118058A5 (en
JP5475417B2 (en
Inventor
Chikatsu Moriya
千勝 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009273831A priority Critical patent/JP5475417B2/en
Publication of JP2011118058A publication Critical patent/JP2011118058A/en
Publication of JP2011118058A5 publication Critical patent/JP2011118058A5/ja
Application granted granted Critical
Publication of JP5475417B2 publication Critical patent/JP5475417B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform highly accurate focusing by eliminating a focus error caused by a difference in characteristics of respective imaging elements, when a plurality of imaging surfaces for AF are configured by using individual imaging elements, in an autofocus system adopting an optical path length difference system. <P>SOLUTION: A characteristic adjustment method for an imaging element includes a gain adjustment process for adjusting the gain of at least one of a plurality of imaging elements, so that light quantity with which image signals obtained from the respective imaging elements become in a saturation state is matched when a white chart is used as an object, and a correction processing process for correct-processing a focus evaluation value obtained from at least one imaging element, so that the focus evaluation values obtained from the imaging elements respectively are coincident with each other, after the gain adjustment process is performed. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は撮像素子の特性調整方法及び特性調整装置に係り、特に光路長差を有する複数の撮像素子により撮像した画像のコントラストの高さを示す焦点評価値に基づいて自動ピント調整を行ういわゆる光路長差方式のオートフォーカスを採用したオートフォーカスシステムにおける撮像素子の特性調整方法及び特性調整装置に関する。   The present invention relates to an image sensor characteristic adjustment method and an apparatus for adjusting characteristics, and in particular, a so-called optical path that performs automatic focus adjustment based on a focus evaluation value that indicates the contrast level of an image captured by a plurality of image sensors having optical path length differences. The present invention relates to an image sensor characteristic adjustment method and characteristic adjustment apparatus in an autofocus system that employs a long-difference autofocus.

従来、放送用又は業務用のテレビカメラにおいて採用されているオートフォーカス(AF)として、光路長差方式と称するAF方式が知られている。   2. Description of the Related Art Conventionally, an AF method called an optical path length difference method is known as an autofocus (AF) adopted in a television camera for broadcasting or business use.

この光路長差方式のAFを採用したオートフォーカスシステムでは、例えば、撮影レンズ内にハーフミラー等の光分割光学系が配置され、撮影レンズに入射した被写体光の一部が本線光路からAF用光路に分岐される。本線光路には記録又は再生用の映像信号を取得するためのカメラ本体の撮像素子(本明細書では映像用撮像素子という)が配置され、その映像用撮像素子によって記録又は再生用の映像信号が取得される。   In an autofocus system employing this optical path length difference type AF, for example, a light splitting optical system such as a half mirror is arranged in the photographing lens, and a part of the subject light incident on the photographing lens is passed from the main light path to the AF optical path. Fork. In the main optical path, an image pickup device of a camera body for acquiring a video signal for recording or reproduction (referred to as a video image pickup device in this specification) is arranged, and a video signal for recording or reproduction is transmitted by the video image pickup device. To be acquired.

一方、AF用光路にはAF用の撮像素子(本明細書ではAF用撮像素子という)の複数の撮像面が光路長差を有して配置される。AF用光路に分岐された被写体光は、AF用光路に配置された光分割光学系で分割されてAF用撮像素子の各撮像面に入射する。これによって、各撮像面ごとに被写体画像が撮像されAF用撮像素子から各撮像面ごとの映像信号が得られる。このようにして得られた各撮像面ごとの映像信号に基づいて各撮像面で撮像された被写体画像のコントラストが焦点評価値として求められる。そして、それらの焦点評価値を比較することによって映像用撮像素子の撮像面に対する撮影レンズのピント状態(合焦、前ピン、後ピン)が検出され、そのピント状態が合焦となるように撮影レンズのフォーカスが制御される。   On the other hand, a plurality of imaging surfaces of an AF imaging element (referred to as an AF imaging element in this specification) are arranged with an optical path length difference in the AF optical path. The subject light branched into the AF optical path is split by a light splitting optical system arranged in the AF optical path and is incident on each imaging surface of the AF image sensor. As a result, a subject image is captured for each imaging surface, and a video signal for each imaging surface is obtained from the AF imaging element. The contrast of the subject image captured on each imaging surface is obtained as the focus evaluation value based on the video signal for each imaging surface thus obtained. Then, by comparing the focus evaluation values, the focus state (focus, front pin, rear pin) of the photographic lens with respect to the image pickup surface of the image pickup device for video is detected, and shooting is performed so that the focus state is in focus. The focus of the lens is controlled.

特許文献1には、光路長差を有する複数の撮像面が個別の撮像素子によって構成された光路長差方式のオートフォーカスシステムが記載されている。   Patent Document 1 describes an optical path length difference type autofocus system in which a plurality of imaging surfaces having optical path length differences are configured by individual imaging elements.

特開2004−212458号公報JP 2004-212458 A

ところで、特許文献1記載のオートフォーカスシステムに代表されるように光路長差方式が採用されたオートフォーカスシステムにおいて、複数の撮像素子によってAF用の複数の撮像面が構成される場合、同一種の撮像素子を用いた場合であっても特性が完全に一致せず、条件によっては正確にピント状態を検出することができない場合がある。   By the way, in the autofocus system that employs the optical path length difference method as represented by the autofocus system described in Patent Document 1, when a plurality of imaging surfaces for AF are configured by a plurality of imaging elements, Even when an image sensor is used, the characteristics do not completely match, and the focus state may not be detected accurately depending on conditions.

このため、複数のAF用撮像素子が用いられる場合にはこれらの特性を揃えるための調整が必要となる。この調整方法としては、例えば、白チャートを被写体としてアイリス操作によって光量を徐々に変化させながら撮影を行ったとき、光量に応じた焦点評価値が撮像素子間で一致するように各AF用撮像素子のゲイン調整を行う方法がある。   For this reason, when a plurality of AF image sensors are used, adjustments are required to align these characteristics. As this adjustment method, for example, when photographing is performed while gradually changing the light amount by an iris operation using a white chart as a subject, each AF image sensor so that the focus evaluation values according to the light amount coincide between the image sensors. There is a method to adjust the gain.

しかしながら、このような調整方法において、それぞれの焦点評価値が同じになっても、普通の被写体を撮影した場合に焦点評価値のピークの大きさが異なってしまう場合があったり、白チャートを撮影したときの特性が揃わず、おおよそで妥協してしまう場合があったり、結果として合焦精度が落ちてしまうという問題があった。   However, in such an adjustment method, even when the respective focus evaluation values are the same, the peak size of the focus evaluation value may differ when shooting an ordinary subject, or a white chart is shot. However, there are cases where the characteristics are not uniform and there is a case where the compromise is roughly made, and as a result, the focusing accuracy is lowered.

本発明はこのような事情に鑑みてなされたもので、光路長差方式が採用されたオートフォーカスシステムにおいて、AF用の複数の撮像面を個別の撮像素子を用いて構成した場合に各撮像素子の特性の違いによって生じるピント誤差をなくして高精度のピント合わせを行えるようにした撮像素子の特性調整方法及び特性調整装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and in an autofocus system employing an optical path length difference method, each imaging element is configured when a plurality of AF imaging surfaces are configured using individual imaging elements. It is an object of the present invention to provide a characteristic adjustment method and characteristic adjustment apparatus for an image pickup device that can perform high-precision focusing by eliminating a focus error caused by a difference in characteristics of the image pickup device.

前記目的を達成するために、請求項1に記載の撮像素子の特性調整方法は、光路長が異なる位置に配置されたオートフォーカス用の複数の撮像素子により被写体画像を撮像し、該撮像して得られた被写体画像のコントラストの高さを示す焦点評価値に基づいて前記撮影レンズのフォーカスを制御して自動ピント調整を行うオートフォーカスシステムにおける撮像素子の特性調整方法において、白チャートを被写体としたときに各撮像素子から得られる映像信号が飽和状態となる光量が一致するように、複数の撮像素子のうち少なくとも一方の撮像素子のゲイン調整を行うゲイン調整工程と、前記ゲイン調整工程が行われた後、各撮像素子からそれぞれ得られる焦点評価値が一致するように、少なくとも一方の撮像素子から得られる焦点評価値に対して補正処理を行う補正処理工程と、を含むことを特徴とする。   In order to achieve the above object, the characteristic adjustment method for an image pickup device according to claim 1, the subject image is picked up by a plurality of autofocus image pickup devices arranged at different positions of the optical path length, and the image is picked up. In a characteristic adjustment method of an image sensor in an autofocus system that performs automatic focus adjustment by controlling the focus of the photographing lens based on a focus evaluation value indicating a contrast height of an obtained subject image, a white chart is used as a subject. In some cases, the gain adjustment step for adjusting the gain of at least one of the plurality of image sensors and the gain adjustment step are performed so that the light amounts at which the video signals obtained from the respective image sensors are in a saturated state match. After that, the focus evaluation values obtained from at least one of the image sensors so that the focus evaluation values obtained from the respective image sensors coincide with each other. Characterized in that it comprises a correction processing step of performing a correction process for.

請求項2に記載の撮像素子の特性調整方法は、請求項1に記載の撮像素子の特性調整方法において、前記補正処理工程は、各撮像素子からそれぞれ得られる焦点評価値の差分を定める補正関数を用いて補正処理を行うことを特徴とする。   The image sensor characteristic adjustment method according to claim 2 is the image sensor characteristic adjustment method according to claim 1, wherein the correction processing step determines a difference between focus evaluation values respectively obtained from the image sensors. The correction processing is performed using

請求項3に記載の撮像素子の特性調整装置は、光路長が異なる位置に配置されたオートフォーカス用の複数の撮像素子により被写体画像を撮像し、該撮像して得られた被写体画像のコントラストの高さを示す焦点評価値に基づいて前記撮影レンズのフォーカスを制御して自動ピント調整を行うオートフォーカスシステムにおける撮像素子の特性調整装置において、白チャートを被写体としたときに各撮像素子から得られる映像信号が飽和状態となる光量が一致するように、複数の撮像素子のうち少なくとも一方の撮像素子のゲイン調整を行うゲイン調整手段と、前記ゲイン調整手段によってゲイン調整が行われた後、各撮像素子からそれぞれ得られる焦点評価値が一致するように、少なくとも一方の撮像素子から得られる焦点評価値に対して補正処理を行う補正処理手段と、を備えたことを特徴とする。   According to a third aspect of the present invention, there is provided a device for adjusting the characteristics of an image pickup device, wherein a subject image is picked up by a plurality of autofocus image pickup devices arranged at different optical path lengths, and the contrast of the subject image obtained by the image pickup is adjusted. Obtained from each image sensor when a white chart is used as a subject in an image sensor characteristic adjustment apparatus in an autofocus system that performs automatic focus adjustment by controlling the focus of the photographing lens based on a focus evaluation value indicating height A gain adjustment unit that adjusts the gain of at least one of the plurality of image sensors so that the amount of light at which the video signal is saturated is matched, and each gain after the gain adjustment is performed by the gain adjustment unit With respect to the focus evaluation value obtained from at least one of the image sensors so that the focus evaluation values obtained from the respective elements coincide with each other And correcting means for performing correction process, characterized by comprising a.

請求項4に記載の撮像素子の特性調整装置は、請求項3に記載の撮像素子の特性調整装置において、前記補正処理手段は、各撮像素子からそれぞれ得られる焦点評価値の差分を定める補正関数を用いて補正処理を行うことを特徴とする。   The image sensor characteristic adjusting apparatus according to claim 4 is the image sensor characteristic adjusting apparatus according to claim 3, wherein the correction processing means determines a difference in focus evaluation value obtained from each image sensor. The correction processing is performed using

本発明によれば、各AF用撮像素子の特性を完全に揃えることが可能となり、光路長差方式による焦点検出を安定して高精度に行うことができるようになる。   According to the present invention, it is possible to completely align the characteristics of the AF image sensors, and it is possible to stably and accurately perform focus detection by the optical path length difference method.

本発明が適用されるレンズシステムの構成を示したブロック図The block diagram which showed the structure of the lens system to which this invention is applied 撮影レンズの構成を示した図Diagram showing the configuration of the photographic lens カメラ本体の映像用撮像素子と一対のAF用撮像素子とを同一の光軸上に表した図The image of the camera body image sensor and a pair of AF image sensors on the same optical axis 光路長差方式によるピント状態の検出の原理を説明するための図Diagram for explaining the principle of focus state detection by the optical path length difference method 焦点評価値のピークが撮像素子間で異なる場合の問題を説明するための図The figure for explaining the problem when the peak of the focus evaluation value differs between image sensors 光量に応じた焦点評価値が一致するように調整が行われた後の各AF用撮像素子の特性の一例を示したグラフThe graph which showed an example of the characteristic of each image pick-up element for AF after adjustment was performed so that the focus evaluation value according to light quantity might correspond 図6の調整が行われた状態において通常の被写体を撮影した場合に各AF用撮像素子から得られる映像信号の一例を示した図FIG. 6 is a diagram illustrating an example of a video signal obtained from each AF imaging element when a normal subject is photographed in the state where the adjustment of FIG. 6 has been performed. 各AF用撮像素子の飽和光量が一致するように調整が行われた後の各AF用撮像素子の特性の一例を示したグラフThe graph which showed an example of the characteristic of each image sensor for AF after adjustment was performed so that the saturation light quantity of each image sensor for AF might correspond 図8の調整が行われた状態において通常の被写体を撮影した場合に各AF用撮像素子から得られる映像信号の一例を示した図The figure which showed an example of the video signal obtained from each image pick-up element for AF, when a normal subject is image | photographed in the state where adjustment of FIG. 8 was performed 図8に示したグラフの一部を抜粋した図Figure excerpted from the graph shown in Figure 8 補正処理工程において焦点評価値が補正されるプロセスを簡略的に示した図The figure which showed simply the process by which a focus evaluation value is corrected in a correction processing step CPUの処理手順を示したフローチャートFlow chart showing processing procedure of CPU

以下、添付図面を参照して、本発明に係るオートフォーカスシステムを実施するための形態について詳細に説明する。   Hereinafter, an embodiment for carrying out an autofocus system according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明のオートフォーカスシステムを適用したレンズシステムの構成を示したブロック図である。同図のレンズシステムは、例えば放送用テレビカメラのカメラ本体(カメラヘッド)にマウントによって装着される撮影レンズ(撮影光学系)と、撮影レンズを制御する制御系とから構成されている。尚、撮影レンズと、一部を除く制御系とは一体化されたレンズ装置として構成されている場合や、撮影レンズと制御系とが別体の装置として構成される場合等のようにシステムを構成する装置の形態はどのようなものでもよい。   FIG. 1 is a block diagram showing the configuration of a lens system to which the autofocus system of the present invention is applied. The lens system shown in FIG. 1 includes, for example, a shooting lens (shooting optical system) mounted on a camera body (camera head) of a broadcast television camera by a mount, and a control system that controls the shooting lens. It should be noted that the photographic lens and the control system except for a part are configured as an integrated lens device, or the photographic lens and the control system are configured as separate devices. Any type of apparatus may be used.

撮影レンズは、被写体の像をカメラ本体の撮像面に結ぶ撮影光学系であり、撮影レンズには各種固定のレンズ群の他に、光軸方向に移動可能なレンズ群として同図に示すフォーカスレンズ(群)FLやズームレンズ(群)ZLが配置されている。フォーカスレンズFLが移動すると、ピント位置(被写体距離)が変わり、ズームレンズZLが移動すると、像倍率(焦点距離)が変わる。また、撮影レンズには絞り値を変更するために開閉駆動される同図に示す絞りIが配置されている。   The photographic lens is a photographic optical system that connects an object image to the imaging surface of the camera body. In addition to various fixed lens groups, the photographic lens is a focus lens shown in the figure as a lens group movable in the optical axis direction. A (group) FL and a zoom lens (group) ZL are arranged. When the focus lens FL moves, the focus position (subject distance) changes, and when the zoom lens ZL moves, the image magnification (focal distance) changes. Further, the photographing lens is provided with a diaphragm I shown in the figure which is driven to open and close in order to change the diaphragm value.

レンズシステムの制御系は、CPU10、アンプFA、ZA、IA、モータFM、ZM、IM、フォーカスデマンド18、ズームデマンド20、AF回路30等から構成されている。CPU10は、システム全体を統括制御しており、CPU10からD/A変換器12を介して各アンプFA、ZA、IAに駆動信号が出力されると、各モータFM、ZM、IMがその駆動信号の値(電圧)に応じた回転速度で駆動される。各モータFM、ZM、IMは、上記撮影レンズのフォーカスレンズFL、ズームレンズZL、絞りIに連結しており、各モータFM、ZM、IMの駆動と共に、フォーカスレンズFL、ズームレンズZL、絞りIが駆動される。各モータFM、ZM、IMの出力軸にはそれらの回転位置に応じた電圧信号を出力するポテンショメータFP、ZP、IPが連結されており、各ポテンショメータFP、ZP、IPからの電圧信号は、フォーカスレンズFLの位置、ズームレンズZLの位置、絞りIの位置を示す信号としてA/D変換器14を介してCPU10に与えられる。従って、CPU10から各アンプFA、ZA、IAに与えられる駆動信号によって撮影レンズのフォーカスレンズFL、ズームレンズZL、絞りIの位置又は動作速度が所望の状態に制御される。   The control system of the lens system includes a CPU 10, amplifiers FA, ZA, IA, motors FM, ZM, IM, focus demand 18, zoom demand 20, AF circuit 30 and the like. The CPU 10 performs overall control of the entire system. When drive signals are output from the CPU 10 to the amplifiers FA, ZA, and IA via the D / A converter 12, the motors FM, ZM, and IM receive the drive signals. It is driven at a rotation speed corresponding to the value (voltage). The motors FM, ZM, and IM are connected to the focus lens FL, zoom lens ZL, and diaphragm I of the photographing lens. The motors FM, ZM, and IM are driven together with the focus lens FL, zoom lens ZL, and diaphragm I. Is driven. Potentiometers FP, ZP, and IP that output voltage signals corresponding to their rotational positions are connected to the output shafts of the motors FM, ZM, and IM. The voltage signals from the potentiometers FP, ZP, and IP are A signal indicating the position of the lens FL, the position of the zoom lens ZL, and the position of the stop I is given to the CPU 10 via the A / D converter 14. Accordingly, the positions or operating speeds of the focus lens FL, zoom lens ZL, and diaphragm I of the photographing lens are controlled to a desired state by drive signals given from the CPU 10 to the amplifiers FA, ZA, and IA.

フォーカスデマンド18やズームデマンド20は、撮影レンズのフォーカス(フォーカスレンズFL)やズーム(ズームレンズZL)の目標となる位置や移動速度をマニュアル操作で指定するマニュアル操作部材を備えたコントローラである。フォーカスデマンド18とズームデマンド20は、それぞれA/D変換器14を介してCPU10と接続されている。   The focus demand 18 and the zoom demand 20 are controllers provided with a manual operation member that manually designates a target position and moving speed of the focus (focus lens FL) and zoom (zoom lens ZL) of the photographing lens. The focus demand 18 and the zoom demand 20 are each connected to the CPU 10 via the A / D converter 14.

本レンズシステムでは、フォーカス制御をマニュアルフォーカス(MF)と、オートフォーカス(AF)のいずれかで行うことが可能であり、MFの制御時においては、フォーカスデマンド18でのマニュアル操作部材の操作に従ってフォーカス制御が行われる。MFの制御時にフォーカスデマンド18のマニュアル操作部材を操作すると、例えば、その操作部材の位置に対応したフォーカスの目標位置を指定するフォーカス指令信号がCPU10に与えられる。CPU10は、フォーカスの位置がそのフォーカス指令信号により指定された目標位置となるようにアンプFAに出力する駆動信号によりモータFMを制御してフォーカスレンズFLの位置を制御する。尚、一般にMFの制御ではフォーカスデマンド18から与えられる目標位置に従ってフォーカスレンズFLの位置制御が行われるが、フォーカスデマンド18から目標の移動速度が与えられ、それに従ってフォーカスレンズFLの速度制御を行うことも可能である。   In this lens system, the focus control can be performed by either manual focus (MF) or autofocus (AF). During the MF control, the focus is controlled according to the operation of the manual operation member at the focus demand 18. Control is performed. When the manual operation member of the focus demand 18 is operated during the MF control, for example, a focus command signal for designating a focus target position corresponding to the position of the operation member is given to the CPU 10. The CPU 10 controls the position of the focus lens FL by controlling the motor FM with a drive signal output to the amplifier FA so that the focus position becomes the target position specified by the focus command signal. In general, in the MF control, the position of the focus lens FL is controlled according to the target position given from the focus demand 18, but the target moving speed is given from the focus demand 18, and the speed control of the focus lens FL is performed accordingly. Is also possible.

ズームデマンド20のマニュアル操作部材を操作した場合には、例えば、その操作部材の位置に対応したズームの目標の移動速度を指定するズーム指令信号がCPU10に与えられる。CPU10は、ズームの移動速度がそのズーム指令信号により指定された目標の移動速度となるようにアンプZAに出力する駆動信号によりモータZMを制御してズームレンズZLの移動速度を制御する。尚、一般にズーム制御ではズームデマンド20から与えられる目標の移動速度に従ってズームレンズZLの速度制御が行われるが、ズームデマンド20から目標位置が与えられ、それに従ってズームレンズZLの位置制御を行うことも可能である。   When a manual operation member of the zoom demand 20 is operated, for example, a zoom command signal that designates a zoom target movement speed corresponding to the position of the operation member is given to the CPU 10. The CPU 10 controls the moving speed of the zoom lens ZL by controlling the motor ZM with a drive signal output to the amplifier ZA so that the moving speed of the zoom becomes the target moving speed specified by the zoom command signal. In general, in zoom control, the speed control of the zoom lens ZL is performed according to the target moving speed given from the zoom demand 20, but the target position is given from the zoom demand 20 and the position control of the zoom lens ZL can be performed accordingly. Is possible.

図示しないカメラ本体からは、絞りIの目標位置を指定するアイリス指令信号がCPU10に与えられるようになっており、CPU10は絞りIの位置(開閉度)がそのアイリス指令信号により指定された目標位置となるようにアンプIAに出力する駆動信号によりモータIMを制御し絞りIの位置を制御する。   A camera body (not shown) is configured to provide the CPU 10 with an iris command signal that designates the target position of the iris I. The CPU 10 determines the position (opening / closing degree) of the iris I as a target position designated by the iris command signal. The motor IM is controlled by the drive signal output to the amplifier IA so that the position of the diaphragm I is controlled.

AF回路30は、詳細を後述するように被写体画像のコントラストの高低を示す焦点評価値を検出する回路であり、焦点評価値の情報がAF回路30からCPU10に与えられるようになっている。CPU10は、AF制御時において、AF回路30から得られる焦点評価値の情報に基づいて撮影レンズのピント状態が合焦となるようにアンプFAに出力する駆動信号によりモータFMを制御してフォーカスレンズFLを制御する。   As will be described in detail later, the AF circuit 30 is a circuit that detects a focus evaluation value indicating the level of contrast of the subject image, and information on the focus evaluation value is supplied from the AF circuit 30 to the CPU 10. During the AF control, the CPU 10 controls the motor FM with a drive signal output to the amplifier FA so that the focus state of the photographing lens is in focus based on the focus evaluation value information obtained from the AF circuit 30, and the focus lens Control FL.

AF回路30は、一対のAF用撮像素子32A、32B、A/D変換器34、ゲート回路36、ハイパスフィルタ(HPF)38、加算回路40A、40B等から構成される。   The AF circuit 30 includes a pair of AF image sensors 32A and 32B, an A / D converter 34, a gate circuit 36, a high-pass filter (HPF) 38, adder circuits 40A and 40B, and the like.

一対のAF用撮像素子32A、32B(例えばCCDセンサやCMOSセンサ)は、カメラ本体に搭載された撮像素子(例えばCCDセンサやCMOSセンサ)とは別に設けられている。カメラ本体の撮像素子は、記録又は再生用の本来の映像を撮影するための撮像素子(以下、映像用撮像素子という)であるのに対し、AF用撮像素子32A、32BはAF専用に設けられた撮像素子であり、例えば、図2のように構成された撮影レンズの光学系に配置される。   A pair of AF imaging elements 32A and 32B (for example, a CCD sensor or a CMOS sensor) are provided separately from an imaging element (for example, a CCD sensor or a CMOS sensor) mounted on the camera body. The image pickup device of the camera body is an image pickup device for capturing an original image for recording or reproduction (hereinafter referred to as a video image pickup device), whereas the AF image pickup devices 32A and 32B are provided exclusively for AF. For example, the imaging element is disposed in an optical system of a photographic lens configured as shown in FIG.

ここで図2を用いて撮影レンズの全体構成の概略と共にAF用撮像素子32A、32Bの配置について説明する。撮影レンズ60の光軸Oには、上記フォーカスレンズ(群)FL、上記ズームレンズ(群)ZL、上記絞りI、前側リレーレンズRA及び後側リレーレンズRBからなるリレーレンズ(リレー光学系)等が順に配置されている。撮影レンズ60に入射した被写体光はこれらのレンズ群を通過してカメラ本体50に入射する。カメラ本体50には、撮影レンズ60から入射した被写体光を赤(R)、緑(G)、青(B)の3色の波長に分解する色分解光学系68と、色分解された各色の被写体光の像を撮像するR、G、Bごとの映像用撮像素子が配置されている。尚、光学的に等価な光路長の位置に配置されたR、G、Bの映像用撮像素子を同図に示すように1つの映像用撮像素子70で表す。映像用撮像素子70の撮像面に入射した被写体光は、映像用撮像素子70によって光電変換されてカメラ本体50内の所定の信号処理回路によって記録又は再生用の映像信号が生成される。   Here, the arrangement of the AF image pickup devices 32A and 32B will be described with reference to FIG. On the optical axis O of the photographic lens 60, the focus lens (group) FL, the zoom lens (group) ZL, the diaphragm I, the relay lens (relay optical system) including the front relay lens RA and the rear relay lens RB, etc. Are arranged in order. Subject light incident on the taking lens 60 passes through these lens groups and enters the camera body 50. The camera main body 50 includes a color separation optical system 68 that separates subject light incident from the photographing lens 60 into three wavelengths of red (R), green (G), and blue (B), and color separation of each color. An image pickup device for video for each of R, G, and B for picking up an image of subject light is arranged. Note that the image pickup devices for R, G, and B arranged at the position of the optically equivalent optical path length are represented by one image pickup device 70 as shown in FIG. The subject light incident on the imaging surface of the image pickup device 70 is photoelectrically converted by the image pickup device 70 and a video signal for recording or reproduction is generated by a predetermined signal processing circuit in the camera body 50.

一方、撮影レンズ60のリレー光学系の前側リレーレンズRAと後側リレーレンズRBとの間には、ハーフミラー62が配置されている。このハーフミラー62によって、撮影レンズ60の光路が2つに分割される。撮影レンズ60に入射した被写体光のうち、ハーフミラー62を透過した被写体光は、上述のように光軸Oの光路に沿ってカメラ本体50へと導かれる。ハーフミラー62で反射した被写体光は、上記光軸Oに略垂直な光軸O′の光路(AF用光路)へと導かれる。尚、ハーフミラー62に入射した被写体光に対して、例えば約50%の光量の被写体光がハーフミラー62を透過する。但し、ハーフミラー62として、任意の透過率と反射率の特性を有するものを使用することができる。   On the other hand, a half mirror 62 is disposed between the front relay lens RA and the rear relay lens RB of the relay optical system of the photographing lens 60. The half mirror 62 divides the optical path of the taking lens 60 into two. Of the subject light incident on the photographic lens 60, the subject light transmitted through the half mirror 62 is guided to the camera body 50 along the optical path of the optical axis O as described above. The subject light reflected by the half mirror 62 is guided to the optical path (AF optical path) of the optical axis O ′ substantially perpendicular to the optical axis O. Note that subject light having a light amount of, for example, about 50% of the subject light incident on the half mirror 62 passes through the half mirror 62. However, as the half mirror 62, a mirror having arbitrary transmittance and reflectance characteristics can be used.

AF用光路には、上記後側リレーレンズRBと同等のリレーレンズRB′と、2つのプリズム64A、64Bから構成される光分割光学系64と、上記AF用撮像素子32A、32Bが配置されている。ハーフミラー62で反射してAF用光路へと導かれた被写体光は、リレーレンズRB′を通過した後、光分割光学系64に入射する。光分割光学系に入射した被写体光は、第1プリズム64Aと第2プリズム64Bとが接合する部分のハーフミラー面Mで光量が等価な2つの被写体光に分割される。ハーフミラー面Mで反射した被写体光は、一方のAF用撮像素子32Aの撮像面に入射し、ハーフミラー面Mを透過した被写体光は他方のAF用撮像素子32Bの撮像面に入射する。   In the AF optical path, a relay lens RB ′ equivalent to the rear relay lens RB, a light splitting optical system 64 composed of two prisms 64A and 64B, and the AF imaging elements 32A and 32B are arranged. Yes. The subject light reflected by the half mirror 62 and guided to the AF optical path passes through the relay lens RB ′ and then enters the light splitting optical system 64. The subject light incident on the light splitting optical system is split into two subject lights with equivalent light quantities on the half mirror surface M where the first prism 64A and the second prism 64B are joined. The subject light reflected by the half mirror surface M is incident on the imaging surface of one AF imaging element 32A, and the subject light transmitted through the half mirror surface M is incident on the imaging surface of the other AF imaging element 32B.

図3は、カメラ本体50の映像用撮像素子70とAF用撮像素子32A、32Bとを同一の光軸上に表した図である。同図に示すように、一方のAF用撮像素子32Aに入射する被写体光の光路長は、他方のAF用撮像素子32Bに入射する被写体光の光路長よりも短く設定され、映像用撮像素子70の撮像面に入射する被写体光の光路長は、その中間の長さとなるように設定されている。すなわち、一対のAF用撮像素子32A、32B(の撮像面)は、それぞれ映像用撮像素子70の撮像面に対して前後等距離dの位置となるように配置されている。   FIG. 3 is a diagram showing the image pickup element 70 for video and the AF image pickup elements 32A and 32B of the camera body 50 on the same optical axis. As shown in the figure, the optical path length of the subject light incident on one AF image sensor 32A is set shorter than the optical path length of the subject light incident on the other AF image sensor 32B. The optical path length of subject light incident on the imaging surface is set to be an intermediate length. That is, the pair of AF imaging elements 32 </ b> A and 32 </ b> B (imaging surfaces thereof) are disposed so as to be positioned at an equal distance d in the front-rear direction with respect to the imaging surface of the imaging element 70 for video.

このように撮影レンズ60に配置された一対のAF用撮像素子32A、32Bによって、撮影レンズ60に入射した被写体光を映像用撮像素子70の撮像面に対して前後の等距離の位置にそれぞれ撮像面を配置した場合と等価な映像信号が取得されるようになっている。尚、AF用撮像素子32A、32Bはカラー映像を撮像するものである必要はなく、本実施の形態ではAF用撮像素子32A、32Bから白黒の映像信号(輝度信号)が取得されるものとする。   In this way, the pair of AF imaging elements 32A and 32B arranged on the imaging lens 60 captures the subject light incident on the imaging lens 60 at positions equidistant from the imaging surface of the video imaging element 70, respectively. A video signal equivalent to the case where the plane is arranged is acquired. Note that the AF imaging elements 32A and 32B do not need to capture color images, and in the present embodiment, monochrome image signals (luminance signals) are acquired from the AF imaging elements 32A and 32B. .

図1のAF回路30において、各AF用撮像素子32A、32Bによって得られた映像信号は、A/D変換器34によりデジタル信号に変換された後、ゲート回路36に入力される。ゲート回路36では、撮影範囲(画面)内に設定された所定のAFエリア(例えば画面中央の矩形エリア)に対応する範囲内の映像信号が抽出される。これによって抽出されたAFエリア内の映像信号は続いてハイパスフィルタ(HPF)38に入力され、HPF38により高域周波数成分の信号のみが抽出される。   In the AF circuit 30 of FIG. 1, video signals obtained by the AF imaging elements 32A and 32B are converted into digital signals by the A / D converter 34 and then input to the gate circuit 36. The gate circuit 36 extracts a video signal within a range corresponding to a predetermined AF area (for example, a rectangular area at the center of the screen) set within the shooting range (screen). The video signal in the AF area thus extracted is subsequently input to a high pass filter (HPF) 38, and only the high frequency component signal is extracted by the HPF 38.

HPF38によって抽出された高域周波数成分の信号は、AF用撮像素子32Aから得られたものは加算回路40Aによって、AF用撮像素子32Bから得られたものは加算回路40Bによって1フィールド分ずつ積算され、その積算値が1フィールドごとにAF回路30から出力される。   The signal of the high frequency component extracted by the HPF 38 is integrated by the addition circuit 40A for the signal obtained from the AF image sensor 32A, and the signal obtained from the AF image sensor 32B is integrated by one field by the adder circuit 40B. The integrated value is output from the AF circuit 30 for each field.

このようにして各加算回路40A、40Bから得られる積算値は、それぞれAF用撮像素子32A、32Bで撮像された被写体画像のコントラストの高さを評価する値を示す。本明細書ではこの積算値を焦点評価値というものとする。また、AF用撮像素子32Aの映像信号から得られた焦点評価値をchAの焦点評価値、AF用撮像素子32Bの映像信号から得られた焦点評価値をchBの焦点評価値というものとする。   The integrated values obtained from the adding circuits 40A and 40B in this way indicate values for evaluating the contrast height of the subject images captured by the AF imaging elements 32A and 32B, respectively. In this specification, this integrated value is referred to as a focus evaluation value. The focus evaluation value obtained from the image signal of the AF image sensor 32A is referred to as the chA focus evaluation value, and the focus evaluation value obtained from the image signal of the AF image sensor 32B is referred to as the chB focus evaluation value.

CPU10は、このようして得られたchAとchBの焦点評価値に基づいて映像用撮像素子70に対する撮影レンズ60のピント状態を検出する。ピント状態の検出は、次のような原理で行われる。図4は、横軸に撮影レンズ60のフォーカスレンズFLの位置(フォーカス位置)、縦軸に焦点評価値をとり、ある被写体を撮影した際のフォーカス位置と焦点評価値との関係を例示した図である。図中実線で示す曲線A、Bは、それぞれAF用撮像素子32A、32Bから得られるchAとchBの焦点評価値をフォーカス位置に対して示している。一方、図中点線で示す曲線Cは、映像用撮像素子70から得られた映像信号により焦点評価値を求めたと仮定した場合の焦点評価値をフォーカス位置に対して示している。   The CPU 10 detects the focus state of the photographing lens 60 with respect to the image pickup device 70 based on the chA and chB focus evaluation values obtained in this way. The focus state is detected based on the following principle. FIG. 4 is a diagram illustrating the relationship between the focus position and the focus evaluation value when a certain subject is photographed, with the horizontal axis indicating the position (focus position) of the focus lens FL of the photographing lens 60 and the vertical axis indicating the focus evaluation value. It is. Curves A and B indicated by solid lines in the figure indicate the focus evaluation values of chA and chB obtained from the AF imaging elements 32A and 32B, respectively, with respect to the focus position. On the other hand, a curved line C indicated by a dotted line in the drawing indicates the focus evaluation value with respect to the focus position when it is assumed that the focus evaluation value is obtained from the video signal obtained from the video image sensor 70.

同図において、ピント状態が合焦となるのは、曲線Cで示す映像用撮像素子70の焦点評価値が最大(極大)となるときのフォーカス位置F0にフォーカスが設定された場合である。もし、撮影レンズ60のフォーカスがその合焦位置F0よりも至近側のフォーカス位置F1に設定されている場合には、chAの焦点評価値は、フォーカス位置F1に対応する曲線Aの値VA1となり、chBの焦点評価値は、フォーカス位置F1に対応する曲線Bの値VB1となる。この場合、図から分かるようにchAの焦点評価値VA1の方が、chBの焦点評価値VB1よりも大きくなる。このことから、chAの焦点評価値VA1の方が、chBの焦点評価値VB1よりも大きい場合には、フォーカスが合焦位置F0よりも至近側に設定されている状態、すなわち、前ピンの状態であることが分かる。 In the figure, the focus state is in focus when the focus is set at the focus position F0 when the focus evaluation value of the image pickup device for video 70 indicated by the curve C is maximum (maximum). If the focus of the photographic lens 60 is set to the focus position F1 closer to the focus position F0, the focus evaluation value of chA is the value V A1 of the curve A corresponding to the focus position F1. , ChB focus evaluation value is the value V B1 of the curve B corresponding to the focus position F1. In this case, as can be seen from the figure, the chA focus evaluation value V A1 is larger than the chB focus evaluation value V B1 . From this, when the focus evaluation value V A1 of chA is larger than the focus evaluation value V B1 of chB, the focus is set closer to the in-focus position F0, that is, the front pin It can be seen that

一方、撮影レンズ60のフォーカスが合焦位置F0よりも無限遠側のフォーカス位置F2に設定されている場合には、chAの焦点評価値は、フォーカス位置F2に対応する曲線Aの値VA2となり、chBの焦点評価値は、フォーカス位置F2に対応する曲線Bの値VB2となる。この場合、chAの焦点評価値VA2の方が、chBの焦点評価値VB2よりも小さくなる。このことから、chAの焦点評価値VA2の方が、chBの焦点評価値VB2よりも小さい場合には、フォーカスが合焦位置F0よりも無限遠側に設定されている状態、すなわち、後ピンの状態であることが分かる。 On the other hand, when the focus of the photographing lens 60 is set to the focus position F2 on the infinity side of the focus position F0, the focus evaluation value of chA is the value V A2 of the curve A corresponding to the focus position F2. , ChB focus evaluation value is the value V B2 of the curve B corresponding to the focus position F2. In this case, the chA focus evaluation value V A2 is smaller than the chB focus evaluation value V B2 . From this, when the focus evaluation value V A2 of chA is smaller than the focus evaluation value V B2 of chB, the focus is set to the infinity side from the in-focus position F0, that is, the rear It can be seen that the pin is in a state.

これに対して、撮影レンズ60のフォーカスがフォーカス位置F0、即ち、合焦位置に設定されている場合には、chAの焦点評価値は、フォーカス位置F0に対応する曲線Aの値VA0となり、chBの焦点評価値は、フォーカス位置F0に対応する曲線Bの値VB0となる。この場合、chAの焦点評価値VA0とchBの焦点評価値VB0は等しくなる。このことから、chAの焦点評価値VA0とchBの焦点評価値VB0とが等しい場合にはフォーカスが合焦位置F0に設定されている状態、すなわち、合焦状態であることが分かる。 On the other hand, when the focus of the photographic lens 60 is set to the focus position F0, that is, the focus position, the focus evaluation value of chA becomes the value V A0 of the curve A corresponding to the focus position F0. The focus evaluation value of chB is the value V B0 of the curve B corresponding to the focus position F0. In this case, the chA focus evaluation value V A0 is equal to the chB focus evaluation value V B0 . From this, it can be seen that when the chA focus evaluation value V A0 is equal to the chB focus evaluation value V B0 , the focus is in the in-focus position F 0, that is, the in-focus state.

このようにchAとchBの焦点評価値によって、撮影レンズの現在のピント状態が映像用撮像素子70に対して前ピン、後ピン、合焦のいずれの状態であるかを検出することができる。   In this way, it is possible to detect whether the current focus state of the photographic lens is a front pin, a rear pin, or an in-focus state with respect to the image pickup device 70 for video by using the focus evaluation values of chA and chB.

図1において、CPU10は、上記のようにしてchAとchBの焦点評価値に基づいて映像用撮像素子70に対する撮影レンズ60のピント状態を逐次検出しながら、合焦状態となるようにフォーカスレンズFLを制御する。例えば、ピント状態が前ピンの場合にはフォーカスレンズFLを無限遠方向に移動させ、ピント状態が後ピンの場合にはフォーカスレンズFLを至近方向に移動させる。そして、ピント状態が合焦の場合には、フォーカスレンズFLを停止させる。これによって、撮影レンズのピント状態が合焦となる位置にフォーカスレンズFLが移動して停止する。このように光路長差を有する複数のAF用撮像素子を用いて自動ピント調整を行うAFの方式を光路長差方式と称している。   In FIG. 1, the CPU 10 sequentially detects the focus state of the photographing lens 60 with respect to the image pickup device 70 based on the focus evaluation values of chA and chB as described above, so that the focus lens FL is brought into a focused state. To control. For example, when the focus state is the front pin, the focus lens FL is moved in the infinity direction, and when the focus state is the rear pin, the focus lens FL is moved in the closest direction. When the focus state is in focus, the focus lens FL is stopped. As a result, the focus lens FL moves to a position where the focus state of the photographing lens is in focus and stops. An AF method that performs automatic focus adjustment using a plurality of AF imaging elements having optical path length differences is referred to as an optical path length difference method.

尚、CPU10において、単にピント状態を検出するだけでなく、chAとchBの焦点評価値の差や比等からピントずれの程度も検出し、CPU10においてフォーカスレンズFLを移動させる際の速度に反映させることも可能である。   Note that the CPU 10 not only detects the focus state but also detects the degree of focus deviation from the difference or ratio of the focus evaluation values of chA and chB, and reflects them in the speed at which the CPU 10 moves the focus lens FL. It is also possible.

ところで、本実施の形態のようにchA撮像面とchB撮像面とが2つの撮像素子(AF用撮像素子32A、32B)によって構成される場合、それらの特性に差(例えばゲイン誤差)があると、chAとchBの焦点評価値は、図5の曲線A、Bに示すような値となる。このような場合、chA撮像面とchBの撮像面に入射する被写体光の光量が等しい場合であっても曲線A、Bの全体としての大きさが相違する。そのため、chAとchBの焦点評価値が一致するフォーカス位置を合焦位置と判断すると、同図の例ではフォーカス位置F0′が合焦位置と判断され、真の合焦位置F0に対してピント誤差が生じ、合焦精度が低下する不具合が生じる。   By the way, when the chA imaging surface and the chB imaging surface are configured by two imaging elements (AF imaging elements 32A and 32B) as in the present embodiment, there is a difference in characteristics (for example, gain error). , ChA and chB focus evaluation values are as shown by curves A and B in FIG. In such a case, even when the amount of the subject light incident on the chA imaging surface and the chB imaging surface is the same, the overall sizes of the curves A and B are different. For this reason, if the focus position where the focus evaluation values of chA and chB match is determined as the focus position, the focus position F0 ′ is determined as the focus position in the example of the figure, and the focus error with respect to the true focus position F0 is determined. This causes a problem that the focusing accuracy is lowered.

このため、複数のAF用撮像素子32A、32Bが用いられる場合にはそれらの特性を揃えるための調整が必要となる。ここで、各AF用撮像素子32A、32Bの特性を揃えるための調整方法の一例として、白チャートを被写体として撮影したときに光量に応じた焦点評価値が撮像素子間で一致するように、各AF用撮像素子32A、32Bのゲイン調整を行う方法について説明する。   For this reason, when a plurality of AF imaging elements 32A and 32B are used, adjustments are required to make the characteristics uniform. Here, as an example of an adjustment method for aligning the characteristics of the AF image pickup devices 32A and 32B, each of the image pickup devices has a focus evaluation value corresponding to the amount of light when the white chart is taken as a subject. A method for adjusting the gain of the AF image sensors 32A and 32B will be described.

図6は、光量に応じた焦点評価値が一致するように調整が行われた後の各AF用撮像素子32A、32Bの特性(光量−焦点評価値特性;白チャート特性)の一例を示したグラフである。同図において、実線はAF用撮像素子32A、破線はAF用撮像素子32Bの白チャート特性を示したグラフであり、各グラフはそれぞれ、焦点評価値が光量に比例して増加する部分に相当する傾き直線(横軸に対して斜めの直線)と、所定の光量のときに焦点評価値が最大値から0に急落する部分に相当する垂直直線(横軸に対して垂直な直線)とからなる三角状の山型グラフとなっている。このグラフにおいて垂直直線が位置するところの光量(L、L)は、撮像素子から得られる映像信号(輝度信号)が飽和状態となって焦点評価値の算出ができなくなるときの光量を示しており、本明細書ではそのときの光量を飽和光量という。尚、ゲイン調整が行われる前の各AF用撮像素子32A、32Bの特性は図示を省略したが、同一光量のときの焦点評価値は撮像素子間で異なっており(即ち、グラフの傾き直線は一致しておらず)、本例ではAF用撮像素子32Aに比べてAF用撮像素子32Bの焦点評価値が小さくなっているものとする。また、本調整は、各AF用撮像素子32A、32Bが同一の焦点距離(フォーカス位置)に設定されている状態で行われるものとする。 FIG. 6 shows an example of the characteristics (light quantity-focus evaluation value characteristics; white chart characteristics) of the AF image sensors 32A and 32B after adjustment is performed so that the focus evaluation values corresponding to the light quantities match. It is a graph. In the figure, the solid line is a graph showing the white chart characteristics of the AF image sensor 32A, and the broken line is the white chart characteristic of the AF image sensor 32B. Each graph corresponds to a portion where the focus evaluation value increases in proportion to the amount of light. It consists of an inclination straight line (straight line with respect to the horizontal axis) and a vertical straight line (straight line perpendicular to the horizontal axis) corresponding to a portion where the focus evaluation value suddenly drops from the maximum value to 0 when the light intensity is a predetermined amount It is a triangular mountain graph. In this graph, the amount of light (L A , L B ) where the vertical straight line is located indicates the amount of light when the video signal (luminance signal) obtained from the image sensor becomes saturated and the focus evaluation value cannot be calculated. In this specification, the light quantity at that time is referred to as a saturated light quantity. Although the characteristics of the AF image sensors 32A and 32B before the gain adjustment are not shown, the focus evaluation values at the same light amount differ between the image sensors (that is, the slope straight line of the graph is In this example, it is assumed that the focus evaluation value of the AF image sensor 32B is smaller than that of the AF image sensor 32A. This adjustment is performed in a state where the AF image sensors 32A and 32B are set to the same focal length (focus position).

本調整方法によれば、各撮像素子32A、32Bから得られる映像信号に含まれるノイズレベルが等しくなるように調整を行うことができる。図7は通常の被写体を撮影した場合に各AF用撮像素子32A、32Bから得られる映像信号の一例を示した図であり、左側パルス80AはAF用撮像素子32Aから得られる映像信号、右側パルス80BはAF用撮像素子32Bから得られる映像信号であり、符号82A、82Bは各映像信号に含まれるノイズ成分を表わしている。同図に示すように、本調整が行われた場合、各映像信号80A、80Bに含まれるノイズ成分82A、82Bの量(振幅)は等しくなる。   According to this adjustment method, the adjustment can be performed so that the noise levels included in the video signals obtained from the imaging elements 32A and 32B are equal. FIG. 7 is a diagram showing an example of a video signal obtained from each of the AF imaging elements 32A and 32B when a normal subject is photographed. A left pulse 80A is a video signal obtained from the AF imaging element 32A and a right pulse. Reference numeral 80B denotes a video signal obtained from the AF image sensor 32B, and reference numerals 82A and 82B denote noise components included in the respective video signals. As shown in the figure, when this adjustment is performed, the amounts (amplitudes) of the noise components 82A and 82B included in the video signals 80A and 80B are equal.

しかしながら、上述したように各撮像素子32A、32Bから求められる焦点評価値が撮像素子間で一致するようにゲイン調整を行った場合には、各撮像素子32A、32Bの飽和光量L、Lを一致させることはできず、各AF用撮像素子32A、32Bの特性を完全に揃えることは困難である。 However, as described above, when the gain adjustment is performed so that the focus evaluation values obtained from the image sensors 32A and 32B coincide between the image sensors, the saturated light amounts L A and L B of the image sensors 32A and 32B are obtained. Cannot be matched, and it is difficult to completely align the characteristics of the AF image sensors 32A and 32B.

図6に示した例では、AF用撮像素子32Aの飽和光量LがAF用撮像素子32Bの飽和光量Lよりも小さく(L<L)、AF用撮像素子32Aの方が先に飽和状態となることを示している。このようにAF用撮像素子32A、32Bの飽和光量に差があると、同一光量で撮影を行った場合でも入射する光量が撮像素子間で異なり、図7に示した映像信号80A、80Bのように、各AF用撮像素子32A、32Bから得られる映像信号のレベルに差が出てきてしまう。その結果、各AF用撮像素子32A、32Bから求められる焦点評価値は、図5に示した曲線A、Bのように大きさが異なってしまい、合焦精度の低下を招いてしまう要因となる。 In the example shown in FIG. 6, the saturation amount L A of the AF imaging devices 32A is smaller than the saturation amount L B of the AF imaging device 32B (L A <L B), towards the AF imaging devices 32A comes first It shows that it becomes saturated. As described above, when there is a difference in the saturation light amount between the AF image pickup devices 32A and 32B, the amount of incident light varies between the image pickup devices even when shooting is performed with the same light amount, and the image signals 80A and 80B shown in FIG. In addition, there is a difference in the level of the video signal obtained from each of the AF image sensors 32A and 32B. As a result, the focus evaluation values obtained from the AF image sensors 32A and 32B are different in magnitude as shown by the curves A and B shown in FIG. 5, which causes a reduction in focusing accuracy. .

次に、各AF用撮像素子32A、32Bの特性を揃えるための他の調整方法として、白チャートを被写体として撮影したときに各AF用撮像素子32A、32Bの飽和光量L、Lが撮像素子間で一致するように、各AF用撮像素子32A、32Bのゲイン調整を行う方法について説明する。 Next, as another adjustment method for aligning the characteristics of the AF image sensors 32A and 32B, the saturation light amounts L A and L B of the AF image sensors 32A and 32B are captured when a white chart is photographed as a subject. A method for adjusting the gain of each of the AF imaging elements 32A and 32B so as to match the elements will be described.

図8は、各AF用撮像素子32A、32Bの飽和光量L、Lが一致するように調整が行われた後の各AF用撮像素子32A、32Bの特性(光量−焦点評価値特性;白チャート特性)の一例を示したグラフである。同図に示すように、本調整方法では、各AF用撮像素子32A、32Bの白チャート特性を示すグラフの垂直直線(横軸に垂直な直線)が一致するように調整が行われる。 FIG. 8 shows characteristics (light quantity-focus evaluation value characteristics) of the AF image sensors 32A and 32B after the adjustment is performed so that the saturation light quantities L A and L B of the AF image sensors 32A and 32B coincide with each other. It is the graph which showed an example of (white chart characteristic). As shown in the figure, in this adjustment method, the adjustment is performed so that the vertical straight lines (straight lines perpendicular to the horizontal axis) of the graphs indicating the white chart characteristics of the AF image pickup devices 32A and 32B coincide.

本調整方法によれば、図8に示すように、各AF用撮像素子32A、32Bの飽和光量L、Lが異なることによって生じる不具合を回避できるものの、光量に応じた焦点評価値を撮像素子間で一致させることができず、しかも焦点評価値の差分が光量に応じて変化するため、各AF用撮像素子32A、32Bの特性を完全に揃えることは困難である。 According to this adjustment method, as shown in FIG. 8, it is possible to avoid problems caused by the saturation light amounts L A and L B of the AF imaging elements 32A and 32B being different, but the focus evaluation value corresponding to the light amount is captured. Since the elements cannot be matched and the difference in the focus evaluation value changes according to the amount of light, it is difficult to completely align the characteristics of the AF image sensors 32A and 32B.

例えば、特定の被写体を撮影したときに得られる焦点評価値のピークが撮像素子間で揃うようにあらかじめ調整されている場合には、例えば図9に示すように各AF用撮像素子32A、32Bから得られた映像信号80A′、80B′のレベルが一致して、図4に示したように同じ大きさの曲線A、Bが得られる場合がある。しかし、それは特定の撮影条件に限られたものであり、光量の変化によって映像信号80A′、80B′に含まれるノイズ成分82A′、82B′の量(振幅)が変化すると、映像信号80A′、80B′のレベルは一致しなくなり、図5に示したように大きさの異なる曲線A、Bが得られるようになる。その結果、合焦精度の低下を招いてしまうことになる。特に高輝度被写体を撮影した場合には、各AF用撮像素子32A、32Bから求められる焦点評価値の差は大きく、その問題はより顕著となる。   For example, when the focus evaluation value peaks obtained when a specific subject is photographed are adjusted in advance so as to be aligned between the image sensors, for example, as shown in FIG. 9, from each of the AF image sensors 32A and 32B. In some cases, the levels of the obtained video signals 80A ′ and 80B ′ coincide with each other to obtain curves A and B having the same size as shown in FIG. However, this is limited to specific shooting conditions. When the amount (amplitude) of the noise components 82A ′ and 82B ′ included in the video signals 80A ′ and 80B ′ changes due to the change in the amount of light, the video signal 80A ′, The levels of 80B 'do not match, and curves A and B having different sizes can be obtained as shown in FIG. As a result, the accuracy of focusing is reduced. In particular, when a high-luminance subject is photographed, the difference between the focus evaluation values obtained from the AF image sensors 32A and 32B is large, and the problem becomes more prominent.

そこで本実施の形態のオートフォーカスシステムでは、各撮像素子32A、32Bの特性を揃えるための調整方法として、白チャートを被写体として撮影した場合に各AF用撮像素子32A、32Bの飽和光量L、Lが撮像素子間で一致するように各AF用撮像素子32A、32Bのゲイン調整を行う工程(ゲイン調整工程)を行った後(図8参照)、光量に応じた焦点評価値が撮像素子間で一致するように補正処理を行う工程(補正処理工程)を行うようにする。 Therefore, in the autofocus system according to the present embodiment, as an adjustment method for aligning the characteristics of the image pickup devices 32A and 32B, when the white chart is taken as a subject, the saturation light amount L A of each AF image pickup device 32A and 32B after the L B makes a step of performing matching each AF imaging devices 32A to, 32B gain adjustment between the imaging element (gain adjustment step) (see FIG. 8), the focus evaluation value is the imaging device in accordance with the amount A step of performing correction processing (correction processing step) is performed so as to match each other.

この補正処理工程では、各AF用撮像素子32A、32Bから得られる焦点評価値のうち、いずれか一方又は両方の焦点評価値に対して、所定の補正関数f(x)から求められる補正値(焦点評価値の差分に相当)を加算することによって、同一光量のときには同一焦点評価値となるように補正処理を行う。尚、光量に応じて変動するAFエリア内の平均輝度が変数xとして用いられる。また、両方の焦点評価値に対して補正処理を行う場合には、各AF用撮像素子32A、32Bにそれぞれ対応した複数の補正関数f(x)、f(x)が用いられる。 In this correction processing step, a correction value (obtained from a predetermined correction function f (x) for one or both of the focus evaluation values obtained from the AF image sensors 32A and 32B ( (Corresponding to the difference in focus evaluation values) is added to perform correction processing so that the same focus evaluation value is obtained when the light quantity is the same. Note that the average luminance in the AF area that varies according to the amount of light is used as the variable x. When correction processing is performed on both focus evaluation values, a plurality of correction functions f a (x) and f b (x) respectively corresponding to the AF imaging elements 32A and 32B are used.

図10は、図8に示したグラフの一部を抜粋した図であり、傾き直線90A、90Bは、それぞれAF用撮像素子32A、32Bの白チャート特性を示すグラフの傾き直線に相当するものである。同図に示した例では、各AF用撮像素子32A、32Bから得られる焦点評価値の差分が光量に比例する部分axと固定値部分bとからなり、この場合における補正関数f(x)は、これらの和ax+bにAFエリア内の画素数Nを乗じて得られるN(ax+b)によって表現することができる(即ち、f(x)=N(ax+b))。尚、補正係数a、bは、AF用撮像素子32A、32Bとして用いられる撮像素子の組み合わせによって個々に決められる値であり、ゲイン調整後の特性に応じて最適な値が適宜設定される。また、補正関数f(x)は上述した例に限定されず、各AF用撮像素子32A、32Bから得られる焦点評価値の差分に対応したものであればよい。   FIG. 10 is a diagram excerpted from a part of the graph shown in FIG. 8, and the inclination straight lines 90A and 90B correspond to the inclination straight lines of the graphs showing the white chart characteristics of the AF imaging elements 32A and 32B, respectively. is there. In the example shown in the figure, the difference between the focus evaluation values obtained from the AF image sensors 32A and 32B is composed of a part ax and a fixed value part b, which are proportional to the light amount. In this case, the correction function f (x) is The sum ax + b can be expressed by N (ax + b) obtained by multiplying the number N of pixels in the AF area (ie, f (x) = N (ax + b)). The correction coefficients a and b are values determined individually depending on the combination of the image pickup elements used as the AF image pickup elements 32A and 32B, and optimal values are appropriately set according to the characteristics after gain adjustment. The correction function f (x) is not limited to the above-described example, and may be any function corresponding to the difference between the focus evaluation values obtained from the AF imaging elements 32A and 32B.

図11は、補正処理工程において焦点評価値が補正されるプロセスを簡略的に示した図である。同図に示すように、補正処理工程では、最初にAFエリア内の平均輝度(1画素あたりの輝度)xが算出される。そして平均輝度xに補正係数aを乗じた後、さらに補正係数bを加算して、1画素あたりの補正値ax+bを得る。さらに1画素あたりの補正値ax+bにAFエリア内の画素数Nを乗じることによって、焦点評価値に加算される補正値N(ax+b)が求められる。そして補正対象となる焦点評価値に当該補正値N(ax+b)を加算することによって、補正後の焦点評価値を算出することができる。   FIG. 11 is a diagram schematically illustrating a process in which the focus evaluation value is corrected in the correction processing step. As shown in the figure, in the correction processing step, first, the average luminance (luminance per pixel) x in the AF area is calculated. Then, after multiplying the average luminance x by the correction coefficient a, the correction coefficient b is further added to obtain a correction value ax + b per pixel. Further, a correction value N (ax + b) to be added to the focus evaluation value is obtained by multiplying the correction value ax + b per pixel by the number N of pixels in the AF area. Then, the corrected focus evaluation value can be calculated by adding the correction value N (ax + b) to the focus evaluation value to be corrected.

次に、CPU10の具体的な処理手順について図12のフローチャートを用いて説明する。図12のフローチャートに示すように、まずCPU10は、AF回路30からchAとchBの焦点評価値E1、E2を取得すると(ステップS10)、AFエリア内の平均輝度X1、X2を求める(ステップS12)。続いて、焦点評価値E1、E2を補正するための補正係数a1、b1、a2、b2を取得する(ステップS14)。各補正係数a1、b1、a2、b2は、上述した補正係数a、bに相当するものであり、図1のメモリ22にあらかじめ記憶されている。CPU10は、メモリ22にアクセスすることによって、これらの補正係数a1、b1、a2、b2を取得する。   Next, a specific processing procedure of the CPU 10 will be described using the flowchart of FIG. As shown in the flowchart of FIG. 12, when the CPU 10 acquires the focus evaluation values E1 and E2 of chA and chB from the AF circuit 30 (step S10), the CPU 10 obtains the average luminances X1 and X2 in the AF area (step S12). . Subsequently, correction coefficients a1, b1, a2, and b2 for correcting the focus evaluation values E1 and E2 are acquired (step S14). The correction coefficients a1, b1, a2, and b2 correspond to the correction coefficients a and b described above, and are stored in advance in the memory 22 of FIG. The CPU 10 obtains these correction coefficients a1, b1, a2, and b2 by accessing the memory 22.

次に、各焦点評価値E1、E2を以下の式に従って補正後の焦点評価値E1’、E2’をそれぞれ算出する(ステップS16)。   Next, the focus evaluation values E1 'and E2' after correction of the focus evaluation values E1 and E2 are calculated according to the following equations (step S16).

E1’=E1+N(a1×X1+b1)
E2’=E1+N(a2×X2+b2)
そしてCPU10は、上記のようにして求められた補正後の焦点評価値E1’、E2’に基づいて光路長差によるピント調整を行う。
E1 ′ = E1 + N (a1 × X1 + b1)
E2 ′ = E1 + N (a2 × X2 + b2)
Then, the CPU 10 performs focus adjustment based on the optical path length difference based on the corrected focus evaluation values E1 ′ and E2 ′ obtained as described above.

以上説明したように、本実施の形態によれば、製造出荷される前の調整段階において、各AF用撮像素子32A、32Bの飽和光量L、Lが一致するようにゲイン調整を行うだけでなく、光量に応じた焦点評価値が一致するように補正処理を行うようにしたので、各AF用撮像素子32A、32Bの特性を完全に揃えることが可能となる。その結果、光路長差方式による焦点検出を安定して高精度に行うことができるようになる。 As described above, according to the present embodiment, only gain adjustment is performed so that the saturated light amounts L A and L B of the AF image pickup devices 32A and 32B coincide with each other in the adjustment stage before manufacture and shipment. In addition, since the correction processing is performed so that the focus evaluation values according to the amount of light coincide with each other, it is possible to completely align the characteristics of the AF image pickup devices 32A and 32B. As a result, focus detection by the optical path length difference method can be stably performed with high accuracy.

FL…フォーカスレンズ、ZL…ズームレンズ、I…絞り、FA、ZA、IA…アンプ、FM、ZM、IM…モータ、FP、ZP、IP…ポテンショメータ、10…CPU、18…フォーカスデマンド、20…ズームデマンド、30…AF回路、32…AF用撮像素子、34…A/D変換器、36…ゲート回路、38…ハイパスフィルタ、40A、40B…加算回路、50…カメラ本体、60…撮影レンズ、62…ハーフミラー、64…光分割光学系、68…色分解光学系、70…映像用撮像素子   FL: Focus lens, ZL: Zoom lens, I: Aperture, FA, ZA, IA ... Amplifier, FM, ZM, IM ... Motor, FP, ZP, IP ... Potentiometer, 10 ... CPU, 18 ... Focus demand, 20 ... Zoom Demand, 30 ... AF circuit, 32 ... AF image sensor, 34 ... A / D converter, 36 ... Gate circuit, 38 ... High pass filter, 40A, 40B ... Adder circuit, 50 ... Camera body, 60 ... Shooting lens, 62 ... Half mirror, 64 ... Light splitting optical system, 68 ... Color separation optical system, 70 ... Image sensor for video

Claims (4)

光路長が異なる位置に配置されたオートフォーカス用の複数の撮像素子により被写体画像を撮像し、該撮像して得られた被写体画像のコントラストの高さを示す焦点評価値に基づいて前記撮影レンズのフォーカスを制御して自動ピント調整を行うオートフォーカスシステムにおける撮像素子の特性調整方法において、
白チャートを被写体としたときに各撮像素子から得られる映像信号が飽和状態となる光量が一致するように、複数の撮像素子のうち少なくとも一方の撮像素子のゲイン調整を行うゲイン調整工程と、
前記ゲイン調整工程が行われた後、各撮像素子からそれぞれ得られる焦点評価値が一致するように、少なくとも一方の撮像素子から得られる焦点評価値に対して補正処理を行う補正処理工程と、
を含むことを特徴とする撮像素子の特性調整方法。
A subject image is picked up by a plurality of autofocus imaging elements arranged at different positions of the optical path length, and based on a focus evaluation value indicating the contrast height of the subject image obtained by the image pickup, In the method of adjusting the characteristics of the image sensor in an autofocus system that performs automatic focus adjustment by controlling the focus,
A gain adjustment step of performing gain adjustment of at least one of the plurality of image sensors so that the amount of light at which a video signal obtained from each image sensor becomes saturated when the white chart is a subject,
A correction processing step for performing correction processing on the focus evaluation value obtained from at least one of the image sensors so that the focus evaluation values obtained from the respective image sensors match after the gain adjustment step;
The characteristic adjustment method of the image pick-up element characterized by including these.
請求項1に記載の撮像素子の特性調整方法において、
前記補正処理工程は、各撮像素子からそれぞれ得られる焦点評価値の差分を定める補正関数を用いて補正処理を行うことを特徴とする撮像素子の特性調整方法。
In the characteristic adjustment method of the image sensor according to claim 1,
The image sensor characteristic adjustment method, wherein the correction process step performs a correction process using a correction function that determines a difference in focus evaluation values obtained from each image sensor.
光路長が異なる位置に配置されたオートフォーカス用の複数の撮像素子により被写体画像を撮像し、該撮像して得られた被写体画像のコントラストの高さを示す焦点評価値に基づいて前記撮影レンズのフォーカスを制御して自動ピント調整を行うオートフォーカスシステムにおける撮像素子の特性調整装置において、
白チャートを被写体としたときに各撮像素子から得られる映像信号が飽和状態となる光量が一致するように、複数の撮像素子のうち少なくとも一方の撮像素子のゲイン調整を行うゲイン調整手段と、
前記ゲイン調整手段によってゲイン調整が行われた後、各撮像素子からそれぞれ得られる焦点評価値が一致するように、少なくとも一方の撮像素子から得られる焦点評価値に対して補正処理を行う補正処理手段と、
を備えたことを特徴とする撮像素子の特性調整装置。
A subject image is picked up by a plurality of autofocus imaging elements arranged at different positions of the optical path length, and based on a focus evaluation value indicating the contrast height of the subject image obtained by the image pickup, In the device for adjusting the characteristics of an image sensor in an autofocus system that performs automatic focus adjustment by controlling focus,
Gain adjusting means for performing gain adjustment of at least one of the plurality of image sensors so that the amount of light at which a video signal obtained from each image sensor becomes saturated when the white chart is a subject,
After the gain adjustment is performed by the gain adjustment unit, a correction processing unit that performs a correction process on the focus evaluation value obtained from at least one of the image sensors so that the focus evaluation values obtained from the respective image sensors coincide with each other. When,
An image sensor characteristic adjusting apparatus comprising:
請求項3に記載の撮像素子の特性調整装置において、
前記補正処理手段は、各撮像素子からそれぞれ得られる焦点評価値の差分を定める補正関数を用いて補正処理を行うことを特徴とする撮像素子の特性調整装置。
In the characteristic adjustment device of the image sensor according to claim 3,
The image sensor characteristic adjustment apparatus, wherein the correction processing means performs correction processing using a correction function that determines a difference in focus evaluation values obtained from each image sensor.
JP2009273831A 2009-12-01 2009-12-01 Image sensor characteristic adjustment method and characteristic adjustment apparatus Expired - Fee Related JP5475417B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009273831A JP5475417B2 (en) 2009-12-01 2009-12-01 Image sensor characteristic adjustment method and characteristic adjustment apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009273831A JP5475417B2 (en) 2009-12-01 2009-12-01 Image sensor characteristic adjustment method and characteristic adjustment apparatus

Publications (3)

Publication Number Publication Date
JP2011118058A true JP2011118058A (en) 2011-06-16
JP2011118058A5 JP2011118058A5 (en) 2012-10-04
JP5475417B2 JP5475417B2 (en) 2014-04-16

Family

ID=44283495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009273831A Expired - Fee Related JP5475417B2 (en) 2009-12-01 2009-12-01 Image sensor characteristic adjustment method and characteristic adjustment apparatus

Country Status (1)

Country Link
JP (1) JP5475417B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013015036A1 (en) * 2011-07-28 2013-01-31 富士フイルム株式会社 Autofocus system and operational control method for same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112105A (en) * 2000-10-02 2002-04-12 Konica Corp Electronic camera and gain setting method
JP2004085676A (en) * 2002-08-23 2004-03-18 Fuji Photo Optical Co Ltd Autofocus system
JP2008003144A (en) * 2006-06-20 2008-01-10 Fujinon Corp Lens adjustment system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112105A (en) * 2000-10-02 2002-04-12 Konica Corp Electronic camera and gain setting method
JP2004085676A (en) * 2002-08-23 2004-03-18 Fuji Photo Optical Co Ltd Autofocus system
JP2008003144A (en) * 2006-06-20 2008-01-10 Fujinon Corp Lens adjustment system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013015036A1 (en) * 2011-07-28 2013-01-31 富士フイルム株式会社 Autofocus system and operational control method for same

Also Published As

Publication number Publication date
JP5475417B2 (en) 2014-04-16

Similar Documents

Publication Publication Date Title
JP3975395B2 (en) Camera system
JPH01246516A (en) Focus position detector
JP2006064969A (en) Automatic focusing system
US7633545B2 (en) Focus detecting system
US6833538B2 (en) Device for determining focused state of taking lens
US7576796B2 (en) Auto focus system
JP4573032B2 (en) Auto focus system
JP4334784B2 (en) Autofocus device and imaging device using the same
US20080043333A1 (en) Lens device
JP5475417B2 (en) Image sensor characteristic adjustment method and characteristic adjustment apparatus
JP2007065593A (en) Autofocus system
JP4032877B2 (en) Auto focus system
JP2009109792A (en) Autofocusing device and camera using it
JP2006215285A (en) Autofocus system
JP4692425B2 (en) Auto focus system
US8106992B2 (en) Automatic focusing system using a magnification or reduction optical system
WO2013015036A1 (en) Autofocus system and operational control method for same
JP2006064970A (en) Automatic focusing system
JP2006215284A (en) Autofocus system
JP2004118141A (en) Autofocus system
JP2005062237A (en) Automatic focus system
JP2004212458A (en) Autofocus system
JP4513056B2 (en) Auto focus system
JP2005156737A (en) Auto focus system
JP2007127948A (en) Automatic focus system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140206

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees