JP4773767B2 - FOCUS DETECTION DEVICE, OPTICAL DEVICE, AND FOCUS DETECTION METHOD - Google Patents
FOCUS DETECTION DEVICE, OPTICAL DEVICE, AND FOCUS DETECTION METHOD Download PDFInfo
- Publication number
- JP4773767B2 JP4773767B2 JP2005235450A JP2005235450A JP4773767B2 JP 4773767 B2 JP4773767 B2 JP 4773767B2 JP 2005235450 A JP2005235450 A JP 2005235450A JP 2005235450 A JP2005235450 A JP 2005235450A JP 4773767 B2 JP4773767 B2 JP 4773767B2
- Authority
- JP
- Japan
- Prior art keywords
- focus detection
- pair
- focus
- light receiving
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Automatic Focus Adjustment (AREA)
- Focusing (AREA)
Description
本発明は、複数対の受光部のうち、一対の受光部から得られる一対の物体像の光電変換結果に基づいて、いわゆる位相差検出方式による焦点検出を行う焦点検出装置および方法に関するものである。 The present invention relates to a focus detection apparatus and method for performing focus detection by a so-called phase difference detection method based on photoelectric conversion results of a pair of object images obtained from a pair of light reception units among a plurality of pairs of light reception units. .
一眼レフカメラ等の光学機器に用いられる焦点検出装置として、位相差検出方式を用いたものがある。この方式では、撮影レンズにおける互いに異なる瞳領域を通過した光束が形成する一対の被写体像を一対のセンサ列により光電変換し、その出力である(像信号)の相対変位(位相差)を求め、該位相差から撮影レンズのデフォーカス量を検出する方式である。この方式では、一対のセンサ列は被写体空間の特定領域や特定方向での輝度分布のみを抽出するため、その領域に輝度分布を有しない被写体ではデフォーカス量を検出することができない。 As a focus detection device used for an optical apparatus such as a single-lens reflex camera, there is one using a phase difference detection method. In this method, a pair of subject images formed by light beams that have passed through different pupil regions in the photographing lens are photoelectrically converted by a pair of sensor arrays, and the relative displacement (phase difference) of the output (image signal) is obtained. In this method, the defocus amount of the photographing lens is detected from the phase difference. In this method, the pair of sensor arrays extract only a luminance distribution in a specific area or a specific direction of the subject space, and therefore it is impossible to detect the defocus amount for a subject that does not have a luminance distribution in that area.
そこで、特許文献1,2には、一対のセンサ列とそれに対応する焦点検出光学系を複数用意して、被写体の複数領域や複数方向での輝度分布を抽出し、より多くの被写体に対する焦点検出を可能とする方法が開示されている。 Therefore, Patent Documents 1 and 2 prepare a plurality of pairs of sensor arrays and corresponding focus detection optical systems, extract luminance distributions in a plurality of areas and directions of a subject, and perform focus detection for more subjects. A method is disclosed that enables
ところで、特許文献1,2にて開示されているように焦点検出結果(デフォーカス量)が複数得られた場合、その中から実際の焦点調節に使用する焦点検出結果を1つ選択する必要がある。 Incidentally, as disclosed in Patent Documents 1 and 2, when a plurality of focus detection results (defocus amounts) are obtained, it is necessary to select one focus detection result to be used for actual focus adjustment from the results. is there.
特許文献1に開示されている焦点検出装置では、デフォーカス量と被写体のコントラストから焦点検出結果の信頼性を求め、該信頼性に基づいて焦点検出結果を選択する。また、特許文献2にて開示された焦点検出装置では、複数対のセンサ列から先に蓄積動作が終了したセンサ列を選択することで、焦点検出のスピードの向上を図っている。
しかしながら、特許文献1,2に開示されている焦点検出装置では、デフォーカス量と被写体のコントラストだけで焦点検出結果の信頼性を決めているため、一対の被写体像の一致度は全く考慮されていない。この一致度を考慮しないと、一対の被写体像のうち一方にのみゴースト光が入って被写体像が崩れた場合に、焦点検出結果が実際の焦点状態に対してずれてしまう。そして、そのずれた焦点検出結果を選んでしまうという問題がある。 However, in the focus detection devices disclosed in Patent Documents 1 and 2, since the reliability of the focus detection result is determined only by the defocus amount and the contrast of the subject, the degree of coincidence between the pair of subject images is completely considered. Absent. If this degree of coincidence is not taken into account, when the ghost light enters only one of the pair of subject images and the subject image collapses, the focus detection result deviates from the actual focus state. There is a problem that the shifted focus detection result is selected.
また、特許文献2に開示されている焦点検出装置では、複数対のセンサ列による焦点検出結果を比較するような処理を行わない。このため、精度がより良好な焦点検出結果を選択することができない。 Further, the focus detection device disclosed in Patent Document 2 does not perform a process of comparing the focus detection results of a plurality of pairs of sensor arrays. For this reason, it is not possible to select a focus detection result with better accuracy.
このように、従来の焦点検出装置では、複数の焦点検出結果から精度の高い適切な情報を選択することができず、結果として焦点検出精度が落ちてしまうという問題がある。 As described above, the conventional focus detection apparatus cannot select appropriate information with high accuracy from a plurality of focus detection results, and as a result, there is a problem that the focus detection accuracy is lowered.
本発明は、複数の焦点検出視野から焦点調節に用いる焦点検出情報を生成するための焦点検出視野を適切に選択し、精度の高い焦点検出を行えるようにした焦点検出装置および焦点検出方法を提供することを目的としている。 The present invention provides a focus detection device and a focus detection method capable of appropriately selecting a focus detection field for generating focus detection information used for focus adjustment from a plurality of focus detection fields and performing highly accurate focus detection. The purpose is to do.
本発明の一側面としての焦点検出装置は、複数の焦点検出視野に対応する複数対の受光部を有し、各対の受光部上に形成された一対の物体像を光電変換するセンサと、複数の焦点検出視野のうち特定焦点検出視野に対応する一対の受光部からの信号に基づいて焦点調節に用いる焦点検出情報を生成する演算手段とを有する。そして、演算手段は、焦点検出視野ごとに演算した、一対の物体像の一致度と、一対の物体像の相対位置関係を合焦状態から所定の受光画素数分シフトさせた場合の相関量の変化量と、一対の物体像のシャープネスと、一対の物体像の明暗比とをパラメータとした評価値に基づいて、特定焦点検出視野を選択する。
評価値は、一致度をU、相関量の変化量をΔV、シャープネスをSH、明暗比をPBDとしたときに、以下の式で表される。
評価値=U/(ΔV×SH×PBD)
A focus detection apparatus according to an aspect of the present invention includes a plurality of pairs of light receiving units corresponding to a plurality of focus detection fields, and a sensor that photoelectrically converts a pair of object images formed on each pair of light receiving units; Arithmetic means for generating focus detection information used for focus adjustment based on signals from a pair of light receiving units corresponding to the specific focus detection field among the plurality of focus detection fields; Then, the calculation means calculates the degree of correlation when the degree of coincidence between the pair of object images calculated for each focus detection field of view and the relative positional relationship between the pair of object images is shifted from the focused state by a predetermined number of light receiving pixels. The specific focus detection visual field is selected based on the evaluation value using the amount of change, the sharpness of the pair of object images, and the contrast ratio of the pair of object images as parameters .
The evaluation value is expressed by the following equation, where the degree of coincidence is U, the amount of change in the correlation amount is ΔV, the sharpness is SH, and the contrast ratio is PBD .
Evaluation value = U / (ΔV × SH × PBD)
また、本発明の他の側面としての焦点検出方法は、複数の焦点検出視野に対応する複数対の受光部を有し、各対の受光部上に形成された一対の物体像を光電変換するセンサから信号を得る第1のステップと、複数の焦点検出視野のうち特定焦点検出視野に対応する一対の受光部からの信号に基づいて焦点調節に用いる焦点検出情報を生成する第2のステップとを有する。そして、第2のステップにおいて、焦点検出視野ごとに演算した、一対の物体像の一致度と、一対の物体像の相対位置関係を合焦状態から所定の受光画素数分シフトさせた場合の相関量の変化量と、一対の物体像のシャープネスと、一対の物体像の明暗比とをパラメータとした評価値に基づいて、特定焦点検出視野を選択する。
評価値は、一致度をU、相関量の変化量をΔV、シャープネスをSH、明暗比をPBDとしたときに、以下の式で表される。
評価値=U/(ΔV×SH×PBD)
A focus detection method according to another aspect of the present invention includes a plurality of pairs of light receiving units corresponding to a plurality of focus detection fields, and photoelectrically converts a pair of object images formed on each pair of light receiving units. A first step of obtaining a signal from the sensor; a second step of generating focus detection information used for focus adjustment based on signals from a pair of light receiving units corresponding to a specific focus detection field among a plurality of focus detection fields; Have In the second step, the degree of coincidence between the pair of object images calculated for each focus detection field and the correlation when the relative positional relationship between the pair of object images is shifted from the focused state by a predetermined number of light receiving pixels. The specific focus detection visual field is selected based on the evaluation values using the amount of change, the sharpness of the pair of object images, and the contrast ratio of the pair of object images as parameters .
The evaluation value is expressed by the following equation, where the degree of coincidence is U, the amount of change in the correlation amount is ΔV, the sharpness is SH, and the contrast ratio is PBD.
Evaluation value = U / (ΔV × SH × PBD)
本発明によれば、複数の焦点検出視野のうち、より精度の高い適切な焦点検出情報が得られる焦点検出視野を選択することができる。したがって、焦点検出精度の向上を図ることができる。そして、このような焦点検出情報を用いて焦点調節制御を行えば、より高い合焦精度を得ることができる。
According to the present invention, among the plurality of focus detection field, it is possible to select the focus detection field of view higher precision suitable focus detection information is obtained. Therefore, the focus detection accuracy can be improved. If focus adjustment control is performed using such focus detection information, higher focusing accuracy can be obtained.
以下、本発明の実施例について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1から図19を用いて、本発明の実施例1である焦点検出方法について説明する。まず、図1には、本実施例の焦点検出装置を搭載した光学機器としてのカメラの構成を示している。 A focus detection method that is Embodiment 1 of the present invention will be described with reference to FIGS. First, FIG. 1 shows the configuration of a camera as an optical apparatus equipped with the focus detection apparatus of this embodiment.
本実施例のカメラは、CCDセンサ又はCMOSセンサなどの光電変換素子である撮像素子を用いた単板式のデジタルカラーカメラである。撮像素子を連続的又は単発的に駆動することにより、動画像又は静止画像を表わす画像信号を得ることができる。撮像素子は、画素ごとに受けた光を電気信号に変換して、受光量に応じた電荷を蓄積し、その電荷が読み出されるタイプのエリアセンサである。 The camera of the present embodiment is a single plate type digital color camera using an image pickup element which is a photoelectric conversion element such as a CCD sensor or a CMOS sensor. An image signal representing a moving image or a still image can be obtained by driving the image sensor continuously or once. The image sensor is an area sensor of a type that converts light received for each pixel into an electric signal, accumulates electric charge according to the amount of received light, and reads out the electric charge.
図1において、1は撮影光学系、2は撮影光学系からの被写体光束を分割する主ミラーである。主ミラー2の一部はハーフミラーになっており、一部の被写体光束を透過し、残りの被写体光束を上方に反射する。3は主ミラー2を透過した被写体光束を下方に反射する。サブミラー3の下方には、撮影光学系1の焦点状態を検出する焦点検出装置20が配置されている。サブミラー3での反射光は焦点検出装置20に導かれる。4は撮像素子であり、撮影光学系1により形成された被写体光束を受光して画像信号に変換する。 In FIG. 1, 1 is a photographing optical system, and 2 is a main mirror that divides a subject light beam from the photographing optical system. A part of the main mirror 2 is a half mirror, which transmits a part of the subject luminous flux and reflects the remaining subject luminous flux upward. Reference numeral 3 reflects the subject luminous flux transmitted through the main mirror 2 downward. A focus detection device 20 that detects the focus state of the photographing optical system 1 is disposed below the sub mirror 3. The reflected light from the sub mirror 3 is guided to the focus detection device 20. Reference numeral 4 denotes an image sensor that receives a subject light beam formed by the photographing optical system 1 and converts it into an image signal.
本実施例の撮像素子4は、パッケージ化されたものであり、増幅型固体撮像素子の1つであるCMOSプロセスコンパチブルのセンサ(CMOSセンサ)である。CMOSセンサの特長の1つに、エリアセンサ部のMOSトランジスタと、撮像素子駆動回路、AD変換回路、画像処理回路といった周辺回路を同一工程で形成できるというものがある。これにより、マスク枚数、プロセス工程がCCDセンサと比較して大幅に削減できる。また、任意の画素へのランダムアクセスが可能といった特長も有する。これにより、ディスプレイ用に間引いた電荷蓄積信号の読み出しも容易であり、高い表示レートでリアルタイム表示が行える。撮像素子4は、この特長を利用し、ディスプレイ画像の出力動作や高精細画像の出力動作を行う。 The image sensor 4 of the present embodiment is packaged and is a CMOS process compatible sensor (CMOS sensor) which is one of amplification type solid-state image sensors. One of the features of the CMOS sensor is that a MOS transistor in the area sensor unit and peripheral circuits such as an image sensor driving circuit, an AD conversion circuit, and an image processing circuit can be formed in the same process. As a result, the number of masks and process steps can be greatly reduced as compared with the CCD sensor. In addition, there is a feature that random access to an arbitrary pixel is possible. As a result, it is easy to read out the charge accumulation signal thinned out for display, and real-time display can be performed at a high display rate. The image sensor 4 uses this feature to perform a display image output operation and a high-definition image output operation.
焦点検出装置20は、位相差検出方式による焦点検出を行う。位相差検出方式では、撮影光学系1の一対の異なる瞳領域を透過した光束で形成される2つの被写体像の相対位置関係(位相差)を検出し、これを撮影光学系1の焦点状態を表す情報として用いる。撮影光学系の一対の異なる瞳領域から得られる2つの被写体像の位相差によって撮影光学系の焦点状態を検出する技術は、特開昭52−138924号公報等に開示されているように良く知られた技術である。 The focus detection device 20 performs focus detection by a phase difference detection method. In the phase difference detection method, the relative positional relationship (phase difference) between two subject images formed by light beams that have passed through a pair of different pupil regions of the photographic optical system 1 is detected, and this is used to determine the focus state of the photographic optical system 1. Used as information to represent. A technique for detecting a focus state of a photographing optical system based on a phase difference between two subject images obtained from a pair of different pupil regions of the photographing optical system is well known as disclosed in Japanese Patent Laid-Open No. 52-138924. Technology.
主ミラー2は、図示しないカメラ本体に軸部2aによって支持され、カメラ本体に対して回転可能である。また、サブミラー3は、主ミラー2の保持部材に軸部3aで支持され、主ミラー2に対して回転可能である。このため、主ミラー2が軸部2a回りで、またサブミラー3が軸部3a回りで回転することにより、主ミラー2は撮影光学系1の光軸に対して45度傾斜した位置に、サブミラー3が下方に約45度傾斜した位置に配置される(以下、この状態をミラーダウン状態という)。また、主ミラー2およびサブミラー3をともに上方に格納することによって、被写体光束の光路から退避した状態に配置される(以下、この状態をミラーアップ状態という)。 The main mirror 2 is supported by a camera body (not shown) by a shaft portion 2a, and is rotatable with respect to the camera body. The sub mirror 3 is supported by a shaft 3 a on the holding member of the main mirror 2 and is rotatable with respect to the main mirror 2. Therefore, when the main mirror 2 rotates about the shaft portion 2a and the sub mirror 3 rotates about the shaft portion 3a, the main mirror 2 is at a position inclined by 45 degrees with respect to the optical axis of the photographing optical system 1. Is disposed at a position inclined downward by about 45 degrees (hereinafter, this state is referred to as a mirror-down state). Further, by storing both the main mirror 2 and the sub mirror 3 upward, the main mirror 2 and the sub mirror 3 are disposed in a state of being retracted from the optical path of the subject light beam (hereinafter, this state is referred to as a mirror-up state).
ミラーダウン状態では、撮影光学系1からの被写体光束は上方のファインダー光学系と下方の焦点検出装置の二つに分割される。一方、ミラーアップ状態では、撮影光学系1からの被写体光束はすべて撮像素子4に導かれる。 In the mirror-down state, the subject luminous flux from the photographing optical system 1 is divided into two parts, an upper finder optical system and a lower focus detection device. On the other hand, in the mirror-up state, all the subject luminous flux from the photographing optical system 1 is guided to the image sensor 4.
撮影光学系1から撮像素子4に至る光路中には、撮像素子4上に物体像の必要以上に高い空間周波数成分が伝達されないように撮影光学系1のカットオフ周波数を制限する光学ローパスフィルター22が設けられている。また、光学ローパスフィルター22には赤外線カットフィルターも形成されている。 An optical low-pass filter 22 that limits the cut-off frequency of the photographic optical system 1 so that a spatial frequency component higher than necessary in the object image is not transmitted onto the image sensor 4 in the optical path from the photographic optical system 1 to the image sensor 4. Is provided. The optical low-pass filter 22 is also formed with an infrared cut filter.
光学ローパスフィルター22の光入射面側には、撮像素子4に入射する被写体光束の露光秒時を制限するシャッターユニット21が配置されている。それぞれ複数のシャッタ羽根で構成される先幕21aと後幕21bが、撮像素子4の短辺方向に走行し、先幕21aと後幕21bの走行間隔でシャッター秒時を制御する。 On the light incident surface side of the optical low-pass filter 22, a shutter unit 21 that restricts the exposure time of the subject light beam incident on the image sensor 4 is disposed. A front curtain 21a and a rear curtain 21b each composed of a plurality of shutter blades travel in the short side direction of the image sensor 4, and the shutter time is controlled by the travel interval between the front curtain 21a and the rear curtain 21b.
5はサブミラー3で反射した被写体光束を制限する遮光部材(以下、カバーという)である。カバー5は、被写体光束のうち焦点検出に必要な光束だけを透過する開口を有する。該開口は撮影光学系1の結像面付近に配置され、必要な被写体光束を以下に述べる焦点検出光学系に導き、不必要な被写体光束を遮光する。カバー5の上面は、カメラ本体の内壁に露出するため、反射光が撮像素子4に到達しないように遮光線が施されている。 Reference numeral 5 denotes a light shielding member (hereinafter referred to as a cover) that restricts a subject light beam reflected by the sub mirror 3. The cover 5 has an opening that transmits only the light beam necessary for focus detection out of the subject light beam. The aperture is disposed in the vicinity of the imaging plane of the photographing optical system 1, guides a necessary subject light beam to a focus detection optical system described below, and shields an unnecessary subject light beam. Since the upper surface of the cover 5 is exposed on the inner wall of the camera body, a light shielding line is provided so that the reflected light does not reach the image sensor 4.
6はカバー5の開口を透過した光束をさらに制限する遮光シート、7は後述する焦点検出光学系の瞳を撮影光学系の瞳に投影するフィールドレンズである。8は焦点検出装置20の各部品を保持する保持部材、9は保持部材8をカメラ本体に取り付けるプレートである。 Reference numeral 6 denotes a light shielding sheet that further restricts the light beam that has passed through the opening of the cover 5, and 7 denotes a field lens that projects a pupil of a focus detection optical system, which will be described later, onto a pupil of the photographing optical system. Reference numeral 8 denotes a holding member for holding each component of the focus detection device 20, and 9 denotes a plate for attaching the holding member 8 to the camera body.
11はIR−CUTフィルターである。IR−CUTフィルター11では、ガラス表面に赤外成分の光を反射する多層蒸着膜が形成されている。 Reference numeral 11 denotes an IR-CUT filter. In the IR-CUT filter 11, a multilayer deposited film that reflects infrared component light is formed on the glass surface.
12は折り返しミラーである。折り返しミラー12では、ガラス表面にアルミの蒸着膜が形成され、該ミラー12は、波長400〜800nmの光をほぼ同じ反射率で反射する。カメラ下部の限られたスペースに焦点検出装置20を収納するために、折り返しミラー12は被写体光束を折り返し、焦点検出装置20の小型化を図っている。 Reference numeral 12 denotes a folding mirror. In the folding mirror 12, an aluminum vapor deposition film is formed on the glass surface, and the mirror 12 reflects light having a wavelength of 400 to 800 nm with substantially the same reflectance. In order to house the focus detection device 20 in a limited space below the camera, the folding mirror 12 folds the subject light flux to reduce the size of the focus detection device 20.
13は再結像光学系の絞りである。絞り13には一対の開口が形成され、再結像レンズ14の一対のレンズ部に入射する光束を制限している。 Reference numeral 13 denotes a stop of the re-imaging optical system. A pair of apertures is formed in the diaphragm 13 to limit the light beam incident on the pair of lens portions of the re-imaging lens 14.
14は再結像レンズである。絞り13の一対の開口に対応して一対のレンズを備え、撮影光学系1の異なる瞳領域からの光束をそれぞれ焦点検出センサ17上に結像させる。
16は焦点検出センサ17を保持するセンサホルダー、15はセンサホルダー16と保持部材8の間に介在して、焦点検出センサ17の傾き調整機構を構成する当接部材である。
Reference numeral 14 denotes a re-imaging lens. A pair of lenses is provided corresponding to the pair of apertures of the diaphragm 13, and light beams from different pupil regions of the photographing optical system 1 are imaged on the focus detection sensor 17, respectively.
Reference numeral 16 denotes a sensor holder that holds the focus detection sensor 17, and 15 denotes an abutting member that is interposed between the sensor holder 16 and the holding member 8 and constitutes an inclination adjustment mechanism of the focus detection sensor 17.
センサホルダー16は、焦点検出センサ17を保持する部材である。焦点検出センサ17とセンサホルダーは瞬間接着剤や溶着剤などにより固定される。 The sensor holder 16 is a member that holds the focus detection sensor 17. The focus detection sensor 17 and the sensor holder are fixed with an instantaneous adhesive or a welding agent.
40は焦点検出センサ17からの信号に基づいて、後述する評価値の演算を行い、該評価値に基づいて焦点検出情報を生成する演算回路である。また、演算回路40は、焦点検出情報に基づいて撮影光学系1に含まれるフォーカスレンズ(図示せず)の合焦位置への駆動方向と駆動量を演算し、不図示のレンズ制御回路を通じて焦点調節動作を制御する。すなわち、演算回路40は焦点調節制御を行う制御回路としても機能する。但し、焦点検出演算を行う演算回路と、焦点調節制御を行う制御回路とをカメラ内で分けて設けてもよい。 Reference numeral 40 denotes an arithmetic circuit that calculates an evaluation value, which will be described later, based on a signal from the focus detection sensor 17 and generates focus detection information based on the evaluation value. The arithmetic circuit 40 calculates the driving direction and driving amount of the focus lens (not shown) included in the photographing optical system 1 to the in-focus position based on the focus detection information, and the focus is controlled through a lens control circuit (not shown). Control adjustment behavior. That is, the arithmetic circuit 40 also functions as a control circuit that performs focus adjustment control. However, an arithmetic circuit that performs focus detection calculation and a control circuit that performs focus adjustment control may be provided separately in the camera.
カバー5、遮光シート6、フィールドレンズ7、保持部材8、プレート9、偏心カム10、IR−CUT11、折り返しミラー12、絞り13、再結像レンズ14、当接部材15、センサホルダー16、焦点検出センサ17および演算回路40によって、焦点検出装置20が構成される。 Cover 5, light shielding sheet 6, field lens 7, holding member 8, plate 9, eccentric cam 10, IR-CUT 11, folding mirror 12, diaphragm 13, re-imaging lens 14, contact member 15, sensor holder 16, focus detection The sensor 17 and the arithmetic circuit 40 constitute the focus detection device 20.
ここで、IR−CUTフィルター11は、折り返しミラー12で折り返された後の光軸に対して垂直に配置されず、所定角度だけ傾いて配置されている。これは、焦点検出センサ17の受光面で反射した光がIR−CUTフィルター11の表面で反射して再び焦点検出センサ17の受光面に到達してしまうことによるゴーストの発生を防止するためである。IR−CUTフィルター11を所定角度だけ傾けることで、焦点検出センサ17から戻ってきた光はIR−CUTフィルター11の表面で反射して焦点検出センサ17の受光面から外れたところに到達するため、ゴーストとして観測されない。 Here, the IR-CUT filter 11 is not disposed perpendicular to the optical axis after being folded by the folding mirror 12 but is tilted by a predetermined angle. This is to prevent the occurrence of a ghost caused by the light reflected by the light receiving surface of the focus detection sensor 17 being reflected by the surface of the IR-CUT filter 11 and reaching the light receiving surface of the focus detection sensor 17 again. . By tilting the IR-CUT filter 11 by a predetermined angle, the light returned from the focus detection sensor 17 is reflected by the surface of the IR-CUT filter 11 and reaches a place off the light receiving surface of the focus detection sensor 17. Not observed as a ghost.
図2には、本実施例の焦点検出装置20を分解して示している。カバー5は、被写体光束のうち焦点検出に必要な光束だけを透過する開口を有し、該開口は撮影光学系1の結像面付近に配置されている。これにより、焦点検出に必要な被写体光束だけが焦点検出光学系に導かれ、不必要な被写体光束は遮光される。 FIG. 2 shows an exploded view of the focus detection device 20 of this embodiment. The cover 5 has an opening that transmits only the light beam necessary for focus detection out of the subject light beam, and the opening is disposed in the vicinity of the imaging surface of the photographing optical system 1. As a result, only the subject luminous flux necessary for focus detection is guided to the focus detection optical system, and unnecessary subject luminous flux is shielded.
カバー5には穴部5aが2箇所に形成されている。保持部材8は、突起部8eをこれらの穴部5aに挿入してカバー5を固定している。カバー5の上面は、カメラ本体の内壁に露出するため、反射光が撮像素子4に到達しないように遮光線が施されている。 The cover 5 is formed with two holes 5a. The holding member 8 fixes the cover 5 by inserting the protrusions 8e into these holes 5a. Since the upper surface of the cover 5 is exposed on the inner wall of the camera body, a light shielding line is provided so that the reflected light does not reach the image sensor 4.
遮光シート6は、カバー5の開口を透過した光束をさらに制限する。フィールドレンズ7は、絞り13を撮影光学系の瞳に投影する。保持部材8は、焦点検出装置20を構成する各部品を保持する。 The light shielding sheet 6 further restricts the light beam transmitted through the opening of the cover 5. The field lens 7 projects the diaphragm 13 onto the pupil of the photographing optical system. The holding member 8 holds each component constituting the focus detection device 20.
プレート9は、保持部材8をカメラ本体に取り付けるために用いられる。偏心カム10は、保持部材8の軸部8aに回転可能に保持されている。 The plate 9 is used for attaching the holding member 8 to the camera body. The eccentric cam 10 is rotatably held by the shaft portion 8 a of the holding member 8.
保持部材8は、前述したカバー5、遮光シート6、フィールドレンズ7、偏心カム10、IR−CUTフィルター11、折り返しミラー12、絞り13、再結像レンズ14、当接部材15、センサホルダー16、焦点検出センサ17およびセパレータ18,19を保持している。 The holding member 8 includes the cover 5, the light shielding sheet 6, the field lens 7, the eccentric cam 10, the IR-CUT filter 11, the folding mirror 12, the diaphragm 13, the re-imaging lens 14, the contact member 15, the sensor holder 16, A focus detection sensor 17 and separators 18 and 19 are held.
保持部材8はプレート9を介してカメラ本体に取り付けられる。カメラ本体と保持部材8とで材質が異なる場合、線膨張係数も異なることが多い。この場合、温度変化でカメラ本体と保持部材8で伸縮率が異なり、カメラ本体の変形により保持部材8が歪んでしまう恐れがある。焦点検出光学系の各部品は保持部材8に保持されているため、保持部材8の歪みは焦点検出結果の誤差に直結してしまう。そこで本実施例では、保持部材8をカメラ本体に直接固定するのではなく、保持部材8と線膨張係数が近い材質でできているプレート9を介して固定する。これにより、カメラ本体とプレート9とで線膨張係数が異なる場合には、プレート9でその変形を吸収し、保持部材8には歪みを生じさせない。 The holding member 8 is attached to the camera body via the plate 9. When the camera body and the holding member 8 are made of different materials, the linear expansion coefficient is often different. In this case, the expansion / contraction rate differs between the camera body and the holding member 8 due to temperature changes, and the holding member 8 may be distorted due to deformation of the camera body. Since each component of the focus detection optical system is held by the holding member 8, the distortion of the holding member 8 is directly connected to an error in the focus detection result. Therefore, in this embodiment, the holding member 8 is not directly fixed to the camera body, but is fixed via the plate 9 made of a material having a linear expansion coefficient close to that of the holding member 8. Thereby, when the linear expansion coefficient differs between the camera body and the plate 9, the deformation is absorbed by the plate 9, and the holding member 8 is not distorted.
プレート9は、カメラ本体の変形を保持部材8に伝えにくくするために、ヤング率が大きい材質であることが望ましい。このため、ステンレスや鉄などの金属製のプレートをプレス加工により曲げて製作したものが用いられる。 The plate 9 is preferably made of a material having a large Young's modulus in order to make it difficult to transmit the deformation of the camera body to the holding member 8. For this reason, what was manufactured by bending metal plates, such as stainless steel and iron, by press work is used.
さらに、プレート9の強度を保つためには、環状につながった形状であることが望ましい。このため、プレート9は、全体としてはL字形状でありながらも、保持部材8を囲むような環状につながった形状に形成されている。これにより、カメラ本体の変形を吸収するのに十分な強度を保つことができ、保持部材8の歪みを防ぐことができる。 Furthermore, in order to maintain the strength of the plate 9, it is desirable that the shape be connected in an annular shape. For this reason, the plate 9 is formed in an annularly connected shape surrounding the holding member 8 while being L-shaped as a whole. As a result, the strength sufficient to absorb the deformation of the camera body can be maintained, and the distortion of the holding member 8 can be prevented.
プレート9には、撮像素子4の短辺方向に当接部を有するU字穴形状の軸受け部9a,9bが形成されている。軸受け部9a,9bは、カメラ前後方向(被写体−像面方向)の幅が軸部8a,8bを係合させることができる寸法に設定されている。軸部8a,8bが軸受け部9a,9bに係合している状態では、保持部材8のプレート9に対するカメラ前後方向の位置が一意的に決まる。軸受け部9aのU字穴は、軸受け9bのU字穴より長い。このため、保持部材8をプレート9に対して設計値の位置に配置すると、軸部8aと軸受け部9aは撮像素子4の短辺方向においては当接しないが、軸部8bと軸受け部9bは当接した状態となる。つまり、軸部8bと軸受け部9bは、カメラ前後方向および撮像素子4の短辺方向に当接して一意的に位置が決まり、軸部8aと軸受け部9aは、撮像素子4の短辺方向にだけ移動可能である。 The plate 9 is formed with U-shaped bearing portions 9 a and 9 b having contact portions in the short side direction of the image sensor 4. The bearings 9a and 9b have a width in the front-rear direction of the camera (subject-image plane direction) set to a dimension that allows the shafts 8a and 8b to be engaged. In a state where the shaft portions 8a and 8b are engaged with the bearing portions 9a and 9b, the position of the holding member 8 in the front-rear direction of the camera with respect to the plate 9 is uniquely determined. The U-shaped hole of the bearing portion 9a is longer than the U-shaped hole of the bearing 9b. For this reason, when the holding member 8 is arranged at the position of the design value with respect to the plate 9, the shaft portion 8a and the bearing portion 9a do not contact in the short side direction of the image sensor 4, but the shaft portion 8b and the bearing portion 9b are It comes into contact. That is, the shaft portion 8b and the bearing portion 9b are in contact with each other in the front-rear direction of the camera and the short side direction of the image pickup device 4 to uniquely determine the position, and the shaft portion 8a and the bearing portion 9a are arranged in the short side direction of the image pickup device 4. Is only movable.
保持部材8の軸部8aに保持された偏心カム10は、その外周でプレート9と当接してプレート9に対する軸部8aの高さ位置を決めている。これにより、前述のように撮像素子4の短辺方向に移動可能である軸部8aの位置は、偏心カム10の回転角度によって一意的に決まる。 The eccentric cam 10 held by the shaft portion 8 a of the holding member 8 is in contact with the plate 9 on the outer periphery thereof to determine the height position of the shaft portion 8 a with respect to the plate 9. Thereby, as described above, the position of the shaft portion 8 a that can move in the short side direction of the image sensor 4 is uniquely determined by the rotation angle of the eccentric cam 10.
保持部材8は、軸部8a,8bを中心としてプレート9に対して回動可能である。さらに保持部材8は、偏心カム10の回転により軸部8aの高さ位置を変えることにより、撮影光学系1の光軸を中心軸とするような回転動作も可能である。 The holding member 8 is rotatable with respect to the plate 9 about the shaft portions 8a and 8b. Further, the holding member 8 can be rotated so that the optical axis of the photographing optical system 1 is the central axis by changing the height position of the shaft portion 8 a by the rotation of the eccentric cam 10.
焦点検出装置20は、前述した軸8a,8bを中心軸とする回転と、偏心カム10の回転による軸部8aの高さ位置の調整とにより、2方向の傾き調整が可能である。この2方向の傾き調整によって、焦点検出光学系の光軸と撮影光学系1の光軸とのずれを修正する、いわゆる瞳出し調整を行うことができる。瞳出し調整完了後は、保持部材8とプレート9と偏心カム10の当接面に瞬間接着剤や溶着剤を流し込み、これらを固定する。 The focus detection device 20 can adjust the tilt in two directions by rotating the shafts 8 a and 8 b as the center axis and adjusting the height position of the shaft portion 8 a by rotating the eccentric cam 10. By adjusting the tilt in these two directions, so-called pupil adjustment that corrects the deviation between the optical axis of the focus detection optical system and the optical axis of the photographing optical system 1 can be performed. After the pupil adjustment is completed, an instantaneous adhesive or welding agent is poured into the contact surfaces of the holding member 8, the plate 9, and the eccentric cam 10, and these are fixed.
なお、プレート9の軸受け部9a,9bと保持部材8の軸部8a,8bとが当接している状態でカバー5を取り付けると、カバー5がプレート9の抜けを防ぐ。このため、接着していなくても保持部材8からプレート9が外れない。 If the cover 5 is attached in a state where the bearing portions 9a and 9b of the plate 9 and the shaft portions 8a and 8b of the holding member 8 are in contact, the cover 5 prevents the plate 9 from coming off. For this reason, the plate 9 cannot be detached from the holding member 8 even if it is not bonded.
IR−CUTフィルター11は、前述したように、ガラス表面に赤外成分の光を反射する多層蒸着膜が形成されたものである。焦点検出センサ17は、可視光より波長が長い光に対しても感度を有する。一方、撮像素子4の光入射面側には赤外カットフィルターも備えた光学ローパスフィルター22が配置されているため、可視光よりも波長が長い光はカットされてしまい、撮像素子4に到達しない。焦点検出センサ17と撮像素子4とで受光する光の分光特性が異なると、これらの合焦位置が変わってしまう。この場合、焦点検出装置20によって得られる合焦位置に撮影光学系1のフォーカスレンズを駆動すると、撮像素子4ではピントがずれているという現象が生じてしまう。このため、IR−CUTフィルター11は、撮像素子4と焦点検出センサ17に到達する光の分光特性を揃え、前述のような不具合を防ぐ役目を果たしている。 As described above, the IR-CUT filter 11 is formed by forming a multilayer deposited film that reflects infrared light on the glass surface. The focus detection sensor 17 is sensitive to light having a longer wavelength than visible light. On the other hand, since the optical low-pass filter 22 including an infrared cut filter is disposed on the light incident surface side of the image sensor 4, light having a wavelength longer than that of visible light is cut and does not reach the image sensor 4. . When the spectral characteristics of the light received by the focus detection sensor 17 and the image sensor 4 are different, the in-focus positions are changed. In this case, when the focus lens of the photographing optical system 1 is driven to the in-focus position obtained by the focus detection device 20, a phenomenon that the image sensor 4 is out of focus occurs. For this reason, the IR-CUT filter 11 has the same spectral characteristics of light reaching the image sensor 4 and the focus detection sensor 17 and plays the role of preventing the above-described problems.
折り返しミラー12は、前述したように、ガラス表面にアルミの蒸着膜が形成されたものであり、波長400〜800nmの光をほぼ同じ反射率で反射する。 As described above, the folding mirror 12 has an aluminum vapor deposition film formed on the glass surface, and reflects light having a wavelength of 400 to 800 nm with substantially the same reflectance.
再結像光学系の絞り13には一対の開口が形成され、再結像レンズ14の一対のレンズ部に入射する光束を制限する。絞り13は、フィールドレンズ7により撮影光学系1の瞳上に投影される。投影された絞り13の一対の開口により、撮影光学系1の瞳における一対の異なる瞳領域からの光束を透過する。絞り13の材料は、リン青銅などの金属板や遮光用樹脂シートを用いることが好ましい。リン青銅板を用いる場合には、まず型で打ち抜き、打ち抜いた後のリン青銅板に黒色メッキを施し、絞り13を製作する。遮光用樹脂シートの場合には、型で打ち抜くだけ製作が可能である。 A pair of apertures is formed in the diaphragm 13 of the re-imaging optical system to limit the light beam incident on the pair of lens portions of the re-imaging lens 14. The diaphragm 13 is projected onto the pupil of the photographing optical system 1 by the field lens 7. Light beams from a pair of different pupil regions in the pupil of the photographing optical system 1 are transmitted through the projected pair of apertures of the diaphragm 13. As the material of the diaphragm 13, it is preferable to use a metal plate such as phosphor bronze or a light shielding resin sheet. In the case of using a phosphor bronze plate, first, the die is punched out, and the punched phosphor bronze plate is black-plated to produce the aperture 13. In the case of the light shielding resin sheet, it can be manufactured by punching with a mold.
再結像レンズ14は、絞り13の一対の開口に対応した一対のレンズを備え、撮影光学系1の異なる瞳領域からの光束をそれぞれ焦点検出センサ17上に結像させる。再結像レンズ14は2つの位置決めダボを備え、該ダボが保持部材8に設けられた基準穴と絞り13に設けられた基準穴とに係合することで、再結像レンズ14が保持部材8と絞り13に対して位置決めされる。保持部材8の受け面で絞り13を挟んで保持部材8と当接することで、再結像レンズ14の光軸方向の位置も決まる。 The re-imaging lens 14 includes a pair of lenses corresponding to the pair of apertures of the diaphragm 13, and images light beams from different pupil regions of the photographing optical system 1 on the focus detection sensor 17. The re-imaging lens 14 includes two positioning dowels, and the dowel engages a reference hole provided in the holding member 8 and a reference hole provided in the diaphragm 13, whereby the re-imaging lens 14 is held by the holding member. It is positioned with respect to 8 and the diaphragm 1 3. The position of the re-imaging lens 14 in the optical axis direction is also determined by contacting the holding member 8 with the stop 13 sandwiched by the receiving surface of the holding member 8.
絞り13と再結像レンズ14は、接着剤で保持部材8に固定される。再結像レンズ14は透明樹脂により、射出成型によって製作される。再結像レンズ14の材料である透明樹脂と、保持部材8の材料である樹脂とでは線膨張係数が異なり、温度変化で伸縮率が異なる。このため、保持部材8と再結像レンズ4を強固に接着してしまうと、温度変化が生じたときに再結像レンズ14が歪んでしまう恐れがある。再結像レンズ14の変形は焦点検出結果に大きく影響してしまうため、焦点検出精度の低下を引き起こす恐れがある。このため、絞り13と再結像レンズ14を保持部材8に接着する際には、ヤング率が10kgf/mm2以下の柔らかい接着剤を用い、温度下での再結像レンズ14の変形を防いでいる。 The diaphragm 13 and the re-imaging lens 14 are fixed to the holding member 8 with an adhesive. The re-imaging lens 14 is manufactured by injection molding with a transparent resin. The transparent resin that is the material of the re-imaging lens 14 and the resin that is the material of the holding member 8 have different linear expansion coefficients and different expansion / contraction ratios due to temperature changes. For this reason, if the holding member 8 and the re-imaging lens 4 are firmly bonded, the re-imaging lens 14 may be distorted when a temperature change occurs. Since the deformation of the re-imaging lens 14 greatly affects the focus detection result, the focus detection accuracy may be lowered. For this reason, when the diaphragm 13 and the re-imaging lens 14 are bonded to the holding member 8, a soft adhesive having a Young's modulus of 10 kgf / mm 2 or less is used to prevent the re-imaging lens 14 from being deformed under temperature. It is out.
センサホルダー16は、焦点検出センサ17を保持し、当接部材15は、センサホルダー16と保持部材8の間に介在して焦点検出センサ17の傾き調整機構を構成する。当接部材15には、被写体光束を透過させるための開口部15aと、保持部材8に当接するための一対の球面部15bが形成されている。開口部15aは、被写体光束を制限する役割を持たないため、被写体光束の有効径より大きな開口として形成されている。球面部15bは、当接部材15の両端に形成されており、それぞれ球面の一部を切り出したような形を有する。つまり、当接部材15の両端に球が2つ設けられて、これらが保持部材8と当接する。 Sensor holder 16 holds the focus detection sensor 17, the contact member 1 5 constitutes a tilt adjusting mechanism of the focus detection sensor 17 is interposed between the sensor holder 16 and the holding member 8. The contact member 15 is formed with an opening 15 a for transmitting the subject light flux and a pair of spherical portions 15 b for contacting the holding member 8. Since the opening 15a does not have a role of limiting the subject light flux, the opening 15a is formed as an opening larger than the effective diameter of the subject light flux. The spherical portion 15b is formed at both ends of the contact member 15, and has a shape obtained by cutting out a part of the spherical surface. That is, two spheres are provided at both ends of the abutting member 15 and abut against the holding member 8.
焦点検出センサ17とセンサホルダー16は、瞬間接着剤や溶着剤などにより固定される。センサホルダー16には、被写体光束を透過させるための開口部16aが形成されている。開口部16aは、被写体光束を制限する役割を持たないため、被写体光束の有効径より大きな開口として形成されている。 The focus detection sensor 17 and the sensor holder 16 are fixed with an instantaneous adhesive or a welding agent. The sensor holder 16 has an opening 16a for transmitting the subject light flux. Since the opening 16a does not have a role of limiting the subject light flux, the opening 16a is formed as an opening larger than the effective diameter of the subject light flux.
次に、図3を用いて、再結像レンズ14と焦点検出センサ16の5軸調整機構について説明する。図3は図1におけるA−A断面を示している。再結像レンズ14は、2つの位置決めダボ14aを備え、該ダボ14aが保持部材8に設けられた位置決め穴8fに係合することで、再結像レンズ14の保持部材8に対する位置が決まる。さらに再結像レンズ14は、保持部材8の再結像レンズ受け面で絞り13を挟んで保持部材8と当接することで、その光軸方向の位置も決められる。 Next, a 5-axis adjustment mechanism of the re-imaging lens 14 and the focus detection sensor 16 will be described with reference to FIG. FIG. 3 shows an AA cross section in FIG. The re-imaging lens 14 includes two positioning dowels 14a, and the dowels 14a engage with positioning holes 8f provided in the holding member 8, whereby the position of the re-imaging lens 14 with respect to the holding member 8 is determined. Further, the re-imaging lens 14 is in contact with the holding member 8 with the stop 13 sandwiched by the re-imaging lens receiving surface of the holding member 8, so that the position in the optical axis direction is also determined.
当接部材15には一対の球面部15bが形成されている。球面部15bは当接部材15の両端に設けられ、それぞれ球面の一部を切り出したような形をしている。つまり、当接部材15の両端に球が2つ設けられ、これらが保持部材8と当接する。
一方、保持部材8には、所定の曲率半径を有する球面状の一対の当接部8cが形成されている。このときの曲率半径は、当接部材15の球面部15bの曲率半径と同じである。保持部材8の当接部8cと当接部材15の球面部15bとが摺動することで、当接部材15は保持部材8に対して30aの方向と30bの方向に回転可能である。30aの方向に回転する場合には、当接部材15は、その球面部15bの曲率中心を回転中心として回転する。一方、30bの方向に回転する場合には、保持部材8の当接面8cに沿って当接部材15が移動するため、当接面8cの球面の曲率中心を回転中心として回転する。
The contact member 15 is formed with a pair of spherical portions 15b. The spherical surface portions 15b are provided at both ends of the contact member 15, and each has a shape obtained by cutting out a part of the spherical surface. That is, two spheres are provided at both ends of the abutting member 15 and abut against the holding member 8.
On the other hand, the holding member 8 is formed with a pair of spherical contact portions 8c having a predetermined radius of curvature. The curvature radius at this time is the same as the curvature radius of the spherical surface portion 15 b of the contact member 15. The contact member 15 can rotate in the directions of 30a and 30b with respect to the holding member 8 by sliding the contact portion 8c of the holding member 8 and the spherical surface portion 15b of the contact member 15. When rotating in the direction of 30a, the contact member 15 rotates about the center of curvature of the spherical surface portion 15b. On the other hand, when rotating in the direction of 30b, the abutting member 15 moves along the abutting surface 8c of the holding member 8, so that the center of curvature of the spherical surface of the abutting surface 8c rotates about the center of rotation.
センサホルダー16は、焦点検出センサ17を保持する。焦点検出センサ17はセラミックパッケージである。17bが積層タイプのセラミックパッケージ、17cがカバーガラスであり、チップ17aをセラミックパッケージ17bの中に置き、カバーガラス17cで蓋をして周囲を接着剤で固定および封止することでパッケージが構成される。 The sensor holder 16 holds the focus detection sensor 17. The focus detection sensor 17 is a ceramic package. 1 7 b is a laminated type ceramic package, 1 7 c is a cover glass, the chip 1 7 a is placed in the ceramic package 1 7 b, the lid is covered with the cover glass 1 7 c, and the periphery is fixed with an adhesive And a package is comprised by sealing.
焦点検出センサ17とセンサホルダー16は、セラミックパッケージ17bの光入射面側のカバーガラス17cで覆われていない箇所で、瞬間接着剤などにより固定される。23はその接着箇所である。接着箇所23を確保するために、セラミックパッケージ17bは、カバーガラス17cよりも大きめに設定されている。これにより、接着箇所23がカバーガラス17cの光束透過領域から遠ざかるため、接着剤による白化などによりカバーガラス17cの光束透過領域が汚れてしまうのを防ぐことができる。 The focus detection sensor 17 and the sensor holder 16 are fixed by an instantaneous adhesive or the like at a portion not covered with the cover glass 1 7 c on the light incident surface side of the ceramic package 1 7 b. Reference numeral 23 denotes an adhesion portion. In order to secure the bonding location 23, the ceramic package 17b is set larger than the cover glass 17c. Thereby, since the adhesion | attachment location 23 moves away from the light beam transmission area | region of the cover glass 17c, it can prevent that the light beam transmission area | region of the cover glass 17c becomes dirty by the whitening etc. by an adhesive agent.
当接部材15とセンサホルダー16は互いに当接しており、光軸を中心として回転可能であるとともに、光軸に垂直な面上を移動可能である。 The contact member 15 and the sensor holder 16 are in contact with each other, can rotate about the optical axis, and can move on a plane perpendicular to the optical axis.
再結像レンズ14は保持部材8に固定されている。一方、焦点検出センサ17はセンサホルダー16と一体となって、当接部材15に対して光軸を中心とする回転と、光軸に垂直な面上を移動が可能となっている。さらに、焦点検出センサ17とセンサホルダー16と当接部材15は一体となって、保持部材8に対して30aと30bの向きに回転可能となっている。 The re-imaging lens 14 is fixed to the holding member 8. On the other hand, the focus detection sensor 17 is integrated with the sensor holder 16 and can rotate with respect to the contact member 15 about the optical axis and move on a plane perpendicular to the optical axis. Further, the focus detection sensor 17, the sensor holder 16, and the contact member 15 are integrated and can rotate in the directions of 30 a and 30 b with respect to the holding member 8.
上述のような回転機構と、光軸を法線とする面上でのシフト機構を設けることで、再結像レンズ14と焦点検出センサ17の5軸調整機構を実現できる。5軸調整完了後は、瞬間接着剤やモールド溶着剤などを摺動面に流し込み、保持部材8と当接部材15とセンサホルダー16を固定する。 By providing the rotation mechanism as described above and a shift mechanism on the plane having the optical axis as a normal line, a five-axis adjustment mechanism for the re-imaging lens 14 and the focus detection sensor 17 can be realized. After the 5-axis adjustment is completed, an instantaneous adhesive, a mold welding agent, or the like is poured into the sliding surface, and the holding member 8, the contact member 15, and the sensor holder 16 are fixed.
図2において、18,19は中央視野の被写体光束と周辺視野の被写体光束とが混ざることを防ぐセパレータである。フィールドレンズ7の中央レンズ部を透過した光束が絞り13の周辺視野用の開口を透過して焦点検出センサ17に到達してしまうと、ゴースト光となって検出誤差を招く。そこで、フィールドレンズ7とIR−CUTフィルター11との間の光路で、中央視野用の光束と周辺視野用の光束の隙間にセパレータ18,19を介在させ、これらの光束が混ざることを防いでいる。
図4は、撮影画面における焦点検出視野のレイアウトを示している。24は撮像素子4による撮影範囲を示している。それぞれがライン状の焦点検出視野(以下、焦点検出ラインという)は21ライン存在する。1ラインに対して一対の被写体像が焦点検出センサ17の受光面上に形成されるため、42個の被写体像が再結像レンズ14により焦点検出センサ17の受光面上に形成される。撮影画面の中央には、縦方向に長い焦点検出ライン(以下、縦目という)がL1,L2の2ラインあり、横方向に長い焦点検出ライン(以下、横目という)がL3,L4の2ラインある。縦目は、相関方向が縦方向(撮像素子4の短辺方向)であり、縦方向の輝度分布から撮影光学系1の焦点状態を検出する。一方、横目は、相関方向が横方向(撮像素子4の長辺方向)であり、横方向の輝度分布から撮影光学系1の焦点状態を検出する。
In FIG. 2, reference numerals 18 and 19 denote separators that prevent mixing of the subject luminous flux in the central visual field and the subject luminous flux in the peripheral visual field. If the light beam transmitted through the central lens portion of the field lens 7 passes through the peripheral visual field opening of the stop 13 and reaches the focus detection sensor 17, it becomes ghost light and causes a detection error. Therefore, in the optical path between the field lens 7 and the IR-CUT filter 11, separators 18 and 19 are interposed in the gap between the central visual field light beam and the peripheral visual field light beam to prevent these light beams from being mixed. .
FIG. 4 shows the layout of the focus detection field of view on the shooting screen. Reference numeral 24 denotes a photographing range by the image sensor 4. There are 21 lines of focus detection fields (hereinafter referred to as focus detection lines) each having a line shape. Since a pair of subject images is formed on the light receiving surface of the focus detection sensor 17 for one line, 42 subject images are formed on the light receiving surface of the focus detection sensor 17 by the re-imaging lens 14. At the center of the shooting screen, there are two focus detection lines L1 and L2 that are long in the vertical direction (hereinafter referred to as vertical eyes), and two focus detection lines that are long in the horizontal direction (hereinafter referred to as horizontal eyes) L3 and L4. is there. The vertical eye has a correlation direction of the vertical direction (short-side direction of the image sensor 4), and detects the focus state of the photographing optical system 1 from the luminance distribution in the vertical direction. On the other hand, for the horizontal eye, the correlation direction is the horizontal direction (long side direction of the image sensor 4), and the focus state of the photographing optical system 1 is detected from the luminance distribution in the horizontal direction.
縦方向に2ライン並んだ焦点検出ラインL1,L2は、縦方向に微小量だけずれて配置されている。このずれ量は、相関方向に並ぶ画素のピッチの半分である。画素ピッチの半分量だけずれて配置された焦点検出ラインL1,L2から得られる2つの焦点検出結果の両方を加味して検出結果を算出することで、検出のバラツキを軽減している。横方向に2ライン並んだ焦点検出ラインL3,L4についても、焦点検出ラインL1,L2と同様に画素ピッチの半分量だけずれて配置することで、検出バラツキを軽減している。 The focus detection lines L1 and L2 arranged in two lines in the vertical direction are arranged so as to be shifted by a minute amount in the vertical direction. This shift amount is half the pitch of the pixels arranged in the correlation direction. Variation in detection is reduced by calculating the detection result by taking into account both of the two focus detection results obtained from the focus detection lines L1 and L2 that are arranged with a shift of half the pixel pitch. As for the focus detection lines L3 and L4 arranged in two horizontal directions, the detection variation is reduced by shifting the focus detection lines L3 and L4 by a half amount of the pixel pitch similarly to the focus detection lines L1 and L2.
さらに画面中央には、基線長が長い(これについては図6に示す)、F2.8の光束を用いて焦点検出を行う焦点検出ラインL19を横方向に1ライン備えている。焦点検出ラインL19は、焦点検出ラインL3やL4に比べて基線長が長いため、焦点検出センサ17の受光面上での像の移動量が大きい。このため、焦点検出ラインL3,L4よりも高精度な検出を実現することができる。ただし、焦点検出ラインL19はF2.8光束を用いているため、F2.8以上の明るいレンズが装着されたときのみ動作する。また、像の移動量が大きいため、焦点検出ラインL3,L4に比べて、大きいデフォーカスを検出する能力は劣る。上述のようにF2.8用の焦点検出ライン(以下、F2.8目という)L19を備えることで、高い検出精度が要求されるF2.8以上の明るいレンズが装着されたときに、それに応じた高精度の検出を実現することができる。 Further, at the center of the screen, there is one focus detection line L19 having a long base line length (this is shown in FIG. 6) and performing focus detection using a light flux of F2.8 in the horizontal direction. The focus detection line L19 has a long base line length compared to the focus detection lines L3 and L4, and thus the amount of image movement on the light receiving surface of the focus detection sensor 17 is large. For this reason, detection with higher accuracy than the focus detection lines L3 and L4 can be realized. However, since the focus detection line L19 uses F2.8 light flux, it operates only when a bright lens of F2.8 or higher is attached. Further, since the amount of image movement is large, the ability to detect a large defocus is inferior to the focus detection lines L3 and L4. As described above, when a focus detection line for F2.8 (hereinafter referred to as F2.8) L19 is provided, when a bright lens of F2.8 or higher, which requires high detection accuracy, is attached, it responds accordingly. In addition, highly accurate detection can be realized.
本実施例の焦点検出装置20では、画面中央については焦点検出ラインを縦横クロス形態で配置することで、縦横両方向の輝度分布を検出することができる。縦横両方向の輝度分布を得ることで、輝度分布があまりない被写体で無理に焦点検出を行う必要がなくなるため、検出バラツキを軽減することができる。これにより、焦点検出可能な被写体の種類を広げると共に、検出精度の向上を実現することができる。 In the focus detection apparatus 20 of the present embodiment, the luminance distribution in both the vertical and horizontal directions can be detected by arranging the focus detection lines in the vertical and horizontal cross form at the center of the screen. By obtaining the luminance distribution in both the vertical and horizontal directions, it is not necessary to forcibly perform focus detection on a subject with little luminance distribution, so that detection variation can be reduced. As a result, it is possible to increase the types of subjects for which focus detection is possible and to improve detection accuracy.
次に、画面上下方向に配置された焦点検出ラインについて説明する。画面上部には、横目L5,L11が配置されており、画面上部に位置する被写体像の横方向の輝度分布から、撮影光学系1の焦点状態を検出する。また、下部には横目L6,L12が配置されており、画面下部に位置する被写体像の横方向の輝度分布から、撮影光学系1の焦点状態を検出する。また、焦点検出ラインL5の同じ位置にF2.8用の横目L20が、横目L6と同じ位置にF2.8の横目L21がそれぞれ配置されている。これにより、高い検出精度が要求されるF2.8以上の明るいレンズが装着するときに、高精度の焦点検出を実現することができる。 Next, focus detection lines arranged in the vertical direction of the screen will be described. Horizontal eyes L5 and L11 are arranged at the upper part of the screen, and the focus state of the photographing optical system 1 is detected from the luminance distribution in the horizontal direction of the subject image located at the upper part of the screen. Further, horizontal eyes L6 and L12 are arranged at the lower part, and the focus state of the photographing optical system 1 is detected from the luminance distribution in the horizontal direction of the subject image located at the lower part of the screen. Further, the F2.8 horizontal eye L20 is arranged at the same position of the focus detection line L5, and the F2.8 horizontal eye L21 is arranged at the same position as the horizontal eye L6. Thereby, when a bright lens of F2.8 or higher that requires high detection accuracy is attached, high-precision focus detection can be realized.
焦点検出ラインL3,L4,L5,L6,L11,L12の左端に接するように焦点検出ラインL7,L9が、焦点検出ラインL3,L4,L5,L6,L11,L12の右端に接するように焦点検出ラインL8,L10が、それぞれ縦方向に並んで配置されている。焦点検出ラインL7,L9,L14,L16は縦目であり、縦方向の輝度分布から撮影光学系1の焦点状態を検出する。 Focus detection is performed so that the focus detection lines L7, L9 are in contact with the left ends of the focus detection lines L3, L4, L5, L6, L11, L12, and the right ends of the focus detection lines L3, L4, L5, L6, L11, L12. Lines L8 and L10 are arranged side by side in the vertical direction. The focus detection lines L7, L9, L14, and L16 are vertical eyes, and detect the focus state of the photographing optical system 1 from the luminance distribution in the vertical direction.
焦点検出ラインL7,L9の左側には焦点検出ラインL13,L15が、焦点検出ラインL8,10の外側には焦点検出ラインL14,16が縦方向に並んで配置されている。焦点検出ラインL13,L14,L15,L16も縦目であり、縦方向の輝度分布から撮影光学系1の焦点状態を検出する。 Focus detection lines L13 and L15 are arranged on the left side of the focus detection lines L7 and L9, and focus detection lines L14 and L16 are arranged outside the focus detection lines L8 and 10 in the vertical direction. The focus detection lines L13, L14, L15, and L16 are also vertical eyes, and detect the focus state of the photographing optical system 1 from the luminance distribution in the vertical direction.
画面の横方向の一番外側に焦点検出ラインL17,L18が配置されている。焦点検出ラインL17,L18は縦方向の中央が光軸上にあり、撮影画面の横方向に位置する被写体像の縦方向の輝度分布から撮影光学系1の焦点検出状態を検出する。 Focus detection lines L17 and L18 are arranged on the outermost side in the horizontal direction of the screen. The focus detection lines L17 and L18 have the center in the vertical direction on the optical axis, and detect the focus detection state of the photographing optical system 1 from the vertical luminance distribution of the subject image positioned in the horizontal direction of the photographing screen.
図5には、再結像レンズ14をその光射出面側から見て示している。光射出面側には一対の被写体像を再結像するための一対のレンズ部が複数組形成されている。それぞれのレンズ部は球面レンズであり、光射出方向に凸の形状を有する。 FIG. 5 shows the re-imaging lens 14 as viewed from the light exit surface side. A plurality of pairs of lens portions for re-imaging a pair of subject images are formed on the light exit surface side. Each lens part is a spherical lens, and has a convex shape in the light exit direction.
レンズ部14−1A,14−1Bは、画面中央の縦目の焦点検出光束を再結像するためのものであり、図4の焦点検出ラインL1,L2,L7,L8,L9,L10に対応している。焦点検出ラインL1,L2,L7,L8,L9,L10の光束はそれぞれ、レンズ部14−1A,14−1Bで再結像され、焦点検出センサ17の受光面上に縦方向に並んだ一対の被写体像を形成する。 The lens portions 14-1A and 14-1B are for re-imaging the vertical focus detection light beam at the center of the screen , and correspond to the focus detection lines L1, L2, L7, L8, L9, and L10 in FIG. is doing. The light beams of the focus detection lines L1, L2, L7, L8, L9, and L10 are re-imaged by the lens portions 14-1A and 14-1B, respectively, and are paired in the vertical direction on the light receiving surface of the focus detection sensor 17. Form a subject image.
レンズ部14−2A,14−2Bは、画面中央の横目の焦点検出光束を再結像するためのものであり、焦点検出ラインL3,L4,L5,L6,L11,L12に対応している。焦点検出ラインL3,L4,L5,L6,L11,L12に対応する光束はそれぞれ、レンズ部14−2A,14−2Bで再結像され、焦点検出センサ17の受光面上に横方向に並んだ一対の被写体像を形成する。
レンズ部14−3A,14−3Bは、F2.8の焦点検出光束を再結像するためのものであり、焦点検出ラインL19,L20,L21に対応している。F2.8目は基線長が長いため、レンズ部14−3A,14−3Bの間隔はレンズ部14−1A,14−1Bに比べて長く、レンズ部14−3A,14−3Bはレンズ部14−1A,14−1Bの外側に配置されている。
Lens portion 14-2a, 14-2b is for reimaging focus detection light fluxes courses in the middle of the screen, and corresponds to a focus detection line L3, L4, L5, L6, L11, L12. The luminous fluxes corresponding to the focus detection lines L3, L4, L5, L6, L11, and L12 are re-imaged by the lens portions 14-2A and 14-2B, respectively, and are arranged in the lateral direction on the light receiving surface of the focus detection sensor 17. A pair of subject images are formed .
The lens units 14-3A and 14-3B are for re-imaging the F2.8 focus detection light beam and correspond to the focus detection lines L19, L20, and L21. Since the base length of the F2.8 eye is long, the distance between the lens portions 14-3A and 14-3B is longer than that of the lens portions 14-1A and 14-1B, and the lens portions 14-3A and 14-3B are in the lens portion 14. -1A and 14-1B are arranged outside.
レンズ部14−4A,14−4Bは焦点検出ラインL13,L15に対応し、レンズ部14−5A,14−5Bは焦点検出ラインL14,L16に対応している。さらにこれらレンズ部の外側に配置されたレンズ部14−6A,14−6Bは、焦点検出ラインL17に対応し、レンズ部14−7A,14−7Bは焦点検出ラインL18に対応している。これら焦点検出ラインの光束も、対応するレンズ部によって再結像され、焦点検出センサ17の受光面上に縦方向に並んだ一対の被写体像を形成する。 The lens portions 14-4A and 14-4B correspond to the focus detection lines L13 and L15, and the lens portions 14-5A and 14-5B correspond to the focus detection lines L14 and L16. Further, the lens portions 14-6A and 14-6B arranged outside these lens portions correspond to the focus detection line L17, and the lens portions 14-7A and 14-7B correspond to the focus detection line L18. The light beams of these focus detection lines are also re-imaged by the corresponding lens units, and form a pair of subject images arranged in the vertical direction on the light receiving surface of the focus detection sensor 17.
図6は、焦点検出センサ17のチップ(受光面)を、その光入射面側から見て示している。図5で説明した再結像レンズ14で再結像された一対の被写体像の各結像位置に対応して、複数対の受光部が配置されている。 FIG. 6 shows the chip (light receiving surface) of the focus detection sensor 17 as viewed from the light incident surface side. A plurality of pairs of light receiving units are arranged corresponding to the respective imaging positions of the pair of subject images re-imaged by the re-imaging lens 14 described in FIG.
焦点検出ラインL1の光束は、図5のレンズ部14−1Aと14−1Bにより、図6の受光部L1A,L1B上に再結像される。また、焦点検出ラインL2の光束は、レンズ部14−1Aと14−1Bにより、受光部L2A,L2B上に再結像される。同様に、焦点検出ラインL7,L8,L9,L10の光束は、レンズ部14−1Aにより受光部L7A,L8A,L9A,L10A上に再結像され、レンズ部14−1Bにより受光部L7B,L8B,L9B,L10B上に再結像される。 The light flux on the focus detection line L1 is re-imaged on the light receiving portions L1A and L1B in FIG. 6 by the lens portions 14-1A and 14-1B in FIG. Further, the light flux of the focus detection line L2 is re-imaged on the light receiving portions L2A and L2B by the lens portions 14-1A and 14-1B. Similarly, the light fluxes of the focus detection lines L7, L8, L9, and L10 are re-imaged on the light receiving portions L7A, L8A, L9A, and L10A by the lens portion 14-1A, and the light receiving portions L7B, L8B by the lens portion 14-1B. , L9B, L10B.
横目についても同様である。焦点検出ラインL3,L4,L5,L6,L11,L12の光束は、レンズ部14−2Aにより受光部L3A,L4A,L5A,L6A,L11A,L12A上に再結像される。また、レンズ部14−2Bにより受光部L3B,L4B,L5B,L6B,L11B,L12B上に再結像される。 The same applies to the horizontal eye. The light beams of the focus detection lines L3, L4 , L5, L6, L11, and L12 are re-imaged on the light receiving portions L3A, L4A , L5A, L6A, L11A, and L12A by the lens portion 14-2A. Further, the image is re-imaged on the light receiving portions L3B, L4B , L5B, L6B, L11B, and L12B by the lens portion 14-2B.
F2.8横目についても同様である。焦点検出ラインL19,L20,L21の光束は、レンズ部14−3Aにより受光部L19A,L20A,L21A上に再結像され、レンズ部14−3Bにより受光部L19B,L20B,L21B上に再結像される。 The same applies to the F2.8 side. The light fluxes of the focus detection lines L19, L20, and L21 are re-imaged on the light receiving portions L19A, L20A, and L21A by the lens portion 14-3A, and re-imaged on the light receiving portions L19B, L20B, and L21B by the lens portion 14-3B. Is done.
画面周辺の縦目についても同様である。焦点検出ラインL13,L15の光束は、レンズ部14−4Aにより受光部L13A,L15A上に再結像され、レンズ部14−4Bにより受光部L13B,L15B上に再結像される。焦点検出ラインL14,L16の光束は、レンズ部14−5Aにより受光部L14A,L16A上に再結像され、レンズ部14−5Bにより受光部L14B,L16B上に再結像される。 The same applies to the vertical eyes around the screen. The light fluxes on the focus detection lines L13 and L15 are re-imaged on the light receiving portions L13A and L15A by the lens portion 14-4A, and re-imaged on the light receiving portions L13B and L15B by the lens portion 14-4B. The light fluxes on the focus detection lines L14 and L16 are re-imaged on the light receiving portions L14A and L16A by the lens portion 14-5A, and re-imaged on the light receiving portions L14B and L16B by the lens portion 14-5B.
焦点検出ラインL17の光束は、レンズ部14−6Aにより受光部L17A上に再結像され、またレンズ部14−6Bにより受光部L17B上に再結像される。 The light beam of the focus detection line L17 is re-imaged on the light receiving unit L17A by the lens unit 14-6A, and re-imaged on the light receiving unit L17B by the lens unit 14-6B.
焦点検出ラインL18の光束は、レンズ部14−7Aにより受光部L18A上に再結像され、レンズ部14−7Bにより受光部L18B上に再結像される。 The light beam of the focus detection line L18 is re-imaged on the light receiving unit L18A by the lens unit 14-7A, and re-imaged on the light receiving unit L18B by the lens unit 14-7B.
焦点検出センサ17の各受光部は画素列で構成されており、各対の受光部の出力信号波形の間には、焦点検出ライン上に撮像光学系1によって形成された物体像の結像状態に応じて、相対的に横シフトした状態が観測される。前ピン、後ピンでは出力信号波形のシフト方向が逆になり、相関演算などの手法を用いてこの位相差(シフト量)を、方向を含めて検出するのが焦点検出の原理である。 Each light receiving unit of the focus detection sensor 17 is configured by a pixel array, and an object image formed on the focus detection line by the imaging optical system 1 is between the output signal waveforms of each pair of light receiving units. In response to this, a relatively laterally shifted state is observed. The shift direction of the output signal waveform is reversed between the front pin and the rear pin, and the principle of focus detection is to detect this phase difference (shift amount) including the direction using a method such as correlation calculation.
図7Aと図7Bは焦点検出センサ17の出力信号波形を表す図である。横軸は画素の並びを、縦軸は出力値を表している。図7Aは物体像にピントが合っていない状態での出力信号波形、図7Bは物体像にピントが合った状態での出力信号波形である。相関演算を用いた公知の手法、例えば特公平5−88445号公報に開示されている手法を用いて位相差を検出することにより、デフォーカス方向の情報を含むデフォーカス量を求めることができる。得られた焦点検出結果(焦点調節情報)としてのデフォーカス量を撮像光学系1のフォーカスレンズを駆動すべき量(および方向)に換算すれば、自動焦点調節が可能である。この位相差検出方式によれば、フォーカスレンズを駆動すべき量と方向がフォーカスレンズを駆動する前に分かるので、通常、合焦位置までのレンズ駆動は1回で済み、極めて高速な焦点調節が可能である。 7A and 7B are diagrams showing output signal waveforms of the focus detection sensor 17. The horizontal axis represents the pixel arrangement, and the vertical axis represents the output value. FIG. 7A shows an output signal waveform when the object image is not in focus, and FIG. 7B shows an output signal waveform when the object image is in focus. By detecting a phase difference using a known method using correlation calculation, for example, a method disclosed in Japanese Patent Publication No. 5-88445, a defocus amount including information on the defocus direction can be obtained. If the defocus amount as the obtained focus detection result (focus adjustment information) is converted into an amount (and direction) to drive the focus lens of the imaging optical system 1, automatic focus adjustment is possible. According to this phase difference detection method, the amount and direction in which the focus lens should be driven can be known before the focus lens is driven. Therefore, normally, only one lens drive to the in-focus position is required, and extremely fast focus adjustment is possible. Is possible.
図4、図5および図6で説明したように、画面中央には、縦目(L1,L2)と、横目(L3,L4)と、F2.8目(L19)による3つの焦点検出結果を得ることができる。しかし、画面中央という同一視野領域に存在するこれら3つの検出結果からどのように最終の検出結果、すなわち実際に焦点調節に使用する焦点検出結果を導くかが非常に重要になる。導き方が悪いと、検出精度を向上させるどころか、検出バラツキを増大させてしまうおそれがある。 As described with reference to FIGS. 4, 5 and 6, at the center of the screen, three focus detection results by the vertical eye (L1, L2), the horizontal eye (L3, L4), and the F2.8 eye (L19) are displayed. Obtainable. However, it is very important how to derive the final detection result, that is, the focus detection result actually used for focus adjustment, from these three detection results existing in the same visual field region at the center of the screen. If the guidance is poor, there is a risk that detection variations will increase rather than improving detection accuracy.
このため、本実施例の焦点検出装置20では、焦点検出ラインごとに、1)一対の被写体像の一致度、2)被写体像のエッジの数、3)被写体像のシャープネス、および4)被写体像の明暗比をパラメータとした評価値であるSレベル(SELECT LEVEL)を算出する。そして、焦点検出ラインごとの該Sレベルの値に基づいて、画面中央においては、縦目(L1,L2)、横目(L3,L4)およびF2.8目(L19)のうち、最終検出結果とすべき焦点検出結果を得る焦点検出ラインを決定する。なお、焦点検出ラインを決定することは、焦点検出センサ17上での一対の受光部を決定すること、および最終的に焦点調節に用いる焦点検出結果を決定するという意味でもある。これにより、上記4つの要素(パラメータ)を考慮した焦点検出ラインの選択が可能になるため、焦点検出バラツキの少ない適切な焦点検出ラインを選ぶことができる。以下の説明において、最終検出結果とすべき焦点検出結果を得る焦点検出ラインを、特定焦点検出ライン(特定焦点検出視野)という。 Therefore, in the focus detection device 20 of the present embodiment, for each focus detection line, 1) the degree of coincidence between a pair of subject images, 2) the number of edges of the subject image, 3) the sharpness of the subject image, and 4) the subject image. The S level (SELECT LEVEL), which is an evaluation value with the light / dark ratio as a parameter, is calculated. Based on the value of the S level for each focus detection line, in the center of the screen, the final detection result among the vertical eye (L1, L2), the horizontal eye (L3, L4), and the F2.8 eye (L19) A focus detection line for obtaining a focus detection result to be determined is determined. Note that determining the focus detection line also means determining a pair of light receiving units on the focus detection sensor 17 and finally determining a focus detection result used for focus adjustment. As a result, the focus detection line can be selected in consideration of the above four elements (parameters), so that an appropriate focus detection line with little focus detection variation can be selected. In the following description, a focus detection line that obtains a focus detection result to be a final detection result is referred to as a specific focus detection line (specific focus detection visual field) .
まず、1)一対の被写体像の一致度について、図8を用いて説明する。一対の被写体像を、図6で説明した焦点検出センサ17の一対の受光部で光電変換すると、一対の像信号が得られる。この一対の像信号を、以下、A像およびB像という。ここでは、図8に示すようなA像、B像が得られたとする。図8では、一致度の説明を分かりやすくするため、A像、B像のどちらかにゴースト光等が入射し、2像が同じ波形にならなかった場合を示している。A像、B像は形状が異なるため、合焦状態でも一致しない部分が生じる。この一致しない部分の面積を、一致度として定義する。 First, 1) the degree of coincidence between a pair of subject images will be described with reference to FIG. When a pair of subject images are photoelectrically converted by the pair of light receiving portions of the focus detection sensor 17 described with reference to FIG. 6, a pair of image signals is obtained. Hereinafter, this pair of image signals is referred to as an A image and a B image. Here, it is assumed that an A image and a B image as shown in FIG. 8 are obtained. FIG. 8 shows a case where ghost light or the like is incident on either the A image or the B image and the two images do not have the same waveform for easy understanding of the explanation of the degree of coincidence. Since the A image and the B image have different shapes, a portion that does not match even in a focused state occurs. The area of this non-matching part is defined as the matching degree.
受光部を構成する画素列の数をN、合焦時のA像、B像のi番目の画素の出力をa[i],b[i]すると、一致度Uは下記のように表せる。 When the number of pixel columns constituting the light receiving unit is N and the outputs of the i-th pixel of the A image and B image at the time of focusing are a [i] and b [i], the matching degree U can be expressed as follows.
図8および式(1)に示すように、A像とB像の画素出力差(一対の物体像の差分)の絶対値の和を一致度Uと定義することで、A像とB像の一致度合いを的確に表現することができる。A像とB像の一致度が低い場合には一致度Uは大きくなり、A像とB像の一致度が高い場合には、一致度Uは小さくなる。 As shown in FIG. 8 and Expression (1), by defining the sum of absolute values of pixel output differences ( differences between a pair of object images) between the A image and the B image as the degree of coincidence U, The degree of coincidence can be accurately expressed. When the coincidence between the A image and the B image is low, the coincidence U increases, and when the coincidence between the A image and the B image is high, the coincidence U decreases.
このように定義された一致度Uを考慮して特定焦点検出ラインを決定することで、AB像の一致度が良好で信頼性の高い焦点検出ラインを選びやすくすることが可能となる。また、ゴースト光の入射などでAB像が異なり、信頼性の低い焦点検出ラインを選びにくくすることが可能となる。これにより、焦点検出精度の向上を図ることができる。 By determining the specific focus detection line in consideration of the degree of coincidence U defined in this way, it becomes possible to easily select a focus detection line having a good AB image coincidence and high reliability. Further, the AB image differs depending on the incidence of ghost light or the like, making it difficult to select a focus detection line with low reliability. Thereby, the focus detection accuracy can be improved.
次に、2)被写体像のエッジの数について、図9Aおよび図9Bを用いて説明する。本実施例の焦点検出装置20では、エッジの数を示すパラメータとして、相関演算において算出される相関変化量を用いる。図9Aは、合焦状態のA像、B像である。これに対し図9Bは、A像、B像の相対位置関係を、合焦状態から1画素ずらした(所定の画素数分シフトさせた)場合のA像、B像である。それぞれの状態における相関量を算出し、その変化量を計算ことで、相関変化量を求める。図9Aの相関量をV1、図9Bの相関量をV2、相関変化量をΔVとすると、それぞれ下記の通り求まる。 Next, 2) the number of edges of the subject image will be described with reference to FIGS. 9A and 9B. In the focus detection apparatus 20 of the present embodiment, the correlation change amount calculated in the correlation calculation is used as a parameter indicating the number of edges. FIG. 9A is an A image and a B image in a focused state. On the other hand, FIG. 9B shows the A and B images when the relative positional relationship between the A and B images is shifted by one pixel from the focused state ( shifted by a predetermined number of pixels) . The correlation change amount is obtained by calculating the correlation amount in each state and calculating the change amount. Assuming that the correlation amount in FIG. 9A is V1, the correlation amount in FIG. 9B is V2, and the correlation change amount is ΔV, each is obtained as follows.
相関変化量ΔVは、合焦状態から1画素分ずれて、A像とB像のエッジが一致した状態からずれた状態に移行したことにより生じる一致しない部分の面積である。このため、A像とB像のエッジの数が増えると、ずれたことにより生じる一致しない部分の面積も増える。このことから相関変化量ΔVはエッジの数を表すパラメータとして適切であることが分かる。なお、ずらし量は、1画素より多くてもよい。 The correlation change amount ΔV is an area of a non-matching portion that is generated by shifting from the focused state to the shifted state from the state where the edges of the A and B images are shifted by one pixel from the focused state. For this reason, when the number of edges of the A image and the B image increases, the area of the non-matching portion caused by the deviation also increases. From this, it is understood that the correlation change amount ΔV is appropriate as a parameter representing the number of edges. Note that the shift amount may be larger than one pixel.
相関演算では、相関変化量がゼロになるシフト量を算出し、撮影光学系1のデフォーカス量を検出する。そのため相関変化量が大きい程、シフト量の算出の誤差が小さくなり、検出バラツキを抑えられる。このことからも、最終結果に選ぶラインを決定する際に、相関変化量ΔVを用いるというのは理に適っている。 In the correlation calculation, the shift amount at which the correlation change amount becomes zero is calculated, and the defocus amount of the photographing optical system 1 is detected. Therefore, the larger the correlation change amount, the smaller the shift amount calculation error and the detection variation can be suppressed. For this reason, it is reasonable to use the correlation change amount ΔV when determining the line to be selected as the final result.
このように定義された相関変化量ΔVを考慮して特定焦点検出ラインを決定することで、エッジの数が多くて情報量が多く、より信頼性の高い被写体に対応した焦点検出ラインを選びやすくすることができる。これにより、焦点検出精度の向上を図ることができる。 By determining the specific focus detection line in consideration of the thus defined correlation change amount ΔV, it is easy to select a focus detection line corresponding to a more reliable subject with a large number of edges and a large amount of information. can do. Thereby, the focus detection accuracy can be improved.
次に、3)被写体像のシャープネスについて、図10を用いて説明する。本実施例でいうシャープネスとは、A像、B像(信号値)があるボトム値からピーク値に変化するときに、急峻に値が変わるか、徐々に値が変わっていくかを表している。本実施例では、シャープネスをA像、B像から得られる1次コントラスト評価値C1と2次コントラスト評価値C2の比とする。1次コントラスト評価値とは、AB像における隣接画素の出力差の絶対値の和を、2次コントラスト評価値とはAB像における隣接画素の出力差の二乗和とする。焦点検出センサ17の受光部を構成する画素列の数をN、合焦時のA像、B像のi番目の画素出力をa[i],b[i]すると、一次コントラスト評価値C1、二次コントラスト評価値C2は下記のように表せる。 Next, 3) the sharpness of the subject image will be described with reference to FIG. The sharpness referred to in the present embodiment represents whether the value changes sharply or gradually when the A image and B image (signal values) change from a certain bottom value to a peak value. . In this embodiment, the sharpness is a ratio between the primary contrast evaluation value C1 and the secondary contrast evaluation value C2 obtained from the A image and the B image. The primary contrast evaluation value is a sum of absolute values of output differences of adjacent pixels in the AB image, and the secondary contrast evaluation value is a square sum of output differences of adjacent pixels in the AB image. When the number of pixel columns constituting the light receiving unit of the focus detection sensor 17 is N, and the i-th pixel output of the B image is a [i], b [i], the primary contrast evaluation value C1, The secondary contrast evaluation value C2 can be expressed as follows.
一次コントラスト評価値C1は、隣接画素出力差の絶対和であるため、波形のエッジ部分から得られる一次コントラスト評価値C1は、エッジ部の階調変化が急峻であってもなだらかであっても、エッジ部のピーク値とボトム値が同じであれば同じとなる。例えば、半分が白、半分が黒、境界線で白と黒が接しているような被写体から得られる一次コントラスト評価値C1と、一方端が白、他方端が黒、白端から黒端にかけてなだらかに色味が変化するような被写体から得られる1次コントラスト評価値C1とは同じである。 Since the primary contrast evaluation value C1 is the absolute sum of the adjacent pixel output differences, the primary contrast evaluation value C1 obtained from the edge portion of the waveform can be obtained even if the gradation change of the edge portion is steep or gentle. If the peak value and the bottom value of the edge part are the same, they are the same. For example, the primary contrast evaluation value C1 obtained from a subject in which half is white, half is black, and white and black are in contact with the boundary line, and one end is white, the other end is black, and from the white end to the black end is gentle. It is the same as the primary contrast evaluation value C1 obtained from a subject whose color changes.
一方、二次コントラスト評価値C2は、隣接画素出力差の二乗和であるため、階調変化が急峻なエッジ部から得られるものは、階調変化がなだらかなエッジ部から得られるものよりも大きくなる。これは式(6)からも明らかである。このため、二次コントラスト評価値C2に基づいてエッジ部の階調変化の大きさを推定することは適切である。 On the other hand, since the secondary contrast evaluation value C2 is the sum of squares of the adjacent pixel output differences, the value obtained from the edge portion where the gradation change is steep is larger than that obtained from the edge portion where the gradation change is gentle. Become. This is also clear from equation (6). For this reason, it is appropriate to estimate the magnitude of the gradation change of the edge portion based on the secondary contrast evaluation value C2.
被写体像のシャープネスをSHとすると、シャープネスSHは、一次コントラスト評価値C1、二次コントラスト評価値C2の比として下記のように表せる。 When the sharpness of the subject image is SH, the sharpness SH can be expressed as follows as a ratio of the primary contrast evaluation value C1 and the secondary contrast evaluation value C2.
ここで、二次コントラスト評価値C2でシャープネスSHを表現せず、一次コントラスト評価値C1で割った値とするのは、エッジの数の影響を排除するためである。例えば、半分が白、半分が黒、境界線で白と黒が接しているような被写体から得られる二次コントラスト評価値をC2_1、両端が黒、中央が白、白と黒が2つの境界線で接しているような被写体から得られる二次コントラスト評価値をC2_2とする。シャープネスとは、AB像があるボトム値からピーク値に変化するときに、急峻に値が変わるか、徐々に値が変わっていくかを表しているものであるため、エッジの数が1本であろうと2本であろうと、同じ値になるべきである。今、エッジチャートの二次コントラスト評価値C2_1と1本バーチャートの二次コントラスト評価値C2_2との間には以下の関係が成り立つ。 Here, the reason why the sharpness SH is not expressed by the secondary contrast evaluation value C2 and is divided by the primary contrast evaluation value C1 is to eliminate the influence of the number of edges. For example, C2_1 is a secondary contrast evaluation value obtained from a subject in which half is white, half is black, and white and black are bordered by a boundary line, both ends are black, the center is white, and white and black are two boundary lines. Let C2_2 be the secondary contrast evaluation value obtained from the subject that is in contact with. Sharpness indicates whether the value changes sharply or gradually when the AB image changes from a certain bottom value to a peak value, so the number of edges is one. Whether it is two or two, it should be the same value. Now, the following relationship holds between the secondary contrast evaluation value C2_1 of the edge chart and the secondary contrast evaluation value C2_2 of the single bar chart.
式(8)に示すように、二次コントラスト評価値C2は、エッジの数が増えると、その分だけ増えてしまう。そのため、二次コントラスト評価値C2だけでシャープネスを表現するのは不適切である。そこでエッジの数の影響をなくすため、一次コントラスト評価値C1で割って正規化する。半分が白、半分が黒、境界線で白と黒が接しているような被写体から得られる一次コントラスト評価値をC1_1、両端が黒、中央が白で白と黒が2つの境界線で接しているような被写体から得られる一次コントラスト評価値をC1_2とすると、以下の関係が成り立つ。 As shown in Expression (8), the secondary contrast evaluation value C2 increases as the number of edges increases. Therefore, it is inappropriate to express the sharpness only by the secondary contrast evaluation value C2. Therefore, in order to eliminate the influence of the number of edges, normalization is performed by dividing by the primary contrast evaluation value C1. C1_1 is a primary contrast evaluation value obtained from a subject in which half is white, half is black, and white and black meet at the boundary line, both ends are black, the center is white, and white and black meet at two boundary lines When the primary contrast evaluation value obtained from such a subject is C1_2, the following relationship is established.
また、半分が白、半分が黒で境界線で白と黒が接しているような被写体から得られるシャープネスをSH_1、両端が黒、中央が白、白と黒が2つの境界線で接しているような被写体から得られるシャープネスをSH_2とすると、以下の通り表せる。 In addition, the sharpness obtained from a subject in which half is white, half is black, and white and black are in contact with the boundary line is SH_1, both ends are black, the center is white, and white and black are in contact with two boundary lines. When the sharpness obtained from such a subject is SH_2, it can be expressed as follows.
式(11)に式(8)、式(9)を代入すると、SH_2は以下の通り表せる。 Substituting Equation (8) and Equation (9) into Equation (11), SH_2 can be expressed as follows.
式(12)から、半分が白、半分が黒で境界線で白と黒が接しているような被写体から得られるシャープネスSH_1と、両端が黒、中央が白で白と黒が2つの境界線で接しているような被写体から得られるシャープネスSH_2は、同じであることがわかる。同様に考えることで、エッジの数がいくつ増えても、シャープネスSHの値は変わらないことが分かる。 From equation (12), sharpness SH_1 obtained from a subject in which half is white, half is black, and white and black are in contact with the border, and two borders are black at both ends, white at the center, and white and black It can be seen that the sharpness SH_2 obtained from the subject in contact with is the same. From the same consideration, it can be seen that the value of the sharpness SH does not change no matter how many edges are added.
以上のことから、1次コントラスト評価値と2次コントラスト評価値の比をシャープネスとすることで、被写体像のシャープネスを的確に表現することができる。そして、シャープネスを考慮して特定焦点検出ラインを決定することで、バラツキの多いなだらかに色味が変化するような被写体などに対応する焦点検出ラインを選びにくくすることが可能となる。これにより、焦点検出精度の向上を図ることができる。 From the above, the sharpness of the subject image can be accurately expressed by setting the ratio between the primary contrast evaluation value and the secondary contrast evaluation value as sharpness. Then, by determining the specific focus detection line in consideration of sharpness, it becomes possible to make it difficult to select a focus detection line corresponding to a subject or the like whose color changes gently. Thereby, the focus detection accuracy can be improved.
次に、4)被写体像の明暗比について、図11を用いて説明する。本実施例にいう明暗比とは、被写体像の濃淡がはっきりしているかどうかを表すパラメータである。具体的には、被写体像(信号値)のボトム値からピーク値までの高さが、センサ出力のダーク値からピーク値までの高さに比べてどれだけの大きさになっているかを表している。 Next, 4) the contrast ratio of the subject image will be described with reference to FIG. The contrast ratio in the present embodiment is a parameter that indicates whether or not the density of the subject image is clear. Specifically, it indicates how much the height from the bottom value to the peak value of the subject image (signal value) is larger than the height from the dark value to the peak value of the sensor output. Yes.
合焦状態でのA像のダーク値、ボトム値、ピーク値をそれぞれ、DARK_A,BOTTOM_A,PEAK_Aとし、B像のダーク値、ボトム値、ピーク値をDARK_B,BOTTOM_B,PEAK_Bとする。この場合、A像から得られる明暗比PBD_Aと、B像から得られる明暗比PBD_Bは下記の通りに表せる。 The dark value, bottom value, and peak value of the A image in the focused state are DARK_A, BOTTOM_A, and PEAK_A, respectively, and the dark value, bottom value, and peak value of the B image are DARK_B, BOTTOM_B, and PEAK_B. In this case, the light / dark ratio PBD_A obtained from the A image and the light / dark ratio PBD_B obtained from the B image can be expressed as follows.
上記のようにA像、B像それぞれから得られた明暗比のうち、大きい方を明暗比PBDとして定義する。 Of the light / dark ratios obtained from the A and B images as described above, the larger one is defined as the light / dark ratio PBD.
式(15)に示した明暗比PBDにより、被写体像のボトム値からピーク値までの高さが、センサ出力のダーク値からピーク値までの高さに比べて、どれだけの大きさになっているかを表現することができる。図11と式(15)から分かるように、明暗比PBDは0以上1以下の数字となる。明暗比PBDが1に近い場合は、被写体像のボトム値からピーク値までの高さとセンサ出力のダーク値からピーク値までの高さがほぼ同じであることを意味する。この場合は、濃淡のはっきりした被写体像であると判定する。 According to the light / dark ratio PBD shown in Expression (15), the height from the bottom value to the peak value of the subject image becomes larger than the height from the dark value to the peak value of the sensor output. Can be expressed. As can be seen from FIG. 11 and equation (15), the light / dark ratio PBD is a number between 0 and 1. When the light / dark ratio PBD is close to 1, it means that the height from the bottom value to the peak value of the subject image is substantially the same as the height from the dark value to the peak value of the sensor output. In this case, it is determined that the subject image is clear.
逆に、明暗比が0に近い場合は、ボトム値からピーク値までの高さがダーク値からピーク値までの高さに比べて非常に小さいことを意味する。この場合は、濃淡がはっきりしない被写体であると判定する。 On the contrary, when the contrast ratio is close to 0, it means that the height from the bottom value to the peak value is very small compared to the height from the dark value to the peak value. In this case, it is determined that the subject is not clear.
以上のように、被写体像のダーク値、ボトム値、ピーク値に基づいて算出した明暗比PBDを用いることで、被写体像が濃淡のはっきりしたものであるかどうかを的確に判定できる。この明暗比PBDを考慮して特定焦点検出ラインを決定することで、バラツキの多い濃淡のはっきりしない被写体に対応した焦点検出ラインを選びにくくすることが可能となる。これにより、焦点検出精度の向上を図ることができる。 As described above, by using the light / dark ratio PBD calculated based on the dark value, the bottom value, and the peak value of the subject image, it can be accurately determined whether or not the subject image is clear. By determining the specific focus detection line in consideration of the light / dark ratio PBD, it is possible to make it difficult to select a focus detection line corresponding to a subject with many variations and an indistinct shade. Thereby, the focus detection accuracy can be improved.
本実施例の焦点検出装置では、以上のような4つのパラメータに基づいて、特定焦点検出ラインを選択するためのSレベルを算出する。ここで、1)一致度Uは、値が小さいほど信頼性が高い。2)相関変化量ΔVは、値が大きいほど信頼性が高い。3)シャープネスSHは、値が大きいほど信頼性が高い。4)明暗比PBDは、値が大きいほど信頼性が高い。そこで、Sレベルを下記のように定義する。 In the focus detection apparatus of this embodiment, the S level for selecting a specific focus detection line is calculated based on the above four parameters. Here, 1) As the degree of coincidence U is smaller, the reliability is higher. 2) The larger the value of the correlation change amount ΔV, the higher the reliability. 3) The greater the value of the sharpness SH, the higher the reliability. 4) As the value of the light / dark ratio PBD is larger, the reliability is higher. Therefore, the S level is defined as follows.
ここで、一致度Uを分子とし、相関変化量ΔVとシャープネスSHと明暗比PBDの積を分母とすることで、各パラメータから信頼性が高いと判定されると、Sレベルが小さくなるように定義している。このように定義したSレベルを各焦点検出ラインについて算出し、このSレベルが最も小さい焦点検出ラインを特定焦点検出ラインとし、そこでの焦点検出結果を最終結果として選ぶ。 Here, if the degree of coincidence U is used as a numerator and the product of the correlation change amount ΔV, the sharpness SH and the light / dark ratio PBD is used as the denominator, if it is determined that the reliability is high from each parameter, the S level is reduced. Defined. The S level defined in this way is calculated for each focus detection line, and the focus detection line with the smallest S level is set as the specific focus detection line, and the focus detection result is selected as the final result.
縦目(L1,L2)、横目(L3,L4)のように2ラインで構成される焦点検出ラインについては、2ラインの平均をとったり、大きい方もしくは小さい方のどちらかを採用したりすることで、Sレベルを確定する。一致度、エッジ数、シャープネスおよび明暗比の全てを考慮して特定焦点検出ラインを選択することができるため、信頼性が高く、バラツキの小さい焦点検出ラインを特定焦点検出ラインとして選択することが可能となる。このようなSレベルに基づいて特定焦点検出ラインを選択することで、焦点検出精度の向上を図ることができる。 For focus detection lines composed of two lines such as the vertical eye (L1, L2) and the horizontal eye (L3, L4), take the average of the two lines or adopt the larger or smaller one Then, confirm the S level. The specific focus detection line can be selected in consideration of all of the degree of coincidence, the number of edges, sharpness, and contrast ratio, so it is possible to select a focus detection line with high reliability and small variation as the specific focus detection line It becomes. By selecting a specific focus detection line based on such S level, it is possible to improve focus detection accuracy.
次に、Sレベルに基づいてライン選択することで、従来に比べてどれだけ焦点検出バラツキが小さくなったかを、図14〜17を用いて説明する。 Next, how much the focus detection variation becomes smaller by selecting a line based on the S level will be described with reference to FIGS.
図14は、シャープネスSHだけを考慮して焦点検出ラインを選択した場合に、どれくらいの焦点検出バラツキが生じるかを示したグラフである。横軸は複数回焦点検出を行った場合のバラツキを示す3σ、縦軸は各種被写体を焦点検出した場合のシャープネスSHの値を示す。ここでは9種類の被写体について焦点検出を行い、バラツキ3σとシャープネスSHとの関係をプロットした。同じ被写体についてプロットが複数個存在するのは、輝度を変えてデータを複数個取ったためである。 FIG. 14 is a graph showing how much focus detection variation occurs when a focus detection line is selected in consideration of only the sharpness SH. The horizontal axis indicates 3σ indicating variation when focus detection is performed a plurality of times, and the vertical axis indicates the value of sharpness SH when focus detection is performed on various subjects. Here, focus detection was performed for nine types of subjects, and the relationship between variation 3σ and sharpness SH was plotted. The reason why a plurality of plots exist for the same subject is because a plurality of data are obtained by changing the luminance.
ここで、9種類の被写体について説明する。「白黒E1」の「白黒」とは、被写体に白い部分と黒い部分があるという意味であり、「E1」とは、白い部分と黒い部分が1つのエッジを境界線として接しているという意味である。つまり「白黒E1」とは、白部と黒部が1つの境界線で接しているような被写体であるという意味である。 Here, nine types of subjects will be described. “Monochrome” of “Monochrome E1” means that the subject has a white part and a black part, and “E1” means that the white part and the black part are in contact with one edge as a boundary line. is there. That is, “monochrome E1” means that the subject is such that the white portion and the black portion are in contact with each other at one boundary line.
「白黒E2」の「白黒」とは、被写体には白い部分と黒い部分があるという意味であり、「E2」とは、白い部分と黒い部分が2つのエッジを境界線として接しているという意味である。つまり「白黒E2」とは、白部と黒部が2つの境界線で接しているような被写体であるという意味である。 “Monochrome” of “Monochrome E2” means that the subject has a white part and a black part, and “E2” means that the white part and the black part are in contact with each other with two edges as a boundary line. It is. That is, “monochrome E2” means that the subject is such that the white part and the black part are in contact with each other at two boundary lines.
「白黒E2_2」は、同様に、白部と黒部が2つの境界線で接しているような被写体であるが、模様が「白黒E2」とは異なるため別名をつけている。 Similarly, “Monochrome E2_2” is a subject in which a white portion and a black portion are in contact with each other at two boundary lines, but is given an alias because the pattern is different from “Monochrome E2”.
「白黒E4」の「白黒」とは、被写体には白い部分と黒い部分があるという意味であり、「E4」とは、白い部分と黒い部分が2つのエッジを境界線として接しているという意味である。つまり「白黒E4」とは、白部と黒部が2つの境界線で接しているような被写体であるという意味である。 “Monochrome” of “Monochrome E4” means that the subject has a white portion and a black portion, and “E4” means that the white portion and the black portion are in contact with each other with two edges as a boundary line. It is. That is, “black and white E4” means that the subject is such that the white portion and the black portion are in contact with each other at two boundary lines.
「白黒E0」の「白黒」とは、被写体には白い部分と黒い部分があるという意味であり、「E0」とは、白い部分と黒い部分の境界部はエッジではなく、白部から黒部にかけてなだらかに変化しているという意味である。つまり「白黒E0」とは、白部から黒部にかけてなだらかに変化している被写体であるという意味である。 “Monochrome” of “Monochrome E0” means that the subject has a white part and a black part, and “E0” means that the boundary between the white part and the black part is not an edge, but from the white part to the black part. It means that it is changing gently. That is, “black and white E0” means that the subject is gently changing from white to black.
「白灰色E1」の「白灰色」とは、被写体には白い部分と灰色部分があるという意味であり、「E1」とは、白い部分と灰色部分が1つのエッジを境界線として接しているという意味である。つまり「白灰色E1」とは、白部と灰色部が1つの境界線で接しているような被写体であるという意味である。 “White gray” of “white gray E1” means that the subject has a white portion and a gray portion, and “E1” means that the white portion and the gray portion are in contact with one edge as a boundary line. It means that. That is, “white gray E1” means that the subject is such that the white portion and the gray portion are in contact with each other at one boundary line.
「白灰色E1_2」は、同様に、白部と灰色部が1つの境界線で接しているような被写体であるが、模様が「白灰色E1」とは異なるため別名をつけている。 Similarly, “white gray E1_2” is an object in which the white portion and the gray portion are in contact with each other at one boundary, but is given an alias because the pattern is different from “white gray E1”.
「白灰色E2」の「白灰色」とは、被写体には白い部分と灰色部分があるという意味であり、「E2」とは、白い部分と灰色部分が2つのエッジを境界線として接しているという意味である。つまり、「白灰色E2」とは、白部と灰色部が2つの境界線で接しているような被写体であるという意味である。 “White gray” of “white gray E2” means that the subject has a white portion and a gray portion, and “E2” means that the white portion and the gray portion are in contact with each other with two edges as a boundary line. It means that. That is, “white gray E2” means that the subject is such that the white portion and the gray portion are in contact with each other at two boundary lines.
「黒に線傷」とは、全面黒の上に、細かい線傷が多数ついた被写体である。基本的には一様に黒色であるが、線傷の反射で低コントラストの細かい模様がついている。 A “black line scar” is a subject with many fine line marks on the entire black surface. Basically, it is uniformly black, but it has a fine pattern with low contrast due to reflection of flaws.
横軸をバラツキ3σ、縦軸をあるパラメータとしてデータをプロットした際に、あるパラメータがバラツキ3σを推定するのに適切なものであるならば、そのパラメータとバラツキ3σとは正の相関関係を有する。このため、プロットデータは右肩上がりの一直線上に分布する。このようなパラメータが探し出せれば、そのパラメータが小さい焦点検出ラインを特定焦点検出ラインとして選ぶことにより、バラツキ3σの小さい方を選ぶことが可能となる。 When data is plotted with the variation 3σ on the horizontal axis and a parameter on the vertical axis, if a certain parameter is appropriate for estimating the variation 3σ, the parameter and the variation 3σ have a positive correlation. . For this reason, the plot data is distributed on a straight line rising upward. If such a parameter can be found, it is possible to select the one having the smaller variation 3σ by selecting the focus detection line having the smaller parameter as the specific focus detection line.
図14を見てみると、大まかには右肩上がりの分布になっているものの、その広がりはかなり大きい。被写体ごとの傾向を見てみると、「白黒E1」、「白灰色E1」、「白灰色E1_2」などエッジを1箇所しか有さない被写体は、シャープネスSHが比較的小さい値となるが、バラツキ3σが大きい。これは、シャープネスSHというパラメータが、エッジ数に影響されないためである。エッジ数が多い方が相関演算する際の情報量が多いため、バラツキも小さくなるにもかかわらず、シャープネスSHはそのことを考慮してない。そのため、「白黒E2」や「白黒E4」の方がバラツキ3σが小さいにもかかわらず、バラツキ3σの大きい「白黒E1」、「白灰色E1」、「白灰色E1_2」などエッジを1箇所しか有さない被写体が選ばれやすくなる。図14の結果から、シャープネスSHを考慮しただけでは、焦点検出結果バラツキ3σの小さい焦点検出ラインを選択することはできないことが分かる。 Looking at FIG. 14, the distribution is roughly upward, but the spread is quite large. Looking at the trends for each subject, subjects with only one edge, such as “black and white E1”, “white gray E1”, and “white gray E1_2”, have a relatively small sharpness SH. 3σ is large. This is because the parameter of sharpness SH is not affected by the number of edges. The sharpness SH does not take this into consideration even though the variation is small because the amount of information when performing the correlation calculation is larger when the number of edges is larger. For this reason, “black and white E2” and “black and white E4” have only one edge such as “black and white E1”, “white gray E1”, and “white gray E1_2” having large variations 3σ even though the variation 3σ is smaller. It is easier to select subjects that will not be selected. From the result of FIG. 14, it is understood that a focus detection line with small focus detection result variation 3σ cannot be selected only by considering the sharpness SH.
図15は、明暗比PBDだけを考慮してライン選択した場合に、どれくらいの焦点検出バラツキが生じるかを示したグラフである。図14と同様に、横軸は複数回焦点検出した場合のバラツキ3σを、縦軸は各種被写体を焦点検出した場合の明暗比PBDの値を示す。 FIG. 15 is a graph showing how much focus detection variation occurs when a line is selected in consideration of only the contrast ratio PBD. Similarly to FIG. 14, the horizontal axis indicates the variation 3σ when the focus is detected a plurality of times, and the vertical axis indicates the value of the light / dark ratio PBD when the focus of various subjects is detected.
図15から分かるように、明暗比は、「白灰色E1」、「白灰色E1_2」「白灰色E2」、「黒に線傷」のように、黒い部分と白い部分の両方を有さない被写体に対して1より小さい値を取るだけで、黒い部分と白い部分の両方を有する被写体に対しては全てほぼ1になる。これは、明暗比というパラメータは、黒い部分と白い部分のセンサ出力値の差がダーク値と白い部分のセンサ出力値との差と比べて、どれくらいの大きさであるかというのを表しているだけだからである。このため、黒い部分と白い部分を有する被写体であれば、明暗比が全てほぼ1になるのは当然である。このことから、明暗比PBDと焦点検出バラツキ3σとは全く相関関係がなく、明暗比PBDのみから焦点検出バラツキ3σを推定することは難しい。 As can be seen from FIG. 15, the light / dark ratio is an object having neither a black part nor a white part, such as “white gray E1”, “white gray E1_2”, “white gray E2”, and “black scratches”. For a subject having both a black portion and a white portion, the value is almost 1 for all of the subjects. This means that the parameter of the light / dark ratio is how large the difference between the sensor output values of the black part and the white part is compared to the difference between the dark value and the sensor output value of the white part. Because it is only. For this reason, if the subject has a black portion and a white portion, it is natural that the contrast ratio is almost 1. For this reason, the light / dark ratio PBD and the focus detection variation 3σ have no correlation, and it is difficult to estimate the focus detection variation 3σ only from the light / dark ratio PBD.
図16は、一致度Uと相関変化量ΔVだけを考慮して焦点検出ラインを選択した場合に、どれくらい焦点検出バラツキが生じるかを示したグラフである。図14と同様に、横軸は複数回焦点検出した場合のバラツキ3σを、縦軸は各種被写体を焦点検出した場合の一致度U/相関変化量ΔVの値を示す。 FIG. 16 is a graph showing how much focus detection variation occurs when a focus detection line is selected considering only the degree of coincidence U and the correlation change amount ΔV. Similarly to FIG. 14, the horizontal axis indicates the variation 3σ when the focus is detected a plurality of times, and the vertical axis indicates the value of the degree of coincidence U / correlation change ΔV when the focus is detected for various subjects.
図16から分かるように、大まかには右肩上がりの分布になっているものの、その広がりはかなり大きい。被写体ごとの傾向を見てみると、「白黒E0」や「黒に線傷」は、一致度U/相関変化量ΔVの値が比較的小さいにもかかわらず、焦点検出バラツキ3σは大きい。「白黒E0」の一致度U/相関変化量ΔVの値が小さいのは、図12に示すように、位置関係によっては非常に一致度が高くなってしまい、パラメータとしての一致度Uの値が非常に小さくなってしまうためである。 As can be seen from FIG. 16, although the distribution is roughly upward, the spread is quite large. Looking at the trends for each subject, “black and white E0” and “black flaws” have a large focus detection variation 3σ even though the degree of coincidence U / correlation change ΔV is relatively small. As shown in FIG. 12, the degree of coincidence U / correlation change ΔV for “monochrome E0” is very small depending on the positional relationship, and the value of coincidence U as a parameter is This is because it becomes very small.
また、「黒に線傷」の一致度U/相関変化量ΔVが小さいのは、焦点検出センサ17に搭載されたピーク・ボトム処理機能の影響である。ピーク・ボトム処理機能とは、被写体像(像信号)のボトム値がセンサ出力の最小値になるように、ピーク値がセンサ出力の最高値になるように被写体像を引き伸ばし、明暗度の低い被写体でもセンサ出力の階調をフルに使用する機能である。これにより、明暗度の低い被写体の階調を上げることができる。「黒に線傷」は、黒地に細かい線傷が多数存在するため、明暗度は非常に低い。このような明暗度が非常に低い被写体は、ピーク・ボトム処理で引き伸ばしたとしても、ほとんど階調のないものを無理矢理に引き伸ばしているだけなので、非常に焦点検出バラツキが大きい。 Further, the degree of coincidence U / correlation change ΔV of “black line scar” is small due to the effect of the peak / bottom processing function mounted on the focus detection sensor 17. The peak / bottom processing function stretches the subject image so that the bottom value of the subject image (image signal) becomes the minimum value of the sensor output, so that the peak value becomes the maximum value of the sensor output. However, it is a function that uses the full gradation of sensor output. Thereby, the gradation of a subject with low brightness can be increased. “Black line scratches” have very low brightness because there are many fine line scratches on a black background. Such a subject with very low brightness has a very large variation in focus detection because even if it is stretched by the peak / bottom processing, a subject having almost no gradation is forcibly stretched.
さらに、多数の細かい線傷は、高周波数成分からなる像信号であるが、そもそも画素開口から決まるナイキスト周波数以上の高周波数成分はセンサによって検出できないため、折り返し成分となって検出誤差の原因となる。それにもかかわらず、「黒に線傷」は、無数の線傷がピーク・ボトム処理により引き伸ばされ、図13に示すように、明暗のくっきりしたエッジが沢山存在するような波形になってしまう。すると、相関変化量ΔVが非常に大きな値となり、結果として一致度U/相関変化量ΔVが非常に小さくなってしまう。 Furthermore, many fine flaws are image signals composed of high-frequency components, but since high-frequency components that are higher than the Nyquist frequency determined from the pixel aperture cannot be detected by the sensor, they become aliasing components and cause detection errors. . Nevertheless, the “black flaws” are stretched by innumerable flaws by the peak / bottom processing, resulting in a waveform in which a lot of bright and dark edges exist as shown in FIG. Then, the correlation change amount ΔV becomes a very large value, and as a result, the matching degree U / correlation change amount ΔV becomes very small.
このように汚れた「黒に線傷」は、ピーク・ボトム処理とナイキスト周波数以上の高周波数成分の影響により、一致度U/相関変化量ΔVが小さいにもかかわらず、焦点検出バラツキ3σが大きくなってしまう。 Such a dirty “black line scar” has a large focus detection variation 3σ due to the influence of the peak / bottom processing and the high frequency component higher than the Nyquist frequency, although the degree of coincidence U / correlation change ΔV is small. It will be lost.
以上のような理由から、一致度U/相関変化量ΔVは、焦点検出バラツキの大きい「白黒E0」や「黒に線傷」のときに値が小さくなってしまう。図16の結果から、一致度U/相関変化量ΔVを考慮しただけでは、焦点検出結果バラツキ3σの小さい焦点検出ラインを選択することは難しいことが分かる。 For the reasons described above, the value of the degree of coincidence U / correlation change ΔV becomes small when “monochrome E0” or “black flaws” with large focus detection variation. From the result of FIG. 16, it is understood that it is difficult to select a focus detection line having a small focus detection result variation 3σ only by considering the degree of coincidence U / correlation change ΔV.
そこで、図17を用いて、本実施例のSレベルに従ってライン選択を行えば、焦点検出バラツキが抑えられることを説明する。図17の横軸は複数回焦点検出した場合のバラツキ3σ、縦軸は各種被写体を焦点検出した場合のSレベルの値を示す。 Therefore, with reference to FIG. 17, it will be described that if line selection is performed according to the S level of the present embodiment, focus detection variation can be suppressed. The horizontal axis of FIG. 17 indicates the variation 3σ when the focus is detected a plurality of times, and the vertical axis indicates the value of the S level when the focus of various subjects is detected.
図17の結果から分かるように、Sレベルに従って焦点検出ラインの選択を行えば、焦点検出バラツキ3σとSレベルとの間には正の相関関係が成り立ち、プロットデータは右肩上がりの一直線上に分布している。前述したシャープネスSHおよび明暗比PBDを単独で焦点検出ラインの選択パラメータとした場合と一致度U/相関変化量ΔVを焦点検出ラインの選択パラメータとした場合に比べて、分布の広がりもかなり小さくなっている。つまり、本実施例のSレベルが小さい方の焦点検出ラインを特定焦点検出ライン(最終検出結果)として選ぶことにより、焦点検出バラツキ3σの小さい焦点検出ラインを選ぶことが可能となる。 As can be seen from the results of FIG. 17, if the focus detection line is selected according to the S level, a positive correlation is established between the focus detection variation 3σ and the S level, and the plot data is on a straight line rising upward. Distributed. Compared to the case where the sharpness SH and the contrast ratio PBD described above are used alone as the focus detection line selection parameters and the case where the degree of coincidence U / correlation change ΔV is used as the focus detection line selection parameters, the spread of the distribution is considerably reduced. ing. That is, it is possible to select a focus detection line with a small focus detection variation 3σ by selecting a focus detection line with a smaller S level in this embodiment as a specific focus detection line (final detection result).
本実施例の焦点検出装置20では、図4、図5および図6の説明で述べたように、同一視野領域である画面中央には、縦目(L1,L2)、横目(L3,L4)およびF2.8目(L19)の3つの焦点検出ラインが存在する。そして、該3つの焦点検出ライン(言い換えれば、3つの焦点検出結果)のそれぞれについて、一致度U、エッジ数(相関変化量ΔV)、シャープネスSHおよび明暗比PBDのすべてをパラメータとしたSレベル(SELECT LEVEL)を算出する。さらに、該3つの焦点検出ライン(焦点検出結果)のうち、このSレベルの値が最も小さいものを特定焦点検出ライン(最終検出結果)として選択する。これにより、焦点検出バラツキの少ない適切な焦点検出ラインを選択することが可能となる。 In the focus detection apparatus 20 of the present embodiment, as described in the description of FIGS. 4, 5, and 6 , the vertical eye (L 1, L 2) and the horizontal eye (L 3, L 4) And there are three focus detection lines of F2.8th (L19). Then, for each of the three focus detection lines (in other words, the three focus detection results), the S level (the matching level U, the number of edges (correlation change ΔV), the sharpness SH, and the light / dark ratio PBD) are used as parameters. (SELECT LEVEL) is calculated. Further, among the three focus detection lines (focus detection results), the one having the smallest value of the S level is selected as a specific focus detection line (final detection result). Thereby, it is possible to select an appropriate focus detection line with less focus detection variation.
以上説明したように、本実施例によれば、一致度U、エッジ数(相関変化量ΔV)、シャープネスSHおよび明暗比PBDのすべてをパラメータとしたSレベルに基づいて特定焦点検出ラインを決定することにより、被写体の略同一部位に対する複数の焦点検出結果から精度の高い適切な結果を選択することができ、焦点検出精度の向上を図ることができる。 As described above, according to the present embodiment, the specific focus detection line is determined based on the S level using all of the degree of coincidence U, the number of edges (correlation change ΔV), the sharpness SH, and the light / dark ratio PBD as parameters. Thus, an appropriate result with high accuracy can be selected from a plurality of focus detection results for substantially the same part of the subject, and focus detection accuracy can be improved.
以下、本実施例の焦点検出装置20における演算回路40での焦点検出動作および焦点調節と動作の流れの概要を、図20に示したフローチャートを用いて簡単に説明する。この動作は、演算回路40内又はその外部に設けられたメモリに格納されたコンピュータプログラムに従って実行される。 Hereinafter, the outline of the focus detection operation, focus adjustment, and operation flow in the arithmetic circuit 40 in the focus detection apparatus 20 of the present embodiment will be briefly described with reference to the flowchart shown in FIG. This operation is executed in accordance with a computer program stored in a memory provided inside or outside the arithmetic circuit 40.
カメラのメイン撮影フロー(図示せず)において、カメラのレリーズスイッチの第1ストローク操作(いわゆる半押し操作)を検出すると、演算回路40は、焦点検出装置20を動作させる(START)。 When a first stroke operation (so-called half-pressing operation) of the release switch of the camera is detected in the main shooting flow (not shown) of the camera, the arithmetic circuit 40 operates the focus detection device 20 (START).
ステップ(図では、「S」と略す)201では、画面内に設けられた21の焦点検出ラインの中から、撮影者のマニュアル操作(若しくは視線検出結果)を受けて、又は所定のアルゴリズムに従って焦点検出ラインを指定する。 In step (abbreviated as “S” in the figure) 201, the focus is received in response to a manual operation (or line-of-sight detection result) of the photographer from among 21 focus detection lines provided in the screen, or according to a predetermined algorithm. Specify the detection line.
次にステップ201では、指定された焦点検出ラインが画面中央に含まれる焦点検出ライン(L1〜L4およびL19)か否かを判別する。画面中央の焦点検出ラインでなければ、ステップ203に進み、該指定された焦点検出ラインに対応するセンサ17上の一対の受光部からの光電変換信号に基づいて、焦点検出結果(デフォーカス量)を算出する。そして、ステップ207に進む。一方、指定された焦点検出ラインが画面中央の焦点検出ラインであれば、ステップ204に進む。 Next, in step 201, it is determined whether or not the designated focus detection line is a focus detection line (L1 to L4 and L19) included in the center of the screen. If it is not the focus detection line at the center of the screen, the process proceeds to step 203, and the focus detection result (defocus amount) based on the photoelectric conversion signals from the pair of light receiving units on the sensor 17 corresponding to the designated focus detection line. Is calculated. Then, the process proceeds to Step 207. On the other hand, if the designated focus detection line is the focus detection line at the center of the screen, the process proceeds to step 204.
ステップ204では、画面中央に含まれる各焦点検出ラインに対応するセンサ17上の各対の受光部からの光電変換信号に基づいて、該各焦点検出ラインでの焦点検出結果(デフォーカス量)を算出する。 In step 204, the focus detection result (defocus amount) in each focus detection line is calculated based on the photoelectric conversion signal from each pair of light receiving units on the sensor 17 corresponding to each focus detection line included in the center of the screen. calculate.
次に、ステップ205では、画面中央に含まれる各焦点検出ラインに対応するセンサ17上の各対の受光部からの光電変換信号に基づいて、一致度U、エッジ数(相関変化量ΔV)、シャープネスSHおよび明暗比PBDを算出する。さらにこれら4つのパラメータの値からSレベルを算出する。 Next, in step 205, based on the photoelectric conversion signal from each pair of light receiving units on the sensor 17 corresponding to each focus detection line included in the center of the screen, the matching degree U, the number of edges (correlation change amount ΔV), The sharpness SH and the light / dark ratio PBD are calculated. Further, the S level is calculated from the values of these four parameters.
次にステップ206では、各焦点検出ラインのSレベル値のうち最も小さい値に対応する焦点検出ラインを特定焦点検出ラインとして決定(選択)する。 Next, in step 206, the focus detection line corresponding to the smallest value among the S level values of each focus detection line is determined (selected) as the specific focus detection line.
そして、ステップ207では、特定焦点検出ラインでのデフォーカス量から合焦状態を得るために必要なフォーカスレンズの駆動量(駆動方向を含む)を算出する。具体的には、フォーカスレンズを駆動するアクチュエータ(例えば、振動型モータ)の駆動パルス数を算出する。 In step 207, the driving amount (including the driving direction) of the focus lens necessary for obtaining the in-focus state is calculated from the defocus amount in the specific focus detection line. Specifically, the number of drive pulses of an actuator (for example, a vibration type motor) that drives the focus lens is calculated.
次に、ステップ208では、該算出された駆動量分、フォーカスレンズを駆動する。これにより、通常の場合は合焦状態を得ることができる。この後、所定の合焦判定を行い、合焦が得られていればカメラのメイン撮影フローに戻って、撮影動作を開始させるためのレリーズスイッチの第2ストローク操作(いわゆる全押し操作)を待つ。合焦が得られていなければ、ステップ202に戻り、焦点検出および焦点調節動作を繰り返す。 Next, in step 208, the focus lens is driven by the calculated drive amount. Thereby, in a normal case, a focused state can be obtained. Thereafter, a predetermined focus determination is performed, and if the focus is obtained, the process returns to the main shooting flow of the camera and waits for the second stroke operation (so-called full press operation) of the release switch for starting the shooting operation. . If the in-focus state has not been obtained, the process returns to step 202 and the focus detection and focus adjustment operations are repeated.
なお、ここでは、まず画面中央の3つの焦点検出ラインでの焦点検出結果を算出し、次に特定焦点検出ラインを決定(Sレベル値の算出および比較)し、上記3つの焦点検出結果の中から決定された特定焦点検出ラインでの焦点検出情報を最終検出結果として選択するようにした。しかし、本発明においては、他の手順で特定焦点検出ラインを決定してもよい。例えば、まず画面中央の3つの焦点検出ライン中から特定焦点検出ラインを決定し、その後、決定された特定焦点検出ラインに対して焦点検出結果を求めるようにしてもよい。 Here, first, focus detection results for the three focus detection lines in the center of the screen are calculated, then specific focus detection lines are determined (calculation and comparison of S level values), and among the above three focus detection results. The focus detection information at the specific focus detection line determined from the above is selected as the final detection result. However, in the present invention, the specific focus detection line may be determined by other procedures. For example, first, a specific focus detection line may be determined from the three focus detection lines in the center of the screen, and then a focus detection result may be obtained for the determined specific focus detection line.
実施例1では、一致度U、エッジ数(相関変化量ΔV)、シャープネスSHおよび明暗比PBDの4つのパラメータを考慮して複数の焦点検出ライン(焦点検出結果)から特定焦点検出ライン(最終検出結果)を導いた。本実施例では、一致度U、エッジ数(ΔV)およびシャープネスSHの3つのみを考慮して、複数の焦点検出ライン(焦点検出結果)から特定焦点検出ライン(最終検出結果)を導く。 In the first embodiment, a specific focus detection line (final detection) is selected from a plurality of focus detection lines (focus detection results) in consideration of four parameters of the degree of coincidence U, the number of edges (correlation change amount ΔV), sharpness SH, and contrast ratio PBD. Result). In the present embodiment, a specific focus detection line (final detection result) is derived from a plurality of focus detection lines (focus detection results) in consideration of only the matching degree U, the number of edges (ΔV), and the sharpness SH.
本実施例の焦点検出装置の構成は、実施例1と同じである。図4、図5および図6の説明で述べたように、画面中央では、縦目(L1,L2)、横目(L3,L4)およびF2.8目(L19)から3つの焦点検出結果が得られる。本実施例では、一対の被写体像から得られる一致度U、エッジ数(ΔV)およびシャープネスSHをパラメータとしたSレベル(SELECT LEVEL)_2の値に基づいて特定焦点検出ライン(最終検出結果)を決定する。このように、上記3つの要素(パラメータ)を考慮した特定焦点検出ラインの選択を行うことで、焦点検出バラツキの少ない適切な焦点検出ラインを選ぶことができる。一致度U、エッジ数(ΔV)およびシャープネスSHは、実施例1で述べた通りである。 The configuration of the focus detection apparatus of the present embodiment is the same as that of the first embodiment. As described with reference to FIGS. 4, 5, and 6, three focus detection results are obtained from the vertical eye (L1, L2), the horizontal eye (L3, L4), and the F2.8 eye (L19) at the center of the screen. It is done. In the present embodiment, the specific focus detection line (final detection result) is obtained based on the value of S level (SELECT LEVEL) _2 using the degree of coincidence U obtained from a pair of subject images, the number of edges (ΔV), and the sharpness SH as parameters. decide. As described above, by selecting the specific focus detection line in consideration of the above three elements (parameters), it is possible to select an appropriate focus detection line with little focus detection variation. The degree of coincidence U, the number of edges (ΔV), and the sharpness SH are as described in the first embodiment.
本実施例では、一致度U、エッジ数(ΔV)、シャープネスSHの3つのパラメータに基づいてSレベル_2を算出する。1)一致度Uは、値が小さいほど信頼性が高い。2)相関変化量ΔVは、値が大きいほど信頼性が高い。3)シャープネスSHは、値が大きいほど信頼性が高い。そこで、Sレベルを下記のように定義する。 In this embodiment, the S level_2 is calculated based on the three parameters of the degree of coincidence U, the number of edges (ΔV), and the sharpness SH. 1) The smaller the value of the degree of coincidence U, the higher the reliability. 2) The larger the value of the correlation change amount ΔV, the higher the reliability. 3) The greater the value of the sharpness SH, the higher the reliability. Therefore, the S level is defined as follows.
上記式(17)において、一致度Uを分子に、相関変化量ΔVとシャープネスSHの積を分母とすることで、各パラメータから信頼性が高いと判定されると、Sレベル_2の値が小さくなるように定義している。このように定義したSレベル_2を各焦点検出ラインについて算出し、このSレベル_2の値が最も小さい焦点検出ライン(特定焦点検出ライン)の焦点検出結果を最終検出結果として選ぶ。 In the above formula (17), when the degree of coincidence is the numerator and the product of the correlation change amount ΔV and the sharpness SH is used as the denominator, if it is determined that the reliability is high from each parameter, the value of the S level_2 becomes small. It is defined to be. The S level_2 defined as described above is calculated for each focus detection line, and the focus detection result of the focus detection line (specific focus detection line) having the smallest value of the S level_2 is selected as the final detection result.
このようして算出したSレベル_2に基づいて特定焦点検出ラインを選択することで、従来に比べてどれだけ焦点検出バラツキが小さくなったかを、図18を用いて説明する。図18において、横軸は複数回焦点検出した場合のバラツキ3σを、縦軸は各種被写体を焦点検出した場合のSレベル_2の値を示す。 How much the focus detection variation becomes smaller by selecting the specific focus detection line based on the S level_2 calculated in this way will be described with reference to FIG. In FIG. 18, the horizontal axis indicates the variation 3σ when the focus is detected a plurality of times, and the vertical axis indicates the value of S level_2 when the focus is detected for various subjects.
図18から分かるように、Sレベル_2に従って焦点検出ラインの選択を行えば、焦点検出バラツキ3σとSレベル_2との間には正の相関関係が成り立っており、プロットデータは右肩上がりの一直線上に分布している。そして、その分布の広がりも、図14〜図16に示した例に比べて、かなり小さい。つまり、本実施例のSレベル_2が最も小さい焦点検出ラインを特定焦点検出ライン(最終検出結果)として選ぶことにより、焦点検出バラツキ3σも小さい焦点検出ラインを選ぶことが可能となる。 As can be seen from FIG. 18, if the focus detection line is selected according to the S level_2, a positive correlation is established between the focus detection variation 3σ and the S level_2, and the plot data is straight up. Distributed on the line. The spread of the distribution is also considerably smaller than the examples shown in FIGS. That is, by selecting the focus detection line having the smallest S level_2 in this embodiment as the specific focus detection line (final detection result), it is possible to select a focus detection line having a small focus detection variation 3σ.
したがって、本実施例によれば、被写体の略同一部位に対する複数の焦点検出結果から精度の高い適切な結果を選択することができ、焦点検出精度の向上を図ることができる。 Therefore, according to the present embodiment, an appropriate result with high accuracy can be selected from a plurality of focus detection results for substantially the same part of the subject, and focus detection accuracy can be improved.
本実施例では、実施例1,2とさらに異なり、一致度U、エッジ数(相関変化量ΔV)および明暗比PBDの3つのパラメータのみを考慮して、複数の焦点検出ライン(焦点検出結果)から特定焦点検出ライン(最終検出結果)を導く。 In this embodiment, unlike the first and second embodiments, a plurality of focus detection lines (focus detection results) are considered in consideration of only three parameters of the degree of coincidence U, the number of edges (correlation change ΔV), and the light / dark ratio PBD. A specific focus detection line (final detection result) is derived from
本実施例の焦点検出装置の構成は、実施例1と同じである。図4、図5および図6の説明で述べたように、画面中央では、縦目(L1,L2)、横目(L3,L4)およびF2.8目(L19)から3つの焦点検出結果が得られる。本実施例では、一対の被写体像から得られる一致度U、エッジ数(相関変化量ΔV)および明暗比PBDをパラメータとしたSレベル(SELECT LEVEL)_3の値に基づいて特定焦点検出ライン(最終検出結果)を決定する。このように、上記3つの要素(パラメータ)を考慮した特定焦点検出ラインの選択を行うことで、焦点検出バラツキの少ない適切な焦点検出ラインを選ぶことができる。一致度U、エッジ数(ΔV)および明暗比PBDは、実施例1で述べた通りである。 The configuration of the focus detection apparatus of the present embodiment is the same as that of the first embodiment. As described with reference to FIGS. 4, 5, and 6, three focus detection results are obtained from the vertical eye (L1, L2), the horizontal eye (L3, L4), and the F2.8 eye (L19) at the center of the screen. It is done. In the present embodiment, the specific focus detection line (final) is determined based on the value of S level (SELECT LEVEL) _3 using the degree of coincidence U obtained from a pair of subject images, the number of edges (correlation change ΔV), and the light / dark ratio PBD as parameters. Detection result). As described above, by selecting the specific focus detection line in consideration of the above three elements (parameters), it is possible to select an appropriate focus detection line with little focus detection variation. The degree of coincidence U, the number of edges (ΔV), and the light / dark ratio PBD are as described in the first embodiment.
本実施例では、一致度U、エッジ数(相関変化量ΔV)および明暗比PBDの3つのパラメータに基づいてSレベル_3を算出する。1)一致度Uは、値が小さいほど信頼性が高い。2)相関変化量ΔVは、値が大きいほど信頼性が高い。4)明暗比PBDは、値が大きいほど信頼性が高い。そこで、Sレベル_3を下記のように定義する。 In this embodiment, the S level_3 is calculated based on the three parameters of the degree of coincidence U, the number of edges (correlation change amount ΔV), and the light / dark ratio PBD. 1) The smaller the value of the degree of coincidence U, the higher the reliability. 2) The larger the value of the correlation change amount ΔV, the higher the reliability. 4) As the value of the light / dark ratio PBD is larger, the reliability is higher. Therefore, S level_3 is defined as follows.
式(18)において、一致度Uを分子に、相関変化量ΔVと明暗比PBDの積を分母にもってくることで、各パラメータから信頼性が高いと判定されると、Sレベル_3が小さくなるように定義している。このように定義したSレベル_3を各焦点検出ラインについて算出し、このSレベル_3の値が最も小さい焦点検出ライン(特定焦点検出ライン)の焦点検出結果を最終検出結果として選ぶ。 In Equation (18), when the degree of coincidence U is used as the numerator and the product of the correlation change amount ΔV and the light / dark ratio PBD is taken as the denominator, if it is determined that the reliability is high from each parameter, the S level — 3 is reduced. It is defined as follows. The S level_3 defined in this way is calculated for each focus detection line, and the focus detection result of the focus detection line (specific focus detection line) having the smallest value of the S level_3 is selected as the final detection result.
このようして算出したSレベル_3に基づいて特定焦点検出ラインを選択することで、従来に比べてどれだけ焦点検出バラツキが小さくなったかを、図16と図19を用いて説明する。図19において、横軸は複数回焦点検出した場合のバラツキ3σを、縦軸は各種被写体を焦点検出した場合のSレベル_3の値を示す。 The extent to which the focus detection variation is reduced by selecting the specific focus detection line based on the S level_3 calculated in this way will be described with reference to FIGS. 16 and 19. FIG. In FIG. 19, the horizontal axis indicates the variation 3σ when the focus is detected a plurality of times, and the vertical axis indicates the value of S level_3 when the focus is detected for various subjects.
一致度U/相関変化量ΔVの値を示す図16と図19を比べると、両者においてプロットデータは大まかには右肩上がりの分布になっている。しかし、図16に対して図19では、被写体像の明暗比を考慮しているため、「白灰色E1」、「白灰色E1_2」、「白灰色E2」、「黒に傷線」のSレベル_3の値が大きくなっている。これにより、図16に比べて、焦点検出バラツキの大きい「白灰色E1」、「白灰色E1_2」、「白灰色E2」、「黒に傷線」を選びにくくすることが可能となる。 Comparing FIG. 16 and FIG. 19 showing the value of the degree of coincidence U / correlation change ΔV, the plot data in both cases has a roughly upward distribution. However, since FIG. 19 considers the contrast ratio of the subject image in FIG. 16, the S levels of “white gray E1”, “white gray E1_2”, “white gray E2”, and “black scratched line”. The value of _3 is large. Accordingly, it is possible to make it difficult to select “white gray E1”, “white gray E1_2”, “white gray E2”, and “black scratch line”, which have large focus detection variations compared to FIG.
つまり、本実施例のSレベル_3が最も小さい焦点検出ラインを特定焦点検出ライン(最終検出結果)として選ぶことにより、焦点検出バラツキ3σも小さい焦点検出ラインを選ぶことが可能となる。 That is, by selecting the focus detection line having the smallest S level_3 in the present embodiment as the specific focus detection line (final detection result), it is possible to select a focus detection line having a small focus detection variation 3σ.
したがって、本実施例によれば、被写体の略同一部位に対する複数の焦点検出結果から精度の高い適切な結果を選択することができ、焦点検出精度の向上を図ることができる。 Therefore, according to the present embodiment, an appropriate result with high accuracy can be selected from a plurality of focus detection results for substantially the same part of the subject, and focus detection accuracy can be improved.
実施例1〜3では、画面中央の縦目(L1,L2)、横目(L3,L4)およびF2.8目(L19)の3つの焦点検出ラインにおいて、Sレベル(SELECT LEVEL)を算出し、最終検出結果を選んだ。これに対して、本実施例では、図4に示した撮影範囲24内の全ての焦点検出ラインについてSレベル(SELECT LEVEL)を算出し、最終検出結果を選ぶ。 In Examples 1 to 3, the S level (SELECT LEVEL) is calculated in the three focus detection lines of the vertical eye (L1, L2), the horizontal eye (L3, L4), and the F2.8 eye (L19) at the center of the screen. The final detection result was chosen. On the other hand, in the present embodiment, the S level (SELECT LEVEL) is calculated for all focus detection lines in the imaging range 24 shown in FIG. 4, and the final detection result is selected.
本実施例の焦点検出装置の構成は、実施例1〜3と同じである。図4、図5および図6の説明で述べたように、撮影範囲24には、合計21個の焦点検出ラインがあり、21個の焦点検出結果が得られる。21個の焦点検出ラインとは、中央縦目(L1,L2)、中央横目(L3,L4)、中央F2.8目(L19)、4つの上下横目(L5,L6,L11,L12)、2つの上下F2.8目(L20,L21)、4つの縦目(L7〜L10)、6つの周辺縦目(L13〜L18)である。 The configuration of the focus detection apparatus of the present embodiment is the same as that of the first to third embodiments. As described in the description of FIGS. 4, 5, and 6, there are a total of 21 focus detection lines in the imaging range 24, and 21 focus detection results are obtained. The 21 focus detection lines are the central vertical eye (L1, L2), the central horizontal eye (L3, L4), the central F2.8 eye (L19), the four upper and lower horizontal eyes (L5, L6, L11, L12), 2 There are two upper and lower F2.8 eyes (L20, L21), four vertical eyes (L7 to L10), and six peripheral vertical eyes (L13 to L18).
本実施例では、一対の被写体像から得られる一致度U、エッジ数(相関変化量ΔV)、シャープネスSHおよび明暗比PBDを考慮したSレベル(SELECT LEVEL)の大きさに基づいて、21個の焦点検出ライン(焦点検出結果)から特定焦点検出ライン(最終検出結果)を選択する。これにより、上記4つの要素(パラメータ)を考慮した特定焦点検出ラインの選択が可能になるため、焦点検出バラツキの少ない適切な焦点検出ラインを選ぶことができる。 In this embodiment, based on the magnitude of the S level (SELECT LEVEL) taking into account the degree of coincidence U obtained from a pair of subject images, the number of edges (correlation change ΔV), sharpness SH and light / dark ratio PBD. A specific focus detection line (final detection result) is selected from the focus detection line (focus detection result). As a result, the specific focus detection line can be selected in consideration of the above four elements (parameters), so that an appropriate focus detection line with little focus detection variation can be selected.
一致度U、エッジ数(ΔV)、シャープネスSHおよび明暗比PBDは、実施例1で述べた通りである。また、Sレベルの算出方法も実施例1のSレベルの算出方法と同じである。このため、本実施例でのSレベルの分布およびその効果も、実施例1で図17を用いて説明した通りである。 The degree of coincidence U, the number of edges (ΔV), the sharpness SH, and the contrast ratio PBD are as described in the first embodiment. The S level calculation method is the same as the S level calculation method of the first embodiment. For this reason, the distribution of the S level and its effect in the present embodiment are also as described in the first embodiment with reference to FIG.
本実施例のSレベルに従って焦点検出ラインの選択を行えば、焦点検出バラツキ3σとSレベルとの間には正の相関関係が成り立っており、プロットデータは右肩上がりの一直線上に分布している。該分布の広がりも、図14〜図16に示した例に比べて、かなり小さくなっている。つまり、Sレベルが最も小さい焦点検出ラインを特定焦点検出ラインとして選ぶことにより、焦点検出バラツキ3σが小さい焦点検出ラインを選ぶことが可能となる。この結果、画面全体に存在する複数の焦点検出ラインから精度の高い適切な焦点検出結果が得られる焦点検出ラインを選択することができ、焦点検出精度の向上を図ることができる。 When the focus detection line is selected according to the S level of this embodiment, a positive correlation is established between the focus detection variation 3σ and the S level, and the plot data is distributed on a straight line that rises to the right. Yes. The spread of the distribution is also considerably smaller than the examples shown in FIGS. That is, by selecting the focus detection line with the smallest S level as the specific focus detection line, it is possible to select the focus detection line with the small focus detection variation 3σ. As a result, it is possible to select a focus detection line that can obtain an appropriate focus detection result with high accuracy from a plurality of focus detection lines existing on the entire screen, and it is possible to improve focus detection accuracy.
なお、本実施例での演算回路40の動作は、図20に示したフローチャートのうち、ステップ201〜203を削除し、ステップ204,205にて、21個のすべての焦点検出ラインでの焦点検出結果とSレベル値の算出とを行えばよい。そして、ステップ206にて、21個の焦点検出ラインから最もSレベル値が小さい焦点検出ラインを特定焦点検出ラインとして選択すればよい。 Note that the operation of the arithmetic circuit 40 in this embodiment is performed by deleting steps 201 to 203 in the flowchart shown in FIG. 20 and performing focus detection on all 21 focus detection lines in steps 204 and 205. The result and the S level value may be calculated. In step 206, the focus detection line having the smallest S level value may be selected as the specific focus detection line from the 21 focus detection lines.
また、このように特定焦点検出ラインの選択対象を全焦点検出ラインとした場合でも、実施例2,3にて説明したように3つのパラメータのみを用いてSレベルを算出し、該Sレベルを用いて特定焦点検出ラインを選択するようにしてもよい。 Further, even when the selection target of the specific focus detection line is the all-focus detection line as described above, the S level is calculated using only three parameters as described in the second and third embodiments, and the S level is calculated. It may be used to select a specific focus detection line.
また、上記各実施例で説明した一致度U、エッジ数(ΔV)、シャープネスSHおよび明暗比PBDの算出方法は例にすぎず、各パラメータと同じ意味を持った他の算出方法により得られた値を用いてもよい。また、Sレベルについても、実施例で説明した算出方法は例にすぎず、他の算出方法を用いて算出してもよい。 In addition, the calculation method of the degree of coincidence U, the number of edges (ΔV), the sharpness SH, and the light / dark ratio PBD described in the above embodiments is merely an example, and is obtained by another calculation method having the same meaning as each parameter. A value may be used. In addition, the calculation method described in the embodiment is only an example for the S level, and may be calculated using another calculation method.
さらに、上記各実施例では、一眼レフデジタルカメラについて説明したが、本発明は、レンズ一体型のカメラや交換レンズ等の他の光学機器に焦点検出装置を搭載する場合にも適用することができる。 Further, in each of the above embodiments, a single-lens reflex digital camera has been described. However, the present invention can also be applied to a case where the focus detection device is mounted on another optical device such as a lens-integrated camera or an interchangeable lens. .
1 撮影光学系
2 主ミラー
3 サブミラー
4 撮像素子
7 フィールドレンズ
8 保持部材
10 偏心カム
11 IR−CUTフィルター
12 折り返しミラー
13 絞り
14 再結像レンズ
14−1A〜14−7B 再結像レンズのレンズ部
16 センサホルダー
17 焦点検出センサ
20 焦点検出装置
21 シャッタ
22 光学ローパスフィルター
24 撮影範囲
L1〜L21 焦点検出ライン
L1A〜L21B 焦点検出センサ上の受光部
DESCRIPTION OF SYMBOLS 1 Image pick-up optical system 2 Main mirror 3 Sub mirror 4 Image pick-up element 7 Field lens 8 Holding member 10 Eccentric cam 11 IR-CUT filter 12 Folding mirror 13 Aperture 14 Re-imaging lens 14-1A-14-7B Lens part of a re-imaging lens DESCRIPTION OF SYMBOLS 16 Sensor holder 17 Focus detection sensor 20 Focus detection apparatus 21 Shutter 22 Optical low-pass filter 24 Shooting range L1-L21 Focus detection line L1A-L21B Light-receiving part on a focus detection sensor
Claims (7)
前記複数の焦点検出視野のうち特定焦点検出視野に対応する一対の受光部からの信号に基づいて焦点調節に用いる焦点検出情報を生成する演算手段とを有し、
前記演算手段は、前記焦点検出視野ごとに演算した、前記一対の物体像の一致度と、前記一対の物体像の相対位置関係を合焦状態から所定の受光画素数分シフトさせた場合の相関量の変化量と、前記一対の物体像のシャープネスと、前記一対の物体像の明暗比とをパラメータとした評価値に基づいて、前記特定焦点検出視野を選択し、
前記評価値は、前記一致度をU、前記相関量の変化量をΔV、前記シャープネスをSH、前記明暗比をPBDとしたときに、以下の式で表されることを特徴とする焦点検出装置。
評価値=U/(ΔV×SH×PBD) A sensor having a plurality of pairs of light receiving units corresponding to a plurality of focus detection fields, and photoelectrically converting a pair of object images formed on each pair of light receiving units;
Calculation means for generating focus detection information used for focus adjustment based on signals from a pair of light receiving units corresponding to a specific focus detection field among the plurality of focus detection fields,
The calculation means calculates the degree of coincidence between the pair of object images and the relative positional relationship between the pair of object images calculated for each focus detection field of view and a correlation when the predetermined number of light receiving pixels are shifted from the focused state. The specific focus detection field of view is selected based on an evaluation value using the amount of change in amount, the sharpness of the pair of object images, and the contrast ratio of the pair of object images as parameters ,
The evaluation value is expressed by the following equation when the degree of coincidence is U, the amount of change in the correlation amount is ΔV, the sharpness is SH, and the contrast ratio is PBD. .
Evaluation value = U / (ΔV × SH × PBD)
明暗比=(PEAK−BOTTOM)/(PEAK−DARK) The light / dark ratio of the subject image is expressed by the following equation, where PEAK is the peak value of the pixel output of the light receiving unit, BOTTOM is the bottom value of the pixel output, and DARK is the dark value. Item 4. The focus detection apparatus according to Item 1 .
Light / dark ratio = (PEAK-BOTTOM) / (PEAK-DARK)
前記複数の焦点検出視野のうち特定焦点検出視野に対応する一対の受光部からの信号に基づいて焦点調節に用いる焦点検出情報を生成する第2のステップとを有し、
前記第2のステップにおいて、前記焦点検出視野ごとに演算した、前記一対の物体像の一致度と、前記一対の物体像の相対位置関係を合焦状態から所定の受光画素数分シフトさせた場合の相関量の変化量と、前記一対の物体像のシャープネスと、前記一対の物体像の明暗比とをパラメータとした評価値に基づいて、前記特定焦点検出視野を選択し、
前記評価値は、前記一致度をU、前記相関量の変化量をΔV、前記シャープネスをSH、前記明暗比をPBDとしたときに、以下の式で表されることを特徴とする焦点検出方法。
評価値=U/(ΔV×SH×PBD) A first step of obtaining a signal from a sensor having a plurality of pairs of light receiving units corresponding to a plurality of focus detection fields, and photoelectrically converting a pair of object images formed on each pair of light receiving units;
A second step of generating focus detection information used for focus adjustment based on signals from a pair of light receiving units corresponding to a specific focus detection field among the plurality of focus detection fields;
In the second step, when the degree of coincidence of the pair of object images and the relative positional relationship between the pair of object images calculated for each focus detection field of view are shifted from the focused state by a predetermined number of light receiving pixels. The specific focus detection field of view is selected based on the evaluation value using the amount of change in the correlation amount, the sharpness of the pair of object images, and the contrast ratio of the pair of object images as parameters ,
The focus detection method is characterized in that the evaluation value is expressed by the following equation when the degree of coincidence is U, the amount of change in the correlation amount is ΔV, the sharpness is SH, and the contrast ratio is PBD. .
Evaluation value = U / (ΔV × SH × PBD)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005235450A JP4773767B2 (en) | 2005-08-15 | 2005-08-15 | FOCUS DETECTION DEVICE, OPTICAL DEVICE, AND FOCUS DETECTION METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005235450A JP4773767B2 (en) | 2005-08-15 | 2005-08-15 | FOCUS DETECTION DEVICE, OPTICAL DEVICE, AND FOCUS DETECTION METHOD |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007052072A JP2007052072A (en) | 2007-03-01 |
JP2007052072A5 JP2007052072A5 (en) | 2008-09-25 |
JP4773767B2 true JP4773767B2 (en) | 2011-09-14 |
Family
ID=37916587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005235450A Expired - Fee Related JP4773767B2 (en) | 2005-08-15 | 2005-08-15 | FOCUS DETECTION DEVICE, OPTICAL DEVICE, AND FOCUS DETECTION METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4773767B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5159205B2 (en) * | 2007-08-07 | 2013-03-06 | キヤノン株式会社 | Focus detection device and control method thereof |
JP5822456B2 (en) * | 2010-11-19 | 2015-11-24 | キヤノン株式会社 | Single-lens reflex camera |
JP5852371B2 (en) * | 2011-09-01 | 2016-02-03 | キヤノン株式会社 | Imaging apparatus and control method thereof |
JP6049333B2 (en) | 2011-10-14 | 2016-12-21 | キヤノン株式会社 | FOCUS DETECTION DEVICE AND FOCUS DETECTION DEVICE CONTROL METHOD |
JP5627652B2 (en) | 2012-06-06 | 2014-11-19 | キヤノン株式会社 | Imaging apparatus and control method thereof, and lens apparatus and control method thereof |
JP6045214B2 (en) | 2012-06-19 | 2016-12-14 | キヤノン株式会社 | Focus adjustment apparatus and control method thereof |
WO2015045704A1 (en) * | 2013-09-27 | 2015-04-02 | 富士フイルム株式会社 | Imaging device and focusing control method |
JP6512989B2 (en) | 2015-08-04 | 2019-05-15 | キヤノン株式会社 | Focus detection apparatus and method, and imaging apparatus |
JP7405678B2 (en) * | 2020-04-01 | 2023-12-26 | 株式会社Screenホールディングス | Focus position detection method, focus position detection device, and focus position detection program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0246416A (en) * | 1988-08-06 | 1990-02-15 | Canon Inc | Focus detector |
JPH0894916A (en) * | 1994-09-28 | 1996-04-12 | Nikon Corp | Focus detector |
JPH0961702A (en) * | 1995-08-30 | 1997-03-07 | Minolta Co Ltd | Range-finding system and autofocusing camera |
JP4208304B2 (en) * | 1998-08-31 | 2009-01-14 | キヤノン株式会社 | Focus detection device, focus adjustment device, and camera |
JP2003344753A (en) * | 2002-05-28 | 2003-12-03 | Canon Inc | Focus detecting device and control method thereof, and imaging unit equipped with the focus detecting device |
JP4208510B2 (en) * | 2002-07-18 | 2009-01-14 | キヤノン株式会社 | Focusing device |
-
2005
- 2005-08-15 JP JP2005235450A patent/JP4773767B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007052072A (en) | 2007-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4773767B2 (en) | FOCUS DETECTION DEVICE, OPTICAL DEVICE, AND FOCUS DETECTION METHOD | |
JP4984491B2 (en) | Focus detection apparatus and optical system | |
JP5168798B2 (en) | Focus adjustment device and imaging device | |
JP5169499B2 (en) | Imaging device and imaging apparatus | |
US8634015B2 (en) | Image capturing apparatus and method and program for controlling same | |
JP5168797B2 (en) | Imaging device | |
JP4972960B2 (en) | Focus adjustment device and imaging device | |
WO2010131436A1 (en) | Distance measuring device and image pickup device | |
JP4054422B2 (en) | Camera and interchangeable lens device | |
JP5641771B2 (en) | Focus detection device | |
JP2009198771A (en) | Focus detector and imaging device | |
JP6854619B2 (en) | Focus detection device and method, imaging device, lens unit and imaging system | |
JP5157073B2 (en) | Focus adjustment device and imaging device | |
JP2016200629A (en) | Image pickup apparatus, and control method, and program for the same | |
US12105404B2 (en) | Lens apparatus, image pickup apparatus, control method of lens apparatus, and storage medium | |
JP6131721B2 (en) | Focus detection device and focus adjustment device | |
JP5409588B2 (en) | Focus adjustment method, focus adjustment program, and imaging apparatus | |
JP2006065080A (en) | Imaging device | |
JP4598372B2 (en) | 3D field for calibration, 3D field for calibration | |
JP4938922B2 (en) | Camera system | |
JP5444928B2 (en) | Photometric device and imaging device | |
JP2016024338A (en) | Imaging device | |
JP6237858B2 (en) | Focus detection apparatus and imaging apparatus | |
JP2007148242A (en) | Focusing controller, and imaging apparatus | |
JPH0713699B2 (en) | Projection system for automatic focus detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080805 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110208 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110621 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110624 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140701 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |