JP5159205B2 - Focus detection device and control method thereof - Google Patents

Focus detection device and control method thereof Download PDF

Info

Publication number
JP5159205B2
JP5159205B2 JP2007205405A JP2007205405A JP5159205B2 JP 5159205 B2 JP5159205 B2 JP 5159205B2 JP 2007205405 A JP2007205405 A JP 2007205405A JP 2007205405 A JP2007205405 A JP 2007205405A JP 5159205 B2 JP5159205 B2 JP 5159205B2
Authority
JP
Japan
Prior art keywords
focus detection
imaging lens
vignetting
correction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007205405A
Other languages
Japanese (ja)
Other versions
JP2009042370A (en
Inventor
英之 浜野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007205405A priority Critical patent/JP5159205B2/en
Publication of JP2009042370A publication Critical patent/JP2009042370A/en
Application granted granted Critical
Publication of JP5159205B2 publication Critical patent/JP5159205B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本願技術思想は、瞳領域の異なる個所を通過した像の位相差に基づいて撮像光学系を制御する焦点検出技術に好適である。   The technical idea of the present application is suitable for a focus detection technique for controlling an imaging optical system based on a phase difference between images that have passed through different parts of the pupil region.

従来より、焦点検出装置における焦点検出方法として、いわゆる像ずれ方式の焦点検出装置が知られている。この方式の精度向上は、比較すべき2つの光学像が単に横ずれしているだけの同一形状の像であることを求めている。焦点検出に用いる光束の撮影レンズによるケラレにより、比較すべき光学像が、異なる形状をしていると焦点検出結果の精度悪化を引き起こすからである。このため、焦点検出に用いる光束は撮影レンズによるケラレが発生しないよう、撮影レンズ光学系の口径比に制約を設けたり、焦点検出を行う領域の配置に制約を設けるといったことが必要であった。   Conventionally, a so-called image shift type focus detection apparatus is known as a focus detection method in a focus detection apparatus. The improvement in accuracy of this method requires that the two optical images to be compared are images of the same shape that are merely laterally shifted. This is because if the optical images to be compared have different shapes due to the vignetting of the light flux used for focus detection by the taking lens, the accuracy of the focus detection result is deteriorated. For this reason, it has been necessary to limit the aperture ratio of the photographic lens optical system and to limit the arrangement of the focus detection area so that the light flux used for focus detection does not cause vignetting by the photographic lens.

また、焦点検出に用いる光束のケラレによる像信号の劣化に対して、像信号のハイパスフィルター処理を施すことの有効性が知られている。例えば、特許文献1である。しかし、このケラレ対策は、人物の顔のような低周波成分を有する被写体に対しては、焦点検出能力が低いという問題があった。このケラレ対策は、焦点検出装置が出力する電気信号の低周波成分を排除するためである。したがって、この方法は、焦点検出に用いる光束の微小なケラレの悪影響を除去するところに有効であった。   In addition, it is known that the high-pass filter processing of the image signal is effective for the deterioration of the image signal due to the vignetting of the light beam used for focus detection. For example, it is patent document 1. FIG. However, this vignetting countermeasure has a problem that the focus detection capability is low for a subject having a low frequency component such as a human face. This vignetting countermeasure is to eliminate low frequency components of the electrical signal output from the focus detection device. Therefore, this method is effective in removing the adverse effects of minute vignetting of the light beam used for focus detection.

一方で、焦点検出に用いる光束のケラレによる像信号の劣化に対して、2つの光学像を比較し、その比較結果に基づいて前記2つの像のうちの少なくとも一方の像を補正し、補正された像信号に対して相関演算を行うことの有効性がしられている。例えば、特許文献2である。   On the other hand, two optical images are compared against image signal degradation due to vignetting of a light beam used for focus detection, and at least one of the two images is corrected based on the comparison result. It is effective to perform a correlation operation on the obtained image signal. For example, it is patent document 2. FIG.

また、ケラレが発生した光学像の補正方法として、撮影レンズの射出瞳の形状、および位置から補正量を算出するものが知られている。例えば、特許文献3である。
特開平7−318793号公報 特開2002−14277号公報 特開平3−214133号公報
As a method for correcting an optical image in which vignetting has occurred, a method for calculating a correction amount from the shape and position of the exit pupil of a photographing lens is known. For example, it is patent document 3. FIG.
JP 7-318793 A JP 2002-14277 A JP-A-3-214133

しかしながら、上記特許文献2に記載の焦点検出に用いる光束のケラレ対策は、被写体が複雑な輝度分布を持つ場合や、光学像が、遠近様々な距離の被写体を含む場合には、正確なケラレの状態を検出できず、誤差の大きい焦点検出結果を算出する場合があった。上記特許文献2に記載の焦点検出に用いる光束のケラレ対策は、ケラレの状態を光学像を受光した受光素子の出力から求めているためである。   However, the countermeasure against the vignetting of the light beam used for focus detection described in Patent Document 2 described above is accurate vignetting when the subject has a complicated luminance distribution or the optical image includes subjects at various distances. In some cases, the state cannot be detected, and a focus detection result with a large error is calculated. The countermeasure against the vignetting of the light beam used for focus detection described in Patent Document 2 is because the vignetting state is obtained from the output of the light receiving element that receives the optical image.

また、特許文献3に記載の光学像の補正方法は、撮影レンズや撮像装置の製造誤差や経年変化による光学像のケラレ量の変化には対応できず、焦点検出結果のばらつきが大きくなったりという課題があった。特許文献3に記載の光学像の補正方法は、使用する撮影レンズの情報により補正量を決定するためである。   Further, the optical image correction method described in Patent Document 3 cannot cope with a change in the amount of vignetting of an optical image due to a manufacturing error of a photographing lens or an imaging device or a secular change, and a variation in focus detection results increases. There was a problem. The optical image correction method described in Patent Document 3 is for determining a correction amount based on information of a photographing lens to be used.

本願技術思想は、撮像レンズの射出瞳の異なる領域を通過した対の光束による光学像の位相差に基づいて、前記撮像レンズを制御する焦点検出装置であって、前記撮像レンズのレンズ種別情報および焦点距離情報に応じてケラレの補正を行う場合と行わない場合とがある補正手段と、前記補正手段によってケラレの補正が行われたとき、当該ケラレの補正後の像信号の像の一致度から当該ケラレの補正の適否を相関演算を行う前に判定し、像の一致度が高いときには当該像信号から相関演算により得られた位相差に基づいて前記撮像レンズを制御する一方、像の一致度が低いときには当該像信号に基づく撮影レンズの制御を行わない制御手段とを有する。
The technical idea of the present application is a focus detection device that controls the imaging lens based on a phase difference of an optical image by a pair of light beams that have passed through different areas of an exit pupil of the imaging lens, the lens type information of the imaging lens and The correction means that may or may not correct vignetting according to the focal length information, and when the vignetting correction is performed by the correction means, the degree of coincidence of the image signals after the vignetting correction Whether or not to correct the vignetting is determined before performing the correlation calculation, and when the matching degree of the image is high, the imaging lens is controlled based on the phase difference obtained by the correlation calculation from the image signal. Control means for not controlling the photographing lens based on the image signal.

本発明によれば、像信号の補正を行っても、焦点検出結果の信頼性の損失を低減することができる。   According to the present invention, it is possible to reduce the loss of reliability of the focus detection result even if the image signal is corrected.

(実施例1)
実施例1は、本発明の焦点検出装置を、レンズ交換可能な一眼レフタイプのデジタルカメラに適用した例である。図1は、本発明の焦点検出装置を内蔵した一眼レフカメラの中央断面図である。
Example 1
The first embodiment is an example in which the focus detection apparatus of the present invention is applied to a single-lens reflex digital camera with interchangeable lenses. FIG. 1 is a central sectional view of a single-lens reflex camera incorporating a focus detection device of the present invention.

図中、200は一眼レフカメラ本体、201は撮像レンズで、Lは撮像レンズ201の光軸である。撮像レンズ201の予定結像面付近には、光学ローパスフィルタや赤外カットフィルタ、さらには撮像素子を含む撮像素子ユニット204が配置される。撮像レンズ201と撮像素子ユニット204には、周知のクイックリターン機構により撮像の際には撮像光束外へ退避するメインミラー202とサブミラー203が配置される。メインミラー202はハーフミラーで、撮像光束は上方のファインダ光学系に導かれる反射光とサブミラー203に入射する透過光に分離される。反射光は、マット面とフレネル面を備えるピント板205のマット面上に結像し、ペンタプリズム206、接眼レンズ群207を介して観察者の目に導かれる。一方、透過光はサブミラー203により下方へ光路を変更し、本発明の焦点検出装置208に導かれる。   In the figure, 200 is a single-lens reflex camera body, 201 is an imaging lens, and L is an optical axis of the imaging lens 201. An image sensor unit 204 including an optical low-pass filter, an infrared cut filter, and an image sensor is disposed near the planned imaging plane of the image lens 201. The imaging lens 201 and the imaging element unit 204 are provided with a main mirror 202 and a sub mirror 203 that are retracted out of the imaging light beam when imaging by a known quick return mechanism. The main mirror 202 is a half mirror, and the imaging light flux is separated into reflected light guided to the upper finder optical system and transmitted light incident on the sub mirror 203. The reflected light forms an image on the mat surface of the focusing plate 205 having the mat surface and the Fresnel surface, and is guided to the eyes of the observer through the pentaprism 206 and the eyepiece lens group 207. On the other hand, the transmitted light changes its optical path downward by the sub mirror 203 and is guided to the focus detection device 208 of the present invention.

次に、図1で説明したカメラが有する焦点検出装置について説明する。図2は、本発明の焦点検出装置208の斜視図で、測距原理としては位相差方式焦点検出を用いている。なお、実際の焦点検出装置は反射ミラーなどにより光路を折りたたむことによりコンパクト化しているが、図の煩雑さをなくすためストレートに展開した図となっている。   Next, the focus detection apparatus included in the camera described in FIG. 1 will be described. FIG. 2 is a perspective view of the focus detection apparatus 208 of the present invention, and uses phase difference focus detection as a distance measurement principle. Although the actual focus detection apparatus is made compact by folding the optical path with a reflecting mirror or the like, the figure is developed straight to eliminate the complexity of the figure.

210は視野マスクで、中央部とその左右に十字型の開口部210a、210b、210cを有している。この視野マスク210は、撮像レンズ201の予定結像面、撮像素子ユニット204の撮像面と等価な位置近傍に配置される。211はフィールドレンズで、視野マスク210の後方に配置している。このフィールドレンズ211は光学作用を異にする複数のレンズ部211a、211b、211cから成っており、各レンズ部は互いに異なるレンズ光軸を有している。また、レンズ部211a、211b、211cは視野マスク210の開口部210a、210b、210cにそれぞれ対応している。   A field mask 210 has a central portion and cross-shaped openings 210a, 210b, and 210c on the left and right sides thereof. The field mask 210 is disposed in the vicinity of a position equivalent to the planned imaging plane of the imaging lens 201 and the imaging plane of the imaging element unit 204. A field lens 211 is disposed behind the field mask 210. The field lens 211 includes a plurality of lens portions 211a, 211b, and 211c having different optical actions, and each lens portion has a different lens optical axis. The lens portions 211a, 211b, and 211c correspond to the openings 210a, 210b, and 210c of the field mask 210, respectively.

212は複数の開口部を有する絞りで、213は絞り212の複数の開口部に対応するレンズ部を備える2次結像レンズユニット(結像レンズユニット)である。この2次結像レンズユニット213は対物レンズ201によって結像された予定結像面上の物体像をその後方に配置された受光素子215の受光素子列上に再結像する。なお、絞り212の直前付近には焦点検出に不要な赤外波長成分を除去する赤外カットフィルタが配置されるが省略してある。   Reference numeral 212 denotes a stop having a plurality of openings, and reference numeral 213 denotes a secondary image forming lens unit (image forming lens unit) having lens portions corresponding to the plurality of openings of the stop 212. The secondary imaging lens unit 213 re-images the object image on the planned imaging surface imaged by the objective lens 201 on the light receiving element array of the light receiving elements 215 arranged behind the object image. An infrared cut filter that removes an infrared wavelength component unnecessary for focus detection is disposed in the vicinity of the stop 212, but is omitted.

図3〜図5は、図2における斜視図中の各部材の平面図である。このうち、図3は絞り212を視野マスク210側から見た平面図である。また、図4(A)は2次結像レンズユニット213の入射面側を見た平面図である。また、図4(B)は2次結像レンズユニット213の射出面側を見た平面図である。また、図5は受光素子215を視野マスク210側から見た平面図それぞれ示している。   3 to 5 are plan views of members in the perspective view of FIG. Among these, FIG. 3 is a plan view of the diaphragm 212 as viewed from the field mask 210 side. FIG. 4A is a plan view of the incident surface side of the secondary imaging lens unit 213 as viewed. FIG. 4B is a plan view of the exit surface side of the secondary imaging lens unit 213. FIG. 5 is a plan view of the light receiving element 215 viewed from the field mask 210 side.

図3において、絞り212は中央部に2組の対の開口部212a−1と212a−2、212a−3と212a−4を有する。そして、右側には2組の対の開口部212b−1と212b−2、212b−3と212b−4を、左側には2組の対の開口部212c−1と212c−2、212c−3と212c−4をそれぞれ有する。   In FIG. 3, the diaphragm 212 has two pairs of openings 212a-1 and 212a-2 and 212a-3 and 212a-4 at the center. Two pairs of openings 212b-1 and 212b-2, 212b-3 and 212b-4 are on the right side, and two pairs of openings 212c-1 and 212c-2, 212c-3 are on the left side. And 212c-4, respectively.

図4(A)において、2次結像レンズユニット213の入射面側には図3絞り開口部に対応するプリズム部が形成されている。したがって、絞り212と同様に、中央部には2組の対のプリズム部213a−1と213a−2、213a−3と213a−4が形成される。また、右側には2組の対の開口部213b−1と213b−2、213b−3と213b−4を、左側には2組の対の開口部213c−1と213c−2、213c−3と213c−4がそれぞれ形成される。   4A, a prism portion corresponding to the aperture of FIG. 3 is formed on the incident surface side of the secondary imaging lens unit 213. In FIG. Therefore, like the diaphragm 212, two pairs of prism portions 213a-1 and 213a-2, 213a-3 and 213a-4 are formed in the central portion. Two pairs of openings 213b-1, 213b-2, 213b-3, and 213b-4 are on the right side, and two pairs of openings 213c-1, 213c-2, and 213c-3 are on the left side. And 213c-4 are formed respectively.

図4(B)において、2次結像レンズユニット213の射出面側には図4(A)のプリズム部に対応して球面からなるレンズ部が形成されている。同様に、中央部には2組の対のレンズ部214a−1と214a−2、214a−3と214a−4が形成される。また、右側には2組の対の開口部214b−1と214b−2、214b−3と214b−4を、左側には2組の対の開口部214c−1と214c−2、214c−3と214c−4がそれぞれ形成される。   In FIG. 4B, a spherical lens portion is formed on the exit surface side of the secondary imaging lens unit 213 corresponding to the prism portion of FIG. Similarly, two pairs of lens portions 214a-1 and 214a-2 and 214a-3 and 214a-4 are formed in the central portion. Also, two pairs of openings 214b-1 and 214b-2, 214b-3 and 214b-4 are on the right side, and two pairs of openings 214c-1, 214c-2 and 214c-3 are on the left side. And 214c-4 are formed respectively.

図5において、受光素子215には図4(B)のレンズ部に対応した受光素子列が形成されている。同様に、中央部には2組の対の受光素子列215a−1と215a−2、215a−3と215a−4が形成される。また、右側には2組の対の開口部215b−1と215b−2、215b−3と215b−4を、左側には2組の対の開口部215c−1と215c−2、215c−3と215c−4がそれぞれ形成される。   In FIG. 5, the light receiving element 215 is formed with a light receiving element array corresponding to the lens portion of FIG. Similarly, two pairs of light receiving element arrays 215a-1 and 215a-2, 215a-3 and 215a-4 are formed in the central portion. Two pairs of openings 215b-1 and 215b-2, 215b-3 and 215b-4 are shown on the right side, and two pairs of openings 215c-1 and 215c-2 and 215c-3 are shown on the left side. And 215c-4 are formed.

なお、図3〜5の各部材の添え字a、b、cは視野マスク210の開口部とフィールドレンズ211のレンズ部にそれぞれ対応している。例えば視野マスク開口部210bを通過した光束はフィールドレンズ211bを通過し、2組の対の絞り開口部212b−1と212b−2、212b−3と212b−4を通過することで4つの光束に分離される。そして、4つの光束は、それぞれ2次結像レンズユニット213の2組の対のプリズム部213b−1と213b−2、213b−3と213b−4に入射する。そして、2組の対のレンズ部214b−1と214b−2、214b−3と214b−4から射出する。そして、受光素子215の2組の対の受光素子列部215b−1と215b−2、215b−3と215b−4上に視野マスク開口部210bに対応した4つの光学像が形成される。 図5に点線で示す4つの十字形216−1、216−2、216−3、216−4はそれぞれの光学像を示し、光学像216−1と216−2、光学像216−3と216−4がそれぞれ対となる。   3 to 5 correspond to the opening portion of the field mask 210 and the lens portion of the field lens 211, respectively. For example, the light beam that has passed through the field mask opening 210b passes through the field lens 211b, and passes through two pairs of aperture openings 212b-1 and 212b-2, and 212b-3 and 212b-4, thereby forming four light beams. To be separated. The four light beams are incident on two pairs of prism portions 213b-1, 213b-2, 213b-3, and 213b-4 of the secondary imaging lens unit 213, respectively. And it inject | emits from two sets of lens parts 214b-1 and 214b-2, 214b-3 and 214b-4. Then, four optical images corresponding to the field mask opening 210b are formed on the two pairs of light receiving element arrays 215b-1, 215b-2, 215b-3, and 215b-4 of the light receiving element 215. Four crosses 216-1, 216-2, 216-3, and 216-4 indicated by dotted lines in FIG. 5 indicate respective optical images, and optical images 216-1 and 216-2, and optical images 216-3 and 216, respectively. -4 is a pair.

以上説明したような構成の焦点検出装置において、撮像レンズ201の予定結像面に対するデフォーカスに伴い、対の光学像内部にある光学像が互いに近づくかあるいは遠ざかる方向に移動する。   In the focus detection apparatus having the above-described configuration, the optical images in the pair of optical images move toward or away from each other as the imaging lens 201 defocuses on the planned imaging plane.

例えば、対の光学像216−1と216−2内部の光学像は上下方向に移動し、図5に示すように受光素子列を上下方向に並べることによって、この移動を検出する。すなわち、この光学像に関する光量分布を受光素子列215b−1と215b−2の出力に基づいて検出する。この光量分布に周知の相関演算手段を用いて演算することで、撮像レンズ201に伴う対の光学像間隔の合焦時にたいする変化量を求める。   For example, the optical images inside the pair of optical images 216-1 and 216-2 move in the vertical direction, and this movement is detected by arranging the light receiving element rows in the vertical direction as shown in FIG. That is, the light quantity distribution relating to this optical image is detected based on the outputs of the light receiving element arrays 215b-1 and 215b-2. By calculating the light quantity distribution using a well-known correlation calculation means, the amount of change with respect to the distance between the pair of optical images associated with the imaging lens 201 is obtained.

対の光学像間隔の変化量を知ることができれば、この変化量と撮像レンズ201のデフォーカス量の関係をあらかじめ変化量を変数とした多項式などで近似しておくことで、撮像レンズ201のデフォーカス量を予測することができる。そして、撮像レンズ201の焦点検出を行うことが可能となる。なお、受光素子列215b−3と215b−4の場合は、上記説明の上下方向が左右方向に変わるのみで、基本的な作用は同様である。   If the amount of change in the optical image interval of the pair can be known, the relationship between the amount of change and the defocus amount of the imaging lens 201 is approximated in advance by a polynomial or the like using the amount of change as a variable. The amount of focus can be predicted. Then, focus detection of the imaging lens 201 can be performed. In the case of the light receiving element arrays 215b-3 and 215b-4, the basic operation is the same except that the vertical direction described above is changed to the horizontal direction.

対の受光素子列215−1と215b−2は上下方向に受光素子が並んでいるため上下方向にコントラスト成分を有する被写体の焦点検出に適する。一方、受光素子列215b−3と215b−4は左右方向に受光素子が並んでいるため左右方向にコントラスト成分を有する被写体の焦点検出に適している。そして、両者を合わせると被写体のコントラスト成分方向に左右されない、いわゆるクロス型の焦点検出を行うこととなる。   The pair of light receiving element arrays 215-1 and 215b-2 are suitable for focus detection of a subject having a contrast component in the vertical direction because the light receiving elements are arranged in the vertical direction. On the other hand, the light receiving element arrays 215b-3 and 215b-4 are suitable for focus detection of a subject having a contrast component in the left and right direction because the light receiving elements are arranged in the left and right direction. When both are combined, so-called cross-type focus detection is performed that is not affected by the direction of the contrast component of the subject.

なお、上記説明は添え字bに関する部分のみを説明したが、添え字a、cについても同様である。   In the above description, only the part relating to the subscript b has been described, but the same applies to the subscripts a and c.

図6は、受光素子215の各受光素子列を視野マスク210上に逆投影した図である。なお、視野マスクは撮像レンズ201の予定結像面付近に配置されるので、図6は予定結像面と考えても問題ない。図において、視野マスク210よりひと回り大きな点線で示す長方形は撮像レンズ201による撮像範囲で、3つの視野マスク開口部内には、十字形で示される受光素子列の逆投影像218a、218b、218c、219a、219b、219cが形成されている。対の受光素子列は予定結像面上では一致するため重ねて表示されている。そして、逆投影像218a、218b、218c、219a、219b、219cは受光素子列であるため、この十字領域において被写体の光量分布を検出することができる。すなわち、これら逆投影像がいわゆるクロス型の焦点検出領域となる。本実施例ではクロス型の焦点検出領域を図6のように撮像範囲217の中央部と軸外2箇所の計3箇所を備え、この焦点検出領域にかかる被写体の焦点検出を行うことができる。そして、クロス型の焦点検出領域は、その広がり方向が直交する2方向であるため、被写体のコントラスト成分方向に左右されず、ほとんどの被写体での焦点検出を可能とする。   FIG. 6 is a diagram in which each light receiving element row of the light receiving element 215 is back projected onto the field mask 210. Since the field mask is disposed in the vicinity of the planned imaging plane of the imaging lens 201, there is no problem even if FIG. 6 is considered as the planned imaging plane. In the drawing, a rectangle indicated by a dotted line that is slightly larger than the field mask 210 is an imaging range by the imaging lens 201, and back projection images 218a, 218b, 218c, and 219a of light receiving element arrays indicated by crosses are formed in three field mask openings. 219b and 219c are formed. Since the pair of light receiving element arrays coincide on the planned imaging plane, they are displayed in an overlapping manner. Since the back-projected images 218a, 218b, 218c, 219a, 219b, and 219c are light receiving element arrays, the light amount distribution of the subject can be detected in this cross area. That is, these back-projected images become a so-called cross-type focus detection region. In this embodiment, the cross-type focus detection area is provided with a total of three places, that is, the center of the imaging range 217 and two off-axis positions as shown in FIG. 6, and the focus detection of the subject in this focus detection area can be performed. The cross-type focus detection area has two directions in which the spreading directions are orthogonal to each other, so that focus detection can be performed on most subjects regardless of the contrast component direction of the subject.

次に、焦点検出装置208の受光素子215の各受光素子列に到達する光束と撮像レンズ201を透過する光束の関係について図7から図11を用いて説明する。   Next, the relationship between the light beam that reaches each light receiving element array of the light receiving element 215 of the focus detection device 208 and the light beam that passes through the imaging lens 201 will be described with reference to FIGS.

図7は、撮像レンズ201と焦点検出装置208をストレートに展開した上面図で、視野マスク210と撮像レンズ201の光軸Lとの交点を通る光束を図示したものである。図7では、説明を容易にするため、絞り212、2次結像レンズユニット213を一部のみ示している。   FIG. 7 is a top view in which the imaging lens 201 and the focus detection device 208 are straightly developed, and illustrates the light flux passing through the intersection of the field mask 210 and the optical axis L of the imaging lens 201. FIG. 7 shows only a part of the aperture 212 and the secondary imaging lens unit 213 for ease of explanation.

201a、201b、201cは、撮像レンズ201を構成するレンズである。201dは、撮像レンズ201を通る光束の径を調整する撮像レンズ絞りである。201e、201fは、撮像レンズ201を保持する前枠部材、後枠部材である。   Reference numerals 201 a, 201 b, and 201 c are lenses that constitute the imaging lens 201. Reference numeral 201d denotes an imaging lens diaphragm that adjusts the diameter of a light beam passing through the imaging lens 201. Reference numerals 201e and 201f denote a front frame member and a rear frame member that hold the imaging lens 201, respectively.

図7では、視野マスク210と撮像レンズ201の光軸Lとの交点を通る光束は、視野レンズ絞り201dによって決められている。よって、本発明の焦点検出装置208では、絞り212の開口部212a−3、212a−4が、撮像レンズ絞り201d上に逆投影された領域を通る光束が受光素子215に到達する。   In FIG. 7, the light flux passing through the intersection of the field mask 210 and the optical axis L of the imaging lens 201 is determined by the field lens stop 201d. Therefore, in the focus detection device 208 of the present invention, the light beam that passes through the region where the openings 212a-3 and 212a-4 of the stop 212 are back projected onto the imaging lens stop 201d reaches the light receiving element 215.

図8は、撮像レンズ絞り201d上に、視野マスク210と撮像レンズ201の光軸Lとの交点から見た各部材の投影像を重ねたものである。300a−3、300a−4は、それぞれ絞り212の開口部212a−3、212a−4の逆投影像である。301は、撮像レンズ前枠部材201eの絞り上の撮像レンズ201a、201bによる投影像を示している。302は、撮像レンズ後枠部材201fの絞り上の撮像レンズ201cによる投影像を示している。図8のように、逆投影像300a−3、300a−4の全領域が、撮像レンズ各部材の投影像(301、302)及び撮像レンズ絞り201dの内側に含まれる場合、焦点検出に用いる光束がケラレることはない。視野マスク210と撮像レンズ201の光軸Lとの交点を通る光束は、撮像レンズ絞り201dの径によりケラレの有無が決定するが、後述する口径食の影響を受けないため、もっともケラレが発生しにくい。   FIG. 8 is a diagram in which projection images of the respective members viewed from the intersection of the field mask 210 and the optical axis L of the imaging lens 201 are superimposed on the imaging lens aperture 201d. Reference numerals 300a-3 and 300a-4 denote back-projected images of the openings 212a-3 and 212a-4 of the stop 212, respectively. Reference numeral 301 denotes a projected image by the imaging lenses 201a and 201b on the stop of the imaging lens front frame member 201e. Reference numeral 302 denotes an image projected by the imaging lens 201c on the stop of the imaging lens rear frame member 201f. As shown in FIG. 8, when the entire regions of the back-projected images 300a-3 and 300a-4 are included inside the projected images (301, 302) of the imaging lens members and the imaging lens stop 201d, the light flux used for focus detection There is no vignetting. The luminous flux that passes through the intersection of the field mask 210 and the optical axis L of the imaging lens 201 is determined by the diameter of the imaging lens aperture 201d, but is not affected by vignetting described later. Hateful.

図9は、撮像レンズ201と焦点検出装置208をストレートに展開した上面図で、視野マスク210上の受光素子の逆投影像219cの撮像レンズ光軸Lから遠い側の端点を通る光束を図示したものである。Hは、視野マスク210上の受光素子の逆投影像219cの撮像レンズ光軸Lから遠い側の端点の像高を示している。図9では、219cの端点を通る光束は、視野レンズ絞り201dによって決められておらず、図中下側の光束は、撮像レンズ前枠部材201e、上側の光束は、撮像レンズ後枠部材201fによって決められている。言い換えると、撮像レンズ絞り201dを通る光束が、撮像レンズ前枠部材201e、後枠201f部材によって遮られ、口径食が発生している。   FIG. 9 is a top view in which the imaging lens 201 and the focus detection device 208 are straightly developed, and illustrates a light flux passing through an end point far from the imaging lens optical axis L of the backprojected image 219c of the light receiving element on the field mask 210. Is. H indicates the image height of the end point far from the imaging lens optical axis L of the back projection image 219c of the light receiving element on the field mask 210. In FIG. 9, the luminous flux passing through the end point of 219c is not determined by the field lens stop 201d, the lower luminous flux in the figure is taken by the imaging lens front frame member 201e, and the upper luminous flux is taken by the imaging lens rear frame member 201f. It has been decided. In other words, the luminous flux passing through the imaging lens stop 201d is blocked by the imaging lens front frame member 201e and the rear frame 201f member, and vignetting occurs.

図10に、撮像レンズ絞り201d上に、219cの端点から見た各部材の投影像を重ねたものを示す。絞り212の開口部212c−3、212c−4が、フィールドレンズ211及び撮像レンズ201cによる撮像レンズ絞り201d上に逆投影された領域が、絞り逆投影像300c−3、300c−4である。301は、219cの端点から見た撮像レンズ前枠部材201eの投影像を示している。302は、219cの端点から見た撮像レンズ後枠部材201fの投影像を示している。ここでは、図8と異なり、像面上の像高がある位置(219cの端点)から撮像レンズ絞り201d上に、各部材を投影しているため、それぞれの投影像は、撮像レンズ絞り201dの中心に対して偏心する。図10のように、逆投影像300c−3の全領域が、撮像レンズ各部材の投影像(301、302)及び撮像レンズ絞り201dの内側に含まれる場合、受光素子列215c−3が受光する光束がケラレることはない。しかし、逆投影像300c−4は一部が、撮像レンズ前枠部材の投影像301の外側に存在する(図10中、斜線部)。この斜線部内の領域については、焦点検出に用いる光束にケラレが発生し、受光素子列215c−4の出力が低下する。   FIG. 10 shows an image obtained by superimposing projection images of the respective members viewed from the end point of 219c on the imaging lens stop 201d. The areas where the apertures 212c-3 and 212c-4 of the diaphragm 212 are back-projected onto the imaging lens diaphragm 201d by the field lens 211 and the imaging lens 201c are diaphragm back-projected images 300c-3 and 300c-4. Reference numeral 301 denotes a projected image of the imaging lens front frame member 201e viewed from the end point of 219c. Reference numeral 302 denotes a projected image of the imaging lens rear frame member 201f viewed from the end point 219c. Here, unlike FIG. 8, each member is projected onto the imaging lens aperture 201d from a position where the image height on the image plane is located (the end point of 219c), so that each projected image is the image of the imaging lens aperture 201d. Eccentric with respect to the center. As shown in FIG. 10, when the entire region of the back projection image 300c-3 is included inside the projection image (301, 302) of each member of the imaging lens and the imaging lens aperture 201d, the light receiving element array 215c-3 receives light. The luminous flux is not vignetted. However, a part of the back projection image 300c-4 exists outside the projection image 301 of the imaging lens front frame member (shaded portion in FIG. 10). In the region within the shaded area, vignetting occurs in the light beam used for focus detection, and the output of the light receiving element array 215c-4 decreases.

ある撮像光学系に対する焦点検出に用いる光束のケラレの程度は、撮像レンズ201d上の各部材の投影像の偏心量、すなわち、焦点検出領域の像高Hによって決まる。つまり、焦点検出領域の像高Hが小さければ小さいほど、撮像レンズの口径食による焦点検出に用いる光速のケラレの程度は小さくなる。   The degree of vignetting of the light beam used for focus detection for a certain imaging optical system is determined by the amount of eccentricity of the projection image of each member on the imaging lens 201d, that is, the image height H of the focus detection area. In other words, the smaller the image height H of the focus detection area, the smaller the degree of vignetting of light used for focus detection by vignetting of the imaging lens.

図11に、図10のようにケラレが発生した場合に、輝度が一様な被写体に対する受光素子列215c−3、215c−4の出力を示す。横軸に各画素を像高が小さい順に配し、縦軸に各画素の出力を示した。一般的に、撮像レンズ201、及び焦点検出光学系の周辺減光、光学素子215の感度のばらつき等により、被写体の輝度が一様であっても、光学素子215の出力は不均一性が生じる。この不均一性については、撮像レンズによる焦点検出に用いる光束のケラレが無い状態で、補正量を算出しカメラ内に記憶することにより光電素子の出力補正、いわゆるシェーディング補正を行う。図11では、前記シェーディング補正を行った後の出力を図示している。   FIG. 11 shows the outputs of the light receiving element arrays 215c-3 and 215c-4 for a subject with uniform brightness when vignetting occurs as shown in FIG. The horizontal axis represents each pixel in ascending order of image height, and the vertical axis represents the output of each pixel. In general, the output of the optical element 215 is non-uniform even when the luminance of the subject is uniform due to the peripheral dimming of the imaging lens 201 and the focus detection optical system, variations in sensitivity of the optical element 215, and the like. . For this non-uniformity, the correction amount is calculated and stored in the camera in a state where there is no vignetting of the light beam used for focus detection by the imaging lens, so that output correction of the photoelectric element, so-called shading correction, is performed. FIG. 11 shows the output after the shading correction.

図11aは、受光素子列215c−3の出力である。図10では、絞り212c−3の逆投影像300c−3にケラレが発生していないため、撮像レンズの周辺光量の低下を補正することにより一定の出力が得られる。図11bは、受光素子列215c−4の出力である。図10では、撮像撮像レンズの周辺光量の低下を補正しても、焦点検出領域の像高が大きくなるにつれ、出力が低下する。絞り212c−4の逆投影像300c−4が、撮像レンズ前枠部材201eの投影像301によりケラレが発生しているためである。   FIG. 11a shows the output of the light receiving element array 215c-3. In FIG. 10, since vignetting does not occur in the back-projected image 300c-3 of the stop 212c-3, a constant output can be obtained by correcting the decrease in the amount of light around the imaging lens. FIG. 11b shows the output of the light receiving element array 215c-4. In FIG. 10, even if the decrease in the peripheral light amount of the imaging lens is corrected, the output decreases as the image height in the focus detection area increases. This is because the back projection image 300c-4 of the aperture stop 212c-4 has vignetting caused by the projection image 301 of the imaging lens front frame member 201e.

焦点検出に用いる光束にケラレが発生しないよう撮像レンズ交換式カメラの焦点検出装置を設計する場合、様々な撮像レンズに対して、焦点検出装置の絞りの逆投影像を撮像レンズ絞り上で全ての部材の投影像の内側に配置する必要がある。それは、焦点検出領域の像高を小さくすることや、焦点検出装置の絞りの逆投影像の間隔の短縮や、面積の縮小により解決できる。しかし、その解決方法は、焦点検出範囲の狭小化、基線長短縮による焦点検出の精度悪化、焦点検出の低輝度被写体に対する精度悪化を招く。そのため、焦点検出に用いる光束にケラレが発生した状態で焦点検出を行う手段が必要である。この焦点検出を精度良く行うことができれば、焦点検出の精度の向上、焦点検出範囲の拡大を行うことができる。以下に、焦点検出に用いる光束にケラレが発生した状態で焦点検出を行う手段について説明する。   When designing a focus detection device of an imaging lens exchangeable camera so that vignetting does not occur in the light beam used for focus detection, the back projection images of the focus detection device's aperture are all on the imaging lens aperture for various imaging lenses. It is necessary to arrange it inside the projected image of the member. This can be solved by reducing the image height of the focus detection area, shortening the interval between the back projection images of the aperture of the focus detection device, and reducing the area. However, this solution leads to a narrow focus detection range, a deterioration in focus detection accuracy due to a shortened baseline length, and a deterioration in accuracy for low-luminance subjects in focus detection. Therefore, a means for performing focus detection in a state where vignetting has occurred in the light beam used for focus detection is necessary. If this focus detection can be performed with high accuracy, the accuracy of focus detection can be improved and the focus detection range can be expanded. Hereinafter, means for performing focus detection in a state where vignetting has occurred in the light beam used for focus detection will be described.

図12は、本発明を実施するのに適したカメラの焦点検出装置の一例を示すブロック図である。   FIG. 12 is a block diagram showing an example of a camera focus detection apparatus suitable for carrying out the present invention.

図中PRSはカメラの中央演算回路で、たとえばCPU,RAM,ROM,ADC(A/Dコンバータ)および入出力ポート等が配置された1チップマイクロコンピュータである。ROM内にはAF制御を含む一連のカメラの制御用ソフトウエアおよびパラメータが格納されている。後述する撮像レンズによる焦点検出に用いる光束のケラレの有無判定を行うための情報も、ROM内に記憶されている。PRSは演算手段の一部を構成している。   In the figure, PRS is a central processing circuit of the camera, which is a one-chip microcomputer in which, for example, a CPU, RAM, ROM, ADC (A / D converter), input / output ports and the like are arranged. In the ROM, a series of camera control software including AF control and parameters are stored. Information for determining the presence or absence of vignetting of a light beam used for focus detection by an imaging lens described later is also stored in the ROM. The PRS constitutes a part of the calculation means.

DBUSはデータバス、SHTは前記中央演算回路PRSより制御信号CSHTが入力している間データバスDBUSを介して入力するデータを受け付ける。そのデータに基づいて不図示のシャッタ先幕及び後幕の走行制御を行うシャッタ制御回路、APRは制御信号CAPRが入力している間データバスDBUSを介して入力するデータを受け付ける。レンズ制御回路LNSUとシリアル通信を行うレンズ通信回路でクロック信号LCKに同期してレンズ駆動用データDCLをレンズ制御回路へ伝送する。これは、LCOMは制御信号CLCOMが入力している間データバスDBUSを介して入力するデータを受け付けるデータに基づく。それと同時にレンズ情報DLCがシリアル入力する。レンズ駆動用データDCLは、装着されたカメラの種別情報や、カメラの焦点検出装置の種別、撮像時のレンズ駆動量の情報などを含む。   DBUS is a data bus, and SHT receives data input via the data bus DBUS while the control signal CSHT is input from the central processing circuit PRS. A shutter control circuit (APR) for controlling the travel of the shutter front curtain and rear curtain (not shown) based on the data receives data input via the data bus DBUS while the control signal CAPR is input. The lens communication circuit that performs serial communication with the lens control circuit LNSU transmits lens driving data DCL to the lens control circuit in synchronization with the clock signal LCK. This is based on data that receives data input via the data bus DBUS while the control signal CLCOM is input. At the same time, lens information DLC is serially input. The lens driving data DCL includes information on the type of the mounted camera, the type of the focus detection device of the camera, information on the lens driving amount at the time of imaging, and the like.

BSYは不図示の焦点調節用レンズが移動中であることをカメラ側に知らせる為の信号で、この信号が発生しているときは、前記シリアル通信は行われない。SPCは測光回路であり、前記制御回路からの制御信号CSPCを受け取ると測光出力SSPCを中央演算回路PRSへ送る。測光出力SSPCは中央演算回路PRS内部のADCでA/D変換され、前述のシャッタ制御回路SHT及び絞り制御回路APRを制御するためのデータとして用いられる。   BSY is a signal for informing the camera side that a focus adjusting lens (not shown) is moving. When this signal is generated, the serial communication is not performed. SPC is a photometric circuit, and when it receives a control signal CSPC from the control circuit, it sends a photometric output SSPC to the central processing circuit PRS. The photometric output SSPC is A / D converted by the ADC in the central processing circuit PRS and used as data for controlling the shutter control circuit SHT and the aperture control circuit APR.

400は焦点検出用の補助光を投射するための投光回路で中央演算回路PRSからの制御信号ACT及び同期クロックCKによりLEDを駆動し発光させる。   Reference numeral 400 denotes a light projection circuit for projecting auxiliary light for focus detection, which drives the LED to emit light by the control signal ACT and the synchronous clock CK from the central processing circuit PRS.

SNSは対の受光素子列215a−1/215a−2、215a−3/215a−4・・・215c−3/215c−4を複数有する測距用受光回路である。SNSは、それぞれの測距用受光回路は画面の焦点検出領域218、219に対応した位置の像を受光するように構成されている。SDRは前記中央演算回路PRSより入力する信号STR,CKに従って各受光回路1〜5を制御するセンサ駆動回路である。SDRは、制御信号φ1,φ2,CL,SHにより受光回路1〜5を制御し、選択信号SEL1〜SEL6により受光回路のいずれか1つを選択して、その選択した受光回路から得られる像信号SSNSを中央演算回路PRSに送信する。   SNS is a ranging light receiving circuit having a plurality of pairs of light receiving element arrays 215a-1 / 215a-2, 215a-3 / 215a-4,... 215c-3 / 215c-4. The SNS is configured such that each light receiving circuit for distance measurement receives an image at a position corresponding to the focus detection areas 218 and 219 on the screen. SDR is a sensor driving circuit that controls the light receiving circuits 1 to 5 in accordance with signals STR and CK input from the central processing circuit PRS. The SDR controls the light receiving circuits 1 to 5 by the control signals φ1, φ2, CL, and SH, selects one of the light receiving circuits by the selection signals SEL1 to SEL6, and an image signal obtained from the selected light receiving circuit. SSNS is transmitted to the central processing circuit PRS.

図13は、レンズ制御回路LNSUがレンズの焦点距離情報、距離環情報を得る様子を示したものである。メモリ手段401に、距離環の位置、ズーム環の位置、デフォーカス量対焦点調節レンズ繰り出し量の係数などが記憶されている。これら記憶された情報は、信号に変換されてレンズ制御回路LNSU内のCPU403で演算され、レンズ情報DLCとしてレンズ通信回路LCOMを介して中央演算回路PRSに入力される。焦点距離を複数もつ撮像レンズ、いわゆるズームレンズの焦点距離情報は、連続的に変化する焦点距離を複数に分割した各範囲の代表値である。また、この場合の距離環の位置情報は直接合焦演算に使用するわけではないので、それほどの精度は必要としない。   FIG. 13 shows how the lens control circuit LNSU obtains the focal length information and distance ring information of the lens. The memory means 401 stores the position of the distance ring, the position of the zoom ring, the coefficient of the defocus amount versus the focus adjustment lens extension amount, and the like. The stored information is converted into a signal, calculated by the CPU 403 in the lens control circuit LNSU, and input as lens information DLC to the central processing circuit PRS via the lens communication circuit LCOM. The focal length information of an imaging lens having a plurality of focal lengths, that is, a so-called zoom lens, is a representative value of each range obtained by dividing a continuously changing focal length into a plurality of ranges. Further, since the position information of the distance ring in this case is not directly used for the focus calculation, so much accuracy is not required.

上記構成によるカメラの焦点検出装置の焦点検出動作について、図14のフローチャートに従って説明する。   The focus detection operation of the camera focus detection apparatus having the above configuration will be described with reference to the flowchart of FIG.

カメラの撮像フローにおいて、カメラのレリーズスイッチの第1ストローク操作(いわゆる半押し操作)や、専用の焦点検出動作開始スイッチを検出すると焦点検出動作を開始する。   In the camera imaging flow, when a first stroke operation (so-called half-press operation) of the release switch of the camera or a dedicated focus detection operation start switch is detected, the focus detection operation is started.

ステップ1(図では、「S」と略す)では、画面内に設けられた焦点検出領域218、219の中から、撮像者のマニュアル操作を受けて、または所定のアルゴリズムにしたがって焦点検出領域を指定する。指定された焦点検出領域は、焦点検出処理される順番に1から順に焦点検出領域番号が付けられる。ステップ2では、指定された焦点検出領域に関する受光素子の露光を行う。受光素子215内に設けられた露光量調整手段により、受光する光量が飽和しないよう制御され、露光が終了する。その後、焦点検出処理される順番に従って、受光回路のいずれか1つを選択して、その選択した受光回路から得られる像信号SSNSを中央演算回路PRSに送信する。   In step 1 (abbreviated as “S” in the figure), a focus detection area is designated from the focus detection areas 218 and 219 provided in the screen in response to a manual operation of the photographer or according to a predetermined algorithm. To do. The designated focus detection areas are numbered with focus detection area numbers in order from 1 in the order of focus detection processing. In step 2, the light receiving element is exposed with respect to the designated focus detection area. The exposure amount adjusting means provided in the light receiving element 215 is controlled so as not to saturate the amount of light received, and the exposure ends. Thereafter, one of the light receiving circuits is selected according to the order of focus detection processing, and the image signal SSNS obtained from the selected light receiving circuit is transmitted to the central processing circuit PRS.

ステップ3では、焦点検出処理を行う領域を管理するパラメータである焦点検出領域番号Nに1を入力することにより、焦点検出処理を行う領域を設定し、演算処理を開始する。   In step 3, by inputting 1 to the focus detection area number N which is a parameter for managing the area for performing the focus detection process, the area for performing the focus detection process is set, and the calculation process is started.

ステップ4では、演算処理を行う焦点検出領域に関して、ケラレが発生する可能性の有無を判別する。この判別は、上述した通り、撮像レンズと焦点検出装置の組み合わせによって、決定される。そのため、ケラレが発生する撮像レンズの種別(レンズ種別情報)と焦点距離情報と焦点検出領域の組み合わせをカメラ内で記憶しておくことにより、ケラレが発生する可能性の有無を判定することができる。   In step 4, it is determined whether or not there is a possibility that vignetting may occur with respect to the focus detection region where the arithmetic processing is performed. As described above, this determination is determined by the combination of the imaging lens and the focus detection device. Therefore, it is possible to determine whether or not there is a possibility of vignetting by storing in the camera a combination of the imaging lens type (lens type information), focal length information, and focus detection area in which vignetting occurs. .

図15に、カメラ内で記憶されるテーブルの例を示す。撮像レンズ内のメモリ手段400からレンズ通信回路LCOMを介して中央演算回路PRSに常時入力されているレンズ情報DLCの撮像レンズ種別(レンズ種別情報)と焦点距離情報を、カメラ内で記憶されているテーブルから検索する。例えば、装着している撮像レンズが「レンズ3」で、使用している焦点距離が「焦点距離3−3」であった場合、ケラレが発生する焦点検出領域は、218b、219bとなる。これから焦点検出処理を行う焦点検出領域が、218b、もしくは、219bであった場合、ステップ4でYESと判別する。一方、それ以外の場合は、NOと判別する。本実施例では、カメラ内で記憶されているテーブルの例として、撮像レンズ201の光軸対称な焦点検出領域218b、218c、219b、219cをそれぞれ一つのデータとして記憶するよう構成した。この点、焦点検出領域218bと219bは、それぞれ焦点検出領域218c、219cと撮像レンズ201の光軸対称であり、原理的には同様にけられるので、焦点検出領域218b、219bのみを記憶しても良い。   FIG. 15 shows an example of a table stored in the camera. The imaging lens type (lens type information) and the focal length information of the lens information DLC that are always input from the memory means 400 in the imaging lens to the central processing circuit PRS via the lens communication circuit LCOM are stored in the camera. Search from the table. For example, when the mounted imaging lens is “lens 3” and the focal length used is “focal length 3-3”, the focus detection areas where vignetting occurs are 218b and 219b. When the focus detection area where the focus detection process is to be performed is 218b or 219b, YES is determined in step 4. On the other hand, otherwise, it is determined as NO. In this embodiment, as an example of the table stored in the camera, the focus detection areas 218b, 218c, 219b, and 219c of the imaging lens 201 that are symmetrical with respect to the optical axis are stored as one piece of data. In this respect, the focus detection areas 218b and 219b are symmetrical with respect to the optical axes of the focus detection areas 218c and 219c and the imaging lens 201, respectively, and are theoretically the same, so only the focus detection areas 218b and 219b are stored. Also good.

ステップ4でYESの場合には、同時に補正量算出式、調整係数が選択される。上述した例では、(「レンズ3」「焦点距離3−3」であった場合、)、補正量算出式は「補正式C」、調整係数「×0.8」が選択される。補正方法の詳細については後述する。   If YES in step 4, a correction amount calculation formula and an adjustment coefficient are simultaneously selected. In the example described above (in the case of “lens 3” and “focal length 3-3”), the correction amount calculation formula is selected as “correction formula C” and the adjustment coefficient “× 0.8”. Details of the correction method will be described later.

図14に戻り、ステップ5では、ステップ4でNOが判別された場合、ケラレの可能性が無い場合の焦点検出処理を行う。ここでは、受光素子列215からの像信号に基づいて、指定されている焦点検出領域の焦点検出結果、すなわちデフォーカス量を算出する。ここでは、対の受光素子列215から得られた像信号をもちいて、相関演算を用いた公知の手法、例えば特公平5−88445号公報に開示されている手法を用いて位相差を検出する。これにより、デフォーカスの方向を含めたデフォーカス量を算出することができる。また、像信号のコントラスト等から公知の手法によって、それぞれの焦点検出可能・不可能の判定を行う。ステップ4でYESが選ばれた場合、ステップ6に移行し、ケラレの可能性が有る場合の焦点検出処理を行う。まず、ステップ6では、像信号のケラレ補正を行う。詳細は後述する。   Returning to FIG. 14, in step 5, when NO is determined in step 4, focus detection processing is performed when there is no possibility of vignetting. Here, based on the image signal from the light receiving element array 215, the focus detection result of the designated focus detection region, that is, the defocus amount is calculated. Here, the phase difference is detected by using a known method using correlation calculation, for example, a method disclosed in Japanese Patent Publication No. 5-88445, using image signals obtained from the pair of light receiving element arrays 215. . Thereby, the defocus amount including the defocus direction can be calculated. Also, it is determined whether or not each focus can be detected by a known method based on the contrast of the image signal. If YES is selected in step 4, the process proceeds to step 6 to perform focus detection processing when there is a possibility of vignetting. First, in step 6, vignetting correction of the image signal is performed. Details will be described later.

次に、ステップ7で、補正後の像信号に基づいて焦点検出の適否を判定し、前もって決められた閾値に対して、補正誤差の大小を判定する。補正誤差の判定の方法については後述する。焦点検出が適とした判定した場合、つまり閾値に対して補正誤差が小さいと判定された場合(ステップ7でYESの場合)、像信号の補正をしていない場合と同様にステップ5に進み、焦点検出処理を行う。焦点検出が不適とした判定した場合、つまり閾値に対して補正誤差が大きいと判定された場合(ステップ7でNOの場合)、この焦点検出領域の焦点検出を不可能とし、ステップ8に進む。そのまま焦点検出を行ったとしても、誤った焦点検出結果が得られる可能性が大きいためである。この技術思想は、受光素子の出力に対して補正を行った後、補正後の像信号の補正誤差を判定することにより、行った補正の信頼性を判定することができるというものである。それにより、像信号の補正を行っても、焦点検出結果の信頼性を損なうことが無い。また、ケラレの状況が、製造誤差、経時変化によりばらついた場合でも、補正誤差が大きい場合の焦点検出を行わないことにより、信頼性の高い焦点検出結果を得る。   Next, in step 7, the suitability of focus detection is determined based on the corrected image signal, and the magnitude of the correction error is determined with respect to a predetermined threshold value. A method for determining the correction error will be described later. When it is determined that the focus detection is appropriate, that is, when it is determined that the correction error is small with respect to the threshold value (in the case of YES at step 7), the process proceeds to step 5 as in the case where the image signal is not corrected, Focus detection processing is performed. If it is determined that the focus detection is inappropriate, that is, if it is determined that the correction error is large with respect to the threshold value (NO in step 7), the focus detection in this focus detection area becomes impossible, and the process proceeds to step 8. This is because even if focus detection is performed as it is, there is a high possibility that an erroneous focus detection result will be obtained. This technical idea is that the reliability of the correction performed can be determined by determining the correction error of the corrected image signal after correcting the output of the light receiving element. Thereby, even if the image signal is corrected, the reliability of the focus detection result is not impaired. Further, even when the vignetting condition varies due to manufacturing errors and changes over time, a focus detection result with high reliability is obtained by not performing focus detection when the correction error is large.

ステップ8では、ステップ1で指定された焦点検出処理を行う必要がある全ての焦点検出領域の処理が終了したか否かを判断する。ステップ8でNOの場合、再度焦点検出領域を設定する。具体的には、焦点検出領域番号Nに1を加えたものを入力する(ステップ9)。そして、新たに設定された焦点検出領域に関して、ステップ4以降を繰り返す。   In step 8, it is determined whether or not the processing for all focus detection areas that need to be performed the focus detection process specified in step 1 has been completed. If NO in step 8, the focus detection area is set again. Specifically, the focus detection area number N plus 1 is input (step 9). Then, Step 4 and subsequent steps are repeated for the newly set focus detection area.

ステップ8でYES、すなわち、全視野の焦点検出処理が終了した場合、ステップ10に移行し、焦点検出結果から、焦点検出領域を決定し、その領域の算出したデフォーカス量から、合焦状態であるかを判定する。焦点検出領域の決定方法は、より信頼性の高い焦点検出領域を選択する公知の手法、例えば特開2007−052072号公報に開示されている手法を用いて行うことができる。ステップ10でNO、すなわち、合焦状態ではないと判定された場合、焦点検出処理結果から算出されたデフォーカス量に応じて撮像レンズの駆動を開始し、再びステップ2から焦点検出動作を行う(ステップ11)。ステップ10でYES、すなわち合焦状態であると判定された場合、撮像動作を開始させるためのレリーズスイッチの第2ストローク操作(いわゆる全押し操作)を待つ状態となり焦点検出処理を終了する。一定時間待機状態が続くと、焦点検出状況が変化した可能性があるため、再び焦点検出動作を開始する。   If YES in step 8, that is, if the focus detection process for the entire field of view is completed, the process proceeds to step 10, where the focus detection area is determined from the focus detection result, and the in-focus state is determined from the calculated defocus amount of the area. Determine if there is. The method for determining the focus detection area can be performed using a known technique for selecting a focus detection area with higher reliability, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2007-052072. If NO in step 10, that is, if it is determined that it is not in focus, the imaging lens starts to be driven according to the defocus amount calculated from the focus detection processing result, and the focus detection operation is performed again from step 2 ( Step 11). If YES in step 10, that is, if it is determined that the camera is in focus, the focus detection process is terminated by waiting for a second stroke operation (so-called full press operation) of the release switch for starting the imaging operation. If the standby state continues for a certain period of time, the focus detection situation may have changed, so the focus detection operation is started again.

次に、図14のステップ6で行われる像信号のケラレ補正について説明する。図14のステップ4で選択された補正量算出式と調整係数を用いて、像信号のケラレ補正を行う。一般的に焦点距離を複数もつ、いわゆるズームレンズのFナンバーは、焦点距離が長いほど大きくなる。そのような撮像レンズでは、焦点距離が最も長い場合に、焦点検出に用いる光束のケラレ量が大きくなる。そこで、本実施例では、最もケラレ量が大きい時の補正を重視し、次の式にて、補正を行う。
OUT(g)=IN(g)×(K(g)×T)・・・(数1)
数1において、gは受光素子列を構成する画素の番号であり、IN(g)は、画素gの補正前の出力を示す。K(g)は、焦点距離が最も長い場合の受光素子列を構成する各画素ごとの出力にかけるべき係数である。K(g)は、各画素に対応した数の集合であってもよいし、多項式であってもよい。
Next, the vignetting correction of the image signal performed in step 6 of FIG. 14 will be described. The vignetting correction of the image signal is performed using the correction amount calculation formula and the adjustment coefficient selected in Step 4 of FIG. In general, the F number of a so-called zoom lens having a plurality of focal lengths increases as the focal length increases. In such an imaging lens, when the focal length is the longest, the amount of vignetting of the light beam used for focus detection becomes large. Therefore, in this embodiment, the correction when the amount of vignetting is the greatest is emphasized, and the correction is performed by the following equation.
OUT (g) = IN (g) × (K (g) × T) (Equation 1)
In Equation 1, g is the number of a pixel constituting the light receiving element array, and IN (g) indicates an output before correction of the pixel g. K (g) is a coefficient to be applied to the output of each pixel constituting the light receiving element array when the focal length is the longest. K (g) may be a set of numbers corresponding to each pixel or may be a polynomial.

次に、調整係数Tについて説明する。図18は、ある受光素子の各画素の補正前の出力を示したものである。横軸に、画素番号、縦軸に各画素の出力が示され、それぞれ数1の「g」、「IN(g)」に相当する。図中には、3つの焦点距離状態でのケラレが発生している様子を示している。IN(g)−1は、最も焦点距離が長い状態で、最もケラレが大きく発生した状態を示している。IN(g)−2、IN(g)−3は、IN(g)−1に比べて焦点距離が徐々に短くなり、ケラレの状態が改善してきていることを示している。本実施例では、IN(g)−1のケラレ状態を補正して、各画素の出力が一定になるようK(g)を定める。すなわち、その場合に調整係数Tは1となる。そのため、IN(g)−2、IN(g)−3にK(g)による補正を行うと所謂、過補正となり、ケラレが発生している画素の出力が、必要以上に大きくなってしまう。そこで、本実施例では、調整係数Tを用いて、補正量の調整を行っている。例えば、IN(g)−2調整係数を、0.6とすることにより、K(g)にて決められた補正量の6割、IN(g)−3の調整係数を、0.8とすることにより、K(g)にて決められた補正量の8割を補正量とし、出力の補正を行うことができる。このような方法を取ることにより、ケラレ状態に応じて、K(g)を、それぞれ記憶する場合に比べ、カメラ内で記憶、処理する情報量を少なくすることができる。また、ケラレの状態は、焦点距離が長くなるにつれ、ほぼ比例的に変化するため、補正の精度についても問題は無い。   Next, the adjustment coefficient T will be described. FIG. 18 shows an output before correction of each pixel of a certain light receiving element. The horizontal axis indicates the pixel number, and the vertical axis indicates the output of each pixel, which corresponds to “g” and “IN (g)” in Equation 1, respectively. In the figure, vignetting in three focal length states is shown. IN (g) -1 indicates a state where the vignetting is the largest in the state where the focal length is the longest. IN (g) -2 and IN (g) -3 indicate that the focal length is gradually shorter than that of IN (g) -1, and the vignetting state is improved. In this embodiment, the vignetting state of IN (g) -1 is corrected, and K (g) is determined so that the output of each pixel becomes constant. That is, in that case, the adjustment coefficient T is 1. Therefore, if IN (g) -2 and IN (g) -3 are corrected by K (g), so-called overcorrection occurs, and the output of the pixel in which vignetting has occurred becomes larger than necessary. Therefore, in this embodiment, the adjustment amount T is adjusted using the adjustment coefficient T. For example, by setting the adjustment coefficient of IN (g) -2 to 0.6, 60% of the correction amount determined by K (g), and the adjustment coefficient of IN (g) -3 to 0.8 As a result, 80% of the correction amount determined by K (g) can be used as the correction amount, and the output can be corrected. By adopting such a method, it is possible to reduce the amount of information stored and processed in the camera as compared with the case where K (g) is stored according to the vignetting state. Further, since the vignetting state changes almost proportionally as the focal length becomes longer, there is no problem with the accuracy of correction.

これら3つの係数を乗じることによりOUT(g)、すなわち補正後の画素gの出力を算出することができる。このような補正形態をとることにより、カメラ内に記憶するデータ量を少なく抑えながら、最もケラレの程度が大きい状態での補正を精度良く行うことができる。焦点距離が最も大きい場合以外の補正量は、焦点距離が最も大きい場合に対して、定数倍となるが、補正量がそれほど大きくない場合には、精度良く補正できる。   By multiplying these three coefficients, OUT (g), that is, the output of the corrected pixel g can be calculated. By adopting such a correction mode, it is possible to accurately perform correction in a state where the degree of vignetting is the largest while suppressing the amount of data stored in the camera. The correction amount other than the case where the focal length is the longest is a constant multiple of that when the focal length is the longest, but when the correction amount is not so large, the correction amount can be accurately corrected.

次に、図14のステップ7で行う補正誤差の判定方法について説明する。本実施例では、補正誤差の判定方法として、1)対の像信号の一致度、2)補正誤差による焦点検出のずれ量の予測値をパラメータとした評価値であるHレベルを用いて行う。対の像信号から算出されたHレベルの値の大小から、対象となっている焦点検出領域の使用の可否を決定する。   Next, the correction error determination method performed in step 7 of FIG. 14 will be described. In this embodiment, a correction error determination method is performed using 1) the degree of coincidence of a pair of image signals, and 2) an H level that is an evaluation value using a predicted value of a focus detection shift amount due to the correction error as a parameter. Whether or not the target focus detection area can be used is determined based on the magnitude of the H level value calculated from the pair of image signals.

まず、1)対の像信号の一致度について説明する。焦点検出処理を行う際に、ゴースト光などにより対の像信号の一致度が悪いと、相関演算の結果が真の値からずれることが知られている。焦点検出に用いる光束がケラレた場合にも、同様に像信号の一致度が悪化し、相関演算の結果に影響を及ぼす。そこで、Hレベルでは、対の受光素子(例えば、215b−1、215b−2)を構成する対の画素の出力差sをパラメータとした関数を一致度Uと定義する(数2)。
一致度U=U(s)・・・(数2)
このように定義された一致度Uを用いて補正誤差を判定することで、焦点検出処理は像の一致度が良好で信頼性の高い場合に行うようにすることができる。
First, 1) the degree of coincidence between a pair of image signals will be described. When performing focus detection processing, it is known that the result of correlation calculation deviates from a true value if the degree of coincidence of a pair of image signals is poor due to ghost light or the like. Similarly, when the luminous flux used for focus detection is vignetted, the degree of coincidence of the image signals is deteriorated and affects the result of the correlation calculation. Therefore, at the H level, a function using the output difference s of a pair of pixels constituting a pair of light receiving elements (for example, 215b-1 and 215b-2) as a parameter is defined as a matching degree U (Equation 2).
Matching degree U = U (s) (Equation 2)
By determining the correction error using the degree of coincidence U defined in this way, the focus detection process can be performed when the degree of coincidence of the images is good and the reliability is high.

次に、2)補正誤差による焦点検出のずれ量の予測値について説明する。公知のフィルタ処理を行った後に相関演算を行うと、2像の一致度がそれほどよくない場合でも焦点検出誤差が大きくならない場合がある。それは、ケラレにより像信号の2像の一致度を悪くしている部分の被写体像の空間周波数成分が、フィルタによって除去されてしまう場合などが考えられる。そこで、像信号から補正誤差により焦点検出結果にどの程度ずれが発生するかについて予測値を算出することにより、焦点検出ずれが大きく出る可能性がある場合の焦点検出処理を不可能にすることができる。本実施例では、補正誤差による焦点検出ずれ量の予測値を、第1のコントラスト情報c1、及び第2のコントラスト情報c2というパラメータを用いた関数Eと定義する。
補正誤差による焦点検出ずれ量の予測値E=E(c1,c2)・・・(数3)
数3のパラメータであるc1は、像信号における隣接画素の出力差の絶対値の和であり、c2は、像信号における隣接画素の出力差の2乗和である。一般的に、c1及びc2は、補正誤差による焦点検出ずれ量の予測値と相関が有る。
Next, 2) the predicted value of the focus detection shift amount due to the correction error will be described. If correlation calculation is performed after performing known filter processing, the focus detection error may not increase even if the degree of coincidence between the two images is not so good. For example, the spatial frequency component of the subject image in the portion where the degree of coincidence of the two image signals is deteriorated due to vignetting may be removed by the filter. Therefore, by calculating a predicted value for how much the focus detection result is shifted from the image signal due to the correction error, it is possible to make the focus detection process impossible when there is a possibility that the focus detection shift is greatly generated. it can. In this embodiment, the predicted value of the focus detection deviation amount due to the correction error is defined as a function E using parameters of the first contrast information c1 and the second contrast information c2.
Predicted value of focus detection deviation amount due to correction error E = E (c1, c2) (Equation 3)
The parameter c1 in Expression 3 is a sum of absolute values of output differences between adjacent pixels in the image signal, and c2 is a square sum of output differences between adjacent pixels in the image signal. In general, c1 and c2 have a correlation with a predicted value of a focus detection deviation amount due to a correction error.

図16、図17を用いてその相関について説明する。図16aは、c1の値が大きい場合の対の像信号(215c−3、215c−4)を示し、図16bは、c1の値が小さい場合の対の像信号(215c−3、215c−4)を示している。c1は、隣接画素の出力差の絶対値の和であるため、c1が大きくなると、像信号の出力に高低差が大きくなる傾向がある。そのため、図16a、図16bでは、像出力の高低差が大きい状態と小さい状態を代表的に示している。どちらの図においても、補正誤差により補正が十分に施されず、215c−3の受光素子列の各画素の出力の左側の方がケラレの影響が残り、215c−4より215c−3の出力は小さくなった状態を示している。J1、J2は、215c−3、215c−4の像出力の重心位置を示している。重心位置は、画素出力の積分値の画素配列方向の平均である。   The correlation will be described with reference to FIGS. FIG. 16a shows a pair of image signals (215c-3, 215c-4) when the value of c1 is large, and FIG. 16b shows a pair of image signals (215c-3, 215c-4) when the value of c1 is small. ). Since c1 is the sum of the absolute values of the output differences between adjacent pixels, when c1 increases, there is a tendency for the height difference to increase in the output of the image signal. Therefore, in FIGS. 16a and 16b, a state where the height difference of the image output is large and a state where it is small are representatively shown. In both figures, correction is not sufficiently performed due to the correction error, and the left side of the output of each pixel of the light receiving element array of 215c-3 is affected by vignetting, and the output of 215c-3 is more than the output of 215c-4. It shows a reduced state. J1 and J2 indicate the barycentric positions of the image outputs of 215c-3 and 215c-4. The barycentric position is an average of the integrated values of the pixel outputs in the pixel array direction.

図16a、図16bにおいて、ケラレによる像の出力差を斜線部で示している。図16aでは、図16bの状態に比べ、像信号の出力の高低差が大きいため、斜線部面積がより大きくなる、つまり、215c−4に対する215c−3の出力は、より小さくなっている。これは、ケラレにより出力は一定の割合で減るため、出力の絶対値が大きいほど、ケラレによる出力の変化量の絶対値も大きくなることが原因である。   In FIG. 16A and FIG. 16B, the output difference of the image due to vignetting is indicated by the hatched portion. In FIG. 16a, since the height difference of the output of the image signal is larger than in the state of FIG. 16b, the shaded area is larger, that is, the output of 215c-3 with respect to 215c-4 is smaller. This is because the output decreases at a constant rate due to vignetting, and thus the absolute value of the amount of change in output due to vignetting increases as the absolute value of the output increases.

ケラレがない状態もしくは、補正誤差が0の場合には、対の光学像(215c−3と215c−4)は、概ね等しくなるので、合焦状態では、重心位置、J1、J2はほぼ等しくなる。ところが、ケラレが発生すると、対の光学像の類似性が崩れ、重心位置にずれを生じる。図16において、215c−3の像信号は、215c−4に比べて左側が削られたような形となり、重心位置J2は、重心位置J1に対して図中右方向へ移動する。   When there is no vignetting or when the correction error is 0, the paired optical images (215c-3 and 215c-4) are substantially equal, so that the center of gravity, J1, and J2 are substantially equal in the focused state. . However, when vignetting occurs, the similarity between the pair of optical images is lost, and the center of gravity is displaced. In FIG. 16, the image signal of 215c-3 is shaped such that the left side is cut compared to 215c-4, and the gravity center position J2 moves to the right in the figure with respect to the gravity center position J1.

図16a、図16bの状態を比べると、図16aの方が対の受光素子列の各画素の出力和(像信号全体の面積)に占める斜線部面積が大きいため、像信号の重心位置J1とJ2の差は大きくなる。つまり、この重心位置のずれは、ケラレが発生している領域の像信号の出力に高低差が大きければ大きいほど、大きくなる。これは、c1が大きければ大きいほど、重心位置のずれ量が大きくなる可能性が高くなることを示している。   Comparing the states of FIGS. 16a and 16b, since the hatched area occupied in the output sum (area of the entire image signal) of each pixel in the pair of light receiving element rows is larger in FIG. The difference of J2 becomes large. That is, the deviation of the center of gravity position increases as the difference in height between the output of the image signals in the area where the vignetting occurs is larger. This indicates that the larger the value of c1, the higher the possibility that the shift amount of the center of gravity position becomes large.

焦点検出を行う際の相関演算では、対の像の重心位置のずれを算出していることとほぼ同義であるため、重心位置がずれると焦点検出結果がずれる。このことから,c1と焦点検出のずれ量には相関があり、c1が大きいと、補正誤差による誤った焦点検出結果を算出する可能性が高いことが分かる。   Since the correlation calculation at the time of focus detection is almost the same as calculating the shift of the centroid position of the pair of images, the focus detection result is shifted when the centroid position is shifted. From this, it can be seen that there is a correlation between the shift amount between c1 and focus detection, and if c1 is large, there is a high possibility of calculating an erroneous focus detection result due to a correction error.

次に図17を用いてc2と補正誤差による焦点検出ずれ量の予測値についての相関を説明する。図17aは、c2の値が小さい場合の対の像信号(215c−3、215c−4)を示し、図17bは、c2の値が大きい場合の対の像信号(215c−3、215c−4)を示している。c2は、像信号における隣接画素の出力差の2乗和であるため、c2の値が小さい場合、像信号の形状の凹凸の数が少なく、振幅が小さくなる傾向が有る。そのため、図17a、図17bでは、像信号の形状の凹凸の数が少ない状態と多い状態を代表的に示している。どちらの図においても、補正誤差により補正が十分に施されず、受光素子列の各画素の出力の左側の方にケラレの影響が残り、215c−4より215c−3の出力は小さくなっている。J1、J2は、図16と同様に、215c−3、215c−4の像出力の重心位置を示している。   Next, a correlation between c2 and the predicted value of the focus detection deviation amount due to the correction error will be described with reference to FIG. 17a shows a pair of image signals (215c-3, 215c-4) when the value of c2 is small, and FIG. 17b shows a pair of image signals (215c-3, 215c-4) when the value of c2 is large. ). Since c2 is the square sum of the output differences of adjacent pixels in the image signal, when the value of c2 is small, the number of irregularities in the shape of the image signal tends to be small and the amplitude tends to be small. Therefore, FIGS. 17a and 17b representatively show a state where the number of irregularities in the shape of the image signal is small and a large number. In both figures, correction is not sufficiently performed due to the correction error, and the effect of vignetting remains on the left side of the output of each pixel of the light receiving element array, and the output of 215c-3 is smaller than 215c-4. . J1 and J2 indicate the barycentric positions of the image outputs 215c-3 and 215c-4, as in FIG.

図17a、図17bにおいて、ケラレによる像の出力差を斜線部で示している。図17aの像信号出力の形状が一つの凸形状を有するのに対し、図17bの像信号出力の形状は、二つの凸形状を有するため、像信号全体の面積は、図17aの方が、図17bに比べて小さい。   In FIGS. 17a and 17b, an output difference of an image due to vignetting is indicated by a hatched portion. The shape of the image signal output in FIG. 17a has one convex shape, whereas the shape of the image signal output in FIG. 17b has two convex shapes, so that the area of the entire image signal is as shown in FIG. Smaller than FIG. 17b.

図17においても、図16の場合と同様に、215c−3の像信号は、215c−4に比べて左側が削られたような形となり、重心位置J2は、重心位置J1に対して図中右方向へ移動する。図17a、図17bの状態を比べると、図17aの方が、像信号全体の面積に占める斜線部面積が大きいため、像信号の重心位置J1とJ2の差は大きくなる。つまり、この重心位置のずれは、ケラレが発生している領域の面積(斜線部面積)が一定の場合、像信号全体の面積が小さければ小さいほど大きくなる。これは、c2が小さければ小さいほど重心位置のずれ量が大きくなる可能性が高くなることを示している。   Also in FIG. 17, as in FIG. 16, the image signal of 215 c-3 is shaped such that the left side is cut compared to 215 c-4, and the gravity center position J <b> 2 is in the drawing with respect to the gravity center position J <b> 1. Move to the right. Comparing the states of FIGS. 17a and 17b, since the hatched area in the area of the entire image signal is larger in FIG. 17a, the difference between the gravity center positions J1 and J2 of the image signal becomes larger. That is, when the area of the area where the vignetting occurs (the shaded area) is constant, the displacement of the center of gravity position becomes larger as the area of the entire image signal is smaller. This indicates that the smaller the c2 is, the higher the possibility that the shift amount of the center of gravity position becomes large.

上述したように、重心位置がずれると焦点検出結果がずれるため、c2と焦点検出のずれ量には相関があり、c2が小さいと、補正誤差による誤った焦点検出結果を算出する可能性が高いことが分かる。   As described above, since the focus detection result is shifted when the position of the center of gravity is shifted, there is a correlation between the shift amount between c2 and focus detection, and when c2 is small, there is a high possibility of calculating an incorrect focus detection result due to a correction error. I understand that.

以上説明したように、c1、c2を用いることにより、補正誤差による焦点検出ずれ量の予測値を算出することができる。   As described above, by using c1 and c2, the predicted value of the focus detection deviation amount due to the correction error can be calculated.

次に、Hレベルの算出について説明する。Hレベルは、対の像信号から判定される一致度Uと、像信号の特性から判定される補正誤差による焦点検出ずれ量の予測値Eから以下の式のように算出される。
H=U(s)×E(c1,c2)・・・(数4)
Hレベルは、補正誤差により発生する象の一致度のずれと、焦点検出ずれの予測値から算出され、それにより補正誤差の判定を行う。そのため、対の像の一致度が良い場合にも、補正誤差による誤った焦点検出結果を算出する可能性が高いと予想される場合や、その逆の場合にも焦点検出処理を行うことを避けることができる。それにより、像信号の補正を行っても、焦点検出結果の信頼性を損なうことが無い。また、像信号の補正の補正誤差量については、製造誤差、経時変化によりばらつきを持つ。補正誤差が大きい場合の焦点検出を行わないことにより、信頼性の高い焦点検出結果のみを得ることができる。
Next, calculation of the H level will be described. The H level is calculated from the coincidence degree U determined from the paired image signals and the predicted value E of the focus detection deviation amount due to the correction error determined from the characteristics of the image signals as in the following equation.
H = U (s) × E (c1, c2) (Equation 4)
The H level is calculated from the deviation of the degree of coincidence of elephants caused by the correction error and the predicted value of the focus detection deviation, thereby determining the correction error. Therefore, even when the degree of coincidence of the paired images is good, avoid performing focus detection processing when it is expected that there is a high possibility of calculating an erroneous focus detection result due to a correction error, and vice versa. be able to. Thereby, even if the image signal is corrected, the reliability of the focus detection result is not impaired. Further, the correction error amount of the image signal correction varies due to manufacturing errors and changes with time. By not performing focus detection when the correction error is large, only a focus detection result with high reliability can be obtained.

本実施例では、焦点検出方法として、再結像を行う光学系を有する焦点検出装置を用いて説明した。この点、焦点検出方法は、これに限って適用できるのではなく、他の様々な焦点検出方法においても応用可能である。例えば、撮像レンズの予定結像面210に配された対の画素により、撮像レンズ210の異なる部分を通る光束を用いて位相差方式の焦点検出を行っても良い。また、ステップ5,7において、補正誤差が大きい場合その焦点検出の視野について焦点検出処理を行わないようにした。この点、補正誤差が大きい場合それより補正誤差が小さい焦点検出の視野を優先して焦点検出処理を行うようにしてもよい。この場合、ステップ11で撮像レンズを駆動させて、補正誤差が大きい焦点検出の視野よりも補正誤差の小さい焦点検出の視野に焦点を合わせるようにする。   In this embodiment, the focus detection method has been described using a focus detection apparatus having an optical system that performs re-imaging. In this regard, the focus detection method can be applied not only to this but also to various other focus detection methods. For example, the phase difference type focus detection may be performed using a pair of pixels arranged on the scheduled imaging surface 210 of the imaging lens, using light beams passing through different portions of the imaging lens 210. In Steps 5 and 7, when the correction error is large, the focus detection process is not performed for the focus detection field of view. In this regard, when the correction error is large, the focus detection process may be performed with priority given to the focus detection field of view with a smaller correction error. In this case, the imaging lens is driven in step 11 to focus on the focus detection field of view with a smaller correction error than the focus detection field of view with a large correction error.

本実施例では、カメラにケラレに関する情報が記憶されるため、撮像レンズ内で記憶するべき情報量を抑えることができる。また、カメラの製造前に、設計、開発された撮像レンズに対しては、撮像レンズ内で、そのカメラのケラレ情報を記憶することができない。この点、本実施例に拠れば、補正誤差量が大きい場合、焦点検出処理を行わない。これにより焦点検出の精度がたかまる。   In the present embodiment, since information on vignetting is stored in the camera, the amount of information to be stored in the imaging lens can be suppressed. In addition, for an imaging lens designed and developed before manufacturing the camera, vignetting information of the camera cannot be stored in the imaging lens. In this regard, according to the present embodiment, the focus detection process is not performed when the correction error amount is large. This increases the accuracy of focus detection.

また、本実施例では、カメラ内にケラレに関する情報を記憶したが、レンズ内に記憶しても良い。その場合、カメラ内で記憶するべき情報量を抑えることができ、カメラの製造後に、設計、開発された撮像レンズに対しては、カメラ内で、その撮像レンズのケラレ情報を記憶することができないが、本実施例に拠れば、本発明の焦点検出処理を行うことができる。   In this embodiment, information on vignetting is stored in the camera, but it may be stored in the lens. In this case, the amount of information to be stored in the camera can be suppressed, and vignetting information of the imaging lens cannot be stored in the camera for an imaging lens designed and developed after the camera is manufactured. However, according to the present embodiment, the focus detection process of the present invention can be performed.

(実施例2)
実施例1では、撮像レンズによる焦点検出に用いる光束のケラレの有無判定や、像信号の補正を、レンズからカメラに渡される撮像レンズの種別(レンズ種別情報)と焦点距離情報を用いて、カメラ内に記憶されるテーブルとの照合を行うことにより行った。本実施例では、それぞれの撮像レンズからカメラに通信される情報から、カメラ内でケラレる焦点検出領域、及びケラレの発生量を算出し補正を行う場合について説明する。
(Example 2)
In the first embodiment, the determination of the presence or absence of vignetting of the light beam used for focus detection by the imaging lens and the correction of the image signal are performed using the imaging lens type (lens type information) and focal length information passed from the lens to the camera. This was done by collating with a table stored in the table. In the present embodiment, a description will be given of a case where a focus detection area in which vignetting occurs and information on the amount of vignetting are calculated and corrected from information communicated from each imaging lens to the camera.

本実施例の焦点検出装置の構成は、実施例1と等しく、図12、図13に示したブロック図に示したとおりである。実施例1との違いは、カメラ内に記憶している焦点検出装置情報の内容、及び、撮像レンズとカメラの間で通信する情報の内容である。   The configuration of the focus detection apparatus of this embodiment is the same as that of the first embodiment, and is as shown in the block diagrams shown in FIGS. The difference from the first embodiment is the content of the focus detection device information stored in the camera and the content of information communicated between the imaging lens and the camera.

本実施例では、図12において、カメラの中央演算回路PRS内のROM内に、焦点検出装置の焦点検出領域の撮像レンズ光軸Lからの位置の代表値を記憶している。また、焦点検出装置の絞り開口部212の焦点検出装置の光学系により投影される位置、及び、投影像の形状の情報についても、ROM内に記憶している。   In this embodiment, in FIG. 12, a representative value of the position of the focus detection area of the focus detection device from the optical axis L of the imaging lens is stored in the ROM in the central processing circuit PRS of the camera. Further, the position of the aperture opening 212 of the focus detection device projected by the optical system of the focus detection device and the information on the shape of the projection image are also stored in the ROM.

図13において、メモリ手段400に、撮像レンズの焦点距離に対応した射出瞳情報を記憶している。射出瞳情報とは、撮像レンズ201を透過する光束の実効Fナンバを制限する部材、例えば、図7におけるレンズ絞り201dや、前枠、後枠部材201e、201fなどの撮像レンズ光軸L上の位置と径の情報である。この射出瞳情報は、現在の焦点距離に応じて、レンズ情報DLCとしてレンズ通信回路LCOMを介して中央演算回路PRSに入力される。   In FIG. 13, the memory unit 400 stores exit pupil information corresponding to the focal length of the imaging lens. The exit pupil information is a member that restricts the effective F number of the light beam passing through the imaging lens 201, for example, on the imaging lens optical axis L such as the lens diaphragm 201d in FIG. 7, the front frame, the rear frame members 201e, and 201f. Information on position and diameter. The exit pupil information is input as lens information DLC to the central processing circuit PRS via the lens communication circuit LCOM according to the current focal length.

本実施例の焦点検出動作のフローチャートは、実施例1にて図14に示したものとほぼ変わらない。   The flowchart of the focus detection operation of the present embodiment is almost the same as that shown in FIG.

変更点は、ステップ4中のケラレが発生するか否かを判定する方法のみである。   The only change is the method of determining whether or not vignetting in step 4 occurs.

本実施例のステップ4では、撮像レンズ内の射出瞳情報と、焦点検出領域の位置情報、焦点検出装置の絞り開口部212の焦点検出装置の光学系による投影像に関する情報を用いた公知の手法を用いて、ケラレが発生する可能の有無を判定する。例えば特公平3−214133号公報に開示されている手法である。   In step 4 of the present embodiment, a known method using exit pupil information in the imaging lens, position information of the focus detection area, and information related to a projection image by the optical system of the focus detection device of the aperture opening 212 of the focus detection device. Is used to determine whether or not vignetting may occur. For example, this is a technique disclosed in Japanese Patent Publication No. 3-214133.

ステップ4でYESの場合は、ケラレにより発生する光量の低下情報を、カメラの中央演算回路PRSで算出する。その際にも、撮像レンズ内の射出瞳情報と、焦点検出領域の位置情報、焦点検出装置の絞り開口部212の焦点検出装置の光学系による投影像に関する情報を用いる。方法の詳細については、特公平3−214133号公報に開示されている通りである。算出された光量の低下情報から、必要な補正量を算出し、実施例1で説明した方法で補正を行う。   In the case of YES at step 4, the light amount reduction information generated by vignetting is calculated by the central processing circuit PRS of the camera. Also in this case, exit pupil information in the imaging lens, position information of the focus detection area, and information related to a projection image by the optical system of the focus detection device of the aperture opening 212 of the focus detection device are used. Details of the method are as disclosed in Japanese Patent Publication No. 3-214133. A necessary correction amount is calculated from the calculated light amount reduction information, and correction is performed by the method described in the first embodiment.

本実施例では、撮像レンズ内に射出瞳情報を記憶し、カメラ内で、焦点検出領域の位置情報、焦点検出装置の絞り開口部の焦点検出装置の光学系による投影像に関する情報を記憶することにより、ケラレの発生の有無、補正量の決定を行う。そのため、これらの情報さえあれば、どのようなカメラ、レンズの組み合わせにおいてもケラレの補正を行うことができる。一般的に、撮像レンズ内に射出瞳情報は記憶されているため、カメラ内に焦点検出装置に関する情報を記憶しておくことで、レンズの製造時期に関わらず、ケラレの補正を行うことができる。   In this embodiment, the exit pupil information is stored in the imaging lens, and the position information of the focus detection area and the information related to the projection image by the optical system of the focus detection device of the aperture opening of the focus detection device are stored in the camera. Thus, the presence / absence of vignetting and the correction amount are determined. Therefore, vignetting correction can be performed for any combination of cameras and lenses as long as these pieces of information are available. Generally, since exit pupil information is stored in the imaging lens, vignetting correction can be performed by storing information on the focus detection device in the camera regardless of the manufacturing time of the lens. .

また、本実施例では、撮像レンズに射出瞳に関する情報が記憶されるため、カメラ内で記憶するべき情報量を抑えることができる。   Further, in this embodiment, since information related to the exit pupil is stored in the imaging lens, the amount of information to be stored in the camera can be suppressed.

(実施例3)
実施例1、実施例2において、撮像レンズ交換式のカメラについて説明したが、本実施例では、撮像レンズ固定式のカメラについて説明する。
(Example 3)
In Embodiments 1 and 2, the imaging lens interchangeable camera has been described. In this embodiment, an imaging lens fixed camera will be described.

本実施例の焦点検出装置の構成は、実施例1及び、実施例2とほぼ等しく、図20のブロック図に示したとおりである。実施例1、実施例2との違いは、カメラ内や撮像レンズ内に記憶されていた図15に示した情報の一部をカメラ内に記憶していることである。また、カメラとレンズが一体であるため、実施例1、2では撮像レンズ内に設けたメモリ手段、CPUなどが省略されている。   The configuration of the focus detection apparatus of the present embodiment is almost the same as that of the first and second embodiments and is as shown in the block diagram of FIG. The difference from the first and second embodiments is that a part of the information shown in FIG. 15 stored in the camera or the imaging lens is stored in the camera. Further, since the camera and the lens are integrated, in the first and second embodiments, the memory means, CPU, and the like provided in the imaging lens are omitted.

本実施例の焦点検出動作のフローチャートは、実施例1にて図14に示したものとほぼ変わらない。   The flowchart of the focus detection operation of the present embodiment is almost the same as that shown in FIG.

変更点は、ステップ4中のケラレが発生する撮像レンズと焦点検出装置の組み合わせであるか否かを判定する方法のみである。   The only change is the method of determining whether or not the combination of the imaging lens and the focus detection device in which the vignetting in step 4 occurs.

本実施例のステップ4では、ケラレが発生する焦点距離情報と焦点検出領域の組み合わせをカメラ内で記憶しておくことにより、ケラレが発生する可能性の有無を判定することができる。図18にカメラ内に記憶されるテーブルについて示す。   In step 4 of the present embodiment, it is possible to determine whether or not there is a possibility of vignetting by storing a combination of focal length information and a focus detection area in which vignetting occurs in the camera. FIG. 18 shows a table stored in the camera.

中央演算回路PRSに記憶されている図19に示したテーブルと、現在の焦点距離情報、焦点検出領域を照合し、該当するものがあった場合、補正量算出式と調整係数を取得し、ステップ4でYESを選択する。該当するものが無い場合は、ステップ4でNOを選択する。ステップ4でYESの場合は、補正量算出式と調整係数を用いて、実施例1で説明した方法で補正を行う。本実施例では、カメラと撮像レンズの対応は一対一のため、記憶するべきケラレに関する情報が比較的少ない。そのため、調整係数を使用した補正に限らず、焦点距離と焦点検出領域に応じて、補正式を一つずつ記憶するように構成しても、問題は無く、より精度良い補正を行うことができる。   The table shown in FIG. 19 stored in the central processing circuit PRS is compared with the current focal length information and the focus detection area, and if there is a match, a correction amount calculation formula and an adjustment coefficient are obtained, 4 to select YES. If there is no corresponding item, NO is selected in Step 4. If YES in step 4, correction is performed by the method described in the first embodiment using the correction amount calculation formula and the adjustment coefficient. In this embodiment, since the correspondence between the camera and the imaging lens is one-to-one, there is relatively little information regarding vignetting to be stored. For this reason, there is no problem even if the correction formulas are stored one by one in accordance with the focal length and the focus detection region, and the correction can be performed with higher accuracy. .

本発明の焦点検出装置を内蔵した一眼レフカメラの中央断面図Central sectional view of a single-lens reflex camera incorporating the focus detection device of the present invention 本発明の焦点検出装置の斜視図The perspective view of the focus detection apparatus of this invention 絞り212を視野マスク210側から見た平面図A plan view of the diaphragm 212 viewed from the field mask 210 side 2次結像レンズユニット213の入射面側を見た平面図The top view which looked at the entrance plane side of the secondary image formation lens unit 213 受光素子215を視野マスク210側から見た平面図The top view which looked at the light receiving element 215 from the visual field mask 210 side 受光素子215の各受光素子列を視野マスク210上に逆投影した図The back projection of each light receiving element row of the light receiving element 215 on the field mask 210 撮像レンズ201と焦点検出装置208をストレートに展開した上面図A top view in which the imaging lens 201 and the focus detection device 208 are developed straight. 撮像レンズ絞り201d上の各部材の投影図の一形態One form of projection of each member on imaging lens stop 201d 撮像レンズを通る光束の一形態を示す図The figure which shows one form of the light beam which passes an imaging lens 撮像レンズ絞り201d上の各部材の投影図の一形態One form of projection of each member on imaging lens stop 201d 輝度が一様な被写体に対するケラレの様子を示す図A diagram showing vignetting on a subject with uniform brightness 本発明を実施するのに適したカメラの焦点検出装置の一例を示すブロック図1 is a block diagram showing an example of a camera focus detection apparatus suitable for carrying out the present invention. レンズ制御回路LNSUの説明図Explanatory diagram of the lens control circuit LNSU カメラの焦点検出装置の焦点検出動作を示す図The figure which shows the focus detection operation | movement of the focus detection apparatus of a camera 実施例1の像信号のケラレ補正に使用する情報テーブルの一例An example of an information table used for image signal vignetting correction according to the first exemplary embodiment 補正誤差による焦点検出ずれ量の予測値Eのパラメータc1説明図Parameter c1 explanatory diagram of the predicted value E of the focus detection deviation amount due to the correction error 補正誤差による焦点検出ずれ量の予測値Eのパラメータc2説明図Parameter c2 explanatory diagram of the predicted value E of the focus detection deviation amount due to the correction error 調整係数Tについて説明するThe adjustment coefficient T will be described 図実施例3の像信号のケラレ補正に使用する情報テーブルの一例An example of an information table used for image signal vignetting correction in FIG. 実施例3の構成について説明するブロック図Block diagram for explaining the configuration of the third embodiment

符号の説明Explanation of symbols

201 撮像レンズ
201 d撮像レンズ絞り
208 焦点検出装置
210 視野マスク
211 フィールドレンズ
212 絞り
215 受光素子
216光学像
DESCRIPTION OF SYMBOLS 201 Imaging lens 201 d Imaging lens aperture 208 Focus detection apparatus 210 Field mask 211 Field lens 212 Diaphragm 215 Light receiving element 216 Optical image

Claims (4)

撮像レンズの射出瞳の異なる領域を通過した対の光束による光学像の位相差に基づいて、前記撮像レンズを制御する焦点検出装置であって、
前記撮像レンズのレンズ種別情報および焦点距離情報に応じてケラレの補正を行う場合と行わない場合とがある補正手段と、
前記補正手段によってケラレの補正が行われたとき、当該ケラレの補正後の像信号の像の一致度から当該ケラレの補正の適否を相関演算を行う前に判定し、像の一致度が高いときには当該像信号から相関演算により得られた位相差に基づいて前記撮像レンズを制御する一方、像の一致度が低いときには当該像信号に基づく撮影レンズの制御を行わない制御手段とを有することを特徴とする焦点検出装置。
A focus detection device that controls the imaging lens based on a phase difference of an optical image by a pair of light beams that have passed through different regions of an exit pupil of the imaging lens,
Correction means that may or may not correct vignetting according to lens type information and focal length information of the imaging lens;
When said correction vignetting is performed by the correction means determines before performing the correlation operation the appropriateness of the correction of the vignetting from the matching of the image of the image signal after the correction of the vignetting, when the degree of coincidence of the image is Control means for controlling the imaging lens based on a phase difference obtained by correlation calculation from the image signal, and for not controlling the photographing lens based on the image signal when the degree of coincidence of the images is low. Focus detection device.
撮像レンズの射出瞳の異なる領域を通過した対の光束による光学像の位相差に基づいて、前記撮像レンズを制御する焦点検出装置であって、
前記撮像レンズの射出瞳情報および焦点検出装置の情報に応じてケラレの補正を行う場合と行わない場合とがある補正手段と、
前記補正手段によってケラレの補正が行われたとき、当該ケラレの補正後の像信号の像の一致度から当該ケラレの補正の適否を相関演算を行う前に判定し、像の一致度が高いときには当該像信号から相関演算により得られた位相差に基づいて前記撮像レンズを制御する一方、像の一致度が低いときには当該像信号に基づく撮影レンズの制御を行わない焦点検出装置。
A focus detection device that controls the imaging lens based on a phase difference of an optical image by a pair of light beams that have passed through different regions of an exit pupil of the imaging lens,
Correction means that may or may not correct vignetting according to exit pupil information of the imaging lens and information of the focus detection device;
When said correction vignetting is performed by the correction means determines before performing the correlation operation the appropriateness of the correction of the vignetting from the matching of the image of the image signal after the correction of the vignetting, when the degree of coincidence of the image is A focus detection apparatus that controls the imaging lens based on a phase difference obtained by correlation calculation from the image signal, but does not control the photographing lens based on the image signal when the degree of coincidence of the images is low.
前記制御手段は、前記補正手段による補正後の像信号に基づいて焦点検出処理を行うか否か判定することを特徴とする請求項1または2に記載の焦点検出装置。   The focus detection apparatus according to claim 1, wherein the control unit determines whether or not to perform focus detection processing based on an image signal corrected by the correction unit. 前記制御手段は、前記補正手段による補正後の像信号に基づいて焦点を合わせる視野を判定することを特徴とする請求項1または2に記載の焦点検出装置。 Wherein the control means, the focus detection apparatus according to claim 1 or 2, characterized in that to determine the field of view focused on the basis of the image signal corrected by said correction means.
JP2007205405A 2007-08-07 2007-08-07 Focus detection device and control method thereof Expired - Fee Related JP5159205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007205405A JP5159205B2 (en) 2007-08-07 2007-08-07 Focus detection device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007205405A JP5159205B2 (en) 2007-08-07 2007-08-07 Focus detection device and control method thereof

Publications (2)

Publication Number Publication Date
JP2009042370A JP2009042370A (en) 2009-02-26
JP5159205B2 true JP5159205B2 (en) 2013-03-06

Family

ID=40443183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007205405A Expired - Fee Related JP5159205B2 (en) 2007-08-07 2007-08-07 Focus detection device and control method thereof

Country Status (1)

Country Link
JP (1) JP5159205B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5424679B2 (en) 2009-03-18 2014-02-26 キヤノン株式会社 Imaging apparatus and signal processing apparatus
JP5675157B2 (en) * 2009-05-12 2015-02-25 キヤノン株式会社 Focus detection device
JP5735784B2 (en) * 2010-11-30 2015-06-17 キヤノン株式会社 Imaging device and control method thereof, lens device and control method thereof
JP5901246B2 (en) * 2010-12-13 2016-04-06 キヤノン株式会社 Imaging device
JP5904716B2 (en) * 2011-03-29 2016-04-20 キヤノン株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP5850627B2 (en) * 2011-03-30 2016-02-03 キヤノン株式会社 Imaging device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0258012A (en) * 1988-08-24 1990-02-27 Nikon Corp Focus detector
JP2003232983A (en) * 2001-12-13 2003-08-22 Fuji Photo Optical Co Ltd Ranging apparatus
JP4773767B2 (en) * 2005-08-15 2011-09-14 キヤノン株式会社 FOCUS DETECTION DEVICE, OPTICAL DEVICE, AND FOCUS DETECTION METHOD
JP4984491B2 (en) * 2005-10-31 2012-07-25 株式会社ニコン Focus detection apparatus and optical system
JP4470065B2 (en) * 2006-07-31 2010-06-02 フジノン株式会社 Ranging device

Also Published As

Publication number Publication date
JP2009042370A (en) 2009-02-26

Similar Documents

Publication Publication Date Title
JP5159205B2 (en) Focus detection device and control method thereof
JP5906235B2 (en) Imaging device
JPH04331908A (en) Automatic focus detection device
US6112029A (en) Camera, exchangeable lens, and camera system
JPH08248303A (en) Focus detector
JP2016099524A (en) Imaging apparatus and method for controlling the same
JP6019626B2 (en) Imaging device
JP4821506B2 (en) Focus adjustment device and camera
US20140009666A1 (en) Image capturing apparatus
JP2002023044A (en) Focus detector, range-finding device and camera
JP3039066B2 (en) Focus detection device
JP6487679B2 (en) Focus detection apparatus and control method thereof
JP2015034859A (en) Automatic focus adjustment lens device and photographing device
JP2002131624A (en) Multipoint automatic focusing camera
JP2004012493A (en) Focus detector
JP2768459B2 (en) Focus detection device
JP5773680B2 (en) Focus detection apparatus and control method thereof
JPH06138378A (en) Camera provided with focus detecting means and line-of-sight detecting means
US11368613B2 (en) Control apparatus, image pickup apparatus, and control method
JP5065466B2 (en) Focus detection apparatus and optical instrument
JPH086184A (en) Photographing device
US6370333B1 (en) Multipoint focus detecting apparatus
JP6521629B2 (en) CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, AND PROGRAM
JP2001124982A (en) Multifocus detecting device
JP6592968B2 (en) Focus detection apparatus and imaging apparatus

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121211

R151 Written notification of patent or utility model registration

Ref document number: 5159205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees