JP2013015807A - Focus detector and imaging apparatus - Google Patents

Focus detector and imaging apparatus Download PDF

Info

Publication number
JP2013015807A
JP2013015807A JP2011200171A JP2011200171A JP2013015807A JP 2013015807 A JP2013015807 A JP 2013015807A JP 2011200171 A JP2011200171 A JP 2011200171A JP 2011200171 A JP2011200171 A JP 2011200171A JP 2013015807 A JP2013015807 A JP 2013015807A
Authority
JP
Japan
Prior art keywords
focus detection
light receiving
specific subject
focus
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011200171A
Other languages
Japanese (ja)
Inventor
Hiroaki Takahara
宏明 高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011200171A priority Critical patent/JP2013015807A/en
Publication of JP2013015807A publication Critical patent/JP2013015807A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a focus detector capable of excellently detecting a focus state of an optical system.SOLUTION: The focus detector comprises: an imaging section 22 for imaging an image by the optical system and outputting an image signal corresponding to the picked-up image; a light receiving section 22 including a line-shaped light receiving sensor receiving a pair of light fluxes via the optical system to output a pair of signals for detecting a focus; a recognition section 21 for recognizing the position of an image corresponding to a reference image equivalent to an object image as the position of a specific subject on the basis of an image signal outputted from the imaging section 22; a specifying section 21 for specifying a position corresponding to the position of the specific subject in the light receiving sensor as a corresponding sensor portion to be used for detecting a focus; and a focus detection section 21 for detecting the focus state of the optical system by detecting deviation amount of an image surface by the optical system on the basis of a pair of signals for detecting a focus outputted from the corresponding sensor portion.

Description

本発明は、焦点検出装置および撮像装置に関する。   The present invention relates to a focus detection apparatus and an imaging apparatus.

従来より、焦点検出用の受光センサを有する受光部と、画像を撮影するための撮像素子とを独立して別々に設け、受光センサから出力される一対の焦点検出用信号に基づいて、光学系による像面のずれ量を検出することで、光学系の焦点状態を検出する技術が知られている(たとえば、特許文献1)。   Conventionally, a light receiving unit having a light receiving sensor for focus detection and an image sensor for taking an image are separately provided separately, and an optical system based on a pair of focus detection signals output from the light receiving sensor. A technique for detecting the focal state of an optical system by detecting the amount of image plane displacement due to the above is known (for example, Patent Document 1).

特開2001−174692号公報JP 2001-174692 A

しかしながら、従来技術では、焦点検出用の受光センサを有する受光部と、画像を撮影するための撮像素子とが独立して設けられているため、調整誤差により、光軸方向に対する受光部の受光面の向きと、光軸方向に対する撮像素子の撮像面の向きとが一致しない場合があり、このような場合に、焦点検出精度が低下してしまう場合があった。   However, in the prior art, since the light receiving unit having the light receiving sensor for focus detection and the image sensor for taking an image are provided independently, the light receiving surface of the light receiving unit with respect to the optical axis direction due to an adjustment error. And the orientation of the imaging surface of the imaging device with respect to the optical axis direction may not match. In such a case, focus detection accuracy may be reduced.

本発明が解決しようとする課題は、光学系の焦点状態を良好に検出することが可能な焦点検出装置を提供することである。   The problem to be solved by the present invention is to provide a focus detection device that can detect the focus state of an optical system satisfactorily.

本発明は、以下の解決手段によって上記課題を解決する。なお、以下においては、本発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above problems by the following means. In the following description, reference numerals corresponding to the drawings showing the embodiment of the present invention are given and described. However, the reference numerals are only for facilitating the understanding of the invention and are not intended to limit the invention. .

[1]本発明に係る焦点検出装置は、光学系による像を撮像し、撮像した像に対応する画像信号を出力する撮像部(22)と、前記光学系を介した一対の光束を受光して一対の焦点検出用信号を出力するライン状の受光センサ(22a〜22e)を有する受光部(22)と、前記撮像部から出力された前記画像信号に基づいて、対象とする像に相当する基準画像に対応する画像の位置を、特定被写体の位置として認識する認識部(21)と、前記受光センサにおける、前記特定被写体の位置に対応する位置を、焦点検出に用いるための対応センサ部分として特定する特定部(21)と、前記対応センサ部分から出力された前記一対の焦点検出用信号に基づいて、前記光学系による像面のずれ量を検出することで、前記光学系の焦点状態を検出する焦点検出部(21)と、を備えることを特徴とする。   [1] A focus detection apparatus according to the present invention captures an image by an optical system and outputs an image signal corresponding to the captured image, and receives a pair of light beams via the optical system. And a light receiving unit (22) having a line-shaped light receiving sensor (22a to 22e) for outputting a pair of focus detection signals, and the image signal output from the imaging unit corresponds to a target image. A recognition unit (21) that recognizes the position of the image corresponding to the reference image as the position of the specific subject, and a position corresponding to the position of the specific subject in the light receiving sensor as a corresponding sensor part for use in focus detection The focus state of the optical system is determined by detecting the amount of displacement of the image plane by the optical system based on the specifying unit (21) to be specified and the pair of focus detection signals output from the corresponding sensor part. detection That focus detection unit (21), characterized in that it comprises a.

[2]上記焦点検出装置に係る発明において、前記特定部(21)は、前記対応センサ部分を、前記特定被写体の前記受光センサ(22a〜22e)の長さ方向の幅に対応した長さで特定するように構成することができる。   [2] In the invention relating to the focus detection device, the specifying unit (21) may be configured such that the corresponding sensor portion has a length corresponding to a width of the specific subject in the length direction of the light receiving sensors (22a to 22e). It can be configured to be specific.

[3]上記焦点検出装置に係る発明において、前記特定部(21)は、前記対応センサ部分を、前記特定被写体の中心位置を中心として対称となるように特定するように構成することができる。   [3] In the invention relating to the focus detection apparatus, the specifying unit (21) may be configured to specify the corresponding sensor portion so as to be symmetrical about the center position of the specific subject.

[4]上記焦点検出装置に係る発明において、前記特定部(21)は、前記特定被写体の位置が、前記受光センサ(22a〜22e)の長さ方向に移動した場合に、前記特定被写体の位置の移動に応じて、前記対応センサ部分を移動させるように構成することができる。   [4] In the invention according to the focus detection apparatus, the specifying unit (21) may determine the position of the specific subject when the position of the specific subject moves in the length direction of the light receiving sensors (22a to 22e). The corresponding sensor portion can be configured to move in response to the movement.

[5]上記焦点検出装置に係る発明において、前記受光センサ(22a〜22e)は、ライン状に配列された複数の焦点検出用画素(222a,222b)から構成されており、前記特定部(21)は、前記特定被写体の位置に応じて、焦点検出に用いる前記焦点検出用画素を変更するように構成することができる。   [5] In the invention relating to the focus detection device, the light receiving sensors (22a to 22e) are configured by a plurality of focus detection pixels (222a and 222b) arranged in a line, and the specifying unit (21 ) Can be configured to change the focus detection pixels used for focus detection according to the position of the specific subject.

[6]上記焦点検出装置に係る発明において、前記特定部(21)は、前記特定被写体の大きさに応じて、焦点検出に用いる前記焦点検出用画素(222a,222b)の数を変更するように構成することができる。   [6] In the invention related to the focus detection apparatus, the specifying unit (21) changes the number of the focus detection pixels (222a, 222b) used for focus detection according to the size of the specific subject. Can be configured.

[7]上記焦点検出装置に係る発明において、前記受光部(22)には、複数の前記受光センサ(22a〜22e)が、該受光センサの長さ方向と垂直な方向に沿って配列されており、前記特定部(21)は、前記複数の受光センサのうち、前記特定被写体の中心位置に最も近い受光センサを焦点検出に用いる受光センサとして選択し、前記選択した受光センサにおける、前記特定被写体の位置に対応する位置を、前記対応センサ部分として特定するように構成することができる。   [7] In the invention related to the focus detection apparatus, the light receiving unit (22) includes a plurality of the light receiving sensors (22a to 22e) arranged along a direction perpendicular to the length direction of the light receiving sensor. The specifying unit (21) selects a light receiving sensor closest to the center position of the specific subject among the plurality of light receiving sensors as a light receiving sensor used for focus detection, and the specific subject in the selected light receiving sensor is selected. A position corresponding to this position can be specified as the corresponding sensor portion.

[8]上記焦点検出装置に係る発明において、前記特定部(32)は、前記特定被写体の位置が、前記複数の受光センサ(22a〜22e)のいずれにも重複しておらず、隣り合う前記受光センサの間に位置する場合には、前記特定被写体の位置よりも、鉛直方向上側に位置する前記受光センサを除いた前記複数の受光センサのうち、前記特定被写体の中心位置に最も近い受光センサを焦点検出に用いる受光センサとして選択するように構成することができる。   [8] In the invention relating to the focus detection apparatus, the specifying unit (32) may be configured such that the position of the specific subject does not overlap any of the plurality of light receiving sensors (22a to 22e) and is adjacent to the specific light receiving sensor (22a to 22e). When located between the light receiving sensors, among the plurality of light receiving sensors excluding the light receiving sensor located vertically above the position of the specific subject, the light receiving sensor closest to the center position of the specific subject Can be selected as the light receiving sensor used for focus detection.

[9]上記焦点検出装置に係る発明において、前記特定部(21)は、前記特定被写体の位置が、前記複数の受光センサ(22a〜22e)の配列方向に移動した場合に、前記特定被写体の位置の移動に応じて、焦点検出に用いる受光センサを変更するように構成することができる。   [9] In the invention related to the focus detection device, the specifying unit (21) may detect the specific subject when the position of the specific subject moves in the arrangement direction of the plurality of light receiving sensors (22a to 22e). The light receiving sensor used for focus detection can be changed in accordance with the movement of the position.

[10]上記焦点検出装置に係る発明において、前記特定部(21)は、前記特定被写体の位置が、複数の前記受光センサ(22a〜22e)にまたがる場合には、該複数の受光センサを焦点検出に用いる受光センサとして選択し、前記選択した受光センサにおける、前記特定被写体の位置に対応する位置を、前記対応センサ部分としてそれぞれ特定するように構成することができる。   [10] In the invention related to the focus detection device, the specifying unit (21) focuses the plurality of light receiving sensors when the position of the specific subject extends over the plurality of light receiving sensors (22a to 22e). A light receiving sensor used for detection may be selected, and a position corresponding to the position of the specific subject in the selected light receiving sensor may be specified as the corresponding sensor portion.

[11]上記焦点検出装置に係る発明において、前記受光部(22)には、複数の前記受光センサ(22a〜22e)が、該受光センサの長さ方向と垂直な方向に沿って配列されており、前記特定部(21)は、前記複数の受光センサのうち、前記特定被写体の中心位置よりも鉛直方向下側に位置する受光センサを、焦点検出に用いる受光センサとして選択し、前記選択した受光センサにおける、前記特定被写体の位置に対応する位置を、前記対応センサ部分として特定するように構成することができる。   [11] In the invention relating to the focus detection apparatus, the light receiving unit (22) includes a plurality of the light receiving sensors (22a to 22e) arranged along a direction perpendicular to a length direction of the light receiving sensor. The specifying unit (21) selects, from among the plurality of light receiving sensors, a light receiving sensor that is positioned below the center position of the specific subject as a light receiving sensor used for focus detection, and selects the selected light receiving sensor. A position corresponding to the position of the specific subject in the light receiving sensor can be specified as the corresponding sensor portion.

[12]上記焦点検出装置に係る発明において、前記受光センサ(22a〜22e)は、前記撮像部(22)の受光面に備えられているように構成することができる。   [12] In the invention related to the focus detection apparatus, the light receiving sensors (22a to 22e) may be configured to be provided on a light receiving surface of the imaging unit (22).

[13]本発明に係る撮像装置は、上記焦点検出装置を備えることを特徴とする。   [13] An imaging apparatus according to the present invention includes the focus detection apparatus.

本発明によれば、光学系の焦点状態を良好に検出することができる。   According to the present invention, the focus state of the optical system can be detected satisfactorily.

図1は、本実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the present embodiment. 図2は、図1に示す撮像素子の撮像面を示す正面図である。FIG. 2 is a front view showing an imaging surface of the imaging device shown in FIG. 図3は、図2の22a付近を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the vicinity of 22a in FIG. 図4は、撮像画素221の一つを拡大して示す正面図である。FIG. 4 is an enlarged front view showing one of the imaging pixels 221. 図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図である。FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b. 図6は、撮像画素221の一つを拡大して示す断面図である。FIG. 6 is an enlarged cross-sectional view showing one of the imaging pixels 221. 図7(A)は、焦点検出画素222aの一つを拡大して示す断面図、図7(B)は、焦点検出画素222bの一つを拡大して示す断面図である。FIG. 7A is an enlarged cross-sectional view showing one of the focus detection pixels 222a, and FIG. 7B is an enlarged cross-sectional view showing one of the focus detection pixels 222b. 図8は、図3のVIII-VIII線に沿う断面図である。8 is a cross-sectional view taken along line VIII-VIII in FIG. 図9は、焦点検出に用いるための焦点検出部分の特定方法を説明するための図である。FIG. 9 is a diagram for explaining a method of specifying a focus detection portion for use in focus detection. 図10は、予め設定された焦点検出エリアで焦点検出を行う方法を説明するための図面である。FIG. 10 is a diagram for explaining a method of performing focus detection in a preset focus detection area. 図11は、特定被写体の大きさ応じて、焦点検出に用いる焦点検出画素222a,222bの数を変更する方法を説明するための図である。FIG. 11 is a diagram for explaining a method of changing the number of focus detection pixels 222a and 222b used for focus detection according to the size of a specific subject. 図12は、特定被写体の位置が、複数の焦点検出画素列にまたがっている一場面例を示す図である。FIG. 12 is a diagram illustrating an example of a scene in which the position of the specific subject extends over a plurality of focus detection pixel rows. 図13は、特定被写体の位置が、複数の焦点検出画素列のいずれにも重複していない一場面例を示す図である。FIG. 13 is a diagram illustrating an example of a scene in which the position of the specific subject does not overlap with any of the plurality of focus detection pixel rows.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。   FIG. 1 is a main part configuration diagram showing a digital camera 1 according to an embodiment of the present invention. A digital camera 1 according to the present embodiment (hereinafter simply referred to as a camera 1) includes a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4. Yes.

レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that can be attached to and detached from the camera body 2. As shown in FIG. 1, the lens barrel 3 includes a photographic optical system including lenses 31, 32, 33 and a diaphragm 34.

レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点距離を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens, and can adjust the focal length of the photographing optical system by moving in the direction of the optical axis L1. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 36 while its position is detected by the encoder 35.

このフォーカスレンズ32の光軸L1に沿う移動機構の具体的構成は特に限定されない。一例を挙げれば、レンズ鏡筒3に固定された固定筒に回転可能に回転筒を挿入し、この回転筒の内周面にヘリコイド溝(螺旋溝)を形成するとともに、フォーカスレンズ32を固定するレンズ枠の端部をヘリコイド溝に嵌合させる。そして、フォーカスレンズ駆動モータ36によって回転筒を回転させることで、レンズ枠に固定されたフォーカスレンズ32が光軸L1に沿って直進移動することになる。   The specific configuration of the moving mechanism along the optical axis L1 of the focus lens 32 is not particularly limited. For example, a rotating cylinder is rotatably inserted into a fixed cylinder fixed to the lens barrel 3, a helicoid groove (spiral groove) is formed on the inner peripheral surface of the rotating cylinder, and the focus lens 32 is fixed. The end of the lens frame is fitted into the helicoid groove. Then, by rotating the rotating cylinder by the focus lens drive motor 36, the focus lens 32 fixed to the lens frame moves straight along the optical axis L1.

上述したようにレンズ鏡筒3に対して回転筒を回転させることによりレンズ枠に固定されたフォーカスレンズ32は光軸L1方向に直進移動するが、その駆動源としてのフォーカスレンズ駆動モータ36がレンズ鏡筒3に設けられている。フォーカスレンズ駆動モータ36と回転筒とは、たとえば複数の歯車からなる変速機で連結され、フォーカスレンズ駆動モータ36の駆動軸を何れか一方向へ回転駆動すると所定のギヤ比で回転筒に伝達され、そして、回転筒が何れか一方向へ回転することで、レンズ枠に固定されたフォーカスレンズ32が光軸L1の何れかの方向へ直進移動することになる。なお、フォーカスレンズ駆動モータ36の駆動軸が逆方向に回転駆動すると、変速機を構成する複数の歯車も逆方向に回転し、フォーカスレンズ32は光軸L1の逆方向へ直進移動することになる。   As described above, the focus lens 32 fixed to the lens frame by rotating the rotary cylinder with respect to the lens barrel 3 moves straight in the direction of the optical axis L1, but the focus lens drive motor 36 as the drive source is the lens. The lens barrel 3 is provided. The focus lens drive motor 36 and the rotary cylinder are connected by a transmission composed of a plurality of gears, for example, and when the drive shaft of the focus lens drive motor 36 is driven to rotate in any one direction, it is transmitted to the rotary cylinder at a predetermined gear ratio. Then, when the rotating cylinder rotates in any one direction, the focus lens 32 fixed to the lens frame moves linearly in any direction of the optical axis L1. When the drive shaft of the focus lens drive motor 36 is rotated in the reverse direction, the plurality of gears constituting the transmission also rotate in the reverse direction, and the focus lens 32 moves straight in the reverse direction of the optical axis L1. .

フォーカスレンズ32の位置はエンコーダ35によって検出される。既述したとおり、フォーカスレンズ32の光軸L1方向の位置は回転筒の回転角に相関するので、たとえばレンズ鏡筒3に対する回転筒の相対的な回転角を検出すれば求めることができる。   The position of the focus lens 32 is detected by the encoder 35. As described above, the position of the focus lens 32 in the optical axis L1 direction correlates with the rotation angle of the rotating cylinder, and can be obtained by detecting the relative rotation angle of the rotating cylinder with respect to the lens barrel 3, for example.

本実施形態のエンコーダ35としては、回転筒の回転駆動に連結された回転円板の回転をフォトインタラプタなどの光センサで検出して、回転数に応じたパルス信号を出力するものや、固定筒と回転筒の何れか一方に設けられたフレキシブルプリント配線板の表面のエンコーダパターンに、何れか他方に設けられたブラシ接点を接触させ、回転筒の移動量(回転方向でも光軸方向の何れでもよい)に応じた接触位置の変化を検出回路で検出するものなどを用いることができる。   As the encoder 35 of this embodiment, an encoder that detects the rotation of a rotating disk coupled to the rotational drive of the rotating cylinder with an optical sensor such as a photo interrupter and outputs a pulse signal corresponding to the number of rotations, or a fixed cylinder And the contact point of the brush on the surface of the flexible printed wiring board provided on either one of the rotating cylinders, and the brush contact provided on the other, the amount of movement of the rotating cylinder (in either the rotational direction or the optical axis direction) A device that detects a change in the contact position according to the detection circuit using a detection circuit can be used.

フォーカスレンズ32は、上述した回転筒の回転によってカメラボディ側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダ35で検出されたフォーカスレンズ32の現在位置情報は、レンズ制御部37を介して後述するカメラ制御部21へ送出され、フォーカスレンズ駆動モータ36は、この情報に基づいて演算されたフォーカスレンズ32の駆動位置が、カメラ制御部21からレンズ制御部37を介して送出されることにより駆動する。   The focus lens 32 can move in the direction of the optical axis L1 from the end on the camera body side (also referred to as the closest end) to the end on the subject side (also referred to as the infinite end) by the rotation of the rotating cylinder described above. it can. Incidentally, the current position information of the focus lens 32 detected by the encoder 35 is sent to the camera control unit 21 to be described later via the lens control unit 37, and the focus lens drive motor 36 calculates the focus calculated based on this information. The driving position of the lens 32 is driven by being sent from the camera control unit 21 via the lens control unit 37.

絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された絞り値に応じた開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The diaphragm 34 is configured such that the aperture diameter around the optical axis L1 can be adjusted in order to limit the amount of light flux that passes through the photographing optical system and reaches the image sensor 22 and to adjust the blur amount. Adjustment of the aperture diameter by the diaphragm 34 is performed, for example, by sending the aperture diameter calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the aperture diameter corresponding to the set aperture value is input from the camera control unit 21 to the lens control unit 37 by a manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the aperture 34 is detected by an aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.

一方、カメラ本体2には、上記撮影光学系からの光束L1を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCCDやCMOSなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるメモリ24に記録される。メモリ24は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。なお、撮像素子22の撮像面の前方には、赤外光をカットするための赤外線カットフィルタ、および画像の折り返しノイズを防止するための光学的ローパスフィルタが配置されている。撮像素子22の構造の詳細は後述する。   On the other hand, the camera body 2 is provided with an imaging element 22 that receives the light beam L1 from the photographing optical system on a planned focal plane of the photographing optical system, and a shutter 23 is provided on the front surface thereof. The image sensor 22 is composed of a device such as a CCD or CMOS, converts the received optical signal into an electrical signal, and sends it to the camera control unit 21. The captured image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and a release button ( When (not shown) is fully pressed, the photographed image information is recorded in the memory 24 that is a recording medium. As the memory 24, any of a removable card type memory and a built-in type memory can be used. An infrared cut filter for cutting infrared light and an optical low-pass filter for preventing image aliasing noise are disposed in front of the imaging surface of the image sensor 22. Details of the structure of the image sensor 22 will be described later.

カメラ本体2には、撮像素子22で撮像される像を観察するための観察光学系が設けられている。本実施形態の観察光学系は、液晶表示素子からなる電子ビューファインダ(EVF)26と、これを駆動する液晶駆動回路25と、接眼レンズ27とを備えている。液晶駆動回路25は、撮像素子22で撮像され、カメラ制御部21へ送出された撮影画像情報を読み込み、これに基づいて電子ビューファインダ26を駆動する。これにより、ユーザは、接眼レンズ27を通して現在の撮影画像を観察することができる。なお、光軸L2による上記観察光学系に代えて、または、これに加えて、液晶ディスプレイをカメラ本体2の背面等に設け、この液晶ディスプレイに撮影画像を表示させることもできる。   The camera body 2 is provided with an observation optical system for observing an image picked up by the image pickup device 22. The observation optical system of the present embodiment includes an electronic viewfinder (EVF) 26 composed of a liquid crystal display element, a liquid crystal driving circuit 25 that drives the electronic viewfinder (EVF) 26, and an eyepiece lens 27. The liquid crystal drive circuit 25 reads the captured image information captured by the image sensor 22 and sent to the camera control unit 21, and drives the electronic viewfinder 26 based on the read image information. Thereby, the user can observe the current captured image through the eyepiece lens 27. Note that, instead of or in addition to the observation optical system using the optical axis L2, a liquid crystal display may be provided on the back surface of the camera body 2, and a photographed image may be displayed on the liquid crystal display.

カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、マウント部4に設けられた電気信号接点部41によりレンズ制御部37と電気的に接続され、このレンズ制御部37からレンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25やメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 is electrically connected to the lens control unit 37 through an electric signal contact unit 41 provided in the mount unit 4, receives lens information from the lens control unit 37, and defocuses to the lens control unit 37. Send information such as volume and aperture diameter. The camera control unit 21 reads out the pixel output from the image sensor 22 as described above, generates image information by performing predetermined information processing on the read out pixel output as necessary, and generates the generated image information. Is output to the liquid crystal driving circuit 25 and the memory 24 of the electronic viewfinder 26. The camera control unit 21 controls the entire camera 1 such as correction of image information from the image sensor 22 and detection of a focus adjustment state and an aperture adjustment state of the lens barrel 3.

また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出を行う。なお、具体的な焦点状態の検出方法については、後述する。   In addition to the above, the camera control unit 21 detects the focus state of the photographing optical system by the phase detection method based on the pixel data read from the image sensor 22. A specific focus state detection method will be described later.

操作部28は、シャッターレリーズボタンやユーザがカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is a shutter release button or an input switch for the user to set various operation modes of the camera 1, and can switch between an autofocus mode and a manual focus mode. Various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera 1 is controlled by the camera control unit 21. The shutter release button includes a first switch SW1 that is turned on when the button is half-pressed and a second switch SW2 that is turned on when the button is fully pressed.

次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.

図2は、撮像素子22の撮像面を示す正面図、図3は、図2の焦点検出画素列22a付近を拡大して焦点検出画素222a,222bの配列を模式的に示す正面図である。   FIG. 2 is a front view showing the imaging surface of the imaging element 22, and FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222a and 222b by enlarging the vicinity of the focus detection pixel row 22a in FIG.

本実施形態の撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。   As shown in FIG. 3, the imaging element 22 of the present embodiment includes a green pixel G having a color filter in which a plurality of imaging pixels 221 are two-dimensionally arranged on the plane of the imaging surface and transmit a green wavelength region. A red pixel R having a color filter that transmits a red wavelength region and a blue pixel B having a color filter that transmits a blue wavelength region are arranged in a so-called Bayer Arrangement. That is, in four adjacent pixel groups 223 (dense square lattice arrangement), two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image sensor 22 is configured by repeatedly arranging the pixel group 223 on the imaging surface of the image sensor 22 in a two-dimensional manner with the Bayer array pixel group 223 as a unit.

なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The unit pixel group 223 may be arranged in a dense hexagonal lattice arrangement other than the dense square lattice shown in the figure. Further, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図4は、撮像画素221の一つを拡大して示す正面図、図6は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図6の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   FIG. 4 is an enlarged front view showing one of the imaging pixels 221, and FIG. 6 is a cross-sectional view. One imaging pixel 221 includes a micro lens 2211, a photoelectric conversion unit 2212, and a color filter (not shown), and a photoelectric conversion unit is formed on the surface of the semiconductor circuit substrate 2213 of the image sensor 22 as shown in the cross-sectional view of FIG. 2212 is built in and a microlens 2211 is formed on the surface. The photoelectric conversion unit 2212 is configured to receive an imaging light beam that passes through an exit pupil (for example, F1.0) of the photographing optical system by the micro lens 2211, and receives the imaging light beam.

また、撮像素子22の撮像面には、上述した撮像画素221に代えて焦点検出画素222a,222bが配列された5つの焦点検出画素列22a〜22eが設けられている。これらの焦点検出画素列22a〜22eは、図2に示すように、焦点検出画素列22a〜22eの長さ方向と垂直する方向に沿って配列されている。そして、図3に示すように、一つの焦点検出画素列は、複数の焦点検出画素222aおよび222bが、互いに隣接して交互に、横一列に配列されて構成されている。本実施形態においては、焦点検出画素222aおよび222bは、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   Further, on the imaging surface of the imaging element 22, five focus detection pixel rows 22a to 22e in which focus detection pixels 222a and 222b are arranged instead of the above-described imaging pixel 221 are provided. These focus detection pixel columns 22a to 22e are arranged along a direction perpendicular to the length direction of the focus detection pixel columns 22a to 22e, as shown in FIG. As shown in FIG. 3, one focus detection pixel column is configured by a plurality of focus detection pixels 222 a and 222 b being alternately arranged adjacent to each other in a horizontal row. In the present embodiment, the focus detection pixels 222a and 222b are densely arranged without providing a gap at the position of the green pixel G and the blue pixel B of the image pickup pixel 221 arranged in the Bayer array.

なお、図2に示す焦点検出画素列22a〜22eの位置は図示する位置にのみ限定されず、何れか一箇所、二箇所、三箇所、あるいは四箇所とすることもでき、また、六箇所以上の位置に配置することもできる。また、図3においては、16個の焦点検出画素222a,222bにより、焦点検出画素列を構成する例を示しているが、焦点検出画素列を構成する焦点検出画素の数は、この例に限定されるものではない。   Note that the positions of the focus detection pixel rows 22a to 22e shown in FIG. 2 are not limited to the illustrated positions, and may be any one, two, three, or four locations, and more than six locations. It can also be arranged at the position. FIG. 3 shows an example in which the focus detection pixel array is configured by 16 focus detection pixels 222a and 222b, but the number of focus detection pixels configuring the focus detection pixel array is limited to this example. Is not to be done.

図5(A)は、焦点検出画素222aの一つを拡大して示す正面図、図7(A)は、焦点検出画素222aの断面図である。また、図5(B)は、焦点検出画素222bの一つを拡大して示す正面図、図7(B)は、焦点検出画素222bの断面図である。焦点検出画素222aは、図5(A)に示すように、マイクロレンズ2221aと、半円形状の光電変換部2222aとから構成され、図7(A)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、焦点検出画素222bは、図5(B)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図7(B)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、横一列に配列されることにより、図2に示す焦点検出画素列22a〜22eを構成する。   FIG. 5A is an enlarged front view showing one of the focus detection pixels 222a, and FIG. 7A is a cross-sectional view of the focus detection pixel 222a. FIG. 5B is an enlarged front view showing one of the focus detection pixels 222b, and FIG. 7B is a cross-sectional view of the focus detection pixel 222b. As shown in FIG. 5A, the focus detection pixel 222a includes a micro lens 2221a and a semicircular photoelectric conversion unit 2222a. As shown in the cross-sectional view of FIG. A photoelectric conversion portion 2222a is formed on the surface of the semiconductor circuit substrate 2213, and a micro lens 2221a is formed on the surface. The focus detection pixel 222b includes a micro lens 2221b and a photoelectric conversion unit 2222b as shown in FIG. 5B, and a semiconductor of the image sensor 22 as shown in a cross-sectional view of FIG. 7B. A photoelectric conversion unit 2222b is formed on the surface of the circuit board 2213, and a microlens 2221b is formed on the surface. Then, as shown in FIG. 3, these focus detection pixels 222a and 222b are alternately arranged adjacent to each other in a horizontal row, thereby forming focus detection pixel rows 22a to 22e shown in FIG.

なお、焦点検出画素222a,222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、焦点検出画素222a,222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   The photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b have such a shape that the microlenses 2221a and 2221b receive a light beam that passes through a predetermined region (eg, F2.8) of the exit pupil of the photographing optical system. Is done. Further, the focus detection pixels 222a and 222b are not provided with color filters, and their spectral characteristics are the total of the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). ing. However, it may be configured to include one of the same color filters as the imaging pixel 221, for example, a green filter.

また、図5(A)、図5(B)に示す焦点検出画素222a,222bの光電変換部2222a,2222bは半円形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状とすることもできる。   In addition, although the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b illustrated in FIGS. 5A and 5B have a semicircular shape, the shapes of the photoelectric conversion units 2222a and 2222b are not limited thereto. Other shapes such as an elliptical shape, a rectangular shape, and a polygonal shape can also be used.

ここで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Here, a so-called phase difference detection method for detecting the focus state of the photographing optical system based on the pixel outputs of the focus detection pixels 222a and 222b described above will be described.

図8は、図3のVIII-VIII線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳34の測距瞳341,342から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図8においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図8に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳341,342から照射される光束をそれぞれ受光するように構成されている。   FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 3. The focus detection pixels 222 a-1, 222 b-1, 222 a-2, and 222 b-2 that are arranged in the vicinity of the photographing optical axis L 1 and adjacent to each other are It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 irradiated from the distance measuring pupils 341 and 342 of the exit pupil 34 are received, respectively. 8 illustrates only the focus detection pixels 222a and 222b that are located in the vicinity of the photographing optical axis L1, but other focus detection pixels other than the focus detection pixels illustrated in FIG. 8 are illustrated. In the same manner, the light beams emitted from the pair of distance measuring pupils 341 and 342 are respectively received.

ここで、射出瞳34とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳341,342とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 34 is an image set at a distance D in front of the microlenses 2221a and 2221b of the focus detection pixels 222a and 222b arranged on the planned focal plane of the photographing optical system. The distance D is a value uniquely determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the distance D is referred to as a distance measurement pupil distance. The distance measurement pupils 341 and 342 are images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.

なお、図8において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳341,342の並び方向と一致している。   In FIG. 8, the arrangement direction of the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 coincides with the arrangement direction of the pair of distance measuring pupils 341, 342.

また、図8に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   As shown in FIG. 8, the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 are photographic optical systems. Near the planned focal plane. The shapes of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 arranged behind the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 are the same as the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2. Projected onto the exit pupil 34 separated from the lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 by the distance measurement distance D, and the projection shape forms the distance measurement pupils 341, 342.

すなわち、測距距離Dにある射出瞳34上で、各焦点検出画素の光電変換部の投影形状(測距瞳341,342)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   In other words, on the exit pupil 34 at the distance measurement distance D, the microlens and the photoelectric conversion unit in each focus detection pixel so that the projection shapes (the distance measurement pupils 341 and 342) of the photoelectric conversion unit of each focus detection pixel match. Is determined, and the projection direction of the photoelectric conversion unit in each focus detection pixel is thereby determined.

図8に示すように、焦点検出画素222a−1の光電変換部2222a−1は、測距瞳341を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222a−2の光電変換部2222a−2は測距瞳341を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 8, the photoelectric conversion unit 2222a-1 of the focus detection pixel 222a-1 is formed on the microlens 2221a-1 by the light beam AB1-1 that passes through the distance measuring pupil 341 and goes to the microlens 2221a-1. A signal corresponding to the intensity of the image to be output is output. Similarly, the photoelectric conversion unit 2222a-2 of the focus detection pixel 222a-2 passes through the distance measuring pupil 341, and the intensity of the image formed on the microlens 2221a-2 by the light beam AB1-2 toward the microlens 2221a-2. The signal corresponding to is output.

また、焦点検出画素222b−1の光電変換部2222b−1は測距瞳342を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222b−2の光電変換部2222b−2は測距瞳342を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   Further, the photoelectric conversion unit 2222b-1 of the focus detection pixel 222b-1 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-1 by the light beam AB2-1 directed to the microlens 2221b-1. Output the corresponding signal. Similarly, the photoelectric conversion unit 2222b-2 of the focus detection pixel 222b-2 passes through the distance measuring pupil 342, and the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 toward the microlens 2221b-2. The signal corresponding to is output.

そして、上述した2種類の焦点検出画素222a,222bを、図3に示すようにライン状に複数配置し、各焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳341と測距瞳342とのそれぞれに対応した出力グループにまとめることにより、測距瞳341と測距瞳342とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。そして、この強度分布データに対し、相関演算処理または位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる位相差検出方式による像ズレ量を検出することができる。   Then, a plurality of the above-described two types of focus detection pixels 222a and 222b are arranged in a line shape as shown in FIG. Of the pair of images formed on the focus detection pixel row by the focus detection light fluxes that pass through each of the distance measurement pupil 341 and the distance measurement pupil 342. Data on the distribution is obtained. Then, by applying an image shift detection calculation process such as a correlation calculation process or a phase difference detection process to the intensity distribution data, an image shift amount by a so-called phase difference detection method can be detected.

そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出位置における焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion calculation is performed on the obtained image shift amount according to the center-of-gravity interval of the pair of distance measuring pupils, thereby obtaining a current focal plane with respect to the planned focal plane (the focal point corresponding to the position of the microlens array on the planned focal plane). The deviation of the focal plane at the detection position, that is, the defocus amount can be obtained.

なお、これら位相差検出方式による像ズレ量の演算と、これに基づくデフォーカス量の演算は、カメラ制御部21により実行される。   The calculation of the image shift amount by the phase difference detection method and the calculation of the defocus amount based thereon are executed by the camera control unit 21.

また、本実施形態では、カメラ制御部21により、撮影画像内の特定被写体が認識され、焦点検出用画素列22a〜22eを構成する焦点検出画素222a,222bのうち、認識された特定被写体の位置に対応する焦点検出画素222a,222bの出力に基づいて、上述した像ズレ量の演算と、これに基づくデフォーカス量の演算とが行われる。   In this embodiment, the camera control unit 21 recognizes a specific subject in the captured image, and the position of the recognized specific subject among the focus detection pixels 222a and 222b constituting the focus detection pixel rows 22a to 22e. Based on the outputs of the focus detection pixels 222a and 222b corresponding to the above, the above-described calculation of the image shift amount and the calculation of the defocus amount based on this are performed.

具体的には、カメラ制御部21は、まず、カメラ制御部21に備えるメモリに記憶したテンプレート画像データ(基準画像データ)と、撮像素子22により撮像された撮影画像とを比較し、撮影画像の中から特定被写体の位置を検出する画像認識処理を行う。たとえば、本実施形態では、人物の顔の画像データを、テンプレート画像データとして、撮像素子22により撮像された撮像画像と比較することで、撮影画像の中の人物の顔を特定被写体として認識する。なお、特定被写体は、人物の顔に限定されず、たとえば、動物の顔などを特定被写体として検出してもよい。   Specifically, the camera control unit 21 first compares the template image data (reference image data) stored in the memory included in the camera control unit 21 with the captured image captured by the image sensor 22 and determines the captured image. Image recognition processing for detecting the position of the specific subject from the inside is performed. For example, in the present embodiment, image data of a person's face is compared with a captured image captured by the image sensor 22 as template image data, thereby recognizing the person's face in the captured image as a specific subject. The specific subject is not limited to a human face, and for example, an animal face may be detected as the specific subject.

そして、カメラ制御部21は、焦点検出画素列22a〜22eを構成する焦点検出画素222a,222bのうち、特定被写体の位置に対応する焦点検出画素222a,222bを、焦点検出に用いるための焦点検出部分として特定する。ここで、図9は、焦点検出部分の特定方法を説明するための図である。以下においては、図9を参照して、焦点検出部分の特定方法について詳しく説明する。なお、以下においては、図9に示すように、人物の顔が特定被写体として検出されたものとして説明する。   The camera control unit 21 uses the focus detection pixels 222a and 222b corresponding to the position of the specific subject among the focus detection pixels 222a and 222b constituting the focus detection pixel rows 22a to 22e for focus detection. Identify as part. Here, FIG. 9 is a diagram for explaining a method of specifying the focus detection portion. In the following, with reference to FIG. 9, a method for specifying a focus detection portion will be described in detail. In the following description, it is assumed that a human face is detected as a specific subject as shown in FIG.

まず、カメラ制御部21は、画像認識処理の結果に基づいて、撮像素子22上における特定被写体の中心座標を検出する。たとえば、図9に示す例では、特定被写体として認識された人物の顔領域の中心座標が検出される。   First, the camera control unit 21 detects the center coordinates of a specific subject on the image sensor 22 based on the result of the image recognition process. For example, in the example shown in FIG. 9, the center coordinates of the face area of a person recognized as a specific subject are detected.

そして、カメラ制御部21は、検出した特定被写体の中心座標に基づいて、複数の焦点検出画素列22a〜22eの中から、焦点検出に用いる焦点検出画素列を選択する。具体的には、カメラ制御部21は、複数の焦点検出画素列22a〜22eのうち、焦点検出画素列22a〜22eの配列方向において、特定被写体の中心座標から最も近くに位置する焦点検出画素列を、焦点検出に用いる焦点検出画素列として選択する。たとえば、図9に示す例では、焦点検出画素列22aが、特定被写体の中心座標から最も近くに位置するため、カメラ制御部21は、特定被写体の焦点検出画素列22aを、焦点検出に用いる焦点検出用画素列として選択する。   And the camera control part 21 selects the focus detection pixel row | line | column used for focus detection from several focus detection pixel row | line | columns 22a-22e based on the detected center coordinate of the specific subject. Specifically, the camera control unit 21 selects a focus detection pixel row that is closest to the center coordinates of the specific subject in the arrangement direction of the focus detection pixel rows 22a to 22e among the plurality of focus detection pixel rows 22a to 22e. Are selected as a focus detection pixel array used for focus detection. For example, in the example shown in FIG. 9, since the focus detection pixel row 22a is located closest to the center coordinates of the specific subject, the camera control unit 21 uses the focus detection pixel row 22a of the specific subject for focus detection. Select as a pixel row for detection.

次に、カメラ制御部21は、図9に示すように、選択した焦点検出用画素列を構成する焦点検出画素222a,222bのうち、特定被写体の位置に対応する焦点検出画素222a,222bを、焦点検出に用いるための焦点検出部分として特定する。また、本実施形態では、特定被写体に対応した位置で焦点検出が行えるように、カメラ制御部21は、図9に示すように、焦点検出部分の幅を、焦点検出画素列22a〜22eの長さ方向における、特定被写体の幅と略同一となるように特定するとともに、焦点検出部分を、特定被写体の中心座標を中心として対称となるように特定する。   Next, as shown in FIG. 9, the camera control unit 21 selects the focus detection pixels 222a and 222b corresponding to the position of the specific subject among the focus detection pixels 222a and 222b constituting the selected focus detection pixel row. It is specified as a focus detection portion for use in focus detection. In the present embodiment, the camera control unit 21 sets the width of the focus detection portion to the length of the focus detection pixel rows 22a to 22e as shown in FIG. 9 so that focus detection can be performed at a position corresponding to the specific subject. The width direction of the specific subject is specified so as to be substantially the same as the width of the specific subject in the vertical direction, and the focus detection portion is specified so as to be symmetric with respect to the center coordinates of the specific subject.

そして、カメラ制御部21は、特定した焦点検出部分の出力に基づいて、像ズレ量の演算を行い、算出した像ズレ量に基づいて、デフォーカス量の演算を行う。たとえば、図9に示す例においては、焦点検出画素列22aを構成する焦点検出画素222a,222bのうち、特定被写体の位置に対応する焦点検出画素222a,222bが、焦点検出部分として特定され、この焦点検出部分の出力に基づいて、像ズレ量の演算が行われ、算出された像ズレ量に基づいて、デフォーカス量の演算が行われる。   Then, the camera control unit 21 calculates the image shift amount based on the output of the identified focus detection portion, and calculates the defocus amount based on the calculated image shift amount. For example, in the example shown in FIG. 9, among the focus detection pixels 222a and 222b constituting the focus detection pixel row 22a, the focus detection pixels 222a and 222b corresponding to the position of the specific subject are specified as the focus detection portion. An image shift amount is calculated based on the output of the focus detection portion, and a defocus amount is calculated based on the calculated image shift amount.

また、本実施形態では、画像認識処理により特定被写体の位置が繰り返し認識され、焦点検出画素列22a〜22eを構成する焦点検出画素222a,222bのうち、特定被写体の位置に応じた位置が、焦点検出に用いるための焦点検出部分として、繰り返し特定される。そのため、たとえば、特定被写体の位置が、焦点検出画素列22a〜22eの配列方向に沿って移動している場合には、特定被写体の位置の移動に応じて、焦点検出に用いる焦点検出画素列が変更され、特定被写体の位置に応じた焦点検出画素列の出力に基づいて、デフォーカス量の算出が行われることとなる。また、特定被写体が焦点検出画素列22a〜22eの長さ方向に沿って移動している場合には、特定被写体の位置の移動に応じて、焦点検出に用いるための焦点検出部分も移動し、特定被写体の位置に応じた焦点検出画素222a,222bの出力に基づいて、デフォーカス量の算出が行われることとなる。   In the present embodiment, the position of the specific subject is repeatedly recognized by the image recognition processing, and the position corresponding to the position of the specific subject among the focus detection pixels 222a and 222b constituting the focus detection pixel rows 22a to 22e is the focus. It is repeatedly identified as a focus detection part for use in detection. Therefore, for example, when the position of the specific subject moves along the arrangement direction of the focus detection pixel rows 22a to 22e, the focus detection pixel row used for focus detection corresponds to the movement of the position of the specific subject. The defocus amount is calculated based on the output of the focus detection pixel row corresponding to the position of the specific subject. Further, when the specific subject moves along the length direction of the focus detection pixel rows 22a to 22e, the focus detection portion used for focus detection also moves according to the movement of the position of the specific subject, The defocus amount is calculated based on the outputs of the focus detection pixels 222a and 222b corresponding to the position of the specific subject.

また、特定被写体がカメラ1の光軸方向に移動している場合には、特定被写体の大きさが変化する。このような場合、カメラ制御部21は、特定被写体の大きさに応じて、焦点検出に用いる焦点検出画素222a,222bの数を変更する。ここで、図10は、特定被写体の大きさ応じて、焦点検出に用いる焦点検出画素222a,222bの数を変更する方法を説明するための図である。また、図10(A)は、図9に示す焦点検出部分の付近を拡大した図であり、図10(B)は、図10(A)に示す場面例において、特定被写体がカメラ1に向かって移動した場合の特定被写体の位置の一例を示す図である。なお、図10(A),(B)においては、焦点検出画素列22aを構成する焦点検出画素222a,222bのみを示し、撮像画素221についてはその記載を省略する。   When the specific subject is moving in the optical axis direction of the camera 1, the size of the specific subject changes. In such a case, the camera control unit 21 changes the number of focus detection pixels 222a and 222b used for focus detection according to the size of the specific subject. Here, FIG. 10 is a diagram for explaining a method of changing the number of focus detection pixels 222a and 222b used for focus detection according to the size of the specific subject. FIG. 10A is an enlarged view of the vicinity of the focus detection portion shown in FIG. 9, and FIG. 10B shows the specific subject facing the camera 1 in the scene example shown in FIG. It is a figure which shows an example of the position of the specific subject at the time of moving. 10A and 10B, only the focus detection pixels 222a and 222b constituting the focus detection pixel row 22a are shown, and the description of the imaging pixel 221 is omitted.

たとえば、図10(A)に示す例では、カメラ制御部21は、特定被写体の大きさに応じて、特定被写体の位置に対応する10個の焦点検出画素222a,222bを、焦点検出に用いるための焦点検出部分として特定する。これに対して、図10(B)に示す例では、図10(A)に示す例と比べて特定被写体が大きいため、カメラ制御部21は、焦点検出画素列の長さ方向における特定被写体の幅に対応して、14個の焦点検出画素222a,222bを、焦点検出に用いるための焦点検出部分として特定する。このように、本実施形態では、特定被写体の大きさが変化した場合に、特定被写体の大きさに応じて、焦点検出を行うための焦点検出画素の数が変更され、特定被写体の大きさに応じた焦点検出部分が特定される。   For example, in the example shown in FIG. 10A, the camera control unit 21 uses ten focus detection pixels 222a and 222b corresponding to the position of the specific subject for focus detection according to the size of the specific subject. Is specified as the focus detection part. On the other hand, in the example shown in FIG. 10B, since the specific subject is larger than the example shown in FIG. 10A, the camera control unit 21 detects the specific subject in the length direction of the focus detection pixel row. Corresponding to the width, the 14 focus detection pixels 222a and 222b are specified as focus detection portions for use in focus detection. Thus, in this embodiment, when the size of the specific subject changes, the number of focus detection pixels for focus detection is changed according to the size of the specific subject, and the size of the specific subject is changed. A corresponding focus detection portion is identified.

なお、焦点検出部分の幅は、上述した像ズレ量演算において像ズレ量を適切に検出することができる幅とすることが好適である。たとえば、カメラ制御部21は、図10(A),(B)に示すように、像ズレ量の演算を行う際に、焦点検出画素222a,222bから出力された一対の出力信号の相関量が高くなるように、焦点検出部分の幅を、焦点検出画素列の長さ方向における、特定被写体の幅よりも、所定の焦点検出画素数分だけ長くすることができる。   The width of the focus detection part is preferably set to a width that can appropriately detect the image shift amount in the above-described image shift amount calculation. For example, as shown in FIGS. 10A and 10B, when the camera control unit 21 calculates the image shift amount, the correlation amount between the pair of output signals output from the focus detection pixels 222a and 222b is calculated. The width of the focus detection portion can be made longer by a predetermined number of focus detection pixels than the width of the specific subject in the length direction of the focus detection pixel row so as to increase.

そして、カメラ制御部21は、特定した焦点検出部分の出力に基づいて、像ズレ量の演算を行い、算出された像ズレ量に基づいてデフォーカス量を算出する。そして、カメラ制御部21は、算出したデフォーカス量に基づいて、フォーカスレンズ32を合焦位置まで駆動させるために必要なレンズ駆動量を算出し、算出したレンズ駆動量を、レンズ制御部37を介して、フォーカスレンズ駆動モータ36に送出する。これにより、フォーカスレンズ駆動モータ36により、レンズ駆動量が取得され、取得されたレンズ駆動量に基づいて、フォーカスレンズ32の駆動が行われる。   Then, the camera control unit 21 calculates the image shift amount based on the output of the identified focus detection portion, and calculates the defocus amount based on the calculated image shift amount. Then, the camera control unit 21 calculates a lens driving amount necessary to drive the focus lens 32 to the in-focus position based on the calculated defocus amount, and the calculated lens driving amount is supplied to the lens control unit 37. To the focus lens drive motor 36. Thereby, the lens driving amount is acquired by the focus lens driving motor 36, and the focus lens 32 is driven based on the acquired lens driving amount.

以上のように、本実施形態では、撮像素子22に複数の焦点検出画素列22a〜22eを備え、特定被写体の位置に応じて、複数の焦点検出画素列22a〜22eの中から、焦点検出に用いる焦点検出画素列を選択し、選択した焦点検出画素列における、特定被写体の位置に対応する位置を、焦点検出に用いるための焦点検出部分として特定する。そして、特定した焦点検出部分から出力された一対の焦点検出信号に基づいて、光学系の焦点状態を検出する。これにより、本実施形態では、位相差検出方式により焦点検出を行う際に、特定被写体の位置に対応する焦点検出画素222a,222bの出力に基づいて、焦点検出を行うことができるため、特定被写体に対応する、光学系の焦点状態を良好に検出することができる。   As described above, in the present embodiment, the imaging element 22 includes the plurality of focus detection pixel arrays 22a to 22e, and performs focus detection from the plurality of focus detection pixel arrays 22a to 22e according to the position of the specific subject. A focus detection pixel row to be used is selected, and a position corresponding to the position of the specific subject in the selected focus detection pixel row is specified as a focus detection portion for use in focus detection. Then, the focus state of the optical system is detected based on the pair of focus detection signals output from the specified focus detection part. Thus, in the present embodiment, when focus detection is performed by the phase difference detection method, focus detection can be performed based on the outputs of the focus detection pixels 222a and 222b corresponding to the position of the specific subject. It is possible to satisfactorily detect the focus state of the optical system corresponding to the above.

一方、図11に示すように、撮影画面内に複数の焦点検出エリアAFPを予め設定しておき、これら焦点検出エリアの中から、焦点検出を行うための焦点検出エリアを選択し、選択された焦点検出エリアにおいて、光学系の焦点状態の検出を行う場合には、特定被写体の位置と、選択された焦点検出エリアの位置とが大きくずれてしまい、特定被写体に対する位置の焦点状態を適切に検出することができず、焦点検出精度が低下してしまう場合があった。たとえば、図11に示すように、特定被写体の中心座標が位置する焦点検出エリアAFPを、焦点検出を行うための焦点検出エリアAFPとして選択した場合でも、図9に示す例と比べて、特定被写体の位置と、選択された焦点検出エリアAFPの位置とが大きくずれているため、特定被写体に対応する位置の焦点状態を適切に検出できない場合があった。また、焦点検出を行うための焦点検出エリアAFPに存在する他の被写体にピントが合ってしまい、特定被写体にピントが合わない場合もあった。   On the other hand, as shown in FIG. 11, a plurality of focus detection areas AFP are set in advance in the shooting screen, and a focus detection area for performing focus detection is selected from these focus detection areas and selected. When detecting the focus state of the optical system in the focus detection area, the position of the specific subject and the position of the selected focus detection area are greatly shifted, and the focus state of the position with respect to the specific subject is detected appropriately. In some cases, the focus detection accuracy is reduced. For example, as shown in FIG. 11, even when the focus detection area AFP where the center coordinates of the specific subject are located is selected as the focus detection area AFP for performing focus detection, the specific subject is compared with the example shown in FIG. And the position of the selected focus detection area AFP are largely deviated from each other, the focus state at the position corresponding to the specific subject may not be detected properly. In addition, there is a case where the other subject existing in the focus detection area AFP for performing focus detection is focused and the specific subject is not focused.

これに対して、本実施形態では、図9に示すように、焦点検出に用いるための焦点検出部分を、特定被写体の位置に応じて特定することができるため、特定被写体に対応する位置の焦点状態を適切に検出することができ、焦点検出精度の向上を図ることができる。特に、本実施形態では、焦点検出部分の幅を、特定被写体の幅に対応して特定するとともに、焦点検出部分を、特定被写体の中心座標を中心として対称となるように特定することで、特定被写体に対応する位置の焦点検出をより適切に行うことができる。また、複数の焦点検出画素列22a〜22eのうち、特定被写体の中心座標から最も近い焦点検出画素列を、焦点検出を行うための焦点検出画素列として検出することで、特定被写体の中心位置と、焦点検出を行うための焦点検出部分の位置とをより近づけることができるため、特定被写体に対応する位置の焦点状態をより良好に検出することができる。   On the other hand, in the present embodiment, as shown in FIG. 9, since the focus detection portion for use in focus detection can be specified according to the position of the specific subject, the focus at the position corresponding to the specific subject. The state can be detected appropriately, and the focus detection accuracy can be improved. In particular, in the present embodiment, the width of the focus detection portion is specified corresponding to the width of the specific subject, and the focus detection portion is specified to be symmetric with respect to the center coordinates of the specific subject. The focus detection at the position corresponding to the subject can be performed more appropriately. Further, by detecting the focus detection pixel row closest to the center coordinates of the specific subject among the plurality of focus detection pixel rows 22a to 22e as the focus detection pixel row for performing focus detection, Since the position of the focus detection portion for performing focus detection can be made closer, the focus state at the position corresponding to the specific subject can be detected better.

さらに、本実施形態では、位相差検出方式により焦点検出を行うための焦点検出画素列22a〜22eを撮像素子22に備え、撮像素子22に備えた焦点検出画素列22a〜22eの出力に基づいて、光学系の焦点状態の検出を行うことで、以下の効果を奏することができる。すなわち、従来のように、位相差検出方式による焦点状態の検出を行う焦点検出モジュールを、撮像素子22とは独立して設けた場合には、光軸方向に対する焦点検出モジュールの受光面の向きと、光軸方向に対する撮像素子22の撮像面の向きとが一致しない場合に、焦点検出精度が低下してしまう場合があった。また、専用の焦点検出モジュールを設けるため、製造コストが高くなる場合や、カメラ1の小型化を図ることができない場合があった。これに対して、本実施形態では、焦点検出を行うための焦点検出画素列22a〜22eを撮像素子22に備えるため、このような問題も有効に解決することができる。   Furthermore, in this embodiment, focus detection pixel rows 22a to 22e for performing focus detection by the phase difference detection method are provided in the image sensor 22, and based on outputs of the focus detection pixel rows 22a to 22e provided in the image sensor 22. By detecting the focus state of the optical system, the following effects can be obtained. That is, when the focus detection module that detects the focus state by the phase difference detection method is provided independently of the image sensor 22 as in the prior art, the orientation of the light receiving surface of the focus detection module with respect to the optical axis direction When the orientation of the imaging surface of the imaging element 22 with respect to the optical axis direction does not match, the focus detection accuracy may be reduced. In addition, since a dedicated focus detection module is provided, the manufacturing cost may be high, or the camera 1 may not be downsized. On the other hand, in the present embodiment, since the imaging element 22 includes the focus detection pixel rows 22a to 22e for performing focus detection, such a problem can be effectively solved.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

たとえば、上述した実施形態では、画像認識処理により特定被写体を検出しているが、この構成に限定されるものではなく、たとえば、追尾動作が行われている場合には、追尾対象となっている被写体を、特定被写体として検出してもよい。また、上述した実施形態では、人物の顔にピントを合わせるために、人物の顔領域の中心座標に基づいて、焦点検出に用いるための焦点検出部分を特定しているが、たとえば、人物の目にピントを合わせたい場合には、人物の顔領域の中心座標から人物の目の座標を予測し、人物の目の座標に基づいて、焦点検出部分を特定する構成としてもよい。   For example, in the above-described embodiment, the specific subject is detected by the image recognition processing, but the configuration is not limited to this configuration. For example, when a tracking operation is performed, the target is a tracking target. The subject may be detected as a specific subject. In the above-described embodiment, in order to focus on a person's face, a focus detection part to be used for focus detection is specified based on the center coordinates of the person's face area. When it is desired to focus on the subject, the coordinates of the person's eyes may be predicted from the center coordinates of the person's face area, and the focus detection portion may be specified based on the coordinates of the person's eyes.

また、上述した実施形態では、図9に示すように、複数の焦点検出画素列22a〜22eのうち、焦点検出画素列22a〜22eの配列方向において、特定被写体の中心座標から最も近くに位置する焦点検出画素列を、焦点検出を行うための焦点検出画素列として選択し、選択した焦点検出画素列における、特定被写体の位置に対応する位置を、焦点検出部分として特定しているが、たとえば、図12に示すように、特定被写体が複数の焦点検出画素列にまたがる場合には、特定被写体の位置に対応する複数の焦点検出画素列を、焦点検出を行うための焦点検出画素列として選択し、選択した焦点検出画素列における、特定被写体の位置に対応する位置を、焦点検出部分としてそれぞれ特定する構成としてもよい。たとえば、図12に示す例では、特定被写体の位置が、焦点検出画素列22aおよび焦点検出画素列22bにまたがっているため、焦点検出画素列22aにおける、特定被写体の位置に対応する位置が、焦点検出部分として特定されるとともに、焦点検出画素列22bにおける、特定被写体の位置に対応する位置も、焦点検出部分として特定される。そして、焦点検出画素列22aにおける焦点検出部分の出力と、焦点検出画素列22bにおける焦点検出部分の出力とに基づいて、像ズレ量の演算を行い、算出した像ズレ量に基づいて、デフォーカス量を算出する構成としもよい。なお、このような場合には、焦点検出画素列22aにおける焦点検出部分の出力に基づいて算出されたデフォーカス量と、焦点検出画素列22bにおける焦点検出部分の出力に基づいて算出されたデフォーカス量との平均値に基づいて、フォーカスレンズ32を駆動させるためのデフォーカス量を算出する構成としてもよいし、あるいは、焦点検出画素列22aにおける焦点検出部分の出力に基づいて算出されたデフォーカス量と、焦点検出画素列22bにおける焦点検出部分の出力に基づいて算出されたデフォーカス量とを、各焦点検出画素列22a,22bから特定被写体の中心座標までの距離に応じて重み付けし、重み付けしたデフォーカス量の平均値に基づいて、フォーカスレンズ32を駆動させるためのデフォーカス量を算出する構成としてもよい。なお、図12は、特定被写体の位置が、複数の焦点検出画素列にまたがる一場面例を示す図である。   In the embodiment described above, as shown in FIG. 9, among the plurality of focus detection pixel rows 22 a to 22 e, the focus detection pixel rows 22 a to 22 e are positioned closest to the center coordinates of the specific subject in the arrangement direction of the focus detection pixel rows 22 a to 22 e. The focus detection pixel row is selected as the focus detection pixel row for performing focus detection, and the position corresponding to the position of the specific subject in the selected focus detection pixel row is specified as the focus detection portion. As shown in FIG. 12, when a specific subject extends over a plurality of focus detection pixel rows, a plurality of focus detection pixel rows corresponding to the position of the specific subject are selected as focus detection pixel rows for performing focus detection. The position corresponding to the position of the specific subject in the selected focus detection pixel array may be specified as the focus detection portion. For example, in the example shown in FIG. 12, since the position of the specific subject extends over the focus detection pixel row 22a and the focus detection pixel row 22b, the position corresponding to the position of the specific subject in the focus detection pixel row 22a is the focus. In addition to being specified as the detection portion, the position corresponding to the position of the specific subject in the focus detection pixel row 22b is also specified as the focus detection portion. Then, an image shift amount is calculated based on the output of the focus detection portion in the focus detection pixel row 22a and the output of the focus detection portion in the focus detection pixel row 22b, and defocusing is performed based on the calculated image shift amount. It is good also as a structure which calculates quantity. In such a case, the defocus amount calculated based on the output of the focus detection portion in the focus detection pixel array 22a and the defocus calculated based on the output of the focus detection portion in the focus detection pixel array 22b. The defocus amount for driving the focus lens 32 may be calculated based on the average value with the amount, or the defocus calculated based on the output of the focus detection portion in the focus detection pixel row 22a. The weight and the defocus amount calculated based on the output of the focus detection portion in the focus detection pixel row 22b are weighted according to the distance from the focus detection pixel rows 22a and 22b to the center coordinates of the specific subject, and weighted. The defocus amount for driving the focus lens 32 is calculated based on the average value of the defocus amounts. It may be formed. FIG. 12 is a diagram illustrating an example of a scene in which the position of the specific subject extends over a plurality of focus detection pixel rows.

さらに、特定被写体の位置が、各焦点検出画素列22a〜22eに重複しておらず、特定被写体の位置が、隣り合う焦点検出画素列の間に位置する場合には、鉛直方向上側の焦点検出画素列を除いた複数の焦点検出画素列のうち、特定被写体の中心座標から最も近い焦点検出画素を、焦点検出を行うための焦点検出画素列として選択することができる。たとえば、図13に示す例では、特定被写体が、焦点検出画素列22a〜22eのいずれにも重複しておらず、特定被写体が、隣り合う焦点検出画素列22a,22bの間に位置している。この場合、カメラ制御部21は、たとえば、図示しない姿勢センサを用いて鉛直方向を検出し、鉛直方向上側に配置された焦点検出画素列22aを除いた焦点検出画素列22b〜22eのうち、特定被写体の中心座標に最も近い焦点検出画素列22bを、焦点検出するための焦点検出画素列として選択し、焦点検出画素列22bのうち、特定被写体に対応する位置を焦点検出部分として特定して、焦点状態の検出を行う。この場合、焦点検出画素列22a〜22eに対応する位置に、特定被写体が存在しない場合でも、たとえば特定被写体が人物の顔などの場合には、人物の胸や胴体に対応して焦点検出を行うことができるため、特定被写体にピントの合った画像を適切に検出することができる。   Furthermore, when the position of the specific subject does not overlap with the focus detection pixel rows 22a to 22e and the position of the specific subject is located between adjacent focus detection pixel rows, the focus detection on the upper side in the vertical direction is performed. Of the plurality of focus detection pixel rows excluding the pixel row, the focus detection pixel closest to the center coordinate of the specific subject can be selected as the focus detection pixel row for performing focus detection. For example, in the example shown in FIG. 13, the specific subject does not overlap any of the focus detection pixel rows 22a to 22e, and the specific subject is located between the adjacent focus detection pixel rows 22a and 22b. . In this case, for example, the camera control unit 21 detects the vertical direction using a posture sensor (not shown), and identifies the focus detection pixel rows 22b to 22e excluding the focus detection pixel row 22a arranged on the upper side in the vertical direction. The focus detection pixel row 22b closest to the center coordinates of the subject is selected as a focus detection pixel row for focus detection, and the position corresponding to the specific subject in the focus detection pixel row 22b is specified as a focus detection portion, The focus state is detected. In this case, even when the specific subject does not exist at the position corresponding to the focus detection pixel rows 22a to 22e, for example, when the specific subject is a person's face or the like, focus detection is performed corresponding to the chest or torso of the person. Therefore, it is possible to appropriately detect an image focused on a specific subject.

また、上述した実施形態では、特定被写体の中心位置から最も近い位置に配置された焦点検出画素列を、焦点検出を行うための焦点検出画素列として選択しているが、この構成に限定されず、たとえば、特定被写体の位置よりも、鉛直方向下側に配置された焦点検出画素列を、焦点検出を行うための焦点検出画素列として選択する構成としてもよい。たとえば、図13に示す例では、カメラ制御部21は、図示しない姿勢センサを用いて鉛直方向を検出し、特定被写体の位置から鉛直方向下側に位置する焦点検出画素列22b〜22eのうち1つ以上の焦点検出画素列22b〜22eを、焦点検出するための焦点検出画素列として選択し、選択した焦点検出画素列における、特定被写体の位置に対応する位置を、焦点検出に用いるための焦点検出部分として特定することができる。また、この場合に、特定被写体の位置よりも、鉛直方向下側に配置された全ての焦点検出画素列22b〜22eを、焦点検出を行うための焦点検出画素列として選択してもよいし、あるいは、特定被写体の位置よりも、鉛直方向下側に配置された焦点検出画素列のうち、たとえば、特定被写体の中心位置から2番目に近い位置に配置された焦点検出画素列22cを、焦点検出を行うための焦点検出画素列として選択してもよい。たとえば、特定被写体が人物の顔である場合には、特定被写体の中心位置から最も近い位置に配置された焦点検出画素列が、比較的コントラストの低い人物の首部分に位置してしまい、焦点状態を適切に検出できない場合があるが、特定被写体の位置よりも下側に配置された複数の焦点検出画素列や、特定被写体の中心位置からたとえば2番目に近い位置に配置された焦点検出画素列を、焦点検出を行うための焦点検出画素列として選択することで、たとえば、比較的コントラストの高い人物の胴体部分に対応した位置で、焦点検出を行うことができ、焦点状態を適切に検出することができる。   In the above-described embodiment, the focus detection pixel row arranged at the position closest to the center position of the specific subject is selected as the focus detection pixel row for performing focus detection. However, the present invention is not limited to this configuration. For example, a configuration may be adopted in which a focus detection pixel row arranged on the lower side in the vertical direction than the position of the specific subject is selected as a focus detection pixel row for performing focus detection. For example, in the example illustrated in FIG. 13, the camera control unit 21 detects the vertical direction using a posture sensor (not shown), and 1 out of the focus detection pixel rows 22 b to 22 e positioned below the specific subject in the vertical direction. One or more focus detection pixel arrays 22b to 22e are selected as focus detection pixel arrays for focus detection, and a position corresponding to the position of a specific subject in the selected focus detection pixel array is used for focus detection. It can be specified as a detection part. In this case, all the focus detection pixel rows 22b to 22e arranged on the lower side in the vertical direction than the position of the specific subject may be selected as focus detection pixel rows for performing focus detection. Alternatively, for example, the focus detection pixel row 22c arranged at the second closest position from the center position of the specific subject among the focus detection pixel rows arranged below the specific subject in the vertical direction is subjected to focus detection. You may select as a focus detection pixel row | line for performing. For example, when the specific subject is a person's face, the focus detection pixel array arranged closest to the center position of the specific subject is located at the neck portion of the person with relatively low contrast, and the focus state May not be detected properly, but a plurality of focus detection pixel rows arranged below the position of the specific subject, or a focus detection pixel row arranged, for example, at a position closest to the center position of the specific subject. Can be selected as a focus detection pixel row for performing focus detection, for example, focus detection can be performed at a position corresponding to a torso portion of a person with relatively high contrast, and the focus state is detected appropriately. be able to.

さらに、上述した実施形態では、特定被写体を認識し、焦点検出画素列22a〜22eにおいて、認識した特定被写体の位置に対応する位置を、焦点検出部分として特定し、特定した焦点検出部分の出力に基づいて、焦点検出を行う構成について例示したが、たとえば、撮影画面内において特定被写体が存在せず、特定被写体を認識することができなかった場合には、予め設定された焦点検出エリアの中から、焦点検出を行うための焦点検出エリアを選択し、選択された焦点検出エリアにおいて、焦点検出を行う構成としてもよい。   Furthermore, in the above-described embodiment, a specific subject is recognized, and the position corresponding to the recognized position of the specific subject in the focus detection pixel rows 22a to 22e is specified as a focus detection portion, and output to the specified focus detection portion. Based on the configuration for performing focus detection based on the above, for example, when the specific subject does not exist in the shooting screen and the specific subject cannot be recognized, the focus detection area is set in advance. A focus detection area for performing focus detection may be selected, and focus detection may be performed in the selected focus detection area.

また、上述した実施形態では、焦点検出画素222a,222bの出力に基づいて、位相差検出方式による焦点検出を行う構成について例示したが、これに加えて、コントラスト検出方式による光学系の焦点状態の検出を行う構成としてもよい。具体的には、カメラ制御部21により、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。そして、フォーカスレンズ32を所定のサンプリング間隔(距離)で駆動さながら、それぞれのレンズ位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求めることで、光学系の焦点状態の検出を行う構成としてもよい。なお、この場合、位相差検出方式では焦点状態を検出できない場合に、コントラスト検出方式により焦点検出を行う構成としてもよいし、あるいは、位相差検出方式による焦点検出と、コントラスト検出方式による焦点検出とを同時に行う構成としてもよい。   In the above-described embodiment, the configuration in which focus detection is performed by the phase difference detection method based on the outputs of the focus detection pixels 222a and 222b is illustrated. However, in addition to this, the focus state of the optical system by the contrast detection method is illustrated. It is good also as a structure which performs a detection. Specifically, the camera control unit 21 reads the output of the imaging pixel 221 of the imaging element 22 and calculates a focus evaluation value based on the read pixel output. Then, while driving the focus lens 32 at a predetermined sampling interval (distance), a focus evaluation value at each lens position is obtained, and a position of the focus lens 32 at which the focus evaluation value is maximized is obtained as a focus position. It may be configured to detect the focus state of the optical system. In this case, when the focus state cannot be detected by the phase difference detection method, the focus detection may be performed by the contrast detection method. Alternatively, the focus detection by the phase difference detection method and the focus detection by the contrast detection method may be used. It is good also as a structure which performs simultaneously.

さらに、上述した実施形態では、撮像素子22の焦点検出画素222a,222bにおいて、位相差検出方式による焦点状態の検出を行う構成を例示したが、この構成に限定されるものではなく、位相差検出方式による焦点状態の検出を行う焦点検出モジュールを、撮像素子22とは独立して設ける構成としてもよい。   In the above-described embodiment, the focus detection pixels 222a and 222b of the image sensor 22 are exemplified by the configuration for detecting the focus state by the phase difference detection method. However, the configuration is not limited to this configuration, and the phase difference detection is performed. A focus detection module that detects the focus state by the method may be provided independently of the image sensor 22.

なお、上述した実施形態のカメラ1は特に限定されず、例えば、デジタルビデオカメラ、一眼レフデジタルカメラ、レンズ一体型のデジタルカメラ、携帯電話用のカメラなどのその他の光学機器に本発明を適用してもよい。   The camera 1 of the above-described embodiment is not particularly limited. For example, the present invention is applied to other optical devices such as a digital video camera, a single-lens reflex digital camera, a lens-integrated digital camera, and a camera for a mobile phone. May be.

1…デジタルカメラ
2…カメラ本体
21…カメラ制御部
22…撮像素子
221…撮像画素
222a,222b…焦点検出画素
24…メモリ
28…操作部
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
DESCRIPTION OF SYMBOLS 1 ... Digital camera 2 ... Camera body 21 ... Camera control part 22 ... Imaging device 221 ... Imaging pixel 222a, 222b ... Focus detection pixel 24 ... Memory 28 ... Operation part 3 ... Lens barrel 32 ... Focus lens 36 ... Focus lens drive motor 37 ... Lens control unit

Claims (13)

光学系による像を撮像し、撮像した像に対応する画像信号を出力する撮像部と、
前記光学系を介した一対の光束を受光して一対の焦点検出用信号を出力するライン状の受光センサを有する受光部と、
前記撮像部から出力された前記画像信号に基づいて、対象とする像に相当する基準画像に対応する画像の位置を、特定被写体の位置として認識する認識部と、
前記受光センサにおける、前記特定被写体の位置に対応する位置を、焦点検出に用いるための対応センサ部分として特定する特定部と、
前記対応センサ部分から出力された前記一対の焦点検出用信号に基づいて、前記光学系による像面のずれ量を検出することで、前記光学系の焦点状態を検出する焦点検出部と、を備えることを特徴とする焦点検出装置。
An imaging unit that captures an image by an optical system and outputs an image signal corresponding to the captured image;
A light receiving unit having a line-shaped light receiving sensor that receives a pair of light fluxes via the optical system and outputs a pair of focus detection signals;
A recognition unit that recognizes a position of an image corresponding to a reference image corresponding to a target image based on the image signal output from the imaging unit as a position of a specific subject;
A specifying unit that specifies a position corresponding to the position of the specific subject in the light receiving sensor as a corresponding sensor part for use in focus detection;
A focus detection unit that detects a focus state of the optical system by detecting a shift amount of the image plane by the optical system based on the pair of focus detection signals output from the corresponding sensor part. A focus detection apparatus.
請求項1に記載の焦点検出装置であって、
前記特定部は、前記対応センサ部分を、前記特定被写体の前記受光センサの長さ方向の幅に対応した長さで特定することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1,
The focus detection apparatus characterized in that the specifying unit specifies the corresponding sensor portion with a length corresponding to a width of the specific subject in a length direction of the light receiving sensor.
請求項1または2に記載の焦点検出装置であって、
前記特定部は、前記対応センサ部分を、前記特定被写体の中心位置を中心として対称となるように特定することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1 or 2,
The focus detection apparatus characterized in that the specifying unit specifies the corresponding sensor portion so as to be symmetric with respect to a center position of the specific subject.
請求項1〜3のいずれかに記載の焦点検出装置であって、
前記特定部は、前記特定被写体の位置が、前記受光センサの長さ方向に移動した場合に、前記特定被写体の位置の移動に応じて、前記対応センサ部分を移動させることを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1,
The focus detection unit is configured to move the corresponding sensor portion according to the movement of the position of the specific subject when the position of the specific subject moves in the length direction of the light receiving sensor. apparatus.
請求項1〜4のいずれかに記載の焦点検出装置であって、
前記受光センサは、ライン状に配列された複数の焦点検出用画素から構成されており、
前記特定部は、前記特定被写体の位置に応じて、焦点検出に用いる前記焦点検出用画素を変更することを特徴とする焦点検出装置。
The focus detection device according to any one of claims 1 to 4,
The light receiving sensor is composed of a plurality of focus detection pixels arranged in a line,
The focus detection apparatus, wherein the specifying unit changes the focus detection pixels used for focus detection according to a position of the specific subject.
請求項5に記載の焦点検出装置であって、
前記特定部は、前記特定被写体の大きさに応じて、焦点検出に用いる前記焦点検出用画素の数を変更することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 5,
The focus detection device, wherein the specifying unit changes the number of focus detection pixels used for focus detection according to the size of the specific subject.
請求項1〜6のいずれかに記載の焦点検出装置であって、
前記受光部には、複数の前記受光センサが、該受光センサの長さ方向と垂直な方向に沿って配列されており、
前記特定部は、前記複数の受光センサのうち、前記特定被写体の中心位置に最も近い受光センサを焦点検出に用いる受光センサとして選択し、前記選択した受光センサにおける、前記特定被写体の位置に対応する位置を、前記対応センサ部分として特定することを特徴とする焦点検出装置。
The focus detection apparatus according to any one of claims 1 to 6,
In the light receiving section, a plurality of the light receiving sensors are arranged along a direction perpendicular to the length direction of the light receiving sensors,
The specifying unit selects a light receiving sensor closest to the center position of the specific subject as the light receiving sensor used for focus detection among the plurality of light receiving sensors, and corresponds to the position of the specific subject in the selected light receiving sensor. A focus detection apparatus that identifies a position as the corresponding sensor portion.
請求項7に記載の焦点検出装置であって、
前記特定部は、前記特定被写体の位置が、前記複数の受光センサのいずれにも重複しておらず、隣り合う前記受光センサの間に位置する場合には、前記特定被写体の位置よりも、鉛直方向上側に位置する前記受光センサを除いた前記複数の受光センサのうち、前記特定被写体の中心位置に最も近い受光センサを焦点検出に用いる受光センサとして選択することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 7,
When the position of the specific subject does not overlap any of the plurality of light receiving sensors and is positioned between the adjacent light receiving sensors, the specifying unit is more vertical than the position of the specific subject. A focus detection apparatus, wherein a light reception sensor closest to a center position of the specific subject is selected as a light reception sensor used for focus detection among the plurality of light reception sensors excluding the light reception sensor positioned on the upper side in the direction.
請求項7または8に記載の焦点検出装置であって、
前記特定部は、前記特定被写体の位置が、前記複数の受光センサの配列方向に移動した場合に、前記特定被写体の位置の移動に応じて、焦点検出に用いる受光センサを変更することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 7 or 8,
The specifying unit changes a light receiving sensor used for focus detection according to the movement of the position of the specific subject when the position of the specific subject moves in an arrangement direction of the plurality of light receiving sensors. Focus detection device.
請求項7〜9のいずれかに記載の焦点検出装置であって、
前記特定部は、前記特定被写体の位置が、複数の前記受光センサにまたがる場合には、該複数の受光センサを焦点検出に用いる受光センサとして選択し、前記選択した受光センサにおける、前記特定被写体の位置に対応する位置を、前記対応センサ部分としてそれぞれ特定することを特徴とする焦点検出装置。
It is a focus detection apparatus in any one of Claims 7-9,
When the position of the specific subject spans a plurality of the light receiving sensors, the specifying unit selects the plurality of light receiving sensors as light receiving sensors used for focus detection, and the specific light receiving sensor in the selected light receiving sensor selects the specific subject. A focus detection apparatus that identifies positions corresponding to positions as the corresponding sensor portions.
請求項1〜6のいずれかに記載の焦点検出装置であって、
前記受光部には、複数の前記受光センサが、該受光センサの長さ方向と垂直な方向に沿って配列されており、
前記特定部は、前記複数の受光センサのうち、前記特定被写体の中心位置よりも鉛直方向下側に位置する受光センサを、焦点検出に用いる受光センサとして選択し、前記選択した受光センサにおける、前記特定被写体の位置に対応する位置を、前記対応センサ部分として特定することを特徴とする焦点検出装置。
The focus detection apparatus according to any one of claims 1 to 6,
In the light receiving section, a plurality of the light receiving sensors are arranged along a direction perpendicular to the length direction of the light receiving sensors,
The specifying unit selects a light receiving sensor positioned vertically below a center position of the specific subject among the plurality of light receiving sensors as a light receiving sensor used for focus detection, and the selected light receiving sensor includes: A focus detection apparatus that specifies a position corresponding to the position of a specific subject as the corresponding sensor portion.
請求項1〜11のいずれかに記載の焦点検出装置であって、
前記受光センサは、前記撮像部の受光面に備えられていることを特徴とする焦点検出装置。
It is a focus detection apparatus in any one of Claims 1-11,
The focus detection device, wherein the light receiving sensor is provided on a light receiving surface of the imaging unit.
請求項1〜12のいずれかに記載の焦点検出装置を備える撮像装置。   An imaging device comprising the focus detection device according to claim 1.
JP2011200171A 2011-06-09 2011-09-14 Focus detector and imaging apparatus Pending JP2013015807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011200171A JP2013015807A (en) 2011-06-09 2011-09-14 Focus detector and imaging apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011129028 2011-06-09
JP2011129028 2011-06-09
JP2011200171A JP2013015807A (en) 2011-06-09 2011-09-14 Focus detector and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013015807A true JP2013015807A (en) 2013-01-24

Family

ID=47688516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011200171A Pending JP2013015807A (en) 2011-06-09 2011-09-14 Focus detector and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013015807A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014074891A (en) * 2012-09-12 2014-04-24 Canon Inc Distance detection device, imaging device, distance detection method, program, and recording medium
JP2015022058A (en) * 2013-07-17 2015-02-02 キヤノン株式会社 Focus detection unit and image capturing device
JP2016206455A (en) * 2015-04-23 2016-12-08 キヤノン株式会社 Focus detector, imaging apparatus, method for focus detection, program, and storage medium
JP2017191996A (en) * 2016-04-12 2017-10-19 キヤノン株式会社 Imaging apparatus, imaging method and program
JP2018022128A (en) * 2016-07-21 2018-02-08 キヤノン株式会社 Focus adjustment device and method and imaging apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153751A (en) * 1997-11-20 1999-06-08 Minolta Co Ltd Distance detecting device
JPH11153749A (en) * 1997-11-19 1999-06-08 Minolta Co Ltd Distance detector
JP2002196227A (en) * 2000-12-26 2002-07-12 Olympus Optical Co Ltd Ranging sensor and ranging device
JP2007282188A (en) * 2006-03-15 2007-10-25 Nikon Corp Object tracker, object tracking method, object tracking program and optical equipment
JP2010026009A (en) * 2008-07-15 2010-02-04 Nikon Corp Focal point detecting device and camera
JP2010152161A (en) * 2008-12-25 2010-07-08 Canon Inc Imaging device
JP2010282107A (en) * 2009-06-08 2010-12-16 Canon Inc Imaging apparatus and control method therefor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153749A (en) * 1997-11-19 1999-06-08 Minolta Co Ltd Distance detector
JPH11153751A (en) * 1997-11-20 1999-06-08 Minolta Co Ltd Distance detecting device
JP2002196227A (en) * 2000-12-26 2002-07-12 Olympus Optical Co Ltd Ranging sensor and ranging device
JP2007282188A (en) * 2006-03-15 2007-10-25 Nikon Corp Object tracker, object tracking method, object tracking program and optical equipment
JP2010026009A (en) * 2008-07-15 2010-02-04 Nikon Corp Focal point detecting device and camera
JP2010152161A (en) * 2008-12-25 2010-07-08 Canon Inc Imaging device
JP2010282107A (en) * 2009-06-08 2010-12-16 Canon Inc Imaging apparatus and control method therefor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014074891A (en) * 2012-09-12 2014-04-24 Canon Inc Distance detection device, imaging device, distance detection method, program, and recording medium
JP2015022058A (en) * 2013-07-17 2015-02-02 キヤノン株式会社 Focus detection unit and image capturing device
JP2016206455A (en) * 2015-04-23 2016-12-08 キヤノン株式会社 Focus detector, imaging apparatus, method for focus detection, program, and storage medium
JP2017191996A (en) * 2016-04-12 2017-10-19 キヤノン株式会社 Imaging apparatus, imaging method and program
US10530986B2 (en) 2016-04-12 2020-01-07 Canon Kabushiki Kaisha Image capturing apparatus, image capturing method, and storage medium
JP2018022128A (en) * 2016-07-21 2018-02-08 キヤノン株式会社 Focus adjustment device and method and imaging apparatus

Similar Documents

Publication Publication Date Title
JP6019556B2 (en) Focus detection device, imaging device, and camera.
JP2013050690A (en) Focus adjusting device and imaging apparatus
JP2013015807A (en) Focus detector and imaging apparatus
JP6149341B2 (en) Lens barrel and camera system
JP2013003486A (en) Focus detector and imaging apparatus
JP6399140B2 (en) Imaging device
JP5891667B2 (en) Focus adjustment device and imaging device provided with the same
JP5477344B2 (en) Focus adjustment device and imaging device provided with the same
JP5891668B2 (en) Focus adjustment device and imaging device
JP5929060B2 (en) Focus detection apparatus and imaging apparatus
JP6047861B2 (en) Focus adjustment device and camera body
JP6127730B2 (en) Imaging device
JP2014074855A (en) Focus adjustment device and imaging device
JP2012226247A (en) Focus detector and imaging apparatus
JP6098097B2 (en) Focus adjustment device, focus detection device, and imaging device
JP2013061579A (en) Focusing device and imaging apparatus
JP6035728B2 (en) Focus adjustment device and imaging device
JP2012247723A (en) Focus adjustment device and imaging apparatus
JP6035777B2 (en) Imaging device
JP6019615B2 (en) Lens barrel and camera system
JP5899735B2 (en) interchangeable lens
JP5561246B2 (en) Focus adjustment device and imaging device provided with the same
JP2012181448A (en) Focusing device and imaging apparatus
JP2013015561A (en) Imaging apparatus
JP5862087B2 (en) Focus adjustment device and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151027