JP5147474B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP5147474B2
JP5147474B2 JP2008065044A JP2008065044A JP5147474B2 JP 5147474 B2 JP5147474 B2 JP 5147474B2 JP 2008065044 A JP2008065044 A JP 2008065044A JP 2008065044 A JP2008065044 A JP 2008065044A JP 5147474 B2 JP5147474 B2 JP 5147474B2
Authority
JP
Japan
Prior art keywords
phase difference
contrast
face
difference detection
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008065044A
Other languages
Japanese (ja)
Other versions
JP2009224913A (en
Inventor
義浩 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008065044A priority Critical patent/JP5147474B2/en
Publication of JP2009224913A publication Critical patent/JP2009224913A/en
Application granted granted Critical
Publication of JP5147474B2 publication Critical patent/JP5147474B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は、位相差検出方式及びコントラスト検出方式でのフォーカス制御を行う撮像装置に関する。   The present invention relates to an imaging apparatus that performs focus control using a phase difference detection method and a contrast detection method.

撮像装置のAF(オートフォーカス)方式としては、位相差検出方式やコントラスト検出方式等がある。位相差検出方式では、撮像光学系における射出瞳のうち互いに異なる領域を通過した一対の光束が形成する一対の像(2像)の位相差に基づいて撮像光学系のデフォーカス量を検出する。そして、該デフォーカス量に対応した移動量だけフォーカスレンズを移動させることによって合焦状態を得る。   Examples of the AF (autofocus) method of the imaging apparatus include a phase difference detection method and a contrast detection method. In the phase difference detection method, the defocus amount of the imaging optical system is detected based on the phase difference between a pair of images (two images) formed by a pair of light beams that have passed through different areas of the exit pupil in the imaging optical system. Then, the in-focus state is obtained by moving the focus lens by a movement amount corresponding to the defocus amount.

また、コントラスト検出方式では、撮像素子を用いて生成された画像信号に含まれる高周波数成分(コントラスト評価値)が最大になる位置にフォーカスレンズを移動させることで合焦状態を得る。そして、高速でAFが可能な位相差検出方式と高精度なAFが可能なコントラスト検出方式とを併用するハイブリッドAFも使用されることが多い。   Further, in the contrast detection method, an in-focus state is obtained by moving the focus lens to a position where the high frequency component (contrast evaluation value) included in the image signal generated using the image sensor is maximized. In many cases, a hybrid AF that uses both a phase difference detection method capable of AF at high speed and a contrast detection method capable of high-precision AF is also used.

また、特許文献1には、撮像素子上に位相差検出専用の画素を配置することで、撮像素子とは別の位相差検出ユニットを用いていた従来の位相差検出方式に比べて、合焦精度を改善した撮像装置が開示されている。そして、このように位相差検出専用の画素を有する撮像素子を用いて位相差検出方式によるAF(位相差AF)を行うとともに、コントラスト検出方式によるAF(コントラストAF)をも行うことで、さらに高精度なハイブリッドAFが可能となる。   Further, in Patent Document 1, focusing on a phase difference detection unit is arranged on the image sensor, so that focusing is performed in comparison with a conventional phase difference detection method using a phase difference detection unit different from the image sensor. An imaging apparatus with improved accuracy is disclosed. In addition to performing AF (phase difference AF) by the phase difference detection method using the imaging element having the pixels dedicated to the phase difference detection in this way, AF (contrast AF) by the contrast detection method is also performed, thereby further increasing the level. Accurate hybrid AF is possible.

また、撮像素子を用いて生成された画像から被写体の顔を検出し、その顔にピントを合わせるようにAFを行う撮像装置が提案されている。特許文献2には、画像に含まれる被写体の眼を検出し、検出された眼の周りにフォーカス枠を表示して、このフォーカス枠に対してAFを行う撮像装置が開示されている。さらに、特許文献3には、被写体の顔の情報に基づいて被写体距離を推定し、その被写体距離に基づいてフォーカス制御を行う撮像装置が開示されている。
特開2000−156823号公報 特開2005−128156号公報 特開2006−18246号公報
There has also been proposed an imaging apparatus that detects a subject's face from an image generated using an imaging element and performs AF so that the face is in focus. Patent Document 2 discloses an imaging apparatus that detects an eye of a subject included in an image, displays a focus frame around the detected eye, and performs AF on the focus frame. Further, Patent Document 3 discloses an imaging apparatus that estimates a subject distance based on information about a subject's face and performs focus control based on the subject distance.
JP 2000-156823 A JP 2005-128156 A JP 2006-18246 A

ハイブリッドAFを採用した撮像装置では、以下のような問題がある。位相差検出のための瞳分離方向が、例えば水平方向である場合において、被写体が水平方向にある大きさ以上のコントラスト差を持っているときには、位相差AFを行った後に、より高精度なコントラストAFを行うことが可能である。   An imaging apparatus that employs hybrid AF has the following problems. When the pupil separation direction for phase difference detection is, for example, the horizontal direction, and the subject has a contrast difference greater than a certain size in the horizontal direction, after performing the phase difference AF, more accurate contrast AF can be performed.

しかし、被写体が瞳分離方向に小さなコントラスト差しか有さないときは、瞳分離方向に直交する垂直方向にある大きさ以上のコントラスト差を持っていても、その被写体に対して高精度なコントラストAFを行うことができない。したがって、被写体がコントラスト差を持つ方向によって、ハイブリッドAFとしての性能に差が生じてしまうという問題がある。   However, when the subject has only a small contrast difference in the pupil separation direction, even if the subject has a contrast difference larger than a certain size in the vertical direction orthogonal to the pupil separation direction, high-precision contrast AF is performed on the subject. Can not do. Therefore, there is a problem that the performance as the hybrid AF varies depending on the direction in which the subject has a contrast difference.

本発明は、顔等の特定被写体が持つコントラスト差の方向に対応した適切なハイブリッドAFを行えるようにした撮像装置を提供する。   The present invention provides an imaging apparatus capable of performing appropriate hybrid AF corresponding to the contrast difference direction of a specific subject such as a face.

本発明の一側面としての撮像装置は、撮像素子を用いて生成された画像から特定被写体を検出する被写体検出手段と、該特定被写体に対して、位相差検出方式による第1のフォーカス制御及びコントラスト検出方式による第2のフォーカス制御を行う制御手段とを有する。そして、制御手段は、特定被写体のコントラスト差が大きい方向に応じ位相差検出方向を設定し、該位相差検出方向において検出された位相差に基づいて第1のフォーカス制御を行い、かつ位相差検出方向と同じ方向で検出されたコントラストに基づいて第2のフォーカス制御を行うことを特徴とする。 An imaging apparatus according to an aspect of the present invention includes a subject detection unit that detects a specific subject from an image generated using an imaging element, and first focus control and contrast using a phase difference detection method for the specific subject. Control means for performing second focus control by a detection method. The control means sets the phase difference detection direction according to the direction in which the contrast difference of the specific subject is large , performs the first focus control based on the phase difference detected in the phase difference detection direction, and the phase difference The second focus control is performed based on the contrast detected in the same direction as the detection direction.

また、本発明の他の一側面としての撮像装置の制御方法は、撮像素子を用いて生成された画像から特定被写体を検出するステップと、該特定被写体に対して、位相差検出方式による第1のフォーカス制御及びコントラスト検出方式による第2のフォーカス制御を行う制御ステップとを有する。そして、制御ステップにおいて、特定被写体のコントラスト差が大きい方向に応じ位相差検出方向を設定し、該位相差検出方向において検出された位相差に基づいて第1のフォーカス制御を行い、かつ位相差検出方向と同じ方向で検出されたコントラストに基づいて第2のフォーカス制御を行うことを特徴とする。 According to another aspect of the present invention, there is provided a method for controlling an imaging apparatus, comprising: a step of detecting a specific subject from an image generated using an imaging device; and a first method using a phase difference detection method for the specific subject. And a control step for performing second focus control by a contrast detection method. In the control step, the phase difference detection direction is set according to the direction in which the contrast difference of the specific subject is large , the first focus control is performed based on the phase difference detected in the phase difference detection direction, and the phase difference The second focus control is performed based on the contrast detected in the same direction as the detection direction.

本発明によれば、特定被写体に応じた位相差検出方向での位相差AFを行い、かつ位相差検出方向と同じ方向でのコントラスト検出によるコントラストAFを行う。このため、特定被写体が持つコントラスト差の方向に対応した適切なハイブリッドAFを行うことができ、特定被写体に対する高精度の合焦状態を得ることができる。   According to the present invention, the phase difference AF in the phase difference detection direction corresponding to the specific subject is performed, and the contrast AF is performed by contrast detection in the same direction as the phase difference detection direction. For this reason, appropriate hybrid AF corresponding to the direction of the contrast difference of the specific subject can be performed, and a highly accurate in-focus state for the specific subject can be obtained.

以下、本発明の好ましい実施例について図面を参照しながら説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

図1には、本発明の実施例である撮像装置としてのデジタルスチルカメラの構成を示している。   FIG. 1 shows a configuration of a digital still camera as an image pickup apparatus that is an embodiment of the present invention.

図1において、1は撮像光学系であり、2は撮像光学系1の一部を構成するフォーカスレンズである。4はフォーカスレンズ2を光軸方向に移動させるアクチュエータとしてのフォーカスモータである。10はCCDセンサやCMOSセンサ等で構成される撮像素子である。12は撮像素子10からのアナログ撮像信号をデジタル撮像信号に変換するA/D変換器である。   In FIG. 1, reference numeral 1 denotes an image pickup optical system, and reference numeral 2 denotes a focus lens constituting a part of the image pickup optical system 1. Reference numeral 4 denotes a focus motor as an actuator for moving the focus lens 2 in the optical axis direction. Reference numeral 10 denotes an image sensor composed of a CCD sensor, a CMOS sensor, or the like. Reference numeral 12 denotes an A / D converter that converts an analog imaging signal from the imaging device 10 into a digital imaging signal.

14はメモリコントローラであり、15はメモリ(DRAM)である。メモリコントローラ14は、メモリ15に対するデータのリード/ライトをコントロールする。メモリ15は、A/D変換器12からのデジタル撮像信号や後述する現像処理部16からの画像データを一時的に蓄えるバッファ機能を有する。   Reference numeral 14 is a memory controller, and 15 is a memory (DRAM). The memory controller 14 controls reading / writing of data with respect to the memory 15. The memory 15 has a buffer function for temporarily storing a digital imaging signal from the A / D converter 12 and image data from a development processing unit 16 described later.

現像処理部16は、A/D変換器12からのデジタル撮像信号に対して各種処理を行うことで画像データを生成する。また、現像処理部16は、メモリ15で保持された画像データをYUV形式の画像データに変換する。例えば、デジタルカメラで一般的な記録フォーマットであるJPEG形式の画像データを生成する前段階として、YUV形式の画像データを生成する。   The development processing unit 16 generates image data by performing various processes on the digital imaging signal from the A / D converter 12. The development processing unit 16 converts the image data held in the memory 15 into YUV format image data. For example, YUV image data is generated as a pre-stage for generating JPEG image data, which is a general recording format for digital cameras.

また、現像処理部16において、所定周期で順次生成される表示用画像データは、表示部22に転送され、ここでLCD等の表示デバイスに表示される。これにより、電子ビューファインダ(EVF)による被写体映像(ライブビュー映像)の表示が行われる。   Further, display image data sequentially generated at a predetermined cycle in the development processing unit 16 is transferred to the display unit 22 where it is displayed on a display device such as an LCD. As a result, the subject video (live view video) is displayed by the electronic viewfinder (EVF).

20は顔検出部(被写体検出手段)であり、現像処理後の画像データやメモリ15に保存された画像データから被写体(人物)の顔を検出する。顔検出の具体的方法については後述する。   Reference numeral 20 denotes a face detection unit (subject detection means) that detects the face of a subject (person) from image data after development processing and image data stored in the memory 15. A specific method of face detection will be described later.

顔検出部20での顔検出結果(顔位置情報)は、表示部22に顔の位置を示すデータとして送られる。表示部22は、顔を含む領域(顔領域)を囲む顔枠のデータを生成し、該顔枠データを、現像処理部16から転送された表示用画像データに重ねて表示デバイスに表示させる。   The face detection result (face position information) in the face detection unit 20 is sent to the display unit 22 as data indicating the face position. The display unit 22 generates face frame data surrounding an area including a face (face area), and causes the display device to display the face frame data on the display image data transferred from the development processing unit 16.

26は位相差デフォーカス量取得部(第1の焦点検出手段)であり、現像処理部16又はメモリ15からの画像データのうち、後述するAF領域制御部28により指定された焦点検出エリアにおいて位相差検出方式によりデフォーカス量を取得する。デフォーカス量の取得方法(位相差AF)については後述する。   Reference numeral 26 denotes a phase difference defocus amount acquisition unit (first focus detection means), which is a position in a focus detection area designated by an AF area control unit 28 to be described later in the image data from the development processing unit 16 or the memory 15. The defocus amount is acquired by the phase difference detection method. A defocus amount acquisition method (phase difference AF) will be described later.

AF領域制御部28は、撮像領域(撮像画面)のうちピントを合わせるAF領域(焦点検出領域)を指定する。AF領域制御部28は、顔検出部20からの顔検出結果(顔位置情報)を受けた場合は、現像処理部16からの画像データ(フォーカス用輝度データ)における顔領域を指定する。   The AF area control unit 28 designates an AF area (focus detection area) to be focused in the imaging area (imaging screen). When the AF area control unit 28 receives the face detection result (face position information) from the face detection unit 20, the AF area control unit 28 specifies the face area in the image data (focus luminance data) from the development processing unit 16.

30はコントラスト評価値取得部であり、現像処理部16又はメモリ15からの画像データのうち、AF領域制御部28で指定されたAF領域内の画像信号からコントラスト評価値(単にコントラストともいう)を生成する。AF領域として顔領域が指定された場合は、該顔領域内の画像信号からコントラスト評価値を生成する。コントラスト評価値の生成方法(コントラストAF)については後述する。   Reference numeral 30 denotes a contrast evaluation value acquisition unit, and among the image data from the development processing unit 16 or the memory 15, a contrast evaluation value (also simply referred to as contrast) is obtained from an image signal in the AF area designated by the AF area control unit 28. Generate. When a face area is designated as the AF area, a contrast evaluation value is generated from an image signal in the face area. A method for generating the contrast evaluation value (contrast AF) will be described later.

32はフォーカス制御部である。フォーカス制御部32は、位相差デフォーカス量取得部26からのデフォーカス量やコントラスト評価値取得部30からのコントラスト評価値に基づいて、合焦対象である被写体に対して合焦状態を得るためのフォーカスレンズ2の移動量又は位置を算出する。そして、フォーカス制御部32は、該移動量だけ又は該位置にフォーカスレンズ2を移動させるように、フォーカスモータ4を制御する。すなわち、フォーカス制御部 32は、被写体に対して、位相差AF(第1のフォーカス制御)を行った後、コントラストAF(第2のフォーカス制御)を行う制御手段として機能する。   Reference numeral 32 denotes a focus control unit. The focus control unit 32 obtains an in-focus state with respect to a subject to be focused based on the defocus amount from the phase difference defocus amount acquisition unit 26 and the contrast evaluation value from the contrast evaluation value acquisition unit 30. The moving amount or position of the focus lens 2 is calculated. Then, the focus control unit 32 controls the focus motor 4 so as to move the focus lens 2 by the movement amount or to the position. That is, the focus control unit 32 functions as a control unit that performs contrast AF (second focus control) after performing phase difference AF (first focus control) on the subject.

合焦対象が顔領域である場合に、位相差AFを行った後にコントラストAFを行うことにより、顔領域に対するハイブリッドAFを行うことができる。   When the focus target is a face area, hybrid AF can be performed on the face area by performing contrast AF after performing phase difference AF.

34は、フォーカス制御部32からの指示に応じてフォーカスモータ4を駆動するフォーカスモータ駆動部である。   A focus motor driving unit 34 drives the focus motor 4 in response to an instruction from the focus control unit 32.

35は姿勢検出手段としての姿勢センサである。この姿勢センサ35については後述する。   Reference numeral 35 denotes an attitude sensor as attitude detection means. The posture sensor 35 will be described later.

[撮像素子10による位相差AFの説明]
次に、図3を用いて、撮像素子10における撮像画素(群)と位相差検出画素(群)の配置について説明する。撮像素子10は、撮像光学系1からの光束により形成された被写体像を光電変換して画像の生成及びコントラスト検出に用いられる第1の信号を出力する第1の光電変換セル群(撮像画素群)を有する。また、撮像素子10は、撮像光学系1からの光束のうち分割された光束により形成された複数の像を光電変換して位相差の検出に用いられる第2の信号を出力する第2の光電変換セル群(位相差検出画素群)を有する。第1の信号はコントラストAFに用いられ、第2の信号は位相差AFに用いられる。
[Description of Phase Difference AF by Image Sensor 10]
Next, the arrangement of the image pickup pixel (group) and the phase difference detection pixel (group) in the image pickup device 10 will be described with reference to FIG. The image sensor 10 photoelectrically converts a subject image formed by a light beam from the imaging optical system 1 and outputs a first photoelectric conversion cell group (imaging pixel group) that outputs a first signal used for image generation and contrast detection. ). In addition, the image sensor 10 photoelectrically converts a plurality of images formed by the divided light beams out of the light beams from the imaging optical system 1 and outputs a second signal used to detect a phase difference. It has a conversion cell group (phase difference detection pixel group). The first signal is used for contrast AF, and the second signal is used for phase difference AF.

図3には、撮像素子10の一部を拡大して示している。矩形枠によって囲まれた個々の白抜き部分201が撮像画素を示す。また、矩形枠によって囲まれてその内側にハッチングが施された部分202,203が位相差検出画素を示す。位相差検出画素は、互いに斜めに隣接した2つの画素で1つのペアを構成し、該ペアが撮像素子10(撮像画素群)内に離散的(かつ周期的)に配置されている。   FIG. 3 shows an enlarged part of the image sensor 10. Each white portion 201 surrounded by a rectangular frame indicates an imaging pixel. In addition, portions 202 and 203 surrounded by a rectangular frame and hatched on the inside thereof indicate phase difference detection pixels. The phase difference detection pixels form a pair of two pixels that are obliquely adjacent to each other, and the pairs are discretely (and periodically) arranged in the imaging element 10 (imaging pixel group).

図4の上側には位相差検出画素202の正面図を、図4の下側には、正面図におけるB−B’線で切断した場合の位相差検出画素202の断面図を示している。この位相差検出画素202は、撮像画素201が有するR,G,Bのいずれかのカラーフィルタ層は持っておらず、最も光入射側の位置にマイクロレンズ301が設けられている。なお、正面図ではマイクロレンズ301の図示は省略している。302はマイクロレンズ301を形成するための平面を構成するための平滑層である。   4 is a front view of the phase difference detection pixel 202, and the lower side of FIG. 4 is a cross-sectional view of the phase difference detection pixel 202 taken along the line B-B 'in the front view. The phase difference detection pixel 202 does not have any of the R, G, and B color filter layers of the imaging pixel 201, and the microlens 301 is provided at the position closest to the light incident side. In the front view, the microlens 301 is not shown. Reference numeral 302 denotes a smoothing layer for forming a plane for forming the microlens 301.

303aは遮光層であり、光電変換領域305の中心Oに対して一方向に偏心した絞り開口部を有する。304は平滑層である。   Reference numeral 303 a denotes a light shielding layer, which has a diaphragm opening eccentric in one direction with respect to the center O of the photoelectric conversion region 305. 304 is a smooth layer.

また、図5の上側には位相差検出画素203の正面図を、図5の下側には、正面図におけるB−B’線で切断した場合の位相差検出画素203の断面図を示している。この位相差検出画素203も、カラーフィルタ層は持っておらず、最も光入射側の位置(平滑層302上)にマイクロレンズ301が設けられている。なお、正面図ではマイクロレンズ301の図示は省略している。   5 is a front view of the phase difference detection pixel 203, and the lower side of FIG. 5 is a sectional view of the phase difference detection pixel 203 when cut along the line BB ′ in the front view. Yes. This phase difference detection pixel 203 also has no color filter layer, and a microlens 301 is provided at a position closest to the light incident side (on the smoothing layer 302). In the front view, the microlens 301 is not shown.

303bは遮光層であり、光電変換領域305の中心Oに対して、位相差検出画素202に設けられた遮光層303aとは反対方向に偏心した絞り開口部を有する。すなわち、位相差検出画素202,203の遮光層303a,303bは、各マイクロレンズ301の光軸(O)を挟んだ対称な位置に絞り開口部を有する。   Reference numeral 303b denotes a light shielding layer, which has an aperture opening that is decentered in the opposite direction to the light shielding layer 303a provided in the phase difference detection pixel 202 with respect to the center O of the photoelectric conversion region 305. That is, the light shielding layers 303 a and 303 b of the phase difference detection pixels 202 and 203 have diaphragm openings at symmetrical positions with the optical axis (O) of each microlens 301 interposed therebetween.

このような構成によれば、撮像光学系1を位相差検出画素202から見た場合と位相差検出画素203から見た場合とで、撮像光学系1の瞳が対称に分割されたことと等価となる。すなわち、マイクロレンズ301と遮光層303a,303bは、いわゆる瞳分割光学系を構成する。   According to such a configuration, the case where the imaging optical system 1 is viewed from the phase difference detection pixel 202 and the case where the imaging optical system 1 is viewed from the phase difference detection pixel 203 is equivalent to the fact that the pupil of the imaging optical system 1 is divided symmetrically. It becomes. That is, the microlens 301 and the light shielding layers 303a and 303b constitute a so-called pupil division optical system.

互いに隣接した位相差検出画素202,203上には、撮像素子10の画素数が多くなるにつれてより近似した2像が形成されるようになる。撮像光学系1が被写体に対してピントが合っている状態では、位相差検出画素202,203から得られる出力(像信号)は互いに一致する。   Two more approximate images are formed on the phase difference detection pixels 202 and 203 adjacent to each other as the number of pixels of the image sensor 10 increases. When the imaging optical system 1 is in focus with respect to the subject, the outputs (image signals) obtained from the phase difference detection pixels 202 and 203 coincide with each other.

これに対し、撮像光学系1のピントがずれているならば、位相差検出画素202,203から得られる像信号には位相差が生じる。そして、該位相差の方向は、前ピン状態と後ピン状態とで逆になる。   On the other hand, if the imaging optical system 1 is out of focus, a phase difference occurs in the image signals obtained from the phase difference detection pixels 202 and 203. The direction of the phase difference is reversed between the front pin state and the rear pin state.

図6及び図7に、位相差とピント状態との関係を示す。これらの図においては、位相差検出画素202,203をそれぞれS1,S2として示す。また、撮像画素201を省略して、複数の位相差検出画素202,203のペアを互いに近づけて同一断面上に示している。また、図中、位相差検出画素S1,S2のペアが同じマイクロレンズ301で覆われているように示しているが、位相差検出画素S1,S2がそれぞれ別々のマイクロレンズで覆われていてもよい。   6 and 7 show the relationship between the phase difference and the focus state. In these figures, the phase difference detection pixels 202 and 203 are shown as S1 and S2, respectively. Further, the imaging pixel 201 is omitted, and a plurality of pairs of phase difference detection pixels 202 and 203 are shown close to each other on the same cross section. In the drawing, the pair of phase difference detection pixels S1 and S2 is shown as being covered with the same microlens 301, but the phase difference detection pixels S1 and S2 may be covered with different microlenses. Good.

被写体の特定点からの光は位相差検出画素S1に対する瞳を通って位相差検出画素S1に入射する光束L1と、位相差検出画素S2に対する瞳を通って位相差検出画素S2に入射する光束L2とに分割される。該2つの光束L1,L2は、撮像光学系1のピントが特定点に合っている状態では、図6に示すようにマイクロレンズ301の表面における一点に集光する。そして、位相差検出画素S1,S2上には、同一の像が形成される。これにより、位相差検出画素S1から読み出した像信号と、位相差検出画素S2から読み出した像信号とは同一のものとなる。   Light from a specific point of the subject passes through the pupil for the phase difference detection pixel S1 and enters the phase difference detection pixel S1, and light flux L2 enters the phase difference detection pixel S2 through the pupil for the phase difference detection pixel S2. And divided. The two light beams L1 and L2 are collected at one point on the surface of the microlens 301 as shown in FIG. 6 in a state where the imaging optical system 1 is focused on a specific point. The same image is formed on the phase difference detection pixels S1 and S2. As a result, the image signal read from the phase difference detection pixel S1 and the image signal read from the phase difference detection pixel S2 are the same.

一方、撮像光学系1のピントが特定点に合っていない状態では、図7に示すように、光束L1,L2はマイクロレンズ301の表面とは異なる位置で交差する。このときのマイクロレンズ301の表面と2つの光束L1,L2の交点との距離、すなわちデフォーカス量をxとする。また、この状態で発生した位相差検出画素S1,S2上での像のずれ量(位相差)がn画素に相当するものとする。   On the other hand, when the imaging optical system 1 is not focused on a specific point, the light beams L1 and L2 intersect at different positions from the surface of the microlens 301, as shown in FIG. The distance between the surface of the microlens 301 and the intersection of the two light beams L1 and L2, that is, the defocus amount is x. Further, it is assumed that the image shift amount (phase difference) on the phase difference detection pixels S1 and S2 generated in this state corresponds to n pixels.

画素ピッチをd、2つの瞳の重心間の距離をDaf、撮像光学系1の主点から焦点位置までの距離をuとするとき、デフォーカス量xは、
x=n×d×u/Daf …(1)
で求められる。
When the pixel pitch is d, the distance between the centers of gravity of the two pupils is Daf, and the distance from the principal point of the imaging optical system 1 to the focal position is u, the defocus amount x is
x = n × d × u / Daf (1)
Is required.

なお、uは撮像光学系1の焦点距離fにほぼ等しいと考えられるので、デフォーカス量xは、
x=n×d×f/Daf …(2)
で求めることもできる。
Since u is considered to be substantially equal to the focal length f of the imaging optical system 1, the defocus amount x is
x = n × d × f / Daf (2)
You can also ask for it.

図8には、位相差検出画素S1,S2のそれぞれから読み出した像信号を示す。これらの一対の像信号にはずれ量(つまりは像ずれ量)n×dが発生する。   FIG. 8 shows image signals read from each of the phase difference detection pixels S1 and S2. A shift amount (that is, an image shift amount) n × d is generated in the pair of image signals.

位相差デフォーカス量取得部26は、相関演算手法を用いて一対の像信号のずれ量(位相差)n×dを求め、さらに(1)又は(2)式によってデフォーカス量xを求める。   The phase difference defocus amount acquisition unit 26 obtains a shift amount (phase difference) n × d between a pair of image signals using a correlation calculation method, and further obtains a defocus amount x by the expression (1) or (2).

フォーカス制御部32は、算出されたデフォーカス量に基づいて、デフォーカス量xを所定範囲内に収める(望ましくは零にする)ためのフォーカスレンズ2の移動量を算出する。そして、フォーカス制御部32は、撮像光学系1内のフォーカスレンズ2を、算出した移動量に対応した合焦位置に移動させる。これにより、位相差AFによる合焦状態が得られる。   The focus control unit 32 calculates a movement amount of the focus lens 2 for keeping the defocus amount x within a predetermined range (preferably zero) based on the calculated defocus amount. Then, the focus control unit 32 moves the focus lens 2 in the imaging optical system 1 to a focus position corresponding to the calculated movement amount. Thereby, a focused state by phase difference AF is obtained.

なお、現像処理部16は、位相差検出画素に対応する画像用画素データを該位相差検出画素の近傍に配置された複数の撮像画素の出力に基づいて補間してもよい。これにより、画素欠けのない画像データが生成される。   Note that the development processing unit 16 may interpolate image pixel data corresponding to the phase difference detection pixels based on outputs from a plurality of imaging pixels arranged in the vicinity of the phase difference detection pixels. As a result, image data having no missing pixels is generated.

このように、本実施例では、撮像光学系1からの光束のうち互いに異なる瞳を通った光束L1,L2を瞳分割光学系を用いて分割し、光束L1,L2により形成される2像を受光するように位相差検出画素S1,S2を設けることで、位相差AFを可能としている。   As described above, in this embodiment, among the light beams from the imaging optical system 1, the light beams L1 and L2 passing through different pupils are divided using the pupil division optical system, and two images formed by the light beams L1 and L2 are obtained. By providing the phase difference detection pixels S1 and S2 so as to receive light, phase difference AF is enabled.

[顔検出の説明]
顔検出部20による人物の顔(特定被写体)の検出方法としては、主成分分析による固有顔(eigenface)を用いた方法や、目,鼻,口等の顔の特徴点を利用する方法がある。前者は、M.A.Turk and A.P.Pentland, "Face recognition using eigenfaces", Proc. of IEEE Conf. on Computer Vision and Pattern Recognition, pp.586-591, 1991.にて説明されている。また、後者は、例えば、特開平09−251534号公報にて説明されている。これらの顔検出方法は、入力画像と複数の標準パターンとのパターンマッチング法により、入力画像が人物の顔であるかどうかを判定する。本実施例では、メモリ15に予め保存された人物の顔の標準パターンと現像処理部16又はメモリ15からの画像データとの間でパターンマッチングを行う。
[Description of face detection]
As a method of detecting a human face (specific subject) by the face detection unit 20, there are a method using an eigenface by principal component analysis, and a method using facial feature points such as eyes, nose and mouth. . The former is described in MA Turk and APPentland, “Face recognition using eigenfaces”, Proc. Of IEEE Conf. On Computer Vision and Pattern Recognition, pp. 586-591, 1991. The latter is described in, for example, Japanese Patent Application Laid-Open No. 09-251534. In these face detection methods, it is determined whether or not the input image is a human face by a pattern matching method between the input image and a plurality of standard patterns. In this embodiment, pattern matching is performed between a standard pattern of a human face stored in advance in the memory 15 and image data from the development processing unit 16 or the memory 15.

そして、AF領域制御部28は、顔検出部20からの顔位置情報に基づいて、画像データ上での顔領域を指定し、表示部22は該顔領域を囲む顔枠を画像データに重ねて表示する。   Then, the AF area control unit 28 designates a face area on the image data based on the face position information from the face detection unit 20, and the display unit 22 superimposes a face frame surrounding the face area on the image data. indicate.

ただし、本発明では、上記顔検出方法に限らず、他の顔検出方法を使用してもよい。例えば、先に示した特許文献2にて開示された、画像データに含まれる人物の眼を検出し、検出された眼の位置及び大きさを示す情報に基づいて顔枠を設定するようにしてもよい。   However, the present invention is not limited to the face detection method described above, and other face detection methods may be used. For example, the human eye included in the image data disclosed in Patent Document 2 shown above is detected, and the face frame is set based on the information indicating the detected position and size of the eye. Also good.

[コントラストAFの説明]
コントラスト評価値取得部30は、撮像素子10を用いて得られた画像データをバンドパスフィルタを通すことで、該画像データに含まれる高周波成分を抽出し、該高周波成分から画像データのコントラスト状態を示すコントラスト評価値を生成する。そして、このコントラスト評価値をフォーカスレンズ2を所定範囲で移動させながら取得し、コントラスト評価値が最大となったフォーカスレンズ位置を合焦位置と判定する。該合焦位置にフォーカスレンズ2を移動させることで、コントラストAFによる合焦状態が得られる。
[Description of contrast AF]
The contrast evaluation value acquisition unit 30 extracts the high-frequency component included in the image data by passing the image data obtained using the image sensor 10 through a band-pass filter, and determines the contrast state of the image data from the high-frequency component. A contrast evaluation value is generated. Then, the contrast evaluation value is acquired while moving the focus lens 2 within a predetermined range, and the focus lens position where the contrast evaluation value is maximized is determined as the in-focus position. By moving the focus lens 2 to the focus position, a focus state by contrast AF is obtained.

[顔領域に対するハイブリッドAFの説明]
次に、本実施例における顔領域に対するハイブリッドAFについて、図2、図9及び図10を用いて説明する。
[Description of hybrid AF for face area]
Next, hybrid AF for the face area in the present embodiment will be described with reference to FIGS.

図2には、手前に2人の人物がいて、それら人物の間の後方に建物があるシーンを示している。図10は、図2のシーンのうち一方の人物と背景の建物を含む広い領域でのコントラスト評価値を示している。この図では、背景の建物に対するコントラスト評価値が顔に対するコントラスト評価値よりも高くなっている。つまり、背景の影響によって、人物(顔)の距離よりも遠い距離においてコントラスト評価値が最大となっている。このため、コントラストAFを行っても、顔に対してピントがずれる(建物にピントが合う)。   FIG. 2 shows a scene in which there are two persons in the foreground and a building behind them. FIG. 10 shows contrast evaluation values in a wide area including one person and the background building in the scene of FIG. In this figure, the contrast evaluation value for the background building is higher than the contrast evaluation value for the face. That is, the contrast evaluation value is maximized at a distance farther than the distance of the person (face) due to the influence of the background. For this reason, even if contrast AF is performed, the face is out of focus (the building is in focus).

図9は、図2のシーンのうち、一方の人物の顔領域Fのみで取得されたコントラスト評価値を示す。この図では、人物の顔(特定被写体)の距離においてコントラスト評価値が最大となっている。このため、コントラストAFにより顔にピントが合う。   FIG. 9 shows contrast evaluation values acquired only from the face area F of one person in the scene of FIG. In this figure, the contrast evaluation value is maximum at the distance of the person's face (specific subject). For this reason, the face is focused by contrast AF.

ただし、コントラストAFにより顔に高精度にピントを合わせるためには、顔がコントラスト差を持つ方向においてコントラスト評価値を取得することが必要である。さらに言えば、コントラスト評価値の取得(検出)方向が、位相差AFでの位相差検出方向である瞳分割方向と同じであることが必要である。瞳分割方向とは、前述した瞳分割光学系による光束の分割方向であり、言い換えれば、第1及び第2の位相差センサの分離方向である。   However, in order to focus on the face with high accuracy by contrast AF, it is necessary to acquire a contrast evaluation value in a direction in which the face has a contrast difference. Furthermore, it is necessary that the acquisition (detection) direction of the contrast evaluation value is the same as the pupil division direction that is the phase difference detection direction in the phase difference AF. The pupil division direction is the light beam division direction by the above-described pupil division optical system, in other words, the separation direction of the first and second phase difference sensors.

本実施例では、撮像素子10に、図11Aに示すように位相差検出方向(瞳分割方向)、つまりは位相差を検出可能な方向が水平方向である位相差センサ(水平位相差センサ)を設けている。さらに、撮像素子10に、図11Bに示すように位相差検出方向が垂直方向である位相差センサ(垂直位相差センサ)を設けている。   In the present embodiment, the image sensor 10 is provided with a phase difference sensor (horizontal phase difference sensor) in which the phase difference detection direction (pupil division direction), that is, the direction in which the phase difference can be detected is horizontal, as shown in FIG. 11A. Provided. Furthermore, the image sensor 10 is provided with a phase difference sensor (vertical phase difference sensor) whose phase difference detection direction is the vertical direction as shown in FIG. 11B.

そして、このような水平及び垂直位相差センサが、撮像素子10の全体に所定間隔で離散して配置されている。具体的には、撮像素子10の画素全体の1%程度の画素を位相差センサに割り当てている。   Such horizontal and vertical phase difference sensors are discretely arranged at predetermined intervals over the entire image sensor 10. Specifically, about 1% of all the pixels of the image sensor 10 are allocated to the phase difference sensor.

なお、位相差検出方向(瞳分割方向)、水平位相差センサ及びコントラスト検出に関して水平方向とは撮像素子10の長辺に沿った方向を意味し、垂直方向とは撮像素子10の短辺に沿った方向を意味する。   Regarding the phase difference detection direction (pupil division direction), horizontal phase difference sensor, and contrast detection, the horizontal direction means a direction along the long side of the image sensor 10, and the vertical direction means along the short side of the image sensor 10. Means the direction.

垂直方向に比べて水平方向により大きいコントラスト差を持つ被写体に対しては、水平位相差センサを用いて位相差AFを行った後、水平方向でのコントラスト検出によってコントラストAFを行うことで、高精度なハイブリッドAFを行える。一方、垂直方向により大きいコントラスト差を有する被写体に対しては、垂直位相差センサを用いて位相差AFを行った後、垂直方向でのコントラスト検出によってコントラストAFを行うことで、該被写体に対する高精度なハイブリッドAFを行える。   For subjects with a greater contrast difference in the horizontal direction than in the vertical direction, after performing phase difference AF using a horizontal phase difference sensor, contrast AF is performed by detecting the contrast in the horizontal direction. Hybrid AF can be performed. On the other hand, for a subject having a larger contrast difference in the vertical direction, after performing phase difference AF using a vertical phase difference sensor, contrast AF is performed by contrast detection in the vertical direction, thereby achieving high accuracy for the subject. Hybrid AF can be performed.

コントラスト評価値取得部30で、画像データに対して水平方向及び垂直方向のバンドパスフィルタを使い分けることで、水平方向及び垂直方向でのコントラスト評価値をそれぞれ取得することができる。   The contrast evaluation value acquisition unit 30 can acquire the contrast evaluation values in the horizontal direction and the vertical direction by using different band pass filters in the horizontal direction and the vertical direction for the image data.

ここで、一般に、顔は両眼の方向に比べて、両眼の方向に対して直交する方向(顔の長手方向)においてより大きいコントラスト差を持つ。このため、図2に示すように被写体が正立状態にあってカメラが正姿勢(以下、横位置という)で構えられている場合には、垂直位相差センサを用いた位相差AFと垂直方向でのコントラスト検出によるコントラストAFを行う方が合焦精度が高くなる。   Here, in general, the face has a larger contrast difference in the direction orthogonal to the direction of both eyes (longitudinal direction of the face) than in the direction of both eyes. Therefore, as shown in FIG. 2, when the subject is in an upright state and the camera is held in a normal posture (hereinafter referred to as a horizontal position), the phase difference AF using the vertical phase difference sensor and the vertical direction The accuracy of focusing is higher when contrast AF is performed by contrast detection.

しかし、被写体が正立状態にあってカメラが横倒し姿勢(以下、縦位置という)で構えられている場合には、水平位相差センサを用いた位相差AFと水平方向でのコントラスト検出によるコントラストAFを行う方が合焦精度が高くなる。   However, when the subject is in an upright state and the camera is held in a horizontal position (hereinafter referred to as a vertical position), the phase difference AF using a horizontal phase difference sensor and the contrast AF by contrast detection in the horizontal direction. The accuracy of focusing is higher when performing.

このように、本実施例では、顔領域に対しては、カメラに対する顔の向きに応じた位相差検出方向を設定して位相差AFを行った後、該位相差検出方向と同じ方向でのコントラスト検出に基づくコントラストAFを行う。具体的には、顔の長手方向が撮像素子10の短辺に沿った方向である場合は、位相差検出方向を撮像素子10の長辺に沿った方向に設定する。また、顔の長手方向が撮像素子10の長辺に沿った方向である場合は、位相差検出方向を撮像素子10の短辺に沿った方向に設定する。   As described above, in the present embodiment, for the face area, after performing the phase difference AF by setting the phase difference detection direction corresponding to the face direction with respect to the camera, the phase difference detection direction is the same as the phase difference detection direction. Contrast AF based on contrast detection is performed. Specifically, when the longitudinal direction of the face is the direction along the short side of the image sensor 10, the phase difference detection direction is set to the direction along the long side of the image sensor 10. When the longitudinal direction of the face is the direction along the long side of the image sensor 10, the phase difference detection direction is set to the direction along the short side of the image sensor 10.

これにより、顔領域に対する位相差AFとコントラストAFでの焦点状態の評価の整合性がとれることとなり、ハイブリッドAFの性能を十分に生かして高い合焦精度を得ることができる。   Thereby, the consistency of evaluation of the focus state in the phase difference AF and the contrast AF with respect to the face area can be obtained, and high focusing accuracy can be obtained by making full use of the performance of the hybrid AF.

本実施例のカメラには、該カメラが横位置か縦位置かを検出するための姿勢センサ35が設けられている。この姿勢センサ35によりカメラの位置(姿勢)を検出し、その結果に基づいて位相差検出方向とこれと同じ方向であるコントラスト検出方向を設定することで、カメラに対する顔の向きに応じた位相差検出方向及びコントラスト検出方向を設定することができる。   The camera of this embodiment is provided with a posture sensor 35 for detecting whether the camera is in the horizontal position or the vertical position. The position (orientation) of the camera is detected by the attitude sensor 35, and a phase difference detection direction and a contrast detection direction that is the same direction as this are set, so that the phase difference corresponding to the face direction relative to the camera is set. A detection direction and a contrast detection direction can be set.

なお、カメラが横位置にあっても被写体が横たわっている場合(顔が横倒しになっいる場合)には、水平位相差センサを用いた位相差AFと水平方向でのコントラスト検出によるコントラストAFを行う方が合焦精度が高くなる。このような場合は、姿勢センサ35を用いても上述した適切な位相差検出方向及びコントラスト検出方向を設定できない。   When the subject is lying down even when the camera is in the horizontal position (when the face is lying down), the phase difference AF using the horizontal phase difference sensor and the contrast AF based on the contrast detection in the horizontal direction are performed. The focusing accuracy is higher. In such a case, the appropriate phase difference detection direction and contrast detection direction described above cannot be set even using the attitude sensor 35.

そこで、本実施例では、顔検出部20において顔の傾き情報も取得し、その傾き情報に基づいて位相差検出方向及びコントラスト検出方向を適切に設定し、水平位相差センサを用いた位相差AFと水平方向でのコントラスト検出によるコントラストAFを行う。   Therefore, in this embodiment, the face detection unit 20 also acquires face tilt information, sets the phase difference detection direction and the contrast detection direction appropriately based on the tilt information, and uses the phase difference AF using the horizontal phase difference sensor. Contrast AF is performed by detecting contrast in the horizontal direction.

また、顔検出部20において顔の傾き情報を取得した結果、カメラに対して顔が斜めに傾いている(顔の長手方向が撮像素子の長辺及び短辺に対して傾いている)場合は、水平位相差センサと垂直位相差センサのそれぞれで位相差検出を行う。さらに、水平方向と垂直方向のそれぞれでコントラスト検出を行う。そして、該各方向で得られた位相差及びコントラスト評価値に対して、顔の傾き角度に応じた適切な重み付けをすることで、実際にAFにおいて使用する位相差及びコントラスト評価値を決定すればよい。   Further, as a result of acquiring the face inclination information in the face detection unit 20, when the face is inclined obliquely with respect to the camera (the longitudinal direction of the face is inclined with respect to the long side and the short side of the image sensor), The phase difference detection is performed by each of the horizontal phase difference sensor and the vertical phase difference sensor. Furthermore, contrast detection is performed in each of the horizontal direction and the vertical direction. When the phase difference and contrast evaluation value obtained in each direction are appropriately weighted according to the face inclination angle, the phase difference and contrast evaluation value actually used in AF are determined. Good.

なお、顔検出部20で顔を判断するための画素領域のサイズとしては、例えば、水平320×垂直240画素の表示部22での表示画像のサイズに対して、20×20画素程度に設定すればよい。撮像素子10の画素全体の1%程度の画素が位相差センサとして用いられるとして、同じ位相差検出方向に対応する一対の位相差検出画素を互いに近い斜め位置に配置すると、20画素間隔で水平位相差センサと垂直位相差センサを配置できる。   The size of the pixel area for determining the face by the face detection unit 20 is set to, for example, about 20 × 20 pixels with respect to the size of the display image on the display unit 22 of horizontal 320 × vertical 240 pixels. That's fine. Assuming that about 1% of all pixels of the image sensor 10 are used as a phase difference sensor, if a pair of phase difference detection pixels corresponding to the same phase difference detection direction are arranged at oblique positions close to each other, the horizontal position is set at an interval of 20 pixels. A phase difference sensor and a vertical phase difference sensor can be arranged.

そして、水平位相差センサと水平位相差センサを交互に、かつ撮像素子の全体にほぼ均等に配置すると、1000万画素(水平3648×垂直2736画素)の撮像素子では上記の顔領域内に500画素程度の位相差検出画素を配置することができる。この500画素程度の位相差検出画素において、水平位相差センサと垂直位相差センサを水平及び垂直方向に交互に配置すると、水平及び垂直位相差センサがそれぞれ130個配置できる。上述した顔領域内に130個ずつの水平及び垂直位相差センサを配置することで、顔に対する良好な精度での位相差AFを行うことができる。   When the horizontal phase difference sensor and the horizontal phase difference sensor are alternately arranged almost uniformly over the entire image sensor, the image sensor with 10 million pixels (horizontal 3648 × vertical 2736 pixels) has 500 pixels in the face area. About a phase difference detection pixel can be arranged. In the phase difference detection pixels of about 500 pixels, when the horizontal phase difference sensor and the vertical phase difference sensor are alternately arranged in the horizontal and vertical directions, 130 horizontal and vertical phase difference sensors can be arranged respectively. By arranging 130 horizontal and vertical phase difference sensors in the face area described above, the phase difference AF can be performed with good accuracy for the face.

次に、図12に示すフローチャートを用いて、顔検出部20による顔検出処理について説明する。この処理は、顔検出部20内のメモリに格納されたコンピュータプログラムに従って実行される。また、ここでは、被写体としての人物が、図2に示すように正立状態にあるものとする。   Next, the face detection process by the face detection unit 20 will be described using the flowchart shown in FIG. This process is executed according to a computer program stored in the memory in the face detection unit 20. Here, it is assumed that a person as a subject is in an upright state as shown in FIG.

ステップS450では、カメラの起動後に、表示部22でのEVFによる被写体映像の表示が開始される。   In step S450, display of the subject video by EVF on the display unit 22 is started after the camera is activated.

次に、ステップS452では、顔検出部20は、顔検出のシーケンスの開始条件となるシーンチェンジがあったか否かを判別する。撮像素子10で受光している被写体からの光に変化がないときは、その前に検出した顔と同じ顔が存在するとみなして、シーンチェンジを待つ。ステップS450でのEVFの表示開始直後は、シーンチャンジしたものとして扱う。   Next, in step S452, the face detection unit 20 determines whether or not there has been a scene change as a start condition for the face detection sequence. When there is no change in the light from the subject received by the image sensor 10, it is assumed that the same face as the face detected before is present, and a scene change is awaited. Immediately after the start of EVF display in step S450, it is handled as a scene change.

ステップS452でシーンチェンジがあったときは、ステップS454に進み、顔検出部20は、姿勢センサ35からのカメラの位置(姿勢)を示す信号を読み込む。そして、ステップS456では、姿勢センサ35からの信号に基づいてカメラが縦位置か横位置かを判別する。縦位置であればステップS458に、横位置であればステップS468にそれぞれ進む。   If there is a scene change in step S452, the process proceeds to step S454, and the face detection unit 20 reads a signal indicating the position (posture) of the camera from the posture sensor 35. In step S456, it is determined based on the signal from the attitude sensor 35 whether the camera is in the vertical position or the horizontal position. If it is the vertical position, the process proceeds to step S458, and if it is the horizontal position, the process proceeds to step S468.

ステップS458では、顔検出部20は、前述した顔検出方法を用いて縦位置での顔検出に適した手順で顔を検出する。また、ステップS460では、顔の数とそれぞれの顔の位置を検出する。そして、ステップS472に進む。   In step S458, the face detection unit 20 detects a face by a procedure suitable for face detection in the vertical position using the face detection method described above. In step S460, the number of faces and the position of each face are detected. Then, the process proceeds to step S472.

一方、ステップS468では、顔検出部20は、前述した顔検出方法を用いて横位置での顔検出に適した手順で顔を検出する。また、ステップS470では、顔の数とそれぞれの顔の位置を検出する。そして、ステップS472に進む。   On the other hand, in step S468, the face detection unit 20 detects a face by a procedure suitable for face detection in the horizontal position using the face detection method described above. In step S470, the number of faces and the position of each face are detected. Then, the process proceeds to step S472.

ステップS472では、顔検出部20は、カメラのレリーズボタンの半押し操作でONになる撮像準備スイッチ(SW1)がONになったか否かを判別する。SW1がONでなければステップS452に戻り、ONであればステップS474に進み、図13に示すステップS500に進む。   In step S472, the face detection unit 20 determines whether or not the imaging preparation switch (SW1) that is turned on by half-pressing the release button of the camera is turned on. If SW1 is not ON, the process returns to step S452, and if SW1 is ON, the process proceeds to step S474, and the process proceeds to step S500 shown in FIG.

図13には、フォーカス制御部32で行われる顔領域に対するハイブリッドAFのフローチャートを示している。この処理は、フォーカス制御部32内のメモリに格納されたコンピュータプログラムに従って実行される。   FIG. 13 shows a flowchart of hybrid AF for the face area performed by the focus control unit 32. This process is executed according to a computer program stored in a memory in the focus control unit 32.

ステップS500では、図12のステップS474でのSW1がONされたことを条件としてAFシーケンスを開始する。なお、EVFが表示状態であっても非表示状態であっても該AFが開始される。   In step S500, the AF sequence is started on the condition that SW1 in step S474 of FIG. 12 is turned on. Note that the AF is started regardless of whether the EVF is in a display state or a non-display state.

ステップS502では、フォーカス制御部32は、姿勢センサ35からのカメラの位置(姿勢)を示す信号を読み込む。そして、ステップS504では、姿勢センサ35からの信号に基づいてカメラが縦位置か横位置かを判別する。縦位置であればステップS510に、横位置であればステップS540にそれぞれ進む。   In step S <b> 502, the focus control unit 32 reads a signal indicating the position (posture) of the camera from the posture sensor 35. In step S504, based on the signal from the attitude sensor 35, it is determined whether the camera is in the vertical position or the horizontal position. If it is the vertical position, the process proceeds to step S510, and if it is the horizontal position, the process proceeds to step S540.

ステップS510では、フォーカス制御部32は、SW1がONされる前に顔検出部20により行われた顔検出処理(ステップS458)にて検出された顔を含む顔領域をAF領域として設定する。複数の顔が検出されていた場合には、最も近い距離に位置する顔等を主顔とし、その主顔を含む顔領域をAF領域として設定する。   In step S510, the focus control unit 32 sets the face area including the face detected by the face detection process (step S458) performed by the face detection unit 20 before the SW1 is turned on as the AF area. When a plurality of faces are detected, the face located at the closest distance is set as the main face, and the face area including the main face is set as the AF area.

次に、ステップS512では、フォーカス制御部32は、位相差デフォーカス量取得部26にAF領域に対する水平位相差センサを用いた位相差検出(デフォーカス量算出)を行わせ、さらにデフォーカス量からフォーカスレンズ2の移動量を算出する。そして、ステップS514で、フォーカス制御部32は、該算出した移動量だけフォーカスレンズ2を移動させる。これにより、位相差AFによる合焦状態が得られる。   Next, in step S512, the focus control unit 32 causes the phase difference defocus amount acquisition unit 26 to perform phase difference detection (defocus amount calculation) using a horizontal phase difference sensor with respect to the AF area, and from the defocus amount. The amount of movement of the focus lens 2 is calculated. In step S514, the focus control unit 32 moves the focus lens 2 by the calculated movement amount. Thereby, a focused state by phase difference AF is obtained.

ステップS516では、フォーカス制御部32は、フォーカスレンズ2が合焦位置に対して所定の範囲(位相差合焦範囲)内に移動したか否かをチェックする。位相差合焦範囲内であれば、次のステップS518において、フォーカスレンズ2を所定範囲内(例えば、位相差合焦範囲内又はこれよりも若干大きな範囲内)で所定量ずつ細かく移動(スキャン)させながら、該AF領域に対するコントラストAFを行う。このときのコントラスト評価値の検出方向は、ステップS512での位相差AFにおける位相差検出方向と同じ水平方向である。位相差合焦範囲付近でスキャンすることで、短時間でAF領域(顔)に対するコントラストAFによる合焦位置(コントラスト合焦位置)を検出することができる。   In step S516, the focus control unit 32 checks whether or not the focus lens 2 has moved within a predetermined range (phase difference focus range) with respect to the focus position. If it is within the phase difference in-focus range, in the next step S518, the focus lens 2 is finely moved (scanned) by a predetermined amount within a predetermined range (for example, within the phase difference in-focus range or slightly larger than this). Contrast AF is performed on the AF area. The detection direction of the contrast evaluation value at this time is the same horizontal direction as the phase difference detection direction in the phase difference AF in step S512. By scanning in the vicinity of the phase difference focusing range, it is possible to detect the focusing position (contrast focusing position) by contrast AF for the AF area (face) in a short time.

そして、ステップS520では、フォーカス制御部32は、ステップS518で検出したコントラスト合焦位置にフォーカスレンズ2を移動させる。こうして、AF領域(顔)に対して高精度の合焦状態が得られると、ステップS560にて合焦判定を行い、ステップS562でAFを完了する。   In step S520, the focus control unit 32 moves the focus lens 2 to the contrast focus position detected in step S518. Thus, when a highly accurate in-focus state is obtained for the AF area (face), in-focus determination is performed in step S560, and AF is completed in step S562.

一方、ステップS540では、フォーカス制御部32は、SW1がONされる前に顔検出部20により行われた顔検出処理(ステップS468)にて検出された顔を含む顔領域をAF領域として設定する。複数の顔が検出されていた場合には、主顔を含む顔領域をAF領域として設定する。   On the other hand, in step S540, the focus control unit 32 sets the face area including the face detected by the face detection process (step S468) performed by the face detection unit 20 before SW1 is turned on as the AF area. . When a plurality of faces are detected, the face area including the main face is set as the AF area.

次に、ステップS542では、フォーカス制御部32は、位相差デフォーカス量取得部26にAF領域に対する垂直位相差センサを用いた位相差検出(デフォーカス量算出)を行わせ、さらにデフォーカス量からフォーカスレンズ2の移動量を算出する。そして、ステップS544で、フォーカス制御部32は、該算出した移動量だけフォーカスレンズ2を移動させる。これにより、位相差AFによる合焦状態が得られる。   Next, in step S542, the focus control unit 32 causes the phase difference defocus amount acquisition unit 26 to perform phase difference detection (defocus amount calculation) using a vertical phase difference sensor with respect to the AF area, and further, from the defocus amount. The amount of movement of the focus lens 2 is calculated. In step S544, the focus control unit 32 moves the focus lens 2 by the calculated movement amount. Thereby, a focused state by phase difference AF is obtained.

ステップS546では、フォーカス制御部32は、フォーカスレンズ2が合焦位置に対して位相差合焦範囲内に移動したか否かをチェックする。位相差合焦範囲内であれば、次のステップS548において、フォーカスレンズ2を所定範囲内(例えば、位相差合焦範囲内又はこれよりも若干大きな範囲内)で所定量ずつ細かく移動(スキャン)させながら、該AF領域に対するコントラストAFを行う。このときのコントラスト評価値の検出方向は、ステップS542での位相差AFにおける位相差検出方向と同じ垂直方向である。位相差合焦範囲付近でスキャンすることで、短時間でAF領域(顔)に対するコントラストAFによる合焦位置(コントラスト合焦位置)を検出することができる。   In step S546, the focus control unit 32 checks whether or not the focus lens 2 has moved within the phase difference focusing range with respect to the focusing position. If it is within the phase difference in-focus range, in the next step S548, the focus lens 2 is finely moved (scanned) by a predetermined amount within a predetermined range (for example, within the phase difference in-focus range or a slightly larger range). Contrast AF is performed on the AF area. The detection direction of the contrast evaluation value at this time is the same vertical direction as the phase difference detection direction in the phase difference AF in step S542. By scanning in the vicinity of the phase difference focusing range, it is possible to detect the focusing position (contrast focusing position) by contrast AF for the AF area (face) in a short time.

そして、ステップS550では、フォーカス制御部32は、ステップS548で検出したコントラスト合焦位置にフォーカスレンズ2を移動させる。こうして、AF領域(顔)に対して高精度の合焦状態が得られると、ステップS60にて合焦判定を行い、ステップS562でAFを完了する。   In step S550, the focus control unit 32 moves the focus lens 2 to the contrast focus position detected in step S548. Thus, when a highly accurate focus state is obtained for the AF area (face), focus determination is performed in step S60, and AF is completed in step S562.

本実施例によれば、顔の向きに応じた位相差検出方向で位相差AFを行い、それと同じ方向でのコントラスト検出によるコントラストAFを行う。このため、顔の向き、つまりは顔がより大きなコントラスト差を持つ方向に対応したハイブリッドAFを行うことができ、顔に対する高精度の合焦状態を得ることができる。   According to the present embodiment, phase difference AF is performed in the phase difference detection direction corresponding to the face direction, and contrast AF is performed by contrast detection in the same direction. For this reason, hybrid AF corresponding to the direction of the face, that is, the direction in which the face has a larger contrast difference can be performed, and a highly accurate in-focus state with respect to the face can be obtained.

以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、上記実施例に対して種々の変形や変更が可能である。   Each of the embodiments described above is merely a representative example, and various modifications and changes can be made to the above-described embodiments when the present invention is implemented.

例えば、上記実施例では、姿勢センサを用いてカメラの位置(姿勢)を検出し、検出されたカメラの位置に基づいてカメラに対する顔の向きを特定する場合について説明した。しかし、画像データでの顔検出処理の中でカメラに対する顔の向きを判別するようにしてもよい。   For example, in the above-described embodiment, the case has been described in which the position (posture) of the camera is detected using the posture sensor, and the orientation of the face relative to the camera is specified based on the detected position of the camera. However, the orientation of the face relative to the camera may be determined during the face detection process using the image data.

また、上記実施例では、特定被写体として顔を検出し、その向きに応じて位相差検出方向及びコントラスト検出方向を決定した。この点、被写体を縦にスキャンするのでなく、横にスキャンした方が位相差検出、コントラスト検出が適する特定被写体の場合、例えば、縦線があるような被写体を特定被写体として検出する場合には次のようにしてもよい。すなわち、特定被写体として縦線のある被写体を検出し、その向きに応じて位相差検出方向及びコントラスト検出方向を決定する。   In the above embodiment, the face is detected as the specific subject, and the phase difference detection direction and the contrast detection direction are determined according to the direction. In this regard, if the subject is suitable for phase difference detection and contrast detection when the subject is scanned horizontally instead of scanning the subject vertically, for example, when detecting a subject with a vertical line as the specific subject, It may be as follows. That is, a subject with a vertical line is detected as the specific subject, and the phase difference detection direction and the contrast detection direction are determined according to the direction.

また、上記実施例では、位相差AFを行った後にコントラストAFを行う場合について説明したが、本発明におけるフォーカス制御はこれに限られない。例えば、位相差AFとコントラストAFとを同時に行い、両方の結果を用いてフォーカスレンズの位置を収束させてもよい。また、動画撮像においてコントラストAFを行っている間に被写体が急に変化したような場合に、顔の位置に変化がなければ、その直前にコントラスト検出を行っていた領域において同じ方向に位相差AFを行ってもよい。   In the above embodiment, the case where the contrast AF is performed after the phase difference AF is described, but the focus control in the present invention is not limited to this. For example, phase difference AF and contrast AF may be performed at the same time, and the focus lens position may be converged using both results. Also, when the subject changes suddenly while performing contrast AF in moving image capturing, if there is no change in the face position, the phase difference AF in the same direction in the area where contrast detection was performed immediately before May be performed.

また、上記実施例では、特定被写体が「顔」である場合について説明したが、本発明は、顔に限らず様々な特定被写体に対するハイブリッドAFを行う場合に適用することができる。   In the above-described embodiment, the case where the specific subject is a “face” has been described. However, the present invention can be applied to the case where hybrid AF is performed on various specific subjects as well as the face.

本発明の実施例であるデジタルカメラの構成を示すブロック図。1 is a block diagram illustrating a configuration of a digital camera that is an embodiment of the present invention. 実施例のカメラで撮像されるシーンの例を示す図。The figure which shows the example of the scene imaged with the camera of an Example. 実施例のカメラに用いられる撮像素子の画素配列を示す図。FIG. 3 is a diagram illustrating a pixel array of an image sensor used in the camera of the embodiment. 上記撮像素子に設けられた位相差検出画素の正面図及び断面図。The front view and sectional drawing of the phase difference detection pixel provided in the said image sensor. 上記撮像素子に設けられた別の位相差検出画素の正面図及び断面図。The front view and sectional drawing of another phase difference detection pixel provided in the said image sensor. 実施例における位相差検出画素により得られる位相差とピント状態(合焦状態)との関係を示す図。The figure which shows the relationship between the phase difference obtained by the phase difference detection pixel in an Example, and a focus state (focusing state). 実施例における位相差検出画素により得られる位相差とピント状態(デフォーカス状態)との関係を示す図。The figure which shows the relationship between the phase difference obtained by the phase difference detection pixel in an Example, and a focus state (defocus state). 位相差検出画素のそれぞれから読み出した一対の像信号を示す図。The figure which shows a pair of image signal read from each of a phase difference detection pixel. 図2のシーンのうち顔領域のみで取得されたコントラスト評価値を示す図。The figure which shows the contrast evaluation value acquired only in the face area | region among the scenes of FIG. 図2のシーンのうち背景まで含む領域で取得されたコントラスト評価値を示す図。The figure which shows the contrast evaluation value acquired in the area | region including a background among the scenes of FIG. 実施例における水平位相差センサを示す図。The figure which shows the horizontal phase difference sensor in an Example. 実施例における垂直位相差センサを示す図。The figure which shows the vertical phase difference sensor in an Example. 実施例における顔検出処理を示すフローチャート。The flowchart which shows the face detection process in an Example. 実施例におけるAF処理を示すフローチャート。The flowchart which shows the AF process in an Example.

符号の説明Explanation of symbols

1 撮像光学系
2 フォーカスレンズ
10 撮像素子
16 現像処理部
20 顔検出部
28 AF領域制御部
26 位相差デフォーカス量取得部
30 コントラスト評価値取得部
32 フォーカス制御部
35 姿勢センサ
F 顔領域
R,G,B 撮像画素
S1,S2 位相差検出画素
DESCRIPTION OF SYMBOLS 1 Image pick-up optical system 2 Focus lens 10 Image pick-up element 16 Development processing part 20 Face detection part 28 AF area control part 26 Phase difference defocus amount acquisition part 30 Contrast evaluation value acquisition part 32 Focus control part 35 Posture sensor F Face area R, G , B Imaging pixels S1, S2 Phase difference detection pixels

Claims (7)

撮像素子を用いて生成された画像から特定被写体を検出する被写体検出手段と、
該特定被写体に対して、位相差検出方式による第1のフォーカス制御及びコントラスト検出方式による第2のフォーカス制御を行う制御手段とを有し、
前記制御手段は、前記特定被写体のコントラスト差が大きい方向に応じ位相差検出方向を設定し、該位相差検出方向において検出された位相差に基づいて前記第1のフォーカス制御を行い、かつ前記位相差検出方向と同じ方向で検出されたコントラストに基づいて前記第2のフォーカス制御を行うことを特徴とする撮像装置。
Subject detection means for detecting a specific subject from an image generated using an image sensor;
Control means for performing a first focus control by a phase difference detection method and a second focus control by a contrast detection method for the specific subject,
The control means sets a phase difference detection direction according to a direction in which the contrast difference of the specific subject is large , performs the first focus control based on the phase difference detected in the phase difference detection direction, and An image pickup apparatus that performs the second focus control based on a contrast detected in the same direction as a phase difference detection direction.
該撮像装置の姿勢を検出する姿勢検出手段を有し、
前記制御手段は、該検出された姿勢に基づいて前記位相差検出方向を設定することを特徴とする請求項1に記載の撮像装置。
Having an attitude detection means for detecting the attitude of the imaging device;
The imaging apparatus according to claim 1, wherein the control unit sets the phase difference detection direction based on the detected posture.
前記特定被写体は、顔であることを特徴とする請求項1又は2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the specific subject is a face. 前記顔の長手方向が前記撮像素子の短辺に沿った方向である場合は、前記制御手段は、前記位相差検出方向を前記撮像素子の辺に沿った方向に設定し、
前記顔の長手方向が前記撮像素子の長辺に沿った方向である場合は、前記制御手段は、前記位相差検出方向を前記撮像素子の辺に沿った方向に設定することを特徴とする請求項3に記載の撮像装置。
When the longitudinal direction of the face is a direction along the short side of the image sensor, the control means sets the phase difference detection direction to a direction along the short side of the image sensor,
When the longitudinal direction of the face is a direction along the long side of the image sensor, the control unit sets the phase difference detection direction to a direction along the long side of the image sensor. The imaging device according to claim 3.
前記顔の長手方向が前記撮像素子の長辺及び短辺に対して傾いている場合は、前記制御手段は、前記位相差検出方向を前記撮像素子の長辺に沿った方向と短辺に沿った方向とに設定し、該各方向で検出された位相差とコントラストを用いて前記第1のフォーカス制御と第2のフォーカス制御を行うことを特徴とする請求項3に記載の撮像装置。   When the longitudinal direction of the face is inclined with respect to the long side and the short side of the image sensor, the control means sets the phase difference detection direction along the direction along the long side and the short side of the image sensor. The imaging apparatus according to claim 3, wherein the first focus control and the second focus control are performed using a phase difference and a contrast detected in each direction. 前記撮像素子は、撮像光学系からの光束により形成された被写体像を光電変換して画像の生成及び前記コントラストの検出に用いられる第1の信号を出力する第1の光電変換セル群と、前記撮像光学系からの光束のうち分割された光束により形成された複数の像を光電変換して前記位相差の検出に用いられる第2の信号を出力する第2の光電変換セル群とを有し、
前記第2の光電変換セル群は、前記撮像素子の長辺に沿った方向での前記位相差を検出する光電変換セルと、前記撮像素子の短辺に沿った方向での前記位相差を検出する光電変換セルとを含むことを特徴とする請求項1から5のいずれか1つに記載の撮像装置。
The imaging device includes a first photoelectric conversion cell group that photoelectrically converts a subject image formed by a light beam from an imaging optical system and outputs a first signal used for generating an image and detecting the contrast; A second photoelectric conversion cell group that photoelectrically converts a plurality of images formed by the divided light beams out of the light beams from the imaging optical system and outputs a second signal used to detect the phase difference; ,
The second photoelectric conversion cell group detects the phase difference in the direction along the long side of the image sensor, and detects the phase difference in the direction along the short side of the image sensor. The imaging device according to claim 1, further comprising: a photoelectric conversion cell that performs the operation.
撮像素子を用いて生成された画像から特定被写体を検出するステップと、
該特定被写体に対して、位相差検出方式による第1のフォーカス制御及びコントラスト検出方式による第2のフォーカス制御を行う制御ステップとを有し、
前記制御ステップにおいて、前記特定被写体のコントラスト差が大きい方向に応じ位相差検出方向を設定し、該位相差検出方向において検出された位相差に基づいて前記第1のフォーカス制御を行い、かつ前記位相差検出方向と同じ方向で検出されたコントラストに基づいて前記第2のフォーカス制御を行うことを特徴とする撮像装置の制御方法。
Detecting a specific subject from an image generated using an image sensor;
A control step for performing a first focus control by a phase difference detection method and a second focus control by a contrast detection method on the specific subject,
In the control step, a phase difference detection direction is set according to a direction in which the contrast difference of the specific subject is large , the first focus control is performed based on the phase difference detected in the phase difference detection direction, and A control method for an imaging apparatus, wherein the second focus control is performed based on a contrast detected in the same direction as a phase difference detection direction.
JP2008065044A 2008-03-14 2008-03-14 Imaging apparatus and control method thereof Expired - Fee Related JP5147474B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008065044A JP5147474B2 (en) 2008-03-14 2008-03-14 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008065044A JP5147474B2 (en) 2008-03-14 2008-03-14 Imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2009224913A JP2009224913A (en) 2009-10-01
JP5147474B2 true JP5147474B2 (en) 2013-02-20

Family

ID=41241291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008065044A Expired - Fee Related JP5147474B2 (en) 2008-03-14 2008-03-14 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5147474B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10078198B2 (en) 2014-08-08 2018-09-18 Samsung Electronics Co., Ltd. Photographing apparatus for automatically determining a focus area and a control method thereof

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101777351B1 (en) 2011-05-16 2017-09-11 삼성전자주식회사 Image pickup device, digital photographing apparatus using the device, auto-focusing method, and computer-readable storage medium for performing the method
JP6069817B2 (en) * 2011-06-29 2017-02-01 株式会社ニコン Focus adjustment device and imaging device provided with the same
US10250793B2 (en) 2011-06-29 2019-04-02 Nikon Corporation Focus adjustment device having a control unit that drives a focus adjustment optical system to a focused position acquired first by either a contrast detection system or a phase difference detection system
JP5561246B2 (en) * 2011-06-29 2014-07-30 株式会社ニコン Focus adjustment device and imaging device provided with the same
JP2014178603A (en) * 2013-03-15 2014-09-25 Nikon Corp Imaging device
JP6222976B2 (en) * 2013-05-01 2017-11-01 キヤノン株式会社 IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US9197809B2 (en) 2013-05-01 2015-11-24 Canon Kabushiki Kaisha Image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium
JP6383251B2 (en) * 2013-12-27 2018-08-29 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium
WO2016111175A1 (en) * 2015-01-07 2016-07-14 ソニー株式会社 Image processing device, image processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4908668B2 (en) * 2000-04-19 2012-04-04 キヤノン株式会社 Focus detection device
JP2006208443A (en) * 2005-01-25 2006-08-10 Pentax Corp Automatic focusing apparatus
JP4639837B2 (en) * 2005-02-15 2011-02-23 株式会社ニコン Electronic camera
JP4612512B2 (en) * 2005-09-12 2011-01-12 株式会社リコー Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10078198B2 (en) 2014-08-08 2018-09-18 Samsung Electronics Co., Ltd. Photographing apparatus for automatically determining a focus area and a control method thereof

Also Published As

Publication number Publication date
JP2009224913A (en) 2009-10-01

Similar Documents

Publication Publication Date Title
JP5147474B2 (en) Imaging apparatus and control method thereof
JP4910462B2 (en) camera
JP4674471B2 (en) Digital camera
US8279323B2 (en) Image capturing apparatus and control method for the same
JP5676988B2 (en) Focus adjustment device
EP1843574B1 (en) Camera comprising an automatic selection of an autofocus area
JP4286292B2 (en) Electronic camera
US9402020B2 (en) Focus detection apparatus and control method for the same
JP6045214B2 (en) Focus adjustment apparatus and control method thereof
JP5750551B2 (en) Apparatus and method for measuring distance of multiple subjects
JP4823167B2 (en) Imaging device
JP2009192774A (en) Focus adjustment device and imaging device
JP5417827B2 (en) Focus detection apparatus and imaging apparatus
JP2011166641A (en) Image pickup apparatus
JP2021124669A (en) Electronic apparatus
JP2010109671A (en) Image capturing apparatus
JP2010160297A (en) Imaging apparatus, automatic focusing method, and computer program
JP5306116B2 (en) Focus state detection device, imaging device, and control method thereof
JP2010062943A (en) Electronic camera
JP2013160991A (en) Imaging apparatus
JP7289714B2 (en) FOCUS ADJUSTMENT DEVICE, IMAGING DEVICE, FOCUS ADJUSTMENT METHOD, AND PROGRAM
JP2009058762A (en) Imaging apparatus
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
JP6188536B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2009055093A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121127

R151 Written notification of patent or utility model registration

Ref document number: 5147474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees