JP6071574B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP6071574B2
JP6071574B2 JP2013007566A JP2013007566A JP6071574B2 JP 6071574 B2 JP6071574 B2 JP 6071574B2 JP 2013007566 A JP2013007566 A JP 2013007566A JP 2013007566 A JP2013007566 A JP 2013007566A JP 6071574 B2 JP6071574 B2 JP 6071574B2
Authority
JP
Japan
Prior art keywords
area
pixel
ranging
distance measuring
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013007566A
Other languages
Japanese (ja)
Other versions
JP2014137567A (en
Inventor
功刀 和正
和正 功刀
芳信 小俣
芳信 小俣
橋本 幸恵
幸恵 橋本
哲央 菊地
哲央 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013007566A priority Critical patent/JP6071574B2/en
Publication of JP2014137567A publication Critical patent/JP2014137567A/en
Application granted granted Critical
Publication of JP6071574B2 publication Critical patent/JP6071574B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像素子の一部を位相差方式の焦点検出用素子として用いる撮像素子を有する撮像装置に関する。   The present invention relates to an image pickup apparatus having an image pickup element in which a part of the image pickup element is used as a phase difference type focus detection element.

撮像素子の一部を位相差方式の焦点検出用素子に兼用する撮像素子は従来から知られている(例えば、特許文献1)。特許文献1に開示の撮像装置は、図14に示すように、撮像素子の撮像面に、複数の位相差AFエリア101a,101b,101c・・・を配置している。また、焦点検出エリア103が決まると、焦点検出エリア103内において重複面積が最大となる位相差AFエリア101hを位相差AF焦点検出領域として決定し、この位相差AFエリア101hによって検出されたデフォーカス量を用いて、焦点調節を行う。   2. Description of the Related Art Conventionally, an image sensor that also uses a part of the image sensor as a phase difference type focus detection element is known (for example, Patent Document 1). As shown in FIG. 14, the imaging apparatus disclosed in Patent Document 1 has a plurality of phase difference AF areas 101a, 101b, 101c,... Arranged on the imaging surface of an imaging element. When the focus detection area 103 is determined, the phase difference AF area 101h having the largest overlap area in the focus detection area 103 is determined as the phase difference AF focus detection area, and the defocus detected by the phase difference AF area 101h is determined. Use the amount to adjust the focus.

特許第4853071号公報Japanese Patent No. 4853071

前述したように、特許文献1に記載の撮像装置では、被写体の検出領域と測距エリアの重複する面積の大きさのみで位相差AFの測距エリアを選択している。しかし、単に重複面積の大小だけで選択すると、低コントラストの測距エリアや被写体の輪郭成分の無い測距エリアを選択してしまう場合があり、この場合には、所望のピント位置に合焦しないおそれがある。   As described above, in the imaging apparatus described in Patent Document 1, the distance measurement area for phase difference AF is selected only by the size of the overlapping area between the subject detection area and the distance measurement area. However, if the selection is made only with the size of the overlapping area, a low-contrast distance-measuring area or a distance-measuring area having no contour component of the subject may be selected. In this case, the desired focus position is not focused. There is a fear.

本発明は、このような事情を鑑みてなされたものであり、注目する被写体に最適な位相差AFの測距エリアを選択し、精度よく合焦点を検出することが可能な撮像装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides an imaging apparatus capable of selecting a focus detection area of phase difference AF that is most suitable for a subject of interest and accurately detecting a focal point. For the purpose.

上記目的を達成するため第1の発明に係る撮像装置は、撮像光学系により結像された光学像を電気信号に変換する光電変換部を有する複数の画素を備え、上記複数の画素は、上記画素へ入射する光束の入射方向を制限するよう構成された焦点検出用画素と、上記画素へ入射する光束が上記焦点検出用画素よりも制限されないように構成された撮像用画素と、を含み、上記複数の画素が2次元的に配列された撮像素子を有する撮像装置において、上記撮像素子の出力する画素信号に基づいて注目被写体の位置を検出する注目被写体検出手段と、上記注目被写体の位置に基づいて、上記焦点検出用画素の位置に対応する複数の測距点を設定する測距点設定手段と、上記複数の測距点に対応する上記焦点検出用画素の出力に基づいて複数のデフォーカス量を演算する演算手段と、上記設定された測距点の優先順位を決定する優先順位決定手段と、上記設定された測距点に対応して検出されるデフォーカス量の信頼性を判別する信頼性判定手段と、上記優先順位決定手段の出力と上記信頼性判定手段の出力に基づいて上記設定された複数の測距点のうちから測距点を選択する選択手段と、を有し、上記注目被写体検出手段は、顔に相当する領域を検出し、上記測距点設定手段は、上記顔に相当する領域の内部の特定の領域について、顔に相当する領域の他の領域に比較して測距点をより密に配置する。 In order to achieve the above object, an imaging apparatus according to a first aspect of the present invention includes a plurality of pixels having a photoelectric conversion unit that converts an optical image formed by an imaging optical system into an electrical signal, A focus detection pixel configured to limit an incident direction of a light beam incident on the pixel, and an imaging pixel configured to limit a light beam incident on the pixel to be less than the focus detection pixel, In the imaging apparatus having the imaging device in which the plurality of pixels are two-dimensionally arranged, attention subject detection means for detecting the position of the subject of interest based on the pixel signal output from the imaging device, and the position of the subject of interest And a plurality of distance measurement point setting means for setting a plurality of distance measurement points corresponding to the positions of the focus detection pixels, and a plurality of default values based on outputs of the focus detection pixels corresponding to the plurality of distance measurement points. A calculation means for calculating a focus amount; a priority order determination means for determining the priority order of the set distance measuring points; and determining the reliability of the defocus amount detected corresponding to the set distance measuring points. Reliability determination means, and selection means for selecting a distance measurement point from the plurality of distance measurement points set based on the output of the priority determination means and the output of the reliability determination means The target subject detection means detects an area corresponding to the face, and the ranging point setting means compares a specific area inside the area corresponding to the face with another area corresponding to the face. Thus, the distance measuring points are arranged more densely .

第2の発明に係る撮像装置は、上記第1の発明において、上記優先順位決定手段は、上記複数の測距点のうち上記注目被写体の特定の位置により近い測距点の優先順位を高くする。   In the imaging device according to a second aspect based on the first aspect, the priority order determining means increases the priority order of the distance measuring points closer to the specific position of the subject of interest among the plurality of distance measuring points. .

第3の発明に係る撮像装置は、上記第1または第2の発明において、上記信頼性判定手段は、上記デフォーカス量の信頼性を示す信頼性評価値を出力し、上記選択手段は、上記優先順位決定手段の決定する複数の測距点の優先順位に、上記信頼性判定手段の出力する信頼性評価値に重み付けした結果に基づいて測距点を選択する。 In the imaging apparatus according to a third aspect, in the first or second aspect, the reliability determination means outputs a reliability evaluation value indicating the reliability of the defocus amount, and the selection means A distance measuring point is selected based on a result obtained by weighting the priority of the plurality of distance measuring points determined by the priority determining means to the reliability evaluation value output from the reliability determining means.

の発明に係る撮像装置は、上記第1乃至第3の発明のいずれかにおいて、上記注目被写体検出手段は、顔の器官に相当する領域を検出し、上記測距点設定手段は、上記器官に相当する領域について、器官に相当しない領域に比較して測距点をより密に配置する。 In the imaging device according to a fourth invention , in any one of the first to third inventions , the subject-of-interest detection means detects a region corresponding to a facial organ, and the ranging point setting means Ranging points are arranged more densely in the area corresponding to the organ than in the area not corresponding to the organ.

本発明によれば、注目する被写体に最適な位相差AFの測距エリアを選択し、精度よく合焦点を検出することが可能な撮像装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can select the ranging area of phase difference AF optimal for the to-be-focused object, and can detect a focal point accurately can be provided.

本発明の一実施形態に係るカメラの主として電気的構成を示すブロック図である。1 is a block diagram mainly showing an electrical configuration of a camera according to an embodiment of the present invention. 本発明の一実施形態に係るカメラのAF演算部の詳細を示すブロック図である。It is a block diagram which shows the detail of the AF calculating part of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラの撮像素子の位相差AF検出用画素と撮像用画素からなる画素の配置を示す図である。It is a figure which shows arrangement | positioning of the pixel which consists of the pixel for phase difference AF detection of the imaging device of the camera which concerns on one Embodiment of this invention, and an imaging pixel. 本発明の一実施形態に係るカメラの撮像素子の1つの測距エリアの拡大図である。It is an enlarged view of one ranging area of the image sensor of the camera concerning one embodiment of the present invention. 本発明の一実施形態に係るカメラにおける測距方法を説明する図である。It is a figure explaining the ranging method in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおける測距方法を説明する図である。It is a figure explaining the ranging method in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおいて、相関演算結果を示すグラフである。6 is a graph showing a correlation calculation result in the camera according to the embodiment of the present invention. 本発明の一実施形態に係るカメラにおいて、測距エリアの設定例を示す図である。It is a figure which shows the example of a setting of a ranging area in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおいて、測距エリアの設定例を示す図である。It is a figure which shows the example of a setting of a ranging area in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおいて、測距エリアの優先順位付けの例を示す図である。It is a figure which shows the example of prioritization of a ranging area in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおいて、測距エリアの優先順位付けの例を示す図である。It is a figure which shows the example of prioritization of a ranging area in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera which concerns on one Embodiment of this invention. 撮像素子の一部を焦点検出用フォトダイオードに兼用する撮像素子の従来例を示す図である。It is a figure which shows the prior art example of the image pick-up element which shares a part of image pick-up element as a photodiode for focus detection.

以下、図面に従って本発明を適用したデジタルカメラ(以下、「カメラ」と略記する)を用いて好ましい実施形態について説明する。図1は、本発明の一実施形態に係るカメラの主として電気的構成を示すブロック図である。本実施形態に係るカメラは、交換レンズ鏡筒10とカメラ本体20から構成されている。本実施形態においては、交換レンズ鏡筒10とカメラ本体20を別体に構成しているが、一般的なコンパクトカメラのように一体に構成しても勿論かまわない。   A preferred embodiment will be described below using a digital camera to which the present invention is applied (hereinafter abbreviated as “camera”) according to the drawings. FIG. 1 is a block diagram mainly showing an electrical configuration of a camera according to an embodiment of the present invention. The camera according to this embodiment includes an interchangeable lens barrel 10 and a camera body 20. In the present embodiment, the interchangeable lens barrel 10 and the camera body 20 are configured separately, but may be configured integrally as in a general compact camera.

交換レンズ鏡筒10内には、撮影レンズ11が配置されている。撮影レンズ11は、被写体Sの光学像を形成するための複数の光学レンズから構成される。また、交換レンズ鏡筒10内には、アクチュエータ12およびレンズ制御部13が設けられている。レンズ制御部13は、カメラ本体20内のAF演算部23から、デフォーカス量を受信し、これらの情報に基づいて、アクチュエータ12の制御を行う。アクチュエータ12は、撮影レンズ11を光軸方向に移動し、ピント合わせを行う。   A photographic lens 11 is disposed in the interchangeable lens barrel 10. The photographing lens 11 includes a plurality of optical lenses for forming an optical image of the subject S. An actuator 12 and a lens control unit 13 are provided in the interchangeable lens barrel 10. The lens control unit 13 receives the defocus amount from the AF calculation unit 23 in the camera body 20 and controls the actuator 12 based on these pieces of information. The actuator 12 moves the photographing lens 11 in the optical axis direction and performs focusing.

カメラ本体20内には、撮像素子21、画像処理部22、AF演算部23、記録部24が設けられている。撮像素子21は、撮影レンズ11の光軸上であって、被写体像の結像位置付近に配置されている。撮像素子21は、被写体像(光学像)を電気信号に変換する光電変換部を有する複数の画素を備えている。複数の画素は、画素へ入射する光束の入射方向を制限するよう構成された位相差AF検出用画素(焦点検出用画素とも称す)と、画素へ入射する光束が位相差AF検出用画素よりも制限されないように構成された撮像用画素を含み、複数の画素は2次元的に配列されている。撮像素子21の位相差AF検出用画素および撮像用画素の配置については、図3および図4を用いて後述する。   In the camera body 20, an image pickup device 21, an image processing unit 22, an AF calculation unit 23, and a recording unit 24 are provided. The image sensor 21 is disposed on the optical axis of the photographing lens 11 and in the vicinity of the imaging position of the subject image. The imaging device 21 includes a plurality of pixels having a photoelectric conversion unit that converts a subject image (optical image) into an electrical signal. The plurality of pixels include a phase difference AF detection pixel (also referred to as a focus detection pixel) configured to limit an incident direction of a light beam incident on the pixel, and a light beam incident on the pixel is more than the phase difference AF detection pixel. A plurality of pixels are arranged two-dimensionally, including imaging pixels configured not to be limited. The arrangement of the phase difference AF detection pixels and the imaging pixels of the imaging element 21 will be described later with reference to FIGS. 3 and 4.

撮像素子21は、位相差AF検出用画素と撮像用画素から出力される画素値を画像処理部22およびAF演算部23に出力する。画像処理部22は、画素値の内、撮像用画素からの画素値を入力し、ライブビュー表示用画像および記録用画像のための画像処理を行う。また、画像処理部22は、記録用に処理された画像データを記録部24に出力する。記録部24は、電気的書き換え可能な不揮発性メモリを有し、記録用の画像データを入力し、記録する。また、画像処理部22は、画素値を用いて、被写体の顔を検出し、この顔の中心座標位置を出力し、また顔の中の目等の器官を検出し、この器官の特定座標位置を出力する。   The imaging element 21 outputs the pixel value output from the phase difference AF detection pixel and the imaging pixel to the image processing unit 22 and the AF calculation unit 23. The image processing unit 22 inputs pixel values from the imaging pixels among the pixel values, and performs image processing for the live view display image and the recording image. Further, the image processing unit 22 outputs the image data processed for recording to the recording unit 24. The recording unit 24 includes an electrically rewritable nonvolatile memory, and inputs and records image data for recording. The image processing unit 22 detects the face of the subject using the pixel value, outputs the center coordinate position of the face, detects an organ such as an eye in the face, and the specific coordinate position of the organ. Is output.

AF演算部23は、画素値の内、位相差AF検出用画素からの画素値を入力し、位相差AFに基づくAF演算を行う。AF演算にあたって、画像処理部22から取得した中心座標位置、特定座標位置に基づいて、位相差AF検出用画素の位置に対応する複数の測距点を設定し、この設定した測距点のそれぞれについて、デフォーカス量を演算する。そして、設定された測距点の優先順位を決定し、さらに測距点のデフォーカス量の信頼性を判別し、優先順位と信頼性に基づいて、複数の測距点の中から、撮影レンズ11のピント合わせのための測距点を選択する。   The AF calculation unit 23 receives pixel values from the phase difference AF detection pixels among the pixel values, and performs AF calculation based on the phase difference AF. In the AF calculation, a plurality of distance measuring points corresponding to the positions of the phase difference AF detection pixels are set based on the center coordinate position and the specific coordinate position acquired from the image processing unit 22, and each of the set distance measuring points is set. The defocus amount is calculated for. Then, the priority order of the set focus points is determined, the reliability of the defocus amount of the focus point is further determined, and the photographing lens is selected from a plurality of focus points based on the priority order and the reliability. Select a focusing point for 11 focusing.

次に、図2を用いてAF演算部23の詳細について説明する。画素値21aは、撮像素子21から出力された画素値であり、SDRAM(不図示)等に一時記憶される。   Next, details of the AF calculation unit 23 will be described with reference to FIG. The pixel value 21a is a pixel value output from the image sensor 21 and is temporarily stored in an SDRAM (not shown) or the like.

また、画像処理部22内には、顔検出部22aが設けられている。この顔検出部22aは、撮像素子21からの撮像用画素の画素値に基づいて、被写体像の中に顔があるか否かを判定し、顔が含まれている場合には、その位置(中心座標位置)や大きさ等を検出する。さらに、右目、左目、鼻等の器官の検出を行い、その器官の特定座標位置も検出する。顔検出部22aは、撮像素子の出力する画素信号に基づいて注目被写体の位置を検出する注目被写体検出手段として機能する。顔検出部22aで検出された中心座標や特定座標位置は、AF演算部23内のAF測距点設定部33に出力する。   Further, a face detection unit 22 a is provided in the image processing unit 22. The face detection unit 22a determines whether or not there is a face in the subject image based on the pixel value of the imaging pixel from the image sensor 21, and if the face is included, the position ( Center coordinate position) and size are detected. Furthermore, organs such as the right eye, left eye, and nose are detected, and the specific coordinate position of the organ is also detected. The face detection unit 22a functions as target subject detection means for detecting the position of the target subject based on the pixel signal output from the image sensor. The center coordinate and the specific coordinate position detected by the face detection unit 22 a are output to the AF ranging point setting unit 33 in the AF calculation unit 23.

AF測距点設定部33は、顔検出部22aで検出された中心座標位置や特定座標位置に基づいて、これに対応する複数の測距点を設定する。後述するように、撮像素子21には複数の測距点の設定が可能であり、この複数の測距点から、中心座標位置や特定座標位置の近傍にある測距点を設定し、設定した各測距エリアの中心座標を、測距エリア優先順位設定部35および信頼性評価部36に出力する。このAF測距点設定部33は、注目被写体の位置について、焦点検出用画素の位置に対応する複数の測距点を設定する測距点設定手段として機能する。測距エリアの設定については、図8および図9を用いて後述する。   The AF distance measurement point setting unit 33 sets a plurality of distance measurement points corresponding to the center coordinate position and the specific coordinate position detected by the face detection unit 22a. As will be described later, a plurality of distance measuring points can be set on the image sensor 21, and a distance measuring point in the vicinity of the center coordinate position or a specific coordinate position is set and set from the plurality of distance measuring points. The center coordinates of each distance measurement area are output to the distance measurement area priority setting unit 35 and the reliability evaluation unit 36. The AF distance measurement point setting unit 33 functions as distance measurement point setting means for setting a plurality of distance measurement points corresponding to the position of the focus detection pixel for the position of the subject of interest. The setting of the ranging area will be described later with reference to FIGS.

位相差画素生成部34は、画素値21aの内、位相差AF検出用画素の画像データを入力し、位相差AF検出用の画素列を生成し、デフォーカス量演算部/信頼性評価部37に出力する。   The phase difference pixel generation unit 34 receives the image data of the phase difference AF detection pixels from among the pixel values 21a, generates a phase difference AF detection pixel sequence, and outputs a defocus amount calculation unit / reliability evaluation unit 37. Output to.

デフォーカス量演算部/信頼性評価部37は、位相差AF検出用の画素列の画像データを入力し、位相差AF法によってデフォーカス量を演算し、各測距エリアのデフォーカス量を測距点決定部38に出力する。また、位相差AF検出用の画素列の画像データを用いて各測距エリアのコントラスト値Aを算出し、測距点決定部38に出力する。また、位相差AF演算の際の値より、各測距エリアの信頼性評価値(相関値傾きFs)も求め、測距点決定部38に出力する。デフォーカス量演算部/信頼性評価部37は、複数の測距点に対応する上記焦点検出用画素の出力に基づいて複数のデフォーカス量を演算する演算手段として機能する。また、デフォーカス量演算部/信頼性評価部37は、設定された測距点に対応して検出されるデフォーカス量の信頼性を判別する信頼性判定手段としても機能する。位相差AFによるデフォーカス量の演算および信頼性の判定については、図5ないし図7を用いて後述する。   The defocus amount calculation unit / reliability evaluation unit 37 receives the image data of the pixel array for phase difference AF detection, calculates the defocus amount by the phase difference AF method, and measures the defocus amount of each distance measurement area. It outputs to the distance point determination part 38. Further, the contrast value A of each distance measurement area is calculated using the image data of the pixel array for phase difference AF detection, and is output to the distance measurement point determination unit 38. Further, the reliability evaluation value (correlation value slope Fs) of each ranging area is also obtained from the value at the time of phase difference AF calculation, and is output to the ranging point determination unit 38. The defocus amount calculation unit / reliability evaluation unit 37 functions as a calculation unit that calculates a plurality of defocus amounts based on outputs of the focus detection pixels corresponding to a plurality of distance measuring points. The defocus amount calculation unit / reliability evaluation unit 37 also functions as a reliability determination unit that determines the reliability of the defocus amount detected corresponding to the set distance measuring point. The calculation of the defocus amount by the phase difference AF and the determination of the reliability will be described later with reference to FIGS.

測距エリア優先順位設定部35は、AF測距点設定部33からの各測距エリアの中心座標を入力し、測距エリアの優先順位を決定し、各測距エリア優先順位リストを測距点決定部38に出力する。測距エリアの優先順位の決定の仕方については、図10を用いて後述する。この測距エリア優先順位設定部35は、設定された測距点の優先順位を決定する優先順位決定手段として機能する。   The ranging area priority order setting unit 35 inputs the center coordinates of each ranging area from the AF ranging point setting unit 33, determines the priority order of the ranging areas, and measures each ranging area priority list. The data is output to the point determination unit 38. A method of determining the priority order of the distance measurement areas will be described later with reference to FIG. The distance measurement area priority order setting unit 35 functions as priority order determination means for determining the priority order of the set distance measurement points.

信頼性評価部36は、画素値21aから撮像用画素からの画素値を入力し、また、AF測距点設定部33から各測距エリアの中心座標を入力する。これらの情報を用いて、コントラスト値演算を行い、測距点決定部38に各測距エリアのコントラスト値Bを出力する。すなわち、顔検出部22aによって検出された顔や器官の座標とその近傍の測距エリアについて、撮像用画素からの画素値を用いてコントラスト値を演算する。デフォーカス量演算部/信頼性評価部37においてもコントラスト値Aを演算しているが、コントラストBは撮像用画素からの画素値を用いて演算するため、演算時間はかかるが精度のより高いコントラスト値を求めることができる。信頼性評価部36は、設定された測距点に対応して検出されるデフォーカス量の信頼性を判別する信頼性判定手段として機能する。   The reliability evaluation unit 36 inputs the pixel value from the imaging pixel from the pixel value 21 a, and receives the center coordinates of each ranging area from the AF ranging point setting unit 33. Using these pieces of information, contrast value calculation is performed, and the contrast value B of each distance measurement area is output to the distance measurement point determination unit 38. That is, for the face and organ coordinates detected by the face detection unit 22a and the distance measuring area in the vicinity thereof, the contrast value is calculated using the pixel value from the imaging pixel. The defocus amount calculation unit / reliability evaluation unit 37 also calculates the contrast value A. However, since the contrast B is calculated using the pixel value from the imaging pixel, it takes longer calculation time but has higher accuracy. The value can be determined. The reliability evaluation unit 36 functions as a reliability determination unit that determines the reliability of the defocus amount detected corresponding to the set ranging point.

測距点決定部38は、前述したように、各測距エリア優先順位リスト、各測距エリアコントラスト値B、各測距エリアデフォーカス量、各測距エリアコントラスト値A、各測距エリア相関値傾きFsを入力し、測距点の選択を行う。測距点の選択については、図11を用いて説明する。測距点決定部38は、選択した測距点のデフォーカス量を出力する。測距点決定部38は、優先順位決定手段の出力と上記信頼性判定手段の出力に基づいて上記設定された複数の測距点のうちから測距点を選択する選択手段として機能する。なお、測距エリアの選択にあたっては、従来技術のように、測距エリアにかかる被写体の面積に、コントラスト値や相関値傾きFs等の信頼性評価値を重み付けるようにしてもよい。   As described above, the ranging point determination unit 38, each ranging area priority order list, each ranging area contrast value B, each ranging area defocus amount, each ranging area contrast value A, each ranging area correlation. A value gradient Fs is input to select a distance measuring point. The selection of the distance measuring point will be described with reference to FIG. The distance measuring point determination unit 38 outputs the defocus amount of the selected distance measuring point. The distance measuring point determination unit 38 functions as a selection means for selecting a distance measuring point from the plurality of distance measuring points set based on the output of the priority order determining means and the output of the reliability determining means. In selecting a distance measurement area, reliability evaluation values such as a contrast value and a correlation value gradient Fs may be weighted to the area of the subject in the distance measurement area, as in the prior art.

次に、撮像素子21について、図3および図4を用いて説明する。撮像素子21は、図3に示す例では、列方向X1−X7、行方向Y1−Y7に分割され、これらの49エリアの1つ1つが、測距エリアになる。符号21bで示すエリアは、(X1、Y1)で表す。各エリアの各測距エリアの中心点21cを測距エリアの中心座標とする。   Next, the image sensor 21 will be described with reference to FIGS. 3 and 4. In the example shown in FIG. 3, the image sensor 21 is divided into a column direction X1-X7 and a row direction Y1-Y7, and each of these 49 areas becomes a distance measurement area. The area denoted by reference numeral 21b is represented by (X1, Y1). The center point 21c of each distance measuring area of each area is set as the center coordinates of the distance measuring area.

図4は、1つの測距エリアの画素の配置例を示す。図3に示した各測距エリアの内部は、図4に示すように、位相差AF検出用画素と撮像用画素から構成されている。   FIG. 4 shows an arrangement example of pixels in one distance measurement area. As shown in FIG. 4, the interior of each ranging area shown in FIG. 3 is composed of phase difference AF detection pixels and imaging pixels.

図4に示す測距エリアの中に、左開口位相差AF検出用画素21d、撮像用画素21e、右開口位相差AF用画素21fが交互に並んでいる。すなわち、一番左側の列では、L11、L21、L31、L41が左開口位相差AF用画素21dであり、R11、R21、R31、R41が右開口位相差AF画素21fであり、これらの間に撮像用画素21eが並んでいる。そして、一番左側から2列目は、撮像用画素21eのみである。以後、位相差AF検出用画素を含む列と、撮像用画素のみからなる列が交互に繰り返して配置される。   In the distance measurement area shown in FIG. 4, the left aperture phase difference AF detection pixel 21d, the imaging pixel 21e, and the right aperture phase difference AF pixel 21f are alternately arranged. That is, in the leftmost column, L11, L21, L31, and L41 are the left aperture phase difference AF pixels 21d, and R11, R21, R31, and R41 are the right aperture phase difference AF pixels 21f. Imaging pixels 21e are arranged. In the second column from the leftmost side, there are only the imaging pixels 21e. Thereafter, the column including the phase difference AF detection pixels and the column including only the imaging pixels are alternately and repeatedly arranged.

なお、本実施形態においては、位相差AF検出用画素を含む列と撮像用画素のみからなる列が1列おきであったが、位相差AF検出用画素を含む列と位相差AF検出用画素を含む列の間に2列以上の撮像用画素のみからなる列を配置するようにしても勿論かまわない。   In the present embodiment, the column including the phase difference AF detection pixels and the column including only the imaging pixels are every other column. However, the column including the phase difference AF detection pixels and the phase difference AF detection pixels. Of course, it is possible to arrange a column composed of only two or more imaging pixels between the columns including.

位相差画素生成部34(図2参照)によって生成されるAF画素列は、各画素列毎に、左開口AF検出用画素からの画素値の平均値、または右開口AF検出用画素からの画素値の平均値を算出する。すなわち、以下のような演算によって生成される。   The AF pixel column generated by the phase difference pixel generation unit 34 (see FIG. 2) is an average value of pixel values from the left aperture AF detection pixel or a pixel from the right aperture AF detection pixel for each pixel column. Calculate the average value. That is, it is generated by the following calculation.

左開口AF検出用画素列:
L1=(L11+L21+L31+L41)/4
L2=(L12+L22+L32+L42)/4
L3=(L13+L23+L33+L43)/4
・・・
Ln=(L1(n)+L2(n)+L3(n)+L4(n))/4
Left aperture AF detection pixel array:
L1 = (L11 + L21 + L31 + L41) / 4
L2 = (L12 + L22 + L32 + L42) / 4
L3 = (L13 + L23 + L33 + L43) / 4
...
Ln = (L1 (n) + L2 (n) + L3 (n) + L4 (n)) / 4

右開口AF検出用画素列:
R1=(R11+R21+R31+R41)/4
R2=(R12+R22+R32+R42)/4
R3=(R13+R23+R33+R43)/4
・・・
Rn=(R1(n)+R2(n)+R3(n)+R4(n))/4
Pixel array for right aperture AF detection:
R1 = (R11 + R21 + R31 + R41) / 4
R2 = (R12 + R22 + R32 + R42) / 4
R3 = (R13 + R23 + R33 + R43) / 4
...
Rn = (R1 (n) + R2 (n) + R3 (n) + R4 (n)) / 4

また、図4に示す例では、左上座標は(X1,Y1)であり、右下座標は(Xr,Yr)であり、測距エリア中心座標21cは(Xk,Yk)である。測距エリアの中心座標(Xc[k],Yc[k])は、顔中心座標/特定座標(Xco,Yco)から各々測距エリア毎に任意の長さ(a[k],b[k])を付加した位置(本実施形態においては、k=1〜7)となるので、
Xc[k]=Xco+a[k]、 Yc[k]=Yco+b[k]
となる。なお、kは測距エリアの番号であり、k=0、1、2、・・・・、Area_num−1 (Area_num:測距エリア数)とする。
In the example shown in FIG. 4, the upper left coordinate is (X1, Y1), the lower right coordinate is (Xr, Yr), and the distance measurement area center coordinate 21c is (Xk, Yk). The center coordinates (Xc [k], Yc [k]) of the distance measurement area are arbitrary lengths (a [k], b [k] for each distance measurement area from the face center coordinates / specific coordinates (Xco, Yco). ]) Is added (in this embodiment, k = 1 to 7),
Xc [k] = Xco + a [k], Yc [k] = Yco + b [k]
It becomes. Note that k is a distance measurement area number, and k = 0, 1, 2,..., Area_num−1 (Area_num: number of distance measurement areas).

デフォーカス量演算部/信頼性評価部37は、測距エリアの中心(Xc[k],Yc[k])から(c[k],d[k])(c[k]、d[k]は、各エリアごとに予め決めた数値、相関演算のx、y方向範囲)加減算し、左上座標(X1[k],Y1[k])=(Xc[k]−c[k],Yc[k]−d[k])、右下座標(Xr[k],Yr[k])=(Xc[k]+c[k],Yc[k]+d[k])を定義し、この範囲内において、図5ないし図7を用いて説明する位相差AFに基づくデフォーカス量を求める演算を行う。   The defocus amount calculation unit / reliability evaluation unit 37 determines (c [k], d [k]) (c [k], d [k] from the center (Xc [k], Yc [k]) of the distance measurement area. ] Is a numerical value determined in advance for each area, x and y direction range of correlation calculation), and the upper left coordinates (X1 [k], Y1 [k]) = (Xc [k] −c [k], Yc [K] −d [k]), lower right coordinates (Xr [k], Yr [k]) = (Xc [k] + c [k], Yc [k] + d [k]) The calculation for obtaining the defocus amount based on the phase difference AF described with reference to FIGS. 5 to 7 is performed.

図6は、位相差AFの測距原理を示す図である。撮影レンズ11の光束中に右開口Rと左開口Lを設け、撮像素子21上で右開口Rのみの光束に基づく画素出力に相当する像ORと、左開口Lのみの光束に基づく画素出力に相当する像OLを比較すると、ピントが合っていない場合には、両像OR、OLはシフト量ZR分だけずれている。また、デフォーカス量dだけ離れた合焦位置では、両像INは一致している。したがって、シフト量ZRを求め、シフト量ZRに基づいてデフォーカス量dを求め、デフォーカス量dに基づいて撮影レンズ11を合焦位置に移動させればよい。なお、図6中の符号Gは、左右開口の重心間の距離を示し、Fは、撮像面から瞳までの距離を示す。   FIG. 6 is a diagram illustrating the principle of distance measurement for phase difference AF. A right aperture R and a left aperture L are provided in the luminous flux of the photographic lens 11, and an image OR corresponding to a pixel output based on the luminous flux of only the right aperture R on the image sensor 21 and a pixel output based on the luminous flux of only the left aperture L are provided. Comparing the corresponding images OL, if the images are not in focus, the images OR and OL are shifted by the shift amount ZR. Further, the two images IN coincide with each other at the in-focus position separated by the defocus amount d. Therefore, the shift amount ZR is obtained, the defocus amount d is obtained based on the shift amount ZR, and the photographing lens 11 is moved to the in-focus position based on the defocus amount d. In addition, the code | symbol G in FIG. 6 shows the distance between the gravity centers of right and left opening, and F shows the distance from an imaging surface to a pupil.

図5において、(a)(b)は、左開口位相差AF検出用画素列L1〜L(n)の配列位置と対応する画素値(画素エッジ成分)を示す(図6の像OLに相当する)。また(c)(d)は、右開口位相差AF検出用画素列R1〜R(n)の配列位置と対応する画素値(画素エッジ成分)を示す(図6の像ORに相当する)。これから、左右開口の画素列に投影された被写体像の相関を求める。被写体像の形状が最も類似している位相差AF検出用画素位置の差がシフト量(視差)ZRとなる。   5A and 5B show pixel values (pixel edge components) corresponding to the arrangement positions of the pixel arrays L1 to L (n) for left aperture phase difference AF detection (corresponding to the image OL in FIG. 6). To do). Further, (c) and (d) show pixel values (pixel edge components) corresponding to the arrangement positions of the pixel arrays R1 to R (n) for right aperture phase difference AF detection (corresponding to the image OR in FIG. 6). From this, the correlation of the subject image projected on the pixel array of the left and right openings is obtained. The difference in phase difference AF detection pixel position with the most similar object image shape is the shift amount (parallax) ZR.

シフト量は、例えば、左開口の像の画素列に対応するウインドウを固定し、右開口の像の画素列に対応するウインドウを1画素ずつずらし、このときのウインドウ内の左開口位相差AF検出用画素値と右開口位相差AF検出用画素の差分の累積値から評価値Fmを求める。この評価値Fmが最小値となるときのずらし量がシフト量ZRである。図7は、評価値Fmが最小値となる付近における位相差AF検出用画素の位置とFmを示すグラフである。このグラフで位相差AF検出用画素の位置がminにおいて評価値Fmは最小となっている。ここで、評価値Fmは離散的なデータであるので、最小値近傍の複数の評価値Fmを用いて補間処理を行い、真の最小値を求めてシフト量ZRを算出する。   For example, the window corresponding to the pixel column of the image of the left aperture is fixed, and the window corresponding to the pixel column of the image of the right aperture is shifted pixel by pixel, and the left aperture phase difference AF detection in the window at this time is detected. The evaluation value Fm is obtained from the cumulative value of the difference between the pixel value for use and the right aperture phase difference AF detection pixel. The shift amount when the evaluation value Fm becomes the minimum value is the shift amount ZR. FIG. 7 is a graph showing the position and Fm of the phase difference AF detection pixel in the vicinity where the evaluation value Fm becomes the minimum value. In this graph, the evaluation value Fm is minimum when the position of the phase difference AF detection pixel is min. Here, since the evaluation value Fm is discrete data, interpolation processing is performed using a plurality of evaluation values Fm in the vicinity of the minimum value, the true minimum value is obtained, and the shift amount ZR is calculated.

シフト量ZRを求めると、シフト量ZRからデフォーカス量dを下記式により演算できる。
d=F*ZR/(G−ZR)
ここで、d:デフォーカス量
F:撮像素子から瞳までの距離
ZR:シフト量
G:左右開口の重心間の距離
When the shift amount ZR is obtained, the defocus amount d can be calculated from the shift amount ZR by the following equation.
d = F * ZR / (G-ZR)
Here, d: Defocus amount F: Distance from the image sensor to the pupil ZR: Shift amount G: Distance between the centers of gravity of the left and right apertures

デフォーカス量演算部/信頼性評価部37は、位相差AFの信頼値として、評価値Fmの相関値傾きFsを使用する。すなわち、図7に示す例において、評価値Fmの最小値(FMIN)とこの最小値の前後の2個のFmのうちで大きい方の評価値FMを通る直線の傾きFsを、信頼性を表す評価値として演算し、出力する。   The defocus amount calculation unit / reliability evaluation unit 37 uses the correlation value gradient Fs of the evaluation value Fm as the reliability value of the phase difference AF. That is, in the example shown in FIG. 7, the slope Fs of the straight line passing through the larger evaluation value FM of the minimum value (FMIN) of the evaluation value Fm and the two Fm before and after the minimum value represents the reliability. Calculate and output as an evaluation value.

次に、顔検出部22aによって検出された顔と、AF測距点設定部33によって設定される測距エリアの関係について、図8および図9を用いて説明する。図8は、各測距エリアがオーバラップしないように配置した例である。図8において、撮像素子21の測距エリアのうち、顔検出部22aによって検出された顔Faの顔中心Fc(中心座標位置)から所定範囲にある測距エリアa1〜d4が、AF測距点設定部33によって設定される。前述したように、測距エリアa1〜d4は、互いに重複しないように設定される。なお、Feは、顔検出部22aによって検出された顔器官としての目である。   Next, the relationship between the face detected by the face detection unit 22a and the distance measurement area set by the AF distance measurement point setting unit 33 will be described with reference to FIGS. FIG. 8 shows an example in which the distance measurement areas are arranged so as not to overlap. In FIG. 8, ranging areas a1 to d4 within a predetermined range from the face center Fc (center coordinate position) of the face Fa detected by the face detection unit 22a among the ranging areas of the image sensor 21 are AF ranging points. Set by the setting unit 33. As described above, the distance measurement areas a1 to d4 are set so as not to overlap each other. Note that Fe is an eye as a facial organ detected by the face detection unit 22a.

図9は、各測距エリアの配置の他の例を示す。図9においては、顔の中心付近に測距エリアa1〜d4と同じ大きさのe1〜e5の測距エリアを密に配置している。測距エリアb2、b3、c2、c3の範囲は、図8と同様である。測距エリアe1は、測距エリアb2の右半部と測距エリアb3の左半分に重畳して設定されている。測距エリアe2は、測距エリアb2の下半分と測距エリアc2の上半分に重畳して設定されている。測距エリアe3は、測距エリアb2の右下の4半分と測距エリアb3の左下の4半分と測距エリアc2の右上の4半分と測距エリアc3の左上の4半分に重畳して設定されている。測距エリアe4は、測距エリアb3の下半分と測距エリアc3の上半分に重畳して設定されている。測距エリアe5は、測距エリアc2の右半分と測距エリアc3の左半分に重畳して設定されている。   FIG. 9 shows another example of the arrangement of the distance measurement areas. In FIG. 9, distance measuring areas e1 to e5 having the same size as the distance measuring areas a1 to d4 are densely arranged near the center of the face. The ranges of the ranging areas b2, b3, c2, and c3 are the same as those in FIG. The distance measuring area e1 is set so as to overlap the right half of the distance measuring area b2 and the left half of the distance measuring area b3. The ranging area e2 is set so as to overlap the lower half of the ranging area b2 and the upper half of the ranging area c2. The ranging area e3 is superimposed on the lower right quadrant of the ranging area b2, the lower left four half of the ranging area b3, the upper right half of the ranging area c2, and the upper left half of the ranging area c3. Is set. The distance measurement area e4 is set so as to overlap the lower half of the distance measurement area b3 and the upper half of the distance measurement area c3. The distance measurement area e5 is set so as to overlap the right half of the distance measurement area c2 and the left half of the distance measurement area c3.

なお、図9は、顔の中心付近に測距エリアを密に配置している。しかし、これに限らず、目や鼻や口等の器官の中心付近に測距エリアを密に配置するようにしても勿論かまわない。   In FIG. 9, ranging areas are densely arranged near the center of the face. However, the present invention is not limited to this, and the distance measuring area may of course be densely arranged near the center of an organ such as the eyes, nose and mouth.

このように、AF測距点設定部33は、顔検出部22aによって検出された注目被写体の位置(顔の中心位置、または目等の器官の特定位置)に基づいて、この近傍に複数の測距エリアを設定する。また、AF測距点設定部33は、図9に示すように、顔に相当する領域の内部の特定の領域について、顔に相当する領域の他の領域に比較して測距点をより密に配置する測距点設定部としての機能を有する。また、AF測距点設定部33は、器官に相当する領域について、器官に相当しない領域に比較して測距点をより密に配置する測距点設定部としての機能も有する。   As described above, the AF ranging point setting unit 33 performs a plurality of measurement in the vicinity based on the position of the subject of interest (the center position of the face or the specific position of the organ such as the eyes) detected by the face detection unit 22a. Set the distance area. Further, as shown in FIG. 9, the AF ranging point setting unit 33 sets the ranging points more densely in a specific area inside the area corresponding to the face than in other areas corresponding to the face. It has a function as a distance measuring point setting unit to be arranged in. The AF ranging point setting unit 33 also has a function as a ranging point setting unit that places the ranging points more densely in the region corresponding to the organ than in the region not corresponding to the organ.

次に、図10を用いて、測距エリア優先順位設定部35によって行われる測距エリアの優先順位のリスト作成について説明する。図10は、測距エリアの優先順位のリストの一例を示している。図10(a)は、顔検出部22aにおいて検出された器官検出の特定座標からの距離が近い順に、優先順位をつけた例である。ここでb2、e1、e2、・・・は、図9に示した測距エリアの位置を示す。このように、測距エリア優先順位設定部35は、複数の測距点のうち注目被写体の特定の位置により近い測距点の優先順位を高くする優先順位設定手段としての機能を有する。   Next, the creation of a priority list of distance measurement areas performed by the distance measurement area priority order setting unit 35 will be described with reference to FIG. FIG. 10 shows an example of a priority list of ranging areas. FIG. 10A is an example in which priorities are assigned in order of increasing distance from the specific coordinates of organ detection detected by the face detection unit 22a. Here, b2, e1, e2,... Indicate the position of the distance measurement area shown in FIG. Thus, the distance measurement area priority order setting unit 35 has a function as priority order setting means for increasing the priority order of distance measurement points that are closer to the specific position of the subject of interest among the plurality of distance measurement points.

図10(b)は、被写体中心座標との距離が近い順に優先順位をつけた例である。また、図10(c)は、デフォーカス位置の順(最至近順)に優先順位を付けた例である。デフォーカス位置は、デフォーカス量演算部/信頼性評価部37が各測距エリアについて演算するので、その情報を得て順位付けを行う。この場合には、カメラに近い被写体のある測距エリアほど優先順位が高くなる。   FIG. 10B shows an example in which priorities are assigned in order of increasing distance from the subject center coordinates. FIG. 10C shows an example in which priorities are assigned in the order of defocus positions (closest order). Since the defocus amount calculation unit / reliability evaluation unit 37 calculates the defocus position for each distance measurement area, the information is obtained and ranked. In this case, the priority is higher in the distance measurement area where the subject close to the camera is located.

なお、全ての測距エリアの昇順リストを作成しなくてもよい。また、図10(a)(b)に示した特定座標または被写体の中心座標から近い順のリスト作成においては、ある距離(距離の閾値)以上のエリアや、図10(c)に示したデフォーカス量(無限方向の距離の閾値)以下のエリアはリストから除外してもよい。   Note that it is not necessary to create an ascending order list of all ranging areas. Further, in the list creation in the order closer to the specific coordinates or the center coordinates of the subject shown in FIGS. 10A and 10B, an area more than a certain distance (distance threshold) or the data shown in FIG. Areas that are less than the focus amount (threshold of the distance in the infinite direction) may be excluded from the list.

次に、図11を用いて、測距点決定部38によって行われる最適な測距エリアの選択について説明する。測距点決定部38は、図10に示した測距エリアの優先順位リストと、各エリアの信頼性評価の重み付けの結果を用いて測距エリアの選択を行い、選択された測距エリアのデフォーカス量を出力する。   Next, the selection of the optimum distance measurement area performed by the distance measurement point determination unit 38 will be described with reference to FIG. The ranging point determination unit 38 selects a ranging area by using the priority list of the ranging areas shown in FIG. 10 and the reliability evaluation weighting result of each area, and selects the selected ranging area. Output the defocus amount.

図11に示した例では、測距エリアの優先順位リストとして、図10(a)の器官検出結果に基づく特定座標を用いている(図11中の「測距エリアの優先順位」および「A:特定座標に近い順」参照)。また、重み付けのための信頼性評価値は、デフォーカス量演算部/信頼性評価部37で演算される各測距エリアのコントラスト値Aを使用している(図11中の「B:コントラスト値」参照)。図11中のAとBを用いて、重み付け演算1/(A*B)を行い、この演算結果が一番大きいエリア、すなわち図11では、測距エリアe1を選択している。   In the example shown in FIG. 11, specific coordinates based on the organ detection result of FIG. 10A are used as the distance measurement area priority order list (“priority of distance measurement area” and “A” in FIG. 11). : Order close to specific coordinates "). Further, as the reliability evaluation value for weighting, the contrast value A of each ranging area calculated by the defocus amount calculation unit / reliability evaluation unit 37 is used (“B: Contrast value in FIG. 11). "reference). A weighting calculation 1 / (A * B) is performed using A and B in FIG. 11, and the area having the largest calculation result, that is, the distance measurement area e1 in FIG. 11 is selected.

なお、図11に示した例では、重み付けのための信頼性評価値としてコントラスト値Aを使用しているが、これに限らず、信頼性評価部36で演算されるコントラスト値Aの代わりにコントラスト値Bを使用してもよく、またデフォーカス量演算部/信頼性評価部37で演算される相関値傾きFsを使用してもよい。また、重み付けは、本実施形態においては、1/(A*B)のように乗算演算で行っているが、これに限らず、信頼性の値を複数重み付けしてもよい。   In the example shown in FIG. 11, the contrast value A is used as the reliability evaluation value for weighting. However, the present invention is not limited to this, and contrast is used instead of the contrast value A calculated by the reliability evaluation unit 36. The value B may be used, or the correlation value gradient Fs calculated by the defocus amount calculation unit / reliability evaluation unit 37 may be used. In this embodiment, weighting is performed by multiplication as 1 / (A * B). However, the present invention is not limited to this, and a plurality of reliability values may be weighted.

このように、本実施形態においては、測距エリア優先順位設定部35によって設定された優先順位と、信頼性評価部36またはデフォーカス量演算部/信頼性評価部37によって演算された信頼性評価値(コントラスト値A、コントラスト値B、相関値傾きFs)を用いて、測距点決定部38は測距点の選択を行っている。このため、注目被写体に近く、かつデフォーカス量の演算結果の信頼性の高い測距エリアを選択することができる。したがって、測距点決定部38は、優先順位決定手段の決定する複数の測距点の優先順位に、信頼性判定手段の出力する信頼性に重み付けした結果に基づいて測距点を選択する選択手段としての機能を有する。   Thus, in this embodiment, the priority set by the distance measurement area priority setting unit 35 and the reliability evaluation calculated by the reliability evaluation unit 36 or the defocus amount calculation unit / reliability evaluation unit 37 are calculated. Using the values (contrast value A, contrast value B, correlation value gradient Fs), the distance measuring point determination unit 38 selects a distance measuring point. For this reason, it is possible to select a distance measuring area that is close to the subject of interest and has high reliability in the defocus amount calculation result. Therefore, the distance measuring point determination unit 38 selects the distance measuring points based on the results obtained by weighting the priorities of the plurality of distance measuring points determined by the priority determining means and the reliability output by the reliability determining means. It has a function as a means.

次に、本実施形態における動作について、図12および図13に示すフローチャートを用いて説明する。   Next, the operation in this embodiment will be described with reference to the flowcharts shown in FIGS.

測距動作を開始すると、先ず顔中心または特定座標を取得し、この座標を(Xco,Yco)とする(S1)。ここでは、顔検出部22aによって顔を中心した場合には、中心座標を取得し、また顔の器官(右目、左目、鼻、口等)を検出した場合には、特定座標を取得し、この座標を(Xco,Yco)とする。なお、顔の器官等については、予め撮影者がメニュー画面等により指定できる場合には、その指示に従う。   When the distance measuring operation is started, first, the face center or specific coordinates are acquired, and these coordinates are set to (Xco, Yco) (S1). Here, when the face is centered by the face detection unit 22a, the center coordinates are acquired, and when the face organ (right eye, left eye, nose, mouth, etc.) is detected, the specific coordinates are acquired. The coordinates are (Xco, Yco). If the photographer can specify the facial organ or the like in advance on the menu screen or the like, the instruction is followed.

顔中心または特定座標を取得すると、次に、測距エリア数(Area_Num)の設定を行う(S3)。AF測距点設定部33が、図8、9を用いて説明したように、中心座標または特定座標の周囲に測距エリアを設定する。このステップでは、このとき設定された測距エリア数の設定を行う。   Once the face center or specific coordinates are acquired, the number of distance measurement areas (Area_Num) is set (S3). As described with reference to FIGS. 8 and 9, the AF ranging point setting unit 33 sets a ranging area around the center coordinates or specific coordinates. In this step, the number of distance measurement areas set at this time is set.

測距エリア数の設定を行うと、次に、変数kを0にリセットする(S7)。kは設定されている測距エリアの番号を示しており、このステップでは、測距エリアの番号をリセットする。   Once the number of ranging areas is set, the variable k is reset to 0 (S7). k indicates the number of the distance measurement area that has been set. In this step, the number of the distance measurement area is reset.

測距エリアの番号を示すkを0にリセットすると、次に、k=Area_numか否かを判定する(S9)。Area_numは、測距エリアの数を示しており、このステップでは、ステップS11〜S21におけるデフォーカス量の算出を、全測距エリアについて行ったか否かを判定する。   When k indicating the distance measurement area number is reset to 0, it is next determined whether or not k = Area_num (S9). Area_num indicates the number of distance measurement areas. In this step, it is determined whether or not the defocus amount calculation in steps S11 to S21 has been performed for all the distance measurement areas.

ステップS9における判定の結果、k=Area_numでなかった場合には、各測距エリアの中心座標の設定を行う(S11)。測距エリアの中心座標(Xc[k],Yc[k])は、顔中心座標または特定座標(Xco,Yco)から各々測距エリアごとに任意の長さa[k],b[k]を付加した位置としているので、下記の式より求める。
(Xc[k],Yc[k])=(Xco+a[k],Yco+b[k])
If the result of determination in step S9 is not k = Area_num, the center coordinates of each distance measurement area are set (S11). The center coordinates (Xc [k], Yc [k]) of the distance measurement area are arbitrary lengths a [k], b [k] for each distance measurement area from the face center coordinates or specific coordinates (Xco, Yco). Since it is set as the position to which is added, it is obtained from the following formula.
(Xc [k], Yc [k]) = (Xco + a [k], Yco + b [k])

各測距エリアの中心座標を設定すると、次に、AF測距点設定部33は、各測距エリアの領域を設定する(S13)。各測距エリアの領域は、測距エリアの中心座標(Xc[k],Yc[k])に、(c[k],d[k])加減算して、左上座標(X1[k],Y1[k])と右下座標(Xr[k],Yr[k])を求めるので、各座標は以下の通りとなる。
(X1[k],Y1[k])=(Xc[k]−c[k],Yc[k]−d[k])
(Xr[k],Yr[k])=(Xc[k]+c[k],Yc[k]+d[k])
Once the center coordinates of each distance measurement area are set, the AF distance measurement point setting unit 33 next sets the area of each distance measurement area (S13). The area of each ranging area is obtained by adding and subtracting (c [k], d [k]) to the center coordinates (Xc [k], Yc [k]) of the ranging area to obtain the upper left coordinates (X1 [k], Y1 [k]) and lower right coordinates (Xr [k], Yr [k]) are obtained, and the coordinates are as follows.
(X1 [k], Y1 [k]) = (Xc [k] −c [k], Yc [k] −d [k])
(Xr [k], Yr [k]) = (Xc [k] + c [k], Yc [k] + d [k])

各測距エリアの中心座標を設定すると、各測距エリアの領域設定と並行して、信頼性評価部36は、コントラスト値Bを取得する(S25)。ここでは、撮像用画素の画像データを入力し、この撮像用画素の画像データを用いてコントラスト値Bを算出する。   When the center coordinates of each ranging area are set, the reliability evaluation unit 36 acquires the contrast value B in parallel with the area setting of each ranging area (S25). Here, the image data of the imaging pixel is input, and the contrast value B is calculated using the image data of the imaging pixel.

各測距エリアの領域を設定すると、次に、位相差画素生成部34は、位相差画素列Lk、Rkの生成を行う(S15)。ここでは、測距エリア内の座標(X1[k],Y1[k])から(Xr[k],Yr[k])の範囲内で位相差画素列LkとRkを生成する。   Once the areas of each ranging area are set, the phase difference pixel generation unit 34 generates phase difference pixel rows Lk and Rk (S15). Here, the phase difference pixel columns Lk and Rk are generated within the range of the coordinates (X1 [k], Y1 [k]) to (Xr [k], Yr [k]) in the distance measurement area.

各測距エリアの領域を設定すると、位相差画素列Lk,Rkの生成と並行して、測距エリア優先順位設定部35は、各測距エリア優先順位リストを生成する(S27)。たとえば、図10に示したように、所定の優先順位を付け、List[0]から順次、測距エリアを並べた優先順位リストを生成する。   When the area of each ranging area is set, the ranging area priority setting unit 35 generates each ranging area priority list in parallel with the generation of the phase difference pixel rows Lk and Rk (S27). For example, as shown in FIG. 10, a predetermined priority order is assigned, and a priority order list in which ranging areas are arranged sequentially from List [0] is generated.

位相差画素列Lk、Rkを生成すると、次に、LまたはR列コントラスト値Aを取得する(S17)。ここでは、L列またはR列のエッジ成分の累積値を算出する。すなわち、隣接する位相差AF検出用画素の差分値の累積値を演算し、この値をコントラスト値A contrast_A[k]としてメモリに格納する。   Once the phase difference pixel columns Lk and Rk are generated, the L or R column contrast value A is acquired (S17). Here, the cumulative value of the edge component of the L row or the R row is calculated. That is, the cumulative value of the difference values between adjacent phase difference AF detection pixels is calculated, and this value is stored in the memory as the contrast value A contrast_A [k].

L列またはR列のコントラスト値Aを取得すると、次に、デフォーカス量演算部/信頼性評価部37は、相関値の変化率(傾き)Fs[k]を取得する(S19)。図7に一例を示したように、左開口の位相差AF検出用画素列と、右開口の位相差AF検出用画素列の画像データの間で相関演算を行った結果、最小相関値FMINとその左右の相関値のうちで大きい方の相関値FMを通る直線の傾きを変化率Fs[k]とする。   When the contrast value A of the L column or the R column is acquired, the defocus amount calculation unit / reliability evaluation unit 37 then acquires the correlation value change rate (slope) Fs [k] (S19). As shown in FIG. 7, as a result of performing a correlation operation between the image data of the left aperture phase difference AF detection pixel sequence and the right aperture phase difference AF detection pixel sequence, the minimum correlation value FMIN and The slope of the straight line passing through the larger correlation value FM among the left and right correlation values is defined as a change rate Fs [k].

相関値の変化率Fsを取得すると、次に、デフォーカス量演算部/信頼性評価部37は、デフォーカス量d[k]を取得する(S21)。デフォーカス量d[k]は、図6を用いて説明したように、
d=F*ZR/(G−ZR)
より算出する。
なお、d:デフォーカス量、F:撮像素子から瞳までの距離、ZR:シフト量、G:左右の開口の重心間の距離である。
When the correlation value change rate Fs is acquired, the defocus amount calculation unit / reliability evaluation unit 37 then acquires the defocus amount d [k] (S21). As described with reference to FIG. 6, the defocus amount d [k]
d = F * ZR / (G-ZR)
Calculate from
Here, d: defocus amount, F: distance from the image sensor to the pupil, ZR: shift amount, and G: distance between the centers of gravity of the left and right openings.

ステップS21にてデフォーカス量の算出を行うと次に、ステップS23にて測距エリアの番号を示すkに1を加算する。ステップS23にてkに1を加算し、またはステップS25においてコントラスト値Bを取得し、またはステップS27において各測距エリア優先順位リストを作成すると、ステップS9に戻る。   Once the defocus amount is calculated in step S21, 1 is added to k indicating the distance measurement area number in step S23. When 1 is added to k in step S23, or the contrast value B is acquired in step S25, or each distance measurement area priority list is created in step S27, the process returns to step S9.

ステップS9における判定の結果、測距エリアの番号を示すkが測距エリア数を示すArea_numに達すると、信頼性評価値(S_k)を選択する(S31)。信頼性評価値Skとしては、前述したように、デフォーカス量演算部/信頼性評価部37が算出するコントラスト値Aおよび相関値傾きFsと、信頼性評価部36が算出するコントラスト値Bがある。ここでは、これらの3つの値の中から1つを選択してS[k]とする。   As a result of the determination in step S9, when k indicating the distance measurement area number reaches Area_num indicating the number of distance measurement areas, a reliability evaluation value (S_k) is selected (S31). As described above, the reliability evaluation value Sk includes the contrast value A and the correlation value gradient Fs calculated by the defocus amount calculation unit / reliability evaluation unit 37, and the contrast value B calculated by the reliability evaluation unit 36. . Here, one of these three values is selected as S [k].

信頼性評価値S_kを選択すると、次に、測距点決定部38は、優先度(List[k])*信頼性S[k]の演算を行う(S33)。ここでは、図11の例に示したように、最適な測距エリアを選択するために、優先度に対して信頼性の重み付けを行う。   When the reliability evaluation value S_k is selected, the distance measuring point determination unit 38 next calculates priority (List [k]) * reliability S [k] (S33). Here, as shown in the example of FIG. 11, in order to select an optimum distance measurement area, the priority is weighted with reliability.

優先度に信頼性の重み付け演算を行うと、次に、測距点決定部38は、最適測距エリアを選択し、その最適測距エリアで演算されたデフォーカス量を選択する(S35)。デフォーカス量を選択すると、このフローを終了する。   If the reliability weighting calculation is performed on the priority, the ranging point determination unit 38 next selects the optimum ranging area and selects the defocus amount calculated in the optimum ranging area (S35). When the defocus amount is selected, this flow ends.

なお、ステップS31において、信頼性評価値(S_k)を3種類の中から1つだけ選択していたが、これに限らず、3種類の全てまたは一部を用いて最適な測距エリアを選択するようにしても構わない。また、優先順位として、図10に示したように、3種類の順位付けを行ったが、3種類の全てまたは一部を用いて、最適な測距エリアを選択するようにしてもよい。   In step S31, only one reliability evaluation value (S_k) has been selected from the three types. However, the present invention is not limited to this, and an optimum ranging area is selected using all or some of the three types. You may make it. Further, as shown in FIG. 10, three types of priorities are assigned as priorities, but an optimal distance measurement area may be selected using all or some of the three types.

以上説明したように、本発明の一実施形態においては、注目被写体を検出し(顔検出部22a、図12のS1)、この注目被写体の位置に基づいて複数の測距エリアを設定する(AF測距点設定部33、図12のS5)と共に測距エリアの優先順位を決定し(測距エリア優先順位設定部35、図12のS27)、設定された測距エリアのデフォーカス量の信頼性を求めている(信頼性評価部36、デフォーカス量演算部/信頼性評価部37、図12のS25、S17、S19)。そして、測距エリアの優先順位とデフォーカス量の信頼性に基づいて最適な測距エリアを選択し(測距点決定部38、図12のS35)、この選択された測距エリアのデフォーカス量に基づいて、ピント合わせを行うようにしている。このため、本実施形態においては、注目する被写体に最適な位相差AFの測距エリアを選択し、精度よく合焦点を検出することが可能となる。   As described above, in the embodiment of the present invention, the subject of interest is detected (face detection unit 22a, S1 in FIG. 12), and a plurality of distance measurement areas are set based on the positions of the subject of interest (AF The priority of the distance measurement areas is determined together with the distance measurement point setting unit 33 (S5 in FIG. 12) (range measurement area priority order setting unit 35, S27 in FIG. 12), and the defocus amount reliability of the set distance measurement area is determined. (Reliability evaluation unit 36, defocus amount calculation unit / reliability evaluation unit 37, S25, S17, S19 in FIG. 12). Then, an optimum distance measurement area is selected based on the priority of the distance measurement area and the reliability of the defocus amount (ranging point determination unit 38, S35 in FIG. 12), and the defocus of the selected distance measurement area is selected. Focusing is performed based on the amount. For this reason, in the present embodiment, it is possible to select a focus detection area of phase difference AF that is optimal for the subject of interest, and to detect the focal point with high accuracy.

なお、本発明の一実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもミラーレスカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォーンや携帯情報端末(PDA:Personal Digital Assist)、ゲーム機器等に内蔵されるカメラでも構わない。いずれにしても、撮像素子の一部を位相差方式の焦点検出用素子として用いる撮像素子を有する機器であれば、本発明を適用することができる。   In the embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a digital single-lens reflex camera, a mirrorless camera, or a compact digital camera. A camera for moving images such as a camera may be used, and a camera built in a mobile phone, a smart phone, a personal digital assistant (PDA), a game device, or the like may be used. In any case, the present invention can be applied to any device having an image sensor that uses a part of the image sensor as a phase difference type focus detection element.

また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。   In addition, regarding the operation flow in the claims, the specification, and the drawings, even if it is described using words expressing the order such as “first”, “next”, etc. It does not mean that it is essential to implement in this order.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

10・・・交換レンズ鏡筒、11・・・撮影レンズ、12・・・アクチュエータ、13・・・レンズ制御部、20・・・カメラ本体、21・・・撮像素子、21a・・・画素値、21c・・・測距エリア中心点、21d・・・左開口位相差AF検出用画素、21e・・・撮像用画素、21f・・・右開口位相差AF検出用画素、22・・・画像処理部、22a・・・顔検出部、23・・・AF演算部、24・・・記録部、33・・・AF測距点設定部、34・・・位相差画素生成部、35・・・測距エリア順位設定部、36・・・信頼性評価部、37・・・デフォーカス量演算部/信頼性評価部、38・・・測距点決定部、Fc・・・顔中心、Fs・・・相関値傾き、S・・・被写体、ZR・・・シフト量、d・・・デフォーカス量 DESCRIPTION OF SYMBOLS 10 ... Interchangeable lens barrel, 11 ... Shooting lens, 12 ... Actuator, 13 ... Lens control part, 20 ... Camera body, 21 ... Imaging element, 21a ... Pixel value , 21c: ranging area center point, 21d: left aperture phase difference AF detection pixel, 21e: imaging pixel, 21f: right aperture phase difference AF detection pixel, 22: image Processing unit 22a ... Face detection unit 23 ... AF calculation unit 24 ... Recording unit 33 ... AF distance measuring point setting unit 34 ... Phase difference pixel generation unit 35 ... Distance measuring area order setting unit 36... Reliability evaluation unit 37 37 Defocus amount calculation unit / reliability evaluation unit 38. Distance measuring point determination unit Fc. ... Slope of correlation value, S ... Subject, ZR ... Shift amount, d ... Defocus amount

Claims (4)

撮像光学系により結像された光学像を電気信号に変換する光電変換部を有する複数の画素を備え、上記複数の画素は、上記画素へ入射する光束の入射方向を制限するよう構成された焦点検出用画素と、上記画素へ入射する光束が上記焦点検出用画素よりも制限されないように構成された撮像用画素と、を含み、上記複数の画素が2次元的に配列された撮像素子を有する撮像装置において、
上記撮像素子の出力する画素信号に基づいて注目被写体の位置を検出する注目被写体検出手段と、
上記注目被写体の位置に基づいて、上記焦点検出用画素の位置に対応する複数の測距点を設定する測距点設定手段と、
上記複数の測距点に対応する上記焦点検出用画素の出力に基づいて複数のデフォーカス量を演算する演算手段と、
上記設定された測距点の優先順位を決定する優先順位決定手段と、
上記設定された測距点に対応して検出されるデフォーカス量の信頼性を判別する信頼性判定手段と、
上記優先順位決定手段の出力と上記信頼性判定手段の出力に基づいて上記設定された複数の測距点のうちから測距点を選択する選択手段と、
を有し、
上記注目被写体検出手段は、顔に相当する領域を検出し、
上記測距点設定手段は、上記顔に相当する領域の内部の特定の領域について、顔に相当する領域の他の領域に比較して測距点をより密に配置する
ことを特徴とする撮像装置。
A plurality of pixels having a photoelectric conversion unit that converts an optical image formed by the imaging optical system into an electric signal, and the plurality of pixels are configured to limit an incident direction of a light beam incident on the pixels. An image sensor including a detection pixel and an image pickup pixel configured such that a light beam incident on the pixel is not limited as compared with the focus detection pixel, and the image pickup element includes a plurality of pixels arranged in a two-dimensional manner. In the imaging device,
Subject-of-interest detection means for detecting the position of the subject of interest based on the pixel signal output from the image sensor;
Distance measuring point setting means for setting a plurality of distance measuring points corresponding to the position of the focus detection pixel based on the position of the subject of interest;
A computing means for computing a plurality of defocus amounts based on outputs of the focus detection pixels corresponding to the plurality of distance measuring points;
Priority order determining means for determining the priority order of the set distance measuring points;
Reliability determination means for determining the reliability of the defocus amount detected corresponding to the set ranging point;
Selection means for selecting a distance measuring point from among the plurality of distance measuring points set based on the output of the priority determining means and the output of the reliability determining means;
Have
The noted subject detection means detects an area corresponding to a face,
The ranging point setting means arranges the ranging points more densely in a specific area inside the area corresponding to the face than in other areas corresponding to the face .
An imaging apparatus characterized by that.
上記優先順位決定手段は、上記複数の測距点のうち上記注目被写体の特定の位置により近い測距点の優先順位を高くすることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the priority order determination unit increases a priority order of a distance measuring point that is closer to a specific position of the subject of interest among the plurality of distance measuring points. 上記信頼性判定手段は、上記デフォーカス量の信頼性を示す信頼性評価値を出力し、
上記選択手段は、上記優先順位決定手段の決定する複数の測距点の優先順位と、上記信頼性判定手段の出力する信頼性評価値に重み付けした結果に基づいて測距点を選択することを特徴とする請求項1または2に記載の撮像装置。
The reliability determination means outputs a reliability evaluation value indicating the reliability of the defocus amount,
The selection means selects the distance measurement points based on the priority order of the plurality of distance measurement points determined by the priority order determination means and the result of weighting the reliability evaluation value output by the reliability determination means. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
上記注目被写体検出手段は、顔の器官に相当する領域を検出し、
上記測距点設定手段は、上記器官に相当する領域について、器官に相当しない領域に比較して測距点をより密に配置する、
ことを特徴とする請求項1乃至3のいずれか一項に記載の撮像装置。
The noted subject detection means detects a region corresponding to a facial organ,
The ranging point setting means arranges the ranging points more densely in the area corresponding to the organ than in the area not corresponding to the organ.
The imaging apparatus according to any one of claims 1 to 3, wherein
JP2013007566A 2013-01-18 2013-01-18 Imaging device Expired - Fee Related JP6071574B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013007566A JP6071574B2 (en) 2013-01-18 2013-01-18 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013007566A JP6071574B2 (en) 2013-01-18 2013-01-18 Imaging device

Publications (2)

Publication Number Publication Date
JP2014137567A JP2014137567A (en) 2014-07-28
JP6071574B2 true JP6071574B2 (en) 2017-02-01

Family

ID=51415072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013007566A Expired - Fee Related JP6071574B2 (en) 2013-01-18 2013-01-18 Imaging device

Country Status (1)

Country Link
JP (1) JP6071574B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6512989B2 (en) * 2015-08-04 2019-05-15 キヤノン株式会社 Focus detection apparatus and method, and imaging apparatus
JP6723735B2 (en) 2015-12-10 2020-07-15 キヤノン株式会社 Image processing device, imaging device, image processing method, and image processing program
WO2017135276A1 (en) * 2016-02-01 2017-08-10 ソニー株式会社 Controller, control method, and control program
US10469730B2 (en) 2016-05-18 2019-11-05 Canon Kabushiki Kaisha Imaging device and control method for simultaneously outputting an image pickup signal and a parallax image signal
JP2021162829A (en) 2020-04-03 2021-10-11 キヤノン株式会社 Focus detector, imaging apparatus, and focus detection method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213047A (en) * 2006-01-13 2007-08-23 Nikon Corp Focusing apparatus, optical apparatus and focusing method
JP4998308B2 (en) * 2008-02-14 2012-08-15 株式会社ニコン Focus adjustment device and imaging device

Also Published As

Publication number Publication date
JP2014137567A (en) 2014-07-28

Similar Documents

Publication Publication Date Title
JP6234144B2 (en) Focus detection apparatus and focus detection method
JP6184276B2 (en) Focus adjustment device
US10326927B2 (en) Distance information producing apparatus, image capturing apparatus, distance information producing method and storage medium storing distance information producing program
JP5388544B2 (en) Imaging apparatus and focus control method thereof
JP6029309B2 (en) Focus detection device
JP6071574B2 (en) Imaging device
US9083879B2 (en) Focus detection apparatus, control method thereof, and image pickup apparatus
US10244160B2 (en) Focus adjustment device and focus adjustment method
JP5417827B2 (en) Focus detection apparatus and imaging apparatus
JP2014153509A (en) Imaging device and imaging method
JP2022000695A (en) Imaging device
JP5822492B2 (en) Imaging apparatus and control method
JP6271911B2 (en) Imaging apparatus, control method therefor, and defocus amount calculation method
JP6881909B2 (en) Image pickup device and its control method, and image processing device and method
JP6220144B2 (en) Focus adjustment apparatus and control method thereof
WO2018110282A1 (en) Focusing apparatus, focusing method, and storage medium storing program
JP6234094B2 (en) Focus detection apparatus and imaging apparatus
JP6568448B2 (en) Automatic focusing apparatus, control method therefor, and imaging apparatus
JP6489881B2 (en) Distance display processing device, optical device, and distance display processing program
JP6929140B2 (en) Control device, image pickup device, control method, program, and storage medium
US20230188846A1 (en) Imaging apparatus and control method thereof
JP5176845B2 (en) Image tracking device and imaging device
US20220294991A1 (en) Focus adjustment device and focus adjustment method
US20220272271A1 (en) Image pickup apparatus capable of keeping focus on subject even when moving direction of subject changes in time series, control method for image pickup apparatus, and storage medium
JP5966249B2 (en) Image tracking device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161227

R151 Written notification of patent or utility model registration

Ref document number: 6071574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350