JP2016126046A - Focal point detecting device and focal point detecting method - Google Patents

Focal point detecting device and focal point detecting method Download PDF

Info

Publication number
JP2016126046A
JP2016126046A JP2014264596A JP2014264596A JP2016126046A JP 2016126046 A JP2016126046 A JP 2016126046A JP 2014264596 A JP2014264596 A JP 2014264596A JP 2014264596 A JP2014264596 A JP 2014264596A JP 2016126046 A JP2016126046 A JP 2016126046A
Authority
JP
Japan
Prior art keywords
focus detection
focus
detection area
attribute
saturated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014264596A
Other languages
Japanese (ja)
Other versions
JP6421032B2 (en
Inventor
聡 滝之入
Satoshi Takinoiri
聡 滝之入
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014264596A priority Critical patent/JP6421032B2/en
Publication of JP2016126046A publication Critical patent/JP2016126046A/en
Application granted granted Critical
Publication of JP6421032B2 publication Critical patent/JP6421032B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a focal point detecting device and a focal point detecting method that are capable of accurately calculating a focusing position even if a plurality of point light source subjects differing in distance exist.SOLUTION: The focal point detecting device comprises: a saturation determination part 7 for determining whether or not an imaging signal is saturated; a saturation pixel region setting part 81 for setting saturation pixel regions in which imaging signals determined to be saturated by the saturation determination part 7 exist; an attribute detection region setting part 82 for setting attribute detection regions inside the saturation pixel regions; a focal point detection region setting part 83 for classifying imaging signals included in the attribute detection regions according to attribute information, and setting a plurality of focal point detection regions including the saturation pixel regions on the basis of the positions of the imaging signals having the same attribute information; an extraction part 84 for extracting a predetermined signal component from imaging signals obtained in each of the plurality of focal point detection regions; and a focal point detection part 85 for detecting a focal point on the basis of the extracted signal component.SELECTED DRAWING: Figure 1

Description

本発明は、焦点検出装置及び焦点検出方法に関する。   The present invention relates to a focus detection apparatus and a focus detection method.

撮像装置に備えられた撮影レンズの自動焦点検出の1つの方式として、コントラストAF方式が使用されている。コントラストAF方式は、撮影レンズによって形成された被写体像のコントラスト値を示す焦点評価値を算出し、この焦点評価値がピーク値となるように撮影レンズの位置を制御する方式である。   A contrast AF method is used as one method for automatic focus detection of a photographing lens provided in an imaging apparatus. The contrast AF method is a method of calculating a focus evaluation value indicating a contrast value of a subject image formed by the photographing lens and controlling the position of the photographing lens so that the focus evaluation value becomes a peak value.

コントラストAF方式では、焦点検出領域に点光源などの高輝度被写体があると、高輝度被写体に関する撮像信号が飽和してしまって撮影レンズの合焦位置を正しく検出できなくなる場合がある。そこで、例えば特許文献1において提案されている焦点検出装置は、バンドパスフィルタを通した撮像信号の積算値である第1評価値とバンドパスフィルタを通さない撮像信号の積算値である第2評価値との差分を求め、差分の最大値と各差分との差である第3評価値を用いて撮影レンズの位置を制御している。   In the contrast AF method, if there is a high-luminance subject such as a point light source in the focus detection area, the imaging signal related to the high-luminance subject may be saturated and the focus position of the photographing lens may not be detected correctly. Therefore, for example, the focus detection apparatus proposed in Patent Document 1 has a first evaluation value that is an integrated value of the imaging signal that has passed through the bandpass filter and a second evaluation that is an integrated value of the imaging signal that has not passed through the bandpass filter. The position of the photographing lens is controlled using a third evaluation value that is a difference between the maximum difference value and each difference.

特開2007−171807号公報JP 2007-171807 A

特許文献1においては、撮像信号が飽和していると判定された複数の焦点検出領域は、1つの合併領域にまとめられる。この場合、撮像信号が飽和していると判定された複数の焦点検出領域に距離の異なる被写体が存在しているときに合焦精度が低下する。この合焦精度の低下は、距離の異なる複数の点光源被写体が存在する場合に顕著になる。焦点検出領域をまとめることにより、点光源被写体用の焦点評価値は1つの焦点検出領域で生成されることになるので、輝度の度合い(明るさ)によっては適さない評価値が生成される可能性もある。   In Patent Document 1, a plurality of focus detection areas determined to have saturated image pickup signals are combined into one merged area. In this case, when there are subjects with different distances in the plurality of focus detection areas determined to be saturated with the imaging signal, the focusing accuracy decreases. This decrease in focusing accuracy becomes significant when there are a plurality of point light source subjects with different distances. By combining the focus detection areas, the focus evaluation value for the point light source subject is generated in one focus detection area, and therefore an evaluation value that is not suitable depending on the degree of brightness (brightness) may be generated. There is also.

本発明は、前記の事情に鑑みてなされたもので、距離の異なる複数の点光源被写体が存在していたとしても、精度の高い合焦位置の算出を行うことができる焦点検出装置及び焦点検出方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and a focus detection apparatus and focus detection capable of calculating a focus position with high accuracy even when a plurality of point light source subjects having different distances exist. It aims to provide a method.

前記の目的を達成するために、本発明の第1の態様の焦点検出装置は、被写体像を撮像する撮像素子の撮像信号に基づいて合焦位置を算出する焦点検出装置において、前記撮像信号が飽和しているか否かを判定する飽和判定部と、前記飽和判定部により飽和していると判定された撮像信号が存在している飽和画素領域を設定する飽和画素領域設定部と、前記飽和画素領域の内部に属性検出領域を設定する属性検出領域設定部と、前記属性検出領域に含まれる前記撮像信号を属性情報に応じて分類し、同一の属性情報を有する前記撮像信号の位置に基づいて前記飽和画素領域を含む複数の焦点検出領域を設定する焦点検出領域設定部と、前記複数の焦点検出領域のそれぞれで得られた前記撮像信号から所定の信号成分を抽出する抽出部と、前記抽出された信号成分に基づいて焦点検出を行う焦点検出部とを具備することを特徴とする。   In order to achieve the above object, a focus detection apparatus according to a first aspect of the present invention is a focus detection apparatus that calculates a focus position based on an imaging signal of an imaging element that captures a subject image. A saturation determination unit that determines whether or not the image is saturated; a saturation pixel region setting unit that sets a saturation pixel region in which an imaging signal determined to be saturated by the saturation determination unit is present; and the saturation pixel An attribute detection area setting unit that sets an attribute detection area inside the area, and the imaging signals included in the attribute detection area are classified according to attribute information, and based on the position of the imaging signal having the same attribute information A focus detection region setting unit that sets a plurality of focus detection regions including the saturated pixel region; an extraction unit that extracts a predetermined signal component from the imaging signal obtained in each of the plurality of focus detection regions; Based on the issued signal component characterized by comprising the focus detection unit that performs focus detection.

前記の目的を達成するために、本発明の第2の態様の焦点検出方法は、被写体像を撮像する撮像素子の撮像信号に基づいて合焦位置を算出する焦点検出方法において、前記撮像信号が飽和しているか否かを判定することと、前記飽和していると判定された撮像信号が存在している飽和画素領域を設定することと、前記飽和画素領域の内部に属性検出領域を設定することと、前記属性検出領域に含まれる前記撮像信号を属性情報に応じて分類し、同一の属性情報を有する前記撮像信号の位置に基づいて前記飽和画素領域を含む複数の焦点検出領域を設定することと、前記複数の焦点検出領域のそれぞれで得られた前記撮像信号から所定の信号成分を抽出することと、前記抽出された信号成分に基づいて焦点検出を行うこととを具備することを特徴とする。   In order to achieve the above object, a focus detection method according to a second aspect of the present invention is a focus detection method for calculating a focus position based on an imaging signal of an imaging element that captures a subject image. Determining whether or not it is saturated, setting a saturated pixel area where the imaging signal determined to be saturated exists, and setting an attribute detection area within the saturated pixel area And classifying the imaging signals included in the attribute detection area according to attribute information, and setting a plurality of focus detection areas including the saturated pixel area based on the position of the imaging signal having the same attribute information And extracting a predetermined signal component from the imaging signal obtained in each of the plurality of focus detection areas, and performing focus detection based on the extracted signal component. To.

本発明によれば、距離の異なる複数の点光源被写体が存在していたとしても、精度の高い合焦位置の算出を行うことができる焦点検出装置及び焦点検出方法を提供することができる。   According to the present invention, it is possible to provide a focus detection apparatus and a focus detection method capable of calculating a focus position with high accuracy even when a plurality of point light source subjects having different distances exist.

本発明の一実施形態に係る焦点検出装置を備えたカメラのブロック図である。It is a block diagram of the camera provided with the focus detection apparatus which concerns on one Embodiment of this invention. AF制御のフローチャートである。It is a flowchart of AF control. 点光源焦点検出領域設定処理について示すフローチャートである。It is a flowchart shown about a point light source focus detection area setting process. 点光源焦点検出領域について示す図である。It is a figure shown about a point light source focus detection area. 点光源焦点検出領域の分類をしない場合の焦点評価値を示す図である。It is a figure which shows the focus evaluation value when not classifying a point light source focus detection area. 点光源焦点検出領域の分類をした場合の焦点評価値を示す図である。It is a figure which shows the focus evaluation value at the time of classifying a point light source focus detection area. 点光源焦点検出領域設定処理の変形例について示すフローチャートである。It is a flowchart shown about the modification of a point light source focus detection area setting process.

以下、図面を参照して本発明の実施形態を説明する。図1は、本発明の一実施形態に係る焦点検出装置を備えたにおけるカメラのブロック図である。図1に示すカメラは、撮影レンズ1と、レンズ制御部2と、撮像素子3と、撮像制御部4と、撮像信号処理部5と、AE処理部6と、飽和判定部7と、AF処理部8と、画像処理部9と、メモリ10と、表示部11と、操作部12と、CPU13とを有している。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of a camera provided with a focus detection apparatus according to an embodiment of the present invention. The camera shown in FIG. 1 includes a photographic lens 1, a lens control unit 2, an imaging device 3, an imaging control unit 4, an imaging signal processing unit 5, an AE processing unit 6, a saturation determination unit 7, and an AF process. A unit 8, an image processing unit 9, a memory 10, a display unit 11, an operation unit 12, and a CPU 13 are included.

撮影レンズ1は、被写体からの光束を撮像素子3に結像させるための光学系である。この撮影レンズ1は、フォーカスレンズを有している。フォーカスレンズは、光軸方向に移動することによって撮影レンズ1の焦点位置を調整する。レンズ制御部2は、例えばAF処理部8からの指示に従って、撮影レンズ1のフォーカスレンズを駆動する。   The photographing lens 1 is an optical system for forming an image of a light beam from a subject on the image sensor 3. The photographing lens 1 has a focus lens. The focus lens adjusts the focal position of the photographing lens 1 by moving in the optical axis direction. The lens control unit 2 drives the focus lens of the photographing lens 1 in accordance with, for example, an instruction from the AF processing unit 8.

撮像素子3は、撮影レンズ1の光軸上に配置されている。撮像素子3は、画素を有している。画素は、2次元状に配置され、撮影レンズ1によって結像された被写体像に応じた電荷を生成する。この電荷は、撮像信号として読み出される。撮像制御部4は、CPU13からの制御信号に従って、撮像素子3の電荷蓄積の制御と撮像信号の読み出しの制御等を行う。   The image sensor 3 is disposed on the optical axis of the photographing lens 1. The image sensor 3 has pixels. The pixels are two-dimensionally arranged and generate charges corresponding to the subject image formed by the photographing lens 1. This charge is read as an imaging signal. The imaging control unit 4 performs control of charge accumulation of the imaging device 3 and control of reading of the imaging signal according to a control signal from the CPU 13.

撮像信号処理部5は、撮像素子3の各画素から読み出された撮像信号に対して処理を行う。この処理は、撮像信号に対するアナログノイズの除去、増幅といった処理を含む。また、この処理は、アナログ信号である撮像信号をデジタル信号である撮像データに変換する処理を含む。   The imaging signal processing unit 5 performs processing on the imaging signal read from each pixel of the imaging element 3. This processing includes processing such as analog noise removal and amplification for the imaging signal. In addition, this processing includes processing for converting an imaging signal that is an analog signal into imaging data that is a digital signal.

AE処理部6は、撮像データに基づいて撮像信号の属性情報の1つである輝度値を予め定められた輝度検出領域毎に算出する。そして、AE処理部6は、輝度値に基づいて自動露出(AE)制御を行う。自動露出制御によって撮像素子3の露出量が制御される。   The AE processing unit 6 calculates a luminance value, which is one of the attribute information of the imaging signal, for each predetermined luminance detection area based on the imaging data. Then, the AE processing unit 6 performs automatic exposure (AE) control based on the luminance value. The exposure amount of the image sensor 3 is controlled by the automatic exposure control.

飽和判定部7は、飽和画素の有無を判定する。飽和画素は、予め定められた飽和レベルに達している画素値を有する画素のことである。飽和レベルは、点光源と見なせる所定のレベルであり、例えば撮像信号処理部5のA/D変換のダイナミックレンジの最大値よりもある程度に低いレベルに設定されている。   The saturation determination unit 7 determines the presence / absence of a saturated pixel. A saturated pixel is a pixel having a pixel value that has reached a predetermined saturation level. The saturation level is a predetermined level that can be regarded as a point light source, and is set to a level that is somewhat lower than the maximum value of the dynamic range of the A / D conversion of the imaging signal processing unit 5, for example.

AF処理部8は、焦点検出領域内の撮像データに基づいて自動焦点(AF)制御を行う。焦点検出領域は、撮像データの全域又は一部の領域に少なくとも1つ設定される。個々の焦点検出領域は、1画素又は複数の画素によって形成される。このAF処理部8は、飽和画素領域設定部81と、属性検出領域設定部82と、焦点検出領域設定部83と、抽出部84と、焦点検出部85とを有している。飽和画素領域設定部81は、飽和判定部7によって飽和していると判定された撮像データが存在している画素を含む焦点検出領域から構成される飽和画素領域を設定する。属性検出領域設定部82は、飽和画素領域の内部に属性検出領域を設定する。属性検出領域は、飽和画素領域内の輝度検出領域である。焦点検出領域設定部83は、撮像データ内に焦点検出領域を設定する。また、焦点検出領域設定部83は、属性検出領域について取得した属性情報である輝度値に基づいて点光源用焦点検出領域を設定する。点光源用焦点検出領域は、点光源を含むと考えられる焦点検出領域である。抽出部84は、撮像データの高周波信号成分を焦点検出領域毎に抽出する。高周波信号成分は、例えばデジタルハイパスフィルタによって抽出される。焦点検出部85は、抽出した信号成分の撮像データを積算することによって焦点評価値を算出し、焦点評価値に基づいてフォーカスレンズの焦点制御を行う。   The AF processing unit 8 performs automatic focus (AF) control based on the imaging data in the focus detection area. At least one focus detection area is set in the entire area or a part of the imaging data. Each focus detection area is formed by one pixel or a plurality of pixels. The AF processing unit 8 includes a saturated pixel region setting unit 81, an attribute detection region setting unit 82, a focus detection region setting unit 83, an extraction unit 84, and a focus detection unit 85. The saturated pixel region setting unit 81 sets a saturated pixel region including a focus detection region including pixels in which imaging data determined to be saturated by the saturation determination unit 7 exists. The attribute detection area setting unit 82 sets an attribute detection area inside the saturated pixel area. The attribute detection area is a luminance detection area in the saturated pixel area. The focus detection area setting unit 83 sets a focus detection area in the imaging data. Further, the focus detection area setting unit 83 sets a point light source focus detection area based on the luminance value which is attribute information acquired for the attribute detection area. The point light source focus detection region is a focus detection region considered to include a point light source. The extraction unit 84 extracts the high-frequency signal component of the imaging data for each focus detection area. The high frequency signal component is extracted by, for example, a digital high pass filter. The focus detection unit 85 calculates a focus evaluation value by accumulating the image data of the extracted signal components, and performs focus control of the focus lens based on the focus evaluation value.

画像処理部9は、撮像データを処理して表示用の画像データ又は記録用の画像データを生成する。この処理は、ホワイトバランス補正、階調補正、色補正といった処理を含む。また、記録用の画像データに対する処理は圧縮処理を含む。さらに、メモリ10に記録された記録用の画像データを再生する際には、画像処理部9は、伸張処理を行う。   The image processing unit 9 processes the imaging data to generate display image data or recording image data. This process includes processes such as white balance correction, gradation correction, and color correction. Further, the processing for recording image data includes compression processing. Further, when reproducing the image data for recording recorded in the memory 10, the image processing unit 9 performs expansion processing.

メモリ10は、カメラの本体に着脱自在に構成された又はカメラの本体に内蔵された電気的に書き換え可能な不揮発性メモリを有する。メモリ10には、画像処理部9の処理によって得られた記録用の画像データが記録される。   The memory 10 includes an electrically rewritable non-volatile memory configured to be detachable from the camera body or built in the camera body. In the memory 10, image data for recording obtained by the processing of the image processing unit 9 is recorded.

表示部11は、画像処理部9の処理によって生成された表示用の画像データに基づいてライブビュー画像等の各種の画像を表示する。また、表示部11は、画像処理部9の伸張処理によって得られた再生用の画像データに基づいて画像を表示する。   The display unit 11 displays various images such as a live view image based on the display image data generated by the processing of the image processing unit 9. The display unit 11 displays an image based on the reproduction image data obtained by the expansion processing of the image processing unit 9.

操作部12は、ユーザがカメラの操作をするための操作部材を有する。この操作部材は、例えば電源スイッチ、レリーズ釦、再生釦、メニュー釦である。操作部12は、これらの操作部材の操作状態を検出し、検出した操作状態に応じた信号を出力する。   The operation unit 12 includes an operation member for the user to operate the camera. The operation members are, for example, a power switch, a release button, a playback button, and a menu button. The operation unit 12 detects the operation state of these operation members and outputs a signal corresponding to the detected operation state.

CPU13は、カメラの各ブロックの処理を制御する。例えば、CPU13は、操作部12の各操作部材の操作状態に応じた処理を行う。   The CPU 13 controls processing of each block of the camera. For example, the CPU 13 performs processing according to the operation state of each operation member of the operation unit 12.

次に、本実施形態に係る焦点検出装置の動作について説明する。図2は、本実施形態におけるAF制御のフローチャートである。AF制御は、主にAF処理部8によって制御される。なお、以下で説明するAF制御は、コントラスト方式のAF制御である。   Next, the operation of the focus detection apparatus according to this embodiment will be described. FIG. 2 is a flowchart of AF control in the present embodiment. The AF control is mainly controlled by the AF processing unit 8. Note that the AF control described below is contrast-type AF control.

ステップS101において、CPU13は、AF制御用の露出設定等の前処理を行う。露出設定は、例えば予め定められた設定を用いて行われる。また、露出設定は、撮像データの明るさ等を測定することによって行われても良い。   In step S101, the CPU 13 performs preprocessing such as exposure setting for AF control. The exposure setting is performed using a predetermined setting, for example. Further, the exposure setting may be performed by measuring the brightness of the imaging data.

ステップS102において、CPU13は、AF処理部8に対してAF制御の実行を指示する。この指示を受けて、AF処理部8は、焦点検出領域を設定する。焦点検出領域としては、例えば複数の焦点検出領域の設定の中からユーザによって選択されたものが使用される。この焦点検出領域の設定は、例えばユーザによって選択された画面内の1つの焦点検出領域を焦点検出に用いる設定、ユーザによって選択された画面内の複数の焦点検出領域を焦点検出に用いる設定、画面内の全域を焦点検出に用いる設定がある。   In step S102, the CPU 13 instructs the AF processing unit 8 to execute AF control. Upon receiving this instruction, the AF processing unit 8 sets a focus detection area. As the focus detection area, for example, an area selected by the user from a plurality of focus detection area settings is used. The setting of the focus detection area is, for example, a setting that uses one focus detection area in the screen selected by the user for focus detection, a setting that uses a plurality of focus detection areas in the screen selected by the user for focus detection, and a screen. There is a setting in which the entire area is used for focus detection.

ステップS103において、AF処理部8は、点光源焦点検出領域設定処理を行う。点光源焦点検出領域設定処理は、通常の焦点検出領域とは別に、画面内の点光源を含むと考えられる焦点検出領域を設定する処理である。詳細については後で詳しく説明する。   In step S103, the AF processing unit 8 performs a point light source focus detection area setting process. The point light source focus detection area setting process is a process for setting a focus detection area that is considered to include a point light source in the screen, in addition to the normal focus detection area. Details will be described later.

ステップS104において、AF処理部8は、レンズ制御部2に対してレンズ駆動の指示を送る。この指示を受けてレンズ制御部2は、フォーカスレンズを所定量だけ駆動する。このレンズ駆動は、焦点評価値のピークを検波するための駆動であり、スキャン駆動等と呼ばれている。   In step S <b> 104, the AF processing unit 8 sends a lens driving instruction to the lens control unit 2. In response to this instruction, the lens control unit 2 drives the focus lens by a predetermined amount. This lens drive is a drive for detecting the peak of the focus evaluation value and is called a scan drive or the like.

ステップS105において、AF処理部8は、撮像データの高周波信号成分の積算値を、点光源焦点検出領域を含む焦点検出領域毎に求めることによって焦点検出領域毎の焦点評価値を取得する。   In step S105, the AF processing unit 8 obtains a focus evaluation value for each focus detection region by obtaining an integrated value of high-frequency signal components of the imaging data for each focus detection region including the point light source focus detection region.

ステップS106において、AF処理部8は、焦点評価値を補正する。この焦点評価値の補正は、点光源焦点検出領域の焦点評価値に対する補正演算である。この補正演算としては、例えば特開2011−175119号公報で記載されている手法を用いることが可能である。   In step S106, the AF processing unit 8 corrects the focus evaluation value. The correction of the focus evaluation value is a correction calculation for the focus evaluation value of the point light source focus detection area. As this correction calculation, for example, a technique described in Japanese Patent Application Laid-Open No. 2011-175119 can be used.

ステップS107において、AF処理部8は、方向判断処理を行って焦点評価値のピークの存在する方向を判断する。判断の手法としては、例えば現在の焦点評価値と1回前又は複数回前までの焦点評価値とを比較し、焦点評価値が増加していれば現在のレンズ駆動方向が焦点評価値のピークの存在する方向であると判断し、焦点評価値が減少していれば現在のレンズ駆動方向の逆方向が焦点評価値のピークの存在する方向であると判定する手法を用いることができる。なお、現在のレンズ駆動方向の逆方向が焦点評価値のピークの存在する方向であると判定された場合、AF処理部8は、逆方向にフォーカスレンズを駆動するようにレンズ制御部2に対してレンズ駆動の指示を送る。   In step S107, the AF processing unit 8 performs a direction determination process to determine the direction in which the focus evaluation value peak exists. As a determination method, for example, the current focus evaluation value is compared with the focus evaluation value one or more times before, and if the focus evaluation value increases, the current lens driving direction is the peak of the focus evaluation value. If the focus evaluation value decreases, a method of determining that the reverse direction of the current lens driving direction is the direction in which the peak of the focus evaluation value exists can be used. When it is determined that the reverse direction of the current lens driving direction is the direction in which the peak of the focus evaluation value exists, the AF processing unit 8 instructs the lens control unit 2 to drive the focus lens in the reverse direction. Send a lens drive instruction.

ステップS108において、AF処理部8は、方向判断処理が完了したか否かを判定する。この判定は、焦点評価値の増加量又は減少量が予め定められた値以上であるか否かを判定することによって行われる。ステップS108において焦点評価値の増加量又は減少量が予め定められた値未満であると判定された場合には、方向判断処理が完了していないと判定される。この場合、処理はステップS105に戻る。すなわち、方向判断処理が完了するまでステップS105からステップS108までの処理が繰り返される。   In step S108, the AF processing unit 8 determines whether or not the direction determination process is completed. This determination is performed by determining whether or not the amount of increase or decrease in the focus evaluation value is greater than or equal to a predetermined value. If it is determined in step S108 that the increase or decrease amount of the focus evaluation value is less than a predetermined value, it is determined that the direction determination process has not been completed. In this case, the process returns to step S105. That is, the processing from step S105 to step S108 is repeated until the direction determination processing is completed.

ステップS108において焦点評価値の増加量又は減少量が予め定められた値以上であると判定された場合には、方向判断処理が完了したと判定される。この場合、処理はステップS109に移行する。ステップS109において、AF処理部8は、ピーク検出処理を行う。ピーク検出処理は、焦点評価値のピークを検出するための処理である。ピーク検出処理は、焦点評価値の増加から減少への変化を検出する処理である。   If it is determined in step S108 that the increase or decrease amount of the focus evaluation value is greater than or equal to a predetermined value, it is determined that the direction determination process has been completed. In this case, the process proceeds to step S109. In step S109, the AF processing unit 8 performs peak detection processing. The peak detection process is a process for detecting the peak of the focus evaluation value. The peak detection process is a process for detecting a change from an increase in focus evaluation value to a decrease.

ステップS110において、AF処理部8は、ピーク検出処理が完了したか否か、すなわち焦点評価値の増加から減少への変化を検出することができたか否かを判定する。ステップS110において、ピーク検出処理が完了していないと判定された場合には、処理がステップS105に戻る。すなわち、ピーク検出処理が完了するまでステップS105からステップS110までの処理が繰り返される。   In step S110, the AF processing unit 8 determines whether or not the peak detection process has been completed, that is, whether or not a change from an increase in focus evaluation value to a decrease has been detected. If it is determined in step S110 that the peak detection process has not been completed, the process returns to step S105. That is, the processes from step S105 to step S110 are repeated until the peak detection process is completed.

ステップS110において、ピーク検出処理が完了したと判定された場合には、処理はステップS111に移行する。ステップS111において、AF処理部8は、焦点評価値がピークになるフォーカスレンズの位置であるピーク位置にフォーカスレンズを駆動するようにレンズ制御部2にレンズ駆動の指示を送る。その後、図2の処理は終了する。なお、焦点評価値の真のピークは、焦点評価値がピークを越える前のレンズ位置とピークを越えた後のレンズ位置との間の補間演算によって求められる。   If it is determined in step S110 that the peak detection process has been completed, the process proceeds to step S111. In step S111, the AF processing unit 8 sends a lens driving instruction to the lens control unit 2 so as to drive the focus lens to the peak position that is the position of the focus lens at which the focus evaluation value reaches a peak. Thereafter, the process of FIG. 2 ends. Note that the true peak of the focus evaluation value is obtained by interpolation between the lens position before the focus evaluation value exceeds the peak and the lens position after the peak.

次に、点光源焦点検出領域設定処理について説明する。図3は、点光源焦点検出領域設定処理について示すフローチャートである。   Next, the point light source focus detection area setting process will be described. FIG. 3 is a flowchart showing the point light source focus detection region setting process.

ステップS201において、AF処理部8は、飽和判定部7の判定結果を用いて撮像データに飽和画素がある否かを判定する。ステップS201において飽和画素がないと判定された場合には、図3の処理は終了する。   In step S <b> 201, the AF processing unit 8 determines whether there is a saturated pixel in the imaging data using the determination result of the saturation determination unit 7. If it is determined in step S201 that there are no saturated pixels, the processing in FIG. 3 ends.

ステップS201において飽和画素があると判定された場合には、処理はステップS202に移行する。ステップS202において、AF処理部8は、飽和画素領域を設定する。飽和画素領域は、すべての飽和画素を含む焦点検出領域から構成される焦点検出領域群である。   If it is determined in step S201 that there is a saturated pixel, the process proceeds to step S202. In step S202, the AF processing unit 8 sets a saturated pixel region. The saturated pixel area is a focus detection area group composed of focus detection areas including all saturated pixels.

ステップS203において、AF処理部8は、飽和画素領域の内部に属性検出領域を設定し、属性検出領域毎の輝度値をAE処理部6から取得する。   In step S <b> 203, the AF processing unit 8 sets an attribute detection region inside the saturated pixel region, and acquires a luminance value for each attribute detection region from the AE processing unit 6.

ステップS204において、AF処理部8は、ある属性検出領域の輝度値が予め定められた第1輝度レベル以上であるか否かを判定する。なお、第1輝度レベルは、所定レベルに限らず、全輝度検出領域の平均値を基に算出されたレベルであっても良い。   In step S204, the AF processing unit 8 determines whether or not the luminance value of a certain attribute detection region is equal to or higher than a predetermined first luminance level. The first luminance level is not limited to a predetermined level, and may be a level calculated based on an average value of all luminance detection areas.

ステップS204において属性検出領域の輝度値が第1輝度レベル以上であると判定された場合、処理はステップS205に移行する。ステップS205において、AF処理部8は、対応する属性検出領域の輝度値が第1輝度レベルに属することを設定する。   If it is determined in step S204 that the luminance value of the attribute detection area is equal to or higher than the first luminance level, the process proceeds to step S205. In step S205, the AF processing unit 8 sets that the luminance value of the corresponding attribute detection area belongs to the first luminance level.

ステップS204において属性検出領域の輝度値が第1輝度レベル以上でないと判定された場合、処理はステップS206に移行する。ステップS206において、AF処理部8は、対応する属性検出領域の輝度値が第2輝度レベルに属することを設定する。   If it is determined in step S204 that the luminance value of the attribute detection area is not equal to or higher than the first luminance level, the process proceeds to step S206. In step S206, the AF processing unit 8 sets that the luminance value of the corresponding attribute detection area belongs to the second luminance level.

ステップS207において、AF処理部8は、飽和画素領域内の全ての属性検出領域についての輝度値の判定が終了したか否かを判定する。ステップS207において飽和画素領域内の全ての属性検出領域についての輝度値の判定が終了していないと判定された場合、処理はステップS204に戻る。この場合、飽和画素領域内の別の属性検出領域について同様の判定が行われる。   In step S207, the AF processing unit 8 determines whether or not the determination of the luminance values for all the attribute detection areas in the saturated pixel area has been completed. If it is determined in step S207 that determination of luminance values for all attribute detection areas in the saturated pixel area has not been completed, the process returns to step S204. In this case, the same determination is performed for another attribute detection region in the saturated pixel region.

ステップS207において飽和画素領域内の全ての属性検出領域についての輝度値の判定が終了したと判定された場合、処理はステップS208に移行する。ステップS208において、AF処理部8は、輝度値の分布を判定する。すなわち、AF処理部8は、第1輝度レベルの輝度値を有する複数の隣接した属性検出領域を第1輝度領域と判定し、第2輝度レベルの輝度値を有する複数の隣接した属性検出領域を第2輝度領域と判定する。   If it is determined in step S207 that determination of luminance values for all attribute detection areas in the saturated pixel area has been completed, the process proceeds to step S208. In step S208, the AF processing unit 8 determines the distribution of luminance values. That is, the AF processing unit 8 determines a plurality of adjacent attribute detection areas having a luminance value of the first luminance level as the first luminance area, and determines a plurality of adjacent attribute detection areas having the luminance value of the second luminance level. The second luminance area is determined.

ステップS209において、AF処理部8は、輝度領域毎に点光源焦点検出領域を設定する。その後、図3の処理は終了する。点光源焦点検出領域の設定において、AF処理部8は、第1輝度領域内に点光源焦点検出領域Aを設定し、第2輝度領域内に点光源焦点検出領域Bを設定する。ここで、点光源焦点検出領域Aは、第1輝度領域内の焦点検出領域であって、他の第1輝度領域内の焦点検出領域及び第2輝度領域内の焦点検出領域と重ならないように設定される。同様に、点光源焦点検出領域Bは、第2輝度領域内の焦点検出領域であって、他の第2輝度領域内の焦点検出領域及び第1輝度領域内の焦点検出領域と重ならないように設定される。   In step S209, the AF processing unit 8 sets a point light source focus detection region for each luminance region. Thereafter, the process of FIG. 3 ends. In setting the point light source focus detection region, the AF processing unit 8 sets the point light source focus detection region A in the first luminance region and sets the point light source focus detection region B in the second luminance region. Here, the point light source focus detection region A is a focus detection region in the first luminance region, and does not overlap with the focus detection region in the other first luminance region and the focus detection region in the second luminance region. Is set. Similarly, the point light source focus detection region B is a focus detection region in the second luminance region, and does not overlap with the focus detection region in the other second luminance region and the focus detection region in the first luminance region. Is set.

以上のように本実施形態では、画面内に複数の輝度レベルの異なる飽和画素の周辺の領域が存在している場合には、個々の輝度レベルを有する飽和画素を含む領域が点光源焦点検出領域に設定される。例えば、図4の例のように第1輝度レベルを有する点光源被写体Tと点光源被写体Tよりも遠距離に存在して第2輝度レベルを有する点光源被写体Sとが混在する場合、通常の焦点検出領域M1〜M9以外に、点光源被写体Sに対応した点光源焦点検出領域B(焦点検出領域M1、M4によって構成される)と点光源被写体Tに対応した点光源焦点検出領域A(焦点検出領域M5、M6、M8、M9によって構成される)とが設定される。   As described above, in the present embodiment, when there are regions around saturated pixels having different luminance levels in the screen, the region including the saturated pixels having individual luminance levels is the point light source focus detection region. Set to For example, when the point light source subject T having the first luminance level and the point light source subject S having the second luminance level are present at a longer distance than the point light source subject T as in the example of FIG. In addition to the focus detection areas M1 to M9, the point light source focus detection area B (consisting of the focus detection areas M1 and M4) corresponding to the point light source subject S and the point light source focus detection area A (focus) corresponding to the point light source subject T Detection areas M5, M6, M8, and M9).

ここで、点光源焦点検出領域Aと点光源焦点検出領域Bとを1つの点光源焦点検出領域としてしまうと、焦点評価値は、図5のように無限側と至近側の両方でピークを示す。これは、誤測距と測距精度低下の原因になる。   Here, if the point light source focus detection area A and the point light source focus detection area B are set as one point light source focus detection area, the focus evaluation value shows peaks on both the infinite side and the near side as shown in FIG. . This causes erroneous distance measurement and a decrease in distance measurement accuracy.

一方、本実施形態では、図6のようにそれぞれの距離に相当するフォーカスレンズ位置において焦点評価値がピークを示すため、的確に目的の被写体に合焦させることができる。さらに、互いに異なる高輝度被写体の影響を受けにくく、輝度に応じて焦点評価値の補正演算の程度を調整できるため、より精度の高いAF制御を行うことができる。
なお、本実施形態では、飽和画素領域はすべての飽和画素を含む焦点検出領域から構成される焦点検出領域群としているが、個々の飽和画素の集合(または飽和画素を含む小領域の集合)を飽和画素領域としても良い。この場合は、飽和画素領域の内部に属性検出領域を設けるのではなく、飽和画素領域の周辺の領域を結合して属性検出領域を設けても良い。この時、属性検出領域は飽和画素領域を含まず、飽和画素領域を除いた輝度成分にて輝度領域が設定される。
On the other hand, in the present embodiment, as shown in FIG. 6, since the focus evaluation value shows a peak at the focus lens position corresponding to each distance, the target object can be accurately focused. Furthermore, since it is difficult to be influenced by different high-brightness subjects and the degree of focus evaluation value correction calculation can be adjusted according to the luminance, it is possible to perform AF control with higher accuracy.
In this embodiment, the saturated pixel area is a focus detection area group composed of focus detection areas including all saturated pixels, but a set of individual saturated pixels (or a set of small areas including saturated pixels) is used. A saturated pixel region may be used. In this case, instead of providing the attribute detection area inside the saturated pixel area, the attribute detection area may be provided by combining areas around the saturated pixel area. At this time, the attribute detection area does not include the saturated pixel area, and the luminance area is set with a luminance component excluding the saturated pixel area.

[変形例]
以下、本実施形態の変形例を説明する。前述の例では点光源焦点検出領域設定において、属性情報として輝度値を使用しているが、撮像信号の色に関する値を使用しても良い。色に関する値とは、例えば色度値である。
[Modification]
Hereinafter, modifications of the present embodiment will be described. In the above example, the luminance value is used as the attribute information in the point light source focus detection region setting, but a value related to the color of the imaging signal may be used. The value relating to the color is, for example, a chromaticity value.

図7は、属性情報として色度値を使用する場合の点光源焦点検出領域設定処理を示すフローチャートである。以下、図3と異なる点を説明する。   FIG. 7 is a flowchart showing a point light source focus detection region setting process when a chromaticity value is used as attribute information. Hereinafter, differences from FIG. 3 will be described.

ステップS301からステップS302の処理は図3のステップS101からステップS102の処理と同様である。ステップS303において、AF処理部8は、飽和画素領域から属性情報としての色度値を取得する。なお、輝度値の場合とは異なり、色度値は、複数の画素からなる属性検出領域毎に取得されても良いし、個々の画素毎に取得されても良い。   The processing from step S301 to step S302 is the same as the processing from step S101 to step S102 in FIG. In step S303, the AF processing unit 8 acquires a chromaticity value as attribute information from the saturated pixel region. Unlike the case of the luminance value, the chromaticity value may be acquired for each attribute detection area including a plurality of pixels, or may be acquired for each individual pixel.

ステップS304からS309の処理は、判定の基準となる属性情報が輝度値から色度値に変更される以外はステップS104からステップS109の処理と同様である。   The processing from step S304 to S309 is the same as the processing from step S104 to step S109, except that the attribute information serving as a criterion for determination is changed from a luminance value to a chromaticity value.

このように、輝度値以外の属性情報で点光源焦点検出領域は、設定され得る。さらに、輝度値と色度値の両方を使用して点光源焦点検出領域が設定されても良い。また、属性情報として飽和画素領域だけの色度値を用いて点光源焦点検出領域を設定しても良い。この場合は、異なる色の点光源の集合に対して異なる焦点検出領域が設定される。   In this way, the point light source focus detection region can be set with attribute information other than the luminance value. Furthermore, the point light source focus detection area may be set using both the luminance value and the chromaticity value. Further, the point light source focus detection region may be set using the chromaticity value of only the saturated pixel region as the attribute information. In this case, different focus detection areas are set for sets of point light sources of different colors.

また、前述の例では輝度値又は色度値を2種類に分類しているが、分類の数は2種類に限るものではない。   In the above example, the luminance value or chromaticity value is classified into two types, but the number of classifications is not limited to two.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. Further, in the description of each operation flowchart described above, the operation is described using “first”, “next”, and the like for convenience, but this does not mean that it is essential to perform the operations in this order. Absent.

また、上述した実施形態による各処理は、コンピュータとしてのCPU等に実行させることができるプログラムとして記憶させておくこともできる。この他、メモリカード、磁気ディスク、光ディスク、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、CPU等は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。   Moreover, each process by embodiment mentioned above can also be memorize | stored as a program which CPU etc. can perform as a computer. In addition, the data can be stored and distributed in a storage medium of an external storage device such as a memory card, a magnetic disk, an optical disk, or a semiconductor memory. The CPU or the like can execute the above-described processing by reading a program stored in the storage medium of the external storage device and controlling the operation by the read program.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

1 撮影レンズ、2 レンズ制御部、3 撮像素子、4 撮像制御部、5 撮像信号処理部、6 AE処理部、7 飽和判定部、8 AF処理部、9 画像処理部、10 メモリ、11 表示部、12 操作部、13 CPU、81 飽和画素領域設定部、82 属性検出領域設定部、83 焦点検出領域設定部、84 抽出部、85 焦点検出部   DESCRIPTION OF SYMBOLS 1 Shooting lens, 2 Lens control part, 3 Imaging device, 4 Imaging control part, 5 Imaging signal processing part, 6 AE processing part, 7 Saturation determination part, 8 AF processing part, 9 Image processing part, 10 Memory, 11 Display part , 12 operation unit, 13 CPU, 81 saturated pixel region setting unit, 82 attribute detection region setting unit, 83 focus detection region setting unit, 84 extraction unit, 85 focus detection unit

Claims (6)

被写体像を撮像する撮像素子の撮像信号に基づいて合焦位置を算出する焦点検出装置において、
前記撮像信号が飽和しているか否かを判定する飽和判定部と、
前記飽和判定部により飽和していると判定された撮像信号が存在している飽和画素領域を設定する飽和画素領域設定部と、
前記飽和画素領域の内部に属性検出領域を設定する属性検出領域設定部と、
前記属性検出領域に含まれる前記撮像信号を属性情報に応じて分類し、同一の属性情報を有する前記撮像信号の位置に基づいて前記飽和画素領域を含む複数の焦点検出領域を設定する焦点検出領域設定部と、
前記複数の焦点検出領域のそれぞれで得られた前記撮像信号から所定の信号成分を抽出する抽出部と、
前記抽出された信号成分に基づいて焦点検出を行う焦点検出部と、
を具備することを特徴とする焦点検出装置。
In a focus detection device that calculates a focus position based on an imaging signal of an image sensor that captures a subject image,
A saturation determination unit that determines whether or not the imaging signal is saturated;
A saturated pixel region setting unit that sets a saturated pixel region in which an imaging signal determined to be saturated by the saturation determination unit exists;
An attribute detection area setting unit for setting an attribute detection area inside the saturated pixel area;
A focus detection area that classifies the imaging signals included in the attribute detection area according to attribute information and sets a plurality of focus detection areas including the saturated pixel area based on the position of the imaging signal having the same attribute information A setting section;
An extraction unit that extracts a predetermined signal component from the imaging signal obtained in each of the plurality of focus detection regions;
A focus detection unit that performs focus detection based on the extracted signal components;
A focus detection apparatus comprising:
前記焦点検出領域設定部は、前記属性検出領域に含まれる前記撮像信号の属性情報としての輝度値を複数の輝度範囲に分類し、同一の輝度範囲に含まれる輝度値が存在する位置に前記焦点検出領域を設定することを特徴とする請求項1に記載の焦点検出装置。   The focus detection area setting unit classifies luminance values as attribute information of the imaging signal included in the attribute detection area into a plurality of luminance ranges, and the focus is located at a position where luminance values included in the same luminance range exist. The focus detection apparatus according to claim 1, wherein a detection area is set. 前記焦点検出領域設定部は、前記属性検出領域に含まれる前記撮像信号の属性情報としての色を示す値を複数の色範囲に分類し、同一の色範囲に含まれる色を示す値が存在する位置に前記焦点検出領域を設定することを特徴とする請求項1に記載の焦点検出装置。   The focus detection area setting unit classifies values indicating colors as attribute information of the imaging signal included in the attribute detection area into a plurality of color ranges, and values indicating colors included in the same color range exist. The focus detection apparatus according to claim 1, wherein the focus detection area is set at a position. 前記焦点検出領域設定部は、前記飽和していると判定された撮像信号の属性情報としての色を示す値を複数の色範囲に分類し、同一の色範囲に含まれる色を示す値が存在する位置に前記焦点検出領域を設定することを特徴とする請求項1に記載の焦点検出装置。   The focus detection area setting unit classifies values indicating colors as attribute information of the imaging signal determined to be saturated into a plurality of color ranges, and there are values indicating colors included in the same color range The focus detection apparatus according to claim 1, wherein the focus detection area is set at a position where the focus detection is performed. 前記焦点検出領域設定部は、所定の大きさよりも小さい領域を前記焦点検出領域として設定しないことを特徴とする請求項1に記載の焦点検出装置。   The focus detection apparatus according to claim 1, wherein the focus detection area setting unit does not set an area smaller than a predetermined size as the focus detection area. 被写体像を撮像する撮像素子の撮像信号に基づいて合焦位置を算出する焦点検出方法において、
前記撮像信号が飽和しているか否かを判定することと、
前記飽和していると判定された撮像信号が存在している飽和画素領域を設定することと、
前記飽和画素領域の内部に属性検出領域を設定することと、
前記属性検出領域に含まれる前記撮像信号を属性情報に応じて分類し、同一の属性情報を有する前記撮像信号の位置に基づいて前記飽和画素領域を含む複数の焦点検出領域を設定することと、
前記複数の焦点検出領域のそれぞれで得られた前記撮像信号から所定の信号成分を抽出することと、
前記抽出された信号成分に基づいて焦点検出を行うことと、
を具備することを特徴とする焦点検出方法。
In a focus detection method for calculating a focus position based on an image pickup signal of an image pickup element that picks up a subject image,
Determining whether the imaging signal is saturated;
Setting a saturated pixel region in which an imaging signal determined to be saturated exists;
Setting an attribute detection area inside the saturated pixel area;
Classifying the imaging signals included in the attribute detection area according to attribute information, and setting a plurality of focus detection areas including the saturated pixel area based on the position of the imaging signal having the same attribute information;
Extracting a predetermined signal component from the imaging signal obtained in each of the plurality of focus detection regions;
Performing focus detection based on the extracted signal components;
A focus detection method comprising:
JP2014264596A 2014-12-26 2014-12-26 Focus detection apparatus, focus detection method, and focus detection program Expired - Fee Related JP6421032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014264596A JP6421032B2 (en) 2014-12-26 2014-12-26 Focus detection apparatus, focus detection method, and focus detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014264596A JP6421032B2 (en) 2014-12-26 2014-12-26 Focus detection apparatus, focus detection method, and focus detection program

Publications (2)

Publication Number Publication Date
JP2016126046A true JP2016126046A (en) 2016-07-11
JP6421032B2 JP6421032B2 (en) 2018-11-07

Family

ID=56359319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014264596A Expired - Fee Related JP6421032B2 (en) 2014-12-26 2014-12-26 Focus detection apparatus, focus detection method, and focus detection program

Country Status (1)

Country Link
JP (1) JP6421032B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107643578A (en) * 2016-07-21 2018-01-30 中兴通讯股份有限公司 A kind of Atomatic focusing method, device and mobile terminal

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072332A (en) * 2004-08-05 2006-03-16 Matsushita Electric Ind Co Ltd Imaging apparatus
JP2007065048A (en) * 2005-08-29 2007-03-15 Fujifilm Holdings Corp Photographing device and focus control method
JP2007171807A (en) * 2005-12-26 2007-07-05 Nikon Corp Focus detection device and camera
JP2007286474A (en) * 2006-04-19 2007-11-01 Nikon Corp Focus detector and photographing device
JP2011147076A (en) * 2010-01-18 2011-07-28 Nikon Corp Image processing apparatus, image capturing apparatus and program
WO2011114547A1 (en) * 2010-03-17 2011-09-22 日立オートモティブシステムズ株式会社 Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
US20140105454A1 (en) * 2012-10-15 2014-04-17 Olympus Imaging Corp. Tracking apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072332A (en) * 2004-08-05 2006-03-16 Matsushita Electric Ind Co Ltd Imaging apparatus
JP2007065048A (en) * 2005-08-29 2007-03-15 Fujifilm Holdings Corp Photographing device and focus control method
JP2007171807A (en) * 2005-12-26 2007-07-05 Nikon Corp Focus detection device and camera
JP2007286474A (en) * 2006-04-19 2007-11-01 Nikon Corp Focus detector and photographing device
JP2011147076A (en) * 2010-01-18 2011-07-28 Nikon Corp Image processing apparatus, image capturing apparatus and program
WO2011114547A1 (en) * 2010-03-17 2011-09-22 日立オートモティブシステムズ株式会社 Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
US20140105454A1 (en) * 2012-10-15 2014-04-17 Olympus Imaging Corp. Tracking apparatus
JP2014081420A (en) * 2012-10-15 2014-05-08 Olympus Imaging Corp Tracking device and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107643578A (en) * 2016-07-21 2018-01-30 中兴通讯股份有限公司 A kind of Atomatic focusing method, device and mobile terminal

Also Published As

Publication number Publication date
JP6421032B2 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
US9489747B2 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
US9451150B2 (en) Image capturing apparatus comprising focus detection, and method for controlling the same
JP5230376B2 (en) Imaging apparatus and imaging method
US10791288B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US20150009352A1 (en) Imaging apparatus and method for controlling the same
JP6518452B2 (en) Imaging apparatus and imaging method
US10530986B2 (en) Image capturing apparatus, image capturing method, and storage medium
US10158811B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US9706131B2 (en) Image combining apparatus for generating a combined image from a plurality of images, image combining system, and image combining method
JP2010054730A (en) Focusing position detecting device, imaging apparatus, and focusing position detecting method
US10311327B2 (en) Image processing apparatus, method of controlling the same, and storage medium
WO2015005249A1 (en) Imaging device, camera system, and image processing method
US10129449B2 (en) Flash band, determination device for detecting flash band, method of controlling the same, storage medium, and image pickup apparatus
US20120033127A1 (en) Image capture apparatus
JP6421032B2 (en) Focus detection apparatus, focus detection method, and focus detection program
US11985420B2 (en) Image processing device, image processing method, program, and imaging device
JP5395503B2 (en) Display control apparatus and operation control method thereof
US10565712B2 (en) Image processing apparatus and method for controlling the same
US9832364B2 (en) Automatic focal adjustment apparatus and method of controlling automatic focal adjustment apparatus, and image capture apparatus
JP5030883B2 (en) Digital still camera and control method thereof
US9692981B2 (en) Image pickup apparatus with emission unit, control method therefor, and storage medium storing control program therefor
US9525815B2 (en) Imaging apparatus, method for controlling the same, and recording medium to control light emission
JP2009124421A (en) Imaging apparatus, control method of imaging apparatus, and control program of imaging apparatus
JP6011146B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6303395B2 (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181015

R151 Written notification of patent or utility model registration

Ref document number: 6421032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees