JP6071574B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP6071574B2 JP6071574B2 JP2013007566A JP2013007566A JP6071574B2 JP 6071574 B2 JP6071574 B2 JP 6071574B2 JP 2013007566 A JP2013007566 A JP 2013007566A JP 2013007566 A JP2013007566 A JP 2013007566A JP 6071574 B2 JP6071574 B2 JP 6071574B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- pixel
- ranging
- distance measuring
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Description
本発明は、撮像素子の一部を位相差方式の焦点検出用素子として用いる撮像素子を有する撮像装置に関する。 The present invention relates to an image pickup apparatus having an image pickup element in which a part of the image pickup element is used as a phase difference type focus detection element.
撮像素子の一部を位相差方式の焦点検出用素子に兼用する撮像素子は従来から知られている(例えば、特許文献1)。特許文献1に開示の撮像装置は、図14に示すように、撮像素子の撮像面に、複数の位相差AFエリア101a,101b,101c・・・を配置している。また、焦点検出エリア103が決まると、焦点検出エリア103内において重複面積が最大となる位相差AFエリア101hを位相差AF焦点検出領域として決定し、この位相差AFエリア101hによって検出されたデフォーカス量を用いて、焦点調節を行う。
2. Description of the Related Art Conventionally, an image sensor that also uses a part of the image sensor as a phase difference type focus detection element is known (for example, Patent Document 1). As shown in FIG. 14, the imaging apparatus disclosed in
前述したように、特許文献1に記載の撮像装置では、被写体の検出領域と測距エリアの重複する面積の大きさのみで位相差AFの測距エリアを選択している。しかし、単に重複面積の大小だけで選択すると、低コントラストの測距エリアや被写体の輪郭成分の無い測距エリアを選択してしまう場合があり、この場合には、所望のピント位置に合焦しないおそれがある。
As described above, in the imaging apparatus described in
本発明は、このような事情を鑑みてなされたものであり、注目する被写体に最適な位相差AFの測距エリアを選択し、精度よく合焦点を検出することが可能な撮像装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and provides an imaging apparatus capable of selecting a focus detection area of phase difference AF that is most suitable for a subject of interest and accurately detecting a focal point. For the purpose.
上記目的を達成するため第1の発明に係る撮像装置は、撮像光学系により結像された光学像を電気信号に変換する光電変換部を有する複数の画素を備え、上記複数の画素は、上記画素へ入射する光束の入射方向を制限するよう構成された焦点検出用画素と、上記画素へ入射する光束が上記焦点検出用画素よりも制限されないように構成された撮像用画素と、を含み、上記複数の画素が2次元的に配列された撮像素子を有する撮像装置において、上記撮像素子の出力する画素信号に基づいて注目被写体の位置を検出する注目被写体検出手段と、上記注目被写体の位置に基づいて、上記焦点検出用画素の位置に対応する複数の測距点を設定する測距点設定手段と、上記複数の測距点に対応する上記焦点検出用画素の出力に基づいて複数のデフォーカス量を演算する演算手段と、上記設定された測距点の優先順位を決定する優先順位決定手段と、上記設定された測距点に対応して検出されるデフォーカス量の信頼性を判別する信頼性判定手段と、上記優先順位決定手段の出力と上記信頼性判定手段の出力に基づいて上記設定された複数の測距点のうちから測距点を選択する選択手段と、を有し、上記注目被写体検出手段は、顔に相当する領域を検出し、上記測距点設定手段は、上記顔に相当する領域の内部の特定の領域について、顔に相当する領域の他の領域に比較して測距点をより密に配置する。 In order to achieve the above object, an imaging apparatus according to a first aspect of the present invention includes a plurality of pixels having a photoelectric conversion unit that converts an optical image formed by an imaging optical system into an electrical signal, A focus detection pixel configured to limit an incident direction of a light beam incident on the pixel, and an imaging pixel configured to limit a light beam incident on the pixel to be less than the focus detection pixel, In the imaging apparatus having the imaging device in which the plurality of pixels are two-dimensionally arranged, attention subject detection means for detecting the position of the subject of interest based on the pixel signal output from the imaging device, and the position of the subject of interest And a plurality of distance measurement point setting means for setting a plurality of distance measurement points corresponding to the positions of the focus detection pixels, and a plurality of default values based on outputs of the focus detection pixels corresponding to the plurality of distance measurement points. A calculation means for calculating a focus amount; a priority order determination means for determining the priority order of the set distance measuring points; and determining the reliability of the defocus amount detected corresponding to the set distance measuring points. Reliability determination means, and selection means for selecting a distance measurement point from the plurality of distance measurement points set based on the output of the priority determination means and the output of the reliability determination means The target subject detection means detects an area corresponding to the face, and the ranging point setting means compares a specific area inside the area corresponding to the face with another area corresponding to the face. Thus, the distance measuring points are arranged more densely .
第2の発明に係る撮像装置は、上記第1の発明において、上記優先順位決定手段は、上記複数の測距点のうち上記注目被写体の特定の位置により近い測距点の優先順位を高くする。 In the imaging device according to a second aspect based on the first aspect, the priority order determining means increases the priority order of the distance measuring points closer to the specific position of the subject of interest among the plurality of distance measuring points. .
第3の発明に係る撮像装置は、上記第1または第2の発明において、上記信頼性判定手段は、上記デフォーカス量の信頼性を示す信頼性評価値を出力し、上記選択手段は、上記優先順位決定手段の決定する複数の測距点の優先順位に、上記信頼性判定手段の出力する信頼性評価値に重み付けした結果に基づいて測距点を選択する。 In the imaging apparatus according to a third aspect, in the first or second aspect, the reliability determination means outputs a reliability evaluation value indicating the reliability of the defocus amount, and the selection means A distance measuring point is selected based on a result obtained by weighting the priority of the plurality of distance measuring points determined by the priority determining means to the reliability evaluation value output from the reliability determining means.
第4の発明に係る撮像装置は、上記第1乃至第3の発明のいずれかにおいて、上記注目被写体検出手段は、顔の器官に相当する領域を検出し、上記測距点設定手段は、上記器官に相当する領域について、器官に相当しない領域に比較して測距点をより密に配置する。 In the imaging device according to a fourth invention , in any one of the first to third inventions , the subject-of-interest detection means detects a region corresponding to a facial organ, and the ranging point setting means Ranging points are arranged more densely in the area corresponding to the organ than in the area not corresponding to the organ.
本発明によれば、注目する被写体に最適な位相差AFの測距エリアを選択し、精度よく合焦点を検出することが可能な撮像装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can select the ranging area of phase difference AF optimal for the to-be-focused object, and can detect a focal point accurately can be provided.
以下、図面に従って本発明を適用したデジタルカメラ(以下、「カメラ」と略記する)を用いて好ましい実施形態について説明する。図1は、本発明の一実施形態に係るカメラの主として電気的構成を示すブロック図である。本実施形態に係るカメラは、交換レンズ鏡筒10とカメラ本体20から構成されている。本実施形態においては、交換レンズ鏡筒10とカメラ本体20を別体に構成しているが、一般的なコンパクトカメラのように一体に構成しても勿論かまわない。
A preferred embodiment will be described below using a digital camera to which the present invention is applied (hereinafter abbreviated as “camera”) according to the drawings. FIG. 1 is a block diagram mainly showing an electrical configuration of a camera according to an embodiment of the present invention. The camera according to this embodiment includes an
交換レンズ鏡筒10内には、撮影レンズ11が配置されている。撮影レンズ11は、被写体Sの光学像を形成するための複数の光学レンズから構成される。また、交換レンズ鏡筒10内には、アクチュエータ12およびレンズ制御部13が設けられている。レンズ制御部13は、カメラ本体20内のAF演算部23から、デフォーカス量を受信し、これらの情報に基づいて、アクチュエータ12の制御を行う。アクチュエータ12は、撮影レンズ11を光軸方向に移動し、ピント合わせを行う。
A
カメラ本体20内には、撮像素子21、画像処理部22、AF演算部23、記録部24が設けられている。撮像素子21は、撮影レンズ11の光軸上であって、被写体像の結像位置付近に配置されている。撮像素子21は、被写体像(光学像)を電気信号に変換する光電変換部を有する複数の画素を備えている。複数の画素は、画素へ入射する光束の入射方向を制限するよう構成された位相差AF検出用画素(焦点検出用画素とも称す)と、画素へ入射する光束が位相差AF検出用画素よりも制限されないように構成された撮像用画素を含み、複数の画素は2次元的に配列されている。撮像素子21の位相差AF検出用画素および撮像用画素の配置については、図3および図4を用いて後述する。
In the
撮像素子21は、位相差AF検出用画素と撮像用画素から出力される画素値を画像処理部22およびAF演算部23に出力する。画像処理部22は、画素値の内、撮像用画素からの画素値を入力し、ライブビュー表示用画像および記録用画像のための画像処理を行う。また、画像処理部22は、記録用に処理された画像データを記録部24に出力する。記録部24は、電気的書き換え可能な不揮発性メモリを有し、記録用の画像データを入力し、記録する。また、画像処理部22は、画素値を用いて、被写体の顔を検出し、この顔の中心座標位置を出力し、また顔の中の目等の器官を検出し、この器官の特定座標位置を出力する。
The
AF演算部23は、画素値の内、位相差AF検出用画素からの画素値を入力し、位相差AFに基づくAF演算を行う。AF演算にあたって、画像処理部22から取得した中心座標位置、特定座標位置に基づいて、位相差AF検出用画素の位置に対応する複数の測距点を設定し、この設定した測距点のそれぞれについて、デフォーカス量を演算する。そして、設定された測距点の優先順位を決定し、さらに測距点のデフォーカス量の信頼性を判別し、優先順位と信頼性に基づいて、複数の測距点の中から、撮影レンズ11のピント合わせのための測距点を選択する。
The
次に、図2を用いてAF演算部23の詳細について説明する。画素値21aは、撮像素子21から出力された画素値であり、SDRAM(不図示)等に一時記憶される。
Next, details of the
また、画像処理部22内には、顔検出部22aが設けられている。この顔検出部22aは、撮像素子21からの撮像用画素の画素値に基づいて、被写体像の中に顔があるか否かを判定し、顔が含まれている場合には、その位置(中心座標位置)や大きさ等を検出する。さらに、右目、左目、鼻等の器官の検出を行い、その器官の特定座標位置も検出する。顔検出部22aは、撮像素子の出力する画素信号に基づいて注目被写体の位置を検出する注目被写体検出手段として機能する。顔検出部22aで検出された中心座標や特定座標位置は、AF演算部23内のAF測距点設定部33に出力する。
Further, a
AF測距点設定部33は、顔検出部22aで検出された中心座標位置や特定座標位置に基づいて、これに対応する複数の測距点を設定する。後述するように、撮像素子21には複数の測距点の設定が可能であり、この複数の測距点から、中心座標位置や特定座標位置の近傍にある測距点を設定し、設定した各測距エリアの中心座標を、測距エリア優先順位設定部35および信頼性評価部36に出力する。このAF測距点設定部33は、注目被写体の位置について、焦点検出用画素の位置に対応する複数の測距点を設定する測距点設定手段として機能する。測距エリアの設定については、図8および図9を用いて後述する。
The AF distance measurement
位相差画素生成部34は、画素値21aの内、位相差AF検出用画素の画像データを入力し、位相差AF検出用の画素列を生成し、デフォーカス量演算部/信頼性評価部37に出力する。
The phase difference
デフォーカス量演算部/信頼性評価部37は、位相差AF検出用の画素列の画像データを入力し、位相差AF法によってデフォーカス量を演算し、各測距エリアのデフォーカス量を測距点決定部38に出力する。また、位相差AF検出用の画素列の画像データを用いて各測距エリアのコントラスト値Aを算出し、測距点決定部38に出力する。また、位相差AF演算の際の値より、各測距エリアの信頼性評価値(相関値傾きFs)も求め、測距点決定部38に出力する。デフォーカス量演算部/信頼性評価部37は、複数の測距点に対応する上記焦点検出用画素の出力に基づいて複数のデフォーカス量を演算する演算手段として機能する。また、デフォーカス量演算部/信頼性評価部37は、設定された測距点に対応して検出されるデフォーカス量の信頼性を判別する信頼性判定手段としても機能する。位相差AFによるデフォーカス量の演算および信頼性の判定については、図5ないし図7を用いて後述する。
The defocus amount calculation unit /
測距エリア優先順位設定部35は、AF測距点設定部33からの各測距エリアの中心座標を入力し、測距エリアの優先順位を決定し、各測距エリア優先順位リストを測距点決定部38に出力する。測距エリアの優先順位の決定の仕方については、図10を用いて後述する。この測距エリア優先順位設定部35は、設定された測距点の優先順位を決定する優先順位決定手段として機能する。
The ranging area priority
信頼性評価部36は、画素値21aから撮像用画素からの画素値を入力し、また、AF測距点設定部33から各測距エリアの中心座標を入力する。これらの情報を用いて、コントラスト値演算を行い、測距点決定部38に各測距エリアのコントラスト値Bを出力する。すなわち、顔検出部22aによって検出された顔や器官の座標とその近傍の測距エリアについて、撮像用画素からの画素値を用いてコントラスト値を演算する。デフォーカス量演算部/信頼性評価部37においてもコントラスト値Aを演算しているが、コントラストBは撮像用画素からの画素値を用いて演算するため、演算時間はかかるが精度のより高いコントラスト値を求めることができる。信頼性評価部36は、設定された測距点に対応して検出されるデフォーカス量の信頼性を判別する信頼性判定手段として機能する。
The
測距点決定部38は、前述したように、各測距エリア優先順位リスト、各測距エリアコントラスト値B、各測距エリアデフォーカス量、各測距エリアコントラスト値A、各測距エリア相関値傾きFsを入力し、測距点の選択を行う。測距点の選択については、図11を用いて説明する。測距点決定部38は、選択した測距点のデフォーカス量を出力する。測距点決定部38は、優先順位決定手段の出力と上記信頼性判定手段の出力に基づいて上記設定された複数の測距点のうちから測距点を選択する選択手段として機能する。なお、測距エリアの選択にあたっては、従来技術のように、測距エリアにかかる被写体の面積に、コントラスト値や相関値傾きFs等の信頼性評価値を重み付けるようにしてもよい。
As described above, the ranging
次に、撮像素子21について、図3および図4を用いて説明する。撮像素子21は、図3に示す例では、列方向X1−X7、行方向Y1−Y7に分割され、これらの49エリアの1つ1つが、測距エリアになる。符号21bで示すエリアは、(X1、Y1)で表す。各エリアの各測距エリアの中心点21cを測距エリアの中心座標とする。
Next, the
図4は、1つの測距エリアの画素の配置例を示す。図3に示した各測距エリアの内部は、図4に示すように、位相差AF検出用画素と撮像用画素から構成されている。 FIG. 4 shows an arrangement example of pixels in one distance measurement area. As shown in FIG. 4, the interior of each ranging area shown in FIG. 3 is composed of phase difference AF detection pixels and imaging pixels.
図4に示す測距エリアの中に、左開口位相差AF検出用画素21d、撮像用画素21e、右開口位相差AF用画素21fが交互に並んでいる。すなわち、一番左側の列では、L11、L21、L31、L41が左開口位相差AF用画素21dであり、R11、R21、R31、R41が右開口位相差AF画素21fであり、これらの間に撮像用画素21eが並んでいる。そして、一番左側から2列目は、撮像用画素21eのみである。以後、位相差AF検出用画素を含む列と、撮像用画素のみからなる列が交互に繰り返して配置される。
In the distance measurement area shown in FIG. 4, the left aperture phase difference
なお、本実施形態においては、位相差AF検出用画素を含む列と撮像用画素のみからなる列が1列おきであったが、位相差AF検出用画素を含む列と位相差AF検出用画素を含む列の間に2列以上の撮像用画素のみからなる列を配置するようにしても勿論かまわない。 In the present embodiment, the column including the phase difference AF detection pixels and the column including only the imaging pixels are every other column. However, the column including the phase difference AF detection pixels and the phase difference AF detection pixels. Of course, it is possible to arrange a column composed of only two or more imaging pixels between the columns including.
位相差画素生成部34(図2参照)によって生成されるAF画素列は、各画素列毎に、左開口AF検出用画素からの画素値の平均値、または右開口AF検出用画素からの画素値の平均値を算出する。すなわち、以下のような演算によって生成される。 The AF pixel column generated by the phase difference pixel generation unit 34 (see FIG. 2) is an average value of pixel values from the left aperture AF detection pixel or a pixel from the right aperture AF detection pixel for each pixel column. Calculate the average value. That is, it is generated by the following calculation.
左開口AF検出用画素列:
L1=(L11+L21+L31+L41)/4
L2=(L12+L22+L32+L42)/4
L3=(L13+L23+L33+L43)/4
・・・
Ln=(L1(n)+L2(n)+L3(n)+L4(n))/4
Left aperture AF detection pixel array:
L1 = (L11 + L21 + L31 + L41) / 4
L2 = (L12 + L22 + L32 + L42) / 4
L3 = (L13 + L23 + L33 + L43) / 4
...
Ln = (L1 (n) + L2 (n) + L3 (n) + L4 (n)) / 4
右開口AF検出用画素列:
R1=(R11+R21+R31+R41)/4
R2=(R12+R22+R32+R42)/4
R3=(R13+R23+R33+R43)/4
・・・
Rn=(R1(n)+R2(n)+R3(n)+R4(n))/4
Pixel array for right aperture AF detection:
R1 = (R11 + R21 + R31 + R41) / 4
R2 = (R12 + R22 + R32 + R42) / 4
R3 = (R13 + R23 + R33 + R43) / 4
...
Rn = (R1 (n) + R2 (n) + R3 (n) + R4 (n)) / 4
また、図4に示す例では、左上座標は(X1,Y1)であり、右下座標は(Xr,Yr)であり、測距エリア中心座標21cは(Xk,Yk)である。測距エリアの中心座標(Xc[k],Yc[k])は、顔中心座標/特定座標(Xco,Yco)から各々測距エリア毎に任意の長さ(a[k],b[k])を付加した位置(本実施形態においては、k=1〜7)となるので、
Xc[k]=Xco+a[k]、 Yc[k]=Yco+b[k]
となる。なお、kは測距エリアの番号であり、k=0、1、2、・・・・、Area_num−1 (Area_num:測距エリア数)とする。
In the example shown in FIG. 4, the upper left coordinate is (X1, Y1), the lower right coordinate is (Xr, Yr), and the distance measurement area center coordinate 21c is (Xk, Yk). The center coordinates (Xc [k], Yc [k]) of the distance measurement area are arbitrary lengths (a [k], b [k] for each distance measurement area from the face center coordinates / specific coordinates (Xco, Yco). ]) Is added (in this embodiment, k = 1 to 7),
Xc [k] = Xco + a [k], Yc [k] = Yco + b [k]
It becomes. Note that k is a distance measurement area number, and k = 0, 1, 2,..., Area_num−1 (Area_num: number of distance measurement areas).
デフォーカス量演算部/信頼性評価部37は、測距エリアの中心(Xc[k],Yc[k])から(c[k],d[k])(c[k]、d[k]は、各エリアごとに予め決めた数値、相関演算のx、y方向範囲)加減算し、左上座標(X1[k],Y1[k])=(Xc[k]−c[k],Yc[k]−d[k])、右下座標(Xr[k],Yr[k])=(Xc[k]+c[k],Yc[k]+d[k])を定義し、この範囲内において、図5ないし図7を用いて説明する位相差AFに基づくデフォーカス量を求める演算を行う。
The defocus amount calculation unit /
図6は、位相差AFの測距原理を示す図である。撮影レンズ11の光束中に右開口Rと左開口Lを設け、撮像素子21上で右開口Rのみの光束に基づく画素出力に相当する像ORと、左開口Lのみの光束に基づく画素出力に相当する像OLを比較すると、ピントが合っていない場合には、両像OR、OLはシフト量ZR分だけずれている。また、デフォーカス量dだけ離れた合焦位置では、両像INは一致している。したがって、シフト量ZRを求め、シフト量ZRに基づいてデフォーカス量dを求め、デフォーカス量dに基づいて撮影レンズ11を合焦位置に移動させればよい。なお、図6中の符号Gは、左右開口の重心間の距離を示し、Fは、撮像面から瞳までの距離を示す。
FIG. 6 is a diagram illustrating the principle of distance measurement for phase difference AF. A right aperture R and a left aperture L are provided in the luminous flux of the
図5において、(a)(b)は、左開口位相差AF検出用画素列L1〜L(n)の配列位置と対応する画素値(画素エッジ成分)を示す(図6の像OLに相当する)。また(c)(d)は、右開口位相差AF検出用画素列R1〜R(n)の配列位置と対応する画素値(画素エッジ成分)を示す(図6の像ORに相当する)。これから、左右開口の画素列に投影された被写体像の相関を求める。被写体像の形状が最も類似している位相差AF検出用画素位置の差がシフト量(視差)ZRとなる。 5A and 5B show pixel values (pixel edge components) corresponding to the arrangement positions of the pixel arrays L1 to L (n) for left aperture phase difference AF detection (corresponding to the image OL in FIG. 6). To do). Further, (c) and (d) show pixel values (pixel edge components) corresponding to the arrangement positions of the pixel arrays R1 to R (n) for right aperture phase difference AF detection (corresponding to the image OR in FIG. 6). From this, the correlation of the subject image projected on the pixel array of the left and right openings is obtained. The difference in phase difference AF detection pixel position with the most similar object image shape is the shift amount (parallax) ZR.
シフト量は、例えば、左開口の像の画素列に対応するウインドウを固定し、右開口の像の画素列に対応するウインドウを1画素ずつずらし、このときのウインドウ内の左開口位相差AF検出用画素値と右開口位相差AF検出用画素の差分の累積値から評価値Fmを求める。この評価値Fmが最小値となるときのずらし量がシフト量ZRである。図7は、評価値Fmが最小値となる付近における位相差AF検出用画素の位置とFmを示すグラフである。このグラフで位相差AF検出用画素の位置がminにおいて評価値Fmは最小となっている。ここで、評価値Fmは離散的なデータであるので、最小値近傍の複数の評価値Fmを用いて補間処理を行い、真の最小値を求めてシフト量ZRを算出する。 For example, the window corresponding to the pixel column of the image of the left aperture is fixed, and the window corresponding to the pixel column of the image of the right aperture is shifted pixel by pixel, and the left aperture phase difference AF detection in the window at this time is detected. The evaluation value Fm is obtained from the cumulative value of the difference between the pixel value for use and the right aperture phase difference AF detection pixel. The shift amount when the evaluation value Fm becomes the minimum value is the shift amount ZR. FIG. 7 is a graph showing the position and Fm of the phase difference AF detection pixel in the vicinity where the evaluation value Fm becomes the minimum value. In this graph, the evaluation value Fm is minimum when the position of the phase difference AF detection pixel is min. Here, since the evaluation value Fm is discrete data, interpolation processing is performed using a plurality of evaluation values Fm in the vicinity of the minimum value, the true minimum value is obtained, and the shift amount ZR is calculated.
シフト量ZRを求めると、シフト量ZRからデフォーカス量dを下記式により演算できる。
d=F*ZR/(G−ZR)
ここで、d:デフォーカス量
F:撮像素子から瞳までの距離
ZR:シフト量
G:左右開口の重心間の距離
When the shift amount ZR is obtained, the defocus amount d can be calculated from the shift amount ZR by the following equation.
d = F * ZR / (G-ZR)
Here, d: Defocus amount F: Distance from the image sensor to the pupil ZR: Shift amount G: Distance between the centers of gravity of the left and right apertures
デフォーカス量演算部/信頼性評価部37は、位相差AFの信頼値として、評価値Fmの相関値傾きFsを使用する。すなわち、図7に示す例において、評価値Fmの最小値(FMIN)とこの最小値の前後の2個のFmのうちで大きい方の評価値FMを通る直線の傾きFsを、信頼性を表す評価値として演算し、出力する。
The defocus amount calculation unit /
次に、顔検出部22aによって検出された顔と、AF測距点設定部33によって設定される測距エリアの関係について、図8および図9を用いて説明する。図8は、各測距エリアがオーバラップしないように配置した例である。図8において、撮像素子21の測距エリアのうち、顔検出部22aによって検出された顔Faの顔中心Fc(中心座標位置)から所定範囲にある測距エリアa1〜d4が、AF測距点設定部33によって設定される。前述したように、測距エリアa1〜d4は、互いに重複しないように設定される。なお、Feは、顔検出部22aによって検出された顔器官としての目である。
Next, the relationship between the face detected by the
図9は、各測距エリアの配置の他の例を示す。図9においては、顔の中心付近に測距エリアa1〜d4と同じ大きさのe1〜e5の測距エリアを密に配置している。測距エリアb2、b3、c2、c3の範囲は、図8と同様である。測距エリアe1は、測距エリアb2の右半部と測距エリアb3の左半分に重畳して設定されている。測距エリアe2は、測距エリアb2の下半分と測距エリアc2の上半分に重畳して設定されている。測距エリアe3は、測距エリアb2の右下の4半分と測距エリアb3の左下の4半分と測距エリアc2の右上の4半分と測距エリアc3の左上の4半分に重畳して設定されている。測距エリアe4は、測距エリアb3の下半分と測距エリアc3の上半分に重畳して設定されている。測距エリアe5は、測距エリアc2の右半分と測距エリアc3の左半分に重畳して設定されている。 FIG. 9 shows another example of the arrangement of the distance measurement areas. In FIG. 9, distance measuring areas e1 to e5 having the same size as the distance measuring areas a1 to d4 are densely arranged near the center of the face. The ranges of the ranging areas b2, b3, c2, and c3 are the same as those in FIG. The distance measuring area e1 is set so as to overlap the right half of the distance measuring area b2 and the left half of the distance measuring area b3. The ranging area e2 is set so as to overlap the lower half of the ranging area b2 and the upper half of the ranging area c2. The ranging area e3 is superimposed on the lower right quadrant of the ranging area b2, the lower left four half of the ranging area b3, the upper right half of the ranging area c2, and the upper left half of the ranging area c3. Is set. The distance measurement area e4 is set so as to overlap the lower half of the distance measurement area b3 and the upper half of the distance measurement area c3. The distance measurement area e5 is set so as to overlap the right half of the distance measurement area c2 and the left half of the distance measurement area c3.
なお、図9は、顔の中心付近に測距エリアを密に配置している。しかし、これに限らず、目や鼻や口等の器官の中心付近に測距エリアを密に配置するようにしても勿論かまわない。 In FIG. 9, ranging areas are densely arranged near the center of the face. However, the present invention is not limited to this, and the distance measuring area may of course be densely arranged near the center of an organ such as the eyes, nose and mouth.
このように、AF測距点設定部33は、顔検出部22aによって検出された注目被写体の位置(顔の中心位置、または目等の器官の特定位置)に基づいて、この近傍に複数の測距エリアを設定する。また、AF測距点設定部33は、図9に示すように、顔に相当する領域の内部の特定の領域について、顔に相当する領域の他の領域に比較して測距点をより密に配置する測距点設定部としての機能を有する。また、AF測距点設定部33は、器官に相当する領域について、器官に相当しない領域に比較して測距点をより密に配置する測距点設定部としての機能も有する。
As described above, the AF ranging
次に、図10を用いて、測距エリア優先順位設定部35によって行われる測距エリアの優先順位のリスト作成について説明する。図10は、測距エリアの優先順位のリストの一例を示している。図10(a)は、顔検出部22aにおいて検出された器官検出の特定座標からの距離が近い順に、優先順位をつけた例である。ここでb2、e1、e2、・・・は、図9に示した測距エリアの位置を示す。このように、測距エリア優先順位設定部35は、複数の測距点のうち注目被写体の特定の位置により近い測距点の優先順位を高くする優先順位設定手段としての機能を有する。
Next, the creation of a priority list of distance measurement areas performed by the distance measurement area priority
図10(b)は、被写体中心座標との距離が近い順に優先順位をつけた例である。また、図10(c)は、デフォーカス位置の順(最至近順)に優先順位を付けた例である。デフォーカス位置は、デフォーカス量演算部/信頼性評価部37が各測距エリアについて演算するので、その情報を得て順位付けを行う。この場合には、カメラに近い被写体のある測距エリアほど優先順位が高くなる。
FIG. 10B shows an example in which priorities are assigned in order of increasing distance from the subject center coordinates. FIG. 10C shows an example in which priorities are assigned in the order of defocus positions (closest order). Since the defocus amount calculation unit /
なお、全ての測距エリアの昇順リストを作成しなくてもよい。また、図10(a)(b)に示した特定座標または被写体の中心座標から近い順のリスト作成においては、ある距離(距離の閾値)以上のエリアや、図10(c)に示したデフォーカス量(無限方向の距離の閾値)以下のエリアはリストから除外してもよい。 Note that it is not necessary to create an ascending order list of all ranging areas. Further, in the list creation in the order closer to the specific coordinates or the center coordinates of the subject shown in FIGS. 10A and 10B, an area more than a certain distance (distance threshold) or the data shown in FIG. Areas that are less than the focus amount (threshold of the distance in the infinite direction) may be excluded from the list.
次に、図11を用いて、測距点決定部38によって行われる最適な測距エリアの選択について説明する。測距点決定部38は、図10に示した測距エリアの優先順位リストと、各エリアの信頼性評価の重み付けの結果を用いて測距エリアの選択を行い、選択された測距エリアのデフォーカス量を出力する。
Next, the selection of the optimum distance measurement area performed by the distance measurement
図11に示した例では、測距エリアの優先順位リストとして、図10(a)の器官検出結果に基づく特定座標を用いている(図11中の「測距エリアの優先順位」および「A:特定座標に近い順」参照)。また、重み付けのための信頼性評価値は、デフォーカス量演算部/信頼性評価部37で演算される各測距エリアのコントラスト値Aを使用している(図11中の「B:コントラスト値」参照)。図11中のAとBを用いて、重み付け演算1/(A*B)を行い、この演算結果が一番大きいエリア、すなわち図11では、測距エリアe1を選択している。
In the example shown in FIG. 11, specific coordinates based on the organ detection result of FIG. 10A are used as the distance measurement area priority order list (“priority of distance measurement area” and “A” in FIG. 11). : Order close to specific coordinates "). Further, as the reliability evaluation value for weighting, the contrast value A of each ranging area calculated by the defocus amount calculation unit /
なお、図11に示した例では、重み付けのための信頼性評価値としてコントラスト値Aを使用しているが、これに限らず、信頼性評価部36で演算されるコントラスト値Aの代わりにコントラスト値Bを使用してもよく、またデフォーカス量演算部/信頼性評価部37で演算される相関値傾きFsを使用してもよい。また、重み付けは、本実施形態においては、1/(A*B)のように乗算演算で行っているが、これに限らず、信頼性の値を複数重み付けしてもよい。
In the example shown in FIG. 11, the contrast value A is used as the reliability evaluation value for weighting. However, the present invention is not limited to this, and contrast is used instead of the contrast value A calculated by the
このように、本実施形態においては、測距エリア優先順位設定部35によって設定された優先順位と、信頼性評価部36またはデフォーカス量演算部/信頼性評価部37によって演算された信頼性評価値(コントラスト値A、コントラスト値B、相関値傾きFs)を用いて、測距点決定部38は測距点の選択を行っている。このため、注目被写体に近く、かつデフォーカス量の演算結果の信頼性の高い測距エリアを選択することができる。したがって、測距点決定部38は、優先順位決定手段の決定する複数の測距点の優先順位に、信頼性判定手段の出力する信頼性に重み付けした結果に基づいて測距点を選択する選択手段としての機能を有する。
Thus, in this embodiment, the priority set by the distance measurement area
次に、本実施形態における動作について、図12および図13に示すフローチャートを用いて説明する。 Next, the operation in this embodiment will be described with reference to the flowcharts shown in FIGS.
測距動作を開始すると、先ず顔中心または特定座標を取得し、この座標を(Xco,Yco)とする(S1)。ここでは、顔検出部22aによって顔を中心した場合には、中心座標を取得し、また顔の器官(右目、左目、鼻、口等)を検出した場合には、特定座標を取得し、この座標を(Xco,Yco)とする。なお、顔の器官等については、予め撮影者がメニュー画面等により指定できる場合には、その指示に従う。
When the distance measuring operation is started, first, the face center or specific coordinates are acquired, and these coordinates are set to (Xco, Yco) (S1). Here, when the face is centered by the
顔中心または特定座標を取得すると、次に、測距エリア数(Area_Num)の設定を行う(S3)。AF測距点設定部33が、図8、9を用いて説明したように、中心座標または特定座標の周囲に測距エリアを設定する。このステップでは、このとき設定された測距エリア数の設定を行う。
Once the face center or specific coordinates are acquired, the number of distance measurement areas (Area_Num) is set (S3). As described with reference to FIGS. 8 and 9, the AF ranging
測距エリア数の設定を行うと、次に、変数kを0にリセットする(S7)。kは設定されている測距エリアの番号を示しており、このステップでは、測距エリアの番号をリセットする。 Once the number of ranging areas is set, the variable k is reset to 0 (S7). k indicates the number of the distance measurement area that has been set. In this step, the number of the distance measurement area is reset.
測距エリアの番号を示すkを0にリセットすると、次に、k=Area_numか否かを判定する(S9)。Area_numは、測距エリアの数を示しており、このステップでは、ステップS11〜S21におけるデフォーカス量の算出を、全測距エリアについて行ったか否かを判定する。 When k indicating the distance measurement area number is reset to 0, it is next determined whether or not k = Area_num (S9). Area_num indicates the number of distance measurement areas. In this step, it is determined whether or not the defocus amount calculation in steps S11 to S21 has been performed for all the distance measurement areas.
ステップS9における判定の結果、k=Area_numでなかった場合には、各測距エリアの中心座標の設定を行う(S11)。測距エリアの中心座標(Xc[k],Yc[k])は、顔中心座標または特定座標(Xco,Yco)から各々測距エリアごとに任意の長さa[k],b[k]を付加した位置としているので、下記の式より求める。
(Xc[k],Yc[k])=(Xco+a[k],Yco+b[k])
If the result of determination in step S9 is not k = Area_num, the center coordinates of each distance measurement area are set (S11). The center coordinates (Xc [k], Yc [k]) of the distance measurement area are arbitrary lengths a [k], b [k] for each distance measurement area from the face center coordinates or specific coordinates (Xco, Yco). Since it is set as the position to which is added, it is obtained from the following formula.
(Xc [k], Yc [k]) = (Xco + a [k], Yco + b [k])
各測距エリアの中心座標を設定すると、次に、AF測距点設定部33は、各測距エリアの領域を設定する(S13)。各測距エリアの領域は、測距エリアの中心座標(Xc[k],Yc[k])に、(c[k],d[k])加減算して、左上座標(X1[k],Y1[k])と右下座標(Xr[k],Yr[k])を求めるので、各座標は以下の通りとなる。
(X1[k],Y1[k])=(Xc[k]−c[k],Yc[k]−d[k])
(Xr[k],Yr[k])=(Xc[k]+c[k],Yc[k]+d[k])
Once the center coordinates of each distance measurement area are set, the AF distance measurement
(X1 [k], Y1 [k]) = (Xc [k] −c [k], Yc [k] −d [k])
(Xr [k], Yr [k]) = (Xc [k] + c [k], Yc [k] + d [k])
各測距エリアの中心座標を設定すると、各測距エリアの領域設定と並行して、信頼性評価部36は、コントラスト値Bを取得する(S25)。ここでは、撮像用画素の画像データを入力し、この撮像用画素の画像データを用いてコントラスト値Bを算出する。
When the center coordinates of each ranging area are set, the
各測距エリアの領域を設定すると、次に、位相差画素生成部34は、位相差画素列Lk、Rkの生成を行う(S15)。ここでは、測距エリア内の座標(X1[k],Y1[k])から(Xr[k],Yr[k])の範囲内で位相差画素列LkとRkを生成する。
Once the areas of each ranging area are set, the phase difference
各測距エリアの領域を設定すると、位相差画素列Lk,Rkの生成と並行して、測距エリア優先順位設定部35は、各測距エリア優先順位リストを生成する(S27)。たとえば、図10に示したように、所定の優先順位を付け、List[0]から順次、測距エリアを並べた優先順位リストを生成する。
When the area of each ranging area is set, the ranging area
位相差画素列Lk、Rkを生成すると、次に、LまたはR列コントラスト値Aを取得する(S17)。ここでは、L列またはR列のエッジ成分の累積値を算出する。すなわち、隣接する位相差AF検出用画素の差分値の累積値を演算し、この値をコントラスト値A contrast_A[k]としてメモリに格納する。 Once the phase difference pixel columns Lk and Rk are generated, the L or R column contrast value A is acquired (S17). Here, the cumulative value of the edge component of the L row or the R row is calculated. That is, the cumulative value of the difference values between adjacent phase difference AF detection pixels is calculated, and this value is stored in the memory as the contrast value A contrast_A [k].
L列またはR列のコントラスト値Aを取得すると、次に、デフォーカス量演算部/信頼性評価部37は、相関値の変化率(傾き)Fs[k]を取得する(S19)。図7に一例を示したように、左開口の位相差AF検出用画素列と、右開口の位相差AF検出用画素列の画像データの間で相関演算を行った結果、最小相関値FMINとその左右の相関値のうちで大きい方の相関値FMを通る直線の傾きを変化率Fs[k]とする。
When the contrast value A of the L column or the R column is acquired, the defocus amount calculation unit /
相関値の変化率Fsを取得すると、次に、デフォーカス量演算部/信頼性評価部37は、デフォーカス量d[k]を取得する(S21)。デフォーカス量d[k]は、図6を用いて説明したように、
d=F*ZR/(G−ZR)
より算出する。
なお、d:デフォーカス量、F:撮像素子から瞳までの距離、ZR:シフト量、G:左右の開口の重心間の距離である。
When the correlation value change rate Fs is acquired, the defocus amount calculation unit /
d = F * ZR / (G-ZR)
Calculate from
Here, d: defocus amount, F: distance from the image sensor to the pupil, ZR: shift amount, and G: distance between the centers of gravity of the left and right openings.
ステップS21にてデフォーカス量の算出を行うと次に、ステップS23にて測距エリアの番号を示すkに1を加算する。ステップS23にてkに1を加算し、またはステップS25においてコントラスト値Bを取得し、またはステップS27において各測距エリア優先順位リストを作成すると、ステップS9に戻る。 Once the defocus amount is calculated in step S21, 1 is added to k indicating the distance measurement area number in step S23. When 1 is added to k in step S23, or the contrast value B is acquired in step S25, or each distance measurement area priority list is created in step S27, the process returns to step S9.
ステップS9における判定の結果、測距エリアの番号を示すkが測距エリア数を示すArea_numに達すると、信頼性評価値(S_k)を選択する(S31)。信頼性評価値Skとしては、前述したように、デフォーカス量演算部/信頼性評価部37が算出するコントラスト値Aおよび相関値傾きFsと、信頼性評価部36が算出するコントラスト値Bがある。ここでは、これらの3つの値の中から1つを選択してS[k]とする。
As a result of the determination in step S9, when k indicating the distance measurement area number reaches Area_num indicating the number of distance measurement areas, a reliability evaluation value (S_k) is selected (S31). As described above, the reliability evaluation value Sk includes the contrast value A and the correlation value gradient Fs calculated by the defocus amount calculation unit /
信頼性評価値S_kを選択すると、次に、測距点決定部38は、優先度(List[k])*信頼性S[k]の演算を行う(S33)。ここでは、図11の例に示したように、最適な測距エリアを選択するために、優先度に対して信頼性の重み付けを行う。
When the reliability evaluation value S_k is selected, the distance measuring
優先度に信頼性の重み付け演算を行うと、次に、測距点決定部38は、最適測距エリアを選択し、その最適測距エリアで演算されたデフォーカス量を選択する(S35)。デフォーカス量を選択すると、このフローを終了する。
If the reliability weighting calculation is performed on the priority, the ranging
なお、ステップS31において、信頼性評価値(S_k)を3種類の中から1つだけ選択していたが、これに限らず、3種類の全てまたは一部を用いて最適な測距エリアを選択するようにしても構わない。また、優先順位として、図10に示したように、3種類の順位付けを行ったが、3種類の全てまたは一部を用いて、最適な測距エリアを選択するようにしてもよい。 In step S31, only one reliability evaluation value (S_k) has been selected from the three types. However, the present invention is not limited to this, and an optimum ranging area is selected using all or some of the three types. You may make it. Further, as shown in FIG. 10, three types of priorities are assigned as priorities, but an optimal distance measurement area may be selected using all or some of the three types.
以上説明したように、本発明の一実施形態においては、注目被写体を検出し(顔検出部22a、図12のS1)、この注目被写体の位置に基づいて複数の測距エリアを設定する(AF測距点設定部33、図12のS5)と共に測距エリアの優先順位を決定し(測距エリア優先順位設定部35、図12のS27)、設定された測距エリアのデフォーカス量の信頼性を求めている(信頼性評価部36、デフォーカス量演算部/信頼性評価部37、図12のS25、S17、S19)。そして、測距エリアの優先順位とデフォーカス量の信頼性に基づいて最適な測距エリアを選択し(測距点決定部38、図12のS35)、この選択された測距エリアのデフォーカス量に基づいて、ピント合わせを行うようにしている。このため、本実施形態においては、注目する被写体に最適な位相差AFの測距エリアを選択し、精度よく合焦点を検出することが可能となる。
As described above, in the embodiment of the present invention, the subject of interest is detected (face
なお、本発明の一実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもミラーレスカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォーンや携帯情報端末(PDA:Personal Digital Assist)、ゲーム機器等に内蔵されるカメラでも構わない。いずれにしても、撮像素子の一部を位相差方式の焦点検出用素子として用いる撮像素子を有する機器であれば、本発明を適用することができる。 In the embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a digital single-lens reflex camera, a mirrorless camera, or a compact digital camera. A camera for moving images such as a camera may be used, and a camera built in a mobile phone, a smart phone, a personal digital assistant (PDA), a game device, or the like may be used. In any case, the present invention can be applied to any device having an image sensor that uses a part of the image sensor as a phase difference type focus detection element.
また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。 In addition, regarding the operation flow in the claims, the specification, and the drawings, even if it is described using words expressing the order such as “first”, “next”, etc. It does not mean that it is essential to implement in this order.
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
10・・・交換レンズ鏡筒、11・・・撮影レンズ、12・・・アクチュエータ、13・・・レンズ制御部、20・・・カメラ本体、21・・・撮像素子、21a・・・画素値、21c・・・測距エリア中心点、21d・・・左開口位相差AF検出用画素、21e・・・撮像用画素、21f・・・右開口位相差AF検出用画素、22・・・画像処理部、22a・・・顔検出部、23・・・AF演算部、24・・・記録部、33・・・AF測距点設定部、34・・・位相差画素生成部、35・・・測距エリア順位設定部、36・・・信頼性評価部、37・・・デフォーカス量演算部/信頼性評価部、38・・・測距点決定部、Fc・・・顔中心、Fs・・・相関値傾き、S・・・被写体、ZR・・・シフト量、d・・・デフォーカス量
DESCRIPTION OF
Claims (4)
上記撮像素子の出力する画素信号に基づいて注目被写体の位置を検出する注目被写体検出手段と、
上記注目被写体の位置に基づいて、上記焦点検出用画素の位置に対応する複数の測距点を設定する測距点設定手段と、
上記複数の測距点に対応する上記焦点検出用画素の出力に基づいて複数のデフォーカス量を演算する演算手段と、
上記設定された測距点の優先順位を決定する優先順位決定手段と、
上記設定された測距点に対応して検出されるデフォーカス量の信頼性を判別する信頼性判定手段と、
上記優先順位決定手段の出力と上記信頼性判定手段の出力に基づいて上記設定された複数の測距点のうちから測距点を選択する選択手段と、
を有し、
上記注目被写体検出手段は、顔に相当する領域を検出し、
上記測距点設定手段は、上記顔に相当する領域の内部の特定の領域について、顔に相当する領域の他の領域に比較して測距点をより密に配置する、
ことを特徴とする撮像装置。 A plurality of pixels having a photoelectric conversion unit that converts an optical image formed by the imaging optical system into an electric signal, and the plurality of pixels are configured to limit an incident direction of a light beam incident on the pixels. An image sensor including a detection pixel and an image pickup pixel configured such that a light beam incident on the pixel is not limited as compared with the focus detection pixel, and the image pickup element includes a plurality of pixels arranged in a two-dimensional manner. In the imaging device,
Subject-of-interest detection means for detecting the position of the subject of interest based on the pixel signal output from the image sensor;
Distance measuring point setting means for setting a plurality of distance measuring points corresponding to the position of the focus detection pixel based on the position of the subject of interest;
A computing means for computing a plurality of defocus amounts based on outputs of the focus detection pixels corresponding to the plurality of distance measuring points;
Priority order determining means for determining the priority order of the set distance measuring points;
Reliability determination means for determining the reliability of the defocus amount detected corresponding to the set ranging point;
Selection means for selecting a distance measuring point from among the plurality of distance measuring points set based on the output of the priority determining means and the output of the reliability determining means;
Have
The noted subject detection means detects an area corresponding to a face,
The ranging point setting means arranges the ranging points more densely in a specific area inside the area corresponding to the face than in other areas corresponding to the face .
An imaging apparatus characterized by that.
上記選択手段は、上記優先順位決定手段の決定する複数の測距点の優先順位と、上記信頼性判定手段の出力する信頼性評価値に重み付けした結果に基づいて測距点を選択することを特徴とする請求項1または2に記載の撮像装置。 The reliability determination means outputs a reliability evaluation value indicating the reliability of the defocus amount,
The selection means selects the distance measurement points based on the priority order of the plurality of distance measurement points determined by the priority order determination means and the result of weighting the reliability evaluation value output by the reliability determination means. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
上記測距点設定手段は、上記器官に相当する領域について、器官に相当しない領域に比較して測距点をより密に配置する、
ことを特徴とする請求項1乃至3のいずれか一項に記載の撮像装置。 The noted subject detection means detects a region corresponding to a facial organ,
The ranging point setting means arranges the ranging points more densely in the area corresponding to the organ than in the area not corresponding to the organ.
The imaging apparatus according to any one of claims 1 to 3, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013007566A JP6071574B2 (en) | 2013-01-18 | 2013-01-18 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013007566A JP6071574B2 (en) | 2013-01-18 | 2013-01-18 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014137567A JP2014137567A (en) | 2014-07-28 |
JP6071574B2 true JP6071574B2 (en) | 2017-02-01 |
Family
ID=51415072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013007566A Expired - Fee Related JP6071574B2 (en) | 2013-01-18 | 2013-01-18 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6071574B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6512989B2 (en) * | 2015-08-04 | 2019-05-15 | キヤノン株式会社 | Focus detection apparatus and method, and imaging apparatus |
JP6723735B2 (en) | 2015-12-10 | 2020-07-15 | キヤノン株式会社 | Image processing device, imaging device, image processing method, and image processing program |
WO2017135276A1 (en) * | 2016-02-01 | 2017-08-10 | ソニー株式会社 | Controller, control method, and control program |
US10469730B2 (en) | 2016-05-18 | 2019-11-05 | Canon Kabushiki Kaisha | Imaging device and control method for simultaneously outputting an image pickup signal and a parallax image signal |
JP2021162829A (en) | 2020-04-03 | 2021-10-11 | キヤノン株式会社 | Focus detector, imaging apparatus, and focus detection method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213047A (en) * | 2006-01-13 | 2007-08-23 | Nikon Corp | Focusing apparatus, optical apparatus and focusing method |
JP4998308B2 (en) * | 2008-02-14 | 2012-08-15 | 株式会社ニコン | Focus adjustment device and imaging device |
-
2013
- 2013-01-18 JP JP2013007566A patent/JP6071574B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014137567A (en) | 2014-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6234144B2 (en) | Focus detection apparatus and focus detection method | |
JP6184276B2 (en) | Focus adjustment device | |
US10326927B2 (en) | Distance information producing apparatus, image capturing apparatus, distance information producing method and storage medium storing distance information producing program | |
JP5388544B2 (en) | Imaging apparatus and focus control method thereof | |
JP6029309B2 (en) | Focus detection device | |
JP6071574B2 (en) | Imaging device | |
US9083879B2 (en) | Focus detection apparatus, control method thereof, and image pickup apparatus | |
US10244160B2 (en) | Focus adjustment device and focus adjustment method | |
JP5417827B2 (en) | Focus detection apparatus and imaging apparatus | |
JP2014153509A (en) | Imaging device and imaging method | |
JP2022000695A (en) | Imaging device | |
JP5822492B2 (en) | Imaging apparatus and control method | |
JP6271911B2 (en) | Imaging apparatus, control method therefor, and defocus amount calculation method | |
JP6881909B2 (en) | Image pickup device and its control method, and image processing device and method | |
JP6220144B2 (en) | Focus adjustment apparatus and control method thereof | |
WO2018110282A1 (en) | Focusing apparatus, focusing method, and storage medium storing program | |
JP6234094B2 (en) | Focus detection apparatus and imaging apparatus | |
JP6568448B2 (en) | Automatic focusing apparatus, control method therefor, and imaging apparatus | |
JP6489881B2 (en) | Distance display processing device, optical device, and distance display processing program | |
JP6929140B2 (en) | Control device, image pickup device, control method, program, and storage medium | |
US20230188846A1 (en) | Imaging apparatus and control method thereof | |
JP5176845B2 (en) | Image tracking device and imaging device | |
US20220294991A1 (en) | Focus adjustment device and focus adjustment method | |
US20220272271A1 (en) | Image pickup apparatus capable of keeping focus on subject even when moving direction of subject changes in time series, control method for image pickup apparatus, and storage medium | |
JP5966249B2 (en) | Image tracking device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20150423 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161227 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6071574 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees | ||
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |