JP2019090855A - Imaging device and control method therefor - Google Patents
Imaging device and control method therefor Download PDFInfo
- Publication number
- JP2019090855A JP2019090855A JP2017217625A JP2017217625A JP2019090855A JP 2019090855 A JP2019090855 A JP 2019090855A JP 2017217625 A JP2017217625 A JP 2017217625A JP 2017217625 A JP2017217625 A JP 2017217625A JP 2019090855 A JP2019090855 A JP 2019090855A
- Authority
- JP
- Japan
- Prior art keywords
- focus detection
- area
- focus
- detection area
- selection process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ズーム機能を有する撮像装置における焦点調節技術に関するものである。 The present invention relates to focusing technology in an imaging apparatus having a zoom function.
従来から、電子スチルカメラなどの撮像装置において、ズーム動作時に被写体にピントの合った画像を撮影するために、ズームレンズの移動に合わせてフォーカスレンズを移動させる撮像装置が知られている。 2. Description of the Related Art Conventionally, in an imaging apparatus such as an electronic still camera, there is known an imaging apparatus that moves a focusing lens in accordance with the movement of a zoom lens in order to shoot an image in focus on a subject during zoom operation.
特許文献1では、撮像面位相差AFを用いて、ズーム中にピントを合わせる方法が提案されている。また、特許文献2では、コントラスト検出方式のAFを用いて、ズーム中にピントを合わせる方法が提案されている。
しかしながら、上述の特許文献1、2に開示された従来技術では、撮影者の意図しないピント変化が生じる可能性があった。具体的には複数の焦点検出領域より構成される焦点検出領域のブロックを備えた撮像装置の場合である。このような撮像装置の場合、撮影者は大まかにピントを合わせたい被写体に対して焦点検出領域のブロックの位置を指定し、指定された焦点検出領域のブロックの焦点検出結果に基づいてピントを合わせることを期待する。そのため、上記特許文献1,2の方法では、指定した焦点検出領域のブロックの位置、特に光軸中心付近より外れて焦点検出領域のブロックが設定された場合にはズーム動作の開始とともに撮影者の意図しない位置にピントが変化してしまう可能性がある。
However, in the prior art disclosed in
一方で、光軸中心付近より外れて焦点検出領域のブロックを配置した場合、光軸中心付近に配置した場合と比較して同一の被写体をとらえ続けることが難しくなり被写体の出入りの影響を受けやすくなる課題が存在する。特に撮像面位相差AFのように短時間で焦点検出結果が算出され、効率良く合焦状態を得ることが可能な焦点調整方式の場合、各焦点検出領域が被写体の出入りの影響を受け、焦点検出結果が頻繁に変化する可能性がある。このような焦点検出結果をズーム中のピント制御に用いた場合、撮影者にとって予期せぬピント変動が生じることになり違和感のある動画像になってしまうことがあった。 On the other hand, when the block of the focus detection area is disposed out of the vicinity of the optical axis center, it is difficult to keep on capturing the same subject compared to the case where the block is disposed near the optical axis center. Challenges that In particular, in the case of a focus adjustment method where focus detection results are calculated in a short time, such as imaging plane phase difference AF, and in-focus state can be efficiently obtained, each focus detection area is affected by movement of the subject. Detection results may change frequently. When such a focus detection result is used for focus control during zooming, an unexpected change in focus may occur to the photographer, resulting in a moving image with a sense of discomfort.
そこで、本発明は、ズーム動作した場合でも、安定したピント追従を可能とする撮像装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an imaging device that enables stable focus tracking even when zoom operation is performed.
本発明の技術的特徴として、ズームレンズの移動により焦点距離が変更可能な撮像装置の制御方法であって、複数の焦点検出領域を設定する設定ステップと、前記複数の焦点検出領域の焦点検出結果に基づいて焦点調整対象とする焦点検出領域を選択する第1の領域選択処理と、前記複数の焦点検出領域のうち、特定の条件に合う焦点検出領域から焦点調整対象とする焦点検出領域を選択する第2の領域選択処理とを行う選択ステップと、を有し、前記選択ステップでは、前記ズームレンズが移動中でない場合には前記第1の領域選択処理を行い、前記ズームレンズが移動中である場合には前記第2の領域選択処理を行うことを特徴とする。 A technical feature of the present invention is a control method of an imaging apparatus capable of changing a focal length by movement of a zoom lens, which comprises: setting a plurality of focus detection areas; and focus detection results of the plurality of focus detection areas And selecting a focus detection area to be subjected to focus adjustment from among focus detection areas that meet specific conditions among the plurality of focus detection areas. And a second step of selecting a second area, and in the selecting step, if the zoom lens is not moving, the first area selecting process is performed, and the zoom lens is moving. In some cases, the second area selection process is performed.
本発明によれば、ズーム動作した場合でも、安定したピント追従をすることができる。 According to the present invention, stable focus tracking can be performed even when the zoom operation is performed.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
<撮像装置の構成>
本実施例では、レンズ鏡筒と撮像装置が一体となったレンズ鏡筒括りつけの撮像装置において、本発明を適用した場合の例を示す。
<Configuration of Imaging Device>
In this embodiment, an example in which the present invention is applied to an imaging apparatus in which a lens barrel and an imaging apparatus are integrated is shown.
図1は、撮像装置の主要部の構成を示すブロック図である。 FIG. 1 is a block diagram showing the configuration of the main part of the imaging apparatus.
図1に示すように、レンズ鏡筒括りつけの撮像装置100は、レンズ鏡筒及び撮像装置全体の動作を統括するカメラ制御部114を中心に構成される。撮像装置の制御は、カメラ制御部114の内部のROM、RAM(不図示)に格納された制御プログラム及び制御に必要な各種データに基づき実行される。
As shown in FIG. 1, the imaging device 100 of the lens barrel is configured around a
まず、レンズ鏡筒に関連する部分の構成について説明する。レンズ鏡筒は、ズームレンズ101、絞り102、フォーカスレンズ103、ズームレンズ駆動部104、絞り駆動部105、フォーカスレンズ駆動部106を備えている。
First, the configuration of the portion related to the lens barrel will be described. The lens barrel includes a
ズームレンズ101は、ズームレンズ駆動部104によって駆動され、焦点距離(ズーム倍率)が変更可能である。絞り102は、絞り駆動部105によって駆動され、後述する撮像素子107への入射光量を制御する。フォーカスレンズ103はフォーカスレンズ駆動部106によって駆動され、後述する撮像素子107に結像する焦点の調節を行う。ズームレンズ駆動部104、絞り駆動部105、フォーカスレンズ駆動部106はカメラ制御部114によって制御される。これらは、ズームレンズ101の位置、絞り102の開口量や、フォーカスレンズ103の位置を決定するとともに、カメラ制御部114はズームレンズ駆動部104、絞り駆動部105、フォーカスレンズ駆動部106よりレンズ制御情報を得る。
The
次に、撮影光学系を通過した光束から撮像信号を取得する撮像機能に関する部分の構成について説明する。撮像素子107、CDS/AGC回路108、カメラ信号処理部109、AF信号処理部110、表示部111、記録部112、カメラ制御部114、カメラ操作部115を備えている。撮像素子107は画像センサーとしての部材であって、CCDやCMOSセンサーなどから構成されている。レンズ鏡筒の撮影光学系を通ってきた光束を撮像素子107の受光面上に結像し、フォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、カメラ制御部114の指令に従ってタイミングジェネレータ113から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号として撮像素子107から順次読み出される。
Next, the configuration of the part related to the imaging function of acquiring an imaging signal from the light flux that has passed through the imaging optical system will be described. The
撮像素子107から読み出された映像信号及びAF用信号は、サンプリングし、ゲイン調整するCDS/AGC回路108に入力され、映像信号をカメラ信号処理部109に、撮像面位相差AF用の信号をAF信号処理部110にそれぞれ出力する。
The video signal and the AF signal read out from the
カメラ信号処理部109は、CDS/AGC回路108から出力された信号に対して各種の画像処理を施して、映像信号を生成する。
The camera
LCD等により構成される表示部111は、カメラ信号処理部109から出力された映像信号を撮像画像として表示する。
A
記録部112は、カメラ信号処理部109からの映像信号を磁気テープ、光ディスク、半導体メモリ等の記録媒体に記録する。
The
AF信号処理部110はCDS/AGC回路108から出力されたAF用の2つの像信号を基に、相関演算を行い、デフォーカス量、信頼性情報(二像一致度、二像急峻度、コントラスト情報、飽和情報、キズ情報等)を算出する。算出したデフォーカス量と、信頼性情報をカメラ制御部114へ出力する。また、カメラ制御部114は、取得したデフォーカス量や信頼性情報を基に、これらを算出する設定の変更をAF信号処理部110に通知する。相関演算の詳細については、図3から図5を用いて後述する。
The AF signal processing unit 110 performs correlation calculation based on the two image signals for AF output from the CDS /
カメラ制御部114は、撮像装置100内全体と情報をやり取りして制御を行う。撮像装置100内の処理だけでなく、カメラ操作部115からの入力に応じて、電源のON/OFF、設定の変更、記録の開始、AF制御の開始、記録映像の確認等の、ユーザが操作したさまざまなカメラ機能を実行する。
The
<撮像素子の構成>
図2に画像センサーとしての撮像素子107の受光面の一部を示す。撮像素子107は、撮像面位相差AFを可能にするために、一つのマイクロレンズに対して光電変換手段として受光部であるフォトダイオードを2つ保持している画素部をアレイ状に並べている。これにより、各画素部で、レンズ鏡筒の射出瞳を分割した光束を受光することが可能になっている。
<Configuration of Image Sensor>
FIG. 2 shows a part of the light receiving surface of the
図2(A)は、参考として、赤(R)、青(B)、緑(Gb、Gr)のベイヤー配列例の画像センサー表面の一部の模式図である。図2(B)は、図2(A)のカラーフィルターの配列に対応させて、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを2つ保持している画素部例である。 FIG. 2A is a schematic view of a part of the image sensor surface of the example of the Bayer arrangement example of red (R), blue (B) and green (Gb, Gr) as a reference. FIG. 2B is an example of a pixel portion in which two photodiodes as photoelectric conversion means are held with respect to one microlens corresponding to the arrangement of the color filters in FIG. 2A.
こうした構成を有する画像センサーは、各画素部から位相差AF用の2つの信号(以下、A像信号、B像信号ともいう。)を出力できるようになっている。 The image sensor having such a configuration can output two signals (hereinafter also referred to as an A image signal and a B image signal) for phase difference AF from each pixel unit.
また、2つのフォトダイオードの信号を加算した撮像の記録用の信号(A像信号+B像信号)も出力できるようになっている。この加算した信号の場合には、図2(A)で概略説明したベイヤー配列例の画像センサーの出力と同等の信号が出力される。このような画像センサーとしての撮像素子107からの出力信号を使って、後述するAF信号処理部110が2つの像信号の相関演算を行い、デフォーカス量や各種信頼性などの情報を算出する。
Also, it is possible to output a signal for recording of imaging (image A signal + image B signal) obtained by adding the signals of two photodiodes. In the case of the added signal, a signal equivalent to the output of the image sensor of the Bayer arrangement example schematically described in FIG. 2A is output. The AF signal processing unit 110 described later performs correlation calculation of two image signals using such an output signal from the
なお、本実施形態は撮像用の信号及び位相差AF用の2つの信号の2つの計3つの信号を撮像素子107から出力している。この点、このような方法に限定されない。例えば、撮像用の信号と位相差AF用の像信号の2つの信号のうちの1つの計2つ信号を出力するようにしてもよい。この場合、出力後に位相差AF用の像信号の2つの信号のうちの他の1つの信号は、撮像素子107からの2つの出力信号を利用して算出される。
In the present embodiment, a total of three signals of a signal for imaging and two signals for phase difference AF are output from the
また、図2では、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを2つ保持している画素部をアレイ状に並べている例を示した。この点、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを3つ以上保持している画素部をアレイ状に並べているようにしてもよい。また、マイクロレンズに対して受光部の開口位置が異なる画素部を複数有するようにしてもよい。つまり、結果としてA像信号とB像信号といった位相差検出可能な位相差AF用の2つの信号が得られるようになっていれば足りる。 Further, FIG. 2 shows an example in which pixel portions holding two photodiodes as photoelectric conversion means for one microlens are arranged in an array. In this respect, pixel portions holding three or more photodiodes as photoelectric conversion means may be arrayed in an array with respect to one microlens. In addition, a plurality of pixel units in which the opening position of the light receiving unit is different from the microlens may be provided. That is, it is sufficient if two signals for phase difference detection, such as an A image signal and a B image signal, can be obtained as a result.
<撮像面位相差AF方式の相関演算>
図3(D)は、像信号を取得する領域を例示するもので、画像センサーとしての撮像素子107の画素アレイ上の概念図である。不図示の画素部がアレイ状に配置された画素アレイ303に対して、以下に説明する演算対象の領域が領域304である。この領域304のデフォーカス量を算出する際の相関演算に必要なシフト領域305と領域304とを合わせたものが、相関演算を行う為に必要なシフト領域306である。
<Correlation calculation of imaging surface phase difference AF method>
FIG. 3D illustrates an area for acquiring an image signal, and is a conceptual diagram on a pixel array of the
図3、4中のp、q、s、tはそれぞれx軸方向の座標を表し、pからqはシフト領域306を表し、sからtは領域304を表す。
In FIGS. 3 and 4, p, q, s, and t represent coordinates in the x-axis direction, p to q represent the
図3(A)(B)(C)は、図3(D)で設定したシフト領域306から取得した像信号である。sからtが領域304に対応し、pからqがシフト量を踏まえたデフォーカス量を算出する演算に必要な範囲のシフト領域306に対応する像信号である。図3(A)は相関演算のためのシフト前のA像信号とB像信号とを概念的に波形で表した図である。実線301がA像信号A、破線302がB像信号である。
FIGS. 3A, 3B, and 3C are image signals acquired from the
図3(B)は(A)のシフト前の像波形に対しプラス方向に互いにシフトさせた場合の概念図であり、同(C)は(A)のシフト前の像波形に対しマイナス方向に互いにシフトさせた場合の概念図である。2つの像の相関の具合である相関量を算出する際には、たとえば、それぞれ矢印の方向にA像信号301、B像信号302を1ビットずつシフトさせるといった具合である。
FIG. 3 (B) is a conceptual diagram in the case of mutually shifting the image waveform before shift in (A) in the positive direction, and FIG. 3 (C) in the negative direction with respect to the image waveform before shift in (A). It is a conceptual diagram at the time of making it mutually shift. When calculating the correlation amount which is the condition of the correlation between the two images, for example, it is possible to shift the
続いて相関量CORの算出法について説明する。まず、図3(B)(C)の通りに、たとえば、像信号Aと像信号Bを1ビットずつシフトしていき、その各状態でのA像信号とB像信号の差の絶対値の和を算出する。このとき、シフト量をiで表し、最小シフト数は図4中のp−s、最大シフト数は図4中のq−tである。またxは焦点検出領域の開始座標、yは焦点検出領域の終了座標である。これら用い、以下の式(1)によって算出する事ができる。 Subsequently, a method of calculating the correlation amount COR will be described. First, as shown in FIGS. 3B and 3C, for example, the image signal A and the image signal B are shifted one bit at a time, and the absolute value of the difference between the A and B image signals in each state is calculated. Calculate the sum. At this time, the shift amount is represented by i, the minimum shift number is p-s in FIG. 4, and the maximum shift number is q-t in FIG. Also, x is the start coordinate of the focus detection area, and y is the end coordinate of the focus detection area. Using these, it is computable by the following formula (1).
図4(A)は相関量を波形のグラフで示した概念図である。グラフの横軸はシフト量を示し、縦軸は相関量を示す。相関量波形401には、極値付近402、403を有している例図である。この中でも相関量が小さい方ほど、A像とB像の一致度が高いことを示す。
FIG. 4A is a conceptual diagram showing the correlation amount as a waveform graph. The horizontal axis of the graph indicates the shift amount, and the vertical axis indicates the correlation amount. The
続いて相関変化量ΔCORの算出法について説明する。まず、図4(A)の相関量波形の概念図から、たとえば、1シフト飛ばしの相関量の差から相関変化量を算出する。このとき、シフト量をiで表し、最小シフト数は図3(D)中のp−s、最大シフト数は図3(D)中のq−tである。これらを用い、以下の式(2)によって算出する事ができる。
ΔCOR[i]=COR[i−1]−COR[i+1]
{(p−s+1)<i<(q−t−1)} (2)
Subsequently, a method of calculating the correlation change amount ΔCOR will be described. First, from the conceptual diagram of the correlation amount waveform of FIG. 4A, for example, the correlation change amount is calculated from the difference between the correlation amounts of one shift skipping. At this time, the shift amount is represented by i, the minimum shift number is p−s in FIG. 3 (D), and the maximum shift number is q−t in FIG. 3 (D). Using these, it can calculate by the following formula (2).
ΔCOR [i] = COR [i-1] -COR [i + 1]
{(P−s + 1) <i <(q−t−1)} (2)
図4(B)は相関変化量ΔCORを波形のグラフで例示した概念図である。グラフの横軸はシフト量を示し、縦軸は相関変化量を示す。相関変化量波形404は、相関変化量がプラスからマイナスになるポイント405、406を有する。このポイント405より相関変化量が0となる状態を相対的にA像とB像の一致度が高いA像信号とB像信号とのシフト量である。そのときのシフト量がデフォーカス量に対応することになる。
FIG. 4B is a conceptual diagram illustrating the correlation change amount ΔCOR with a waveform graph. The horizontal axis of the graph indicates the shift amount, and the vertical axis indicates the correlation change amount. The
図5(A)は図4(B)のポイント405を拡大したもので、相関変化量の波形404の一部分の波形を波形501としている。図5(A)を用いて、デフォーカス量に対応するピントずれ量PRDの算出法について例示する。ピントずれ量を整数部分βと小数部分αに分けて概念する。小数部分αは、図中の三角形ABCと三角形ADEの相似の関係から、以下の式(3)によって算出する事ができる。
FIG. 5A is an enlarged view of the
続いて小数部分βは、図5(A)中より以下の式(4)によって算出することができる。
β=k−1 (4)
Subsequently, the fractional part β can be calculated by the following equation (4) from FIG. 5 (A).
β = k−1 (4)
以上、αとβの和からピントずれ量PRDを算出する事ができる。 As described above, the defocus amount PRD can be calculated from the sum of α and β.
また、図4(B)のように複数のゼロクロスが存在する場合は、ゼロクロスでの相関量変化の急峻性maxder(以下、急峻性と呼ぶ)が大きいところを第1のゼロクロスとする。この急峻性はAFのし易さを示す指標で、値が大きいほどAFし易い点であることを示す。急峻性は以下の式(5)によって算出する事ができる。
maxder=│ΔCOR[k−1]│+│ΔCOR[k]│ (5)
When there are a plurality of zero crossings as shown in FIG. 4B, the place where the steepness maxder (hereinafter referred to as the steepness) of the correlation amount change at the zero crossings is large is taken as a first zero crossing. The steepness is an index indicating the ease of AF, and indicates that the larger the value, the easier the point is to perform AF. The steepness can be calculated by the following equation (5).
maxder = │ΔCOR [k-1] │ + │ΔCOR [k] │ (5)
以上のように、ゼロクロスが複数存在する場合は、急峻性によって第1のゼロクロスを決定する。 As described above, when there are a plurality of zero crossings, the first zero crossing is determined by the steepness.
続いてピントずれ量の信頼性レベルの算出法について例示する。これは、デフォーカス量の信頼性に対応するものであるが、以下に示す説明は例示で他の周知の方法で信頼性レベルを算出しても構わない。信頼性は、前述した急峻性や、A像信号、B像信号の2像の一致度fnclvl(以下、2像一致度と呼ぶ)によって定義する事ができる。2像一致度はピントずれ量の精度を表す指標で、値が小さいほど精度が良い。図5(B)は図4(A)の極値付近402の部分を拡大したもので、相関量波形401の一部分の波形である波形502である。これより、急峻性と2像一致度を算出法について例示する。2像一致度は以下の式(6)によって算出できる。
(i) │ΔCOR[k−1]│×2≦maxderのとき
fnclvl=COR[k−1]+ΔCOR[k−1]/4
(ii)│ΔCOR[k−1]│×2>maxderのとき
fnclvl=COR[k]−ΔCOR[k]/4 (6)
Subsequently, a method of calculating the reliability level of the focus shift amount will be illustrated. This corresponds to the reliability of the defocus amount, but the description given below may be used to calculate the reliability level by another known method by way of example. The reliability can be defined by the above-described sharpness and the degree of coincidence fnclvl (hereinafter referred to as the degree of coincidence of two images) of the two images of the A and B image signals. The degree of image coincidence is an index that represents the accuracy of the amount of focus shift, and the smaller the value, the better the accuracy. FIG. 5B is an enlarged view of a portion near the
(I) When | ΔCOR [k−1] | × 2 ≦ maxder
fnclvl = COR [k-1] + ΔCOR [k-1] / 4
(Ii) when | ΔCOR [k−1] | × 2> maxder
fnclvl = COR [k] -ΔCOR [k] / 4 (6)
<デフォーカス量算出>
図6は、デフォーカス量算出まで一連の処理の流れを示したものである。なお、下記の例示の説明では、ピントずれ量とデフォーカス量とを区別して例示する。この点、本願技術思想におけるデフォーカス量は、合焦位置からの絶対的な距離やパルス数で概念してもよいし、そういった概念と次元、単位の異なる概念や相対的な概念でもよい。どれだけ合焦状態から離れていると判断できるか、どれだけフォーカス制御すれば合焦状態に移行できると判断できるかを示す概念である。このような概念としてデフォーカス情報を取得することを「フォーカス情報を取得する」と説明する。
<Calculating defocus amount>
FIG. 6 shows the flow of a series of processing up to calculation of the defocus amount. In the following description of the example, the defocus amount and the defocus amount are distinguished and illustrated. In this respect, the defocus amount in the technical concept of the present application may be conceptualized as an absolute distance from the in-focus position or the number of pulses, or may be a conceptual or relative concept different from such concept, dimension or unit. It is a concept indicating how much it can be determined that the subject is out of focus and how much focus control can be made to make it possible to shift to the in-focus state. Acquisition of defocus information as such a concept is described as "acquisition of focus information".
ステップS601で、先に例示したように設定したそれぞれの領域に対応する撮像素子107の位置の画素から像信号A、Bを取得する。次に、取得した像信号から相関量を算出する(ステップS602)。続いて、算出した相関量から相関変化量を算出する(ステップS603)。そして、算出した相関変化量からピントずれ量を算出する(ステップS604)。また、算出したピントずれ量がどれだけ信頼できるのかを表す信頼性レベルを算出する(ステップS605)。これらの処理を、焦点検出領域の数に応じた数行う。そして、焦点検出領域ごとにピントずれ量をデフォーカス量に変換する(ステップS606)。
In step S601, the image signals A and B are acquired from the pixel at the position of the
<デフォーカス量の信頼度レベル>
次に、本実施例におけるデフォーカス量の信頼度レベルについて説明する。
<Reliability level of defocus amount>
Next, the reliability level of the defocus amount in the present embodiment will be described.
デフォーカス量の信頼度レベルとは、算出されたデフォーカス量の精度の確からしさを示す指標であり図1のAF信号処理部110によって算出される。基本的に算出されたデフォーカス量が信頼できると判断できる場合に信頼度レベルが高く、信頼できなくなるにつれて信頼度レベルは下がっていく。本実施例における信頼度レベルは1から4までの数値で表現し、1が最も信頼度が高く、4が最も低い信頼度を示す。各信頼度の詳細は次の通りである。 The reliability level of the defocus amount is an index indicating the accuracy of the calculated defocus amount, and is calculated by the AF signal processing unit 110 in FIG. Basically, the reliability level is high when it can be judged that the defocus amount calculated is reliable, and the reliability level is lowered as it becomes unreliable. The reliability level in the present embodiment is expressed by numerical values from 1 to 4, 1 being the highest reliability and 4 being the lowest reliability. The detail of each reliability is as follows.
デフォーカス量の信頼度レベルが「1」の場合とは、A像信号、B像信号のコントラストが高く、A像信号とB像信号の形が似ている(二像一致度レベルが高い)状態や、すでに当該主被写体像に合焦している状態にある場合である。この場合にはデフォーカス量を信頼して駆動を行う。 The contrast between the A image signal and the B image signal is high, and the shapes of the A image signal and the B image signal are similar to those in the case where the reliability level of the defocus amount is “1” (two image coincidence level is high) This is the case where the camera is in a state or in a state in which the image of the main subject is already in focus. In this case, the drive is performed by relying on the defocus amount.
デフォーカス量の信頼度レベルが「2」の場合とは、信頼度レベルが「1」ほどではないもののA像信号、B像信号のコントラストが高く、A像信号とB像信号の形が似ている状態を示す。または、すでに当該主被写体像に対して一定の誤差範囲内で合焦近傍に位置する状態を示す。この場合、デフォーカス量に基づいて目標位置を決定し駆動を行う。 When the reliability level of the defocus amount is “2”, the contrast of the A image signal and the B image signal is high but the shapes of the A image signal and the B image signal are similar although the reliability level is not as low as “1”. Show the status. Alternatively, it shows a state in which the main subject image is already in the vicinity of the in-focus position within a certain error range. In this case, the target position is determined and driven based on the defocus amount.
デフォーカス量の信頼度レベルが「3」の場合とは、AF信号処理部110で算出される二像一致度レベルが所定値よりも低いものの、A像信号、B像信号を相対的にシフトさせて得られる相関に一定の傾向があって、デフォーカス方向は信頼できる状態である。たとえば、主被写体に対して小ボケしている状態に多い判定である。 When the reliability level of the defocus amount is "3", although the two-image coincidence degree level calculated by the AF signal processing unit 110 is lower than a predetermined value, the A and B image signals are relatively shifted. There is a fixed tendency in the correlation obtained by the above, and the defocus direction is in a reliable state. For example, the determination is often performed in a state in which the main subject is slightly blurred.
デフォーカス量、およびデフォーカス方向も信頼できない場合を信頼度レベルが「4」と判定する。例えば、A像信号、B像信号のコントラストが低く、像一致度レベルも低い状態である。これは、被写体に対して大きくボケている状態のときに多く、デフォーカス量の算出が困難な状態である。 When the defocus amount and the defocus direction are not reliable either, it is determined that the reliability level is “4”. For example, the contrast of the A image signal and the B image signal is low, and the image matching level is also low. This is often the case where the object is largely blurred, and it is difficult to calculate the defocus amount.
<焦点検出領域のブロック>
次に、本実施例における多点の焦点検出領域より構成される焦点検出領域のブロックについて説明する。
<Block of focus detection area>
Next, the blocks of the focus detection area configured by the multi-point focus detection area in the present embodiment will be described.
焦点検出領域のブロックとは、図3(D)の演算対象の領域を格子状に配置したものであり、図11(a)(b)のように本実施例では3×3点の焦点検出領域を設定する。先に図2で説明した本実施例における画像センサーとしての撮像素子107は各画素部から位相差AF用の2つの信号を出力できるようになっており、焦点検出領域は任意の位置に設定することが可能である。そのため図11(a)のように光軸中心に格子状に配置したものを、カメラ操作部115からの入力に応じて図11(b)の位置に移動し、設定することが可能である。
The block in the focus detection area is the area to be calculated in FIG. 3D arranged in a grid, and as shown in FIGS. 11A and 11B, the focus detection of 3 × 3 points in this embodiment is performed. Set the area. The
本実施例では焦点検出領域のブロックの各焦点検出領域よりデフォーカス量を算出し、その結果に基づいて焦点調整が実施されるものとする。 In this embodiment, the defocus amount is calculated from each focus detection area of the block of the focus detection area, and focus adjustment is performed based on the result.
<AF制御処理>
次に、カメラ制御部114が実施するAF制御処理について図8を用いて説明する。
<AF control processing>
Next, AF control processing performed by the
図8は、図1におけるカメラ制御部114が実行するAF制御処理を示すフローチャートである。本処理は、カメラ制御部114内のROM上に格納されたコンピュータプログラムに従って実行される。たとえば、1フィールド画像(以下、1フレーム、1画面ともいう)を生成するための撮像素子107からの撮像信号の読み出し周期(垂直同期期間ごと)で実行される。また複数の垂直同期期間(Vレート)ごとに繰り返すようにしてもよい。
FIG. 8 is a flowchart showing the AF control process performed by the
まず、図8のステップS801ではAF信号処理部110において、AF信号が更新されたかを確認する。その際、AF信号が更新されている場合は次のステップS802にてその結果(デフォーカス量及び信頼度)を取得する。一方で、ステップS801にてAF信号が更新されていない場合にはそのまま処理を終了する。 First, in step S801 in FIG. 8, the AF signal processing unit 110 confirms whether the AF signal has been updated. At this time, when the AF signal is updated, the result (the defocus amount and the reliability) is acquired in the next step S802. On the other hand, when the AF signal is not updated at step S801, the process is ended as it is.
次にステップS803にてズームレンズ101が移動中か否かを判断する。具体的にはカメラ操作部115にて撮影者がズームの操作レバー等を操作した場合、それを検出したカメラ制御部114がズームレンズ駆動部104を制御し、ズームレンズ101を所定の速度で駆動する。よって、カメラ制御部114はズームレンズ101の移動状態を把握している。ステップS803にてズームレンズ101が移動中でない場合にはステップS804のズーム停止時焦点検出領域選択処理に進み、ステップS803にてズームレンズ101が移動中である場合には次のステップS809のズーム時焦点検出領域選択処理に進む。ステップS804、ステップS809の処理は共に今回の制御タイミングにてフォーカスレンズ103を移動させる際の目標位置を決定する際に使用する、焦点調整対象となる焦点検出領域の選択処理であり、詳細は後述する。
Next, in step S803, it is determined whether the
ステップS803にてズームレンズ101が移動中でない場合、ステップS804の後はステップS805に進む。ステップS805はズーム停止時目標位置選択処理で、フォーカスレンズ103を移動させる際の目標位置を選択する処理であり、詳細は後述する。次にステップS806にて合焦であるか否かを判断する。具体的にはステップS804、ステップS805の結果として、選択された焦点検出領域におけるデフォーカス量が所定の範囲に入っているか否かを判断する。本実施例中では所定の範囲として焦点深度F・δ(F:F値、δ:許容錯乱円径)を基準として±1・F・δの範囲内に入っているか否かで合焦状態を判別する。ステップS806にて合焦と判断される場合にはステップS807に進み、ステップS804で選択された焦点検出領域情報(合焦枠情報)を記憶する。一方で、ステップS806で合焦と判断されない場合にはステップS808に進み過去に選択された焦点検出領域情報(合焦枠情報)をクリアする。その後、ステップS812に進み、カメラ制御部114はフォーカスレンズ駆動部106を制御し、選択・決定された目標位置に対してフォーカスレンズ103を移動させる。
If the
ステップS803にてズームレンズ101が移動中である場合、ステップS809の後はステップS810に進む。ステップS810はズーム時目標位置選択処理で、フォーカスレンズ103を移動させる際の目標位置を選択する処理であり、詳細は後述する。
If the
ステップS811ではステップS810で選択された目標距離に基づいて、次の制御タイミングにおけるフォーカスレンズ位置を予測する。具体的には、図7の各被写体距離におけるカム軌跡が示すように、ある被写体距離にて合焦状態を維持するためには焦点距離の変化に合わせて合う被写体距離のカム軌跡をトレースするようにフォーカスレンズを制御する必要がある。そのため、ステップS811ではステップS810で選択された目標位置にピントがあった状態を維持するため、次の制御タイミング時点でどの位置にフォーカスレンズを制御すべきかをカム軌跡に基づいて決定する。なお本実施例では垂直同期期間ごとにAF制御処理が実行されることを前提とするため、その時間に合う分だけ進んだズームレンズ101の焦点距離を算出し、それに基づいてフォーカスレンズ位置をカム軌跡より特定する。また、本実施例中のカム軌跡情報はカメラ制御部114内のROMに格納されており、ROM上に保持していない被写体距離のカム軌跡については隣接するカム軌跡より補間により求めるものとする。
In step S811, the focus lens position at the next control timing is predicted based on the target distance selected in step S810. Specifically, as shown by the cam locus at each object distance in FIG. 7, in order to maintain the in-focus state at a certain object distance, the cam locus of the object distance matching the change of the focal distance is traced It is necessary to control the focus lens. Therefore, in step S811, in order to maintain a state in which the target position selected in step S810 is in focus, it is determined based on the cam locus at which position the focus lens should be controlled at the next control timing. In the present embodiment, it is assumed that the AF control process is executed every vertical synchronization period, so the focal length of the
次にステップS812にてカメラ制御部114はフォーカスレンズ駆動部106を制御し、選択・決定された目標位置に対してフォーカスレンズ103を移動させる。
Next, in step S812, the
<ズーム停止時の焦点検出領域の選択処理>
次に先の図8のステップS804で示したズーム停止時焦点検出領域選択処理について図12(A)を用いて説明する。
<Selection process of focus detection area at zoom stop>
Next, the zoom stop time focus detection area selection process shown in step S804 in FIG. 8 described above will be described using FIG.
図12(A)は、図1におけるカメラ制御部114が実行するズーム停止時焦点検出領域選択処理を示すフローチャートである。先に示したAF制御処理と同様にカメラ制御部114内のROM上に格納されたコンピュータプログラムに従って実行させる。
FIG. 12A is a flowchart illustrating the zoom stop time focus detection area selection process performed by the
まず図12(A)のステップS1201aでは事前準備として選択枠情報を初期化する。本実施例のズーム停止時焦点検出領域選択処理では焦点検出領域のブロックの中から後述するズーム停止時目標位置選択処理にて使用するデフォーカス量、信頼度を決定するための焦点検出領域を選択する。その際、ステップS1201aでは条件に合う焦点検出領域を選ぶ過程で使用する一時的な記憶領域を初期化する。なお、この時点での初期の選択枠情報は3×3枠の中央枠として設定されるものとする。 First, in step S1201a of FIG. 12A, selection frame information is initialized as preparation in advance. In the zoom stop focus detection area selection process of this embodiment, the focus detection area for determining the defocus amount and the reliability to be used in the zoom stop target position selection process described later is selected from the blocks of the focus detection area. Do. At this time, in step S1201a, a temporary storage area used in the process of selecting a focus detection area that meets the conditions is initialized. The initial selection frame information at this point of time is set as a 3 × 3 center frame.
次にステップS1202aでは以後の処理で評価する焦点検出領域を決定する。なお本実施例では図11a,bで示した焦点検出領域のブロックを構成する各焦点検出領域に関して、(1)〜(9)の順で評価対象枠として処理されるものとする。 Next, in step S1202a, a focus detection area to be evaluated in the subsequent processing is determined. In this embodiment, each focus detection area constituting the block of the focus detection area shown in FIGS. 11a and 11b is processed as an evaluation object frame in the order of (1) to (9).
次にステップS1203aでは焦点検出領域のブロックを構成する全ての焦点検出領域の評価が完了したか否かを判断する。ステップS1203aにて、全ての焦点検出領域の評価が完了している場合はそのまま処理を終了する。一方で、全ての焦点検出領域の評価が完了していない場合には次のステップS1204aに進む。 Next, in step S1203a, it is determined whether the evaluation of all the focus detection areas constituting the block of the focus detection area has been completed. If the evaluation of all the focus detection areas is completed in step S1203a, the process ends. On the other hand, if the evaluation of all the focus detection areas has not been completed, the process proceeds to the next step S1204a.
ステップS1204aでは、評価対象としている焦点検出領域より生成される信頼度を判断する。本実施例中ではステップS1203aにて信頼度が4よりも大きい場合は次のステップS1204aに進み、小さい場合はステップS1202aに戻り次の評価対象焦点検出領域の処理に移る。 In step S1204a, the degree of reliability generated from the focus detection area to be evaluated is determined. In the present embodiment, if the reliability is higher than 4 in step S1203a, the process proceeds to the next step S1204a, and if smaller, the process returns to step S1202a to process the next focus detection area for evaluation.
ステップS1205aでは評価対象枠が現在の選択枠の信頼度よりも高いか否かを判断する。ステップS1205aにて評価対象枠が現在の選択枠の信頼度よりも高い場合は次のステップS1206aに進み、低い場合はステップS1202aに戻り次の評価対象焦点検出領域の処理に移る。 In step S1205a, it is determined whether the evaluation object frame is higher than the reliability of the current selection frame. If it is determined in step S1205a that the evaluation object frame is higher than the reliability of the current selection frame, the process proceeds to step S1206a. If the evaluation object frame is lower, the process returns to step S1202a to process the next evaluation object focus detection area.
ステップS1206aでは評価対象枠のデフォーカス量及び現在のフォーカスレンズ位置に基づき算出した検出位置と現在の選択枠の検出位置とを比較し、評価対象枠の検出位置が現在の選択枠の検出位置よりも近いか否かを判断する。ステップS1206aにて評価対象枠の検出位置がより近側の場合は次のステップS1207aに進み、近側でない場合はステップS1202aに戻り次の評価対象焦点検出領域の処理に移る。 In step S1206a, the detection position calculated based on the defocus amount of the evaluation target frame and the current focus lens position is compared with the detection position of the current selection frame, and the detection position of the evaluation target frame is from the current detection position of the selection frame. Determine if it is also close. If it is determined in step S1206a that the detection position of the evaluation target frame is closer, the process proceeds to step S1207a. If not, the process returns to step S1202a to process the next focus detection area for evaluation.
ステップS1207aではステップS1202aからステップS1206aの処理を実施することで、それまでに評価した焦点検出領域の中でより信頼度が高く、最至近の結果を示す焦点検出領域を選び出し記憶する。その後、S1202aに戻り次の評価対象焦点検出領域の処理に移る。 In step S1207a, the processing from step S1202a to step S1206a is performed to select and store the focus detection area having the higher reliability and the closest result among the focus detection areas evaluated up to that point. After that, the process returns to step S1202a and proceeds to the processing of the next focus detection area to be evaluated.
このようにズーム停止時焦点検出領域選択処理では焦点検出領域のブロックを構成する各焦点検出領域から、より信頼度が高く、より近側の結果を示す焦点検出領域を選び出す。 As described above, in the zoom stop time focal point detection area selection process, the focal point detection areas having higher reliability and indicating the near side result are selected from the respective focal point detection areas constituting the blocks of the focal point detection area.
<ズーム停止時の目標位置の選択処理>
次に先の図8のステップS805で示したズーム停止時目標位置選択処理について図9(A)、図10(A)を用いて説明する。
<Selection process of target position at zoom stop>
Next, the zoom-stop target position selection process shown in step S805 in FIG. 8 will be described with reference to FIGS. 9 (A) and 10 (A).
図9(A)は、図1におけるカメラ制御部114が実行するズーム停止時目標位置選択処理を示すフローチャートである。先に示したAF制御処理と同様にカメラ制御部114内のROM上に格納されたコンピュータプログラムに従って実行される。
FIG. 9A is a flowchart showing a zoom stop target position selection process performed by the
まず図9(A)のステップS901aでは図8のステップS804で選択された焦点検出領域の信頼度に基づき、取得した信頼度が「1」か否かを判断する。ステップS901aで信頼度が「1」である場合にはステップS906aに進み、信頼度が「1」でない場合にはステップS902aに進む。 First, in step S901a of FIG. 9A, it is determined whether the acquired reliability is “1” based on the reliability of the focus detection area selected in step S804 of FIG. If the degree of reliability is "1" at step S901a, the process proceeds to step S906a. If the degree of reliability is not "1", the process proceeds to step S902a.
信頼度が「1」である場合はすなわち、先に示した通り検出されているデフォーカス量の精度が高く、デフォーカス量より算出した目標位置にフォーカスレンズを制御することで合焦できる場合である。よってステップS906aでは検出されているデフォーカス量及び現在のフォーカスレンズ位置に基づき算出したフォーカスレンズ位置(検出位置)を目標位置として設定する。このように、検出位置に直接フォーカスレンズ103を駆動する動かし方を本実施例ではターゲット駆動と呼ぶ。
In the case where the reliability is “1”, that is, the accuracy of the defocus amount detected as described above is high, and focusing can be performed by controlling the focus lens to the target position calculated from the defocus amount. is there. Therefore, in step S906a, the focus lens position (detection position) calculated based on the detected defocus amount and the current focus lens position is set as the target position. Thus, how to move the
その後、ステップS910aでサーチフラグをOFFとして処理を終了する。本実施例では後述する目標位置をフォーカスレンズ103の可動域の無限端もしくは至近端に設定し、フォーカスレンズ103を大きく動かしながら合焦位置を特定する動きをサーチ駆動と呼び、その実行状態を示すフラグをサーチフラグと呼ぶ。
Thereafter, in step S910a, the search flag is set to OFF, and the process ends. In this embodiment, a target position to be described later is set at the infinite end or the near end of the movable range of the
次にステップS902aでは取得した信頼度が「2」か否かを判断する。ステップS902aで信頼度が「2」である場合にはステップS907aに進み、信頼度が「2」でない場合にはステップS903aに進む。
Next, in
信頼度が「2」である場合はすなわち、先に示した通り検出されているデフォーカス量の精度が一定の誤差を含んでいる状態を指す。そのため、ステップS907aでは検出されているデフォーカス量及び現在のフォーカスレンズ位置に基づき算出した検出位置に対して係数γをかけた掛けたものを目標位置とし設定する。なお係数γは1未満の数値であり、本実施例で想定するγは0.8とする。よって、ステップS907aは検出位置の80%の位置を目標位置として設定している。このように、検出位置に行き足りないようにフォーカスレンズ103を駆動する動かし方を本実施例ではデフォーカス駆動と呼ぶ。
When the reliability is "2", it means that the accuracy of the defocus amount detected as described above includes a constant error. Therefore, in step S 907 a, the target position is set by multiplying the detected position calculated based on the detected defocus amount and the current focus lens position by the coefficient γ. The coefficient γ is a numerical value less than 1, and γ assumed in this embodiment is 0.8. Therefore, step S 907 a sets the position of 80% of the detected position as the target position. Thus, how to move the
その後、ステップS910aでサーチフラグをOFFとして処理を終了する。 Thereafter, in step S910a, the search flag is set to OFF, and the process ends.
次にステップS903aでは取得した信頼度が「3」か否かを判断する。ステップS903aで信頼度が「3」である場合にはステップS908aに進み、信頼度が「3」でない場合にはステップS904aに進む。 Next, in step S903a, it is determined whether the acquired reliability is "3". If the degree of reliability is "3" in step S903a, the process proceeds to step S908a. If the degree of reliability is not "3", the process proceeds to step S904a.
信頼度が「3」である場合はすなわち、先に示した通り検出されているデフォーカス量そのものの精度は低いもののデフォーカス方向は信頼できる状態を指す。そのため、ステップS908aでは検出されているデフォーカス方向の端を目標位置として設定しサーチ駆動を実施する。そして、次のステップS911aにてサーチフラグをONに設定し処理を終了する。 In the case where the reliability is "3", that is, although the accuracy of the defocus amount itself detected as described above is low, the defocus direction indicates a reliable state. Therefore, in step S908a, the end of the detected defocus direction is set as the target position, and search drive is performed. Then, in the next step S911a, the search flag is set to ON, and the process ends.
ステップS904aではサーチフラグがOFFか否かを判断する。ステップS904aにてサーチフラグがOFFの場合には次のステップS909aに進み、サーチフラグがONの場合にはステップS905aに進む。 In step S904a, it is determined whether the search flag is OFF. If the search flag is OFF in step S904a, the process advances to step S909a. If the search flag is ON, the process advances to step S905a.
ステップS903aにて信頼度が「3」でない場合はすなわち、信頼度が「4」の場合であり、デフォーカス量、およびデフォーカス方向も信頼できない場合を指す。この場合、AF信号処理部110より得られる情報のみでは合焦位置を特定することは困難である。そのため、ステップS909aでは現在のフォーカスレンズ位置とフォーカスレンズ103の無限側の端、至近側の端の位置関係に基づき、駆動範囲の広い側の端を目標位置として設定し、サーチ駆動を実施する。
The case where the reliability is not "3" in step S903a means that the reliability is "4", and the defocus amount and the defocus direction can not be relied upon. In this case, it is difficult to specify the in-focus position only with the information obtained from the AF signal processing unit 110. Therefore, in step S909a, the end on the wide side of the drive range is set as the target position based on the positional relationship between the current focus lens position and the infinity end and the close end of the
そして、次のステップS911aにてサーチフラグをONに設定し処理を終了する。 Then, in the next step S911a, the search flag is set to ON, and the process ends.
ステップS905aではフォーカスレンズ103が無限端、至近端のいずれかに到達したか否かを判断する。ステップS905aにていずれかの端に到達した場合はステップS909aに進み、再度目標位置を設定し直す。先の説明の通り、駆動範囲の広い側の端を目標位置として設定するため、端に到達している場合は逆側の端に目標位置を設定することになる。一方で、ステップS905aにて端に到達していない場合には、そのまま処理を終了し、サーチ駆動を継続する。
In step S905a, it is determined whether the
このように、本実施例におけるズーム停止時目標位置選択処理では、図10(A)の表に示す通りデフォーカス量の信頼度が高い場合はデフォーカス量に基づいた目標位置を設定する。そして、信頼度が低い場合は目標位置をフォーカスレンズ103の可動範囲の端に設定する。そのため、AF全体の動きとしては、信頼度が低いほど大きなピント変動を伴って合焦位置を特定する動きとなる。
As described above, in the zoom-stop target position selection process in the present embodiment, as shown in the table of FIG. 10A, when the reliability of the defocus amount is high, the target position is set based on the defocus amount. Then, if the degree of reliability is low, the target position is set at the end of the movable range of the
<ズーム時の焦点検出領域の選択処理>
次に先の図8のステップS809で示したズーム時焦点検出領域選択処理について図12(B)を用いて説明する。
<Selection process of focus detection area at zoom>
Next, the zoom focus detection area selection process shown in step S809 in FIG. 8 will be described with reference to FIG.
図12(B)は、図1におけるカメラ制御部114が実行するズーム時焦点検出領域選択処理を示すフローチャートである。先に示したAF制御処理と同様にカメラ制御部114内のROM上に格納されたコンピュータプログラムに従って実行させる。
FIG. 12B is a flowchart showing a zoom focus detection area selection process performed by the
まず図12(B)のステップS1201bでは初回の実行であるか否かを判断する。ステップS1201bにて初回である場合にはステップ1202bに進み、初回でない場合にはステップS1206bに進む。 First, in step S1201b of FIG. 12B, it is determined whether it is the first execution. If it is the first time in step S1201b, the process proceeds to step 1202b, and if it is not the first time, the process proceeds to step S1206b.
ステップS1202bにて図8のステップS807にて記録した合焦枠が存在するか否かを判断する。ステップS1202bにて合焦枠がある場合には次のステップS1203bに進み、無い場合にはステップS1210bに進む。 In step S1202b, it is determined whether the in-focus frame recorded in step S807 in FIG. 8 exists. If the in-focus frame is present at step S1202b, the process proceeds to the next step S1203b, and if not, the process proceeds to step S1210b.
ステップS1203bでは選択枠を合焦枠と設定する。つまり、ズーム開始前に合焦枠が存在している場合、ズーム時の初期選択枠はズーム開始の直前の合焦枠を使用する。
次にステップS1204bにて選択枠のデフォーカス量及び現在のフォーカスレンズ位置より算出した検出位置と現在の焦点距離を用いて現在の焦点検出結果に基づいた被写体距離を算出する。
In step S1203b, the selection frame is set as the in-focus frame. That is, when the in-focus frame exists before the zoom start, the initial selection frame at the zoom uses the in-focus frame immediately before the zoom start.
Next, in step S 1204 b, using the defocus amount of the selected frame and the detection position calculated from the current focus lens position and the current focal length, the subject distance is calculated based on the current focus detection result.
次にステップS1205bにてステップS1204bで算出した合焦枠の被写体距離を記録し処理を終了する。なお、ステップS1201bからステップS1205bの一連の処理では、ズーム開始前の合焦枠をズーム中の選択枠とし、選択枠の焦点検出結果より算出した被写体距離を選択枠内の被写体出入りの判断基準として記憶する。 Next, in step S1205b, the subject distance of the in-focus frame calculated in step S1204b is recorded, and the process is ended. In the series of processes from step S1201b to step S1205b, the in-focus frame before the start of zooming is set as the selection frame during zooming, and the subject distance calculated from the focus detection result of the selection frame is used as the determination criterion for entering and leaving the object in the selection frame. Remember.
ステップS1202bにて合焦枠がない場合はステップS1210bに進み、選択枠を3×3の焦点検出領域のブロックの中央枠に設定し、処理を終了する。 If there is no in-focus frame in step S1202b, the process advances to step S1210b to set the selection frame in the center frame of the 3 × 3 focus detection area block, and the processing ends.
ステップS1201bにて初回以降の処理である場合にはステップS1206bに進む。 If it is determined in step S1201b that the process is performed after the first process, the process advances to step S1206b.
ステップS1206bにて選択枠が合焦枠である場合(ステップS1203bを経由している場合)には、ステップS1207bに進み、選択枠が合焦枠でない場合はステップS1210bに進む。 If it is determined in step S1206b that the selection frame is the in-focus frame (if step S1203b is performed), the process advances to step S1207b. If the selection frame is not the in-focus frame, the process advances to step S1210b.
ステップS1207bではステップS1204bと同様に現在の選択枠の焦点検出結果に基づいて被写体距離を算出する。 In step S1207b, the subject distance is calculated based on the focus detection result of the current selection frame, as in step S1204b.
次にステップS1208bではステップS1207bで算出した被写体距離と、ズーム開始時にステップS1205bで記憶した被写体距離を比較し、所定の距離変化が生じているか否かを判断する。なお、本実施例における所定の距離変化とは、現在の焦点距離における焦点深度F・δ(F:F値、δ:許容錯乱円径)を基準として±3・F・δ相当の被写体距離変化を指す。S1208bにて追従する被写体距離の変化を検出した場合はステップS1209bに進み、被写体距離の変化を検出していない場合はS1211bに進む。 In step S1208b, the subject distance calculated in step S1207b is compared with the subject distance stored in step S1205b at the start of zooming to determine whether a predetermined distance change has occurred. Note that the predetermined distance change in the present embodiment means a subject distance change equivalent to ± 3 · F · δ with reference to the focal depth F · δ (F: F value, δ: permissible circle of confusion diameter) at the current focal length. Point to If a change in the subject distance to follow is detected in S1208b, the process proceeds to step S1209b, and if a change in the subject distance is not detected, the process proceeds to S1211b.
被写体距離の変化を検出した場合にステップS1209bでは図8のステップS808と同様に合焦枠のクリアを実施し、選択枠の切り替えのためステップS1210bに進む。 When a change in the subject distance is detected, in step S1209b, the in-focus frame is cleared as in step S808 in FIG. 8, and the process proceeds to step S1210b to switch the selection frame.
ステップS1210bでは選択枠を3×3の焦点検出領域のブロックの中央枠に設定し、処理を終了する。 In step S1210b, the selection frame is set to the center frame of the block of the 3 × 3 focus detection area, and the process ends.
ステップS1208bにて追従する被写体距離の変化を検出していない場合にはステップS1211bに進み、ステップS1211bでは現在の焦点距離における合焦可能範囲内に追従する被写体距離が入っているか否かを判断する。本実施例では、焦点距離が広角側と望遠側で合焦可能範囲(合焦できる距離範囲)が変化するような光学系の構成を想定している。このような構成の場合、例えばズーム動作を始めた際に合焦していた被写体距離が、ズームの過程で、その時点での焦点距離での合焦可能範囲から外れる場合が想定される。このようなケースを想定し、ステップS1211bにて追従する被写体距離が合焦可能範囲内にあるか否かを判断し、範囲内の場合にはそのまま処理を終了し、範囲外の場合にはステップS1209bに進む。ステップS1209b以降の処理については先の説明と同様である。 If the change in subject distance to follow in step S1208b is not detected, the process advances to step S1211b, and it is determined in step S1211b whether the subject distance to follow in the focusable range at the current focal distance is included. . In this embodiment, it is assumed that the optical system is configured such that the focusable range (focusable distance range) changes between the wide angle side and the telephoto side. In the case of such a configuration, for example, it is assumed that the subject distance focused when starting the zoom operation is out of the focusable range at the focal distance at that point in the process of zooming. Assuming such a case, it is determined in step S1211b whether or not the subject distance to be followed is within the focusable range, and if it is within the range, the processing is ended as it is, and if it is out of the range, the step is Go to S1209 b. The processes after step S1209b are the same as those described above.
このように、本実施例におけるズーム時焦点検出領域選択処理により、ズーム中の多くの場合に焦点検出領域のブロックの中央枠を選択枠として使用する。これにより、ズーム中のピント制御に対して各焦点検出領域内の被写体の出入りの影響が反映されることを抑えることが可能である。加えて、ズーム停止時に焦点検出領域のブロックのいずれかの焦点検出領域で合焦していた場合には、その焦点検出領域を引き継いでズーム中の焦点検出領域が選択される。これにより、ズーム開始直後にピントが大きく変化することを抑えることが可能である。さらに、合焦枠を選択枠として引き継いだ場合、ズーム中に使用する選択枠の焦点検出結果に基づき算出された被写体距離の変化を監視することで、選択枠内の被写体の変化を検出することが可能となる。これによりズーム開始時の選択枠内の被写体がズームにより焦点検出領域外に移動したことを検出した場合には焦点検出領域のブロックの中央枠を選択枠に切り替えられる。このため、撮影者が指定した焦点検出領域のブロックの位置を反映した形でズーム中のピント制御を継続することが可能である。 As described above, in the zoom-time focus detection area selection process in this embodiment, the center frame of the block of the focus detection area is used as the selection frame in many cases during zooming. Thus, it is possible to suppress the influence of the in / out of the subject in each focus detection area on the focus control during zooming. In addition, when focusing is performed in any focus detection area of the block of the focus detection area when the zoom is stopped, the focus detection area during zooming is selected taking over the focus detection area. This makes it possible to suppress a large change in focus immediately after the start of zooming. Furthermore, when the in-focus frame is taken over as the selection frame, the change in the subject distance calculated based on the focus detection result of the selection frame used during zooming is monitored to detect the change of the subject in the selection frame. Is possible. Thus, when it is detected that the subject in the selection frame at the start of zooming has moved out of the focus detection area by zooming, the central frame of the block in the focus detection area is switched to the selection frame. For this reason, it is possible to continue the focus control during zooming in a manner that reflects the position of the block in the focus detection area designated by the photographer.
<ズーム時の目標位置の選択処理>
次に先の図8のステップS808で示したズーム時目標位置選択処理について図9(B)、図10(B)(C)を用いて説明する。
<Selection process of target position at zoom>
Next, the zoom target position selection process shown in step S 808 in FIG. 8 will be described with reference to FIGS. 9B and 10C.
図9(B)は、図1におけるカメラ制御部114が実行するズーム時目標位置選択処理を示すフローチャートである。先に示したAF制御処理と同様にカメラ制御部114内のROM上に格納されたコンピュータプログラムに従って実行される。
FIG. 9B is a flowchart showing a zoom target position selection process performed by the
まず図9(B)のステップS901bでは図8のステップS809で選択された焦点検出領域の信頼度に基づき、取得した信頼度が「1」か否かを判断する。ステップS901bで信頼度が「1」である場合にはステップS904bに進み、信頼度が「1」でない場合にはステップS902bに進む。
First, in step S 901 b of FIG. 9B, it is determined whether the acquired reliability is “1” based on the reliability of the focus detection area selected in
信頼度が「1」である場合はすなわち、先に示した通り検出されているデフォーカス量の精度が高く、デフォーカス量より算出した目標位置にフォーカスレンズを制御することで合焦できる場合である。よってステップS904bでは検出されているデフォーカス量及び現在のフォーカスレンズ位置に基づき算出したフォーカスレンズ位置(検出位置)を目標位置として設定する。 In the case where the reliability is “1”, that is, the accuracy of the defocus amount detected as described above is high, and focusing can be performed by controlling the focus lens to the target position calculated from the defocus amount. is there. Therefore, in step S904b, the focus lens position (detection position) calculated based on the detected defocus amount and the current focus lens position is set as the target position.
次にステップS902bでは取得した信頼度が「2」か否かを判断する。ステップS902bで信頼度が「2」である場合にはステップS905bに進み、信頼度が「2」でない場合にはステップS903bに進む。 Next, in step S902b, it is determined whether the acquired reliability is "2". If the degree of reliability is "2" in step S902b, the process proceeds to step S905b. If the degree of reliability is not "2", the process proceeds to step S903b.
信頼度が「2」である場合はすなわち、先に示した通り検出されているデフォーカス量の精度が一定の誤差を含んでいる状態を指す。そのため、ステップS905bでは検出されているデフォーカス量及び現在のフォーカスレンズ位置に基づき算出した検出位置に対して係数αをかけた掛けたものを目標位置とし設定する。なお係数αは1未満の数値であり、本実施例で想定するαは0.8とする。よって、ステップS905bは検出位置の80%の位置を目標位置として設定している。 When the reliability is "2", it means that the accuracy of the defocus amount detected as described above includes a constant error. Therefore, in step S905b, the target position is set by multiplying the detected position calculated based on the detected defocus amount and the current focus lens position by the coefficient α. The coefficient α is a numerical value less than 1 and α assumed in this embodiment is 0.8. Therefore, step S 905 b sets the position of 80% of the detected position as the target position.
次にステップS903bでは取得した信頼度が「3」か否かを判断する。ステップS903bで信頼度が「3」である場合にはステップS906bに進み、信頼度が「3」でない場合にはステップS907bに進む。 Next, in step S 903 b, it is determined whether the acquired reliability is “3”. If the degree of reliability is "3" in step S903b, the process proceeds to step S906b, and if the degree of reliability is not "3", the process proceeds to step S907b.
信頼度が「3」である場合はすなわち、先に示した通り検出されているデフォーカス量そのものの精度は低いもののデフォーカス方向は信頼できる状態を指す。そのため、ステップS906bではデフォーカス方向と現在のフォーカスレンズ位置に基づき、現在位置に対してデフォーカス方向にシフト量β分だけずらした位置を目標位置として設定する。なお本実施例で想定するβは焦点深度F・δ(F:F値、δ:許容錯乱円径)を基準に1・F・δ程度と設定する。 In the case where the reliability is "3", that is, although the accuracy of the defocus amount itself detected as described above is low, the defocus direction indicates a reliable state. Therefore, in step S906b, based on the defocus direction and the current focus lens position, a position shifted from the current position by the shift amount β in the defocus direction is set as the target position. Note that β assumed in the present embodiment is set to about 1 · F · δ based on the focal depth F · δ (F: F value, δ: diameter of permissible circle of confusion).
次にS903bにて信頼度が「3」でない場合、すなわち、信頼度が「4」の場合にはステップS907bに進み、目標位置を現在のフォーカスレンズ位置に設定する。 If it is determined in step S903b that the reliability is not "3", that is, if the reliability is "4", the process advances to step S907b to set the target position to the current focus lens position.
ステップS904b、S905b、S906b、S907bを経由し、目標位置を選択後はステップS908bに進む。 After the target position is selected via steps S904b, S905b, S906b, and S907b, the process proceeds to step S908b.
ステップS908bでは先のステップS903bからステップS907bで決定された目標位置と現在のフォーカスレンズ位置より、実際のレンズ駆動量(図中の実駆動量)を算出し、実駆動量がN.F・δよりも大きいか否かを判断する。ステップS908bにて実駆動量がN.F・δよりも大きい場合にはステップS909bに進み、実駆動量がN.F・δ以下の場合にはそのまま処理を終了する。
In step S908b, an actual lens drive amount (actual drive amount in the figure) is calculated from the target position determined in steps S903b to S907b described above and the current focus lens position. It is determined whether it is larger than F · δ. In
ステップS909bでは実駆動量がN.F・δを越えないように目標位置を現在位置+N.F・δに変更する。このようにステップS908b、ステップS909bにより、デフォーカス量の信頼度によらず、所定のレンズ駆動量(N.F・δ)よりも大きいピント変化が生じる場合には所定のレンズ駆動量におさまるように目標位置を補正する。ここで所定のレンズ駆動量N.F・δに関して、本実施例における係数Nは5と設定し、5・F・δすなわち5深度程度以上のピント変動が生じる可能性がある場合には目標位置を補正しピント変動を抑制する。
In step S909 b, the actual drive amount is N.V. The target position is set to the current position + N.N so as not to exceed F · δ. Change to F · δ. As described above, when a focus change larger than the predetermined lens drive amount (N · F · δ) occurs regardless of the reliability of the defocus amount by the steps S908 b and
このように、本実施例におけるズーム時目標位置選択処理では、図10(B)の表に示す通りデフォーカス量の信頼度が高い場合はデフォーカス量に基づいた目標位置を設定し、信頼度が低い場合は目標位置を現在のレンズ位置に基づいて設定する。図10(C)はズーム時目標位置選択処理により目標位置が選択され、一連のAF制御処理が実施され場合の現在時刻t1と次の制御タイミングt2におけるフォーカスレンズ103の位置関係を示している。 As described above, in the zoom target position selection process in the present embodiment, as shown in the table of FIG. 10B, when the reliability of the defocus amount is high, the target position is set based on the defocus amount, and the reliability If is low, the target position is set based on the current lens position. FIG. 10C shows the positional relationship between the current time t1 and the next control timing t2 when the target position is selected by the zoom target position selection process and a series of AF control processes are performed.
時刻t1における●が現在のレンズ位置を示しており距離Aに合う。図10(B)の信頼度1〜4の場合における目標位置が図10(C)の時刻t1における(1)〜(4)に対応する。すなわち、信頼度「1」の場合は距離B、信頼度「2」の場合は距離C、信頼度「3」の場合は距離D、信頼度「4」の場合は現在位置と同じ距離Aである。また、図9(B)のステップS908b、ステップS909bで示したように、目標位置が所定のレンズ駆動量(N.F・δ)よりも大きい場合は時刻t1における(5)で距離Eに合う。この場合はズーム停止時目標位置選択処理により(6)の距離Fに補正される。
● at time t1 indicates the current lens position, which matches the distance A. The target position in the case of the
ズーム時目標位置選択処理により、デフォーカス量の信頼度に応じて現在時刻t1時点での目標位置(1)〜(4)及び(6)が選択・決定される。そして、図8のステップS810にて次の制御タイミングの時刻t2における各レンズ位置をカム軌跡より算出し、ステップS811では時刻t2での目標位置に向かってフォーカスレンズを駆動させる。 In the zoom target position selection process, target positions (1) to (4) and (6) at the current time t1 are selected and determined in accordance with the reliability of the defocus amount. Then, in step S810 in FIG. 8, each lens position at time t2 of the next control timing is calculated from the cam locus, and in step S811 the focus lens is driven toward the target position at time t2.
本実施例によれば、ズーム動作中はズーム動作をしていない場合とは異なる焦点検出領域の選択ルールに基づいて追従する焦点検出領域を選択し、その焦点検出結果に基づいてフォーカスレンズを制御することで安定したピント追従が可能になる。 According to this embodiment, during the zoom operation, the focus detection area to be followed is selected based on the selection rule of the focus detection area different from the case where the zoom operation is not performed, and the focus lens is controlled based on the focus detection result. This enables stable focus tracking.
(その他の実施形態)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
また、上述した各実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されない。すなわち、本発明は、撮像素子が付随したあらゆるデバイスに適用してもよい。すなわち携帯電話端末や携帯型の画像ビューワ、カメラを備えるテレビ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなど、画像を撮像可能な装置であれば、本発明は適用可能である。 Moreover, in each embodiment mentioned above, although the case where this invention was applied to a digital camera was made into an example and demonstrated, this is not limited to this example. That is, the present invention may be applied to any device associated with an imaging device. That is, the present invention is applicable to any device capable of capturing an image, such as a mobile phone terminal, a portable image viewer, a television equipped with a camera, a digital photo frame, a music player, a game machine, and an electronic book reader.
また、上述の実施例では、レンズ鏡筒と撮像装置が一体となったレンズ鏡筒括りつけの撮像装置を説明したが、レンズ交換式の撮像装置であってもよい。レンズ交換式の撮像装置は、交換可能なレンズユニット(レンズ鏡筒)とカメラ本体(撮像装置)とを備えて構成される。レンズユニット全体の動作を統括制御するレンズ制御部と、レンズユニットを含めたカメラシステム全体の動作を統括するカメラ制御部とは、レンズマウントに設けられた端子を通じて相互に通信可能な構成とする。 Further, in the above-described embodiment, the imaging apparatus in which the lens barrel and the imaging apparatus are integrated is described. However, the imaging apparatus may be an interchangeable lens type. The interchangeable lens type imaging device is configured to include an interchangeable lens unit (lens barrel) and a camera body (imaging device). A lens control unit that generally controls the operation of the entire lens unit and a camera control unit that generally controls the operation of the camera system including the lens unit are configured to be able to communicate with each other through terminals provided on the lens mount.
100 撮像装置
101 ズームレンズ
103 フォーカスレンズ
104 ズームレンズ駆動部
106 フォーカスレンズ駆動部
107 撮像素子
110 AF信号処理部
111 表示部
112 記録部
114 カメラ制御部
115 カメラ操作部
DESCRIPTION OF SYMBOLS 100
Claims (9)
複数の焦点検出領域を設定する設定手段と、
前記複数の焦点検出領域の焦点検出結果に基づいて焦点調整対象とする焦点検出領域を選択する第1の領域選択処理と、前記複数の焦点検出領域のうち、特定の条件に合う焦点検出領域から焦点調整対象とする焦点検出領域を選択する第2の領域選択処理とを行う選択手段と、を備え、
前記選択手段は、前記ズームレンズが移動中でない場合には前記第1の領域選択処理を行い、前記ズームレンズが移動中である場合には前記第2の領域選択処理を行うことを特徴とする撮像装置。 An imaging apparatus capable of changing a focal length by movement of a zoom lens,
Setting means for setting a plurality of focus detection areas;
A first area selection process for selecting a focus detection area to be adjusted based on the focus detection results of the plurality of focus detection areas, and a focus detection area that meets a specific condition among the plurality of focus detection areas And selecting means for performing a second area selection process of selecting a focus detection area to be subjected to focus adjustment.
The selection unit performs the first area selection process when the zoom lens is not moving, and performs the second area selection process when the zoom lens is moving. Imaging device.
前記ズームレンズが移動中の前記第2の領域選択処理における前記特定の条件に合う焦点検出領域は、前記ズームレンズが移動を開始する際に選択された焦点検出領域の被写体距離に変化がない場合には、当該選択されていた焦点検出領域であり、前記被写体距離の変化があった場合には、前記複数の焦点検出領域の中央に位置する焦点検出領域であることを特徴とする請求項5に記載の撮像装置。 It further comprises detection means for detecting changes in subject distance,
When there is no change in the subject distance of the focus detection area selected when the zoom lens starts moving, the focus detection area meeting the specific condition in the second area selection process while the zoom lens is moving The focus detection area is the selected focus detection area, and when there is a change in the subject distance, the focus detection area is located at the center of the plurality of focus detection areas. The imaging device according to.
複数の焦点検出領域を設定する設定ステップと、
前記複数の焦点検出領域の焦点検出結果に基づいて焦点調整対象とする焦点検出領域を選択する第1の領域選択処理と、前記複数の焦点検出領域のうち、特定の条件に合う焦点検出領域から焦点調整対象とする焦点検出領域を選択する第2の領域選択処理とを行う選択ステップと、を有し、
前記選択ステップでは、前記ズームレンズが移動中でない場合には前記第1の領域選択処理を行い、前記ズームレンズが移動中である場合には前記第2の領域選択処理を行うことを特徴とする制御方法。 It is a control method of an imaging apparatus in which a focal length can be changed by movement of a zoom lens,
Setting steps of setting a plurality of focus detection areas;
A first area selection process for selecting a focus detection area to be adjusted based on the focus detection results of the plurality of focus detection areas, and a focus detection area that meets a specific condition among the plurality of focus detection areas And a second step of selecting a focus detection area to be subjected to focus adjustment.
In the selection step, the first area selection process is performed when the zoom lens is not moving, and the second area selection process is performed when the zoom lens is moving. Control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017217625A JP2019090855A (en) | 2017-11-10 | 2017-11-10 | Imaging device and control method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017217625A JP2019090855A (en) | 2017-11-10 | 2017-11-10 | Imaging device and control method therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019090855A true JP2019090855A (en) | 2019-06-13 |
Family
ID=66836276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017217625A Pending JP2019090855A (en) | 2017-11-10 | 2017-11-10 | Imaging device and control method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019090855A (en) |
-
2017
- 2017-11-10 JP JP2017217625A patent/JP2019090855A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4795155B2 (en) | Optical device, imaging device, and control method thereof | |
JP6506560B2 (en) | Focus control device and method therefor, program, storage medium | |
JP6548435B2 (en) | Display control apparatus, control method therefor, and imaging apparatus | |
US9742980B2 (en) | Focus control apparatus and control method therefor | |
KR20130083853A (en) | Image processing apparatus, image sensing apparatus, control method, and recording medium | |
JP2008026788A (en) | Imaging apparatus and focus control method | |
JP2008026790A (en) | Imaging apparatus and focus control method | |
US10542202B2 (en) | Control apparatus that performs focusing by imaging-plane phase difference AF, image capturing apparatus, control method, and non-transitory computer-readable storage medium | |
JP2010139666A (en) | Imaging device | |
JP2011028048A (en) | Image capturing apparatus, and method of controlling the same | |
US20200228719A1 (en) | Focus control apparatus, imaging apparatus, focus control method, and storage medium | |
JP6808340B2 (en) | Lens control device, control method | |
JP6139960B2 (en) | Imaging apparatus and control method thereof | |
JP6087714B2 (en) | Imaging apparatus and control method thereof | |
JP6881909B2 (en) | Image pickup device and its control method, and image processing device and method | |
JP6220144B2 (en) | Focus adjustment apparatus and control method thereof | |
JP6305017B2 (en) | Focus control device and control method thereof | |
JP2016057463A (en) | Focus adjustment device and control method of the same | |
JP6305016B2 (en) | FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE | |
JP2016057421A (en) | Focus adjustment device and focus adjustment method | |
JP2016142924A (en) | Imaging apparatus, method of controlling the same, program, and storage medium | |
JP2018091977A (en) | Focus controller, imaging apparatus, focus control method, and focus control program | |
JP2013210572A (en) | Imaging device and control program of the same | |
JP2019090855A (en) | Imaging device and control method therefor | |
JP2020003693A (en) | Imaging device and control method for imaging device |