JP2015087705A - Focus control device, and control method therefor - Google Patents

Focus control device, and control method therefor Download PDF

Info

Publication number
JP2015087705A
JP2015087705A JP2013228319A JP2013228319A JP2015087705A JP 2015087705 A JP2015087705 A JP 2015087705A JP 2013228319 A JP2013228319 A JP 2013228319A JP 2013228319 A JP2013228319 A JP 2013228319A JP 2015087705 A JP2015087705 A JP 2015087705A
Authority
JP
Japan
Prior art keywords
area
focus
information
defocus
control apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013228319A
Other languages
Japanese (ja)
Other versions
JP6305016B2 (en
JP2015087705A5 (en
Inventor
和憲 石井
Kazunori Ishii
和憲 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013228319A priority Critical patent/JP6305016B2/en
Priority to US14/526,315 priority patent/US9742980B2/en
Priority to RU2014144004A priority patent/RU2608778C1/en
Priority to EP14191047.1A priority patent/EP2884336B1/en
Priority to CN201410609680.7A priority patent/CN104618639B/en
Publication of JP2015087705A publication Critical patent/JP2015087705A/en
Publication of JP2015087705A5 publication Critical patent/JP2015087705A5/en
Application granted granted Critical
Publication of JP6305016B2 publication Critical patent/JP6305016B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve focusing quality and achieve stable focusing in moving image photographing using an image plane phase detection AF system.SOLUTION: In an imaging apparatus, an image plane phase detection AF system is used, a plurality of range-finding areas are arranged, one defocus amount is calculated from range-finding results obtained from respective range-finding areas, lenses are driven, and focusing is performed. In the imaging apparatus, at least two range-finding areas of sizes having different ratios with respect to an image plane are arranged as a first range-finding area arrangement. Then, the range-finding areas are arranged such that the range-finding areas with smaller ratios with respect to the image plane are larger in the number compared to the range-finding areas with larger ratios. Further, when range-finding results are not obtained in the first range-finding area arrangement, range-finding results are obtained in a second range-finding area arrangement in which range-finding areas with greater ratios with respect to the image plane than those of the first range-finding areas are arranged.

Description

本発明は、撮像装置等のフォーカス制御に関するものである。   The present invention relates to focus control of an imaging apparatus or the like.

撮像装置のフォーカス制御方法として、例えば、位相差検出方式とコントラスト検出方式がある(特許文献1、特許文献2参照)。また、背面モニターなどに撮影画像を表示しながら撮影するLV(ライブビュー)モードも考慮された、撮像面位相差検出方式もある(特許文献3参照)。   As a focus control method of the imaging apparatus, for example, there are a phase difference detection method and a contrast detection method (see Patent Document 1 and Patent Document 2). There is also an imaging surface phase difference detection method that takes into account an LV (live view) mode in which an image is captured while displaying a captured image on a rear monitor or the like (see Patent Document 3).

特開平09−054242号公報Japanese Patent Laid-Open No. 09-054242 特開2001−004914号公報JP 2001-004914 A 特開2001−083407号公報JP 2001-083407 A

しかしながら、ライブビューモードも意識した撮像面位相差検出方式においても、ライブビューモードや動画撮影に好適なような、従来より安定したフォーカス制御を行う必要があった。特に、高画素化が進む中で、不用意にフォーカス状態が変更すると、観察者にとっては違和感のある動画像になってしまうことがあった。   However, even in the imaging surface phase difference detection method in consideration of the live view mode, it is necessary to perform focus control that is more stable than the conventional one, which is suitable for the live view mode and moving image shooting. In particular, if the focus state is changed carelessly as the number of pixels increases, a moving image may be uncomfortable for an observer.

そこで、上記課題を解決するために本願請求項1に記載の発明は、第1の領域に対応するフォーカス情報(デフォーカス量/相関値)を出力する第1のフォーカス情報出力手段と、第2の領域に対応するフォーカス情報(デフォーカス量/相関値)を出力する第2のフォーカス情報出力手段と、前記第1の領域と前記第2の領域はいずれも撮像画像内の一つのエリア内にあって、前記出力された複数のフォーカス情報のそれぞれを用いて、当該エリアに対応する一つのデフォーカス情報を取得するとともに、当該取得したデフォーカス情報に基づいてフォーカス制御する制御手段とを有し、前記エリア内の第1の領域は、当該エリア内の第2の領域よりも短い。   Accordingly, in order to solve the above-described problem, the invention described in claim 1 of the present application includes a first focus information output unit that outputs focus information (defocus amount / correlation value) corresponding to the first region, and a second focus information output unit. A second focus information output means for outputting focus information (defocus amount / correlation value) corresponding to the area of the first area, and the first area and the second area are all within one area in the captured image. Each of the plurality of output focus information is used to acquire one defocus information corresponding to the area, and control means for performing focus control based on the acquired defocus information. The first area in the area is shorter than the second area in the area.

以上説明したように、本願請求項1に記載の発明によれば、従来よりライブビューモードや動画撮影に好適なように安定したフォーカス制御を行うことができるフォーカス制御を提供することができる。   As described above, according to the invention described in claim 1 of the present application, it is possible to provide focus control capable of performing stable focus control so as to be more suitable for live view mode and moving image shooting.

フォーカス制御装置としての撮像装置およびレンズ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device and lens apparatus as a focus control apparatus. 画像センサーの一部領域を示す図である。It is a figure which shows the partial area | region of an image sensor. AF制御処理を示すフローチャートである。It is a flowchart which shows AF control processing. レンズ駆動処理を示すフローチャートである。It is a flowchart which shows a lens drive process. デフォーカス量を検出する検出エリアの設定処理を示すフローチャートである。It is a flowchart which shows the setting process of the detection area which detects a defocus amount. デフォーカス量を検出する検出エリアの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the detection area which detects a defocus amount. デフォーカス量を検出する検出エリアから得られる像信号を示す図である。It is a figure which shows the image signal obtained from the detection area which detects a defocus amount. 相関量波形、相関変化量波形、およびピントずれ量を示す図である。It is a figure which shows a correlation amount waveform, a correlation change amount waveform, and a focus shift | offset | difference amount. 2像一致度を算出する方法を示す図である。It is a figure which shows the method of calculating 2 image coincidence degree. 位相差AF処理のフローチャートである。It is a flowchart of a phase difference AF process. デフォーカス量を算出するフローチャートである。10 is a flowchart for calculating a defocus amount. 撮像面位相差検出方式における像信号例を示す図である。It is a figure which shows the image signal example in an imaging surface phase difference detection system.

以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

<撮像装置の構成>
本発明の実施の形態に係るフォーカス制御装置の一例としての撮像装置について説明する。なお、本実施の形態では、レンズ装置を取り付け可能な撮像装置で説明する点、レンズ括り付けのデジタルカメラ等の他の撮像装置であってもよい。
<Configuration of imaging device>
An imaging apparatus as an example of a focus control apparatus according to an embodiment of the present invention will be described. In the present embodiment, the imaging device to which the lens device can be attached will be described, or another imaging device such as a digital camera with a lens attached may be used.

図1は、本実施の形態に係るレンズ装置と撮像装置の主要部の構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of main parts of the lens device and the imaging device according to the present embodiment.

図1に示すように、本実施形態はレンズ装置10及び撮像装置20から構成されており、レンズ装置全体の動作を統括制御するレンズ制御部106と、撮像装置全体の動作を統括するカメラ制御部207が情報を通信している。   As shown in FIG. 1, the present embodiment includes a lens device 10 and an imaging device 20, and a lens control unit 106 that controls the overall operation of the lens device, and a camera control unit that controls the overall operation of the imaging device. 207 is communicating information.

まず、レンズ装置10の構成について説明する。レンズ装置10は、固定レンズ101、絞り102、フォーカスレンズ103、絞り駆動部104、フォーカスレンズ駆動部105、レンズ駆動を106、レンズ操作部107を備えている。撮影光学系は、固定されている第1群レンズ101、絞り102、フォーカスレンズ103を表している。   First, the configuration of the lens device 10 will be described. The lens device 10 includes a fixed lens 101, an aperture 102, a focus lens 103, an aperture drive unit 104, a focus lens drive unit 105, a lens drive 106, and a lens operation unit 107. The photographing optical system represents a fixed first group lens 101, a diaphragm 102, and a focus lens 103.

絞り102は、絞り制御部104によって駆動され、後述する撮像素子201への入射光量を制御する。フォーカスレンズ103はフォーカスレンズ駆動部105によって駆動され、後述する撮像素子201に結像する焦点の調節を行う。絞り駆動部104、フォーカスレンズ駆動部105はレンズ制御部106によって制御され、絞り102の開口量や、フォーカスレンズ103の位置を決定する。レンズ操作部107によってユーザの操作があった場合には、レンズ制御部106がユーザ操作に応じた制御を行う。レンズ制御部106は、後述するカメラ制御部207から受信した制御命令・制御情報に応じて絞り駆動部104やフォーカスレンズ駆動部105の制御を行い、また、レンズ制御情報をカメラ制御部207に送信する。   The diaphragm 102 is driven by the diaphragm controller 104 and controls the amount of light incident on the image sensor 201 described later. The focus lens 103 is driven by a focus lens driving unit 105 and adjusts a focus that forms an image on an image sensor 201 described later. The aperture driving unit 104 and the focus lens driving unit 105 are controlled by the lens control unit 106 to determine the aperture amount of the aperture 102 and the position of the focus lens 103. When there is a user operation through the lens operation unit 107, the lens control unit 106 performs control according to the user operation. The lens control unit 106 controls the aperture driving unit 104 and the focus lens driving unit 105 in accordance with a control command / control information received from a camera control unit 207, which will be described later, and transmits lens control information to the camera control unit 207. To do.

次に、撮像装置20の構成について説明する。撮像装置20はレンズ装置10の撮影光学系を通過した光束から撮像信号を取得できるようになっている。撮像素子201、CDS/AGC回路202、カメラ信号処理部203、AF信号処理部204、表示部205、記録部206、カメラ制御部207、カメラ操作部208を備えている。撮像素子201は画像センサーとしての部材であって、CCDやCMOSセンサなどから構成されている。レンズ装置側の撮影光学系を通ってきた光束を撮像素子201の受光面上に結像し、フォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、カメラ制御部207の指令に従ってタイミングジェネレータ209から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号として撮像素子201から順次読み出される。   Next, the configuration of the imaging device 20 will be described. The imaging device 20 can acquire an imaging signal from a light beam that has passed through the imaging optical system of the lens device 10. An image sensor 201, a CDS / AGC circuit 202, a camera signal processing unit 203, an AF signal processing unit 204, a display unit 205, a recording unit 206, a camera control unit 207, and a camera operation unit 208 are provided. The image sensor 201 is a member as an image sensor, and includes a CCD, a CMOS sensor, or the like. The light flux that has passed through the photographing optical system on the lens device side is imaged on the light receiving surface of the image sensor 201 and converted into a signal charge corresponding to the amount of incident light by the photodiode. The signal charge accumulated in each photodiode is sequentially read out from the image sensor 201 as a voltage signal corresponding to the signal charge based on a drive pulse supplied from the timing generator 209 in accordance with a command from the camera control unit 207.

撮像素子201から読み出された映像信号及びAF用信号は、サンプリングし、ゲイン調整するCDS/AGC回路202に入力され、映像信号をカメラ信号処理部203に、撮像面位相差AF用の信号をAF信号処理部204にそれぞれ出力する。   The video signal and AF signal read from the image sensor 201 are input to the CDS / AGC circuit 202 that samples and adjusts the gain, and the video signal is input to the camera signal processing unit 203 and the signal for the imaging plane phase difference AF is input. Each is output to the AF signal processing unit 204.

カメラ信号処理部203は、CDS/AGC回路202から出力された信号に対して各種の画像処理を施して、映像信号を生成する。   The camera signal processing unit 203 performs various kinds of image processing on the signal output from the CDS / AGC circuit 202 to generate a video signal.

LCD等により構成される表示装置205は、カメラ信号処理部203から出力された映像信号を撮像画像として表示する。   A display device 205 configured by an LCD or the like displays the video signal output from the camera signal processing unit 203 as a captured image.

記録部206は、カメラ信号処理部203からの映像信号を磁気テープ、光ディスク、半導体メモリ等の記録媒体に記録する。   The recording unit 206 records the video signal from the camera signal processing unit 203 on a recording medium such as a magnetic tape, an optical disk, or a semiconductor memory.

AF信号処理部204はCDS/AGC回路202から出力されたAF用の2つの像信号を基に、相関演算を行い、デフォーカス量、信頼性情報(二像一致度、二像急峻度、コントラスト情報、飽和情報、キズ情報等)を算出する。算出したデフォーカス量と、信頼性情報をカメラ制御部207へ出力する。また、カメラ制御部207は、取得したデフォーカス量や信頼性情報を基に、これらを算出する設定の変更をAF信号処理部204に通知する。相関演算の詳細については、図7から図9を用いて後述する。   The AF signal processing unit 204 performs a correlation calculation based on the two image signals for AF output from the CDS / AGC circuit 202, and performs defocus amount, reliability information (two-image coincidence, two-image steepness, contrast Information, saturation information, scratch information, etc.). The calculated defocus amount and reliability information are output to the camera control unit 207. Further, the camera control unit 207 notifies the AF signal processing unit 204 of changes in settings for calculating these based on the acquired defocus amount and reliability information. Details of the correlation calculation will be described later with reference to FIGS.

カメラ制御部207は、カメラ20内全体と情報をやり取りして制御を行う。カメラ20内の処理だけでなく、カメラ操作部208からの入力に応じて、電源のON/OFF、設定の変更、記録の開始、AF制御の開始、記録映像の確認等の、ユーザが操作したさまざまなカメラ機能を実行する。また、先述したようにレンズ装置10内のレンズ制御部106と情報をやり取りし、レンズの制御命令・制御情報を送り、またレンズ内の情報を取得する。   The camera control unit 207 performs control by exchanging information with the entire camera 20. In response to input from the camera operation unit 208 as well as processing within the camera 20, the user has performed operations such as turning the power on / off, changing settings, starting recording, starting AF control, and checking recorded video. Perform various camera functions. Further, as described above, information is exchanged with the lens control unit 106 in the lens apparatus 10, lens control commands / control information are sent, and information in the lens is acquired.

<画像センサー>
図2に画像センサーとしての撮像素子201の受光面の一部を示す。撮像素子201は、撮像面位相差AFを可能にするために、一つのマイクロレンズに対して光電変換手段として受光部であるフォトダイオードを2つ保持している画素部をアレイ状に並べている。これにより、各画素部で、レンズ装置10の射出瞳を分割した光束を受光することが可能になっている。
<Image sensor>
FIG. 2 shows a part of the light receiving surface of an image sensor 201 as an image sensor. In order to enable imaging surface phase difference AF, the imaging element 201 has a pixel portion that holds two photodiodes as light receiving portions as photoelectric conversion means for one microlens arranged in an array. Thereby, each pixel unit can receive a light beam obtained by dividing the exit pupil of the lens device 10.

図2(A)は、参考として、赤(R)、青(B)、緑(Gb、Gr)のベイヤー配列例の画像センサー表面の一部の模式図である。図2(B)は、図2(A)のカラーフィルターの配列に対応させて、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを2つ保持している画素部例である。   FIG. 2A is a schematic diagram of a part of the image sensor surface of an example of Bayer arrangement of red (R), blue (B), and green (Gb, Gr) for reference. FIG. 2B shows an example of a pixel portion in which two photodiodes as photoelectric conversion means are held for one microlens corresponding to the arrangement of the color filters in FIG.

こうした構成を有する画像センサーは、各画素部から位相差AF用の2つの信号(以下、A像信号、B像信号ともいう。)を出力できるようになっている。また、2つのフォトダイオードの信号を加算した撮像の記録用の信号(A像信号+B像信号)も出力できるようになっている。この加算した信号の場合には、図2(A)で概略説明したベイヤー配列例の画像センサーの出力と同等の信号が出力される。   The image sensor having such a configuration can output two signals for phase difference AF (hereinafter also referred to as A image signal and B image signal) from each pixel unit. Further, an image recording signal (A image signal + B image signal) obtained by adding the signals of the two photodiodes can be output. In the case of this added signal, a signal equivalent to the output of the image sensor of the Bayer array example schematically described in FIG.

このような画像センサーとしての撮像素子201からの出力信号を使って、後述するAF信号処理部204が2つの像信号の相関演算を行い、デフォーカス量や各種信頼性などの情報を算出する。   By using an output signal from the image sensor 201 as such an image sensor, an AF signal processing unit 204 (to be described later) performs a correlation operation between the two image signals, and calculates information such as a defocus amount and various reliability.

なお、本実施形態は撮像用の信号及び位相差AF用の2つの信号の2つの計3つの信号を撮像素子201から出力している。この点、このような方法に限定されない。例えば、撮像用の信号と位相差AF用の像信号の2つの信号のうちの1つの計2つ信号を出力するようにしてもよい。この場合、出力後に位相差AF用の像信号の2つの信号のうちの他の1つの信号は、撮像素子201からの2つの出力信号を利用して算出される。   In the present embodiment, a total of three signals, that is, two signals for imaging and two signals for phase difference AF are output from the imaging element 201. This point is not limited to such a method. For example, a total of two signals out of two signals of an imaging signal and an image signal for phase difference AF may be output. In this case, after output, the other one of the two signals of the image signal for phase difference AF is calculated using the two output signals from the image sensor 201.

また、図2では、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを2つ保持している画素部をアレイ状に並べている例を示した。この点、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを3つ以上保持している画素部をアレイ状に並べているようにしてもよい。また、マイクロレンズに対して受光部の開口位置が異なる画素部を複数有するようにしてもよい。つまり、結果としてA像信号とB像信号といった位相差検出可能な位相差AF用の2つの信号が得られるようになっていれば足りる。   FIG. 2 shows an example in which pixel portions holding two photodiodes as photoelectric conversion means are arranged in an array for one microlens. In this regard, pixel portions holding three or more photodiodes as photoelectric conversion means may be arranged in an array for one microlens. Moreover, you may make it have two or more pixel parts from which the opening position of a light-receiving part differs with respect to a micro lens. That is, it is sufficient if two signals for phase difference AF capable of detecting the phase difference, such as an A image signal and a B image signal, can be obtained as a result.

<AF制御処理>
次に、カメラ制御部207が実行するAF制御処理について説明する。
<AF control processing>
Next, AF control processing executed by the camera control unit 207 will be described.

図3は、図1におけるカメラ制御部207が実行するAF制御処理を示すフローチャートである。本処理は、カメラ制御部207内に格納されたコンピュータプログラムに従って実行される。たとえば、1フィールド画像(以下、1フレーム、1画面ともいう)を生成するための撮像素子201からの撮像信号の読み出し周期(垂直同期期間ごと)で実行される。この点、垂直同期期間(Vレート)内に複数回繰り返すようにしてもよい。   FIG. 3 is a flowchart showing an AF control process executed by the camera control unit 207 in FIG. This process is executed according to a computer program stored in the camera control unit 207. For example, it is executed in the readout cycle (every vertical synchronization period) of the imaging signal from the imaging device 201 for generating one field image (hereinafter also referred to as one frame and one screen). In this regard, it may be repeated a plurality of times within the vertical synchronization period (V rate).

図3において、まず、AF信号処理部204においてAF信号が更新されたかを確認し(Step301)、更新されていればAF信号処理部204から、その結果を取得する(Step302)。   In FIG. 3, first, it is confirmed whether or not the AF signal is updated in the AF signal processing unit 204 (Step 301), and if updated, the result is acquired from the AF signal processing unit 204 (Step 302).

次に、取得結果のピントが合っていない量を示すデフォーカス量が所定の深度内で、かつそのデフォーカス量の信頼度レベルが所定のレベルより高く、信頼できるものであるかどうかを判定する(Step303)。デフォーカス量が深度以内かつデフォーカス量の信頼度レベルが所定のレベルより高い場合には、合焦停止フラグをONし(Step304)、逆の場合には、合焦停止フラグをOFFする(Step305)。この合焦停止フラグがONという状態は、合焦位置にフォーカスが制御され、フォーカスの制御を停止すべき状態にあることを示すフラグである。   Next, it is determined whether or not the defocus amount indicating the amount of out-of-focus in the acquired result is within a predetermined depth and the reliability level of the defocus amount is higher than the predetermined level and is reliable. (Step 303). When the defocus amount is within the depth and the reliability level of the defocus amount is higher than the predetermined level, the focus stop flag is turned on (Step 304), and in the opposite case, the focus stop flag is turned off (Step 305). ). The state where the focus stop flag is ON is a flag indicating that the focus is controlled at the focus position and the focus control should be stopped.

ここで、デフォーカス量の信頼度レベルとは、算出されたデフォーカス量の精度が確かであると判断できる場合に信頼度レベルが高いとし、ピント位置が存在するであろう方向を示すデフォーカス方向が確かである場合に「中」と判定する。例えば、デフォーカス量の信頼度レベルが高い場合とは、A像信号、B像信号のコントラストが高く、A像信号とB像信号の形が似ている(二像一致度レベルが高い)状態や、すでに当該主被写体像に合焦している状態にある場合である。この場合にはデフォーカス量を信頼して駆動を行う。   Here, the reliability level of the defocus amount is a defocus that indicates the direction in which the focus position will exist, assuming that the reliability level is high when it can be determined that the accuracy of the calculated defocus amount is certain. When the direction is certain, it is determined as “medium”. For example, when the reliability level of the defocus amount is high, the contrast between the A image signal and the B image signal is high, and the shapes of the A image signal and the B image signal are similar (the two image coincidence level is high). In other words, the main subject image is already in focus. In this case, the driving is performed with reliability of the defocus amount.

デフォーカス量の信頼度レベルが「中」の場合とは、AF信号処理部204で算出される二像一致度レベルが所定値よりも低いものの、A像信号、B像信号を相対的にシフトさせて得られる相関に一定の傾向があって、デフォーカス方向は信頼できる状態である。たとえば、主被写体に対して小ボケしている状態に多い判定である。さらに、デフォーカス量、およびデフォーカス方向も信頼できない場合を信頼度レベルが低いと判定する。例えば、A像信号、B像信号のコントラストが低く、像一致度レベルも低い状態である。これは、被写体に対して大きくボケている状態のときに多く、デフォーカス量の算出が困難な状態である。   When the reliability level of the defocus amount is “medium”, the two image coincidence level calculated by the AF signal processing unit 204 is lower than a predetermined value, but the A image signal and the B image signal are relatively shifted. There is a certain tendency in the correlation obtained by this, and the defocus direction is reliable. For example, the determination is often made in a state where the main subject is slightly blurred. Further, when the defocus amount and the defocus direction are not reliable, it is determined that the reliability level is low. For example, the contrast of the A image signal and the B image signal is low and the image matching level is low. This is often the case when the subject is greatly blurred, and it is difficult to calculate the defocus amount.

デフォーカス量が所定の深度以内かつデフォーカス量の信頼度レベルが高い場合には、フォーカスを制御するためのレンズ駆動を停止し(Step307)、Step308へ移行する。
一方、合焦停止フラグをOFFしたときは(Step305)、後述のレンズ駆動設定を行い(Step306)、エリア配置の設定処理(Step308)へ移行し、処理を終了する。
When the defocus amount is within the predetermined depth and the reliability level of the defocus amount is high, the lens drive for controlling the focus is stopped (Step 307), and the process proceeds to Step 308.
On the other hand, when the focus stop flag is turned off (Step 305), the lens drive setting described later is performed (Step 306), the process proceeds to the area arrangement setting process (Step 308), and the process ends.

<レンズ駆動処理>
図4は、図3のAF制御処理(Step306)の詳細を示すフロー図である。
<Lens drive processing>
FIG. 4 is a flowchart showing details of the AF control process (Step 306) of FIG.

まず、カメラ制御部207は、Step401で、デフォーカス量が得られており、かつ信頼度レベルが高いかどうかを判定する。デフォーカス量が得られて、信頼度レベルが高い場合には(Step401でYES)、デフォーカス量に基づいて駆動量、および駆動方向を決定する(Step402)。   First, in step 401, the camera control unit 207 determines whether the defocus amount is obtained and the reliability level is high. When the defocus amount is obtained and the reliability level is high (YES in Step 401), the drive amount and the drive direction are determined based on the defocus amount (Step 402).

そして、エラーカウント、端カウントをクリアし(Step403)、処理を終了する。デフォーカス量が得られなかった、または信頼度レベルが高くない場合には(Step401でNo)、エラーカウントが第1のカウントよりも超えているかどうかを判定する(Step404)。ここで、第1のカウントは、不図示ではあるが、あらかじめ不揮発性のメモリに記憶しておき決定しておいた値でよい。例えば、後述の第2のカウントの2倍以上の値を設定すればよい。   Then, the error count and end count are cleared (Step 403), and the process is terminated. If the defocus amount is not obtained or the reliability level is not high (No in Step 401), it is determined whether or not the error count exceeds the first count (Step 404). Here, although not shown, the first count may be a value that is stored and determined in advance in a nonvolatile memory. For example, what is necessary is just to set the value more than twice the below-mentioned 2nd count.

エラーカウントが第1のカウントよりも小さい場合には(Step404でNo)、エラーカウントをカウントアップし(Step405)、処理を終了する。エラーカウントが第1のカウントよりも大きい場合には(Step404でYes)、サーチ駆動フラグがONかどうかを判定する(Step406)。   If the error count is smaller than the first count (No in Step 404), the error count is incremented (Step 405), and the process is terminated. If the error count is larger than the first count (Yes in Step 404), it is determined whether the search drive flag is ON (Step 406).

Step406でサーチ駆動フラグがOFFの場合には(Step406でNo)、まだサーチ動作を開始している状態ではない、若しくは、サーチしている状態ではない。そこで、サーチ駆動フラグをONし(Step407)、デフォーカスの信頼度レベルが「中」か否かを判定する(Step408)。   If the search drive flag is OFF in Step 406 (No in Step 406), the search operation is not yet started, or the search is not in progress. Therefore, the search drive flag is turned on (Step 407), and it is determined whether or not the defocus reliability level is “medium” (Step 408).

信頼度が「中」の場合には、デフォーカス方向を用いて駆動方向を設定し(Step409)、所定駆動量を設定する(Step411)。このとき、デフォーカス量の絶対値自体に基づいて駆動させずに、得られたデフォーカス方向にフォーカスを所定量駆動させるサーチ駆動を行う。   When the reliability is “medium”, the drive direction is set using the defocus direction (Step 409), and a predetermined drive amount is set (Step 411). At this time, search driving is performed to drive the focus in the defocus direction obtained by a predetermined amount without driving based on the absolute value of the defocus amount itself.

信頼度が「中」ではない場合(Step408でNo)、レンズ端から遠い方向へ駆動方向を設定し(Step410)、所定駆動量を設定する(Step411)。   When the reliability is not “medium” (No in Step 408), the driving direction is set in a direction far from the lens end (Step 410), and a predetermined driving amount is set (Step 411).

Step411の所定駆動量は、あらかじめ不揮発性のメモリに決められた値を用いればよい。例えば、焦点深度の数倍の距離を駆動量とする。また、焦点距離に応じて可変にしてもよい。たとえば、焦点距離が長くなる程、大きく駆動量となるようにするといった具合である。なお、このときのサーチ駆動方向は、例えば、現フォーカスの位置に対してレンズ端が遠い方向とする。   As the predetermined drive amount of Step 411, a value determined in advance in a nonvolatile memory may be used. For example, the driving amount is a distance several times the focal depth. Further, it may be variable according to the focal length. For example, the longer the focal length, the greater the driving amount. Note that the search drive direction at this time is, for example, a direction in which the lens end is far from the current focus position.

サーチ駆動フラグがONの場合には(Step406でYes)、すでにサーチ駆動を実行している状態である。そのため、前回のフォーカス制御を継続して実行を行う。そして、フォーカス制御の際のレンズ駆動の制限位置であるレンズ端にあるかどうかを判定し(Step412)、レンズ端にあたった場合には(Step412でYes)、端カウントをカウントアップする(Step413)。   If the search drive flag is ON (Yes in Step 406), the search drive has already been executed. Therefore, the previous focus control is continued and executed. Then, it is determined whether or not the lens is at the lens driving limit position during focus control (Step 412). If the lens is hit (Yes in Step 412), the end count is incremented (Step 413). .

端カウントが所定値を超える場合には(Step414でYes)、フォーカスレンズを至近端から無限遠端まで動作しても確かなデフォーカス量を得ることができなかったことを示す。そのため、ピントを合わせることができる被写体がないと判断し、サーチ駆動フラグをOFFし(Step415)、レンズ駆動を停止する(Step416)。そして、エラーカウントと端カウントをクリアし(Step417)、処理を終了する。   If the end count exceeds the predetermined value (Yes in Step 414), it indicates that a defocus amount cannot be obtained even if the focus lens is operated from the closest end to the infinite end. Therefore, it is determined that there is no subject that can be brought into focus, the search drive flag is turned off (Step 415), and the lens drive is stopped (Step 416). Then, the error count and end count are cleared (Step 417), and the process is terminated.

端カウントが所定値を超えない場合には(Step414でNo)、フォーカス制御に伴うレンズの駆動方向を現在の駆動方向とは反対の駆動方向に設定し(Step418)、所定駆動量を設定する(Step411)。   If the end count does not exceed the predetermined value (No in Step 414), the lens driving direction associated with the focus control is set to the driving direction opposite to the current driving direction (Step 418), and the predetermined driving amount is set ( Step 411).

<エリア設定処理>
図5は、図3のエリア設定処理(Step308)の詳細を示すフロー図である。
<Area setting process>
FIG. 5 is a flowchart showing details of the area setting process (Step 308) of FIG.

まず、デフォーカス量が得られており、かつ信頼度レベルが高いかどうかを判定する(Step501)。デフォーカス量が得られて、信頼度レベルが高い場合には(Step501でYES)、現状で設定されている撮像画像内のエリア配置が第1のエリア配置か否かを判定する(Step504)。第1のエリア配置であれば(Step504でYes)、そのまま第1のエリア配置の設定状態を維持する。第1のエリア配置でなければ(Step504でNo)、Step506で合焦停止フラグがONかどうかを判定し、合焦停止フラグがONの場合には(Step506でYes)、第1のエリア配置にする(Step505)。これにより合焦後に比較的に狭いエリア配置になる。合焦停止フラグがOFFの場合(Step506でNo)、移行し、第1のエリア配置よりも広い第2のエリア配置に設定することで設定変更をすることができる(Step507)。   First, it is determined whether the defocus amount is obtained and the reliability level is high (Step 501). If the defocus amount is obtained and the reliability level is high (YES in Step 501), it is determined whether or not the area arrangement in the captured image that is currently set is the first area arrangement (Step 504). If it is the first area arrangement (Yes in Step 504), the setting state of the first area arrangement is maintained as it is. If it is not the first area layout (No in Step 504), it is determined in Step 506 whether the focus stop flag is ON. If the focus stop flag is ON (Yes in Step 506), the first area layout is determined. (Step 505). This results in a relatively narrow area arrangement after focusing. If the focus stop flag is OFF (No in Step 506), the process can be changed and the setting can be changed by setting the second area arrangement wider than the first area arrangement (Step 507).

ここで、合焦停止フラグONの場合に(Step506)、第1のエリア配置に移行するのは、第2のエリア配置と第1のエリア配置とで捕捉する被写体像が異なる可能性があるからである。そのため、第2のエリア配置で、合焦停止フラグがONになって合焦している状態としてフォーカス制御としてのレンズ駆動が停止した場合に、比較的に狭い第1のエリア配置に移行する。これは、動画撮影の場合、主要な被写体は画面の中央にあることが多いことを考慮したものである。そこで、比較的に狭い第1のエリア配置に設定することで、最終的に狙った被写体像が合焦状態となる確率を高めることが可能となる。   Here, when the focus stop flag is ON (Step 506), the reason for shifting to the first area arrangement is that the captured subject images may be different between the second area arrangement and the first area arrangement. It is. For this reason, in the second area arrangement, when the focus stop flag is turned ON and the lens drive as the focus control is stopped in a focused state, the first area arrangement is shifted to a relatively narrow area. This is because in the case of moving image shooting, the main subject is often in the center of the screen. Therefore, by setting the first area arrangement to be relatively narrow, it is possible to increase the probability that the finally aimed subject image will be in focus.

なお、比較的に狭い第1のエリア配置にした際に、デフォーカス量が検出できる被写体であるとは限らない。そのために、カメラ制御部207は、比較的に狭い第1のエリア配置に戻した場合に、それまでの比較的に広い第2のエリア配置のときのデフォーカス量に関する情報と大きく異なる情報を得た場合には、再度第2のエリア配置に戻すようにしてもよい。   Note that the subject is not necessarily a subject whose defocus amount can be detected when the first area arrangement is relatively narrow. Therefore, when the camera control unit 207 returns to the relatively narrow first area arrangement, the camera control unit 207 obtains information that is significantly different from the information related to the defocus amount at the time of the relatively wide second area arrangement. In such a case, it may be returned to the second area arrangement again.

次に、デフォーカス量が得られず、信頼度が高くない場合には(Step501でNo)、NGカウントが第2のカウントを超えているか否かを判定する(Step502)。NGカウントが第2のカウントを超えていない場合には(Step502でNo)、NGカウントをカウントアップする(Step503)。そして、カメラ制御部207は、第1のエリア配置か否かを判断する(Step504)。   Next, when the defocus amount cannot be obtained and the reliability is not high (No in Step 501), it is determined whether or not the NG count exceeds the second count (Step 502). If the NG count does not exceed the second count (No in Step 502), the NG count is counted up (Step 503). Then, the camera control unit 207 determines whether or not it is the first area arrangement (Step 504).

一方、NGカウントが第2のカウントを超えている場合には(Step502でYes)、NGカウントをクリアし(Step508)、カメラ制御部207は、サーチ駆動中か否かを判定する(Step509)。サーチ駆動中であれば(Step509でYes)、第1のエリア配置に設定する(Step512)。サーチ駆動中でなければ(Step509でNo)、現在第1のエリア配置かどうか判定する(Step510)。現在第1のエリア配置である場合には(Step510でYes)、比較的に広い第2のエリア配置に設定し(Step511)、現在第2のエリア配置でない場合には(Step510でNo)、比較的に狭い第1のエリア配置に設定する(Step512)。   On the other hand, when the NG count exceeds the second count (Yes in Step 502), the NG count is cleared (Step 508), and the camera control unit 207 determines whether or not search driving is being performed (Step 509). If the search is being driven (Yes in Step 509), the first area arrangement is set (Step 512). If the search is not being driven (No in Step 509), it is determined whether or not it is the first area arrangement (Step 510). If it is currently the first area arrangement (Yes in Step 510), the second area arrangement is set to be relatively wide (Step 511). If it is not the second area arrangement (No in Step 510), the comparison is made. Therefore, the first area arrangement is set to be narrow (Step 512).

このように、サーチ駆動中かどうかを判断するのは(Step509)、サーチ駆動を実行する前に、第1のエリアと第2のエリアをまず切り替える動作を行うことで、サーチ駆動前に両方のエリア配置でNGの場合において、サーチ駆動を実行するためである。   As described above, whether or not the search drive is being performed is determined (Step 509) by performing an operation of first switching the first area and the second area before executing the search drive. This is because search drive is executed when the area arrangement is NG.

また、サーチ駆動中、信頼度レベルが高いデフォーカス量が取得できた場合、サーチ駆動をやめて、その取得結果に応じたフォーカス制御を行う。したがって、サーチ駆動中に、比較的に大きい第2のエリアだと、適当な被写体像でない被写体像を捕捉してしまう可能性があるため、第1のエリアに設定する。   If a defocus amount with a high reliability level can be acquired during search driving, search driving is stopped and focus control is performed according to the acquisition result. Therefore, if the second area is relatively large during search driving, a subject image that is not an appropriate subject image may be captured. Therefore, the first area is set.

<エリア配置(1)>
図6を用いて、エリア配置について、更に具体的に説明する。図6(A)は第1のエリア配置を示した図である。領域601〜607までの7つの領域がエリア内に存在する。画面に対する水平方向の比率がβ%である第2の長さの領域が2領域601、607配置されている。さらに、α%で第2の長さより短い第1の長さの領域が5領域602〜606、撮影画面の中央に配置されている。このように、長さの異なる複数の領域をエリア内に配置し、短い領域の数の方が長い領域の数よりも多い。
<Area arrangement (1)>
The area arrangement will be described more specifically with reference to FIG. FIG. 6A is a diagram showing a first area arrangement. Seven areas 601 to 607 exist in the area. Two areas 601 and 607 are arranged in the second length area where the horizontal ratio to the screen is β%. Further, an area having a first length shorter than the second length by α% is arranged in five areas 602 to 606 in the center of the photographing screen. In this way, a plurality of regions having different lengths are arranged in the area, and the number of short regions is larger than the number of long regions.

そして、7つの領域から得られるデフォーカス量を組み合わせて用いて、1つの後述する有効デフォーカス量、および有効デフォーカス方向を取得する。この有効デフォーカス量、および有効デフォーカス方向を用いて、フォーカス制御としてレンズを駆動させてピント合わせを行う。なお、以下、エリア配置に対応する1のデフォーカス量を意味する概念として有効デフォーカス量とも記載する。また、エリア配置に対応する1のデフォーカス方向を意味する概念として有効デフォーカス方向とも記載する。   Then, using a combination of defocus amounts obtained from the seven regions, one effective defocus amount and effective defocus direction, which will be described later, are acquired. Using this effective defocus amount and effective defocus direction, the lens is driven for focus control to perform focusing. Hereinafter, the effective defocus amount is also described as a concept meaning one defocus amount corresponding to the area arrangement. In addition, the effective defocus direction is also described as a concept meaning one defocus direction corresponding to the area arrangement.

比較的に短い第1の長さの領域だけでなく、比較的に長い第2の長さの領域を配置しておくことで、動画撮影やライブビューの画像の品位を確保している。すなわち、比較的に短い第1の長さの領域の集合体だけでは、主被写体像を捕捉しきれなかったり、エリアから主被写体像が移動して抜けてしまう可能性が高くなる。そうすると、比較的に短い第1の長さの領域に対応する画像センサーからの出力によって、却ってピントがふらついてしまうことになりかねない。そこで、比較的に長い第2の長さの領域をエリア内に配置し、主被写体像を捕捉したまま維持することが可能ならしめるものである。また、上述の図6(A)の例では、短い領域の数の方が長い領域の数よりも多い。この点、逆にしても、異なる長さの領域をエリア内に設けることで一定の効果は得られる。しかしながら、例示したように、撮影画面に対する比率が小さく比較的に短い領域の数を長い領域の数よりも多く配置することで、より遠近競合を排して、ユーザーが意図しているであろう被写体像にピントを合わせることが可能となる。さらに、上述の図6(A)の例では、図6(A)にしめしように、比較的に長い第2の長さの領域を比較的に短い第1の領域よりも外側に配置している。この点、比較的に長い第2の長さの領域を比較的に短い第1の領域よりも内側に配置しても一定の効果は得られる。ただし、図6(A)にしめしように、比較的に長い第2の長さの領域を比較的に短い第1の領域よりも外側に配置することで次の効果が得られる。すなわち、動画撮影の場合には、ユーザーが意図する主被写体像が比較的に中央にあることを考慮した効果である。エリアの中央を短い領域が占めることで、エリア配置が捕捉している被写体像の中央部分にピントを合わせるよう考慮したものである。これは、動画撮影やライブビューの画像では、動いている被写体像を撮影するシーンが多いことを考慮したものである。そこで、ピント合わせを意図する被写体像が撮影画面から外れないように、ユーザーは、撮影画面の中央に主被写体像が位置するように撮影する場合が多いことを考慮したものである。また、図6(A)の第1のエリア配置は、エリアが画面の中央にあるときに、その画面中央に位置する領域と同じ長さの領域の数を、そうでない領域の数よりも多く配置している。この点、エリアが画面の中央にあるときに、その画面中央に位置する領域と同じ長さの領域の数を、そうでない領域の数よりも少なく配置しても一定の効果は得られる。ただし、動画撮影は、先にも述べたように、主被写体像は画面の中央に位置させることが多いことを考慮して、エリアが画面の中央にあるときに、その画面中央に位置する領域と同じ長さの領域の数を、そうでない領域の数よりも多く配置している。ユーザーが狙った被写体像に適切にピントを合わせることが可能になるように撮影画面の中央の領域の大きさを設定し、さらに、その領域の大きさの数が最も多くなるように設定している。また、一時的に狙った被写体が比較的に短い第1の長さの領域から抜けてしまっても、被写体像を比較的に長い第2の長さの領域で捕捉するために、安定したフォーカス制御を行うことができる。   By arranging not only a relatively short first length area but also a relatively long second length area, the quality of moving image shooting and live view images is ensured. That is, there is a high possibility that the main subject image cannot be captured or the main subject image moves out of the area only with the relatively short first-length region aggregate. In this case, the output from the image sensor corresponding to the relatively short first length region may cause the focus to fluctuate. Therefore, a relatively long second length region is arranged in the area so that the main subject image can be maintained while being captured. In the example of FIG. 6A described above, the number of short regions is larger than the number of long regions. Even if this is reversed, a certain effect can be obtained by providing areas of different lengths in the area. However, as illustrated, the user's intention is to eliminate the perspective conflict by arranging the number of relatively short regions with a small ratio to the shooting screen more than the number of long regions. It becomes possible to focus on the subject image. Furthermore, in the example of FIG. 6A described above, as shown in FIG. 6A, the relatively long second region is disposed outside the relatively short first region. Yes. In this regard, a certain effect can be obtained even if the relatively long second length region is arranged inside the relatively short first region. However, as shown in FIG. 6A, the following effect can be obtained by disposing the relatively long second region outside the relatively short first region. In other words, in the case of moving image shooting, this is an effect considering that the main subject image intended by the user is relatively central. The short area occupies the center of the area so that the center of the subject image captured by the area arrangement is focused. This is because, in moving image shooting and live view images, there are many scenes for shooting moving subject images. Therefore, it is considered that the user often shoots so that the main subject image is located at the center of the shooting screen so that the subject image intended for focusing does not deviate from the shooting screen. In the first area arrangement of FIG. 6A, when the area is at the center of the screen, the number of regions having the same length as the region located at the center of the screen is larger than the number of other regions. It is arranged. In this regard, when the area is at the center of the screen, a certain effect can be obtained even if the number of regions having the same length as the region located at the center of the screen is less than the number of other regions. However, in moving image shooting, as described above, considering that the main subject image is often located at the center of the screen, when the area is at the center of the screen, the area located at the center of the screen The number of regions having the same length as the number of regions is arranged more than the number of other regions. Set the size of the center area of the shooting screen so that the user can properly focus on the subject image targeted by the user, and set the number of the size of the area to be the largest. Yes. In addition, even if the temporarily aimed subject falls out of the relatively short first length region, the stable focus is obtained in order to capture the subject image in the relatively long second length region. Control can be performed.

これらの総合作用として、フォーカス制御の安定性を飛躍的に向上させることができる。   As these comprehensive actions, the stability of focus control can be dramatically improved.

また、図6(B)は、第2のエリア配置を示した図であるが、図6(A)の第1のエリア配置よりも、広いエリア配置になっている。撮影画面に対して水平方向の比率がβ’%で、比較的に長い第4の長さの領域が2エリア(611、617)、α’%で比較的に短い第3の長さの領域が5エリア(612〜616)配置している。なお、図6では、第1の長さは、第2の長さの2倍で第3の長さと同じ、また、第4の長さは第3の長さの2倍を例示している。この点、倍率は、これらに限らない。ただし、このような例示の倍率関係の場合、回路設計やプログラムの構成がより簡単になる場合がある。   FIG. 6B shows the second area arrangement, but the area arrangement is wider than the first area arrangement of FIG. 6A. The ratio of the horizontal direction with respect to the shooting screen is β ′%, the relatively long fourth length area is two areas (611, 617), and the relatively short third length area is α ′%. Has 5 areas (612-616). In FIG. 6, the first length is twice the second length and is the same as the third length, and the fourth length is twice the third length. . In this regard, the magnification is not limited to these. However, in the case of such an exemplary magnification relationship, circuit design and program configuration may be simplified.

このように、比較的に狭い第1のエリア配置の他に比較的に広い第2のエリア配置を設けている理由を図12を用いて説明する。   The reason why the relatively wide second area arrangement is provided in addition to the relatively narrow first area arrangement will be described with reference to FIG.

例えば、図12(A)のような被写体像を撮影した場合、合焦近傍の場合は、エリアに2つの山の形状を有する像が表れる(図12(B))。ここで、例えば1501をA像、1502をB像とし、位相差検出方式を適用し、この2像のずれ量を算出してデフォーカス量を算出するとする。しかしながら、大ボケ(大きくボケている状態)の場合は、2つの山の像の形状自体が崩れてしまい、1つの山の形状となってしまう。さらに、当該山の形状において、山の裾野が広がりを見せる山の形状となっている。すなわち、捕捉したい被写体像の形状がピントの状態(大ボケ状態か合焦に近い状態か)によって、大きく異なってしまう(図12(C))。   For example, when a subject image as shown in FIG. 12A is photographed, an image having two mountain shapes appears in the area in the vicinity of the focus (FIG. 12B). Here, for example, assume that 1501 is an A image and 1502 is a B image, the phase difference detection method is applied, and the defocus amount is calculated by calculating the shift amount of these two images. However, in the case of a large blur (a state that is largely blurred), the shape of the two mountain images themselves collapses, resulting in a single mountain shape. Further, in the shape of the mountain, the mountain has a mountain shape in which the base of the mountain can be seen. That is, the shape of the subject image to be captured differs greatly depending on the focus state (whether it is in a large blur state or a state close to focusing) (FIG. 12C).

この点、大きくボケている状態でデフォーカス量が得られなくなる可能性が高い場合でも、比較的に大きい第2のエリア配置にすることで、ピント合わせの安定性を向上させることができる。すなわち、比較的に広い第2のエリアを持ち合わせることで、デフォーカス量やデフォーカス方向を得られる頻度を向上させることができる。   In this regard, even when there is a high possibility that the defocus amount cannot be obtained in a state where the image is largely blurred, it is possible to improve the focusing stability by using the relatively large second area arrangement. In other words, the frequency with which the defocus amount and the defocus direction can be obtained can be improved by having a relatively wide second area.

<エリア配置(2)>
なお、図6(A)(B)では、水平方向への長さについて述べた。この点、垂直方向に領域(所謂、縦目)を配置する場合でも適用できる技術思想である。
<Area arrangement (2)>
6A and 6B, the length in the horizontal direction is described. This is a technical idea that can be applied even when a region (so-called vertical eye) is arranged in the vertical direction.

さらに、図6(A)(B)に示した第1のエリア配置と第2のエリア配置を切り替えるフローで図5のエリア設定処理を例示した。この点、演算回路規模やプログラム規模が許せば、たとえば、図6(C)のようにあらかじめ、第1のエリアと第2のエリアの両方を含むように、撮影画面に対する比率のエリア数分配置しておき、選択して用いてもよい。つまり、図6(C)のように、エリア内に領域621〜634を配置しておき、図6(A)の領域601〜607を図6(C)の領域621〜627とし、図6(B)の領域611〜617を図6(C)の領域エリア628〜634とするものである。これによれば、図5で説明した第1のエリア配置の場合は、領域621〜627を用い、第2のエリア配置の場合は、エリア628〜634を選択して用いる方法である。   Furthermore, the area setting process of FIG. 5 is illustrated by the flow for switching between the first area arrangement and the second area arrangement shown in FIGS. In this regard, if the arithmetic circuit scale and the program scale allow, for example, as shown in FIG. 6C, an arrangement corresponding to the number of areas corresponding to the shooting screen is arranged in advance so as to include both the first area and the second area. It may be selected and used. That is, as shown in FIG. 6C, the regions 621 to 634 are arranged in the area, and the regions 601 to 607 in FIG. 6A are changed to the regions 621 to 627 in FIG. The areas 611 to 617 in FIG. 6B are the area areas 628 to 634 in FIG. According to this, in the case of the first area arrangement described in FIG. 5, the areas 621 to 627 are used, and in the case of the second area arrangement, the areas 628 to 634 are selected and used.

また、前述までは、撮影画面の中央に第1のエリア、第2のエリアを配置した。この点、撮影の構図を考慮し、ユーザーである撮影者が撮影したい被写体像が撮影画面の中央に位置しないシーンも存在することを考慮して第4のエリア配置を設置しても良い(図6(D))。これは、不図示ではあるが、顔検出機能など、所定の被写体像を特定する機能を用いて、検出された像にピント合わせを行いたい場合や、タッチ操作等によるユーザーの指示により撮影画面上の所望の被写体にピント合わせを行いたい場合にも適用できる。図6(D)の領域641〜647のように、画面中央ではなく、またはカメラ制御部207は、エリア配置を移動可能であって、顔が検出された位置、もしくはユーザが指示した位置に、前述のエリア配置の設定を行う。   In addition, until now, the first area and the second area are arranged in the center of the shooting screen. In view of this, the fourth area arrangement may be installed in consideration of the scene where the subject image to be photographed by the photographer who is the user is not located at the center of the photographing screen in consideration of the composition of the photographing (see FIG. 6 (D)). This is not shown, but it is possible to focus on the detected image using a function that identifies a predetermined subject image, such as a face detection function, or on the shooting screen by a user instruction such as a touch operation. This can also be applied when it is desired to focus on a desired subject. Like the areas 641 to 647 in FIG. 6D, the camera control unit 207 is not located at the center of the screen, or the area arrangement can be moved and the position where the face is detected or the position designated by the user is Set the area arrangement as described above.

このように、さまざまなエリア配置の自由度を向上させることは、撮像面位相差AF方式と相性がよい。   Thus, improving the degree of freedom of various area arrangements is compatible with the imaging surface phase difference AF method.

<相関演算について>
次に、上述した有効デフォーカス量の算出について例示するが、相関情報としての相関演算、相関量波形等を説明してから、有効デフォーカス量の算出を例示する。
<About correlation calculation>
Next, although the calculation of the effective defocus amount described above will be exemplified, the calculation of the effective defocus amount is illustrated after explaining the correlation calculation, the correlation amount waveform, and the like as the correlation information.

図7(D)は、像信号を取得する領域を例示するもので、画像センサーとしての撮像素子201の画素アレイ上の概念図である。不図示の画素部がアレイ状に配置された画素アレイ701に対して、以下に説明する演算対象の領域が領域702である。この領域702のデフォーカス量を算出する際の相関演算に必要なシフト領域703と領域702とを合わせたものが、相関演算を行う為に必要なシフト領域704である。   FIG. 7D illustrates a region from which an image signal is acquired, and is a conceptual diagram on the pixel array of the image sensor 201 as an image sensor. For a pixel array 701 in which pixel parts (not shown) are arranged in an array, a region to be calculated described below is a region 702. A combination of the shift area 703 and the area 702 necessary for the correlation calculation when calculating the defocus amount of the area 702 is a shift area 704 necessary for performing the correlation calculation.

図7、8、および9中のp、q、s、tはそれぞれx軸方向の座標を表し、pからqはシフト領域704を表し、sからtは領域702を表す。   7, 8, and 9, p, q, s, and t represent coordinates in the x-axis direction, respectively, p to q represent a shift region 704, and s to t represent a region 702.

図7(A)(B)(C)は、図7(D)で設定したシフト領域704から取得した像信号である。sからtが領域702に対応し、pからqがシフト量を踏まえたデフォーカス量を算出する演算に必要な範囲のシフト領域704に対応する像信号である。図7(A)は相関演算のためのシフト前のA像信号とB像信号とを概念的に波形で表した図である。実線801がA像信号A、破線802がB像信号である。図7(B)は(A)のシフト前の像波形に対しプラス方向に互いにシフトさせた場合の概念図であり、同(C)は(A)のシフト前の像波形に対しマイナス方向に互いにシフトさせた場合の概念図である。2つの像の相関の具合である相関量を算出する際には、たとえば、それぞれ矢印の方向にA像信号801、B像信号802を1ビットずつシフトさせるといった具合である。   7A, 7B, and 7C are image signals acquired from the shift region 704 set in FIG. 7D. s to t correspond to the region 702, and p to q are image signals corresponding to the shift region 704 in the range necessary for the calculation for calculating the defocus amount based on the shift amount. FIG. 7A is a diagram conceptually showing waveforms of the A image signal and the B image signal before the shift for correlation calculation. A solid line 801 is the A image signal A, and a broken line 802 is the B image signal. FIG. 7B is a conceptual diagram when the image waveforms before the shift in FIG. 7A are shifted in the plus direction, and FIG. 7C is in the minus direction with respect to the image waveform before the shift in FIG. It is a conceptual diagram at the time of shifting mutually. When calculating the correlation amount, which is the degree of correlation between the two images, for example, the A image signal 801 and the B image signal 802 are shifted bit by bit in the directions of the arrows, respectively.

続いて相関量CORの算出法について説明する。まず、図7(B)(C)の通りに、たとえば、像信号Aと像信号Bを1ビットずつシフトしていき、その各状態でのA像信号とB像信号の差の絶対値の和を算出する。このとき、シフト量をiで表し、最小シフト数は図8中のp−s、最大シフト数は図8中のq−tである。またxは測距領域の開始座標、yは測距領域の終了座標である。これら用い、以下の式(1)によって算出する事ができる。   Next, a method for calculating the correlation amount COR will be described. First, as shown in FIGS. 7B and 7C, for example, the image signal A and the image signal B are shifted bit by bit, and the absolute value of the difference between the A image signal and the B image signal in each state is calculated. Calculate the sum. At this time, the shift amount is represented by i, the minimum shift number is ps in FIG. 8, and the maximum shift number is qt in FIG. X is the start coordinate of the distance measurement area, and y is the end coordinate of the distance measurement area. Using these, it can be calculated by the following equation (1).

Figure 2015087705
Figure 2015087705

図8(A)は相関量を波形のグラフで示した概念図である。グラフの横軸はシフト量を示し、縦軸は相関量を示す。相関量波形901には、極値付近902、903を有している例図である。この中でも相関量が小さい方ほど、A像とB像の一致度が高いことを示す。   FIG. 8A is a conceptual diagram showing the amount of correlation in a waveform graph. The horizontal axis of the graph indicates the shift amount, and the vertical axis indicates the correlation amount. The correlation amount waveform 901 is an example having extreme values 902 and 903. Among these, the smaller the correlation amount, the higher the coincidence between the A image and the B image.

続いて相関変化量ΔCORの算出法について説明する。まず、図8(A)の相関量波形の概念図から、たとえば、1シフト飛ばしの相関量の差から相関変化量を算出する。このとき、シフト量をiで表し、最小シフト数は図8(D)中のp−s、最大シフト数は図8(D)中のq−tである。これらを用い、以下の式(2)によって算出する事ができる。   Next, a method for calculating the correlation change amount ΔCOR will be described. First, from the conceptual diagram of the correlation amount waveform in FIG. 8A, for example, the correlation change amount is calculated from the difference in the correlation amount after skipping one shift. At this time, the shift amount is represented by i, the minimum shift number is ps in FIG. 8D, and the maximum shift number is qt in FIG. 8D. Using these, it can be calculated by the following equation (2).

Figure 2015087705
Figure 2015087705

図8(B)は相関変化量ΔCORを波形のグラフで例示した概念図である。グラフの横軸はシフト量を示し、縦軸は相関変化量を示す。相関変化量波形1001は、相関変化量がプラスからマイナスになるポイント1002、1003を有する。このポイント1002より相関変化量が0となる状態を相対的にA像とB像の一致度が高いA像信号とB像信号とのシフト量である。そのときのシフト量がデフォーカス量に対応することになる。   FIG. 8B is a conceptual diagram illustrating the correlation change amount ΔCOR with a waveform graph. The horizontal axis of the graph indicates the shift amount, and the vertical axis indicates the correlation change amount. The correlation change amount waveform 1001 has points 1002 and 1003 at which the correlation change amount becomes positive to negative. The state in which the correlation change amount is 0 from this point 1002 is the shift amount between the A image signal and the B image signal that have a relatively high degree of coincidence between the A image and the B image. The shift amount at that time corresponds to the defocus amount.

図9(A)は図8(B)のポイント1002を拡大したもので、相関変化量の波形1001の一部分の波形を波形1101としている。図9(A)を用いて、デフォーカス量に対応するピントずれ量PRDの算出法について例示する。ピントずれ量を整数部分βと小数部分αに分けて概念する。小数部分αは、図中の三角形ABCと三角形ADEの相似の関係から、以下の式(3)によって算出する事ができる。   FIG. 9A is an enlarged view of the point 1002 in FIG. 8B, and a waveform 1101 is a partial waveform of the correlation change amount waveform 1001. With reference to FIG. 9A, an example of a method of calculating the focus shift amount PRD corresponding to the defocus amount will be described. The concept of the focus shift amount is divided into an integer part β and a decimal part α. The decimal part α can be calculated by the following equation (3) from the similar relationship between the triangle ABC and the triangle ADE in the figure.

Figure 2015087705
Figure 2015087705

続いて小数部分βは、図9(A)中より以下の式(4)によって算出することができる。
β=k−1 (4)
Subsequently, the decimal part β can be calculated by the following formula (4) from FIG.
β = k−1 (4)

以上、αとβの和からピントずれ量PRDを算出する事ができる。   As described above, the focus shift amount PRD can be calculated from the sum of α and β.

また、図8(B)のように複数のゼロクロスが存在する場合は、ゼロクロスでの相関量変化の急峻性maxder(以下、急峻性と呼ぶ)が大きいところを第1のゼロクロスとする。この急峻性はAFのし易さを示す指標で、値が大きいほどAFし易い点であることを示す。急峻性は以下の式(5)によって算出する事ができる。   In addition, when there are a plurality of zero crosses as shown in FIG. 8B, the first zero cross is a point where the steepness maxder (hereinafter referred to as steepness) of the correlation amount change at the zero cross is large. This steepness is an index indicating the ease of AF. The larger the value, the easier it is to perform AF. The steepness can be calculated by the following equation (5).

Figure 2015087705
Figure 2015087705

以上のように、ゼロクロスが複数存在する場合は、急峻性によって第1のゼロクロスを決定する。   As described above, when there are a plurality of zero crosses, the first zero cross is determined based on steepness.

続いてピントずれ量の信頼性レベルの算出法について例示する。これは、デフォーカス量の信頼性に対応するものであるが、以下に示す説明は例示で他の周知の方法で信頼性レベルを算出しても構わない。信頼性は、前述した急峻性や、A像信号、B像信号の2像の一致度fnclvl(以下、2像一致度と呼ぶ)によって定義する事ができる。2像一致度はピントずれ量の精度を表す指標で、値が小さいほど精度が良い。図9(B)は図8(A)の極値付近902の部分を拡大したもので、相関量波形901の一部分の波形である波形1201である。これより、急峻性と2像一致度を算出法について例示する。2像一致度は以下の式(6)によって算出できる。   Next, an example of a method for calculating the reliability level of the focus deviation amount will be described. This corresponds to the reliability of the defocus amount, but the following explanation is an example, and the reliability level may be calculated by another known method. The reliability can be defined by the steepness described above and the degree of coincidence fnclvl (hereinafter referred to as the degree of coincidence of two images) of the two images of the A image signal and the B image signal. The degree of coincidence between the two images is an index representing the accuracy of the amount of focus deviation. FIG. 9B is an enlarged view of the vicinity of the extreme value 902 in FIG. 8A, and is a waveform 1201 that is a partial waveform of the correlation amount waveform 901. From this, the calculation method of the steepness and the degree of coincidence of two images will be exemplified. The degree of coincidence between two images can be calculated by the following equation (6).

Figure 2015087705
Figure 2015087705

以上のように、2像一致度を算出する。   As described above, the degree of coincidence of two images is calculated.

<デフォーカス量算出>
図10は、デフォーカス量算出までをフロー図に示したものである。なお、下記の例示の説明では、ピントずれ量とデフォーカス量とを区別して例示する。この点、本願技術思想におけるデフォーカス量は、合焦位置からの絶対的な距離やパルス数で概念してもよいし、そういった概念と次元、単位の異なる概念や相対的な概念でもよい。どれだけ合焦状態から離れていると判断できるか、どれだけフォーカス制御すれば合焦状態に移行できると判断できるかを示す概念である。このような概念としてデフォーカス情報を取得することをフォーカス情報を取得すると説明する。
<Defocus amount calculation>
FIG. 10 is a flowchart showing the process up to the defocus amount calculation. In the following explanation of examples, the amount of focus deviation and the amount of defocus are distinguished and exemplified. In this regard, the defocus amount in the technical idea of the present application may be conceptualized by an absolute distance from the in-focus position or the number of pulses, or may be a concept with a different concept, dimension, unit, or a relative concept. This is a concept indicating how far it can be determined that it is away from the in-focus state and how much focus control can be performed to determine that it can shift to the in-focus state. Acquisition of defocus information as such a concept will be described as acquisition of focus information.

Step1301で、先に例示したように設定したそれぞれの領域に対応する画像センサー201の位置の画素から像信号A、Bを取得する。次に、取得した像信号から相関量を算出する(Step1302)。続いて、算出した相関量から相関変化量を算出する(Step1303)。そして、算出した相関変化量からピントずれ量を算出する(Step1304)。また、算出したピントずれ量がどれだけ信頼できるのかを表す信頼性レベルを算出する(Step1305)。これらの処理を、エリア内の領域の数に応じた数行う。   In Step 1301, the image signals A and B are acquired from the pixels at the positions of the image sensor 201 corresponding to the respective areas set as exemplified above. Next, a correlation amount is calculated from the acquired image signal (Step 1302). Subsequently, a correlation change amount is calculated from the calculated correlation amount (Step 1303). Then, the focus shift amount is calculated from the calculated correlation change amount (Step 1304). Also, a reliability level representing how reliable the calculated focus deviation amount is calculated (Step 1305). These processes are performed according to the number of areas in the area.

そして、エリア内の領域ごとにピントずれ量をデフォーカス量に変換する(Step1306)。さらに、有効デフォーカス量と有効デフォーカス方向を算出する(Step1307、Step1308)。   Then, the amount of focus shift is converted into a defocus amount for each region in the area (Step 1306). Further, an effective defocus amount and an effective defocus direction are calculated (Step 1307, Step 1308).

<有効デフォーカス量の算出>
図11は、前述のStep1307で示した有効デフォーカス量としてエリア配置に対応する1のデフォーカス量の算出の処理のフロー図である。図7から図10を用いてAF信号処理部204で行われる相関演算について説明する。
<Calculation of effective defocus amount>
FIG. 11 is a flowchart of the process of calculating one defocus amount corresponding to the area arrangement as the effective defocus amount shown in Step 1307 described above. The correlation calculation performed by the AF signal processing unit 204 will be described with reference to FIGS.

有効デフォーカス量は、まず、エリア配置内の複数の領域のうち、デフォーカス量が得られていて、信頼度レベルが高い領域を探索する。探索して条件を満たす領域のデフォーカス量の平均値を算出する(Step1401)。   As for the effective defocus amount, first, among the plurality of regions in the area arrangement, a region where the defocus amount is obtained and the reliability level is high is searched. The average value of the defocus amounts of the areas that satisfy the search condition is calculated (Step 1401).

次に、各領域のデフォーカス量とStep1401で算出した平均値の差を算出する(Step1402)。そして、算出した各領域の差のうちの最大の値が所定差以上であるかを判定する。すなわち、エリア配置内の複数の領域のそれぞれのデフォーカス量のうち、偏差が大きいデフォーカス量かどうかを判定する。算出した各領域の差のうちの最大値が所定差未満の場合は(Step1403でNo)、Step1401で算出された平均値を有効デフォーカス量に設定する(Step1404)。逆に、算出した各領域の差のうち最大値が所定差以上の場合は(Step1403でYes)、最大差となった領域のデフォーカス量を平均値算出の際の演算対象から外す(Step1405)。エリア配置内の複数の領域のそれぞれのデフォーカス量のうち、偏差が大きいデフォーカス量か演算対象から外す。   Next, the difference between the defocus amount of each region and the average value calculated in Step 1401 is calculated (Step 1402). Then, it is determined whether the maximum value among the calculated differences between the areas is equal to or greater than a predetermined difference. That is, it is determined whether the defocus amount has a large deviation among the defocus amounts of the plurality of regions in the area arrangement. If the maximum value of the calculated differences between the regions is less than the predetermined difference (No in Step 1403), the average value calculated in Step 1401 is set as the effective defocus amount (Step 1404). On the contrary, when the maximum value among the calculated differences between the areas is equal to or larger than the predetermined difference (Yes in Step 1403), the defocus amount of the area that has become the maximum difference is excluded from the calculation target when calculating the average value (Step 1405). . Of the defocus amounts of the plurality of regions in the area arrangement, the defocus amount having a large deviation is excluded from the calculation target.

残っている領域のデフォーカス量があるかどうかを判定し(Step1406で、)、残っている領域のデフォーカス量がある場合は(Step1406でNo)、再度Step1401へ移行し、処理を繰り返す。残っている領域のデフォーカス量が1つとなった場合は(Step1406でYes)、有効デフォーカス量は得られなかったとし、無しに設定する(Step1407)。   It is determined whether or not there is a defocus amount in the remaining area (in Step 1406). If there is a defocus amount in the remaining area (No in Step 1406), the process proceeds to Step 1401 again, and the process is repeated. When the defocus amount of the remaining area becomes 1 (Yes in Step 1406), it is determined that the effective defocus amount has not been obtained, and is set to none (Step 1407).

有効デフォーカス方向も有効デフォーカス量と同様である。さらに、たとえば、有効デフォーカス方向は、複数の領域のうち、デフォーカス量が得られていて、信頼度レベルが高い領域、または、デフォーカス量の信頼度レベルが「中」である領域を探索し、その中で最も多い方向を有効デフォーカス方向とする。   The effective defocus direction is the same as the effective defocus amount. Further, for example, in the effective defocus direction, a search is made for a region where the defocus amount is obtained and the reliability level is high or the defocus amount reliability level is “medium” from among a plurality of regions. Then, the most common direction is set as the effective defocus direction.

なお、上記の例示では、最大差となった領域のデフォーカス量を、偏差の大きいデフォーカス量として、平均値算出の際の演算対象から外すことを例示した(Step1405)。この点、偏差の大きいデフォーカス量を演算から外さなくても、その重み付けを小さくすることでも一定の効果を有する。ただし、その場合には、その重み付け分だけ、主被写体像からデフォーカスしてしまう可能性もある。   In the above example, the defocus amount in the region having the largest difference is exemplified as a defocus amount having a large deviation and excluded from the calculation target when calculating the average value (Step 1405). In this respect, even if the defocus amount having a large deviation is not excluded from the calculation, reducing the weighting has a certain effect. In this case, however, there is a possibility that the main subject image is defocused by the weight.

このようにエリア配置内の複数の領域のそれぞれのデフォーカス量のうち、偏差の大きいデフォーカス量を使わないのは、次の理由からである。すなわち、エリア配置に対して1つのデフォーカス量を複数の領域のデフォーカス量から算出する都合上、そのエリア配置の大きさが故に、いわゆる遠近競合が生じる可能性が相対的に高いからである。   The reason why the defocus amount having a large deviation among the defocus amounts of the plurality of regions in the area arrangement is not used is as follows. That is, for the convenience of calculating one defocus amount with respect to the area arrangement from the defocus amounts of a plurality of areas, the possibility of so-called perspective conflict is relatively high because of the size of the area arrangement. .

<至近側優先>
ここで、図11では、有効デフォーカス量を算出する際に、至近側の方向を遠側の方向よりも優先する処理を例示する。これは、ユーザーとしての撮影者が合焦を意図する被写体像は、その背景と比べると至近側に想定されるからである。すなわち、撮影者は、至近側の被写体像にピント合わせを行うことが多く、至近側の被写体像の方が撮影者の意図する被写体像である可能性が高いからである。そのため、たとえば、エリア配置内のある領域のデフォーカス量とそのエリア配置の平均値との差を算出する際に(Step1402)、当該デフォーカス量が至近側のデフォーカス方向を伴うとき、このデフォーカス量と平均値との差を1より小さい値を掛ける。また、別の例をいえば、Step1403の所定差の値を大きくするといった具合である。これらにより、至近側のデフォーカス方向を伴う当該デフォーカス量は、算出した各領域の差のうちの最大の値をもつデフォーカス量に相対的になりにくくなる。それによって、エリア配置内の複数の領域のうち、至近側へ被写体像があると出力している領域のデフォーカス量を用いる確率を高めることが可能となり、所謂至近側優先のフォーカス制御を達成することができるものである。ただし、至近側を優先させる方法としてはこれに限らず、平均値のデフォーカス量よりも至近側のデフォーカス方向を伴うデフォーカス量を当該平均のデフォーカス量と差をとる対象から外すようにしてもよい。
<Closest priority>
Here, FIG. 11 exemplifies a process of giving priority to the near side direction over the far side direction when calculating the effective defocus amount. This is because the subject image that the photographer as the user intends to focus on is assumed to be close to the background. That is, the photographer often focuses on the subject image on the close side, and the subject image on the close side is more likely to be the subject image intended by the photographer. Therefore, for example, when calculating the difference between the defocus amount of a certain area in the area arrangement and the average value of the area arrangement (Step 1402), when the defocus amount accompanies the closest defocus direction, this defocus amount is calculated. The difference between the focus amount and the average value is multiplied by a value smaller than 1. As another example, the value of the predetermined difference in Step 1403 is increased. As a result, the defocus amount with the closest defocus direction is less likely to be relative to the defocus amount having the maximum value among the calculated differences between the regions. As a result, it is possible to increase the probability of using the defocus amount of the output area when there is a subject image on the close side among a plurality of areas in the area arrangement, and achieve so-called close priority priority focus control. Is something that can be done. However, the method of giving priority to the near side is not limited to this, and the defocus amount with the defocus direction on the near side is excluded from the target that takes the difference from the average defocus amount over the average defocus amount. May be.

なお、上記では、エリア配置において出力された複数のフォーカス情報のそれぞれを用いて、当該エリアに対応する一つのデフォーカス情報を取得する方法として平均処理を例示した。この点、平均ではなく例えば、ある重み付けをしてデフォーカス量を算出してもよい。このように、出力された複数のフォーカス情報のそれぞれを用いて、当該エリアに対応する一つのデフォーカス情報を取得する意義は、次の理由である。すなわち、エリア配置内の各領域のデフォーカス量の中から1つのデフォーカス量を選択すると、被写体像を「線」もしくは「点」で捕捉してしまい、被写体像に対する「線」もしくは「点」で捕捉する領域ごとのデフォーカス量の差に対しても、フォーカス制御をしてしまい、ライブビュー画像や動画としての適切でない可能性が高くなる。この点、各領域のデフォーカス量を平均するという技術思想によれば、被写体像をいわば「面」で捕捉することになるので、「線」もしくは「点」で捕捉する領域ごとのデフォーカス量の差によるフォーカス制御による弊害を軽減する一方で、上記で例示したようにユーザーが意図する被写体像への合焦精度も担保される。また、平均処理でなく、重み付けを以って出力された複数のフォーカス情報のそれぞれを用いて、当該エリアに対応する一つのデフォーカス情報を取得するようにすれば同様である。   In the above description, the averaging process is exemplified as a method for acquiring one piece of defocus information corresponding to the area using each of the plurality of focus information output in the area arrangement. In this regard, instead of the average, for example, the defocus amount may be calculated with a certain weight. Thus, the significance of acquiring one defocus information corresponding to the area using each of the plurality of output focus information is as follows. That is, if one defocus amount is selected from the defocus amounts of each area in the area arrangement, the subject image is captured by “line” or “point”, and “line” or “point” with respect to the subject image is captured. The focus control is performed even with respect to the difference in defocus amount for each area captured in step 1, and there is a high possibility that it is not appropriate as a live view image or a moving image. In this regard, according to the technical idea of averaging the defocus amount of each area, the subject image is captured by “surface”, so the defocus amount for each area captured by “line” or “point” While reducing the adverse effects caused by the focus control due to the difference, the accuracy of focusing on the subject image intended by the user is also ensured as exemplified above. The same applies if one piece of defocus information corresponding to the area is acquired using each of a plurality of pieces of focus information output with weighting instead of averaging processing.

このように、一体で捕捉すべき被写体像に対して、エリア配置内の複数のデフォーカス量を平均することにより、エリア配置内の領域ごとのデフォーカス量のばらつきを抑制し、安定したフォーカス制御を達成できる。   In this way, by averaging the multiple defocus amounts in the area arrangement for the subject image to be captured as a single unit, the variation in the defocus amount for each area in the area arrangement is suppressed and stable focus control is performed. Can be achieved.

<その他>
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
<Others>
Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.

また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。   Also, when a software program that realizes the functions of the above-described embodiments is supplied from a recording medium directly to a system or apparatus having a computer that can execute the program using wired / wireless communication, and the program is executed Are also included in the present invention.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。   Accordingly, the program code itself supplied and installed in the computer in order to implement the functional processing of the present invention by the computer also realizes the present invention. That is, the computer program itself for realizing the functional processing of the present invention is also included in the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。   In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.

プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。   As a recording medium for supplying the program, for example, a magnetic recording medium such as a hard disk or a magnetic tape, an optical / magneto-optical storage medium, or a nonvolatile semiconductor memory may be used.

また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータはがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。   As a program supply method, a computer program that forms the present invention is stored in a server on a computer network, and a connected client computer downloads and programs the computer program.

10 レンズ
20 カメラ
101 固定レンズ
102 絞り
103 フォーカスレンズ
104 絞り駆動部
105 フォーカスレンズ駆動部
106 レンズ制御部
107 レンズ操作部
201 撮像素子
202 CDS/AGC回路
203 カメラ信号処理部
204 AF信号処理部
205 表示部
206 記録部
207 カメラ制御部
208 カメラ操作部
209 タイミングジェネレータ
DESCRIPTION OF SYMBOLS 10 Lens 20 Camera 101 Fixed lens 102 Aperture 103 Focus lens 104 Aperture drive part 105 Focus lens drive part 106 Lens control part 107 Lens operation part 201 Image pick-up element 202 CDS / AGC circuit 203 Camera signal processing part 204 AF signal processing part 205 Display part 206 Recording unit 207 Camera control unit 208 Camera operation unit 209 Timing generator

Claims (18)

第1の領域に対応するフォーカス情報を出力する第1のフォーカス情報の出力手段と、
第2の領域に対応するフォーカス情報を出力する第2のフォーカス情報の出力手段と、
前記第1の領域と前記第2の領域はいずれも撮像画像内の一つのエリア内にあって、前記出力された複数のフォーカス情報のそれぞれを用いて、当該エリアに対応する一つのデフォーカス情報を取得するとともに、当該取得したデフォーカス情報に基づいてフォーカス制御する制御手段とを有し、
前記エリア内の第1の領域は、当該エリア内の第2の領域よりも短いことを特徴とするフォーカス制御装置。
First focus information output means for outputting focus information corresponding to the first region;
Second focus information output means for outputting focus information corresponding to the second area;
Each of the first area and the second area is in one area in the captured image, and one defocus information corresponding to the area is used by using each of the plurality of output focus information. And a control means for performing focus control based on the acquired defocus information,
The focus control apparatus according to claim 1, wherein the first area in the area is shorter than the second area in the area.
前記エリア内に前記第2の領域は少なくとも2以上であって、前記第1の領域よりも多いことを特徴とする請求項1に記載のフォーカス制御装置。   2. The focus control apparatus according to claim 1, wherein the second area in the area is at least two or more than the first area. 前記エリア内にある複数の領域のうち、最も短い領域が最も多く有ることを特徴とする請求項1または2に記載のフォーカス制御装置。   The focus control apparatus according to claim 1, wherein the shortest area is the largest among the plurality of areas in the area. 前記第1の領域は、前記エリア内において、前記第2の領域よりも外側にあることを特徴とする請求項1乃至3の何れか1項に記載のフォーカス制御装置。   4. The focus control apparatus according to claim 1, wherein the first area is located outside the second area in the area. 5. 前記制御手段は、前記撮像画像内において前記エリアを移動可能であることを特徴とする請求項1乃至4の何れか1項に記載のフォーカス制御装置。   The focus control apparatus according to claim 1, wherein the control unit is capable of moving the area in the captured image. 前記制御手段は、前記撮像画像内において前記エリアの大きさを変更することができることを特徴とする請求項1乃至5の何れか1項に記載のフォーカス制御装置。   The focus control apparatus according to claim 1, wherein the control unit is capable of changing a size of the area in the captured image. 前記制御手段、合焦後に、前記エリアを小さくすることを特徴とする請求項6に記載のフォーカス制御装置。   The focus control apparatus according to claim 6, wherein the control unit reduces the area after focusing. 前記制御手段は、サーチ駆動前に、前記エリアの大きさを切り替えることを特徴とする請求項6に記載のフォーカス制御装置。   The focus control apparatus according to claim 6, wherein the control unit switches the size of the area before search driving. 前記制御手段は、サーチ駆動中は、前記複数の大きさのエリアのうち小さいエリアであることを特徴とする請求項6乃至8の何れか1項に記載のフォーカス制御装置。   9. The focus control apparatus according to claim 6, wherein the control unit is a small area among the plurality of size areas during search driving. 10. 前記エリアの大きさの変更に伴って、前記第1の領域、第2の領域の長さも変わることを特徴とする請求項6乃至9の何れか1項に記載のフォーカス制御装置。   10. The focus control apparatus according to claim 6, wherein the lengths of the first region and the second region also change with a change in the size of the area. 11. 前記一のデフォーカス情報を出力する際、近側のフォーカス情報の重み付けを遠側のフォーカス情報の重み付けよりも大きくすることを特徴とする請求項1乃至10の何れか1項に記載のフォーカス制御装置。   11. The focus control according to claim 1, wherein when outputting the one defocus information, the weighting of the near-side focus information is made larger than the weighting of the far-side focus information. apparatus. 前記第1の領域および第2の領域に対応する画像センサーの位置から対の像が出力され、前記フォーカス情報は、当該対の像の位相差に基づくデフォーカス情報であることを特徴とする請求項1乃至11に記載のフォーカス制御装置。   A pair of images is output from positions of image sensors corresponding to the first region and the second region, and the focus information is defocus information based on a phase difference between the pair of images. Item 12. The focus control device according to Items 1 to 11. 前記長さは、前記位相差を検出する方向であることを特徴とする請求項12に記載のフォーカス制御装置。   The focus control apparatus according to claim 12, wherein the length is a direction in which the phase difference is detected. 前記フォーカス情報は、2像の相関情報であることを特徴とする請求項12に記載のフォーカス制御装置。   The focus control apparatus according to claim 12, wherein the focus information is correlation information of two images. 複数のマイクロレンズを有する画像センサーを有し、当該マイクロレンズに対応して複数の受光部を有することを特徴とする請求項1乃至14に記載のフォーカス制御装置。   15. The focus control apparatus according to claim 1, further comprising an image sensor having a plurality of microlenses, and a plurality of light receiving portions corresponding to the microlenses. 複数のマイクロレンズを有する画像センサーを有し、当該マイクロレンズに対応する受光部の開口位置が異なる画素部を有することを特徴とする請求項1乃至14に記載のフォーカス制御装置。   The focus control device according to claim 1, further comprising: an image sensor having a plurality of microlenses, and a pixel portion having a different opening position of a light receiving portion corresponding to the microlens. 前記制御手段は、前記第1の領域と前記第2の領域はいずれも撮像画像内の一つのエリア内にあって、前記出力された複数のフォーカス情報の平均値を用いて、当該エリアに対応する一つのデフォーカス情報を取得することを特徴とする請求項1乃至16の何れか1項に記載のフォーカス制御装置。   The control means corresponds to the area using the average value of the plurality of output focus information, wherein the first area and the second area are both in one area in the captured image. The focus control apparatus according to claim 1, wherein one piece of defocus information is acquired. フォーカス制御装置の制御方法であって、
第1の領域に対応するフォーカス情報を出力する第1のフォーカス情報の出力ステップと、
第2の領域に対応するフォーカス情報を出力する第2のフォーカス情報の出力ステップと、
前記第1の領域と前記第2の領域はいずれも撮像画像内の一つのエリア内にあって、前記出力された複数のフォーカス情報のそれぞれを用いて、当該エリアに対応する一つのデフォーカス情報を取得するとともに、当該取得したデフォーカス情報に基づいてフォーカス制御する制御ステップとを有し、
前記エリア内の第1の領域は、当該エリア内の第2の領域よりも短いことを特徴とするフォーカス制御装置の制御方法。
A control method of a focus control device,
An output step of first focus information for outputting focus information corresponding to the first region;
An output step of second focus information for outputting focus information corresponding to the second region;
Each of the first area and the second area is in one area in the captured image, and one defocus information corresponding to the area is used by using each of the plurality of output focus information. And a control step for controlling focus based on the acquired defocus information,
The control method of the focus control apparatus, wherein the first area in the area is shorter than the second area in the area.
JP2013228319A 2013-11-01 2013-11-01 FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE Active JP6305016B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013228319A JP6305016B2 (en) 2013-11-01 2013-11-01 FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE
US14/526,315 US9742980B2 (en) 2013-11-01 2014-10-28 Focus control apparatus and control method therefor
RU2014144004A RU2608778C1 (en) 2013-11-01 2014-10-30 Focusing control device and method of said device control
EP14191047.1A EP2884336B1 (en) 2013-11-01 2014-10-30 Focus control apparatus and control method therefor
CN201410609680.7A CN104618639B (en) 2013-11-01 2014-11-03 Focusing control device and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013228319A JP6305016B2 (en) 2013-11-01 2013-11-01 FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE

Publications (3)

Publication Number Publication Date
JP2015087705A true JP2015087705A (en) 2015-05-07
JP2015087705A5 JP2015087705A5 (en) 2016-12-22
JP6305016B2 JP6305016B2 (en) 2018-04-04

Family

ID=53050521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013228319A Active JP6305016B2 (en) 2013-11-01 2013-11-01 FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE

Country Status (1)

Country Link
JP (1) JP6305016B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018040929A (en) * 2016-09-07 2018-03-15 ソニー株式会社 Imaging control device and imaging control method
JPWO2019073814A1 (en) * 2017-10-13 2020-11-05 ソニー株式会社 Focus detectors and methods, as well as programs

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03164727A (en) * 1989-11-24 1991-07-16 Nikon Corp Focus detecting photometric device
JPH11252441A (en) * 1998-03-02 1999-09-17 Nikon Corp Automatic focusing device
JPH11258492A (en) * 1998-03-10 1999-09-24 Canon Inc Focus detecting device and its method and storage medium readable through computer
JP2002196227A (en) * 2000-12-26 2002-07-12 Olympus Optical Co Ltd Ranging sensor and ranging device
JP2005128291A (en) * 2003-10-24 2005-05-19 Nikon Corp Focus detecting device and camera
JP2007103590A (en) * 2005-10-03 2007-04-19 Nikon Corp Image pick-up device, focus detector and image pick-up system
JP2010286595A (en) * 2009-06-10 2010-12-24 Nikon Corp Focus detector, imaging apparatus and image recognition device
JP2011081271A (en) * 2009-10-08 2011-04-21 Canon Inc Image capturing apparatus
JP2011257565A (en) * 2010-06-08 2011-12-22 Canon Inc Imaging device
JP2013218049A (en) * 2012-04-06 2013-10-24 Sony Corp Imaging apparatus, focus control method, and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03164727A (en) * 1989-11-24 1991-07-16 Nikon Corp Focus detecting photometric device
JPH11252441A (en) * 1998-03-02 1999-09-17 Nikon Corp Automatic focusing device
JPH11258492A (en) * 1998-03-10 1999-09-24 Canon Inc Focus detecting device and its method and storage medium readable through computer
JP2002196227A (en) * 2000-12-26 2002-07-12 Olympus Optical Co Ltd Ranging sensor and ranging device
JP2005128291A (en) * 2003-10-24 2005-05-19 Nikon Corp Focus detecting device and camera
JP2007103590A (en) * 2005-10-03 2007-04-19 Nikon Corp Image pick-up device, focus detector and image pick-up system
JP2010286595A (en) * 2009-06-10 2010-12-24 Nikon Corp Focus detector, imaging apparatus and image recognition device
JP2011081271A (en) * 2009-10-08 2011-04-21 Canon Inc Image capturing apparatus
JP2011257565A (en) * 2010-06-08 2011-12-22 Canon Inc Imaging device
JP2013218049A (en) * 2012-04-06 2013-10-24 Sony Corp Imaging apparatus, focus control method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018040929A (en) * 2016-09-07 2018-03-15 ソニー株式会社 Imaging control device and imaging control method
US10999490B2 (en) 2016-09-07 2021-05-04 Sony Corporation Imaging control device and imaging control method
JPWO2019073814A1 (en) * 2017-10-13 2020-11-05 ソニー株式会社 Focus detectors and methods, as well as programs
US11503201B2 (en) 2017-10-13 2022-11-15 Sony Corporation Focus detection device and method
JP7226325B2 (en) 2017-10-13 2023-02-21 ソニーグループ株式会社 Focus detection device and method, and program

Also Published As

Publication number Publication date
JP6305016B2 (en) 2018-04-04

Similar Documents

Publication Publication Date Title
US9742980B2 (en) Focus control apparatus and control method therefor
JP6506560B2 (en) Focus control device and method therefor, program, storage medium
US11095806B2 (en) Display control apparatus, display control method, and image capturing apparatus
JP6548435B2 (en) Display control apparatus, control method therefor, and imaging apparatus
US9338344B2 (en) Focusing apparatus and method for controlling the same, and image pickup apparatus
JP6504969B2 (en) Imaging system, imaging apparatus, lens apparatus, control method of imaging system
JP2016142925A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP6154081B2 (en) Imaging device, imaging device body, and lens barrel
JP2012113171A (en) Imaging device and control method therefor
JP2014215551A (en) Image-capturing device and control method therefor
JP6808333B2 (en) Display control device and method, and imaging device
JP6300670B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
JP6139960B2 (en) Imaging apparatus and control method thereof
JP6682319B2 (en) Focus detection apparatus and method, imaging apparatus, program, storage medium
JP2013254166A (en) Imaging device and control method of the same
JP6305017B2 (en) Focus control device and control method thereof
JP6087714B2 (en) Imaging apparatus and control method thereof
JP6305016B2 (en) FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE
JP2016142999A (en) Imaging device and control method of the same
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP2016156950A (en) Automatic focus adjustment device and control method of the same
JP6765859B2 (en) Imaging device and its control method
JP7207874B2 (en) CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6929140B2 (en) Control device, image pickup device, control method, program, and storage medium
JP2019090855A (en) Imaging device and control method therefor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161028

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180306

R151 Written notification of patent or utility model registration

Ref document number: 6305016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151