JP7293309B2 - IMAGING DEVICE, CONTROL METHOD AND STORAGE MEDIUM - Google Patents

IMAGING DEVICE, CONTROL METHOD AND STORAGE MEDIUM Download PDF

Info

Publication number
JP7293309B2
JP7293309B2 JP2021177170A JP2021177170A JP7293309B2 JP 7293309 B2 JP7293309 B2 JP 7293309B2 JP 2021177170 A JP2021177170 A JP 2021177170A JP 2021177170 A JP2021177170 A JP 2021177170A JP 7293309 B2 JP7293309 B2 JP 7293309B2
Authority
JP
Japan
Prior art keywords
subject
unit
distance measurement
focus
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021177170A
Other languages
Japanese (ja)
Other versions
JP2022145453A (en
Inventor
啓昭 木村
夏子 佐藤
諒 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US17/690,123 priority Critical patent/US11722769B2/en
Publication of JP2022145453A publication Critical patent/JP2022145453A/en
Application granted granted Critical
Publication of JP7293309B2 publication Critical patent/JP7293309B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、あおり制御が可能な撮像装置に関する。 The present invention relates to an imaging device capable of tilt control.

従来、監視カメラを高所に設置し、監視カメラの光軸を斜め下側に向け、道路を通行する人を監視したり、車やそのナンバープレートを撮影したりすることがある。 Conventionally, a surveillance camera is installed at a high place, and the optical axis of the surveillance camera is directed obliquely downward to monitor people passing by on the road or photograph a vehicle and its license plate.

撮像を行う際のピントが合うピント面は光軸に垂直な面である。監視カメラの光軸が斜め下向きとなる場合、撮像を行う際のピントが合うピント面は、実際に撮像を行う対象となる被写体の撮像面とは合致しない。そのため、ピントが合う領域は画面の一部となり、その他の領域はピントがぼけた状態となる。 A focal plane on which an image is focused is a plane perpendicular to the optical axis. When the optical axis of the surveillance camera is directed obliquely downward, the focal plane that is in focus when capturing an image does not match the imaging plane of the subject that is actually captured. Therefore, the in-focus area is part of the screen, and the other areas are out of focus.

この問題に対し、光学系の絞りを絞ることにより被写界深度を深くし、ピントぼけを防ぐ方法がある。 To solve this problem, there is a method of narrowing down the aperture of the optical system to deepen the depth of field and prevent the out-of-focus blur.

しかしながら、低照度下で撮影を行う監視カメラでは、絞りを開放近くまで開いての撮影も多い。この結果、被写界深度は浅くなってしまい、画面全体でピントが合わず、ピントがぼけた状態で撮影が行われてしまう。 However, in surveillance cameras that take pictures under low illuminance, there are many cases where the aperture is opened to near maximum. As a result, the depth of field becomes shallow, the entire screen is out of focus, and the image is shot in an out-of-focus state.

このような課題に対し、レンズもしくは撮像素子を相対的に傾けることで被写界深度範囲を広げるシャインプルーフの定理と呼ばれる技術が一般的に知られている。 A technique called Scheimpflug's theorem, which widens the range of depth of field by relatively tilting a lens or an image pickup device, is generally known for such a problem.

特許文献1には、複数の被写体に合焦するようにフォーカス位置とあおり制御量を決定する技術が開示されている。この技術においては、被写体毎に合焦位置を検出することが必要である。合焦位置の検出方法として、コントラスト評価値が最大となるようにフォーカス位置を制御する処理を被写体毎に実行する方法が記載されている。特許文献1に開示された撮像装置では、2点の被写体距離と像高から、あおり角とフォーカス位置の制御量を算出している。 Japanese Patent Application Laid-Open No. 2002-200001 discloses a technique for determining a focus position and a tilt control amount so as to focus on a plurality of subjects. In this technique, it is necessary to detect the in-focus position for each subject. As a method of detecting a focus position, a method of executing a process for controlling the focus position for each subject so as to maximize the contrast evaluation value is described. In the imaging apparatus disclosed in Patent Document 1, the control amount of the tilt angle and focus position is calculated from the object distance and image height of two points.

特開2003-75716号公報JP-A-2003-75716

しかしながら、特許文献1には、あおり角とフォーカス位置の制御を行う際に、使用する2点の位置についての言及が無い。したがって、複数の被写体があった場合に、2点の選択によってはあおり角とフォーカス位置の制御量が正しく算出できない場合がある。 However, Patent Document 1 does not mention the positions of the two points used when controlling the tilt angle and the focus position. Therefore, when there are a plurality of subjects, depending on the selection of two points, the control amount of the tilt angle and the focus position may not be calculated correctly.

そのため、理想のあおり面の位置からズレが生じてしまう。近年では、撮像素子の高画素化、および表示機器の大型化に伴い、より高精細な映像が求められている。このため、特許文献1の方法では、4Kや8Kカメラを使用した場合、十分にピントを合わすことができない。 As a result, deviation from the ideal tilt plane position occurs. 2. Description of the Related Art In recent years, with the increase in the number of pixels of imaging devices and the increase in size of display devices, there is a demand for higher definition images. For this reason, the method of Patent Document 1 cannot achieve sufficient focusing when using a 4K or 8K camera.

そこで本発明は、複数の被写体があった場合に、適切な被写体を選択することで、あおり角とフォーカス位置を高精度に算出することが可能な撮像装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an imaging apparatus capable of calculating a tilt angle and a focus position with high accuracy by selecting an appropriate subject when there are a plurality of subjects.

本発明の一側面としての撮像装置は、撮像素子を傾けて、前記撮像素子の撮像面と撮像光学系の光軸と直交する直交面との間の角度であるあおり角を変更するあおり駆動部と、前記撮像光学系のフォーカスレンズを駆動して、フォーカス位置を変更するフォーカス駆動部と、撮像装置によって撮像された画像内で被写体を検出する被写体検出部と、前記被写体検出部により検出された前記被写体までの測距を行う測距部と、前記測距部による測距結果に基づいて、前記あおり角および前記フォーカス位置を決定する決定部と、前記決定部により決定された前記あおり角および前記フォーカス位置に基づいて、前記あおり駆動部および前記フォーカス駆動部を制御する制御部と、を有し、前記制御部は、前記被写体検出部により検出された前記被写体の検出サイズ、前記撮像素子の回転軸に対応する位置から前記被写体までの距離である検出位置、および前記測距部により測距された前記被写体の前記測距結果の精度により判定される信頼度に基づいて、前記被写体検出部により検出された複数の前記被写体から、前記あおり角および前記フォーカス位置を決定するために用いる被写体を選択し、前記決定部は、選択された前記被写体の測距結果に基づいて、前記あおり角および前記フォーカス位置を決定し、前記信頼度は、前記撮像素子の回転軸に対応する位置から前記被写体までの距離が長いほど高いことを特徴とする。 An image pickup device as one aspect of the present invention is a tilt drive unit that tilts an image pickup device to change a tilt angle that is an angle between an image pickup surface of the image pickup device and an orthogonal plane perpendicular to an optical axis of an image pickup optical system. a focus driving unit that drives the focus lens of the imaging optical system to change the focus position; a subject detection unit that detects a subject in an image captured by the imaging device; a distance measurement unit that measures the distance to the subject; a determination unit that determines the tilt angle and the focus position based on the distance measurement result of the distance measurement unit; and a control unit that controls the tilt driving unit and the focus driving unit based on the focus position, and the control unit controls the detection size of the subject detected by the subject detection unit, the size of the image sensor , and detection of the subject based on reliability determined by a detection position, which is a distance from a position corresponding to the rotation axis to the subject, and accuracy of the distance measurement result of the subject measured by the distance measuring unit; selects a subject to be used for determining the tilt angle and the focus position from the plurality of subjects detected by the determination unit, and determines the tilt angle based on the distance measurement result of the selected subject. and the focus position is determined, and the reliability is higher as the distance from the position corresponding to the rotation axis of the imaging element to the subject is longer .

本発明の他の目的及び特徴は、以下の実施形態において説明される。 Other objects and features of the invention are described in the following embodiments.

本発明によれば、複数の被写体があった場合に、適切な被写体を選択することで、あおり角とフォーカス位置を高精度に算出することが可能な撮像装置を提供することができる。 According to the present invention, it is possible to provide an imaging apparatus capable of calculating a tilt angle and a focus position with high accuracy by selecting an appropriate subject when there are a plurality of subjects.

撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of an imaging device. 撮像素子の画素構成を示す図である。It is a figure which shows the pixel structure of an image pick-up element. ビットずれ量の算出方法を説明する図である。It is a figure explaining the calculation method of bit deviation|shift amount. 変換係数Kの算出方法を説明する図である。4 is a diagram for explaining a method of calculating a conversion coefficient K; FIG. あおり制御を説明する図である。It is a figure explaining swing control. あおり制御およびフォーカス制御を説明する図である。FIG. 5 is a diagram for explaining tilt control and focus control; 第1の実施形態に係るあおり/フォーカス制御を説明するフローチャートである。4 is a flowchart for explaining tilt/focus control according to the first embodiment; 第1の実施形態の課題のシチュエーションの図である。It is a figure of the situation of the subject of 1st Embodiment. 図8のシチュエーションを撮像面位相差方式で測距した場合の撮像面上のピント位置を表す図である。FIG. 9 is a diagram showing a focus position on the imaging plane when the situation in FIG. 8 is measured by the imaging plane phase difference method; 信頼度のテーブルである。It is a reliability table. 第2の実施形態に係るあおり/フォーカス制御を説明するフローチャートである。9 is a flowchart for explaining tilt/focus control according to the second embodiment; 第3の実施形態の課題のシチュエーションの図である。It is a figure of the situation of the subject of 3rd Embodiment. 図12のシチュエーションを撮像面位相差方式で測距した場合の撮像面上のピント位置を表す図である。FIG. 13 is a diagram showing a focus position on the imaging plane when ranging in the situation of FIG. 12 by the imaging plane phase difference method; 第3の実施形態に係るあおり/フォーカス制御を説明するフローチャートである。FIG. 11 is a flowchart for explaining tilt/focus control according to the third embodiment; FIG. 第4の実施形態に係るあおり/フォーカス制御を説明するフローチャートである。FIG. 14 is a flowchart for explaining tilt/focus control according to the fourth embodiment; FIG. 第4の実施形態の課題のシチュエーションの図である。It is a figure of the situation of the subject of 4th Embodiment. 図16のシチュエーションを撮像面位相差方式で測距した場合の撮像面上のピント位置を表す図である。FIG. 17 is a diagram showing the focus position on the imaging plane when ranging in the situation of FIG. 16 by the imaging plane phase difference method; 信頼度のテーブルである。It is a reliability table.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
(全体構成)
まず、図1を参照して、本実施形態における撮像装置について説明する。図1は、撮像装置(制御装置)100のブロック図である。ズームレンズ101は、光軸方向に移動して焦点距離を変更する。フォーカスレンズ102は、光軸方向に移動してピントの制御(フォーカス制御)を行う。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(overall structure)
First, with reference to FIG. 1, an imaging device according to the present embodiment will be described. FIG. 1 is a block diagram of an imaging device (control device) 100. As shown in FIG. The zoom lens 101 moves in the optical axis direction to change the focal length. The focus lens 102 moves in the optical axis direction to control focus (focus control).

絞りユニット103は、光量を調整する。本実施形態において、ズームレンズ101、フォーカスレンズ102、および、絞りユニット103により撮像光学系が構成される。 A diaphragm unit 103 adjusts the amount of light. In this embodiment, the zoom lens 101, the focus lens 102, and the diaphragm unit 103 constitute an imaging optical system.

撮像光学系を通過した光は、バンドパスフィルタ(BPF)104およびカラーフィルタ105を介して、撮像素子106に受光される。バンドパスフィルタ104は、撮像光学系の光路に対して進退可能であってもよい。 Light that has passed through the imaging optical system is received by an imaging device 106 via a bandpass filter (BPF) 104 and a color filter 105 . The bandpass filter 104 may be movable with respect to the optical path of the imaging optical system.

撮像素子106は、CMOSセンサなどを有し、撮像光学系を介して形成された光学像(被写体像)を光電変換する。 The imaging device 106 has a CMOS sensor or the like, and photoelectrically converts an optical image (object image) formed via an imaging optical system.

撮像素子106から出力されたアナログ電気信号(撮像信号)は、AGC(Auto Gain Control)107によりゲイン調整される。A/D変換器108は、アナログ電気信号をデジタル信号(デジタル撮像信号)に変換する。 An analog electric signal (imaging signal) output from the imaging device 106 is gain-adjusted by an AGC (Auto Gain Control) 107 . The A/D converter 108 converts the analog electrical signal into a digital signal (digital imaging signal).

カメラ信号処理部109は、デジタル撮像信号に対して各種の画像処理(例えばガンマ変換やホワイトバランス調整)を行い、映像信号を生成する。映像信号は、通信部110を介して、撮像装置100に有線または無線通信により接続された監視モニタ装置111に出力される。 A camera signal processing unit 109 performs various types of image processing (for example, gamma conversion and white balance adjustment) on the digital imaging signal to generate a video signal. The video signal is output via the communication unit 110 to the monitoring monitor device 111 connected to the imaging device 100 by wire or wireless communication.

また、通信部110は、外部PC等の外部装置からのコマンドを受けて撮像装置100内のあおり/フォーカス制御部(制御部)115にコマンドなどの制御信号を出力する。 The communication unit 110 also receives a command from an external device such as an external PC and outputs a control signal such as a command to a tilt/focus control unit (control unit) 115 in the imaging apparatus 100 .

本実施形態では監視モニタ装置111まで含めたシステムを撮像装置と呼ぶ。一方、図1において監視モニタ装置111以外は一つの筐体に収納されており監視カメラを構成している。 In this embodiment, a system including the monitoring device 111 is called an imaging device. On the other hand, in FIG. 1, components other than the surveillance monitor device 111 are housed in one housing to constitute a surveillance camera.

測距情報算出部(測距部)112は、対象となる被写体領域ごとにカメラ信号処理部109からRGBの画素値または輝度値を受け取り、位相差による距離情報を取得する。 A distance measurement information calculation unit (distance measurement unit) 112 receives RGB pixel values or luminance values from the camera signal processing unit 109 for each target subject area, and acquires distance information based on a phase difference.

被写体検出部113は、カメラ信号処理部109からの結果を受けて、撮影画像内において被写体を検出する。被写体検出部113は、ユーザにより指定された被写体または予め設定された被写体、例えば人物や車の検出も行うことが可能である。 The subject detection unit 113 receives the result from the camera signal processing unit 109 and detects the subject within the captured image. The subject detection unit 113 can also detect subjects specified by the user or preset subjects such as people and cars.

あおり/フォーカス駆動量算出部(決定部)114は、測距情報算出部112からの測距情報と被写体検出部113からの被写体情報を取得する。 A tilt/focus drive amount calculation unit (determination unit) 114 acquires distance measurement information from the distance measurement information calculation unit 112 and object information from the object detection unit 113 .

また、あおり/フォーカス駆動量算出部114は、測距情報および被写体情報と、制御部115からのあおり角およびフォーカス位置とに基づいて、シーンに応じた適切な(最適な)あおり角およびフォーカス位置を算出する。 Further, the tilt/focus driving amount calculation unit 114 calculates an appropriate (optimal) tilt angle and focus position according to the scene based on the distance measurement information and the subject information, and the tilt angle and focus position from the control unit 115 . Calculate

制御部115は、コンピュータとしてのCPUが内蔵されており、メモリ120に記憶されたコンピュータプログラムに基づき装置全体の各種動作を制御手段として実行する。制御部115は、あおり/フォーカス駆動量算出部114により算出されたあおり角およびフォーカス位置に基づいて、あおり角およびフォーカス位置を制御する。 The control unit 115 incorporates a CPU as a computer, and executes various operations of the entire apparatus as control means based on computer programs stored in the memory 120 . The control unit 115 controls the tilt angle and the focus position based on the tilt angle and the focus position calculated by the tilt/focus driving amount calculation unit 114 .

制御部115は、通信部110を介して外部PCなどの外部装置からの指示に従って、オートフォーカス(AF)やマニュアルフォーカス(MF)でのフォーカス制御、ズーム制御、および、絞り制御を行う。また制御部115は、撮像素子駆動部116、絞り駆動部117、フォーカス駆動部118、および、ズーム駆動部119から現在の位置情報を受け取り、あおり/フォーカス駆動量算出部114に現在の位置情報を出力する。 The control unit 115 performs focus control, zoom control, and aperture control in autofocus (AF) and manual focus (MF) according to instructions from an external device such as an external PC via the communication unit 110 . Further, the control unit 115 receives current position information from the image sensor driving unit 116, the diaphragm driving unit 117, the focus driving unit 118, and the zoom driving unit 119, and sends the current position information to the tilt/focus driving amount calculation unit 114. Output.

また制御部115は、あおり/フォーカス駆動量算出部114で算出されたあおり角およびフォーカス位置を、撮像素子駆動部116およびフォーカス駆動部118にそれぞれ指示する。 The control unit 115 also instructs the image sensor driving unit 116 and the focus driving unit 118 of the tilt angle and the focus position calculated by the tilt/focus driving amount calculation unit 114 .

撮像素子駆動部116は、あおり駆動部として機能し、制御部115から指示されたあおり角に基づいて、撮像素子106を傾け、あおり角を制御する。すなわち、撮像素子駆動部116は、撮像素子106を傾けて、撮像素子106の撮像面と撮像光学系の光軸と直交する直交面との間の角度であるあおり角を変更する。 The imaging device driving unit 116 functions as a tilting driving unit, and controls the tilting angle by tilting the imaging device 106 based on the tilting angle instructed by the control unit 115 . That is, the imaging device driving unit 116 tilts the imaging device 106 to change the tilt angle, which is the angle between the imaging plane of the imaging device 106 and the orthogonal plane perpendicular to the optical axis of the imaging optical system.

通常、撮像素子106を傾ける回転軸は、撮影画像の中心を通る水平方向の(撮像素子の長手方向に沿った)軸であり、この回転軸を中心に撮像素子106は撮像光学系に対して相対的に傾く。しかし、本実施形態はこれに限定されるものではない。 Normally, the axis of rotation for tilting the image pickup device 106 is a horizontal axis (along the longitudinal direction of the image pickup device) that passes through the center of the captured image. relatively tilted. However, this embodiment is not limited to this.

絞り駆動部117は、制御部115から伝達された絞りの設定値に基づいて、絞りユニット103の位置を制御する。フォーカス駆動部118は、制御部115から指示されたフォーカスの設定値に基づいて(デフォーカス量に基づいて)、フォーカスレンズ102の位置を制御する(フォーカス制御を行う)。ズーム駆動部119は、制御部115から伝達されたズームの設定値に基づいて、ズームレンズ101の位置を制御する。 The aperture drive unit 117 controls the position of the aperture unit 103 based on the aperture setting value transmitted from the control unit 115 . The focus drive unit 118 controls the position of the focus lens 102 (performs focus control) based on the focus setting value (based on the defocus amount) instructed by the control unit 115 . The zoom drive unit 119 controls the position of the zoom lens 101 based on the zoom setting value transmitted from the control unit 115 .

測距情報算出部112は、カメラ信号処理部109により得られる焦点検出用データを用いて、位相差検出方式で測距情報算出処理を行う。より具体的には、カメラ信号処理部109は、撮像光学系の一対の瞳領域を通過する光束により形成される一対の像データを焦点検出用データとして生成する。測距情報算出部112は、一対の像データのずれ量に基づいて測距結果としてのデフォーカス量を検出する。このように測距情報算出部112は、専用のAFセンサを用いず、撮像素子106の出力に基づく撮像面位相差検出方式により測距(焦点検出)を行う。 The distance measurement information calculation unit 112 uses focus detection data obtained by the camera signal processing unit 109 to perform distance measurement information calculation processing using a phase difference detection method. More specifically, the camera signal processing unit 109 generates a pair of image data formed by light beams passing through a pair of pupil regions of the imaging optical system as focus detection data. The distance measurement information calculation unit 112 detects the defocus amount as the distance measurement result based on the amount of deviation between the pair of image data. In this manner, the distance measurement information calculation unit 112 performs distance measurement (focus detection) by the imaging plane phase difference detection method based on the output of the image sensor 106 without using a dedicated AF sensor.

なお、測距情報算出部112の撮像面位相差検出方式による測距情報算出動作の詳細については、後述する。また測距情報算出部112は、特定周波数のコントラストに係る評価値(コントラスト評価値)を取得し、元のフォーカス位置とコントラスト評価値がピークとなるフォーカス位置との差分に基づいてデフォーカス量を算出してもよい。 Details of the ranging information calculation operation by the imaging plane phase difference detection method of the ranging information calculation unit 112 will be described later. Further, the distance measurement information calculation unit 112 acquires an evaluation value (contrast evaluation value) related to contrast at a specific frequency, and calculates a defocus amount based on the difference between the original focus position and the focus position where the contrast evaluation value peaks. can be calculated.

メモリ(記憶手段)120は、制御部115が実行するプログラムに関するデータを記憶しているとともに、シェーディング補正係数に関するデータや変換係数に関するデータを記憶している。
(撮像面位相差検出方式による測距情報算出動作)
次に、図2を参照して、撮像素子106の画素構成について説明する。図2は、撮像素子106の画素構成図である。
The memory (storage means) 120 stores data related to programs executed by the control unit 115, and also stores data related to shading correction coefficients and data related to conversion coefficients.
(Ranging information calculation operation by imaging plane phase difference detection method)
Next, the pixel configuration of the image sensor 106 will be described with reference to FIG. FIG. 2 is a pixel configuration diagram of the image sensor 106. As shown in FIG.

撮像素子106は、全ての画素201のそれぞれが光電変換部201a、201bの2つにX方向に分割されている。また撮像素子106は、光電変換部201a、201bそれぞれの光電変換信号と、2つの光電変換部201a、201bの光電変換信号の和とがそれぞれ独立して読み出し可能である。 In the image sensor 106, all pixels 201 are divided in the X direction into two photoelectric conversion units 201a and 201b. Further, the image sensor 106 can independently read the photoelectric conversion signals of the photoelectric conversion units 201a and 201b and the sum of the photoelectric conversion signals of the two photoelectric conversion units 201a and 201b.

また、2つの光電変換部201a、201bの光電変換信号の和から一方の光電変換部(例えば光電変換部201a)の光電変換信号を減じることで、他方の光電変換部(例えば光電変換部201b)の光電変換信号に相当する信号を得ることができる。 Further, by subtracting the photoelectric conversion signal of one photoelectric conversion unit (for example, the photoelectric conversion unit 201a) from the sum of the photoelectric conversion signals of the two photoelectric conversion units 201a and 201b, the other photoelectric conversion unit (for example, the photoelectric conversion unit 201b) can obtain a signal corresponding to the photoelectric conversion signal of .

光電変換部201a、201bそれぞれにおける光電変換信号は、位相差AFのための焦点検出用データとして用いられる。また、2つの光電変換部201a、201bの光電変換信号の和は、通常の撮影画像データとして用いられる。 The photoelectric conversion signals in the photoelectric conversion units 201a and 201b are used as focus detection data for phase difference AF. Also, the sum of the photoelectric conversion signals of the two photoelectric conversion units 201a and 201b is used as normal captured image data.

測距情報算出部112は、このように生成された光電変換部201aの光電変換信号に相当する信号(A像)と光電変換部201bの光電変換信号に相当する信号(B像)との相対的な像ずれ量を相関演算により算出する。これにより、測距情報算出部112は、一対の像信号の相関度であるビットずれ量[bit]を算出することができる。ビットずれ量に変換係数を乗ずることで、ビットずれ量は所定領域のデフォーカス量[mm]に変換される。 The distance measurement information calculation unit 112 calculates the relative value of the signal (A image) corresponding to the photoelectric conversion signal of the photoelectric conversion unit 201a generated in this way and the signal (B image) corresponding to the photoelectric conversion signal of the photoelectric conversion unit 201b. A typical image shift amount is calculated by correlation calculation. Thereby, the distance measurement information calculation unit 112 can calculate the bit shift amount [bit], which is the degree of correlation between the pair of image signals. By multiplying the bit shift amount by the conversion coefficient, the bit shift amount is converted into the defocus amount [mm] of the predetermined area.

本実施形態では、各画素201から光電変換部201a、201bの一方の出力信号と2つの光電変換部201a、201bの出力信号の和を撮像素子106から読み出すものとする。例えば、光電変換部201aの出力信号と、光電変換部201a、201bの出力信号の和とが読み出される場合、光電変換部201bの出力信号は、光電変換部201a、201bの出力信号の和から光電変換部201aの出力を減じることで取得できる。これにより、A像とB像の両方を得ることができ、撮像面位相差検出方式での測距(焦点検出)を実現することができる。また、光電変換部201a、201bの出力信号の和は、一般的には、出力画像の1画素(出力画素)を形成する。なお、このような撮像素子は公知であるため、詳細な説明は省略する。 In this embodiment, the sum of the output signal of one of the photoelectric conversion units 201a and 201b and the output signal of the two photoelectric conversion units 201a and 201b is read from each pixel 201 from the image sensor . For example, when the output signal of the photoelectric conversion unit 201a and the sum of the output signals of the photoelectric conversion units 201a and 201b are read out, the output signal of the photoelectric conversion unit 201b is obtained from the sum of the output signals of the photoelectric conversion units 201a and 201b. It can be obtained by subtracting the output of the conversion unit 201a. As a result, both the A image and the B image can be obtained, and distance measurement (focus detection) can be realized by the imaging plane phase difference detection method. Also, the sum of the output signals of the photoelectric conversion units 201a and 201b generally forms one pixel (output pixel) of the output image. In addition, since such an image sensor is well-known, detailed description is omitted.

次に、撮像面位相差検出方式による測距情報算出動作について説明する。以下の測距情報算出動作は、測距情報算出部112が主体となって実行される。 Next, a distance measurement information calculation operation based on the imaging plane phase difference detection method will be described. The following ranging information calculation operation is executed mainly by the ranging information calculation unit 112 .

まず、測距情報算出部112は、焦点検出位置を設定する。続いて測距情報算出部112は、設定された焦点検出位置から焦点検出用データを読み出す。測距情報算出部112で設定された焦点検出位置内の画素から読み出した信号を用いることで、測距情報算出部112は、A像およびB像のそれぞれの信号を生成する。続いて、測距情報算出部112は、A像とB像の相対的な像ずれ量を相関演算により求めることで、ビットずれ量P[bit]を取得する。 First, the distance measurement information calculation unit 112 sets the focus detection position. Subsequently, the distance measurement information calculation unit 112 reads focus detection data from the set focus detection position. By using signals read from pixels within the focus detection position set by the distance measurement information calculation unit 112, the distance measurement information calculation unit 112 generates respective signals of the A image and the B image. Subsequently, the distance measurement information calculation unit 112 acquires the bit shift amount P [bit] by calculating the relative image shift amount between the A image and the B image by correlation calculation.

ここで、図3を参照して、相関演算方法の一例を説明する。図3は、相関演算方法(ビットずれ量の算出方法)の説明図である。 Here, an example of the correlation calculation method will be described with reference to FIG. FIG. 3 is an explanatory diagram of the correlation calculation method (calculation method of bit deviation amount).

図3において、縦軸は信号値、ヨコ軸はビット(位置)をそれぞれ示す。撮像素子106の画素(焦点検出画素)からA像とB像の信号が読み出されたとする。カメラ信号処理部109は、まず、ノイズの低減のため、A像とB像のそれぞれに対してデジタルフィルタ処理を行う。図3(a)は、フィルタ処理後の波形を示す。 In FIG. 3, the vertical axis indicates signal values, and the horizontal axis indicates bits (positions). Assume that the signals of the A image and the B image are read from the pixels (focus detection pixels) of the image sensor 106 . The camera signal processing unit 109 first performs digital filter processing on each of the A image and the B image in order to reduce noise. FIG. 3(a) shows the waveform after filtering.

測距情報算出部112は、図3(a)~(d)に示されるように、A像信号とB像信号のいずれか、またはA像信号とB像信号の両方をビットシフトしながら、そのときの相関量CORを算出する。相関量CORは、A像とB像とを重ねたときの面積、A像の面積からB像の面積を減算した値、または、相関度を表す計算値などであるが、これらに限定されるものではない。以下、相関量CORが、A像とB像とを重ねたときの面積である場合について説明する。 As shown in FIGS. 3A to 3D, the ranging information calculator 112 bit-shifts either the A image signal or the B image signal or both the A image signal and the B image signal. A correlation amount COR at that time is calculated. The correlation amount COR is an area when the A image and the B image are overlapped, a value obtained by subtracting the area of the B image from the area of the A image, or a calculated value representing the degree of correlation, but is limited to these. not a thing A case where the correlation amount COR is the area when the A image and the B image are overlapped will be described below.

A像とB像とが一致した場合、A像とB像との重なりが大きくなるため、最も相関が高く、相関量CORは大きくなる。ここでは、相関量CORが最大値をとるときのシフト量[bit]がビットずれ量P[bit]となる。 When the A image and the B image match, the overlap between the A image and the B image increases, so the correlation is highest and the correlation amount COR increases. Here, the shift amount [bit] when the correlation amount COR takes the maximum value is the bit shift amount P [bit].

続いて、測距情報算出部112は、変換係数Kを取得する。変換係数Kをビットずれ量Pに乗じることでデフォーカス量DEFが求められる。 Subsequently, the ranging information calculator 112 acquires the conversion coefficient K. FIG. By multiplying the bit shift amount P by the conversion coefficient K, the defocus amount DEF is obtained.

ここで、図4を参照して、変換係数Kの算出について説明する。図4は、変換係数Kの算出の説明図である。図4において、Z軸は、撮像光学系の光軸方向を示し、Z=0は撮像素子106の面(撮像面)を示す。Zepは、射出瞳距離を示す。Z=Zep上のA像、B像の焦点検出光束の光量分布である瞳強度分布PI_A、瞳強度分布PI_Bは、光電変換部201a、201bのそれぞれから出力された信号(焦点検出用信号)を射出瞳面上に投影した投影像である。 Calculation of the conversion coefficient K will now be described with reference to FIG. FIG. 4 is an explanatory diagram of calculation of the conversion coefficient K. FIG. In FIG. 4, the Z axis indicates the optical axis direction of the imaging optical system, and Z=0 indicates the plane of the imaging element 106 (imaging plane). Zep indicates the exit pupil distance. The pupil intensity distribution PI_A and the pupil intensity distribution PI_B, which are the light amount distributions of the focus detection light beams of the A image and the B image on Z=Zep, are the signals (focus detection signals) output from the photoelectric conversion units 201a and 201b, respectively. It is a projection image projected onto the exit pupil plane.

図4中のPI_A、PI_Bは、一次元の瞳強度分布を示す。瞳強度分布PI_A、PI_Bの重心間隔を基線長BLとする。このとき、射出瞳距離Zepと基線長BLとの比で、A像とB像のビットずれ量P[bit]に対する光軸方向の変化量[mm]を求めることができる。 PI_A and PI_B in FIG. 4 denote one-dimensional pupil intensity distributions. Let the distance between the centers of gravity of the pupil intensity distributions PI_A and PI_B be the base line length BL. At this time, the change amount [mm] in the optical axis direction with respect to the bit shift amount P [bit] between the A image and the B image can be obtained from the ratio between the exit pupil distance Zep and the base length BL.

従って、変換係数Kは、以下の式(1)のように表すことができる。 Therefore, the transform coefficient K can be expressed as in Equation (1) below.

K=Zep/BL (1)
次に、測距情報算出部112は、以下の式(2)により、デフォーカス量DEF[mm]を算出する。
K=Zep/BL (1)
Next, the distance measurement information calculation unit 112 calculates the defocus amount DEF [mm] by the following formula (2).

DEF=P×K (2)
焦点検出位置で合焦させる場合、あおり/フォーカス駆動量算出部114は、デフォーカス量DEFに基づいて、以下の式(3)によりフォーカスレンズ102の駆動量M[lensmm]を算出する。そして制御部115は、フォーカス駆動部118を制御してフォーカスレンズ102を駆動する。
DEF=P×K (2)
When focusing at the focus detection position, the tilt/focus drive amount calculator 114 calculates the drive amount M [lensmm] of the focus lens 102 based on the defocus amount DEF using the following equation (3). The control unit 115 then controls the focus driving unit 118 to drive the focus lens 102 .

M=DEF×FS (3)
式(3)において、FSは、デフォーカス量DEF[mm]をレンズ駆動量M[lensmm]に変換するための敏感度である。
M=DEF×FS (3)
In Expression (3), FS is the sensitivity for converting the defocus amount DEF [mm] to the lens driving amount M [lensmm].

制御部115は、レンズ駆動量Mを設定し、フォーカス駆動部118は、設定されたレンズ駆動量Mに基づいてフォーカスレンズ102を光軸方向に駆動させる。これにより、焦点検出位置でピントの合った画像が得られる。 The control unit 115 sets the lens driving amount M, and the focus driving unit 118 drives the focus lens 102 in the optical axis direction based on the set lens driving amount M. FIG. As a result, an in-focus image is obtained at the focus detection position.

このように、測距情報算出部112は、撮像面位相差検出方式で得られた測距情報に基づいてデフォーカス量DEFを算出し、あおり/フォーカス駆動量算出部114は、デフォーカス量DEFに基づいてフォーカス駆動量を算出する。
(あおり制御の説明)
図5を参照して、あおり制御について説明する。図5は、あおり制御の説明図である。図5(a)は、光学系(撮像光学系)と撮像素子106とが平行である状態を示している。フォーカス距離Lにピントが合っており、ピント面は光学系および撮像素子106のそれぞれと平行である。
Thus, the distance measurement information calculation unit 112 calculates the defocus amount DEF based on the distance measurement information obtained by the imaging plane phase difference detection method, and the tilt/focus driving amount calculation unit 114 calculates the defocus amount DEF A focus drive amount is calculated based on.
(Description of tilt control)
The swing control will be described with reference to FIG. FIG. 5 is an explanatory diagram of tilt control. FIG. 5A shows a state in which the optical system (imaging optical system) and the imaging device 106 are parallel. The focal length L is in focus, and the focal plane is parallel to the optical system and the image sensor 106, respectively.

図5(b)は、図5(a)の状態から撮像素子106を撮像素子回転軸を中心に回転させ、あおり制御が行われた状態を示している。あおり制御が行われると、シャインプルーフの原理に基づいて、ピント面も撮像素子回転軸に対応したピント面回転軸を中心に回転する。このため、ある平面に関して近距離から遠距離まで全ての被写体にピントを合わせることが可能となる。シャインプルーフの原理は、光学系の主面と撮像素子106の撮像面とがある1つの直線で交わるとき、ピント面も同じ直線上で交わるという原理である。 FIG. 5B shows a state in which tilt control is performed by rotating the image sensor 106 around the image sensor rotation axis from the state of FIG. 5A. When the tilt control is performed, the focal plane also rotates about the focal plane rotation axis corresponding to the imaging element rotation axis based on the Scheimpflug principle. For this reason, it is possible to bring all objects in focus from short distances to long distances with respect to a certain plane. The Scheimpflug principle is that when the main plane of the optical system and the imaging plane of the imaging element 106 intersect on a straight line, the focal plane also intersects on the same straight line.

あおり角bは、焦点距離f、フォーカス距離L、および、俯角aを用いて、シャインプルーフの原理により、以下の式(4)で算出される。 The tilt angle b is calculated by the following equation (4) according to the Scheimpflug principle using the focal length f, the focal length L, and the depression angle a.

b=tan-1(f/(Ltan(a))) (4)
図5(c)は、複数の被写体として被写体Xおよび被写体Yが存在するシーンを示している。この場合、図5(c)に示されるように、被写体X、Yの顔にピントが合うようなピント面に制御することが望ましい。ここで、被写体とは、被写体の顔のような被写体の一部も含むものとする。このため、あおり制御のみではなく、フォーカス制御を行うことが必要である。また、被写体ごとに最適なピント面(すなわち、最適なあおり角および最適なフォーカス位置)は異なっており、ユーザが手動で調整するのは困難である。
b=tan −1 (f/(Ltan(a))) (4)
FIG. 5(c) shows a scene in which subject X and subject Y exist as a plurality of subjects. In this case, as shown in FIG. 5C, it is desirable to control the focus plane so that the faces of subjects X and Y are in focus. Here, the subject includes a part of the subject such as the subject's face. Therefore, it is necessary to perform not only tilt control but also focus control. Also, the optimum focus plane (that is, the optimum tilt angle and the optimum focus position) differs for each subject, and it is difficult for the user to manually adjust it.

そこで、図6を参照して、被写体に応じて最適なあおり角および最適なフォーカス位置を算出する一例を説明する。 Therefore, with reference to FIG. 6, an example of calculating the optimum tilt angle and the optimum focus position according to the subject will be described.

図6は、あおり制御およびフォーカス制御の説明図である。対象とする被写体として、図5(c)と同様に、被写体Xおよび被写体Yが存在する。 FIG. 6 is an explanatory diagram of tilt control and focus control. Subjects X and Y exist as subjects of interest, as in FIG. 5(c).

現在のあおり角とフォーカスレンズ102の位置が図6の上部の位置関係になっている。xは被写体Xに対してピントを合わせるために必要な、撮像光学系のピント面からの補正量、yは被写体Yに対してピントを合わせるために必要な、撮像光学系のピント面からの補正量である。 The current tilt angle and the position of the focus lens 102 have the positional relationship shown in the upper part of FIG. x is the amount of correction from the focal plane of the imaging optical system required to bring the subject X into focus, and y is the correction from the focal plane of the imaging optical system required to bring the subject Y into focus. quantity.

また、撮像素子106上でのあおり軸から被写体までの距離(像高)を、被写体Xに対してk1[um]、被写体Yに対してk2[um]とする。 Also, let the distance (image height) from the tilt axis to the subject on the imaging element 106 be k1 [um] for subject X and k2 [um] for subject Y. FIG.

ここで、被写体X、Yに同時に合焦させるためのあおり角をα[°]とし、フォーカスレンズ102の移動によるピント面上でのフォーカス補正量(フォーカス位置)をβとすると、以下の式(5)、(6)が成立する。 Here, let α be the tilt angle for focusing on the objects X and Y at the same time, and β be the focus correction amount (focus position) on the focus plane due to the movement of the focus lens 102. Then, the following equation ( 5) and (6) are established.

x-β=k1×tan(α)+β (5)
y=k2×tan(α)-β (6)
式(5)、(6)の連立方程式を解くと、あおり角αおよびフォーカス補正量βはそれぞれ、以下の式(7)、(8)のように表される。
x−β=k1×tan(α)+β (5)
y=k2×tan(α)−β (6)
Solving the simultaneous equations of Equations (5) and (6), the tilt angle α and the focus correction amount β are expressed by Equations (7) and (8) below, respectively.

α=tan-1((x+y)/(k1+k2)) (7)
β=(k2×x-k1×y)/(k1+k2) (8)
フォーカスレンズ102の駆動量は、簡易的には、フォーカス補正量βをフォーカスレンズ102の敏感度FSで除算することで算出できる。
α=tan −1 ((x+y)/(k1+k2)) (7)
β=(k2×x−k1×y)/(k1+k2) (8)
The drive amount of the focus lens 102 can be calculated simply by dividing the focus correction amount β by the sensitivity FS of the focus lens 102 .

一方、フォーカスレンズ102の駆動量を正確に算出するには、敏感度FSに応じた高次方程式や多項式を解くことで可能となる。ただし本実施形態は、これに限定されるものではなく、他の方法で算出してもよい。 On the other hand, the driving amount of the focus lens 102 can be accurately calculated by solving a higher-order equation or polynomial according to the sensitivity FS. However, this embodiment is not limited to this, and may be calculated by other methods.

このように、撮像素子106上でのあおり軸から被写体までの距離を正確に算出しなければ、フォーカス位置とあおり角の補正を行っても、被写体のピントが甘くなってしまう。
[第1の実施形態]
次に、図7を参照して、第1の実施形態におけるあおり/フォーカス位置制御の方法について説明する。
As described above, unless the distance from the tilt axis on the image pickup device 106 to the subject is accurately calculated, the focus of the subject is poor even if the focus position and tilt angle are corrected.
[First embodiment]
Next, a method of tilt/focus position control in the first embodiment will be described with reference to FIG.

図7は、本実施形態におけるあおり/フォーカス位置制御処理のフローチャートである。本実施形態の処理は、制御部115により、コンピュータプログラムとしての処理プログラムに従って実行される。なお処理プログラムは、例えば、コンピュータに読み取り可能な記憶媒体(メモリ120等)に記憶されている。 FIG. 7 is a flowchart of tilt/focus position control processing in this embodiment. The processing of this embodiment is executed by the control unit 115 according to a processing program as a computer program. Note that the processing program is stored in, for example, a computer-readable storage medium (memory 120 or the like).

ステップS701において、通信部110は、制御部115にあおり制御開始命令を送る。 In step S<b>701 , communication section 110 sends a tilt control start command to control section 115 .

ステップS702において、被写体検出部113は、撮像装置100が撮像する画像内で被写体を検出する。被写体検出は人体検出でも良いし、物体検出でも良い。 In step S<b>702 , the subject detection unit 113 detects a subject within the image captured by the imaging device 100 . Subject detection may be human body detection or object detection.

ステップS703において、制御部115は、被写体数をカウントし、被写体数が3つ以上かを判断する。 In step S703, the control unit 115 counts the number of subjects and determines whether the number of subjects is three or more.

被写体数が3つ以上の場合は、ステップS704に進む。ステップS704において、制御部115は、被写体検出部113で検出された被写体の検出位置(像高)と検出サイズ(大きさ)を取得する。ここで、検出位置(像高)は、センサの回転軸から被写体までの距離である。また、検出サイズ(大きさ)は、人体認識や顔認識によって判定する。 If the number of subjects is three or more, the process proceeds to step S704. In step S<b>704 , the control unit 115 acquires the detection position (image height) and detection size (size) of the subject detected by the subject detection unit 113 . Here, the detection position (image height) is the distance from the rotational axis of the sensor to the subject. Also, the detection size (size) is determined by human body recognition or face recognition.

ステップS705において、測距情報算出部112は、ステップS702において検出された各被写体に対して、各被写体の検出位置での測距結果としてデフォーカス量(距離)を測定する。具体的には、各被写体に枠を合わせて、デフォーカス量(距離)を測定する。なお、ここでの枠はAF枠とするが、これに限らない。このデフォーカス量の測定には、位相差方式を使用しても良いし、コントラスト方式を使用しても良い。ステップS705においてデフォーカス量を測定するが、位相差方式での測距の場合には現在のピント位置から被写体までの距離が遠くなるほど測距精度は低下するという特徴がある。また、被写体の画像中心からの距離が遠い場合、レンズのシェーディングなどの影響を受けて測距精度が低下する。そのため、安易に画像中心からの距離が遠い被写体(または、被写体枠)を測距の枠として選ぶと、この後のフォーカス位置とあおり角の補正精度が低くなり、結果としてピントの甘い画になる場合がある。コントラスト方式においても、合焦したフォーカス位置から被写体距離を算出するのでメカ誤差(ガタ)・停止精度誤差が乗り、被写体距離の算出に誤差が生じる。そのため、2つの被写体(または、2枠)の距離が近いと誤差の割合が大きくなり、フォーカス位置とあおり角の補正精度が低くなり、結果としてピントの甘い画になる場合がある。 In step S705, the distance measurement information calculation unit 112 measures the defocus amount (distance) as the distance measurement result at the detection position of each subject detected in step S702. Specifically, a defocus amount (distance) is measured by aligning a frame with each subject. Although the frame here is an AF frame, it is not limited to this. A phase difference method or a contrast method may be used to measure the defocus amount. The defocus amount is measured in step S705. In the case of distance measurement by the phase difference method, the distance measurement accuracy decreases as the distance from the current focus position to the subject increases. In addition, when the object is far from the center of the image, the accuracy of distance measurement deteriorates due to the influence of lens shading and the like. Therefore, if a subject (or subject frame) that is far from the center of the image is selected as the range-finding frame, the focus position and tilt angle correction accuracy will be low, resulting in a poorly focused image. Sometimes. In the contrast method as well, since the object distance is calculated from the focused focus position, mechanical errors (backlash) and stopping accuracy errors are involved, resulting in errors in the calculation of the object distance. Therefore, when the two subjects (or two frames) are close to each other, the error rate increases, and the accuracy of correcting the focus position and the tilt angle decreases, resulting in an image that is poorly focused.

例えば、図8は被写体が3つある場合のシチュエーションの図である。そして図9は、図8のシチュエーションを撮像面位相差方式で測距した場合の撮像面上のピント位置を表した図である。被写体Zは像高が高く(センサの回転軸からの距離が長く)、センサからも遠い位置にピント面がある。そのため、位相差方式で測距したデフォーカス量が上述した影響により、実際の距離と大きく異なる場合がある。この場合、被写体Zのデフォーカス量を使用してフォーカス位置とあおり角の補正を行うとピント面が甘い画になる。上記の理由により、あおり/フォーカス位置制御を精度良く実施するためには、あおり角およびフォーカス位置の算出に使用する被写体を適切に選択する必要がある。 For example, FIG. 8 is a diagram of a situation when there are three subjects. FIG. 9 is a diagram showing the focus position on the imaging surface when the situation in FIG. 8 is measured by the imaging surface phase difference method. The subject Z has a high image height (a long distance from the rotation axis of the sensor) and has a focal plane at a position far from the sensor. Therefore, the defocus amount measured by the phase difference method may differ greatly from the actual distance due to the influence described above. In this case, if the defocus amount of the object Z is used to correct the focus position and the tilt angle, the focused plane becomes a soft image. For the above reasons, in order to perform tilt/focus position control with high accuracy, it is necessary to appropriately select the subject used for calculating the tilt angle and focus position.

ステップS706において、制御部115は、被写体の検出サイズ、検出位置(像高)、デフォーカス量の精度(測距精度)から被写体毎(被写体の枠毎)に信頼度(適合度)を算出(判定)する。信頼度の算出については、図10のようなテーブルを参照してもよい。図10は一例であり、テーブルの作成方法に関してはその要旨の範囲内で種々の変形及び変更が可能である。図10では、被写体の検出サイズ、検出位置、デフォーカス量の精度のすべてを考慮し、信頼度を算出(決定)している。制御部115は、信頼度を、被写体の検出サイズ、検出位置、およびデフォーカス量の精度の少なくとも一つを用いて算出してもよい。信頼度を算出する要素や重みづけは、デフォーカス量を算出した測距方式や撮影環境に応じて変更させてもよい。 In step S706, the control unit 115 calculates the reliability (applicability) for each subject (for each frame of the subject) from the detected size of the subject, the detected position (image height), and the precision of the defocus amount (distance measurement precision). judge. For calculation of reliability, a table such as that shown in FIG. 10 may be referred to. FIG. 10 is an example, and various modifications and changes are possible within the scope of the gist of the method of creating the table. In FIG. 10, the reliability is calculated (determined) in consideration of all of the detection size of the subject, the detection position, and the accuracy of the defocus amount. The control unit 115 may calculate the reliability using at least one of the detection size of the object, the detection position, and the precision of the defocus amount. The elements and weights for calculating the reliability may be changed according to the distance measurement method used to calculate the defocus amount and the shooting environment.

図10は、各要素である検出サイズTa、検出位置Tb、デフォーカス量の精度Tcを0~1で評価した場合を示している。信頼度は、式(9)で表される。 FIG. 10 shows a case where the detection size Ta, the detection position Tb, and the precision Tc of the defocus amount, which are the respective elements, are evaluated from 0 to 1. In FIG. The reliability is represented by Equation (9).

T=Ta×Tb×Tc (9)
信頼度の算出式はあくまでも一例であり、各要素に対する重みづけ(比重)を、デフォーカス量を算出した測距方式や撮影環境に応じて変更させてもよいし、各要素を加算してもよい。信頼度の算出方法に関しては、その要旨の範囲内で種々の変形及び変更が可能である。これを、被写体ごとに行い、被写体ごとの信頼度を算出する。なお、図10の場合には、信頼度が高いX,Yが選択される。また、図10では、画像中心からの距離が、XよりYの方が近いため、Yの測距精度がXの測距精度より高くなっている。
T=Ta×Tb×Tc (9)
The reliability calculation formula is only an example, and the weighting (specific gravity) for each element may be changed according to the distance measurement method used to calculate the defocus amount and the shooting environment, or each element may be added. good. Various modifications and changes are possible within the scope of the gist of the reliability calculation method. This is performed for each subject to calculate the reliability for each subject. In the case of FIG. 10, X and Y with high reliability are selected. Also, in FIG. 10, since Y is closer to the center of the image than X, the Y ranging accuracy is higher than the X ranging accuracy.

ステップS707において、制御部115は、信頼度の高い上位2つの被写体(または、被写体枠)を選択する。上述の被写体選択の際に、2つの被写体の像高差を考慮に入れてもよい。 In step S707, the control unit 115 selects two subjects (or subject frames) with high reliability. The image height difference between the two objects may be taken into consideration when selecting the object as described above.

ステップS708において、選択した2つの被写体(または、被写体枠)に対する測距結果としてのデフォーカス量DEF1、DEF2から、あおり/フォーカス駆動量算出部114はフォーカス駆動量d、あおり角駆動量θを算出する。 In step S708, the tilt/focus drive amount calculation unit 114 calculates the focus drive amount d and the tilt angle drive amount θ from the defocus amounts DEF1 and DEF2 as the distance measurement results for the two selected subjects (or subject frames). do.

ステップS709において、ステップS708であおり/フォーカス駆動量算出部114が算出した駆動量に応じて、制御部115は、フォーカス駆動部118、撮像素子駆動部116を駆動させる。 In step S709, the control unit 115 drives the focus driving unit 118 and the image sensor driving unit 116 according to the driving amount calculated by the tilt/focus driving amount calculation unit 114 in step S708.

ステップS703において、被写体数が3つ以上でなければ、ステップS710に進む。 In step S703, if the number of subjects is not three or more, the process proceeds to step S710.

ステップS710において、制御部115は、被写体数が2つかどうかを判別する。被写体数が2つの場合は、ステップS708に進む。被写体数が1つの場合は、ステップS711に進む。 In step S710, the control unit 115 determines whether the number of subjects is two. If the number of subjects is two, the process proceeds to step S708. If the number of subjects is one, the process proceeds to step S711.

ステップS711において、測距情報算出部112は、被写体までのデフォーカス量を測定する。 In step S711, the distance measurement information calculation unit 112 measures the defocus amount up to the subject.

ステップS712において、ステップS711において測定されたデフォーカス量に応じて、制御部115は、フォーカス駆動部118を駆動させる。 In step S712, the control unit 115 drives the focus driving unit 118 according to the defocus amount measured in step S711.

被写体が1つの場合は、撮像素子駆動部116は駆動させず、フォーカス駆動部118のみを駆動させる。 When there is one subject, the image pickup device driving section 116 is not driven, and only the focus driving section 118 is driven.

ステップS713において、制御部115は、本制御処理を終了する。 In step S713, the control unit 115 terminates this control process.

本実施形態によれば、信頼度に応じて、あおり/フォーカス位置制御を実施するための2つの被写体(または、2枠)を選択することで、あおり/フォーカス位置制御に適した被写体(または、被写体枠)の選択が可能になる。よって、あおり角、フォーカス位置の算出を高精度に行うことが可能となる。
[第2の実施形態]
第1の実施形態では、信頼度に基づいた選択でのあおり/フォーカス位置制御の方法を実施する例について説明した。
According to the present embodiment, by selecting two subjects (or two frames) for performing tilt/focus position control according to the reliability, subjects suitable for tilt/focus position control (or subject frame) can be selected. Therefore, it is possible to calculate the tilt angle and the focus position with high accuracy.
[Second embodiment]
In the first embodiment, an example of implementing the tilt/focus position control method with selection based on reliability has been described.

以下では、図11に示すフローチャートを参照して、本発明の第2の実施形態によるあおり/フォーカス位置制御処理を説明する。本実施形態では、あおり/フォーカス位置制御中に新たな被写体が認識された場合や画像内の被写体が動いた場合の制御方法を説明する。なお、第1の実施形態と同様の構成については、詳細な説明を省略する。 Below, tilt/focus position control processing according to the second embodiment of the present invention will be described with reference to the flowchart shown in FIG. In this embodiment, a control method when a new subject is recognized during tilt/focus position control or when a subject within an image moves will be described. A detailed description of the same configuration as in the first embodiment will be omitted.

第1の実施形態と異なるのは、ステップS1113、ステップS1114の一連の処理である。 What differs from the first embodiment is a series of processes in steps S1113 and S1114.

ステップS1113において、制御部115は、被写体検出部113が新たな被写体を画像内で検出していないか、または被写体が最初の検出時から動いていないかどうかを判定する。 In step S1113, the control unit 115 determines whether the subject detection unit 113 has detected a new subject in the image, or whether the subject has not moved since the first detection.

新たな被写体を検出していない場合、または被写体が最初の検出時から動いていない場合はステップS1115に進み、本制御処理を終了する。新たな被写体を検出した場合、または被写体が最初の検出時から動いた場合は、ステップS1114に進む。 If a new subject has not been detected, or if the subject has not moved since it was first detected, the process advances to step S1115 to end this control process. If a new subject is detected, or if the subject has moved since it was first detected, the process proceeds to step S1114.

ステップS1114において、制御部115は、測距方式がコントラスト方式かどうか判別する。 In step S1114, the control unit 115 determines whether the distance measurement method is the contrast method.

測距方式がコントラスト方式の場合、測距を行うために、フォーカスレンズ102を駆動させなければならず、品位に欠ける。そのため、再測距は行わず、ステップS1115に進む。測距方式が像面位相差方式の場合、測距のためにフォーカスレンズ102を駆動させずに済むため、ステップS1103に戻る。つまり、制御部115は、測距方式に応じて、信頼度を再算出(再判定)するか否かを判断する。 If the distance measurement method is the contrast method, the focus lens 102 must be driven in order to perform distance measurement, resulting in poor quality. Therefore, the distance measurement is not performed again, and the process proceeds to step S1115. If the distance measurement method is the image plane phase difference method, it is not necessary to drive the focus lens 102 for distance measurement, so the process returns to step S1103. That is, the control unit 115 determines whether or not to recalculate (redetermine) the reliability according to the distance measurement method.

本実施形態では、あおり/フォーカス位置制御中に新たな被写体が画像内で検出されたり、画像内の被写体が動いた場合に、該被写体の信頼度が高い場合、最初に算出したあおり角、フォーカス位置より、高精度にあおり/フォーカス位置制御を行える。
[第3の実施形態]
第1の実施形態では、信頼度に基づいた選択でのあおり/フォーカス位置制御の方法を実施する例について説明した。
In this embodiment, when a new subject is detected in an image during tilt/focus position control, or when the subject moves within an image, if the reliability of the subject is high, the first calculated tilt angle, focus It is possible to perform tilt/focus position control with high accuracy based on the position.
[Third embodiment]
In the first embodiment, an example of implementing the tilt/focus position control method with selection based on reliability has been described.

しかし、実環境において、被写体検出されたものが全てあおりピント面上にいるとは限らない。例えば、図12は、道路を歩く被写体A~D、ビルの看板などの人物のポスターである被写体Eがあるシチュエーションを示した図である。また、図13は、図12のシチュエーションを撮像面位相差方式で測距した場合の撮像面上のピント位置を表した図である。このように、被写体Eと他の被写体A~Dを同じピント面上にすることは不可能である。その場合、被写体Eを除外した被写体A~Dを用いて、あおり/フォーカス位置制御を行わなければならない。 However, in a real environment, not all objects detected as subjects are on the tilted focus plane. For example, FIG. 12 is a diagram showing a situation in which there are subjects A to D walking on the road, and subject E, which is a poster of a person such as a billboard on a building. FIG. 13 is a diagram showing the focal position on the imaging surface when the situation in FIG. 12 is measured by the imaging surface phase difference method. In this way, it is impossible to place subject E and other subjects A to D on the same focal plane. In that case, the subjects A to D excluding the subject E must be used to perform tilt/focus position control.

以下、図14に示すフローチャートを参照して、本発明の第3の実施形態によるあおり/フォーカス位置制御処理を説明する。本実施形態では、被写体検出においてピント面が明らかに合わない(ピント面上に明らかに乗らない)被写体が検出された場合のあおり/フォーカス位置制御方法を説明する。なお、第1の実施形態と同様の構成については、詳細な説明を省略する。 Hereinafter, tilt/focus position control processing according to the third embodiment of the present invention will be described with reference to the flowchart shown in FIG. In the present embodiment, a tilt/focus position control method when a subject that is clearly out of focus (clearly not on the focus plane) is detected in subject detection will be described. A detailed description of the same configuration as in the first embodiment will be omitted.

第1の実施形態と異なるのは、ステップS1406の処理である。 The difference from the first embodiment is the processing of step S1406.

ステップS1406において、制御部115は、被写体検出部113により検出された被写体の検出位置と測距情報算出部112による被写体の測距結果とに基づく被写体の相関を判断する。これにより、被写体検出でピント面が明らかに合わない(ピント面上でない)被写体を検出する。このような被写体の検出についてはスミルノフグラブス検定など一般的なものを使用する。スミルノフグラブス検定において、外れ値に該当する被写体を除外する。 In step S<b>1406 , the control unit 115 determines the subject correlation based on the subject detection position detected by the subject detection unit 113 and the distance measurement result of the subject by the distance measurement information calculation unit 112 . As a result, a subject that is clearly out of focus (not on the focus plane) in subject detection is detected. A general method such as the Smirnoff-Grubbs test is used for detecting such an object. In the Smirnoff-Grubbs test, outliers are excluded.

また、相関係数が閾値以上になるように外れ値を検出しても良い。 Also, an outlier may be detected such that the correlation coefficient is greater than or equal to a threshold.

制御部115は、外れ値に該当する被写体Eを除外して、ステップ1407において信頼度を算出する。 The control unit 115 excludes the subject E corresponding to the outlier and calculates the reliability in step 1407 .

本実施形態によれば、検出された被写体の中に、あおり/フォーカス位置制御を実施しても同一ピント面上にならない被写体があった場合、相関を利用し、該被写体を除外する。同一ピント面上にならない被写体を除外することにより、高精度なあおり/フォーカス位置制御が可能となる。
[第4の実施形態]
第1の実施形態では、信頼度に基づいた選択でのあおり/フォーカス位置制御の方法を実施する例について説明した。
According to this embodiment, if there is a subject among the detected subjects that is not on the same focal plane even if tilt/focus position control is performed, the subject is excluded using correlation. By excluding subjects that are not on the same focal plane, high-precision tilt/focus position control becomes possible.
[Fourth embodiment]
In the first embodiment, an example of implementing the tilt/focus position control method with selection based on reliability has been described.

しかし、被写体(または、被写体枠)の選択時に信頼度が低い被写体しかなく、選択した被写体の測距が実際の被写体距離と違うと、その被写体で算出したあおり角では、被写体から大きくピントを外す可能性がある。 However, when selecting a subject (or subject frame), if there are only subjects with low reliability, and the distance measurement for the selected subject is different from the actual subject distance, the tilt angle calculated for that subject will greatly defocus the subject. there is a possibility.

上記のように信頼度が低い被写体しかない場合、複数被写体(または、被写体枠)の情報の平均を取り、平均の像高と被写体距離を持った仮想枠を設定する。その仮想枠を用いてあおり角を算出することで、被写体から大きくピントを外すことを回避する。 When there are only subjects with low reliability as described above, the information of a plurality of subjects (or subject frames) is averaged, and a virtual frame having an average image height and subject distance is set. By calculating the tilt angle using the virtual frame, it is possible to prevent the subject from being largely out of focus.

以下、図15に示すフローチャートを参照して、本発明の第4の実施形態によるあおり/フォーカス位置制御処理を説明する。本実施形態では、信頼度が低い被写体(または、被写体枠)しかない場合のあおり/フォーカス位置制御方法を説明する。なお、第1の実施形態と同様の構成については、詳細な説明を省略する。 Hereinafter, tilt/focus position control processing according to the fourth embodiment of the present invention will be described with reference to the flowchart shown in FIG. In this embodiment, a tilt/focus position control method when there are only subjects (or subject frames) with low reliability will be described. A detailed description of the same configuration as in the first embodiment will be omitted.

第1の実施形態と異なるのは、ステップS1507、ステップS1508の一連の処理である。 What differs from the first embodiment is a series of processes in steps S1507 and S1508.

ステップS1507において、制御部115は、ステップS1506で算出した信頼度が閾値以下か判別する。 In step S1507, the control unit 115 determines whether the reliability calculated in step S1506 is equal to or less than the threshold.

これにより信頼度が高い場合でも低い場合でも、被写体から大きくピントを外すことを回避する。 As a result, regardless of whether the reliability is high or low, it is possible to avoid greatly defocusing the subject.

信頼度が閾値より低い場合、ステップS1508に進み、高い場合はステップS1509に進む。 If the reliability is lower than the threshold, the process proceeds to step S1508; otherwise, the process proceeds to step S1509.

ステップS1508では、制御部115は、複数被写体(または、被写体枠)の情報から仮想枠を作成し、選択する。仮想枠は、複数被写体の像高と被写体距離について平均して算出する。 In step S1508, the control unit 115 creates and selects a virtual frame from information on multiple subjects (or subject frames). The virtual frame is calculated by averaging image heights and subject distances of multiple subjects.

例えば、図16は被写体が4つある場合のシチュエーションの図である。そして図17は、図16のシチュエーションを撮像面位相差方式で測距した場合の撮像面上のピント位置を表した図である。 For example, FIG. 16 is a diagram of a situation when there are four subjects. FIG. 17 is a diagram showing the focus position on the imaging surface when the situation in FIG. 16 is measured by the imaging surface phase difference method.

図18では、被写体の検出サイズ、検出位置、デフォーカス量の精度のすべてを考慮して、信頼度を算出(決定)している。 In FIG. 18, the reliability is calculated (determined) in consideration of all of the detection size of the object, the detection position, and the precision of the defocus amount.

図16の被写体A~Dの信頼度は低いため、被写体Aと被写体Bを平均した仮想枠X、被写体Cと被写体Dを平均した仮想枠Yを作成する。 Since the reliability of subjects A to D in FIG. 16 is low, a virtual frame X obtained by averaging subjects A and B and a virtual frame Y obtained by averaging subjects C and D are created.

仮想枠Xの像高、被写体距離情報と仮想枠Yの像高、被写体距離情報からあおり角を算出することにより、被写体から大きくピントを外すことを回避する。 By calculating the tilt angle from the image height of the virtual frame X, object distance information, image height of the virtual frame Y, and object distance information, it is possible to prevent the object from being largely out of focus.

本実施例では、仮想枠の像高、被写体距離について、被写体(実枠)の情報を平均したが、信頼度の高さに応じて重みづけを行って算出しても良い。また、仮想枠の作成にあたり、被写体(実枠)を選択する場合、あおり角の回転軸の上下で分けて選択を行っても良い。回転軸の上下で分かれた被写体(被写体枠)を選択すると、仮想枠の像高が低くなり、誤差が大きくなって、ピント面算出精度が落ちる可能性がある。上記のように、回転軸の上下で分けることにより、仮想枠の像高を保つことができ、あおり角の精度低下を抑制することが可能となる。 In the present embodiment, information on the subject (real frame) is averaged for the image height of the virtual frame and the subject distance, but they may be calculated by weighting according to the degree of reliability. Also, when selecting a subject (real frame) in creating a virtual frame, the selection may be made separately for the upper and lower sides of the rotation axis of the tilt angle. If a subject (subject frame) divided above and below the rotation axis is selected, the image height of the virtual frame will be low, the error will increase, and there is a possibility that the focus plane calculation accuracy will decrease. As described above, by separating the upper and lower sides of the rotation axis, the image height of the virtual frame can be maintained, and a decrease in the accuracy of the tilt angle can be suppressed.

本実施形態によれば、信頼度が低い被写体(被写体枠)しかない場合、複数被写体(被写体枠)の情報の平均を取り、平均の像高と被写体距離を持った仮想枠を設定する。その仮想枠であおり角を算出することで、被写体から大きくピントを外すことを回避することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
According to this embodiment, when there is only a subject (subject frame) with a low reliability, the information of a plurality of subjects (subject frames) is averaged, and a virtual frame having an average image height and subject distance is set. By calculating the tilt angle using the virtual frame, it is possible to avoid the subject from being largely out of focus.
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

各実施形態によれば、撮影手段のブレを高精度に評価することが可能なブレ評価装置、ブレ評価方法、およびプログラムを提供することができる。また各実施形態によれば、高精度にブレ補正が可能な撮影手段の製造方法を提供することができる。 According to each embodiment, it is possible to provide a blur evaluation device, a blur evaluation method, and a program capable of highly accurately evaluating the blur of a photographing means. Further, according to each embodiment, it is possible to provide a method for manufacturing an imaging means capable of highly accurate blur correction.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist.

116 あおり駆動部
118 フォーカス駆動部
113 被写体検出部
112 測距部
114 決定部
115 制御部
116 tilt drive unit 118 focus drive unit 113 subject detection unit 112 distance measurement unit 114 determination unit 115 control unit

Claims (17)

撮像素子を傾けて、前記撮像素子の撮像面と撮像光学系の光軸と直交する直交面との間の角度であるあおり角を変更するあおり駆動部と、
前記撮像光学系のフォーカスレンズを駆動して、フォーカス位置を変更するフォーカス駆動部と、
撮像装置によって撮像された画像内で被写体を検出する被写体検出部と、
前記被写体検出部により検出された前記被写体までの測距を行う測距部と、
前記測距部による測距結果に基づいて、前記あおり角および前記フォーカス位置を決定する決定部と、
前記決定部により決定された前記あおり角および前記フォーカス位置に基づいて、前記あおり駆動部および前記フォーカス駆動部を制御する制御部と、を有し、
前記制御部は、前記被写体検出部により検出された前記被写体の検出サイズ、前記撮像素子の回転軸に対応する位置から前記被写体までの距離である検出位置、および前記測距部により測距された前記被写体の前記測距結果の精度により判定される信頼度に基づいて、前記被写体検出部により検出された複数の前記被写体から、前記あおり角および前記フォーカス位置を決定するために用いる被写体を選択し、
前記決定部は、選択された前記被写体の測距結果に基づいて、前記あおり角および前記フォーカス位置を決定し、
前記信頼度は、前記撮像素子の回転軸に対応する位置から前記被写体までの距離が長いほど高いことを特徴とする撮像装置。
a tilt driving unit that tilts an imaging device to change a tilting angle that is an angle between an imaging surface of the imaging device and an orthogonal plane perpendicular to an optical axis of an imaging optical system;
a focus driving unit that drives the focus lens of the imaging optical system to change the focus position;
a subject detection unit that detects a subject in an image captured by the imaging device;
a distance measuring unit that measures the distance to the subject detected by the subject detecting unit;
a determination unit that determines the tilt angle and the focus position based on the result of distance measurement by the distance measurement unit;
a control unit that controls the tilt driving unit and the focus driving unit based on the tilt angle and the focus position determined by the determining unit;
The control unit controls the detection size of the subject detected by the subject detection unit, the detection position that is the distance from the position corresponding to the rotation axis of the imaging device to the subject , and the distance measured by the distance measurement unit. Selecting a subject to be used for determining the tilt angle and the focus position from the plurality of subjects detected by the subject detection unit based on the reliability determined by the accuracy of the distance measurement result of the subject. death,
The determination unit determines the tilt angle and the focus position based on the distance measurement result of the selected subject ,
The imaging apparatus , wherein the reliability increases as the distance from the position corresponding to the rotation axis of the imaging element to the subject increases .
前記制御部は、前記複数の被写体の中から前記信頼度の高い上位2つの被写体を選択することを特徴とする請求項に記載の撮像装置。 2. The imaging apparatus according to claim 1 , wherein the control unit selects two subjects with the highest reliability from among the plurality of subjects. 前記制御部は、前記被写体検出部により検出された前記被写体の検出サイズ、検出位置、および前記測距部により測距された前記被写体の前記測距結果の精度の比重を測距方式に応じて変更することを特徴とする請求項1または2に記載の撮像装置。 The control unit adjusts the specific gravity of the detection size and detection position of the subject detected by the subject detection unit, and the precision of the distance measurement result of the subject measured by the distance measurement unit, according to the distance measurement method. 3. The image pickup apparatus according to claim 1 , wherein the image pickup apparatus is changed. 前記制御部は、
前記被写体検出部により検出された前記被写体の検出位置と前記測距部による前記被写体の測距結果とに基づく前記被写体の相関を判断し、
前記相関に基づいて、前記被写体検出部により検出された前記複数の被写体から、除外する被写体を決定することを特徴とする請求項1からのいずれか一項に記載の撮像装置。
The control unit
determining the correlation of the subject based on the detection position of the subject detected by the subject detection unit and the distance measurement result of the subject by the distance measurement unit;
4. The imaging apparatus according to any one of claims 1 to 3 , wherein a subject to be excluded from the plurality of subjects detected by the subject detection unit is determined based on the correlation.
前記除外する被写体の決定には、スミルノフグラブス検定を用いることを特徴とする請求項に記載の撮像装置。 5. The imaging apparatus according to claim 4 , wherein the Smirnoff-Grubbs test is used to determine the subject to be excluded. 前記制御部は、前記フォーカス位置と前記あおり角を算出した後に、
前記撮像装置が撮像する画像内において新たな被写体が検出された場合、または前記画像内の被写体が動いたと判断した場合、
測距方式に応じて、前記信頼度を再判定するか否かを判断することを特徴とする請求項またはに記載の撮像装置。
After calculating the focus position and the tilt angle, the control unit
When a new subject is detected in the image captured by the imaging device, or when it is determined that the subject in the image has moved,
3. The imaging apparatus according to claim 1 , wherein whether or not to re-determine the reliability is determined according to a distance measurement method.
前記測距方式は、位相差方式およびコントラスト方式を含むことを特徴とする請求項に記載の撮像装置。 7. The image pickup apparatus according to claim 6 , wherein the ranging method includes a phase difference method and a contrast method. 前記制御部は、前記測距方式が位相差方式である場合に、前記信頼度を再判定させることを特徴とする請求項に記載の撮像装置。 8. The imaging apparatus according to claim 7 , wherein the control unit re-determines the reliability when the distance measurement method is a phase difference method. 前記制御部は、前記撮像装置によって撮像される画像内の被写体の数が3つ以上の場合に、前記被写体検出部により検出された前記被写体の検出サイズ、検出位置、および前記測距部により測距された前記被写体の前記測距結果の精度の少なくとも一つに基づいて、前記複数の被写体から前記あおり角および前記フォーカス位置を決定するために用いる被写体を選択することを特徴とする請求項1からのいずれか一項に記載の撮像装置。 When the number of subjects in the image captured by the imaging device is three or more, the control section controls the detection size and detection position of the subject detected by the subject detection section, and the distance measurement section. 2. A subject used for determining said tilt angle and said focus position is selected from said plurality of subjects based on at least one accuracy of said distance measurement result of said subject distanced. 9. The imaging device according to any one of 8 to 8 . 前記制御部は、前記撮像装置によって撮像される画像内における被写体毎に前記信頼度を決定することを特徴とする請求項またはに記載の撮像装置。 3. The imaging apparatus according to claim 1 , wherein the control unit determines the reliability for each subject in an image captured by the imaging apparatus. 前記測距結果はデフォーカス量であることを特徴とする請求項1から1のいずれか一項に記載の撮像装置。 The imaging apparatus according to any one of claims 1 to 10, wherein the distance measurement result is a defocus amount. 前記制御部は、前記被写体検出部によって検出された前記複数の被写体毎に枠を合わせ、該枠から、前記あおり角および前記フォーカス位置を決定するために用いる被写体枠を選択することを特徴とする請求項1から1のいずれか一項に記載の撮像装置。 The control unit is characterized in that a frame is aligned for each of the plurality of subjects detected by the subject detection unit, and a subject frame used for determining the tilt angle and the focus position is selected from the frame. The imaging device according to any one of claims 1 to 11 . 撮像素子を傾けて、前記撮像素子の撮像面と撮像光学系の光軸と直交する直交面との間の角度であるあおり角を変更するあおり駆動部と、前記撮像光学系のフォーカスレンズを駆動して、フォーカス位置を変更するフォーカス駆動部と、を備える撮像装置の制御方法であって、
前記撮像装置によって撮像された画像内で被写体を検出する被写体検出ステップと、
前記被写体検出ステップにより検出された前記被写体までの測距を行う測距ステップと、
前記被写体検出ステップにより検出された前記被写体の検出サイズ、前記撮像素子の回転軸に対応する位置から前記被写体までの距離である検出位置、および前記測距ステップにより測距された前記被写体の測距結果の精度により判定される信頼度に基づいて、前記被写体検出ステップにより検出された複数の前記被写体から、前記あおり角および前記フォーカス位置を決定するために用いる被写体を選択する選択ステップと、
前記選択ステップにより選択された前記被写体の前記測距ステップによる測距結果に基づいて、前記あおり角および前記フォーカス位置を決定する決定ステップと、
前記決定ステップにより決定された前記あおり角および前記フォーカス位置に基づいて、前記あおり駆動部および前記フォーカス駆動部を制御する制御ステップと、を有し、
前記信頼度は、前記撮像素子の回転軸に対応する位置から前記被写体までの距離が長いほど高いことを特徴とする制御方法。
A tilting driving unit that tilts an imaging device to change a tilting angle, which is an angle between an imaging surface of the imaging device and an orthogonal plane perpendicular to an optical axis of the imaging optical system, and drives a focus lens of the imaging optical system. and a focus drive section for changing the focus position, wherein
a subject detection step of detecting a subject in an image captured by the imaging device;
a distance measurement step of measuring the distance to the subject detected by the subject detection step;
A detection size of the subject detected by the subject detection step, a detection position that is a distance from the position corresponding to the rotation axis of the imaging device to the subject, and a distance measurement of the subject that is measured by the distance measurement step. a selection step of selecting a subject to be used for determining the tilt angle and the focus position from the plurality of subjects detected by the subject detection step, based on the reliability determined by the accuracy of the result;
a determination step of determining the tilt angle and the focus position based on the distance measurement result of the distance measurement step of the subject selected in the selection step;
a control step of controlling the tilt driving section and the focus driving section based on the tilt angle and the focus position determined by the determining step ;
The control method , wherein the reliability increases as the distance from the position corresponding to the rotation axis of the imaging element to the subject increases .
撮像光学系により形成された光学像を撮像する撮像素子を備える撮像装置のコンピュータに、請求項1に記載の制御方法に従う処理を実行させるコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。 A computer-readable storage medium storing a computer program for causing a computer of an imaging device having an imaging element for imaging an optical image formed by an imaging optical system to execute processing according to the control method according to claim 13 . 前記制御部は、
前記被写体の前記信頼度が閾値より低い場合、仮想枠を生成し、
複数の前記被写体の情報から、前記仮想枠の像高および前記仮想枠の被写体距離情報を算出することを特徴とする請求項に記載の撮像装置。
The control unit
generating a virtual frame if the confidence of the subject is lower than a threshold;
2. The imaging apparatus according to claim 1 , wherein the image height of the virtual frame and the subject distance information of the virtual frame are calculated from information of a plurality of subjects.
前記制御部は、前記被写体の前記信頼度に応じて、重みづけを行うことにより前記仮想枠を生成することを特徴とする請求項1に記載の撮像装置。 16. The imaging apparatus according to claim 15 , wherein the control unit generates the virtual frame by performing weighting according to the reliability of the subject. 前記制御部は、前記あおり角の回転軸の上下に応じて、前記仮想枠の生成に用いる被写体を選択することを特徴とする請求項1または1に記載の撮像装置。 The imaging apparatus according to claim 15 or 16 , wherein the control unit selects a subject to be used for generating the virtual frame according to the vertical direction of the rotation axis of the tilt angle.
JP2021177170A 2021-03-17 2021-10-29 IMAGING DEVICE, CONTROL METHOD AND STORAGE MEDIUM Active JP7293309B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/690,123 US11722769B2 (en) 2021-03-17 2022-03-09 Image pickup apparatus, control method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021043123 2021-03-17
JP2021043123 2021-03-17

Publications (2)

Publication Number Publication Date
JP2022145453A JP2022145453A (en) 2022-10-04
JP7293309B2 true JP7293309B2 (en) 2023-06-19

Family

ID=83460409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021177170A Active JP7293309B2 (en) 2021-03-17 2021-10-29 IMAGING DEVICE, CONTROL METHOD AND STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP7293309B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003075716A (en) 2001-09-06 2003-03-12 Nikon Corp Imaging device
JP2010008507A (en) 2008-06-24 2010-01-14 Olympus Imaging Corp Camera
JP2016200702A (en) 2015-04-09 2016-12-01 キヤノン株式会社 Focus detection device, control method therefor, program, and storage medium
JP2020154283A (en) 2019-03-15 2020-09-24 キヤノン株式会社 Imaging apparatus, computer program, storage medium, and imaging control method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1138313A (en) * 1997-07-18 1999-02-12 Canon Inc Optical device and camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003075716A (en) 2001-09-06 2003-03-12 Nikon Corp Imaging device
JP2010008507A (en) 2008-06-24 2010-01-14 Olympus Imaging Corp Camera
JP2016200702A (en) 2015-04-09 2016-12-01 キヤノン株式会社 Focus detection device, control method therefor, program, and storage medium
JP2020154283A (en) 2019-03-15 2020-09-24 キヤノン株式会社 Imaging apparatus, computer program, storage medium, and imaging control method

Also Published As

Publication number Publication date
JP2022145453A (en) 2022-10-04

Similar Documents

Publication Publication Date Title
US8135268B2 (en) Lens control apparatus, optical apparatus and lens control method
US7852398B2 (en) Image-taking apparatus
US11343432B2 (en) Imaging apparatus
US9531938B2 (en) Image-capturing apparatus
JP5483953B2 (en) Focus adjustment device, focus adjustment method and program
JP7362360B2 (en) Control device, imaging device, lens device, and program
JP2008009341A (en) Autofocus device and method, and imaging apparatus
JP2008052123A (en) Imaging apparatus
US8872944B2 (en) Method and system for image centering during zooming
CN112866657B (en) Control device, control method, and storage medium
US10999491B2 (en) Control apparatus, image capturing apparatus, control method, and storage medium
JP4334784B2 (en) Autofocus device and imaging device using the same
JP6381434B2 (en) FOCUS CONTROL DEVICE, OPTICAL DEVICE, AND FOCUS CONTROL METHOD
US20050052563A1 (en) Image-taking apparatus
US9420161B2 (en) Image-capturing apparatus
JP7293309B2 (en) IMAGING DEVICE, CONTROL METHOD AND STORAGE MEDIUM
WO2018110282A1 (en) Focusing apparatus, focusing method, and storage medium storing program
US11722769B2 (en) Image pickup apparatus, control method, and storage medium
JP7471799B2 (en) Control device, imaging device, control method, and program
JP2008107480A (en) Focusing controller and imaging apparatus
JP7293310B2 (en) IMAGING DEVICE, CONTROL METHOD, AND STORAGE MEDIUM
US11790600B2 (en) Image processing device, imaging apparatus, image processing method, and recording medium
JP2024011953A (en) Imaging apparatus and method for controlling the same
TWI423661B (en) Face block assisted focus method
JP2004069953A (en) Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230607

R151 Written notification of patent or utility model registration

Ref document number: 7293309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151