JP2021071656A - Imaging apparatus and method for controlling the same - Google Patents

Imaging apparatus and method for controlling the same Download PDF

Info

Publication number
JP2021071656A
JP2021071656A JP2019199244A JP2019199244A JP2021071656A JP 2021071656 A JP2021071656 A JP 2021071656A JP 2019199244 A JP2019199244 A JP 2019199244A JP 2019199244 A JP2019199244 A JP 2019199244A JP 2021071656 A JP2021071656 A JP 2021071656A
Authority
JP
Japan
Prior art keywords
subject
threshold value
focus detection
defocus amount
difficulty level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019199244A
Other languages
Japanese (ja)
Other versions
JP2021071656A5 (en
JP7431555B2 (en
Inventor
麻衣子 高尾
Maiko Takao
麻衣子 高尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019199244A priority Critical patent/JP7431555B2/en
Publication of JP2021071656A publication Critical patent/JP2021071656A/en
Publication of JP2021071656A5 publication Critical patent/JP2021071656A5/ja
Application granted granted Critical
Publication of JP7431555B2 publication Critical patent/JP7431555B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

To make it possible to appropriately follow a subject under various conditions.SOLUTION: An imaging apparatus has: focus detection means that detects a defocus amount on the basis of a signal obtained by photoelectrically converting light that is incident through an imaging optical system; storage means that stores the defocus amount that is repeatedly detected by the focus detection means; determination means that, when a difference between a first defocus amount stored in the storage means and a second defocus amount newly detected by the focus detection means is equal to or more than a threshold, does not determine that the first and second defocus amounts correspond to the same subject, and when the difference is smaller than the threshold, determines that the first and second defocus amounts correspond to the same subject; and setting means that sets the threshold. The setting means sets the threshold on the basis of a distance to the subject corresponding to the first defocus amount and difficulty degree information indicating a degree of difficulty in following the subject.SELECTED DRAWING: Figure 7

Description

本発明は、撮像装置及びその制御方法に関する。 The present invention relates to an image pickup apparatus and a control method thereof.

従来、交換レンズ式一眼レフカメラ等のカメラシステムにおいて、自動焦点調節(AF)の技術が知られており、中でも位相差AFと呼ばれる手法は広く利用されている。この手法では、撮影レンズの異なる射出瞳領域を通過した被写体からの光束を、一対のラインセンサ上に結像させる。そして、被写体像を光電変換して得られた一対の像信号の相対位置の変位量である像ずれ量を求めることで、撮影レンズのデフォーカス量の検出、すなわち、焦点検出を行う。この焦点検出結果に基づいて撮影レンズに含まれるフォーカスレンズの駆動を行うことで、自動焦点調節を行う。 Conventionally, in a camera system such as an interchangeable lens type single-lens reflex camera, an automatic focus adjustment (AF) technique is known, and among them, a technique called phase difference AF is widely used. In this method, a light beam from a subject that has passed through different exit pupil regions of a photographing lens is imaged on a pair of line sensors. Then, the defocus amount of the photographing lens, that is, the focus detection is performed by obtaining the image shift amount, which is the displacement amount of the relative positions of the pair of image signals obtained by photoelectric conversion of the subject image. Automatic focus adjustment is performed by driving the focus lens included in the photographing lens based on the focus detection result.

またその多くは、静止する被写体のみならず、移動する被写体に焦点が合うようにフォーカスレンズを駆動させるサーボ撮影モードを備えている。サーボ撮影モードは、過去の移動履歴から被写体がどのように動いているのか予測する機能を持つ。ところが、被写体の前を障害物が通過したり、誤って背景に対し焦点検出してしまったりすることで、検出されるデフォーカス量が必ずしも撮影したい被写体のものでないことがある。 Most of them have a servo shooting mode in which the focus lens is driven so as to focus not only on a stationary subject but also on a moving subject. The servo shooting mode has a function of predicting how the subject is moving from the past movement history. However, the amount of defocus detected may not necessarily be that of the subject to be photographed because an obstacle passes in front of the subject or the focus is erroneously detected with respect to the background.

このように、誤って意図しない被写体や背景に合焦してしまうといった課題に対し、検出したデフォーカス量によってフォーカスレンズの駆動を禁止する手法が提案されている。例えば、特許文献1では、像面速度に応じて焦点調節レンズの駆動を禁止するデフォーカス量の閾値を切り替える方法が開示されている。特許文献1の手法を用いることで、高速で動く被写体に対し、被写体が高速であることを観測すれば、より大きなデフォーカス量が検出されても焦点検出レンズの駆動ができるようになる。そのため、検出したデフォーカス量に応じた焦点検出レンズの駆動の加速や減速に対しても適切に追従できる。 As described above, a method of prohibiting the driving of the focus lens by the detected defocus amount has been proposed for the problem of accidentally focusing on an unintended subject or background. For example, Patent Document 1 discloses a method of switching a threshold value of a defocus amount that prohibits driving of a focus adjusting lens according to an image plane velocity. By using the method of Patent Document 1, if it is observed that the subject moves at high speed with respect to the subject moving at high speed, the focus detection lens can be driven even if a larger amount of defocus is detected. Therefore, it is possible to appropriately follow the acceleration and deceleration of the drive of the focus detection lens according to the detected defocus amount.

また、特許文献2では、所望の被写体を追尾できているかどうかを判断するために用いるデフォーカス量の閾値を、カメラの振れ状態によって変更させる方法が開示されている。特許文献2によれば、カメラの振れが大きい状態であれば所望の被写体を追従しにくく、カメラの振れが小さい状態であれば所望の被写体を追従し易いと判断する。そして、カメラが所望の被写体を追従し易い状態であれば、検出したデフォーカス量が、所望の被写体を追従した結果だと考えられる。逆に、カメラが所望の被写体を追従しにくい状態であれば、所望の被写体を追従できておらず、検出したデフォーカス量が背景や別の被写体を追った結果ではないかと疑うことができる。 Further, Patent Document 2 discloses a method of changing a threshold value of a defocus amount used for determining whether or not a desired subject can be tracked according to a camera shake state. According to Patent Document 2, it is determined that it is difficult to follow a desired subject when the camera shake is large, and it is easy to follow a desired subject when the camera shake is small. If the camera is in a state where it is easy to follow the desired subject, it is considered that the detected defocus amount is the result of following the desired subject. On the contrary, if it is difficult for the camera to follow the desired subject, it is not possible to follow the desired subject, and it can be suspected that the detected defocus amount is the result of following the background or another subject.

特開2009−210815号公報Japanese Unexamined Patent Publication No. 2009-210815 特開平11−326743号公報Japanese Unexamined Patent Publication No. 11-326743

しかしながら、特許文献1に記載された技術では、継続的に速い動きをする被写体に対してしか被写体の動きの変化に対応することができない。例えば、被写体が、これまでの動きの傾向では予測ができない大きな動きを急にした場合、デフォーカス量の閾値の切り替えができず、フォーカス駆動を禁止してしまう。さらに、撮影者(カメラ)と被写体の距離が近いほど、被写体の動きに対して検出されるデフォーカス量の変化が大きくなるため、近景で急に動き出す被写体においては特に急激に大きなデフォーカス量の変化が検出されてしまう。そのため、撮影対象としているその被写体の動きが撮影者(カメラ)に対して近づき続ける、あるいは撮影者に対して遠ざかり続けるような動きであった場合に以下のような不都合が生じる。 However, the technique described in Patent Document 1 can respond to a change in the movement of a subject only for a subject that continuously moves rapidly. For example, when the subject suddenly makes a large movement that cannot be predicted by the tendency of the movement so far, the threshold value of the defocus amount cannot be switched, and the focus drive is prohibited. Furthermore, the closer the distance between the photographer (camera) and the subject is, the greater the change in the amount of defocus detected with respect to the movement of the subject. The change is detected. Therefore, the following inconvenience occurs when the movement of the subject to be photographed keeps approaching the photographer (camera) or keeps away from the photographer.

前述したサーボ撮影モードでは周期的に焦点検出処理を行い、焦点検出処理により得られた検出デフォーカス量に基づき、随時焦点調節レンズを駆動させて被写体にピントを合わせ続ける制御となっている。しかしながら、特許文献1によれば、被写体が急に動き始めたタイミングで得られた焦点検出処理の結果に応じて焦点調節レンズの駆動を停止させてしまう。そのため、周期的に実施する次のタイミングでの焦点検出処理で得られる撮影対象の被写体のデフォーカス量は、さらに大きく検出されてしまう。この動作が繰り返されることになり、結果として、所望の被写体にピントを合わせることができなくなってしまう。 In the servo shooting mode described above, the focus detection process is periodically performed, and based on the detection defocus amount obtained by the focus detection process, the focus adjustment lens is driven at any time to keep focusing on the subject. However, according to Patent Document 1, the drive of the focus adjusting lens is stopped according to the result of the focus detection process obtained at the timing when the subject suddenly starts to move. Therefore, the amount of defocus of the subject to be photographed obtained by the focus detection process at the next timing, which is periodically performed, is detected even larger. This operation will be repeated, and as a result, it will not be possible to focus on the desired subject.

また、特許文献2によれば、被写体の状況によらずカメラの振れ量のみで被写体の追従のし易さを評価しているが、被写体が画角内に占める領域が大きければ追従し易く、逆に被写体の領域が小さければ追従しにくい。従って、カメラの振れ量のみによって被写体の追従し易さを決定することは、追従のし易さを誤って判断してしまう可能性がある。 Further, according to Patent Document 2, the ease of following the subject is evaluated only by the amount of camera shake regardless of the condition of the subject, but it is easy to follow if the area occupied by the subject within the angle of view is large. On the contrary, if the area of the subject is small, it is difficult to follow. Therefore, determining the ease of tracking a subject based only on the amount of camera shake may erroneously determine the ease of tracking.

本発明は上記問題点を鑑みてなされたものであり、様々な条件下でより適切に被写体を追従できるようにすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to enable the subject to be tracked more appropriately under various conditions.

上記目的を達成するために、本発明の撮像装置は、撮影光学系を介して入射した光を光電変換して得られた信号に基づいて、デフォーカス量を検出する焦点検出手段と、前記焦点検出手段により繰り返し検出される前記デフォーカス量を記憶する記憶手段と、前記記憶手段に記憶された第1のデフォーカス量と前記焦点検出手段により新たに検出された第2のデフォーカス量との差が閾値以上の場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定せず、前記差が前記閾値よりも小さい場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定する判定手段と、前記閾値を設定する設定手段と、を有し、前記設定手段は、前記第1のデフォーカス量に対応する被写体までの距離と、被写体の補足し易さを示す難易度情報とに基づいて、前記閾値を設定することを特徴とする。 In order to achieve the above object, the image pickup apparatus of the present invention includes a focus detection means for detecting a defocus amount based on a signal obtained by photoelectric conversion of light incident on an imaging optical system, and the focus. A storage means for storing the defocus amount repeatedly detected by the detection means, a first defocus amount stored in the storage means, and a second defocus amount newly detected by the focus detection means. When the difference is equal to or greater than the threshold value, it is not determined that the first and second defocus amounts correspond to the same subject, and when the difference is smaller than the threshold value, the first and second defocus amounts are obtained. It has a determination means for determining that the focus amount corresponds to the same subject and a setting means for setting the threshold value, and the setting means has a distance to a subject corresponding to the first defocus amount. The threshold value is set based on the difficulty level information indicating the ease of capturing the subject.

本発明によれば、様々な条件下でより適切に被写体を追従することができる。 According to the present invention, the subject can be tracked more appropriately under various conditions.

本発明の第1の実施形態における撮像装置の概略構成を示すブロック図。The block diagram which shows the schematic structure of the image pickup apparatus in the 1st Embodiment of this invention. 第1の実施形態におけるサーボ撮影モードにおける撮影処理を示したフローチャート。The flowchart which showed the shooting process in the servo shooting mode in 1st Embodiment. 第1の実施形態における焦点調節処理のフローチャート。The flowchart of the focus adjustment process in 1st Embodiment. 第1の実施形態における焦点検出処理のフローチャート。The flowchart of the focus detection process in 1st Embodiment. 第1の実施形態における連続性判定処理のフローチャート。The flowchart of continuity determination processing in 1st Embodiment. 第1の実施形態における動体予測処理のフローチャート。The flowchart of the moving body prediction processing in 1st Embodiment. 第1の実施形態における連続性判定閾値設定処理のフローチャート。The flowchart of the continuity determination threshold value setting process in 1st Embodiment. デフォーカスマップの一例を示す図。The figure which shows an example of the defocus map. 過去の焦点検出履歴と予測曲線の一例を示す図。The figure which shows an example of the past focus detection history and the prediction curve. カメラから比較的近い場所に静止していた被写体が急加速したときの像面位置の変化の一例を示す図。The figure which shows an example of the change of the image plane position when the subject which was stationary relatively close to a camera suddenly accelerates. 被写体を捉え続けにくい状況の一例を示す図。The figure which shows an example of the situation which it is difficult to keep catching a subject. 第2の実施形態における連続性判定閾値設定処理のフローチャート。The flowchart of the continuity determination threshold value setting process in 2nd Embodiment. 第3の実施形態における焦点検出処理のフローチャート。The flowchart of the focus detection process in 3rd Embodiment. 被写体の動き特性のユーザ設定画面の一例を示す図。The figure which shows an example of the user setting screen of the motion characteristic of a subject. 変形例における撮像素子の画素配列を説明する図。The figure explaining the pixel arrangement of the image sensor in the modification.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

<第1の実施形態>
図1は、第1の実施形態における撮像装置の一例として、デジタル一眼レフカメラの構成を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a digital single-lens reflex camera as an example of an imaging device according to the first embodiment.

撮影レンズ101(撮影光学系)は、簡易的に1枚のレンズにより表されているが、実際には焦点調節を行うためのフォーカスレンズを含む、複数のレンズから構成される。レンズ駆動回路102は、たとえばDCモータやステッピングモータを有し、撮影レンズ101を駆動制御する。当該駆動制御は、レンズ内マイクロコンピュータ141によって指示されるが、当該駆動制御のための駆動要求はマイクロコンピュータ124からレンズ通信回路103を用いて伝搬される。 The photographing lens 101 (photographing optical system) is simply represented by one lens, but is actually composed of a plurality of lenses including a focus lens for performing focus adjustment. The lens drive circuit 102 has, for example, a DC motor or a stepping motor, and drives and controls the photographing lens 101. The drive control is instructed by the in-lens microprocessor 141, and the drive request for the drive control is propagated from the microcomputer 124 using the lens communication circuit 103.

レンズ通信回路103は、マイクロコンピュータ124からの各種アクチュエータの駆動要求をレンズ内マイクロコンピュータ141へ伝搬すると共に、各種アクチュエータの状態情報をマイクロコンピュータ124へ伝搬する。 The lens communication circuit 103 propagates drive requests for various actuators from the microcomputer 124 to the in-lens microcomputer 141, and propagates state information of the various actuators to the microcomputer 124.

絞り104は、絞り駆動回路105により駆動され、カメラに入射する光束を制御するために用いられる。絞り駆動回路105は、マイクロコンピュータ124によって算出された駆動量に基づき、レンズ内マイクロコンピュータ141により制御されることで、絞り104の光学的な絞り値を変化させる。 The diaphragm 104 is driven by the diaphragm drive circuit 105 and is used to control the luminous flux incident on the camera. The aperture drive circuit 105 changes the optical aperture value of the aperture 104 by being controlled by the in-lens microcomputer 141 based on the drive amount calculated by the microcomputer 124.

距離測定回路142は、撮影レンズ101が有するフォーカスレンズの位置をもとに、カメラから被写体までの距離を算出する。なお、フォーカスレンズの位置を用いた距離測定方法は一例であり、たとえば赤外線照射などの手法を用いてもよい。また、本構成では距離測定回路142はレンズ側に構成され、レンズ内マイクロコンピュータ141によって制御されているが、カメラ本体側に構成し、マイクロコンピュータ124によって制御されてもよい。 The distance measuring circuit 142 calculates the distance from the camera to the subject based on the position of the focus lens of the photographing lens 101. The distance measurement method using the position of the focus lens is an example, and a method such as infrared irradiation may be used. Further, in this configuration, the distance measuring circuit 142 is configured on the lens side and controlled by the in-lens microcomputer 141, but may be configured on the camera body side and controlled by the microcomputer 124.

主ミラー106は、常時はファインダー部(不図示)へと光束を導くよう反射させるように光路内に配されているが、撮影が行われる場合には、撮像素子113へと光束を導くように上方に跳ね上がり、光路から待避する。すなわち、撮影レンズ101から入射した光束をファインダー側に導くか、撮像素子113側に導くかを切替える。また主ミラー106はその中央部が光の一部を透過できるようにハーフミラーとなっている。サブミラー107は、主ミラー106を透過した光束を反射させて、焦点検出を行うための焦点検出回路110内に配置された焦点検出センサに導く。 The main mirror 106 is always arranged in the optical path so as to guide the light flux to the finder (not shown) so as to guide the light flux to the image sensor 113 when photographing is performed. It jumps upward and escapes from the optical path. That is, it is switched whether the light flux incident from the photographing lens 101 is guided to the finder side or the image sensor 113 side. Further, the main mirror 106 is a half mirror so that the central portion thereof can transmit a part of light. The sub-mirror 107 reflects the light flux transmitted through the main mirror 106 and guides it to a focus detection sensor arranged in the focus detection circuit 110 for performing focus detection.

ペンタプリズム108は主ミラー106が反射した光束をファインダー部(不図示)へと導く。ファインダー部は他にピント板、アイピースレンズ(不図示)などを有する。測光回路109は、ピント板(不図示)に結像された被写体像の色および明るさを、測光回路109内に配置された、カラーフィルタを備えた測光センサによって、電気信号に変換する。 The pentaprism 108 guides the luminous flux reflected by the main mirror 106 to the finder section (not shown). The finder unit also has a focus plate, an eyepiece lens (not shown), and the like. The photometric circuit 109 converts the color and brightness of the subject image imaged on the focus plate (not shown) into an electric signal by a photometric sensor provided in the photometric circuit 109 and provided with a color filter.

焦点検出回路110は、複数のエリアセンサからなる焦点検出センサを内蔵しており、主ミラー106を透過し、サブミラー107により反射された光束が焦点検出センサに入射することによって、焦点検出センサ内で分光された一対の像信号を得る。そして、得られた一対の像信号の相対位置の変位量である像ずれ量を求めることで、撮影レンズ101のデフォーカス量を検出する。焦点検出回路110にて得られたデフォーカス量は、マイクロコンピュータ124へ伝搬され、撮影レンズ101の制御量に変換された後、レンズ通信回路103を経由してレンズ内マイクロコンピュータ141へ伝搬される。 The focus detection circuit 110 has a built-in focus detection sensor composed of a plurality of area sensors, and the light beam reflected by the sub mirror 107 is incident on the focus detection sensor by passing through the main mirror 106 and thereby being inside the focus detection sensor. Obtain a pair of dispersed image signals. Then, the defocus amount of the photographing lens 101 is detected by obtaining the image shift amount, which is the displacement amount of the relative positions of the obtained pair of image signals. The defocus amount obtained by the focus detection circuit 110 is propagated to the microcomputer 124, converted into a control amount of the photographing lens 101, and then propagated to the in-lens microcomputer 141 via the lens communication circuit 103. ..

フォーカルプレーンシャッター111は、カメラに設定されたシャッター速度に応じてシャッター駆動回路112により駆動される。 The focal plane shutter 111 is driven by the shutter drive circuit 112 according to the shutter speed set in the camera.

撮像素子113には、CCDやCMOSセンサなどが用いられ、撮影レンズ101によって結像された被写体像を電気信号に変換する。 A CCD, CMOS sensor, or the like is used as the image sensor 113, and the subject image formed by the photographing lens 101 is converted into an electric signal.

クランプ回路114及びAGC回路115は、撮像素子113から出力された電気信号をA/D変換をする前に基本的なアナログ信号処理を行う回路であり、マイクロコンピュータ124により、クランプレベルやAGC基準レベルの変更が行われる。A/D変換器116は、クランプ回路114及びAGC回路115により処理された撮像素子113のアナログ出力信号をデジタル信号(画像データ)に変換する。 The clamp circuit 114 and the AGC circuit 115 are circuits that perform basic analog signal processing before A / D conversion is performed on the electric signal output from the image sensor 113, and the clamp level and the AGC reference level are measured by the microcomputer 124. Changes are made. The A / D converter 116 converts the analog output signal of the image sensor 113 processed by the clamp circuit 114 and the AGC circuit 115 into a digital signal (image data).

映像信号処理回路117は、ゲートアレイなどのロジックデバイスにより実現され、デジタル化された画像データに、フィルタ処理、色変換処理、ガンマ処理を行うと共に、JPEGなどの圧縮処理を行い、メモリコントローラ120に出力する。また、映像信号処理回路117は、必要に応じて、撮像素子113の信号の露出情報やホワイトバランスなどの情報をマイクロコンピュータ124に出力することが可能である。これらの情報を基に、マイクロコンピュータ124は、ホワイトバランスやゲイン調整の指示を行う。 The video signal processing circuit 117 is realized by a logic device such as a gate array, performs filter processing, color conversion processing, and gamma processing on the digitized image data, and also performs compression processing such as JPEG to the memory controller 120. Output. Further, the video signal processing circuit 117 can output information such as exposure information and white balance of the signal of the image sensor 113 to the microcomputer 124, if necessary. Based on this information, the microcomputer 124 gives instructions for white balance and gain adjustment.

なお、連続撮影動作の場合においては、撮影データを未処理のまま一旦バッファメモリ123に格納し、メモリコントローラ120を通して未処理の撮影データを読み出し、映像信号処理回路117にて画像処理や圧縮処理を行うことで、連続撮影を行う。連続撮影枚数は、バッファメモリ123の大きさに左右される。連続撮影時には、メモリコントローラ120は、映像信号処理回路117から入力された未処理のデジタル画像データをバッファメモリ123に格納し、処理済みのデジタル画像データをメモリ121に格納する。また、メモリコントローラ120は、バッファメモリ123やメモリ121から画像データを映像信号処理回路117に出力する。なお、メモリ121は取り外し可能であってもよい。更に、メモリコントローラ120は、コンピュータ等と接続可能な外部インターフェイス122を介して、メモリ121に記憶されている画像を出力することができる。 In the case of continuous shooting operation, the shooting data is temporarily stored in the buffer memory 123 without being processed, the unprocessed shooting data is read out through the memory controller 120, and the image processing and compression processing are performed by the video signal processing circuit 117. By doing so, continuous shooting is performed. The number of continuous shots depends on the size of the buffer memory 123. At the time of continuous shooting, the memory controller 120 stores the unprocessed digital image data input from the video signal processing circuit 117 in the buffer memory 123, and stores the processed digital image data in the memory 121. Further, the memory controller 120 outputs image data from the buffer memory 123 and the memory 121 to the video signal processing circuit 117. The memory 121 may be removable. Further, the memory controller 120 can output an image stored in the memory 121 via an external interface 122 that can be connected to a computer or the like.

操作部125は、マイクロコンピュータ124に操作部125に接続された各種操作部材の状態を伝え、マイクロコンピュータ124は操作部材の変化に応じて各部をコントロールする。操作部125に接続される操作部材は、スイッチ1(SW1)126と、スイッチ2(SW2)127を含む。SW1(126)、SW2(127)の操作状態を操作部125が解釈し、SW1(126)の操作のみ有効な状態(ON)であれば、オートフォーカス(AF)開始要求イベントとして取り扱う。また、SW2(127)の操作が有効な状態(ON)であれば撮影要求イベントとして取り扱う。また、SW2(127)が操作されている状態(ON)が維持されている場合には、連続撮影動作を行う。操作部125には、他に、ISO設定ボタン、画像サイズ設定ボタン、画質設定ボタン、情報表示ボタンなど、不図示の操作部材が接続されており、各操作部材の状態が検出される。 The operation unit 125 transmits the state of various operation members connected to the operation unit 125 to the microcomputer 124, and the microcomputer 124 controls each unit according to the change of the operation member. The operating members connected to the operating unit 125 include switch 1 (SW1) 126 and switch 2 (SW2) 127. The operation unit 125 interprets the operation states of SW1 (126) and SW2 (127), and if only the operation of SW1 (126) is valid (ON), it is treated as an autofocus (AF) start request event. If the operation of SW2 (127) is valid (ON), it is treated as a shooting request event. Further, when the state (ON) in which the SW2 (127) is operated is maintained, the continuous shooting operation is performed. In addition, operation members (not shown) such as an ISO setting button, an image size setting button, an image quality setting button, and an information display button are connected to the operation unit 125, and the state of each operation member is detected.

液晶駆動回路128は、マイクロコンピュータ124の表示命令に従って、外部液晶表示部材129やファインダー内液晶表示部材130を駆動する。ファインダー内液晶表示部材130には、不図示のLEDなどのバックライトが配置されており、そのLEDも液晶駆動回路128で駆動される。マイクロコンピュータ124は、撮影前に設定されているISO感度、画像サイズ、画質に応じた、画像サイズの予測値データをもとに、メモリコントローラ120を通して、メモリの容量を確認した上で撮影可能残数を演算することができる。そして、必要に応じて、撮影可能残数を外部液晶表示部材129やファインダー内液晶表示部材130に表示する。 The liquid crystal drive circuit 128 drives the external liquid crystal display member 129 and the liquid crystal display member 130 in the finder according to the display command of the microcomputer 124. A backlight such as an LED (not shown) is arranged on the liquid crystal display member 130 in the finder, and the LED is also driven by the liquid crystal drive circuit 128. The microcomputer 124 confirms the memory capacity through the memory controller 120 based on the predicted value data of the image size according to the ISO sensitivity, the image size, and the image quality set before shooting, and then the remaining possible shooting. You can calculate numbers. Then, if necessary, the remaining number of images that can be photographed is displayed on the external liquid crystal display member 129 or the liquid crystal display member 130 in the viewfinder.

不揮発性メモリ131(EEPROM)は、カメラに電源が入れられていない状態でも、データを保存することができる。電源部132は、各ICや駆動系に必要な電源を供給する。 The non-volatile memory 131 (EEPROM) can store data even when the camera is not turned on. The power supply unit 132 supplies necessary power to each IC and drive system.

動き検出回路140は、デジタル一眼レフカメラの動きを検出する検出部を搭載している。検出部は例えば加速度センサであり、カメラ本体の水平軸を回転軸としたときの加速度、及び、カメラ本体の垂直軸を回転軸としたときの加速度を検出する。 The motion detection circuit 140 is equipped with a detection unit that detects the motion of the digital single-lens reflex camera. The detection unit is, for example, an acceleration sensor, which detects the acceleration when the horizontal axis of the camera body is the rotation axis and the acceleration when the vertical axis of the camera body is the rotation axis.

なお、本実施形態では、動き検出回路140はカメラ本体側に構成され、マイクロコンピュータ124によって制御されているが、レンズ側に構成し、レンズ内マイクロコンピュータ141によって制御されてもよい。また、レンズは、カメラ本体に着脱可能なものであっても、カメラ本体と一体的に構成されたものであってもよい。 In the present embodiment, the motion detection circuit 140 is configured on the camera body side and controlled by the microcomputer 124, but may be configured on the lens side and controlled by the in-lens microcomputer 141. Further, the lens may be detachable from the camera body or may be integrally configured with the camera body.

次に、本発明の第1の実施形態における撮影処理の動作について説明する。一般にカメラのAFモードとしては、合焦動作を一回行って終了するモード(ワンショット撮影モード)と、現在の時刻よりも後の時刻の被写体の像面を予測しながら合焦動作を繰り返し行ってレンズを駆動するモード(サーボ撮影モード)の2種類がある。第1の実施形態では、カメラがサーボ撮影モードに設定されている場合の処理について説明する。 Next, the operation of the photographing process according to the first embodiment of the present invention will be described. Generally, the AF mode of a camera is a mode in which the focusing operation is performed once and then terminated (one-shot shooting mode), and the focusing operation is repeated while predicting the image plane of the subject at a time later than the current time. There are two modes (servo shooting mode) for driving the lens. In the first embodiment, the processing when the camera is set to the servo shooting mode will be described.

図2は、サーボ撮影モードによる撮影処理を示すフローチャートである。S201において、マイクロコンピュータ124は、撮影モードを確認する。現在の撮影モードがサーボ撮影モードではないと判断されると、処理を終了する。一方、撮影モードがサーボ撮影モードであると判断された場合にはS202へ遷移する。 FIG. 2 is a flowchart showing a shooting process in the servo shooting mode. In S201, the microcomputer 124 confirms the shooting mode. If it is determined that the current shooting mode is not the servo shooting mode, the process ends. On the other hand, when it is determined that the shooting mode is the servo shooting mode, the process proceeds to S202.

S202において、マイクロコンピュータ124は、操作部125により得られるSW1の状態を確認する。SW1がOFFの場合はS201へ遷移し、SW1がONであればS203へ遷移する。 In S202, the microcomputer 124 confirms the state of SW1 obtained by the operation unit 125. When SW1 is OFF, the transition to S201 is performed, and when SW1 is ON, the transition to S203 is performed.

S203では、焦点検出回路110が焦点調節処理を行う。なお、S203における処理の詳細は、図3を参照して後述する。 In S203, the focus detection circuit 110 performs the focus adjustment process. The details of the processing in S203 will be described later with reference to FIG.

次にS204において、マイクロコンピュータ124は、操作部125から得られるSW2の状態を確認する。SW2がOFFの場合はS201へ遷移し、SW2がONであればS205へ遷移する。 Next, in S204, the microcomputer 124 confirms the state of SW2 obtained from the operation unit 125. When SW2 is OFF, the transition to S201 is performed, and when SW2 is ON, the transition to S205 is performed.

S205では、マイクロコンピュータ124は、シャッター駆動回路112を介してフォーカルプレーンシャッター111を駆動させ、撮影を行う。撮影の終了後、S201に戻る。 In S205, the microprocessor 124 drives the focal plane shutter 111 via the shutter drive circuit 112 to perform photographing. After the shooting is completed, the process returns to S201.

以上説明したように、サーボ撮影モードにてSW1がONである場合、モード変更されない限り、S203の焦点調節処理が繰り返し実施される。 As described above, when SW1 is ON in the servo shooting mode, the focus adjustment process of S203 is repeatedly performed unless the mode is changed.

次に、図3を参照して、S203における焦点調節処理の概要について説明する。 Next, the outline of the focus adjustment process in S203 will be described with reference to FIG.

S301において、マイクロコンピュータ124は、焦点検出とそれに伴う一連の処理を行う。なお、S301における処理の詳細は、図4を参照して後述する。 In S301, the microcomputer 124 performs focus detection and a series of processes associated therewith. The details of the processing in S301 will be described later with reference to FIG.

S302において、マイクロコンピュータ124は、S301の処理により得られた焦点検出結果から、サーボ撮影モードにてフォーカス追従動作させていた対象の被写体を引き続きフォーカス追従(以降、「被写体捕捉」と呼ぶ。)できているか否かを判定する、連続性判定処理を行う。詳細は図5を参照して後述するが、引き続き被写体捕捉ができていれば、フラグFlagCatchFail=0となり、被写体捕捉の失敗時にはフラグFlagCatchFail>0となるように処理される。 In S302, the microcomputer 124 can continue to focus-follow (hereinafter, referred to as "subject capture") the target subject that has been subjected to the focus-following operation in the servo shooting mode from the focus detection result obtained by the processing of S301. Performs a continuity determination process that determines whether or not it is. Details will be described later with reference to FIG. 5, but if the subject can be captured continuously, the flag FlagCatchFail = 0, and if the subject capture fails, the flag FlagCatchFail> 0.

S303において、マイクロコンピュータ124は、焦点検出履歴から、捕捉中の被写体がどのような動きをしているかを予測する、動体予測処理を行う。なお、S303における処理の詳細は図6を参照して後述する。S303の処理の中で、マイクロコンピュータ124は、撮影レンズ101を構成するフォーカスレンズを駆動するためのフォーカスレンズ駆動量を算出する。 In S303, the microcomputer 124 performs a moving object prediction process that predicts what kind of movement the subject being captured is moving from the focus detection history. The details of the processing in S303 will be described later with reference to FIG. In the process of S303, the microcomputer 124 calculates the focus lens drive amount for driving the focus lens constituting the photographing lens 101.

次にS304において、マイクロコンピュータ124は、S302内で設定されたフラグFlagCatchFailの値を確認する。FlagCatchFailが0より大きい場合、すなわち、被写体補足に失敗した場合にはS305へ遷移し、そうでない場合、すなわち、被写体補足ができた場合にはS306へ遷移する。 Next, in S304, the microprocessor 124 confirms the value of the flag FlagCatchFail set in S302. If the FlagCatchFail is larger than 0, that is, if the subject capture fails, the transition to S305 is performed, and if not, that is, if the subject capture is completed, the transition to S306 is performed.

S305では、今回の焦点検出結果が引き続き被写体捕捉できたと認められなかった場合の処理として、レンズ駆動を禁止し、焦点検出処理を終了する。なお、レンズ駆動の禁止処理としては2通り挙げられ、いずれを選択してもよい。1つ目は、マイクロコンピュータ124がレンズ通信回路103を経由してレンズ内マイクロコンピュータ141へ撮影レンズ101に含まれるフォーカスレンズを停止させるよう要求する方法である。2つ目は直前のS301における焦点検出処理にて得られたデフォーカス量に基づく駆動要求を実施しないようにする方法である。 In S305, as a process when it is not recognized that the subject can be continuously captured by the current focus detection result, the lens drive is prohibited and the focus detection process is terminated. There are two types of lens drive prohibition processing, and any of them may be selected. The first is a method in which the microcomputer 124 requests the in-lens microcomputer 141 to stop the focus lens included in the photographing lens 101 via the lens communication circuit 103. The second is a method of not executing the drive request based on the defocus amount obtained in the focus detection process in S301 immediately before.

一方、S306では、今回の焦点検出結果が引き続き被写体捕捉できたと認められた場合の処理を行う。ここでは、マイクロコンピュータ124が、レンズ通信回路103を経由してレンズ内マイクロコンピュータ141に対して撮影レンズ101に含まれるフォーカスレンズの駆動を要求し、焦点調節処理を終了する。 On the other hand, in S306, processing is performed when it is recognized that the subject can be continuously captured based on the current focus detection result. Here, the microcomputer 124 requests the in-lens microcomputer 141 to drive the focus lens included in the photographing lens 101 via the lens communication circuit 103, and ends the focus adjustment process.

図4は、S301で行われる焦点検出処理の動作の一例を示す。S401で、マイクロコンピュータ124は、過去の焦点検出履歴に基づいて、今回の焦点検出結果が引き続き被写体捕捉できているかどうかを判定するための連続性判定閾値の設定を行う。なお、S401における処理の詳細は図7を参照して後述する。 FIG. 4 shows an example of the operation of the focus detection process performed in S301. In S401, the microcomputer 124 sets a continuity determination threshold value for determining whether or not the current focus detection result can continue to capture the subject based on the past focus detection history. The details of the processing in S401 will be described later with reference to FIG.

次に、S402において、マイクロコンピュータ124は、焦点検出回路110を駆動して、焦点検出を行う。 Next, in S402, the microprocessor 124 drives the focus detection circuit 110 to perform focus detection.

S403で、マイクロコンピュータ124は、S402における焦点検出結果であるデフォーカス量(以降、「検出デフォーカス量」と呼ぶ。)を、図8に示すように、焦点検出した測距点に対応するように行列に記載した、デフォーカスマップを作成する。 In S403, the microcomputer 124 causes the defocus amount (hereinafter, referred to as “detection defocus amount”), which is the focus detection result in S402, to correspond to the focus detection focusing point as shown in FIG. Create a defocus map described in the matrix.

ここで図8(a)から(d)を用いて、本実施形態で作成するデフォーカスマップについて説明する。 Here, the defocus map created in the present embodiment will be described with reference to FIGS. 8 (a) to 8 (d).

801は、撮像素子113により得られる画像領域に相当し、802は、焦点検出回路110に含まれる焦点検出センサ部のセンサ領域を示している。本実施形態の焦点検出センサ部は、縦方向に7分割、横方向に7分割された合計49枠の測距点によって構成されているものとする。803〜805は、分割された測距点の一部を差し示している。デフォーカスマップの作成時には、その各測距点ごとに測距結果が得られる構成となっている。 801 corresponds to the image region obtained by the image sensor 113, and 802 indicates the sensor region of the focus detection sensor unit included in the focus detection circuit 110. It is assumed that the focus detection sensor unit of the present embodiment is composed of a total of 49 AF points divided into 7 in the vertical direction and 7 in the horizontal direction. Reference numerals 803 to 805 indicate a part of the divided AF points. When creating the defocus map, the distance measurement result can be obtained for each distance measurement point.

図8(a)に示す構図では、撮影者(カメラ)に対して近景側に存在する被写体806と遠景側に存在する被写体807とが同一画面内に存在するケースを示しており、遠景側の人物807に焦点が合っている。このときのデフォーカスマップは、図8(b)に示すように、遠景側の人物807の位置に設定された測距点809では検出デフォーカス量0、手前側の人物806の位置に設定された測距点808では検出デフォーカス量が負の値となっている。さらに、背景の位置に設定された測距点では検出デフォーカス量が正の値となっている。 The composition shown in FIG. 8A shows a case in which the subject 806 existing on the near view side and the subject 807 existing on the distant view side exist in the same screen with respect to the photographer (camera), and the distant view side The focus is on person 807. As shown in FIG. 8B, the defocus map at this time is set at the detection defocus amount of 0 and the position of the person 806 on the front side at the AF point 809 set at the position of the person 807 on the distant view side. At the AF point 808, the detected defocus amount is a negative value. Further, the detection defocus amount is a positive value at the AF point set at the background position.

同様に、図8(c)では手前側の人物810に焦点が合い、遠景側の被写体811にはピントが合っていない状態となっている。このときのデフォーカスマップは図8(d)に示すように、手前側の人物810の位置に設定された測距点812では検出デフォーカス量0、遠景側の人物811の位置に設定された測距点813では検出デフォーカス量が正の値となっている。さらに、背景の位置に設定された測距点では検出デフォーカス量がさらに大きな正の値となっている。 Similarly, in FIG. 8C, the person 810 on the front side is in focus, and the subject 811 on the distant view side is out of focus. As shown in FIG. 8D, the defocus map at this time was set at the detection defocus amount of 0 and the position of the person 811 on the distant view side at the AF point 812 set at the position of the person 810 on the front side. At the AF point 813, the detected defocus amount is a positive value. Further, at the AF point set at the background position, the detected defocus amount is a larger positive value.

S404において、マイクロコンピュータ124は、S403で作成したデフォーカスマップから、主測距点を選択する。具体的には、前回までの焦点検出結果に基づいて、今回の焦点検出時には被写体が撮影者(カメラ)に対して近づいているか、または遠ざかっているか、すなわち奥行方向にどれだけ移動しているかを予測しておき、この結果に最も近い測距点を主測距点とする。なお、ユーザの設定したモードが測距点を複数設定する多点方式でなかった場合、ユーザ指定の測距点を主測距点と定める。 In S404, the microcomputer 124 selects the main focusing point from the defocus map created in S403. Specifically, based on the focus detection results up to the previous time, whether the subject is approaching or moving away from the photographer (camera) at the time of this focus detection, that is, how much it is moving in the depth direction. Predict, and let the focusing point closest to this result be the main focusing point. If the mode set by the user is not a multipoint method in which a plurality of AF points are set, the AF point specified by the user is defined as the main AF point.

S405において、マイクロコンピュータ124は、S403で作成したデフォーカスマップを用いて、被写体領域を抽出する。具体的には、S404で選択した主測距点の周囲で、主測距点とのデフォーカス量の差が一定値以内である領域を被写体領域とする(被写体検出)。 In S405, the microcomputer 124 extracts the subject area using the defocus map created in S403. Specifically, a region around the main focusing point selected in S404 in which the difference in defocus amount from the main focusing point is within a certain value is set as the subject region (subject detection).

次に、S406において、マイクロコンピュータ124は、S403で作成したデフォーカスマップを用いて、障害物を抽出する。具体的には、S405で抽出した被写体領域よりも至近側の合焦位置を示すデフォーカス量が検出された領域をデフォーカスマップから抽出し、障害物とみなす。 Next, in S406, the microcomputer 124 extracts obstacles using the defocus map created in S403. Specifically, the area in which the defocus amount indicating the in-focus position closer to the subject area extracted in S405 is detected is extracted from the defocus map and regarded as an obstacle.

以上の処理によってS301の焦点検出処理を完了し、過去の焦点検出履歴に基づく連続性判定のための閾値の決定と、焦点検出処理による焦点検出結果の取得および、検出デフォーカス量に基づくデフォーカスマップの作成を実施している。そしてデフォーカスマップからは、主被写体の領域の抽出と、障害物がある場合には障害物の占めるデフォーカスマップ上の領域を特定することができ、以上の情報がS302の連続性判定処理以降に参照される。 By the above processing, the focus detection process of S301 is completed, the threshold value for the continuity determination based on the past focus detection history is determined, the focus detection result is acquired by the focus detection process, and the defocus is based on the detected defocus amount. We are creating a map. Then, from the defocus map, the area of the main subject can be extracted, and if there is an obstacle, the area on the defocus map occupied by the obstacle can be specified, and the above information is obtained after the continuity determination process of S302. Referenced to.

図5は、S302で行われる連続性判定処理の動作の一例を示す。S501において、マイクロコンピュータ124は、S405で検出した主測距点の検出デフォーカス量とS401で設定した連続性判定閾値の大きさの比較を行う。検出デフォーカス量がS401で決定した連続性判定閾値よりも小さければS502へ遷移し、連続性判定閾値以上であればS503に遷移する。 FIG. 5 shows an example of the operation of the continuity determination process performed in S302. In S501, the microcomputer 124 compares the detection defocus amount of the main focus measurement point detected in S405 with the magnitude of the continuity determination threshold value set in S401. If the detected defocus amount is smaller than the continuity determination threshold value determined in S401, the transition to S502 is performed, and if the detection defocus amount is equal to or greater than the continuity determination threshold value, the transition to S503 occurs.

S502では、マイクロコンピュータ124は、今回の焦点検出結果から引き続き被写体捕捉ができていると判定し、フラグFlagCatchFailを0に設定し、連続性判定処理を終了する。 In S502, the microcomputer 124 determines that the subject can be continuously captured from the current focus detection result, sets the flag FlagCatchFail to 0, and ends the continuity determination process.

S503では、マイクロコンピュータ124は、今回の焦点検出結果から被写体捕捉ができていないと判定し、フラグFlagCatchFailをインクリメントする。なお、フラグFlagCatchFailは、S502における処理の他に、カメラの起動時、サーボ撮影モードの設定時等の予め決められたタイミングで初期値0に設定される。 In S503, the microcomputer 124 determines from the current focus detection result that the subject cannot be captured, and increments the flag FlagCatchFail. In addition to the processing in S502, the flag FlagCatchFail is set to an initial value of 0 at a predetermined timing such as when the camera is started or when the servo shooting mode is set.

S504では、マイクロコンピュータ124は、フラグFlagCatchFailが1であるかどうか、すなわち今回初めて被写体補足に失敗したと判断されたかどうかを判定する。フラグFlagCatchFailが1であればS506へ遷移し、そうでなければS505に遷移する。 In S504, the microcomputer 124 determines whether or not the flag FlagCatchFail is 1, that is, whether or not it is determined that the subject capture has failed for the first time this time. If the flag FlagCatchFail is 1, the transition to S506 is performed, and if not, the transition to S505 is performed.

S506において、マイクロコンピュータ124は、経過観察タイマを設定したうえで、連続性判定処理を終了する。経過観察タイマは、被写体捕捉できたと判定されるまで待機する最大の時間を示す。経過観察タイマを設定することによって、経過観察タイマのカウント中であれば、被写体捕捉に失敗した被写体を再度検出できたときに、すぐに追従を再開することができる。 In S506, the microprocessor 124 sets the follow-up timer and then ends the continuity determination process. The follow-up timer indicates the maximum time to wait until it is determined that the subject has been captured. By setting the follow-up timer, if the follow-up timer is counting, the tracking can be resumed immediately when the subject that failed to capture the subject can be detected again.

一方、S505では、マイクロコンピュータ124は、経過観察タイマが満了しているかどうかを判定する。経過観察タイマが満了していればS507へ遷移し、そうでなければ連続性判定処理を終了する。 On the other hand, in S505, the microprocessor 124 determines whether or not the follow-up timer has expired. If the follow-up timer has expired, the transition to S507 is performed, otherwise the continuity determination process is terminated.

S507において、マイクロコンピュータ124は、過去の焦点検出履歴や追尾などのデータを消去し、フラグFlagCatchFailをクリアして連続性判定処理を終了する。このように、ユーザが意図的に被写体を変更したときなどは、経過観察タイマが満了すると、すぐに新しい被写体への追従を始めることができる。 In S507, the microcomputer 124 erases data such as the past focus detection history and tracking, clears the flag FlagCatchFail, and ends the continuity determination process. In this way, when the user intentionally changes the subject, the follow-up to the new subject can be started as soon as the follow-up timer expires.

図6は、S303で行われる動体予測処理の動作の一例を示す。S601では、S301における今回の焦点検出結果を過去の焦点検出履歴に加え、不揮発性メモリ131あるいはマイクロコンピュータ124内の記憶領域に格納する。焦点検出履歴に記録する情報は、今回の焦点検出時刻と像面位置である。なお、像面位置とは、検出デフォーカス量と現在のフォーカスレンズの位置から算出される、被写体にピントが合うフォーカスレンズの位置のことである。 FIG. 6 shows an example of the operation of the moving object prediction process performed in S303. In S601, the current focus detection result in S301 is stored in the non-volatile memory 131 or the storage area in the microcomputer 124 in addition to the past focus detection history. The information recorded in the focus detection history is the current focus detection time and the image plane position. The image plane position is the position of the focus lens that focuses on the subject, which is calculated from the detected defocus amount and the current position of the focus lens.

S602において、マイクロコンピュータ124は、動体予測を行う条件に当てはまるかどうかを判断する。条件としては、例えば複数回連続で同じ方向に像面位置が動いたかどうかの判定などが挙げられる。動体予測を行う条件に当てはまればS603へ遷移し、そうでなければS606に遷移する。 In S602, the microcomputer 124 determines whether or not the conditions for performing motion prediction are met. The condition includes, for example, determination of whether or not the image plane position has moved in the same direction a plurality of times in a row. If the conditions for motion prediction are met, the transition to S603 is performed, and if not, the transition to S606 is performed.

S603で、マイクロコンピュータ124は、過去の焦点検出履歴から、図9に示すような予測曲線を引くことで予測駆動量と焦点検出結果のばらつきを算出する。図9の縦軸は像面位置を、横軸は時間を示し、縦軸の像面位置が大きいほど距離が遠いことを示しており、図の履歴は撮影者(カメラ)に近付く被写体を追従している様子を示している。前述した通り、S203における焦点調節処理はサーボ撮影モードでは周期的に実施されており、T〜Tは各々、S203で行われる焦点調節処理の実施時刻を表している。予測駆動量は、例えば過去の像面位置とそれぞれの焦点検出時刻を用いた一括最小二乗法によって予測曲線を導出し、この曲線をもとに予測先時刻での像面位置を算出することで得られる。予測先時刻はSW2がONであれば撮影時の時刻を、そうでなければ今回の焦点検出時刻を示す。 In S603, the microcomputer 124 calculates the variation between the predicted drive amount and the focus detection result by drawing a prediction curve as shown in FIG. 9 from the past focus detection history. The vertical axis of FIG. 9 indicates the image plane position, the horizontal axis indicates time, and the larger the image plane position of the vertical axis, the farther the distance is. The history of the figure follows the subject approaching the photographer (camera). It shows how it is doing. As described above, the focus adjustment process in S203 is periodically executed in the servo shooting mode, and T 1 to T 5 each represent the execution time of the focus adjustment process performed in S203. For the predicted drive amount, for example, a prediction curve is derived by the collective minimum square method using the past image plane position and each focus detection time, and the image plane position at the prediction destination time is calculated based on this curve. can get. The predicted destination time indicates the time at the time of shooting if SW2 is ON, and indicates the current focus detection time otherwise.

S604では、マイクロコンピュータ124は、S603で算出した焦点検出結果のばらつきを踏まえて、最終的に予測フォーカス駆動を行うかどうかの判定を行う。具体的には、ばらつきが一定値以上であれば、予測を信用できないと判断し予測フォーカス駆動を行わず、ばらつきが一定値未満であれば、予測を信用していいと判断し予測フォーカス駆動を行う。予測フォーカス駆動を行うと判断した場合S605へ遷移し、そうでなければS606に遷移する。 In S604, the microcomputer 124 finally determines whether or not to perform the predictive focus drive based on the variation in the focus detection result calculated in S603. Specifically, if the variation is more than a certain value, it is judged that the prediction cannot be trusted and the prediction focus drive is not performed. If the variation is less than a certain value, it is judged that the prediction can be trusted and the prediction focus drive is performed. .. If it is determined that the predictive focus drive is to be performed, the transition to S605 is performed, otherwise the transition to S606 is performed.

予測フォーカス駆動とは、図9にて説明した予測曲線に基づき現在の像面位置L3から将来のピントを合わせたい時刻における像面位置までレンズを駆動させる制御である。図9の黒丸は検出デフォーカス量から求めた像面位置を、白丸は予測する像面位置を示す。例えば図9のTの時刻で検出したデフォーカス量がxであったとする。ここでレンズ駆動してTの時点でピントを合わせることを狙う場合には、デフォーカス量yに相当するレンズ駆動を要求することとなる。このデフォーカス量yを算出するには、過去の焦点検出結果から近似曲線を引き、これを予測曲線として、Tでの像面位置を予測する必要がある。このように、Tで焦点検出を行って、Tでの合焦を狙うため、デフォーカス量yだけフォーカス駆動を行う場合のレンズ駆動を、予測フォーカス駆動という。一方、予測フォーカス駆動を行わない場合、すなわち過去の焦点検出履歴から予測を行わない、もしくは予測結果を利用しない場合、フォーカス駆動量はデフォーカス量x、すなわち検出デフォーカス量となる。 The predictive focus drive is a control for driving the lens from the current image plane position L3 to the image plane position at the time when the future focus is desired based on the prediction curve described with reference to FIG. The black circles in FIG. 9 indicate the image plane position obtained from the detected defocus amount, and the white circles indicate the predicted image plane position. For example defocus amount detected at the time of T 4 in FIG. 9 is assumed to be x. Here, when the lens drive to aiming adjust the focus at the time of T 5 is a request the lens drive corresponding to the defocus amount y. To calculate the defocus amount y is to draw approximate curve from the focus detection result in the past, this as prediction curve, it is necessary to predict the image plane position at T 5. In this way, in order to detect the focus at T 4 and aim for focusing at T 5 , the lens drive when the focus drive is performed by the defocus amount y is called the predictive focus drive. On the other hand, when the predictive focus drive is not performed, that is, when the prediction is not performed from the past focus detection history or the prediction result is not used, the focus drive amount is the defocus amount x, that is, the detected defocus amount.

S605では、マイクロコンピュータ124は、フォーカス駆動量を予測駆動量に設定し、動体予測処理を終了する。一方、S606では、マイクロコンピュータ124は、フォーカス駆動量を検出デフォーカス量に設定し、動体予測処理を終了する。 In S605, the microcomputer 124 sets the focus drive amount to the predicted drive amount and ends the moving object prediction process. On the other hand, in S606, the microcomputer 124 sets the focus drive amount to the detection defocus amount and ends the moving object prediction process.

次に図7を参照して、S401で行われる連続性判定閾値設定処理の動作の一例を示す。連続性判定閾値とは、引き続き被写体捕捉ができているかを判定するための閾値のことであり、上述したS501における比較処理で用いられる。上述した様に、検出デフォーカス量が連続性判定閾値よりも大きい値であれば被写体捕捉に失敗しており、そうでなければ被写体捕捉に成功していると判定する。 Next, with reference to FIG. 7, an example of the operation of the continuity determination threshold setting process performed in S401 is shown. The continuity determination threshold value is a threshold value for determining whether or not the subject can be continuously captured, and is used in the comparison process in S501 described above. As described above, if the detected defocus amount is larger than the continuity determination threshold value, it is determined that the subject capture has failed, and if not, it is determined that the subject capture is successful.

S701において、マイクロコンピュータ124は、前回の焦点検出時に距離測定回路142で計測した被写体距離情報を、レンズ内マイクロコンピュータ141、レンズ通信回路103を介して受信することで、現在捕捉中の被写体がカメラに対して一定以上の距離であるかどうかを判定する。被写体がカメラに対して一定以上の距離であればS702へ遷移し、そうでなければS703に遷移する。 In S701, the microcomputer 124 receives the subject distance information measured by the distance measuring circuit 142 at the time of the previous focus detection via the in-lens microcomputer 141 and the lens communication circuit 103, so that the subject currently being captured is a camera. It is determined whether or not the distance is equal to or greater than a certain distance. If the subject is at a certain distance or more from the camera, the transition to S702 is performed, and if not, the transition to S703 is performed.

S702で、マイクロコンピュータ124は、連続性判定閾値を第一の閾値に設定し、連続性判定閾値設定処理を終了する。 In S702, the microcomputer 124 sets the continuity determination threshold value to the first threshold value and ends the continuity determination threshold value setting process.

一方、S703において、マイクロコンピュータ124は、被写体をどれだけ捕捉しやすい条件であるかを示す、被写体捕捉難易度Dを算出する。本実施形態では、被写体捕捉難易度を表す情報(難易度情報)として、前回の焦点検出時にS405で得られた被写体領域の画角内におけるサイズ、S406で得られた障害物の有無、動き検出回路140で検出した角速度情報により得られるカメラの振れ情報の3つを用いる。これらの情報に基づいて、被写体捕捉難易度Dを以下の式(1)により導出する。

Figure 2021071656
は、検出した被写体領域よりも至近側の合焦位置を示すデフォーカス量が検出された測距点の数を示す。Oは、Oの算出のために参照する点数を示し、この最大値は画角全体の測距点の数である。Jは、動き検出回路140で検出したカメラ振れ量の絶対値を示す。Jは、カメラ振れ量Jの許容最大値を示す。Sは、主測距点と近いデフォーカス量が検出された測距点の数を示す。Sは、Sの算出のために参照する点数を示し、この最大値は画角全体の測距点の数である。Sは、被写体サイズ許容最小量を示し、測距点数で表わされる。 On the other hand, in S703, the microcomputer 124 calculates the subject capture difficulty level D, which indicates how easy it is to capture the subject. In the present embodiment, as information indicating the difficulty level of capturing the subject (difficulty level information), the size within the angle of view of the subject area obtained in S405 at the time of the previous focus detection, the presence / absence of an obstacle obtained in S406, and the motion detection. Three types of camera shake information obtained from the angular velocity information detected by the circuit 140 are used. Based on this information, the subject capture difficulty level D is derived by the following equation (1).
Figure 2021071656
O D is a defocus amount indicating an in-focus position of the near side than the detected object area indicates the number of detected distance measuring point. O A indicates the number reference for the calculation of O D, the maximum value is the number of distance measuring points for the entire field angle. JD indicates the absolute value of the camera shake amount detected by the motion detection circuit 140. J P denotes an allowable maximum value of the camera shake amount J D. S C denotes the number of the main detecting point is close defocus amount is detected distance measuring point. S A denotes the number reference for the calculation of S C, this maximum value is the number of distance measuring points for the entire field angle. S P denotes the subject size allowable minimum amount, represented by the distance-measuring points.

上記の被写体捕捉難易度Dは0以上1以下の値であり、値が大きいほど被写体を捕捉しやすく、小さいほど被写体を捕捉しにくいことを表す。 The subject capture difficulty level D is a value of 0 or more and 1 or less, and the larger the value, the easier it is to capture the subject, and the smaller the value, the more difficult it is to capture the subject.

S703で算出した被写体捕捉難易度に基づいて、マイクロコンピュータ124は、S704で被写体を捕捉しやすいかどうかを判断する。一例として、D≧0.5であった場合、被写体が捕捉し易く、そうでない場合は、被写体が捕捉しにくいと判断する。D≧0.5であった場合、すなわち被写体を捕捉しやすいと判断した場合、S705へ遷移し、そうでなければS706に遷移する。 Based on the subject capture difficulty calculated in S703, the microcomputer 124 determines whether or not it is easy to capture the subject in S704. As an example, if D ≧ 0.5, it is determined that the subject is easy to capture, and if not, it is determined that the subject is difficult to capture. If D ≧ 0.5, that is, if it is determined that the subject is easy to capture, the transition to S705 is performed, otherwise the transition to S706 is performed.

S705で、マイクロコンピュータ124は、連続性判定閾値を、第一の閾値よりも大きい第二の閾値に設定し、連続性判定閾値設定処理を終了する。この第二の閾値は、被写体距離によって可変であって、至近であるほど大きくなる。 In S705, the microcomputer 124 sets the continuity determination threshold value to a second threshold value larger than the first threshold value, and ends the continuity determination threshold value setting process. This second threshold value is variable depending on the subject distance, and becomes larger as it gets closer.

S706で、マイクロコンピュータ124は、連続性判定閾値を第二の閾値よりも小さい第三の閾値に設定する。S704で、現在の撮影状況では被写体を捕捉しにくいと判定されているので、連続性判定閾値を第二の閾値に設定してしまうと、引き続き被写体捕捉ができていなくても、それを現在捕捉中の被写体の動きの変化だと判断してしまう可能性がある。そこで、S706では第二の閾値よりも小さく、被写体補足難易度Dに応じて段階的に値を取れる、第三の閾値を採用する。一例として、同じ被写体距離での第二の閾値をD、第一の閾値をDとすると、第三の閾値D
=(D−D)・2D+D …(2)
と表現することができる。このようにすることで、第三の閾値Dは被写体補足難易度に応じて段階的に第一の閾値Dと第二の閾値Dの間の値を取ることができる。以上のように連続性判定閾値を第三の閾値と設定し、連続性判定閾値設定処理を終了する。
In S706, the microcomputer 124 sets the continuity determination threshold value to a third threshold value smaller than the second threshold value. In S704, it is determined that it is difficult to capture the subject in the current shooting situation. Therefore, if the continuity determination threshold is set to the second threshold, the subject is currently captured even if the subject cannot be captured continuously. There is a possibility that it will be judged as a change in the movement of the subject inside. Therefore, in S706, a third threshold value is adopted, which is smaller than the second threshold value and can take a value stepwise according to the subject capture difficulty level D. As an example, if the second threshold value is D 2 and the first threshold value is D 1 at the same subject distance, the third threshold value D 3 is D 3 = (D 2- D 1 ), 2D + D 1 ... (2).
Can be expressed as. By doing so, the third threshold value D 3 can take a value between the first threshold value D 1 and the second threshold value D 2 step by step according to the difficulty level of capturing the subject. As described above, the continuity determination threshold value is set as the third threshold value, and the continuity determination threshold value setting process is completed.

次に、第1の実施形態で得られる効果について、図10及び図11を用いて説明する
図10は、カメラから比較的近い場所に静止していた被写体がカメラから遠ざかる方向に急加速したときの、像面位置の変化を示す。横軸は時刻、縦軸は像面位置を示す。縦軸が大きいほど被写体距離は大きくなる。点t、t、tのように、被写体が静止している間は、像面位置が変化しない。しかし、被写体が急加速すると、点tのようにこれまで静止していた過去の焦点検出履歴の傾向からでは予測できない大きなデフォーカス量変化が観測される。このように、静止した状態から急速に動き出す被写体の追従は、被写体の動きの特性がこれまでの焦点検出履歴と大きく異なっているために、次の瞬間に大きな動きをすると予想するのが難しい。さらに撮影者(カメラ)と被写体の距離が近いほど、被写体が動いた瞬間の像面移動量が非常に大きく観測される。そのため、近景で静止した状態から急速に動き出す被写体の追従は特に測距履歴の連続性を観測することが難しくなってしまう。
Next, the effect obtained in the first embodiment will be described with reference to FIGS. 10 and 11. FIG. 10 shows when a subject stationary at a place relatively close to the camera suddenly accelerates in a direction away from the camera. The change in the image plane position is shown. The horizontal axis shows the time and the vertical axis shows the image plane position. The larger the vertical axis, the larger the subject distance. As shown at points t 1 , t 2 , and t 3 , the image plane position does not change while the subject is stationary. However, when the object is rapidly accelerated, a large defocus amount vagaries than from the tendency of the past focus detection history which has been still far as the point t 5 is observed. As described above, it is difficult to predict that the tracking of a subject that rapidly starts moving from a stationary state will make a large movement at the next moment because the characteristics of the movement of the subject are significantly different from the focus detection history so far. Further, the closer the photographer (camera) is to the subject, the larger the amount of image plane movement at the moment when the subject moves is observed. Therefore, it becomes difficult to observe the continuity of the distance measurement history, especially when following a subject that rapidly moves from a stationary state in a near view.

そこで本実施形態では、被写体がカメラから比較的近い場所にあるときに連続性判定閾値を大きくすることで、このような急激な像面位置変化に対応できるようになる。 Therefore, in the present embodiment, by increasing the continuity determination threshold value when the subject is relatively close to the camera, it becomes possible to cope with such a sudden change in the image plane position.

一方、図11のように、被写体の手前に障害物がある場合(図11(a))、被写体が小さい場合(図11(b))、カメラが振れている場合等の被写体を捉え続けにくい状況で、単純に被写体までの距離に応じた対策を行うと、追従対象ではない被写体を捉えてしまう可能性がある。そこで、本願発明では、被写体を捉え続けにくい状況である場合を判定し、連続性判定閾値を抑えることで、追従対象ではない被写体を捕捉対象として誤検知しないようにする。 On the other hand, as shown in FIG. 11, it is difficult to keep capturing the subject when there is an obstacle in front of the subject (FIG. 11 (a)), when the subject is small (FIG. 11 (b)), or when the camera is shaking. In a situation, if measures are simply taken according to the distance to the subject, there is a possibility that the subject that is not the tracking target will be captured. Therefore, in the present invention, it is determined that it is difficult to keep capturing the subject, and the continuity determination threshold value is suppressed so that a subject that is not the tracking target is not erroneously detected as a capturing target.

以上説明した通り、本実施形態では、今回の焦点検出結果が現在捕捉中の被写体を引き続き捕捉できているかどうか判定するための閾値を近景において大きな値に設定する。これは、撮影者(カメラ)と被写体の距離が近いほど、被写体の動きに対し検出されるデフォーカス量変化が大きくなるためである。更に被写体の捕捉しにくさを評価し、この評価結果に応じて今回の焦点検出結果が現在捕捉中の被写体を引き続き捕捉できているかどうか判定するための閾値を動的に変化させた。具体的には、前回焦点検出時点でのデフォーカス情報より得られる対象被写体の画角内のサイズ、障害物の有無、角速度情報により得られるカメラの振れ情報の3つで評価した。これによって、近景で急に動き出す被写体に対しても追従を可能とした。また、所望でない被写体を捕捉対象として誤検知しやすい環境では、近景での被写体追従性を保持しつつ誤検知を抑えることを実現可能とした。 As described above, in the present embodiment, the threshold value for determining whether or not the subject currently being captured can be continuously captured by the current focus detection result is set to a large value in the near view. This is because the closer the photographer (camera) is to the subject, the larger the change in the amount of defocus detected with respect to the movement of the subject. Further, the difficulty of capturing the subject was evaluated, and the threshold value for determining whether or not the current focus detection result could continue to capture the subject currently being captured was dynamically changed according to the evaluation result. Specifically, the evaluation was made based on three factors: the size within the angle of view of the target subject obtained from the defocus information at the time of the previous focus detection, the presence / absence of obstacles, and the camera shake information obtained from the angular velocity information. This makes it possible to follow a subject that suddenly starts moving in a near view. Further, in an environment in which an undesired subject is targeted for erroneous detection and erroneous detection is likely to occur, it is possible to suppress erroneous detection while maintaining subject tracking in a near view.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第1の実施形態では、第三の閾値が被写体の追従し易さによって変化する数値として設定される例を説明した。これに対し、第2の実施形態では、第三の閾値が第一の閾値と一致する、すなわち被写体を追従しにくい条件下では、被写体が前回と同一であると認めるデフォーカス量の差を大きくしない例について説明する。
<Second embodiment>
Next, a second embodiment of the present invention will be described. In the first embodiment, an example in which the third threshold value is set as a numerical value that changes depending on the ease of following the subject has been described. On the other hand, in the second embodiment, under the condition that the third threshold value matches the first threshold value, that is, it is difficult to follow the subject, the difference in the amount of defocus that the subject is recognized as the same as the previous time is large. An example of not doing so will be described.

以下、図12を参照して、本発明の第2の実施形態における連続性判定閾値設定処理について説明する。なお、第2の実施形態は、図4のS401における処理が第1の実施形態と異なり、図12に示す処理が図7に示す処理の代わりに実行される。それ以外は第1の実施形態と同様であるため、説明を省略する。 Hereinafter, the continuity determination threshold setting process according to the second embodiment of the present invention will be described with reference to FIG. In the second embodiment, the process in S401 of FIG. 4 is different from that of the first embodiment, and the process shown in FIG. 12 is executed instead of the process shown in FIG. 7. Other than that, it is the same as that of the first embodiment, so the description thereof will be omitted.

図12は、第2の実施形態においてS401で行われる連続性判定閾値設定処理の動作の一例を示す図である。 FIG. 12 is a diagram showing an example of the operation of the continuity determination threshold setting process performed in S401 in the second embodiment.

S1201では、マイクロコンピュータ124は、距離測定回路142により計測した被写体距離情報を、レンズ内マイクロコンピュータ141、レンズ通信回路103を介して受信することで、現在捕捉中の被写体がカメラに対して一定以上の距離であるかどうかを判定する。被写体が一定以上の距離であればS1202へ遷移し、そうでなければS1204に遷移する。 In S1201, the microcomputer 124 receives the subject distance information measured by the distance measuring circuit 142 via the in-lens microcomputer 141 and the lens communication circuit 103, so that the subject currently being captured is above a certain level with respect to the camera. Determine if the distance is. If the subject is at a certain distance or more, the transition to S1202 is performed, and if not, the transition to S1204 is performed.

S1202では、マイクロコンピュータ124は、連続性判定閾値を第一の閾値に設定し、連続性判定閾値設定処理を終了する。 In S1202, the microcomputer 124 sets the continuity determination threshold value to the first threshold value and ends the continuity determination threshold value setting process.

一方S1204において、マイクロコンピュータ124は、被写体を捕捉しにくいかどうかを判断する。ここでは、以下の3条件のいずれかに該当するかどうかを判定する。
・デフォーカス情報より得られる対象被写体の画角内のサイズが一定値より小さい
・障害物がある(画角内に所望の被写体の手前に写っている被写体がある)
・角速度情報により得られるカメラの振れ量が一定値より大きい
上述したいずれかの条件に該当する場合は、被写体を捕捉しにくく、そうでない場合は被写体を捕捉し易いと判断する。被写体を捕捉し易いと判断した場合はS1206へ遷移し、そうでなければS1202に遷移する。
On the other hand, in S1204, the microcomputer 124 determines whether or not it is difficult to capture the subject. Here, it is determined whether or not any of the following three conditions is met.
-The size within the angle of view of the target subject obtained from the defocus information is smaller than a certain value.-There is an obstacle (there is a subject in front of the desired subject within the angle of view).
-If any of the above conditions is met in which the amount of camera shake obtained from the angular velocity information is greater than a certain value, it is judged that it is difficult to capture the subject, and if not, it is easy to capture the subject. If it is determined that the subject is easy to capture, the transition to S1206 is performed, otherwise the transition to S1202 is performed.

S1206で、マイクロコンピュータ124は、連続性判定閾値を第一の閾値よりも大きい第二の閾値に設定し、連続性判定閾値設定処理を終了する。この第二の閾値は、被写体距離に応じて可変であって、至近であるほど大きくなる。 In S1206, the microcomputer 124 sets the continuity determination threshold value to a second threshold value larger than the first threshold value, and ends the continuity determination threshold value setting process. This second threshold value is variable according to the subject distance, and becomes larger as it gets closer.

以上説明した通り、第2の実施形態では、被写体を追い続けられないことが危惧される場合には、デフォーカス量の差異が大きく出たときに同一被写体と認めにくくなるようにした。これにより、第1の実施形態に比べ、より連続性判定閾値を拡張しにくく設定することができ、特に誤った被写体を捕捉することを避けたい場合に適当である。また、演算量を減らすことができるため、全体のパフォーマンスに大きな影響を与えることがない。 As described above, in the second embodiment, when there is a concern that the subject cannot be followed, it is difficult to recognize the same subject when the difference in the defocus amount is large. As a result, the continuity determination threshold value can be set more difficult to expand than in the first embodiment, and is particularly suitable when it is desired to avoid capturing an erroneous subject. Moreover, since the amount of calculation can be reduced, the overall performance is not significantly affected.

<第3の実施形態>
次に、本発明の第3の実施形態について説明する。第1の実施形態では、被写体の追従しにくさを評価する条件として、デフォーカス情報より得られる対象被写体の画角内のサイズ、障害物の有無、角速度情報により得られるカメラの振れ情報の3つを用いた。
<Third embodiment>
Next, a third embodiment of the present invention will be described. In the first embodiment, as conditions for evaluating the difficulty of following the subject, the size within the angle of view of the target subject obtained from the defocus information, the presence / absence of obstacles, and the camera shake information obtained from the angular velocity information 3 Was used.

第3の実施形態では、カメラ姿勢とカメラ振れ情報から得られるパン・チルト情報あるいはxy平面動きベクトル、被写界深度、ユーザ設定の被写体の動き特性、画像処理により取得される被写体サイズ、顔や動物などの被写体の個数、の情報(難易度情報)を用いて、被写体の補足しにくさを表現する。 In the third embodiment, pan / tilt information or xy plane motion vector obtained from camera posture and camera shake information, depth of field, user-set subject motion characteristics, subject size acquired by image processing, face, and the like. The difficulty of capturing the subject is expressed by using the information (difficulty level information) of the number of subjects such as animals.

以下、図13と被写体捕捉難易度算出方法の説明によって、本発明の第3の実施形態における被写体捕捉難易度の算出方法の違いについて説明する。なお、第3の実施形態では、第1の実施形態で説明した図4の処理の代わりに、図13に示す処理を行うが、それ以外は第1の実施形態と同様であるため、説明を省略する。また、図13において、図4における処理と同じ処理には同じ参照番号を付し、説明を省略する。 Hereinafter, the difference in the method of calculating the difficulty of capturing a subject in the third embodiment of the present invention will be described by referring to FIG. 13 and the method of calculating the difficulty of capturing a subject. In the third embodiment, the process shown in FIG. 13 is performed instead of the process of FIG. 4 described in the first embodiment, but other than that, the process is the same as that of the first embodiment. Omit. Further, in FIG. 13, the same processing as that in FIG. 4 is assigned the same reference number, and the description thereof will be omitted.

図13に示す焦点検出処理において、S1304で、マイクロコンピュータ124は、映像信号処理回路117で取得した画像から、人の顔・身体や動物といった、画像内における被写体の位置と数を抽出する。 In the focus detection process shown in FIG. 13, in S1304, the microcomputer 124 extracts the position and number of subjects in the image, such as a human face / body or an animal, from the image acquired by the video signal processing circuit 117.

S1305で、マイクロコンピュータ124は、S1304で抽出した被写体の中から、主被写体を選択し、画面内の被写体サイズを算出する。主被写体としては、ユーザが予め設定した優先すべき被写体や、より大きく写っている被写体を優先的に選択する。 In S1305, the microcomputer 124 selects the main subject from the subjects extracted in S1304 and calculates the subject size in the screen. As the main subject, a subject to be prioritized preset by the user or a subject appearing larger is preferentially selected.

S1306で、マイクロコンピュータ124は、S1305で抽出した主被写体の領域と、S1303で作成したデフォーカスマップを用いて、主測距点を決定する。 In S1306, the microcomputer 124 determines the main focusing point using the area of the main subject extracted in S1305 and the defocus map created in S1303.

次に、図7のS703で行われる被写体捕捉難易度の算出方法について、第1の実施形態との違いを説明する。なお、被写体捕捉難易度の算出方法は第1の実施形態と異なるが、その他の処理は図7の処理と同様であるため、説明を省略する。 Next, the method of calculating the subject capture difficulty level performed in S703 of FIG. 7 will be described as being different from the first embodiment. Although the method of calculating the subject capture difficulty is different from that of the first embodiment, the other processes are the same as those of FIG. 7, and thus the description thereof will be omitted.

本実施形態では、上述したように、被写体捕捉難易度の算出に、xy平面動きベクトルあるいはパン・チルト情報、被写界深度、被写体の動き特性、被写体サイズ、被写体の個数を利用する。xy平面動きベクトルは、前回の焦点検出時にS1305で検出した主被写体の、その前の焦点検出時における画面上での位置の違いを表現したものである。パン・チルト情報は、動き検出回路140から得られたカメラ姿勢とカメラ振れ情報から算出される。被写界深度は、駆動回路105で駆動させた絞り量から算出され、被写体の動き特性は、図14に示す選択画面にて予めユーザが設定する。被写体サイズは、S1305における画像処理により取得され、顔や動物などの被写体の個数は、S1304で検出されたものを用いる。なお、被写体の動き特性を「速い」に設定すると連続性判定閾値を大きく、「遅い」に設定すると連続性判定閾値を小さく設定できるようにする。このようにすることで、動きが速いと想定される被写体にはデフォーカス量の増減に対応しやすく、動きが遅いと想定される被写体には測距ノイズに左右されにくくすることができる。 In the present embodiment, as described above, the xy plane motion vector or pan / tilt information, depth of field, subject motion characteristics, subject size, and number of subjects are used to calculate the subject capture difficulty. The xy plane motion vector expresses the difference in the position of the main subject detected in S1305 at the time of the previous focus detection on the screen at the time of the previous focus detection. The pan / tilt information is calculated from the camera posture and camera shake information obtained from the motion detection circuit 140. The depth of field is calculated from the amount of aperture driven by the drive circuit 105, and the movement characteristics of the subject are set in advance by the user on the selection screen shown in FIG. The subject size is acquired by the image processing in S1305, and the number of subjects such as faces and animals used is those detected in S1304. When the movement characteristic of the subject is set to "fast", the continuity determination threshold value can be set large, and when it is set to "slow", the continuity determination threshold value can be set small. By doing so, it is possible to easily respond to an increase or decrease in the defocus amount for a subject that is expected to move fast, and to make it less susceptible to distance measurement noise for a subject that is expected to move slowly.

本実施形態における被写体捕捉難易度Dは、以下の式(3)により表すことができる。

Figure 2021071656
式(3)において、Vは、観測したxy平面動きベクトル(画面上での被写体の動きベクトル)を示す。Mは、被写体を安定的に追えていると考えられる画面上での被写体の動き量を示す。Eは、許容できる最小の被写界深度を示す。Eは、今回のカメラ設定での被写界深度を示す。Eは、Eが取りうる最大値を示す。Iは、被写体を安定的に追える限界の最小被写体サイズを示す。Iは、画像処理によって算出した被写体のサイズを示す。Iは、画角のサイズを示す。Fは、被写体の動き特性設定値の全段数を示す。Fは、ユーザの設定した被写体の動き特性設定値を示す。Nは顔や動物などの被写体の個数を示す。なお、被写体を検出できなかったときであっても、Nの最小値は1とする。 The subject capture difficulty level D in this embodiment can be expressed by the following equation (3).
Figure 2021071656
In the equation (3), V D indicates the observed xy plane motion vector (motion vector of the subject on the screen). M V indicates the amount of motion of the object on the screen that are considered to Chase the subject stably. E m is the minimum depth of field acceptable. E D indicates the depth of field at the current camera settings. E M indicates the maximum value E D can take. I m represents the minimum object size limit able to track an object in a stable manner. ID indicates the size of the subject calculated by image processing. I A indicates the size of the angle of view. F N indicates the total number of steps of the motion characteristic set value of the subject. F U represents a motion characteristic setting value of the subject set by the user. N indicates the number of subjects such as faces and animals. Even when the subject cannot be detected, the minimum value of N is set to 1.

また、被写体が背景と同系色であるなど、被写体を捕捉しにくいことでxy平面動きベクトルが観測できないことがある。このとき、式(3)には、xy平面動きベクトルVの代わりに、観測したカメラのパン・チルトベクトルPを用いる。更に、被写体を安定的に追えていると考えられる画面上での被写体の動き量Mの代わりに、被写体を安定的に追えると考えられるカメラの最大移動量Mを用いる。 In addition, the xy plane motion vector may not be observable because it is difficult to capture the subject, such as when the subject has a similar color to the background. In this case, the equation (3), instead of the xy plane motion vector V D, using the pan-tilt vector P D of the observed camera. Further, instead of the motion amount M V of the object on the screen that are considered to Chase the subject stably, using the maximum movement amount M P of the camera is considered able to track an object in a stable manner.

以上説明した通り第3の実施形態によれば、第1の実施形態とは異なる観点で被写体の捉えにくさを表現し、評価結果に応じて今回の焦点検出結果が現在捕捉中の被写体を引き続き捕捉できているか判定するための閾値を動的に変化させることができる。具体的には、カメラが揺れていても被写体が追従できていると推測できる状況ならば、被写体連続性判定閾値を小さくしないでよい。また、画像にどれだけの影響が出るかを考慮しながら閾値を設定することができる。さらに、他に画面上に見える別の被写体へのフォーカスの移り易さや、ユーザ設定の被写体の動き特性も加味した被写体連続性判定閾値とすることができる。 As described above, according to the third embodiment, the difficulty of capturing the subject is expressed from a viewpoint different from that of the first embodiment, and the current focus detection result continues to capture the subject currently being captured according to the evaluation result. The threshold value for determining whether or not the image can be captured can be dynamically changed. Specifically, if it can be estimated that the subject can follow even if the camera is shaking, the subject continuity determination threshold value may not be reduced. In addition, the threshold value can be set while considering how much the image is affected. Further, it is possible to set the subject continuity determination threshold value in consideration of the ease of shifting the focus to another subject visible on the screen and the movement characteristics of the subject set by the user.

<変形例>
上述した第1乃至第3の実施形態では、カメラが焦点検出専用の焦点検出回路110を有する場合について説明した。
<Modification example>
In the first to third embodiments described above, the case where the camera has a focus detection circuit 110 dedicated to focus detection has been described.

一方、近年では、1つのマイクロレンズに対して複数の光電変換部が設けられた撮像素子により瞳分割信号を取得し、得られた複数の瞳分割信号の位相差に基づいて焦点検出を行う、いわゆる像面位相差AFが行われている。 On the other hand, in recent years, a pupil division signal is acquired by an image sensor provided with a plurality of photoelectric conversion units for one microlens, and focus detection is performed based on the phase difference of the obtained plurality of pupil division signals. So-called image plane phase difference AF is performed.

図15は、像面位相差AFを行うことができる撮像素子を構成する画素配列を示す図であり、撮像素子113として用いることができる。 FIG. 15 is a diagram showing a pixel arrangement constituting an image sensor capable of performing image plane phase difference AF, and can be used as the image sensor 113.

図15に示す様に、マイクロレンズアレイを形成する各マイクロレンズ201に対して、複数の光電変換部201A,201Bが対応するように配置されている。図中(0,0)、(1,0)、(0,1)等で示される各領域は、撮像素子における単位画素202を示し、各単位画素202は、1つのマイクロレンズ201と、複数の光電変換部201A,201Bとから構成される。なお、本実施形態では単位画素202には2つの光電変換部201A,201BがX軸方向に並べられた場合を示しているが、Y軸方向に並べても、また、3つ以上の光電変換部を各マイクロレンズ201に対応するように構成しても良い。 As shown in FIG. 15, a plurality of photoelectric conversion units 201A and 201B are arranged so as to correspond to each microlens 201 forming the microlens array. Each region indicated by (0,0), (1,0), (0,1), etc. in the figure indicates a unit pixel 202 in the image sensor, and each unit pixel 202 includes one microlens 201 and a plurality of units. It is composed of photoelectric conversion units 201A and 201B. In the present embodiment, the unit pixel 202 shows a case where two photoelectric conversion units 201A and 201B are arranged in the X-axis direction, but even if they are arranged in the Y-axis direction, three or more photoelectric conversion units can be arranged. May be configured to correspond to each microlens 201.

このように構成された、X軸方向に並ぶ複数の単位画素202のうち、瞳分割された光電変換部201Aの焦点検出用信号群で構成した被写体像をA像、瞳分割された光電変換部201Bの焦点検出用信号群で構成した被写体像をB像とする。そして、A像とB像に対して相関演算を実施することで、像のずれ量(位相差)を検出する。さらに、像のずれ量に対して焦点位置と光学系の特性に応じて決まる変換係数を乗じることで、画面内の任意の被写体位置に対応した焦点位置を算出することができる。ここで算出された焦点位置情報を基に、撮影レンズ101に含まれるフォーカスレンズを制御することで、焦点状態を検出する撮像面位相差AFが可能となる。 Of the plurality of unit pixels 202 arranged in the X-axis direction, the subject image composed of the focus detection signal group of the pupil-divided photoelectric conversion unit 201A is the A image, and the pupil-divided photoelectric conversion unit is The subject image composed of the focus detection signal group of 201B is defined as the B image. Then, the amount of image shift (phase difference) is detected by performing a correlation calculation on the A image and the B image. Further, by multiplying the amount of image shift by a conversion coefficient determined according to the focal position and the characteristics of the optical system, the focal position corresponding to an arbitrary subject position on the screen can be calculated. By controlling the focus lens included in the photographing lens 101 based on the focus position information calculated here, the imaging surface phase difference AF for detecting the focal state becomes possible.

また、単位画素202毎に光電変換部201Aの信号と光電変換部201Bの信号を加算して出力することで、画像信号(A+B像)を得ることができる。 Further, an image signal (A + B image) can be obtained by adding and outputting the signal of the photoelectric conversion unit 201A and the signal of the photoelectric conversion unit 201B for each unit pixel 202.

上述した撮像素子を用いた場合にも、第1乃至第3の実施形態で説明した処理を実施することができると共に、焦点検出回路110を省略することができる。 Even when the above-mentioned image sensor is used, the processes described in the first to third embodiments can be performed, and the focus detection circuit 110 can be omitted.

<他の実施形態>
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device implement the program. It can also be realized by the process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

101:撮影レンズ、102:レンズ駆動回路、104:絞りユニット、105:絞り駆動回路、109:測光回路、110:焦点検出回路、113:撮像素子、117:映像信号処理回路、124:マイクロコンピュータ、125:操作部材、140:動き検出回路、141:レンズ内マイクロコンピュータ、142:距離測定回路 101: photographic lens, 102: lens drive circuit, 104: aperture unit, 105: aperture drive circuit, 109: photometric circuit, 110: focus detection circuit, 113: image pickup element, 117: video signal processing circuit, 124: microcomputer, 125: Operation member, 140: Motion detection circuit, 141: In-lens microcomputer, 142: Distance measurement circuit

Claims (13)

撮影光学系を介して入射した光を光電変換して得られた信号に基づいて、デフォーカス量を検出する焦点検出手段と、
前記焦点検出手段により繰り返し検出される前記デフォーカス量を記憶する記憶手段と、
前記記憶手段に記憶された第1のデフォーカス量と前記焦点検出手段により新たに検出された第2のデフォーカス量との差が閾値以上の場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定せず、前記差が前記閾値よりも小さい場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定する判定手段と、
前記閾値を設定する設定手段と、を有し、
前記設定手段は、前記第1のデフォーカス量に対応する被写体までの距離と、被写体の補足し易さを示す難易度情報とに基づいて、前記閾値を設定することを特徴とする撮像装置。
Focus detection means that detects the amount of defocus based on the signal obtained by photoelectric conversion of the light incident through the photographing optical system.
A storage means for storing the defocus amount repeatedly detected by the focus detection means, and a storage means.
When the difference between the first defocus amount stored in the storage means and the second defocus amount newly detected by the focus detection means is equal to or greater than the threshold value, the first and second defocus amounts Is not determined to correspond to the same subject, and when the difference is smaller than the threshold value, the determination means for determining that the first and second defocus amounts correspond to the same subject, and
It has a setting means for setting the threshold value and
The setting means is an imaging device that sets the threshold value based on the distance to the subject corresponding to the first defocus amount and the difficulty level information indicating the ease of capturing the subject.
前記距離が、予め決められた距離よりも長い場合に、長くない場合よりも前記閾値を小さくすることを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein when the distance is longer than a predetermined distance, the threshold value is made smaller than when the distance is not long. 前記設定手段は、前記難易度情報が第1の難易度よりも高い第2の難易度を示す場合に、前記第1の難易度の場合よりも小さい閾値を設定することを特徴とすることを特徴とする請求項1または2に記載の撮像装置。 The setting means is characterized in that when the difficulty level information indicates a second difficulty level higher than the first difficulty level, a threshold value smaller than that of the first difficulty level is set. The imaging apparatus according to claim 1 or 2. 前記焦点検出手段により検出されたデフォーカス量に基づいて、画角内の被写体を検出する被写体検出手段を更に有し、
前記難易度情報は、前記被写体の大きさ、前記被写体より至近側の障害物の有無、カメラの振れ情報の内の少なくともいずれかを含み、
前記被写体の大きさが小さいほど難易度が高く、前記障害物がある場合により難易度が高く、カメラの振れが大きいほど難易度が高いことを特徴とする請求項3に記載の撮像装置。
Further, it has a subject detecting means for detecting a subject within the angle of view based on the defocus amount detected by the focus detecting means.
The difficulty level information includes at least one of the size of the subject, the presence / absence of an obstacle near the subject, and the camera shake information.
The imaging device according to claim 3, wherein the smaller the size of the subject, the higher the difficulty level, the higher the difficulty level when there is an obstacle, and the larger the camera shake, the higher the difficulty level.
前記焦点検出手段により検出されたデフォーカス量に基づいて、画角内の被写体を検出する被写体検出手段を更に有し、
前記難易度情報は、前記被写体の移動量、パン・チルト情報、被写界深度、被写体の動き特性、前記被写体の大きさ、前記被写体検出手段により検出された被写体の個数の内の少なくともいずれかを含み、
前記被写体の移動量が大きいほど難易度が高く、パン・チルトの大きさが大きいほど難易度が高く、被写界深度が大きいほど難易度が高く、前記被写体の動き特性が大きいほど難易度が高く、前記被写体が大きいほど難易度が高く、前記検出された被写体の個数が少ないほど難易度が高いことを特徴とする請求項3に記載の撮像装置。
Further, it has a subject detecting means for detecting a subject within the angle of view based on the defocus amount detected by the focus detecting means.
The difficulty level information is at least one of the movement amount of the subject, pan / tilt information, depth of field, movement characteristics of the subject, the size of the subject, and the number of subjects detected by the subject detecting means. Including
The larger the movement amount of the subject, the higher the difficulty level, the larger the pan / tilt size, the higher the difficulty level, the larger the depth of field, the higher the difficulty level, and the larger the movement characteristic of the subject, the higher the difficulty level. The imaging apparatus according to claim 3, wherein the higher the subject, the higher the difficulty level, and the smaller the number of detected subjects, the higher the difficulty level.
前記設定手段は、前記難易度情報が、予め決められた条件に該当しない場合に、前記条件に該当する場合よりも大きい閾値を設定することを特徴とすることを特徴とする請求項1または2に記載の撮像装置。 Claim 1 or 2 is characterized in that, when the difficulty level information does not correspond to a predetermined condition, the setting means sets a threshold value larger than that when the condition is satisfied. The imaging apparatus according to the above. 前記焦点検出手段により検出されたデフォーカス量に基づいて、画角内の被写体を検出する被写体検出手段を更に有し、
前記条件は、前記被写体の大きさが予め決められた値よりも小さいこと、前記被写体より至近側に障害物があること、焦点検出装置の振れ量が予め決められた振れ量よりも大きいこと、の少なくともいずれかを含むことを特徴とする請求項6に記載の撮像装置。
Further, it has a subject detecting means for detecting a subject within the angle of view based on the defocus amount detected by the focus detecting means.
The conditions are that the size of the subject is smaller than a predetermined value, that there is an obstacle on the side closer to the subject, and that the amount of runout of the focus detection device is larger than the amount of runout determined in advance. The imaging apparatus according to claim 6, further comprising at least one of the above.
デフォーカス量に基づいて、前記撮影光学系に含まれるフォーカスレンズを駆動するように制御する制御手段を更に有し、
前記判定手段が、前記第1及び第2のデフォーカス量が同じ被写体に対応していると判定しなかった場合に、前記制御手段は、前記焦点検出手段により新たに検出されたデフォーカス量に基づく前記フォーカスレンズの駆動を行わないように制御することを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
Further, it has a control means for controlling to drive the focus lens included in the photographing optical system based on the defocus amount.
When the determination means does not determine that the first and second defocus amounts correspond to the same subject, the control means sets the defocus amount newly detected by the focus detection means. The imaging apparatus according to any one of claims 1 to 7, wherein the focus lens is controlled so as not to be driven.
前記撮影光学系を含むことを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 8, further comprising the photographing optical system. 前記撮影光学系が着脱可能であることを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 8, wherein the photographing optical system is removable. 焦点検出手段が、撮影光学系を介して入射した光を光電変換して得られた信号に基づいて、デフォーカス量を検出する焦点検出工程と、
記憶手段が、前記焦点検出手段により繰り返し検出される前記デフォーカス量を記憶する記憶工程と、
判定手段が、前記記憶手段に記憶された第1のデフォーカス量と前記焦点検出工程で新たに検出された第2のデフォーカス量との差が閾値以上の場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定せず、前記差が前記閾値よりも小さい場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定する判定工程と、
設定手段が、前記閾値を設定する設定工程と、を有し、
前記設定工程では、前記第1のデフォーカス量に対応する被写体までの距離と、被写体の補足しにくさを示す難易度情報とに基づいて、前記閾値を設定することを特徴とする撮像装置の制御方法。
A focus detection step in which the focus detection means detects the amount of defocus based on a signal obtained by photoelectrically converting the light incident through the photographing optical system.
A storage step in which the storage means stores the defocus amount repeatedly detected by the focus detection means.
When the difference between the first defocus amount stored in the storage means and the second defocus amount newly detected in the focus detection step is equal to or greater than the threshold value, the determination means first and second. Defocus amount is not determined to correspond to the same subject, and when the difference is smaller than the threshold value, it is determined that the first and second defocus amounts correspond to the same subject. Process and
The setting means has a setting step of setting the threshold value and the like.
In the setting step, the image pickup apparatus is characterized in that the threshold value is set based on the distance to the subject corresponding to the first defocus amount and the difficulty level information indicating the difficulty of capturing the subject. Control method.
コンピュータに、請求項11に記載の制御方法の各工程を実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 11. 請求項12に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores the program according to claim 12.
JP2019199244A 2019-10-31 2019-10-31 Imaging device and its control method Active JP7431555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019199244A JP7431555B2 (en) 2019-10-31 2019-10-31 Imaging device and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019199244A JP7431555B2 (en) 2019-10-31 2019-10-31 Imaging device and its control method

Publications (3)

Publication Number Publication Date
JP2021071656A true JP2021071656A (en) 2021-05-06
JP2021071656A5 JP2021071656A5 (en) 2022-11-09
JP7431555B2 JP7431555B2 (en) 2024-02-15

Family

ID=75713706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019199244A Active JP7431555B2 (en) 2019-10-31 2019-10-31 Imaging device and its control method

Country Status (1)

Country Link
JP (1) JP7431555B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337814A (en) * 1998-05-26 1999-12-10 Canon Inc Optical device
JP2012203345A (en) * 2011-03-28 2012-10-22 Canon Inc Focus adjustment device and focus adjustment method
JP2012203207A (en) * 2011-03-25 2012-10-22 Canon Inc Imaging apparatus
JP2017223751A (en) * 2016-06-14 2017-12-21 キヤノン株式会社 Focus adjustment device
WO2018004001A1 (en) * 2016-06-30 2018-01-04 株式会社ニコン Camera
JP2019020716A (en) * 2017-07-13 2019-02-07 キヤノン株式会社 Control device, imaging apparatus and program
JP2019176249A (en) * 2018-03-27 2019-10-10 オリンパス株式会社 Image processing device, image processing method, image processing program, and imaging device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009128613A (en) 2007-11-22 2009-06-11 Olympus Imaging Corp Camera and automatic focusing device for camera

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11337814A (en) * 1998-05-26 1999-12-10 Canon Inc Optical device
JP2012203207A (en) * 2011-03-25 2012-10-22 Canon Inc Imaging apparatus
JP2012203345A (en) * 2011-03-28 2012-10-22 Canon Inc Focus adjustment device and focus adjustment method
JP2017223751A (en) * 2016-06-14 2017-12-21 キヤノン株式会社 Focus adjustment device
WO2018004001A1 (en) * 2016-06-30 2018-01-04 株式会社ニコン Camera
JP2019020716A (en) * 2017-07-13 2019-02-07 キヤノン株式会社 Control device, imaging apparatus and program
JP2019176249A (en) * 2018-03-27 2019-10-10 オリンパス株式会社 Image processing device, image processing method, image processing program, and imaging device

Also Published As

Publication number Publication date
JP7431555B2 (en) 2024-02-15

Similar Documents

Publication Publication Date Title
RU2456654C2 (en) Image capturing device, control method thereof and data medium
EP1617652B1 (en) Hybrid autofocus system for a camera
US10863079B2 (en) Control apparatus, image capturing apparatus, and non-transitory computer-readable storage medium
JP6525813B2 (en) Imaging device, control method, program, and storage medium
JP5930702B2 (en) Focus adjustment device
JP2017126035A (en) Imaging apparatus, control method, program, and storage medium
JP2009265239A (en) Focus detecting apparatus, focus detection method, and camera
JP6486098B2 (en) Imaging apparatus and control method thereof
JP5947489B2 (en) Focus adjustment device and focus adjustment method
JP2015111226A (en) Subject tracking device and control method of the same, imaging device, program, and storage medium
JP2012173709A (en) Imaging apparatus
JP2008107657A (en) Imaging apparatus, its control method, program, and recording medium
JP7431555B2 (en) Imaging device and its control method
JP2016142924A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP5359150B2 (en) Imaging device
JP2010145495A (en) Camera system
JP5871196B2 (en) Focus adjustment device and imaging device
JP7379083B2 (en) Control device, imaging device, control method, and program
JP2015166780A (en) Imaging device and control method of the same
JP7277133B2 (en) Focus control device, imaging device, and program
JP2018197845A (en) Focus control device and imaging device
JP2005227447A (en) Autofocus camera
JP2017224908A (en) Imaging apparatus
JP2018180372A (en) Imaging apparatus and control method thereof
JP5619227B2 (en) IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240202

R151 Written notification of patent or utility model registration

Ref document number: 7431555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151