JP2021071656A - Imaging apparatus and method for controlling the same - Google Patents
Imaging apparatus and method for controlling the same Download PDFInfo
- Publication number
- JP2021071656A JP2021071656A JP2019199244A JP2019199244A JP2021071656A JP 2021071656 A JP2021071656 A JP 2021071656A JP 2019199244 A JP2019199244 A JP 2019199244A JP 2019199244 A JP2019199244 A JP 2019199244A JP 2021071656 A JP2021071656 A JP 2021071656A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- threshold value
- focus detection
- defocus amount
- difficulty level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 16
- 238000000034 method Methods 0.000 title claims description 81
- 238000001514 detection method Methods 0.000 claims abstract description 110
- 230000003287 optical effect Effects 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims description 60
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 description 30
- 230000007704 transition Effects 0.000 description 23
- 230000008859 change Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 239000004973 liquid crystal related substance Substances 0.000 description 7
- 230000004907 flux Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 230000011514 reflex Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Adjustment Of Camera Lenses (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置及びその制御方法に関する。 The present invention relates to an image pickup apparatus and a control method thereof.
従来、交換レンズ式一眼レフカメラ等のカメラシステムにおいて、自動焦点調節(AF)の技術が知られており、中でも位相差AFと呼ばれる手法は広く利用されている。この手法では、撮影レンズの異なる射出瞳領域を通過した被写体からの光束を、一対のラインセンサ上に結像させる。そして、被写体像を光電変換して得られた一対の像信号の相対位置の変位量である像ずれ量を求めることで、撮影レンズのデフォーカス量の検出、すなわち、焦点検出を行う。この焦点検出結果に基づいて撮影レンズに含まれるフォーカスレンズの駆動を行うことで、自動焦点調節を行う。 Conventionally, in a camera system such as an interchangeable lens type single-lens reflex camera, an automatic focus adjustment (AF) technique is known, and among them, a technique called phase difference AF is widely used. In this method, a light beam from a subject that has passed through different exit pupil regions of a photographing lens is imaged on a pair of line sensors. Then, the defocus amount of the photographing lens, that is, the focus detection is performed by obtaining the image shift amount, which is the displacement amount of the relative positions of the pair of image signals obtained by photoelectric conversion of the subject image. Automatic focus adjustment is performed by driving the focus lens included in the photographing lens based on the focus detection result.
またその多くは、静止する被写体のみならず、移動する被写体に焦点が合うようにフォーカスレンズを駆動させるサーボ撮影モードを備えている。サーボ撮影モードは、過去の移動履歴から被写体がどのように動いているのか予測する機能を持つ。ところが、被写体の前を障害物が通過したり、誤って背景に対し焦点検出してしまったりすることで、検出されるデフォーカス量が必ずしも撮影したい被写体のものでないことがある。 Most of them have a servo shooting mode in which the focus lens is driven so as to focus not only on a stationary subject but also on a moving subject. The servo shooting mode has a function of predicting how the subject is moving from the past movement history. However, the amount of defocus detected may not necessarily be that of the subject to be photographed because an obstacle passes in front of the subject or the focus is erroneously detected with respect to the background.
このように、誤って意図しない被写体や背景に合焦してしまうといった課題に対し、検出したデフォーカス量によってフォーカスレンズの駆動を禁止する手法が提案されている。例えば、特許文献1では、像面速度に応じて焦点調節レンズの駆動を禁止するデフォーカス量の閾値を切り替える方法が開示されている。特許文献1の手法を用いることで、高速で動く被写体に対し、被写体が高速であることを観測すれば、より大きなデフォーカス量が検出されても焦点検出レンズの駆動ができるようになる。そのため、検出したデフォーカス量に応じた焦点検出レンズの駆動の加速や減速に対しても適切に追従できる。
As described above, a method of prohibiting the driving of the focus lens by the detected defocus amount has been proposed for the problem of accidentally focusing on an unintended subject or background. For example,
また、特許文献2では、所望の被写体を追尾できているかどうかを判断するために用いるデフォーカス量の閾値を、カメラの振れ状態によって変更させる方法が開示されている。特許文献2によれば、カメラの振れが大きい状態であれば所望の被写体を追従しにくく、カメラの振れが小さい状態であれば所望の被写体を追従し易いと判断する。そして、カメラが所望の被写体を追従し易い状態であれば、検出したデフォーカス量が、所望の被写体を追従した結果だと考えられる。逆に、カメラが所望の被写体を追従しにくい状態であれば、所望の被写体を追従できておらず、検出したデフォーカス量が背景や別の被写体を追った結果ではないかと疑うことができる。
Further,
しかしながら、特許文献1に記載された技術では、継続的に速い動きをする被写体に対してしか被写体の動きの変化に対応することができない。例えば、被写体が、これまでの動きの傾向では予測ができない大きな動きを急にした場合、デフォーカス量の閾値の切り替えができず、フォーカス駆動を禁止してしまう。さらに、撮影者(カメラ)と被写体の距離が近いほど、被写体の動きに対して検出されるデフォーカス量の変化が大きくなるため、近景で急に動き出す被写体においては特に急激に大きなデフォーカス量の変化が検出されてしまう。そのため、撮影対象としているその被写体の動きが撮影者(カメラ)に対して近づき続ける、あるいは撮影者に対して遠ざかり続けるような動きであった場合に以下のような不都合が生じる。
However, the technique described in
前述したサーボ撮影モードでは周期的に焦点検出処理を行い、焦点検出処理により得られた検出デフォーカス量に基づき、随時焦点調節レンズを駆動させて被写体にピントを合わせ続ける制御となっている。しかしながら、特許文献1によれば、被写体が急に動き始めたタイミングで得られた焦点検出処理の結果に応じて焦点調節レンズの駆動を停止させてしまう。そのため、周期的に実施する次のタイミングでの焦点検出処理で得られる撮影対象の被写体のデフォーカス量は、さらに大きく検出されてしまう。この動作が繰り返されることになり、結果として、所望の被写体にピントを合わせることができなくなってしまう。
In the servo shooting mode described above, the focus detection process is periodically performed, and based on the detection defocus amount obtained by the focus detection process, the focus adjustment lens is driven at any time to keep focusing on the subject. However, according to
また、特許文献2によれば、被写体の状況によらずカメラの振れ量のみで被写体の追従のし易さを評価しているが、被写体が画角内に占める領域が大きければ追従し易く、逆に被写体の領域が小さければ追従しにくい。従って、カメラの振れ量のみによって被写体の追従し易さを決定することは、追従のし易さを誤って判断してしまう可能性がある。
Further, according to
本発明は上記問題点を鑑みてなされたものであり、様々な条件下でより適切に被写体を追従できるようにすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to enable the subject to be tracked more appropriately under various conditions.
上記目的を達成するために、本発明の撮像装置は、撮影光学系を介して入射した光を光電変換して得られた信号に基づいて、デフォーカス量を検出する焦点検出手段と、前記焦点検出手段により繰り返し検出される前記デフォーカス量を記憶する記憶手段と、前記記憶手段に記憶された第1のデフォーカス量と前記焦点検出手段により新たに検出された第2のデフォーカス量との差が閾値以上の場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定せず、前記差が前記閾値よりも小さい場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定する判定手段と、前記閾値を設定する設定手段と、を有し、前記設定手段は、前記第1のデフォーカス量に対応する被写体までの距離と、被写体の補足し易さを示す難易度情報とに基づいて、前記閾値を設定することを特徴とする。 In order to achieve the above object, the image pickup apparatus of the present invention includes a focus detection means for detecting a defocus amount based on a signal obtained by photoelectric conversion of light incident on an imaging optical system, and the focus. A storage means for storing the defocus amount repeatedly detected by the detection means, a first defocus amount stored in the storage means, and a second defocus amount newly detected by the focus detection means. When the difference is equal to or greater than the threshold value, it is not determined that the first and second defocus amounts correspond to the same subject, and when the difference is smaller than the threshold value, the first and second defocus amounts are obtained. It has a determination means for determining that the focus amount corresponds to the same subject and a setting means for setting the threshold value, and the setting means has a distance to a subject corresponding to the first defocus amount. The threshold value is set based on the difficulty level information indicating the ease of capturing the subject.
本発明によれば、様々な条件下でより適切に被写体を追従することができる。 According to the present invention, the subject can be tracked more appropriately under various conditions.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.
<第1の実施形態>
図1は、第1の実施形態における撮像装置の一例として、デジタル一眼レフカメラの構成を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a digital single-lens reflex camera as an example of an imaging device according to the first embodiment.
撮影レンズ101(撮影光学系)は、簡易的に1枚のレンズにより表されているが、実際には焦点調節を行うためのフォーカスレンズを含む、複数のレンズから構成される。レンズ駆動回路102は、たとえばDCモータやステッピングモータを有し、撮影レンズ101を駆動制御する。当該駆動制御は、レンズ内マイクロコンピュータ141によって指示されるが、当該駆動制御のための駆動要求はマイクロコンピュータ124からレンズ通信回路103を用いて伝搬される。
The photographing lens 101 (photographing optical system) is simply represented by one lens, but is actually composed of a plurality of lenses including a focus lens for performing focus adjustment. The
レンズ通信回路103は、マイクロコンピュータ124からの各種アクチュエータの駆動要求をレンズ内マイクロコンピュータ141へ伝搬すると共に、各種アクチュエータの状態情報をマイクロコンピュータ124へ伝搬する。
The
絞り104は、絞り駆動回路105により駆動され、カメラに入射する光束を制御するために用いられる。絞り駆動回路105は、マイクロコンピュータ124によって算出された駆動量に基づき、レンズ内マイクロコンピュータ141により制御されることで、絞り104の光学的な絞り値を変化させる。
The
距離測定回路142は、撮影レンズ101が有するフォーカスレンズの位置をもとに、カメラから被写体までの距離を算出する。なお、フォーカスレンズの位置を用いた距離測定方法は一例であり、たとえば赤外線照射などの手法を用いてもよい。また、本構成では距離測定回路142はレンズ側に構成され、レンズ内マイクロコンピュータ141によって制御されているが、カメラ本体側に構成し、マイクロコンピュータ124によって制御されてもよい。
The distance measuring
主ミラー106は、常時はファインダー部(不図示)へと光束を導くよう反射させるように光路内に配されているが、撮影が行われる場合には、撮像素子113へと光束を導くように上方に跳ね上がり、光路から待避する。すなわち、撮影レンズ101から入射した光束をファインダー側に導くか、撮像素子113側に導くかを切替える。また主ミラー106はその中央部が光の一部を透過できるようにハーフミラーとなっている。サブミラー107は、主ミラー106を透過した光束を反射させて、焦点検出を行うための焦点検出回路110内に配置された焦点検出センサに導く。
The
ペンタプリズム108は主ミラー106が反射した光束をファインダー部(不図示)へと導く。ファインダー部は他にピント板、アイピースレンズ(不図示)などを有する。測光回路109は、ピント板(不図示)に結像された被写体像の色および明るさを、測光回路109内に配置された、カラーフィルタを備えた測光センサによって、電気信号に変換する。
The
焦点検出回路110は、複数のエリアセンサからなる焦点検出センサを内蔵しており、主ミラー106を透過し、サブミラー107により反射された光束が焦点検出センサに入射することによって、焦点検出センサ内で分光された一対の像信号を得る。そして、得られた一対の像信号の相対位置の変位量である像ずれ量を求めることで、撮影レンズ101のデフォーカス量を検出する。焦点検出回路110にて得られたデフォーカス量は、マイクロコンピュータ124へ伝搬され、撮影レンズ101の制御量に変換された後、レンズ通信回路103を経由してレンズ内マイクロコンピュータ141へ伝搬される。
The
フォーカルプレーンシャッター111は、カメラに設定されたシャッター速度に応じてシャッター駆動回路112により駆動される。
The
撮像素子113には、CCDやCMOSセンサなどが用いられ、撮影レンズ101によって結像された被写体像を電気信号に変換する。
A CCD, CMOS sensor, or the like is used as the
クランプ回路114及びAGC回路115は、撮像素子113から出力された電気信号をA/D変換をする前に基本的なアナログ信号処理を行う回路であり、マイクロコンピュータ124により、クランプレベルやAGC基準レベルの変更が行われる。A/D変換器116は、クランプ回路114及びAGC回路115により処理された撮像素子113のアナログ出力信号をデジタル信号(画像データ)に変換する。
The
映像信号処理回路117は、ゲートアレイなどのロジックデバイスにより実現され、デジタル化された画像データに、フィルタ処理、色変換処理、ガンマ処理を行うと共に、JPEGなどの圧縮処理を行い、メモリコントローラ120に出力する。また、映像信号処理回路117は、必要に応じて、撮像素子113の信号の露出情報やホワイトバランスなどの情報をマイクロコンピュータ124に出力することが可能である。これらの情報を基に、マイクロコンピュータ124は、ホワイトバランスやゲイン調整の指示を行う。
The video
なお、連続撮影動作の場合においては、撮影データを未処理のまま一旦バッファメモリ123に格納し、メモリコントローラ120を通して未処理の撮影データを読み出し、映像信号処理回路117にて画像処理や圧縮処理を行うことで、連続撮影を行う。連続撮影枚数は、バッファメモリ123の大きさに左右される。連続撮影時には、メモリコントローラ120は、映像信号処理回路117から入力された未処理のデジタル画像データをバッファメモリ123に格納し、処理済みのデジタル画像データをメモリ121に格納する。また、メモリコントローラ120は、バッファメモリ123やメモリ121から画像データを映像信号処理回路117に出力する。なお、メモリ121は取り外し可能であってもよい。更に、メモリコントローラ120は、コンピュータ等と接続可能な外部インターフェイス122を介して、メモリ121に記憶されている画像を出力することができる。
In the case of continuous shooting operation, the shooting data is temporarily stored in the
操作部125は、マイクロコンピュータ124に操作部125に接続された各種操作部材の状態を伝え、マイクロコンピュータ124は操作部材の変化に応じて各部をコントロールする。操作部125に接続される操作部材は、スイッチ1(SW1)126と、スイッチ2(SW2)127を含む。SW1(126)、SW2(127)の操作状態を操作部125が解釈し、SW1(126)の操作のみ有効な状態(ON)であれば、オートフォーカス(AF)開始要求イベントとして取り扱う。また、SW2(127)の操作が有効な状態(ON)であれば撮影要求イベントとして取り扱う。また、SW2(127)が操作されている状態(ON)が維持されている場合には、連続撮影動作を行う。操作部125には、他に、ISO設定ボタン、画像サイズ設定ボタン、画質設定ボタン、情報表示ボタンなど、不図示の操作部材が接続されており、各操作部材の状態が検出される。
The
液晶駆動回路128は、マイクロコンピュータ124の表示命令に従って、外部液晶表示部材129やファインダー内液晶表示部材130を駆動する。ファインダー内液晶表示部材130には、不図示のLEDなどのバックライトが配置されており、そのLEDも液晶駆動回路128で駆動される。マイクロコンピュータ124は、撮影前に設定されているISO感度、画像サイズ、画質に応じた、画像サイズの予測値データをもとに、メモリコントローラ120を通して、メモリの容量を確認した上で撮影可能残数を演算することができる。そして、必要に応じて、撮影可能残数を外部液晶表示部材129やファインダー内液晶表示部材130に表示する。
The liquid
不揮発性メモリ131(EEPROM)は、カメラに電源が入れられていない状態でも、データを保存することができる。電源部132は、各ICや駆動系に必要な電源を供給する。
The non-volatile memory 131 (EEPROM) can store data even when the camera is not turned on. The
動き検出回路140は、デジタル一眼レフカメラの動きを検出する検出部を搭載している。検出部は例えば加速度センサであり、カメラ本体の水平軸を回転軸としたときの加速度、及び、カメラ本体の垂直軸を回転軸としたときの加速度を検出する。
The
なお、本実施形態では、動き検出回路140はカメラ本体側に構成され、マイクロコンピュータ124によって制御されているが、レンズ側に構成し、レンズ内マイクロコンピュータ141によって制御されてもよい。また、レンズは、カメラ本体に着脱可能なものであっても、カメラ本体と一体的に構成されたものであってもよい。
In the present embodiment, the
次に、本発明の第1の実施形態における撮影処理の動作について説明する。一般にカメラのAFモードとしては、合焦動作を一回行って終了するモード(ワンショット撮影モード)と、現在の時刻よりも後の時刻の被写体の像面を予測しながら合焦動作を繰り返し行ってレンズを駆動するモード(サーボ撮影モード)の2種類がある。第1の実施形態では、カメラがサーボ撮影モードに設定されている場合の処理について説明する。 Next, the operation of the photographing process according to the first embodiment of the present invention will be described. Generally, the AF mode of a camera is a mode in which the focusing operation is performed once and then terminated (one-shot shooting mode), and the focusing operation is repeated while predicting the image plane of the subject at a time later than the current time. There are two modes (servo shooting mode) for driving the lens. In the first embodiment, the processing when the camera is set to the servo shooting mode will be described.
図2は、サーボ撮影モードによる撮影処理を示すフローチャートである。S201において、マイクロコンピュータ124は、撮影モードを確認する。現在の撮影モードがサーボ撮影モードではないと判断されると、処理を終了する。一方、撮影モードがサーボ撮影モードであると判断された場合にはS202へ遷移する。
FIG. 2 is a flowchart showing a shooting process in the servo shooting mode. In S201, the
S202において、マイクロコンピュータ124は、操作部125により得られるSW1の状態を確認する。SW1がOFFの場合はS201へ遷移し、SW1がONであればS203へ遷移する。
In S202, the
S203では、焦点検出回路110が焦点調節処理を行う。なお、S203における処理の詳細は、図3を参照して後述する。
In S203, the
次にS204において、マイクロコンピュータ124は、操作部125から得られるSW2の状態を確認する。SW2がOFFの場合はS201へ遷移し、SW2がONであればS205へ遷移する。
Next, in S204, the
S205では、マイクロコンピュータ124は、シャッター駆動回路112を介してフォーカルプレーンシャッター111を駆動させ、撮影を行う。撮影の終了後、S201に戻る。
In S205, the
以上説明したように、サーボ撮影モードにてSW1がONである場合、モード変更されない限り、S203の焦点調節処理が繰り返し実施される。 As described above, when SW1 is ON in the servo shooting mode, the focus adjustment process of S203 is repeatedly performed unless the mode is changed.
次に、図3を参照して、S203における焦点調節処理の概要について説明する。 Next, the outline of the focus adjustment process in S203 will be described with reference to FIG.
S301において、マイクロコンピュータ124は、焦点検出とそれに伴う一連の処理を行う。なお、S301における処理の詳細は、図4を参照して後述する。
In S301, the
S302において、マイクロコンピュータ124は、S301の処理により得られた焦点検出結果から、サーボ撮影モードにてフォーカス追従動作させていた対象の被写体を引き続きフォーカス追従(以降、「被写体捕捉」と呼ぶ。)できているか否かを判定する、連続性判定処理を行う。詳細は図5を参照して後述するが、引き続き被写体捕捉ができていれば、フラグFlagCatchFail=0となり、被写体捕捉の失敗時にはフラグFlagCatchFail>0となるように処理される。
In S302, the
S303において、マイクロコンピュータ124は、焦点検出履歴から、捕捉中の被写体がどのような動きをしているかを予測する、動体予測処理を行う。なお、S303における処理の詳細は図6を参照して後述する。S303の処理の中で、マイクロコンピュータ124は、撮影レンズ101を構成するフォーカスレンズを駆動するためのフォーカスレンズ駆動量を算出する。
In S303, the
次にS304において、マイクロコンピュータ124は、S302内で設定されたフラグFlagCatchFailの値を確認する。FlagCatchFailが0より大きい場合、すなわち、被写体補足に失敗した場合にはS305へ遷移し、そうでない場合、すなわち、被写体補足ができた場合にはS306へ遷移する。
Next, in S304, the
S305では、今回の焦点検出結果が引き続き被写体捕捉できたと認められなかった場合の処理として、レンズ駆動を禁止し、焦点検出処理を終了する。なお、レンズ駆動の禁止処理としては2通り挙げられ、いずれを選択してもよい。1つ目は、マイクロコンピュータ124がレンズ通信回路103を経由してレンズ内マイクロコンピュータ141へ撮影レンズ101に含まれるフォーカスレンズを停止させるよう要求する方法である。2つ目は直前のS301における焦点検出処理にて得られたデフォーカス量に基づく駆動要求を実施しないようにする方法である。
In S305, as a process when it is not recognized that the subject can be continuously captured by the current focus detection result, the lens drive is prohibited and the focus detection process is terminated. There are two types of lens drive prohibition processing, and any of them may be selected. The first is a method in which the
一方、S306では、今回の焦点検出結果が引き続き被写体捕捉できたと認められた場合の処理を行う。ここでは、マイクロコンピュータ124が、レンズ通信回路103を経由してレンズ内マイクロコンピュータ141に対して撮影レンズ101に含まれるフォーカスレンズの駆動を要求し、焦点調節処理を終了する。
On the other hand, in S306, processing is performed when it is recognized that the subject can be continuously captured based on the current focus detection result. Here, the
図4は、S301で行われる焦点検出処理の動作の一例を示す。S401で、マイクロコンピュータ124は、過去の焦点検出履歴に基づいて、今回の焦点検出結果が引き続き被写体捕捉できているかどうかを判定するための連続性判定閾値の設定を行う。なお、S401における処理の詳細は図7を参照して後述する。
FIG. 4 shows an example of the operation of the focus detection process performed in S301. In S401, the
次に、S402において、マイクロコンピュータ124は、焦点検出回路110を駆動して、焦点検出を行う。
Next, in S402, the
S403で、マイクロコンピュータ124は、S402における焦点検出結果であるデフォーカス量(以降、「検出デフォーカス量」と呼ぶ。)を、図8に示すように、焦点検出した測距点に対応するように行列に記載した、デフォーカスマップを作成する。
In S403, the
ここで図8(a)から(d)を用いて、本実施形態で作成するデフォーカスマップについて説明する。 Here, the defocus map created in the present embodiment will be described with reference to FIGS. 8 (a) to 8 (d).
801は、撮像素子113により得られる画像領域に相当し、802は、焦点検出回路110に含まれる焦点検出センサ部のセンサ領域を示している。本実施形態の焦点検出センサ部は、縦方向に7分割、横方向に7分割された合計49枠の測距点によって構成されているものとする。803〜805は、分割された測距点の一部を差し示している。デフォーカスマップの作成時には、その各測距点ごとに測距結果が得られる構成となっている。
801 corresponds to the image region obtained by the
図8(a)に示す構図では、撮影者(カメラ)に対して近景側に存在する被写体806と遠景側に存在する被写体807とが同一画面内に存在するケースを示しており、遠景側の人物807に焦点が合っている。このときのデフォーカスマップは、図8(b)に示すように、遠景側の人物807の位置に設定された測距点809では検出デフォーカス量0、手前側の人物806の位置に設定された測距点808では検出デフォーカス量が負の値となっている。さらに、背景の位置に設定された測距点では検出デフォーカス量が正の値となっている。
The composition shown in FIG. 8A shows a case in which the subject 806 existing on the near view side and the subject 807 existing on the distant view side exist in the same screen with respect to the photographer (camera), and the distant view side The focus is on
同様に、図8(c)では手前側の人物810に焦点が合い、遠景側の被写体811にはピントが合っていない状態となっている。このときのデフォーカスマップは図8(d)に示すように、手前側の人物810の位置に設定された測距点812では検出デフォーカス量0、遠景側の人物811の位置に設定された測距点813では検出デフォーカス量が正の値となっている。さらに、背景の位置に設定された測距点では検出デフォーカス量がさらに大きな正の値となっている。
Similarly, in FIG. 8C, the
S404において、マイクロコンピュータ124は、S403で作成したデフォーカスマップから、主測距点を選択する。具体的には、前回までの焦点検出結果に基づいて、今回の焦点検出時には被写体が撮影者(カメラ)に対して近づいているか、または遠ざかっているか、すなわち奥行方向にどれだけ移動しているかを予測しておき、この結果に最も近い測距点を主測距点とする。なお、ユーザの設定したモードが測距点を複数設定する多点方式でなかった場合、ユーザ指定の測距点を主測距点と定める。
In S404, the
S405において、マイクロコンピュータ124は、S403で作成したデフォーカスマップを用いて、被写体領域を抽出する。具体的には、S404で選択した主測距点の周囲で、主測距点とのデフォーカス量の差が一定値以内である領域を被写体領域とする(被写体検出)。
In S405, the
次に、S406において、マイクロコンピュータ124は、S403で作成したデフォーカスマップを用いて、障害物を抽出する。具体的には、S405で抽出した被写体領域よりも至近側の合焦位置を示すデフォーカス量が検出された領域をデフォーカスマップから抽出し、障害物とみなす。
Next, in S406, the
以上の処理によってS301の焦点検出処理を完了し、過去の焦点検出履歴に基づく連続性判定のための閾値の決定と、焦点検出処理による焦点検出結果の取得および、検出デフォーカス量に基づくデフォーカスマップの作成を実施している。そしてデフォーカスマップからは、主被写体の領域の抽出と、障害物がある場合には障害物の占めるデフォーカスマップ上の領域を特定することができ、以上の情報がS302の連続性判定処理以降に参照される。 By the above processing, the focus detection process of S301 is completed, the threshold value for the continuity determination based on the past focus detection history is determined, the focus detection result is acquired by the focus detection process, and the defocus is based on the detected defocus amount. We are creating a map. Then, from the defocus map, the area of the main subject can be extracted, and if there is an obstacle, the area on the defocus map occupied by the obstacle can be specified, and the above information is obtained after the continuity determination process of S302. Referenced to.
図5は、S302で行われる連続性判定処理の動作の一例を示す。S501において、マイクロコンピュータ124は、S405で検出した主測距点の検出デフォーカス量とS401で設定した連続性判定閾値の大きさの比較を行う。検出デフォーカス量がS401で決定した連続性判定閾値よりも小さければS502へ遷移し、連続性判定閾値以上であればS503に遷移する。
FIG. 5 shows an example of the operation of the continuity determination process performed in S302. In S501, the
S502では、マイクロコンピュータ124は、今回の焦点検出結果から引き続き被写体捕捉ができていると判定し、フラグFlagCatchFailを0に設定し、連続性判定処理を終了する。
In S502, the
S503では、マイクロコンピュータ124は、今回の焦点検出結果から被写体捕捉ができていないと判定し、フラグFlagCatchFailをインクリメントする。なお、フラグFlagCatchFailは、S502における処理の他に、カメラの起動時、サーボ撮影モードの設定時等の予め決められたタイミングで初期値0に設定される。
In S503, the
S504では、マイクロコンピュータ124は、フラグFlagCatchFailが1であるかどうか、すなわち今回初めて被写体補足に失敗したと判断されたかどうかを判定する。フラグFlagCatchFailが1であればS506へ遷移し、そうでなければS505に遷移する。
In S504, the
S506において、マイクロコンピュータ124は、経過観察タイマを設定したうえで、連続性判定処理を終了する。経過観察タイマは、被写体捕捉できたと判定されるまで待機する最大の時間を示す。経過観察タイマを設定することによって、経過観察タイマのカウント中であれば、被写体捕捉に失敗した被写体を再度検出できたときに、すぐに追従を再開することができる。
In S506, the
一方、S505では、マイクロコンピュータ124は、経過観察タイマが満了しているかどうかを判定する。経過観察タイマが満了していればS507へ遷移し、そうでなければ連続性判定処理を終了する。
On the other hand, in S505, the
S507において、マイクロコンピュータ124は、過去の焦点検出履歴や追尾などのデータを消去し、フラグFlagCatchFailをクリアして連続性判定処理を終了する。このように、ユーザが意図的に被写体を変更したときなどは、経過観察タイマが満了すると、すぐに新しい被写体への追従を始めることができる。
In S507, the
図6は、S303で行われる動体予測処理の動作の一例を示す。S601では、S301における今回の焦点検出結果を過去の焦点検出履歴に加え、不揮発性メモリ131あるいはマイクロコンピュータ124内の記憶領域に格納する。焦点検出履歴に記録する情報は、今回の焦点検出時刻と像面位置である。なお、像面位置とは、検出デフォーカス量と現在のフォーカスレンズの位置から算出される、被写体にピントが合うフォーカスレンズの位置のことである。
FIG. 6 shows an example of the operation of the moving object prediction process performed in S303. In S601, the current focus detection result in S301 is stored in the
S602において、マイクロコンピュータ124は、動体予測を行う条件に当てはまるかどうかを判断する。条件としては、例えば複数回連続で同じ方向に像面位置が動いたかどうかの判定などが挙げられる。動体予測を行う条件に当てはまればS603へ遷移し、そうでなければS606に遷移する。
In S602, the
S603で、マイクロコンピュータ124は、過去の焦点検出履歴から、図9に示すような予測曲線を引くことで予測駆動量と焦点検出結果のばらつきを算出する。図9の縦軸は像面位置を、横軸は時間を示し、縦軸の像面位置が大きいほど距離が遠いことを示しており、図の履歴は撮影者(カメラ)に近付く被写体を追従している様子を示している。前述した通り、S203における焦点調節処理はサーボ撮影モードでは周期的に実施されており、T1〜T5は各々、S203で行われる焦点調節処理の実施時刻を表している。予測駆動量は、例えば過去の像面位置とそれぞれの焦点検出時刻を用いた一括最小二乗法によって予測曲線を導出し、この曲線をもとに予測先時刻での像面位置を算出することで得られる。予測先時刻はSW2がONであれば撮影時の時刻を、そうでなければ今回の焦点検出時刻を示す。
In S603, the
S604では、マイクロコンピュータ124は、S603で算出した焦点検出結果のばらつきを踏まえて、最終的に予測フォーカス駆動を行うかどうかの判定を行う。具体的には、ばらつきが一定値以上であれば、予測を信用できないと判断し予測フォーカス駆動を行わず、ばらつきが一定値未満であれば、予測を信用していいと判断し予測フォーカス駆動を行う。予測フォーカス駆動を行うと判断した場合S605へ遷移し、そうでなければS606に遷移する。
In S604, the
予測フォーカス駆動とは、図9にて説明した予測曲線に基づき現在の像面位置L3から将来のピントを合わせたい時刻における像面位置までレンズを駆動させる制御である。図9の黒丸は検出デフォーカス量から求めた像面位置を、白丸は予測する像面位置を示す。例えば図9のT4の時刻で検出したデフォーカス量がxであったとする。ここでレンズ駆動してT5の時点でピントを合わせることを狙う場合には、デフォーカス量yに相当するレンズ駆動を要求することとなる。このデフォーカス量yを算出するには、過去の焦点検出結果から近似曲線を引き、これを予測曲線として、T5での像面位置を予測する必要がある。このように、T4で焦点検出を行って、T5での合焦を狙うため、デフォーカス量yだけフォーカス駆動を行う場合のレンズ駆動を、予測フォーカス駆動という。一方、予測フォーカス駆動を行わない場合、すなわち過去の焦点検出履歴から予測を行わない、もしくは予測結果を利用しない場合、フォーカス駆動量はデフォーカス量x、すなわち検出デフォーカス量となる。 The predictive focus drive is a control for driving the lens from the current image plane position L3 to the image plane position at the time when the future focus is desired based on the prediction curve described with reference to FIG. The black circles in FIG. 9 indicate the image plane position obtained from the detected defocus amount, and the white circles indicate the predicted image plane position. For example defocus amount detected at the time of T 4 in FIG. 9 is assumed to be x. Here, when the lens drive to aiming adjust the focus at the time of T 5 is a request the lens drive corresponding to the defocus amount y. To calculate the defocus amount y is to draw approximate curve from the focus detection result in the past, this as prediction curve, it is necessary to predict the image plane position at T 5. In this way, in order to detect the focus at T 4 and aim for focusing at T 5 , the lens drive when the focus drive is performed by the defocus amount y is called the predictive focus drive. On the other hand, when the predictive focus drive is not performed, that is, when the prediction is not performed from the past focus detection history or the prediction result is not used, the focus drive amount is the defocus amount x, that is, the detected defocus amount.
S605では、マイクロコンピュータ124は、フォーカス駆動量を予測駆動量に設定し、動体予測処理を終了する。一方、S606では、マイクロコンピュータ124は、フォーカス駆動量を検出デフォーカス量に設定し、動体予測処理を終了する。
In S605, the
次に図7を参照して、S401で行われる連続性判定閾値設定処理の動作の一例を示す。連続性判定閾値とは、引き続き被写体捕捉ができているかを判定するための閾値のことであり、上述したS501における比較処理で用いられる。上述した様に、検出デフォーカス量が連続性判定閾値よりも大きい値であれば被写体捕捉に失敗しており、そうでなければ被写体捕捉に成功していると判定する。 Next, with reference to FIG. 7, an example of the operation of the continuity determination threshold setting process performed in S401 is shown. The continuity determination threshold value is a threshold value for determining whether or not the subject can be continuously captured, and is used in the comparison process in S501 described above. As described above, if the detected defocus amount is larger than the continuity determination threshold value, it is determined that the subject capture has failed, and if not, it is determined that the subject capture is successful.
S701において、マイクロコンピュータ124は、前回の焦点検出時に距離測定回路142で計測した被写体距離情報を、レンズ内マイクロコンピュータ141、レンズ通信回路103を介して受信することで、現在捕捉中の被写体がカメラに対して一定以上の距離であるかどうかを判定する。被写体がカメラに対して一定以上の距離であればS702へ遷移し、そうでなければS703に遷移する。
In S701, the
S702で、マイクロコンピュータ124は、連続性判定閾値を第一の閾値に設定し、連続性判定閾値設定処理を終了する。
In S702, the
一方、S703において、マイクロコンピュータ124は、被写体をどれだけ捕捉しやすい条件であるかを示す、被写体捕捉難易度Dを算出する。本実施形態では、被写体捕捉難易度を表す情報(難易度情報)として、前回の焦点検出時にS405で得られた被写体領域の画角内におけるサイズ、S406で得られた障害物の有無、動き検出回路140で検出した角速度情報により得られるカメラの振れ情報の3つを用いる。これらの情報に基づいて、被写体捕捉難易度Dを以下の式(1)により導出する。
ODは、検出した被写体領域よりも至近側の合焦位置を示すデフォーカス量が検出された測距点の数を示す。OAは、ODの算出のために参照する点数を示し、この最大値は画角全体の測距点の数である。JDは、動き検出回路140で検出したカメラ振れ量の絶対値を示す。JPは、カメラ振れ量JDの許容最大値を示す。SCは、主測距点と近いデフォーカス量が検出された測距点の数を示す。SAは、SCの算出のために参照する点数を示し、この最大値は画角全体の測距点の数である。SPは、被写体サイズ許容最小量を示し、測距点数で表わされる。
On the other hand, in S703, the
O D is a defocus amount indicating an in-focus position of the near side than the detected object area indicates the number of detected distance measuring point. O A indicates the number reference for the calculation of O D, the maximum value is the number of distance measuring points for the entire field angle. JD indicates the absolute value of the camera shake amount detected by the
上記の被写体捕捉難易度Dは0以上1以下の値であり、値が大きいほど被写体を捕捉しやすく、小さいほど被写体を捕捉しにくいことを表す。 The subject capture difficulty level D is a value of 0 or more and 1 or less, and the larger the value, the easier it is to capture the subject, and the smaller the value, the more difficult it is to capture the subject.
S703で算出した被写体捕捉難易度に基づいて、マイクロコンピュータ124は、S704で被写体を捕捉しやすいかどうかを判断する。一例として、D≧0.5であった場合、被写体が捕捉し易く、そうでない場合は、被写体が捕捉しにくいと判断する。D≧0.5であった場合、すなわち被写体を捕捉しやすいと判断した場合、S705へ遷移し、そうでなければS706に遷移する。
Based on the subject capture difficulty calculated in S703, the
S705で、マイクロコンピュータ124は、連続性判定閾値を、第一の閾値よりも大きい第二の閾値に設定し、連続性判定閾値設定処理を終了する。この第二の閾値は、被写体距離によって可変であって、至近であるほど大きくなる。
In S705, the
S706で、マイクロコンピュータ124は、連続性判定閾値を第二の閾値よりも小さい第三の閾値に設定する。S704で、現在の撮影状況では被写体を捕捉しにくいと判定されているので、連続性判定閾値を第二の閾値に設定してしまうと、引き続き被写体捕捉ができていなくても、それを現在捕捉中の被写体の動きの変化だと判断してしまう可能性がある。そこで、S706では第二の閾値よりも小さく、被写体補足難易度Dに応じて段階的に値を取れる、第三の閾値を採用する。一例として、同じ被写体距離での第二の閾値をD2、第一の閾値をD1とすると、第三の閾値D3は
D3=(D2−D1)・2D+D1 …(2)
と表現することができる。このようにすることで、第三の閾値D3は被写体補足難易度に応じて段階的に第一の閾値D1と第二の閾値D2の間の値を取ることができる。以上のように連続性判定閾値を第三の閾値と設定し、連続性判定閾値設定処理を終了する。
In S706, the
Can be expressed as. By doing so, the third threshold value D 3 can take a value between the first threshold value D 1 and the second threshold value D 2 step by step according to the difficulty level of capturing the subject. As described above, the continuity determination threshold value is set as the third threshold value, and the continuity determination threshold value setting process is completed.
次に、第1の実施形態で得られる効果について、図10及び図11を用いて説明する
図10は、カメラから比較的近い場所に静止していた被写体がカメラから遠ざかる方向に急加速したときの、像面位置の変化を示す。横軸は時刻、縦軸は像面位置を示す。縦軸が大きいほど被写体距離は大きくなる。点t1、t2、t3のように、被写体が静止している間は、像面位置が変化しない。しかし、被写体が急加速すると、点t5のようにこれまで静止していた過去の焦点検出履歴の傾向からでは予測できない大きなデフォーカス量変化が観測される。このように、静止した状態から急速に動き出す被写体の追従は、被写体の動きの特性がこれまでの焦点検出履歴と大きく異なっているために、次の瞬間に大きな動きをすると予想するのが難しい。さらに撮影者(カメラ)と被写体の距離が近いほど、被写体が動いた瞬間の像面移動量が非常に大きく観測される。そのため、近景で静止した状態から急速に動き出す被写体の追従は特に測距履歴の連続性を観測することが難しくなってしまう。
Next, the effect obtained in the first embodiment will be described with reference to FIGS. 10 and 11. FIG. 10 shows when a subject stationary at a place relatively close to the camera suddenly accelerates in a direction away from the camera. The change in the image plane position is shown. The horizontal axis shows the time and the vertical axis shows the image plane position. The larger the vertical axis, the larger the subject distance. As shown at points t 1 , t 2 , and t 3 , the image plane position does not change while the subject is stationary. However, when the object is rapidly accelerated, a large defocus amount vagaries than from the tendency of the past focus detection history which has been still far as the point t 5 is observed. As described above, it is difficult to predict that the tracking of a subject that rapidly starts moving from a stationary state will make a large movement at the next moment because the characteristics of the movement of the subject are significantly different from the focus detection history so far. Further, the closer the photographer (camera) is to the subject, the larger the amount of image plane movement at the moment when the subject moves is observed. Therefore, it becomes difficult to observe the continuity of the distance measurement history, especially when following a subject that rapidly moves from a stationary state in a near view.
そこで本実施形態では、被写体がカメラから比較的近い場所にあるときに連続性判定閾値を大きくすることで、このような急激な像面位置変化に対応できるようになる。 Therefore, in the present embodiment, by increasing the continuity determination threshold value when the subject is relatively close to the camera, it becomes possible to cope with such a sudden change in the image plane position.
一方、図11のように、被写体の手前に障害物がある場合(図11(a))、被写体が小さい場合(図11(b))、カメラが振れている場合等の被写体を捉え続けにくい状況で、単純に被写体までの距離に応じた対策を行うと、追従対象ではない被写体を捉えてしまう可能性がある。そこで、本願発明では、被写体を捉え続けにくい状況である場合を判定し、連続性判定閾値を抑えることで、追従対象ではない被写体を捕捉対象として誤検知しないようにする。 On the other hand, as shown in FIG. 11, it is difficult to keep capturing the subject when there is an obstacle in front of the subject (FIG. 11 (a)), when the subject is small (FIG. 11 (b)), or when the camera is shaking. In a situation, if measures are simply taken according to the distance to the subject, there is a possibility that the subject that is not the tracking target will be captured. Therefore, in the present invention, it is determined that it is difficult to keep capturing the subject, and the continuity determination threshold value is suppressed so that a subject that is not the tracking target is not erroneously detected as a capturing target.
以上説明した通り、本実施形態では、今回の焦点検出結果が現在捕捉中の被写体を引き続き捕捉できているかどうか判定するための閾値を近景において大きな値に設定する。これは、撮影者(カメラ)と被写体の距離が近いほど、被写体の動きに対し検出されるデフォーカス量変化が大きくなるためである。更に被写体の捕捉しにくさを評価し、この評価結果に応じて今回の焦点検出結果が現在捕捉中の被写体を引き続き捕捉できているかどうか判定するための閾値を動的に変化させた。具体的には、前回焦点検出時点でのデフォーカス情報より得られる対象被写体の画角内のサイズ、障害物の有無、角速度情報により得られるカメラの振れ情報の3つで評価した。これによって、近景で急に動き出す被写体に対しても追従を可能とした。また、所望でない被写体を捕捉対象として誤検知しやすい環境では、近景での被写体追従性を保持しつつ誤検知を抑えることを実現可能とした。 As described above, in the present embodiment, the threshold value for determining whether or not the subject currently being captured can be continuously captured by the current focus detection result is set to a large value in the near view. This is because the closer the photographer (camera) is to the subject, the larger the change in the amount of defocus detected with respect to the movement of the subject. Further, the difficulty of capturing the subject was evaluated, and the threshold value for determining whether or not the current focus detection result could continue to capture the subject currently being captured was dynamically changed according to the evaluation result. Specifically, the evaluation was made based on three factors: the size within the angle of view of the target subject obtained from the defocus information at the time of the previous focus detection, the presence / absence of obstacles, and the camera shake information obtained from the angular velocity information. This makes it possible to follow a subject that suddenly starts moving in a near view. Further, in an environment in which an undesired subject is targeted for erroneous detection and erroneous detection is likely to occur, it is possible to suppress erroneous detection while maintaining subject tracking in a near view.
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第1の実施形態では、第三の閾値が被写体の追従し易さによって変化する数値として設定される例を説明した。これに対し、第2の実施形態では、第三の閾値が第一の閾値と一致する、すなわち被写体を追従しにくい条件下では、被写体が前回と同一であると認めるデフォーカス量の差を大きくしない例について説明する。
<Second embodiment>
Next, a second embodiment of the present invention will be described. In the first embodiment, an example in which the third threshold value is set as a numerical value that changes depending on the ease of following the subject has been described. On the other hand, in the second embodiment, under the condition that the third threshold value matches the first threshold value, that is, it is difficult to follow the subject, the difference in the amount of defocus that the subject is recognized as the same as the previous time is large. An example of not doing so will be described.
以下、図12を参照して、本発明の第2の実施形態における連続性判定閾値設定処理について説明する。なお、第2の実施形態は、図4のS401における処理が第1の実施形態と異なり、図12に示す処理が図7に示す処理の代わりに実行される。それ以外は第1の実施形態と同様であるため、説明を省略する。 Hereinafter, the continuity determination threshold setting process according to the second embodiment of the present invention will be described with reference to FIG. In the second embodiment, the process in S401 of FIG. 4 is different from that of the first embodiment, and the process shown in FIG. 12 is executed instead of the process shown in FIG. 7. Other than that, it is the same as that of the first embodiment, so the description thereof will be omitted.
図12は、第2の実施形態においてS401で行われる連続性判定閾値設定処理の動作の一例を示す図である。 FIG. 12 is a diagram showing an example of the operation of the continuity determination threshold setting process performed in S401 in the second embodiment.
S1201では、マイクロコンピュータ124は、距離測定回路142により計測した被写体距離情報を、レンズ内マイクロコンピュータ141、レンズ通信回路103を介して受信することで、現在捕捉中の被写体がカメラに対して一定以上の距離であるかどうかを判定する。被写体が一定以上の距離であればS1202へ遷移し、そうでなければS1204に遷移する。
In S1201, the
S1202では、マイクロコンピュータ124は、連続性判定閾値を第一の閾値に設定し、連続性判定閾値設定処理を終了する。
In S1202, the
一方S1204において、マイクロコンピュータ124は、被写体を捕捉しにくいかどうかを判断する。ここでは、以下の3条件のいずれかに該当するかどうかを判定する。
・デフォーカス情報より得られる対象被写体の画角内のサイズが一定値より小さい
・障害物がある(画角内に所望の被写体の手前に写っている被写体がある)
・角速度情報により得られるカメラの振れ量が一定値より大きい
上述したいずれかの条件に該当する場合は、被写体を捕捉しにくく、そうでない場合は被写体を捕捉し易いと判断する。被写体を捕捉し易いと判断した場合はS1206へ遷移し、そうでなければS1202に遷移する。
On the other hand, in S1204, the
-The size within the angle of view of the target subject obtained from the defocus information is smaller than a certain value.-There is an obstacle (there is a subject in front of the desired subject within the angle of view).
-If any of the above conditions is met in which the amount of camera shake obtained from the angular velocity information is greater than a certain value, it is judged that it is difficult to capture the subject, and if not, it is easy to capture the subject. If it is determined that the subject is easy to capture, the transition to S1206 is performed, otherwise the transition to S1202 is performed.
S1206で、マイクロコンピュータ124は、連続性判定閾値を第一の閾値よりも大きい第二の閾値に設定し、連続性判定閾値設定処理を終了する。この第二の閾値は、被写体距離に応じて可変であって、至近であるほど大きくなる。
In S1206, the
以上説明した通り、第2の実施形態では、被写体を追い続けられないことが危惧される場合には、デフォーカス量の差異が大きく出たときに同一被写体と認めにくくなるようにした。これにより、第1の実施形態に比べ、より連続性判定閾値を拡張しにくく設定することができ、特に誤った被写体を捕捉することを避けたい場合に適当である。また、演算量を減らすことができるため、全体のパフォーマンスに大きな影響を与えることがない。 As described above, in the second embodiment, when there is a concern that the subject cannot be followed, it is difficult to recognize the same subject when the difference in the defocus amount is large. As a result, the continuity determination threshold value can be set more difficult to expand than in the first embodiment, and is particularly suitable when it is desired to avoid capturing an erroneous subject. Moreover, since the amount of calculation can be reduced, the overall performance is not significantly affected.
<第3の実施形態>
次に、本発明の第3の実施形態について説明する。第1の実施形態では、被写体の追従しにくさを評価する条件として、デフォーカス情報より得られる対象被写体の画角内のサイズ、障害物の有無、角速度情報により得られるカメラの振れ情報の3つを用いた。
<Third embodiment>
Next, a third embodiment of the present invention will be described. In the first embodiment, as conditions for evaluating the difficulty of following the subject, the size within the angle of view of the target subject obtained from the defocus information, the presence / absence of obstacles, and the camera shake information obtained from the
第3の実施形態では、カメラ姿勢とカメラ振れ情報から得られるパン・チルト情報あるいはxy平面動きベクトル、被写界深度、ユーザ設定の被写体の動き特性、画像処理により取得される被写体サイズ、顔や動物などの被写体の個数、の情報(難易度情報)を用いて、被写体の補足しにくさを表現する。 In the third embodiment, pan / tilt information or xy plane motion vector obtained from camera posture and camera shake information, depth of field, user-set subject motion characteristics, subject size acquired by image processing, face, and the like. The difficulty of capturing the subject is expressed by using the information (difficulty level information) of the number of subjects such as animals.
以下、図13と被写体捕捉難易度算出方法の説明によって、本発明の第3の実施形態における被写体捕捉難易度の算出方法の違いについて説明する。なお、第3の実施形態では、第1の実施形態で説明した図4の処理の代わりに、図13に示す処理を行うが、それ以外は第1の実施形態と同様であるため、説明を省略する。また、図13において、図4における処理と同じ処理には同じ参照番号を付し、説明を省略する。 Hereinafter, the difference in the method of calculating the difficulty of capturing a subject in the third embodiment of the present invention will be described by referring to FIG. 13 and the method of calculating the difficulty of capturing a subject. In the third embodiment, the process shown in FIG. 13 is performed instead of the process of FIG. 4 described in the first embodiment, but other than that, the process is the same as that of the first embodiment. Omit. Further, in FIG. 13, the same processing as that in FIG. 4 is assigned the same reference number, and the description thereof will be omitted.
図13に示す焦点検出処理において、S1304で、マイクロコンピュータ124は、映像信号処理回路117で取得した画像から、人の顔・身体や動物といった、画像内における被写体の位置と数を抽出する。
In the focus detection process shown in FIG. 13, in S1304, the
S1305で、マイクロコンピュータ124は、S1304で抽出した被写体の中から、主被写体を選択し、画面内の被写体サイズを算出する。主被写体としては、ユーザが予め設定した優先すべき被写体や、より大きく写っている被写体を優先的に選択する。
In S1305, the
S1306で、マイクロコンピュータ124は、S1305で抽出した主被写体の領域と、S1303で作成したデフォーカスマップを用いて、主測距点を決定する。
In S1306, the
次に、図7のS703で行われる被写体捕捉難易度の算出方法について、第1の実施形態との違いを説明する。なお、被写体捕捉難易度の算出方法は第1の実施形態と異なるが、その他の処理は図7の処理と同様であるため、説明を省略する。 Next, the method of calculating the subject capture difficulty level performed in S703 of FIG. 7 will be described as being different from the first embodiment. Although the method of calculating the subject capture difficulty is different from that of the first embodiment, the other processes are the same as those of FIG. 7, and thus the description thereof will be omitted.
本実施形態では、上述したように、被写体捕捉難易度の算出に、xy平面動きベクトルあるいはパン・チルト情報、被写界深度、被写体の動き特性、被写体サイズ、被写体の個数を利用する。xy平面動きベクトルは、前回の焦点検出時にS1305で検出した主被写体の、その前の焦点検出時における画面上での位置の違いを表現したものである。パン・チルト情報は、動き検出回路140から得られたカメラ姿勢とカメラ振れ情報から算出される。被写界深度は、駆動回路105で駆動させた絞り量から算出され、被写体の動き特性は、図14に示す選択画面にて予めユーザが設定する。被写体サイズは、S1305における画像処理により取得され、顔や動物などの被写体の個数は、S1304で検出されたものを用いる。なお、被写体の動き特性を「速い」に設定すると連続性判定閾値を大きく、「遅い」に設定すると連続性判定閾値を小さく設定できるようにする。このようにすることで、動きが速いと想定される被写体にはデフォーカス量の増減に対応しやすく、動きが遅いと想定される被写体には測距ノイズに左右されにくくすることができる。
In the present embodiment, as described above, the xy plane motion vector or pan / tilt information, depth of field, subject motion characteristics, subject size, and number of subjects are used to calculate the subject capture difficulty. The xy plane motion vector expresses the difference in the position of the main subject detected in S1305 at the time of the previous focus detection on the screen at the time of the previous focus detection. The pan / tilt information is calculated from the camera posture and camera shake information obtained from the
本実施形態における被写体捕捉難易度Dは、以下の式(3)により表すことができる。
式(3)において、VDは、観測したxy平面動きベクトル(画面上での被写体の動きベクトル)を示す。MVは、被写体を安定的に追えていると考えられる画面上での被写体の動き量を示す。Emは、許容できる最小の被写界深度を示す。EDは、今回のカメラ設定での被写界深度を示す。EMは、EDが取りうる最大値を示す。Imは、被写体を安定的に追える限界の最小被写体サイズを示す。IDは、画像処理によって算出した被写体のサイズを示す。IAは、画角のサイズを示す。FNは、被写体の動き特性設定値の全段数を示す。FUは、ユーザの設定した被写体の動き特性設定値を示す。Nは顔や動物などの被写体の個数を示す。なお、被写体を検出できなかったときであっても、Nの最小値は1とする。
The subject capture difficulty level D in this embodiment can be expressed by the following equation (3).
In the equation (3), V D indicates the observed xy plane motion vector (motion vector of the subject on the screen). M V indicates the amount of motion of the object on the screen that are considered to Chase the subject stably. E m is the minimum depth of field acceptable. E D indicates the depth of field at the current camera settings. E M indicates the maximum value E D can take. I m represents the minimum object size limit able to track an object in a stable manner. ID indicates the size of the subject calculated by image processing. I A indicates the size of the angle of view. F N indicates the total number of steps of the motion characteristic set value of the subject. F U represents a motion characteristic setting value of the subject set by the user. N indicates the number of subjects such as faces and animals. Even when the subject cannot be detected, the minimum value of N is set to 1.
また、被写体が背景と同系色であるなど、被写体を捕捉しにくいことでxy平面動きベクトルが観測できないことがある。このとき、式(3)には、xy平面動きベクトルVDの代わりに、観測したカメラのパン・チルトベクトルPDを用いる。更に、被写体を安定的に追えていると考えられる画面上での被写体の動き量MVの代わりに、被写体を安定的に追えると考えられるカメラの最大移動量MPを用いる。 In addition, the xy plane motion vector may not be observable because it is difficult to capture the subject, such as when the subject has a similar color to the background. In this case, the equation (3), instead of the xy plane motion vector V D, using the pan-tilt vector P D of the observed camera. Further, instead of the motion amount M V of the object on the screen that are considered to Chase the subject stably, using the maximum movement amount M P of the camera is considered able to track an object in a stable manner.
以上説明した通り第3の実施形態によれば、第1の実施形態とは異なる観点で被写体の捉えにくさを表現し、評価結果に応じて今回の焦点検出結果が現在捕捉中の被写体を引き続き捕捉できているか判定するための閾値を動的に変化させることができる。具体的には、カメラが揺れていても被写体が追従できていると推測できる状況ならば、被写体連続性判定閾値を小さくしないでよい。また、画像にどれだけの影響が出るかを考慮しながら閾値を設定することができる。さらに、他に画面上に見える別の被写体へのフォーカスの移り易さや、ユーザ設定の被写体の動き特性も加味した被写体連続性判定閾値とすることができる。 As described above, according to the third embodiment, the difficulty of capturing the subject is expressed from a viewpoint different from that of the first embodiment, and the current focus detection result continues to capture the subject currently being captured according to the evaluation result. The threshold value for determining whether or not the image can be captured can be dynamically changed. Specifically, if it can be estimated that the subject can follow even if the camera is shaking, the subject continuity determination threshold value may not be reduced. In addition, the threshold value can be set while considering how much the image is affected. Further, it is possible to set the subject continuity determination threshold value in consideration of the ease of shifting the focus to another subject visible on the screen and the movement characteristics of the subject set by the user.
<変形例>
上述した第1乃至第3の実施形態では、カメラが焦点検出専用の焦点検出回路110を有する場合について説明した。
<Modification example>
In the first to third embodiments described above, the case where the camera has a
一方、近年では、1つのマイクロレンズに対して複数の光電変換部が設けられた撮像素子により瞳分割信号を取得し、得られた複数の瞳分割信号の位相差に基づいて焦点検出を行う、いわゆる像面位相差AFが行われている。 On the other hand, in recent years, a pupil division signal is acquired by an image sensor provided with a plurality of photoelectric conversion units for one microlens, and focus detection is performed based on the phase difference of the obtained plurality of pupil division signals. So-called image plane phase difference AF is performed.
図15は、像面位相差AFを行うことができる撮像素子を構成する画素配列を示す図であり、撮像素子113として用いることができる。
FIG. 15 is a diagram showing a pixel arrangement constituting an image sensor capable of performing image plane phase difference AF, and can be used as the
図15に示す様に、マイクロレンズアレイを形成する各マイクロレンズ201に対して、複数の光電変換部201A,201Bが対応するように配置されている。図中(0,0)、(1,0)、(0,1)等で示される各領域は、撮像素子における単位画素202を示し、各単位画素202は、1つのマイクロレンズ201と、複数の光電変換部201A,201Bとから構成される。なお、本実施形態では単位画素202には2つの光電変換部201A,201BがX軸方向に並べられた場合を示しているが、Y軸方向に並べても、また、3つ以上の光電変換部を各マイクロレンズ201に対応するように構成しても良い。
As shown in FIG. 15, a plurality of
このように構成された、X軸方向に並ぶ複数の単位画素202のうち、瞳分割された光電変換部201Aの焦点検出用信号群で構成した被写体像をA像、瞳分割された光電変換部201Bの焦点検出用信号群で構成した被写体像をB像とする。そして、A像とB像に対して相関演算を実施することで、像のずれ量(位相差)を検出する。さらに、像のずれ量に対して焦点位置と光学系の特性に応じて決まる変換係数を乗じることで、画面内の任意の被写体位置に対応した焦点位置を算出することができる。ここで算出された焦点位置情報を基に、撮影レンズ101に含まれるフォーカスレンズを制御することで、焦点状態を検出する撮像面位相差AFが可能となる。
Of the plurality of
また、単位画素202毎に光電変換部201Aの信号と光電変換部201Bの信号を加算して出力することで、画像信号(A+B像)を得ることができる。
Further, an image signal (A + B image) can be obtained by adding and outputting the signal of the
上述した撮像素子を用いた場合にも、第1乃至第3の実施形態で説明した処理を実施することができると共に、焦点検出回路110を省略することができる。
Even when the above-mentioned image sensor is used, the processes described in the first to third embodiments can be performed, and the
<他の実施形態>
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device implement the program. It can also be realized by the process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.
101:撮影レンズ、102:レンズ駆動回路、104:絞りユニット、105:絞り駆動回路、109:測光回路、110:焦点検出回路、113:撮像素子、117:映像信号処理回路、124:マイクロコンピュータ、125:操作部材、140:動き検出回路、141:レンズ内マイクロコンピュータ、142:距離測定回路 101: photographic lens, 102: lens drive circuit, 104: aperture unit, 105: aperture drive circuit, 109: photometric circuit, 110: focus detection circuit, 113: image pickup element, 117: video signal processing circuit, 124: microcomputer, 125: Operation member, 140: Motion detection circuit, 141: In-lens microcomputer, 142: Distance measurement circuit
Claims (13)
前記焦点検出手段により繰り返し検出される前記デフォーカス量を記憶する記憶手段と、
前記記憶手段に記憶された第1のデフォーカス量と前記焦点検出手段により新たに検出された第2のデフォーカス量との差が閾値以上の場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定せず、前記差が前記閾値よりも小さい場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定する判定手段と、
前記閾値を設定する設定手段と、を有し、
前記設定手段は、前記第1のデフォーカス量に対応する被写体までの距離と、被写体の補足し易さを示す難易度情報とに基づいて、前記閾値を設定することを特徴とする撮像装置。 Focus detection means that detects the amount of defocus based on the signal obtained by photoelectric conversion of the light incident through the photographing optical system.
A storage means for storing the defocus amount repeatedly detected by the focus detection means, and a storage means.
When the difference between the first defocus amount stored in the storage means and the second defocus amount newly detected by the focus detection means is equal to or greater than the threshold value, the first and second defocus amounts Is not determined to correspond to the same subject, and when the difference is smaller than the threshold value, the determination means for determining that the first and second defocus amounts correspond to the same subject, and
It has a setting means for setting the threshold value and
The setting means is an imaging device that sets the threshold value based on the distance to the subject corresponding to the first defocus amount and the difficulty level information indicating the ease of capturing the subject.
前記難易度情報は、前記被写体の大きさ、前記被写体より至近側の障害物の有無、カメラの振れ情報の内の少なくともいずれかを含み、
前記被写体の大きさが小さいほど難易度が高く、前記障害物がある場合により難易度が高く、カメラの振れが大きいほど難易度が高いことを特徴とする請求項3に記載の撮像装置。 Further, it has a subject detecting means for detecting a subject within the angle of view based on the defocus amount detected by the focus detecting means.
The difficulty level information includes at least one of the size of the subject, the presence / absence of an obstacle near the subject, and the camera shake information.
The imaging device according to claim 3, wherein the smaller the size of the subject, the higher the difficulty level, the higher the difficulty level when there is an obstacle, and the larger the camera shake, the higher the difficulty level.
前記難易度情報は、前記被写体の移動量、パン・チルト情報、被写界深度、被写体の動き特性、前記被写体の大きさ、前記被写体検出手段により検出された被写体の個数の内の少なくともいずれかを含み、
前記被写体の移動量が大きいほど難易度が高く、パン・チルトの大きさが大きいほど難易度が高く、被写界深度が大きいほど難易度が高く、前記被写体の動き特性が大きいほど難易度が高く、前記被写体が大きいほど難易度が高く、前記検出された被写体の個数が少ないほど難易度が高いことを特徴とする請求項3に記載の撮像装置。 Further, it has a subject detecting means for detecting a subject within the angle of view based on the defocus amount detected by the focus detecting means.
The difficulty level information is at least one of the movement amount of the subject, pan / tilt information, depth of field, movement characteristics of the subject, the size of the subject, and the number of subjects detected by the subject detecting means. Including
The larger the movement amount of the subject, the higher the difficulty level, the larger the pan / tilt size, the higher the difficulty level, the larger the depth of field, the higher the difficulty level, and the larger the movement characteristic of the subject, the higher the difficulty level. The imaging apparatus according to claim 3, wherein the higher the subject, the higher the difficulty level, and the smaller the number of detected subjects, the higher the difficulty level.
前記条件は、前記被写体の大きさが予め決められた値よりも小さいこと、前記被写体より至近側に障害物があること、焦点検出装置の振れ量が予め決められた振れ量よりも大きいこと、の少なくともいずれかを含むことを特徴とする請求項6に記載の撮像装置。 Further, it has a subject detecting means for detecting a subject within the angle of view based on the defocus amount detected by the focus detecting means.
The conditions are that the size of the subject is smaller than a predetermined value, that there is an obstacle on the side closer to the subject, and that the amount of runout of the focus detection device is larger than the amount of runout determined in advance. The imaging apparatus according to claim 6, further comprising at least one of the above.
前記判定手段が、前記第1及び第2のデフォーカス量が同じ被写体に対応していると判定しなかった場合に、前記制御手段は、前記焦点検出手段により新たに検出されたデフォーカス量に基づく前記フォーカスレンズの駆動を行わないように制御することを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。 Further, it has a control means for controlling to drive the focus lens included in the photographing optical system based on the defocus amount.
When the determination means does not determine that the first and second defocus amounts correspond to the same subject, the control means sets the defocus amount newly detected by the focus detection means. The imaging apparatus according to any one of claims 1 to 7, wherein the focus lens is controlled so as not to be driven.
記憶手段が、前記焦点検出手段により繰り返し検出される前記デフォーカス量を記憶する記憶工程と、
判定手段が、前記記憶手段に記憶された第1のデフォーカス量と前記焦点検出工程で新たに検出された第2のデフォーカス量との差が閾値以上の場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定せず、前記差が前記閾値よりも小さい場合に、前記第1および第2のデフォーカス量が同じ被写体に対応していると判定する判定工程と、
設定手段が、前記閾値を設定する設定工程と、を有し、
前記設定工程では、前記第1のデフォーカス量に対応する被写体までの距離と、被写体の補足しにくさを示す難易度情報とに基づいて、前記閾値を設定することを特徴とする撮像装置の制御方法。 A focus detection step in which the focus detection means detects the amount of defocus based on a signal obtained by photoelectrically converting the light incident through the photographing optical system.
A storage step in which the storage means stores the defocus amount repeatedly detected by the focus detection means.
When the difference between the first defocus amount stored in the storage means and the second defocus amount newly detected in the focus detection step is equal to or greater than the threshold value, the determination means first and second. Defocus amount is not determined to correspond to the same subject, and when the difference is smaller than the threshold value, it is determined that the first and second defocus amounts correspond to the same subject. Process and
The setting means has a setting step of setting the threshold value and the like.
In the setting step, the image pickup apparatus is characterized in that the threshold value is set based on the distance to the subject corresponding to the first defocus amount and the difficulty level information indicating the difficulty of capturing the subject. Control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019199244A JP7431555B2 (en) | 2019-10-31 | 2019-10-31 | Imaging device and its control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019199244A JP7431555B2 (en) | 2019-10-31 | 2019-10-31 | Imaging device and its control method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021071656A true JP2021071656A (en) | 2021-05-06 |
JP2021071656A5 JP2021071656A5 (en) | 2022-11-09 |
JP7431555B2 JP7431555B2 (en) | 2024-02-15 |
Family
ID=75713706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019199244A Active JP7431555B2 (en) | 2019-10-31 | 2019-10-31 | Imaging device and its control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7431555B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11337814A (en) * | 1998-05-26 | 1999-12-10 | Canon Inc | Optical device |
JP2012203345A (en) * | 2011-03-28 | 2012-10-22 | Canon Inc | Focus adjustment device and focus adjustment method |
JP2012203207A (en) * | 2011-03-25 | 2012-10-22 | Canon Inc | Imaging apparatus |
JP2017223751A (en) * | 2016-06-14 | 2017-12-21 | キヤノン株式会社 | Focus adjustment device |
WO2018004001A1 (en) * | 2016-06-30 | 2018-01-04 | 株式会社ニコン | Camera |
JP2019020716A (en) * | 2017-07-13 | 2019-02-07 | キヤノン株式会社 | Control device, imaging apparatus and program |
JP2019176249A (en) * | 2018-03-27 | 2019-10-10 | オリンパス株式会社 | Image processing device, image processing method, image processing program, and imaging device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009128613A (en) | 2007-11-22 | 2009-06-11 | Olympus Imaging Corp | Camera and automatic focusing device for camera |
-
2019
- 2019-10-31 JP JP2019199244A patent/JP7431555B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11337814A (en) * | 1998-05-26 | 1999-12-10 | Canon Inc | Optical device |
JP2012203207A (en) * | 2011-03-25 | 2012-10-22 | Canon Inc | Imaging apparatus |
JP2012203345A (en) * | 2011-03-28 | 2012-10-22 | Canon Inc | Focus adjustment device and focus adjustment method |
JP2017223751A (en) * | 2016-06-14 | 2017-12-21 | キヤノン株式会社 | Focus adjustment device |
WO2018004001A1 (en) * | 2016-06-30 | 2018-01-04 | 株式会社ニコン | Camera |
JP2019020716A (en) * | 2017-07-13 | 2019-02-07 | キヤノン株式会社 | Control device, imaging apparatus and program |
JP2019176249A (en) * | 2018-03-27 | 2019-10-10 | オリンパス株式会社 | Image processing device, image processing method, image processing program, and imaging device |
Also Published As
Publication number | Publication date |
---|---|
JP7431555B2 (en) | 2024-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2456654C2 (en) | Image capturing device, control method thereof and data medium | |
EP1617652B1 (en) | Hybrid autofocus system for a camera | |
US10863079B2 (en) | Control apparatus, image capturing apparatus, and non-transitory computer-readable storage medium | |
JP6525813B2 (en) | Imaging device, control method, program, and storage medium | |
JP5930702B2 (en) | Focus adjustment device | |
JP2017126035A (en) | Imaging apparatus, control method, program, and storage medium | |
JP2009265239A (en) | Focus detecting apparatus, focus detection method, and camera | |
JP6486098B2 (en) | Imaging apparatus and control method thereof | |
JP5947489B2 (en) | Focus adjustment device and focus adjustment method | |
JP2015111226A (en) | Subject tracking device and control method of the same, imaging device, program, and storage medium | |
JP2012173709A (en) | Imaging apparatus | |
JP2008107657A (en) | Imaging apparatus, its control method, program, and recording medium | |
JP7431555B2 (en) | Imaging device and its control method | |
JP2016142924A (en) | Imaging apparatus, method of controlling the same, program, and storage medium | |
JP5359150B2 (en) | Imaging device | |
JP2010145495A (en) | Camera system | |
JP5871196B2 (en) | Focus adjustment device and imaging device | |
JP7379083B2 (en) | Control device, imaging device, control method, and program | |
JP2015166780A (en) | Imaging device and control method of the same | |
JP7277133B2 (en) | Focus control device, imaging device, and program | |
JP2018197845A (en) | Focus control device and imaging device | |
JP2005227447A (en) | Autofocus camera | |
JP2017224908A (en) | Imaging apparatus | |
JP2018180372A (en) | Imaging apparatus and control method thereof | |
JP5619227B2 (en) | IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221031 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221031 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240202 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7431555 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |