JP7254555B2 - IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE - Google Patents
IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE Download PDFInfo
- Publication number
- JP7254555B2 JP7254555B2 JP2019026321A JP2019026321A JP7254555B2 JP 7254555 B2 JP7254555 B2 JP 7254555B2 JP 2019026321 A JP2019026321 A JP 2019026321A JP 2019026321 A JP2019026321 A JP 2019026321A JP 7254555 B2 JP7254555 B2 JP 7254555B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- photometry
- value
- photometric
- photometric value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、撮像装置および撮像装置の制御方法に関する。 The present invention relates to an imaging device and an imaging device control method.
カメラの撮影方法の一つである流し撮りは、移動している被写体をカメラで追従しながら撮影する手法である。流し撮りによると、被写体を静止させながら、背景を流すことで躍動感のある写真を撮影することができる。しかし、流し撮りは、被写体の移動速度とカメラを振る速度(以下、パンニング速度とも称する)を合わせることが困難である。そのため、流し撮りに不慣れなユーザが撮影を行った場合、被写体が静止せずにブレ残りが生じる可能性が高い。 Panning, which is one of camera shooting methods, is a method of shooting a moving subject while following it with the camera. According to panning, it is possible to take a photograph with a sense of dynamism by letting the subject stand still while the background is flowing. However, in panning, it is difficult to match the moving speed of the subject with the speed at which the camera is shaken (hereinafter also referred to as panning speed). Therefore, when a user who is unfamiliar with panning takes a picture, there is a high possibility that the subject will not stand still and a blur residue will occur.
近年、この流し撮りを初心者でも簡単に行えるように、流し撮りアシスト機能を備えた撮像装置も提案されている。例えば、特許文献1では、露光前の撮像装置に対する被写体の相対角速度と露光前の角速度センサから得た撮像装置の角速度に基づいて、露光中の被写体のブレを補正する。撮像装置に対する被写体の相対角速度は、画像から検出した被写体の像面上の移動量と角速度センサによって算出している。また、特許文献1は、流し撮り時に、撮像画面の動きベクトル検知とパンニング速度から動きベクトルの変化のない被写体部を算出することも開示する。 In recent years, an imaging apparatus having a panning assist function has been proposed so that even a beginner can easily perform this panning. For example, in Japanese Unexamined Patent Application Publication No. 2002-100003, blurring of an object during exposure is corrected based on the relative angular velocity of the object with respect to the imaging device before exposure and the angular velocity of the imaging device obtained from an angular velocity sensor before exposure. The relative angular velocity of the subject with respect to the imaging device is calculated from the amount of movement of the subject on the image plane detected from the image and the angular velocity sensor. Further, Japanese Patent Laid-Open No. 2002-200000 discloses calculating a subject portion in which the motion vector does not change based on the motion vector detection and the panning speed of the imaging screen during panning.
一方で、流し撮り中は、移動する被写体をカメラで追従しているため、背景部分の輝度変動が大きくなる傾向がある。このことから、流し撮り中には、通常の静止画撮影時と比較して被写体の輝度を重視した測光演算をすることが好ましい。 On the other hand, during panning, the moving subject is tracked by the camera, so there is a tendency for the luminance fluctuation in the background portion to increase. For this reason, during panning, it is preferable to perform photometric calculations that emphasize the brightness of the subject compared to normal still image shooting.
しかしながら、例えば、低コントラストの被写体を撮影する場合や、撮像画面の輝度変化などにより、撮像画面に含まれる被写体の動きベクトルを取得できないことがある。この場合、被写体領域を算出することができず、流し撮りに適した測光値を算出することが困難となる。 However, for example, when shooting a low-contrast subject, or due to changes in the brightness of the imaging screen, it may not be possible to acquire the motion vector of the subject included in the imaging screen. In this case, the subject area cannot be calculated, making it difficult to calculate a photometric value suitable for panning.
本発明は、上記の状況に鑑みてなされたものであって、流し撮り中に被写体領域が検出できなかった場合でも、被写体に適した測光値の算出を可能とする撮像装置を提供する。 SUMMARY OF THE INVENTION The present invention has been made in view of the above situation, and provides an image pickup apparatus capable of calculating a photometric value suitable for a subject even when the subject area cannot be detected during panning.
本発明の一例である撮像装置は、撮像装置の動きを検出する検出手段と、撮像された画像に含まれる被写体領域を検知する領域検知手段と、前記撮像装置の動きと、過去に撮像された画像の間における前記被写体領域の動きから、前記被写体領域の位置を予測する領域予測手段と、被写体の測光演算を行う測光手段と、を備え、前記測光手段は、前記画像から前記被写体領域を検知できたときには、前記領域検知手段により検知された前記被写体領域に基づき第1の測光値を算出し、前記画像から前記被写体領域を検知できないときには、前記領域予測手段により予測された前記被写体領域に基づき第2の測光値を算出し、過去に算出された前記第1の測光値と前記第2の測光値とを重みづけ加算して第3の測光値を算出する。
An image capturing apparatus, which is an example of the present invention, includes detection means for detecting movement of the image capturing apparatus, area detection means for detecting a subject area included in a captured image, movement of the image capturing apparatus, and an area prediction means for estimating the position of the subject area from movement of the subject area between images; and a photometry means for performing photometry calculation of the subject, wherein the photometry means detects the subject area from the images. calculating a first photometric value based on the subject area detected by the area detecting means when the subject area can be detected, and calculating the subject area predicted by the area predicting means when the subject area cannot be detected from the image; A second photometric value is calculated, and a third photometric value is calculated by weighted addition of the previously calculated first photometric value and the second photometric value.
本発明の一例である撮像装置によれば、流し撮り中に被写体領域が検出できなかった場合でも、被写体に適した測光値を算出できる。 According to the imaging apparatus that is an example of the present invention, even if the subject area cannot be detected during panning, a photometric value suitable for the subject can be calculated.
以下、本発明の実施形態を図面などに基づいて詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<第1実施形態>
図1は、第1実施形態の撮像装置100の構成例を示すブロック図である。
本実施形態の撮像装置100は、流し撮りに適した撮影補助機能である流し撮りアシスト機能を有する。なお、以下の説明での流し撮りは、撮像装置を水平方向に動かすパンニングの場合を前提とするが、撮像装置を垂直方向に動かすチルティングの場合でも本発明を同様に適用できる。
<First embodiment>
FIG. 1 is a block diagram showing a configuration example of an
The
ここで、撮像装置100は、デジタルカメラ、デジタルビデオカメラといったカメラのほか、カメラ機能付き携帯電話、カメラ付きコンピュータなど、カメラ機能を備える任意の電子機器であってもよい。なお、実施形態で示す撮像装置の構成はあくまで例示であって、実施形態で説明されている特徴の組み合わせ全てが本発明に必須とは限らない。
Here, the
撮像装置100は、光学系101、撮像素子102、焦点検出回路103、CPU(Central Processing Unit)104、一次記憶装置105、角速度センサ106および画像処理部107を備える。また、撮像装置100は、記録媒体108のインターフェース、二次記憶装置109、表示部110、操作部111、動きベクトル検出部112および被写体角加速度計算部113を備える。
The
光学系101は、レンズ、シャッタ、絞りを含み、被写体からの光を撮像素子102に結像させる。光学系101のレンズ、シャッタ、絞りは、CPU104の制御によって駆動される。また、光学系101のレンズには、フォーカスレンズ、ズームレンズ、シフトレンズ等が含まれる。上記のシフトレンズは、光学的に像ブレを補正する補正手段の一例である。
An
撮像素子102は、光学系101を通って結像した光を画像信号に変換するデバイスである。撮像素子102の例として、CCD(電荷結合素子)型またはCMOS(相補型金属酸化膜半導体)型のイメージセンサが挙げられる。
焦点検出回路103は、焦点検出処理(Auto Focus)を実行して、焦点距離の情報をCPU104に出力する。
The
The
CPU104は、入力された信号や予め記憶されたプログラムに従い、撮像装置100を構成する各部を制御する制御装置である。CPU104の制御により、撮像装置100の各種の機能が実現される。
The
一次記憶装置105は、例えばRAM(Random access memory)等の揮発性記憶装置である。一次記憶装置105は、一時的なデータを記憶し、CPU104の作業用に使われる。また、一次記憶装置105に記憶された情報は、画像処理部107での利用に供され、あるいは記録媒体108へ記録される。
The
角速度センサ106は、撮像装置100の移動量を表す角速度を検出し、検出した角速度を電気信号に変換してCPU104へ伝達する。角速度センサ106の例として、ジャイロセンサが挙げられる。例えば、後述するように撮像装置がレンズ交換型カメラである場合、角速度センサ106は、レンズ側の構成要素であってもよく、撮像装置の本体側の構成要素であってもよい。
The
画像処理部107は、いわゆる現像処理と呼ばれる画像処理や、撮影モードに応じた色調の調整などを行う画像処理用のプロセッサである。画像処理部107の機能の少なくとも一部は、CPU104がソフトウェア的に実現してもよい。
また、画像処理部107は、撮像画像に適用される画像処理のパターンを複数有している。画像処理のパターンは、それぞれ異なる撮影モードと紐づけされており、画像処理部107は、設定された撮影モードに応じて画像処理のパターンを変化させる。
The
The
記録媒体108は、撮像装置100に対して着脱可能で、かつデータの読み書きが可能な不揮発性記憶媒体である。記録媒体108の例として、半導体メモリカードが挙げられる。記録媒体108は、例えば、一次記憶装置105に記憶された、撮影により得られた画像のデータなどを記録する。記録媒体108に記録されたデータは、記録媒体108とのインターフェースを有するパーソナルコンピュータなどで読み出すことが可能である。
The
二次記憶装置109は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性記憶装置である。二次記憶装置109は、撮像装置100を制御するためのプログラム(ファームウェア)や各種の設定情報を記憶する。二次記憶装置109の情報は、CPU104によって利用される。
The
表示部110は、撮影時のビューファインダ画像の表示、撮影した画像の表示、対話的な操作のためのGUI画像の表示などを行う。
操作部111は、ユーザ(撮影者)の操作を受け付けてCPU104へ入力情報を伝達する入力デバイス群である。操作部111は、例えば、SW1、SW2を有するレリーズスイッチ、ボタン、レバー、タッチパネルに加えて、音声や視線などを用いた入力機器を含んでいてもよい。また、操作部111の操作により、撮影モードの設定が行われる。
The
An
動きベクトル検出部112は、撮影により得られた画像を用いて動きベクトルを検出する。
被写体角加速度計算部113は、一次記憶装置105に蓄積される被写体角速度の履歴を読み出し、時間軸方向に連続的な被写体角加速度の変化量を計算する。ここで、被写体角速度は、被写体の撮像装置100に対する角速度である。
A motion
The subject
図2は、撮像装置の具体的な装置構成例を示す図である。図2では、撮像装置の一例として、カメラ本体200に対してレンズユニット400を交換可能なレンズ交換式カメラの構成を説明する。
FIG. 2 is a diagram showing a specific device configuration example of the imaging device. In FIG. 2, as an example of an imaging device, a configuration of an interchangeable lens type camera in which a
まず、図2に示すカメラ本体200の構成を説明する。
カメラ本体200は、カメラマイコン201、メモリ202、撮像素子203、シャッタ204、ハーフミラー205、ピント板206、表示素子207、測光センサ208、ペンタプリズム209を備える。また、カメラ本体200は、焦点検出回路210、AFミラー211、APU212、メモリ213を備える。
First, the configuration of the
A
カメラマイコン201は、カメラ本体200の各要素を制御するプロセッサである。図2の例では、カメラマイコン201が、露光時の被写体角速度を算出する機能を担う。
メモリ202は、カメラマイコン201に接続されているRAMやROM等の記憶装置である。
A
A
撮像素子203は、図1の撮像素子102に対応する要素であって、撮影時に被写体からの光を光電変換するイメージセンサである。撮像素子203は、赤外カットフィルタやローパスフィルタ等を撮像面に有する。
シャッタ204は、非撮影時には撮像素子203の撮像面を遮光し、撮影時には開いて撮像素子203の撮像面へ光を導く。
An
The
ハーフミラー205は、撮像素子203による撮影を行わないときにはミラーダウン状態となり、撮像素子203による撮影を行うときにはミラーアップ状態となって光路から退避するように駆動する。図2では、ミラーダウン状態のハーフミラー205の配置を示している。
ハーフミラー205は、ミラーダウン状態においてレンズユニット400より入射する光の一部を反射して光学ファインダ側に導き、残りの一部の光を透過させる。ハーフミラー205で反射された光は、ピント板206に被写体の像を結像させる。
The
The
表示素子207は、光学ファインダを覗くユーザに対して、焦点検出(AF)している位置を示すための表示を行う。表示素子207は、例えば、PN液晶等で構成され、ピント板206の被写体の像に焦点検出対象の点(AF測距点)を重畳して表示する。
A
測光センサ208は、撮像素子を内蔵したセンサであって、ミラーダウン状態のハーフミラー205で反射された光に基づいて被写体の測光を行う。ペンタプリズム209は、ピント板206の被写体の像を測光センサ208および光学ファインダに導く。なお、図2に示すように、測光センサ208は、ペンタプリズム209を介してピント板206に結像された被写体像を斜めの位置から見込んでいる。
A
AFミラー211は、レンズユニット400から入射し、ミラーダウン状態のハーフミラー205を透過した光の一部を焦点検出回路210内のAFセンサに導く。焦点検出回路210は、図1の焦点検出回路103に対応する。焦点検出回路210は、AFミラー211を介して入射した光に基づいて、焦点検出(測距)を行う。なお、AFミラー211は、ミラーアップ状態のときにはハーフミラー205とともに光路から退避する。
The
APU212は、測光センサ208の出力を用いて信号処理を行うプロセッサである。APU212は、例えば、図1に示した画像処理部107、動きベクトル検出部112の機能を備える。メモリ213は、APU212に接続されているRAMやROM等の記憶装置である。なお、図2の例では、測光センサ208専用のプロセッサとしてAPU212を設ける構成を説明したが、カメラマイコン201が、APU212の行う処理を実行してもよい。
The
次に、図2に示すレンズユニット400の構成を説明する。
レンズユニット400は、LPU401、角速度センサ402、レンズ403を有する。
Next, the configuration of the
The
LPU401は、レンズユニット400内の各部を制御するためのプロセッサである。LPU401は、例えば、図示しない電気接点を介して、被写体との距離情報や、後述する角速度情報等をカメラマイコン201に送信する。
The
角速度センサ402は、撮像装置の移動量を表す角速度を検出し、角速度情報を電気信号として変換してLPU401へ伝達する。角速度センサ402は、例えばジャイロセンサで構成される。この角速度センサ402は、図1の角速度センサ106に対応する要素であって、検出手段の一例である。
The
ここで、LPU401は、カメラマイコン201との通信によって得られる被写体角速度に基づいて、レンズ403に含まれるシフトレンズの駆動量を算出する。そして、LPU401は、この駆動量に基づいてシフトレンズを駆動することで、被写体に係る像ブレ(被写体ブレ)を補正する。これにより、流し撮りアシスト機能の動作時においては、撮影者のパンニング動作が被写体の動きに対してずれている場合でも被写体ブレを抑えつつ背景を流す撮影が実現しやすくなる。
Here, the
図3は流し撮りアシスト機能の動作時における測光演算の例を説明するフローチャートである。
流し撮りアシスト機能をオンにして撮像装置を起動させると、図3に示すフローチャートの処理が開始される。なお、以下のフローチャートにおいては、ミラーダウン状態で測光センサ208の出力を用いて測光演算が行われてもよく、ミラーアップ状態で撮像素子203の出力を用いて測光演算が行われてもよい。
FIG. 3 is a flow chart for explaining an example of photometry calculation during operation of the panning assist function.
When the imaging apparatus is activated with the panning assist function turned on, the processing of the flowchart shown in FIG. 3 is started. Note that in the following flowchart, the photometric calculation may be performed using the output of the
ステップS301にて、カメラマイコン201は、撮影者によるレリーズスイッチの半押し操作を受け付けたか(SW1がONになったか)を判断する。SW1がONの場合には処理がステップS302に移行し、流し撮り用の測光演算が開始される。一方、SW1がONになっていない場合には、カメラマイコン201は、SW1がONになるまで待機する。
In step S301, the
ステップS302にて、カメラマイコン201は、角速度センサ402によって検出された角速度から撮像装置のパンニング角速度の情報を取得する。
In step S<b>302 , the
ステップS303にて、カメラマイコン201は、測光演算のために取得される画像から被写体の領域(被写体領域)を検知する。上記のように、測光演算のために取得される画像は、ミラーアップ状態での撮影時には撮像素子203によって取得され、ミラーダウン状態での撮影時には測光センサ208によって取得される。
In step S303, the
例えば、ミラーダウン状態の場合、APU212内の動きベクトル検出部が、測光センサ208で得られた画像から動きベクトルを検出する。また、ミラーアップ状態の場合、カメラマイコン201内の動きベクトル検出部が、撮像素子203で得られた画像から動きベクトルを検出する。そして、カメラマイコン201は、動きベクトル検出部で検出した動きベクトルと、パンニング角速度の情報(S302)を用いて被写体の領域を検知する。つまり、カメラマイコン201は、領域検知手段の一例である。
なお、被写体の領域の決定に関しては、例えばテンプレートマッチング等様々な手法が提案されている。そのため、ステップS303において、これらの公知の手法も適宜利用して被写体の領域を決定してもよい。
For example, in the mirror-down state, the motion vector detector in the
Various methods such as template matching have been proposed for determining the area of the subject. Therefore, in step S303, these well-known methods may be appropriately used to determine the subject area.
ステップS304にて、カメラマイコン201は、被写体の領域を検知したかを判断する。被写体の領域を検知した場合にはステップS305に処理が移行する。一方、被写体の領域を検知できない場合にはステップS309に処理が移行する。
In step S304, the
ステップS304で被写体の領域を検知した場合、ステップS305にて、カメラマイコン201は、撮像面上の被写体角速度を取得する。
そして、ステップS306にて、カメラマイコン201は、被写体角速度を算出する。
When the subject area is detected in step S304, the
Then, in step S306, the
ここで、ステップS305およびS306の処理は以下のように行われる。
図4は、本実施形態における被写体角速度の算出について説明する図である。
例えば、被写体がt秒の間に点Aから点Bへ移動した場合を考える。この場合に、上記の被写体の移動に応じて、撮像装置のセンサ上に結像する被写体の像は点Cから点Dへと移動する。点Cと点Dの距離(撮像面上の移動量)をd[pixel]、焦点距離をf[mm]、センサの画素ピッチをp[μm/pixel]としたとき、撮像面上の被写体の角速度ω[rad/sec]は、以下の式1で表わすことができる。
Here, the processing of steps S305 and S306 is performed as follows.
FIG. 4 is a diagram illustrating calculation of the subject angular velocity in this embodiment.
For example, consider the case where the object moves from point A to point B in t seconds. In this case, the image of the subject formed on the sensor of the imaging device moves from point C to point D in accordance with the movement of the subject. When the distance between points C and D (the amount of movement on the imaging plane) is d [pixel], the focal length is f [mm], and the pixel pitch of the sensor is p [μm/pixel], the object on the imaging plane is The angular velocity ω [rad/sec] can be expressed by
撮影者が撮像装置をパンニングしていた場合、撮像面上の被写体の角速度ωは、被写体自身の角速度(被写体角速度)ωSからパンニング角速度ωpを減算したものとなる。したがって、撮像面上の被写体の角速度ωは、以下の式2で表わすことができる。
ω=ωS-ωp 式2
When the photographer pans the imaging device, the angular velocity ω of the subject on the imaging plane is obtained by subtracting the panning angular velocity ω p from the angular velocity of the subject itself (subject angular velocity) ω S . Therefore, the angular velocity ω of the subject on the imaging plane can be expressed by
ω = ω S - ω p Formula 2
したがって、カメラマイコン201は、角速度センサ402で検出された撮像装置のパンニング角速度ωpと撮像面上の被写体の角速度ωを用いて、以下の式3により被写体角速度ωSを算出できる。
ωS=ω+ωp 式3
Therefore, the
ω S = ω + ω p Equation 3
図3の説明に戻って、ステップS307にて、カメラマイコン201は、ステップS303で求めた被写体領域の情報(例えば被写体領域の形状、大きさ、位置の情報)を、当該情報の生成時点を示す情報と紐づけした状態で被写体領域履歴に保存する。
一例として、カメラマイコン201は、撮像素子203で撮像された画像より被写体領域を求めた場合にはメモリ202に被写体領域履歴を保存し、測光センサ208で得られた画像から被写体領域を求めた場合にはメモリ213に被写体領域履歴を保存する。なお、被写体領域履歴の保存先は一例にすぎず、適宜変更することができる。
Returning to the description of FIG. 3, in step S307, the
As an example, when the
ステップS308にて、カメラマイコン201は、ステップS306で算出した被写体角速度の情報を、当該情報の生成時点を示す情報と紐づけした状態で被写体角速度履歴に保存する。ステップS308の処理が終了すると、ステップS310に処理が移行する。なお、被写体角速度履歴の保存先は、上記の被写体領域履歴の保存先と同様であるので説明を省略する。
In step S<b>308 , the
ステップS309は、ステップS304で被写体の領域を検知できない場合の処理である。カメラマイコン201は、動きベクトルとパンニング角速度の情報から被写体が検知されなかった場合、被写体領域を検出できない。この場合、カメラマイコン201は、過去の検出結果から被写体領域の移動量を予測する。ステップS309の処理の詳細は、図5を用いて後述する。ステップS309の処理が終了すると、ステップS310に処理が移行する。
Step S309 is processing when the subject area cannot be detected in step S304. The
ステップS310にて、カメラマイコン201は、撮像素子203または測光センサ208で取得された画像を用いて、被写体領域に基づく測光値を算出する。ステップS310で測光値を算出する被写体領域は、ステップS303で検知された被写体領域、またはステップS309の処理で予測された被写体領域のいずれかである。なお、被写体領域における測光値の算出手法自体は公知であるため、詳細な説明は省略する。
In step S310, the
ステップS311にて、カメラマイコン201は、撮影者によるレリーズスイッチの全押し操作を受け付けたか(SW2がONになったか)を判断する。SW2がONの場合、カメラマイコン201は、ステップS309で算出された測光値を用いて撮影動作を開始する。
In step S311, the
一方、SW2がONになっていない場合には、ステップS301に処理が戻る。なお、レリーズスイッチの全押し操作がされる前に、再びレリーズスイッチの半押し操作がなされると、カメラマイコン201は再度ステップS302以降の処理を実行し、被写体領域に基づく測光値を算出する。以上で、図3の説明を終了する。
On the other hand, if SW2 is not ON, the process returns to step S301. If the release switch is half-pressed again before the release switch is fully-pressed, the
次に、図5を参照しつつ、ステップS309で行われる被写体領域の予測手法を説明する。
以下の例では、等速直線運動で離れていく物体を被写体として、被写体角速度の算出を行う場合を説明する。なお、被写体角速度の履歴から被写体角速度の予想が可能であれば本手法を適用した被写体領域の予測は可能であり、被写体の動きは上記の例に限定されない。
Next, the subject area prediction method performed in step S309 will be described with reference to FIG.
In the following example, a case will be described in which the object angular velocity is calculated with an object moving away in uniform linear motion as the object. Note that if the subject angular velocity can be predicted from the history of the subject angular velocity, then the subject area can be predicted by applying this method, and the movement of the subject is not limited to the above examples.
図6は、被写体の角速度と角加速度の例を示す図である。
被写体が等速直線運動をしている場合でも、撮像装置から見た角速度として計算すると被写体は加速する。したがって、被写体領域が最後に検知された画像(フレーム)の時点で取得された被写体角速度ωlastと、現時点の被写体角速度ωtは異なる値になる。
そこで、図5の処理におけるカメラマイコン201は、ステップS305で保存した被写体角速度履歴を用いて、最後に被写体領域が検知されたフレームからの被写体領域の撮像面上の移動量を予測する。
FIG. 6 is a diagram showing an example of angular velocity and angular acceleration of a subject.
Even if the subject is in uniform linear motion, the subject will accelerate when calculated as the angular velocity seen from the imaging device. Therefore, the subject angular velocity ω last acquired at the time of the image (frame) in which the subject area was last detected and the subject angular velocity ω t at the present time have different values.
Therefore, the
ステップS501にて、カメラマイコン201は、メモリ202またはメモリ213に記憶されている被写体角速度履歴の情報を読み出す。
In step S<b>501 , the
ステップS502にて、カメラマイコン201は、被写体角速度の変化量である被写体角加速度を算出する。ある時点での被写体角速度をωnとすると、ある時点での被写体角加速度ωanは、以下の式4で算出することができる。
ωan=ωn-ωn-1 式4
In step S502, the
ω an =ω n -ω n-1 Formula 4
ステップS503にて、カメラマイコン201は、ステップS502で求めた被写体角加速度に基づいて、現在の被写体角加速度を予測する。
被写体角加速度の予測方法としては、任意の履歴から線形的に近似する方法や、予め一般化した所定の近似式をメモリ202もしくはメモリ213に登録しておいて読み出す方法等、任意の手法を採用することができる。本実施形態では、N点での最小二乗法により被写体角加速度を近似予測する方法を採用する。最新の被写体角加速度をωa、時刻をtとすると、予測近似式は以下の式5のようになる。
In step S503, the
As a method of predicting the subject angular acceleration, any method such as a method of linearly approximating from an arbitrary history, a method of registering a predetermined generalized approximation formula in advance in the
以上の近似式から、最後に被写体が検知されたフレームの時刻tから現在の時刻taまでに変動した角度θs[rad]は、以下の式6を用いて算出できる。 From the above approximation formula, the angle θ s [rad] that has changed from the time t of the last frame in which the subject was detected to the current time t a can be calculated using Equation 6 below.
ステップS504にて、カメラマイコン201は、ステップS503で算出した角度とパンニング量を用いて、被写体の撮像面上の移動量を算出する。
現在までに被写体が変動した角度(角変動量)をθSとし、最後に被写体が検知されたフレームから現在のフレームまでのパンニングによる角変動量をθpとする。このとき、撮像面上のベクトル変化量θ[rad]は、以下の式7を用いて求めることができる。
θ=θs-θp 式7
In step S504, the
Let θ S be the angle (angular variation amount) by which the subject has changed so far, and let θ p be the angular variation amount due to panning from the last frame in which the subject was detected to the current frame. At this time, the amount of vector change θ [rad] on the imaging plane can be obtained using Equation 7 below.
θ = θ s - θ p Formula 7
また、撮像面上のベクトル変化量をθ[rad]、焦点距離をf[mm]、センサの画素ピッチをp[μm/pixel]とすると、撮像面上の移動量d[pixel]は、以下の式8で表わすことができる。 Also, if the amount of vector change on the imaging plane is θ [rad], the focal length is f [mm], and the pixel pitch of the sensor is p [μm/pixel], then the amount of movement d [pixel] on the imaging plane is as follows: can be expressed by the following equation 8.
ステップS505にて、カメラマイコン201は、メモリ202またはメモリ213に記憶されている被写体領域履歴の情報を読み出す。
ステップS506にて、カメラマイコン201は、最後に被写体が検知されたフレームの被写体領域の位置を基準として、ステップS504で算出した撮像面上の移動量分移動した被写体領域の位置を求める。これにより、カメラマイコン201は、撮像面上の移動量から現在の被写体領域の位置を予測する。以上で、図5の処理が終了する。
In step S<b>505 , the
In step S506, the
以上のように、カメラマイコン201は、被写体領域を検知できなかった場合に、被写体の角変動量およびパンニングによる角変動量から被写体の撮像面上の移動量を算出する(S504)。そして、カメラマイコン201は、最後に被写体が検知されたフレームの被写体領域の位置と、撮像面上の移動量を用いて現在の被写体領域の位置を予測する(S506)。これにより、本実施形態においては、流し撮りの撮影において被写体領域の検知に失敗した場合でも、被写体に適した測光値を算出することができる。
As described above, when the subject area cannot be detected, the
ここで、上記の例では一種類の被写体角速度の算出方法を適用しているが、必要に応じて複数種類の被写体角速度の算出方法を適宜場合によって切り替えてもよい。また、被写体角加速度の予測方法で適用される近似式についても、最小二乗法に限定されることなく、様々な近似式を適用することができる。 Here, although one type of subject angular velocity calculation method is applied in the above example, plural types of subject angular velocity calculation methods may be switched as appropriate depending on the situation. Also, the approximation formula applied in the subject angular acceleration prediction method is not limited to the least squares method, and various approximation formulas can be applied.
<第2実施形態>
第1実施形態では、撮影対象の被写体が想定した被写体角速度で移動していることを前提として被写体領域を予測している。しかし、被写体の動きは想定と完全に一致することは少ない。被写体が想定外の動きをした際に第1実施形態のような被写体領域の予測を行うと、正しい被写体領域の位置を予測できずに流し撮りに適した測光値を算出できない場合がある。以上の理由から、被写体領域の予測の精度(信頼度)に応じて測光値を変化させることが好ましい。
<Second embodiment>
In the first embodiment, the subject area is predicted on the assumption that the subject to be photographed is moving at an assumed subject angular velocity. However, the movement of the subject rarely coincides perfectly with the assumption. If the subject region is predicted as in the first embodiment when the subject moves unexpectedly, the correct position of the subject region cannot be predicted, and a photometric value suitable for panning may not be calculated. For the above reasons, it is preferable to change the photometric value according to the accuracy (reliability) of prediction of the subject area.
図7は、第2実施形態として、流し撮りアシスト機能の動作時における測光演算の別例を説明するフローチャートである。なお、第2実施形態の撮像装置の構成は、第1実施形態と同様であるので重複説明は省略する。
第2実施形態においては、図3に示す制御の代わりに、図7に示す以下の制御が行われる。図7の制御では、被写体領域が検知されていない場合において、所定期間内に被写体領域が所定回数検知されているか否かで処理が分岐する。また、図7の制御では、被写体領域を予測するときには、被写体領域の予測の信頼度に基づいて被写体領域に基づく測光値の重みづけを変化させる。
FIG. 7 is a flowchart for explaining another example of photometry calculation during operation of the panning assist function as the second embodiment. Note that the configuration of the imaging apparatus of the second embodiment is the same as that of the first embodiment, so redundant description will be omitted.
In the second embodiment, instead of the control shown in FIG. 3, the following control shown in FIG. 7 is performed. In the control of FIG. 7, when the subject area has not been detected, the process branches depending on whether the subject area has been detected a predetermined number of times within a predetermined period. Further, in the control of FIG. 7, when predicting the subject area, the weighting of the photometric values based on the subject area is changed based on the reliability of the prediction of the subject area.
図7のステップS701からS703の処理は、図3のステップS301からS303の処理にそれぞれ対応する。そのため、図7の説明ではこれらの処理の重複説明は省略する。
ステップS704にて、カメラマイコン201は、最新のフレームで被写体の領域を検知したかを判断する。被写体の領域を検知した場合にはステップS705に処理が移行する。一方、被写体の領域を検知できない場合にはステップS711に処理が移行する。
The processing from steps S701 to S703 in FIG. 7 respectively correspond to the processing from steps S301 to S303 in FIG. Therefore, redundant description of these processes will be omitted in the description of FIG.
In step S704, the
図7のステップS705からS708の処理は、図3のステップS305からS308の処理にそれぞれ対応する。そのため、図7の説明ではこれらの処理の重複説明は省略する。ステップS705からS708の一連の処理が終了すると、ステップS709に処理が移行する。 The processing from steps S705 to S708 in FIG. 7 respectively correspond to the processing from steps S305 to S308 in FIG. Therefore, redundant description of these processes will be omitted in the description of FIG. After a series of processes from steps S705 to S708 are completed, the process proceeds to step S709.
ステップS709にて、カメラマイコン201は、被写体領域の測光値の重みづけを設定する。なお、後述するステップS710で測光値の加重平均をしない場合には、ステップS709の処理を省略することができる。
In step S709, the
例えば、カメラマイコン201は、過去のフレームの測光値と現在のフレームの測光値を加重平均する場合、フレーム間の平均輝度差や、現在のフレームからの時間差に基づいて被写体領域の測光値の重みづけを行ってもよい。
For example, when the
例えば、フレーム間の平均輝度差が大きいほど、過去のフレームに基づく測光値の重みが低く設定される。また、例えば、現在のフレームとの時間差が大きいほど、過去のフレームに基づく測光値の重みが低く設定される。 For example, the greater the average luminance difference between frames, the lower the weight of photometric values based on past frames is set. Also, for example, the greater the time difference from the current frame, the lower the weight of the photometric value based on the past frame is set.
ステップS710にて、カメラマイコン201は、撮像素子203または測光センサ208で取得された画像を用いて、ステップS703で検知された被写体領域の測光値を算出する。被写体領域における測光値の算出手法自体は公知であるため、詳細な説明は省略する。
なお、ステップS710において、カメラマイコン201は、上記の重みづけの設定(S709)に基づき、過去に算出された測光値と現時点で算出された測光値との加重平均を求め、最終的な測光値を算出してもよい。例えば、撮影モードの設定が、測光の安定性が特に重視される連写モードに設定されている場合には、過去に算出された測光値と現時点で算出された測光値との加重平均による加算を行うことが好ましい。
このステップS710の処理が終了すると、ステップS719に処理が移行する。
In step S710, the
In step S710, the
When the process of step S710 ends, the process proceeds to step S719.
一方、ステップS704で被写体の領域を検知できない場合には、上記のようにステップS711の処理が行われる。ステップS711にて、カメラマイコン201は、所定期間内に被写体領域が所定回数以上検知されているか判定する。
所定期間内に被写体領域が所定回数以上検知されている場合には、ステップS712に処理が移行する。一方、所定期間内に被写体領域が検知された回数が所定回数未満の場合には、ステップS718に処理が移行する。
On the other hand, if the subject area cannot be detected in step S704, the process of step S711 is performed as described above. In step S711, the
If the subject area has been detected more than the predetermined number of times within the predetermined period, the process proceeds to step S712. On the other hand, if the number of times the subject area is detected within the predetermined period is less than the predetermined number of times, the process proceeds to step S718.
本実施形態のステップS711では、例えば、現在のフレームを基準としてそれよりも過去の5フレーム分を所定期間とし、当該5フレームの間に2回以上被写体領域が検知されているかが判定される。
ステップS711の所定期間および所定回数は、被写体角速度が算出できずに領域予測ができない場合を除外するためのパラメータであり、例えば、被写体領域の予測方法などに応じて適宜変更できる。なお、所定期間はフレーム単位でカウントしてもよく、経過時間でカウントしてもよい。
In step S711 of the present embodiment, for example, five frames past the current frame are set as a predetermined period, and it is determined whether or not the subject area has been detected twice or more during the five frames.
The predetermined period and the predetermined number of times in step S711 are parameters for excluding the case where the subject angular velocity cannot be calculated and the area prediction cannot be performed, and can be appropriately changed according to, for example, the subject area prediction method. Note that the predetermined period may be counted in units of frames, or may be counted in elapsed time.
ステップS712にて、カメラマイコン201は、過去の検出結果から被写体領域の移動量を予測する。ステップS712の処理は、図3のステップS309および図5の処理に対応するので重複説明は省略する。
In step S712, the
ステップS713にて、カメラマイコン201は、被写体領域の予測の信頼度を算出する。例えば、カメラマイコン201は、ステップS503で算出した近似曲線f(x)と、被写体角速度履歴において予測に用いた各計測値(xi,yi)、yiの平均値yaveを用いて決定係数を算出し、被写体領域の予測の信頼度Tとする。Tは以下の式9で求められ、0≦T≦1が成立する。
In step S713, the
なお、本実施形態では、上記の式9から求まる決定係数によって被写体領域の予測の信頼度を算出した。しかし、かかる信頼度の算出方法についても、自由度調整済みの決定係数を用いる、データの母数によって信頼度を変更するなど、適宜変更してもよい。 Note that, in this embodiment, the reliability of prediction of the subject region is calculated using the coefficient of determination obtained from Equation 9 above. However, the method of calculating the reliability may also be changed as appropriate, such as using a coefficient of determination adjusted for degrees of freedom or changing the reliability depending on the parameter of the data.
ステップS714にて、カメラマイコン201は、ステップS703で検出されている被写体領域と、ステップS713で算出した予測の信頼度を紐づけした情報を、当該情報の生成時点を示す情報と紐づけした状態で予測信頼性履歴に保存する。予測信頼性履歴の保存先は、例えば、被写体領域履歴および被写体角速度履歴の保存先と同様であるので説明を省略する。
In step S714, the
ステップS715にて、カメラマイコン201は、被写体領域の測光値の重みづけを設定する。カメラマイコン201は、過去のフレームの測光値と現在のフレームの測光値を加重平均する場合、フレーム間の平均輝度差や、現在のフレームからの時間差に基づいて被写体領域の測光値の重みづけを行ってもよい。
例えば、フレーム間の平均輝度差が大きいほど、過去のフレームに基づく被写体領域の測光値の重みは低く設定されてもよい。つまり、S715において、フレーム間の平均輝度差が大きい場合、予測された被写体領域に基づく測光値の重みを相対的に大きくしてもよい。
また、例えば、現在のフレームとの時間差が大きいほど、過去のフレームに基づく被写体領域の測光値の重みは低く設定されてもよい。つまり、S715において、過去のフレームに基づく測光値の重みを小さくし、予測された被写体領域に基づく測光値の重みを相対的に大きくしてもよい。
In step S715, the
For example, the greater the average luminance difference between frames, the lower the weight of the photometric value of the subject region based on the past frame may be set. That is, in S715, if the average luminance difference between frames is large, the weight of the photometric value based on the predicted subject area may be relatively increased.
Also, for example, the greater the time difference from the current frame, the lower the weight of the photometric value of the subject region based on the past frame may be set. That is, in S715, the weight of the photometric value based on the past frame may be decreased, and the weight of the photometric value based on the predicted subject area may be relatively increased.
ステップS716にて、カメラマイコン201は、撮像素子203または測光センサ208で取得された画像を用いて、ステップS712で予測された被写体領域の測光値を算出する。測光値の算出手法は上記のステップS710と同様であるので、重複説明は省略する。
In step S716, the
ステップS717にて、カメラマイコン201は、ステップS716で取得した測光値と、過去に算出された測光値(過去測光値)との加重平均による加算を行い、最終的な測光値を算出する。例えば、撮影モードの設定が、測光の安定性が特に重視される連写モードに設定されている場合には、過去に算出された測光値と現時点で算出された測光値との加重平均を行うことが好ましい。
ステップS717の処理が終了すると、ステップS719に処理が移行する。
In step S717, the
When the process of step S717 ends, the process moves to step S719.
図8は、ステップS717における過去測光値との加重平均の処理例を説明するフローチャートである。 FIG. 8 is a flowchart for explaining an example of weighted average processing with past photometric values in step S717.
ステップS801にて、カメラマイコン201は、過去測光値の情報を記憶した測光値履歴を読み出す。なお、測光値履歴は、被写体領域履歴、被写体角速度履歴および予測信頼性履歴と同様にメモリ202またはメモリ213に記憶される。
ステップS802にて、カメラマイコン201は、メモリ202またはメモリ213から予測信頼性履歴を読み出す。
In step S801, the
In step S<b>802 , the
ステップS803にて、カメラマイコン201は、過去測光値とステップS716で算出された測光値を加重平均する。ステップS803の処理が終了すると、図7の処理に戻る。
In step S803, the
ここで、ステップS803において、被写体領域の予測の信頼度に基づいて測光値の加重平均を行うときの算出例を、具体的に説明する。なお、ステップS715でも述べたように、フレーム間の平均輝度差や現在のフレームとの時間差などの要素に基づいて、ステップS716で取得した測光値と、過去測光値との重みづけをさらに調整してもよい。 Here, a specific example of calculation when weighted averaging of photometric values is performed based on the reliability of prediction of the subject area in step S803 will be described. As described in step S715, the weighting of the photometric value acquired in step S716 and the past photometric value is further adjusted based on factors such as the average luminance difference between frames and the time difference from the current frame. may
最後に被写体が検知されたフレームをi=0、最新のフレームをi=n、i番目の測光値をBvi、i番目の被写体予測の信頼性Tiとする。このとき、最後に被写体領域が検知されたフレームの測光値から最新のフレームの測光値を加重平均した結果の測光値Bvvalは、以下の式10で求めることができる。 Let i=0 be the last frame in which the object was detected, i=n be the latest frame, Bv i be the i-th photometric value, and T i be the reliability of i-th object prediction. At this time, the photometric value Bv_val , which is the result of weighted averaging the photometric values of the latest frame from the photometric values of the frame in which the subject region was last detected, can be obtained by the following equation (10).
ステップS803の処理によれば、被写体領域の予測の信頼度が高い場合には、予測された被写体領域の測光値の重みが大きくなる。一方、被写体領域の予測の信頼度が低い場合には、最後に被写体領域が検知されたフレームの測光値の重みが大きくなる。
すなわち、被写体領域の予測が外れている可能性が高い場合には、最後に被写体領域が検知されたフレームの測光値の重みが大きくなるので、被写体の位置の予測失敗により測光値が適正露出から離れることを抑制できる。
According to the processing in step S803, when the reliability of the subject area prediction is high, the weight of the photometric value of the predicted subject area is increased. On the other hand, when the reliability of prediction of the subject area is low, the weight of the photometric value of the last frame in which the subject area is detected is increased.
In other words, when there is a high possibility that the prediction of the subject area is incorrect, the weight of the photometric value of the last frame in which the subject area is detected is increased. You can restrain yourself from leaving.
図7に戻って、ステップS711で所定期間内に被写体領域が所定回数以上検知されていない場合には、上記のようにステップS718の処理が行われる。
ステップS718にて、カメラマイコン201は、現在のフレームに対して測光モードに応じた評価測光で測光値を算出する。評価測光による測光値の算出手法自体は公知であるため、詳細な説明は省略する。
ステップS718の処理が終了すると、ステップS719に処理が移行する。
Returning to FIG. 7, if it is determined in step S711 that the subject area has not been detected more than the predetermined number of times within the predetermined period, the process of step S718 is performed as described above.
In step S718, the
When the process of step S718 ends, the process moves to step S719.
ここで、ステップS718のように、被写体予測ができずに測光モードに応じた評価測光で測光値を算出する場合、前回の測光値との安定性を優先するために、過去測光値との加重平均による加算をしてもよい。例えば、カメラマイコン201は、過去のフレームの測光値と現在のフレームの測光値を加重平均する場合、フレーム間の平均輝度差や、現在のフレームからの時間差に基づいて測光値の重みづけを行ってもよい。これらの処理は、ステップS709でも述べているため、重複説明は省略する。
Here, when the photometric value is calculated by evaluative metering according to the photometric mode without predicting the subject as in step S718, weighting with the past photometric value is performed in order to give priority to the stability with the previous photometric value. You can add by averaging. For example, the
ステップS719にて、カメラマイコン201は、ステップS710、S717、S718のいずれかで算出された測光値の情報を、当該情報の生成時点を示す情報と紐づけした状態でメモリ202またはメモリ213に記憶される測光値履歴に保存する。これにより、次回以降の測光演算のときには、今回算出された測光値を過去測光値として参照することが可能になる。
In step S719, the
ステップS720にて、カメラマイコン201は、撮影者によるレリーズスイッチの全押し操作を受け付けたか(SW2がONになったか)を判断する。SW2がONの場合、カメラマイコン201は、ステップS710、S717、S718のいずれかで算出された測光値を用いて撮影動作を開始する。一方、SW2がONになっていない場合には、ステップS702に処理が戻る。以上で、図7の説明を終了する。
In step S720, the
第2実施形態においては、最後に被写体領域が検知されたフレームの測光値と、被写体領域を予測したフレームの測光値を加重平均する(S717)。このとき、被写体領域の予測の信頼度(S713)に基づいて、被写体領域を予測したフレームの測光値を調整する。そのため、例えば、被写体が想定外の動きをしたときのように、被写体の位置の予測が失敗しても測光値が適正露出から離れることを抑制できる。 In the second embodiment, the weighted average of the photometric value of the frame in which the subject region was last detected and the photometric value of the frame in which the subject region was predicted is calculated (S717). At this time, the photometric value of the frame in which the subject area is predicted is adjusted based on the reliability of the subject area prediction (S713). Therefore, even if prediction of the position of the subject fails, such as when the subject moves unexpectedly, it is possible to prevent the photometric value from deviating from the proper exposure.
<むすび>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Conclusion>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist thereof.
201 カメラマイコン
203 撮像素子
208 測光センサ
402 角速度センサ
201
Claims (10)
撮像された画像に含まれる被写体領域を検知する領域検知手段と、
前記撮像装置の動きと、過去に撮像された画像の間における前記被写体領域の動きから、前記被写体領域の位置を予測する領域予測手段と、
被写体の測光演算を行う測光手段と、を備え、
前記測光手段は、
前記画像から前記被写体領域を検知できたときには、前記領域検知手段により検知された前記被写体領域に基づき第1の測光値を算出し、
前記画像から前記被写体領域を検知できないときには、前記領域予測手段により予測された前記被写体領域に基づき第2の測光値を算出し、過去に算出された前記第1の測光値と前記第2の測光値とを重みづけ加算して第3の測光値を算出する
ことを特徴とする撮像装置。 detection means for detecting movement of the imaging device;
an area detection means for detecting a subject area included in the captured image;
an area prediction means for predicting the position of the subject area from the movement of the imaging device and the movement of the subject area between previously captured images;
and a photometric means for performing photometric calculation of a subject,
The photometric means
calculating a first photometric value based on the subject area detected by the area detecting means when the subject area can be detected from the image;
When the subject area cannot be detected from the image, a second photometric value is calculated based on the subject area predicted by the area prediction means , and the previously calculated first photometric value and the second photometric value are calculated. and calculating a third photometric value by weighted addition of the values .
前記測光手段は、前記画像から前記被写体領域を検知できないときに、過去に算出された前記第1の測光値と、前記第2の測光値とを前記信頼度に応じて重みづけ加算して前記第3の測光値を算出する
ことを特徴とする請求項1に記載の撮像装置。 The area prediction means calculates a reliability of prediction of the subject area,
When the subject region cannot be detected from the image, the photometry means performs weighted addition of the previously calculated first photometry value and the second photometry value according to the reliability. 2. The imaging apparatus according to claim 1 , wherein a third photometric value is calculated.
ことを特徴とする請求項2に記載の撮像装置。 3. The photometric means calculates the third photometric value by weighting the second photometric value more than the first photometric value when the reliability is high. 3. The imaging device according to 2 .
ことを特徴とする請求項1から請求項3のいずれか1項に記載の撮像装置。 When the time difference between the calculation of the first photometric value and the calculation of the second photometric value is large, the photometric means measures the second photometric value higher than the first photometric value. 4. The imaging apparatus according to any one of claims 1 to 3, wherein the third photometric value is calculated with a greater weight.
ことを特徴とする請求項1から請求項4のいずれか一項に記載の撮像装置。 The photometry means, when the luminance difference between the image used to calculate the first photometric value and the image used to calculate the second photometric value is large, 5. The imaging apparatus according to claim 1 , wherein the weight of the second photometric value is increased to calculate the third photometric value.
ことを特徴とする請求項1から請求項5のいずれか一項に記載の撮像装置。 The photometry means calculates the second photometry value even if the subject region cannot be detected from the image when the time difference between the time when the first photometry value is calculated and the current time exceeds a predetermined period. 6. The image pickup apparatus according to claim 1 , wherein the fourth photometry value is calculated by evaluative photometry without first calculating the fourth photometry value.
ことを特徴とする請求項6に記載の撮像装置。 7. The method according to claim 6 , wherein said photometry means calculates said fourth photometry value by said evaluative photometry when the number of times said subject area is detected within said predetermined period is less than a predetermined number of times. Imaging device.
ことを特徴とする請求項6または請求項7に記載の撮像装置。 6. The photometry unit calculates the fourth photometry value by weighted addition of the photometry value calculated in the past and the photometry value calculated by the evaluative photometry. 8. The imaging device according to 7 .
ことを特徴とする請求項1から請求項8のいずれか1項に記載の撮像装置。 9. The method according to any one of claims 1 to 8 , wherein, when the photographing mode is the continuous shooting mode, the photometry means performs weighted addition with previously calculated photometry values. Imaging device.
撮像された画像に含まれる被写体領域を検知する領域検知工程と、
前記撮像装置の動きと、過去に撮像された画像の間における前記被写体領域の動きから、前記被写体領域の位置を予測する領域予測工程と、
被写体の測光演算を行う測光工程と、を含み、
前記測光工程では、
前記画像から前記被写体領域を検知できたときには、前記領域検知工程により検知された前記被写体領域に基づき第1の測光値を算出し、
前記画像から前記被写体領域を検知できないときには、前記領域予測工程により予測された前記被写体領域に基づき第2の測光値を算出し、過去に算出された前記第1の測光値と前記第2の測光値とを重みづけ加算して第3の測光値を算出する
ことを特徴とする撮像装置の制御方法。 a detection step of detecting motion of the imaging device;
an area detection step of detecting a subject area included in the captured image;
a region prediction step of predicting the position of the subject region from the motion of the imaging device and the motion of the subject region between previously captured images;
a photometry step of performing photometry calculation of the subject,
In the photometry step,
when the subject area can be detected from the image, calculating a first photometric value based on the subject area detected by the area detection step;
When the subject area cannot be detected from the image, a second photometric value is calculated based on the subject area predicted by the area prediction step , and the previously calculated first photometric value and the second photometric value are calculated. A method of controlling an imaging device , wherein a third photometric value is calculated by weighted addition of a value and a value .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019026321A JP7254555B2 (en) | 2019-02-18 | 2019-02-18 | IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019026321A JP7254555B2 (en) | 2019-02-18 | 2019-02-18 | IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020136845A JP2020136845A (en) | 2020-08-31 |
JP7254555B2 true JP7254555B2 (en) | 2023-04-10 |
Family
ID=72263732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019026321A Active JP7254555B2 (en) | 2019-02-18 | 2019-02-18 | IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7254555B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007072907A1 (en) | 2005-12-21 | 2007-06-28 | Nec Corporation | Gray-scale correcting method, gray-scale correcting device, gray-scale correcting program, and image device |
JP2008076786A (en) | 2006-09-22 | 2008-04-03 | Sony Corp | Imaging apparatus, imaging apparatus control method, and computer program |
JP2011233963A (en) | 2010-04-23 | 2011-11-17 | Ricoh Co Ltd | Imaging apparatus and tracking object detection method |
-
2019
- 2019-02-18 JP JP2019026321A patent/JP7254555B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007072907A1 (en) | 2005-12-21 | 2007-06-28 | Nec Corporation | Gray-scale correcting method, gray-scale correcting device, gray-scale correcting program, and image device |
JP2008076786A (en) | 2006-09-22 | 2008-04-03 | Sony Corp | Imaging apparatus, imaging apparatus control method, and computer program |
JP2011233963A (en) | 2010-04-23 | 2011-11-17 | Ricoh Co Ltd | Imaging apparatus and tracking object detection method |
Also Published As
Publication number | Publication date |
---|---|
JP2020136845A (en) | 2020-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7688353B2 (en) | Image-taking apparatus and image-taking method | |
EP1998558B1 (en) | Image pickup apparatus equipped with function of detecting image shaking | |
JP5247076B2 (en) | Image tracking device, focus adjustment device, and imaging device | |
JP3823921B2 (en) | Imaging device | |
JP6749791B2 (en) | Imaging device and automatic focusing method | |
US10708503B2 (en) | Image capture system, image capturing apparatus, lens unit, control methods therefor, and storage medium | |
CN110022433A (en) | Picture pick-up device, lens apparatus and its control method | |
CN106470317B (en) | Image pickup apparatus and control method thereof | |
JP2006091915A (en) | Imaging apparatus | |
JP6851854B2 (en) | Control method of image processing device, imaging device and image processing device | |
US9019389B2 (en) | Image pickup apparatus that performs exposure calculation for close-up shooting, method of controlling the same, and storage medium | |
JP2019083364A (en) | Image processing device, imaging device, and control method | |
JP7254555B2 (en) | IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE | |
JP5509622B2 (en) | Electronic camera | |
JP2002214659A (en) | Camera with shake correcting function | |
JP2007306436A (en) | Imaging apparatus | |
JP2007065334A (en) | Lens interchangeable camera system | |
JP2014197141A (en) | Imaging apparatus | |
JP7224839B2 (en) | Imaging device and its control method | |
JP6786288B2 (en) | Imaging device, lens device, control method, program, and storage medium | |
JP2006050139A (en) | Optical apparatus | |
JP7451152B2 (en) | Imaging device, control method and computer program | |
JP6465553B2 (en) | Imaging apparatus and control method thereof | |
JP7229709B2 (en) | Imaging device and its control method | |
JP2018054698A (en) | Optical device, imaging apparatus and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230329 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7254555 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |