JP7254555B2 - IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE - Google Patents

IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE Download PDF

Info

Publication number
JP7254555B2
JP7254555B2 JP2019026321A JP2019026321A JP7254555B2 JP 7254555 B2 JP7254555 B2 JP 7254555B2 JP 2019026321 A JP2019026321 A JP 2019026321A JP 2019026321 A JP2019026321 A JP 2019026321A JP 7254555 B2 JP7254555 B2 JP 7254555B2
Authority
JP
Japan
Prior art keywords
subject
photometry
value
photometric
photometric value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019026321A
Other languages
Japanese (ja)
Other versions
JP2020136845A (en
Inventor
朱里 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019026321A priority Critical patent/JP7254555B2/en
Publication of JP2020136845A publication Critical patent/JP2020136845A/en
Application granted granted Critical
Publication of JP7254555B2 publication Critical patent/JP7254555B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置および撮像装置の制御方法に関する。 The present invention relates to an imaging device and an imaging device control method.

カメラの撮影方法の一つである流し撮りは、移動している被写体をカメラで追従しながら撮影する手法である。流し撮りによると、被写体を静止させながら、背景を流すことで躍動感のある写真を撮影することができる。しかし、流し撮りは、被写体の移動速度とカメラを振る速度(以下、パンニング速度とも称する)を合わせることが困難である。そのため、流し撮りに不慣れなユーザが撮影を行った場合、被写体が静止せずにブレ残りが生じる可能性が高い。 Panning, which is one of camera shooting methods, is a method of shooting a moving subject while following it with the camera. According to panning, it is possible to take a photograph with a sense of dynamism by letting the subject stand still while the background is flowing. However, in panning, it is difficult to match the moving speed of the subject with the speed at which the camera is shaken (hereinafter also referred to as panning speed). Therefore, when a user who is unfamiliar with panning takes a picture, there is a high possibility that the subject will not stand still and a blur residue will occur.

近年、この流し撮りを初心者でも簡単に行えるように、流し撮りアシスト機能を備えた撮像装置も提案されている。例えば、特許文献1では、露光前の撮像装置に対する被写体の相対角速度と露光前の角速度センサから得た撮像装置の角速度に基づいて、露光中の被写体のブレを補正する。撮像装置に対する被写体の相対角速度は、画像から検出した被写体の像面上の移動量と角速度センサによって算出している。また、特許文献1は、流し撮り時に、撮像画面の動きベクトル検知とパンニング速度から動きベクトルの変化のない被写体部を算出することも開示する。 In recent years, an imaging apparatus having a panning assist function has been proposed so that even a beginner can easily perform this panning. For example, in Japanese Unexamined Patent Application Publication No. 2002-100003, blurring of an object during exposure is corrected based on the relative angular velocity of the object with respect to the imaging device before exposure and the angular velocity of the imaging device obtained from an angular velocity sensor before exposure. The relative angular velocity of the subject with respect to the imaging device is calculated from the amount of movement of the subject on the image plane detected from the image and the angular velocity sensor. Further, Japanese Patent Laid-Open No. 2002-200000 discloses calculating a subject portion in which the motion vector does not change based on the motion vector detection and the panning speed of the imaging screen during panning.

一方で、流し撮り中は、移動する被写体をカメラで追従しているため、背景部分の輝度変動が大きくなる傾向がある。このことから、流し撮り中には、通常の静止画撮影時と比較して被写体の輝度を重視した測光演算をすることが好ましい。 On the other hand, during panning, the moving subject is tracked by the camera, so there is a tendency for the luminance fluctuation in the background portion to increase. For this reason, during panning, it is preferable to perform photometric calculations that emphasize the brightness of the subject compared to normal still image shooting.

特開2016-171541号公報JP 2016-171541 A

しかしながら、例えば、低コントラストの被写体を撮影する場合や、撮像画面の輝度変化などにより、撮像画面に含まれる被写体の動きベクトルを取得できないことがある。この場合、被写体領域を算出することができず、流し撮りに適した測光値を算出することが困難となる。 However, for example, when shooting a low-contrast subject, or due to changes in the brightness of the imaging screen, it may not be possible to acquire the motion vector of the subject included in the imaging screen. In this case, the subject area cannot be calculated, making it difficult to calculate a photometric value suitable for panning.

本発明は、上記の状況に鑑みてなされたものであって、流し撮り中に被写体領域が検出できなかった場合でも、被写体に適した測光値の算出を可能とする撮像装置を提供する。 SUMMARY OF THE INVENTION The present invention has been made in view of the above situation, and provides an image pickup apparatus capable of calculating a photometric value suitable for a subject even when the subject area cannot be detected during panning.

本発明の一例である撮像装置は、撮像装置の動きを検出する検出手段と、撮像された画像に含まれる被写体領域を検知する領域検知手段と、前記撮像装置の動きと、過去に撮像された画像の間における前記被写体領域の動きから、前記被写体領域の位置を予測する領域予測手段と、被写体の測光演算を行う測光手段と、を備え、前記測光手段は、前記画像から前記被写体領域を検知できたときには、前記領域検知手段により検知された前記被写体領域に基づき第1の測光値を算出し、前記画像から前記被写体領域を検知できないときには、前記領域予測手段により予測された前記被写体領域に基づき第2の測光値を算出し、過去に算出された前記第1の測光値と前記第2の測光値とを重みづけ加算して第3の測光値を算出する。
An image capturing apparatus, which is an example of the present invention, includes detection means for detecting movement of the image capturing apparatus, area detection means for detecting a subject area included in a captured image, movement of the image capturing apparatus, and an area prediction means for estimating the position of the subject area from movement of the subject area between images; and a photometry means for performing photometry calculation of the subject, wherein the photometry means detects the subject area from the images. calculating a first photometric value based on the subject area detected by the area detecting means when the subject area can be detected, and calculating the subject area predicted by the area predicting means when the subject area cannot be detected from the image; A second photometric value is calculated, and a third photometric value is calculated by weighted addition of the previously calculated first photometric value and the second photometric value.

本発明の一例である撮像装置によれば、流し撮り中に被写体領域が検出できなかった場合でも、被写体に適した測光値を算出できる。 According to the imaging apparatus that is an example of the present invention, even if the subject area cannot be detected during panning, a photometric value suitable for the subject can be calculated.

撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of an imaging device. 撮像装置の装置構成例を示す図である。It is a figure which shows the apparatus structural example of an imaging device. 流し撮りアシスト機能の動作時における測光演算の一例を説明するフローチャートである。7 is a flowchart illustrating an example of photometry calculation during operation of the panning assist function; 被写体角速度の算出を説明する図である。FIG. 10 is a diagram for explaining calculation of an object angular velocity; ステップS309の被写体領域の予測手法を説明するフローチャートである。FIG. 11 is a flowchart for explaining a method of predicting a subject area in step S309; FIG. 被写体の角速度と角加速度の例を示す図である。FIG. 4 is a diagram showing an example of angular velocity and angular acceleration of a subject; 流し撮りアシスト機能の動作時における測光演算の別例を説明するフローチャートである。FIG. 11 is a flowchart illustrating another example of photometry calculation during operation of the panning assist function; FIG. ステップS717の過去測光値との加重平均の処理例を説明するフローチャートである。FIG. 12 is a flowchart for explaining an example of weighted average processing with past photometric values in step S<b>717 ; FIG.

以下、本発明の実施形態を図面などに基づいて詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<第1実施形態>
図1は、第1実施形態の撮像装置100の構成例を示すブロック図である。
本実施形態の撮像装置100は、流し撮りに適した撮影補助機能である流し撮りアシスト機能を有する。なお、以下の説明での流し撮りは、撮像装置を水平方向に動かすパンニングの場合を前提とするが、撮像装置を垂直方向に動かすチルティングの場合でも本発明を同様に適用できる。
<First embodiment>
FIG. 1 is a block diagram showing a configuration example of an imaging device 100 according to the first embodiment.
The imaging apparatus 100 of this embodiment has a panning assist function, which is a shooting assisting function suitable for panning. Note that panning in the following description is premised on panning in which the imaging device is moved in the horizontal direction, but the present invention can be similarly applied to tilting in which the imaging device is moved in the vertical direction.

ここで、撮像装置100は、デジタルカメラ、デジタルビデオカメラといったカメラのほか、カメラ機能付き携帯電話、カメラ付きコンピュータなど、カメラ機能を備える任意の電子機器であってもよい。なお、実施形態で示す撮像装置の構成はあくまで例示であって、実施形態で説明されている特徴の組み合わせ全てが本発明に必須とは限らない。 Here, the imaging device 100 may be any electronic device having a camera function, such as a camera such as a digital camera or a digital video camera, a camera-equipped mobile phone, or a camera-equipped computer. Note that the configuration of the imaging apparatus shown in the embodiment is merely an example, and not all combinations of features described in the embodiment are essential to the present invention.

撮像装置100は、光学系101、撮像素子102、焦点検出回路103、CPU(Central Processing Unit)104、一次記憶装置105、角速度センサ106および画像処理部107を備える。また、撮像装置100は、記録媒体108のインターフェース、二次記憶装置109、表示部110、操作部111、動きベクトル検出部112および被写体角加速度計算部113を備える。 The imaging apparatus 100 includes an optical system 101 , an imaging element 102 , a focus detection circuit 103 , a CPU (Central Processing Unit) 104 , a primary storage device 105 , an angular velocity sensor 106 and an image processing section 107 . The imaging apparatus 100 also includes an interface for the recording medium 108 , a secondary storage device 109 , a display unit 110 , an operation unit 111 , a motion vector detection unit 112 and an object angular acceleration calculation unit 113 .

光学系101は、レンズ、シャッタ、絞りを含み、被写体からの光を撮像素子102に結像させる。光学系101のレンズ、シャッタ、絞りは、CPU104の制御によって駆動される。また、光学系101のレンズには、フォーカスレンズ、ズームレンズ、シフトレンズ等が含まれる。上記のシフトレンズは、光学的に像ブレを補正する補正手段の一例である。 An optical system 101 includes a lens, a shutter, and an aperture, and forms an image of light from a subject on an imaging device 102 . The lens, shutter, and diaphragm of the optical system 101 are driven under the control of the CPU 104 . Also, the lenses of the optical system 101 include a focus lens, a zoom lens, a shift lens, and the like. The shift lens described above is an example of correction means for optically correcting image blur.

撮像素子102は、光学系101を通って結像した光を画像信号に変換するデバイスである。撮像素子102の例として、CCD(電荷結合素子)型またはCMOS(相補型金属酸化膜半導体)型のイメージセンサが挙げられる。
焦点検出回路103は、焦点検出処理(Auto Focus)を実行して、焦点距離の情報をCPU104に出力する。
The imaging element 102 is a device that converts light that forms an image through the optical system 101 into an image signal. Examples of the imaging element 102 include a CCD (charge-coupled device) type or a CMOS (complementary metal oxide semiconductor) type image sensor.
The focus detection circuit 103 executes focus detection processing (Auto Focus) and outputs focal length information to the CPU 104 .

CPU104は、入力された信号や予め記憶されたプログラムに従い、撮像装置100を構成する各部を制御する制御装置である。CPU104の制御により、撮像装置100の各種の機能が実現される。 The CPU 104 is a control device that controls each unit that configures the imaging device 100 in accordance with input signals and pre-stored programs. Various functions of the imaging apparatus 100 are realized under the control of the CPU 104 .

一次記憶装置105は、例えばRAM(Random access memory)等の揮発性記憶装置である。一次記憶装置105は、一時的なデータを記憶し、CPU104の作業用に使われる。また、一次記憶装置105に記憶された情報は、画像処理部107での利用に供され、あるいは記録媒体108へ記録される。 The primary storage device 105 is, for example, a volatile storage device such as a RAM (Random Access Memory). The primary storage device 105 stores temporary data and is used for work by the CPU 104 . Information stored in the primary storage device 105 is used in the image processing unit 107 or recorded in the recording medium 108 .

角速度センサ106は、撮像装置100の移動量を表す角速度を検出し、検出した角速度を電気信号に変換してCPU104へ伝達する。角速度センサ106の例として、ジャイロセンサが挙げられる。例えば、後述するように撮像装置がレンズ交換型カメラである場合、角速度センサ106は、レンズ側の構成要素であってもよく、撮像装置の本体側の構成要素であってもよい。 The angular velocity sensor 106 detects angular velocity representing the amount of movement of the imaging device 100 , converts the detected angular velocity into an electrical signal, and transmits the electrical signal to the CPU 104 . An example of the angular velocity sensor 106 is a gyro sensor. For example, as will be described later, when the imaging device is a lens-interchangeable camera, the angular velocity sensor 106 may be a component on the lens side, or may be a component on the main body side of the imaging device.

画像処理部107は、いわゆる現像処理と呼ばれる画像処理や、撮影モードに応じた色調の調整などを行う画像処理用のプロセッサである。画像処理部107の機能の少なくとも一部は、CPU104がソフトウェア的に実現してもよい。
また、画像処理部107は、撮像画像に適用される画像処理のパターンを複数有している。画像処理のパターンは、それぞれ異なる撮影モードと紐づけされており、画像処理部107は、設定された撮影モードに応じて画像処理のパターンを変化させる。
The image processing unit 107 is a processor for image processing such as image processing called development processing and color tone adjustment according to the shooting mode. At least part of the functions of the image processing unit 107 may be implemented by the CPU 104 in software.
The image processing unit 107 also has a plurality of image processing patterns applied to the captured image. The image processing patterns are associated with different shooting modes, respectively, and the image processing unit 107 changes the image processing patterns according to the set shooting mode.

記録媒体108は、撮像装置100に対して着脱可能で、かつデータの読み書きが可能な不揮発性記憶媒体である。記録媒体108の例として、半導体メモリカードが挙げられる。記録媒体108は、例えば、一次記憶装置105に記憶された、撮影により得られた画像のデータなどを記録する。記録媒体108に記録されたデータは、記録媒体108とのインターフェースを有するパーソナルコンピュータなどで読み出すことが可能である。 The recording medium 108 is a non-volatile storage medium that is detachable from the imaging device 100 and from which data can be read and written. An example of the recording medium 108 is a semiconductor memory card. The recording medium 108 records, for example, image data obtained by shooting, which is stored in the primary storage device 105 . Data recorded on the recording medium 108 can be read by a personal computer or the like having an interface with the recording medium 108 .

二次記憶装置109は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性記憶装置である。二次記憶装置109は、撮像装置100を制御するためのプログラム(ファームウェア)や各種の設定情報を記憶する。二次記憶装置109の情報は、CPU104によって利用される。 The secondary storage device 109 is a non-volatile storage device such as EEPROM (Electrically Erasable Programmable Read Only Memory). The secondary storage device 109 stores a program (firmware) for controlling the imaging device 100 and various setting information. Information in the secondary storage device 109 is used by the CPU 104 .

表示部110は、撮影時のビューファインダ画像の表示、撮影した画像の表示、対話的な操作のためのGUI画像の表示などを行う。
操作部111は、ユーザ(撮影者)の操作を受け付けてCPU104へ入力情報を伝達する入力デバイス群である。操作部111は、例えば、SW1、SW2を有するレリーズスイッチ、ボタン、レバー、タッチパネルに加えて、音声や視線などを用いた入力機器を含んでいてもよい。また、操作部111の操作により、撮影モードの設定が行われる。
The display unit 110 displays a viewfinder image at the time of shooting, a shot image, a GUI image for interactive operation, and the like.
An operation unit 111 is a group of input devices that receive user (photographer) operations and transmit input information to the CPU 104 . The operation unit 111 may include, for example, a release switch having SW1 and SW2, a button, a lever, and a touch panel, as well as an input device using voice, line of sight, and the like. Also, the shooting mode is set by operating the operation unit 111 .

動きベクトル検出部112は、撮影により得られた画像を用いて動きベクトルを検出する。
被写体角加速度計算部113は、一次記憶装置105に蓄積される被写体角速度の履歴を読み出し、時間軸方向に連続的な被写体角加速度の変化量を計算する。ここで、被写体角速度は、被写体の撮像装置100に対する角速度である。
A motion vector detection unit 112 detects a motion vector using an image obtained by shooting.
The subject angular acceleration calculator 113 reads out the history of the subject angular velocity accumulated in the primary storage device 105, and calculates the amount of change in the subject angular acceleration that is continuous in the time axis direction. Here, the subject angular velocity is the angular velocity of the subject with respect to the imaging device 100 .

図2は、撮像装置の具体的な装置構成例を示す図である。図2では、撮像装置の一例として、カメラ本体200に対してレンズユニット400を交換可能なレンズ交換式カメラの構成を説明する。 FIG. 2 is a diagram showing a specific device configuration example of the imaging device. In FIG. 2, as an example of an imaging device, a configuration of an interchangeable lens type camera in which a lens unit 400 can be exchanged with respect to a camera body 200 will be described.

まず、図2に示すカメラ本体200の構成を説明する。
カメラ本体200は、カメラマイコン201、メモリ202、撮像素子203、シャッタ204、ハーフミラー205、ピント板206、表示素子207、測光センサ208、ペンタプリズム209を備える。また、カメラ本体200は、焦点検出回路210、AFミラー211、APU212、メモリ213を備える。
First, the configuration of the camera body 200 shown in FIG. 2 will be described.
A camera body 200 includes a camera microcomputer 201 , a memory 202 , an imaging element 203 , a shutter 204 , a half mirror 205 , a focusing screen 206 , a display element 207 , a photometric sensor 208 and a pentaprism 209 . The camera body 200 also includes a focus detection circuit 210 , an AF mirror 211 , an APU 212 and a memory 213 .

カメラマイコン201は、カメラ本体200の各要素を制御するプロセッサである。図2の例では、カメラマイコン201が、露光時の被写体角速度を算出する機能を担う。
メモリ202は、カメラマイコン201に接続されているRAMやROM等の記憶装置である。
A camera microcomputer 201 is a processor that controls each element of the camera body 200 . In the example of FIG. 2, the camera microcomputer 201 has the function of calculating the subject angular velocity during exposure.
A memory 202 is a storage device such as a RAM or ROM connected to the camera microcomputer 201 .

撮像素子203は、図1の撮像素子102に対応する要素であって、撮影時に被写体からの光を光電変換するイメージセンサである。撮像素子203は、赤外カットフィルタやローパスフィルタ等を撮像面に有する。
シャッタ204は、非撮影時には撮像素子203の撮像面を遮光し、撮影時には開いて撮像素子203の撮像面へ光を導く。
An image pickup device 203 is an element corresponding to the image pickup device 102 in FIG. 1, and is an image sensor that photoelectrically converts light from an object during shooting. The imaging device 203 has an infrared cut filter, a low-pass filter, and the like on its imaging surface.
The shutter 204 shields the imaging surface of the imaging element 203 from light during non-shooting, and opens to guide light to the imaging surface of the imaging element 203 during imaging.

ハーフミラー205は、撮像素子203による撮影を行わないときにはミラーダウン状態となり、撮像素子203による撮影を行うときにはミラーアップ状態となって光路から退避するように駆動する。図2では、ミラーダウン状態のハーフミラー205の配置を示している。
ハーフミラー205は、ミラーダウン状態においてレンズユニット400より入射する光の一部を反射して光学ファインダ側に導き、残りの一部の光を透過させる。ハーフミラー205で反射された光は、ピント板206に被写体の像を結像させる。
The half mirror 205 is driven to be in a mirror-down state when the imaging device 203 is not performing imaging, and to be in a mirror-up state when imaging by the imaging device 203 to be retracted from the optical path. FIG. 2 shows the arrangement of the half mirror 205 in the mirror-down state.
The half mirror 205 reflects part of the light incident from the lens unit 400 in the mirror-down state, guides it toward the optical viewfinder, and transmits the remaining part of the light. The light reflected by the half mirror 205 forms an image of the subject on the focusing screen 206 .

表示素子207は、光学ファインダを覗くユーザに対して、焦点検出(AF)している位置を示すための表示を行う。表示素子207は、例えば、PN液晶等で構成され、ピント板206の被写体の像に焦点検出対象の点(AF測距点)を重畳して表示する。 A display element 207 displays a position of focus detection (AF) to the user looking through the optical viewfinder. The display element 207 is composed of, for example, a PN liquid crystal or the like, and displays a subject image on the focusing screen 206 by superimposing a point for focus detection (AF range-finding point).

測光センサ208は、撮像素子を内蔵したセンサであって、ミラーダウン状態のハーフミラー205で反射された光に基づいて被写体の測光を行う。ペンタプリズム209は、ピント板206の被写体の像を測光センサ208および光学ファインダに導く。なお、図2に示すように、測光センサ208は、ペンタプリズム209を介してピント板206に結像された被写体像を斜めの位置から見込んでいる。 A photometry sensor 208 is a sensor incorporating an image sensor, and performs photometry of a subject based on light reflected by the half mirror 205 in the mirror-down state. A pentaprism 209 guides the subject image on the focusing screen 206 to the photometric sensor 208 and optical viewfinder. As shown in FIG. 2, the photometric sensor 208 sees the subject image formed on the focusing screen 206 via the pentaprism 209 from an oblique position.

AFミラー211は、レンズユニット400から入射し、ミラーダウン状態のハーフミラー205を透過した光の一部を焦点検出回路210内のAFセンサに導く。焦点検出回路210は、図1の焦点検出回路103に対応する。焦点検出回路210は、AFミラー211を介して入射した光に基づいて、焦点検出(測距)を行う。なお、AFミラー211は、ミラーアップ状態のときにはハーフミラー205とともに光路から退避する。 The AF mirror 211 guides part of the light incident from the lens unit 400 and transmitted through the half mirror 205 in the mirror-down state to the AF sensor in the focus detection circuit 210 . A focus detection circuit 210 corresponds to the focus detection circuit 103 in FIG. The focus detection circuit 210 performs focus detection (distance measurement) based on light incident through the AF mirror 211 . Note that the AF mirror 211 is retracted from the optical path together with the half mirror 205 in the mirror-up state.

APU212は、測光センサ208の出力を用いて信号処理を行うプロセッサである。APU212は、例えば、図1に示した画像処理部107、動きベクトル検出部112の機能を備える。メモリ213は、APU212に接続されているRAMやROM等の記憶装置である。なお、図2の例では、測光センサ208専用のプロセッサとしてAPU212を設ける構成を説明したが、カメラマイコン201が、APU212の行う処理を実行してもよい。 The APU 212 is a processor that performs signal processing using the output of the photometric sensor 208 . The APU 212 has, for example, the functions of the image processing unit 107 and the motion vector detection unit 112 shown in FIG. A memory 213 is a storage device such as a RAM or ROM connected to the APU 212 . In the example of FIG. 2, the configuration in which the APU 212 is provided as a dedicated processor for the photometric sensor 208 has been described, but the camera microcomputer 201 may execute the processing performed by the APU 212 .

次に、図2に示すレンズユニット400の構成を説明する。
レンズユニット400は、LPU401、角速度センサ402、レンズ403を有する。
Next, the configuration of the lens unit 400 shown in FIG. 2 will be described.
The lens unit 400 has an LPU 401 , an angular velocity sensor 402 and a lens 403 .

LPU401は、レンズユニット400内の各部を制御するためのプロセッサである。LPU401は、例えば、図示しない電気接点を介して、被写体との距離情報や、後述する角速度情報等をカメラマイコン201に送信する。 The LPU 401 is a processor for controlling each section within the lens unit 400 . For example, the LPU 401 transmits information about the distance to the subject, angular velocity information (to be described later), and the like to the camera microcomputer 201 via electrical contacts (not shown).

角速度センサ402は、撮像装置の移動量を表す角速度を検出し、角速度情報を電気信号として変換してLPU401へ伝達する。角速度センサ402は、例えばジャイロセンサで構成される。この角速度センサ402は、図1の角速度センサ106に対応する要素であって、検出手段の一例である。 The angular velocity sensor 402 detects angular velocity representing the amount of movement of the imaging device, converts the angular velocity information into an electrical signal, and transmits the electrical signal to the LPU 401 . The angular velocity sensor 402 is composed of, for example, a gyro sensor. This angular velocity sensor 402 is an element corresponding to the angular velocity sensor 106 in FIG. 1, and is an example of detection means.

ここで、LPU401は、カメラマイコン201との通信によって得られる被写体角速度に基づいて、レンズ403に含まれるシフトレンズの駆動量を算出する。そして、LPU401は、この駆動量に基づいてシフトレンズを駆動することで、被写体に係る像ブレ(被写体ブレ)を補正する。これにより、流し撮りアシスト機能の動作時においては、撮影者のパンニング動作が被写体の動きに対してずれている場合でも被写体ブレを抑えつつ背景を流す撮影が実現しやすくなる。 Here, the LPU 401 calculates the driving amount of the shift lens included in the lens 403 based on the subject angular velocity obtained by communication with the camera microcomputer 201 . Then, the LPU 401 drives the shift lens based on this drive amount, thereby correcting image blurring of the subject (subject blurring). As a result, when the panning assist function is in operation, even if the panning action of the photographer deviates from the movement of the subject, it is easy to realize shooting with the background flowing while suppressing subject blur.

図3は流し撮りアシスト機能の動作時における測光演算の例を説明するフローチャートである。
流し撮りアシスト機能をオンにして撮像装置を起動させると、図3に示すフローチャートの処理が開始される。なお、以下のフローチャートにおいては、ミラーダウン状態で測光センサ208の出力を用いて測光演算が行われてもよく、ミラーアップ状態で撮像素子203の出力を用いて測光演算が行われてもよい。
FIG. 3 is a flow chart for explaining an example of photometry calculation during operation of the panning assist function.
When the imaging apparatus is activated with the panning assist function turned on, the processing of the flowchart shown in FIG. 3 is started. Note that in the following flowchart, the photometric calculation may be performed using the output of the photometric sensor 208 in the mirror down state, or the photometric calculation may be performed using the output of the image sensor 203 in the mirror up state.

ステップS301にて、カメラマイコン201は、撮影者によるレリーズスイッチの半押し操作を受け付けたか(SW1がONになったか)を判断する。SW1がONの場合には処理がステップS302に移行し、流し撮り用の測光演算が開始される。一方、SW1がONになっていない場合には、カメラマイコン201は、SW1がONになるまで待機する。 In step S301, the camera microcomputer 201 determines whether a half-press operation of the release switch by the photographer has been received (whether SW1 has been turned ON). If SW1 is ON, the process proceeds to step S302, and photometry calculation for panning is started. On the other hand, if SW1 is not turned ON, the camera microcomputer 201 waits until SW1 is turned ON.

ステップS302にて、カメラマイコン201は、角速度センサ402によって検出された角速度から撮像装置のパンニング角速度の情報を取得する。 In step S<b>302 , the camera microcomputer 201 acquires information on the panning angular velocity of the imaging device from the angular velocity detected by the angular velocity sensor 402 .

ステップS303にて、カメラマイコン201は、測光演算のために取得される画像から被写体の領域(被写体領域)を検知する。上記のように、測光演算のために取得される画像は、ミラーアップ状態での撮影時には撮像素子203によって取得され、ミラーダウン状態での撮影時には測光センサ208によって取得される。 In step S303, the camera microcomputer 201 detects a subject area (subject area) from an image acquired for photometry calculation. As described above, an image acquired for photometric calculation is acquired by the image sensor 203 when shooting with the mirror up, and is acquired by the photometric sensor 208 when shooting with the mirror down.

例えば、ミラーダウン状態の場合、APU212内の動きベクトル検出部が、測光センサ208で得られた画像から動きベクトルを検出する。また、ミラーアップ状態の場合、カメラマイコン201内の動きベクトル検出部が、撮像素子203で得られた画像から動きベクトルを検出する。そして、カメラマイコン201は、動きベクトル検出部で検出した動きベクトルと、パンニング角速度の情報(S302)を用いて被写体の領域を検知する。つまり、カメラマイコン201は、領域検知手段の一例である。
なお、被写体の領域の決定に関しては、例えばテンプレートマッチング等様々な手法が提案されている。そのため、ステップS303において、これらの公知の手法も適宜利用して被写体の領域を決定してもよい。
For example, in the mirror-down state, the motion vector detector in the APU 212 detects motion vectors from the image obtained by the photometric sensor 208 . Also, in the mirror-up state, a motion vector detection unit in the camera microcomputer 201 detects a motion vector from the image obtained by the imaging device 203 . Then, the camera microcomputer 201 detects the subject area using the motion vector detected by the motion vector detection unit and the panning angular velocity information (S302). That is, the camera microcomputer 201 is an example of area detection means.
Various methods such as template matching have been proposed for determining the area of the subject. Therefore, in step S303, these well-known methods may be appropriately used to determine the subject area.

ステップS304にて、カメラマイコン201は、被写体の領域を検知したかを判断する。被写体の領域を検知した場合にはステップS305に処理が移行する。一方、被写体の領域を検知できない場合にはステップS309に処理が移行する。 In step S304, the camera microcomputer 201 determines whether the subject area has been detected. If the subject area is detected, the process proceeds to step S305. On the other hand, if the subject area cannot be detected, the process proceeds to step S309.

ステップS304で被写体の領域を検知した場合、ステップS305にて、カメラマイコン201は、撮像面上の被写体角速度を取得する。
そして、ステップS306にて、カメラマイコン201は、被写体角速度を算出する。
When the subject area is detected in step S304, the camera microcomputer 201 acquires the subject angular velocity on the imaging plane in step S305.
Then, in step S306, the camera microcomputer 201 calculates the subject angular velocity.

ここで、ステップS305およびS306の処理は以下のように行われる。
図4は、本実施形態における被写体角速度の算出について説明する図である。
例えば、被写体がt秒の間に点Aから点Bへ移動した場合を考える。この場合に、上記の被写体の移動に応じて、撮像装置のセンサ上に結像する被写体の像は点Cから点Dへと移動する。点Cと点Dの距離(撮像面上の移動量)をd[pixel]、焦点距離をf[mm]、センサの画素ピッチをp[μm/pixel]としたとき、撮像面上の被写体の角速度ω[rad/sec]は、以下の式1で表わすことができる。
Here, the processing of steps S305 and S306 is performed as follows.
FIG. 4 is a diagram illustrating calculation of the subject angular velocity in this embodiment.
For example, consider the case where the object moves from point A to point B in t seconds. In this case, the image of the subject formed on the sensor of the imaging device moves from point C to point D in accordance with the movement of the subject. When the distance between points C and D (the amount of movement on the imaging plane) is d [pixel], the focal length is f [mm], and the pixel pitch of the sensor is p [μm/pixel], the object on the imaging plane is The angular velocity ω [rad/sec] can be expressed by Equation 1 below.

Figure 0007254555000001
Figure 0007254555000001

撮影者が撮像装置をパンニングしていた場合、撮像面上の被写体の角速度ωは、被写体自身の角速度(被写体角速度)ωSからパンニング角速度ωpを減算したものとなる。したがって、撮像面上の被写体の角速度ωは、以下の式2で表わすことができる。
ω=ωS-ωp 式2
When the photographer pans the imaging device, the angular velocity ω of the subject on the imaging plane is obtained by subtracting the panning angular velocity ω p from the angular velocity of the subject itself (subject angular velocity) ω S . Therefore, the angular velocity ω of the subject on the imaging plane can be expressed by Equation 2 below.
ω = ω S - ω p Formula 2

したがって、カメラマイコン201は、角速度センサ402で検出された撮像装置のパンニング角速度ωpと撮像面上の被写体の角速度ωを用いて、以下の式3により被写体角速度ωSを算出できる。
ωS=ω+ωp 式3
Therefore, the camera microcomputer 201 can calculate the object angular velocity ω S using the following equation 3 using the panning angular velocity ω p of the imaging device detected by the angular velocity sensor 402 and the object angular velocity ω on the imaging plane.
ω S = ω + ω p Equation 3

図3の説明に戻って、ステップS307にて、カメラマイコン201は、ステップS303で求めた被写体領域の情報(例えば被写体領域の形状、大きさ、位置の情報)を、当該情報の生成時点を示す情報と紐づけした状態で被写体領域履歴に保存する。
一例として、カメラマイコン201は、撮像素子203で撮像された画像より被写体領域を求めた場合にはメモリ202に被写体領域履歴を保存し、測光センサ208で得られた画像から被写体領域を求めた場合にはメモリ213に被写体領域履歴を保存する。なお、被写体領域履歴の保存先は一例にすぎず、適宜変更することができる。
Returning to the description of FIG. 3, in step S307, the camera microcomputer 201 converts the information of the subject area obtained in step S303 (for example, information about the shape, size, and position of the subject area) to the point at which the information is generated. Save in the subject area history in a state linked with the information.
As an example, when the camera microcomputer 201 obtains the subject area from the image captured by the image sensor 203, it stores the subject area history in the memory 202, and when the subject area is obtained from the image obtained by the photometric sensor 208, , the object area history is stored in the memory 213 . Note that the storage destination of the subject region history is only an example, and can be changed as appropriate.

ステップS308にて、カメラマイコン201は、ステップS306で算出した被写体角速度の情報を、当該情報の生成時点を示す情報と紐づけした状態で被写体角速度履歴に保存する。ステップS308の処理が終了すると、ステップS310に処理が移行する。なお、被写体角速度履歴の保存先は、上記の被写体領域履歴の保存先と同様であるので説明を省略する。 In step S<b>308 , the camera microcomputer 201 saves the subject angular velocity information calculated in step S<b>306 in the subject angular velocity history in a state of being associated with the information indicating the generation point of the information. After the process of step S308 ends, the process proceeds to step S310. Note that the storage destination of the subject angular velocity history is the same as the storage destination of the subject region history described above, so description thereof will be omitted.

ステップS309は、ステップS304で被写体の領域を検知できない場合の処理である。カメラマイコン201は、動きベクトルとパンニング角速度の情報から被写体が検知されなかった場合、被写体領域を検出できない。この場合、カメラマイコン201は、過去の検出結果から被写体領域の移動量を予測する。ステップS309の処理の詳細は、図5を用いて後述する。ステップS309の処理が終了すると、ステップS310に処理が移行する。 Step S309 is processing when the subject area cannot be detected in step S304. The camera microcomputer 201 cannot detect the subject area when the subject is not detected from the motion vector and panning angular velocity information. In this case, the camera microcomputer 201 predicts the amount of movement of the subject area from past detection results. Details of the processing in step S309 will be described later with reference to FIG. After the process of step S309 ends, the process proceeds to step S310.

ステップS310にて、カメラマイコン201は、撮像素子203または測光センサ208で取得された画像を用いて、被写体領域に基づく測光値を算出する。ステップS310で測光値を算出する被写体領域は、ステップS303で検知された被写体領域、またはステップS309の処理で予測された被写体領域のいずれかである。なお、被写体領域における測光値の算出手法自体は公知であるため、詳細な説明は省略する。 In step S310, the camera microcomputer 201 uses the image acquired by the image sensor 203 or the photometric sensor 208 to calculate a photometric value based on the subject area. The subject area for which the photometric value is calculated in step S310 is either the subject area detected in step S303 or the subject area predicted in the process of step S309. Since the method of calculating the photometric value in the subject area is known per se, detailed description thereof will be omitted.

ステップS311にて、カメラマイコン201は、撮影者によるレリーズスイッチの全押し操作を受け付けたか(SW2がONになったか)を判断する。SW2がONの場合、カメラマイコン201は、ステップS309で算出された測光値を用いて撮影動作を開始する。 In step S311, the camera microcomputer 201 determines whether the full-press operation of the release switch by the photographer has been accepted (whether SW2 has been turned ON). When SW2 is ON, the camera microcomputer 201 starts shooting operation using the photometric value calculated in step S309.

一方、SW2がONになっていない場合には、ステップS301に処理が戻る。なお、レリーズスイッチの全押し操作がされる前に、再びレリーズスイッチの半押し操作がなされると、カメラマイコン201は再度ステップS302以降の処理を実行し、被写体領域に基づく測光値を算出する。以上で、図3の説明を終了する。 On the other hand, if SW2 is not ON, the process returns to step S301. If the release switch is half-pressed again before the release switch is fully-pressed, the camera microcomputer 201 executes the processes from step S302 onward again to calculate the photometric value based on the subject area. This completes the description of FIG.

次に、図5を参照しつつ、ステップS309で行われる被写体領域の予測手法を説明する。
以下の例では、等速直線運動で離れていく物体を被写体として、被写体角速度の算出を行う場合を説明する。なお、被写体角速度の履歴から被写体角速度の予想が可能であれば本手法を適用した被写体領域の予測は可能であり、被写体の動きは上記の例に限定されない。
Next, the subject area prediction method performed in step S309 will be described with reference to FIG.
In the following example, a case will be described in which the object angular velocity is calculated with an object moving away in uniform linear motion as the object. Note that if the subject angular velocity can be predicted from the history of the subject angular velocity, then the subject area can be predicted by applying this method, and the movement of the subject is not limited to the above examples.

図6は、被写体の角速度と角加速度の例を示す図である。
被写体が等速直線運動をしている場合でも、撮像装置から見た角速度として計算すると被写体は加速する。したがって、被写体領域が最後に検知された画像(フレーム)の時点で取得された被写体角速度ωlastと、現時点の被写体角速度ωtは異なる値になる。
そこで、図5の処理におけるカメラマイコン201は、ステップS305で保存した被写体角速度履歴を用いて、最後に被写体領域が検知されたフレームからの被写体領域の撮像面上の移動量を予測する。
FIG. 6 is a diagram showing an example of angular velocity and angular acceleration of a subject.
Even if the subject is in uniform linear motion, the subject will accelerate when calculated as the angular velocity seen from the imaging device. Therefore, the subject angular velocity ω last acquired at the time of the image (frame) in which the subject area was last detected and the subject angular velocity ω t at the present time have different values.
Therefore, the camera microcomputer 201 in the process of FIG. 5 uses the subject angular velocity history saved in step S305 to predict the amount of movement of the subject area on the imaging plane from the last frame in which the subject area was detected.

ステップS501にて、カメラマイコン201は、メモリ202またはメモリ213に記憶されている被写体角速度履歴の情報を読み出す。 In step S<b>501 , the camera microcomputer 201 reads subject angular velocity history information stored in the memory 202 or memory 213 .

ステップS502にて、カメラマイコン201は、被写体角速度の変化量である被写体角加速度を算出する。ある時点での被写体角速度をωnとすると、ある時点での被写体角加速度ωanは、以下の式4で算出することができる。
ωan=ωn-ωn-1 式4
In step S502, the camera microcomputer 201 calculates subject angular acceleration, which is the amount of change in the subject angular velocity. Assuming that the subject angular velocity at a certain point in time is ωn , the subject angular acceleration at a certain point in time ωan can be calculated by the following equation 4.
ω annn-1 Formula 4

ステップS503にて、カメラマイコン201は、ステップS502で求めた被写体角加速度に基づいて、現在の被写体角加速度を予測する。
被写体角加速度の予測方法としては、任意の履歴から線形的に近似する方法や、予め一般化した所定の近似式をメモリ202もしくはメモリ213に登録しておいて読み出す方法等、任意の手法を採用することができる。本実施形態では、N点での最小二乗法により被写体角加速度を近似予測する方法を採用する。最新の被写体角加速度をωa、時刻をtとすると、予測近似式は以下の式5のようになる。
In step S503, the camera microcomputer 201 predicts the current subject angular acceleration based on the subject angular acceleration obtained in step S502.
As a method of predicting the subject angular acceleration, any method such as a method of linearly approximating from an arbitrary history, a method of registering a predetermined generalized approximation formula in advance in the memory 202 or memory 213 and reading it out, etc., is adopted. can do. In this embodiment, a method of approximately predicting the object angular acceleration by the least squares method at N points is adopted. Assuming that the latest angular acceleration of the object is ω a and the time is t, the prediction approximation formula is given by Equation 5 below.

Figure 0007254555000002
Figure 0007254555000002

以上の近似式から、最後に被写体が検知されたフレームの時刻tから現在の時刻taまでに変動した角度θs[rad]は、以下の式6を用いて算出できる。 From the above approximation formula, the angle θ s [rad] that has changed from the time t of the last frame in which the subject was detected to the current time t a can be calculated using Equation 6 below.

Figure 0007254555000003
Figure 0007254555000003

ステップS504にて、カメラマイコン201は、ステップS503で算出した角度とパンニング量を用いて、被写体の撮像面上の移動量を算出する。
現在までに被写体が変動した角度(角変動量)をθSとし、最後に被写体が検知されたフレームから現在のフレームまでのパンニングによる角変動量をθpとする。このとき、撮像面上のベクトル変化量θ[rad]は、以下の式7を用いて求めることができる。
θ=θs-θp 式7
In step S504, the camera microcomputer 201 uses the angle and panning amount calculated in step S503 to calculate the amount of movement of the subject on the imaging plane.
Let θ S be the angle (angular variation amount) by which the subject has changed so far, and let θ p be the angular variation amount due to panning from the last frame in which the subject was detected to the current frame. At this time, the amount of vector change θ [rad] on the imaging plane can be obtained using Equation 7 below.
θ = θ s - θ p Formula 7

また、撮像面上のベクトル変化量をθ[rad]、焦点距離をf[mm]、センサの画素ピッチをp[μm/pixel]とすると、撮像面上の移動量d[pixel]は、以下の式8で表わすことができる。 Also, if the amount of vector change on the imaging plane is θ [rad], the focal length is f [mm], and the pixel pitch of the sensor is p [μm/pixel], then the amount of movement d [pixel] on the imaging plane is as follows: can be expressed by the following equation 8.

Figure 0007254555000004
Figure 0007254555000004

ステップS505にて、カメラマイコン201は、メモリ202またはメモリ213に記憶されている被写体領域履歴の情報を読み出す。
ステップS506にて、カメラマイコン201は、最後に被写体が検知されたフレームの被写体領域の位置を基準として、ステップS504で算出した撮像面上の移動量分移動した被写体領域の位置を求める。これにより、カメラマイコン201は、撮像面上の移動量から現在の被写体領域の位置を予測する。以上で、図5の処理が終了する。
In step S<b>505 , the camera microcomputer 201 reads subject area history information stored in the memory 202 or memory 213 .
In step S506, the camera microcomputer 201 obtains the position of the subject area moved by the amount of movement on the imaging plane calculated in step S504 with reference to the position of the subject area of the frame in which the subject was last detected. Accordingly, the camera microcomputer 201 predicts the current position of the subject area from the amount of movement on the imaging plane. With this, the processing in FIG. 5 is completed.

以上のように、カメラマイコン201は、被写体領域を検知できなかった場合に、被写体の角変動量およびパンニングによる角変動量から被写体の撮像面上の移動量を算出する(S504)。そして、カメラマイコン201は、最後に被写体が検知されたフレームの被写体領域の位置と、撮像面上の移動量を用いて現在の被写体領域の位置を予測する(S506)。これにより、本実施形態においては、流し撮りの撮影において被写体領域の検知に失敗した場合でも、被写体に適した測光値を算出することができる。 As described above, when the subject area cannot be detected, the camera microcomputer 201 calculates the amount of movement of the subject on the imaging plane from the amount of angular variation of the subject and the amount of angular variation due to panning (S504). Then, the camera microcomputer 201 predicts the current position of the subject area using the position of the subject area in the last frame in which the subject was detected and the amount of movement on the imaging plane (S506). As a result, in this embodiment, even if detection of the subject area fails in panning, it is possible to calculate a photometric value suitable for the subject.

ここで、上記の例では一種類の被写体角速度の算出方法を適用しているが、必要に応じて複数種類の被写体角速度の算出方法を適宜場合によって切り替えてもよい。また、被写体角加速度の予測方法で適用される近似式についても、最小二乗法に限定されることなく、様々な近似式を適用することができる。 Here, although one type of subject angular velocity calculation method is applied in the above example, plural types of subject angular velocity calculation methods may be switched as appropriate depending on the situation. Also, the approximation formula applied in the subject angular acceleration prediction method is not limited to the least squares method, and various approximation formulas can be applied.

<第2実施形態>
第1実施形態では、撮影対象の被写体が想定した被写体角速度で移動していることを前提として被写体領域を予測している。しかし、被写体の動きは想定と完全に一致することは少ない。被写体が想定外の動きをした際に第1実施形態のような被写体領域の予測を行うと、正しい被写体領域の位置を予測できずに流し撮りに適した測光値を算出できない場合がある。以上の理由から、被写体領域の予測の精度(信頼度)に応じて測光値を変化させることが好ましい。
<Second embodiment>
In the first embodiment, the subject area is predicted on the assumption that the subject to be photographed is moving at an assumed subject angular velocity. However, the movement of the subject rarely coincides perfectly with the assumption. If the subject region is predicted as in the first embodiment when the subject moves unexpectedly, the correct position of the subject region cannot be predicted, and a photometric value suitable for panning may not be calculated. For the above reasons, it is preferable to change the photometric value according to the accuracy (reliability) of prediction of the subject area.

図7は、第2実施形態として、流し撮りアシスト機能の動作時における測光演算の別例を説明するフローチャートである。なお、第2実施形態の撮像装置の構成は、第1実施形態と同様であるので重複説明は省略する。
第2実施形態においては、図3に示す制御の代わりに、図7に示す以下の制御が行われる。図7の制御では、被写体領域が検知されていない場合において、所定期間内に被写体領域が所定回数検知されているか否かで処理が分岐する。また、図7の制御では、被写体領域を予測するときには、被写体領域の予測の信頼度に基づいて被写体領域に基づく測光値の重みづけを変化させる。
FIG. 7 is a flowchart for explaining another example of photometry calculation during operation of the panning assist function as the second embodiment. Note that the configuration of the imaging apparatus of the second embodiment is the same as that of the first embodiment, so redundant description will be omitted.
In the second embodiment, instead of the control shown in FIG. 3, the following control shown in FIG. 7 is performed. In the control of FIG. 7, when the subject area has not been detected, the process branches depending on whether the subject area has been detected a predetermined number of times within a predetermined period. Further, in the control of FIG. 7, when predicting the subject area, the weighting of the photometric values based on the subject area is changed based on the reliability of the prediction of the subject area.

図7のステップS701からS703の処理は、図3のステップS301からS303の処理にそれぞれ対応する。そのため、図7の説明ではこれらの処理の重複説明は省略する。
ステップS704にて、カメラマイコン201は、最新のフレームで被写体の領域を検知したかを判断する。被写体の領域を検知した場合にはステップS705に処理が移行する。一方、被写体の領域を検知できない場合にはステップS711に処理が移行する。
The processing from steps S701 to S703 in FIG. 7 respectively correspond to the processing from steps S301 to S303 in FIG. Therefore, redundant description of these processes will be omitted in the description of FIG.
In step S704, the camera microcomputer 201 determines whether the subject area has been detected in the latest frame. If the subject area is detected, the process proceeds to step S705. On the other hand, if the subject area cannot be detected, the process proceeds to step S711.

図7のステップS705からS708の処理は、図3のステップS305からS308の処理にそれぞれ対応する。そのため、図7の説明ではこれらの処理の重複説明は省略する。ステップS705からS708の一連の処理が終了すると、ステップS709に処理が移行する。 The processing from steps S705 to S708 in FIG. 7 respectively correspond to the processing from steps S305 to S308 in FIG. Therefore, redundant description of these processes will be omitted in the description of FIG. After a series of processes from steps S705 to S708 are completed, the process proceeds to step S709.

ステップS709にて、カメラマイコン201は、被写体領域の測光値の重みづけを設定する。なお、後述するステップS710で測光値の加重平均をしない場合には、ステップS709の処理を省略することができる。 In step S709, the camera microcomputer 201 sets the weighting of the photometric values of the subject area. Note that if the weighted average of the photometric values is not performed in step S710, which will be described later, the processing in step S709 can be omitted.

例えば、カメラマイコン201は、過去のフレームの測光値と現在のフレームの測光値を加重平均する場合、フレーム間の平均輝度差や、現在のフレームからの時間差に基づいて被写体領域の測光値の重みづけを行ってもよい。 For example, when the camera microcomputer 201 performs weighted averaging of the photometric values of the past frame and the current frame, the camera microcomputer 201 weights the photometric values of the subject region based on the average luminance difference between the frames and the time difference from the current frame. may be applied.

例えば、フレーム間の平均輝度差が大きいほど、過去のフレームに基づく測光値の重みが低く設定される。また、例えば、現在のフレームとの時間差が大きいほど、過去のフレームに基づく測光値の重みが低く設定される。 For example, the greater the average luminance difference between frames, the lower the weight of photometric values based on past frames is set. Also, for example, the greater the time difference from the current frame, the lower the weight of the photometric value based on the past frame is set.

ステップS710にて、カメラマイコン201は、撮像素子203または測光センサ208で取得された画像を用いて、ステップS703で検知された被写体領域の測光値を算出する。被写体領域における測光値の算出手法自体は公知であるため、詳細な説明は省略する。
なお、ステップS710において、カメラマイコン201は、上記の重みづけの設定(S709)に基づき、過去に算出された測光値と現時点で算出された測光値との加重平均を求め、最終的な測光値を算出してもよい。例えば、撮影モードの設定が、測光の安定性が特に重視される連写モードに設定されている場合には、過去に算出された測光値と現時点で算出された測光値との加重平均による加算を行うことが好ましい。
このステップS710の処理が終了すると、ステップS719に処理が移行する。
In step S710, the camera microcomputer 201 uses the image acquired by the image sensor 203 or the photometric sensor 208 to calculate the photometric value of the subject area detected in step S703. Since the method of calculating the photometric value in the subject area is known per se, detailed description thereof will be omitted.
In step S710, the camera microcomputer 201 obtains a weighted average of the photometric values calculated in the past and the currently calculated photometric values based on the above-described weight setting (S709). may be calculated. For example, if the shooting mode is set to the continuous shooting mode, which emphasizes the stability of photometry, the weighted average addition of the photometry value calculated in the past and the photometry value calculated at the present time It is preferable to
When the process of step S710 ends, the process proceeds to step S719.

一方、ステップS704で被写体の領域を検知できない場合には、上記のようにステップS711の処理が行われる。ステップS711にて、カメラマイコン201は、所定期間内に被写体領域が所定回数以上検知されているか判定する。
所定期間内に被写体領域が所定回数以上検知されている場合には、ステップS712に処理が移行する。一方、所定期間内に被写体領域が検知された回数が所定回数未満の場合には、ステップS718に処理が移行する。
On the other hand, if the subject area cannot be detected in step S704, the process of step S711 is performed as described above. In step S711, the camera microcomputer 201 determines whether the subject area has been detected a predetermined number of times or more within a predetermined period.
If the subject area has been detected more than the predetermined number of times within the predetermined period, the process proceeds to step S712. On the other hand, if the number of times the subject area is detected within the predetermined period is less than the predetermined number of times, the process proceeds to step S718.

本実施形態のステップS711では、例えば、現在のフレームを基準としてそれよりも過去の5フレーム分を所定期間とし、当該5フレームの間に2回以上被写体領域が検知されているかが判定される。
ステップS711の所定期間および所定回数は、被写体角速度が算出できずに領域予測ができない場合を除外するためのパラメータであり、例えば、被写体領域の予測方法などに応じて適宜変更できる。なお、所定期間はフレーム単位でカウントしてもよく、経過時間でカウントしてもよい。
In step S711 of the present embodiment, for example, five frames past the current frame are set as a predetermined period, and it is determined whether or not the subject area has been detected twice or more during the five frames.
The predetermined period and the predetermined number of times in step S711 are parameters for excluding the case where the subject angular velocity cannot be calculated and the area prediction cannot be performed, and can be appropriately changed according to, for example, the subject area prediction method. Note that the predetermined period may be counted in units of frames, or may be counted in elapsed time.

ステップS712にて、カメラマイコン201は、過去の検出結果から被写体領域の移動量を予測する。ステップS712の処理は、図3のステップS309および図5の処理に対応するので重複説明は省略する。 In step S712, the camera microcomputer 201 predicts the amount of movement of the subject area from past detection results. Since the process of step S712 corresponds to the process of step S309 of FIG. 3 and the process of FIG. 5, redundant description will be omitted.

ステップS713にて、カメラマイコン201は、被写体領域の予測の信頼度を算出する。例えば、カメラマイコン201は、ステップS503で算出した近似曲線f(x)と、被写体角速度履歴において予測に用いた各計測値(xi,yi)、yiの平均値yaveを用いて決定係数を算出し、被写体領域の予測の信頼度Tとする。Tは以下の式9で求められ、0≦T≦1が成立する。 In step S713, the camera microcomputer 201 calculates the reliability of prediction of the subject area. For example, the camera microcomputer 201 uses the approximated curve f(x) calculated in step S503, the measured values (x i , y i ) used for prediction in the subject angular velocity history, and the average value y ave of y i . A coefficient is calculated and set as the reliability T of prediction of the object region. T is obtained by the following formula 9, and 0≤T≤1.

Figure 0007254555000005
Figure 0007254555000005

なお、本実施形態では、上記の式9から求まる決定係数によって被写体領域の予測の信頼度を算出した。しかし、かかる信頼度の算出方法についても、自由度調整済みの決定係数を用いる、データの母数によって信頼度を変更するなど、適宜変更してもよい。 Note that, in this embodiment, the reliability of prediction of the subject region is calculated using the coefficient of determination obtained from Equation 9 above. However, the method of calculating the reliability may also be changed as appropriate, such as using a coefficient of determination adjusted for degrees of freedom or changing the reliability depending on the parameter of the data.

ステップS714にて、カメラマイコン201は、ステップS703で検出されている被写体領域と、ステップS713で算出した予測の信頼度を紐づけした情報を、当該情報の生成時点を示す情報と紐づけした状態で予測信頼性履歴に保存する。予測信頼性履歴の保存先は、例えば、被写体領域履歴および被写体角速度履歴の保存先と同様であるので説明を省略する。 In step S714, the camera microcomputer 201 associates information linking the subject area detected in step S703 with the prediction reliability calculated in step S713 with information indicating the generation time point of the information. Save to the prediction reliability history with . The storage destination of the prediction reliability history is the same as, for example, the storage destination of the subject area history and the subject angular velocity history, and therefore the description thereof is omitted.

ステップS715にて、カメラマイコン201は、被写体領域の測光値の重みづけを設定する。カメラマイコン201は、過去のフレームの測光値と現在のフレームの測光値を加重平均する場合、フレーム間の平均輝度差や、現在のフレームからの時間差に基づいて被写体領域の測光値の重みづけを行ってもよい。
例えば、フレーム間の平均輝度差が大きいほど、過去のフレームに基づく被写体領域の測光値の重みは低く設定されてもよい。つまり、S715において、フレーム間の平均輝度差が大きい場合、予測された被写体領域に基づく測光値の重みを相対的に大きくしてもよい。
また、例えば、現在のフレームとの時間差が大きいほど、過去のフレームに基づく被写体領域の測光値の重みは低く設定されてもよい。つまり、S715において、過去のフレームに基づく測光値の重みを小さくし、予測された被写体領域に基づく測光値の重みを相対的に大きくしてもよい。
In step S715, the camera microcomputer 201 sets the weighting of the photometric values of the subject area. When weighted averaging the photometric values of the past frames and the current frame, the camera microcomputer 201 weights the photometric values of the subject region based on the average luminance difference between frames and the time difference from the current frame. you can go
For example, the greater the average luminance difference between frames, the lower the weight of the photometric value of the subject region based on the past frame may be set. That is, in S715, if the average luminance difference between frames is large, the weight of the photometric value based on the predicted subject area may be relatively increased.
Also, for example, the greater the time difference from the current frame, the lower the weight of the photometric value of the subject region based on the past frame may be set. That is, in S715, the weight of the photometric value based on the past frame may be decreased, and the weight of the photometric value based on the predicted subject area may be relatively increased.

ステップS716にて、カメラマイコン201は、撮像素子203または測光センサ208で取得された画像を用いて、ステップS712で予測された被写体領域の測光値を算出する。測光値の算出手法は上記のステップS710と同様であるので、重複説明は省略する。 In step S716, the camera microcomputer 201 uses the image acquired by the image sensor 203 or the photometric sensor 208 to calculate the photometric value of the subject area predicted in step S712. Since the method of calculating the photometric value is the same as that in step S710 described above, redundant description will be omitted.

ステップS717にて、カメラマイコン201は、ステップS716で取得した測光値と、過去に算出された測光値(過去測光値)との加重平均による加算を行い、最終的な測光値を算出する。例えば、撮影モードの設定が、測光の安定性が特に重視される連写モードに設定されている場合には、過去に算出された測光値と現時点で算出された測光値との加重平均を行うことが好ましい。
ステップS717の処理が終了すると、ステップS719に処理が移行する。
In step S717, the camera microcomputer 201 performs weighted average addition of the photometric value obtained in step S716 and the photometric value calculated in the past (past photometric value) to calculate the final photometric value. For example, if the shooting mode is set to the continuous shooting mode, which emphasizes the stability of photometry, the weighted average of the photometry value calculated in the past and the photometry value calculated at the present time is performed. is preferred.
When the process of step S717 ends, the process moves to step S719.

図8は、ステップS717における過去測光値との加重平均の処理例を説明するフローチャートである。 FIG. 8 is a flowchart for explaining an example of weighted average processing with past photometric values in step S717.

ステップS801にて、カメラマイコン201は、過去測光値の情報を記憶した測光値履歴を読み出す。なお、測光値履歴は、被写体領域履歴、被写体角速度履歴および予測信頼性履歴と同様にメモリ202またはメモリ213に記憶される。
ステップS802にて、カメラマイコン201は、メモリ202またはメモリ213から予測信頼性履歴を読み出す。
In step S801, the camera microcomputer 201 reads out the photometric value history that stores information on past photometric values. Note that the photometric value history is stored in the memory 202 or memory 213 in the same manner as the subject region history, subject angular velocity history, and prediction reliability history.
In step S<b>802 , the camera microcomputer 201 reads the prediction reliability history from the memory 202 or memory 213 .

ステップS803にて、カメラマイコン201は、過去測光値とステップS716で算出された測光値を加重平均する。ステップS803の処理が終了すると、図7の処理に戻る。 In step S803, the camera microcomputer 201 performs a weighted average of the past photometric value and the photometric value calculated in step S716. When the process of step S803 ends, the process returns to the process of FIG.

ここで、ステップS803において、被写体領域の予測の信頼度に基づいて測光値の加重平均を行うときの算出例を、具体的に説明する。なお、ステップS715でも述べたように、フレーム間の平均輝度差や現在のフレームとの時間差などの要素に基づいて、ステップS716で取得した測光値と、過去測光値との重みづけをさらに調整してもよい。 Here, a specific example of calculation when weighted averaging of photometric values is performed based on the reliability of prediction of the subject area in step S803 will be described. As described in step S715, the weighting of the photometric value acquired in step S716 and the past photometric value is further adjusted based on factors such as the average luminance difference between frames and the time difference from the current frame. may

最後に被写体が検知されたフレームをi=0、最新のフレームをi=n、i番目の測光値をBvi、i番目の被写体予測の信頼性Tiとする。このとき、最後に被写体領域が検知されたフレームの測光値から最新のフレームの測光値を加重平均した結果の測光値Bvvalは、以下の式10で求めることができる。 Let i=0 be the last frame in which the object was detected, i=n be the latest frame, Bv i be the i-th photometric value, and T i be the reliability of i-th object prediction. At this time, the photometric value Bv_val , which is the result of weighted averaging the photometric values of the latest frame from the photometric values of the frame in which the subject region was last detected, can be obtained by the following equation (10).

Figure 0007254555000006
Figure 0007254555000006

ステップS803の処理によれば、被写体領域の予測の信頼度が高い場合には、予測された被写体領域の測光値の重みが大きくなる。一方、被写体領域の予測の信頼度が低い場合には、最後に被写体領域が検知されたフレームの測光値の重みが大きくなる。
すなわち、被写体領域の予測が外れている可能性が高い場合には、最後に被写体領域が検知されたフレームの測光値の重みが大きくなるので、被写体の位置の予測失敗により測光値が適正露出から離れることを抑制できる。
According to the processing in step S803, when the reliability of the subject area prediction is high, the weight of the photometric value of the predicted subject area is increased. On the other hand, when the reliability of prediction of the subject area is low, the weight of the photometric value of the last frame in which the subject area is detected is increased.
In other words, when there is a high possibility that the prediction of the subject area is incorrect, the weight of the photometric value of the last frame in which the subject area is detected is increased. You can restrain yourself from leaving.

図7に戻って、ステップS711で所定期間内に被写体領域が所定回数以上検知されていない場合には、上記のようにステップS718の処理が行われる。
ステップS718にて、カメラマイコン201は、現在のフレームに対して測光モードに応じた評価測光で測光値を算出する。評価測光による測光値の算出手法自体は公知であるため、詳細な説明は省略する。
ステップS718の処理が終了すると、ステップS719に処理が移行する。
Returning to FIG. 7, if it is determined in step S711 that the subject area has not been detected more than the predetermined number of times within the predetermined period, the process of step S718 is performed as described above.
In step S718, the camera microcomputer 201 calculates a photometric value for the current frame by evaluative photometry according to the photometry mode. Since the method of calculating the photometric value by evaluative photometry is well known, detailed description thereof will be omitted.
When the process of step S718 ends, the process moves to step S719.

ここで、ステップS718のように、被写体予測ができずに測光モードに応じた評価測光で測光値を算出する場合、前回の測光値との安定性を優先するために、過去測光値との加重平均による加算をしてもよい。例えば、カメラマイコン201は、過去のフレームの測光値と現在のフレームの測光値を加重平均する場合、フレーム間の平均輝度差や、現在のフレームからの時間差に基づいて測光値の重みづけを行ってもよい。これらの処理は、ステップS709でも述べているため、重複説明は省略する。 Here, when the photometric value is calculated by evaluative metering according to the photometric mode without predicting the subject as in step S718, weighting with the past photometric value is performed in order to give priority to the stability with the previous photometric value. You can add by averaging. For example, the camera microcomputer 201 weights the photometric values based on the average brightness difference between the frames and the time difference from the current frame when weighted averaging the photometric values of the past frame and the current frame. may Since these processes have already been described in step S709, redundant description will be omitted.

ステップS719にて、カメラマイコン201は、ステップS710、S717、S718のいずれかで算出された測光値の情報を、当該情報の生成時点を示す情報と紐づけした状態でメモリ202またはメモリ213に記憶される測光値履歴に保存する。これにより、次回以降の測光演算のときには、今回算出された測光値を過去測光値として参照することが可能になる。 In step S719, the camera microcomputer 201 stores the information of the photometric value calculated in any one of steps S710, S717, and S718 in the memory 202 or 213 in a state in which it is associated with the information indicating the generation time of the information. saved in the photometric value history. As a result, the photometric value calculated this time can be referred to as the past photometric value in the next and subsequent photometric calculations.

ステップS720にて、カメラマイコン201は、撮影者によるレリーズスイッチの全押し操作を受け付けたか(SW2がONになったか)を判断する。SW2がONの場合、カメラマイコン201は、ステップS710、S717、S718のいずれかで算出された測光値を用いて撮影動作を開始する。一方、SW2がONになっていない場合には、ステップS702に処理が戻る。以上で、図7の説明を終了する。 In step S720, the camera microcomputer 201 determines whether the full-press operation of the release switch by the photographer has been accepted (whether SW2 has been turned ON). When SW2 is ON, the camera microcomputer 201 starts shooting operation using the photometric value calculated in any one of steps S710, S717, and S718. On the other hand, if SW2 is not ON, the process returns to step S702. This completes the description of FIG.

第2実施形態においては、最後に被写体領域が検知されたフレームの測光値と、被写体領域を予測したフレームの測光値を加重平均する(S717)。このとき、被写体領域の予測の信頼度(S713)に基づいて、被写体領域を予測したフレームの測光値を調整する。そのため、例えば、被写体が想定外の動きをしたときのように、被写体の位置の予測が失敗しても測光値が適正露出から離れることを抑制できる。 In the second embodiment, the weighted average of the photometric value of the frame in which the subject region was last detected and the photometric value of the frame in which the subject region was predicted is calculated (S717). At this time, the photometric value of the frame in which the subject area is predicted is adjusted based on the reliability of the subject area prediction (S713). Therefore, even if prediction of the position of the subject fails, such as when the subject moves unexpectedly, it is possible to prevent the photometric value from deviating from the proper exposure.

<むすび>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Conclusion>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist thereof.

201 カメラマイコン
203 撮像素子
208 測光センサ
402 角速度センサ

201 camera microcomputer 203 image sensor 208 photometric sensor 402 angular velocity sensor

Claims (10)

撮像装置の動きを検出する検出手段と、
撮像された画像に含まれる被写体領域を検知する領域検知手段と、
前記撮像装置の動きと、過去に撮像された画像の間における前記被写体領域の動きから、前記被写体領域の位置を予測する領域予測手段と、
被写体の測光演算を行う測光手段と、を備え、
前記測光手段は、
前記画像から前記被写体領域を検知できたときには、前記領域検知手段により検知された前記被写体領域に基づき第1の測光値を算出し、
前記画像から前記被写体領域を検知できないときには、前記領域予測手段により予測された前記被写体領域に基づき第2の測光値を算出し、過去に算出された前記第1の測光値と前記第2の測光値とを重みづけ加算して第3の測光値を算出する
ことを特徴とする撮像装置。
detection means for detecting movement of the imaging device;
an area detection means for detecting a subject area included in the captured image;
an area prediction means for predicting the position of the subject area from the movement of the imaging device and the movement of the subject area between previously captured images;
and a photometric means for performing photometric calculation of a subject,
The photometric means
calculating a first photometric value based on the subject area detected by the area detecting means when the subject area can be detected from the image;
When the subject area cannot be detected from the image, a second photometric value is calculated based on the subject area predicted by the area prediction means , and the previously calculated first photometric value and the second photometric value are calculated. and calculating a third photometric value by weighted addition of the values .
前記領域予測手段は、前記被写体領域の予測の信頼度を算出し、
前記測光手段は、前記画像から前記被写体領域を検知できないときに、過去に算出された前記第1の測光値と、前記第2の測光値とを前記信頼度に応じて重みづけ加算して前記第3の測光値を算出する
ことを特徴とする請求項に記載の撮像装置。
The area prediction means calculates a reliability of prediction of the subject area,
When the subject region cannot be detected from the image, the photometry means performs weighted addition of the previously calculated first photometry value and the second photometry value according to the reliability. 2. The imaging apparatus according to claim 1 , wherein a third photometric value is calculated.
前記測光手段は、前記信頼度が高い場合には、前記第1の測光値よりも前記第2の測光値の重みを大きくして前記第3の測光値を算出する
ことを特徴とする請求項に記載の撮像装置。
3. The photometric means calculates the third photometric value by weighting the second photometric value more than the first photometric value when the reliability is high. 3. The imaging device according to 2 .
前記測光手段は、前記第1の測光値を算出した時点と、前記第2の測光値を算出した時点との時間差が大きいときに、前記第1の測光値よりも前記第2の測光値の重みを大きくして前記第3の測光値を算出する
ことを特徴とする請求項から請求項のいずれか1項に記載の撮像装置。
When the time difference between the calculation of the first photometric value and the calculation of the second photometric value is large, the photometric means measures the second photometric value higher than the first photometric value. 4. The imaging apparatus according to any one of claims 1 to 3, wherein the third photometric value is calculated with a greater weight.
前記測光手段は、前記第1の測光値の算出に用いた前記画像と、前記第2の測光値の算出に用いた前記画像との輝度差が大きいときに、前記第1の測光値よりも前記第2の測光値の重みを大きくして前記第3の測光値を算出する
ことを特徴とする請求項から請求項のいずれか一項に記載の撮像装置。
The photometry means, when the luminance difference between the image used to calculate the first photometric value and the image used to calculate the second photometric value is large, 5. The imaging apparatus according to claim 1 , wherein the weight of the second photometric value is increased to calculate the third photometric value.
前記測光手段は、前記第1の測光値を算出した時点と現在の時点との時間差が所定期間を超えるときには、前記画像から前記被写体領域が検知できなくても前記第2の測光値を算出せずに、評価測光により第4の測光値を算出する
ことを特徴とする請求項から請求項のいずれか一項に記載の撮像装置。
The photometry means calculates the second photometry value even if the subject region cannot be detected from the image when the time difference between the time when the first photometry value is calculated and the current time exceeds a predetermined period. 6. The image pickup apparatus according to claim 1 , wherein the fourth photometry value is calculated by evaluative photometry without first calculating the fourth photometry value.
前記測光手段は、前記所定期間内に前記被写体領域を検知した回数が所定回数未満であるときに、前記評価測光により前記第4の測光値を算出する
ことを特徴とする請求項に記載の撮像装置。
7. The method according to claim 6 , wherein said photometry means calculates said fourth photometry value by said evaluative photometry when the number of times said subject area is detected within said predetermined period is less than a predetermined number of times. Imaging device.
前記測光手段は、過去に算出された測光値と、前記評価測光により算出された測光値とを重みづけ加算して前記第4の測光値を算出する
ことを特徴とする請求項または請求項に記載の撮像装置。
6. The photometry unit calculates the fourth photometry value by weighted addition of the photometry value calculated in the past and the photometry value calculated by the evaluative photometry. 8. The imaging device according to 7 .
前記測光手段は、撮影モードが連写モードである場合に、過去に算出された測光値との重みづけ加算を行う
ことを特徴とする請求項から請求項のいずれか1項に記載の撮像装置。
9. The method according to any one of claims 1 to 8 , wherein, when the photographing mode is the continuous shooting mode, the photometry means performs weighted addition with previously calculated photometry values. Imaging device.
撮像装置の動きを検出する検出工程と、
撮像された画像に含まれる被写体領域を検知する領域検知工程と、
前記撮像装置の動きと、過去に撮像された画像の間における前記被写体領域の動きから、前記被写体領域の位置を予測する領域予測工程と、
被写体の測光演算を行う測光工程と、を含み、
前記測光工程では、
前記画像から前記被写体領域を検知できたときには、前記領域検知工程により検知された前記被写体領域に基づき第1の測光値を算出し、
前記画像から前記被写体領域を検知できないときには、前記領域予測工程により予測された前記被写体領域に基づき第2の測光値を算出し、過去に算出された前記第1の測光値と前記第2の測光値とを重みづけ加算して第3の測光値を算出する
ことを特徴とする撮像装置の制御方法。
a detection step of detecting motion of the imaging device;
an area detection step of detecting a subject area included in the captured image;
a region prediction step of predicting the position of the subject region from the motion of the imaging device and the motion of the subject region between previously captured images;
a photometry step of performing photometry calculation of the subject,
In the photometry step,
when the subject area can be detected from the image, calculating a first photometric value based on the subject area detected by the area detection step;
When the subject area cannot be detected from the image, a second photometric value is calculated based on the subject area predicted by the area prediction step , and the previously calculated first photometric value and the second photometric value are calculated. A method of controlling an imaging device , wherein a third photometric value is calculated by weighted addition of a value and a value .
JP2019026321A 2019-02-18 2019-02-18 IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE Active JP7254555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019026321A JP7254555B2 (en) 2019-02-18 2019-02-18 IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019026321A JP7254555B2 (en) 2019-02-18 2019-02-18 IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE

Publications (2)

Publication Number Publication Date
JP2020136845A JP2020136845A (en) 2020-08-31
JP7254555B2 true JP7254555B2 (en) 2023-04-10

Family

ID=72263732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019026321A Active JP7254555B2 (en) 2019-02-18 2019-02-18 IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE

Country Status (1)

Country Link
JP (1) JP7254555B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007072907A1 (en) 2005-12-21 2007-06-28 Nec Corporation Gray-scale correcting method, gray-scale correcting device, gray-scale correcting program, and image device
JP2008076786A (en) 2006-09-22 2008-04-03 Sony Corp Imaging apparatus, imaging apparatus control method, and computer program
JP2011233963A (en) 2010-04-23 2011-11-17 Ricoh Co Ltd Imaging apparatus and tracking object detection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007072907A1 (en) 2005-12-21 2007-06-28 Nec Corporation Gray-scale correcting method, gray-scale correcting device, gray-scale correcting program, and image device
JP2008076786A (en) 2006-09-22 2008-04-03 Sony Corp Imaging apparatus, imaging apparatus control method, and computer program
JP2011233963A (en) 2010-04-23 2011-11-17 Ricoh Co Ltd Imaging apparatus and tracking object detection method

Also Published As

Publication number Publication date
JP2020136845A (en) 2020-08-31

Similar Documents

Publication Publication Date Title
US7688353B2 (en) Image-taking apparatus and image-taking method
EP1998558B1 (en) Image pickup apparatus equipped with function of detecting image shaking
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP3823921B2 (en) Imaging device
JP6749791B2 (en) Imaging device and automatic focusing method
US10708503B2 (en) Image capture system, image capturing apparatus, lens unit, control methods therefor, and storage medium
CN110022433A (en) Picture pick-up device, lens apparatus and its control method
CN106470317B (en) Image pickup apparatus and control method thereof
JP2006091915A (en) Imaging apparatus
JP6851854B2 (en) Control method of image processing device, imaging device and image processing device
US9019389B2 (en) Image pickup apparatus that performs exposure calculation for close-up shooting, method of controlling the same, and storage medium
JP2019083364A (en) Image processing device, imaging device, and control method
JP7254555B2 (en) IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE
JP5509622B2 (en) Electronic camera
JP2002214659A (en) Camera with shake correcting function
JP2007306436A (en) Imaging apparatus
JP2007065334A (en) Lens interchangeable camera system
JP2014197141A (en) Imaging apparatus
JP7224839B2 (en) Imaging device and its control method
JP6786288B2 (en) Imaging device, lens device, control method, program, and storage medium
JP2006050139A (en) Optical apparatus
JP7451152B2 (en) Imaging device, control method and computer program
JP6465553B2 (en) Imaging apparatus and control method thereof
JP7229709B2 (en) Imaging device and its control method
JP2018054698A (en) Optical device, imaging apparatus and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230329

R151 Written notification of patent or utility model registration

Ref document number: 7254555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151