JP2016111451A - Imaging control device, imaging device and imaging control program - Google Patents

Imaging control device, imaging device and imaging control program Download PDF

Info

Publication number
JP2016111451A
JP2016111451A JP2014245413A JP2014245413A JP2016111451A JP 2016111451 A JP2016111451 A JP 2016111451A JP 2014245413 A JP2014245413 A JP 2014245413A JP 2014245413 A JP2014245413 A JP 2014245413A JP 2016111451 A JP2016111451 A JP 2016111451A
Authority
JP
Japan
Prior art keywords
imaging
image
shift
subject
panning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014245413A
Other languages
Japanese (ja)
Other versions
JP6415279B2 (en
Inventor
智成 阿部
Tomonari Abe
智成 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014245413A priority Critical patent/JP6415279B2/en
Publication of JP2016111451A publication Critical patent/JP2016111451A/en
Application granted granted Critical
Publication of JP6415279B2 publication Critical patent/JP6415279B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To image a subject at a position that is previously selected by a user in automatic imaging of a moving subject more surely than in the conventional practice.SOLUTION: An imaging control device 103, 106 includes first image acquisition means for acquiring a first image generated by first imaging, second image acquisition means for acquiring information about motion of an imaging device 100, shifting a shift element 101a so as to make an imaging area by the imaging device precede the motion in the direction of the motion to make the imaging device perform second imaging, and acquiring a second image generated by the second imaging, subject image detection means for detecting a second subject image which matches at least a portion of the first subject image included in the first image in the second image, and imaging instruction means for making the imaging device performing imaging for recording in accordance with the detection of the second subject image.SELECTED DRAWING: Figure 1

Description

本発明は、いわゆる流し撮りに対するユーザ補助を行う撮像装置に関する。   The present invention relates to an imaging apparatus that performs user assistance for so-called panning.

移動している被写体のスピード感を表現する撮像技術として流し撮りがある。この流し撮りでは、撮影者、すなわちユーザが被写体の動きに合わせて撮像装置をパンニングすることにより、撮像範囲(撮像画面)内で移動被写体が静止し、背景が流れる(ぶれる)ようにして撮像を行う。   There is panning as an imaging technique that expresses the sense of speed of a moving subject. In the panning, the photographer, that is, the user pans the imaging device in accordance with the movement of the subject, so that the moving subject stops within the imaging range (imaging screen) and the background flows (shakes). Do.

ただし、流し撮りにおいて、ユーザによる撮像装置のパンニング速度が被写体の移動速度に対して差があると、被写体までぶれた撮像画像が得られてしまう。この問題に対して特許文献1には、流し撮りを行うユーザ補助を行うために、シフトレンズを光軸に対してシフトさせることで被写体の移動速度とパンニング速度との差を吸収する方法が開示されている。具体的には、ジャイロセンサにより検出した撮像装置のパンニング速度と周期的に生成される画像(フレーム画像)間において検出した被写体の動きベクトルとに基づいて、被写体を画像の中央に位置させるためのシフトレンズのシフト量を算出する。そして、該シフト量だけシフトレンズをシフトさせることで良好な流し撮りを行えるようにする。   However, in panning, if the panning speed of the imaging device by the user is different from the moving speed of the subject, a captured image that is blurred to the subject is obtained. In order to solve this problem, Patent Document 1 discloses a method of absorbing the difference between the moving speed of the subject and the panning speed by shifting the shift lens with respect to the optical axis in order to assist the user in performing panning. Has been. Specifically, for positioning the subject at the center of the image based on the panning speed of the imaging device detected by the gyro sensor and the motion vector of the subject detected between periodically generated images (frame images). The shift amount of the shift lens is calculated. Then, a good panning can be performed by shifting the shift lens by the shift amount.

ただし、このような流し撮りに対するユーザ補助が行われたとしても、ユーザが静止画撮像のためにシャッターボタンを押下する際に撮像装置のパンニング速度や姿勢が変化する場合があり、この場合も被写体がぶれた撮像画像(静止画)が得られることがある。   However, even if user assistance for such panning is performed, the panning speed and orientation of the imaging device may change when the user presses the shutter button to capture a still image. A blurred captured image (still image) may be obtained.

この問題に対して特許文献2には、撮像範囲の中央領域にて、周辺領域で検出される動きベクトルとは異質の動きベクトルが検出され、該異質の動きベクトル量が所定量より小さければ、流し撮りであり、かつ被写体のぶれがないと判断する方法が開示されている。この方法では、上記判断がなされた場合に、流し撮りにおける静止画の自動撮像を行う。また、特許文献3には、動画撮像中において、被写体がユーザが選択した自動撮像位置に到達することに応じて、該被写体に対する静止画撮像を行う自動的に行う方法が開示されている。   With respect to this problem, in Patent Document 2, if a motion vector different from the motion vector detected in the peripheral region is detected in the central region of the imaging range, and the amount of the different motion vector is smaller than a predetermined amount, A method for determining that the shot is a panning shot and the subject is not shaken is disclosed. In this method, when the above determination is made, a still image is automatically captured in panning. Patent Document 3 discloses a method of automatically performing still image capturing on a subject when the subject reaches an automatic imaging position selected by a user during moving image capturing.

特開2006−317848号公報JP 2006-317848 A 特開2009−130628号公報JP 2009-130628 A 特開2014−107750号公報JP 2014-107750 A

しかしながら、特許文献2にて開示された方法では、被写体の動きベクトル量が所定量より小さいと判断することに応じて自動撮像を行うため、ユーザが希望する位置で静止画撮像が行われない可能性がある。一般に、流し撮りでは通常より長めに露光時間を調整するため、例えば被写体がユーザの正面に移動してきた時点で静止画の自動撮像が行われればよいが、その前に自動撮像が行われてしまうとユーザの正面での静止画を取得することができない。   However, in the method disclosed in Patent Document 2, since automatic imaging is performed in response to determining that the motion vector amount of the subject is smaller than a predetermined amount, still image imaging may not be performed at a position desired by the user. There is sex. In general, in panning, the exposure time is adjusted to be longer than usual. For example, it is only necessary to automatically capture a still image when the subject moves to the front of the user, but automatic imaging is performed before that. The still image in front of the user cannot be acquired.

また、特許文献3にて開示された方法では、理論的にはユーザが希望する(選択した)自動撮像位置に被写体が到達することに応じて静止画の自動撮像が行われる。しかし、パンニング速度が速い場合には、被写体が自動撮像位置に到達してから実際の撮像処理が行われるまでのタイムラグによって、自動撮像位置での静止画が得られない可能性がある。例えば、図13(a)には、ユーザが予め希望する自動撮像位置で固定被写体(木)を静止画撮像することで撮像ポイント画像を取得したことを示している。また、図13(b)には、移動する主被写体(車)の流し撮りにおいて周期的に生成されるフレーム画像と図13(a)に示した撮像ポイント画像とのパターンマッチングを行い、これらが一致することに応じて主被写体の静止画の自動撮像を行うことを示している。しかし、図14(a)に示すように、主被写体の移動速度、つまりはパンニング速度が速いと、自動撮像位置にて撮像処理が開始されても、実際には自動撮像位置からずれた位置で撮像された静止画が取得される可能性がある。また、図14(b)に示すように、自動撮像位置に到達した主被写体が図13(a)に示した固定被写体に重なることで、フレーム画像と撮像ポイント画像とのパターンマッチング自体が良好に行われないおそれもある。   Further, in the method disclosed in Patent Document 3, theoretically, a still image is automatically imaged in response to a subject reaching an automatic imaging position desired (selected) by a user. However, when the panning speed is high, there is a possibility that a still image at the automatic imaging position cannot be obtained due to a time lag from when the subject reaches the automatic imaging position until actual imaging processing is performed. For example, FIG. 13A shows that an imaging point image is acquired by capturing a still image of a fixed subject (tree) at an automatic imaging position desired by the user in advance. FIG. 13B shows a pattern matching between the frame image periodically generated in the panning of the moving main subject (car) and the imaging point image shown in FIG. It shows that automatic imaging of a still image of the main subject is performed in accordance with matching. However, as shown in FIG. 14 (a), when the moving speed of the main subject, that is, the panning speed is high, even if the imaging process is started at the automatic imaging position, it is actually shifted from the automatic imaging position. There is a possibility that a captured still image is acquired. Also, as shown in FIG. 14B, the main subject that has reached the automatic imaging position overlaps the fixed subject shown in FIG. 13A, so that the pattern matching itself between the frame image and the imaging point image is good. There is also a risk that it will not be done.

本発明は、移動する主被写体に対する自動撮像において、ユーザが予め選択した位置での主被写体の撮像を従来に比べて確実に行うことができるようにした撮像制御装置および撮像装置を提供する。   The present invention provides an imaging control apparatus and an imaging apparatus that can more reliably perform imaging of a main subject at a position selected in advance by a user in automatic imaging of a moving main subject.

本発明の一側面としての撮像制御装置は、光軸に対してシフト可能なシフト素子を用いて撮像を行う撮像装置を制御する。該撮像制御装置は、第1の撮像により生成された第1の画像を取得する第1の画像取得手段と、撮像装置の動きに関する情報を取得し、撮像装置による撮像領域が上記動きよりも該動きの方向に先行するようにシフト素子をシフトさせて撮像装置に第2の撮像を行わせ、該第2の撮像により生成された第2の画像を取得する第2の画像取得手段と、第2の画像において、第1の画像に含まれる第1の被写体像のうち少なくとも一部に一致する第2の被写体像を検出する被写体像検出手段と、第2の被写体像が検出されることに応じて、撮像装置に記録用撮像を行わせる撮像指示手段とを有することを特徴とする。   An imaging control apparatus according to one aspect of the present invention controls an imaging apparatus that performs imaging using a shift element that is shiftable with respect to an optical axis. The imaging control device acquires first image acquisition means for acquiring the first image generated by the first imaging, and information relating to the movement of the imaging device, and the imaging region by the imaging device is more Second image acquisition means for shifting the shift element so as to precede the direction of movement, causing the imaging device to perform second imaging, and acquiring a second image generated by the second imaging; In the second image, subject image detection means for detecting a second subject image that matches at least a part of the first subject image included in the first image, and the second subject image are detected. Accordingly, the image pickup apparatus includes an image pickup instruction unit that causes the image pickup apparatus to perform image pickup for recording.

また、本発明の他の一側面としての撮像制御プログラムは、光軸に対してシフト可能なシフト素子を用いて撮像を行う撮像装置を制御するコンピュータに撮像制御処理を実行させるコンピュータプログラムである。撮像制御処理は、第1の撮像により生成された第1の画像を取得する第1の画像取得処理と、撮像装置の動きに関する情報を取得し、撮像装置による撮像領域が上記動きよりも該動きの方向に先行するようにシフト素子をシフトさせて撮像装置に第2の撮像を行わせ、該第2の撮像により生成された第2の画像を取得する第2の画像取得処理と、第2の画像において、第1の画像に含まれる第1の被写体像のうち少なくとも一部に一致する第2の被写体像を検出する被写体像検出処理と、第2の被写体像が検出されることに応じて、撮像装置に記録用撮像を行わせる撮像指示処理とを含むことを特徴とする。   An imaging control program according to another aspect of the present invention is a computer program that causes a computer that controls an imaging apparatus that performs imaging using a shift element that is shiftable with respect to an optical axis to execute an imaging control process. The imaging control process acquires the first image acquisition process for acquiring the first image generated by the first imaging and the information related to the movement of the imaging apparatus, and the imaging area of the imaging apparatus is more responsive than the above movement. A second image acquisition process in which the shift element is shifted so as to precede the direction of the image, causing the imaging apparatus to perform the second imaging, and a second image generated by the second imaging is acquired; And subject image detection processing for detecting a second subject image that matches at least a part of the first subject image included in the first image, and detection of the second subject image. And imaging instruction processing for causing the imaging apparatus to perform recording imaging.

本発明によれば、撮像領域が撮像装置の動きよりもその動きの方向に先行するようにシフト素子をシフトさせて第2の画像を取得するための撮像を行い、該第2の画像における予めユーザにより用意された第1の画像中の被写体像と一致する被写体像の検出を行う。これにより、移動する被写体に対する流し撮り等での自動撮像を、従来に比べて確実にユーザが予め選択した位置で行うことができる。   According to the present invention, imaging for acquiring the second image is performed by shifting the shift element so that the imaging region precedes the movement direction of the imaging device, and the second image is preliminarily obtained. A subject image that matches the subject image in the first image prepared by the user is detected. Thus, automatic imaging such as panning for a moving subject can be reliably performed at a position selected in advance by the user as compared with the related art.

本発明の実施例1である撮像装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of an imaging apparatus that is Embodiment 1 of the present invention. 実施例1における撮像ポイント画像取得処理を示すフローチャート。5 is a flowchart illustrating imaging point image acquisition processing according to the first embodiment. 実施例1における流し撮り自動撮像処理を示すフローチャート。5 is a flowchart illustrating a panning automatic imaging process according to the first embodiment. 実施例1における被写体検出/撮像処理を示すフローチャート。3 is a flowchart illustrating subject detection / imaging processing in Embodiment 1. 実施例1における流し撮りアシスト処理を示すフローチャート。5 is a flowchart showing a panning assist process in Embodiment 1. 本発明の実施例2における流し撮り自動撮像処理を示すフローチャート。9 is a flowchart showing a panning automatic imaging process in Embodiment 2 of the present invention. 本発明の実施例3における流し撮り自動撮像処理を示すフローチャート。10 is a flowchart showing a panning automatic imaging process in Embodiment 3 of the present invention. 本発明の実施例4における静止画撮像処理を示すフローチャート。10 is a flowchart showing still image capturing processing in Embodiment 4 of the present invention. 各実施例においてシフトレンズが中心に位置するときに取得される画像と、シフトレンズがパンニング方向にシフトしたときに取得される画像とを示す図。FIG. 5 is a diagram illustrating an image acquired when the shift lens is positioned at the center and an image acquired when the shift lens is shifted in the panning direction in each embodiment. 実施例においてユーザがパンニング速度を低下させた場合の処理を説明する図。The figure explaining the process when a user reduces panning speed in an Example. 実施例2における流し撮り自動撮像を示す図。FIG. 10 is a diagram illustrating automatic panning imaging in the second embodiment. 実施例2におけるシフトレンズの移動タイミングを示す図。FIG. 6 is a diagram illustrating the movement timing of the shift lens in the second embodiment. ユーザが希望する位置で自動撮像を行う従来の方法を説明する図。The figure explaining the conventional method of performing automatic imaging in the position which a user desires. パンニング速度が速すぎる場合に生じる現象を説明する図。The figure explaining the phenomenon which arises when panning speed is too high.

以下、本発明の実施例について図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1には、本発明の実施例1である撮像装置100の構成を示す。撮像装置100は、デジタルスチルカメラやデジタルビデオカメラのように典型的なカメラのみならず、カメラ機能付き携帯電話やカメラ付きコンピュータ等、カメラ機能を備えた電子機器であってもよい。また、典型的なカメラとしての撮像装置100は、後述する撮像光学系101を一体(取り外し不可)に有するレンズ一体型カメラであってもよいし、撮像光学系101を交換レンズ装置の着脱が可能なレンズ交換型カメラであってもよい。   FIG. 1 shows the configuration of an imaging apparatus 100 that is Embodiment 1 of the present invention. The imaging apparatus 100 may be not only a typical camera such as a digital still camera and a digital video camera, but also an electronic device having a camera function such as a mobile phone with a camera function or a computer with a camera. Further, the imaging apparatus 100 as a typical camera may be a lens-integrated camera having an imaging optical system 101 to be described later (not removable), and the imaging optical system 101 can be attached and detached. An interchangeable lens camera may be used.

撮像光学系101は、複数のレンズ、シャッタおよび絞りを含み、不図示の被写体からの光に被写体像を形成させる。AXは撮像光学系101の光軸である。撮像光学系101におけるフォーカスレンズやズームレンズ(いずれも図示せず)の光軸方向への移動、シフトレンズ101aの光軸AXに対するシフトおよびシャッタや絞り(いずれも図示せず)の動作は、CPU103によって制御される。シフト素子としてのシフトレンズ(光学素子)101aは、不図示のシフトアクチュエータによって光軸AXに直交する方向にシフト(移動)されることで、撮像光学系101が取り込む被写体側の領域、つまりは撮像装置100による撮像領域をシフトさせる。   The imaging optical system 101 includes a plurality of lenses, a shutter, and a diaphragm, and forms a subject image on light from a subject (not shown). AX is the optical axis of the imaging optical system 101. The movement of the focus lens and zoom lens (both not shown) in the imaging optical system 101 in the optical axis direction, the shift of the shift lens 101a with respect to the optical axis AX, and the operation of the shutter and the diaphragm (none shown) are performed by the CPU 103. Controlled by. A shift lens (optical element) 101a as a shift element is shifted (moved) in a direction orthogonal to the optical axis AX by a shift actuator (not shown), so that an object-side region captured by the imaging optical system 101, that is, imaging. The imaging area by the apparatus 100 is shifted.

撮像素子102は、CCDセンサやCMOSセンサ等の光電変換素子により構成され、撮像光学系101により形成された被写体像を光電変換して電気信号(以下、撮像信号という)を出力する。   The imaging element 102 is configured by a photoelectric conversion element such as a CCD sensor or a CMOS sensor, and photoelectrically converts the subject image formed by the imaging optical system 101 and outputs an electrical signal (hereinafter referred to as an imaging signal).

画像処理部106は、撮像素子102からCPU103を通じて受け取った撮像信号に対して各種画像処理を行うことで画像データを生成し、生成した画像データをCPU103および一次記憶部104に出力する。また、画像処理部106は、被写体像検出手段として、2つの画像(データ)におけるパターンマッチングを用いた被写体検出処理(これについては後述する)も行う。   The image processing unit 106 performs various image processing on the imaging signal received from the imaging element 102 through the CPU 103 to generate image data, and outputs the generated image data to the CPU 103 and the primary storage unit 104. The image processing unit 106 also performs subject detection processing (which will be described later) using pattern matching in two images (data) as subject image detection means.

角速度センサ105はジャイロセンサにより構成され、撮像装置100の移動の角速度を検出して、該角速度に対応する電気信号(以下、角速度信号という)をCPU103に出力する。本実施例では、角速度センサ105により、ユーザによる撮像装置100のパンニングの動きを検出し、その動きに関する情報として角速度信号をCPU103が受け取る。なお、パンニングは狭義には水平方向の動き(回転)を意味するが、広義のパンニングとして垂直方向の動き(回転)であるチルティングを含めてもよい。   The angular velocity sensor 105 is constituted by a gyro sensor, detects an angular velocity of movement of the imaging device 100, and outputs an electrical signal corresponding to the angular velocity (hereinafter referred to as an angular velocity signal) to the CPU 103. In this embodiment, the angular velocity sensor 105 detects a panning movement of the imaging apparatus 100 by the user, and the CPU 103 receives an angular velocity signal as information regarding the movement. Panning means horizontal movement (rotation) in a narrow sense, but tilting that is vertical movement (rotation) may be included as panning in a broad sense.

コンピュータとしてのCPU103は、入力された各種信号に基づいて、後述するコンピュータプログラムに従い、撮像装置100を構成する各部を制御して撮像装置100の各機能を実現させる。なお、上述した画像処理部106で行われる処理の少なくとも一部をCPU103が行ってもよい。画像処理部106とCPU103とにより撮像制御装置が構成される。画像処理部106とCPU103は、ユーザが移動する主被写体(移動被写体)を撮像装置100をパンニングしながら流し撮りする場合のユーザ補助として、流し撮り自動撮像処理を行う。流し撮り自動撮像処理は、流し撮りに際して主被写体が予めユーザが選択した位置(撮像ポイント)に到達したときに該主被写体を自動的に撮像する撮像制御処理である。CPU103は、第1の画像取得手段、第2の画像取得手段および撮像指示手段として機能する。   The CPU 103 as a computer controls each part of the imaging apparatus 100 based on various input signals and realizes each function of the imaging apparatus 100 according to a computer program described later. Note that the CPU 103 may perform at least a part of the processing performed by the image processing unit 106 described above. The image processing unit 106 and the CPU 103 constitute an imaging control device. The image processing unit 106 and the CPU 103 perform a panning automatic imaging process as user assistance when panning the main subject (moving subject) that the user moves while panning the imaging apparatus 100. The panning automatic imaging process is an imaging control process for automatically imaging the main subject when the main subject reaches a position (imaging point) selected in advance by the user during the panning. The CPU 103 functions as a first image acquisition unit, a second image acquisition unit, and an imaging instruction unit.

一次記憶部104は、RAM等の揮発性メモリにより構成され、一時的に情報や撮像により生成された画像データを記憶(保持)したり、CPU103の作業領域として用いられたりする。一次記憶部104に保持された情報やデータは、画像処理部106での画像処理に利用されたり、記録媒体107に記録されたりする。二次記憶部108は、EEPROM等の不揮発性メモリにより構成され、撮像装置100を制御するための前述したコンピュータプログラム(ファームウェアおよび撮像制御プログラム等)や、CPU103によって利用される各種設定情報を記憶している。   The primary storage unit 104 is configured by a volatile memory such as a RAM, and temporarily stores (holds) information and image data generated by imaging, or is used as a work area of the CPU 103. Information and data held in the primary storage unit 104 are used for image processing in the image processing unit 106 or recorded on the recording medium 107. The secondary storage unit 108 includes a nonvolatile memory such as an EEPROM, and stores the above-described computer program (firmware, imaging control program, etc.) for controlling the imaging apparatus 100 and various setting information used by the CPU 103. ing.

記録媒体107は、撮像により生成されて一次記憶部104に一時的に記憶された画像データ等を記録する。記録媒体107は、半導体メモリや光ディスク等、撮像装置100に対して着脱が可能な媒体である。撮像装置100から取り外された記録媒体107をパーソナルコンピュータやプリンタ等の外部装置に装着することで、該記録媒体107に記録された画像データ等を外部装置にて表示したり出力(印刷)したりすることができる。   The recording medium 107 records image data and the like generated by imaging and temporarily stored in the primary storage unit 104. The recording medium 107 is a medium that can be attached to and detached from the imaging apparatus 100, such as a semiconductor memory or an optical disk. By attaching the recording medium 107 removed from the imaging apparatus 100 to an external apparatus such as a personal computer or a printer, the image data recorded on the recording medium 107 is displayed or output (printed) on the external apparatus. can do.

表示部109は、撮像装置100において記録用撮像が行われる前にライブビュー画像(動画)を表示したり、記録用撮像により生成された記録用画像(静止画または動画)を表示したり、GUI画像を表示したりする。また、表示部109は、タッチ操作が可能なタッチパネルである。操作部110は、ユーザの操作を受け付けてCPU103に操作情報を出力する各種入力デバイスを含む。入力デバイスは、ボタン、レバー、タッチパネル等の接触型入力デバイスや、音声や視線を用いた非接触型入力デバイスを含む。
(被写体検出処理とシフトレンズとの関係)
次に、本実施例の撮像装置100が行う流し撮り自動撮像処理にて画像処理部106が行う被写体検出処理とシフトレンズ101aとの関係の概要を、図9を用いて説明する。被写体検出処理では、予め特定被写体の撮像(第1の撮像)により取得された撮像ポイント画像(第1の画像)が用意される。この撮像ポイント画像と、主被写体の流し撮り中(後述するレンズシフト状態)での撮像(第2の撮像)により生成される被写体検出画像(第2の画像)との間でパターンマッチングが行われる。そして、該パターンマッチングにより、被写体検出画像において、撮像ポイント画像に含まれる特定被写体の画像データ(第1の被写体像)の少なくとも一部に一致する被写体画像データ(第2の被写体像)を検出する。
The display unit 109 displays a live view image (moving image) before the image capturing for recording is performed in the image capturing apparatus 100, displays a recording image (still image or moving image) generated by the image capturing for recording, or displays a GUI. Or display an image. The display unit 109 is a touch panel that can be touched. The operation unit 110 includes various input devices that accept user operations and output operation information to the CPU 103. The input devices include contact type input devices such as buttons, levers, and touch panels, and non-contact type input devices using sound and line of sight.
(Relationship between subject detection processing and shift lens)
Next, an outline of the relationship between the subject detection process performed by the image processing unit 106 and the shift lens 101a in the panning automatic imaging process performed by the imaging apparatus 100 of the present embodiment will be described with reference to FIG. In the subject detection process, an imaging point image (first image) acquired in advance by imaging a specific subject (first imaging) is prepared. Pattern matching is performed between this imaging point image and a subject detection image (second image) generated by imaging (second imaging) during panning of the main subject (lens shift state described later). . Then, subject image data (second subject image) that matches at least part of the image data (first subject image) of the specific subject included in the imaging point image is detected in the subject detection image by the pattern matching. .

なお、撮像ポイント画像を生成するための撮像(第1の撮像)は、後述するように本実施例の撮像装置100で行ってもよいが、他の撮像装置により行ってもよい。後者の場合は、該他の撮像装置による撮像により生成された撮像ポイント画像を、本実施例の撮像装置100に記録媒体107や通信を通じて取り込めばよい。   Note that the imaging (first imaging) for generating the imaging point image may be performed by the imaging apparatus 100 of the present embodiment as described later, but may be performed by another imaging apparatus. In the latter case, an imaging point image generated by imaging by the other imaging device may be taken into the imaging device 100 of the present embodiment through the recording medium 107 or communication.

図9(a)には、シフトレンズ101aがその可動範囲の中心(シフトレンズ101aの中心が光軸AXに一致する位置)である非シフト位置にある非レンズシフト状態で流し撮り自動撮像処理を開始する様子を示している。一方、図9(b)には、シフトレンズ101aが撮像装置100のパンニング方向と同じ方向にシフトしたシフト位置にあるレンズシフト状態で流し撮り自動撮像処理を行っている様子を示している。なお、これらの図においてシフトレンズ101aとして示した円は、該シフトレンズ101aの位置を模式的に示しているにすぎず、その円が実際のシフトレンズの大きさを示しているわけではない。このことは、同様の円によってシフトレンズ101aを示す他の図でも同じである。   In FIG. 9 (a), the panning automatic imaging process is performed in a non-lens shift state where the shift lens 101a is in a non-shift position where the shift lens 101a is in the center of the movable range (a position where the center of the shift lens 101a coincides with the optical axis AX). It shows how it starts. On the other hand, FIG. 9B shows a state where the shift lens 101a performs the panning automatic imaging process in a lens shift state at a shift position shifted in the same direction as the panning direction of the imaging apparatus 100. Note that the circle shown as the shift lens 101a in these drawings only schematically shows the position of the shift lens 101a, and the circle does not show the actual size of the shift lens. This is the same in other drawings in which the shift lens 101a is indicated by a similar circle.

レンズシフト状態での撮像装置100による撮像領域は、非レンズシフト状態にて撮像装置100(撮像光学系101)の向きに対応する撮像領域よりもシフトレンズ101aのシフト方向にシフトする。このため、撮像装置100のパンニング中に非レンズシフト状態からレンズシフト状態とすることで、撮像領域がパンニングの動きよりもパンニング方向に先行する。つまり、レンズシフト状態での撮像により得られる画像は、非レンズシフト状態での撮像により得られる画像に比べて、パンニング方向先方に存在する被写体の像を含む。したがって、被写体検出画像として、レンズシフト状態での撮像により得られる画像を用いる場合の方が、非レンズシフト状態での撮像により得られる画像を用いる場合に比べて、より早く撮像ポイント画像との間でのパターンマッチングを開始することができる。   The imaging region by the imaging device 100 in the lens shift state is shifted in the shift direction of the shift lens 101a from the imaging region corresponding to the orientation of the imaging device 100 (imaging optical system 101) in the non-lens shift state. For this reason, when the imaging apparatus 100 is panned, the imaging region precedes the panning movement by moving from the non-lens shift state to the lens shift state. That is, an image obtained by imaging in the lens shift state includes an image of a subject existing ahead in the panning direction as compared with an image obtained by imaging in the non-lens shift state. Therefore, when the image obtained by imaging in the lens shift state is used as the subject detection image, the distance between the imaging point images is faster than when the image obtained by imaging in the non-lens shift state is used. Pattern matching can be started.

なお、シフトレンズ101aを手振れによる像振れを補正するための防振レンズとしても用いる場合は、非シフト位置は、シフトレンズ101aの可動範囲の中心に限らず、像振れ補正のために該中心からシフトした位置であってもよい。シフトレンズ101aを防振レンズとして用いる場合は、角速度センサ105からの手振れに応じた角速度信号に基づいてシフトレンズ101aが像振れを抑制する方向にシフトされるが、そのシフト量は流し撮り自動撮像処理でのシフト量に比べて小さい。
(撮像ポイント画像取得処理)
次に、本実施例における撮像ポイント画像の取得処理について、図2のフローチャートを用いて説明する。ここでは、GUI画像を表示した表示部109に対するタッチ操作により生成された撮像ポイント画像の取得を指示する信号をCPU103が受信したものとして説明する。この撮像ポイント画像取得処理と、上記被写体検出処理およびその他の処理を含む流し撮り自動撮像処理は、CPU103および画像処理部106が撮像制御プログラムに従って実行する。このことは、本実施例だけでなく、他の実施例でも同じである。
When the shift lens 101a is also used as an anti-vibration lens for correcting image blur due to camera shake, the non-shift position is not limited to the center of the movable range of the shift lens 101a. It may be a shifted position. When the shift lens 101a is used as an anti-vibration lens, the shift lens 101a is shifted in a direction to suppress image blur based on an angular velocity signal corresponding to camera shake from the angular velocity sensor 105. Smaller than the shift amount in processing.
(Imaging point image acquisition processing)
Next, imaging point image acquisition processing in the present embodiment will be described with reference to the flowchart of FIG. Here, it is assumed that the CPU 103 has received a signal instructing acquisition of an imaging point image generated by a touch operation on the display unit 109 displaying a GUI image. The CPU 103 and the image processing unit 106 execute the panning automatic image capturing process including the image capturing point image acquisition process and the subject detection process and other processes according to the image capturing control program. This is the same not only in this embodiment but also in other embodiments.

ステップS201では、CPU103は、動画であるライブビュー画像を生成するための撮像を開始する。具体的には、CPU103は、撮像光学系101を制御して撮像素子102に光電変換動作を行わせ、撮像素子102からの撮像信号に対して画像処理部106に所定の画像処理を行わせてライブビュー画像を構成するフレーム画像を所定周期で順次生成させる。これらフレーム画像は一次記憶部104に順次保持される。   In step S201, the CPU 103 starts imaging for generating a live view image that is a moving image. Specifically, the CPU 103 controls the imaging optical system 101 to cause the imaging element 102 to perform a photoelectric conversion operation, and causes the image processing unit 106 to perform predetermined image processing on the imaging signal from the imaging element 102. Frame images constituting the live view image are sequentially generated at a predetermined cycle. These frame images are sequentially held in the primary storage unit 104.

次に、ステップS202では、CPU103は、一次記憶部104にて保持されたフレーム画像を順次取得する。   Next, in step S <b> 202, the CPU 103 sequentially acquires frame images held in the primary storage unit 104.

そして、ステップS203では、CPU103は、ステップS202で順次取得したフレーム画像を表示部109に順次表示する。これにより、表示部109にライブビュー画像が表示される。   In step S203, the CPU 103 sequentially displays the frame images sequentially acquired in step S202 on the display unit 109. As a result, the live view image is displayed on the display unit 109.

次に、ステップS204では、CPU103は、操作部110に設けられたシャッターボタンが全押し操作(SW2ON)されたか否かを判定する。シャッターボタンは半押し操作(SW1ON)と全押し操作とが可能であり、半押し操作に応じて測光やオートフォーカス等の撮像準備処理が開始され、全押し操作に応じて記録用撮像が行われる。シャッターボタンが全押し操作された場合はステップS205に進み、そうではない場合はステップS202に戻る。   Next, in step S204, the CPU 103 determines whether or not the shutter button provided in the operation unit 110 has been fully pressed (SW2 ON). The shutter button can be pressed halfway (SW1 ON) and fully pressed, imaging preparation processing such as photometry and autofocus is started in response to the half-pressing operation, and recording imaging is performed in response to the fully-pressing operation. . If the shutter button has been fully pressed, the process proceeds to step S205, and if not, the process returns to step S202.

ステップS205では、CPU103は、ステップS202で取得したフレーム画像のうちシャッターボタンの全押し操作のタイミングで生成されたフレーム画像を撮像ポイント画像として二次記憶部108に記憶する。   In step S205, the CPU 103 stores, in the secondary storage unit 108, a frame image generated at the timing of the full pressing operation of the shutter button among the frame images acquired in step S202 as an imaging point image.

そして、ステップS206では、CPU103は、ライブビュー画像を生成するための撮像を終了する。
(流し撮り自動撮像処理1)
次に、本実施例の撮像装置100で行われる流し撮り自動撮像処理1について、図3のフローチャートを用いて説明する。ここでは、GUI画像を表示した表示部109に対するユーザのタッチ操作により生成された流し撮り自動撮像処理の開始指示信号がCPU103に入力され、ライブビュー画像用の撮像とライブビュー画像の表示部109での表示が開始された後の処理を説明する。また、上記タッチ操作の直後からユーザが流し撮りを開始したものとして説明する。
In step S206, the CPU 103 ends imaging for generating a live view image.
(Panning automatic imaging process 1)
Next, the panning automatic imaging process 1 performed by the imaging apparatus 100 of the present embodiment will be described with reference to the flowchart of FIG. Here, a start instruction signal for a panning automatic imaging process generated by a user's touch operation on the display unit 109 displaying the GUI image is input to the CPU 103, and the live-view image imaging and the live-view image display unit 109 The process after the display of is started will be described. In addition, it is assumed that the user has started panning immediately after the touch operation.

ステップS301では、CPU103は、角速度センサ105から出力される角速度信号(動きに関する情報)を取得する。   In step S <b> 301, the CPU 103 acquires an angular velocity signal (information regarding motion) output from the angular velocity sensor 105.

次に、ステップS302では、CPU103は、ステップS301で取得した角速度信号から撮像装置100のパンニング方向を求める。そして、シフトアクチュエータを制御して、シフトレンズ101aを非シフト位置からパンニング方向におけるシフト位置にシフトさせる。   Next, in step S302, the CPU 103 obtains the panning direction of the imaging apparatus 100 from the angular velocity signal acquired in step S301. Then, the shift actuator 101 is controlled to shift the shift lens 101a from the non-shift position to the shift position in the panning direction.

ステップS303では、CPU103は、撮像により生成されて一次記憶部104に保持されたフレーム画像を取得する。   In step S <b> 303, the CPU 103 obtains a frame image generated by imaging and held in the primary storage unit 104.

そして、ステップS304では、CPU103は、ステップS303で取得したフレーム画像を表示部109に表示する。このように、本実施例では、レンズシフト状態での撮像により生成されるフレーム画像をライブビュー画像として表示する。また、後述するように、同じフレーム画像を、被写体検出画像として用いる。   In step S304, the CPU 103 displays the frame image acquired in step S303 on the display unit 109. As described above, in this embodiment, the frame image generated by the imaging in the lens shift state is displayed as the live view image. Further, as will be described later, the same frame image is used as the subject detection image.

次に、ステップS305では、CPU103は、二次記憶部108に記憶されている撮像ポイント画像を読み出して画像出力部106に出力するとともに、ステップS303で取得したフレーム画像を被写体検出画像として画像処理部106に出力する。画像処理部106はこれら撮像ポイント画像と被写体検出画像との間でのパターンマッチングを行う被写体検出処理を行い、さらにCPU103は該被写体検出処理の結果に応じて、撮像処理としての流し撮りアシスト処理を行う。被写体検出処理(パターンマッチング)および撮像処理(流し撮りアシスト処理)の詳細については後述する。   Next, in step S305, the CPU 103 reads out the imaging point image stored in the secondary storage unit 108 and outputs it to the image output unit 106, and also uses the frame image acquired in step S303 as the subject detection image as an image processing unit. It outputs to 106. The image processing unit 106 performs a subject detection process for performing pattern matching between the imaging point image and the subject detection image, and the CPU 103 performs a panning assist process as an imaging process according to the result of the subject detection process. Do. Details of subject detection processing (pattern matching) and imaging processing (panning assist processing) will be described later.

被写体検出処理および撮像処理が終了すると、ステップS306では、CPU103は、被写体検出処理(パターンマッチング)および撮像処理(流し撮りアシスト処理)が成功して流し撮り自動撮像が完了したか否かを判定する。終了した場合は本処理を終了し、そうでなければステップS301に戻る。
(被写体検出処理)
次に、ステップS304で行われる被写体検出処理について、図4のフローチャートを用いてより詳しく説明する。
When the subject detection process and the imaging process are completed, in step S306, the CPU 103 determines whether the subject detection process (pattern matching) and the imaging process (the panning assist process) are successful and the panning automatic imaging is completed. . If completed, the present process is terminated, and if not, the process returns to step S301.
(Subject detection process)
Next, the subject detection process performed in step S304 will be described in more detail using the flowchart of FIG.

ステップS401では、画像処理部106は、ステップS303で取得した撮像ポイント画像と被写体検出画像との間でのパターンマッチングを行う。パターンマッチングの手法としては、相互相関関数を用いて類似性を確認する手法や、SSD(Sum of Squared Difference)およびSAD(Sum of Absolute Difference)のように対応位置の画素の輝度値の差から類似性を確認する方法等、様々な方法を用いてよい。   In step S401, the image processing unit 106 performs pattern matching between the imaging point image acquired in step S303 and the subject detection image. Pattern matching methods include a method of confirming similarity using a cross-correlation function, and similarity based on the difference in luminance values of pixels at corresponding positions such as SSD (Sum of Squared Difference) and SAD (Sum of Absolute Difference). Various methods such as a method for confirming sex may be used.

次に、ステップS402では、CPU103は、ステップS401で行われたパターンマッチングにより、被写体検出画像において、撮像ポイント画像に含まれる特定被写体の画像データの全部に一致する被写体画像データを検出したか否かを判定する。そうである場合はステップS403に進み、そうでなければ本処理を終了する(ステップS306にスキップする)。なお、このステップにおいて、被写体検出画像において、撮像ポイント画像に含まれる特定被写体の画像データの一部に一致する被写体画像データを検出したか否かを判定してもよい。   Next, in step S402, whether or not the CPU 103 has detected subject image data that matches all of the image data of the specific subject included in the imaging point image in the subject detection image by the pattern matching performed in step S401. Determine. If so, the process proceeds to step S403, and if not, this process ends (skip to step S306). In this step, it may be determined whether or not subject image data matching a part of the image data of the specific subject included in the imaging point image is detected in the subject detection image.

ステップS403では、CPU103は、シフトアクチュエータを制御して、シフトレンズ101aを非シフト位置(中心)に復帰させる。   In step S403, the CPU 103 controls the shift actuator to return the shift lens 101a to the non-shift position (center).

そして、ステップS404では、CPU103は、撮像処理として、以下に説明する流し撮りアシスト処理を行う。
(流し撮りアシスト処理)
次に、ステップS404で行われる撮像処理としての流し撮りアシスト処理について、図5のフローチャートを用いて詳述する。この流し撮りアシスト処理では、撮像装置100とともに動く撮像領域と、記録用撮像の対象である主被写体(移動被写体)との相対変位を減少させるようにシフトレンズ101aのシフト方向での位置、つまりは撮像領域の位置を制御して記録用撮像を行う。
In step S404, the CPU 103 performs a panning assist process described below as the imaging process.
(Panning assist process)
Next, the panning assist process as the imaging process performed in step S404 will be described in detail with reference to the flowchart of FIG. In the panning assist process, the position of the shift lens 101a in the shift direction so as to reduce the relative displacement between the imaging area that moves together with the imaging apparatus 100 and the main subject (moving subject) that is the target of recording imaging, that is, Recording is performed by controlling the position of the imaging region.

ステップS501では、CPU103は、非レンズシフト状態にてライブビュー画像用に生成されるフレーム画像から、ユーザが撮像装置100をパンニングさせて追っている主被写体(主被写体像)を抽出する。主被写体の抽出方法としては、特許文献1にて開示されているように、順次生成されるフレーム画像間で得られる動きベクトルを用いる方法がある。具体的には、ユーザが移動する主被写体を追って撮像装置100をパンニングすると、主被写体が存在するエリアでは該主被写体の移動と撮像装置100のパンニングとのずれに相当する動きベクトルが検出される。この動きベクトルは、主被写体の周囲で流れる背景の動きベクトルに対して小さいベクトルである。このことから、移動する主被写体を検出(抽出)することができる。なお、他の方法を用いて主被写体を抽出してもよい。   In step S501, the CPU 103 extracts a main subject (main subject image) that the user is following by panning the imaging device 100 from a frame image generated for a live view image in a non-lens shift state. As a method for extracting a main subject, there is a method using a motion vector obtained between sequentially generated frame images as disclosed in Patent Document 1. Specifically, when the imaging device 100 is panned following the main subject that the user moves, a motion vector corresponding to a shift between the movement of the main subject and the panning of the imaging device 100 is detected in an area where the main subject exists. . This motion vector is a small vector with respect to the background motion vector flowing around the main subject. From this, the moving main subject can be detected (extracted). The main subject may be extracted using other methods.

次に、ステップS502では、CPU103は、角速度センサ105から撮像装置100のパンニング速度を示す角速度信号を取得する。   Next, in step S <b> 502, the CPU 103 acquires an angular velocity signal indicating the panning speed of the imaging apparatus 100 from the angular velocity sensor 105.

そして、ステップS503では、CPU103は、ステップS502で取得した角速度信号とステップS501で用いた主被写体が存在するエリアで得られた動きベクトルとを用いて、主被写体の移動速度(角速度)を算出する。ここでは、主被写体の移動速度が得られれば、他の方法を用いてもよい。   In step S503, the CPU 103 calculates the moving speed (angular speed) of the main subject using the angular velocity signal acquired in step S502 and the motion vector obtained in the area where the main subject used in step S501 exists. . Here, other methods may be used as long as the moving speed of the main subject can be obtained.

ステップS504では、CPU103は、ステップS503で取得した主被写体の移動速度(角速度)をシフトレンズ101aの目標シフト量(または目標シフト位置)に変換する。   In step S504, the CPU 103 converts the moving speed (angular speed) of the main subject acquired in step S503 into a target shift amount (or target shift position) of the shift lens 101a.

次に、ステップS505では、CPU103は、シフトレンズ101aをステップS504で求めた目標シフト量(または目標シフト位置)に向かってシフトさせながらシャッタを開き、所定の露光時間が経過することに応じてシャッタを閉じる。このシャッタの開から閉までの間、CPU103は、記録用撮像のために撮像素子102に光電変換を行わせ、この光電変換により撮像素子102にて生成された撮像信号を一次記憶部104に保持させる。   Next, in step S505, the CPU 103 opens the shutter while shifting the shift lens 101a toward the target shift amount (or target shift position) obtained in step S504, and the shutter is opened in accordance with the elapse of a predetermined exposure time. Close. Between the opening and closing of the shutter, the CPU 103 causes the imaging device 102 to perform photoelectric conversion for recording imaging, and holds the imaging signal generated by the imaging device 102 by the photoelectric conversion in the primary storage unit 104. Let

そして、ステップS506では、CPU103は、画像処理装置106に一次記憶部104に保持された撮像信号から静止画データ(記録用画像)を生成させ、該静止画データを記録媒体107に静止画ファイルとして記録する。そして、本処理を終了する。   In step S506, the CPU 103 causes the image processing apparatus 106 to generate still image data (recording image) from the imaging signal held in the primary storage unit 104, and the still image data is stored in the recording medium 107 as a still image file. Record. Then, this process ends.

このように、本実施例では、移動する主被写体に対する流し撮り自動撮像処理において、撮像装置100による撮像領域が撮像装置100のパンニングよりも該パンニングの方向に先行するようにシフトレンズ101aをシフトさせて被写体検出画像を取得する。これにより、このようなシフトレンズ101aのシフトを行わない場合(従来)に比べて、早いタイミングで撮像ポイント画像と被写体検出画像間での被写体検出処理(パターンマッチング)を行うことができる。したがって、従来に比べてより確実に撮像ポイントでの自動撮像(記録用撮像)を行うことができる。   As described above, in this embodiment, in the panning automatic imaging process for the moving main subject, the shift lens 101a is shifted so that the imaging area of the imaging apparatus 100 precedes the panning direction of the imaging apparatus 100. To obtain a subject detection image. Thereby, the subject detection process (pattern matching) between the imaging point image and the subject detection image can be performed at an earlier timing than in the case where such shift lens 101a is not shifted (conventional). Therefore, it is possible to perform automatic imaging (imaging for recording) at an imaging point more reliably than in the past.

実施例1ではレンズシフト状態での撮像により生成されるフレーム画像もライブビュー画像として表示部109に表示する場合について説明した。しかし、このライブビュー画像を見たユーザが、主被写体が画面の中央付近に移動するようにパンニング速度を落とすおそれがある。これにより、ライブビュー画像を通じてスムーズに主被写体を追えなくなったりレンズシフト状態から非レンズシフト状態に復帰した際に主被写体を見失ったりする可能性がある。このことについて、図10を用いて説明する。   In the first embodiment, the case where the frame image generated by the imaging in the lens shift state is also displayed on the display unit 109 as the live view image has been described. However, the user who views this live view image may reduce the panning speed so that the main subject moves near the center of the screen. As a result, there is a possibility that the main subject cannot be smoothly tracked through the live view image, or the main subject may be lost when the lens shift state returns to the non-lens shift state. This will be described with reference to FIG.

図10(a)には、流し撮り(パンニング)の開始前の非レンズシフト状態で表示部109に表示されるライブビュー画像1001を示している。ライブビュー画像1001中には、その中央付近に主被写体(車)が存在する。   FIG. 10A shows a live view image 1001 displayed on the display unit 109 in a non-lens shift state before the start of panning (panning). In the live view image 1001, a main subject (car) exists near the center.

図10(b)には、流し撮り中におけるパターンマッチングを早く行うためのレンズシフト状態でのライブビュー画像1003を示している。ライブビュー画像1003中には、撮像ポイント1002に位置する特定被写体(木)の一部が写り込んでいる一方、主被写体は画像中心から右側(パンニング方向とは反対側)にずれた位置に存在する。このようなライブビュー画像1003を見たユーザは、レンズシフト状態であるにもかかわらず、図10(c)に示すようにライブビュー画像1004の中央付近に主被写体が移動するように、意図的にパンニング速度を落とす。この結果、上述したような不都合が生じる。   FIG. 10B shows a live view image 1003 in a lens shift state for quickly performing pattern matching during panning. In the live view image 1003, a part of the specific subject (tree) located at the imaging point 1002 is reflected, while the main subject exists at a position shifted to the right side (opposite to the panning direction) from the image center. To do. A user who views such a live view image 1003 intentionally moves the main subject to the vicinity of the center of the live view image 1004 as shown in FIG. Reduce the panning speed. As a result, the inconvenience as described above occurs.

このため、本実施例では、レンズシフト状態での撮像(第2の撮像)により取得されるフレーム画像(第2の画像)は表示部109にライブビュー画像として表示せず、パターンマッチングのための被写体検出画像としてのみ用いる。一方、パターンマッチングが行われている間も、非レンズシフト状態での撮像(第3の撮像)により取得されるフレーム画像(第3の画像)をライブビュー画像として表示することができるようにする。本実施例では、CPU103は出力制御手段として機能する。また、表示部109での表示を、外部モニタ等の表示装置への出力に代えてもよい。   For this reason, in this embodiment, the frame image (second image) acquired by imaging in the lens shift state (second imaging) is not displayed as a live view image on the display unit 109, but for pattern matching. Used only as a subject detection image. On the other hand, the frame image (third image) acquired by imaging in the non-lens shift state (third imaging) can be displayed as a live view image even during pattern matching. . In this embodiment, the CPU 103 functions as an output control unit. Further, the display on the display unit 109 may be replaced with an output to a display device such as an external monitor.

なお、本実施例における撮像装置100の構成および撮像ポイント画像の取得処理については、実施例1(図1および図2)と同じであるため、その説明を省略する。
(ライブビュー画像表示の概要)
まず、本実施例における流し撮り自動撮像処理中におけるライブビュー画像の表示の概要を、図11および図12を用いて説明する。
Note that the configuration of the imaging device 100 and the acquisition process of the imaging point image in the present embodiment are the same as those in the first embodiment (FIGS. 1 and 2), and thus description thereof is omitted.
(Overview of live view image display)
First, an outline of the display of the live view image during the panning automatic imaging process in the present embodiment will be described with reference to FIGS. 11 and 12.

図11(a),(c)には、非レンズシフト状態での撮像により取得されたフレーム画像が表示部109にライブビュー画像として表示される様子を示している。また、図11(b),(d)には、レンズシフト状態での撮像により取得されたフレーム画像(被写体検出画像)が表示部109にライブビュー画像として表示されない様子を示している。流し撮り自動撮像処理中に図11(a)〜(d)に示す状態を交互に繰り返すことで、被写体検出画像を用いたパターンマッチングを行っている間も非レンズシフト状態での撮像により得られるライブビュー画像を表示部109に表示することができる。これにより、レンズシフト状態での撮像により取得されたフレーム画像がライブビュー画像として表示されることによる不都合を解消することができる。   FIGS. 11A and 11C show how a frame image acquired by imaging in a non-lens shift state is displayed on the display unit 109 as a live view image. FIGS. 11B and 11D show a state in which a frame image (subject detection image) acquired by imaging in the lens shift state is not displayed as a live view image on the display unit 109. FIG. By alternately repeating the states shown in FIGS. 11A to 11D during the panning automatic imaging process, the pattern can be obtained by imaging in the non-lens shift state while pattern matching using the subject detection image is performed. A live view image can be displayed on the display unit 109. Thereby, the inconvenience due to the frame image acquired by the imaging in the lens shift state being displayed as the live view image can be solved.

図12(a)には、シフトレンズ101aのシフト位置へのシフトと非シフト位置への復帰のタイミングを示している。この図において、露光間隔(t1)は、フレーム画像を周期的に生成するために撮像素子102の露光(光電変換)を行う時間間隔であり、ライブビュー画像のフレームレートによって決まる。露光期間(t2)は、撮像素子102の露光が行われている時間であり、シャッタースピード等によって決まる。読み出し期間(t3)は、露光中および露光完了後の撮像素子102から撮像信号を読み出す時間である。レンズシフト可能期間(t4)は、シフトレンズ101aを非シフト位置とシフト位置との間で移動させることが可能な時間である。シフトレンズ101aを露光期間(t2)中に移動させると生成されるフレーム画像にぶれが生じるため、シフトレンズ101aの移動は露光期間(t2)外に行う必要がある。このため、レンズシフト可能期間(t4)は、「露光間隔(t1)−露光期間(t2)」となる。   FIG. 12A shows the timing of shifting the shift lens 101a to the shift position and returning to the non-shift position. In this figure, an exposure interval (t1) is a time interval for performing exposure (photoelectric conversion) of the image sensor 102 in order to periodically generate a frame image, and is determined by the frame rate of the live view image. The exposure period (t2) is the time during which the image sensor 102 is exposed and is determined by the shutter speed and the like. The readout period (t3) is a time for reading out the imaging signal from the imaging device 102 during and after exposure. The lens shift possible period (t4) is a time during which the shift lens 101a can be moved between the non-shift position and the shift position. When the shift lens 101a is moved during the exposure period (t2), the generated frame image is blurred. Therefore, the shift lens 101a needs to be moved outside the exposure period (t2). Therefore, the lens shift possible period (t4) is “exposure interval (t1) −exposure period (t2)”.

図12(b)に示す最大レンズシフト時間(t5)は、シフトレンズ101aを非シフト位置からシフト方向の端位置(シフト端)まで移動させる際に要する時間を示す。最大レンズシフト時間(t5)がレンズシフト可能期間(t4)より短ければ、シフトレンズ101aを非シフト位置からシフト端までシフトさせることが可能となる。
(流し撮り自動撮像処理2)
次に、本実施例の撮像装置100で行われる流し撮り自動撮像処理2について、図6のフローチャートを用いて説明する。ここでも、GUI画像を表示した表示部109に対するユーザのタッチ操作により生成された流し撮り自動撮像処理の開始指示信号がCPU103に入力され、ライブビュー画像用の撮像とライブビュー画像の表示部109での表示が開始された後の処理を説明する。また、上記タッチ操作の直後からユーザが流し撮りを開始したものとして説明する。
The maximum lens shift time (t5) shown in FIG. 12B indicates the time required to move the shift lens 101a from the non-shift position to the end position (shift end) in the shift direction. If the maximum lens shift time (t5) is shorter than the lens shift possible period (t4), the shift lens 101a can be shifted from the non-shift position to the shift end.
(Panning automatic imaging process 2)
Next, the panning automatic imaging process 2 performed by the imaging apparatus 100 of the present embodiment will be described with reference to the flowchart of FIG. Also here, a start instruction signal for a panning automatic imaging process generated by a user's touch operation on the display unit 109 displaying the GUI image is input to the CPU 103, and the live view image imaging and live view image display unit 109 is input. The process after the display of is started will be described. In addition, it is assumed that the user has started panning immediately after the touch operation.

まず、ステップS601では、CPU103は、カウンタを0に初期化する。カウンタ値は整数値であり、ライブビュー画像を表示するか否かを判定するために用いられる。   First, in step S601, the CPU 103 initializes a counter to zero. The counter value is an integer value and is used to determine whether or not to display a live view image.

次に、ステップS602では、CPU103は、カウンタに1を加算する。   Next, in step S602, the CPU 103 adds 1 to the counter.

そして、ステップS603では、CPU103は、カウンタ値が2の倍数か否かを判定する。カウンタ値が2の倍数である場合はステップS607に進み、そうでない場合はステップS604に進む。   In step S603, the CPU 103 determines whether the counter value is a multiple of two. If the counter value is a multiple of 2, the process proceeds to step S607; otherwise, the process proceeds to step S604.

ステップS607では、CPU103は、角速度センサ105から出力される角速度信号(動きに関する情報)を取得する。   In step S <b> 607, the CPU 103 acquires an angular velocity signal (information regarding motion) output from the angular velocity sensor 105.

次に、ステップS608では、CPU103は、ステップS607で取得した角速度信号から撮像装置100のパンニング方向を求める。そして、シフトアクチュエータを制御して、シフトレンズ101aを非シフト位置からパンニング方向におけるシフト位置にシフトさせる。具体的には、CPU103は、図12(a)に示したレンズシフト可能期間(t4)内でシフトレンズ101aを非シフト位置からシフト位置にシフトさせる。   Next, in step S608, the CPU 103 obtains the panning direction of the imaging apparatus 100 from the angular velocity signal acquired in step S607. Then, the shift actuator 101 is controlled to shift the shift lens 101a from the non-shift position to the shift position in the panning direction. Specifically, the CPU 103 shifts the shift lens 101a from the non-shift position to the shift position within the lens shift possible period (t4) shown in FIG.

次に、ステップS609では、CPU103は、撮像により生成されて一次記憶部104に保持されたフレーム画像を被写体検出画像として取得する。このように、本実施例では、レンズシフト状態での撮像により生成されるフレーム画像はライブビュー画像として表示せずに、被写体検出画像として用いる。そして、CPU103は、ステップS610に進む。   Next, in step S <b> 609, the CPU 103 acquires a frame image generated by imaging and held in the primary storage unit 104 as a subject detection image. As described above, in this embodiment, the frame image generated by the imaging in the lens shift state is not displayed as the live view image but is used as the subject detection image. Then, the CPU 103 proceeds to step S610.

一方、ステップS604では、CPU103は、シフトアクチュエータを制御して、シフトレンズ101aをシフト位置から非シフト位置(中心)に復帰させる。具体的には、CPU103は、図12(a)に示したレンズシフト可能期間(t4)内でシフトレンズ101aを非シフト位置に復帰させる。   On the other hand, in step S604, the CPU 103 controls the shift actuator to return the shift lens 101a from the shift position to the non-shift position (center). Specifically, the CPU 103 returns the shift lens 101a to the non-shift position within the lens shift possible period (t4) shown in FIG.

次に、ステップS605では、CPU103は、撮像により生成されて一次記憶部104に保持されたフレーム画像をライブビュー画像用の表示画像として取得する。   Next, in step S605, the CPU 103 acquires a frame image generated by imaging and held in the primary storage unit 104 as a display image for a live view image.

次に、ステップS606では、CPU103は、ステップS605で取得した表示画像をライブビュー画像として表示部109に表示する。このように、本実施例では、非レンズシフト状態での撮像により生成されるフレーム画像をライブビュー画像として表示する。また、このフレーム画像を被写体検出画像として用いてもよい。そして、CPU103は、ステップS610に進む。   Next, in step S606, the CPU 103 displays the display image acquired in step S605 on the display unit 109 as a live view image. As described above, in this embodiment, the frame image generated by the imaging in the non-lens shift state is displayed as the live view image. Further, this frame image may be used as a subject detection image. Then, the CPU 103 proceeds to step S610.

ステップS610では、CPU103は、実施例1(図2)にて説明した撮像ポイント画像取得処理にて二次記憶部108に記憶された撮像ポイント画像を読み出して画像出力部106に出力する。また、ステップS609(およびステップS606)で取得したフレーム画像を被写体検出画像として画像処理部106に出力する。画像処理部106はこれら撮像ポイント画像と被写体検出画像との間でのパターンマッチングを行う被写体検出処理を行い、さらにCPU103は該被写体検出処理の結果に応じて、撮像処理としての流し撮りアシスト処理を行う。被写体検出処理(パターンマッチング)および撮像処理(流し撮りアシスト処理)は、図4および図5のフローチャートを用いて実施例1で説明した処理と同じである。   In step S <b> 610, the CPU 103 reads the imaging point image stored in the secondary storage unit 108 in the imaging point image acquisition process described in the first embodiment (FIG. 2), and outputs it to the image output unit 106. The frame image acquired in step S609 (and step S606) is output to the image processing unit 106 as a subject detection image. The image processing unit 106 performs a subject detection process for performing pattern matching between the imaging point image and the subject detection image, and the CPU 103 performs a panning assist process as an imaging process according to the result of the subject detection process. Do. The subject detection process (pattern matching) and the imaging process (panning assist process) are the same as those described in the first embodiment with reference to the flowcharts of FIGS.

次に、ステップS611では、CPU103は、被写体検出処理(パターンマッチング)および撮像処理(流し撮りアシスト処理)が成功して流し撮り自動撮像が完了したか否かを判定する。終了した場合は本処理を終了し、そうでなければステップS602に戻る。   In step S611, the CPU 103 determines whether the subject detection process (pattern matching) and the imaging process (panning assist process) are successful and the panning automatic imaging is completed. If it has been completed, this process ends. Otherwise, the process returns to step S602.

なお、撮像装置100がレンズ交換型であり、撮像光学系101を含む交換レンズ装置が着脱可能である場合は、最大レンズシフト時間(t5)がレンズシフト可能期間(t4)より長くなる可能性がある。この場合、シフトレンズ101aの非シフト位置からシフト端までのシフト中に撮像素子102の露光が開始されてしまい、ぶれを含むフレーム画像が生成される。このため、CPU103は、交換レンズ装置との通信によって最大レンズシフト時間(t5)を取得する。そして、最大レンズシフト時間(t5)がレンズシフト可能期間(t4)より長いと判定した場合は、ステップS608でのシフトレンズ101aのシフトを、レンズシフト可能期間(t4)内でシフトが完了する位置までとすればよい。   When the imaging apparatus 100 is a lens interchangeable type and the interchangeable lens apparatus including the imaging optical system 101 is detachable, the maximum lens shift time (t5) may be longer than the lens shift possible period (t4). is there. In this case, exposure of the image sensor 102 is started during the shift from the non-shift position of the shift lens 101a to the shift end, and a frame image including blur is generated. For this reason, the CPU 103 acquires the maximum lens shift time (t5) through communication with the interchangeable lens device. If it is determined that the maximum lens shift time (t5) is longer than the lens shift possible period (t4), the shift lens 101a is shifted in step S608 within the lens shift possible period (t4). Up to that.

このように、本実施例でも、移動する主被写体に対する流し撮り自動撮像処理において、撮像装置100による撮像領域が撮像装置100のパンニングよりも該パンニングの方向に先行するようにシフトレンズ101aをシフトさせて被写体検出画像を取得する。これにより、このようなシフトレンズ101aのシフトを行わない場合(従来)に比べて、早いタイミングで撮像ポイント画像と被写体検出画像間での被写体検出処理(パターンマッチング)を行うことができる。したがって、従来に比べてより確実に撮像ポイントでの自動撮像(記録用撮像)を行うことができる。   As described above, also in this embodiment, in the panning automatic imaging process for the moving main subject, the shift lens 101a is shifted so that the imaging area of the imaging device 100 precedes the panning direction of the imaging device 100. To obtain a subject detection image. Thereby, the subject detection process (pattern matching) between the imaging point image and the subject detection image can be performed at an earlier timing than in the case where such shift lens 101a is not shifted (conventional). Therefore, it is possible to perform automatic imaging (imaging for recording) at an imaging point more reliably than in the past.

しかも、本実施例では、流し撮り自動撮像処理においてシフトレンズ101aのシフトと復帰を交互に繰り返す。そして、レンズシフト状態での撮像により生成されたフレーム画像はライブビュー画像として表示部109に表示せず、非レンズシフト状態での撮像により生成されたフレーム画像のみをライブビュー画像として表示部109に表示する。これにより、レンズシフト状態での撮像により生成されたフレーム画像がライブビュー画像として表示された場合に、ユーザが画面中央付近に主被写体が位置するようにパンニング速度を落とす等の不都合を回避することができる。   In addition, in the present embodiment, the shift and return of the shift lens 101a are alternately repeated in the panning automatic imaging process. The frame image generated by imaging in the lens shift state is not displayed on the display unit 109 as a live view image, and only the frame image generated by imaging in the non-lens shift state is displayed on the display unit 109 as a live view image. indicate. As a result, when a frame image generated by imaging in the lens shift state is displayed as a live view image, it is possible to avoid inconveniences such as the user reducing the panning speed so that the main subject is located near the center of the screen. Can do.

実施例1,2では、流し撮り自動撮像処理において撮像領域がパンニング方向に先行するようにシフトレンズ101aをシフトさせることで、早く被写体検出処理(パターンマッチング)を行うこと説明した。   In the first and second embodiments, it has been described that subject detection processing (pattern matching) is quickly performed by shifting the shift lens 101a so that the imaging region precedes the panning direction in the panning automatic imaging processing.

しかしながら、パンニング速度(つまりは主被写体の移動速度)が遅い場合にはそのようにシフトレンズ101aシフトさせなくても、ユーザが選択した位置での自動撮像を容易に行うことが可能である。   However, when the panning speed (that is, the moving speed of the main subject) is low, automatic imaging at the position selected by the user can be easily performed without shifting the shift lens 101a as such.

このため、本実施例では、パンニング速度に応じて、撮像領域がパンニング方向に先行するようにシフトレンズ101aをシフトさせるか否かを選択する。なお、本実施例における撮像装置100の構成および撮像ポイント画像の取得処理については、実施例1(図1および図2)と同じであるため、その説明を省略する。
(流し撮り自動撮像処理3)
次に、本実施例の撮像装置100にて行われる流し撮り自動撮像処理3について、図7のフローチャートを用いて説明する。ここでも、GUI画像を表示した表示部109に対するユーザのタッチ操作により生成された流し撮り自動撮像処理の開始指示信号がCPU103に入力され、ライブビュー画像用の撮像とライブビュー画像の表示部109での表示が開始された後の処理を説明する。また、上記タッチ操作の直後からユーザが流し撮りを開始したものとして説明する。
For this reason, in this embodiment, whether to shift the shift lens 101a so as to precede the imaging region in the panning direction is selected according to the panning speed. Note that the configuration of the imaging device 100 and the acquisition process of the imaging point image in the present embodiment are the same as those in the first embodiment (FIGS. 1 and 2), and thus description thereof is omitted.
(Panning automatic imaging process 3)
Next, the panning automatic imaging process 3 performed in the imaging apparatus 100 of the present embodiment will be described with reference to the flowchart of FIG. Also here, a start instruction signal for a panning automatic imaging process generated by a user's touch operation on the display unit 109 displaying the GUI image is input to the CPU 103, and the live view image imaging and live view image display unit 109 is input. The process after the display of is started will be described. In addition, it is assumed that the user has started panning immediately after the touch operation.

ステップS701では、CPU103は、角速度センサ105から出力される角速度信号(動きに関する情報)を取得する。   In step S <b> 701, the CPU 103 acquires an angular velocity signal (information regarding motion) output from the angular velocity sensor 105.

そして、ステップS702では、CPU103は、ステップS701で取得した角速度信号から撮像装置100のパンニング速度(角速度)を求め、該パンニング速度が所定の閾値よりも大きい(速い)か否かを判定する。閾値は、シャッタースピードや図12(b)に示した最大レンズシフト時間(t5)等に応じて可変としてもよい。パンニング速度が閾値より大きい場合はステップS703(〜S706)に進み、パンニング速度が閾値以下の場合はステップS707に進む。   In step S702, the CPU 103 obtains the panning speed (angular speed) of the imaging apparatus 100 from the angular velocity signal acquired in step S701, and determines whether the panning speed is greater (faster) than a predetermined threshold. The threshold value may be variable according to the shutter speed, the maximum lens shift time (t5) shown in FIG. If the panning speed is greater than the threshold, the process proceeds to step S703 (to S706). If the panning speed is equal to or less than the threshold, the process proceeds to step S707.

ステップS703およびS704は、実施例1における図3のステップS303およびS304と同じである。   Steps S703 and S704 are the same as steps S303 and S304 of FIG.

ステップS705では、CPU10は、シフトレンズ101aをシフト位置にシフトすることなく、非シフト位置に保持する。そして、画像処理部106は、図4のステップS401と同様にパターンマッチングを行う。CPU10は、パターンマッチングにより撮像ポイント画像に含まれる特定被写体の画像データに一致する被写体画像データが検出されると、図4のステップS404と同様に流し撮りアシスト処理を行う。   In step S705, the CPU 10 holds the shift lens 101a at the non-shift position without shifting to the shift position. The image processing unit 106 performs pattern matching in the same manner as in step S401 in FIG. When the subject image data that matches the image data of the specific subject included in the imaging point image is detected by pattern matching, the CPU 10 performs the panning assist process in the same manner as in step S404 in FIG.

次に、ステップS706では、パターンマッチングおよび流し撮りアシスト処理が成功して流し撮り自動撮像が完了したか否かを判定する。終了した場合は本処理を終了し、そうでなければステップS703に戻る。   Next, in step S706, it is determined whether the pattern matching and the panning assist process are successful and the panning automatic imaging is completed. If it has been completed, this process ends. Otherwise, the process returns to step S703.

一方、ステップS707では、図3に示した流し撮り自動撮像処理1または図6に示した流し撮り自動撮像処理2を行う。そして、本処理を終了する。   On the other hand, in step S707, the panning automatic imaging process 1 shown in FIG. 3 or the panning automatic imaging process 2 shown in FIG. 6 is performed. Then, this process ends.

このように、本実施例では、流し撮り自動撮像処理を行うに際して、パンニング速度に応じて撮像領域がパンニング方向に先行するようにシフトレンズ101aをシフトさせるか否かを選択する。これにより、撮像領域がパンニング方向に先行するようにシフトレンズ101aをシフトさせる必要がない場合にまでそのようなシフトが行われて、撮像装置100の電力が無駄に消費されることを回避することができる。   Thus, in the present embodiment, when performing the panning automatic imaging process, it is selected whether or not to shift the shift lens 101a so that the imaging area precedes the panning direction according to the panning speed. Thereby, such a shift is performed even when it is not necessary to shift the shift lens 101a so that the imaging region precedes the panning direction, thereby avoiding wasteful consumption of the power of the imaging device 100. Can do.

なお、本実施例では、流し撮り自動撮像処理の開始直後にパンニング速度に応じてシフトレンズ101aのシフトを行うか否かを選択したが、流し撮り自動撮像処理中にパンニング速度に応じたシフトレンズ101aのシフトを行うか否かを選択してもよい。   In this embodiment, whether or not to shift the shift lens 101a according to the panning speed is selected immediately after the start of the panning automatic imaging process. However, the shift lens according to the panning speed during the panning automatic imaging process is selected. It may be selected whether or not to shift 101a.

実施例1〜3では、流し撮り自動撮像処理において流し撮りアシスト処理が行われる場合について説明した。しかし、以下に説明するように、流し撮りアシスト処理を行わずに流し撮り自動撮像処理を行う場合でも、撮像領域がパンニング方向に先行するようにシフトレンズ101aをシフトさせてもよい。   In the first to third embodiments, the case where the panning assist process is performed in the panning automatic imaging process has been described. However, as will be described below, the shift lens 101a may be shifted so that the imaging region precedes the panning direction even when the panning automatic imaging processing is performed without performing the panning assist processing.

なお、本実施例における撮像装置100の構成および撮像ポイント画像の取得処理については、実施例1(図1および図2)と同じであるため、その説明を省略する。また、本実施例で行う流し撮り自動撮像処理は、実施例1〜3(図3、図6および図7)のいずれかにて説明したもと同じである。ただし、実施例1〜3における流し撮りアシスト処理に代えて図4のステップS404にて撮像処理として以下に説明する静止画撮像処理を行う。
(静止画撮像処理)
図8のフローチャートを用いて、静止画撮像処理について説明する。
Note that the configuration of the imaging device 100 and the acquisition process of the imaging point image in the present embodiment are the same as those in the first embodiment (FIGS. 1 and 2), and thus description thereof is omitted. Also, the panning automatic imaging process performed in the present embodiment is the same as described in any one of the first to third embodiments (FIGS. 3, 6, and 7). However, in place of the panning assist process in the first to third embodiments, a still image imaging process described below is performed as an imaging process in step S404 in FIG.
(Still image capture processing)
The still image capturing process will be described with reference to the flowchart of FIG.

ステップS801では、CPU103は、シャッタを開き、所定の露光時間が経過することに応じてシャッタを閉じる。このシャッタの開から閉までの間、CPU103は、記録用撮像のために撮像素子102に光電変換を行わせ、この光電変換により撮像素子102にて生成された撮像信号を一次記憶部104に保持させる。   In step S801, the CPU 103 opens the shutter and closes the shutter when a predetermined exposure time has elapsed. Between the opening and closing of the shutter, the CPU 103 causes the imaging device 102 to perform photoelectric conversion for recording imaging, and holds the imaging signal generated by the imaging device 102 by the photoelectric conversion in the primary storage unit 104. Let

次に、ステップS802では、CPU103は、画像処理装置106に一次記憶部104に保持された撮像信号から静止画データ(記録用画像)を生成させ、該静止画データを記録媒体107に静止画ファイルとして記録する。そして、本処理を終了する。   Next, in step S <b> 802, the CPU 103 causes the image processing apparatus 106 to generate still image data (recording image) from the imaging signal held in the primary storage unit 104, and stores the still image data in the recording medium 107. Record as. Then, this process ends.

このように、流し撮りアシスト処理を行わずに流し撮り自動撮像処理を行う場合でも撮像領域がパンニング方向に先行するようにシフトレンズ101aをシフトさせることで、ユーザが選択した撮像ポイントでの自動撮像を従来に比べてより確実に行うことができる。   As described above, even when the panning automatic imaging process is performed without performing the panning assist process, the shift lens 101a is shifted so that the imaging area precedes the panning direction, thereby automatically capturing the image at the imaging point selected by the user. Can be performed more reliably than in the past.

なお、上記各実施例では、シフト素子が撮像光学系101に含まれるシフトレンズ101aである場合について説明したが、撮像素子102をシフト素子として光軸AXに対してシフトさせてもよい。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
In each of the above embodiments, the case where the shift element is the shift lens 101a included in the imaging optical system 101 has been described. However, the imaging element 102 may be shifted with respect to the optical axis AX as a shift element.
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。   Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment in carrying out the present invention.

100 撮像装置
101a シフトレンズ
103 CPU
105 角速度センサ
106 画像処理部
100 Imaging device 101a Shift lens 103 CPU
105 Angular velocity sensor 106 Image processing unit

Claims (8)

光軸に対してシフト可能なシフト素子を用いて撮像を行う撮像装置を制御する撮像制御装置であって、
第1の撮像により生成された第1の画像を取得する第1の画像取得手段と、
前記撮像装置の動きに関する情報を取得し、前記撮像装置による撮像領域が前記動きよりも該動きの方向に先行するように前記シフト素子をシフトさせて前記撮像装置に第2の撮像を行わせ、該第2の撮像により生成された第2の画像を取得する第2の画像取得手段と、
前記第2の画像において、前記第1の画像に含まれる第1の被写体像のうち少なくとも一部に一致する第2の被写体像を検出する被写体像検出手段と、
前記第2の被写体像が検出されることに応じて、前記撮像装置に記録用撮像を行わせる撮像指示手段とを有することを特徴とする撮像制御装置。
An imaging control device that controls an imaging device that performs imaging using a shift element that is shiftable with respect to an optical axis,
First image acquisition means for acquiring a first image generated by the first imaging;
Obtaining information related to the movement of the imaging device, shifting the shift element so that an imaging region by the imaging device precedes the direction of the movement, and causing the imaging device to perform second imaging; Second image acquisition means for acquiring a second image generated by the second imaging;
Subject image detection means for detecting a second subject image that matches at least a part of the first subject image included in the first image in the second image;
An imaging control apparatus comprising: an imaging instruction unit that causes the imaging apparatus to perform recording imaging in response to detection of the second subject image.
前記第2の画像取得手段は、前記シフト素子のシフトと復帰とを繰り返し行い、前記シフトごとに前記第2の撮像を行うとともに前記復帰ごとに第3の撮像を行い、
該撮像制御装置は、前記撮像装置に、前記第2の撮像ごとに生成される前記第2の画像を表示または出力させず、前記第3の撮像ごとに生成される第3の画像を表示または出力させる出力制御手段を有することを特徴とする請求項1に記載の撮像制御装置。
The second image acquisition means repeatedly shifts and returns the shift element, performs the second imaging for each shift and performs the third imaging for each return,
The imaging control device does not cause the imaging device to display or output the second image generated for each second imaging, and displays or outputs the third image generated for each third imaging. The imaging control apparatus according to claim 1, further comprising output control means for outputting.
前記第2の画像取得手段は、前記動きの速度に応じて前記シフト素子のシフトおよび前記第2の撮像を行うか否かを選択することを特徴とする請求項1または2に記載の撮像制御装置。   3. The imaging control according to claim 1, wherein the second image acquisition unit selects whether to perform the shift of the shift element and the second imaging according to the speed of the movement. 4. apparatus. 前記撮像指示手段は、前記撮像装置とともに動く前記撮像領域と移動被写体との相対変位を減少させるように前記シフト素子のシフト方向での位置を制御して前記移動被写体に対する前記記録用撮像を行うことを特徴とする請求項1から3のいずれか一項に記載の撮像制御装置。   The imaging instruction means controls the position of the shift element in the shift direction so as to reduce the relative displacement between the imaging area that moves together with the imaging device and the moving subject, and performs the recording imaging for the moving subject. The imaging control device according to any one of claims 1 to 3, wherein 請求項1から4のいずれか一項に記載の撮像制御装置と、
撮像のための光電変換を行う撮像素子とを有することを特徴とする撮像装置。
The imaging control device according to any one of claims 1 to 4,
An imaging apparatus comprising: an imaging element that performs photoelectric conversion for imaging.
前記シフト素子は、該撮像装置に一体もしくは着脱が可能に設けられた撮像光学系に含まれる光学素子、または前記撮像素子であることを特徴とする請求項5に記載の撮像装置。   6. The image pickup apparatus according to claim 5, wherein the shift element is an optical element included in an image pickup optical system provided in the image pickup apparatus so as to be integrated or detachable, or the image pickup element. 該撮像装置は、撮像光学系を有する交換レンズ装置の着脱が可能であり、
前記第2の画像取得手段は、前記撮像装置の動きに関する情報を前記撮像装置または前記交換レンズ装置に設けられた動き検出手段から取得することを特徴とする請求項5または6に記載の撮像装置。
The imaging device is detachable from an interchangeable lens device having an imaging optical system,
The imaging apparatus according to claim 5, wherein the second image acquisition unit acquires information related to the movement of the imaging apparatus from a motion detection unit provided in the imaging apparatus or the interchangeable lens apparatus. .
光軸に対してシフト可能なシフト素子を用いて撮像を行う撮像装置を制御するコンピュータに撮像制御処理を実行させるコンピュータプログラムとしての撮像制御プログラムであって、
前記撮像制御処理は、
第1の撮像により生成された第1の画像を取得する処理と、
前記撮像装置の動きに関する情報を取得し、前記撮像装置による撮像領域が前記動きよりも該動きの方向に先行するように前記シフト素子をシフトさせて前記撮像装置に第2の撮像を行わせ、該第2の撮像により生成された第2の画像を取得する処理と、
前記第2の画像において、前記第1の画像に含まれる第1の被写体像のうち少なくとも一部に一致する第2の被写体像を検出する処理と、
前記第2の被写体像が検出されることに応じて、前記撮像装置に記録用撮像を行わせる処理とを含むことを特徴とする撮像制御プログラム。
An imaging control program as a computer program that causes a computer that controls an imaging apparatus that performs imaging using a shift element that is shiftable with respect to an optical axis to execute imaging control processing,
The imaging control process includes
A process of acquiring a first image generated by the first imaging;
Obtaining information related to the movement of the imaging device, shifting the shift element so that an imaging region by the imaging device precedes the direction of the movement, and causing the imaging device to perform second imaging; Processing for obtaining a second image generated by the second imaging;
In the second image, a process of detecting a second subject image that matches at least part of the first subject image included in the first image;
An imaging control program comprising: processing for causing the imaging apparatus to perform recording imaging in response to detection of the second subject image.
JP2014245413A 2014-12-03 2014-12-03 Imaging control apparatus, imaging apparatus, and imaging control program Expired - Fee Related JP6415279B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014245413A JP6415279B2 (en) 2014-12-03 2014-12-03 Imaging control apparatus, imaging apparatus, and imaging control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014245413A JP6415279B2 (en) 2014-12-03 2014-12-03 Imaging control apparatus, imaging apparatus, and imaging control program

Publications (2)

Publication Number Publication Date
JP2016111451A true JP2016111451A (en) 2016-06-20
JP6415279B2 JP6415279B2 (en) 2018-10-31

Family

ID=56124702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014245413A Expired - Fee Related JP6415279B2 (en) 2014-12-03 2014-12-03 Imaging control apparatus, imaging apparatus, and imaging control program

Country Status (1)

Country Link
JP (1) JP6415279B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008136174A (en) * 2006-10-24 2008-06-12 Sanyo Electric Co Ltd Imaging apparatus and imaging control method
JP2014107750A (en) * 2012-11-28 2014-06-09 Olympus Imaging Corp Photographing apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008136174A (en) * 2006-10-24 2008-06-12 Sanyo Electric Co Ltd Imaging apparatus and imaging control method
JP2014107750A (en) * 2012-11-28 2014-06-09 Olympus Imaging Corp Photographing apparatus

Also Published As

Publication number Publication date
JP6415279B2 (en) 2018-10-31

Similar Documents

Publication Publication Date Title
US9992421B2 (en) Image pickup apparatus having FA zoom function, method for controlling the apparatus, and recording medium
US9888182B2 (en) Display apparatus
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
JP6512810B2 (en) Image pickup apparatus, control method and program
JP5005570B2 (en) Image processing apparatus and program
JP7086571B2 (en) Image pickup device, lens device and control method thereof
JP6338424B2 (en) Image processing apparatus, control method therefor, imaging apparatus, and program
JP2011040902A (en) Image capturing apparatus and control apparatus for the same
JP2017201356A (en) Image shake correction device, imaging device, method for controlling image shake correction device, program, and storage medium
JP6727453B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGING DEVICE CONTROL PROGRAM
JP6261205B2 (en) Image processing device
JP6643036B2 (en) Zoom control device, control method for zoom control device, control program for zoom control device, and storage medium
JP2011217103A (en) Compound eye photographing method and apparatus
US8547454B2 (en) Digital image photographing apparatuses and methods of controlling the same to provide location information
JP6932531B2 (en) Image blur correction device, image pickup device, control method of image pickup device
JP6188474B2 (en) Zoom control device, control method for zoom control device, control program for zoom control device, and storage medium
JP2018033013A (en) Control device, imaging apparatus, control method, program, and memory medium
JP6700874B2 (en) Image blur correction apparatus, control method thereof, program, and storage medium
JP2011211531A (en) Imaging device
JP2008263478A (en) Imaging apparatus
JP6289207B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM
JP6746473B2 (en) Imaging device and control method
JP2015233211A (en) Imaging apparatus, control method thereof, and program
JP2019032370A (en) Imaging device and control method thereof
JP6415279B2 (en) Imaging control apparatus, imaging apparatus, and imaging control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181002

R151 Written notification of patent or utility model registration

Ref document number: 6415279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees