JP2020150448A - Image pickup apparatus, control method therefor, program, and storage medium - Google Patents

Image pickup apparatus, control method therefor, program, and storage medium Download PDF

Info

Publication number
JP2020150448A
JP2020150448A JP2019047339A JP2019047339A JP2020150448A JP 2020150448 A JP2020150448 A JP 2020150448A JP 2019047339 A JP2019047339 A JP 2019047339A JP 2019047339 A JP2019047339 A JP 2019047339A JP 2020150448 A JP2020150448 A JP 2020150448A
Authority
JP
Japan
Prior art keywords
motion blur
motion
imaging
blur
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019047339A
Other languages
Japanese (ja)
Other versions
JP7296750B2 (en
Inventor
哲也 秦
Tetsuya Hata
哲也 秦
遥平 豊原
Yohei TOYOHARA
遥平 豊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019047339A priority Critical patent/JP7296750B2/en
Publication of JP2020150448A publication Critical patent/JP2020150448A/en
Application granted granted Critical
Publication of JP7296750B2 publication Critical patent/JP7296750B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image pickup apparatus which can easily confirm a state of blur in each region of a main subject, and an appropriate panning speed of a camera.SOLUTION: The image pickup apparatus includes: an acquisition unit that acquires a first captured image obtained by the first imaging according to a first imaging parameter, and motion information on a subject in the first captured image; a setting unit that sets a second imaging parameter independently of the first imaging parameter; an estimation unit that estimates a motion blur of the subject in a second captured image which is obtained when the second imaging is performed according to the second imaging parameter, by using the motion information and the second imaging parameter; and a notification unit that notifies the estimated motion blur. The notification unit changes a display form in each partial region on the basis of at least one of a magnitude and an orientation of the motion blur in each of the partial regions of the image, and notifies the motion blur.SELECTED DRAWING: Figure 9

Description

本発明は、撮像される画像に生じる被写体ブレを報知するための技術に関する。 The present invention relates to a technique for notifying subject blurring that occurs in an image to be captured.

従来、移動している主被写体に追従してカメラをパンニングさせながら撮影することにより、主被写体以外の背景領域にブレを生じさせ、主被写体のスピード感を表現する流し撮りと呼ばれる撮影手法が知られている。流し撮りにおいて主被写体のスピード感を表現するためには、主被写体の移動の速度とカメラのパンニング速度とを一致させた状態で撮影を行い、主被写体にはブレを生じさせず、背景領域にのみにブレを生じさせることが重要である。 Conventionally, a shooting method called panning that expresses the sense of speed of the main subject by causing blurring in the background area other than the main subject by shooting while panning the camera following the moving main subject is known. Has been done. In order to express the sense of speed of the main subject in panning, shooting is performed with the moving speed of the main subject and the panning speed of the camera matched, and the main subject is not blurred and is placed in the background area. It is important to cause blurring only.

この点に関して、特許文献1には、流し撮り撮影を行う撮影者に対する補助表示として、適切なカメラのパンニングの速度を撮影者が把握できるようにUI表示を行う技術が開示されている。具体的には、撮影者はカメラのパンニングの状態を表すアイコン表示の表示位置関係に応じて、カメラのパンニングの速さが速すぎるのか、遅すぎるのかを把握することができる。 In this regard, Patent Document 1 discloses a technique for displaying a UI so that the photographer can grasp an appropriate panning speed of the camera as an auxiliary display for a photographer who performs panning photography. Specifically, the photographer can grasp whether the panning speed of the camera is too fast or too slow according to the display positional relationship of the icon display indicating the panning state of the camera.

特開2016−220024号公報Japanese Unexamined Patent Publication No. 2016-220024

しかしながら、特許文献1の表示方法の場合、主被写体領域の全体に対して、カメラのパンニング速度が適切であるか否かをアイコン表示によって把握することはできる。しかし、主被写体領域の各部分において動きの速さや方向が異なる場合には、それぞれの部分領域に対してカメラのパンニング速度が適切であるか否かを判断することができないという課題があった。 However, in the case of the display method of Patent Document 1, it is possible to grasp whether or not the panning speed of the camera is appropriate for the entire main subject area by displaying the icon. However, when the speed and direction of movement are different in each part of the main subject area, there is a problem that it cannot be determined whether or not the panning speed of the camera is appropriate for each part area.

本発明は、上述した課題に鑑みてなされたものであり、その目的は、主被写体の各領域におけるブレの状態や、適切なカメラのパンニング速度を容易に確認することができる撮像装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an imaging device capable of easily confirming a blur state in each region of a main subject and an appropriate panning speed of a camera. That is.

本発明に係わる撮像装置は、第1の撮影パラメータで第1の撮像により得られた第1の撮影画像および該第1の撮影画像における被写体の動き情報を取得する取得手段と、前記第1の撮影パラメータとは独立して第2の撮影パラメータを設定する設定手段と、前記動き情報および前記第2の撮影パラメータを用いて、前記第2の撮影パラメータで第2の撮像が行われる場合に得られる第2の撮影画像における被写体の動きブレを推定する推定手段と、推定された前記動きブレを報知する報知手段と、を備え、前記報知手段は、画像の部分領域ごとの動きブレの大きさおよび向きの少なくとも一方に基づいて、前記部分領域ごとに表示形態を変更して前記動きブレを報知することを特徴とする。 The imaging apparatus according to the present invention includes an acquisition means for acquiring a first captured image obtained by the first imaging with the first imaging parameter and motion information of a subject in the first captured image, and the first imaging device. Obtained when the second imaging is performed with the second imaging parameter by using the setting means for setting the second imaging parameter independently of the imaging parameter and the motion information and the second imaging parameter. A means for estimating the motion blur of the subject in the second captured image and a notification means for notifying the estimated motion blur are provided, and the notification means has a magnitude of the motion blur for each partial region of the image. It is characterized in that the display form is changed for each of the partial regions to notify the motion blur based on at least one of the directions.

本発明によれば、主被写体の各領域におけるブレの状態や、適切なカメラのパンニング速度を容易に確認することができる撮像装置を提供することが可能となる。 According to the present invention, it is possible to provide an imaging device capable of easily confirming a blur state in each region of a main subject and an appropriate panning speed of a camera.

第1の実施形態における撮像装置の構成を示す図。The figure which shows the structure of the imaging apparatus in 1st Embodiment. 第1の実施形態における撮像装置の撮影処理フローを示す図。The figure which shows the imaging process flow of the imaging apparatus in 1st Embodiment. 第1の実施形態における動きブレ報知画像生成部の構成を示す図。The figure which shows the structure of the motion blur notification image generation part in 1st Embodiment. 第1の実施形態における動きブレ報知画像を生成する処理フローを示す図。The figure which shows the processing flow which generates the motion blur notification image in 1st Embodiment. 第1の実施形態における準備撮影画像及び動きベクトルを示す図。The figure which shows the preparatory photograph image and the motion vector in 1st Embodiment. 第1の実施形態における動きベクトルを算出する処理フローを示す図。The figure which shows the processing flow which calculates the motion vector in 1st Embodiment. 第1の実施形態における動きベクトルの算出方法を示す図。The figure which shows the calculation method of the motion vector in 1st Embodiment. 第1の実施形態における動きベクトルと換算動きブレを示す図。The figure which shows the motion vector and the conversion motion blur in the 1st Embodiment. 第1の実施形態における動きブレ報知方法を示す図。The figure which shows the motion blur notification method in 1st Embodiment. 第2の実施形態における動きブレ報知画像生成部の構成を示す図。The figure which shows the structure of the motion blur notification image generation part in 2nd Embodiment. 第2の実施形態における動きブレ報知画像を生成する処理フローを示す図。The figure which shows the processing flow which generates the motion blur notification image in 2nd Embodiment. 第2の実施形態における動きブレ報知方法を示す図。The figure which shows the motion blur notification method in 2nd Embodiment. 第3の実施形態における動きブレ報知画像生成部の構成を示す図。The figure which shows the structure of the motion blur notification image generation part in 3rd Embodiment. 第3の実施形態における動きブレ報知画像を生成する処理フローを示す図。The figure which shows the processing flow which generates the motion blur notification image in 3rd Embodiment. 第3の実施形態における準備撮影画像及び動きベクトルを示す図。The figure which shows the preparatory photograph image and the motion vector in 3rd Embodiment. 第3の実施形態における画像中の動きベクトルの絶対値とその頻度を示す図。The figure which shows the absolute value of the motion vector in an image and the frequency thereof in 3rd Embodiment. 第3の実施形態における動きブレ報知方法を示す図。The figure which shows the motion blur notification method in 3rd Embodiment. 第4の実施形態における撮像装置の構成を示す図。The figure which shows the structure of the image pickup apparatus in 4th Embodiment. 第4の実施形態における動きブレ報知画像生成部の構成を示す図。The figure which shows the structure of the motion blur notification image generation part in 4th Embodiment. 第4の実施形態における動きブレ報知画像を生成する処理フローを示す図。The figure which shows the processing flow which generates the motion blur notification image in 4th Embodiment. 第5の実施形態における撮像装置の構成を示す図。The figure which shows the structure of the image pickup apparatus in 5th Embodiment. 第5の実施形態における動きブレ報知画像生成部の構成を示す図。The figure which shows the structure of the motion blur notification image generation part in 5th Embodiment. 第5の実施形態における動きブレ報知画像を生成する処理フローを示す図。The figure which shows the processing flow which generates the motion blur notification image in 5th Embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential for the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate description is omitted.

(第1の実施形態)
本発明の第1の実施形態は、ライブビューなどの準備撮影中において、画像から算出した被写体の動き情報と、撮像装置に備えられた角速度センサーを用いて検出した撮像装置本体の動き情報との比較結果に基づいて、動きブレの報知を行う。
(First Embodiment)
In the first embodiment of the present invention, the motion information of the subject calculated from the image and the motion information of the image pickup apparatus main body detected by using the angular velocity sensor provided in the image pickup apparatus during the preparatory shooting such as live view. Based on the comparison result, the motion blur is notified.

図1は、本発明の第1の実施形態に係わる撮像装置100の構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of an image pickup apparatus 100 according to a first embodiment of the present invention.

図1において、制御部101は、例えばCPUであり、撮像装置100が備える各ブロックに対する制御プログラムを後述のROM102より読み出し、後述のRAM103に展開して実行する。これにより、制御部101は、撮像装置100が備える各ブロックの動作を制御する。 In FIG. 1, the control unit 101 is, for example, a CPU, and reads a control program for each block included in the image pickup apparatus 100 from a ROM 102 described later, expands the control program into a RAM 103 described later, and executes the control program. As a result, the control unit 101 controls the operation of each block included in the image pickup apparatus 100.

ROM102は、電気的に消去・記録可能な不揮発性メモリであり、撮像装置100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。 The ROM 102 is a non-volatile memory that can be electrically erased and recorded, and stores, in addition to the operation program of each block included in the image pickup apparatus 100, parameters and the like necessary for the operation of each block.

RAM103は、書き換え可能な揮発性メモリであり、制御部101等が実行するプログラムの展開や、撮像装置100が備える各ブロックの動作で生成等されたデータの一時的な記憶等に用いられる。 The RAM 103 is a rewritable volatile memory, and is used for developing a program executed by the control unit 101 or the like, temporarily storing data generated by the operation of each block included in the image pickup apparatus 100, or the like.

光学系(撮影レンズ)104は、ズームレンズ、フォーカスレンズを含むレンズ群で構成され、被写体像を後述の撮像部105の撮像面上に結像させる。 The optical system (photographing lens) 104 is composed of a lens group including a zoom lens and a focus lens, and forms a subject image on an imaging surface of an imaging unit 105 described later.

撮像部105は、例えばCCDやCMOSセンサー等の撮像素子を備え、光学系104により撮像部105の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。 The image pickup unit 105 is provided with an image pickup element such as a CCD or a CMOS sensor, and the optical image formed on the image pickup surface of the image pickup unit 105 by the optical system 104 is photoelectrically converted, and the obtained analog image signal is A / D. Output to the conversion unit 106.

A/D変換部106は、入力されたアナログ画像信号をデジタル画像データに変換する。A/D変換部106から出力されたデジタル画像データは、RAM103に一時的に記憶される。 The A / D conversion unit 106 converts the input analog image signal into digital image data. The digital image data output from the A / D conversion unit 106 is temporarily stored in the RAM 103.

画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、ガンマ処理など、様々な画像処理を適用する。また、画像処理部107は、後述の動きブレ報知画像生成部300を備え、RAM103に記憶されている画像に対して、動きブレが容易に確認できる画像プレーンを重畳し、動きブレ報知画像を生成する。 The image processing unit 107 applies various image processing such as white balance adjustment, color interpolation, and gamma processing to the image data stored in the RAM 103. Further, the image processing unit 107 includes a motion blur notification image generation unit 300, which will be described later, and superimposes an image plane on which the motion blur can be easily confirmed on the image stored in the RAM 103 to generate a motion blur notification image. To do.

記録部108は、着脱可能なメモリカード等である。記録部108は、画像処理部107で処理された画像データを、RAM103を介し、記録画像として記録する。 The recording unit 108 is a removable memory card or the like. The recording unit 108 records the image data processed by the image processing unit 107 as a recorded image via the RAM 103.

表示部109は、LCD等の表示デバイスであり、RAM103に記憶されている画像や記録部108に記録されている画像の表示、ユーザーからの指示を受け付けるための操作ユーザーインターフェイスの表示等を行う。また、表示部109は、準備撮影中に構図合わせ等のために撮像部105が撮像した画像を表示する。指示入力部110は、タッチパネルやマウス等であり、ユーザーによる指示を入力する。 The display unit 109 is a display device such as an LCD, and displays an image stored in the RAM 103, an image recorded in the recording unit 108, an operation user interface for receiving an instruction from the user, and the like. In addition, the display unit 109 displays an image captured by the imaging unit 105 for composition adjustment and the like during the preparatory shooting. The instruction input unit 110 is a touch panel, a mouse, or the like, and inputs an instruction by the user.

角速度センサー111は、例えばジャイロセンサーなどであって、撮像装置100の移動量や移動方向を表す角速度を周期的に検出し、電気信号に変換して画像処理部107へ出力する。以上、撮像装置100の構成と基本動作について説明した。 The angular velocity sensor 111 is, for example, a gyro sensor or the like, and periodically detects the angular velocity indicating the movement amount and the movement direction of the image pickup apparatus 100, converts it into an electric signal, and outputs it to the image processing unit 107. The configuration and basic operation of the image pickup apparatus 100 have been described above.

次に、撮像装置100の処理について図2のフローチャートを参照して説明する。本フローチャートの各ステップは、制御部101の指示により撮像装置100の各部が実行する。 Next, the processing of the image pickup apparatus 100 will be described with reference to the flowchart of FIG. Each step of this flowchart is executed by each part of the image pickup apparatus 100 according to the instruction of the control unit 101.

ユーザーが撮像装置100の電源を入れると、ステップS201において、制御部101はデジタルカメラ100の電源が入れられたことに応じて、光学系104、撮像部105を制御して準備撮影を開始する。準備撮影期間中は、撮像装置100は逐次画像を撮像して逐次取得し、取得した撮影画像は表示部109の表示デバイスに表示される。ユーザーは逐次表示される準備撮影画像を確認しながら構図合わせなどを行うことができる。なお、後述するステップS202、S203、S204、S205及びS206の処理は準備撮影期間中に行われる。 When the user turns on the power of the image pickup apparatus 100, in step S201, the control unit 101 controls the optical system 104 and the image pickup unit 105 in response to the power of the digital camera 100 being turned on to start the preparatory shooting. During the preparatory imaging period, the imaging device 100 images sequentially images and sequentially acquires them, and the acquired captured images are displayed on the display device of the display unit 109. The user can adjust the composition while checking the preparatory shot images that are displayed sequentially. The processes of steps S202, S203, S204, S205 and S206 described later are performed during the preparatory imaging period.

ステップS202において、ユーザーは指示入力部110を用いて本撮影時の露光時間を設定する。なお、本撮影時の露光時間は制御部101が自動で設定してもよい。 In step S202, the user sets the exposure time at the time of main shooting by using the instruction input unit 110. The exposure time at the time of main shooting may be automatically set by the control unit 101.

ステップS203において、制御部101は、動きブレ報知がON設定かOFF設定かを判断する。動きブレ報知のONかOFFかの設定は、例えば、ユーザーが指示入力部110を用いて設定するものとし、一度設定すれば設定値が保持されるものとする。 In step S203, the control unit 101 determines whether the motion blur notification is set to ON or OFF. The setting of ON or OFF of the motion blur notification is, for example, set by the user using the instruction input unit 110, and once set, the set value is retained.

ステップS203において動きブレ報知がON設定の場合は、ステップS204へ進み、動きブレ報知がOFF設定の場合は、ステップS206へ進む。そして、ステップS206において、準備撮影画像を表示部109に表示する。 If the motion blur notification is set to ON in step S203, the process proceeds to step S204, and if the motion blur notification is set to OFF, the process proceeds to step S206. Then, in step S206, the preparatory shooting image is displayed on the display unit 109.

ステップS204において、制御部101は、角速度センサー111において撮像装置100の一定の方向への動き、すなわち、撮影者によるカメラのパンニング動作が検出されたか否かを判定する。パンニング動作が検出された場合には、流し撮りの準備撮影が開始されたと判定し、ステップS205へ進む。そして、ステップS206において、動きブレ報知画像を表示部109に表示する。パンニング動作が検出されない場合には、ステップS206へ進む。そして、ステップS206において、準備撮影画像を表示部109に表示する。 In step S204, the control unit 101 determines whether or not the angular velocity sensor 111 has detected the movement of the image pickup device 100 in a certain direction, that is, the panning operation of the camera by the photographer. When the panning operation is detected, it is determined that the preparatory shooting for panning has been started, and the process proceeds to step S205. Then, in step S206, the motion blur notification image is displayed on the display unit 109. If no panning operation is detected, the process proceeds to step S206. Then, in step S206, the preparatory shooting image is displayed on the display unit 109.

ステップS205において、動きブレ報知画像生成部300が準備撮影画像に対して動きブレ報知プレーンを重畳した動きブレ報知画像を生成する。 In step S205, the motion blur notification image generation unit 300 generates a motion blur notification image in which the motion blur notification plane is superimposed on the preparatory shooting image.

ステップS207において、ユーザーは表示部109に表示された画像を見ながらシャッターチャンス時にシャッターボタンを押下する。表示部109に動きブレ報知画像を表示している場合は、ユーザーは、流し撮りの準備撮影中において容易に主被写体のブレの状態(ブレ量)や、カメラの適切なパンニング速度に対する目安を確認することができる。もし、カメラのパンニング速度が、主被写体の移動速度と合致していない場合は、ユーザーはカメラのパンニング速度を調整してからシャッターボタンを押下することにより、流し撮りを適切に行うことができる。 In step S207, the user presses the shutter button at the time of a shutter chance while viewing the image displayed on the display unit 109. When the motion blur notification image is displayed on the display unit 109, the user can easily check the blur state (blurring amount) of the main subject and the guideline for the appropriate panning speed of the camera during the preparatory shooting for panning. can do. If the panning speed of the camera does not match the moving speed of the main subject, the user can properly perform panning by adjusting the panning speed of the camera and then pressing the shutter button.

ステップS207においてシャッターボタンが押下されると、撮像装置100は本撮影を行い、本撮影画像を記録部108に記録する。 When the shutter button is pressed in step S207, the image pickup apparatus 100 performs the main shooting and records the main shooting image in the recording unit 108.

次に、図3は、画像処理部107が備える動きブレ報知画像生成部300の構成を示す図である。図3において、動きブレ報知画像生成部300は、動きベクトル算出部301、換算動きブレ算出部302、カメラ動きベクトル算出部303、動きベクトル比較部304、動きブレ報知プレーン作成部305、画像重畳部306を備える。 Next, FIG. 3 is a diagram showing a configuration of a motion blur notification image generation unit 300 included in the image processing unit 107. In FIG. 3, the motion blur notification image generation unit 300 includes a motion vector calculation unit 301, a conversion motion blur calculation unit 302, a camera motion vector calculation unit 303, a motion vector comparison unit 304, a motion blur notification plane creation unit 305, and an image superimposition unit. 306.

このように構成される動きブレ報知画像生成部300の動作について説明する。図4は、動きブレ報知画像生成部300が動きブレ報知画像を生成する処理を示すフローチャートである。 The operation of the motion blur notification image generation unit 300 configured as described above will be described. FIG. 4 is a flowchart showing a process in which the motion blur notification image generation unit 300 generates a motion blur notification image.

ステップS401において、動きブレ報知画像生成部300には、撮像装置100が準備撮影中に撮像した準備撮影画像が入力される。準備撮影画像の例を図5(a)に示す。本実施形態では、図5(a)に示すように、右から左に走っている犬501を流し撮りで撮影する例について説明する。この場合、流し撮り時のカメラのパンニング動作も、右から左への動きとなる。 In step S401, the preparatory shooting image captured by the imaging device 100 during the preparatory shooting is input to the motion blur notification image generation unit 300. An example of the preparatory photographed image is shown in FIG. 5 (a). In the present embodiment, as shown in FIG. 5A, an example in which the dog 501 running from right to left is photographed by panning will be described. In this case, the panning operation of the camera during panning is also a movement from right to left.

ステップS402において、動きブレ報知画像生成部300の動きベクトル算出部301は、動き情報として準備撮影画像の画像間における動きベクトルを算出する。動きベクトルとは、準備撮影画像の画像間における被写体の水平方向の移動量と垂直方向の移動量をベクトルとして表したものである。動きベクトルの算出方法について、図6及び図7を参照して説明する。 In step S402, the motion vector calculation unit 301 of the motion blur notification image generation unit 300 calculates the motion vector between the images of the preparatory captured image as motion information. The motion vector represents the amount of movement of the subject in the horizontal direction and the amount of movement in the vertical direction between the images of the preparatory photographed image as a vector. The method of calculating the motion vector will be described with reference to FIGS. 6 and 7.

図6は、動きベクトル算出部301による動きベクトルの算出処理を示すフローチャートである。なお、本実施形態では、動きベクトルの算出手法としてブロックマッチング法を例に挙げて説明するが、動きベクトルの算出手法はこの例に限定されず、例えば勾配法でもよい。 FIG. 6 is a flowchart showing a motion vector calculation process by the motion vector calculation unit 301. In the present embodiment, the block matching method will be described as an example of the motion vector calculation method, but the motion vector calculation method is not limited to this example, and may be, for example, the gradient method.

ステップS601において、動きベクトル算出部301には、時間的に隣接する2枚の準備撮影画像が入力される。そして、動きベクトル算出部301は、M番目のフレームの準備撮影画像を基準フレームに設定し、M+1番目のフレームの準備撮影画像を参照フレームに設定する。 In step S601, two temporally adjacent preparatory shot images are input to the motion vector calculation unit 301. Then, the motion vector calculation unit 301 sets the preparatory shooting image of the Mth frame as the reference frame, and sets the preparatory shooting image of the M + 1th frame as the reference frame.

ステップS602において、動きベクトル算出部301は、図7のように、基準フレーム701において、N×N画素の基準ブロック702を配置する。 In step S602, the motion vector calculation unit 301 arranges the reference block 702 of N × N pixels in the reference frame 701 as shown in FIG. 7.

ステップS603において、動きベクトル算出部301は、図7のように、参照フレーム703に対し、基準フレーム701の基準ブロック702の中心座標と同じ座標の点704の周囲の(N+n)×(N+n)画素を、探索範囲705として設定する。 In step S603, as shown in FIG. 7, the motion vector calculation unit 301 uses (N + n) × (N + n) pixels around the point 704 at the same coordinates as the center coordinates of the reference block 702 of the reference frame 701 with respect to the reference frame 703. Is set as the search range 705.

ステップS604において、動きベクトル算出部301は、参照フレーム703の探索範囲705内に存在するN×N画素の参照ブロック706を探索範囲705内で移動させながら、基準フレーム701の基準ブロック702との相関演算を行い、相関値を算出する。相関値は、基準ブロック702及び参照ブロック706の画素に対するフレーム間差分絶対値和に基づき算出する。つまり、フレーム間差分絶対値和の値が最も小さい座標が、最も相関値が高い座標となる。なお、相関値の算出方法は、フレーム間差分絶対値和を求める方法に限定されず、例えばフレーム間差分二乗和や正規相互相関値に基づく相関値を算出する方法でもよい。図7の例では、図7に示した参照ブロック706の位置が最も相関が高いことを示しているものとする。 In step S604, the motion vector calculation unit 301 correlates with the reference block 702 of the reference frame 701 while moving the reference block 706 of N × N pixels existing in the search range 705 of the reference frame 703 within the search range 705. Perform the calculation and calculate the correlation value. The correlation value is calculated based on the sum of the absolute values of the differences between frames for the pixels of the reference block 702 and the reference block 706. That is, the coordinate having the smallest value of the sum of the absolute values of the differences between frames is the coordinate having the highest correlation value. The method of calculating the correlation value is not limited to the method of obtaining the sum of the absolute values of the differences between frames, and may be, for example, a method of calculating the correlation value based on the sum of squares of the differences between frames or the normal cross-correlation value. In the example of FIG. 7, it is assumed that the position of the reference block 706 shown in FIG. 7 shows the highest correlation.

ステップS605において、動きベクトル算出部301は、ステップS604で求めた最も高い相関値を示す参照ブロックの座標に基づき動きベクトルを算出する。図7の例の場合、参照フレーム703の探索範囲705の中で、基準フレーム701の基準ブロック702の中心座標に対応した座標704と、参照ブロック706の中心座標とに基づき動きベクトルが求められる。つまり、座標704から参照ブロック706の中心座標までの座標間距離と方向が動きベクトルとして求められる。 In step S605, the motion vector calculation unit 301 calculates the motion vector based on the coordinates of the reference block showing the highest correlation value obtained in step S604. In the case of the example of FIG. 7, the motion vector is obtained based on the coordinates 704 corresponding to the center coordinates of the reference block 702 of the reference frame 701 and the center coordinates of the reference block 706 in the search range 705 of the reference frame 703. That is, the inter-coordinate distance and direction from the coordinates 704 to the center coordinates of the reference block 706 are obtained as motion vectors.

ステップS606において、動きベクトル算出部301は、基準フレーム701の全画素について動きベクトルを算出したか否かを判定する。動きベクトル算出部301は、ステップS606において全画素の動きベクトルを算出していないと判定した場合には、ステップS602に処理を戻す。そして、ステップS602では、動きベクトルが算出されていない画素を中心として前述した基準フレーム701にN×N画素の基準ブロック702が配置される。そして、以下前述同様に、ステップS603からステップS605の処理が行われる。すなわち、動きベクトル算出部301は、図7の基準ブロック702を移動させながら、ステップS602からステップS605までの処理を繰り返して、基準フレーム701の全画素の動きベクトルを算出する。 In step S606, the motion vector calculation unit 301 determines whether or not the motion vector has been calculated for all the pixels of the reference frame 701. When the motion vector calculation unit 301 determines in step S606 that the motion vectors of all the pixels have not been calculated, the process returns to step S602. Then, in step S602, the reference block 702 of N × N pixels is arranged in the reference frame 701 described above centering on the pixels for which the motion vector has not been calculated. Then, in the same manner as described above, the processes of steps S603 to S605 are performed. That is, the motion vector calculation unit 301 calculates the motion vector of all the pixels of the reference frame 701 by repeating the processes from step S602 to step S605 while moving the reference block 702 in FIG. 7.

動きベクトルの例を図5(b)、(c)に示す。図5(b)、(c)では、それぞれ、動きベクトルの方向が(b)右向き、(c)左向きの場合を例にとって図示している。図では、動きベクトルの方向が一定の場合で図示しているが、領域毎に動きベクトルの方向が異なる場合でも構わないことは言うまでもない。 Examples of motion vectors are shown in FIGS. 5 (b) and 5 (c). In FIGS. 5 (b) and 5 (c), the case where the motion vector directions are (b) rightward and (c) leftward, respectively, is shown as an example. In the figure, the direction of the motion vector is constant, but it goes without saying that the direction of the motion vector may be different for each region.

また、本実施形態での流し撮り補助表示においては、主被写体領域での動きブレの状態に着目しているため、背景領域における動きブレの補助表示は不要である。このため、算出した動きベクトルの絶対値が、カメラ動きベクトル算出部303が算出するカメラ本体の動きを表すカメラ動きベクトルの絶対値に比べて小さい領域にのみ、動きブレ報知を行うよう制御する場合を図示している。なお、動きブレ報知を行う対象領域の決定は、既知の方法を用いた主被写体判別を行い、動きベクトルの算出処理や動きブレ報知処理を、主被写体領域に対してのみ行うよう制御してもよい。 Further, in the panning auxiliary display in the present embodiment, since the state of the motion blur in the main subject area is focused on, the auxiliary display of the motion blur in the background region is unnecessary. Therefore, when the absolute value of the calculated motion vector is controlled to be notified only in a region smaller than the absolute value of the camera motion vector representing the motion of the camera body calculated by the camera motion vector calculation unit 303. Is illustrated. The target area for motion blur notification may be determined by discriminating the main subject using a known method, and controlling the motion vector calculation process and motion blur notification process so as to be performed only on the main subject area. Good.

ここで、理想通りの流し撮りができている場合、すなわち、主被写体の移動速度とカメラのパンニング速度とが完全に合致している場合には、主被写体である犬501の領域に対する動きベクトルの大きさはゼロとなる。しかし、実際には、被写体の移動速度に対して、カメラのパンニング速度が速すぎたり、遅すぎたりするために、主被写体に対して動きブレが生じてしまう場合がある。 Here, when the ideal panning shot is performed, that is, when the moving speed of the main subject and the panning speed of the camera are completely matched, the motion vector for the region of the dog 501, which is the main subject, The size is zero. However, in reality, the panning speed of the camera is too fast or too slow with respect to the moving speed of the subject, so that movement blurring may occur with respect to the main subject.

なお、動きベクトル算出部301は、全画素の動きベクトルを算出するのではなく、所定画素毎に動きベクトルを算出してもよい。 The motion vector calculation unit 301 may calculate the motion vector for each predetermined pixel instead of calculating the motion vector of all the pixels.

以上の処理により、動きベクトル算出部301は、時間的に隣接する準備撮影画像間における動きベクトルを算出する。以上、動きベクトル算出部301が動きベクトルを算出する処理について説明した。 Through the above processing, the motion vector calculation unit 301 calculates the motion vector between the preparatory captured images that are adjacent in time. The process of calculating the motion vector by the motion vector calculation unit 301 has been described above.

図4の説明に戻って、ステップS403において、換算動きブレ算出部302は、撮影条件(独立した撮影パラメータ)として、図2のステップS202で設定した本撮影の露光時間及び準備撮影における画像間の時間間隔を取得する。 Returning to the description of FIG. 4, in step S403, the conversion motion blur calculation unit 302 sets the shooting conditions (independent shooting parameters) between the exposure time of the main shooting and the images in the preparatory shooting set in step S202 of FIG. Get the time interval.

ステップS404において、換算動きブレ算出部302は、ステップS403で取得した本撮影の露光時間及び準備撮影における画像間の時間間隔に基づき、ステップS402で算出した画素毎の動きベクトルを本撮影の動きブレに換算する。 In step S404, the conversion motion blur calculation unit 302 calculates the motion vector for each pixel calculated in step S402 based on the exposure time of the main shooting and the time interval between the images in the preparatory shooting acquired in step S403. Convert to.

本撮影の動きブレに換算する方法について、図8を参照して説明する。図8は、準備撮影における動きベクトルと、本撮影の動きブレに換算した換算動きブレを示す図である。図8では、撮影条件として、準備撮影の画像間の時間間隔は1/60秒、本撮影の露光時間は1/120秒と1/30秒を例として示している。 A method of converting the motion blur of the main shooting will be described with reference to FIG. FIG. 8 is a diagram showing a motion vector in the preparatory shooting and a converted motion blur converted into a motion blur in the main shooting. In FIG. 8, as shooting conditions, the time interval between the images of the preparatory shooting is 1/60 second, and the exposure time of the main shooting is 1/120 second and 1/30 second as an example.

換算動きブレ算出部302は、式(1)及び式(2)に示すような換算式に基づき、画素毎の動きベクトルを本撮影の動きブレに換算する。 The conversion motion blur calculation unit 302 converts the motion vector for each pixel into the motion blur of the main shooting based on the conversion formulas shown in the equations (1) and (2).

CONV_GAIN=EXP_TIME/INT_TIME …式(1)
CONV_BLUR=VEC_LEN×CONV_GAIN …式(2)
ここで、式(1)において、CONV_GAINは準備撮影の動きベクトルを本撮影の動きベクトルに換算するための換算ゲインを示し、EXP_TIMEは本撮影の露光時間を示し、INT_TIMEは準備撮影の画像間の時間間隔を示す。また、式(2)において、CONV_BLURは本撮影の換算動きブレを示し、VEC_LENは準備撮影における動きベクトルの長さを示す。
CONV_GAIN = EXP_TIME / INT_TIME ... Equation (1)
CONV_BLUR = VEC_LEN x CONV_GAIN ... Equation (2)
Here, in the equation (1), CONV_GAIN indicates the conversion gain for converting the motion vector of the preparatory shooting into the motion vector of the main shooting, EXP_TIME indicates the exposure time of the main shooting, and INT_TIME indicates the interval between the images of the preparatory shooting. Indicates the time interval. Further, in the equation (2), CONV_BLUR indicates the converted motion blur of the main imaging, and VEC_LEN indicates the length of the motion vector in the preparatory imaging.

式(1)において、換算ゲインは本撮影の露光時間を準備撮影の画像間の時間間隔で除算することにより算出する。そして、式(2)において、本撮影の換算動きブレは、動きベクトルの長さに換算ゲインを乗算することにより算出する。 In equation (1), the conversion gain is calculated by dividing the exposure time of the main shooting by the time interval between the images of the preparatory shooting. Then, in the equation (2), the converted motion blur of the main shooting is calculated by multiplying the length of the motion vector by the converted gain.

具体的には、図8のように準備撮影における動きベクトルの長さが10画素の場合、本撮影の露光時間が1/120秒の換算動きブレは、換算ゲインが1/2倍になるため5画素となる。また、本撮影の露光時間が1/30秒の換算動きブレは、換算ゲインが2倍になるため20画素となる。 Specifically, when the length of the motion vector in the preparatory shooting is 10 pixels as shown in FIG. 8, the converted motion blur with the exposure time of 1/120 second in the main shooting is 1/2 times the converted gain. It becomes 5 pixels. Further, the conversion motion blur with an exposure time of 1/30 second in the main shooting is 20 pixels because the conversion gain is doubled.

図4のステップS405において、カメラ動きベクトル算出部303は、角速度センサー111から、撮像装置100の角速度情報を取得し、その結果を画像上の動き情報に変換して、撮像装置100の動いている方向を表すカメラ動きベクトルを算出する。角速度を画像上の動き情報に変換するための近似変換式を式(3)及び式(4)に示す。 In step S405 of FIG. 4, the camera motion vector calculation unit 303 acquires the angular velocity information of the image pickup device 100 from the angular velocity sensor 111, converts the result into motion information on the image, and moves the image pickup device 100. Calculate the camera motion vector that represents the direction. Equations (3) and (4) show approximate conversion equations for converting the angular velocity into motion information on the image.

MOV_yawはヨー方向の移動量を示し、MOV_pitchはピッチ方向の移動量を示す。また、fは焦点距離を示し、ω_yawはヨー方向の角速度を示し、ω_pitchはピッチ方向の角速度を示し、fpsは準備撮影のフレームレートを示し、ppは撮像部105の画素ピッチを示す。式(3)及び式(4)に示す変換式では、準備撮影における画像間の時間間隔で撮像装置100が移動した角度と焦点距離に基づき撮像面上の移動量を算出し、画素ピッチで除算することにより画像上の移動量(移動画素数)を算出している。なお、ここで算出した画像上の移動量は、画素毎に異なる移動量ではなく、全画素一様な移動量である。 MOV_yaw indicates the amount of movement in the yaw direction, and MOV_pitch indicates the amount of movement in the pitch direction. Further, f indicates the focal length, ω_yaw indicates the angular velocity in the yaw direction, ω_pitch indicates the angular velocity in the pitch direction, fps indicates the frame rate of preparatory shooting, and pp indicates the pixel pitch of the imaging unit 105. In the conversion formulas shown in the formulas (3) and (4), the amount of movement on the imaging surface is calculated based on the angle and focal length moved by the image pickup device 100 at the time interval between images in the preparatory shooting, and is divided by the pixel pitch. By doing so, the amount of movement (number of moving pixels) on the image is calculated. The movement amount on the image calculated here is not a movement amount different for each pixel, but a uniform movement amount for all pixels.

カメラ動きベクトル算出部303は、ヨー方向の移動量を水平方向の移動量、ピッチ方向の移動量を垂直方向の移動量とみなし、全画素一様のカメラ動きベクトルとして動きベクトル比較部304に出力する。 The camera motion vector calculation unit 303 regards the amount of movement in the yaw direction as the amount of movement in the horizontal direction and the amount of movement in the pitch direction as the amount of movement in the vertical direction, and outputs the camera motion vector to the motion vector comparison unit 304 as a uniform camera motion vector for all pixels. To do.

なお、カメラ動きベクトル算出部303は、背景領域における被写体の動きベクトルに基づいてカメラ動きベクトルを算出するようにしてもよい。すなわち、背景領域の被写体が静止していると見なすと、背景領域において算出された被写体の動きベクトルの始点と終点を逆転させたものが、カメラ動きベクトルに対応する。 The camera motion vector calculation unit 303 may calculate the camera motion vector based on the motion vector of the subject in the background region. That is, assuming that the subject in the background area is stationary, the motion vector of the subject calculated in the background area in which the start point and the end point are reversed corresponds to the camera motion vector.

図4のステップS406において、動きベクトル比較部304は、換算動きベクトル算出部302が算出した被写体の動きベクトルと、カメラ動きベクトル算出部303が算出したカメラ動きベクトルとの比較を行う。ここでの処理内容について、図5を用いて具体的に説明する。 In step S406 of FIG. 4, the motion vector comparison unit 304 compares the motion vector of the subject calculated by the conversion motion vector calculation unit 302 with the camera motion vector calculated by the camera motion vector calculation unit 303. The processing content here will be specifically described with reference to FIG.

図5(d)、(e)に示したのは、それぞれ、図5(b)、(c)に対応する動きベクトルの比較の方法を図示したものである。図5(d)、(e)において、502はカメラ動きベクトルを例示しており、503、504は、被写体の動きベクトルを例示している。動きベクトルの始点を揃えて図示した場合のベクトルの成す角をθで表す。なお、撮像装置の動きベクトル502はその大きさを所定の単位に正規化して図示しているものとする。本実施形態では、右から左へ走る犬に追従してカメラをパンニングしているため、カメラ動きベクトルは左向きである。 Figures 5 (d) and 5 (e) show the methods of comparing motion vectors corresponding to FIGS. 5 (b) and 5 (c), respectively. In FIGS. 5D and 5E, 502 exemplifies a camera motion vector, and 503 and 504 exemplify a motion vector of a subject. The angle formed by the vector when the start points of the motion vectors are aligned and shown is represented by θ. It is assumed that the motion vector 502 of the imaging device is illustrated by normalizing its magnitude to a predetermined unit. In this embodiment, since the camera is panned following the dog running from right to left, the camera motion vector is directed to the left.

次に、動きベクトルの比較によって、カメラのパンニング速度に対する判定を行う方法について説明する。 Next, a method of determining the panning speed of the camera by comparing the motion vectors will be described.

図5(b)では、主被写体である犬501が、図5(a)よりも右側にずれていることで示されている通り、カメラのパンニング速度が、主被写体の移動速度と合致する適切なパンニング速度よりも速い場合に対応している。この場合、図5(d)に示した通り、カメラ動きベクトル502と被写体の動きベクトル503とが反対方向(角度θの絶対値が90度より大きい)となる。 In FIG. 5 (b), the panning speed of the camera is appropriate to match the moving speed of the main subject, as shown by the fact that the dog 501, which is the main subject, is shifted to the right side of FIG. 5 (a). It corresponds to the case where it is faster than the simple panning speed. In this case, as shown in FIG. 5D, the camera motion vector 502 and the subject motion vector 503 are in opposite directions (the absolute value of the angle θ is larger than 90 degrees).

図5(c)では、主被写体である犬501が、図5(a)よりも左側にずれていることで示されている通り、カメラのパンニング速度が、主被写体の移動速度と合致する適切なパンニング速度よりも遅い場合に対応している。この場合、図5(e)に示した通り、カメラ動きベクトル502と被写体の動きベクトル503とが同方向(角度θの絶対値が90度より小さい)となる。 In FIG. 5 (c), the panning speed of the camera is appropriate to match the moving speed of the main subject, as shown by the fact that the dog 501, which is the main subject, is shifted to the left side of FIG. 5 (a). It corresponds to the case where the panning speed is slower than the normal panning speed. In this case, as shown in FIG. 5E, the camera motion vector 502 and the subject motion vector 503 are in the same direction (the absolute value of the angle θ is smaller than 90 degrees).

動きベクトル比較部304は、上記の比較処理を、主被写体領域に対応する被写体の動きベクトルに対して順次行い、比較結果(適切なパンニング速度よりも速いか、遅いか)を流し撮りブレ報知プレーン作成部305へ出力する。 The motion vector comparison unit 304 sequentially performs the above comparison process on the motion vector of the subject corresponding to the main subject area, and pans the comparison result (whether it is faster or slower than the appropriate panning speed). Output to the creation unit 305.

図4のステップS407において、動きブレ報知プレーン作成部305は、ステップS406において判定した動きベクトルの比較結果に基づき、動きブレを報知するための画像プレーンを作成する。 In step S407 of FIG. 4, the motion blur notification plane creation unit 305 creates an image plane for notifying the motion blur based on the comparison result of the motion vectors determined in step S406.

図4のステップS408において、画像重畳部306は、準備撮影画像にステップS407において作成した動きブレ報知プレーンを重畳し、動きブレ報知画像を生成する。 In step S408 of FIG. 4, the image superimposing unit 306 superimposes the motion blur notification plane created in step S407 on the preparatory captured image to generate a motion blur notification image.

ここで、動きブレ報知画像の生成方法について、図9を参照して説明する。図9では、動きブレの報知画像として2つの例を示している。 Here, a method of generating a motion blur notification image will be described with reference to FIG. FIG. 9 shows two examples of motion blur notification images.

図9(a)、(b)は、動きブレ枠表示により動きブレを報知する例を示しており、図9(a)、(b)は、それぞれ、図5(b)、(c)に対応している。 9 (a) and 9 (b) show an example of notifying the motion blur by displaying the motion blur frame, and FIGS. 9 (a) and 9 (b) are shown in FIGS. 5 (b) and 5 (c), respectively. It corresponds.

ここで、動きブレ枠表示による動きブレ報知画像の生成方法について説明する。動きブレ報知プレーン作成部305は、ステップS406における比較結果に基づいて、各分割領域に含まれる画素のうち、適切なパンニング速度よりも速いことを示す換算動きブレの画素数と、適切なパンニング速度よりも遅いことを示す換算動きブレの画素数とを比較する。動きブレ報知プレーン作成部305は、画素数の多い方の動きブレの状態を、その分割領域内での被写体動きブレの状態として判定し、その結果に基づいて、動きブレ枠901を作成する。すなわち、動きブレ枠は、適切なパンニング速度よりも速いか、遅いかによって表示様式を変える。例えば、図9(a)では、パンニング速度が、適切なパンニング速度よりも速いので、動きブレ枠を実線で表示する。また、図9(b)では、パンニング速度が、適切なパンニング速度よりも遅いので、動きブレ枠を点線で表示する。これらの表示により、ユーザーが現在のパンニング速度が速すぎるか、遅すぎるかを把握することができる。動きブレ報知プレーン作成部305は、動きブレ枠901を動きブレ報知プレーンとして作成し、準備撮影画像に重畳することにより図9(a)、(b)のような動きブレ報知画像を生成する。 Here, a method of generating a motion blur notification image by displaying a motion blur frame will be described. Based on the comparison result in step S406, the motion blur notification plane creation unit 305 determines the number of converted motion blur pixels indicating that the pixels included in each divided region are faster than the appropriate panning speed, and the appropriate panning speed. Compare with the number of pixels of conversion motion blur, which indicates that it is slower than. The motion blur notification plane creation unit 305 determines the state of the motion blur with the larger number of pixels as the state of the subject motion blur within the divided region, and creates the motion blur frame 901 based on the result. That is, the motion blur frame changes the display style depending on whether it is faster or slower than the appropriate panning speed. For example, in FIG. 9A, since the panning speed is faster than the appropriate panning speed, the motion blur frame is displayed as a solid line. Further, in FIG. 9B, since the panning speed is slower than the appropriate panning speed, the movement blur frame is displayed by a dotted line. These displays allow the user to know if the current panning speed is too fast or too slow. The motion blur notification plane creation unit 305 creates a motion blur notification plane 901 as a motion blur notification plane and superimposes it on the preparatory shooting image to generate motion blur notification images as shown in FIGS. 9A and 9B.

図9(c)、(d)は、動きブレが発生したエッジ(輪郭)を強調表示(表示形態)することにより動きブレを報知する例を示しており、図9(c)、(d)は、それぞれ、図5(b)、(c)に対応している。ここで、動きブレエッジの強調表示による動きブレ報知画像の生成方法について説明する。 9 (c) and 9 (d) show an example of notifying the motion blur by highlighting (displaying form) the edge (contour) in which the motion blur has occurred, and FIGS. 9 (c) and 9 (d) show the motion blur. Corresponds to FIGS. 5 (b) and 5 (c), respectively. Here, a method of generating a motion blur notification image by highlighting the motion blur edge will be described.

動きブレ報知プレーン作成部305は、準備撮影画像のエッジ強度を検出する。エッジ強度の算出は、ソーベルフィルタなどの既存の方法を用いるものとし、説明は省略する。そして、動きブレ報知プレーン作成部305は、エッジ強度が所定値以上、且つ、換算動きブレが所定値以上の画素を抽出する。抽出した画素に対して、図9(c)、(d)の902に示すように動きブレエッジを強調表示するような動きブレ報知プレーンを作成し、準備撮影画像に重畳することにより図9(c)のような動きブレ報知画像を生成する。図9(c)の902の例では、動きブレエッジを太くする例を示している。 The motion blur notification plane creation unit 305 detects the edge intensity of the preparatory captured image. The edge strength is calculated by using an existing method such as a sobel filter, and the description thereof will be omitted. Then, the motion blur notification plane creating unit 305 extracts pixels having an edge strength of a predetermined value or more and a converted motion blur of a predetermined value or more. As shown in 902 of FIGS. 9 (c) and 9 (d), a motion blur notification plane for highlighting the motion blur edge is created for the extracted pixels, and the motion blur notification plane is superimposed on the preparatory photographed image to obtain FIG. 9 (c). ) To generate a motion blur notification image. In the example of 902 of FIG. 9C, an example of thickening the motion blur edge is shown.

加えて、動きブレ報知プレーン作成部305は、ステップS406における比較結果に基づいて、対象画素の動きブレの状態が、適切なパンニング速度よりも速いことを示すか、適切なパンニング速度よりも遅いことを示すかを判定し、その結果に応じてエッジ強調の強調度合いを変える。例えば、図9(c)では、パンニング速度が、適切なパンニング速度よりも速いので、動きブレエッジを実線で太く表示する。また、図9(d)では、パンニング速度が、適切なパンニング速度よりも遅いので、動きブレエッジを点線で太く表示する。 In addition, the motion blur notification plane creation unit 305 indicates that the motion blur state of the target pixel is faster than the appropriate panning speed or slower than the appropriate panning speed based on the comparison result in step S406. Is determined, and the degree of emphasis of edge enhancement is changed according to the result. For example, in FIG. 9C, since the panning speed is faster than the appropriate panning speed, the motion blur edge is displayed thick with a solid line. Further, in FIG. 9D, since the panning speed is slower than the appropriate panning speed, the motion blur edge is displayed thick with a dotted line.

強調表示方法の他の例としては、エッジ強度が所定値以上、且つ、換算動きブレが所定値以上の画素を抽出し、抽出した画素を着色するような強調表示が挙げられる。この場合、動きベクトルの比較結果に基づいて、パンニング速度が適正値より速いか遅いかで、色を変えて着色するようにすればよい。 As another example of the highlighting method, there is a highlighting method in which pixels having an edge intensity of a predetermined value or more and a conversion motion blur of a predetermined value or more are extracted and the extracted pixels are colored. In this case, based on the comparison result of the motion vectors, the color may be changed depending on whether the panning speed is faster or slower than the appropriate value.

以上、動きブレ報知画像生成部300が動きブレ報知画像を生成する処理について説明した。 The process of generating the motion blur notification image by the motion blur notification image generation unit 300 has been described above.

本実施形態では、動きブレ報知の方法として、動きブレ枠表示、動きブレエッジの強調表示の2つの例について説明したが、動きブレ報知の方法はこれに限られるものではない。例えば、平坦な領域も含め、動きブレが発生している領域を強調表示してもよい。具体的には、動きブレ報知プレーン作成部305は、画素毎の換算動きブレが所定値以上の画素を、動きブレの方向に応じて色を変えて塗るような強調表示を行う。このようにエッジ領域だけではなく、エッジ領域以外の領域も強調表示を行うことにより、被写体全体が強調表示されるため、より動きブレを確認しやすくなる。 In the present embodiment, two examples of motion blur frame display and motion blur edge highlighting have been described as motion blur notification methods, but the motion blur notification method is not limited to this. For example, an area where motion blur occurs may be highlighted, including a flat area. Specifically, the motion blur notification plane creation unit 305 highlights pixels whose converted motion blur for each pixel is equal to or greater than a predetermined value, in which the color is changed according to the direction of the motion blur. By highlighting not only the edge region but also the region other than the edge region in this way, the entire subject is highlighted, so that it becomes easier to confirm the movement blur.

また、動きブレ報知の方法として、カメラの動きベクトルの方向と被写体の動きベクトルの方向とが所定の角度以上異なる領域に対しては、動きブレ報知を行わないよう制御してもよい。このようにすることで、走っている人物の胴体と手足のように、領域間で動きの方向の異なる被写体に対して流し撮りを行う際に、撮影者が着目してカメラを追従させている領域のみに動きブレ報知が表示されるようになり、撮影者が着目領域の動きブレを確認しやすくなる。 Further, as a method of motion blur notification, it may be controlled so that motion blur notification is not performed in a region where the direction of the motion vector of the camera and the direction of the motion vector of the subject are different by a predetermined angle or more. By doing so, the photographer pays attention to the camera when taking a panning shot of a subject whose movement direction is different between regions, such as the torso and limbs of a running person. The motion blur notification is displayed only in the area, which makes it easier for the photographer to check the motion blur in the area of interest.

本実施形態では、動きブレの報知方法として、表示部109に動きブレを報知する表示を行う例について説明したが、動きブレの報知方法はこれに限られるものではない。例えば、音により動きブレを報知してもよい。具体的には、画素毎の換算動きブレのうち、所定値以上の換算動きブレを示す画素数が画面全体に占める割合が所定割合以上の場合に、動きブレ報知音を発生させる。加えて、動きブレの方向の比較結果に基づいて、発生させる報知音を変えるようにする。 In the present embodiment, as a method of notifying the motion blur, an example of displaying the motion blur to be notified to the display unit 109 has been described, but the method of notifying the motion blur is not limited to this. For example, motion blur may be notified by sound. Specifically, the motion blur notification sound is generated when the ratio of the number of pixels showing the converted motion blur of a predetermined value or more to the entire screen is equal to or more than the predetermined ratio among the converted motion blurs for each pixel. In addition, the notification sound to be generated is changed based on the comparison result of the direction of motion blur.

(第2の実施形態)
以下、図10を用いて、本発明の第2の実施形態の撮像装置について説明する。第1の実施形態では、被写体の動きベクトルと、カメラ本体の動きベクトルとの方向を比較することによって、動きブレの報知を制御する場合について説明した。これに対し、第2の実施形態では、被写体の動きベクトルの方向に基づいて、動きブレの報知を制御する場合について説明する。なお、第1の実施形態と同じ機能を有する要素には第1の実施形態と同じ符号を付し、説明を省略する。
(Second Embodiment)
Hereinafter, the imaging device according to the second embodiment of the present invention will be described with reference to FIG. In the first embodiment, a case where the notification of motion blur is controlled by comparing the directions of the motion vector of the subject and the motion vector of the camera body has been described. On the other hand, in the second embodiment, a case where the notification of the motion blur is controlled based on the direction of the motion vector of the subject will be described. Elements having the same functions as those of the first embodiment are designated by the same reference numerals as those of the first embodiment, and the description thereof will be omitted.

図10は、第2の実施形態における動きブレ報知画像生成部300の構成を示す図である。動きブレ報知画像生成部300は、動きベクトル算出部301、換算動きブレ算出部302、動きブレ報知プレーン作成部305、画像重畳部306を備える。第1の実施形態における図3に示した構成と比べて、カメラの動き情報を取得するための構成が除かれている点が異なる。 FIG. 10 is a diagram showing the configuration of the motion blur notification image generation unit 300 in the second embodiment. The motion blur notification image generation unit 300 includes a motion vector calculation unit 301, a conversion motion blur calculation unit 302, a motion blur notification plane creation unit 305, and an image superimposition unit 306. Compared with the configuration shown in FIG. 3 in the first embodiment, the configuration for acquiring camera motion information is excluded.

撮像装置100の処理フローは、図2に示した第1の実施形態の場合と同様であるため、説明は省略する。ただし、動きブレ報知画像生成部300が動きブレ報知画像を生成する処理内容が第1の実施形態の場合とは異なるため、その内容について説明する。 Since the processing flow of the image pickup apparatus 100 is the same as that of the first embodiment shown in FIG. 2, the description thereof will be omitted. However, since the processing content of the motion blur notification image generation unit 300 to generate the motion blur notification image is different from that of the first embodiment, the content will be described.

図11は、動きブレ報知画像生成部300が動きブレ報知画像を生成する処理のフローチャートである。図11のステップS1101〜ステップS1104の各ステップにおける処理は、第1の実施形態での図4のステップS401〜ステップS404の各ステップにおける処理内容と同様であるため、説明は省略する。 FIG. 11 is a flowchart of a process in which the motion blur notification image generation unit 300 generates a motion blur notification image. Since the processing in each step of steps S1101 to S1104 of FIG. 11 is the same as the processing content in each step of steps S401 to S404 of FIG. 4 in the first embodiment, the description thereof will be omitted.

図11のステップS1105において、動きブレ報知プレーン作成部305は、ステップS1104で算出した動きベクトルの方向に基づいて、動きブレを報知するための画像プレーンを作成する。 In step S1105 of FIG. 11, the motion blur notification plane creation unit 305 creates an image plane for notifying the motion blur based on the direction of the motion vector calculated in step S1104.

ステップS1106において、画像重畳部306は、準備撮影画像にステップS1105において作成した動きブレ報知プレーンを重畳し、動きブレ報知画像を生成する。 In step S1106, the image superimposing unit 306 superimposes the motion blur notification plane created in step S1105 on the preparatory shooting image to generate a motion blur notification image.

ここで、動きブレ報知画像の生成方法について、図12を参照して説明する。図12(a)、(b)は、本実施形態における準備撮影画像と、算出した動きベクトルを例示している。図示した通り、主被写体の部分領域毎に動きベクトルの方向が異なる場合を例にとっている。 Here, a method of generating a motion blur notification image will be described with reference to FIG. 12 (a) and 12 (b) exemplify the preparatory photographed image and the calculated motion vector in the present embodiment. As shown in the figure, the case where the direction of the motion vector is different for each partial region of the main subject is taken as an example.

図12(c)は、動きブレ枠表示により動きブレを報知する例を示す。ここで、動きブレ枠表示による動きブレ報知画像の生成方法について説明する。ステップS1105において、動きブレ報知プレーン作成部305は、分割領域内の画素毎の換算動きブレのうち、所定値以上の換算動きブレを示す画素数が分割領域全体に占める割合を算出する。その割合が所定割合以上の分割領域に対して、図12(c)に示すような動きブレ枠1201を動きブレ報知プレーンとして作成する。ただし、動きブレ報知プレーン作成部305は、動きブレの方向に応じて、動きブレ枠の表示様式を変える。具体的には、動きブレ報知プレーン作成部305は、分割領域内の画素毎の換算動きブレのうち、所定値以上の換算動きブレに対して、動きブレの方向(動きベクトルの方向)の平均値を算出し、その平均値に基づいて動きブレ報知の表示様式を決定する。例えば、図9(c)では、動きブレ方向が水平方向である場合に動きブレ枠を実線で、それ以外の方向である場合に動きブレ枠を点線で表示している。 FIG. 12C shows an example of notifying the motion blur by displaying the motion blur frame. Here, a method of generating a motion blur notification image by displaying a motion blur frame will be described. In step S1105, the motion blur notification plane creation unit 305 calculates the ratio of the number of pixels showing the converted motion blur of a predetermined value or more to the entire divided region among the converted motion blurs for each pixel in the divided region. A motion blur frame 1201 as shown in FIG. 12C is created as a motion blur notification plane for a divided region having a ratio of a predetermined ratio or more. However, the motion blur notification plane creation unit 305 changes the display style of the motion blur frame according to the direction of the motion blur. Specifically, the motion blur notification plane creation unit 305 averages the motion blur directions (directions of the motion vectors) with respect to the converted motion blurs of a predetermined value or more among the converted motion blurs for each pixel in the divided area. The value is calculated, and the display format of the motion blur notification is determined based on the average value. For example, in FIG. 9C, the movement blur frame is displayed by a solid line when the movement blur direction is the horizontal direction, and the movement blur frame is displayed by a dotted line when the movement blur direction is in any other direction.

図12(d)は、動きブレが発生したエッジを強調表示することにより動きブレを報知する例を示す。ここで、動きブレエッジの強調表示による動きブレ報知画像の生成方法について説明する。ステップS1105において、動きブレ報知プレーン作成部305は、準備撮影画像のエッジ強度を検出する。エッジ強度の算出は、ソーベルフィルタなどの既存の方法を用いるものとし、説明は省略する。そして、動きブレ報知プレーン作成部305は、エッジ強度が所定値以上、且つ、換算動きブレが所定値以上の画素を抽出する。抽出した画素に対して、図12(d)の1202に示すように動きブレエッジを強調表示するような動きブレ報知プレーンを作成し、準備撮影画像に重畳することにより図12(d)のような動きブレ報知画像を生成する。 FIG. 12D shows an example of notifying the motion blur by highlighting the edge where the motion blur has occurred. Here, a method of generating a motion blur notification image by highlighting the motion blur edge will be described. In step S1105, the motion blur notification plane creation unit 305 detects the edge intensity of the preparatory photographed image. The edge strength is calculated by using an existing method such as a sobel filter, and the description thereof will be omitted. Then, the motion blur notification plane creating unit 305 extracts pixels having an edge strength of a predetermined value or more and a converted motion blur of a predetermined value or more. For the extracted pixels, as shown in 1202 of FIG. 12 (d), a motion blur notification plane that highlights the motion blur edge is created, and by superimposing it on the preparatory photographed image, as shown in FIG. 12 (d). Generates a motion blur notification image.

ただし、動きブレ報知プレーン作成部305は、対象画素の動きブレの方向に応じて、エッジの強調表示の表示様式を変える。例えば、図12(d)の例では、動きブレ方向が水平方向である場合にエッジの強調表示を実線で、それ以外の方向である場合にエッジの強調表示を点線で表示している。 However, the motion blur notification plane creation unit 305 changes the display style of edge highlighting according to the direction of motion blur of the target pixel. For example, in the example of FIG. 12D, the edge highlighting is displayed with a solid line when the movement blur direction is the horizontal direction, and the edge highlighting is displayed with a dotted line when the movement blur direction is in the other direction.

強調表示方法の他の例としては、エッジ強度が所定値以上、且つ、換算動きブレが所定値以上の画素を抽出し、抽出した画素を赤色や青色などの強調表示色で塗るような強調表示が挙げられる。この場合においても、動きブレの方向に応じて、強調表示色を変える。例えば、水平方向の動きブレであれば赤色、垂直方向の動きブレであれば青色で着色するように制御する。また、動きベクトルの角度を所定の区間(例えば30度毎)に分割し、分割した区間毎に着色する色を予め設定しておき、動きベクトルの方向に応じて予め設定した色で着色するようにしてもよい。 As another example of the highlighting method, pixels having an edge strength of a predetermined value or more and a conversion motion blur of a predetermined value or more are extracted, and the extracted pixels are painted with a highlighting color such as red or blue. Can be mentioned. Also in this case, the highlighting color is changed according to the direction of motion blur. For example, control is performed so that the movement blur in the horizontal direction is colored in red, and the movement blur in the vertical direction is colored in blue. Further, the angle of the motion vector is divided into predetermined sections (for example, every 30 degrees), the color to be colored is set in advance for each divided section, and the color is colored with the preset color according to the direction of the motion vector. It may be.

以上、本実施形態における動きブレ報知画像の生成方法について説明した。このように、動きブレの方向に基づいて、動きブレの報知表示を制御することにより、ユーザーは被写体の動きブレが所望の状態となっているかを簡単に確認することができる。例えば、流し撮りの場合にカメラのパンニング方向とは異なる方向の動きブレが検出された場合には、手振れなどの影響が有ることを確認することができる。また、被写体の部分領域毎に動きブレの方向が異なる場合に、ユーザーの着目領域における動きブレの方向を確認することができる。 The method of generating the motion blur notification image in the present embodiment has been described above. In this way, by controlling the notification display of the motion blur based on the direction of the motion blur, the user can easily confirm whether the motion blur of the subject is in a desired state. For example, in the case of panning, when motion blur in a direction different from the panning direction of the camera is detected, it can be confirmed that there is an influence such as camera shake. Further, when the direction of motion blur is different for each partial region of the subject, the direction of motion blur in the region of interest of the user can be confirmed.

(第3の実施形態)
以下、本発明の第3の実施形態について説明する。本実施形態は、準備撮影中において、画像から算出した動き情報を本撮影相当の動きブレに換算し、動きブレの報知を行う。
(Third Embodiment)
Hereinafter, a third embodiment of the present invention will be described. In the present embodiment, during the preparatory shooting, the motion information calculated from the image is converted into the motion blur equivalent to the main shooting, and the motion blur is notified.

本実施形態における撮像装置の構成及びその全体動作は、図1、図2に示した第1の実施形態の撮像装置100の構成及び全体動作と同様であるため、説明を省略する。 Since the configuration of the image pickup apparatus and the overall operation thereof in the present embodiment are the same as the configuration and overall operation of the image pickup apparatus 100 of the first embodiment shown in FIGS. 1 and 2, the description thereof will be omitted.

図13は、画像処理部107が備える動きブレ報知画像生成部1300の構成を示す図である。図13において、動きブレ報知画像生成部1300は、動きベクトル算出部1301、画像動き情報変換部1302、領域分割部1303、第1領域換算動きブレ算出部1304、第2領域換算動きブレ算出部1305、第1領域動きブレ報知プレーン作成部1306、第2領域動きブレ報知プレーン作成部1307、画像重畳部1308を備える。 FIG. 13 is a diagram showing a configuration of a motion blur notification image generation unit 1300 included in the image processing unit 107. In FIG. 13, the motion blur notification image generation unit 1300 includes a motion vector calculation unit 1301, an image motion information conversion unit 1302, a region division unit 1303, a first region conversion motion blur calculation unit 1304, and a second region conversion motion blur calculation unit 1305. The first region motion blur notification plane creation unit 1306, the second region motion blur notification plane creation unit 1307, and the image superimposition unit 1308 are provided.

次に、このように構成される動きブレ報知画像生成部1300の動作について説明する。図14は、動きブレ報知画像生成部1300が動きブレ報知画像を生成する処理を示すフローチャートである。 Next, the operation of the motion blur notification image generation unit 1300 configured as described above will be described. FIG. 14 is a flowchart showing a process in which the motion blur notification image generation unit 1300 generates a motion blur notification image.

図14のステップS1401において、動きブレ報知画像生成部1300には、撮像装置100が準備撮影中に撮像した準備撮影画像が入力される。本実施形態では、図15に示すように左に走る走者1501を流し撮りする例について説明する。図15(a)は流し撮りの成功例を示す図である。走者1501にブレは確認できず、背景領域にはカメラワークによるブレが確認できる。図15(b)は走者1501にブレが残ってしまった流し撮りの失敗例を示す図である。また、図15(c)は本撮影よりも短秒露光時間で撮影した撮影準備画像を示す。 In step S1401 of FIG. 14, the preparatory shooting image captured by the imaging device 100 during the preparatory shooting is input to the motion blur notification image generation unit 1300. In this embodiment, an example of panning a runner 1501 running to the left as shown in FIG. 15 will be described. FIG. 15A is a diagram showing a successful example of panning. No blurring can be confirmed in the runner 1501, and blurring due to camera work can be confirmed in the background area. FIG. 15B is a diagram showing a failure example of panning shot in which blur remains in the runner 1501. Further, FIG. 15C shows a shooting preparation image taken with a shorter exposure time than the main shooting.

ステップS1402において、動きブレ報知画像生成部1300の動きベクトル算出部1301は、動き情報として準備撮影画像の画像間における動きベクトルを算出する。動きベクトルとは、準備撮影画像の画像間における被写体の水平方向の移動量と垂直方向の移動量をベクトルとして表したものである。動きベクトル算出部1301における動きベクトルの算出方法は、図6、図7を用いて前述した第1の実施形態における算出方法と同様であるため、説明を省略する。 In step S1402, the motion vector calculation unit 1301 of the motion blur notification image generation unit 1300 calculates the motion vector between the images of the preparatory captured image as motion information. The motion vector represents the amount of movement of the subject in the horizontal direction and the amount of movement in the vertical direction between the images of the preparatory shot image as a vector. Since the motion vector calculation method in the motion vector calculation unit 1301 is the same as the calculation method in the first embodiment described above with reference to FIGS. 6 and 7, the description thereof will be omitted.

ここで、図15(c)のように被写体が移動している場合の動きベクトルの代表例を図15(d)に示す。図15(d)の例では、走っている走者1501は左方向の動きベクトルとして検出され、それ以外の背景はカメラワークによるカメラの動き方向とは逆の右方向の動きベクトルとして検出される。 Here, a representative example of the motion vector when the subject is moving as shown in FIG. 15 (c) is shown in FIG. 15 (d). In the example of FIG. 15D, the running runner 1501 is detected as a motion vector in the left direction, and the other background is detected as a motion vector in the right direction opposite to the movement direction of the camera by the camera work.

図14のステップS1403において、画像動き情報変換部1302は、角速度センサー111が検出した角速度情報を画像上の動き情報に変換する。角速度を画像上の動き情報に変換するための近似変換式は、第1の実施形態で前述した式(3)及び式(4)と同じである。 In step S1403 of FIG. 14, the image motion information conversion unit 1302 converts the angular velocity information detected by the angular velocity sensor 111 into motion information on the image. The approximate conversion formula for converting the angular velocity into motion information on the image is the same as the formulas (3) and (4) described above in the first embodiment.

画像動き情報変換部1302は、式(3)及び式(4)により算出されたヨー方向の移動量を水平方向の移動量、ピッチ方向の移動量を垂直方向の移動量とみなし、全画素一様の動きベクトルとして領域分割部1303に出力する。 The image motion information conversion unit 1302 regards the amount of movement in the yaw direction calculated by the equations (3) and (4) as the amount of movement in the horizontal direction and the amount of movement in the pitch direction as the amount of movement in the vertical direction, and all pixels are one. It is output to the area division unit 1303 as a motion vector like this.

図14のステップS1404において、動きベクトル算出部1301で算出した画素毎の動きベクトルと、画像動き情報変換部1302で算出した全画素一様の動きベクトルを用いて画像の領域を分割する。 In step S1404 of FIG. 14, the image region is divided by using the motion vector for each pixel calculated by the motion vector calculation unit 1301 and the motion vector uniform for all pixels calculated by the image motion information conversion unit 1302.

画像分割の方法について図16を参照して説明する。図16は横軸が動きベクトルの絶対値、縦軸が頻度を示しており、動きベクトル算出部1301で算出した画素毎の動きベクトルの絶対値毎の頻度を示すヒストグラムである。画像動き情報変換部1302で算出した全画素一様の動きベクトルの絶対値(画像動きベクトル絶対値)から所定の値WIDTHだけ差し引いた値を領域分割閾値とする。領域分割閾値以下の動きベクトル絶対値を有する画素を第1領域、領域分割閾値以上の動きベクトル絶対値を有する画素を第2領域として、それぞれの動きベクトルを第1領域換算動きブレ算出部1304と第2領域換算動きブレ算出部1305に出力する。 The method of image division will be described with reference to FIG. In FIG. 16, the horizontal axis represents the absolute value of the motion vector and the vertical axis represents the frequency, and is a histogram showing the frequency of each absolute value of the motion vector for each pixel calculated by the motion vector calculation unit 1301. The area division threshold value is obtained by subtracting a predetermined value WIDTH from the absolute value (absolute value of the image motion vector) of the motion vector uniform for all pixels calculated by the image motion information conversion unit 1302. The pixel having the absolute value of the motion vector equal to or less than the region division threshold is set as the first region, the pixel having the absolute value of the motion vector equal to or higher than the region division threshold is set as the second region, and each motion vector is referred to as the first region conversion motion blur calculation unit 1304. It is output to the second area conversion motion blur calculation unit 1305.

ここで、所定の値WIDTHは撮影者が定めた固定値でもよいし、画像動きベクトル絶対値の周囲のヒストグラムの分布に基づいて設定してもよい。例えば、第2の領域の動きベクトル絶対値の平均値が画像動きベクトル絶対値になるようなWIDTHの設定をしてもよい。また、図16の横軸を動きベクトルの絶対値としたが、ある方向のみに着目したい場合、横軸をある方向の単位ベクトルと動きベクトルの内積値としてもよい。例えば水平左向きの方向(−1,0)のみに注目したい場合、動きベクトル算出部1301で求めた各画素の動きベクトル(x,y)と(−1,0)の内積値と、画像動き情報変換部1302で算出した全画素一様の動きベクトル(x’,y’)と(−1,0)の内積値を用いてもよい。 Here, the predetermined value WIDTH may be a fixed value determined by the photographer, or may be set based on the distribution of the histogram around the absolute value of the image motion vector. For example, WIDTH may be set so that the average value of the absolute value of the motion vector in the second region becomes the absolute value of the image motion vector. Further, although the horizontal axis of FIG. 16 is the absolute value of the motion vector, if it is desired to pay attention only to a certain direction, the horizontal axis may be the inner product value of the unit vector and the motion vector in a certain direction. For example, when it is desired to pay attention only to the horizontal left direction (-1,0), the inner product value of the motion vector (x, y) and (-1,0) of each pixel obtained by the motion vector calculation unit 1301 and the image motion information. The inner product value of the motion vector (x', y') and (-1,0), which is uniform for all pixels, calculated by the conversion unit 1302 may be used.

図14のステップS1405において、第1領域換算動きブレ算出部1304、第2領域換算動きブレ算出部1305は、撮影条件として、図2のステップS202で設定した本撮影の露光時間及び準備撮影における画像間の時間間隔を取得する。 In step S1405 of FIG. 14, the first area conversion motion blur calculation unit 1304 and the second area conversion motion blur calculation unit 1305 set the exposure time of the main shooting and the image in the preparatory shooting set in step S202 of FIG. 2 as shooting conditions. Get the time interval between.

ステップS1406において、第1領域換算動きブレ算出部1304、第2領域換算動きブレ算出部1305は、ステップS1403で取得した本撮影の露光時間及び準備撮影における画像間の時間間隔に基づき、ステップS1402で算出した画素毎の動きベクトルを本撮影の動きブレに換算する。本撮影の動きブレに換算する方法は、第1の実施形態において、図8を用いて算出した方法と同様である。つまり、前述した式(1)、式(2)を用いて、CONV_BLURを算出する。 In step S1406, the first area conversion motion blur calculation unit 1304 and the second area conversion motion blur calculation unit 1305 are performed in step S1402 based on the exposure time of the main shooting and the time interval between the images in the preparatory shooting acquired in step S1403. The calculated motion vector for each pixel is converted into the motion blur of the main shooting. The method of converting to the motion blur of the main shooting is the same as the method calculated using FIG. 8 in the first embodiment. That is, CONV_BLUR is calculated using the above-mentioned equations (1) and (2).

ステップS1407において、第1領域動きブレ報知プレーン作成部1306、第2領域動きブレ報知プレーン作成部1307は、ステップS1404において算出した画素毎の換算動きブレに基づき、動きブレを報知するための画像プレーンを作成する。 In step S1407, the first region motion blur notification plane creation unit 1306 and the second region motion blur notification plane creation unit 1307 are image planes for notifying the motion blur based on the converted motion blur for each pixel calculated in step S1404. To create.

ステップS1408において、画像重畳部1308は、準備撮影画像にステップS1407において作成した動きブレ報知プレーンを重畳し、動きブレ報知画像を生成する。 In step S1408, the image superimposing unit 1308 superimposes the motion blur notification plane created in step S1407 on the preparatory captured image to generate the motion blur notification image.

ここで、動きブレ報知画像の生成方法について、図17を参照して説明する。図17は、動きブレ報知画像として3つの例を示している。準備撮影中に動きブレ報知画像を表示部109に表示することにより、ユーザーは動きブレを容易に確認することができる。さらに、ユーザーは領域分割部1303で分割した領域それぞれに報知画像を生成するか、どちらか一方にのみ報知画像を生成するかを選ぶことができる。それぞれに報知画像を生成する場合、報知画像の色や大きさや向きを変えて区別することにより、ユーザーは異なる動きをする領域毎にブレの程度を容易に確認することができる。 Here, a method of generating a motion blur notification image will be described with reference to FIG. FIG. 17 shows three examples as motion blur notification images. By displaying the motion blur notification image on the display unit 109 during the preparatory shooting, the user can easily confirm the motion blur. Further, the user can select whether to generate the broadcast image in each of the regions divided by the region division unit 1303, or to generate the broadcast image in only one of the regions. When generating a broadcast image for each, the user can easily check the degree of blurring for each region that moves differently by distinguishing the broadcast images by changing the color, size, and orientation of the broadcast images.

図17(a)は、アイコン表示により動きブレを報知する例を示す。ここで、アイコン表示による動きブレ報知画像の生成方法について説明する。ステップS1408において、第1領域動きブレ報知プレーン作成部1306、第2領域動きブレ報知プレーン作成部1307は、画素毎の換算動きブレのうちそれぞれ異なる所定の範囲内の換算動きブレを示す画素数が画面全体に占める割合を算出する。その割合がそれぞれ所定割合以上の場合に、図17(a)に示すような動きブレアイコン1001を第1領域動きブレ報知プレーンとして作成し、動きブレアイコン1002を第2領域動きブレ報知プレーンとして作成する。そして、準備撮影画像に重畳することにより図17(a)のような動きブレ報知画像を生成する。 FIG. 17A shows an example in which motion blur is notified by displaying an icon. Here, a method of generating a motion blur notification image by displaying an icon will be described. In step S1408, the first region motion blur notification plane creation unit 1306 and the second region motion blur notification plane creation unit 1307 have a number of pixels indicating conversion motion blur within a predetermined range, which is different from the conversion motion blur for each pixel. Calculate the percentage of the entire screen. When the ratios are equal to or more than a predetermined ratio, the motion blur icon 1001 as shown in FIG. 17A is created as the first region motion blur notification plane, and the motion blur icon 1002 is created as the second region motion blur notification plane. To do. Then, by superimposing it on the preparatory photographed image, a motion blur notification image as shown in FIG. 17A is generated.

図17(b)は、動きブレ枠表示により動きブレを報知する例を示す。ここで、動きブレ枠表示による動きブレ報知画像の生成方法について説明する。ステップS1408において、第1領域動きブレ報知プレーン作成部1306、第2領域動きブレ報知プレーン作成部1307は、画素毎の換算動きブレのうちそれぞれ異なる所定の範囲内の換算動きブレを示す画素数が画面全体に占める割合を算出する。その割合がそれぞれ所定割合以上の分割領域に対して、図17(b)に示すような動きブレ枠1003を第1領域動きブレ報知プレーンとして作成し、動きブレ枠1004を動き第2領域ブレ報知プレーンとして作成する。そして、準備撮影画像に重畳することにより図17(b)のような動きブレ報知画像を生成する。 FIG. 17B shows an example of notifying the motion blur by displaying the motion blur frame. Here, a method of generating a motion blur notification image by displaying a motion blur frame will be described. In step S1408, the first region motion blur notification plane creation unit 1306 and the second region motion blur notification plane creation unit 1307 have a number of pixels indicating conversion motion blur within a predetermined range, which is different from the conversion motion blur for each pixel. Calculate the percentage of the entire screen. A motion blur frame 1003 as shown in FIG. 17B is created as a first region motion blur notification plane, and a motion blur frame 1004 is used as a motion second region blur notification for each of the divided regions having a ratio of a predetermined ratio or more. Create as a plane. Then, by superimposing it on the preparatory photographed image, a motion blur notification image as shown in FIG. 17B is generated.

図17(c)は、動きブレが発生したエッジを強調表示することにより動きブレを報知する例を示す。ここで、動きブレエッジの強調表示による動きブレ報知画像の生成方法について説明する。ステップS1408において、第1領域動きブレ報知プレーン作成部1306、第2領域動きブレ報知プレーン作成部1307は、準備撮影画像のそれぞれの領域においてエッジ強度を検出する。エッジ強度の算出は、ソーベルフィルタなどの既存の方法を用いるものとし、説明は省略する。そして、第1領域動きブレ報知プレーン作成部1306、第2領域動きブレ報知プレーン作成部1307は、それぞれのエッジ強度が所定値以上、且つ、換算動きブレが所定値以上の画素を抽出する。抽出した画素に対して、図17(c)の1005に示すような第1領域動きブレエッジ強調線、1006に示すような第2領域動きブレエッジ強調線を、それぞれ第1領域ブレ報知プレーン、第2領域ブレ報知プレーンとして作成する。この第1領域ブレ報知プレーン、第2領域ブレ報知プレーンを準備撮影画像に重畳することにより図17(c)のような動きブレ報知画像を生成する。図17(c)の例では、動きブレエッジの色の濃さを変える例を示している。強調表示する方法の他の例としては、第1領域と第2領域のそれぞれにおいて、それぞれエッジ強度が所定値以上、且つ、換算動きブレが所定値以上の画素を抽出し、抽出した画素をそれぞれ赤と青に塗るような強調表示や、太さを変える強調表示などが挙げられる。 FIG. 17C shows an example of notifying the motion blur by highlighting the edge where the motion blur has occurred. Here, a method of generating a motion blur notification image by highlighting the motion blur edge will be described. In step S1408, the first region motion blur notification plane creation unit 1306 and the second region motion blur notification plane creation unit 1307 detect edge intensities in each region of the preparatory photographed image. The edge strength is calculated by using an existing method such as a sobel filter, and the description thereof will be omitted. Then, the first region motion blur notification plane creation unit 1306 and the second region motion blur notification plane creation unit 1307 extract pixels whose edge intensities are equal to or greater than a predetermined value and whose converted motion blur is equal to or greater than a predetermined value. For the extracted pixels, the first region motion blur edge emphasis line as shown in 1005 of FIG. 17 (c) and the second region motion blur edge emphasis line as shown in 1006 are provided on the first region blur notification plane and the second region, respectively. Created as a region blur notification plane. By superimposing the first region blur notification plane and the second region blur notification plane on the preparatory captured image, a motion blur notification image as shown in FIG. 17C is generated. In the example of FIG. 17C, an example of changing the color depth of the motion blur edge is shown. As another example of the highlighting method, pixels having an edge strength of a predetermined value or more and a conversion motion blur of a predetermined value or more are extracted in each of the first region and the second region, and the extracted pixels are extracted. Highlights such as painting in red and blue and highlighting that changes the thickness can be mentioned.

以上、動きブレ報知画像生成部300が動きブレ報知画像を生成する処理について説明した。 The process of generating the motion blur notification image by the motion blur notification image generation unit 300 has been described above.

本実施形態では、換算動きブレが所定値以上の場合に動きブレを報知する例について説明したが、換算動きブレが所定値以下の場合に報知してもよい。これにより、動きブレを動感として表現したい長秒露光撮影の場合に、動きブレの不足を準備撮影期間中に確認しやすくなる。 In the present embodiment, an example of notifying the motion blur when the converted motion blur is equal to or more than a predetermined value has been described, but it may be notified when the converted motion blur is equal to or less than the predetermined value. This makes it easier to confirm the lack of motion blur during the preparatory shooting period in the case of long-exposure shooting in which motion blur is desired to be expressed as a sense of motion.

本実施形態では、動きブレ報知の方法として、動きブレアイコン表示、動きブレ枠表示、動きブレエッジの強調表示の3つの例について説明したが、動きブレ報知の方法はこれに限られるものではない。例えば、平坦な領域も含め、動きブレが発生している領域を強調表示してもよい。具体的には、第1領域動きブレ報知プレーン作成部1306、第2領域動きブレ報知プレーン作成部1307は、画素毎の換算動きブレが所定値以上の画素をそれぞれ赤と青に塗るような強調表示を行う。このようにエッジ領域だけではなく、エッジ領域以外の領域も強調表示を行うことにより、被写体全体が強調表示されるため、より動きブレを確認しやすくなる。 In the present embodiment, three examples of motion blur icon display, motion blur frame display, and motion blur edge highlighting have been described as motion blur notification methods, but the motion blur notification method is not limited to this. For example, an area where motion blur occurs may be highlighted, including a flat area. Specifically, the first region motion blur notification plane creation unit 1306 and the second region motion blur notification plane creation unit 1307 emphasize that pixels whose converted motion blur for each pixel is equal to or greater than a predetermined value are painted in red and blue, respectively. Display. By highlighting not only the edge region but also the region other than the edge region in this way, the entire subject is highlighted, so that it becomes easier to confirm the movement blur.

本実施形態では、動きブレの報知方法として、表示部109に動きブレを報知する表示を行う例について説明したが、動きブレの報知方法としてはこれに限られるものではない。例えば、音により動きブレを報知してもよい。具体的には、画素毎の換算動きブレのうち、所定値以上の換算動きブレを示す画素数が画面全体に占める割合が所定割合以上の場合に、動きブレ報知音を発生させる。 In the present embodiment, an example of displaying the motion blur on the display unit 109 as a motion blur notification method has been described, but the motion blur notification method is not limited to this. For example, motion blur may be notified by sound. Specifically, the motion blur notification sound is generated when the ratio of the number of pixels showing the converted motion blur of a predetermined value or more to the entire screen is equal to or more than the predetermined ratio among the converted motion blurs for each pixel.

(第4の実施形態)
本発明の第4の実施形態は、準備撮影中において、撮像装置の動き情報ではなく、撮影中のズーム操作による焦点距離の変化(焦点距離検出)を本撮影相当の動きブレに換算し、動きブレを報知する領域を分割する。
(Fourth Embodiment)
In the fourth embodiment of the present invention, during the preparatory shooting, the change in the focal length (focal length detection) due to the zoom operation during the shooting is converted into the motion blur equivalent to the main shooting, instead of the motion information of the imaging device, and the movement is performed. The area for notifying blur is divided.

なお、第1乃至第3の実施形態と同じ符号の要素は第1乃至第3の実施形態と同様の動作、処理を行うものとして、説明は省略する。 It should be noted that the elements having the same reference numerals as those of the first to third embodiments perform the same operations and processes as those of the first to third embodiments, and the description thereof will be omitted.

図18は、第4の実施形態における撮像装置の構成を示すブロック図である。図18において、撮像装置1100は、第1の実施形態の撮像装置100と画像処理部1101の構成が異なる。画像処理部1101以外の構成及び動作は撮像装置100と同様であるものとし、説明は省略する。 FIG. 18 is a block diagram showing a configuration of an image pickup apparatus according to a fourth embodiment. In FIG. 18, the image pickup apparatus 1100 differs from the image pickup apparatus 100 of the first embodiment in the configuration of the image processing unit 1101. The configuration and operation other than the image processing unit 1101 are the same as those of the image pickup apparatus 100, and the description thereof will be omitted.

図19は、本実施形態における画像処理部1101が備える動きブレ報知画像生成部1200の構成を示す図である。動きブレ報知画像生成部1200は、動きベクトル算出部1301、画像動き情報推定部1201、領域分割部1303、第1領域換算動きブレ算出部1304、第2領域換算動きブレ算出部1305、第1領域動きブレ報知プレーン作成部1306、第2領域動きブレ報知プレーン作成部1307、画像重畳部1308を備える。画像動き情報変換部1201以外の動作及び処理は第3の実施形態と同様であるため説明は省略する。 FIG. 19 is a diagram showing a configuration of a motion blur notification image generation unit 1200 included in the image processing unit 1101 in the present embodiment. The motion blur notification image generation unit 1200 includes a motion vector calculation unit 1301, an image motion information estimation unit 1201, a region division unit 1303, a first region conversion motion blur calculation unit 1304, a second region conversion motion blur calculation unit 1305, and a first region. It includes a motion blur notification plane creation unit 1306, a second region motion blur notification plane creation unit 1307, and an image superimposition unit 1308. Since the operations and processes other than the image motion information conversion unit 1201 are the same as those in the third embodiment, the description thereof will be omitted.

次に、動きブレ報知画像生成部1200が動きブレ報知画像を生成する処理について、図20のフローチャートを参照して説明する。図20のフローチャートは、ステップS2001のみが、第3の実施形態の図14のフローチャートと異なる。 Next, the process of generating the motion blur notification image by the motion blur notification image generation unit 1200 will be described with reference to the flowchart of FIG. The flowchart of FIG. 20 differs from the flowchart of FIG. 14 of the third embodiment only in step S2001.

図20のステップS2001において、画像動き情報推定部1201は、各画素の焦点距離の変化から、ズーム動作による画像上の動き情報を推定する。各画素の焦点距離の変化から画像上の動き情報を推定するための近似変換式を式(5)に示す。 In step S2001 of FIG. 20, the image motion information estimation unit 1201 estimates motion information on the image due to the zoom operation from the change in the focal length of each pixel. Equation (5) shows an approximate conversion formula for estimating motion information on the image from changes in the focal length of each pixel.

ここで、MOV_f(x,y)は画像中の座標(x,y)における像高方向の変化を示す。また、f_preは準備撮影画像の露光開始時の焦点距離を示し、f_postは準備撮影画像の露光終了時の焦点距離を示す。Hight(x,y)は画像中の座標(x,y)におけるピクセル単位の像高値を示す。式(5)に示す変換式では、準備撮影における画像間の時間間隔で移動した焦点距離の変化率に基づき撮像面上の像高方向の移動量を算出している。画像動き情報推定部1201は、これを各画素の推定動きベクトルとして領域分割部1202に出力する。 Here, MOV_f (x, y) indicates a change in the image height direction at the coordinates (x, y) in the image. Further, f_pre indicates the focal length at the start of exposure of the preparatory photographed image, and f_post indicates the focal length at the end of exposure of the preparatory photographed image. High (x, y) indicates the image height value in pixel units at the coordinates (x, y) in the image. In the conversion formula shown in the formula (5), the amount of movement in the image height direction on the imaging surface is calculated based on the rate of change of the focal length moved at the time interval between the images in the preparatory shooting. The image motion information estimation unit 1201 outputs this as an estimated motion vector of each pixel to the area dividing unit 1202.

領域分割部1202では画像動き情報推定部1201で推定した画素毎の像高方向の動きベクトルと動きベクトル算出部1301で算出した画素毎の動きベクトルを比較し、類似度の高い画素と類似度の低い画素で領域を分割する。例えば、画像動き情報推定部1201で推定した動きベクトルをV1、動きベクトル算出部1301で算出した動きベクトルをV2としたとき、二つのベクトルの内積が閾値未満である領域を第1の領域、閾値以上である領域を第2の領域として領域分割し、それぞれの動きベクトルV1,V2を第1領域換算動きブレ算出部1304と第2領域換算動きブレ算出部1305に出力する。その後の第1領域換算動きブレ算出部1304、第2領域換算動きブレ算出部1305、第1領域動きブレ報知プレーン作成部1306、第2領域動きブレ報知プレーン作成部1307、画像重畳部1308の動作は第3の実施形態と同様であるため、説明は省略する。 The area division unit 1202 compares the motion vector in the image height direction for each pixel estimated by the image motion information estimation unit 1201 with the motion vector for each pixel calculated by the motion vector calculation unit 1301, and has a pixel with a high degree of similarity and a degree of similarity. Divide the area by low pixels. For example, when the motion vector estimated by the image motion information estimation unit 1201 is V1 and the motion vector calculated by the motion vector calculation unit 1301 is V2, the region in which the inner product of the two vectors is less than the threshold is the first region and the threshold. The above region is divided into regions as a second region, and the respective motion vectors V1 and V2 are output to the first region conversion motion blur calculation unit 1304 and the second region conversion motion blur calculation unit 1305. Subsequent operations of the first region conversion motion blur calculation unit 1304, the second region conversion motion blur calculation unit 1305, the first region motion blur notification plane creation unit 1306, the second region motion blur notification plane creation unit 1307, and the image superimposition unit 1308. Is the same as that of the third embodiment, and thus the description thereof will be omitted.

以上、動きブレ報知画像生成部1200が動きブレ報知画像を生成する処理について説明した。 The process of generating the motion blur notification image by the motion blur notification image generation unit 1200 has been described above.

このようにして撮影中のズーム操作によるブレの領域と、それとは異なる動きをする被写体の領域を撮影者が容易に区別することができる。 In this way, the photographer can easily distinguish between the area of blurring due to the zoom operation during shooting and the area of the subject moving differently from the area.

(第5の実施形態)
本発明の第5の実施形態では、準備撮影中において、撮像装置と被写体の距離に応じて動きブレを報知する領域を分割する。
(Fifth Embodiment)
In the fifth embodiment of the present invention, the region for notifying the motion blur is divided according to the distance between the image pickup device and the subject during the preparatory shooting.

図21は、第5の実施形態における撮像装置1400の構成を示すブロック図である。図21において、撮像装置1400は、第1の実施形態の撮像装置100と測距部1401、主被写体検出部1402を有する点と、画像処理部1403の構成が異なる点が異なる。測距部1401、主被写体検出部1402、画像処理部1403以外の構成及び動作は撮像装置100と同様であるものとし、説明は省略する。 FIG. 21 is a block diagram showing the configuration of the image pickup apparatus 1400 according to the fifth embodiment. In FIG. 21, the image pickup apparatus 1400 is different in that it has the image pickup apparatus 100 of the first embodiment, the distance measuring unit 1401, and the main subject detection unit 1402, and the configuration of the image processing unit 1403 is different. The configuration and operation other than the distance measuring unit 1401, the main subject detecting unit 1402, and the image processing unit 1403 are the same as those of the image pickup apparatus 100, and the description thereof will be omitted.

測距部1401は、撮影時の被写体までの距離情報を取得し距離マップを生成する。距離マップとは、撮影した画像の画素単位での被写体までの距離情報を示す二次元情報である。測距方法は既存の方法を用いるものとし、説明は省略する。 The distance measuring unit 1401 acquires distance information to the subject at the time of shooting and generates a distance map. The distance map is two-dimensional information showing the distance information to the subject in pixel units of the captured image. The existing method shall be used as the distance measuring method, and the description thereof will be omitted.

主被写体検出1402は、撮像した画像中から特定の被写体、例えば人物の顔といった被写体の座標を検出する。被写体検出は既存の方法を用いるとし、説明は省略する。 The main subject detection 1402 detects the coordinates of a specific subject, for example, the face of a person, from the captured image. It is assumed that the existing method is used for subject detection, and the description thereof will be omitted.

図22は、第5の実施形態における画像処理部1403が備える動きブレ報知画像生成部1500の構成を示す図である。動きブレ報知画像生成部1500は、動きベクトル算出部1301、領域分割部1501、第1領域換算動きブレ算出部1304、第2領域換算動きブレ算出部1305、第1領域動きブレ報知プレーン作成部1306、第2領域動きブレ報知プレーン作成部1307、画像重畳部1308を備える。領域分割部1501以外の動作及び処理は第3の実施形態と同様であるため、説明は省略する。 FIG. 22 is a diagram showing a configuration of a motion blur notification image generation unit 1500 included in the image processing unit 1403 in the fifth embodiment. The motion blur notification image generation unit 1500 includes a motion vector calculation unit 1301, a region division unit 1501, a first region conversion motion blur calculation unit 1304, a second region conversion motion blur calculation unit 1305, and a first region motion blur notification plane creation unit 1306. A second region motion blur notification plane creating unit 1307 and an image superimposing unit 1308 are provided. Since the operations and processes other than the region dividing portion 1501 are the same as those in the third embodiment, the description thereof will be omitted.

次に、動きブレ報知画像生成部1500が動きブレ報知画像を生成する処理について、図23のフローチャートを参照して説明する。図23のフローチャートは、ステップS2301,S2302のみが、第3の実施形態の図14のフローチャートと異なる。 Next, the process of generating the motion blur notification image by the motion blur notification image generation unit 1500 will be described with reference to the flowchart of FIG. 23. The flowchart of FIG. 23 differs from the flowchart of FIG. 14 of the third embodiment only in steps S2301 and S2302.

図23のステップS2301において、撮像装置1400の測距部1401で生成された距離マップと主被写体検出部1402で検出された主被写体座標が、領域分割部1501に入力される。 In step S2301 of FIG. 23, the distance map generated by the distance measuring unit 1401 of the image pickup apparatus 1400 and the main subject coordinates detected by the main subject detecting unit 1402 are input to the area dividing unit 1501.

次に、ステップS2302において、領域分割部1501は距離マップを参照し各画素における撮像装置1400から被写体までの距離値と、主被写体座標の距離値を取得する。各画素の距離値と、主被写体座標の距離値の差を算出し、距離値の差が所定の値よりも小さい画素を第1の領域とし、距離値の差が所定の値以上の画素を第2の領域として領域を分割する。そして、それぞれの領域の動きベクトルを第1領域換算動きブレ算出部1304、第2領域換算動きブレ算出部1305に出力する。その後の第1領域換算動きブレ算出部1304、第2領域換算動きブレ算出部1305、第1領域動きブレ報知プレーン作成部1306、第2領域動きブレ報知プレーン作成部1307、画像重畳部1308の動作は第3の実施形態と同様であるため、説明は省略する。 Next, in step S2302, the area dividing unit 1501 refers to the distance map and acquires the distance value from the image pickup device 1400 to the subject and the distance value of the main subject coordinates in each pixel. The difference between the distance value of each pixel and the distance value of the main subject coordinates is calculated, the pixel whose distance value difference is smaller than the predetermined value is set as the first region, and the pixel whose distance value difference is greater than or equal to the predetermined value is defined as the first region. The area is divided as the second area. Then, the motion vector of each region is output to the first region conversion motion blur calculation unit 1304 and the second region conversion motion blur calculation unit 1305. Subsequent operations of the first region conversion motion blur calculation unit 1304, the second region conversion motion blur calculation unit 1305, the first region motion blur notification plane creation unit 1306, the second region motion blur notification plane creation unit 1307, and the image superimposition unit 1308. Is the same as that of the third embodiment, and thus the description thereof will be omitted.

以上、動きブレ報知画像生成部1500が動きブレ報知画像を生成する処理について説明した。 The process of generating the motion blur notification image by the motion blur notification image generation unit 1500 has been described above.

このようにして主被写体の領域とそうでない被写体の領域を、撮影者が容易に区別しながら動きブレの状態を確認することができる。 In this way, the photographer can easily distinguish between the area of the main subject and the area of the subject that is not the main subject, and can confirm the state of motion blur.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:撮像装置、101:制御部、102:ROM、103:RAM、104:光学系、105:撮像部、106:A/D変換部、107:画像処理部、108:記録部、109:表示部、110:指示入力部、300:動きブレ報知画像生成部、301:動きベクトル算出部、302:換算動きブレ算出部、303:カメラ動きベクトル算出部、304:動きベクトル比較部、305:動きブレ報知プレーン作成部、306:画像重畳部 100: Imaging device, 101: Control unit, 102: ROM, 103: RAM, 104: Optical system, 105: Imaging unit, 106: A / D conversion unit, 107: Image processing unit, 108: Recording unit, 109: Display Unit, 110: Instruction input unit, 300: Motion blur notification image generation unit, 301: Motion vector calculation unit, 302: Conversion motion blur calculation unit, 303: Camera motion vector calculation unit, 304: Motion vector comparison unit, 305: Motion Blur notification plane creation unit, 306: Image superimposition unit

Claims (22)

第1の撮影パラメータで第1の撮像により得られた第1の撮影画像および該第1の撮影画像における被写体の動き情報を取得する取得手段と、
前記第1の撮影パラメータとは独立して第2の撮影パラメータを設定する設定手段と、
前記動き情報および前記第2の撮影パラメータを用いて、前記第2の撮影パラメータで第2の撮像が行われる場合に得られる第2の撮影画像における被写体の動きブレを推定する推定手段と、
推定された前記動きブレを報知する報知手段と、を備え、
前記報知手段は、画像の部分領域ごとの動きブレの大きさおよび向きの少なくとも一方に基づいて、前記部分領域ごとに表示形態を変更して前記動きブレを報知することを特徴とする撮像装置。
An acquisition means for acquiring the first captured image obtained by the first imaging with the first imaging parameter and the movement information of the subject in the first captured image, and
A setting means for setting the second shooting parameter independently of the first shooting parameter, and
Using the motion information and the second imaging parameter, an estimation means for estimating the motion blur of the subject in the second captured image obtained when the second imaging is performed with the second imaging parameter, and
A notification means for notifying the estimated motion blur is provided.
The notifying means is an imaging device that notifies the motion blur by changing the display form for each of the partial regions based on at least one of the magnitude and the direction of the motion blur for each partial region of the image.
前記推定手段は、前記動き情報、前記第1の撮影パラメータおよび前記第2の撮影パラメータに基づいて前記動きブレを推定することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the estimation means estimates the motion blur based on the motion information, the first imaging parameter, and the second imaging parameter. 前記取得手段は、複数の前記第1の撮影画像の間で画像の比較を行うことにより前記動き情報を算出し、取得することを特徴とする請求項1または2に記載の撮像装置。 The imaging device according to claim 1 or 2, wherein the acquisition means calculates and acquires the motion information by comparing images among a plurality of the first captured images. 前記推定手段は、前記動き情報に基づき算出した前記第1の撮影画像における被写体の動きブレを、前記第1の撮影パラメータと前記第2の撮影パラメータの違いに基づき前記第2の撮影画像における動きブレに換算することにより、前記第2の撮影画像における動きブレを推定することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 The estimation means determines the motion blur of the subject in the first captured image calculated based on the motion information, and the motion in the second captured image based on the difference between the first imaging parameter and the second imaging parameter. The imaging device according to any one of claims 1 to 3, wherein the motion blur in the second captured image is estimated by converting it into blur. 前記推定手段は、前記動き情報と複数の前記第1の撮像における画像間の時間間隔及び前記第2の撮影パラメータとして設定される露光時間に基づき、前記第2の撮影画像における動きブレを推定することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 The estimation means estimates motion blur in the second captured image based on the motion information, the time interval between the plurality of images in the first imaging, and the exposure time set as the second imaging parameter. The imaging device according to any one of claims 1 to 4, wherein the image pickup apparatus is characterized by the above. 前記報知手段は、前記動きブレに対応する情報を表示部に表示することにより前記動きブレを報知することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 5, wherein the notification means notifies the movement blur by displaying information corresponding to the motion blur on a display unit. 前記報知手段は、前記動きブレに対応する情報を前記第1の撮影画像に重畳して表示部に表示することにより前記動きブレを報知することを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 Any one of claims 1 to 6, wherein the notification means notifies the movement blur by superimposing information corresponding to the movement blur on the first captured image and displaying it on a display unit. The imaging device according to the section. 前記第2の撮像とは、本撮影であり、前記第1の撮像とは、前記本撮影の前に行う準備撮影であることを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。 The second imaging according to any one of claims 1 to 7, wherein the second imaging is a main imaging, and the first imaging is a preparatory imaging performed before the main imaging. Imaging device. 前記報知手段は、前記動きブレが生じている部分領域を強調表示することにより前記動きブレを報知することを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 8, wherein the notification means notifies the movement blur by highlighting a partial region in which the movement blur occurs. 前記報知手段は、前記動きブレの方向に応じて表示形態を変更した枠を表示することにより前記動きブレを報知することを特徴とする請求項9に記載の撮像装置。 The imaging device according to claim 9, wherein the notification means notifies the movement blur by displaying a frame whose display form is changed according to the direction of the movement blur. 前記報知手段は、前記動きブレの大きさおよび向きの少なくとも一方に基づいて、前記動きブレが生じている部分領域ごとに、被写体の輪郭を強調表示することを特徴とする請求項9に記載の撮像装置。 The ninth aspect of the present invention, wherein the notification means highlights the outline of the subject for each partial region where the motion blur occurs, based on at least one of the magnitude and the direction of the motion blur. Imaging device. 前記報知手段は、前記動きブレの方向により、前記動きブレが生じている部分領域の強調表示の程度を変更することを特徴とする請求項9乃至11のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 9 to 11, wherein the notification means changes the degree of highlighting of a partial region in which the motion blur occurs depending on the direction of the motion blur. 前記報知手段は、前記動きブレが生じている部分領域にアイコンを表示することにより前記動きブレを報知することを特徴とする請求項9に記載の撮像装置。 The imaging device according to claim 9, wherein the notification means notifies the movement blur by displaying an icon in a partial region where the movement blur occurs. 前記撮像装置の動きを検出する検出手段をさらに備え、前記報知手段は、前記検出手段により検出された前記撮像装置の動きの向きと、前記動きブレの向きとを比較した結果に基づいて、前記部分領域ごとに表示形態を変更して前記動きブレを報知することを特徴とする請求項1乃至13のいずれか1項に記載の撮像装置。 The detecting means for detecting the movement of the imaging device is further provided, and the notification means is based on the result of comparing the direction of the movement of the imaging device detected by the detecting means with the direction of the motion blur. The imaging device according to any one of claims 1 to 13, wherein the display form is changed for each partial region to notify the motion blur. 前記報知手段は、前記撮像装置の動きの向きと、前記動きブレの向きとが、同じ方向であるか、逆の方向であるかに基づいて、前記部分領域ごとに表示形態を変更して前記動きブレを報知することを特徴とする請求項14に記載の撮像装置。 The notification means changes the display form for each of the partial regions based on whether the direction of movement of the image pickup apparatus and the direction of the movement blur are the same direction or the opposite direction. The imaging device according to claim 14, further comprising notifying motion blur. 前記報知手段は、前記動きブレの大きさが、前記撮像装置の動きの大きさよりも小さい前記部分領域に対して、動きブレの報知を行うことを特徴とする請求項14または15に記載の撮像装置。 The imaging according to claim 14 or 15, wherein the notification means notifies the motion blur to the partial region where the magnitude of the motion blur is smaller than the magnitude of the motion of the imaging device. apparatus. 前記撮像装置の動きを検出する検出手段と、該検出手段により検出された動き量と、前記動きブレの大きさに基づき、撮像した画像を前記部分領域に分割する分割手段とをさらに備えることを特徴とする請求項1に記載の撮像装置。 It is further provided with a detecting means for detecting the movement of the imaging device, and a dividing means for dividing the captured image into the partial regions based on the amount of movement detected by the detecting means and the magnitude of the motion blur. The imaging device according to claim 1. 撮影レンズの焦点距離の変化を検出する焦点距離検出手段をさらに備え、前記分割手段は、検出した焦点距離の変化と、前記動きブレ量とに基づき、撮像した画像を前記部分領域に分割することを特徴とする請求項17に記載の撮像装置。 A focal length detecting means for detecting a change in the focal length of the photographing lens is further provided, and the dividing means divides the captured image into the partial regions based on the detected change in the focal length and the amount of motion blur. The imaging apparatus according to claim 17. 前記撮像装置から被写体までの距離を測る測距手段をさらに備え、前記分割手段は、測距した情報と、前記動きブレ量とに基づき、撮像した画像を前記部分領域に分割することを特徴とする請求項17に記載の撮像装置。 A distance measuring means for measuring the distance from the image pickup apparatus to the subject is further provided, and the dividing means is characterized in that the captured image is divided into the partial regions based on the distance measured information and the amount of motion blur. The imaging device according to claim 17. 第1の撮影パラメータで第1の撮像により得られた第1の撮影画像および該第1の撮影画像における被写体の動き情報を取得する取得工程と、
前記第1の撮影パラメータとは独立して第2の撮影パラメータを設定する設定工程と、
前記動き情報および前記第2の撮影パラメータを用いて、前記第2の撮影パラメータで第2の撮像が行われる場合に得られる第2の撮影画像における被写体の動きブレを推定する推定工程と、
推定された前記動きブレを報知する報知工程と、を有し、
前記報知工程では、画像の部分領域ごとの動きブレの大きさおよび向きの少なくとも一方に基づいて、前記部分領域ごとに表示形態を変更して前記動きブレを報知することを特徴とする撮像装置の制御方法。
An acquisition step of acquiring the first captured image obtained by the first imaging with the first imaging parameter and the movement information of the subject in the first captured image, and
A setting step of setting the second shooting parameter independently of the first shooting parameter, and
Using the motion information and the second imaging parameter, an estimation step of estimating the motion blur of the subject in the second captured image obtained when the second imaging is performed with the second imaging parameter, and
It has a notification process for notifying the estimated movement blur, and
In the notification step, the image pickup apparatus is characterized in that the display form is changed for each partial region to notify the motion blur based on at least one of the magnitude and the direction of the motion blur for each partial region of the image. Control method.
請求項20に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 20. 請求項20に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores a program for causing a computer to execute each step of the control method according to claim 20.
JP2019047339A 2019-03-14 2019-03-14 IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM Active JP7296750B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019047339A JP7296750B2 (en) 2019-03-14 2019-03-14 IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019047339A JP7296750B2 (en) 2019-03-14 2019-03-14 IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM

Publications (2)

Publication Number Publication Date
JP2020150448A true JP2020150448A (en) 2020-09-17
JP7296750B2 JP7296750B2 (en) 2023-06-23

Family

ID=72430825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019047339A Active JP7296750B2 (en) 2019-03-14 2019-03-14 IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP7296750B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979504A (en) * 2022-05-25 2022-08-30 深圳市汇顶科技股份有限公司 Camera shooting parameter determining method and device and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005210392A (en) * 2004-01-22 2005-08-04 Mega Chips Corp Image pickup device
JP2007281536A (en) * 2006-04-03 2007-10-25 Seiko Epson Corp Object shake detector, photographing device, and method of controlling them, control program, and recording medium
JP2008022300A (en) * 2006-07-13 2008-01-31 Sony Corp Image pickup device, control method therefor, and computer program
JP2008172667A (en) * 2007-01-15 2008-07-24 Tamron Co Ltd Imaging apparatus
JP2014179874A (en) * 2013-03-15 2014-09-25 Casio Comput Co Ltd Imaging device, display method, and program
JP2015061129A (en) * 2013-09-17 2015-03-30 オリンパス株式会社 Imaging equipment and imaging method
JP2017201356A (en) * 2016-05-02 2017-11-09 キヤノン株式会社 Image shake correction device, imaging device, method for controlling image shake correction device, program, and storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005210392A (en) * 2004-01-22 2005-08-04 Mega Chips Corp Image pickup device
JP2007281536A (en) * 2006-04-03 2007-10-25 Seiko Epson Corp Object shake detector, photographing device, and method of controlling them, control program, and recording medium
JP2008022300A (en) * 2006-07-13 2008-01-31 Sony Corp Image pickup device, control method therefor, and computer program
JP2008172667A (en) * 2007-01-15 2008-07-24 Tamron Co Ltd Imaging apparatus
JP2014179874A (en) * 2013-03-15 2014-09-25 Casio Comput Co Ltd Imaging device, display method, and program
JP2015061129A (en) * 2013-09-17 2015-03-30 オリンパス株式会社 Imaging equipment and imaging method
JP2017201356A (en) * 2016-05-02 2017-11-09 キヤノン株式会社 Image shake correction device, imaging device, method for controlling image shake correction device, program, and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979504A (en) * 2022-05-25 2022-08-30 深圳市汇顶科技股份有限公司 Camera shooting parameter determining method and device and storage medium
CN114979504B (en) * 2022-05-25 2024-05-07 深圳市汇顶科技股份有限公司 Camera shooting parameter determining method, device and storage medium

Also Published As

Publication number Publication date
JP7296750B2 (en) 2023-06-23

Similar Documents

Publication Publication Date Title
JP6594180B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
EP2566150A2 (en) Image processing apparatus, image processing method, and program
JP6577852B2 (en) Motion vector detection device and control method thereof
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP2016129289A (en) Image processing device, imaging device, image processing method, program, and storage medium
US11722771B2 (en) Information processing apparatus, imaging apparatus, and information processing method each of which issues a notification of blur of an object, and control method for the imaging apparatus
JP6604908B2 (en) Image processing apparatus, control method thereof, and control program
JP7232046B2 (en) Notification device, imaging device, notification method, imaging method, program, and storage medium
JP7296750B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
JP6728020B2 (en) Image processing apparatus, image processing method and program
JP7389558B2 (en) Information processing device and its control method and program
JP2019062340A (en) Image shake correction apparatus and control method
JP7013205B2 (en) Image shake correction device and its control method, image pickup device
JP7475846B2 (en) Information processing device, imaging device, information processing method, and imaging device control method
JP6740019B2 (en) Imaging device and control method thereof
JP6619217B2 (en) Microscope system and control method thereof
JP2018174461A (en) Image processing apparatus, image processing method, and program
JP7346021B2 (en) Image processing device, image processing method, imaging device, program and recording medium
JP6833772B2 (en) Image processing equipment, imaging equipment, image processing methods and programs
JP7409604B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP7458769B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP2022124464A (en) Image capturing apparatus, control method of the same, program, and storage medium
JP6415228B2 (en) Image synthesizing apparatus and image synthesizing apparatus control method
JP2017220834A (en) Imaging apparatus, imaging method and program
JP2024036872A (en) Imaging device, imaging method, program and recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230613

R151 Written notification of patent or utility model registration

Ref document number: 7296750

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151