JP2022186598A - Information processing apparatus, imaging apparatus, information processing method and control method, and program - Google Patents

Information processing apparatus, imaging apparatus, information processing method and control method, and program Download PDF

Info

Publication number
JP2022186598A
JP2022186598A JP2022068183A JP2022068183A JP2022186598A JP 2022186598 A JP2022186598 A JP 2022186598A JP 2022068183 A JP2022068183 A JP 2022068183A JP 2022068183 A JP2022068183 A JP 2022068183A JP 2022186598 A JP2022186598 A JP 2022186598A
Authority
JP
Japan
Prior art keywords
motion
imaging
information
image
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022068183A
Other languages
Japanese (ja)
Inventor
宏典 海田
Hironori Kaida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to GB2208055.0A priority Critical patent/GB2610018B/en
Priority to CN202210619476.8A priority patent/CN115442533A/en
Priority to DE102022113938.7A priority patent/DE102022113938A1/en
Priority to US17/832,355 priority patent/US20220394174A1/en
Publication of JP2022186598A publication Critical patent/JP2022186598A/en
Pending legal-status Critical Current

Links

Images

Abstract

To appropriately select frames of a photographed image to easily check a motion shake that may occur in main photographing.SOLUTION: An information processing apparatus comprises: acquisition means that acquires a plurality of first photographed images obtained by performing first photographing according to a first photographic parameter and motion information on a subject in the plurality of first photographed images; estimation means that, when second photographing is performed according to a second photographic parameter set independently of the first photographic parameter, estimates a motion shake of the subject in a second photographed image obtained through the second photographing from the motion information and the second photographic parameter; setting means that sets the first photographic parameter and the second photographic parameter; and notification means that notifies information on the motion shake. The acquisition means acquires the motion information from the plurality of first photographed images obtained according to the first photographic parameter that is changed in correspondence with an exposure time in the second photographing related to the second photographic parameter.SELECTED DRAWING: Figure 7

Description

本発明は、撮像される画像に生じる被写体ブレを報知するための技術に関する。 The present invention relates to a technique for notifying subject blur that occurs in a captured image.

デジタルスチルカメラ等の撮像装置には、シャッタースピードを優先する撮影モード(以後、「シャッタースピード優先モード」と表記)を搭載している機種がある。シャッタースピード優先モードでは、撮影者が所望のシャッタースピードを設定し、絞り値やISO感度といったシャッタースピード以外の露出設定値は撮像装置が自動で設定する。撮影者は、シャッタースピード優先モードを用いることにより、好みのシャッタースピードで撮影することができる。例えば、撮影前に高速なシャッタースピードを設定し、シャッタースピード優先モードで撮影を行うことにより、動きブレが少ない画像を撮影することができる。 2. Description of the Related Art Some imaging devices such as digital still cameras are equipped with a shooting mode that gives priority to shutter speed (hereinafter referred to as "shutter speed priority mode"). In the shutter speed priority mode, the photographer sets a desired shutter speed, and the imaging apparatus automatically sets exposure setting values other than the shutter speed, such as the aperture value and ISO sensitivity. A photographer can shoot at a desired shutter speed by using the shutter speed priority mode. For example, by setting a high shutter speed before shooting and shooting in the shutter speed priority mode, it is possible to shoot an image with less motion blur.

特許文献1には、準備撮影中に撮像した時系列的な画像間の動き領域を検出し、その動き領域を強調表示する技術が開示されている。ここで、準備撮影とは本撮影の前に撮像装置の電子ビューファインダーや背面液晶を見ながら画像の構図合わせや撮影条件の設定を行う撮影のことである。また、本撮影とは撮影者がシャッターボタンを押下するなどの行為をトリガーとして、準備撮影で決定した構図や撮影条件の設定に基づいて撮像装置に実行させる撮影のことである。特許文献1により撮影者は準備撮影中において動き領域を目視で確認することが可能となる。 Japanese Patent Application Laid-Open No. 2002-200002 discloses a technique of detecting a moving area between time-series images captured during preparatory shooting and emphasizing the moving area. Here, the preparatory photographing is photographing in which the image composition is adjusted and the photographing conditions are set while looking at the electronic viewfinder and the rear liquid crystal of the imaging device before the actual photographing. In addition, the main shooting is shooting that is executed by the imaging apparatus based on the composition and shooting condition settings determined in the preliminary shooting, triggered by the photographer's action such as pressing the shutter button. According to Japanese Patent Application Laid-Open No. 2002-100000, the photographer can visually confirm the motion area during preparatory photographing.

特開2008-172667号公報JP 2008-172667 A

特許文献1によると、準備撮影中に撮像した時系列的な画像間の動き領域を検出し、その動き領域を強調することでユーザにブレを小さくするように行動を促すことが可能である。 According to Patent Literature 1, it is possible to detect a motion area between time-series images captured during preparatory shooting and emphasize the motion area, thereby prompting the user to act to reduce blurring.

しかしながら、特許文献1において時系列的な画像間の動き領域を抽出するために、被写体の速度や移動量に合わせて適切なフレームレートやシャッタースピードで撮影することは考慮されていない。 However, in Patent Document 1, in order to extract a moving region between images in time series, shooting at an appropriate frame rate and shutter speed according to the speed and amount of movement of the subject is not taken into consideration.

例えば、夜にポートレート撮影を行うと昼間に比べて撮像装置に取り込める光量が少なくなるため、露光時間が長くなる。それにより、人物の小さな揺れや動きが被写体ブレの発生する原因になってしまう。このとき、ユーザに被写体ブレを適切に報知するには、撮影する露光時間(設定されたシャッタースピードに該当する)に対して影響する被写体の動きを検出する必要がある。しかし、被写体の小さな動きを検出するのに十分なフレームレートの値の設定が事前になされているとは限らず、ユーザに被写体ブレの発生を適切に報知できないという課題があった。 For example, when portrait photography is performed at night, the amount of light that can be captured by the imaging device is smaller than that during the daytime, resulting in a longer exposure time. As a result, even a small shake or movement of a person causes blurring of the subject. At this time, in order to appropriately notify the user of subject blur, it is necessary to detect subject movement that affects the exposure time (corresponding to the set shutter speed) for photographing. However, a frame rate value sufficient to detect small movements of the subject is not always set in advance, and there is a problem that the user cannot be appropriately notified of the occurrence of subject blurring.

本発明は、上記の問題点を鑑みてなされたものであり、撮影する露光時間に合わせて影響する動きブレを検出(「動きブレ検出」ともいう)するための画像を選択して被写体の動きを検出する。これにより本撮影で発生する動きブレを確認することが可能となる情報処理装置、撮像装置、情報処理方法および制御方法、プログラムを提供することを目的とする。 The present invention has been made in view of the above problems. to detect Accordingly, it is an object of the present invention to provide an information processing device, an imaging device, an information processing method, a control method, and a program that enable confirmation of motion blur that occurs in actual photography.

上記課題を解決するために、本発明の情報処理装置のひとつは、第1の撮影パラメータで第1の撮影を行うことにより得られた複数の第1の撮影画像および該複数の第1の撮影画像における被写体の動き情報を取得する取得手段と、前記第1の撮影パラメータとは独立して設定された第2の撮影パラメータで第2の撮影が行われる場合に前記動き情報および前記第2の撮影パラメータから、第2の撮影で得られる第2の撮影画像における被写体の動きブレを推定する推定手段と、前記第1の撮影パラメータ、および第2の撮影パラメータを設定する設定手段と、前記動きブレの情報を報知する報知手段と、を備え、前記取得手段は前記第2の撮影パラメータに係る前記第2の撮影における露光時間に対応して変更された前記第1の撮影パラメータによって得られた前記複数の第1の撮影画像から前記動き情報を取得することを特徴とする。 In order to solve the above problems, one information processing apparatus of the present invention provides a plurality of first photographed images obtained by first photographing with a first photographing parameter and the plurality of first photographed images. acquisition means for acquiring motion information of a subject in an image; estimating means for estimating motion blurring of a subject in a second captured image obtained by the second capturing from the capturing parameters; setting means for setting the first capturing parameter and the second capturing parameter; and the motion notification means for notifying blur information, wherein the obtaining means obtains the first photographing parameter changed corresponding to the exposure time in the second photographing related to the second photographing parameter. The motion information is obtained from the plurality of first captured images.

また本発明の情報処理装置のひとつは第1の撮影パラメータで第1の撮影を行うことにより得られた複数の第1の撮影画像および該複数の第1の撮影画像における被写体の動き情報を取得する取得手段と、前記第1の撮影パラメータとは独立して設定された第2の撮影パラメータで第2の撮影が行われる場合に前記動き情報および前記第2の撮影パラメータから、第2の撮影で得られる第2の撮影画像における被写体の動きブレを推定する推定手段と、前記第1の撮影パラメータ、および第2の撮影パラメータを設定する設定手段と、前記動きブレの情報を報知する報知手段と、を備え、前記取得手段は前記第2の撮影パラメータに係る前記第2の撮影における露光時間をもとに前記複数の第1の撮影画像から前記動き情報を取得するのに用いる画像を決定することを特徴とする。 Further, one of the information processing apparatuses of the present invention acquires a plurality of first captured images obtained by performing a first photographing with a first photographing parameter and motion information of a subject in the plurality of first captured images. and an obtaining means for obtaining a second photographing from the motion information and the second photographing parameters when the second photographing is performed with the second photographing parameters set independently of the first photographing parameters. estimating means for estimating motion blurring of the subject in the second captured image obtained in step; setting means for setting the first shooting parameter and the second shooting parameter; and reporting means for reporting information on the motion blurring. and wherein the obtaining means determines an image to be used for obtaining the motion information from the plurality of first captured images based on the exposure time in the second capturing according to the second capturing parameter. characterized by

本発明によれば、動きを検出する準備撮影画像のフレームを適切に選択することで、本撮影で発生する動きブレを精度よく確認できるブレ報知画像を表示可能な情報処理装置、撮像装置、情報処理方法および制御方法、プログラムを提供することが可能となる。 ADVANTAGE OF THE INVENTION According to the present invention, an information processing device, an imaging device, and an information processing device capable of displaying a blurring notification image that enables accurate confirmation of motion blurring that occurs in main photography by appropriately selecting a frame of a preparatory photography image for detecting motion. It becomes possible to provide a processing method, a control method, and a program.

本発明実施の構成例を示す図A diagram showing a configuration example of the implementation of the present invention 撮像装置100の撮影処理を示すフローチャートFlowchart showing shooting processing of the imaging device 100 動きブレ報知画像生成部の構成例を示す図A diagram showing a configuration example of a motion blur notification image generation unit 本実施例1の図2のS202の処理を説明する図FIG. 2 is a diagram for explaining the processing of S202 in FIG. 2 of the first embodiment; 被写体の動き量と許容動き量の関係を説明する図A diagram explaining the relationship between the amount of motion of the subject and the allowable amount of motion 準備撮影画像及び動きベクトルを示す図Diagram showing preparatory captured images and motion vectors 動きベクトルの算出方法を示すフローチャートFlowchart showing motion vector calculation method 動きベクトルの算出方法を示す図Diagram showing how motion vectors are calculated 動きブレ報知方法を示す図Diagram showing motion blur notification method 準備撮影画像と、本撮影画像の取得タイミングチャートAcquisition timing chart of preparatory image and main image 本撮影の露光時間と準備撮影のフレーム間隔を説明する図Diagram explaining the exposure time of the main shooting and the frame interval of the preparatory shooting フレーム間の動き量の積算を説明する図A diagram explaining the integration of the amount of motion between frames フレームレートの制御を説明する図Diagram explaining frame rate control 本実施例2の図2のS208の処理を説明する図FIG. 2 is a diagram for explaining the processing of S208 in FIG. 2 of the second embodiment;

以下、図面を参照しながら本発明の好適な実施形態について説明する。 Preferred embodiments of the present invention will be described below with reference to the drawings.

本発明の実施例1は、準備撮影中に画像から算出した動き情報を本撮影相当の動きブレを推定し、本撮影で発生すると予想される動きブレを動きブレ報知画像として表示することで、ユーザに報知する撮像装置について説明する。 In the first embodiment of the present invention, motion information calculated from images during preparatory shooting is used to estimate motion blur equivalent to actual shooting, and the motion blur expected to occur in main shooting is displayed as a motion blur notification image. An imaging device that notifies the user will be described.

図1は、本発明実施例1における情報処理装置、撮像装置の一例として、撮像装置の構成例を示すブロック図である。以下、本発明実施例1の構成例について図1を参照して説明する。本発明でいう情報処理装置は、撮像された画像を処理することが可能な任意の電子機器にも適用可能である。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。 FIG. 1 is a block diagram showing a configuration example of an imaging device as an example of an information processing device and an imaging device according to Embodiment 1 of the present invention. A configuration example of Embodiment 1 of the present invention will be described below with reference to FIG. The information processing apparatus according to the present invention can be applied to any electronic device capable of processing captured images. These electronic devices may include, for example, mobile phones, game machines, tablet terminals, personal computers, watch-type or glasses-type information terminals, and the like.

制御部101は、例えばCPUであり、撮像装置100(例えばカメラ)が備える各ブロックに対する制御プログラムを後述のROM102より読み出し、後述のRAM103に展開して実行する。これにより、制御部101は、撮像装置100が備える各ブロックの動作を制御する。ROM102は、電気的に消去・記録可能な不揮発性メモリであり、撮像装置100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、制御部101等が実行するプログラムの展開や、撮像装置100が備える各ブロックの動作で生成等されたデータの一時的な記憶等に用いられる。 The control unit 101 is, for example, a CPU, and reads a control program for each block included in the imaging apparatus 100 (eg, a camera) from the ROM 102 described later, develops it in the RAM 103 described later, and executes it. Thereby, the control unit 101 controls the operation of each block included in the imaging device 100 . The ROM 102 is an electrically erasable/recordable non-volatile memory, and stores an operation program for each block included in the imaging apparatus 100 as well as parameters required for the operation of each block. A RAM 103 is a rewritable volatile memory, and is used for development of programs executed by the control unit 101 and the like, temporary storage of data generated by the operation of each block included in the imaging apparatus 100, and the like.

光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群で構成され、被写体像を後述の撮像部105の撮像面上に結像する。撮像部105は、例えばCCDやCMOSセンサー等の撮像素子であり、光学系104により撮像部105の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像データに変換する。A/D変換部106から出力されたデジタル画像データは、RAM103に一時的に記憶される。 The optical system 104 is composed of a lens group including a zoom lens and a focus lens, and forms a subject image on an imaging surface of an imaging unit 105, which will be described later. The imaging unit 105 is, for example, an imaging device such as a CCD or CMOS sensor, photoelectrically converts an optical image formed on the imaging surface of the imaging unit 105 by the optical system 104, and converts the obtained analog image signal into an A/D signal. Output to conversion unit 106 . The A/D converter 106 converts the input analog image signal into digital image data. Digital image data output from the A/D converter 106 is temporarily stored in the RAM 103 .

画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、ガンマ処理など、様々な画像処理を適用する。また、画像処理部107は、後述の動きブレ報知画像生成部300を具備し、RAM103に記憶されている画像に対して、動きブレが容易に確認できる画像プレーンを重畳し、動きブレ報知画像を生成する。記録部108は、着脱可能なメモリカード等の記憶媒体である。記録部108は、画像処理部107で処理された画像データを、RAM103を介し、記録画像として記録する。表示部109は、LCD等の表示デバイスであり、RAM103に記憶されている画像や記録部108に記録されている画像の表示、ユーザからの指示を受け付けるための操作ユーザインターフェイスの表示等を行う。また、表示部109は、準備撮影中に構図合わせ等のために撮像部105が撮像した画像を表示する。指示入力部110は、タッチパネルやマウス等であり、ユーザによる指示を入力する。 The image processing unit 107 applies various image processing such as white balance adjustment, color interpolation, and gamma processing to the image data stored in the RAM 103 . The image processing unit 107 includes a motion blurring notification image generation unit 300, which will be described later. Generate. The recording unit 108 is a storage medium such as a removable memory card. A recording unit 108 records the image data processed by the image processing unit 107 as a recorded image via the RAM 103 . A display unit 109 is a display device such as an LCD, and displays images stored in the RAM 103 and images recorded in the recording unit 108, and displays an operation user interface for receiving instructions from the user. In addition, the display unit 109 displays an image captured by the imaging unit 105 for composition adjustment or the like during preparatory shooting. The instruction input unit 110 is a touch panel, a mouse, or the like, and inputs instructions from the user.

次に、図2のフローチャートを参照して実施例1について詳しく説明する。以下の処理は、ROM102に記憶されたプログラムに従って、制御部101が装置の各部を制御することにより実現される。図2のフローチャートは準備撮影を開始した際に実行される。 Next, the first embodiment will be described in detail with reference to the flowchart of FIG. The following processing is realized by the control unit 101 controlling each unit of the apparatus according to the program stored in the ROM 102 . The flowchart in FIG. 2 is executed when preparatory photographing is started.

S201において、ユーザは撮像装置100の電源を入れる。すると、S201において、制御部101は撮像装置100の電源が入れられたことに応じて、光学系104、撮像部105を制御して構図合わせなどの準備撮影を開始する。制御部101は、この準備撮影期間中に所定のフレームレートを維持し、撮像装置100は逐次画像を撮像し、取得した撮影画像を表示部109にする。ユーザは表示された準備撮影画像を見ながら構図合わせなどを行うことができる。ここで、準備撮影中に撮影された画像を準備撮影画像と定義する。 In S<b>201 , the user turns on the imaging device 100 . Then, in S201, the control unit 101 controls the optical system 104 and the imaging unit 105 in response to the power of the imaging apparatus 100 being turned on to start preparatory photographing such as composition adjustment. The control unit 101 maintains a predetermined frame rate during this preparatory photographing period, and the image capturing apparatus 100 sequentially captures images and displays the acquired captured images on the display unit 109 . The user can adjust the composition while viewing the displayed preparatory photographed image. Here, an image captured during preparatory photographing is defined as a preparatory photographed image.

S202において、撮像装置100は、構図内の被写体の動き量を検出するために撮像する準備撮影画像の撮影条件(撮影パラメータ)を設定する。ここでいう撮影条件とは、主にフレームレート、シャッタースピードを示す。そして、AE(オートエクスポージャー)やAF(オートフォーカス)制御などの一般的な撮像装置で行うオート機能の制御に用いられる評価値を算出する処理に影響を与えない範囲で、最も高いフレームレートおよび高速のシャッタースピードの設定を行う。また、シャッタースピードを高速に設定した際にも、適正の露出条件で撮影ができるように、シャッタースピードに合わせて光学系104を制御しレンズの絞りを変更や、撮像部105のISO感度設定を変更することで適切な露出で撮影ができるように調整を行うように制御する。撮像装置100はS202で設定した撮影条件で準備撮影中における時系列的に連続する画像の撮影を行う。シャッタースピードが高速であるほど撮影した画像において移動する被写体の蓄積ブレがほとんど無く、また、撮影した連続画像間での被写体の移動量が小さくなるため被写体の動きを細かく捉えることが可能である。 In S202, the imaging apparatus 100 sets shooting conditions (shooting parameters) for a pre-shooting image to be taken to detect the amount of movement of the subject in the composition. The shooting conditions here mainly indicate frame rate and shutter speed. Then, the highest frame rate and the highest speed within the range that does not affect the processing for calculating the evaluation value used for controlling the automatic functions performed by general imaging devices such as AE (auto exposure) and AF (auto focus) control Sets the shutter speed of the . Also, even when the shutter speed is set to a high speed, the optical system 104 is controlled in accordance with the shutter speed, the aperture of the lens is changed, and the ISO sensitivity of the imaging unit 105 is set so that shooting can be performed under appropriate exposure conditions. By changing the exposure, control is performed so that shooting can be performed with an appropriate exposure. The imaging apparatus 100 captures images that are continuous in time series during preparatory imaging under the imaging conditions set in S202. The faster the shutter speed, the less accumulated blurring of a moving subject in the captured images, and the smaller the amount of movement of the subject between consecutive captured images, making it possible to capture the movement of the subject in detail.

S203において、ユーザは指示入力部110を用い、本撮影時の撮影パラメータを設定する。制御部101は、指示入力部110からの入力に従い、準備撮影のための撮影パラメータとして露光時間を設定することが可能である。尚、本撮影時の撮影パラメータは撮像装置100が自動で設定するように構成されていてもよい。また、本撮影時の撮影パラメータは準備撮影のための撮影パラメータとは独立して設定されてもよい。本実施形態では、設定された本撮影時の撮影パラメータが、後述するシャッターボタンの押下げ(本撮影の指示)が検出された後、本撮影の撮影パラメータとして用いられるものとする。 In S<b>203 , the user uses the instruction input unit 110 to set shooting parameters for actual shooting. The control unit 101 can set the exposure time as a shooting parameter for preparatory shooting according to the input from the instruction input unit 110 . Note that the imaging apparatus 100 may be configured to automatically set the imaging parameters for the actual imaging. Also, the imaging parameters for main imaging may be set independently of the imaging parameters for preparatory imaging. In this embodiment, it is assumed that the set shooting parameters for the main shooting are used as the shooting parameters for the main shooting after pressing of the shutter button (instruction for main shooting), which will be described later, is detected.

S204において、制御部101は、動きブレ報知がON設定かOFF設定かを判断する。動きブレ報知のONかOFFかの設定は、例えば、ユーザが指示入力部110を用い設定するものとし、一度設定すれば設定値が保持されるものとする。S204において制御部101が動きブレ報知がONの設定であると判定した場合は、後述する動きブレ報知画像生成部300がS205において、準備撮影画像に対して動きブレ報知プレーンを重畳した動きブレ報知画像を生成する。そして、制御部101がS206において生成された動きブレ報知画像を表示部109に表示する。 In S204, the control unit 101 determines whether the motion blur notification is set to ON or OFF. The setting of ON or OFF of the motion blur notification is set by the user, for example, using the instruction input unit 110, and once set, the set value is retained. When the control unit 101 determines in S204 that the motion blurring notification is set to ON, the motion blurring notification image generating unit 300 described later generates motion blurring notification by superimposing a motion blurring notification plane on the preparatory photographed image in S205. Generate an image. Then, the control unit 101 displays the motion blur notification image generated in S206 on the display unit 109 .

S204において制御部101が、動きブレ報知がOFFの設定であると判定した場合は、動きブレ報知画像は生成されない。したがって、S206において、動きブレ報知が一切されていない準備撮影画像を表示部109に表示する。 When the control unit 101 determines in S204 that the motion blurring notification is set to OFF, no motion blurring notification image is generated. Therefore, in S<b>206 , the display unit 109 displays the preparatory photographed image without any motion blurring notification.

S207において、制御部101はユーザの操作により指示入力部110のシャッターボタンが押下げられたか否かを判定する。ここで、シャッターボタンの押下げ入力が撮影準備動作を指示する半押しと本撮影を指示する全押しなどの2段階の入力方法を受け付ける構成である場合には、全押しがなされたか否かを判定するものとする。単純な1段階の入力のみを受け付ける場合には、当該1段階の入力がなされたか否かを判定する。 In S207, the control unit 101 determines whether or not the shutter button of the instruction input unit 110 has been pressed by the user's operation. Here, if the shutter button depression input is configured to receive two steps of input methods, such as half-press for instructing shooting preparation operation and full-press for instructing actual shooting, whether or not full-press has been performed is determined. shall judge. If only a simple one-step input is accepted, it is determined whether or not the one-step input has been made.

制御部101は、シャッターボタンが押下げられていないと判定した場合、S203に戻り、S203~S206までの処理を繰り返す。これによりユーザは表示部109に動きブレ報知画像を表示している場合は、準備撮影中において現在設定されている本撮影時の撮影パラメータで本撮影が行われた場合に被写体に生じる動きブレを容易に確認することができる。もし、確認した動きブレがユーザの好みの動きブレになっていない場合は、ユーザはシャッターボタンを押下せずにS202に戻り、再度S203で本撮影のシャッタースピード(露光時間)を再設定してもよい。このように、準備撮影中において、ユーザは表示部109に表示される動きブレ報知画像を確認しながら、好みの動きブレになるまで本撮影の露光時間の設定を繰り返し、シャッターチャンス時にシャッターボタンを押下する。 If the control unit 101 determines that the shutter button has not been pressed, the process returns to S203 and repeats the processes from S203 to S206. As a result, when the motion blur notification image is displayed on the display unit 109, the user can prevent the motion blur that would occur in the subject when the actual shooting is performed with the currently set shooting parameters for the actual shooting during the preparatory shooting. can be easily verified. If the confirmed motion blur is not the motion blur that the user likes, the user returns to S202 without pressing the shutter button, and resets the shutter speed (exposure time) for the actual photographing again in S203. good too. In this manner, during preparatory photography, the user repeatedly sets the exposure time for actual photography while confirming the motion blurring notification image displayed on the display unit 109 until the desired motion blur is achieved, and presses the shutter button at a photo opportunity. Press.

制御部101はS207にてシャッターボタンが押下げられたと判定した場合、本撮影の撮影指示を受けたとして、S208に進み、光学系104、撮像部105等を制御して、準備撮影までに設定された撮影パラメータに基づいて本撮影を行う。本撮影によって得られた本撮影画像は制御部101によって表示部109および記録部108に出力され、表示部109の表示デバイスへの表示及び記録部108での記録媒体への記録あるいは外部装置への出力が行なわれる。 If the control unit 101 determines in S207 that the shutter button has been pressed down, it assumes that the shooting instruction for main shooting has been received, and proceeds to S208 to control the optical system 104, the imaging unit 105, etc., and set up before the preparatory shooting. Actual photography is performed based on the obtained photography parameters. A main photographed image obtained by main photographing is output to the display unit 109 and the recording unit 108 by the control unit 101, and is displayed on the display device of the display unit 109 and recorded on a recording medium by the recording unit 108 or transferred to an external device. Output is done.

次に、本発明の特徴である画像処理部107が具備する動きブレ報知画像生成部300の構成例について図3を参照して説明する。 Next, a configuration example of the motion blurring notification image generation unit 300 included in the image processing unit 107, which is a feature of the present invention, will be described with reference to FIG.

図3は、動きブレ報知画像生成部300の構成例を示す図である。動きブレ報知画像生成部300は、画像間の比較から被写体の動きベクトルを算出する動きベクトル算出部301、算出された動きベクトルに基づいて本撮影時の被写体の動きブレを推定する推定動きブレ算出部302を含む。さらに推定された被写体の動きブレに基づいて動きブレを報知するためのデータを作成する報知プレーン生成部303、そして本実施形態では動きブレ報知プレーンを撮影画像に重畳するため、重畳処理を行う画像重畳部304を含む。各部の動作の詳細については後述する。 FIG. 3 is a diagram showing a configuration example of the motion blurring notification image generation unit 300. As shown in FIG. A motion blur notification image generation unit 300 includes a motion vector calculation unit 301 that calculates a motion vector of a subject from a comparison between images, and an estimated motion blur calculation that estimates the motion blur of the subject at the time of actual shooting based on the calculated motion vector. A portion 302 is included. Furthermore, a notification plane generation unit 303 that creates data for notifying motion blur based on the estimated motion blur of the subject, and an image that undergoes superimposition processing in order to superimpose the motion blur notification plane on the captured image in this embodiment. A superimposed portion 304 is included. Details of the operation of each unit will be described later.

なお、図3に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。 One or more of the functional blocks shown in FIG. 3 may be implemented by hardware such as an ASIC or programmable logic array (PLA), or implemented by a programmable processor such as a CPU or MPU executing software. may It may also be implemented by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as main entities, the same hardware can be implemented as the main entities.

次に、図2のS205にて動きブレ報知画像生成部300が行う処理について図4のフローチャートを参照して説明する。本フローチャートの各ステップは、制御部101あるいは制御部101の指示により動きブレ報知画像生成部300を含めた撮像装置100の各部が実行する。 Next, the processing performed by the motion blur notification image generation unit 300 in S205 of FIG. 2 will be described with reference to the flowchart of FIG. Each step of this flowchart is executed by the control unit 101 or by each unit of the imaging device 100 including the motion blur notification image generation unit 300 according to instructions from the control unit 101 .

S401にて制御部101は、S202で設定した撮影条件を設定する。そして、制御部101が光学系104、撮像部105を制御し、撮像装置100は本撮影を行う際の被写体の動きブレを検出するための準備撮影画像を連続して撮像する。 In S401, the control unit 101 sets the imaging conditions set in S202. Then, the control unit 101 controls the optical system 104 and the image capturing unit 105, and the image capturing apparatus 100 continuously captures preparatory captured images for detecting motion blurring of the subject during actual capturing.

S402では、制御部101は本撮影を行うためにユーザまたは、カメラが自動で設定したシャッタースピード情報を取得する。 In S402, the control unit 101 acquires shutter speed information automatically set by the user or the camera to perform actual photography.

S403では、制御部101は、準備撮影のフレームレート情報と、本撮影のシャッタースピードから、被写体の動きを検出(後述のS404)するために用いる準備画像フレームを選択する。準備画像フレームの選択方法については図10、11を用いて詳しく説明する。 In S403, the control unit 101 selects a preparatory image frame to be used for detecting the movement of the subject (S404 described later) from the frame rate information of the preparatory photographing and the shutter speed of the main photographing. A method of selecting the preparation image frames will be described in detail with reference to FIGS.

図10は、横軸を時間Tとしたときの準備撮影画像のフレーム群(1001)と、本撮影画像(1011)の取得タイミングを表しているタイミングチャートである。 FIG. 10 is a timing chart showing acquisition timings of a frame group (1001) of preparatory captured images and a main captured image (1011), with time T on the horizontal axis.

横軸は、撮影時刻を表し、図10の(a)の1021、(b)の1022は、被写体の動き量算出を行う際に用いる準備撮影画像フレームの選択を表す(矢印で結ばれた2フレームを用いて、その瞬間の動き量を算出する)。1021は、動きを検出するときに行う前後2フレームを選択する制御を表しており、1022は、本実施例中における準備撮影を行ったフレームレート情報と、本撮影のシャッタースピードから、準備画像フレームの選択を行った例である。1021の撮影画像フレームの選択は、一般的な被写体の動き量を算出するときに行われる方法で、本実施例では1022のように撮影画像フレームの選択を行う。 The horizontal axis represents the shooting time, and 1021 in (a) of FIG. 10 and 1022 in (b) of FIG. frame is used to calculate the amount of motion at that moment). Reference numeral 1021 denotes control for selecting two frames before and after movement is detected. Reference numeral 1022 denotes the frame rate information of the preparatory photographing in this embodiment and the shutter speed of the main photographing to select the preparatory image frames. This is an example of selection of The selection of a captured image frame 1021 is a method generally used when calculating the amount of motion of a subject.

本実施例中における準備画像フレームの選択の仕方について図11を用いて説明する。図11は、複数の準備撮影画像(1111~1114)のフレーム間隔と、本撮影のシャッタースピードで撮影した本撮影画像(1101)の露光時間との関係を表した図である。以下、具体的な数値を用いて説明する。本撮影で設定したシャッタースピードを1/30と設定すると、本撮影では露光時間1/30秒となる画像を取得する。つまり、1/30秒間における被写体の動きが小さければ蓄積ブレが少ない画像を取得できるということになる。一方、準備撮影画像は、動きを解析するため、フレーム間で蓄積ブレが発生しにくいシャッタースピードで撮影する。例えば、1/120秒よりも短い露光時間で複数フレームの撮影を行うとする。このとき連続撮影を行う準備撮影画像の撮像フレームレートを120fps(1秒間で120枚撮影する連続撮影)とする。制御部101は本撮影画像の露光時間における被写体の動きを検出するために、準備撮影画像のフレーム間隔が本撮影画像の露光時間に近くなるフレームを選択する。隣接する1111~1114までの準備撮影画像フレームの間隔は均一であるため、4フレーム間隔(1111と1114)は1/30秒となり、本撮影画像の露光時間と同等の時間となる。つまり、本撮影画像の露光時間の1/30秒と同等の時間の被写体の動きを含んだフレームを選択していることを意味する。準備撮影画像の選択したフレーム間隔と本撮影画像シャッタースピードの差が小さいほど、後述のS405の処理で行う誤差が小さくなり正確な推定ができる。したがって、制御部101はなるべく本撮影で設定したシャッタースピードと準備撮影画像のフレーム間隔が近くなるフレームを選択する。制御部101は以下式(2)を満たすフレーム間隔となる準備撮影画像を選択する。
F_Period(フレーム間隔)≧(本撮影のシャッタースピード×準備撮影のフレームレート)×α
(F_Periodは、式を満たす最小の整数、αは定数)・・・式(2)
A method of selecting a preparation image frame in this embodiment will be described with reference to FIG. FIG. 11 is a diagram showing the relationship between the frame intervals of a plurality of preparatory photographed images (1111 to 1114) and the exposure time of the main photographed image (1101) photographed at the shutter speed of the main photographing. A description will be given below using specific numerical values. If the shutter speed set in the actual shooting is set to 1/30, an image with an exposure time of 1/30 second is obtained in the actual shooting. In other words, if the movement of the subject in 1/30 second is small, an image with little accumulated blur can be obtained. On the other hand, the pre-shot images are shot at a shutter speed at which accumulated blurring is less likely to occur between frames in order to analyze motion. For example, assume that multiple frames are shot with an exposure time shorter than 1/120 second. At this time, it is assumed that the imaging frame rate of the preparatory shot images for continuous shooting is 120 fps (continuous shooting of 120 images per second). In order to detect the movement of the subject during the exposure time of the main shot image, the control unit 101 selects frames in which the frame interval of the preparatory shot image is close to the exposure time of the main shot image. Since the intervals between adjacent preparatory shot image frames 1111 to 1114 are uniform, the interval between four frames (1111 and 1114) is 1/30 second, which is equivalent to the exposure time of the main shot image. In other words, it means that a frame containing the movement of the subject for a time period equivalent to 1/30 second of the exposure time of the captured image is selected. The smaller the difference between the selected frame interval of the preparatory photographed image and the shutter speed of the main photographed image, the smaller the error in the process of S405, which will be described later, and the more accurate estimation can be performed. Therefore, the control unit 101 selects frames in which the shutter speed set in the actual photographing and the frame interval of the preparatory photographed image are as close as possible. The control unit 101 selects the preparatory captured images having frame intervals that satisfy the following equation (2).
F_Period (frame interval)≧(shutter speed for main shooting×frame rate for preparatory shooting)×α
(F_Period is the smallest integer that satisfies the formula, α is a constant) Formula (2)

式(2)を満たす被写体の動き量を算出する準備撮影画像フレームを選択することで、本撮影において設定するシャッタースピードと同じ時間間隔に近いフレーム選択が可能となる。 By selecting the preparatory photographed image frames for calculating the amount of movement of the subject that satisfies Equation (2), it is possible to select frames at intervals close to the same time interval as the shutter speed set in the main photographing.

以上、図10を用いて、準備撮影画像のフレーム間隔と本撮影のシャッタースピードとの関係を説明した。このようにして本実施形態では、準備撮影画像のフレーム間隔は、図10(b)の1022のフレームを選択するように制御部101が制御する。また、式(2)のαは、ISO感度が高くなるほど小さくなるように設定するのが望ましい。αを用いることで、撮影条件が厳しい場合にフレーム間隔を長くなりすぎるのを防ぐことができる。また、αは本撮影のシャッタースピード毎に変更しても良い。例えば本撮影のシャッタースピードが長い場合に、準備撮影画像のフレーム間隔が長くなりすぎると、フレーム間に複雑な被写体の動きが含まれやすくなり、被写体の動き検出の精度が低下しうる。ここで、αは本撮影のシャッタースピード毎に変更することで、被写体の動き検出の精度の低下を抑制できる。 The relationship between the frame interval of preparatory photographed images and the shutter speed of actual photographing has been described above with reference to FIG. 10 . In this way, in the present embodiment, the control unit 101 controls the selection of frame 1022 in FIG. 10B as the frame interval of the preparatory shot images. Also, it is desirable to set α in equation (2) so that it decreases as the ISO sensitivity increases. By using α, it is possible to prevent the frame interval from becoming too long when the shooting conditions are severe. Also, α may be changed for each shutter speed of the actual photographing. For example, when the shutter speed of the main photographing is long, if the frame interval of the preparatory photographed images becomes too long, complex movements of the subject are likely to be included between the frames, and the accuracy of detecting the movement of the subject may decrease. Here, α can be changed for each shutter speed of the actual photographing, thereby suppressing a decrease in the accuracy of motion detection of the subject.

図4のS404では、S403にて選択された準備撮影画像のフレームが動きブレ報知画像生成部300に入力され、動きベクトル算出部301が入力された画像を用いて被写体の動き量を算出する。動きベクトル算出部303による被写体の動き量を算出する処理については図6(a)に示すように、左に走っている犬601と止まっている犬602のシーンを撮影している例を用いて説明する。 In S404 of FIG. 4, the frame of the pre-shot image selected in S403 is input to the motion blur notification image generation unit 300, and the motion vector calculation unit 301 uses the input image to calculate the amount of motion of the subject. As for the processing for calculating the motion amount of the subject by the motion vector calculation unit 303, as shown in FIG. explain.

被写体の動き量として、動きベクトル算出部301は時系列的に連続する準備撮影画像間の動きベクトルを算出する。動きベクトルとは、準備撮影画像の画像間における被写体の水平方向の移動量と垂直方向の移動量をベクトルとして表したものである。動きベクトルの算出方法について、図7及び図8を参照して詳しく説明する。 As the motion amount of the subject, the motion vector calculation unit 301 calculates a motion vector between successive pre-shot images in time series. A motion vector is a vector representing the amount of horizontal movement and the amount of vertical movement of a subject between pre-captured images. A motion vector calculation method will be described in detail with reference to FIGS. 7 and 8. FIG.

図7は、動きベクトルの算出処理を示すフローチャートである。尚、本発明では、動きベクトルの算出手法としてブロックマッチング法を例に挙げて説明するが、動きベクトルの算出手法はこの例に限定されず、例えば勾配法などでもよい。本フローチャートの各ステップは制御部101あるいは制御部101の指示により動きブレ報知画像生成部300を含めた撮像装置100の各部が実行する。 FIG. 7 is a flowchart showing motion vector calculation processing. In the present invention, the block matching method will be described as an example of the motion vector calculation method, but the motion vector calculation method is not limited to this example, and may be, for example, a gradient method. Each step of this flowchart is executed by the control unit 101 or by each unit of the imaging apparatus 100 including the motion blur notification image generation unit 300 according to instructions from the control unit 101 .

S701において、制御部101は、準備撮影中に取得した時間的に隣接する2枚の準備撮影画像を受信し、M番目フレームの準備撮影画像を基準フレームに設定し、M+1番目フレームの準備撮影画像を参照フレームに設定する。 In step S<b>701 , the control unit 101 receives two temporally adjacent preparatory photographed images acquired during preparatory photographing, sets the preparatory photographed image of the Mth frame as a reference frame, and sets the preparatory photographed image of the M+1th frame. as the reference frame.

S702において、制御部101は、図8のように、基準フレーム801において、N×N画素の基準ブロック802を配置する。 In S702, the control unit 101 arranges a reference block 802 of N×N pixels in a reference frame 801 as shown in FIG.

S703において、制御部101は、図8のように、参照フレーム803に対し、基準フレーム801の基準ブロック802の中心座標と同座標804の周囲(N+n)×(N+n)画素を、探索範囲805として設定する。 In S703, the control unit 101 designates (N+n)×(N+n) pixels around the same coordinates 804 as the center coordinates of the reference block 802 of the reference frame 801 as a search range 805, as shown in FIG. set.

S704において、制御部101は動きベクトル算出部301を制御し、基準フレーム801の基準ブロック802と、参照フレーム803の探索範囲805内に存在する異なる座標のN×N画素の参照ブロック806との相関演算を行い、相関値を算出する。相関値は、基準ブロック802及び参照ブロック806の画素に対するフレーム間の差分絶対値和(SAD=Sum of Absolute Difference)に基づき算出する。つまり、フレーム間の差分絶対値和の値が最も小さい座標が、最も相関値が高い座標となる。尚、相関値の算出方法は、フレーム間差分絶対値和を求める方法に限定されず、例えばフレーム間差分二乗和や正規相互相関値に基づく相関値を算出する方法でもよい。図8の例では、参照ブロック806が最も相関が高いことを示しているとする。 In step S<b>704 , the control unit 101 controls the motion vector calculation unit 301 to determine the correlation between the reference block 802 of the reference frame 801 and the reference block 806 of N×N pixels with different coordinates existing within the search range 805 of the reference frame 803 . Calculation is performed to calculate the correlation value. A correlation value is calculated based on the sum of absolute differences (SAD) between frames for the pixels of the reference block 802 and the reference block 806 . In other words, the coordinate with the smallest sum of absolute differences between frames is the coordinate with the highest correlation value. Note that the method of calculating the correlation value is not limited to the method of obtaining the sum of the inter-frame absolute difference values, and may be, for example, a method of calculating the correlation value based on the inter-frame difference sum of squares or the normal cross-correlation value. In the example of FIG. 8, it is assumed that reference block 806 indicates the highest correlation.

S705において、制御部101は動きベクトル算出部301を制御し、S704で求めた最も高い相関値を示す参照ブロック座標に基づき動きベクトルを算出する。図8の例の場合、参照フレーム803の探索範囲805の中で、基準フレーム801の基準ブロック802の中心座標に対応した同座標804と、参照ブロック806の中心座標に基づき動きベクトルが求められる。つまり、同座標804から参照ブロック806の中心座標までの座標間距離と方向が動きベクトルとして求められる。 In S705, the control unit 101 controls the motion vector calculation unit 301 to calculate a motion vector based on the reference block coordinates indicating the highest correlation value obtained in S704. In the example of FIG. 8, a motion vector is obtained based on the coordinates 804 corresponding to the central coordinates of the reference block 802 of the reference frame 801 and the central coordinates of the reference block 806 in the search range 805 of the reference frame 803 . That is, the inter-coordinate distance and direction from the same coordinates 804 to the center coordinates of the reference block 806 are obtained as motion vectors.

S706において、制御部101は、基準フレーム801の全画素について動きベクトルを算出したか否か判定する。S706において全画素の動きベクトルを算出していないと判定した場合には、S702に処理を戻す。そして、ステップ602では、動きベクトルが算出されていない画素を中心として前述した基準フレーム801にN×N画素の基準ブロック802が配置され、以下前述同様に、S703からS705の処理が行われる。すなわち、動きベクトル算出部301は、図8の基準ブロック802を移動させながら、S702からS705までの処理を繰り返して、基準フレーム801の全画素の動きベクトルを算出する。この動きベクトルの例を図6(b)に示す。図6(b)は、図6(a)の準備撮影画像の動きベクトルの例を示す図である。 In S<b>706 , the control unit 101 determines whether motion vectors have been calculated for all pixels of the reference frame 801 . If it is determined in S706 that motion vectors for all pixels have not been calculated, the process returns to S702. Then, in step 602, a reference block 802 of N×N pixels is placed in the reference frame 801 described above, centering on pixels for which motion vectors have not been calculated. That is, the motion vector calculation unit 301 repeats the processing from S702 to S705 while moving the reference block 802 in FIG. 8 to calculate the motion vectors of all pixels of the reference frame 801. An example of this motion vector is shown in FIG. 6(b). FIG. 6(b) is a diagram showing an example of motion vectors of the preparatory photographed image of FIG. 6(a).

図6(a)の準備撮影画像では、犬601が左方向に走っている例を示している。このように被写体が移動している場合の動きベクトルの代表例を図6(b)に示す。図6(b)の例では、走っている犬601は左方向の動きベクトルとして検出し、それ以外の止まっている犬602や背景の柵は動きベクトル0として検出するため、動きベクトルを図示していない。 The preparatory photographed image in FIG. 6A shows an example in which a dog 601 is running leftward. FIG. 6B shows a representative example of motion vectors when the subject is moving in this way. In the example of FIG. 6B, a running dog 601 is detected as a motion vector in the left direction, and a resting dog 602 and a fence in the background are detected as motion vectors 0, so the motion vectors are illustrated. not

また動きベクトル算出部301は全画素の動きベクトルを算出するのではなく、所定画素毎に動きベクトルを算出してもよい。以上の処理により、時間的に隣接する準備撮影画像のフレーム間における動きベクトルを算出する。 Also, the motion vector calculation unit 301 may calculate a motion vector for each predetermined pixel instead of calculating the motion vector for all pixels. Through the above processing, a motion vector between frames of temporally adjacent pre-shot images is calculated.

図4のS405において、推定動きブレ算出部302は、算出した被写体の動き量と目標とする動きブレ量の関係を算出する。この時、S403において選択された準備撮影画像のフレーム間の時間が、本撮影のシャッタースピード(露光時間)と等しくない場合には本撮影における被写体ブレを精度良く計算することができない。従って、S404で検出した被写体の動き量に対して式(4)で求めた補正ゲインを掛けて動き量を換算し、本撮影の動きブレを推定する。
補正ゲイン=本撮影のシャッタースピード/選択した準備撮影画像のフレーム間…式(4)
In S405 of FIG. 4, the estimated motion blur calculation unit 302 calculates the relationship between the calculated subject motion amount and the target motion blur amount. At this time, if the frame-to-frame time of the preparatory photographed image selected in S403 is not equal to the shutter speed (exposure time) of the actual photographing, it is impossible to accurately calculate the subject blur in the actual photographing. Therefore, the amount of motion of the object detected in S404 is multiplied by the correction gain obtained by the equation (4) to convert the amount of motion, thereby estimating the motion blur in the actual photographing.
Correction gain=Shutter speed for main shooting/Between frames of selected preparatory shot image (Equation (4))

続いて、制御部101は式(4)の補正ゲインを掛けて推定された本撮影の動きブレ量、すなわち推定動きブレ量に対して、目標とする動きブレの量よりも大きいか、小さいかの判定処理を行う。ここでいう目標とする動きブレの量とは、所定のシャッタースピードで撮影した場合に動きブレとして目立たない程度に収まる許容動きブレ量である。許容動きブレ量はCCDやCMOSセンサー等の撮像素子のサイズ、画素数、そして、表示するディスプレイの解像度によって決まる。例えば、撮像素子が、APS‐Cで、画素数が20万画素、フルHD(1920×1080画素)のPCディスプレイで5pixel以下が許容動きブレ量だとすると、コマ間で5pixel以下の動きを検出できるようにすることが必要である。すなわち、許容動きブレ量以下の動きを検出するだけの分解能が必要ということになる。具体例として図5を用いて説明する。 Subsequently, the control unit 101 determines whether the amount of motion blur in the actual shooting estimated by multiplying the correction gain of equation (4), that is, the estimated amount of motion blur, is larger or smaller than the target amount of motion blur. judgment processing is performed. The target amount of motion blur referred to here is an allowable amount of motion blur that can be contained to such an extent that motion blur is inconspicuous when photographing is performed at a predetermined shutter speed. The allowable amount of motion blur is determined by the size of an imaging device such as a CCD or CMOS sensor, the number of pixels, and the resolution of a display. For example, if the image sensor is APS-C, the number of pixels is 200,000 pixels, and the allowable amount of motion blur is 5 pixels or less on a full HD (1920 x 1080 pixels) PC display, it should be possible to detect motion of 5 pixels or less between frames. It is necessary to In other words, a resolution that is sufficient to detect motion that is equal to or less than the allowable motion blur amount is required. A specific example will be described with reference to FIG.

図5(a)、(b)は、準備撮影画像から算出した被写体の動き量と許容動きブレ量の関係を動きベクトルを用いて表現したものである。図5(a)は、許容動きブレ量を超える被写体の動き量を検出した場合、図5(b)は、被写体の動き量が、許容動きブレ量以下の場合を示している。推定した被写体の動き量と目標とする動きブレ量の関係を式で表すと、式(1)で表される。
n=被写体動き量/許容動きブレ量・・・式(1)
FIGS. 5A and 5B express the relationship between the motion amount of the subject calculated from the preparatory photographed image and the allowable motion blur amount using motion vectors. FIG. 5(a) shows the case where the amount of motion of the subject exceeds the allowable amount of motion blur, and FIG. 5(b) shows the case where the amount of motion of the subject is equal to or less than the allowable amount of motion blur. The relationship between the estimated amount of motion of the subject and the target amount of motion blur can be represented by Equation (1).
n=subject motion amount/permissible motion blur amount (1)

この時、nが1よりも大きければ、許容動きブレ量を超えているため、制御部101は被写体ブレが発生すると判断する。逆にnが1以下であれば、制御部101は許容動きブレ量を超えないと判断する。すなわち、被写体ブレは許容範囲であると判断できる。目標とする許容動きブレ量は、ユーザの設定に任せて決定することも可能である。 At this time, if n is larger than 1, the allowable amount of motion blur is exceeded, so the control unit 101 determines that subject blur occurs. Conversely, if n is 1 or less, the control unit 101 determines that the allowable motion blur amount is not exceeded. That is, it can be determined that subject blur is within the allowable range. The target permissible amount of motion blurring can also be determined by the user's settings.

図4のS406において、制御部101の指示に基づいて放置プレーン生成部303はS405で求めた被写体の動き量と目標動きブレ量の関係から、動きブレを報知する画像を生成する。S406の処理について図9を用いて説明を行う。動きブレの報知は、本撮影を行う際の動きブレの程度をユーザに知らせる処理である。そのため、準備撮影画像から算出した動き量を、本撮影の露光条件で換算した時の動き量(推定動きブレ量)として推定し、推定した動き量を視覚的に確認可能なブレ報知画像作成する。 In S406 of FIG. 4, based on an instruction from the control unit 101, the idle plane generation unit 303 generates an image for notifying motion blur based on the relationship between the amount of motion of the subject obtained in S405 and the target amount of motion blur. The processing of S406 will be explained using FIG. The notification of motion blur is a process of notifying the user of the degree of motion blur during actual shooting. Therefore, the amount of motion calculated from the preparatory shot image is estimated as the amount of motion (estimated motion blur amount) when converted under the exposure conditions of the actual shooting, and a blur notification image is created that allows the estimated amount of motion to be visually confirmed. .

まず、被写体の動き量それぞれに対し、報知プレーン生成部303はS405で算出した式(1)の結果を用いて、動きブレを報知するための画像プレーンを作成する。その後、画像重畳部304は準備撮影画像に動きブレ報知プレーンを重畳し、動きブレ報知画像を生成する。ブレ報知画像の一例については、図9で説明する。 First, for each amount of movement of the subject, the notification plane generation unit 303 uses the result of equation (1) calculated in step S405 to create an image plane for notification of motion blur. After that, the image superimposing unit 304 superimposes the motion blurring notification plane on the preparatory photographed image to generate a motion blurring notification image. An example of the blur notification image will be described with reference to FIG.

図9は、動きブレ報知画像として3つの例を示している。準備撮影中に動きブレ報知画像を表示部109に表示することにより、ユーザは動きブレを容易に確認することができる。 FIG. 9 shows three examples of motion blur notification images. By displaying the motion blurring notification image on the display unit 109 during preparatory shooting, the user can easily confirm motion blurring.

まず図9(a)は、アイコン表示により動きブレを報知する例を示す。S405において、制御部101は式(1)のnが1より大きくなる被写体の動きブレ量が全体の被写体の動きブレ量に占める割合を算出する。その割合が所定割合以上の場合に、動きブレ報知画像生成部300は図9(a)に示すような動きブレアイコン901を動きブレ報知プレーンとして作成し、準備撮影画像に描画することにより図9(a)のような動きブレ報知画像を生成する。 First, FIG. 9(a) shows an example in which motion blur is notified by icon display. In S<b>405 , the control unit 101 calculates the ratio of the amount of motion blur of the subject for which n in Equation (1) is greater than 1 to the total amount of motion blur of the subject. When the ratio is equal to or greater than a predetermined ratio, the motion blurring notification image generating unit 300 creates a motion blurring notification plane 901 as shown in FIG. A motion blur notification image such as (a) is generated.

図9(b)は、動きブレ枠表示により動きブレを報知する例を示す。ここで、動きブレ枠表示による動きブレ報知画像の生成方法について説明する。S405において、制御部101は画像を領域に分割し、それぞれの分割した領域内に含まれる被写体の動きブレ量について式(1)により、nが1より大きくなる数を計算する。すなわち、制御部101の指示に基づいて報知プレーン生成部303はその割合が所定割合以上となった分割領域に対して、図9(b)に示すような動きブレ枠902を動きブレ報知プレーンとして作成し、準備撮影画像に描画することにより図9(b)のような動きブレ報知画像を生成する。 FIG. 9B shows an example of notification of motion blurring by motion blurring frame display. Here, a method of generating a motion blurring notification image by displaying a motion blurring frame will be described. In step S405, the control unit 101 divides the image into regions, and calculates a number that makes n greater than 1 using equation (1) for the motion blur amount of the subject included in each divided region. That is, based on an instruction from the control unit 101, the notification plane generation unit 303 generates a motion blurring frame 902 as a motion blurring notification plane as shown in FIG. A motion blur notification image such as that shown in FIG.

図9(c)は、動きブレが発生したエッジを強調表示することにより動きブレを報知する例を示す。ここで、動きブレエッジの強調表示による動きブレ報知画像の生成方法について説明する。まず、ステップS405において報知プレーン生成部303は準備撮影画像のエッジ強度を検出する。エッジ強度の算出は、ソーベルフィルタなどの既存の方法を用いるものとし、詳細な説明は省略する。そして、報知プレーン生成部303はエッジ強度が所定値以上、且つ、式(1)のnが1より大きくなる領域に対して、図9(c)の903に示すように動きブレエッジを強調表示するような動きブレ報知プレーンとして作成する。画像重畳部304が準備撮影画像に作成された動きブレ報知プレーンを重畳することにより図9(c)のような動きブレ報知画像を生成する。図9(c)の903の例では、動きブレエッジを太くする例を示している。このような動きブレエッジに強調表示を行うことで、被写体の細かい部位に対して、本撮影における動きブレを視認することが可能となる。強調表示方法の他の例としては、エッジ強度が所定値以上、且つ、推定動きブレが所定値以上の画素を抽出し、抽出した画素を赤くするなど、色相・彩度・明るさを変える強調表示の方法が挙げられる。 FIG. 9(c) shows an example in which motion blurring is reported by highlighting an edge where motion blurring has occurred. Here, a method of generating a motion blurring notification image by highlighting motion blurring edges will be described. First, in step S405, the notification plane generation unit 303 detects the edge strength of the preparatory photographed image. An existing method such as a Sobel filter is used to calculate the edge strength, and detailed description thereof is omitted. Then, the notification plane generation unit 303 highlights the motion blurred edge as shown in 903 in FIG. It is created as a motion blurring notification plane like this. The image superimposing unit 304 superimposes the created motion blurring notification plane on the preparatory photographed image to generate a motion blurring notification image as shown in FIG. 9(c). An example 903 in FIG. 9C shows an example of thickening the motion blur edge. By emphasizing such motion blurring edges, it is possible to visually recognize motion blurring in fine parts of the subject in the actual shooting. Another example of the highlighting method is to extract pixels whose edge strength is greater than or equal to a predetermined value and whose estimated motion blur is greater than or equal to a predetermined value. display method.

以上、図4のS401からS406の処理を行うことにより動きブレ報知画像生成部300が動きブレ報知画像を生成する処理について説明した。制御部101あるいは制御部101の指示により動きブレ報知画像生成部300を含めた撮像装置100の各部が図2のフローチャートを行うことで、本撮影で発生する動きブレを確認するための準備撮影の撮影条件を好適に決定することを実現できる。 The process of generating a motion blurring notification image by the motion blurring notification image generation unit 300 by performing the processes from S401 to S406 in FIG. 4 has been described above. The control unit 101 or each unit of the imaging apparatus 100 including the motion blur notification image generation unit 300 according to instructions from the control unit 101 performs the flowchart in FIG. It is possible to suitably determine the imaging conditions.

本発明によれば、本撮影で発生する動きブレを確認するための準備撮影画像を適切に選択し、動きを検出することで、本撮影で発生する適切な動きブレを確認することができる。 According to the present invention, it is possible to appropriately select a pre-photographed image for confirming motion blurring that occurs in main photography and detect motion, thereby making it possible to confirm appropriate motion blurring that occurs in main photography.

本発明では、本撮影における露光時間で発生する被写体ブレ量を推定するために、準備撮影画像のフレームの間隔に合わせてフレームを選択し、動き量を検出する制御について説明を行った。更に詳細な動きを検出するためには、本撮影画像の露光時間に対応する準備撮影画像のフレーム間隔内に含まれるすべての準備撮影画像を用いて被写体の動き量を検出することも可能である。例えば、図11、図12で説明すると、図11で説明した本撮影の露光時間(1/30秒)と準備撮影のフレームレート120fpsの場合、準備撮影画像では4フレーム間隔で1/30秒となる。そのため、実施例1では図11の1111と1114を用いて動きベクトル算出部301が被写体の動き量を計算していた(図12の1201)。ここでは1111と1112、1112と1113、1113と1114それぞれで求めた被写体動き量を制御部101が積算する(図12の1202)。これにより、準備撮影画像においても1/30秒の間の被写体が複雑に動いた場合(回転運動や、加速度運動など)にも1111から1114までの1/30秒における被写体の動きを正確に算出することができる。 In the present invention, in order to estimate the amount of subject blurring that occurs during the exposure time in the actual photographing, the control for selecting frames in accordance with the frame intervals of preparatory photographing images and detecting the amount of motion has been described. In order to detect more detailed movement, it is also possible to detect the amount of movement of the subject using all the preparatory photographed images included within the frame interval of the preparatory photographed images corresponding to the exposure time of the main photographed image. . For example, referring to FIGS. 11 and 12, when the exposure time (1/30 second) for the main shooting and the frame rate for the preparatory shooting are 120 fps as described in FIG. Become. Therefore, in Example 1, the motion vector calculation unit 301 calculates the motion amount of the subject using 1111 and 1114 in FIG. 11 (1201 in FIG. 12). Here, the control unit 101 integrates the amounts of subject movement obtained respectively in 1111 and 1112, 1112 and 1113, and 1113 and 1114 (1202 in FIG. 12). As a result, even if the subject moves intricately during 1/30 second (rotational motion, acceleration motion, etc.) in the pre-photographed image, the motion of the subject in 1/30 second from 1111 to 1114 can be accurately calculated. can do.

また、予め許容動きブレ量を撮影者が意図して決定していない時には、動き検出の限界範囲を超えない範囲内の動きベクトルの大きさを、許容動きブレ量として設定してもよい。その際には、被写体の動きが動き検出の範囲を超えたかを制御部101にて判断する。判断方法としては、動き検出時のSADの値で変化量が所定値よりも小さくなることや、ジャイロ情報などの撮像装置100本体の動きを測定する方法から求めることができる。制御部101にて許容動きブレ量を超えたと判定された場合には、シャッタースピードや、フレームレートを速くなるように制御を行う。 Further, when the allowable amount of motion blur is not intentionally determined by the photographer in advance, the size of the motion vector within a range that does not exceed the limit range of motion detection may be set as the allowable amount of motion blur. At that time, the control unit 101 determines whether the motion of the subject exceeds the motion detection range. As a determination method, it can be obtained from a method of measuring the movement of the main body of the imaging apparatus 100 such as gyro information or the amount of change in the SAD value at the time of motion detection being smaller than a predetermined value. When the control unit 101 determines that the allowable motion blurring amount is exceeded, control is performed so that the shutter speed and the frame rate are increased.

本発明では、動きブレの報知方法として、表示部109に動きブレを報知する表示を行う例について説明したが、動きブレの報知方法としてはこれに限ったものではない。例えば、音や光や振動により動きブレを報知しても良い。具体的には、画素毎の推定動きブレのうち、所定値以上の推定動きブレを示す画素数が画面全体に占める割合が所定割合以上の場合に、動きブレ報知音、報知光、報知振動を発生させる。この実施形態では、報知プレーン生成部303や画像重畳部304の構成、ステップS405、ステップS406の処理フローは不要となる。代わりに撮像装置100内にスピーカーを備え、ステップS205において、表示部109への準備撮影画像の表示に併せて、制御部101が報知音をスピーカーで鳴らしたり、報知光を点灯させたり、報知振動を起こすとよい。 In the present invention, as a motion blurring notification method, an example of displaying a motion blurring notification on the display unit 109 has been described, but the motion blurring notification method is not limited to this. For example, motion blurring may be notified by sound, light, or vibration. Specifically, when the number of pixels showing an estimated motion blur of a predetermined value or more among the estimated motion blur of each pixel occupies a predetermined ratio or more of the entire screen, motion blur notification sound, notification light, and notification vibration are generated. generate. In this embodiment, the configuration of the notification plane generating unit 303 and the image superimposing unit 304 and the processing flow of steps S405 and S406 are not required. Instead, a speaker is provided in the imaging apparatus 100, and in step S205, in conjunction with the display of the preparatory photographed image on the display unit 109, the control unit 101 sounds a notification sound from the speaker, lights a notification light, or generates notification vibration. should wake up.

本発明では、制御部101が本撮影のシャッタースピードに応じて準備撮影画像から動きを検出するフレームの選択を変更していたが、本撮影のシャッタースピードが安定しているときのみに動き検出を行う準備撮影画像のフレームの選択を変更してもよい。本撮影のシャッタースピードが安定しているときのみ、動き検出を行う準備撮影画像のフレーム制御をおこなうことで、ユーザがシャッタースピードの制御に迷っているときや、制御部101が計算する評価値が安定していない場合に、所望でない動きブレ報知画像を表示部109に表示されることを防ぐことが可能となる。 In the present invention, the control unit 101 changes the selection of the frame for motion detection from the preparatory shot image according to the shutter speed of the main shooting. The selection of the frame of the preparatory photographed image to be performed may be changed. Only when the shutter speed of the actual shooting is stable, frame control of the pre-shot image for which motion detection is performed is performed. It is possible to prevent an undesired motion blur notification image from being displayed on the display unit 109 when it is not stable.

被写体の動きが安定しているかどうかの判断の一例としては、一度準備撮影の撮影条件を変更した後に動被写体の動きが安定しているかを動きベクトルの変化として求めることで判断できる。このとき、単位時間当たりの動きベクトルの変化が大きくなった場合には、再度準備撮影の撮影条件を変更することが可能である。 As an example of determining whether or not the motion of the subject is stable, it can be determined by determining whether or not the motion of the moving subject is stable as a change in the motion vector after changing the shooting conditions for the preparatory shooting. At this time, if the change in motion vector per unit time becomes large, it is possible to change the shooting conditions for the preparatory shooting again.

本発明では、制御部101が本撮影のシャッタースピードに応じて準備撮影画像から動きを検出するフレームの選択を変更していたが、準備撮影のフレームの選択だけでなく準備撮影のシャッタースピードを変更しても良い。例えば、本撮影のシャッタースピードが所定値よりも長くなった時、本撮影のISO感度が所定値よりも高ければ、準備撮影のシャッタースピードを長く変更する。逆に、本撮影のISO感度が低い場合には、準備撮影のシャッタースピードを短く変更する。これにより、動きを検出するための準備撮影の撮影条件をノイズの影響と蓄積ブレをトレードオフとして、動きを検出するための適切な準備撮影画像を撮像することが可能となる。 In the present invention, the control unit 101 changes the selection of the frame for motion detection from the preparatory photographed image according to the shutter speed of the main photographing. You can For example, when the shutter speed of the main photographing is longer than a predetermined value, if the ISO sensitivity of the main photographing is higher than the predetermined value, the shutter speed of the preparatory photographing is changed to be longer. Conversely, if the ISO sensitivity for the main shooting is low, the shutter speed for the preparatory shooting is shortened. This makes it possible to capture an appropriate preparatory photographed image for detecting movement by making a trade-off between the effects of noise and accumulated blur as the photographing conditions for preparatory photographing for detecting movement.

続いて、準備撮影のフレームレートを、本撮影のシャッタースピードに合わせて変更することで、本撮影における被写体ブレ量を推定し、動きブレ報知画像を生成する例について説明を行う。本実施例を実現することで、本撮影の被写体ブレ報知を行うために効率的に準備撮影画像のフレームレートを制御することが可能となる。 Next, an example of estimating the amount of subject blurring in main photography and generating a motion blurring notification image by changing the frame rate of preparatory photography in accordance with the shutter speed of main photography will be described. By realizing this embodiment, it is possible to efficiently control the frame rate of the preparatory photographed image in order to notify the subject blurring of the main photographing.

本実施例では、実施例1の図1と同じ撮像装置100の構成で実現できるため、撮像装置100のブロック図の説明を省略する。また、実施例2における制御部101が行う全体処理は、図2のフローチャートで示す処理と同じため説明を省略する。 Since the present embodiment can be realized with the same configuration of the imaging apparatus 100 as that of the first embodiment shown in FIG. 1, description of the block diagram of the imaging apparatus 100 is omitted. Also, the overall processing performed by the control unit 101 in the second embodiment is the same as the processing shown in the flowchart of FIG. 2, and thus description thereof is omitted.

次に、本発明の特徴である図2のS202、S205の処理について詳しく説明する。 Next, the processing of S202 and S205 in FIG. 2, which is a feature of the present invention, will be described in detail.

S202の処理において、制御部101は準備撮影のフレームレートを本撮影のシャッタースピードに合わせて変更する。これについて図13を用いて説明する。 In the processing of S202, the control unit 101 changes the frame rate of the preparatory photographing in accordance with the shutter speed of the main photographing. This will be described with reference to FIG. 13 .

図13(a)は、一般的な準備撮影と本撮影のタイミングチャートを示した図であり、(b)は、実施例2における、本撮影のシャッタースピードに合わせて、準備撮影のフレームレートを変更した例である。一例として、本撮影のシャッタースピードとして1/30秒、図13(a)に示されるフレームレート変更前の準備撮影のフレームレートを120fpsとする。このとき、本撮影画像1311は、シャッタースピードは1/30秒のため、露光時間が1/30秒の画像となる。本実施例では、図13(b)のように本撮影画像の露光時間に近づくように、制御部101が準備撮影のフレームレートを変更する。例えば、準備撮影のフレームレートが120fpsの際に、隣接するフレームの間隔は1/120秒となる。ここで、本撮影画像の露光時間が1/30秒であった場合は、制御部101は準備撮影のフレームレートを120fpsから30fpsに変更する。つまり、準備撮影のフレームレートは以下の式(3)となる。
準備撮影の変更後フレームレート=β/本撮影のシャッタースピード…式(3)
(βは、定数)
FIG. 13A is a diagram showing a general timing chart of preparatory shooting and main shooting, and FIG. This is a modified example. As an example, it is assumed that the shutter speed of the main photographing is 1/30 second and the frame rate of the preparatory photographing before changing the frame rate shown in FIG. 13(a) is 120 fps. At this time, the actually shot image 1311 is an image with an exposure time of 1/30 second because the shutter speed is 1/30 second. In this embodiment, the control unit 101 changes the frame rate of the preparatory photographing so as to approach the exposure time of the actually photographed image as shown in FIG. 13(b). For example, when the frame rate of preparatory photography is 120 fps, the interval between adjacent frames is 1/120 second. Here, if the exposure time of the main shot image is 1/30 second, the control unit 101 changes the frame rate of the preparatory shooting from 120 fps to 30 fps. That is, the frame rate of the preparatory photographing is given by the following formula (3).
Post-change frame rate for preparatory photography = β/shutter speed for main photography Equation (3)
(β is a constant)

βは、実施例1の式(2)のαと同様に本撮影のISO感度やシャッタースピードによって変える予め既定の定数である。制御部101は上記の式(3)を満たすように準備撮影のフレームレートを変更することで、本撮影のシャッタースピードにおける被写体ブレを適切に検出できるフレーム間隔に設定できる。フレームレートの変更後の図13(b)では、図13(a)のフレームレートで準備撮影を行った際の隣接フレームを用いて被写体の動きを検出する場合と、図13(b)のフレーム間隔(1321)を比べると、1321の準備撮影のフレーム間隔が広くなり、本撮影1311の露光時間に近い時間間隔となっていることが分かる。従って本撮影1311の露光時間相当の被写体の動きが、図13(b)のように準備撮影のフレームレートを制御することで推定可能となる。なお、ここでフレームレートが本撮影の露光時間に一致しなくてもよく、フレームレートが本撮影の露光時間以上の値に変更されてもよい。 β is a preset constant that is changed according to the ISO sensitivity and shutter speed of the actual photographing, like α in the formula (2) of the first embodiment. The control unit 101 changes the frame rate of the preparatory photographing so as to satisfy the above formula (3), thereby setting the frame interval to appropriately detect subject blurring at the shutter speed of the main photographing. In FIG. 13B after the frame rate is changed, the case where the movement of the subject is detected using the adjacent frames when preparatory shooting is performed at the frame rate in FIG. 13A and the frame in FIG. Comparing the interval (1321), it can be seen that the frame interval of the preparatory photographing of 1321 is widened and the time interval is close to the exposure time of the main photographing 1311. Therefore, the motion of the subject corresponding to the exposure time of the main shooting 1311 can be estimated by controlling the frame rate of the preparatory shooting as shown in FIG. 13B. It should be noted that the frame rate does not have to match the exposure time of the actual photography here, and the frame rate may be changed to a value equal to or greater than the exposure time of the actual photography.

続いてS205の処理について図14のフローチャートを用いて説明する。本フローチャートの各ステップは制御部101あるいは制御部101の指示により動きブレ報知画像生成部300を含めた撮像装置100の各部が実行する。 Next, the processing of S205 will be described using the flowchart of FIG. Each step of this flowchart is executed by the control unit 101 or by each unit of the imaging apparatus 100 including the motion blur notification image generation unit 300 according to instructions from the control unit 101 .

S1401において、制御部101は、S401と同様の処理を行い、撮影条件を設定する。そして、制御部101が光学系104、撮像部105を制御し、撮像装置100は準備撮影画像を連続して撮像する。 In S1401, the control unit 101 performs the same processing as in S401 to set imaging conditions. Then, the control unit 101 controls the optical system 104 and the image capturing unit 105, and the image capturing apparatus 100 continuously captures preparatory captured images.

S1402において、制御部101は、S402と同等の処理を行う。 In S1402, the control unit 101 performs processing equivalent to that of S402.

S1403において、制御部101は、S404と同様の処理を行い、動きベクトル算出部301がS1401で撮影した準備撮影画像から被写体の動き量を算出する。 In S1403, the control unit 101 performs the same processing as in S404, and the motion vector calculation unit 301 calculates the motion amount of the subject from the pre-captured image captured in S1401.

S1404において、推定動きブレ算出部302は、S405と同様の処理を行い、撮像装置100は、算出した被写体の動き量と目標とする動きブレ量の関係を算出する。 In S1404, the estimated motion blur calculation unit 302 performs the same processing as in S405, and the imaging apparatus 100 calculates the relationship between the calculated subject motion amount and the target motion blur amount.

S1305において、制御部101は、図4のS406と同様の処理を行う。S1404の処理の本撮影画像の推定被写体ブレ量に基づいて報知プレーン生成部303は動きブレを報知するための画像プレーンを作成し、画像重畳部304が準備撮影画像に動きブレ報知プレーンを重畳し、動きブレ報知画像を生成する。 In S1305, the control unit 101 performs the same processing as S406 in FIG. The notification plane generation unit 303 creates an image plane for notification of motion blur based on the estimated subject blur amount of the main captured image in the process of S1404, and the image superimposition unit 304 superimposes the motion blur notification plane on the preparatory captured image. , to generate a motion blur notification image.

以上の実施例2の制御部101が制御する図2のフローチャートの全体処理について、特徴的な処理であるS202、S205を具体的に説明した。 S202 and S205, which are characteristic processes, have been specifically described for the entire process of the flowchart in FIG. 2 controlled by the control unit 101 of the second embodiment.

実施例2の構成を実行することにより、制御部101は、本撮影の露光時間に影響する被写体の動きを検出するための準備撮影のフレームレートを制御できる。したがって、本撮影で発生する動きブレを精度よく検出することが可能となる。また、被写体の動きを検出するために常に高いフレームレートで準備撮影画像を撮影し続ける必要がなくなるため、精度の良い動きの検出が省電力で実現できる。 By executing the configuration of the second embodiment, the control unit 101 can control the frame rate of the preparatory photographing for detecting the movement of the subject that affects the exposure time of the main photographing. Therefore, it is possible to accurately detect the motion blur that occurs in the actual shooting. In addition, since it is not necessary to continuously shoot preparatory shot images at a high frame rate in order to detect the motion of the subject, it is possible to achieve accurate motion detection with low power consumption.

本発明では、制御部101が本撮影のシャッタースピードに応じて準備撮影画像から動きを検出するフレームの選択を変更していた。ここで、本撮影のシャッタースピードが撮像装置100にて設定可能なフレームレートの最大の値よりも大きい場合、準備撮影におけるフレームレートは最大値で固定し、フレーム間隔が最も近い準備撮影画像を選択して動きを検出する構成としてもよい。なお、この条件では本撮影時にほとんど動きブレが発生しないため、動きブレの推定を行なわなくてもよい。このように本撮影のシャッタースピードがある値よりも大きい、すなわち本撮影の露光時間がある時間よりも短い場合はフレームレートを特定の値に固定してもよい。 In the present invention, the control unit 101 changes the selection of frames for motion detection from the preparatory photographed image according to the shutter speed of the main photographing. Here, if the shutter speed of the main shooting is higher than the maximum value of the frame rate that can be set in the imaging device 100, the frame rate in the preparatory shooting is fixed at the maximum value, and the preparatory shooting image with the closest frame interval is selected. It is good also as a structure which detects a motion by doing. Note that under this condition, motion blur does not occur at the time of actual shooting, so motion blur does not need to be estimated. In this way, when the shutter speed of the main photographing is higher than a certain value, that is, when the exposure time of the main photographing is shorter than a certain time, the frame rate may be fixed to a specific value.

また、本撮影のシャッタースピードに閾値を設け、その値に応じて制御部が準備撮影におけるフレームレートを制御するという構成にしてもよい。例えば本撮影のシャッタースピードに対して第1の閾値と第1の閾値より大きい第2の閾値を設ける。この時、本撮影のシャッタースピードが第1の閾値未満であれば制御部101は第1のフレームレートで制御を行う。また、本撮影のシャッタースピードが第1の閾値以上、第2の閾値未満であれば、第2のフレームレート、本撮影のシャッタースピードが第2の閾値以上であれば第3のフレームレートとして制御部101が制御してよい。 Alternatively, a threshold value may be provided for the shutter speed of the main photographing, and the control unit may control the frame rate in the preparatory photographing according to the threshold value. For example, a first threshold value and a second threshold value larger than the first threshold value are provided for the shutter speed of the actual photographing. At this time, if the shutter speed for the actual shooting is less than the first threshold, the control unit 101 performs control at the first frame rate. Also, if the shutter speed of the actual shooting is greater than or equal to the first threshold and less than the second threshold, the second frame rate is controlled, and if the shutter speed of the actual photography is greater than or equal to the second threshold, the third frame rate is controlled. The unit 101 may control.

本発明では、推定した動きブレが所定の値以上の場合に動きブレを報知する例について説明したが、例えば、動きブレ量の大きさによって複数の動きブレ表示を行う場合でも適用可能である。例えば、推定した動きブレ量の大きさによって3色(赤、青、黄色)で表現するような場合が考えられる。その場合には、それぞれの色で表現する動き量の大きさの範囲が表現できるように最も狭い動き量の範囲を検出できる許容動き量と設定する。例えば、ベクトルの大きさに対して、動きブレの表現色が黄色:0~10pixel、青色:11~15pixel、赤16pixel以上の場合、青色の範囲が最も動き量として狭い区間となる。つまり、青色の範囲(11~15)の5pixelを許容動きブレ量として設定することで実現できる。 In the present invention, an example has been described in which motion blur is notified when the estimated motion blur is equal to or greater than a predetermined value. For example, it is conceivable to express in three colors (red, blue, and yellow) depending on the magnitude of the estimated amount of motion blur. In this case, the allowable amount of motion that can be detected is set to the narrowest range of the amount of motion so that the range of magnitude of the amount of motion represented by each color can be expressed. For example, when the expression colors of motion blur are yellow: 0 to 10 pixels, blue: 11 to 15 pixels, and red: 16 pixels or more with respect to the magnitude of the vector, the blue range is the narrowest section as the amount of motion. That is, it can be realized by setting 5 pixels in the blue range (11 to 15) as the allowable motion blur amount.

本発明では、許容動きブレ量を設定し、許容動きブレ量以下の動きを検出できるように準備撮影画像の撮影条件であるフレームレートを制御したが、検出する動きブレが所定値以下の場合にも撮影条件を変更しても良い(スポーツ優先モード等)。 In the present invention, the allowable amount of motion blur is set, and the frame rate, which is the imaging condition of the preparatory shot image, is controlled so that the motion that is equal to or less than the allowable amount of motion blur can be detected. Also, the shooting conditions may be changed (sports priority mode, etc.).

準備撮影画像の撮影条件は、被写体の動きが安定している状態を検出したときに変更するようにしても良い。また、一度準備撮影の撮影条件を変更した後に被写体の動きが安定しているかを動きベクトルの変化として求め、単位時間当たりの動きベクトルの変化が大きくなった場合には、再度準備撮影の撮影条件を変更しても良い。 The shooting conditions for the preparatory shot image may be changed when it is detected that the motion of the subject is stable. In addition, after changing the shooting conditions for the preparatory shooting once, whether or not the motion of the subject is stable is obtained as a change in the motion vector. may be changed.

予め許容動きブレ量が設定できないような時には、動き検出の限界範囲を超えない範囲内の動きベクトルの大きさを、許容動き量に設定してもよい。その際には、被写体の動きが動き検出の範囲を超えたかを制御部101が判断する。判断方法としては、動き検出時のSADの値で変化量が所定値よりも小さくなることや、ジャイロ情報などの撮像装置100本体の動きを測定する方法から求めることができる。制御部101にて許容動きブレ量を超えたと判定された場合には、シャッタースピードや、フレームレートが速くなるように制御を行う。 When the allowable motion blur amount cannot be set in advance, the allowable motion amount may be set to the size of the motion vector within a range that does not exceed the limit range of motion detection. At that time, the control unit 101 determines whether the motion of the subject exceeds the motion detection range. As a determination method, it can be obtained from a method of measuring the movement of the main body of the imaging apparatus 100 such as gyro information or the amount of change in the SAD value at the time of motion detection being smaller than a predetermined value. When the control unit 101 determines that the allowable motion blur amount is exceeded, control is performed so that the shutter speed and the frame rate are increased.

本発明では、動きブレの報知方法として、表示部109に動きブレを報知する表示を行う例について説明したが、動きブレの報知方法としてはこれに限ったものではない。例えば、音や光や振動により動きブレを報知しても良い。具体的には、画素毎の推定動きブレのうち、所定値以上の推定動きブレを示す画素数が画面全体に占める割合が所定割合以上の場合に、動きブレ報知音を発生させても良い。その場合は動きブレの報知手段として、マイクなどのブレ報知音発生手段を用意すればよい。 In the present invention, as a motion blurring notification method, an example of displaying a motion blurring notification on the display unit 109 has been described, but the motion blurring notification method is not limited to this. For example, motion blurring may be notified by sound, light, or vibration. Specifically, the motion blur notification sound may be generated when the number of pixels showing an estimated motion blur of a predetermined value or more among the estimated motion blur of each pixel occupies a predetermined ratio or more of the entire screen. In such a case, blur notification sound generating means such as a microphone may be prepared as motion blur notification means.

(その他の実施形態)
以上、本発明について実施の形態に基づいて説明したが、本発明はこれらの実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
(Other embodiments)
Although the present invention has been described above based on the embodiments, the present invention is not limited to these embodiments, and various forms without departing from the gist of the present invention are also included in the present invention.

本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行する。 The object of the present invention can also be achieved as follows. That is, a storage medium in which software program codes describing procedures for realizing the functions of the above-described embodiments are recorded is supplied to the system or device. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。 In this case, the program code itself read from the storage medium implements the novel functions of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD-ROM、CD-R、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、DVD-R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。 Storage media for supplying program codes include, for example, flexible disks, hard disks, optical disks, and magneto-optical disks. Also, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, non-volatile memory card, ROM, etc. can be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。 Moreover, the functions of the above-described embodiments are realized by making the program code read by the computer executable. Furthermore, based on the instructions of the program code, the OS (operating system) running on the computer performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments. is also included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。 It also includes the following cases: First, a program code read from a storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

100 撮像装置
101 制御部
102 ROM
103 RAM
104 光学系
105 撮像部
106 A/D変換部
107 画像処理部
108 記録部
109 表示部
110 指示入力部
100 imaging device 101 control unit 102 ROM
103 RAM
104 optical system 105 imaging unit 106 A/D conversion unit 107 image processing unit 108 recording unit 109 display unit 110 instruction input unit

Claims (36)

第1の撮影パラメータで第1の撮影を行うことにより得られた複数の第1の撮影画像および該複数の第1の撮影画像における被写体の動き情報を取得する取得手段と、
前記第1の撮影パラメータとは独立して設定された第2の撮影パラメータで第2の撮影が行われる場合に前記動き情報および前記第2の撮影パラメータから、第2の撮影で得られる第2の撮影画像における被写体の動きブレを推定する推定手段と、
前記第1の撮影パラメータ、および第2の撮影パラメータを設定する設定手段と、
前記動きブレの情報を報知する報知手段と、を備え、
前記取得手段は前記第2の撮影パラメータに係る前記第2の撮影における露光時間に対応して変更された前記第1の撮影パラメータによって得られた前記複数の第1の撮影画像から前記動き情報を取得することを特徴とする情報処理装置。
Acquisition means for acquiring a plurality of first shot images obtained by performing a first shooting with a first shooting parameter and motion information of a subject in the plurality of first shot images;
When the second imaging is performed with the second imaging parameters set independently of the first imaging parameters, the second imaging parameters obtained in the second imaging are obtained from the motion information and the second imaging parameters. an estimating means for estimating the motion blur of the subject in the captured image of
setting means for setting the first imaging parameter and the second imaging parameter;
and a notification means for notifying information of the motion blur,
The acquiring means acquires the motion information from the plurality of first captured images obtained by the first shooting parameters changed corresponding to the exposure time in the second shooting related to the second shooting parameters. An information processing device characterized by acquiring.
前記第1の撮影パラメータは、前記第1の撮影におけるフレームレート、シャッタースピードの少なくとも1つを含むことを特徴とする請求項1に記載の撮像装置。 2. The imaging apparatus according to claim 1, wherein said first shooting parameter includes at least one of a frame rate and shutter speed in said first shooting. 前記推定手段は、前記動き情報と、前記第1の撮影パラメータの1つであるフレームレートとを用いて前記動きブレを推定することを特徴とする請求項2に記載の情報処理装置。 3. An information processing apparatus according to claim 2, wherein said estimation means estimates said motion blur using said motion information and a frame rate which is one of said first imaging parameters. 前記設定手段は、前記第2撮影における露光時間に基づいて前記第1の撮影パラメータの1つであるフレームレートを変更することを特徴とする請求項2または3に記載の情報処理装置。 4. The information processing apparatus according to claim 2, wherein said setting means changes a frame rate, which is one of said first photographing parameters, based on an exposure time in said second photographing. 前記取得手段は前記フレームレートを前記第2の撮影における露光時間以上の値に変更することを特徴とする請求項4に記載の情報処理装置。 5. An information processing apparatus according to claim 4, wherein said acquisition means changes said frame rate to a value equal to or greater than the exposure time in said second photographing. 前記取得手段は変更された前記フレームレートで取得された前記複数の第1の画像のうち、時系列的に連続する2つの画像から前記動き情報を取得することを特徴とする請求項4に記載の情報処理装置。 5. The method according to claim 4, wherein said acquiring means acquires said motion information from two images that are consecutive in time series among said plurality of first images acquired at said changed frame rate. information processing equipment. 前記報知手段は、前記動きブレに対応する情報を表示部に表示することで前記動きブレを報知することを特徴とする請求項1または2に記載の情報処理装置。 3. The information processing apparatus according to claim 1, wherein said notification means notifies said motion blur by displaying information corresponding to said motion blur on a display unit. 前記報知手段は、前記動きブレに対応する情報を前記第1の撮影画像に重畳して表示部に表示することで前記動きブレを報知することを特徴とする請求項1または2に記載の情報処理装置。 3. The information according to claim 1, wherein the notification means notifies the motion blur by superimposing information corresponding to the motion blur on the first captured image and displaying the information on the display unit. processing equipment. 前記推定手段において予め定めた値よりも大きな動きブレが推定された場合、前記報知手段は前記動きブレの報知を行うことを特徴とする請求項1または2に記載の情報処理装置。 3. The information processing apparatus according to claim 1, wherein when said estimation means estimates motion blur larger than a predetermined value, said notification means reports said motion blur. 前記報知手段は、
前記表示部にアイコンを描画した画像を表示することにより動きブレを報知することを特徴とする請求項9に記載の情報処理装置。
The notification means is
10. The information processing apparatus according to claim 9, wherein motion blur is notified by displaying an image in which an icon is drawn on the display unit.
前記報知手段は、
前記表示部に動きブレ枠を描画した画像を表示することにより動きブレを報知することを特徴とする請求項9に記載の情報処理装置。
The notification means is
10. The information processing apparatus according to claim 9, wherein motion blurring is notified by displaying an image in which a motion blurring frame is drawn on said display unit.
前記報知手段は、
前記表示部に動きブレエッジを強調して描画した画像を表示することにより動きブレを報知することを特徴とする請求項9に記載の情報処理装置。
The notification means is
10. The information processing apparatus according to claim 9, wherein motion blurring is notified by displaying an image drawn by emphasizing a motion blurring edge on the display unit.
前記報知手段による報知がOFFの場合、前記報知手段は前記動きブレの報知を行なわないことを特徴とする請求項1または2に記載の情報処理装置。 3. The information processing apparatus according to claim 1, wherein when the notification by said notification means is OFF, said notification means does not notify said motion blurring. 前記第1の撮影は前記第2の撮影とは異なる時刻の画像を撮像する準備撮影であることを特徴とする請求項1または2に記載の情報処理装置。 3. The information processing apparatus according to claim 1, wherein said first photographing is preparatory photographing for photographing an image at a time different from said second photographing. 前記第2の撮影とは本撮影であり、前記第1の撮影とは、前記本撮影の前に行う準備撮影であることを特徴とする請求項14に記載の情報処理装置。 15. The information processing apparatus according to claim 14, wherein said second photography is main photography, and said first photography is preparatory photography performed before said main photography. 動きブレ報知音を発生する動きブレ報知音発生手段を備え、
前記動きブレ報知手段は、音により動きブレを報知することを特徴とする請求項1または2に記載の情報処理装置。
a motion blurring notification sound generating means for generating a motion blurring notification sound;
3. The information processing apparatus according to claim 1, wherein said motion blur notification means uses sound to notify motion blur.
第1の撮影パラメータで第1の撮影を行うことにより得られた複数の第1の撮影画像および該複数の第1の撮影画像における被写体の動き情報を取得する取得手段と、
前記第1の撮影パラメータとは独立して設定された第2の撮影パラメータで第2の撮影が行われる場合に前記動き情報および前記第2の撮影パラメータから、第2の撮影で得られる第2の撮影画像における被写体の動きブレを推定する推定手段と、
前記第1の撮影パラメータ、および第2の撮影パラメータを設定する設定手段と、
前記動きブレの情報を報知する報知手段と、を備え、
前記取得手段は前記第2の撮影パラメータに係る前記第2の撮影における露光時間をもとに前記複数の第1の撮影画像から前記動き情報を取得するのに用いる画像を決定することを特徴とする情報処理装置。
Acquisition means for acquiring a plurality of first shot images obtained by performing a first shooting with a first shooting parameter and motion information of a subject in the plurality of first shot images;
When the second imaging is performed with the second imaging parameters set independently of the first imaging parameters, the second imaging parameters obtained in the second imaging are obtained from the motion information and the second imaging parameters. an estimating means for estimating the motion blur of the subject in the captured image of
setting means for setting the first imaging parameter and the second imaging parameter;
and a notification means for notifying information of the motion blur,
The acquiring means determines an image to be used for acquiring the motion information from the plurality of first photographed images based on the exposure time in the second photographing related to the second photographing parameter. information processing equipment.
前記第1の撮影パラメータは、前記第1の撮影におけるフレームレート、シャッタースピードの少なくとも1つを含むことを特徴とする請求項17に記載の情報処理装置。 18. The information processing apparatus according to claim 17, wherein said first shooting parameter includes at least one of frame rate and shutter speed in said first shooting. 前記取得手段は前記第1の撮影パラメータの1つであるフレームレートと、前記第2の撮影における露光時間の値の差に応じて、前記複数の第1の画像から前記動き情報を取得するのに用いる画像を決定することを特徴とする請求項8に記載の情報処理装置。 The obtaining means obtains the motion information from the plurality of first images according to a difference between a frame rate, which is one of the first photographing parameters, and an exposure time value in the second photographing. 9. The information processing apparatus according to claim 8, wherein an image to be used for is determined. 前記取得手段は、前記第2の撮影における露光時間に対応する時間間隔となるように前記複数の第1の画像から2つの画像を選択することを特徴とする請求項19に記載の情報処理装置。 20. The information processing apparatus according to claim 19, wherein said acquiring means selects two images from said plurality of first images so as to have a time interval corresponding to an exposure time in said second photographing. . 前記報知手段は、前記動きブレに対応する情報を表示部に表示することで前記動きブレを報知することを特徴とする請求項17または18に記載の情報処理装置。 19. The information processing apparatus according to claim 17, wherein the notification means notifies the motion blur by displaying information corresponding to the motion blur on a display unit. 前記報知手段は、前記動きブレに対応する情報を前記第1の撮影画像に重畳して表示部に表示することで前記動きブレを報知することを特徴とする請求項17または18に記載の情報処理装置。 19. The information according to claim 17, wherein the notification means notifies the motion blur by superimposing information corresponding to the motion blur on the first captured image and displaying the information on the display unit. processing equipment. 前記推定手段において予め定めた値よりも大きな動きブレが推定された場合、前記報知手段は前記動きブレの報知を行うことを特徴とする請求項17または18に記載の情報処理装置。 19. The information processing apparatus according to claim 17 or 18, wherein when said estimation means estimates motion blur larger than a predetermined value, said notification means reports said motion blur. 前記報知手段は、
前記表示部にアイコンを描画した画像を表示することにより動きブレを報知することを特徴とする請求項23に記載の情報処理装置。
The notification means is
24. The information processing apparatus according to claim 23, wherein the motion blur is notified by displaying an image in which an icon is drawn on the display unit.
前記報知手段は、
前記表示部に動きブレ枠を描画した画像を表示することにより動きブレを報知することを特徴とする請求項23に記載の情報処理装置。
The notification means is
24. The information processing apparatus according to claim 23, wherein motion blurring is notified by displaying an image in which a motion blurring frame is drawn on said display unit.
前記報知手段は、
前記表示部に動きブレエッジを強調して描画した画像を表示することにより動きブレを報知することを特徴とする請求項23に記載の情報処理装置。
The notification means is
24. The information processing apparatus according to claim 23, wherein motion blurring is notified by displaying an image drawn by emphasizing a motion blurring edge on said display unit.
前記報知手段による報知がOFFの場合、前記報知手段は前記動きブレの報知を行なわないことを特徴とする請求項17または18に記載の情報処理装置。 19. The information processing apparatus according to claim 17, wherein when the notification by said notification means is OFF, said notification means does not notify said motion blurring. 前記第1の撮影は前記第2の撮影とは異なる時刻の画像を撮像する準備撮影であることを特徴とする請求項17または18に記載の情報処理装置。 19. The information processing apparatus according to claim 17, wherein said first photographing is preparatory photographing for photographing an image at a time different from said second photographing. 前記第2の撮影とは本撮影であり、前記第1の撮影とは、前記本撮影の前に行う準備撮影であることを特徴とする請求項28に記載の情報処理装置。 29. The information processing apparatus according to claim 28, wherein said second photography is main photography, and said first photography is preparatory photography performed before said main photography. 動きブレ報知音を発生する動きブレ報知音発生手段を備え、
前記動きブレ報知手段は、音により動きブレを報知することを特徴とする請求項17または18に記載の情報処理装置。
a motion blurring notification sound generating means for generating a motion blurring notification sound;
19. The information processing apparatus according to claim 17, wherein said motion blur notification means notifies motion blur with sound.
光学系を介して結像された被写体像を撮像し、前記画像を出力する撮像手段を有し、
第1の撮影パラメータで第1の撮影を行うことにより得られた複数の第1の撮影画像および該複数の第1の撮影画像における被写体の動き情報を取得する取得手段と、
前記第1の撮影パラメータとは独立して設定された第2の撮影パラメータで第2の撮影が行われる場合に前記動き情報および前記第2の撮影パラメータから、第2の撮影で得られる第2の撮影画像における被写体の動きブレを推定する推定手段と、
前記第1の撮影パラメータ、および第2の撮影パラメータを設定する設定手段と、
前記動きブレの情報を報知する報知手段と、を備え、
前記取得手段は前記第2の撮影パラメータに係る前記第2の撮影における露光時間に対応して変更された前記第1の撮影パラメータによって得られた前記複数の第1の撮影画像から前記動き情報を取得することを特徴とする撮像装置。
an imaging means for capturing an image of a subject formed through an optical system and outputting the image;
Acquisition means for acquiring a plurality of first shot images obtained by performing a first shooting with a first shooting parameter and motion information of a subject in the plurality of first shot images;
When the second imaging is performed with the second imaging parameters set independently of the first imaging parameters, the second imaging parameters obtained in the second imaging are obtained from the motion information and the second imaging parameters. an estimating means for estimating the motion blur of the subject in the captured image of
setting means for setting the first imaging parameter and the second imaging parameter;
and a notification means for notifying information of the motion blur,
The acquiring means acquires the motion information from the plurality of first captured images obtained by the first shooting parameters changed corresponding to the exposure time in the second shooting related to the second shooting parameters. An imaging device characterized by acquiring.
光学系を介して結像された被写体像を撮像し、前記画像を出力する撮像手段を有し、
第1の撮影パラメータで第1の撮影を行うことにより得られた複数の第1の撮影画像および該複数の第1の撮影画像における被写体の動き情報を取得する取得手段と、
前記第1の撮影パラメータとは独立して設定された第2の撮影パラメータで第2の撮影が行われる場合に前記動き情報および前記第2の撮影パラメータから、第2の撮影で得られる第2の撮影画像における被写体の動きブレを推定する推定手段と、
前記第1の撮影パラメータ、および第2の撮影パラメータを設定する設定手段と、
前記動きブレの情報を報知する報知手段と、を備え、
前記取得手段は前記第2の撮影パラメータに係る前記第2の撮影における露光時間をもとに前記複数の第1の撮影画像から前記動き情報を取得するのに用いる画像を決定することを特徴とする撮像装置。
an imaging means for capturing an image of a subject formed through an optical system and outputting the image;
Acquisition means for acquiring a plurality of first shot images obtained by performing a first shooting with a first shooting parameter and motion information of a subject in the plurality of first shot images;
When the second imaging is performed with the second imaging parameters set independently of the first imaging parameters, the second imaging parameters obtained in the second imaging are obtained from the motion information and the second imaging parameters. an estimating means for estimating the motion blur of the subject in the captured image of
setting means for setting the first imaging parameter and the second imaging parameter;
and a notification means for notifying information of the motion blur,
The acquiring means determines an image to be used for acquiring the motion information from the plurality of first photographed images based on the exposure time in the second photographing related to the second photographing parameter. imaging device.
第1の撮影パラメータで第1の撮影を行うことにより得られた複数の第1の撮影画像および該複数の第1の撮影画像における被写体の動き情報を取得する取得工程と、
前記第1の撮影パラメータとは独立して設定された第2の撮影パラメータで第2の撮影が行われる場合に前記動き情報および前記第2の撮影パラメータから、第2の撮影で得られる第2の撮影画像における被写体の動きブレを推定する推定工程と、
前記第1の撮影パラメータ、および第2の撮影パラメータを設定する設定工程と、
前記動きブレの情報を報知する報知工程と、を備え、
前記取得工程において前記第2の撮影パラメータに係る前記第2の撮影における露光時間に対応して変更された前記第1の撮影パラメータによって得られた前記複数の第1の撮影画像から前記動き情報を取得することを特徴とする画像処理装置の制御方法。
an acquisition step of acquiring a plurality of first captured images obtained by performing a first capturing with a first capturing parameter and motion information of a subject in the plurality of first captured images;
When the second imaging is performed with the second imaging parameters set independently of the first imaging parameters, the second imaging parameters obtained in the second imaging are obtained from the motion information and the second imaging parameters. an estimation step of estimating the motion blur of the subject in the captured image of
a setting step of setting the first imaging parameter and the second imaging parameter;
a notification step of notifying information of the motion blur,
obtaining the motion information from the plurality of first captured images obtained by the first imaging parameter changed corresponding to the exposure time in the second imaging according to the second imaging parameter in the obtaining step; A control method for an image processing apparatus, characterized by acquiring a
第1の撮影パラメータで第1の撮影を行うことにより得られた複数の第1の撮影画像および該複数の第1の撮影画像における被写体の動き情報を取得する取得工程と、
前記第1の撮影パラメータとは独立して設定された第2の撮影パラメータで第2の撮影が行われる場合に前記動き情報および前記第2の撮影パラメータから、第2の撮影で得られる第2の撮影画像における被写体の動きブレを推定する推定工程と、
前記第1の撮影パラメータ、および第2の撮影パラメータを設定する設定工程と、
前記動きブレの情報を報知する報知工程と、を備え、
前記取得工程において前記第2の撮影パラメータに係る前記第2の撮影における露光時間をもとに前記複数の第1の撮影画像から前記動き情報を取得するのに用いる画像を決定することを特徴とする情報処理装置の制御方法。
an acquisition step of acquiring a plurality of first captured images obtained by performing a first capturing with a first capturing parameter and motion information of a subject in the plurality of first captured images;
When the second imaging is performed with the second imaging parameters set independently of the first imaging parameters, the second imaging parameters obtained in the second imaging are obtained from the motion information and the second imaging parameters. an estimation step of estimating the motion blur of the subject in the captured image of
a setting step of setting the first imaging parameter and the second imaging parameter;
a notification step of notifying information of the motion blur,
characterized in that, in the acquisition step, an image to be used for acquiring the motion information from the plurality of first captured images is determined based on the exposure time in the second imaging related to the second imaging parameter. A control method for an information processing device.
請求項33または34に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 33 or 34. 請求項35に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to execute each step of the control method according to claim 35.
JP2022068183A 2021-06-04 2022-04-18 Information processing apparatus, imaging apparatus, information processing method and control method, and program Pending JP2022186598A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
GB2208055.0A GB2610018B (en) 2021-06-04 2022-05-31 Information processing apparatus that notifies subject blur, image capturing apparatus, information processing method, and control method
CN202210619476.8A CN115442533A (en) 2021-06-04 2022-06-01 Information processing apparatus and method, image pickup apparatus, control method therefor, and storage medium
DE102022113938.7A DE102022113938A1 (en) 2021-06-04 2022-06-02 Information processing device notifying object blur, image pickup device, information processing method and control method
US17/832,355 US20220394174A1 (en) 2021-06-04 2022-06-03 Information processing apparatus that notifies subject blur, image capturing apparatus, information processing method, and control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021094492 2021-06-04
JP2021094492 2021-06-04

Publications (1)

Publication Number Publication Date
JP2022186598A true JP2022186598A (en) 2022-12-15

Family

ID=84442407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022068183A Pending JP2022186598A (en) 2021-06-04 2022-04-18 Information processing apparatus, imaging apparatus, information processing method and control method, and program

Country Status (1)

Country Link
JP (1) JP2022186598A (en)

Similar Documents

Publication Publication Date Title
JP5235798B2 (en) Imaging apparatus and control method thereof
KR101034109B1 (en) Image capture apparatus and computer readable recording medium storing with a program
JP5005570B2 (en) Image processing apparatus and program
RU2562918C2 (en) Shooting device, shooting system and control over shooting device
JP2008288975A (en) Imaging apparatus, imaging method and imaging program
US11343426B2 (en) Notifying apparatus, image capturing apparatus, notifying method, and storage medium for making a notification of motion blur
US9071766B2 (en) Image capturing apparatus and control method thereof
CN111385471B (en) Information processing apparatus and method, image pickup apparatus and control method thereof, and storage medium
US11818466B2 (en) Notifying apparatus, image capturing apparatus, notifying method, image capturing method, and storage medium
KR101004914B1 (en) Imaging apparatus and imaging method
JP2010147786A (en) Imaging device and image processing method
JP6261205B2 (en) Image processing device
JP2010093679A (en) Imaging apparatus, and imaging control method
US11477384B2 (en) Information processing apparatus, imaging apparatus, information processing method, control method for imaging apparatus, and storage medium for notifying of a subject blur occuring in a captured image
JP2006287814A (en) Imaging apparatus and method of determining motion vector
JP2009017427A (en) Imaging device
JP7246894B2 (en) Imaging device and its control method
JP2007300269A (en) Exposure correcting device, photographing device, image restoring device, exposure value setting device, exposure correction value calculation method and control program
JP2022186598A (en) Information processing apparatus, imaging apparatus, information processing method and control method, and program
JP7389558B2 (en) Information processing device and its control method and program
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
JP2014131188A (en) Imaging apparatus, control method of the same, and control program
JP2020109948A (en) Information processing device, imaging apparatus, information processing method, and control method of imaging apparatus
JP2011172266A (en) Imaging apparatus, imaging method and imaging program
US20220394174A1 (en) Information processing apparatus that notifies subject blur, image capturing apparatus, information processing method, and control method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213