JP2019110386A - Image processing system, its control method and program - Google Patents

Image processing system, its control method and program Download PDF

Info

Publication number
JP2019110386A
JP2019110386A JP2017240672A JP2017240672A JP2019110386A JP 2019110386 A JP2019110386 A JP 2019110386A JP 2017240672 A JP2017240672 A JP 2017240672A JP 2017240672 A JP2017240672 A JP 2017240672A JP 2019110386 A JP2019110386 A JP 2019110386A
Authority
JP
Japan
Prior art keywords
motion blur
image
information
moving object
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017240672A
Other languages
Japanese (ja)
Other versions
JP2019110386A5 (en
Inventor
裕紀子 久保
Yukiko Kubo
裕紀子 久保
宏典 海田
Hironori Kaida
宏典 海田
賢治 小貫
Kenji Konuki
賢治 小貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017240672A priority Critical patent/JP2019110386A/en
Publication of JP2019110386A publication Critical patent/JP2019110386A/en
Publication of JP2019110386A5 publication Critical patent/JP2019110386A5/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To make it difficult for a moving body to be disappeared in an image process for imparting a motion change thereto.SOLUTION: To produce a motion-changed image by using respective captured images of a plurality of frames continuous in a time series, a moving-body information acquisition unit 302 calculates a motion vector of a moving body, as movement information relating to movement of the moving body in the captured images. A subject information acquisition unit 303 acquires overlap information between frames of the moving body and information about difference between the moving body and background, as subject information of a subject of the moving body in the captured images. On the basis of the movement information acquired by the moving body information acquisition unit 302 and the subject information acquired by the subject information acquisition unit 303, a motion change intensity determination unit 304 evaluates a degree of disappearance of the moving body when a motion change is imparted thereto, and determines the number of compositions, as a motion change intensity, according to the evaluation result.SELECTED DRAWING: Figure 3

Description

本発明は、画像処理装置、その制御方法及びプログラムに関する。   The present invention relates to an image processing apparatus, a control method thereof and a program.

動感表現を行う技術として、1フレームを擬似的に長秒で撮影したかのように表現した擬似長秒動画を生成するものがある。これは、例えば動画の複数フレームに対して移動平均合成を行うことで、動きブレを付与し、移動体にブラーを付与したような効果をつけた動画を生成する技術である。   As a technique for performing motion expression, there is one that generates a pseudo long second moving image which is expressed as if one frame is pseudo shot in a long second. This is a technology for applying motion blur to a plurality of frames of a moving image, for example, to add motion blur, and to generate a moving image with an effect such as giving a blur to a moving object.

特許文献1には、撮像部で撮像された複数の画像データの中から特定の画像データと、前記特定の画像データに合成する合成用画像データとを選択し、被写体の移動量に基づいて、前記特定の画像データに合成する前記合成用画像データの合成枚数を決定する構成が開示されている。これにより、例えばバスケットゴールに向けてシュートする人物の移動軌跡を表した画像や、バレリーナのジャンプの軌跡を表した画像を作成することができる。   In Patent Document 1, a specific image data and a combination image data to be combined with the specific image data are selected from among a plurality of image data captured by the imaging unit, and based on the movement amount of the subject, A configuration is disclosed that determines the number of combined image data for combination to be combined with the specific image data. This makes it possible to create, for example, an image representing the movement trajectory of a person shooting toward a basketball goal, and an image representing the trajectory of a ballerina jump.

特許第5948960号公報Patent No. 5948960 gazette 特許第5589527号公報Patent No. 5589527 gazette

特許文献1に開示された従来技術は、移動体の移動開始から移動終了までの一連の動きの軌跡を表すものであり、移動量が大きい場合には、合成枚数を増やして合成を行う。
しかしながら、合成枚数が増えると、合成後の画像において移動体が消えて、見えにくくなることがある。例えば移動体の動きが速いと、画像間での移動体の重なりが少なくなり、また、合成する毎に動いていない背景の比重が大きくなるため、合成後の画像において背景が濃く、移動体が薄く写り、移動体が消えやすくなる。
The prior art disclosed in Patent Document 1 represents a trajectory of a series of movements from the start of movement to the end of movement of the moving object, and when the amount of movement is large, the number of combined sheets is increased to perform synthesis.
However, if the number of combined images increases, the moving object may disappear in the image after combining and it may be difficult to see. For example, if the movement of the moving object is fast, the overlapping of the moving object between the images decreases, and the specific gravity of the non-moving background increases each time the image is synthesized. The image is thin and the moving object is easily disappeared.

本発明は上記のような点に鑑みてなされたものであり、動きブレを付与する画像処理において移動体を消えにくくすることを目的とする。   The present invention has been made in view of the above-described points, and it is an object of the present invention to make it difficult for a moving object to disappear in image processing for applying motion blur.

本発明の画像処理装置は、時系列で連続する複数の画像中の移動体に関する情報を取得する取得手段と、前記取得手段で取得した情報に基づいて評価される、動きブレを付与したときの前記移動体の消えやすさに応じて動きブレ強度を決定する動きブレ強度決定手段と、前記動きブレ強度決定手段で決定した動きブレ強度に基づいて、前記画像を用いて、動きブレを付与した動きブレ付与画像を生成する動きブレ付与手段とを備えたことを特徴とする。   The image processing apparatus according to the present invention includes an acquisition unit that acquires information on moving objects in a plurality of images continuous in time series, and a motion blur that is evaluated based on the information acquired by the acquisition unit. Motion blur is applied using the image based on the motion blur intensity determining means for determining the motion blur intensity according to the ease of disappearance of the moving object, and the motion blur intensity determined by the motion blur intensity determining means And motion blur applying means for generating a motion blur imparted image.

本発明によれば、動きブレを付与する画像処理において移動体を消えにくくすることができる。   According to the present invention, it is possible to make it difficult for a moving object to disappear in image processing for applying motion blur.

第1の実施形態に係る撮像装置の構成を示す図である。It is a figure showing composition of an imaging device concerning a 1st embodiment. 擬似長秒動画を説明するための図である。It is a figure for demonstrating a pseudo | simulation long second moving image. 第1の実施形態に係る撮像装置の機能構成を示す図である。It is a figure showing functional composition of an imaging device concerning a 1st embodiment. 第1の実施形態において撮像装置が実行する処理を示すフローチャートである。It is a flowchart which shows the process which an imaging device performs in 1st Embodiment. 動きベクトルの算出について説明するための図である。It is a figure for demonstrating calculation of a motion vector. 移動体の重なり領域の算出について説明するための図である。It is a figure for demonstrating calculation of the overlap area | region of a moving body. 消えやすさの評価値と各情報との関係の例を示す特性図である。It is a characteristic view which shows the example of the relationship between the evaluation value of the ease of elimination, and each information. 合成枚数と消えやすさの評価値との関係の例を示す特性図である。It is a characteristic view which shows the example of the relationship between the synthetic number and the evaluation value of the easiness of disappearance. 第2の実施形態において撮像装置が実行する処理を示すフローチャートである。It is a flowchart which shows the process which an imaging device performs in 2nd Embodiment. 優先度と各情報との関係の例を示す特性図である。It is a characteristic view showing an example of a relation between priority and each information. 第3の実施形態において撮像装置が実行する処理を示すフローチャートである。It is a flowchart which shows the process which an imaging device performs in 3rd Embodiment. フィルタ処理のタップ数及びフィルタ係数の決定について説明するための図である。It is a figure for demonstrating determination of the number of taps of filter processing, and a filter factor. 第4の実施形態において撮像装置が実行する処理を示すフローチャートである。It is a flowchart which shows the process which an imaging device performs in 4th Embodiment. 移行期間画像の合成枚数の決定について説明するための図である。It is a figure for demonstrating determination of the number of compositings of a transition period image. 移行期間の長さ、及び移行期間画像の合成枚数の決定について説明するための図である。It is a figure for demonstrating the determination of the length of a transition period, and the synthetic | combination number of objects of a transition period. 第5の実施形態において撮像装置が実行する処理を示すフローチャートである。It is a flowchart which shows the process which an imaging device performs in 5th Embodiment. 移行期間画像のフィルタ強度の決定について説明するための図である。It is a figure for demonstrating determination of the filter strength of a transition period image. 移行期間画像のフィルタ強度の決定について説明するための図である。It is a figure for demonstrating determination of the filter strength of a transition period image. 第6の実施形態に係る撮像装置の画像処理部の機能構成を示す図である。It is a figure which shows the function structure of the image processing part of the imaging device which concerns on 6th Embodiment. 第6の実施形態において撮像装置が実行する処理を示すフローチャートである。It is a flowchart which shows the process which an imaging device performs in 6th Embodiment. 画像の合成について説明するための図である。It is a figure for explaining composition of a picture. 画像の合成について説明するための図である。It is a figure for explaining composition of a picture. 画像の合成について説明するための図である。It is a figure for explaining composition of a picture. 領域毎の合成枚数の例を示す図である。It is a figure which shows the example of the number of compositings for every area | region.

以下、添付図面を参照して、本発明の好適な実施形態について説明する。以下に述べる実施形態では、撮像装置が本発明を適用した画像処理装置として機能する例を説明する。
(第1の実施形態)
図1は、実施形態に係る撮像装置100の構成を示す図である。
システム制御部101は、例えばCPUにより構成され、動作プログラムをROM102より読み出し、RAM103に展開して実行することにより撮像装置100が備える各部の動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、動作プログラムに加え、各部の動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、撮像装置100が備える各部の動作において出力されたデータの一時的な記憶領域として用いられる。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In the embodiments described below, an example in which an imaging apparatus functions as an image processing apparatus to which the present invention is applied will be described.
First Embodiment
FIG. 1 is a diagram showing the configuration of an imaging device 100 according to the embodiment.
The system control unit 101 includes, for example, a CPU, reads an operation program from the ROM 102, and develops and executes the operation program in the RAM 103 to control the operation of each unit included in the imaging apparatus 100. The ROM 102 is a rewritable non-volatile memory, and stores, in addition to the operation program, parameters and the like necessary for the operation of each unit. The RAM 103 is a rewritable volatile memory, and is used as a temporary storage area of data output in the operation of each unit included in the imaging device 100.

光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群により構成される。光学系104を介して取得された被写体像は、撮像部105に結像する。撮像部105は、例えばCCDやCMOSセンサ等の撮像素子により構成され、光学系104により結像された光学像を光電変換し、得られた一対のアナログ画像信号を順次A/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像信号に変換し、得られたデジタル画像データをRAM103に出力する。   The optical system 104 is configured of a lens group including a zoom lens and a focus lens. A subject image obtained via the optical system 104 forms an image on the imaging unit 105. The imaging unit 105 is formed of an imaging element such as a CCD or CMOS sensor, for example, photoelectrically converts an optical image formed by the optical system 104, and sequentially obtains a pair of analog image signals obtained to the A / D conversion unit 106. Output. The A / D conversion unit 106 converts the input analog image signal into a digital image signal, and outputs the obtained digital image data to the RAM 103.

画像処理部107は、RAM103等に記録された画像データに対して、ホワイトバランス調整、色補間、ガンマ処理、電子ズーム処理等、様々な画像処理を実行する。また、画像処理部107は、動きブレを付与する画像処理を実行する。表示部108は、LCD等の表示デバイスであり、RAM103及び記録部109に記録した画像やユーザからの指示を受け付けるための操作ユーザインターフェイスを表示する。記録部109は、メモリカードやハードディスク等の記録媒体により構成され、画像処理を行った最終的な出力画像データを格納する。   An image processing unit 107 executes various image processing such as white balance adjustment, color interpolation, gamma processing, electronic zoom processing, and the like on the image data recorded in the RAM 103 or the like. Also, the image processing unit 107 executes image processing for applying motion blur. The display unit 108 is a display device such as an LCD, and displays an operation user interface for receiving an image recorded in the RAM 103 and the recording unit 109 or an instruction from a user. The recording unit 109 is formed of a recording medium such as a memory card or a hard disk, and stores final output image data subjected to image processing.

第1の実施形態では、擬似長秒動画を生成する際に、動きブレを付与したときの移動体の消えやすさを評価し、その評価結果に応じて動きブレ強度を決定する。本実施形態では、画像の合成枚数を決定することにより動きブレ強度を決定する。
図2を参照して、擬似長秒動画について説明する。図2は、撮影した動画の1〜4フレームの画像201〜204と、合成後の画像211、212とを示す。
擬似長秒動画では、移動体(図示例ではバスや歩行者)の動きブレを表現するために、動画の複数フレームに対して移動平均合成を行う。画像211は、1〜3フレームの画像201〜203を合成した画像であり、動きブレを付与した動きブレ付与画像である。また、画像212は、2〜4フレームの画像202〜204を合成した画像であり、動きブレを付与した動きブレ付与画像である。
In the first embodiment, when generating a pseudo long second moving image, the ease of disappearance of the moving object when the motion blur is applied is evaluated, and the motion blur intensity is determined according to the evaluation result. In the present embodiment, the motion blur intensity is determined by determining the number of combined images.
The pseudo long second moving image will be described with reference to FIG. FIG. 2 shows images 201 to 204 of 1 to 4 frames of the captured moving image, and images 211 and 212 after combination.
In the pseudo long second moving image, moving average combination is performed on a plurality of frames of the moving image in order to express motion blur of a moving object (a bus or a pedestrian in the illustrated example). The image 211 is an image obtained by combining the images 201 to 203 of 1 to 3 frames, and is a motion blur imparted image to which motion blur is added. The image 212 is an image obtained by combining the images 202 to 204 of 2 to 4 frames, and is a motion blur imparted image to which motion blur is added.

このようにフレームを順次ずらしながら画像をオーバーラップさせて合成を行うことで、動きブレを付与し、移動体にブラーを付与したような効果をつけた動画を生成する。合成枚数に応じて動きブレ強度が変化する。合成枚数が少なければ、移動体は消えにくいが、移動量が小さくなるので、動きブレ強度は弱くなる。一方で、合成枚数が多ければ、移動体は消えやすいが、移動量が大きくなるので、動きブレ強度が強くなる。
また、移動体の動きが速いと、フレーム間での移動体の重なりが少なくなり、また、合成する毎に動いていない背景の比重が大きくなるため、合成後の画像において背景が濃く、移動体が薄く写り、移動体が消えやすくなる。
As described above, by combining the images while sequentially shifting the frames, a motion blur is applied, and a moving image with an effect of giving a blur to the moving object is generated. Motion blur intensity changes according to the number of combined images. If the number of combined images is small, the moving object is hard to disappear, but the amount of movement is small, so the motion blur intensity becomes weak. On the other hand, if the number of combined sheets is large, the moving object is likely to disappear, but the moving amount becomes large, so the motion blur intensity becomes strong.
In addition, when the moving object moves fast, the overlapping of moving objects between frames decreases, and the specific gravity of the non-moving background increases with each composition, so the background in the image after composition becomes dark, and the moving object Becomes thin, and the moving object is likely to disappear.

図3は、第1の実施形態に係る撮像装置100の機能構成を示す図である。
301は撮像画像取得部であり、動画を構成する、時系列で連続する複数フレームの撮像画像を取得する。
302は移動体情報取得部であり、撮像画像取得部301で取得した撮像画像中の移動体の移動に関する移動情報を取得する。移動情報として、移動体の動きベクトルを算出して、移動体の消えやすさの評価に使用する。本実施形態では、移動体情報取得部302が本発明でいう移動体情報取得手段として機能する。
303は被写体情報取得部であり、撮像画像取得部301で取得した撮像画像中の移動体の被写体としての被写体情報を取得する。被写体情報として、移動体のフレーム間での重なり情報、移動体と背景との差分情報を取得して、移動体の消えやすさの評価に使用する。本実施形態では、被写体情報取得部303が本発明でいう被写体情報取得手段として機能する。
FIG. 3 is a diagram showing a functional configuration of the imaging device 100 according to the first embodiment.
Reference numeral 301 denotes a captured image acquisition unit, which acquires captured images of a plurality of frames continuous in time series, which constitute a moving image.
Reference numeral 302 denotes a moving body information acquisition unit, which acquires movement information on the movement of the moving body in the captured image acquired by the captured image acquisition unit 301. As movement information, the motion vector of the moving body is calculated and used for evaluation of the disappearance of the moving body. In the present embodiment, the moving body information acquisition unit 302 functions as a moving body information acquisition unit in the present invention.
A subject information acquisition unit 303 acquires subject information as a subject of a moving object in the captured image acquired by the captured image acquisition unit 301. As the subject information, overlapping information between the frames of the moving object and difference information between the moving object and the background are acquired, and are used for evaluation of the disappearance of the moving object. In the present embodiment, the subject information acquisition unit 303 functions as a subject information acquisition unit in the present invention.

304は動きブレ強度決定部であり、移動体情報取得部302で取得した移動情報及び被写体情報取得部303で取得した被写体情報に基づいて、動きブレを付与したときの移動体の消えやすさを評価する。そして、動きブレ強度決定部304は、その評価結果に応じて動きブレ強度として合成枚数を決定する。本実施形態では、動きブレ強度決定部304が本発明でいう動きブレ強度決定手段として機能する。
305は動きブレ付与部であり、動きブレ強度決定部304で決定した合成枚数に基づいて、撮像画像取得部301で取得した撮像画像を用いて、動きブレ付与画像を生成する。動きブレ付与画像は、擬似長秒動画用のフレームの画像であり、時系列で連続する複数フレームの動きブレ付与画像を生成することにより擬似長秒動画が生成される。本実施形態では、動きブレ付与部305が本発明でいう動きブレ付与手段として機能する。
306は画像出力部であり、動きブレ付与部305で生成した擬似長秒動画を出力する。
Reference numeral 304 denotes a motion blur strength determination unit, which indicates the ease of disappearance of the moving object when the motion blur is applied based on the movement information acquired by the moving object information acquisition unit 302 and the subject information acquired by the object information acquisition unit 303. evaluate. Then, the motion blur strength determination unit 304 determines the combined number as the motion blur strength according to the evaluation result. In the present embodiment, the motion blur strength determination unit 304 functions as motion blur strength determination means in the present invention.
A motion blur imparting unit 305 generates a motion blur imparted image using the captured image acquired by the captured image acquisition unit 301 based on the combined number determined by the motion blur strength determination unit 304. The motion blur imparted image is an image of a frame for a pseudo long second moving image, and a pseudo long sec moving image is generated by generating a motion blur imparted image of a plurality of consecutive frames in time series. In the present embodiment, the motion blur applying unit 305 functions as a motion blur applying unit in the present invention.
An image output unit 306 outputs the pseudo long second moving image generated by the motion blur adding unit 305.

図4は、第1の実施形態において撮像装置100が実行する処理を示すフローチャートである。図4のフローチャートは、システム制御部101が動作プログラムをROM102より読み出し、RAM103に展開して実行することにより実現される。
第1の実施形態では、撮像画像取得部301で取得した撮像画像中において移動体が1体だけである例を説明する。
FIG. 4 is a flowchart showing processing performed by the imaging device 100 in the first embodiment. The flowchart in FIG. 4 is realized by the system control unit 101 reading out an operation program from the ROM 102, expanding it in the RAM 103, and executing it.
In the first embodiment, an example in which there is only one moving object in the captured image acquired by the captured image acquisition unit 301 will be described.

ステップS401で、撮像画像取得部301は、時系列で連続する複数フレームの撮像画像を取得する。   In step S401, the captured image acquisition unit 301 acquires captured images of a plurality of consecutive frames in time series.

ステップS402で、移動体情報取得部302は、ステップS401において取得した撮像画像中の移動体の動きベクトルを算出する。
図5は、動きベクトルの算出について説明するための図である。図5(a)、(b)に、撮像画像取得部301で取得したNフレーム目の撮像画像501、N+1フレーム目の撮像画像502を示す。また、図5(c)に、Nフレーム目の撮像画像501をブロック分割した状態を示す。
撮像画像501、502を任意のサイズ(L×M)のブロックに分割し、各領域間の差分として相関値を算出する。フレーム間の相関値を算出するために、着目画素を中心とする任意の範囲の評価枠に対して画素毎にSAD(Sum of Absolute Difference)を算出し、評価枠内の画素値の差分絶対値を積算する。具体的には、評価枠内における撮像画像501、502間の一対の画素値をf(i,j)、g(i,j)(i、jは座標)と表した場合に、式(1)を用いて画素値の差分の積算を評価値RSADとして算出する。
In step S402, the moving body information acquisition unit 302 calculates the motion vector of the moving body in the captured image acquired in step S401.
FIG. 5 is a diagram for explaining calculation of a motion vector. FIGS. 5A and 5B show a captured image 501 of the Nth frame acquired by the captured image acquisition unit 301 and a captured image 502 of the N + 1th frame. Further, FIG. 5C shows a state where the captured image 501 of the Nth frame is divided into blocks.
The captured images 501 and 502 are divided into blocks of an arbitrary size (L × M), and correlation values are calculated as differences between the regions. In order to calculate the correlation value between frames, SAD (Sum of Absolute Difference) is calculated for each pixel with respect to an evaluation frame of an arbitrary range centered on the pixel of interest, and the difference absolute value of the pixel values in the evaluation frame Accumulate. Specifically, when a pair of pixel values between the captured images 501 and 502 in the evaluation frame is expressed as f (i, j) and g (i, j) (i and j are coordinates), the formula (1) ) Is used as the evaluation value R.sub.SAD .

Figure 2019110386
Figure 2019110386

評価値RSADが小さくなる部分が類似する領域となるので、その領域を探索し、図5(d)に示すように、ブロックの位置関係から移動体の動きベクトル503を算出する。
なお、本実施形態では、画素値の差分絶対値であるSADを用いた評価値の算出方式を説明したが、これに限られるものではなく、他の方式を利用してもよい。
Since the portion where the evaluation value R SAD decreases is a similar region, the region is searched, and the motion vector 503 of the moving object is calculated from the positional relationship of the blocks as shown in FIG. 5 (d).
In this embodiment, although the calculation method of the evaluation value using SAD which is the difference absolute value of pixel value was explained, it is not restricted to this, and other methods may be used.

ステップS403で、被写体情報取得部303は、ステップS401において取得した撮像画像中の移動体のフレーム間での重なり情報、移動体と背景との差分情報を取得する。
移動体のフレーム間での重なり情報として、移動体のフレーム間での重なり領域の割合を算出する。
図6は、移動体の重なり領域の算出について説明するための図である。ステップS402において算出した動きベクトルに基づいて、動きがあるブロックと類似する領域を検出し、一つの移動体として領域をまとめる。ここでの領域を検出するために、特許文献2に開示されているようなクラスタリング処理を用いる。このクラスタリング処理では、輝度や色情報の分布解析を行い、隣接するブロックの類似性を判定して、類似すると判定された場合は同一ブロックであると判定する。クラスタリング処理により、同一のクラスタを移動体の1領域として判定する。
In step S403, the subject information acquisition unit 303 acquires overlap information between frames of the moving object in the captured image acquired in step S401, and difference information between the moving object and the background.
The ratio of the overlapping area between the frames of the moving body is calculated as the overlapping information between the frames of the moving body.
FIG. 6 is a diagram for explaining the calculation of the overlapping area of the moving object. Based on the motion vector calculated in step S402, an area similar to a block having motion is detected, and the areas are put together as one moving object. In order to detect the area here, a clustering process as disclosed in Patent Document 2 is used. In this clustering process, distribution analysis of luminance and color information is performed, the similarity between adjacent blocks is determined, and when it is determined that they are similar, it is determined that they are the same block. By clustering processing, the same cluster is determined as one area of a mobile.

図6(a)に、ステップS402においてサイズ(L×M)のブロックに分割したNフレーム目の撮像画像601を示す。また、図6(b)に、移動ベクトル602に対応するブロックと類似するブロックをクラスタリングした結果である移動体領域603を示す。また、移動体領域603のブロックに含まれる動きベクトルの平均値を移動体の動きベクトルとして紐付ける。そして、Nフレームで検出した動きベクトルを用いて、N+1フレームにおける移動体が移動した先の領域を決定する。
次に、Nフレーム目で検出した移動体領域とN+1フレーム目で検出した移動体領域とを用いて、各領域のX軸方向の座標を算出する。図6(c)、(d)に示すように、Nフレーム目の撮像画像601における移動体のX座標位置がXLn、XRn、N+1フレーム目の撮像画像604における移動体のX座標位置がXLn+1、XRn+1となる。そして、図6(e)、(f)に示すように、移動方向を考慮し、算出した各X座標から重なり領域の大きさLenXを式(2)、(3)を用いて算出する。
そして、算出した重なり領域の大きさLenXと移動体領域の全体の大きさから、移動体のフレーム間での重なり領域の割合を算出する。
FIG. 6A shows a captured image 601 of the Nth frame divided into blocks of size (L × M) in step S402. Further, FIG. 6B shows a mobile region 603 which is a result of clustering blocks similar to the block corresponding to the movement vector 602. Also, the average value of the motion vectors included in the blocks of the moving object region 603 is linked as the motion vector of the moving object. Then, using the motion vector detected in N frames, the area to which the moving object in the N + 1 frame has moved is determined.
Next, the coordinates in the X-axis direction of each region are calculated using the mobile region detected in the Nth frame and the mobile region detected in the N + 1th frame. As shown in FIGS. 6C and 6D, the X coordinate position of the moving object in the N frame captured image 601 is XL n , XR n , and the X coordinate position of the moving object in the N + 1 th captured image 604 is It becomes XL n + 1 and XR n + 1 . Then, as shown in FIGS. 6 (e) and 6 (f), the size LenX of the overlapping area is calculated using the equations (2) and (3) from the calculated X coordinates in consideration of the moving direction.
Then, from the calculated size LenX of the overlapping area and the total size of the moving body area, the ratio of the overlapping area between the frames of the moving body is calculated.

Figure 2019110386
Figure 2019110386

また、移動体と背景との差分情報として、移動体と背景とのコントラストの差分値を算出する。
移動体のコントラスト情報として、移動体のエッジ強度を利用する。これは、画像に対してバンドパスフィルタをかけることでエッジ信号を検出し、任意のブロックサイズ内にあるエッジ信号の絶対値を積分する。算出した値であるエッジ信号の積分値が大きい場合、すなわちテクスチャが多い場合に評価値Frが大きくなる。評価値Frは、式(4)を用いて算出する。fr(i,j)は任意のブロックサイズ内の各座標におけるエッジ信号の値である。
式(4)を用いて移動体の評価値と背景の評価値とを算出し、その差分値を、移動体と背景とのコントラストの差分値とする。
Also, as the difference information between the moving object and the background, the difference value of the contrast between the moving object and the background is calculated.
The edge strength of the moving object is used as contrast information of the moving object. This detects an edge signal by applying a band pass filter to an image, and integrates the absolute value of the edge signal within an arbitrary block size. When the integrated value of the edge signal which is the calculated value is large, that is, when the texture is large, the evaluation value Fr becomes large. The evaluation value Fr is calculated using equation (4). fr (i, j) is the value of the edge signal at each coordinate within an arbitrary block size.
The evaluation value of the moving object and the evaluation value of the background are calculated using Equation (4), and the difference value is taken as the difference value of the contrast between the moving object and the background.

Figure 2019110386
Figure 2019110386

ステップS404で、動きブレ強度決定部304は、動きブレを付与したときの移動体の消えやすさの評価値を求める。
消えやすさの評価値とは、画像の合成を行った際に、移動体が透過して薄くなる度合いとして定義し、それを表す指標である。評価値を求めるために、ステップS402において算出した移動体の動きベクトル、ステップS403において算出した、移動体のフレーム間での重なり領域の割合、移動体と背景とのコントラストの差分値を使用する。
図7は、消えやすさの評価値と各情報(移動体のフレーム間での重なり領域の割合、移動体と背景とのコントラストの差分値、動きベクトルから検出される移動体の動きの速さ)との関係を示す特性図である。図7(a)〜(c)に、各情報における消えやすさの評価値を表すグラフを示す。グラフの横軸は各情報、縦軸は消えやすさの評価値を表す。また、図7(d)に、各情報に対して設定された重みを示す。ここで使用する消えやすさの評価値は0〜1の範囲で表される値であり、各情報の算出値に対して消えやすさの評価値が割り振られている。
In step S404, the motion blur strength determination unit 304 obtains an evaluation value of the ease of removal of the moving object when the motion blur is applied.
The evaluation value of the easiness of disappearance is an index that is defined as the degree to which the moving body passes through and becomes thin when the images are combined. In order to obtain the evaluation value, the motion vector of the moving body calculated in step S402, the ratio of the overlapping area between the frames of the moving body calculated in step S403, and the difference value of the contrast between the moving body and the background are used.
FIG. 7 shows the evaluation value of extinction and each information (proportion of overlapping area between frames of moving object, difference value of contrast between moving object and background, moving speed of moving object detected from motion vector ) Is a characteristic diagram showing the relationship. FIGS. 7 (a) to 7 (c) show graphs showing evaluation values of the ease of disappearance in each information. The horizontal axis of the graph represents each information, and the vertical axis represents the evaluation value of the ease of disappearance. Further, FIG. 7D shows the weight set for each piece of information. The evaluation value of the ease of erasure used here is a value represented in the range of 0 to 1, and the evaluation value of the ease of erasure is assigned to the calculated value of each information.

各情報と移動体の消えやすさとの関係から、消えやすさの評価値を求める。
移動体のフレーム間での重なり領域の割合が低い場合、フレーム間で移動体が重なっている部分が少ないため、合成枚数が多くなると、背景の比重が高くなって移動体が薄く写り、合成後の画像において移動体が消えやすくなる。そこで、図7(a)に示すように、消えやすさの評価値を大きくする。一方で、移動体のフレーム間での重なり領域の割合が高い場合、移動体が消えにくいため、消えやすさの評価値を小さくする。
From the relationship between each information and the disappearance of the moving body, the evaluation value of the disappearance is calculated.
When the ratio of overlapping areas between frames of moving objects is low, there are few parts where moving objects overlap between frames, so when the number of combined sheets increases, the specific gravity of the background increases and the moving objects appear thin, and after combining The moving object tends to disappear in the image of. Therefore, as shown in FIG. 7A, the evaluation value of the ease of disappearance is increased. On the other hand, when the ratio of the overlapping area between the frames of the moving object is high, the moving object is hard to disappear, so the evaluation value of the ease of elimination is reduced.

移動体と背景とのコントラストの差分値が大きい場合、合成枚数が多くなると、背景の比重が高くなってコントラストが高い背景が移動体よりも濃く写る。そこで、図7(b)に示すように、消えやすさの評価値を大きくする。一方で、移動体と背景とのコントラストの差分値が小さい場合、移動体が消えにくいため、消えやすさの評価値を小さくする。   When the difference value of the contrast between the moving object and the background is large, when the number of combined images increases, the specific gravity of the background increases and the background with high contrast appears darker than the moving object. Therefore, as shown in FIG. 7 (b), the evaluation value of the easiness of disappearance is increased. On the other hand, when the difference value between the contrast of the moving object and the background is small, the moving object is hard to disappear, so the evaluation value of the ease of elimination is reduced.

移動体の動きが速い場合、合成枚数が多くなると、背景の比重が高くなって移動体が薄く写り、合成後の画像において移動体が消えやすくなる。そこで、図7(c)に示すように、消えやすさの評価値を大きくする。一方で、移動体の動きが遅い場合、移動体が消えにくいため、消えやすさの評価値を小さくする。   When the movement of the moving object is fast, if the number of combined images increases, the specific gravity of the background increases, the moving object appears thin, and the moving object tends to disappear in the image after combination. Therefore, as shown in FIG. 7C, the evaluation value of the ease of disappearance is increased. On the other hand, when the movement of the moving object is slow, the moving object is hard to disappear, so the evaluation value of the ease of elimination is reduced.

各情報から求めた複数の評価値を使用する場合は、情報毎に優先度付けを行い、式(5)を用いて消えやすさの評価値Rrmを算出する。rnは情報毎の消えやすさの評価値、bnは情報毎に設定された重み、nは取得された情報の数を表す。bnとしては、図7(d)に示すように、情報毎に重みが設定されている。また、これらの重みをユーザが指定して決めてもよい。
なお、本実施形態では、3つの情報を用いる例としたが、これに限られるものではない。例えば各情報のうち一つだけを使用する場合は、図7(a)〜(c)に従って求められる消えやすさの評価値をそのまま消えやすさの評価値Rrmとすればよい。
このようにして求めた消えやすさの評価値Rrmが大きいほど、合成後の画像において移動体が消えやすいと評価される。
When using a plurality of evaluation values obtained from each piece of information, prioritization is performed for each piece of information, and the evaluation value R rm of the easiness of disappearance is calculated using Equation (5). r n is an evaluation value of the eliminability of each information, b n is a weight set for each information, and n is the number of acquired information. As shown in FIG. 7D, a weight is set for each information as b n . Also, these weights may be specified by the user.
In the present embodiment, although three information is used, the present invention is not limited to this. For example, when only one of the pieces of information is used, the evaluation value of the easiness of disappearance obtained according to FIGS. 7A to 7C may be used as the evaluation value R rm of the easiness of deletion as it is.
As the evaluation value R rm of the ease of disappearance thus obtained is larger, it is evaluated that the moving body is more likely to disappear in the combined image.

Figure 2019110386
Figure 2019110386

ステップS405で、動きブレ強度決定部304は、ステップS404において求めた消えやすさの評価値に応じて、動きブレ強度として合成枚数を決定する。
図8は、合成枚数と消えやすさの評価値との関係の例を示す特性図である。消えやすさの評価値が大きい場合、合成枚数を多くすると移動体が消えてしまうため、ブレ強度を弱くするために合成枚数を少なくする。一方、消えやすさの評価値が小さい場合、ブレ強度を強くするために合成枚数を多くする。このように、動きブレを付与したときの移動体の消えやすさに応じて合成枚数を決定することにより、移動体が消えることなく動きブレを付与することが可能となる。なお、合成枚数の上限は、擬似的に長秒にした際の長秒時のシャッタースピードに対する撮影した動画のシャッタースピードから算出すればよい。
In step S405, the motion blur strength determination unit 304 determines the combined number as the motion blur strength in accordance with the evaluation value of the easiness of extinction obtained in step S404.
FIG. 8 is a characteristic diagram showing an example of the relationship between the combined number and the evaluation value of the easiness of disappearance. When the evaluation value of the easiness of disappearance is large, the moving object disappears when the combined number is increased, and therefore the combined number is decreased to weaken the blurring intensity. On the other hand, when the evaluation value of the ease of disappearance is small, the number of combined sheets is increased in order to increase the blur intensity. As described above, by determining the combined number according to the ease of disappearance of the moving body when the motion blur is applied, it becomes possible to apply the motion blur without the moving body disappearing. Note that the upper limit of the combined number may be calculated from the shutter speed of a captured moving image with respect to the shutter speed at long seconds when pseudo seconds are used.

ステップS406で、動きブレ付与部305は、ステップS405において決定した合成枚数に基づいて、ステップS401において取得した撮像画像の合成を行い、動きブレ付与画像を生成する。   In step S406, the motion blur applying unit 305 combines the captured image acquired in step S401 based on the combined number determined in step S405, and generates a motion blur added image.

擬似長秒動画を生成する期間において、ステップS405において合成枚数を決定したならば、以降、その合成枚数を一律に適用して、フレームを順次ずらしながら画像をオーバーラップさせて合成を行うことで、擬似長秒動画を生成するようにしてもよい。或いは、擬似長秒動画を生成する期間を適宜分割し、分割した期間毎に合成枚数を決定するようにしてもよい。   After the number of combined images is determined in step S405 in a period for generating a pseudo long second moving image, thereafter, the combined number is uniformly applied, and images are overlapped while being sequentially shifted to perform combining, A pseudo long second moving image may be generated. Alternatively, the period for generating the pseudo long second moving image may be divided appropriately, and the number of combined images may be determined for each divided period.

以上述べたように、動きブレを付与したときの移動体の消えやすさに応じて動きブレ強度として合成枚数を決定するようにしたので、動きブレを付与する画像処理において移動体を消えにくくすることができる。   As described above, since the composite number is determined as the motion blur intensity according to the disappearance of the moving body when the motion blur is applied, the moving body is less likely to disappear in the image processing to which the motion blur is applied. be able to.

(第2の実施形態)
第1の実施形態では、撮像画像中において移動体が1体だけであることを想定した例としたが、複数の移動体が写っていることもある。第2の実施形態は、移動体が複数ある場合に、動きブレ強度を決定する基準とする移動体(以下、着目被写体と呼ぶ。)決定する例を説明する。第2の実施形態では、撮像画像中に複数の移動体が写っているときにも、着目被写体を決定し、着目被写体の消えやすさを考慮して、擬似長秒動画を生成することができる。
なお、撮像装置100の構成及び処理動作について、第1の実施形態と共通するものはその説明を省略し、第1の実施形態の相違点を中心に説明する。
Second Embodiment
In the first embodiment, an example in which it is assumed that there is only one moving body in a captured image, but a plurality of moving bodies may be shown. In the second embodiment, when there are a plurality of moving objects, an example of determining a moving object (hereinafter referred to as a subject of interest) as a reference for determining the motion blur intensity will be described. In the second embodiment, even when a plurality of moving objects appear in the captured image, the subject of interest can be determined, and the pseudo long second moving image can be generated in consideration of the ease of disappearance of the subject of interest. .
The description of the configuration and the processing operation of the imaging device 100 will be omitted, and the descriptions of the components common to the first embodiment will be omitted, and differences from the first embodiment will be mainly described.

被写体情報取得部303は、被写体情報として、第1の実施形態で取得する被写体情報に加えて、着目被写体を決定するための被写体情報も取得する。着目被写体を決定するための被写体情報としては、移動体の大きさ情報、主要な被写体であるか否かの情報である主要被写体情報、全フレーム中で移動体が写っている割合情報を使用する。
動きブレ強度決定部304は、被写体情報取得部303で取得した被写体情報に基づいて、複数の移動体のうちの着目被写体を決定する。その上で、第1の実施形態と同様に、動きブレを付与したときの着目被写体の消えやすさを評価し、その評価結果に応じて合成枚数を決定する。
The subject information acquisition unit 303 acquires subject information for determining a subject of interest in addition to the subject information acquired in the first embodiment as subject information. As subject information for determining a subject of interest, size information of a moving body, main subject information which is information as to whether or not it is a main subject, and ratio information in which the moving body appears in all frames are used. .
The motion blur strength determination unit 304 determines a target subject among the plurality of moving objects based on the subject information acquired by the subject information acquisition unit 303. Then, similarly to the first embodiment, the ease of disappearance of the object of interest when motion blur is applied is evaluated, and the number of combined images is determined according to the evaluation result.

図9は、第2の実施形態において撮像装置100が実行する処理を示すフローチャートである。図9のフローチャートは、システム制御部101が動作プログラムをROM102より読み出し、RAM103に展開して実行することにより実現される。
ステップS901〜S902、S905〜S907は、図4のステップS401〜S402、S404〜S406と同様であり、その説明は省略する。
ステップS903で、被写体情報取得部303は、第1の実施形態と同様、ステップS901において取得した撮像画像中の移動体のフレーム間での重なり情報、移動体と背景との差分情報を取得する。それに加えて、被写体情報取得部303は、移動体の大きさ情報、主要被写体情報、全フレーム中で移動体が写っている割合情報を取得する。
FIG. 9 is a flowchart showing processing performed by the imaging device 100 in the second embodiment. The flowchart of FIG. 9 is realized by the system control unit 101 reading out an operation program from the ROM 102, expanding it in the RAM 103, and executing it.
Steps S901 to S902 and S905 to S907 are the same as steps S401 to S402 and S404 to S406 in FIG. 4, and the description thereof will be omitted.
In step S903, the subject information acquisition unit 303 acquires overlap information between frames of moving objects in the captured image acquired in step S901, and difference information between the moving object and the background, as in the first embodiment. In addition to that, the subject information acquisition unit 303 acquires the size information of the moving object, the main object information, and the ratio information of the moving object in all the frames.

移動体の大きさ情報は、例えば第1の実施形態で述べた移動体領域に含まれる画素数を、移動体の大きさと定義して取得する。
主要被写体情報は、例えば顕著度として取得する。一般的に知られている手法を用いて、視覚的に目立つ領域か否かを判定するために被写体とその周辺の被写体との特徴の差分を顕著度として算出する。差分の算出としては、画像を任意の領域に分割し、着目しているブロックの特徴量と、その周辺のブロックの特徴量とを使用する。差分が大きい場合は相関が低くなるため、視覚的に目立つ被写体として判断する。ここでの特徴量としては、ブロック領域内の輝度値、色相値、エッジ強度を少なくとも一つ以上を含むものである。算出した顕著度が高い領域を、主要被写体として判定する。
全フレーム中で移動体が写っている割合情報は、移動体領域が写っているフレーム数を算出することにより取得する。移動体の大きさ情報で検出した移動体を追尾し、それが写っているフレーム数を移動体領域毎に算出する。そして、算出したフレーム数を用いて、全フレーム中で移動体が写っている割合を算出する。
なお、これらの被写体情報を取得する手法は一例であり、これに限られるものではない。
The mobile body size information is acquired, for example, by defining the number of pixels included in the mobile body region described in the first embodiment as the mobile body size.
The main subject information is acquired, for example, as the saliency. By using a generally known method, the difference between the features of the subject and the subject around the subject is calculated as the degree of saliency in order to determine whether or not the area is visually noticeable. In the calculation of the difference, the image is divided into arbitrary regions, and the feature amount of the block being focused on and the feature amounts of the blocks around it are used. If the difference is large, the correlation is low, so it is judged as a visually noticeable object. Here, the feature amount includes at least one or more of the luminance value, the hue value, and the edge intensity in the block area. An area having a high degree of saliency calculated is determined as a main subject.
The ratio information in which the moving object appears in all the frames is obtained by calculating the number of frames in which the moving object area appears. The moving body detected by the size information of the moving body is tracked, and the number of frames in which it is captured is calculated for each moving body region. Then, using the calculated number of frames, the proportion of the mobile object in all the frames is calculated.
In addition, the method of acquiring these subject information is an example, and is not limited to this.

ステップS904で、動きブレ強度決定部304は、ステップS903において取得した移動体の大きさ情報、主要被写体情報、全フレーム中で移動体が写っている割合情報に基づいて、着目被写体を決定する。
図10は、優先度と各情報(移動体の大きさ、顕著度、写っている割合)との関係を示す特性図である。図10(a)〜(c)に、各情報における優先度を表すグラフを示す。グラフの横軸は各情報、縦軸は優先度を表す。また、図10(d)に、各情報に対して設定された重みを示す。ここで使用する優先度は0〜1の範囲で表される値であり、各情報の算出値に対して優先度が割り振られている。
In step S904, the motion blur strength determination unit 304 determines the subject of interest based on the size information of the moving object acquired in step S903, the main subject information, and the ratio information of the moving object in all frames.
FIG. 10 is a characteristic diagram showing the relationship between the priority and each information (the size of the moving object, the degree of saliency, and the ratio of being shown). FIGS. 10A to 10C show graphs showing the priority in each information. The horizontal axis of the graph represents each information, and the vertical axis represents the priority. Further, FIG. 10D shows the weight set for each piece of information. The priority used here is a value represented in the range of 0 to 1, and the priority is assigned to the calculated value of each information.

各移動体について3つの情報毎の優先度を用いて、式(6)を用いて被写体の評価値W(N)を算出する。anは情報毎の優先度、αnは情報毎の優先度に設定された重み、nは取得された情報数を表す。αnとしては、図10(d)に示すように、情報毎に重みが設定されている。また、これらの重みをユーザが指定して決めてもよい。
このようにして算出した各移動体の評価値W(N)のうち、評価値が最大となる移動体を着目被写体とする。
The evaluation value W (N) of the subject is calculated using equation (6) using the priority of each of the three information items for each moving object. a n is a priority for each information, α n is a weight set to the priority for each information, and n is the number of acquired information. As shown in FIG. 10D, a weight is set for each piece of information as α n . Also, these weights may be specified by the user.
Among the evaluation values W (N) of the moving objects calculated in this manner, the moving object having the largest evaluation value is taken as the target subject.

Figure 2019110386
Figure 2019110386

本実施形態では、着目被写体を決定するための被写体情報として、移動体の大きさ情報、主要被写体情報、全フレーム中で移動体が写っている割合情報を使用する例とした。これにより、ユーザが着目していると推定される移動体を着目被写体とすることができる。ただし、着目被写体を決定するための被写体情報はこれに限られるものではなく、そのうちいずれかの情報だけを使用したり、他の情報を使用したりしてもよい。例えば着目被写体を決定するための被写体情報として、移動体のフレーム間での重なり情報や、移動体と背景との差分情報を使用してもよい。この場合、合成後の画像において最も消えやすい移動体を着目被写体とすることができる。   In this embodiment, size information of the moving object, main object information, and ratio information showing the moving object in all frames are used as object information for determining the object of interest. Thereby, it is possible to set a moving object estimated to be focused by the user as a focused subject. However, subject information for determining a subject of interest is not limited to this, and any one of the information may be used, or other information may be used. For example, overlap information between frames of a moving object or difference information between a moving object and a background may be used as object information for determining a subject of interest. In this case, the moving object that is most likely to disappear in the image after combination can be set as the target subject.

(第3の実施形態)
第1、2の実施形態では、画像の合成を行うことにより動きブレ付与画像を生成し、動きブレ強度として合成枚数を決定する例とした。第3の実施形態では、画像にフィルタ処理を施すことにより動きブレ付与画像を生成し、動きブレ強度としてフィルタ処理のフィルタパラメータであるタップ数及びフィルタ係数を決定する例を説明する。
なお、撮像装置100の構成及び処理動作について、第1の実施形態と共通するものはその説明を省略し、第1の実施形態の相違点を中心に説明する。
Third Embodiment
In the first and second embodiments, a motion blur added image is generated by combining the images, and the combined number is determined as the motion blur intensity. In the third embodiment, an example will be described in which a motion-blurred image is generated by performing filter processing on an image, and the number of taps and the filter coefficient, which are filter parameters of the filter processing, are determined as the motion blur intensity.
The description of the configuration and the processing operation of the imaging device 100 will be omitted, and the descriptions of the components common to the first embodiment will be omitted, and differences from the first embodiment will be mainly described.

動きブレ強度決定部304は、第1の実施形態と同様に、動きブレを付与したときの移動体の消えやすさを評価する。そして、動きブレ強度決定部304は、その評価結果に応じて動きブレ強度として、動きブレを付与するフィルタ処理のタップ数及びフィルタ係数を決定する。
動きブレ付与部305は、動きブレ強度決定部304で決定したフィルタ処理のタップ数及びフィルタ係数に基づいて、撮像画像取得部301で取得した撮像画像を用いて、動きブレ付与画像を生成する。
As in the first embodiment, the motion blur strength determination unit 304 evaluates the disappearance of the moving object when the motion blur is applied. Then, according to the evaluation result, the motion blur strength determination unit 304 determines, as the motion blur strength, the number of taps and the filter coefficient of the filter processing to which motion blur is to be applied.
The motion blur imparting unit 305 generates a motion blur imparted image using the captured image acquired by the captured image acquisition unit 301 based on the number of filter processing taps and the filter coefficient determined by the motion blur strength determination unit 304.

図11は、第3の実施形態において撮像装置100が実行する処理を示すフローチャートである。図11のフローチャートは、システム制御部101が動作プログラムをROM102より読み出し、RAM103に展開して実行することにより実現される。
ステップS1101〜S1104は、図4のステップS401〜S404と同様であり、その説明は省略する。
ステップS1105で、動きブレ強度決定部304は、ステップS1104において求めた消えやすさの評価値に基づいて、動きブレ強度としてフィルタ処理のタップ数及びフィルタ係数を決定する。
図12は、フィルタ処理のタップ数及びフィルタ係数の決定について説明するための図である。図12(a)、(b)に、撮像画像取得部301で取得したNフレーム目の撮像画像1201、N+1フレーム目の撮像画像1202を示す。また、図12(c)に、フィルタ処理のタップ数を変更する処理の概要を、図12(d)にフィルタ処理のフィルタ係数を変更する処理の概要を示す。
まず、基準となるフィルタ処理のタップ数を決めるために、動きベクトルに基づいてタップ数tを決定する。
FIG. 11 is a flowchart showing processing performed by the imaging device 100 in the third embodiment. The flowchart in FIG. 11 is realized by the system control unit 101 reading out an operation program from the ROM 102, expanding it in the RAM 103, and executing it.
Steps S1101 to S1104 are the same as steps S401 to S404 in FIG. 4, and the description thereof is omitted.
In step S1105, the motion blur strength determination unit 304 determines the number of filter processing taps and the filter coefficient as the motion blur strength based on the evaluation value of the easiness of cancellation obtained in step S1104.
FIG. 12 is a diagram for describing determination of the number of taps of filter processing and the filter coefficient. FIGS. 12A and 12B show a captured image 1201 of the Nth frame acquired by the captured image acquisition unit 301 and a captured image 1202 of the N + 1th frame. Further, FIG. 12C shows an outline of the process of changing the number of taps of the filter process, and FIG. 12D shows an outline of the process of changing the filter coefficient of the filter process.
First, the number of taps t is determined based on the motion vector in order to determine the number of taps of the filter processing as a reference.

タップ数を変更する場合、図12(c)に示すように、消えやすさの評価値に基づいてタップ数tを変更し、最終的にフィルタ処理で使用するタップ数Tを算出する。消えやすさの評価値が大きい場合、動きブレ強度を弱くするためにタップ数を少なくする。一方、消えやすさの評価値が小さい場合、タップ数の変更は行わない。
フィルタ係数を変更する場合、図12(d)に示すように、動きベクトルに基づいて決定したタップ数t内にあるフィルタ係数を、消えやすさの評価値に基づいて変更して動きブレ強度の調整を行う。消えやすさの評価値が大きい場合、動きブレ強度を弱くするために移動体に近い位置にあるフィルタ係数を大きくする。一方、消えやすさの評価値が小さい場合、フィルタ係数の変更は行わない。
このように、動きブレを付与したときの移動体の消えやすさに応じてタップ数及びフィルタ係数を決定することにより、移動体が消えることなく動きブレを付与することが可能となる。
When changing the number of taps, as shown in FIG. 12C, the number of taps t is changed based on the evaluation value of the ease of disappearance, and the number of taps T to be used in the filtering process is finally calculated. When the evaluation value of the ease of disappearance is large, the number of taps is reduced to weaken the motion blur intensity. On the other hand, when the evaluation value of the ease of disappearance is small, the number of taps is not changed.
When changing the filter coefficient, as shown in FIG. 12 (d), the filter coefficient within the tap number t determined based on the motion vector is changed based on the evaluation value of the easiness of disappearance to Make adjustments. When the evaluation value of the ease of disappearance is large, the filter coefficient near the moving object is increased in order to weaken the motion blur intensity. On the other hand, when the evaluation value of the ease of disappearance is small, the filter coefficient is not changed.
As described above, by determining the number of taps and the filter coefficient in accordance with the ease of disappearance of the moving body when the motion blur is applied, it becomes possible to apply the motion blur without the moving body disappearing.

ステップS1106で、動きブレ付与部305は、ステップS1105において決定したタップ数及びフィルタ係数に基づいて、ステップS1101において取得した撮像画像にフィルタ処理を施し、動きブレ付与画像を生成する。   In step S1106, the motion blur applying unit 305 performs a filtering process on the captured image acquired in step S1101 based on the number of taps and the filter coefficient determined in step S1105, and generates a motion blur added image.

(第4の実施形態)
例えば一連の動画において通常動画から擬似長秒動画に切り替わったり、擬似長秒動画中の前後のフレーム間で合成枚数が大きく変わったりするとき、動きブレ強度が急に切り替わり、不自然な印象を与える動画となってしまうことがある。
第4の実施形態では、不自然な印象を与えないように動きブレ強度を切り替えるようにすることを目的とする。
なお、撮像装置100の構成及び処理動作について、第1の実施形態と共通するものはその説明を省略し、第1の実施形態の相違点を中心に説明する。
Fourth Embodiment
For example, when a series of moving images is switched from a normal moving image to a pseudo long second moving image, or when the combined number greatly changes between the previous and subsequent frames in the pseudo long moving image, the motion blur intensity changes suddenly to give an unnatural impression. Sometimes it becomes a movie.
The fourth embodiment aims to switch the motion blur intensity so as not to give an unnatural impression.
The description of the configuration and the processing operation of the imaging device 100 will be omitted, and the descriptions of the components common to the first embodiment will be omitted, and differences from the first embodiment will be mainly described.

図13は、第4の実施形態において撮像装置100が実行する処理を示すフローチャートである。図13のフローチャートは、システム制御部101が動作プログラムをROM102より読み出し、RAM103に展開して実行することにより実現される。
ステップS1301で、システム制御部101は、合成対象の画像である合成対象画像が残っているか否かを判定する。合成対象画像が残っている場合、ステップS1302の処理に移行し、合成対象画像が残っていない場合、本処理を終了する。
ステップS1302で、システム制御部101は、合成対象画像の合成枚数を取得する。
FIG. 13 is a flowchart showing processing performed by the imaging device 100 in the fourth embodiment. The flowchart in FIG. 13 is realized by the system control unit 101 reading out an operation program from the ROM 102, loading it in the RAM 103, and executing it.
In step S1301, the system control unit 101 determines whether or not a composition target image, which is a composition target image, remains. If the compositing target image remains, the processing proceeds to step S1302. If no compositing target image remains, the present processing ends.
In step S1302, the system control unit 101 acquires the number of images to be synthesized.

ステップS1303で、システム制御部101は、前後のフレームで合成枚数の変化があるか否かを判定する。例えば一連の動画において通常動画から擬似長秒動画に切り替わる場合、前フレームは合成を行わないフレームで、後フレームは合成を行うフレームとなる。また、擬似長秒動画中の前後のフレーム間で合成枚数が変更される場合がある。合成枚数の変化がある場合、ステップS1304の処理に移行し、合成枚数の変化がない場合、ステップS1305の処理に移行する。この場合に、合成枚数の変化があるか否かとして、例えば合成枚数の変化が所定の枚数以上であるか否かを判定するようにしてもよい。   In step S1303, the system control unit 101 determines whether or not there is a change in the combined number of frames before and after. For example, when switching from a normal moving image to a pseudo long second moving image in a series of moving images, the previous frame is a frame not to be combined, and the subsequent frame is a frame to be combined. In addition, the number of combined images may be changed between the preceding and succeeding frames in the pseudo long second moving image. If there is a change in the number of combined sheets, the process proceeds to step S1304. If there is no change in the number of combined sheets, the process proceeds to step S1305. In this case, it may be determined whether or not the change in the combined number is equal to or more than a predetermined number, for example, as the change in the combined number.

ステップS1304で、システム制御部101は、前後のフレームでの合成枚数の変化に応じて、移行期間を設定し、移行期間画像の合成枚数を決定する。移行期間画像では、前後のフレーム間で動きブレ強度を徐々に変化させるために、ステップS1302において取得した合成枚数とは異なる合成枚数を決定する。   In step S1304, the system control unit 101 sets a transition period according to the change in the number of combined images in the previous and subsequent frames, and determines the number of combined images of the transition period. In the transition period image, in order to gradually change the motion blur intensity between the preceding and succeeding frames, a combined number different from the combined number acquired in step S1302 is determined.

図14は、移行期間画像の合成枚数の決定について説明するための図である。図14(a)は、横軸を時間(時系列で取得したフレーム)、縦軸を合成枚数で表す特性線を示す。
特性線1401は、移行期間画像を生成しない場合の特性線である。ここでは、合成枚数1(合成しない)のフレームから合成枚数4のフレームに切り替わる場合を示す。図14(b)に、特性線1401と合成するフレームとの対応関係を示す。図14(b)には、時系列で連続する時間T1〜T5における合成の様子を表す。特性線1401によると、期間T1〜T2で合成枚数が変更される。図14(b)に示すように、時間T1では合成枚数1のため合成は行われない。その後の時間T2では合成枚数が4枚に増える。そして、時間T3以降では合成枚数が4枚のまま保たれる。
FIG. 14 is a diagram for explaining the determination of the number of combined images of transition period images. FIG. 14A shows a characteristic line in which the horizontal axis represents time (frames acquired in time series) and the vertical axis represents the number of combined images.
A characteristic line 1401 is a characteristic line when the transition period image is not generated. Here, a case is shown where the frame with the number of composites 1 (not composited) is switched to the frame with the number of composites 4. FIG. 14B shows the correspondence between the characteristic line 1401 and the frame to be synthesized. FIG. 14B shows the state of synthesis at successive times T1 to T5 in time series. According to the characteristic line 1401, the number of combined sheets is changed in the periods T1 to T2. As shown in FIG. 14B, the combination is not performed at time T1 because the number of combination is one. At time T2 after that, the number of combined sheets increases to four. Then, after time T3, the combined number is maintained at four.

それに対して、特性線1402は、移行期間画像を生成する場合の特性線である。図14(c)に、特性線1402と合成するフレームとの対応関係を示す。図14(c)には、時系列で連続する時間T1〜T5における合成の様子を表す。特性線1402によると、時間T1〜時間T4にかけて、合成枚数1、2、3、4と徐々に増える。そして、時間T5以降では合成枚数が4枚のまま保たれる。
このように前後のフレーム間に移行期間1411を設定し、動きブレ強度に影響を与える合成枚数を徐々に変化させる移行期間画像を生成するので、不自然な印象を与えないように動きブレ強度を切り替えることができる。
On the other hand, the characteristic line 1402 is a characteristic line when generating the transition period image. FIG. 14C shows the correspondence between the characteristic line 1402 and the frame to be synthesized. FIG. 14C shows the state of synthesis at successive times T1 to T5 in time series. According to the characteristic line 1402, the combined number is gradually increased to 1, 2, 3 and 4 over time T1 to time T4. Then, after time T5, the combined number is kept at four.
As described above, the transition period 1411 is set between the preceding and succeeding frames, and a transition period image in which the number of combined images affecting the motion blur intensity is gradually generated is generated. Therefore, the motion blur intensity is set so as not to give an unnatural impression. It can be switched.

ここでは合成枚数が増える場合について説明をしたが、図14(d)に示すように、合成枚数が減る場合についても同様である。特性線1403は、移行期間画像を生成しない場合の特性線であり、ここでは、合成枚数4のフレームから合成枚数1(合成しない)のフレームに切り替わる場合を示す。それに対して、特性線1404は、移行期間画像を生成する場合の特性線であり、時間T1〜時間T4にかけて、合成枚数4、3、2、1枚と徐々に減る。   Although the case where the number of combined sheets increases is described here, the same applies to the case where the number of combined sheets decreases as shown in FIG. A characteristic line 1403 is a characteristic line in the case where the transition period image is not generated, and shows a case where the frame of the number of composites 4 is switched to the frame of the number of composites 1 (not composited). On the other hand, the characteristic line 1404 is a characteristic line when generating the transition period image, and gradually decreases to 4, 3, 2, and 1 as the combined number from time T1 to time T4.

ステップS1305で、システム制御部101の制御下で画像処理部107は、ステップS1302において取得した合成枚数又はステップS1304において決定した合成枚数で、合成対象画像の合成を行う。   In step S1305, under the control of the system control unit 101, the image processing unit 107 combines the combination target image with the combined number acquired in step S1302 or the combined number determined in step S1304.

なお、移行期間の長さを可変とし、例えば移動体の動きベクトルに応じて長さを変更するようにしてもよい。
図15は、移行期間の長さ、及び移行期間画像の合成枚数の決定について説明するための図である。図15は、横軸を時間(時系列で取得したフレーム)、縦軸を合成枚数で表す特性線を示す。
特性線1501は、移行期間画像を生成しない場合の特性線である。それに対して、特性線1502〜1504は、移行期間画像を生成する場合の特性線であり、特性線1502、1503、1504の順で移行期間1511〜1513を長くしている。
The length of the transition period may be variable, and the length may be changed according to, for example, the motion vector of the moving object.
FIG. 15 is a diagram for describing determination of the length of the transition period and the number of combined images of the transition period. FIG. 15 shows a characteristic line in which the horizontal axis represents time (frames acquired in time series) and the vertical axis represents the number of combined images.
A characteristic line 1501 is a characteristic line when the transition period image is not generated. On the other hand, characteristic lines 1502 to 1504 are characteristic lines in the case of generating the transition period image, and the transition periods 1511 to 1513 are lengthened in the order of the characteristic lines 1502, 1503 and 1504.

前後のフレームで合成枚数が変わるときに、フレーム間の差が視覚的に目立ちにくい場合と目立ちやすい場合とがある。そこで、フレーム間の差が視覚的に目立ちやすい場合、移行期間を長くし、合成枚数の変化がより緩やかになるようにする。
フレーム間の差が視覚的に目立ちやすいか否かは、移動体の動きベクトルに基づいて判定することができる。動きベクトルの算出の仕方は、第1の実施形態で説明したとおりである。このようにして求めた(L×M)のブロックそれぞれの動きベクトルに関して、最大の動きベクトルを選び、その大きさに基づいて特性線1501〜1504を選択する。例えば動きベクトルが大きいほど(移動体の動きが大きいほど)、移行期間を長くした特性線を選択する。動きベクトルが非常に小さい場合(移動体の動きがほとんどない場合)、特性線1501を選択するようにしてもよい。移動体の動きがほとんどなければ、前後のフレームで合成枚数が変わるときにも、フレーム間の差が視覚的に目立ちにくいからである。
When the number of combined images changes between the previous and next frames, the difference between the frames may or may not be visually noticeable. Therefore, when the difference between the frames is visually noticeable, the transition period is lengthened to make the change in the number of combined images more gradual.
Whether or not the difference between the frames is visually noticeable can be determined based on the motion vector of the moving object. The method of calculating the motion vector is as described in the first embodiment. With respect to the motion vectors of the (L × M) blocks thus obtained, the largest motion vector is selected, and the characteristic lines 1501 to 1504 are selected based on the magnitude thereof. For example, as the motion vector is larger (the motion of the moving body is larger), a characteristic line with a longer transition period is selected. If the motion vector is very small (if there is almost no movement of the moving object), the characteristic line 1501 may be selected. If the movement of the moving body is scarce, the difference between the frames is visually inconspicuous even when the number of combined images changes between the previous and next frames.

なお、最大の動きベクトルの大きさに基づいて特性線を選択するようにしたが、これに限られるものではない。例えば前後のフレームでの合成枚数の変化の大きさに基づいて特性線を選択するようにしてもよい。この場合、前後のフレームでの合成枚数の変化が大きいほど、移行期間を長くする特性線を選択する。
また、動きベクトルが算出される領域毎に特性線を選択するようにしてもよい。これにより、移動体の動きに応じて領域毎に異なる動きブレを付与することができる。
Although the characteristic line is selected based on the magnitude of the largest motion vector, the present invention is not limited to this. For example, the characteristic line may be selected based on the magnitude of the change in the number of combined frames in the previous and subsequent frames. In this case, a characteristic line is selected to make the transition period longer as the change in the number of combined images in the previous and subsequent frames is larger.
In addition, the characteristic line may be selected for each area in which the motion vector is calculated. Thereby, different motion blur can be applied to each area according to the movement of the moving body.

(第5の実施形態)
第5の実施形態でも、第4の実施形態と同様、不自然な印象を与えないように動きブレ強度を切り替えるようにすることを目的とする。
なお、撮像装置100の構成及び処理動作について、第1の実施形態と共通するものはその説明を省略し、第1の実施形態の相違点を中心に説明する。
Fifth Embodiment
Also in the fifth embodiment, as in the fourth embodiment, the object is to switch the motion blur intensity so as not to give an unnatural impression.
The description of the configuration and the processing operation of the imaging device 100 will be omitted, and the descriptions of the components common to the first embodiment will be omitted, and differences from the first embodiment will be mainly described.

図16は、第5の実施形態において撮像装置100が実行する処理を示すフローチャートである。図16のフローチャートは、システム制御部101が動作プログラムをROM102より読み出し、RAM103に展開して実行することにより実現される。
ステップS1601で、システム制御部101は、フィルタ処理の対象とする画像が残っているか否かを判定する。フィルタ処理の対象とする画像が残っている場合、ステップS1602の処理に移行し、フィルタ処理の対象とする画像が残っていない場合、本処理を終了する。
ステップS1602で、システム制御部101は、フィルタ処理の対象とする画像のフィルタ強度を取得する。ここでは、フィルタ強度はフィルタ処理のタップ数で表す。
FIG. 16 is a flowchart showing processing performed by the imaging device 100 in the fifth embodiment. The flowchart in FIG. 16 is realized by the system control unit 101 reading out an operation program from the ROM 102, loading it in the RAM 103, and executing it.
In step S1601, the system control unit 101 determines whether an image to be subjected to filter processing remains. If there is an image to be subjected to the filter process, the process proceeds to step S1602. If there is no image to be subjected to the filter process, the process ends.
In step S1602, the system control unit 101 acquires the filter strength of the image to be subjected to filter processing. Here, the filter strength is represented by the number of taps of the filter processing.

ステップS1603で、システム制御部101は、前後のフレームでフィルタ強度の変化があるか否かを判定する。例えば一連の動画において通常動画から擬似長秒動画に切り替わる場合、前フレームはフィルタ処理を施さないフレームで、後フレームはフィルタ処理を施すフレームとなる。また、擬似長秒動画中の前後のフレーム間でフィルタ強度が変化する場合がある。フィルタ強度の変化がある場合、ステップS1604の処理に移行し、フィルタ強度の変化がない場合、ステップS1605の処理に移行する。この場合に、フィルタ強度の変化があるか否かとして、例えばフィルタ強度の変化が所定の強度以上であるか否かを判定するようにしてもよい。   In step S1603, the system control unit 101 determines whether or not there is a change in filter strength in the previous and subsequent frames. For example, when switching from a normal moving image to a pseudo long second moving image in a series of moving images, the previous frame is a frame not subjected to the filtering process, and the subsequent frame is a frame subjected to the filtering process. In addition, the filter strength may change between the preceding and succeeding frames in the pseudo long second moving image. If there is a change in the filter strength, the process proceeds to step S1604. If there is no change in the filter strength, the process proceeds to step S1605. In this case, for example, it may be determined whether the change in the filter strength is equal to or greater than a predetermined strength as the change in the filter strength.

ステップS1604で、システム制御部101は、前後のフレームでのフィルタ強度の変化に応じて、移行期間を設定し、移行期間画像のフィルタ強度を決定する。移行期間画像では、前後のフレーム間で動きブレ強度を徐々に変化させるために、ステップS1602において取得したフィルタ強度とは異なるフィルタ強度を決定する。   In step S1604, the system control unit 101 sets a transition period according to the change in filter strength in the previous and subsequent frames, and determines the filter strength of the transition period image. In the transition period image, in order to gradually change the motion blur intensity between the preceding and succeeding frames, a filter intensity different from the filter intensity acquired in step S1602 is determined.

図17は、移行期間画像のフィルタ強度の決定について説明するための図である。図17(a)に、横軸を時間(時系列で取得したフレーム)、縦軸をフィルタ強度(タップ数)で表す特性線を示す。
特性線1701は、移行期間画像を生成しない場合の特性線である。ここでは、タップ数1(隣接画素の影響を受けない)のフレームからタップ数7のフレームに切り替わる場合を示す。特性線1701によると、期間T1〜T2でタップ数が変更される。
FIG. 17 is a diagram for explaining the determination of the filter strength of the transition period image. FIG. 17A shows a characteristic line in which the horizontal axis is time (frame acquired in time series) and the vertical axis is filter strength (number of taps).
A characteristic line 1701 is a characteristic line when the transition period image is not generated. Here, the case where the frame with one tap (without the influence of the adjacent pixels) is switched to the frame with seven taps is shown. According to the characteristic line 1701, the number of taps is changed in the periods T1 to T2.

それに対して、特性線1702は、移行期間画像を生成する場合の特性線である。図17(b)に、特性線1702とタップ数との対応関係を示す。図17(b)には、時系列で連続する時間T1〜T4におけるフィルタ処理の様子を表す。特性線1702によると、時間T1〜時間T4にかけて、タップ数が1、3、5、7と徐々に増える。そして、時間T4以降ではタップ数が7のまま保たれる。
このように前後のフレーム間の移行期間1711を設定し、動きブレ強度に影響を与えるフィルタ強度を徐々に変化させる移行期間画像を生成するので、不自然な印象を与えないように動きブレ強度を切り替えることができる。
On the other hand, the characteristic line 1702 is a characteristic line when generating the transition period image. FIG. 17B shows the correspondence between the characteristic line 1702 and the number of taps. FIG. 17B shows the state of filter processing at time T1 to T4 continuous in time series. According to the characteristic line 1702, the number of taps gradually increases to 1, 3, 5, 7 from time T1 to time T4. Then, after time T4, the number of taps is maintained at seven.
In this way, the transition period 1711 between the previous and subsequent frames is set, and a transition period image in which the filter intensity affecting the motion blur intensity is gradually changed is generated, so that the motion blur intensity is prevented so as to give an unnatural impression. It can be switched.

ステップS1605で、システム制御部101の制御下で画像処理部107は、ステップS1602において取得したフィルタ強度又はステップS1604において決定したフィルタ強度で、フィルタ処理の対象とする画像にフィルタ処理を施す。   In step S1605, under the control of the system control unit 101, the image processing unit 107 performs filter processing on an image to be subjected to filter processing with the filter strength acquired in step S1602 or the filter strength determined in step S1604.

なお、フィルタ強度の制御として、フィルタ処理のタップ数を変更すること説明したが、フィルタ係数を変更することでも同様の効果を得ることができる。
図18は、移行期間画像のフィルタ強度の決定について説明するための図である。図18(a)に、あるシーンを示し、図18(b)に、当該シーンでのフィルタ係数の変化を示す。図18(b)では、時系列で連続する時間T1〜T5におけるフィルタ処理の様子を表す。フィルタ係数によりフィルタ強度を制御する場合、移動体の動いている方向に重みを持ったブラーをつけることで実現する。そこで、まず移動体の動きベクトルを求める。図18(a)の例では、移動体1800の左方向の動きベクトルが検出される。このとき、時間T1では、着目画素の重みが大きいフィルタ係数を選択する。その後の時間T2〜T5では、着目画素の右方向の画素の重みが大きくなるようにフィルタ係数を徐々に変更する。
In addition, although it demonstrated that the number of taps of filter processing was changed as control of filter intensity | strength, the same effect can be acquired by changing a filter coefficient.
FIG. 18 is a diagram for explaining the determination of the filter strength of the transition period image. FIG. 18 (a) shows a certain scene, and FIG. 18 (b) shows changes in filter coefficients in the scene. FIG. 18B shows the state of the filter processing at time T1 to T5 continuous in time series. When the filter strength is controlled by the filter coefficient, it is realized by blurring with a weight in the moving direction of the moving body. Therefore, first, the motion vector of the moving object is obtained. In the example of FIG. 18A, the motion vector of the moving body 1800 in the left direction is detected. At this time, at time T1, a filter coefficient having a large weight of the target pixel is selected. At subsequent times T2 to T5, the filter coefficient is gradually changed so that the weight of the pixel in the right direction of the pixel of interest becomes large.

(第6の実施形態)
第6の実施形態では、撮影中にユーザが光学系104によるズームイン操作を行って撮影された動画に対して動きブレを付与する形態について説明する。本実施形態ではズームイン操作を例に説明するが、ズームアウト操作を行って撮影された動画に対しても同様に適用可能である。
なお、撮像装置100の構成及び処理動作について、第1の実施形態と共通するものはその説明を省略し、第1の実施形態の相違点を中心に説明する。
Sixth Embodiment
In the sixth embodiment, an embodiment will be described in which a motion blur is added to a moving image captured by the user performing a zoom-in operation with the optical system 104 during shooting. Although the zoom-in operation is described as an example in the present embodiment, the present invention is similarly applicable to a moving image shot by performing the zoom-out operation.
The description of the configuration and the processing operation of the imaging device 100 will be omitted, and the descriptions of the components common to the first embodiment will be omitted, and differences from the first embodiment will be mainly described.

図19は、本実施形態に係る撮像装置100の画像処理部107の機能構成を示す図である。
画像取得部1901は、例えばRAM103から撮像画像を取得する。
撮影情報取得部1902は、画像取得部1901で取得した撮像画像について、焦点距離やズーム倍率、撮像装置100の動き等の各種撮影情報を取得する。
判定部1903は、画像取得部1901で取得した撮像画像及び撮影情報取得部1902で取得した各種撮影情報に基づいて、動きブレをどのように付与するかを判定する。
動きブレ付与部1904は、判定部1903での判定結果に基づいて、画像取得部1901で取得した撮像画像を用いて、動きブレ付与画像を生成する。
なお、画像処理部107が各部1901〜1904として機能する構成として説明したが、例えばシステム制御部101が判定部1903として機能する構成としてもよい。
FIG. 19 is a diagram showing a functional configuration of the image processing unit 107 of the imaging device 100 according to the present embodiment.
The image acquisition unit 1901 acquires, for example, a captured image from the RAM 103.
The imaging information acquisition unit 1902 acquires various imaging information such as a focal length, a zoom magnification, and a movement of the imaging device 100 with respect to the captured image acquired by the image acquisition unit 1901.
The determination unit 1903 determines how to apply motion blur based on the captured image acquired by the image acquisition unit 1901 and the various types of imaging information acquired by the imaging information acquisition unit 1902.
The motion blur imparting unit 1904 generates a motion blur imparted image using the captured image acquired by the image acquiring unit 1901 based on the determination result of the determination unit 1903.
Although the image processing unit 107 has been described as functioning as the units 1901 to 1904, for example, the system control unit 101 may function as the judging unit 1903.

図20は、第6の実施形態において撮像装置100が実行する処理を示すフローチャートである。
ステップS2001で、判定部1903は、動画において所定の時間単位にズーム操作が行われたか否かを判定する。具体的には、動画を構成するフレーム単位に焦点距離の値を参照して、ズーム操作が行われたか否かを判定する。焦点距離の変化が検出されればズーム操作ありと判定して、ステップS2002の処理に移行し、焦点距離の変化が検出されなければズーム操作なしと判定して、ステップS2009の処理に移行する。
FIG. 20 is a flowchart showing processing performed by the imaging device 100 in the sixth embodiment.
In step S2001, the determination unit 1903 determines whether a zoom operation has been performed in a predetermined time unit in a moving image. Specifically, it is determined whether or not the zoom operation has been performed with reference to the value of the focal length for each frame constituting the moving image. If a change in focal length is detected, it is determined that a zoom operation is present, and the process proceeds to step S2002. If a change in focal length is not detected, it is determined that a zoom operation is not performed, and the process proceeds to step S2009.

ステップS2002で、判定部1903は、ステップS2001において判定したズーム操作期間において、ズーム操作が途切れた区間(以下、ズーム途切れ期間と呼ぶ。)が存在するか否かを判定する。具体的には、焦点距離が変化している区間と区間の間に焦点距離が変化していない区間が何フレームあるかを検出する。
ステップS2003で、判定部1903は、ステップS2002において検出したズーム途切区間が所定のフレーム数T1[frame]以上であるか否かを判定する。ズーム途切れ区間がT1未満である場合、ステップS2004の処理に移行し、ズーム途切れ区間がT1以上である場合、ステップS2005の処理に移行する。
In step S2002, the determination unit 1903 determines whether or not there is a section in which the zoom operation is interrupted (hereinafter referred to as a zoom interruption period) in the zoom operation period determined in step S2001. Specifically, it is detected how many frames there are sections in which the focal length does not change between the sections in which the focal length changes.
In step S2003, the determination unit 1903 determines whether or not the zoom break section detected in step S2002 is equal to or more than a predetermined number of frames T1. If the zoom interruption section is less than T1, the processing proceeds to step S2004, and if the zoom interruption section is T1 or more, the processing proceeds to step S2005.

ステップS2004で、判定部1903の制御下で動きブレ付与部1904は、ステップS2002において検出したズーム途切れ区間のフレームを除外した上で、合成に用いるフレームを選択し、動きブレ付与画像を生成する。これは、焦点距離が変化していない区間に属するフレームの画像を合成に用いると、動きブレ付与画像内で動きブレの強さが一様とならないためである。
図21は、ステップS2004におけるフレーム間引き合成を説明するための図である。図21の横軸は時間[frame]、縦軸は焦点距離[mm]を表し、フレーム毎の焦点距離の変化を表す。フレーム2101に対応する動きブレ付与画像を生成するために、フレーム2101の画像とその前後のフレームの画像との合成を行うが、その際に、ズーム途切れ区間のフレーム2102を除外し、ズーム途切れ区間外のフレーム2103を選択する。フレーム2102は焦点距離が変化しない区間に属することから、これを合成に用いると、動きブレ付与画像内で動きブレの強さが一様とならないためである。
In step S2004, under the control of the determination unit 1903, the motion blur applying unit 1904 excludes the frame of the zoom interruption section detected in step S2002, selects a frame to be used for composition, and generates a motion blur imparted image. This is because when the image of the frame belonging to the section in which the focal distance is not changed is used for the composition, the intensity of the motion blur is not uniform in the motion blur added image.
FIG. 21 is a diagram for explaining frame thinning combination in step S2004. The horizontal axis in FIG. 21 represents time [frame] and the vertical axis represents focal length [mm], and represents changes in focal length for each frame. In order to generate the motion blur added image corresponding to the frame 2101, the image of the frame 2101 and the images of the frames before and after that are synthesized, but at that time, the frame 2102 of the zoom interruption section is excluded and the zoom interruption section The outer frame 2103 is selected. Since the frame 2102 belongs to a section in which the focal distance does not change, when it is used for composition, the strength of the motion blur is not uniform in the motion blur added image.

ステップS2005で、判定部1903は、ステップS2002において検出したズーム途切れ区間がT1以上、所定のフレーム数T2[frame]未満であるか否かを判定する。ズーム途切れ区間がT1以上、T2未満である場合、ステップS2006の処理に移行し、ズーム途切れ区間がT1以上、T2未満でない場合、ステップS2009の処理に移行する。
ステップS2006で、判定部1903は、ステップS2002において検出したズーム途切れ区間において被写体の動きがあるか否かを判定する。具体的には、例えば第1の実施形態で述べたようにブロック単位に移動体領域の検出を行い、移動体領域が画像内に占める割合が所定の割合以上(例えば30%)であれば動きがあると判定する。なお、被写体の動きの判定手法としてはこれに限られるものではなく、他の手法を用いてもよい。被写体の動きがあると判定した場合、ステップS2007の処理に移行し、被写体の動きがないと判定した場合、ステップS2004の処理に移行する。
In step S2005, the determination unit 1903 determines whether or not the zoom interruption section detected in step S2002 is equal to or more than T1 and less than a predetermined number of frames T2 [frame]. If the zoom interruption section is not less than T1 and less than T2, the process proceeds to step S2006, and if the zoom interruption section is not greater than T1 and less than T2, the process proceeds to step S2009.
In step S2006, the determination unit 1903 determines whether or not there is movement of the subject in the zoom interruption section detected in step S2002. Specifically, for example, as described in the first embodiment, detection of the moving body area is performed in block units, and movement is performed if the ratio of the moving body area to the image is a predetermined rate or more (for example, 30%) It is determined that there is Note that the method of determining the movement of the subject is not limited to this, and another method may be used. If it is determined that the subject has moved, the process proceeds to step S2007. If it is determined that the subject does not move, the process proceeds to step S2004.

ステップS2007で、判定部1903の制御下で動きブレ付与部1904は、ステップS2002において検出したズーム途切れ区間のフレームの画像を拡大及びクロップした上で合成を行い、動きブレ付与画像を生成する。これは、被写体の動きが大きい場合に、ステップS2004のようにフレームを間引いて合成を行うと、動きのある被写体がまばらな残像となってしまい、自然な動きブレの効果が得られないためである。これを回避するために、ズーム途切れ区間のフレームの画像を拡大及びクロップすることにより、疑似的に焦点距離を変化させた画像を生成して、合成に用いることが可能となる。   In step S2007, under the control of the determination unit 1903, the motion blur applying unit 1904 enlarges and crops the image of the frame of the zoom interruption section detected in step S2002, and then performs synthesis to generate a motion blur imparted image. This is because, when the motion of the subject is large, if the composition is performed by thinning out the frames as in step S2004, the subject with the motion becomes a sparse afterimage, and a natural motion blur effect can not be obtained. is there. In order to avoid this, by enlarging and cropping the image of the frame of the zoom interruption section, it is possible to generate an image in which the focal distance is changed in a pseudo manner and use it for composition.

図22は、ステップS2007におけるフレーム拡大合成を説明するための図である。図22の横軸は時間、縦軸は焦点距離を表し、フレーム毎の焦点距離の変化を表す。図22(a)に示すように、ズーム途切れ区間及びその後のズーム終了までの区間において、実線で示す焦点距離を、点線で示す焦点距離のように補正することにより、ズームの途切れのないフレーム群とすることができる。
また、焦点距離の補正パターンとしては、図22(b)の点線に示すものでもよい。すなわち、焦点距離の変化が一定になるように、ズーム途切れ区間だけでなく、ズーム開始時よりも前の時刻のフレームの画像を拡大及びクロップした上で合成を行う。これにより、元の動画よりもズーム速度がゆっくりとした動画を生成することができる。
なお、補正パターンはユーザが任意に選択できるようにしてもよいし、シーンに応じて適応的に自動選択されるようにしてもよい。例えばズーム開始時とズーム終了時の焦点距離の差が所定の値よりも大きい(例えば3倍)場合、図22(a)に示すようにズームの速度は変えない、又は速くするために点線の傾きがより急峻となるようにする。一方、ズーム開始時とズーム終了時の焦点距離の差が所定の値よりも小さい場合、図22(b)に示すようにズームの速度を遅くする。また、焦点距離の差だけでなく、被写体の距離に応じて補正パターンを選択するようにしてもよく、例えば撮影時のオートフォーカス処理において取得した測距情報を参照し、被写体が遠くに存在する場合、ズームの速度を速くするといった制御も可能である。
また、図22(c)に示すように、拡大ではなく縮小する方向に補正することも可能である。この場合、縮小しないフレームの画像と画角を合わせるために、表示・記録される画角よりも広い画角を予め持っておく必要がある。
FIG. 22 is a diagram for explaining frame enlargement and combining in step S2007. The horizontal axis in FIG. 22 represents time, and the vertical axis represents focal length, which represents the change in focal length for each frame. As shown in FIG. 22A, in the zoom interruption section and the subsequent sections until the zoom end, by correcting the focal length indicated by the solid line to a focal length indicated by the dotted line, a frame group without zoom interruption It can be done.
Moreover, as a correction pattern of a focal distance, what is shown to the dotted line of FIG.22 (b) may be used. That is, in order to make the change of the focal length constant, not only the zoom interruption section but also the image of the frame at the time before the start of the zoom is enlarged and cropped, and then the composition is performed. This makes it possible to generate a moving image with a slower zoom speed than the original moving image.
The correction pattern may be arbitrarily selected by the user, or may be automatically selected adaptively according to the scene. For example, if the difference between the focal length at the start of zooming and the focal length at the end of zooming is larger than a predetermined value (for example, 3 times), the zoom speed does not change or is dotted to make it faster as shown in FIG. Make the slope steeper. On the other hand, if the difference between the focal length at the start of zooming and the focal length at the end of zooming is smaller than a predetermined value, the zoom speed is reduced as shown in FIG. Also, the correction pattern may be selected according to the distance of the subject as well as the difference in focal length. For example, with reference to distance measurement information acquired in autofocus processing at the time of shooting, the subject is far away In this case, control such as increasing the zoom speed is also possible.
Further, as shown in FIG. 22C, it is also possible to correct in the direction of reduction instead of enlargement. In this case, in order to match the angle of view with the image of the non-reduced frame, it is necessary to hold in advance a wider angle of view than the angle of view to be displayed and recorded.

ステップS2008で、判定部1903の制御下で動きブレ付与部1904は、ズーム操作期間中に付与する動きブレの強さが一定となるように合成に用いるフレームを選択し、動きブレ付与画像を生成する。具体的には、ズームの速度が一定でなくても動きブレの見え方が不均一になることがないように、焦点距離の変化量に応じて合成に用いるフレームを選択する。
図23は、ステップS2008における一定化合成を説明するための図である。図23の横軸は時間、縦軸は焦点距離であり、フレーム毎の焦点距離の変化を表す。ズーム操作期間においてズーム区間1とズーム区間2とでズームの速度(焦点距離の変化の傾き)が異なっている。この場合、ズーム区間1においては、フレーム2301に対応する動きブレ付与画像を生成するために、フレーム2301の画像とその前後の例えば2枚ずつのフレーム2302の画像の合成を行う。また、区間2においては、フレーム2303に対応する動きブレ付与画像を生成するために、フレーム2303の画像とその前後でとびとびに隣接する例えば2枚ずつのフレーム2304の画像との合成を行う。これにより、合成する各フレームの画像間の焦点距離の差を合わせることができ、合成により付与される動きブレの見え方が均一となる。
In step S2008, under the control of the determination unit 1903, the motion blur applying unit 1904 selects a frame to be used for composition so that the motion blur intensity applied during the zoom operation period becomes constant, and generates a motion blur imparted image. Do. Specifically, a frame to be used for composition is selected according to the amount of change of the focal length so that the appearance of motion blur does not become uneven even if the zoom speed is not constant.
FIG. 23 is a diagram for explaining the fixed combination in step S2008. The horizontal axis in FIG. 23 is time, and the vertical axis is focal length, which represents a change in focal length for each frame. In the zoom operation period, the zoom speed (slope of change in focal length) is different between the zoom section 1 and the zoom section 2. In this case, in the zoom section 1, in order to generate a motion blur applied image corresponding to the frame 2301, the image of the frame 2301 and the images of, for example, two frames 2302 before and after that are synthesized. Further, in the section 2, in order to generate a motion blur added image corresponding to the frame 2303, the image of the frame 2303 and the images of, for example, two frames 2304 adjacent to each other in a skipping manner before and after that are combined. This makes it possible to match the difference in focal length between the images of the respective frames to be combined, and the appearance of the motion blur imparted by the combination becomes uniform.

ステップS2009で、判定部1903の制御下で動きブレ付与部1904は、フレームを間引いたり、拡大したりせず、時間軸上で隣接する所定の数のフレームの画像の合成を行うことにより、動きブレ付与画像を生成する。   In step S2009, under the control of the determination unit 1903, the motion blur applying unit 1904 performs motions by combining images of a predetermined number of adjacent frames on the time axis without thinning out or enlarging the frames. Generate a blurring image.

本実施形態では、撮影時のズーム操作が途切れたり、不均一であったりする場合でも、焦点距離の変化に応じて画像の合成を制御することにより、ユーザの所望とする自然な動きブレ効果を有する動画を生成することができる。   In this embodiment, even when the zoom operation at the time of shooting is interrupted or uneven, the natural motion blur effect desired by the user can be obtained by controlling the composition of the images according to the change of the focal length. It is possible to generate moving images.

なお、動きブレ付与画像を生成する際、選択したフレームの画像を一律に合成する構成を述べたが、これに限られるものではなく、合成するフレームの数を画像内の領域に応じて可変にしてもよい。例えばズームイン操作をするとき画像の中央付近には注目すべき主要な被写体が存在することが多く、合成によって動きブレが強すぎて視認しにくくなることがある。そこで、図24に示すように、画像中央は合成枚数を少なく、像高が高くなるほど合成枚数を多くすることにより、ズーム操作によるブラー効果を出しながら、主要な被写体に対しては動きブレが強すぎないように制御することが可能となる。   Although the configuration for uniformly combining the images of the selected frame when generating the motion blur added image is described, the present invention is not limited to this, and the number of frames to be combined is made variable according to the area in the image. May be For example, when performing a zoom-in operation, a main subject to be noted is often present near the center of the image, and the combination may make the motion blur too strong and difficult to view. Therefore, as shown in FIG. 24, the number of composites in the center of the image is small, and the number of composites is large as the image height is high, so that the blur effect by the zoom operation is produced and the motion blur is strong for the main subject. It becomes possible to control so as not to be excessive.

以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
例えば実施形態では、画像処理装置の一例として撮像装置について説明するが、本発明の適用先は撮像装置に限定されず、例えば撮像装置による撮像画像が入力されるパーソナルコンピュータ(PC)等であってもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
As mentioned above, although the present invention was explained with an embodiment, the above-mentioned embodiment shows only an example of the embodiment in the case of carrying out the present invention, and the technical scope of the present invention is interpreted restrictively by these. It is a must-have. That is, the present invention can be implemented in various forms without departing from the technical concept or the main features thereof.
For example, in the embodiment, an imaging apparatus will be described as an example of the image processing apparatus, but the application destination of the present invention is not limited to the imaging apparatus, for example, a personal computer (PC) or the like to which a captured image by the imaging apparatus is input It is also good.
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

100:撮像装置、101:システム制御部、102:ROM、103:RAM、104:光学系、105:撮像部、106:A/D変換部、107:画像処理部、108:表示部、109:記録部、301:撮像画像取得部、302:移動体情報取得部、303:被写体情報取得部、304:動きブレ強度決定部、305:動きブレ付与部、306:画像出力部   100: imaging apparatus, 101: system control unit, 102: ROM, 103: RAM, 104: optical system, 105: imaging unit, 106: A / D conversion unit, 107: image processing unit, 108: display unit, 109: Recording unit 301: captured image acquisition unit 302: moving body information acquisition unit 303: subject information acquisition unit 304: motion blur intensity determination unit 305: motion blur imparting unit 306: image output unit

Claims (19)

時系列で連続する複数の画像中の移動体に関する情報を取得する取得手段と、
前記取得手段で取得した情報に基づいて評価される、動きブレを付与したときの前記移動体の消えやすさに応じて動きブレ強度を決定する動きブレ強度決定手段と、
前記動きブレ強度決定手段で決定した動きブレ強度に基づいて、前記画像を用いて、動きブレを付与した動きブレ付与画像を生成する動きブレ付与手段とを備えたことを特徴とする画像処理装置。
Acquisition means for acquiring information on moving objects in a plurality of images continuous in time series;
Motion blur intensity determination means for determining the motion blur intensity according to the ease of disappearance of the moving object when motion blur is applied, which is evaluated based on the information acquired by the acquisition means;
An image processing apparatus comprising: motion blur applying means for generating a motion blur applied image to which a motion blur is applied using the image based on the motion blur intensity determined by the motion blur intensity determination means .
前記取得手段として、前記画像中の前記移動体の移動に関する移動情報を取得する移動体情報取得手段を備えることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: a moving object information acquisition unit configured to acquire movement information on movement of the moving object in the image as the acquisition unit. 前記移動体情報取得手段は、前記移動情報として、前記移動体の動きベクトルを算出し、
前記動きブレ強度決定手段は、前記動きベクトルに基づいて、前記移動体の消えやすさを評価することを特徴とする請求項2に記載の画像処理装置。
The moving body information acquisition means calculates a motion vector of the moving body as the movement information,
The image processing apparatus according to claim 2, wherein the motion blur strength determination unit evaluates the disappearance of the moving object based on the motion vector.
前記動きブレ強度決定手段は、前記動きベクトルから検出される前記移動体の動きが速いほど消えやすいと評価することを特徴とする請求項3に記載の画像処理装置。   4. The image processing apparatus according to claim 3, wherein the motion blur strength determination unit evaluates that the motion of the moving body detected from the motion vector is more likely to disappear as the motion of the moving body is faster. 前記画像は撮像画像であり、
前記取得手段として、前記撮像画像中の前記移動体の被写体としての被写体情報を取得する被写体情報取得手段を備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
The image is a captured image,
The image processing apparatus according to any one of claims 1 to 4, further comprising subject information acquisition means for acquiring subject information as the subject of the moving object in the captured image as the acquisition means.
前記被写体情報取得手段は、前記被写体情報として、前記移動体の画像間での重なり情報、及び前記移動体と背景との差分情報のうち少なくともいずれか一つを取得し、
前記動きブレ強度決定手段は、前記重なり情報、及び前記差分情報のうち少なくともいずれか一つに基づいて、前記移動体の消えやすさを評価することを特徴とする請求項5に記載の画像処理装置。
The subject information acquisition means acquires, as the subject information, at least one of overlap information between images of the moving object and difference information between the moving object and the background, as the object information.
The image processing according to claim 5, wherein the motion blur strength determination unit evaluates the ease of disappearance of the moving object based on at least one of the overlap information and the difference information. apparatus.
前記動きブレ強度決定手段は、前記移動体の画像間での重なりが小さいほど消えやすいと評価することを特徴とする請求項6に記載の画像処理装置。   7. The image processing apparatus according to claim 6, wherein the motion blur strength determination unit evaluates that the smaller the overlap between the images of the moving objects is, the more easily they disappear. 前記動きブレ強度決定手段は、前記移動体と背景との差分が大きいほど消えやすいと評価することを特徴とする請求項6に記載の画像処理装置。   7. The image processing apparatus according to claim 6, wherein the motion blur strength determination unit evaluates that the difference between the moving object and the background is more likely to disappear as the difference is larger. 前記動きブレ強度決定手段は、前記移動体が消えやすいと評価した場合、動きブレ強度を弱くすることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 8, wherein the motion blur strength determination unit weakens the motion blur strength when it is evaluated that the moving object is easily disappeared. 前記動きブレ強度決定手段は、前記移動体が複数ある場合に、前記取得手段で取得した前記情報に基づいて、動きブレ強度を決定する基準とする移動体を決定した上で、動きブレを付与したときの前記基準とする移動体の消えやすさに応じて動きブレ強度を決定することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The motion blur strength determination means determines the motion body serving as the reference for determining the motion blur strength based on the information acquired by the acquisition means when there are a plurality of the moving bodies, and then adds the motion blur. The image processing apparatus according to any one of claims 1 to 9, wherein the motion blur intensity is determined in accordance with the disappearance of the moving object as the reference at the same time. 前記動きブレ強度決定手段は、前記基準とする移動体を決定するのに、前記移動体の大きさ情報、主要な被写体であるか否かの情報、及び前記画像中で前記移動体が写っている割合情報のうち少なくともいずれか一つを使用することを特徴とする請求項10に記載の画像処理装置。   The motion blur strength determining means determines the size of the moving body as the reference moving body, information on whether or not the moving body is a main subject, and the moving body is captured in the image. The image processing apparatus according to claim 10, wherein at least one of the ratio information is used. 前記動きブレ付与手段は、前記画像の合成を行うことにより動きブレを付与し、
前記動きブレ強度決定手段は、動きブレ強度として、合成枚数を決定することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
The motion blur applying means applies motion blur by combining the images;
The image processing apparatus according to any one of claims 1 to 11, wherein the motion blur strength determination unit determines a combined number as the motion blur strength.
前記動きブレ付与手段は、前記画像にフィルタ処理を施すことにより動きブレを付与し、
前記動きブレ強度決定手段は、動きブレ強度として、前記フィルタ処理のフィルタパラメータを決定することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
The motion blur applying means applies motion blur by applying a filtering process to the image,
The image processing apparatus according to any one of claims 1 to 11, wherein the motion blur intensity determination unit determines a filter parameter of the filter process as the motion blur intensity.
前記フィルタパラメータは、前記フィルタ処理のタップ数及びフィルタ係数のうち少なくともいずれか一つであることを特徴とする請求項13に記載の画像処理装置。   The image processing apparatus according to claim 13, wherein the filter parameter is at least one of the number of taps of the filter processing and a filter coefficient. 前記動きブレ付与手段は、時系列で連続する複数の前記動きブレ付与画像を生成することを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 14, wherein the motion blur applying unit generates a plurality of the motion blur imparted images which are continuous in time series. 前記動きブレ付与手段は、前後の画像間において動きブレ強度を所定の強度以上に変化させるとき、前記前後の画像間に移行期間を設定し、前記移行期間で動きブレ強度を徐々に変化させることを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。   The motion blur applying means sets a transition period between the front and back images when the motion blur intensity is changed to a predetermined intensity or more between the front and back images, and the motion blur intensity is gradually changed in the transition period. The image processing apparatus according to any one of claims 1 to 15, wherein 前記動きブレ付与手段は、前記移行期間の長さを可変とすることを特徴とする請求項16に記載の画像処理装置。   17. The image processing apparatus according to claim 16, wherein the motion blur applying unit makes the length of the transition period variable. 時系列で連続する複数の画像中の移動体に関する情報を取得する取得ステップと、
前記取得ステップで取得した情報に基づいて評価される、動きブレを付与したときの前記移動体の消えやすさに応じて動きブレ強度を決定する動きブレ強度決定ステップと、
前記動きブレ強度決定ステップで決定した動きブレ強度に基づいて、前記画像を用いて、動きブレを付与した動きブレ付与画像を生成する動きブレ付与ステップとを有することを特徴とする画像処理装置の制御方法。
An acquisition step of acquiring information on a moving object in a plurality of successive images in time series;
A motion blur intensity determination step of determining a motion blur intensity according to the ease of disappearance of the moving object when the motion blur is applied, which is evaluated based on the information acquired in the acquisition step;
An image processing apparatus characterized by further comprising: a motion blur applying step of generating a motion blur imparted image to which a motion blur is applied using the image based on the motion blur intensity determined in the motion blur intensity determination step; Control method.
時系列で連続する複数の画像中の移動体に関する情報を取得する取得手段と、
前記取得手段で取得した情報に基づいて評価される、動きブレを付与したときの前記移動体の消えやすさに応じて動きブレ強度を決定する動きブレ強度決定手段と、
前記動きブレ強度決定手段で決定した動きブレ強度に基づいて、前記画像を用いて、動きブレを付与した動きブレ付与画像を生成する動きブレ付与手段としてコンピュータを機能させるためのプログラム。
Acquisition means for acquiring information on moving objects in a plurality of images continuous in time series;
Motion blur intensity determination means for determining the motion blur intensity according to the ease of disappearance of the moving object when motion blur is applied, which is evaluated based on the information acquired by the acquisition means;
A program for causing a computer to function as motion blur imparting means for generating a motion blur imparted image to which motion blur is imparted using the image based on the motion blur intensity determined by the motion blur intensity determination means.
JP2017240672A 2017-12-15 2017-12-15 Image processing system, its control method and program Pending JP2019110386A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017240672A JP2019110386A (en) 2017-12-15 2017-12-15 Image processing system, its control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017240672A JP2019110386A (en) 2017-12-15 2017-12-15 Image processing system, its control method and program

Publications (2)

Publication Number Publication Date
JP2019110386A true JP2019110386A (en) 2019-07-04
JP2019110386A5 JP2019110386A5 (en) 2021-01-21

Family

ID=67180225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017240672A Pending JP2019110386A (en) 2017-12-15 2017-12-15 Image processing system, its control method and program

Country Status (1)

Country Link
JP (1) JP2019110386A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021082903A (en) * 2019-11-15 2021-05-27 キヤノン株式会社 Image processing device, imaging device, image processing method, program, and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014023067A (en) * 2012-07-20 2014-02-03 Ricoh Imaging Co Ltd Image composition apparatus
JP2015207809A (en) * 2014-04-17 2015-11-19 株式会社ニコン Imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014023067A (en) * 2012-07-20 2014-02-03 Ricoh Imaging Co Ltd Image composition apparatus
JP2015207809A (en) * 2014-04-17 2015-11-19 株式会社ニコン Imaging apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021082903A (en) * 2019-11-15 2021-05-27 キヤノン株式会社 Image processing device, imaging device, image processing method, program, and recording medium
JP7059239B2 (en) 2019-11-15 2022-04-25 キヤノン株式会社 Image processing equipment, imaging equipment, image processing methods, programs and recording media
US11533440B2 (en) 2019-11-15 2022-12-20 Canon Kabushiki Kaisha Apparatus, method, and storage medium each relating to image composition

Similar Documents

Publication Publication Date Title
JP4961800B2 (en) Image processing apparatus, image processing method, and computer program
JP5968107B2 (en) Image processing method, image processing apparatus, and program
US8717455B2 (en) Image processing apparatus and image processing method
KR101204727B1 (en) Image processing apparatus, image processing method, and storage medium
JP2008294785A (en) Image processor, imaging apparatus, image file, and image processing method
JP5531865B2 (en) Image processing apparatus, image processing method, and program
KR20140118031A (en) Image processing apparatus and method thereof
JP6261205B2 (en) Image processing device
JP6270413B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6604908B2 (en) Image processing apparatus, control method thereof, and control program
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
JP2012109656A (en) Image processing apparatus and method, and image display unit and method
JP7057079B2 (en) Image processing device, image pickup device, image processing method, and program
JP2019110386A (en) Image processing system, its control method and program
JP5482589B2 (en) Image processing apparatus, image processing method, and image processing program
JP5566196B2 (en) Image processing apparatus and control method thereof
JP2019016893A (en) Image processing apparatus, control method therefor, and program
JP2014229988A (en) Image processing apparatus, image processing method, and program
JP7224822B2 (en) Image processing device and image processing method
JP7327917B2 (en) Image processing device and image processing method
Fearing Importance ordering for real-time depth of field
JP7143191B2 (en) Image processing device
JP6494388B2 (en) Image processing apparatus, image processing method, and program
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
JP7059239B2 (en) Image processing equipment, imaging equipment, image processing methods, programs and recording media

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220419