JP2019110386A - Image processing system, its control method and program - Google Patents
Image processing system, its control method and program Download PDFInfo
- Publication number
- JP2019110386A JP2019110386A JP2017240672A JP2017240672A JP2019110386A JP 2019110386 A JP2019110386 A JP 2019110386A JP 2017240672 A JP2017240672 A JP 2017240672A JP 2017240672 A JP2017240672 A JP 2017240672A JP 2019110386 A JP2019110386 A JP 2019110386A
- Authority
- JP
- Japan
- Prior art keywords
- motion blur
- image
- information
- moving object
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、その制御方法及びプログラムに関する。 The present invention relates to an image processing apparatus, a control method thereof and a program.
動感表現を行う技術として、1フレームを擬似的に長秒で撮影したかのように表現した擬似長秒動画を生成するものがある。これは、例えば動画の複数フレームに対して移動平均合成を行うことで、動きブレを付与し、移動体にブラーを付与したような効果をつけた動画を生成する技術である。 As a technique for performing motion expression, there is one that generates a pseudo long second moving image which is expressed as if one frame is pseudo shot in a long second. This is a technology for applying motion blur to a plurality of frames of a moving image, for example, to add motion blur, and to generate a moving image with an effect such as giving a blur to a moving object.
特許文献1には、撮像部で撮像された複数の画像データの中から特定の画像データと、前記特定の画像データに合成する合成用画像データとを選択し、被写体の移動量に基づいて、前記特定の画像データに合成する前記合成用画像データの合成枚数を決定する構成が開示されている。これにより、例えばバスケットゴールに向けてシュートする人物の移動軌跡を表した画像や、バレリーナのジャンプの軌跡を表した画像を作成することができる。
In
特許文献1に開示された従来技術は、移動体の移動開始から移動終了までの一連の動きの軌跡を表すものであり、移動量が大きい場合には、合成枚数を増やして合成を行う。
しかしながら、合成枚数が増えると、合成後の画像において移動体が消えて、見えにくくなることがある。例えば移動体の動きが速いと、画像間での移動体の重なりが少なくなり、また、合成する毎に動いていない背景の比重が大きくなるため、合成後の画像において背景が濃く、移動体が薄く写り、移動体が消えやすくなる。
The prior art disclosed in
However, if the number of combined images increases, the moving object may disappear in the image after combining and it may be difficult to see. For example, if the movement of the moving object is fast, the overlapping of the moving object between the images decreases, and the specific gravity of the non-moving background increases each time the image is synthesized. The image is thin and the moving object is easily disappeared.
本発明は上記のような点に鑑みてなされたものであり、動きブレを付与する画像処理において移動体を消えにくくすることを目的とする。 The present invention has been made in view of the above-described points, and it is an object of the present invention to make it difficult for a moving object to disappear in image processing for applying motion blur.
本発明の画像処理装置は、時系列で連続する複数の画像中の移動体に関する情報を取得する取得手段と、前記取得手段で取得した情報に基づいて評価される、動きブレを付与したときの前記移動体の消えやすさに応じて動きブレ強度を決定する動きブレ強度決定手段と、前記動きブレ強度決定手段で決定した動きブレ強度に基づいて、前記画像を用いて、動きブレを付与した動きブレ付与画像を生成する動きブレ付与手段とを備えたことを特徴とする。 The image processing apparatus according to the present invention includes an acquisition unit that acquires information on moving objects in a plurality of images continuous in time series, and a motion blur that is evaluated based on the information acquired by the acquisition unit. Motion blur is applied using the image based on the motion blur intensity determining means for determining the motion blur intensity according to the ease of disappearance of the moving object, and the motion blur intensity determined by the motion blur intensity determining means And motion blur applying means for generating a motion blur imparted image.
本発明によれば、動きブレを付与する画像処理において移動体を消えにくくすることができる。 According to the present invention, it is possible to make it difficult for a moving object to disappear in image processing for applying motion blur.
以下、添付図面を参照して、本発明の好適な実施形態について説明する。以下に述べる実施形態では、撮像装置が本発明を適用した画像処理装置として機能する例を説明する。
(第1の実施形態)
図1は、実施形態に係る撮像装置100の構成を示す図である。
システム制御部101は、例えばCPUにより構成され、動作プログラムをROM102より読み出し、RAM103に展開して実行することにより撮像装置100が備える各部の動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、動作プログラムに加え、各部の動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、撮像装置100が備える各部の動作において出力されたデータの一時的な記憶領域として用いられる。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In the embodiments described below, an example in which an imaging apparatus functions as an image processing apparatus to which the present invention is applied will be described.
First Embodiment
FIG. 1 is a diagram showing the configuration of an
The
光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群により構成される。光学系104を介して取得された被写体像は、撮像部105に結像する。撮像部105は、例えばCCDやCMOSセンサ等の撮像素子により構成され、光学系104により結像された光学像を光電変換し、得られた一対のアナログ画像信号を順次A/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像信号に変換し、得られたデジタル画像データをRAM103に出力する。
The
画像処理部107は、RAM103等に記録された画像データに対して、ホワイトバランス調整、色補間、ガンマ処理、電子ズーム処理等、様々な画像処理を実行する。また、画像処理部107は、動きブレを付与する画像処理を実行する。表示部108は、LCD等の表示デバイスであり、RAM103及び記録部109に記録した画像やユーザからの指示を受け付けるための操作ユーザインターフェイスを表示する。記録部109は、メモリカードやハードディスク等の記録媒体により構成され、画像処理を行った最終的な出力画像データを格納する。
An
第1の実施形態では、擬似長秒動画を生成する際に、動きブレを付与したときの移動体の消えやすさを評価し、その評価結果に応じて動きブレ強度を決定する。本実施形態では、画像の合成枚数を決定することにより動きブレ強度を決定する。
図2を参照して、擬似長秒動画について説明する。図2は、撮影した動画の1〜4フレームの画像201〜204と、合成後の画像211、212とを示す。
擬似長秒動画では、移動体(図示例ではバスや歩行者)の動きブレを表現するために、動画の複数フレームに対して移動平均合成を行う。画像211は、1〜3フレームの画像201〜203を合成した画像であり、動きブレを付与した動きブレ付与画像である。また、画像212は、2〜4フレームの画像202〜204を合成した画像であり、動きブレを付与した動きブレ付与画像である。
In the first embodiment, when generating a pseudo long second moving image, the ease of disappearance of the moving object when the motion blur is applied is evaluated, and the motion blur intensity is determined according to the evaluation result. In the present embodiment, the motion blur intensity is determined by determining the number of combined images.
The pseudo long second moving image will be described with reference to FIG. FIG. 2 shows
In the pseudo long second moving image, moving average combination is performed on a plurality of frames of the moving image in order to express motion blur of a moving object (a bus or a pedestrian in the illustrated example). The
このようにフレームを順次ずらしながら画像をオーバーラップさせて合成を行うことで、動きブレを付与し、移動体にブラーを付与したような効果をつけた動画を生成する。合成枚数に応じて動きブレ強度が変化する。合成枚数が少なければ、移動体は消えにくいが、移動量が小さくなるので、動きブレ強度は弱くなる。一方で、合成枚数が多ければ、移動体は消えやすいが、移動量が大きくなるので、動きブレ強度が強くなる。
また、移動体の動きが速いと、フレーム間での移動体の重なりが少なくなり、また、合成する毎に動いていない背景の比重が大きくなるため、合成後の画像において背景が濃く、移動体が薄く写り、移動体が消えやすくなる。
As described above, by combining the images while sequentially shifting the frames, a motion blur is applied, and a moving image with an effect of giving a blur to the moving object is generated. Motion blur intensity changes according to the number of combined images. If the number of combined images is small, the moving object is hard to disappear, but the amount of movement is small, so the motion blur intensity becomes weak. On the other hand, if the number of combined sheets is large, the moving object is likely to disappear, but the moving amount becomes large, so the motion blur intensity becomes strong.
In addition, when the moving object moves fast, the overlapping of moving objects between frames decreases, and the specific gravity of the non-moving background increases with each composition, so the background in the image after composition becomes dark, and the moving object Becomes thin, and the moving object is likely to disappear.
図3は、第1の実施形態に係る撮像装置100の機能構成を示す図である。
301は撮像画像取得部であり、動画を構成する、時系列で連続する複数フレームの撮像画像を取得する。
302は移動体情報取得部であり、撮像画像取得部301で取得した撮像画像中の移動体の移動に関する移動情報を取得する。移動情報として、移動体の動きベクトルを算出して、移動体の消えやすさの評価に使用する。本実施形態では、移動体情報取得部302が本発明でいう移動体情報取得手段として機能する。
303は被写体情報取得部であり、撮像画像取得部301で取得した撮像画像中の移動体の被写体としての被写体情報を取得する。被写体情報として、移動体のフレーム間での重なり情報、移動体と背景との差分情報を取得して、移動体の消えやすさの評価に使用する。本実施形態では、被写体情報取得部303が本発明でいう被写体情報取得手段として機能する。
FIG. 3 is a diagram showing a functional configuration of the
A subject
304は動きブレ強度決定部であり、移動体情報取得部302で取得した移動情報及び被写体情報取得部303で取得した被写体情報に基づいて、動きブレを付与したときの移動体の消えやすさを評価する。そして、動きブレ強度決定部304は、その評価結果に応じて動きブレ強度として合成枚数を決定する。本実施形態では、動きブレ強度決定部304が本発明でいう動きブレ強度決定手段として機能する。
305は動きブレ付与部であり、動きブレ強度決定部304で決定した合成枚数に基づいて、撮像画像取得部301で取得した撮像画像を用いて、動きブレ付与画像を生成する。動きブレ付与画像は、擬似長秒動画用のフレームの画像であり、時系列で連続する複数フレームの動きブレ付与画像を生成することにより擬似長秒動画が生成される。本実施形態では、動きブレ付与部305が本発明でいう動きブレ付与手段として機能する。
306は画像出力部であり、動きブレ付与部305で生成した擬似長秒動画を出力する。
A motion
An
図4は、第1の実施形態において撮像装置100が実行する処理を示すフローチャートである。図4のフローチャートは、システム制御部101が動作プログラムをROM102より読み出し、RAM103に展開して実行することにより実現される。
第1の実施形態では、撮像画像取得部301で取得した撮像画像中において移動体が1体だけである例を説明する。
FIG. 4 is a flowchart showing processing performed by the
In the first embodiment, an example in which there is only one moving object in the captured image acquired by the captured
ステップS401で、撮像画像取得部301は、時系列で連続する複数フレームの撮像画像を取得する。
In step S401, the captured
ステップS402で、移動体情報取得部302は、ステップS401において取得した撮像画像中の移動体の動きベクトルを算出する。
図5は、動きベクトルの算出について説明するための図である。図5(a)、(b)に、撮像画像取得部301で取得したNフレーム目の撮像画像501、N+1フレーム目の撮像画像502を示す。また、図5(c)に、Nフレーム目の撮像画像501をブロック分割した状態を示す。
撮像画像501、502を任意のサイズ(L×M)のブロックに分割し、各領域間の差分として相関値を算出する。フレーム間の相関値を算出するために、着目画素を中心とする任意の範囲の評価枠に対して画素毎にSAD(Sum of Absolute Difference)を算出し、評価枠内の画素値の差分絶対値を積算する。具体的には、評価枠内における撮像画像501、502間の一対の画素値をf(i,j)、g(i,j)(i、jは座標)と表した場合に、式(1)を用いて画素値の差分の積算を評価値RSADとして算出する。
In step S402, the moving body
FIG. 5 is a diagram for explaining calculation of a motion vector. FIGS. 5A and 5B show a captured
The captured
評価値RSADが小さくなる部分が類似する領域となるので、その領域を探索し、図5(d)に示すように、ブロックの位置関係から移動体の動きベクトル503を算出する。
なお、本実施形態では、画素値の差分絶対値であるSADを用いた評価値の算出方式を説明したが、これに限られるものではなく、他の方式を利用してもよい。
Since the portion where the evaluation value R SAD decreases is a similar region, the region is searched, and the
In this embodiment, although the calculation method of the evaluation value using SAD which is the difference absolute value of pixel value was explained, it is not restricted to this, and other methods may be used.
ステップS403で、被写体情報取得部303は、ステップS401において取得した撮像画像中の移動体のフレーム間での重なり情報、移動体と背景との差分情報を取得する。
移動体のフレーム間での重なり情報として、移動体のフレーム間での重なり領域の割合を算出する。
図6は、移動体の重なり領域の算出について説明するための図である。ステップS402において算出した動きベクトルに基づいて、動きがあるブロックと類似する領域を検出し、一つの移動体として領域をまとめる。ここでの領域を検出するために、特許文献2に開示されているようなクラスタリング処理を用いる。このクラスタリング処理では、輝度や色情報の分布解析を行い、隣接するブロックの類似性を判定して、類似すると判定された場合は同一ブロックであると判定する。クラスタリング処理により、同一のクラスタを移動体の1領域として判定する。
In step S403, the subject
The ratio of the overlapping area between the frames of the moving body is calculated as the overlapping information between the frames of the moving body.
FIG. 6 is a diagram for explaining the calculation of the overlapping area of the moving object. Based on the motion vector calculated in step S402, an area similar to a block having motion is detected, and the areas are put together as one moving object. In order to detect the area here, a clustering process as disclosed in
図6(a)に、ステップS402においてサイズ(L×M)のブロックに分割したNフレーム目の撮像画像601を示す。また、図6(b)に、移動ベクトル602に対応するブロックと類似するブロックをクラスタリングした結果である移動体領域603を示す。また、移動体領域603のブロックに含まれる動きベクトルの平均値を移動体の動きベクトルとして紐付ける。そして、Nフレームで検出した動きベクトルを用いて、N+1フレームにおける移動体が移動した先の領域を決定する。
次に、Nフレーム目で検出した移動体領域とN+1フレーム目で検出した移動体領域とを用いて、各領域のX軸方向の座標を算出する。図6(c)、(d)に示すように、Nフレーム目の撮像画像601における移動体のX座標位置がXLn、XRn、N+1フレーム目の撮像画像604における移動体のX座標位置がXLn+1、XRn+1となる。そして、図6(e)、(f)に示すように、移動方向を考慮し、算出した各X座標から重なり領域の大きさLenXを式(2)、(3)を用いて算出する。
そして、算出した重なり領域の大きさLenXと移動体領域の全体の大きさから、移動体のフレーム間での重なり領域の割合を算出する。
FIG. 6A shows a captured
Next, the coordinates in the X-axis direction of each region are calculated using the mobile region detected in the Nth frame and the mobile region detected in the N + 1th frame. As shown in FIGS. 6C and 6D, the X coordinate position of the moving object in the N frame captured
Then, from the calculated size LenX of the overlapping area and the total size of the moving body area, the ratio of the overlapping area between the frames of the moving body is calculated.
また、移動体と背景との差分情報として、移動体と背景とのコントラストの差分値を算出する。
移動体のコントラスト情報として、移動体のエッジ強度を利用する。これは、画像に対してバンドパスフィルタをかけることでエッジ信号を検出し、任意のブロックサイズ内にあるエッジ信号の絶対値を積分する。算出した値であるエッジ信号の積分値が大きい場合、すなわちテクスチャが多い場合に評価値Frが大きくなる。評価値Frは、式(4)を用いて算出する。fr(i,j)は任意のブロックサイズ内の各座標におけるエッジ信号の値である。
式(4)を用いて移動体の評価値と背景の評価値とを算出し、その差分値を、移動体と背景とのコントラストの差分値とする。
Also, as the difference information between the moving object and the background, the difference value of the contrast between the moving object and the background is calculated.
The edge strength of the moving object is used as contrast information of the moving object. This detects an edge signal by applying a band pass filter to an image, and integrates the absolute value of the edge signal within an arbitrary block size. When the integrated value of the edge signal which is the calculated value is large, that is, when the texture is large, the evaluation value Fr becomes large. The evaluation value Fr is calculated using equation (4). fr (i, j) is the value of the edge signal at each coordinate within an arbitrary block size.
The evaluation value of the moving object and the evaluation value of the background are calculated using Equation (4), and the difference value is taken as the difference value of the contrast between the moving object and the background.
ステップS404で、動きブレ強度決定部304は、動きブレを付与したときの移動体の消えやすさの評価値を求める。
消えやすさの評価値とは、画像の合成を行った際に、移動体が透過して薄くなる度合いとして定義し、それを表す指標である。評価値を求めるために、ステップS402において算出した移動体の動きベクトル、ステップS403において算出した、移動体のフレーム間での重なり領域の割合、移動体と背景とのコントラストの差分値を使用する。
図7は、消えやすさの評価値と各情報(移動体のフレーム間での重なり領域の割合、移動体と背景とのコントラストの差分値、動きベクトルから検出される移動体の動きの速さ)との関係を示す特性図である。図7(a)〜(c)に、各情報における消えやすさの評価値を表すグラフを示す。グラフの横軸は各情報、縦軸は消えやすさの評価値を表す。また、図7(d)に、各情報に対して設定された重みを示す。ここで使用する消えやすさの評価値は0〜1の範囲で表される値であり、各情報の算出値に対して消えやすさの評価値が割り振られている。
In step S404, the motion blur
The evaluation value of the easiness of disappearance is an index that is defined as the degree to which the moving body passes through and becomes thin when the images are combined. In order to obtain the evaluation value, the motion vector of the moving body calculated in step S402, the ratio of the overlapping area between the frames of the moving body calculated in step S403, and the difference value of the contrast between the moving body and the background are used.
FIG. 7 shows the evaluation value of extinction and each information (proportion of overlapping area between frames of moving object, difference value of contrast between moving object and background, moving speed of moving object detected from motion vector ) Is a characteristic diagram showing the relationship. FIGS. 7 (a) to 7 (c) show graphs showing evaluation values of the ease of disappearance in each information. The horizontal axis of the graph represents each information, and the vertical axis represents the evaluation value of the ease of disappearance. Further, FIG. 7D shows the weight set for each piece of information. The evaluation value of the ease of erasure used here is a value represented in the range of 0 to 1, and the evaluation value of the ease of erasure is assigned to the calculated value of each information.
各情報と移動体の消えやすさとの関係から、消えやすさの評価値を求める。
移動体のフレーム間での重なり領域の割合が低い場合、フレーム間で移動体が重なっている部分が少ないため、合成枚数が多くなると、背景の比重が高くなって移動体が薄く写り、合成後の画像において移動体が消えやすくなる。そこで、図7(a)に示すように、消えやすさの評価値を大きくする。一方で、移動体のフレーム間での重なり領域の割合が高い場合、移動体が消えにくいため、消えやすさの評価値を小さくする。
From the relationship between each information and the disappearance of the moving body, the evaluation value of the disappearance is calculated.
When the ratio of overlapping areas between frames of moving objects is low, there are few parts where moving objects overlap between frames, so when the number of combined sheets increases, the specific gravity of the background increases and the moving objects appear thin, and after combining The moving object tends to disappear in the image of. Therefore, as shown in FIG. 7A, the evaluation value of the ease of disappearance is increased. On the other hand, when the ratio of the overlapping area between the frames of the moving object is high, the moving object is hard to disappear, so the evaluation value of the ease of elimination is reduced.
移動体と背景とのコントラストの差分値が大きい場合、合成枚数が多くなると、背景の比重が高くなってコントラストが高い背景が移動体よりも濃く写る。そこで、図7(b)に示すように、消えやすさの評価値を大きくする。一方で、移動体と背景とのコントラストの差分値が小さい場合、移動体が消えにくいため、消えやすさの評価値を小さくする。 When the difference value of the contrast between the moving object and the background is large, when the number of combined images increases, the specific gravity of the background increases and the background with high contrast appears darker than the moving object. Therefore, as shown in FIG. 7 (b), the evaluation value of the easiness of disappearance is increased. On the other hand, when the difference value between the contrast of the moving object and the background is small, the moving object is hard to disappear, so the evaluation value of the ease of elimination is reduced.
移動体の動きが速い場合、合成枚数が多くなると、背景の比重が高くなって移動体が薄く写り、合成後の画像において移動体が消えやすくなる。そこで、図7(c)に示すように、消えやすさの評価値を大きくする。一方で、移動体の動きが遅い場合、移動体が消えにくいため、消えやすさの評価値を小さくする。 When the movement of the moving object is fast, if the number of combined images increases, the specific gravity of the background increases, the moving object appears thin, and the moving object tends to disappear in the image after combination. Therefore, as shown in FIG. 7C, the evaluation value of the ease of disappearance is increased. On the other hand, when the movement of the moving object is slow, the moving object is hard to disappear, so the evaluation value of the ease of elimination is reduced.
各情報から求めた複数の評価値を使用する場合は、情報毎に優先度付けを行い、式(5)を用いて消えやすさの評価値Rrmを算出する。rnは情報毎の消えやすさの評価値、bnは情報毎に設定された重み、nは取得された情報の数を表す。bnとしては、図7(d)に示すように、情報毎に重みが設定されている。また、これらの重みをユーザが指定して決めてもよい。
なお、本実施形態では、3つの情報を用いる例としたが、これに限られるものではない。例えば各情報のうち一つだけを使用する場合は、図7(a)〜(c)に従って求められる消えやすさの評価値をそのまま消えやすさの評価値Rrmとすればよい。
このようにして求めた消えやすさの評価値Rrmが大きいほど、合成後の画像において移動体が消えやすいと評価される。
When using a plurality of evaluation values obtained from each piece of information, prioritization is performed for each piece of information, and the evaluation value R rm of the easiness of disappearance is calculated using Equation (5). r n is an evaluation value of the eliminability of each information, b n is a weight set for each information, and n is the number of acquired information. As shown in FIG. 7D, a weight is set for each information as b n . Also, these weights may be specified by the user.
In the present embodiment, although three information is used, the present invention is not limited to this. For example, when only one of the pieces of information is used, the evaluation value of the easiness of disappearance obtained according to FIGS. 7A to 7C may be used as the evaluation value R rm of the easiness of deletion as it is.
As the evaluation value R rm of the ease of disappearance thus obtained is larger, it is evaluated that the moving body is more likely to disappear in the combined image.
ステップS405で、動きブレ強度決定部304は、ステップS404において求めた消えやすさの評価値に応じて、動きブレ強度として合成枚数を決定する。
図8は、合成枚数と消えやすさの評価値との関係の例を示す特性図である。消えやすさの評価値が大きい場合、合成枚数を多くすると移動体が消えてしまうため、ブレ強度を弱くするために合成枚数を少なくする。一方、消えやすさの評価値が小さい場合、ブレ強度を強くするために合成枚数を多くする。このように、動きブレを付与したときの移動体の消えやすさに応じて合成枚数を決定することにより、移動体が消えることなく動きブレを付与することが可能となる。なお、合成枚数の上限は、擬似的に長秒にした際の長秒時のシャッタースピードに対する撮影した動画のシャッタースピードから算出すればよい。
In step S405, the motion blur
FIG. 8 is a characteristic diagram showing an example of the relationship between the combined number and the evaluation value of the easiness of disappearance. When the evaluation value of the easiness of disappearance is large, the moving object disappears when the combined number is increased, and therefore the combined number is decreased to weaken the blurring intensity. On the other hand, when the evaluation value of the ease of disappearance is small, the number of combined sheets is increased in order to increase the blur intensity. As described above, by determining the combined number according to the ease of disappearance of the moving body when the motion blur is applied, it becomes possible to apply the motion blur without the moving body disappearing. Note that the upper limit of the combined number may be calculated from the shutter speed of a captured moving image with respect to the shutter speed at long seconds when pseudo seconds are used.
ステップS406で、動きブレ付与部305は、ステップS405において決定した合成枚数に基づいて、ステップS401において取得した撮像画像の合成を行い、動きブレ付与画像を生成する。
In step S406, the motion
擬似長秒動画を生成する期間において、ステップS405において合成枚数を決定したならば、以降、その合成枚数を一律に適用して、フレームを順次ずらしながら画像をオーバーラップさせて合成を行うことで、擬似長秒動画を生成するようにしてもよい。或いは、擬似長秒動画を生成する期間を適宜分割し、分割した期間毎に合成枚数を決定するようにしてもよい。 After the number of combined images is determined in step S405 in a period for generating a pseudo long second moving image, thereafter, the combined number is uniformly applied, and images are overlapped while being sequentially shifted to perform combining, A pseudo long second moving image may be generated. Alternatively, the period for generating the pseudo long second moving image may be divided appropriately, and the number of combined images may be determined for each divided period.
以上述べたように、動きブレを付与したときの移動体の消えやすさに応じて動きブレ強度として合成枚数を決定するようにしたので、動きブレを付与する画像処理において移動体を消えにくくすることができる。 As described above, since the composite number is determined as the motion blur intensity according to the disappearance of the moving body when the motion blur is applied, the moving body is less likely to disappear in the image processing to which the motion blur is applied. be able to.
(第2の実施形態)
第1の実施形態では、撮像画像中において移動体が1体だけであることを想定した例としたが、複数の移動体が写っていることもある。第2の実施形態は、移動体が複数ある場合に、動きブレ強度を決定する基準とする移動体(以下、着目被写体と呼ぶ。)決定する例を説明する。第2の実施形態では、撮像画像中に複数の移動体が写っているときにも、着目被写体を決定し、着目被写体の消えやすさを考慮して、擬似長秒動画を生成することができる。
なお、撮像装置100の構成及び処理動作について、第1の実施形態と共通するものはその説明を省略し、第1の実施形態の相違点を中心に説明する。
Second Embodiment
In the first embodiment, an example in which it is assumed that there is only one moving body in a captured image, but a plurality of moving bodies may be shown. In the second embodiment, when there are a plurality of moving objects, an example of determining a moving object (hereinafter referred to as a subject of interest) as a reference for determining the motion blur intensity will be described. In the second embodiment, even when a plurality of moving objects appear in the captured image, the subject of interest can be determined, and the pseudo long second moving image can be generated in consideration of the ease of disappearance of the subject of interest. .
The description of the configuration and the processing operation of the
被写体情報取得部303は、被写体情報として、第1の実施形態で取得する被写体情報に加えて、着目被写体を決定するための被写体情報も取得する。着目被写体を決定するための被写体情報としては、移動体の大きさ情報、主要な被写体であるか否かの情報である主要被写体情報、全フレーム中で移動体が写っている割合情報を使用する。
動きブレ強度決定部304は、被写体情報取得部303で取得した被写体情報に基づいて、複数の移動体のうちの着目被写体を決定する。その上で、第1の実施形態と同様に、動きブレを付与したときの着目被写体の消えやすさを評価し、その評価結果に応じて合成枚数を決定する。
The subject
The motion blur
図9は、第2の実施形態において撮像装置100が実行する処理を示すフローチャートである。図9のフローチャートは、システム制御部101が動作プログラムをROM102より読み出し、RAM103に展開して実行することにより実現される。
ステップS901〜S902、S905〜S907は、図4のステップS401〜S402、S404〜S406と同様であり、その説明は省略する。
ステップS903で、被写体情報取得部303は、第1の実施形態と同様、ステップS901において取得した撮像画像中の移動体のフレーム間での重なり情報、移動体と背景との差分情報を取得する。それに加えて、被写体情報取得部303は、移動体の大きさ情報、主要被写体情報、全フレーム中で移動体が写っている割合情報を取得する。
FIG. 9 is a flowchart showing processing performed by the
Steps S901 to S902 and S905 to S907 are the same as steps S401 to S402 and S404 to S406 in FIG. 4, and the description thereof will be omitted.
In step S903, the subject
移動体の大きさ情報は、例えば第1の実施形態で述べた移動体領域に含まれる画素数を、移動体の大きさと定義して取得する。
主要被写体情報は、例えば顕著度として取得する。一般的に知られている手法を用いて、視覚的に目立つ領域か否かを判定するために被写体とその周辺の被写体との特徴の差分を顕著度として算出する。差分の算出としては、画像を任意の領域に分割し、着目しているブロックの特徴量と、その周辺のブロックの特徴量とを使用する。差分が大きい場合は相関が低くなるため、視覚的に目立つ被写体として判断する。ここでの特徴量としては、ブロック領域内の輝度値、色相値、エッジ強度を少なくとも一つ以上を含むものである。算出した顕著度が高い領域を、主要被写体として判定する。
全フレーム中で移動体が写っている割合情報は、移動体領域が写っているフレーム数を算出することにより取得する。移動体の大きさ情報で検出した移動体を追尾し、それが写っているフレーム数を移動体領域毎に算出する。そして、算出したフレーム数を用いて、全フレーム中で移動体が写っている割合を算出する。
なお、これらの被写体情報を取得する手法は一例であり、これに限られるものではない。
The mobile body size information is acquired, for example, by defining the number of pixels included in the mobile body region described in the first embodiment as the mobile body size.
The main subject information is acquired, for example, as the saliency. By using a generally known method, the difference between the features of the subject and the subject around the subject is calculated as the degree of saliency in order to determine whether or not the area is visually noticeable. In the calculation of the difference, the image is divided into arbitrary regions, and the feature amount of the block being focused on and the feature amounts of the blocks around it are used. If the difference is large, the correlation is low, so it is judged as a visually noticeable object. Here, the feature amount includes at least one or more of the luminance value, the hue value, and the edge intensity in the block area. An area having a high degree of saliency calculated is determined as a main subject.
The ratio information in which the moving object appears in all the frames is obtained by calculating the number of frames in which the moving object area appears. The moving body detected by the size information of the moving body is tracked, and the number of frames in which it is captured is calculated for each moving body region. Then, using the calculated number of frames, the proportion of the mobile object in all the frames is calculated.
In addition, the method of acquiring these subject information is an example, and is not limited to this.
ステップS904で、動きブレ強度決定部304は、ステップS903において取得した移動体の大きさ情報、主要被写体情報、全フレーム中で移動体が写っている割合情報に基づいて、着目被写体を決定する。
図10は、優先度と各情報(移動体の大きさ、顕著度、写っている割合)との関係を示す特性図である。図10(a)〜(c)に、各情報における優先度を表すグラフを示す。グラフの横軸は各情報、縦軸は優先度を表す。また、図10(d)に、各情報に対して設定された重みを示す。ここで使用する優先度は0〜1の範囲で表される値であり、各情報の算出値に対して優先度が割り振られている。
In step S904, the motion blur
FIG. 10 is a characteristic diagram showing the relationship between the priority and each information (the size of the moving object, the degree of saliency, and the ratio of being shown). FIGS. 10A to 10C show graphs showing the priority in each information. The horizontal axis of the graph represents each information, and the vertical axis represents the priority. Further, FIG. 10D shows the weight set for each piece of information. The priority used here is a value represented in the range of 0 to 1, and the priority is assigned to the calculated value of each information.
各移動体について3つの情報毎の優先度を用いて、式(6)を用いて被写体の評価値W(N)を算出する。anは情報毎の優先度、αnは情報毎の優先度に設定された重み、nは取得された情報数を表す。αnとしては、図10(d)に示すように、情報毎に重みが設定されている。また、これらの重みをユーザが指定して決めてもよい。
このようにして算出した各移動体の評価値W(N)のうち、評価値が最大となる移動体を着目被写体とする。
The evaluation value W (N) of the subject is calculated using equation (6) using the priority of each of the three information items for each moving object. a n is a priority for each information, α n is a weight set to the priority for each information, and n is the number of acquired information. As shown in FIG. 10D, a weight is set for each piece of information as α n . Also, these weights may be specified by the user.
Among the evaluation values W (N) of the moving objects calculated in this manner, the moving object having the largest evaluation value is taken as the target subject.
本実施形態では、着目被写体を決定するための被写体情報として、移動体の大きさ情報、主要被写体情報、全フレーム中で移動体が写っている割合情報を使用する例とした。これにより、ユーザが着目していると推定される移動体を着目被写体とすることができる。ただし、着目被写体を決定するための被写体情報はこれに限られるものではなく、そのうちいずれかの情報だけを使用したり、他の情報を使用したりしてもよい。例えば着目被写体を決定するための被写体情報として、移動体のフレーム間での重なり情報や、移動体と背景との差分情報を使用してもよい。この場合、合成後の画像において最も消えやすい移動体を着目被写体とすることができる。 In this embodiment, size information of the moving object, main object information, and ratio information showing the moving object in all frames are used as object information for determining the object of interest. Thereby, it is possible to set a moving object estimated to be focused by the user as a focused subject. However, subject information for determining a subject of interest is not limited to this, and any one of the information may be used, or other information may be used. For example, overlap information between frames of a moving object or difference information between a moving object and a background may be used as object information for determining a subject of interest. In this case, the moving object that is most likely to disappear in the image after combination can be set as the target subject.
(第3の実施形態)
第1、2の実施形態では、画像の合成を行うことにより動きブレ付与画像を生成し、動きブレ強度として合成枚数を決定する例とした。第3の実施形態では、画像にフィルタ処理を施すことにより動きブレ付与画像を生成し、動きブレ強度としてフィルタ処理のフィルタパラメータであるタップ数及びフィルタ係数を決定する例を説明する。
なお、撮像装置100の構成及び処理動作について、第1の実施形態と共通するものはその説明を省略し、第1の実施形態の相違点を中心に説明する。
Third Embodiment
In the first and second embodiments, a motion blur added image is generated by combining the images, and the combined number is determined as the motion blur intensity. In the third embodiment, an example will be described in which a motion-blurred image is generated by performing filter processing on an image, and the number of taps and the filter coefficient, which are filter parameters of the filter processing, are determined as the motion blur intensity.
The description of the configuration and the processing operation of the
動きブレ強度決定部304は、第1の実施形態と同様に、動きブレを付与したときの移動体の消えやすさを評価する。そして、動きブレ強度決定部304は、その評価結果に応じて動きブレ強度として、動きブレを付与するフィルタ処理のタップ数及びフィルタ係数を決定する。
動きブレ付与部305は、動きブレ強度決定部304で決定したフィルタ処理のタップ数及びフィルタ係数に基づいて、撮像画像取得部301で取得した撮像画像を用いて、動きブレ付与画像を生成する。
As in the first embodiment, the motion blur
The motion
図11は、第3の実施形態において撮像装置100が実行する処理を示すフローチャートである。図11のフローチャートは、システム制御部101が動作プログラムをROM102より読み出し、RAM103に展開して実行することにより実現される。
ステップS1101〜S1104は、図4のステップS401〜S404と同様であり、その説明は省略する。
ステップS1105で、動きブレ強度決定部304は、ステップS1104において求めた消えやすさの評価値に基づいて、動きブレ強度としてフィルタ処理のタップ数及びフィルタ係数を決定する。
図12は、フィルタ処理のタップ数及びフィルタ係数の決定について説明するための図である。図12(a)、(b)に、撮像画像取得部301で取得したNフレーム目の撮像画像1201、N+1フレーム目の撮像画像1202を示す。また、図12(c)に、フィルタ処理のタップ数を変更する処理の概要を、図12(d)にフィルタ処理のフィルタ係数を変更する処理の概要を示す。
まず、基準となるフィルタ処理のタップ数を決めるために、動きベクトルに基づいてタップ数tを決定する。
FIG. 11 is a flowchart showing processing performed by the
Steps S1101 to S1104 are the same as steps S401 to S404 in FIG. 4, and the description thereof is omitted.
In step S1105, the motion blur
FIG. 12 is a diagram for describing determination of the number of taps of filter processing and the filter coefficient. FIGS. 12A and 12B show a captured
First, the number of taps t is determined based on the motion vector in order to determine the number of taps of the filter processing as a reference.
タップ数を変更する場合、図12(c)に示すように、消えやすさの評価値に基づいてタップ数tを変更し、最終的にフィルタ処理で使用するタップ数Tを算出する。消えやすさの評価値が大きい場合、動きブレ強度を弱くするためにタップ数を少なくする。一方、消えやすさの評価値が小さい場合、タップ数の変更は行わない。
フィルタ係数を変更する場合、図12(d)に示すように、動きベクトルに基づいて決定したタップ数t内にあるフィルタ係数を、消えやすさの評価値に基づいて変更して動きブレ強度の調整を行う。消えやすさの評価値が大きい場合、動きブレ強度を弱くするために移動体に近い位置にあるフィルタ係数を大きくする。一方、消えやすさの評価値が小さい場合、フィルタ係数の変更は行わない。
このように、動きブレを付与したときの移動体の消えやすさに応じてタップ数及びフィルタ係数を決定することにより、移動体が消えることなく動きブレを付与することが可能となる。
When changing the number of taps, as shown in FIG. 12C, the number of taps t is changed based on the evaluation value of the ease of disappearance, and the number of taps T to be used in the filtering process is finally calculated. When the evaluation value of the ease of disappearance is large, the number of taps is reduced to weaken the motion blur intensity. On the other hand, when the evaluation value of the ease of disappearance is small, the number of taps is not changed.
When changing the filter coefficient, as shown in FIG. 12 (d), the filter coefficient within the tap number t determined based on the motion vector is changed based on the evaluation value of the easiness of disappearance to Make adjustments. When the evaluation value of the ease of disappearance is large, the filter coefficient near the moving object is increased in order to weaken the motion blur intensity. On the other hand, when the evaluation value of the ease of disappearance is small, the filter coefficient is not changed.
As described above, by determining the number of taps and the filter coefficient in accordance with the ease of disappearance of the moving body when the motion blur is applied, it becomes possible to apply the motion blur without the moving body disappearing.
ステップS1106で、動きブレ付与部305は、ステップS1105において決定したタップ数及びフィルタ係数に基づいて、ステップS1101において取得した撮像画像にフィルタ処理を施し、動きブレ付与画像を生成する。
In step S1106, the motion
(第4の実施形態)
例えば一連の動画において通常動画から擬似長秒動画に切り替わったり、擬似長秒動画中の前後のフレーム間で合成枚数が大きく変わったりするとき、動きブレ強度が急に切り替わり、不自然な印象を与える動画となってしまうことがある。
第4の実施形態では、不自然な印象を与えないように動きブレ強度を切り替えるようにすることを目的とする。
なお、撮像装置100の構成及び処理動作について、第1の実施形態と共通するものはその説明を省略し、第1の実施形態の相違点を中心に説明する。
Fourth Embodiment
For example, when a series of moving images is switched from a normal moving image to a pseudo long second moving image, or when the combined number greatly changes between the previous and subsequent frames in the pseudo long moving image, the motion blur intensity changes suddenly to give an unnatural impression. Sometimes it becomes a movie.
The fourth embodiment aims to switch the motion blur intensity so as not to give an unnatural impression.
The description of the configuration and the processing operation of the
図13は、第4の実施形態において撮像装置100が実行する処理を示すフローチャートである。図13のフローチャートは、システム制御部101が動作プログラムをROM102より読み出し、RAM103に展開して実行することにより実現される。
ステップS1301で、システム制御部101は、合成対象の画像である合成対象画像が残っているか否かを判定する。合成対象画像が残っている場合、ステップS1302の処理に移行し、合成対象画像が残っていない場合、本処理を終了する。
ステップS1302で、システム制御部101は、合成対象画像の合成枚数を取得する。
FIG. 13 is a flowchart showing processing performed by the
In step S1301, the
In step S1302, the
ステップS1303で、システム制御部101は、前後のフレームで合成枚数の変化があるか否かを判定する。例えば一連の動画において通常動画から擬似長秒動画に切り替わる場合、前フレームは合成を行わないフレームで、後フレームは合成を行うフレームとなる。また、擬似長秒動画中の前後のフレーム間で合成枚数が変更される場合がある。合成枚数の変化がある場合、ステップS1304の処理に移行し、合成枚数の変化がない場合、ステップS1305の処理に移行する。この場合に、合成枚数の変化があるか否かとして、例えば合成枚数の変化が所定の枚数以上であるか否かを判定するようにしてもよい。
In step S1303, the
ステップS1304で、システム制御部101は、前後のフレームでの合成枚数の変化に応じて、移行期間を設定し、移行期間画像の合成枚数を決定する。移行期間画像では、前後のフレーム間で動きブレ強度を徐々に変化させるために、ステップS1302において取得した合成枚数とは異なる合成枚数を決定する。
In step S1304, the
図14は、移行期間画像の合成枚数の決定について説明するための図である。図14(a)は、横軸を時間(時系列で取得したフレーム)、縦軸を合成枚数で表す特性線を示す。
特性線1401は、移行期間画像を生成しない場合の特性線である。ここでは、合成枚数1(合成しない)のフレームから合成枚数4のフレームに切り替わる場合を示す。図14(b)に、特性線1401と合成するフレームとの対応関係を示す。図14(b)には、時系列で連続する時間T1〜T5における合成の様子を表す。特性線1401によると、期間T1〜T2で合成枚数が変更される。図14(b)に示すように、時間T1では合成枚数1のため合成は行われない。その後の時間T2では合成枚数が4枚に増える。そして、時間T3以降では合成枚数が4枚のまま保たれる。
FIG. 14 is a diagram for explaining the determination of the number of combined images of transition period images. FIG. 14A shows a characteristic line in which the horizontal axis represents time (frames acquired in time series) and the vertical axis represents the number of combined images.
A
それに対して、特性線1402は、移行期間画像を生成する場合の特性線である。図14(c)に、特性線1402と合成するフレームとの対応関係を示す。図14(c)には、時系列で連続する時間T1〜T5における合成の様子を表す。特性線1402によると、時間T1〜時間T4にかけて、合成枚数1、2、3、4と徐々に増える。そして、時間T5以降では合成枚数が4枚のまま保たれる。
このように前後のフレーム間に移行期間1411を設定し、動きブレ強度に影響を与える合成枚数を徐々に変化させる移行期間画像を生成するので、不自然な印象を与えないように動きブレ強度を切り替えることができる。
On the other hand, the
As described above, the
ここでは合成枚数が増える場合について説明をしたが、図14(d)に示すように、合成枚数が減る場合についても同様である。特性線1403は、移行期間画像を生成しない場合の特性線であり、ここでは、合成枚数4のフレームから合成枚数1(合成しない)のフレームに切り替わる場合を示す。それに対して、特性線1404は、移行期間画像を生成する場合の特性線であり、時間T1〜時間T4にかけて、合成枚数4、3、2、1枚と徐々に減る。
Although the case where the number of combined sheets increases is described here, the same applies to the case where the number of combined sheets decreases as shown in FIG. A
ステップS1305で、システム制御部101の制御下で画像処理部107は、ステップS1302において取得した合成枚数又はステップS1304において決定した合成枚数で、合成対象画像の合成を行う。
In step S1305, under the control of the
なお、移行期間の長さを可変とし、例えば移動体の動きベクトルに応じて長さを変更するようにしてもよい。
図15は、移行期間の長さ、及び移行期間画像の合成枚数の決定について説明するための図である。図15は、横軸を時間(時系列で取得したフレーム)、縦軸を合成枚数で表す特性線を示す。
特性線1501は、移行期間画像を生成しない場合の特性線である。それに対して、特性線1502〜1504は、移行期間画像を生成する場合の特性線であり、特性線1502、1503、1504の順で移行期間1511〜1513を長くしている。
The length of the transition period may be variable, and the length may be changed according to, for example, the motion vector of the moving object.
FIG. 15 is a diagram for describing determination of the length of the transition period and the number of combined images of the transition period. FIG. 15 shows a characteristic line in which the horizontal axis represents time (frames acquired in time series) and the vertical axis represents the number of combined images.
A
前後のフレームで合成枚数が変わるときに、フレーム間の差が視覚的に目立ちにくい場合と目立ちやすい場合とがある。そこで、フレーム間の差が視覚的に目立ちやすい場合、移行期間を長くし、合成枚数の変化がより緩やかになるようにする。
フレーム間の差が視覚的に目立ちやすいか否かは、移動体の動きベクトルに基づいて判定することができる。動きベクトルの算出の仕方は、第1の実施形態で説明したとおりである。このようにして求めた(L×M)のブロックそれぞれの動きベクトルに関して、最大の動きベクトルを選び、その大きさに基づいて特性線1501〜1504を選択する。例えば動きベクトルが大きいほど(移動体の動きが大きいほど)、移行期間を長くした特性線を選択する。動きベクトルが非常に小さい場合(移動体の動きがほとんどない場合)、特性線1501を選択するようにしてもよい。移動体の動きがほとんどなければ、前後のフレームで合成枚数が変わるときにも、フレーム間の差が視覚的に目立ちにくいからである。
When the number of combined images changes between the previous and next frames, the difference between the frames may or may not be visually noticeable. Therefore, when the difference between the frames is visually noticeable, the transition period is lengthened to make the change in the number of combined images more gradual.
Whether or not the difference between the frames is visually noticeable can be determined based on the motion vector of the moving object. The method of calculating the motion vector is as described in the first embodiment. With respect to the motion vectors of the (L × M) blocks thus obtained, the largest motion vector is selected, and the
なお、最大の動きベクトルの大きさに基づいて特性線を選択するようにしたが、これに限られるものではない。例えば前後のフレームでの合成枚数の変化の大きさに基づいて特性線を選択するようにしてもよい。この場合、前後のフレームでの合成枚数の変化が大きいほど、移行期間を長くする特性線を選択する。
また、動きベクトルが算出される領域毎に特性線を選択するようにしてもよい。これにより、移動体の動きに応じて領域毎に異なる動きブレを付与することができる。
Although the characteristic line is selected based on the magnitude of the largest motion vector, the present invention is not limited to this. For example, the characteristic line may be selected based on the magnitude of the change in the number of combined frames in the previous and subsequent frames. In this case, a characteristic line is selected to make the transition period longer as the change in the number of combined images in the previous and subsequent frames is larger.
In addition, the characteristic line may be selected for each area in which the motion vector is calculated. Thereby, different motion blur can be applied to each area according to the movement of the moving body.
(第5の実施形態)
第5の実施形態でも、第4の実施形態と同様、不自然な印象を与えないように動きブレ強度を切り替えるようにすることを目的とする。
なお、撮像装置100の構成及び処理動作について、第1の実施形態と共通するものはその説明を省略し、第1の実施形態の相違点を中心に説明する。
Fifth Embodiment
Also in the fifth embodiment, as in the fourth embodiment, the object is to switch the motion blur intensity so as not to give an unnatural impression.
The description of the configuration and the processing operation of the
図16は、第5の実施形態において撮像装置100が実行する処理を示すフローチャートである。図16のフローチャートは、システム制御部101が動作プログラムをROM102より読み出し、RAM103に展開して実行することにより実現される。
ステップS1601で、システム制御部101は、フィルタ処理の対象とする画像が残っているか否かを判定する。フィルタ処理の対象とする画像が残っている場合、ステップS1602の処理に移行し、フィルタ処理の対象とする画像が残っていない場合、本処理を終了する。
ステップS1602で、システム制御部101は、フィルタ処理の対象とする画像のフィルタ強度を取得する。ここでは、フィルタ強度はフィルタ処理のタップ数で表す。
FIG. 16 is a flowchart showing processing performed by the
In step S1601, the
In step S1602, the
ステップS1603で、システム制御部101は、前後のフレームでフィルタ強度の変化があるか否かを判定する。例えば一連の動画において通常動画から擬似長秒動画に切り替わる場合、前フレームはフィルタ処理を施さないフレームで、後フレームはフィルタ処理を施すフレームとなる。また、擬似長秒動画中の前後のフレーム間でフィルタ強度が変化する場合がある。フィルタ強度の変化がある場合、ステップS1604の処理に移行し、フィルタ強度の変化がない場合、ステップS1605の処理に移行する。この場合に、フィルタ強度の変化があるか否かとして、例えばフィルタ強度の変化が所定の強度以上であるか否かを判定するようにしてもよい。
In step S1603, the
ステップS1604で、システム制御部101は、前後のフレームでのフィルタ強度の変化に応じて、移行期間を設定し、移行期間画像のフィルタ強度を決定する。移行期間画像では、前後のフレーム間で動きブレ強度を徐々に変化させるために、ステップS1602において取得したフィルタ強度とは異なるフィルタ強度を決定する。
In step S1604, the
図17は、移行期間画像のフィルタ強度の決定について説明するための図である。図17(a)に、横軸を時間(時系列で取得したフレーム)、縦軸をフィルタ強度(タップ数)で表す特性線を示す。
特性線1701は、移行期間画像を生成しない場合の特性線である。ここでは、タップ数1(隣接画素の影響を受けない)のフレームからタップ数7のフレームに切り替わる場合を示す。特性線1701によると、期間T1〜T2でタップ数が変更される。
FIG. 17 is a diagram for explaining the determination of the filter strength of the transition period image. FIG. 17A shows a characteristic line in which the horizontal axis is time (frame acquired in time series) and the vertical axis is filter strength (number of taps).
A
それに対して、特性線1702は、移行期間画像を生成する場合の特性線である。図17(b)に、特性線1702とタップ数との対応関係を示す。図17(b)には、時系列で連続する時間T1〜T4におけるフィルタ処理の様子を表す。特性線1702によると、時間T1〜時間T4にかけて、タップ数が1、3、5、7と徐々に増える。そして、時間T4以降ではタップ数が7のまま保たれる。
このように前後のフレーム間の移行期間1711を設定し、動きブレ強度に影響を与えるフィルタ強度を徐々に変化させる移行期間画像を生成するので、不自然な印象を与えないように動きブレ強度を切り替えることができる。
On the other hand, the
In this way, the
ステップS1605で、システム制御部101の制御下で画像処理部107は、ステップS1602において取得したフィルタ強度又はステップS1604において決定したフィルタ強度で、フィルタ処理の対象とする画像にフィルタ処理を施す。
In step S1605, under the control of the
なお、フィルタ強度の制御として、フィルタ処理のタップ数を変更すること説明したが、フィルタ係数を変更することでも同様の効果を得ることができる。
図18は、移行期間画像のフィルタ強度の決定について説明するための図である。図18(a)に、あるシーンを示し、図18(b)に、当該シーンでのフィルタ係数の変化を示す。図18(b)では、時系列で連続する時間T1〜T5におけるフィルタ処理の様子を表す。フィルタ係数によりフィルタ強度を制御する場合、移動体の動いている方向に重みを持ったブラーをつけることで実現する。そこで、まず移動体の動きベクトルを求める。図18(a)の例では、移動体1800の左方向の動きベクトルが検出される。このとき、時間T1では、着目画素の重みが大きいフィルタ係数を選択する。その後の時間T2〜T5では、着目画素の右方向の画素の重みが大きくなるようにフィルタ係数を徐々に変更する。
In addition, although it demonstrated that the number of taps of filter processing was changed as control of filter intensity | strength, the same effect can be acquired by changing a filter coefficient.
FIG. 18 is a diagram for explaining the determination of the filter strength of the transition period image. FIG. 18 (a) shows a certain scene, and FIG. 18 (b) shows changes in filter coefficients in the scene. FIG. 18B shows the state of the filter processing at time T1 to T5 continuous in time series. When the filter strength is controlled by the filter coefficient, it is realized by blurring with a weight in the moving direction of the moving body. Therefore, first, the motion vector of the moving object is obtained. In the example of FIG. 18A, the motion vector of the moving
(第6の実施形態)
第6の実施形態では、撮影中にユーザが光学系104によるズームイン操作を行って撮影された動画に対して動きブレを付与する形態について説明する。本実施形態ではズームイン操作を例に説明するが、ズームアウト操作を行って撮影された動画に対しても同様に適用可能である。
なお、撮像装置100の構成及び処理動作について、第1の実施形態と共通するものはその説明を省略し、第1の実施形態の相違点を中心に説明する。
Sixth Embodiment
In the sixth embodiment, an embodiment will be described in which a motion blur is added to a moving image captured by the user performing a zoom-in operation with the
The description of the configuration and the processing operation of the
図19は、本実施形態に係る撮像装置100の画像処理部107の機能構成を示す図である。
画像取得部1901は、例えばRAM103から撮像画像を取得する。
撮影情報取得部1902は、画像取得部1901で取得した撮像画像について、焦点距離やズーム倍率、撮像装置100の動き等の各種撮影情報を取得する。
判定部1903は、画像取得部1901で取得した撮像画像及び撮影情報取得部1902で取得した各種撮影情報に基づいて、動きブレをどのように付与するかを判定する。
動きブレ付与部1904は、判定部1903での判定結果に基づいて、画像取得部1901で取得した撮像画像を用いて、動きブレ付与画像を生成する。
なお、画像処理部107が各部1901〜1904として機能する構成として説明したが、例えばシステム制御部101が判定部1903として機能する構成としてもよい。
FIG. 19 is a diagram showing a functional configuration of the
The
The imaging
The
The motion
Although the
図20は、第6の実施形態において撮像装置100が実行する処理を示すフローチャートである。
ステップS2001で、判定部1903は、動画において所定の時間単位にズーム操作が行われたか否かを判定する。具体的には、動画を構成するフレーム単位に焦点距離の値を参照して、ズーム操作が行われたか否かを判定する。焦点距離の変化が検出されればズーム操作ありと判定して、ステップS2002の処理に移行し、焦点距離の変化が検出されなければズーム操作なしと判定して、ステップS2009の処理に移行する。
FIG. 20 is a flowchart showing processing performed by the
In step S2001, the
ステップS2002で、判定部1903は、ステップS2001において判定したズーム操作期間において、ズーム操作が途切れた区間(以下、ズーム途切れ期間と呼ぶ。)が存在するか否かを判定する。具体的には、焦点距離が変化している区間と区間の間に焦点距離が変化していない区間が何フレームあるかを検出する。
ステップS2003で、判定部1903は、ステップS2002において検出したズーム途切区間が所定のフレーム数T1[frame]以上であるか否かを判定する。ズーム途切れ区間がT1未満である場合、ステップS2004の処理に移行し、ズーム途切れ区間がT1以上である場合、ステップS2005の処理に移行する。
In step S2002, the
In step S2003, the
ステップS2004で、判定部1903の制御下で動きブレ付与部1904は、ステップS2002において検出したズーム途切れ区間のフレームを除外した上で、合成に用いるフレームを選択し、動きブレ付与画像を生成する。これは、焦点距離が変化していない区間に属するフレームの画像を合成に用いると、動きブレ付与画像内で動きブレの強さが一様とならないためである。
図21は、ステップS2004におけるフレーム間引き合成を説明するための図である。図21の横軸は時間[frame]、縦軸は焦点距離[mm]を表し、フレーム毎の焦点距離の変化を表す。フレーム2101に対応する動きブレ付与画像を生成するために、フレーム2101の画像とその前後のフレームの画像との合成を行うが、その際に、ズーム途切れ区間のフレーム2102を除外し、ズーム途切れ区間外のフレーム2103を選択する。フレーム2102は焦点距離が変化しない区間に属することから、これを合成に用いると、動きブレ付与画像内で動きブレの強さが一様とならないためである。
In step S2004, under the control of the
FIG. 21 is a diagram for explaining frame thinning combination in step S2004. The horizontal axis in FIG. 21 represents time [frame] and the vertical axis represents focal length [mm], and represents changes in focal length for each frame. In order to generate the motion blur added image corresponding to the
ステップS2005で、判定部1903は、ステップS2002において検出したズーム途切れ区間がT1以上、所定のフレーム数T2[frame]未満であるか否かを判定する。ズーム途切れ区間がT1以上、T2未満である場合、ステップS2006の処理に移行し、ズーム途切れ区間がT1以上、T2未満でない場合、ステップS2009の処理に移行する。
ステップS2006で、判定部1903は、ステップS2002において検出したズーム途切れ区間において被写体の動きがあるか否かを判定する。具体的には、例えば第1の実施形態で述べたようにブロック単位に移動体領域の検出を行い、移動体領域が画像内に占める割合が所定の割合以上(例えば30%)であれば動きがあると判定する。なお、被写体の動きの判定手法としてはこれに限られるものではなく、他の手法を用いてもよい。被写体の動きがあると判定した場合、ステップS2007の処理に移行し、被写体の動きがないと判定した場合、ステップS2004の処理に移行する。
In step S2005, the
In step S2006, the
ステップS2007で、判定部1903の制御下で動きブレ付与部1904は、ステップS2002において検出したズーム途切れ区間のフレームの画像を拡大及びクロップした上で合成を行い、動きブレ付与画像を生成する。これは、被写体の動きが大きい場合に、ステップS2004のようにフレームを間引いて合成を行うと、動きのある被写体がまばらな残像となってしまい、自然な動きブレの効果が得られないためである。これを回避するために、ズーム途切れ区間のフレームの画像を拡大及びクロップすることにより、疑似的に焦点距離を変化させた画像を生成して、合成に用いることが可能となる。
In step S2007, under the control of the
図22は、ステップS2007におけるフレーム拡大合成を説明するための図である。図22の横軸は時間、縦軸は焦点距離を表し、フレーム毎の焦点距離の変化を表す。図22(a)に示すように、ズーム途切れ区間及びその後のズーム終了までの区間において、実線で示す焦点距離を、点線で示す焦点距離のように補正することにより、ズームの途切れのないフレーム群とすることができる。
また、焦点距離の補正パターンとしては、図22(b)の点線に示すものでもよい。すなわち、焦点距離の変化が一定になるように、ズーム途切れ区間だけでなく、ズーム開始時よりも前の時刻のフレームの画像を拡大及びクロップした上で合成を行う。これにより、元の動画よりもズーム速度がゆっくりとした動画を生成することができる。
なお、補正パターンはユーザが任意に選択できるようにしてもよいし、シーンに応じて適応的に自動選択されるようにしてもよい。例えばズーム開始時とズーム終了時の焦点距離の差が所定の値よりも大きい(例えば3倍)場合、図22(a)に示すようにズームの速度は変えない、又は速くするために点線の傾きがより急峻となるようにする。一方、ズーム開始時とズーム終了時の焦点距離の差が所定の値よりも小さい場合、図22(b)に示すようにズームの速度を遅くする。また、焦点距離の差だけでなく、被写体の距離に応じて補正パターンを選択するようにしてもよく、例えば撮影時のオートフォーカス処理において取得した測距情報を参照し、被写体が遠くに存在する場合、ズームの速度を速くするといった制御も可能である。
また、図22(c)に示すように、拡大ではなく縮小する方向に補正することも可能である。この場合、縮小しないフレームの画像と画角を合わせるために、表示・記録される画角よりも広い画角を予め持っておく必要がある。
FIG. 22 is a diagram for explaining frame enlargement and combining in step S2007. The horizontal axis in FIG. 22 represents time, and the vertical axis represents focal length, which represents the change in focal length for each frame. As shown in FIG. 22A, in the zoom interruption section and the subsequent sections until the zoom end, by correcting the focal length indicated by the solid line to a focal length indicated by the dotted line, a frame group without zoom interruption It can be done.
Moreover, as a correction pattern of a focal distance, what is shown to the dotted line of FIG.22 (b) may be used. That is, in order to make the change of the focal length constant, not only the zoom interruption section but also the image of the frame at the time before the start of the zoom is enlarged and cropped, and then the composition is performed. This makes it possible to generate a moving image with a slower zoom speed than the original moving image.
The correction pattern may be arbitrarily selected by the user, or may be automatically selected adaptively according to the scene. For example, if the difference between the focal length at the start of zooming and the focal length at the end of zooming is larger than a predetermined value (for example, 3 times), the zoom speed does not change or is dotted to make it faster as shown in FIG. Make the slope steeper. On the other hand, if the difference between the focal length at the start of zooming and the focal length at the end of zooming is smaller than a predetermined value, the zoom speed is reduced as shown in FIG. Also, the correction pattern may be selected according to the distance of the subject as well as the difference in focal length. For example, with reference to distance measurement information acquired in autofocus processing at the time of shooting, the subject is far away In this case, control such as increasing the zoom speed is also possible.
Further, as shown in FIG. 22C, it is also possible to correct in the direction of reduction instead of enlargement. In this case, in order to match the angle of view with the image of the non-reduced frame, it is necessary to hold in advance a wider angle of view than the angle of view to be displayed and recorded.
ステップS2008で、判定部1903の制御下で動きブレ付与部1904は、ズーム操作期間中に付与する動きブレの強さが一定となるように合成に用いるフレームを選択し、動きブレ付与画像を生成する。具体的には、ズームの速度が一定でなくても動きブレの見え方が不均一になることがないように、焦点距離の変化量に応じて合成に用いるフレームを選択する。
図23は、ステップS2008における一定化合成を説明するための図である。図23の横軸は時間、縦軸は焦点距離であり、フレーム毎の焦点距離の変化を表す。ズーム操作期間においてズーム区間1とズーム区間2とでズームの速度(焦点距離の変化の傾き)が異なっている。この場合、ズーム区間1においては、フレーム2301に対応する動きブレ付与画像を生成するために、フレーム2301の画像とその前後の例えば2枚ずつのフレーム2302の画像の合成を行う。また、区間2においては、フレーム2303に対応する動きブレ付与画像を生成するために、フレーム2303の画像とその前後でとびとびに隣接する例えば2枚ずつのフレーム2304の画像との合成を行う。これにより、合成する各フレームの画像間の焦点距離の差を合わせることができ、合成により付与される動きブレの見え方が均一となる。
In step S2008, under the control of the
FIG. 23 is a diagram for explaining the fixed combination in step S2008. The horizontal axis in FIG. 23 is time, and the vertical axis is focal length, which represents a change in focal length for each frame. In the zoom operation period, the zoom speed (slope of change in focal length) is different between the
ステップS2009で、判定部1903の制御下で動きブレ付与部1904は、フレームを間引いたり、拡大したりせず、時間軸上で隣接する所定の数のフレームの画像の合成を行うことにより、動きブレ付与画像を生成する。
In step S2009, under the control of the
本実施形態では、撮影時のズーム操作が途切れたり、不均一であったりする場合でも、焦点距離の変化に応じて画像の合成を制御することにより、ユーザの所望とする自然な動きブレ効果を有する動画を生成することができる。 In this embodiment, even when the zoom operation at the time of shooting is interrupted or uneven, the natural motion blur effect desired by the user can be obtained by controlling the composition of the images according to the change of the focal length. It is possible to generate moving images.
なお、動きブレ付与画像を生成する際、選択したフレームの画像を一律に合成する構成を述べたが、これに限られるものではなく、合成するフレームの数を画像内の領域に応じて可変にしてもよい。例えばズームイン操作をするとき画像の中央付近には注目すべき主要な被写体が存在することが多く、合成によって動きブレが強すぎて視認しにくくなることがある。そこで、図24に示すように、画像中央は合成枚数を少なく、像高が高くなるほど合成枚数を多くすることにより、ズーム操作によるブラー効果を出しながら、主要な被写体に対しては動きブレが強すぎないように制御することが可能となる。 Although the configuration for uniformly combining the images of the selected frame when generating the motion blur added image is described, the present invention is not limited to this, and the number of frames to be combined is made variable according to the area in the image. May be For example, when performing a zoom-in operation, a main subject to be noted is often present near the center of the image, and the combination may make the motion blur too strong and difficult to view. Therefore, as shown in FIG. 24, the number of composites in the center of the image is small, and the number of composites is large as the image height is high, so that the blur effect by the zoom operation is produced and the motion blur is strong for the main subject. It becomes possible to control so as not to be excessive.
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
例えば実施形態では、画像処理装置の一例として撮像装置について説明するが、本発明の適用先は撮像装置に限定されず、例えば撮像装置による撮像画像が入力されるパーソナルコンピュータ(PC)等であってもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
As mentioned above, although the present invention was explained with an embodiment, the above-mentioned embodiment shows only an example of the embodiment in the case of carrying out the present invention, and the technical scope of the present invention is interpreted restrictively by these. It is a must-have. That is, the present invention can be implemented in various forms without departing from the technical concept or the main features thereof.
For example, in the embodiment, an imaging apparatus will be described as an example of the image processing apparatus, but the application destination of the present invention is not limited to the imaging apparatus, for example, a personal computer (PC) or the like to which a captured image by the imaging apparatus is input It is also good.
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
100:撮像装置、101:システム制御部、102:ROM、103:RAM、104:光学系、105:撮像部、106:A/D変換部、107:画像処理部、108:表示部、109:記録部、301:撮像画像取得部、302:移動体情報取得部、303:被写体情報取得部、304:動きブレ強度決定部、305:動きブレ付与部、306:画像出力部 100: imaging apparatus, 101: system control unit, 102: ROM, 103: RAM, 104: optical system, 105: imaging unit, 106: A / D conversion unit, 107: image processing unit, 108: display unit, 109: Recording unit 301: captured image acquisition unit 302: moving body information acquisition unit 303: subject information acquisition unit 304: motion blur intensity determination unit 305: motion blur imparting unit 306: image output unit
Claims (19)
前記取得手段で取得した情報に基づいて評価される、動きブレを付与したときの前記移動体の消えやすさに応じて動きブレ強度を決定する動きブレ強度決定手段と、
前記動きブレ強度決定手段で決定した動きブレ強度に基づいて、前記画像を用いて、動きブレを付与した動きブレ付与画像を生成する動きブレ付与手段とを備えたことを特徴とする画像処理装置。 Acquisition means for acquiring information on moving objects in a plurality of images continuous in time series;
Motion blur intensity determination means for determining the motion blur intensity according to the ease of disappearance of the moving object when motion blur is applied, which is evaluated based on the information acquired by the acquisition means;
An image processing apparatus comprising: motion blur applying means for generating a motion blur applied image to which a motion blur is applied using the image based on the motion blur intensity determined by the motion blur intensity determination means .
前記動きブレ強度決定手段は、前記動きベクトルに基づいて、前記移動体の消えやすさを評価することを特徴とする請求項2に記載の画像処理装置。 The moving body information acquisition means calculates a motion vector of the moving body as the movement information,
The image processing apparatus according to claim 2, wherein the motion blur strength determination unit evaluates the disappearance of the moving object based on the motion vector.
前記取得手段として、前記撮像画像中の前記移動体の被写体としての被写体情報を取得する被写体情報取得手段を備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The image is a captured image,
The image processing apparatus according to any one of claims 1 to 4, further comprising subject information acquisition means for acquiring subject information as the subject of the moving object in the captured image as the acquisition means.
前記動きブレ強度決定手段は、前記重なり情報、及び前記差分情報のうち少なくともいずれか一つに基づいて、前記移動体の消えやすさを評価することを特徴とする請求項5に記載の画像処理装置。 The subject information acquisition means acquires, as the subject information, at least one of overlap information between images of the moving object and difference information between the moving object and the background, as the object information.
The image processing according to claim 5, wherein the motion blur strength determination unit evaluates the ease of disappearance of the moving object based on at least one of the overlap information and the difference information. apparatus.
前記動きブレ強度決定手段は、動きブレ強度として、合成枚数を決定することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 The motion blur applying means applies motion blur by combining the images;
The image processing apparatus according to any one of claims 1 to 11, wherein the motion blur strength determination unit determines a combined number as the motion blur strength.
前記動きブレ強度決定手段は、動きブレ強度として、前記フィルタ処理のフィルタパラメータを決定することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 The motion blur applying means applies motion blur by applying a filtering process to the image,
The image processing apparatus according to any one of claims 1 to 11, wherein the motion blur intensity determination unit determines a filter parameter of the filter process as the motion blur intensity.
前記取得ステップで取得した情報に基づいて評価される、動きブレを付与したときの前記移動体の消えやすさに応じて動きブレ強度を決定する動きブレ強度決定ステップと、
前記動きブレ強度決定ステップで決定した動きブレ強度に基づいて、前記画像を用いて、動きブレを付与した動きブレ付与画像を生成する動きブレ付与ステップとを有することを特徴とする画像処理装置の制御方法。 An acquisition step of acquiring information on a moving object in a plurality of successive images in time series;
A motion blur intensity determination step of determining a motion blur intensity according to the ease of disappearance of the moving object when the motion blur is applied, which is evaluated based on the information acquired in the acquisition step;
An image processing apparatus characterized by further comprising: a motion blur applying step of generating a motion blur imparted image to which a motion blur is applied using the image based on the motion blur intensity determined in the motion blur intensity determination step; Control method.
前記取得手段で取得した情報に基づいて評価される、動きブレを付与したときの前記移動体の消えやすさに応じて動きブレ強度を決定する動きブレ強度決定手段と、
前記動きブレ強度決定手段で決定した動きブレ強度に基づいて、前記画像を用いて、動きブレを付与した動きブレ付与画像を生成する動きブレ付与手段としてコンピュータを機能させるためのプログラム。 Acquisition means for acquiring information on moving objects in a plurality of images continuous in time series;
Motion blur intensity determination means for determining the motion blur intensity according to the ease of disappearance of the moving object when motion blur is applied, which is evaluated based on the information acquired by the acquisition means;
A program for causing a computer to function as motion blur imparting means for generating a motion blur imparted image to which motion blur is imparted using the image based on the motion blur intensity determined by the motion blur intensity determination means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017240672A JP2019110386A (en) | 2017-12-15 | 2017-12-15 | Image processing system, its control method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017240672A JP2019110386A (en) | 2017-12-15 | 2017-12-15 | Image processing system, its control method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019110386A true JP2019110386A (en) | 2019-07-04 |
JP2019110386A5 JP2019110386A5 (en) | 2021-01-21 |
Family
ID=67180225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017240672A Pending JP2019110386A (en) | 2017-12-15 | 2017-12-15 | Image processing system, its control method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019110386A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021082903A (en) * | 2019-11-15 | 2021-05-27 | キヤノン株式会社 | Image processing device, imaging device, image processing method, program, and recording medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014023067A (en) * | 2012-07-20 | 2014-02-03 | Ricoh Imaging Co Ltd | Image composition apparatus |
JP2015207809A (en) * | 2014-04-17 | 2015-11-19 | 株式会社ニコン | Imaging apparatus |
-
2017
- 2017-12-15 JP JP2017240672A patent/JP2019110386A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014023067A (en) * | 2012-07-20 | 2014-02-03 | Ricoh Imaging Co Ltd | Image composition apparatus |
JP2015207809A (en) * | 2014-04-17 | 2015-11-19 | 株式会社ニコン | Imaging apparatus |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021082903A (en) * | 2019-11-15 | 2021-05-27 | キヤノン株式会社 | Image processing device, imaging device, image processing method, program, and recording medium |
JP7059239B2 (en) | 2019-11-15 | 2022-04-25 | キヤノン株式会社 | Image processing equipment, imaging equipment, image processing methods, programs and recording media |
US11533440B2 (en) | 2019-11-15 | 2022-12-20 | Canon Kabushiki Kaisha | Apparatus, method, and storage medium each relating to image composition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4961800B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP5968107B2 (en) | Image processing method, image processing apparatus, and program | |
US8717455B2 (en) | Image processing apparatus and image processing method | |
KR101204727B1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2008294785A (en) | Image processor, imaging apparatus, image file, and image processing method | |
JP5531865B2 (en) | Image processing apparatus, image processing method, and program | |
KR20140118031A (en) | Image processing apparatus and method thereof | |
JP6261205B2 (en) | Image processing device | |
JP6270413B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP6604908B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP6541501B2 (en) | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD | |
JP2012109656A (en) | Image processing apparatus and method, and image display unit and method | |
JP7057079B2 (en) | Image processing device, image pickup device, image processing method, and program | |
JP2019110386A (en) | Image processing system, its control method and program | |
JP5482589B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5566196B2 (en) | Image processing apparatus and control method thereof | |
JP2019016893A (en) | Image processing apparatus, control method therefor, and program | |
JP2014229988A (en) | Image processing apparatus, image processing method, and program | |
JP7224822B2 (en) | Image processing device and image processing method | |
JP7327917B2 (en) | Image processing device and image processing method | |
Fearing | Importance ordering for real-time depth of field | |
JP7143191B2 (en) | Image processing device | |
JP6494388B2 (en) | Image processing apparatus, image processing method, and program | |
JP2014138378A (en) | Image pickup device, control method thereof, and control program thereof | |
JP7059239B2 (en) | Image processing equipment, imaging equipment, image processing methods, programs and recording media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211124 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220419 |