JP2012169701A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2012169701A
JP2012169701A JP2011026472A JP2011026472A JP2012169701A JP 2012169701 A JP2012169701 A JP 2012169701A JP 2011026472 A JP2011026472 A JP 2011026472A JP 2011026472 A JP2011026472 A JP 2011026472A JP 2012169701 A JP2012169701 A JP 2012169701A
Authority
JP
Japan
Prior art keywords
frame
motion
input
motion vector
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011026472A
Other languages
Japanese (ja)
Inventor
Eiei Han
盈盈 范
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011026472A priority Critical patent/JP2012169701A/en
Publication of JP2012169701A publication Critical patent/JP2012169701A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress a multiple image and enable frame rate conversion processing to a dynamic image including an object moving at a non-uniform speed.SOLUTION: A shutter speed and information of an imaging frame rate and a display frame rate are acquired from photographic information of a dynamic image signal to acquire the required number of frame images for frame conversion. A motion vector of a subject in the plurality of frame images acquired is calculated, and a motion distance and a motion speed of the subject are calculated from the calculated motion vector for each frame image. Next, a first filter processing based on the shutter speed and the motion speed and a second filter processing based on the motion distance are applied to the plurality of frame images.

Description

本発明は、特に、フレームレートを変換するために用いて好適な画像処理装置、画像処理方法及びプログラムに関する。   In particular, the present invention relates to an image processing apparatus, an image processing method, and a program suitable for use in converting a frame rate.

従来、高フレームレートの動画像を低フレームレートの動画像に変換する際に、高フレームレートの動画像の中から複数枚の画像を用いて平均合成し、1枚の低フレームレートの動画像用の画像に変換する技術がある。以下、このような処理をフレームレート変換処理と呼ぶ。ところが、動画像のフレームレートに対して短いシャッター速度で撮影された画像では被写体は鮮鋭に写るが、フレームレート変換処理で得られた動画像を観察すると多重像に認知してしまうという劣化現象が発生する。そこで、このような多重像を抑えるためには、一般にボケ付加を行う。   Conventionally, when converting a high frame rate moving image to a low frame rate moving image, a single low frame rate moving image is averaged by using a plurality of images from the high frame rate moving image. There is a technology to convert to an image for use. Hereinafter, such processing is referred to as frame rate conversion processing. However, in an image shot at a shutter speed that is shorter than the frame rate of the moving image, the subject appears sharp, but when the moving image obtained by the frame rate conversion process is observed, it is perceived as a multiple image. appear. Therefore, in order to suppress such multiple images, blurring is generally performed.

撮影された動画像にボケ付加を行う従来技術としては、例えば特許文献1に記載されている。この特許文献1に記載の技術では、入力された動画像の処理対象フレームに対して領域ごとの動きベクトルを算出し、シャッタースピードなど撮像時の撮像情報に基づいて動きボケ量の評価値を算出する。そしてこの算出した評価値に基づいて、動きボケの付加と削減処理とを行う。これにより、各フレームで再生できる情報が不連続に再生され、動きの滑らかさが失われる現象(以下、ジャーキネス)と、被写体の動きが大きくぼやけてしまう現象(以下、ブラー)との両方を抑えることができるようにしている。   For example, Patent Document 1 discloses a conventional technique for adding blur to a captured moving image. In the technique described in Patent Document 1, a motion vector for each region is calculated for an input moving image processing target frame, and an evaluation value of a motion blur amount is calculated based on imaging information at the time of imaging such as a shutter speed. To do. Based on this calculated evaluation value, motion blur addition and reduction processing are performed. As a result, information that can be played back in each frame is played back discontinuously, and both the phenomenon that the smoothness of movement is lost (hereinafter referred to as jerkiness) and the phenomenon that the movement of the subject is greatly blurred (hereinafter referred to as blur) are suppressed. To be able to.

また、動画像における動きベクトルから代表的動きベクトルを求め、動きボケを付加することにより、より自然にジャーキネスによる劣化を抑えることができる技術も開示されている(例えば、特許文献2参照)。   In addition, a technique is disclosed in which deterioration due to jerkiness can be suppressed more naturally by obtaining a representative motion vector from a motion vector in a moving image and adding motion blur (see, for example, Patent Document 2).

特開2010−4329号公報JP 2010-4329 A 特開2010−15483号公報JP 2010-15383 A

しかしながら、特許文献1及び特許文献2に記載の技術は共に、フレーム間の動きベクトルを考慮して動きボケを付加しているが、複数のフレーム間に亘った動きの変化を考慮していない。そのため、複数枚のフレーム画像を平均合成して1枚のフレームを生成するフレームレート変換処理に適用すると以下のような課題が生じる。   However, both of the techniques described in Patent Document 1 and Patent Document 2 add motion blur considering a motion vector between frames, but do not consider a change in motion between a plurality of frames. For this reason, the following problems arise when applied to frame rate conversion processing in which a plurality of frame images are averaged to generate one frame.

例えば、動き物体が均等速度で移動するような動画像の場合は、複数のフレームで均等間隔に並ぶ同じボケ画像を合成することになるため、動きベクトルのみに応じてボケ量を適切に制御することができる。しかしながら、動き物体が非均等速度で移動するような動画像の場合は、前フレームからの動きベクトルの方向が同一であっても、ある基準フレームから移動した距離が様々に相違する。このため、急に動きベクトルが変化するような場合には孤立したボケ画像が合成されることとなり、フレームレート変換処理を行うと多重像に見えてしまう問題がある。   For example, in the case of a moving image in which a moving object moves at a uniform speed, the same blurred image arranged at equal intervals in a plurality of frames is synthesized, so the amount of blur is appropriately controlled according to only the motion vector. be able to. However, in the case of a moving image in which a moving object moves at a non-uniform speed, even if the direction of the motion vector from the previous frame is the same, the distance moved from a certain reference frame varies. For this reason, when a motion vector suddenly changes, isolated blurred images are synthesized, and there is a problem that a multiple image is seen when frame rate conversion processing is performed.

本発明は前述の問題点に鑑み、非均等速度で移動する物体を含む動画像に対して、多重像を抑制してフレームレート変換処理ができるようにすることを目的としている。   In view of the above-described problems, an object of the present invention is to enable frame rate conversion processing by suppressing multiple images for a moving image including an object moving at a non-uniform speed.

本発明の画像処理装置は、動画像信号から複数のフレーム画像を入力する入力手段と、前記動画像信号の撮影情報からシャッタースピード及びフレームレートの情報を取得する取得手段と、前記入力手段により入力された複数のフレーム画像での被写体の動きベクトルを算出し、前記算出した動きベクトルからフレーム画像ごとに前記被写体の動き距離を算出する算出手段と、前記入力手段により入力された複数のフレーム画像に対して、前記取得手段によって取得されたシャッタースピード及びフレームレートに基づく第1のフィルタ処理と、前記算出手段により算出された動き距離に基づく第2のフィルタ処理とを適用するフィルタ手段とを有することを特徴とする。   The image processing apparatus of the present invention includes an input unit that inputs a plurality of frame images from a moving image signal, an acquisition unit that acquires shutter speed and frame rate information from the shooting information of the moving image signal, and an input unit that inputs the information. Calculating a motion vector of the subject in the plurality of frame images, and calculating a motion distance of the subject for each frame image from the calculated motion vector; and a plurality of frame images input by the input unit. On the other hand, it has a filter means for applying a first filter process based on the shutter speed and frame rate acquired by the acquisition means and a second filter process based on the motion distance calculated by the calculation means. It is characterized by.

本発明によれば、入力された動画像に対してフレームレート変換した場合に多重像を抑制した滑らかな動画像を生成することができる。   According to the present invention, it is possible to generate a smooth moving image in which multiple images are suppressed when frame rate conversion is performed on an input moving image.

実施形態に係るPCの概略構成例を示すブロック図である。It is a block diagram which shows the schematic structural example of PC which concerns on embodiment. 実施形態に係る画像処理部の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the image process part which concerns on embodiment. 高速シャッタースピードでのフレームレート変更の一例を示す図である。It is a figure which shows an example of the frame rate change at a high shutter speed. 低速シャッタースピードでのフレームレート変更の一例を示す図である。It is a figure which shows an example of the frame rate change at a low shutter speed. 従来の方法により動きボケを付加したフレームレート変更の一例を示す図である。It is a figure which shows an example of the frame rate change which added the motion blur by the conventional method. 実施形態により動きボケを付加したフレームレート変更の一例を示す図である。It is a figure which shows an example of the frame rate change which added the motion blur by embodiment. フィルタ補正係数αを算出する概要を説明する図である。It is a figure explaining the outline | summary which calculates the filter correction coefficient (alpha). 動きベクトルを検出する手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure which detects a motion vector. 有効なブロックを判定する手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure which determines a valid block. 有効な動きベクトルを判定する手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure which determines an effective motion vector. フレーム画像ごとの動き距離及びその平均値を説明する図である。It is a figure explaining the movement distance for every frame image, and its average value. フィルタ補正係数βを算出する概要を説明する図である。It is a figure explaining the outline | summary which calculates filter correction coefficient (beta). フィルタを適用する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which applies a filter. ボケ付加フィルタの一例を示す図である。It is a figure which shows an example of a blur addition filter.

以下、本発明の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係るパーソナルコンピュータ(PC)の概略構成例を示すブロック図である。
図1において、高速カメラなどにより撮影された高フレームレートの動画像信号が記憶されたUSBメモリ101がPC102に挿入されると、PC102はこれらの動画像信号を取り込むことができる。具体的には、PC102の読み込み部104により動画像信号の全てのフレーム画像が図示しないメモリに読み込まれる。さらに、動画像を撮影する際のシャッタースピードの情報を含む撮像パラメータとフレームレートの情報を含むが表示パラメータとが撮影情報として読み込まれる。画像処理部105は、これらの読み込まれた動画像信号とパラメータとを用いてフレームレート変換処理を行う。そして、処理された動画像信号は出力部106によりモニタ信号に変換され、変換されたモニタ信号がモニタ103に動画像として表示される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a schematic configuration example of a personal computer (PC) according to the present embodiment.
In FIG. 1, when a USB memory 101 storing a high frame rate moving image signal captured by a high-speed camera or the like is inserted into the PC 102, the PC 102 can take in these moving image signals. Specifically, all the frame images of the moving image signal are read into a memory (not shown) by the reading unit 104 of the PC 102. Furthermore, an imaging parameter including information on a shutter speed when capturing a moving image and a display parameter including information on a frame rate are read as imaging information. The image processing unit 105 performs a frame rate conversion process using these read moving image signals and parameters. The processed moving image signal is converted into a monitor signal by the output unit 106, and the converted monitor signal is displayed on the monitor 103 as a moving image.

図2は、本実施形態に係る画像処理部105の詳細な構成例を示すブロック図である。
図2において、読み込み部104により入力された動画像信号は、第1の入力端子201から画像処理部105に入力される。一方、撮像パラメータは第2の入力端子202から画像処理部105に入力され、表示パラメータは第3の入力端子203から画像処理部105に入力される。
FIG. 2 is a block diagram illustrating a detailed configuration example of the image processing unit 105 according to the present embodiment.
In FIG. 2, the moving image signal input by the reading unit 104 is input from the first input terminal 201 to the image processing unit 105. On the other hand, the imaging parameters are input from the second input terminal 202 to the image processing unit 105, and the display parameters are input from the third input terminal 203 to the image processing unit 105.

シャッタースピード取得部210は、第2の入力端子202に入力された撮像パラメータからシャッタースピードの情報を取得し、撮像フレームレート取得部211は、入力された撮像パラメータから撮像フレームレートの情報を取得する。表示フレームレート取得部212は、第3の入力端子203に入力された表示パラメータから表示フレームレートの情報を取得する。フレーム数算出部213は、取得された撮像フレームレートと表示フレームレートとの情報を入力し、フレームレート変換処理に必要なフレーム画像の枚数を算出する。例えば、撮像フレームレートが100fpsであり、表示フレームレートが20fpsである場合、フレームレート変換処理に必要な枚数は最低5枚となる。   The shutter speed acquisition unit 210 acquires shutter speed information from the imaging parameters input to the second input terminal 202, and the imaging frame rate acquisition unit 211 acquires imaging frame rate information from the input imaging parameters. . The display frame rate acquisition unit 212 acquires display frame rate information from the display parameters input to the third input terminal 203. The frame number calculation unit 213 inputs information on the acquired imaging frame rate and display frame rate, and calculates the number of frame images necessary for the frame rate conversion process. For example, when the imaging frame rate is 100 fps and the display frame rate is 20 fps, the number of frames required for the frame rate conversion process is at least five.

フレーム画像取得部204は、第1の入力端子201に入力された動画像信号から、フレーム数算出部213で算出されたフレームレート変換処理に必要な連続するn枚のフレーム画像を取得する。動きベクトル算出部205は、n枚のフレーム画像からフレーム間の動きベクトルを算出する。動き距離算出部207は、動きベクトル算出部205で算出された動きベクトルから動き距離を算出する。一方、動きスピード算出部206は、動きベクトル算出部205で算出された動きベクトルと撮像フレームレート取得部211により取得された撮像フレームレートとから、対象物体の動きスピードを算出する。   The frame image acquisition unit 204 acquires n consecutive frame images necessary for the frame rate conversion processing calculated by the frame number calculation unit 213 from the moving image signal input to the first input terminal 201. The motion vector calculation unit 205 calculates a motion vector between frames from n frame images. The motion distance calculation unit 207 calculates a motion distance from the motion vector calculated by the motion vector calculation unit 205. On the other hand, the motion speed calculation unit 206 calculates the motion speed of the target object from the motion vector calculated by the motion vector calculation unit 205 and the imaging frame rate acquired by the imaging frame rate acquisition unit 211.

第1のフィルタ選択部208は、隣同士のフレーム画像間の動き距離、及びシャッタースピードにより、動きボケを付加するためのフィルタ補正係数αを決定する。一方、第2のフィルタ選択部209は、複数のフレーム画像間における動き距離により、動きボケを付加するためのフィルタ補正係数βを決定する。なお、フィルタ補正係数α、βの詳細については後述する。   The first filter selection unit 208 determines a filter correction coefficient α for adding motion blur based on the motion distance between adjacent frame images and the shutter speed. On the other hand, the second filter selection unit 209 determines a filter correction coefficient β for adding motion blur based on the motion distance between a plurality of frame images. Details of the filter correction coefficients α and β will be described later.

第1のフィルタ適用部214は、第1のフィルタ選択部208で決定されたフィルタ補正係数αを用いて、動画像信号の複数枚のフレーム画像に対して動きボケを付加する第1のフィルタ処理を行う。そして、第2のフィルタ適用部215は、第1のフィルタ適用部214によりフィルタが適用された後のフレーム画像に対し、第2のフィルタ選択部209で決定されたフィルタ補正係数βを用いて動きボケを付加する第2のフィルタ処理を行う。フレームレート変換処理部216は、動きボケを付加するフィルタを全て適用した後、動画像信号に対してフレームレート変換処理を行って、新規のフレーム画像を複数生成する。そして、フレームレート変換処理部216で生成された新規のフレーム画像を出力端子217から出力動画像信号として出力する。   The first filter application unit 214 uses the filter correction coefficient α determined by the first filter selection unit 208 to add motion blur to a plurality of frame images of the moving image signal. I do. Then, the second filter application unit 215 moves the frame image after the filter is applied by the first filter application unit 214 using the filter correction coefficient β determined by the second filter selection unit 209. A second filter process for adding blur is performed. The frame rate conversion processing unit 216 applies all the filters for adding motion blur, and then performs frame rate conversion processing on the moving image signal to generate a plurality of new frame images. Then, the new frame image generated by the frame rate conversion processing unit 216 is output from the output terminal 217 as an output moving image signal.

図3〜図6は、フレームレート変換処理を説明するための概念図である。
図3〜図6において、横軸は時間であり、1つの長方形の領域が1つのフレーム画像を表している。長方形の横軸は走査線一本の横方向の位置であり、長方形の縦方向は輝度を表している。
3 to 6 are conceptual diagrams for explaining the frame rate conversion processing.
3 to 6, the horizontal axis represents time, and one rectangular area represents one frame image. The horizontal axis of the rectangle is the horizontal position of one scanning line, and the vertical direction of the rectangle represents the luminance.

以下に説明する例では、入力時の表示フレームレートをInputRate=100fpsとし、出力時の表示フレームレートをOutputRate=20fpsとする。この条件を用いて、以下、フレームレート変換処理を行う際に5枚の入力されたフレーム画像から1枚のフレーム画像を生成する例について示す。   In the example described below, the input display frame rate is InputRate = 100 fps, and the output display frame rate is OutputRate = 20 fps. Hereinafter, an example in which one frame image is generated from five input frame images when performing the frame rate conversion process using this condition will be described.

図3(a)には、入力される高速シャッタースピードの動画像信号の一例を示している。シャッタースピードは1/1000secであり、N−2番目のフレーム画像からN+2番目までのフレーム画像を用いてフレーム変換処理を行っている。N−2番目のフレーム画像からN+2番目のフレーム画像までの間、インパルス信号が均等速度で左から右へ移動しており、図3(a)に示す例では、短いシャッタースピードで撮影された動画像であるため、インパルス信号は鮮鋭に映っている。   FIG. 3A shows an example of an input moving image signal with a high shutter speed. The shutter speed is 1/1000 sec, and frame conversion processing is performed using frame images from the (N−2) th frame image to the (N + 2) th frame image. The impulse signal moves from left to right at a uniform speed from the (N−2) th frame image to the (N + 2) th frame image. In the example shown in FIG. Since it is an image, the impulse signal is sharp.

図3(b)には、フレームレート変換された動画像の時系列画像を示している。N−2番目のフレーム画像からN+2番目のフレーム画像を用いて平均合成した結果は5本のインパルス信号の画像になる。この場合、被写体は鮮鋭に写り、フレームレート変換処理で得られた動画像を観察すると多重像に認知してしまう。   FIG. 3B shows a time-series image of a moving image subjected to frame rate conversion. The result of average synthesis using the (N−2) th frame image and the (N + 2) th frame image is an image of five impulse signals. In this case, the subject appears sharp, and a moving image obtained by the frame rate conversion process is recognized as a multiple image.

図4(a)には、入力される低速シャッタースピードの動画像信号の一例を示している。シャッタースピードは1/100secであり、N−2番目のフレーム画像からN+2番目のフレーム画像を用いてフレーム変換処理を行っている。N−2番目のフレーム画像からN+2番目のフレーム画像までの間、インパルス信号が均等速度で左から右へ移動しており、図4(a)に示す例では、オープンシャッタースピードで撮影された動画像であるため、インパルス信号は動きボケがあるように映っている。   FIG. 4A shows an example of an input moving image signal with a low shutter speed. The shutter speed is 1/100 sec, and frame conversion processing is performed using the (N−2) th frame image to the (N + 2) th frame image. The impulse signal moves from left to right at a uniform speed from the (N−2) th frame image to the (N + 2) th frame image. In the example shown in FIG. 4A, a moving image shot at the open shutter speed. Since it is an image, the impulse signal appears to have motion blur.

図4(b)には、フレームレート変換された動画像の時系列画像を示している。N−2番目のフレーム画像からN+2番目のフレーム画像を用いて平均合成した結果は5本のインパルス信号の画像になる。この場合、被写体は動きボケがあり、フレームレート変換処理で得られた動画像を観察すると滑らかな動きとして映る。   FIG. 4B shows a time-series image of a moving image subjected to frame rate conversion. The result of average synthesis using the (N−2) th frame image and the (N + 2) th frame image is an image of five impulse signals. In this case, the subject has motion blur, and when the moving image obtained by the frame rate conversion process is observed, it appears as a smooth motion.

図5(a)には、入力された高速シャッタースピードの動画像信号の一例を示している。シャッタースピードは1/1000secであり、N−2番目のフレーム画像からN+2番目のフレーム画像を用いてフレーム変換処理を行っている。N−2番目のフレーム画像からN+2番目のフレーム画像までの間、インパルス信号が不均等速度で左から右へ移動しており、図5(a)に示す例では、短いシャッタースピードで撮影された動画像であるため、インパルス信号は鮮鋭に映っている。   FIG. 5A shows an example of an input moving image signal with a high shutter speed. The shutter speed is 1/1000 sec, and frame conversion processing is performed using the (N−2) th frame image to the (N + 2) th frame image. The impulse signal moves from left to right at an unequal speed from the (N−2) th frame image to the (N + 2) th frame image. In the example shown in FIG. Since it is a moving image, the impulse signal is sharply reflected.

図5(b)には、平均合成処理を行って得られたフレーム画像の結果を示している。図5(b)に示す例では被写体は鮮鋭に写り、フレームレート変換処理によって得られた動画像を観察すると、多重像に認知してしまう。   FIG. 5B shows the result of the frame image obtained by performing the average synthesis process. In the example shown in FIG. 5B, the subject appears sharp, and when a moving image obtained by the frame rate conversion process is observed, it is recognized as a multiple image.

図5(c)には、従来の方法によって動きボケを付加してフレームレート変換された動画像の時系列画像を示している。従来の方法では、隣同士のフレーム間にある被写体のスピードしか考慮していないため、動きボケを付加すると、被写体は空間上に移動する距離の影響により、動きボケ量を付加する量が相違する。動きボケ付加量の相違により、図5(c)に示すように、合成したフレーム画像に輝度の段差が生じる。この段差によって、動画像として観察するとジャーキネスが発生し、画質劣化の原因になる。   FIG. 5 (c) shows a time-series image of a moving image that has been subjected to frame rate conversion by adding motion blur by a conventional method. In the conventional method, only the speed of the subject between adjacent frames is considered, so when motion blur is added, the amount of motion blur added differs due to the effect of the distance that the subject moves in space. . Due to the difference in the amount of motion blur addition, as shown in FIG. 5C, a luminance step occurs in the synthesized frame image. This level difference causes jerkiness when observed as a moving image, causing deterioration in image quality.

図6(a)には、入力される高速シャッタースピードの動画像信号の一例を示しており、図5(a)と同様である。図6(b)には、従来の方法により動きボケを付加させてから平均合成処理を行って得られたフレーム画像の結果を示している。動きボケの付加量が不均一であるため、このままフレームレート変換処理を行い、動画像を観察すると多重像に認知してしまう。   FIG. 6A shows an example of an input moving image signal with a high shutter speed, which is the same as FIG. 5A. FIG. 6B shows the result of a frame image obtained by performing an average synthesis process after adding motion blur by a conventional method. Since the added amount of motion blur is non-uniform, if a frame rate conversion process is performed as it is and a moving image is observed, it is recognized as a multiple image.

図6(c)には、本実施形態によりフレームレート変換された動画像の時系列画像を示している。本実施形態では、さらに、時間軸の複数枚のフレームの動きベクトルの分散を取り、分散の値により動きボケの付加量を再決定する。なお、詳細な処理手順については後述する。時間軸に沿って動き物体の移動速度が異なることによって被写体が空間上に移動する距離が異なり、動きボケの付加量に相違が生じる。そこで、図6(b)に示すような段差を再補正することによって、図6(c)に示すように、画像全体に動きボケが付加され、動画像としてみると、滑らかな動きとなる。   FIG. 6C shows a time-series image of a moving image subjected to frame rate conversion according to the present embodiment. In the present embodiment, the variance of motion vectors of a plurality of frames on the time axis is further taken, and the additional amount of motion blur is determined again based on the variance value. The detailed processing procedure will be described later. When the moving speed of the moving object varies along the time axis, the distance that the subject moves in the space differs, and the added amount of motion blur varies. Therefore, by re-correcting the step as shown in FIG. 6B, motion blur is added to the entire image as shown in FIG. 6C, and the motion is smooth when viewed as a moving image.

<被写体の動きスピードと最適シャッタースピードとの関係>
図7(a)は、動きスピードとシャッタースピードとの関係を示す図である。
図7(a)に示すように、動きベクトルから求められた被写体の動きスピードに応じた最適なシャッタースピードが存在する。この最適なシャッタースピードで撮影されると、動き物体が鮮鋭に映る。したがって、最適なシャッタースピードより速いシャッタースピードで撮影すると、動き物体はより鮮鋭に映り、ジャーキネスによる劣化が生じやすくなる。
<Relationship between subject movement speed and optimum shutter speed>
FIG. 7A shows the relationship between the movement speed and the shutter speed.
As shown in FIG. 7A, there is an optimum shutter speed corresponding to the movement speed of the subject obtained from the motion vector. When shooting at this optimal shutter speed, moving objects appear sharp. Therefore, when shooting at a shutter speed faster than the optimum shutter speed, the moving object appears sharper and is more likely to deteriorate due to jerkiness.

図7(a)の横軸は、動きベクトルから求められた動きスピードを示し、縦軸は、撮影時のシャッタースピードを示している。図7(a)に示すように、最適シャッタースピード曲線701を境に鮮鋭に映す領域と動きボケが存在する領域とが存在する。この動きボケ領域から最適シャッタースピード曲線701に近づくと、動きボケ量が少なくなり、ジャーキネスが発生する可能性が高くなる。以下、ジャーキネスが発生する可能性をジャーキネス発生度eと呼ぶ。   The horizontal axis in FIG. 7A indicates the motion speed obtained from the motion vector, and the vertical axis indicates the shutter speed at the time of shooting. As shown in FIG. 7A, there are a region that is sharply projected with an optimum shutter speed curve 701 as a boundary and a region where motion blur exists. When the optimal shutter speed curve 701 is approached from this motion blur area, the motion blur amount decreases, and the possibility that jerkiness will occur increases. Hereinafter, the possibility of the occurrence of jerkiness is referred to as jerkiness occurrence degree e.

ここで、フレームレートをf(frame/秒)とし、動きスピードをv(Pixel/frame)とし、シャッタースピードをs(秒)とする。あるシャッタースピードで撮影する際に、動きブレは以下の式(1)に示すように1pixel以下であれば、画像が鮮鋭に映る。   Here, the frame rate is f (frame / second), the motion speed is v (Pixel / frame), and the shutter speed is s (second). When shooting at a certain shutter speed, if the motion blur is 1 pixel or less as shown in the following formula (1), the image is sharply displayed.

Figure 2012169701
Figure 2012169701

最適シャッタースピード曲線701は、動きブレが1pixelである場合の動きスピードとシャッタースピードとの関係を表す曲線であり、以下の式(2)により計算される。   The optimum shutter speed curve 701 is a curve representing the relationship between the motion speed and the shutter speed when the motion blur is 1 pixel, and is calculated by the following equation (2).

Figure 2012169701
Figure 2012169701

図7(a)に示したv−s座標系にある任意点(v0,s0)と最適シャッタースピード曲線701との距離をDistanceとすると、任意点(v0,s0)でのジャーキネス発生度eは、以下の式(3)により計算される。   If the distance between the arbitrary point (v0, s0) in the vs coordinate system shown in FIG. 7A and the optimum shutter speed curve 701 is Distance, the jerkiness occurrence degree e at the arbitrary point (v0, s0) is Is calculated by the following equation (3).

Figure 2012169701
Figure 2012169701

なお、任意点(v0,s0)と最適シャッタースピード曲線701との距離がゼロである場合、または任意点(v0,s0)が鮮鋭な領域にある場合は、ジャーキネス発生度eは∞とする。   When the distance between the arbitrary point (v0, s0) and the optimum shutter speed curve 701 is zero, or when the arbitrary point (v0, s0) is in a sharp region, the jerkiness occurrence degree e is ∞.

図7(b)は、ジャーキネス発生度eとフィルタ補正係数αとの関係を示す図である。図7(b)に示すように、第1のフィルタ選択部208は、ジャーキネス発生度eの値によりフィルタ補正係数αの値を決めることができ、動きボケの付加量をフィルタ補正係数αによって制御することができる。なお、動きスピード、シャッタースピード及びフィルタ補正係数αの三次元データは画像処理部105に事前に保持される。   FIG. 7B is a diagram illustrating the relationship between the jerkiness degree e and the filter correction coefficient α. As shown in FIG. 7B, the first filter selection unit 208 can determine the value of the filter correction coefficient α based on the value of the jerkiness occurrence degree e, and controls the amount of motion blur addition using the filter correction coefficient α. can do. Note that the three-dimensional data of the movement speed, the shutter speed, and the filter correction coefficient α is held in advance in the image processing unit 105.

動きボケを付加するためのフィルタに用いられるフィルタ補正係数αは0から1までの正の小数であり、値は大きくなるにつれて、動きボケの付加量が多くなる。   The filter correction coefficient α used for the filter for adding motion blur is a positive decimal number from 0 to 1, and the amount of motion blur added increases as the value increases.

<動きベクトルの算出>
図8は、動きベクトル算出部205によりフレーム間の相対移動量を算出する処理手順の一例を示すフローチャートである。本実施形態では、ブロック毎に動きベクトルを求め、その動きベクトルから画面全体の動き量をアフィンパラメータとして求める例について説明する。
まず、ステップS801において、前処理として有効ブロックの判定を行う。これは正しい動きベクトルが求まらない可能性のあるブロックを除外する処理である。この処理の詳細については後述する。
<Calculation of motion vector>
FIG. 8 is a flowchart illustrating an example of a processing procedure in which the motion vector calculation unit 205 calculates the relative movement amount between frames. In the present embodiment, an example will be described in which a motion vector is obtained for each block, and the motion amount of the entire screen is obtained as an affine parameter from the motion vector.
First, in step S801, a valid block is determined as preprocessing. This is a process of excluding blocks that may not find the correct motion vector. Details of this processing will be described later.

次に、ステップS802において、有効ブロックの動きベクトルを算出する。ここで、一般的なブロックマッチング方法について説明する。ブロックマッチング法では、マッチングの評価値としてブロック内の画素間の差分二乗和もしくは差分絶対値和を用いる。まず、動きベクトルを求める対象ブロックを基準画像のサーチ範囲内で順次動かしなら評価値を求めていく。そして、サーチ範囲内で求めた全ての評価値の中から最小の評価値もつ位置が対称ブロックと最も相関の高い位置であり、その移動量が動きベクトルとなる。   Next, in step S802, the motion vector of the effective block is calculated. Here, a general block matching method will be described. In the block matching method, a sum of squares of differences or a sum of absolute differences between pixels in a block is used as a matching evaluation value. First, the evaluation value is obtained if the target block for which the motion vector is obtained is sequentially moved within the search range of the reference image. The position having the smallest evaluation value among all the evaluation values obtained in the search range is the position having the highest correlation with the symmetric block, and the movement amount is a motion vector.

このサーチ範囲を1画素ずつ求めていく方法はフルサーチと呼ばれている。これに対し、サーチ範囲を間引きながら最小の評価値を求め、次にその近傍に対して細かくサーチする方法は、ステップサーチと呼ばれている。ステップサーチは特に高速に動きベクトルを求める方法としてよく知られている。以上の方法によりステップS802では、有効ブロックの動きベクトルを算出する。   This method of obtaining the search range pixel by pixel is called full search. On the other hand, a method of obtaining a minimum evaluation value while thinning out the search range and then performing a detailed search for the vicinity thereof is called a step search. Step search is well known as a method for obtaining a motion vector at high speed. By the above method, in step S802, the motion vector of the effective block is calculated.

次に、ステップS803において、全ブロックに対して動きベクトルの検出を行った否かを判定する。この判定の結果、検出処理を行っていないブロックがまだ存在する場合はステップS801に戻り、全ブロックに対して動きベクトルの検出を行った場合は、次のステップS804に進む。   Next, in step S803, it is determined whether or not motion vectors have been detected for all blocks. As a result of the determination, if there is still a block that has not been subjected to the detection process, the process returns to step S801. If a motion vector has been detected for all blocks, the process proceeds to the next step S804.

ステップS804においては、有効な動きベクトルの判定を行う。この処理は、求めた動きベクトルのうち、算出結果が正しくないと判断されるものを除外する処理である。この処理の詳細については後述する。次に、ステップS805において、有効な動きベクトルからアフィンパラメータの検出を行う。   In step S804, a valid motion vector is determined. This process is a process of excluding those determined to have incorrect calculation results from the obtained motion vectors. Details of this processing will be described later. In step S805, an affine parameter is detected from a valid motion vector.

ここで、アフィンパラメータの検出処理の詳細について説明する。対象ブロックの中心座標が、(x,y)であり、動きベクトルの算出結果から基準画像におけるブロックの中心座標が(x',y')に移動したとすると、これらの関係は、以下の式(4)のように表すことができる。   Here, details of the affine parameter detection processing will be described. If the center coordinate of the target block is (x, y) and the center coordinate of the block in the reference image has moved to (x ′, y ′) from the calculation result of the motion vector, these relationships are expressed by the following equations: It can be expressed as (4).

Figure 2012169701
Figure 2012169701

ここで、式(4)に示す3×3の行列がアフィン変換行列である。行列の各要素がアフィンパラメータであり、a=1,b=0,d=0,e=1のとき、この変換は平行移動となり、cが水平方向の移動量、fが垂直方向の移動量となる。また、a=cosθ,b=−sinθ,c=0,d=sinθ,e=cosθ,f=0のとき、この変換は回転角θでの回転移動となる。上記式(4)は一般化した行列の形式で以下の式(5)のように表することができる。   Here, the 3 × 3 matrix shown in Expression (4) is an affine transformation matrix. When each element of the matrix is an affine parameter and a = 1, b = 0, d = 0, and e = 1, this conversion is parallel movement, c is the horizontal movement amount, and f is the vertical movement amount. It becomes. When a = cos θ, b = −sin θ, c = 0, d = sin θ, e = cos θ, and f = 0, this conversion is rotational movement at the rotation angle θ. The above equation (4) can be expressed as the following equation (5) in the form of a generalized matrix.

Figure 2012169701
Figure 2012169701

ここで、x及びx'は1×3の行列であり、Aは3×3のアフィン行列である。なお、有効な動きベクトルがn個であった場合、対象画像の座標値は、以下の式(6)のようにn×3の行列で表すことができる。   Here, x and x ′ are 1 × 3 matrices, and A is a 3 × 3 affine matrix. When there are n effective motion vectors, the coordinate values of the target image can be represented by an n × 3 matrix as in the following equation (6).

Figure 2012169701
Figure 2012169701

同様に、移動後の座標値も式(6)のようにn×3の行列で表すことができる。よって、n個の動きベクトルに対しては、以下の式(7)のように表すことができる。   Similarly, the coordinate values after movement can also be represented by an n × 3 matrix as shown in Equation (6). Therefore, n motion vectors can be expressed as the following equation (7).

Figure 2012169701
Figure 2012169701

ここで、式(7)におけるアフィン行列Aを求めれば、それが画面全体の位置ずれ量になる。式(4)を変形すると、アフィン行列Aは以下の式(8)のように表すことができる。   Here, if the affine matrix A in Equation (7) is obtained, it becomes the amount of displacement of the entire screen. When the equation (4) is modified, the affine matrix A can be expressed as the following equation (8).

Figure 2012169701
Figure 2012169701

このように動き量がアフィン変換のパラメータで表現できるため、カメラを保持しているときに起こるシフトぶれ以外にも、面内方向でのロールぶれや前後方向のズームぶれなどにも対応することが可能である。   Since the amount of motion can be expressed by affine transformation parameters in this way, in addition to shift blurring that occurs when the camera is held, it is possible to handle roll blurring in the in-plane direction and zoom blurring in the front-rear direction. Is possible.

ブロックマッチングによりブロック間の相関を求めようとする場合、ブロック内の画像が何らかの特徴量を持っている必要がある。平坦でほとんど直流成分しか含んでいないブロックでは正しい動きベクトルを求めることはできず、逆に水平方向や垂直方向にエッジを含んでいると、マッチングがとりやすくなる。そこで、ステップS801では、このような平坦部のブロックを除外している。   When trying to obtain a correlation between blocks by block matching, an image in the block needs to have some feature amount. In a block that is flat and contains almost only a DC component, a correct motion vector cannot be obtained. Conversely, if an edge is included in the horizontal direction or the vertical direction, matching becomes easy. Therefore, in step S801, such flat block is excluded.

図9は、動きベクトル算出部205により図8のステップS801で有効ブロックを判定する処理手順の一例を示すフローチャートである。図9では、1つのブロックに対する処理について説明する。
まず、ステップS901において、ブロック内にある水平方向の1つのラインに対し、最大値と最小値との差分値を算出する。例えば、ブロックのサイズが50×50の画素で構成されている場合、ブロック内における水平方向の50の画素から最大値と最小値とを求め、その差分値を算出する。
FIG. 9 is a flowchart illustrating an example of a processing procedure for determining an effective block by the motion vector calculation unit 205 in step S801 of FIG. In FIG. 9, processing for one block will be described.
First, in step S901, the difference value between the maximum value and the minimum value is calculated for one horizontal line in the block. For example, when the block size is composed of 50 × 50 pixels, the maximum value and the minimum value are obtained from the 50 pixels in the horizontal direction in the block, and the difference value is calculated.

次に、ステップS902において、水平ライン数の差分値を算出したか否かを判定し、差分値を算出していない水平ラインがまだある場合はステップS901に戻り、全ての水平ラインについて差分値を算出した場合はステップS903に進む。そして、ステップS903において、算出した数の差分値の中から最大の差分値を求める。   Next, in step S902, it is determined whether or not the difference value for the number of horizontal lines has been calculated. If there are still horizontal lines for which the difference value has not been calculated, the process returns to step S901, and the difference values for all the horizontal lines are calculated. If so, the process proceeds to step S903. In step S903, the maximum difference value is obtained from the calculated number of difference values.

次に、ステップS904において、予め設定した閾値TxとステップS903で算出した最大差分値とを比較する。この比較の結果、最大差分値が閾値Txよりも小さい場合は、水平方向には特徴量を持たないブロックであるとみなすことができるため、ステップS905に進み、無効ブロックとする。一方、最大差分値が閾値Tx以上である場合は、水平方向に特徴量を持つとみなすことができるため、ステップS906以降へ進み、垂直方向で同様の検証を行う。   Next, in step S904, the preset threshold value Tx is compared with the maximum difference value calculated in step S903. As a result of this comparison, if the maximum difference value is smaller than the threshold value Tx, it can be considered that the block does not have a feature amount in the horizontal direction. On the other hand, if the maximum difference value is greater than or equal to the threshold value Tx, it can be considered that the feature amount is in the horizontal direction, and thus the process proceeds to step S906 and the same, and the same verification is performed in the vertical direction.

次に、ステップS906において、ブロック内にある垂直方向の1つのラインに対し、最大値と最小値との差分値を算出する。例えば、ブロックのサイズが50×50の画素で構成されている場合、ブロック内における垂直方向の50の画素から最大値と最小値とを求め、その差分値を算出する。   Next, in step S906, the difference value between the maximum value and the minimum value is calculated for one vertical line in the block. For example, when the block size is composed of 50 × 50 pixels, the maximum value and the minimum value are obtained from 50 pixels in the vertical direction in the block, and the difference value is calculated.

次に、ステップS907において、垂直ライン数の差分値を算出したか否かを判定し、差分値を算出していない垂直ラインがまだある場合はステップS906に戻り、全ての垂直ラインについて差分値を算出した場合はステップS908に進む。そして、ステップS908において、算出した数の差分値の中から最大の差分値を求める。   Next, in step S907, it is determined whether or not the difference value for the number of vertical lines has been calculated. If there is still a vertical line for which the difference value has not been calculated, the process returns to step S906, and the difference values for all the vertical lines are calculated. If so, the process proceeds to step S908. In step S908, the maximum difference value is obtained from the calculated number of difference values.

次に、ステップS909において、予め設定した閾値TyとステップS908で算出した最大差分値とを比較する。この比較の結果、最大差分値が閾値Tyよりも小さい場合は、垂直方向には特徴量を持たないブロックであるとみなし、ステップS905に進み、無効ブロックとする。一方、最大差分値が閾値Ty以上である場合は、水平・垂直両方向に特徴を持つブロックであることから、正確なブロックマッチングが行われることが期待できるため、ステップS910に進み、有効ブロックとする。   Next, in step S909, the preset threshold value Ty is compared with the maximum difference value calculated in step S908. As a result of this comparison, if the maximum difference value is smaller than the threshold value Ty, the block is regarded as a block having no feature amount in the vertical direction, and the process proceeds to step S905 to determine an invalid block. On the other hand, when the maximum difference value is equal to or greater than the threshold value Ty, since the block has characteristics in both the horizontal and vertical directions, it can be expected that accurate block matching is performed. Therefore, the process proceeds to step S910 to be an effective block. .

次に、有効な動きベクトルを判定する方法について図10のフローチャートを参照しながら説明する。図10は、動きベクトル算出部205により図8のステップS804で有効な動きベクトルを判定する処理手順の一例を示すフローチャートである。
まず、ステップS1001において、図8のステップS802で検出された動きベクトルを入力し、ステップS1002において、その発生頻度を算出する。次に、ステップS1003において、全ての動きベクトルの発生頻度を算出したか否かを判定し、発生頻度を算出していない動きベクトルがまだある場合はステップS1001に戻る。一方、全ての動きベクトルの発生頻度を算出した場合は、ステップS1004において、最大発生頻度の動きベクトルを求める。
Next, a method for determining an effective motion vector will be described with reference to the flowchart of FIG. FIG. 10 is a flowchart illustrating an example of a processing procedure for determining an effective motion vector in step S804 of FIG. 8 by the motion vector calculation unit 205.
First, in step S1001, the motion vector detected in step S802 of FIG. 8 is input, and in step S1002, the occurrence frequency is calculated. Next, in step S1003, it is determined whether the occurrence frequency of all motion vectors has been calculated. If there is still a motion vector for which the occurrence frequency has not been calculated, the process returns to step S1001. On the other hand, when the occurrence frequencies of all the motion vectors are calculated, the motion vector having the maximum occurrence frequency is obtained in step S1004.

次に、ステップS1005において、動きベクトルを再度入力し、ステップS1006において、この動きベクトルが最大発生頻度の動きベクトル、もしくはその近傍の動きベクトルであるかどうかを判定する。画面全体のぶれが、シフトのみである場合、各ブロックの動きベクトルは、最大発生頻度の動きベクトルにほぼ一致し、ロールぶれを伴う場合は、最大発生頻度の動きベクトルの近傍に多くの動きベクトルが発生すると考えられる。したがって、これらの値に含まれる動きベクトルの場合は、ステップS1007に進み、有効な動きベクトルと判定する。   Next, in step S1005, a motion vector is input again. In step S1006, it is determined whether this motion vector is a motion vector having the maximum occurrence frequency or a motion vector in the vicinity thereof. When the entire screen is only shifted, the motion vector of each block is almost the same as the motion vector with the highest occurrence frequency, and when there is roll motion, many motion vectors are in the vicinity of the motion vector with the highest occurrence frequency. Is considered to occur. Therefore, in the case of a motion vector included in these values, the process proceeds to step S1007 and is determined to be a valid motion vector.

一方、これらの値から外れている動きベクトルの場合は、ステップS1008に進み、無効の動きベクトルと判定する。そして、ステップS1009において、すべての動きベクトルに対して有効か無効かの判定処理が終わったかどうかを判定する。まだ判定が終わっていない動きベクトルがある場合はステップS1005に戻り、全ての動きベクトルについて判定が終了した場合は、そのまま処理を終了する。   On the other hand, in the case of a motion vector deviating from these values, the process proceeds to step S1008, where it is determined as an invalid motion vector. Then, in step S1009, it is determined whether or not the processing for determining whether the motion vector is valid or invalid has been completed. If there is a motion vector that has not been determined yet, the process returns to step S1005. If determination has been completed for all the motion vectors, the process ends.

<不均等スピードに関する処理>
フレームレート変換処理を行う際に、複数枚のフレーム画像を平均合成して1枚のフレーム画像を生成する。複数のフレーム画像の間で動き物体が不均等速度で移動する場合、使用する複数のフレーム画像について、動き距離算出部207は、フレーム画像ごとに動きベクトルにより動き物体の動き距離を算出する。そして、第2のフィルタ選択部209は、距離平均Aveを以下の式(9)により算出する。
<Processing for uneven speed>
When performing the frame rate conversion processing, a plurality of frame images are averaged to generate one frame image. When a moving object moves at a non-uniform speed between a plurality of frame images, for a plurality of frame images to be used, the movement distance calculation unit 207 calculates a movement distance of the moving object based on a motion vector for each frame image. Then, the second filter selection unit 209 calculates the distance average Ave by the following equation (9).

Figure 2012169701
Figure 2012169701

ここで、Nはフレーム画像の番号であって、D[n]はn枚目のフレーム画像とn−1枚目のフレーム画像との間の動き物体の動き距離である。算出された複数の動き距離D[N]及び距離平均Aveにより、第2のフィルタ選択部209は、各フレーム画像の動き距離との標準偏差Sを以下の式(10)により算出し、算出した標準偏差Sによりフィルタ補正係数βを算出する。   Here, N is the frame image number, and D [n] is the moving distance of the moving object between the nth frame image and the (n-1) th frame image. Based on the calculated plurality of motion distances D [N] and the distance average Ave, the second filter selection unit 209 calculates the standard deviation S from the motion distance of each frame image by the following equation (10). A filter correction coefficient β is calculated from the standard deviation S.

Figure 2012169701
Figure 2012169701

図11は、複数のフレーム画像の間で動き物体が不均等速度で動いている様子を説明する図である。また、図12は、複数のフレーム画像の間で動き物体が不均等速度で動いている場合の標準偏差Sとフィルタ補正係数βとの関係を示す図である。図12において、横軸は動き距離の標準偏差Sであり、縦軸はボケ付加パラメータ(フィルタ補正係数β)である。このように、第2のフィルタ選択部209は、標準偏差Sによりフィルタ補正係数βを決定することができる。そして、フレーム画像上に算出された全ての動きベクトルに対して、係数α、βのボケ付加処理を行う。   FIG. 11 is a diagram illustrating a state in which a moving object is moving at an uneven speed between a plurality of frame images. FIG. 12 is a diagram illustrating the relationship between the standard deviation S and the filter correction coefficient β when a moving object is moving at an uneven speed between a plurality of frame images. In FIG. 12, the horizontal axis represents the standard deviation S of the movement distance, and the vertical axis represents the blur addition parameter (filter correction coefficient β). In this way, the second filter selection unit 209 can determine the filter correction coefficient β based on the standard deviation S. Then, blur addition processing of coefficients α and β is performed on all motion vectors calculated on the frame image.

<ボケ付加フィルタ選択>
図14には、ボケ付加フィルタの一例を示しており、U行V列のフィルタWとする。ここで、第1のフィルタ適用部214及び第2のフィルタ適用部215により、フィルタ処理後の画像Imが以下の式(11)により得られる。
<Bokeh addition filter selection>
FIG. 14 shows an example of a blur addition filter, which is a filter W with U rows and V columns. Here, the first filter applying unit 214 and the second filter applying unit 215, the image I m after filtering is obtained by the following equation (11).

Figure 2012169701
Figure 2012169701

ここで、フィルタ補正係数αは、前述したようにシャッタースピードと動きスピードとにより決定され、フィルタ補正係数βは、複数のフレーム画像での動き距離とその標準偏差とにより決定される。   Here, as described above, the filter correction coefficient α is determined by the shutter speed and the motion speed, and the filter correction coefficient β is determined by the motion distance and the standard deviation thereof in a plurality of frame images.

<全体的な処理>
図13は、本実施形態におけるフレームレート変換処理までの処理手順の一例を示すフローチャートである。
まず、ステップS1301において、フレーム画像取得部204は、連続するフレーム画像を取得する。次に、ステップS1302において、撮像フレームレート取得部211は、入力された撮像パラメータから撮像フレームレートの情報を取得する。前述したように撮像フレームレートは、動きスピードを算出する際に用いられる。
<Overall processing>
FIG. 13 is a flowchart illustrating an example of a processing procedure up to the frame rate conversion processing in the present embodiment.
First, in step S1301, the frame image acquisition unit 204 acquires continuous frame images. Next, in step S1302, the imaging frame rate acquisition unit 211 acquires imaging frame rate information from the input imaging parameters. As described above, the imaging frame rate is used when calculating the motion speed.

次に、ステップS1303において、フレーム数算出部213は、フレームレート変換処理に必要な連続するフレーム画像の枚数Numを算出する。そして、ステップS1304において、シャッタースピード取得部210は、撮影した時のシャッタースピードの値の情報を取得する。   In step S1303, the frame number calculation unit 213 calculates the number of consecutive frame images Num necessary for the frame rate conversion process. In step S1304, the shutter speed acquisition unit 210 acquires information on the value of the shutter speed at the time of shooting.

次に、ステップS1305において、動きベクトル算出部205は、カウント用の整数nを初期化する。そして、ステップS1306において、動きベクトル算出部205は、整数nが枚数Numより小さいか否かを判定し、枚数Numより小さい場合は、次のステップS1307に進み、枚数Numに到達した場合は、ステップS1312に進む。   In step S1305, the motion vector calculation unit 205 initializes an integer n for counting. In step S1306, the motion vector calculation unit 205 determines whether the integer n is smaller than the number Num. If the number n is smaller than the number Num, the process proceeds to the next step S1307. The process proceeds to S1312.

次に、ステップS1307において、動きベクトル算出部205は、n番目のフレーム画像とn+1番目のフレーム画像との間の動きベクトルを算出する。そして、ステップS1308において、動き距離算出部207は、n番目のフレーム画像とn+1番目のフレーム画像との間の動きベクトルによる被写体の動き距離D[n]を算出する。   Next, in step S1307, the motion vector calculation unit 205 calculates a motion vector between the nth frame image and the n + 1th frame image. In step S1308, the motion distance calculation unit 207 calculates a subject motion distance D [n] based on a motion vector between the nth frame image and the n + 1th frame image.

次に、ステップS1309において、動きスピード算出部206は、ステップS1302で取得した撮影フレームレートから動きスピードを算出する。そして、第1のフィルタ選択部208は、算出した動きスピードとステップS1304で取得したシャッタースピードとから、図7で説明したようにフィルタ補正係数αを決定する。   Next, in step S1309, the motion speed calculation unit 206 calculates the motion speed from the shooting frame rate acquired in step S1302. Then, the first filter selection unit 208 determines the filter correction coefficient α as described with reference to FIG. 7 from the calculated movement speed and the shutter speed acquired in step S1304.

次に、ステップS1310において、第1のフィルタ適用部214は、決定されたフィルタ補正係数αによりフレーム画像の被写体にフィルタを適用して動きボケを付加する。そして、ステップS1311において、整数nの値を1つ増やし、ステップS1306に戻る。   In step S1310, the first filter application unit 214 applies a filter to the subject of the frame image using the determined filter correction coefficient α to add motion blur. In step S1311, the value of the integer n is incremented by 1, and the process returns to step S1306.

一方、ステップS1312においては、第2のフィルタ選択部209は、フレームレート変換処理に必要な枚数Numで算出したD[n]により、各フレーム画像の被写体の動き距離の標準偏差Sを求める。次に、ステップS1313において、第2のフィルタ選択部209は、フレーム画像ごとに算出された標準偏差Sからそれぞれのフレーム画像のフィルタ補正係数βを決定する。そして、第2のフィルタ適用部215は、各フレーム画像に異なるローパスフィルタをかけ、動きボケを付加する。全てのフレーム画像について動きボケを付加すると、処理を終了とする。   On the other hand, in step S1312, the second filter selection unit 209 obtains the standard deviation S of the subject movement distance of each frame image from D [n] calculated by the number Num necessary for the frame rate conversion process. Next, in step S1313, the second filter selection unit 209 determines the filter correction coefficient β of each frame image from the standard deviation S calculated for each frame image. Then, the second filter application unit 215 applies a different low-pass filter to each frame image to add motion blur. When motion blur is added to all frame images, the process ends.

以上説明したように本実施形態によれば、複数のフレーム画像について、各フレーム間の撮像対象の動きスピード、シャッタースピード、及び動き距離により動きボケを付加するためのフィルタ補正係数α、βを調整することできる。これにより、フレームレート変換処理を行う際に、非均等速度で移動する物体が存在しても、ジャーキネスを抑制した動画像を生成することができる。   As described above, according to the present embodiment, for a plurality of frame images, the filter correction coefficients α and β for adding motion blur are adjusted according to the motion speed, shutter speed, and motion distance of the imaging target between the frames. Can do. Accordingly, when performing frame rate conversion processing, a moving image with reduced jerkiness can be generated even if there is an object moving at a non-uniform speed.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

204 フレーム画像取得部
205 動きベクトル算出部
207 動き距離算出部
210 シャッタースピード取得部
211 撮像フレームレート取得部
214 第1のフィルタ適用部
215 第2のフィルタ適用部
204 frame image acquisition unit 205 motion vector calculation unit 207 motion distance calculation unit 210 shutter speed acquisition unit 211 imaging frame rate acquisition unit 214 first filter application unit 215 second filter application unit

Claims (6)

動画像信号から複数のフレーム画像を入力する入力手段と、
前記動画像信号の撮影情報からシャッタースピード及びフレームレートの情報を取得する取得手段と、
前記入力手段により入力された複数のフレーム画像での被写体の動きベクトルを算出し、前記算出した動きベクトルからフレーム画像ごとに前記被写体の動き距離を算出する算出手段と、
前記入力手段により入力された複数のフレーム画像に対して、前記取得手段によって取得されたシャッタースピード及びフレームレートに基づく第1のフィルタ処理と、前記算出手段により算出された動き距離に基づく第2のフィルタ処理とを適用するフィルタ手段とを有することを特徴とする画像処理装置。
Input means for inputting a plurality of frame images from a moving image signal;
Acquisition means for acquiring information on shutter speed and frame rate from the shooting information of the moving image signal;
Calculating means for calculating a motion vector of a subject in a plurality of frame images input by the input means, and calculating a motion distance of the subject for each frame image from the calculated motion vector;
A first filtering process based on a shutter speed and a frame rate acquired by the acquisition unit and a second distance based on a motion distance calculated by the calculation unit for a plurality of frame images input by the input unit. An image processing apparatus comprising: filter means for applying filter processing.
前記フィルタ手段は、さらに前記動きベクトルの分散に基づいて前記第2のフィルタ処理を適用することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the filter unit further applies the second filter process based on a variance of the motion vector. 前記フィルタ手段は、前記第1のフィルタ処理を適用した後に、前記第2のフィルタ処理を適用することを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the filter unit applies the second filter process after applying the first filter process. 前記取得手段により取得されたフレームレートの情報に基づいて前記入力手段により入力するフレーム画像の枚数を算出するフレーム数算出手段をさらに有することを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。   4. The method according to claim 1, further comprising: a frame number calculation unit that calculates the number of frame images input by the input unit based on the frame rate information acquired by the acquisition unit. The image processing apparatus described. 動画像信号から複数のフレーム画像を入力する入力工程と、
前記動画像信号の撮影情報からシャッタースピード及びフレームレートの情報を取得する取得工程と、
前記入力工程において入力された複数のフレーム画像での被写体の動きベクトルを算出し、前記算出した動きベクトルからフレーム画像ごとに前記被写体の動き距離を算出する算出工程と、
前記入力工程において入力された複数のフレーム画像に対して、前記取得工程において取得されたシャッタースピード及びフレームレートに基づく第1のフィルタ処理と、前記算出工程において算出された動き距離に基づく第2のフィルタ処理とを適用するフィルタ工程とを有することを特徴とする画像処理方法。
An input step of inputting a plurality of frame images from the moving image signal;
An acquisition step of acquiring shutter speed and frame rate information from the shooting information of the moving image signal;
Calculating a motion vector of a subject in a plurality of frame images input in the input step, and calculating a motion distance of the subject for each frame image from the calculated motion vector;
A first filtering process based on the shutter speed and the frame rate acquired in the acquisition process, and a second filter based on the motion distance calculated in the calculation process for the plurality of frame images input in the input process. And an image processing method comprising: a filter process for applying the filter process.
動画像信号から複数のフレーム画像を入力する入力工程と、
前記動画像信号の撮影情報からシャッタースピード及びフレームレートの情報を取得する取得工程と、
前記入力工程において入力された複数のフレーム画像での被写体の動きベクトルを算出し、前記算出した動きベクトルからフレーム画像ごとに前記被写体の動き距離を算出する算出工程と、
前記入力工程において入力された複数のフレーム画像に対して、前記取得工程において取得されたシャッタースピード及びフレームレートに基づく第1のフィルタ処理と、前記算出工程において算出された動き距離に基づく第2のフィルタ処理とを適用するフィルタ工程とをコンピュータに実行させることを特徴とするプログラム。
An input step of inputting a plurality of frame images from the moving image signal;
An acquisition step of acquiring shutter speed and frame rate information from the shooting information of the moving image signal;
Calculating a motion vector of a subject in a plurality of frame images input in the input step, and calculating a motion distance of the subject for each frame image from the calculated motion vector;
A first filtering process based on the shutter speed and the frame rate acquired in the acquisition process, and a second filter based on the motion distance calculated in the calculation process for the plurality of frame images input in the input process. A program that causes a computer to execute a filtering step to apply filtering processing.
JP2011026472A 2011-02-09 2011-02-09 Image processing device, image processing method, and program Withdrawn JP2012169701A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011026472A JP2012169701A (en) 2011-02-09 2011-02-09 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011026472A JP2012169701A (en) 2011-02-09 2011-02-09 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2012169701A true JP2012169701A (en) 2012-09-06

Family

ID=46973464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011026472A Withdrawn JP2012169701A (en) 2011-02-09 2011-02-09 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2012169701A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015039149A (en) * 2013-08-19 2015-02-26 キヤノン株式会社 Image processing system, control method of the same, image display device and control method of the same
WO2016185947A1 (en) * 2015-05-19 2016-11-24 ソニー株式会社 Image processing device, image processing method, reception device and transmission device
JP2017092851A (en) * 2015-11-16 2017-05-25 日本放送協会 Interpolation ratio determination apparatus and program
CN113841389A (en) * 2019-05-22 2021-12-24 三菱电机大楼技术服务株式会社 Image processing apparatus and image processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015039149A (en) * 2013-08-19 2015-02-26 キヤノン株式会社 Image processing system, control method of the same, image display device and control method of the same
WO2016185947A1 (en) * 2015-05-19 2016-11-24 ソニー株式会社 Image processing device, image processing method, reception device and transmission device
CN107534790A (en) * 2015-05-19 2018-01-02 索尼公司 Image processing apparatus, image processing method, reception device and dispensing device
CN107534790B (en) * 2015-05-19 2020-06-23 索尼公司 Image processing apparatus, image processing method, receiving apparatus, and transmitting apparatus
US10812854B2 (en) 2015-05-19 2020-10-20 Sony Corporation Image processing device, image processing method, reception device, and transmission device
JP2017092851A (en) * 2015-11-16 2017-05-25 日本放送協会 Interpolation ratio determination apparatus and program
CN113841389A (en) * 2019-05-22 2021-12-24 三菱电机大楼技术服务株式会社 Image processing apparatus and image processing method
CN113841389B (en) * 2019-05-22 2023-11-10 三菱电机楼宇解决方案株式会社 Image processing apparatus and image processing method

Similar Documents

Publication Publication Date Title
US10887519B2 (en) Method, system and apparatus for stabilising frames of a captured video sequence
EP2560375B1 (en) Image processing device, image capture device, program, and image processing method
EP2164040B1 (en) System and method for high quality image and video upscaling
WO2014045026A1 (en) Systems and methods for reducing noise in video streams
WO2013190862A1 (en) Image processing device and image processing method
JP2012222743A (en) Imaging apparatus
US20150358547A1 (en) Image processing apparatus
JP5824155B2 (en) Anisotropic gradient regularization for image denoising, compression and interpolation
Kim et al. Dynamic scene deblurring using a locally adaptive linear blur model
JP7328096B2 (en) Image processing device, image processing method, and program
JP2012169701A (en) Image processing device, image processing method, and program
JP5566199B2 (en) Image processing apparatus, control method therefor, and program
JP2019169000A (en) Image processing apparatus, image processing method, and program
US20120148108A1 (en) Image processing apparatus and method therefor
JP7027776B2 (en) Movement vector calculation method, device, program, and movement vector calculation method including noise reduction processing.
JP6576179B2 (en) Image processing apparatus, image processing method, and program
JP2013126123A (en) Image processing device, imaging apparatus, and image processing method
JP6854629B2 (en) Image processing device, image processing method
JP6727902B2 (en) Reference frame generation device, motion estimation device, and program
JPWO2019012647A1 (en) Image processing apparatus, image processing method, and computer program
JP2018180964A (en) Image processing apparatus and image processing method
JP2019016865A (en) Image processing device and image processing method
JP2018174461A (en) Image processing apparatus, image processing method, and program
CN109754370B (en) Image denoising method and device
JP2020003885A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513