JP4915468B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP4915468B2
JP4915468B2 JP2010192818A JP2010192818A JP4915468B2 JP 4915468 B2 JP4915468 B2 JP 4915468B2 JP 2010192818 A JP2010192818 A JP 2010192818A JP 2010192818 A JP2010192818 A JP 2010192818A JP 4915468 B2 JP4915468 B2 JP 4915468B2
Authority
JP
Japan
Prior art keywords
motion
motion blur
motion vector
processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010192818A
Other languages
Japanese (ja)
Other versions
JP2010268526A (en
Inventor
厚史 伊藤
寿夫 山崎
誠司 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010192818A priority Critical patent/JP4915468B2/en
Publication of JP2010268526A publication Critical patent/JP2010268526A/en
Application granted granted Critical
Publication of JP4915468B2 publication Critical patent/JP4915468B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は画像処理装置、画像処理方法、プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

特開2001−352546号公報JP 2001-352546 A

動画像のデータ量は非常に膨大であるため、従来、動画像を保存/送信等する際には、動画像のデータ量を圧縮することが一般的となっている。
動画像のデータ量の圧縮方法としては、MPEG(Moving Picture Experts Group)などのインターフレーム符号化とイントラフレーム符号化を組み合わせた動画像符号化が代表的である。
ところで、MPEG方式による動画像符号化の符号化効率を向上するために、動画像に対して前処理を行う手法が数多く提案されている。
例えば上記特許文献1では前処理としてローパスフィルタを画像に適用することで、符号化後のブロック歪みの発生を抑制している。
但し、特許文献1に記載された方式は、符号化した際に発生するブロック歪みの抑制を意図したものであり、ローパスフィルタの適用によるディテールの欠損は免れない。
Since the amount of moving image data is very large, conventionally, when storing / transmitting a moving image, it is common to compress the amount of moving image data.
A typical method for compressing the data amount of a moving image is a moving image coding that combines inter-frame coding such as MPEG (Moving Picture Experts Group) and intra-frame coding.
By the way, in order to improve the coding efficiency of moving picture coding by the MPEG system, many methods for performing preprocessing on a moving picture have been proposed.
For example, in Patent Document 1 described above, the occurrence of block distortion after encoding is suppressed by applying a low-pass filter to the image as preprocessing.
However, the method described in Patent Document 1 is intended to suppress block distortion that occurs when encoding, and detail loss due to the application of a low-pass filter is inevitable.

本発明では、動画像中の動き情報を用いて適応的に、撮像時の露光期間に起因する動きぼけを模擬したローパスフィルタを画像に適用する、画像処理による動きぼけ付加、を実行し、これにより、動画像の観察者にとって自然な画質を提示しつつ、符号化効率の向上を行うことを前提とする。
そしてこれに対応して、復号化側の処理として、上記動きぼけの付加の影響による画質劣化の抑制を図ることを目的とする。
In the present invention, adaptively using motion information in the moving image, applying a low-pass filter simulating the motion blur caused by the exposure period of time of imaging the image, and performs motion blur addition, by image processing, which Thus, it is assumed that the encoding efficiency is improved while presenting a natural image quality for the observer of the moving image .
Correspondingly, an object of the decoding process is to suppress image quality deterioration due to the influence of the motion blur .

本発明の画像処理装置は、動きぼけ付加処理が施された上で符号化された動画像データから、該動画像データを構成する単位画像間での画像の動きを示す動き情報としての動きベクトルを生成する動きベクトル生成手段を備える。
また、上記動きぼけ付加処理が施された上で符号化された動画像データが、復号化されて入力され、入力された動画像データに対して、上記動きベクトル生成手段により生成された上記動きベクトルを用いたフィルタ処理を施すことにより、動きぼけの削減処理を実行する動きぼけ削減手段を備える。
そして、上記動きぼけ削減手段が、上記動きぼけ付加処理が施された際に用いられた動きぼけ付加パラメータをもとに、上記動きぼけの削減処理の実行の可否を選択するか、又は上記動きぼけ削減処理の度合いを調整するものである。
The image processing apparatus according to the present invention includes a motion vector as motion information indicating the motion of an image between unit images constituting the moving image data from the encoded moving image data subjected to the motion blur addition process. Motion vector generating means for generating.
Further, the coded video data in terms of the motion blur addition process has been performed is input is decoded, with respect to the entered the moving image data, generated by the motion vector generating means The image processing apparatus includes a motion blur reduction unit that performs motion blur reduction processing by performing the filter processing using the motion vector .
Then, the motion blur reduction means selects whether or not to perform the motion blur reduction process based on the motion blur addition parameter used when the motion blur addition process is performed, or This is to adjust the degree of blur reduction processing.

本発明の画像処理方法は、動きぼけ付加処理が施された上で符号化された動画像データから、該動画像データを構成する単位画像間での画像の動きを示す動き情報としての動きベクトルを生成する動きベクトル生成ステップを有する。
また、上記動きぼけ付加処理が施された上で符号化された動画像データを復号化する復号化ステップを有する。
また、上記復号化ステップによって得られた復号化された動画像データに対して、上記動きベクトル生成ステップにより生成した上記動きベクトルを用いたフィルタ処理を施すことにより、動きぼけの削減処理を実行する動きぼけ削減ステップとを有する。
そして、上記動きぼけ削減ステップにて、上記動きぼけ付加処理が施された際に用いられた動きぼけ付加パラメータをもとに、上記動きぼけの削減処理の実行の可否を選択するか、又は上記動きぼけ削減処理の度合いを調整するものである。
本発明のプログラムは、上記の画像処理方法の各ステップを情報処理装置に実行させるプログラムである。
The image processing method of the present invention is a motion vector as motion information indicating the motion of an image between unit images constituting the moving image data from the moving image data encoded after the motion blur addition processing. Has a motion vector generation step.
In addition, the image processing apparatus includes a decoding step for decoding the moving image data that has been subjected to the motion blur addition process .
In addition, a motion blur reduction process is performed by performing a filtering process using the motion vector generated in the motion vector generation step on the decoded moving image data obtained in the decoding step. And a motion blur reduction step.
In the motion blur reduction step, whether to execute the motion blur reduction processing is selected based on the motion blur addition parameter used when the motion blur addition processing is performed, or This adjusts the degree of motion blur reduction processing.
The program of the present invention is a program that causes an information processing apparatus to execute each step of the above-described image processing method.

即ちこれらの本発明では、符号化側において、動画像中の動き情報を用いて適応的に、撮像時の露光期間に起因する動きぼけを模擬したローパスフィルタを画像に適用する「画像処理による動きぼけ付加」を実行することを前提としている。つまり、空間的に一様なローパスフィルタを実行した場合と比較して、動画像の観察者にとって自然な画質を提示しつつ、符号化効率の向上を行うことを前提とするものである。
この前提の下で本発明では、動き情報を参照し、領域ごとに適応的なフィルタリング(動きぼけの削減処理:ハイパスフィルタ処理)を行うものとしている。このため、符号化時に空間的に一様なローパスフィルタ(つまり復号化時に空間的に一様なハイパスフィルタ)を実行するとした場合と比較して、動きの大きさに応じた、領域ごとに適応的な動きぼけの削減が、必要であれば後処理としての動きぼけ量の調整も含めて、実行可能であり、動画像の観察者にとって自然な画質が提示できる。

That is, in the present invention, on the encoding side, a low-pass filter that simulates motion blur caused by the exposure period at the time of imaging is adaptively applied to the image using motion information in the moving image. This is based on the assumption that “blur addition” is executed. That is, it is premised on that the encoding efficiency is improved while presenting a natural image quality for the observer of the moving image, as compared with a case where a spatially uniform low-pass filter is executed.
Under this assumption, the present invention refers to motion information and performs adaptive filtering (motion blur reduction processing: high-pass filter processing) for each region. Therefore, compared to the case of executing a spatially uniform low-pass filter at the time of encoding (that is, a spatially uniform high-pass filter at the time of decoding), it is adapted for each region according to the magnitude of motion. reduction of movement blur, including the adjustment of the motion blur quantity of the post-treatment if necessary, is capable of executing, Ru can present a natural image quality to the viewer of the moving image.

また、一般に高速シャッタで撮像された動画像やアニメーションなどを、プロジェクタやディスプレイなどの表示デバイスを用いて表示すると、画像中に含まれる移動物体の動きが不連続に表示され、画像を観察する観察者が多重像を知覚してしまう。これはモーションジャーキネス(Motion Jerkiness)と呼ばれる(参考文献:ANSI T1.801.02-1996)画像劣化であり、これが頻繁に発生する。
一方、オープンシャッタなど低速のシャッタスピードで撮像された動画像を表示すると、動きぼけの影響により、被写体のディテールの欠損やエッジが不鮮明になることがよくある。この現象は、ブラー(動きぼけ)と呼ばれる画質劣化の現象である。
本発明が前提とする符号化側では、動きぼけを付加して符号化の圧縮効率を向上させる。これによって符号化効率の向上を行いつつ上記ジャーキネス劣化の低減を可能とする。
そして本発明では、動きぼけ付加された復号画像データに動きぼけ削減処理を実行することで画質向上を図る。このことで、上記ジャーキネス劣化・ブラー劣化の双方が低減されるようにしたり、復号後に動きぼけ付加前の画像データを得ること等が可能となる。
In general, when moving images or animations captured with a high-speed shutter are displayed using a display device such as a projector or display, the movement of moving objects included in the images is displayed discontinuously, and observation is performed to observe the images. One perceives multiple images. This is called motion jerkiness (reference: ANSI T1.801.02-1996), and image degradation occurs frequently.
On the other hand, when a moving image captured at a low shutter speed, such as an open shutter, is displayed, the loss of details and edges of the subject often become blurred due to the influence of motion blur. This phenomenon is a phenomenon of image quality deterioration called blur (motion blur).
On the encoding side on which the present invention is premised , motion blur is added to improve the compression efficiency of encoding. This makes it possible to reduce the jerkiness deterioration while improving the coding efficiency.
And in this onset bright, improve image quality by executing blur reduction processing motion in the decoded image data that has been motion blur addition. This makes it possible to reduce both the jerkiness degradation and the blur degradation, to obtain image data before motion blur addition after decoding, and the like.

本発明により、符号化側で動画像中の動き情報を用いて適応的に動きぼけ付加処理としてのフィルタ処理を行って符号化効率向上・ジャーキネス劣化の低減が図られた場合に対応して、復号化された動画像データに対して、動き情報を参照し、領域ごとに適応的に動きぼけ削減処理としてのフィルタ処理を行うようにしたことで、動画像データに発生するジャーキネス劣化、ブラー劣化を抑制した自然な画質提示を実現すること可能となる。 In accordance with the present invention, when the encoding side performs adaptive filtering processing as motion blur addition processing using motion information in a moving image to improve encoding efficiency and reduce jerkiness degradation. In addition, by referring to the motion information for the decoded moving image data and performing filtering processing as motion blur reduction processing adaptively for each region, jerkiness degradation and blurring that occur in the moving image data are performed. It is possible to realize natural image quality presentation with suppressed deterioration.

本発明の実施の形態の第1の画像処理装置のブロック図である。It is a block diagram of the 1st image processing device of an embodiment of the invention. 実施の形態において動きぼけ付加による符号化効率向上の説明図である。It is explanatory drawing of the encoding efficiency improvement by motion blur addition in embodiment. 実施の形態の第1の画像処理装置の他の構成例のブロック図である。It is a block diagram of other examples of composition of the 1st image processing device of an embodiment. 実施の形態の第1の画像処理装置のさらに他の構成例のブロック図である。It is a block diagram of the example of further composition of the 1st image processing device of an embodiment. 実施の形態の動きベクトル生成処理部のブロック図である。It is a block diagram of the motion vector generation processing unit of the embodiment. 実施の形態の動きベクトル生成処理部の処理のフローチャートである。It is a flowchart of a process of the motion vector generation process part of embodiment. 実施の形態の動きぼけ付加処理部のブロック図である。It is a block diagram of the motion blur addition process part of an embodiment. 実施の形態の動きベクトルマスク処理部の処理のフローチャートである。It is a flowchart of the process of the motion vector mask process part of embodiment. 実施の形態の最適シャッタ速度算出/判別部と動きベクトル補正部の処理のフローチャートである。It is a flowchart of the process of the optimal shutter speed calculation / discrimination part and motion vector correction | amendment part of embodiment. 実施の形態の最適シャッタ速度に関する説明図である。It is explanatory drawing regarding the optimal shutter speed of embodiment. 実施の形態のフィルタパラメータ算出部の処理の説明図である。It is explanatory drawing of the process of the filter parameter calculation part of embodiment. 実施の形態の動きぼけ付加処理部の他のブロック図である。It is another block diagram of the motion blur addition process part of an embodiment. 実施の形態の第2の画像処理装置のブロック図である。It is a block diagram of the 2nd image processing device of an embodiment. 実施の形態の第2の画像処理装置の他の構成例のブロック図である。It is a block diagram of the other example of composition of the 2nd image processing device of an embodiment. 実施の形態の第2の画像処理装置のさらに他の構成例のブロック図である。It is a block diagram of the further another structural example of the 2nd image processing device of an embodiment. 実施の形態の動きぼけ削減処理部のブロック図である。It is a block diagram of the motion blur reduction process part of an embodiment. 移動平均フィルタの説明図である。It is explanatory drawing of a moving average filter. 実施の形態の動きぼけ削減処理部の他のブロック図である。It is another block diagram of the motion blur reduction process part of an embodiment. 実施の形態のフィルタパラメータの伝送の説明図である。It is explanatory drawing of transmission of the filter parameter of embodiment.

以下、本発明の実施の形態を次の順序で説明する。なお、第1の画像処理装置とは、符号化の前段で動きぼけ付加処理を行う画像処理装置であり、第2の画像処理装置とは、第1の画像処理装置から伝送されてきた動画像データに対して、復号化及び動きぼけ削減処理を行う画像処理装置である。
[1.第1の画像処理装置]
[1−1:画像処理装置の構成例]
[1−2:動きベクトル生成処理部]
[1−3:動きぼけ付加処理部]
[2.第2の画像処理装置]
[2−1:画像処理装置の構成例]
[2−2:動きぼけ削減処理部]
[3.第1,第2の画像処理装置間の情報伝送]
[4.プログラム]
Hereinafter, embodiments of the present invention will be described in the following order. Note that the first image processing device is an image processing device that performs motion blur addition processing in the previous stage of encoding, and the second image processing device is a moving image transmitted from the first image processing device. An image processing apparatus that performs decoding and motion blur reduction processing on data.
[1. First image processing apparatus]
[1-1: Configuration Example of Image Processing Device]
[1-2: Motion vector generation processing unit]
[1-3: Motion blur addition processing unit]
[2. Second image processing apparatus]
[2-1: Configuration Example of Image Processing Device]
[2-2: Motion blur reduction processing unit]
[3. Information transmission between the first and second image processing apparatuses]
[4. program]

[1.第1の画像処理装置]
[1−1:画像処理装置の構成例]

図1,図3,図4により、第1の画像処理装置、即ち符号化の前段で動きぼけ付加処理を行う画像処理装置についての構成例を説明する。
なお各図における処理ブロックは、論理的な構成要素として示しており、各処理ブロックは同一筐体内にある場合も考えられるし、別の筐体内にある場合も考えられる。そして、各図において、破線で囲った画像処理装置1、又は同じく破線で囲った画像処理装置100が、本発明の第1の画像処理装置の実施の形態の構成と考えることができる。
[1. First image processing apparatus]
[1-1: Configuration Example of Image Processing Device]

A configuration example of the first image processing apparatus, that is, an image processing apparatus that performs motion blur addition processing in the previous stage of encoding will be described with reference to FIGS.
Note that the processing blocks in each drawing are shown as logical components, and each processing block may be in the same casing or in another casing. In each figure, the image processing device 1 surrounded by a broken line or the image processing device 100 also surrounded by a broken line can be considered as the configuration of the embodiment of the first image processing device of the present invention.

図1は、画像処理装置1として動きぼけ付加処理部11を備える構成を示している。或いは画像処理装置100として動きぼけ付加処理部11と符号化処理部2を備える構成を示している。   FIG. 1 shows a configuration including a motion blur addition processing unit 11 as the image processing apparatus 1. Or the structure provided with the motion blur addition process part 11 and the encoding process part 2 as the image processing apparatus 100 is shown.

動きぼけ付加処理部11は、入力された動画像データIDに動きぼけを付加し、後段の符号化処理部2へと出力する。
動きぼけ付加処理部11は、動画像データIDと、当該動画像データIDの各フレームの各領域(領域とは、画素単位又は複数画素による画素ブロック単位)の動き情報MIが入力される。そして動き情報MIを用いて、動画像データID(の各フレーム、各分割領域)に対し適応的にフィルタ処理を行い、動きぼけの付加を実行する。
The motion blur addition processing unit 11 adds motion blur to the input moving image data ID, and outputs the motion blur to the subsequent encoding processing unit 2.
The motion blur addition processing unit 11 receives the moving image data ID and the motion information MI of each region of each frame of the moving image data ID (the region is a pixel unit or a pixel block unit of a plurality of pixels). Then, using the motion information MI, the moving image data ID (each frame and each divided region) is adaptively filtered to add motion blur.

動きぼけ付加処理された動きぼけ画像データBDは、符号化処理部2へと入力し、符号化処理される。
符号化処理部2では、例えばMPEG(Moving Picture Experts Group)規格などに準じた符号化などの圧縮処理が実行される。
動きぼけ画像データBDを圧縮処理した符号化データEDは、上記動画像データIDを直接、符号化処理部2へと入力し符号化したデータに比較して圧縮効率が向上しているものとなる。
The motion blur image data BD subjected to the motion blur addition process is input to the encoding processing unit 2 and is encoded.
In the encoding processing unit 2, for example, compression processing such as encoding conforming to the MPEG (Moving Picture Experts Group) standard is executed.
The encoded data ED obtained by compressing the motion blurred image data BD has improved compression efficiency as compared with data encoded by directly inputting the moving image data ID to the encoding processing unit 2. .

図2により、動画像データに対して動きぼけを付加することにより、圧縮効率が向上する理由について説明する。
ここでは特に、ローパスフィルタを施すことにより圧縮効率が向上することについて説明するが、撮像時の露光期間によって発生する動きぼけを、模擬的に付加することは、ローパスフィルタを実行することの一種であるといえる。
The reason why compression efficiency is improved by adding motion blur to moving image data will be described with reference to FIG.
Here, the compression efficiency is improved particularly by applying a low-pass filter, but adding motion blur generated by the exposure period during imaging is a kind of execution of the low-pass filter. It can be said that there is.

一般に、画像データが圧縮できるのは、近傍画素間相関が高いという性質を持つからであり、より圧縮率を高くするには近傍画素相関をより高くすればよい。
ここで画像を1次元信号とみなし、共分散を導入する。

Figure 0004915468
ここで、共分散はCfg、画像信号はf(x),g(x)、μf,μgはμf=Ex[f(x)],μg=Ex[g(x)]によって与えられる画素値の空間平均値である。 In general, image data can be compressed because it has the property that the correlation between neighboring pixels is high. To increase the compression rate, the neighboring pixel correlation may be increased.
Here, the image is regarded as a one-dimensional signal, and covariance is introduced.
Figure 0004915468
Here, the covariance is Cfg, the image signals are f (x) and g (x), μf and μg are pixel values given by μf = Ex [f (x)] and μg = Ex [g (x)]. Spatial average value.

この(数1)は、f(x),g(x)が近くなれば、f(x)またはg(x)の分散値に近くなり、離れれば0に近づくという性質を持ち、この共分散Cfgにより2つの波形の近さの定量化を行う。   This (Equation 1) has the property that if f (x) and g (x) are close, it will be close to the dispersion value of f (x) or g (x) and close to 0 if it is far away. Cfg quantifies the proximity of two waveforms.

画像を圧縮する場合は、画像信号はf(x)のみであり、近傍画素の近さを定量化する必要がある。
そこで画像信号f(x)を変位u(整数)だけずらした信号をg(x)=f(x+u)とおき(数1)を適用する。
このとき、Ex[f(x)]とEx[g(x)]=Ex[f(x+u)]は等しくなりμとおくと、(数2)となる。

Figure 0004915468
このCff(u)を自己共分関数と呼ぶ。 When compressing an image, the image signal is only f (x), and it is necessary to quantify the proximity of neighboring pixels.
Therefore, a signal obtained by shifting the image signal f (x) by the displacement u (integer) is set as g (x) = f (x + u) (equation 1).
At this time, Ex [f (x)] and Ex [g (x)] = Ex [f (x + u)] are equal to each other and expressed as μ (Equation 2).
Figure 0004915468
This Cff (u) is called a self-shared function.

(数2)を元に、実際の画像信号f(x)における自己共分散をプロットしてみる。
なおCff(u)に対して注目すべきは、値の大小ではなく、原点u=0から離れるに従って、どの程度速く減衰するか、という点である。
まず、図2(a)にまったく変化の無い信号を加えた場合を示す。この場合(数2)の定義からCff(u)は0になることは容易にわかる。
続いて、激しく変化のある画像信号f(x)における自己共分散を図2(b)に示す。
信号に激しく変化のある場合、変位uでずらすと正負が打ち消しあうために自己共分散はu=0からすぐに0に収束する。
続いて、なだらかに変化する画像信号f(x)における自己共分散を図2(c)に示す。
信号はなだらかであるから、変位uでずらしても画素間に相関があるため自己共分散はu=0からならだかに減衰していく。
つまり自己共分散は画素間の相関が低ければu=0から0への収束が早まる離散デルタ関数に近くなる。
Based on (Expression 2), the auto-covariance in the actual image signal f (x) is plotted.
It should be noted that Cff (u) is not the magnitude of the value, but how fast it attenuates as it moves away from the origin u = 0.
First, FIG. 2A shows a case where a signal having no change is added. In this case, it can be easily understood that Cff (u) becomes 0 from the definition of (Equation 2).
Next, FIG. 2B shows the autocovariance in the image signal f (x) that changes drastically.
When there is a drastic change in the signal, if the signal is shifted by the displacement u, the positive and negative values cancel each other, so that the autocovariance converges immediately from u = 0 to 0.
Subsequently, the self-covariance in the image signal f (x) that changes gradually is shown in FIG.
Since the signal is gentle, the auto-covariance gradually attenuates from u = 0 because there is a correlation between the pixels even if the signal is shifted by the displacement u.
That is, the auto-covariance is close to a discrete delta function that quickly converges from u = 0 to 0 when the correlation between pixels is low.

ローパスフィルタをかけた場合、画素間はなだらかになることは明らかであり、なだらかになるということはより画素間の相関が高まるということである。
画素間の相関が高まるということは図2(b)(c)で例示したように,図2(b)の画素間の相関が少ない自己共分散から、図2(c)で示した画素間の相関が多くなる画素信号に変換されるということであり、より圧縮率が高まると言える。
以上は、動画像データにローパスフィルタ処理を行うと、圧縮効率が向上することの説明であるが、動きぼけ付加処理についてもこれと同様のことが言える。
When the low-pass filter is applied, it is clear that the pixels become gentle, and the gentleness means that the correlation between the pixels is further increased.
As illustrated in FIGS. 2B and 2C, the increase in the correlation between pixels is due to the fact that the correlation between the pixels in FIG. That is, it is converted into a pixel signal having a large correlation, and it can be said that the compression rate is further increased.
The above is the explanation that the compression efficiency is improved when the low-pass filter processing is performed on the moving image data, but the same can be said for the motion blur addition processing.

続いて図3は、画像処理装置1として動きぼけ付加処理部11と動きベクトル生成処理部12を備える構成を示している。或いは画像処理装置100として動きぼけ付加処理部11、動きベクトル生成処理部12、符号化処理部2を備える構成を示している。
この図3は、図1における動き情報MIの例として、動きベクトルVDを用いる構成例となる。
Next, FIG. 3 illustrates a configuration including a motion blur addition processing unit 11 and a motion vector generation processing unit 12 as the image processing apparatus 1. Or the structure provided with the motion blur addition process part 11, the motion vector production | generation process part 12, and the encoding process part 2 as the image processing apparatus 100 is shown.
FIG. 3 shows a configuration example using a motion vector VD as an example of the motion information MI in FIG.

動きベクトル生成処理部12は、入力された動画像データIDの各フレームの各領域(領域とは、画素単位又は複数画素による画素ブロック単位)の動きベクトルVDを生成する。
動きぼけ付加処理部11は、入力された動画像データIDについて、動きベクトルVDを用いて、動画像データID(の各フレーム、各分割領域)に対し適応的にフィルタ処理を行い、動きぼけの付加を実行する。
動きぼけ付加処理された動きぼけ画像データBDは、符号化処理部2へと入力し、例えばMPEG圧縮等の符号化処理される。
この場合も、動きぼけ画像データBDを圧縮処理した符号化データEDは、上記動画像データIDを直接、符号化処理部2へと入力し符号化したデータに比較して圧縮効率が向上しているものとなる。
The motion vector generation processing unit 12 generates a motion vector VD for each region (a region is a pixel unit or a pixel block unit including a plurality of pixels) of each frame of the input moving image data ID.
The motion blur addition processing unit 11 adaptively performs a filtering process on the input video image data ID with respect to the video image data ID (each frame and each divided region) using the motion vector VD. Perform appending.
The motion blur image data BD subjected to the motion blur addition process is input to the encoding processing unit 2 and subjected to an encoding process such as MPEG compression.
Also in this case, the encoded data ED obtained by compressing the motion blurred image data BD has improved compression efficiency compared to the data encoded by directly inputting the moving image data ID to the encoding processing unit 2. It will be what.

次に図4は、符号化処理部2内で用いる動きベクトルを動きぼけ付加処理に利用する構成例である。
図4には、符号化処理部2内の構成として基本的なMPEG符号化の処理ブロックを示している。
Next, FIG. 4 is a configuration example in which a motion vector used in the encoding processing unit 2 is used for motion blur addition processing.
FIG. 4 shows a basic MPEG encoding processing block as a configuration in the encoding processing unit 2.

動きぼけ付加処理部11に入力される動画像データIDは、符号化処理部2内の動きベクトル生成処理部210にも入力される。
動きベクトル生成処理部210は、隣接する2つのピクチャー間の動きを検出し、動きベクトルを生成して動き補償部209及びエントロピー符号化部204に出力する。
減算部201は、動きぼけ付加処理部11から入力される動画像データから、動き補償部209が動き補償した画像データを減算し、DCT処理部202に対して出力する。
DCT部202は、減算部201から入力された動画像データに対してDCT処理を行い、DCT係数を生成して量子化部203に対して出力する。
The moving image data ID input to the motion blur addition processing unit 11 is also input to the motion vector generation processing unit 210 in the encoding processing unit 2.
The motion vector generation processing unit 210 detects a motion between two adjacent pictures, generates a motion vector, and outputs the motion vector to the motion compensation unit 209 and the entropy encoding unit 204.
The subtraction unit 201 subtracts the image data compensated for motion by the motion compensation unit 209 from the moving image data input from the motion blur addition processing unit 11, and outputs the result to the DCT processing unit 202.
The DCT unit 202 performs DCT processing on the moving image data input from the subtraction unit 201, generates DCT coefficients, and outputs the DCT coefficients to the quantization unit 203.

量子化部203は、DCT部202から入力されたDCT係数を量子化して量子化データを生成し、エントロピー符号化部204および逆量子化部205に対して出力する。
逆量子化部205は、量子化部203から入力された量子化データを逆量子化してDCT係数を生成し、逆DCT部206に対して出力する。
逆DCT部206は、逆量子化部205から入力されたDCT係数を逆DCT処理して画像データを生成し、加算部207に対して出力する。
加算部207は、動き補償部209が動き補償した画像データと、逆DCT部206から入力された画像データを加算して、フレームメモリ208に出力する。フレームメモリ208に一時的に格納された画像データは、動き補償部209に出力され、また動きベクトル生成処理部210に対し、動きベクトル生成に用いる過去フレームの画像データとして供給される。
The quantization unit 203 quantizes the DCT coefficient input from the DCT unit 202 to generate quantized data, and outputs the quantized data to the entropy encoding unit 204 and the inverse quantization unit 205.
The inverse quantization unit 205 performs inverse quantization on the quantized data input from the quantization unit 203 to generate a DCT coefficient, and outputs the DCT coefficient to the inverse DCT unit 206.
The inverse DCT unit 206 performs inverse DCT processing on the DCT coefficient input from the inverse quantization unit 205 to generate image data, and outputs the image data to the addition unit 207.
The adder 207 adds the image data subjected to motion compensation by the motion compensator 209 and the image data input from the inverse DCT unit 206 and outputs the result to the frame memory 208. The image data temporarily stored in the frame memory 208 is output to the motion compensation unit 209 and supplied to the motion vector generation processing unit 210 as image data of a past frame used for motion vector generation.

動き補償部209は、動きベクトル生成処理部210から入力された動きベクトルに基づいて、加算部207からフレームメモリ208を介して入力された画像データを動き補償処理し、加算部207および減算部201に対して出力する。
エントロピー符号化部204は、量子化部203から入力された量子化データを可変長符号化処理し、圧縮画像データ(符号化データED)を生成し、出力する。
Based on the motion vector input from the motion vector generation processing unit 210, the motion compensation unit 209 performs motion compensation processing on the image data input from the addition unit 207 via the frame memory 208, and adds the addition unit 207 and the subtraction unit 201. Output for.
The entropy encoding unit 204 performs variable-length encoding processing on the quantized data input from the quantization unit 203, generates compressed image data (encoded data ED), and outputs the compressed image data.

この図4の構成では、動きベクトル生成処理部210で生成される動きベクトル、つまりMPEG圧縮処理に用いる動きベクトルを動きぼけ付加処理部11に供給する。そして動きぼけ付加処理部11では、この供給された動きベクトルを用いて動きぼけ付加処理を行う。
この例のように、MPEG方式のような画像の動き情報に基づいた予測符号化において、その符号化処理過程で生成される動きベクトルを利用することも考えられる。
なお、図示は省略するが、例えば図3のように動きぼけ付加処理のために動きぼけ付加処理部11によって生成される動きベクトルVDを、符号化処理部2に供給して、符号化処理部2で動きベクトルVDを用いた予測符号化処理が行われるようにしてもよい。
In the configuration of FIG. 4, the motion vector generated by the motion vector generation processing unit 210, that is, the motion vector used for MPEG compression processing is supplied to the motion blur addition processing unit 11. The motion blur addition processing unit 11 performs motion blur addition processing using the supplied motion vector.
As in this example, in predictive encoding based on motion information of an image like the MPEG system, it is also conceivable to use a motion vector generated in the encoding process.
Although illustration is omitted, for example, as shown in FIG. 3, the motion vector VD generated by the motion blur addition processing unit 11 for the motion blur addition processing is supplied to the encoding processing unit 2, and the encoding processing unit 2 may perform the predictive encoding process using the motion vector VD.

これらの第1の画像処理装置1(又は100)では、動画像中の動き情報を用いて適応的に、撮像時の露光期間に起因する動きぼけを模擬したローパスフィルタを画像に適用する、画像処理による動きぼけ付加を実行することになる。これにより、動画像の観察者にとって自然な画質を提示しつつ、符号化効率の向上を行うことを可能とする。
そして動きぼけを模擬したローパスフィルタを適用することにより、空間的に一様なローパスフィルタを実行した場合と比較して、動画像の観察者にとって自然な画質を提示しつつ、符号化効率の向上を行うことを可能とする。
また、動き情報を参照し、領域ごとに適用的なフィルタリングを行うものであるため、特に高速に被写体が移動する領域においては、広範囲に渡る高強度なローパスフィルタを採用しても、画質を維持しつつ、空間的に一様なローパスフィルタを実行した場合と比較して、符号化効率の向上が期待できる。
そしてその上で第1の画像処理装置1(又は100)では、ジャーキネス劣化の低減を可能とするものである。
These first image processing apparatuses 1 (or 100) adaptively apply a low-pass filter that simulates motion blur caused by an exposure period during imaging to an image using motion information in a moving image. Motion blur addition by processing is executed. Thereby, it is possible to improve the encoding efficiency while presenting a natural image quality for the observer of the moving image.
By applying a low-pass filter that simulates motion blur, compared to the case where a spatially uniform low-pass filter is executed, the image quality that is natural for the observer of the moving image is presented and the encoding efficiency is improved. It is possible to perform.
In addition, because it refers to motion information and performs appropriate filtering for each area, the image quality is maintained even when a wide range of high-intensity low-pass filters are used, especially in areas where the subject moves at high speed. However, an improvement in encoding efficiency can be expected as compared with a case where a spatially uniform low-pass filter is executed.
In addition, the first image processing apparatus 1 (or 100) enables reduction of jerkiness deterioration.

[1−2:動きベクトル生成処理部]

以上のように第1の画像処理装置1(又は100)の構成例は各種考えられる。以下では、図3に示した構成例を基本とし、動きベクトル生成処理部12及び動きぼけ付加処理部11について、詳細な構成例を説明する。
[1-2: Motion vector generation processing unit]

As described above, various configuration examples of the first image processing apparatus 1 (or 100) are conceivable. In the following, a detailed configuration example of the motion vector generation processing unit 12 and the motion blur addition processing unit 11 will be described based on the configuration example shown in FIG.

ここではまず、動きベクトル生成処理部12の構成と動作について図5,図6を用いて説明する。
動きベクトル生成処理部12は、画素又は画素ブロック単位としての領域毎で動きベクトルを精度良く生成する部位である。具体的には図5に示すように、動きベクトル検出部121、画素ブロック特定処理部122、動きベクトル推定処理部123、動きベクトル平滑化処理部124、及び遅延部121a,122aを有する。
First, the configuration and operation of the motion vector generation processing unit 12 will be described with reference to FIGS.
The motion vector generation processing unit 12 is a part that accurately generates a motion vector for each region as a pixel or a pixel block unit. Specifically, as shown in FIG. 5, it has a motion vector detection unit 121, a pixel block identification processing unit 122, a motion vector estimation processing unit 123, a motion vector smoothing processing unit 124, and delay units 121a and 122a.

動きベクトル検出部121は、処理対象フレームと直前フレームとから動きベクトルを検出する。
画素ブロック特定処理部122は、処理対象フレームの動きベクトルと直前フレームの動きベクトルとを画素ブロック毎に比較して、相関の高い画素ブロックを特定する。
動きベクトル推定処理部123は、画素ブロック特定処理部122により特定された画素ブロックの動きベクトルから、それ以外の画素ブロックの動きベクトルを推定する。
動きベクトル平滑化処理部124は、動きベクトルに対して平滑化処理を施す。
The motion vector detection unit 121 detects a motion vector from the processing target frame and the previous frame.
The pixel block identification processing unit 122 compares the motion vector of the processing target frame and the motion vector of the immediately preceding frame for each pixel block, and identifies a pixel block having a high correlation.
The motion vector estimation processing unit 123 estimates the motion vectors of the other pixel blocks from the motion vector of the pixel block specified by the pixel block specification processing unit 122.
The motion vector smoothing processing unit 124 performs a smoothing process on the motion vector.

図3のように入力される動画像データIDは、動きベクトル検出部121と、動画像データIDを1フレーム分遅延させる遅延部121aに供給される。
動きベクトル検出部121は、供給された動画像データIDを処理対象フレームとする。そして当該処理対象フレームと、遅延部121aにより1フレーム分遅延された直前フレームとから、処理対象フレームの動きベクトルを、例えば画素ブロック単位で検出する。
なお、動きベクトル検出部121に係る処理をソフトウェアによって実装する場合には、一般的なブロックマッチング法を用いて画素ブロック単位で動きベクトルを検出すればよい。
The moving image data ID input as shown in FIG. 3 is supplied to the motion vector detection unit 121 and the delay unit 121a that delays the moving image data ID by one frame.
The motion vector detection unit 121 sets the supplied moving image data ID as a processing target frame. Then, the motion vector of the processing target frame is detected, for example, in units of pixel blocks from the processing target frame and the immediately preceding frame delayed by one frame by the delay unit 121a.
When the processing related to the motion vector detection unit 121 is implemented by software, a motion vector may be detected in units of pixel blocks using a general block matching method.

動きベクトル検出部121で検出された動きベクトルは、画素ブロック特定処理部122と遅延部122aに供給される。遅延部122aは入力された動きベクトルを1フレーム分遅延させる。
画素ブロック特定処理部122は、動きベクトル検出部121から供給される処理対象フレームの動きベクトルと、遅延部122aにより遅延された直前フレームの動きベクトルとを、次に示すように画素ブロック単位で比較して、この比較結果から相関の高い画素ブロックを特定する。
The motion vector detected by the motion vector detection unit 121 is supplied to the pixel block identification processing unit 122 and the delay unit 122a. The delay unit 122a delays the input motion vector by one frame.
The pixel block identification processing unit 122 compares the motion vector of the processing target frame supplied from the motion vector detection unit 121 and the motion vector of the immediately preceding frame delayed by the delay unit 122a in units of pixel blocks as shown below. Then, a pixel block having a high correlation is specified from the comparison result.

具体的に、画素ブロック特定処理部122は、処理対象フレームの一の画素ブロックの動きベクトルを(x,y)とし、これに対応する直前フレームの画素ブロックの動きベクトルを(x’,y’)とし、任意に決定される相関判定係数をαとして、次の(数3)により、この画素ブロックのベクトル相関係数σを算出する。   Specifically, the pixel block identification processing unit 122 sets (x, y) as the motion vector of one pixel block of the processing target frame, and (x ′, y ′) as the motion vector of the pixel block in the immediately preceding frame corresponding thereto. ), And arbitrarily determined correlation determination coefficient α, the vector correlation coefficient σ of this pixel block is calculated by the following (Equation 3).

Figure 0004915468
なお、相関判定係数αは、その定義域を0<α<1とし、αの値が大きいほど、ベクトル相関係数σの値が1として算出される係数である。
Figure 0004915468
The correlation determination coefficient α is a coefficient that is calculated such that the domain is 0 <α <1 and the value of the vector correlation coefficient σ is 1 as the value of α increases.

そして画素ブロック特定処理部122は、上述した(数3)から各画素ブロックのベクトル相関係数σを算出して、ベクトル相関係数σが1である画素ブロックを相関の高い動きベクトルを有するものとして特定する。   Then, the pixel block identification processing unit 122 calculates the vector correlation coefficient σ of each pixel block from (Equation 3) described above, and the pixel block having the vector correlation coefficient σ of 1 has a highly correlated motion vector As specified.

動きベクトル推定処理部123は、画素ブロック特定処理部122でベクトル相関係数σの値が1として特定された画素ブロックの動きベクトルから、このベクトル相関係数σの値が0である画素ブロックの動きベクトルを推定する。
即ち動きベクトル推定処理部123は、前段の画素ブロック特定処理部122で、ベクトル相関係数σの値が1とされた画素ブロックが有効な動きベクトルを有しているものとして、それ以外の画素ブロック、つまりベクトル相関係数σの値が0とされ有効ではない動きベクトルを有している画素ブロックの動きベクトルを更新する。
The motion vector estimation processing unit 123 calculates a pixel block having a vector correlation coefficient σ of 0 from the motion vector of the pixel block identified by the pixel block identification processing unit 122 as having a vector correlation coefficient σ of 1. Estimate motion vectors.
In other words, the motion vector estimation processing unit 123 assumes that the pixel block specifying processing unit 122 in the previous stage has a valid motion vector for the pixel block having the value of the vector correlation coefficient σ of 1, and other pixels. The motion vector of a block, that is, a pixel block having a motion vector that is not valid with the value of the vector correlation coefficient σ being 0 is updated.

具体的な動きベクトル推定処理部123の処理工程について、図6を参照して詳細に説明する。
ステップS1において、動きベクトル推定処理部123は、処理対象フレームにおける現在の処理対象の画素ブロック(以下、注目画素ブロックという。)のベクトル相関係数σが1か0であるかを判断する。すなわち、動きベクトル推定処理部123は、この画素ブロックの動きベクトルが有効であるか否かを判断する。そして、動きベクトル推定処理部123は、この画素ブロックの動きベクトルが有効であるとき動きベクトルの値を更新せずに本処理工程を終了し、この画素ブロックの動きベクトルが有効でないときステップS2に進む。
Specific processing steps of the motion vector estimation processing unit 123 will be described in detail with reference to FIG.
In step S <b> 1, the motion vector estimation processing unit 123 determines whether the vector correlation coefficient σ of the current pixel block to be processed (hereinafter referred to as the target pixel block) in the processing target frame is 1 or 0. That is, the motion vector estimation processing unit 123 determines whether or not the motion vector of this pixel block is valid. Then, the motion vector estimation processing unit 123 ends this processing step without updating the value of the motion vector when the motion vector of the pixel block is valid, and proceeds to step S2 when the motion vector of the pixel block is not valid. move on.

ステップS2において、動きベクトル推定処理部123は、注目画素ブロックに対して、その注目画素ブロックの周辺に有効なベクトルを有する周辺画素ブロックが存在するか否かを判断する。具体的には、動きベクトル推定処理部123は、周辺画素ブロックとして、この注目画素ブロックに隣接する合計8つの画素ブロックに対して有効な動きベクトルが存在するか否かを判断し、有効な動きベクトルが存在するとき、ステップS3に進み、有効な動きベクトルが存在しないとき、この注目画素ブロックの動きベクトルを更新せずに本処理工程を終了する。   In step S <b> 2, the motion vector estimation processing unit 123 determines whether there is a peripheral pixel block having a valid vector around the target pixel block for the target pixel block. Specifically, the motion vector estimation processing unit 123 determines whether there are valid motion vectors for a total of eight pixel blocks adjacent to the pixel block of interest as peripheral pixel blocks, and performs effective motion. When the vector exists, the process proceeds to step S3, and when the effective motion vector does not exist, this processing step is terminated without updating the motion vector of the pixel block of interest.

ここで、有効な動きベクトルが存在しない注目画素ブロックに対して、より広範囲に位置する周辺画素ブロックを用いて推定処理を行わない理由は、次の通りである。
第1の理由としては、より広範囲に位置する画素ブロックを用いて推定処理を行うことは可能であるが、仮に実現したとしても、固定時間処理で本処理工程を終了するためには、周辺画素ブロックとして扱われる画像データを一時的に記憶するための記憶領域が増大してしまうからである。
第2の理由としては、本処理工程の後段で、上述した隣接する合計8つの画素ブロックよりも広範囲の周辺画素ブロックを用いて注目画素ブロックの動きベクトルに対して平滑化処理を施すことにより、有効ではない動きベクトルを適切に補正することができるからである。
Here, the reason why the estimation process is not performed using the neighboring pixel blocks located in a wider range with respect to the target pixel block having no effective motion vector is as follows.
As a first reason, although it is possible to perform estimation processing using pixel blocks located in a wider range, even if it is realized, in order to end this processing step in fixed time processing, peripheral pixels This is because the storage area for temporarily storing image data handled as blocks increases.
As a second reason, by performing the smoothing process on the motion vector of the pixel block of interest using a wider range of peripheral pixel blocks than the total of the adjacent eight pixel blocks described above, in the subsequent stage of this processing step, This is because an invalid motion vector can be corrected appropriately.

ステップS3において、動きベクトル推定処理部123は、有効な動きベクトルを有する周辺画素ブロックの動きベクトルのみから、この注目画素ブロックの動きベクトルを推定して更新して、本処理を終了する。動きベクトル推定処理部123では、推定処理の一例として、有効な動きベクトルを有する周辺画素ブロックの動きベクトルのみを入力としたメディアンフィルタにより注目画素ブロックの動きベクトルを出力して平滑化する。   In step S <b> 3, the motion vector estimation processing unit 123 estimates and updates the motion vector of this pixel block of interest from only the motion vectors of the surrounding pixel blocks having an effective motion vector, and ends this processing. As an example of the estimation process, the motion vector estimation processing unit 123 outputs and smoothes the motion vector of the pixel block of interest using a median filter that receives only the motion vectors of the neighboring pixel blocks having an effective motion vector.

動きベクトル推定処理部123は、以上のようにして、処理対象フレームの動きベクトルを画素ブロック単位で推定する。そして、動きベクトル推定処理部123は、画素ブロック特定処理部122で特定された動きベクトルを含めた動きベクトルを、動きベクトル平滑化処理部124に供給する。   The motion vector estimation processing unit 123 estimates the motion vector of the processing target frame in units of pixel blocks as described above. Then, the motion vector estimation processing unit 123 supplies a motion vector including the motion vector specified by the pixel block specifying processing unit 122 to the motion vector smoothing processing unit 124.

動きベクトル平滑化処理部124は、処理対象画像を構成する各画素ブロックの動きベクトルに対して平滑化処理を施す。具体的に、動きベクトル平滑化処理部124は、平滑化処理前の注目画素ブロックの動きベクトルと上述した隣接画素ブロックよりも広範囲の周辺画素ブロックの動きベクトルとを入力I(x+i,y+j)として、下記に示す(数4)に示すようなガウス型関数により、平滑化処理後の注目画素ブロックの動きベクトルJ(x,y)を出力する。   The motion vector smoothing processing unit 124 performs a smoothing process on the motion vector of each pixel block constituting the processing target image. Specifically, the motion vector smoothing processing unit 124 uses, as an input I (x + i, y + j), the motion vector of the target pixel block before the smoothing process and the motion vector of a peripheral pixel block having a wider range than the adjacent pixel block described above. The motion vector J (x, y) of the pixel block of interest after the smoothing process is output by a Gaussian function as shown in (Equation 4) shown below.

Figure 0004915468
ここで、rは注目画素ブロックと各周辺画素ブロックとの2次元空間上の距離を示し、σ2はこの距離rについての分散を示し、t2は動きベクトルについての分散を示している。すなわち、σ2及びt2は、平滑化の度合いを表す値として任意に設定されるパラメータとなっている。
Figure 0004915468
Here, r indicates the distance in the two-dimensional space between the pixel block of interest and each peripheral pixel block, σ2 indicates the variance for this distance r, and t2 indicates the variance for the motion vector. That is, σ2 and t2 are parameters that are arbitrarily set as values representing the degree of smoothing.

動きベクトル平滑化処理部124は、処理対象フレームを構成する各画素ブロックに対して上述した平滑化処理を施して、動きベクトルVDを動きぼけ付加処理部11に供給する。   The motion vector smoothing processing unit 124 performs the above-described smoothing processing on each pixel block constituting the processing target frame, and supplies the motion vector VD to the motion blur addition processing unit 11.

このように、動きベクトル平滑化処理部124は、処理対象フレームを構成する各画素ブロックから、有効な動きベクトルを有する画素ブロックを特定し、この有効な動きベクトルからそれ以外の動きベクトルを推定する。このため精度良く実際の動体の動きに応じた動きベクトルを生成することができる。
なお、動きベクトル生成処理部12では、動きベクトル検出部121により検出した動きベクトルを、画素ブロック特定処理部122及び動きベクトル推定処理部123を介さずに、直接動きベクトル平滑化処理部124に供給して平滑化処理を施してもよい。このような処理を行った場合にも、上述した符号化情報として動きベクトルに比べて、実際の動体の動きに応じた精度の良い動きベクトルを生成することができる。
As described above, the motion vector smoothing processing unit 124 identifies a pixel block having an effective motion vector from each pixel block constituting the processing target frame, and estimates other motion vectors from the effective motion vector. . Therefore, it is possible to generate a motion vector according to the actual motion of the moving object with high accuracy.
The motion vector generation processing unit 12 directly supplies the motion vector detected by the motion vector detection unit 121 to the motion vector smoothing processing unit 124 without going through the pixel block specifying processing unit 122 and the motion vector estimation processing unit 123. Then, a smoothing process may be performed. Even when such processing is performed, it is possible to generate a motion vector with higher accuracy corresponding to the actual motion of the moving object than the motion vector as the encoded information described above.

[1−3:動きぼけ付加処理部]

続いて動きぼけ付加処理部11の構成例を説明する。
なお、動きぼけ付加処理部11としては、図7の構成例と図12の構成例の2つの例を説明する。
[1-3: Motion blur addition processing unit]

Next, a configuration example of the motion blur addition processing unit 11 will be described.
As the motion blur addition processing unit 11, two examples of the configuration example of FIG. 7 and the configuration example of FIG. 12 will be described.

まず図7の例としての動きぼけ付加処理部11について説明する。
動きぼけ付加処理部11は、図7に示すように、動きぼけを付加する画像領域を特定する動きベクトルマスク情報を生成する動きベクトルマスク処理部113を備える。
また動きぼけ付加処理部11は、動きベクトルに応じて適したシャッタ速度(以下、最適シャッタ速度情報という)を算出するとともに、この最適シャッタ速度情報と実際に動画像が撮像されたときのシャッタ速度情報とを比較して後述する判別処理を行う最適シャッタ速度算出/判別部114を備える。
また動きぼけ付加処理部11は、最適シャッタ速度算出/判別部114の判別結果に基づいて動きベクトルを補正する動きベクトル補正部115を備える。
また動きぼけ付加処理部11は、処理対象フレームの各画素に応じた動きぼけ付加のためのフィルタパラメータを算出するフィルタパラメータ算出部111を備える。
また動きぼけ付加処理部11は、処理対象フレームの各画素の画素値に対して動きぼけフィルタ処理を施す動きぼけ付加フィルタ112を備える。
First, the motion blur addition processing unit 11 as an example of FIG. 7 will be described.
As illustrated in FIG. 7, the motion blur addition processing unit 11 includes a motion vector mask processing unit 113 that generates motion vector mask information for specifying an image region to which motion blur is added.
In addition, the motion blur addition processing unit 11 calculates a shutter speed suitable for the motion vector (hereinafter referred to as optimum shutter speed information), and the shutter speed when the optimum shutter speed information and a moving image are actually captured. An optimum shutter speed calculation / discrimination unit 114 is provided that performs discrimination processing described later by comparing the information.
The motion blur addition processing unit 11 includes a motion vector correction unit 115 that corrects a motion vector based on the determination result of the optimum shutter speed calculation / discrimination unit 114.
The motion blur addition processing unit 11 includes a filter parameter calculation unit 111 that calculates a filter parameter for motion blur addition corresponding to each pixel of the processing target frame.
The motion blur addition processing unit 11 includes a motion blur addition filter 112 that performs motion blur filter processing on the pixel value of each pixel of the processing target frame.

ここで、画素単位で全ての処理を行うことも可能であるが、演算処理の負担を軽減するため、動きぼけ付加処理部11では、動きベクトルマスク処理部113、最適シャッタ速度算出/判別部114、及び動きベクトル補正部115に係る処理を、画素ブロック単位で行うものとする。
また、フィルタパラメータ算出部111、及び、動きぼけ付加フィルタ112は、動画像データIDに動きぼけを付加するフィルタ処理に当たるため、画素ブロックではなく、画素単位で行う。
動きベクトルマスク処理部113は、処理対象フレームのうち、動きぼけを付加する画像領域を特定するため、動きベクトル生成処理部12から供給される画素ブロック単位の動きベクトルVDに対して、図8に示すようなマスク処理を施す。そして、マスク処理後の画素ブロック単位の動きベクトルを最適シャッタ速度算出/判別部114及び動きベクトル補正部115に供給する。
Here, it is possible to perform all processing in units of pixels. However, in order to reduce the burden of calculation processing, the motion blur addition processing unit 11 includes a motion vector mask processing unit 113 and an optimum shutter speed calculation / discrimination unit 114. , And the processing related to the motion vector correction unit 115 is performed in units of pixel blocks.
In addition, the filter parameter calculation unit 111 and the motion blur addition filter 112 perform a filter process for adding motion blur to the moving image data ID.
The motion vector mask processing unit 113 specifies a pixel block-based motion vector VD supplied from the motion vector generation processing unit 12 in order to identify an image region to which motion blur is to be added in the processing target frame. A mask process as shown is applied. Then, the motion vector for each pixel block after the mask processing is supplied to the optimum shutter speed calculation / discrimination unit 114 and the motion vector correction unit 115.

動きぼけを付加する必要がある、ジャーキネス劣化が発生しやすい画像領域は、特に画面内の動体画像領域及びエッジ周辺の画像領域に集中する。
よって、動きベクトルマスク処理部113では、図8に示す処理により、ジャーキネスが発生しやすい、空間コントラストの高いエッジ周辺の画素ブロックの動きベクトルだけ有効な値として出力する。
すなわち、ステップS11において、動きベクトルマスク処理部113は、入力される動画像データIDに対し、画素ブロック単位で、処理対象フレーム内の空間コントラストの高い領域を特定するための処理として画像のエッジを検出する。
またステップS11の処理と並列して、ステップS12において、動きベクトルマスク処理部113は、処理対象フレーム内の動体領域を特定するための処理を行う。即ちフレーム間での差分を画素ブロック単位で算出することによって動体画像領域を検出する。
The image area where jerkiness is likely to occur, which needs to add motion blur, is concentrated particularly on the moving body image area and the image area around the edge in the screen.
Therefore, the motion vector mask processing unit 113 outputs only the motion vectors of the pixel blocks in the vicinity of the edge with high spatial contrast, in which jerkiness is likely to occur, by the processing shown in FIG.
In other words, in step S11, the motion vector mask processing unit 113 uses the edge of the image as processing for specifying a region having a high spatial contrast in the processing target frame in units of pixel blocks for the input moving image data ID. To detect.
In parallel with the process in step S11, in step S12, the motion vector mask processing unit 113 performs a process for specifying a moving object region in the processing target frame. That is, the moving body image area is detected by calculating the difference between frames in units of pixel blocks.

ステップS13において、動きベクトルマスク処理部113は、上述したステップS11及びステップS12の何れか一方又は両方に係る処理で、ジャーキネス劣化が発生しやすい領域として検出されたか否かを、画素ブロック単位で判断する。そして、ジャーキネス劣化が発生しやすい領域と判断した画素ブロックに対して、動きベクトルマスク処理部113は、マスク処理用のフラグを「1」に設定する。また、ジャーキネスが発生しやすい領域と判断されなかった画素ブロックに対して、動きベクトルマスク処理部113は、マスク処理用のフラグを「0」に設定する。   In step S13, the motion vector mask processing unit 113 determines in pixel block units whether or not a region in which jerkiness degradation is likely to occur is detected in the processing related to one or both of step S11 and step S12 described above. To do. Then, the motion vector mask processing unit 113 sets the mask processing flag to “1” for the pixel block that is determined to be an area where jerkiness is likely to occur. Further, the motion vector mask processing unit 113 sets a mask processing flag to “0” for a pixel block that is not determined to be an area where jerkiness is likely to occur.

ステップS14において、動きベクトルマスク処理部113は、動きベクトル生成処理部12から供給される動きベクトルVDに対して、上述したフラグが「1」に設定されている画素ブロックの動きベクトルVDであるか否かを判断する。
動きベクトルマスク処理部113は、フラグが「1」に設定されている画素ブロックの動きベクトルに対しては、その値を変えずに、後段の最適シャッタ速度算出/判別部114及び動きベクトル補正部115に出力する。
また、動きベクトルマスク処理部113は、フラグが「0」に設定されている画素ブロックの動きベクトルに対しては、ステップS15において、動きベクトルの値を0又は無効にするマスク処理を施して、後段の最適シャッタ速度算出/判別部114及び動きベクトル補正部115に出力する。
In step S <b> 14, the motion vector mask processing unit 113 is the motion vector VD of the pixel block whose flag is set to “1” with respect to the motion vector VD supplied from the motion vector generation processing unit 12. Judge whether or not.
The motion vector mask processing unit 113 does not change the value of the motion vector of the pixel block for which the flag is set to “1”, and does not change the value of the optimal shutter speed calculation / determination unit 114 and the motion vector correction unit at the subsequent stage. 115.
In addition, the motion vector mask processing unit 113 performs a mask process for making the value of the motion vector 0 or invalid in step S15 for the motion vector of the pixel block whose flag is set to “0”. This is output to the optimum shutter speed calculation / discrimination unit 114 and the motion vector correction unit 115 in the subsequent stage.

次に最適シャッタ速度算出/判別部114、及び動きベクトル補正部115に係る処理工程について図9を用いて説明する。
ステップS31として、最適シャッタ速度算出/判別部114は、例えば図10に示すような評価指標に基づいて処理対象フレームの各画素ブロックの動きベクトルに応じた最適シャッタ速度を算出する。
Next, processing steps relating to the optimum shutter speed calculation / discrimination unit 114 and the motion vector correction unit 115 will be described with reference to FIG.
As step S31, the optimum shutter speed calculation / discrimination unit 114 calculates the optimum shutter speed according to the motion vector of each pixel block of the processing target frame, for example, based on an evaluation index as shown in FIG.

ここで、図10は、動きベクトルとして検出される動体の移動速度を示す被写体速度と、この被写体速度に応じた最適シャッタ速度曲線を表した図である。また、最適シャッタ速度とは、被写体の移動速度に応じた、視覚特性上、ジャーキネス劣化が知覚されにくく、且つ、動きぼけが過度に付加されることによって被写体のディテールが欠損したり不鮮明になるぼけ劣化も知覚されにくいシャッタ速度である。すなわち、この最適シャッタ速度よりも速いシャッタ速度で被写体を撮像すると、撮像画像には、ジャーキネス劣化が生じていると判断できる。一方、この最適シャッタ速度よりも遅いシャッタ速度で被写体を撮像すると、撮像画像には、ぼけ劣化が生じていると判断することができる。
そこで、最適シャッタ速度算出/判別部114は、各画素ブロックの動きベクトルを図10中の被写体速度に対応させることにより、各画素の動きベクトルに応じた最適シャッタ速度を算出する。
Here, FIG. 10 is a diagram showing a subject speed indicating a moving speed of a moving object detected as a motion vector and an optimum shutter speed curve corresponding to the subject speed. The optimal shutter speed is a blur that makes it difficult to perceive deterioration of jerkiness in terms of visual characteristics according to the moving speed of the subject, and that details of the subject are lost or blurred due to excessive motion blur. It is a shutter speed at which deterioration is hardly perceived. That is, if a subject is imaged at a shutter speed faster than the optimum shutter speed, it can be determined that jerkiness degradation has occurred in the captured image. On the other hand, if a subject is imaged at a shutter speed slower than the optimum shutter speed, it can be determined that the captured image has been blurred.
Therefore, the optimum shutter speed calculation / discrimination unit 114 calculates the optimum shutter speed corresponding to the motion vector of each pixel by associating the motion vector of each pixel block with the subject speed in FIG.

なお、図10の実線で示されている最適シャッタ速度曲線SS0は、任意の被写体速度と最適なシャッタ速度との対応関係を示した一例であって、具体的には心理実験に基づいて得られた実験結果値を結んだ曲線である。
ここで、図10に示す動きぼけ領域A1は、最適シャッタ速度曲線SS0に基づいて、被写体の動きによる動きぼけが過度に含まれると判別される領域である。同様にして、ジャーキネス領域A2は、最適シャッタ速度曲線SS0に基づいて、被写体の動きによる動きぼけが含まれず、視覚特性上ジャーキネス劣化が生じていると判別される領域である。
この実線で示されている最適シャッタ速度曲線SS0を直接用いて、動きベクトルに応じた最適シャッタ速度を求める場合には、任意の刻み幅で動きベクトルに応じた最適シャッタ速度情報をテーブルとして記憶媒体に予め記憶して、この記録媒体を参照すればよい。
Note that the optimum shutter speed curve SS0 shown by the solid line in FIG. 10 is an example showing the correspondence between an arbitrary subject speed and the optimum shutter speed, and is specifically obtained based on a psychological experiment. It is a curve connecting the experimental result values.
Here, the motion blur area A1 shown in FIG. 10 is an area where it is determined that the motion blur due to the motion of the subject is excessively included based on the optimum shutter speed curve SS0. Similarly, the jerkiness area A2 is an area where it is determined that jerkiness deterioration has occurred in visual characteristics based on the optimum shutter speed curve SS0 without motion blur due to the movement of the subject.
When the optimum shutter speed curve SS0 indicated by the solid line is directly used to obtain the optimum shutter speed corresponding to the motion vector, the optimum shutter speed information corresponding to the motion vector at an arbitrary step size is stored as a table. In advance, the recording medium may be referred to.

また、本実施の形態では、この実線で示された最適シャッタ速度曲線に近似する関数を用いることにより、動きベクトルに応じた最適シャッタ速度を算出するようにしてもよい。
この場合、最適シャッタ速度算出/判別部114は、ある画素ブロックでの動きベクトルをvとして、下記の(数5)に示す最適シャッタ速度曲線の近似関数により最適シャッタ速度SSD’を算出する。

Figure 0004915468
なお、この(数5)における各パラメータA、B、γは、図10中に示す最適シャッタ速度曲線の曲線形状に応じて適当な値を選択して用いるようにすればよい。シャッタ速度曲線の具体例として、図10では、(数5)中の各パラメータのうち、A、Bの値を固定にして、γを3段階に変化させたときの曲線形状SS1〜SS3を示している。 In the present embodiment, the optimum shutter speed corresponding to the motion vector may be calculated by using a function that approximates the optimum shutter speed curve indicated by the solid line.
In this case, the optimum shutter speed calculation / discrimination unit 114 calculates the optimum shutter speed SSD ′ by using an approximate function of the optimum shutter speed curve shown in the following (Equation 5), where v is a motion vector in a certain pixel block.
Figure 0004915468
The parameters A, B, and γ in (Equation 5) may be selected and used in accordance with the curve shape of the optimum shutter speed curve shown in FIG. As a specific example of the shutter speed curve, FIG. 10 shows curve shapes SS1 to SS3 when the values of A and B among the parameters in (Equation 5) are fixed and γ is changed in three stages. ing.

動きベクトルに応じた最適シャッタ速度SSD’が算出されると、図9のステップS32において、最適シャッタ速度算出/判別部114は、この最適シャッタ速度SSD’と、実際に撮像されたシャッタ速度SSDとを比較して、画素ブロック単位で図10に示すジャーキネス領域A2に該当しているかを判別する。
なお、実際に撮像されたシャッタ速度SSDとは、例えば動画像データIDにおいてメタデータとして付加されているものであればよい。また本例の画像処理装置1(100)が撮像装置内に搭載されるものである場合、自機による撮像時のシャッタ速度情報として取得できる。
When the optimum shutter speed SSD ′ corresponding to the motion vector is calculated, in step S32 of FIG. 9, the optimum shutter speed calculation / determination unit 114 determines the optimum shutter speed SSD ′ and the actually captured shutter speed SSD. To determine whether or not the pixel block unit corresponds to the jerkiness area A2 shown in FIG.
It should be noted that the actually captured shutter speed SSD only needs to be added as metadata in the moving image data ID, for example. Further, when the image processing apparatus 1 (100) of this example is mounted in the imaging apparatus, it can be acquired as shutter speed information at the time of imaging by the own apparatus.

このステップS32の判別結果から、現在の処理対象の画素ブロックにおいて、シャッタ速度SSDが最適シャッタ速度SSD’よりも速く、ジャーキネス領域A2に該当しているとき、動きベクトル補正部115は、ステップS33に進む。
また、現在の処理対象の画素ブロックにおいて、シャッタ速度SSDが最適シャッタ速度SSD’よりも遅くジャーキネス領域A2に該当してないとき、動きベクトル補正部115は、ステップS34に進む。
From the determination result of step S32, when the shutter speed SSD is faster than the optimal shutter speed SSD ′ and corresponds to the jerkiness area A2 in the current pixel block to be processed, the motion vector correction unit 115 proceeds to step S33. move on.
When the shutter speed SSD is slower than the optimum shutter speed SSD ′ and does not correspond to the jerkiness area A2 in the current pixel block to be processed, the motion vector correction unit 115 proceeds to step S34.

ステップS33において、動きベクトル補正部115は、処理対象の画素ブロックにおいてジャーキネス劣化が生じているので、例えば、シャッタ速度SSDが速くなるのに伴って増加して値が1に収束する関数fs(SSD)を動きベクトルの値に乗じる処理を行う。
なお、動きベクトル補正部153は、関数fs(SSD)に代えて、動きベクトルVDを変数としたfs(VD)又は、シャッタ速度SSDと動きベクトルVDとを2変数としたfs(SSD,VD)を用いて乗算処理を行うようにしてもよい。
ステップS34において、動きベクトル補正部153は、処理対象の画素ブロックにおいてジャーキネス劣化が生じていないので、例えばこの動きベクトルの値に0を乗じて無効にするマスク処理を施す。
In step S33, since the jerkiness deterioration has occurred in the pixel block to be processed, the motion vector correcting unit 115 increases, for example, as the shutter speed SSD increases, and the function fs (SSD that converges to 1). ) Is multiplied by the value of the motion vector.
The motion vector correction unit 153 replaces the function fs (SSD) with fs (VD) using the motion vector VD as a variable, or fs (SSD, VD) using the shutter speed SSD and the motion vector VD as two variables. You may make it perform a multiplication process using.
In step S34, since the jerkiness deterioration does not occur in the pixel block to be processed, the motion vector correction unit 153 performs a mask process for invalidating the value of the motion vector by, for example, multiplying by 0.

このようにして、最適シャッタ速度算出/判別部114は、処理対象となっている動画像が実際に撮像された時のシャッタ速度SSDを考慮して、ジャーキネス劣化が生じているか否かを判別する。そして、動きベクトル補正部115は、ジャーキネス劣化が生じていると判別された画素ブロックの動きベクトルに対して、適切な動きぼけを付加するための補正処理を施す。これは、動きぼけ付加フィルタ112で行われる動きぼけ付加処理が、視覚特性上、より自然な動画像となることに寄与する。   In this way, the optimum shutter speed calculation / determination unit 114 determines whether or not jerkiness degradation has occurred in consideration of the shutter speed SSD when the moving image to be processed is actually captured. . Then, the motion vector correction unit 115 performs a correction process for adding an appropriate motion blur to the motion vector of the pixel block that is determined to have jerkiness degradation. This contributes to the motion blur addition process performed by the motion blur addition filter 112 being a more natural moving image in terms of visual characteristics.

フィルタパラメータ算出部111は、処理対象フレームを構成する各画素に対して動きぼけを付加するため、次に示すようなフィルタパラメータを画素単位で算出する。
まず、フィルタパラメータ算出部111は、有効な動きベクトル情報を有する画素を注目画素として、各注目画素の動きベクトル上に位置する画素(以下、パラメータ算出対象画素という。)を特定する。そして、フィルタパラメータ算出部111は、この注目画素に対する特定されたパラメータ算出対象画素の相対位置に応じたフィルタパラメータを、次に示すようにして算出する。
The filter parameter calculation unit 111 calculates the following filter parameters for each pixel in order to add motion blur to each pixel constituting the processing target frame.
First, the filter parameter calculation unit 111 specifies a pixel (hereinafter referred to as a parameter calculation target pixel) located on the motion vector of each target pixel, with a pixel having effective motion vector information as the target pixel. Then, the filter parameter calculation unit 111 calculates a filter parameter corresponding to the relative position of the specified parameter calculation target pixel with respect to the target pixel as follows.

すなわち、フィルタパラメータ算出部111は、図11に示すように、動きベクトルの始点Sと終点Eとの中点を注目画素P0の位置としたベクトル上に位置する画素の全てをパラメータ算出対象画素として特定する。なお、図11に示すように、絶対値vは注目画素の動きベクトルの絶対値である。
続いて、フィルタパラメータ算出部111は、動きベクトルの絶対値vと、注目画素P0の画素位置と上述した処理により特定したパラメータ算出対象画素P1の画素位置との間の距離dとに応じて、動きぼけ付加の強度σを下記の(数6)により算出する。

Figure 0004915468
ここで、式中の強度σを二乗した値が後段の動きぼけ付加フィルタ112におけるガウス型関数の分散となるように、(数6)は設定されている。 That is, as shown in FIG. 11, the filter parameter calculation unit 111 sets all pixels located on a vector having the midpoint between the start point S and the end point E of the motion vector as the position of the target pixel P0 as parameter calculation target pixels. Identify. As shown in FIG. 11, the absolute value v is the absolute value of the motion vector of the target pixel.
Subsequently, the filter parameter calculation unit 111 according to the absolute value v of the motion vector and the distance d between the pixel position of the target pixel P0 and the pixel position of the parameter calculation target pixel P1 specified by the above-described processing, The motion blur added strength σ is calculated by the following (Equation 6).
Figure 0004915468
Here, (Equation 6) is set so that the value obtained by squaring the intensity σ in the equation becomes the variance of the Gaussian function in the subsequent motion blur addition filter 112.

また、フィルタパラメータ算出部111は、注目画素P0を原点としたときの各パラメータ算出対象画素P1の直交座標平面x−yの座標点を(x1,y1)として、動きぼけを付加する角度方向θを下記の(数7)より算出する。

Figure 0004915468
In addition, the filter parameter calculation unit 111 sets the coordinate point on the orthogonal coordinate plane xy of each parameter calculation target pixel P1 when the target pixel P0 is the origin as an angle for adding motion blur (x 1 , y 1 ). The direction θ is calculated from the following (Equation 7).
Figure 0004915468

このようにして、フィルタパラメータ算出部111は、注目画素の動きベクトルからパラメータ算出対象画素を特定して、特定した各パラメータ算出対象画素に対してパラメータ情報(σ,θ)を設定し、処理対象フレーム単位で動きぼけ付加フィルタ112に供給する。   In this way, the filter parameter calculation unit 111 specifies the parameter calculation target pixel from the motion vector of the target pixel, sets the parameter information (σ, θ) for each specified parameter calculation target pixel, and sets the processing target This is supplied to the motion blur addition filter 112 in units of frames.

なお、フィルタパラメータ算出部111に係る処理では、ある画素に対して重複してパラメータ算出対象画素が特定される場合がある。この場合には、処理を単純化するため、例えば、重複して特定されたパラメータ情報のうち、σの大きい値の情報を、その画素のパラメータ情報として設定すればよい。また、フィルタパラメータ算出部111では、各パラメータ算出対象画素のパラメータ情報(σ,θ)に対して、ガウス関数型フィルタ処理やメディアンフィルタ処理などの平滑化処理を施すことにより、後段の動きぼけ付加フィルタ112から出力される動画像の画質を高めることができる。   Note that, in the processing related to the filter parameter calculation unit 111, there are cases where a parameter calculation target pixel is specified redundantly for a certain pixel. In this case, in order to simplify the processing, for example, information having a large value of σ among the parameter information specified redundantly may be set as the parameter information of the pixel. In addition, the filter parameter calculation unit 111 applies subsequent smoothing processing such as Gaussian function type filter processing and median filter processing to the parameter information (σ, θ) of each parameter calculation target pixel, thereby adding motion blur in the subsequent stage. The image quality of the moving image output from the filter 112 can be improved.

動きぼけ付加フィルタ112は、フィルタパラメータ算出部111から供給されるパラメータ情報に応じて、入力される動画像データIDの処理対象フレームの各画素の画素値に対して、次に示すような処理対象フレーム内での空間的なフィルタ処理を施す。
本実施の形態において、動きぼけ付加フィルタ112は、以下に示す第1のフィルタ処理、又は第2のフィルタ処理の一方又は両方を実行することにより、動きぼけを付加した画像を出力する。
The motion blur addition filter 112 performs the following processing target on the pixel value of each pixel of the processing target frame of the input moving image data ID according to the parameter information supplied from the filter parameter calculation unit 111. Apply spatial filtering within the frame.
In the present embodiment, the motion blur addition filter 112 outputs an image with motion blur added by executing one or both of the following first filter processing and second filter processing.

まず、第1のフィルタ処理について説明する。第1のフィルタ処理において、動きぼけ付加フィルタ112は、動きぼけ付加フィルタ処理前の動きぼけ付加対象画素の画素値とこの画素の周辺に位置する周辺画素の画素値とを入力I(x+i,y+j)として、下記の(数8)に示すようなガウス型関数により、フィルタ処理後の注目画像の画素値J(x,y)を出力する。

Figure 0004915468
なお、入力I(x+i,y+j)となる周辺画素は、動きベクトルを付加する角度方向に応じて設定される。また、rは、動きぼけ付加対象画素と周辺画素との間の距離を示す。 First, the first filter process will be described. In the first filter processing, the motion blur addition filter 112 inputs the pixel value of the motion blur addition target pixel before the motion blur addition filter processing and the pixel values of peripheral pixels located around this pixel as input I (x + i, y + j). ), The pixel value J (x, y) of the target image after the filter processing is output by a Gaussian function as shown in the following (Equation 8).
Figure 0004915468
It should be noted that the peripheral pixels that become the input I (x + i, y + j) are set according to the angular direction to which the motion vector is added. R represents the distance between the motion blur addition target pixel and the surrounding pixels.

動きぼけ付加フィルタ112は、処理対象フレームを構成する全画素のうち、パラメータ情報(σ,θ)が設定されている画素毎に、上述したフィルタ処理を施して画素値を更新する。このようにして動きぼけ付加フィルタ112は、ジャーキネス劣化が低減された動画像データBDを、後段の符号化処理部2に供給することができる。   The motion blur addition filter 112 performs the above-described filter processing and updates the pixel value for each pixel for which parameter information (σ, θ) is set among all the pixels constituting the processing target frame. In this way, the motion blur addition filter 112 can supply the moving image data BD with reduced jerkiness degradation to the encoding processing unit 2 at the subsequent stage.

ところで、注目画素の周辺に位置する周辺画素には、元々動きのない領域、すなわち背景領域となっているものがある。このような背景領域に位置する周辺画素は、本来注目画素に対して動きぼけを付加するのに考慮する必要がない。このような点に注目した処理方法が次に示す第2のフィルタ処理である。   By the way, some peripheral pixels located around the pixel of interest originally have no movement, that is, a background region. Peripheral pixels located in such a background area need not be considered in order to add motion blur to the pixel of interest. A processing method paying attention to such a point is the second filter processing described below.

すなわち、第2のフィルタ処理において、動きぼけ付加フィルタ112は、注目画素の動きベクトルの値が0又は無効であるときに、その注目画素の周辺に位置する周辺画素のうち動きベクトルの値が0又は無効である画素の画素値I(x+i0,y+j0)を注目画素の画素値I(x,y)に代えて、上記の(数8)により注目画素の画素値J(x,y)を算出する。このようにして、動きぼけ付加フィルタ112は、第1のフィルタ処理よりも、視覚特性上自然にジャーキネス劣化を低減した画像を出力する。 That is, in the second filter processing, when the motion vector value of the target pixel is 0 or invalid, the motion blur addition filter 112 has a motion vector value of 0 among the peripheral pixels located around the target pixel. Alternatively, the pixel value I (x + i 0 , y + j 0 ) of the invalid pixel is replaced with the pixel value I (x, y) of the target pixel, and the pixel value J (x, y) of the target pixel according to the above (Equation 8). Is calculated. In this manner, the motion blur addition filter 112 outputs an image in which jerkiness degradation is naturally reduced in terms of visual characteristics, compared to the first filter processing.

動きぼけ付加処理部11では、以上の例のようにして動きぼけ付加処理を施した動画像データBDを出力することができる、
特にこの例の場合、最適シャッタ速度算出/判別部114が動画像の撮像時のシャッタ速度情報に応じて動きベクトルを補正することにより、後段のフィルタパラメータ算出部111で算出される動きぼけ付加強度σの値を制御するので、動きぼけ付加フィルタ112により撮像時のシャッタ速度情報に応じて適切な動きぼけを付加することができ、人間の視覚特性上、より自然にジャーキネス劣化を低減した動画像データBDを出力することができる。
The motion blur addition processing unit 11 can output moving image data BD subjected to motion blur addition processing as in the above example.
Particularly in the case of this example, the optimum shutter speed calculation / discrimination unit 114 corrects the motion vector according to the shutter speed information at the time of capturing a moving image, so that the motion blur added intensity calculated by the subsequent filter parameter calculation unit 111 is obtained. Since the value of σ is controlled, an appropriate motion blur can be added according to the shutter speed information at the time of imaging by the motion blur addition filter 112, and a moving image in which jerkiness degradation is reduced more naturally in terms of human visual characteristics. Data BD can be output.

次に、動きぼけ付加処理部11の構成例として図12の構成例を説明する。図12に示すように、動きぼけ付加処理部11は、フィルタパラメータ算出部111と動きぼけ付加フィルタ112によって構成してもよい。即ち図7の構成から、動きベクトルの補正に関する処理ブロックを削除した構成である。   Next, a configuration example of FIG. 12 will be described as a configuration example of the motion blur addition processing unit 11. As illustrated in FIG. 12, the motion blur addition processing unit 11 may include a filter parameter calculation unit 111 and a motion blur addition filter 112. In other words, the processing block related to motion vector correction is deleted from the configuration of FIG.

先に述べたように本実施の形態は、符号化処理部2の前段において、動画像データIDに対して動きぼけ付加処理部を行うものであるが、その目的の1つは、符号化効率の向上である。
そして、上記図7の構成例のようにすることで、知覚特性に応じてぼけ付加具合を最適なものにすることができるが、符号化効率の観点を重視すれば、それは必須ではない。その場合、図12の構成でもよいことになる。
As described above, in the present embodiment, the motion blur addition processing unit is performed on the moving image data ID in the preceding stage of the encoding processing unit 2, and one of the purposes is encoding efficiency. It is an improvement.
Then, by using the configuration example of FIG. 7 above, it is possible to optimize the degree of blur addition according to the perceptual characteristics, but this is not essential if the viewpoint of coding efficiency is emphasized. In that case, the configuration of FIG. 12 may be used.

この図12の構成例では、動きベクトル生成処理部12から供給される動きベクトルVDが直接フィルタパラメータ算出部111に入力される。
フィルタパラメータ算出部111は、補正されていない動きベクトルVDを用いて、上記同様の処理を行ってフィルタパラメータ算出を行う。そして動きぼけ付加フィルタ112は、フィルタパラメータに基づいて、上述した動きぼけ付加処理を行う。
In the configuration example of FIG. 12, the motion vector VD supplied from the motion vector generation processing unit 12 is directly input to the filter parameter calculation unit 111.
The filter parameter calculation unit 111 performs filter parameter calculation by performing the same process as described above using the uncorrected motion vector VD. The motion blur addition filter 112 performs the above-described motion blur addition processing based on the filter parameter.

この構成例によれば、動きベクトル生成処理部12で検出された動きベクトルの大きさに忠実に動きぼけが付加されることになる。
後述する第2の画像処理装置4(400)に関することとなるが、このようにすることで、より容易に忠実な動きぼけ削減処理を行うことができる。
According to this configuration example, motion blur is added faithfully to the magnitude of the motion vector detected by the motion vector generation processing unit 12.
This relates to the second image processing apparatus 4 (400) to be described later. By doing so, it is possible to more easily perform faithful motion blur reduction processing.

以上、図7,図12として動きぼけ付加処理部11の構成及び動作を説明したが、これら以外の構成例、動作例も各種考えられる。
上記の動きぼけ付加処理部11では、動きベクトルを用いて各単位画像に動きぼけを付加する空間的なフィルタ処理に代えて、他の動き情報を用いて画像データに動きぼけを付加するようにしてもよい。
例えば、1フレームに対して複数のフレームを重ね合わせる時間的なフィルタ処理を行うことにより、動画像データIDに動きぼけを付加する処理を行うようにしても良い。この場合、動きぼけ付加処理部11は、動きベクトルの代わりに、動き情報としてフレーム間の差分により動体画像領域を検出する。そして、この検出した動体画像領域を示す情報を撮像情報に基づいて補正してから、この動き情報を用いて時間的なフィルタ処理を施すことによって、撮像時のシャッタ速度情報等に応じて適切な動きぼけを付加することができる。
The configuration and operation of the motion blur addition processing unit 11 have been described above with reference to FIGS. 7 and 12, but various configuration examples and operation examples other than these can be considered.
The motion blur addition processing unit 11 adds motion blur to image data using other motion information instead of the spatial filter processing that adds motion blur to each unit image using motion vectors. May be.
For example, a process of adding motion blur to the moving image data ID may be performed by performing a temporal filter process of superimposing a plurality of frames on one frame. In this case, the motion blur addition processing unit 11 detects a moving body image region based on a difference between frames as motion information instead of a motion vector. Then, the information indicating the detected moving body image area is corrected based on the imaging information, and then subjected to temporal filter processing using the motion information, so that the appropriate information can be obtained according to the shutter speed information at the time of imaging. Motion blur can be added.

[2.第2の画像処理装置]
[2−1:画像処理装置の構成例]

続いて、本発明の実施の形態としての第2の画像処理装置について説明する。第2の画像処理装置とは、上述してきた第1の画像処理装置から伝送されてきた動画像データ、即ち動きぼけ付加処理及び符号化処理が施された動画像データED(以下「符号化状態の動画像データED」という)に対して、復号化及び動きぼけ削減処理を行う画像処理装置である。
[2. Second image processing apparatus]
[2-1: Configuration Example of Image Processing Device]

Subsequently, a second image processing apparatus as an embodiment of the present invention will be described. The second image processing device is the moving image data transmitted from the first image processing device described above, that is, the moving image data ED (hereinafter referred to as “encoding state”) subjected to motion blur addition processing and encoding processing. The video processing device performs decoding and motion blur reduction processing on the video data ED ”.

図13,図14,図15により、第2の画像処理装置についての構成例を説明する。
なお各図における処理ブロックは、論理的な構成要素として示しており、各処理ブロックは同一筐体内にある場合も考えられるし、別の筐体内にある場合も考えられる。そして、各図において、破線で囲った画像処理装置4、又は同じく破線で囲った画像処理装置400が、本発明の第2の画像処理装置の実施の形態の構成と考えることができる。
A configuration example of the second image processing apparatus will be described with reference to FIGS. 13, 14, and 15.
Note that the processing blocks in each drawing are shown as logical components, and each processing block may be in the same casing or in another casing. In each figure, the image processing device 4 surrounded by a broken line or the image processing device 400 also surrounded by a broken line can be considered as the configuration of the second embodiment of the present invention.

図13は、画像処理装置4として動きぼけ削減処理部41を備える構成を示している。或いは画像処理装置400として復号化処理部3と動きぼけ削減処理部41を備える構成を示している。   FIG. 13 shows a configuration including a motion blur reduction processing unit 41 as the image processing apparatus 4. Or the structure provided with the decoding process part 3 and the motion blur reduction process part 41 as the image processing apparatus 400 is shown.

復号化処理部3には符号化状態の動画像データEDが入力される。復号化処理部3は、符号化状態の動画像データEDに対して復号化処理を行って復号された動画像データDDを出力する。例えば上述した第1の画像処理装置100における符号化処理部2が実行した符号化に対する復号処理を実行する。
従って出力される動画像データDDは、第1の画像処理装置100の動きぼけ付加処理部11によって動きぼけが付加された状態の動画像データと考えることができる。
The decoding processing unit 3 receives moving image data ED in an encoded state. The decoding processing unit 3 performs decoding processing on the encoded moving image data ED and outputs decoded moving image data DD. For example, the decoding process for the encoding executed by the encoding processing unit 2 in the first image processing apparatus 100 described above is executed.
Accordingly, the output moving image data DD can be considered as moving image data in a state in which motion blur is added by the motion blur addition processing unit 11 of the first image processing apparatus 100.

動きぼけ削減処理部41は、前段の復号化処理部3によって復号化された画像データDDに、動きぼけの削減処理を実行し、処理後の動画像データODを出力する。
この動きぼけ削減処理部41は、復号後の動画像データDDの各フレーム、各分割領域に対し、同様に入力している、動画像データDDの各フレーム、各分割領域に対応した動き情報MIに応じたフィルタ処理を、動画像データDDに対し適応的に行って、動きぼけの削減を実行する。
動きぼけ削減処理された動画像データODは、図示しない表示装置などへと出力される。
なお、図示しているように、復号化処理部3で復号化された動画像データDDを、表示装置等へ出力することも考えられる。
The motion blur reduction processing unit 41 performs motion blur reduction processing on the image data DD decoded by the preceding decoding processing unit 3, and outputs the processed video data OD.
The motion blur reduction processing unit 41 is similarly input to each frame and each divided region of the decoded moving image data DD, and motion information MI corresponding to each frame and each divided region of the moving image data DD. Filtering processing according to the above is adaptively performed on the moving image data DD to reduce motion blur.
The moving image data OD subjected to the motion blur reduction process is output to a display device (not shown).
As shown in the figure, it is also conceivable to output the moving image data DD decoded by the decoding processing unit 3 to a display device or the like.

ここで、本例の第2の画像処理装置4(400)による機能・効果としては、次の(i)(ii)(iii)の3つが考えられる。   Here, the following three functions (i), (ii), and (iii) are conceivable as functions and effects of the second image processing apparatus 4 (400) of this example.

(i)伝送されてきた動画像データのブラー劣化の低減による高画質化。
動きぼけ削減処理部41で動きぼけ削減処理されて表示装置等に出力される動画像データODは、復号画像データDDを直接表示装置で表示した場合と比較し、画像のディテールを損なうブラー劣化が解消され、高画質に表示されることになる。
即ち特に動画像データの伝送元を特定しないという前提のもとで、動きぼけ削減処理によるブラー劣化低減効果が得られる。
(I) Higher image quality by reducing blur degradation of transmitted video data.
The moving image data OD that has been subjected to motion blur reduction processing by the motion blur reduction processing unit 41 and output to a display device or the like has a blur deterioration that impairs image details compared to the case where the decoded image data DD is directly displayed on a display device. It will be resolved and displayed in high quality.
That is, it is possible to obtain an effect of reducing blur deterioration by the motion blur reduction process under the assumption that the transmission source of moving image data is not specified.

(ii)第1の画像処理装置100から伝送されてきた動画像データについて、ジャーキネス劣化及びブラー劣化の低減による高画質化。
上述の第1の画像処理装置100側で動きぼけ付加処理部11によってジャーキネス劣化が解消されている符号化状態の動画像データEDが、この第2の画像処理装置400に入力されることを考慮すれば、動きぼけ削減処理された動画像データODは、ジャーキネス劣化とブラー劣化が共に低減された高画質な動画像データとなる。
つまりこの意味で言えば、動画像データDDは、ジャーキネス劣化が低減された動画像データであり、動画像データODは、ジャーキネス劣化及びブラー劣化が共に低減された動画像データとなる。
(Ii) Improvement in image quality of moving image data transmitted from the first image processing apparatus 100 by reducing jerkiness deterioration and blur deterioration.
Considering that the moving image data ED in the encoded state in which the jerkiness degradation is eliminated by the motion blur addition processing unit 11 on the first image processing apparatus 100 side is input to the second image processing apparatus 400. In this case, the moving image data OD subjected to the motion blur reduction process becomes high-quality moving image data in which both the jerkiness deterioration and the blur deterioration are reduced.
That is, in this sense, the moving image data DD is moving image data in which jerkiness deterioration is reduced, and the moving image data OD is moving image data in which both jerkiness deterioration and blur deterioration are reduced.

(iii)第1の画像処理装置100の処理前の動画像データの復元。
さらに本例では、動画像データODは、第1の画像処理装置100に入力された元の動画像データIDと同等の画像とすることも可能である。つまり、動きぼけ付加処理部11で付加した動きぼけを、動きぼけ削減処理部41で忠実に削減するという考え方である。これは、第1の画像処理装置100における符号化処理部2での符号化効率の向上という観点を重視するために動きぼけを付加し、伝送先となる第2の画像処理装置400側では、元の動画像データを復元したいという場合に適したものとなる。
例えば先に説明したとおり、図12に構成例を示す動きぼけ付加処理部11を用いて動きぼけを付加したデータが符号・復号処理された画像データの入力を想定すると、動画像データDDには、動きベクトルVDの大きさに忠実に、補正することなく、動きぼけが付加されている。
そのため、動きぼけ削減処理部41にて、動きベクトルVDのみをパラメータとして動きぼけ削減処理を行った場合、原理的には第1の画像処理装置1(100)にて動きぼけが付加される以前と同等の動画像データが得られるはずである。
(Iii) Restoration of moving image data before processing of the first image processing apparatus 100.
Furthermore, in this example, the moving image data OD can be an image equivalent to the original moving image data ID input to the first image processing apparatus 100. In other words, the motion blur added by the motion blur addition processing unit 11 is faithfully reduced by the motion blur reduction processing unit 41. This is because motion blur is added to emphasize the viewpoint of improving the encoding efficiency in the encoding processing unit 2 in the first image processing apparatus 100, and on the second image processing apparatus 400 side as the transmission destination, This is suitable when it is desired to restore the original moving image data.
For example, as described above, assuming input of image data obtained by encoding / decoding data with motion blur added using the motion blur addition processing unit 11 shown in the configuration example of FIG. The motion blur is added without correction, faithfully to the magnitude of the motion vector VD.
Therefore, when the motion blur reduction process is performed by the motion blur reduction processing unit 41 using only the motion vector VD as a parameter, in principle, before the motion blur is added by the first image processing apparatus 1 (100). Should be obtained.

続いて図14は、画像処理装置4として動きぼけ削減処理部41と動きベクトル生成処理部42を備える構成を示している。或いは画像処理装置400として復号化処理部3と、動きぼけ削減処理部41と、動きベクトル生成処理部42を備える構成を示している。
この図14は、図13における動き情報MIの例として、動きベクトルVDを用いる構成例となる。
Next, FIG. 14 illustrates a configuration including a motion blur reduction processing unit 41 and a motion vector generation processing unit 42 as the image processing device 4. Or the structure provided with the decoding process part 3, the motion blur reduction process part 41, and the motion vector production | generation process part 42 as the image processing apparatus 400 is shown.
FIG. 14 shows a configuration example using a motion vector VD as an example of the motion information MI in FIG.

動きベクトル生成処理部42は、復号化された動画像データDDの各フレームの各領域(画素単位又は複数画素による画素ブロック単位)の動きベクトルVDを生成する。
動きぼけ削減処理部41は、復号化された動画像データDDについて、動きベクトルVDを用いて、動画像データDD(の各フレーム、各分割領域)に対し適応的にフィルタ処
理を行い、動きぼけの削減を実行する。動きぼけ削減処理された動画像データODは、図示しない表示装置などへと出力される。
この場合も、上記(i)(ii)(iii)のいずれかの機能・効果が想定される。
The motion vector generation processing unit 42 generates a motion vector VD for each region (pixel unit or pixel block unit of a plurality of pixels) of each frame of the decoded moving image data DD.
The motion blur reduction processing unit 41 adaptively performs filtering on the moving image data DD (each frame and each divided region) with respect to the decoded moving image data DD using the motion vector VD. Perform reductions. The moving image data OD subjected to the motion blur reduction process is output to a display device (not shown).
Also in this case, the function / effect of any of the above (i), (ii), and (iii) is assumed.

次に図15は、復号化処理部3内で用いる動きベクトルを動きぼけ削減処理に利用する構成例である。
動きぼけ推定処理は、MPEGのような画像の動き情報に基づいた予測符号化において、その符号化処理過程で行われており、その動きぼけ推定結果は符号化データとともに復号化処理部3へと伝送されている。
復号化処理部3では、上記伝送された動きベクトルを用いて復号化処理を実行するが、図15に示す構成例では、この動きベクトルを用いて、動きぼけの削減処理を実行する。
Next, FIG. 15 is a configuration example in which a motion vector used in the decoding processing unit 3 is used for motion blur reduction processing.
The motion blur estimation process is performed in the encoding process in predictive encoding based on the motion information of an image such as MPEG, and the motion blur estimation result is sent to the decoding processing unit 3 together with the encoded data. Is being transmitted.
The decoding processing unit 3 executes decoding processing using the transmitted motion vector. In the configuration example illustrated in FIG. 15, motion blur reduction processing is executed using this motion vector.

図15中には、簡易なMPEG復号化の処理ブロックを示している。
符号化状態の動画像データEDは、復号化処理部3において、エントロピー復号化部301に入力される。エントロピー復号化部301は、入力された符号化状態の動画像データEDに対する復号処理を行い、量子化データを得るとともに、動きベクトルVDを抽出する。即ちこれは、例えば図4の動きベクトル生成処理部210で生成され、エントロピー符号化部204での符号化において符号化動画像データに重畳された動きベクトルVDである。
エントロピー復号化部301は、量子化データを逆量子化部302に出力し、また動きベクトルVDを動き補償部306及び動きぼけ削減処理部41に出力する。
FIG. 15 shows a simple MPEG decoding processing block.
The encoded moving image data ED is input to the entropy decoding unit 301 in the decoding processing unit 3. The entropy decoding unit 301 performs a decoding process on the input encoded moving image data ED, obtains quantized data, and extracts a motion vector VD. That is, this is, for example, the motion vector VD generated by the motion vector generation processing unit 210 in FIG. 4 and superimposed on the encoded moving image data in the encoding by the entropy encoding unit 204.
The entropy decoding unit 301 outputs the quantized data to the inverse quantization unit 302, and outputs the motion vector VD to the motion compensation unit 306 and the motion blur reduction processing unit 41.

逆量子化部302は、入力された量子化データを逆量子化してDCT係数を生成し、逆DCT部303に対して出力する。
逆DCT部303は、逆量子化部302から入力されたDCT係数を逆DCT処理して画像データを生成し、加算部304に対して出力する。
加算部304は、動き補償部306が動き補償した画像データと、逆DCT部303から入力された画像データを加算して、これを復号化された動画像データDDとして出力するとともに、フレームメモリ305に出力する。フレームメモリ305に一時的に格納された画像データは、動き補償部306に出力される。
動き補償部306は、エントロピー復号化部301から入力された動きベクトルに基づいて、加算部304からフレームメモリ305を介して入力された画像データを動き補償処理し、加算部304に対して出力する。
このような復号化処理部3によって復号化された動画像データDDは、動きぼけ削減処理部41に供給される。また動きぼけ削減処理部41には動きベクトルVDも供給される。動きぼけ削減処理部41は、動きベクトルVDを用いて動画像データDDに対し、動きぼけ削減処理を行う。動きぼけ削減処理された動画像データODは、図示しない表示装置などへと出力される。
この例のように、MPEG復号化過程で抽出される動きベクトルを利用して、動きぼけ削減処理を行うことも考えられる。
この場合も、上記(i)(ii)(iii)のいずれかの機能・効果が想定される。
The inverse quantization unit 302 inversely quantizes the input quantized data to generate a DCT coefficient, and outputs the DCT coefficient to the inverse DCT unit 303.
The inverse DCT unit 303 performs inverse DCT processing on the DCT coefficient input from the inverse quantization unit 302 to generate image data, and outputs the image data to the addition unit 304.
The adder 304 adds the image data that has been motion compensated by the motion compensator 306 and the image data input from the inverse DCT unit 303 and outputs the result as decoded moving image data DD. Output to. The image data temporarily stored in the frame memory 305 is output to the motion compensation unit 306.
Based on the motion vector input from the entropy decoding unit 301, the motion compensation unit 306 performs motion compensation processing on the image data input from the addition unit 304 via the frame memory 305, and outputs the motion data to the addition unit 304. .
The moving image data DD decoded by the decoding processing unit 3 is supplied to the motion blur reduction processing unit 41. The motion blur reduction processing unit 41 is also supplied with a motion vector VD. The motion blur reduction processing unit 41 performs motion blur reduction processing on the moving image data DD using the motion vector VD. The moving image data OD subjected to the motion blur reduction process is output to a display device (not shown).
As in this example, it is also possible to perform motion blur reduction processing using a motion vector extracted in the MPEG decoding process.
Also in this case, the function / effect of any of the above (i), (ii), and (iii) is assumed.

また、以上の各例の画像処理装置4(400)では、動き情報を参照し、領域ごとに適用的なフィルタリングを行うものである。このため、符号化時に空間的に一様なローパスフィルタ(つまり復号化時に空間的に一様なハイパスフィルタ)を実行するとした場合と比較して、動きの大きさに応じた、領域ごとに適応的な動きぼけの削減が、必要であれば後処理としての動きぼけ量の調整も含めて、実行可能であり、動画像の観察者にとって自然な画質が提示できる。
また、符号化前の処理における動きぼけ付加処理のパラメータを伝送しなかった(あるいはできない)場合でも、動き情報のみを用いて、動きぼけの削減処理が可能である。
すなわち、符号化・復号化に用いるために伝送された動きベクトル、もしくは、復号化後に求めた動き情報のみによって、実行が可能である。これは、符号化時に空間的に一様なローパスフィルタ(つまり復号化時に空間的に一様なハイパスフィルタ)を実行する、とした場合、ローパスフィルタ時における、何かしらのフィルタ情報を伝送しなければ、処理できないはずであることに対する利点となる。
Further, the image processing apparatus 4 (400) of each example described above refers to motion information and performs appropriate filtering for each region. Therefore, compared to the case of executing a spatially uniform low-pass filter at the time of encoding (that is, a spatially uniform high-pass filter at the time of decoding), it is adapted for each region according to the magnitude of motion. If necessary, the motion blur can be reduced including adjustment of the motion blur amount as post-processing, and a natural image quality can be presented to the observer of the moving image.
Further, even when the parameter of motion blur addition processing in the processing before encoding is not transmitted (or cannot be performed), motion blur reduction processing can be performed using only motion information.
In other words, it can be executed only by using a motion vector transmitted for use in encoding / decoding or motion information obtained after decoding. This is because if a low pass filter that is spatially uniform at the time of encoding (that is, a high pass filter that is spatially uniform at the time of decoding) is executed, some filter information at the time of the low pass filter must be transmitted. This is an advantage over what shouldn't be handled.

[2−2:動きぼけ削減処理部]

上記図13,図14,図15の構成例における動きぼけ削減処理部41について説明する。ここでは動きぼけ削減処理部41の構成として図16の例と図18の例をそれぞれ述べる。
まず、図16の動きぼけ削減処理部41の構成例を説明する。
図16の動きぼけ削減処理部41は、移動平均フィルタ特性変換部411、移動平均フィルタ部412、減算部413、加算部414から構成されており、入力された動画像データDDに対して、動きぼけ量の削減を実現する。
[2-2: Motion blur reduction processing unit]

The motion blur reduction processing unit 41 in the configuration examples of FIGS. 13, 14, and 15 will be described. Here, the example of FIG. 16 and the example of FIG. 18 will be described as the configuration of the motion blur reduction processing unit 41, respectively.
First, a configuration example of the motion blur reduction processing unit 41 in FIG. 16 will be described.
The motion blur reduction processing unit 41 in FIG. 16 includes a moving average filter characteristic conversion unit 411, a moving average filter unit 412, a subtraction unit 413, and an addition unit 414. The motion blur reduction processing unit 41 performs motion on the input moving image data DD. Realize reduction of blur.

なお移動平均フィルタ部412として用いる移動平均フィルタとは、最も簡易なローパスフィルタの一種であり、処理対象画素が1画素移動する毎に、周辺画素との平均値を算出して出力するフィルタである。例えばある時点では、図17(a)のように現在のサンプル値を含めてn個(図では4個)のサンプルで平均をとる。次の時点でも図17(b)のように現在のサンプル値を含めてn個(図では4個)のサンプルで平均をとる。ここでいうサンプル値が画素値となり、処理対象画素が1画素移動する毎に、処理対象画素を含む周辺画素のnサンプルの平均を出力するものとする。   The moving average filter used as the moving average filter unit 412 is a kind of simplest low-pass filter, and is a filter that calculates and outputs an average value with surrounding pixels every time a pixel to be processed moves one pixel. . For example, at a certain point in time, an average is obtained with n (four in the figure) samples including the current sample value as shown in FIG. Even at the next time point, an average is obtained with n (four in the figure) samples including the current sample value as shown in FIG. The sample value here becomes a pixel value, and an average of n samples of peripheral pixels including the processing target pixel is output every time the processing target pixel moves by one pixel.

移動平均フィルタ特性変換部411には、動きベクトルVDが入力している。移動平均フィルタ特性変換部411では、動画像データDD中の当該分割領域に位置的に対応する動きベクトルVDを、入力された動きベクトルVDからフィルタパラメータとして抽出し、これに基づいて移動平均フィルタ部412にて行われる処理のフィルタ特性を決定する。
例えば、複数の動きベクトルVDに対して、移動平均フィルタを1つずつ予め用意しておき、注目画素において用いるべきフィルタを決定すればよい。具体的には、以下のように行う。
A motion vector VD is input to the moving average filter characteristic conversion unit 411. The moving average filter characteristic conversion unit 411 extracts a motion vector VD corresponding to the divided area in the moving image data DD as a filter parameter from the input motion vector VD, and based on this, the moving average filter unit The filter characteristic of the process performed at 412 is determined.
For example, one moving average filter may be prepared in advance for each of the plurality of motion vectors VD, and a filter to be used in the target pixel may be determined. Specifically, this is performed as follows.

移動平均フィルタの特性を、注目画素周辺の何画素について平均処理を実行するか、と置き換えて考え、フィルタパラメータの一例として動きベクトルVDを用いることとする。このとき、動きベクトルVDに対して、移動平均フィルタに用いる画素数を1つ決定するテーブルを用意しておき、各領域の動きベクトルVDが入力するたびに、移動平均フィルタに用いる画素数を出力する。
決定された移動平均フィルタに用いる画素数は、移動平均フィルタ部412へと出力される。
Considering the characteristics of the moving average filter by how many pixels around the target pixel are subjected to the averaging process, a motion vector VD is used as an example of a filter parameter. At this time, a table for determining one number of pixels used for the moving average filter is prepared for the motion vector VD, and the number of pixels used for the moving average filter is output each time the motion vector VD of each region is input. To do.
The determined number of pixels used for the moving average filter is output to the moving average filter unit 412.

移動平均フィルタ部412(ローパスフィルタ)は、処理対象の当該フレーム内の注目画素を含む所定のブロックに対して、移動平均フィルタ特性変換部411により特性が決定された移動平均フィルタをかけることで、注目画素の画素値を変換する。移動平均フィルタ部412により変換された注目画素の画素値は、減算部413へと出力される。
すなわち、減算部413には、移動平均フィルタ部412により変換された注目画素の画素値が極性反転されて入力される。減算部413にはまた、入力された動画像データDD中の処理対象のフレームのうちの注目画素が入力されている。
減算部413は、動画像データDD中の当該画素の画素値と、移動平均フィルタ部412により変換された注目画素の画素値との差分を求め、その差分値を加算部414へと出力する。
このようにして、加算部414には、移動平均フィルタ前後の差分が入力される。加算部414にはまた、動画像データDD中の処理対象のフレームのうちの注目画素が入力されている。加算部414は、注目画素の補正前の画素値に対して、移動平均フィルタ前後の差分値を加算し、その加算結果を出力画像(その一部)として出力する。
The moving average filter unit 412 (low-pass filter) applies a moving average filter whose characteristics are determined by the moving average filter characteristic conversion unit 411 to a predetermined block including the target pixel in the processing target frame. The pixel value of the target pixel is converted. The pixel value of the target pixel converted by the moving average filter unit 412 is output to the subtraction unit 413.
That is, the pixel value of the pixel of interest converted by the moving average filter unit 412 is input to the subtraction unit 413 with the polarity reversed. The subtraction unit 413 also receives a target pixel in the processing target frame in the input moving image data DD.
The subtraction unit 413 obtains a difference between the pixel value of the pixel in the moving image data DD and the pixel value of the target pixel converted by the moving average filter unit 412, and outputs the difference value to the addition unit 414.
In this way, the difference before and after the moving average filter is input to the adding unit 414. Also, the pixel of interest in the processing target frame in the moving image data DD is input to the adding unit 414. The adding unit 414 adds the difference value before and after the moving average filter to the pixel value before correction of the target pixel, and outputs the addition result as an output image (part thereof).

以上が、動きぼけ削減処理部41の処理内容であるが、この処理の意味を理解するためには、周波数領域で考えるとわかりやすい。
減算部413の出力信号である移動平均フィルタ前後の差分を周波数領域で考えた場合、着目された周波数において、入力された画像信号のゲインと、移動平均フィルタがかけられた後の画像信号のゲインとの差分が、減算部413の出力信号のゲインとなる。さらに、加算部414の出力画像信号のゲインは、入力された画像信号のゲインに対して、移動平均フィルタ前後の差分ゲインが加算された値となる。すなわち、各周波数のそれぞれにおいて、出力画像信号のゲインは、入力画像のゲインに比較して、移動平均フィルタ前後の差分ゲイン分だけ持ち上げられてことになる。
移動平均フィルタがローパスフィルタであることを踏まえ、上記の内容を換言すると、図16の構成例に示す動きぼけ削減処理部41全体では、ハイパスフィルタをかける処理と基本的に等価な処理を実行していることになる。
The above is the processing content of the motion blur reduction processing unit 41. In order to understand the meaning of this processing, it is easy to understand when considered in the frequency domain.
When the difference before and after the moving average filter, which is the output signal of the subtraction unit 413, is considered in the frequency domain, the gain of the input image signal and the gain of the image signal after the moving average filter is applied at the frequency of interest. Is the gain of the output signal of the subtracting unit 413. Further, the gain of the output image signal of the adding unit 414 is a value obtained by adding the difference gain before and after the moving average filter to the gain of the input image signal. That is, at each frequency, the gain of the output image signal is raised by the difference gain before and after the moving average filter compared to the gain of the input image.
Considering that the moving average filter is a low-pass filter, in other words, the motion blur reduction processing unit 41 shown in the configuration example of FIG. 16 as a whole performs processing that is basically equivalent to processing that applies a high-pass filter. Will be.

次に動きぼけ削減処理部41として図18の構成例を説明する。
図18の構成例が上記図16と異なるのは、付加する動きぼけ量をジャーキネス劣化が最も低減される動きぼけ量に調整するために必要な、動きベクトル補正処理の要素が加わっている点である。
Next, a configuration example of FIG. 18 will be described as the motion blur reduction processing unit 41.
The configuration example of FIG. 18 is different from FIG. 16 in that an element of motion vector correction processing necessary to adjust the amount of motion blur to be added to the amount of motion blur where the jerkiness deterioration is most reduced is added. is there.

具体的には、最適シャッタ速度算出/判別部415、および、動きベクトル補正部416が加わっており、図7で示した動きぼけ付加処理部11における最適シャッタ速度算出/判別部114、および、動きベクトル補正部115と同様の動きベクトルのスケーリング処理が行われる。異なるのは、撮像シャッタ速度SSDの入力はない点である。   Specifically, an optimum shutter speed calculation / discrimination unit 415 and a motion vector correction unit 416 are added, and the optimum shutter speed calculation / discrimination unit 114 and motion in the motion blur addition processing unit 11 shown in FIG. The same motion vector scaling processing as that of the vector correction unit 115 is performed. The difference is that there is no input of the imaging shutter speed SSD.

しかしながら先に説明した図12の動きぼけ付加処理部11によって動きぼけ付加処理がされた動画像データが入力されることを想定すると、動きベクトルVDの大きさに忠実に、補正することなく、動きぼけが付加されていると考えればよい。
すると、復号化された動画像データDDは一様に、ほぼオープンシャッタ相当の動きぼけが付加されていると見なしてよく、例えば図10におけるところの、最も長いシャッタ速度の状態で撮像されている動画像データが常に入力しているものとして処理を行えばよい。
具体的には、動きベクトル補正部416において、例えば図10の最適シャッタ速度曲線SS0に応じて、入力した動きベクトルを補正(縮小)して、後段の移動平均フィルタ特性変換部411へと出力すればよい。移動平均フィルタ特性変換部411、移動平均フィルタ部412、減算器413、加算器414の処理は上記と同様である。
However, assuming that the moving image data that has been subjected to the motion blur addition processing by the motion blur addition processing unit 11 of FIG. 12 described above is input, the motion data VD is faithfully corrected without being corrected. You can think that blur is added.
Then, it may be considered that the decoded moving image data DD is uniformly added with motion blur equivalent to an open shutter, and is imaged at the longest shutter speed in FIG. 10, for example. Processing may be performed assuming that moving image data is always input.
Specifically, the motion vector correction unit 416 corrects (reduces) the input motion vector in accordance with, for example, the optimum shutter speed curve SS0 in FIG. 10 and outputs the corrected motion vector to the subsequent moving average filter characteristic conversion unit 411. That's fine. The processes of the moving average filter characteristic conversion unit 411, the moving average filter unit 412, the subtractor 413, and the adder 414 are the same as described above.

以上、図16,図18に示した構成例などを用いて、動きぼけ削減処理の実現が可能である。当然ながら、動きぼけ削減処理部41の構成及び動作は上記に限られるものではない。
As described above, the motion blur reduction processing can be realized by using the configuration examples shown in FIGS. Of course, the configuration and operation of the motion blur reduction processing unit 41 are not limited to the above.

[3.第1,第2の画像処理装置間の情報伝送]

続いて、符号化の前処理装置となる第1の画像処理装置1と、復号化の後処理装置となる第2の画像処理装置4の間における、動きぼけ付加情報の共有について説明する。
上記までに、復号化処理の後処理を行う画像処理装置4について説明した。ここでは、符号化の前処理として画像処理装置1が動きぼけを付加した際に用いたパラメータなどを、復号化処理側へと伝送し、復号化の後処理として画像処理装置4が、受信した動きぼけ付加情報を用いて、動きぼけ削減処理の実行可否や、削減する動きぼけ量の度合いを決定する形態を示す。
[3. Information transmission between the first and second image processing apparatuses]

Next, sharing of motion blur additional information between the first image processing device 1 serving as a preprocessing device for encoding and the second image processing device 4 serving as a post-processing device for decoding will be described.
Up to this point, the image processing apparatus 4 that performs post-processing of decoding processing has been described. Here, the parameters used when the image processing apparatus 1 adds motion blur as pre-coding processing are transmitted to the decoding processing side, and the image processing device 4 receives the decoding post-processing. A mode of determining whether or not to execute motion blur reduction processing and the degree of motion blur to be reduced using motion blur additional information is shown.

図19は、図3の画像処理装置1(100)と、図13の画像処理装置4(400)を示している。
そして特に、動きぼけ付加処理部11は、処理後の動画像データBDに加えて、動きぼけを付加した際に用いた動きぼけ付加パラメータPMを、符号化処理部2に伝送することを示している。
符号化処理部2は、動きぼけ付加パラメータPMを符号化状態の動画像データEDのメタデータとして追加して伝送出力する。
FIG. 19 shows the image processing apparatus 1 (100) of FIG. 3 and the image processing apparatus 4 (400) of FIG.
In particular, the motion blur addition processing unit 11 transmits to the encoding processing unit 2 the motion blur addition parameter PM used when the motion blur is added in addition to the processed moving image data BD. Yes.
The encoding processing unit 2 adds the motion blur addition parameter PM as metadata of the moving image data ED in the encoded state, and transmits and transmits it.

画像処理装置4(400)側では、復号化処理部3は、復号処理を行って動画像データDDを動きぼけ削減処理部41に出力するとともに、メタデータから動きぼけ付加パラメータPMを抽出して動きぼけ削減処理部41に供給する。
動きぼけ削減処理部41は、動きぼけ付加パラメータPMを基に動きぼけ削減処理の内容を決める。
On the image processing device 4 (400) side, the decoding processing unit 3 performs decoding processing and outputs the moving image data DD to the motion blur reduction processing unit 41, and extracts the motion blur addition parameter PM from the metadata. This is supplied to the motion blur reduction processing unit 41.
The motion blur reduction processing unit 41 determines the content of motion blur reduction processing based on the motion blur addition parameter PM.

なお、動きぼけ付加パラメータPMの伝送方式として、符号化信号のメタデータとして用いる方法を示しているが、伝送の方法はこれに限らない。別のストリームとして伝送しても構わない。   In addition, although the method used as metadata of an encoded signal is shown as a transmission method of the motion blur addition parameter PM, the transmission method is not limited to this. You may transmit as another stream.

上記図13等のおける動きぼけ削減処理部41では、動きベクトルに対して忠実に(例えば図12のようにベクトルの補正処理を行うことなく)動きぼけが付加された信号の入力を想定した場合、動きぼけ付加パラメータPMを必要とすることなく、図16や図18の構成例によって、動きぼけを削減する処理を実行していた。
しかし、図7のように、ジャーキネス劣化が発生しやすい領域のみを選択して動きぼけを付加したり、人間によるジャーキネス劣化の知覚を考慮し、動きぼけ量を調整して付加する、などの処理を実行された信号の場合には、動きぼけを付加した際に用いた動きぼけ付加パラメータPMを後段へと伝送することが効果的である。
In the motion blur reduction processing unit 41 in FIG. 13 and the like, assuming input of a signal with motion blur added faithfully to the motion vector (for example, without performing vector correction processing as in FIG. 12) The process for reducing the motion blur is executed according to the configuration examples of FIGS. 16 and 18 without requiring the motion blur additional parameter PM.
However, as shown in FIG. 7, processing such as selecting only a region where jerkiness degradation is likely to occur and adding motion blur, or adjusting and adding motion blur considering human perception of jerkiness degradation, etc. In the case of a signal for which motion blur is executed, it is effective to transmit the motion blur addition parameter PM used when motion blur is added to the subsequent stage.

動きぼけ付加パラメータPMの具体的な例としては、まず、最も簡単なものとして、画像中の当該画素(または当該領域)に動きぼけを付加したかどうかを示す「0」「1」のフラグ信号が考えられる。
動きぼけ削減処理部41においては、これを参照し、動きぼけ削減処理を行うか、否か、を判別する。
As a specific example of the motion blur addition parameter PM, first, as the simplest, a flag signal of “0” or “1” indicating whether motion blur is added to the pixel (or the region) in the image. Can be considered.
The motion blur reduction processing unit 41 refers to this and determines whether or not to perform motion blur reduction processing.

また動きぼけ付加パラメータPMの具体的な例として、図7の構成で補正されたベクトルそのものを伝送することも考えられる。即ち図7の動きベクトル補正部115の出力を伝送することである。
動きぼけ削減処理部41においては、この補正ベクトルを用いて、動きぼけ削減処理を実行する。
As a specific example of the motion blur addition parameter PM, it is conceivable to transmit the vector itself corrected in the configuration of FIG. That is, the output of the motion vector correction unit 115 in FIG. 7 is transmitted.
The motion blur reduction processing unit 41 executes motion blur reduction processing using this correction vector.

またベクトルそのものの伝送には、多大なデータ量の追加を必要としてしまうため、動きぼけ付加パラメータPMとして、ベクトルに補正を施した補正値のみを送ることや、補正時に施したベクトル変換のルールのみを伝送して、動きぼけ削減処理部41側でベクトル逆変換を行うことも考えられる。
例えば各画素または各ブロックにおいて、上記の動きぼけ付加時に行ったベクトル補正値を各画素または各ブロックに追加して伝送する。最も単純には、0〜1の間の実数αを伝送することであり、動きぼけ削減処理部41においては、当該ベクトルVを、V’=α×Vの式で縮小してから、動きぼけの削減処理を行うことになる。動きぼけを付加していない場合は、「0」を伝送する。
実数の場合には、データ量が増大するため、例えば、0〜Nまでの値の量子化した補正値を伝送するのが現実的である。
Also, since the transmission of the vector itself requires a large amount of data to be added, only the correction value obtained by correcting the vector is sent as the motion blur addition parameter PM, or only the vector conversion rules applied at the time of correction are transmitted. It is also conceivable to perform vector inverse transform on the motion blur reduction processing unit 41 side.
For example, in each pixel or each block, the vector correction value performed when the motion blur is added is added to each pixel or each block and transmitted. The simplest is to transmit a real number α between 0 and 1. In the motion blur reduction processing unit 41, the vector V is reduced by the equation V ′ = α × V and then motion blur is performed. Will be reduced. If no motion blur is added, “0” is transmitted.
In the case of a real number, the amount of data increases. For example, it is realistic to transmit a correction value quantized with a value from 0 to N.

また、動きぼけ付加パラメータPMとして、例えば図7のフィルタパラメータ算出部111の出力である動きぼけ付加フィルタパラメータ、即ち各画素に与えられたθ値とσ値を伝送することも考えられる。   Further, as the motion blur addition parameter PM, for example, it is also conceivable to transmit the motion blur addition filter parameter output from the filter parameter calculation unit 111 of FIG.

さらに、動きぼけ付加パラメータPMを伝送することにより、以下の利点が考えられる。
符号化の前処理として動きぼけ付加処理部11で動きぼけを過剰に付加しても(そのまま表示した場合にブラー劣化が発生するほどに)、動きぼけ削減処理部41により、動きぼけを削減することでブラー劣化の低減ができる。
すなわち、圧縮効率の改善のために有効な動きぼけ量を付加することで、画質の劣化を招いたとしても、動きぼけを付加した際のパラメータを既知として後段の動きぼけの削減処理を行うことにより、画質の回復が可能である、ことである。
Furthermore, the following advantages can be considered by transmitting the motion blur additional parameter PM.
Even if motion blur is added excessively by the motion blur addition processing unit 11 as pre-coding processing (so that blur degradation occurs when displayed as it is), the motion blur reduction processing unit 41 reduces motion blur. This reduces blurring.
That is, by adding an effective amount of motion blur for improving compression efficiency, even if the image quality is deteriorated, the parameter when the motion blur is added is known and the subsequent motion blur reduction processing is performed. Therefore, it is possible to restore the image quality.

[4.プログラム]

以上の実施の形態は、画像処理装置1(100)、4(400)について説明したが、本発明は画像処理を行う各種機器に適用できる。例えば画像再生装置、撮像装置、通信装置、画像記録装置、ゲーム機器、ビデオ編集機、などが想定される。
さらに、汎用のパーソナルコンピュータその他の情報処理装置において、画像処理装置1(100)、4(400)を実現することも当然想定される。
例えば図1,図3,図4、図13,図14,図15の各処理ブロックの動作を演算処理装置に実行させるプログラムを画像処理アプリケーションソフトウエアとして提供することで、パーソナルコンピュータ等において、適切な画像処理を実現できる。
[4. program]

In the above embodiment, the image processing apparatuses 1 (100) and 4 (400) have been described. However, the present invention can be applied to various devices that perform image processing. For example, an image reproducing device, an imaging device, a communication device, an image recording device, a game machine, a video editing machine, and the like are assumed.
Furthermore, it is naturally assumed that the image processing apparatuses 1 (100) and 4 (400) are realized in a general-purpose personal computer or other information processing apparatus.
For example, by providing a program for causing an arithmetic processing unit to execute the operation of each processing block of FIGS. 1, 3, 4, 13, 14, and 15 as image processing application software, Image processing can be realized.

即ち画像処理装置100の画像処理を実現するプログラムとは、動画像データIDに対し、動画像データIDを構成する単位画像間での画像の動きを示す動き情報MI(例えば動きベクトルVD)に応じたフィルタ処理を施すことにより、動きぼけの付加処理を実行する動きぼけ付加ステップと、動きぼけ付加ステップで動きぼけの付加処理が施された動画像データBDを符号化して出力する符号化ステップとを情報処理装置に実行させるプログラムである。
なお、上記動きぼけ付加ステップのみであれば、画像処理装置1の画像処理を実現させるプログラムとなる。
That is, the program that realizes image processing of the image processing apparatus 100 corresponds to motion information MI (for example, motion vector VD) indicating the motion of an image between unit images constituting the motion image data ID with respect to the motion image data ID. A motion blur addition step for performing the motion blur addition process, and a coding step for encoding and outputting the moving image data BD subjected to the motion blur addition process in the motion blur addition step. Is a program that causes the information processing apparatus to execute the program.
If there is only the motion blur adding step, it is a program for realizing the image processing of the image processing apparatus 1.

また画像処理装置400の画像処理を実現するプログラムとは、動きぼけ付加処理が施された上で符号化状態の動画像データEDを復号化する復号化ステップと、復号化ステップによって得られた復号化された動画像データDDに対して、該動画像データを構成する単位画像間での画像の動きを示す動き情報MI(例えば動きベクトルVD)に応じたフィルタ処理を施すことにより、動きぼけの削減処理を実行する動きぼけ削減ステップとを情報処理装置に実行させるプログラムである。
なお、上記動きぼけ削減ステップのみであれば、画像処理装置4の画像処理を実現させるプログラムとなる。
The program for realizing the image processing of the image processing device 400 includes a decoding step for decoding the moving image data ED in an encoded state after the motion blur addition processing is performed, and a decoding obtained by the decoding step. By applying a filtering process to the converted moving image data DD in accordance with motion information MI (for example, a motion vector VD) indicating the motion of the image between unit images constituting the moving image data, motion blur is reduced. A program that causes an information processing apparatus to execute a motion blur reduction step for executing a reduction process.
If there is only the motion blur reduction step, it is a program for realizing the image processing of the image processing device 4.

このようなプログラムにより、本発明をパーソナルコンピュータ、携帯電話機、PDA(Personal Digital Assistant)、その他画像データを用いる多様な情報処理装置においても同様の画像処理を実行できるようにすることができる。   With such a program, the present invention can be executed in a personal computer, a cellular phone, a PDA (Personal Digital Assistant), and other various information processing apparatuses using image data.

なお、このようなプログラムは、パーソナルコンピュータ等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROMやフラッシュメモリ等に予め記録しておくことができる。
あるいはまた、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD、ブルーレイディスク、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、プログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
Such a program can be recorded in advance in an HDD as a recording medium built in a device such as a personal computer, a ROM in a microcomputer having a CPU, a flash memory, or the like.
Alternatively, temporarily or permanently on a removable recording medium such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), MO (Magnet optical) disk, DVD, Blu-ray disc, magnetic disk, semiconductor memory, memory card, etc. It can be stored (recorded). Such a removable recording medium can be provided as so-called package software.
In addition to installing the program from a removable recording medium to a personal computer or the like, the program can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.

1,100,4,400 画像処理装置、2 符号化処理部、3 復号化処理部、11 動きぼけ付加処理部、12,42 動きベクトル生成処理部、41 動きぼけ削減処理部   1, 100, 4,400 Image processing device, 2 encoding processing unit, 3 decoding processing unit, 11 motion blur addition processing unit, 12, 42 motion vector generation processing unit, 41 motion blur reduction processing unit

Claims (6)

動きぼけ付加処理が施された上で符号化された動画像データから、該動画像データを構成する単位画像間での画像の動きを示す動き情報としての動きベクトルを生成する動きベクトル生成手段と、
上記動きぼけ付加処理が施された上で符号化された動画像データが、復号化されて入力され、入力された動画像データに対して、上記動きベクトル生成手段により生成された上記動きベクトルを用いたフィルタ処理を施すことにより、動きぼけの削減処理を実行する動きぼけ削減手段とを備えており、
上記動きぼけ削減手段は、
上記動きぼけ付加処理が施された際に用いられた動きぼけ付加パラメータをもとに、上記動きぼけの削減処理の実行の可否を選択するか、又は上記動きぼけ削減処理の度合いを調整する
画像処理装置。
Motion vector generating means for generating a motion vector as motion information indicating the motion of an image between unit images constituting the moving image data from the moving image data which has been subjected to motion blur addition processing and encoded ,
Coded video data in terms of the motion blur addition process has been performed is input is decoded, with respect to the entered the video data, the motion generated by the motion vector generating means It is equipped with motion blur reduction means for performing motion blur reduction processing by applying filter processing using vectors ,
The above motion blur reduction means is
An image for selecting whether or not to perform the motion blur reduction process based on the motion blur addition parameter used when the motion blur addition process is performed, or for adjusting the degree of the motion blur reduction process Processing equipment.
上記動きぼけ付加パラメータは、上記動画像データの単位画像の領域毎について動きぼけを付加したか否を示すフラグ情報、又は上記動きベクトルの補正情報である請求項1に記載の画像処理装置。 The motion blur addition parameter, flag information indicating whether added with the motion blur for each area of the unit image of the moving image data, or the image processing apparatus according to claim 1 is the correction information of the motion vector. 上記動きぼけ削減手段は、前段の復号化処理において動画像データを復号化するために用いた動きベクトルを用いて動きぼけを削減するフィルタ処理を行う請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the motion blur reducing unit performs a filter process for reducing motion blur using a motion vector used for decoding moving image data in a preceding decoding process. 上記動きぼけ付加処理が施された上で符号化された動画像データを復号化する復号化手段をさらに備える請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising a decoding unit configured to decode the moving image data encoded after the motion blur addition process. 動きぼけ付加処理が施された上で符号化された動画像データから、該動画像データを構成する単位画像間での画像の動きを示す動き情報としての動きベクトルを生成する動きベクトル生成ステップと、
上記動きぼけ付加処理が施された上で符号化された動画像データを復号化する復号化ステップと、
上記復号化ステップによって得られた復号化された動画像データに対して、上記動きベクトル生成ステップにより生成した上記動きベクトルを用いたフィルタ処理を施すことにより、動きぼけの削減処理を実行する動きぼけ削減ステップ
有すると共に、
上記動きぼけ削減ステップでは、
上記動きぼけ付加処理が施された際に用いられた動きぼけ付加パラメータをもとに、上記動きぼけの削減処理の実行の可否を選択するか、又は上記動きぼけ削減処理の度合いを調整する
画像処理方法。
A motion vector generation step for generating a motion vector as motion information indicating the motion of an image between unit images constituting the moving image data from the moving image data which has been subjected to the motion blur addition process; ,
A decoding step for decoding moving picture data encoded in terms of the motion blur addition process has been applied,
A motion blur that performs a motion blur reduction process by performing a filtering process using the motion vector generated in the motion vector generation step on the decoded moving image data obtained in the decoding step. Reduction steps and
And having a,
In the above motion blur reduction step,
An image for selecting whether or not to perform the motion blur reduction process based on the motion blur addition parameter used when the motion blur addition process is performed, or for adjusting the degree of the motion blur reduction process Processing method.
動きぼけ付加処理が施された上で符号化された動画像データから、該動画像データを構成する単位画像間での画像の動きを示す動き情報としての動きベクトルを生成する動きベクトル生成ステップと、
上記動きぼけ付加処理が施された上で符号化された動画像データを復号化する復号化ステップと、
上記復号化ステップによって得られた復号化された動画像データに対して、上記動きベクトル生成ステップにより生成した上記動きベクトルを用いたフィルタ処理を施すことにより、動きぼけの削減処理を実行すると共に、上記動きぼけ付加処理が施された際に用いられた動きぼけ付加パラメータをもとに、上記動きぼけの削減処理の実行の可否を選択するか、又は上記動きぼけ削減処理の度合いを調整する動きぼけ削減ステップ
を情報処理装置に実行させるプログラム。
A motion vector generation step for generating a motion vector as motion information indicating the motion of an image between unit images constituting the moving image data from the moving image data which has been subjected to the motion blur addition process; ,
A decoding step for decoding moving picture data encoded in terms of the motion blur addition process has been applied,
A motion blur reduction process is performed on the decoded moving image data obtained by the decoding step by performing a filtering process using the motion vector generated by the motion vector generation step . A motion that selects whether or not to execute the motion blur reduction process based on the motion blur addition parameter used when the motion blur addition process is performed, or adjusts the degree of the motion blur reduction process program for executing a blur reduction step to the information processing apparatus.
JP2010192818A 2010-08-30 2010-08-30 Image processing apparatus, image processing method, and program Expired - Fee Related JP4915468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010192818A JP4915468B2 (en) 2010-08-30 2010-08-30 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010192818A JP4915468B2 (en) 2010-08-30 2010-08-30 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008197947A Division JP4613990B2 (en) 2008-07-31 2008-07-31 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2010268526A JP2010268526A (en) 2010-11-25
JP4915468B2 true JP4915468B2 (en) 2012-04-11

Family

ID=43365022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010192818A Expired - Fee Related JP4915468B2 (en) 2010-08-30 2010-08-30 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4915468B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6841097B2 (en) 2017-03-09 2021-03-10 富士通株式会社 Movement amount calculation program, movement amount calculation method, movement amount calculation device and business support system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07203428A (en) * 1993-12-28 1995-08-04 Canon Inc Image processing method and its device
JPH11252409A (en) * 1998-03-04 1999-09-17 Hitachi Ltd Image quality improvement circuit
JP2917988B1 (en) * 1998-03-16 1999-07-12 日本電気株式会社 Pre-filter for video encoder
JP4017318B2 (en) * 2000-06-09 2007-12-05 日本放送協会 Pre-processing equipment for high efficiency coding.
JP4596216B2 (en) * 2001-06-20 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP2004080252A (en) * 2002-08-14 2004-03-11 Toshiba Corp Video display unit and its method
EP1631090A1 (en) * 2004-08-31 2006-03-01 Matsushita Electric Industrial Co., Ltd. Moving picture coding apparatus and moving picture decoding apparatus
JP3753731B1 (en) * 2005-02-18 2006-03-08 三菱電機株式会社 Image processing apparatus, image processing method, and image display apparatus
JP4742813B2 (en) * 2005-10-28 2011-08-10 株式会社ニコン Image processing apparatus and image processing method
JP4961800B2 (en) * 2006-03-31 2012-06-27 ソニー株式会社 Image processing apparatus, image processing method, and computer program

Also Published As

Publication number Publication date
JP2010268526A (en) 2010-11-25

Similar Documents

Publication Publication Date Title
JP4613990B2 (en) Image processing apparatus, image processing method, and program
JP4666012B2 (en) Image processing apparatus, image processing method, and program
JP5007228B2 (en) Image cleanup and precoding
KR101298642B1 (en) Method and apparatus for eliminating image noise
JP5045674B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
KR101844332B1 (en) A method and an apparatus for debluring non-uniform motion blur usign multiframe comprises of a blur image and a noise image
JP2012516637A5 (en)
Norkin et al. Film grain synthesis for AV1 video codec
JP2007188493A (en) Method and apparatus for reducing motion blur in motion blur image, and method and apparatus for generating image with reduced motion blur by using a plurality of motion blur images each having its own blur parameter
JP2012249038A (en) Image signal processing apparatus and image signal processing method
Dai et al. Film grain noise removal and synthesis in video coding
JP2004159311A (en) Image processing apparatus and image processing method
TW202025085A (en) Image processing device and method
JP2008301336A (en) Image processing device, image encoding device and image decoding device
JP4915468B2 (en) Image processing apparatus, image processing method, and program
JP2005141722A (en) Image signal processing method, image signal processing apparatus, and image signal program
JP4824708B2 (en) Moving picture encoding method, apparatus, program, and computer-readable recording medium
WO2022071847A1 (en) Filter strength control for adaptive loop filtering
JP2011199349A (en) Unit and method for processing image, and computer program for image processing
AU2016201449B2 (en) Encoding and decoding using perceptual representations
CN111800583B (en) High dynamic range image partition processing method and device and computer readable storage medium
JP2014110509A (en) Image encoding device and image encoding method
KR101332030B1 (en) Method of magnifying image and computer readable medium storing the program thereof
JP6912642B2 (en) Image decoding device, image decoding method and program
JP5715533B2 (en) Moving image quality restoration apparatus, moving image quality restoration method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111227

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4915468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees