JP5219771B2 - Video processing apparatus and video processing apparatus control method - Google Patents

Video processing apparatus and video processing apparatus control method Download PDF

Info

Publication number
JP5219771B2
JP5219771B2 JP2008318540A JP2008318540A JP5219771B2 JP 5219771 B2 JP5219771 B2 JP 5219771B2 JP 2008318540 A JP2008318540 A JP 2008318540A JP 2008318540 A JP2008318540 A JP 2008318540A JP 5219771 B2 JP5219771 B2 JP 5219771B2
Authority
JP
Japan
Prior art keywords
motion vector
motion
motion blur
magnitude
frequency component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008318540A
Other languages
Japanese (ja)
Other versions
JP2010141813A (en
Inventor
康夫 鈴木
卓士 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008318540A priority Critical patent/JP5219771B2/en
Publication of JP2010141813A publication Critical patent/JP2010141813A/en
Application granted granted Critical
Publication of JP5219771B2 publication Critical patent/JP5219771B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像内の動きぼやけを検出し抑制する映像処理装置および映像処理装置の制御方法に関する。   The present invention relates to a video processing apparatus that detects and suppresses motion blur in a video and a control method for the video processing apparatus.

時間積分効果を有する撮影装置によって撮影された映像信号は露光時間の平均画像となる。そのため撮影対象の物体が動いていると、画像中にぼやけ(以下、動きぼやけ)が生じ、鮮明さが低下して画像が劣化してしまう。なお、この動きぼやけは、撮影対象の物体が固定されている状態で撮影装置が移動する場合にも発生する。また、物体と撮影装置が共に移動している場合(但し、物体と撮影装置が同一方向かつ同一速度で移動している場合を除く)にも発生する。つまり、物体と撮影装置とが相対的に移動する場合に生じるものである。   The video signal photographed by the photographing device having the time integration effect becomes an average image of the exposure time. For this reason, if the object to be photographed is moving, blurring (hereinafter referred to as motion blur) occurs in the image, the sharpness is lowered, and the image is deteriorated. Note that this motion blur also occurs when the photographing apparatus moves while the object to be photographed is fixed. It also occurs when the object and the imaging device are both moving (except when the object and the imaging device are moving in the same direction and at the same speed). That is, it occurs when the object and the photographing apparatus move relatively.

従来、このような動きぼやけの検出と画像の改善方法として以下のようなものがあった。まず、特開2006−081150号公報(特許文献1)には、撮影装置からぼやけの特性を示す動きベクトル情報やシャッター速度情報のパラメータ値を取得してぼやけを検出し、それらの値に応じて改善処理を行う方法が記載されている。   Conventionally, there have been the following methods for detecting motion blur and improving images. First, Japanese Patent Laid-Open No. 2006-081150 (Patent Document 1) acquires motion vector information indicating blur characteristics and parameter values of shutter speed information from a photographing apparatus to detect blur, and according to those values. A method for performing the improvement process is described.

また、特開2005−260929号公報(特許文献2)には、動画において画像を前景領域と背景領域に分け、動きベクトル情報により前景領域と背景領域の混合比を予測して、画像劣化を改善する方法が記載されている。
特開2006−081150号公報 特開2005−260929号公報
Japanese Patent Laid-Open No. 2005-260929 (Patent Document 2) divides an image into a foreground area and a background area in a moving image, predicts a mixture ratio of the foreground area and the background area based on motion vector information, and improves image degradation. How to do is described.
Japanese Patent Laid-Open No. 2006-081150 JP 2005-260929 A

しかしながら、上述した特許文献1の方法では、撮影装置からの情報が無ければ動きぼやけによる画像劣化を改善することができない。例えば、テレビのように放送局から映像信号を取得する映像処理装置においては、撮影装置からの情報を取得することができないために画像劣化を改善できない。   However, in the method of Patent Document 1 described above, image degradation due to motion blur cannot be improved without information from the imaging apparatus. For example, in a video processing apparatus that acquires a video signal from a broadcasting station such as a television, image deterioration cannot be improved because information from a photographing apparatus cannot be acquired.

さらに、特許文献1の方法では、撮影後に合成されたテロップなどの動きぼやけのない領域についても動きぼやけがある領域と同様に処理が施されるため、テロップの輪郭が過剰に強調されてしまう。   Furthermore, in the method of Patent Document 1, an area without motion blur, such as a telop synthesized after shooting, is processed in the same manner as an area with motion blur, so that the outline of the telop is excessively emphasized.

また、特許文献2に記載の方法では、動きベクトル値から前景領域と背景領域の混合比を予測するため、動きぼやけによる画像劣化の有無の検出はできず、動きベクトル値に応じて一律に改善処理を行う。このため動きぼやけが無い動画に対して一律に改善処理を行うことになり、画像に違和感が生じてしまう。   Further, in the method described in Patent Document 2, since the mixture ratio of the foreground area and the background area is predicted from the motion vector value, it is not possible to detect the presence or absence of image degradation due to motion blur, and it is improved uniformly according to the motion vector value. Process. For this reason, the improvement process is uniformly performed on a moving image having no motion blur, and the image is uncomfortable.

本発明は上記実情に鑑みてなされたものであり、その目的とするところは次の通りである。すなわち、画素ごと又は任意領域ごとに動きぼやけの有無と動きぼやけによる画像の劣化度合いを検出し、動きぼやけのある領域に対して劣化度合いに応じた改善処理を施すことである。これにより、画質が向上した鮮明な映像を提供することである。   The present invention has been made in view of the above circumstances, and its object is as follows. That is, the presence / absence of motion blur and the degree of image degradation due to motion blur are detected for each pixel or each arbitrary region, and improvement processing corresponding to the degree of degradation is performed on a region with motion blur. This is to provide a clear image with improved image quality.

上記目的を達成するために、本発明の第一の発明では、以下の構成を採用する。すなわち、
撮影した映像に生じる動きぼやけを補正する映像処理装置であって、
補正する現フレームに含まれる画像を所定のサイズの検出単位に分割し、前記検出単位ごとに動きベクトルを検出する動きベクトル検出部と、
画像領域の周波数成分を求めるとともに、前記検出単位を含む画像領域の周波数成分と、前記検出した動きベクトルの始点を含む画像領域の、前のフレームでの周波数成分と、を求める空間周波数分割部と、
検出した動きベクトルと、現フレームと前のフレームの間の、動きベクトルの大きさの変化及び周波数成分の変化とに基づいて、少なくとも、前のフレームから現フレームにかけて、動きベクトルの大きさが増加しかつ周波数成分が低域に変化した場合か、動きベクトルの大きさが減少しかつ周波数成分が高域に変化した場合に、前記検出単位における動きぼやけの有りと判定する動きぼやけ検出部と、
前記動きぼやけ検出部が動きぼやけ有りと判定した場合に、前記動きベクトルの大きさの変化及び周波数成分の変化に基づいて、動きぼやけを補正する改善処理部と
を備えることを特徴とする映像処理装置である。
In order to achieve the above object, the first aspect of the present invention employs the following configuration. That is,
A video processing device that corrects motion blur generated in a captured video,
A motion vector detection unit that divides an image included in a current frame to be corrected into detection units of a predetermined size and detects a motion vector for each detection unit;
A spatial frequency division unit for obtaining a frequency component of the image region and obtaining a frequency component of the image region including the detection unit and a frequency component in a previous frame of the image region including the start point of the detected motion vector; ,
Based on the detected motion vector and the change in the magnitude and frequency component of the motion vector between the current frame and the previous frame, the magnitude of the motion vector increases at least from the previous frame to the current frame. When the frequency component changes to a low frequency, or when the magnitude of the motion vector decreases and the frequency component changes to a high frequency , a motion blur detection unit that determines that there is motion blur in the detection unit;
An image processing process comprising: an improvement processing unit that corrects motion blur based on a change in magnitude of the motion vector and a change in frequency component when the motion blur detection unit determines that motion blur exists Device.

また、本発明の第二の発明では、以下の構成を採用する。すなわち、
撮影した映像に生じる動きぼやけを補正する映像処理装置の制御方法であって、
補正する現フレームに含まれる画像を所定のサイズの検出単位に分割し、前記検出単位ごとに動きベクトルを検出するステップと、
画像領域の周波数成分を求めるとともに、前記検出単位を含む画像領域の周波数成分と、前記検出した動きベクトルの始点を含む画像領域の、前のフレームでの周波数成分と、を求めるステップと、
検出した動きベクトルと、現フレームと前のフレームの間の、動きベクトルの大きさの変化及び周波数成分の変化とに基づいて、少なくとも、前のフレームから現フレームにかけて、動きベクトルの大きさが増加しかつ周波数成分が低域に変化した場合か、動きベクトルの大きさが減少しかつ周波数成分が高域に変化した場合に、前記検出単位における動きぼやけ有りと判定する動きぼやけ検出ステップと、
前記動きぼやけ検出ステップにおいて、動きぼやけ有りと判定された場合に、前記動きベクトルの大きさの変化及び周波数成分の変化に基づいて、動きぼやけを補正する改善処理ステップと
有することを特徴とする映像処理装置の制御方法である。
In the second invention of the present invention, the following configuration is adopted. That is,
A control method of a video processing device for correcting motion blur that occurs in a captured video,
Dividing an image included in a current frame to be corrected into detection units of a predetermined size, and detecting a motion vector for each detection unit;
Obtaining the frequency component of the image region, and determining the frequency component of the image region including the detection unit and the frequency component in the previous frame of the image region including the start point of the detected motion vector;
Based on the detected motion vector and the change in the magnitude and frequency component of the motion vector between the current frame and the previous frame, the magnitude of the motion vector increases at least from the previous frame to the current frame. And a motion blur detection step for determining that there is motion blur in the detection unit when the frequency component changes to a low frequency, or when the magnitude of the motion vector decreases and the frequency component changes to a high frequency ,
In the motion blur detection step, when it is determined that there motion blur, based on the change in the change of the magnitude and frequency components of the motion vector, and having a improved process step of correcting the motion blur A control method for a video processing apparatus.

本発明によれば、画素ごと又は任意領域ごとに動きぼやけの有無と動きぼやけによる画像の劣化度合いを検出し、動きぼやけのある領域に対して劣化度合いに応じた改善処理を施すことにより、画質が向上した鮮明な映像を提供することができる。   According to the present invention, the presence or absence of motion blur and the degree of degradation of an image due to motion blur are detected for each pixel or arbitrary area, and an improvement process corresponding to the degree of degradation is performed on a region with motion blur, thereby It is possible to provide clear images with improved image quality.

以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。   Exemplary embodiments of the present invention will be described in detail below with reference to the drawings.

<実施形態1>
本実施形態では、注目画素の動きぼやけを検出するために、1つ前のフレームとの間の空間周波数の成分の変化と、動きベクトルの変化を利用する映像処理装置について説明する。
<Embodiment 1>
In the present embodiment, a video processing apparatus that uses a change in a spatial frequency component between a previous frame and a change in a motion vector in order to detect motion blur of a target pixel will be described.

(映像処理装置の構成)
図1に示したブロック図を参照しつつ、本実施形態の映像処理装置の構成について説明する。映像処理装置は、フレームメモリ部102、動きベクトル検出部103、画素抽出部104、前フレーム空間周波数分割部105を備える。映像処理装置はまた、現フレーム空間周波数分割部106、周波数成分変化量算出部107、動きベクトルフレームメモリ部108、動きベクトル値抽出部109、動きベクトル変化量算出部110を備える。映像処理装置はさらに、注目画素ぼやけ判定部111、改善処理適応判定部112、改善処理値フレームメモリ部113、改善処理値抽出部114、改善処理部115を備える。
(Configuration of video processing device)
The configuration of the video processing apparatus according to the present embodiment will be described with reference to the block diagram shown in FIG. The video processing apparatus includes a frame memory unit 102, a motion vector detection unit 103, a pixel extraction unit 104, and a previous frame spatial frequency division unit 105. The video processing apparatus also includes a current frame spatial frequency division unit 106, a frequency component change amount calculation unit 107, a motion vector frame memory unit 108, a motion vector value extraction unit 109, and a motion vector change amount calculation unit 110. The video processing apparatus further includes a target pixel blur determination unit 111, an improvement processing adaptation determination unit 112, an improvement processing value frame memory unit 113, an improvement processing value extraction unit 114, and an improvement processing unit 115.

(処理の流れ)
以下、動きぼやけ検出と改善処理について説明する。まず、映像処理装置は、放送信号などから所定のフレームレートを持つ入力映像信号101を取得する。
(Process flow)
Hereinafter, motion blur detection and improvement processing will be described. First, the video processing apparatus acquires an input video signal 101 having a predetermined frame rate from a broadcast signal or the like.

フレームメモリ部102は、入力映像信号101のフレーム遅延信号を生成し格納する。本実施形態では1フレーム遅延信号とする。   The frame memory unit 102 generates and stores a frame delay signal of the input video signal 101. In this embodiment, it is assumed that the signal is one frame delayed.

動きベクトル検出部103は、入力映像信号101と、フレームメモリ部102に格納
された1フレーム遅延信号とから映像内の動きベクトル検出を行う。この際、フレームの画像を所定のサイズの検出単位に分割し、検出単位ごとに動きベクトルを検出する。検出単位の大きさ(画素数)は任意であり、複数の画素からなる領域を検出単位としても良いし、1つの画素であっても良い。本実施形態では1つの画素をもって1つの検出単位とする。また、動きベクトルの方向は水平方向とする。
The motion vector detection unit 103 detects a motion vector in the video from the input video signal 101 and the 1-frame delay signal stored in the frame memory unit 102. At this time, the frame image is divided into detection units of a predetermined size, and a motion vector is detected for each detection unit. The size (number of pixels) of the detection unit is arbitrary, and an area composed of a plurality of pixels may be used as the detection unit, or a single pixel. In this embodiment, one pixel is used as one detection unit. The direction of the motion vector is the horizontal direction.

図2の現フレームの注目画素を例にして、動きベクトルの検出方法を説明する。まず、この注目画素の画素値と、1フレーム前の注目画素から左右30個ずつ(計61個)の画素の画素値との差分を求める。その差分が最小値となる画素(以下、対応画素と記述)から注目画素へのベクトルが、動きベクトルである。例えば、図2のAの矢印で示す差分が最小値の場合、注目画素の動きベクトルの向きは左方向であり、大きさは1である(以下、必要に応じて動きベクトルの大きさを「動きベクトル値」と記述する)。なお、検出単位が複数の画素からなる領域である場合は、検出単位に含まれる画素の平均画素値について上記の方法を用いたり、ブロックマッチングを行ったりすることで動きベクトルを検出できる。   The motion vector detection method will be described with reference to the pixel of interest in the current frame in FIG. First, the difference between the pixel value of the pixel of interest and the pixel values of 30 pixels on the left and right (a total of 61 pixels) from the pixel of interest one frame before is obtained. A vector from a pixel having the minimum difference (hereinafter referred to as a corresponding pixel) to a target pixel is a motion vector. For example, when the difference indicated by the arrow A in FIG. 2 is the minimum value, the direction of the motion vector of the target pixel is the left direction and the size is 1 (hereinafter, the size of the motion vector is changed to “ Motion vector value ”). When the detection unit is an area composed of a plurality of pixels, the motion vector can be detected by using the above method or performing block matching on the average pixel value of the pixels included in the detection unit.

ここで本実施形態では、図3に示したように丸い動体が左から右に移動しており、画素Aについて方向は右、大きさはNの動きベクトルが検出されたものとする。   Here, in the present embodiment, as shown in FIG. 3, it is assumed that the round moving body is moving from the left to the right, and that the motion vector having the right direction and the size N is detected for the pixel A.

画素抽出部104は、フレームメモリ部102に格納された1フレーム遅延信号から、動きベクトル検出部103が検出した動きベクトルの始点の近傍領域(以下、抽出領域と記述)を抽出する。本実施形態では右方向N画素の動きベクトルが検出されているので、図3に示したように画素Aから左にN画素移動した点を中心としてX×Y画素の領域を抽出する。抽出領域のサイズ(X×Y)は空間周波数分割を行って動きぼやけを検出できる程度の広さに設定し、ここでは、9×9画素とする。   The pixel extraction unit 104 extracts a region near the start point of the motion vector detected by the motion vector detection unit 103 (hereinafter referred to as an extraction region) from the one-frame delay signal stored in the frame memory unit 102. In this embodiment, since a motion vector of N pixels in the right direction is detected, an X × Y pixel region is extracted centering on a point moved N pixels to the left from the pixel A as shown in FIG. The size of the extraction region (X × Y) is set to a size that can detect motion blur by performing spatial frequency division, and is 9 × 9 pixels here.

前フレーム空間周波数分割部105は、画素抽出部104が求めた前フレームの抽出領域から空間周波数分割情報を検出する。ここで、本実施形態では、図4のように画像領域の画素を低域成分から高域成分までn分割し、各帯域の成分量を検出する。本実施形態では9×9画素の抽出領域についてアダマール変換を行い、空間周波数分割情報を検出する。   The previous frame spatial frequency division unit 105 detects spatial frequency division information from the extraction region of the previous frame obtained by the pixel extraction unit 104. Here, in the present embodiment, as shown in FIG. 4, the pixels in the image region are divided into n from the low-frequency component to the high-frequency component, and the component amount in each band is detected. In the present embodiment, Hadamard transform is performed on an extraction region of 9 × 9 pixels to detect spatial frequency division information.

現フレーム空間周波数分割部106は、入力映像信号の現フレームの注目画素を中心とした9×9画素の領域から、空間周波数分割情報を検出する。検出方法は1フレーム遅延信号について前フレーム空間周波数分割部105が行った方法と同様である。   The current frame spatial frequency division unit 106 detects spatial frequency division information from a 9 × 9 pixel region centered on the target pixel of the current frame of the input video signal. The detection method is the same as the method performed by the previous frame spatial frequency division unit 105 for the one-frame delayed signal.

周波数成分変化量算出部107は、前フレームと現フレームの空間周波数分割情報より、周波数成分の変化量を算出する。本実施形態では、図5に示したように空間周波数分割数n=8として、各帯域の成分量を比較する。ここで、前フレームの空間周波数分割情報は図5(a)、現フレームの空間周波数分割情報は図5(b)である。したがって、図5(a)と図5(b)で帯域毎に成分量の差分をとることにより、周波数成分変化量を算出することが出来る。図5(a)と図5(b)を比較すると図5(b)の方が高域成分の成分量が大きく、前フレームから現フレームにかけて、低域成分から高域成分に変化していることが分かる。   The frequency component change amount calculation unit 107 calculates the change amount of the frequency component from the spatial frequency division information of the previous frame and the current frame. In the present embodiment, as shown in FIG. 5, the number of spatial frequency divisions n = 8 is used, and the component amounts of the respective bands are compared. Here, the spatial frequency division information of the previous frame is shown in FIG. 5A, and the spatial frequency division information of the current frame is shown in FIG. 5B. Therefore, the frequency component change amount can be calculated by taking the difference between the component amounts for each band in FIGS. 5A and 5B. Comparing FIG. 5 (a) and FIG. 5 (b), FIG. 5 (b) has a larger amount of high-frequency components, and changes from low-frequency components to high-frequency components from the previous frame to the current frame. I understand that.

動きベクトルフレームメモリ部108は、動きベクトル検出部103が画素ごとに求めた動きベクトルを任意フレーム遅延させる。本実施形態では1フレーム遅延とする。   The motion vector frame memory unit 108 delays the motion vector obtained for each pixel by the motion vector detection unit 103 by an arbitrary frame. In this embodiment, the delay is one frame.

動きベクトル値抽出部109は、動きベクトル検出部103が求めた動きベクトルに応じて、動きベクトルフレームメモリ部108から動きベクトル値抽出を行う。ここで本実
施形態では図6に示したように、注目画素について、方向は右、大きさはN画素の動きベクトルが検出されている。そこで、動きベクトルの始点に位置する対応画素について、前フレームでの動きベクトル値を抽出する。
The motion vector value extraction unit 109 extracts a motion vector value from the motion vector frame memory unit 108 according to the motion vector obtained by the motion vector detection unit 103. Here, in the present embodiment, as shown in FIG. 6, the motion vector of the right direction and the size of N pixels is detected for the target pixel. Therefore, the motion vector value in the previous frame is extracted for the corresponding pixel located at the start point of the motion vector.

動きベクトル変化量算出部110は、抽出した前フレームでの対応画素の動きベクトルと、現フレームの注目画素の動きベクトルとから、動きベクトル変化量を算出する。動きベクトル変化量は2つの動きベクトル値の差分である。   The motion vector change amount calculation unit 110 calculates a motion vector change amount from the extracted motion vector of the corresponding pixel in the previous frame and the motion vector of the target pixel in the current frame. The motion vector change amount is a difference between two motion vector values.

比較結果は大きく分けて下記(a)〜(e)の5つに分かれる。動きベクトル変化量算出部110はこの結果に基づいて動き量の傾向を判別する。現フレームの動きベクトル値をVa、前フレームの動きベクトル値をVbとすると、
(a)Va>Vbの場合、動き量が増加したと判別する。
(b)Va<Vbの場合、動き量が減少したと判別する。
(c)Va=Vbの場合、動き量に変化が無いと判別する。
(d)Va=0の場合、静止と判別する。
(e)Vbが抽出できない、すなわち動体が画面外から画面内に現れる場合は、動きベクトル変化量が検出できないと判別する。
The comparison results are roughly divided into the following five (a) to (e). The motion vector change amount calculation unit 110 determines the tendency of the motion amount based on this result. If the motion vector value of the current frame is Va and the motion vector value of the previous frame is Vb,
(A) When Va> Vb, it is determined that the amount of motion has increased.
(B) If Va <Vb, it is determined that the amount of motion has decreased.
(C) When Va = Vb, it is determined that there is no change in the motion amount.
(D) When Va = 0, it is determined as stationary.
(E) If Vb cannot be extracted, that is, if a moving object appears from the outside of the screen, it is determined that the motion vector change amount cannot be detected.

注目画素ぼやけ判定部111は、現フレーム注目画素の動きベクトル値及び空間周波数分割情報に基づいて、注目画素ぼやけ判定を行う。まず、図7に示した横軸を動きベクトル値、縦軸を空間周波数の低域成分量としたグラフに、現フレームの動きベクトル値と低域成分量をプロットする。ここで低域成分量とは、図8のように注目画素の空間周波数分割情報の分割数を8分割とした場合、低域成分である0〜2の成分量を合計したものである。   The target pixel blur determination unit 111 performs target pixel blur determination based on the motion vector value of the target pixel of the current frame and the spatial frequency division information. First, the motion vector value and the low frequency component amount of the current frame are plotted on a graph in which the horizontal axis shown in FIG. 7 is the motion vector value and the vertical axis is the low frequency component amount of the spatial frequency. Here, the low-frequency component amount is a sum of component amounts of 0 to 2, which are low-frequency components, when the number of divisions of the spatial frequency division information of the pixel of interest is 8 as shown in FIG.

続いて、図7においてプロットした部分が所定の傾きAと所定の傾きBの間に入っているか判定する。プロットした部分が傾きAより上にある場合、動きベクトル値に対するぼやけが大きく、撮影による動きぼやけでは無いと判断出来る。一方、プロットした部分が傾きBより下にある場合、ぼやけが小さい為、テロップなどの映像と認識し動きぼやけでは無いと判断出来る。本実施形態においては、図7に示したように、注目画素の動きベクトル値が3のときは低域成分量が傾きAと傾きBの間に入っている為、注目画素の動きぼやけは有りと判定できる。また、注目画素の動きベクトル値が4のときは低域成分量が傾きAと傾きBの間に入っていない為、注目画素の動きぼやけなしと判定できる。   Subsequently, it is determined whether the plotted portion in FIG. 7 is between the predetermined inclination A and the predetermined inclination B. When the plotted portion is above the slope A, it can be determined that the motion vector value is largely blurred and is not a motion blur caused by shooting. On the other hand, when the plotted portion is below the slope B, since the blur is small, it can be determined that it is not motion blur by recognizing it as a video such as a telop. In this embodiment, as shown in FIG. 7, when the motion vector value of the pixel of interest is 3, the low-frequency component amount is between the gradient A and the gradient B, so there is motion blur of the pixel of interest. Can be determined. When the motion vector value of the pixel of interest is 4, since the low-frequency component amount does not fall between the gradient A and the gradient B, it can be determined that there is no motion blur of the pixel of interest.

改善処理適応判定部112は、画質の動きぼやけの有無を判定して、それに応じていかなる画質の改善処理をするべきか決める。このときの判定結果は4つに分かれる。
(1)静止画である。
(2)動きぼやけである。
(3)動きぼやけではない。
(4)判定できない。
The improvement process adaptation determination unit 112 determines the presence / absence of motion blur of image quality, and determines what image quality improvement process should be performed according to the determination. The determination result at this time is divided into four.
(1) A still image.
(2) Motion blur.
(3) It is not motion blur.
(4) Cannot be determined.

判定方法を図9にまとめる。
(1)の判定は、動きベクトル変化量算出部110において現フレームの注目画素が静止と判定された場合である。このとき、周波数成分の変化量は問わない。
The determination method is summarized in FIG.
The determination of (1) is when the motion vector change amount calculation unit 110 determines that the target pixel of the current frame is stationary. At this time, the amount of change in the frequency component does not matter.

(2)は、動きぼやけであると判定した場合である。図9においては「動きベクトル変化量増かつ周波数成分変化量が低域に変化した場合」と「動きベクトル変化量減かつ周波数成分変化量が高域に変化した場合」が該当する。これは動体の動くスピードが速くなるとぼやけが大きくなり、反対に動くスピードが遅くなるとぼやけが小さくなるという動きぼやけの性質を利用したものである。 (2) is a case where it is determined that the motion is blurred. In FIG. 9, “when the motion vector change amount is increased and the frequency component change amount is changed to a low region” and “the motion vector change amount is decreased and the frequency component change amount is changed to a high region” are applicable. This uses the motion blur property that blurring increases as the moving speed of the moving object increases and blurring decreases as the moving speed decreases.

(3)は、動きぼやけでは無いと判定した場合である。図9においては「動きベクトル変化量増」または「動きベクトル変化量減」のうち、上記(2)以外の場合が該当する。さらに、動きベクトル変化量が変わらない場合は、周波数成分変化量を問わず該当する。 (3) is a case where it is determined that there is no motion blur. In FIG. 9, cases other than “(2)” among “increase in motion vector change amount” or “decrease in motion vector change amount” are applicable. Further, when the motion vector change amount does not change, it corresponds regardless of the frequency component change amount.

(4)の判定は、動きベクトル変化量算出部110により動きベクトル変化量が検出できない場合である。このとき、周波数成分の変化量は問わない。   The determination of (4) is when the motion vector change amount calculation unit 110 cannot detect the motion vector change amount. At this time, the amount of change in the frequency component does not matter.

改善処理値フレームメモリ部113は、後述する改善処理部115が出力する改善処理値を任意フレーム遅延させる。本実施形態では1フレーム遅延とする。   The improvement processing value frame memory unit 113 delays an improvement processing value output from the improvement processing unit 115 described later by an arbitrary frame. In this embodiment, the delay is one frame.

改善処理値抽出部114は、動きベクトル検出部103が検出した動きベクトルに応じて改善処理値フレームメモリ部113より改善処理値の抽出を行う。本実施形態においては方向は右、大きさはN画素の動きベクトルが検出されているので、図10に示したように、ベクトルの始点である対応画素の、前フレームにおける改善処理値を抽出する。   The improvement process value extraction unit 114 extracts an improvement process value from the improvement process value frame memory unit 113 in accordance with the motion vector detected by the motion vector detection unit 103. In the present embodiment, since a motion vector having the right direction and the size of N pixels is detected, as shown in FIG. 10, the improvement processing value in the previous frame of the corresponding pixel that is the starting point of the vector is extracted. .

改善処理部115は、改善処理適応判定部112と注目画素ぼやけ判定部111の判定結果に応じて動きぼやけの改善処理値を決定し、改善処理を行う。本実施形態では輪郭強調補正処理により改善を行うものとし、輪郭強調補正処理の強度が改善処理値である。改善処理値は本発明における補正量に当たる。また、改善処理部115は本発明における補正量決定部に当たる。   The improvement processing unit 115 determines a motion blur improvement processing value according to the determination results of the improvement processing adaptation determination unit 112 and the target pixel blur determination unit 111, and performs the improvement processing. In the present embodiment, the improvement is performed by the contour emphasis correction processing, and the strength of the contour emphasis correction processing is the improvement processing value. The improvement processing value corresponds to the correction amount in the present invention. The improvement processing unit 115 corresponds to a correction amount determination unit in the present invention.

改善処理適応判定部112で(1)と判定された場合は、静止画に適した輪郭強調補正の強度を決定する。   When the improvement process adaptation determination unit 112 determines (1), it determines the strength of contour enhancement correction suitable for a still image.

改善処理適応判定部112で(2)と判定された場合、すなわち動きぼやけ有りの場合は、周波数成分変化量と動きベクトル変化量に応じてゲイン値を決定する。決定したゲイン値によって改善処理値抽出部114が抽出した前フレームの改善処理値を修正して、輪郭強調補正の強度を決定する。   When the improvement process adaptation determination unit 112 determines (2), that is, when there is motion blur, the gain value is determined according to the frequency component change amount and the motion vector change amount. Based on the determined gain value, the improvement processing value of the previous frame extracted by the improvement processing value extraction unit 114 is corrected to determine the strength of contour enhancement correction.

例えば、図9にて「動きベクトル変化量増かつ空間周波数分割情報が低域に変化」が該当した場合、図11のグラフより動きベクトル変化量に対するゲイン値Aを、図12のグラフより周波数成分変化量に対するゲイン値Bを、それぞれ求める。そして、図13のグラフより、ゲイン値Aとゲイン値Bの積に対応するゲイン値Cを求める。最後にゲイン値Cと前フレームの改善処理値を乗算することで、輪郭強調補正の強度を決定する。   For example, when “increase in motion vector change amount and spatial frequency division information changes to low frequency” in FIG. 9, the gain value A with respect to the motion vector change amount from the graph of FIG. 11 and the frequency component from the graph of FIG. A gain value B with respect to the change amount is obtained. Then, a gain value C corresponding to the product of the gain value A and the gain value B is obtained from the graph of FIG. Finally, the strength of the contour enhancement correction is determined by multiplying the gain value C by the improvement processing value of the previous frame.

このように、動きベクトル値の変化に基づいて改善処理値に修正を加えていくことにより、前フレームと現フレームの間の改善処理値が急激に変化することを防ぎ、違和感の少ない輪郭強調補正処理が可能になる。なお、本実施形態においては、ここで求めた周波数成分変化量が本発明における特徴量に当たる。   In this way, by modifying the improvement processing value based on the change in the motion vector value, it is possible to prevent the improvement processing value between the previous frame and the current frame from changing abruptly, and to improve the contour emphasis correction with less sense of incongruity. Processing becomes possible. In the present embodiment, the frequency component change amount obtained here corresponds to the feature amount in the present invention.

改善処理適応判定部112で(3)と判定された場合は、改善処理値抽出部114が抽出した前フレームの改善処理値をそのまま輪郭強調補正の強度として決定する。   When the improvement process adaptation determination unit 112 determines (3), the improvement process value of the previous frame extracted by the improvement process value extraction unit 114 is directly determined as the strength of the contour enhancement correction.

改善処理適応判定部112で(4)と判定された場合は、動体が画面外から画面内に現れているため、前フレームの改善処理値を用いることができない。そこで、先に注目画素ぼやけ判定部111の判定結果に応じて輪郭強調補正の強度を決定する。注目画素ぼやけ判定は現フレームについての動きベクトルと空間周波数分割情報から求められるので、この場合であっても利用可能である。   When the improvement process adaptation determination unit 112 determines (4), the moving object appears in the screen from the outside of the screen, and thus the improvement processing value of the previous frame cannot be used. Therefore, the strength of the contour enhancement correction is first determined according to the determination result of the target pixel blur determination unit 111. Since the target pixel blur determination is obtained from the motion vector and spatial frequency division information for the current frame, it can be used even in this case.

改善処理適応判定部112で(4)と判定され、かつ、注目画素ぼやけ判定部111にて動きぼやけ有りと判定された場合、動きベクトル検出部103の注目画素の動きベクトル値より輪郭強調補正の強度を決定する。例えば図14のグラフに示したように、注目画素の動きベクトル値に応じて輪郭強調補正の強度を決定する。   When the improvement process adaptation determination unit 112 determines (4) and the target pixel blur determination unit 111 determines that there is motion blur, contour enhancement correction is performed based on the motion vector value of the target pixel of the motion vector detection unit 103. Determine strength. For example, as shown in the graph of FIG. 14, the strength of edge enhancement correction is determined according to the motion vector value of the target pixel.

改善処理適応判定部112で(4)と判定され、かつ、注目画素ぼやけ判定部111にて動きぼやけなしと判定された場合、注目画素の動きぼやけは無いと判断し、静止画に適した輪郭強調補正の強度を決定する。   When the improvement process adaptation determination unit 112 determines (4) and the target pixel blur determination unit 111 determines that there is no motion blur, the target pixel determines that there is no motion blur, and the contour is suitable for a still image. Determine the strength of enhancement correction.

以上の一連の処理により、改善処理部115は、注目画素に対して適切な輪郭強調補正を行うことができる。この処理を各画素について施すことで、出力映像信号116が得られる。   Through the series of processes described above, the improvement processing unit 115 can perform appropriate edge enhancement correction on the target pixel. By performing this process on each pixel, an output video signal 116 is obtained.

(まとめ)
以上の技術の発明効果を図15により説明を行う。図15の前フレーム映像信号では物体Aと物体Bともに静止しており、現フレーム映像信号では物体Aと物体Bともに動体である。前フレームから現フレームにかけて物体Aは動きぼやけが発生し、物体Bは動きぼやけが発生していないとする。具体的には物体Aは、撮影装置により動きぼやけが発生しているオブジェクトであり、物体Bは撮影後に映像に多重化されたテクスチャーやテロップである。
(Summary)
The effects of the above technique will be described with reference to FIG. In the previous frame video signal of FIG. 15, both the object A and the object B are stationary, and in the current frame video signal, both the object A and the object B are moving objects. It is assumed that motion blur occurs in the object A from the previous frame to the current frame, and motion blur does not occur in the object B. Specifically, the object A is an object in which motion blur is generated by the photographing apparatus, and the object B is a texture or a telop multiplexed on the video after photographing.

本実施形態の映像処理装置を用いてこの映像を処理すると、図15の注目画素1の動きベクトル変化量は増加し、かつ周波数成分変化量は低域に変化している為、動きぼやけであると検出することができる。そして、変化量に応じて適応的に動きぼやけを改善することができる。また、図15の注目画素2の動きベクトル変化量は増加しているが周波数成分変化量の変化は無く、動きぼやけではないことが検出できる。このように本実施形態の映像処理装置によれば、動きぼやけを検出し、映像に違和感なく動きぼやけのある領域の画質を効果的に改善することができる。   When this video is processed using the video processing apparatus of the present embodiment, the motion vector change amount of the pixel of interest 1 in FIG. 15 increases and the frequency component change amount changes to a low frequency, which is motion blur. Can be detected. Then, motion blur can be adaptively improved according to the amount of change. In addition, although the amount of change in the motion vector of the target pixel 2 in FIG. As described above, according to the video processing apparatus of the present embodiment, motion blur can be detected, and the image quality of an area with motion blur can be effectively improved without a sense of incongruity in the video.

<実施形態2>
本実施形態では、画素傾きを利用して動きぼやけ領域とぼやけ度合いを検出し、補正値を算出し、補正する映像処理装置とその制御方法について説明する。
<Embodiment 2>
In the present embodiment, a video processing device that detects a motion blur region and a blur degree using pixel inclination, calculates a correction value, and corrects the image processing device and a control method thereof will be described.

動きぼやけについて、図16により説明する。まず、左側の映像信号1は、露光時間が短いため動きぼやけが起こらない例である。A、B、Cは連続するフレームであり、短い露光時間と長いインターバルで撮影されている。この場合、動く前景と静止している背景との境界において画素値の混合は無く、明確に分離されている。   The motion blur will be described with reference to FIG. First, the video signal 1 on the left is an example in which motion blur does not occur because the exposure time is short. A, B, and C are continuous frames, and are shot with a short exposure time and a long interval. In this case, there is no mixing of pixel values at the boundary between the moving foreground and the stationary background, and they are clearly separated.

次に、右側の映像信号2は、露光時間が長いため動きぼやけが起きている例である。D、Eは連続するフレームである。この場合、動く前景と静止している背景の境界は、前景と背景が混合された画素値となり、動きぼやけが生じることになる。ここでは、動きぼやけの領域を網掛けで示している。   Next, the video signal 2 on the right is an example in which motion blur occurs due to a long exposure time. D and E are continuous frames. In this case, the boundary between the moving foreground and the stationary background becomes a pixel value in which the foreground and the background are mixed, and motion blur occurs. Here, the motion blur region is shown by shading.

このような動きぼやけによる鮮明さの低下は、フレームレートを上げるために中間フレームを生成した場合に一層顕著になる。図17にフレームレート変換とぼやけの関係を示す。図中Aは撮影画像をそのまま表示したフレームレート60Hzの映像であり、動きぼやけにより鮮明さが低下している。ただしこの場合、画素値11aと画素値12aで前景と背景が混合するぼやけ領域が重ならない。図中Bはフレームレート変換により中間フレームの画素値13bが挿入されたフレームレート120Hzの映像である。この場合、フレーム間での前景の動き量が小さいため、ぼやけ領域が重なり鮮明さが著しく低下する。
従って、図中Cに示すように、動きぼやけ領域を削減して重なりをなくし、画像の鮮明さを向上させることが望まれている。
Such a decrease in sharpness due to motion blur becomes more prominent when an intermediate frame is generated in order to increase the frame rate. FIG. 17 shows the relationship between frame rate conversion and blur. In the figure, A is an image with a frame rate of 60 Hz that displays the photographed image as it is, and the sharpness is reduced due to motion blur. However, in this case, the blurred region where the foreground and the background are mixed with the pixel value 11a and the pixel value 12a does not overlap. B in the figure is an image with a frame rate of 120 Hz in which the pixel value 13b of the intermediate frame is inserted by frame rate conversion. In this case, since the amount of motion of the foreground between frames is small, blur regions overlap and sharpness is significantly reduced.
Therefore, as shown in C in the figure, it is desired to reduce the motion blur region to eliminate the overlap and to improve the sharpness of the image.

(映像処理装置の構成)
図に示したブロック図を参照しつつ、映像処理装置の構成を説明する。図18は、本発明を適応するシステムのブロック図である。図はフレームメモリ部202、動きベクトル検出部203、画素傾き検出部204、傾き正規化処理部205、動きぼやけ検出部206、改善処理値選択部207、改善処理部208で構成される。
(Configuration of video processing device)
The configuration of the video processing apparatus will be described with reference to the block diagram shown in the figure. FIG. 18 is a block diagram of a system to which the present invention is applied. The figure includes a frame memory unit 202, a motion vector detection unit 203, a pixel inclination detection unit 204, an inclination normalization processing unit 205, a motion blur detection unit 206, an improvement processing value selection unit 207, and an improvement processing unit 208.

以下、各ブロックの機能について説明する。フレームメモリ部202は、入力映像信号201のフレーム遅延信号を生成し格納する。本実施形態では1フレーム遅延信号とする。動きベクトル検出部203は、検出単位ごとに動きベクトルを検出する。   Hereinafter, the function of each block will be described. The frame memory unit 202 generates and stores a frame delay signal of the input video signal 201. In this embodiment, it is assumed that the signal is one frame delayed. The motion vector detection unit 203 detects a motion vector for each detection unit.

画素傾き検出部204は、微分回路で構成され、連続する画素の値の変化を検出する。ぼやけ領域は動きベクトル値に比例して広がるため、ぼやけ領域の画素傾きは動きベクトル値と反比例の関係にある。そこで、傾き正規化処理部205は、画素傾き検出部204で検出された傾きの値に動きベクトル検出部203で検出された動きベクトル値を乗算し、傾き値を正規化する。すなわち、本実施形態で言う正規化とは、傾きの値を動きベクトル値で重み付けし、評価値を得ることである。   The pixel inclination detection unit 204 includes a differentiation circuit, and detects a change in the value of successive pixels. Since the blurred area spreads in proportion to the motion vector value, the pixel inclination of the blurred area has an inversely proportional relationship with the motion vector value. Therefore, the inclination normalization processing unit 205 normalizes the inclination value by multiplying the inclination value detected by the pixel inclination detection unit 204 by the motion vector value detected by the motion vector detection unit 203. That is, the normalization referred to in this embodiment is to weight an inclination value with a motion vector value to obtain an evaluation value.

動きぼやけ検出部206は、傾き正規化処理部205で演算された正規化された傾きと動きベクトル検出部203で検出された動きベクトルから、ぼやけ領域を検出する。ぼやけ領域を検出する方法の詳細は後述する。   The motion blur detection unit 206 detects a blur region from the normalized tilt calculated by the tilt normalization processing unit 205 and the motion vector detected by the motion vector detection unit 203. Details of the method for detecting the blurred region will be described later.

改善処理値選択部207は、動きぼやけ検出部206で検出されたぼやけ領域に対し、動きベクトル検出部203で検出された動きベクトル値に応じた改善処理値を選択し出力する。改善処理部208は、改善処理値選択部207から出力される改善処理値に応じて、画像中の動きぼやけを改善する。   The improvement process value selection unit 207 selects and outputs an improvement process value corresponding to the motion vector value detected by the motion vector detection unit 203 for the blur region detected by the motion blur detection unit 206. The improvement processing unit 208 improves motion blur in the image according to the improvement processing value output from the improvement processing value selection unit 207.

(動きベクトル検出・動きぼやけ改善方法)
以下、動きベクトルを検出し、画素傾きを検出して正規化し、動きぼやけ領域を検出し、動きぼやけ改善のためゲイン値を算出し、画像を改善する方法について説明する。
(Motion vector detection / motion blur improvement method)
In the following, a method for improving an image by detecting a motion vector, detecting and normalizing a pixel inclination, detecting a motion blur region, calculating a gain value for improving the motion blur will be described.

動きベクトル検出部203は、フレームの画像を所定のサイズに分割した検出単位ごとに動きベクトルを検出する。本実施形態においては1つの画素をもって1つの検出単位とするが、複数の画素で検出単位を構成しても良いのは実施形態1と同様である。   The motion vector detection unit 203 detects a motion vector for each detection unit obtained by dividing a frame image into a predetermined size. In the present embodiment, one pixel is used as one detection unit, but the detection unit may be configured by a plurality of pixels as in the first embodiment.

図19に本実施形態の動作例を示すタイミングチャートを示す。図19のaは入力映像信号201のあるフレーム内の2次元画像を、動きベクトル検出部203で検出された動きベクトルが通過する画素について、動きベクトルの方向に切り取った1次元の信号である。画素値が高く一定の領域は前景、低く一定の領域は背景、画素値が変化している領域は動きぼやけにより前景と背景が混じっている領域を表している。   FIG. 19 is a timing chart showing an operation example of this embodiment. FIG. 19A is a one-dimensional signal obtained by cutting a two-dimensional image in a frame of the input video signal 201 in the direction of the motion vector with respect to pixels through which the motion vector detected by the motion vector detection unit 203 passes. A constant region with a high pixel value indicates the foreground, a low constant region indicates the background, and a region where the pixel value changes indicates a region where the foreground and the background are mixed due to motion blur.

注目画素の動きベクトルは、ブロックマッチング法を用いて、次のような方法で検出することができる。図20に動きベクトル検出の様子を示す。ここで、図19のbは動きベクトル検出部203で検出された画素単位の動きベクトルを示している。動きベクトルは、前景領域とぼやけ領域には画素の動きに応じた動きベクトルが入力され、静止背景には静止ベクトルが入力される。図中では、前景が矢印で示すベクトルで動いているとする。   The motion vector of the pixel of interest can be detected by the following method using the block matching method. FIG. 20 shows the state of motion vector detection. Here, b in FIG. 19 shows a pixel-by-pixel motion vector detected by the motion vector detection unit 203. As the motion vector, a motion vector corresponding to the pixel motion is input to the foreground region and the blur region, and a still vector is input to the still background. In the figure, it is assumed that the foreground is moving with a vector indicated by an arrow.

図20において、フレーム1は入力映像信号201の画像、フレーム2はフレームメモ
リ部202から入力される画像を示す。それぞれの画像は動く前景(21a、21b)と静止する背景(22a、22b)とで構成され、フレーム2からフレーム1の間で前景が移動した様子を表している。ブロックマッチングは、フレーム1の注目画素(24a)の周囲、例えば水平±8画素、垂直±8画素のブロック(23a)を抽出し、フレーム2の画像の同形状ブロック(23b)と画素値の差を計算する。画素値の差の絶対値を計算し、ブロック全体にわたりその合計を算出する。注目画素の位置を中心として、周囲の領域を走査するようにこの合計値を計算し、合計値が最も値が小さくなった位置をブロックマッチングが良かったブロック(23b)と検出する。
In FIG. 20, frame 1 indicates an image of the input video signal 201, and frame 2 indicates an image input from the frame memory unit 202. Each image is composed of a moving foreground (21a, 21b) and a stationary background (22a, 22b), and shows a state in which the foreground has moved from frame 2 to frame 1. In block matching, a block (23a) of, for example, horizontal ± 8 pixels and vertical ± 8 pixels, for example, is extracted around the pixel of interest (24a) of frame 1, and the difference in pixel value from the same-shaped block (23b) of the image of frame 2 Calculate The absolute value of the pixel value difference is calculated and the sum is calculated over the entire block. The total value is calculated so that the surrounding area is scanned around the position of the pixel of interest, and the position where the total value is the smallest is detected as the block (23b) with good block matching.

フレーム2の検出ブロック(23b)の中心画素(24b)は、フレーム1の注目画素(24a)に移動したと考えることができる。したがって、注目画素(24a)の動きベクトルは、検出ブロック(23b)の中心画素(24b)から注目画素(24a)に向かうベクトルとする。このような手法で、画像の全画素のベクトルが検出できる。図20の場合では、フレーム1の動きベクトルは、前景領域(21c)に動きのあるベクトルが検出され、背景領域(22c)ではゼロベクトルが検出される。 It can be considered that the center pixel (24b) of the detection block (23b) of frame 2 has moved to the target pixel (24a) of frame 1. Therefore, the motion vector of the pixel of interest (24a) is a vector from the center pixel (24b) of the detection block (23b) toward the pixel of interest (24a). With such a method, a vector of all pixels of the image can be detected. In the case of FIG. 20, as the motion vector of frame 1, a vector having motion in the foreground area (21c) is detected, and a zero vector is detected in the background area (22c).

画素傾き検出部204からは、図19のcに示す画素傾きが検出され出力される。なお、本実施形態においては、ここで求めた画素傾きが本発明における特徴量に当たる。   From the pixel inclination detection unit 204, the pixel inclination shown in FIG. 19c is detected and output. In the present embodiment, the pixel inclination obtained here corresponds to the feature amount in the present invention.

傾き正規化処理部205では、画素傾き検出値にその画素の動きベクトル大きさを乗算し、正規化した傾きの値を得る。   The inclination normalization processing unit 205 multiplies the pixel inclination detection value by the motion vector size of the pixel to obtain a normalized inclination value.

動きぼやけ検出部206では、正規化された傾きの値が所定の範囲内になる領域を、動きぼやけ領域として検出する。動きぼやけが生じている領域では傾きが一定値以下になっていると考えられるので傾きの上限閾値bを定め、一方ある程度以下の傾きはノイズと判断できるので傾きの下限閾値aを定める。また、撮影時の時間積分時間が1フレームの時間とすると、動きベクトルが示す移動量と同じ画素数だけ動きぼやけが生じていると予測される。このことから、範囲の判定の条件は、レベルが閾値a以上で閾値b以下となる画素がベクトルの大きさ以上連続する場合、または、レベルが閾値−b以上で閾値−a以下となる画素がベクトルの大きさ以上連続する場合となる。   The motion blur detection unit 206 detects a region where the normalized inclination value is within a predetermined range as a motion blur region. Since it is considered that the slope is less than a certain value in the region where motion blur occurs, the slope upper limit threshold value b is determined. On the other hand, the slope lower than a certain level can be determined as noise, so the slope lower limit threshold value a is determined. Further, assuming that the time integration time at the time of shooting is a time of one frame, it is predicted that motion blur is generated by the same number of pixels as the movement amount indicated by the motion vector. From this, the condition for determining the range is that pixels whose level is greater than or equal to the threshold value a and less than or equal to the threshold value b continue for the vector size or more, or pixels whose level is greater than or equal to the threshold value −b and less than or equal to the threshold value −a It becomes a case where it continues for the size of a vector.

改善処理値選択部207は、動きぼやけ領域と検出された領域に、動きベクトル値に応じた改善処理値を出力する(図19のe)。   The improvement process value selection unit 207 outputs an improvement process value corresponding to the motion vector value to the area detected as the motion blur area (e in FIG. 19).

改善処理部208は、改善処理値に応じて入力映像信号の動きぼやけ処理をし、図19のfで示す出力映像信号209を得る。改善処理部208は、例えば輪郭強調処理が利用でき、改善処理値に応じて強度を切り換えれば良い。   The improvement processing unit 208 performs motion blur processing of the input video signal according to the improvement processing value, and obtains an output video signal 209 indicated by f in FIG. The improvement processing unit 208 can use, for example, contour enhancement processing, and may switch the intensity in accordance with the improvement processing value.

動きベクトルが大きいときは傾きも小さくなるが、傾き正規化処理部205で傾き値を動きベクトルで正規化するため、小さなベクトルから大きなベクトルまで処理が可能となる。   When the motion vector is large, the inclination becomes small, but since the inclination normalization processing unit 205 normalizes the inclination value with the motion vector, it is possible to process from a small vector to a large vector.

撮影後に合成されたテロップのような動きぼやけのない画像の動作例を図21に示す。このような入力映像信号では、画素傾きが大きく検出され、正規化された傾きが閾値b以上または閾値−b以下となるため、動きぼやけ領域として検出されず、あやまって動きぼやけ改善処理を施すことがない。   FIG. 21 shows an operation example of an image having no motion blur such as a telop synthesized after shooting. In such an input video signal, a large pixel inclination is detected, and the normalized inclination is not less than the threshold value b or not more than the threshold value −b. Therefore, the input image signal is not detected as a motion blur region and is subjected to a motion blur improvement process. There is no.

(処理の流れ)
図22に示したフローチャートを参照しつつ、本実施形態の映像処理フローについて説明する。
(Process flow)
The video processing flow of the present embodiment will be described with reference to the flowchart shown in FIG.

ステップS1において、動きベクトル検出部203は、画素毎の動きベクトルを検出する。   In step S1, the motion vector detection unit 203 detects a motion vector for each pixel.

ステップS2において、画素傾き検出部204は、入力映像信号の画素傾きを算出する。   In step S2, the pixel inclination detection unit 204 calculates the pixel inclination of the input video signal.

ステップS3において、傾き正規化処理部205は、ステップS2で算出した傾き値をステップS1で検出した動きベクトル値で正規化する。   In step S3, the inclination normalization processing unit 205 normalizes the inclination value calculated in step S2 with the motion vector value detected in step S1.

ステップS4において、動きぼやけ検出部206は、S3で正規化した傾きの値が閾値aと閾値bの間にあり、かつ、S1で検出した動きベクトルの方向にその大きさ以上連続しているかどうかを判定する。   In step S4, the motion blur detection unit 206 determines whether or not the slope value normalized in S3 is between the threshold value a and the threshold value b and continues in the direction of the motion vector detected in S1 for the magnitude or more. Determine.

判定結果がYesであれば、ステップS5において動きぼやけ領域として検出する。なお、正規化した画素傾きの値が負の場合は、その値が閾値-aと閾値-bの間にあり、かつ、ベクトルの方向にその大きさ以上連続している領域を動きぼやけ領域として検出する。   If the determination result is Yes, a motion blur region is detected in step S5. When the normalized pixel inclination value is negative, an area where the value is between the threshold value -a and the threshold value -b and is continuous in the vector direction by the magnitude or more is defined as a motion blur area. To detect.

ステップS6において、改善処理値選択部207は、動きぼやけ領域に、動きベクトル値に応じた改善処理値を選択し出力する。   In step S6, the improvement process value selection unit 207 selects and outputs an improvement process value corresponding to the motion vector value in the motion blur region.

ステップS7において、改善処理部208は、入力された改善処理値で動きぼやけを改善する。   In step S <b> 7, the improvement processing unit 208 improves motion blur using the input improvement process value.

ステップS8において、改善処理部208から、動きぼやけのある各画素値が補正された高フレームレート化された動画像が出力される。   In step S8, the improvement processing unit 208 outputs a moving image having a high frame rate in which each pixel value with motion blur is corrected.

(まとめ)
本実施形態によれば、このように動きぼやけ領域が検出でき、動きぼやけの生じている領域に適切な改善処理値で動きぼやけ改善処理ができ、高フレームレート変換した映像の鮮鋭感を向上できる。
(Summary)
According to the present embodiment, a motion blur region can be detected in this way, and motion blur improvement processing can be performed with an appropriate improvement processing value in a region where motion blur occurs, and the sharpness of a video converted at a high frame rate can be improved. .

<実施形態3>
実施形態2では動きぼやけ検出範囲を固定定数としている。そのため前景と背景のレベル差が大きくコントラストがある画像信号ではぼやけ領域を検出可能だが、レベル差が小さい場合に検出できない場合がある。そこで、本実施形態では、画像信号のコントラストに応じて検出範囲を切り換え、動きぼやけ領域検出の精度を向上する。
<Embodiment 3>
In the second embodiment, the motion blur detection range is a fixed constant. Therefore, a blurred region can be detected with an image signal having a large level difference between the foreground and the background and a contrast, but may not be detected when the level difference is small. Therefore, in the present embodiment, the detection range is switched according to the contrast of the image signal to improve the accuracy of motion blur region detection.

(映像処理装置の構成)
本実施形態のブロック図を図23に示す。ここでは実施形態2の構成に検出閾値生成部210が追加されている。検出閾値生成部210は入力映像信号201のコントラストの大きさに応じてぼやけ領域の検出閾値を生成する。
(Configuration of video processing device)
A block diagram of this embodiment is shown in FIG. Here, a detection threshold value generation unit 210 is added to the configuration of the second embodiment. The detection threshold generation unit 210 generates a blur threshold detection threshold according to the contrast level of the input video signal 201.

(動きぼやけ検出方法)
映像処理の動作例を示すタイミングチャートを図24に示す。図24のgは入力映像信号101にベクトルの大きさの倍の画素範囲にわたって最大値フィルタを施した信号を示し、hはベクトルの大きさの倍の画素範囲にわたって最小値フィルタを施した信号を示す。
(Motion blur detection method)
FIG. 24 shows a timing chart showing an operation example of video processing. In FIG. 24, g represents a signal obtained by applying a maximum value filter to the input video signal 101 over a pixel range that is twice the size of the vector, and h represents a signal obtained by performing a minimum value filter over a pixel range that is twice the size of the vector. Show.

図25に最大値フィルタと最小値フィルタのタイミングチャートを示す。最大値フィル
タは画素値が参照画素範囲の中で最も大きい画素値を選択するフィルタである。例えば、図24のbの最大値フィルタ出力信号のl5の画素値は、参照画素範囲を5画素とすると、(i3、i4、i5、i6、i7)の中で最大の画素値であるi7の画素値が選択される。同様に最小値フィルタは画素値が参照画素範囲の中で最も小さい画素値を選択するフィルタである。図24のiは信号gと信号hの差の信号であり、前景と背景のコントラストの大きさを示す信号なので、動きぼやけ検出の閾値に利用できる。
FIG. 25 shows a timing chart of the maximum value filter and the minimum value filter. The maximum value filter is a filter that selects the pixel value having the largest pixel value in the reference pixel range. For example, the pixel value of l5 of the maximum value filter output signal of b in FIG. 24 is that of i7 which is the maximum pixel value in (i3, i4, i5, i6, i7) when the reference pixel range is 5 pixels. A pixel value is selected. Similarly, the minimum value filter is a filter that selects the pixel value having the smallest pixel value in the reference pixel range. I in FIG. 24 is a signal indicating the difference between the signal g and the signal h, and is a signal indicating the magnitude of the contrast between the foreground and the background, and can be used as a threshold value for motion blur detection.

画像の撮影時の時間積分時間として予測される時間の上限は、フレーム周期と考えられる。このとき、動きぼやけ領域の画素傾きは、動きベクトル値の逆数に比例し、画素傾きと動きベクトル値の積はコントラストと等しくなる。一方、動きぼやけの改善が必要な撮影時の時間積分時間の下限は、フレームレート変換により変換したフレームレートの逆数となる。フレームレートを2倍にした場合には、撮影時の時間積分時間までを動きぼやけ改善対象をすればよく、このとき、動きぼやけ領域の画素傾きは、上記の上限時間での傾きの2倍に相当し、画素傾きと動きベクトル値の積はコントラストの2倍に等しくなる。   The upper limit of the time estimated as the time integration time at the time of capturing an image is considered to be the frame period. At this time, the pixel inclination of the motion blur region is proportional to the reciprocal of the motion vector value, and the product of the pixel inclination and the motion vector value is equal to the contrast. On the other hand, the lower limit of the time integration time during shooting that requires improvement of motion blur is the reciprocal of the frame rate converted by the frame rate conversion. When the frame rate is doubled, the motion blur can be improved up to the time integration time at the time of shooting. At this time, the pixel tilt of the motion blur region is double the tilt at the above upper limit time. Correspondingly, the product of the pixel inclination and the motion vector value is equal to twice the contrast.

このように、動きぼやけ改善対象を決定したとき、動きぼやけ領域検出の閾値の上限をコントラストの2倍の値、下限をコントラストの値に設定すればよい。すなわち、図24のフィルタ出力差分iの値とその2倍の値を閾値にすることで、処理対象となる動きぼやけを適切に検出することができる。   As described above, when the motion blur improvement target is determined, the upper limit of the motion blur region detection threshold may be set to a value twice the contrast, and the lower limit may be set to the contrast value. That is, by setting the value of the filter output difference i in FIG. 24 and twice the value as a threshold value, motion blur to be processed can be appropriately detected.

このように、動きぼやけ領域が検出されたとき、ベクトルの大きさに応じて改善処理値を選択することで、動きぼやけの生じている領域に、適切な改善処理値で動きぼやけ改善処理ができ、高フレームレート変換した映像の鮮鋭感を向上できる。   As described above, when a motion blur region is detected, by selecting an improvement processing value according to the magnitude of the vector, it is possible to perform motion blur improvement processing with an appropriate improvement processing value in a region where motion blur occurs. It is possible to improve the sharpness of the video converted at a high frame rate.

実施形態1の映像処理装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of a video processing apparatus according to a first embodiment. 動きベクトル値の検出方法を示す図。The figure which shows the detection method of a motion vector value. 前フレームから抽出領域を求める方法を示す図。The figure which shows the method of calculating | requiring an extraction area | region from a front frame. 空間周波数分割における成分量を示す図。The figure which shows the component amount in a spatial frequency division | segmentation. 空間周波数分割における成分量の変化を示す図。The figure which shows the change of the component amount in a spatial frequency division | segmentation. 前フレームの対応画素の動きベクトル値抽出を示す図。The figure which shows the motion vector value extraction of the corresponding pixel of a front frame. 動きベクトル値に対する低域成分量を示す図。The figure which shows the low-pass component amount with respect to a motion vector value. 8分割した空間周波数分割における成分量を示す図。The figure which shows the component amount in the spatial frequency division | segmentation divided into eight. 改善処理の内容を決定する際に用いるテーブル。A table used to determine the content of improvement processing. 前フレームの改善処理値の抽出を示す図。The figure which shows extraction of the improvement process value of a front frame. 動きベクトル変化量に対するゲイン値Aを示す図。The figure which shows the gain value A with respect to motion vector variation | change_quantity. 周波数成分変化量に対するゲイン値Bを示す図。The figure which shows the gain value B with respect to frequency component variation | change_quantity. 動きベクトル変化量×周波数成分変化量に対するゲイン値Cを示す図。The figure which shows the gain value C with respect to motion vector variation | change_quantity x frequency component variation | change_quantity. 注目画素の動きベクトル値に対する輪郭強調補正の強度を示す図。The figure which shows the intensity | strength of the outline emphasis correction | amendment with respect to the motion vector value of an attention pixel. 実施形態1の効果を示す図。FIG. 6 is a diagram illustrating an effect of the first embodiment. 動きぼやけの様子を示す図。The figure which shows the mode of motion blur. フレームレート変換と動きぼやけの影響を示す図。The figure which shows the influence of frame rate conversion and motion blur. 実施形態2の映像処理装置の構成を示すブロック図。FIG. 3 is a block diagram illustrating a configuration of a video processing apparatus according to a second embodiment. 実施形態2の映像処理装置の動作例を示すタイミングチャート1。9 is a timing chart 1 illustrating an operation example of the video processing apparatus according to the second embodiment. 動前景と静止背景の動きベクトルを説明する図。The figure explaining the motion vector of a motion foreground and a stationary background. 実施形態2の映像処理装置の動作例を示すタイミングチャート2。9 is a timing chart 2 illustrating an operation example of the video processing apparatus according to the second embodiment. 映像処理装置の動作を示すフローチャート。The flowchart which shows operation | movement of a video processing apparatus. 実施形態3の映像処理装置の構成を示すブロック図。FIG. 4 is a block diagram illustrating a configuration of a video processing apparatus according to a third embodiment. 実施形態3の映像処理装置の動作例を示すタイミングチャート。10 is a timing chart showing an operation example of the video processing apparatus according to the third embodiment. 最大値フィルタと最小値フィルタのタイミングチャート。Timing chart of maximum value filter and minimum value filter.

符号の説明Explanation of symbols

103,203 動きベクトル検出部
107 周波数成分変化量算出部
110 動きベクトル変化量算出部
115,208 改善処理部
206 動きぼやけ検出部
103, 203 Motion vector detection unit 107 Frequency component change amount calculation unit 110 Motion vector change amount calculation unit 115, 208 Improvement processing unit 206 Motion blur detection unit

Claims (10)

撮影した映像に生じる動きぼやけを補正する映像処理装置であって、
補正する現フレームに含まれる画像を所定のサイズの検出単位に分割し、前記検出単位ごとに動きベクトルを検出する動きベクトル検出部と、
画像領域の周波数成分を求めるとともに、前記検出単位を含む画像領域の周波数成分と、前記検出した動きベクトルの始点を含む画像領域の、前のフレームでの周波数成分と、を求める空間周波数分割部と、
検出した動きベクトルと、現フレームと前のフレームの間の、動きベクトルの大きさの変化及び周波数成分の変化とに基づいて、少なくとも、前のフレームから現フレームにかけて、動きベクトルの大きさが増加しかつ周波数成分が低域に変化した場合か、動きベクトルの大きさが減少しかつ周波数成分が高域に変化した場合に、前記検出単位における動きぼやけ有りと判定する動きぼやけ検出部と、
前記動きぼやけ検出部が動きぼやけ有りと判定した場合に、前記動きベクトルの大きさの変化及び周波数成分の変化に基づいて、動きぼやけを補正する改善処理部と、
を備えることを特徴とする映像処理装置。
A video processing device that corrects motion blur generated in a captured video,
A motion vector detection unit that divides an image included in a current frame to be corrected into detection units of a predetermined size and detects a motion vector for each detection unit;
A spatial frequency division unit for obtaining a frequency component of the image region and obtaining a frequency component of the image region including the detection unit and a frequency component in a previous frame of the image region including the start point of the detected motion vector; ,
Based on the detected motion vector and the change in the magnitude and frequency component of the motion vector between the current frame and the previous frame, the magnitude of the motion vector increases at least from the previous frame to the current frame. And when the frequency component changes to a low frequency, or when the magnitude of the motion vector decreases and the frequency component changes to a high frequency , a motion blur detection unit that determines that there is motion blur in the detection unit;
An improvement processing unit that corrects motion blur based on a change in magnitude of the motion vector and a change in frequency component when the motion blur detection unit determines that there is motion blur ;
A video processing apparatus comprising:
前記改善処理部は、前のフレームでの動きぼやけの補正を、動きベクトルの大きさの変化及び周波数成分の変化に基づいて修正することにより、現フレームに対する動きぼやけの補正を行うことを特徴とする請求項に記載の映像処理装置。 The improvement processing unit corrects the motion blur in the previous frame based on the change in the magnitude of the motion vector and the change in the frequency component, thereby correcting the motion blur for the current frame. The video processing apparatus according to claim 1 . 前のフレームでの動きベクトルを検出できない場合、
前記動きぼやけ検出部は、現フレームでの動きベクトルの大きさ及び周波数成分に基づいて、現フレームでの動きベクトルの大きさが、現フレームでの低域成分量が所定の範囲に入っているような動きベクトルの大きさである場合に、動きぼやけ有りと判定し、
前記改善処理部は、現フレームでの動きベクトルの大きさに基づいて動きぼやけを補正することを特徴とする請求項1又は2に記載の映像処理装置。
If the motion vector in the previous frame cannot be detected,
Based on the magnitude and frequency component of the motion vector in the current frame, the motion blur detection unit has a magnitude of the motion vector in the current frame and a low-frequency component amount in the current frame within a predetermined range. If the motion vector size is as follows, it is determined that there is motion blur,
The improvement processing unit, a video processing apparatus according to claim 1 or 2, characterized in that for correcting the motion blur based on the magnitude of the motion vector in the current frame.
撮影した映像に生じる動きぼやけを補正する映像処理装置であって、
補正する現フレームに含まれる画像を所定のサイズの検出単位に分割し、前記検出単位ごとに動きベクトルを検出する動きベクトル検出部と、
前記検出単位を含む画像領域の連続する画素値の変化の度合いを表す画素傾きを検出する画素傾き検出部
検出した動きベクトルの大きさ及び画素傾きに基づいて、画素傾きを動きベクトルの大きさで重み付けした値が所定の閾値の範囲にある場合に、前記検出単位における動きぼやけ有りと判定する動きぼやけ検出部と、
前記動きぼやけ検出部が動きぼやけ有りと判定した場合に、前記動きベクトルの大きさに基づいて、動きぼやけを補正する改善処理部と、
を備えることを特徴とする映像処理装置。
A video processing device that corrects motion blur generated in a captured video,
A motion vector detection unit that divides an image included in a current frame to be corrected into detection units of a predetermined size and detects a motion vector for each detection unit;
A pixel inclination detecting unit which detects a pixel gradient indicating a degree of change of successive pixel values of the image area including the detection unit,
Based on the detected motion vector magnitude and pixel inclination, motion blur detection is performed to determine that there is motion blur in the detection unit when a value obtained by weighting the pixel inclination by the magnitude of the motion vector is within a predetermined threshold range. And
When the motion blur detection unit determines that there is motion blur, an improvement processing unit that corrects motion blur based on the magnitude of the motion vector;
It further comprising a Film image processing apparatus.
前記動きぼやけ検出部は、画像のコントラストに応じて前記所定の閾値を変えることを特徴とする請求項に記載の映像処理装置。 The video processing apparatus according to claim 4 , wherein the motion blur detection unit changes the predetermined threshold according to a contrast of an image. 撮影した映像に生じる動きぼやけを補正する映像処理装置の制御方法であって、
補正する現フレームに含まれる画像を所定のサイズの検出単位に分割し、前記検出単位ごとに動きベクトルを検出するステップと、
画像領域の周波数成分を求めるとともに、前記検出単位を含む画像領域の周波数成分と、前記検出した動きベクトルの始点を含む画像領域の、前のフレームでの周波数成分と、を求めるステップと、
検出した動きベクトルと、現フレームと前のフレームの間の、動きベクトルの大きさの変化及び周波数成分の変化とに基づいて、少なくとも、前のフレームから現フレームにかけて、動きベクトルの大きさが増加しかつ周波数成分が低域に変化した場合か、動きベクトルの大きさが減少しかつ周波数成分が高域に変化した場合に、前記検出単位における動きぼやけ有りと判定する動きぼやけ検出ステップと、
前記動きぼやけ検出ステップにおいて、動きぼやけ有りと判定された場合に、前記動きベクトルの大きさの変化及び周波数成分の変化に基づいて、動きぼやけを補正する改善処理ステップと
有することを特徴とする映像処理装置の制御方法。
A control method of a video processing device for correcting motion blur that occurs in a captured video,
Dividing an image included in a current frame to be corrected into detection units of a predetermined size, and detecting a motion vector for each detection unit;
Obtaining the frequency component of the image region, and determining the frequency component of the image region including the detection unit and the frequency component in the previous frame of the image region including the start point of the detected motion vector;
Based on the detected motion vector and the change in the magnitude and frequency component of the motion vector between the current frame and the previous frame, the magnitude of the motion vector increases at least from the previous frame to the current frame. And a motion blur detection step for determining that there is motion blur in the detection unit when the frequency component changes to a low frequency, or when the magnitude of the motion vector decreases and the frequency component changes to a high frequency ,
In the motion blur detection step, when it is determined that there motion blur, based on the change in the change of the magnitude and frequency components of the motion vector, and having a improved process step of correcting the motion blur Control method of video processing apparatus.
前記改善処理ステップでは、前のフレームでの動きぼやけの補正を、動きベクトルの大きさの変化及び周波数成分の変化に基づいて修正することにより、現フレームに対する動きぼやけの補正を行うことを特徴とする請求項6に記載の映像処理装置の制御方法。  In the improvement processing step, the motion blur correction for the current frame is performed by correcting the motion blur correction in the previous frame based on the change in the magnitude of the motion vector and the change in the frequency component. A method for controlling a video processing apparatus according to claim 6. 前のフレームでの動きベクトルを検出できない場合、  If the motion vector in the previous frame cannot be detected,
前記動きぼやけ検出ステップでは、現フレームでの動きベクトルの大きさ及び周波数成分に基づいて、現フレームでの動きベクトルの大きさが、現フレームでの低域成分量が所定の範囲に入っているような動きベクトルの大きさである場合に、動きぼやけ有りと判定し、  In the motion blur detection step, the magnitude of the motion vector in the current frame and the amount of the low frequency component in the current frame are within a predetermined range based on the magnitude and frequency component of the motion vector in the current frame. If the motion vector size is as follows, it is determined that there is motion blur,
前記改善処理ステップでは、現フレームでの動きベクトルの大きさに基づいて動きぼやけを補正することを特徴とする請求項6又は7に記載の映像処理装置の制御方法。  8. The method according to claim 6, wherein in the improvement processing step, motion blur is corrected based on a magnitude of a motion vector in a current frame.
撮影した映像に生じる動きぼやけを補正する映像処理装置の制御方法であって、  A control method of a video processing device for correcting motion blur that occurs in a captured video,
補正する現フレームに含まれる画像を所定のサイズの検出単位に分割し、前記検出単位ごとに動きベクトルを検出するステップと、  Dividing an image included in a current frame to be corrected into detection units of a predetermined size, and detecting a motion vector for each detection unit;
前記検出単位を含む画像領域の連続する画素値の変化の度合いを表す画素傾きを検出する画素傾き検出ステップと、  A pixel inclination detection step for detecting a pixel inclination representing a degree of change in a continuous pixel value of an image region including the detection unit;
検出した動きベクトルの大きさ及び画素傾きに基づいて、画素傾きを動きベクトルの大きさで重み付けした値が所定の閾値の範囲にある場合に、前記検出単位における動きぼやけ有りと判定する動きぼやけ検出ステップと、  Based on the detected motion vector magnitude and pixel inclination, motion blur detection is performed to determine that there is motion blur in the detection unit when a value obtained by weighting the pixel inclination by the magnitude of the motion vector is within a predetermined threshold range. Steps,
前記動きぼやけ検出ステップにおいて、動きぼやけ有りと判定された場合に、前記動きベクトルの大きさに基づいて、動きぼやけを補正する改善処理ステップと、  In the motion blur detection step, when it is determined that there is motion blur, an improvement processing step of correcting motion blur based on the magnitude of the motion vector;
を有することを特徴とする映像処理装置の制御方法。A control method for a video processing apparatus, comprising:
前記動きぼやけ検出ステップでは、画像のコントラストに応じて前記所定の閾値を変えることを特徴とする請求項9に記載の映像処理装置の制御方法。  The video processing apparatus control method according to claim 9, wherein, in the motion blur detection step, the predetermined threshold is changed according to a contrast of an image.
JP2008318540A 2008-12-15 2008-12-15 Video processing apparatus and video processing apparatus control method Expired - Fee Related JP5219771B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008318540A JP5219771B2 (en) 2008-12-15 2008-12-15 Video processing apparatus and video processing apparatus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008318540A JP5219771B2 (en) 2008-12-15 2008-12-15 Video processing apparatus and video processing apparatus control method

Publications (2)

Publication Number Publication Date
JP2010141813A JP2010141813A (en) 2010-06-24
JP5219771B2 true JP5219771B2 (en) 2013-06-26

Family

ID=42351500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008318540A Expired - Fee Related JP5219771B2 (en) 2008-12-15 2008-12-15 Video processing apparatus and video processing apparatus control method

Country Status (1)

Country Link
JP (1) JP5219771B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5506623B2 (en) * 2010-09-27 2014-05-28 日立コンシューマエレクトロニクス株式会社 Video processing apparatus and video processing method
WO2016142965A1 (en) * 2015-03-10 2016-09-15 日本電気株式会社 Video processing device, video processing method, and storage medium storing video processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3742093B2 (en) * 2004-02-19 2006-02-01 シャープ株式会社 Video display device
KR101426095B1 (en) * 2007-02-07 2014-08-01 소니 주식회사 Image processing device, image picking-up device, and image processing method
CN101543043B (en) * 2007-02-20 2011-05-18 索尼株式会社 Image display device, video signal processing device, and video signal processing method
JP4139430B1 (en) * 2007-04-27 2008-08-27 シャープ株式会社 Image processing apparatus and method, image display apparatus and method

Also Published As

Publication number Publication date
JP2010141813A (en) 2010-06-24

Similar Documents

Publication Publication Date Title
US9202263B2 (en) System and method for spatio video image enhancement
US9240037B2 (en) Image processing apparatus and image processing method
JP6074254B2 (en) Image processing apparatus and control method thereof
US8254454B2 (en) Apparatus and method for reducing temporal noise
US8526736B2 (en) Image processing apparatus for correcting luminance and method thereof
US20180061029A1 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium storing image processing program of image processing apparatus
WO2014012364A1 (en) Method and device for correcting multi-exposure motion image
US9554058B2 (en) Method, apparatus, and system for generating high dynamic range image
US20080317372A1 (en) Method and apparatus for enhancing image, and image-processing system using the same
JP3526020B2 (en) Noise reduction device
JP2002010106A (en) Device and method for reducing noise and medium storing noise reduction program
CN110401784B (en) Motion smoothing method and system for adaptively adjusting filtering intensity and video equipment
JP2012108898A (en) Image processing device and image processing method
US11151693B2 (en) Image processing apparatus and image processing method for noise reduction
JP2015144475A (en) Imaging apparatus, control method of the same, program and storage medium
JP5882702B2 (en) Imaging device
US11887286B2 (en) Image processing device and image processing method to generate image for object recognition
CN110958361A (en) Image pickup apparatus capable of HDR composition, control method therefor, and storage medium
JP5219771B2 (en) Video processing apparatus and video processing apparatus control method
JP2005150903A (en) Image processing apparatus, noise elimination method, and noise elimination program
JP2010183460A (en) Image capturing apparatus and method of controlling the same
EP3462725A1 (en) Image processing method, image processing apparatus, imaging apparatus, and program
JP5520863B2 (en) Image signal processing device
JP2010183461A (en) Image capturing apparatus and method of controlling the same
US20180352153A1 (en) Image processing apparatus that generates evaluation value for evaluating luminance of image data, image capturing apparatus, method for processing image, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5219771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees